name
string | code
string | asm
string | file
string |
|---|---|---|---|
void embree::avx512::CurveNiIntersectorK<8, 16>::intersect_hn<embree::avx512::OrientedCurve1IntersectorK<embree::HermiteCurveT, 16>, embree::avx512::Intersect1KEpilog1<16, true>>(embree::avx512::CurvePrecalculationsK<16>&, embree::RayHitK<16>&, unsigned long, embree::RayQueryContext*, embree::CurveNi<8> const&)
|
static __forceinline void intersect_hn(Precalculations& pre, RayHitK<K>& ray, const size_t k, RayQueryContext* context, const Primitive& prim)
{
vfloat<M> tNear;
vbool<M> valid = intersect(ray,k,prim,tNear);
const size_t N = prim.N;
size_t mask = movemask(valid);
while (mask)
{
const size_t i = bscf(mask);
STAT3(normal.trav_prims,1,1,1);
const unsigned int geomID = prim.geomID(N);
const unsigned int primID = prim.primID(N)[i];
const CurveGeometry* geom = context->scene->get<CurveGeometry>(geomID);
Vec3ff p0,t0,p1,t1; Vec3fa n0,dn0,n1,dn1; geom->gather_hermite(p0,t0,n0,dn0,p1,t1,n1,dn1,geom->curve(primID));
Intersector().intersect(pre,ray,k,context,geom,primID,p0,t0,p1,t1,n0,dn0,n1,dn1,Epilog(ray,k,context,geomID,primID));
mask &= movemask(tNear <= vfloat<M>(ray.tfar[k]));
}
}
|
pushq %rbp
movq %rsp, %rbp
pushq %r15
pushq %r14
pushq %r13
pushq %r12
pushq %rbx
andq $-0x40, %rsp
subq $0x740, %rsp # imm = 0x740
movq %rcx, %r10
movq %rdx, %r11
movzbl 0x1(%r8), %ecx
leaq (%rcx,%rcx,4), %rax
leaq (%rax,%rax,4), %rdx
vbroadcastss 0x12(%r8,%rdx), %xmm0
vmovss (%rsi,%r11,4), %xmm1
vmovss 0x100(%rsi,%r11,4), %xmm2
vinsertps $0x10, 0x40(%rsi,%r11,4), %xmm1, %xmm1 # xmm1 = xmm1[0],mem[0],xmm1[2,3]
vinsertps $0x20, 0x80(%rsi,%r11,4), %xmm1, %xmm1 # xmm1 = xmm1[0,1],mem[0],xmm1[3]
vinsertps $0x10, 0x140(%rsi,%r11,4), %xmm2, %xmm2 # xmm2 = xmm2[0],mem[0],xmm2[2,3]
vinsertps $0x20, 0x180(%rsi,%r11,4), %xmm2, %xmm2 # xmm2 = xmm2[0,1],mem[0],xmm2[3]
vsubps 0x6(%r8,%rdx), %xmm1, %xmm1
vmulps %xmm1, %xmm0, %xmm3
vmulps %xmm2, %xmm0, %xmm0
vpmovsxbd 0x6(%r8,%rcx,4), %ymm1
vpmovsxbd 0x6(%r8,%rax), %ymm2
vcvtdq2ps %ymm1, %ymm5
vcvtdq2ps %ymm2, %ymm6
leaq (%rcx,%rcx,2), %rdx
vpmovsxbd 0x6(%r8,%rdx,2), %ymm1
vcvtdq2ps %ymm1, %ymm4
leaq (%rcx,%rax,2), %r9
vpmovsxbd 0x6(%r8,%r9), %ymm1
leal (,%rdx,4), %r9d
vpmovsxbd 0x6(%r8,%r9), %ymm2
vcvtdq2ps %ymm1, %ymm7
vcvtdq2ps %ymm2, %ymm8
addq %rcx, %r9
vpmovsxbd 0x6(%r8,%r9), %ymm1
vcvtdq2ps %ymm1, %ymm9
leaq (%rcx,%rcx,8), %rbx
leal (%rbx,%rbx), %r9d
vpmovsxbd 0x6(%r8,%r9), %ymm1
vcvtdq2ps %ymm1, %ymm10
addq %rcx, %r9
vpmovsxbd 0x6(%r8,%r9), %ymm1
vcvtdq2ps %ymm1, %ymm11
shll $0x2, %eax
vpmovsxbd 0x6(%r8,%rax), %ymm1
vcvtdq2ps %ymm1, %ymm12
vbroadcastss %xmm0, %ymm13
vbroadcastss 0x27252c(%rip), %ymm15 # 0x1f12704
vbroadcastss 0x280cfa(%rip), %ymm27 # 0x1f20edc
vpermps %ymm0, %ymm15, %ymm14
vpermps %ymm0, %ymm27, %ymm0
vmulps %ymm4, %ymm0, %ymm2
vmulps %ymm0, %ymm9, %ymm1
vmulps %ymm0, %ymm12, %ymm0
vfmadd231ps %ymm6, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm6) + ymm2
vfmadd231ps %ymm8, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm8) + ymm1
vfmadd231ps %ymm14, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm14) + ymm0
vfmadd231ps %ymm5, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm5) + ymm2
vfmadd231ps %ymm7, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm7) + ymm1
vfmadd231ps %ymm13, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm13) + ymm0
vbroadcastss %xmm3, %ymm13
vpermps %ymm3, %ymm15, %ymm14
vpermps %ymm3, %ymm27, %ymm3
vmulps %ymm4, %ymm3, %ymm15
vmulps %ymm3, %ymm9, %ymm4
vmulps %ymm3, %ymm12, %ymm3
vfmadd231ps %ymm6, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm6) + ymm15
vfmadd231ps %ymm8, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm8) + ymm4
vfmadd231ps %ymm11, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm11) + ymm3
vfmadd231ps %ymm5, %ymm13, %ymm15 # ymm15 = (ymm13 * ymm5) + ymm15
vfmadd231ps %ymm7, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm7) + ymm4
vbroadcastss 0x280c6f(%rip), %ymm5 # 0x1f20ec4
vfmadd231ps %ymm10, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm10) + ymm3
vandps %ymm5, %ymm2, %ymm6
vbroadcastss 0x250d81(%rip), %ymm7 # 0x1ef0fe8
vcmpltps %ymm7, %ymm6, %k1
vmovaps %ymm7, %ymm2 {%k1}
vandps %ymm5, %ymm1, %ymm6
vcmpltps %ymm7, %ymm6, %k1
vmovaps %ymm7, %ymm1 {%k1}
vandps %ymm5, %ymm0, %ymm5
vcmpltps %ymm7, %ymm5, %k1
vmovaps %ymm7, %ymm0 {%k1}
vrcp14ps %ymm2, %ymm5
vbroadcastss 0x24c46f(%rip), %ymm6 # 0x1eec714
vfnmadd213ps %ymm6, %ymm5, %ymm2 # ymm2 = -(ymm5 * ymm2) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm2 # ymm2 = (ymm2 * ymm5) + ymm5
vrcp14ps %ymm1, %ymm5
vfnmadd213ps %ymm6, %ymm5, %ymm1 # ymm1 = -(ymm5 * ymm1) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm1 # ymm1 = (ymm1 * ymm5) + ymm5
vrcp14ps %ymm0, %ymm5
vfnmadd213ps %ymm6, %ymm5, %ymm0 # ymm0 = -(ymm5 * ymm0) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm0 # ymm0 = (ymm0 * ymm5) + ymm5
leaq (,%rcx,8), %r9
subq %rcx, %r9
vpmovsxwd 0x6(%r8,%r9), %ymm5
vcvtdq2ps %ymm5, %ymm5
vsubps %ymm15, %ymm5, %ymm5
vmulps %ymm5, %ymm2, %ymm5
vpmovsxwd 0x6(%r8,%rbx), %ymm6
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm15, %ymm6, %ymm6
leaq (%rcx,%rcx), %r9
addq %rcx, %rax
shlq $0x3, %rdx
subq %rcx, %rdx
vpbroadcastd %ecx, %ymm7
shll $0x4, %ecx
vpmovsxwd 0x6(%r8,%rcx), %ymm8
vmulps %ymm6, %ymm2, %ymm2
subq %r9, %rcx
vpmovsxwd 0x6(%r8,%rcx), %ymm6
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm4, %ymm6, %ymm6
vmulps %ymm6, %ymm1, %ymm6
vcvtdq2ps %ymm8, %ymm8
vsubps %ymm4, %ymm8, %ymm4
vmulps %ymm4, %ymm1, %ymm1
vpmovsxwd 0x6(%r8,%rax), %ymm4
vcvtdq2ps %ymm4, %ymm4
vsubps %ymm3, %ymm4, %ymm4
vmulps %ymm0, %ymm4, %ymm4
vpmovsxwd 0x6(%r8,%rdx), %ymm8
vcvtdq2ps %ymm8, %ymm8
vsubps %ymm3, %ymm8, %ymm3
vmulps %ymm3, %ymm0, %ymm0
vpminsd %ymm2, %ymm5, %ymm3
vpminsd %ymm1, %ymm6, %ymm8
vmaxps %ymm8, %ymm3, %ymm3
vpminsd %ymm0, %ymm4, %ymm8
vmaxps 0xc0(%rsi,%r11,4){1to8}, %ymm8, %ymm8
vmaxps %ymm8, %ymm3, %ymm3
vmulps 0x27fb7b(%rip){1to8}, %ymm3, %ymm3 # 0x1f1ff10
vpmaxsd %ymm2, %ymm5, %ymm2
vpmaxsd %ymm1, %ymm6, %ymm1
vminps %ymm1, %ymm2, %ymm1
vpmaxsd %ymm0, %ymm4, %ymm0
vminps 0x200(%rsi,%r11,4){1to8}, %ymm0, %ymm0
vminps %ymm0, %ymm1, %ymm0
vmulps 0x27fb53(%rip){1to8}, %ymm0, %ymm0 # 0x1f1ff14
vpcmpgtd 0x2ba555(%rip), %ymm7, %k0 # 0x1f5a920
vmovaps %ymm3, 0x380(%rsp)
vcmpleps %ymm0, %ymm3, %k1
ktestb %k0, %k1
je 0x1ca227d
kandb %k0, %k1, %k0
kmovd %k0, %eax
movzbl %al, %r13d
leaq (%r11,%r11,2), %rax
shlq $0x4, %rax
leaq (%rdi,%rax), %rbx
addq $0x40, %rbx
movl $0x1, %eax
shlxl %r11d, %eax, %eax
kmovd %eax, %k0
vpmovm2d %k0, %zmm0
vmovdqa64 %zmm0, 0x400(%rsp)
vbroadcastss 0x250bc5(%rip), %xmm17 # 0x1ef0fec
vbroadcastss 0x280a93(%rip), %xmm19 # 0x1f20ec4
vbroadcastss 0x280a85(%rip), %xmm20 # 0x1f20ec0
vxorps %xmm30, %xmm30, %xmm30
tzcntq %r13, %rax
movl 0x2(%r8), %r15d
movl 0x6(%r8,%rax,4), %r12d
movq (%r10), %rax
movq 0x1e8(%rax), %rax
movq (%rax,%r15,8), %rax
movq %r12, %rcx
imulq 0x68(%rax), %rcx
movq 0x58(%rax), %rdx
movq 0x90(%rax), %r9
movl (%rdx,%rcx), %ecx
movq 0xa0(%rax), %rdi
movq %rdi, %rdx
imulq %rcx, %rdx
vmovaps (%r9,%rdx), %xmm5
leaq 0x1(%rcx), %rdx
imulq %rdx, %rdi
vmovaps (%r9,%rdi), %xmm4
movq 0xc8(%rax), %r14
movq 0xd8(%rax), %rdi
movq %rdi, %r9
imulq %rcx, %r9
vmovups (%r14,%r9), %xmm6
movq 0x100(%rax), %r9
imulq %rdx, %rdi
vmovups (%r14,%rdi), %xmm7
movq 0x110(%rax), %r14
movq %r14, %rdi
imulq %rcx, %rdi
vmovaps (%r9,%rdi), %xmm8
imulq %rdx, %r14
vmovaps (%r9,%r14), %xmm9
movq %r15, %r9
movq 0x148(%rax), %rdi
imulq %rdi, %rcx
imulq %rdx, %rdi
movq 0x138(%rax), %rax
vmovups (%rax,%rcx), %xmm10
vmovss (%rsi,%r11,4), %xmm0
vinsertps $0x1c, 0x40(%rsi,%r11,4), %xmm0, %xmm0 # xmm0 = xmm0[0],mem[0],zero,zero
vinsertps $0x28, 0x80(%rsi,%r11,4), %xmm0, %xmm0 # xmm0 = xmm0[0,1],mem[0],zero
vmovss 0xc0(%rsi,%r11,4), %xmm1
vmovss %xmm1, 0xac(%rsp)
vbroadcastss 0x251989(%rip), %xmm22 # 0x1ef1ebc
vfmadd132ps %xmm22, %xmm5, %xmm8 # xmm8 = (xmm8 * xmm22) + xmm5
vfnmadd132ps %xmm22, %xmm4, %xmm9 # xmm9 = -(xmm9 * xmm22) + xmm4
vmovups (%rax,%rdi), %xmm11
vfmadd132ps %xmm22, %xmm6, %xmm10 # xmm10 = (xmm10 * xmm22) + xmm6
vfnmadd132ps %xmm22, %xmm7, %xmm11 # xmm11 = -(xmm11 * xmm22) + xmm7
vxorps %xmm15, %xmm15, %xmm15
vmulps %xmm4, %xmm15, %xmm1
vfmadd231ps %xmm15, %xmm9, %xmm1 # xmm1 = (xmm9 * xmm15) + xmm1
vxorps %xmm2, %xmm2, %xmm2
vfmadd213ps %xmm1, %xmm8, %xmm2 # xmm2 = (xmm8 * xmm2) + xmm1
vaddps %xmm2, %xmm5, %xmm2
vfmadd231ps %xmm17, %xmm8, %xmm1 # xmm1 = (xmm8 * xmm17) + xmm1
vfnmadd231ps %xmm17, %xmm5, %xmm1 # xmm1 = -(xmm5 * xmm17) + xmm1
vmulps %xmm7, %xmm15, %xmm12
vfmadd231ps %xmm15, %xmm11, %xmm12 # xmm12 = (xmm11 * xmm15) + xmm12
vxorps %xmm3, %xmm3, %xmm3
vfmadd213ps %xmm12, %xmm10, %xmm3 # xmm3 = (xmm10 * xmm3) + xmm12
vaddps %xmm3, %xmm6, %xmm13
vfmadd231ps %xmm17, %xmm10, %xmm12 # xmm12 = (xmm10 * xmm17) + xmm12
vfnmadd231ps %xmm17, %xmm6, %xmm12 # xmm12 = -(xmm6 * xmm17) + xmm12
vxorps %xmm3, %xmm3, %xmm3
vfmadd213ps %xmm4, %xmm9, %xmm3 # xmm3 = (xmm9 * xmm3) + xmm4
vfmadd231ps %xmm15, %xmm8, %xmm3 # xmm3 = (xmm8 * xmm15) + xmm3
vfmadd231ps %xmm15, %xmm5, %xmm3 # xmm3 = (xmm5 * xmm15) + xmm3
vmulps %xmm17, %xmm4, %xmm4
vfnmadd231ps %xmm9, %xmm17, %xmm4 # xmm4 = -(xmm17 * xmm9) + xmm4
vfmadd231ps %xmm8, %xmm15, %xmm4 # xmm4 = (xmm15 * xmm8) + xmm4
vfnmadd231ps %xmm5, %xmm15, %xmm4 # xmm4 = -(xmm15 * xmm5) + xmm4
vxorps %xmm5, %xmm5, %xmm5
vfmadd213ps %xmm7, %xmm11, %xmm5 # xmm5 = (xmm11 * xmm5) + xmm7
vfmadd231ps %xmm15, %xmm10, %xmm5 # xmm5 = (xmm10 * xmm15) + xmm5
vfmadd231ps %xmm15, %xmm6, %xmm5 # xmm5 = (xmm6 * xmm15) + xmm5
vmulps %xmm17, %xmm7, %xmm8
vfnmadd231ps %xmm11, %xmm17, %xmm8 # xmm8 = -(xmm17 * xmm11) + xmm8
vfmadd231ps %xmm10, %xmm15, %xmm8 # xmm8 = (xmm15 * xmm10) + xmm8
vfnmadd231ps %xmm6, %xmm15, %xmm8 # xmm8 = -(xmm15 * xmm6) + xmm8
vshufps $0xc9, %xmm1, %xmm1, %xmm6 # xmm6 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm13, %xmm13, %xmm7 # xmm7 = xmm13[1,2,0,3]
vmulps %xmm7, %xmm1, %xmm7
vfmsub231ps %xmm13, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm13) - xmm7
vshufps $0xc9, %xmm7, %xmm7, %xmm7 # xmm7 = xmm7[1,2,0,3]
vshufps $0xc9, %xmm12, %xmm12, %xmm9 # xmm9 = xmm12[1,2,0,3]
vmulps %xmm1, %xmm9, %xmm9
vfmsub231ps %xmm12, %xmm6, %xmm9 # xmm9 = (xmm6 * xmm12) - xmm9
vshufps $0xc9, %xmm9, %xmm9, %xmm9 # xmm9 = xmm9[1,2,0,3]
vshufps $0xc9, %xmm4, %xmm4, %xmm6 # xmm6 = xmm4[1,2,0,3]
vshufps $0xc9, %xmm5, %xmm5, %xmm10 # xmm10 = xmm5[1,2,0,3]
vmulps %xmm4, %xmm10, %xmm10
vfmsub231ps %xmm5, %xmm6, %xmm10 # xmm10 = (xmm6 * xmm5) - xmm10
vshufps $0xc9, %xmm10, %xmm10, %xmm5 # xmm5 = xmm10[1,2,0,3]
vshufps $0xc9, %xmm8, %xmm8, %xmm10 # xmm10 = xmm8[1,2,0,3]
vmulps %xmm4, %xmm10, %xmm10
vfmsub231ps %xmm8, %xmm6, %xmm10 # xmm10 = (xmm6 * xmm8) - xmm10
vshufps $0xc9, %xmm10, %xmm10, %xmm6 # xmm6 = xmm10[1,2,0,3]
vdpps $0x7f, %xmm7, %xmm7, %xmm8
vmovss %xmm8, %xmm15, %xmm10 # xmm10 = xmm8[0],xmm15[1,2,3]
vrsqrt14ss %xmm10, %xmm15, %xmm11
vmovss 0x24c0b6(%rip), %xmm16 # 0x1eec718
vmulss %xmm16, %xmm11, %xmm12
vmovss 0x24c50e(%rip), %xmm17 # 0x1eecb80
vmulss %xmm17, %xmm8, %xmm13
vmulss %xmm11, %xmm13, %xmm13
vmulss %xmm11, %xmm11, %xmm11
vmulss %xmm11, %xmm13, %xmm11
vsubss %xmm11, %xmm12, %xmm11
vdpps $0x7f, %xmm9, %xmm7, %xmm12
vbroadcastss %xmm11, %xmm11
vmulps %xmm7, %xmm11, %xmm13
vbroadcastss %xmm8, %xmm14
vmulps %xmm9, %xmm14, %xmm9
vbroadcastss %xmm12, %xmm12
vmulps %xmm7, %xmm12, %xmm7
vsubps %xmm7, %xmm9, %xmm7
vrcp14ss %xmm10, %xmm15, %xmm9
vmovss 0x250936(%rip), %xmm18 # 0x1ef0ff8
vfnmadd213ss %xmm18, %xmm9, %xmm8 # xmm8 = -(xmm9 * xmm8) + xmm18
vmulss %xmm8, %xmm9, %xmm8
vbroadcastss %xmm8, %xmm8
vmulps %xmm7, %xmm8, %xmm7
vmulps %xmm7, %xmm11, %xmm7
vdpps $0x7f, %xmm5, %xmm5, %xmm8
vmovss %xmm8, %xmm15, %xmm9 # xmm9 = xmm8[0],xmm15[1,2,3]
vrsqrt14ss %xmm9, %xmm15, %xmm10
vmulss %xmm16, %xmm10, %xmm11
vmulss %xmm17, %xmm8, %xmm12
vmulss %xmm10, %xmm12, %xmm12
vmulss %xmm10, %xmm10, %xmm10
vmulss %xmm10, %xmm12, %xmm10
vsubss %xmm10, %xmm11, %xmm10
vbroadcastss %xmm10, %xmm10
vdpps $0x7f, %xmm6, %xmm5, %xmm11
vmulps %xmm5, %xmm10, %xmm12
vbroadcastss %xmm8, %xmm14
vmulps %xmm6, %xmm14, %xmm6
vbroadcastss %xmm11, %xmm11
vmulps %xmm5, %xmm11, %xmm5
vsubps %xmm5, %xmm6, %xmm5
vrcp14ss %xmm9, %xmm15, %xmm6
vfnmadd213ss %xmm18, %xmm6, %xmm8 # xmm8 = -(xmm6 * xmm8) + xmm18
vmulss %xmm6, %xmm8, %xmm6
vbroadcastss %xmm6, %xmm6
vmulps %xmm6, %xmm5, %xmm5
vmulps %xmm5, %xmm10, %xmm5
vshufps $0xff, %xmm2, %xmm2, %xmm6 # xmm6 = xmm2[3,3,3,3]
vmulps %xmm6, %xmm13, %xmm8
vsubps %xmm8, %xmm2, %xmm14
vshufps $0xff, %xmm1, %xmm1, %xmm9 # xmm9 = xmm1[3,3,3,3]
vmulps %xmm13, %xmm9, %xmm9
vmulps %xmm7, %xmm6, %xmm6
vaddps %xmm6, %xmm9, %xmm6
vsubps %xmm6, %xmm1, %xmm7
vaddps %xmm2, %xmm8, %xmm13
vaddps %xmm6, %xmm1, %xmm1
vshufps $0xff, %xmm3, %xmm3, %xmm2 # xmm2 = xmm3[3,3,3,3]
vmulps %xmm2, %xmm12, %xmm6
vsubps %xmm6, %xmm3, %xmm15
vshufps $0xff, %xmm4, %xmm4, %xmm8 # xmm8 = xmm4[3,3,3,3]
vmulps %xmm12, %xmm8, %xmm8
vmulps %xmm5, %xmm2, %xmm2
vaddps %xmm2, %xmm8, %xmm2
vsubps %xmm2, %xmm4, %xmm5
vaddps %xmm6, %xmm3, %xmm16
vaddps %xmm2, %xmm4, %xmm2
vmulps %xmm22, %xmm7, %xmm3
vaddps %xmm3, %xmm14, %xmm17
vmulps %xmm22, %xmm5, %xmm3
vsubps %xmm3, %xmm15, %xmm18
vmulps %xmm22, %xmm1, %xmm1
vaddps %xmm1, %xmm13, %xmm21
vmulps %xmm22, %xmm2, %xmm1
vsubps %xmm1, %xmm16, %xmm22
vsubps %xmm0, %xmm14, %xmm1
vbroadcastss %xmm1, %xmm2
vshufps $0x55, %xmm1, %xmm1, %xmm3 # xmm3 = xmm1[1,1,1,1]
vmovaps %xmm1, 0x310(%rsp)
vshufps $0xaa, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,2,2,2]
vmovaps (%rbx), %xmm4
vmovaps 0x10(%rbx), %xmm5
vmovaps 0x20(%rbx), %xmm7
vmulps %xmm1, %xmm7, %xmm1
vfmadd231ps %xmm3, %xmm5, %xmm1 # xmm1 = (xmm5 * xmm3) + xmm1
vfmadd231ps %xmm2, %xmm4, %xmm1 # xmm1 = (xmm4 * xmm2) + xmm1
vsubps %xmm0, %xmm17, %xmm2
vbroadcastss %xmm2, %xmm3
vshufps $0x55, %xmm2, %xmm2, %xmm6 # xmm6 = xmm2[1,1,1,1]
vmovaps %xmm2, 0x300(%rsp)
vshufps $0xaa, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[2,2,2,2]
vmulps %xmm2, %xmm7, %xmm2
vfmadd231ps %xmm6, %xmm5, %xmm2 # xmm2 = (xmm5 * xmm6) + xmm2
vfmadd231ps %xmm3, %xmm4, %xmm2 # xmm2 = (xmm4 * xmm3) + xmm2
vsubps %xmm0, %xmm18, %xmm3
vbroadcastss %xmm3, %xmm6
vshufps $0x55, %xmm3, %xmm3, %xmm8 # xmm8 = xmm3[1,1,1,1]
vmovaps %xmm3, 0x2f0(%rsp)
vshufps $0xaa, %xmm3, %xmm3, %xmm3 # xmm3 = xmm3[2,2,2,2]
vmulps %xmm3, %xmm7, %xmm3
vfmadd231ps %xmm8, %xmm5, %xmm3 # xmm3 = (xmm5 * xmm8) + xmm3
vfmadd231ps %xmm6, %xmm4, %xmm3 # xmm3 = (xmm4 * xmm6) + xmm3
vsubps %xmm0, %xmm15, %xmm6
vbroadcastss %xmm6, %xmm8
vshufps $0x55, %xmm6, %xmm6, %xmm9 # xmm9 = xmm6[1,1,1,1]
vmovaps %xmm6, 0x2e0(%rsp)
vshufps $0xaa, %xmm6, %xmm6, %xmm6 # xmm6 = xmm6[2,2,2,2]
vmulps %xmm6, %xmm7, %xmm6
vfmadd231ps %xmm9, %xmm5, %xmm6 # xmm6 = (xmm5 * xmm9) + xmm6
vfmadd231ps %xmm8, %xmm4, %xmm6 # xmm6 = (xmm4 * xmm8) + xmm6
vsubps %xmm0, %xmm13, %xmm10
vbroadcastss %xmm10, %xmm8
vshufps $0x55, %xmm10, %xmm10, %xmm9 # xmm9 = xmm10[1,1,1,1]
vmovaps %xmm10, 0x2d0(%rsp)
vshufps $0xaa, %xmm10, %xmm10, %xmm10 # xmm10 = xmm10[2,2,2,2]
vmulps %xmm7, %xmm10, %xmm10
vfmadd231ps %xmm9, %xmm5, %xmm10 # xmm10 = (xmm5 * xmm9) + xmm10
vfmadd231ps %xmm8, %xmm4, %xmm10 # xmm10 = (xmm4 * xmm8) + xmm10
vsubps %xmm0, %xmm21, %xmm11
vbroadcastss %xmm11, %xmm8
vshufps $0x55, %xmm11, %xmm11, %xmm9 # xmm9 = xmm11[1,1,1,1]
vmovaps %xmm11, 0x2c0(%rsp)
vshufps $0xaa, %xmm11, %xmm11, %xmm11 # xmm11 = xmm11[2,2,2,2]
vmulps %xmm7, %xmm11, %xmm11
vfmadd231ps %xmm9, %xmm5, %xmm11 # xmm11 = (xmm5 * xmm9) + xmm11
vfmadd231ps %xmm8, %xmm4, %xmm11 # xmm11 = (xmm4 * xmm8) + xmm11
vsubps %xmm0, %xmm22, %xmm12
vbroadcastss %xmm12, %xmm8
vshufps $0x55, %xmm12, %xmm12, %xmm9 # xmm9 = xmm12[1,1,1,1]
vmovaps %xmm12, 0x2b0(%rsp)
vshufps $0xaa, %xmm12, %xmm12, %xmm12 # xmm12 = xmm12[2,2,2,2]
vmulps %xmm7, %xmm12, %xmm12
vfmadd231ps %xmm9, %xmm5, %xmm12 # xmm12 = (xmm5 * xmm9) + xmm12
vfmadd231ps %xmm8, %xmm4, %xmm12 # xmm12 = (xmm4 * xmm8) + xmm12
vsubps %xmm0, %xmm16, %xmm9
vbroadcastss %xmm9, %xmm0
vshufps $0x55, %xmm9, %xmm9, %xmm8 # xmm8 = xmm9[1,1,1,1]
vmovaps %xmm9, 0x2a0(%rsp)
vshufps $0xaa, %xmm9, %xmm9, %xmm9 # xmm9 = xmm9[2,2,2,2]
vmulps %xmm7, %xmm9, %xmm7
vfmadd231ps %xmm8, %xmm5, %xmm7 # xmm7 = (xmm5 * xmm8) + xmm7
vfmadd231ps %xmm0, %xmm4, %xmm7 # xmm7 = (xmm4 * xmm0) + xmm7
vmovlhps %xmm10, %xmm1, %xmm8 # xmm8 = xmm1[0],xmm10[0]
vmovlhps %xmm11, %xmm2, %xmm9 # xmm9 = xmm2[0],xmm11[0]
vmovlhps %xmm12, %xmm3, %xmm23 # xmm23 = xmm3[0],xmm12[0]
vmovlhps %xmm7, %xmm6, %xmm24 # xmm24 = xmm6[0],xmm7[0]
vminps %xmm9, %xmm8, %xmm0
vmaxps %xmm9, %xmm8, %xmm4
vminps %xmm24, %xmm23, %xmm5
vminps %xmm5, %xmm0, %xmm0
vmaxps %xmm24, %xmm23, %xmm5
vmaxps %xmm5, %xmm4, %xmm4
vshufpd $0x3, %xmm0, %xmm0, %xmm5 # xmm5 = xmm0[1,1]
vminps %xmm5, %xmm0, %xmm0
vshufpd $0x3, %xmm4, %xmm4, %xmm5 # xmm5 = xmm4[1,1]
vmaxps %xmm5, %xmm4, %xmm4
vandps %xmm19, %xmm0, %xmm0
vandps %xmm19, %xmm4, %xmm4
vmaxps %xmm4, %xmm0, %xmm0
vmovshdup %xmm0, %xmm4 # xmm4 = xmm0[1,1,3,3]
vmaxss %xmm0, %xmm4, %xmm0
leaq 0xff(%r13), %r15
vmulss 0x251505(%rip), %xmm0, %xmm0 # 0x1ef1eb8
vmovddup %xmm1, %xmm19 # xmm19 = xmm1[0,0]
vmovddup %xmm2, %xmm25 # xmm25 = xmm2[0,0]
vmovddup %xmm3, %xmm1 # xmm1 = xmm3[0,0]
vmovddup %xmm6, %xmm6 # xmm6 = xmm6[0,0]
vmovddup %xmm10, %xmm10 # xmm10 = xmm10[0,0]
vmovddup %xmm11, %xmm11 # xmm11 = xmm11[0,0]
vmovddup %xmm12, %xmm12 # xmm12 = xmm12[0,0]
vmovddup %xmm7, %xmm2 # xmm2 = xmm7[0,0]
vmovaps %xmm0, 0x190(%rsp)
vbroadcastss %xmm0, %ymm29
vxorps %xmm20, %xmm29, %xmm0
vbroadcastss %xmm0, %ymm28
xorl %r14d, %r14d
vmovaps %xmm8, 0xd0(%rsp)
vsubps %xmm8, %xmm9, %xmm0
vmovaps %xmm0, 0x120(%rsp)
vmovaps %xmm9, 0xc0(%rsp)
vsubps %xmm9, %xmm23, %xmm0
vmovaps %xmm0, 0x110(%rsp)
vmovaps %xmm23, 0x130(%rsp)
vmovaps %xmm24, 0x1a0(%rsp)
vsubps %xmm23, %xmm24, %xmm0
vmovaps %xmm0, 0x100(%rsp)
vmovaps %xmm14, 0x290(%rsp)
vmovaps %xmm13, 0x280(%rsp)
vsubps %xmm14, %xmm13, %xmm0
vmovaps %xmm0, 0x210(%rsp)
vmovaps %xmm2, %xmm13
vmovaps %xmm17, 0x250(%rsp)
vmovaps %xmm21, 0x230(%rsp)
vsubps %xmm17, %xmm21, %xmm0
vmovaps %xmm0, 0x200(%rsp)
vmovaps %xmm18, 0x240(%rsp)
vmovaps %xmm22, 0x220(%rsp)
vsubps %xmm18, %xmm22, %xmm0
vmovaps %xmm0, 0x1f0(%rsp)
vmovaps %xmm15, 0x270(%rsp)
vmovaps %xmm16, 0x260(%rsp)
vsubps %xmm15, %xmm16, %xmm0
vmovaps %xmm0, 0x1e0(%rsp)
vmovaps %xmm1, %xmm16
vpbroadcastd %r9d, %zmm0
vmovdqa64 %zmm0, 0x480(%rsp)
movq %r12, 0x148(%rsp)
vpbroadcastd %r12d, %zmm0
vmovdqa64 %zmm0, 0x440(%rsp)
vmovsd 0x24bbf6(%rip), %xmm0 # 0x1eec6f0
vmovaps %xmm0, %xmm15
movq %rsi, %rdi
vmovaps %xmm19, 0x1c0(%rsp)
vmovaps %xmm25, 0x1b0(%rsp)
vmovaps %xmm1, 0x90(%rsp)
vmovaps %xmm6, 0x60(%rsp)
vmovaps %xmm10, 0x50(%rsp)
vmovaps %xmm11, 0x40(%rsp)
vmovaps %xmm12, 0x30(%rsp)
vmovaps %xmm2, 0x70(%rsp)
vmovaps %ymm29, 0x3c0(%rsp)
vmovaps %ymm28, 0x3a0(%rsp)
vmovaps %xmm15, %xmm26
vshufps $0x50, %xmm15, %xmm15, %xmm1 # xmm1 = xmm15[0,0,1,1]
vbroadcastss 0x24bbb6(%rip), %ymm31 # 0x1eec714
vsubps %xmm1, %xmm31, %xmm2
vmulps %xmm1, %xmm10, %xmm3
vmulps %xmm1, %xmm11, %xmm4
vmulps %xmm1, %xmm12, %xmm5
vmulps %xmm1, %xmm13, %xmm1
vfmadd231ps %xmm19, %xmm2, %xmm3 # xmm3 = (xmm2 * xmm19) + xmm3
vfmadd231ps %xmm25, %xmm2, %xmm4 # xmm4 = (xmm2 * xmm25) + xmm4
vfmadd231ps %xmm16, %xmm2, %xmm5 # xmm5 = (xmm2 * xmm16) + xmm5
vfmadd231ps %xmm2, %xmm6, %xmm1 # xmm1 = (xmm6 * xmm2) + xmm1
vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3]
vsubss %xmm0, %xmm2, %xmm6
vmulss 0x280335(%rip), %xmm6, %xmm6 # 0x1f20ed0
vbroadcastss %xmm0, %ymm7
vbroadcastsd %xmm2, %ymm2
vsubps %ymm7, %ymm2, %ymm10
vbroadcastss %xmm3, %ymm2
vbroadcastss 0x271b4d(%rip), %ymm9 # 0x1f12704
vpermps %ymm3, %ymm9, %ymm8
vbroadcastss %xmm4, %ymm20
vpermps %ymm4, %ymm9, %ymm21
vbroadcastss %xmm5, %ymm22
vpermps %ymm5, %ymm9, %ymm23
vbroadcastss %xmm1, %ymm24
vpermps %ymm1, %ymm9, %ymm25
vbroadcastss %xmm6, %ymm9
vpermps %ymm3, %ymm27, %ymm19
vbroadcastss 0x2802e4(%rip), %ymm6 # 0x1f20ed8
vpermps %ymm3, %ymm6, %ymm18
vpermps %ymm4, %ymm27, %ymm15
vpermps %ymm4, %ymm6, %ymm14
vpermps %ymm5, %ymm27, %ymm12
vpermps %ymm5, %ymm6, %ymm11
vpermps %ymm1, %ymm27, %ymm16
vpermps %ymm1, %ymm6, %ymm17
vfmadd132ps 0x2802fb(%rip), %ymm7, %ymm10 # ymm10 = (ymm10 * mem) + ymm7
vsubps %ymm10, %ymm31, %ymm13
vmulps %ymm10, %ymm20, %ymm1
vmulps %ymm10, %ymm21, %ymm3
vfmadd231ps %ymm2, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm2) + ymm1
vfmadd231ps %ymm8, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm8) + ymm3
vmulps %ymm10, %ymm22, %ymm2
vmulps %ymm10, %ymm23, %ymm4
vfmadd231ps %ymm20, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm20) + ymm2
vfmadd231ps %ymm21, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm21) + ymm4
vmulps %ymm10, %ymm24, %ymm5
vmulps %ymm10, %ymm25, %ymm6
vfmadd231ps %ymm22, %ymm13, %ymm5 # ymm5 = (ymm13 * ymm22) + ymm5
vfmadd231ps %ymm23, %ymm13, %ymm6 # ymm6 = (ymm13 * ymm23) + ymm6
vmulps %ymm2, %ymm10, %ymm7
vmulps %ymm4, %ymm10, %ymm8
vfmadd231ps %ymm1, %ymm13, %ymm7 # ymm7 = (ymm13 * ymm1) + ymm7
vfmadd231ps %ymm3, %ymm13, %ymm8 # ymm8 = (ymm13 * ymm3) + ymm8
vmulps %ymm5, %ymm10, %ymm1
vmulps %ymm6, %ymm10, %ymm5
vfmadd231ps %ymm2, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm2) + ymm1
vfmadd231ps %ymm4, %ymm13, %ymm5 # ymm5 = (ymm13 * ymm4) + ymm5
vmulps %ymm1, %ymm10, %ymm3
vmulps %ymm5, %ymm10, %ymm4
vfmadd231ps %ymm7, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm7) + ymm3
vfmadd231ps %ymm8, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm8) + ymm4
vsubps %ymm7, %ymm1, %ymm1
vsubps %ymm8, %ymm5, %ymm2
vbroadcastss 0x250332(%rip), %ymm22 # 0x1ef0fec
vmulps %ymm22, %ymm1, %ymm1
vmulps %ymm22, %ymm2, %ymm2
vmulps %ymm1, %ymm9, %ymm8
vmulps %ymm2, %ymm9, %ymm20
vmovaps %ymm3, %ymm5
vmovaps 0x2bf042(%rip), %ymm23 # 0x1f5fd20
vxorps %xmm24, %xmm24, %xmm24
vpermt2ps %ymm24, %ymm23, %ymm5
vmovaps %ymm4, %ymm6
vpermt2ps %ymm24, %ymm23, %ymm6
vaddps %ymm3, %ymm8, %ymm1
vpermt2ps %ymm24, %ymm23, %ymm8
vaddps %ymm20, %ymm4, %ymm7
vpermt2ps %ymm24, %ymm23, %ymm20
vsubps %ymm8, %ymm5, %ymm2
vsubps %ymm20, %ymm6, %ymm8
vmulps %ymm10, %ymm15, %ymm20
vmulps %ymm10, %ymm14, %ymm21
vfmadd231ps %ymm19, %ymm13, %ymm20 # ymm20 = (ymm13 * ymm19) + ymm20
vfmadd231ps %ymm18, %ymm13, %ymm21 # ymm21 = (ymm13 * ymm18) + ymm21
vmulps %ymm10, %ymm12, %ymm18
vmulps %ymm10, %ymm11, %ymm19
vfmadd231ps %ymm15, %ymm13, %ymm18 # ymm18 = (ymm13 * ymm15) + ymm18
vfmadd231ps %ymm14, %ymm13, %ymm19 # ymm19 = (ymm13 * ymm14) + ymm19
vmulps %ymm10, %ymm16, %ymm14
vmulps %ymm10, %ymm17, %ymm15
vfmadd231ps %ymm12, %ymm13, %ymm14 # ymm14 = (ymm13 * ymm12) + ymm14
vfmadd231ps %ymm11, %ymm13, %ymm15 # ymm15 = (ymm13 * ymm11) + ymm15
vmulps %ymm18, %ymm10, %ymm16
vmulps %ymm19, %ymm10, %ymm17
vfmadd231ps %ymm20, %ymm13, %ymm16 # ymm16 = (ymm13 * ymm20) + ymm16
vfmadd231ps %ymm21, %ymm13, %ymm17 # ymm17 = (ymm13 * ymm21) + ymm17
vmulps %ymm14, %ymm10, %ymm14
vmulps %ymm15, %ymm10, %ymm15
vfmadd231ps %ymm18, %ymm13, %ymm14 # ymm14 = (ymm13 * ymm18) + ymm14
vfmadd231ps %ymm19, %ymm13, %ymm15 # ymm15 = (ymm13 * ymm19) + ymm15
vmulps %ymm14, %ymm10, %ymm11
vmulps %ymm15, %ymm10, %ymm12
vfmadd231ps %ymm16, %ymm13, %ymm11 # ymm11 = (ymm13 * ymm16) + ymm11
vfmadd231ps %ymm13, %ymm17, %ymm12 # ymm12 = (ymm17 * ymm13) + ymm12
vsubps %ymm16, %ymm14, %ymm10
vsubps %ymm17, %ymm15, %ymm13
vmulps %ymm22, %ymm10, %ymm10
vmulps %ymm22, %ymm13, %ymm13
vmulps %ymm10, %ymm9, %ymm10
vmulps %ymm13, %ymm9, %ymm16
vmovaps %ymm11, %ymm13
vpermt2ps %ymm24, %ymm23, %ymm13
vmovaps %ymm12, %ymm14
vpermt2ps %ymm24, %ymm23, %ymm14
vaddps %ymm10, %ymm11, %ymm9
vpermt2ps %ymm24, %ymm23, %ymm10
vaddps %ymm16, %ymm12, %ymm15
vpermt2ps %ymm24, %ymm23, %ymm16
vsubps %ymm10, %ymm13, %ymm10
vsubps %ymm16, %ymm14, %ymm16
vsubps %ymm3, %ymm11, %ymm17
vsubps %ymm4, %ymm12, %ymm18
vsubps %ymm5, %ymm13, %ymm19
vaddps %ymm19, %ymm17, %ymm17
vsubps %ymm6, %ymm14, %ymm19
vaddps %ymm19, %ymm18, %ymm18
vmulps %ymm17, %ymm4, %ymm19
vfnmadd231ps %ymm18, %ymm3, %ymm19 # ymm19 = -(ymm3 * ymm18) + ymm19
vmulps %ymm17, %ymm7, %ymm20
vfnmadd231ps %ymm18, %ymm1, %ymm20 # ymm20 = -(ymm1 * ymm18) + ymm20
vmulps %ymm17, %ymm8, %ymm21
vfnmadd231ps %ymm18, %ymm2, %ymm21 # ymm21 = -(ymm2 * ymm18) + ymm21
vmulps %ymm17, %ymm6, %ymm22
vfnmadd231ps %ymm18, %ymm5, %ymm22 # ymm22 = -(ymm5 * ymm18) + ymm22
vmulps %ymm17, %ymm12, %ymm23
vfnmadd231ps %ymm18, %ymm11, %ymm23 # ymm23 = -(ymm11 * ymm18) + ymm23
vmulps %ymm17, %ymm15, %ymm24
vfnmadd231ps %ymm18, %ymm9, %ymm24 # ymm24 = -(ymm9 * ymm18) + ymm24
vmulps %ymm17, %ymm16, %ymm25
vfnmadd231ps %ymm18, %ymm10, %ymm25 # ymm25 = -(ymm10 * ymm18) + ymm25
vmulps %ymm17, %ymm14, %ymm17
vfnmadd231ps %ymm18, %ymm13, %ymm17 # ymm17 = -(ymm13 * ymm18) + ymm17
vminps %ymm20, %ymm19, %ymm18
vmaxps %ymm20, %ymm19, %ymm19
vminps %ymm22, %ymm21, %ymm20
vminps %ymm20, %ymm18, %ymm18
vmaxps %ymm22, %ymm21, %ymm20
vmaxps %ymm20, %ymm19, %ymm19
vminps %ymm24, %ymm23, %ymm20
vmaxps %ymm24, %ymm23, %ymm21
vminps %ymm17, %ymm25, %ymm22
vminps %ymm22, %ymm20, %ymm20
vminps %ymm20, %ymm18, %ymm18
vmaxps %ymm17, %ymm25, %ymm17
vmaxps %ymm17, %ymm21, %ymm17
vmaxps %ymm17, %ymm19, %ymm17
vcmpleps %ymm29, %ymm18, %k1
vcmpnltps %ymm28, %ymm17, %k0 {%k1}
kmovd %k0, %eax
movl $0x0, %ecx
andb $0x7f, %al
je 0x1ca0fc6
vsubps %ymm3, %ymm5, %ymm17
vsubps %ymm4, %ymm6, %ymm18
vsubps %ymm11, %ymm13, %ymm19
vaddps %ymm19, %ymm17, %ymm17
vsubps %ymm12, %ymm14, %ymm19
vaddps %ymm19, %ymm18, %ymm18
vmulps %ymm17, %ymm4, %ymm4
vfnmadd231ps %ymm3, %ymm18, %ymm4 # ymm4 = -(ymm18 * ymm3) + ymm4
vmulps %ymm17, %ymm7, %ymm3
vfnmadd213ps %ymm3, %ymm18, %ymm1 # ymm1 = -(ymm18 * ymm1) + ymm3
vmulps %ymm17, %ymm8, %ymm3
vfnmadd213ps %ymm3, %ymm18, %ymm2 # ymm2 = -(ymm18 * ymm2) + ymm3
vmulps %ymm17, %ymm6, %ymm3
vfnmadd231ps %ymm5, %ymm18, %ymm3 # ymm3 = -(ymm18 * ymm5) + ymm3
vmulps %ymm17, %ymm12, %ymm5
vfnmadd231ps %ymm11, %ymm18, %ymm5 # ymm5 = -(ymm18 * ymm11) + ymm5
vmulps %ymm17, %ymm15, %ymm6
vfnmadd213ps %ymm6, %ymm18, %ymm9 # ymm9 = -(ymm18 * ymm9) + ymm6
vmulps %ymm17, %ymm16, %ymm6
vfnmadd213ps %ymm6, %ymm18, %ymm10 # ymm10 = -(ymm18 * ymm10) + ymm6
vmulps %ymm17, %ymm14, %ymm6
vfnmadd231ps %ymm18, %ymm13, %ymm6 # ymm6 = -(ymm13 * ymm18) + ymm6
vminps %ymm1, %ymm4, %ymm7
vmaxps %ymm1, %ymm4, %ymm1
vminps %ymm3, %ymm2, %ymm4
vminps %ymm4, %ymm7, %ymm4
vmaxps %ymm3, %ymm2, %ymm2
vmaxps %ymm2, %ymm1, %ymm1
vminps %ymm9, %ymm5, %ymm2
vmaxps %ymm9, %ymm5, %ymm3
vminps %ymm6, %ymm10, %ymm5
vminps %ymm5, %ymm2, %ymm2
vminps %ymm2, %ymm4, %ymm2
vmaxps %ymm6, %ymm10, %ymm4
vmaxps %ymm4, %ymm3, %ymm3
vmaxps %ymm3, %ymm1, %ymm1
vcmpnltps %ymm28, %ymm1, %k1
vcmpleps %ymm29, %ymm2, %k0 {%k1}
kmovd %k0, %ecx
andb %cl, %al
movzbl %al, %ecx
testl %ecx, %ecx
je 0x1ca0fe8
movl %r14d, %eax
movl %ecx, 0x1d0(%rsp,%rax,4)
vmovlps %xmm0, 0x320(%rsp,%rax,8)
vmovlps %xmm26, 0x3e0(%rsp,%rax,8)
incl %r14d
vbroadcastss 0x24fffa(%rip), %xmm17 # 0x1ef0fec
vbroadcastss 0x27fec8(%rip), %xmm19 # 0x1f20ec4
vbroadcastss 0x27feba(%rip), %xmm20 # 0x1f20ec0
vbroadcastss 0x24ffdc(%rip), %ymm18 # 0x1ef0fec
vmovss 0x27fec6(%rip), %xmm21 # 0x1f20ee0
vmovss 0x24b6f0(%rip), %xmm22 # 0x1eec714
vmovss 0x24ffd2(%rip), %xmm23 # 0x1ef1000
vmovss 0x250a14(%rip), %xmm24 # 0x1ef1a4c
vbroadcastss 0x24b6d2(%rip), %xmm25 # 0x1eec714
vmovaps 0x90(%rsp), %xmm16
vmovaps 0x60(%rsp), %xmm6
vmovaps 0x50(%rsp), %xmm10
vmovaps 0x40(%rsp), %xmm11
vmovaps 0x30(%rsp), %xmm12
vmovaps 0x70(%rsp), %xmm13
vmovaps 0x120(%rsp), %xmm28
vmovaps 0x110(%rsp), %xmm29
vmovaps 0x100(%rsp), %xmm31
testl %r14d, %r14d
je 0x1ca2255
leal -0x1(%r14), %eax
vmovss 0x320(%rsp,%rax,8), %xmm0
vmovss 0x324(%rsp,%rax,8), %xmm1
movl 0x1d0(%rsp,%rax,4), %ecx
vmovsd 0x3e0(%rsp,%rax,8), %xmm15
tzcntq %rcx, %rdx
blsrl %ecx, %ecx
movl %ecx, 0x1d0(%rsp,%rax,4)
cmovel %eax, %r14d
vxorps %xmm3, %xmm3, %xmm3
vcvtsi2ss %rdx, %xmm3, %xmm2
vmulss %xmm21, %xmm2, %xmm2
incq %rdx
vxorps %xmm3, %xmm3, %xmm3
vcvtsi2ss %rdx, %xmm3, %xmm3
vmulss %xmm21, %xmm3, %xmm3
vsubss %xmm2, %xmm22, %xmm4
vmulss %xmm2, %xmm1, %xmm26
vfmadd231ss %xmm4, %xmm0, %xmm26 # xmm26 = (xmm0 * xmm4) + xmm26
vsubss %xmm3, %xmm22, %xmm2
vmulss %xmm3, %xmm1, %xmm14
vfmadd231ss %xmm2, %xmm0, %xmm14 # xmm14 = (xmm0 * xmm2) + xmm14
vsubss %xmm26, %xmm14, %xmm0
vucomiss %xmm0, %xmm23
jbe 0x1ca2229
vmovaps %xmm26, %xmm7
vmovaps %xmm15, %xmm26
vshufps $0x50, %xmm15, %xmm15, %xmm1 # xmm1 = xmm15[0,0,1,1]
vucomiss %xmm0, %xmm24
seta %cl
cmpl $0x4, %r14d
setae %al
vsubps %xmm1, %xmm25, %xmm2
vmulps %xmm1, %xmm10, %xmm3
vmulps %xmm1, %xmm11, %xmm4
vmulps %xmm1, %xmm12, %xmm5
vmulps %xmm1, %xmm13, %xmm1
vfmadd231ps 0x1c0(%rsp), %xmm2, %xmm3 # xmm3 = (xmm2 * mem) + xmm3
vfmadd231ps 0x1b0(%rsp), %xmm2, %xmm4 # xmm4 = (xmm2 * mem) + xmm4
vfmadd231ps %xmm16, %xmm2, %xmm5 # xmm5 = (xmm2 * xmm16) + xmm5
vfmadd231ps %xmm2, %xmm6, %xmm1 # xmm1 = (xmm6 * xmm2) + xmm1
vinsertf128 $0x1, %xmm3, %ymm3, %ymm2
vinsertf128 $0x1, %xmm4, %ymm4, %ymm3
vinsertf128 $0x1, %xmm5, %ymm5, %ymm4
vmovaps %xmm7, 0xb0(%rsp)
vbroadcastss %xmm7, %xmm6
vmovaps %xmm14, 0x80(%rsp)
vbroadcastss %xmm14, %xmm7
vinsertf128 $0x1, %xmm7, %ymm6, %ymm6
vsubps %ymm2, %ymm3, %ymm7
vfmadd213ps %ymm2, %ymm6, %ymm7 # ymm7 = (ymm6 * ymm7) + ymm2
vsubps %ymm3, %ymm4, %ymm2
vfmadd213ps %ymm3, %ymm6, %ymm2 # ymm2 = (ymm6 * ymm2) + ymm3
vsubps %xmm5, %xmm1, %xmm1
vinsertf128 $0x1, %xmm1, %ymm1, %ymm3
vfmadd213ps %ymm4, %ymm6, %ymm3 # ymm3 = (ymm6 * ymm3) + ymm4
vsubps %ymm7, %ymm2, %ymm1
vfmadd213ps %ymm7, %ymm6, %ymm1 # ymm1 = (ymm6 * ymm1) + ymm7
vsubps %ymm2, %ymm3, %ymm3
vfmadd213ps %ymm2, %ymm6, %ymm3 # ymm3 = (ymm6 * ymm3) + ymm2
vsubps %ymm1, %ymm3, %ymm2
vfmadd231ps %ymm6, %ymm2, %ymm1 # ymm1 = (ymm2 * ymm6) + ymm1
vmulps %ymm18, %ymm2, %ymm3
vextractf128 $0x1, %ymm1, %xmm2
vextractf128 $0x1, %ymm3, %xmm4
vmulss 0x250cc3(%rip), %xmm0, %xmm5 # 0x1ef1ebc
vbroadcastss %xmm5, %xmm6
vmulps %xmm3, %xmm6, %xmm3
vaddps %xmm3, %xmm1, %xmm5
vmulps %xmm4, %xmm6, %xmm3
vsubps %xmm3, %xmm2, %xmm6
vshufpd $0x3, %xmm1, %xmm1, %xmm4 # xmm4 = xmm1[1,1]
vshufpd $0x3, %xmm2, %xmm2, %xmm3 # xmm3 = xmm2[1,1]
vsubps %xmm1, %xmm4, %xmm7
vsubps %xmm2, %xmm3, %xmm8
vaddps %xmm7, %xmm8, %xmm7
vshufps $0xb1, %xmm1, %xmm1, %xmm8 # xmm8 = xmm1[1,0,3,2]
vshufps $0xb1, %xmm5, %xmm5, %xmm9 # xmm9 = xmm5[1,0,3,2]
vshufps $0xb1, %xmm6, %xmm6, %xmm10 # xmm10 = xmm6[1,0,3,2]
vshufps $0xb1, %xmm2, %xmm2, %xmm11 # xmm11 = xmm2[1,0,3,2]
vbroadcastss %xmm7, %xmm12
vshufps $0x55, %xmm7, %xmm7, %xmm7 # xmm7 = xmm7[1,1,1,1]
vmulps %xmm7, %xmm8, %xmm8
vmulps %xmm7, %xmm9, %xmm9
vmulps %xmm7, %xmm10, %xmm10
vmulps %xmm7, %xmm11, %xmm7
vfmadd231ps %xmm1, %xmm12, %xmm8 # xmm8 = (xmm12 * xmm1) + xmm8
vfmadd231ps %xmm5, %xmm12, %xmm9 # xmm9 = (xmm12 * xmm5) + xmm9
vfmadd231ps %xmm6, %xmm12, %xmm10 # xmm10 = (xmm12 * xmm6) + xmm10
vfmadd231ps %xmm12, %xmm2, %xmm7 # xmm7 = (xmm2 * xmm12) + xmm7
vshufpd $0x1, %xmm8, %xmm8, %xmm11 # xmm11 = xmm8[1,0]
vshufpd $0x1, %xmm9, %xmm9, %xmm12 # xmm12 = xmm9[1,0]
vshufpd $0x1, %xmm10, %xmm10, %xmm14 # xmm14 = xmm10[1,0]
vshufpd $0x1, %xmm7, %xmm7, %xmm15 # xmm15 = xmm7[1,0]
vminss %xmm9, %xmm8, %xmm13
vmaxss %xmm8, %xmm9, %xmm8
vminss %xmm7, %xmm10, %xmm9
vmaxss %xmm10, %xmm7, %xmm7
vminss %xmm9, %xmm13, %xmm13
vmaxss %xmm8, %xmm7, %xmm9
vminss %xmm12, %xmm11, %xmm7
vmaxss %xmm11, %xmm12, %xmm8
vminss %xmm15, %xmm14, %xmm10
vmaxss %xmm14, %xmm15, %xmm11
vminss %xmm10, %xmm7, %xmm14
vmaxss %xmm8, %xmm11, %xmm10
vmovss 0x24f718(%rip), %xmm7 # 0x1ef09d8
vucomiss %xmm13, %xmm7
jbe 0x1ca12d5
vmovss 0x250bf1(%rip), %xmm7 # 0x1ef1ec0
vucomiss %xmm7, %xmm10
ja 0x1ca1336
vmovss 0x250be3(%rip), %xmm7 # 0x1ef1ec0
vucomiss %xmm7, %xmm9
seta %dl
vmovss 0x24f6ec(%rip), %xmm7 # 0x1ef09d8
vcmpltps %xmm7, %xmm14, %k0
vcmpltps %xmm7, %xmm13, %k1
korw %k0, %k1, %k0
kmovd %k0, %esi
testb %sil, %dl
jne 0x1ca1336
vmovss 0x250bb1(%rip), %xmm7 # 0x1ef1ec0
vcmpnltps %xmm10, %xmm7, %k0
vmovss 0x24f6ba(%rip), %xmm7 # 0x1ef09d8
vcmpnltps %xmm7, %xmm14, %k1
korw %k0, %k1, %k0
kmovd %k0, %edx
testb $0x1, %dl
jne 0x1ca1dcb
vcmpltss %xmm30, %xmm13, %k1
vmovaps %xmm22, %xmm15
vmovss 0x24f67f(%rip), %xmm16 # 0x1ef09cc
vmovss %xmm16, %xmm15, %xmm15 {%k1}
vcmpltss %xmm30, %xmm9, %k1
vmovaps %xmm22, %xmm12
vmovss %xmm16, %xmm12, %xmm12 {%k1}
vucomiss %xmm12, %xmm15
setp %dl
setne %sil
orb %dl, %sil
kmovd %esi, %k1
vmovss 0x24a69f(%rip), %xmm7 # 0x1eeba20
vmovss %xmm30, %xmm7, %xmm7 {%k1}
vmovss 0x24b7f5(%rip), %xmm8 # 0x1eecb84
vmovss %xmm30, %xmm8, %xmm8 {%k1}
vcmpltss %xmm30, %xmm14, %k1
vmovaps %xmm22, %xmm11
vmovss %xmm16, %xmm11, %xmm11 {%k1}
vucomiss %xmm11, %xmm15
jne 0x1ca13b1
jnp 0x1ca13f0
vucomiss %xmm13, %xmm14
jne 0x1ca1403
jp 0x1ca1403
vucomiss %xmm30, %xmm13
setnp %dl
sete %sil
andb %dl, %sil
kmovd %esi, %k1
vmovss 0x24a64a(%rip), %xmm13 # 0x1eeba20
vmovss %xmm30, %xmm13, %xmm13 {%k1}
vmovss 0x24b7a0(%rip), %xmm14 # 0x1eecb84
vmovss 0x24b326(%rip), %xmm14 {%k1} # 0x1eec714
jmp 0x1ca1424
vmovaps 0xd0(%rsp), %xmm15
vmovaps 0xc0(%rsp), %xmm16
jmp 0x1ca143f
vxorps %xmm20, %xmm13, %xmm15
vsubss %xmm13, %xmm14, %xmm13
vdivss %xmm13, %xmm15, %xmm14
vsubss %xmm14, %xmm22, %xmm13
vfmadd213ss %xmm14, %xmm30, %xmm13 # xmm13 = (xmm30 * xmm13) + xmm14
vmovaps %xmm13, %xmm14
vmovaps 0xd0(%rsp), %xmm15
vmovaps 0xc0(%rsp), %xmm16
vminss %xmm13, %xmm7, %xmm7
vmaxss %xmm8, %xmm14, %xmm8
vcmpltss %xmm30, %xmm10, %k1
vmovaps %xmm22, %xmm13
vmovss 0x24f576(%rip), %xmm13 {%k1} # 0x1ef09cc
vucomiss %xmm13, %xmm12
vmovaps 0x80(%rsp), %xmm14
jne 0x1ca1468
jnp 0x1ca14d2
vucomiss %xmm9, %xmm10
jne 0x1ca14a7
jp 0x1ca14a7
vucomiss %xmm30, %xmm9
setnp %dl
sete %sil
andb %dl, %sil
kmovd %esi, %k1
vmovss 0x24a593(%rip), %xmm9 # 0x1eeba20
vmovss %xmm30, %xmm9, %xmm9 {%k1}
vmovss 0x24b6e9(%rip), %xmm10 # 0x1eecb84
vmovss 0x24b26f(%rip), %xmm10 {%k1} # 0x1eec714
jmp 0x1ca14c8
vxorps %xmm20, %xmm9, %xmm12
vsubss %xmm9, %xmm10, %xmm9
vdivss %xmm9, %xmm12, %xmm10
vsubss %xmm10, %xmm22, %xmm9
vfmadd213ss %xmm10, %xmm30, %xmm9 # xmm9 = (xmm30 * xmm9) + xmm10
vmovaps %xmm9, %xmm10
vminss %xmm9, %xmm7, %xmm7
vmaxss %xmm8, %xmm10, %xmm8
vucomiss %xmm13, %xmm11
setp %dl
setne %sil
orb %dl, %sil
vminss %xmm22, %xmm7, %xmm9
kmovd %esi, %k1
vmovss %xmm9, %xmm7, %xmm7 {%k1}
vmaxss %xmm8, %xmm22, %xmm9
vmovss %xmm9, %xmm8, %xmm8 {%k1}
vmaxss %xmm7, %xmm30, %xmm7
vminss %xmm22, %xmm8, %xmm8
movb $0x1, %r12b
vucomiss %xmm8, %xmm7
ja 0x1ca1d5d
vaddss 0x2bbf49(%rip), %xmm7, %xmm7 # 0x1f5d468
vaddss 0x24b675(%rip), %xmm8, %xmm8 # 0x1eecb9c
vmaxss %xmm7, %xmm30, %xmm7
vminss %xmm22, %xmm8, %xmm8
vmovddup %xmm1, %xmm1 # xmm1 = xmm1[0,0]
vmovddup %xmm5, %xmm9 # xmm9 = xmm5[0,0]
vmovddup %xmm6, %xmm10 # xmm10 = xmm6[0,0]
vmovddup %xmm2, %xmm2 # xmm2 = xmm2[0,0]
vshufpd $0x3, %xmm5, %xmm5, %xmm5 # xmm5 = xmm5[1,1]
vshufpd $0x3, %xmm6, %xmm6, %xmm6 # xmm6 = xmm6[1,1]
vshufps $0x0, %xmm8, %xmm7, %xmm11 # xmm11 = xmm7[0,0],xmm8[0,0]
vsubps %xmm11, %xmm25, %xmm12
vmulps %xmm4, %xmm11, %xmm13
vmulps %xmm5, %xmm11, %xmm5
vmulps %xmm6, %xmm11, %xmm6
vmulps %xmm3, %xmm11, %xmm3
vfmadd231ps %xmm1, %xmm12, %xmm13 # xmm13 = (xmm12 * xmm1) + xmm13
vfmadd231ps %xmm9, %xmm12, %xmm5 # xmm5 = (xmm12 * xmm9) + xmm5
vfmadd231ps %xmm10, %xmm12, %xmm6 # xmm6 = (xmm12 * xmm10) + xmm6
vfmadd231ps %xmm2, %xmm12, %xmm3 # xmm3 = (xmm12 * xmm2) + xmm3
vsubss %xmm7, %xmm22, %xmm2
vmovshdup %xmm26, %xmm4 # xmm4 = xmm26[1,1,3,3]
vmulss %xmm7, %xmm4, %xmm1
vfmadd231ss %xmm2, %xmm26, %xmm1 # xmm1 = (xmm26 * xmm2) + xmm1
vsubss %xmm8, %xmm22, %xmm2
vmulss %xmm4, %xmm8, %xmm4
vfmadd231ss %xmm2, %xmm26, %xmm4 # xmm4 = (xmm26 * xmm2) + xmm4
vdivss %xmm0, %xmm22, %xmm0
vsubps %xmm13, %xmm5, %xmm2
vmulps %xmm17, %xmm2, %xmm2
vsubps %xmm5, %xmm6, %xmm7
vmulps %xmm17, %xmm7, %xmm7
vsubps %xmm6, %xmm3, %xmm8
vmulps %xmm17, %xmm8, %xmm8
vminps %xmm8, %xmm7, %xmm9
vmaxps %xmm8, %xmm7, %xmm7
vminps %xmm9, %xmm2, %xmm8
vmaxps %xmm7, %xmm2, %xmm2
vshufpd $0x3, %xmm8, %xmm8, %xmm7 # xmm7 = xmm8[1,1]
vshufpd $0x3, %xmm2, %xmm2, %xmm9 # xmm9 = xmm2[1,1]
vminps %xmm7, %xmm8, %xmm7
vmaxps %xmm9, %xmm2, %xmm2
vbroadcastss %xmm0, %xmm0
vmulps %xmm7, %xmm0, %xmm8
vmulps %xmm2, %xmm0, %xmm7
vsubss %xmm1, %xmm4, %xmm0
vdivss %xmm0, %xmm22, %xmm0
vshufpd $0x3, %xmm13, %xmm13, %xmm2 # xmm2 = xmm13[1,1]
vshufpd $0x3, %xmm5, %xmm5, %xmm9 # xmm9 = xmm5[1,1]
vshufpd $0x3, %xmm6, %xmm6, %xmm10 # xmm10 = xmm6[1,1]
vshufpd $0x3, %xmm3, %xmm3, %xmm11 # xmm11 = xmm3[1,1]
vsubps %xmm13, %xmm2, %xmm2
vsubps %xmm5, %xmm9, %xmm5
vsubps %xmm6, %xmm10, %xmm6
vsubps %xmm3, %xmm11, %xmm3
vminps %xmm5, %xmm2, %xmm9
vmaxps %xmm5, %xmm2, %xmm2
vminps %xmm3, %xmm6, %xmm5
vminps %xmm5, %xmm9, %xmm5
vmaxps %xmm3, %xmm6, %xmm3
vmaxps %xmm3, %xmm2, %xmm2
vbroadcastss %xmm0, %xmm0
vmulps %xmm5, %xmm0, %xmm10
vmulps %xmm2, %xmm0, %xmm11
vmovaps 0xb0(%rsp), %xmm26
vinsertps $0x10, %xmm1, %xmm26, %xmm6 # xmm6 = xmm26[0],xmm1[0],xmm26[2,3]
vinsertps $0x10, %xmm4, %xmm14, %xmm5 # xmm5 = xmm14[0],xmm4[0],xmm14[2,3]
vaddps %xmm5, %xmm6, %xmm0
vmulps 0x24b50c(%rip){1to4}, %xmm0, %xmm9 # 0x1eecb80
vshufps $0x54, %xmm9, %xmm9, %xmm0 # xmm0 = xmm9[0,1,1,1]
vbroadcastss %xmm9, %xmm2
vmovaps %xmm28, %xmm3
vfmadd213ps %xmm15, %xmm2, %xmm3 # xmm3 = (xmm2 * xmm3) + xmm15
vmovaps %xmm29, %xmm12
vfmadd213ps %xmm16, %xmm2, %xmm12 # xmm12 = (xmm2 * xmm12) + xmm16
vmovaps %xmm31, %xmm13
vfmadd213ps 0x130(%rsp), %xmm2, %xmm13 # xmm13 = (xmm2 * xmm13) + mem
vsubps %xmm3, %xmm12, %xmm14
vfmadd213ps %xmm3, %xmm2, %xmm14 # xmm14 = (xmm2 * xmm14) + xmm3
vsubps %xmm12, %xmm13, %xmm3
vfmadd213ps %xmm12, %xmm2, %xmm3 # xmm3 = (xmm2 * xmm3) + xmm12
vsubps %xmm14, %xmm3, %xmm3
vfmadd231ps %xmm2, %xmm3, %xmm14 # xmm14 = (xmm3 * xmm2) + xmm14
vmulps %xmm17, %xmm3, %xmm2
vmovddup %xmm14, %xmm12 # xmm12 = xmm14[0,0]
vshufpd $0x3, %xmm14, %xmm14, %xmm3 # xmm3 = xmm14[1,1]
vshufps $0x55, %xmm9, %xmm9, %xmm13 # xmm13 = xmm9[1,1,1,1]
vsubps %xmm12, %xmm3, %xmm3
vfmadd231ps %xmm3, %xmm13, %xmm12 # xmm12 = (xmm13 * xmm3) + xmm12
vmovddup %xmm2, %xmm14 # xmm14 = xmm2[0,0]
vshufpd $0x3, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[1,1]
vsubps %xmm14, %xmm2, %xmm15
vfmadd213ps %xmm14, %xmm13, %xmm15 # xmm15 = (xmm13 * xmm15) + xmm14
vbroadcastss 0x27f7c0(%rip), %xmm14 # 0x1f20ec0
vxorps %xmm3, %xmm14, %xmm2
vmovshdup %xmm15, %xmm13 # xmm13 = xmm15[1,1,3,3]
vxorps %xmm14, %xmm13, %xmm14
vmovshdup %xmm3, %xmm16 # xmm16 = xmm3[1,1,3,3]
vmovss 0x2be5de(%rip), %xmm30 # 0x1f5fcfc
vpermt2ps %xmm3, %xmm30, %xmm14
vmulss %xmm3, %xmm13, %xmm3
vfmsub231ss %xmm16, %xmm15, %xmm3 # xmm3 = (xmm15 * xmm16) - xmm3
vmovss 0x2b923e(%rip), %xmm13 # 0x1f5a974
vpermt2ps %xmm2, %xmm13, %xmm15
vbroadcastss %xmm3, %xmm3
vdivps %xmm3, %xmm14, %xmm2
vdivps %xmm3, %xmm15, %xmm3
vbroadcastss %xmm12, %xmm13
vmulps %xmm2, %xmm13, %xmm13
vshufps $0x55, %xmm12, %xmm12, %xmm12 # xmm12 = xmm12[1,1,1,1]
vmulps %xmm3, %xmm12, %xmm12
vaddps %xmm12, %xmm13, %xmm12
vsubps %xmm12, %xmm0, %xmm0
vmovshdup %xmm2, %xmm12 # xmm12 = xmm2[1,1,3,3]
vinsertps $0x1c, %xmm10, %xmm8, %xmm13 # xmm13 = xmm8[0],xmm10[0],zero,zero
vmulps %xmm13, %xmm12, %xmm14
vinsertps $0x1c, %xmm11, %xmm7, %xmm15 # xmm15 = xmm7[0],xmm11[0],zero,zero
vmulps %xmm15, %xmm12, %xmm12
vminps %xmm12, %xmm14, %xmm16
vmaxps %xmm14, %xmm12, %xmm12
vmovshdup %xmm3, %xmm14 # xmm14 = xmm3[1,1,3,3]
vinsertps $0x4c, %xmm8, %xmm10, %xmm8 # xmm8 = xmm8[1],xmm10[1],zero,zero
vmulps %xmm8, %xmm14, %xmm10
vinsertps $0x4c, %xmm7, %xmm11, %xmm7 # xmm7 = xmm7[1],xmm11[1],zero,zero
vmulps %xmm7, %xmm14, %xmm11
vminps %xmm11, %xmm10, %xmm14
vaddps %xmm14, %xmm16, %xmm14
vmaxps %xmm10, %xmm11, %xmm10
vaddps %xmm10, %xmm12, %xmm10
vmovddup 0x27f72f(%rip), %xmm11 # xmm11 = mem[0,0]
vsubps %xmm10, %xmm11, %xmm10
vsubps %xmm14, %xmm11, %xmm11
vsubps %xmm9, %xmm6, %xmm12
vsubps %xmm9, %xmm5, %xmm9
vmulps %xmm10, %xmm12, %xmm14
vbroadcastss %xmm2, %xmm16
vmulps %xmm13, %xmm16, %xmm13
vmulps %xmm15, %xmm16, %xmm15
vminps %xmm15, %xmm13, %xmm16
vmaxps %xmm13, %xmm15, %xmm13
vbroadcastss %xmm3, %xmm15
vmulps %xmm8, %xmm15, %xmm8
vmulps %xmm7, %xmm15, %xmm7
vminps %xmm7, %xmm8, %xmm15
vaddps %xmm15, %xmm16, %xmm15
vmulps %xmm11, %xmm12, %xmm16
vmulps %xmm10, %xmm9, %xmm10
vmulps %xmm11, %xmm9, %xmm11
vmaxps %xmm8, %xmm7, %xmm7
vaddps %xmm7, %xmm13, %xmm7
vmovddup 0x27f6c8(%rip), %xmm8 # xmm8 = mem[0,0]
vsubps %xmm7, %xmm8, %xmm7
vsubps %xmm15, %xmm8, %xmm8
vmulps %xmm7, %xmm12, %xmm13
vmulps %xmm8, %xmm12, %xmm12
vmulps %xmm7, %xmm9, %xmm7
vmulps %xmm8, %xmm9, %xmm8
vminps %xmm12, %xmm13, %xmm9
vminps %xmm8, %xmm7, %xmm15
vminps %xmm15, %xmm9, %xmm9
vmaxps %xmm13, %xmm12, %xmm12
vmaxps %xmm7, %xmm8, %xmm7
vmaxps %xmm12, %xmm7, %xmm7
vminps %xmm16, %xmm14, %xmm8
vminps %xmm11, %xmm10, %xmm12
vminps %xmm12, %xmm8, %xmm8
vhaddps %xmm8, %xmm9, %xmm8
vmaxps %xmm14, %xmm16, %xmm9
vmaxps %xmm10, %xmm11, %xmm10
vmaxps %xmm9, %xmm10, %xmm9
vhaddps %xmm9, %xmm7, %xmm7
vshufps $0xe8, %xmm8, %xmm8, %xmm8 # xmm8 = xmm8[0,2,2,3]
vshufps $0xe8, %xmm7, %xmm7, %xmm9 # xmm9 = xmm7[0,2,2,3]
vaddps %xmm0, %xmm8, %xmm7
vaddps %xmm0, %xmm9, %xmm8
vmaxps %xmm7, %xmm6, %xmm6
vminps %xmm5, %xmm8, %xmm9
vcmpltps %xmm6, %xmm9, %k0
vinsertps $0x10, %xmm4, %xmm1, %xmm15 # xmm15 = xmm1[0],xmm4[0],xmm1[2,3]
kmovd %k0, %edx
testb $0x3, %dl
jne 0x1ca1d4d
vucomiss %xmm8, %xmm5
seta %sil
xorl %edx, %edx
vucomiss %xmm26, %xmm7
vmovaps 0x90(%rsp), %xmm16
jbe 0x1ca1943
testb %sil, %sil
vmovss 0x24f6ff(%rip), %xmm12 # 0x1ef0fec
vxorps %xmm30, %xmm30, %xmm30
vmovaps 0xd0(%rsp), %xmm9
vmovaps 0xc0(%rsp), %xmm10
vmovaps 0x130(%rsp), %xmm11
vmovaps 0x1a0(%rsp), %xmm13
vmovaps 0x190(%rsp), %xmm14
je 0x1ca197e
vcmpltps %xmm5, %xmm8, %k0
kshiftrb $0x1, %k0, %k0
kmovd %k0, %esi
vmovshdup %xmm7, %xmm4 # xmm4 = xmm7[1,1,3,3]
vucomiss %xmm1, %xmm4
seta %dl
andb %sil, %dl
jmp 0x1ca197e
vmovss 0x24f6a1(%rip), %xmm12 # 0x1ef0fec
vxorps %xmm30, %xmm30, %xmm30
vmovaps 0xd0(%rsp), %xmm9
vmovaps 0xc0(%rsp), %xmm10
vmovaps 0x130(%rsp), %xmm11
vmovaps 0x1a0(%rsp), %xmm13
vmovaps 0x190(%rsp), %xmm14
orb %cl, %al
orb %dl, %al
cmpb $0x1, %al
jne 0x1ca1d93
movl $0xc8, %eax
vsubss %xmm0, %xmm22, %xmm1
vmulss %xmm1, %xmm1, %xmm4
vmulss %xmm4, %xmm1, %xmm5
vmulss %xmm0, %xmm12, %xmm6
vmulss %xmm4, %xmm6, %xmm4
vmulss %xmm0, %xmm0, %xmm6
vmulss %xmm6, %xmm12, %xmm7
vmulss %xmm7, %xmm1, %xmm1
vbroadcastss %xmm5, %xmm5
vbroadcastss %xmm4, %xmm4
vbroadcastss %xmm1, %xmm1
vmulss %xmm6, %xmm0, %xmm6
vbroadcastss %xmm6, %xmm6
vmulps %xmm6, %xmm13, %xmm6
vfmadd231ps %xmm1, %xmm11, %xmm6 # xmm6 = (xmm11 * xmm1) + xmm6
vfmadd231ps %xmm4, %xmm10, %xmm6 # xmm6 = (xmm10 * xmm4) + xmm6
vfmadd231ps %xmm5, %xmm9, %xmm6 # xmm6 = (xmm9 * xmm5) + xmm6
vmovddup %xmm6, %xmm1 # xmm1 = xmm6[0,0]
vshufpd $0x3, %xmm6, %xmm6, %xmm4 # xmm4 = xmm6[1,1]
vshufps $0x55, %xmm0, %xmm0, %xmm5 # xmm5 = xmm0[1,1,1,1]
vsubps %xmm1, %xmm4, %xmm4
vfmadd213ps %xmm1, %xmm5, %xmm4 # xmm4 = (xmm5 * xmm4) + xmm1
vbroadcastss %xmm4, %xmm1
vmulps %xmm1, %xmm2, %xmm1
vshufps $0x55, %xmm4, %xmm4, %xmm5 # xmm5 = xmm4[1,1,1,1]
vmulps %xmm5, %xmm3, %xmm5
vaddps %xmm5, %xmm1, %xmm1
vsubps %xmm1, %xmm0, %xmm0
vandps %xmm19, %xmm4, %xmm1
vprolq $0x20, %xmm1, %xmm4
vmaxss %xmm1, %xmm4, %xmm1
vucomiss %xmm1, %xmm14
ja 0x1ca1a32
decq %rax
jne 0x1ca198f
jmp 0x1ca1d96
vucomiss %xmm30, %xmm0
jb 0x1ca1d96
vucomiss %xmm0, %xmm22
vmovaps 0x70(%rsp), %xmm13
vmovaps 0x80(%rsp), %xmm14
jb 0x1ca1d33
vmovshdup %xmm0, %xmm1 # xmm1 = xmm0[1,1,3,3]
vucomiss %xmm30, %xmm1
jb 0x1ca1d33
vucomiss %xmm1, %xmm22
jb 0x1ca1d33
vmovss 0x8(%rbx), %xmm2
vinsertps $0x1c, 0x18(%rbx), %xmm2, %xmm2 # xmm2 = xmm2[0],mem[0],zero,zero
vinsertps $0x28, 0x28(%rbx), %xmm2, %xmm2 # xmm2 = xmm2[0,1],mem[0],zero
vdpps $0x7f, 0x310(%rsp), %xmm2, %xmm3
vdpps $0x7f, 0x300(%rsp), %xmm2, %xmm4
vdpps $0x7f, 0x2f0(%rsp), %xmm2, %xmm5
vdpps $0x7f, 0x2e0(%rsp), %xmm2, %xmm6
vdpps $0x7f, 0x2d0(%rsp), %xmm2, %xmm7
vdpps $0x7f, 0x2c0(%rsp), %xmm2, %xmm8
vdpps $0x7f, 0x2b0(%rsp), %xmm2, %xmm9
vdpps $0x7f, 0x2a0(%rsp), %xmm2, %xmm2
vsubss %xmm1, %xmm22, %xmm10
vmulss %xmm7, %xmm1, %xmm11
vmulss %xmm1, %xmm8, %xmm8
vmulss %xmm1, %xmm9, %xmm9
vmulss %xmm2, %xmm1, %xmm2
vfmadd231ss %xmm3, %xmm10, %xmm11 # xmm11 = (xmm10 * xmm3) + xmm11
vfmadd231ss %xmm4, %xmm10, %xmm8 # xmm8 = (xmm10 * xmm4) + xmm8
vfmadd231ss %xmm5, %xmm10, %xmm9 # xmm9 = (xmm10 * xmm5) + xmm9
vfmadd231ss %xmm6, %xmm10, %xmm2 # xmm2 = (xmm10 * xmm6) + xmm2
vsubss %xmm0, %xmm22, %xmm7
vmulss %xmm7, %xmm7, %xmm4
vmulss %xmm4, %xmm7, %xmm3
vmulss %xmm0, %xmm12, %xmm5
vmulss %xmm4, %xmm5, %xmm4
vmulps %xmm0, %xmm0, %xmm6
vmulss %xmm6, %xmm12, %xmm5
vmulss %xmm5, %xmm7, %xmm5
vmulps %xmm6, %xmm0, %xmm6
vmulss %xmm2, %xmm6, %xmm2
vfmadd231ss %xmm9, %xmm5, %xmm2 # xmm2 = (xmm5 * xmm9) + xmm2
vfmadd231ss %xmm8, %xmm4, %xmm2 # xmm2 = (xmm4 * xmm8) + xmm2
vfmadd231ss %xmm11, %xmm3, %xmm2 # xmm2 = (xmm3 * xmm11) + xmm2
vucomiss 0xac(%rsp), %xmm2
jb 0x1ca1d33
vmovss 0x200(%rdi,%r11,4), %xmm8
vucomiss %xmm2, %xmm8
jb 0x1ca1d33
vmovss %xmm8, 0xa8(%rsp)
movq %r15, 0xa0(%rsp)
vshufps $0x55, %xmm0, %xmm0, %xmm8 # xmm8 = xmm0[1,1,1,1]
vsubps %xmm8, %xmm25, %xmm9
vmulps 0x280(%rsp), %xmm8, %xmm10
vmulps 0x230(%rsp), %xmm8, %xmm11
vmulps 0x220(%rsp), %xmm8, %xmm12
vmulps 0x260(%rsp), %xmm8, %xmm8
vfmadd231ps 0x290(%rsp), %xmm9, %xmm10 # xmm10 = (xmm9 * mem) + xmm10
vfmadd231ps 0x250(%rsp), %xmm9, %xmm11 # xmm11 = (xmm9 * mem) + xmm11
vfmadd231ps 0x240(%rsp), %xmm9, %xmm12 # xmm12 = (xmm9 * mem) + xmm12
vfmadd231ps 0x270(%rsp), %xmm9, %xmm8 # xmm8 = (xmm9 * mem) + xmm8
vsubps %xmm10, %xmm11, %xmm9
vsubps %xmm11, %xmm12, %xmm10
vsubps %xmm12, %xmm8, %xmm8
vbroadcastss %xmm0, %xmm11
vmulps %xmm10, %xmm11, %xmm12
vbroadcastss %xmm7, %xmm7
vfmadd231ps %xmm9, %xmm7, %xmm12 # xmm12 = (xmm7 * xmm9) + xmm12
vmulps %xmm8, %xmm11, %xmm8
vfmadd231ps %xmm10, %xmm7, %xmm8 # xmm8 = (xmm7 * xmm10) + xmm8
vmulps %xmm8, %xmm11, %xmm8
vfmadd231ps %xmm12, %xmm7, %xmm8 # xmm8 = (xmm7 * xmm12) + xmm8
vmulps %xmm17, %xmm8, %xmm7
movq (%r10), %rax
movq 0x1e8(%rax), %rax
movq (%rax,%r9,8), %r15
movl 0x240(%rdi,%r11,4), %eax
testl %eax, 0x34(%r15)
je 0x1ca1d2b
vbroadcastss %xmm6, %xmm6
vmulps 0x1e0(%rsp), %xmm6, %xmm6
vbroadcastss %xmm5, %xmm5
vfmadd132ps 0x1f0(%rsp), %xmm6, %xmm5 # xmm5 = (xmm5 * mem) + xmm6
vbroadcastss %xmm4, %xmm4
vfmadd132ps 0x200(%rsp), %xmm5, %xmm4 # xmm4 = (xmm4 * mem) + xmm5
vbroadcastss %xmm3, %xmm3
vfmadd132ps 0x210(%rsp), %xmm4, %xmm3 # xmm3 = (xmm3 * mem) + xmm4
vshufps $0xc9, %xmm3, %xmm3, %xmm4 # xmm4 = xmm3[1,2,0,3]
vshufps $0xc9, %xmm7, %xmm7, %xmm5 # xmm5 = xmm7[1,2,0,3]
vmulps %xmm5, %xmm3, %xmm3
vfmsub231ps %xmm4, %xmm7, %xmm3 # xmm3 = (xmm7 * xmm4) - xmm3
movq 0x10(%r10), %rax
cmpq $0x0, 0x10(%rax)
vmovaps 0x60(%rsp), %xmm6
vmovaps 0x50(%rsp), %xmm10
vmovaps 0x40(%rsp), %xmm11
vmovaps 0x30(%rsp), %xmm12
jne 0x1ca1dfc
cmpq $0x0, 0x40(%r15)
jne 0x1ca1dfc
vmovss %xmm2, 0x200(%rdi,%r11,4)
vextractps $0x1, %xmm3, 0x300(%rdi,%r11,4)
vextractps $0x2, %xmm3, 0x340(%rdi,%r11,4)
vmovss %xmm3, 0x380(%rdi,%r11,4)
vmovss %xmm0, 0x3c0(%rdi,%r11,4)
vmovss %xmm1, 0x400(%rdi,%r11,4)
movq 0x148(%rsp), %rax
movl %eax, 0x440(%rdi,%r11,4)
movl %r9d, 0x480(%rdi,%r11,4)
movq 0x8(%r10), %rax
movl (%rax), %eax
movl %eax, 0x4c0(%rdi,%r11,4)
movq 0x8(%r10), %rax
movl 0x4(%rax), %eax
movl %eax, 0x500(%rdi,%r11,4)
movq 0xa0(%rsp), %r15
jmp 0x1ca1dbd
movq 0xa0(%rsp), %r15
vmovaps 0x60(%rsp), %xmm6
vmovaps 0x50(%rsp), %xmm10
vmovaps 0x40(%rsp), %xmm11
vmovaps 0x30(%rsp), %xmm12
jmp 0x1ca1dbd
vxorps %xmm30, %xmm30, %xmm30
vmovaps 0x90(%rsp), %xmm16
jmp 0x1ca1d96
vmovaps 0x90(%rsp), %xmm16
vmovaps 0x60(%rsp), %xmm6
vmovaps 0x50(%rsp), %xmm10
vmovaps 0x40(%rsp), %xmm11
vmovaps 0x30(%rsp), %xmm12
vmovaps 0x70(%rsp), %xmm13
vmovaps %xmm26, %xmm15
vmovaps 0xb0(%rsp), %xmm26
jmp 0x1ca1dbd
xorl %r12d, %r12d
vmovaps 0x60(%rsp), %xmm6
vmovaps 0x50(%rsp), %xmm10
vmovaps 0x40(%rsp), %xmm11
vmovaps 0x30(%rsp), %xmm12
vmovaps 0x70(%rsp), %xmm13
vmovaps 0x80(%rsp), %xmm14
testb %r12b, %r12b
jne 0x1ca1080
jmp 0x1ca2229
movb $0x1, %r12b
vmovaps 0x60(%rsp), %xmm6
vmovaps 0x50(%rsp), %xmm10
vmovaps 0x40(%rsp), %xmm11
vmovaps 0x30(%rsp), %xmm12
vmovaps 0x70(%rsp), %xmm13
vmovaps %xmm26, %xmm15
vmovaps 0xb0(%rsp), %xmm26
jmp 0x1ca1db4
movq 0x8(%r10), %rax
vbroadcastss %xmm0, %zmm1
vbroadcastss 0x2708f4(%rip), %zmm4 # 0x1f12704
vpermps %zmm0, %zmm4, %zmm0
vpermps %zmm3, %zmm4, %zmm4
vbroadcastss 0x27f0b6(%rip), %zmm5 # 0x1f20edc
vpermps %zmm3, %zmm5, %zmm5
vbroadcastss %xmm3, %zmm3
vmovaps %zmm4, 0x4c0(%rsp)
vmovaps %zmm5, 0x500(%rsp)
vmovaps %zmm3, 0x540(%rsp)
vmovaps %zmm1, 0x580(%rsp)
vmovaps %zmm0, 0x5c0(%rsp)
vmovaps 0x440(%rsp), %zmm0
vmovaps %zmm0, 0x600(%rsp)
vmovdqa64 0x480(%rsp), %zmm0
vmovdqa64 %zmm0, 0x640(%rsp)
leaq 0x680(%rsp), %rcx
vpcmpeqd %ymm0, %ymm0, %ymm0
vmovdqa %ymm0, 0x60(%rcx)
vmovdqa %ymm0, 0x40(%rcx)
vmovdqa %ymm0, 0x20(%rcx)
vmovdqa %ymm0, (%rcx)
vbroadcastss (%rax), %zmm0
vmovaps %zmm0, 0x680(%rsp)
vbroadcastss 0x4(%rax), %zmm0
vmovaps %zmm0, 0x6c0(%rsp)
vmovss %xmm2, 0x200(%rdi,%r11,4)
vmovaps 0x400(%rsp), %zmm0
vmovaps %zmm0, 0x340(%rsp)
leaq 0x340(%rsp), %rax
movq %rax, 0x150(%rsp)
movq 0x18(%r15), %rax
movq %rax, 0x158(%rsp)
movq 0x8(%r10), %rax
movq %rax, 0x160(%rsp)
movq %rdi, 0x168(%rsp)
leaq 0x4c0(%rsp), %rax
movq %rax, 0x170(%rsp)
movl $0x10, 0x178(%rsp)
movq 0x40(%r15), %rax
testq %rax, %rax
movq %r8, 0xf8(%rsp)
movq %r11, 0xf0(%rsp)
movq %rdi, 0xe8(%rsp)
movq %r9, 0xe0(%rsp)
vmovaps %xmm15, 0x180(%rsp)
je 0x1ca203c
leaq 0x150(%rsp), %rdi
movq %r10, 0x140(%rsp)
vzeroupper
callq *%rax
vmovaps 0x80(%rsp), %xmm14
vmovaps 0xb0(%rsp), %xmm26
vmovaps 0x180(%rsp), %xmm15
vmovaps 0x100(%rsp), %xmm31
vmovaps 0x110(%rsp), %xmm29
vmovaps 0x120(%rsp), %xmm28
vmovaps 0x70(%rsp), %xmm13
vmovaps 0x30(%rsp), %xmm12
vmovaps 0x40(%rsp), %xmm11
vmovaps 0x50(%rsp), %xmm10
vmovaps 0x60(%rsp), %xmm6
vmovaps 0x90(%rsp), %xmm16
movq 0xe0(%rsp), %r9
vxorps %xmm30, %xmm30, %xmm30
vmovss 0x24fa76(%rip), %xmm24 # 0x1ef1a4c
vmovss 0x24f020(%rip), %xmm23 # 0x1ef1000
vmovss 0x24a72a(%rip), %xmm22 # 0x1eec714
vmovss 0x27eeec(%rip), %xmm21 # 0x1f20ee0
vbroadcastss 0x24efee(%rip), %ymm18 # 0x1ef0fec
vbroadcastss 0x27eeb8(%rip), %xmm20 # 0x1f20ec0
vbroadcastss 0x27eeb2(%rip), %xmm19 # 0x1f20ec4
vbroadcastss 0x27eec0(%rip), %ymm27 # 0x1f20edc
movq 0xe8(%rsp), %rdi
movq 0xf0(%rsp), %r11
movq 0x140(%rsp), %r10
movq 0xf8(%rsp), %r8
vmovdqa64 0x340(%rsp), %zmm0
vptestmd %zmm0, %zmm0, %k0
kortestw %k0, %k0
je 0x1ca21fd
movq 0x10(%r10), %rcx
movq 0x10(%rcx), %rax
testq %rax, %rax
je 0x1ca2156
testb $0x2, (%rcx)
jne 0x1ca2075
testb $0x40, 0x3e(%r15)
je 0x1ca2156
leaq 0x150(%rsp), %rdi
movq %r10, %r15
vzeroupper
callq *%rax
vmovaps 0x80(%rsp), %xmm14
vmovaps 0xb0(%rsp), %xmm26
vmovaps 0x180(%rsp), %xmm15
vmovaps 0x100(%rsp), %xmm31
vmovaps 0x110(%rsp), %xmm29
vmovaps 0x120(%rsp), %xmm28
vmovaps 0x70(%rsp), %xmm13
vmovaps 0x30(%rsp), %xmm12
vmovaps 0x40(%rsp), %xmm11
vmovaps 0x50(%rsp), %xmm10
vmovaps 0x60(%rsp), %xmm6
vmovaps 0x90(%rsp), %xmm16
movq 0xe0(%rsp), %r9
vxorps %xmm30, %xmm30, %xmm30
vmovss 0x24f957(%rip), %xmm24 # 0x1ef1a4c
vmovss 0x24ef01(%rip), %xmm23 # 0x1ef1000
vmovss 0x24a60b(%rip), %xmm22 # 0x1eec714
vmovss 0x27edcd(%rip), %xmm21 # 0x1f20ee0
vbroadcastss 0x24eecf(%rip), %ymm18 # 0x1ef0fec
vbroadcastss 0x27ed99(%rip), %xmm20 # 0x1f20ec0
vbroadcastss 0x27ed93(%rip), %xmm19 # 0x1f20ec4
vbroadcastss 0x27eda1(%rip), %ymm27 # 0x1f20edc
movq 0xe8(%rsp), %rdi
movq 0xf0(%rsp), %r11
movq %r15, %r10
movq 0xf8(%rsp), %r8
vmovdqa64 0x340(%rsp), %zmm0
vptestmd %zmm0, %zmm0, %k1
kortestw %k1, %k1
je 0x1ca21fd
movq 0x168(%rsp), %rax
movq 0x170(%rsp), %rcx
vmovaps (%rcx), %zmm0
vmovups %zmm0, 0x300(%rax) {%k1}
vmovaps 0x40(%rcx), %zmm0
vmovups %zmm0, 0x340(%rax) {%k1}
vmovaps 0x80(%rcx), %zmm0
vmovups %zmm0, 0x380(%rax) {%k1}
vmovaps 0xc0(%rcx), %zmm0
vmovups %zmm0, 0x3c0(%rax) {%k1}
vmovaps 0x100(%rcx), %zmm0
vmovups %zmm0, 0x400(%rax) {%k1}
vmovdqa64 0x140(%rcx), %zmm0
vmovdqu32 %zmm0, 0x440(%rax) {%k1}
vmovdqa64 0x180(%rcx), %zmm0
vmovdqu32 %zmm0, 0x480(%rax) {%k1}
vmovdqa64 0x1c0(%rcx), %zmm0
vmovdqa32 %zmm0, 0x4c0(%rax) {%k1}
vmovdqa64 0x200(%rcx), %zmm0
vmovdqa32 %zmm0, 0x500(%rax) {%k1}
jmp 0x1ca2210
vmovd 0xa8(%rsp), %xmm0
vmovd %xmm0, 0x200(%rdi,%r11,4)
vbroadcastss 0x24edd2(%rip), %xmm17 # 0x1ef0fec
vbroadcastss 0x24a4f0(%rip), %xmm25 # 0x1eec714
jmp 0x1ca1d1e
vinsertps $0x10, %xmm14, %xmm26, %xmm0 # xmm0 = xmm26[0],xmm14[0],xmm26[2,3]
vmovaps 0x1c0(%rsp), %xmm19
vmovaps 0x1b0(%rsp), %xmm25
vmovaps 0x3c0(%rsp), %ymm29
vmovaps 0x3a0(%rsp), %ymm28
jmp 0x1ca0b48
vmovaps 0x380(%rsp), %ymm0
vcmpleps 0x200(%rdi,%r11,4){1to8}, %ymm0, %k0
kmovb %k0, %eax
andl %r15d, %r13d
andl %eax, %r13d
movq %rdi, %rsi
jne 0x1ca0441
leaq -0x28(%rbp), %rsp
popq %rbx
popq %r12
popq %r13
popq %r14
popq %r15
popq %rbp
vzeroupper
retq
nop
|
/embree[P]embree/kernels/geometry/curveNi_intersector.h
|
bool embree::avx512::CurveNiIntersectorK<8, 16>::occluded_hn<embree::avx512::OrientedCurve1IntersectorK<embree::HermiteCurveT, 16>, embree::avx512::Occluded1KEpilog1<16, true>>(embree::avx512::CurvePrecalculationsK<16>&, embree::RayK<16>&, unsigned long, embree::RayQueryContext*, embree::CurveNi<8> const&)
|
static __forceinline bool occluded_hn(Precalculations& pre, RayK<K>& ray, const size_t k, RayQueryContext* context, const Primitive& prim)
{
vfloat<M> tNear;
vbool<M> valid = intersect(ray,k,prim,tNear);
const size_t N = prim.N;
size_t mask = movemask(valid);
while (mask)
{
const size_t i = bscf(mask);
STAT3(shadow.trav_prims,1,1,1);
const unsigned int geomID = prim.geomID(N);
const unsigned int primID = prim.primID(N)[i];
const CurveGeometry* geom = context->scene->get<CurveGeometry>(geomID);
Vec3ff p0,t0,p1,t1; Vec3fa n0,dn0,n1,dn1; geom->gather_hermite(p0,t0,n0,dn0,p1,t1,n1,dn1,geom->curve(primID));
if (Intersector().intersect(pre,ray,k,context,geom,primID,p0,t0,p1,t1,n0,dn0,n1,dn1,Epilog(ray,k,context,geomID,primID)))
return true;
mask &= movemask(tNear <= vfloat<M>(ray.tfar[k]));
}
return false;
}
|
pushq %rbp
movq %rsp, %rbp
pushq %r15
pushq %r14
pushq %r13
pushq %r12
pushq %rbx
andq $-0x40, %rsp
subq $0x740, %rsp # imm = 0x740
movq %r8, %r10
movq %rdx, %r11
movq %rsi, %r9
movzbl 0x1(%r8), %eax
leaq (%rax,%rax,4), %rdx
leaq (%rdx,%rdx,4), %rsi
vbroadcastss 0x12(%r8,%rsi), %xmm0
vmovss (%r9,%r11,4), %xmm1
vmovss 0x100(%r9,%r11,4), %xmm2
vinsertps $0x10, 0x40(%r9,%r11,4), %xmm1, %xmm1 # xmm1 = xmm1[0],mem[0],xmm1[2,3]
vinsertps $0x20, 0x80(%r9,%r11,4), %xmm1, %xmm1 # xmm1 = xmm1[0,1],mem[0],xmm1[3]
vinsertps $0x10, 0x140(%r9,%r11,4), %xmm2, %xmm2 # xmm2 = xmm2[0],mem[0],xmm2[2,3]
movq %rcx, 0x98(%rsp)
vinsertps $0x20, 0x180(%r9,%r11,4), %xmm2, %xmm2 # xmm2 = xmm2[0,1],mem[0],xmm2[3]
vsubps 0x6(%r8,%rsi), %xmm1, %xmm1
vmulps %xmm1, %xmm0, %xmm3
vmulps %xmm2, %xmm0, %xmm0
vpmovsxbd 0x6(%r8,%rax,4), %ymm1
vcvtdq2ps %ymm1, %ymm5
vpmovsxbd 0x6(%r8,%rdx), %ymm1
vcvtdq2ps %ymm1, %ymm6
leaq (%rax,%rax,2), %rcx
vpmovsxbd 0x6(%r8,%rcx,2), %ymm1
vcvtdq2ps %ymm1, %ymm2
leaq (%rax,%rdx,2), %rsi
vpmovsxbd 0x6(%r8,%rsi), %ymm1
vcvtdq2ps %ymm1, %ymm7
leal (,%rcx,4), %esi
vpmovsxbd 0x6(%r8,%rsi), %ymm1
vcvtdq2ps %ymm1, %ymm8
addq %rax, %rsi
vpmovsxbd 0x6(%r8,%rsi), %ymm1
vcvtdq2ps %ymm1, %ymm9
leaq (%rax,%rax,8), %rsi
leal (%rsi,%rsi), %r8d
vpmovsxbd 0x6(%r10,%r8), %ymm1
addq %rax, %r8
vpmovsxbd 0x6(%r10,%r8), %ymm4
vcvtdq2ps %ymm1, %ymm10
vcvtdq2ps %ymm4, %ymm11
shll $0x2, %edx
vpmovsxbd 0x6(%r10,%rdx), %ymm1
vcvtdq2ps %ymm1, %ymm12
vbroadcastss %xmm0, %ymm13
vbroadcastss 0x27035e(%rip), %ymm15 # 0x1f12704
vpermps %ymm0, %ymm15, %ymm14
vbroadcastss 0x27eb27(%rip), %ymm27 # 0x1f20edc
vpermps %ymm0, %ymm27, %ymm0
vmulps %ymm2, %ymm0, %ymm4
vmulps %ymm0, %ymm9, %ymm1
vmulps %ymm0, %ymm12, %ymm0
vfmadd231ps %ymm6, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm6) + ymm4
vfmadd231ps %ymm8, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm8) + ymm1
vfmadd231ps %ymm14, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm14) + ymm0
vfmadd231ps %ymm5, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm5) + ymm4
vfmadd231ps %ymm7, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm7) + ymm1
vfmadd231ps %ymm13, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm13) + ymm0
vbroadcastss %xmm3, %ymm13
vpermps %ymm3, %ymm15, %ymm14
vpermps %ymm3, %ymm27, %ymm15
vmulps %ymm2, %ymm15, %ymm16
vmulps %ymm9, %ymm15, %ymm3
vmulps %ymm12, %ymm15, %ymm2
vfmadd231ps %ymm6, %ymm14, %ymm16 # ymm16 = (ymm14 * ymm6) + ymm16
vfmadd231ps %ymm8, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm8) + ymm3
vfmadd231ps %ymm11, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm11) + ymm2
vfmadd231ps %ymm5, %ymm13, %ymm16 # ymm16 = (ymm13 * ymm5) + ymm16
vfmadd231ps %ymm7, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm7) + ymm3
vfmadd231ps %ymm10, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm10) + ymm2
vbroadcastss 0x27ea96(%rip), %ymm5 # 0x1f20ec4
vandps %ymm5, %ymm4, %ymm6
vbroadcastss 0x24ebad(%rip), %ymm7 # 0x1ef0fe8
vcmpltps %ymm7, %ymm6, %k1
vmovaps %ymm7, %ymm4 {%k1}
vandps %ymm5, %ymm1, %ymm6
vcmpltps %ymm7, %ymm6, %k1
vmovaps %ymm7, %ymm1 {%k1}
vandps %ymm5, %ymm0, %ymm5
vcmpltps %ymm7, %ymm5, %k1
vmovaps %ymm7, %ymm0 {%k1}
vrcp14ps %ymm4, %ymm5
vbroadcastss 0x24a29b(%rip), %ymm6 # 0x1eec714
vfnmadd213ps %ymm6, %ymm5, %ymm4 # ymm4 = -(ymm5 * ymm4) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm4 # ymm4 = (ymm4 * ymm5) + ymm5
vrcp14ps %ymm1, %ymm5
vfnmadd213ps %ymm6, %ymm5, %ymm1 # ymm1 = -(ymm5 * ymm1) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm1 # ymm1 = (ymm1 * ymm5) + ymm5
vrcp14ps %ymm0, %ymm5
vfnmadd213ps %ymm6, %ymm5, %ymm0 # ymm0 = -(ymm5 * ymm0) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm0 # ymm0 = (ymm0 * ymm5) + ymm5
leaq (,%rax,8), %r8
subq %rax, %r8
vpmovsxwd 0x6(%r10,%r8), %ymm5
vcvtdq2ps %ymm5, %ymm5
vsubps %ymm16, %ymm5, %ymm5
vpmovsxwd 0x6(%r10,%rsi), %ymm6
vmulps %ymm5, %ymm4, %ymm5
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm16, %ymm6, %ymm6
vmulps %ymm6, %ymm4, %ymm4
leaq (%rax,%rax), %rsi
addq %rax, %rdx
shlq $0x3, %rcx
subq %rax, %rcx
movl %eax, %r8d
shll $0x4, %r8d
vpmovsxwd 0x6(%r10,%r8), %ymm6
subq %rsi, %r8
vpmovsxwd 0x6(%r10,%r8), %ymm7
vcvtdq2ps %ymm7, %ymm7
vsubps %ymm3, %ymm7, %ymm7
vmulps %ymm7, %ymm1, %ymm7
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm3, %ymm6, %ymm3
vmulps %ymm3, %ymm1, %ymm1
vpmovsxwd 0x6(%r10,%rdx), %ymm3
vcvtdq2ps %ymm3, %ymm3
vsubps %ymm2, %ymm3, %ymm3
vmulps %ymm0, %ymm3, %ymm3
vpmovsxwd 0x6(%r10,%rcx), %ymm6
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm2, %ymm6, %ymm2
vmulps %ymm2, %ymm0, %ymm0
vpminsd %ymm4, %ymm5, %ymm2
vpminsd %ymm1, %ymm7, %ymm6
vmaxps %ymm6, %ymm2, %ymm2
vpminsd %ymm0, %ymm3, %ymm6
vmaxps 0xc0(%r9,%r11,4){1to8}, %ymm6, %ymm6
vmaxps %ymm6, %ymm2, %ymm2
vmulps 0x27d9ab(%rip){1to8}, %ymm2, %ymm6 # 0x1f1ff10
vpmaxsd %ymm4, %ymm5, %ymm2
vpmaxsd %ymm1, %ymm7, %ymm1
vminps %ymm1, %ymm2, %ymm1
vpmaxsd %ymm0, %ymm3, %ymm0
vminps 0x200(%r9,%r11,4){1to8}, %ymm0, %ymm0
vminps %ymm0, %ymm1, %ymm0
vmulps 0x27d983(%rip){1to8}, %ymm0, %ymm0 # 0x1f1ff14
vpbroadcastd %eax, %ymm1
vpcmpgtd 0x2b837f(%rip), %ymm1, %k0 # 0x1f5a920
vmovaps %ymm6, 0x380(%rsp)
vcmpleps %ymm0, %ymm6, %k1
ktestb %k0, %k1
setne 0x1f(%rsp)
je 0x1ca43b2
kandb %k0, %k1, %k0
kmovd %k0, %eax
movzbl %al, %r12d
leaq (%r11,%r11,2), %rax
shlq $0x4, %rax
leaq (%rdi,%rax), %r13
addq $0x40, %r13
movl $0x1, %eax
shlxl %r11d, %eax, %eax
kmovd %eax, %k0
vpmovm2d %k0, %zmm0
vmovdqa64 %zmm0, 0x400(%rsp)
vbroadcastss 0x24e9ea(%rip), %xmm17 # 0x1ef0fec
vbroadcastss 0x27e8b8(%rip), %xmm19 # 0x1f20ec4
vbroadcastss 0x27e8aa(%rip), %xmm20 # 0x1f20ec0
vxorps %xmm30, %xmm30, %xmm30
movq 0x98(%rsp), %rdi
movq %r9, 0xb0(%rsp)
movq %r13, 0x148(%rsp)
tzcntq %r12, %rax
movl 0x2(%r10), %ebx
movl 0x6(%r10,%rax,4), %eax
movq (%rdi), %rcx
movq 0x1e8(%rcx), %rcx
movq (%rcx,%rbx,8), %rdx
movq %rax, %rcx
imulq 0x68(%rdx), %rcx
movq 0x58(%rdx), %rsi
movq 0x90(%rdx), %rdi
movl (%rsi,%rcx), %ecx
movq 0xa0(%rdx), %r8
movq %r8, %rsi
imulq %rcx, %rsi
vmovaps (%rdi,%rsi), %xmm0
leaq 0x1(%rcx), %rsi
imulq %rsi, %r8
vmovaps (%rdi,%r8), %xmm1
movq 0xc8(%rdx), %rdi
movq 0xd8(%rdx), %r8
movq %r8, %r9
imulq %rcx, %r9
vmovups (%rdi,%r9), %xmm2
movq 0x100(%rdx), %r9
imulq %rsi, %r8
vmovups (%rdi,%r8), %xmm3
movq 0x110(%rdx), %rdi
movq %rdi, %r8
imulq %rcx, %r8
vmovaps (%r9,%r8), %xmm4
movq %rbx, %r8
imulq %rsi, %rdi
vmovaps (%r9,%rdi), %xmm5
movq 0x98(%rsp), %rdi
movq 0xb0(%rsp), %r9
vpbroadcastd %eax, %zmm6
vmovdqa64 %zmm6, 0x480(%rsp)
movq 0x148(%rdx), %rax
imulq %rax, %rcx
imulq %rsi, %rax
movq 0x138(%rdx), %rdx
vmovss (%r9,%r11,4), %xmm6
vinsertps $0x1c, 0x40(%r9,%r11,4), %xmm6, %xmm6 # xmm6 = xmm6[0],mem[0],zero,zero
vinsertps $0x28, 0x80(%r9,%r11,4), %xmm6, %xmm6 # xmm6 = xmm6[0,1],mem[0],zero
vbroadcastss 0x24f791(%rip), %xmm22 # 0x1ef1ebc
vfmadd132ps %xmm22, %xmm0, %xmm4 # xmm4 = (xmm4 * xmm22) + xmm0
vfnmadd132ps %xmm22, %xmm1, %xmm5 # xmm5 = -(xmm5 * xmm22) + xmm1
vmovups (%rdx,%rcx), %xmm10
vfmadd132ps %xmm22, %xmm2, %xmm10 # xmm10 = (xmm10 * xmm22) + xmm2
vmovups (%rdx,%rax), %xmm11
vfnmadd132ps %xmm22, %xmm3, %xmm11 # xmm11 = -(xmm11 * xmm22) + xmm3
vxorps %xmm15, %xmm15, %xmm15
vmulps %xmm1, %xmm15, %xmm7
vfmadd231ps %xmm15, %xmm5, %xmm7 # xmm7 = (xmm5 * xmm15) + xmm7
vxorps %xmm8, %xmm8, %xmm8
vfmadd213ps %xmm7, %xmm4, %xmm8 # xmm8 = (xmm4 * xmm8) + xmm7
vaddps %xmm0, %xmm8, %xmm8
vfmadd231ps %xmm17, %xmm4, %xmm7 # xmm7 = (xmm4 * xmm17) + xmm7
vfnmadd231ps %xmm17, %xmm0, %xmm7 # xmm7 = -(xmm0 * xmm17) + xmm7
vmulps %xmm3, %xmm15, %xmm12
vfmadd231ps %xmm15, %xmm11, %xmm12 # xmm12 = (xmm11 * xmm15) + xmm12
vxorps %xmm9, %xmm9, %xmm9
vfmadd213ps %xmm12, %xmm10, %xmm9 # xmm9 = (xmm10 * xmm9) + xmm12
vaddps %xmm2, %xmm9, %xmm13
vfmadd231ps %xmm17, %xmm10, %xmm12 # xmm12 = (xmm10 * xmm17) + xmm12
vfnmadd231ps %xmm17, %xmm2, %xmm12 # xmm12 = -(xmm2 * xmm17) + xmm12
vxorps %xmm9, %xmm9, %xmm9
vfmadd213ps %xmm1, %xmm5, %xmm9 # xmm9 = (xmm5 * xmm9) + xmm1
vfmadd231ps %xmm15, %xmm4, %xmm9 # xmm9 = (xmm4 * xmm15) + xmm9
vfmadd231ps %xmm15, %xmm0, %xmm9 # xmm9 = (xmm0 * xmm15) + xmm9
vmulps %xmm17, %xmm1, %xmm1
vfnmadd231ps %xmm5, %xmm17, %xmm1 # xmm1 = -(xmm17 * xmm5) + xmm1
vfmadd231ps %xmm4, %xmm15, %xmm1 # xmm1 = (xmm15 * xmm4) + xmm1
vfnmadd231ps %xmm0, %xmm15, %xmm1 # xmm1 = -(xmm15 * xmm0) + xmm1
vxorps %xmm0, %xmm0, %xmm0
vfmadd213ps %xmm3, %xmm11, %xmm0 # xmm0 = (xmm11 * xmm0) + xmm3
vfmadd231ps %xmm15, %xmm10, %xmm0 # xmm0 = (xmm10 * xmm15) + xmm0
vfmadd231ps %xmm15, %xmm2, %xmm0 # xmm0 = (xmm2 * xmm15) + xmm0
vmulps %xmm17, %xmm3, %xmm3
vfnmadd231ps %xmm11, %xmm17, %xmm3 # xmm3 = -(xmm17 * xmm11) + xmm3
vfmadd231ps %xmm10, %xmm15, %xmm3 # xmm3 = (xmm15 * xmm10) + xmm3
vfnmadd231ps %xmm2, %xmm15, %xmm3 # xmm3 = -(xmm15 * xmm2) + xmm3
vshufps $0xc9, %xmm7, %xmm7, %xmm2 # xmm2 = xmm7[1,2,0,3]
vshufps $0xc9, %xmm13, %xmm13, %xmm4 # xmm4 = xmm13[1,2,0,3]
vmulps %xmm4, %xmm7, %xmm4
vfmsub231ps %xmm13, %xmm2, %xmm4 # xmm4 = (xmm2 * xmm13) - xmm4
vshufps $0xc9, %xmm4, %xmm4, %xmm4 # xmm4 = xmm4[1,2,0,3]
vshufps $0xc9, %xmm12, %xmm12, %xmm5 # xmm5 = xmm12[1,2,0,3]
vmulps %xmm5, %xmm7, %xmm5
vfmsub231ps %xmm12, %xmm2, %xmm5 # xmm5 = (xmm2 * xmm12) - xmm5
vshufps $0xc9, %xmm5, %xmm5, %xmm5 # xmm5 = xmm5[1,2,0,3]
vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm0, %xmm0, %xmm10 # xmm10 = xmm0[1,2,0,3]
vmulps %xmm1, %xmm10, %xmm10
vfmsub231ps %xmm0, %xmm2, %xmm10 # xmm10 = (xmm2 * xmm0) - xmm10
vshufps $0xc9, %xmm10, %xmm10, %xmm0 # xmm0 = xmm10[1,2,0,3]
vshufps $0xc9, %xmm3, %xmm3, %xmm10 # xmm10 = xmm3[1,2,0,3]
vmulps %xmm1, %xmm10, %xmm10
vfmsub231ps %xmm3, %xmm2, %xmm10 # xmm10 = (xmm2 * xmm3) - xmm10
vshufps $0xc9, %xmm10, %xmm10, %xmm2 # xmm2 = xmm10[1,2,0,3]
vdpps $0x7f, %xmm4, %xmm4, %xmm3
vmovss %xmm3, %xmm15, %xmm10 # xmm10 = xmm3[0],xmm15[1,2,3]
vrsqrt14ss %xmm10, %xmm15, %xmm11
vmovss 0x249eb9(%rip), %xmm16 # 0x1eec718
vmulss %xmm16, %xmm11, %xmm12
vmovss 0x24a311(%rip), %xmm17 # 0x1eecb80
vmulss %xmm17, %xmm3, %xmm13
vmulss %xmm11, %xmm13, %xmm13
vmulss %xmm11, %xmm11, %xmm11
vmulss %xmm11, %xmm13, %xmm11
vsubss %xmm11, %xmm12, %xmm11
vbroadcastss %xmm11, %xmm11
vmulps %xmm4, %xmm11, %xmm12
vdpps $0x7f, %xmm5, %xmm4, %xmm13
vbroadcastss %xmm3, %xmm14
vmulps %xmm5, %xmm14, %xmm5
vbroadcastss %xmm13, %xmm13
vmulps %xmm4, %xmm13, %xmm4
vsubps %xmm4, %xmm5, %xmm4
vrcp14ss %xmm10, %xmm15, %xmm5
vmovss 0x24e73a(%rip), %xmm18 # 0x1ef0ff8
vfnmadd213ss %xmm18, %xmm5, %xmm3 # xmm3 = -(xmm5 * xmm3) + xmm18
vmulss %xmm3, %xmm5, %xmm3
vdpps $0x7f, %xmm0, %xmm0, %xmm5
vbroadcastss %xmm3, %xmm3
vmulps %xmm3, %xmm4, %xmm3
vmulps %xmm3, %xmm11, %xmm3
vmovss %xmm5, %xmm15, %xmm4 # xmm4 = xmm5[0],xmm15[1,2,3]
vrsqrt14ss %xmm4, %xmm15, %xmm10
vmulss %xmm16, %xmm10, %xmm11
vmulss %xmm17, %xmm5, %xmm13
vmulss %xmm10, %xmm13, %xmm13
vmulss %xmm10, %xmm10, %xmm10
vmulss %xmm10, %xmm13, %xmm10
vsubss %xmm10, %xmm11, %xmm10
vbroadcastss %xmm10, %xmm10
vmulps %xmm0, %xmm10, %xmm11
vdpps $0x7f, %xmm2, %xmm0, %xmm13
vbroadcastss %xmm5, %xmm14
vmulps %xmm2, %xmm14, %xmm2
vbroadcastss %xmm13, %xmm13
vmulps %xmm0, %xmm13, %xmm0
vsubps %xmm0, %xmm2, %xmm0
vrcp14ss %xmm4, %xmm15, %xmm2
vfnmadd213ss %xmm18, %xmm2, %xmm5 # xmm5 = -(xmm2 * xmm5) + xmm18
vmulss %xmm5, %xmm2, %xmm2
vbroadcastss %xmm2, %xmm2
vmulps %xmm2, %xmm0, %xmm0
vmulps %xmm0, %xmm10, %xmm0
vshufps $0xff, %xmm8, %xmm8, %xmm2 # xmm2 = xmm8[3,3,3,3]
vmulps %xmm2, %xmm12, %xmm4
vsubps %xmm4, %xmm8, %xmm13
vshufps $0xff, %xmm7, %xmm7, %xmm5 # xmm5 = xmm7[3,3,3,3]
vmulps %xmm5, %xmm12, %xmm5
vmulps %xmm3, %xmm2, %xmm2
vaddps %xmm2, %xmm5, %xmm2
vsubps %xmm2, %xmm7, %xmm3
vaddps %xmm4, %xmm8, %xmm14
vaddps %xmm2, %xmm7, %xmm2
vshufps $0xff, %xmm9, %xmm9, %xmm4 # xmm4 = xmm9[3,3,3,3]
vmulps %xmm4, %xmm11, %xmm5
vsubps %xmm5, %xmm9, %xmm15
vshufps $0xff, %xmm1, %xmm1, %xmm7 # xmm7 = xmm1[3,3,3,3]
vmulps %xmm7, %xmm11, %xmm7
vmulps %xmm0, %xmm4, %xmm0
vaddps %xmm0, %xmm7, %xmm0
vsubps %xmm0, %xmm1, %xmm4
vaddps %xmm5, %xmm9, %xmm16
vaddps %xmm0, %xmm1, %xmm0
vmulps %xmm22, %xmm3, %xmm1
vaddps %xmm1, %xmm13, %xmm17
vmulps %xmm22, %xmm4, %xmm1
vsubps %xmm1, %xmm15, %xmm18
vmulps %xmm22, %xmm2, %xmm1
vaddps %xmm1, %xmm14, %xmm21
vmulps %xmm22, %xmm0, %xmm0
vsubps %xmm0, %xmm16, %xmm22
vsubps %xmm6, %xmm13, %xmm0
vbroadcastss %xmm0, %xmm1
vshufps $0x55, %xmm0, %xmm0, %xmm2 # xmm2 = xmm0[1,1,1,1]
vmovaps %xmm0, 0x310(%rsp)
vshufps $0xaa, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[2,2,2,2]
vmovaps (%r13), %xmm3
vmovaps 0x10(%r13), %xmm4
vmovaps 0x20(%r13), %xmm5
vmulps %xmm0, %xmm5, %xmm0
vfmadd231ps %xmm2, %xmm4, %xmm0 # xmm0 = (xmm4 * xmm2) + xmm0
vfmadd231ps %xmm1, %xmm3, %xmm0 # xmm0 = (xmm3 * xmm1) + xmm0
vsubps %xmm6, %xmm17, %xmm1
vbroadcastss %xmm1, %xmm2
vshufps $0x55, %xmm1, %xmm1, %xmm7 # xmm7 = xmm1[1,1,1,1]
vmovaps %xmm1, 0x300(%rsp)
vshufps $0xaa, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,2,2,2]
vmulps %xmm1, %xmm5, %xmm1
vfmadd231ps %xmm7, %xmm4, %xmm1 # xmm1 = (xmm4 * xmm7) + xmm1
vfmadd231ps %xmm2, %xmm3, %xmm1 # xmm1 = (xmm3 * xmm2) + xmm1
vsubps %xmm6, %xmm18, %xmm8
vbroadcastss %xmm8, %xmm2
vshufps $0x55, %xmm8, %xmm8, %xmm7 # xmm7 = xmm8[1,1,1,1]
vmovaps %xmm8, 0x2f0(%rsp)
vshufps $0xaa, %xmm8, %xmm8, %xmm8 # xmm8 = xmm8[2,2,2,2]
vmulps %xmm5, %xmm8, %xmm8
vfmadd231ps %xmm7, %xmm4, %xmm8 # xmm8 = (xmm4 * xmm7) + xmm8
vfmadd231ps %xmm2, %xmm3, %xmm8 # xmm8 = (xmm3 * xmm2) + xmm8
vsubps %xmm6, %xmm15, %xmm9
vbroadcastss %xmm9, %xmm2
vshufps $0x55, %xmm9, %xmm9, %xmm7 # xmm7 = xmm9[1,1,1,1]
vmovaps %xmm9, 0x2e0(%rsp)
vshufps $0xaa, %xmm9, %xmm9, %xmm9 # xmm9 = xmm9[2,2,2,2]
vmulps %xmm5, %xmm9, %xmm9
vfmadd231ps %xmm7, %xmm4, %xmm9 # xmm9 = (xmm4 * xmm7) + xmm9
vfmadd231ps %xmm2, %xmm3, %xmm9 # xmm9 = (xmm3 * xmm2) + xmm9
vsubps %xmm6, %xmm14, %xmm10
vbroadcastss %xmm10, %xmm2
vshufps $0x55, %xmm10, %xmm10, %xmm7 # xmm7 = xmm10[1,1,1,1]
vmovaps %xmm10, 0x2d0(%rsp)
vshufps $0xaa, %xmm10, %xmm10, %xmm10 # xmm10 = xmm10[2,2,2,2]
vmulps %xmm5, %xmm10, %xmm10
vfmadd231ps %xmm7, %xmm4, %xmm10 # xmm10 = (xmm4 * xmm7) + xmm10
vfmadd231ps %xmm2, %xmm3, %xmm10 # xmm10 = (xmm3 * xmm2) + xmm10
vsubps %xmm6, %xmm21, %xmm11
vbroadcastss %xmm11, %xmm2
vshufps $0x55, %xmm11, %xmm11, %xmm7 # xmm7 = xmm11[1,1,1,1]
vmovaps %xmm11, 0x2c0(%rsp)
vshufps $0xaa, %xmm11, %xmm11, %xmm11 # xmm11 = xmm11[2,2,2,2]
vmulps %xmm5, %xmm11, %xmm11
vfmadd231ps %xmm7, %xmm4, %xmm11 # xmm11 = (xmm4 * xmm7) + xmm11
vfmadd231ps %xmm2, %xmm3, %xmm11 # xmm11 = (xmm3 * xmm2) + xmm11
vsubps %xmm6, %xmm22, %xmm12
vbroadcastss %xmm12, %xmm2
vshufps $0x55, %xmm12, %xmm12, %xmm7 # xmm7 = xmm12[1,1,1,1]
vmovaps %xmm12, 0x2b0(%rsp)
vshufps $0xaa, %xmm12, %xmm12, %xmm12 # xmm12 = xmm12[2,2,2,2]
vmulps %xmm5, %xmm12, %xmm12
vfmadd231ps %xmm7, %xmm4, %xmm12 # xmm12 = (xmm4 * xmm7) + xmm12
vfmadd231ps %xmm2, %xmm3, %xmm12 # xmm12 = (xmm3 * xmm2) + xmm12
vsubps %xmm6, %xmm16, %xmm7
vbroadcastss %xmm7, %xmm2
vshufps $0x55, %xmm7, %xmm7, %xmm6 # xmm6 = xmm7[1,1,1,1]
vmovaps %xmm7, 0x2a0(%rsp)
vshufps $0xaa, %xmm7, %xmm7, %xmm7 # xmm7 = xmm7[2,2,2,2]
vmulps %xmm7, %xmm5, %xmm5
vfmadd231ps %xmm6, %xmm4, %xmm5 # xmm5 = (xmm4 * xmm6) + xmm5
vfmadd231ps %xmm2, %xmm3, %xmm5 # xmm5 = (xmm3 * xmm2) + xmm5
vmovlhps %xmm10, %xmm0, %xmm6 # xmm6 = xmm0[0],xmm10[0]
vmovlhps %xmm11, %xmm1, %xmm7 # xmm7 = xmm1[0],xmm11[0]
vmovlhps %xmm12, %xmm8, %xmm23 # xmm23 = xmm8[0],xmm12[0]
vmovlhps %xmm5, %xmm9, %xmm24 # xmm24 = xmm9[0],xmm5[0]
vminps %xmm7, %xmm6, %xmm2
vmaxps %xmm7, %xmm6, %xmm3
vminps %xmm24, %xmm23, %xmm4
vminps %xmm4, %xmm2, %xmm2
vmaxps %xmm24, %xmm23, %xmm4
vmaxps %xmm4, %xmm3, %xmm3
vshufpd $0x3, %xmm2, %xmm2, %xmm4 # xmm4 = xmm2[1,1]
vminps %xmm4, %xmm2, %xmm2
vshufpd $0x3, %xmm3, %xmm3, %xmm4 # xmm4 = xmm3[1,1]
vmaxps %xmm4, %xmm3, %xmm3
vandps %xmm19, %xmm2, %xmm2
vandps %xmm19, %xmm3, %xmm3
vmaxps %xmm3, %xmm2, %xmm2
vmovshdup %xmm2, %xmm3 # xmm3 = xmm2[1,1,3,3]
vmaxss %xmm2, %xmm3, %xmm2
leaq 0xff(%r12), %r14
vmulss 0x24f307(%rip), %xmm2, %xmm2 # 0x1ef1eb8
vmovddup %xmm0, %xmm19 # xmm19 = xmm0[0,0]
vmovddup %xmm1, %xmm25 # xmm25 = xmm1[0,0]
vmovddup %xmm8, %xmm1 # xmm1 = xmm8[0,0]
vmovddup %xmm9, %xmm3 # xmm3 = xmm9[0,0]
vmovddup %xmm10, %xmm4 # xmm4 = xmm10[0,0]
vmovddup %xmm11, %xmm8 # xmm8 = xmm11[0,0]
vmovddup %xmm12, %xmm9 # xmm9 = xmm12[0,0]
vmovddup %xmm5, %xmm10 # xmm10 = xmm5[0,0]
vmovaps %xmm2, 0x160(%rsp)
vbroadcastss %xmm2, %ymm29
vxorps %xmm20, %xmm29, %xmm0
vbroadcastss %xmm0, %ymm28
movl $0x0, 0x5c(%rsp)
xorl %ebx, %ebx
vmovss 0xc0(%r9,%r11,4), %xmm0
vmovss %xmm0, 0xbc(%rsp)
vmovaps %xmm6, 0xe0(%rsp)
vsubps %xmm6, %xmm7, %xmm0
vmovaps %xmm0, 0x120(%rsp)
vmovaps %xmm7, 0xd0(%rsp)
vsubps %xmm7, %xmm23, %xmm0
vmovaps %xmm0, 0x110(%rsp)
vmovaps %xmm23, 0x130(%rsp)
vmovaps %xmm24, 0x170(%rsp)
vsubps %xmm23, %xmm24, %xmm0
vmovaps %xmm0, 0x100(%rsp)
vmovaps %xmm13, 0x290(%rsp)
vmovaps %xmm14, 0x280(%rsp)
vsubps %xmm13, %xmm14, %xmm0
vmovaps %xmm0, 0x210(%rsp)
vmovaps %xmm4, %xmm13
vmovaps %xmm3, %xmm12
vmovaps %xmm17, 0x250(%rsp)
vmovaps %xmm21, 0x230(%rsp)
vsubps %xmm17, %xmm21, %xmm0
vmovaps %xmm0, 0x200(%rsp)
vmovaps %xmm18, 0x240(%rsp)
vmovaps %xmm22, 0x220(%rsp)
vsubps %xmm18, %xmm22, %xmm0
vmovaps %xmm0, 0x1f0(%rsp)
vmovaps %xmm15, 0x270(%rsp)
vmovaps %xmm16, 0x260(%rsp)
vsubps %xmm15, %xmm16, %xmm0
vmovaps %xmm0, 0x1e0(%rsp)
vmovaps %xmm1, %xmm16
vpbroadcastd %r8d, %zmm0
vmovdqa64 %zmm0, 0x440(%rsp)
vmovsd 0x2499ef(%rip), %xmm0 # 0x1eec6f0
vmovaps %xmm0, %xmm15
vmovaps %xmm19, 0x190(%rsp)
vmovaps %xmm25, 0x180(%rsp)
vmovaps %xmm1, 0xa0(%rsp)
vmovaps %xmm3, 0x70(%rsp)
vmovaps %xmm4, 0x60(%rsp)
vmovaps %xmm8, 0x40(%rsp)
vmovaps %xmm9, 0x30(%rsp)
vmovaps %xmm10, 0x20(%rsp)
vmovaps %ymm29, 0x3c0(%rsp)
vmovaps %ymm28, 0x3a0(%rsp)
vmovaps %xmm15, %xmm26
vshufps $0x50, %xmm15, %xmm15, %xmm1 # xmm1 = xmm15[0,0,1,1]
vbroadcastss 0x2499b2(%rip), %ymm31 # 0x1eec714
vsubps %xmm1, %xmm31, %xmm2
vmulps %xmm1, %xmm13, %xmm3
vmulps %xmm1, %xmm8, %xmm4
vmulps %xmm1, %xmm9, %xmm5
vmulps %xmm1, %xmm10, %xmm1
vfmadd231ps %xmm19, %xmm2, %xmm3 # xmm3 = (xmm2 * xmm19) + xmm3
vfmadd231ps %xmm25, %xmm2, %xmm4 # xmm4 = (xmm2 * xmm25) + xmm4
vfmadd231ps %xmm16, %xmm2, %xmm5 # xmm5 = (xmm2 * xmm16) + xmm5
vfmadd231ps %xmm2, %xmm12, %xmm1 # xmm1 = (xmm12 * xmm2) + xmm1
vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3]
vsubss %xmm0, %xmm2, %xmm6
vmulss 0x27e131(%rip), %xmm6, %xmm6 # 0x1f20ed0
vbroadcastss %xmm0, %ymm7
vbroadcastsd %xmm2, %ymm2
vsubps %ymm7, %ymm2, %ymm10
vbroadcastss %xmm3, %ymm2
vbroadcastss 0x26f949(%rip), %ymm9 # 0x1f12704
vpermps %ymm3, %ymm9, %ymm8
vbroadcastss %xmm4, %ymm20
vpermps %ymm4, %ymm9, %ymm21
vbroadcastss %xmm5, %ymm22
vpermps %ymm5, %ymm9, %ymm23
vbroadcastss %xmm1, %ymm24
vpermps %ymm1, %ymm9, %ymm25
vbroadcastss %xmm6, %ymm9
vpermps %ymm3, %ymm27, %ymm19
vbroadcastss 0x27e0e0(%rip), %ymm6 # 0x1f20ed8
vpermps %ymm3, %ymm6, %ymm18
vpermps %ymm4, %ymm27, %ymm15
vpermps %ymm4, %ymm6, %ymm14
vpermps %ymm5, %ymm27, %ymm12
vpermps %ymm5, %ymm6, %ymm11
vpermps %ymm1, %ymm27, %ymm16
vpermps %ymm1, %ymm6, %ymm17
vfmadd132ps 0x27e0f7(%rip), %ymm7, %ymm10 # ymm10 = (ymm10 * mem) + ymm7
vsubps %ymm10, %ymm31, %ymm13
vmulps %ymm10, %ymm20, %ymm1
vmulps %ymm10, %ymm21, %ymm3
vfmadd231ps %ymm2, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm2) + ymm1
vfmadd231ps %ymm8, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm8) + ymm3
vmulps %ymm10, %ymm22, %ymm2
vmulps %ymm10, %ymm23, %ymm4
vfmadd231ps %ymm20, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm20) + ymm2
vfmadd231ps %ymm21, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm21) + ymm4
vmulps %ymm10, %ymm24, %ymm5
vmulps %ymm10, %ymm25, %ymm6
vfmadd231ps %ymm22, %ymm13, %ymm5 # ymm5 = (ymm13 * ymm22) + ymm5
vfmadd231ps %ymm23, %ymm13, %ymm6 # ymm6 = (ymm13 * ymm23) + ymm6
vmulps %ymm2, %ymm10, %ymm7
vmulps %ymm4, %ymm10, %ymm8
vfmadd231ps %ymm1, %ymm13, %ymm7 # ymm7 = (ymm13 * ymm1) + ymm7
vfmadd231ps %ymm3, %ymm13, %ymm8 # ymm8 = (ymm13 * ymm3) + ymm8
vmulps %ymm5, %ymm10, %ymm1
vmulps %ymm6, %ymm10, %ymm5
vfmadd231ps %ymm2, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm2) + ymm1
vfmadd231ps %ymm4, %ymm13, %ymm5 # ymm5 = (ymm13 * ymm4) + ymm5
vmulps %ymm1, %ymm10, %ymm3
vmulps %ymm5, %ymm10, %ymm4
vfmadd231ps %ymm7, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm7) + ymm3
vfmadd231ps %ymm8, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm8) + ymm4
vsubps %ymm7, %ymm1, %ymm1
vsubps %ymm8, %ymm5, %ymm2
vbroadcastss 0x24e12e(%rip), %ymm22 # 0x1ef0fec
vmulps %ymm22, %ymm1, %ymm1
vmulps %ymm22, %ymm2, %ymm2
vmulps %ymm1, %ymm9, %ymm8
vmulps %ymm2, %ymm9, %ymm20
vmovaps %ymm3, %ymm5
vmovaps 0x2bce3e(%rip), %ymm23 # 0x1f5fd20
vxorps %xmm24, %xmm24, %xmm24
vpermt2ps %ymm24, %ymm23, %ymm5
vmovaps %ymm4, %ymm6
vpermt2ps %ymm24, %ymm23, %ymm6
vaddps %ymm3, %ymm8, %ymm1
vpermt2ps %ymm24, %ymm23, %ymm8
vaddps %ymm20, %ymm4, %ymm7
vpermt2ps %ymm24, %ymm23, %ymm20
vsubps %ymm8, %ymm5, %ymm2
vsubps %ymm20, %ymm6, %ymm8
vmulps %ymm10, %ymm15, %ymm20
vmulps %ymm10, %ymm14, %ymm21
vfmadd231ps %ymm19, %ymm13, %ymm20 # ymm20 = (ymm13 * ymm19) + ymm20
vfmadd231ps %ymm18, %ymm13, %ymm21 # ymm21 = (ymm13 * ymm18) + ymm21
vmulps %ymm10, %ymm12, %ymm18
vmulps %ymm10, %ymm11, %ymm19
vfmadd231ps %ymm15, %ymm13, %ymm18 # ymm18 = (ymm13 * ymm15) + ymm18
vfmadd231ps %ymm14, %ymm13, %ymm19 # ymm19 = (ymm13 * ymm14) + ymm19
vmulps %ymm10, %ymm16, %ymm14
vmulps %ymm10, %ymm17, %ymm15
vfmadd231ps %ymm12, %ymm13, %ymm14 # ymm14 = (ymm13 * ymm12) + ymm14
vfmadd231ps %ymm11, %ymm13, %ymm15 # ymm15 = (ymm13 * ymm11) + ymm15
vmulps %ymm18, %ymm10, %ymm16
vmulps %ymm19, %ymm10, %ymm17
vfmadd231ps %ymm20, %ymm13, %ymm16 # ymm16 = (ymm13 * ymm20) + ymm16
vfmadd231ps %ymm21, %ymm13, %ymm17 # ymm17 = (ymm13 * ymm21) + ymm17
vmulps %ymm14, %ymm10, %ymm14
vmulps %ymm15, %ymm10, %ymm15
vfmadd231ps %ymm18, %ymm13, %ymm14 # ymm14 = (ymm13 * ymm18) + ymm14
vfmadd231ps %ymm19, %ymm13, %ymm15 # ymm15 = (ymm13 * ymm19) + ymm15
vmulps %ymm14, %ymm10, %ymm11
vmulps %ymm15, %ymm10, %ymm12
vfmadd231ps %ymm16, %ymm13, %ymm11 # ymm11 = (ymm13 * ymm16) + ymm11
vfmadd231ps %ymm13, %ymm17, %ymm12 # ymm12 = (ymm17 * ymm13) + ymm12
vsubps %ymm16, %ymm14, %ymm10
vsubps %ymm17, %ymm15, %ymm13
vmulps %ymm22, %ymm10, %ymm10
vmulps %ymm22, %ymm13, %ymm13
vmulps %ymm10, %ymm9, %ymm10
vmulps %ymm13, %ymm9, %ymm16
vmovaps %ymm11, %ymm13
vpermt2ps %ymm24, %ymm23, %ymm13
vmovaps %ymm12, %ymm14
vpermt2ps %ymm24, %ymm23, %ymm14
vaddps %ymm10, %ymm11, %ymm9
vpermt2ps %ymm24, %ymm23, %ymm10
vaddps %ymm16, %ymm12, %ymm15
vpermt2ps %ymm24, %ymm23, %ymm16
vsubps %ymm10, %ymm13, %ymm10
vsubps %ymm16, %ymm14, %ymm16
vsubps %ymm3, %ymm11, %ymm17
vsubps %ymm4, %ymm12, %ymm18
vsubps %ymm5, %ymm13, %ymm19
vaddps %ymm19, %ymm17, %ymm17
vsubps %ymm6, %ymm14, %ymm19
vaddps %ymm19, %ymm18, %ymm18
vmulps %ymm17, %ymm4, %ymm19
vfnmadd231ps %ymm18, %ymm3, %ymm19 # ymm19 = -(ymm3 * ymm18) + ymm19
vmulps %ymm17, %ymm7, %ymm20
vfnmadd231ps %ymm18, %ymm1, %ymm20 # ymm20 = -(ymm1 * ymm18) + ymm20
vmulps %ymm17, %ymm8, %ymm21
vfnmadd231ps %ymm18, %ymm2, %ymm21 # ymm21 = -(ymm2 * ymm18) + ymm21
vmulps %ymm17, %ymm6, %ymm22
vfnmadd231ps %ymm18, %ymm5, %ymm22 # ymm22 = -(ymm5 * ymm18) + ymm22
vmulps %ymm17, %ymm12, %ymm23
vfnmadd231ps %ymm18, %ymm11, %ymm23 # ymm23 = -(ymm11 * ymm18) + ymm23
vmulps %ymm17, %ymm15, %ymm24
vfnmadd231ps %ymm18, %ymm9, %ymm24 # ymm24 = -(ymm9 * ymm18) + ymm24
vmulps %ymm17, %ymm16, %ymm25
vfnmadd231ps %ymm18, %ymm10, %ymm25 # ymm25 = -(ymm10 * ymm18) + ymm25
vmulps %ymm17, %ymm14, %ymm17
vfnmadd231ps %ymm18, %ymm13, %ymm17 # ymm17 = -(ymm13 * ymm18) + ymm17
vminps %ymm20, %ymm19, %ymm18
vmaxps %ymm20, %ymm19, %ymm19
vminps %ymm22, %ymm21, %ymm20
vminps %ymm20, %ymm18, %ymm18
vmaxps %ymm22, %ymm21, %ymm20
vmaxps %ymm20, %ymm19, %ymm19
vminps %ymm24, %ymm23, %ymm20
vmaxps %ymm24, %ymm23, %ymm21
vminps %ymm17, %ymm25, %ymm22
vminps %ymm22, %ymm20, %ymm20
vminps %ymm20, %ymm18, %ymm18
vmaxps %ymm17, %ymm25, %ymm17
vmaxps %ymm17, %ymm21, %ymm17
vmaxps %ymm17, %ymm19, %ymm17
vcmpleps %ymm29, %ymm18, %k1
vcmpnltps %ymm28, %ymm17, %k0 {%k1}
kmovd %k0, %eax
movl $0x0, %ecx
andb $0x7f, %al
je 0x1ca31ca
vsubps %ymm3, %ymm5, %ymm17
vsubps %ymm4, %ymm6, %ymm18
vsubps %ymm11, %ymm13, %ymm19
vaddps %ymm19, %ymm17, %ymm17
vsubps %ymm12, %ymm14, %ymm19
vaddps %ymm19, %ymm18, %ymm18
vmulps %ymm17, %ymm4, %ymm4
vfnmadd231ps %ymm3, %ymm18, %ymm4 # ymm4 = -(ymm18 * ymm3) + ymm4
vmulps %ymm17, %ymm7, %ymm3
vfnmadd213ps %ymm3, %ymm18, %ymm1 # ymm1 = -(ymm18 * ymm1) + ymm3
vmulps %ymm17, %ymm8, %ymm3
vfnmadd213ps %ymm3, %ymm18, %ymm2 # ymm2 = -(ymm18 * ymm2) + ymm3
vmulps %ymm17, %ymm6, %ymm3
vfnmadd231ps %ymm5, %ymm18, %ymm3 # ymm3 = -(ymm18 * ymm5) + ymm3
vmulps %ymm17, %ymm12, %ymm5
vfnmadd231ps %ymm11, %ymm18, %ymm5 # ymm5 = -(ymm18 * ymm11) + ymm5
vmulps %ymm17, %ymm15, %ymm6
vfnmadd213ps %ymm6, %ymm18, %ymm9 # ymm9 = -(ymm18 * ymm9) + ymm6
vmulps %ymm17, %ymm16, %ymm6
vfnmadd213ps %ymm6, %ymm18, %ymm10 # ymm10 = -(ymm18 * ymm10) + ymm6
vmulps %ymm17, %ymm14, %ymm6
vfnmadd231ps %ymm18, %ymm13, %ymm6 # ymm6 = -(ymm13 * ymm18) + ymm6
vminps %ymm1, %ymm4, %ymm7
vmaxps %ymm1, %ymm4, %ymm1
vminps %ymm3, %ymm2, %ymm4
vminps %ymm4, %ymm7, %ymm4
vmaxps %ymm3, %ymm2, %ymm2
vmaxps %ymm2, %ymm1, %ymm1
vminps %ymm9, %ymm5, %ymm2
vmaxps %ymm9, %ymm5, %ymm3
vminps %ymm6, %ymm10, %ymm5
vminps %ymm5, %ymm2, %ymm2
vminps %ymm2, %ymm4, %ymm2
vmaxps %ymm6, %ymm10, %ymm4
vmaxps %ymm4, %ymm3, %ymm3
vmaxps %ymm3, %ymm1, %ymm1
vcmpnltps %ymm28, %ymm1, %k1
vcmpleps %ymm29, %ymm2, %k0 {%k1}
kmovd %k0, %ecx
andb %cl, %al
movzbl %al, %ecx
testl %ecx, %ecx
je 0x1ca31ea
movl %ebx, %eax
movl %ecx, 0x1a0(%rsp,%rax,4)
vmovlps %xmm0, 0x320(%rsp,%rax,8)
vmovlps %xmm26, 0x3e0(%rsp,%rax,8)
incl %ebx
vbroadcastss 0x24ddf8(%rip), %xmm17 # 0x1ef0fec
vbroadcastss 0x27dcc6(%rip), %xmm19 # 0x1f20ec4
vbroadcastss 0x27dcb8(%rip), %xmm20 # 0x1f20ec0
vbroadcastss 0x24ddda(%rip), %ymm18 # 0x1ef0fec
vmovss 0x27dcc4(%rip), %xmm21 # 0x1f20ee0
vmovss 0x2494ee(%rip), %xmm22 # 0x1eec714
vmovss 0x24ddd0(%rip), %xmm23 # 0x1ef1000
vmovss 0x24e812(%rip), %xmm24 # 0x1ef1a4c
vbroadcastss 0x2494d0(%rip), %xmm25 # 0x1eec714
vmovaps 0xa0(%rsp), %xmm16
vmovaps 0x70(%rsp), %xmm12
vmovaps 0x60(%rsp), %xmm13
vmovaps 0x40(%rsp), %xmm8
vmovaps 0x30(%rsp), %xmm9
vmovaps 0x20(%rsp), %xmm10
vmovaps 0x120(%rsp), %xmm28
vmovaps 0x110(%rsp), %xmm29
vmovaps 0x100(%rsp), %xmm31
testl %ebx, %ebx
je 0x1ca4381
leal -0x1(%rbx), %eax
vmovss 0x320(%rsp,%rax,8), %xmm0
vmovss 0x324(%rsp,%rax,8), %xmm1
movl 0x1a0(%rsp,%rax,4), %ecx
vmovsd 0x3e0(%rsp,%rax,8), %xmm15
tzcntq %rcx, %rdx
blsrl %ecx, %ecx
movl %ecx, 0x1a0(%rsp,%rax,4)
cmovel %eax, %ebx
vcvtsi2ss %rdx, %xmm27, %xmm2
vmulss %xmm21, %xmm2, %xmm2
incq %rdx
vcvtsi2ss %rdx, %xmm27, %xmm3
vmulss %xmm21, %xmm3, %xmm3
vsubss %xmm2, %xmm22, %xmm4
vmulss %xmm2, %xmm1, %xmm26
vfmadd231ss %xmm4, %xmm0, %xmm26 # xmm26 = (xmm0 * xmm4) + xmm26
vsubss %xmm3, %xmm22, %xmm2
vmulss %xmm3, %xmm1, %xmm14
vfmadd231ss %xmm2, %xmm0, %xmm14 # xmm14 = (xmm0 * xmm2) + xmm14
vsubss %xmm26, %xmm14, %xmm0
vucomiss %xmm0, %xmm23
jbe 0x1ca4355
vmovaps %xmm26, %xmm6
vmovaps %xmm15, %xmm26
vshufps $0x50, %xmm15, %xmm15, %xmm1 # xmm1 = xmm15[0,0,1,1]
vucomiss %xmm0, %xmm24
seta %cl
cmpl $0x4, %ebx
setae %al
vsubps %xmm1, %xmm25, %xmm2
vmulps %xmm1, %xmm13, %xmm3
vmulps %xmm1, %xmm8, %xmm4
vmulps %xmm1, %xmm9, %xmm5
vmulps %xmm1, %xmm10, %xmm1
vfmadd231ps 0x190(%rsp), %xmm2, %xmm3 # xmm3 = (xmm2 * mem) + xmm3
vfmadd231ps 0x180(%rsp), %xmm2, %xmm4 # xmm4 = (xmm2 * mem) + xmm4
vfmadd231ps %xmm16, %xmm2, %xmm5 # xmm5 = (xmm2 * xmm16) + xmm5
vfmadd231ps %xmm2, %xmm12, %xmm1 # xmm1 = (xmm12 * xmm2) + xmm1
vinsertf128 $0x1, %xmm3, %ymm3, %ymm2
vinsertf128 $0x1, %xmm4, %ymm4, %ymm3
vinsertf128 $0x1, %xmm5, %ymm5, %ymm4
vmovaps %xmm6, 0xc0(%rsp)
vbroadcastss %xmm6, %xmm6
vmovaps %xmm14, 0x80(%rsp)
vbroadcastss %xmm14, %xmm7
vinsertf128 $0x1, %xmm7, %ymm6, %ymm6
vsubps %ymm2, %ymm3, %ymm7
vfmadd213ps %ymm2, %ymm6, %ymm7 # ymm7 = (ymm6 * ymm7) + ymm2
vsubps %ymm3, %ymm4, %ymm2
vfmadd213ps %ymm3, %ymm6, %ymm2 # ymm2 = (ymm6 * ymm2) + ymm3
vsubps %xmm5, %xmm1, %xmm1
vinsertf128 $0x1, %xmm1, %ymm1, %ymm3
vfmadd213ps %ymm4, %ymm6, %ymm3 # ymm3 = (ymm6 * ymm3) + ymm4
vsubps %ymm7, %ymm2, %ymm1
vfmadd213ps %ymm7, %ymm6, %ymm1 # ymm1 = (ymm6 * ymm1) + ymm7
vsubps %ymm2, %ymm3, %ymm3
vfmadd213ps %ymm2, %ymm6, %ymm3 # ymm3 = (ymm6 * ymm3) + ymm2
vsubps %ymm1, %ymm3, %ymm2
vfmadd231ps %ymm6, %ymm2, %ymm1 # ymm1 = (ymm2 * ymm6) + ymm1
vmulps %ymm18, %ymm2, %ymm3
vextractf128 $0x1, %ymm1, %xmm2
vextractf128 $0x1, %ymm3, %xmm4
vmulss 0x24eacb(%rip), %xmm0, %xmm5 # 0x1ef1ebc
vbroadcastss %xmm5, %xmm6
vmulps %xmm3, %xmm6, %xmm3
vaddps %xmm3, %xmm1, %xmm5
vmulps %xmm4, %xmm6, %xmm3
vsubps %xmm3, %xmm2, %xmm6
vshufpd $0x3, %xmm1, %xmm1, %xmm4 # xmm4 = xmm1[1,1]
vshufpd $0x3, %xmm2, %xmm2, %xmm3 # xmm3 = xmm2[1,1]
vsubps %xmm1, %xmm4, %xmm7
vsubps %xmm2, %xmm3, %xmm8
vaddps %xmm7, %xmm8, %xmm7
vshufps $0xb1, %xmm1, %xmm1, %xmm8 # xmm8 = xmm1[1,0,3,2]
vshufps $0xb1, %xmm5, %xmm5, %xmm9 # xmm9 = xmm5[1,0,3,2]
vshufps $0xb1, %xmm6, %xmm6, %xmm10 # xmm10 = xmm6[1,0,3,2]
vshufps $0xb1, %xmm2, %xmm2, %xmm11 # xmm11 = xmm2[1,0,3,2]
vbroadcastss %xmm7, %xmm12
vshufps $0x55, %xmm7, %xmm7, %xmm7 # xmm7 = xmm7[1,1,1,1]
vmulps %xmm7, %xmm8, %xmm8
vmulps %xmm7, %xmm9, %xmm9
vmulps %xmm7, %xmm10, %xmm10
vmulps %xmm7, %xmm11, %xmm7
vfmadd231ps %xmm1, %xmm12, %xmm8 # xmm8 = (xmm12 * xmm1) + xmm8
vfmadd231ps %xmm5, %xmm12, %xmm9 # xmm9 = (xmm12 * xmm5) + xmm9
vfmadd231ps %xmm6, %xmm12, %xmm10 # xmm10 = (xmm12 * xmm6) + xmm10
vfmadd231ps %xmm12, %xmm2, %xmm7 # xmm7 = (xmm2 * xmm12) + xmm7
vshufpd $0x1, %xmm8, %xmm8, %xmm11 # xmm11 = xmm8[1,0]
vshufpd $0x1, %xmm9, %xmm9, %xmm12 # xmm12 = xmm9[1,0]
vshufpd $0x1, %xmm10, %xmm10, %xmm14 # xmm14 = xmm10[1,0]
vshufpd $0x1, %xmm7, %xmm7, %xmm15 # xmm15 = xmm7[1,0]
vminss %xmm9, %xmm8, %xmm13
vmaxss %xmm8, %xmm9, %xmm8
vminss %xmm7, %xmm10, %xmm9
vmaxss %xmm10, %xmm7, %xmm7
vminss %xmm9, %xmm13, %xmm13
vmaxss %xmm8, %xmm7, %xmm9
vminss %xmm12, %xmm11, %xmm7
vmaxss %xmm11, %xmm12, %xmm8
vminss %xmm15, %xmm14, %xmm10
vmaxss %xmm14, %xmm15, %xmm11
vminss %xmm10, %xmm7, %xmm14
vmaxss %xmm8, %xmm11, %xmm10
vmovss 0x24d520(%rip), %xmm7 # 0x1ef09d8
vucomiss %xmm13, %xmm7
jbe 0x1ca34cd
vmovss 0x24e9f9(%rip), %xmm7 # 0x1ef1ec0
vucomiss %xmm7, %xmm10
ja 0x1ca352e
vmovss 0x24e9eb(%rip), %xmm7 # 0x1ef1ec0
vucomiss %xmm7, %xmm9
seta %dl
vmovss 0x24d4f4(%rip), %xmm7 # 0x1ef09d8
vcmpltps %xmm7, %xmm14, %k0
vcmpltps %xmm7, %xmm13, %k1
korw %k0, %k1, %k0
kmovd %k0, %esi
testb %sil, %dl
jne 0x1ca352e
vmovss 0x24e9b9(%rip), %xmm7 # 0x1ef1ec0
vcmpnltps %xmm10, %xmm7, %k0
vmovss 0x24d4c2(%rip), %xmm7 # 0x1ef09d8
vcmpnltps %xmm7, %xmm14, %k1
korw %k0, %k1, %k0
kmovd %k0, %edx
testb $0x1, %dl
jne 0x1ca4302
vcmpltss %xmm30, %xmm13, %k1
vmovaps %xmm22, %xmm15
vmovss 0x24d487(%rip), %xmm16 # 0x1ef09cc
vmovss %xmm16, %xmm15, %xmm15 {%k1}
vcmpltss %xmm30, %xmm9, %k1
vmovaps %xmm22, %xmm12
vmovss %xmm16, %xmm12, %xmm12 {%k1}
vucomiss %xmm12, %xmm15
setp %dl
setne %sil
orb %dl, %sil
kmovd %esi, %k1
vmovss 0x2484a7(%rip), %xmm7 # 0x1eeba20
vmovss %xmm30, %xmm7, %xmm7 {%k1}
vmovss 0x2495fd(%rip), %xmm8 # 0x1eecb84
vmovss %xmm30, %xmm8, %xmm8 {%k1}
vcmpltss %xmm30, %xmm14, %k1
vmovaps %xmm22, %xmm11
vmovss %xmm16, %xmm11, %xmm11 {%k1}
vucomiss %xmm11, %xmm15
jne 0x1ca35a9
jnp 0x1ca35e8
vucomiss %xmm13, %xmm14
jne 0x1ca35fb
jp 0x1ca35fb
vucomiss %xmm30, %xmm13
setnp %dl
sete %sil
andb %dl, %sil
kmovd %esi, %k1
vmovss 0x248452(%rip), %xmm13 # 0x1eeba20
vmovss %xmm30, %xmm13, %xmm13 {%k1}
vmovss 0x2495a8(%rip), %xmm14 # 0x1eecb84
vmovss 0x24912e(%rip), %xmm14 {%k1} # 0x1eec714
jmp 0x1ca361c
vmovaps 0xe0(%rsp), %xmm15
vmovaps 0xd0(%rsp), %xmm16
jmp 0x1ca3637
vxorps %xmm20, %xmm13, %xmm15
vsubss %xmm13, %xmm14, %xmm13
vdivss %xmm13, %xmm15, %xmm14
vsubss %xmm14, %xmm22, %xmm13
vfmadd213ss %xmm14, %xmm30, %xmm13 # xmm13 = (xmm30 * xmm13) + xmm14
vmovaps %xmm13, %xmm14
vmovaps 0xe0(%rsp), %xmm15
vmovaps 0xd0(%rsp), %xmm16
vminss %xmm13, %xmm7, %xmm7
vmaxss %xmm8, %xmm14, %xmm8
vcmpltss %xmm30, %xmm10, %k1
vmovaps %xmm22, %xmm13
vmovss 0x24d37e(%rip), %xmm13 {%k1} # 0x1ef09cc
vucomiss %xmm13, %xmm12
vmovaps 0x80(%rsp), %xmm14
jne 0x1ca3660
jnp 0x1ca36ca
vucomiss %xmm9, %xmm10
jne 0x1ca369f
jp 0x1ca369f
vucomiss %xmm30, %xmm9
setnp %dl
sete %sil
andb %dl, %sil
kmovd %esi, %k1
vmovss 0x24839b(%rip), %xmm9 # 0x1eeba20
vmovss %xmm30, %xmm9, %xmm9 {%k1}
vmovss 0x2494f1(%rip), %xmm10 # 0x1eecb84
vmovss 0x249077(%rip), %xmm10 {%k1} # 0x1eec714
jmp 0x1ca36c0
vxorps %xmm20, %xmm9, %xmm12
vsubss %xmm9, %xmm10, %xmm9
vdivss %xmm9, %xmm12, %xmm10
vsubss %xmm10, %xmm22, %xmm9
vfmadd213ss %xmm10, %xmm30, %xmm9 # xmm9 = (xmm30 * xmm9) + xmm10
vmovaps %xmm9, %xmm10
vminss %xmm9, %xmm7, %xmm7
vmaxss %xmm8, %xmm10, %xmm8
vucomiss %xmm13, %xmm11
setp %dl
setne %sil
orb %dl, %sil
vminss %xmm22, %xmm7, %xmm9
kmovd %esi, %k1
vmovss %xmm9, %xmm7, %xmm7 {%k1}
vmaxss %xmm8, %xmm22, %xmm9
vmovss %xmm9, %xmm8, %xmm8 {%k1}
vmaxss %xmm7, %xmm30, %xmm7
vminss %xmm22, %xmm8, %xmm8
movb $0x1, %r15b
vucomiss %xmm8, %xmm7
ja 0x1ca4297
vaddss 0x2b9d51(%rip), %xmm7, %xmm7 # 0x1f5d468
vaddss 0x24947d(%rip), %xmm8, %xmm8 # 0x1eecb9c
vmaxss %xmm7, %xmm30, %xmm7
vminss %xmm22, %xmm8, %xmm8
vmovddup %xmm1, %xmm1 # xmm1 = xmm1[0,0]
vmovddup %xmm5, %xmm9 # xmm9 = xmm5[0,0]
vmovddup %xmm6, %xmm10 # xmm10 = xmm6[0,0]
vmovddup %xmm2, %xmm2 # xmm2 = xmm2[0,0]
vshufpd $0x3, %xmm5, %xmm5, %xmm5 # xmm5 = xmm5[1,1]
vshufpd $0x3, %xmm6, %xmm6, %xmm6 # xmm6 = xmm6[1,1]
vshufps $0x0, %xmm8, %xmm7, %xmm11 # xmm11 = xmm7[0,0],xmm8[0,0]
vsubps %xmm11, %xmm25, %xmm12
vmulps %xmm4, %xmm11, %xmm13
vmulps %xmm5, %xmm11, %xmm5
vmulps %xmm6, %xmm11, %xmm6
vmulps %xmm3, %xmm11, %xmm3
vfmadd231ps %xmm1, %xmm12, %xmm13 # xmm13 = (xmm12 * xmm1) + xmm13
vfmadd231ps %xmm9, %xmm12, %xmm5 # xmm5 = (xmm12 * xmm9) + xmm5
vfmadd231ps %xmm10, %xmm12, %xmm6 # xmm6 = (xmm12 * xmm10) + xmm6
vfmadd231ps %xmm2, %xmm12, %xmm3 # xmm3 = (xmm12 * xmm2) + xmm3
vsubss %xmm7, %xmm22, %xmm2
vmovshdup %xmm26, %xmm4 # xmm4 = xmm26[1,1,3,3]
vmulss %xmm7, %xmm4, %xmm1
vfmadd231ss %xmm2, %xmm26, %xmm1 # xmm1 = (xmm26 * xmm2) + xmm1
vsubss %xmm8, %xmm22, %xmm2
vmulss %xmm4, %xmm8, %xmm4
vfmadd231ss %xmm2, %xmm26, %xmm4 # xmm4 = (xmm26 * xmm2) + xmm4
vdivss %xmm0, %xmm22, %xmm0
vsubps %xmm13, %xmm5, %xmm2
vmulps %xmm17, %xmm2, %xmm2
vsubps %xmm5, %xmm6, %xmm7
vmulps %xmm17, %xmm7, %xmm7
vsubps %xmm6, %xmm3, %xmm8
vmulps %xmm17, %xmm8, %xmm8
vminps %xmm8, %xmm7, %xmm9
vmaxps %xmm8, %xmm7, %xmm7
vminps %xmm9, %xmm2, %xmm8
vmaxps %xmm7, %xmm2, %xmm2
vshufpd $0x3, %xmm8, %xmm8, %xmm7 # xmm7 = xmm8[1,1]
vshufpd $0x3, %xmm2, %xmm2, %xmm9 # xmm9 = xmm2[1,1]
vminps %xmm7, %xmm8, %xmm7
vmaxps %xmm9, %xmm2, %xmm2
vbroadcastss %xmm0, %xmm0
vmulps %xmm7, %xmm0, %xmm8
vmulps %xmm2, %xmm0, %xmm7
vsubss %xmm1, %xmm4, %xmm0
vdivss %xmm0, %xmm22, %xmm0
vshufpd $0x3, %xmm13, %xmm13, %xmm2 # xmm2 = xmm13[1,1]
vshufpd $0x3, %xmm5, %xmm5, %xmm9 # xmm9 = xmm5[1,1]
vshufpd $0x3, %xmm6, %xmm6, %xmm10 # xmm10 = xmm6[1,1]
vshufpd $0x3, %xmm3, %xmm3, %xmm11 # xmm11 = xmm3[1,1]
vsubps %xmm13, %xmm2, %xmm2
vsubps %xmm5, %xmm9, %xmm5
vsubps %xmm6, %xmm10, %xmm6
vsubps %xmm3, %xmm11, %xmm3
vminps %xmm5, %xmm2, %xmm9
vmaxps %xmm5, %xmm2, %xmm2
vminps %xmm3, %xmm6, %xmm5
vminps %xmm5, %xmm9, %xmm5
vmaxps %xmm3, %xmm6, %xmm3
vmaxps %xmm3, %xmm2, %xmm2
vbroadcastss %xmm0, %xmm0
vmulps %xmm5, %xmm0, %xmm10
vmulps %xmm2, %xmm0, %xmm11
vmovaps 0xc0(%rsp), %xmm26
vinsertps $0x10, %xmm1, %xmm26, %xmm6 # xmm6 = xmm26[0],xmm1[0],xmm26[2,3]
vinsertps $0x10, %xmm4, %xmm14, %xmm5 # xmm5 = xmm14[0],xmm4[0],xmm14[2,3]
vaddps %xmm5, %xmm6, %xmm0
vmulps 0x249314(%rip){1to4}, %xmm0, %xmm9 # 0x1eecb80
vshufps $0x54, %xmm9, %xmm9, %xmm0 # xmm0 = xmm9[0,1,1,1]
vbroadcastss %xmm9, %xmm2
vmovaps %xmm28, %xmm3
vfmadd213ps %xmm15, %xmm2, %xmm3 # xmm3 = (xmm2 * xmm3) + xmm15
vmovaps %xmm29, %xmm12
vfmadd213ps %xmm16, %xmm2, %xmm12 # xmm12 = (xmm2 * xmm12) + xmm16
vmovaps %xmm31, %xmm13
vfmadd213ps 0x130(%rsp), %xmm2, %xmm13 # xmm13 = (xmm2 * xmm13) + mem
vsubps %xmm3, %xmm12, %xmm14
vfmadd213ps %xmm3, %xmm2, %xmm14 # xmm14 = (xmm2 * xmm14) + xmm3
vsubps %xmm12, %xmm13, %xmm3
vfmadd213ps %xmm12, %xmm2, %xmm3 # xmm3 = (xmm2 * xmm3) + xmm12
vsubps %xmm14, %xmm3, %xmm3
vfmadd231ps %xmm2, %xmm3, %xmm14 # xmm14 = (xmm3 * xmm2) + xmm14
vmulps %xmm17, %xmm3, %xmm2
vmovddup %xmm14, %xmm12 # xmm12 = xmm14[0,0]
vshufpd $0x3, %xmm14, %xmm14, %xmm3 # xmm3 = xmm14[1,1]
vshufps $0x55, %xmm9, %xmm9, %xmm13 # xmm13 = xmm9[1,1,1,1]
vsubps %xmm12, %xmm3, %xmm3
vfmadd231ps %xmm3, %xmm13, %xmm12 # xmm12 = (xmm13 * xmm3) + xmm12
vmovddup %xmm2, %xmm14 # xmm14 = xmm2[0,0]
vshufpd $0x3, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[1,1]
vsubps %xmm14, %xmm2, %xmm15
vfmadd213ps %xmm14, %xmm13, %xmm15 # xmm15 = (xmm13 * xmm15) + xmm14
vbroadcastss 0x27d5c8(%rip), %xmm14 # 0x1f20ec0
vxorps %xmm3, %xmm14, %xmm2
vmovshdup %xmm15, %xmm13 # xmm13 = xmm15[1,1,3,3]
vxorps %xmm14, %xmm13, %xmm14
vmovshdup %xmm3, %xmm16 # xmm16 = xmm3[1,1,3,3]
vmovss 0x2bc3e6(%rip), %xmm30 # 0x1f5fcfc
vpermt2ps %xmm3, %xmm30, %xmm14
vmulss %xmm3, %xmm13, %xmm3
vfmsub231ss %xmm16, %xmm15, %xmm3 # xmm3 = (xmm15 * xmm16) - xmm3
vmovss 0x2b7046(%rip), %xmm13 # 0x1f5a974
vpermt2ps %xmm2, %xmm13, %xmm15
vbroadcastss %xmm3, %xmm3
vdivps %xmm3, %xmm14, %xmm2
vdivps %xmm3, %xmm15, %xmm3
vbroadcastss %xmm12, %xmm13
vmulps %xmm2, %xmm13, %xmm13
vshufps $0x55, %xmm12, %xmm12, %xmm12 # xmm12 = xmm12[1,1,1,1]
vmulps %xmm3, %xmm12, %xmm12
vaddps %xmm12, %xmm13, %xmm12
vsubps %xmm12, %xmm0, %xmm0
vmovshdup %xmm2, %xmm12 # xmm12 = xmm2[1,1,3,3]
vinsertps $0x1c, %xmm10, %xmm8, %xmm13 # xmm13 = xmm8[0],xmm10[0],zero,zero
vmulps %xmm13, %xmm12, %xmm14
vinsertps $0x1c, %xmm11, %xmm7, %xmm15 # xmm15 = xmm7[0],xmm11[0],zero,zero
vmulps %xmm15, %xmm12, %xmm12
vminps %xmm12, %xmm14, %xmm16
vmaxps %xmm14, %xmm12, %xmm12
vmovshdup %xmm3, %xmm14 # xmm14 = xmm3[1,1,3,3]
vinsertps $0x4c, %xmm8, %xmm10, %xmm8 # xmm8 = xmm8[1],xmm10[1],zero,zero
vmulps %xmm8, %xmm14, %xmm10
vinsertps $0x4c, %xmm7, %xmm11, %xmm7 # xmm7 = xmm7[1],xmm11[1],zero,zero
vmulps %xmm7, %xmm14, %xmm11
vminps %xmm11, %xmm10, %xmm14
vaddps %xmm14, %xmm16, %xmm14
vmaxps %xmm10, %xmm11, %xmm10
vaddps %xmm10, %xmm12, %xmm10
vmovddup 0x27d537(%rip), %xmm11 # xmm11 = mem[0,0]
vsubps %xmm10, %xmm11, %xmm10
vsubps %xmm14, %xmm11, %xmm11
vsubps %xmm9, %xmm6, %xmm12
vsubps %xmm9, %xmm5, %xmm9
vmulps %xmm10, %xmm12, %xmm14
vbroadcastss %xmm2, %xmm16
vmulps %xmm13, %xmm16, %xmm13
vmulps %xmm15, %xmm16, %xmm15
vminps %xmm15, %xmm13, %xmm16
vmaxps %xmm13, %xmm15, %xmm13
vbroadcastss %xmm3, %xmm15
vmulps %xmm8, %xmm15, %xmm8
vmulps %xmm7, %xmm15, %xmm7
vminps %xmm7, %xmm8, %xmm15
vaddps %xmm15, %xmm16, %xmm15
vmulps %xmm11, %xmm12, %xmm16
vmulps %xmm10, %xmm9, %xmm10
vmulps %xmm11, %xmm9, %xmm11
vmaxps %xmm8, %xmm7, %xmm7
vaddps %xmm7, %xmm13, %xmm7
vmovddup 0x27d4d0(%rip), %xmm8 # xmm8 = mem[0,0]
vsubps %xmm7, %xmm8, %xmm7
vsubps %xmm15, %xmm8, %xmm8
vmulps %xmm7, %xmm12, %xmm13
vmulps %xmm8, %xmm12, %xmm12
vmulps %xmm7, %xmm9, %xmm7
vmulps %xmm8, %xmm9, %xmm8
vminps %xmm12, %xmm13, %xmm9
vminps %xmm8, %xmm7, %xmm15
vminps %xmm15, %xmm9, %xmm9
vmaxps %xmm13, %xmm12, %xmm12
vmaxps %xmm7, %xmm8, %xmm7
vmaxps %xmm12, %xmm7, %xmm7
vminps %xmm16, %xmm14, %xmm8
vminps %xmm11, %xmm10, %xmm12
vminps %xmm12, %xmm8, %xmm8
vhaddps %xmm8, %xmm9, %xmm8
vmaxps %xmm14, %xmm16, %xmm9
vmaxps %xmm10, %xmm11, %xmm10
vmaxps %xmm9, %xmm10, %xmm9
vhaddps %xmm9, %xmm7, %xmm7
vshufps $0xe8, %xmm8, %xmm8, %xmm8 # xmm8 = xmm8[0,2,2,3]
vshufps $0xe8, %xmm7, %xmm7, %xmm9 # xmm9 = xmm7[0,2,2,3]
vaddps %xmm0, %xmm8, %xmm7
vaddps %xmm0, %xmm9, %xmm8
vmaxps %xmm7, %xmm6, %xmm6
vminps %xmm5, %xmm8, %xmm9
vcmpltps %xmm6, %xmm9, %k0
vinsertps $0x10, %xmm4, %xmm1, %xmm15 # xmm15 = xmm1[0],xmm4[0],xmm1[2,3]
kmovd %k0, %edx
testb $0x3, %dl
jne 0x1ca4287
vucomiss %xmm8, %xmm5
seta %sil
xorl %edx, %edx
vucomiss %xmm26, %xmm7
vmovaps 0xa0(%rsp), %xmm16
jbe 0x1ca3b3b
testb %sil, %sil
vmovss 0x24d507(%rip), %xmm11 # 0x1ef0fec
vxorps %xmm30, %xmm30, %xmm30
vmovaps 0xe0(%rsp), %xmm9
vmovaps 0xd0(%rsp), %xmm10
vmovaps 0x130(%rsp), %xmm12
vmovaps 0x170(%rsp), %xmm13
vmovaps 0x160(%rsp), %xmm14
je 0x1ca3b76
vcmpltps %xmm5, %xmm8, %k0
kshiftrb $0x1, %k0, %k0
kmovd %k0, %esi
vmovshdup %xmm7, %xmm4 # xmm4 = xmm7[1,1,3,3]
vucomiss %xmm1, %xmm4
seta %dl
andb %sil, %dl
jmp 0x1ca3b76
vmovss 0x24d4a9(%rip), %xmm11 # 0x1ef0fec
vxorps %xmm30, %xmm30, %xmm30
vmovaps 0xe0(%rsp), %xmm9
vmovaps 0xd0(%rsp), %xmm10
vmovaps 0x130(%rsp), %xmm12
vmovaps 0x170(%rsp), %xmm13
vmovaps 0x160(%rsp), %xmm14
orb %cl, %al
orb %dl, %al
cmpb $0x1, %al
jne 0x1ca42cd
movl $0xc8, %eax
vsubss %xmm0, %xmm22, %xmm1
vmulss %xmm1, %xmm1, %xmm4
vmulss %xmm4, %xmm1, %xmm5
vmulss %xmm0, %xmm11, %xmm6
vmulss %xmm4, %xmm6, %xmm4
vmulss %xmm0, %xmm0, %xmm6
vmulss %xmm6, %xmm11, %xmm7
vmulss %xmm7, %xmm1, %xmm1
vbroadcastss %xmm5, %xmm5
vbroadcastss %xmm4, %xmm4
vbroadcastss %xmm1, %xmm1
vmulss %xmm6, %xmm0, %xmm6
vbroadcastss %xmm6, %xmm6
vmulps %xmm6, %xmm13, %xmm6
vfmadd231ps %xmm1, %xmm12, %xmm6 # xmm6 = (xmm12 * xmm1) + xmm6
vfmadd231ps %xmm4, %xmm10, %xmm6 # xmm6 = (xmm10 * xmm4) + xmm6
vfmadd231ps %xmm5, %xmm9, %xmm6 # xmm6 = (xmm9 * xmm5) + xmm6
vmovddup %xmm6, %xmm1 # xmm1 = xmm6[0,0]
vshufpd $0x3, %xmm6, %xmm6, %xmm4 # xmm4 = xmm6[1,1]
vshufps $0x55, %xmm0, %xmm0, %xmm5 # xmm5 = xmm0[1,1,1,1]
vsubps %xmm1, %xmm4, %xmm4
vfmadd213ps %xmm1, %xmm5, %xmm4 # xmm4 = (xmm5 * xmm4) + xmm1
vbroadcastss %xmm4, %xmm1
vmulps %xmm1, %xmm2, %xmm1
vshufps $0x55, %xmm4, %xmm4, %xmm5 # xmm5 = xmm4[1,1,1,1]
vmulps %xmm5, %xmm3, %xmm5
vaddps %xmm5, %xmm1, %xmm1
vsubps %xmm1, %xmm0, %xmm0
vandps %xmm19, %xmm4, %xmm1
vprolq $0x20, %xmm1, %xmm4
vmaxss %xmm1, %xmm4, %xmm1
vucomiss %xmm1, %xmm14
ja 0x1ca3c2a
decq %rax
jne 0x1ca3b87
jmp 0x1ca42d0
vucomiss %xmm30, %xmm0
jb 0x1ca42d0
vucomiss %xmm0, %xmm22
vmovaps 0x70(%rsp), %xmm12
vmovaps 0x60(%rsp), %xmm13
vmovaps 0x80(%rsp), %xmm14
jb 0x1ca3d5d
vmovshdup %xmm0, %xmm1 # xmm1 = xmm0[1,1,3,3]
vucomiss %xmm30, %xmm1
jb 0x1ca3d5d
vucomiss %xmm1, %xmm22
jb 0x1ca3d5d
vmovss 0x8(%r13), %xmm2
vinsertps $0x1c, 0x18(%r13), %xmm2, %xmm2 # xmm2 = xmm2[0],mem[0],zero,zero
vinsertps $0x28, 0x28(%r13), %xmm2, %xmm2 # xmm2 = xmm2[0,1],mem[0],zero
vdpps $0x7f, 0x310(%rsp), %xmm2, %xmm3
vdpps $0x7f, 0x300(%rsp), %xmm2, %xmm4
vdpps $0x7f, 0x2f0(%rsp), %xmm2, %xmm5
vdpps $0x7f, 0x2e0(%rsp), %xmm2, %xmm6
vdpps $0x7f, 0x2d0(%rsp), %xmm2, %xmm7
vdpps $0x7f, 0x2c0(%rsp), %xmm2, %xmm8
vdpps $0x7f, 0x2b0(%rsp), %xmm2, %xmm9
vdpps $0x7f, 0x2a0(%rsp), %xmm2, %xmm2
vsubss %xmm1, %xmm22, %xmm10
vmulss %xmm7, %xmm1, %xmm7
vmulss %xmm1, %xmm8, %xmm8
vmulss %xmm1, %xmm9, %xmm9
vmulss %xmm2, %xmm1, %xmm1
vfmadd231ss %xmm3, %xmm10, %xmm7 # xmm7 = (xmm10 * xmm3) + xmm7
vfmadd231ss %xmm4, %xmm10, %xmm8 # xmm8 = (xmm10 * xmm4) + xmm8
vfmadd231ss %xmm5, %xmm10, %xmm9 # xmm9 = (xmm10 * xmm5) + xmm9
vfmadd231ss %xmm6, %xmm10, %xmm1 # xmm1 = (xmm10 * xmm6) + xmm1
vsubss %xmm0, %xmm22, %xmm6
vmulss %xmm6, %xmm6, %xmm3
vmulss %xmm3, %xmm6, %xmm2
vmulss %xmm0, %xmm11, %xmm4
vmulss %xmm3, %xmm4, %xmm3
vmulps %xmm0, %xmm0, %xmm5
vmulss %xmm5, %xmm11, %xmm4
vmulss %xmm4, %xmm6, %xmm4
vmulps %xmm5, %xmm0, %xmm5
vmulss %xmm1, %xmm5, %xmm1
vfmadd231ss %xmm9, %xmm4, %xmm1 # xmm1 = (xmm4 * xmm9) + xmm1
vfmadd231ss %xmm8, %xmm3, %xmm1 # xmm1 = (xmm3 * xmm8) + xmm1
vfmadd231ss %xmm7, %xmm2, %xmm1 # xmm1 = (xmm2 * xmm7) + xmm1
vucomiss 0xbc(%rsp), %xmm1
jb 0x1ca3d5d
vmovss 0x200(%r9,%r11,4), %xmm7
vucomiss %xmm1, %xmm7
jae 0x1ca3d74
vmovaps 0x40(%rsp), %xmm8
vmovaps 0x30(%rsp), %xmm9
vmovaps 0x20(%rsp), %xmm10
jmp 0x1ca42f7
vmovss %xmm7, 0xb8(%rsp)
movq %r12, %r13
movq %r14, %r12
vshufps $0x55, %xmm0, %xmm0, %xmm7 # xmm7 = xmm0[1,1,1,1]
vsubps %xmm7, %xmm25, %xmm8
vmulps 0x280(%rsp), %xmm7, %xmm9
vmulps 0x230(%rsp), %xmm7, %xmm10
vmulps 0x220(%rsp), %xmm7, %xmm11
vmulps 0x260(%rsp), %xmm7, %xmm7
vfmadd231ps 0x290(%rsp), %xmm8, %xmm9 # xmm9 = (xmm8 * mem) + xmm9
vfmadd231ps 0x250(%rsp), %xmm8, %xmm10 # xmm10 = (xmm8 * mem) + xmm10
vfmadd231ps 0x240(%rsp), %xmm8, %xmm11 # xmm11 = (xmm8 * mem) + xmm11
vfmadd231ps 0x270(%rsp), %xmm8, %xmm7 # xmm7 = (xmm8 * mem) + xmm7
vsubps %xmm9, %xmm10, %xmm8
vsubps %xmm10, %xmm11, %xmm9
vsubps %xmm11, %xmm7, %xmm7
vbroadcastss %xmm0, %xmm10
vmulps %xmm9, %xmm10, %xmm11
vbroadcastss %xmm6, %xmm6
vfmadd231ps %xmm8, %xmm6, %xmm11 # xmm11 = (xmm6 * xmm8) + xmm11
vmulps %xmm7, %xmm10, %xmm7
vfmadd231ps %xmm9, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm9) + xmm7
vmulps %xmm7, %xmm10, %xmm7
vfmadd231ps %xmm11, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm11) + xmm7
vmulps %xmm17, %xmm7, %xmm6
movq (%rdi), %rax
movq 0x1e8(%rax), %rax
movq (%rax,%r8,8), %r14
movl 0x240(%r9,%r11,4), %eax
testl %eax, 0x34(%r14)
je 0x1ca4259
movq 0x10(%rdi), %rax
cmpq $0x0, 0x10(%rax)
vmovaps 0x40(%rsp), %xmm8
vmovaps 0x30(%rsp), %xmm9
vmovaps 0x20(%rsp), %xmm10
jne 0x1ca3e5f
movb $0x1, %al
cmpq $0x0, 0x48(%r14)
je 0x1ca426d
vbroadcastss %xmm5, %xmm5
vmulps 0x1e0(%rsp), %xmm5, %xmm5
vbroadcastss %xmm4, %xmm4
vfmadd132ps 0x1f0(%rsp), %xmm5, %xmm4 # xmm4 = (xmm4 * mem) + xmm5
vbroadcastss %xmm3, %xmm3
vfmadd132ps 0x200(%rsp), %xmm4, %xmm3 # xmm3 = (xmm3 * mem) + xmm4
vbroadcastss %xmm2, %xmm2
vfmadd132ps 0x210(%rsp), %xmm3, %xmm2 # xmm2 = (xmm2 * mem) + xmm3
vshufps $0xc9, %xmm2, %xmm2, %xmm3 # xmm3 = xmm2[1,2,0,3]
vshufps $0xc9, %xmm6, %xmm6, %xmm4 # xmm4 = xmm6[1,2,0,3]
vmulps %xmm4, %xmm2, %xmm2
vfmsub231ps %xmm3, %xmm6, %xmm2 # xmm2 = (xmm6 * xmm3) - xmm2
movq 0x8(%rdi), %rax
vbroadcastss %xmm0, %zmm3
vbroadcastss 0x26e843(%rip), %zmm4 # 0x1f12704
vpermps %zmm0, %zmm4, %zmm0
vpermps %zmm2, %zmm4, %zmm4
vbroadcastss 0x27d005(%rip), %zmm5 # 0x1f20edc
vpermps %zmm2, %zmm5, %zmm5
vbroadcastss %xmm2, %zmm2
vmovaps %zmm4, 0x4c0(%rsp)
vmovaps %zmm5, 0x500(%rsp)
vmovaps %zmm2, 0x540(%rsp)
vmovaps %zmm3, 0x580(%rsp)
vmovaps %zmm0, 0x5c0(%rsp)
vmovaps 0x480(%rsp), %zmm0
vmovaps %zmm0, 0x600(%rsp)
vmovdqa64 0x440(%rsp), %zmm0
vmovdqa64 %zmm0, 0x640(%rsp)
leaq 0x680(%rsp), %rcx
vpcmpeqd %ymm0, %ymm0, %ymm0
vmovdqa %ymm0, 0x60(%rcx)
vmovdqa %ymm0, 0x40(%rcx)
vmovdqa %ymm0, 0x20(%rcx)
vmovdqa %ymm0, (%rcx)
vbroadcastss (%rax), %zmm0
vmovaps %zmm0, 0x680(%rsp)
vbroadcastss 0x4(%rax), %zmm0
vmovaps %zmm0, 0x6c0(%rsp)
vmovss %xmm1, 0x200(%r9,%r11,4)
vmovaps 0x400(%rsp), %zmm0
vmovaps %zmm0, 0x340(%rsp)
leaq 0x340(%rsp), %rax
movq %rax, 0x1b0(%rsp)
movq 0x18(%r14), %rax
movq %rax, 0x1b8(%rsp)
movq 0x8(%rdi), %rax
movq %rax, 0x1c0(%rsp)
movq %r9, 0x1c8(%rsp)
leaq 0x4c0(%rsp), %rax
movq %rax, 0x1d0(%rsp)
movl $0x10, 0x1d8(%rsp)
movq 0x48(%r14), %rax
testq %rax, %rax
movq %r10, 0xf8(%rsp)
movq %r8, 0xf0(%rsp)
vmovaps %xmm15, 0x150(%rsp)
je 0x1ca40f1
leaq 0x1b0(%rsp), %rdi
movq %r11, 0x140(%rsp)
vzeroupper
callq *%rax
vmovaps 0x80(%rsp), %xmm14
vmovaps 0xc0(%rsp), %xmm26
vmovaps 0x150(%rsp), %xmm15
vmovaps 0x100(%rsp), %xmm31
vmovaps 0x110(%rsp), %xmm29
vmovaps 0x120(%rsp), %xmm28
vmovaps 0x20(%rsp), %xmm10
vmovaps 0x30(%rsp), %xmm9
vmovaps 0x40(%rsp), %xmm8
vmovaps 0x60(%rsp), %xmm13
vmovaps 0x70(%rsp), %xmm12
vmovaps 0xa0(%rsp), %xmm16
movq 0xf0(%rsp), %r8
vxorps %xmm30, %xmm30, %xmm30
vbroadcastss 0x24869d(%rip), %xmm25 # 0x1eec714
vmovss 0x24d9cb(%rip), %xmm24 # 0x1ef1a4c
vmovss 0x24cf75(%rip), %xmm23 # 0x1ef1000
vmovss 0x24867f(%rip), %xmm22 # 0x1eec714
vmovss 0x27ce41(%rip), %xmm21 # 0x1f20ee0
vbroadcastss 0x24cf43(%rip), %ymm18 # 0x1ef0fec
vbroadcastss 0x27ce0d(%rip), %xmm20 # 0x1f20ec0
vbroadcastss 0x27ce07(%rip), %xmm19 # 0x1f20ec4
vbroadcastss 0x24cf25(%rip), %xmm17 # 0x1ef0fec
vbroadcastss 0x27ce0b(%rip), %ymm27 # 0x1f20edc
movq 0x98(%rsp), %rdi
movq 0xb0(%rsp), %r9
movq 0x140(%rsp), %r11
movq 0xf8(%rsp), %r10
vmovdqa64 0x340(%rsp), %zmm0
vptestmd %zmm0, %zmm0, %k0
kortestw %k0, %k0
je 0x1ca4333
movq 0x10(%rdi), %rcx
movq 0x10(%rcx), %rax
testq %rax, %rax
je 0x1ca421f
testb $0x2, (%rcx)
jne 0x1ca412a
testb $0x40, 0x3e(%r14)
je 0x1ca421f
leaq 0x1b0(%rsp), %rdi
movq %r11, %r14
vzeroupper
callq *%rax
vmovaps 0x80(%rsp), %xmm14
vmovaps 0xc0(%rsp), %xmm26
vmovaps 0x150(%rsp), %xmm15
vmovaps 0x100(%rsp), %xmm31
vmovaps 0x110(%rsp), %xmm29
vmovaps 0x120(%rsp), %xmm28
vmovaps 0x20(%rsp), %xmm10
vmovaps 0x30(%rsp), %xmm9
vmovaps 0x40(%rsp), %xmm8
vmovaps 0x60(%rsp), %xmm13
vmovaps 0x70(%rsp), %xmm12
vmovaps 0xa0(%rsp), %xmm16
movq 0xf0(%rsp), %r8
vxorps %xmm30, %xmm30, %xmm30
vbroadcastss 0x24856a(%rip), %xmm25 # 0x1eec714
vmovss 0x24d898(%rip), %xmm24 # 0x1ef1a4c
vmovss 0x24ce42(%rip), %xmm23 # 0x1ef1000
vmovss 0x24854c(%rip), %xmm22 # 0x1eec714
vmovss 0x27cd0e(%rip), %xmm21 # 0x1f20ee0
vbroadcastss 0x24ce10(%rip), %ymm18 # 0x1ef0fec
vbroadcastss 0x27ccda(%rip), %xmm20 # 0x1f20ec0
vbroadcastss 0x27ccd4(%rip), %xmm19 # 0x1f20ec4
vbroadcastss 0x24cdf2(%rip), %xmm17 # 0x1ef0fec
vbroadcastss 0x27ccd8(%rip), %ymm27 # 0x1f20edc
movq 0x98(%rsp), %rdi
movq 0xb0(%rsp), %r9
movq %r14, %r11
movq 0xf8(%rsp), %r10
vmovdqa64 0x340(%rsp), %zmm0
vptestmd %zmm0, %zmm0, %k1
movq 0x1c8(%rsp), %rax
vmovaps 0x200(%rax), %zmm0
vbroadcastss 0x24893e(%rip), %zmm0 {%k1} # 0x1eecb84
vmovaps %zmm0, 0x200(%rax)
kortestw %k1, %k1
setne %al
jmp 0x1ca4335
xorl %eax, %eax
vmovaps 0x40(%rsp), %xmm8
vmovaps 0x30(%rsp), %xmm9
vmovaps 0x20(%rsp), %xmm10
movl 0x5c(%rsp), %ecx
orb %al, %cl
movl %ecx, 0x5c(%rsp)
movq %r12, %r14
movq %r13, %r12
movq 0x148(%rsp), %r13
jmp 0x1ca42f7
vxorps %xmm30, %xmm30, %xmm30
vmovaps 0xa0(%rsp), %xmm16
jmp 0x1ca42d0
vmovaps 0xa0(%rsp), %xmm16
vmovaps 0x70(%rsp), %xmm12
vmovaps 0x60(%rsp), %xmm13
vmovaps 0x40(%rsp), %xmm8
vmovaps 0x30(%rsp), %xmm9
vmovaps 0x20(%rsp), %xmm10
vmovaps %xmm26, %xmm15
vmovaps 0xc0(%rsp), %xmm26
jmp 0x1ca42f7
xorl %r15d, %r15d
vmovaps 0x70(%rsp), %xmm12
vmovaps 0x60(%rsp), %xmm13
vmovaps 0x40(%rsp), %xmm8
vmovaps 0x30(%rsp), %xmm9
vmovaps 0x20(%rsp), %xmm10
vmovaps 0x80(%rsp), %xmm14
testb %r15b, %r15b
jne 0x1ca3282
jmp 0x1ca4355
movb $0x1, %r15b
vmovaps 0x70(%rsp), %xmm12
vmovaps 0x60(%rsp), %xmm13
vmovaps 0x40(%rsp), %xmm8
vmovaps 0x30(%rsp), %xmm9
vmovaps 0x20(%rsp), %xmm10
vmovaps %xmm26, %xmm15
vmovaps 0xc0(%rsp), %xmm26
jmp 0x1ca42ee
xorl %eax, %eax
testb %al, %al
jne 0x1ca426d
vmovss 0xb8(%rsp), %xmm0
vmovss %xmm0, 0x200(%r9,%r11,4)
jmp 0x1ca426d
vinsertps $0x10, %xmm14, %xmm26, %xmm0 # xmm0 = xmm26[0],xmm14[0],xmm26[2,3]
vmovaps 0x190(%rsp), %xmm19
vmovaps 0x180(%rsp), %xmm25
vmovaps 0x3c0(%rsp), %ymm29
vmovaps 0x3a0(%rsp), %ymm28
jmp 0x1ca2d4c
testb $0x1, 0x5c(%rsp)
jne 0x1ca43b2
vmovaps 0x380(%rsp), %ymm0
vcmpleps 0x200(%r9,%r11,4){1to8}, %ymm0, %k0
kmovb %k0, %eax
andl %r14d, %r12d
andl %eax, %r12d
setne 0x1f(%rsp)
jne 0x1ca2634
movb 0x1f(%rsp), %al
andb $0x1, %al
leaq -0x28(%rbp), %rsp
popq %rbx
popq %r12
popq %r13
popq %r14
popq %r15
popq %rbp
vzeroupper
retq
|
/embree[P]embree/kernels/geometry/curveNi_intersector.h
|
void embree::avx512::CurveNiIntersector1<8>::intersect_t<embree::avx512::SweepCurve1Intersector1<embree::CatmullRomCurveT>, embree::avx512::Intersect1Epilog1<true>>(embree::avx512::CurvePrecalculations1 const&, embree::RayHitK<1>&, embree::RayQueryContext*, embree::CurveNi<8> const&)
|
static __forceinline void intersect_t(const Precalculations& pre, RayHit& ray, RayQueryContext* context, const Primitive& prim)
{
vfloat<M> tNear;
vbool<M> valid = intersect(ray,prim,tNear);
const size_t N = prim.N;
size_t mask = movemask(valid);
while (mask)
{
const size_t i = bscf(mask);
STAT3(normal.trav_prims,1,1,1);
const unsigned int geomID = prim.geomID(N);
const unsigned int primID = prim.primID(N)[i];
const CurveGeometry* geom = context->scene->get<CurveGeometry>(geomID);
Vec3ff a0,a1,a2,a3; geom->gather(a0,a1,a2,a3,geom->curve(primID));
size_t mask1 = mask;
const size_t i1 = bscf(mask1);
if (mask) {
const unsigned int primID1 = prim.primID(N)[i1];
geom->prefetchL1_vertices(geom->curve(primID1));
if (mask1) {
const size_t i2 = bsf(mask1);
const unsigned int primID2 = prim.primID(N)[i2];
geom->prefetchL2_vertices(geom->curve(primID2));
}
}
Intersector().intersect(pre,ray,context,geom,primID,a0,a1,a2,a3,Epilog(ray,context,geomID,primID));
mask &= movemask(tNear <= vfloat<M>(ray.tfar));
}
}
|
pushq %rbp
movq %rsp, %rbp
pushq %r15
pushq %r14
pushq %r13
pushq %r12
pushq %rbx
andq $-0x20, %rsp
subq $0x8c0, %rsp # imm = 0x8C0
movq %rcx, %r9
movzbl 0x1(%rcx), %ecx
leaq (%rcx,%rcx,4), %rax
leaq (%rax,%rax,4), %rdi
vbroadcastss 0x12(%r9,%rdi), %xmm0
movq %rdx, %r13
movq %rsi, %r15
vmovaps (%rsi), %xmm1
vsubps 0x6(%r9,%rdi), %xmm1, %xmm1
vmulps %xmm1, %xmm0, %xmm3
vmulps 0x10(%rsi), %xmm0, %xmm0
vpmovsxbd 0x6(%r9,%rcx,4), %ymm1
vpmovsxbd 0x6(%r9,%rax), %ymm2
vcvtdq2ps %ymm1, %ymm5
vcvtdq2ps %ymm2, %ymm6
leaq (%rcx,%rcx,2), %rdx
vpmovsxbd 0x6(%r9,%rdx,2), %ymm1
vcvtdq2ps %ymm1, %ymm4
leaq (%rcx,%rax,2), %rsi
vpmovsxbd 0x6(%r9,%rsi), %ymm1
leal (,%rdx,4), %esi
vpmovsxbd 0x6(%r9,%rsi), %ymm2
vcvtdq2ps %ymm1, %ymm7
vcvtdq2ps %ymm2, %ymm8
addq %rcx, %rsi
vpmovsxbd 0x6(%r9,%rsi), %ymm1
vcvtdq2ps %ymm1, %ymm9
leaq (%rcx,%rcx,8), %rsi
leal (%rsi,%rsi), %edi
vpmovsxbd 0x6(%r9,%rdi), %ymm1
vcvtdq2ps %ymm1, %ymm10
addq %rcx, %rdi
vpmovsxbd 0x6(%r9,%rdi), %ymm1
vcvtdq2ps %ymm1, %ymm11
shll $0x2, %eax
vpmovsxbd 0x6(%r9,%rax), %ymm1
vcvtdq2ps %ymm1, %ymm12
vbroadcastss %xmm0, %ymm13
vbroadcastss 0x26e262(%rip), %ymm15 # 0x1f12704
vbroadcastss 0x27ca30(%rip), %ymm16 # 0x1f20edc
vpermps %ymm0, %ymm15, %ymm14
vpermps %ymm0, %ymm16, %ymm0
vmulps %ymm4, %ymm0, %ymm2
vmulps %ymm0, %ymm9, %ymm1
vmulps %ymm0, %ymm12, %ymm0
vfmadd231ps %ymm6, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm6) + ymm2
vfmadd231ps %ymm8, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm8) + ymm1
vfmadd231ps %ymm14, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm14) + ymm0
vfmadd231ps %ymm5, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm5) + ymm2
vfmadd231ps %ymm7, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm7) + ymm1
vfmadd231ps %ymm13, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm13) + ymm0
vbroadcastss %xmm3, %ymm13
vpermps %ymm3, %ymm15, %ymm14
vpermps %ymm3, %ymm16, %ymm3
vmulps %ymm4, %ymm3, %ymm15
vmulps %ymm3, %ymm9, %ymm4
vmulps %ymm3, %ymm12, %ymm3
vfmadd231ps %ymm6, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm6) + ymm15
vfmadd231ps %ymm8, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm8) + ymm4
vfmadd231ps %ymm11, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm11) + ymm3
vfmadd231ps %ymm5, %ymm13, %ymm15 # ymm15 = (ymm13 * ymm5) + ymm15
vfmadd231ps %ymm7, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm7) + ymm4
vbroadcastss 0x27c9a5(%rip), %ymm6 # 0x1f20ec4
vfmadd231ps %ymm10, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm10) + ymm3
vandps %ymm6, %ymm2, %ymm5
vbroadcastss 0x24cab7(%rip), %ymm7 # 0x1ef0fe8
vcmpltps %ymm7, %ymm5, %k1
vmovaps %ymm7, %ymm2 {%k1}
vandps %ymm6, %ymm1, %ymm5
vcmpltps %ymm7, %ymm5, %k1
vmovaps %ymm7, %ymm1 {%k1}
vandps %ymm6, %ymm0, %ymm5
vcmpltps %ymm7, %ymm5, %k1
vmovaps %ymm7, %ymm0 {%k1}
vrcp14ps %ymm2, %ymm5
vbroadcastss 0x2481a5(%rip), %ymm6 # 0x1eec714
vfnmadd213ps %ymm6, %ymm5, %ymm2 # ymm2 = -(ymm5 * ymm2) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm2 # ymm2 = (ymm2 * ymm5) + ymm5
vrcp14ps %ymm1, %ymm5
vfnmadd213ps %ymm6, %ymm5, %ymm1 # ymm1 = -(ymm5 * ymm1) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm1 # ymm1 = (ymm1 * ymm5) + ymm5
vrcp14ps %ymm0, %ymm5
vfnmadd213ps %ymm6, %ymm5, %ymm0 # ymm0 = -(ymm5 * ymm0) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm0 # ymm0 = (ymm0 * ymm5) + ymm5
leaq (,%rcx,8), %rdi
subq %rcx, %rdi
vpmovsxwd 0x6(%r9,%rdi), %ymm5
vcvtdq2ps %ymm5, %ymm5
vsubps %ymm15, %ymm5, %ymm5
vmulps %ymm5, %ymm2, %ymm5
vpmovsxwd 0x6(%r9,%rsi), %ymm6
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm15, %ymm6, %ymm6
leaq (%rcx,%rcx), %rsi
addq %rcx, %rax
shlq $0x3, %rdx
subq %rcx, %rdx
vpbroadcastd %ecx, %ymm7
shll $0x4, %ecx
vpmovsxwd 0x6(%r9,%rcx), %ymm8
vmulps %ymm6, %ymm2, %ymm2
subq %rsi, %rcx
vpmovsxwd 0x6(%r9,%rcx), %ymm6
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm4, %ymm6, %ymm6
vmulps %ymm6, %ymm1, %ymm6
vcvtdq2ps %ymm8, %ymm8
vsubps %ymm4, %ymm8, %ymm4
vmulps %ymm4, %ymm1, %ymm1
vpmovsxwd 0x6(%r9,%rax), %ymm4
vcvtdq2ps %ymm4, %ymm4
vsubps %ymm3, %ymm4, %ymm4
vmulps %ymm0, %ymm4, %ymm4
vpmovsxwd 0x6(%r9,%rdx), %ymm8
vcvtdq2ps %ymm8, %ymm8
vsubps %ymm3, %ymm8, %ymm3
vmulps %ymm3, %ymm0, %ymm0
vpminsd %ymm2, %ymm5, %ymm3
vpminsd %ymm1, %ymm6, %ymm8
vmaxps %ymm8, %ymm3, %ymm3
vpminsd %ymm0, %ymm4, %ymm8
vmaxps 0xc(%r15){1to8}, %ymm8, %ymm8
vmaxps %ymm8, %ymm3, %ymm3
vmulps 0x27b8b2(%rip){1to8}, %ymm3, %ymm3 # 0x1f1ff10
vpmaxsd %ymm2, %ymm5, %ymm2
vpmaxsd %ymm1, %ymm6, %ymm1
vminps %ymm1, %ymm2, %ymm1
vpmaxsd %ymm0, %ymm4, %ymm0
vminps 0x20(%r15){1to8}, %ymm0, %ymm0
vminps %ymm0, %ymm1, %ymm0
vmulps 0x27b88e(%rip){1to8}, %ymm0, %ymm0 # 0x1f1ff14
vpcmpgtd 0x2b6290(%rip), %ymm7, %k0 # 0x1f5a920
vmovaps %ymm3, 0x540(%rsp)
vcmpleps %ymm0, %ymm3, %k1
ktestb %k0, %k1
je 0x1ca6e34
kandb %k0, %k1, %k0
kmovd %k0, %eax
movzbl %al, %r10d
vxorps %xmm12, %xmm12, %xmm12
movq %r13, 0x20(%rsp)
movq %r9, 0x1e8(%rsp)
tzcntq %r10, %rax
movl 0x2(%r9), %ecx
movl 0x6(%r9,%rax,4), %edi
movq (%r13), %rax
movq 0x1e8(%rax), %rax
movq %rcx, 0x48(%rsp)
movq (%rax,%rcx,8), %rsi
movq 0x58(%rsi), %rax
movq 0x68(%rsi), %rcx
movq %rcx, %rdx
movq %rdi, 0x98(%rsp)
imulq %rdi, %rdx
movl (%rax,%rdx), %edi
movq 0xa0(%rsi), %rdx
movq %rdx, %r8
imulq %rdi, %r8
movq 0x90(%rsi), %rsi
vmovaps (%rsi,%r8), %xmm1
leaq 0x1(%rdi), %r8
imulq %rdx, %r8
vmovaps (%rsi,%r8), %xmm0
leaq 0x2(%rdi), %r8
imulq %rdx, %r8
vmovaps (%rsi,%r8), %xmm3
blsrq %r10, %r10
addq $0x3, %rdi
imulq %rdx, %rdi
vmovaps (%rsi,%rdi), %xmm2
movq %r10, %rdi
subq $0x1, %rdi
jb 0x1ca479d
andq %r10, %rdi
tzcntq %r10, %r8
movl 0x6(%r9,%r8,4), %r8d
imulq %rcx, %r8
movl (%rax,%r8), %r8d
imulq %rdx, %r8
prefetcht0 (%rsi,%r8)
prefetcht0 0x40(%rsi,%r8)
testq %rdi, %rdi
je 0x1ca479d
tzcntq %rdi, %rdi
movl 0x6(%r9,%rdi,4), %edi
imulq %rdi, %rcx
movl (%rax,%rcx), %eax
imulq %rax, %rdx
prefetcht1 (%rsi,%rdx)
prefetcht1 0x40(%rsi,%rdx)
vaddps %xmm0, %xmm1, %xmm5
vmovaps (%r15), %xmm6
vmovaps 0x10(%r15), %xmm4
vmulps 0x2483ca(%rip){1to4}, %xmm5, %xmm5 # 0x1eecb80
vsubps %xmm6, %xmm5, %xmm5
vdpps $0x7f, %xmm4, %xmm5, %xmm5
vdpps $0x7f, %xmm4, %xmm4, %xmm7
vmovss %xmm7, %xmm12, %xmm8 # xmm8 = xmm7[0],xmm12[1,2,3]
vrcp14ss %xmm8, %xmm12, %xmm8
vmovaps %xmm8, %xmm9
vfnmadd213ss 0x24c81a(%rip), %xmm7, %xmm9 # xmm9 = -(xmm7 * xmm9) + mem
vmulss %xmm9, %xmm8, %xmm7
vmulss %xmm7, %xmm5, %xmm5
vmovaps %xmm5, 0x2d0(%rsp)
vbroadcastss %xmm5, %ymm7
vfmadd231ps %xmm7, %xmm4, %xmm6 # xmm6 = (xmm4 * xmm7) + xmm6
vblendps $0x8, %xmm12, %xmm6, %xmm5 # xmm5 = xmm6[0,1,2],xmm12[3]
vsubps %xmm5, %xmm1, %xmm6
vbroadcastss 0x10(%r15), %ymm8
vsubps %xmm5, %xmm3, %xmm3
vbroadcastss 0x14(%r15), %ymm9
vbroadcastss 0x18(%r15), %ymm1
vmovaps %ymm1, 0x3a0(%rsp)
vsubps %xmm5, %xmm0, %xmm10
vsubps %xmm5, %xmm2, %xmm5
vbroadcastss %xmm6, %ymm0
vmovaps %ymm0, 0x760(%rsp)
vbroadcastss 0x26dec2(%rip), %ymm0 # 0x1f12704
vpermps %ymm6, %ymm0, %ymm1
vmovaps %ymm1, 0x740(%rsp)
vbroadcastss 0x27c683(%rip), %ymm1 # 0x1f20edc
vpermps %ymm6, %ymm1, %ymm2
vmovaps %ymm2, 0x720(%rsp)
vbroadcastss 0x27c668(%rip), %ymm2 # 0x1f20ed8
vmovaps %ymm6, 0x260(%rsp)
vpermps %ymm6, %ymm2, %ymm6
vmovaps %ymm6, 0x700(%rsp)
vbroadcastss %xmm10, %ymm6
vmovaps %ymm6, 0x6e0(%rsp)
vpermps %ymm10, %ymm0, %ymm6
vmovaps %ymm6, 0x6c0(%rsp)
vpermps %ymm10, %ymm1, %ymm6
vmovaps %ymm6, 0x6a0(%rsp)
vmovaps %ymm10, 0x220(%rsp)
vpermps %ymm10, %ymm2, %ymm6
vmovaps %ymm6, 0x680(%rsp)
vbroadcastss %xmm3, %ymm6
vmovaps %ymm6, 0x660(%rsp)
vpermps %ymm3, %ymm0, %ymm6
vmovaps %ymm6, 0x640(%rsp)
vpermps %ymm3, %ymm1, %ymm6
vmovaps %ymm6, 0x620(%rsp)
vmovaps %ymm3, 0x240(%rsp)
vpermps %ymm3, %ymm2, %ymm3
vmovaps %ymm3, 0x600(%rsp)
vbroadcastss %xmm5, %ymm3
vmovaps %ymm3, 0x5e0(%rsp)
vpermps %ymm5, %ymm0, %ymm0
vmovaps %ymm0, 0x5c0(%rsp)
vpermps %ymm5, %ymm1, %ymm0
vmovaps %ymm0, 0x5a0(%rsp)
vmovaps %ymm5, 0x200(%rsp)
vpermps %ymm5, %ymm2, %ymm0
vmovaps %ymm0, 0x580(%rsp)
vmulps %xmm4, %xmm4, %xmm0
vpermps %ymm0, %ymm1, %ymm0
vmovaps %ymm9, 0x3c0(%rsp)
vfmadd231ps %ymm9, %ymm9, %ymm0 # ymm0 = (ymm9 * ymm9) + ymm0
vmovaps %ymm8, 0x3e0(%rsp)
vfmadd231ps %ymm8, %ymm8, %ymm0 # ymm0 = (ymm8 * ymm8) + ymm0
vmovaps %ymm0, 0x560(%rsp)
vandps 0x27c542(%rip){1to8}, %ymm0, %ymm0 # 0x1f20ec4
vmovaps %ymm0, 0x480(%rsp)
movl $0x1, %r11d
xorl %r8d, %r8d
vmovsd 0x247d54(%rip), %xmm4 # 0x1eec6f0
vbroadcastss 0x247d6e(%rip), %ymm26 # 0x1eec714
vmovaps %ymm7, 0x280(%rsp)
vmovshdup %xmm4, %xmm0 # xmm0 = xmm4[1,1,3,3]
vsubss %xmm4, %xmm0, %xmm0
vmulss 0x27c511(%rip), %xmm0, %xmm1 # 0x1f20ed0
vmovaps %xmm1, 0x60(%rsp)
vmovaps %xmm4, 0x1a0(%rsp)
vbroadcastss %xmm4, %ymm4
vbroadcastss %xmm0, %ymm0
vmovaps %ymm4, 0x160(%rsp)
vmovaps %ymm0, 0xc0(%rsp)
vfmadd231ps 0x27c52d(%rip), %ymm0, %ymm4 # ymm4 = (ymm0 * mem) + ymm4
vsubps %ymm4, %ymm26, %ymm7
vbroadcastss 0x27c4bd(%rip), %ymm26 # 0x1f20ec0
vxorps %ymm26, %ymm4, %ymm0
vmulps %ymm0, %ymm7, %ymm0
vmulps %ymm0, %ymm7, %ymm0
vmulps %ymm4, %ymm4, %ymm8
vbroadcastss 0x24c5ce(%rip), %ymm2 # 0x1ef0fec
vmulps %ymm2, %ymm4, %ymm9
vbroadcastss 0x24c5d9(%rip), %ymm5 # 0x1ef1004
vaddps %ymm5, %ymm9, %ymm10
vmulps %ymm10, %ymm8, %ymm1
vbroadcastss 0x24c5ba(%rip), %ymm16 # 0x1ef0ff8
vaddps %ymm16, %ymm1, %ymm1
vmulps %ymm7, %ymm7, %ymm11
vmulps %ymm2, %ymm7, %ymm12
vaddps %ymm5, %ymm12, %ymm2
vmulps %ymm2, %ymm11, %ymm2
vaddps %ymm16, %ymm2, %ymm2
vxorps %ymm26, %ymm7, %ymm5
vmulps %ymm5, %ymm4, %ymm5
vmulps %ymm5, %ymm4, %ymm5
vbroadcastss 0x24810e(%rip), %ymm17 # 0x1eecb80
vmulps %ymm17, %ymm0, %ymm13
vmulps %ymm17, %ymm1, %ymm14
vmulps %ymm17, %ymm2, %ymm15
vmulps %ymm17, %ymm5, %ymm5
vmovaps 0x5e0(%rsp), %ymm31
vmulps %ymm5, %ymm31, %ymm0
vmovaps 0x5c0(%rsp), %ymm26
vmulps %ymm5, %ymm26, %ymm3
vmovaps 0x5a0(%rsp), %ymm6
vmulps %ymm5, %ymm6, %ymm2
vmovaps 0x580(%rsp), %ymm1
vmulps %ymm5, %ymm1, %ymm5
vmovaps 0x660(%rsp), %ymm27
vfmadd231ps %ymm27, %ymm15, %ymm0 # ymm0 = (ymm15 * ymm27) + ymm0
vmovaps 0x640(%rsp), %ymm28
vfmadd231ps %ymm28, %ymm15, %ymm3 # ymm3 = (ymm15 * ymm28) + ymm3
vmovaps 0x620(%rsp), %ymm29
vfmadd231ps %ymm29, %ymm15, %ymm2 # ymm2 = (ymm15 * ymm29) + ymm2
vmovaps 0x600(%rsp), %ymm30
vfmadd231ps %ymm15, %ymm30, %ymm5 # ymm5 = (ymm30 * ymm15) + ymm5
vmovaps 0x6e0(%rsp), %ymm22
vfmadd231ps %ymm22, %ymm14, %ymm0 # ymm0 = (ymm14 * ymm22) + ymm0
vmovaps 0x6c0(%rsp), %ymm23
vfmadd231ps %ymm23, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm23) + ymm3
vmovaps 0x6a0(%rsp), %ymm24
vfmadd231ps %ymm24, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm24) + ymm2
vmovaps 0x680(%rsp), %ymm25
vfmadd231ps %ymm14, %ymm25, %ymm5 # ymm5 = (ymm25 * ymm14) + ymm5
vmovaps 0x760(%rsp), %ymm18
vfmadd231ps %ymm18, %ymm13, %ymm0 # ymm0 = (ymm13 * ymm18) + ymm0
vmovaps 0x740(%rsp), %ymm19
vfmadd231ps %ymm19, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm19) + ymm3
vmovaps 0x720(%rsp), %ymm20
vfmadd231ps %ymm20, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm20) + ymm2
vmovaps 0x700(%rsp), %ymm21
vfmadd231ps %ymm13, %ymm21, %ymm5 # ymm5 = (ymm21 * ymm13) + ymm5
vaddps %ymm7, %ymm7, %ymm13
vmulps %ymm4, %ymm13, %ymm14
vsubps %ymm11, %ymm14, %ymm11
vaddps %ymm4, %ymm4, %ymm15
vmulps %ymm10, %ymm15, %ymm10
vmulps %ymm4, %ymm9, %ymm4
vaddps %ymm4, %ymm10, %ymm4
vaddps %ymm16, %ymm9, %ymm9
vmulps %ymm9, %ymm13, %ymm9
vmulps %ymm7, %ymm12, %ymm7
vsubps %ymm7, %ymm9, %ymm7
vsubps %ymm14, %ymm8, %ymm8
vmulps %ymm17, %ymm11, %ymm9
vmulps %ymm17, %ymm4, %ymm4
vmulps %ymm17, %ymm7, %ymm7
vmulps %ymm17, %ymm8, %ymm8
vmulps %ymm8, %ymm31, %ymm10
vmulps %ymm8, %ymm26, %ymm12
vbroadcastss 0x247b48(%rip), %ymm26 # 0x1eec714
vmulps %ymm6, %ymm8, %ymm13
vmulps %ymm1, %ymm8, %ymm8
vfmadd231ps %ymm27, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm27) + ymm10
vfmadd231ps %ymm28, %ymm7, %ymm12 # ymm12 = (ymm7 * ymm28) + ymm12
vfmadd231ps %ymm29, %ymm7, %ymm13 # ymm13 = (ymm7 * ymm29) + ymm13
vfmadd231ps %ymm7, %ymm30, %ymm8 # ymm8 = (ymm30 * ymm7) + ymm8
vfmadd231ps %ymm22, %ymm4, %ymm10 # ymm10 = (ymm4 * ymm22) + ymm10
vfmadd231ps %ymm23, %ymm4, %ymm12 # ymm12 = (ymm4 * ymm23) + ymm12
vfmadd231ps %ymm24, %ymm4, %ymm13 # ymm13 = (ymm4 * ymm24) + ymm13
vfmadd231ps %ymm4, %ymm25, %ymm8 # ymm8 = (ymm25 * ymm4) + ymm8
vfmadd231ps %ymm18, %ymm9, %ymm10 # ymm10 = (ymm9 * ymm18) + ymm10
vfmadd231ps %ymm19, %ymm9, %ymm12 # ymm12 = (ymm9 * ymm19) + ymm12
vfmadd231ps %ymm20, %ymm9, %ymm13 # ymm13 = (ymm9 * ymm20) + ymm13
vfmadd231ps %ymm9, %ymm21, %ymm8 # ymm8 = (ymm21 * ymm9) + ymm8
vbroadcastss 0x60(%rsp), %ymm4
vmulps %ymm4, %ymm10, %ymm11
vmulps %ymm4, %ymm12, %ymm12
vmulps %ymm4, %ymm13, %ymm13
vmulps %ymm4, %ymm8, %ymm6
vmovaps %ymm0, %ymm8
vmovaps 0x2bb0e1(%rip), %ymm7 # 0x1f5fd20
vxorps %xmm31, %xmm31, %xmm31
vpermt2ps %ymm31, %ymm7, %ymm8
vmovaps %ymm3, %ymm9
vpermt2ps %ymm31, %ymm7, %ymm9
vmovaps %ymm2, %ymm10
vpermt2ps %ymm31, %ymm7, %ymm10
vaddps %ymm6, %ymm5, %ymm4
vmaxps %ymm4, %ymm5, %ymm14
vminps %ymm4, %ymm5, %ymm4
vmovaps %ymm5, %ymm15
vpermt2ps %ymm31, %ymm7, %ymm15
vmovaps %ymm11, %ymm19
vpermt2ps %ymm31, %ymm7, %ymm19
vmovaps %ymm12, %ymm20
vpermt2ps %ymm31, %ymm7, %ymm20
vmovaps %ymm13, %ymm21
vpermt2ps %ymm31, %ymm7, %ymm21
vpermt2ps %ymm31, %ymm7, %ymm6
vsubps %ymm6, %ymm15, %ymm16
vsubps %ymm0, %ymm8, %ymm7
vsubps %ymm3, %ymm9, %ymm6
vsubps %ymm2, %ymm10, %ymm5
vmulps %ymm13, %ymm6, %ymm17
vfmsub231ps %ymm5, %ymm12, %ymm17 # ymm17 = (ymm12 * ymm5) - ymm17
vmulps %ymm11, %ymm5, %ymm18
vfmsub231ps %ymm7, %ymm13, %ymm18 # ymm18 = (ymm13 * ymm7) - ymm18
vmulps %ymm12, %ymm7, %ymm22
vfmsub231ps %ymm6, %ymm11, %ymm22 # ymm22 = (ymm11 * ymm6) - ymm22
vmulps %ymm22, %ymm22, %ymm22
vfmadd231ps %ymm18, %ymm18, %ymm22 # ymm22 = (ymm18 * ymm18) + ymm22
vfmadd231ps %ymm17, %ymm17, %ymm22 # ymm22 = (ymm17 * ymm17) + ymm22
vmulps %ymm5, %ymm5, %ymm17
vfmadd231ps %ymm6, %ymm6, %ymm17 # ymm17 = (ymm6 * ymm6) + ymm17
vfmadd231ps %ymm7, %ymm7, %ymm17 # ymm17 = (ymm7 * ymm7) + ymm17
vrcp14ps %ymm17, %ymm18
vmovaps %ymm18, %ymm23
vfnmadd213ps %ymm26, %ymm17, %ymm23 # ymm23 = -(ymm17 * ymm23) + ymm26
vfmadd132ps %ymm18, %ymm18, %ymm23 # ymm23 = (ymm23 * ymm18) + ymm18
vmulps %ymm23, %ymm22, %ymm18
vmulps %ymm21, %ymm6, %ymm22
vfmsub231ps %ymm5, %ymm20, %ymm22 # ymm22 = (ymm20 * ymm5) - ymm22
vmulps %ymm19, %ymm5, %ymm24
vfmsub231ps %ymm7, %ymm21, %ymm24 # ymm24 = (ymm21 * ymm7) - ymm24
vmulps %ymm20, %ymm7, %ymm25
vfmsub231ps %ymm6, %ymm19, %ymm25 # ymm25 = (ymm19 * ymm6) - ymm25
vmulps %ymm25, %ymm25, %ymm25
vfmadd231ps %ymm24, %ymm24, %ymm25 # ymm25 = (ymm24 * ymm24) + ymm25
vfmadd231ps %ymm22, %ymm22, %ymm25 # ymm25 = (ymm22 * ymm22) + ymm25
vmulps %ymm23, %ymm25, %ymm22
vmaxps %ymm22, %ymm18, %ymm18
vsqrtps %ymm18, %ymm18
vmaxps %ymm15, %ymm16, %ymm22
vmaxps %ymm22, %ymm14, %ymm14
vaddps %ymm14, %ymm18, %ymm14
vminps %ymm15, %ymm16, %ymm15
vminps %ymm15, %ymm4, %ymm4
vsubps %ymm18, %ymm4, %ymm4
vmulps 0x24bbb4(%rip){1to8}, %ymm14, %ymm14 # 0x1ef0940
vmulps 0x24bbae(%rip){1to8}, %ymm4, %ymm1 # 0x1ef0944
vmovaps %ymm1, 0x60(%rsp)
vmulps %ymm14, %ymm14, %ymm4
vrsqrt14ps %ymm17, %ymm15
vmulps 0x24796b(%rip){1to8}, %ymm17, %ymm14 # 0x1eec71c
vmulps %ymm14, %ymm15, %ymm14
vmulps %ymm15, %ymm15, %ymm16
vmulps %ymm14, %ymm16, %ymm14
vfmadd231ps 0x24794c(%rip){1to8}, %ymm15, %ymm14 # ymm14 = (ymm15 * mem) + ymm14
vmulps %ymm7, %ymm14, %ymm15
vmulps %ymm14, %ymm6, %ymm16
vmulps %ymm14, %ymm5, %ymm18
vmovaps %ymm0, 0x180(%rsp)
vsubps %ymm0, %ymm31, %ymm27
vmovaps %ymm3, 0x2a0(%rsp)
vsubps %ymm3, %ymm31, %ymm28
vmovaps %ymm2, 0xa0(%rsp)
vsubps %ymm2, %ymm31, %ymm29
vmovaps 0x3a0(%rsp), %ymm17
vmulps %ymm29, %ymm17, %ymm22
vmovaps 0x3c0(%rsp), %ymm25
vfmadd231ps %ymm28, %ymm25, %ymm22 # ymm22 = (ymm25 * ymm28) + ymm22
vmovaps 0x3e0(%rsp), %ymm23
vfmadd231ps %ymm27, %ymm23, %ymm22 # ymm22 = (ymm23 * ymm27) + ymm22
vmulps %ymm29, %ymm29, %ymm24
vfmadd231ps %ymm28, %ymm28, %ymm24 # ymm24 = (ymm28 * ymm28) + ymm24
vfmadd231ps %ymm27, %ymm27, %ymm24 # ymm24 = (ymm27 * ymm27) + ymm24
vmulps %ymm18, %ymm17, %ymm17
vfmadd231ps %ymm25, %ymm16, %ymm17 # ymm17 = (ymm16 * ymm25) + ymm17
vfmadd231ps %ymm23, %ymm15, %ymm17 # ymm17 = (ymm15 * ymm23) + ymm17
vmulps %ymm18, %ymm29, %ymm18
vfmadd231ps %ymm16, %ymm28, %ymm18 # ymm18 = (ymm28 * ymm16) + ymm18
vfmadd231ps %ymm15, %ymm27, %ymm18 # ymm18 = (ymm27 * ymm15) + ymm18
vmulps %ymm17, %ymm17, %ymm2
vmovaps 0x560(%rsp), %ymm0
vsubps %ymm2, %ymm0, %ymm15
vmulps %ymm18, %ymm17, %ymm25
vsubps %ymm25, %ymm22, %ymm22
vaddps %ymm22, %ymm22, %ymm22
vmulps %ymm18, %ymm18, %ymm25
vsubps %ymm25, %ymm24, %ymm1
vsubps %ymm4, %ymm1, %ymm4
vmulps %ymm22, %ymm22, %ymm25
vmulps 0x247cde(%rip){1to8}, %ymm15, %ymm24 # 0x1eecb8c
vmulps %ymm4, %ymm24, %ymm30
vsubps %ymm30, %ymm25, %ymm30
vcmpnltps %ymm31, %ymm30, %k1
kmovd %k1, %eax
kortestb %k1, %k1
je 0x1ca4fac
vsqrtps %ymm30, %ymm30
vaddps %ymm15, %ymm15, %ymm31
vrcp14ps %ymm31, %ymm3
vfnmadd213ps %ymm26, %ymm3, %ymm31 # ymm31 = -(ymm3 * ymm31) + ymm26
vfmadd132ps %ymm3, %ymm3, %ymm31 # ymm31 = (ymm31 * ymm3) + ymm3
vxorps 0x27bfc9(%rip){1to8}, %ymm22, %ymm3 # 0x1f20ec0
vsubps %ymm30, %ymm3, %ymm3
vmulps %ymm31, %ymm3, %ymm3
vsubps %ymm22, %ymm30, %ymm30
vmulps %ymm31, %ymm30, %ymm30
vmovaps %ymm17, %ymm31
vfmadd213ps %ymm18, %ymm3, %ymm31 # ymm31 = (ymm3 * ymm31) + ymm18
vmulps %ymm31, %ymm14, %ymm31
vmovaps %ymm31, 0x440(%rsp)
vmovaps %ymm17, %ymm31
vfmadd213ps %ymm18, %ymm30, %ymm31 # ymm31 = (ymm30 * ymm31) + ymm18
vmulps %ymm31, %ymm14, %ymm31
vmovaps %ymm31, 0x420(%rsp)
vbroadcastss 0x246ad3(%rip), %ymm16 # 0x1eeba20
vblendmps %ymm3, %ymm16, %ymm31 {%k1}
vbroadcastss 0x247c28(%rip), %ymm3 # 0x1eecb84
vblendmps %ymm30, %ymm3, %ymm30 {%k1}
vbroadcastss 0x27bf58(%rip), %ymm23 # 0x1f20ec4
vandps %ymm23, %ymm2, %ymm3
vmovaps 0x480(%rsp), %ymm0
vmaxps %ymm3, %ymm0, %ymm3
vmulps 0x24cf2b(%rip){1to8}, %ymm3, %ymm3 # 0x1ef1eb4
vandps %ymm23, %ymm15, %ymm23
vcmpltps %ymm3, %ymm23, %k1 {%k1}
kortestb %k1, %k1
jne 0x1ca6dc9
vbroadcastss 0x24776a(%rip), %ymm26 # 0x1eec714
jmp 0x1ca4fc0
vbroadcastss 0x246a6a(%rip), %ymm31 # 0x1eeba20
vbroadcastss 0x247bc4(%rip), %ymm30 # 0x1eecb84
andb $0x7f, %al
je 0x1ca53f5
vmovaps %ymm25, 0x360(%rsp)
vmovaps %ymm26, %ymm16
vmovss 0xc(%r15), %xmm3
vmovss 0x20(%r15), %xmm4
vmovaps 0x2d0(%rsp), %xmm23
vsubss %xmm23, %xmm3, %xmm3
vbroadcastss %xmm3, %ymm3
vmaxps %ymm31, %ymm3, %ymm3
vsubss %xmm23, %xmm4, %xmm4
vbroadcastss %xmm4, %ymm4
vminps %ymm30, %ymm4, %ymm4
vmulps %ymm13, %ymm29, %ymm23
vfmadd213ps %ymm23, %ymm12, %ymm28 # ymm28 = (ymm12 * ymm28) + ymm23
vfmadd213ps %ymm28, %ymm11, %ymm27 # ymm27 = (ymm11 * ymm27) + ymm28
vmovaps 0x3a0(%rsp), %ymm25
vmulps %ymm13, %ymm25, %ymm13
vmovaps 0x3c0(%rsp), %ymm31
vfmadd231ps %ymm12, %ymm31, %ymm13 # ymm13 = (ymm31 * ymm12) + ymm13
vmovaps 0x3e0(%rsp), %ymm30
vfmadd231ps %ymm11, %ymm30, %ymm13 # ymm13 = (ymm30 * ymm11) + ymm13
vbroadcastss 0x27be72(%rip), %ymm28 # 0x1f20ec4
vandps %ymm28, %ymm13, %ymm11
vbroadcastss 0x24bf86(%rip), %ymm29 # 0x1ef0fe8
vcmpltps %ymm29, %ymm11, %k0
vbroadcastss 0x27be4d(%rip), %ymm26 # 0x1f20ec0
vxorps %ymm26, %ymm27, %ymm11
vrcp14ps %ymm13, %ymm12
vxorps %ymm26, %ymm13, %ymm23
vmovaps %ymm12, %ymm27
vfnmadd213ps %ymm16, %ymm13, %ymm27 # ymm27 = -(ymm13 * ymm27) + ymm16
vfmadd132ps %ymm12, %ymm12, %ymm27 # ymm27 = (ymm27 * ymm12) + ymm12
vmulps %ymm11, %ymm27, %ymm11
vcmpltps %ymm23, %ymm13, %k1
korb %k1, %k0, %k1
vbroadcastss 0x247ad2(%rip), %ymm27 # 0x1eecb84
vblendmps %ymm27, %ymm11, %ymm12 {%k1}
vmaxps %ymm12, %ymm3, %ymm3
vcmpnleps %ymm23, %ymm13, %k1
korb %k1, %k0, %k1
vbroadcastss 0x24694e(%rip), %ymm23 # 0x1eeba20
vmovaps %ymm23, %ymm11 {%k1}
vminps %ymm11, %ymm4, %ymm4
vxorps %xmm13, %xmm13, %xmm13
vsubps %ymm8, %ymm13, %ymm8
vsubps %ymm9, %ymm13, %ymm9
vsubps %ymm10, %ymm13, %ymm10
vmulps %ymm21, %ymm10, %ymm10
vfnmsub231ps %ymm9, %ymm20, %ymm10 # ymm10 = -(ymm20 * ymm9) - ymm10
vfnmadd231ps %ymm8, %ymm19, %ymm10 # ymm10 = -(ymm19 * ymm8) + ymm10
vmulps %ymm21, %ymm25, %ymm8
vfnmsub231ps %ymm20, %ymm31, %ymm8 # ymm8 = -(ymm31 * ymm20) - ymm8
vfnmadd231ps %ymm19, %ymm30, %ymm8 # ymm8 = -(ymm30 * ymm19) + ymm8
vandps %ymm28, %ymm8, %ymm9
vcmpltps %ymm29, %ymm9, %k0
vxorps %ymm26, %ymm10, %ymm9
vrcp14ps %ymm8, %ymm10
vxorps %ymm26, %ymm8, %ymm11
vmovaps %ymm10, %ymm12
vfnmadd213ps %ymm16, %ymm8, %ymm12 # ymm12 = -(ymm8 * ymm12) + ymm16
vfmadd132ps %ymm10, %ymm10, %ymm12 # ymm12 = (ymm12 * ymm10) + ymm10
vmulps %ymm9, %ymm12, %ymm9
vcmpltps %ymm11, %ymm8, %k1
korb %k1, %k0, %k1
vblendmps %ymm27, %ymm9, %ymm10 {%k1}
vmaxps %ymm10, %ymm3, %ymm0
vcmpnleps %ymm11, %ymm8, %k1
korb %k1, %k0, %k1
vmovaps %ymm23, %ymm9 {%k1}
vminps %ymm9, %ymm4, %ymm8
vmovaps %ymm0, 0x340(%rsp)
vcmpleps %ymm8, %ymm0, %k0
kmovd %k0, %ecx
andb %cl, %al
je 0x1ca53ef
vmovaps %ymm2, %ymm23
vmovaps 0x440(%rsp), %ymm3
vmaxps 0x60(%rsp), %ymm13, %ymm4
vminps %ymm16, %ymm3, %ymm3
vxorps %xmm10, %xmm10, %xmm10
vmaxps %ymm10, %ymm3, %ymm3
vmovaps 0x420(%rsp), %ymm9
vminps %ymm16, %ymm9, %ymm9
vmovaps 0x27bd73(%rip), %ymm11 # 0x1f20f40
vaddps %ymm3, %ymm11, %ymm3
vbroadcastss 0x2792de(%rip), %ymm12 # 0x1f1e4b8
vmulps %ymm3, %ymm12, %ymm3
vmovaps 0x160(%rsp), %ymm0
vmovaps 0xc0(%rsp), %ymm2
vfmadd213ps %ymm0, %ymm2, %ymm3 # ymm3 = (ymm2 * ymm3) + ymm0
vmovaps %ymm3, 0x440(%rsp)
vmaxps %ymm10, %ymm9, %ymm3
vaddps %ymm3, %ymm11, %ymm3
vmulps %ymm3, %ymm12, %ymm3
vfmadd213ps %ymm0, %ymm2, %ymm3 # ymm3 = (ymm2 * ymm3) + ymm0
vmovaps %ymm3, 0x420(%rsp)
vmulps %ymm4, %ymm4, %ymm3
vsubps %ymm3, %ymm1, %ymm11
vmulps %ymm11, %ymm24, %ymm3
vmovaps 0x360(%rsp), %ymm0
vsubps %ymm3, %ymm0, %ymm3
vcmpnltps %ymm10, %ymm3, %k0
kortestb %k0, %k0
vxorps %xmm4, %xmm4, %xmm4
movq %r8, 0x118(%rsp)
je 0x1ca5518
vxorps %xmm20, %xmm20, %xmm20
vcmpnltps %ymm4, %ymm3, %k1
vsqrtps %ymm3, %ymm3
vaddps %ymm15, %ymm15, %ymm4
vrcp14ps %ymm4, %ymm9
vfnmadd213ps %ymm16, %ymm9, %ymm4 # ymm4 = -(ymm9 * ymm4) + ymm16
vfmadd132ps %ymm9, %ymm9, %ymm4 # ymm4 = (ymm4 * ymm9) + ymm9
vxorps 0x27bc3e(%rip){1to8}, %ymm22, %ymm9 # 0x1f20ec0
vsubps %ymm3, %ymm9, %ymm9
vmulps %ymm4, %ymm9, %ymm12
vsubps %ymm22, %ymm3, %ymm3
vmulps %ymm4, %ymm3, %ymm13
vmovaps %ymm17, %ymm3
vfmadd213ps %ymm18, %ymm12, %ymm3 # ymm3 = (ymm12 * ymm3) + ymm18
vmulps %ymm3, %ymm14, %ymm9
vmovaps 0x3e0(%rsp), %ymm16
vmulps %ymm12, %ymm16, %ymm3
vmovaps 0x3c0(%rsp), %ymm21
vmulps %ymm12, %ymm21, %ymm4
vmovaps 0x3a0(%rsp), %ymm22
vmulps %ymm12, %ymm22, %ymm10
vmovaps %ymm7, %ymm19
vmovaps 0x180(%rsp), %ymm2
vfmadd213ps %ymm2, %ymm9, %ymm19 # ymm19 = (ymm9 * ymm19) + ymm2
vsubps %ymm19, %ymm3, %ymm3
vmovaps %ymm6, %ymm19
vmovaps 0x2a0(%rsp), %ymm1
vfmadd213ps %ymm1, %ymm9, %ymm19 # ymm19 = (ymm9 * ymm19) + ymm1
vsubps %ymm19, %ymm4, %ymm4
vmovaps 0xa0(%rsp), %ymm0
vfmadd213ps %ymm0, %ymm5, %ymm9 # ymm9 = (ymm5 * ymm9) + ymm0
vsubps %ymm9, %ymm10, %ymm9
vfmadd213ps %ymm18, %ymm13, %ymm17 # ymm17 = (ymm13 * ymm17) + ymm18
vmulps %ymm17, %ymm14, %ymm14
vmulps %ymm13, %ymm16, %ymm10
vmulps %ymm13, %ymm21, %ymm17
vmulps %ymm13, %ymm22, %ymm18
vfmadd213ps %ymm2, %ymm14, %ymm7 # ymm7 = (ymm14 * ymm7) + ymm2
vsubps %ymm7, %ymm10, %ymm10
vfmadd213ps %ymm1, %ymm14, %ymm6 # ymm6 = (ymm14 * ymm6) + ymm1
vsubps %ymm6, %ymm17, %ymm1
vfmadd213ps %ymm0, %ymm14, %ymm5 # ymm5 = (ymm14 * ymm5) + ymm0
vsubps %ymm5, %ymm18, %ymm5
vbroadcastss 0x2466c3(%rip), %ymm0 # 0x1eeba20
vblendmps %ymm12, %ymm0, %ymm2 {%k1}
vbroadcastss 0x247818(%rip), %ymm0 # 0x1eecb84
vblendmps %ymm13, %ymm0, %ymm0 {%k1}
vbroadcastss 0x27bb49(%rip), %ymm7 # 0x1f20ec4
vandps %ymm7, %ymm23, %ymm6
vmovaps 0x480(%rsp), %ymm12
vmaxps %ymm6, %ymm12, %ymm6
vmulps 0x24cb1c(%rip){1to8}, %ymm6, %ymm6 # 0x1ef1eb4
vandps %ymm7, %ymm15, %ymm7
vcmpltps %ymm6, %ymm7, %k1 {%k1}
kortestb %k1, %k1
je 0x1ca553b
vcmpleps %ymm20, %ymm11, %k2
vbroadcastss 0x2477c7(%rip), %ymm7 # 0x1eecb84
vbroadcastss 0x24665a(%rip), %ymm11 # 0x1eeba20
vblendmps %ymm7, %ymm11, %ymm6 {%k2}
vmovaps %ymm6, %ymm2 {%k1}
vblendmps %ymm11, %ymm7, %ymm6 {%k2}
vmovaps %ymm6, %ymm0 {%k1}
knotb %k1, %k1
korb %k2, %k1, %k1
kandb %k0, %k1, %k0
jmp 0x1ca553b
vmovaps %ymm16, %ymm26
vxorps %xmm12, %xmm12, %xmm12
vmovaps 0x280(%rsp), %ymm7
vmovaps 0x1a0(%rsp), %xmm4
vbroadcastss 0x20(%r15), %ymm0
movl %r8d, %eax
testl %eax, %eax
je 0x1ca6e16
leal -0x1(%rax), %r8d
leaq (%r8,%r8,2), %rcx
shlq $0x5, %rcx
movzbl 0x780(%rsp,%rcx), %esi
vmovaps 0x7a0(%rsp,%rcx), %ymm1
vaddps %ymm1, %ymm7, %ymm2
vcmpleps %ymm0, %ymm2, %k0
kmovb %k0, %edx
andl %esi, %edx
je 0x1ca5508
kmovd %edx, %k1
vbroadcastss 0x2465c2(%rip), %ymm2 # 0x1eeba20
vblendmps %ymm1, %ymm2, %ymm1 {%k1}
vshufps $0xb1, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2,5,4,7,6]
vminps %ymm2, %ymm1, %ymm2
vshufpd $0x5, %ymm2, %ymm2, %ymm3 # ymm3 = ymm2[1,0,3,2]
vminps %ymm3, %ymm2, %ymm2
vpermpd $0x4e, %ymm2, %ymm3 # ymm3 = ymm2[2,3,0,1]
vminps %ymm3, %ymm2, %ymm2
vcmpeqps %ymm2, %ymm1, %k0
kmovd %k0, %esi
andb %dl, %sil
je 0x1ca5496
movzbl %sil, %edi
jmp 0x1ca5499
movzbl %dl, %edi
leaq (%rsp,%rcx), %rsi
addq $0x780, %rsi # imm = 0x780
vmovss 0x44(%rsi), %xmm1
tzcntl %edi, %ecx
movb $0x1, %dil
shlb %cl, %dil
movl 0x48(%rsi), %r11d
movzbl %dil, %edi
kmovd %edi, %k0
kmovd %edx, %k1
kandnb %k1, %k0, %k0
kmovb %k0, (%rsi)
kortestb %k0, %k0
vbroadcastss 0x24723b(%rip), %ymm26 # 0x1eec714
je 0x1ca54de
movl %eax, %r8d
vbroadcastss 0x40(%rsi), %ymm2
vsubss %xmm2, %xmm1, %xmm1
vbroadcastss %xmm1, %ymm1
vfmadd132ps 0x27ba2a(%rip), %ymm2, %ymm1 # ymm1 = (ymm1 * mem) + ymm2
vmovaps %ymm1, 0x4a0(%rsp)
vmovsd 0x4a0(%rsp,%rcx,4), %xmm4
movl %r8d, %eax
testb %dl, %dl
je 0x1ca5415
jmp 0x1ca49af
vxorps %xmm1, %xmm1, %xmm1
vxorps %xmm5, %xmm5, %xmm5
vxorps %xmm3, %xmm3, %xmm3
vxorps %xmm9, %xmm9, %xmm9
vbroadcastss 0x2464ee(%rip), %ymm2 # 0x1eeba20
vbroadcastss 0x247649(%rip), %ymm0 # 0x1eecb84
vxorps %xmm12, %xmm12, %xmm12
vbroadcastss 0x27b97b(%rip), %xmm13 # 0x1f20ec4
vbroadcastss 0x10(%r15), %ymm6
vbroadcastss 0x14(%r15), %ymm7
vbroadcastss 0x18(%r15), %ymm11
vmulps %ymm5, %ymm11, %ymm5
vfmadd231ps %ymm1, %ymm7, %ymm5 # ymm5 = (ymm7 * ymm1) + ymm5
vfmadd231ps %ymm10, %ymm6, %ymm5 # ymm5 = (ymm6 * ymm10) + ymm5
vmovaps 0x340(%rsp), %ymm14
vmovaps %ymm14, 0x4a0(%rsp)
vminps %ymm2, %ymm8, %ymm1
vmovaps %ymm1, 0x4c0(%rsp)
vbroadcastss 0x27b933(%rip), %ymm10 # 0x1f20ec4
vandps %ymm5, %ymm10, %ymm2
vmaxps %ymm0, %ymm14, %ymm5
vmovaps %ymm5, 0x4e0(%rsp)
vmovaps %ymm8, 0x500(%rsp)
vbroadcastss 0x27b920(%rip), %ymm0 # 0x1f20ed4
vcmpltps %ymm0, %ymm2, %k1
kmovd %k1, 0x15c(%rsp)
vcmpleps %ymm1, %ymm14, %k1
kmovd %k1, %ecx
andb %al, %cl
vmovaps %ymm5, 0x380(%rsp)
vcmpleps %ymm8, %ymm5, %k1
kmovd %k1, %edx
andb %al, %dl
movl %edx, %eax
orb %cl, %al
je 0x1ca6d7a
vmovaps %ymm0, %ymm2
movl %edx, 0x28(%rsp)
movq %r10, 0x1f8(%rsp)
knotb %k0, %k1
vmulps %ymm11, %ymm9, %ymm0
vfmadd213ps %ymm0, %ymm7, %ymm4 # ymm4 = (ymm7 * ymm4) + ymm0
vfmadd213ps %ymm4, %ymm6, %ymm3 # ymm3 = (ymm6 * ymm3) + ymm4
vandps %ymm3, %ymm10, %ymm0
vcmpltps %ymm2, %ymm0, %k0
kmovd %k1, 0x154(%rsp)
korb %k1, %k0, %k1
vpbroadcastd 0x27b8a5(%rip), %ymm0 # 0x1f20edc
vpblendmd 0x27b897(%rip){1to8}, %ymm0, %ymm0 {%k1} # 0x1f20ed8
movq %r11, 0x1f0(%rsp)
vpbroadcastd %r11d, %ymm1
vmovdqa %ymm0, 0x520(%rsp)
vmovdqa %ymm1, 0x460(%rsp)
vpcmpnltd %ymm0, %ymm1, %k0
kmovd %k0, %ebx
movl %ecx, 0x158(%rsp)
andb %cl, %bl
je 0x1ca6154
vmovaps 0x260(%rsp), %ymm1
vmovaps 0x220(%rsp), %ymm2
vminps %xmm2, %xmm1, %xmm0
vmaxps %xmm2, %xmm1, %xmm1
vmovaps 0x240(%rsp), %ymm3
vmovaps 0x200(%rsp), %ymm4
vminps %xmm4, %xmm3, %xmm2
vminps %xmm2, %xmm0, %xmm0
vmaxps %xmm4, %xmm3, %xmm2
vmaxps %xmm2, %xmm1, %xmm1
vandps %xmm0, %xmm13, %xmm0
vandps %xmm1, %xmm13, %xmm2
vmaxps %xmm2, %xmm0, %xmm0
vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3]
vmaxss %xmm0, %xmm2, %xmm2
vshufpd $0x1, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[1,0]
vmaxss %xmm2, %xmm0, %xmm0
vmulss 0x24c7d8(%rip), %xmm0, %xmm0 # 0x1ef1eb4
vmovss %xmm0, 0x38(%rsp)
vshufps $0xff, %xmm1, %xmm1, %xmm0 # xmm0 = xmm1[3,3,3,3]
vmovaps %xmm0, 0x2c0(%rsp)
vmovaps 0x340(%rsp), %ymm0
vaddps 0x280(%rsp), %ymm0, %ymm0
vmovaps %ymm0, 0x400(%rsp)
kmovd %ebx, %k1
vbroadcastss 0x246308(%rip), %ymm0 # 0x1eeba20
vblendmps 0x340(%rsp), %ymm0, %ymm0 {%k1}
vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm0, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1]
vminps %ymm2, %ymm1, %ymm1
vcmpeqps %ymm1, %ymm0, %k0
kmovd %k0, %eax
andb %bl, %al
movzbl %al, %eax
movzbl %bl, %ecx
cmovnel %eax, %ecx
tzcntl %ecx, %ecx
movb $0x1, %bl
shlb %cl, %bl
shll $0x2, %ecx
vmovss 0x440(%rsp,%rcx), %xmm9
vmovss 0x4a0(%rsp,%rcx), %xmm8
vmovaps 0x10(%r15), %xmm0
vmovaps %xmm0, 0x2a0(%rsp)
vdpps $0x7f, %xmm0, %xmm0, %xmm0
vucomiss 0x246298(%rip), %xmm0 # 0x1eeba24
jb 0x1ca5794
vsqrtss %xmm0, %xmm0, %xmm0
jmp 0x1ca57d1
vmovaps %xmm9, 0x60(%rsp)
vmovaps %xmm8, 0xa0(%rsp)
kmovw %k1, 0x160(%rsp)
vzeroupper
callq 0x6aa20
kmovw 0x160(%rsp), %k1
vmovaps 0xa0(%rsp), %xmm8
vmovaps 0x60(%rsp), %xmm9
vxorps %xmm12, %xmm12, %xmm12
movzbl %bl, %eax
kmovd %eax, %k0
kandnb %k1, %k0, %k0
kmovd %k0, %ebx
vmulss 0x24c6cc(%rip), %xmm0, %xmm0 # 0x1ef1eb4
vmovss %xmm0, 0x3c(%rsp)
movl $0x4, %r12d
vmovaps %xmm8, 0xa0(%rsp)
vbroadcastss %xmm8, %xmm0
vfmadd132ps 0x2a0(%rsp), %xmm12, %xmm0 # xmm0 = (xmm0 * mem) + xmm12
vmovss 0x246f00(%rip), %xmm1 # 0x1eec714
vsubss %xmm9, %xmm1, %xmm11
vbroadcastss 0x27b69e(%rip), %xmm6 # 0x1f20ec0
vxorps %xmm6, %xmm9, %xmm1
vmulss %xmm1, %xmm11, %xmm1
vmulss %xmm1, %xmm11, %xmm1
vmulss %xmm9, %xmm9, %xmm13
vmovss 0x24b7b1(%rip), %xmm8 # 0x1ef0fec
vmovaps %xmm8, %xmm10
vmovss 0x24b7bc(%rip), %xmm7 # 0x1ef1004
vfmadd213ss %xmm7, %xmm9, %xmm10 # xmm10 = (xmm9 * xmm10) + xmm7
vmovaps %xmm10, %xmm2
vmovss 0x24b79f(%rip), %xmm5 # 0x1ef0ff8
vfmadd213ss %xmm5, %xmm13, %xmm2 # xmm2 = (xmm13 * xmm2) + xmm5
vmulss %xmm11, %xmm11, %xmm3
vmovaps %xmm8, %xmm4
vfmadd213ss %xmm7, %xmm11, %xmm4 # xmm4 = (xmm11 * xmm4) + xmm7
vfmadd213ss %xmm5, %xmm3, %xmm4 # xmm4 = (xmm3 * xmm4) + xmm5
vxorps %xmm6, %xmm11, %xmm3
vmulss %xmm3, %xmm9, %xmm3
vmulss %xmm3, %xmm9, %xmm3
vmovss 0x2472fb(%rip), %xmm5 # 0x1eecb80
vmulss %xmm5, %xmm1, %xmm1
vmulss %xmm5, %xmm2, %xmm2
vmulss %xmm5, %xmm4, %xmm4
vmulss %xmm5, %xmm3, %xmm3
vbroadcastss %xmm3, %xmm3
vmulps 0x200(%rsp), %xmm3, %xmm3
vbroadcastss %xmm4, %xmm4
vfmadd132ps 0x240(%rsp), %xmm3, %xmm4 # xmm4 = (xmm4 * mem) + xmm3
vbroadcastss %xmm2, %xmm2
vfmadd132ps 0x220(%rsp), %xmm4, %xmm2 # xmm2 = (xmm2 * mem) + xmm4
vbroadcastss %xmm1, %xmm3
vfmadd132ps 0x260(%rsp), %xmm2, %xmm3 # xmm3 = (xmm3 * mem) + xmm2
vmulss 0x24b104(%rip), %xmm11, %xmm6 # 0x1ef09dc
vfmadd231ss 0x24b727(%rip), %xmm9, %xmm7 # xmm7 = (xmm9 * mem) + xmm7
vmovaps %xmm7, 0x330(%rsp)
vmovss 0x24b71a(%rip), %xmm1 # 0x1ef100c
vfmadd213ss 0x247291(%rip), %xmm9, %xmm1 # xmm1 = (xmm9 * xmm1) + mem
vmovaps %xmm1, 0x320(%rsp)
vfmadd213ss 0x24b0bf(%rip), %xmm9, %xmm8 # xmm8 = (xmm9 * xmm8) + mem
vmovaps %xmm8, 0x310(%rsp)
vmovaps %xmm3, 0x360(%rsp)
vsubps %xmm3, %xmm0, %xmm0
vmovaps %xmm0, 0x160(%rsp)
vdpps $0x7f, %xmm0, %xmm0, %xmm0
vucomiss 0x2460ea(%rip), %xmm0 # 0x1eeba24
vmovaps %xmm9, 0x60(%rsp)
vmovaps %xmm0, 0xc0(%rsp)
jb 0x1ca5951
vsqrtss %xmm0, %xmm0, %xmm7
jmp 0x1ca59aa
vmovss %xmm10, 0x180(%rsp)
vmovaps %xmm11, 0x80(%rsp)
vmovss %xmm13, 0x50(%rsp)
vmovss %xmm6, 0x100(%rsp)
vzeroupper
callq 0x6aa20
vmovss 0x100(%rsp), %xmm6
vmovss 0x50(%rsp), %xmm13
vmovaps 0x80(%rsp), %xmm11
vmovss 0x180(%rsp), %xmm10
vmovaps 0x60(%rsp), %xmm9
vxorps %xmm12, %xmm12, %xmm12
vmovaps %xmm0, %xmm7
vaddss %xmm11, %xmm11, %xmm0
vmulss %xmm0, %xmm9, %xmm1
vfnmadd231ss %xmm11, %xmm11, %xmm1 # xmm1 = -(xmm11 * xmm11) + xmm1
vaddss %xmm9, %xmm9, %xmm2
vmovss 0x24b627(%rip), %xmm4 # 0x1ef0fec
vmulss %xmm4, %xmm9, %xmm3
vmulss %xmm3, %xmm9, %xmm3
vfmadd213ss %xmm3, %xmm2, %xmm10 # xmm10 = (xmm2 * xmm10) + xmm3
vmovaps %xmm4, %xmm2
vmovss 0x24b61a(%rip), %xmm4 # 0x1ef0ff8
vfmadd213ss %xmm4, %xmm9, %xmm2 # xmm2 = (xmm9 * xmm2) + xmm4
vmulss 0x24b605(%rip), %xmm11, %xmm3 # 0x1ef0ff0
vmulss %xmm3, %xmm11, %xmm3
vfmadd231ss %xmm2, %xmm0, %xmm3 # xmm3 = (xmm0 * xmm2) + xmm3
vfmadd213ss %xmm13, %xmm9, %xmm6 # xmm6 = (xmm9 * xmm6) + xmm13
vmovss 0x24717f(%rip), %xmm5 # 0x1eecb80
vmulss %xmm5, %xmm1, %xmm0
vmulss %xmm5, %xmm10, %xmm1
vmulss %xmm5, %xmm3, %xmm2
vmulss %xmm5, %xmm6, %xmm3
vbroadcastss %xmm3, %xmm3
vmulps 0x200(%rsp), %xmm3, %xmm3
vbroadcastss %xmm2, %xmm2
vfmadd132ps 0x240(%rsp), %xmm3, %xmm2 # xmm2 = (xmm2 * mem) + xmm3
vbroadcastss %xmm1, %xmm1
vfmadd132ps 0x220(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2
vbroadcastss %xmm0, %xmm14
vfmadd132ps 0x260(%rsp), %xmm1, %xmm14 # xmm14 = (xmm14 * mem) + xmm1
vdpps $0x7f, %xmm14, %xmm14, %xmm0
vmovss %xmm0, %xmm12, %xmm1 # xmm1 = xmm0[0],xmm12[1,2,3]
vrsqrt14ss %xmm1, %xmm12, %xmm3
vmulss 0x246cb4(%rip), %xmm3, %xmm5 # 0x1eec718
vmulss 0x246cb0(%rip), %xmm0, %xmm6 # 0x1eec71c
vrcp14ss %xmm1, %xmm12, %xmm2
vxorps 0x27b444(%rip){1to4}, %xmm0, %xmm1 # 0x1f20ec0
vmovaps %xmm2, 0x300(%rsp)
vfnmadd213ss %xmm4, %xmm0, %xmm2 # xmm2 = -(xmm0 * xmm2) + xmm4
vmovss %xmm2, 0x40(%rsp)
vucomiss %xmm1, %xmm0
vmovaps %xmm14, 0x180(%rsp)
vmovss %xmm7, 0x80(%rsp)
vmovaps %xmm0, 0x100(%rsp)
jb 0x1ca5ab9
vsqrtss %xmm0, %xmm0, %xmm16
jmp 0x1ca5b08
vmovaps %xmm3, 0x50(%rsp)
vmovss %xmm5, 0xf0(%rsp)
vmovss %xmm6, 0x1c(%rsp)
vzeroupper
callq 0x6aa20
vmovss 0x1c(%rsp), %xmm6
vmovss 0xf0(%rsp), %xmm5
vmovaps 0x50(%rsp), %xmm3
vmovss 0x80(%rsp), %xmm7
vmovaps 0x180(%rsp), %xmm14
vxorps %xmm12, %xmm12, %xmm12
vmovaps %xmm0, %xmm16
vmovaps 0x160(%rsp), %xmm10
vmovaps 0xc0(%rsp), %xmm11
vmulss %xmm3, %xmm6, %xmm0
vmulss %xmm3, %xmm3, %xmm1
vmulss %xmm1, %xmm0, %xmm0
vaddss %xmm0, %xmm5, %xmm0
vbroadcastss %xmm0, %xmm4
vmulps %xmm4, %xmm14, %xmm0
vmovaps %xmm0, 0xf0(%rsp)
vdpps $0x7f, %xmm0, %xmm10, %xmm0
vaddss 0x246bca(%rip), %xmm7, %xmm15 # 0x1eec714
vmovaps %xmm0, 0x50(%rsp)
vmulps %xmm0, %xmm0, %xmm0
vsubps %xmm0, %xmm11, %xmm0
vmovss %xmm0, %xmm12, %xmm1 # xmm1 = xmm0[0],xmm12[1,2,3]
vrsqrt14ss %xmm1, %xmm12, %xmm18
vmulss 0x246bac(%rip), %xmm18, %xmm17 # 0x1eec718
vmulss 0x246ba6(%rip), %xmm0, %xmm19 # 0x1eec71c
vucomiss 0x245ea6(%rip), %xmm0 # 0x1eeba24
jb 0x1ca5b89
vsqrtss %xmm0, %xmm0, %xmm0
jmp 0x1ca5c13
vmovss %xmm15, 0x1c(%rsp)
vmovss %xmm16, 0x34(%rsp)
vmovss %xmm17, 0x30(%rsp)
vmovaps %xmm18, 0x2f0(%rsp)
vmovss %xmm19, 0x2c(%rsp)
vmovaps %xmm4, 0x2e0(%rsp)
vzeroupper
callq 0x6aa20
vmovaps 0x2e0(%rsp), %xmm4
vmovss 0x2c(%rsp), %xmm19
vmovaps 0x2f0(%rsp), %xmm18
vmovss 0x30(%rsp), %xmm17
vmovss 0x34(%rsp), %xmm16
vmovss 0x1c(%rsp), %xmm15
vmovss 0x80(%rsp), %xmm7
vmovaps 0x180(%rsp), %xmm14
vmovaps 0xc0(%rsp), %xmm11
vmovaps 0x160(%rsp), %xmm10
vbroadcastss 0x27b2a8(%rip), %xmm13 # 0x1f20ec4
vmovaps 0x60(%rsp), %xmm9
vmovaps 0xa0(%rsp), %xmm8
vbroadcastss 0x310(%rsp), %xmm1
vmulps 0x200(%rsp), %xmm1, %xmm1
vbroadcastss 0x320(%rsp), %xmm2
vfmadd132ps 0x240(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1
vbroadcastss 0x330(%rsp), %xmm1
vfmadd132ps 0x220(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2
vmovss 0x24b382(%rip), %xmm2 # 0x1ef0ff0
vfmadd213ss 0x24b381(%rip), %xmm9, %xmm2 # xmm2 = (xmm9 * xmm2) + mem
vbroadcastss %xmm2, %xmm2
vfmadd132ps 0x260(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1
vbroadcastss 0x100(%rsp), %xmm1
vmulps %xmm1, %xmm2, %xmm1
vdpps $0x7f, %xmm2, %xmm14, %xmm2
vbroadcastss %xmm2, %xmm2
vmulps %xmm2, %xmm14, %xmm2
vsubps %xmm2, %xmm1, %xmm1
vmovss 0x40(%rsp), %xmm2
vmulss 0x300(%rsp), %xmm2, %xmm2
vmulss 0x3c(%rsp), %xmm8, %xmm3
vbroadcastss %xmm2, %xmm2
vmulps %xmm2, %xmm1, %xmm1
vxorps 0x27b1f1(%rip){1to4}, %xmm14, %xmm2 # 0x1f20ec0
vmulps %xmm1, %xmm4, %xmm4
vmovaps 0xf0(%rsp), %xmm12
vdpps $0x7f, %xmm12, %xmm2, %xmm5
vmovss 0x38(%rsp), %xmm6
vmaxss %xmm3, %xmm6, %xmm1
vdivss %xmm16, %xmm6, %xmm3
vdpps $0x7f, %xmm4, %xmm10, %xmm4
vfmadd213ss %xmm1, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm7) + xmm1
vfmadd213ss %xmm7, %xmm3, %xmm15 # xmm15 = (xmm3 * xmm15) + xmm7
vmovaps 0x2a0(%rsp), %xmm7
vdpps $0x7f, %xmm12, %xmm7, %xmm3
vaddss %xmm4, %xmm5, %xmm4
vdpps $0x7f, %xmm2, %xmm10, %xmm5
vmulss %xmm18, %xmm19, %xmm2
vmulss %xmm18, %xmm18, %xmm6
vmulss %xmm6, %xmm2, %xmm2
vdpps $0x7f, %xmm7, %xmm10, %xmm6
vaddss %xmm2, %xmm17, %xmm7
vmovaps 0x50(%rsp), %xmm16
vfnmadd231ss %xmm4, %xmm16, %xmm5 # xmm5 = -(xmm16 * xmm4) + xmm5
vfnmadd231ss %xmm3, %xmm16, %xmm6 # xmm6 = -(xmm16 * xmm3) + xmm6
vpermilps $0xff, 0x360(%rsp), %xmm2 # xmm2 = mem[3,3,3,3]
vsubss %xmm2, %xmm0, %xmm2
vshufps $0xff, %xmm14, %xmm14, %xmm0 # xmm0 = xmm14[3,3,3,3]
vfmsub213ss %xmm0, %xmm7, %xmm5 # xmm5 = (xmm7 * xmm5) - xmm0
vmulss %xmm7, %xmm6, %xmm6
vmulss %xmm5, %xmm3, %xmm7
vfmsub231ss %xmm6, %xmm4, %xmm7 # xmm7 = (xmm4 * xmm6) - xmm7
vdivss %xmm7, %xmm6, %xmm6
vdivss %xmm7, %xmm5, %xmm5
vdivss %xmm7, %xmm3, %xmm3
vdivss %xmm7, %xmm4, %xmm4
vmulss %xmm6, %xmm16, %xmm6
vmulss %xmm3, %xmm2, %xmm3
vsubss %xmm3, %xmm6, %xmm3
vmulss %xmm5, %xmm16, %xmm5
vmulss %xmm4, %xmm2, %xmm4
vsubss %xmm5, %xmm4, %xmm4
vsubss %xmm3, %xmm9, %xmm9
vsubss %xmm4, %xmm8, %xmm8
vandps %xmm13, %xmm16, %xmm3
vucomiss %xmm3, %xmm15
jbe 0x1ca5f22
vaddss %xmm1, %xmm15, %xmm1
vmovaps 0x2c0(%rsp), %xmm3
vfmadd231ss 0x24c0e8(%rip), %xmm3, %xmm1 # xmm1 = (xmm3 * mem) + xmm1
vandps %xmm2, %xmm13, %xmm2
vucomiss %xmm2, %xmm1
vxorps %xmm12, %xmm12, %xmm12
jbe 0x1ca5f2c
vaddss 0x2d0(%rsp), %xmm8, %xmm8
vucomiss 0xc(%r15), %xmm8
movb $0x1, %r14b
jb 0x1ca5f2f
vmovss 0x20(%r15), %xmm4
vucomiss %xmm8, %xmm4
jb 0x1ca5f2f
vucomiss 0x245c14(%rip), %xmm9 # 0x1eeba24
jb 0x1ca5f2f
vmovss 0x2468f6(%rip), %xmm1 # 0x1eec714
vucomiss %xmm9, %xmm1
jb 0x1ca5f2f
vmovss %xmm11, %xmm12, %xmm1
vrsqrt14ss %xmm1, %xmm12, %xmm1
vmulss 0x2468dd(%rip), %xmm1, %xmm2 # 0x1eec718
vmulss 0x2468d9(%rip), %xmm11, %xmm3 # 0x1eec71c
movq (%r13), %rax
movq 0x1e8(%rax), %rax
movq %r13, %rcx
movq 0x48(%rsp), %rdx
movq (%rax,%rdx,8), %r13
movl 0x24(%r15), %eax
testl %eax, 0x34(%r13)
je 0x1ca5f4c
vmulss %xmm1, %xmm3, %xmm3
vmulss %xmm1, %xmm1, %xmm1
vmulss %xmm1, %xmm3, %xmm1
vaddss %xmm1, %xmm2, %xmm1
vbroadcastss %xmm1, %xmm1
vmulps %xmm1, %xmm10, %xmm1
vfmadd213ps %xmm14, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm0) + xmm14
vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm14, %xmm14, %xmm3 # xmm3 = xmm14[1,2,0,3]
vmulps %xmm3, %xmm1, %xmm1
vfmsub231ps %xmm2, %xmm14, %xmm1 # xmm1 = (xmm14 * xmm2) - xmm1
vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3]
vshufps $0xd2, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,0,1,3]
vmulps %xmm1, %xmm0, %xmm0
vfmsub231ps %xmm3, %xmm2, %xmm0 # xmm0 = (xmm2 * xmm3) - xmm0
movq 0x10(%rcx), %rax
cmpq $0x0, 0x10(%rax)
jne 0x1ca5f51
cmpq $0x0, 0x40(%r13)
jne 0x1ca5f51
vmovss %xmm8, 0x20(%r15)
vshufps $0xe9, %xmm0, %xmm0, %xmm1 # xmm1 = xmm0[1,2,2,3]
vmovlps %xmm1, 0x30(%r15)
vmovss %xmm0, 0x38(%r15)
vmovss %xmm9, 0x3c(%r15)
movl $0x0, 0x40(%r15)
movq 0x98(%rsp), %rax
movl %eax, 0x44(%r15)
movq 0x48(%rsp), %rax
movl %eax, 0x48(%r15)
movq 0x20(%rsp), %r13
movq 0x8(%r13), %rax
movl (%rax), %eax
movl %eax, 0x4c(%r15)
movq 0x8(%r13), %rax
movl 0x4(%rax), %eax
movl %eax, 0x50(%r15)
jmp 0x1ca5f2f
xorl %r14d, %r14d
vxorps %xmm12, %xmm12, %xmm12
jmp 0x1ca5f2f
xorl %r14d, %r14d
subq $0x1, %r12
setb %al
testb %r14b, %r14b
jne 0x1ca6137
testb %al, %al
je 0x1ca57f4
jmp 0x1ca6137
movq %rcx, %r13
jmp 0x1ca5f2f
movq 0x20(%rsp), %rdx
movq 0x8(%rdx), %rax
vshufps $0xe9, %xmm0, %xmm0, %xmm1 # xmm1 = xmm0[1,2,2,3]
vmovlps %xmm1, 0x1b0(%rsp)
vmovss %xmm0, 0x1b8(%rsp)
vmovss %xmm9, 0x1bc(%rsp)
movl $0x0, 0x1c0(%rsp)
movq 0x98(%rsp), %rcx
movl %ecx, 0x1c4(%rsp)
movq 0x48(%rsp), %rcx
movl %ecx, 0x1c8(%rsp)
movl (%rax), %ecx
movl %ecx, 0x1cc(%rsp)
movl 0x4(%rax), %eax
movl %eax, 0x1d0(%rsp)
vmovss %xmm8, 0x20(%r15)
movl $0xffffffff, 0x44(%rsp) # imm = 0xFFFFFFFF
leaq 0x44(%rsp), %rax
movq %rax, 0x120(%rsp)
movq 0x18(%r13), %rax
movq %rax, 0x128(%rsp)
movq 0x8(%rdx), %rax
movq %rax, 0x130(%rsp)
movq %r15, 0x138(%rsp)
leaq 0x1b0(%rsp), %rax
movq %rax, 0x140(%rsp)
movl $0x1, 0x148(%rsp)
movq 0x40(%r13), %rax
testq %rax, %rax
vmovaps %xmm9, 0x60(%rsp)
vmovaps %xmm8, 0xa0(%rsp)
vmovss %xmm4, 0xc0(%rsp)
je 0x1ca606e
leaq 0x120(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0xc0(%rsp), %xmm4
vmovaps 0xa0(%rsp), %xmm8
vmovaps 0x60(%rsp), %xmm9
vbroadcastss 0x27ae6c(%rip), %xmm13 # 0x1f20ec4
vxorps %xmm12, %xmm12, %xmm12
movq 0x120(%rsp), %rax
cmpl $0x0, (%rax)
je 0x1ca6127
movq 0x20(%rsp), %rax
movq 0x10(%rax), %rcx
movq 0x10(%rcx), %rax
testq %rax, %rax
je 0x1ca60cc
testb $0x2, (%rcx)
jne 0x1ca608c
testb $0x40, 0x3e(%r13)
je 0x1ca60bf
leaq 0x120(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0xc0(%rsp), %xmm4
vmovaps 0xa0(%rsp), %xmm8
vmovaps 0x60(%rsp), %xmm9
vbroadcastss 0x27ae0a(%rip), %xmm13 # 0x1f20ec4
vxorps %xmm12, %xmm12, %xmm12
movq 0x120(%rsp), %rax
cmpl $0x0, (%rax)
je 0x1ca6127
movq 0x138(%rsp), %rax
movq 0x140(%rsp), %rcx
vmovss (%rcx), %xmm0
vmovss %xmm0, 0x30(%rax)
vmovss 0x4(%rcx), %xmm0
vmovss %xmm0, 0x34(%rax)
vmovss 0x8(%rcx), %xmm0
vmovss %xmm0, 0x38(%rax)
vmovss 0xc(%rcx), %xmm0
vmovss %xmm0, 0x3c(%rax)
vmovss 0x10(%rcx), %xmm0
vmovss %xmm0, 0x40(%rax)
movl 0x14(%rcx), %edx
movl %edx, 0x44(%rax)
movl 0x18(%rcx), %edx
movl %edx, 0x48(%rax)
movl 0x1c(%rcx), %edx
movl %edx, 0x4c(%rax)
movl 0x20(%rcx), %ecx
movl %ecx, 0x50(%rax)
jmp 0x1ca612d
vmovss %xmm4, 0x20(%r15)
movq 0x20(%rsp), %r13
jmp 0x1ca5f2f
vmovaps 0x400(%rsp), %ymm0
vcmpleps 0x20(%r15){1to8}, %ymm0, %k0
kmovd %k0, %eax
andb %al, %bl
jne 0x1ca570b
vmovaps 0x380(%rsp), %ymm0
vaddps 0x280(%rsp), %ymm0, %ymm0
vcmpleps 0x20(%r15){1to8}, %ymm0, %k0
kmovd 0x15c(%rsp), %k1
kmovd 0x154(%rsp), %k2
korb %k2, %k1, %k1
kmovd %k0, %eax
movl 0x28(%rsp), %ecx
andb %al, %cl
vpbroadcastd 0x27ad43(%rip), %ymm0 # 0x1f20edc
vpblendmd 0x27ad35(%rip){1to8}, %ymm0, %ymm0 {%k1} # 0x1f20ed8
vmovdqa %ymm0, 0x380(%rsp)
vpcmpled 0x460(%rsp), %ymm0, %k0
kmovd %k0, %ebx
movl %ecx, 0x28(%rsp)
andb %cl, %bl
je 0x1ca6c95
vmovaps 0x4e0(%rsp), %ymm5
vmovaps 0x260(%rsp), %ymm1
vmovaps 0x220(%rsp), %ymm2
vminps %xmm2, %xmm1, %xmm0
vmaxps %xmm2, %xmm1, %xmm1
vmovaps 0x240(%rsp), %ymm3
vmovaps 0x200(%rsp), %ymm4
vminps %xmm4, %xmm3, %xmm2
vminps %xmm2, %xmm0, %xmm0
vmaxps %xmm4, %xmm3, %xmm2
vmaxps %xmm2, %xmm1, %xmm1
vandps %xmm0, %xmm13, %xmm0
vandps %xmm1, %xmm13, %xmm2
vmaxps %xmm2, %xmm0, %xmm0
vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3]
vmaxss %xmm0, %xmm2, %xmm2
vshufpd $0x1, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[1,0]
vmaxss %xmm2, %xmm0, %xmm0
vmulss 0x24bc85(%rip), %xmm0, %xmm0 # 0x1ef1eb4
vmovss %xmm0, 0x38(%rsp)
vshufps $0xff, %xmm1, %xmm1, %xmm0 # xmm0 = xmm1[3,3,3,3]
vmovaps %xmm0, 0x2c0(%rsp)
vmovaps %ymm5, 0x340(%rsp)
vaddps 0x280(%rsp), %ymm5, %ymm0
vmovaps %ymm0, 0x400(%rsp)
kmovd %ebx, %k1
vbroadcastss 0x2457b5(%rip), %ymm0 # 0x1eeba20
vblendmps 0x340(%rsp), %ymm0, %ymm0 {%k1}
vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm0, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1]
vminps %ymm2, %ymm1, %ymm1
vcmpeqps %ymm1, %ymm0, %k0
kmovd %k0, %eax
andb %bl, %al
movzbl %al, %eax
movzbl %bl, %ecx
cmovnel %eax, %ecx
tzcntl %ecx, %ecx
movb $0x1, %bl
shlb %cl, %bl
shll $0x2, %ecx
vmovss 0x420(%rsp,%rcx), %xmm9
vmovss 0x500(%rsp,%rcx), %xmm10
vmovaps 0x10(%r15), %xmm0
vmovaps %xmm0, 0x2a0(%rsp)
vdpps $0x7f, %xmm0, %xmm0, %xmm0
vucomiss 0x245745(%rip), %xmm0 # 0x1eeba24
jb 0x1ca62e7
vsqrtss %xmm0, %xmm0, %xmm0
jmp 0x1ca6324
vmovaps %xmm9, 0x60(%rsp)
vmovaps %xmm10, 0xa0(%rsp)
kmovw %k1, 0x160(%rsp)
vzeroupper
callq 0x6aa20
kmovw 0x160(%rsp), %k1
vmovaps 0xa0(%rsp), %xmm10
vmovaps 0x60(%rsp), %xmm9
vxorps %xmm12, %xmm12, %xmm12
movzbl %bl, %eax
kmovd %eax, %k0
kandnb %k1, %k0, %k0
kmovd %k0, %ebx
vmulss 0x24bb79(%rip), %xmm0, %xmm0 # 0x1ef1eb4
vmovss %xmm0, 0x3c(%rsp)
movl $0x4, %r12d
vbroadcastss %xmm10, %xmm0
vfmadd132ps 0x2a0(%rsp), %xmm12, %xmm0 # xmm0 = (xmm0 * mem) + xmm12
vmovss 0x2463b6(%rip), %xmm1 # 0x1eec714
vsubss %xmm9, %xmm1, %xmm13
vbroadcastss 0x27ab54(%rip), %xmm6 # 0x1f20ec0
vxorps %xmm6, %xmm9, %xmm1
vmulss %xmm1, %xmm13, %xmm1
vmulss %xmm1, %xmm13, %xmm1
vmulss %xmm9, %xmm9, %xmm14
vmovss 0x24ac67(%rip), %xmm8 # 0x1ef0fec
vmovaps %xmm8, %xmm11
vmovss 0x24ac72(%rip), %xmm7 # 0x1ef1004
vfmadd213ss %xmm7, %xmm9, %xmm11 # xmm11 = (xmm9 * xmm11) + xmm7
vmovaps %xmm11, %xmm2
vmovss 0x24ac55(%rip), %xmm5 # 0x1ef0ff8
vfmadd213ss %xmm5, %xmm14, %xmm2 # xmm2 = (xmm14 * xmm2) + xmm5
vmulss %xmm13, %xmm13, %xmm3
vmovaps %xmm8, %xmm4
vfmadd213ss %xmm7, %xmm13, %xmm4 # xmm4 = (xmm13 * xmm4) + xmm7
vfmadd213ss %xmm5, %xmm3, %xmm4 # xmm4 = (xmm3 * xmm4) + xmm5
vxorps %xmm6, %xmm13, %xmm3
vmulss %xmm3, %xmm9, %xmm3
vmulss %xmm3, %xmm9, %xmm3
vmovss 0x2467b1(%rip), %xmm5 # 0x1eecb80
vmulss %xmm5, %xmm1, %xmm1
vmulss %xmm5, %xmm2, %xmm2
vmulss %xmm5, %xmm4, %xmm4
vmulss %xmm5, %xmm3, %xmm3
vbroadcastss %xmm3, %xmm3
vmulps 0x200(%rsp), %xmm3, %xmm3
vbroadcastss %xmm4, %xmm4
vfmadd132ps 0x240(%rsp), %xmm3, %xmm4 # xmm4 = (xmm4 * mem) + xmm3
vbroadcastss %xmm2, %xmm2
vfmadd132ps 0x220(%rsp), %xmm4, %xmm2 # xmm2 = (xmm2 * mem) + xmm4
vbroadcastss %xmm1, %xmm3
vfmadd132ps 0x260(%rsp), %xmm2, %xmm3 # xmm3 = (xmm3 * mem) + xmm2
vmulss 0x24a5ba(%rip), %xmm13, %xmm6 # 0x1ef09dc
vfmadd231ss 0x24abdd(%rip), %xmm9, %xmm7 # xmm7 = (xmm9 * mem) + xmm7
vmovaps %xmm7, 0x330(%rsp)
vmovss 0x24abd0(%rip), %xmm1 # 0x1ef100c
vfmadd213ss 0x246747(%rip), %xmm9, %xmm1 # xmm1 = (xmm9 * xmm1) + mem
vmovaps %xmm1, 0x320(%rsp)
vfmadd213ss 0x24a575(%rip), %xmm9, %xmm8 # xmm8 = (xmm9 * xmm8) + mem
vmovaps %xmm8, 0x310(%rsp)
vmovaps %xmm3, 0x360(%rsp)
vsubps %xmm3, %xmm0, %xmm0
vmovaps %xmm0, 0x160(%rsp)
vdpps $0x7f, %xmm0, %xmm0, %xmm0
vucomiss 0x2455a0(%rip), %xmm0 # 0x1eeba24
vmovaps %xmm9, 0x60(%rsp)
vmovaps %xmm0, 0xc0(%rsp)
vmovaps %xmm10, 0xa0(%rsp)
jb 0x1ca64a4
vsqrtss %xmm0, %xmm0, %xmm7
jmp 0x1ca64fd
vmovss %xmm11, 0x180(%rsp)
vmovaps %xmm13, 0x80(%rsp)
vmovss %xmm14, 0x50(%rsp)
vmovss %xmm6, 0x100(%rsp)
vzeroupper
callq 0x6aa20
vmovss 0x100(%rsp), %xmm6
vmovss 0x50(%rsp), %xmm14
vmovaps 0x80(%rsp), %xmm13
vmovss 0x180(%rsp), %xmm11
vmovaps 0x60(%rsp), %xmm9
vxorps %xmm12, %xmm12, %xmm12
vmovaps %xmm0, %xmm7
vaddss %xmm13, %xmm13, %xmm0
vmulss %xmm0, %xmm9, %xmm1
vfnmadd231ss %xmm13, %xmm13, %xmm1 # xmm1 = -(xmm13 * xmm13) + xmm1
vaddss %xmm9, %xmm9, %xmm2
vmovss 0x24aad4(%rip), %xmm4 # 0x1ef0fec
vmulss %xmm4, %xmm9, %xmm3
vmulss %xmm3, %xmm9, %xmm3
vfmadd213ss %xmm3, %xmm2, %xmm11 # xmm11 = (xmm2 * xmm11) + xmm3
vmovaps %xmm4, %xmm2
vmovss 0x24aac7(%rip), %xmm4 # 0x1ef0ff8
vfmadd213ss %xmm4, %xmm9, %xmm2 # xmm2 = (xmm9 * xmm2) + xmm4
vmulss 0x24aab2(%rip), %xmm13, %xmm3 # 0x1ef0ff0
vmulss %xmm3, %xmm13, %xmm3
vfmadd231ss %xmm2, %xmm0, %xmm3 # xmm3 = (xmm0 * xmm2) + xmm3
vfmadd213ss %xmm14, %xmm9, %xmm6 # xmm6 = (xmm9 * xmm6) + xmm14
vmovss 0x24662c(%rip), %xmm5 # 0x1eecb80
vmulss %xmm5, %xmm1, %xmm0
vmulss %xmm5, %xmm11, %xmm1
vmulss %xmm5, %xmm3, %xmm2
vmulss %xmm5, %xmm6, %xmm3
vbroadcastss %xmm3, %xmm3
vmulps 0x200(%rsp), %xmm3, %xmm3
vbroadcastss %xmm2, %xmm2
vfmadd132ps 0x240(%rsp), %xmm3, %xmm2 # xmm2 = (xmm2 * mem) + xmm3
vbroadcastss %xmm1, %xmm1
vfmadd132ps 0x220(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2
vbroadcastss %xmm0, %xmm14
vfmadd132ps 0x260(%rsp), %xmm1, %xmm14 # xmm14 = (xmm14 * mem) + xmm1
vdpps $0x7f, %xmm14, %xmm14, %xmm0
vmovss %xmm0, %xmm12, %xmm1 # xmm1 = xmm0[0],xmm12[1,2,3]
vrsqrt14ss %xmm1, %xmm12, %xmm3
vmulss 0x246161(%rip), %xmm3, %xmm5 # 0x1eec718
vmulss 0x24615d(%rip), %xmm0, %xmm6 # 0x1eec71c
vrcp14ss %xmm1, %xmm12, %xmm2
vxorps 0x27a8f1(%rip){1to4}, %xmm0, %xmm1 # 0x1f20ec0
vmovaps %xmm2, 0x300(%rsp)
vfnmadd213ss %xmm4, %xmm0, %xmm2 # xmm2 = -(xmm0 * xmm2) + xmm4
vmovss %xmm2, 0x40(%rsp)
vucomiss %xmm1, %xmm0
vmovaps %xmm14, 0x180(%rsp)
vmovss %xmm7, 0x80(%rsp)
vmovaps %xmm0, 0x100(%rsp)
jb 0x1ca660c
vsqrtss %xmm0, %xmm0, %xmm16
jmp 0x1ca665b
vmovaps %xmm3, 0x50(%rsp)
vmovss %xmm5, 0xf0(%rsp)
vmovss %xmm6, 0x1c(%rsp)
vzeroupper
callq 0x6aa20
vmovss 0x1c(%rsp), %xmm6
vmovss 0xf0(%rsp), %xmm5
vmovaps 0x50(%rsp), %xmm3
vmovss 0x80(%rsp), %xmm7
vmovaps 0x180(%rsp), %xmm14
vxorps %xmm12, %xmm12, %xmm12
vmovaps %xmm0, %xmm16
vmovaps 0x160(%rsp), %xmm11
vmovaps 0xc0(%rsp), %xmm13
vmulss %xmm3, %xmm6, %xmm0
vmulss %xmm3, %xmm3, %xmm1
vmulss %xmm1, %xmm0, %xmm0
vaddss %xmm0, %xmm5, %xmm0
vbroadcastss %xmm0, %xmm4
vmulps %xmm4, %xmm14, %xmm0
vmovaps %xmm0, 0xf0(%rsp)
vdpps $0x7f, %xmm0, %xmm11, %xmm0
vaddss 0x246077(%rip), %xmm7, %xmm15 # 0x1eec714
vmovaps %xmm0, 0x50(%rsp)
vmulps %xmm0, %xmm0, %xmm0
vsubps %xmm0, %xmm13, %xmm0
vmovss %xmm0, %xmm12, %xmm1 # xmm1 = xmm0[0],xmm12[1,2,3]
vrsqrt14ss %xmm1, %xmm12, %xmm18
vmulss 0x246059(%rip), %xmm18, %xmm17 # 0x1eec718
vmulss 0x246053(%rip), %xmm0, %xmm19 # 0x1eec71c
vucomiss 0x245353(%rip), %xmm0 # 0x1eeba24
jb 0x1ca66dc
vsqrtss %xmm0, %xmm0, %xmm0
jmp 0x1ca6766
vmovss %xmm15, 0x1c(%rsp)
vmovss %xmm16, 0x34(%rsp)
vmovss %xmm17, 0x30(%rsp)
vmovaps %xmm18, 0x2f0(%rsp)
vmovss %xmm19, 0x2c(%rsp)
vmovaps %xmm4, 0x2e0(%rsp)
vzeroupper
callq 0x6aa20
vmovaps 0x2e0(%rsp), %xmm4
vmovss 0x2c(%rsp), %xmm19
vmovaps 0x2f0(%rsp), %xmm18
vmovss 0x30(%rsp), %xmm17
vmovss 0x34(%rsp), %xmm16
vmovss 0x1c(%rsp), %xmm15
vmovss 0x80(%rsp), %xmm7
vmovaps 0x180(%rsp), %xmm14
vmovaps 0xc0(%rsp), %xmm13
vmovaps 0x160(%rsp), %xmm11
vbroadcastss 0x27a755(%rip), %xmm8 # 0x1f20ec4
vmovaps 0x60(%rsp), %xmm9
vmovaps 0xa0(%rsp), %xmm10
vbroadcastss 0x310(%rsp), %xmm1
vmulps 0x200(%rsp), %xmm1, %xmm1
vbroadcastss 0x320(%rsp), %xmm2
vfmadd132ps 0x240(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1
vbroadcastss 0x330(%rsp), %xmm1
vfmadd132ps 0x220(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2
vmovss 0x24a82f(%rip), %xmm2 # 0x1ef0ff0
vfmadd213ss 0x24a82e(%rip), %xmm9, %xmm2 # xmm2 = (xmm9 * xmm2) + mem
vbroadcastss %xmm2, %xmm2
vfmadd132ps 0x260(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1
vbroadcastss 0x100(%rsp), %xmm1
vmulps %xmm1, %xmm2, %xmm1
vdpps $0x7f, %xmm2, %xmm14, %xmm2
vbroadcastss %xmm2, %xmm2
vmulps %xmm2, %xmm14, %xmm2
vsubps %xmm2, %xmm1, %xmm1
vmovss 0x40(%rsp), %xmm2
vmulss 0x300(%rsp), %xmm2, %xmm2
vmulss 0x3c(%rsp), %xmm10, %xmm3
vbroadcastss %xmm2, %xmm2
vmulps %xmm2, %xmm1, %xmm1
vxorps 0x27a69e(%rip){1to4}, %xmm14, %xmm2 # 0x1f20ec0
vmulps %xmm1, %xmm4, %xmm4
vmovaps 0xf0(%rsp), %xmm12
vdpps $0x7f, %xmm12, %xmm2, %xmm5
vmovss 0x38(%rsp), %xmm6
vmaxss %xmm3, %xmm6, %xmm1
vdivss %xmm16, %xmm6, %xmm3
vdpps $0x7f, %xmm4, %xmm11, %xmm4
vfmadd213ss %xmm1, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm7) + xmm1
vfmadd213ss %xmm7, %xmm3, %xmm15 # xmm15 = (xmm3 * xmm15) + xmm7
vmovaps 0x2a0(%rsp), %xmm7
vdpps $0x7f, %xmm12, %xmm7, %xmm3
vaddss %xmm4, %xmm5, %xmm4
vdpps $0x7f, %xmm2, %xmm11, %xmm5
vmulss %xmm18, %xmm19, %xmm2
vmulss %xmm18, %xmm18, %xmm6
vmulss %xmm6, %xmm2, %xmm2
vdpps $0x7f, %xmm7, %xmm11, %xmm6
vaddss %xmm2, %xmm17, %xmm7
vmovaps 0x50(%rsp), %xmm16
vfnmadd231ss %xmm4, %xmm16, %xmm5 # xmm5 = -(xmm16 * xmm4) + xmm5
vfnmadd231ss %xmm3, %xmm16, %xmm6 # xmm6 = -(xmm16 * xmm3) + xmm6
vpermilps $0xff, 0x360(%rsp), %xmm2 # xmm2 = mem[3,3,3,3]
vsubss %xmm2, %xmm0, %xmm2
vshufps $0xff, %xmm14, %xmm14, %xmm0 # xmm0 = xmm14[3,3,3,3]
vfmsub213ss %xmm0, %xmm7, %xmm5 # xmm5 = (xmm7 * xmm5) - xmm0
vmulss %xmm7, %xmm6, %xmm6
vmulss %xmm5, %xmm3, %xmm7
vfmsub231ss %xmm6, %xmm4, %xmm7 # xmm7 = (xmm4 * xmm6) - xmm7
vdivss %xmm7, %xmm6, %xmm6
vdivss %xmm7, %xmm5, %xmm5
vdivss %xmm7, %xmm3, %xmm3
vdivss %xmm7, %xmm4, %xmm4
vmulss %xmm6, %xmm16, %xmm6
vmulss %xmm3, %xmm2, %xmm3
vsubss %xmm3, %xmm6, %xmm3
vmulss %xmm5, %xmm16, %xmm5
vmulss %xmm4, %xmm2, %xmm4
vsubss %xmm5, %xmm4, %xmm4
vsubss %xmm3, %xmm9, %xmm9
vsubss %xmm4, %xmm10, %xmm10
vandps %xmm8, %xmm16, %xmm3
vucomiss %xmm3, %xmm15
jbe 0x1ca6a75
vaddss %xmm1, %xmm15, %xmm1
vmovaps 0x2c0(%rsp), %xmm3
vfmadd231ss 0x24b595(%rip), %xmm3, %xmm1 # xmm1 = (xmm3 * mem) + xmm1
vandps %xmm2, %xmm8, %xmm2
vucomiss %xmm2, %xmm1
vxorps %xmm12, %xmm12, %xmm12
jbe 0x1ca6a7f
vaddss 0x2d0(%rsp), %xmm10, %xmm10
vucomiss 0xc(%r15), %xmm10
movb $0x1, %r14b
jb 0x1ca6a82
vmovss 0x20(%r15), %xmm4
vucomiss %xmm10, %xmm4
jb 0x1ca6a82
vucomiss 0x2450c1(%rip), %xmm9 # 0x1eeba24
jb 0x1ca6a82
vmovss 0x245da3(%rip), %xmm1 # 0x1eec714
vucomiss %xmm9, %xmm1
jb 0x1ca6a82
vmovss %xmm13, %xmm12, %xmm1
vrsqrt14ss %xmm1, %xmm12, %xmm1
vmulss 0x245d8a(%rip), %xmm1, %xmm2 # 0x1eec718
vmulss 0x245d86(%rip), %xmm13, %xmm3 # 0x1eec71c
movq (%r13), %rax
movq 0x1e8(%rax), %rax
movq %r13, %rcx
movq 0x48(%rsp), %rdx
movq (%rax,%rdx,8), %r13
movl 0x24(%r15), %eax
testl %eax, 0x34(%r13)
je 0x1ca6a9f
vmulss %xmm1, %xmm3, %xmm3
vmulss %xmm1, %xmm1, %xmm1
vmulss %xmm1, %xmm3, %xmm1
vaddss %xmm1, %xmm2, %xmm1
vbroadcastss %xmm1, %xmm1
vmulps %xmm1, %xmm11, %xmm1
vfmadd213ps %xmm14, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm0) + xmm14
vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm14, %xmm14, %xmm3 # xmm3 = xmm14[1,2,0,3]
vmulps %xmm3, %xmm1, %xmm1
vfmsub231ps %xmm2, %xmm14, %xmm1 # xmm1 = (xmm14 * xmm2) - xmm1
vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3]
vshufps $0xd2, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,0,1,3]
vmulps %xmm1, %xmm0, %xmm0
vfmsub231ps %xmm3, %xmm2, %xmm0 # xmm0 = (xmm2 * xmm3) - xmm0
movq 0x10(%rcx), %rax
cmpq $0x0, 0x10(%rax)
jne 0x1ca6aa4
cmpq $0x0, 0x40(%r13)
jne 0x1ca6aa4
vmovss %xmm10, 0x20(%r15)
vshufps $0xe9, %xmm0, %xmm0, %xmm1 # xmm1 = xmm0[1,2,2,3]
vmovlps %xmm1, 0x30(%r15)
vmovss %xmm0, 0x38(%r15)
vmovss %xmm9, 0x3c(%r15)
movl $0x0, 0x40(%r15)
movq 0x98(%rsp), %rax
movl %eax, 0x44(%r15)
movq 0x48(%rsp), %rax
movl %eax, 0x48(%r15)
movq 0x20(%rsp), %r13
movq 0x8(%r13), %rax
movl (%rax), %eax
movl %eax, 0x4c(%r15)
movq 0x8(%r13), %rax
movl 0x4(%rax), %eax
movl %eax, 0x50(%r15)
jmp 0x1ca6a82
xorl %r14d, %r14d
vxorps %xmm12, %xmm12, %xmm12
jmp 0x1ca6a82
xorl %r14d, %r14d
subq $0x1, %r12
setb %al
testb %r14b, %r14b
jne 0x1ca6c78
testb %al, %al
je 0x1ca6347
jmp 0x1ca6c78
movq %rcx, %r13
jmp 0x1ca6a82
movq 0x20(%rsp), %rdx
movq 0x8(%rdx), %rax
vshufps $0xe9, %xmm0, %xmm0, %xmm1 # xmm1 = xmm0[1,2,2,3]
vmovlps %xmm1, 0x1b0(%rsp)
vmovss %xmm0, 0x1b8(%rsp)
vmovss %xmm9, 0x1bc(%rsp)
movl $0x0, 0x1c0(%rsp)
movq 0x98(%rsp), %rcx
movl %ecx, 0x1c4(%rsp)
movq 0x48(%rsp), %rcx
movl %ecx, 0x1c8(%rsp)
movl (%rax), %ecx
movl %ecx, 0x1cc(%rsp)
movl 0x4(%rax), %eax
movl %eax, 0x1d0(%rsp)
vmovss %xmm10, 0x20(%r15)
movl $0xffffffff, 0x44(%rsp) # imm = 0xFFFFFFFF
leaq 0x44(%rsp), %rax
movq %rax, 0x120(%rsp)
movq 0x18(%r13), %rax
movq %rax, 0x128(%rsp)
movq 0x8(%rdx), %rax
movq %rax, 0x130(%rsp)
movq %r15, 0x138(%rsp)
leaq 0x1b0(%rsp), %rax
movq %rax, 0x140(%rsp)
movl $0x1, 0x148(%rsp)
movq 0x40(%r13), %rax
testq %rax, %rax
vmovaps %xmm9, 0x60(%rsp)
vmovaps %xmm10, 0xa0(%rsp)
vmovss %xmm4, 0xc0(%rsp)
je 0x1ca6bb8
leaq 0x120(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0xc0(%rsp), %xmm4
vmovaps 0xa0(%rsp), %xmm10
vmovaps 0x60(%rsp), %xmm9
vxorps %xmm12, %xmm12, %xmm12
movq 0x120(%rsp), %rax
cmpl $0x0, (%rax)
je 0x1ca6c68
movq 0x20(%rsp), %rax
movq 0x10(%rax), %rcx
movq 0x10(%rcx), %rax
testq %rax, %rax
je 0x1ca6c0d
testb $0x2, (%rcx)
jne 0x1ca6bd6
testb $0x40, 0x3e(%r13)
je 0x1ca6c00
leaq 0x120(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0xc0(%rsp), %xmm4
vmovaps 0xa0(%rsp), %xmm10
vmovaps 0x60(%rsp), %xmm9
vxorps %xmm12, %xmm12, %xmm12
movq 0x120(%rsp), %rax
cmpl $0x0, (%rax)
je 0x1ca6c68
movq 0x138(%rsp), %rax
movq 0x140(%rsp), %rcx
vmovss (%rcx), %xmm0
vmovss %xmm0, 0x30(%rax)
vmovss 0x4(%rcx), %xmm0
vmovss %xmm0, 0x34(%rax)
vmovss 0x8(%rcx), %xmm0
vmovss %xmm0, 0x38(%rax)
vmovss 0xc(%rcx), %xmm0
vmovss %xmm0, 0x3c(%rax)
vmovss 0x10(%rcx), %xmm0
vmovss %xmm0, 0x40(%rax)
movl 0x14(%rcx), %edx
movl %edx, 0x44(%rax)
movl 0x18(%rcx), %edx
movl %edx, 0x48(%rax)
movl 0x1c(%rcx), %edx
movl %edx, 0x4c(%rax)
movl 0x20(%rcx), %ecx
movl %ecx, 0x50(%rax)
jmp 0x1ca6c6e
vmovss %xmm4, 0x20(%r15)
movq 0x20(%rsp), %r13
jmp 0x1ca6a82
vmovaps 0x400(%rsp), %ymm0
vcmpleps 0x20(%r15){1to8}, %ymm0, %k0
kmovd %k0, %eax
andb %al, %bl
jne 0x1ca625e
vmovdqa 0x460(%rsp), %ymm1
vpcmpltd 0x380(%rsp), %ymm1, %k1
vmovaps 0x4a0(%rsp), %ymm0
vpcmpltd 0x520(%rsp), %ymm1, %k2
vmovaps 0x280(%rsp), %ymm7
vaddps %ymm0, %ymm7, %ymm1
vbroadcastss 0x20(%r15), %ymm2
vcmpleps %ymm2, %ymm1, %k0 {%k2}
kmovd %k0, %eax
movl 0x158(%rsp), %ecx
andb %al, %cl
vmovaps 0x4e0(%rsp), %ymm1
vaddps %ymm1, %ymm7, %ymm3
vcmpleps %ymm2, %ymm3, %k0 {%k1}
kmovd %k0, %eax
movl 0x28(%rsp), %edx
andb %al, %dl
orb %cl, %dl
je 0x1ca6d9a
movq 0x118(%rsp), %r8
movl %r8d, %eax
leaq (%rax,%rax,2), %rax
shlq $0x5, %rax
movb %dl, 0x780(%rsp,%rax)
kmovd %ecx, %k1
vmovaps %ymm0, %ymm1 {%k1}
vmovaps %ymm1, 0x7a0(%rsp,%rax)
vmovaps 0x1a0(%rsp), %xmm4
vmovlps %xmm4, 0x7c0(%rsp,%rax)
movq 0x1f0(%rsp), %r11
leal 0x1(%r11), %ecx
movl %ecx, 0x7c8(%rsp,%rax)
incl %r8d
movq 0x1e8(%rsp), %r9
vbroadcastss 0x2459a7(%rip), %ymm26 # 0x1eec714
movq 0x1f8(%rsp), %r10
jmp 0x1ca540c
vbroadcastss 0x245990(%rip), %ymm26 # 0x1eec714
vmovaps 0x280(%rsp), %ymm7
movq 0x118(%rsp), %r8
jmp 0x1ca5403
movq 0x1e8(%rsp), %r9
vbroadcastss 0x245968(%rip), %ymm26 # 0x1eec714
movq 0x1f8(%rsp), %r10
movq 0x118(%rsp), %r8
movq 0x1f0(%rsp), %r11
jmp 0x1ca5403
vcmpleps 0x27a12c(%rip), %ymm4, %k2 # 0x1f20f00
vbroadcastss 0x245da7(%rip), %ymm4 # 0x1eecb84
vbroadcastss 0x244c39(%rip), %ymm16 # 0x1eeba20
vblendmps %ymm4, %ymm16, %ymm3 {%k2}
vmovaps %ymm3, %ymm31 {%k1}
vblendmps %ymm16, %ymm4, %ymm3 {%k2}
kmovd %k2, %ecx
vmovaps %ymm3, %ymm30 {%k1}
knotb %k1, %k0
kmovd %k0, %edx
orb %cl, %dl
andb %al, %dl
movl %edx, %eax
jmp 0x1ca4fa0
vmovaps 0x540(%rsp), %ymm0
vcmpleps 0x20(%r15){1to8}, %ymm0, %k0
kmovb %k0, %eax
andl %eax, %r10d
jne 0x1ca46c8
leaq -0x28(%rbp), %rsp
popq %rbx
popq %r12
popq %r13
popq %r14
popq %r15
popq %rbp
vzeroupper
retq
|
/embree[P]embree/kernels/geometry/curveNi_intersector.h
|
bool embree::avx512::CurveNiIntersector1<8>::occluded_t<embree::avx512::SweepCurve1Intersector1<embree::CatmullRomCurveT>, embree::avx512::Occluded1Epilog1<true>>(embree::avx512::CurvePrecalculations1 const&, embree::RayK<1>&, embree::RayQueryContext*, embree::CurveNi<8> const&)
|
static __forceinline bool occluded_t(const Precalculations& pre, Ray& ray, RayQueryContext* context, const Primitive& prim)
{
vfloat<M> tNear;
vbool<M> valid = intersect(ray,prim,tNear);
const size_t N = prim.N;
size_t mask = movemask(valid);
while (mask)
{
const size_t i = bscf(mask);
STAT3(shadow.trav_prims,1,1,1);
const unsigned int geomID = prim.geomID(N);
const unsigned int primID = prim.primID(N)[i];
const CurveGeometry* geom = context->scene->get<CurveGeometry>(geomID);
Vec3ff a0,a1,a2,a3; geom->gather(a0,a1,a2,a3,geom->curve(primID));
size_t mask1 = mask;
const size_t i1 = bscf(mask1);
if (mask) {
const unsigned int primID1 = prim.primID(N)[i1];
geom->prefetchL1_vertices(geom->curve(primID1));
if (mask1) {
const size_t i2 = bsf(mask1);
const unsigned int primID2 = prim.primID(N)[i2];
geom->prefetchL2_vertices(geom->curve(primID2));
}
}
if (Intersector().intersect(pre,ray,context,geom,primID,a0,a1,a2,a3,Epilog(ray,context,geomID,primID)))
return true;
mask &= movemask(tNear <= vfloat<M>(ray.tfar));
}
return false;
}
|
pushq %rbp
movq %rsp, %rbp
pushq %r15
pushq %r14
pushq %r13
pushq %r12
pushq %rbx
andq $-0x20, %rsp
subq $0x900, %rsp # imm = 0x900
movq %rcx, %r9
movq %rsi, %r15
movzbl 0x1(%rcx), %eax
leaq (%rax,%rax,4), %rcx
leaq (%rcx,%rcx,4), %rsi
vbroadcastss 0x12(%r9,%rsi), %xmm0
vmovaps (%r15), %xmm1
vsubps 0x6(%r9,%rsi), %xmm1, %xmm1
vmulps 0x10(%r15), %xmm0, %xmm2
vmulps %xmm1, %xmm0, %xmm3
vpmovsxbd 0x6(%r9,%rax,4), %ymm0
vcvtdq2ps %ymm0, %ymm5
vpmovsxbd 0x6(%r9,%rcx), %ymm0
vcvtdq2ps %ymm0, %ymm6
leaq (%rax,%rax,2), %r8
vpmovsxbd 0x6(%r9,%r8,2), %ymm0
vcvtdq2ps %ymm0, %ymm7
leaq (%rax,%rcx,2), %rsi
vpmovsxbd 0x6(%r9,%rsi), %ymm0
vcvtdq2ps %ymm0, %ymm8
leal (,%r8,4), %esi
vpmovsxbd 0x6(%r9,%rsi), %ymm0
vcvtdq2ps %ymm0, %ymm9
addq %rax, %rsi
vpmovsxbd 0x6(%r9,%rsi), %ymm0
vcvtdq2ps %ymm0, %ymm10
leaq (%rax,%rax,8), %rsi
leal (%rsi,%rsi), %edi
vpmovsxbd 0x6(%r9,%rdi), %ymm0
addq %rax, %rdi
vpmovsxbd 0x6(%r9,%rdi), %ymm1
vcvtdq2ps %ymm0, %ymm11
vcvtdq2ps %ymm1, %ymm12
shll $0x2, %ecx
vpmovsxbd 0x6(%r9,%rcx), %ymm0
vcvtdq2ps %ymm0, %ymm13
vbroadcastss %xmm2, %ymm14
vbroadcastss 0x26b7e5(%rip), %ymm16 # 0x1f12704
vpermps %ymm2, %ymm16, %ymm15
vbroadcastss 0x279fad(%rip), %ymm17 # 0x1f20edc
vpermps %ymm2, %ymm17, %ymm0
vmulps %ymm7, %ymm0, %ymm4
vmulps %ymm0, %ymm10, %ymm1
vmulps %ymm0, %ymm13, %ymm0
vfmadd231ps %ymm6, %ymm15, %ymm4 # ymm4 = (ymm15 * ymm6) + ymm4
vfmadd231ps %ymm9, %ymm15, %ymm1 # ymm1 = (ymm15 * ymm9) + ymm1
vfmadd231ps %ymm15, %ymm12, %ymm0 # ymm0 = (ymm12 * ymm15) + ymm0
vfmadd231ps %ymm5, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm5) + ymm4
vfmadd231ps %ymm8, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm8) + ymm1
vfmadd231ps %ymm14, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm14) + ymm0
vbroadcastss %xmm3, %ymm14
vpermps %ymm3, %ymm16, %ymm15
vpermps %ymm3, %ymm17, %ymm2
vmulps %ymm7, %ymm2, %ymm7
vmulps %ymm2, %ymm10, %ymm3
vmulps %ymm2, %ymm13, %ymm2
vfmadd231ps %ymm6, %ymm15, %ymm7 # ymm7 = (ymm15 * ymm6) + ymm7
vfmadd231ps %ymm9, %ymm15, %ymm3 # ymm3 = (ymm15 * ymm9) + ymm3
vfmadd231ps %ymm12, %ymm15, %ymm2 # ymm2 = (ymm15 * ymm12) + ymm2
vfmadd231ps %ymm5, %ymm14, %ymm7 # ymm7 = (ymm14 * ymm5) + ymm7
vfmadd231ps %ymm8, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm8) + ymm3
vfmadd231ps %ymm11, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm11) + ymm2
vbroadcastss 0x279f20(%rip), %ymm28 # 0x1f20ec4
vandps %ymm28, %ymm4, %ymm5
vbroadcastss 0x24a035(%rip), %ymm6 # 0x1ef0fe8
vcmpltps %ymm6, %ymm5, %k1
vmovaps %ymm6, %ymm4 {%k1}
vandps %ymm28, %ymm1, %ymm5
vcmpltps %ymm6, %ymm5, %k1
vmovaps %ymm6, %ymm1 {%k1}
vandps %ymm28, %ymm0, %ymm5
vcmpltps %ymm6, %ymm5, %k1
vmovaps %ymm6, %ymm0 {%k1}
vrcp14ps %ymm4, %ymm5
vbroadcastss 0x24571f(%rip), %ymm6 # 0x1eec714
vfnmadd213ps %ymm6, %ymm5, %ymm4 # ymm4 = -(ymm5 * ymm4) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm4 # ymm4 = (ymm4 * ymm5) + ymm5
vrcp14ps %ymm1, %ymm5
vfnmadd213ps %ymm6, %ymm5, %ymm1 # ymm1 = -(ymm5 * ymm1) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm1 # ymm1 = (ymm1 * ymm5) + ymm5
vrcp14ps %ymm0, %ymm5
vfnmadd213ps %ymm6, %ymm5, %ymm0 # ymm0 = -(ymm5 * ymm0) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm0 # ymm0 = (ymm0 * ymm5) + ymm5
leaq (,%rax,8), %rdi
subq %rax, %rdi
vpmovsxwd 0x6(%r9,%rdi), %ymm5
vcvtdq2ps %ymm5, %ymm5
vsubps %ymm7, %ymm5, %ymm5
vpmovsxwd 0x6(%r9,%rsi), %ymm6
vmulps %ymm5, %ymm4, %ymm5
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm7, %ymm6, %ymm6
vmulps %ymm6, %ymm4, %ymm4
leaq (%rax,%rax), %rsi
addq %rax, %rcx
shlq $0x3, %r8
subq %rax, %r8
movl %eax, %edi
shll $0x4, %edi
vpmovsxwd 0x6(%r9,%rdi), %ymm6
subq %rsi, %rdi
vpmovsxwd 0x6(%r9,%rdi), %ymm7
vcvtdq2ps %ymm7, %ymm7
vsubps %ymm3, %ymm7, %ymm7
vmulps %ymm7, %ymm1, %ymm7
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm3, %ymm6, %ymm3
vmulps %ymm3, %ymm1, %ymm1
vpmovsxwd 0x6(%r9,%rcx), %ymm3
vcvtdq2ps %ymm3, %ymm3
vsubps %ymm2, %ymm3, %ymm3
vmulps %ymm0, %ymm3, %ymm3
vpmovsxwd 0x6(%r9,%r8), %ymm6
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm2, %ymm6, %ymm2
vmulps %ymm2, %ymm0, %ymm0
vpminsd %ymm4, %ymm5, %ymm2
vpminsd %ymm1, %ymm7, %ymm6
vmaxps %ymm6, %ymm2, %ymm2
vpminsd %ymm0, %ymm3, %ymm6
vmaxps 0xc(%r15){1to8}, %ymm6, %ymm6
vmaxps %ymm6, %ymm2, %ymm2
vmulps 0x278e36(%rip){1to8}, %ymm2, %ymm6 # 0x1f1ff10
vpmaxsd %ymm4, %ymm5, %ymm2
vpmaxsd %ymm1, %ymm7, %ymm1
vminps %ymm1, %ymm2, %ymm1
vpmaxsd %ymm0, %ymm3, %ymm0
vminps 0x20(%r15){1to8}, %ymm0, %ymm0
vminps %ymm0, %ymm1, %ymm0
vmulps 0x278e12(%rip){1to8}, %ymm0, %ymm0 # 0x1f1ff14
vpbroadcastd %eax, %ymm1
vpcmpgtd 0x2b380e(%rip), %ymm1, %k0 # 0x1f5a920
vmovaps %ymm6, 0x6c0(%rsp)
vcmpleps %ymm0, %ymm6, %k1
ktestb %k0, %k1
setne %al
je 0x1ca9a68
kandb %k0, %k1, %k0
kmovd %k0, %ecx
movzbl %cl, %r14d
movq %r9, 0x388(%rsp)
movq %rdx, 0x18(%rsp)
tzcntq %r14, %rcx
movl 0x2(%r9), %esi
movl 0x6(%r9,%rcx,4), %r12d
movq (%rdx), %rcx
movq 0x1e8(%rcx), %rcx
movq %rsi, 0x78(%rsp)
movq (%rcx,%rsi,8), %rsi
movq 0x58(%rsi), %r11
movq 0x68(%rsi), %rcx
movq %rcx, %rdi
imulq %r12, %rdi
movl (%r11,%rdi), %edi
movq 0xa0(%rsi), %r10
movq %r10, %r8
imulq %rdi, %r8
movq 0x90(%rsi), %rsi
vmovaps (%rsi,%r8), %xmm1
leaq 0x1(%rdi), %r8
imulq %r10, %r8
vmovaps (%rsi,%r8), %xmm0
leaq 0x2(%rdi), %r8
imulq %r10, %r8
vmovaps (%rsi,%r8), %xmm3
blsrq %r14, %r14
addq $0x3, %rdi
imulq %r10, %rdi
vmovaps (%rsi,%rdi), %xmm2
movq %r14, %rdi
subq $0x1, %rdi
jb 0x1ca7218
andq %r14, %rdi
tzcntq %r14, %r8
movl 0x6(%r9,%r8,4), %r8d
imulq %rcx, %r8
movl (%r11,%r8), %r8d
imulq %r10, %r8
prefetcht0 (%rsi,%r8)
prefetcht0 0x40(%rsi,%r8)
testq %rdi, %rdi
je 0x1ca7218
tzcntq %rdi, %rdi
movl 0x6(%r9,%rdi,4), %edi
imulq %rdi, %rcx
movl (%r11,%rcx), %ecx
imulq %rcx, %r10
prefetcht1 (%rsi,%r10)
prefetcht1 0x40(%rsi,%r10)
vaddps %xmm0, %xmm1, %xmm5
vmovaps (%r15), %xmm6
vmovaps 0x10(%r15), %xmm4
vmulps 0x24594f(%rip){1to4}, %xmm5, %xmm5 # 0x1eecb80
vsubps %xmm6, %xmm5, %xmm5
vdpps $0x7f, %xmm4, %xmm5, %xmm5
vdpps $0x7f, %xmm4, %xmm4, %xmm7
vxorps %xmm10, %xmm10, %xmm10
vmovss %xmm7, %xmm10, %xmm8 # xmm8 = xmm7[0],xmm10[1,2,3]
vrcp14ss %xmm8, %xmm10, %xmm8
vmovaps %xmm8, %xmm9
vfnmadd213ss 0x249d9a(%rip), %xmm7, %xmm9 # xmm9 = -(xmm7 * xmm9) + mem
vmulss %xmm9, %xmm8, %xmm7
vmulss %xmm7, %xmm5, %xmm5
vmovaps %xmm5, 0x490(%rsp)
vbroadcastss %xmm5, %ymm5
vmovaps %ymm5, 0x3a0(%rsp)
vfmadd231ps %xmm5, %xmm4, %xmm6 # xmm6 = (xmm4 * xmm5) + xmm6
vblendps $0x8, %xmm10, %xmm6, %xmm5 # xmm5 = xmm6[0,1,2],xmm10[3]
vsubps %xmm5, %xmm1, %xmm6
vsubps %xmm5, %xmm3, %xmm3
vbroadcastss 0x10(%r15), %ymm26
vbroadcastss 0x14(%r15), %ymm30
vbroadcastss 0x18(%r15), %ymm1
vmovaps %ymm1, 0x600(%rsp)
vsubps %xmm5, %xmm0, %xmm7
vsubps %xmm5, %xmm2, %xmm5
vbroadcastss %xmm6, %ymm0
vmovaps %ymm0, 0x7a0(%rsp)
vbroadcastss 0x26b437(%rip), %ymm0 # 0x1f12704
vpermps %ymm6, %ymm0, %ymm18
vbroadcastss 0x279c00(%rip), %ymm1 # 0x1f20edc
vpermps %ymm6, %ymm1, %ymm19
vbroadcastss 0x279bed(%rip), %ymm2 # 0x1f20ed8
vmovaps %ymm6, 0x420(%rsp)
vpermps %ymm6, %ymm2, %ymm20
vbroadcastss %xmm7, %ymm22
vpermps %ymm7, %ymm0, %ymm23
vpermps %ymm7, %ymm1, %ymm24
vmovaps %ymm7, 0x3e0(%rsp)
vpermps %ymm7, %ymm2, %ymm25
vbroadcastss %xmm3, %ymm27
vpermps %ymm3, %ymm0, %ymm29
vpermps %ymm3, %ymm1, %ymm31
vmovaps %ymm3, 0x400(%rsp)
vpermps %ymm3, %ymm2, %ymm16
vbroadcastss %xmm5, %ymm6
vpermps %ymm5, %ymm0, %ymm21
vpermps %ymm5, %ymm1, %ymm0
vmovaps %ymm0, 0x780(%rsp)
vmovaps %ymm5, 0x3c0(%rsp)
vpermps %ymm5, %ymm2, %ymm0
vmovaps %ymm0, 0x760(%rsp)
vmulps %xmm4, %xmm4, %xmm0
vpermps %ymm0, %ymm1, %ymm4
vfmadd231ps %ymm30, %ymm30, %ymm4 # ymm4 = (ymm30 * ymm30) + ymm4
vfmadd231ps %ymm26, %ymm26, %ymm4 # ymm4 = (ymm26 * ymm26) + ymm4
vandps %ymm28, %ymm4, %ymm0
vmovaps %ymm0, 0x5e0(%rsp)
movl $0x1, %ecx
movq %rcx, 0x128(%rsp)
xorl %r11d, %r11d
xorl %ebx, %ebx
vmovsd 0x245346(%rip), %xmm2 # 0x1eec6f0
vbroadcastss 0x245361(%rip), %ymm3 # 0x1eec714
vbroadcastss 0x279b04(%rip), %ymm1 # 0x1f20ec0
vmovaps %ymm4, 0x740(%rsp)
vmovaps %ymm26, 0x1c0(%rsp)
vmovaps %ymm30, 0x1a0(%rsp)
vmovaps %ymm18, 0x180(%rsp)
vmovaps %ymm19, 0x320(%rsp)
vmovaps %ymm20, 0x300(%rsp)
vmovaps %ymm22, 0x160(%rsp)
vmovaps %ymm23, 0x2e0(%rsp)
vmovaps %ymm24, 0x2c0(%rsp)
vmovaps %ymm25, 0x140(%rsp)
vmovaps %ymm27, 0x2a0(%rsp)
vmovaps %ymm29, 0x280(%rsp)
vmovaps %ymm31, 0x260(%rsp)
vmovaps %ymm16, 0x720(%rsp)
vmovaps %ymm6, 0x700(%rsp)
vmovaps %ymm21, 0x6e0(%rsp)
vmovshdup %xmm2, %xmm0 # xmm0 = xmm2[1,1,3,3]
vsubss %xmm2, %xmm0, %xmm0
vmulss 0x279a82(%rip), %xmm0, %xmm4 # 0x1f20ed0
vmovaps %xmm4, 0xc0(%rsp)
vmovaps %xmm2, 0x470(%rsp)
vbroadcastss %xmm2, %ymm4
vbroadcastss %xmm0, %ymm0
vmovaps %ymm4, 0xa0(%rsp)
vmovaps %ymm0, 0x80(%rsp)
vfmadd231ps 0x279a9b(%rip), %ymm0, %ymm4 # ymm4 = (ymm0 * mem) + ymm4
vsubps %ymm4, %ymm3, %ymm7
vxorps %ymm1, %ymm4, %ymm0
vmulps %ymm0, %ymm7, %ymm0
vmulps %ymm0, %ymm7, %ymm0
vmulps %ymm4, %ymm4, %ymm8
vbroadcastss 0x249b4a(%rip), %ymm2 # 0x1ef0fec
vmulps %ymm2, %ymm4, %ymm9
vbroadcastss 0x249b55(%rip), %ymm5 # 0x1ef1004
vaddps %ymm5, %ymm9, %ymm10
vmovaps %ymm1, %ymm13
vmulps %ymm10, %ymm8, %ymm1
vbroadcastss 0x249b33(%rip), %ymm3 # 0x1ef0ff8
vaddps %ymm3, %ymm1, %ymm1
vmulps %ymm7, %ymm7, %ymm11
vmulps %ymm2, %ymm7, %ymm12
vaddps %ymm5, %ymm12, %ymm2
vmulps %ymm2, %ymm11, %ymm2
vaddps %ymm3, %ymm2, %ymm2
vxorps %ymm7, %ymm13, %ymm5
vmulps %ymm5, %ymm4, %ymm5
vmulps %ymm5, %ymm4, %ymm5
vbroadcastss 0x24568d(%rip), %ymm17 # 0x1eecb80
vmulps %ymm17, %ymm0, %ymm13
vmulps %ymm17, %ymm1, %ymm14
vmulps %ymm17, %ymm2, %ymm15
vmulps %ymm17, %ymm5, %ymm5
vmulps %ymm5, %ymm6, %ymm28
vmulps %ymm5, %ymm21, %ymm2
vmovaps 0x780(%rsp), %ymm0
vmulps %ymm5, %ymm0, %ymm1
vmovaps %ymm6, %ymm3
vmovaps 0x760(%rsp), %ymm6
vmulps %ymm5, %ymm6, %ymm5
vfmadd231ps %ymm27, %ymm15, %ymm28 # ymm28 = (ymm15 * ymm27) + ymm28
vfmadd231ps %ymm29, %ymm15, %ymm2 # ymm2 = (ymm15 * ymm29) + ymm2
vfmadd231ps %ymm31, %ymm15, %ymm1 # ymm1 = (ymm15 * ymm31) + ymm1
vfmadd231ps %ymm15, %ymm16, %ymm5 # ymm5 = (ymm16 * ymm15) + ymm5
vfmadd231ps %ymm22, %ymm14, %ymm28 # ymm28 = (ymm14 * ymm22) + ymm28
vfmadd231ps %ymm23, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm23) + ymm2
vmovaps %ymm1, %ymm15
vfmadd231ps %ymm24, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm24) + ymm15
vfmadd231ps %ymm14, %ymm25, %ymm5 # ymm5 = (ymm25 * ymm14) + ymm5
vmovaps %ymm16, %ymm1
vmovaps 0x7a0(%rsp), %ymm16
vfmadd231ps %ymm16, %ymm13, %ymm28 # ymm28 = (ymm13 * ymm16) + ymm28
vfmadd231ps %ymm18, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm18) + ymm2
vfmadd231ps %ymm19, %ymm13, %ymm15 # ymm15 = (ymm13 * ymm19) + ymm15
vmovaps %ymm15, 0x40(%rsp)
vfmadd231ps %ymm13, %ymm20, %ymm5 # ymm5 = (ymm20 * ymm13) + ymm5
vaddps %ymm7, %ymm7, %ymm13
vmulps %ymm4, %ymm13, %ymm14
vsubps %ymm11, %ymm14, %ymm11
vaddps %ymm4, %ymm4, %ymm15
vmulps %ymm10, %ymm15, %ymm10
vmulps %ymm4, %ymm9, %ymm4
vaddps %ymm4, %ymm10, %ymm4
vaddps 0x249a3b(%rip){1to8}, %ymm9, %ymm9 # 0x1ef0ff8
vmulps %ymm9, %ymm13, %ymm9
vmulps %ymm7, %ymm12, %ymm7
vsubps %ymm7, %ymm9, %ymm7
vsubps %ymm14, %ymm8, %ymm8
vmulps %ymm17, %ymm11, %ymm9
vmulps %ymm17, %ymm4, %ymm4
vmulps %ymm17, %ymm7, %ymm7
vmulps %ymm17, %ymm8, %ymm8
vmulps %ymm3, %ymm8, %ymm10
vbroadcastss 0x245120(%rip), %ymm11 # 0x1eec714
vmulps %ymm8, %ymm21, %ymm12
vmulps %ymm0, %ymm8, %ymm13
vmulps %ymm6, %ymm8, %ymm8
vfmadd231ps %ymm27, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm27) + ymm10
vfmadd231ps %ymm29, %ymm7, %ymm12 # ymm12 = (ymm7 * ymm29) + ymm12
vfmadd231ps %ymm31, %ymm7, %ymm13 # ymm13 = (ymm7 * ymm31) + ymm13
vfmadd231ps %ymm7, %ymm1, %ymm8 # ymm8 = (ymm1 * ymm7) + ymm8
vfmadd231ps %ymm22, %ymm4, %ymm10 # ymm10 = (ymm4 * ymm22) + ymm10
vfmadd231ps %ymm23, %ymm4, %ymm12 # ymm12 = (ymm4 * ymm23) + ymm12
vfmadd231ps %ymm24, %ymm4, %ymm13 # ymm13 = (ymm4 * ymm24) + ymm13
vfmadd231ps %ymm4, %ymm25, %ymm8 # ymm8 = (ymm25 * ymm4) + ymm8
vfmadd231ps %ymm16, %ymm9, %ymm10 # ymm10 = (ymm9 * ymm16) + ymm10
vfmadd231ps %ymm18, %ymm9, %ymm12 # ymm12 = (ymm9 * ymm18) + ymm12
vfmadd231ps %ymm19, %ymm9, %ymm13 # ymm13 = (ymm9 * ymm19) + ymm13
vfmadd231ps %ymm9, %ymm20, %ymm8 # ymm8 = (ymm20 * ymm9) + ymm8
vbroadcastss 0xc0(%rsp), %ymm4
vmulps %ymm4, %ymm10, %ymm9
vmulps %ymm4, %ymm12, %ymm12
vmulps %ymm4, %ymm13, %ymm13
vmulps %ymm4, %ymm8, %ymm6
vmovaps %ymm28, %ymm8
vmovaps 0x2b86af(%rip), %ymm7 # 0x1f5fd20
vxorps %xmm31, %xmm31, %xmm31
vpermt2ps %ymm31, %ymm7, %ymm8
vmovaps %ymm2, %ymm0
vpermt2ps %ymm31, %ymm7, %ymm0
vmovaps 0x40(%rsp), %ymm1
vmovaps %ymm1, %ymm10
vpermt2ps %ymm31, %ymm7, %ymm10
vaddps %ymm6, %ymm5, %ymm4
vmaxps %ymm4, %ymm5, %ymm14
vminps %ymm4, %ymm5, %ymm4
vmovaps %ymm5, %ymm15
vpermt2ps %ymm31, %ymm7, %ymm15
vmovaps %ymm9, %ymm19
vpermt2ps %ymm31, %ymm7, %ymm19
vmovaps %ymm12, %ymm20
vpermt2ps %ymm31, %ymm7, %ymm20
vmovaps %ymm13, %ymm5
vpermt2ps %ymm31, %ymm7, %ymm5
vpermt2ps %ymm31, %ymm7, %ymm6
vsubps %ymm6, %ymm15, %ymm16
vsubps %ymm28, %ymm8, %ymm7
vmovaps %ymm0, 0xc0(%rsp)
vsubps %ymm2, %ymm0, %ymm6
vsubps %ymm1, %ymm10, %ymm21
vmulps %ymm13, %ymm6, %ymm17
vfmsub231ps %ymm21, %ymm12, %ymm17 # ymm17 = (ymm12 * ymm21) - ymm17
vmulps %ymm9, %ymm21, %ymm18
vfmsub231ps %ymm7, %ymm13, %ymm18 # ymm18 = (ymm13 * ymm7) - ymm18
vmulps %ymm12, %ymm7, %ymm22
vfmsub231ps %ymm6, %ymm9, %ymm22 # ymm22 = (ymm9 * ymm6) - ymm22
vmulps %ymm22, %ymm22, %ymm22
vfmadd231ps %ymm18, %ymm18, %ymm22 # ymm22 = (ymm18 * ymm18) + ymm22
vfmadd231ps %ymm17, %ymm17, %ymm22 # ymm22 = (ymm17 * ymm17) + ymm22
vmulps %ymm21, %ymm21, %ymm17
vfmadd231ps %ymm6, %ymm6, %ymm17 # ymm17 = (ymm6 * ymm6) + ymm17
vfmadd231ps %ymm7, %ymm7, %ymm17 # ymm17 = (ymm7 * ymm7) + ymm17
vrcp14ps %ymm17, %ymm18
vmovaps %ymm18, %ymm23
vmovaps %ymm11, %ymm3
vfnmadd213ps %ymm11, %ymm17, %ymm23 # ymm23 = -(ymm17 * ymm23) + ymm11
vfmadd132ps %ymm18, %ymm18, %ymm23 # ymm23 = (ymm23 * ymm18) + ymm18
vmulps %ymm23, %ymm22, %ymm18
vmulps %ymm5, %ymm6, %ymm22
vfmsub231ps %ymm21, %ymm20, %ymm22 # ymm22 = (ymm20 * ymm21) - ymm22
vmulps %ymm19, %ymm21, %ymm24
vfmsub231ps %ymm7, %ymm5, %ymm24 # ymm24 = (ymm5 * ymm7) - ymm24
vmulps %ymm20, %ymm7, %ymm25
vfmsub231ps %ymm6, %ymm19, %ymm25 # ymm25 = (ymm19 * ymm6) - ymm25
vmulps %ymm25, %ymm25, %ymm25
vfmadd231ps %ymm24, %ymm24, %ymm25 # ymm25 = (ymm24 * ymm24) + ymm25
vfmadd231ps %ymm22, %ymm22, %ymm25 # ymm25 = (ymm22 * ymm22) + ymm25
vmulps %ymm23, %ymm25, %ymm22
vmaxps %ymm22, %ymm18, %ymm18
vsqrtps %ymm18, %ymm18
vmaxps %ymm15, %ymm16, %ymm22
vmaxps %ymm22, %ymm14, %ymm14
vaddps %ymm14, %ymm18, %ymm14
vminps %ymm15, %ymm16, %ymm15
vminps %ymm15, %ymm4, %ymm4
vsubps %ymm18, %ymm4, %ymm4
vmulps 0x24916d(%rip){1to8}, %ymm14, %ymm14 # 0x1ef0940
vmulps 0x249167(%rip){1to8}, %ymm4, %ymm4 # 0x1ef0944
vmovaps %ymm4, 0x440(%rsp)
vmulps %ymm14, %ymm14, %ymm4
vrsqrt14ps %ymm17, %ymm15
vmulps 0x244f21(%rip){1to8}, %ymm17, %ymm14 # 0x1eec71c
vmulps %ymm14, %ymm15, %ymm14
vmulps %ymm15, %ymm15, %ymm16
vmulps %ymm14, %ymm16, %ymm14
vfmadd231ps 0x244f02(%rip){1to8}, %ymm15, %ymm14 # ymm14 = (ymm15 * mem) + ymm14
vmulps %ymm7, %ymm14, %ymm15
vmulps %ymm14, %ymm6, %ymm16
vmulps %ymm14, %ymm21, %ymm18
vmovaps %ymm28, 0x520(%rsp)
vsubps %ymm28, %ymm31, %ymm27
vmovaps %ymm2, 0x240(%rsp)
vsubps %ymm2, %ymm31, %ymm28
vsubps %ymm1, %ymm31, %ymm29
vmovaps 0x600(%rsp), %ymm0
vmulps %ymm29, %ymm0, %ymm22
vfmadd231ps %ymm28, %ymm30, %ymm22 # ymm22 = (ymm30 * ymm28) + ymm22
vfmadd231ps %ymm27, %ymm26, %ymm22 # ymm22 = (ymm26 * ymm27) + ymm22
vmulps %ymm29, %ymm29, %ymm24
vfmadd231ps %ymm28, %ymm28, %ymm24 # ymm24 = (ymm28 * ymm28) + ymm24
vfmadd231ps %ymm27, %ymm27, %ymm24 # ymm24 = (ymm27 * ymm27) + ymm24
vmulps %ymm18, %ymm0, %ymm17
vfmadd231ps %ymm30, %ymm16, %ymm17 # ymm17 = (ymm16 * ymm30) + ymm17
vfmadd231ps %ymm26, %ymm15, %ymm17 # ymm17 = (ymm15 * ymm26) + ymm17
vmulps %ymm18, %ymm29, %ymm18
vfmadd231ps %ymm16, %ymm28, %ymm18 # ymm18 = (ymm28 * ymm16) + ymm18
vfmadd231ps %ymm15, %ymm27, %ymm18 # ymm18 = (ymm27 * ymm15) + ymm18
vmulps %ymm17, %ymm17, %ymm2
vmovaps 0x740(%rsp), %ymm0
vsubps %ymm2, %ymm0, %ymm15
vmulps %ymm18, %ymm17, %ymm25
vsubps %ymm25, %ymm22, %ymm22
vaddps %ymm22, %ymm22, %ymm22
vmulps %ymm18, %ymm18, %ymm25
vsubps %ymm25, %ymm24, %ymm1
vsubps %ymm4, %ymm1, %ymm4
vmulps %ymm22, %ymm22, %ymm25
vmulps 0x2452ad(%rip){1to8}, %ymm15, %ymm26 # 0x1eecb8c
vmulps %ymm4, %ymm26, %ymm30
vsubps %ymm30, %ymm25, %ymm30
vcmpnltps %ymm31, %ymm30, %k1
kmovd %k1, %edi
kortestb %k1, %k1
je 0x1ca79e3
vsqrtps %ymm30, %ymm30
vaddps %ymm15, %ymm15, %ymm31
vmovaps %ymm3, %ymm16
vrcp14ps %ymm31, %ymm3
vfnmadd213ps %ymm16, %ymm3, %ymm31 # ymm31 = -(ymm3 * ymm31) + ymm16
vfmadd132ps %ymm3, %ymm3, %ymm31 # ymm31 = (ymm31 * ymm3) + ymm3
vxorps 0x279592(%rip){1to8}, %ymm22, %ymm3 # 0x1f20ec0
vsubps %ymm30, %ymm3, %ymm3
vmulps %ymm31, %ymm3, %ymm3
vsubps %ymm22, %ymm30, %ymm30
vmulps %ymm31, %ymm30, %ymm30
vmovaps %ymm17, %ymm31
vfmadd213ps %ymm18, %ymm3, %ymm31 # ymm31 = (ymm3 * ymm31) + ymm18
vmulps %ymm31, %ymm14, %ymm31
vmovaps %ymm31, 0x5a0(%rsp)
vmovaps %ymm17, %ymm31
vfmadd213ps %ymm18, %ymm30, %ymm31 # ymm31 = (ymm30 * ymm31) + ymm18
vmulps %ymm31, %ymm14, %ymm31
vmovaps %ymm31, 0x580(%rsp)
vbroadcastss 0x24409c(%rip), %ymm16 # 0x1eeba20
vblendmps %ymm3, %ymm16, %ymm31 {%k1}
vbroadcastss 0x2451f1(%rip), %ymm3 # 0x1eecb84
vblendmps %ymm30, %ymm3, %ymm30 {%k1}
vbroadcastss 0x279521(%rip), %ymm23 # 0x1f20ec4
vandps %ymm23, %ymm2, %ymm3
vmovaps 0x5e0(%rsp), %ymm16
vmaxps %ymm3, %ymm16, %ymm3
vmulps 0x24a4f3(%rip){1to8}, %ymm3, %ymm3 # 0x1ef1eb4
vandps %ymm23, %ymm15, %ymm23
vcmpltps %ymm3, %ymm23, %k1 {%k1}
kortestb %k1, %k1
jne 0x1ca99f3
vbroadcastss 0x244d33(%rip), %ymm3 # 0x1eec714
jmp 0x1ca79f7
vbroadcastss 0x244033(%rip), %ymm31 # 0x1eeba20
vbroadcastss 0x24518d(%rip), %ymm30 # 0x1eecb84
andb $0x7f, %dil
je 0x1ca7e3e
vmovaps %ymm21, 0x220(%rsp)
vmovaps %ymm3, %ymm16
vmovss 0xc(%r15), %xmm3
vmovss 0x20(%r15), %xmm4
vmovaps 0x490(%rsp), %xmm23
vsubss %xmm23, %xmm3, %xmm3
vbroadcastss %xmm3, %ymm3
vmaxps %ymm31, %ymm3, %ymm3
vsubss %xmm23, %xmm4, %xmm4
vbroadcastss %xmm4, %ymm4
vminps %ymm30, %ymm4, %ymm4
vmulps %ymm13, %ymm29, %ymm23
vfmadd213ps %ymm23, %ymm12, %ymm28 # ymm28 = (ymm12 * ymm28) + ymm23
vfmadd213ps %ymm28, %ymm9, %ymm27 # ymm27 = (ymm9 * ymm27) + ymm28
vmovaps 0x600(%rsp), %ymm21
vmulps %ymm13, %ymm21, %ymm13
vmovaps 0x1a0(%rsp), %ymm24
vfmadd231ps %ymm12, %ymm24, %ymm13 # ymm13 = (ymm24 * ymm12) + ymm13
vmovaps 0x1c0(%rsp), %ymm31
vfmadd231ps %ymm9, %ymm31, %ymm13 # ymm13 = (ymm31 * ymm9) + ymm13
vbroadcastss 0x279439(%rip), %ymm28 # 0x1f20ec4
vandps %ymm28, %ymm13, %ymm11
vbroadcastss 0x24954d(%rip), %ymm29 # 0x1ef0fe8
vcmpltps %ymm29, %ymm11, %k0
vbroadcastss 0x279414(%rip), %ymm30 # 0x1f20ec0
vxorps %ymm30, %ymm27, %ymm11
vrcp14ps %ymm13, %ymm12
vxorps %ymm30, %ymm13, %ymm23
vmovaps %ymm12, %ymm27
vfnmadd213ps %ymm16, %ymm13, %ymm27 # ymm27 = -(ymm13 * ymm27) + ymm16
vfmadd132ps %ymm12, %ymm12, %ymm27 # ymm27 = (ymm27 * ymm12) + ymm12
vmulps %ymm11, %ymm27, %ymm11
vcmpltps %ymm23, %ymm13, %k1
korb %k1, %k0, %k1
vbroadcastss 0x245099(%rip), %ymm27 # 0x1eecb84
vblendmps %ymm27, %ymm11, %ymm12 {%k1}
vmaxps %ymm12, %ymm3, %ymm3
vcmpnleps %ymm23, %ymm13, %k1
korb %k1, %k0, %k1
vbroadcastss 0x243f15(%rip), %ymm23 # 0x1eeba20
vmovaps %ymm23, %ymm11 {%k1}
vminps %ymm11, %ymm4, %ymm4
vxorps %xmm13, %xmm13, %xmm13
vsubps %ymm8, %ymm13, %ymm8
vsubps 0xc0(%rsp), %ymm13, %ymm9
vsubps %ymm10, %ymm13, %ymm10
vmulps %ymm5, %ymm10, %ymm10
vfnmsub231ps %ymm9, %ymm20, %ymm10 # ymm10 = -(ymm20 * ymm9) - ymm10
vfnmadd231ps %ymm8, %ymm19, %ymm10 # ymm10 = -(ymm19 * ymm8) + ymm10
vmulps %ymm5, %ymm21, %ymm8
vfnmsub231ps %ymm20, %ymm24, %ymm8 # ymm8 = -(ymm24 * ymm20) - ymm8
vfnmadd231ps %ymm19, %ymm31, %ymm8 # ymm8 = -(ymm31 * ymm19) + ymm8
vandps %ymm28, %ymm8, %ymm9
vcmpltps %ymm29, %ymm9, %k0
vxorps %ymm30, %ymm10, %ymm9
vrcp14ps %ymm8, %ymm10
vxorps %ymm30, %ymm8, %ymm11
vmovaps %ymm10, %ymm12
vfnmadd213ps %ymm16, %ymm8, %ymm12 # ymm12 = -(ymm8 * ymm12) + ymm16
vfmadd132ps %ymm10, %ymm10, %ymm12 # ymm12 = (ymm12 * ymm10) + ymm10
vmulps %ymm9, %ymm12, %ymm9
vcmpltps %ymm11, %ymm8, %k1
korb %k1, %k0, %k1
vblendmps %ymm27, %ymm9, %ymm10 {%k1}
vmaxps %ymm10, %ymm3, %ymm0
vcmpnleps %ymm11, %ymm8, %k1
korb %k1, %k0, %k1
vmovaps %ymm23, %ymm9 {%k1}
vminps %ymm9, %ymm4, %ymm8
vmovaps %ymm0, 0x500(%rsp)
vcmpleps %ymm8, %ymm0, %k0
kmovd %k0, %ecx
andb %cl, %dil
je 0x1ca7e4a
vmovaps 0x5a0(%rsp), %ymm3
vmaxps 0x440(%rsp), %ymm13, %ymm4
vminps %ymm16, %ymm3, %ymm3
vxorps %xmm10, %xmm10, %xmm10
vmaxps %ymm10, %ymm3, %ymm3
vmovaps 0x580(%rsp), %ymm9
vminps %ymm16, %ymm9, %ymm9
vmovaps 0x27933a(%rip), %ymm11 # 0x1f20f40
vaddps %ymm3, %ymm11, %ymm3
vbroadcastss 0x2768a5(%rip), %ymm12 # 0x1f1e4b8
vmulps %ymm3, %ymm12, %ymm3
vmovaps 0xa0(%rsp), %ymm0
vmovaps %ymm1, %ymm5
vmovaps 0x80(%rsp), %ymm1
vfmadd213ps %ymm0, %ymm1, %ymm3 # ymm3 = (ymm1 * ymm3) + ymm0
vmovaps %ymm3, 0x5a0(%rsp)
vmaxps %ymm10, %ymm9, %ymm3
vaddps %ymm3, %ymm11, %ymm3
vmulps %ymm3, %ymm12, %ymm3
vfmadd213ps %ymm0, %ymm1, %ymm3 # ymm3 = (ymm1 * ymm3) + ymm0
vmovaps %ymm3, 0x580(%rsp)
vmulps %ymm4, %ymm4, %ymm3
vsubps %ymm3, %ymm5, %ymm11
vmulps %ymm11, %ymm26, %ymm3
vsubps %ymm3, %ymm25, %ymm3
vcmpnltps %ymm10, %ymm3, %k0
kortestb %k0, %k0
vmovaps 0x2e0(%rsp), %ymm23
vmovaps 0x2c0(%rsp), %ymm24
vmovaps 0x2a0(%rsp), %ymm27
vmovaps 0x280(%rsp), %ymm29
vmovaps 0x260(%rsp), %ymm31
je 0x1ca7ebe
vxorps %xmm20, %xmm20, %xmm20
vcmpnltps %ymm13, %ymm3, %k1
vsqrtps %ymm3, %ymm3
vaddps %ymm15, %ymm15, %ymm4
vrcp14ps %ymm4, %ymm9
vfnmadd213ps %ymm16, %ymm9, %ymm4 # ymm4 = -(ymm9 * ymm4) + ymm16
vfmadd132ps %ymm9, %ymm9, %ymm4 # ymm4 = (ymm4 * ymm9) + ymm9
vxorps 0x2791ec(%rip){1to8}, %ymm22, %ymm9 # 0x1f20ec0
vsubps %ymm3, %ymm9, %ymm9
vmulps %ymm4, %ymm9, %ymm12
vsubps %ymm22, %ymm3, %ymm3
vmulps %ymm4, %ymm3, %ymm13
vmovaps %ymm17, %ymm3
vfmadd213ps %ymm18, %ymm12, %ymm3 # ymm3 = (ymm12 * ymm3) + ymm18
vmulps %ymm3, %ymm14, %ymm9
vmovaps 0x1c0(%rsp), %ymm26
vmulps %ymm12, %ymm26, %ymm3
vmovaps 0x1a0(%rsp), %ymm30
vmulps %ymm12, %ymm30, %ymm4
vmulps %ymm12, %ymm21, %ymm10
vmovaps %ymm7, %ymm19
vmovaps %ymm2, %ymm16
vmovaps 0x520(%rsp), %ymm2
vfmadd213ps %ymm2, %ymm9, %ymm19 # ymm19 = (ymm9 * ymm19) + ymm2
vsubps %ymm19, %ymm3, %ymm3
vmovaps %ymm6, %ymm19
vmovaps 0x240(%rsp), %ymm1
vfmadd213ps %ymm1, %ymm9, %ymm19 # ymm19 = (ymm9 * ymm19) + ymm1
vsubps %ymm19, %ymm4, %ymm4
vmovaps 0x40(%rsp), %ymm0
vmovaps 0x220(%rsp), %ymm5
vfmadd213ps %ymm0, %ymm5, %ymm9 # ymm9 = (ymm5 * ymm9) + ymm0
vsubps %ymm9, %ymm10, %ymm9
vfmadd213ps %ymm18, %ymm13, %ymm17 # ymm17 = (ymm13 * ymm17) + ymm18
vmulps %ymm17, %ymm14, %ymm14
vmulps %ymm13, %ymm26, %ymm10
vmulps %ymm13, %ymm30, %ymm17
vmulps %ymm13, %ymm21, %ymm18
vfmadd213ps %ymm2, %ymm14, %ymm7 # ymm7 = (ymm14 * ymm7) + ymm2
vsubps %ymm7, %ymm10, %ymm10
vfmadd213ps %ymm1, %ymm14, %ymm6 # ymm6 = (ymm14 * ymm6) + ymm1
vsubps %ymm6, %ymm17, %ymm1
vfmadd213ps %ymm0, %ymm14, %ymm5 # ymm5 = (ymm14 * ymm5) + ymm0
vsubps %ymm5, %ymm18, %ymm5
vbroadcastss 0x243c6d(%rip), %ymm0 # 0x1eeba20
vblendmps %ymm12, %ymm0, %ymm2 {%k1}
vbroadcastss 0x244dc2(%rip), %ymm0 # 0x1eecb84
vblendmps %ymm13, %ymm0, %ymm0 {%k1}
vandps %ymm28, %ymm16, %ymm6
vmovaps 0x5e0(%rsp), %ymm7
vmaxps %ymm6, %ymm7, %ymm6
vmulps 0x24a0cf(%rip){1to8}, %ymm6, %ymm6 # 0x1ef1eb4
vandps %ymm28, %ymm15, %ymm7
vcmpltps %ymm6, %ymm7, %k1 {%k1}
kortestb %k1, %k1
je 0x1ca7ef5
vcmpleps %ymm20, %ymm11, %k2
vbroadcastss 0x244d78(%rip), %ymm7 # 0x1eecb84
vbroadcastss 0x243c0b(%rip), %ymm11 # 0x1eeba20
vblendmps %ymm7, %ymm11, %ymm6 {%k2}
vmovaps %ymm6, %ymm2 {%k1}
vblendmps %ymm11, %ymm7, %ymm6 {%k2}
vmovaps %ymm6, %ymm0 {%k1}
knotb %k1, %k1
korb %k2, %k1, %k1
kandb %k0, %k1, %k0
jmp 0x1ca7ef5
vbroadcastss 0x27907c(%rip), %ymm28 # 0x1f20ec4
jmp 0x1ca7e50
vmovaps %ymm16, %ymm3
vmovaps 0x3a0(%rsp), %ymm4
vmovaps 0x1c0(%rsp), %ymm26
vmovaps 0x1a0(%rsp), %ymm30
vmovaps 0x180(%rsp), %ymm18
vmovaps 0x320(%rsp), %ymm19
vmovaps 0x300(%rsp), %ymm20
vmovaps 0x160(%rsp), %ymm22
vmovaps 0x2e0(%rsp), %ymm23
vmovaps 0x2c0(%rsp), %ymm24
vmovaps 0x140(%rsp), %ymm25
vmovaps 0x2a0(%rsp), %ymm27
vmovaps 0x280(%rsp), %ymm29
vmovaps 0x260(%rsp), %ymm31
jmp 0x1ca98a9
vxorps %xmm1, %xmm1, %xmm1
vxorps %xmm5, %xmm5, %xmm5
vxorps %xmm3, %xmm3, %xmm3
vxorps %xmm4, %xmm4, %xmm4
vxorps %xmm9, %xmm9, %xmm9
vbroadcastss 0x243b44(%rip), %ymm2 # 0x1eeba20
vbroadcastss 0x244c9f(%rip), %ymm0 # 0x1eecb84
vmovaps 0x1c0(%rsp), %ymm26
vmovaps 0x1a0(%rsp), %ymm30
vmovaps 0x180(%rsp), %ymm18
vmovaps 0x160(%rsp), %ymm22
vmovaps 0x140(%rsp), %ymm25
vbroadcastss 0x10(%r15), %ymm6
vbroadcastss 0x14(%r15), %ymm7
vbroadcastss 0x18(%r15), %ymm11
vmulps %ymm5, %ymm11, %ymm5
vfmadd231ps %ymm1, %ymm7, %ymm5 # ymm5 = (ymm7 * ymm1) + ymm5
vfmadd231ps %ymm10, %ymm6, %ymm5 # ymm5 = (ymm6 * ymm10) + ymm5
vmovaps 0x500(%rsp), %ymm10
vmovaps %ymm10, 0x620(%rsp)
vminps %ymm2, %ymm8, %ymm1
vmovaps %ymm1, 0x640(%rsp)
vandps %ymm28, %ymm5, %ymm2
vmaxps %ymm0, %ymm10, %ymm5
vmovaps %ymm5, 0x660(%rsp)
vmovaps %ymm8, 0x680(%rsp)
vbroadcastss 0x278f63(%rip), %ymm0 # 0x1f20ed4
vcmpltps %ymm0, %ymm2, %k1
kmovd %k1, 0x13c(%rsp)
vcmpleps %ymm1, %ymm10, %k1
kmovd %k1, %esi
andb %dil, %sil
vmovaps %ymm5, 0x540(%rsp)
vcmpleps %ymm8, %ymm5, %k1
kmovd %k1, %ecx
andb %dil, %cl
movl %ecx, 0x24(%rsp)
orb %sil, %cl
vmovaps 0x320(%rsp), %ymm19
vmovaps 0x300(%rsp), %ymm20
je 0x1ca8bc8
vmovaps %ymm0, %ymm2
movq %r12, 0x70(%rsp)
movq %r14, 0x390(%rsp)
movb %al, 0xf(%rsp)
knotb %k0, %k1
vmulps %ymm11, %ymm9, %ymm0
vfmadd213ps %ymm0, %ymm7, %ymm4 # ymm4 = (ymm7 * ymm4) + ymm0
vfmadd213ps %ymm4, %ymm6, %ymm3 # ymm3 = (ymm6 * ymm3) + ymm4
vandps %ymm28, %ymm3, %ymm0
vcmpltps %ymm2, %ymm0, %k0
kmovd %k1, 0x134(%rsp)
korb %k1, %k0, %k1
vpbroadcastd 0x278ecc(%rip), %ymm0 # 0x1f20edc
vpblendmd 0x278ebe(%rip){1to8}, %ymm0, %ymm0 {%k1} # 0x1f20ed8
movq 0x128(%rsp), %rax
vpbroadcastd %eax, %ymm1
vmovdqa %ymm0, 0x6a0(%rsp)
vmovdqa %ymm1, 0x5c0(%rsp)
vpcmpnltd %ymm0, %ymm1, %k0
kmovd %k0, %r12d
movl %esi, 0x138(%rsp)
andb %sil, %r12b
movq %r11, 0x398(%rsp)
je 0x1ca8bdf
vmovaps 0x420(%rsp), %ymm1
vmovaps 0x3e0(%rsp), %ymm2
vminps %xmm2, %xmm1, %xmm0
vmaxps %xmm2, %xmm1, %xmm1
vmovaps 0x400(%rsp), %ymm3
vmovaps 0x3c0(%rsp), %ymm4
vminps %xmm4, %xmm3, %xmm2
vminps %xmm2, %xmm0, %xmm0
vmaxps %xmm4, %xmm3, %xmm2
vmaxps %xmm2, %xmm1, %xmm1
vbroadcastss 0x278e22(%rip), %xmm2 # 0x1f20ec4
vandps %xmm2, %xmm0, %xmm0
vandps %xmm2, %xmm1, %xmm2
vmaxps %xmm2, %xmm0, %xmm0
vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3]
vmaxss %xmm0, %xmm2, %xmm2
vshufpd $0x1, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[1,0]
vmaxss %xmm2, %xmm0, %xmm0
vmulss 0x249ded(%rip), %xmm0, %xmm0 # 0x1ef1eb4
vmovss %xmm0, 0x30(%rsp)
vshufps $0xff, %xmm1, %xmm1, %xmm0 # xmm0 = xmm1[3,3,3,3]
vmovaps %xmm0, 0x480(%rsp)
vmovaps 0x500(%rsp), %ymm0
vaddps 0x3a0(%rsp), %ymm0, %ymm0
vmovaps %ymm0, 0x560(%rsp)
kmovd %r12d, %k1
vbroadcastss 0x24391c(%rip), %ymm0 # 0x1eeba20
vblendmps 0x500(%rsp), %ymm0, %ymm0 {%k1}
vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm0, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1]
vminps %ymm2, %ymm1, %ymm1
vcmpeqps %ymm1, %ymm0, %k0
kmovd %k0, %eax
andb %r12b, %al
movzbl %al, %eax
movzbl %r12b, %ecx
cmovnel %eax, %ecx
tzcntl %ecx, %ecx
movb $0x1, %r14b
shlb %cl, %r14b
shll $0x2, %ecx
vmovss 0x5a0(%rsp,%rcx), %xmm9
vmovss 0x620(%rsp,%rcx), %xmm8
vmovaps 0x10(%r15), %xmm0
vmovaps %xmm0, 0x440(%rsp)
vdpps $0x7f, %xmm0, %xmm0, %xmm0
vucomiss 0x2438a8(%rip), %xmm0 # 0x1eeba24
jb 0x1ca8184
vsqrtss %xmm0, %xmm0, %xmm0
jmp 0x1ca81bc
vmovaps %xmm9, 0x40(%rsp)
vmovaps %xmm8, 0x80(%rsp)
kmovw %k1, 0xc0(%rsp)
vzeroupper
callq 0x6aa20
kmovw 0xc0(%rsp), %k1
vmovaps 0x80(%rsp), %xmm8
vmovaps 0x40(%rsp), %xmm9
movzbl %r14b, %eax
kmovd %eax, %k0
kandnb %k1, %k0, %k0
kmovd %k0, %r12d
vmulss 0x249ce0(%rip), %xmm0, %xmm0 # 0x1ef1eb4
vmovss %xmm0, 0x34(%rsp)
movl $0x5, %r14d
vmovaps %xmm8, 0x80(%rsp)
vbroadcastss %xmm8, %xmm0
vxorps %xmm1, %xmm1, %xmm1
vfmadd132ps 0x440(%rsp), %xmm1, %xmm0 # xmm0 = (xmm0 * mem) + xmm1
vmovss 0x244510(%rip), %xmm1 # 0x1eec714
vsubss %xmm9, %xmm1, %xmm11
vbroadcastss 0x278cae(%rip), %xmm6 # 0x1f20ec0
vxorps %xmm6, %xmm9, %xmm1
vmulss %xmm1, %xmm11, %xmm1
vmulss %xmm1, %xmm11, %xmm1
vmulss %xmm9, %xmm9, %xmm12
vmovss 0x248dc1(%rip), %xmm8 # 0x1ef0fec
vmovaps %xmm8, %xmm10
vmovss 0x248dcc(%rip), %xmm7 # 0x1ef1004
vfmadd213ss %xmm7, %xmm9, %xmm10 # xmm10 = (xmm9 * xmm10) + xmm7
vmovaps %xmm10, %xmm2
vmovss 0x248daf(%rip), %xmm5 # 0x1ef0ff8
vfmadd213ss %xmm5, %xmm12, %xmm2 # xmm2 = (xmm12 * xmm2) + xmm5
vmulss %xmm11, %xmm11, %xmm3
vmovaps %xmm8, %xmm4
vfmadd213ss %xmm7, %xmm11, %xmm4 # xmm4 = (xmm11 * xmm4) + xmm7
vfmadd213ss %xmm5, %xmm3, %xmm4 # xmm4 = (xmm3 * xmm4) + xmm5
vxorps %xmm6, %xmm11, %xmm3
vmulss %xmm3, %xmm9, %xmm3
vmulss %xmm3, %xmm9, %xmm3
vmovss 0x24490b(%rip), %xmm5 # 0x1eecb80
vmulss %xmm5, %xmm1, %xmm1
vmulss %xmm5, %xmm2, %xmm2
vmulss %xmm5, %xmm4, %xmm4
vmulss %xmm5, %xmm3, %xmm3
vbroadcastss %xmm3, %xmm3
vmulps 0x3c0(%rsp), %xmm3, %xmm3
vbroadcastss %xmm4, %xmm4
vfmadd132ps 0x400(%rsp), %xmm3, %xmm4 # xmm4 = (xmm4 * mem) + xmm3
vbroadcastss %xmm2, %xmm2
vfmadd132ps 0x3e0(%rsp), %xmm4, %xmm2 # xmm2 = (xmm2 * mem) + xmm4
vbroadcastss %xmm1, %xmm3
vfmadd132ps 0x420(%rsp), %xmm2, %xmm3 # xmm3 = (xmm3 * mem) + xmm2
vmulss 0x248714(%rip), %xmm11, %xmm6 # 0x1ef09dc
vfmadd231ss 0x248d37(%rip), %xmm9, %xmm7 # xmm7 = (xmm9 * mem) + xmm7
vmovaps %xmm7, 0x4f0(%rsp)
vmovss 0x248d2a(%rip), %xmm1 # 0x1ef100c
vfmadd213ss 0x2448a1(%rip), %xmm9, %xmm1 # xmm1 = (xmm9 * xmm1) + mem
vmovaps %xmm1, 0x4e0(%rsp)
vfmadd213ss 0x2486cf(%rip), %xmm9, %xmm8 # xmm8 = (xmm9 * xmm8) + mem
vmovaps %xmm8, 0x4d0(%rsp)
vmovaps %xmm3, 0x520(%rsp)
vsubps %xmm3, %xmm0, %xmm0
vmovaps %xmm0, 0xc0(%rsp)
vdpps $0x7f, %xmm0, %xmm0, %xmm0
vucomiss 0x2436fa(%rip), %xmm0 # 0x1eeba24
vmovaps %xmm9, 0x40(%rsp)
vmovaps %xmm0, 0xa0(%rsp)
jb 0x1ca8341
vsqrtss %xmm0, %xmm0, %xmm7
jmp 0x1ca839b
vmovss %xmm10, 0x240(%rsp)
vmovaps %xmm11, 0x220(%rsp)
vmovss %xmm12, 0x110(%rsp)
vmovss %xmm6, 0x100(%rsp)
vzeroupper
callq 0x6aa20
vmovss 0x100(%rsp), %xmm6
vmovss 0x110(%rsp), %xmm12
vmovaps 0x220(%rsp), %xmm11
vmovss 0x240(%rsp), %xmm10
vmovaps 0x40(%rsp), %xmm9
vmovaps %xmm0, %xmm7
vaddss %xmm11, %xmm11, %xmm0
vmulss %xmm0, %xmm9, %xmm1
vfnmadd231ss %xmm11, %xmm11, %xmm1 # xmm1 = -(xmm11 * xmm11) + xmm1
vaddss %xmm9, %xmm9, %xmm2
vmovss 0x248c36(%rip), %xmm4 # 0x1ef0fec
vmulss %xmm4, %xmm9, %xmm3
vmulss %xmm3, %xmm9, %xmm3
vfmadd213ss %xmm3, %xmm2, %xmm10 # xmm10 = (xmm2 * xmm10) + xmm3
vmovaps %xmm4, %xmm2
vmovss 0x248c29(%rip), %xmm4 # 0x1ef0ff8
vfmadd213ss %xmm4, %xmm9, %xmm2 # xmm2 = (xmm9 * xmm2) + xmm4
vmulss 0x248c14(%rip), %xmm11, %xmm3 # 0x1ef0ff0
vmulss %xmm3, %xmm11, %xmm3
vfmadd231ss %xmm2, %xmm0, %xmm3 # xmm3 = (xmm0 * xmm2) + xmm3
vfmadd213ss %xmm12, %xmm9, %xmm6 # xmm6 = (xmm9 * xmm6) + xmm12
vmovss 0x24478e(%rip), %xmm5 # 0x1eecb80
vmulss %xmm5, %xmm1, %xmm0
vmulss %xmm5, %xmm10, %xmm1
vmulss %xmm5, %xmm3, %xmm2
vmulss %xmm5, %xmm6, %xmm3
vbroadcastss %xmm3, %xmm3
vmulps 0x3c0(%rsp), %xmm3, %xmm3
vbroadcastss %xmm2, %xmm2
vfmadd132ps 0x400(%rsp), %xmm3, %xmm2 # xmm2 = (xmm2 * mem) + xmm3
vbroadcastss %xmm1, %xmm1
vfmadd132ps 0x3e0(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2
vbroadcastss %xmm0, %xmm12
vfmadd132ps 0x420(%rsp), %xmm1, %xmm12 # xmm12 = (xmm12 * mem) + xmm1
vdpps $0x7f, %xmm12, %xmm12, %xmm0
vxorps %xmm1, %xmm1, %xmm1
vmovss %xmm0, %xmm1, %xmm2 # xmm2 = xmm0[0],xmm1[1,2,3]
vrsqrt14ss %xmm2, %xmm1, %xmm3
vmulss 0x2442bf(%rip), %xmm3, %xmm6 # 0x1eec718
vmulss 0x2442bb(%rip), %xmm0, %xmm8 # 0x1eec71c
vrcp14ss %xmm2, %xmm1, %xmm2
vxorps 0x278a4f(%rip){1to4}, %xmm0, %xmm1 # 0x1f20ec0
vmovaps %xmm2, 0x100(%rsp)
vfnmadd213ss %xmm4, %xmm0, %xmm2 # xmm2 = -(xmm0 * xmm2) + xmm4
vmovss %xmm2, 0x38(%rsp)
vucomiss %xmm1, %xmm0
vmovaps %xmm12, 0x240(%rsp)
vmovss %xmm7, 0x220(%rsp)
vmovaps %xmm0, 0x110(%rsp)
jb 0x1ca84ac
vsqrtss %xmm0, %xmm0, %xmm5
jmp 0x1ca84f4
vmovaps %xmm3, 0xf0(%rsp)
vmovss %xmm6, 0x14(%rsp)
vmovss %xmm8, 0x10(%rsp)
vzeroupper
callq 0x6aa20
vmovss 0x10(%rsp), %xmm8
vmovss 0x14(%rsp), %xmm6
vmovaps 0xf0(%rsp), %xmm3
vmovss 0x220(%rsp), %xmm7
vmovaps 0x240(%rsp), %xmm12
vmovaps %xmm0, %xmm5
vmovaps 0xc0(%rsp), %xmm10
vmovaps 0xa0(%rsp), %xmm17
vmulss %xmm3, %xmm8, %xmm0
vmulss %xmm3, %xmm3, %xmm1
vmulss %xmm1, %xmm0, %xmm0
vaddss %xmm0, %xmm6, %xmm0
vbroadcastss %xmm0, %xmm4
vmulps %xmm4, %xmm12, %xmm0
vmovaps %xmm0, 0xf0(%rsp)
vdpps $0x7f, %xmm0, %xmm10, %xmm14
vaddss 0x2441df(%rip), %xmm7, %xmm13 # 0x1eec714
vmulps %xmm14, %xmm14, %xmm0
vsubps %xmm0, %xmm17, %xmm0
vxorps %xmm2, %xmm2, %xmm2
vmovss %xmm0, %xmm2, %xmm1 # xmm1 = xmm0[0],xmm2[1,2,3]
vrsqrt14ss %xmm1, %xmm2, %xmm15
vmulss 0x2441c0(%rip), %xmm15, %xmm16 # 0x1eec718
vmulss 0x2441bc(%rip), %xmm0, %xmm1 # 0x1eec71c
vmovss %xmm1, 0x14(%rsp)
vucomiss 0x2434b6(%rip), %xmm0 # 0x1eeba24
jb 0x1ca8579
vsqrtss %xmm0, %xmm0, %xmm0
jmp 0x1ca8602
vmovss %xmm13, 0x10(%rsp)
vmovaps %xmm14, 0x4c0(%rsp)
vmovss %xmm5, 0x2c(%rsp)
vmovaps %xmm15, 0x4b0(%rsp)
vmovss %xmm16, 0x28(%rsp)
vmovaps %xmm4, 0x4a0(%rsp)
vzeroupper
callq 0x6aa20
vmovaps 0x4a0(%rsp), %xmm4
vmovss 0x28(%rsp), %xmm16
vmovaps 0x4b0(%rsp), %xmm15
vmovss 0x2c(%rsp), %xmm5
vmovaps 0x4c0(%rsp), %xmm14
vmovss 0x10(%rsp), %xmm13
vmovss 0x220(%rsp), %xmm7
vmovaps 0x240(%rsp), %xmm12
vmovaps 0xa0(%rsp), %xmm17
vmovaps 0xc0(%rsp), %xmm10
vbroadcastss 0x2788b8(%rip), %ymm28 # 0x1f20ec4
vmovaps 0x1c0(%rsp), %ymm26
vmovaps 0x1a0(%rsp), %ymm30
vmovaps 0x180(%rsp), %ymm18
vmovaps 0x320(%rsp), %ymm19
vmovaps 0x300(%rsp), %ymm20
vmovaps 0x160(%rsp), %ymm22
vmovaps 0x2e0(%rsp), %ymm23
vmovaps 0x2c0(%rsp), %ymm24
vmovaps 0x140(%rsp), %ymm25
vmovaps 0x2a0(%rsp), %ymm27
vmovaps 0x280(%rsp), %ymm29
vmovaps 0x260(%rsp), %ymm31
vmovaps 0x40(%rsp), %xmm9
vmovaps 0x80(%rsp), %xmm8
vbroadcastss 0x4d0(%rsp), %xmm1
vmulps 0x3c0(%rsp), %xmm1, %xmm1
vbroadcastss 0x4e0(%rsp), %xmm2
vfmadd132ps 0x400(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1
vbroadcastss 0x4f0(%rsp), %xmm1
vfmadd132ps 0x3e0(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2
vmovss 0x248932(%rip), %xmm2 # 0x1ef0ff0
vfmadd213ss 0x248931(%rip), %xmm9, %xmm2 # xmm2 = (xmm9 * xmm2) + mem
vbroadcastss %xmm2, %xmm2
vfmadd132ps 0x420(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1
vbroadcastss 0x110(%rsp), %xmm1
vmulps %xmm1, %xmm2, %xmm1
vdpps $0x7f, %xmm2, %xmm12, %xmm2
vbroadcastss %xmm2, %xmm2
vmulps %xmm2, %xmm12, %xmm2
vsubps %xmm2, %xmm1, %xmm2
vmovss 0x38(%rsp), %xmm1
vmulss 0x100(%rsp), %xmm1, %xmm3
vmulss 0x34(%rsp), %xmm8, %xmm1
vmovss 0x30(%rsp), %xmm6
vmaxss %xmm1, %xmm6, %xmm1
vbroadcastss %xmm3, %xmm3
vmulps %xmm3, %xmm2, %xmm2
vxorps 0x278797(%rip){1to4}, %xmm12, %xmm3 # 0x1f20ec0
vmulps %xmm2, %xmm4, %xmm2
vmovaps 0xf0(%rsp), %xmm11
vdpps $0x7f, %xmm11, %xmm3, %xmm4
vdivss %xmm5, %xmm6, %xmm5
vfmadd213ss %xmm1, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm7) + xmm1
vdpps $0x7f, %xmm2, %xmm10, %xmm2
vfmadd213ss %xmm7, %xmm5, %xmm13 # xmm13 = (xmm5 * xmm13) + xmm7
vaddss %xmm2, %xmm4, %xmm4
vmovaps 0x440(%rsp), %xmm7
vdpps $0x7f, %xmm11, %xmm7, %xmm5
vdpps $0x7f, %xmm3, %xmm10, %xmm3
vmulss 0x14(%rsp), %xmm15, %xmm2
vmulss %xmm15, %xmm15, %xmm6
vmulss %xmm6, %xmm2, %xmm2
vaddss %xmm2, %xmm16, %xmm6
vdpps $0x7f, %xmm7, %xmm10, %xmm7
vfnmadd231ss %xmm4, %xmm14, %xmm3 # xmm3 = -(xmm14 * xmm4) + xmm3
vfnmadd231ss %xmm5, %xmm14, %xmm7 # xmm7 = -(xmm14 * xmm5) + xmm7
vpermilps $0xff, 0x520(%rsp), %xmm2 # xmm2 = mem[3,3,3,3]
vsubss %xmm2, %xmm0, %xmm2
vshufps $0xff, %xmm12, %xmm12, %xmm0 # xmm0 = xmm12[3,3,3,3]
vfmsub213ss %xmm0, %xmm6, %xmm3 # xmm3 = (xmm6 * xmm3) - xmm0
vmulss %xmm6, %xmm7, %xmm6
vmulss %xmm3, %xmm5, %xmm7
vfmsub231ss %xmm6, %xmm4, %xmm7 # xmm7 = (xmm4 * xmm6) - xmm7
vdivss %xmm7, %xmm6, %xmm6
vdivss %xmm7, %xmm3, %xmm3
vdivss %xmm7, %xmm5, %xmm5
vdivss %xmm7, %xmm4, %xmm4
vmulss %xmm6, %xmm14, %xmm6
vmulss %xmm5, %xmm2, %xmm5
vsubss %xmm5, %xmm6, %xmm5
vmulss %xmm3, %xmm14, %xmm3
vmulss %xmm4, %xmm2, %xmm4
vsubss %xmm3, %xmm4, %xmm3
vsubss %xmm5, %xmm9, %xmm9
vsubss %xmm3, %xmm8, %xmm8
vbroadcastss 0x2786d6(%rip), %xmm4 # 0x1f20ec4
vandps %xmm4, %xmm14, %xmm3
vucomiss %xmm3, %xmm13
movb $0x1, %al
jbe 0x1ca88c3
vaddss %xmm1, %xmm13, %xmm1
vmovaps 0x480(%rsp), %xmm3
vfmadd231ss 0x2496a0(%rip), %xmm3, %xmm1 # xmm1 = (xmm3 * mem) + xmm1
vandps %xmm4, %xmm2, %xmm2
vucomiss %xmm2, %xmm1
jbe 0x1ca88c3
vaddss 0x490(%rsp), %xmm8, %xmm8
xorl %eax, %eax
vucomiss 0xc(%r15), %xmm8
jb 0x1ca88c0
vmovss 0x20(%r15), %xmm5
vucomiss %xmm8, %xmm5
jb 0x1ca88c0
xorl %eax, %eax
vucomiss 0x2431d4(%rip), %xmm9 # 0x1eeba24
jb 0x1ca88c0
vmovss 0x243eba(%rip), %xmm1 # 0x1eec714
vucomiss %xmm9, %xmm1
jb 0x1ca88c0
vxorps %xmm2, %xmm2, %xmm2
vmovss %xmm17, %xmm2, %xmm1 # xmm1 = xmm17[0],xmm2[1,2,3]
vrsqrt14ss %xmm1, %xmm2, %xmm1
vmulss 0x243e9f(%rip), %xmm1, %xmm2 # 0x1eec718
vmulss 0x243e99(%rip), %xmm17, %xmm3 # 0x1eec71c
movq 0x18(%rsp), %rcx
movq (%rcx), %rax
movq 0x1e8(%rax), %rax
movq 0x78(%rsp), %rdx
movq (%rax,%rdx,8), %r13
movl 0x24(%r15), %eax
testl %eax, 0x34(%r13)
je 0x1ca88be
movq 0x10(%rcx), %rax
cmpq $0x0, 0x10(%rax)
jne 0x1ca88d9
cmpq $0x0, 0x48(%r13)
jne 0x1ca88d9
movb $0x1, %r13b
xorl %eax, %eax
jmp 0x1ca88c3
xorl %eax, %eax
xorl %r13d, %r13d
testb %al, %al
je 0x1ca8b99
decq %r14
jne 0x1ca81e0
jmp 0x1ca8b8d
vmulss %xmm1, %xmm3, %xmm3
vmulss %xmm1, %xmm1, %xmm1
vmulss %xmm1, %xmm3, %xmm1
vaddss %xmm1, %xmm2, %xmm1
vbroadcastss %xmm1, %xmm1
vmulps %xmm1, %xmm10, %xmm1
vfmadd213ps %xmm12, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm0) + xmm12
vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm12, %xmm12, %xmm3 # xmm3 = xmm12[1,2,0,3]
vmulps %xmm3, %xmm1, %xmm1
vfmsub231ps %xmm2, %xmm12, %xmm1 # xmm1 = (xmm12 * xmm2) - xmm1
vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3]
vshufps $0xd2, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,0,1,3]
vmulps %xmm1, %xmm0, %xmm0
vfmsub231ps %xmm3, %xmm2, %xmm0 # xmm0 = (xmm2 * xmm3) - xmm0
movq 0x18(%rsp), %rdx
movq 0x8(%rdx), %rax
vshufps $0xe9, %xmm0, %xmm0, %xmm1 # xmm1 = xmm0[1,2,2,3]
vmovlps %xmm1, 0x350(%rsp)
vmovss %xmm0, 0x358(%rsp)
vmovss %xmm9, 0x35c(%rsp)
movl $0x0, 0x360(%rsp)
movq 0x70(%rsp), %rcx
movl %ecx, 0x364(%rsp)
movq 0x78(%rsp), %rcx
movl %ecx, 0x368(%rsp)
movl (%rax), %ecx
movl %ecx, 0x36c(%rsp)
movl 0x4(%rax), %eax
movl %eax, 0x370(%rsp)
vmovss %xmm8, 0x20(%r15)
movl $0xffffffff, 0x3c(%rsp) # imm = 0xFFFFFFFF
leaq 0x3c(%rsp), %rax
movq %rax, 0x1f0(%rsp)
movq 0x18(%r13), %rax
movq %rax, 0x1f8(%rsp)
movq 0x8(%rdx), %rax
movq %rax, 0x200(%rsp)
movq %r15, 0x208(%rsp)
leaq 0x350(%rsp), %rax
movq %rax, 0x210(%rsp)
movl $0x1, 0x218(%rsp)
movq 0x48(%r13), %rax
testq %rax, %rax
vmovaps %xmm9, 0x40(%rsp)
vmovaps %xmm8, 0x80(%rsp)
vmovss %xmm5, 0xa0(%rsp)
je 0x1ca8aa6
leaq 0x1f0(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0xa0(%rsp), %xmm5
vmovaps 0x80(%rsp), %xmm8
vmovaps 0x40(%rsp), %xmm9
vmovaps 0x260(%rsp), %ymm31
vmovaps 0x280(%rsp), %ymm29
vmovaps 0x2a0(%rsp), %ymm27
vmovaps 0x140(%rsp), %ymm25
vmovaps 0x2c0(%rsp), %ymm24
vmovaps 0x2e0(%rsp), %ymm23
vmovaps 0x160(%rsp), %ymm22
vmovaps 0x300(%rsp), %ymm20
vmovaps 0x320(%rsp), %ymm19
vmovaps 0x180(%rsp), %ymm18
vmovaps 0x1a0(%rsp), %ymm30
vmovaps 0x1c0(%rsp), %ymm26
vbroadcastss 0x278439(%rip), %xmm4 # 0x1f20ec4
vbroadcastss 0x27842f(%rip), %ymm28 # 0x1f20ec4
movq 0x1f0(%rsp), %rax
cmpl $0x0, (%rax)
je 0x1ca8b76
movq 0x18(%rsp), %rax
movq 0x10(%rax), %rcx
movq 0x10(%rcx), %rax
testq %rax, %rax
je 0x1ca8b71
testb $0x2, (%rcx)
jne 0x1ca8acc
testb $0x40, 0x3e(%r13)
je 0x1ca8b64
leaq 0x1f0(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0xa0(%rsp), %xmm5
vmovaps 0x80(%rsp), %xmm8
vmovaps 0x40(%rsp), %xmm9
vmovaps 0x260(%rsp), %ymm31
vmovaps 0x280(%rsp), %ymm29
vmovaps 0x2a0(%rsp), %ymm27
vmovaps 0x140(%rsp), %ymm25
vmovaps 0x2c0(%rsp), %ymm24
vmovaps 0x2e0(%rsp), %ymm23
vmovaps 0x160(%rsp), %ymm22
vmovaps 0x300(%rsp), %ymm20
vmovaps 0x320(%rsp), %ymm19
vmovaps 0x180(%rsp), %ymm18
vmovaps 0x1a0(%rsp), %ymm30
vmovaps 0x1c0(%rsp), %ymm26
vbroadcastss 0x27836a(%rip), %xmm4 # 0x1f20ec4
vbroadcastss 0x278360(%rip), %ymm28 # 0x1f20ec4
movq 0x1f0(%rsp), %rax
cmpl $0x0, (%rax)
je 0x1ca8b76
movb $0x1, %r13b
jmp 0x1ca8b79
xorl %r13d, %r13d
testb %r13b, %r13b
jne 0x1ca88ba
vmovss %xmm5, 0x20(%r15)
jmp 0x1ca88ba
xorl %r13d, %r13d
vbroadcastss 0x27832b(%rip), %xmm4 # 0x1f20ec4
andb $0x1, %r13b
orb %r13b, %bl
vmovaps 0x560(%rsp), %ymm0
vcmpleps 0x20(%r15){1to8}, %ymm0, %k0
kmovd %k0, %eax
andb %al, %r12b
movq 0x398(%rsp), %r11
jne 0x1ca80f6
jmp 0x1ca8be8
vbroadcastss 0x243b43(%rip), %ymm3 # 0x1eec714
vmovaps 0x3a0(%rsp), %ymm4
jmp 0x1ca98a9
vbroadcastss 0x2782dc(%rip), %xmm4 # 0x1f20ec4
vmovaps 0x3a0(%rsp), %ymm3
vaddps 0x540(%rsp), %ymm3, %ymm0
vcmpleps 0x20(%r15){1to8}, %ymm0, %k0
kmovd 0x13c(%rsp), %k1
kmovd 0x134(%rsp), %k2
korb %k2, %k1, %k1
kmovd %k0, %eax
movl 0x24(%rsp), %ecx
andb %al, %cl
vpbroadcastd 0x2782af(%rip), %ymm0 # 0x1f20edc
vpblendmd 0x2782a1(%rip){1to8}, %ymm0, %ymm0 {%k1} # 0x1f20ed8
vmovdqa %ymm0, 0x540(%rsp)
vpcmpled 0x5c0(%rsp), %ymm0, %k0
kmovd %k0, %r12d
movl %ecx, 0x24(%rsp)
andb %cl, %r12b
je 0x1ca97cf
vmovaps 0x660(%rsp), %ymm7
vmovaps 0x420(%rsp), %ymm1
vmovaps 0x3e0(%rsp), %ymm2
vminps %xmm2, %xmm1, %xmm0
vmaxps %xmm2, %xmm1, %xmm1
vmovaps 0x400(%rsp), %ymm5
vmovaps 0x3c0(%rsp), %ymm6
vminps %xmm6, %xmm5, %xmm2
vminps %xmm2, %xmm0, %xmm0
vmaxps %xmm6, %xmm5, %xmm2
vmaxps %xmm2, %xmm1, %xmm1
vandps %xmm4, %xmm0, %xmm0
vandps %xmm4, %xmm1, %xmm2
vmaxps %xmm2, %xmm0, %xmm0
vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3]
vmaxss %xmm0, %xmm2, %xmm2
vshufpd $0x1, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[1,0]
vmaxss %xmm2, %xmm0, %xmm0
vmulss 0x2491f0(%rip), %xmm0, %xmm0 # 0x1ef1eb4
vmovss %xmm0, 0x30(%rsp)
vshufps $0xff, %xmm1, %xmm1, %xmm0 # xmm0 = xmm1[3,3,3,3]
vmovaps %xmm0, 0x480(%rsp)
vmovaps %ymm7, 0x500(%rsp)
vaddps %ymm7, %ymm3, %ymm0
vmovaps %ymm0, 0x560(%rsp)
kmovd %r12d, %k1
vbroadcastss 0x242d24(%rip), %ymm0 # 0x1eeba20
vblendmps 0x500(%rsp), %ymm0, %ymm0 {%k1}
vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm0, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1]
vminps %ymm2, %ymm1, %ymm1
vcmpeqps %ymm1, %ymm0, %k0
kmovd %k0, %eax
andb %r12b, %al
movzbl %al, %eax
movzbl %r12b, %ecx
cmovnel %eax, %ecx
tzcntl %ecx, %ecx
movb $0x1, %r14b
shlb %cl, %r14b
shll $0x2, %ecx
vmovss 0x580(%rsp,%rcx), %xmm9
vmovss 0x680(%rsp,%rcx), %xmm8
vmovaps 0x10(%r15), %xmm0
vmovaps %xmm0, 0x440(%rsp)
vdpps $0x7f, %xmm0, %xmm0, %xmm0
vucomiss 0x242cb0(%rip), %xmm0 # 0x1eeba24
jb 0x1ca8d7c
vsqrtss %xmm0, %xmm0, %xmm0
jmp 0x1ca8db4
vmovaps %xmm9, 0x40(%rsp)
vmovaps %xmm8, 0x80(%rsp)
kmovw %k1, 0xc0(%rsp)
vzeroupper
callq 0x6aa20
kmovw 0xc0(%rsp), %k1
vmovaps 0x80(%rsp), %xmm8
vmovaps 0x40(%rsp), %xmm9
movzbl %r14b, %eax
kmovd %eax, %k0
kandnb %k1, %k0, %k0
kmovd %k0, %r12d
vmulss 0x2490e8(%rip), %xmm0, %xmm0 # 0x1ef1eb4
vmovss %xmm0, 0x34(%rsp)
movl $0x5, %r14d
vmovaps %xmm8, 0x80(%rsp)
vbroadcastss %xmm8, %xmm0
vxorps %xmm1, %xmm1, %xmm1
vfmadd132ps 0x440(%rsp), %xmm1, %xmm0 # xmm0 = (xmm0 * mem) + xmm1
vmovss 0x243918(%rip), %xmm1 # 0x1eec714
vsubss %xmm9, %xmm1, %xmm11
vbroadcastss 0x2780b6(%rip), %xmm6 # 0x1f20ec0
vxorps %xmm6, %xmm9, %xmm1
vmulss %xmm1, %xmm11, %xmm1
vmulss %xmm1, %xmm11, %xmm1
vmulss %xmm9, %xmm9, %xmm12
vmovss 0x2481c9(%rip), %xmm8 # 0x1ef0fec
vmovaps %xmm8, %xmm10
vmovss 0x2481d4(%rip), %xmm7 # 0x1ef1004
vfmadd213ss %xmm7, %xmm9, %xmm10 # xmm10 = (xmm9 * xmm10) + xmm7
vmovaps %xmm10, %xmm2
vmovss 0x2481b7(%rip), %xmm5 # 0x1ef0ff8
vfmadd213ss %xmm5, %xmm12, %xmm2 # xmm2 = (xmm12 * xmm2) + xmm5
vmulss %xmm11, %xmm11, %xmm3
vmovaps %xmm8, %xmm4
vfmadd213ss %xmm7, %xmm11, %xmm4 # xmm4 = (xmm11 * xmm4) + xmm7
vfmadd213ss %xmm5, %xmm3, %xmm4 # xmm4 = (xmm3 * xmm4) + xmm5
vxorps %xmm6, %xmm11, %xmm3
vmulss %xmm3, %xmm9, %xmm3
vmulss %xmm3, %xmm9, %xmm3
vmovss 0x243d13(%rip), %xmm5 # 0x1eecb80
vmulss %xmm5, %xmm1, %xmm1
vmulss %xmm5, %xmm2, %xmm2
vmulss %xmm5, %xmm4, %xmm4
vmulss %xmm5, %xmm3, %xmm3
vbroadcastss %xmm3, %xmm3
vmulps 0x3c0(%rsp), %xmm3, %xmm3
vbroadcastss %xmm4, %xmm4
vfmadd132ps 0x400(%rsp), %xmm3, %xmm4 # xmm4 = (xmm4 * mem) + xmm3
vbroadcastss %xmm2, %xmm2
vfmadd132ps 0x3e0(%rsp), %xmm4, %xmm2 # xmm2 = (xmm2 * mem) + xmm4
vbroadcastss %xmm1, %xmm3
vfmadd132ps 0x420(%rsp), %xmm2, %xmm3 # xmm3 = (xmm3 * mem) + xmm2
vmulss 0x247b1c(%rip), %xmm11, %xmm6 # 0x1ef09dc
vfmadd231ss 0x24813f(%rip), %xmm9, %xmm7 # xmm7 = (xmm9 * mem) + xmm7
vmovaps %xmm7, 0x4f0(%rsp)
vmovss 0x248132(%rip), %xmm1 # 0x1ef100c
vfmadd213ss 0x243ca9(%rip), %xmm9, %xmm1 # xmm1 = (xmm9 * xmm1) + mem
vmovaps %xmm1, 0x4e0(%rsp)
vfmadd213ss 0x247ad7(%rip), %xmm9, %xmm8 # xmm8 = (xmm9 * xmm8) + mem
vmovaps %xmm8, 0x4d0(%rsp)
vmovaps %xmm3, 0x520(%rsp)
vsubps %xmm3, %xmm0, %xmm0
vmovaps %xmm0, 0xc0(%rsp)
vdpps $0x7f, %xmm0, %xmm0, %xmm0
vucomiss 0x242b02(%rip), %xmm0 # 0x1eeba24
vmovaps %xmm9, 0x40(%rsp)
vmovaps %xmm0, 0xa0(%rsp)
jb 0x1ca8f39
vsqrtss %xmm0, %xmm0, %xmm7
jmp 0x1ca8f93
vmovss %xmm10, 0x240(%rsp)
vmovaps %xmm11, 0x220(%rsp)
vmovss %xmm12, 0x110(%rsp)
vmovss %xmm6, 0x100(%rsp)
vzeroupper
callq 0x6aa20
vmovss 0x100(%rsp), %xmm6
vmovss 0x110(%rsp), %xmm12
vmovaps 0x220(%rsp), %xmm11
vmovss 0x240(%rsp), %xmm10
vmovaps 0x40(%rsp), %xmm9
vmovaps %xmm0, %xmm7
vaddss %xmm11, %xmm11, %xmm0
vmulss %xmm0, %xmm9, %xmm1
vfnmadd231ss %xmm11, %xmm11, %xmm1 # xmm1 = -(xmm11 * xmm11) + xmm1
vaddss %xmm9, %xmm9, %xmm2
vmovss 0x24803e(%rip), %xmm4 # 0x1ef0fec
vmulss %xmm4, %xmm9, %xmm3
vmulss %xmm3, %xmm9, %xmm3
vfmadd213ss %xmm3, %xmm2, %xmm10 # xmm10 = (xmm2 * xmm10) + xmm3
vmovaps %xmm4, %xmm2
vmovss 0x248031(%rip), %xmm4 # 0x1ef0ff8
vfmadd213ss %xmm4, %xmm9, %xmm2 # xmm2 = (xmm9 * xmm2) + xmm4
vmulss 0x24801c(%rip), %xmm11, %xmm3 # 0x1ef0ff0
vmulss %xmm3, %xmm11, %xmm3
vfmadd231ss %xmm2, %xmm0, %xmm3 # xmm3 = (xmm0 * xmm2) + xmm3
vfmadd213ss %xmm12, %xmm9, %xmm6 # xmm6 = (xmm9 * xmm6) + xmm12
vmovss 0x243b96(%rip), %xmm5 # 0x1eecb80
vmulss %xmm5, %xmm1, %xmm0
vmulss %xmm5, %xmm10, %xmm1
vmulss %xmm5, %xmm3, %xmm2
vmulss %xmm5, %xmm6, %xmm3
vbroadcastss %xmm3, %xmm3
vmulps 0x3c0(%rsp), %xmm3, %xmm3
vbroadcastss %xmm2, %xmm2
vfmadd132ps 0x400(%rsp), %xmm3, %xmm2 # xmm2 = (xmm2 * mem) + xmm3
vbroadcastss %xmm1, %xmm1
vfmadd132ps 0x3e0(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2
vbroadcastss %xmm0, %xmm12
vfmadd132ps 0x420(%rsp), %xmm1, %xmm12 # xmm12 = (xmm12 * mem) + xmm1
vdpps $0x7f, %xmm12, %xmm12, %xmm0
vxorps %xmm1, %xmm1, %xmm1
vmovss %xmm0, %xmm1, %xmm2 # xmm2 = xmm0[0],xmm1[1,2,3]
vrsqrt14ss %xmm2, %xmm1, %xmm3
vmulss 0x2436c7(%rip), %xmm3, %xmm6 # 0x1eec718
vmulss 0x2436c3(%rip), %xmm0, %xmm8 # 0x1eec71c
vrcp14ss %xmm2, %xmm1, %xmm2
vxorps 0x277e57(%rip){1to4}, %xmm0, %xmm1 # 0x1f20ec0
vmovaps %xmm2, 0x100(%rsp)
vfnmadd213ss %xmm4, %xmm0, %xmm2 # xmm2 = -(xmm0 * xmm2) + xmm4
vmovss %xmm2, 0x38(%rsp)
vucomiss %xmm1, %xmm0
vmovaps %xmm12, 0x240(%rsp)
vmovss %xmm7, 0x220(%rsp)
vmovaps %xmm0, 0x110(%rsp)
jb 0x1ca90a4
vsqrtss %xmm0, %xmm0, %xmm5
jmp 0x1ca90ec
vmovaps %xmm3, 0xf0(%rsp)
vmovss %xmm6, 0x14(%rsp)
vmovss %xmm8, 0x10(%rsp)
vzeroupper
callq 0x6aa20
vmovss 0x10(%rsp), %xmm8
vmovss 0x14(%rsp), %xmm6
vmovaps 0xf0(%rsp), %xmm3
vmovss 0x220(%rsp), %xmm7
vmovaps 0x240(%rsp), %xmm12
vmovaps %xmm0, %xmm5
vmovaps 0xc0(%rsp), %xmm10
vmovaps 0xa0(%rsp), %xmm17
vmulss %xmm3, %xmm8, %xmm0
vmulss %xmm3, %xmm3, %xmm1
vmulss %xmm1, %xmm0, %xmm0
vaddss %xmm0, %xmm6, %xmm0
vbroadcastss %xmm0, %xmm4
vmulps %xmm4, %xmm12, %xmm0
vmovaps %xmm0, 0xf0(%rsp)
vdpps $0x7f, %xmm0, %xmm10, %xmm14
vaddss 0x2435e7(%rip), %xmm7, %xmm13 # 0x1eec714
vmulps %xmm14, %xmm14, %xmm0
vsubps %xmm0, %xmm17, %xmm0
vxorps %xmm2, %xmm2, %xmm2
vmovss %xmm0, %xmm2, %xmm1 # xmm1 = xmm0[0],xmm2[1,2,3]
vrsqrt14ss %xmm1, %xmm2, %xmm15
vmulss 0x2435c8(%rip), %xmm15, %xmm16 # 0x1eec718
vmulss 0x2435c4(%rip), %xmm0, %xmm1 # 0x1eec71c
vmovss %xmm1, 0x14(%rsp)
vucomiss 0x2428be(%rip), %xmm0 # 0x1eeba24
jb 0x1ca9171
vsqrtss %xmm0, %xmm0, %xmm0
jmp 0x1ca91fa
vmovss %xmm13, 0x10(%rsp)
vmovaps %xmm14, 0x4c0(%rsp)
vmovss %xmm5, 0x2c(%rsp)
vmovaps %xmm15, 0x4b0(%rsp)
vmovss %xmm16, 0x28(%rsp)
vmovaps %xmm4, 0x4a0(%rsp)
vzeroupper
callq 0x6aa20
vmovaps 0x4a0(%rsp), %xmm4
vmovss 0x28(%rsp), %xmm16
vmovaps 0x4b0(%rsp), %xmm15
vmovss 0x2c(%rsp), %xmm5
vmovaps 0x4c0(%rsp), %xmm14
vmovss 0x10(%rsp), %xmm13
vmovss 0x220(%rsp), %xmm7
vmovaps 0x240(%rsp), %xmm12
vmovaps 0xa0(%rsp), %xmm17
vmovaps 0xc0(%rsp), %xmm10
vbroadcastss 0x277cc0(%rip), %ymm28 # 0x1f20ec4
vmovaps 0x1c0(%rsp), %ymm26
vmovaps 0x1a0(%rsp), %ymm30
vmovaps 0x180(%rsp), %ymm18
vmovaps 0x320(%rsp), %ymm19
vmovaps 0x300(%rsp), %ymm20
vmovaps 0x160(%rsp), %ymm22
vmovaps 0x2e0(%rsp), %ymm23
vmovaps 0x2c0(%rsp), %ymm24
vmovaps 0x140(%rsp), %ymm25
vmovaps 0x2a0(%rsp), %ymm27
vmovaps 0x280(%rsp), %ymm29
vmovaps 0x260(%rsp), %ymm31
vmovaps 0x40(%rsp), %xmm9
vmovaps 0x80(%rsp), %xmm8
vbroadcastss 0x4d0(%rsp), %xmm1
vmulps 0x3c0(%rsp), %xmm1, %xmm1
vbroadcastss 0x4e0(%rsp), %xmm2
vfmadd132ps 0x400(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1
vbroadcastss 0x4f0(%rsp), %xmm1
vfmadd132ps 0x3e0(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2
vmovss 0x247d3a(%rip), %xmm2 # 0x1ef0ff0
vfmadd213ss 0x247d39(%rip), %xmm9, %xmm2 # xmm2 = (xmm9 * xmm2) + mem
vbroadcastss %xmm2, %xmm2
vfmadd132ps 0x420(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1
vbroadcastss 0x110(%rsp), %xmm1
vmulps %xmm1, %xmm2, %xmm1
vdpps $0x7f, %xmm2, %xmm12, %xmm2
vbroadcastss %xmm2, %xmm2
vmulps %xmm2, %xmm12, %xmm2
vsubps %xmm2, %xmm1, %xmm2
vmovss 0x38(%rsp), %xmm1
vmulss 0x100(%rsp), %xmm1, %xmm3
vmulss 0x34(%rsp), %xmm8, %xmm1
vmovss 0x30(%rsp), %xmm6
vmaxss %xmm1, %xmm6, %xmm1
vbroadcastss %xmm3, %xmm3
vmulps %xmm3, %xmm2, %xmm2
vxorps 0x277b9f(%rip){1to4}, %xmm12, %xmm3 # 0x1f20ec0
vmulps %xmm2, %xmm4, %xmm2
vmovaps 0xf0(%rsp), %xmm11
vdpps $0x7f, %xmm11, %xmm3, %xmm4
vdivss %xmm5, %xmm6, %xmm5
vfmadd213ss %xmm1, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm7) + xmm1
vdpps $0x7f, %xmm2, %xmm10, %xmm2
vfmadd213ss %xmm7, %xmm5, %xmm13 # xmm13 = (xmm5 * xmm13) + xmm7
vaddss %xmm2, %xmm4, %xmm4
vmovaps 0x440(%rsp), %xmm7
vdpps $0x7f, %xmm11, %xmm7, %xmm5
vdpps $0x7f, %xmm3, %xmm10, %xmm3
vmulss 0x14(%rsp), %xmm15, %xmm2
vmulss %xmm15, %xmm15, %xmm6
vmulss %xmm6, %xmm2, %xmm2
vaddss %xmm2, %xmm16, %xmm6
vdpps $0x7f, %xmm7, %xmm10, %xmm7
vfnmadd231ss %xmm4, %xmm14, %xmm3 # xmm3 = -(xmm14 * xmm4) + xmm3
vfnmadd231ss %xmm5, %xmm14, %xmm7 # xmm7 = -(xmm14 * xmm5) + xmm7
vpermilps $0xff, 0x520(%rsp), %xmm2 # xmm2 = mem[3,3,3,3]
vsubss %xmm2, %xmm0, %xmm2
vshufps $0xff, %xmm12, %xmm12, %xmm0 # xmm0 = xmm12[3,3,3,3]
vfmsub213ss %xmm0, %xmm6, %xmm3 # xmm3 = (xmm6 * xmm3) - xmm0
vmulss %xmm6, %xmm7, %xmm6
vmulss %xmm3, %xmm5, %xmm7
vfmsub231ss %xmm6, %xmm4, %xmm7 # xmm7 = (xmm4 * xmm6) - xmm7
vdivss %xmm7, %xmm6, %xmm6
vdivss %xmm7, %xmm3, %xmm3
vdivss %xmm7, %xmm5, %xmm5
vdivss %xmm7, %xmm4, %xmm4
vmulss %xmm6, %xmm14, %xmm6
vmulss %xmm5, %xmm2, %xmm5
vsubss %xmm5, %xmm6, %xmm5
vmulss %xmm3, %xmm14, %xmm3
vmulss %xmm4, %xmm2, %xmm4
vsubss %xmm3, %xmm4, %xmm3
vsubss %xmm5, %xmm9, %xmm9
vsubss %xmm3, %xmm8, %xmm8
vbroadcastss 0x277ade(%rip), %xmm4 # 0x1f20ec4
vandps %xmm4, %xmm14, %xmm3
vucomiss %xmm3, %xmm13
movb $0x1, %al
jbe 0x1ca94c3
vaddss %xmm1, %xmm13, %xmm1
vmovaps 0x480(%rsp), %xmm3
vfmadd231ss 0x248aa8(%rip), %xmm3, %xmm1 # xmm1 = (xmm3 * mem) + xmm1
vandps %xmm4, %xmm2, %xmm2
vucomiss %xmm2, %xmm1
jbe 0x1ca94c3
vaddss 0x490(%rsp), %xmm8, %xmm8
xorl %eax, %eax
vucomiss 0xc(%r15), %xmm8
vmovaps 0x3a0(%rsp), %ymm4
jb 0x1ca94d0
vmovss 0x20(%r15), %xmm5
vucomiss %xmm8, %xmm5
jb 0x1ca94d0
xorl %eax, %eax
vucomiss 0x2425cf(%rip), %xmm9 # 0x1eeba24
jb 0x1ca94d0
vmovss 0x2432b5(%rip), %xmm1 # 0x1eec714
vucomiss %xmm9, %xmm1
jb 0x1ca94d0
vxorps %xmm2, %xmm2, %xmm2
vmovss %xmm17, %xmm2, %xmm1 # xmm1 = xmm17[0],xmm2[1,2,3]
vrsqrt14ss %xmm1, %xmm2, %xmm1
vmulss 0x24329a(%rip), %xmm1, %xmm2 # 0x1eec718
vmulss 0x243294(%rip), %xmm17, %xmm3 # 0x1eec71c
movq 0x18(%rsp), %rcx
movq (%rcx), %rax
movq 0x1e8(%rax), %rax
movq 0x78(%rsp), %rdx
movq (%rax,%rdx,8), %r13
movl 0x24(%r15), %eax
testl %eax, 0x34(%r13)
je 0x1ca94ce
movq 0x10(%rcx), %rax
cmpq $0x0, 0x10(%rax)
jne 0x1ca94e9
cmpq $0x0, 0x48(%r13)
jne 0x1ca94e9
movb $0x1, %r13b
xorl %eax, %eax
jmp 0x1ca94d3
vmovaps 0x3a0(%rsp), %ymm4
jmp 0x1ca94d3
xorl %eax, %eax
xorl %r13d, %r13d
testb %al, %al
je 0x1ca97a0
decq %r14
jne 0x1ca8dd8
jmp 0x1ca979d
vmulss %xmm1, %xmm3, %xmm3
vmulss %xmm1, %xmm1, %xmm1
vmulss %xmm1, %xmm3, %xmm1
vaddss %xmm1, %xmm2, %xmm1
vbroadcastss %xmm1, %xmm1
vmulps %xmm1, %xmm10, %xmm1
vfmadd213ps %xmm12, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm0) + xmm12
vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm12, %xmm12, %xmm3 # xmm3 = xmm12[1,2,0,3]
vmulps %xmm3, %xmm1, %xmm1
vfmsub231ps %xmm2, %xmm12, %xmm1 # xmm1 = (xmm12 * xmm2) - xmm1
vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3]
vshufps $0xd2, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,0,1,3]
vmulps %xmm1, %xmm0, %xmm0
vfmsub231ps %xmm3, %xmm2, %xmm0 # xmm0 = (xmm2 * xmm3) - xmm0
movq 0x18(%rsp), %rdx
movq 0x8(%rdx), %rax
vshufps $0xe9, %xmm0, %xmm0, %xmm1 # xmm1 = xmm0[1,2,2,3]
vmovlps %xmm1, 0x350(%rsp)
vmovss %xmm0, 0x358(%rsp)
vmovss %xmm9, 0x35c(%rsp)
movl $0x0, 0x360(%rsp)
movq 0x70(%rsp), %rcx
movl %ecx, 0x364(%rsp)
movq 0x78(%rsp), %rcx
movl %ecx, 0x368(%rsp)
movl (%rax), %ecx
movl %ecx, 0x36c(%rsp)
movl 0x4(%rax), %eax
movl %eax, 0x370(%rsp)
vmovss %xmm8, 0x20(%r15)
movl $0xffffffff, 0x3c(%rsp) # imm = 0xFFFFFFFF
leaq 0x3c(%rsp), %rax
movq %rax, 0x1f0(%rsp)
movq 0x18(%r13), %rax
movq %rax, 0x1f8(%rsp)
movq 0x8(%rdx), %rax
movq %rax, 0x200(%rsp)
movq %r15, 0x208(%rsp)
leaq 0x350(%rsp), %rax
movq %rax, 0x210(%rsp)
movl $0x1, 0x218(%rsp)
movq 0x48(%r13), %rax
testq %rax, %rax
vmovaps %xmm9, 0x40(%rsp)
vmovaps %xmm8, 0x80(%rsp)
vmovss %xmm5, 0xa0(%rsp)
je 0x1ca96b6
leaq 0x1f0(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0xa0(%rsp), %xmm5
vmovaps 0x80(%rsp), %xmm8
vmovaps 0x40(%rsp), %xmm9
vmovaps 0x260(%rsp), %ymm31
vmovaps 0x280(%rsp), %ymm29
vmovaps 0x2a0(%rsp), %ymm27
vmovaps 0x140(%rsp), %ymm25
vmovaps 0x2c0(%rsp), %ymm24
vmovaps 0x2e0(%rsp), %ymm23
vmovaps 0x160(%rsp), %ymm22
vmovaps 0x300(%rsp), %ymm20
vmovaps 0x320(%rsp), %ymm19
vmovaps 0x180(%rsp), %ymm18
vmovaps 0x1a0(%rsp), %ymm30
vmovaps 0x1c0(%rsp), %ymm26
vmovaps 0x3a0(%rsp), %ymm4
vbroadcastss 0x27781f(%rip), %ymm28 # 0x1f20ec4
movq 0x1f0(%rsp), %rax
cmpl $0x0, (%rax)
je 0x1ca9786
movq 0x18(%rsp), %rax
movq 0x10(%rax), %rcx
movq 0x10(%rcx), %rax
testq %rax, %rax
je 0x1ca9781
testb $0x2, (%rcx)
jne 0x1ca96dc
testb $0x40, 0x3e(%r13)
je 0x1ca9774
leaq 0x1f0(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0xa0(%rsp), %xmm5
vmovaps 0x80(%rsp), %xmm8
vmovaps 0x40(%rsp), %xmm9
vmovaps 0x260(%rsp), %ymm31
vmovaps 0x280(%rsp), %ymm29
vmovaps 0x2a0(%rsp), %ymm27
vmovaps 0x140(%rsp), %ymm25
vmovaps 0x2c0(%rsp), %ymm24
vmovaps 0x2e0(%rsp), %ymm23
vmovaps 0x160(%rsp), %ymm22
vmovaps 0x300(%rsp), %ymm20
vmovaps 0x320(%rsp), %ymm19
vmovaps 0x180(%rsp), %ymm18
vmovaps 0x1a0(%rsp), %ymm30
vmovaps 0x1c0(%rsp), %ymm26
vmovaps 0x3a0(%rsp), %ymm4
vbroadcastss 0x277750(%rip), %ymm28 # 0x1f20ec4
movq 0x1f0(%rsp), %rax
cmpl $0x0, (%rax)
je 0x1ca9786
movb $0x1, %r13b
jmp 0x1ca9789
xorl %r13d, %r13d
testb %r13b, %r13b
jne 0x1ca94bf
vmovss %xmm5, 0x20(%r15)
jmp 0x1ca94bf
xorl %r13d, %r13d
andb $0x1, %r13b
orb %r13b, %bl
vmovaps 0x560(%rsp), %ymm0
vcmpleps 0x20(%r15){1to8}, %ymm0, %k0
kmovd %k0, %eax
andb %al, %r12b
movq 0x398(%rsp), %r11
jne 0x1ca8cee
jmp 0x1ca97d3
vmovaps %ymm3, %ymm4
vmovdqa 0x5c0(%rsp), %ymm1
vpcmpltd 0x540(%rsp), %ymm1, %k1
vmovaps 0x620(%rsp), %ymm0
vpcmpltd 0x6a0(%rsp), %ymm1, %k2
vaddps %ymm0, %ymm4, %ymm1
vbroadcastss 0x20(%r15), %ymm2
vcmpleps %ymm2, %ymm1, %k0 {%k2}
kmovd %k0, %eax
movl 0x138(%rsp), %ecx
andb %al, %cl
vmovaps 0x660(%rsp), %ymm1
vaddps %ymm1, %ymm4, %ymm3
vcmpleps %ymm2, %ymm3, %k0 {%k1}
kmovd %k0, %eax
movl 0x24(%rsp), %edx
andb %al, %dl
orb %cl, %dl
je 0x1ca9882
movl %r11d, %eax
leaq (%rax,%rax,2), %rax
shlq $0x5, %rax
movb %dl, 0x7c0(%rsp,%rax)
kmovd %ecx, %k1
vmovaps %ymm0, %ymm1 {%k1}
vmovaps %ymm1, 0x7e0(%rsp,%rax)
vmovaps 0x470(%rsp), %xmm0
vmovlps %xmm0, 0x800(%rsp,%rax)
movq 0x128(%rsp), %rcx
incl %ecx
movl %ecx, 0x808(%rsp,%rax)
incl %r11d
movq 0x388(%rsp), %r9
movq 0x18(%rsp), %rdx
vbroadcastss 0x242e7c(%rip), %ymm3 # 0x1eec714
movb 0xf(%rsp), %al
movq 0x390(%rsp), %r14
movq 0x70(%rsp), %r12
vbroadcastss 0x20(%r15), %ymm0
testl %r11d, %r11d
je 0x1ca9a42
leal -0x1(%r11), %r8d
leaq (%r8,%r8,2), %rcx
shlq $0x5, %rcx
movzbl 0x7c0(%rsp,%rcx), %esi
vmovaps 0x7e0(%rsp,%rcx), %ymm1
vaddps %ymm1, %ymm4, %ymm2
vcmpleps %ymm0, %ymm2, %k0
kmovb %k0, %r10d
andl %esi, %r10d
je 0x1ca99b7
kmovd %r10d, %k1
vbroadcastss 0x242125(%rip), %ymm2 # 0x1eeba20
vblendmps %ymm1, %ymm2, %ymm1 {%k1}
vshufps $0xb1, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2,5,4,7,6]
vminps %ymm2, %ymm1, %ymm2
vshufpd $0x5, %ymm2, %ymm2, %ymm3 # ymm3 = ymm2[1,0,3,2]
vminps %ymm3, %ymm2, %ymm2
vpermpd $0x4e, %ymm2, %ymm3 # ymm3 = ymm2[2,3,0,1]
vminps %ymm3, %ymm2, %ymm2
vcmpeqps %ymm2, %ymm1, %k0
kmovd %k0, %esi
andb %r10b, %sil
je 0x1ca9933
movzbl %sil, %edi
jmp 0x1ca9937
movzbl %r10b, %edi
leaq (%rsp,%rcx), %rsi
addq $0x7c0, %rsi # imm = 0x7C0
vmovss 0x44(%rsi), %xmm1
tzcntl %edi, %ecx
movb $0x1, %dil
shlb %cl, %dil
movl 0x48(%rsi), %r13d
movq %r13, 0x128(%rsp)
movzbl %dil, %edi
kmovd %edi, %k0
kmovd %r10d, %k1
kandnb %k1, %k0, %k0
kmovb %k0, (%rsi)
kortestb %k0, %k0
vbroadcastss 0x242d95(%rip), %ymm3 # 0x1eec714
je 0x1ca9984
movl %r11d, %r8d
vbroadcastss 0x40(%rsi), %ymm2
vsubss %xmm2, %xmm1, %xmm1
vbroadcastss %xmm1, %ymm1
vfmadd132ps 0x277584(%rip), %ymm2, %ymm1 # ymm1 = (ymm1 * mem) + ymm2
vmovaps %ymm1, 0x620(%rsp)
vmovsd 0x620(%rsp,%rcx,4), %xmm1
vmovaps %xmm1, 0x470(%rsp)
movl %r8d, %r11d
testb %r10b, %r10b
vpbroadcastd 0x2774fa(%rip), %ymm1 # 0x1f20ec0
je 0x1ca98af
vmovaps 0x720(%rsp), %ymm16
vmovaps 0x700(%rsp), %ymm6
vmovaps 0x6e0(%rsp), %ymm21
vmovaps 0x470(%rsp), %xmm2
jmp 0x1ca743e
vcmpleps 0x277502(%rip), %ymm4, %k2 # 0x1f20f00
vbroadcastss 0x24317d(%rip), %ymm4 # 0x1eecb84
vbroadcastss 0x24200f(%rip), %ymm16 # 0x1eeba20
vblendmps %ymm4, %ymm16, %ymm3 {%k2}
vmovaps %ymm3, %ymm31 {%k1}
vblendmps %ymm16, %ymm4, %ymm3 {%k2}
kmovd %k2, %ecx
vmovaps %ymm3, %ymm30 {%k1}
knotb %k1, %k0
kmovd %k0, %esi
orb %cl, %sil
andb %dil, %sil
movl %esi, %edi
jmp 0x1ca79d8
testb $0x1, %bl
jne 0x1ca9a68
vmovaps 0x6c0(%rsp), %ymm0
vcmpleps 0x20(%r15){1to8}, %ymm0, %k0
kmovb %k0, %eax
andl %eax, %r14d
setne %al
jne 0x1ca7148
andb $0x1, %al
leaq -0x28(%rbp), %rsp
popq %rbx
popq %r12
popq %r13
popq %r14
popq %r15
popq %rbp
vzeroupper
retq
|
/embree[P]embree/kernels/geometry/curveNi_intersector.h
|
void embree::avx512::CurveNiIntersectorK<8, 4>::intersect_t<embree::avx512::SweepCurve1IntersectorK<embree::CatmullRomCurveT, 4>, embree::avx512::Intersect1KEpilog1<4, true>>(embree::avx512::CurvePrecalculationsK<4>&, embree::RayHitK<4>&, unsigned long, embree::RayQueryContext*, embree::CurveNi<8> const&)
|
static __forceinline void intersect_t(Precalculations& pre, RayHitK<K>& ray, const size_t k, RayQueryContext* context, const Primitive& prim)
{
vfloat<M> tNear;
vbool<M> valid = intersect(ray,k,prim,tNear);
const size_t N = prim.N;
size_t mask = movemask(valid);
while (mask)
{
const size_t i = bscf(mask);
STAT3(normal.trav_prims,1,1,1);
const unsigned int geomID = prim.geomID(N);
const unsigned int primID = prim.primID(N)[i];
const CurveGeometry* geom = context->scene->get<CurveGeometry>(geomID);
Vec3ff a0,a1,a2,a3; geom->gather(a0,a1,a2,a3,geom->curve(primID));
size_t mask1 = mask;
const size_t i1 = bscf(mask1);
if (mask) {
const unsigned int primID1 = prim.primID(N)[i1];
geom->prefetchL1_vertices(geom->curve(primID1));
if (mask1) {
const size_t i2 = bsf(mask1);
const unsigned int primID2 = prim.primID(N)[i2];
geom->prefetchL2_vertices(geom->curve(primID2));
}
}
Intersector().intersect(pre,ray,k,context,geom,primID,a0,a1,a2,a3,Epilog(ray,k,context,geomID,primID));
mask &= movemask(tNear <= vfloat<M>(ray.tfar[k]));
}
}
|
pushq %rbp
movq %rsp, %rbp
pushq %r15
pushq %r14
pushq %r13
pushq %r12
pushq %rbx
andq $-0x20, %rsp
subq $0x9e0, %rsp # imm = 0x9E0
movq %rcx, %r15
movq %rsi, %r12
movzbl 0x1(%r8), %ecx
leaq (%rcx,%rcx,4), %rax
leaq (%rax,%rax,4), %rsi
vbroadcastss 0x12(%r8,%rsi), %xmm0
vmovss (%r12,%rdx,4), %xmm1
vmovss 0x40(%r12,%rdx,4), %xmm2
vinsertps $0x10, 0x10(%r12,%rdx,4), %xmm1, %xmm1 # xmm1 = xmm1[0],mem[0],xmm1[2,3]
vinsertps $0x20, 0x20(%r12,%rdx,4), %xmm1, %xmm1 # xmm1 = xmm1[0,1],mem[0],xmm1[3]
vinsertps $0x10, 0x50(%r12,%rdx,4), %xmm2, %xmm2 # xmm2 = xmm2[0],mem[0],xmm2[2,3]
vinsertps $0x20, 0x60(%r12,%rdx,4), %xmm2, %xmm2 # xmm2 = xmm2[0,1],mem[0],xmm2[3]
vsubps 0x6(%r8,%rsi), %xmm1, %xmm1
vmulps %xmm1, %xmm0, %xmm3
vmulps %xmm2, %xmm0, %xmm0
vpmovsxbd 0x6(%r8,%rcx,4), %ymm1
vpmovsxbd 0x6(%r8,%rax), %ymm2
vcvtdq2ps %ymm1, %ymm5
vcvtdq2ps %ymm2, %ymm6
leaq (%rcx,%rcx,2), %r9
vpmovsxbd 0x6(%r8,%r9,2), %ymm1
vcvtdq2ps %ymm1, %ymm4
leaq (%rcx,%rax,2), %rsi
vpmovsxbd 0x6(%r8,%rsi), %ymm1
leal (,%r9,4), %esi
vpmovsxbd 0x6(%r8,%rsi), %ymm2
vcvtdq2ps %ymm1, %ymm7
vcvtdq2ps %ymm2, %ymm8
addq %rcx, %rsi
vpmovsxbd 0x6(%r8,%rsi), %ymm1
vcvtdq2ps %ymm1, %ymm9
leaq (%rcx,%rcx,8), %rsi
leal (%rsi,%rsi), %edi
vpmovsxbd 0x6(%r8,%rdi), %ymm1
vcvtdq2ps %ymm1, %ymm10
addq %rcx, %rdi
vpmovsxbd 0x6(%r8,%rdi), %ymm1
vcvtdq2ps %ymm1, %ymm11
shll $0x2, %eax
vpmovsxbd 0x6(%r8,%rax), %ymm1
vcvtdq2ps %ymm1, %ymm12
vbroadcastss %xmm0, %ymm13
vbroadcastss 0x268b89(%rip), %ymm15 # 0x1f12704
vbroadcastss 0x277357(%rip), %ymm16 # 0x1f20edc
vpermps %ymm0, %ymm15, %ymm14
vpermps %ymm0, %ymm16, %ymm0
vmulps %ymm4, %ymm0, %ymm2
vmulps %ymm0, %ymm9, %ymm1
vmulps %ymm0, %ymm12, %ymm0
vfmadd231ps %ymm6, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm6) + ymm2
vfmadd231ps %ymm8, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm8) + ymm1
vfmadd231ps %ymm14, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm14) + ymm0
vfmadd231ps %ymm5, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm5) + ymm2
vfmadd231ps %ymm7, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm7) + ymm1
vfmadd231ps %ymm13, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm13) + ymm0
vbroadcastss %xmm3, %ymm13
vpermps %ymm3, %ymm15, %ymm14
vpermps %ymm3, %ymm16, %ymm3
vmulps %ymm4, %ymm3, %ymm15
vmulps %ymm3, %ymm9, %ymm4
vmulps %ymm3, %ymm12, %ymm3
vfmadd231ps %ymm6, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm6) + ymm15
vfmadd231ps %ymm8, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm8) + ymm4
vfmadd231ps %ymm11, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm11) + ymm3
vfmadd231ps %ymm5, %ymm13, %ymm15 # ymm15 = (ymm13 * ymm5) + ymm15
vfmadd231ps %ymm7, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm7) + ymm4
vbroadcastss 0x2772cc(%rip), %ymm6 # 0x1f20ec4
vfmadd231ps %ymm10, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm10) + ymm3
vandps %ymm6, %ymm2, %ymm5
vbroadcastss 0x2473de(%rip), %ymm7 # 0x1ef0fe8
vcmpltps %ymm7, %ymm5, %k1
vmovaps %ymm7, %ymm2 {%k1}
vandps %ymm6, %ymm1, %ymm5
vcmpltps %ymm7, %ymm5, %k1
vmovaps %ymm7, %ymm1 {%k1}
vandps %ymm6, %ymm0, %ymm5
vcmpltps %ymm7, %ymm5, %k1
vmovaps %ymm7, %ymm0 {%k1}
vrcp14ps %ymm2, %ymm5
vbroadcastss 0x242acc(%rip), %ymm6 # 0x1eec714
vfnmadd213ps %ymm6, %ymm5, %ymm2 # ymm2 = -(ymm5 * ymm2) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm2 # ymm2 = (ymm2 * ymm5) + ymm5
vrcp14ps %ymm1, %ymm5
vfnmadd213ps %ymm6, %ymm5, %ymm1 # ymm1 = -(ymm5 * ymm1) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm1 # ymm1 = (ymm1 * ymm5) + ymm5
vrcp14ps %ymm0, %ymm5
vfnmadd213ps %ymm6, %ymm5, %ymm0 # ymm0 = -(ymm5 * ymm0) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm0 # ymm0 = (ymm0 * ymm5) + ymm5
leaq (,%rcx,8), %rdi
subq %rcx, %rdi
vpmovsxwd 0x6(%r8,%rdi), %ymm5
vcvtdq2ps %ymm5, %ymm5
vsubps %ymm15, %ymm5, %ymm5
vmulps %ymm5, %ymm2, %ymm5
vpmovsxwd 0x6(%r8,%rsi), %ymm6
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm15, %ymm6, %ymm6
leaq (%rcx,%rcx), %rsi
addq %rcx, %rax
shlq $0x3, %r9
subq %rcx, %r9
vpbroadcastd %ecx, %ymm7
shll $0x4, %ecx
vpmovsxwd 0x6(%r8,%rcx), %ymm8
vmulps %ymm6, %ymm2, %ymm2
subq %rsi, %rcx
vpmovsxwd 0x6(%r8,%rcx), %ymm6
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm4, %ymm6, %ymm6
vmulps %ymm6, %ymm1, %ymm6
vcvtdq2ps %ymm8, %ymm8
vsubps %ymm4, %ymm8, %ymm4
vmulps %ymm4, %ymm1, %ymm1
vpmovsxwd 0x6(%r8,%rax), %ymm4
vcvtdq2ps %ymm4, %ymm4
vsubps %ymm3, %ymm4, %ymm4
vmulps %ymm0, %ymm4, %ymm4
vpmovsxwd 0x6(%r8,%r9), %ymm8
vcvtdq2ps %ymm8, %ymm8
vsubps %ymm3, %ymm8, %ymm3
vmulps %ymm3, %ymm0, %ymm0
vpminsd %ymm2, %ymm5, %ymm3
vpminsd %ymm1, %ymm6, %ymm8
vmaxps %ymm8, %ymm3, %ymm3
vpminsd %ymm0, %ymm4, %ymm8
vmaxps 0x30(%r12,%rdx,4){1to8}, %ymm8, %ymm8
vmaxps %ymm8, %ymm3, %ymm3
vmulps 0x2761d8(%rip){1to8}, %ymm3, %ymm3 # 0x1f1ff10
vpmaxsd %ymm2, %ymm5, %ymm2
vpmaxsd %ymm1, %ymm6, %ymm1
vminps %ymm1, %ymm2, %ymm1
vpmaxsd %ymm0, %ymm4, %ymm0
movq %rdx, 0x18(%rsp)
vminps 0x80(%r12,%rdx,4){1to8}, %ymm0, %ymm0
vminps %ymm0, %ymm1, %ymm0
vmulps 0x2761ae(%rip){1to8}, %ymm0, %ymm0 # 0x1f1ff14
vpcmpgtd 0x2b0bb0(%rip), %ymm7, %k0 # 0x1f5a920
vmovaps %ymm3, 0x620(%rsp)
vcmpleps %ymm0, %ymm3, %k1
ktestb %k0, %k1
je 0x1cac7ef
kandb %k0, %k1, %k0
kmovd %k0, %eax
movzbl %al, %r10d
movl $0x1, %eax
movq 0x18(%rsp), %rcx
shlxl %ecx, %eax, %eax
kmovd %eax, %k0
vpmovm2d %k0, %xmm0
vmovdqa %xmm0, 0x410(%rsp)
movq %r15, 0x28(%rsp)
movq %r8, 0x1e0(%rsp)
tzcntq %r10, %rax
movl 0x2(%r8), %ecx
movl 0x6(%r8,%rax,4), %edi
movq (%r15), %rax
movq 0x1e8(%rax), %rax
movq %rcx, 0x50(%rsp)
movq (%rax,%rcx,8), %rsi
movq 0x58(%rsi), %rax
movq 0x68(%rsi), %rcx
movq %rcx, %rdx
movq %rdi, 0x130(%rsp)
imulq %rdi, %rdx
movl (%rax,%rdx), %edi
movq 0xa0(%rsi), %rdx
movq %rdx, %r9
imulq %rdi, %r9
movq 0x90(%rsi), %rsi
vmovaps (%rsi,%r9), %xmm1
leaq 0x1(%rdi), %r9
imulq %rdx, %r9
vmovaps (%rsi,%r9), %xmm0
leaq 0x2(%rdi), %r9
imulq %rdx, %r9
vmovaps (%rsi,%r9), %xmm2
blsrq %r10, %r10
addq $0x3, %rdi
imulq %rdx, %rdi
vmovaps (%rsi,%rdi), %xmm3
movq %r10, %rdi
subq $0x1, %rdi
jb 0x1ca9e99
andq %r10, %rdi
tzcntq %r10, %r9
movl 0x6(%r8,%r9,4), %r9d
imulq %rcx, %r9
movl (%rax,%r9), %r9d
imulq %rdx, %r9
prefetcht0 (%rsi,%r9)
prefetcht0 0x40(%rsi,%r9)
testq %rdi, %rdi
je 0x1ca9e99
tzcntq %rdi, %rdi
movl 0x6(%r8,%rdi,4), %edi
imulq %rdi, %rcx
movl (%rax,%rcx), %eax
imulq %rax, %rdx
prefetcht1 (%rsi,%rdx)
prefetcht1 0x40(%rsi,%rdx)
movq 0x18(%rsp), %rax
vmovss (%r12,%rax,4), %xmm4
vinsertps $0x1c, 0x10(%r12,%rax,4), %xmm4, %xmm4 # xmm4 = xmm4[0],mem[0],zero,zero
vinsertps $0x28, 0x20(%r12,%rax,4), %xmm4, %xmm4 # xmm4 = xmm4[0,1],mem[0],zero
vbroadcastss 0x40(%r12,%rax,4), %ymm30
vbroadcastss 0x50(%r12,%rax,4), %ymm31
vunpcklps %xmm31, %xmm30, %xmm5 # xmm5 = xmm30[0],xmm31[0],xmm30[1],xmm31[1]
vbroadcastss 0x60(%r12,%rax,4), %ymm21
vinsertps $0x28, %xmm21, %xmm5, %xmm9 # xmm9 = xmm5[0,1],xmm21[0],zero
vaddps %xmm0, %xmm1, %xmm5
vmulps 0x242c99(%rip){1to4}, %xmm5, %xmm5 # 0x1eecb80
vsubps %xmm4, %xmm5, %xmm5
vdpps $0x7f, %xmm9, %xmm5, %xmm5
vmovss 0x30(%r12,%rax,4), %xmm10
vdpps $0x7f, %xmm9, %xmm9, %xmm11
vxorps %xmm8, %xmm8, %xmm8
vmovss %xmm11, %xmm8, %xmm6
vrcp14ss %xmm6, %xmm8, %xmm6
vmovaps %xmm6, %xmm7
vfnmadd213ss 0x2470de(%rip), %xmm11, %xmm7 # xmm7 = -(xmm11 * xmm7) + mem
vmulss %xmm7, %xmm6, %xmm6
vmulss %xmm6, %xmm5, %xmm5
vbroadcastss %xmm5, %ymm6
vmovaps %xmm9, 0x270(%rsp)
vmovaps %ymm6, 0x380(%rsp)
vfmadd231ps %xmm6, %xmm9, %xmm4 # xmm4 = (xmm9 * xmm6) + xmm4
vblendps $0x8, %xmm8, %xmm4, %xmm4 # xmm4 = xmm4[0,1,2],xmm8[3]
vsubps %xmm4, %xmm1, %xmm6
vsubps %xmm4, %xmm2, %xmm7
vsubps %xmm4, %xmm0, %xmm8
vsubps %xmm4, %xmm3, %xmm3
vbroadcastss %xmm6, %ymm0
vmovaps %ymm0, 0x5a0(%rsp)
vbroadcastss 0x268799(%rip), %ymm0 # 0x1f12704
vpermps %ymm6, %ymm0, %ymm1
vmovaps %ymm1, 0x840(%rsp)
vbroadcastss 0x276f5a(%rip), %ymm1 # 0x1f20edc
vpermps %ymm6, %ymm1, %ymm2
vmovaps %ymm2, 0x820(%rsp)
vbroadcastss 0x276f3f(%rip), %ymm2 # 0x1f20ed8
vmovaps %ymm6, 0x2e0(%rsp)
vpermps %ymm6, %ymm2, %ymm4
vmovaps %ymm4, 0x800(%rsp)
vbroadcastss %xmm8, %ymm4
vmovaps %ymm4, 0x7e0(%rsp)
vpermps %ymm8, %ymm0, %ymm4
vmovaps %ymm4, 0x7c0(%rsp)
vpermps %ymm8, %ymm1, %ymm4
vmovaps %ymm4, 0x7a0(%rsp)
vmovaps %ymm8, 0x2a0(%rsp)
vpermps %ymm8, %ymm2, %ymm4
vmovaps %ymm4, 0x780(%rsp)
vbroadcastss %xmm7, %ymm4
vmovaps %ymm4, 0x760(%rsp)
vpermps %ymm7, %ymm0, %ymm4
vmovaps %ymm4, 0x740(%rsp)
vpermps %ymm7, %ymm1, %ymm4
vmovaps %ymm4, 0x720(%rsp)
vmovaps %ymm7, 0x2c0(%rsp)
vpermps %ymm7, %ymm2, %ymm4
vmovaps %ymm4, 0x700(%rsp)
vbroadcastss %xmm3, %ymm4
vmovaps %ymm4, 0x6e0(%rsp)
vpermps %ymm3, %ymm0, %ymm0
vmovaps %ymm0, 0x6c0(%rsp)
vpermps %ymm3, %ymm1, %ymm0
vmovaps %ymm0, 0x6a0(%rsp)
vmovaps %ymm3, 0x280(%rsp)
vpermps %ymm3, %ymm2, %ymm0
vmovaps %ymm0, 0x680(%rsp)
vmulss %xmm21, %xmm21, %xmm0
vfmadd231ps %ymm31, %ymm31, %ymm0 # ymm0 = (ymm31 * ymm31) + ymm0
vfmadd231ps %ymm30, %ymm30, %ymm0 # ymm0 = (ymm30 * ymm30) + ymm0
vbroadcastss %xmm0, %ymm0
vmovaps %ymm0, 0x660(%rsp)
vandps 0x276e27(%rip){1to8}, %ymm0, %ymm0 # 0x1f20ec4
vmovaps %ymm0, 0x580(%rsp)
vmovss %xmm10, 0x5c(%rsp)
vmovaps %xmm5, 0x320(%rsp)
vsubss %xmm5, %xmm10, %xmm0
vbroadcastss %xmm0, %ymm0
vmovaps %ymm0, 0x640(%rsp)
movq 0x50(%rsp), %rax
vpbroadcastd %eax, %xmm0
vmovdqa %xmm0, 0x430(%rsp)
movl $0x1, %r11d
xorl %r9d, %r9d
movq 0x130(%rsp), %rax
vpbroadcastd %eax, %xmm0
vmovdqa %xmm0, 0x420(%rsp)
vsqrtss %xmm11, %xmm11, %xmm0
vmovss %xmm0, 0x14c(%rsp)
vmovaps %xmm11, 0x260(%rsp)
vsqrtss %xmm11, %xmm11, %xmm0
vmovss %xmm0, 0x148(%rsp)
vmovsd 0x2425c8(%rip), %xmm2 # 0x1eec6f0
vbroadcastss 0x2425e2(%rip), %ymm16 # 0x1eec714
vmovaps %ymm30, 0x240(%rsp)
vmovaps %ymm31, 0x220(%rsp)
vmovaps %ymm21, 0x200(%rsp)
vmovshdup %xmm2, %xmm0 # xmm0 = xmm2[1,1,3,3]
vsubss %xmm2, %xmm0, %xmm0
vmulss 0x276d76(%rip), %xmm0, %xmm1 # 0x1f20ed0
vmovaps %xmm1, 0x60(%rsp)
vmovaps %xmm2, 0x1d0(%rsp)
vbroadcastss %xmm2, %ymm4
vbroadcastss %xmm0, %ymm0
vmovaps %ymm4, 0xa0(%rsp)
vmovaps %ymm0, 0x80(%rsp)
vfmadd231ps 0x276d92(%rip), %ymm0, %ymm4 # ymm4 = (ymm0 * mem) + ymm4
vsubps %ymm4, %ymm16, %ymm7
vbroadcastss 0x276d22(%rip), %ymm26 # 0x1f20ec0
vxorps %ymm26, %ymm4, %ymm0
vmulps %ymm0, %ymm7, %ymm0
vmulps %ymm0, %ymm7, %ymm0
vmulps %ymm4, %ymm4, %ymm3
vmovaps %ymm3, 0xc0(%rsp)
vbroadcastss 0x246e2a(%rip), %ymm2 # 0x1ef0fec
vmulps %ymm2, %ymm4, %ymm9
vbroadcastss 0x246e35(%rip), %ymm5 # 0x1ef1004
vaddps %ymm5, %ymm9, %ymm10
vmulps %ymm3, %ymm10, %ymm1
vbroadcastss 0x246e18(%rip), %ymm3 # 0x1ef0ff8
vaddps %ymm3, %ymm1, %ymm1
vmulps %ymm7, %ymm7, %ymm11
vmulps %ymm2, %ymm7, %ymm8
vaddps %ymm5, %ymm8, %ymm2
vmulps %ymm2, %ymm11, %ymm2
vaddps %ymm3, %ymm2, %ymm2
vxorps %ymm26, %ymm7, %ymm5
vmulps %ymm5, %ymm4, %ymm5
vmulps %ymm5, %ymm4, %ymm5
vbroadcastss 0x242970(%rip), %ymm17 # 0x1eecb80
vmulps %ymm17, %ymm0, %ymm13
vmulps %ymm17, %ymm1, %ymm14
vmulps %ymm17, %ymm2, %ymm15
vmulps %ymm17, %ymm5, %ymm5
vmovaps 0x6e0(%rsp), %ymm26
vmulps %ymm5, %ymm26, %ymm1
vmovaps 0x6c0(%rsp), %ymm12
vmulps %ymm5, %ymm12, %ymm0
vmovaps 0x6a0(%rsp), %ymm16
vmulps %ymm5, %ymm16, %ymm2
vmovaps 0x680(%rsp), %ymm6
vmulps %ymm5, %ymm6, %ymm5
vmovaps 0x760(%rsp), %ymm25
vfmadd231ps %ymm25, %ymm15, %ymm1 # ymm1 = (ymm15 * ymm25) + ymm1
vmovaps 0x740(%rsp), %ymm27
vfmadd231ps %ymm27, %ymm15, %ymm0 # ymm0 = (ymm15 * ymm27) + ymm0
vmovaps 0x720(%rsp), %ymm28
vfmadd231ps %ymm28, %ymm15, %ymm2 # ymm2 = (ymm15 * ymm28) + ymm2
vmovaps 0x700(%rsp), %ymm29
vfmadd231ps %ymm15, %ymm29, %ymm5 # ymm5 = (ymm29 * ymm15) + ymm5
vmovaps 0x7e0(%rsp), %ymm20
vfmadd231ps %ymm20, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm20) + ymm1
vmovaps 0x7c0(%rsp), %ymm22
vfmadd231ps %ymm22, %ymm14, %ymm0 # ymm0 = (ymm14 * ymm22) + ymm0
vmovaps 0x7a0(%rsp), %ymm23
vfmadd231ps %ymm23, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm23) + ymm2
vmovaps 0x780(%rsp), %ymm24
vfmadd231ps %ymm14, %ymm24, %ymm5 # ymm5 = (ymm24 * ymm14) + ymm5
vfmadd231ps 0x5a0(%rsp), %ymm13, %ymm1 # ymm1 = (ymm13 * mem) + ymm1
vmovaps 0x840(%rsp), %ymm3
vfmadd231ps %ymm3, %ymm13, %ymm0 # ymm0 = (ymm13 * ymm3) + ymm0
vmovaps 0x820(%rsp), %ymm18
vfmadd231ps %ymm18, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm18) + ymm2
vmovaps 0x800(%rsp), %ymm19
vfmadd231ps %ymm13, %ymm19, %ymm5 # ymm5 = (ymm19 * ymm13) + ymm5
vaddps %ymm7, %ymm7, %ymm13
vmulps %ymm4, %ymm13, %ymm14
vsubps %ymm11, %ymm14, %ymm11
vaddps %ymm4, %ymm4, %ymm15
vmulps %ymm10, %ymm15, %ymm10
vmulps %ymm4, %ymm9, %ymm4
vaddps %ymm4, %ymm10, %ymm4
vaddps 0x246cce(%rip){1to8}, %ymm9, %ymm9 # 0x1ef0ff8
vmulps %ymm9, %ymm13, %ymm9
vmulps %ymm7, %ymm8, %ymm7
vsubps %ymm7, %ymm9, %ymm7
vmovaps 0xc0(%rsp), %ymm8
vsubps %ymm14, %ymm8, %ymm8
vmulps %ymm17, %ymm11, %ymm9
vmulps %ymm17, %ymm4, %ymm4
vmulps %ymm17, %ymm7, %ymm7
vmulps %ymm17, %ymm8, %ymm8
vmulps %ymm8, %ymm26, %ymm10
vmulps %ymm8, %ymm12, %ymm12
vmulps %ymm8, %ymm16, %ymm13
vmovaps %ymm2, %ymm26
vmulps %ymm6, %ymm8, %ymm8
vfmadd231ps %ymm25, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm25) + ymm10
vfmadd231ps %ymm27, %ymm7, %ymm12 # ymm12 = (ymm7 * ymm27) + ymm12
vfmadd231ps %ymm28, %ymm7, %ymm13 # ymm13 = (ymm7 * ymm28) + ymm13
vfmadd231ps %ymm7, %ymm29, %ymm8 # ymm8 = (ymm29 * ymm7) + ymm8
vfmadd231ps %ymm20, %ymm4, %ymm10 # ymm10 = (ymm4 * ymm20) + ymm10
vfmadd231ps %ymm22, %ymm4, %ymm12 # ymm12 = (ymm4 * ymm22) + ymm12
vfmadd231ps %ymm23, %ymm4, %ymm13 # ymm13 = (ymm4 * ymm23) + ymm13
vfmadd231ps %ymm4, %ymm24, %ymm8 # ymm8 = (ymm24 * ymm4) + ymm8
vfmadd231ps 0x5a0(%rsp), %ymm9, %ymm10 # ymm10 = (ymm9 * mem) + ymm10
vfmadd231ps %ymm3, %ymm9, %ymm12 # ymm12 = (ymm9 * ymm3) + ymm12
vfmadd231ps %ymm18, %ymm9, %ymm13 # ymm13 = (ymm9 * ymm18) + ymm13
vfmadd231ps %ymm9, %ymm19, %ymm8 # ymm8 = (ymm19 * ymm9) + ymm8
vbroadcastss 0x60(%rsp), %ymm4
vmulps %ymm4, %ymm10, %ymm11
vmulps %ymm4, %ymm12, %ymm12
vmulps %ymm4, %ymm13, %ymm13
vmulps %ymm4, %ymm8, %ymm6
vmovaps %ymm1, %ymm8
vmovaps 0x2b593a(%rip), %ymm7 # 0x1f5fd20
vmovaps %ymm31, %ymm3
vxorps %xmm31, %xmm31, %xmm31
vpermt2ps %ymm31, %ymm7, %ymm8
vmovaps %ymm0, %ymm9
vpermt2ps %ymm31, %ymm7, %ymm9
vmovaps %ymm2, %ymm10
vpermt2ps %ymm31, %ymm7, %ymm10
vaddps %ymm6, %ymm5, %ymm4
vmaxps %ymm4, %ymm5, %ymm14
vminps %ymm4, %ymm5, %ymm4
vmovaps %ymm5, %ymm15
vpermt2ps %ymm31, %ymm7, %ymm15
vmovaps %ymm11, %ymm19
vpermt2ps %ymm31, %ymm7, %ymm19
vmovaps %ymm12, %ymm20
vpermt2ps %ymm31, %ymm7, %ymm20
vmovaps %ymm13, %ymm2
vpermt2ps %ymm31, %ymm7, %ymm2
vpermt2ps %ymm31, %ymm7, %ymm6
vsubps %ymm6, %ymm15, %ymm16
vmovaps %ymm8, 0x60(%rsp)
vsubps %ymm1, %ymm8, %ymm7
vsubps %ymm0, %ymm9, %ymm6
vsubps %ymm26, %ymm10, %ymm5
vmulps %ymm13, %ymm6, %ymm17
vfmsub231ps %ymm5, %ymm12, %ymm17 # ymm17 = (ymm12 * ymm5) - ymm17
vmulps %ymm11, %ymm5, %ymm18
vfmsub231ps %ymm7, %ymm13, %ymm18 # ymm18 = (ymm13 * ymm7) - ymm18
vmulps %ymm12, %ymm7, %ymm22
vfmsub231ps %ymm6, %ymm11, %ymm22 # ymm22 = (ymm11 * ymm6) - ymm22
vmulps %ymm22, %ymm22, %ymm22
vfmadd231ps %ymm18, %ymm18, %ymm22 # ymm22 = (ymm18 * ymm18) + ymm22
vfmadd231ps %ymm17, %ymm17, %ymm22 # ymm22 = (ymm17 * ymm17) + ymm22
vmulps %ymm5, %ymm5, %ymm17
vfmadd231ps %ymm6, %ymm6, %ymm17 # ymm17 = (ymm6 * ymm6) + ymm17
vfmadd231ps %ymm7, %ymm7, %ymm17 # ymm17 = (ymm7 * ymm7) + ymm17
vrcp14ps %ymm17, %ymm18
vmovaps %ymm18, %ymm23
vbroadcastss 0x242252(%rip), %ymm24 # 0x1eec714
vmovaps %ymm24, %ymm8
vfnmadd213ps %ymm24, %ymm17, %ymm23 # ymm23 = -(ymm17 * ymm23) + ymm24
vfmadd132ps %ymm18, %ymm18, %ymm23 # ymm23 = (ymm23 * ymm18) + ymm18
vmulps %ymm23, %ymm22, %ymm18
vmulps %ymm2, %ymm6, %ymm22
vfmsub231ps %ymm5, %ymm20, %ymm22 # ymm22 = (ymm20 * ymm5) - ymm22
vmulps %ymm19, %ymm5, %ymm24
vfmsub231ps %ymm7, %ymm2, %ymm24 # ymm24 = (ymm2 * ymm7) - ymm24
vmulps %ymm20, %ymm7, %ymm25
vfmsub231ps %ymm6, %ymm19, %ymm25 # ymm25 = (ymm19 * ymm6) - ymm25
vmulps %ymm25, %ymm25, %ymm25
vfmadd231ps %ymm24, %ymm24, %ymm25 # ymm25 = (ymm24 * ymm24) + ymm25
vfmadd231ps %ymm22, %ymm22, %ymm25 # ymm25 = (ymm22 * ymm22) + ymm25
vmulps %ymm23, %ymm25, %ymm22
vmaxps %ymm22, %ymm18, %ymm18
vsqrtps %ymm18, %ymm18
vmaxps %ymm15, %ymm16, %ymm22
vmaxps %ymm22, %ymm14, %ymm14
vaddps %ymm14, %ymm18, %ymm14
vminps %ymm15, %ymm16, %ymm15
vminps %ymm15, %ymm4, %ymm4
vsubps %ymm18, %ymm4, %ymm4
vmulps 0x2463f1(%rip){1to8}, %ymm14, %ymm14 # 0x1ef0940
vmulps 0x2463eb(%rip){1to8}, %ymm4, %ymm4 # 0x1ef0944
vmovaps %ymm4, 0xc0(%rsp)
vmulps %ymm14, %ymm14, %ymm4
vrsqrt14ps %ymm17, %ymm15
vmulps 0x2421a5(%rip){1to8}, %ymm17, %ymm14 # 0x1eec71c
vmulps %ymm14, %ymm15, %ymm14
vmulps %ymm15, %ymm15, %ymm16
vmulps %ymm14, %ymm16, %ymm14
vfmadd231ps 0x242186(%rip){1to8}, %ymm15, %ymm14 # ymm14 = (ymm15 * mem) + ymm14
vmulps %ymm7, %ymm14, %ymm15
vmulps %ymm14, %ymm6, %ymm16
vmulps %ymm14, %ymm5, %ymm18
vmovaps %ymm1, 0x180(%rsp)
vsubps %ymm1, %ymm31, %ymm27
vmovaps %ymm0, 0x3e0(%rsp)
vsubps %ymm0, %ymm31, %ymm28
vmovaps %ymm26, 0x1a0(%rsp)
vsubps %ymm26, %ymm31, %ymm29
vmulps %ymm29, %ymm21, %ymm22
vfmadd231ps %ymm28, %ymm3, %ymm22 # ymm22 = (ymm3 * ymm28) + ymm22
vfmadd231ps %ymm27, %ymm30, %ymm22 # ymm22 = (ymm30 * ymm27) + ymm22
vmulps %ymm29, %ymm29, %ymm24
vfmadd231ps %ymm28, %ymm28, %ymm24 # ymm24 = (ymm28 * ymm28) + ymm24
vfmadd231ps %ymm27, %ymm27, %ymm24 # ymm24 = (ymm27 * ymm27) + ymm24
vmulps %ymm18, %ymm21, %ymm17
vfmadd231ps %ymm3, %ymm16, %ymm17 # ymm17 = (ymm16 * ymm3) + ymm17
vfmadd231ps %ymm30, %ymm15, %ymm17 # ymm17 = (ymm15 * ymm30) + ymm17
vmulps %ymm18, %ymm29, %ymm18
vfmadd231ps %ymm16, %ymm28, %ymm18 # ymm18 = (ymm28 * ymm16) + ymm18
vfmadd231ps %ymm15, %ymm27, %ymm18 # ymm18 = (ymm27 * ymm15) + ymm18
vmulps %ymm17, %ymm17, %ymm0
vmovaps 0x660(%rsp), %ymm1
vsubps %ymm0, %ymm1, %ymm15
vmulps %ymm18, %ymm17, %ymm25
vsubps %ymm25, %ymm22, %ymm22
vaddps %ymm22, %ymm22, %ymm22
vmulps %ymm18, %ymm18, %ymm25
vsubps %ymm25, %ymm24, %ymm21
vsubps %ymm4, %ymm21, %ymm4
vmulps %ymm22, %ymm22, %ymm25
vmulps 0x24252f(%rip){1to8}, %ymm15, %ymm24 # 0x1eecb8c
vmulps %ymm4, %ymm24, %ymm30
vsubps %ymm30, %ymm25, %ymm30
vcmpnltps %ymm31, %ymm30, %k1
kmovd %k1, %eax
kortestb %k1, %k1
je 0x1caa75b
vsqrtps %ymm30, %ymm30
vaddps %ymm15, %ymm15, %ymm31
vrcp14ps %ymm31, %ymm3
vfnmadd213ps %ymm8, %ymm3, %ymm31 # ymm31 = -(ymm3 * ymm31) + ymm8
vfmadd132ps %ymm3, %ymm3, %ymm31 # ymm31 = (ymm31 * ymm3) + ymm3
vxorps 0x27681a(%rip){1to8}, %ymm22, %ymm3 # 0x1f20ec0
vsubps %ymm30, %ymm3, %ymm3
vmulps %ymm31, %ymm3, %ymm3
vsubps %ymm22, %ymm30, %ymm30
vmulps %ymm31, %ymm30, %ymm31
vmovaps %ymm17, %ymm30
vfmadd213ps %ymm18, %ymm3, %ymm30 # ymm30 = (ymm3 * ymm30) + ymm18
vmulps %ymm30, %ymm14, %ymm30
vmovaps %ymm30, 0x540(%rsp)
vmovaps %ymm17, %ymm30
vfmadd213ps %ymm18, %ymm31, %ymm30 # ymm30 = (ymm31 * ymm30) + ymm18
vmulps %ymm30, %ymm14, %ymm30
vmovaps %ymm30, 0x520(%rsp)
vbroadcastss 0x241324(%rip), %ymm16 # 0x1eeba20
vblendmps %ymm3, %ymm16, %ymm30 {%k1}
vbroadcastss 0x242479(%rip), %ymm3 # 0x1eecb84
vblendmps %ymm31, %ymm3, %ymm31 {%k1}
vbroadcastss 0x2767a9(%rip), %ymm23 # 0x1f20ec4
vandps %ymm23, %ymm0, %ymm3
vmovaps 0x580(%rsp), %ymm1
vmaxps %ymm3, %ymm1, %ymm3
vmulps 0x24777c(%rip){1to8}, %ymm3, %ymm3 # 0x1ef1eb4
vandps %ymm23, %ymm15, %ymm23
vcmpltps %ymm3, %ymm23, %k1 {%k1}
kortestb %k1, %k1
jne 0x1cac77e
vbroadcastss 0x241fbb(%rip), %ymm16 # 0x1eec714
jmp 0x1caa775
vbroadcastss 0x2412bb(%rip), %ymm30 # 0x1eeba20
vbroadcastss 0x242415(%rip), %ymm31 # 0x1eecb84
vmovaps %ymm8, %ymm16
andb $0x7f, %al
je 0x1caab80
vmovaps %ymm21, 0x3c0(%rsp)
vmovaps %ymm0, 0x3a0(%rsp)
movq 0x18(%rsp), %rcx
vmovss 0x80(%r12,%rcx,4), %xmm3
vsubss 0x320(%rsp), %xmm3, %xmm3
vbroadcastss %xmm3, %ymm3
vminps %ymm31, %ymm3, %ymm3
vmovaps 0x640(%rsp), %ymm1
vmaxps %ymm30, %ymm1, %ymm4
vmulps %ymm13, %ymm29, %ymm23
vfmadd213ps %ymm23, %ymm12, %ymm28 # ymm28 = (ymm12 * ymm28) + ymm23
vfmadd213ps %ymm28, %ymm11, %ymm27 # ymm27 = (ymm11 * ymm27) + ymm28
vmovaps 0x200(%rsp), %ymm21
vmulps %ymm13, %ymm21, %ymm13
vmovaps 0x220(%rsp), %ymm31
vfmadd231ps %ymm12, %ymm31, %ymm13 # ymm13 = (ymm31 * ymm12) + ymm13
vmovaps 0x240(%rsp), %ymm30
vfmadd231ps %ymm11, %ymm30, %ymm13 # ymm13 = (ymm30 * ymm11) + ymm13
vbroadcastss 0x2766be(%rip), %ymm28 # 0x1f20ec4
vandps %ymm28, %ymm13, %ymm11
vbroadcastss 0x2467d2(%rip), %ymm29 # 0x1ef0fe8
vcmpltps %ymm29, %ymm11, %k0
vbroadcastss 0x276699(%rip), %ymm26 # 0x1f20ec0
vxorps %ymm26, %ymm27, %ymm11
vrcp14ps %ymm13, %ymm12
vxorps %ymm26, %ymm13, %ymm23
vmovaps %ymm12, %ymm27
vfnmadd213ps %ymm16, %ymm13, %ymm27 # ymm27 = -(ymm13 * ymm27) + ymm16
vfmadd132ps %ymm12, %ymm12, %ymm27 # ymm27 = (ymm27 * ymm12) + ymm12
vmulps %ymm11, %ymm27, %ymm11
vcmpltps %ymm23, %ymm13, %k1
korb %k1, %k0, %k1
vbroadcastss 0x24231e(%rip), %ymm27 # 0x1eecb84
vblendmps %ymm27, %ymm11, %ymm12 {%k1}
vmaxps %ymm12, %ymm4, %ymm4
vcmpnleps %ymm23, %ymm13, %k1
korb %k1, %k0, %k1
vbroadcastss 0x24119b(%rip), %ymm13 # 0x1eeba20
vmovaps %ymm13, %ymm11 {%k1}
vminps %ymm11, %ymm3, %ymm3
vxorps %xmm23, %xmm23, %xmm23
vsubps 0x60(%rsp), %ymm23, %ymm8
vsubps %ymm9, %ymm23, %ymm9
vsubps %ymm10, %ymm23, %ymm10
vmulps %ymm2, %ymm10, %ymm10
vfnmsub231ps %ymm9, %ymm20, %ymm10 # ymm10 = -(ymm20 * ymm9) - ymm10
vfnmadd231ps %ymm8, %ymm19, %ymm10 # ymm10 = -(ymm19 * ymm8) + ymm10
vmulps %ymm2, %ymm21, %ymm8
vfnmsub231ps %ymm20, %ymm31, %ymm8 # ymm8 = -(ymm31 * ymm20) - ymm8
vfnmadd231ps %ymm19, %ymm30, %ymm8 # ymm8 = -(ymm30 * ymm19) + ymm8
vandps %ymm28, %ymm8, %ymm9
vcmpltps %ymm29, %ymm9, %k0
vxorps %ymm26, %ymm10, %ymm9
vrcp14ps %ymm8, %ymm10
vxorps %ymm26, %ymm8, %ymm11
vmovaps %ymm10, %ymm12
vfnmadd213ps %ymm16, %ymm8, %ymm12 # ymm12 = -(ymm8 * ymm12) + ymm16
vfmadd132ps %ymm10, %ymm10, %ymm12 # ymm12 = (ymm12 * ymm10) + ymm10
vmulps %ymm9, %ymm12, %ymm9
vcmpltps %ymm11, %ymm8, %k1
korb %k1, %k0, %k1
vblendmps %ymm27, %ymm9, %ymm10 {%k1}
vmaxps %ymm10, %ymm4, %ymm0
vcmpnleps %ymm11, %ymm8, %k1
korb %k1, %k0, %k1
vmovaps %ymm13, %ymm9 {%k1}
vminps %ymm9, %ymm3, %ymm8
vmovaps %ymm0, 0x360(%rsp)
vcmpleps %ymm8, %ymm0, %k0
kmovd %k0, %ecx
andb %cl, %al
je 0x1cac66d
vmovaps 0x540(%rsp), %ymm3
vmaxps 0xc0(%rsp), %ymm23, %ymm4
vminps %ymm16, %ymm3, %ymm3
vxorps %xmm10, %xmm10, %xmm10
vmaxps %ymm10, %ymm3, %ymm3
vmovaps 0x520(%rsp), %ymm9
vminps %ymm16, %ymm9, %ymm9
vmovaps 0x2765c0(%rip), %ymm11 # 0x1f20f40
vaddps %ymm3, %ymm11, %ymm3
vbroadcastss 0x273b2b(%rip), %ymm12 # 0x1f1e4b8
vmulps %ymm3, %ymm12, %ymm3
vmovaps 0xa0(%rsp), %ymm0
vmovaps 0x80(%rsp), %ymm1
vfmadd213ps %ymm0, %ymm1, %ymm3 # ymm3 = (ymm1 * ymm3) + ymm0
vmovaps %ymm3, 0x540(%rsp)
vmaxps %ymm10, %ymm9, %ymm3
vaddps %ymm3, %ymm11, %ymm3
vmulps %ymm3, %ymm12, %ymm3
vfmadd213ps %ymm0, %ymm1, %ymm3 # ymm3 = (ymm1 * ymm3) + ymm0
vmovaps %ymm3, 0x520(%rsp)
vmulps %ymm4, %ymm4, %ymm3
vmovaps 0x3c0(%rsp), %ymm0
vsubps %ymm3, %ymm0, %ymm11
vmulps %ymm11, %ymm24, %ymm3
vsubps %ymm3, %ymm25, %ymm3
vcmpnltps %ymm10, %ymm3, %k0
kortestb %k0, %k0
je 0x1caab9d
vxorps %xmm20, %xmm20, %xmm20
vcmpnltps %ymm23, %ymm3, %k1
vsqrtps %ymm3, %ymm3
vaddps %ymm15, %ymm15, %ymm4
vrcp14ps %ymm4, %ymm9
vfnmadd213ps %ymm16, %ymm9, %ymm4 # ymm4 = -(ymm9 * ymm4) + ymm16
vfmadd132ps %ymm9, %ymm9, %ymm4 # ymm4 = (ymm4 * ymm9) + ymm9
vxorps 0x276495(%rip){1to8}, %ymm22, %ymm9 # 0x1f20ec0
vsubps %ymm3, %ymm9, %ymm9
vmulps %ymm4, %ymm9, %ymm12
vsubps %ymm22, %ymm3, %ymm3
vmulps %ymm4, %ymm3, %ymm13
vmovaps %ymm17, %ymm3
vfmadd213ps %ymm18, %ymm12, %ymm3 # ymm3 = (ymm12 * ymm3) + ymm18
vmulps %ymm3, %ymm14, %ymm9
vmulps %ymm12, %ymm30, %ymm3
vmulps %ymm12, %ymm31, %ymm4
vmulps %ymm12, %ymm21, %ymm10
vmovaps %ymm7, %ymm19
vmovaps 0x180(%rsp), %ymm1
vfmadd213ps %ymm1, %ymm9, %ymm19 # ymm19 = (ymm9 * ymm19) + ymm1
vsubps %ymm19, %ymm3, %ymm3
vmovaps %ymm6, %ymm19
vmovaps 0x3e0(%rsp), %ymm0
vfmadd213ps %ymm0, %ymm9, %ymm19 # ymm19 = (ymm9 * ymm19) + ymm0
vsubps %ymm19, %ymm4, %ymm4
vmovaps 0x1a0(%rsp), %ymm2
vfmadd213ps %ymm2, %ymm5, %ymm9 # ymm9 = (ymm5 * ymm9) + ymm2
vsubps %ymm9, %ymm10, %ymm9
vfmadd213ps %ymm18, %ymm13, %ymm17 # ymm17 = (ymm13 * ymm17) + ymm18
vmulps %ymm17, %ymm14, %ymm14
vmulps %ymm13, %ymm30, %ymm10
vmulps %ymm13, %ymm31, %ymm17
vmulps %ymm13, %ymm21, %ymm18
vfmadd213ps %ymm1, %ymm14, %ymm7 # ymm7 = (ymm14 * ymm7) + ymm1
vsubps %ymm7, %ymm10, %ymm10
vfmadd213ps %ymm0, %ymm14, %ymm6 # ymm6 = (ymm14 * ymm6) + ymm0
vsubps %ymm6, %ymm17, %ymm1
vfmadd213ps %ymm2, %ymm14, %ymm5 # ymm5 = (ymm14 * ymm5) + ymm2
vsubps %ymm5, %ymm18, %ymm5
vbroadcastss 0x240f32(%rip), %ymm0 # 0x1eeba20
vblendmps %ymm12, %ymm0, %ymm2 {%k1}
vbroadcastss 0x242087(%rip), %ymm0 # 0x1eecb84
vblendmps %ymm13, %ymm0, %ymm0 {%k1}
vbroadcastss 0x2763b8(%rip), %ymm7 # 0x1f20ec4
vandps 0x3a0(%rsp), %ymm7, %ymm6
vmovaps 0x580(%rsp), %ymm12
vmaxps %ymm6, %ymm12, %ymm6
vmulps 0x247388(%rip){1to8}, %ymm6, %ymm6 # 0x1ef1eb4
vandps %ymm7, %ymm15, %ymm7
vcmpltps %ymm6, %ymm7, %k1 {%k1}
kortestb %k1, %k1
je 0x1caabc4
vcmpleps %ymm20, %ymm11, %k2
vbroadcastss 0x242033(%rip), %ymm7 # 0x1eecb84
vbroadcastss 0x240ec6(%rip), %ymm11 # 0x1eeba20
vblendmps %ymm7, %ymm11, %ymm6 {%k2}
vmovaps %ymm6, %ymm2 {%k1}
vblendmps %ymm11, %ymm7, %ymm6 {%k2}
vmovaps %ymm6, %ymm0 {%k1}
knotb %k1, %k1
korb %k2, %k1, %k1
kandb %k0, %k1, %k0
jmp 0x1caabc4
vmovaps 0x240(%rsp), %ymm30
vmovaps 0x220(%rsp), %ymm31
vmovaps 0x200(%rsp), %ymm21
jmp 0x1cac66d
vxorps %xmm1, %xmm1, %xmm1
vxorps %xmm5, %xmm5, %xmm5
vxorps %xmm3, %xmm3, %xmm3
vxorps %xmm4, %xmm4, %xmm4
vxorps %xmm9, %xmm9, %xmm9
vbroadcastss 0x240e65(%rip), %ymm2 # 0x1eeba20
vbroadcastss 0x241fc0(%rip), %ymm0 # 0x1eecb84
vbroadcastss 0x2762f7(%rip), %xmm11 # 0x1f20ec4
vmulps %ymm5, %ymm21, %ymm5
vfmadd231ps %ymm1, %ymm31, %ymm5 # ymm5 = (ymm31 * ymm1) + ymm5
vfmadd231ps %ymm10, %ymm30, %ymm5 # ymm5 = (ymm30 * ymm10) + ymm5
vmovaps 0x360(%rsp), %ymm7
vmovaps %ymm7, 0x860(%rsp)
vminps %ymm2, %ymm8, %ymm1
vmovaps %ymm1, 0x880(%rsp)
vbroadcastss 0x2762bd(%rip), %ymm6 # 0x1f20ec4
vandps %ymm6, %ymm5, %ymm2
vmaxps %ymm0, %ymm7, %ymm5
vmovaps %ymm5, 0x5c0(%rsp)
vmovaps %ymm8, 0x5e0(%rsp)
vbroadcastss 0x2762aa(%rip), %ymm0 # 0x1f20ed4
vcmpltps %ymm0, %ymm2, %k1
kmovd %k1, 0x144(%rsp)
vcmpleps %ymm1, %ymm7, %k1
kmovd %k1, %ecx
andb %al, %cl
vmovaps %ymm5, 0x4e0(%rsp)
vcmpleps %ymm8, %ymm5, %k1
kmovd %k1, %edx
andb %al, %dl
movl %edx, %eax
orb %cl, %al
je 0x1cac637
vmovaps %ymm0, %ymm2
movl %edx, 0x34(%rsp)
movq %r9, 0x1f0(%rsp)
movq %r10, 0x1f8(%rsp)
knotb %k0, %k1
vmulps %ymm9, %ymm21, %ymm0
vfmadd213ps %ymm0, %ymm31, %ymm4 # ymm4 = (ymm31 * ymm4) + ymm0
vfmadd213ps %ymm4, %ymm30, %ymm3 # ymm3 = (ymm30 * ymm3) + ymm4
vandps %ymm6, %ymm3, %ymm0
vcmpltps %ymm2, %ymm0, %k0
kmovd %k1, 0x13c(%rsp)
korb %k1, %k0, %k1
vpbroadcastd 0x276224(%rip), %ymm0 # 0x1f20edc
vpblendmd 0x276216(%rip){1to8}, %ymm0, %ymm0 {%k1} # 0x1f20ed8
movq %r11, 0x1e8(%rsp)
vpbroadcastd %r11d, %ymm1
vmovdqa %ymm0, 0x600(%rsp)
vmovdqa %ymm1, 0x560(%rsp)
vpcmpnltd %ymm0, %ymm1, %k0
kmovd %k0, %ebx
movl %ecx, 0x140(%rsp)
andb %cl, %bl
je 0x1cab8ef
vmovaps 0x2e0(%rsp), %ymm1
vmovaps 0x2a0(%rsp), %ymm2
vminps %xmm2, %xmm1, %xmm0
vmaxps %xmm2, %xmm1, %xmm1
vmovaps 0x2c0(%rsp), %ymm3
vmovaps 0x280(%rsp), %ymm4
vminps %xmm4, %xmm3, %xmm2
vminps %xmm2, %xmm0, %xmm0
vmaxps %xmm4, %xmm3, %xmm2
vmaxps %xmm2, %xmm1, %xmm1
vandps %xmm0, %xmm11, %xmm0
vandps %xmm1, %xmm11, %xmm2
vmaxps %xmm2, %xmm0, %xmm0
vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3]
vmaxss %xmm0, %xmm2, %xmm2
vshufpd $0x1, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[1,0]
vmaxss %xmm2, %xmm0, %xmm0
vmulss 0x247157(%rip), %xmm0, %xmm0 # 0x1ef1eb4
vmovss %xmm0, 0x44(%rsp)
vshufps $0xff, %xmm1, %xmm1, %xmm0 # xmm0 = xmm1[3,3,3,3]
vmovaps %xmm0, 0x310(%rsp)
vmovaps 0x360(%rsp), %ymm0
vaddps 0x380(%rsp), %ymm0, %ymm0
vmovaps %ymm0, 0x500(%rsp)
kmovd %ebx, %k1
vbroadcastss 0x240c87(%rip), %ymm0 # 0x1eeba20
vblendmps 0x360(%rsp), %ymm0, %ymm0 {%k1}
vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm0, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1]
vminps %ymm2, %ymm1, %ymm1
vcmpeqps %ymm1, %ymm0, %k0
kmovd %k0, %eax
andb %bl, %al
movzbl %al, %eax
movzbl %bl, %ecx
cmovnel %eax, %ecx
tzcntl %ecx, %ecx
movb $0x1, %bl
shlb %cl, %bl
shll $0x2, %ecx
vmovss 0x540(%rsp,%rcx), %xmm9
vmovss 0x860(%rsp,%rcx), %xmm8
vmovaps 0x260(%rsp), %xmm0
vucomiss 0x240c23(%rip), %xmm0 # 0x1eeba24
vmovss 0x148(%rsp), %xmm0
jae 0x1caae4d
vmovaps 0x260(%rsp), %xmm0
vmovaps %xmm9, 0x60(%rsp)
vmovaps %xmm8, 0x80(%rsp)
kmovw %k1, 0xc0(%rsp)
vzeroupper
callq 0x6aa20
kmovw 0xc0(%rsp), %k1
vmovaps 0x80(%rsp), %xmm8
vmovaps 0x60(%rsp), %xmm9
movzbl %bl, %eax
kmovd %eax, %k0
kandnb %k1, %k0, %k0
kmovd %k0, %ebx
vmulss 0x247050(%rip), %xmm0, %xmm0 # 0x1ef1eb4
vmovss %xmm0, 0x48(%rsp)
movl $0x4, %r14d
vmovaps %xmm8, 0x80(%rsp)
vbroadcastss %xmm8, %xmm0
vxorps %xmm1, %xmm1, %xmm1
vfmadd132ps 0x270(%rsp), %xmm1, %xmm0 # xmm0 = (xmm0 * mem) + xmm1
vmovss 0x241880(%rip), %xmm1 # 0x1eec714
vsubss %xmm9, %xmm1, %xmm11
vbroadcastss 0x27601e(%rip), %xmm6 # 0x1f20ec0
vxorps %xmm6, %xmm9, %xmm1
vmulss %xmm1, %xmm11, %xmm1
vmulss %xmm1, %xmm11, %xmm1
vmulss %xmm9, %xmm9, %xmm12
vmovss 0x246131(%rip), %xmm8 # 0x1ef0fec
vmovaps %xmm8, %xmm10
vmovss 0x24613c(%rip), %xmm7 # 0x1ef1004
vfmadd213ss %xmm7, %xmm9, %xmm10 # xmm10 = (xmm9 * xmm10) + xmm7
vmovaps %xmm10, %xmm2
vmovss 0x24611f(%rip), %xmm5 # 0x1ef0ff8
vfmadd213ss %xmm5, %xmm12, %xmm2 # xmm2 = (xmm12 * xmm2) + xmm5
vmulss %xmm11, %xmm11, %xmm3
vmovaps %xmm8, %xmm4
vfmadd213ss %xmm7, %xmm11, %xmm4 # xmm4 = (xmm11 * xmm4) + xmm7
vfmadd213ss %xmm5, %xmm3, %xmm4 # xmm4 = (xmm3 * xmm4) + xmm5
vxorps %xmm6, %xmm11, %xmm3
vmulss %xmm3, %xmm9, %xmm3
vmulss %xmm3, %xmm9, %xmm3
vmovss 0x241c7b(%rip), %xmm5 # 0x1eecb80
vmulss %xmm5, %xmm1, %xmm1
vmulss %xmm5, %xmm2, %xmm2
vmulss %xmm5, %xmm4, %xmm4
vmulss %xmm5, %xmm3, %xmm3
vbroadcastss %xmm3, %xmm3
vmulps 0x280(%rsp), %xmm3, %xmm3
vbroadcastss %xmm4, %xmm4
vfmadd132ps 0x2c0(%rsp), %xmm3, %xmm4 # xmm4 = (xmm4 * mem) + xmm3
vbroadcastss %xmm2, %xmm2
vfmadd132ps 0x2a0(%rsp), %xmm4, %xmm2 # xmm2 = (xmm2 * mem) + xmm4
vbroadcastss %xmm1, %xmm3
vfmadd132ps 0x2e0(%rsp), %xmm2, %xmm3 # xmm3 = (xmm3 * mem) + xmm2
vmulss 0x245a84(%rip), %xmm11, %xmm6 # 0x1ef09dc
vfmadd231ss 0x2460a7(%rip), %xmm9, %xmm7 # xmm7 = (xmm9 * mem) + xmm7
vmovaps %xmm7, 0x3c0(%rsp)
vmovss 0x24609a(%rip), %xmm1 # 0x1ef100c
vfmadd213ss 0x241c11(%rip), %xmm9, %xmm1 # xmm1 = (xmm9 * xmm1) + mem
vmovaps %xmm1, 0x3a0(%rsp)
vfmadd213ss 0x245a3f(%rip), %xmm9, %xmm8 # xmm8 = (xmm9 * xmm8) + mem
vmovaps %xmm8, 0x350(%rsp)
vmovaps %xmm3, 0x3e0(%rsp)
vsubps %xmm3, %xmm0, %xmm0
vmovaps %xmm0, 0xc0(%rsp)
vdpps $0x7f, %xmm0, %xmm0, %xmm0
vucomiss 0x240a6a(%rip), %xmm0 # 0x1eeba24
vmovaps %xmm9, 0x60(%rsp)
vmovaps %xmm0, 0xa0(%rsp)
jb 0x1caafd1
vsqrtss %xmm0, %xmm0, %xmm7
jmp 0x1cab02b
vmovss %xmm10, 0x1a0(%rsp)
vmovaps %xmm11, 0x180(%rsp)
vmovss %xmm12, 0x110(%rsp)
vmovss %xmm6, 0x100(%rsp)
vzeroupper
callq 0x6aa20
vmovss 0x100(%rsp), %xmm6
vmovss 0x110(%rsp), %xmm12
vmovaps 0x180(%rsp), %xmm11
vmovss 0x1a0(%rsp), %xmm10
vmovaps 0x60(%rsp), %xmm9
vmovaps %xmm0, %xmm7
vaddss %xmm11, %xmm11, %xmm0
vmulss %xmm0, %xmm9, %xmm1
vfnmadd231ss %xmm11, %xmm11, %xmm1 # xmm1 = -(xmm11 * xmm11) + xmm1
vaddss %xmm9, %xmm9, %xmm2
vmovss 0x245fa6(%rip), %xmm4 # 0x1ef0fec
vmulss %xmm4, %xmm9, %xmm3
vmulss %xmm3, %xmm9, %xmm3
vfmadd213ss %xmm3, %xmm2, %xmm10 # xmm10 = (xmm2 * xmm10) + xmm3
vmovaps %xmm4, %xmm2
vmovss 0x245f99(%rip), %xmm4 # 0x1ef0ff8
vfmadd213ss %xmm4, %xmm9, %xmm2 # xmm2 = (xmm9 * xmm2) + xmm4
vmulss 0x245f84(%rip), %xmm11, %xmm3 # 0x1ef0ff0
vmulss %xmm3, %xmm11, %xmm3
vfmadd231ss %xmm2, %xmm0, %xmm3 # xmm3 = (xmm0 * xmm2) + xmm3
vfmadd213ss %xmm12, %xmm9, %xmm6 # xmm6 = (xmm9 * xmm6) + xmm12
vmovss 0x241afe(%rip), %xmm5 # 0x1eecb80
vmulss %xmm5, %xmm1, %xmm0
vmulss %xmm5, %xmm10, %xmm1
vmulss %xmm5, %xmm3, %xmm2
vmulss %xmm5, %xmm6, %xmm3
vbroadcastss %xmm3, %xmm3
vmulps 0x280(%rsp), %xmm3, %xmm3
vbroadcastss %xmm2, %xmm2
vfmadd132ps 0x2c0(%rsp), %xmm3, %xmm2 # xmm2 = (xmm2 * mem) + xmm3
vbroadcastss %xmm1, %xmm1
vfmadd132ps 0x2a0(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2
vbroadcastss %xmm0, %xmm13
vfmadd132ps 0x2e0(%rsp), %xmm1, %xmm13 # xmm13 = (xmm13 * mem) + xmm1
vdpps $0x7f, %xmm13, %xmm13, %xmm0
vxorps %xmm1, %xmm1, %xmm1
vmovss %xmm0, %xmm1, %xmm2 # xmm2 = xmm0[0],xmm1[1,2,3]
vrsqrt14ss %xmm2, %xmm1, %xmm3
vmulss 0x24162f(%rip), %xmm3, %xmm5 # 0x1eec718
vmulss 0x24162b(%rip), %xmm0, %xmm6 # 0x1eec71c
vrcp14ss %xmm2, %xmm1, %xmm2
vxorps 0x275dbf(%rip){1to4}, %xmm0, %xmm1 # 0x1f20ec0
vmovaps %xmm2, 0x100(%rsp)
vfnmadd213ss %xmm4, %xmm0, %xmm2 # xmm2 = -(xmm0 * xmm2) + xmm4
vmovss %xmm2, 0x4c(%rsp)
vucomiss %xmm1, %xmm0
vmovaps %xmm13, 0x1a0(%rsp)
vmovss %xmm7, 0x180(%rsp)
vmovaps %xmm0, 0x110(%rsp)
jb 0x1cab13e
vsqrtss %xmm0, %xmm0, %xmm16
jmp 0x1cab18e
vmovaps %xmm3, 0xf0(%rsp)
vmovss %xmm5, 0x24(%rsp)
vmovss %xmm6, 0xe0(%rsp)
vzeroupper
callq 0x6aa20
vmovss 0xe0(%rsp), %xmm6
vmovss 0x24(%rsp), %xmm5
vmovaps 0xf0(%rsp), %xmm3
vmovss 0x180(%rsp), %xmm7
vmovaps 0x1a0(%rsp), %xmm13
vmovaps %xmm0, %xmm16
vmovaps 0xc0(%rsp), %xmm10
vmovaps 0xa0(%rsp), %xmm19
vmulss %xmm3, %xmm6, %xmm0
vmulss %xmm3, %xmm3, %xmm1
vmulss %xmm1, %xmm0, %xmm0
vaddss %xmm0, %xmm5, %xmm0
vbroadcastss %xmm0, %xmm4
vmulps %xmm4, %xmm13, %xmm0
vmovaps %xmm0, 0xf0(%rsp)
vdpps $0x7f, %xmm0, %xmm10, %xmm15
vaddss 0x241545(%rip), %xmm7, %xmm14 # 0x1eec714
vmulps %xmm15, %xmm15, %xmm0
vsubps %xmm0, %xmm19, %xmm0
vxorps %xmm2, %xmm2, %xmm2
vmovss %xmm0, %xmm2, %xmm1 # xmm1 = xmm0[0],xmm2[1,2,3]
vrsqrt14ss %xmm1, %xmm2, %xmm18
vmulss 0x241526(%rip), %xmm18, %xmm17 # 0x1eec718
vmulss 0x241520(%rip), %xmm0, %xmm20 # 0x1eec71c
vucomiss 0x240820(%rip), %xmm0 # 0x1eeba24
jb 0x1cab20f
vsqrtss %xmm0, %xmm0, %xmm0
jmp 0x1cab2aa
vmovss %xmm14, 0x24(%rsp)
vmovaps %xmm15, 0xe0(%rsp)
vmovss %xmm16, 0x40(%rsp)
vmovss %xmm17, 0x3c(%rsp)
vmovaps %xmm18, 0x340(%rsp)
vmovss %xmm20, 0x38(%rsp)
vmovaps %xmm4, 0x330(%rsp)
vzeroupper
callq 0x6aa20
vmovaps 0x330(%rsp), %xmm4
vmovss 0x38(%rsp), %xmm20
vmovaps 0x340(%rsp), %xmm18
vmovss 0x3c(%rsp), %xmm17
vmovss 0x40(%rsp), %xmm16
vmovaps 0xe0(%rsp), %xmm15
vmovss 0x24(%rsp), %xmm14
vmovss 0x180(%rsp), %xmm7
vmovaps 0x1a0(%rsp), %xmm13
vmovaps 0xa0(%rsp), %xmm19
vmovaps 0xc0(%rsp), %xmm10
vbroadcastss 0x275c11(%rip), %xmm11 # 0x1f20ec4
vmovaps 0x240(%rsp), %ymm30
vmovaps 0x220(%rsp), %ymm31
vmovaps 0x200(%rsp), %ymm21
vmovaps 0x60(%rsp), %xmm9
vmovaps 0x80(%rsp), %xmm8
vbroadcastss 0x350(%rsp), %xmm1
vmulps 0x280(%rsp), %xmm1, %xmm1
vbroadcastss 0x3a0(%rsp), %xmm2
vfmadd132ps 0x2c0(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1
vbroadcastss 0x3c0(%rsp), %xmm1
vfmadd132ps 0x2a0(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2
vmovss 0x245cd3(%rip), %xmm2 # 0x1ef0ff0
vfmadd213ss 0x245cd2(%rip), %xmm9, %xmm2 # xmm2 = (xmm9 * xmm2) + mem
vbroadcastss %xmm2, %xmm2
vfmadd132ps 0x2e0(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1
vbroadcastss 0x110(%rsp), %xmm1
vmulps %xmm1, %xmm2, %xmm1
vdpps $0x7f, %xmm2, %xmm13, %xmm2
vbroadcastss %xmm2, %xmm2
vmulps %xmm2, %xmm13, %xmm2
vsubps %xmm2, %xmm1, %xmm1
vmovss 0x4c(%rsp), %xmm2
vmulss 0x100(%rsp), %xmm2, %xmm2
vmulss 0x48(%rsp), %xmm8, %xmm3
vbroadcastss %xmm2, %xmm2
vmulps %xmm2, %xmm1, %xmm1
vxorps 0x275b42(%rip){1to4}, %xmm13, %xmm2 # 0x1f20ec0
vmulps %xmm1, %xmm4, %xmm4
vmovaps 0xf0(%rsp), %xmm12
vdpps $0x7f, %xmm12, %xmm2, %xmm5
vmovss 0x44(%rsp), %xmm6
vmaxss %xmm3, %xmm6, %xmm1
vdivss %xmm16, %xmm6, %xmm3
vdpps $0x7f, %xmm4, %xmm10, %xmm4
vfmadd213ss %xmm1, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm7) + xmm1
vfmadd213ss %xmm7, %xmm3, %xmm14 # xmm14 = (xmm3 * xmm14) + xmm7
vmovaps 0x270(%rsp), %xmm7
vdpps $0x7f, %xmm12, %xmm7, %xmm3
vaddss %xmm4, %xmm5, %xmm4
vdpps $0x7f, %xmm2, %xmm10, %xmm5
vmulss %xmm18, %xmm20, %xmm2
vmulss %xmm18, %xmm18, %xmm6
vmulss %xmm6, %xmm2, %xmm2
vdpps $0x7f, %xmm7, %xmm10, %xmm6
vaddss %xmm2, %xmm17, %xmm7
vfnmadd231ss %xmm4, %xmm15, %xmm5 # xmm5 = -(xmm15 * xmm4) + xmm5
vfnmadd231ss %xmm3, %xmm15, %xmm6 # xmm6 = -(xmm15 * xmm3) + xmm6
vpermilps $0xff, 0x3e0(%rsp), %xmm2 # xmm2 = mem[3,3,3,3]
vsubss %xmm2, %xmm0, %xmm2
vshufps $0xff, %xmm13, %xmm13, %xmm0 # xmm0 = xmm13[3,3,3,3]
vfmsub213ss %xmm0, %xmm7, %xmm5 # xmm5 = (xmm7 * xmm5) - xmm0
vmulss %xmm7, %xmm6, %xmm6
vmulss %xmm5, %xmm3, %xmm7
vfmsub231ss %xmm6, %xmm4, %xmm7 # xmm7 = (xmm4 * xmm6) - xmm7
vdivss %xmm7, %xmm6, %xmm6
vdivss %xmm7, %xmm5, %xmm5
vdivss %xmm7, %xmm3, %xmm3
vdivss %xmm7, %xmm4, %xmm4
vmulss %xmm6, %xmm15, %xmm6
vmulss %xmm3, %xmm2, %xmm3
vsubss %xmm3, %xmm6, %xmm3
vmulss %xmm5, %xmm15, %xmm5
vmulss %xmm4, %xmm2, %xmm4
vsubss %xmm5, %xmm4, %xmm4
vsubss %xmm3, %xmm9, %xmm9
vsubss %xmm4, %xmm8, %xmm8
vandps %xmm11, %xmm15, %xmm3
vucomiss %xmm3, %xmm14
jbe 0x1cab606
vaddss %xmm1, %xmm14, %xmm1
vmovaps 0x310(%rsp), %xmm3
vfmadd231ss 0x246a48(%rip), %xmm3, %xmm1 # xmm1 = (xmm3 * mem) + xmm1
vandps %xmm2, %xmm11, %xmm2
vucomiss %xmm2, %xmm1
jbe 0x1cab606
vaddss 0x320(%rsp), %xmm8, %xmm8
movb $0x1, %r13b
vucomiss 0x5c(%rsp), %xmm8
jb 0x1cab609
movq 0x18(%rsp), %rax
vmovss 0x80(%r12,%rax,4), %xmm4
vucomiss %xmm8, %xmm4
jb 0x1cab609
vucomiss 0x240570(%rip), %xmm9 # 0x1eeba24
jb 0x1cab609
vmovss 0x241252(%rip), %xmm1 # 0x1eec714
vucomiss %xmm9, %xmm1
jb 0x1cab609
vxorps %xmm2, %xmm2, %xmm2
vmovss %xmm19, %xmm2, %xmm1 # xmm1 = xmm19[0],xmm2[1,2,3]
vrsqrt14ss %xmm1, %xmm2, %xmm1
vmulss 0x241233(%rip), %xmm1, %xmm2 # 0x1eec718
vmulss 0x24122d(%rip), %xmm19, %xmm3 # 0x1eec71c
movq (%r15), %rax
movq 0x1e8(%rax), %rax
movq %r15, %rcx
movq 0x50(%rsp), %rdx
movq (%rax,%rdx,8), %r15
movq 0x18(%rsp), %rax
movl 0x90(%r12,%rax,4), %eax
testl %eax, 0x34(%r15)
je 0x1cab626
vmulss %xmm1, %xmm3, %xmm3
vmulss %xmm1, %xmm1, %xmm1
vmulss %xmm1, %xmm3, %xmm1
vaddss %xmm1, %xmm2, %xmm1
vbroadcastss %xmm1, %xmm1
vmulps %xmm1, %xmm10, %xmm1
vfmadd213ps %xmm13, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm0) + xmm13
vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm13, %xmm13, %xmm3 # xmm3 = xmm13[1,2,0,3]
vmulps %xmm3, %xmm1, %xmm1
vfmsub231ps %xmm2, %xmm13, %xmm1 # xmm1 = (xmm13 * xmm2) - xmm1
vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3]
vshufps $0xd2, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,0,1,3]
vmulps %xmm1, %xmm0, %xmm0
vfmsub231ps %xmm3, %xmm2, %xmm0 # xmm0 = (xmm2 * xmm3) - xmm0
movq 0x10(%rcx), %rax
cmpq $0x0, 0x10(%rax)
jne 0x1cab62b
cmpq $0x0, 0x40(%r15)
jne 0x1cab62b
movq 0x18(%rsp), %rcx
vmovss %xmm8, 0x80(%r12,%rcx,4)
vextractps $0x1, %xmm0, 0xc0(%r12,%rcx,4)
vextractps $0x2, %xmm0, 0xd0(%r12,%rcx,4)
vmovss %xmm0, 0xe0(%r12,%rcx,4)
vmovss %xmm9, 0xf0(%r12,%rcx,4)
movl $0x0, 0x100(%r12,%rcx,4)
movq 0x130(%rsp), %rax
movl %eax, 0x110(%r12,%rcx,4)
movq 0x50(%rsp), %rax
movl %eax, 0x120(%r12,%rcx,4)
movq 0x28(%rsp), %r15
movq 0x8(%r15), %rax
movl (%rax), %eax
movl %eax, 0x130(%r12,%rcx,4)
movq 0x8(%r15), %rax
movl 0x4(%rax), %eax
movl %eax, 0x140(%r12,%rcx,4)
jmp 0x1cab609
xorl %r13d, %r13d
subq $0x1, %r14
setb %al
testb %r13b, %r13b
jne 0x1cab8cc
testb %al, %al
je 0x1caae70
jmp 0x1cab8cc
movq %rcx, %r15
jmp 0x1cab609
movq 0x28(%rsp), %rcx
movq 0x8(%rcx), %rax
vbroadcastss %xmm9, %xmm1
vshufps $0x55, %xmm0, %xmm0, %xmm2 # xmm2 = xmm0[1,1,1,1]
vshufps $0xaa, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[2,2,2,2]
vbroadcastss %xmm0, %xmm0
vmovaps %xmm2, 0x440(%rsp)
vmovaps %xmm3, 0x450(%rsp)
vmovaps %xmm0, 0x460(%rsp)
vmovaps %xmm1, 0x470(%rsp)
vxorps %xmm0, %xmm0, %xmm0
vmovaps %xmm0, 0x480(%rsp)
vmovaps 0x420(%rsp), %xmm0
vmovaps %xmm0, 0x490(%rsp)
vmovdqa 0x430(%rsp), %xmm0
vmovdqa %xmm0, 0x4a0(%rsp)
leaq 0x4b0(%rsp), %rdx
vpcmpeqd %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, (%rdx)
vbroadcastss (%rax), %xmm0
vmovaps %xmm0, 0x4b0(%rsp)
vbroadcastss 0x4(%rax), %xmm0
vmovaps %xmm0, 0x4c0(%rsp)
movq 0x18(%rsp), %rax
vmovss %xmm8, 0x80(%r12,%rax,4)
vmovaps 0x410(%rsp), %xmm0
vmovaps %xmm0, 0x120(%rsp)
leaq 0x120(%rsp), %rax
movq %rax, 0x150(%rsp)
movq 0x18(%r15), %rax
movq %rax, 0x158(%rsp)
movq 0x8(%rcx), %rax
movq %rax, 0x160(%rsp)
movq %r12, 0x168(%rsp)
leaq 0x440(%rsp), %rax
movq %rax, 0x170(%rsp)
movl $0x4, 0x178(%rsp)
movq 0x40(%r15), %rax
testq %rax, %rax
vmovaps %xmm9, 0x60(%rsp)
vmovaps %xmm8, 0x80(%rsp)
vmovss %xmm4, 0xa0(%rsp)
je 0x1cab79d
leaq 0x150(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0xa0(%rsp), %xmm4
vmovaps 0x80(%rsp), %xmm8
vmovaps 0x60(%rsp), %xmm9
vmovaps 0x200(%rsp), %ymm21
vmovaps 0x220(%rsp), %ymm31
vmovaps 0x240(%rsp), %ymm30
vbroadcastss 0x275727(%rip), %xmm11 # 0x1f20ec4
vmovdqa 0x120(%rsp), %xmm0
vptestmd %xmm0, %xmm0, %k0
kortestb %k0, %k0
je 0x1cab8b3
movq 0x28(%rsp), %rax
movq 0x10(%rax), %rcx
movq 0x10(%rcx), %rax
testq %rax, %rax
je 0x1cab81a
testb $0x2, (%rcx)
jne 0x1cab7d4
testb $0x40, 0x3e(%r15)
je 0x1cab81a
leaq 0x150(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0xa0(%rsp), %xmm4
vmovaps 0x80(%rsp), %xmm8
vmovaps 0x60(%rsp), %xmm9
vmovaps 0x200(%rsp), %ymm21
vmovaps 0x220(%rsp), %ymm31
vmovaps 0x240(%rsp), %ymm30
vbroadcastss 0x2756aa(%rip), %xmm11 # 0x1f20ec4
vmovdqa 0x120(%rsp), %xmm0
vptestmd %xmm0, %xmm0, %k1
kortestb %k1, %k1
je 0x1cab8b3
movq 0x168(%rsp), %rax
movq 0x170(%rsp), %rcx
vmovaps (%rcx), %xmm0
vmovups %xmm0, 0xc0(%rax) {%k1}
vmovaps 0x10(%rcx), %xmm0
vmovups %xmm0, 0xd0(%rax) {%k1}
vmovaps 0x20(%rcx), %xmm0
vmovups %xmm0, 0xe0(%rax) {%k1}
vmovaps 0x30(%rcx), %xmm0
vmovups %xmm0, 0xf0(%rax) {%k1}
vmovaps 0x40(%rcx), %xmm0
vmovups %xmm0, 0x100(%rax) {%k1}
vmovdqa 0x50(%rcx), %xmm0
vmovdqu32 %xmm0, 0x110(%rax) {%k1}
vmovdqa 0x60(%rcx), %xmm0
vmovdqu32 %xmm0, 0x120(%rax) {%k1}
vmovdqa 0x70(%rcx), %xmm0
vmovdqa32 %xmm0, 0x130(%rax) {%k1}
vmovdqa 0x80(%rcx), %xmm0
vmovdqa32 %xmm0, 0x140(%rax) {%k1}
jmp 0x1cab8c2
movq 0x18(%rsp), %rax
vmovss %xmm4, 0x80(%r12,%rax,4)
movq 0x28(%rsp), %r15
jmp 0x1cab609
movq 0x18(%rsp), %rax
vmovaps 0x500(%rsp), %ymm0
vcmpleps 0x80(%r12,%rax,4){1to8}, %ymm0, %k0
kmovd %k0, %eax
andb %al, %bl
jne 0x1caad8c
vmovaps 0x4e0(%rsp), %ymm0
vaddps 0x380(%rsp), %ymm0, %ymm0
movq 0x18(%rsp), %rax
vcmpleps 0x80(%r12,%rax,4){1to8}, %ymm0, %k0
kmovd 0x144(%rsp), %k1
kmovd 0x13c(%rsp), %k2
korb %k2, %k1, %k1
kmovd %k0, %eax
movl 0x34(%rsp), %ecx
andb %al, %cl
vpbroadcastd 0x2755a2(%rip), %ymm0 # 0x1f20edc
vpblendmd 0x275594(%rip){1to8}, %ymm0, %ymm0 {%k1} # 0x1f20ed8
vmovdqa %ymm0, 0x4e0(%rsp)
vpcmpled 0x560(%rsp), %ymm0, %k0
kmovd %k0, %ebx
movl %ecx, 0x34(%rsp)
andb %cl, %bl
je 0x1cac550
vmovaps 0x5c0(%rsp), %ymm5
vmovaps 0x2e0(%rsp), %ymm1
vmovaps 0x2a0(%rsp), %ymm2
vminps %xmm2, %xmm1, %xmm0
vmaxps %xmm2, %xmm1, %xmm1
vmovaps 0x2c0(%rsp), %ymm3
vmovaps 0x280(%rsp), %ymm4
vminps %xmm4, %xmm3, %xmm2
vminps %xmm2, %xmm0, %xmm0
vmaxps %xmm4, %xmm3, %xmm2
vmaxps %xmm2, %xmm1, %xmm1
vandps %xmm0, %xmm11, %xmm0
vandps %xmm1, %xmm11, %xmm2
vmaxps %xmm2, %xmm0, %xmm0
vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3]
vmaxss %xmm0, %xmm2, %xmm2
vshufpd $0x1, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[1,0]
vmaxss %xmm2, %xmm0, %xmm0
vmulss 0x2464e4(%rip), %xmm0, %xmm0 # 0x1ef1eb4
vmovss %xmm0, 0x44(%rsp)
vshufps $0xff, %xmm1, %xmm1, %xmm0 # xmm0 = xmm1[3,3,3,3]
vmovaps %xmm0, 0x310(%rsp)
vmovaps %ymm5, 0x360(%rsp)
vaddps 0x380(%rsp), %ymm5, %ymm0
vmovaps %ymm0, 0x500(%rsp)
kmovd %ebx, %k1
vbroadcastss 0x240014(%rip), %ymm0 # 0x1eeba20
vblendmps 0x360(%rsp), %ymm0, %ymm0 {%k1}
vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm0, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1]
vminps %ymm2, %ymm1, %ymm1
vcmpeqps %ymm1, %ymm0, %k0
kmovd %k0, %eax
andb %bl, %al
movzbl %al, %eax
movzbl %bl, %ecx
cmovnel %eax, %ecx
tzcntl %ecx, %ecx
movb $0x1, %bl
shlb %cl, %bl
shll $0x2, %ecx
vmovss 0x520(%rsp,%rcx), %xmm9
vmovss 0x5e0(%rsp,%rcx), %xmm10
vmovaps 0x260(%rsp), %xmm0
vucomiss 0x23ffb0(%rip), %xmm0 # 0x1eeba24
vmovss 0x14c(%rsp), %xmm0
jae 0x1cabac0
vmovaps 0x260(%rsp), %xmm0
vmovaps %xmm9, 0x60(%rsp)
vmovaps %xmm10, 0x80(%rsp)
kmovw %k1, 0xc0(%rsp)
vzeroupper
callq 0x6aa20
kmovw 0xc0(%rsp), %k1
vmovaps 0x80(%rsp), %xmm10
vmovaps 0x60(%rsp), %xmm9
movzbl %bl, %eax
kmovd %eax, %k0
kandnb %k1, %k0, %k0
kmovd %k0, %ebx
vmulss 0x2463dd(%rip), %xmm0, %xmm0 # 0x1ef1eb4
vmovss %xmm0, 0x48(%rsp)
movl $0x4, %r14d
vbroadcastss %xmm10, %xmm0
vxorps %xmm1, %xmm1, %xmm1
vfmadd132ps 0x270(%rsp), %xmm1, %xmm0 # xmm0 = (xmm0 * mem) + xmm1
vmovss 0x240c16(%rip), %xmm1 # 0x1eec714
vsubss %xmm9, %xmm1, %xmm12
vbroadcastss 0x2753b4(%rip), %xmm6 # 0x1f20ec0
vxorps %xmm6, %xmm9, %xmm1
vmulss %xmm1, %xmm12, %xmm1
vmulss %xmm1, %xmm12, %xmm1
vmulss %xmm9, %xmm9, %xmm13
vmovss 0x2454c7(%rip), %xmm8 # 0x1ef0fec
vmovaps %xmm8, %xmm11
vmovss 0x2454d2(%rip), %xmm7 # 0x1ef1004
vfmadd213ss %xmm7, %xmm9, %xmm11 # xmm11 = (xmm9 * xmm11) + xmm7
vmovaps %xmm11, %xmm2
vmovss 0x2454b5(%rip), %xmm5 # 0x1ef0ff8
vfmadd213ss %xmm5, %xmm13, %xmm2 # xmm2 = (xmm13 * xmm2) + xmm5
vmulss %xmm12, %xmm12, %xmm3
vmovaps %xmm8, %xmm4
vfmadd213ss %xmm7, %xmm12, %xmm4 # xmm4 = (xmm12 * xmm4) + xmm7
vfmadd213ss %xmm5, %xmm3, %xmm4 # xmm4 = (xmm3 * xmm4) + xmm5
vxorps %xmm6, %xmm12, %xmm3
vmulss %xmm3, %xmm9, %xmm3
vmulss %xmm3, %xmm9, %xmm3
vmovss 0x241011(%rip), %xmm5 # 0x1eecb80
vmulss %xmm5, %xmm1, %xmm1
vmulss %xmm5, %xmm2, %xmm2
vmulss %xmm5, %xmm4, %xmm4
vmulss %xmm5, %xmm3, %xmm3
vbroadcastss %xmm3, %xmm3
vmulps 0x280(%rsp), %xmm3, %xmm3
vbroadcastss %xmm4, %xmm4
vfmadd132ps 0x2c0(%rsp), %xmm3, %xmm4 # xmm4 = (xmm4 * mem) + xmm3
vbroadcastss %xmm2, %xmm2
vfmadd132ps 0x2a0(%rsp), %xmm4, %xmm2 # xmm2 = (xmm2 * mem) + xmm4
vbroadcastss %xmm1, %xmm3
vfmadd132ps 0x2e0(%rsp), %xmm2, %xmm3 # xmm3 = (xmm3 * mem) + xmm2
vmulss 0x244e1a(%rip), %xmm12, %xmm6 # 0x1ef09dc
vfmadd231ss 0x24543d(%rip), %xmm9, %xmm7 # xmm7 = (xmm9 * mem) + xmm7
vmovaps %xmm7, 0x3c0(%rsp)
vmovss 0x245430(%rip), %xmm1 # 0x1ef100c
vfmadd213ss 0x240fa7(%rip), %xmm9, %xmm1 # xmm1 = (xmm9 * xmm1) + mem
vmovaps %xmm1, 0x3a0(%rsp)
vfmadd213ss 0x244dd5(%rip), %xmm9, %xmm8 # xmm8 = (xmm9 * xmm8) + mem
vmovaps %xmm8, 0x350(%rsp)
vmovaps %xmm3, 0x3e0(%rsp)
vsubps %xmm3, %xmm0, %xmm0
vmovaps %xmm0, 0xc0(%rsp)
vdpps $0x7f, %xmm0, %xmm0, %xmm0
vucomiss 0x23fe00(%rip), %xmm0 # 0x1eeba24
vmovaps %xmm9, 0x60(%rsp)
vmovaps %xmm0, 0xa0(%rsp)
vmovaps %xmm10, 0x80(%rsp)
jb 0x1cabc44
vsqrtss %xmm0, %xmm0, %xmm7
jmp 0x1cabc9e
vmovss %xmm11, 0x1a0(%rsp)
vmovaps %xmm12, 0x180(%rsp)
vmovss %xmm13, 0x110(%rsp)
vmovss %xmm6, 0x100(%rsp)
vzeroupper
callq 0x6aa20
vmovss 0x100(%rsp), %xmm6
vmovss 0x110(%rsp), %xmm13
vmovaps 0x180(%rsp), %xmm12
vmovss 0x1a0(%rsp), %xmm11
vmovaps 0x60(%rsp), %xmm9
vmovaps %xmm0, %xmm7
vaddss %xmm12, %xmm12, %xmm0
vmulss %xmm0, %xmm9, %xmm1
vfnmadd231ss %xmm12, %xmm12, %xmm1 # xmm1 = -(xmm12 * xmm12) + xmm1
vaddss %xmm9, %xmm9, %xmm2
vmovss 0x245333(%rip), %xmm4 # 0x1ef0fec
vmulss %xmm4, %xmm9, %xmm3
vmulss %xmm3, %xmm9, %xmm3
vfmadd213ss %xmm3, %xmm2, %xmm11 # xmm11 = (xmm2 * xmm11) + xmm3
vmovaps %xmm4, %xmm2
vmovss 0x245326(%rip), %xmm4 # 0x1ef0ff8
vfmadd213ss %xmm4, %xmm9, %xmm2 # xmm2 = (xmm9 * xmm2) + xmm4
vmulss 0x245311(%rip), %xmm12, %xmm3 # 0x1ef0ff0
vmulss %xmm3, %xmm12, %xmm3
vfmadd231ss %xmm2, %xmm0, %xmm3 # xmm3 = (xmm0 * xmm2) + xmm3
vfmadd213ss %xmm13, %xmm9, %xmm6 # xmm6 = (xmm9 * xmm6) + xmm13
vmovss 0x240e8b(%rip), %xmm5 # 0x1eecb80
vmulss %xmm5, %xmm1, %xmm0
vmulss %xmm5, %xmm11, %xmm1
vmulss %xmm5, %xmm3, %xmm2
vmulss %xmm5, %xmm6, %xmm3
vbroadcastss %xmm3, %xmm3
vmulps 0x280(%rsp), %xmm3, %xmm3
vbroadcastss %xmm2, %xmm2
vfmadd132ps 0x2c0(%rsp), %xmm3, %xmm2 # xmm2 = (xmm2 * mem) + xmm3
vbroadcastss %xmm1, %xmm1
vfmadd132ps 0x2a0(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2
vbroadcastss %xmm0, %xmm13
vfmadd132ps 0x2e0(%rsp), %xmm1, %xmm13 # xmm13 = (xmm13 * mem) + xmm1
vdpps $0x7f, %xmm13, %xmm13, %xmm0
vxorps %xmm1, %xmm1, %xmm1
vmovss %xmm0, %xmm1, %xmm2 # xmm2 = xmm0[0],xmm1[1,2,3]
vrsqrt14ss %xmm2, %xmm1, %xmm3
vmulss 0x2409bc(%rip), %xmm3, %xmm5 # 0x1eec718
vmulss 0x2409b8(%rip), %xmm0, %xmm6 # 0x1eec71c
vrcp14ss %xmm2, %xmm1, %xmm2
vxorps 0x27514c(%rip){1to4}, %xmm0, %xmm1 # 0x1f20ec0
vmovaps %xmm2, 0x100(%rsp)
vfnmadd213ss %xmm4, %xmm0, %xmm2 # xmm2 = -(xmm0 * xmm2) + xmm4
vmovss %xmm2, 0x4c(%rsp)
vucomiss %xmm1, %xmm0
vmovaps %xmm13, 0x1a0(%rsp)
vmovss %xmm7, 0x180(%rsp)
vmovaps %xmm0, 0x110(%rsp)
jb 0x1cabdb1
vsqrtss %xmm0, %xmm0, %xmm16
jmp 0x1cabe01
vmovaps %xmm3, 0xf0(%rsp)
vmovss %xmm5, 0x24(%rsp)
vmovss %xmm6, 0xe0(%rsp)
vzeroupper
callq 0x6aa20
vmovss 0xe0(%rsp), %xmm6
vmovss 0x24(%rsp), %xmm5
vmovaps 0xf0(%rsp), %xmm3
vmovss 0x180(%rsp), %xmm7
vmovaps 0x1a0(%rsp), %xmm13
vmovaps %xmm0, %xmm16
vmovaps 0xc0(%rsp), %xmm11
vmovaps 0xa0(%rsp), %xmm19
vmulss %xmm3, %xmm6, %xmm0
vmulss %xmm3, %xmm3, %xmm1
vmulss %xmm1, %xmm0, %xmm0
vaddss %xmm0, %xmm5, %xmm0
vbroadcastss %xmm0, %xmm4
vmulps %xmm4, %xmm13, %xmm0
vmovaps %xmm0, 0xf0(%rsp)
vdpps $0x7f, %xmm0, %xmm11, %xmm15
vaddss 0x2408d2(%rip), %xmm7, %xmm14 # 0x1eec714
vmulps %xmm15, %xmm15, %xmm0
vsubps %xmm0, %xmm19, %xmm0
vxorps %xmm2, %xmm2, %xmm2
vmovss %xmm0, %xmm2, %xmm1 # xmm1 = xmm0[0],xmm2[1,2,3]
vrsqrt14ss %xmm1, %xmm2, %xmm18
vmulss 0x2408b3(%rip), %xmm18, %xmm17 # 0x1eec718
vmulss 0x2408ad(%rip), %xmm0, %xmm20 # 0x1eec71c
vucomiss 0x23fbad(%rip), %xmm0 # 0x1eeba24
jb 0x1cabe82
vsqrtss %xmm0, %xmm0, %xmm0
jmp 0x1cabf1d
vmovss %xmm14, 0x24(%rsp)
vmovaps %xmm15, 0xe0(%rsp)
vmovss %xmm16, 0x40(%rsp)
vmovss %xmm17, 0x3c(%rsp)
vmovaps %xmm18, 0x340(%rsp)
vmovss %xmm20, 0x38(%rsp)
vmovaps %xmm4, 0x330(%rsp)
vzeroupper
callq 0x6aa20
vmovaps 0x330(%rsp), %xmm4
vmovss 0x38(%rsp), %xmm20
vmovaps 0x340(%rsp), %xmm18
vmovss 0x3c(%rsp), %xmm17
vmovss 0x40(%rsp), %xmm16
vmovaps 0xe0(%rsp), %xmm15
vmovss 0x24(%rsp), %xmm14
vmovss 0x180(%rsp), %xmm7
vmovaps 0x1a0(%rsp), %xmm13
vmovaps 0xa0(%rsp), %xmm19
vmovaps 0xc0(%rsp), %xmm11
vbroadcastss 0x274f9e(%rip), %xmm8 # 0x1f20ec4
vmovaps 0x240(%rsp), %ymm30
vmovaps 0x220(%rsp), %ymm31
vmovaps 0x200(%rsp), %ymm21
vmovaps 0x60(%rsp), %xmm9
vmovaps 0x80(%rsp), %xmm10
vbroadcastss 0x350(%rsp), %xmm1
vmulps 0x280(%rsp), %xmm1, %xmm1
vbroadcastss 0x3a0(%rsp), %xmm2
vfmadd132ps 0x2c0(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1
vbroadcastss 0x3c0(%rsp), %xmm1
vfmadd132ps 0x2a0(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2
vmovss 0x245060(%rip), %xmm2 # 0x1ef0ff0
vfmadd213ss 0x24505f(%rip), %xmm9, %xmm2 # xmm2 = (xmm9 * xmm2) + mem
vbroadcastss %xmm2, %xmm2
vfmadd132ps 0x2e0(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1
vbroadcastss 0x110(%rsp), %xmm1
vmulps %xmm1, %xmm2, %xmm1
vdpps $0x7f, %xmm2, %xmm13, %xmm2
vbroadcastss %xmm2, %xmm2
vmulps %xmm2, %xmm13, %xmm2
vsubps %xmm2, %xmm1, %xmm1
vmovss 0x4c(%rsp), %xmm2
vmulss 0x100(%rsp), %xmm2, %xmm2
vmulss 0x48(%rsp), %xmm10, %xmm3
vbroadcastss %xmm2, %xmm2
vmulps %xmm2, %xmm1, %xmm1
vxorps 0x274ecf(%rip){1to4}, %xmm13, %xmm2 # 0x1f20ec0
vmulps %xmm1, %xmm4, %xmm4
vmovaps 0xf0(%rsp), %xmm12
vdpps $0x7f, %xmm12, %xmm2, %xmm5
vmovss 0x44(%rsp), %xmm6
vmaxss %xmm3, %xmm6, %xmm1
vdivss %xmm16, %xmm6, %xmm3
vdpps $0x7f, %xmm4, %xmm11, %xmm4
vfmadd213ss %xmm1, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm7) + xmm1
vfmadd213ss %xmm7, %xmm3, %xmm14 # xmm14 = (xmm3 * xmm14) + xmm7
vmovaps 0x270(%rsp), %xmm7
vdpps $0x7f, %xmm12, %xmm7, %xmm3
vaddss %xmm4, %xmm5, %xmm4
vdpps $0x7f, %xmm2, %xmm11, %xmm5
vmulss %xmm18, %xmm20, %xmm2
vmulss %xmm18, %xmm18, %xmm6
vmulss %xmm6, %xmm2, %xmm2
vdpps $0x7f, %xmm7, %xmm11, %xmm6
vaddss %xmm2, %xmm17, %xmm7
vfnmadd231ss %xmm4, %xmm15, %xmm5 # xmm5 = -(xmm15 * xmm4) + xmm5
vfnmadd231ss %xmm3, %xmm15, %xmm6 # xmm6 = -(xmm15 * xmm3) + xmm6
vpermilps $0xff, 0x3e0(%rsp), %xmm2 # xmm2 = mem[3,3,3,3]
vsubss %xmm2, %xmm0, %xmm2
vshufps $0xff, %xmm13, %xmm13, %xmm0 # xmm0 = xmm13[3,3,3,3]
vfmsub213ss %xmm0, %xmm7, %xmm5 # xmm5 = (xmm7 * xmm5) - xmm0
vmulss %xmm7, %xmm6, %xmm6
vmulss %xmm5, %xmm3, %xmm7
vfmsub231ss %xmm6, %xmm4, %xmm7 # xmm7 = (xmm4 * xmm6) - xmm7
vdivss %xmm7, %xmm6, %xmm6
vdivss %xmm7, %xmm5, %xmm5
vdivss %xmm7, %xmm3, %xmm3
vdivss %xmm7, %xmm4, %xmm4
vmulss %xmm6, %xmm15, %xmm6
vmulss %xmm3, %xmm2, %xmm3
vsubss %xmm3, %xmm6, %xmm3
vmulss %xmm5, %xmm15, %xmm5
vmulss %xmm4, %xmm2, %xmm4
vsubss %xmm5, %xmm4, %xmm4
vsubss %xmm3, %xmm9, %xmm9
vsubss %xmm4, %xmm10, %xmm10
vandps %xmm8, %xmm15, %xmm3
vucomiss %xmm3, %xmm14
jbe 0x1cac279
vaddss %xmm1, %xmm14, %xmm1
vmovaps 0x310(%rsp), %xmm3
vfmadd231ss 0x245dd5(%rip), %xmm3, %xmm1 # xmm1 = (xmm3 * mem) + xmm1
vandps %xmm2, %xmm8, %xmm2
vucomiss %xmm2, %xmm1
jbe 0x1cac279
vaddss 0x320(%rsp), %xmm10, %xmm10
movb $0x1, %r13b
vucomiss 0x5c(%rsp), %xmm10
jb 0x1cac27c
movq 0x18(%rsp), %rax
vmovss 0x80(%r12,%rax,4), %xmm4
vucomiss %xmm10, %xmm4
jb 0x1cac27c
vucomiss 0x23f8fd(%rip), %xmm9 # 0x1eeba24
jb 0x1cac27c
vmovss 0x2405df(%rip), %xmm1 # 0x1eec714
vucomiss %xmm9, %xmm1
jb 0x1cac27c
vxorps %xmm2, %xmm2, %xmm2
vmovss %xmm19, %xmm2, %xmm1 # xmm1 = xmm19[0],xmm2[1,2,3]
vrsqrt14ss %xmm1, %xmm2, %xmm1
vmulss 0x2405c0(%rip), %xmm1, %xmm2 # 0x1eec718
vmulss 0x2405ba(%rip), %xmm19, %xmm3 # 0x1eec71c
movq (%r15), %rax
movq 0x1e8(%rax), %rax
movq %r15, %rcx
movq 0x50(%rsp), %rdx
movq (%rax,%rdx,8), %r15
movq 0x18(%rsp), %rax
movl 0x90(%r12,%rax,4), %eax
testl %eax, 0x34(%r15)
je 0x1cac299
vmulss %xmm1, %xmm3, %xmm3
vmulss %xmm1, %xmm1, %xmm1
vmulss %xmm1, %xmm3, %xmm1
vaddss %xmm1, %xmm2, %xmm1
vbroadcastss %xmm1, %xmm1
vmulps %xmm1, %xmm11, %xmm1
vfmadd213ps %xmm13, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm0) + xmm13
vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm13, %xmm13, %xmm3 # xmm3 = xmm13[1,2,0,3]
vmulps %xmm3, %xmm1, %xmm1
vfmsub231ps %xmm2, %xmm13, %xmm1 # xmm1 = (xmm13 * xmm2) - xmm1
vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3]
vshufps $0xd2, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,0,1,3]
vmulps %xmm1, %xmm0, %xmm0
vfmsub231ps %xmm3, %xmm2, %xmm0 # xmm0 = (xmm2 * xmm3) - xmm0
movq 0x10(%rcx), %rax
cmpq $0x0, 0x10(%rax)
jne 0x1cac29e
cmpq $0x0, 0x40(%r15)
jne 0x1cac29e
movq 0x18(%rsp), %rcx
vmovss %xmm10, 0x80(%r12,%rcx,4)
vextractps $0x1, %xmm0, 0xc0(%r12,%rcx,4)
vextractps $0x2, %xmm0, 0xd0(%r12,%rcx,4)
vmovss %xmm0, 0xe0(%r12,%rcx,4)
vmovss %xmm9, 0xf0(%r12,%rcx,4)
movl $0x0, 0x100(%r12,%rcx,4)
movq 0x130(%rsp), %rax
movl %eax, 0x110(%r12,%rcx,4)
movq 0x50(%rsp), %rax
movl %eax, 0x120(%r12,%rcx,4)
movq 0x28(%rsp), %r15
movq 0x8(%r15), %rax
movl (%rax), %eax
movl %eax, 0x130(%r12,%rcx,4)
movq 0x8(%r15), %rax
movl 0x4(%rax), %eax
movl %eax, 0x140(%r12,%rcx,4)
jmp 0x1cac27c
xorl %r13d, %r13d
subq $0x1, %r14
setb %al
testb %r13b, %r13b
jne 0x1cac52d
testb %al, %al
je 0x1cabae3
jmp 0x1cac52d
movq %rcx, %r15
jmp 0x1cac27c
movq 0x28(%rsp), %rcx
movq 0x8(%rcx), %rax
vbroadcastss %xmm9, %xmm1
vshufps $0x55, %xmm0, %xmm0, %xmm2 # xmm2 = xmm0[1,1,1,1]
vshufps $0xaa, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[2,2,2,2]
vbroadcastss %xmm0, %xmm0
vmovaps %xmm2, 0x440(%rsp)
vmovaps %xmm3, 0x450(%rsp)
vmovaps %xmm0, 0x460(%rsp)
vmovaps %xmm1, 0x470(%rsp)
vxorps %xmm0, %xmm0, %xmm0
vmovaps %xmm0, 0x480(%rsp)
vmovaps 0x420(%rsp), %xmm0
vmovaps %xmm0, 0x490(%rsp)
vmovdqa 0x430(%rsp), %xmm0
vmovdqa %xmm0, 0x4a0(%rsp)
leaq 0x4b0(%rsp), %rdx
vpcmpeqd %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, (%rdx)
vbroadcastss (%rax), %xmm0
vmovaps %xmm0, 0x4b0(%rsp)
vbroadcastss 0x4(%rax), %xmm0
vmovaps %xmm0, 0x4c0(%rsp)
movq 0x18(%rsp), %rax
vmovss %xmm10, 0x80(%r12,%rax,4)
vmovaps 0x410(%rsp), %xmm0
vmovaps %xmm0, 0x120(%rsp)
leaq 0x120(%rsp), %rax
movq %rax, 0x150(%rsp)
movq 0x18(%r15), %rax
movq %rax, 0x158(%rsp)
movq 0x8(%rcx), %rax
movq %rax, 0x160(%rsp)
movq %r12, 0x168(%rsp)
leaq 0x440(%rsp), %rax
movq %rax, 0x170(%rsp)
movl $0x4, 0x178(%rsp)
movq 0x40(%r15), %rax
testq %rax, %rax
vmovaps %xmm9, 0x60(%rsp)
vmovaps %xmm10, 0x80(%rsp)
vmovss %xmm4, 0xa0(%rsp)
je 0x1cac407
leaq 0x150(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0xa0(%rsp), %xmm4
vmovaps 0x80(%rsp), %xmm10
vmovaps 0x60(%rsp), %xmm9
vmovaps 0x200(%rsp), %ymm21
vmovaps 0x220(%rsp), %ymm31
vmovaps 0x240(%rsp), %ymm30
vmovdqa 0x120(%rsp), %xmm0
vptestmd %xmm0, %xmm0, %k0
kortestb %k0, %k0
je 0x1cac514
movq 0x28(%rsp), %rax
movq 0x10(%rax), %rcx
movq 0x10(%rcx), %rax
testq %rax, %rax
je 0x1cac47b
testb $0x2, (%rcx)
jne 0x1cac43e
testb $0x40, 0x3e(%r15)
je 0x1cac47b
leaq 0x150(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0xa0(%rsp), %xmm4
vmovaps 0x80(%rsp), %xmm10
vmovaps 0x60(%rsp), %xmm9
vmovaps 0x200(%rsp), %ymm21
vmovaps 0x220(%rsp), %ymm31
vmovaps 0x240(%rsp), %ymm30
vmovdqa 0x120(%rsp), %xmm0
vptestmd %xmm0, %xmm0, %k1
kortestb %k1, %k1
je 0x1cac514
movq 0x168(%rsp), %rax
movq 0x170(%rsp), %rcx
vmovaps (%rcx), %xmm0
vmovups %xmm0, 0xc0(%rax) {%k1}
vmovaps 0x10(%rcx), %xmm0
vmovups %xmm0, 0xd0(%rax) {%k1}
vmovaps 0x20(%rcx), %xmm0
vmovups %xmm0, 0xe0(%rax) {%k1}
vmovaps 0x30(%rcx), %xmm0
vmovups %xmm0, 0xf0(%rax) {%k1}
vmovaps 0x40(%rcx), %xmm0
vmovups %xmm0, 0x100(%rax) {%k1}
vmovdqa 0x50(%rcx), %xmm0
vmovdqu32 %xmm0, 0x110(%rax) {%k1}
vmovdqa 0x60(%rcx), %xmm0
vmovdqu32 %xmm0, 0x120(%rax) {%k1}
vmovdqa 0x70(%rcx), %xmm0
vmovdqa32 %xmm0, 0x130(%rax) {%k1}
vmovdqa 0x80(%rcx), %xmm0
vmovdqa32 %xmm0, 0x140(%rax) {%k1}
jmp 0x1cac523
movq 0x18(%rsp), %rax
vmovss %xmm4, 0x80(%r12,%rax,4)
movq 0x28(%rsp), %r15
jmp 0x1cac27c
movq 0x18(%rsp), %rax
vmovaps 0x500(%rsp), %ymm0
vcmpleps 0x80(%r12,%rax,4){1to8}, %ymm0, %k0
kmovd %k0, %eax
andb %al, %bl
jne 0x1cab9ff
vmovdqa 0x560(%rsp), %ymm1
vpcmpltd 0x4e0(%rsp), %ymm1, %k1
vmovaps 0x860(%rsp), %ymm0
vpcmpltd 0x600(%rsp), %ymm1, %k2
vmovaps 0x380(%rsp), %ymm3
vaddps %ymm0, %ymm3, %ymm1
movq 0x18(%rsp), %rax
vbroadcastss 0x80(%r12,%rax,4), %ymm2
vcmpleps %ymm2, %ymm1, %k0 {%k2}
kmovd %k0, %eax
movl 0x140(%rsp), %ecx
andb %al, %cl
vmovaps 0x5c0(%rsp), %ymm1
vaddps %ymm1, %ymm3, %ymm3
vcmpleps %ymm2, %ymm3, %k0 {%k1}
kmovd %k0, %eax
movl 0x34(%rsp), %edx
andb %al, %dl
orb %cl, %dl
je 0x1cac643
movq 0x1f0(%rsp), %r9
movl %r9d, %eax
leaq (%rax,%rax,2), %rax
shlq $0x5, %rax
movb %dl, 0x8a0(%rsp,%rax)
kmovd %ecx, %k1
vmovaps %ymm0, %ymm1 {%k1}
vmovaps %ymm1, 0x8c0(%rsp,%rax)
vmovaps 0x1d0(%rsp), %xmm2
vmovlps %xmm2, 0x8e0(%rsp,%rax)
movq 0x1e8(%rsp), %r11
leal 0x1(%r11), %ecx
movl %ecx, 0x8e8(%rsp,%rax)
incl %r9d
movq 0x1e0(%rsp), %r8
vbroadcastss 0x2400e7(%rip), %ymm16 # 0x1eec714
movq 0x1f8(%rsp), %r10
jmp 0x1cac676
vbroadcastss 0x2400d3(%rip), %ymm16 # 0x1eec714
jmp 0x1cac66d
movq 0x1e0(%rsp), %r8
vbroadcastss 0x2400bf(%rip), %ymm16 # 0x1eec714
movq 0x1f8(%rsp), %r10
movq 0x1f0(%rsp), %r9
movq 0x1e8(%rsp), %r11
vmovaps 0x1d0(%rsp), %xmm2
movl %r9d, %eax
testl %eax, %eax
je 0x1cac7cb
leal -0x1(%rax), %r9d
leaq (%r9,%r9,2), %rcx
shlq $0x5, %rcx
vmovaps 0x8c0(%rsp,%rcx), %ymm0
movzbl 0x8a0(%rsp,%rcx), %esi
vaddps 0x380(%rsp), %ymm0, %ymm1
movq 0x18(%rsp), %rdx
vcmpleps 0x80(%r12,%rdx,4){1to8}, %ymm1, %k0
kmovb %k0, %edx
andl %esi, %edx
je 0x1cac76e
kmovd %edx, %k1
vbroadcastss 0x23f352(%rip), %ymm1 # 0x1eeba20
vblendmps %ymm0, %ymm1, %ymm0 {%k1}
vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm0, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1]
vminps %ymm2, %ymm1, %ymm1
vcmpeqps %ymm1, %ymm0, %k0
kmovd %k0, %esi
andb %dl, %sil
je 0x1cac706
movzbl %sil, %edi
jmp 0x1cac709
movzbl %dl, %edi
leaq (%rsp,%rcx), %rsi
addq $0x8a0, %rsi # imm = 0x8A0
vmovss 0x44(%rsi), %xmm0
tzcntl %edi, %ecx
movb $0x1, %dil
shlb %cl, %dil
movl 0x48(%rsi), %r11d
movzbl %dil, %edi
kmovd %edi, %k0
kmovd %edx, %k1
kandnb %k1, %k0, %k0
kmovb %k0, (%rsi)
kortestb %k0, %k0
je 0x1cac744
movl %eax, %r9d
vbroadcastss 0x40(%rsi), %ymm1
vsubss %xmm1, %xmm0, %xmm0
vbroadcastss %xmm0, %ymm0
vfmadd132ps 0x2747c4(%rip), %ymm1, %ymm0 # ymm0 = (ymm0 * mem) + ymm1
vmovaps %ymm0, 0x440(%rsp)
vmovsd 0x440(%rsp,%rcx,4), %xmm2
movl %r9d, %eax
testb %dl, %dl
je 0x1cac679
jmp 0x1caa14a
vcmpleps 0x274777(%rip), %ymm4, %k2 # 0x1f20f00
vbroadcastss 0x2403f2(%rip), %ymm4 # 0x1eecb84
vbroadcastss 0x23f284(%rip), %ymm16 # 0x1eeba20
vblendmps %ymm4, %ymm16, %ymm3 {%k2}
vmovaps %ymm3, %ymm30 {%k1}
vblendmps %ymm16, %ymm4, %ymm3 {%k2}
kmovd %k2, %ecx
vmovaps %ymm3, %ymm31 {%k1}
knotb %k1, %k0
kmovd %k0, %edx
orb %cl, %dl
andb %al, %dl
movl %edx, %eax
jmp 0x1caa74f
movq 0x18(%rsp), %rax
vmovaps 0x620(%rsp), %ymm0
vcmpleps 0x80(%r12,%rax,4){1to8}, %ymm0, %k0
kmovb %k0, %eax
andl %eax, %r10d
jne 0x1ca9dc5
leaq -0x28(%rbp), %rsp
popq %rbx
popq %r12
popq %r13
popq %r14
popq %r15
popq %rbp
vzeroupper
retq
nop
|
/embree[P]embree/kernels/geometry/curveNi_intersector.h
|
bool embree::avx512::CurveNiIntersectorK<8, 4>::occluded_t<embree::avx512::SweepCurve1IntersectorK<embree::CatmullRomCurveT, 4>, embree::avx512::Occluded1KEpilog1<4, true>>(embree::avx512::CurvePrecalculationsK<4>&, embree::RayK<4>&, unsigned long, embree::RayQueryContext*, embree::CurveNi<8> const&)
|
static __forceinline bool occluded_t(Precalculations& pre, RayK<K>& ray, const size_t k, RayQueryContext* context, const Primitive& prim)
{
vfloat<M> tNear;
vbool<M> valid = intersect(ray,k,prim,tNear);
const size_t N = prim.N;
size_t mask = movemask(valid);
while (mask)
{
const size_t i = bscf(mask);
STAT3(shadow.trav_prims,1,1,1);
const unsigned int geomID = prim.geomID(N);
const unsigned int primID = prim.primID(N)[i];
const CurveGeometry* geom = context->scene->get<CurveGeometry>(geomID);
Vec3ff a0,a1,a2,a3; geom->gather(a0,a1,a2,a3,geom->curve(primID));
size_t mask1 = mask;
const size_t i1 = bscf(mask1);
if (mask) {
const unsigned int primID1 = prim.primID(N)[i1];
geom->prefetchL1_vertices(geom->curve(primID1));
if (mask1) {
const size_t i2 = bsf(mask1);
const unsigned int primID2 = prim.primID(N)[i2];
geom->prefetchL2_vertices(geom->curve(primID2));
}
}
if (Intersector().intersect(pre,ray,k,context,geom,primID,a0,a1,a2,a3,Epilog(ray,k,context,geomID,primID)))
return true;
mask &= movemask(tNear <= vfloat<M>(ray.tfar[k]));
}
return false;
}
|
pushq %rbp
movq %rsp, %rbp
pushq %r15
pushq %r14
pushq %r13
pushq %r12
pushq %rbx
andq $-0x20, %rsp
subq $0x9c0, %rsp # imm = 0x9C0
movzbl 0x1(%r8), %eax
leaq (%rax,%rax,4), %r9
leaq (%r9,%r9,4), %rdi
vbroadcastss 0x12(%r8,%rdi), %xmm0
vmovss (%rsi,%rdx,4), %xmm1
vmovss 0x40(%rsi,%rdx,4), %xmm2
vinsertps $0x10, 0x10(%rsi,%rdx,4), %xmm1, %xmm1 # xmm1 = xmm1[0],mem[0],xmm1[2,3]
vinsertps $0x20, 0x20(%rsi,%rdx,4), %xmm1, %xmm1 # xmm1 = xmm1[0,1],mem[0],xmm1[3]
vinsertps $0x10, 0x50(%rsi,%rdx,4), %xmm2, %xmm2 # xmm2 = xmm2[0],mem[0],xmm2[2,3]
movq %rcx, %r14
vinsertps $0x20, 0x60(%rsi,%rdx,4), %xmm2, %xmm2 # xmm2 = xmm2[0,1],mem[0],xmm2[3]
vsubps 0x6(%r8,%rdi), %xmm1, %xmm1
vmulps %xmm1, %xmm0, %xmm3
vmulps %xmm2, %xmm0, %xmm0
vpmovsxbd 0x6(%r8,%rax,4), %ymm1
vcvtdq2ps %ymm1, %ymm5
vpmovsxbd 0x6(%r8,%r9), %ymm1
vcvtdq2ps %ymm1, %ymm6
leaq (%rax,%rax,2), %rcx
vpmovsxbd 0x6(%r8,%rcx,2), %ymm1
vcvtdq2ps %ymm1, %ymm2
leaq (%rax,%r9,2), %rdi
vpmovsxbd 0x6(%r8,%rdi), %ymm1
vcvtdq2ps %ymm1, %ymm7
leal (,%rcx,4), %edi
vpmovsxbd 0x6(%r8,%rdi), %ymm1
vcvtdq2ps %ymm1, %ymm8
addq %rax, %rdi
vpmovsxbd 0x6(%r8,%rdi), %ymm1
vcvtdq2ps %ymm1, %ymm9
leaq (%rax,%rax,8), %r10
leal (%r10,%r10), %edi
vpmovsxbd 0x6(%r8,%rdi), %ymm1
addq %rax, %rdi
vpmovsxbd 0x6(%r8,%rdi), %ymm4
vcvtdq2ps %ymm1, %ymm10
vcvtdq2ps %ymm4, %ymm11
shll $0x2, %r9d
vpmovsxbd 0x6(%r8,%r9), %ymm1
vcvtdq2ps %ymm1, %ymm12
vbroadcastss %xmm0, %ymm13
vbroadcastss 0x265e07(%rip), %ymm15 # 0x1f12704
vpermps %ymm0, %ymm15, %ymm14
vbroadcastss 0x2745d0(%rip), %ymm16 # 0x1f20edc
vpermps %ymm0, %ymm16, %ymm0
vmulps %ymm2, %ymm0, %ymm4
vmulps %ymm0, %ymm9, %ymm1
vmulps %ymm0, %ymm12, %ymm0
vfmadd231ps %ymm6, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm6) + ymm4
vfmadd231ps %ymm8, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm8) + ymm1
vfmadd231ps %ymm14, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm14) + ymm0
vfmadd231ps %ymm5, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm5) + ymm4
vfmadd231ps %ymm7, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm7) + ymm1
vfmadd231ps %ymm13, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm13) + ymm0
vbroadcastss %xmm3, %ymm13
vpermps %ymm3, %ymm15, %ymm14
vpermps %ymm3, %ymm16, %ymm15
vmulps %ymm2, %ymm15, %ymm16
vmulps %ymm9, %ymm15, %ymm3
vmulps %ymm12, %ymm15, %ymm2
vfmadd231ps %ymm6, %ymm14, %ymm16 # ymm16 = (ymm14 * ymm6) + ymm16
vfmadd231ps %ymm8, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm8) + ymm3
vfmadd231ps %ymm11, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm11) + ymm2
vfmadd231ps %ymm5, %ymm13, %ymm16 # ymm16 = (ymm13 * ymm5) + ymm16
vfmadd231ps %ymm7, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm7) + ymm3
vfmadd231ps %ymm10, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm10) + ymm2
vbroadcastss 0x27453e(%rip), %ymm28 # 0x1f20ec4
vandps %ymm28, %ymm4, %ymm5
vbroadcastss 0x244653(%rip), %ymm6 # 0x1ef0fe8
vcmpltps %ymm6, %ymm5, %k1
vmovaps %ymm6, %ymm4 {%k1}
vandps %ymm28, %ymm1, %ymm5
vcmpltps %ymm6, %ymm5, %k1
vmovaps %ymm6, %ymm1 {%k1}
vandps %ymm28, %ymm0, %ymm5
vcmpltps %ymm6, %ymm5, %k1
vmovaps %ymm6, %ymm0 {%k1}
vrcp14ps %ymm4, %ymm5
vbroadcastss 0x23fd3d(%rip), %ymm6 # 0x1eec714
vfnmadd213ps %ymm6, %ymm5, %ymm4 # ymm4 = -(ymm5 * ymm4) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm4 # ymm4 = (ymm4 * ymm5) + ymm5
vrcp14ps %ymm1, %ymm5
vfnmadd213ps %ymm6, %ymm5, %ymm1 # ymm1 = -(ymm5 * ymm1) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm1 # ymm1 = (ymm1 * ymm5) + ymm5
vrcp14ps %ymm0, %ymm5
vfnmadd213ps %ymm6, %ymm5, %ymm0 # ymm0 = -(ymm5 * ymm0) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm0 # ymm0 = (ymm0 * ymm5) + ymm5
leaq (,%rax,8), %rdi
subq %rax, %rdi
vpmovsxwd 0x6(%r8,%rdi), %ymm5
vcvtdq2ps %ymm5, %ymm5
vsubps %ymm16, %ymm5, %ymm5
vpmovsxwd 0x6(%r8,%r10), %ymm6
vmulps %ymm5, %ymm4, %ymm5
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm16, %ymm6, %ymm6
vmulps %ymm6, %ymm4, %ymm4
leaq (%rax,%rax), %r10
addq %rax, %r9
shlq $0x3, %rcx
subq %rax, %rcx
movl %eax, %edi
shll $0x4, %edi
vpmovsxwd 0x6(%r8,%rdi), %ymm6
subq %r10, %rdi
vpmovsxwd 0x6(%r8,%rdi), %ymm7
vcvtdq2ps %ymm7, %ymm7
vsubps %ymm3, %ymm7, %ymm7
vmulps %ymm7, %ymm1, %ymm7
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm3, %ymm6, %ymm3
vmulps %ymm3, %ymm1, %ymm1
vpmovsxwd 0x6(%r8,%r9), %ymm3
vcvtdq2ps %ymm3, %ymm3
vsubps %ymm2, %ymm3, %ymm3
vmulps %ymm0, %ymm3, %ymm3
vpmovsxwd 0x6(%r8,%rcx), %ymm6
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm2, %ymm6, %ymm2
vmulps %ymm2, %ymm0, %ymm0
vpminsd %ymm4, %ymm5, %ymm2
vpminsd %ymm1, %ymm7, %ymm6
vmaxps %ymm6, %ymm2, %ymm2
vpminsd %ymm0, %ymm3, %ymm6
vmaxps 0x30(%rsi,%rdx,4){1to8}, %ymm6, %ymm6
vmaxps %ymm6, %ymm2, %ymm2
vmulps 0x27344f(%rip){1to8}, %ymm2, %ymm6 # 0x1f1ff10
vpmaxsd %ymm4, %ymm5, %ymm2
vpmaxsd %ymm1, %ymm7, %ymm1
vminps %ymm1, %ymm2, %ymm1
vpmaxsd %ymm0, %ymm3, %ymm0
movq %rsi, 0x20(%rsp)
vminps 0x80(%rsi,%rdx,4){1to8}, %ymm0, %ymm0
vminps %ymm0, %ymm1, %ymm0
vmulps 0x273425(%rip){1to8}, %ymm0, %ymm0 # 0x1f1ff14
vpbroadcastd %eax, %ymm1
vpcmpgtd 0x2ade21(%rip), %ymm1, %k0 # 0x1f5a920
vmovaps %ymm6, 0x740(%rsp)
vcmpleps %ymm0, %ymm6, %k1
ktestb %k0, %k1
setne %r15b
je 0x1caf66f
kandb %k0, %k1, %k0
kmovd %k0, %eax
movzbl %al, %r12d
movl $0x1, %eax
shlxl %edx, %eax, %eax
kmovd %eax, %k0
vpmovm2d %k0, %xmm0
vmovdqa %xmm0, 0x510(%rsp)
movq %rdx, 0x30(%rsp)
movq %r8, 0x320(%rsp)
movq %r14, 0x38(%rsp)
tzcntq %r12, %rax
movl 0x2(%r8), %esi
movl 0x6(%r8,%rax,4), %eax
movq (%r14), %rcx
movq 0x1e8(%rcx), %rcx
movq %rsi, 0x118(%rsp)
movq (%rcx,%rsi,8), %rdi
movq 0x58(%rdi), %rcx
movq 0x68(%rdi), %r11
movq %r11, %rsi
imulq %rax, %rsi
movl (%rcx,%rsi), %r10d
movq 0xa0(%rdi), %rsi
movq %rsi, %r9
imulq %r10, %r9
movq 0x90(%rdi), %rdi
vmovaps (%rdi,%r9), %xmm1
leaq 0x1(%r10), %r9
imulq %rsi, %r9
vmovaps (%rdi,%r9), %xmm0
leaq 0x2(%r10), %r9
imulq %rsi, %r9
vmovaps (%rdi,%r9), %xmm2
blsrq %r12, %r12
addq $0x3, %r10
imulq %rsi, %r10
vmovaps (%rdi,%r10), %xmm3
movq %r12, %r10
subq $0x1, %r10
jb 0x1cacc2a
andq %r12, %r10
tzcntq %r12, %r9
movl 0x6(%r8,%r9,4), %r9d
imulq %r11, %r9
movl (%rcx,%r9), %r9d
imulq %rsi, %r9
prefetcht0 (%rdi,%r9)
prefetcht0 0x40(%rdi,%r9)
testq %r10, %r10
je 0x1cacc2a
tzcntq %r10, %r9
movl 0x6(%r8,%r9,4), %r9d
imulq %r9, %r11
movl (%rcx,%r11), %ecx
imulq %rcx, %rsi
prefetcht1 (%rdi,%rsi)
prefetcht1 0x40(%rdi,%rsi)
movq 0x20(%rsp), %rcx
vmovss (%rcx,%rdx,4), %xmm4
vinsertps $0x1c, 0x10(%rcx,%rdx,4), %xmm4, %xmm4 # xmm4 = xmm4[0],mem[0],zero,zero
vinsertps $0x28, 0x20(%rcx,%rdx,4), %xmm4, %xmm4 # xmm4 = xmm4[0,1],mem[0],zero
vbroadcastss 0x40(%rcx,%rdx,4), %ymm26
vbroadcastss 0x50(%rcx,%rdx,4), %ymm30
vunpcklps %xmm30, %xmm26, %xmm5 # xmm5 = xmm26[0],xmm30[0],xmm26[1],xmm30[1]
vbroadcastss 0x60(%rcx,%rdx,4), %ymm12
vinsertps $0x28, %xmm12, %xmm5, %xmm9 # xmm9 = xmm5[0,1],xmm12[0],zero
vaddps %xmm0, %xmm1, %xmm5
vmulps 0x23ff0b(%rip){1to4}, %xmm5, %xmm5 # 0x1eecb80
vsubps %xmm4, %xmm5, %xmm5
vdpps $0x7f, %xmm9, %xmm5, %xmm5
vmovss 0x30(%rcx,%rdx,4), %xmm10
vdpps $0x7f, %xmm9, %xmm9, %xmm11
vxorps %xmm8, %xmm8, %xmm8
vmovss %xmm11, %xmm8, %xmm6
vrcp14ss %xmm6, %xmm8, %xmm6
vmovaps %xmm6, %xmm7
vfnmadd213ss 0x244351(%rip), %xmm11, %xmm7 # xmm7 = -(xmm11 * xmm7) + mem
vmulss %xmm7, %xmm6, %xmm6
vmulss %xmm6, %xmm5, %xmm5
vbroadcastss %xmm5, %ymm6
vmovaps %xmm9, 0x370(%rsp)
vmovaps %ymm6, 0x5e0(%rsp)
vfmadd231ps %xmm6, %xmm9, %xmm4 # xmm4 = (xmm9 * xmm6) + xmm4
vblendps $0x8, %xmm8, %xmm4, %xmm4 # xmm4 = xmm4[0,1,2],xmm8[3]
vsubps %xmm4, %xmm1, %xmm6
vsubps %xmm4, %xmm2, %xmm7
vsubps %xmm4, %xmm0, %xmm8
vsubps %xmm4, %xmm3, %xmm3
vbroadcastss %xmm6, %ymm18
vbroadcastss 0x265a14(%rip), %ymm0 # 0x1f12704
vpermps %ymm6, %ymm0, %ymm19
vbroadcastss 0x2741dd(%rip), %ymm1 # 0x1f20edc
vpermps %ymm6, %ymm1, %ymm20
vbroadcastss 0x2741ca(%rip), %ymm2 # 0x1f20ed8
vmovaps %ymm6, 0x3e0(%rsp)
vpermps %ymm6, %ymm2, %ymm22
vbroadcastss %xmm8, %ymm24
vpermps %ymm8, %ymm0, %ymm23
vpermps %ymm8, %ymm1, %ymm25
vmovaps %ymm8, 0x3a0(%rsp)
vpermps %ymm8, %ymm2, %ymm27
vbroadcastss %xmm7, %ymm29
vpermps %ymm7, %ymm0, %ymm31
vpermps %ymm7, %ymm1, %ymm6
vmovaps %ymm7, 0x3c0(%rsp)
vpermps %ymm7, %ymm2, %ymm4
vmovaps %ymm4, 0x820(%rsp)
vbroadcastss %xmm3, %ymm16
vpermps %ymm3, %ymm0, %ymm21
vpermps %ymm3, %ymm1, %ymm4
vmovaps %ymm3, 0x380(%rsp)
vpermps %ymm3, %ymm2, %ymm0
vmovaps %ymm0, 0x800(%rsp)
vmovaps %ymm12, 0x6c0(%rsp)
vmulss %xmm12, %xmm12, %xmm0
vfmadd231ps %ymm30, %ymm30, %ymm0 # ymm0 = (ymm30 * ymm30) + ymm0
vfmadd231ps %ymm26, %ymm26, %ymm0 # ymm0 = (ymm26 * ymm26) + ymm0
vbroadcastss %xmm0, %ymm7
vandps %ymm28, %ymm7, %ymm0
vmovaps %ymm0, 0x6a0(%rsp)
vmovss %xmm10, 0x5c(%rsp)
vmovaps %xmm5, 0x430(%rsp)
vsubss %xmm5, %xmm10, %xmm0
vbroadcastss %xmm0, %ymm0
vmovaps %ymm0, 0x7c0(%rsp)
vpbroadcastd %eax, %xmm0
vmovdqa %xmm0, 0x530(%rsp)
movl $0x1, %eax
movq %rax, 0x120(%rsp)
xorl %ebx, %ebx
xorl %r13d, %r13d
movq 0x118(%rsp), %rax
vpbroadcastd %eax, %xmm0
vmovdqa %xmm0, 0x520(%rsp)
vsqrtss %xmm11, %xmm11, %xmm0
vmovss %xmm0, 0x13c(%rsp)
vmovaps %xmm11, 0x360(%rsp)
vsqrtss %xmm11, %xmm11, %xmm0
vmovss %xmm0, 0x138(%rsp)
vmovsd 0x23f8ae(%rip), %xmm1 # 0x1eec6f0
vbroadcastss 0x274075(%rip), %ymm2 # 0x1f20ec0
vmovaps %ymm4, %ymm3
vmovaps %ymm4, 0x4a0(%rsp)
vmovaps %ymm7, 0x7e0(%rsp)
vmovaps %ymm26, 0x1e0(%rsp)
vmovaps %ymm30, 0x1c0(%rsp)
vmovaps %ymm18, 0x1a0(%rsp)
vmovaps %ymm19, 0x300(%rsp)
vmovaps %ymm20, 0x2e0(%rsp)
vmovaps %ymm22, 0x180(%rsp)
vmovaps %ymm24, 0x2c0(%rsp)
vmovaps %ymm23, 0x160(%rsp)
vmovaps %ymm25, 0x140(%rsp)
vmovaps %ymm27, 0x2a0(%rsp)
vmovaps %ymm29, 0x280(%rsp)
vmovaps %ymm31, 0x260(%rsp)
vmovaps %ymm6, 0x7a0(%rsp)
vmovaps %ymm16, 0x780(%rsp)
vmovaps %ymm21, 0x760(%rsp)
vmovshdup %xmm1, %xmm0 # xmm0 = xmm1[1,1,3,3]
vsubss %xmm1, %xmm0, %xmm0
vmulss 0x273fe6(%rip), %xmm0, %xmm4 # 0x1f20ed0
vmovaps %xmm4, 0x60(%rsp)
vmovaps %xmm1, 0x410(%rsp)
vbroadcastss %xmm1, %ymm4
vbroadcastss %xmm0, %ymm0
vmovaps %ymm4, 0x200(%rsp)
vmovaps %ymm0, 0xa0(%rsp)
vfmadd231ps 0x274002(%rip), %ymm0, %ymm4 # ymm4 = (ymm0 * mem) + ymm4
vbroadcastss 0x23f7ed(%rip), %ymm0 # 0x1eec714
vsubps %ymm4, %ymm0, %ymm7
vxorps %ymm2, %ymm4, %ymm0
vmulps %ymm0, %ymm7, %ymm0
vmulps %ymm0, %ymm7, %ymm0
vmulps %ymm4, %ymm4, %ymm8
vbroadcastss 0x2440a8(%rip), %ymm5 # 0x1ef0fec
vmulps %ymm5, %ymm4, %ymm9
vbroadcastss 0x2440b3(%rip), %ymm13 # 0x1ef1004
vaddps %ymm13, %ymm9, %ymm10
vmulps %ymm10, %ymm8, %ymm1
vbroadcastss 0x244094(%rip), %ymm14 # 0x1ef0ff8
vaddps %ymm1, %ymm14, %ymm1
vmulps %ymm7, %ymm7, %ymm11
vmulps %ymm5, %ymm7, %ymm12
vmovaps %ymm2, %ymm5
vaddps %ymm13, %ymm12, %ymm2
vmulps %ymm2, %ymm11, %ymm2
vaddps %ymm2, %ymm14, %ymm2
vxorps %ymm5, %ymm7, %ymm5
vmulps %ymm5, %ymm4, %ymm5
vmulps %ymm5, %ymm4, %ymm5
vbroadcastss 0x23fbe9(%rip), %ymm17 # 0x1eecb80
vmulps %ymm17, %ymm0, %ymm13
vmulps %ymm17, %ymm1, %ymm14
vmulps %ymm17, %ymm2, %ymm15
vmulps %ymm17, %ymm5, %ymm5
vmulps %ymm5, %ymm16, %ymm28
vmulps %ymm5, %ymm21, %ymm2
vmulps %ymm5, %ymm3, %ymm1
vmovaps 0x800(%rsp), %ymm0
vmulps %ymm5, %ymm0, %ymm5
vfmadd231ps %ymm29, %ymm15, %ymm28 # ymm28 = (ymm15 * ymm29) + ymm28
vfmadd231ps %ymm31, %ymm15, %ymm2 # ymm2 = (ymm15 * ymm31) + ymm2
vfmadd231ps %ymm6, %ymm15, %ymm1 # ymm1 = (ymm15 * ymm6) + ymm1
vmovaps %ymm6, %ymm3
vmovaps 0x820(%rsp), %ymm6
vfmadd231ps %ymm15, %ymm6, %ymm5 # ymm5 = (ymm6 * ymm15) + ymm5
vfmadd231ps %ymm24, %ymm14, %ymm28 # ymm28 = (ymm14 * ymm24) + ymm28
vfmadd231ps %ymm23, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm23) + ymm2
vfmadd231ps %ymm25, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm25) + ymm1
vfmadd231ps %ymm14, %ymm27, %ymm5 # ymm5 = (ymm27 * ymm14) + ymm5
vfmadd231ps %ymm18, %ymm13, %ymm28 # ymm28 = (ymm13 * ymm18) + ymm28
vfmadd231ps %ymm19, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm19) + ymm2
vfmadd231ps %ymm20, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm20) + ymm1
vfmadd231ps %ymm13, %ymm22, %ymm5 # ymm5 = (ymm22 * ymm13) + ymm5
vaddps %ymm7, %ymm7, %ymm13
vmulps %ymm4, %ymm13, %ymm14
vsubps %ymm11, %ymm14, %ymm11
vaddps %ymm4, %ymm4, %ymm15
vmulps %ymm10, %ymm15, %ymm10
vmulps %ymm4, %ymm9, %ymm4
vaddps %ymm4, %ymm10, %ymm4
vaddps 0x243fb1(%rip){1to8}, %ymm9, %ymm9 # 0x1ef0ff8
vmulps %ymm9, %ymm13, %ymm9
vmulps %ymm7, %ymm12, %ymm7
vsubps %ymm7, %ymm9, %ymm7
vsubps %ymm14, %ymm8, %ymm8
vmulps %ymm17, %ymm11, %ymm9
vmulps %ymm17, %ymm4, %ymm4
vmulps %ymm17, %ymm7, %ymm7
vmulps %ymm17, %ymm8, %ymm8
vmulps %ymm8, %ymm16, %ymm10
vmulps %ymm8, %ymm21, %ymm12
vmulps 0x4a0(%rsp), %ymm8, %ymm13
vmulps %ymm0, %ymm8, %ymm8
vfmadd231ps %ymm29, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm29) + ymm10
vfmadd231ps %ymm31, %ymm7, %ymm12 # ymm12 = (ymm7 * ymm31) + ymm12
vfmadd231ps %ymm3, %ymm7, %ymm13 # ymm13 = (ymm7 * ymm3) + ymm13
vfmadd231ps %ymm7, %ymm6, %ymm8 # ymm8 = (ymm6 * ymm7) + ymm8
vfmadd231ps %ymm24, %ymm4, %ymm10 # ymm10 = (ymm4 * ymm24) + ymm10
vfmadd231ps %ymm23, %ymm4, %ymm12 # ymm12 = (ymm4 * ymm23) + ymm12
vfmadd231ps %ymm25, %ymm4, %ymm13 # ymm13 = (ymm4 * ymm25) + ymm13
vfmadd231ps %ymm4, %ymm27, %ymm8 # ymm8 = (ymm27 * ymm4) + ymm8
vfmadd231ps %ymm18, %ymm9, %ymm10 # ymm10 = (ymm9 * ymm18) + ymm10
vfmadd231ps %ymm19, %ymm9, %ymm12 # ymm12 = (ymm9 * ymm19) + ymm12
vfmadd231ps %ymm20, %ymm9, %ymm13 # ymm13 = (ymm9 * ymm20) + ymm13
vfmadd231ps %ymm9, %ymm22, %ymm8 # ymm8 = (ymm22 * ymm9) + ymm8
vbroadcastss 0x60(%rsp), %ymm4
vmulps %ymm4, %ymm10, %ymm11
vmulps %ymm4, %ymm12, %ymm12
vmulps %ymm4, %ymm13, %ymm13
vmulps %ymm4, %ymm8, %ymm6
vmovaps %ymm28, %ymm8
vmovaps 0x2b2c2b(%rip), %ymm7 # 0x1f5fd20
vxorps %xmm31, %xmm31, %xmm31
vpermt2ps %ymm31, %ymm7, %ymm8
vmovaps %ymm2, %ymm9
vpermt2ps %ymm31, %ymm7, %ymm9
vmovaps %ymm1, %ymm10
vpermt2ps %ymm31, %ymm7, %ymm10
vaddps %ymm6, %ymm5, %ymm4
vmaxps %ymm4, %ymm5, %ymm14
vminps %ymm4, %ymm5, %ymm4
vmovaps %ymm5, %ymm15
vpermt2ps %ymm31, %ymm7, %ymm15
vmovaps %ymm11, %ymm19
vpermt2ps %ymm31, %ymm7, %ymm19
vmovaps %ymm12, %ymm20
vpermt2ps %ymm31, %ymm7, %ymm20
vmovaps %ymm13, %ymm5
vpermt2ps %ymm31, %ymm7, %ymm5
vpermt2ps %ymm31, %ymm7, %ymm6
vsubps %ymm6, %ymm15, %ymm16
vsubps %ymm28, %ymm8, %ymm7
vsubps %ymm2, %ymm9, %ymm6
vsubps %ymm1, %ymm10, %ymm21
vmulps %ymm13, %ymm6, %ymm17
vfmsub231ps %ymm21, %ymm12, %ymm17 # ymm17 = (ymm12 * ymm21) - ymm17
vmulps %ymm11, %ymm21, %ymm18
vfmsub231ps %ymm7, %ymm13, %ymm18 # ymm18 = (ymm13 * ymm7) - ymm18
vmulps %ymm12, %ymm7, %ymm22
vfmsub231ps %ymm6, %ymm11, %ymm22 # ymm22 = (ymm11 * ymm6) - ymm22
vmulps %ymm22, %ymm22, %ymm22
vfmadd231ps %ymm18, %ymm18, %ymm22 # ymm22 = (ymm18 * ymm18) + ymm22
vfmadd231ps %ymm17, %ymm17, %ymm22 # ymm22 = (ymm17 * ymm17) + ymm22
vmulps %ymm21, %ymm21, %ymm17
vfmadd231ps %ymm6, %ymm6, %ymm17 # ymm17 = (ymm6 * ymm6) + ymm17
vfmadd231ps %ymm7, %ymm7, %ymm17 # ymm17 = (ymm7 * ymm7) + ymm17
vrcp14ps %ymm17, %ymm18
vmovaps %ymm18, %ymm23
vfnmadd213ps 0x23f54d(%rip){1to8}, %ymm17, %ymm23 # ymm23 = -(ymm17 * ymm23) + mem
vfmadd132ps %ymm18, %ymm18, %ymm23 # ymm23 = (ymm23 * ymm18) + ymm18
vmulps %ymm23, %ymm22, %ymm18
vmulps %ymm5, %ymm6, %ymm22
vfmsub231ps %ymm21, %ymm20, %ymm22 # ymm22 = (ymm20 * ymm21) - ymm22
vmulps %ymm19, %ymm21, %ymm24
vfmsub231ps %ymm7, %ymm5, %ymm24 # ymm24 = (ymm5 * ymm7) - ymm24
vmulps %ymm20, %ymm7, %ymm25
vfmsub231ps %ymm6, %ymm19, %ymm25 # ymm25 = (ymm19 * ymm6) - ymm25
vmulps %ymm25, %ymm25, %ymm25
vfmadd231ps %ymm24, %ymm24, %ymm25 # ymm25 = (ymm24 * ymm24) + ymm25
vfmadd231ps %ymm22, %ymm22, %ymm25 # ymm25 = (ymm22 * ymm22) + ymm25
vmulps %ymm23, %ymm25, %ymm22
vmaxps %ymm22, %ymm18, %ymm18
vsqrtps %ymm18, %ymm18
vmaxps %ymm15, %ymm16, %ymm22
vmaxps %ymm22, %ymm14, %ymm14
vaddps %ymm14, %ymm18, %ymm14
vminps %ymm15, %ymm16, %ymm15
vminps %ymm15, %ymm4, %ymm4
vsubps %ymm18, %ymm4, %ymm4
vmulps 0x2436f8(%rip){1to8}, %ymm14, %ymm14 # 0x1ef0940
vmulps 0x2436f2(%rip){1to8}, %ymm4, %ymm4 # 0x1ef0944
vmovaps %ymm4, 0x60(%rsp)
vmulps %ymm14, %ymm14, %ymm4
vrsqrt14ps %ymm17, %ymm15
vmulps 0x23f4af(%rip){1to8}, %ymm17, %ymm14 # 0x1eec71c
vmulps %ymm14, %ymm15, %ymm14
vmulps %ymm15, %ymm15, %ymm16
vmulps %ymm14, %ymm16, %ymm14
vfmadd231ps 0x23f490(%rip){1to8}, %ymm15, %ymm14 # ymm14 = (ymm15 * mem) + ymm14
vmulps %ymm7, %ymm14, %ymm15
vmulps %ymm14, %ymm6, %ymm16
vmulps %ymm14, %ymm21, %ymm18
vmovaps %ymm28, 0x4e0(%rsp)
vsubps %ymm28, %ymm31, %ymm27
vmovaps %ymm2, 0x240(%rsp)
vsubps %ymm2, %ymm31, %ymm28
vmovaps %ymm1, 0x80(%rsp)
vsubps %ymm1, %ymm31, %ymm29
vmovaps 0x6c0(%rsp), %ymm0
vmulps %ymm29, %ymm0, %ymm22
vfmadd231ps %ymm28, %ymm30, %ymm22 # ymm22 = (ymm30 * ymm28) + ymm22
vfmadd231ps %ymm27, %ymm26, %ymm22 # ymm22 = (ymm26 * ymm27) + ymm22
vmulps %ymm29, %ymm29, %ymm24
vfmadd231ps %ymm28, %ymm28, %ymm24 # ymm24 = (ymm28 * ymm28) + ymm24
vfmadd231ps %ymm27, %ymm27, %ymm24 # ymm24 = (ymm27 * ymm27) + ymm24
vmulps %ymm18, %ymm0, %ymm17
vfmadd231ps %ymm30, %ymm16, %ymm17 # ymm17 = (ymm16 * ymm30) + ymm17
vfmadd231ps %ymm26, %ymm15, %ymm17 # ymm17 = (ymm15 * ymm26) + ymm17
vmulps %ymm18, %ymm29, %ymm18
vfmadd231ps %ymm16, %ymm28, %ymm18 # ymm18 = (ymm28 * ymm16) + ymm18
vfmadd231ps %ymm15, %ymm27, %ymm18 # ymm18 = (ymm27 * ymm15) + ymm18
vmulps %ymm17, %ymm17, %ymm1
vmovaps 0x7e0(%rsp), %ymm0
vsubps %ymm1, %ymm0, %ymm15
vmulps %ymm18, %ymm17, %ymm25
vsubps %ymm25, %ymm22, %ymm22
vaddps %ymm22, %ymm22, %ymm22
vmulps %ymm18, %ymm18, %ymm25
vsubps %ymm25, %ymm24, %ymm2
vsubps %ymm4, %ymm2, %ymm4
vmulps %ymm22, %ymm22, %ymm25
vmulps 0x23f832(%rip){1to8}, %ymm15, %ymm26 # 0x1eecb8c
vmulps %ymm4, %ymm26, %ymm30
vsubps %ymm30, %ymm25, %ymm30
vcmpnltps %ymm31, %ymm30, %k1
kmovd %k1, %eax
kortestb %k1, %k1
vmovaps 0x4a0(%rsp), %ymm3
je 0x1cad46e
vsqrtps %ymm30, %ymm30
vaddps %ymm15, %ymm15, %ymm31
vrcp14ps %ymm31, %ymm3
vfnmadd213ps 0x23f374(%rip){1to8}, %ymm3, %ymm31 # ymm31 = -(ymm3 * ymm31) + mem
vfmadd132ps %ymm3, %ymm3, %ymm31 # ymm31 = (ymm31 * ymm3) + ymm3
vxorps 0x273b10(%rip){1to8}, %ymm22, %ymm3 # 0x1f20ec0
vsubps %ymm30, %ymm3, %ymm3
vmulps %ymm31, %ymm3, %ymm3
vsubps %ymm22, %ymm30, %ymm30
vmulps %ymm31, %ymm30, %ymm31
vmovaps %ymm17, %ymm30
vfmadd213ps %ymm18, %ymm3, %ymm30 # ymm30 = (ymm3 * ymm30) + ymm18
vmulps %ymm30, %ymm14, %ymm30
vmovaps %ymm30, 0x660(%rsp)
vmovaps %ymm17, %ymm30
vfmadd213ps %ymm18, %ymm31, %ymm30 # ymm30 = (ymm31 * ymm30) + ymm18
vmulps %ymm30, %ymm14, %ymm30
vmovaps %ymm30, 0x640(%rsp)
vbroadcastss 0x23e61a(%rip), %ymm16 # 0x1eeba20
vblendmps %ymm3, %ymm16, %ymm30 {%k1}
vbroadcastss 0x23f76f(%rip), %ymm3 # 0x1eecb84
vblendmps %ymm31, %ymm3, %ymm31 {%k1}
vbroadcastss 0x273a9f(%rip), %ymm23 # 0x1f20ec4
vandps %ymm23, %ymm1, %ymm3
vmovaps 0x6a0(%rsp), %ymm16
vmaxps %ymm3, %ymm16, %ymm3
vmulps 0x244a71(%rip){1to8}, %ymm3, %ymm3 # 0x1ef1eb4
vandps %ymm23, %ymm15, %ymm23
vcmpltps %ymm3, %ymm23, %k1 {%k1}
kortestb %k1, %k1
jne 0x1caf5f2
vbroadcastss 0x23f2b1(%rip), %ymm0 # 0x1eec714
vmovaps 0x4a0(%rsp), %ymm3
jmp 0x1cad48b
vbroadcastss 0x23e5a8(%rip), %ymm30 # 0x1eeba20
vbroadcastss 0x23f702(%rip), %ymm31 # 0x1eecb84
vbroadcastss 0x23f289(%rip), %ymm0 # 0x1eec714
andb $0x7f, %al
je 0x1cad8bf
vmovaps %ymm2, %ymm16
vmovaps %ymm21, 0x220(%rsp)
movq 0x20(%rsp), %rcx
vmovaps %ymm0, %ymm2
vmovss 0x80(%rcx,%rdx,4), %xmm3
vsubss 0x430(%rsp), %xmm3, %xmm3
vbroadcastss %xmm3, %ymm3
vminps %ymm31, %ymm3, %ymm3
vmovaps 0x7c0(%rsp), %ymm4
vmaxps %ymm30, %ymm4, %ymm4
vmulps %ymm13, %ymm29, %ymm23
vfmadd213ps %ymm23, %ymm12, %ymm28 # ymm28 = (ymm12 * ymm28) + ymm23
vfmadd213ps %ymm28, %ymm11, %ymm27 # ymm27 = (ymm11 * ymm27) + ymm28
vmovaps 0x6c0(%rsp), %ymm21
vmulps %ymm13, %ymm21, %ymm13
vmovaps 0x1c0(%rsp), %ymm24
vfmadd231ps %ymm12, %ymm24, %ymm13 # ymm13 = (ymm24 * ymm12) + ymm13
vmovaps 0x1e0(%rsp), %ymm31
vfmadd231ps %ymm11, %ymm31, %ymm13 # ymm13 = (ymm31 * ymm11) + ymm13
vbroadcastss 0x2739a8(%rip), %ymm28 # 0x1f20ec4
vandps %ymm28, %ymm13, %ymm11
vbroadcastss 0x243abc(%rip), %ymm29 # 0x1ef0fe8
vcmpltps %ymm29, %ymm11, %k0
vbroadcastss 0x273983(%rip), %ymm30 # 0x1f20ec0
vxorps %ymm30, %ymm27, %ymm11
vrcp14ps %ymm13, %ymm12
vxorps %ymm30, %ymm13, %ymm23
vmovaps %ymm12, %ymm27
vfnmadd213ps %ymm0, %ymm13, %ymm27 # ymm27 = -(ymm13 * ymm27) + ymm0
vfmadd132ps %ymm12, %ymm12, %ymm27 # ymm27 = (ymm27 * ymm12) + ymm12
vmulps %ymm11, %ymm27, %ymm11
vcmpltps %ymm23, %ymm13, %k1
korb %k1, %k0, %k1
vbroadcastss 0x23f608(%rip), %ymm27 # 0x1eecb84
vblendmps %ymm27, %ymm11, %ymm12 {%k1}
vmaxps %ymm12, %ymm4, %ymm4
vcmpnleps %ymm23, %ymm13, %k1
korb %k1, %k0, %k1
vbroadcastss 0x23e485(%rip), %ymm13 # 0x1eeba20
vmovaps %ymm13, %ymm11 {%k1}
vminps %ymm11, %ymm3, %ymm3
vxorps %xmm23, %xmm23, %xmm23
vsubps %ymm8, %ymm23, %ymm8
vsubps %ymm9, %ymm23, %ymm9
vsubps %ymm10, %ymm23, %ymm10
vmulps %ymm5, %ymm10, %ymm10
vfnmsub231ps %ymm9, %ymm20, %ymm10 # ymm10 = -(ymm20 * ymm9) - ymm10
vfnmadd231ps %ymm8, %ymm19, %ymm10 # ymm10 = -(ymm19 * ymm8) + ymm10
vmulps %ymm5, %ymm21, %ymm8
vfnmsub231ps %ymm20, %ymm24, %ymm8 # ymm8 = -(ymm24 * ymm20) - ymm8
vfnmadd231ps %ymm19, %ymm31, %ymm8 # ymm8 = -(ymm31 * ymm19) + ymm8
vandps %ymm28, %ymm8, %ymm9
vcmpltps %ymm29, %ymm9, %k0
vxorps %ymm30, %ymm10, %ymm9
vrcp14ps %ymm8, %ymm10
vxorps %ymm30, %ymm8, %ymm11
vmovaps %ymm10, %ymm12
vfnmadd213ps %ymm0, %ymm8, %ymm12 # ymm12 = -(ymm8 * ymm12) + ymm0
vfmadd132ps %ymm10, %ymm10, %ymm12 # ymm12 = (ymm12 * ymm10) + ymm10
vmulps %ymm9, %ymm12, %ymm9
vcmpltps %ymm11, %ymm8, %k1
korb %k1, %k0, %k1
vblendmps %ymm27, %ymm9, %ymm10 {%k1}
vmaxps %ymm10, %ymm4, %ymm0
vcmpnleps %ymm11, %ymm8, %k1
korb %k1, %k0, %k1
vmovaps %ymm13, %ymm9 {%k1}
vminps %ymm9, %ymm3, %ymm8
vmovaps %ymm0, 0x4c0(%rsp)
vcmpleps %ymm8, %ymm0, %k0
kmovd %k0, %ecx
andb %cl, %al
je 0x1cad937
vmovaps %ymm1, %ymm20
vmovaps 0x660(%rsp), %ymm3
vmaxps 0x60(%rsp), %ymm23, %ymm4
vminps %ymm2, %ymm3, %ymm3
vxorps %xmm10, %xmm10, %xmm10
vmaxps %ymm10, %ymm3, %ymm3
vmovaps 0x640(%rsp), %ymm9
vminps %ymm2, %ymm9, %ymm9
vmovaps 0x2738ab(%rip), %ymm11 # 0x1f20f40
vaddps %ymm3, %ymm11, %ymm3
vbroadcastss 0x270e16(%rip), %ymm12 # 0x1f1e4b8
vmulps %ymm3, %ymm12, %ymm3
vmovaps 0x200(%rsp), %ymm0
vmovaps 0xa0(%rsp), %ymm1
vfmadd213ps %ymm0, %ymm1, %ymm3 # ymm3 = (ymm1 * ymm3) + ymm0
vmovaps %ymm3, 0x660(%rsp)
vmaxps %ymm10, %ymm9, %ymm3
vaddps %ymm3, %ymm11, %ymm3
vmulps %ymm3, %ymm12, %ymm3
vfmadd213ps %ymm0, %ymm1, %ymm3 # ymm3 = (ymm1 * ymm3) + ymm0
vmovaps %ymm3, 0x640(%rsp)
vmulps %ymm4, %ymm4, %ymm3
vsubps %ymm3, %ymm16, %ymm11
vmulps %ymm11, %ymm26, %ymm3
vsubps %ymm3, %ymm25, %ymm3
vcmpnltps %ymm10, %ymm3, %k0
kortestb %k0, %k0
vmovaps 0x2c0(%rsp), %ymm24
vmovaps 0x2a0(%rsp), %ymm27
vmovaps 0x280(%rsp), %ymm29
vmovaps 0x260(%rsp), %ymm31
je 0x1cad9a5
vxorps %xmm16, %xmm16, %xmm16
vcmpnltps %ymm23, %ymm3, %k1
vsqrtps %ymm3, %ymm3
vaddps %ymm15, %ymm15, %ymm4
vrcp14ps %ymm4, %ymm9
vfnmadd213ps %ymm2, %ymm9, %ymm4 # ymm4 = -(ymm9 * ymm4) + ymm2
vfmadd132ps %ymm9, %ymm9, %ymm4 # ymm4 = (ymm4 * ymm9) + ymm9
vxorps 0x273768(%rip){1to8}, %ymm22, %ymm9 # 0x1f20ec0
vsubps %ymm3, %ymm9, %ymm9
vmulps %ymm4, %ymm9, %ymm12
vsubps %ymm22, %ymm3, %ymm3
vmulps %ymm4, %ymm3, %ymm13
vmovaps %ymm17, %ymm3
vfmadd213ps %ymm18, %ymm12, %ymm3 # ymm3 = (ymm12 * ymm3) + ymm18
vmulps %ymm3, %ymm14, %ymm9
vmovaps 0x1e0(%rsp), %ymm26
vmulps %ymm12, %ymm26, %ymm3
vmovaps 0x1c0(%rsp), %ymm30
vmulps %ymm12, %ymm30, %ymm4
vmulps %ymm12, %ymm21, %ymm10
vmovaps %ymm7, %ymm19
vmovaps 0x4e0(%rsp), %ymm2
vfmadd213ps %ymm2, %ymm9, %ymm19 # ymm19 = (ymm9 * ymm19) + ymm2
vsubps %ymm19, %ymm3, %ymm3
vmovaps %ymm6, %ymm19
vmovaps 0x240(%rsp), %ymm1
vfmadd213ps %ymm1, %ymm9, %ymm19 # ymm19 = (ymm9 * ymm19) + ymm1
vsubps %ymm19, %ymm4, %ymm4
vmovaps 0x80(%rsp), %ymm0
vmovaps 0x220(%rsp), %ymm5
vfmadd213ps %ymm0, %ymm5, %ymm9 # ymm9 = (ymm5 * ymm9) + ymm0
vsubps %ymm9, %ymm10, %ymm9
vfmadd213ps %ymm18, %ymm13, %ymm17 # ymm17 = (ymm13 * ymm17) + ymm18
vmulps %ymm17, %ymm14, %ymm14
vmulps %ymm13, %ymm26, %ymm10
vmulps %ymm13, %ymm30, %ymm17
vmulps %ymm13, %ymm21, %ymm18
vfmadd213ps %ymm2, %ymm14, %ymm7 # ymm7 = (ymm14 * ymm7) + ymm2
vsubps %ymm7, %ymm10, %ymm10
vfmadd213ps %ymm1, %ymm14, %ymm6 # ymm6 = (ymm14 * ymm6) + ymm1
vsubps %ymm6, %ymm17, %ymm1
vfmadd213ps %ymm0, %ymm14, %ymm5 # ymm5 = (ymm14 * ymm5) + ymm0
vsubps %ymm5, %ymm18, %ymm5
vbroadcastss 0x23e1ec(%rip), %ymm0 # 0x1eeba20
vblendmps %ymm12, %ymm0, %ymm2 {%k1}
vbroadcastss 0x23f341(%rip), %ymm0 # 0x1eecb84
vblendmps %ymm13, %ymm0, %ymm0 {%k1}
vandps %ymm28, %ymm20, %ymm6
vmovaps 0x6a0(%rsp), %ymm7
vmaxps %ymm6, %ymm7, %ymm6
vmulps 0x24464e(%rip){1to8}, %ymm6, %ymm6 # 0x1ef1eb4
vandps %ymm28, %ymm15, %ymm7
vcmpltps %ymm6, %ymm7, %k1 {%k1}
kortestb %k1, %k1
je 0x1cad9dc
vcmpleps %ymm16, %ymm11, %k2
vbroadcastss 0x23f2f7(%rip), %ymm7 # 0x1eecb84
vbroadcastss 0x23e18a(%rip), %ymm11 # 0x1eeba20
vblendmps %ymm7, %ymm11, %ymm6 {%k2}
vmovaps %ymm6, %ymm2 {%k1}
vblendmps %ymm11, %ymm7, %ymm6 {%k2}
vmovaps %ymm6, %ymm0 {%k1}
knotb %k1, %k1
korb %k2, %k1, %k1
kandb %k0, %k1, %k0
jmp 0x1cad9dc
vbroadcastss 0x2735fb(%rip), %ymm28 # 0x1f20ec4
vbroadcastss 0x2735ee(%rip), %ymm2 # 0x1f20ec0
vmovaps 0x1e0(%rsp), %ymm26
vmovaps 0x1c0(%rsp), %ymm30
vmovaps 0x1a0(%rsp), %ymm18
vmovaps 0x300(%rsp), %ymm19
vmovaps 0x2e0(%rsp), %ymm20
vmovaps 0x180(%rsp), %ymm22
vmovaps 0x2c0(%rsp), %ymm24
vmovaps 0x160(%rsp), %ymm23
vmovaps 0x140(%rsp), %ymm25
vmovaps 0x2a0(%rsp), %ymm27
vmovaps 0x280(%rsp), %ymm29
vmovaps 0x260(%rsp), %ymm31
jmp 0x1caf4b1
vbroadcastss 0x273580(%rip), %ymm2 # 0x1f20ec0
vmovaps 0x1e0(%rsp), %ymm26
vmovaps 0x1c0(%rsp), %ymm30
vmovaps 0x1a0(%rsp), %ymm18
vmovaps 0x300(%rsp), %ymm19
vmovaps 0x2e0(%rsp), %ymm20
vmovaps 0x180(%rsp), %ymm22
vmovaps 0x2c0(%rsp), %ymm24
vmovaps 0x160(%rsp), %ymm23
vmovaps 0x140(%rsp), %ymm25
vmovaps 0x2a0(%rsp), %ymm27
vmovaps 0x280(%rsp), %ymm29
vmovaps 0x260(%rsp), %ymm31
jmp 0x1caf4a8
vxorps %xmm1, %xmm1, %xmm1
vxorps %xmm5, %xmm5, %xmm5
vxorps %xmm3, %xmm3, %xmm3
vxorps %xmm4, %xmm4, %xmm4
vxorps %xmm9, %xmm9, %xmm9
vbroadcastss 0x23e05d(%rip), %ymm2 # 0x1eeba20
vbroadcastss 0x23f1b8(%rip), %ymm0 # 0x1eecb84
vmovaps 0x1e0(%rsp), %ymm26
vmovaps 0x1c0(%rsp), %ymm30
vmovaps 0x1a0(%rsp), %ymm18
vmovaps 0x180(%rsp), %ymm22
vmovaps 0x160(%rsp), %ymm23
vmovaps 0x140(%rsp), %ymm25
vmulps %ymm5, %ymm21, %ymm5
vfmadd231ps %ymm1, %ymm30, %ymm5 # ymm5 = (ymm30 * ymm1) + ymm5
vfmadd231ps %ymm10, %ymm26, %ymm5 # ymm5 = (ymm26 * ymm10) + ymm5
vmovaps 0x4c0(%rsp), %ymm6
vmovaps %ymm6, 0x840(%rsp)
vminps %ymm2, %ymm8, %ymm1
vmovaps %ymm1, 0x860(%rsp)
vandps %ymm28, %ymm5, %ymm2
vmaxps %ymm0, %ymm6, %ymm5
vmovaps %ymm5, 0x6e0(%rsp)
vmovaps %ymm8, 0x700(%rsp)
vbroadcastss 0x273482(%rip), %ymm0 # 0x1f20ed4
vcmpltps %ymm0, %ymm2, %k1
kmovd %k1, 0x134(%rsp)
vcmpleps %ymm1, %ymm6, %k1
kmovd %k1, %ecx
andb %al, %cl
vmovaps %ymm5, 0x600(%rsp)
vcmpleps %ymm8, %ymm5, %k1
kmovd %k1, %esi
andb %al, %sil
movl %esi, 0x44(%rsp)
movl %esi, %eax
orb %cl, %al
vmovaps 0x300(%rsp), %ymm19
vmovaps 0x2e0(%rsp), %ymm20
je 0x1caf49f
vmovaps %ymm0, %ymm2
movq %r12, 0x328(%rsp)
movb %r15b, 0x1f(%rsp)
knotb %k0, %k1
vmulps %ymm9, %ymm21, %ymm0
vfmadd213ps %ymm0, %ymm30, %ymm4 # ymm4 = (ymm30 * ymm4) + ymm0
vfmadd213ps %ymm4, %ymm26, %ymm3 # ymm3 = (ymm26 * ymm3) + ymm4
vandps %ymm28, %ymm3, %ymm0
vcmpltps %ymm2, %ymm0, %k0
kmovd %k1, 0x12c(%rsp)
korb %k1, %k0, %k1
vpbroadcastd 0x2733ec(%rip), %ymm0 # 0x1f20edc
vpblendmd 0x2733de(%rip){1to8}, %ymm0, %ymm0 {%k1} # 0x1f20ed8
movq 0x120(%rsp), %rax
vpbroadcastd %eax, %ymm1
vmovdqa %ymm0, 0x720(%rsp)
vmovdqa %ymm1, 0x680(%rsp)
vpcmpnltd %ymm0, %ymm1, %k0
kmovd %k0, %r12d
movl %ecx, 0x130(%rsp)
andb %cl, %r12b
je 0x1cae748
vmovaps 0x3e0(%rsp), %ymm1
vmovaps 0x3a0(%rsp), %ymm2
vminps %xmm2, %xmm1, %xmm0
vmaxps %xmm2, %xmm1, %xmm1
vmovaps 0x3c0(%rsp), %ymm3
vmovaps 0x380(%rsp), %ymm4
vminps %xmm4, %xmm3, %xmm2
vminps %xmm2, %xmm0, %xmm0
vmaxps %xmm4, %xmm3, %xmm2
vmaxps %xmm2, %xmm1, %xmm1
vbroadcastss 0x27334a(%rip), %xmm2 # 0x1f20ec4
vandps %xmm2, %xmm0, %xmm0
vandps %xmm2, %xmm1, %xmm2
vmaxps %xmm2, %xmm0, %xmm0
vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3]
vmaxss %xmm0, %xmm2, %xmm2
vshufpd $0x1, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[1,0]
vmaxss %xmm2, %xmm0, %xmm0
vmulss 0x244315(%rip), %xmm0, %xmm0 # 0x1ef1eb4
vmovss %xmm0, 0x50(%rsp)
vshufps $0xff, %xmm1, %xmm1, %xmm0 # xmm0 = xmm1[3,3,3,3]
vmovaps %xmm0, 0x420(%rsp)
vmovaps 0x4c0(%rsp), %ymm0
vaddps 0x5e0(%rsp), %ymm0, %ymm0
vmovaps %ymm0, 0x620(%rsp)
kmovd %r12d, %k1
vbroadcastss 0x23de44(%rip), %ymm0 # 0x1eeba20
vblendmps 0x4c0(%rsp), %ymm0, %ymm0 {%k1}
vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm0, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1]
vminps %ymm2, %ymm1, %ymm1
vcmpeqps %ymm1, %ymm0, %k0
kmovd %k0, %eax
andb %r12b, %al
movzbl %al, %eax
movzbl %r12b, %ecx
cmovnel %eax, %ecx
tzcntl %ecx, %ecx
movb $0x1, %r14b
shlb %cl, %r14b
shll $0x2, %ecx
vmovss 0x660(%rsp,%rcx), %xmm9
vmovss 0x840(%rsp,%rcx), %xmm8
vmovaps 0x360(%rsp), %xmm0
vucomiss 0x23dddc(%rip), %xmm0 # 0x1eeba24
vmovss 0x138(%rsp), %xmm0
jae 0x1cadc94
vmovaps 0x360(%rsp), %xmm0
vmovaps %xmm9, 0x60(%rsp)
vmovaps %xmm8, 0x80(%rsp)
kmovw %k1, 0x200(%rsp)
vzeroupper
callq 0x6aa20
kmovw 0x200(%rsp), %k1
vmovaps 0x80(%rsp), %xmm8
vmovaps 0x60(%rsp), %xmm9
movzbl %r14b, %eax
kmovd %eax, %k0
kandnb %k1, %k0, %k0
kmovd %k0, %r12d
vmulss 0x244208(%rip), %xmm0, %xmm0 # 0x1ef1eb4
vmovss %xmm0, 0x54(%rsp)
movl $0x5, %r15d
vmovaps %xmm8, 0x80(%rsp)
vbroadcastss %xmm8, %xmm0
vxorps %xmm1, %xmm1, %xmm1
vfmadd132ps 0x370(%rsp), %xmm1, %xmm0 # xmm0 = (xmm0 * mem) + xmm1
vmovss 0x23ea38(%rip), %xmm1 # 0x1eec714
vsubss %xmm9, %xmm1, %xmm11
vbroadcastss 0x2731d6(%rip), %xmm6 # 0x1f20ec0
vxorps %xmm6, %xmm9, %xmm1
vmulss %xmm1, %xmm11, %xmm1
vmulss %xmm1, %xmm11, %xmm1
vmulss %xmm9, %xmm9, %xmm12
vmovss 0x2432e9(%rip), %xmm8 # 0x1ef0fec
vmovaps %xmm8, %xmm10
vmovss 0x2432f4(%rip), %xmm7 # 0x1ef1004
vfmadd213ss %xmm7, %xmm9, %xmm10 # xmm10 = (xmm9 * xmm10) + xmm7
vmovaps %xmm10, %xmm2
vmovss 0x2432d7(%rip), %xmm5 # 0x1ef0ff8
vfmadd213ss %xmm5, %xmm12, %xmm2 # xmm2 = (xmm12 * xmm2) + xmm5
vmulss %xmm11, %xmm11, %xmm3
vmovaps %xmm8, %xmm4
vfmadd213ss %xmm7, %xmm11, %xmm4 # xmm4 = (xmm11 * xmm4) + xmm7
vfmadd213ss %xmm5, %xmm3, %xmm4 # xmm4 = (xmm3 * xmm4) + xmm5
vxorps %xmm6, %xmm11, %xmm3
vmulss %xmm3, %xmm9, %xmm3
vmulss %xmm3, %xmm9, %xmm3
vmovss 0x23ee33(%rip), %xmm5 # 0x1eecb80
vmulss %xmm5, %xmm1, %xmm1
vmulss %xmm5, %xmm2, %xmm2
vmulss %xmm5, %xmm4, %xmm4
vmulss %xmm5, %xmm3, %xmm3
vbroadcastss %xmm3, %xmm3
vmulps 0x380(%rsp), %xmm3, %xmm3
vbroadcastss %xmm4, %xmm4
vfmadd132ps 0x3c0(%rsp), %xmm3, %xmm4 # xmm4 = (xmm4 * mem) + xmm3
vbroadcastss %xmm2, %xmm2
vfmadd132ps 0x3a0(%rsp), %xmm4, %xmm2 # xmm2 = (xmm2 * mem) + xmm4
vbroadcastss %xmm1, %xmm3
vfmadd132ps 0x3e0(%rsp), %xmm2, %xmm3 # xmm3 = (xmm3 * mem) + xmm2
vmulss 0x242c3c(%rip), %xmm11, %xmm6 # 0x1ef09dc
vfmadd231ss 0x24325f(%rip), %xmm9, %xmm7 # xmm7 = (xmm9 * mem) + xmm7
vmovaps %xmm7, 0x490(%rsp)
vmovss 0x243252(%rip), %xmm1 # 0x1ef100c
vfmadd213ss 0x23edc9(%rip), %xmm9, %xmm1 # xmm1 = (xmm9 * xmm1) + mem
vmovaps %xmm1, 0x480(%rsp)
vfmadd213ss 0x242bf7(%rip), %xmm9, %xmm8 # xmm8 = (xmm9 * xmm8) + mem
vmovaps %xmm8, 0x470(%rsp)
vmovaps %xmm3, 0x4e0(%rsp)
vsubps %xmm3, %xmm0, %xmm0
vmovaps %xmm0, 0x200(%rsp)
vdpps $0x7f, %xmm0, %xmm0, %xmm0
vucomiss 0x23dc22(%rip), %xmm0 # 0x1eeba24
vmovaps %xmm9, 0x60(%rsp)
vmovaps %xmm0, 0xa0(%rsp)
jb 0x1cade19
vsqrtss %xmm0, %xmm0, %xmm7
jmp 0x1cade73
vmovss %xmm10, 0x240(%rsp)
vmovaps %xmm11, 0x220(%rsp)
vmovss %xmm12, 0xf0(%rsp)
vmovss %xmm6, 0xe0(%rsp)
vzeroupper
callq 0x6aa20
vmovss 0xe0(%rsp), %xmm6
vmovss 0xf0(%rsp), %xmm12
vmovaps 0x220(%rsp), %xmm11
vmovss 0x240(%rsp), %xmm10
vmovaps 0x60(%rsp), %xmm9
vmovaps %xmm0, %xmm7
vaddss %xmm11, %xmm11, %xmm0
vmulss %xmm0, %xmm9, %xmm1
vfnmadd231ss %xmm11, %xmm11, %xmm1 # xmm1 = -(xmm11 * xmm11) + xmm1
vaddss %xmm9, %xmm9, %xmm2
vmovss 0x24315e(%rip), %xmm4 # 0x1ef0fec
vmulss %xmm4, %xmm9, %xmm3
vmulss %xmm3, %xmm9, %xmm3
vfmadd213ss %xmm3, %xmm2, %xmm10 # xmm10 = (xmm2 * xmm10) + xmm3
vmovaps %xmm4, %xmm2
vmovss 0x243151(%rip), %xmm4 # 0x1ef0ff8
vfmadd213ss %xmm4, %xmm9, %xmm2 # xmm2 = (xmm9 * xmm2) + xmm4
vmulss 0x24313c(%rip), %xmm11, %xmm3 # 0x1ef0ff0
vmulss %xmm3, %xmm11, %xmm3
vfmadd231ss %xmm2, %xmm0, %xmm3 # xmm3 = (xmm0 * xmm2) + xmm3
vfmadd213ss %xmm12, %xmm9, %xmm6 # xmm6 = (xmm9 * xmm6) + xmm12
vmovss 0x23ecb6(%rip), %xmm5 # 0x1eecb80
vmulss %xmm5, %xmm1, %xmm0
vmulss %xmm5, %xmm10, %xmm1
vmulss %xmm5, %xmm3, %xmm2
vmulss %xmm5, %xmm6, %xmm3
vbroadcastss %xmm3, %xmm3
vmulps 0x380(%rsp), %xmm3, %xmm3
vbroadcastss %xmm2, %xmm2
vfmadd132ps 0x3c0(%rsp), %xmm3, %xmm2 # xmm2 = (xmm2 * mem) + xmm3
vbroadcastss %xmm1, %xmm1
vfmadd132ps 0x3a0(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2
vbroadcastss %xmm0, %xmm12
vfmadd132ps 0x3e0(%rsp), %xmm1, %xmm12 # xmm12 = (xmm12 * mem) + xmm1
vdpps $0x7f, %xmm12, %xmm12, %xmm0
vxorps %xmm1, %xmm1, %xmm1
vmovss %xmm0, %xmm1, %xmm2 # xmm2 = xmm0[0],xmm1[1,2,3]
vrsqrt14ss %xmm2, %xmm1, %xmm3
vmulss 0x23e7e7(%rip), %xmm3, %xmm6 # 0x1eec718
vmulss 0x23e7e3(%rip), %xmm0, %xmm8 # 0x1eec71c
vrcp14ss %xmm2, %xmm1, %xmm2
vxorps 0x272f77(%rip){1to4}, %xmm0, %xmm1 # 0x1f20ec0
vmovaps %xmm2, 0xe0(%rsp)
vfnmadd213ss %xmm4, %xmm0, %xmm2 # xmm2 = -(xmm0 * xmm2) + xmm4
vmovss %xmm2, 0x58(%rsp)
vucomiss %xmm1, %xmm0
vmovaps %xmm12, 0x240(%rsp)
vmovss %xmm7, 0x220(%rsp)
vmovaps %xmm0, 0xf0(%rsp)
jb 0x1cadf84
vsqrtss %xmm0, %xmm0, %xmm5
jmp 0x1cadfcc
vmovaps %xmm3, 0xd0(%rsp)
vmovss %xmm6, 0x2c(%rsp)
vmovss %xmm8, 0x28(%rsp)
vzeroupper
callq 0x6aa20
vmovss 0x28(%rsp), %xmm8
vmovss 0x2c(%rsp), %xmm6
vmovaps 0xd0(%rsp), %xmm3
vmovss 0x220(%rsp), %xmm7
vmovaps 0x240(%rsp), %xmm12
vmovaps %xmm0, %xmm5
vmovaps 0x200(%rsp), %xmm10
vmovaps 0xa0(%rsp), %xmm17
vmulss %xmm3, %xmm8, %xmm0
vmulss %xmm3, %xmm3, %xmm1
vmulss %xmm1, %xmm0, %xmm0
vaddss %xmm0, %xmm6, %xmm0
vbroadcastss %xmm0, %xmm4
vmulps %xmm4, %xmm12, %xmm0
vmovaps %xmm0, 0xd0(%rsp)
vdpps $0x7f, %xmm0, %xmm10, %xmm14
vaddss 0x23e707(%rip), %xmm7, %xmm13 # 0x1eec714
vmulps %xmm14, %xmm14, %xmm0
vsubps %xmm0, %xmm17, %xmm0
vxorps %xmm2, %xmm2, %xmm2
vmovss %xmm0, %xmm2, %xmm1 # xmm1 = xmm0[0],xmm2[1,2,3]
vrsqrt14ss %xmm1, %xmm2, %xmm15
vmulss 0x23e6e8(%rip), %xmm15, %xmm16 # 0x1eec718
vmulss 0x23e6e4(%rip), %xmm0, %xmm1 # 0x1eec71c
vmovss %xmm1, 0x2c(%rsp)
vucomiss 0x23d9de(%rip), %xmm0 # 0x1eeba24
jb 0x1cae051
vsqrtss %xmm0, %xmm0, %xmm0
jmp 0x1cae0da
vmovss %xmm13, 0x28(%rsp)
vmovaps %xmm14, 0x460(%rsp)
vmovss %xmm5, 0x4c(%rsp)
vmovaps %xmm15, 0x450(%rsp)
vmovss %xmm16, 0x48(%rsp)
vmovaps %xmm4, 0x440(%rsp)
vzeroupper
callq 0x6aa20
vmovaps 0x440(%rsp), %xmm4
vmovss 0x48(%rsp), %xmm16
vmovaps 0x450(%rsp), %xmm15
vmovss 0x4c(%rsp), %xmm5
vmovaps 0x460(%rsp), %xmm14
vmovss 0x28(%rsp), %xmm13
vmovss 0x220(%rsp), %xmm7
vmovaps 0x240(%rsp), %xmm12
vmovaps 0xa0(%rsp), %xmm17
vmovaps 0x200(%rsp), %xmm10
vbroadcastss 0x272de0(%rip), %ymm28 # 0x1f20ec4
vmovaps 0x1e0(%rsp), %ymm26
vmovaps 0x1c0(%rsp), %ymm30
vmovaps 0x1a0(%rsp), %ymm18
vmovaps 0x300(%rsp), %ymm19
vmovaps 0x2e0(%rsp), %ymm20
vmovaps 0x180(%rsp), %ymm22
vmovaps 0x2c0(%rsp), %ymm24
vmovaps 0x160(%rsp), %ymm23
vmovaps 0x140(%rsp), %ymm25
vmovaps 0x2a0(%rsp), %ymm27
vmovaps 0x280(%rsp), %ymm29
vmovaps 0x260(%rsp), %ymm31
vmovaps 0x60(%rsp), %xmm9
vmovaps 0x80(%rsp), %xmm8
vbroadcastss 0x470(%rsp), %xmm1
vmulps 0x380(%rsp), %xmm1, %xmm1
vbroadcastss 0x480(%rsp), %xmm2
vfmadd132ps 0x3c0(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1
vbroadcastss 0x490(%rsp), %xmm1
vfmadd132ps 0x3a0(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2
vmovss 0x242e5a(%rip), %xmm2 # 0x1ef0ff0
vfmadd213ss 0x242e59(%rip), %xmm9, %xmm2 # xmm2 = (xmm9 * xmm2) + mem
vbroadcastss %xmm2, %xmm2
vfmadd132ps 0x3e0(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1
vbroadcastss 0xf0(%rsp), %xmm1
vmulps %xmm1, %xmm2, %xmm1
vdpps $0x7f, %xmm2, %xmm12, %xmm2
vbroadcastss %xmm2, %xmm2
vmulps %xmm2, %xmm12, %xmm2
vsubps %xmm2, %xmm1, %xmm2
vmovss 0x58(%rsp), %xmm1
vmulss 0xe0(%rsp), %xmm1, %xmm3
vmulss 0x54(%rsp), %xmm8, %xmm1
vmovss 0x50(%rsp), %xmm6
vmaxss %xmm1, %xmm6, %xmm1
vbroadcastss %xmm3, %xmm3
vmulps %xmm3, %xmm2, %xmm2
vxorps 0x272cbf(%rip){1to4}, %xmm12, %xmm3 # 0x1f20ec0
vmulps %xmm2, %xmm4, %xmm2
vmovaps 0xd0(%rsp), %xmm11
vdpps $0x7f, %xmm11, %xmm3, %xmm4
vdivss %xmm5, %xmm6, %xmm5
vfmadd213ss %xmm1, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm7) + xmm1
vdpps $0x7f, %xmm2, %xmm10, %xmm2
vfmadd213ss %xmm7, %xmm5, %xmm13 # xmm13 = (xmm5 * xmm13) + xmm7
vaddss %xmm2, %xmm4, %xmm4
vmovaps 0x370(%rsp), %xmm7
vdpps $0x7f, %xmm11, %xmm7, %xmm5
vdpps $0x7f, %xmm3, %xmm10, %xmm3
vmulss 0x2c(%rsp), %xmm15, %xmm2
vmulss %xmm15, %xmm15, %xmm6
vmulss %xmm6, %xmm2, %xmm2
vaddss %xmm2, %xmm16, %xmm6
vdpps $0x7f, %xmm7, %xmm10, %xmm7
vfnmadd231ss %xmm4, %xmm14, %xmm3 # xmm3 = -(xmm14 * xmm4) + xmm3
vfnmadd231ss %xmm5, %xmm14, %xmm7 # xmm7 = -(xmm14 * xmm5) + xmm7
vpermilps $0xff, 0x4e0(%rsp), %xmm2 # xmm2 = mem[3,3,3,3]
vsubss %xmm2, %xmm0, %xmm2
vshufps $0xff, %xmm12, %xmm12, %xmm0 # xmm0 = xmm12[3,3,3,3]
vfmsub213ss %xmm0, %xmm6, %xmm3 # xmm3 = (xmm6 * xmm3) - xmm0
vmulss %xmm6, %xmm7, %xmm6
vmulss %xmm3, %xmm5, %xmm7
vfmsub231ss %xmm6, %xmm4, %xmm7 # xmm7 = (xmm4 * xmm6) - xmm7
vdivss %xmm7, %xmm6, %xmm6
vdivss %xmm7, %xmm3, %xmm3
vdivss %xmm7, %xmm5, %xmm5
vdivss %xmm7, %xmm4, %xmm4
vmulss %xmm6, %xmm14, %xmm6
vmulss %xmm5, %xmm2, %xmm5
vsubss %xmm5, %xmm6, %xmm5
vmulss %xmm3, %xmm14, %xmm3
vmulss %xmm4, %xmm2, %xmm4
vsubss %xmm3, %xmm4, %xmm3
vsubss %xmm5, %xmm9, %xmm9
vsubss %xmm3, %xmm8, %xmm8
vbroadcastss 0x272bfe(%rip), %xmm4 # 0x1f20ec4
vandps %xmm4, %xmm14, %xmm3
vucomiss %xmm3, %xmm13
movb $0x1, %al
jbe 0x1cae322
vaddss %xmm1, %xmm13, %xmm1
vmovaps 0x420(%rsp), %xmm3
vfmadd231ss 0x243bcc(%rip), %xmm3, %xmm1 # xmm1 = (xmm3 * mem) + xmm1
vandps %xmm4, %xmm2, %xmm2
vucomiss %xmm2, %xmm1
jbe 0x1cae322
vaddss 0x430(%rsp), %xmm8, %xmm8
vucomiss 0x5c(%rsp), %xmm8
jb 0x1cae31d
movq 0x30(%rsp), %rax
movq 0x20(%rsp), %rcx
vmovss 0x80(%rcx,%rax,4), %xmm5
vucomiss %xmm8, %xmm5
jae 0x1cae338
xorl %eax, %eax
xorl %r14d, %r14d
testb %al, %al
je 0x1cae716
decq %r15
jne 0x1cadcb8
jmp 0x1cae713
xorl %eax, %eax
vucomiss 0x23d6e2(%rip), %xmm9 # 0x1eeba24
jb 0x1cae31f
vmovss 0x23e3c8(%rip), %xmm1 # 0x1eec714
vucomiss %xmm9, %xmm1
jb 0x1cae31f
vxorps %xmm2, %xmm2, %xmm2
vmovss %xmm17, %xmm2, %xmm1 # xmm1 = xmm17[0],xmm2[1,2,3]
vrsqrt14ss %xmm1, %xmm2, %xmm1
vmulss 0x23e3ad(%rip), %xmm1, %xmm2 # 0x1eec718
vmulss 0x23e3a7(%rip), %xmm17, %xmm3 # 0x1eec71c
movq 0x38(%rsp), %rdx
movq (%rdx), %rax
movq 0x1e8(%rax), %rax
movq 0x118(%rsp), %rcx
movq (%rax,%rcx,8), %r14
movq 0x30(%rsp), %rax
movq 0x20(%rsp), %rcx
movl 0x90(%rcx,%rax,4), %eax
testl %eax, 0x34(%r14)
je 0x1cae31d
movq 0x10(%rdx), %rax
cmpq $0x0, 0x10(%rax)
jne 0x1cae3c7
cmpq $0x0, 0x48(%r14)
jne 0x1cae3c7
movb $0x1, %r14b
xorl %eax, %eax
jmp 0x1cae322
vmulss %xmm1, %xmm3, %xmm3
vmulss %xmm1, %xmm1, %xmm1
vmulss %xmm1, %xmm3, %xmm1
vaddss %xmm1, %xmm2, %xmm1
vbroadcastss %xmm1, %xmm1
vmulps %xmm1, %xmm10, %xmm1
vfmadd213ps %xmm12, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm0) + xmm12
vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm12, %xmm12, %xmm3 # xmm3 = xmm12[1,2,0,3]
vmulps %xmm3, %xmm1, %xmm1
vfmsub231ps %xmm2, %xmm12, %xmm1 # xmm1 = (xmm12 * xmm2) - xmm1
vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3]
vshufps $0xd2, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,0,1,3]
vmulps %xmm1, %xmm0, %xmm0
vfmsub231ps %xmm3, %xmm2, %xmm0 # xmm0 = (xmm2 * xmm3) - xmm0
movq 0x38(%rsp), %rdx
movq 0x8(%rdx), %rax
vbroadcastss %xmm9, %xmm1
vshufps $0x55, %xmm0, %xmm0, %xmm2 # xmm2 = xmm0[1,1,1,1]
vshufps $0xaa, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[2,2,2,2]
vbroadcastss %xmm0, %xmm0
vmovaps %xmm2, 0x540(%rsp)
vmovaps %xmm3, 0x550(%rsp)
vmovaps %xmm0, 0x560(%rsp)
vmovaps %xmm1, 0x570(%rsp)
vxorps %xmm0, %xmm0, %xmm0
vmovaps %xmm0, 0x580(%rsp)
vmovaps 0x530(%rsp), %xmm0
vmovaps %xmm0, 0x590(%rsp)
vmovdqa 0x520(%rsp), %xmm0
vmovdqa %xmm0, 0x5a0(%rsp)
leaq 0x5b0(%rsp), %rcx
vpcmpeqd %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, (%rcx)
vbroadcastss (%rax), %xmm0
vmovaps %xmm0, 0x5b0(%rsp)
vbroadcastss 0x4(%rax), %xmm0
vmovaps %xmm0, 0x5c0(%rsp)
movq 0x30(%rsp), %rax
movq 0x20(%rsp), %rcx
vmovss %xmm8, 0x80(%rcx,%rax,4)
vmovaps 0x510(%rsp), %xmm0
vmovaps %xmm0, 0x100(%rsp)
leaq 0x100(%rsp), %rax
movq %rax, 0x330(%rsp)
movq 0x18(%r14), %rax
movq %rax, 0x338(%rsp)
movq 0x8(%rdx), %rax
movq %rax, 0x340(%rsp)
movq %rcx, 0x348(%rsp)
leaq 0x540(%rsp), %rax
movq %rax, 0x350(%rsp)
movl $0x4, 0x358(%rsp)
movq 0x48(%r14), %rax
testq %rax, %rax
vmovaps %xmm9, 0x60(%rsp)
vmovaps %xmm8, 0x80(%rsp)
vmovss %xmm5, 0xa0(%rsp)
je 0x1cae5dd
leaq 0x330(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0xa0(%rsp), %xmm5
vmovaps 0x80(%rsp), %xmm8
vmovaps 0x60(%rsp), %xmm9
vmovaps 0x260(%rsp), %ymm31
vmovaps 0x280(%rsp), %ymm29
vmovaps 0x2a0(%rsp), %ymm27
vmovaps 0x140(%rsp), %ymm25
vmovaps 0x160(%rsp), %ymm23
vmovaps 0x2c0(%rsp), %ymm24
vmovaps 0x180(%rsp), %ymm22
vmovaps 0x2e0(%rsp), %ymm20
vmovaps 0x300(%rsp), %ymm19
vmovaps 0x1a0(%rsp), %ymm18
vmovaps 0x1c0(%rsp), %ymm30
vmovaps 0x1e0(%rsp), %ymm26
vbroadcastss 0x2728f1(%rip), %xmm4 # 0x1f20ec4
vbroadcastss 0x2728e7(%rip), %ymm28 # 0x1f20ec4
vmovdqa 0x100(%rsp), %xmm0
vptestmd %xmm0, %xmm0, %k0
kortestb %k0, %k0
je 0x1cae6ef
movq 0x38(%rsp), %rax
movq 0x10(%rax), %rcx
movq 0x10(%rcx), %rax
testq %rax, %rax
je 0x1cae6b4
testb $0x2, (%rcx)
jne 0x1cae61c
testb $0x40, 0x3e(%r14)
je 0x1cae6b4
leaq 0x330(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0xa0(%rsp), %xmm5
vmovaps 0x80(%rsp), %xmm8
vmovaps 0x60(%rsp), %xmm9
vmovaps 0x260(%rsp), %ymm31
vmovaps 0x280(%rsp), %ymm29
vmovaps 0x2a0(%rsp), %ymm27
vmovaps 0x140(%rsp), %ymm25
vmovaps 0x160(%rsp), %ymm23
vmovaps 0x2c0(%rsp), %ymm24
vmovaps 0x180(%rsp), %ymm22
vmovaps 0x2e0(%rsp), %ymm20
vmovaps 0x300(%rsp), %ymm19
vmovaps 0x1a0(%rsp), %ymm18
vmovaps 0x1c0(%rsp), %ymm30
vmovaps 0x1e0(%rsp), %ymm26
vbroadcastss 0x27281a(%rip), %xmm4 # 0x1f20ec4
vbroadcastss 0x272810(%rip), %ymm28 # 0x1f20ec4
vmovdqa 0x100(%rsp), %xmm0
vptestmd %xmm0, %xmm0, %k1
movq 0x348(%rsp), %rax
vmovaps 0x80(%rax), %xmm0
vbroadcastss 0x23e4a7(%rip), %xmm0 {%k1} # 0x1eecb84
vmovaps %xmm0, 0x80(%rax)
kortestb %k1, %k1
setne %r14b
jmp 0x1cae6f2
xorl %r14d, %r14d
testb %r14b, %r14b
jne 0x1cae3c0
movq 0x30(%rsp), %rax
movq 0x20(%rsp), %rcx
vmovss %xmm5, 0x80(%rcx,%rax,4)
jmp 0x1cae3c0
xorl %r14d, %r14d
andb $0x1, %r14b
orb %r14b, %r13b
movq 0x30(%rsp), %rdx
movq 0x20(%rsp), %rax
vmovaps 0x620(%rsp), %ymm0
vcmpleps 0x80(%rax,%rdx,4){1to8}, %ymm0, %k0
kmovd %k0, %eax
andb %al, %r12b
jne 0x1cadbce
jmp 0x1cae751
vbroadcastss 0x272773(%rip), %xmm4 # 0x1f20ec4
vmovaps 0x5e0(%rsp), %ymm3
vaddps 0x600(%rsp), %ymm3, %ymm0
movq 0x20(%rsp), %rax
vcmpleps 0x80(%rax,%rdx,4){1to8}, %ymm0, %k0
kmovd 0x134(%rsp), %k1
kmovd 0x12c(%rsp), %k2
korb %k2, %k1, %k1
kmovd %k0, %eax
movl 0x44(%rsp), %ecx
andb %al, %cl
vpbroadcastd 0x272740(%rip), %ymm0 # 0x1f20edc
vpblendmd 0x272732(%rip){1to8}, %ymm0, %ymm0 {%k1} # 0x1f20ed8
vmovdqa %ymm0, 0x600(%rsp)
vpcmpled 0x680(%rsp), %ymm0, %k0
kmovd %k0, %r12d
movl %ecx, 0x44(%rsp)
andb %cl, %r12b
je 0x1caf3c3
vmovaps 0x6e0(%rsp), %ymm7
vmovaps 0x3e0(%rsp), %ymm1
vmovaps 0x3a0(%rsp), %ymm2
vminps %xmm2, %xmm1, %xmm0
vmaxps %xmm2, %xmm1, %xmm1
vmovaps 0x3c0(%rsp), %ymm5
vmovaps 0x380(%rsp), %ymm6
vminps %xmm6, %xmm5, %xmm2
vminps %xmm2, %xmm0, %xmm0
vmaxps %xmm6, %xmm5, %xmm2
vmaxps %xmm2, %xmm1, %xmm1
vandps %xmm4, %xmm0, %xmm0
vandps %xmm4, %xmm1, %xmm2
vmaxps %xmm2, %xmm0, %xmm0
vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3]
vmaxss %xmm0, %xmm2, %xmm2
vshufpd $0x1, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[1,0]
vmaxss %xmm2, %xmm0, %xmm0
vmulss 0x243681(%rip), %xmm0, %xmm0 # 0x1ef1eb4
vmovss %xmm0, 0x50(%rsp)
vshufps $0xff, %xmm1, %xmm1, %xmm0 # xmm0 = xmm1[3,3,3,3]
vmovaps %xmm0, 0x420(%rsp)
vmovaps %ymm7, 0x4c0(%rsp)
vaddps %ymm7, %ymm3, %ymm0
vmovaps %ymm0, 0x620(%rsp)
kmovd %r12d, %k1
vbroadcastss 0x23d1b5(%rip), %ymm0 # 0x1eeba20
vblendmps 0x4c0(%rsp), %ymm0, %ymm0 {%k1}
vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm0, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1]
vminps %ymm2, %ymm1, %ymm1
vcmpeqps %ymm1, %ymm0, %k0
kmovd %k0, %eax
andb %r12b, %al
movzbl %al, %eax
movzbl %r12b, %ecx
cmovnel %eax, %ecx
tzcntl %ecx, %ecx
movb $0x1, %r14b
shlb %cl, %r14b
shll $0x2, %ecx
vmovss 0x640(%rsp,%rcx), %xmm9
vmovss 0x700(%rsp,%rcx), %xmm8
vmovaps 0x360(%rsp), %xmm0
vucomiss 0x23d14d(%rip), %xmm0 # 0x1eeba24
vmovss 0x13c(%rsp), %xmm0
jae 0x1cae923
vmovaps 0x360(%rsp), %xmm0
vmovaps %xmm9, 0x60(%rsp)
vmovaps %xmm8, 0x80(%rsp)
kmovw %k1, 0x200(%rsp)
vzeroupper
callq 0x6aa20
kmovw 0x200(%rsp), %k1
vmovaps 0x80(%rsp), %xmm8
vmovaps 0x60(%rsp), %xmm9
movzbl %r14b, %eax
kmovd %eax, %k0
kandnb %k1, %k0, %k0
kmovd %k0, %r12d
vmulss 0x243579(%rip), %xmm0, %xmm0 # 0x1ef1eb4
vmovss %xmm0, 0x54(%rsp)
movl $0x5, %r15d
vmovaps %xmm8, 0x80(%rsp)
vbroadcastss %xmm8, %xmm0
vxorps %xmm1, %xmm1, %xmm1
vfmadd132ps 0x370(%rsp), %xmm1, %xmm0 # xmm0 = (xmm0 * mem) + xmm1
vmovss 0x23dda9(%rip), %xmm1 # 0x1eec714
vsubss %xmm9, %xmm1, %xmm11
vbroadcastss 0x272547(%rip), %xmm6 # 0x1f20ec0
vxorps %xmm6, %xmm9, %xmm1
vmulss %xmm1, %xmm11, %xmm1
vmulss %xmm1, %xmm11, %xmm1
vmulss %xmm9, %xmm9, %xmm12
vmovss 0x24265a(%rip), %xmm8 # 0x1ef0fec
vmovaps %xmm8, %xmm10
vmovss 0x242665(%rip), %xmm7 # 0x1ef1004
vfmadd213ss %xmm7, %xmm9, %xmm10 # xmm10 = (xmm9 * xmm10) + xmm7
vmovaps %xmm10, %xmm2
vmovss 0x242648(%rip), %xmm5 # 0x1ef0ff8
vfmadd213ss %xmm5, %xmm12, %xmm2 # xmm2 = (xmm12 * xmm2) + xmm5
vmulss %xmm11, %xmm11, %xmm3
vmovaps %xmm8, %xmm4
vfmadd213ss %xmm7, %xmm11, %xmm4 # xmm4 = (xmm11 * xmm4) + xmm7
vfmadd213ss %xmm5, %xmm3, %xmm4 # xmm4 = (xmm3 * xmm4) + xmm5
vxorps %xmm6, %xmm11, %xmm3
vmulss %xmm3, %xmm9, %xmm3
vmulss %xmm3, %xmm9, %xmm3
vmovss 0x23e1a4(%rip), %xmm5 # 0x1eecb80
vmulss %xmm5, %xmm1, %xmm1
vmulss %xmm5, %xmm2, %xmm2
vmulss %xmm5, %xmm4, %xmm4
vmulss %xmm5, %xmm3, %xmm3
vbroadcastss %xmm3, %xmm3
vmulps 0x380(%rsp), %xmm3, %xmm3
vbroadcastss %xmm4, %xmm4
vfmadd132ps 0x3c0(%rsp), %xmm3, %xmm4 # xmm4 = (xmm4 * mem) + xmm3
vbroadcastss %xmm2, %xmm2
vfmadd132ps 0x3a0(%rsp), %xmm4, %xmm2 # xmm2 = (xmm2 * mem) + xmm4
vbroadcastss %xmm1, %xmm3
vfmadd132ps 0x3e0(%rsp), %xmm2, %xmm3 # xmm3 = (xmm3 * mem) + xmm2
vmulss 0x241fad(%rip), %xmm11, %xmm6 # 0x1ef09dc
vfmadd231ss 0x2425d0(%rip), %xmm9, %xmm7 # xmm7 = (xmm9 * mem) + xmm7
vmovaps %xmm7, 0x490(%rsp)
vmovss 0x2425c3(%rip), %xmm1 # 0x1ef100c
vfmadd213ss 0x23e13a(%rip), %xmm9, %xmm1 # xmm1 = (xmm9 * xmm1) + mem
vmovaps %xmm1, 0x480(%rsp)
vfmadd213ss 0x241f68(%rip), %xmm9, %xmm8 # xmm8 = (xmm9 * xmm8) + mem
vmovaps %xmm8, 0x470(%rsp)
vmovaps %xmm3, 0x4e0(%rsp)
vsubps %xmm3, %xmm0, %xmm0
vmovaps %xmm0, 0x200(%rsp)
vdpps $0x7f, %xmm0, %xmm0, %xmm0
vucomiss 0x23cf93(%rip), %xmm0 # 0x1eeba24
vmovaps %xmm9, 0x60(%rsp)
vmovaps %xmm0, 0xa0(%rsp)
jb 0x1caeaa8
vsqrtss %xmm0, %xmm0, %xmm7
jmp 0x1caeb02
vmovss %xmm10, 0x240(%rsp)
vmovaps %xmm11, 0x220(%rsp)
vmovss %xmm12, 0xf0(%rsp)
vmovss %xmm6, 0xe0(%rsp)
vzeroupper
callq 0x6aa20
vmovss 0xe0(%rsp), %xmm6
vmovss 0xf0(%rsp), %xmm12
vmovaps 0x220(%rsp), %xmm11
vmovss 0x240(%rsp), %xmm10
vmovaps 0x60(%rsp), %xmm9
vmovaps %xmm0, %xmm7
vaddss %xmm11, %xmm11, %xmm0
vmulss %xmm0, %xmm9, %xmm1
vfnmadd231ss %xmm11, %xmm11, %xmm1 # xmm1 = -(xmm11 * xmm11) + xmm1
vaddss %xmm9, %xmm9, %xmm2
vmovss 0x2424cf(%rip), %xmm4 # 0x1ef0fec
vmulss %xmm4, %xmm9, %xmm3
vmulss %xmm3, %xmm9, %xmm3
vfmadd213ss %xmm3, %xmm2, %xmm10 # xmm10 = (xmm2 * xmm10) + xmm3
vmovaps %xmm4, %xmm2
vmovss 0x2424c2(%rip), %xmm4 # 0x1ef0ff8
vfmadd213ss %xmm4, %xmm9, %xmm2 # xmm2 = (xmm9 * xmm2) + xmm4
vmulss 0x2424ad(%rip), %xmm11, %xmm3 # 0x1ef0ff0
vmulss %xmm3, %xmm11, %xmm3
vfmadd231ss %xmm2, %xmm0, %xmm3 # xmm3 = (xmm0 * xmm2) + xmm3
vfmadd213ss %xmm12, %xmm9, %xmm6 # xmm6 = (xmm9 * xmm6) + xmm12
vmovss 0x23e027(%rip), %xmm5 # 0x1eecb80
vmulss %xmm5, %xmm1, %xmm0
vmulss %xmm5, %xmm10, %xmm1
vmulss %xmm5, %xmm3, %xmm2
vmulss %xmm5, %xmm6, %xmm3
vbroadcastss %xmm3, %xmm3
vmulps 0x380(%rsp), %xmm3, %xmm3
vbroadcastss %xmm2, %xmm2
vfmadd132ps 0x3c0(%rsp), %xmm3, %xmm2 # xmm2 = (xmm2 * mem) + xmm3
vbroadcastss %xmm1, %xmm1
vfmadd132ps 0x3a0(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2
vbroadcastss %xmm0, %xmm12
vfmadd132ps 0x3e0(%rsp), %xmm1, %xmm12 # xmm12 = (xmm12 * mem) + xmm1
vdpps $0x7f, %xmm12, %xmm12, %xmm0
vxorps %xmm1, %xmm1, %xmm1
vmovss %xmm0, %xmm1, %xmm2 # xmm2 = xmm0[0],xmm1[1,2,3]
vrsqrt14ss %xmm2, %xmm1, %xmm3
vmulss 0x23db58(%rip), %xmm3, %xmm6 # 0x1eec718
vmulss 0x23db54(%rip), %xmm0, %xmm8 # 0x1eec71c
vrcp14ss %xmm2, %xmm1, %xmm2
vxorps 0x2722e8(%rip){1to4}, %xmm0, %xmm1 # 0x1f20ec0
vmovaps %xmm2, 0xe0(%rsp)
vfnmadd213ss %xmm4, %xmm0, %xmm2 # xmm2 = -(xmm0 * xmm2) + xmm4
vmovss %xmm2, 0x58(%rsp)
vucomiss %xmm1, %xmm0
vmovaps %xmm12, 0x240(%rsp)
vmovss %xmm7, 0x220(%rsp)
vmovaps %xmm0, 0xf0(%rsp)
jb 0x1caec13
vsqrtss %xmm0, %xmm0, %xmm5
jmp 0x1caec5b
vmovaps %xmm3, 0xd0(%rsp)
vmovss %xmm6, 0x2c(%rsp)
vmovss %xmm8, 0x28(%rsp)
vzeroupper
callq 0x6aa20
vmovss 0x28(%rsp), %xmm8
vmovss 0x2c(%rsp), %xmm6
vmovaps 0xd0(%rsp), %xmm3
vmovss 0x220(%rsp), %xmm7
vmovaps 0x240(%rsp), %xmm12
vmovaps %xmm0, %xmm5
vmovaps 0x200(%rsp), %xmm10
vmovaps 0xa0(%rsp), %xmm17
vmulss %xmm3, %xmm8, %xmm0
vmulss %xmm3, %xmm3, %xmm1
vmulss %xmm1, %xmm0, %xmm0
vaddss %xmm0, %xmm6, %xmm0
vbroadcastss %xmm0, %xmm4
vmulps %xmm4, %xmm12, %xmm0
vmovaps %xmm0, 0xd0(%rsp)
vdpps $0x7f, %xmm0, %xmm10, %xmm14
vaddss 0x23da78(%rip), %xmm7, %xmm13 # 0x1eec714
vmulps %xmm14, %xmm14, %xmm0
vsubps %xmm0, %xmm17, %xmm0
vxorps %xmm2, %xmm2, %xmm2
vmovss %xmm0, %xmm2, %xmm1 # xmm1 = xmm0[0],xmm2[1,2,3]
vrsqrt14ss %xmm1, %xmm2, %xmm15
vmulss 0x23da59(%rip), %xmm15, %xmm16 # 0x1eec718
vmulss 0x23da55(%rip), %xmm0, %xmm1 # 0x1eec71c
vmovss %xmm1, 0x2c(%rsp)
vucomiss 0x23cd4f(%rip), %xmm0 # 0x1eeba24
jb 0x1caece0
vsqrtss %xmm0, %xmm0, %xmm0
jmp 0x1caed69
vmovss %xmm13, 0x28(%rsp)
vmovaps %xmm14, 0x460(%rsp)
vmovss %xmm5, 0x4c(%rsp)
vmovaps %xmm15, 0x450(%rsp)
vmovss %xmm16, 0x48(%rsp)
vmovaps %xmm4, 0x440(%rsp)
vzeroupper
callq 0x6aa20
vmovaps 0x440(%rsp), %xmm4
vmovss 0x48(%rsp), %xmm16
vmovaps 0x450(%rsp), %xmm15
vmovss 0x4c(%rsp), %xmm5
vmovaps 0x460(%rsp), %xmm14
vmovss 0x28(%rsp), %xmm13
vmovss 0x220(%rsp), %xmm7
vmovaps 0x240(%rsp), %xmm12
vmovaps 0xa0(%rsp), %xmm17
vmovaps 0x200(%rsp), %xmm10
vbroadcastss 0x272151(%rip), %ymm28 # 0x1f20ec4
vmovaps 0x1e0(%rsp), %ymm26
vmovaps 0x1c0(%rsp), %ymm30
vmovaps 0x1a0(%rsp), %ymm18
vmovaps 0x300(%rsp), %ymm19
vmovaps 0x2e0(%rsp), %ymm20
vmovaps 0x180(%rsp), %ymm22
vmovaps 0x2c0(%rsp), %ymm24
vmovaps 0x160(%rsp), %ymm23
vmovaps 0x140(%rsp), %ymm25
vmovaps 0x2a0(%rsp), %ymm27
vmovaps 0x280(%rsp), %ymm29
vmovaps 0x260(%rsp), %ymm31
vmovaps 0x60(%rsp), %xmm9
vmovaps 0x80(%rsp), %xmm8
vbroadcastss 0x470(%rsp), %xmm1
vmulps 0x380(%rsp), %xmm1, %xmm1
vbroadcastss 0x480(%rsp), %xmm2
vfmadd132ps 0x3c0(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1
vbroadcastss 0x490(%rsp), %xmm1
vfmadd132ps 0x3a0(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2
vmovss 0x2421cb(%rip), %xmm2 # 0x1ef0ff0
vfmadd213ss 0x2421ca(%rip), %xmm9, %xmm2 # xmm2 = (xmm9 * xmm2) + mem
vbroadcastss %xmm2, %xmm2
vfmadd132ps 0x3e0(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1
vbroadcastss 0xf0(%rsp), %xmm1
vmulps %xmm1, %xmm2, %xmm1
vdpps $0x7f, %xmm2, %xmm12, %xmm2
vbroadcastss %xmm2, %xmm2
vmulps %xmm2, %xmm12, %xmm2
vsubps %xmm2, %xmm1, %xmm2
vmovss 0x58(%rsp), %xmm1
vmulss 0xe0(%rsp), %xmm1, %xmm3
vmulss 0x54(%rsp), %xmm8, %xmm1
vmovss 0x50(%rsp), %xmm6
vmaxss %xmm1, %xmm6, %xmm1
vbroadcastss %xmm3, %xmm3
vmulps %xmm3, %xmm2, %xmm2
vxorps 0x272030(%rip){1to4}, %xmm12, %xmm3 # 0x1f20ec0
vmulps %xmm2, %xmm4, %xmm2
vmovaps 0xd0(%rsp), %xmm11
vdpps $0x7f, %xmm11, %xmm3, %xmm4
vdivss %xmm5, %xmm6, %xmm5
vfmadd213ss %xmm1, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm7) + xmm1
vdpps $0x7f, %xmm2, %xmm10, %xmm2
vfmadd213ss %xmm7, %xmm5, %xmm13 # xmm13 = (xmm5 * xmm13) + xmm7
vaddss %xmm2, %xmm4, %xmm4
vmovaps 0x370(%rsp), %xmm7
vdpps $0x7f, %xmm11, %xmm7, %xmm5
vdpps $0x7f, %xmm3, %xmm10, %xmm3
vmulss 0x2c(%rsp), %xmm15, %xmm2
vmulss %xmm15, %xmm15, %xmm6
vmulss %xmm6, %xmm2, %xmm2
vaddss %xmm2, %xmm16, %xmm6
vdpps $0x7f, %xmm7, %xmm10, %xmm7
vfnmadd231ss %xmm4, %xmm14, %xmm3 # xmm3 = -(xmm14 * xmm4) + xmm3
vfnmadd231ss %xmm5, %xmm14, %xmm7 # xmm7 = -(xmm14 * xmm5) + xmm7
vpermilps $0xff, 0x4e0(%rsp), %xmm2 # xmm2 = mem[3,3,3,3]
vsubss %xmm2, %xmm0, %xmm2
vshufps $0xff, %xmm12, %xmm12, %xmm0 # xmm0 = xmm12[3,3,3,3]
vfmsub213ss %xmm0, %xmm6, %xmm3 # xmm3 = (xmm6 * xmm3) - xmm0
vmulss %xmm6, %xmm7, %xmm6
vmulss %xmm3, %xmm5, %xmm7
vfmsub231ss %xmm6, %xmm4, %xmm7 # xmm7 = (xmm4 * xmm6) - xmm7
vdivss %xmm7, %xmm6, %xmm6
vdivss %xmm7, %xmm3, %xmm3
vdivss %xmm7, %xmm5, %xmm5
vdivss %xmm7, %xmm4, %xmm4
vmulss %xmm6, %xmm14, %xmm6
vmulss %xmm5, %xmm2, %xmm5
vsubss %xmm5, %xmm6, %xmm5
vmulss %xmm3, %xmm14, %xmm3
vmulss %xmm4, %xmm2, %xmm4
vsubss %xmm3, %xmm4, %xmm3
vsubss %xmm5, %xmm9, %xmm9
vsubss %xmm3, %xmm8, %xmm8
vbroadcastss 0x271f6f(%rip), %xmm4 # 0x1f20ec4
vandps %xmm4, %xmm14, %xmm3
vucomiss %xmm3, %xmm13
movb $0x1, %al
jbe 0x1caefb1
vaddss %xmm1, %xmm13, %xmm1
vmovaps 0x420(%rsp), %xmm3
vfmadd231ss 0x242f3d(%rip), %xmm3, %xmm1 # xmm1 = (xmm3 * mem) + xmm1
vandps %xmm4, %xmm2, %xmm2
vucomiss %xmm2, %xmm1
jbe 0x1caefb1
vaddss 0x430(%rsp), %xmm8, %xmm8
vucomiss 0x5c(%rsp), %xmm8
jb 0x1caefac
movq 0x30(%rsp), %rax
movq 0x20(%rsp), %rcx
vmovss 0x80(%rcx,%rax,4), %xmm4
vucomiss %xmm8, %xmm4
jae 0x1caefc7
xorl %eax, %eax
xorl %r14d, %r14d
testb %al, %al
je 0x1caf393
decq %r15
jne 0x1cae947
jmp 0x1caf390
xorl %eax, %eax
vucomiss 0x23ca53(%rip), %xmm9 # 0x1eeba24
jb 0x1caefae
vmovss 0x23d739(%rip), %xmm1 # 0x1eec714
vucomiss %xmm9, %xmm1
jb 0x1caefae
vxorps %xmm2, %xmm2, %xmm2
vmovss %xmm17, %xmm2, %xmm1 # xmm1 = xmm17[0],xmm2[1,2,3]
vrsqrt14ss %xmm1, %xmm2, %xmm1
vmulss 0x23d71e(%rip), %xmm1, %xmm2 # 0x1eec718
vmulss 0x23d718(%rip), %xmm17, %xmm3 # 0x1eec71c
movq 0x38(%rsp), %rdx
movq (%rdx), %rax
movq 0x1e8(%rax), %rax
movq 0x118(%rsp), %rcx
movq (%rax,%rcx,8), %r14
movq 0x30(%rsp), %rax
movq 0x20(%rsp), %rcx
movl 0x90(%rcx,%rax,4), %eax
testl %eax, 0x34(%r14)
je 0x1caefac
movq 0x10(%rdx), %rax
cmpq $0x0, 0x10(%rax)
jne 0x1caf056
cmpq $0x0, 0x48(%r14)
jne 0x1caf056
movb $0x1, %r14b
xorl %eax, %eax
jmp 0x1caefb1
vmulss %xmm1, %xmm3, %xmm3
vmulss %xmm1, %xmm1, %xmm1
vmulss %xmm1, %xmm3, %xmm1
vaddss %xmm1, %xmm2, %xmm1
vbroadcastss %xmm1, %xmm1
vmulps %xmm1, %xmm10, %xmm1
vfmadd213ps %xmm12, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm0) + xmm12
vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm12, %xmm12, %xmm3 # xmm3 = xmm12[1,2,0,3]
vmulps %xmm3, %xmm1, %xmm1
vfmsub231ps %xmm2, %xmm12, %xmm1 # xmm1 = (xmm12 * xmm2) - xmm1
vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3]
vshufps $0xd2, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,0,1,3]
vmulps %xmm1, %xmm0, %xmm0
vfmsub231ps %xmm3, %xmm2, %xmm0 # xmm0 = (xmm2 * xmm3) - xmm0
movq 0x38(%rsp), %rdx
movq 0x8(%rdx), %rax
vbroadcastss %xmm9, %xmm1
vshufps $0x55, %xmm0, %xmm0, %xmm2 # xmm2 = xmm0[1,1,1,1]
vshufps $0xaa, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[2,2,2,2]
vbroadcastss %xmm0, %xmm0
vmovaps %xmm2, 0x540(%rsp)
vmovaps %xmm3, 0x550(%rsp)
vmovaps %xmm0, 0x560(%rsp)
vmovaps %xmm1, 0x570(%rsp)
vxorps %xmm0, %xmm0, %xmm0
vmovaps %xmm0, 0x580(%rsp)
vmovaps 0x530(%rsp), %xmm0
vmovaps %xmm0, 0x590(%rsp)
vmovdqa 0x520(%rsp), %xmm0
vmovdqa %xmm0, 0x5a0(%rsp)
leaq 0x5b0(%rsp), %rcx
vpcmpeqd %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, (%rcx)
vbroadcastss (%rax), %xmm0
vmovaps %xmm0, 0x5b0(%rsp)
vbroadcastss 0x4(%rax), %xmm0
vmovaps %xmm0, 0x5c0(%rsp)
movq 0x30(%rsp), %rax
movq 0x20(%rsp), %rcx
vmovss %xmm8, 0x80(%rcx,%rax,4)
vmovaps 0x510(%rsp), %xmm0
vmovaps %xmm0, 0x100(%rsp)
leaq 0x100(%rsp), %rax
movq %rax, 0x330(%rsp)
movq 0x18(%r14), %rax
movq %rax, 0x338(%rsp)
movq 0x8(%rdx), %rax
movq %rax, 0x340(%rsp)
movq %rcx, 0x348(%rsp)
leaq 0x540(%rsp), %rax
movq %rax, 0x350(%rsp)
movl $0x4, 0x358(%rsp)
movq 0x48(%r14), %rax
testq %rax, %rax
vmovaps %xmm9, 0x60(%rsp)
vmovaps %xmm8, 0x80(%rsp)
vmovss %xmm4, 0xa0(%rsp)
je 0x1caf263
leaq 0x330(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0xa0(%rsp), %xmm4
vmovaps 0x80(%rsp), %xmm8
vmovaps 0x60(%rsp), %xmm9
vmovaps 0x260(%rsp), %ymm31
vmovaps 0x280(%rsp), %ymm29
vmovaps 0x2a0(%rsp), %ymm27
vmovaps 0x140(%rsp), %ymm25
vmovaps 0x160(%rsp), %ymm23
vmovaps 0x2c0(%rsp), %ymm24
vmovaps 0x180(%rsp), %ymm22
vmovaps 0x2e0(%rsp), %ymm20
vmovaps 0x300(%rsp), %ymm19
vmovaps 0x1a0(%rsp), %ymm18
vmovaps 0x1c0(%rsp), %ymm30
vmovaps 0x1e0(%rsp), %ymm26
vbroadcastss 0x271c61(%rip), %ymm28 # 0x1f20ec4
vmovdqa 0x100(%rsp), %xmm0
vptestmd %xmm0, %xmm0, %k0
kortestb %k0, %k0
je 0x1caf36c
movq 0x38(%rsp), %rax
movq 0x10(%rax), %rcx
movq 0x10(%rcx), %rax
testq %rax, %rax
je 0x1caf331
testb $0x2, (%rcx)
jne 0x1caf2a2
testb $0x40, 0x3e(%r14)
je 0x1caf331
leaq 0x330(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0xa0(%rsp), %xmm4
vmovaps 0x80(%rsp), %xmm8
vmovaps 0x60(%rsp), %xmm9
vmovaps 0x260(%rsp), %ymm31
vmovaps 0x280(%rsp), %ymm29
vmovaps 0x2a0(%rsp), %ymm27
vmovaps 0x140(%rsp), %ymm25
vmovaps 0x160(%rsp), %ymm23
vmovaps 0x2c0(%rsp), %ymm24
vmovaps 0x180(%rsp), %ymm22
vmovaps 0x2e0(%rsp), %ymm20
vmovaps 0x300(%rsp), %ymm19
vmovaps 0x1a0(%rsp), %ymm18
vmovaps 0x1c0(%rsp), %ymm30
vmovaps 0x1e0(%rsp), %ymm26
vbroadcastss 0x271b93(%rip), %ymm28 # 0x1f20ec4
vmovdqa 0x100(%rsp), %xmm0
vptestmd %xmm0, %xmm0, %k1
movq 0x348(%rsp), %rax
vmovaps 0x80(%rax), %xmm0
vbroadcastss 0x23d82a(%rip), %xmm0 {%k1} # 0x1eecb84
vmovaps %xmm0, 0x80(%rax)
kortestb %k1, %k1
setne %r14b
jmp 0x1caf36f
xorl %r14d, %r14d
testb %r14b, %r14b
jne 0x1caf04f
movq 0x30(%rsp), %rax
movq 0x20(%rsp), %rcx
vmovss %xmm4, 0x80(%rcx,%rax,4)
jmp 0x1caf04f
xorl %r14d, %r14d
andb $0x1, %r14b
orb %r14b, %r13b
movq 0x30(%rsp), %rdx
movq 0x20(%rsp), %rax
vmovaps 0x620(%rsp), %ymm0
vcmpleps 0x80(%rax,%rdx,4){1to8}, %ymm0, %k0
kmovd %k0, %eax
andb %al, %r12b
jne 0x1cae85d
vmovdqa 0x680(%rsp), %ymm1
vpcmpltd 0x600(%rsp), %ymm1, %k1
vmovaps 0x840(%rsp), %ymm0
vpcmpltd 0x720(%rsp), %ymm1, %k2
vmovaps 0x5e0(%rsp), %ymm3
vaddps %ymm0, %ymm3, %ymm1
movq 0x20(%rsp), %rax
vbroadcastss 0x80(%rax,%rdx,4), %ymm2
vcmpleps %ymm2, %ymm1, %k0 {%k2}
kmovd %k0, %eax
movl 0x130(%rsp), %ecx
andb %al, %cl
vmovaps 0x6e0(%rsp), %ymm1
vaddps %ymm1, %ymm3, %ymm3
vcmpleps %ymm2, %ymm3, %k0 {%k1}
kmovd %k0, %eax
movl 0x44(%rsp), %esi
andb %al, %sil
orb %cl, %sil
je 0x1caf485
movl %ebx, %eax
leaq (%rax,%rax,2), %rax
shlq $0x5, %rax
movb %sil, 0x880(%rsp,%rax)
kmovd %ecx, %k1
vmovaps %ymm0, %ymm1 {%k1}
vmovaps %ymm1, 0x8a0(%rsp,%rax)
vmovaps 0x410(%rsp), %xmm0
vmovlps %xmm0, 0x8c0(%rsp,%rax)
movq 0x120(%rsp), %rcx
incl %ecx
movl %ecx, 0x8c8(%rsp,%rax)
incl %ebx
movq 0x320(%rsp), %r8
movq 0x38(%rsp), %r14
movb 0x1f(%rsp), %r15b
movq 0x328(%rsp), %r12
vbroadcastss 0x271a18(%rip), %ymm2 # 0x1f20ec0
vmovaps 0x4a0(%rsp), %ymm3
testl %ebx, %ebx
je 0x1caf641
leal -0x1(%rbx), %r9d
leaq (%r9,%r9,2), %rcx
shlq $0x5, %rcx
vmovaps 0x8a0(%rsp,%rcx), %ymm0
movzbl 0x880(%rsp,%rcx), %esi
vaddps 0x5e0(%rsp), %ymm0, %ymm1
movq 0x20(%rsp), %rax
vcmpleps 0x80(%rax,%rdx,4){1to8}, %ymm1, %k0
kmovb %k0, %eax
andl %esi, %eax
je 0x1caf5c0
kmovd %eax, %k1
vbroadcastss 0x23c51a(%rip), %ymm1 # 0x1eeba20
vblendmps %ymm0, %ymm1, %ymm0 {%k1}
vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm0, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1]
vminps %ymm2, %ymm1, %ymm1
vcmpeqps %ymm1, %ymm0, %k0
kmovd %k0, %esi
andb %al, %sil
je 0x1caf53e
movzbl %sil, %edi
jmp 0x1caf541
movzbl %al, %edi
leaq (%rsp,%rcx), %rsi
addq $0x880, %rsi # imm = 0x880
vmovss 0x44(%rsi), %xmm0
tzcntl %edi, %ecx
movb $0x1, %dil
shlb %cl, %dil
movl 0x48(%rsi), %r10d
movq %r10, 0x120(%rsp)
movzbl %dil, %edi
kmovd %edi, %k0
kmovd %eax, %k1
kandnb %k1, %k0, %k0
kmovb %k0, (%rsi)
kortestb %k0, %k0
vbroadcastss 0x271938(%rip), %ymm2 # 0x1f20ec0
je 0x1caf58d
movl %ebx, %r9d
vbroadcastss 0x40(%rsi), %ymm1
vsubss %xmm1, %xmm0, %xmm0
vbroadcastss %xmm0, %ymm0
vfmadd132ps 0x27197b(%rip), %ymm1, %ymm0 # ymm0 = (ymm0 * mem) + ymm1
vmovaps %ymm0, 0x540(%rsp)
vmovsd 0x540(%rsp,%rcx,4), %xmm0
vmovaps %xmm0, 0x410(%rsp)
movl %r9d, %ebx
testb %al, %al
je 0x1caf4b1
vmovaps 0x7a0(%rsp), %ymm6
vmovaps 0x780(%rsp), %ymm16
vmovaps 0x760(%rsp), %ymm21
vmovdqa 0x410(%rsp), %xmm1
jmp 0x1caceda
vcmpleps 0x271903(%rip), %ymm4, %k2 # 0x1f20f00
vbroadcastss 0x23d57e(%rip), %ymm4 # 0x1eecb84
vbroadcastss 0x23c410(%rip), %ymm16 # 0x1eeba20
vblendmps %ymm4, %ymm16, %ymm3 {%k2}
vmovaps %ymm3, %ymm30 {%k1}
vblendmps %ymm16, %ymm4, %ymm3 {%k2}
kmovd %k2, %ecx
vmovaps %ymm3, %ymm31 {%k1}
knotb %k1, %k0
kmovd %k0, %esi
orb %cl, %sil
andb %al, %sil
movl %esi, %eax
jmp 0x1cad45a
testb $0x1, %r13b
jne 0x1caf66f
movq 0x20(%rsp), %rax
vmovaps 0x740(%rsp), %ymm0
vcmpleps 0x80(%rax,%rdx,4){1to8}, %ymm0, %k0
kmovb %k0, %eax
andl %eax, %r12d
setne %r15b
jne 0x1cacb58
andb $0x1, %r15b
movl %r15d, %eax
leaq -0x28(%rbp), %rsp
popq %rbx
popq %r12
popq %r13
popq %r14
popq %r15
popq %rbp
vzeroupper
retq
|
/embree[P]embree/kernels/geometry/curveNi_intersector.h
|
void embree::avx512::CurveNiIntersectorK<8, 8>::intersect_t<embree::avx512::SweepCurve1IntersectorK<embree::CatmullRomCurveT, 8>, embree::avx512::Intersect1KEpilog1<8, true>>(embree::avx512::CurvePrecalculationsK<8>&, embree::RayHitK<8>&, unsigned long, embree::RayQueryContext*, embree::CurveNi<8> const&)
|
static __forceinline void intersect_t(Precalculations& pre, RayHitK<K>& ray, const size_t k, RayQueryContext* context, const Primitive& prim)
{
vfloat<M> tNear;
vbool<M> valid = intersect(ray,k,prim,tNear);
const size_t N = prim.N;
size_t mask = movemask(valid);
while (mask)
{
const size_t i = bscf(mask);
STAT3(normal.trav_prims,1,1,1);
const unsigned int geomID = prim.geomID(N);
const unsigned int primID = prim.primID(N)[i];
const CurveGeometry* geom = context->scene->get<CurveGeometry>(geomID);
Vec3ff a0,a1,a2,a3; geom->gather(a0,a1,a2,a3,geom->curve(primID));
size_t mask1 = mask;
const size_t i1 = bscf(mask1);
if (mask) {
const unsigned int primID1 = prim.primID(N)[i1];
geom->prefetchL1_vertices(geom->curve(primID1));
if (mask1) {
const size_t i2 = bsf(mask1);
const unsigned int primID2 = prim.primID(N)[i2];
geom->prefetchL2_vertices(geom->curve(primID2));
}
}
Intersector().intersect(pre,ray,k,context,geom,primID,a0,a1,a2,a3,Epilog(ray,k,context,geomID,primID));
mask &= movemask(tNear <= vfloat<M>(ray.tfar[k]));
}
}
|
pushq %rbp
movq %rsp, %rbp
pushq %r15
pushq %r14
pushq %r13
pushq %r12
pushq %rbx
andq $-0x20, %rsp
subq $0xaa0, %rsp # imm = 0xAA0
movq %rcx, %r15
movq %rsi, %r12
movzbl 0x1(%r8), %ecx
leaq (%rcx,%rcx,4), %rax
leaq (%rax,%rax,4), %rsi
vbroadcastss 0x12(%r8,%rsi), %xmm0
vmovss (%r12,%rdx,4), %xmm1
vmovss 0x80(%r12,%rdx,4), %xmm2
vinsertps $0x10, 0x20(%r12,%rdx,4), %xmm1, %xmm1 # xmm1 = xmm1[0],mem[0],xmm1[2,3]
vinsertps $0x20, 0x40(%r12,%rdx,4), %xmm1, %xmm1 # xmm1 = xmm1[0,1],mem[0],xmm1[3]
vinsertps $0x10, 0xa0(%r12,%rdx,4), %xmm2, %xmm2 # xmm2 = xmm2[0],mem[0],xmm2[2,3]
vinsertps $0x20, 0xc0(%r12,%rdx,4), %xmm2, %xmm2 # xmm2 = xmm2[0,1],mem[0],xmm2[3]
vsubps 0x6(%r8,%rsi), %xmm1, %xmm1
vmulps %xmm1, %xmm0, %xmm3
vmulps %xmm2, %xmm0, %xmm0
vpmovsxbd 0x6(%r8,%rcx,4), %ymm1
vpmovsxbd 0x6(%r8,%rax), %ymm2
vcvtdq2ps %ymm1, %ymm5
vcvtdq2ps %ymm2, %ymm6
leaq (%rcx,%rcx,2), %r9
vpmovsxbd 0x6(%r8,%r9,2), %ymm1
vcvtdq2ps %ymm1, %ymm4
leaq (%rcx,%rax,2), %rsi
vpmovsxbd 0x6(%r8,%rsi), %ymm1
leal (,%r9,4), %esi
vpmovsxbd 0x6(%r8,%rsi), %ymm2
vcvtdq2ps %ymm1, %ymm7
vcvtdq2ps %ymm2, %ymm8
addq %rcx, %rsi
vpmovsxbd 0x6(%r8,%rsi), %ymm1
vcvtdq2ps %ymm1, %ymm9
leaq (%rcx,%rcx,8), %rsi
leal (%rsi,%rsi), %edi
vpmovsxbd 0x6(%r8,%rdi), %ymm1
vcvtdq2ps %ymm1, %ymm10
addq %rcx, %rdi
vpmovsxbd 0x6(%r8,%rdi), %ymm1
vcvtdq2ps %ymm1, %ymm11
shll $0x2, %eax
vpmovsxbd 0x6(%r8,%rax), %ymm1
vcvtdq2ps %ymm1, %ymm12
vbroadcastss %xmm0, %ymm13
vbroadcastss 0x262f74(%rip), %ymm15 # 0x1f12704
vbroadcastss 0x271742(%rip), %ymm16 # 0x1f20edc
vpermps %ymm0, %ymm15, %ymm14
vpermps %ymm0, %ymm16, %ymm0
vmulps %ymm4, %ymm0, %ymm2
vmulps %ymm0, %ymm9, %ymm1
vmulps %ymm0, %ymm12, %ymm0
vfmadd231ps %ymm6, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm6) + ymm2
vfmadd231ps %ymm8, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm8) + ymm1
vfmadd231ps %ymm14, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm14) + ymm0
vfmadd231ps %ymm5, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm5) + ymm2
vfmadd231ps %ymm7, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm7) + ymm1
vfmadd231ps %ymm13, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm13) + ymm0
vbroadcastss %xmm3, %ymm13
vpermps %ymm3, %ymm15, %ymm14
vpermps %ymm3, %ymm16, %ymm3
vmulps %ymm4, %ymm3, %ymm15
vmulps %ymm3, %ymm9, %ymm4
vmulps %ymm3, %ymm12, %ymm3
vfmadd231ps %ymm6, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm6) + ymm15
vfmadd231ps %ymm8, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm8) + ymm4
vfmadd231ps %ymm11, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm11) + ymm3
vfmadd231ps %ymm5, %ymm13, %ymm15 # ymm15 = (ymm13 * ymm5) + ymm15
vfmadd231ps %ymm7, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm7) + ymm4
vbroadcastss 0x2716b7(%rip), %ymm6 # 0x1f20ec4
vfmadd231ps %ymm10, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm10) + ymm3
vandps %ymm6, %ymm2, %ymm5
vbroadcastss 0x2417c9(%rip), %ymm7 # 0x1ef0fe8
vcmpltps %ymm7, %ymm5, %k1
vmovaps %ymm7, %ymm2 {%k1}
vandps %ymm6, %ymm1, %ymm5
vcmpltps %ymm7, %ymm5, %k1
vmovaps %ymm7, %ymm1 {%k1}
vandps %ymm6, %ymm0, %ymm5
vcmpltps %ymm7, %ymm5, %k1
vmovaps %ymm7, %ymm0 {%k1}
vrcp14ps %ymm2, %ymm5
vbroadcastss 0x23ceb7(%rip), %ymm6 # 0x1eec714
vfnmadd213ps %ymm6, %ymm5, %ymm2 # ymm2 = -(ymm5 * ymm2) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm2 # ymm2 = (ymm2 * ymm5) + ymm5
vrcp14ps %ymm1, %ymm5
vfnmadd213ps %ymm6, %ymm5, %ymm1 # ymm1 = -(ymm5 * ymm1) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm1 # ymm1 = (ymm1 * ymm5) + ymm5
vrcp14ps %ymm0, %ymm5
vfnmadd213ps %ymm6, %ymm5, %ymm0 # ymm0 = -(ymm5 * ymm0) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm0 # ymm0 = (ymm0 * ymm5) + ymm5
leaq (,%rcx,8), %rdi
subq %rcx, %rdi
vpmovsxwd 0x6(%r8,%rdi), %ymm5
vcvtdq2ps %ymm5, %ymm5
vsubps %ymm15, %ymm5, %ymm5
vmulps %ymm5, %ymm2, %ymm5
vpmovsxwd 0x6(%r8,%rsi), %ymm6
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm15, %ymm6, %ymm6
leaq (%rcx,%rcx), %rsi
addq %rcx, %rax
shlq $0x3, %r9
subq %rcx, %r9
vpbroadcastd %ecx, %ymm7
shll $0x4, %ecx
vpmovsxwd 0x6(%r8,%rcx), %ymm8
vmulps %ymm6, %ymm2, %ymm2
subq %rsi, %rcx
vpmovsxwd 0x6(%r8,%rcx), %ymm6
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm4, %ymm6, %ymm6
vmulps %ymm6, %ymm1, %ymm6
vcvtdq2ps %ymm8, %ymm8
vsubps %ymm4, %ymm8, %ymm4
vmulps %ymm4, %ymm1, %ymm1
vpmovsxwd 0x6(%r8,%rax), %ymm4
vcvtdq2ps %ymm4, %ymm4
vsubps %ymm3, %ymm4, %ymm4
vmulps %ymm0, %ymm4, %ymm4
vpmovsxwd 0x6(%r8,%r9), %ymm8
vcvtdq2ps %ymm8, %ymm8
vsubps %ymm3, %ymm8, %ymm3
vmulps %ymm3, %ymm0, %ymm0
vpminsd %ymm2, %ymm5, %ymm3
vpminsd %ymm1, %ymm6, %ymm8
vmaxps %ymm8, %ymm3, %ymm3
vpminsd %ymm0, %ymm4, %ymm8
vmaxps 0x60(%r12,%rdx,4){1to8}, %ymm8, %ymm8
vmaxps %ymm8, %ymm3, %ymm3
vmulps 0x2705c3(%rip){1to8}, %ymm3, %ymm3 # 0x1f1ff10
vpmaxsd %ymm2, %ymm5, %ymm2
vpmaxsd %ymm1, %ymm6, %ymm1
vminps %ymm1, %ymm2, %ymm1
vpmaxsd %ymm0, %ymm4, %ymm0
movq %rdx, 0x18(%rsp)
vminps 0x100(%r12,%rdx,4){1to8}, %ymm0, %ymm0
vminps %ymm0, %ymm1, %ymm0
vmulps 0x270599(%rip){1to8}, %ymm0, %ymm0 # 0x1f1ff14
vpcmpgtd 0x2aaf9b(%rip), %ymm7, %k0 # 0x1f5a920
vmovaps %ymm3, 0x6e0(%rsp)
vcmpleps %ymm0, %ymm3, %k1
ktestb %k0, %k1
je 0x1cb2455
kandb %k0, %k1, %k0
kmovd %k0, %eax
movzbl %al, %r10d
leaq 0x560(%rsp), %rax
addq $0xe0, %rax
movq %rax, 0x1d8(%rsp)
movl $0x1, %eax
movq 0x18(%rsp), %rcx
shlxl %ecx, %eax, %eax
kmovd %eax, %k0
vpmovm2d %k0, %ymm0
vmovdqa %ymm0, 0x4a0(%rsp)
movq %r15, 0x28(%rsp)
movq %r8, 0x1e0(%rsp)
tzcntq %r10, %rax
movl 0x2(%r8), %ecx
movl 0x6(%r8,%rax,4), %edi
movq (%r15), %rax
movq 0x1e8(%rax), %rax
movq %rcx, 0x50(%rsp)
movq (%rax,%rcx,8), %rsi
movq 0x58(%rsi), %rax
movq 0x68(%rsi), %rcx
movq %rcx, %rdx
movq %rdi, 0x130(%rsp)
imulq %rdi, %rdx
movl (%rax,%rdx), %edi
movq 0xa0(%rsi), %rdx
movq %rdx, %r9
imulq %rdi, %r9
movq 0x90(%rsi), %rsi
vmovaps (%rsi,%r9), %xmm1
leaq 0x1(%rdi), %r9
imulq %rdx, %r9
vmovaps (%rsi,%r9), %xmm0
leaq 0x2(%rdi), %r9
imulq %rdx, %r9
vmovaps (%rsi,%r9), %xmm2
blsrq %r10, %r10
addq $0x3, %rdi
imulq %rdx, %rdi
vmovaps (%rsi,%rdi), %xmm3
movq %r10, %rdi
subq $0x1, %rdi
jb 0x1cafac4
andq %r10, %rdi
tzcntq %r10, %r9
movl 0x6(%r8,%r9,4), %r9d
imulq %rcx, %r9
movl (%rax,%r9), %r9d
imulq %rdx, %r9
prefetcht0 (%rsi,%r9)
prefetcht0 0x40(%rsi,%r9)
testq %rdi, %rdi
je 0x1cafac4
tzcntq %rdi, %rdi
movl 0x6(%r8,%rdi,4), %edi
imulq %rdi, %rcx
movl (%rax,%rcx), %eax
imulq %rax, %rdx
prefetcht1 (%rsi,%rdx)
prefetcht1 0x40(%rsi,%rdx)
movq 0x18(%rsp), %rax
vmovss (%r12,%rax,4), %xmm4
vinsertps $0x1c, 0x20(%r12,%rax,4), %xmm4, %xmm4 # xmm4 = xmm4[0],mem[0],zero,zero
vinsertps $0x28, 0x40(%r12,%rax,4), %xmm4, %xmm4 # xmm4 = xmm4[0,1],mem[0],zero
vbroadcastss 0x80(%r12,%rax,4), %ymm30
vbroadcastss 0xa0(%r12,%rax,4), %ymm31
vunpcklps %xmm31, %xmm30, %xmm5 # xmm5 = xmm30[0],xmm31[0],xmm30[1],xmm31[1]
vbroadcastss 0xc0(%r12,%rax,4), %ymm21
vinsertps $0x28, %xmm21, %xmm5, %xmm9 # xmm9 = xmm5[0,1],xmm21[0],zero
vaddps %xmm0, %xmm1, %xmm5
vmulps 0x23d06e(%rip){1to4}, %xmm5, %xmm5 # 0x1eecb80
vsubps %xmm4, %xmm5, %xmm5
vdpps $0x7f, %xmm9, %xmm5, %xmm5
vmovss 0x60(%r12,%rax,4), %xmm10
vdpps $0x7f, %xmm9, %xmm9, %xmm11
vxorps %xmm8, %xmm8, %xmm8
vmovss %xmm11, %xmm8, %xmm6
vrcp14ss %xmm6, %xmm8, %xmm6
vmovaps %xmm6, %xmm7
vfnmadd213ss 0x2414b3(%rip), %xmm11, %xmm7 # xmm7 = -(xmm11 * xmm7) + mem
vmulss %xmm7, %xmm6, %xmm6
vmulss %xmm6, %xmm5, %xmm5
vbroadcastss %xmm5, %ymm6
vmovaps %xmm9, 0x270(%rsp)
vmovaps %ymm6, 0x3a0(%rsp)
vfmadd231ps %xmm6, %xmm9, %xmm4 # xmm4 = (xmm9 * xmm6) + xmm4
vblendps $0x8, %xmm8, %xmm4, %xmm4 # xmm4 = xmm4[0,1,2],xmm8[3]
vsubps %xmm4, %xmm1, %xmm6
vsubps %xmm4, %xmm2, %xmm7
vsubps %xmm4, %xmm0, %xmm8
vsubps %xmm4, %xmm3, %xmm3
vbroadcastss %xmm6, %ymm0
vmovaps %ymm0, 0x540(%rsp)
vbroadcastss 0x262b6e(%rip), %ymm0 # 0x1f12704
vpermps %ymm6, %ymm0, %ymm1
vmovaps %ymm1, 0x900(%rsp)
vbroadcastss 0x27132f(%rip), %ymm1 # 0x1f20edc
vpermps %ymm6, %ymm1, %ymm2
vmovaps %ymm2, 0x8e0(%rsp)
vbroadcastss 0x271314(%rip), %ymm2 # 0x1f20ed8
vmovaps %ymm6, 0x2e0(%rsp)
vpermps %ymm6, %ymm2, %ymm4
vmovaps %ymm4, 0x8c0(%rsp)
vbroadcastss %xmm8, %ymm4
vmovaps %ymm4, 0x8a0(%rsp)
vpermps %ymm8, %ymm0, %ymm4
vmovaps %ymm4, 0x880(%rsp)
vpermps %ymm8, %ymm1, %ymm4
vmovaps %ymm4, 0x860(%rsp)
vmovaps %ymm8, 0x2a0(%rsp)
vpermps %ymm8, %ymm2, %ymm4
vmovaps %ymm4, 0x840(%rsp)
vbroadcastss %xmm7, %ymm4
vmovaps %ymm4, 0x820(%rsp)
vpermps %ymm7, %ymm0, %ymm4
vmovaps %ymm4, 0x800(%rsp)
vpermps %ymm7, %ymm1, %ymm4
vmovaps %ymm4, 0x7e0(%rsp)
vmovaps %ymm7, 0x2c0(%rsp)
vpermps %ymm7, %ymm2, %ymm4
vmovaps %ymm4, 0x7c0(%rsp)
vbroadcastss %xmm3, %ymm4
vmovaps %ymm4, 0x7a0(%rsp)
vpermps %ymm3, %ymm0, %ymm0
vmovaps %ymm0, 0x780(%rsp)
vpermps %ymm3, %ymm1, %ymm0
vmovaps %ymm0, 0x760(%rsp)
vmovaps %ymm3, 0x280(%rsp)
vpermps %ymm3, %ymm2, %ymm0
vmovaps %ymm0, 0x740(%rsp)
vmulss %xmm21, %xmm21, %xmm0
vfmadd231ps %ymm31, %ymm31, %ymm0 # ymm0 = (ymm31 * ymm31) + ymm0
vfmadd231ps %ymm30, %ymm30, %ymm0 # ymm0 = (ymm30 * ymm30) + ymm0
vbroadcastss %xmm0, %ymm0
vmovaps %ymm0, 0x720(%rsp)
vandps 0x2711fc(%rip){1to8}, %ymm0, %ymm0 # 0x1f20ec4
vmovaps %ymm0, 0x520(%rsp)
vmovss %xmm10, 0x5c(%rsp)
vmovaps %xmm5, 0x340(%rsp)
vsubss %xmm5, %xmm10, %xmm0
vbroadcastss %xmm0, %ymm0
vmovaps %ymm0, 0x700(%rsp)
movq 0x50(%rsp), %rax
vpbroadcastd %eax, %ymm0
vmovdqa %ymm0, 0x4e0(%rsp)
movl $0x1, %r11d
xorl %r9d, %r9d
movq 0x130(%rsp), %rax
vpbroadcastd %eax, %ymm0
vmovdqa %ymm0, 0x4c0(%rsp)
vsqrtss %xmm11, %xmm11, %xmm0
vmovss %xmm0, 0x14c(%rsp)
vmovaps %xmm11, 0x260(%rsp)
vsqrtss %xmm11, %xmm11, %xmm0
vmovss %xmm0, 0x148(%rsp)
vmovsd 0x23c99d(%rip), %xmm2 # 0x1eec6f0
vbroadcastss 0x23c9b7(%rip), %ymm16 # 0x1eec714
vmovaps %ymm30, 0x240(%rsp)
vmovaps %ymm31, 0x220(%rsp)
vmovaps %ymm21, 0x200(%rsp)
vmovshdup %xmm2, %xmm0 # xmm0 = xmm2[1,1,3,3]
vsubss %xmm2, %xmm0, %xmm0
vmulss 0x27114b(%rip), %xmm0, %xmm1 # 0x1f20ed0
vmovaps %xmm1, 0x60(%rsp)
vmovaps %xmm2, 0x1c0(%rsp)
vbroadcastss %xmm2, %ymm4
vbroadcastss %xmm0, %ymm0
vmovaps %ymm4, 0xa0(%rsp)
vmovaps %ymm0, 0x80(%rsp)
vfmadd231ps 0x271167(%rip), %ymm0, %ymm4 # ymm4 = (ymm0 * mem) + ymm4
vsubps %ymm4, %ymm16, %ymm7
vbroadcastss 0x2710f7(%rip), %ymm26 # 0x1f20ec0
vxorps %ymm26, %ymm4, %ymm0
vmulps %ymm0, %ymm7, %ymm0
vmulps %ymm0, %ymm7, %ymm0
vmulps %ymm4, %ymm4, %ymm3
vmovaps %ymm3, 0xc0(%rsp)
vbroadcastss 0x2411ff(%rip), %ymm2 # 0x1ef0fec
vmulps %ymm2, %ymm4, %ymm9
vbroadcastss 0x24120a(%rip), %ymm5 # 0x1ef1004
vaddps %ymm5, %ymm9, %ymm10
vmulps %ymm3, %ymm10, %ymm1
vbroadcastss 0x2411ed(%rip), %ymm3 # 0x1ef0ff8
vaddps %ymm3, %ymm1, %ymm1
vmulps %ymm7, %ymm7, %ymm11
vmulps %ymm2, %ymm7, %ymm8
vaddps %ymm5, %ymm8, %ymm2
vmulps %ymm2, %ymm11, %ymm2
vaddps %ymm3, %ymm2, %ymm2
vxorps %ymm26, %ymm7, %ymm5
vmulps %ymm5, %ymm4, %ymm5
vmulps %ymm5, %ymm4, %ymm5
vbroadcastss 0x23cd45(%rip), %ymm17 # 0x1eecb80
vmulps %ymm17, %ymm0, %ymm13
vmulps %ymm17, %ymm1, %ymm14
vmulps %ymm17, %ymm2, %ymm15
vmulps %ymm17, %ymm5, %ymm5
vmovaps 0x7a0(%rsp), %ymm26
vmulps %ymm5, %ymm26, %ymm1
vmovaps 0x780(%rsp), %ymm12
vmulps %ymm5, %ymm12, %ymm0
vmovaps 0x760(%rsp), %ymm16
vmulps %ymm5, %ymm16, %ymm2
vmovaps 0x740(%rsp), %ymm6
vmulps %ymm5, %ymm6, %ymm5
vmovaps 0x820(%rsp), %ymm25
vfmadd231ps %ymm25, %ymm15, %ymm1 # ymm1 = (ymm15 * ymm25) + ymm1
vmovaps 0x800(%rsp), %ymm27
vfmadd231ps %ymm27, %ymm15, %ymm0 # ymm0 = (ymm15 * ymm27) + ymm0
vmovaps 0x7e0(%rsp), %ymm28
vfmadd231ps %ymm28, %ymm15, %ymm2 # ymm2 = (ymm15 * ymm28) + ymm2
vmovaps 0x7c0(%rsp), %ymm29
vfmadd231ps %ymm15, %ymm29, %ymm5 # ymm5 = (ymm29 * ymm15) + ymm5
vmovaps 0x8a0(%rsp), %ymm20
vfmadd231ps %ymm20, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm20) + ymm1
vmovaps 0x880(%rsp), %ymm22
vfmadd231ps %ymm22, %ymm14, %ymm0 # ymm0 = (ymm14 * ymm22) + ymm0
vmovaps 0x860(%rsp), %ymm23
vfmadd231ps %ymm23, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm23) + ymm2
vmovaps 0x840(%rsp), %ymm24
vfmadd231ps %ymm14, %ymm24, %ymm5 # ymm5 = (ymm24 * ymm14) + ymm5
vfmadd231ps 0x540(%rsp), %ymm13, %ymm1 # ymm1 = (ymm13 * mem) + ymm1
vmovaps 0x900(%rsp), %ymm3
vfmadd231ps %ymm3, %ymm13, %ymm0 # ymm0 = (ymm13 * ymm3) + ymm0
vmovaps 0x8e0(%rsp), %ymm18
vfmadd231ps %ymm18, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm18) + ymm2
vmovaps 0x8c0(%rsp), %ymm19
vfmadd231ps %ymm13, %ymm19, %ymm5 # ymm5 = (ymm19 * ymm13) + ymm5
vaddps %ymm7, %ymm7, %ymm13
vmulps %ymm4, %ymm13, %ymm14
vsubps %ymm11, %ymm14, %ymm11
vaddps %ymm4, %ymm4, %ymm15
vmulps %ymm10, %ymm15, %ymm10
vmulps %ymm4, %ymm9, %ymm4
vaddps %ymm4, %ymm10, %ymm4
vaddps 0x2410a3(%rip){1to8}, %ymm9, %ymm9 # 0x1ef0ff8
vmulps %ymm9, %ymm13, %ymm9
vmulps %ymm7, %ymm8, %ymm7
vsubps %ymm7, %ymm9, %ymm7
vmovaps 0xc0(%rsp), %ymm8
vsubps %ymm14, %ymm8, %ymm8
vmulps %ymm17, %ymm11, %ymm9
vmulps %ymm17, %ymm4, %ymm4
vmulps %ymm17, %ymm7, %ymm7
vmulps %ymm17, %ymm8, %ymm8
vmulps %ymm8, %ymm26, %ymm10
vmulps %ymm8, %ymm12, %ymm12
vmulps %ymm8, %ymm16, %ymm13
vmovaps %ymm2, %ymm26
vmulps %ymm6, %ymm8, %ymm8
vfmadd231ps %ymm25, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm25) + ymm10
vfmadd231ps %ymm27, %ymm7, %ymm12 # ymm12 = (ymm7 * ymm27) + ymm12
vfmadd231ps %ymm28, %ymm7, %ymm13 # ymm13 = (ymm7 * ymm28) + ymm13
vfmadd231ps %ymm7, %ymm29, %ymm8 # ymm8 = (ymm29 * ymm7) + ymm8
vfmadd231ps %ymm20, %ymm4, %ymm10 # ymm10 = (ymm4 * ymm20) + ymm10
vfmadd231ps %ymm22, %ymm4, %ymm12 # ymm12 = (ymm4 * ymm22) + ymm12
vfmadd231ps %ymm23, %ymm4, %ymm13 # ymm13 = (ymm4 * ymm23) + ymm13
vfmadd231ps %ymm4, %ymm24, %ymm8 # ymm8 = (ymm24 * ymm4) + ymm8
vfmadd231ps 0x540(%rsp), %ymm9, %ymm10 # ymm10 = (ymm9 * mem) + ymm10
vfmadd231ps %ymm3, %ymm9, %ymm12 # ymm12 = (ymm9 * ymm3) + ymm12
vfmadd231ps %ymm18, %ymm9, %ymm13 # ymm13 = (ymm9 * ymm18) + ymm13
vfmadd231ps %ymm9, %ymm19, %ymm8 # ymm8 = (ymm19 * ymm9) + ymm8
vbroadcastss 0x60(%rsp), %ymm4
vmulps %ymm4, %ymm10, %ymm11
vmulps %ymm4, %ymm12, %ymm12
vmulps %ymm4, %ymm13, %ymm13
vmulps %ymm4, %ymm8, %ymm6
vmovaps %ymm1, %ymm8
vmovaps 0x2afd0f(%rip), %ymm7 # 0x1f5fd20
vmovaps %ymm31, %ymm3
vxorps %xmm31, %xmm31, %xmm31
vpermt2ps %ymm31, %ymm7, %ymm8
vmovaps %ymm0, %ymm9
vpermt2ps %ymm31, %ymm7, %ymm9
vmovaps %ymm2, %ymm10
vpermt2ps %ymm31, %ymm7, %ymm10
vaddps %ymm6, %ymm5, %ymm4
vmaxps %ymm4, %ymm5, %ymm14
vminps %ymm4, %ymm5, %ymm4
vmovaps %ymm5, %ymm15
vpermt2ps %ymm31, %ymm7, %ymm15
vmovaps %ymm11, %ymm19
vpermt2ps %ymm31, %ymm7, %ymm19
vmovaps %ymm12, %ymm20
vpermt2ps %ymm31, %ymm7, %ymm20
vmovaps %ymm13, %ymm2
vpermt2ps %ymm31, %ymm7, %ymm2
vpermt2ps %ymm31, %ymm7, %ymm6
vsubps %ymm6, %ymm15, %ymm16
vmovaps %ymm8, 0x60(%rsp)
vsubps %ymm1, %ymm8, %ymm7
vsubps %ymm0, %ymm9, %ymm6
vsubps %ymm26, %ymm10, %ymm5
vmulps %ymm13, %ymm6, %ymm17
vfmsub231ps %ymm5, %ymm12, %ymm17 # ymm17 = (ymm12 * ymm5) - ymm17
vmulps %ymm11, %ymm5, %ymm18
vfmsub231ps %ymm7, %ymm13, %ymm18 # ymm18 = (ymm13 * ymm7) - ymm18
vmulps %ymm12, %ymm7, %ymm22
vfmsub231ps %ymm6, %ymm11, %ymm22 # ymm22 = (ymm11 * ymm6) - ymm22
vmulps %ymm22, %ymm22, %ymm22
vfmadd231ps %ymm18, %ymm18, %ymm22 # ymm22 = (ymm18 * ymm18) + ymm22
vfmadd231ps %ymm17, %ymm17, %ymm22 # ymm22 = (ymm17 * ymm17) + ymm22
vmulps %ymm5, %ymm5, %ymm17
vfmadd231ps %ymm6, %ymm6, %ymm17 # ymm17 = (ymm6 * ymm6) + ymm17
vfmadd231ps %ymm7, %ymm7, %ymm17 # ymm17 = (ymm7 * ymm7) + ymm17
vrcp14ps %ymm17, %ymm18
vmovaps %ymm18, %ymm23
vbroadcastss 0x23c627(%rip), %ymm24 # 0x1eec714
vmovaps %ymm24, %ymm8
vfnmadd213ps %ymm24, %ymm17, %ymm23 # ymm23 = -(ymm17 * ymm23) + ymm24
vfmadd132ps %ymm18, %ymm18, %ymm23 # ymm23 = (ymm23 * ymm18) + ymm18
vmulps %ymm23, %ymm22, %ymm18
vmulps %ymm2, %ymm6, %ymm22
vfmsub231ps %ymm5, %ymm20, %ymm22 # ymm22 = (ymm20 * ymm5) - ymm22
vmulps %ymm19, %ymm5, %ymm24
vfmsub231ps %ymm7, %ymm2, %ymm24 # ymm24 = (ymm2 * ymm7) - ymm24
vmulps %ymm20, %ymm7, %ymm25
vfmsub231ps %ymm6, %ymm19, %ymm25 # ymm25 = (ymm19 * ymm6) - ymm25
vmulps %ymm25, %ymm25, %ymm25
vfmadd231ps %ymm24, %ymm24, %ymm25 # ymm25 = (ymm24 * ymm24) + ymm25
vfmadd231ps %ymm22, %ymm22, %ymm25 # ymm25 = (ymm22 * ymm22) + ymm25
vmulps %ymm23, %ymm25, %ymm22
vmaxps %ymm22, %ymm18, %ymm18
vsqrtps %ymm18, %ymm18
vmaxps %ymm15, %ymm16, %ymm22
vmaxps %ymm22, %ymm14, %ymm14
vaddps %ymm14, %ymm18, %ymm14
vminps %ymm15, %ymm16, %ymm15
vminps %ymm15, %ymm4, %ymm4
vsubps %ymm18, %ymm4, %ymm4
vmulps 0x2407c6(%rip){1to8}, %ymm14, %ymm14 # 0x1ef0940
vmulps 0x2407c0(%rip){1to8}, %ymm4, %ymm4 # 0x1ef0944
vmovaps %ymm4, 0xc0(%rsp)
vmulps %ymm14, %ymm14, %ymm4
vrsqrt14ps %ymm17, %ymm15
vmulps 0x23c57a(%rip){1to8}, %ymm17, %ymm14 # 0x1eec71c
vmulps %ymm14, %ymm15, %ymm14
vmulps %ymm15, %ymm15, %ymm16
vmulps %ymm14, %ymm16, %ymm14
vfmadd231ps 0x23c55b(%rip){1to8}, %ymm15, %ymm14 # ymm14 = (ymm15 * mem) + ymm14
vmulps %ymm7, %ymm14, %ymm15
vmulps %ymm14, %ymm6, %ymm16
vmulps %ymm14, %ymm5, %ymm18
vmovaps %ymm1, 0x180(%rsp)
vsubps %ymm1, %ymm31, %ymm27
vmovaps %ymm0, 0x400(%rsp)
vsubps %ymm0, %ymm31, %ymm28
vmovaps %ymm26, 0x1a0(%rsp)
vsubps %ymm26, %ymm31, %ymm29
vmulps %ymm29, %ymm21, %ymm22
vfmadd231ps %ymm28, %ymm3, %ymm22 # ymm22 = (ymm3 * ymm28) + ymm22
vfmadd231ps %ymm27, %ymm30, %ymm22 # ymm22 = (ymm30 * ymm27) + ymm22
vmulps %ymm29, %ymm29, %ymm24
vfmadd231ps %ymm28, %ymm28, %ymm24 # ymm24 = (ymm28 * ymm28) + ymm24
vfmadd231ps %ymm27, %ymm27, %ymm24 # ymm24 = (ymm27 * ymm27) + ymm24
vmulps %ymm18, %ymm21, %ymm17
vfmadd231ps %ymm3, %ymm16, %ymm17 # ymm17 = (ymm16 * ymm3) + ymm17
vfmadd231ps %ymm30, %ymm15, %ymm17 # ymm17 = (ymm15 * ymm30) + ymm17
vmulps %ymm18, %ymm29, %ymm18
vfmadd231ps %ymm16, %ymm28, %ymm18 # ymm18 = (ymm28 * ymm16) + ymm18
vfmadd231ps %ymm15, %ymm27, %ymm18 # ymm18 = (ymm27 * ymm15) + ymm18
vmulps %ymm17, %ymm17, %ymm0
vmovaps 0x720(%rsp), %ymm1
vsubps %ymm0, %ymm1, %ymm15
vmulps %ymm18, %ymm17, %ymm25
vsubps %ymm25, %ymm22, %ymm22
vaddps %ymm22, %ymm22, %ymm22
vmulps %ymm18, %ymm18, %ymm25
vsubps %ymm25, %ymm24, %ymm21
vsubps %ymm4, %ymm21, %ymm4
vmulps %ymm22, %ymm22, %ymm25
vmulps 0x23c904(%rip){1to8}, %ymm15, %ymm24 # 0x1eecb8c
vmulps %ymm4, %ymm24, %ymm30
vsubps %ymm30, %ymm25, %ymm30
vcmpnltps %ymm31, %ymm30, %k1
kmovd %k1, %eax
kortestb %k1, %k1
je 0x1cb0386
vsqrtps %ymm30, %ymm30
vaddps %ymm15, %ymm15, %ymm31
vrcp14ps %ymm31, %ymm3
vfnmadd213ps %ymm8, %ymm3, %ymm31 # ymm31 = -(ymm3 * ymm31) + ymm8
vfmadd132ps %ymm3, %ymm3, %ymm31 # ymm31 = (ymm31 * ymm3) + ymm3
vxorps 0x270bef(%rip){1to8}, %ymm22, %ymm3 # 0x1f20ec0
vsubps %ymm30, %ymm3, %ymm3
vmulps %ymm31, %ymm3, %ymm3
vsubps %ymm22, %ymm30, %ymm30
vmulps %ymm31, %ymm30, %ymm31
vmovaps %ymm17, %ymm30
vfmadd213ps %ymm18, %ymm3, %ymm30 # ymm30 = (ymm3 * ymm30) + ymm18
vmulps %ymm30, %ymm14, %ymm30
vmovaps %ymm30, 0x480(%rsp)
vmovaps %ymm17, %ymm30
vfmadd213ps %ymm18, %ymm31, %ymm30 # ymm30 = (ymm31 * ymm30) + ymm18
vmulps %ymm30, %ymm14, %ymm30
vmovaps %ymm30, 0x460(%rsp)
vbroadcastss 0x23b6f9(%rip), %ymm16 # 0x1eeba20
vblendmps %ymm3, %ymm16, %ymm30 {%k1}
vbroadcastss 0x23c84e(%rip), %ymm3 # 0x1eecb84
vblendmps %ymm31, %ymm3, %ymm31 {%k1}
vbroadcastss 0x270b7e(%rip), %ymm23 # 0x1f20ec4
vandps %ymm23, %ymm0, %ymm3
vmovaps 0x520(%rsp), %ymm1
vmaxps %ymm3, %ymm1, %ymm3
vmulps 0x241b51(%rip){1to8}, %ymm3, %ymm3 # 0x1ef1eb4
vandps %ymm23, %ymm15, %ymm23
vcmpltps %ymm3, %ymm23, %k1 {%k1}
kortestb %k1, %k1
jne 0x1cb23e4
vbroadcastss 0x23c390(%rip), %ymm16 # 0x1eec714
jmp 0x1cb03a0
vbroadcastss 0x23b690(%rip), %ymm30 # 0x1eeba20
vbroadcastss 0x23c7ea(%rip), %ymm31 # 0x1eecb84
vmovaps %ymm8, %ymm16
andb $0x7f, %al
je 0x1cb07a8
vmovaps %ymm21, 0x3e0(%rsp)
vmovaps %ymm0, 0x3c0(%rsp)
movq 0x18(%rsp), %rcx
vmovss 0x100(%r12,%rcx,4), %xmm3
vsubss 0x340(%rsp), %xmm3, %xmm3
vbroadcastss %xmm3, %ymm3
vminps %ymm31, %ymm3, %ymm3
vmovaps 0x700(%rsp), %ymm1
vmaxps %ymm30, %ymm1, %ymm4
vmulps %ymm13, %ymm29, %ymm23
vfmadd213ps %ymm23, %ymm12, %ymm28 # ymm28 = (ymm12 * ymm28) + ymm23
vfmadd213ps %ymm28, %ymm11, %ymm27 # ymm27 = (ymm11 * ymm27) + ymm28
vmovaps 0x200(%rsp), %ymm21
vmulps %ymm13, %ymm21, %ymm13
vmovaps 0x220(%rsp), %ymm31
vfmadd231ps %ymm12, %ymm31, %ymm13 # ymm13 = (ymm31 * ymm12) + ymm13
vmovaps 0x240(%rsp), %ymm30
vfmadd231ps %ymm11, %ymm30, %ymm13 # ymm13 = (ymm30 * ymm11) + ymm13
vbroadcastss 0x270a93(%rip), %ymm28 # 0x1f20ec4
vandps %ymm28, %ymm13, %ymm11
vbroadcastss 0x240ba7(%rip), %ymm29 # 0x1ef0fe8
vcmpltps %ymm29, %ymm11, %k0
vbroadcastss 0x270a6e(%rip), %ymm26 # 0x1f20ec0
vxorps %ymm26, %ymm27, %ymm11
vrcp14ps %ymm13, %ymm12
vxorps %ymm26, %ymm13, %ymm23
vmovaps %ymm12, %ymm27
vfnmadd213ps %ymm16, %ymm13, %ymm27 # ymm27 = -(ymm13 * ymm27) + ymm16
vfmadd132ps %ymm12, %ymm12, %ymm27 # ymm27 = (ymm27 * ymm12) + ymm12
vmulps %ymm11, %ymm27, %ymm11
vcmpltps %ymm23, %ymm13, %k1
korb %k1, %k0, %k1
vbroadcastss 0x23c6f3(%rip), %ymm27 # 0x1eecb84
vblendmps %ymm27, %ymm11, %ymm12 {%k1}
vmaxps %ymm12, %ymm4, %ymm4
vcmpnleps %ymm23, %ymm13, %k1
korb %k1, %k0, %k1
vbroadcastss 0x23b56f(%rip), %ymm23 # 0x1eeba20
vmovaps %ymm23, %ymm11 {%k1}
vminps %ymm11, %ymm3, %ymm3
vxorps %xmm13, %xmm13, %xmm13
vsubps 0x60(%rsp), %ymm13, %ymm8
vsubps %ymm9, %ymm13, %ymm9
vsubps %ymm10, %ymm13, %ymm10
vmulps %ymm2, %ymm10, %ymm10
vfnmsub231ps %ymm9, %ymm20, %ymm10 # ymm10 = -(ymm20 * ymm9) - ymm10
vfnmadd231ps %ymm8, %ymm19, %ymm10 # ymm10 = -(ymm19 * ymm8) + ymm10
vmulps %ymm2, %ymm21, %ymm8
vfnmsub231ps %ymm20, %ymm31, %ymm8 # ymm8 = -(ymm31 * ymm20) - ymm8
vfnmadd231ps %ymm19, %ymm30, %ymm8 # ymm8 = -(ymm30 * ymm19) + ymm8
vandps %ymm28, %ymm8, %ymm9
vcmpltps %ymm29, %ymm9, %k0
vxorps %ymm26, %ymm10, %ymm9
vrcp14ps %ymm8, %ymm10
vxorps %ymm26, %ymm8, %ymm11
vmovaps %ymm10, %ymm12
vfnmadd213ps %ymm16, %ymm8, %ymm12 # ymm12 = -(ymm8 * ymm12) + ymm16
vfmadd132ps %ymm10, %ymm10, %ymm12 # ymm12 = (ymm12 * ymm10) + ymm10
vmulps %ymm9, %ymm12, %ymm9
vcmpltps %ymm11, %ymm8, %k1
korb %k1, %k0, %k1
vblendmps %ymm27, %ymm9, %ymm10 {%k1}
vmaxps %ymm10, %ymm4, %ymm0
vcmpnleps %ymm11, %ymm8, %k1
korb %k1, %k0, %k1
vmovaps %ymm23, %ymm9 {%k1}
vminps %ymm9, %ymm3, %ymm8
vmovaps %ymm0, 0x380(%rsp)
vcmpleps %ymm8, %ymm0, %k0
kmovd %k0, %ecx
andb %cl, %al
je 0x1cb22d3
vmovaps 0x480(%rsp), %ymm3
vmaxps 0xc0(%rsp), %ymm13, %ymm4
vminps %ymm16, %ymm3, %ymm3
vxorps %xmm10, %xmm10, %xmm10
vmaxps %ymm10, %ymm3, %ymm3
vmovaps 0x460(%rsp), %ymm9
vminps %ymm16, %ymm9, %ymm9
vmovaps 0x270998(%rip), %ymm11 # 0x1f20f40
vaddps %ymm3, %ymm11, %ymm3
vbroadcastss 0x26df03(%rip), %ymm12 # 0x1f1e4b8
vmulps %ymm3, %ymm12, %ymm3
vmovaps 0xa0(%rsp), %ymm0
vmovaps 0x80(%rsp), %ymm1
vfmadd213ps %ymm0, %ymm1, %ymm3 # ymm3 = (ymm1 * ymm3) + ymm0
vmovaps %ymm3, 0x480(%rsp)
vmaxps %ymm10, %ymm9, %ymm3
vaddps %ymm3, %ymm11, %ymm3
vmulps %ymm3, %ymm12, %ymm3
vfmadd213ps %ymm0, %ymm1, %ymm3 # ymm3 = (ymm1 * ymm3) + ymm0
vmovaps %ymm3, 0x460(%rsp)
vmulps %ymm4, %ymm4, %ymm3
vmovaps 0x3e0(%rsp), %ymm0
vsubps %ymm3, %ymm0, %ymm11
vmulps %ymm11, %ymm24, %ymm3
vsubps %ymm3, %ymm25, %ymm3
vcmpnltps %ymm10, %ymm3, %k0
kortestb %k0, %k0
je 0x1cb07c5
vxorps %xmm20, %xmm20, %xmm20
vcmpnltps %ymm13, %ymm3, %k1
vsqrtps %ymm3, %ymm3
vaddps %ymm15, %ymm15, %ymm4
vrcp14ps %ymm4, %ymm9
vfnmadd213ps %ymm16, %ymm9, %ymm4 # ymm4 = -(ymm9 * ymm4) + ymm16
vfmadd132ps %ymm9, %ymm9, %ymm4 # ymm4 = (ymm4 * ymm9) + ymm9
vxorps 0x27086d(%rip){1to8}, %ymm22, %ymm9 # 0x1f20ec0
vsubps %ymm3, %ymm9, %ymm9
vmulps %ymm4, %ymm9, %ymm12
vsubps %ymm22, %ymm3, %ymm3
vmulps %ymm4, %ymm3, %ymm13
vmovaps %ymm17, %ymm3
vfmadd213ps %ymm18, %ymm12, %ymm3 # ymm3 = (ymm12 * ymm3) + ymm18
vmulps %ymm3, %ymm14, %ymm9
vmulps %ymm12, %ymm30, %ymm3
vmulps %ymm12, %ymm31, %ymm4
vmulps %ymm12, %ymm21, %ymm10
vmovaps %ymm7, %ymm19
vmovaps 0x180(%rsp), %ymm1
vfmadd213ps %ymm1, %ymm9, %ymm19 # ymm19 = (ymm9 * ymm19) + ymm1
vsubps %ymm19, %ymm3, %ymm3
vmovaps %ymm6, %ymm19
vmovaps 0x400(%rsp), %ymm0
vfmadd213ps %ymm0, %ymm9, %ymm19 # ymm19 = (ymm9 * ymm19) + ymm0
vsubps %ymm19, %ymm4, %ymm4
vmovaps 0x1a0(%rsp), %ymm2
vfmadd213ps %ymm2, %ymm5, %ymm9 # ymm9 = (ymm5 * ymm9) + ymm2
vsubps %ymm9, %ymm10, %ymm9
vfmadd213ps %ymm18, %ymm13, %ymm17 # ymm17 = (ymm13 * ymm17) + ymm18
vmulps %ymm17, %ymm14, %ymm14
vmulps %ymm13, %ymm30, %ymm10
vmulps %ymm13, %ymm31, %ymm17
vmulps %ymm13, %ymm21, %ymm18
vfmadd213ps %ymm1, %ymm14, %ymm7 # ymm7 = (ymm14 * ymm7) + ymm1
vsubps %ymm7, %ymm10, %ymm10
vfmadd213ps %ymm0, %ymm14, %ymm6 # ymm6 = (ymm14 * ymm6) + ymm0
vsubps %ymm6, %ymm17, %ymm1
vfmadd213ps %ymm2, %ymm14, %ymm5 # ymm5 = (ymm14 * ymm5) + ymm2
vsubps %ymm5, %ymm18, %ymm5
vbroadcastss 0x23b30a(%rip), %ymm0 # 0x1eeba20
vblendmps %ymm12, %ymm0, %ymm2 {%k1}
vbroadcastss 0x23c45f(%rip), %ymm0 # 0x1eecb84
vblendmps %ymm13, %ymm0, %ymm0 {%k1}
vbroadcastss 0x270790(%rip), %ymm7 # 0x1f20ec4
vandps 0x3c0(%rsp), %ymm7, %ymm6
vmovaps 0x520(%rsp), %ymm12
vmaxps %ymm6, %ymm12, %ymm6
vmulps 0x241760(%rip){1to8}, %ymm6, %ymm6 # 0x1ef1eb4
vandps %ymm7, %ymm15, %ymm7
vcmpltps %ymm6, %ymm7, %k1 {%k1}
kortestb %k1, %k1
je 0x1cb07ec
vcmpleps %ymm20, %ymm11, %k2
vbroadcastss 0x23c40b(%rip), %ymm7 # 0x1eecb84
vbroadcastss 0x23b29e(%rip), %ymm11 # 0x1eeba20
vblendmps %ymm7, %ymm11, %ymm6 {%k2}
vmovaps %ymm6, %ymm2 {%k1}
vblendmps %ymm11, %ymm7, %ymm6 {%k2}
vmovaps %ymm6, %ymm0 {%k1}
knotb %k1, %k1
korb %k2, %k1, %k1
kandb %k0, %k1, %k0
jmp 0x1cb07ec
vmovaps 0x240(%rsp), %ymm30
vmovaps 0x220(%rsp), %ymm31
vmovaps 0x200(%rsp), %ymm21
jmp 0x1cb22d3
vxorps %xmm1, %xmm1, %xmm1
vxorps %xmm5, %xmm5, %xmm5
vxorps %xmm3, %xmm3, %xmm3
vxorps %xmm4, %xmm4, %xmm4
vxorps %xmm9, %xmm9, %xmm9
vbroadcastss 0x23b23d(%rip), %ymm2 # 0x1eeba20
vbroadcastss 0x23c398(%rip), %ymm0 # 0x1eecb84
vbroadcastss 0x2706cf(%rip), %xmm11 # 0x1f20ec4
vmulps %ymm5, %ymm21, %ymm5
vfmadd231ps %ymm1, %ymm31, %ymm5 # ymm5 = (ymm31 * ymm1) + ymm5
vfmadd231ps %ymm10, %ymm30, %ymm5 # ymm5 = (ymm30 * ymm10) + ymm5
vmovaps 0x380(%rsp), %ymm7
vmovaps %ymm7, 0x920(%rsp)
vminps %ymm2, %ymm8, %ymm1
vmovaps %ymm1, 0x940(%rsp)
vbroadcastss 0x270695(%rip), %ymm6 # 0x1f20ec4
vandps %ymm6, %ymm5, %ymm2
vmaxps %ymm0, %ymm7, %ymm5
vmovaps %ymm5, 0x680(%rsp)
vmovaps %ymm8, 0x6a0(%rsp)
vbroadcastss 0x270682(%rip), %ymm0 # 0x1f20ed4
vcmpltps %ymm0, %ymm2, %k1
kmovd %k1, 0x144(%rsp)
vcmpleps %ymm1, %ymm7, %k1
kmovd %k1, %ecx
andb %al, %cl
vmovaps %ymm5, 0x420(%rsp)
vcmpleps %ymm8, %ymm5, %k1
kmovd %k1, %edx
andb %al, %dl
movl %edx, %eax
orb %cl, %al
je 0x1cb229d
vmovaps %ymm0, %ymm2
movl %edx, 0x34(%rsp)
movq %r9, 0x1f0(%rsp)
movq %r10, 0x1f8(%rsp)
knotb %k0, %k1
vmulps %ymm9, %ymm21, %ymm0
vfmadd213ps %ymm0, %ymm31, %ymm4 # ymm4 = (ymm31 * ymm4) + ymm0
vfmadd213ps %ymm4, %ymm30, %ymm3 # ymm3 = (ymm30 * ymm3) + ymm4
vandps %ymm6, %ymm3, %ymm0
vcmpltps %ymm2, %ymm0, %k0
kmovd %k1, 0x13c(%rsp)
korb %k1, %k0, %k1
vpbroadcastd 0x2705fc(%rip), %ymm0 # 0x1f20edc
vpblendmd 0x2705ee(%rip){1to8}, %ymm0, %ymm0 {%k1} # 0x1f20ed8
movq %r11, 0x1e8(%rsp)
vpbroadcastd %r11d, %ymm1
vmovdqa %ymm0, 0x6c0(%rsp)
vmovdqa %ymm1, 0x500(%rsp)
vpcmpnltd %ymm0, %ymm1, %k0
kmovd %k0, %ebx
movl %ecx, 0x140(%rsp)
andb %cl, %bl
je 0x1cb1536
vmovaps 0x2e0(%rsp), %ymm1
vmovaps 0x2a0(%rsp), %ymm2
vminps %xmm2, %xmm1, %xmm0
vmaxps %xmm2, %xmm1, %xmm1
vmovaps 0x2c0(%rsp), %ymm3
vmovaps 0x280(%rsp), %ymm4
vminps %xmm4, %xmm3, %xmm2
vminps %xmm2, %xmm0, %xmm0
vmaxps %xmm4, %xmm3, %xmm2
vmaxps %xmm2, %xmm1, %xmm1
vandps %xmm0, %xmm11, %xmm0
vandps %xmm1, %xmm11, %xmm2
vmaxps %xmm2, %xmm0, %xmm0
vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3]
vmaxss %xmm0, %xmm2, %xmm2
vshufpd $0x1, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[1,0]
vmaxss %xmm2, %xmm0, %xmm0
vmulss 0x24152f(%rip), %xmm0, %xmm0 # 0x1ef1eb4
vmovss %xmm0, 0x44(%rsp)
vshufps $0xff, %xmm1, %xmm1, %xmm0 # xmm0 = xmm1[3,3,3,3]
vmovaps %xmm0, 0x330(%rsp)
vmovaps 0x380(%rsp), %ymm0
vaddps 0x3a0(%rsp), %ymm0, %ymm0
vmovaps %ymm0, 0x440(%rsp)
kmovd %ebx, %k1
vbroadcastss 0x23b05f(%rip), %ymm0 # 0x1eeba20
vblendmps 0x380(%rsp), %ymm0, %ymm0 {%k1}
vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm0, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1]
vminps %ymm2, %ymm1, %ymm1
vcmpeqps %ymm1, %ymm0, %k0
kmovd %k0, %eax
andb %bl, %al
movzbl %al, %eax
movzbl %bl, %ecx
cmovnel %eax, %ecx
tzcntl %ecx, %ecx
movb $0x1, %bl
shlb %cl, %bl
shll $0x2, %ecx
vmovss 0x480(%rsp,%rcx), %xmm9
vmovss 0x920(%rsp,%rcx), %xmm8
vmovaps 0x260(%rsp), %xmm0
vucomiss 0x23affb(%rip), %xmm0 # 0x1eeba24
vmovss 0x148(%rsp), %xmm0
jae 0x1cb0a75
vmovaps 0x260(%rsp), %xmm0
vmovaps %xmm9, 0x60(%rsp)
vmovaps %xmm8, 0x80(%rsp)
kmovw %k1, 0xc0(%rsp)
vzeroupper
callq 0x6aa20
kmovw 0xc0(%rsp), %k1
vmovaps 0x80(%rsp), %xmm8
vmovaps 0x60(%rsp), %xmm9
movzbl %bl, %eax
kmovd %eax, %k0
kandnb %k1, %k0, %k0
kmovd %k0, %ebx
vmulss 0x241428(%rip), %xmm0, %xmm0 # 0x1ef1eb4
vmovss %xmm0, 0x48(%rsp)
movl $0x4, %r14d
vmovaps %xmm8, 0x80(%rsp)
vbroadcastss %xmm8, %xmm0
vxorps %xmm1, %xmm1, %xmm1
vfmadd132ps 0x270(%rsp), %xmm1, %xmm0 # xmm0 = (xmm0 * mem) + xmm1
vmovss 0x23bc58(%rip), %xmm1 # 0x1eec714
vsubss %xmm9, %xmm1, %xmm11
vbroadcastss 0x2703f6(%rip), %xmm6 # 0x1f20ec0
vxorps %xmm6, %xmm9, %xmm1
vmulss %xmm1, %xmm11, %xmm1
vmulss %xmm1, %xmm11, %xmm1
vmulss %xmm9, %xmm9, %xmm12
vmovss 0x240509(%rip), %xmm8 # 0x1ef0fec
vmovaps %xmm8, %xmm10
vmovss 0x240514(%rip), %xmm7 # 0x1ef1004
vfmadd213ss %xmm7, %xmm9, %xmm10 # xmm10 = (xmm9 * xmm10) + xmm7
vmovaps %xmm10, %xmm2
vmovss 0x2404f7(%rip), %xmm5 # 0x1ef0ff8
vfmadd213ss %xmm5, %xmm12, %xmm2 # xmm2 = (xmm12 * xmm2) + xmm5
vmulss %xmm11, %xmm11, %xmm3
vmovaps %xmm8, %xmm4
vfmadd213ss %xmm7, %xmm11, %xmm4 # xmm4 = (xmm11 * xmm4) + xmm7
vfmadd213ss %xmm5, %xmm3, %xmm4 # xmm4 = (xmm3 * xmm4) + xmm5
vxorps %xmm6, %xmm11, %xmm3
vmulss %xmm3, %xmm9, %xmm3
vmulss %xmm3, %xmm9, %xmm3
vmovss 0x23c053(%rip), %xmm5 # 0x1eecb80
vmulss %xmm5, %xmm1, %xmm1
vmulss %xmm5, %xmm2, %xmm2
vmulss %xmm5, %xmm4, %xmm4
vmulss %xmm5, %xmm3, %xmm3
vbroadcastss %xmm3, %xmm3
vmulps 0x280(%rsp), %xmm3, %xmm3
vbroadcastss %xmm4, %xmm4
vfmadd132ps 0x2c0(%rsp), %xmm3, %xmm4 # xmm4 = (xmm4 * mem) + xmm3
vbroadcastss %xmm2, %xmm2
vfmadd132ps 0x2a0(%rsp), %xmm4, %xmm2 # xmm2 = (xmm2 * mem) + xmm4
vbroadcastss %xmm1, %xmm3
vfmadd132ps 0x2e0(%rsp), %xmm2, %xmm3 # xmm3 = (xmm3 * mem) + xmm2
vmulss 0x23fe5c(%rip), %xmm11, %xmm6 # 0x1ef09dc
vfmadd231ss 0x24047f(%rip), %xmm9, %xmm7 # xmm7 = (xmm9 * mem) + xmm7
vmovaps %xmm7, 0x3e0(%rsp)
vmovss 0x240472(%rip), %xmm1 # 0x1ef100c
vfmadd213ss 0x23bfe9(%rip), %xmm9, %xmm1 # xmm1 = (xmm9 * xmm1) + mem
vmovaps %xmm1, 0x3c0(%rsp)
vfmadd213ss 0x23fe17(%rip), %xmm9, %xmm8 # xmm8 = (xmm9 * xmm8) + mem
vmovaps %xmm8, 0x370(%rsp)
vmovaps %xmm3, 0x400(%rsp)
vsubps %xmm3, %xmm0, %xmm0
vmovaps %xmm0, 0xc0(%rsp)
vdpps $0x7f, %xmm0, %xmm0, %xmm0
vucomiss 0x23ae42(%rip), %xmm0 # 0x1eeba24
vmovaps %xmm9, 0x60(%rsp)
vmovaps %xmm0, 0xa0(%rsp)
jb 0x1cb0bf9
vsqrtss %xmm0, %xmm0, %xmm7
jmp 0x1cb0c53
vmovss %xmm10, 0x1a0(%rsp)
vmovaps %xmm11, 0x180(%rsp)
vmovss %xmm12, 0x120(%rsp)
vmovss %xmm6, 0x110(%rsp)
vzeroupper
callq 0x6aa20
vmovss 0x110(%rsp), %xmm6
vmovss 0x120(%rsp), %xmm12
vmovaps 0x180(%rsp), %xmm11
vmovss 0x1a0(%rsp), %xmm10
vmovaps 0x60(%rsp), %xmm9
vmovaps %xmm0, %xmm7
vaddss %xmm11, %xmm11, %xmm0
vmulss %xmm0, %xmm9, %xmm1
vfnmadd231ss %xmm11, %xmm11, %xmm1 # xmm1 = -(xmm11 * xmm11) + xmm1
vaddss %xmm9, %xmm9, %xmm2
vmovss 0x24037e(%rip), %xmm4 # 0x1ef0fec
vmulss %xmm4, %xmm9, %xmm3
vmulss %xmm3, %xmm9, %xmm3
vfmadd213ss %xmm3, %xmm2, %xmm10 # xmm10 = (xmm2 * xmm10) + xmm3
vmovaps %xmm4, %xmm2
vmovss 0x240371(%rip), %xmm4 # 0x1ef0ff8
vfmadd213ss %xmm4, %xmm9, %xmm2 # xmm2 = (xmm9 * xmm2) + xmm4
vmulss 0x24035c(%rip), %xmm11, %xmm3 # 0x1ef0ff0
vmulss %xmm3, %xmm11, %xmm3
vfmadd231ss %xmm2, %xmm0, %xmm3 # xmm3 = (xmm0 * xmm2) + xmm3
vfmadd213ss %xmm12, %xmm9, %xmm6 # xmm6 = (xmm9 * xmm6) + xmm12
vmovss 0x23bed6(%rip), %xmm5 # 0x1eecb80
vmulss %xmm5, %xmm1, %xmm0
vmulss %xmm5, %xmm10, %xmm1
vmulss %xmm5, %xmm3, %xmm2
vmulss %xmm5, %xmm6, %xmm3
vbroadcastss %xmm3, %xmm3
vmulps 0x280(%rsp), %xmm3, %xmm3
vbroadcastss %xmm2, %xmm2
vfmadd132ps 0x2c0(%rsp), %xmm3, %xmm2 # xmm2 = (xmm2 * mem) + xmm3
vbroadcastss %xmm1, %xmm1
vfmadd132ps 0x2a0(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2
vbroadcastss %xmm0, %xmm13
vfmadd132ps 0x2e0(%rsp), %xmm1, %xmm13 # xmm13 = (xmm13 * mem) + xmm1
vdpps $0x7f, %xmm13, %xmm13, %xmm0
vxorps %xmm1, %xmm1, %xmm1
vmovss %xmm0, %xmm1, %xmm2 # xmm2 = xmm0[0],xmm1[1,2,3]
vrsqrt14ss %xmm2, %xmm1, %xmm3
vmulss 0x23ba07(%rip), %xmm3, %xmm5 # 0x1eec718
vmulss 0x23ba03(%rip), %xmm0, %xmm6 # 0x1eec71c
vrcp14ss %xmm2, %xmm1, %xmm2
vxorps 0x270197(%rip){1to4}, %xmm0, %xmm1 # 0x1f20ec0
vmovaps %xmm2, 0x110(%rsp)
vfnmadd213ss %xmm4, %xmm0, %xmm2 # xmm2 = -(xmm0 * xmm2) + xmm4
vmovss %xmm2, 0x4c(%rsp)
vucomiss %xmm1, %xmm0
vmovaps %xmm13, 0x1a0(%rsp)
vmovss %xmm7, 0x180(%rsp)
vmovaps %xmm0, 0x120(%rsp)
jb 0x1cb0d66
vsqrtss %xmm0, %xmm0, %xmm16
jmp 0x1cb0db6
vmovaps %xmm3, 0x100(%rsp)
vmovss %xmm5, 0x24(%rsp)
vmovss %xmm6, 0xf0(%rsp)
vzeroupper
callq 0x6aa20
vmovss 0xf0(%rsp), %xmm6
vmovss 0x24(%rsp), %xmm5
vmovaps 0x100(%rsp), %xmm3
vmovss 0x180(%rsp), %xmm7
vmovaps 0x1a0(%rsp), %xmm13
vmovaps %xmm0, %xmm16
vmovaps 0xc0(%rsp), %xmm10
vmovaps 0xa0(%rsp), %xmm19
vmulss %xmm3, %xmm6, %xmm0
vmulss %xmm3, %xmm3, %xmm1
vmulss %xmm1, %xmm0, %xmm0
vaddss %xmm0, %xmm5, %xmm0
vbroadcastss %xmm0, %xmm4
vmulps %xmm4, %xmm13, %xmm0
vmovaps %xmm0, 0x100(%rsp)
vdpps $0x7f, %xmm0, %xmm10, %xmm15
vaddss 0x23b91d(%rip), %xmm7, %xmm14 # 0x1eec714
vmulps %xmm15, %xmm15, %xmm0
vsubps %xmm0, %xmm19, %xmm0
vxorps %xmm2, %xmm2, %xmm2
vmovss %xmm0, %xmm2, %xmm1 # xmm1 = xmm0[0],xmm2[1,2,3]
vrsqrt14ss %xmm1, %xmm2, %xmm18
vmulss 0x23b8fe(%rip), %xmm18, %xmm17 # 0x1eec718
vmulss 0x23b8f8(%rip), %xmm0, %xmm20 # 0x1eec71c
vucomiss 0x23abf8(%rip), %xmm0 # 0x1eeba24
jb 0x1cb0e37
vsqrtss %xmm0, %xmm0, %xmm0
jmp 0x1cb0ed2
vmovss %xmm14, 0x24(%rsp)
vmovaps %xmm15, 0xf0(%rsp)
vmovss %xmm16, 0x40(%rsp)
vmovss %xmm17, 0x3c(%rsp)
vmovaps %xmm18, 0x360(%rsp)
vmovss %xmm20, 0x38(%rsp)
vmovaps %xmm4, 0x350(%rsp)
vzeroupper
callq 0x6aa20
vmovaps 0x350(%rsp), %xmm4
vmovss 0x38(%rsp), %xmm20
vmovaps 0x360(%rsp), %xmm18
vmovss 0x3c(%rsp), %xmm17
vmovss 0x40(%rsp), %xmm16
vmovaps 0xf0(%rsp), %xmm15
vmovss 0x24(%rsp), %xmm14
vmovss 0x180(%rsp), %xmm7
vmovaps 0x1a0(%rsp), %xmm13
vmovaps 0xa0(%rsp), %xmm19
vmovaps 0xc0(%rsp), %xmm10
vbroadcastss 0x26ffe9(%rip), %xmm11 # 0x1f20ec4
vmovaps 0x240(%rsp), %ymm30
vmovaps 0x220(%rsp), %ymm31
vmovaps 0x200(%rsp), %ymm21
vmovaps 0x60(%rsp), %xmm9
vmovaps 0x80(%rsp), %xmm8
vbroadcastss 0x370(%rsp), %xmm1
vmulps 0x280(%rsp), %xmm1, %xmm1
vbroadcastss 0x3c0(%rsp), %xmm2
vfmadd132ps 0x2c0(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1
vbroadcastss 0x3e0(%rsp), %xmm1
vfmadd132ps 0x2a0(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2
vmovss 0x2400ab(%rip), %xmm2 # 0x1ef0ff0
vfmadd213ss 0x2400aa(%rip), %xmm9, %xmm2 # xmm2 = (xmm9 * xmm2) + mem
vbroadcastss %xmm2, %xmm2
vfmadd132ps 0x2e0(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1
vbroadcastss 0x120(%rsp), %xmm1
vmulps %xmm1, %xmm2, %xmm1
vdpps $0x7f, %xmm2, %xmm13, %xmm2
vbroadcastss %xmm2, %xmm2
vmulps %xmm2, %xmm13, %xmm2
vsubps %xmm2, %xmm1, %xmm1
vmovss 0x4c(%rsp), %xmm2
vmulss 0x110(%rsp), %xmm2, %xmm2
vmulss 0x48(%rsp), %xmm8, %xmm3
vbroadcastss %xmm2, %xmm2
vmulps %xmm2, %xmm1, %xmm1
vxorps 0x26ff1a(%rip){1to4}, %xmm13, %xmm2 # 0x1f20ec0
vmulps %xmm1, %xmm4, %xmm4
vmovaps 0x100(%rsp), %xmm12
vdpps $0x7f, %xmm12, %xmm2, %xmm5
vmovss 0x44(%rsp), %xmm6
vmaxss %xmm3, %xmm6, %xmm1
vdivss %xmm16, %xmm6, %xmm3
vdpps $0x7f, %xmm4, %xmm10, %xmm4
vfmadd213ss %xmm1, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm7) + xmm1
vfmadd213ss %xmm7, %xmm3, %xmm14 # xmm14 = (xmm3 * xmm14) + xmm7
vmovaps 0x270(%rsp), %xmm7
vdpps $0x7f, %xmm12, %xmm7, %xmm3
vaddss %xmm4, %xmm5, %xmm4
vdpps $0x7f, %xmm2, %xmm10, %xmm5
vmulss %xmm18, %xmm20, %xmm2
vmulss %xmm18, %xmm18, %xmm6
vmulss %xmm6, %xmm2, %xmm2
vdpps $0x7f, %xmm7, %xmm10, %xmm6
vaddss %xmm2, %xmm17, %xmm7
vfnmadd231ss %xmm4, %xmm15, %xmm5 # xmm5 = -(xmm15 * xmm4) + xmm5
vfnmadd231ss %xmm3, %xmm15, %xmm6 # xmm6 = -(xmm15 * xmm3) + xmm6
vpermilps $0xff, 0x400(%rsp), %xmm2 # xmm2 = mem[3,3,3,3]
vsubss %xmm2, %xmm0, %xmm2
vshufps $0xff, %xmm13, %xmm13, %xmm0 # xmm0 = xmm13[3,3,3,3]
vfmsub213ss %xmm0, %xmm7, %xmm5 # xmm5 = (xmm7 * xmm5) - xmm0
vmulss %xmm7, %xmm6, %xmm6
vmulss %xmm5, %xmm3, %xmm7
vfmsub231ss %xmm6, %xmm4, %xmm7 # xmm7 = (xmm4 * xmm6) - xmm7
vdivss %xmm7, %xmm6, %xmm6
vdivss %xmm7, %xmm5, %xmm5
vdivss %xmm7, %xmm3, %xmm3
vdivss %xmm7, %xmm4, %xmm4
vmulss %xmm6, %xmm15, %xmm6
vmulss %xmm3, %xmm2, %xmm3
vsubss %xmm3, %xmm6, %xmm3
vmulss %xmm5, %xmm15, %xmm5
vmulss %xmm4, %xmm2, %xmm4
vsubss %xmm5, %xmm4, %xmm4
vsubss %xmm3, %xmm9, %xmm9
vsubss %xmm4, %xmm8, %xmm8
vandps %xmm11, %xmm15, %xmm3
vucomiss %xmm3, %xmm14
jbe 0x1cb122e
vaddss %xmm1, %xmm14, %xmm1
vmovaps 0x330(%rsp), %xmm3
vfmadd231ss 0x240e20(%rip), %xmm3, %xmm1 # xmm1 = (xmm3 * mem) + xmm1
vandps %xmm2, %xmm11, %xmm2
vucomiss %xmm2, %xmm1
jbe 0x1cb122e
vaddss 0x340(%rsp), %xmm8, %xmm8
movb $0x1, %r13b
vucomiss 0x5c(%rsp), %xmm8
jb 0x1cb1231
movq 0x18(%rsp), %rax
vmovss 0x100(%r12,%rax,4), %xmm4
vucomiss %xmm8, %xmm4
jb 0x1cb1231
vucomiss 0x23a948(%rip), %xmm9 # 0x1eeba24
jb 0x1cb1231
vmovss 0x23b62a(%rip), %xmm1 # 0x1eec714
vucomiss %xmm9, %xmm1
jb 0x1cb1231
vxorps %xmm2, %xmm2, %xmm2
vmovss %xmm19, %xmm2, %xmm1 # xmm1 = xmm19[0],xmm2[1,2,3]
vrsqrt14ss %xmm1, %xmm2, %xmm1
vmulss 0x23b60b(%rip), %xmm1, %xmm2 # 0x1eec718
vmulss 0x23b605(%rip), %xmm19, %xmm3 # 0x1eec71c
movq (%r15), %rax
movq 0x1e8(%rax), %rax
movq %r15, %rcx
movq 0x50(%rsp), %rdx
movq (%rax,%rdx,8), %r15
movq 0x18(%rsp), %rax
movl 0x120(%r12,%rax,4), %eax
testl %eax, 0x34(%r15)
je 0x1cb124e
vmulss %xmm1, %xmm3, %xmm3
vmulss %xmm1, %xmm1, %xmm1
vmulss %xmm1, %xmm3, %xmm1
vaddss %xmm1, %xmm2, %xmm1
vbroadcastss %xmm1, %xmm1
vmulps %xmm1, %xmm10, %xmm1
vfmadd213ps %xmm13, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm0) + xmm13
vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm13, %xmm13, %xmm3 # xmm3 = xmm13[1,2,0,3]
vmulps %xmm3, %xmm1, %xmm1
vfmsub231ps %xmm2, %xmm13, %xmm1 # xmm1 = (xmm13 * xmm2) - xmm1
vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3]
vshufps $0xd2, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,0,1,3]
vmulps %xmm1, %xmm0, %xmm0
vfmsub231ps %xmm3, %xmm2, %xmm0 # xmm0 = (xmm2 * xmm3) - xmm0
movq 0x10(%rcx), %rax
cmpq $0x0, 0x10(%rax)
jne 0x1cb1253
cmpq $0x0, 0x40(%r15)
jne 0x1cb1253
movq 0x18(%rsp), %rcx
vmovss %xmm8, 0x100(%r12,%rcx,4)
vextractps $0x1, %xmm0, 0x180(%r12,%rcx,4)
vextractps $0x2, %xmm0, 0x1a0(%r12,%rcx,4)
vmovss %xmm0, 0x1c0(%r12,%rcx,4)
vmovss %xmm9, 0x1e0(%r12,%rcx,4)
movl $0x0, 0x200(%r12,%rcx,4)
movq 0x130(%rsp), %rax
movl %eax, 0x220(%r12,%rcx,4)
movq 0x50(%rsp), %rax
movl %eax, 0x240(%r12,%rcx,4)
movq 0x28(%rsp), %r15
movq 0x8(%r15), %rax
movl (%rax), %eax
movl %eax, 0x260(%r12,%rcx,4)
movq 0x8(%r15), %rax
movl 0x4(%rax), %eax
movl %eax, 0x280(%r12,%rcx,4)
jmp 0x1cb1231
xorl %r13d, %r13d
subq $0x1, %r14
setb %al
testb %r13b, %r13b
jne 0x1cb1513
testb %al, %al
je 0x1cb0a98
jmp 0x1cb1513
movq %rcx, %r15
jmp 0x1cb1231
movq 0x28(%rsp), %rcx
movq 0x8(%rcx), %rax
vbroadcastss %xmm9, %ymm1
vbroadcastss 0x26149a(%rip), %ymm2 # 0x1f12704
vpermps %ymm0, %ymm2, %ymm2
vbroadcastss 0x26fc64(%rip), %ymm3 # 0x1f20edc
vpermps %ymm0, %ymm3, %ymm3
vbroadcastss %xmm0, %ymm0
vmovaps %ymm2, 0x560(%rsp)
vmovaps %ymm3, 0x580(%rsp)
vmovaps %ymm0, 0x5a0(%rsp)
vmovaps %ymm1, 0x5c0(%rsp)
vxorps %xmm0, %xmm0, %xmm0
vmovaps %ymm0, 0x5e0(%rsp)
vmovaps 0x4c0(%rsp), %ymm0
vmovaps %ymm0, 0x600(%rsp)
vmovdqa 0x4e0(%rsp), %ymm0
vmovdqa %ymm0, 0x620(%rsp)
movq 0x1d8(%rsp), %rdx
vpcmpeqd %ymm0, %ymm0, %ymm0
vmovdqa %ymm0, 0x20(%rdx)
vmovdqa %ymm0, (%rdx)
vbroadcastss (%rax), %ymm0
vmovaps %ymm0, 0x640(%rsp)
vbroadcastss 0x4(%rax), %ymm0
vmovaps %ymm0, 0x660(%rsp)
movq 0x18(%rsp), %rax
vmovss %xmm8, 0x100(%r12,%rax,4)
vmovaps 0x4a0(%rsp), %ymm0
vmovaps %ymm0, 0x300(%rsp)
leaq 0x300(%rsp), %rax
movq %rax, 0x150(%rsp)
movq 0x18(%r15), %rax
movq %rax, 0x158(%rsp)
movq 0x8(%rcx), %rax
movq %rax, 0x160(%rsp)
movq %r12, 0x168(%rsp)
leaq 0x560(%rsp), %rax
movq %rax, 0x170(%rsp)
movl $0x8, 0x178(%rsp)
movq 0x40(%r15), %rax
testq %rax, %rax
vmovaps %xmm9, 0x60(%rsp)
vmovaps %xmm8, 0x80(%rsp)
vmovss %xmm4, 0xa0(%rsp)
je 0x1cb13dc
leaq 0x150(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0xa0(%rsp), %xmm4
vmovaps 0x80(%rsp), %xmm8
vmovaps 0x60(%rsp), %xmm9
vmovaps 0x200(%rsp), %ymm21
vmovaps 0x220(%rsp), %ymm31
vmovaps 0x240(%rsp), %ymm30
vbroadcastss 0x26fae8(%rip), %xmm11 # 0x1f20ec4
vmovdqa 0x300(%rsp), %ymm0
vptest %ymm0, %ymm0
je 0x1cb14fa
movq 0x28(%rsp), %rax
movq 0x10(%rax), %rcx
movq 0x10(%rcx), %rax
testq %rax, %rax
je 0x1cb1454
testb $0x2, (%rcx)
jne 0x1cb140e
testb $0x40, 0x3e(%r15)
je 0x1cb1454
leaq 0x150(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0xa0(%rsp), %xmm4
vmovaps 0x80(%rsp), %xmm8
vmovaps 0x60(%rsp), %xmm9
vmovaps 0x200(%rsp), %ymm21
vmovaps 0x220(%rsp), %ymm31
vmovaps 0x240(%rsp), %ymm30
vbroadcastss 0x26fa70(%rip), %xmm11 # 0x1f20ec4
vmovdqa 0x300(%rsp), %ymm0
vptest %ymm0, %ymm0
je 0x1cb14fa
vptestmd %ymm0, %ymm0, %k1
movq 0x168(%rsp), %rax
movq 0x170(%rsp), %rcx
vmovaps (%rcx), %ymm0
vmovups %ymm0, 0x180(%rax) {%k1}
vmovaps 0x20(%rcx), %ymm0
vmovups %ymm0, 0x1a0(%rax) {%k1}
vmovaps 0x40(%rcx), %ymm0
vmovups %ymm0, 0x1c0(%rax) {%k1}
vmovaps 0x60(%rcx), %ymm0
vmovups %ymm0, 0x1e0(%rax) {%k1}
vmovaps 0x80(%rcx), %ymm0
vmovups %ymm0, 0x200(%rax) {%k1}
vmovdqa 0xa0(%rcx), %ymm0
vmovdqu32 %ymm0, 0x220(%rax) {%k1}
vmovdqa 0xc0(%rcx), %ymm0
vmovdqu32 %ymm0, 0x240(%rax) {%k1}
vmovdqa 0xe0(%rcx), %ymm0
vmovdqa32 %ymm0, 0x260(%rax) {%k1}
vmovdqa 0x100(%rcx), %ymm0
vmovdqa32 %ymm0, 0x280(%rax) {%k1}
jmp 0x1cb1509
movq 0x18(%rsp), %rax
vmovss %xmm4, 0x100(%r12,%rax,4)
movq 0x28(%rsp), %r15
jmp 0x1cb1231
movq 0x18(%rsp), %rax
vmovaps 0x440(%rsp), %ymm0
vcmpleps 0x100(%r12,%rax,4){1to8}, %ymm0, %k0
kmovd %k0, %eax
andb %al, %bl
jne 0x1cb09b4
vmovaps 0x420(%rsp), %ymm0
vaddps 0x3a0(%rsp), %ymm0, %ymm0
movq 0x18(%rsp), %rax
vcmpleps 0x100(%r12,%rax,4){1to8}, %ymm0, %k0
kmovd 0x144(%rsp), %k1
kmovd 0x13c(%rsp), %k2
korb %k2, %k1, %k1
kmovd %k0, %eax
movl 0x34(%rsp), %ecx
andb %al, %cl
vpbroadcastd 0x26f95b(%rip), %ymm0 # 0x1f20edc
vpblendmd 0x26f94d(%rip){1to8}, %ymm0, %ymm0 {%k1} # 0x1f20ed8
vmovdqa %ymm0, 0x420(%rsp)
vpcmpled 0x500(%rsp), %ymm0, %k0
kmovd %k0, %ebx
movl %ecx, 0x34(%rsp)
andb %cl, %bl
je 0x1cb21b6
vmovaps 0x680(%rsp), %ymm5
vmovaps 0x2e0(%rsp), %ymm1
vmovaps 0x2a0(%rsp), %ymm2
vminps %xmm2, %xmm1, %xmm0
vmaxps %xmm2, %xmm1, %xmm1
vmovaps 0x2c0(%rsp), %ymm3
vmovaps 0x280(%rsp), %ymm4
vminps %xmm4, %xmm3, %xmm2
vminps %xmm2, %xmm0, %xmm0
vmaxps %xmm4, %xmm3, %xmm2
vmaxps %xmm2, %xmm1, %xmm1
vandps %xmm0, %xmm11, %xmm0
vandps %xmm1, %xmm11, %xmm2
vmaxps %xmm2, %xmm0, %xmm0
vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3]
vmaxss %xmm0, %xmm2, %xmm2
vshufpd $0x1, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[1,0]
vmaxss %xmm2, %xmm0, %xmm0
vmulss 0x24089d(%rip), %xmm0, %xmm0 # 0x1ef1eb4
vmovss %xmm0, 0x44(%rsp)
vshufps $0xff, %xmm1, %xmm1, %xmm0 # xmm0 = xmm1[3,3,3,3]
vmovaps %xmm0, 0x330(%rsp)
vmovaps %ymm5, 0x380(%rsp)
vaddps 0x3a0(%rsp), %ymm5, %ymm0
vmovaps %ymm0, 0x440(%rsp)
kmovd %ebx, %k1
vbroadcastss 0x23a3cd(%rip), %ymm0 # 0x1eeba20
vblendmps 0x380(%rsp), %ymm0, %ymm0 {%k1}
vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm0, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1]
vminps %ymm2, %ymm1, %ymm1
vcmpeqps %ymm1, %ymm0, %k0
kmovd %k0, %eax
andb %bl, %al
movzbl %al, %eax
movzbl %bl, %ecx
cmovnel %eax, %ecx
tzcntl %ecx, %ecx
movb $0x1, %bl
shlb %cl, %bl
shll $0x2, %ecx
vmovss 0x460(%rsp,%rcx), %xmm9
vmovss 0x6a0(%rsp,%rcx), %xmm10
vmovaps 0x260(%rsp), %xmm0
vucomiss 0x23a369(%rip), %xmm0 # 0x1eeba24
vmovss 0x14c(%rsp), %xmm0
jae 0x1cb1707
vmovaps 0x260(%rsp), %xmm0
vmovaps %xmm9, 0x60(%rsp)
vmovaps %xmm10, 0x80(%rsp)
kmovw %k1, 0xc0(%rsp)
vzeroupper
callq 0x6aa20
kmovw 0xc0(%rsp), %k1
vmovaps 0x80(%rsp), %xmm10
vmovaps 0x60(%rsp), %xmm9
movzbl %bl, %eax
kmovd %eax, %k0
kandnb %k1, %k0, %k0
kmovd %k0, %ebx
vmulss 0x240796(%rip), %xmm0, %xmm0 # 0x1ef1eb4
vmovss %xmm0, 0x48(%rsp)
movl $0x4, %r14d
vbroadcastss %xmm10, %xmm0
vxorps %xmm1, %xmm1, %xmm1
vfmadd132ps 0x270(%rsp), %xmm1, %xmm0 # xmm0 = (xmm0 * mem) + xmm1
vmovss 0x23afcf(%rip), %xmm1 # 0x1eec714
vsubss %xmm9, %xmm1, %xmm12
vbroadcastss 0x26f76d(%rip), %xmm6 # 0x1f20ec0
vxorps %xmm6, %xmm9, %xmm1
vmulss %xmm1, %xmm12, %xmm1
vmulss %xmm1, %xmm12, %xmm1
vmulss %xmm9, %xmm9, %xmm13
vmovss 0x23f880(%rip), %xmm8 # 0x1ef0fec
vmovaps %xmm8, %xmm11
vmovss 0x23f88b(%rip), %xmm7 # 0x1ef1004
vfmadd213ss %xmm7, %xmm9, %xmm11 # xmm11 = (xmm9 * xmm11) + xmm7
vmovaps %xmm11, %xmm2
vmovss 0x23f86e(%rip), %xmm5 # 0x1ef0ff8
vfmadd213ss %xmm5, %xmm13, %xmm2 # xmm2 = (xmm13 * xmm2) + xmm5
vmulss %xmm12, %xmm12, %xmm3
vmovaps %xmm8, %xmm4
vfmadd213ss %xmm7, %xmm12, %xmm4 # xmm4 = (xmm12 * xmm4) + xmm7
vfmadd213ss %xmm5, %xmm3, %xmm4 # xmm4 = (xmm3 * xmm4) + xmm5
vxorps %xmm6, %xmm12, %xmm3
vmulss %xmm3, %xmm9, %xmm3
vmulss %xmm3, %xmm9, %xmm3
vmovss 0x23b3ca(%rip), %xmm5 # 0x1eecb80
vmulss %xmm5, %xmm1, %xmm1
vmulss %xmm5, %xmm2, %xmm2
vmulss %xmm5, %xmm4, %xmm4
vmulss %xmm5, %xmm3, %xmm3
vbroadcastss %xmm3, %xmm3
vmulps 0x280(%rsp), %xmm3, %xmm3
vbroadcastss %xmm4, %xmm4
vfmadd132ps 0x2c0(%rsp), %xmm3, %xmm4 # xmm4 = (xmm4 * mem) + xmm3
vbroadcastss %xmm2, %xmm2
vfmadd132ps 0x2a0(%rsp), %xmm4, %xmm2 # xmm2 = (xmm2 * mem) + xmm4
vbroadcastss %xmm1, %xmm3
vfmadd132ps 0x2e0(%rsp), %xmm2, %xmm3 # xmm3 = (xmm3 * mem) + xmm2
vmulss 0x23f1d3(%rip), %xmm12, %xmm6 # 0x1ef09dc
vfmadd231ss 0x23f7f6(%rip), %xmm9, %xmm7 # xmm7 = (xmm9 * mem) + xmm7
vmovaps %xmm7, 0x3e0(%rsp)
vmovss 0x23f7e9(%rip), %xmm1 # 0x1ef100c
vfmadd213ss 0x23b360(%rip), %xmm9, %xmm1 # xmm1 = (xmm9 * xmm1) + mem
vmovaps %xmm1, 0x3c0(%rsp)
vfmadd213ss 0x23f18e(%rip), %xmm9, %xmm8 # xmm8 = (xmm9 * xmm8) + mem
vmovaps %xmm8, 0x370(%rsp)
vmovaps %xmm3, 0x400(%rsp)
vsubps %xmm3, %xmm0, %xmm0
vmovaps %xmm0, 0xc0(%rsp)
vdpps $0x7f, %xmm0, %xmm0, %xmm0
vucomiss 0x23a1b9(%rip), %xmm0 # 0x1eeba24
vmovaps %xmm9, 0x60(%rsp)
vmovaps %xmm0, 0xa0(%rsp)
vmovaps %xmm10, 0x80(%rsp)
jb 0x1cb188b
vsqrtss %xmm0, %xmm0, %xmm7
jmp 0x1cb18e5
vmovss %xmm11, 0x1a0(%rsp)
vmovaps %xmm12, 0x180(%rsp)
vmovss %xmm13, 0x120(%rsp)
vmovss %xmm6, 0x110(%rsp)
vzeroupper
callq 0x6aa20
vmovss 0x110(%rsp), %xmm6
vmovss 0x120(%rsp), %xmm13
vmovaps 0x180(%rsp), %xmm12
vmovss 0x1a0(%rsp), %xmm11
vmovaps 0x60(%rsp), %xmm9
vmovaps %xmm0, %xmm7
vaddss %xmm12, %xmm12, %xmm0
vmulss %xmm0, %xmm9, %xmm1
vfnmadd231ss %xmm12, %xmm12, %xmm1 # xmm1 = -(xmm12 * xmm12) + xmm1
vaddss %xmm9, %xmm9, %xmm2
vmovss 0x23f6ec(%rip), %xmm4 # 0x1ef0fec
vmulss %xmm4, %xmm9, %xmm3
vmulss %xmm3, %xmm9, %xmm3
vfmadd213ss %xmm3, %xmm2, %xmm11 # xmm11 = (xmm2 * xmm11) + xmm3
vmovaps %xmm4, %xmm2
vmovss 0x23f6df(%rip), %xmm4 # 0x1ef0ff8
vfmadd213ss %xmm4, %xmm9, %xmm2 # xmm2 = (xmm9 * xmm2) + xmm4
vmulss 0x23f6ca(%rip), %xmm12, %xmm3 # 0x1ef0ff0
vmulss %xmm3, %xmm12, %xmm3
vfmadd231ss %xmm2, %xmm0, %xmm3 # xmm3 = (xmm0 * xmm2) + xmm3
vfmadd213ss %xmm13, %xmm9, %xmm6 # xmm6 = (xmm9 * xmm6) + xmm13
vmovss 0x23b244(%rip), %xmm5 # 0x1eecb80
vmulss %xmm5, %xmm1, %xmm0
vmulss %xmm5, %xmm11, %xmm1
vmulss %xmm5, %xmm3, %xmm2
vmulss %xmm5, %xmm6, %xmm3
vbroadcastss %xmm3, %xmm3
vmulps 0x280(%rsp), %xmm3, %xmm3
vbroadcastss %xmm2, %xmm2
vfmadd132ps 0x2c0(%rsp), %xmm3, %xmm2 # xmm2 = (xmm2 * mem) + xmm3
vbroadcastss %xmm1, %xmm1
vfmadd132ps 0x2a0(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2
vbroadcastss %xmm0, %xmm13
vfmadd132ps 0x2e0(%rsp), %xmm1, %xmm13 # xmm13 = (xmm13 * mem) + xmm1
vdpps $0x7f, %xmm13, %xmm13, %xmm0
vxorps %xmm1, %xmm1, %xmm1
vmovss %xmm0, %xmm1, %xmm2 # xmm2 = xmm0[0],xmm1[1,2,3]
vrsqrt14ss %xmm2, %xmm1, %xmm3
vmulss 0x23ad75(%rip), %xmm3, %xmm5 # 0x1eec718
vmulss 0x23ad71(%rip), %xmm0, %xmm6 # 0x1eec71c
vrcp14ss %xmm2, %xmm1, %xmm2
vxorps 0x26f505(%rip){1to4}, %xmm0, %xmm1 # 0x1f20ec0
vmovaps %xmm2, 0x110(%rsp)
vfnmadd213ss %xmm4, %xmm0, %xmm2 # xmm2 = -(xmm0 * xmm2) + xmm4
vmovss %xmm2, 0x4c(%rsp)
vucomiss %xmm1, %xmm0
vmovaps %xmm13, 0x1a0(%rsp)
vmovss %xmm7, 0x180(%rsp)
vmovaps %xmm0, 0x120(%rsp)
jb 0x1cb19f8
vsqrtss %xmm0, %xmm0, %xmm16
jmp 0x1cb1a48
vmovaps %xmm3, 0x100(%rsp)
vmovss %xmm5, 0x24(%rsp)
vmovss %xmm6, 0xf0(%rsp)
vzeroupper
callq 0x6aa20
vmovss 0xf0(%rsp), %xmm6
vmovss 0x24(%rsp), %xmm5
vmovaps 0x100(%rsp), %xmm3
vmovss 0x180(%rsp), %xmm7
vmovaps 0x1a0(%rsp), %xmm13
vmovaps %xmm0, %xmm16
vmovaps 0xc0(%rsp), %xmm11
vmovaps 0xa0(%rsp), %xmm19
vmulss %xmm3, %xmm6, %xmm0
vmulss %xmm3, %xmm3, %xmm1
vmulss %xmm1, %xmm0, %xmm0
vaddss %xmm0, %xmm5, %xmm0
vbroadcastss %xmm0, %xmm4
vmulps %xmm4, %xmm13, %xmm0
vmovaps %xmm0, 0x100(%rsp)
vdpps $0x7f, %xmm0, %xmm11, %xmm15
vaddss 0x23ac8b(%rip), %xmm7, %xmm14 # 0x1eec714
vmulps %xmm15, %xmm15, %xmm0
vsubps %xmm0, %xmm19, %xmm0
vxorps %xmm2, %xmm2, %xmm2
vmovss %xmm0, %xmm2, %xmm1 # xmm1 = xmm0[0],xmm2[1,2,3]
vrsqrt14ss %xmm1, %xmm2, %xmm18
vmulss 0x23ac6c(%rip), %xmm18, %xmm17 # 0x1eec718
vmulss 0x23ac66(%rip), %xmm0, %xmm20 # 0x1eec71c
vucomiss 0x239f66(%rip), %xmm0 # 0x1eeba24
jb 0x1cb1ac9
vsqrtss %xmm0, %xmm0, %xmm0
jmp 0x1cb1b64
vmovss %xmm14, 0x24(%rsp)
vmovaps %xmm15, 0xf0(%rsp)
vmovss %xmm16, 0x40(%rsp)
vmovss %xmm17, 0x3c(%rsp)
vmovaps %xmm18, 0x360(%rsp)
vmovss %xmm20, 0x38(%rsp)
vmovaps %xmm4, 0x350(%rsp)
vzeroupper
callq 0x6aa20
vmovaps 0x350(%rsp), %xmm4
vmovss 0x38(%rsp), %xmm20
vmovaps 0x360(%rsp), %xmm18
vmovss 0x3c(%rsp), %xmm17
vmovss 0x40(%rsp), %xmm16
vmovaps 0xf0(%rsp), %xmm15
vmovss 0x24(%rsp), %xmm14
vmovss 0x180(%rsp), %xmm7
vmovaps 0x1a0(%rsp), %xmm13
vmovaps 0xa0(%rsp), %xmm19
vmovaps 0xc0(%rsp), %xmm11
vbroadcastss 0x26f357(%rip), %xmm8 # 0x1f20ec4
vmovaps 0x240(%rsp), %ymm30
vmovaps 0x220(%rsp), %ymm31
vmovaps 0x200(%rsp), %ymm21
vmovaps 0x60(%rsp), %xmm9
vmovaps 0x80(%rsp), %xmm10
vbroadcastss 0x370(%rsp), %xmm1
vmulps 0x280(%rsp), %xmm1, %xmm1
vbroadcastss 0x3c0(%rsp), %xmm2
vfmadd132ps 0x2c0(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1
vbroadcastss 0x3e0(%rsp), %xmm1
vfmadd132ps 0x2a0(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2
vmovss 0x23f419(%rip), %xmm2 # 0x1ef0ff0
vfmadd213ss 0x23f418(%rip), %xmm9, %xmm2 # xmm2 = (xmm9 * xmm2) + mem
vbroadcastss %xmm2, %xmm2
vfmadd132ps 0x2e0(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1
vbroadcastss 0x120(%rsp), %xmm1
vmulps %xmm1, %xmm2, %xmm1
vdpps $0x7f, %xmm2, %xmm13, %xmm2
vbroadcastss %xmm2, %xmm2
vmulps %xmm2, %xmm13, %xmm2
vsubps %xmm2, %xmm1, %xmm1
vmovss 0x4c(%rsp), %xmm2
vmulss 0x110(%rsp), %xmm2, %xmm2
vmulss 0x48(%rsp), %xmm10, %xmm3
vbroadcastss %xmm2, %xmm2
vmulps %xmm2, %xmm1, %xmm1
vxorps 0x26f288(%rip){1to4}, %xmm13, %xmm2 # 0x1f20ec0
vmulps %xmm1, %xmm4, %xmm4
vmovaps 0x100(%rsp), %xmm12
vdpps $0x7f, %xmm12, %xmm2, %xmm5
vmovss 0x44(%rsp), %xmm6
vmaxss %xmm3, %xmm6, %xmm1
vdivss %xmm16, %xmm6, %xmm3
vdpps $0x7f, %xmm4, %xmm11, %xmm4
vfmadd213ss %xmm1, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm7) + xmm1
vfmadd213ss %xmm7, %xmm3, %xmm14 # xmm14 = (xmm3 * xmm14) + xmm7
vmovaps 0x270(%rsp), %xmm7
vdpps $0x7f, %xmm12, %xmm7, %xmm3
vaddss %xmm4, %xmm5, %xmm4
vdpps $0x7f, %xmm2, %xmm11, %xmm5
vmulss %xmm18, %xmm20, %xmm2
vmulss %xmm18, %xmm18, %xmm6
vmulss %xmm6, %xmm2, %xmm2
vdpps $0x7f, %xmm7, %xmm11, %xmm6
vaddss %xmm2, %xmm17, %xmm7
vfnmadd231ss %xmm4, %xmm15, %xmm5 # xmm5 = -(xmm15 * xmm4) + xmm5
vfnmadd231ss %xmm3, %xmm15, %xmm6 # xmm6 = -(xmm15 * xmm3) + xmm6
vpermilps $0xff, 0x400(%rsp), %xmm2 # xmm2 = mem[3,3,3,3]
vsubss %xmm2, %xmm0, %xmm2
vshufps $0xff, %xmm13, %xmm13, %xmm0 # xmm0 = xmm13[3,3,3,3]
vfmsub213ss %xmm0, %xmm7, %xmm5 # xmm5 = (xmm7 * xmm5) - xmm0
vmulss %xmm7, %xmm6, %xmm6
vmulss %xmm5, %xmm3, %xmm7
vfmsub231ss %xmm6, %xmm4, %xmm7 # xmm7 = (xmm4 * xmm6) - xmm7
vdivss %xmm7, %xmm6, %xmm6
vdivss %xmm7, %xmm5, %xmm5
vdivss %xmm7, %xmm3, %xmm3
vdivss %xmm7, %xmm4, %xmm4
vmulss %xmm6, %xmm15, %xmm6
vmulss %xmm3, %xmm2, %xmm3
vsubss %xmm3, %xmm6, %xmm3
vmulss %xmm5, %xmm15, %xmm5
vmulss %xmm4, %xmm2, %xmm4
vsubss %xmm5, %xmm4, %xmm4
vsubss %xmm3, %xmm9, %xmm9
vsubss %xmm4, %xmm10, %xmm10
vandps %xmm8, %xmm15, %xmm3
vucomiss %xmm3, %xmm14
jbe 0x1cb1ec0
vaddss %xmm1, %xmm14, %xmm1
vmovaps 0x330(%rsp), %xmm3
vfmadd231ss 0x24018e(%rip), %xmm3, %xmm1 # xmm1 = (xmm3 * mem) + xmm1
vandps %xmm2, %xmm8, %xmm2
vucomiss %xmm2, %xmm1
jbe 0x1cb1ec0
vaddss 0x340(%rsp), %xmm10, %xmm10
movb $0x1, %r13b
vucomiss 0x5c(%rsp), %xmm10
jb 0x1cb1ec3
movq 0x18(%rsp), %rax
vmovss 0x100(%r12,%rax,4), %xmm4
vucomiss %xmm10, %xmm4
jb 0x1cb1ec3
vucomiss 0x239cb6(%rip), %xmm9 # 0x1eeba24
jb 0x1cb1ec3
vmovss 0x23a998(%rip), %xmm1 # 0x1eec714
vucomiss %xmm9, %xmm1
jb 0x1cb1ec3
vxorps %xmm2, %xmm2, %xmm2
vmovss %xmm19, %xmm2, %xmm1 # xmm1 = xmm19[0],xmm2[1,2,3]
vrsqrt14ss %xmm1, %xmm2, %xmm1
vmulss 0x23a979(%rip), %xmm1, %xmm2 # 0x1eec718
vmulss 0x23a973(%rip), %xmm19, %xmm3 # 0x1eec71c
movq (%r15), %rax
movq 0x1e8(%rax), %rax
movq %r15, %rcx
movq 0x50(%rsp), %rdx
movq (%rax,%rdx,8), %r15
movq 0x18(%rsp), %rax
movl 0x120(%r12,%rax,4), %eax
testl %eax, 0x34(%r15)
je 0x1cb1ee0
vmulss %xmm1, %xmm3, %xmm3
vmulss %xmm1, %xmm1, %xmm1
vmulss %xmm1, %xmm3, %xmm1
vaddss %xmm1, %xmm2, %xmm1
vbroadcastss %xmm1, %xmm1
vmulps %xmm1, %xmm11, %xmm1
vfmadd213ps %xmm13, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm0) + xmm13
vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm13, %xmm13, %xmm3 # xmm3 = xmm13[1,2,0,3]
vmulps %xmm3, %xmm1, %xmm1
vfmsub231ps %xmm2, %xmm13, %xmm1 # xmm1 = (xmm13 * xmm2) - xmm1
vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3]
vshufps $0xd2, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,0,1,3]
vmulps %xmm1, %xmm0, %xmm0
vfmsub231ps %xmm3, %xmm2, %xmm0 # xmm0 = (xmm2 * xmm3) - xmm0
movq 0x10(%rcx), %rax
cmpq $0x0, 0x10(%rax)
jne 0x1cb1ee5
cmpq $0x0, 0x40(%r15)
jne 0x1cb1ee5
movq 0x18(%rsp), %rcx
vmovss %xmm10, 0x100(%r12,%rcx,4)
vextractps $0x1, %xmm0, 0x180(%r12,%rcx,4)
vextractps $0x2, %xmm0, 0x1a0(%r12,%rcx,4)
vmovss %xmm0, 0x1c0(%r12,%rcx,4)
vmovss %xmm9, 0x1e0(%r12,%rcx,4)
movl $0x0, 0x200(%r12,%rcx,4)
movq 0x130(%rsp), %rax
movl %eax, 0x220(%r12,%rcx,4)
movq 0x50(%rsp), %rax
movl %eax, 0x240(%r12,%rcx,4)
movq 0x28(%rsp), %r15
movq 0x8(%r15), %rax
movl (%rax), %eax
movl %eax, 0x260(%r12,%rcx,4)
movq 0x8(%r15), %rax
movl 0x4(%rax), %eax
movl %eax, 0x280(%r12,%rcx,4)
jmp 0x1cb1ec3
xorl %r13d, %r13d
subq $0x1, %r14
setb %al
testb %r13b, %r13b
jne 0x1cb2193
testb %al, %al
je 0x1cb172a
jmp 0x1cb2193
movq %rcx, %r15
jmp 0x1cb1ec3
movq 0x28(%rsp), %rcx
movq 0x8(%rcx), %rax
vbroadcastss %xmm9, %ymm1
vbroadcastss 0x260808(%rip), %ymm2 # 0x1f12704
vpermps %ymm0, %ymm2, %ymm2
vbroadcastss 0x26efd2(%rip), %ymm3 # 0x1f20edc
vpermps %ymm0, %ymm3, %ymm3
vbroadcastss %xmm0, %ymm0
vmovaps %ymm2, 0x560(%rsp)
vmovaps %ymm3, 0x580(%rsp)
vmovaps %ymm0, 0x5a0(%rsp)
vmovaps %ymm1, 0x5c0(%rsp)
vxorps %xmm0, %xmm0, %xmm0
vmovaps %ymm0, 0x5e0(%rsp)
vmovaps 0x4c0(%rsp), %ymm0
vmovaps %ymm0, 0x600(%rsp)
vmovdqa 0x4e0(%rsp), %ymm0
vmovdqa %ymm0, 0x620(%rsp)
movq 0x1d8(%rsp), %rdx
vpcmpeqd %ymm0, %ymm0, %ymm0
vmovdqa %ymm0, 0x20(%rdx)
vmovdqa %ymm0, (%rdx)
vbroadcastss (%rax), %ymm0
vmovaps %ymm0, 0x640(%rsp)
vbroadcastss 0x4(%rax), %ymm0
vmovaps %ymm0, 0x660(%rsp)
movq 0x18(%rsp), %rax
vmovss %xmm10, 0x100(%r12,%rax,4)
vmovaps 0x4a0(%rsp), %ymm0
vmovaps %ymm0, 0x300(%rsp)
leaq 0x300(%rsp), %rax
movq %rax, 0x150(%rsp)
movq 0x18(%r15), %rax
movq %rax, 0x158(%rsp)
movq 0x8(%rcx), %rax
movq %rax, 0x160(%rsp)
movq %r12, 0x168(%rsp)
leaq 0x560(%rsp), %rax
movq %rax, 0x170(%rsp)
movl $0x8, 0x178(%rsp)
movq 0x40(%r15), %rax
testq %rax, %rax
vmovaps %xmm9, 0x60(%rsp)
vmovaps %xmm10, 0x80(%rsp)
vmovss %xmm4, 0xa0(%rsp)
je 0x1cb2065
leaq 0x150(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0xa0(%rsp), %xmm4
vmovaps 0x80(%rsp), %xmm10
vmovaps 0x60(%rsp), %xmm9
vmovaps 0x200(%rsp), %ymm21
vmovaps 0x220(%rsp), %ymm31
vmovaps 0x240(%rsp), %ymm30
vmovdqa 0x300(%rsp), %ymm0
vptest %ymm0, %ymm0
je 0x1cb217a
movq 0x28(%rsp), %rax
movq 0x10(%rax), %rcx
movq 0x10(%rcx), %rax
testq %rax, %rax
je 0x1cb20d4
testb $0x2, (%rcx)
jne 0x1cb2097
testb $0x40, 0x3e(%r15)
je 0x1cb20d4
leaq 0x150(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0xa0(%rsp), %xmm4
vmovaps 0x80(%rsp), %xmm10
vmovaps 0x60(%rsp), %xmm9
vmovaps 0x200(%rsp), %ymm21
vmovaps 0x220(%rsp), %ymm31
vmovaps 0x240(%rsp), %ymm30
vmovdqa 0x300(%rsp), %ymm0
vptest %ymm0, %ymm0
je 0x1cb217a
vptestmd %ymm0, %ymm0, %k1
movq 0x168(%rsp), %rax
movq 0x170(%rsp), %rcx
vmovaps (%rcx), %ymm0
vmovups %ymm0, 0x180(%rax) {%k1}
vmovaps 0x20(%rcx), %ymm0
vmovups %ymm0, 0x1a0(%rax) {%k1}
vmovaps 0x40(%rcx), %ymm0
vmovups %ymm0, 0x1c0(%rax) {%k1}
vmovaps 0x60(%rcx), %ymm0
vmovups %ymm0, 0x1e0(%rax) {%k1}
vmovaps 0x80(%rcx), %ymm0
vmovups %ymm0, 0x200(%rax) {%k1}
vmovdqa 0xa0(%rcx), %ymm0
vmovdqu32 %ymm0, 0x220(%rax) {%k1}
vmovdqa 0xc0(%rcx), %ymm0
vmovdqu32 %ymm0, 0x240(%rax) {%k1}
vmovdqa 0xe0(%rcx), %ymm0
vmovdqa32 %ymm0, 0x260(%rax) {%k1}
vmovdqa 0x100(%rcx), %ymm0
vmovdqa32 %ymm0, 0x280(%rax) {%k1}
jmp 0x1cb2189
movq 0x18(%rsp), %rax
vmovss %xmm4, 0x100(%r12,%rax,4)
movq 0x28(%rsp), %r15
jmp 0x1cb1ec3
movq 0x18(%rsp), %rax
vmovaps 0x440(%rsp), %ymm0
vcmpleps 0x100(%r12,%rax,4){1to8}, %ymm0, %k0
kmovd %k0, %eax
andb %al, %bl
jne 0x1cb1646
vmovdqa 0x500(%rsp), %ymm1
vpcmpltd 0x420(%rsp), %ymm1, %k1
vmovaps 0x920(%rsp), %ymm0
vpcmpltd 0x6c0(%rsp), %ymm1, %k2
vmovaps 0x3a0(%rsp), %ymm3
vaddps %ymm0, %ymm3, %ymm1
movq 0x18(%rsp), %rax
vbroadcastss 0x100(%r12,%rax,4), %ymm2
vcmpleps %ymm2, %ymm1, %k0 {%k2}
kmovd %k0, %eax
movl 0x140(%rsp), %ecx
andb %al, %cl
vmovaps 0x680(%rsp), %ymm1
vaddps %ymm1, %ymm3, %ymm3
vcmpleps %ymm2, %ymm3, %k0 {%k1}
kmovd %k0, %eax
movl 0x34(%rsp), %edx
andb %al, %dl
orb %cl, %dl
je 0x1cb22a9
movq 0x1f0(%rsp), %r9
movl %r9d, %eax
leaq (%rax,%rax,2), %rax
shlq $0x5, %rax
movb %dl, 0x960(%rsp,%rax)
kmovd %ecx, %k1
vmovaps %ymm0, %ymm1 {%k1}
vmovaps %ymm1, 0x980(%rsp,%rax)
vmovaps 0x1c0(%rsp), %xmm2
vmovlps %xmm2, 0x9a0(%rsp,%rax)
movq 0x1e8(%rsp), %r11
leal 0x1(%r11), %ecx
movl %ecx, 0x9a8(%rsp,%rax)
incl %r9d
movq 0x1e0(%rsp), %r8
vbroadcastss 0x23a481(%rip), %ymm16 # 0x1eec714
movq 0x1f8(%rsp), %r10
jmp 0x1cb22dc
vbroadcastss 0x23a46d(%rip), %ymm16 # 0x1eec714
jmp 0x1cb22d3
movq 0x1e0(%rsp), %r8
vbroadcastss 0x23a459(%rip), %ymm16 # 0x1eec714
movq 0x1f8(%rsp), %r10
movq 0x1f0(%rsp), %r9
movq 0x1e8(%rsp), %r11
vmovaps 0x1c0(%rsp), %xmm2
movl %r9d, %eax
testl %eax, %eax
je 0x1cb2431
leal -0x1(%rax), %r9d
leaq (%r9,%r9,2), %rcx
shlq $0x5, %rcx
vmovaps 0x980(%rsp,%rcx), %ymm0
movzbl 0x960(%rsp,%rcx), %esi
vaddps 0x3a0(%rsp), %ymm0, %ymm1
movq 0x18(%rsp), %rdx
vcmpleps 0x100(%r12,%rdx,4){1to8}, %ymm1, %k0
kmovb %k0, %edx
andl %esi, %edx
je 0x1cb23d4
kmovd %edx, %k1
vbroadcastss 0x2396ec(%rip), %ymm1 # 0x1eeba20
vblendmps %ymm0, %ymm1, %ymm0 {%k1}
vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm0, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1]
vminps %ymm2, %ymm1, %ymm1
vcmpeqps %ymm1, %ymm0, %k0
kmovd %k0, %esi
andb %dl, %sil
je 0x1cb236c
movzbl %sil, %edi
jmp 0x1cb236f
movzbl %dl, %edi
leaq (%rsp,%rcx), %rsi
addq $0x960, %rsi # imm = 0x960
vmovss 0x44(%rsi), %xmm0
tzcntl %edi, %ecx
movb $0x1, %dil
shlb %cl, %dil
movl 0x48(%rsi), %r11d
movzbl %dil, %edi
kmovd %edi, %k0
kmovd %edx, %k1
kandnb %k1, %k0, %k0
kmovb %k0, (%rsi)
kortestb %k0, %k0
je 0x1cb23aa
movl %eax, %r9d
vbroadcastss 0x40(%rsi), %ymm1
vsubss %xmm1, %xmm0, %xmm0
vbroadcastss %xmm0, %ymm0
vfmadd132ps 0x26eb5e(%rip), %ymm1, %ymm0 # ymm0 = (ymm0 * mem) + ymm1
vmovaps %ymm0, 0x560(%rsp)
vmovsd 0x560(%rsp,%rcx,4), %xmm2
movl %r9d, %eax
testb %dl, %dl
je 0x1cb22df
jmp 0x1cafd75
vcmpleps 0x26eb11(%rip), %ymm4, %k2 # 0x1f20f00
vbroadcastss 0x23a78c(%rip), %ymm4 # 0x1eecb84
vbroadcastss 0x23961e(%rip), %ymm16 # 0x1eeba20
vblendmps %ymm4, %ymm16, %ymm3 {%k2}
vmovaps %ymm3, %ymm30 {%k1}
vblendmps %ymm16, %ymm4, %ymm3 {%k2}
kmovd %k2, %ecx
vmovaps %ymm3, %ymm31 {%k1}
knotb %k1, %k0
kmovd %k0, %edx
orb %cl, %dl
andb %al, %dl
movl %edx, %eax
jmp 0x1cb037a
movq 0x18(%rsp), %rax
vmovaps 0x6e0(%rsp), %ymm0
vcmpleps 0x100(%r12,%rax,4){1to8}, %ymm0, %k0
kmovb %k0, %eax
andl %eax, %r10d
jne 0x1caf9f0
leaq -0x28(%rbp), %rsp
popq %rbx
popq %r12
popq %r13
popq %r14
popq %r15
popq %rbp
vzeroupper
retq
nop
|
/embree[P]embree/kernels/geometry/curveNi_intersector.h
|
void embree::avx512::CurveNiIntersectorK<8, 16>::intersect_t<embree::avx512::SweepCurve1IntersectorK<embree::CatmullRomCurveT, 16>, embree::avx512::Intersect1KEpilog1<16, true>>(embree::avx512::CurvePrecalculationsK<16>&, embree::RayHitK<16>&, unsigned long, embree::RayQueryContext*, embree::CurveNi<8> const&)
|
static __forceinline void intersect_t(Precalculations& pre, RayHitK<K>& ray, const size_t k, RayQueryContext* context, const Primitive& prim)
{
vfloat<M> tNear;
vbool<M> valid = intersect(ray,k,prim,tNear);
const size_t N = prim.N;
size_t mask = movemask(valid);
while (mask)
{
const size_t i = bscf(mask);
STAT3(normal.trav_prims,1,1,1);
const unsigned int geomID = prim.geomID(N);
const unsigned int primID = prim.primID(N)[i];
const CurveGeometry* geom = context->scene->get<CurveGeometry>(geomID);
Vec3ff a0,a1,a2,a3; geom->gather(a0,a1,a2,a3,geom->curve(primID));
size_t mask1 = mask;
const size_t i1 = bscf(mask1);
if (mask) {
const unsigned int primID1 = prim.primID(N)[i1];
geom->prefetchL1_vertices(geom->curve(primID1));
if (mask1) {
const size_t i2 = bsf(mask1);
const unsigned int primID2 = prim.primID(N)[i2];
geom->prefetchL2_vertices(geom->curve(primID2));
}
}
Intersector().intersect(pre,ray,k,context,geom,primID,a0,a1,a2,a3,Epilog(ray,k,context,geomID,primID));
mask &= movemask(tNear <= vfloat<M>(ray.tfar[k]));
}
}
|
pushq %rbp
movq %rsp, %rbp
pushq %r15
pushq %r14
pushq %r13
pushq %r12
pushq %rbx
andq $-0x40, %rsp
subq $0xc80, %rsp # imm = 0xC80
movq %rcx, %r15
movq %rsi, %r12
movzbl 0x1(%r8), %ecx
leaq (%rcx,%rcx,4), %rax
leaq (%rax,%rax,4), %rsi
vbroadcastss 0x12(%r8,%rsi), %xmm0
vmovss (%r12,%rdx,4), %xmm1
vmovss 0x100(%r12,%rdx,4), %xmm2
vinsertps $0x10, 0x40(%r12,%rdx,4), %xmm1, %xmm1 # xmm1 = xmm1[0],mem[0],xmm1[2,3]
vinsertps $0x20, 0x80(%r12,%rdx,4), %xmm1, %xmm1 # xmm1 = xmm1[0,1],mem[0],xmm1[3]
vinsertps $0x10, 0x140(%r12,%rdx,4), %xmm2, %xmm2 # xmm2 = xmm2[0],mem[0],xmm2[2,3]
vinsertps $0x20, 0x180(%r12,%rdx,4), %xmm2, %xmm2 # xmm2 = xmm2[0,1],mem[0],xmm2[3]
vsubps 0x6(%r8,%rsi), %xmm1, %xmm1
vmulps %xmm1, %xmm0, %xmm3
vmulps %xmm2, %xmm0, %xmm0
vpmovsxbd 0x6(%r8,%rcx,4), %ymm1
vpmovsxbd 0x6(%r8,%rax), %ymm2
vcvtdq2ps %ymm1, %ymm5
vcvtdq2ps %ymm2, %ymm6
leaq (%rcx,%rcx,2), %r9
vpmovsxbd 0x6(%r8,%r9,2), %ymm1
vcvtdq2ps %ymm1, %ymm4
leaq (%rcx,%rax,2), %rsi
vpmovsxbd 0x6(%r8,%rsi), %ymm1
leal (,%r9,4), %esi
vpmovsxbd 0x6(%r8,%rsi), %ymm2
vcvtdq2ps %ymm1, %ymm7
vcvtdq2ps %ymm2, %ymm8
addq %rcx, %rsi
vpmovsxbd 0x6(%r8,%rsi), %ymm1
vcvtdq2ps %ymm1, %ymm9
leaq (%rcx,%rcx,8), %rsi
leal (%rsi,%rsi), %edi
vpmovsxbd 0x6(%r8,%rdi), %ymm1
vcvtdq2ps %ymm1, %ymm10
addq %rcx, %rdi
vpmovsxbd 0x6(%r8,%rdi), %ymm1
vcvtdq2ps %ymm1, %ymm11
shll $0x2, %eax
vpmovsxbd 0x6(%r8,%rax), %ymm1
vcvtdq2ps %ymm1, %ymm12
vbroadcastss %xmm0, %ymm13
vbroadcastss 0x25d2c7(%rip), %ymm15 # 0x1f12704
vbroadcastss 0x26ba95(%rip), %ymm16 # 0x1f20edc
vpermps %ymm0, %ymm15, %ymm14
vpermps %ymm0, %ymm16, %ymm0
vmulps %ymm4, %ymm0, %ymm2
vmulps %ymm0, %ymm9, %ymm1
vmulps %ymm0, %ymm12, %ymm0
vfmadd231ps %ymm6, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm6) + ymm2
vfmadd231ps %ymm8, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm8) + ymm1
vfmadd231ps %ymm14, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm14) + ymm0
vfmadd231ps %ymm5, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm5) + ymm2
vfmadd231ps %ymm7, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm7) + ymm1
vfmadd231ps %ymm13, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm13) + ymm0
vbroadcastss %xmm3, %ymm13
vpermps %ymm3, %ymm15, %ymm14
vpermps %ymm3, %ymm16, %ymm3
vmulps %ymm4, %ymm3, %ymm15
vmulps %ymm3, %ymm9, %ymm4
vmulps %ymm3, %ymm12, %ymm3
vfmadd231ps %ymm6, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm6) + ymm15
vfmadd231ps %ymm8, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm8) + ymm4
vfmadd231ps %ymm11, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm11) + ymm3
vfmadd231ps %ymm5, %ymm13, %ymm15 # ymm15 = (ymm13 * ymm5) + ymm15
vfmadd231ps %ymm7, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm7) + ymm4
vbroadcastss 0x26ba0a(%rip), %ymm6 # 0x1f20ec4
vfmadd231ps %ymm10, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm10) + ymm3
vandps %ymm6, %ymm2, %ymm5
vbroadcastss 0x23bb1c(%rip), %ymm7 # 0x1ef0fe8
vcmpltps %ymm7, %ymm5, %k1
vmovaps %ymm7, %ymm2 {%k1}
vandps %ymm6, %ymm1, %ymm5
vcmpltps %ymm7, %ymm5, %k1
vmovaps %ymm7, %ymm1 {%k1}
vandps %ymm6, %ymm0, %ymm5
vcmpltps %ymm7, %ymm5, %k1
vmovaps %ymm7, %ymm0 {%k1}
vrcp14ps %ymm2, %ymm5
vbroadcastss 0x23720a(%rip), %ymm6 # 0x1eec714
vfnmadd213ps %ymm6, %ymm5, %ymm2 # ymm2 = -(ymm5 * ymm2) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm2 # ymm2 = (ymm2 * ymm5) + ymm5
vrcp14ps %ymm1, %ymm5
vfnmadd213ps %ymm6, %ymm5, %ymm1 # ymm1 = -(ymm5 * ymm1) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm1 # ymm1 = (ymm1 * ymm5) + ymm5
vrcp14ps %ymm0, %ymm5
vfnmadd213ps %ymm6, %ymm5, %ymm0 # ymm0 = -(ymm5 * ymm0) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm0 # ymm0 = (ymm0 * ymm5) + ymm5
leaq (,%rcx,8), %rdi
subq %rcx, %rdi
vpmovsxwd 0x6(%r8,%rdi), %ymm5
vcvtdq2ps %ymm5, %ymm5
vsubps %ymm15, %ymm5, %ymm5
vmulps %ymm5, %ymm2, %ymm5
vpmovsxwd 0x6(%r8,%rsi), %ymm6
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm15, %ymm6, %ymm6
leaq (%rcx,%rcx), %rsi
addq %rcx, %rax
shlq $0x3, %r9
subq %rcx, %r9
vpbroadcastd %ecx, %ymm7
shll $0x4, %ecx
vpmovsxwd 0x6(%r8,%rcx), %ymm8
vmulps %ymm6, %ymm2, %ymm2
subq %rsi, %rcx
vpmovsxwd 0x6(%r8,%rcx), %ymm6
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm4, %ymm6, %ymm6
vmulps %ymm6, %ymm1, %ymm6
vcvtdq2ps %ymm8, %ymm8
vsubps %ymm4, %ymm8, %ymm4
vmulps %ymm4, %ymm1, %ymm1
vpmovsxwd 0x6(%r8,%rax), %ymm4
vcvtdq2ps %ymm4, %ymm4
vsubps %ymm3, %ymm4, %ymm4
vmulps %ymm0, %ymm4, %ymm4
vpmovsxwd 0x6(%r8,%r9), %ymm8
vcvtdq2ps %ymm8, %ymm8
vsubps %ymm3, %ymm8, %ymm3
vmulps %ymm3, %ymm0, %ymm0
vpminsd %ymm2, %ymm5, %ymm3
vpminsd %ymm1, %ymm6, %ymm8
vmaxps %ymm8, %ymm3, %ymm3
vpminsd %ymm0, %ymm4, %ymm8
vmaxps 0xc0(%r12,%rdx,4){1to8}, %ymm8, %ymm8
vmaxps %ymm8, %ymm3, %ymm3
vmulps 0x26a916(%rip){1to8}, %ymm3, %ymm3 # 0x1f1ff10
vpmaxsd %ymm2, %ymm5, %ymm2
vpmaxsd %ymm1, %ymm6, %ymm1
vminps %ymm1, %ymm2, %ymm1
vpmaxsd %ymm0, %ymm4, %ymm0
movq %rdx, 0x18(%rsp)
vminps 0x200(%r12,%rdx,4){1to8}, %ymm0, %ymm0
vminps %ymm0, %ymm1, %ymm0
vmulps 0x26a8e9(%rip){1to8}, %ymm0, %ymm0 # 0x1f1ff14
vpcmpgtd 0x2a52eb(%rip), %ymm7, %k0 # 0x1f5a920
vmovaps %ymm3, 0x580(%rsp)
vcmpleps %ymm0, %ymm3, %k1
ktestb %k0, %k1
je 0x1cb812e
kandb %k0, %k1, %k0
kmovd %k0, %eax
movzbl %al, %r10d
leaq 0x8c0(%rsp), %rax
addq $0x1c0, %rax # imm = 0x1C0
movq %rax, 0x1d8(%rsp)
movl $0x1, %eax
movq 0x18(%rsp), %rcx
shlxl %ecx, %eax, %eax
kmovd %eax, %k0
vpmovm2d %k0, %zmm0
vmovdqa64 %zmm0, 0x800(%rsp)
movq %r15, 0x28(%rsp)
movq %r8, 0x1e0(%rsp)
tzcntq %r10, %rax
movl 0x2(%r8), %ecx
movl 0x6(%r8,%rax,4), %edi
movq (%r15), %rax
movq 0x1e8(%rax), %rax
movq %rcx, 0x50(%rsp)
movq (%rax,%rcx,8), %rsi
movq 0x58(%rsi), %rax
movq 0x68(%rsi), %rcx
movq %rcx, %rdx
movq %rdi, 0x130(%rsp)
imulq %rdi, %rdx
movl (%rax,%rdx), %edi
movq 0xa0(%rsi), %rdx
movq %rdx, %r9
imulq %rdi, %r9
movq 0x90(%rsi), %rsi
vmovaps (%rsi,%r9), %xmm1
leaq 0x1(%rdi), %r9
imulq %rdx, %r9
vmovaps (%rsi,%r9), %xmm0
leaq 0x2(%rdi), %r9
imulq %rdx, %r9
vmovaps (%rsi,%r9), %xmm2
blsrq %r10, %r10
addq $0x3, %rdi
imulq %rdx, %rdi
vmovaps (%rsi,%rdi), %xmm3
movq %r10, %rdi
subq $0x1, %rdi
jb 0x1cb5773
andq %r10, %rdi
tzcntq %r10, %r9
movl 0x6(%r8,%r9,4), %r9d
imulq %rcx, %r9
movl (%rax,%r9), %r9d
imulq %rdx, %r9
prefetcht0 (%rsi,%r9)
prefetcht0 0x40(%rsi,%r9)
testq %rdi, %rdi
je 0x1cb5773
tzcntq %rdi, %rdi
movl 0x6(%r8,%rdi,4), %edi
imulq %rdi, %rcx
movl (%rax,%rcx), %eax
imulq %rax, %rdx
prefetcht1 (%rsi,%rdx)
prefetcht1 0x40(%rsi,%rdx)
movq 0x18(%rsp), %rax
vmovss (%r12,%rax,4), %xmm4
vinsertps $0x1c, 0x40(%r12,%rax,4), %xmm4, %xmm4 # xmm4 = xmm4[0],mem[0],zero,zero
vinsertps $0x28, 0x80(%r12,%rax,4), %xmm4, %xmm4 # xmm4 = xmm4[0,1],mem[0],zero
vbroadcastss 0x100(%r12,%rax,4), %ymm30
vbroadcastss 0x140(%r12,%rax,4), %ymm31
vunpcklps %xmm31, %xmm30, %xmm5 # xmm5 = xmm30[0],xmm31[0],xmm30[1],xmm31[1]
vbroadcastss 0x180(%r12,%rax,4), %ymm21
vinsertps $0x28, %xmm21, %xmm5, %xmm9 # xmm9 = xmm5[0,1],xmm21[0],zero
vaddps %xmm0, %xmm1, %xmm5
vmulps 0x2373bc(%rip){1to4}, %xmm5, %xmm5 # 0x1eecb80
vsubps %xmm4, %xmm5, %xmm5
vdpps $0x7f, %xmm9, %xmm5, %xmm5
vmovss 0xc0(%r12,%rax,4), %xmm10
vdpps $0x7f, %xmm9, %xmm9, %xmm11
vxorps %xmm8, %xmm8, %xmm8
vmovss %xmm11, %xmm8, %xmm6
vrcp14ss %xmm6, %xmm8, %xmm6
vmovaps %xmm6, %xmm7
vfnmadd213ss 0x23b7fe(%rip), %xmm11, %xmm7 # xmm7 = -(xmm11 * xmm7) + mem
vmulss %xmm7, %xmm6, %xmm6
vmulss %xmm6, %xmm5, %xmm5
vbroadcastss %xmm5, %ymm6
vmovaps %xmm9, 0x270(%rsp)
vmovaps %ymm6, 0x380(%rsp)
vfmadd231ps %xmm6, %xmm9, %xmm4 # xmm4 = (xmm9 * xmm6) + xmm4
vblendps $0x8, %xmm8, %xmm4, %xmm4 # xmm4 = xmm4[0,1,2],xmm8[3]
vsubps %xmm4, %xmm1, %xmm6
vsubps %xmm4, %xmm2, %xmm7
vsubps %xmm4, %xmm0, %xmm8
vsubps %xmm4, %xmm3, %xmm3
vbroadcastss %xmm6, %ymm0
vmovaps %ymm0, 0x500(%rsp)
vbroadcastss 0x25ceb9(%rip), %ymm0 # 0x1f12704
vpermps %ymm6, %ymm0, %ymm1
vmovaps %ymm1, 0x7a0(%rsp)
vbroadcastss 0x26b67a(%rip), %ymm1 # 0x1f20edc
vpermps %ymm6, %ymm1, %ymm2
vmovaps %ymm2, 0x780(%rsp)
vbroadcastss 0x26b65f(%rip), %ymm2 # 0x1f20ed8
vmovaps %ymm6, 0x2e0(%rsp)
vpermps %ymm6, %ymm2, %ymm4
vmovaps %ymm4, 0x760(%rsp)
vbroadcastss %xmm8, %ymm4
vmovaps %ymm4, 0x740(%rsp)
vpermps %ymm8, %ymm0, %ymm4
vmovaps %ymm4, 0x720(%rsp)
vpermps %ymm8, %ymm1, %ymm4
vmovaps %ymm4, 0x700(%rsp)
vmovaps %ymm8, 0x2a0(%rsp)
vpermps %ymm8, %ymm2, %ymm4
vmovaps %ymm4, 0x6e0(%rsp)
vbroadcastss %xmm7, %ymm4
vmovaps %ymm4, 0x6c0(%rsp)
vpermps %ymm7, %ymm0, %ymm4
vmovaps %ymm4, 0x6a0(%rsp)
vpermps %ymm7, %ymm1, %ymm4
vmovaps %ymm4, 0x680(%rsp)
vmovaps %ymm7, 0x2c0(%rsp)
vpermps %ymm7, %ymm2, %ymm4
vmovaps %ymm4, 0x660(%rsp)
vbroadcastss %xmm3, %ymm4
vmovaps %ymm4, 0x640(%rsp)
vpermps %ymm3, %ymm0, %ymm0
vmovaps %ymm0, 0x620(%rsp)
vpermps %ymm3, %ymm1, %ymm0
vmovaps %ymm0, 0x600(%rsp)
vmovaps %ymm3, 0x280(%rsp)
vpermps %ymm3, %ymm2, %ymm0
vmovaps %ymm0, 0x5e0(%rsp)
vmulss %xmm21, %xmm21, %xmm0
vfmadd231ps %ymm31, %ymm31, %ymm0 # ymm0 = (ymm31 * ymm31) + ymm0
vfmadd231ps %ymm30, %ymm30, %ymm0 # ymm0 = (ymm30 * ymm30) + ymm0
vbroadcastss %xmm0, %ymm0
vmovaps %ymm0, 0x5c0(%rsp)
vandps 0x26b547(%rip){1to8}, %ymm0, %ymm0 # 0x1f20ec4
vmovaps %ymm0, 0x4e0(%rsp)
vmovss %xmm10, 0x5c(%rsp)
vmovaps %xmm5, 0x320(%rsp)
vsubss %xmm5, %xmm10, %xmm0
vbroadcastss %xmm0, %ymm0
vmovaps %ymm0, 0x5a0(%rsp)
movq 0x50(%rsp), %rax
vpbroadcastd %eax, %zmm0
vmovdqa64 %zmm0, 0x880(%rsp)
movl $0x1, %r11d
xorl %r9d, %r9d
movq 0x130(%rsp), %rax
vpbroadcastd %eax, %zmm0
vmovdqa64 %zmm0, 0x840(%rsp)
vsqrtss %xmm11, %xmm11, %xmm0
vmovss %xmm0, 0x14c(%rsp)
vmovaps %xmm11, 0x260(%rsp)
vsqrtss %xmm11, %xmm11, %xmm0
vmovss %xmm0, 0x148(%rsp)
vmovsd 0x236cea(%rip), %xmm2 # 0x1eec6f0
vbroadcastss 0x236d04(%rip), %ymm16 # 0x1eec714
vmovaps %ymm30, 0x240(%rsp)
vmovaps %ymm31, 0x220(%rsp)
vmovaps %ymm21, 0x200(%rsp)
vmovshdup %xmm2, %xmm0 # xmm0 = xmm2[1,1,3,3]
vsubss %xmm2, %xmm0, %xmm0
vmulss 0x26b498(%rip), %xmm0, %xmm1 # 0x1f20ed0
vmovaps %xmm1, 0x60(%rsp)
vmovaps %xmm2, 0x1c0(%rsp)
vbroadcastss %xmm2, %ymm4
vbroadcastss %xmm0, %ymm0
vmovaps %ymm4, 0xa0(%rsp)
vmovaps %ymm0, 0x80(%rsp)
vfmadd231ps 0x26b4b4(%rip), %ymm0, %ymm4 # ymm4 = (ymm0 * mem) + ymm4
vsubps %ymm4, %ymm16, %ymm7
vbroadcastss 0x26b444(%rip), %ymm26 # 0x1f20ec0
vxorps %ymm26, %ymm4, %ymm0
vmulps %ymm0, %ymm7, %ymm0
vmulps %ymm0, %ymm7, %ymm0
vmulps %ymm4, %ymm4, %ymm3
vmovaps %ymm3, 0xc0(%rsp)
vbroadcastss 0x23b54c(%rip), %ymm2 # 0x1ef0fec
vmulps %ymm2, %ymm4, %ymm9
vbroadcastss 0x23b557(%rip), %ymm5 # 0x1ef1004
vaddps %ymm5, %ymm9, %ymm10
vmulps %ymm3, %ymm10, %ymm1
vbroadcastss 0x23b53a(%rip), %ymm3 # 0x1ef0ff8
vaddps %ymm3, %ymm1, %ymm1
vmulps %ymm7, %ymm7, %ymm11
vmulps %ymm2, %ymm7, %ymm8
vaddps %ymm5, %ymm8, %ymm2
vmulps %ymm2, %ymm11, %ymm2
vaddps %ymm3, %ymm2, %ymm2
vxorps %ymm26, %ymm7, %ymm5
vmulps %ymm5, %ymm4, %ymm5
vmulps %ymm5, %ymm4, %ymm5
vbroadcastss 0x237092(%rip), %ymm17 # 0x1eecb80
vmulps %ymm17, %ymm0, %ymm13
vmulps %ymm17, %ymm1, %ymm14
vmulps %ymm17, %ymm2, %ymm15
vmulps %ymm17, %ymm5, %ymm5
vmovaps 0x640(%rsp), %ymm26
vmulps %ymm5, %ymm26, %ymm1
vmovaps 0x620(%rsp), %ymm12
vmulps %ymm5, %ymm12, %ymm0
vmovaps 0x600(%rsp), %ymm16
vmulps %ymm5, %ymm16, %ymm2
vmovaps 0x5e0(%rsp), %ymm6
vmulps %ymm5, %ymm6, %ymm5
vmovaps 0x6c0(%rsp), %ymm25
vfmadd231ps %ymm25, %ymm15, %ymm1 # ymm1 = (ymm15 * ymm25) + ymm1
vmovaps 0x6a0(%rsp), %ymm27
vfmadd231ps %ymm27, %ymm15, %ymm0 # ymm0 = (ymm15 * ymm27) + ymm0
vmovaps 0x680(%rsp), %ymm28
vfmadd231ps %ymm28, %ymm15, %ymm2 # ymm2 = (ymm15 * ymm28) + ymm2
vmovaps 0x660(%rsp), %ymm29
vfmadd231ps %ymm15, %ymm29, %ymm5 # ymm5 = (ymm29 * ymm15) + ymm5
vmovaps 0x740(%rsp), %ymm20
vfmadd231ps %ymm20, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm20) + ymm1
vmovaps 0x720(%rsp), %ymm22
vfmadd231ps %ymm22, %ymm14, %ymm0 # ymm0 = (ymm14 * ymm22) + ymm0
vmovaps 0x700(%rsp), %ymm23
vfmadd231ps %ymm23, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm23) + ymm2
vmovaps 0x6e0(%rsp), %ymm24
vfmadd231ps %ymm14, %ymm24, %ymm5 # ymm5 = (ymm24 * ymm14) + ymm5
vfmadd231ps 0x500(%rsp), %ymm13, %ymm1 # ymm1 = (ymm13 * mem) + ymm1
vmovaps 0x7a0(%rsp), %ymm3
vfmadd231ps %ymm3, %ymm13, %ymm0 # ymm0 = (ymm13 * ymm3) + ymm0
vmovaps 0x780(%rsp), %ymm18
vfmadd231ps %ymm18, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm18) + ymm2
vmovaps 0x760(%rsp), %ymm19
vfmadd231ps %ymm13, %ymm19, %ymm5 # ymm5 = (ymm19 * ymm13) + ymm5
vaddps %ymm7, %ymm7, %ymm13
vmulps %ymm4, %ymm13, %ymm14
vsubps %ymm11, %ymm14, %ymm11
vaddps %ymm4, %ymm4, %ymm15
vmulps %ymm10, %ymm15, %ymm10
vmulps %ymm4, %ymm9, %ymm4
vaddps %ymm4, %ymm10, %ymm4
vaddps 0x23b3f0(%rip){1to8}, %ymm9, %ymm9 # 0x1ef0ff8
vmulps %ymm9, %ymm13, %ymm9
vmulps %ymm7, %ymm8, %ymm7
vsubps %ymm7, %ymm9, %ymm7
vmovaps 0xc0(%rsp), %ymm8
vsubps %ymm14, %ymm8, %ymm8
vmulps %ymm17, %ymm11, %ymm9
vmulps %ymm17, %ymm4, %ymm4
vmulps %ymm17, %ymm7, %ymm7
vmulps %ymm17, %ymm8, %ymm8
vmulps %ymm8, %ymm26, %ymm10
vmulps %ymm8, %ymm12, %ymm12
vmulps %ymm8, %ymm16, %ymm13
vmovaps %ymm2, %ymm26
vmulps %ymm6, %ymm8, %ymm8
vfmadd231ps %ymm25, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm25) + ymm10
vfmadd231ps %ymm27, %ymm7, %ymm12 # ymm12 = (ymm7 * ymm27) + ymm12
vfmadd231ps %ymm28, %ymm7, %ymm13 # ymm13 = (ymm7 * ymm28) + ymm13
vfmadd231ps %ymm7, %ymm29, %ymm8 # ymm8 = (ymm29 * ymm7) + ymm8
vfmadd231ps %ymm20, %ymm4, %ymm10 # ymm10 = (ymm4 * ymm20) + ymm10
vfmadd231ps %ymm22, %ymm4, %ymm12 # ymm12 = (ymm4 * ymm22) + ymm12
vfmadd231ps %ymm23, %ymm4, %ymm13 # ymm13 = (ymm4 * ymm23) + ymm13
vfmadd231ps %ymm4, %ymm24, %ymm8 # ymm8 = (ymm24 * ymm4) + ymm8
vfmadd231ps 0x500(%rsp), %ymm9, %ymm10 # ymm10 = (ymm9 * mem) + ymm10
vfmadd231ps %ymm3, %ymm9, %ymm12 # ymm12 = (ymm9 * ymm3) + ymm12
vfmadd231ps %ymm18, %ymm9, %ymm13 # ymm13 = (ymm9 * ymm18) + ymm13
vfmadd231ps %ymm9, %ymm19, %ymm8 # ymm8 = (ymm19 * ymm9) + ymm8
vbroadcastss 0x60(%rsp), %ymm4
vmulps %ymm4, %ymm10, %ymm11
vmulps %ymm4, %ymm12, %ymm12
vmulps %ymm4, %ymm13, %ymm13
vmulps %ymm4, %ymm8, %ymm6
vmovaps %ymm1, %ymm8
vmovaps 0x2aa05c(%rip), %ymm7 # 0x1f5fd20
vmovaps %ymm31, %ymm3
vxorps %xmm31, %xmm31, %xmm31
vpermt2ps %ymm31, %ymm7, %ymm8
vmovaps %ymm0, %ymm9
vpermt2ps %ymm31, %ymm7, %ymm9
vmovaps %ymm2, %ymm10
vpermt2ps %ymm31, %ymm7, %ymm10
vaddps %ymm6, %ymm5, %ymm4
vmaxps %ymm4, %ymm5, %ymm14
vminps %ymm4, %ymm5, %ymm4
vmovaps %ymm5, %ymm15
vpermt2ps %ymm31, %ymm7, %ymm15
vmovaps %ymm11, %ymm19
vpermt2ps %ymm31, %ymm7, %ymm19
vmovaps %ymm12, %ymm20
vpermt2ps %ymm31, %ymm7, %ymm20
vmovaps %ymm13, %ymm2
vpermt2ps %ymm31, %ymm7, %ymm2
vpermt2ps %ymm31, %ymm7, %ymm6
vsubps %ymm6, %ymm15, %ymm16
vmovaps %ymm8, 0x60(%rsp)
vsubps %ymm1, %ymm8, %ymm7
vsubps %ymm0, %ymm9, %ymm6
vsubps %ymm26, %ymm10, %ymm5
vmulps %ymm13, %ymm6, %ymm17
vfmsub231ps %ymm5, %ymm12, %ymm17 # ymm17 = (ymm12 * ymm5) - ymm17
vmulps %ymm11, %ymm5, %ymm18
vfmsub231ps %ymm7, %ymm13, %ymm18 # ymm18 = (ymm13 * ymm7) - ymm18
vmulps %ymm12, %ymm7, %ymm22
vfmsub231ps %ymm6, %ymm11, %ymm22 # ymm22 = (ymm11 * ymm6) - ymm22
vmulps %ymm22, %ymm22, %ymm22
vfmadd231ps %ymm18, %ymm18, %ymm22 # ymm22 = (ymm18 * ymm18) + ymm22
vfmadd231ps %ymm17, %ymm17, %ymm22 # ymm22 = (ymm17 * ymm17) + ymm22
vmulps %ymm5, %ymm5, %ymm17
vfmadd231ps %ymm6, %ymm6, %ymm17 # ymm17 = (ymm6 * ymm6) + ymm17
vfmadd231ps %ymm7, %ymm7, %ymm17 # ymm17 = (ymm7 * ymm7) + ymm17
vrcp14ps %ymm17, %ymm18
vmovaps %ymm18, %ymm23
vbroadcastss 0x236974(%rip), %ymm24 # 0x1eec714
vmovaps %ymm24, %ymm8
vfnmadd213ps %ymm24, %ymm17, %ymm23 # ymm23 = -(ymm17 * ymm23) + ymm24
vfmadd132ps %ymm18, %ymm18, %ymm23 # ymm23 = (ymm23 * ymm18) + ymm18
vmulps %ymm23, %ymm22, %ymm18
vmulps %ymm2, %ymm6, %ymm22
vfmsub231ps %ymm5, %ymm20, %ymm22 # ymm22 = (ymm20 * ymm5) - ymm22
vmulps %ymm19, %ymm5, %ymm24
vfmsub231ps %ymm7, %ymm2, %ymm24 # ymm24 = (ymm2 * ymm7) - ymm24
vmulps %ymm20, %ymm7, %ymm25
vfmsub231ps %ymm6, %ymm19, %ymm25 # ymm25 = (ymm19 * ymm6) - ymm25
vmulps %ymm25, %ymm25, %ymm25
vfmadd231ps %ymm24, %ymm24, %ymm25 # ymm25 = (ymm24 * ymm24) + ymm25
vfmadd231ps %ymm22, %ymm22, %ymm25 # ymm25 = (ymm22 * ymm22) + ymm25
vmulps %ymm23, %ymm25, %ymm22
vmaxps %ymm22, %ymm18, %ymm18
vsqrtps %ymm18, %ymm18
vmaxps %ymm15, %ymm16, %ymm22
vmaxps %ymm22, %ymm14, %ymm14
vaddps %ymm14, %ymm18, %ymm14
vminps %ymm15, %ymm16, %ymm15
vminps %ymm15, %ymm4, %ymm4
vsubps %ymm18, %ymm4, %ymm4
vmulps 0x23ab13(%rip){1to8}, %ymm14, %ymm14 # 0x1ef0940
vmulps 0x23ab0d(%rip){1to8}, %ymm4, %ymm4 # 0x1ef0944
vmovaps %ymm4, 0xc0(%rsp)
vmulps %ymm14, %ymm14, %ymm4
vrsqrt14ps %ymm17, %ymm15
vmulps 0x2368c7(%rip){1to8}, %ymm17, %ymm14 # 0x1eec71c
vmulps %ymm14, %ymm15, %ymm14
vmulps %ymm15, %ymm15, %ymm16
vmulps %ymm14, %ymm16, %ymm14
vfmadd231ps 0x2368a8(%rip){1to8}, %ymm15, %ymm14 # ymm14 = (ymm15 * mem) + ymm14
vmulps %ymm7, %ymm14, %ymm15
vmulps %ymm14, %ymm6, %ymm16
vmulps %ymm14, %ymm5, %ymm18
vmovaps %ymm1, 0x180(%rsp)
vsubps %ymm1, %ymm31, %ymm27
vmovaps %ymm0, 0x3e0(%rsp)
vsubps %ymm0, %ymm31, %ymm28
vmovaps %ymm26, 0x1a0(%rsp)
vsubps %ymm26, %ymm31, %ymm29
vmulps %ymm29, %ymm21, %ymm22
vfmadd231ps %ymm28, %ymm3, %ymm22 # ymm22 = (ymm3 * ymm28) + ymm22
vfmadd231ps %ymm27, %ymm30, %ymm22 # ymm22 = (ymm30 * ymm27) + ymm22
vmulps %ymm29, %ymm29, %ymm24
vfmadd231ps %ymm28, %ymm28, %ymm24 # ymm24 = (ymm28 * ymm28) + ymm24
vfmadd231ps %ymm27, %ymm27, %ymm24 # ymm24 = (ymm27 * ymm27) + ymm24
vmulps %ymm18, %ymm21, %ymm17
vfmadd231ps %ymm3, %ymm16, %ymm17 # ymm17 = (ymm16 * ymm3) + ymm17
vfmadd231ps %ymm30, %ymm15, %ymm17 # ymm17 = (ymm15 * ymm30) + ymm17
vmulps %ymm18, %ymm29, %ymm18
vfmadd231ps %ymm16, %ymm28, %ymm18 # ymm18 = (ymm28 * ymm16) + ymm18
vfmadd231ps %ymm15, %ymm27, %ymm18 # ymm18 = (ymm27 * ymm15) + ymm18
vmulps %ymm17, %ymm17, %ymm0
vmovaps 0x5c0(%rsp), %ymm1
vsubps %ymm0, %ymm1, %ymm15
vmulps %ymm18, %ymm17, %ymm25
vsubps %ymm25, %ymm22, %ymm22
vaddps %ymm22, %ymm22, %ymm22
vmulps %ymm18, %ymm18, %ymm25
vsubps %ymm25, %ymm24, %ymm21
vsubps %ymm4, %ymm21, %ymm4
vmulps %ymm22, %ymm22, %ymm25
vmulps 0x236c51(%rip){1to8}, %ymm15, %ymm24 # 0x1eecb8c
vmulps %ymm4, %ymm24, %ymm30
vsubps %ymm30, %ymm25, %ymm30
vcmpnltps %ymm31, %ymm30, %k1
kmovd %k1, %eax
kortestb %k1, %k1
je 0x1cb6039
vsqrtps %ymm30, %ymm30
vaddps %ymm15, %ymm15, %ymm31
vrcp14ps %ymm31, %ymm3
vfnmadd213ps %ymm8, %ymm3, %ymm31 # ymm31 = -(ymm3 * ymm31) + ymm8
vfmadd132ps %ymm3, %ymm3, %ymm31 # ymm31 = (ymm31 * ymm3) + ymm3
vxorps 0x26af3c(%rip){1to8}, %ymm22, %ymm3 # 0x1f20ec0
vsubps %ymm30, %ymm3, %ymm3
vmulps %ymm31, %ymm3, %ymm3
vsubps %ymm22, %ymm30, %ymm30
vmulps %ymm31, %ymm30, %ymm31
vmovaps %ymm17, %ymm30
vfmadd213ps %ymm18, %ymm3, %ymm30 # ymm30 = (ymm3 * ymm30) + ymm18
vmulps %ymm30, %ymm14, %ymm30
vmovaps %ymm30, 0x4a0(%rsp)
vmovaps %ymm17, %ymm30
vfmadd213ps %ymm18, %ymm31, %ymm30 # ymm30 = (ymm31 * ymm30) + ymm18
vmulps %ymm30, %ymm14, %ymm30
vmovaps %ymm30, 0x480(%rsp)
vbroadcastss 0x235a46(%rip), %ymm16 # 0x1eeba20
vblendmps %ymm3, %ymm16, %ymm30 {%k1}
vbroadcastss 0x236b9b(%rip), %ymm3 # 0x1eecb84
vblendmps %ymm31, %ymm3, %ymm31 {%k1}
vbroadcastss 0x26aecb(%rip), %ymm23 # 0x1f20ec4
vandps %ymm23, %ymm0, %ymm3
vmovaps 0x4e0(%rsp), %ymm1
vmaxps %ymm3, %ymm1, %ymm3
vmulps 0x23be9e(%rip){1to8}, %ymm3, %ymm3 # 0x1ef1eb4
vandps %ymm23, %ymm15, %ymm23
vcmpltps %ymm3, %ymm23, %k1 {%k1}
kortestb %k1, %k1
jne 0x1cb80ba
vbroadcastss 0x2366dd(%rip), %ymm16 # 0x1eec714
jmp 0x1cb6053
vbroadcastss 0x2359dd(%rip), %ymm30 # 0x1eeba20
vbroadcastss 0x236b37(%rip), %ymm31 # 0x1eecb84
vmovaps %ymm8, %ymm16
andb $0x7f, %al
je 0x1cb645e
vmovaps %ymm21, 0x3c0(%rsp)
vmovaps %ymm0, 0x3a0(%rsp)
movq 0x18(%rsp), %rcx
vmovss 0x200(%r12,%rcx,4), %xmm3
vsubss 0x320(%rsp), %xmm3, %xmm3
vbroadcastss %xmm3, %ymm3
vminps %ymm31, %ymm3, %ymm3
vmovaps 0x5a0(%rsp), %ymm1
vmaxps %ymm30, %ymm1, %ymm4
vmulps %ymm13, %ymm29, %ymm23
vfmadd213ps %ymm23, %ymm12, %ymm28 # ymm28 = (ymm12 * ymm28) + ymm23
vfmadd213ps %ymm28, %ymm11, %ymm27 # ymm27 = (ymm11 * ymm27) + ymm28
vmovaps 0x200(%rsp), %ymm21
vmulps %ymm13, %ymm21, %ymm13
vmovaps 0x220(%rsp), %ymm31
vfmadd231ps %ymm12, %ymm31, %ymm13 # ymm13 = (ymm31 * ymm12) + ymm13
vmovaps 0x240(%rsp), %ymm30
vfmadd231ps %ymm11, %ymm30, %ymm13 # ymm13 = (ymm30 * ymm11) + ymm13
vbroadcastss 0x26ade0(%rip), %ymm28 # 0x1f20ec4
vandps %ymm28, %ymm13, %ymm11
vbroadcastss 0x23aef4(%rip), %ymm29 # 0x1ef0fe8
vcmpltps %ymm29, %ymm11, %k0
vbroadcastss 0x26adbb(%rip), %ymm26 # 0x1f20ec0
vxorps %ymm26, %ymm27, %ymm11
vrcp14ps %ymm13, %ymm12
vxorps %ymm26, %ymm13, %ymm23
vmovaps %ymm12, %ymm27
vfnmadd213ps %ymm16, %ymm13, %ymm27 # ymm27 = -(ymm13 * ymm27) + ymm16
vfmadd132ps %ymm12, %ymm12, %ymm27 # ymm27 = (ymm27 * ymm12) + ymm12
vmulps %ymm11, %ymm27, %ymm11
vcmpltps %ymm23, %ymm13, %k1
korb %k1, %k0, %k1
vbroadcastss 0x236a40(%rip), %ymm27 # 0x1eecb84
vblendmps %ymm27, %ymm11, %ymm12 {%k1}
vmaxps %ymm12, %ymm4, %ymm4
vcmpnleps %ymm23, %ymm13, %k1
korb %k1, %k0, %k1
vbroadcastss 0x2358bd(%rip), %ymm13 # 0x1eeba20
vmovaps %ymm13, %ymm11 {%k1}
vminps %ymm11, %ymm3, %ymm3
vxorps %xmm23, %xmm23, %xmm23
vsubps 0x60(%rsp), %ymm23, %ymm8
vsubps %ymm9, %ymm23, %ymm9
vsubps %ymm10, %ymm23, %ymm10
vmulps %ymm2, %ymm10, %ymm10
vfnmsub231ps %ymm9, %ymm20, %ymm10 # ymm10 = -(ymm20 * ymm9) - ymm10
vfnmadd231ps %ymm8, %ymm19, %ymm10 # ymm10 = -(ymm19 * ymm8) + ymm10
vmulps %ymm2, %ymm21, %ymm8
vfnmsub231ps %ymm20, %ymm31, %ymm8 # ymm8 = -(ymm31 * ymm20) - ymm8
vfnmadd231ps %ymm19, %ymm30, %ymm8 # ymm8 = -(ymm30 * ymm19) + ymm8
vandps %ymm28, %ymm8, %ymm9
vcmpltps %ymm29, %ymm9, %k0
vxorps %ymm26, %ymm10, %ymm9
vrcp14ps %ymm8, %ymm10
vxorps %ymm26, %ymm8, %ymm11
vmovaps %ymm10, %ymm12
vfnmadd213ps %ymm16, %ymm8, %ymm12 # ymm12 = -(ymm8 * ymm12) + ymm16
vfmadd132ps %ymm10, %ymm10, %ymm12 # ymm12 = (ymm12 * ymm10) + ymm10
vmulps %ymm9, %ymm12, %ymm9
vcmpltps %ymm11, %ymm8, %k1
korb %k1, %k0, %k1
vblendmps %ymm27, %ymm9, %ymm10 {%k1}
vmaxps %ymm10, %ymm4, %ymm0
vcmpnleps %ymm11, %ymm8, %k1
korb %k1, %k0, %k1
vmovaps %ymm13, %ymm9 {%k1}
vminps %ymm9, %ymm3, %ymm8
vmovaps %ymm0, 0x360(%rsp)
vcmpleps %ymm8, %ymm0, %k0
kmovd %k0, %ecx
andb %cl, %al
je 0x1cb7fa6
vmovaps 0x4a0(%rsp), %ymm3
vmaxps 0xc0(%rsp), %ymm23, %ymm4
vminps %ymm16, %ymm3, %ymm3
vxorps %xmm10, %xmm10, %xmm10
vmaxps %ymm10, %ymm3, %ymm3
vmovaps 0x480(%rsp), %ymm9
vminps %ymm16, %ymm9, %ymm9
vmovaps 0x26ace2(%rip), %ymm11 # 0x1f20f40
vaddps %ymm3, %ymm11, %ymm3
vbroadcastss 0x26824d(%rip), %ymm12 # 0x1f1e4b8
vmulps %ymm3, %ymm12, %ymm3
vmovaps 0xa0(%rsp), %ymm0
vmovaps 0x80(%rsp), %ymm1
vfmadd213ps %ymm0, %ymm1, %ymm3 # ymm3 = (ymm1 * ymm3) + ymm0
vmovaps %ymm3, 0x4a0(%rsp)
vmaxps %ymm10, %ymm9, %ymm3
vaddps %ymm3, %ymm11, %ymm3
vmulps %ymm3, %ymm12, %ymm3
vfmadd213ps %ymm0, %ymm1, %ymm3 # ymm3 = (ymm1 * ymm3) + ymm0
vmovaps %ymm3, 0x480(%rsp)
vmulps %ymm4, %ymm4, %ymm3
vmovaps 0x3c0(%rsp), %ymm0
vsubps %ymm3, %ymm0, %ymm11
vmulps %ymm11, %ymm24, %ymm3
vsubps %ymm3, %ymm25, %ymm3
vcmpnltps %ymm10, %ymm3, %k0
kortestb %k0, %k0
je 0x1cb647b
vxorps %xmm20, %xmm20, %xmm20
vcmpnltps %ymm23, %ymm3, %k1
vsqrtps %ymm3, %ymm3
vaddps %ymm15, %ymm15, %ymm4
vrcp14ps %ymm4, %ymm9
vfnmadd213ps %ymm16, %ymm9, %ymm4 # ymm4 = -(ymm9 * ymm4) + ymm16
vfmadd132ps %ymm9, %ymm9, %ymm4 # ymm4 = (ymm4 * ymm9) + ymm9
vxorps 0x26abb7(%rip){1to8}, %ymm22, %ymm9 # 0x1f20ec0
vsubps %ymm3, %ymm9, %ymm9
vmulps %ymm4, %ymm9, %ymm12
vsubps %ymm22, %ymm3, %ymm3
vmulps %ymm4, %ymm3, %ymm13
vmovaps %ymm17, %ymm3
vfmadd213ps %ymm18, %ymm12, %ymm3 # ymm3 = (ymm12 * ymm3) + ymm18
vmulps %ymm3, %ymm14, %ymm9
vmulps %ymm12, %ymm30, %ymm3
vmulps %ymm12, %ymm31, %ymm4
vmulps %ymm12, %ymm21, %ymm10
vmovaps %ymm7, %ymm19
vmovaps 0x180(%rsp), %ymm1
vfmadd213ps %ymm1, %ymm9, %ymm19 # ymm19 = (ymm9 * ymm19) + ymm1
vsubps %ymm19, %ymm3, %ymm3
vmovaps %ymm6, %ymm19
vmovaps 0x3e0(%rsp), %ymm0
vfmadd213ps %ymm0, %ymm9, %ymm19 # ymm19 = (ymm9 * ymm19) + ymm0
vsubps %ymm19, %ymm4, %ymm4
vmovaps 0x1a0(%rsp), %ymm2
vfmadd213ps %ymm2, %ymm5, %ymm9 # ymm9 = (ymm5 * ymm9) + ymm2
vsubps %ymm9, %ymm10, %ymm9
vfmadd213ps %ymm18, %ymm13, %ymm17 # ymm17 = (ymm13 * ymm17) + ymm18
vmulps %ymm17, %ymm14, %ymm14
vmulps %ymm13, %ymm30, %ymm10
vmulps %ymm13, %ymm31, %ymm17
vmulps %ymm13, %ymm21, %ymm18
vfmadd213ps %ymm1, %ymm14, %ymm7 # ymm7 = (ymm14 * ymm7) + ymm1
vsubps %ymm7, %ymm10, %ymm10
vfmadd213ps %ymm0, %ymm14, %ymm6 # ymm6 = (ymm14 * ymm6) + ymm0
vsubps %ymm6, %ymm17, %ymm1
vfmadd213ps %ymm2, %ymm14, %ymm5 # ymm5 = (ymm14 * ymm5) + ymm2
vsubps %ymm5, %ymm18, %ymm5
vbroadcastss 0x235654(%rip), %ymm0 # 0x1eeba20
vblendmps %ymm12, %ymm0, %ymm2 {%k1}
vbroadcastss 0x2367a9(%rip), %ymm0 # 0x1eecb84
vblendmps %ymm13, %ymm0, %ymm0 {%k1}
vbroadcastss 0x26aada(%rip), %ymm7 # 0x1f20ec4
vandps 0x3a0(%rsp), %ymm7, %ymm6
vmovaps 0x4e0(%rsp), %ymm12
vmaxps %ymm6, %ymm12, %ymm6
vmulps 0x23baaa(%rip){1to8}, %ymm6, %ymm6 # 0x1ef1eb4
vandps %ymm7, %ymm15, %ymm7
vcmpltps %ymm6, %ymm7, %k1 {%k1}
kortestb %k1, %k1
je 0x1cb64a2
vcmpleps %ymm20, %ymm11, %k2
vbroadcastss 0x236755(%rip), %ymm7 # 0x1eecb84
vbroadcastss 0x2355e8(%rip), %ymm11 # 0x1eeba20
vblendmps %ymm7, %ymm11, %ymm6 {%k2}
vmovaps %ymm6, %ymm2 {%k1}
vblendmps %ymm11, %ymm7, %ymm6 {%k2}
vmovaps %ymm6, %ymm0 {%k1}
knotb %k1, %k1
korb %k2, %k1, %k1
kandb %k0, %k1, %k0
jmp 0x1cb64a2
vmovaps 0x240(%rsp), %ymm30
vmovaps 0x220(%rsp), %ymm31
vmovaps 0x200(%rsp), %ymm21
jmp 0x1cb7fa6
vxorps %xmm1, %xmm1, %xmm1
vxorps %xmm5, %xmm5, %xmm5
vxorps %xmm3, %xmm3, %xmm3
vxorps %xmm4, %xmm4, %xmm4
vxorps %xmm9, %xmm9, %xmm9
vbroadcastss 0x235587(%rip), %ymm2 # 0x1eeba20
vbroadcastss 0x2366e2(%rip), %ymm0 # 0x1eecb84
vbroadcastss 0x26aa19(%rip), %xmm11 # 0x1f20ec4
vmulps %ymm5, %ymm21, %ymm5
vfmadd231ps %ymm1, %ymm31, %ymm5 # ymm5 = (ymm31 * ymm1) + ymm5
vfmadd231ps %ymm10, %ymm30, %ymm5 # ymm5 = (ymm30 * ymm10) + ymm5
vmovaps 0x360(%rsp), %ymm7
vmovaps %ymm7, 0x7c0(%rsp)
vminps %ymm2, %ymm8, %ymm1
vmovaps %ymm1, 0x7e0(%rsp)
vbroadcastss 0x26a9df(%rip), %ymm6 # 0x1f20ec4
vandps %ymm6, %ymm5, %ymm2
vmaxps %ymm0, %ymm7, %ymm5
vmovaps %ymm5, 0x520(%rsp)
vmovaps %ymm8, 0x540(%rsp)
vbroadcastss 0x26a9cc(%rip), %ymm0 # 0x1f20ed4
vcmpltps %ymm0, %ymm2, %k1
kmovd %k1, 0x144(%rsp)
vcmpleps %ymm1, %ymm7, %k1
kmovd %k1, %ecx
andb %al, %cl
vmovaps %ymm5, 0x440(%rsp)
vcmpleps %ymm8, %ymm5, %k1
kmovd %k1, %edx
andb %al, %dl
movl %edx, %eax
orb %cl, %al
je 0x1cb7f70
vmovaps %ymm0, %ymm2
movl %edx, 0x34(%rsp)
movq %r9, 0x1f0(%rsp)
movq %r10, 0x1f8(%rsp)
knotb %k0, %k1
vmulps %ymm9, %ymm21, %ymm0
vfmadd213ps %ymm0, %ymm31, %ymm4 # ymm4 = (ymm31 * ymm4) + ymm0
vfmadd213ps %ymm4, %ymm30, %ymm3 # ymm3 = (ymm30 * ymm3) + ymm4
vandps %ymm6, %ymm3, %ymm0
vcmpltps %ymm2, %ymm0, %k0
kmovd %k1, 0x13c(%rsp)
korb %k1, %k0, %k1
vpbroadcastd 0x26a946(%rip), %ymm0 # 0x1f20edc
vpblendmd 0x26a938(%rip){1to8}, %ymm0, %ymm0 {%k1} # 0x1f20ed8
movq %r11, 0x1e8(%rsp)
vpbroadcastd %r11d, %ymm1
vmovdqa %ymm0, 0x560(%rsp)
vmovdqa %ymm1, 0x4c0(%rsp)
vpcmpnltd %ymm0, %ymm1, %k0
kmovd %k0, %ebx
movl %ecx, 0x140(%rsp)
andb %cl, %bl
je 0x1cb71f9
vmovaps 0x2e0(%rsp), %ymm1
vmovaps 0x2a0(%rsp), %ymm2
vminps %xmm2, %xmm1, %xmm0
vmaxps %xmm2, %xmm1, %xmm1
vmovaps 0x2c0(%rsp), %ymm3
vmovaps 0x280(%rsp), %ymm4
vminps %xmm4, %xmm3, %xmm2
vminps %xmm2, %xmm0, %xmm0
vmaxps %xmm4, %xmm3, %xmm2
vmaxps %xmm2, %xmm1, %xmm1
vandps %xmm0, %xmm11, %xmm0
vandps %xmm1, %xmm11, %xmm2
vmaxps %xmm2, %xmm0, %xmm0
vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3]
vmaxss %xmm0, %xmm2, %xmm2
vshufpd $0x1, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[1,0]
vmaxss %xmm2, %xmm0, %xmm0
vmulss 0x23b879(%rip), %xmm0, %xmm0 # 0x1ef1eb4
vmovss %xmm0, 0x44(%rsp)
vshufps $0xff, %xmm1, %xmm1, %xmm0 # xmm0 = xmm1[3,3,3,3]
vmovaps %xmm0, 0x310(%rsp)
vmovaps 0x360(%rsp), %ymm0
vaddps 0x380(%rsp), %ymm0, %ymm0
vmovaps %ymm0, 0x460(%rsp)
kmovd %ebx, %k1
vbroadcastss 0x2353a9(%rip), %ymm0 # 0x1eeba20
vblendmps 0x360(%rsp), %ymm0, %ymm0 {%k1}
vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm0, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1]
vminps %ymm2, %ymm1, %ymm1
vcmpeqps %ymm1, %ymm0, %k0
kmovd %k0, %eax
andb %bl, %al
movzbl %al, %eax
movzbl %bl, %ecx
cmovnel %eax, %ecx
tzcntl %ecx, %ecx
movb $0x1, %bl
shlb %cl, %bl
shll $0x2, %ecx
vmovss 0x4a0(%rsp,%rcx), %xmm9
vmovss 0x7c0(%rsp,%rcx), %xmm8
vmovaps 0x260(%rsp), %xmm0
vucomiss 0x235345(%rip), %xmm0 # 0x1eeba24
vmovss 0x148(%rsp), %xmm0
jae 0x1cb672b
vmovaps 0x260(%rsp), %xmm0
vmovaps %xmm9, 0x60(%rsp)
vmovaps %xmm8, 0x80(%rsp)
kmovw %k1, 0xc0(%rsp)
vzeroupper
callq 0x6aa20
kmovw 0xc0(%rsp), %k1
vmovaps 0x80(%rsp), %xmm8
vmovaps 0x60(%rsp), %xmm9
movzbl %bl, %eax
kmovd %eax, %k0
kandnb %k1, %k0, %k0
kmovd %k0, %ebx
vmulss 0x23b772(%rip), %xmm0, %xmm0 # 0x1ef1eb4
vmovss %xmm0, 0x48(%rsp)
movl $0x4, %r14d
vmovaps %xmm8, 0x80(%rsp)
vbroadcastss %xmm8, %xmm0
vxorps %xmm1, %xmm1, %xmm1
vfmadd132ps 0x270(%rsp), %xmm1, %xmm0 # xmm0 = (xmm0 * mem) + xmm1
vmovss 0x235fa2(%rip), %xmm1 # 0x1eec714
vsubss %xmm9, %xmm1, %xmm11
vbroadcastss 0x26a740(%rip), %xmm6 # 0x1f20ec0
vxorps %xmm6, %xmm9, %xmm1
vmulss %xmm1, %xmm11, %xmm1
vmulss %xmm1, %xmm11, %xmm1
vmulss %xmm9, %xmm9, %xmm12
vmovss 0x23a853(%rip), %xmm8 # 0x1ef0fec
vmovaps %xmm8, %xmm10
vmovss 0x23a85e(%rip), %xmm7 # 0x1ef1004
vfmadd213ss %xmm7, %xmm9, %xmm10 # xmm10 = (xmm9 * xmm10) + xmm7
vmovaps %xmm10, %xmm2
vmovss 0x23a841(%rip), %xmm5 # 0x1ef0ff8
vfmadd213ss %xmm5, %xmm12, %xmm2 # xmm2 = (xmm12 * xmm2) + xmm5
vmulss %xmm11, %xmm11, %xmm3
vmovaps %xmm8, %xmm4
vfmadd213ss %xmm7, %xmm11, %xmm4 # xmm4 = (xmm11 * xmm4) + xmm7
vfmadd213ss %xmm5, %xmm3, %xmm4 # xmm4 = (xmm3 * xmm4) + xmm5
vxorps %xmm6, %xmm11, %xmm3
vmulss %xmm3, %xmm9, %xmm3
vmulss %xmm3, %xmm9, %xmm3
vmovss 0x23639d(%rip), %xmm5 # 0x1eecb80
vmulss %xmm5, %xmm1, %xmm1
vmulss %xmm5, %xmm2, %xmm2
vmulss %xmm5, %xmm4, %xmm4
vmulss %xmm5, %xmm3, %xmm3
vbroadcastss %xmm3, %xmm3
vmulps 0x280(%rsp), %xmm3, %xmm3
vbroadcastss %xmm4, %xmm4
vfmadd132ps 0x2c0(%rsp), %xmm3, %xmm4 # xmm4 = (xmm4 * mem) + xmm3
vbroadcastss %xmm2, %xmm2
vfmadd132ps 0x2a0(%rsp), %xmm4, %xmm2 # xmm2 = (xmm2 * mem) + xmm4
vbroadcastss %xmm1, %xmm3
vfmadd132ps 0x2e0(%rsp), %xmm2, %xmm3 # xmm3 = (xmm3 * mem) + xmm2
vmulss 0x23a1a6(%rip), %xmm11, %xmm6 # 0x1ef09dc
vfmadd231ss 0x23a7c9(%rip), %xmm9, %xmm7 # xmm7 = (xmm9 * mem) + xmm7
vmovaps %xmm7, 0x3c0(%rsp)
vmovss 0x23a7bc(%rip), %xmm1 # 0x1ef100c
vfmadd213ss 0x236333(%rip), %xmm9, %xmm1 # xmm1 = (xmm9 * xmm1) + mem
vmovaps %xmm1, 0x3a0(%rsp)
vfmadd213ss 0x23a161(%rip), %xmm9, %xmm8 # xmm8 = (xmm9 * xmm8) + mem
vmovaps %xmm8, 0x350(%rsp)
vmovaps %xmm3, 0x3e0(%rsp)
vsubps %xmm3, %xmm0, %xmm0
vmovaps %xmm0, 0xc0(%rsp)
vdpps $0x7f, %xmm0, %xmm0, %xmm0
vucomiss 0x23518c(%rip), %xmm0 # 0x1eeba24
vmovaps %xmm9, 0x60(%rsp)
vmovaps %xmm0, 0xa0(%rsp)
jb 0x1cb68af
vsqrtss %xmm0, %xmm0, %xmm7
jmp 0x1cb6909
vmovss %xmm10, 0x1a0(%rsp)
vmovaps %xmm11, 0x180(%rsp)
vmovss %xmm12, 0x120(%rsp)
vmovss %xmm6, 0x110(%rsp)
vzeroupper
callq 0x6aa20
vmovss 0x110(%rsp), %xmm6
vmovss 0x120(%rsp), %xmm12
vmovaps 0x180(%rsp), %xmm11
vmovss 0x1a0(%rsp), %xmm10
vmovaps 0x60(%rsp), %xmm9
vmovaps %xmm0, %xmm7
vaddss %xmm11, %xmm11, %xmm0
vmulss %xmm0, %xmm9, %xmm1
vfnmadd231ss %xmm11, %xmm11, %xmm1 # xmm1 = -(xmm11 * xmm11) + xmm1
vaddss %xmm9, %xmm9, %xmm2
vmovss 0x23a6c8(%rip), %xmm4 # 0x1ef0fec
vmulss %xmm4, %xmm9, %xmm3
vmulss %xmm3, %xmm9, %xmm3
vfmadd213ss %xmm3, %xmm2, %xmm10 # xmm10 = (xmm2 * xmm10) + xmm3
vmovaps %xmm4, %xmm2
vmovss 0x23a6bb(%rip), %xmm4 # 0x1ef0ff8
vfmadd213ss %xmm4, %xmm9, %xmm2 # xmm2 = (xmm9 * xmm2) + xmm4
vmulss 0x23a6a6(%rip), %xmm11, %xmm3 # 0x1ef0ff0
vmulss %xmm3, %xmm11, %xmm3
vfmadd231ss %xmm2, %xmm0, %xmm3 # xmm3 = (xmm0 * xmm2) + xmm3
vfmadd213ss %xmm12, %xmm9, %xmm6 # xmm6 = (xmm9 * xmm6) + xmm12
vmovss 0x236220(%rip), %xmm5 # 0x1eecb80
vmulss %xmm5, %xmm1, %xmm0
vmulss %xmm5, %xmm10, %xmm1
vmulss %xmm5, %xmm3, %xmm2
vmulss %xmm5, %xmm6, %xmm3
vbroadcastss %xmm3, %xmm3
vmulps 0x280(%rsp), %xmm3, %xmm3
vbroadcastss %xmm2, %xmm2
vfmadd132ps 0x2c0(%rsp), %xmm3, %xmm2 # xmm2 = (xmm2 * mem) + xmm3
vbroadcastss %xmm1, %xmm1
vfmadd132ps 0x2a0(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2
vbroadcastss %xmm0, %xmm13
vfmadd132ps 0x2e0(%rsp), %xmm1, %xmm13 # xmm13 = (xmm13 * mem) + xmm1
vdpps $0x7f, %xmm13, %xmm13, %xmm0
vxorps %xmm1, %xmm1, %xmm1
vmovss %xmm0, %xmm1, %xmm2 # xmm2 = xmm0[0],xmm1[1,2,3]
vrsqrt14ss %xmm2, %xmm1, %xmm3
vmulss 0x235d51(%rip), %xmm3, %xmm5 # 0x1eec718
vmulss 0x235d4d(%rip), %xmm0, %xmm6 # 0x1eec71c
vrcp14ss %xmm2, %xmm1, %xmm2
vxorps 0x26a4e1(%rip){1to4}, %xmm0, %xmm1 # 0x1f20ec0
vmovaps %xmm2, 0x110(%rsp)
vfnmadd213ss %xmm4, %xmm0, %xmm2 # xmm2 = -(xmm0 * xmm2) + xmm4
vmovss %xmm2, 0x4c(%rsp)
vucomiss %xmm1, %xmm0
vmovaps %xmm13, 0x1a0(%rsp)
vmovss %xmm7, 0x180(%rsp)
vmovaps %xmm0, 0x120(%rsp)
jb 0x1cb6a1c
vsqrtss %xmm0, %xmm0, %xmm16
jmp 0x1cb6a6c
vmovaps %xmm3, 0x100(%rsp)
vmovss %xmm5, 0x24(%rsp)
vmovss %xmm6, 0xf0(%rsp)
vzeroupper
callq 0x6aa20
vmovss 0xf0(%rsp), %xmm6
vmovss 0x24(%rsp), %xmm5
vmovaps 0x100(%rsp), %xmm3
vmovss 0x180(%rsp), %xmm7
vmovaps 0x1a0(%rsp), %xmm13
vmovaps %xmm0, %xmm16
vmovaps 0xc0(%rsp), %xmm10
vmovaps 0xa0(%rsp), %xmm19
vmulss %xmm3, %xmm6, %xmm0
vmulss %xmm3, %xmm3, %xmm1
vmulss %xmm1, %xmm0, %xmm0
vaddss %xmm0, %xmm5, %xmm0
vbroadcastss %xmm0, %xmm4
vmulps %xmm4, %xmm13, %xmm0
vmovaps %xmm0, 0x100(%rsp)
vdpps $0x7f, %xmm0, %xmm10, %xmm15
vaddss 0x235c67(%rip), %xmm7, %xmm14 # 0x1eec714
vmulps %xmm15, %xmm15, %xmm0
vsubps %xmm0, %xmm19, %xmm0
vxorps %xmm2, %xmm2, %xmm2
vmovss %xmm0, %xmm2, %xmm1 # xmm1 = xmm0[0],xmm2[1,2,3]
vrsqrt14ss %xmm1, %xmm2, %xmm18
vmulss 0x235c48(%rip), %xmm18, %xmm17 # 0x1eec718
vmulss 0x235c42(%rip), %xmm0, %xmm20 # 0x1eec71c
vucomiss 0x234f42(%rip), %xmm0 # 0x1eeba24
jb 0x1cb6aed
vsqrtss %xmm0, %xmm0, %xmm0
jmp 0x1cb6b88
vmovss %xmm14, 0x24(%rsp)
vmovaps %xmm15, 0xf0(%rsp)
vmovss %xmm16, 0x40(%rsp)
vmovss %xmm17, 0x3c(%rsp)
vmovaps %xmm18, 0x340(%rsp)
vmovss %xmm20, 0x38(%rsp)
vmovaps %xmm4, 0x330(%rsp)
vzeroupper
callq 0x6aa20
vmovaps 0x330(%rsp), %xmm4
vmovss 0x38(%rsp), %xmm20
vmovaps 0x340(%rsp), %xmm18
vmovss 0x3c(%rsp), %xmm17
vmovss 0x40(%rsp), %xmm16
vmovaps 0xf0(%rsp), %xmm15
vmovss 0x24(%rsp), %xmm14
vmovss 0x180(%rsp), %xmm7
vmovaps 0x1a0(%rsp), %xmm13
vmovaps 0xa0(%rsp), %xmm19
vmovaps 0xc0(%rsp), %xmm10
vbroadcastss 0x26a333(%rip), %xmm11 # 0x1f20ec4
vmovaps 0x240(%rsp), %ymm30
vmovaps 0x220(%rsp), %ymm31
vmovaps 0x200(%rsp), %ymm21
vmovaps 0x60(%rsp), %xmm9
vmovaps 0x80(%rsp), %xmm8
vbroadcastss 0x350(%rsp), %xmm1
vmulps 0x280(%rsp), %xmm1, %xmm1
vbroadcastss 0x3a0(%rsp), %xmm2
vfmadd132ps 0x2c0(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1
vbroadcastss 0x3c0(%rsp), %xmm1
vfmadd132ps 0x2a0(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2
vmovss 0x23a3f5(%rip), %xmm2 # 0x1ef0ff0
vfmadd213ss 0x23a3f4(%rip), %xmm9, %xmm2 # xmm2 = (xmm9 * xmm2) + mem
vbroadcastss %xmm2, %xmm2
vfmadd132ps 0x2e0(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1
vbroadcastss 0x120(%rsp), %xmm1
vmulps %xmm1, %xmm2, %xmm1
vdpps $0x7f, %xmm2, %xmm13, %xmm2
vbroadcastss %xmm2, %xmm2
vmulps %xmm2, %xmm13, %xmm2
vsubps %xmm2, %xmm1, %xmm1
vmovss 0x4c(%rsp), %xmm2
vmulss 0x110(%rsp), %xmm2, %xmm2
vmulss 0x48(%rsp), %xmm8, %xmm3
vbroadcastss %xmm2, %xmm2
vmulps %xmm2, %xmm1, %xmm1
vxorps 0x26a264(%rip){1to4}, %xmm13, %xmm2 # 0x1f20ec0
vmulps %xmm1, %xmm4, %xmm4
vmovaps 0x100(%rsp), %xmm12
vdpps $0x7f, %xmm12, %xmm2, %xmm5
vmovss 0x44(%rsp), %xmm6
vmaxss %xmm3, %xmm6, %xmm1
vdivss %xmm16, %xmm6, %xmm3
vdpps $0x7f, %xmm4, %xmm10, %xmm4
vfmadd213ss %xmm1, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm7) + xmm1
vfmadd213ss %xmm7, %xmm3, %xmm14 # xmm14 = (xmm3 * xmm14) + xmm7
vmovaps 0x270(%rsp), %xmm7
vdpps $0x7f, %xmm12, %xmm7, %xmm3
vaddss %xmm4, %xmm5, %xmm4
vdpps $0x7f, %xmm2, %xmm10, %xmm5
vmulss %xmm18, %xmm20, %xmm2
vmulss %xmm18, %xmm18, %xmm6
vmulss %xmm6, %xmm2, %xmm2
vdpps $0x7f, %xmm7, %xmm10, %xmm6
vaddss %xmm2, %xmm17, %xmm7
vfnmadd231ss %xmm4, %xmm15, %xmm5 # xmm5 = -(xmm15 * xmm4) + xmm5
vfnmadd231ss %xmm3, %xmm15, %xmm6 # xmm6 = -(xmm15 * xmm3) + xmm6
vpermilps $0xff, 0x3e0(%rsp), %xmm2 # xmm2 = mem[3,3,3,3]
vsubss %xmm2, %xmm0, %xmm2
vshufps $0xff, %xmm13, %xmm13, %xmm0 # xmm0 = xmm13[3,3,3,3]
vfmsub213ss %xmm0, %xmm7, %xmm5 # xmm5 = (xmm7 * xmm5) - xmm0
vmulss %xmm7, %xmm6, %xmm6
vmulss %xmm5, %xmm3, %xmm7
vfmsub231ss %xmm6, %xmm4, %xmm7 # xmm7 = (xmm4 * xmm6) - xmm7
vdivss %xmm7, %xmm6, %xmm6
vdivss %xmm7, %xmm5, %xmm5
vdivss %xmm7, %xmm3, %xmm3
vdivss %xmm7, %xmm4, %xmm4
vmulss %xmm6, %xmm15, %xmm6
vmulss %xmm3, %xmm2, %xmm3
vsubss %xmm3, %xmm6, %xmm3
vmulss %xmm5, %xmm15, %xmm5
vmulss %xmm4, %xmm2, %xmm4
vsubss %xmm5, %xmm4, %xmm4
vsubss %xmm3, %xmm9, %xmm9
vsubss %xmm4, %xmm8, %xmm8
vandps %xmm11, %xmm15, %xmm3
vucomiss %xmm3, %xmm14
jbe 0x1cb6ee4
vaddss %xmm1, %xmm14, %xmm1
vmovaps 0x310(%rsp), %xmm3
vfmadd231ss 0x23b16a(%rip), %xmm3, %xmm1 # xmm1 = (xmm3 * mem) + xmm1
vandps %xmm2, %xmm11, %xmm2
vucomiss %xmm2, %xmm1
jbe 0x1cb6ee4
vaddss 0x320(%rsp), %xmm8, %xmm8
movb $0x1, %r13b
vucomiss 0x5c(%rsp), %xmm8
jb 0x1cb6ee7
movq 0x18(%rsp), %rax
vmovss 0x200(%r12,%rax,4), %xmm4
vucomiss %xmm8, %xmm4
jb 0x1cb6ee7
vucomiss 0x234c92(%rip), %xmm9 # 0x1eeba24
jb 0x1cb6ee7
vmovss 0x235974(%rip), %xmm1 # 0x1eec714
vucomiss %xmm9, %xmm1
jb 0x1cb6ee7
vxorps %xmm2, %xmm2, %xmm2
vmovss %xmm19, %xmm2, %xmm1 # xmm1 = xmm19[0],xmm2[1,2,3]
vrsqrt14ss %xmm1, %xmm2, %xmm1
vmulss 0x235955(%rip), %xmm1, %xmm2 # 0x1eec718
vmulss 0x23594f(%rip), %xmm19, %xmm3 # 0x1eec71c
movq (%r15), %rax
movq 0x1e8(%rax), %rax
movq %r15, %rcx
movq 0x50(%rsp), %rdx
movq (%rax,%rdx,8), %r15
movq 0x18(%rsp), %rax
movl 0x240(%r12,%rax,4), %eax
testl %eax, 0x34(%r15)
je 0x1cb6f04
vmulss %xmm1, %xmm3, %xmm3
vmulss %xmm1, %xmm1, %xmm1
vmulss %xmm1, %xmm3, %xmm1
vaddss %xmm1, %xmm2, %xmm1
vbroadcastss %xmm1, %xmm1
vmulps %xmm1, %xmm10, %xmm1
vfmadd213ps %xmm13, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm0) + xmm13
vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm13, %xmm13, %xmm3 # xmm3 = xmm13[1,2,0,3]
vmulps %xmm3, %xmm1, %xmm1
vfmsub231ps %xmm2, %xmm13, %xmm1 # xmm1 = (xmm13 * xmm2) - xmm1
vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3]
vshufps $0xd2, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,0,1,3]
vmulps %xmm1, %xmm0, %xmm0
vfmsub231ps %xmm3, %xmm2, %xmm0 # xmm0 = (xmm2 * xmm3) - xmm0
movq 0x10(%rcx), %rax
cmpq $0x0, 0x10(%rax)
jne 0x1cb6f09
cmpq $0x0, 0x40(%r15)
jne 0x1cb6f09
movq 0x18(%rsp), %rcx
vmovss %xmm8, 0x200(%r12,%rcx,4)
vextractps $0x1, %xmm0, 0x300(%r12,%rcx,4)
vextractps $0x2, %xmm0, 0x340(%r12,%rcx,4)
vmovss %xmm0, 0x380(%r12,%rcx,4)
vmovss %xmm9, 0x3c0(%r12,%rcx,4)
movl $0x0, 0x400(%r12,%rcx,4)
movq 0x130(%rsp), %rax
movl %eax, 0x440(%r12,%rcx,4)
movq 0x50(%rsp), %rax
movl %eax, 0x480(%r12,%rcx,4)
movq 0x28(%rsp), %r15
movq 0x8(%r15), %rax
movl (%rax), %eax
movl %eax, 0x4c0(%r12,%rcx,4)
movq 0x8(%r15), %rax
movl 0x4(%rax), %eax
movl %eax, 0x500(%r12,%rcx,4)
jmp 0x1cb6ee7
xorl %r13d, %r13d
subq $0x1, %r14
setb %al
testb %r13b, %r13b
jne 0x1cb71d3
testb %al, %al
je 0x1cb674e
jmp 0x1cb71d3
movq %rcx, %r15
jmp 0x1cb6ee7
movq 0x28(%rsp), %rcx
movq 0x8(%rcx), %rax
vbroadcastss %xmm9, %zmm1
vbroadcastss 0x25b7e2(%rip), %zmm2 # 0x1f12704
vpermps %zmm0, %zmm2, %zmm2
vbroadcastss 0x269faa(%rip), %zmm3 # 0x1f20edc
vpermps %zmm0, %zmm3, %zmm3
vbroadcastss %xmm0, %zmm0
vmovaps %zmm2, 0x8c0(%rsp)
vmovaps %zmm3, 0x900(%rsp)
vmovaps %zmm0, 0x940(%rsp)
vmovaps %zmm1, 0x980(%rsp)
vxorps %xmm0, %xmm0, %xmm0
vmovaps %zmm0, 0x9c0(%rsp)
vmovaps 0x840(%rsp), %zmm0
vmovaps %zmm0, 0xa00(%rsp)
vmovdqa64 0x880(%rsp), %zmm0
vmovdqa64 %zmm0, 0xa40(%rsp)
movq 0x1d8(%rsp), %rdx
vpcmpeqd %ymm0, %ymm0, %ymm0
vmovdqa %ymm0, 0x60(%rdx)
vmovdqa %ymm0, 0x40(%rdx)
vmovdqa %ymm0, 0x20(%rdx)
vmovdqa %ymm0, (%rdx)
vbroadcastss (%rax), %zmm0
vmovaps %zmm0, 0xa80(%rsp)
vbroadcastss 0x4(%rax), %zmm0
vmovaps %zmm0, 0xac0(%rsp)
movq 0x18(%rsp), %rax
vmovss %xmm8, 0x200(%r12,%rax,4)
vmovaps 0x800(%rsp), %zmm0
vmovaps %zmm0, 0x400(%rsp)
leaq 0x400(%rsp), %rax
movq %rax, 0x150(%rsp)
movq 0x18(%r15), %rax
movq %rax, 0x158(%rsp)
movq 0x8(%rcx), %rax
movq %rax, 0x160(%rsp)
movq %r12, 0x168(%rsp)
leaq 0x8c0(%rsp), %rax
movq %rax, 0x170(%rsp)
movl $0x10, 0x178(%rsp)
movq 0x40(%r15), %rax
testq %rax, %rax
vmovaps %xmm9, 0x60(%rsp)
vmovaps %xmm8, 0x80(%rsp)
vmovss %xmm4, 0xa0(%rsp)
je 0x1cb7097
leaq 0x150(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0xa0(%rsp), %xmm4
vmovaps 0x80(%rsp), %xmm8
vmovaps 0x60(%rsp), %xmm9
vmovaps 0x200(%rsp), %ymm21
vmovaps 0x220(%rsp), %ymm31
vmovaps 0x240(%rsp), %ymm30
vbroadcastss 0x269e2d(%rip), %xmm11 # 0x1f20ec4
vmovdqa64 0x400(%rsp), %zmm0
vptestmd %zmm0, %zmm0, %k0
kortestw %k0, %k0
je 0x1cb71ba
movq 0x28(%rsp), %rax
movq 0x10(%rax), %rcx
movq 0x10(%rcx), %rax
testq %rax, %rax
je 0x1cb7113
testb $0x2, (%rcx)
jne 0x1cb70cd
testb $0x40, 0x3e(%r15)
je 0x1cb7113
leaq 0x150(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0xa0(%rsp), %xmm4
vmovaps 0x80(%rsp), %xmm8
vmovaps 0x60(%rsp), %xmm9
vmovaps 0x200(%rsp), %ymm21
vmovaps 0x220(%rsp), %ymm31
vmovaps 0x240(%rsp), %ymm30
vbroadcastss 0x269db1(%rip), %xmm11 # 0x1f20ec4
vmovdqa64 0x400(%rsp), %zmm0
vptestmd %zmm0, %zmm0, %k1
kortestw %k1, %k1
je 0x1cb71ba
movq 0x168(%rsp), %rax
movq 0x170(%rsp), %rcx
vmovaps (%rcx), %zmm0
vmovups %zmm0, 0x300(%rax) {%k1}
vmovaps 0x40(%rcx), %zmm0
vmovups %zmm0, 0x340(%rax) {%k1}
vmovaps 0x80(%rcx), %zmm0
vmovups %zmm0, 0x380(%rax) {%k1}
vmovaps 0xc0(%rcx), %zmm0
vmovups %zmm0, 0x3c0(%rax) {%k1}
vmovaps 0x100(%rcx), %zmm0
vmovups %zmm0, 0x400(%rax) {%k1}
vmovdqa64 0x140(%rcx), %zmm0
vmovdqu32 %zmm0, 0x440(%rax) {%k1}
vmovdqa64 0x180(%rcx), %zmm0
vmovdqu32 %zmm0, 0x480(%rax) {%k1}
vmovdqa64 0x1c0(%rcx), %zmm0
vmovdqa32 %zmm0, 0x4c0(%rax) {%k1}
vmovdqa64 0x200(%rcx), %zmm0
vmovdqa32 %zmm0, 0x500(%rax) {%k1}
jmp 0x1cb71c9
movq 0x18(%rsp), %rax
vmovss %xmm4, 0x200(%r12,%rax,4)
movq 0x28(%rsp), %r15
jmp 0x1cb6ee7
movq 0x18(%rsp), %rax
vmovaps 0x460(%rsp), %ymm0
vcmpleps 0x200(%r12,%rax,4){1to8}, %ymm0, %k0
kmovd %k0, %eax
andb %al, %bl
jne 0x1cb666a
vmovaps 0x440(%rsp), %ymm0
vaddps 0x380(%rsp), %ymm0, %ymm0
movq 0x18(%rsp), %rax
vcmpleps 0x200(%r12,%rax,4){1to8}, %ymm0, %k0
kmovd 0x144(%rsp), %k1
kmovd 0x13c(%rsp), %k2
korb %k2, %k1, %k1
kmovd %k0, %eax
movl 0x34(%rsp), %ecx
andb %al, %cl
vpbroadcastd 0x269c95(%rip), %ymm0 # 0x1f20edc
vpblendmd 0x269c87(%rip){1to8}, %ymm0, %ymm0 {%k1} # 0x1f20ed8
vmovdqa %ymm0, 0x440(%rsp)
vpcmpled 0x4c0(%rsp), %ymm0, %k0
kmovd %k0, %ebx
movl %ecx, 0x34(%rsp)
andb %cl, %bl
je 0x1cb7e89
vmovaps 0x520(%rsp), %ymm5
vmovaps 0x2e0(%rsp), %ymm1
vmovaps 0x2a0(%rsp), %ymm2
vminps %xmm2, %xmm1, %xmm0
vmaxps %xmm2, %xmm1, %xmm1
vmovaps 0x2c0(%rsp), %ymm3
vmovaps 0x280(%rsp), %ymm4
vminps %xmm4, %xmm3, %xmm2
vminps %xmm2, %xmm0, %xmm0
vmaxps %xmm4, %xmm3, %xmm2
vmaxps %xmm2, %xmm1, %xmm1
vandps %xmm0, %xmm11, %xmm0
vandps %xmm1, %xmm11, %xmm2
vmaxps %xmm2, %xmm0, %xmm0
vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3]
vmaxss %xmm0, %xmm2, %xmm2
vshufpd $0x1, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[1,0]
vmaxss %xmm2, %xmm0, %xmm0
vmulss 0x23abd7(%rip), %xmm0, %xmm0 # 0x1ef1eb4
vmovss %xmm0, 0x44(%rsp)
vshufps $0xff, %xmm1, %xmm1, %xmm0 # xmm0 = xmm1[3,3,3,3]
vmovaps %xmm0, 0x310(%rsp)
vmovaps %ymm5, 0x360(%rsp)
vaddps 0x380(%rsp), %ymm5, %ymm0
vmovaps %ymm0, 0x460(%rsp)
kmovd %ebx, %k1
vbroadcastss 0x234707(%rip), %ymm0 # 0x1eeba20
vblendmps 0x360(%rsp), %ymm0, %ymm0 {%k1}
vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm0, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1]
vminps %ymm2, %ymm1, %ymm1
vcmpeqps %ymm1, %ymm0, %k0
kmovd %k0, %eax
andb %bl, %al
movzbl %al, %eax
movzbl %bl, %ecx
cmovnel %eax, %ecx
tzcntl %ecx, %ecx
movb $0x1, %bl
shlb %cl, %bl
shll $0x2, %ecx
vmovss 0x480(%rsp,%rcx), %xmm9
vmovss 0x540(%rsp,%rcx), %xmm10
vmovaps 0x260(%rsp), %xmm0
vucomiss 0x2346a3(%rip), %xmm0 # 0x1eeba24
vmovss 0x14c(%rsp), %xmm0
jae 0x1cb73cd
vmovaps 0x260(%rsp), %xmm0
vmovaps %xmm9, 0x60(%rsp)
vmovaps %xmm10, 0x80(%rsp)
kmovw %k1, 0xc0(%rsp)
vzeroupper
callq 0x6aa20
kmovw 0xc0(%rsp), %k1
vmovaps 0x80(%rsp), %xmm10
vmovaps 0x60(%rsp), %xmm9
movzbl %bl, %eax
kmovd %eax, %k0
kandnb %k1, %k0, %k0
kmovd %k0, %ebx
vmulss 0x23aad0(%rip), %xmm0, %xmm0 # 0x1ef1eb4
vmovss %xmm0, 0x48(%rsp)
movl $0x4, %r14d
vbroadcastss %xmm10, %xmm0
vxorps %xmm1, %xmm1, %xmm1
vfmadd132ps 0x270(%rsp), %xmm1, %xmm0 # xmm0 = (xmm0 * mem) + xmm1
vmovss 0x235309(%rip), %xmm1 # 0x1eec714
vsubss %xmm9, %xmm1, %xmm12
vbroadcastss 0x269aa7(%rip), %xmm6 # 0x1f20ec0
vxorps %xmm6, %xmm9, %xmm1
vmulss %xmm1, %xmm12, %xmm1
vmulss %xmm1, %xmm12, %xmm1
vmulss %xmm9, %xmm9, %xmm13
vmovss 0x239bba(%rip), %xmm8 # 0x1ef0fec
vmovaps %xmm8, %xmm11
vmovss 0x239bc5(%rip), %xmm7 # 0x1ef1004
vfmadd213ss %xmm7, %xmm9, %xmm11 # xmm11 = (xmm9 * xmm11) + xmm7
vmovaps %xmm11, %xmm2
vmovss 0x239ba8(%rip), %xmm5 # 0x1ef0ff8
vfmadd213ss %xmm5, %xmm13, %xmm2 # xmm2 = (xmm13 * xmm2) + xmm5
vmulss %xmm12, %xmm12, %xmm3
vmovaps %xmm8, %xmm4
vfmadd213ss %xmm7, %xmm12, %xmm4 # xmm4 = (xmm12 * xmm4) + xmm7
vfmadd213ss %xmm5, %xmm3, %xmm4 # xmm4 = (xmm3 * xmm4) + xmm5
vxorps %xmm6, %xmm12, %xmm3
vmulss %xmm3, %xmm9, %xmm3
vmulss %xmm3, %xmm9, %xmm3
vmovss 0x235704(%rip), %xmm5 # 0x1eecb80
vmulss %xmm5, %xmm1, %xmm1
vmulss %xmm5, %xmm2, %xmm2
vmulss %xmm5, %xmm4, %xmm4
vmulss %xmm5, %xmm3, %xmm3
vbroadcastss %xmm3, %xmm3
vmulps 0x280(%rsp), %xmm3, %xmm3
vbroadcastss %xmm4, %xmm4
vfmadd132ps 0x2c0(%rsp), %xmm3, %xmm4 # xmm4 = (xmm4 * mem) + xmm3
vbroadcastss %xmm2, %xmm2
vfmadd132ps 0x2a0(%rsp), %xmm4, %xmm2 # xmm2 = (xmm2 * mem) + xmm4
vbroadcastss %xmm1, %xmm3
vfmadd132ps 0x2e0(%rsp), %xmm2, %xmm3 # xmm3 = (xmm3 * mem) + xmm2
vmulss 0x23950d(%rip), %xmm12, %xmm6 # 0x1ef09dc
vfmadd231ss 0x239b30(%rip), %xmm9, %xmm7 # xmm7 = (xmm9 * mem) + xmm7
vmovaps %xmm7, 0x3c0(%rsp)
vmovss 0x239b23(%rip), %xmm1 # 0x1ef100c
vfmadd213ss 0x23569a(%rip), %xmm9, %xmm1 # xmm1 = (xmm9 * xmm1) + mem
vmovaps %xmm1, 0x3a0(%rsp)
vfmadd213ss 0x2394c8(%rip), %xmm9, %xmm8 # xmm8 = (xmm9 * xmm8) + mem
vmovaps %xmm8, 0x350(%rsp)
vmovaps %xmm3, 0x3e0(%rsp)
vsubps %xmm3, %xmm0, %xmm0
vmovaps %xmm0, 0xc0(%rsp)
vdpps $0x7f, %xmm0, %xmm0, %xmm0
vucomiss 0x2344f3(%rip), %xmm0 # 0x1eeba24
vmovaps %xmm9, 0x60(%rsp)
vmovaps %xmm0, 0xa0(%rsp)
vmovaps %xmm10, 0x80(%rsp)
jb 0x1cb7551
vsqrtss %xmm0, %xmm0, %xmm7
jmp 0x1cb75ab
vmovss %xmm11, 0x1a0(%rsp)
vmovaps %xmm12, 0x180(%rsp)
vmovss %xmm13, 0x120(%rsp)
vmovss %xmm6, 0x110(%rsp)
vzeroupper
callq 0x6aa20
vmovss 0x110(%rsp), %xmm6
vmovss 0x120(%rsp), %xmm13
vmovaps 0x180(%rsp), %xmm12
vmovss 0x1a0(%rsp), %xmm11
vmovaps 0x60(%rsp), %xmm9
vmovaps %xmm0, %xmm7
vaddss %xmm12, %xmm12, %xmm0
vmulss %xmm0, %xmm9, %xmm1
vfnmadd231ss %xmm12, %xmm12, %xmm1 # xmm1 = -(xmm12 * xmm12) + xmm1
vaddss %xmm9, %xmm9, %xmm2
vmovss 0x239a26(%rip), %xmm4 # 0x1ef0fec
vmulss %xmm4, %xmm9, %xmm3
vmulss %xmm3, %xmm9, %xmm3
vfmadd213ss %xmm3, %xmm2, %xmm11 # xmm11 = (xmm2 * xmm11) + xmm3
vmovaps %xmm4, %xmm2
vmovss 0x239a19(%rip), %xmm4 # 0x1ef0ff8
vfmadd213ss %xmm4, %xmm9, %xmm2 # xmm2 = (xmm9 * xmm2) + xmm4
vmulss 0x239a04(%rip), %xmm12, %xmm3 # 0x1ef0ff0
vmulss %xmm3, %xmm12, %xmm3
vfmadd231ss %xmm2, %xmm0, %xmm3 # xmm3 = (xmm0 * xmm2) + xmm3
vfmadd213ss %xmm13, %xmm9, %xmm6 # xmm6 = (xmm9 * xmm6) + xmm13
vmovss 0x23557e(%rip), %xmm5 # 0x1eecb80
vmulss %xmm5, %xmm1, %xmm0
vmulss %xmm5, %xmm11, %xmm1
vmulss %xmm5, %xmm3, %xmm2
vmulss %xmm5, %xmm6, %xmm3
vbroadcastss %xmm3, %xmm3
vmulps 0x280(%rsp), %xmm3, %xmm3
vbroadcastss %xmm2, %xmm2
vfmadd132ps 0x2c0(%rsp), %xmm3, %xmm2 # xmm2 = (xmm2 * mem) + xmm3
vbroadcastss %xmm1, %xmm1
vfmadd132ps 0x2a0(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2
vbroadcastss %xmm0, %xmm13
vfmadd132ps 0x2e0(%rsp), %xmm1, %xmm13 # xmm13 = (xmm13 * mem) + xmm1
vdpps $0x7f, %xmm13, %xmm13, %xmm0
vxorps %xmm1, %xmm1, %xmm1
vmovss %xmm0, %xmm1, %xmm2 # xmm2 = xmm0[0],xmm1[1,2,3]
vrsqrt14ss %xmm2, %xmm1, %xmm3
vmulss 0x2350af(%rip), %xmm3, %xmm5 # 0x1eec718
vmulss 0x2350ab(%rip), %xmm0, %xmm6 # 0x1eec71c
vrcp14ss %xmm2, %xmm1, %xmm2
vxorps 0x26983f(%rip){1to4}, %xmm0, %xmm1 # 0x1f20ec0
vmovaps %xmm2, 0x110(%rsp)
vfnmadd213ss %xmm4, %xmm0, %xmm2 # xmm2 = -(xmm0 * xmm2) + xmm4
vmovss %xmm2, 0x4c(%rsp)
vucomiss %xmm1, %xmm0
vmovaps %xmm13, 0x1a0(%rsp)
vmovss %xmm7, 0x180(%rsp)
vmovaps %xmm0, 0x120(%rsp)
jb 0x1cb76be
vsqrtss %xmm0, %xmm0, %xmm16
jmp 0x1cb770e
vmovaps %xmm3, 0x100(%rsp)
vmovss %xmm5, 0x24(%rsp)
vmovss %xmm6, 0xf0(%rsp)
vzeroupper
callq 0x6aa20
vmovss 0xf0(%rsp), %xmm6
vmovss 0x24(%rsp), %xmm5
vmovaps 0x100(%rsp), %xmm3
vmovss 0x180(%rsp), %xmm7
vmovaps 0x1a0(%rsp), %xmm13
vmovaps %xmm0, %xmm16
vmovaps 0xc0(%rsp), %xmm11
vmovaps 0xa0(%rsp), %xmm19
vmulss %xmm3, %xmm6, %xmm0
vmulss %xmm3, %xmm3, %xmm1
vmulss %xmm1, %xmm0, %xmm0
vaddss %xmm0, %xmm5, %xmm0
vbroadcastss %xmm0, %xmm4
vmulps %xmm4, %xmm13, %xmm0
vmovaps %xmm0, 0x100(%rsp)
vdpps $0x7f, %xmm0, %xmm11, %xmm15
vaddss 0x234fc5(%rip), %xmm7, %xmm14 # 0x1eec714
vmulps %xmm15, %xmm15, %xmm0
vsubps %xmm0, %xmm19, %xmm0
vxorps %xmm2, %xmm2, %xmm2
vmovss %xmm0, %xmm2, %xmm1 # xmm1 = xmm0[0],xmm2[1,2,3]
vrsqrt14ss %xmm1, %xmm2, %xmm18
vmulss 0x234fa6(%rip), %xmm18, %xmm17 # 0x1eec718
vmulss 0x234fa0(%rip), %xmm0, %xmm20 # 0x1eec71c
vucomiss 0x2342a0(%rip), %xmm0 # 0x1eeba24
jb 0x1cb778f
vsqrtss %xmm0, %xmm0, %xmm0
jmp 0x1cb782a
vmovss %xmm14, 0x24(%rsp)
vmovaps %xmm15, 0xf0(%rsp)
vmovss %xmm16, 0x40(%rsp)
vmovss %xmm17, 0x3c(%rsp)
vmovaps %xmm18, 0x340(%rsp)
vmovss %xmm20, 0x38(%rsp)
vmovaps %xmm4, 0x330(%rsp)
vzeroupper
callq 0x6aa20
vmovaps 0x330(%rsp), %xmm4
vmovss 0x38(%rsp), %xmm20
vmovaps 0x340(%rsp), %xmm18
vmovss 0x3c(%rsp), %xmm17
vmovss 0x40(%rsp), %xmm16
vmovaps 0xf0(%rsp), %xmm15
vmovss 0x24(%rsp), %xmm14
vmovss 0x180(%rsp), %xmm7
vmovaps 0x1a0(%rsp), %xmm13
vmovaps 0xa0(%rsp), %xmm19
vmovaps 0xc0(%rsp), %xmm11
vbroadcastss 0x269691(%rip), %xmm8 # 0x1f20ec4
vmovaps 0x240(%rsp), %ymm30
vmovaps 0x220(%rsp), %ymm31
vmovaps 0x200(%rsp), %ymm21
vmovaps 0x60(%rsp), %xmm9
vmovaps 0x80(%rsp), %xmm10
vbroadcastss 0x350(%rsp), %xmm1
vmulps 0x280(%rsp), %xmm1, %xmm1
vbroadcastss 0x3a0(%rsp), %xmm2
vfmadd132ps 0x2c0(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1
vbroadcastss 0x3c0(%rsp), %xmm1
vfmadd132ps 0x2a0(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2
vmovss 0x239753(%rip), %xmm2 # 0x1ef0ff0
vfmadd213ss 0x239752(%rip), %xmm9, %xmm2 # xmm2 = (xmm9 * xmm2) + mem
vbroadcastss %xmm2, %xmm2
vfmadd132ps 0x2e0(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1
vbroadcastss 0x120(%rsp), %xmm1
vmulps %xmm1, %xmm2, %xmm1
vdpps $0x7f, %xmm2, %xmm13, %xmm2
vbroadcastss %xmm2, %xmm2
vmulps %xmm2, %xmm13, %xmm2
vsubps %xmm2, %xmm1, %xmm1
vmovss 0x4c(%rsp), %xmm2
vmulss 0x110(%rsp), %xmm2, %xmm2
vmulss 0x48(%rsp), %xmm10, %xmm3
vbroadcastss %xmm2, %xmm2
vmulps %xmm2, %xmm1, %xmm1
vxorps 0x2695c2(%rip){1to4}, %xmm13, %xmm2 # 0x1f20ec0
vmulps %xmm1, %xmm4, %xmm4
vmovaps 0x100(%rsp), %xmm12
vdpps $0x7f, %xmm12, %xmm2, %xmm5
vmovss 0x44(%rsp), %xmm6
vmaxss %xmm3, %xmm6, %xmm1
vdivss %xmm16, %xmm6, %xmm3
vdpps $0x7f, %xmm4, %xmm11, %xmm4
vfmadd213ss %xmm1, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm7) + xmm1
vfmadd213ss %xmm7, %xmm3, %xmm14 # xmm14 = (xmm3 * xmm14) + xmm7
vmovaps 0x270(%rsp), %xmm7
vdpps $0x7f, %xmm12, %xmm7, %xmm3
vaddss %xmm4, %xmm5, %xmm4
vdpps $0x7f, %xmm2, %xmm11, %xmm5
vmulss %xmm18, %xmm20, %xmm2
vmulss %xmm18, %xmm18, %xmm6
vmulss %xmm6, %xmm2, %xmm2
vdpps $0x7f, %xmm7, %xmm11, %xmm6
vaddss %xmm2, %xmm17, %xmm7
vfnmadd231ss %xmm4, %xmm15, %xmm5 # xmm5 = -(xmm15 * xmm4) + xmm5
vfnmadd231ss %xmm3, %xmm15, %xmm6 # xmm6 = -(xmm15 * xmm3) + xmm6
vpermilps $0xff, 0x3e0(%rsp), %xmm2 # xmm2 = mem[3,3,3,3]
vsubss %xmm2, %xmm0, %xmm2
vshufps $0xff, %xmm13, %xmm13, %xmm0 # xmm0 = xmm13[3,3,3,3]
vfmsub213ss %xmm0, %xmm7, %xmm5 # xmm5 = (xmm7 * xmm5) - xmm0
vmulss %xmm7, %xmm6, %xmm6
vmulss %xmm5, %xmm3, %xmm7
vfmsub231ss %xmm6, %xmm4, %xmm7 # xmm7 = (xmm4 * xmm6) - xmm7
vdivss %xmm7, %xmm6, %xmm6
vdivss %xmm7, %xmm5, %xmm5
vdivss %xmm7, %xmm3, %xmm3
vdivss %xmm7, %xmm4, %xmm4
vmulss %xmm6, %xmm15, %xmm6
vmulss %xmm3, %xmm2, %xmm3
vsubss %xmm3, %xmm6, %xmm3
vmulss %xmm5, %xmm15, %xmm5
vmulss %xmm4, %xmm2, %xmm4
vsubss %xmm5, %xmm4, %xmm4
vsubss %xmm3, %xmm9, %xmm9
vsubss %xmm4, %xmm10, %xmm10
vandps %xmm8, %xmm15, %xmm3
vucomiss %xmm3, %xmm14
jbe 0x1cb7b86
vaddss %xmm1, %xmm14, %xmm1
vmovaps 0x310(%rsp), %xmm3
vfmadd231ss 0x23a4c8(%rip), %xmm3, %xmm1 # xmm1 = (xmm3 * mem) + xmm1
vandps %xmm2, %xmm8, %xmm2
vucomiss %xmm2, %xmm1
jbe 0x1cb7b86
vaddss 0x320(%rsp), %xmm10, %xmm10
movb $0x1, %r13b
vucomiss 0x5c(%rsp), %xmm10
jb 0x1cb7b89
movq 0x18(%rsp), %rax
vmovss 0x200(%r12,%rax,4), %xmm4
vucomiss %xmm10, %xmm4
jb 0x1cb7b89
vucomiss 0x233ff0(%rip), %xmm9 # 0x1eeba24
jb 0x1cb7b89
vmovss 0x234cd2(%rip), %xmm1 # 0x1eec714
vucomiss %xmm9, %xmm1
jb 0x1cb7b89
vxorps %xmm2, %xmm2, %xmm2
vmovss %xmm19, %xmm2, %xmm1 # xmm1 = xmm19[0],xmm2[1,2,3]
vrsqrt14ss %xmm1, %xmm2, %xmm1
vmulss 0x234cb3(%rip), %xmm1, %xmm2 # 0x1eec718
vmulss 0x234cad(%rip), %xmm19, %xmm3 # 0x1eec71c
movq (%r15), %rax
movq 0x1e8(%rax), %rax
movq %r15, %rcx
movq 0x50(%rsp), %rdx
movq (%rax,%rdx,8), %r15
movq 0x18(%rsp), %rax
movl 0x240(%r12,%rax,4), %eax
testl %eax, 0x34(%r15)
je 0x1cb7ba6
vmulss %xmm1, %xmm3, %xmm3
vmulss %xmm1, %xmm1, %xmm1
vmulss %xmm1, %xmm3, %xmm1
vaddss %xmm1, %xmm2, %xmm1
vbroadcastss %xmm1, %xmm1
vmulps %xmm1, %xmm11, %xmm1
vfmadd213ps %xmm13, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm0) + xmm13
vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm13, %xmm13, %xmm3 # xmm3 = xmm13[1,2,0,3]
vmulps %xmm3, %xmm1, %xmm1
vfmsub231ps %xmm2, %xmm13, %xmm1 # xmm1 = (xmm13 * xmm2) - xmm1
vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3]
vshufps $0xd2, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,0,1,3]
vmulps %xmm1, %xmm0, %xmm0
vfmsub231ps %xmm3, %xmm2, %xmm0 # xmm0 = (xmm2 * xmm3) - xmm0
movq 0x10(%rcx), %rax
cmpq $0x0, 0x10(%rax)
jne 0x1cb7bab
cmpq $0x0, 0x40(%r15)
jne 0x1cb7bab
movq 0x18(%rsp), %rcx
vmovss %xmm10, 0x200(%r12,%rcx,4)
vextractps $0x1, %xmm0, 0x300(%r12,%rcx,4)
vextractps $0x2, %xmm0, 0x340(%r12,%rcx,4)
vmovss %xmm0, 0x380(%r12,%rcx,4)
vmovss %xmm9, 0x3c0(%r12,%rcx,4)
movl $0x0, 0x400(%r12,%rcx,4)
movq 0x130(%rsp), %rax
movl %eax, 0x440(%r12,%rcx,4)
movq 0x50(%rsp), %rax
movl %eax, 0x480(%r12,%rcx,4)
movq 0x28(%rsp), %r15
movq 0x8(%r15), %rax
movl (%rax), %eax
movl %eax, 0x4c0(%r12,%rcx,4)
movq 0x8(%r15), %rax
movl 0x4(%rax), %eax
movl %eax, 0x500(%r12,%rcx,4)
jmp 0x1cb7b89
xorl %r13d, %r13d
subq $0x1, %r14
setb %al
testb %r13b, %r13b
jne 0x1cb7e63
testb %al, %al
je 0x1cb73f0
jmp 0x1cb7e63
movq %rcx, %r15
jmp 0x1cb7b89
movq 0x28(%rsp), %rcx
movq 0x8(%rcx), %rax
vbroadcastss %xmm9, %zmm1
vbroadcastss 0x25ab40(%rip), %zmm2 # 0x1f12704
vpermps %zmm0, %zmm2, %zmm2
vbroadcastss 0x269308(%rip), %zmm3 # 0x1f20edc
vpermps %zmm0, %zmm3, %zmm3
vbroadcastss %xmm0, %zmm0
vmovaps %zmm2, 0x8c0(%rsp)
vmovaps %zmm3, 0x900(%rsp)
vmovaps %zmm0, 0x940(%rsp)
vmovaps %zmm1, 0x980(%rsp)
vxorps %xmm0, %xmm0, %xmm0
vmovaps %zmm0, 0x9c0(%rsp)
vmovaps 0x840(%rsp), %zmm0
vmovaps %zmm0, 0xa00(%rsp)
vmovdqa64 0x880(%rsp), %zmm0
vmovdqa64 %zmm0, 0xa40(%rsp)
movq 0x1d8(%rsp), %rdx
vpcmpeqd %ymm0, %ymm0, %ymm0
vmovdqa %ymm0, 0x60(%rdx)
vmovdqa %ymm0, 0x40(%rdx)
vmovdqa %ymm0, 0x20(%rdx)
vmovdqa %ymm0, (%rdx)
vbroadcastss (%rax), %zmm0
vmovaps %zmm0, 0xa80(%rsp)
vbroadcastss 0x4(%rax), %zmm0
vmovaps %zmm0, 0xac0(%rsp)
movq 0x18(%rsp), %rax
vmovss %xmm10, 0x200(%r12,%rax,4)
vmovaps 0x800(%rsp), %zmm0
vmovaps %zmm0, 0x400(%rsp)
leaq 0x400(%rsp), %rax
movq %rax, 0x150(%rsp)
movq 0x18(%r15), %rax
movq %rax, 0x158(%rsp)
movq 0x8(%rcx), %rax
movq %rax, 0x160(%rsp)
movq %r12, 0x168(%rsp)
leaq 0x8c0(%rsp), %rax
movq %rax, 0x170(%rsp)
movl $0x10, 0x178(%rsp)
movq 0x40(%r15), %rax
testq %rax, %rax
vmovaps %xmm9, 0x60(%rsp)
vmovaps %xmm10, 0x80(%rsp)
vmovss %xmm4, 0xa0(%rsp)
je 0x1cb7d30
leaq 0x150(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0xa0(%rsp), %xmm4
vmovaps 0x80(%rsp), %xmm10
vmovaps 0x60(%rsp), %xmm9
vmovaps 0x200(%rsp), %ymm21
vmovaps 0x220(%rsp), %ymm31
vmovaps 0x240(%rsp), %ymm30
vmovdqa64 0x400(%rsp), %zmm0
vptestmd %zmm0, %zmm0, %k0
kortestw %k0, %k0
je 0x1cb7e4a
movq 0x28(%rsp), %rax
movq 0x10(%rax), %rcx
movq 0x10(%rcx), %rax
testq %rax, %rax
je 0x1cb7da3
testb $0x2, (%rcx)
jne 0x1cb7d66
testb $0x40, 0x3e(%r15)
je 0x1cb7da3
leaq 0x150(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0xa0(%rsp), %xmm4
vmovaps 0x80(%rsp), %xmm10
vmovaps 0x60(%rsp), %xmm9
vmovaps 0x200(%rsp), %ymm21
vmovaps 0x220(%rsp), %ymm31
vmovaps 0x240(%rsp), %ymm30
vmovdqa64 0x400(%rsp), %zmm0
vptestmd %zmm0, %zmm0, %k1
kortestw %k1, %k1
je 0x1cb7e4a
movq 0x168(%rsp), %rax
movq 0x170(%rsp), %rcx
vmovaps (%rcx), %zmm0
vmovups %zmm0, 0x300(%rax) {%k1}
vmovaps 0x40(%rcx), %zmm0
vmovups %zmm0, 0x340(%rax) {%k1}
vmovaps 0x80(%rcx), %zmm0
vmovups %zmm0, 0x380(%rax) {%k1}
vmovaps 0xc0(%rcx), %zmm0
vmovups %zmm0, 0x3c0(%rax) {%k1}
vmovaps 0x100(%rcx), %zmm0
vmovups %zmm0, 0x400(%rax) {%k1}
vmovdqa64 0x140(%rcx), %zmm0
vmovdqu32 %zmm0, 0x440(%rax) {%k1}
vmovdqa64 0x180(%rcx), %zmm0
vmovdqu32 %zmm0, 0x480(%rax) {%k1}
vmovdqa64 0x1c0(%rcx), %zmm0
vmovdqa32 %zmm0, 0x4c0(%rax) {%k1}
vmovdqa64 0x200(%rcx), %zmm0
vmovdqa32 %zmm0, 0x500(%rax) {%k1}
jmp 0x1cb7e59
movq 0x18(%rsp), %rax
vmovss %xmm4, 0x200(%r12,%rax,4)
movq 0x28(%rsp), %r15
jmp 0x1cb7b89
movq 0x18(%rsp), %rax
vmovaps 0x460(%rsp), %ymm0
vcmpleps 0x200(%r12,%rax,4){1to8}, %ymm0, %k0
kmovd %k0, %eax
andb %al, %bl
jne 0x1cb730c
vmovdqa 0x4c0(%rsp), %ymm1
vpcmpltd 0x440(%rsp), %ymm1, %k1
vmovaps 0x7c0(%rsp), %ymm0
vpcmpltd 0x560(%rsp), %ymm1, %k2
vmovaps 0x380(%rsp), %ymm3
vaddps %ymm0, %ymm3, %ymm1
movq 0x18(%rsp), %rax
vbroadcastss 0x200(%r12,%rax,4), %ymm2
vcmpleps %ymm2, %ymm1, %k0 {%k2}
kmovd %k0, %eax
movl 0x140(%rsp), %ecx
andb %al, %cl
vmovaps 0x520(%rsp), %ymm1
vaddps %ymm1, %ymm3, %ymm3
vcmpleps %ymm2, %ymm3, %k0 {%k1}
kmovd %k0, %eax
movl 0x34(%rsp), %edx
andb %al, %dl
orb %cl, %dl
je 0x1cb7f7c
movq 0x1f0(%rsp), %r9
movl %r9d, %eax
leaq (%rax,%rax,2), %rax
shlq $0x5, %rax
movb %dl, 0xb20(%rsp,%rax)
kmovd %ecx, %k1
vmovaps %ymm0, %ymm1 {%k1}
vmovaps %ymm1, 0xb40(%rsp,%rax)
vmovaps 0x1c0(%rsp), %xmm2
vmovlps %xmm2, 0xb60(%rsp,%rax)
movq 0x1e8(%rsp), %r11
leal 0x1(%r11), %ecx
movl %ecx, 0xb68(%rsp,%rax)
incl %r9d
movq 0x1e0(%rsp), %r8
vbroadcastss 0x2347ae(%rip), %ymm16 # 0x1eec714
movq 0x1f8(%rsp), %r10
jmp 0x1cb7faf
vbroadcastss 0x23479a(%rip), %ymm16 # 0x1eec714
jmp 0x1cb7fa6
movq 0x1e0(%rsp), %r8
vbroadcastss 0x234786(%rip), %ymm16 # 0x1eec714
movq 0x1f8(%rsp), %r10
movq 0x1f0(%rsp), %r9
movq 0x1e8(%rsp), %r11
vmovaps 0x1c0(%rsp), %xmm2
movl %r9d, %eax
testl %eax, %eax
je 0x1cb8107
leal -0x1(%rax), %r9d
leaq (%r9,%r9,2), %rcx
shlq $0x5, %rcx
vmovaps 0xb40(%rsp,%rcx), %ymm0
movzbl 0xb20(%rsp,%rcx), %esi
vaddps 0x380(%rsp), %ymm0, %ymm1
movq 0x18(%rsp), %rdx
vcmpleps 0x200(%r12,%rdx,4){1to8}, %ymm1, %k0
kmovb %k0, %edx
andl %esi, %edx
je 0x1cb80aa
kmovd %edx, %k1
vbroadcastss 0x233a16(%rip), %ymm1 # 0x1eeba20
vblendmps %ymm0, %ymm1, %ymm0 {%k1}
vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm0, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1]
vminps %ymm2, %ymm1, %ymm1
vcmpeqps %ymm1, %ymm0, %k0
kmovd %k0, %esi
andb %dl, %sil
je 0x1cb8042
movzbl %sil, %edi
jmp 0x1cb8045
movzbl %dl, %edi
leaq (%rsp,%rcx), %rsi
addq $0xb20, %rsi # imm = 0xB20
vmovss 0x44(%rsi), %xmm0
tzcntl %edi, %ecx
movb $0x1, %dil
shlb %cl, %dil
movl 0x48(%rsi), %r11d
movzbl %dil, %edi
kmovd %edi, %k0
kmovd %edx, %k1
kandnb %k1, %k0, %k0
kmovb %k0, (%rsi)
kortestb %k0, %k0
je 0x1cb8080
movl %eax, %r9d
vbroadcastss 0x40(%rsi), %ymm1
vsubss %xmm1, %xmm0, %xmm0
vbroadcastss %xmm0, %ymm0
vfmadd132ps 0x268e88(%rip), %ymm1, %ymm0 # ymm0 = (ymm0 * mem) + ymm1
vmovaps %ymm0, 0x8c0(%rsp)
vmovsd 0x8c0(%rsp,%rcx,4), %xmm2
movl %r9d, %eax
testb %dl, %dl
je 0x1cb7fb2
jmp 0x1cb5a28
vcmpleps 0x268e3b(%rip), %ymm4, %k2 # 0x1f20f00
vbroadcastss 0x234ab6(%rip), %ymm4 # 0x1eecb84
vbroadcastss 0x233948(%rip), %ymm16 # 0x1eeba20
vblendmps %ymm4, %ymm16, %ymm3 {%k2}
vmovaps %ymm3, %ymm30 {%k1}
vblendmps %ymm16, %ymm4, %ymm3 {%k2}
kmovd %k2, %ecx
vmovaps %ymm3, %ymm31 {%k1}
knotb %k1, %k0
kmovd %k0, %edx
orb %cl, %dl
andb %al, %dl
movl %edx, %eax
jmp 0x1cb602d
movq 0x18(%rsp), %rax
vmovaps 0x580(%rsp), %ymm0
vcmpleps 0x200(%r12,%rax,4){1to8}, %ymm0, %k0
kmovb %k0, %eax
andl %eax, %r10d
jne 0x1cb569f
leaq -0x28(%rbp), %rsp
popq %rbx
popq %r12
popq %r13
popq %r14
popq %r15
popq %rbp
vzeroupper
retq
|
/embree[P]embree/kernels/geometry/curveNi_intersector.h
|
void embree::avx512::CurveNiIntersector1<8>::intersect_t<embree::avx512::RibbonCurve1Intersector1<embree::CatmullRomCurveT, 8>, embree::avx512::Intersect1EpilogMU<8, true>>(embree::avx512::CurvePrecalculations1 const&, embree::RayHitK<1>&, embree::RayQueryContext*, embree::CurveNi<8> const&)
|
static __forceinline void intersect_t(const Precalculations& pre, RayHit& ray, RayQueryContext* context, const Primitive& prim)
{
vfloat<M> tNear;
vbool<M> valid = intersect(ray,prim,tNear);
const size_t N = prim.N;
size_t mask = movemask(valid);
while (mask)
{
const size_t i = bscf(mask);
STAT3(normal.trav_prims,1,1,1);
const unsigned int geomID = prim.geomID(N);
const unsigned int primID = prim.primID(N)[i];
const CurveGeometry* geom = context->scene->get<CurveGeometry>(geomID);
Vec3ff a0,a1,a2,a3; geom->gather(a0,a1,a2,a3,geom->curve(primID));
size_t mask1 = mask;
const size_t i1 = bscf(mask1);
if (mask) {
const unsigned int primID1 = prim.primID(N)[i1];
geom->prefetchL1_vertices(geom->curve(primID1));
if (mask1) {
const size_t i2 = bsf(mask1);
const unsigned int primID2 = prim.primID(N)[i2];
geom->prefetchL2_vertices(geom->curve(primID2));
}
}
Intersector().intersect(pre,ray,context,geom,primID,a0,a1,a2,a3,Epilog(ray,context,geomID,primID));
mask &= movemask(tNear <= vfloat<M>(ray.tfar));
}
}
|
pushq %rbp
movq %rsp, %rbp
pushq %r15
pushq %r14
pushq %r13
pushq %r12
pushq %rbx
andq $-0x20, %rsp
subq $0x600, %rsp # imm = 0x600
movq %rcx, %r9
movzbl 0x1(%rcx), %ecx
leaq (%rcx,%rcx,4), %rax
leaq (%rax,%rax,4), %r8
vbroadcastss 0x12(%r9,%r8), %xmm0
movq %rsi, %r15
movq %rdi, %r11
vmovaps (%rsi), %xmm1
vsubps 0x6(%r9,%r8), %xmm1, %xmm1
vmulps %xmm1, %xmm0, %xmm3
vmulps 0x10(%rsi), %xmm0, %xmm0
vpmovsxbd 0x6(%r9,%rcx,4), %ymm1
vpmovsxbd 0x6(%r9,%rax), %ymm2
vcvtdq2ps %ymm1, %ymm5
vcvtdq2ps %ymm2, %ymm6
leaq (%rcx,%rcx,2), %r8
vpmovsxbd 0x6(%r9,%r8,2), %ymm1
vcvtdq2ps %ymm1, %ymm4
leaq (%rcx,%rax,2), %rsi
vpmovsxbd 0x6(%r9,%rsi), %ymm1
leal (,%r8,4), %esi
vpmovsxbd 0x6(%r9,%rsi), %ymm2
vcvtdq2ps %ymm1, %ymm7
vcvtdq2ps %ymm2, %ymm8
addq %rcx, %rsi
vpmovsxbd 0x6(%r9,%rsi), %ymm1
vcvtdq2ps %ymm1, %ymm9
leaq (%rcx,%rcx,8), %rsi
leal (%rsi,%rsi), %edi
vpmovsxbd 0x6(%r9,%rdi), %ymm1
vcvtdq2ps %ymm1, %ymm10
addq %rcx, %rdi
vpmovsxbd 0x6(%r9,%rdi), %ymm1
vcvtdq2ps %ymm1, %ymm11
shll $0x2, %eax
vpmovsxbd 0x6(%r9,%rax), %ymm1
vcvtdq2ps %ymm1, %ymm12
vbroadcastss %xmm0, %ymm13
vbroadcastss 0x2575c1(%rip), %ymm15 # 0x1f12704
vbroadcastss 0x265d8f(%rip), %ymm16 # 0x1f20edc
vpermps %ymm0, %ymm15, %ymm14
vpermps %ymm0, %ymm16, %ymm0
vmulps %ymm4, %ymm0, %ymm2
vmulps %ymm0, %ymm9, %ymm1
vmulps %ymm0, %ymm12, %ymm0
vfmadd231ps %ymm6, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm6) + ymm2
vfmadd231ps %ymm8, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm8) + ymm1
vfmadd231ps %ymm14, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm14) + ymm0
vfmadd231ps %ymm5, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm5) + ymm2
vfmadd231ps %ymm7, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm7) + ymm1
vfmadd231ps %ymm13, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm13) + ymm0
vbroadcastss %xmm3, %ymm13
vpermps %ymm3, %ymm15, %ymm14
vpermps %ymm3, %ymm16, %ymm3
vmulps %ymm4, %ymm3, %ymm15
vmulps %ymm3, %ymm9, %ymm4
vmulps %ymm3, %ymm12, %ymm3
vfmadd231ps %ymm6, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm6) + ymm15
vfmadd231ps %ymm8, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm8) + ymm4
vfmadd231ps %ymm11, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm11) + ymm3
vfmadd231ps %ymm5, %ymm13, %ymm15 # ymm15 = (ymm13 * ymm5) + ymm15
vfmadd231ps %ymm7, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm7) + ymm4
vbroadcastss 0x265d04(%rip), %ymm7 # 0x1f20ec4
vfmadd231ps %ymm10, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm10) + ymm3
vandps %ymm7, %ymm2, %ymm5
vbroadcastss 0x235e16(%rip), %ymm6 # 0x1ef0fe8
vcmpltps %ymm6, %ymm5, %k1
vmovaps %ymm6, %ymm2 {%k1}
vandps %ymm7, %ymm1, %ymm5
vcmpltps %ymm6, %ymm5, %k1
vmovaps %ymm6, %ymm1 {%k1}
vandps %ymm7, %ymm0, %ymm5
vcmpltps %ymm6, %ymm5, %k1
vmovaps %ymm6, %ymm0 {%k1}
vrcp14ps %ymm2, %ymm5
vbroadcastss 0x231504(%rip), %ymm6 # 0x1eec714
vfnmadd213ps %ymm6, %ymm5, %ymm2 # ymm2 = -(ymm5 * ymm2) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm2 # ymm2 = (ymm2 * ymm5) + ymm5
vrcp14ps %ymm1, %ymm5
vfnmadd213ps %ymm6, %ymm5, %ymm1 # ymm1 = -(ymm5 * ymm1) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm1 # ymm1 = (ymm1 * ymm5) + ymm5
vrcp14ps %ymm0, %ymm5
vfnmadd213ps %ymm6, %ymm5, %ymm0 # ymm0 = -(ymm5 * ymm0) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm0 # ymm0 = (ymm0 * ymm5) + ymm5
leaq (,%rcx,8), %rdi
subq %rcx, %rdi
vpmovsxwd 0x6(%r9,%rdi), %ymm5
vcvtdq2ps %ymm5, %ymm5
vsubps %ymm15, %ymm5, %ymm5
vmulps %ymm5, %ymm2, %ymm5
vpmovsxwd 0x6(%r9,%rsi), %ymm6
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm15, %ymm6, %ymm6
leaq (%rcx,%rcx), %rsi
addq %rcx, %rax
shlq $0x3, %r8
subq %rcx, %r8
vpbroadcastd %ecx, %ymm7
shll $0x4, %ecx
vpmovsxwd 0x6(%r9,%rcx), %ymm8
vmulps %ymm6, %ymm2, %ymm2
subq %rsi, %rcx
vpmovsxwd 0x6(%r9,%rcx), %ymm6
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm4, %ymm6, %ymm6
vmulps %ymm6, %ymm1, %ymm6
vcvtdq2ps %ymm8, %ymm8
vsubps %ymm4, %ymm8, %ymm4
vmulps %ymm4, %ymm1, %ymm1
vpmovsxwd 0x6(%r9,%rax), %ymm4
vcvtdq2ps %ymm4, %ymm4
vsubps %ymm3, %ymm4, %ymm4
vmulps %ymm0, %ymm4, %ymm4
vpmovsxwd 0x6(%r9,%r8), %ymm8
vcvtdq2ps %ymm8, %ymm8
vsubps %ymm3, %ymm8, %ymm3
vmulps %ymm3, %ymm0, %ymm0
vpminsd %ymm2, %ymm5, %ymm3
vpminsd %ymm1, %ymm6, %ymm8
vmaxps %ymm8, %ymm3, %ymm3
vpminsd %ymm0, %ymm4, %ymm8
vmaxps 0xc(%r15){1to8}, %ymm8, %ymm8
vmaxps %ymm8, %ymm3, %ymm3
vmulps 0x264c11(%rip){1to8}, %ymm3, %ymm3 # 0x1f1ff10
vpmaxsd %ymm2, %ymm5, %ymm2
vpmaxsd %ymm1, %ymm6, %ymm1
vminps %ymm1, %ymm2, %ymm1
vpmaxsd %ymm0, %ymm4, %ymm0
vminps 0x20(%r15){1to8}, %ymm0, %ymm0
vminps %ymm0, %ymm1, %ymm0
vmulps 0x264bed(%rip){1to8}, %ymm0, %ymm0 # 0x1f1ff14
vpcmpgtd 0x29f5ef(%rip), %ymm7, %k0 # 0x1f5a920
vmovaps %ymm3, 0x5c0(%rsp)
vcmpleps %ymm0, %ymm3, %k1
ktestb %k0, %k1
je 0x1cbd272
kandb %k0, %k1, %k0
kmovd %k0, %eax
movzbl %al, %r13d
leaq 0x47500e(%rip), %r14 # 0x213036c
vmovaps %ymm6, 0xc0(%rsp)
vmovaps %ymm3, 0x60(%rsp)
vmovaps %ymm21, 0x1e0(%rsp)
vmovaps %ymm20, 0x200(%rsp)
tzcntq %r13, %rax
movl 0x2(%r9), %ecx
movl 0x6(%r9,%rax,4), %edi
movq (%rdx), %rax
movq 0x1e8(%rax), %rax
movq %rcx, 0x38(%rsp)
movq (%rax,%rcx,8), %rbx
movq 0x58(%rbx), %rax
movq 0x68(%rbx), %rcx
movq %rcx, %rsi
movq %rdi, 0x58(%rsp)
imulq %rdi, %rsi
movl (%rax,%rsi), %edi
movq 0xa0(%rbx), %r10
movq %r10, %r8
imulq %rdi, %r8
movq 0x90(%rbx), %rsi
vmovaps (%rsi,%r8), %xmm13
leaq 0x1(%rdi), %r8
imulq %r10, %r8
vmovaps (%rsi,%r8), %xmm0
vmovaps %xmm0, 0xf0(%rsp)
leaq 0x2(%rdi), %r8
imulq %r10, %r8
vmovaps (%rsi,%r8), %xmm0
vmovaps %xmm0, 0xe0(%rsp)
blsrq %r13, %r13
addq $0x3, %rdi
imulq %r10, %rdi
vmovaps (%rsi,%rdi), %xmm0
vmovaps %xmm0, 0x100(%rsp)
movq %r13, %rdi
subq $0x1, %rdi
jb 0x1cbb46b
andq %r13, %rdi
tzcntq %r13, %r8
movl 0x6(%r9,%r8,4), %r8d
imulq %rcx, %r8
movl (%rax,%r8), %r8d
imulq %r10, %r8
prefetcht0 (%rsi,%r8)
prefetcht0 0x40(%rsi,%r8)
testq %rdi, %rdi
je 0x1cbb46b
tzcntq %rdi, %rdi
movl 0x6(%r9,%rdi,4), %edi
imulq %rdi, %rcx
movl (%rax,%rcx), %eax
imulq %rax, %r10
prefetcht1 (%rsi,%r10)
prefetcht1 0x40(%rsi,%r10)
movl 0x248(%rbx), %r8d
vmovaps (%r15), %xmm0
vsubps %xmm0, %xmm13, %xmm1
vbroadcastss %xmm1, %xmm2
vshufps $0x55, %xmm1, %xmm1, %xmm3 # xmm3 = xmm1[1,1,1,1]
vshufps $0xaa, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,2,2,2]
vmovaps 0x10(%r11), %xmm4
vmovaps 0x20(%r11), %xmm5
vmovaps 0x30(%r11), %xmm6
vmulps %xmm6, %xmm1, %xmm8
vfmadd231ps %xmm3, %xmm5, %xmm8 # xmm8 = (xmm5 * xmm3) + xmm8
vfmadd231ps %xmm2, %xmm4, %xmm8 # xmm8 = (xmm4 * xmm2) + xmm8
vshufps $0xff, %xmm13, %xmm13, %xmm1 # xmm1 = xmm13[3,3,3,3]
vmovaps 0xf0(%rsp), %xmm3
vsubps %xmm0, %xmm3, %xmm2
vmovaps %xmm3, %xmm10
vbroadcastss %xmm2, %xmm3
vshufps $0x55, %xmm2, %xmm2, %xmm7 # xmm7 = xmm2[1,1,1,1]
vshufps $0xaa, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[2,2,2,2]
vmulps %xmm6, %xmm2, %xmm9
vfmadd231ps %xmm7, %xmm5, %xmm9 # xmm9 = (xmm5 * xmm7) + xmm9
vfmadd231ps %xmm3, %xmm4, %xmm9 # xmm9 = (xmm4 * xmm3) + xmm9
vshufps $0xff, %xmm10, %xmm10, %xmm2 # xmm2 = xmm10[3,3,3,3]
vmovaps 0xe0(%rsp), %xmm7
vsubps %xmm0, %xmm7, %xmm3
vmovaps %xmm7, %xmm12
vbroadcastss %xmm3, %xmm7
vshufps $0x55, %xmm3, %xmm3, %xmm11 # xmm11 = xmm3[1,1,1,1]
vshufps $0xaa, %xmm3, %xmm3, %xmm3 # xmm3 = xmm3[2,2,2,2]
vmulps %xmm6, %xmm3, %xmm10
vfmadd231ps %xmm11, %xmm5, %xmm10 # xmm10 = (xmm5 * xmm11) + xmm10
vfmadd231ps %xmm7, %xmm4, %xmm10 # xmm10 = (xmm4 * xmm7) + xmm10
vshufps $0xff, %xmm12, %xmm12, %xmm7 # xmm7 = xmm12[3,3,3,3]
vmovaps 0x100(%rsp), %xmm27
vsubps %xmm0, %xmm27, %xmm0
vbroadcastss %xmm0, %xmm3
vshufps $0x55, %xmm0, %xmm0, %xmm12 # xmm12 = xmm0[1,1,1,1]
vshufps $0xaa, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[2,2,2,2]
vmulps %xmm6, %xmm0, %xmm11
vfmadd231ps %xmm12, %xmm5, %xmm11 # xmm11 = (xmm5 * xmm12) + xmm11
vfmadd231ps %xmm3, %xmm4, %xmm11 # xmm11 = (xmm4 * xmm3) + xmm11
movslq %r8d, %rax
movq %rax, %rcx
shlq $0x6, %rcx
leaq (%rcx,%rax,4), %r12
vmovups (%r14,%r12), %ymm25
vshufps $0xff, %xmm27, %xmm27, %xmm0 # xmm0 = xmm27[3,3,3,3]
vbroadcastss %xmm8, %ymm20
vbroadcastss 0x257196(%rip), %ymm3 # 0x1f12704
vpermps %ymm8, %ymm3, %ymm23
vbroadcastsd %xmm1, %ymm12
vmovups 0x484(%r14,%r12), %ymm14
vbroadcastss %xmm9, %ymm1
vpermps %ymm9, %ymm3, %ymm26
vbroadcastsd %xmm2, %ymm21
vmovups 0x908(%r14,%r12), %ymm15
vbroadcastss %xmm10, %ymm30
vpermps %ymm10, %ymm3, %ymm29
vbroadcastsd %xmm7, %ymm22
vmovups 0xd8c(%r14,%r12), %ymm16
vbroadcastss %xmm11, %ymm28
vpermps %ymm11, %ymm3, %ymm31
vbroadcastsd %xmm0, %ymm3
vmulps %ymm16, %ymm28, %ymm5
vmulps %ymm16, %ymm31, %ymm4
vfmadd231ps %ymm30, %ymm15, %ymm5 # ymm5 = (ymm15 * ymm30) + ymm5
vfmadd231ps %ymm29, %ymm15, %ymm4 # ymm4 = (ymm15 * ymm29) + ymm4
vfmadd231ps %ymm1, %ymm14, %ymm5 # ymm5 = (ymm14 * ymm1) + ymm5
vfmadd231ps %ymm26, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm26) + ymm4
vfmadd231ps %ymm20, %ymm25, %ymm5 # ymm5 = (ymm25 * ymm20) + ymm5
leaq 0x477190(%rip), %rdi # 0x213278c
vmovups (%rdi,%r12), %ymm2
vmovups 0x484(%rdi,%r12), %ymm17
vfmadd231ps %ymm23, %ymm25, %ymm4 # ymm4 = (ymm25 * ymm23) + ymm4
vmovups 0x908(%rdi,%r12), %ymm18
vmovups 0xd8c(%rdi,%r12), %ymm19
vmulps %ymm19, %ymm28, %ymm7
vmulps %ymm19, %ymm31, %ymm6
vfmadd231ps %ymm30, %ymm18, %ymm7 # ymm7 = (ymm18 * ymm30) + ymm7
vfmadd231ps %ymm29, %ymm18, %ymm6 # ymm6 = (ymm18 * ymm29) + ymm6
vmovaps %ymm1, 0x140(%rsp)
vfmadd231ps %ymm1, %ymm17, %ymm7 # ymm7 = (ymm17 * ymm1) + ymm7
vfmadd231ps %ymm26, %ymm17, %ymm6 # ymm6 = (ymm17 * ymm26) + ymm6
vmovaps %ymm20, 0x260(%rsp)
vfmadd231ps %ymm20, %ymm2, %ymm7 # ymm7 = (ymm2 * ymm20) + ymm7
vmovaps %ymm23, 0x160(%rsp)
vfmadd231ps %ymm23, %ymm2, %ymm6 # ymm6 = (ymm2 * ymm23) + ymm6
vsubps %ymm5, %ymm7, %ymm24
vsubps %ymm4, %ymm6, %ymm23
vmulps %ymm24, %ymm4, %ymm0
vmulps %ymm23, %ymm5, %ymm1
vsubps %ymm1, %ymm0, %ymm20
vmulps %ymm16, %ymm3, %ymm0
vfmadd231ps %ymm22, %ymm15, %ymm0 # ymm0 = (ymm15 * ymm22) + ymm0
vfmadd231ps %ymm21, %ymm14, %ymm0 # ymm0 = (ymm14 * ymm21) + ymm0
vfmadd231ps %ymm12, %ymm25, %ymm0 # ymm0 = (ymm25 * ymm12) + ymm0
vmovaps %ymm3, 0x500(%rsp)
vmulps %ymm19, %ymm3, %ymm1
vmovaps %ymm22, 0x520(%rsp)
vfmadd231ps %ymm22, %ymm18, %ymm1 # ymm1 = (ymm18 * ymm22) + ymm1
vmovaps %ymm21, 0x580(%rsp)
vfmadd231ps %ymm21, %ymm17, %ymm1 # ymm1 = (ymm17 * ymm21) + ymm1
vmovaps %ymm12, 0x5a0(%rsp)
vfmadd231ps %ymm12, %ymm2, %ymm1 # ymm1 = (ymm2 * ymm12) + ymm1
vmulps %ymm23, %ymm23, %ymm21
vfmadd231ps %ymm24, %ymm24, %ymm21 # ymm21 = (ymm24 * ymm24) + ymm21
vmaxps %ymm1, %ymm0, %ymm22
vmulps %ymm22, %ymm22, %ymm22
vmulps %ymm21, %ymm22, %ymm21
vmulps %ymm20, %ymm20, %ymm20
vcmpleps %ymm21, %ymm20, %k1
vmovaps %xmm13, 0x40(%rsp)
vblendps $0x8, %xmm13, %xmm8, %xmm12 # xmm12 = xmm8[0,1,2],xmm13[3]
vbroadcastss 0x2657a2(%rip), %xmm20 # 0x1f20ec4
vandps %xmm20, %xmm12, %xmm12
vblendps $0x8, 0xf0(%rsp), %xmm9, %xmm13 # xmm13 = xmm9[0,1,2],mem[3]
vandps %xmm20, %xmm13, %xmm13
vmaxps %xmm13, %xmm12, %xmm12
vblendps $0x8, 0xe0(%rsp), %xmm10, %xmm13 # xmm13 = xmm10[0,1,2],mem[3]
vandps %xmm20, %xmm13, %xmm13
vmovaps %xmm27, %xmm3
vblendps $0x8, %xmm3, %xmm11, %xmm3 # xmm3 = xmm11[0,1,2],xmm3[3]
vandps %xmm20, %xmm3, %xmm3
vmaxps %xmm3, %xmm13, %xmm3
vmaxps %xmm3, %xmm12, %xmm3
vmovshdup %xmm3, %xmm12 # xmm12 = xmm3[1,1,3,3]
vmaxss %xmm3, %xmm12, %xmm12
vshufpd $0x1, %xmm3, %xmm3, %xmm3 # xmm3 = xmm3[1,0]
vmaxss %xmm12, %xmm3, %xmm3
vcvtsi2ss %r8d, %xmm8, %xmm12
vmovaps %xmm12, 0x2c0(%rsp)
vbroadcastss %xmm12, %ymm12
vcmpgtps 0x2657a7(%rip), %ymm12, %k1 {%k1} # 0x1f20f40
vmulss 0x235841(%rip), %xmm3, %xmm27 # 0x1ef0fe4
vbroadcastss 0x265730(%rip), %ymm3 # 0x1f20edc
vpermps %ymm8, %ymm3, %ymm20
vpermps %ymm9, %ymm3, %ymm21
vpermps %ymm10, %ymm3, %ymm22
vpermps %ymm11, %ymm3, %ymm3
kortestb %k1, %k1
vmovss 0xc(%r15), %xmm10
vmovaps %ymm26, 0x460(%rsp)
vmovaps %ymm30, 0x560(%rsp)
vmovaps %ymm29, 0x540(%rsp)
vmovaps %ymm20, 0x4e0(%rsp)
vmovaps %ymm21, 0x4c0(%rsp)
vmovaps %ymm22, 0x4a0(%rsp)
vmovaps %ymm3, 0x480(%rsp)
je 0x1cbbf80
vmovaps %xmm10, 0x240(%rsp)
vmovaps %xmm27, 0x280(%rsp)
vmovaps %ymm3, %ymm27
vmulps %ymm19, %ymm3, %ymm3
vfmadd213ps %ymm3, %ymm22, %ymm18 # ymm18 = (ymm22 * ymm18) + ymm3
vfmadd213ps %ymm18, %ymm21, %ymm17 # ymm17 = (ymm21 * ymm17) + ymm18
vfmadd213ps %ymm17, %ymm20, %ymm2 # ymm2 = (ymm20 * ymm2) + ymm17
vmulps %ymm16, %ymm27, %ymm3
vfmadd213ps %ymm3, %ymm22, %ymm15 # ymm15 = (ymm22 * ymm15) + ymm3
vfmadd213ps %ymm15, %ymm21, %ymm14 # ymm14 = (ymm21 * ymm14) + ymm15
vmovups 0x1210(%r14,%r12), %ymm3
vmovups 0x1694(%r14,%r12), %ymm10
vmovups 0x1b18(%r14,%r12), %ymm11
vmovups 0x1f9c(%r14,%r12), %ymm12
vfmadd213ps %ymm14, %ymm20, %ymm25 # ymm25 = (ymm20 * ymm25) + ymm14
vmulps %ymm12, %ymm28, %ymm9
vmulps %ymm12, %ymm31, %ymm8
vmulps %ymm12, %ymm27, %ymm12
vfmadd231ps %ymm30, %ymm11, %ymm9 # ymm9 = (ymm11 * ymm30) + ymm9
vfmadd231ps %ymm29, %ymm11, %ymm8 # ymm8 = (ymm11 * ymm29) + ymm8
vfmadd231ps %ymm11, %ymm22, %ymm12 # ymm12 = (ymm22 * ymm11) + ymm12
vmovaps 0x140(%rsp), %ymm19
vfmadd231ps %ymm19, %ymm10, %ymm9 # ymm9 = (ymm10 * ymm19) + ymm9
vfmadd231ps %ymm26, %ymm10, %ymm8 # ymm8 = (ymm10 * ymm26) + ymm8
vfmadd231ps %ymm10, %ymm21, %ymm12 # ymm12 = (ymm21 * ymm10) + ymm12
vmovaps 0x260(%rsp), %ymm17
vfmadd231ps %ymm17, %ymm3, %ymm9 # ymm9 = (ymm3 * ymm17) + ymm9
vmovaps 0x160(%rsp), %ymm18
vfmadd231ps %ymm18, %ymm3, %ymm8 # ymm8 = (ymm3 * ymm18) + ymm8
vmovups 0x1210(%rdi,%r12), %ymm10
vmovups 0x1b18(%rdi,%r12), %ymm11
vmovups 0x1f9c(%rdi,%r12), %ymm13
vfmadd231ps %ymm3, %ymm20, %ymm12 # ymm12 = (ymm20 * ymm3) + ymm12
vmovaps %ymm28, 0x1c0(%rsp)
vmulps %ymm13, %ymm28, %ymm3
vmovaps %ymm31, 0x1a0(%rsp)
vmulps %ymm13, %ymm31, %ymm14
vmulps %ymm13, %ymm27, %ymm13
vmovaps 0x280(%rsp), %xmm27
vfmadd231ps %ymm30, %ymm11, %ymm3 # ymm3 = (ymm11 * ymm30) + ymm3
vfmadd231ps %ymm29, %ymm11, %ymm14 # ymm14 = (ymm11 * ymm29) + ymm14
vfmadd231ps %ymm11, %ymm22, %ymm13 # ymm13 = (ymm22 * ymm11) + ymm13
vmovups 0x1694(%rdi,%r12), %ymm11
vfmadd231ps %ymm19, %ymm11, %ymm3 # ymm3 = (ymm11 * ymm19) + ymm3
vfmadd231ps %ymm26, %ymm11, %ymm14 # ymm14 = (ymm11 * ymm26) + ymm14
vfmadd231ps %ymm11, %ymm21, %ymm13 # ymm13 = (ymm21 * ymm11) + ymm13
vfmadd231ps %ymm17, %ymm10, %ymm3 # ymm3 = (ymm10 * ymm17) + ymm3
vfmadd231ps %ymm18, %ymm10, %ymm14 # ymm14 = (ymm10 * ymm18) + ymm14
vfmadd231ps %ymm10, %ymm20, %ymm13 # ymm13 = (ymm20 * ymm10) + ymm13
vbroadcastss 0x265558(%rip), %ymm15 # 0x1f20ec4
vandps %ymm15, %ymm9, %ymm10
vandps %ymm15, %ymm8, %ymm11
vmaxps %ymm11, %ymm10, %ymm10
vandps %ymm15, %ymm12, %ymm11
vmaxps %ymm11, %ymm10, %ymm10
vbroadcastss %xmm27, %ymm11
vcmpltps %ymm11, %ymm10, %k2
vmovaps %ymm24, %ymm9 {%k2}
vmovaps %ymm23, %ymm8 {%k2}
vandps %ymm3, %ymm15, %ymm10
vandps %ymm15, %ymm14, %ymm12
vmaxps %ymm12, %ymm10, %ymm10
vandps %ymm15, %ymm13, %ymm12
vmaxps %ymm12, %ymm10, %ymm10
vcmpltps %ymm11, %ymm10, %k2
vmovaps %ymm24, %ymm3 {%k2}
vmovaps %ymm23, %ymm14 {%k2}
vbroadcastss 0x2654ee(%rip), %ymm11 # 0x1f20ec0
vxorps %ymm11, %ymm9, %ymm10
vxorps %ymm3, %ymm11, %ymm12
vxorps %xmm23, %xmm23, %xmm23
vfmadd213ps %ymm23, %ymm9, %ymm9 # ymm9 = (ymm9 * ymm9) + ymm23
vfmadd231ps %ymm8, %ymm8, %ymm9 # ymm9 = (ymm8 * ymm8) + ymm9
vrsqrt14ps %ymm9, %ymm11
vbroadcastss 0x230d21(%rip), %ymm15 # 0x1eec71c
vmulps %ymm15, %ymm9, %ymm9
vmulps %ymm9, %ymm11, %ymm9
vmulps %ymm11, %ymm11, %ymm13
vmulps %ymm9, %ymm13, %ymm9
vbroadcastss 0x230cff(%rip), %ymm16 # 0x1eec718
vfmadd231ps %ymm11, %ymm16, %ymm9 # ymm9 = (ymm16 * ymm11) + ymm9
vmulps %ymm9, %ymm8, %ymm11
vmulps %ymm10, %ymm9, %ymm10
vmulps %ymm23, %ymm9, %ymm13
vfmadd213ps %ymm23, %ymm3, %ymm3 # ymm3 = (ymm3 * ymm3) + ymm23
vfmadd231ps %ymm14, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm14) + ymm3
vrsqrt14ps %ymm3, %ymm8
vmulps %ymm3, %ymm15, %ymm3
vmulps %ymm3, %ymm8, %ymm3
vmulps %ymm8, %ymm8, %ymm9
vmulps %ymm3, %ymm9, %ymm3
vfmadd231ps %ymm8, %ymm16, %ymm3 # ymm3 = (ymm16 * ymm8) + ymm3
vmulps %ymm3, %ymm14, %ymm8
vmulps %ymm3, %ymm12, %ymm9
vmulps %ymm23, %ymm3, %ymm3
vmovaps %ymm11, %ymm12
vfmadd213ps %ymm5, %ymm0, %ymm12 # ymm12 = (ymm0 * ymm12) + ymm5
vmovaps %ymm10, %ymm14
vfmadd213ps %ymm4, %ymm0, %ymm14 # ymm14 = (ymm0 * ymm14) + ymm4
vmovaps %ymm13, %ymm15
vfmadd213ps %ymm25, %ymm0, %ymm15 # ymm15 = (ymm0 * ymm15) + ymm25
vmovaps %ymm8, %ymm16
vfmadd213ps %ymm7, %ymm1, %ymm16 # ymm16 = (ymm1 * ymm16) + ymm7
vfnmadd213ps %ymm5, %ymm0, %ymm11 # ymm11 = -(ymm0 * ymm11) + ymm5
vmovaps %ymm9, %ymm5
vfmadd213ps %ymm6, %ymm1, %ymm5 # ymm5 = (ymm1 * ymm5) + ymm6
vfnmadd213ps %ymm4, %ymm0, %ymm10 # ymm10 = -(ymm0 * ymm10) + ymm4
vmovaps %ymm3, %ymm4
vfmadd213ps %ymm2, %ymm1, %ymm4 # ymm4 = (ymm1 * ymm4) + ymm2
vfnmadd231ps %ymm13, %ymm0, %ymm25 # ymm25 = -(ymm0 * ymm13) + ymm25
vfnmadd213ps %ymm7, %ymm1, %ymm8 # ymm8 = -(ymm1 * ymm8) + ymm7
vfnmadd213ps %ymm6, %ymm1, %ymm9 # ymm9 = -(ymm1 * ymm9) + ymm6
vfnmadd231ps %ymm3, %ymm1, %ymm2 # ymm2 = -(ymm1 * ymm3) + ymm2
vsubps %ymm11, %ymm16, %ymm3
vsubps %ymm10, %ymm5, %ymm6
vsubps %ymm25, %ymm4, %ymm7
vmulps %ymm25, %ymm6, %ymm13
vfmsub231ps %ymm7, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm7) - ymm13
vmulps %ymm7, %ymm11, %ymm7
vfmsub231ps %ymm3, %ymm25, %ymm7 # ymm7 = (ymm25 * ymm3) - ymm7
vmulps %ymm3, %ymm10, %ymm3
vfmsub231ps %ymm6, %ymm11, %ymm3 # ymm3 = (ymm11 * ymm6) - ymm3
vfmadd231ps %ymm7, %ymm23, %ymm3 # ymm3 = (ymm23 * ymm7) + ymm3
vfmadd231ps %ymm13, %ymm23, %ymm3 # ymm3 = (ymm23 * ymm13) + ymm3
vcmpleps %ymm23, %ymm3, %k2
vmovaps %ymm12, %ymm8 {%k2}
vmovaps %ymm14, %ymm9 {%k2}
vmovaps %ymm15, %ymm2 {%k2}
vblendmps %ymm16, %ymm11, %ymm13 {%k2}
vblendmps %ymm5, %ymm10, %ymm14 {%k2}
vblendmps %ymm4, %ymm25, %ymm15 {%k2}
vmovaps %ymm11, %ymm16 {%k2}
vmovaps %ymm10, %ymm5 {%k2}
vmovaps %ymm25, %ymm4 {%k2}
vsubps %ymm8, %ymm16, %ymm6
vsubps %ymm9, %ymm5, %ymm5
vsubps %ymm2, %ymm4, %ymm11
vsubps %ymm13, %ymm8, %ymm7
vsubps %ymm14, %ymm9, %ymm10
vsubps %ymm15, %ymm2, %ymm12
vmulps %ymm8, %ymm11, %ymm4
vfmsub231ps %ymm6, %ymm2, %ymm4 # ymm4 = (ymm2 * ymm6) - ymm4
vmulps %ymm6, %ymm9, %ymm3
vfmsub231ps %ymm5, %ymm8, %ymm3 # ymm3 = (ymm8 * ymm5) - ymm3
vfmadd231ps %ymm4, %ymm23, %ymm3 # ymm3 = (ymm23 * ymm4) + ymm3
vmulps %ymm2, %ymm5, %ymm4
vfmsub231ps %ymm11, %ymm9, %ymm4 # ymm4 = (ymm9 * ymm11) - ymm4
vfmadd231ps %ymm4, %ymm23, %ymm3 # ymm3 = (ymm23 * ymm4) + ymm3
vmulps %ymm13, %ymm12, %ymm16
vfmsub231ps %ymm15, %ymm7, %ymm16 # ymm16 = (ymm7 * ymm15) - ymm16
vmulps %ymm15, %ymm10, %ymm15
vfmsub231ps %ymm12, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm12) - ymm15
vmulps %ymm7, %ymm14, %ymm4
vfmsub231ps %ymm13, %ymm10, %ymm4 # ymm4 = (ymm10 * ymm13) - ymm4
vfmadd231ps %ymm16, %ymm23, %ymm4 # ymm4 = (ymm23 * ymm16) + ymm4
vfmadd231ps %ymm15, %ymm23, %ymm4 # ymm4 = (ymm23 * ymm15) + ymm4
vmaxps %ymm4, %ymm3, %ymm13
vcmpleps %ymm23, %ymm13, %k0 {%k1}
kortestb %k0, %k0
vmovaps 0x200(%rsp), %ymm20
vmovaps 0x1e0(%rsp), %ymm21
vmovaps %ymm17, %ymm22
je 0x1cbcdc4
vmulps %ymm5, %ymm12, %ymm13
vfmsub231ps %ymm11, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm11) - ymm13
vmulps %ymm7, %ymm11, %ymm11
vfmsub231ps %ymm12, %ymm6, %ymm11 # ymm11 = (ymm6 * ymm12) - ymm11
vmulps %ymm6, %ymm10, %ymm10
vfmsub231ps %ymm5, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm5) - ymm10
vxorps %xmm6, %xmm6, %xmm6
vfmadd213ps %ymm10, %ymm11, %ymm6 # ymm6 = (ymm11 * ymm6) + ymm10
vfmadd231ps %ymm23, %ymm13, %ymm6 # ymm6 = (ymm13 * ymm23) + ymm6
vrcp14ps %ymm6, %ymm7
vmovaps %ymm7, %ymm5
vfnmadd213ps 0x230b01(%rip){1to8}, %ymm6, %ymm5 # ymm5 = -(ymm6 * ymm5) + mem
vfmadd132ps %ymm7, %ymm7, %ymm5 # ymm5 = (ymm5 * ymm7) + ymm7
vmulps %ymm2, %ymm10, %ymm2
vfmadd231ps %ymm11, %ymm9, %ymm2 # ymm2 = (ymm9 * ymm11) + ymm2
vfmadd231ps %ymm13, %ymm8, %ymm2 # ymm2 = (ymm8 * ymm13) + ymm2
vmulps %ymm5, %ymm2, %ymm2
vmovaps 0x240(%rsp), %xmm10
vbroadcastss %xmm10, %ymm7
vcmpleps %ymm2, %ymm7, %k1
vcmpleps 0x20(%r15){1to8}, %ymm2, %k1 {%k1}
kandb %k0, %k1, %k0
kortestb %k0, %k0
vmovaps 0x1c0(%rsp), %ymm28
vmovaps 0x1a0(%rsp), %ymm31
je 0x1cbcdfa
vcmpneqps %ymm23, %ymm6, %k1
ktestb %k1, %k0
vmovaps 0x40(%rsp), %xmm9
je 0x1cbce17
kandb %k1, %k0, %k0
kmovd %k0, %eax
vmulps %ymm5, %ymm3, %ymm3
vmulps %ymm5, %ymm4, %ymm4
vbroadcastss 0x230a7f(%rip), %ymm5 # 0x1eec714
vsubps %ymm3, %ymm5, %ymm6
vmovaps %ymm3, %ymm6 {%k2}
vsubps %ymm4, %ymm5, %ymm3
vmovaps %ymm4, %ymm3 {%k2}
vmovaps %ymm3, 0x420(%rsp)
movzbl %al, %r14d
vmovaps %ymm2, %ymm3
testw %r14w, %r14w
je 0x1cbbf77
vsubps %ymm0, %ymm1, %ymm1
vfmadd213ps %ymm0, %ymm6, %ymm1 # ymm1 = (ymm6 * ymm1) + ymm0
vaddps %ymm1, %ymm1, %ymm0
vmulps (%r11){1to8}, %ymm0, %ymm0
vcmpnleps %ymm0, %ymm3, %k0
kmovd %k0, %eax
andb %al, %r14b
je 0x1cbbf77
vbroadcastss 0x234cd8(%rip), %ymm0 # 0x1ef09cc
vmovaps 0x420(%rsp), %ymm1
vfmadd132ps 0x2352f1(%rip){1to8}, %ymm0, %ymm1 # ymm1 = (ymm1 * mem) + ymm0
vmovaps %ymm6, 0x2e0(%rsp)
vmovaps %ymm1, 0x420(%rsp)
vmovaps %ymm1, 0x300(%rsp)
vmovaps %ymm3, 0x320(%rsp)
movl $0x0, 0x340(%rsp)
movl %r8d, 0x344(%rsp)
vmovaps %xmm9, 0x350(%rsp)
vmovaps 0xf0(%rsp), %xmm0
vmovaps %xmm0, 0x360(%rsp)
vmovaps 0xe0(%rsp), %xmm0
vmovaps %xmm0, 0x370(%rsp)
vmovaps 0x100(%rsp), %xmm0
vmovaps %xmm0, 0x380(%rsp)
movb %r14b, 0x390(%rsp)
movl 0x24(%r15), %eax
testl %eax, 0x34(%rbx)
je 0x1cbbf77
vaddps 0x2651a6(%rip), %ymm6, %ymm0 # 0x1f20f40
vmovss 0x230972(%rip), %xmm1 # 0x1eec714
vdivss 0x2c0(%rsp), %xmm1, %xmm1
vbroadcastss %xmm1, %ymm1
vmulps %ymm0, %ymm1, %ymm0
vmovaps %ymm0, 0x3a0(%rsp)
vmovaps 0x420(%rsp), %ymm0
vmovaps %ymm0, 0x3c0(%rsp)
vmovaps %ymm3, 0x3e0(%rsp)
kmovd %r14d, %k1
vbroadcastss 0x22fc3a(%rip), %ymm0 # 0x1eeba20
vblendmps %ymm3, %ymm0, %ymm0 {%k1}
vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm0, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1]
vminps %ymm2, %ymm1, %ymm1
vcmpeqps %ymm1, %ymm0, %k0
kmovd %k0, %eax
andb %r14b, %al
movzbl %al, %eax
movzbl %r14b, %ecx
cmovnel %eax, %ecx
tzcntl %ecx, %r10d
movq 0x10(%rdx), %rax
cmpq $0x0, 0x10(%rax)
jne 0x1cbce2e
cmpq $0x0, 0x40(%rbx)
jne 0x1cbce2e
vmovss 0x3a0(%rsp,%r10,4), %xmm0
vmovss 0x3c0(%rsp,%r10,4), %xmm1
vmovss 0x2308b9(%rip), %xmm2 # 0x1eec714
vsubss %xmm0, %xmm2, %xmm2
vmovaps %ymm3, %ymm29
vaddss %xmm2, %xmm2, %xmm3
vmulss %xmm3, %xmm0, %xmm4
vfnmadd231ss %xmm2, %xmm2, %xmm4 # xmm4 = -(xmm2 * xmm2) + xmm4
vmovaps %ymm6, %ymm30
vaddss %xmm0, %xmm0, %xmm5
vmovss 0x235168(%rip), %xmm8 # 0x1ef0fec
vmovaps %xmm8, %xmm6
vfmadd213ss 0x235173(%rip), %xmm0, %xmm6 # xmm6 = (xmm0 * xmm6) + mem
vmulss %xmm0, %xmm8, %xmm7
vmulss %xmm7, %xmm0, %xmm7
vfmadd231ss %xmm6, %xmm5, %xmm7 # xmm7 = (xmm5 * xmm6) + xmm7
vmovaps %xmm8, %xmm5
vfmadd213ss 0x23514d(%rip), %xmm0, %xmm5 # xmm5 = (xmm0 * xmm5) + mem
vmulss 0x23513d(%rip), %xmm2, %xmm6 # 0x1ef0ff0
vmulss %xmm6, %xmm2, %xmm6
vfmadd231ss %xmm5, %xmm3, %xmm6 # xmm6 = (xmm3 * xmm5) + xmm6
vmulss 0x234b18(%rip), %xmm2, %xmm2 # 0x1ef09dc
vmulss %xmm0, %xmm0, %xmm3
vfmadd231ss %xmm2, %xmm0, %xmm3 # xmm3 = (xmm0 * xmm2) + xmm3
vmovss 0x230cab(%rip), %xmm8 # 0x1eecb80
vmulss %xmm4, %xmm8, %xmm2
vmulss %xmm7, %xmm8, %xmm4
vmulss %xmm6, %xmm8, %xmm5
vmulss %xmm3, %xmm8, %xmm3
vbroadcastss %xmm3, %xmm3
vmulps 0x100(%rsp), %xmm3, %xmm3
vbroadcastss %xmm5, %xmm5
vfmadd132ps 0xe0(%rsp), %xmm3, %xmm5 # xmm5 = (xmm5 * mem) + xmm3
vbroadcastss %xmm4, %xmm3
vfmadd132ps 0xf0(%rsp), %xmm5, %xmm3 # xmm3 = (xmm3 * mem) + xmm5
vmovaps %ymm30, %ymm6
vbroadcastss %xmm2, %xmm2
vmovss 0x3e0(%rsp,%r10,4), %xmm4
vmovss %xmm4, 0x20(%r15)
vfmadd213ps %xmm3, %xmm9, %xmm2 # xmm2 = (xmm9 * xmm2) + xmm3
vmovaps %ymm29, %ymm3
vmovlps %xmm2, 0x30(%r15)
vextractps $0x2, %xmm2, 0x38(%r15)
vmovss %xmm0, 0x3c(%r15)
vmovss %xmm1, 0x40(%r15)
movq 0x58(%rsp), %rax
movl %eax, 0x44(%r15)
movq 0x38(%rsp), %rax
movl %eax, 0x48(%r15)
movq 0x8(%rdx), %rax
movl (%rax), %eax
movl %eax, 0x4c(%r15)
movq 0x8(%rdx), %rax
movl 0x4(%rax), %eax
movl %eax, 0x50(%r15)
leaq 0x4743ee(%rip), %r14 # 0x213036c
jmp 0x1cbbfbd
vxorps %xmm23, %xmm23, %xmm23
vmovaps 0xc0(%rsp), %ymm6
vmovaps 0x200(%rsp), %ymm20
vmovaps 0x60(%rsp), %ymm3
vmovaps 0x1e0(%rsp), %ymm21
vmovaps 0x260(%rsp), %ymm22
vmovaps 0x160(%rsp), %ymm18
vmovaps 0x140(%rsp), %ymm19
cmpl $0x9, %r8d
jge 0x1cbbfe6
vmovaps 0x5c0(%rsp), %ymm0
vcmpleps 0x20(%r15){1to8}, %ymm0, %k0
kmovb %k0, %eax
andl %eax, %r13d
jne 0x1cbb35e
jmp 0x1cbd272
vpbroadcastd %r8d, %ymm0
vmovdqa %ymm0, 0x280(%rsp)
vbroadcastss %xmm27, %ymm0
vmovaps %ymm0, 0x240(%rsp)
vbroadcastss %xmm10, %ymm0
vmovaps %ymm0, 0x2a0(%rsp)
vmovss 0x2306fa(%rip), %xmm0 # 0x1eec714
vdivss 0x2c0(%rsp), %xmm0, %xmm0
vbroadcastss %xmm0, %ymm0
vmovaps %ymm0, 0x2c0(%rsp)
movl $0x8, %ebx
vmovaps %ymm6, 0xc0(%rsp)
vmovaps %ymm3, 0x60(%rsp)
vpbroadcastd %ebx, %ymm0
vpor 0x29e8cd(%rip), %ymm0, %ymm0 # 0x1f5a920
vpcmpltd 0x280(%rsp), %ymm0, %k1
leaq (%r12,%r14), %rcx
vmovups (%rcx,%rbx,4), %ymm3
vmovups 0x484(%rcx,%rbx,4), %ymm10
vmovups 0x908(%rcx,%rbx,4), %ymm11
vmovups 0xd8c(%rcx,%rbx,4), %ymm12
vmulps %ymm12, %ymm28, %ymm5
vmulps %ymm12, %ymm31, %ymm4
vmovaps 0x500(%rsp), %ymm1
vmulps %ymm1, %ymm12, %ymm0
vmovaps 0x560(%rsp), %ymm26
vfmadd231ps %ymm26, %ymm11, %ymm5 # ymm5 = (ymm11 * ymm26) + ymm5
vmovaps 0x540(%rsp), %ymm27
vfmadd231ps %ymm27, %ymm11, %ymm4 # ymm4 = (ymm11 * ymm27) + ymm4
vmovaps 0x520(%rsp), %ymm16
vfmadd231ps %ymm16, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm16) + ymm0
vfmadd231ps %ymm19, %ymm10, %ymm5 # ymm5 = (ymm10 * ymm19) + ymm5
vmovaps 0x460(%rsp), %ymm25
vfmadd231ps %ymm25, %ymm10, %ymm4 # ymm4 = (ymm10 * ymm25) + ymm4
vmovaps 0x580(%rsp), %ymm9
vfmadd231ps %ymm9, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm9) + ymm0
vfmadd231ps %ymm22, %ymm3, %ymm5 # ymm5 = (ymm3 * ymm22) + ymm5
vfmadd231ps %ymm18, %ymm3, %ymm4 # ymm4 = (ymm3 * ymm18) + ymm4
leaq (%r12,%rdi), %rax
vmovups (%rax,%rbx,4), %ymm2
vmovups 0x484(%rax,%rbx,4), %ymm13
vmovaps 0x5a0(%rsp), %ymm8
vfmadd231ps %ymm8, %ymm3, %ymm0 # ymm0 = (ymm3 * ymm8) + ymm0
vmovups 0x908(%rax,%rbx,4), %ymm14
vmovups 0xd8c(%rax,%rbx,4), %ymm15
vmulps %ymm15, %ymm28, %ymm7
vmulps %ymm15, %ymm31, %ymm6
vmulps %ymm1, %ymm15, %ymm1
vfmadd231ps %ymm26, %ymm14, %ymm7 # ymm7 = (ymm14 * ymm26) + ymm7
vfmadd231ps %ymm27, %ymm14, %ymm6 # ymm6 = (ymm14 * ymm27) + ymm6
vfmadd231ps %ymm16, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm16) + ymm1
vfmadd231ps %ymm19, %ymm13, %ymm7 # ymm7 = (ymm13 * ymm19) + ymm7
vfmadd231ps %ymm25, %ymm13, %ymm6 # ymm6 = (ymm13 * ymm25) + ymm6
vfmadd231ps %ymm9, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm9) + ymm1
vfmadd231ps %ymm22, %ymm2, %ymm7 # ymm7 = (ymm2 * ymm22) + ymm7
vfmadd231ps %ymm18, %ymm2, %ymm6 # ymm6 = (ymm2 * ymm18) + ymm6
vfmadd231ps %ymm8, %ymm2, %ymm1 # ymm1 = (ymm2 * ymm8) + ymm1
vmaxps %ymm1, %ymm0, %ymm16
vsubps %ymm5, %ymm7, %ymm9
vsubps %ymm4, %ymm6, %ymm8
vmovaps %ymm19, %ymm24
vmulps %ymm9, %ymm4, %ymm17
vmovaps %ymm18, %ymm19
vmulps %ymm8, %ymm5, %ymm18
vsubps %ymm18, %ymm17, %ymm17
vmulps %ymm8, %ymm8, %ymm18
vfmadd231ps %ymm9, %ymm9, %ymm18 # ymm18 = (ymm9 * ymm9) + ymm18
vmulps %ymm16, %ymm16, %ymm16
vmulps %ymm18, %ymm16, %ymm16
vmulps %ymm17, %ymm17, %ymm17
vcmpleps %ymm16, %ymm17, %k1 {%k1}
kortestb %k1, %k1
je 0x1cbc91e
vmovaps %ymm25, %ymm16
vmovaps %ymm27, %ymm25
vmovaps %ymm26, %ymm27
vmovaps 0x480(%rsp), %ymm26
vmulps %ymm15, %ymm26, %ymm15
vmovaps 0x4a0(%rsp), %ymm30
vfmadd213ps %ymm15, %ymm30, %ymm14 # ymm14 = (ymm30 * ymm14) + ymm15
vmovaps 0x4c0(%rsp), %ymm29
vfmadd213ps %ymm14, %ymm29, %ymm13 # ymm13 = (ymm29 * ymm13) + ymm14
vmovaps 0x4e0(%rsp), %ymm18
vfmadd213ps %ymm13, %ymm18, %ymm2 # ymm2 = (ymm18 * ymm2) + ymm13
vmulps %ymm12, %ymm26, %ymm12
vfmadd213ps %ymm12, %ymm30, %ymm11 # ymm11 = (ymm30 * ymm11) + ymm12
vfmadd213ps %ymm11, %ymm29, %ymm10 # ymm10 = (ymm29 * ymm10) + ymm11
vfmadd213ps %ymm10, %ymm18, %ymm3 # ymm3 = (ymm18 * ymm3) + ymm10
vmovups 0x1210(%rcx,%rbx,4), %ymm12
vmovups 0x1694(%rcx,%rbx,4), %ymm13
vmovups 0x1b18(%rcx,%rbx,4), %ymm14
vmovups 0x1f9c(%rcx,%rbx,4), %ymm15
vmulps %ymm15, %ymm28, %ymm11
vmulps %ymm15, %ymm31, %ymm10
vmulps %ymm15, %ymm26, %ymm15
vfmadd231ps %ymm27, %ymm14, %ymm11 # ymm11 = (ymm14 * ymm27) + ymm11
vfmadd231ps %ymm25, %ymm14, %ymm10 # ymm10 = (ymm14 * ymm25) + ymm10
vfmadd231ps %ymm14, %ymm30, %ymm15 # ymm15 = (ymm30 * ymm14) + ymm15
vfmadd231ps %ymm24, %ymm13, %ymm11 # ymm11 = (ymm13 * ymm24) + ymm11
vfmadd231ps %ymm16, %ymm13, %ymm10 # ymm10 = (ymm13 * ymm16) + ymm10
vfmadd231ps %ymm13, %ymm29, %ymm15 # ymm15 = (ymm29 * ymm13) + ymm15
vfmadd231ps %ymm22, %ymm12, %ymm11 # ymm11 = (ymm12 * ymm22) + ymm11
vfmadd231ps %ymm19, %ymm12, %ymm10 # ymm10 = (ymm12 * ymm19) + ymm10
vfmadd231ps %ymm12, %ymm18, %ymm15 # ymm15 = (ymm18 * ymm12) + ymm15
vmovups 0x1210(%rax,%rbx,4), %ymm13
vmovups 0x1b18(%rax,%rbx,4), %ymm14
vmovups 0x1f9c(%rax,%rbx,4), %ymm16
vmulps %ymm16, %ymm28, %ymm17
vmulps %ymm16, %ymm31, %ymm12
vmulps %ymm16, %ymm26, %ymm16
vfmadd231ps %ymm27, %ymm14, %ymm17 # ymm17 = (ymm14 * ymm27) + ymm17
vfmadd231ps %ymm25, %ymm14, %ymm12 # ymm12 = (ymm14 * ymm25) + ymm12
vfmadd231ps %ymm14, %ymm30, %ymm16 # ymm16 = (ymm30 * ymm14) + ymm16
vmovups 0x1694(%rax,%rbx,4), %ymm14
vfmadd231ps %ymm24, %ymm14, %ymm17 # ymm17 = (ymm14 * ymm24) + ymm17
vfmadd231ps 0x460(%rsp), %ymm14, %ymm12 # ymm12 = (ymm14 * mem) + ymm12
vfmadd231ps %ymm14, %ymm29, %ymm16 # ymm16 = (ymm29 * ymm14) + ymm16
vfmadd231ps %ymm22, %ymm13, %ymm17 # ymm17 = (ymm13 * ymm22) + ymm17
vfmadd231ps %ymm19, %ymm13, %ymm12 # ymm12 = (ymm13 * ymm19) + ymm12
vfmadd231ps %ymm13, %ymm18, %ymm16 # ymm16 = (ymm18 * ymm13) + ymm16
vbroadcastss 0x264bb8(%rip), %ymm18 # 0x1f20ec4
vandps %ymm18, %ymm11, %ymm13
vandps %ymm18, %ymm10, %ymm14
vmaxps %ymm14, %ymm13, %ymm13
vandps %ymm18, %ymm15, %ymm14
vmaxps %ymm14, %ymm13, %ymm13
vmovaps 0x240(%rsp), %ymm15
vcmpltps %ymm15, %ymm13, %k2
vmovaps %ymm9, %ymm11 {%k2}
vmovaps %ymm8, %ymm10 {%k2}
vandps %ymm18, %ymm17, %ymm13
vandps %ymm18, %ymm12, %ymm14
vmaxps %ymm14, %ymm13, %ymm13
vandps %ymm18, %ymm16, %ymm14
vmaxps %ymm14, %ymm13, %ymm13
vcmpltps %ymm15, %ymm13, %k2
vmovaps %ymm9, %ymm17 {%k2}
vmovaps %ymm8, %ymm12 {%k2}
vbroadcastss 0x264b44(%rip), %ymm9 # 0x1f20ec0
vxorps %ymm9, %ymm11, %ymm8
vxorps %ymm9, %ymm17, %ymm9
vfmadd213ps %ymm23, %ymm11, %ymm11 # ymm11 = (ymm11 * ymm11) + ymm23
vfmadd231ps %ymm10, %ymm10, %ymm11 # ymm11 = (ymm10 * ymm10) + ymm11
vrsqrt14ps %ymm11, %ymm13
vbroadcastss 0x23037b(%rip), %ymm15 # 0x1eec71c
vmulps %ymm15, %ymm11, %ymm11
vmulps %ymm11, %ymm13, %ymm11
vmulps %ymm13, %ymm13, %ymm14
vmulps %ymm11, %ymm14, %ymm14
vbroadcastss 0x230359(%rip), %ymm16 # 0x1eec718
vfmadd231ps %ymm13, %ymm16, %ymm14 # ymm14 = (ymm16 * ymm13) + ymm14
vmulps %ymm14, %ymm10, %ymm11
vmulps %ymm8, %ymm14, %ymm10
vmulps %ymm23, %ymm14, %ymm13
vfmadd213ps %ymm23, %ymm17, %ymm17 # ymm17 = (ymm17 * ymm17) + ymm23
vfmadd231ps %ymm12, %ymm12, %ymm17 # ymm17 = (ymm12 * ymm12) + ymm17
vrsqrt14ps %ymm17, %ymm8
vmulps %ymm15, %ymm17, %ymm14
vmulps %ymm14, %ymm8, %ymm14
vmulps %ymm8, %ymm8, %ymm15
vmulps %ymm14, %ymm15, %ymm14
vfmadd231ps %ymm8, %ymm16, %ymm14 # ymm14 = (ymm16 * ymm8) + ymm14
vmulps %ymm14, %ymm12, %ymm8
vmulps %ymm9, %ymm14, %ymm9
vmulps %ymm23, %ymm14, %ymm12
vmovaps %ymm11, %ymm14
vfmadd213ps %ymm5, %ymm0, %ymm14 # ymm14 = (ymm0 * ymm14) + ymm5
vmovaps %ymm10, %ymm15
vfmadd213ps %ymm4, %ymm0, %ymm15 # ymm15 = (ymm0 * ymm15) + ymm4
vmovaps %ymm13, %ymm16
vfmadd213ps %ymm3, %ymm0, %ymm16 # ymm16 = (ymm0 * ymm16) + ymm3
vmovaps %ymm8, %ymm17
vfmadd213ps %ymm7, %ymm1, %ymm17 # ymm17 = (ymm1 * ymm17) + ymm7
vfnmadd213ps %ymm5, %ymm0, %ymm11 # ymm11 = -(ymm0 * ymm11) + ymm5
vmovaps %ymm9, %ymm5
vfmadd213ps %ymm6, %ymm1, %ymm5 # ymm5 = (ymm1 * ymm5) + ymm6
vfnmadd213ps %ymm4, %ymm0, %ymm10 # ymm10 = -(ymm0 * ymm10) + ymm4
vmovaps %ymm12, %ymm4
vfmadd213ps %ymm2, %ymm1, %ymm4 # ymm4 = (ymm1 * ymm4) + ymm2
vfnmadd231ps %ymm13, %ymm0, %ymm3 # ymm3 = -(ymm0 * ymm13) + ymm3
vfnmadd213ps %ymm7, %ymm1, %ymm8 # ymm8 = -(ymm1 * ymm8) + ymm7
vfnmadd213ps %ymm6, %ymm1, %ymm9 # ymm9 = -(ymm1 * ymm9) + ymm6
vfnmadd231ps %ymm12, %ymm1, %ymm2 # ymm2 = -(ymm1 * ymm12) + ymm2
vsubps %ymm11, %ymm17, %ymm6
vsubps %ymm10, %ymm5, %ymm7
vsubps %ymm3, %ymm4, %ymm12
vmulps %ymm3, %ymm7, %ymm13
vfmsub231ps %ymm12, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm12) - ymm13
vmulps %ymm11, %ymm12, %ymm12
vfmsub231ps %ymm6, %ymm3, %ymm12 # ymm12 = (ymm3 * ymm6) - ymm12
vmulps %ymm6, %ymm10, %ymm6
vfmsub231ps %ymm7, %ymm11, %ymm6 # ymm6 = (ymm11 * ymm7) - ymm6
vfmadd231ps %ymm12, %ymm23, %ymm6 # ymm6 = (ymm23 * ymm12) + ymm6
vfmadd231ps %ymm13, %ymm23, %ymm6 # ymm6 = (ymm23 * ymm13) + ymm6
vcmpleps %ymm23, %ymm6, %k2
vmovaps %ymm14, %ymm8 {%k2}
vmovaps %ymm15, %ymm9 {%k2}
vmovaps %ymm16, %ymm2 {%k2}
vblendmps %ymm17, %ymm11, %ymm13 {%k2}
vblendmps %ymm5, %ymm10, %ymm14 {%k2}
vblendmps %ymm4, %ymm3, %ymm15 {%k2}
vmovaps %ymm11, %ymm17 {%k2}
vmovaps %ymm10, %ymm5 {%k2}
vmovaps %ymm3, %ymm4 {%k2}
vsubps %ymm8, %ymm17, %ymm6
vsubps %ymm9, %ymm5, %ymm5
vsubps %ymm2, %ymm4, %ymm11
vsubps %ymm13, %ymm8, %ymm7
vsubps %ymm14, %ymm9, %ymm10
vsubps %ymm15, %ymm2, %ymm12
vmulps %ymm8, %ymm11, %ymm4
vfmsub231ps %ymm6, %ymm2, %ymm4 # ymm4 = (ymm2 * ymm6) - ymm4
vmulps %ymm6, %ymm9, %ymm3
vfmsub231ps %ymm5, %ymm8, %ymm3 # ymm3 = (ymm8 * ymm5) - ymm3
vfmadd231ps %ymm4, %ymm23, %ymm3 # ymm3 = (ymm23 * ymm4) + ymm3
vmulps %ymm2, %ymm5, %ymm4
vfmsub231ps %ymm11, %ymm9, %ymm4 # ymm4 = (ymm9 * ymm11) - ymm4
vfmadd231ps %ymm4, %ymm23, %ymm3 # ymm3 = (ymm23 * ymm4) + ymm3
vmulps %ymm13, %ymm12, %ymm16
vfmsub231ps %ymm15, %ymm7, %ymm16 # ymm16 = (ymm7 * ymm15) - ymm16
vmulps %ymm15, %ymm10, %ymm15
vfmsub231ps %ymm12, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm12) - ymm15
vmulps %ymm7, %ymm14, %ymm4
vfmsub231ps %ymm13, %ymm10, %ymm4 # ymm4 = (ymm10 * ymm13) - ymm4
vfmadd231ps %ymm16, %ymm23, %ymm4 # ymm4 = (ymm23 * ymm16) + ymm4
vfmadd231ps %ymm15, %ymm23, %ymm4 # ymm4 = (ymm23 * ymm15) + ymm4
vmaxps %ymm4, %ymm3, %ymm13
vcmpleps %ymm23, %ymm13, %k0 {%k1}
kortestb %k0, %k0
je 0x1cbc94b
vmulps %ymm5, %ymm12, %ymm13
vfmsub231ps %ymm11, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm11) - ymm13
vmulps %ymm7, %ymm11, %ymm11
vfmsub231ps %ymm12, %ymm6, %ymm11 # ymm11 = (ymm6 * ymm12) - ymm11
vmulps %ymm6, %ymm10, %ymm10
vfmsub231ps %ymm5, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm5) - ymm10
vxorps %xmm6, %xmm6, %xmm6
vfmadd213ps %ymm10, %ymm11, %ymm6 # ymm6 = (ymm11 * ymm6) + ymm10
vfmadd231ps %ymm23, %ymm13, %ymm6 # ymm6 = (ymm13 * ymm23) + ymm6
vrcp14ps %ymm6, %ymm7
vmovaps %ymm7, %ymm5
vfnmadd213ps 0x23016e(%rip){1to8}, %ymm6, %ymm5 # ymm5 = -(ymm6 * ymm5) + mem
vfmadd132ps %ymm7, %ymm7, %ymm5 # ymm5 = (ymm5 * ymm7) + ymm7
vmulps %ymm2, %ymm10, %ymm2
vfmadd231ps %ymm11, %ymm9, %ymm2 # ymm2 = (ymm9 * ymm11) + ymm2
vfmadd231ps %ymm13, %ymm8, %ymm2 # ymm2 = (ymm8 * ymm13) + ymm2
vmulps %ymm5, %ymm2, %ymm2
vcmpgeps 0x2a0(%rsp), %ymm2, %k1
vcmpleps 0x20(%r15){1to8}, %ymm2, %k1 {%k1}
kandb %k0, %k1, %k0
kortestb %k0, %k0
je 0x1cbc94b
vcmpneqps %ymm23, %ymm6, %k1
ktestb %k1, %k0
vmovaps 0x40(%rsp), %xmm9
vmovaps 0x160(%rsp), %ymm18
vmovaps 0x140(%rsp), %ymm19
je 0x1cbc978
kandb %k1, %k0, %k0
kmovd %k0, %eax
vmulps %ymm5, %ymm3, %ymm3
vmulps %ymm5, %ymm4, %ymm4
vbroadcastss 0x2300f8(%rip), %ymm5 # 0x1eec714
vsubps %ymm3, %ymm5, %ymm20
vmovaps %ymm3, %ymm20 {%k2}
vsubps %ymm4, %ymm5, %ymm3
vmovaps %ymm4, %ymm3 {%k2}
vmovaps %ymm3, 0x400(%rsp)
movzbl %al, %r10d
vmovaps %ymm2, %ymm21
vmovaps 0xc0(%rsp), %ymm6
vmovaps 0x60(%rsp), %ymm3
testw %r10w, %r10w
je 0x1cbc939
vsubps %ymm0, %ymm1, %ymm1
vfmadd213ps %ymm0, %ymm20, %ymm1 # ymm1 = (ymm20 * ymm1) + ymm0
vaddps %ymm1, %ymm1, %ymm0
vmulps (%r11){1to8}, %ymm0, %ymm0
vcmpnleps %ymm0, %ymm21, %k0
kmovd %k0, %eax
andb %al, %r10b
je 0x1cbc939
vbroadcastss 0x23433d(%rip), %ymm0 # 0x1ef09cc
vmovaps 0x400(%rsp), %ymm1
vfmadd132ps 0x234956(%rip){1to8}, %ymm0, %ymm1 # ymm1 = (ymm1 * mem) + ymm0
vmovaps %ymm20, 0x2e0(%rsp)
vmovaps %ymm1, 0x400(%rsp)
vmovaps %ymm1, 0x300(%rsp)
vmovaps %ymm21, 0x320(%rsp)
movl %ebx, 0x340(%rsp)
movl %r8d, 0x344(%rsp)
vmovaps %xmm9, 0x350(%rsp)
vmovaps 0xf0(%rsp), %xmm0
vmovaps %xmm0, 0x360(%rsp)
vmovaps 0xe0(%rsp), %xmm0
vmovaps %xmm0, 0x370(%rsp)
vmovaps 0x100(%rsp), %xmm0
vmovaps %xmm0, 0x380(%rsp)
movb %r10b, 0x390(%rsp)
movq (%rdx), %rax
movq 0x1e8(%rax), %rax
movq 0x38(%rsp), %rcx
movq (%rax,%rcx,8), %rsi
movl 0x24(%r15), %eax
testl %eax, 0x34(%rsi)
je 0x1cbc915
vaddps 0x2647fc(%rip), %ymm20, %ymm0 # 0x1f20f40
vcvtsi2ss %ebx, %xmm22, %xmm1
vbroadcastss %xmm1, %ymm1
vaddps %ymm0, %ymm1, %ymm0
vmulps 0x2c0(%rsp), %ymm0, %ymm0
vmovaps %ymm0, 0x3a0(%rsp)
vmovaps 0x400(%rsp), %ymm0
vmovaps %ymm0, 0x3c0(%rsp)
vmovaps %ymm21, 0x3e0(%rsp)
kmovd %r10d, %k1
vbroadcastss 0x22f293(%rip), %ymm0 # 0x1eeba20
vblendmps %ymm21, %ymm0, %ymm0 {%k1}
vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm0, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1]
vminps %ymm2, %ymm1, %ymm1
vcmpeqps %ymm1, %ymm0, %k0
kmovd %k0, %eax
andb %r10b, %al
movzbl %al, %eax
movzbl %r10b, %ecx
cmovnel %eax, %ecx
tzcntl %ecx, %r14d
movq 0x10(%rdx), %rax
cmpq $0x0, 0x10(%rax)
jne 0x1cbc980
cmpq $0x0, 0x40(%rsi)
jne 0x1cbc980
vmovss 0x3a0(%rsp,%r14,4), %xmm0
vmovss 0x3c0(%rsp,%r14,4), %xmm1
vmovss 0x22ff12(%rip), %xmm2 # 0x1eec714
vsubss %xmm0, %xmm2, %xmm2
vaddss %xmm2, %xmm2, %xmm3
vmulss %xmm3, %xmm0, %xmm4
vfnmadd231ss %xmm2, %xmm2, %xmm4 # xmm4 = -(xmm2 * xmm2) + xmm4
vaddss %xmm0, %xmm0, %xmm5
vmovss 0x2347cd(%rip), %xmm8 # 0x1ef0fec
vmovaps %xmm8, %xmm6
vfmadd213ss 0x2347d8(%rip), %xmm0, %xmm6 # xmm6 = (xmm0 * xmm6) + mem
vmulss %xmm0, %xmm8, %xmm7
vmulss %xmm7, %xmm0, %xmm7
vfmadd231ss %xmm6, %xmm5, %xmm7 # xmm7 = (xmm5 * xmm6) + xmm7
vmovaps %xmm8, %xmm5
vfmadd213ss 0x2347b2(%rip), %xmm0, %xmm5 # xmm5 = (xmm0 * xmm5) + mem
vmulss 0x2347a2(%rip), %xmm2, %xmm6 # 0x1ef0ff0
vmulss %xmm6, %xmm2, %xmm6
vfmadd231ss %xmm5, %xmm3, %xmm6 # xmm6 = (xmm3 * xmm5) + xmm6
vmulss 0x23417d(%rip), %xmm2, %xmm2 # 0x1ef09dc
vmulss %xmm0, %xmm0, %xmm3
vfmadd231ss %xmm2, %xmm0, %xmm3 # xmm3 = (xmm0 * xmm2) + xmm3
vmovss 0x230310(%rip), %xmm8 # 0x1eecb80
vmulss %xmm4, %xmm8, %xmm2
vmulss %xmm7, %xmm8, %xmm4
vmulss %xmm6, %xmm8, %xmm5
vmulss %xmm3, %xmm8, %xmm3
vbroadcastss %xmm3, %xmm3
vmulps 0x100(%rsp), %xmm3, %xmm3
vbroadcastss %xmm5, %xmm5
vfmadd132ps 0xe0(%rsp), %xmm3, %xmm5 # xmm5 = (xmm5 * mem) + xmm3
vbroadcastss %xmm4, %xmm3
vfmadd132ps 0xf0(%rsp), %xmm5, %xmm3 # xmm3 = (xmm3 * mem) + xmm5
vbroadcastss %xmm2, %xmm2
vmovss 0x3e0(%rsp,%r14,4), %xmm4
vmovss %xmm4, 0x20(%r15)
vfmadd213ps %xmm3, %xmm9, %xmm2 # xmm2 = (xmm9 * xmm2) + xmm3
vmovlps %xmm2, 0x30(%r15)
vextractps $0x2, %xmm2, 0x38(%r15)
vmovss %xmm0, 0x3c(%r15)
vmovss %xmm1, 0x40(%r15)
movq 0x58(%rsp), %rax
movl %eax, 0x44(%r15)
movq 0x38(%rsp), %rax
movl %eax, 0x48(%r15)
movq 0x8(%rdx), %rax
movl (%rax), %eax
movl %eax, 0x4c(%r15)
movq 0x8(%rdx), %rax
movl 0x4(%rax), %eax
movl %eax, 0x50(%r15)
vmovaps 0xc0(%rsp), %ymm6
vmovaps 0x60(%rsp), %ymm3
leaq 0x473a50(%rip), %r14 # 0x213036c
jmp 0x1cbc939
vmovaps 0xc0(%rsp), %ymm6
vmovaps 0x60(%rsp), %ymm3
vmovaps %ymm19, %ymm18
vmovaps %ymm24, %ymm19
addq $0x8, %rbx
cmpl %ebx, %r8d
jg 0x1cbc045
jmp 0x1cbbfc3
xorl %r10d, %r10d
vmovaps 0xc0(%rsp), %ymm6
vmovaps 0x60(%rsp), %ymm3
vmovaps 0x40(%rsp), %xmm9
vmovaps 0x160(%rsp), %ymm18
vmovaps 0x140(%rsp), %ymm19
jmp 0x1cbc654
xorl %r10d, %r10d
jmp 0x1cbc645
vmovaps 0x360(%rsp), %xmm0
vmovaps %xmm0, 0x220(%rsp)
vmovaps 0x370(%rsp), %xmm0
vmovaps %xmm0, 0x450(%rsp)
vmovaps 0x380(%rsp), %xmm0
vmovaps %xmm0, 0x440(%rsp)
vmovaps %ymm20, 0x200(%rsp)
vmovaps %ymm21, 0x1e0(%rsp)
movq %r9, 0x30(%rsp)
movq %rdx, 0x28(%rsp)
movq %r11, 0x20(%rsp)
movl %r8d, 0x14(%rsp)
vmovaps %ymm28, 0x1c0(%rsp)
vmovaps %ymm31, 0x1a0(%rsp)
movq %rsi, 0x190(%rsp)
vmovss 0x3a0(%rsp,%r14,4), %xmm0
vmovss 0x3c0(%rsp,%r14,4), %xmm1
vmovss 0x20(%r15), %xmm2
vmovss %xmm2, 0x230(%rsp)
vmovss 0x3e0(%rsp,%r14,4), %xmm2
vmovss %xmm2, 0x20(%r15)
movq 0x8(%rdx), %rax
vmovss 0x22fce3(%rip), %xmm2 # 0x1eec714
vsubss %xmm0, %xmm2, %xmm2
vaddss %xmm2, %xmm2, %xmm3
vmulss %xmm3, %xmm0, %xmm4
vfnmadd231ss %xmm2, %xmm2, %xmm4 # xmm4 = -(xmm2 * xmm2) + xmm4
vaddss %xmm0, %xmm0, %xmm5
vmovss 0x23459e(%rip), %xmm8 # 0x1ef0fec
vmovaps %xmm8, %xmm6
vfmadd213ss 0x2345a9(%rip), %xmm0, %xmm6 # xmm6 = (xmm0 * xmm6) + mem
vmulss %xmm0, %xmm8, %xmm7
vmulss %xmm7, %xmm0, %xmm7
vfmadd231ss %xmm6, %xmm5, %xmm7 # xmm7 = (xmm5 * xmm6) + xmm7
vmovaps %xmm8, %xmm5
vfmadd213ss 0x234583(%rip), %xmm0, %xmm5 # xmm5 = (xmm0 * xmm5) + mem
vmulss 0x234573(%rip), %xmm2, %xmm6 # 0x1ef0ff0
vmulss %xmm6, %xmm2, %xmm6
vfmadd231ss %xmm5, %xmm3, %xmm6 # xmm6 = (xmm3 * xmm5) + xmm6
vmulss 0x233f4e(%rip), %xmm2, %xmm2 # 0x1ef09dc
vmulss %xmm0, %xmm0, %xmm3
vfmadd231ss %xmm2, %xmm0, %xmm3 # xmm3 = (xmm0 * xmm2) + xmm3
vmovss 0x2300e1(%rip), %xmm8 # 0x1eecb80
vmulss %xmm4, %xmm8, %xmm2
vmulss %xmm7, %xmm8, %xmm4
vmulss %xmm6, %xmm8, %xmm5
vmulss %xmm3, %xmm8, %xmm3
vbroadcastss %xmm3, %xmm3
vmulps 0x440(%rsp), %xmm3, %xmm3
vbroadcastss %xmm5, %xmm5
vfmadd132ps 0x450(%rsp), %xmm3, %xmm5 # xmm5 = (xmm5 * mem) + xmm3
vbroadcastss %xmm4, %xmm3
vfmadd132ps 0x220(%rsp), %xmm5, %xmm3 # xmm3 = (xmm3 * mem) + xmm5
vbroadcastss %xmm2, %xmm2
vfmadd213ps %xmm3, %xmm9, %xmm2 # xmm2 = (xmm9 * xmm2) + xmm3
vmovlps %xmm2, 0x110(%rsp)
vextractps $0x2, %xmm2, 0x118(%rsp)
vmovss %xmm0, 0x11c(%rsp)
vmovss %xmm1, 0x120(%rsp)
movq 0x58(%rsp), %rcx
movl %ecx, 0x124(%rsp)
movq 0x38(%rsp), %rcx
movl %ecx, 0x128(%rsp)
movl (%rax), %ecx
movl %ecx, 0x12c(%rsp)
movl 0x4(%rax), %ecx
movl %ecx, 0x130(%rsp)
movl $0xffffffff, 0x1c(%rsp) # imm = 0xFFFFFFFF
leaq 0x1c(%rsp), %rcx
movq %rcx, 0x90(%rsp)
movq 0x18(%rsi), %rcx
movq %rcx, 0x98(%rsp)
movq %rax, 0xa0(%rsp)
movq %r15, 0xa8(%rsp)
leaq 0x110(%rsp), %rax
movq %rax, 0xb0(%rsp)
movl $0x1, 0xb8(%rsp)
movq 0x40(%rsi), %rax
testq %rax, %rax
movl %r10d, 0x18(%rsp)
je 0x1cbcc16
leaq 0x90(%rsp), %rdi
vzeroupper
callq *%rax
movl 0x18(%rsp), %r10d
vmovaps 0x1a0(%rsp), %ymm31
vmovaps 0x1c0(%rsp), %ymm28
vmovaps 0x140(%rsp), %ymm19
vmovaps 0x160(%rsp), %ymm18
vmovaps 0x260(%rsp), %ymm22
movl 0x14(%rsp), %r8d
vmovaps 0x40(%rsp), %xmm9
vmovaps 0x1e0(%rsp), %ymm21
vmovaps 0x200(%rsp), %ymm20
vxorps %xmm23, %xmm23, %xmm23
leaq 0x475b96(%rip), %rdi # 0x213278c
movq 0x20(%rsp), %r11
movq 0x28(%rsp), %rdx
movq 0x30(%rsp), %r9
movq 0x90(%rsp), %rax
cmpl $0x0, (%rax)
je 0x1cbcd13
movq 0x10(%rdx), %rcx
movq 0x10(%rcx), %rax
testq %rax, %rax
je 0x1cbccb8
testb $0x2, (%rcx)
jne 0x1cbcc3a
movq 0x190(%rsp), %rcx
testb $0x40, 0x3e(%rcx)
je 0x1cbccab
leaq 0x90(%rsp), %rdi
vzeroupper
callq *%rax
movl 0x18(%rsp), %r10d
vmovaps 0x1a0(%rsp), %ymm31
vmovaps 0x1c0(%rsp), %ymm28
vmovaps 0x140(%rsp), %ymm19
vmovaps 0x160(%rsp), %ymm18
vmovaps 0x260(%rsp), %ymm22
movl 0x14(%rsp), %r8d
vmovaps 0x40(%rsp), %xmm9
vmovaps 0x1e0(%rsp), %ymm21
vmovaps 0x200(%rsp), %ymm20
vxorps %xmm23, %xmm23, %xmm23
leaq 0x475af0(%rip), %rdi # 0x213278c
movq 0x20(%rsp), %r11
movq 0x28(%rsp), %rdx
movq 0x30(%rsp), %r9
movq 0x90(%rsp), %rax
cmpl $0x0, (%rax)
je 0x1cbcd13
movq 0xa8(%rsp), %rax
movq 0xb0(%rsp), %rcx
vmovss (%rcx), %xmm0
vmovss %xmm0, 0x30(%rax)
vmovss 0x4(%rcx), %xmm0
vmovss %xmm0, 0x34(%rax)
vmovss 0x8(%rcx), %xmm0
vmovss %xmm0, 0x38(%rax)
vmovss 0xc(%rcx), %xmm0
vmovss %xmm0, 0x3c(%rax)
vmovss 0x10(%rcx), %xmm0
vmovss %xmm0, 0x40(%rax)
movl 0x14(%rcx), %esi
movl %esi, 0x44(%rax)
movl 0x18(%rcx), %esi
movl %esi, 0x48(%rax)
movl 0x1c(%rcx), %esi
movl %esi, 0x4c(%rax)
movl 0x20(%rcx), %ecx
movl %ecx, 0x50(%rax)
jmp 0x1cbcd22
vmovss 0x230(%rsp), %xmm0
vmovss %xmm0, 0x20(%r15)
movl $0x1, %eax
shlxl %r14d, %eax, %eax
kmovd %eax, %k0
movzbl %r10b, %eax
kmovd %eax, %k1
kandnb %k1, %k0, %k0
vcmpleps 0x20(%r15){1to8}, %ymm21, %k1
kandb %k1, %k0, %k2
kmovd %k2, %r10d
ktestb %k1, %k0
vmovaps 0xc0(%rsp), %ymm6
vmovaps 0x60(%rsp), %ymm3
je 0x1cbcdae
kmovd %r10d, %k1
vbroadcastss 0x22ecb1(%rip), %ymm0 # 0x1eeba20
vblendmps %ymm21, %ymm0, %ymm0 {%k1}
vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm0, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1]
vminps %ymm2, %ymm1, %ymm1
vcmpeqps %ymm1, %ymm0, %k0
kmovd %k0, %eax
andb %r10b, %al
movzbl %al, %eax
movzbl %r10b, %ecx
cmovnel %eax, %ecx
tzcntl %ecx, %r14d
testb %r10b, %r10b
movq 0x190(%rsp), %rsi
jne 0x1cbc9f2
jmp 0x1cbc915
xorl %r14d, %r14d
vmovaps 0xc0(%rsp), %ymm6
vmovaps 0x60(%rsp), %ymm3
vmovaps 0x40(%rsp), %xmm9
vmovaps 0x1c0(%rsp), %ymm28
vmovaps 0x1a0(%rsp), %ymm31
vmovaps 0x240(%rsp), %xmm10
jmp 0x1cbbcba
xorl %r14d, %r14d
vmovaps 0xc0(%rsp), %ymm6
vmovaps 0x60(%rsp), %ymm3
vmovaps 0x40(%rsp), %xmm9
jmp 0x1cbbcba
xorl %r14d, %r14d
vmovaps 0xc0(%rsp), %ymm6
vmovaps 0x60(%rsp), %ymm3
jmp 0x1cbbcba
vmovaps 0x360(%rsp), %xmm0
vmovaps %xmm0, 0x230(%rsp)
vmovaps 0x370(%rsp), %xmm0
vmovaps %xmm0, 0x190(%rsp)
vmovaps 0x380(%rsp), %xmm0
vmovaps %xmm0, 0x220(%rsp)
movq %r9, 0x30(%rsp)
movq %rdx, 0x28(%rsp)
movq %r11, 0x20(%rsp)
vmovaps %ymm6, 0xc0(%rsp)
vmovaps %ymm3, 0x60(%rsp)
movl %r8d, 0x14(%rsp)
vmovss 0x3a0(%rsp,%r10,4), %xmm0
vmovss 0x3c0(%rsp,%r10,4), %xmm1
vmovss 0x20(%r15), %xmm2
vmovss %xmm2, 0x18(%rsp)
vmovss 0x3e0(%rsp,%r10,4), %xmm2
vmovss %xmm2, 0x20(%r15)
movq 0x8(%rdx), %rax
vmovss 0x22f851(%rip), %xmm2 # 0x1eec714
vsubss %xmm0, %xmm2, %xmm2
vaddss %xmm2, %xmm2, %xmm3
vmulss %xmm3, %xmm0, %xmm4
vfnmadd231ss %xmm2, %xmm2, %xmm4 # xmm4 = -(xmm2 * xmm2) + xmm4
vaddss %xmm0, %xmm0, %xmm5
vmovss 0x23410c(%rip), %xmm8 # 0x1ef0fec
vmovaps %xmm8, %xmm6
vfmadd213ss 0x234117(%rip), %xmm0, %xmm6 # xmm6 = (xmm0 * xmm6) + mem
vmulss %xmm0, %xmm8, %xmm7
vmulss %xmm7, %xmm0, %xmm7
vfmadd231ss %xmm6, %xmm5, %xmm7 # xmm7 = (xmm5 * xmm6) + xmm7
vmovaps %xmm8, %xmm5
vfmadd213ss 0x2340f1(%rip), %xmm0, %xmm5 # xmm5 = (xmm0 * xmm5) + mem
vmulss 0x2340e1(%rip), %xmm2, %xmm6 # 0x1ef0ff0
vmulss %xmm6, %xmm2, %xmm6
vfmadd231ss %xmm5, %xmm3, %xmm6 # xmm6 = (xmm3 * xmm5) + xmm6
vmulss 0x233abc(%rip), %xmm2, %xmm2 # 0x1ef09dc
vmulss %xmm0, %xmm0, %xmm3
vfmadd231ss %xmm2, %xmm0, %xmm3 # xmm3 = (xmm0 * xmm2) + xmm3
vmovss 0x22fc4f(%rip), %xmm8 # 0x1eecb80
vmulss %xmm4, %xmm8, %xmm2
vmulss %xmm7, %xmm8, %xmm4
vmulss %xmm6, %xmm8, %xmm5
vmulss %xmm3, %xmm8, %xmm3
vbroadcastss %xmm3, %xmm3
vmulps 0x220(%rsp), %xmm3, %xmm3
vbroadcastss %xmm5, %xmm5
vfmadd132ps 0x190(%rsp), %xmm3, %xmm5 # xmm5 = (xmm5 * mem) + xmm3
vbroadcastss %xmm4, %xmm3
vfmadd132ps 0x230(%rsp), %xmm5, %xmm3 # xmm3 = (xmm3 * mem) + xmm5
vbroadcastss %xmm2, %xmm2
vfmadd213ps %xmm3, %xmm9, %xmm2 # xmm2 = (xmm9 * xmm2) + xmm3
vmovlps %xmm2, 0x110(%rsp)
vextractps $0x2, %xmm2, 0x118(%rsp)
vmovss %xmm0, 0x11c(%rsp)
vmovss %xmm1, 0x120(%rsp)
movq 0x58(%rsp), %rcx
movl %ecx, 0x124(%rsp)
movq 0x38(%rsp), %rcx
movl %ecx, 0x128(%rsp)
movl (%rax), %ecx
movl %ecx, 0x12c(%rsp)
movl 0x4(%rax), %ecx
movl %ecx, 0x130(%rsp)
movl $0xffffffff, 0x1c(%rsp) # imm = 0xFFFFFFFF
leaq 0x1c(%rsp), %rcx
movq %rcx, 0x90(%rsp)
movq 0x18(%rbx), %rcx
movq %rcx, 0x98(%rsp)
movq %rax, 0xa0(%rsp)
movq %r15, 0xa8(%rsp)
leaq 0x110(%rsp), %rax
movq %rax, 0xb0(%rsp)
movl $0x1, 0xb8(%rsp)
movq 0x40(%rbx), %rax
testq %rax, %rax
movq %r10, 0x2a0(%rsp)
je 0x1cbd0bf
leaq 0x90(%rsp), %rdi
vzeroupper
callq *%rax
movq 0x2a0(%rsp), %r10
vmovaps 0x240(%rsp), %xmm10
vmovaps 0x280(%rsp), %xmm27
vmovaps 0x1a0(%rsp), %ymm31
vmovaps 0x1c0(%rsp), %ymm28
vmovaps 0x140(%rsp), %ymm19
vmovaps 0x160(%rsp), %ymm18
vmovaps 0x260(%rsp), %ymm22
movl 0x14(%rsp), %r8d
vmovaps 0x40(%rsp), %xmm9
vmovaps 0x1e0(%rsp), %ymm21
vmovaps 0x200(%rsp), %ymm20
vxorps %xmm23, %xmm23, %xmm23
leaq 0x4756ed(%rip), %rdi # 0x213278c
movq 0x20(%rsp), %r11
movq 0x28(%rsp), %rdx
movq 0x30(%rsp), %r9
movq 0x90(%rsp), %rax
cmpl $0x0, (%rax)
je 0x1cbd1cc
movq 0x10(%rdx), %rcx
movq 0x10(%rcx), %rax
testq %rax, %rax
je 0x1cbd171
testb $0x2, (%rcx)
jne 0x1cbd0df
testb $0x40, 0x3e(%rbx)
je 0x1cbd164
leaq 0x90(%rsp), %rdi
vzeroupper
callq *%rax
movq 0x2a0(%rsp), %r10
vmovaps 0x240(%rsp), %xmm10
vmovaps 0x280(%rsp), %xmm27
vmovaps 0x1a0(%rsp), %ymm31
vmovaps 0x1c0(%rsp), %ymm28
vmovaps 0x140(%rsp), %ymm19
vmovaps 0x160(%rsp), %ymm18
vmovaps 0x260(%rsp), %ymm22
movl 0x14(%rsp), %r8d
vmovaps 0x40(%rsp), %xmm9
vmovaps 0x1e0(%rsp), %ymm21
vmovaps 0x200(%rsp), %ymm20
vxorps %xmm23, %xmm23, %xmm23
leaq 0x475637(%rip), %rdi # 0x213278c
movq 0x20(%rsp), %r11
movq 0x28(%rsp), %rdx
movq 0x30(%rsp), %r9
movq 0x90(%rsp), %rax
cmpl $0x0, (%rax)
je 0x1cbd1cc
movq 0xa8(%rsp), %rax
movq 0xb0(%rsp), %rcx
vmovss (%rcx), %xmm0
vmovss %xmm0, 0x30(%rax)
vmovss 0x4(%rcx), %xmm0
vmovss %xmm0, 0x34(%rax)
vmovss 0x8(%rcx), %xmm0
vmovss %xmm0, 0x38(%rax)
vmovss 0xc(%rcx), %xmm0
vmovss %xmm0, 0x3c(%rax)
vmovss 0x10(%rcx), %xmm0
vmovss %xmm0, 0x40(%rax)
movl 0x14(%rcx), %esi
movl %esi, 0x44(%rax)
movl 0x18(%rcx), %esi
movl %esi, 0x48(%rax)
movl 0x1c(%rcx), %esi
movl %esi, 0x4c(%rax)
movl 0x20(%rcx), %ecx
movl %ecx, 0x50(%rax)
jmp 0x1cbd1d8
vmovss 0x18(%rsp), %xmm0
vmovss %xmm0, 0x20(%r15)
vmovaps 0x60(%rsp), %ymm3
movl $0x1, %eax
shlxl %r10d, %eax, %eax
kmovd %eax, %k0
movzbl %r14b, %eax
kmovd %eax, %k1
kandnb %k1, %k0, %k0
vcmpleps 0x20(%r15){1to8}, %ymm3, %k1
kandb %k1, %k0, %k2
kmovd %k2, %r14d
ktestb %k1, %k0
vmovaps 0xc0(%rsp), %ymm6
je 0x1cbd264
kmovd %r14d, %k1
vbroadcastss 0x22e7fb(%rip), %ymm0 # 0x1eeba20
vblendmps %ymm3, %ymm0, %ymm0 {%k1}
vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm0, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1]
vminps %ymm2, %ymm1, %ymm1
vcmpeqps %ymm1, %ymm0, %k0
kmovd %k0, %eax
andb %r14b, %al
movzbl %al, %eax
movzbl %r14b, %ecx
cmovnel %eax, %ecx
tzcntl %ecx, %r10d
testb %r14b, %r14b
jne 0x1cbce87
jmp 0x1cbbf77
leaq -0x28(%rbp), %rsp
popq %rbx
popq %r12
popq %r13
popq %r14
popq %r15
popq %rbp
vzeroupper
retq
|
/embree[P]embree/kernels/geometry/curveNi_intersector.h
|
bool embree::avx512::CurveNiIntersector1<8>::occluded_t<embree::avx512::RibbonCurve1Intersector1<embree::CatmullRomCurveT, 8>, embree::avx512::Occluded1EpilogMU<8, true>>(embree::avx512::CurvePrecalculations1 const&, embree::RayK<1>&, embree::RayQueryContext*, embree::CurveNi<8> const&)
|
static __forceinline bool occluded_t(const Precalculations& pre, Ray& ray, RayQueryContext* context, const Primitive& prim)
{
vfloat<M> tNear;
vbool<M> valid = intersect(ray,prim,tNear);
const size_t N = prim.N;
size_t mask = movemask(valid);
while (mask)
{
const size_t i = bscf(mask);
STAT3(shadow.trav_prims,1,1,1);
const unsigned int geomID = prim.geomID(N);
const unsigned int primID = prim.primID(N)[i];
const CurveGeometry* geom = context->scene->get<CurveGeometry>(geomID);
Vec3ff a0,a1,a2,a3; geom->gather(a0,a1,a2,a3,geom->curve(primID));
size_t mask1 = mask;
const size_t i1 = bscf(mask1);
if (mask) {
const unsigned int primID1 = prim.primID(N)[i1];
geom->prefetchL1_vertices(geom->curve(primID1));
if (mask1) {
const size_t i2 = bsf(mask1);
const unsigned int primID2 = prim.primID(N)[i2];
geom->prefetchL2_vertices(geom->curve(primID2));
}
}
if (Intersector().intersect(pre,ray,context,geom,primID,a0,a1,a2,a3,Epilog(ray,context,geomID,primID)))
return true;
mask &= movemask(tNear <= vfloat<M>(ray.tfar));
}
return false;
}
|
pushq %rbp
movq %rsp, %rbp
pushq %r15
pushq %r14
pushq %r13
pushq %r12
pushq %rbx
andq $-0x20, %rsp
subq $0x620, %rsp # imm = 0x620
movq %rcx, %rbx
movq %rdi, %r11
movzbl 0x1(%rcx), %eax
leaq (%rax,%rax,4), %rcx
leaq (%rcx,%rcx,4), %rdi
vbroadcastss 0x12(%rbx,%rdi), %xmm0
vmovaps (%rsi), %xmm1
vsubps 0x6(%rbx,%rdi), %xmm1, %xmm1
vmulps 0x10(%rsi), %xmm0, %xmm2
vmulps %xmm1, %xmm0, %xmm3
vpmovsxbd 0x6(%rbx,%rax,4), %ymm0
vcvtdq2ps %ymm0, %ymm5
vpmovsxbd 0x6(%rbx,%rcx), %ymm0
vcvtdq2ps %ymm0, %ymm6
leaq (%rax,%rax,2), %r8
vpmovsxbd 0x6(%rbx,%r8,2), %ymm0
vcvtdq2ps %ymm0, %ymm7
leaq (%rax,%rcx,2), %rdi
vpmovsxbd 0x6(%rbx,%rdi), %ymm0
vcvtdq2ps %ymm0, %ymm8
leal (,%r8,4), %edi
vpmovsxbd 0x6(%rbx,%rdi), %ymm0
vcvtdq2ps %ymm0, %ymm9
addq %rax, %rdi
vpmovsxbd 0x6(%rbx,%rdi), %ymm0
vcvtdq2ps %ymm0, %ymm10
leaq (%rax,%rax,8), %r9
leal (%r9,%r9), %edi
vpmovsxbd 0x6(%rbx,%rdi), %ymm0
addq %rax, %rdi
vpmovsxbd 0x6(%rbx,%rdi), %ymm1
vcvtdq2ps %ymm0, %ymm11
vcvtdq2ps %ymm1, %ymm12
shll $0x2, %ecx
vpmovsxbd 0x6(%rbx,%rcx), %ymm0
vcvtdq2ps %ymm0, %ymm13
vbroadcastss %xmm2, %ymm14
vbroadcastss 0x2553a9(%rip), %ymm16 # 0x1f12704
vpermps %ymm2, %ymm16, %ymm15
vbroadcastss 0x263b71(%rip), %ymm17 # 0x1f20edc
vpermps %ymm2, %ymm17, %ymm0
vmulps %ymm7, %ymm0, %ymm4
vmulps %ymm0, %ymm10, %ymm1
vmulps %ymm0, %ymm13, %ymm0
vfmadd231ps %ymm6, %ymm15, %ymm4 # ymm4 = (ymm15 * ymm6) + ymm4
vfmadd231ps %ymm9, %ymm15, %ymm1 # ymm1 = (ymm15 * ymm9) + ymm1
vfmadd231ps %ymm15, %ymm12, %ymm0 # ymm0 = (ymm12 * ymm15) + ymm0
vfmadd231ps %ymm5, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm5) + ymm4
vfmadd231ps %ymm8, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm8) + ymm1
vfmadd231ps %ymm14, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm14) + ymm0
vbroadcastss %xmm3, %ymm14
vpermps %ymm3, %ymm16, %ymm15
vpermps %ymm3, %ymm17, %ymm2
vmulps %ymm7, %ymm2, %ymm7
vmulps %ymm2, %ymm10, %ymm3
vmulps %ymm2, %ymm13, %ymm2
vfmadd231ps %ymm6, %ymm15, %ymm7 # ymm7 = (ymm15 * ymm6) + ymm7
vfmadd231ps %ymm9, %ymm15, %ymm3 # ymm3 = (ymm15 * ymm9) + ymm3
vfmadd231ps %ymm12, %ymm15, %ymm2 # ymm2 = (ymm15 * ymm12) + ymm2
vfmadd231ps %ymm5, %ymm14, %ymm7 # ymm7 = (ymm14 * ymm5) + ymm7
vfmadd231ps %ymm8, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm8) + ymm3
vfmadd231ps %ymm11, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm11) + ymm2
vbroadcastss 0x263ae5(%rip), %ymm8 # 0x1f20ec4
vandps %ymm4, %ymm8, %ymm5
vbroadcastss 0x233bfc(%rip), %ymm6 # 0x1ef0fe8
vcmpltps %ymm6, %ymm5, %k1
vmovaps %ymm6, %ymm4 {%k1}
vandps %ymm1, %ymm8, %ymm5
vcmpltps %ymm6, %ymm5, %k1
vmovaps %ymm6, %ymm1 {%k1}
vandps %ymm0, %ymm8, %ymm5
vcmpltps %ymm6, %ymm5, %k1
vmovaps %ymm6, %ymm0 {%k1}
vrcp14ps %ymm4, %ymm5
vbroadcastss 0x22f2ea(%rip), %ymm6 # 0x1eec714
vfnmadd213ps %ymm6, %ymm5, %ymm4 # ymm4 = -(ymm5 * ymm4) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm4 # ymm4 = (ymm4 * ymm5) + ymm5
vrcp14ps %ymm1, %ymm5
vfnmadd213ps %ymm6, %ymm5, %ymm1 # ymm1 = -(ymm5 * ymm1) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm1 # ymm1 = (ymm1 * ymm5) + ymm5
vrcp14ps %ymm0, %ymm5
vfnmadd213ps %ymm6, %ymm5, %ymm0 # ymm0 = -(ymm5 * ymm0) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm0 # ymm0 = (ymm0 * ymm5) + ymm5
leaq (,%rax,8), %rdi
subq %rax, %rdi
vpmovsxwd 0x6(%rbx,%rdi), %ymm5
vcvtdq2ps %ymm5, %ymm5
vsubps %ymm7, %ymm5, %ymm5
vpmovsxwd 0x6(%rbx,%r9), %ymm6
vmulps %ymm5, %ymm4, %ymm5
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm7, %ymm6, %ymm6
vmulps %ymm6, %ymm4, %ymm4
leaq (%rax,%rax), %r9
addq %rax, %rcx
shlq $0x3, %r8
subq %rax, %r8
movl %eax, %edi
shll $0x4, %edi
vpmovsxwd 0x6(%rbx,%rdi), %ymm6
subq %r9, %rdi
vpmovsxwd 0x6(%rbx,%rdi), %ymm7
vcvtdq2ps %ymm7, %ymm7
vsubps %ymm3, %ymm7, %ymm7
vmulps %ymm7, %ymm1, %ymm7
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm3, %ymm6, %ymm3
vmulps %ymm3, %ymm1, %ymm1
vpmovsxwd 0x6(%rbx,%rcx), %ymm3
vcvtdq2ps %ymm3, %ymm3
vsubps %ymm2, %ymm3, %ymm3
vmulps %ymm0, %ymm3, %ymm3
vpmovsxwd 0x6(%rbx,%r8), %ymm6
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm2, %ymm6, %ymm2
vmulps %ymm2, %ymm0, %ymm0
vpminsd %ymm4, %ymm5, %ymm2
vpminsd %ymm1, %ymm7, %ymm6
vmaxps %ymm6, %ymm2, %ymm2
vpminsd %ymm0, %ymm3, %ymm6
vmaxps 0xc(%rsi){1to8}, %ymm6, %ymm6
vmaxps %ymm6, %ymm2, %ymm2
vmulps 0x262a01(%rip){1to8}, %ymm2, %ymm6 # 0x1f1ff10
vpmaxsd %ymm4, %ymm5, %ymm2
vpmaxsd %ymm1, %ymm7, %ymm1
vminps %ymm1, %ymm2, %ymm1
vpmaxsd %ymm0, %ymm3, %ymm0
vminps 0x20(%rsi){1to8}, %ymm0, %ymm0
vminps %ymm0, %ymm1, %ymm0
vmulps 0x2629dd(%rip){1to8}, %ymm0, %ymm0 # 0x1f1ff14
vpbroadcastd %eax, %ymm1
vpcmpgtd 0x29d3d9(%rip), %ymm1, %k0 # 0x1f5a920
vmovaps %ymm6, 0x5e0(%rsp)
vcmpleps %ymm0, %ymm6, %k1
ktestb %k0, %k1
setne 0x17(%rsp)
je 0x1cbefc2
kandb %k0, %k1, %k0
kmovd %k0, %eax
movzbl %al, %r14d
vmovaps %ymm6, 0x80(%rsp)
vmovaps %ymm2, 0x60(%rsp)
vmovaps %ymm21, 0x1c0(%rsp)
vmovaps %ymm20, 0x1e0(%rsp)
tzcntq %r14, %rax
movl 0x2(%rbx), %ecx
movl 0x6(%rbx,%rax,4), %r8d
movq (%rdx), %rax
movq 0x1e8(%rax), %rax
movq %rcx, 0x58(%rsp)
movq (%rax,%rcx,8), %r15
movq 0x58(%r15), %rax
movq 0x68(%r15), %rcx
movq %rcx, %rdi
movq %r8, 0x108(%rsp)
imulq %r8, %rdi
movl (%rax,%rdi), %edi
movq 0xa0(%r15), %r9
movq %r9, %r8
imulq %rdi, %r8
movq 0x90(%r15), %r10
vmovaps (%r10,%r8), %xmm13
leaq 0x1(%rdi), %r8
imulq %r9, %r8
vmovaps (%r10,%r8), %xmm0
vmovaps %xmm0, 0x150(%rsp)
leaq 0x2(%rdi), %r8
imulq %r9, %r8
vmovaps (%r10,%r8), %xmm0
vmovaps %xmm0, 0x140(%rsp)
blsrq %r14, %r14
addq $0x3, %rdi
imulq %r9, %rdi
vmovaps (%r10,%rdi), %xmm0
vmovaps %xmm0, 0x190(%rsp)
movq %r14, %rdi
subq $0x1, %rdi
jb 0x1cbd681
andq %r14, %rdi
tzcntq %r14, %r8
movl 0x6(%rbx,%r8,4), %r8d
imulq %rcx, %r8
movl (%rax,%r8), %r8d
imulq %r9, %r8
prefetcht0 (%r10,%r8)
prefetcht0 0x40(%r10,%r8)
testq %rdi, %rdi
je 0x1cbd681
tzcntq %rdi, %rdi
movl 0x6(%rbx,%rdi,4), %edi
imulq %rdi, %rcx
movl (%rax,%rcx), %eax
imulq %rax, %r9
prefetcht1 (%r10,%r9)
prefetcht1 0x40(%r10,%r9)
movl 0x248(%r15), %r12d
vmovaps (%rsi), %xmm0
vsubps %xmm0, %xmm13, %xmm1
vbroadcastss %xmm1, %xmm2
vshufps $0x55, %xmm1, %xmm1, %xmm3 # xmm3 = xmm1[1,1,1,1]
vshufps $0xaa, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,2,2,2]
vmovaps 0x10(%r11), %xmm4
vmovaps 0x20(%r11), %xmm5
vmovaps 0x30(%r11), %xmm6
vmulps %xmm6, %xmm1, %xmm8
vfmadd231ps %xmm3, %xmm5, %xmm8 # xmm8 = (xmm5 * xmm3) + xmm8
vfmadd231ps %xmm2, %xmm4, %xmm8 # xmm8 = (xmm4 * xmm2) + xmm8
vshufps $0xff, %xmm13, %xmm13, %xmm1 # xmm1 = xmm13[3,3,3,3]
vmovaps 0x150(%rsp), %xmm3
vsubps %xmm0, %xmm3, %xmm2
vmovaps %xmm3, %xmm10
vbroadcastss %xmm2, %xmm3
vshufps $0x55, %xmm2, %xmm2, %xmm7 # xmm7 = xmm2[1,1,1,1]
vshufps $0xaa, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[2,2,2,2]
vmulps %xmm6, %xmm2, %xmm9
vfmadd231ps %xmm7, %xmm5, %xmm9 # xmm9 = (xmm5 * xmm7) + xmm9
vfmadd231ps %xmm3, %xmm4, %xmm9 # xmm9 = (xmm4 * xmm3) + xmm9
vshufps $0xff, %xmm10, %xmm10, %xmm2 # xmm2 = xmm10[3,3,3,3]
vmovaps 0x140(%rsp), %xmm7
vsubps %xmm0, %xmm7, %xmm3
vmovaps %xmm7, %xmm12
vbroadcastss %xmm3, %xmm7
vshufps $0x55, %xmm3, %xmm3, %xmm11 # xmm11 = xmm3[1,1,1,1]
vshufps $0xaa, %xmm3, %xmm3, %xmm3 # xmm3 = xmm3[2,2,2,2]
vmulps %xmm6, %xmm3, %xmm10
vfmadd231ps %xmm11, %xmm5, %xmm10 # xmm10 = (xmm5 * xmm11) + xmm10
vfmadd231ps %xmm7, %xmm4, %xmm10 # xmm10 = (xmm4 * xmm7) + xmm10
vshufps $0xff, %xmm12, %xmm12, %xmm7 # xmm7 = xmm12[3,3,3,3]
vmovaps 0x190(%rsp), %xmm30
vsubps %xmm0, %xmm30, %xmm0
vbroadcastss %xmm0, %xmm3
vshufps $0x55, %xmm0, %xmm0, %xmm12 # xmm12 = xmm0[1,1,1,1]
vshufps $0xaa, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[2,2,2,2]
vmulps %xmm6, %xmm0, %xmm11
vfmadd231ps %xmm12, %xmm5, %xmm11 # xmm11 = (xmm5 * xmm12) + xmm11
vfmadd231ps %xmm3, %xmm4, %xmm11 # xmm11 = (xmm4 * xmm3) + xmm11
movslq %r12d, %rax
movq %rax, %rcx
shlq $0x6, %rcx
leaq (%rcx,%rax,4), %r13
leaq 0x472bff(%rip), %rdi # 0x213036c
vmovups (%rdi,%r13), %ymm25
vshufps $0xff, %xmm30, %xmm30, %xmm0 # xmm0 = xmm30[3,3,3,3]
vbroadcastss %xmm8, %ymm20
vbroadcastss 0x254f7a(%rip), %ymm3 # 0x1f12704
vpermps %ymm8, %ymm3, %ymm23
vbroadcastsd %xmm1, %ymm12
vmovups 0x484(%rdi,%r13), %ymm14
vbroadcastss %xmm9, %ymm1
vpermps %ymm9, %ymm3, %ymm31
vbroadcastsd %xmm2, %ymm21
vmovups 0x908(%rdi,%r13), %ymm15
vbroadcastss %xmm10, %ymm26
vpermps %ymm10, %ymm3, %ymm29
vbroadcastsd %xmm7, %ymm22
vmovups 0xd8c(%rdi,%r13), %ymm16
vbroadcastss %xmm11, %ymm27
vpermps %ymm11, %ymm3, %ymm28
vbroadcastsd %xmm0, %ymm3
vmulps %ymm16, %ymm27, %ymm5
vmulps %ymm16, %ymm28, %ymm4
vfmadd231ps %ymm26, %ymm15, %ymm5 # ymm5 = (ymm15 * ymm26) + ymm5
vfmadd231ps %ymm29, %ymm15, %ymm4 # ymm4 = (ymm15 * ymm29) + ymm4
vfmadd231ps %ymm1, %ymm14, %ymm5 # ymm5 = (ymm14 * ymm1) + ymm5
vfmadd231ps %ymm31, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm31) + ymm4
vfmadd231ps %ymm20, %ymm25, %ymm5 # ymm5 = (ymm25 * ymm20) + ymm5
leaq 0x474f74(%rip), %r8 # 0x213278c
vmovups (%r8,%r13), %ymm2
vmovups 0x484(%r8,%r13), %ymm17
vfmadd231ps %ymm23, %ymm25, %ymm4 # ymm4 = (ymm25 * ymm23) + ymm4
vmovups 0x908(%r8,%r13), %ymm18
vmovups 0xd8c(%r8,%r13), %ymm19
vmulps %ymm19, %ymm27, %ymm7
vmulps %ymm19, %ymm28, %ymm6
vfmadd231ps %ymm26, %ymm18, %ymm7 # ymm7 = (ymm18 * ymm26) + ymm7
vfmadd231ps %ymm29, %ymm18, %ymm6 # ymm6 = (ymm18 * ymm29) + ymm6
vmovaps %ymm1, 0x160(%rsp)
vfmadd231ps %ymm1, %ymm17, %ymm7 # ymm7 = (ymm17 * ymm1) + ymm7
vfmadd231ps %ymm31, %ymm17, %ymm6 # ymm6 = (ymm17 * ymm31) + ymm6
vmovaps %ymm20, 0x240(%rsp)
vfmadd231ps %ymm20, %ymm2, %ymm7 # ymm7 = (ymm2 * ymm20) + ymm7
vmovaps %ymm23, 0x220(%rsp)
vfmadd231ps %ymm23, %ymm2, %ymm6 # ymm6 = (ymm2 * ymm23) + ymm6
vsubps %ymm5, %ymm7, %ymm24
vsubps %ymm4, %ymm6, %ymm23
vmulps %ymm24, %ymm4, %ymm0
vmulps %ymm23, %ymm5, %ymm1
vsubps %ymm1, %ymm0, %ymm20
vmulps %ymm16, %ymm3, %ymm0
vfmadd231ps %ymm22, %ymm15, %ymm0 # ymm0 = (ymm15 * ymm22) + ymm0
vfmadd231ps %ymm21, %ymm14, %ymm0 # ymm0 = (ymm14 * ymm21) + ymm0
vfmadd231ps %ymm12, %ymm25, %ymm0 # ymm0 = (ymm25 * ymm12) + ymm0
vmovaps %ymm3, 0x4c0(%rsp)
vmulps %ymm19, %ymm3, %ymm1
vmovaps %ymm22, 0x520(%rsp)
vfmadd231ps %ymm22, %ymm18, %ymm1 # ymm1 = (ymm18 * ymm22) + ymm1
vmovaps %ymm21, 0x580(%rsp)
vfmadd231ps %ymm21, %ymm17, %ymm1 # ymm1 = (ymm17 * ymm21) + ymm1
vmovaps %ymm12, 0x5c0(%rsp)
vfmadd231ps %ymm12, %ymm2, %ymm1 # ymm1 = (ymm2 * ymm12) + ymm1
vmulps %ymm23, %ymm23, %ymm21
vfmadd231ps %ymm24, %ymm24, %ymm21 # ymm21 = (ymm24 * ymm24) + ymm21
vmaxps %ymm1, %ymm0, %ymm22
vmulps %ymm22, %ymm22, %ymm22
vmulps %ymm21, %ymm22, %ymm21
vmulps %ymm20, %ymm20, %ymm20
vcmpleps %ymm21, %ymm20, %k1
vmovaps %xmm13, 0x30(%rsp)
vblendps $0x8, %xmm13, %xmm8, %xmm12 # xmm12 = xmm8[0,1,2],xmm13[3]
vbroadcastss 0x263586(%rip), %xmm20 # 0x1f20ec4
vandps %xmm20, %xmm12, %xmm12
vblendps $0x8, 0x150(%rsp), %xmm9, %xmm13 # xmm13 = xmm9[0,1,2],mem[3]
vandps %xmm20, %xmm13, %xmm13
vmaxps %xmm13, %xmm12, %xmm12
vblendps $0x8, 0x140(%rsp), %xmm10, %xmm13 # xmm13 = xmm10[0,1,2],mem[3]
vandps %xmm20, %xmm13, %xmm13
vmovaps %xmm30, %xmm3
vblendps $0x8, %xmm3, %xmm11, %xmm3 # xmm3 = xmm11[0,1,2],xmm3[3]
vandps %xmm20, %xmm3, %xmm3
vmaxps %xmm3, %xmm13, %xmm3
vmaxps %xmm3, %xmm12, %xmm3
vmovshdup %xmm3, %xmm12 # xmm12 = xmm3[1,1,3,3]
vmaxss %xmm3, %xmm12, %xmm12
vshufpd $0x1, %xmm3, %xmm3, %xmm3 # xmm3 = xmm3[1,0]
vmaxss %xmm12, %xmm3, %xmm3
vcvtsi2ss %r12d, %xmm8, %xmm12
vmovaps %xmm12, 0x280(%rsp)
vbroadcastss %xmm12, %ymm12
vcmpgtps 0x26358b(%rip), %ymm12, %k1 {%k1} # 0x1f20f40
vmulss 0x233627(%rip), %xmm3, %xmm12 # 0x1ef0fe4
vbroadcastss 0x263516(%rip), %ymm3 # 0x1f20edc
vpermps %ymm8, %ymm3, %ymm20
vpermps %ymm9, %ymm3, %ymm21
vpermps %ymm10, %ymm3, %ymm22
vpermps %ymm11, %ymm3, %ymm8
kortestb %k1, %k1
vmovss 0xc(%rsi), %xmm10
vmovaps %ymm31, 0x5a0(%rsp)
vmovaps %ymm26, 0x560(%rsp)
vmovaps %ymm29, 0x540(%rsp)
vmovaps %ymm27, 0x500(%rsp)
vmovaps %ymm28, 0x4e0(%rsp)
vmovaps %ymm20, 0x4a0(%rsp)
vmovaps %ymm21, 0x480(%rsp)
vmovaps %ymm22, 0x460(%rsp)
je 0x1cbe390
vmovaps %xmm10, 0x1a0(%rsp)
vmulps %ymm19, %ymm8, %ymm3
vfmadd213ps %ymm3, %ymm22, %ymm18 # ymm18 = (ymm22 * ymm18) + ymm3
vfmadd213ps %ymm18, %ymm21, %ymm17 # ymm17 = (ymm21 * ymm17) + ymm18
vfmadd213ps %ymm17, %ymm20, %ymm2 # ymm2 = (ymm20 * ymm2) + ymm17
vmulps %ymm16, %ymm8, %ymm3
vfmadd213ps %ymm3, %ymm22, %ymm15 # ymm15 = (ymm22 * ymm15) + ymm3
vfmadd213ps %ymm15, %ymm21, %ymm14 # ymm14 = (ymm21 * ymm14) + ymm15
vmovups 0x1210(%rdi,%r13), %ymm3
vmovups 0x1694(%rdi,%r13), %ymm10
vmovups 0x1b18(%rdi,%r13), %ymm11
vmovaps %xmm12, %xmm16
vmovups 0x1f9c(%rdi,%r13), %ymm12
vfmadd213ps %ymm14, %ymm20, %ymm25 # ymm25 = (ymm20 * ymm25) + ymm14
vmovaps %ymm8, %ymm15
vmulps %ymm12, %ymm27, %ymm9
vmulps %ymm12, %ymm28, %ymm8
vmulps %ymm12, %ymm15, %ymm12
vfmadd231ps %ymm26, %ymm11, %ymm9 # ymm9 = (ymm11 * ymm26) + ymm9
vfmadd231ps %ymm29, %ymm11, %ymm8 # ymm8 = (ymm11 * ymm29) + ymm8
vfmadd231ps %ymm11, %ymm22, %ymm12 # ymm12 = (ymm22 * ymm11) + ymm12
vmovaps 0x160(%rsp), %ymm19
vfmadd231ps %ymm19, %ymm10, %ymm9 # ymm9 = (ymm10 * ymm19) + ymm9
vfmadd231ps %ymm31, %ymm10, %ymm8 # ymm8 = (ymm10 * ymm31) + ymm8
vfmadd231ps %ymm10, %ymm21, %ymm12 # ymm12 = (ymm21 * ymm10) + ymm12
vmovaps 0x240(%rsp), %ymm17
vfmadd231ps %ymm17, %ymm3, %ymm9 # ymm9 = (ymm3 * ymm17) + ymm9
vmovaps 0x220(%rsp), %ymm18
vfmadd231ps %ymm18, %ymm3, %ymm8 # ymm8 = (ymm3 * ymm18) + ymm8
vmovups 0x1210(%r8,%r13), %ymm10
vmovups 0x1b18(%r8,%r13), %ymm11
vmovups 0x1f9c(%r8,%r13), %ymm13
vfmadd231ps %ymm3, %ymm20, %ymm12 # ymm12 = (ymm20 * ymm3) + ymm12
vmulps %ymm13, %ymm27, %ymm3
vmulps %ymm13, %ymm28, %ymm14
vmovaps %ymm15, 0x200(%rsp)
vmulps %ymm13, %ymm15, %ymm13
vfmadd231ps %ymm26, %ymm11, %ymm3 # ymm3 = (ymm11 * ymm26) + ymm3
vfmadd231ps %ymm29, %ymm11, %ymm14 # ymm14 = (ymm11 * ymm29) + ymm14
vfmadd231ps %ymm11, %ymm22, %ymm13 # ymm13 = (ymm22 * ymm11) + ymm13
vmovups 0x1694(%r8,%r13), %ymm11
vfmadd231ps %ymm19, %ymm11, %ymm3 # ymm3 = (ymm11 * ymm19) + ymm3
vfmadd231ps %ymm31, %ymm11, %ymm14 # ymm14 = (ymm11 * ymm31) + ymm14
vfmadd231ps %ymm11, %ymm21, %ymm13 # ymm13 = (ymm21 * ymm11) + ymm13
vfmadd231ps %ymm17, %ymm10, %ymm3 # ymm3 = (ymm10 * ymm17) + ymm3
vfmadd231ps %ymm18, %ymm10, %ymm14 # ymm14 = (ymm10 * ymm18) + ymm14
vfmadd231ps %ymm10, %ymm20, %ymm13 # ymm13 = (ymm20 * ymm10) + ymm13
vbroadcastss 0x26334c(%rip), %ymm15 # 0x1f20ec4
vandps %ymm15, %ymm9, %ymm10
vandps %ymm15, %ymm8, %ymm11
vmaxps %ymm11, %ymm10, %ymm10
vandps %ymm15, %ymm12, %ymm11
vmaxps %ymm11, %ymm10, %ymm10
vbroadcastss %xmm16, %ymm11
vmovaps %xmm16, %xmm26
vcmpltps %ymm11, %ymm10, %k2
vmovaps %ymm24, %ymm9 {%k2}
vmovaps %ymm23, %ymm8 {%k2}
vandps %ymm3, %ymm15, %ymm10
vandps %ymm15, %ymm14, %ymm12
vmaxps %ymm12, %ymm10, %ymm10
vandps %ymm15, %ymm13, %ymm12
vmaxps %ymm12, %ymm10, %ymm10
vcmpltps %ymm11, %ymm10, %k2
vmovaps %ymm24, %ymm3 {%k2}
vmovaps %ymm23, %ymm14 {%k2}
vbroadcastss 0x2632dc(%rip), %ymm11 # 0x1f20ec0
vxorps %ymm11, %ymm9, %ymm10
vxorps %ymm3, %ymm11, %ymm12
vxorps %xmm28, %xmm28, %xmm28
vfmadd213ps %ymm28, %ymm9, %ymm9 # ymm9 = (ymm9 * ymm9) + ymm28
vfmadd231ps %ymm8, %ymm8, %ymm9 # ymm9 = (ymm8 * ymm8) + ymm9
vrsqrt14ps %ymm9, %ymm11
vbroadcastss 0x22eb0f(%rip), %ymm15 # 0x1eec71c
vmulps %ymm15, %ymm9, %ymm9
vmulps %ymm9, %ymm11, %ymm9
vmulps %ymm11, %ymm11, %ymm13
vmulps %ymm9, %ymm13, %ymm9
vbroadcastss 0x22eaed(%rip), %ymm16 # 0x1eec718
vfmadd231ps %ymm11, %ymm16, %ymm9 # ymm9 = (ymm16 * ymm11) + ymm9
vmulps %ymm9, %ymm8, %ymm11
vmulps %ymm10, %ymm9, %ymm10
vmulps %ymm28, %ymm9, %ymm13
vfmadd213ps %ymm28, %ymm3, %ymm3 # ymm3 = (ymm3 * ymm3) + ymm28
vfmadd231ps %ymm14, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm14) + ymm3
vrsqrt14ps %ymm3, %ymm8
vmulps %ymm3, %ymm15, %ymm3
vmulps %ymm3, %ymm8, %ymm3
vmulps %ymm8, %ymm8, %ymm9
vmulps %ymm3, %ymm9, %ymm3
vfmadd231ps %ymm8, %ymm16, %ymm3 # ymm3 = (ymm16 * ymm8) + ymm3
vmulps %ymm3, %ymm14, %ymm8
vmulps %ymm3, %ymm12, %ymm9
vmulps %ymm28, %ymm3, %ymm3
vmovaps %ymm11, %ymm12
vfmadd213ps %ymm5, %ymm0, %ymm12 # ymm12 = (ymm0 * ymm12) + ymm5
vmovaps %ymm10, %ymm14
vfmadd213ps %ymm4, %ymm0, %ymm14 # ymm14 = (ymm0 * ymm14) + ymm4
vmovaps %ymm13, %ymm15
vfmadd213ps %ymm25, %ymm0, %ymm15 # ymm15 = (ymm0 * ymm15) + ymm25
vmovaps %ymm8, %ymm16
vfmadd213ps %ymm7, %ymm1, %ymm16 # ymm16 = (ymm1 * ymm16) + ymm7
vfnmadd213ps %ymm5, %ymm0, %ymm11 # ymm11 = -(ymm0 * ymm11) + ymm5
vmovaps %ymm9, %ymm5
vfmadd213ps %ymm6, %ymm1, %ymm5 # ymm5 = (ymm1 * ymm5) + ymm6
vfnmadd213ps %ymm4, %ymm0, %ymm10 # ymm10 = -(ymm0 * ymm10) + ymm4
vmovaps %ymm3, %ymm4
vfmadd213ps %ymm2, %ymm1, %ymm4 # ymm4 = (ymm1 * ymm4) + ymm2
vfnmadd231ps %ymm13, %ymm0, %ymm25 # ymm25 = -(ymm0 * ymm13) + ymm25
vfnmadd213ps %ymm7, %ymm1, %ymm8 # ymm8 = -(ymm1 * ymm8) + ymm7
vfnmadd213ps %ymm6, %ymm1, %ymm9 # ymm9 = -(ymm1 * ymm9) + ymm6
vfnmadd231ps %ymm3, %ymm1, %ymm2 # ymm2 = -(ymm1 * ymm3) + ymm2
vsubps %ymm11, %ymm16, %ymm3
vsubps %ymm10, %ymm5, %ymm6
vsubps %ymm25, %ymm4, %ymm7
vmulps %ymm25, %ymm6, %ymm13
vfmsub231ps %ymm7, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm7) - ymm13
vmulps %ymm7, %ymm11, %ymm7
vfmsub231ps %ymm3, %ymm25, %ymm7 # ymm7 = (ymm25 * ymm3) - ymm7
vmulps %ymm3, %ymm10, %ymm3
vfmsub231ps %ymm6, %ymm11, %ymm3 # ymm3 = (ymm11 * ymm6) - ymm3
vfmadd231ps %ymm7, %ymm28, %ymm3 # ymm3 = (ymm28 * ymm7) + ymm3
vfmadd231ps %ymm13, %ymm28, %ymm3 # ymm3 = (ymm28 * ymm13) + ymm3
vcmpleps %ymm28, %ymm3, %k2
vmovaps %ymm12, %ymm8 {%k2}
vmovaps %ymm14, %ymm9 {%k2}
vmovaps %ymm15, %ymm2 {%k2}
vblendmps %ymm16, %ymm11, %ymm13 {%k2}
vblendmps %ymm5, %ymm10, %ymm14 {%k2}
vblendmps %ymm4, %ymm25, %ymm15 {%k2}
vmovaps %ymm11, %ymm16 {%k2}
vmovaps %ymm10, %ymm5 {%k2}
vmovaps %ymm25, %ymm4 {%k2}
vsubps %ymm8, %ymm16, %ymm6
vsubps %ymm9, %ymm5, %ymm5
vsubps %ymm2, %ymm4, %ymm11
vsubps %ymm13, %ymm8, %ymm7
vsubps %ymm14, %ymm9, %ymm10
vsubps %ymm15, %ymm2, %ymm12
vmulps %ymm8, %ymm11, %ymm4
vfmsub231ps %ymm6, %ymm2, %ymm4 # ymm4 = (ymm2 * ymm6) - ymm4
vmulps %ymm6, %ymm9, %ymm3
vfmsub231ps %ymm5, %ymm8, %ymm3 # ymm3 = (ymm8 * ymm5) - ymm3
vfmadd231ps %ymm4, %ymm28, %ymm3 # ymm3 = (ymm28 * ymm4) + ymm3
vmulps %ymm2, %ymm5, %ymm4
vfmsub231ps %ymm11, %ymm9, %ymm4 # ymm4 = (ymm9 * ymm11) - ymm4
vfmadd231ps %ymm4, %ymm28, %ymm3 # ymm3 = (ymm28 * ymm4) + ymm3
vmulps %ymm13, %ymm12, %ymm16
vfmsub231ps %ymm15, %ymm7, %ymm16 # ymm16 = (ymm7 * ymm15) - ymm16
vmulps %ymm15, %ymm10, %ymm15
vfmsub231ps %ymm12, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm12) - ymm15
vmulps %ymm7, %ymm14, %ymm4
vfmsub231ps %ymm13, %ymm10, %ymm4 # ymm4 = (ymm10 * ymm13) - ymm4
vfmadd231ps %ymm16, %ymm28, %ymm4 # ymm4 = (ymm28 * ymm16) + ymm4
vfmadd231ps %ymm15, %ymm28, %ymm4 # ymm4 = (ymm28 * ymm15) + ymm4
vmaxps %ymm4, %ymm3, %ymm13
vcmpleps %ymm28, %ymm13, %k0 {%k1}
kortestb %k0, %k0
vmovaps 0x1e0(%rsp), %ymm20
vmovaps 0x1c0(%rsp), %ymm21
vmovaps %ymm17, %ymm22
vmovaps %ymm19, %ymm17
vmovaps %xmm26, %xmm14
je 0x1cbef6b
vmulps %ymm5, %ymm12, %ymm13
vfmsub231ps %ymm11, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm11) - ymm13
vmulps %ymm7, %ymm11, %ymm11
vfmsub231ps %ymm12, %ymm6, %ymm11 # ymm11 = (ymm6 * ymm12) - ymm11
vmulps %ymm6, %ymm10, %ymm10
vfmsub231ps %ymm5, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm5) - ymm10
vxorps %xmm6, %xmm6, %xmm6
vfmadd213ps %ymm10, %ymm11, %ymm6 # ymm6 = (ymm11 * ymm6) + ymm10
vfmadd231ps %ymm28, %ymm13, %ymm6 # ymm6 = (ymm13 * ymm28) + ymm6
vrcp14ps %ymm6, %ymm7
vmovaps %ymm7, %ymm5
vfnmadd213ps 0x22e8e3(%rip){1to8}, %ymm6, %ymm5 # ymm5 = -(ymm6 * ymm5) + mem
vfmadd132ps %ymm7, %ymm7, %ymm5 # ymm5 = (ymm5 * ymm7) + ymm7
vmulps %ymm2, %ymm10, %ymm2
vfmadd231ps %ymm11, %ymm9, %ymm2 # ymm2 = (ymm9 * ymm11) + ymm2
vfmadd231ps %ymm13, %ymm8, %ymm2 # ymm2 = (ymm8 * ymm13) + ymm2
vmulps %ymm5, %ymm2, %ymm2
vmovaps 0x1a0(%rsp), %xmm10
vbroadcastss %xmm10, %ymm7
vcmpleps %ymm2, %ymm7, %k1
vcmpleps 0x20(%rsi){1to8}, %ymm2, %k1 {%k1}
kandb %k0, %k1, %k0
kortestb %k0, %k0
je 0x1cbef90
vcmpneqps %ymm28, %ymm6, %k1
ktestb %k1, %k0
vmovaps 0x30(%rsp), %xmm9
je 0x1cbefac
kandb %k1, %k0, %k0
kmovd %k0, %eax
vmulps %ymm5, %ymm3, %ymm3
vmulps %ymm5, %ymm4, %ymm4
vbroadcastss 0x22e871(%rip), %ymm5 # 0x1eec714
vsubps %ymm3, %ymm5, %ymm6
vmovaps %ymm3, %ymm6 {%k2}
vsubps %ymm4, %ymm5, %ymm3
vmovaps %ymm4, %ymm3 {%k2}
vmovaps %ymm3, 0x400(%rsp)
movzbl %al, %eax
testw %ax, %ax
je 0x1cbe382
vsubps %ymm0, %ymm1, %ymm1
vfmadd213ps %ymm0, %ymm6, %ymm1 # ymm1 = (ymm6 * ymm1) + ymm0
vaddps %ymm1, %ymm1, %ymm0
vmulps (%r11){1to8}, %ymm0, %ymm0
vcmpnleps %ymm0, %ymm2, %k0
kmovd %k0, %ecx
andb %cl, %al
je 0x1cbe382
vbroadcastss 0x232ad1(%rip), %ymm0 # 0x1ef09cc
vmovaps 0x400(%rsp), %ymm1
vfmadd132ps 0x2330ea(%rip){1to8}, %ymm0, %ymm1 # ymm1 = (ymm1 * mem) + ymm0
vmovaps %ymm6, 0x2a0(%rsp)
vmovaps %ymm1, 0x400(%rsp)
vmovaps %ymm1, 0x2c0(%rsp)
vmovaps %ymm2, 0x2e0(%rsp)
movl $0x0, 0x300(%rsp)
movl %r12d, 0x304(%rsp)
vmovaps %xmm9, 0x310(%rsp)
vmovaps 0x150(%rsp), %xmm0
vmovaps %xmm0, 0x320(%rsp)
vmovaps 0x140(%rsp), %xmm0
vmovaps %xmm0, 0x330(%rsp)
vmovaps 0x190(%rsp), %xmm0
vmovaps %xmm0, 0x340(%rsp)
movb %al, 0x350(%rsp)
movl 0x24(%rsi), %ecx
testl %ecx, 0x34(%r15)
je 0x1cbe382
movq 0x10(%rdx), %rcx
cmpq $0x0, 0x10(%rcx)
jne 0x1cbdfb1
movb $0x1, %r10b
cmpq $0x0, 0x48(%r15)
je 0x1cbe385
vmovaps %ymm6, 0x80(%rsp)
vaddps 0x262f7e(%rip), %ymm6, %ymm0 # 0x1f20f40
vmovss 0x22e74a(%rip), %xmm1 # 0x1eec714
vdivss 0x280(%rsp), %xmm1, %xmm1
vbroadcastss %xmm1, %ymm1
vmulps %ymm0, %ymm1, %ymm0
vmovaps %ymm0, 0x360(%rsp)
vmovaps 0x400(%rsp), %ymm0
vmovaps %ymm0, 0x380(%rsp)
vmovaps %ymm2, 0x60(%rsp)
vmovaps %ymm2, 0x3a0(%rsp)
movzbl %al, %eax
vmovaps 0x320(%rsp), %xmm0
vmovaps %xmm0, 0x180(%rsp)
tzcntq %rax, %rcx
vmovaps 0x330(%rsp), %xmm0
vmovaps %xmm0, 0x120(%rsp)
vmovaps 0x340(%rsp), %xmm0
vmovaps %xmm0, 0x110(%rsp)
movb $0x1, %r10b
vmovaps %xmm14, 0x130(%rsp)
movq %rdx, 0x28(%rsp)
movq %rsi, 0x20(%rsp)
movq %r11, 0x48(%rsp)
vmovss 0x360(%rsp,%rcx,4), %xmm0
vmovss 0x380(%rsp,%rcx,4), %xmm1
vmovss 0x20(%rsi), %xmm2
vmovss %xmm2, 0x50(%rsp)
movq %rcx, 0x3c0(%rsp)
vmovss 0x3a0(%rsp,%rcx,4), %xmm2
vmovss %xmm2, 0x20(%rsi)
movq %rax, %r9
movq 0x8(%rdx), %rax
vmovss 0x22e673(%rip), %xmm2 # 0x1eec714
vsubss %xmm0, %xmm2, %xmm2
vaddss %xmm2, %xmm2, %xmm3
vmulss %xmm3, %xmm0, %xmm4
vfnmadd231ss %xmm2, %xmm2, %xmm4 # xmm4 = -(xmm2 * xmm2) + xmm4
vaddss %xmm0, %xmm0, %xmm5
vmovss 0x232f2e(%rip), %xmm8 # 0x1ef0fec
vmovaps %xmm8, %xmm6
vfmadd213ss 0x232f39(%rip), %xmm0, %xmm6 # xmm6 = (xmm0 * xmm6) + mem
vmulss %xmm0, %xmm8, %xmm7
vmulss %xmm7, %xmm0, %xmm7
vfmadd231ss %xmm6, %xmm5, %xmm7 # xmm7 = (xmm5 * xmm6) + xmm7
vmovaps %xmm8, %xmm5
vfmadd213ss 0x232f13(%rip), %xmm0, %xmm5 # xmm5 = (xmm0 * xmm5) + mem
vmulss 0x232f03(%rip), %xmm2, %xmm6 # 0x1ef0ff0
vmulss %xmm6, %xmm2, %xmm6
vfmadd231ss %xmm5, %xmm3, %xmm6 # xmm6 = (xmm3 * xmm5) + xmm6
vmulss 0x2328de(%rip), %xmm2, %xmm2 # 0x1ef09dc
vmulss %xmm0, %xmm0, %xmm3
vfmadd231ss %xmm2, %xmm0, %xmm3 # xmm3 = (xmm0 * xmm2) + xmm3
vmovss 0x22ea71(%rip), %xmm8 # 0x1eecb80
vmulss %xmm4, %xmm8, %xmm2
vmulss %xmm7, %xmm8, %xmm4
vmulss %xmm6, %xmm8, %xmm5
vmulss %xmm3, %xmm8, %xmm3
vbroadcastss %xmm3, %xmm3
vmulps 0x110(%rsp), %xmm3, %xmm3
vbroadcastss %xmm5, %xmm5
vfmadd132ps 0x120(%rsp), %xmm3, %xmm5 # xmm5 = (xmm5 * mem) + xmm3
vbroadcastss %xmm4, %xmm3
vfmadd132ps 0x180(%rsp), %xmm5, %xmm3 # xmm3 = (xmm3 * mem) + xmm5
vbroadcastss %xmm2, %xmm2
vfmadd213ps %xmm3, %xmm9, %xmm2 # xmm2 = (xmm9 * xmm2) + xmm3
vmovlps %xmm2, 0xd0(%rsp)
vextractps $0x2, %xmm2, 0xd8(%rsp)
vmovss %xmm0, 0xdc(%rsp)
vmovss %xmm1, 0xe0(%rsp)
movq 0x108(%rsp), %rcx
movl %ecx, 0xe4(%rsp)
movq 0x58(%rsp), %rcx
movl %ecx, 0xe8(%rsp)
movl (%rax), %ecx
movl %ecx, 0xec(%rsp)
movl 0x4(%rax), %ecx
movl %ecx, 0xf0(%rsp)
movl $0xffffffff, 0x1c(%rsp) # imm = 0xFFFFFFFF
leaq 0x1c(%rsp), %rcx
movq %rcx, 0xa0(%rsp)
movq 0x18(%r15), %rcx
movq %rcx, 0xa8(%rsp)
movq %rax, 0xb0(%rsp)
movq %rsi, 0xb8(%rsp)
leaq 0xd0(%rsp), %rax
movq %rax, 0xc0(%rsp)
movl $0x1, 0xc8(%rsp)
movq 0x48(%r15), %rax
testq %rax, %rax
movl %r10d, 0x18(%rsp)
movq %r9, 0x260(%rsp)
je 0x1cbe29d
leaq 0xa0(%rsp), %rdi
vzeroupper
callq *%rax
movq 0x260(%rsp), %r9
vmovaps 0x1a0(%rsp), %xmm10
vmovaps 0x130(%rsp), %xmm14
movl 0x18(%rsp), %r10d
vmovaps 0x160(%rsp), %ymm17
vmovaps 0x220(%rsp), %ymm18
vmovaps 0x240(%rsp), %ymm22
vmovaps 0x30(%rsp), %xmm9
vmovaps 0x1c0(%rsp), %ymm21
vmovaps 0x1e0(%rsp), %ymm20
vxorps %xmm28, %xmm28, %xmm28
leaq 0x474516(%rip), %r8 # 0x213278c
leaq 0x4720ef(%rip), %rdi # 0x213036c
movq 0x48(%rsp), %r11
movq 0x20(%rsp), %rsi
movq 0x28(%rsp), %rdx
movq 0xa0(%rsp), %rax
cmpl $0x0, (%rax)
je 0x1cbe344
movq 0x10(%rdx), %rcx
movq 0x10(%rcx), %rax
testq %rax, %rax
je 0x1cbe36d
testb $0x2, (%rcx)
jne 0x1cbe2ba
testb $0x40, 0x3e(%r15)
je 0x1cbe32f
leaq 0xa0(%rsp), %rdi
vzeroupper
callq *%rax
vmovaps 0x1a0(%rsp), %xmm10
vmovaps 0x130(%rsp), %xmm14
movl 0x18(%rsp), %r10d
vmovaps 0x160(%rsp), %ymm17
vmovaps 0x220(%rsp), %ymm18
vmovaps 0x240(%rsp), %ymm22
vmovaps 0x30(%rsp), %xmm9
vmovaps 0x1c0(%rsp), %ymm21
vmovaps 0x1e0(%rsp), %ymm20
vxorps %xmm28, %xmm28, %xmm28
leaq 0x474473(%rip), %r8 # 0x213278c
leaq 0x47204c(%rip), %rdi # 0x213036c
movq 0x48(%rsp), %r11
movq 0x20(%rsp), %rsi
movq 0x28(%rsp), %rdx
movq 0xa0(%rsp), %rax
cmpl $0x0, (%rax)
movq 0x260(%rsp), %r9
jne 0x1cbe36d
vmovss 0x50(%rsp), %xmm0
vmovss %xmm0, 0x20(%rsi)
movq 0x3c0(%rsp), %rax
btcq %rax, %r9
tzcntq %r9, %rcx
setae %r10b
movq %r9, %rax
jae 0x1cbe05f
andb $0x1, %r10b
vmovaps 0x80(%rsp), %ymm6
vmovaps 0x60(%rsp), %ymm2
jmp 0x1cbe385
xorl %r10d, %r10d
vmovaps 0x200(%rsp), %ymm8
jmp 0x1cbe3d5
xorl %r10d, %r10d
vxorps %xmm28, %xmm28, %xmm28
vmovaps 0x80(%rsp), %ymm6
vmovaps 0x1e0(%rsp), %ymm20
vmovaps 0x60(%rsp), %ymm2
vmovaps 0x1c0(%rsp), %ymm21
vmovaps 0x240(%rsp), %ymm22
vmovaps 0x220(%rsp), %ymm18
vmovaps 0x160(%rsp), %ymm17
vmovaps %xmm12, %xmm14
cmpl $0x9, %r12d
jge 0x1cbe40d
testb $0x1, %r10b
jne 0x1cbefc2
vmovaps 0x5e0(%rsp), %ymm0
vcmpleps 0x20(%rsi){1to8}, %ymm0, %k0
kmovb %k0, %eax
andl %eax, %r14d
setne 0x17(%rsp)
jne 0x1cbd572
jmp 0x1cbefc2
vmovaps %ymm8, 0x200(%rsp)
vpbroadcastd %r12d, %ymm0
vmovdqa %ymm0, 0x1a0(%rsp)
vbroadcastss %xmm14, %ymm0
vmovaps %ymm0, 0x260(%rsp)
vbroadcastss %xmm10, %ymm0
vmovaps %ymm0, 0x3c0(%rsp)
vmovss 0x22e2cb(%rip), %xmm0 # 0x1eec714
vdivss 0x280(%rsp), %xmm0, %xmm0
vbroadcastss %xmm0, %ymm0
vmovaps %ymm0, 0x280(%rsp)
movl $0x8, %r15d
vmovaps %ymm6, 0x80(%rsp)
vmovaps %ymm2, 0x60(%rsp)
vpbroadcastd %r15d, %ymm0
vpor 0x29c49d(%rip), %ymm0, %ymm0 # 0x1f5a920
vpcmpltd 0x1a0(%rsp), %ymm0, %k1
leaq (%rdi,%r13), %rcx
vmovups (%rcx,%r15,4), %ymm3
vmovups 0x484(%rcx,%r15,4), %ymm10
vmovups 0x908(%rcx,%r15,4), %ymm11
vmovups 0xd8c(%rcx,%r15,4), %ymm12
vmovaps 0x500(%rsp), %ymm19
vmulps %ymm12, %ymm19, %ymm5
vmovaps 0x4e0(%rsp), %ymm29
vmulps %ymm12, %ymm29, %ymm4
vmovaps 0x4c0(%rsp), %ymm1
vmulps %ymm1, %ymm12, %ymm0
vmovaps 0x560(%rsp), %ymm26
vfmadd231ps %ymm26, %ymm11, %ymm5 # ymm5 = (ymm11 * ymm26) + ymm5
vmovaps 0x540(%rsp), %ymm27
vfmadd231ps %ymm27, %ymm11, %ymm4 # ymm4 = (ymm11 * ymm27) + ymm4
vmovaps 0x520(%rsp), %ymm16
vfmadd231ps %ymm16, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm16) + ymm0
vfmadd231ps %ymm17, %ymm10, %ymm5 # ymm5 = (ymm10 * ymm17) + ymm5
vmovaps 0x5a0(%rsp), %ymm25
vfmadd231ps %ymm25, %ymm10, %ymm4 # ymm4 = (ymm10 * ymm25) + ymm4
vmovaps 0x580(%rsp), %ymm9
vfmadd231ps %ymm9, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm9) + ymm0
vfmadd231ps %ymm22, %ymm3, %ymm5 # ymm5 = (ymm3 * ymm22) + ymm5
vfmadd231ps %ymm18, %ymm3, %ymm4 # ymm4 = (ymm3 * ymm18) + ymm4
leaq (%r13,%r8), %rax
vmovups (%rax,%r15,4), %ymm2
vmovups 0x484(%rax,%r15,4), %ymm13
vmovaps 0x5c0(%rsp), %ymm8
vfmadd231ps %ymm8, %ymm3, %ymm0 # ymm0 = (ymm3 * ymm8) + ymm0
vmovups 0x908(%rax,%r15,4), %ymm14
vmovups 0xd8c(%rax,%r15,4), %ymm15
vmulps %ymm15, %ymm19, %ymm7
vmulps %ymm15, %ymm29, %ymm6
vmulps %ymm1, %ymm15, %ymm1
vfmadd231ps %ymm26, %ymm14, %ymm7 # ymm7 = (ymm14 * ymm26) + ymm7
vfmadd231ps %ymm27, %ymm14, %ymm6 # ymm6 = (ymm14 * ymm27) + ymm6
vfmadd231ps %ymm16, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm16) + ymm1
vfmadd231ps %ymm17, %ymm13, %ymm7 # ymm7 = (ymm13 * ymm17) + ymm7
vfmadd231ps %ymm25, %ymm13, %ymm6 # ymm6 = (ymm13 * ymm25) + ymm6
vfmadd231ps %ymm9, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm9) + ymm1
vfmadd231ps %ymm22, %ymm2, %ymm7 # ymm7 = (ymm2 * ymm22) + ymm7
vfmadd231ps %ymm18, %ymm2, %ymm6 # ymm6 = (ymm2 * ymm18) + ymm6
vfmadd231ps %ymm8, %ymm2, %ymm1 # ymm1 = (ymm2 * ymm8) + ymm1
vmaxps %ymm1, %ymm0, %ymm16
vsubps %ymm5, %ymm7, %ymm9
vsubps %ymm4, %ymm6, %ymm8
vmovaps %ymm17, %ymm24
vmulps %ymm9, %ymm4, %ymm17
vmovaps %ymm18, %ymm23
vmulps %ymm8, %ymm5, %ymm18
vsubps %ymm18, %ymm17, %ymm17
vmulps %ymm8, %ymm8, %ymm18
vfmadd231ps %ymm9, %ymm9, %ymm18 # ymm18 = (ymm9 * ymm9) + ymm18
vmulps %ymm16, %ymm16, %ymm16
vmulps %ymm18, %ymm16, %ymm16
vmulps %ymm17, %ymm17, %ymm17
vcmpleps %ymm16, %ymm17, %k1 {%k1}
kortestb %k1, %k1
je 0x1cbef0c
vmovaps %ymm23, %ymm16
vmovaps 0x200(%rsp), %ymm23
vmulps %ymm15, %ymm23, %ymm15
vmovaps 0x460(%rsp), %ymm31
vfmadd213ps %ymm15, %ymm31, %ymm14 # ymm14 = (ymm31 * ymm14) + ymm15
vmovaps 0x480(%rsp), %ymm30
vfmadd213ps %ymm14, %ymm30, %ymm13 # ymm13 = (ymm30 * ymm13) + ymm14
vmovaps 0x4a0(%rsp), %ymm18
vfmadd213ps %ymm13, %ymm18, %ymm2 # ymm2 = (ymm18 * ymm2) + ymm13
vmulps %ymm12, %ymm23, %ymm12
vfmadd213ps %ymm12, %ymm31, %ymm11 # ymm11 = (ymm31 * ymm11) + ymm12
vfmadd213ps %ymm11, %ymm30, %ymm10 # ymm10 = (ymm30 * ymm10) + ymm11
vfmadd213ps %ymm10, %ymm18, %ymm3 # ymm3 = (ymm18 * ymm3) + ymm10
vmovups 0x1210(%rcx,%r15,4), %ymm12
vmovups 0x1694(%rcx,%r15,4), %ymm13
vmovups 0x1b18(%rcx,%r15,4), %ymm14
vmovups 0x1f9c(%rcx,%r15,4), %ymm15
vmulps %ymm15, %ymm19, %ymm11
vmulps %ymm15, %ymm29, %ymm10
vmulps %ymm15, %ymm23, %ymm15
vfmadd231ps %ymm26, %ymm14, %ymm11 # ymm11 = (ymm14 * ymm26) + ymm11
vfmadd231ps %ymm27, %ymm14, %ymm10 # ymm10 = (ymm14 * ymm27) + ymm10
vfmadd231ps %ymm14, %ymm31, %ymm15 # ymm15 = (ymm31 * ymm14) + ymm15
vfmadd231ps %ymm24, %ymm13, %ymm11 # ymm11 = (ymm13 * ymm24) + ymm11
vfmadd231ps %ymm25, %ymm13, %ymm10 # ymm10 = (ymm13 * ymm25) + ymm10
vfmadd231ps %ymm13, %ymm30, %ymm15 # ymm15 = (ymm30 * ymm13) + ymm15
vfmadd231ps %ymm22, %ymm12, %ymm11 # ymm11 = (ymm12 * ymm22) + ymm11
vfmadd231ps %ymm16, %ymm12, %ymm10 # ymm10 = (ymm12 * ymm16) + ymm10
vmovaps %ymm19, %ymm17
vmovaps %ymm16, %ymm19
vfmadd231ps %ymm12, %ymm18, %ymm15 # ymm15 = (ymm18 * ymm12) + ymm15
vmovups 0x1210(%rax,%r15,4), %ymm13
vmovups 0x1b18(%rax,%r15,4), %ymm14
vmovups 0x1f9c(%rax,%r15,4), %ymm16
vmulps %ymm16, %ymm17, %ymm17
vmulps %ymm16, %ymm29, %ymm12
vmulps %ymm16, %ymm23, %ymm16
vfmadd231ps %ymm26, %ymm14, %ymm17 # ymm17 = (ymm14 * ymm26) + ymm17
vfmadd231ps %ymm27, %ymm14, %ymm12 # ymm12 = (ymm14 * ymm27) + ymm12
vfmadd231ps %ymm14, %ymm31, %ymm16 # ymm16 = (ymm31 * ymm14) + ymm16
vmovups 0x1694(%rax,%r15,4), %ymm14
vfmadd231ps %ymm24, %ymm14, %ymm17 # ymm17 = (ymm14 * ymm24) + ymm17
vfmadd231ps %ymm25, %ymm14, %ymm12 # ymm12 = (ymm14 * ymm25) + ymm12
vfmadd231ps %ymm14, %ymm30, %ymm16 # ymm16 = (ymm30 * ymm14) + ymm16
vfmadd231ps %ymm22, %ymm13, %ymm17 # ymm17 = (ymm13 * ymm22) + ymm17
vfmadd231ps %ymm19, %ymm13, %ymm12 # ymm12 = (ymm13 * ymm19) + ymm12
vfmadd231ps %ymm13, %ymm18, %ymm16 # ymm16 = (ymm18 * ymm13) + ymm16
vbroadcastss 0x26276c(%rip), %ymm18 # 0x1f20ec4
vandps %ymm18, %ymm11, %ymm13
vandps %ymm18, %ymm10, %ymm14
vmaxps %ymm14, %ymm13, %ymm13
vandps %ymm18, %ymm15, %ymm14
vmaxps %ymm14, %ymm13, %ymm13
vmovaps 0x260(%rsp), %ymm15
vcmpltps %ymm15, %ymm13, %k2
vmovaps %ymm9, %ymm11 {%k2}
vmovaps %ymm8, %ymm10 {%k2}
vandps %ymm18, %ymm17, %ymm13
vandps %ymm18, %ymm12, %ymm14
vmaxps %ymm14, %ymm13, %ymm13
vandps %ymm18, %ymm16, %ymm14
vmaxps %ymm14, %ymm13, %ymm13
vcmpltps %ymm15, %ymm13, %k2
vmovaps %ymm9, %ymm17 {%k2}
vmovaps %ymm8, %ymm12 {%k2}
vbroadcastss 0x2626f8(%rip), %ymm9 # 0x1f20ec0
vxorps %ymm9, %ymm11, %ymm8
vxorps %ymm9, %ymm17, %ymm9
vfmadd213ps %ymm28, %ymm11, %ymm11 # ymm11 = (ymm11 * ymm11) + ymm28
vfmadd231ps %ymm10, %ymm10, %ymm11 # ymm11 = (ymm10 * ymm10) + ymm11
vrsqrt14ps %ymm11, %ymm13
vbroadcastss 0x22df2f(%rip), %ymm15 # 0x1eec71c
vmulps %ymm15, %ymm11, %ymm11
vmulps %ymm11, %ymm13, %ymm11
vmulps %ymm13, %ymm13, %ymm14
vmulps %ymm11, %ymm14, %ymm14
vbroadcastss 0x22df0d(%rip), %ymm16 # 0x1eec718
vfmadd231ps %ymm13, %ymm16, %ymm14 # ymm14 = (ymm16 * ymm13) + ymm14
vmulps %ymm14, %ymm10, %ymm11
vmulps %ymm8, %ymm14, %ymm10
vmulps %ymm28, %ymm14, %ymm13
vfmadd213ps %ymm28, %ymm17, %ymm17 # ymm17 = (ymm17 * ymm17) + ymm28
vfmadd231ps %ymm12, %ymm12, %ymm17 # ymm17 = (ymm12 * ymm12) + ymm17
vrsqrt14ps %ymm17, %ymm8
vmulps %ymm15, %ymm17, %ymm14
vmulps %ymm14, %ymm8, %ymm14
vmulps %ymm8, %ymm8, %ymm15
vmulps %ymm14, %ymm15, %ymm14
vfmadd231ps %ymm8, %ymm16, %ymm14 # ymm14 = (ymm16 * ymm8) + ymm14
vmulps %ymm14, %ymm12, %ymm8
vmulps %ymm9, %ymm14, %ymm9
vmulps %ymm28, %ymm14, %ymm12
vmovaps %ymm11, %ymm14
vfmadd213ps %ymm5, %ymm0, %ymm14 # ymm14 = (ymm0 * ymm14) + ymm5
vmovaps %ymm10, %ymm15
vfmadd213ps %ymm4, %ymm0, %ymm15 # ymm15 = (ymm0 * ymm15) + ymm4
vmovaps %ymm13, %ymm16
vfmadd213ps %ymm3, %ymm0, %ymm16 # ymm16 = (ymm0 * ymm16) + ymm3
vmovaps %ymm8, %ymm17
vfmadd213ps %ymm7, %ymm1, %ymm17 # ymm17 = (ymm1 * ymm17) + ymm7
vfnmadd213ps %ymm5, %ymm0, %ymm11 # ymm11 = -(ymm0 * ymm11) + ymm5
vmovaps %ymm9, %ymm5
vfmadd213ps %ymm6, %ymm1, %ymm5 # ymm5 = (ymm1 * ymm5) + ymm6
vfnmadd213ps %ymm4, %ymm0, %ymm10 # ymm10 = -(ymm0 * ymm10) + ymm4
vmovaps %ymm12, %ymm4
vfmadd213ps %ymm2, %ymm1, %ymm4 # ymm4 = (ymm1 * ymm4) + ymm2
vfnmadd231ps %ymm13, %ymm0, %ymm3 # ymm3 = -(ymm0 * ymm13) + ymm3
vfnmadd213ps %ymm7, %ymm1, %ymm8 # ymm8 = -(ymm1 * ymm8) + ymm7
vfnmadd213ps %ymm6, %ymm1, %ymm9 # ymm9 = -(ymm1 * ymm9) + ymm6
vfnmadd231ps %ymm12, %ymm1, %ymm2 # ymm2 = -(ymm1 * ymm12) + ymm2
vsubps %ymm11, %ymm17, %ymm6
vsubps %ymm10, %ymm5, %ymm7
vsubps %ymm3, %ymm4, %ymm12
vmulps %ymm3, %ymm7, %ymm13
vfmsub231ps %ymm12, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm12) - ymm13
vmulps %ymm11, %ymm12, %ymm12
vfmsub231ps %ymm6, %ymm3, %ymm12 # ymm12 = (ymm3 * ymm6) - ymm12
vmulps %ymm6, %ymm10, %ymm6
vfmsub231ps %ymm7, %ymm11, %ymm6 # ymm6 = (ymm11 * ymm7) - ymm6
vfmadd231ps %ymm12, %ymm28, %ymm6 # ymm6 = (ymm28 * ymm12) + ymm6
vfmadd231ps %ymm13, %ymm28, %ymm6 # ymm6 = (ymm28 * ymm13) + ymm6
vcmpleps %ymm28, %ymm6, %k2
vmovaps %ymm14, %ymm8 {%k2}
vmovaps %ymm15, %ymm9 {%k2}
vmovaps %ymm16, %ymm2 {%k2}
vblendmps %ymm17, %ymm11, %ymm13 {%k2}
vblendmps %ymm5, %ymm10, %ymm14 {%k2}
vblendmps %ymm4, %ymm3, %ymm15 {%k2}
vmovaps %ymm11, %ymm17 {%k2}
vmovaps %ymm10, %ymm5 {%k2}
vmovaps %ymm3, %ymm4 {%k2}
vsubps %ymm8, %ymm17, %ymm6
vsubps %ymm9, %ymm5, %ymm5
vsubps %ymm2, %ymm4, %ymm11
vsubps %ymm13, %ymm8, %ymm7
vsubps %ymm14, %ymm9, %ymm10
vsubps %ymm15, %ymm2, %ymm12
vmulps %ymm8, %ymm11, %ymm4
vfmsub231ps %ymm6, %ymm2, %ymm4 # ymm4 = (ymm2 * ymm6) - ymm4
vmulps %ymm6, %ymm9, %ymm3
vfmsub231ps %ymm5, %ymm8, %ymm3 # ymm3 = (ymm8 * ymm5) - ymm3
vfmadd231ps %ymm4, %ymm28, %ymm3 # ymm3 = (ymm28 * ymm4) + ymm3
vmulps %ymm2, %ymm5, %ymm4
vfmsub231ps %ymm11, %ymm9, %ymm4 # ymm4 = (ymm9 * ymm11) - ymm4
vfmadd231ps %ymm4, %ymm28, %ymm3 # ymm3 = (ymm28 * ymm4) + ymm3
vmulps %ymm13, %ymm12, %ymm16
vfmsub231ps %ymm15, %ymm7, %ymm16 # ymm16 = (ymm7 * ymm15) - ymm16
vmulps %ymm15, %ymm10, %ymm15
vfmsub231ps %ymm12, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm12) - ymm15
vmulps %ymm7, %ymm14, %ymm4
vfmsub231ps %ymm13, %ymm10, %ymm4 # ymm4 = (ymm10 * ymm13) - ymm4
vfmadd231ps %ymm16, %ymm28, %ymm4 # ymm4 = (ymm28 * ymm16) + ymm4
vfmadd231ps %ymm15, %ymm28, %ymm4 # ymm4 = (ymm28 * ymm15) + ymm4
vmaxps %ymm4, %ymm3, %ymm13
vcmpleps %ymm28, %ymm13, %k0 {%k1}
kortestb %k0, %k0
vmovaps %ymm19, %ymm18
je 0x1cbef40
vmulps %ymm5, %ymm12, %ymm13
vfmsub231ps %ymm11, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm11) - ymm13
vmulps %ymm7, %ymm11, %ymm11
vfmsub231ps %ymm12, %ymm6, %ymm11 # ymm11 = (ymm6 * ymm12) - ymm11
vmulps %ymm6, %ymm10, %ymm10
vfmsub231ps %ymm5, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm5) - ymm10
vxorps %xmm6, %xmm6, %xmm6
vfmadd213ps %ymm10, %ymm11, %ymm6 # ymm6 = (ymm11 * ymm6) + ymm10
vfmadd231ps %ymm28, %ymm13, %ymm6 # ymm6 = (ymm13 * ymm28) + ymm6
vrcp14ps %ymm6, %ymm7
vmovaps %ymm7, %ymm5
vfnmadd213ps 0x22dd1c(%rip){1to8}, %ymm6, %ymm5 # ymm5 = -(ymm6 * ymm5) + mem
vfmadd132ps %ymm7, %ymm7, %ymm5 # ymm5 = (ymm5 * ymm7) + ymm7
vmulps %ymm2, %ymm10, %ymm2
vfmadd231ps %ymm11, %ymm9, %ymm2 # ymm2 = (ymm9 * ymm11) + ymm2
vfmadd231ps %ymm13, %ymm8, %ymm2 # ymm2 = (ymm8 * ymm13) + ymm2
vmulps %ymm5, %ymm2, %ymm2
vcmpgeps 0x3c0(%rsp), %ymm2, %k1
vcmpleps 0x20(%rsi){1to8}, %ymm2, %k1 {%k1}
kandb %k0, %k1, %k0
kortestb %k0, %k0
je 0x1cbef40
vcmpneqps %ymm28, %ymm6, %k1
ktestb %k1, %k0
vmovaps 0x30(%rsp), %xmm9
vmovaps 0x160(%rsp), %ymm17
je 0x1cbef64
kandb %k1, %k0, %k0
kmovd %k0, %eax
vmulps %ymm5, %ymm3, %ymm3
vmulps %ymm5, %ymm4, %ymm4
vbroadcastss 0x22dcae(%rip), %ymm5 # 0x1eec714
vsubps %ymm3, %ymm5, %ymm20
vmovaps %ymm3, %ymm20 {%k2}
vsubps %ymm4, %ymm5, %ymm3
vmovaps %ymm4, %ymm3 {%k2}
vmovaps %ymm3, 0x3e0(%rsp)
movzbl %al, %eax
vmovaps %ymm2, %ymm21
vmovaps 0x80(%rsp), %ymm6
vmovaps 0x60(%rsp), %ymm2
testw %ax, %ax
je 0x1cbef2e
vsubps %ymm0, %ymm1, %ymm1
vfmadd213ps %ymm0, %ymm20, %ymm1 # ymm1 = (ymm20 * ymm1) + ymm0
vaddps %ymm1, %ymm1, %ymm0
vmulps (%r11){1to8}, %ymm0, %ymm0
vcmpnleps %ymm0, %ymm21, %k0
kmovd %k0, %ecx
andb %cl, %al
je 0x1cbef2e
vbroadcastss 0x231ef6(%rip), %ymm0 # 0x1ef09cc
vmovaps 0x3e0(%rsp), %ymm1
vfmadd132ps 0x23250f(%rip){1to8}, %ymm0, %ymm1 # ymm1 = (ymm1 * mem) + ymm0
vmovaps %ymm20, 0x2a0(%rsp)
vmovaps %ymm1, 0x3e0(%rsp)
vmovaps %ymm1, 0x2c0(%rsp)
vmovaps %ymm21, 0x2e0(%rsp)
movl %r15d, 0x300(%rsp)
movl %r12d, 0x304(%rsp)
vmovaps %xmm9, 0x310(%rsp)
vmovaps 0x150(%rsp), %xmm0
vmovaps %xmm0, 0x320(%rsp)
vmovaps 0x140(%rsp), %xmm0
vmovaps %xmm0, 0x330(%rsp)
vmovaps 0x190(%rsp), %xmm0
vmovaps %xmm0, 0x340(%rsp)
movb %al, 0x350(%rsp)
movq (%rdx), %rcx
movq 0x1e8(%rcx), %rcx
movq 0x58(%rsp), %r9
movq (%rcx,%r9,8), %r9
movl 0x24(%rsi), %ecx
testl %ecx, 0x34(%r9)
je 0x1cbef29
movq 0x10(%rdx), %rcx
cmpq $0x0, 0x10(%rcx)
jne 0x1cbeb99
movb $0x1, %cl
cmpq $0x0, 0x48(%r9)
je 0x1cbef2b
movl %r10d, 0x18(%rsp)
movq %r11, 0x48(%rsp)
vmovaps %ymm20, 0x1e0(%rsp)
vaddps 0x26238b(%rip), %ymm20, %ymm0 # 0x1f20f40
vcvtsi2ss %r15d, %xmm19, %xmm1
vbroadcastss %xmm1, %ymm1
vaddps %ymm0, %ymm1, %ymm0
vmulps 0x280(%rsp), %ymm0, %ymm0
vmovaps %ymm0, 0x360(%rsp)
vmovaps 0x3e0(%rsp), %ymm0
vmovaps %ymm0, 0x380(%rsp)
vmovaps %ymm21, 0x1c0(%rsp)
vmovaps %ymm21, 0x3a0(%rsp)
movzbl %al, %edi
vmovaps 0x320(%rsp), %xmm0
vmovaps %xmm0, 0x450(%rsp)
tzcntq %rdi, %rcx
vmovaps 0x330(%rsp), %xmm0
vmovaps %xmm0, 0x440(%rsp)
vmovaps 0x340(%rsp), %xmm0
vmovaps %xmm0, 0x430(%rsp)
movb $0x1, %al
movl %eax, 0x110(%rsp)
movq %r9, 0x120(%rsp)
movq %rdx, 0x28(%rsp)
movq %rsi, 0x20(%rsp)
vmovss 0x360(%rsp,%rcx,4), %xmm0
vmovss 0x380(%rsp,%rcx,4), %xmm1
vmovss 0x20(%rsi), %xmm2
vmovss %xmm2, 0x180(%rsp)
movq %rcx, 0x130(%rsp)
vmovss 0x3a0(%rsp,%rcx,4), %xmm2
vmovss %xmm2, 0x20(%rsi)
movq 0x8(%rdx), %rax
vmovss 0x22da81(%rip), %xmm2 # 0x1eec714
vsubss %xmm0, %xmm2, %xmm2
vaddss %xmm2, %xmm2, %xmm3
vmulss %xmm3, %xmm0, %xmm4
vfnmadd231ss %xmm2, %xmm2, %xmm4 # xmm4 = -(xmm2 * xmm2) + xmm4
vaddss %xmm0, %xmm0, %xmm5
vmovss 0x23233c(%rip), %xmm8 # 0x1ef0fec
vmovaps %xmm8, %xmm6
vfmadd213ss 0x232347(%rip), %xmm0, %xmm6 # xmm6 = (xmm0 * xmm6) + mem
vmulss %xmm0, %xmm8, %xmm7
vmulss %xmm7, %xmm0, %xmm7
vfmadd231ss %xmm6, %xmm5, %xmm7 # xmm7 = (xmm5 * xmm6) + xmm7
vmovaps %xmm8, %xmm5
vfmadd213ss 0x232321(%rip), %xmm0, %xmm5 # xmm5 = (xmm0 * xmm5) + mem
vmulss 0x232311(%rip), %xmm2, %xmm6 # 0x1ef0ff0
vmulss %xmm6, %xmm2, %xmm6
vfmadd231ss %xmm5, %xmm3, %xmm6 # xmm6 = (xmm3 * xmm5) + xmm6
vmulss 0x231cec(%rip), %xmm2, %xmm2 # 0x1ef09dc
vmulss %xmm0, %xmm0, %xmm3
vfmadd231ss %xmm2, %xmm0, %xmm3 # xmm3 = (xmm0 * xmm2) + xmm3
vmovss 0x22de7f(%rip), %xmm8 # 0x1eecb80
vmulss %xmm4, %xmm8, %xmm2
vmulss %xmm7, %xmm8, %xmm4
vmulss %xmm6, %xmm8, %xmm5
vmulss %xmm3, %xmm8, %xmm3
vbroadcastss %xmm3, %xmm3
vmulps 0x430(%rsp), %xmm3, %xmm3
vbroadcastss %xmm5, %xmm5
vfmadd132ps 0x440(%rsp), %xmm3, %xmm5 # xmm5 = (xmm5 * mem) + xmm3
vbroadcastss %xmm4, %xmm3
vfmadd132ps 0x450(%rsp), %xmm5, %xmm3 # xmm3 = (xmm3 * mem) + xmm5
vbroadcastss %xmm2, %xmm2
vfmadd213ps %xmm3, %xmm9, %xmm2 # xmm2 = (xmm9 * xmm2) + xmm3
vmovlps %xmm2, 0xd0(%rsp)
vextractps $0x2, %xmm2, 0xd8(%rsp)
vmovss %xmm0, 0xdc(%rsp)
vmovss %xmm1, 0xe0(%rsp)
movq 0x108(%rsp), %rcx
movl %ecx, 0xe4(%rsp)
movq 0x58(%rsp), %rcx
movl %ecx, 0xe8(%rsp)
movl (%rax), %ecx
movl %ecx, 0xec(%rsp)
movl 0x4(%rax), %ecx
movl %ecx, 0xf0(%rsp)
movl $0xffffffff, 0x1c(%rsp) # imm = 0xFFFFFFFF
leaq 0x1c(%rsp), %rcx
movq %rcx, 0xa0(%rsp)
movq 0x18(%r9), %rcx
movq %rcx, 0xa8(%rsp)
movq %rax, 0xb0(%rsp)
movq %rsi, 0xb8(%rsp)
leaq 0xd0(%rsp), %rax
movq %rax, 0xc0(%rsp)
movl $0x1, 0xc8(%rsp)
movq 0x48(%r9), %rax
testq %rax, %rax
movq %rdi, 0x50(%rsp)
je 0x1cbee2c
leaq 0xa0(%rsp), %rdi
vzeroupper
callq *%rax
movq 0x50(%rsp), %rdi
movq 0x120(%rsp), %r9
vmovaps 0x30(%rsp), %xmm9
movq 0x20(%rsp), %rsi
movq 0x28(%rsp), %rdx
movq 0xa0(%rsp), %rax
cmpl $0x0, (%rax)
je 0x1cbee7c
movq 0x10(%rdx), %rcx
movq 0x10(%rcx), %rax
testq %rax, %rax
je 0x1cbeeab
testb $0x2, (%rcx)
jne 0x1cbee45
testb $0x40, 0x3e(%r9)
je 0x1cbee5a
leaq 0xa0(%rsp), %rdi
vzeroupper
callq *%rax
movq 0x120(%rsp), %r9
movq 0xa0(%rsp), %rax
cmpl $0x0, (%rax)
movq 0x28(%rsp), %rdx
movq 0x20(%rsp), %rsi
vmovaps 0x30(%rsp), %xmm9
movq 0x50(%rsp), %rdi
jne 0x1cbeeab
vmovss 0x180(%rsp), %xmm0
vmovss %xmm0, 0x20(%rsi)
movq 0x130(%rsp), %rax
btcq %rax, %rdi
tzcntq %rdi, %rcx
setae %al
movl %eax, 0x110(%rsp)
jae 0x1cbec51
movl 0x110(%rsp), %ecx
andb $0x1, %cl
movq 0x48(%rsp), %r11
leaq 0x4714ab(%rip), %rdi # 0x213036c
leaq 0x4738c4(%rip), %r8 # 0x213278c
vxorps %xmm28, %xmm28, %xmm28
vmovaps 0x80(%rsp), %ymm6
vmovaps 0x1e0(%rsp), %ymm20
vmovaps 0x60(%rsp), %ymm2
vmovaps 0x1c0(%rsp), %ymm21
vmovaps 0x240(%rsp), %ymm22
vmovaps 0x220(%rsp), %ymm18
vmovaps 0x160(%rsp), %ymm17
movl 0x18(%rsp), %r10d
jmp 0x1cbef2b
vmovaps 0x80(%rsp), %ymm6
vmovaps 0x60(%rsp), %ymm2
vmovaps %ymm23, %ymm18
vmovaps %ymm24, %ymm17
jmp 0x1cbef2e
xorl %ecx, %ecx
orb %cl, %r10b
addq $0x8, %r15
cmpl %r15d, %r12d
jg 0x1cbe475
jmp 0x1cbe3db
xorl %eax, %eax
vmovaps 0x80(%rsp), %ymm6
vmovaps 0x60(%rsp), %ymm2
vmovaps 0x30(%rsp), %xmm9
vmovaps 0x160(%rsp), %ymm17
jmp 0x1cbea9d
xorl %eax, %eax
jmp 0x1cbea8e
xorl %eax, %eax
vmovaps 0x80(%rsp), %ymm6
vmovaps 0x60(%rsp), %ymm2
vmovaps 0x30(%rsp), %xmm9
vmovaps 0x1a0(%rsp), %xmm10
jmp 0x1cbdec3
xorl %eax, %eax
vmovaps 0x80(%rsp), %ymm6
vmovaps 0x60(%rsp), %ymm2
vmovaps 0x30(%rsp), %xmm9
jmp 0x1cbdec3
xorl %eax, %eax
vmovaps 0x80(%rsp), %ymm6
vmovaps 0x60(%rsp), %ymm2
jmp 0x1cbdec3
movb 0x17(%rsp), %al
andb $0x1, %al
leaq -0x28(%rbp), %rsp
popq %rbx
popq %r12
popq %r13
popq %r14
popq %r15
popq %rbp
vzeroupper
retq
|
/embree[P]embree/kernels/geometry/curveNi_intersector.h
|
void embree::avx512::CurveNiIntersectorK<8, 4>::intersect_t<embree::avx512::RibbonCurve1IntersectorK<embree::CatmullRomCurveT, 4, 8>, embree::avx512::Intersect1KEpilogMU<8, 4, true>>(embree::avx512::CurvePrecalculationsK<4>&, embree::RayHitK<4>&, unsigned long, embree::RayQueryContext*, embree::CurveNi<8> const&)
|
static __forceinline void intersect_t(Precalculations& pre, RayHitK<K>& ray, const size_t k, RayQueryContext* context, const Primitive& prim)
{
vfloat<M> tNear;
vbool<M> valid = intersect(ray,k,prim,tNear);
const size_t N = prim.N;
size_t mask = movemask(valid);
while (mask)
{
const size_t i = bscf(mask);
STAT3(normal.trav_prims,1,1,1);
const unsigned int geomID = prim.geomID(N);
const unsigned int primID = prim.primID(N)[i];
const CurveGeometry* geom = context->scene->get<CurveGeometry>(geomID);
Vec3ff a0,a1,a2,a3; geom->gather(a0,a1,a2,a3,geom->curve(primID));
size_t mask1 = mask;
const size_t i1 = bscf(mask1);
if (mask) {
const unsigned int primID1 = prim.primID(N)[i1];
geom->prefetchL1_vertices(geom->curve(primID1));
if (mask1) {
const size_t i2 = bsf(mask1);
const unsigned int primID2 = prim.primID(N)[i2];
geom->prefetchL2_vertices(geom->curve(primID2));
}
}
Intersector().intersect(pre,ray,k,context,geom,primID,a0,a1,a2,a3,Epilog(ray,k,context,geomID,primID));
mask &= movemask(tNear <= vfloat<M>(ray.tfar[k]));
}
}
|
pushq %rbp
movq %rsp, %rbp
pushq %r15
pushq %r14
pushq %r13
pushq %r12
pushq %rbx
andq $-0x20, %rsp
subq $0x700, %rsp # imm = 0x700
movq %rcx, %r10
movq %rdx, %r15
movq %rdi, 0xc8(%rsp)
movzbl 0x1(%r8), %ecx
leaq (%rcx,%rcx,4), %rax
leaq (%rax,%rax,4), %rdx
vbroadcastss 0x12(%r8,%rdx), %xmm0
vmovss (%rsi,%r15,4), %xmm1
vmovss 0x40(%rsi,%r15,4), %xmm2
vinsertps $0x10, 0x10(%rsi,%r15,4), %xmm1, %xmm1 # xmm1 = xmm1[0],mem[0],xmm1[2,3]
vinsertps $0x20, 0x20(%rsi,%r15,4), %xmm1, %xmm1 # xmm1 = xmm1[0,1],mem[0],xmm1[3]
vinsertps $0x10, 0x50(%rsi,%r15,4), %xmm2, %xmm2 # xmm2 = xmm2[0],mem[0],xmm2[2,3]
vinsertps $0x20, 0x60(%rsi,%r15,4), %xmm2, %xmm2 # xmm2 = xmm2[0,1],mem[0],xmm2[3]
vsubps 0x6(%r8,%rdx), %xmm1, %xmm1
vmulps %xmm1, %xmm0, %xmm3
vmulps %xmm2, %xmm0, %xmm0
vpmovsxbd 0x6(%r8,%rcx,4), %ymm1
vpmovsxbd 0x6(%r8,%rax), %ymm2
vcvtdq2ps %ymm1, %ymm5
vcvtdq2ps %ymm2, %ymm6
leaq (%rcx,%rcx,2), %rdx
vpmovsxbd 0x6(%r8,%rdx,2), %ymm1
vcvtdq2ps %ymm1, %ymm4
leaq (%rcx,%rax,2), %rdi
vpmovsxbd 0x6(%r8,%rdi), %ymm1
leal (,%rdx,4), %edi
vpmovsxbd 0x6(%r8,%rdi), %ymm2
vcvtdq2ps %ymm1, %ymm7
vcvtdq2ps %ymm2, %ymm8
addq %rcx, %rdi
vpmovsxbd 0x6(%r8,%rdi), %ymm1
vcvtdq2ps %ymm1, %ymm9
leaq (%rcx,%rcx,8), %r9
leal (%r9,%r9), %edi
vpmovsxbd 0x6(%r8,%rdi), %ymm1
vcvtdq2ps %ymm1, %ymm10
addq %rcx, %rdi
vpmovsxbd 0x6(%r8,%rdi), %ymm1
vcvtdq2ps %ymm1, %ymm11
shll $0x2, %eax
vpmovsxbd 0x6(%r8,%rax), %ymm1
vcvtdq2ps %ymm1, %ymm12
vbroadcastss %xmm0, %ymm13
vbroadcastss 0x253623(%rip), %ymm15 # 0x1f12704
vbroadcastss 0x261df1(%rip), %ymm16 # 0x1f20edc
vpermps %ymm0, %ymm15, %ymm14
vpermps %ymm0, %ymm16, %ymm0
vmulps %ymm4, %ymm0, %ymm2
vmulps %ymm0, %ymm9, %ymm1
vmulps %ymm0, %ymm12, %ymm0
vfmadd231ps %ymm6, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm6) + ymm2
vfmadd231ps %ymm8, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm8) + ymm1
vfmadd231ps %ymm14, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm14) + ymm0
vfmadd231ps %ymm5, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm5) + ymm2
vfmadd231ps %ymm7, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm7) + ymm1
vfmadd231ps %ymm13, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm13) + ymm0
vbroadcastss %xmm3, %ymm13
vpermps %ymm3, %ymm15, %ymm14
vpermps %ymm3, %ymm16, %ymm3
vmulps %ymm4, %ymm3, %ymm15
vmulps %ymm3, %ymm9, %ymm4
vmulps %ymm3, %ymm12, %ymm3
vfmadd231ps %ymm6, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm6) + ymm15
vfmadd231ps %ymm8, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm8) + ymm4
vfmadd231ps %ymm11, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm11) + ymm3
vfmadd231ps %ymm5, %ymm13, %ymm15 # ymm15 = (ymm13 * ymm5) + ymm15
vfmadd231ps %ymm7, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm7) + ymm4
vbroadcastss 0x261d66(%rip), %ymm7 # 0x1f20ec4
vfmadd231ps %ymm10, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm10) + ymm3
vandps %ymm7, %ymm2, %ymm5
vbroadcastss 0x231e78(%rip), %ymm6 # 0x1ef0fe8
vcmpltps %ymm6, %ymm5, %k1
vmovaps %ymm6, %ymm2 {%k1}
vandps %ymm7, %ymm1, %ymm5
vcmpltps %ymm6, %ymm5, %k1
vmovaps %ymm6, %ymm1 {%k1}
vandps %ymm7, %ymm0, %ymm5
vcmpltps %ymm6, %ymm5, %k1
vmovaps %ymm6, %ymm0 {%k1}
vrcp14ps %ymm2, %ymm5
vbroadcastss 0x22d566(%rip), %ymm6 # 0x1eec714
vfnmadd213ps %ymm6, %ymm5, %ymm2 # ymm2 = -(ymm5 * ymm2) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm2 # ymm2 = (ymm2 * ymm5) + ymm5
vrcp14ps %ymm1, %ymm5
vfnmadd213ps %ymm6, %ymm5, %ymm1 # ymm1 = -(ymm5 * ymm1) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm1 # ymm1 = (ymm1 * ymm5) + ymm5
vrcp14ps %ymm0, %ymm5
vfnmadd213ps %ymm6, %ymm5, %ymm0 # ymm0 = -(ymm5 * ymm0) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm0 # ymm0 = (ymm0 * ymm5) + ymm5
leaq (,%rcx,8), %rdi
subq %rcx, %rdi
vpmovsxwd 0x6(%r8,%rdi), %ymm5
vcvtdq2ps %ymm5, %ymm5
vsubps %ymm15, %ymm5, %ymm5
vmulps %ymm5, %ymm2, %ymm5
vpmovsxwd 0x6(%r8,%r9), %ymm6
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm15, %ymm6, %ymm6
leaq (%rcx,%rcx), %rdi
addq %rcx, %rax
shlq $0x3, %rdx
subq %rcx, %rdx
vpbroadcastd %ecx, %ymm7
shll $0x4, %ecx
vpmovsxwd 0x6(%r8,%rcx), %ymm8
vmulps %ymm6, %ymm2, %ymm2
subq %rdi, %rcx
vpmovsxwd 0x6(%r8,%rcx), %ymm6
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm4, %ymm6, %ymm6
vmulps %ymm6, %ymm1, %ymm6
vcvtdq2ps %ymm8, %ymm8
vsubps %ymm4, %ymm8, %ymm4
vmulps %ymm4, %ymm1, %ymm1
vpmovsxwd 0x6(%r8,%rax), %ymm4
vcvtdq2ps %ymm4, %ymm4
vsubps %ymm3, %ymm4, %ymm4
vmulps %ymm0, %ymm4, %ymm4
vpmovsxwd 0x6(%r8,%rdx), %ymm8
vcvtdq2ps %ymm8, %ymm8
vsubps %ymm3, %ymm8, %ymm3
vmulps %ymm3, %ymm0, %ymm0
vpminsd %ymm2, %ymm5, %ymm3
vpminsd %ymm1, %ymm6, %ymm8
vmaxps %ymm8, %ymm3, %ymm3
vpminsd %ymm0, %ymm4, %ymm8
vmaxps 0x30(%rsi,%r15,4){1to8}, %ymm8, %ymm8
vmaxps %ymm8, %ymm3, %ymm3
vmulps 0x260c72(%rip){1to8}, %ymm3, %ymm3 # 0x1f1ff10
vpmaxsd %ymm2, %ymm5, %ymm2
vpmaxsd %ymm1, %ymm6, %ymm1
vminps %ymm1, %ymm2, %ymm1
vpmaxsd %ymm0, %ymm4, %ymm0
vminps 0x80(%rsi,%r15,4){1to8}, %ymm0, %ymm0
vminps %ymm0, %ymm1, %ymm0
vmulps 0x260c4d(%rip){1to8}, %ymm0, %ymm0 # 0x1f1ff14
vpcmpgtd 0x29b64f(%rip), %ymm7, %k0 # 0x1f5a920
vmovaps %ymm3, 0x6c0(%rsp)
vcmpleps %ymm0, %ymm3, %k1
ktestb %k0, %k1
je 0x1cc1479
kandb %k0, %k1, %k0
kmovd %k0, %eax
movzbl %al, %r13d
leaq (%r15,%r15,2), %rax
shlq $0x4, %rax
movq 0xc8(%rsp), %rcx
addq %rcx, %rax
addq $0x10, %rax
movq %rax, 0x258(%rsp)
movl $0x1, %eax
shlxl %r15d, %eax, %eax
kmovd %eax, %k0
vpmovm2d %k0, %xmm0
vmovdqa %xmm0, 0x2f0(%rsp)
leaq 0x471032(%rip), %r12 # 0x213036c
vmovaps %ymm6, 0x80(%rsp)
vmovaps %ymm3, 0x60(%rsp)
vmovaps %ymm21, 0x1c0(%rsp)
vmovaps %ymm20, 0x1e0(%rsp)
tzcntq %r13, %rax
movl 0x2(%r8), %ecx
movl 0x6(%r8,%rax,4), %edi
movq (%r10), %rax
movq 0x1e8(%rax), %rax
movq %rcx, 0x38(%rsp)
movq (%rax,%rcx,8), %r14
movq 0x58(%r14), %rax
movq 0x68(%r14), %rcx
movq %rcx, %rdx
movq %rdi, 0x58(%rsp)
imulq %rdi, %rdx
movl (%rax,%rdx), %edi
movq 0xa0(%r14), %rdx
movq %rdx, %r9
imulq %rdi, %r9
movq 0x90(%r14), %r11
vmovaps (%r11,%r9), %xmm13
leaq 0x1(%rdi), %r9
imulq %rdx, %r9
vmovaps (%r11,%r9), %xmm0
vmovaps %xmm0, 0xe0(%rsp)
leaq 0x2(%rdi), %r9
imulq %rdx, %r9
vmovaps (%r11,%r9), %xmm0
vmovaps %xmm0, 0xd0(%rsp)
blsrq %r13, %r13
addq $0x3, %rdi
imulq %rdx, %rdi
vmovaps (%r11,%rdi), %xmm0
vmovaps %xmm0, 0x120(%rsp)
movq %r13, %rdi
subq $0x1, %rdi
jb 0x1cbf448
andq %r13, %rdi
tzcntq %r13, %r9
movl 0x6(%r8,%r9,4), %r9d
imulq %rcx, %r9
movl (%rax,%r9), %r9d
imulq %rdx, %r9
prefetcht0 (%r11,%r9)
prefetcht0 0x40(%r11,%r9)
testq %rdi, %rdi
je 0x1cbf448
tzcntq %rdi, %rdi
movl 0x6(%r8,%rdi,4), %edi
imulq %rdi, %rcx
movl (%rax,%rcx), %eax
imulq %rax, %rdx
prefetcht1 (%r11,%rdx)
prefetcht1 0x40(%r11,%rdx)
movl 0x248(%r14), %edi
vmovss (%rsi,%r15,4), %xmm0
vinsertps $0x1c, 0x10(%rsi,%r15,4), %xmm0, %xmm0 # xmm0 = xmm0[0],mem[0],zero,zero
vinsertps $0x28, 0x20(%rsi,%r15,4), %xmm0, %xmm0 # xmm0 = xmm0[0,1],mem[0],zero
vsubps %xmm0, %xmm13, %xmm1
vbroadcastss %xmm1, %xmm2
vshufps $0x55, %xmm1, %xmm1, %xmm3 # xmm3 = xmm1[1,1,1,1]
vshufps $0xaa, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,2,2,2]
movq 0x258(%rsp), %rax
vmovaps (%rax), %xmm4
vmovaps 0x10(%rax), %xmm5
vmovaps 0x20(%rax), %xmm6
vmulps %xmm1, %xmm6, %xmm8
vfmadd231ps %xmm3, %xmm5, %xmm8 # xmm8 = (xmm5 * xmm3) + xmm8
vfmadd231ps %xmm2, %xmm4, %xmm8 # xmm8 = (xmm4 * xmm2) + xmm8
vshufps $0xff, %xmm13, %xmm13, %xmm1 # xmm1 = xmm13[3,3,3,3]
vmovaps 0xe0(%rsp), %xmm3
vsubps %xmm0, %xmm3, %xmm2
vmovaps %xmm3, %xmm10
vbroadcastss %xmm2, %xmm3
vshufps $0x55, %xmm2, %xmm2, %xmm7 # xmm7 = xmm2[1,1,1,1]
vshufps $0xaa, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[2,2,2,2]
vmulps %xmm2, %xmm6, %xmm9
vfmadd231ps %xmm7, %xmm5, %xmm9 # xmm9 = (xmm5 * xmm7) + xmm9
vfmadd231ps %xmm3, %xmm4, %xmm9 # xmm9 = (xmm4 * xmm3) + xmm9
vshufps $0xff, %xmm10, %xmm10, %xmm2 # xmm2 = xmm10[3,3,3,3]
vmovaps 0xd0(%rsp), %xmm7
vsubps %xmm0, %xmm7, %xmm3
vmovaps %xmm7, %xmm12
vbroadcastss %xmm3, %xmm7
vshufps $0x55, %xmm3, %xmm3, %xmm11 # xmm11 = xmm3[1,1,1,1]
vshufps $0xaa, %xmm3, %xmm3, %xmm3 # xmm3 = xmm3[2,2,2,2]
vmulps %xmm3, %xmm6, %xmm10
vfmadd231ps %xmm11, %xmm5, %xmm10 # xmm10 = (xmm5 * xmm11) + xmm10
vfmadd231ps %xmm7, %xmm4, %xmm10 # xmm10 = (xmm4 * xmm7) + xmm10
vshufps $0xff, %xmm12, %xmm12, %xmm7 # xmm7 = xmm12[3,3,3,3]
vmovaps 0x120(%rsp), %xmm26
vsubps %xmm0, %xmm26, %xmm0
vbroadcastss %xmm0, %xmm3
vshufps $0x55, %xmm0, %xmm0, %xmm12 # xmm12 = xmm0[1,1,1,1]
vshufps $0xaa, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[2,2,2,2]
vmulps %xmm0, %xmm6, %xmm11
vfmadd231ps %xmm12, %xmm5, %xmm11 # xmm11 = (xmm5 * xmm12) + xmm11
vfmadd231ps %xmm3, %xmm4, %xmm11 # xmm11 = (xmm4 * xmm3) + xmm11
movslq %edi, %rax
movq %rax, %rcx
shlq $0x6, %rcx
leaq (%rcx,%rax,4), %rbx
vmovups (%r12,%rbx), %ymm25
vshufps $0xff, %xmm26, %xmm26, %xmm0 # xmm0 = xmm26[3,3,3,3]
vbroadcastss %xmm8, %ymm20
vbroadcastss 0x2531a4(%rip), %ymm4 # 0x1f12704
vpermps %ymm8, %ymm4, %ymm23
vbroadcastsd %xmm1, %ymm3
vmovups 0x484(%r12,%rbx), %ymm14
vbroadcastss %xmm9, %ymm1
vpermps %ymm9, %ymm4, %ymm27
vbroadcastsd %xmm2, %ymm12
vmovups 0x908(%r12,%rbx), %ymm15
vbroadcastss %xmm10, %ymm31
vpermps %ymm10, %ymm4, %ymm30
vbroadcastsd %xmm7, %ymm21
vmovups 0xd8c(%r12,%rbx), %ymm16
vbroadcastss %xmm11, %ymm28
vpermps %ymm11, %ymm4, %ymm29
vbroadcastsd %xmm0, %ymm22
vmulps %ymm16, %ymm28, %ymm5
vmulps %ymm16, %ymm29, %ymm4
vfmadd231ps %ymm31, %ymm15, %ymm5 # ymm5 = (ymm15 * ymm31) + ymm5
vfmadd231ps %ymm30, %ymm15, %ymm4 # ymm4 = (ymm15 * ymm30) + ymm4
vfmadd231ps %ymm1, %ymm14, %ymm5 # ymm5 = (ymm14 * ymm1) + ymm5
vfmadd231ps %ymm27, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm27) + ymm4
vfmadd231ps %ymm20, %ymm25, %ymm5 # ymm5 = (ymm25 * ymm20) + ymm5
leaq 0x47319e(%rip), %rdx # 0x213278c
vmovups (%rdx,%rbx), %ymm2
vmovups 0x484(%rdx,%rbx), %ymm17
vfmadd231ps %ymm23, %ymm25, %ymm4 # ymm4 = (ymm25 * ymm23) + ymm4
vmovups 0x908(%rdx,%rbx), %ymm18
vmovups 0xd8c(%rdx,%rbx), %ymm19
vmulps %ymm19, %ymm28, %ymm7
vmulps %ymm19, %ymm29, %ymm6
vfmadd231ps %ymm31, %ymm18, %ymm7 # ymm7 = (ymm18 * ymm31) + ymm7
vfmadd231ps %ymm30, %ymm18, %ymm6 # ymm6 = (ymm18 * ymm30) + ymm6
vmovaps %ymm1, 0x140(%rsp)
vfmadd231ps %ymm1, %ymm17, %ymm7 # ymm7 = (ymm17 * ymm1) + ymm7
vfmadd231ps %ymm27, %ymm17, %ymm6 # ymm6 = (ymm17 * ymm27) + ymm6
vmovaps %ymm20, 0x2a0(%rsp)
vfmadd231ps %ymm20, %ymm2, %ymm7 # ymm7 = (ymm2 * ymm20) + ymm7
vmovaps %ymm23, 0x280(%rsp)
vfmadd231ps %ymm23, %ymm2, %ymm6 # ymm6 = (ymm2 * ymm23) + ymm6
vsubps %ymm5, %ymm7, %ymm24
vsubps %ymm4, %ymm6, %ymm23
vmulps %ymm24, %ymm4, %ymm0
vmulps %ymm23, %ymm5, %ymm1
vsubps %ymm1, %ymm0, %ymm20
vmulps %ymm16, %ymm22, %ymm0
vfmadd231ps %ymm21, %ymm15, %ymm0 # ymm0 = (ymm15 * ymm21) + ymm0
vfmadd231ps %ymm12, %ymm14, %ymm0 # ymm0 = (ymm14 * ymm12) + ymm0
vfmadd231ps %ymm3, %ymm25, %ymm0 # ymm0 = (ymm25 * ymm3) + ymm0
vmovaps %ymm22, 0x600(%rsp)
vmulps %ymm19, %ymm22, %ymm1
vmovaps %ymm21, 0x620(%rsp)
vfmadd231ps %ymm21, %ymm18, %ymm1 # ymm1 = (ymm18 * ymm21) + ymm1
vmovaps %ymm12, 0x680(%rsp)
vfmadd231ps %ymm12, %ymm17, %ymm1 # ymm1 = (ymm17 * ymm12) + ymm1
vmovaps %ymm3, 0x6a0(%rsp)
vfmadd231ps %ymm3, %ymm2, %ymm1 # ymm1 = (ymm2 * ymm3) + ymm1
vmulps %ymm23, %ymm23, %ymm21
vfmadd231ps %ymm24, %ymm24, %ymm21 # ymm21 = (ymm24 * ymm24) + ymm21
vmaxps %ymm1, %ymm0, %ymm22
vmulps %ymm22, %ymm22, %ymm22
vmulps %ymm21, %ymm22, %ymm21
vmulps %ymm20, %ymm20, %ymm20
vcmpleps %ymm21, %ymm20, %k1
vmovaps %xmm13, 0x40(%rsp)
vblendps $0x8, %xmm13, %xmm8, %xmm12 # xmm12 = xmm8[0,1,2],xmm13[3]
vbroadcastss 0x2617b2(%rip), %xmm20 # 0x1f20ec4
vandps %xmm20, %xmm12, %xmm12
vblendps $0x8, 0xe0(%rsp), %xmm9, %xmm13 # xmm13 = xmm9[0,1,2],mem[3]
vandps %xmm20, %xmm13, %xmm13
vmaxps %xmm13, %xmm12, %xmm12
vblendps $0x8, 0xd0(%rsp), %xmm10, %xmm13 # xmm13 = xmm10[0,1,2],mem[3]
vandps %xmm20, %xmm13, %xmm13
vmovaps %xmm26, %xmm3
vblendps $0x8, %xmm3, %xmm11, %xmm3 # xmm3 = xmm11[0,1,2],xmm3[3]
vandps %xmm20, %xmm3, %xmm3
vmaxps %xmm3, %xmm13, %xmm3
vmaxps %xmm3, %xmm12, %xmm3
vmovshdup %xmm3, %xmm12 # xmm12 = xmm3[1,1,3,3]
vmaxss %xmm3, %xmm12, %xmm12
vshufpd $0x1, %xmm3, %xmm3, %xmm3 # xmm3 = xmm3[1,0]
vmaxss %xmm12, %xmm3, %xmm3
vcvtsi2ss %edi, %xmm8, %xmm12
vmovaps %xmm12, 0x320(%rsp)
vbroadcastss %xmm12, %ymm12
vcmpgtps 0x2617b8(%rip), %ymm12, %k1 {%k1} # 0x1f20f40
vmulss 0x231852(%rip), %xmm3, %xmm26 # 0x1ef0fe4
vbroadcastss 0x261741(%rip), %ymm3 # 0x1f20edc
vpermps %ymm8, %ymm3, %ymm20
vpermps %ymm9, %ymm3, %ymm21
vpermps %ymm10, %ymm3, %ymm22
vpermps %ymm11, %ymm3, %ymm3
kortestb %k1, %k1
vmovss 0x30(%rsi,%r15,4), %xmm10
vmovaps %ymm27, 0x560(%rsp)
vmovaps %ymm31, 0x660(%rsp)
vmovaps %ymm30, 0x640(%rsp)
vmovaps %ymm20, 0x5e0(%rsp)
vmovaps %ymm21, 0x5c0(%rsp)
vmovaps %ymm22, 0x5a0(%rsp)
vmovaps %ymm3, 0x580(%rsp)
je 0x1cbffb5
vmovaps %xmm10, 0x260(%rsp)
vmovaps %xmm26, 0x2c0(%rsp)
vmovaps %ymm3, %ymm26
vmulps %ymm19, %ymm3, %ymm3
vfmadd213ps %ymm3, %ymm22, %ymm18 # ymm18 = (ymm22 * ymm18) + ymm3
vfmadd213ps %ymm18, %ymm21, %ymm17 # ymm17 = (ymm21 * ymm17) + ymm18
vfmadd213ps %ymm17, %ymm20, %ymm2 # ymm2 = (ymm20 * ymm2) + ymm17
vmulps %ymm16, %ymm26, %ymm3
vfmadd213ps %ymm3, %ymm22, %ymm15 # ymm15 = (ymm22 * ymm15) + ymm3
vfmadd213ps %ymm15, %ymm21, %ymm14 # ymm14 = (ymm21 * ymm14) + ymm15
vmovups 0x1210(%r12,%rbx), %ymm3
vmovups 0x1694(%r12,%rbx), %ymm10
vmovups 0x1b18(%r12,%rbx), %ymm11
vmovups 0x1f9c(%r12,%rbx), %ymm12
vfmadd213ps %ymm14, %ymm20, %ymm25 # ymm25 = (ymm20 * ymm25) + ymm14
vmulps %ymm12, %ymm28, %ymm9
vmulps %ymm12, %ymm29, %ymm8
vmulps %ymm12, %ymm26, %ymm12
vfmadd231ps %ymm31, %ymm11, %ymm9 # ymm9 = (ymm11 * ymm31) + ymm9
vfmadd231ps %ymm30, %ymm11, %ymm8 # ymm8 = (ymm11 * ymm30) + ymm8
vfmadd231ps %ymm11, %ymm22, %ymm12 # ymm12 = (ymm22 * ymm11) + ymm12
vmovaps 0x140(%rsp), %ymm19
vfmadd231ps %ymm19, %ymm10, %ymm9 # ymm9 = (ymm10 * ymm19) + ymm9
vfmadd231ps %ymm27, %ymm10, %ymm8 # ymm8 = (ymm10 * ymm27) + ymm8
vfmadd231ps %ymm10, %ymm21, %ymm12 # ymm12 = (ymm21 * ymm10) + ymm12
vmovaps 0x2a0(%rsp), %ymm17
vfmadd231ps %ymm17, %ymm3, %ymm9 # ymm9 = (ymm3 * ymm17) + ymm9
vmovaps 0x280(%rsp), %ymm18
vfmadd231ps %ymm18, %ymm3, %ymm8 # ymm8 = (ymm3 * ymm18) + ymm8
vmovups 0x1210(%rdx,%rbx), %ymm10
vmovups 0x1b18(%rdx,%rbx), %ymm11
vmovups 0x1f9c(%rdx,%rbx), %ymm13
vfmadd231ps %ymm3, %ymm20, %ymm12 # ymm12 = (ymm20 * ymm3) + ymm12
vmovaps %ymm28, 0x1a0(%rsp)
vmulps %ymm13, %ymm28, %ymm3
vmovaps %ymm29, 0x180(%rsp)
vmulps %ymm13, %ymm29, %ymm14
vmulps %ymm13, %ymm26, %ymm13
vmovaps 0x2c0(%rsp), %xmm26
vfmadd231ps %ymm31, %ymm11, %ymm3 # ymm3 = (ymm11 * ymm31) + ymm3
vfmadd231ps %ymm30, %ymm11, %ymm14 # ymm14 = (ymm11 * ymm30) + ymm14
vfmadd231ps %ymm11, %ymm22, %ymm13 # ymm13 = (ymm22 * ymm11) + ymm13
vmovups 0x1694(%rdx,%rbx), %ymm11
vfmadd231ps %ymm19, %ymm11, %ymm3 # ymm3 = (ymm11 * ymm19) + ymm3
vfmadd231ps %ymm27, %ymm11, %ymm14 # ymm14 = (ymm11 * ymm27) + ymm14
vfmadd231ps %ymm11, %ymm21, %ymm13 # ymm13 = (ymm21 * ymm11) + ymm13
vfmadd231ps %ymm17, %ymm10, %ymm3 # ymm3 = (ymm10 * ymm17) + ymm3
vfmadd231ps %ymm18, %ymm10, %ymm14 # ymm14 = (ymm10 * ymm18) + ymm14
vfmadd231ps %ymm10, %ymm20, %ymm13 # ymm13 = (ymm20 * ymm10) + ymm13
vbroadcastss 0x26156c(%rip), %ymm15 # 0x1f20ec4
vandps %ymm15, %ymm9, %ymm10
vandps %ymm15, %ymm8, %ymm11
vmaxps %ymm11, %ymm10, %ymm10
vandps %ymm15, %ymm12, %ymm11
vmaxps %ymm11, %ymm10, %ymm10
vbroadcastss %xmm26, %ymm11
vcmpltps %ymm11, %ymm10, %k2
vmovaps %ymm24, %ymm9 {%k2}
vmovaps %ymm23, %ymm8 {%k2}
vandps %ymm3, %ymm15, %ymm10
vandps %ymm15, %ymm14, %ymm12
vmaxps %ymm12, %ymm10, %ymm10
vandps %ymm15, %ymm13, %ymm12
vmaxps %ymm12, %ymm10, %ymm10
vcmpltps %ymm11, %ymm10, %k2
vmovaps %ymm24, %ymm3 {%k2}
vmovaps %ymm23, %ymm14 {%k2}
vbroadcastss 0x261502(%rip), %ymm11 # 0x1f20ec0
vxorps %ymm11, %ymm9, %ymm10
vxorps %ymm3, %ymm11, %ymm12
vxorps %xmm27, %xmm27, %xmm27
vfmadd213ps %ymm27, %ymm9, %ymm9 # ymm9 = (ymm9 * ymm9) + ymm27
vfmadd231ps %ymm8, %ymm8, %ymm9 # ymm9 = (ymm8 * ymm8) + ymm9
vrsqrt14ps %ymm9, %ymm11
vbroadcastss 0x22cd35(%rip), %ymm15 # 0x1eec71c
vmulps %ymm15, %ymm9, %ymm9
vmulps %ymm9, %ymm11, %ymm9
vmulps %ymm11, %ymm11, %ymm13
vmulps %ymm9, %ymm13, %ymm9
vbroadcastss 0x22cd13(%rip), %ymm16 # 0x1eec718
vfmadd231ps %ymm11, %ymm16, %ymm9 # ymm9 = (ymm16 * ymm11) + ymm9
vmulps %ymm9, %ymm8, %ymm11
vmulps %ymm10, %ymm9, %ymm10
vmulps %ymm27, %ymm9, %ymm13
vfmadd213ps %ymm27, %ymm3, %ymm3 # ymm3 = (ymm3 * ymm3) + ymm27
vfmadd231ps %ymm14, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm14) + ymm3
vrsqrt14ps %ymm3, %ymm8
vmulps %ymm3, %ymm15, %ymm3
vmulps %ymm3, %ymm8, %ymm3
vmulps %ymm8, %ymm8, %ymm9
vmulps %ymm3, %ymm9, %ymm3
vfmadd231ps %ymm8, %ymm16, %ymm3 # ymm3 = (ymm16 * ymm8) + ymm3
vmulps %ymm3, %ymm14, %ymm8
vmulps %ymm3, %ymm12, %ymm9
vmulps %ymm27, %ymm3, %ymm3
vmovaps %ymm11, %ymm12
vfmadd213ps %ymm5, %ymm0, %ymm12 # ymm12 = (ymm0 * ymm12) + ymm5
vmovaps %ymm10, %ymm14
vfmadd213ps %ymm4, %ymm0, %ymm14 # ymm14 = (ymm0 * ymm14) + ymm4
vmovaps %ymm13, %ymm15
vfmadd213ps %ymm25, %ymm0, %ymm15 # ymm15 = (ymm0 * ymm15) + ymm25
vmovaps %ymm8, %ymm16
vfmadd213ps %ymm7, %ymm1, %ymm16 # ymm16 = (ymm1 * ymm16) + ymm7
vfnmadd213ps %ymm5, %ymm0, %ymm11 # ymm11 = -(ymm0 * ymm11) + ymm5
vmovaps %ymm9, %ymm5
vfmadd213ps %ymm6, %ymm1, %ymm5 # ymm5 = (ymm1 * ymm5) + ymm6
vfnmadd213ps %ymm4, %ymm0, %ymm10 # ymm10 = -(ymm0 * ymm10) + ymm4
vmovaps %ymm3, %ymm4
vfmadd213ps %ymm2, %ymm1, %ymm4 # ymm4 = (ymm1 * ymm4) + ymm2
vfnmadd231ps %ymm13, %ymm0, %ymm25 # ymm25 = -(ymm0 * ymm13) + ymm25
vfnmadd213ps %ymm7, %ymm1, %ymm8 # ymm8 = -(ymm1 * ymm8) + ymm7
vfnmadd213ps %ymm6, %ymm1, %ymm9 # ymm9 = -(ymm1 * ymm9) + ymm6
vfnmadd231ps %ymm3, %ymm1, %ymm2 # ymm2 = -(ymm1 * ymm3) + ymm2
vsubps %ymm11, %ymm16, %ymm3
vsubps %ymm10, %ymm5, %ymm6
vsubps %ymm25, %ymm4, %ymm7
vmulps %ymm25, %ymm6, %ymm13
vfmsub231ps %ymm7, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm7) - ymm13
vmulps %ymm7, %ymm11, %ymm7
vfmsub231ps %ymm3, %ymm25, %ymm7 # ymm7 = (ymm25 * ymm3) - ymm7
vmulps %ymm3, %ymm10, %ymm3
vfmsub231ps %ymm6, %ymm11, %ymm3 # ymm3 = (ymm11 * ymm6) - ymm3
vfmadd231ps %ymm7, %ymm27, %ymm3 # ymm3 = (ymm27 * ymm7) + ymm3
vfmadd231ps %ymm13, %ymm27, %ymm3 # ymm3 = (ymm27 * ymm13) + ymm3
vcmpleps %ymm27, %ymm3, %k2
vmovaps %ymm12, %ymm8 {%k2}
vmovaps %ymm14, %ymm9 {%k2}
vmovaps %ymm15, %ymm2 {%k2}
vblendmps %ymm16, %ymm11, %ymm13 {%k2}
vblendmps %ymm5, %ymm10, %ymm14 {%k2}
vblendmps %ymm4, %ymm25, %ymm15 {%k2}
vmovaps %ymm11, %ymm16 {%k2}
vmovaps %ymm10, %ymm5 {%k2}
vmovaps %ymm25, %ymm4 {%k2}
vsubps %ymm8, %ymm16, %ymm6
vsubps %ymm9, %ymm5, %ymm5
vsubps %ymm2, %ymm4, %ymm11
vsubps %ymm13, %ymm8, %ymm7
vsubps %ymm14, %ymm9, %ymm10
vsubps %ymm15, %ymm2, %ymm12
vmulps %ymm8, %ymm11, %ymm4
vfmsub231ps %ymm6, %ymm2, %ymm4 # ymm4 = (ymm2 * ymm6) - ymm4
vmulps %ymm6, %ymm9, %ymm3
vfmsub231ps %ymm5, %ymm8, %ymm3 # ymm3 = (ymm8 * ymm5) - ymm3
vfmadd231ps %ymm4, %ymm27, %ymm3 # ymm3 = (ymm27 * ymm4) + ymm3
vmulps %ymm2, %ymm5, %ymm4
vfmsub231ps %ymm11, %ymm9, %ymm4 # ymm4 = (ymm9 * ymm11) - ymm4
vfmadd231ps %ymm4, %ymm27, %ymm3 # ymm3 = (ymm27 * ymm4) + ymm3
vmulps %ymm13, %ymm12, %ymm16
vfmsub231ps %ymm15, %ymm7, %ymm16 # ymm16 = (ymm7 * ymm15) - ymm16
vmulps %ymm15, %ymm10, %ymm15
vfmsub231ps %ymm12, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm12) - ymm15
vmulps %ymm7, %ymm14, %ymm4
vfmsub231ps %ymm13, %ymm10, %ymm4 # ymm4 = (ymm10 * ymm13) - ymm4
vfmadd231ps %ymm16, %ymm27, %ymm4 # ymm4 = (ymm27 * ymm16) + ymm4
vfmadd231ps %ymm15, %ymm27, %ymm4 # ymm4 = (ymm27 * ymm15) + ymm4
vmaxps %ymm4, %ymm3, %ymm13
vcmpleps %ymm27, %ymm13, %k0 {%k1}
kortestb %k0, %k0
vmovaps 0x1e0(%rsp), %ymm20
vmovaps 0x1c0(%rsp), %ymm21
vmovaps %ymm17, %ymm22
vmovaps %ymm19, %ymm17
je 0x1cc0f10
vmulps %ymm5, %ymm12, %ymm13
vfmsub231ps %ymm11, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm11) - ymm13
vmulps %ymm7, %ymm11, %ymm11
vfmsub231ps %ymm12, %ymm6, %ymm11 # ymm11 = (ymm6 * ymm12) - ymm11
vmulps %ymm6, %ymm10, %ymm10
vfmsub231ps %ymm5, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm5) - ymm10
vxorps %xmm6, %xmm6, %xmm6
vfmadd213ps %ymm10, %ymm11, %ymm6 # ymm6 = (ymm11 * ymm6) + ymm10
vfmadd231ps %ymm27, %ymm13, %ymm6 # ymm6 = (ymm13 * ymm27) + ymm6
vrcp14ps %ymm6, %ymm7
vmovaps %ymm7, %ymm5
vfnmadd213ps 0x22cb0f(%rip){1to8}, %ymm6, %ymm5 # ymm5 = -(ymm6 * ymm5) + mem
vfmadd132ps %ymm7, %ymm7, %ymm5 # ymm5 = (ymm5 * ymm7) + ymm7
vmulps %ymm2, %ymm10, %ymm2
vfmadd231ps %ymm11, %ymm9, %ymm2 # ymm2 = (ymm9 * ymm11) + ymm2
vfmadd231ps %ymm13, %ymm8, %ymm2 # ymm2 = (ymm8 * ymm13) + ymm2
vmulps %ymm5, %ymm2, %ymm2
vmovaps 0x260(%rsp), %xmm10
vbroadcastss %xmm10, %ymm7
vcmpleps %ymm2, %ymm7, %k1
vcmpleps 0x80(%rsi,%r15,4){1to8}, %ymm2, %k1 {%k1}
kandb %k0, %k1, %k0
kortestb %k0, %k0
vmovaps 0x1a0(%rsp), %ymm28
vmovaps 0x180(%rsp), %ymm29
je 0x1cc0f46
vcmpneqps %ymm27, %ymm6, %k1
ktestb %k1, %k0
vmovaps 0x40(%rsp), %xmm9
je 0x1cc0f63
kandb %k1, %k0, %k0
kmovd %k0, %eax
vmulps %ymm5, %ymm3, %ymm3
vmulps %ymm5, %ymm4, %ymm4
vbroadcastss 0x22ca8c(%rip), %ymm5 # 0x1eec714
vsubps %ymm3, %ymm5, %ymm6
vmovaps %ymm3, %ymm6 {%k2}
vsubps %ymm4, %ymm5, %ymm3
vmovaps %ymm4, %ymm3 {%k2}
vmovaps %ymm3, 0x520(%rsp)
movzbl %al, %r12d
vmovaps %ymm2, %ymm3
testw %r12w, %r12w
je 0x1cbffac
vsubps %ymm0, %ymm1, %ymm1
vfmadd213ps %ymm0, %ymm6, %ymm1 # ymm1 = (ymm6 * ymm1) + ymm0
vaddps %ymm1, %ymm1, %ymm0
movq 0xc8(%rsp), %rax
vmulps (%rax,%r15,4){1to8}, %ymm0, %ymm0
vcmpnleps %ymm0, %ymm3, %k0
kmovd %k0, %eax
andb %al, %r12b
je 0x1cbffac
vbroadcastss 0x230cdc(%rip), %ymm0 # 0x1ef09cc
vmovaps 0x520(%rsp), %ymm1
vfmadd132ps 0x2312f5(%rip){1to8}, %ymm0, %ymm1 # ymm1 = (ymm1 * mem) + ymm0
vmovaps %ymm6, 0x340(%rsp)
vmovaps %ymm1, 0x520(%rsp)
vmovaps %ymm1, 0x360(%rsp)
vmovaps %ymm3, 0x380(%rsp)
movl $0x0, 0x3a0(%rsp)
movl %edi, 0x3a4(%rsp)
vmovaps %xmm9, 0x3b0(%rsp)
vmovaps 0xe0(%rsp), %xmm0
vmovaps %xmm0, 0x3c0(%rsp)
vmovaps 0xd0(%rsp), %xmm0
vmovaps %xmm0, 0x3d0(%rsp)
vmovdqa 0x120(%rsp), %xmm0
vmovdqa %xmm0, 0x3e0(%rsp)
movb %r12b, 0x3f0(%rsp)
movl 0x90(%rsi,%r15,4), %eax
testl %eax, 0x34(%r14)
je 0x1cbffac
vaddps 0x2611a6(%rip), %ymm6, %ymm0 # 0x1f20f40
vmovss 0x22c972(%rip), %xmm1 # 0x1eec714
vdivss 0x320(%rsp), %xmm1, %xmm1
vbroadcastss %xmm1, %ymm1
vmulps %ymm0, %ymm1, %ymm0
vmovaps %ymm0, 0x400(%rsp)
vmovaps 0x520(%rsp), %ymm0
vmovaps %ymm0, 0x420(%rsp)
vmovaps %ymm3, 0x440(%rsp)
kmovd %r12d, %k1
vbroadcastss 0x22bc3a(%rip), %ymm0 # 0x1eeba20
vblendmps %ymm3, %ymm0, %ymm0 {%k1}
vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm0, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1]
vminps %ymm2, %ymm1, %ymm1
vcmpeqps %ymm1, %ymm0, %k0
kmovd %k0, %eax
andb %r12b, %al
movzbl %al, %eax
movzbl %r12b, %ecx
cmovnel %eax, %ecx
tzcntl %ecx, %r9d
movq 0x10(%r10), %rax
cmpq $0x0, 0x10(%rax)
vmovaps %ymm6, 0x80(%rsp)
vmovaps %ymm3, 0x60(%rsp)
jne 0x1cc0f7a
cmpq $0x0, 0x40(%r14)
jne 0x1cc0f7a
vmovss 0x400(%rsp,%r9,4), %xmm0
vmovss 0x420(%rsp,%r9,4), %xmm1
vmovss 0x22c8aa(%rip), %xmm2 # 0x1eec714
vsubss %xmm0, %xmm2, %xmm2
vaddss %xmm2, %xmm2, %xmm3
vmulss %xmm3, %xmm0, %xmm4
vfnmadd231ss %xmm2, %xmm2, %xmm4 # xmm4 = -(xmm2 * xmm2) + xmm4
vaddss %xmm0, %xmm0, %xmm5
vmovss 0x231165(%rip), %xmm8 # 0x1ef0fec
vmovaps %xmm8, %xmm6
vfmadd213ss 0x231170(%rip), %xmm0, %xmm6 # xmm6 = (xmm0 * xmm6) + mem
vmulss %xmm0, %xmm8, %xmm7
vmulss %xmm7, %xmm0, %xmm7
vfmadd231ss %xmm6, %xmm5, %xmm7 # xmm7 = (xmm5 * xmm6) + xmm7
vmovaps %xmm8, %xmm5
vfmadd213ss 0x23114a(%rip), %xmm0, %xmm5 # xmm5 = (xmm0 * xmm5) + mem
vmulss 0x23113a(%rip), %xmm2, %xmm6 # 0x1ef0ff0
vmulss %xmm6, %xmm2, %xmm6
vfmadd231ss %xmm5, %xmm3, %xmm6 # xmm6 = (xmm3 * xmm5) + xmm6
vmulss 0x230b15(%rip), %xmm2, %xmm2 # 0x1ef09dc
vmulss %xmm0, %xmm0, %xmm3
vfmadd231ss %xmm2, %xmm0, %xmm3 # xmm3 = (xmm0 * xmm2) + xmm3
vmovss 0x22cca8(%rip), %xmm8 # 0x1eecb80
vmulss %xmm4, %xmm8, %xmm2
vmulss %xmm7, %xmm8, %xmm4
vmulss %xmm6, %xmm8, %xmm5
vmulss %xmm3, %xmm8, %xmm3
vbroadcastss %xmm3, %xmm3
vmulps 0x120(%rsp), %xmm3, %xmm3
vbroadcastss %xmm5, %xmm5
vfmadd132ps 0xd0(%rsp), %xmm3, %xmm5 # xmm5 = (xmm5 * mem) + xmm3
vbroadcastss %xmm4, %xmm3
vfmadd132ps 0xe0(%rsp), %xmm5, %xmm3 # xmm3 = (xmm3 * mem) + xmm5
vmovaps 0x80(%rsp), %ymm6
vbroadcastss %xmm2, %xmm2
vfmadd213ps %xmm3, %xmm9, %xmm2 # xmm2 = (xmm9 * xmm2) + xmm3
vmovss 0x440(%rsp,%r9,4), %xmm3
vmovss %xmm3, 0x80(%rsi,%r15,4)
vmovaps 0x60(%rsp), %ymm3
vmovss %xmm2, 0xc0(%rsi,%r15,4)
vextractps $0x1, %xmm2, 0xd0(%rsi,%r15,4)
vextractps $0x2, %xmm2, 0xe0(%rsi,%r15,4)
vmovss %xmm0, 0xf0(%rsi,%r15,4)
vmovss %xmm1, 0x100(%rsi,%r15,4)
movq 0x58(%rsp), %rax
movl %eax, 0x110(%rsi,%r15,4)
movq 0x38(%rsp), %rax
movl %eax, 0x120(%rsi,%r15,4)
movq 0x8(%r10), %rax
movl (%rax), %eax
movl %eax, 0x130(%rsi,%r15,4)
movq 0x8(%r10), %rax
movl 0x4(%rax), %eax
movl %eax, 0x140(%rsi,%r15,4)
leaq 0x4703b9(%rip), %r12 # 0x213036c
jmp 0x1cbfff2
vxorps %xmm27, %xmm27, %xmm27
vmovaps 0x80(%rsp), %ymm6
vmovaps 0x1e0(%rsp), %ymm20
vmovaps 0x60(%rsp), %ymm3
vmovaps 0x1c0(%rsp), %ymm21
vmovaps 0x2a0(%rsp), %ymm22
vmovaps 0x280(%rsp), %ymm18
vmovaps 0x140(%rsp), %ymm17
cmpl $0x9, %edi
jge 0x1cc001b
vmovaps 0x6c0(%rsp), %ymm0
vcmpleps 0x80(%rsi,%r15,4){1to8}, %ymm0, %k0
kmovb %k0, %eax
andl %eax, %r13d
jne 0x1cbf33a
jmp 0x1cc1479
vpbroadcastd %edi, %ymm0
vmovdqa %ymm0, 0x2c0(%rsp)
vbroadcastss %xmm26, %ymm0
vmovaps %ymm0, 0x260(%rsp)
vbroadcastss %xmm10, %ymm0
vmovaps %ymm0, 0x300(%rsp)
vmovss 0x22c6c5(%rip), %xmm0 # 0x1eec714
vdivss 0x320(%rsp), %xmm0, %xmm0
vbroadcastss %xmm0, %ymm0
vmovaps %ymm0, 0x320(%rsp)
movq 0x38(%rsp), %rax
vpbroadcastd %eax, %xmm0
vmovdqa %xmm0, 0x240(%rsp)
movq 0x58(%rsp), %rax
vpbroadcastd %eax, %xmm0
vmovdqa %xmm0, 0x230(%rsp)
movl $0x8, %r14d
vmovaps %ymm6, 0x80(%rsp)
vmovaps %ymm3, 0x60(%rsp)
vpbroadcastd %r14d, %ymm0
vpor 0x29a86f(%rip), %ymm0, %ymm0 # 0x1f5a920
vpcmpltd 0x2c0(%rsp), %ymm0, %k1
leaq (%rbx,%r12), %rcx
vmovups (%rcx,%r14,4), %ymm3
vmovups 0x484(%rcx,%r14,4), %ymm10
vmovups 0x908(%rcx,%r14,4), %ymm11
vmovups 0xd8c(%rcx,%r14,4), %ymm12
vmulps %ymm12, %ymm28, %ymm5
vmulps %ymm12, %ymm29, %ymm4
vmovaps 0x600(%rsp), %ymm1
vmulps %ymm1, %ymm12, %ymm0
vmovaps 0x660(%rsp), %ymm19
vfmadd231ps %ymm19, %ymm11, %ymm5 # ymm5 = (ymm11 * ymm19) + ymm5
vmovaps 0x640(%rsp), %ymm26
vfmadd231ps %ymm26, %ymm11, %ymm4 # ymm4 = (ymm11 * ymm26) + ymm4
vmovaps 0x620(%rsp), %ymm16
vfmadd231ps %ymm16, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm16) + ymm0
vfmadd231ps %ymm17, %ymm10, %ymm5 # ymm5 = (ymm10 * ymm17) + ymm5
vmovaps 0x560(%rsp), %ymm25
vfmadd231ps %ymm25, %ymm10, %ymm4 # ymm4 = (ymm10 * ymm25) + ymm4
vmovaps 0x680(%rsp), %ymm9
vfmadd231ps %ymm9, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm9) + ymm0
vfmadd231ps %ymm22, %ymm3, %ymm5 # ymm5 = (ymm3 * ymm22) + ymm5
vfmadd231ps %ymm18, %ymm3, %ymm4 # ymm4 = (ymm3 * ymm18) + ymm4
leaq (%rbx,%rdx), %rax
vmovups (%rax,%r14,4), %ymm2
vmovups 0x484(%rax,%r14,4), %ymm13
vmovaps 0x6a0(%rsp), %ymm8
vfmadd231ps %ymm8, %ymm3, %ymm0 # ymm0 = (ymm3 * ymm8) + ymm0
vmovups 0x908(%rax,%r14,4), %ymm14
vmovups 0xd8c(%rax,%r14,4), %ymm15
vmulps %ymm15, %ymm28, %ymm7
vmulps %ymm15, %ymm29, %ymm6
vmulps %ymm1, %ymm15, %ymm1
vfmadd231ps %ymm19, %ymm14, %ymm7 # ymm7 = (ymm14 * ymm19) + ymm7
vfmadd231ps %ymm26, %ymm14, %ymm6 # ymm6 = (ymm14 * ymm26) + ymm6
vfmadd231ps %ymm16, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm16) + ymm1
vfmadd231ps %ymm17, %ymm13, %ymm7 # ymm7 = (ymm13 * ymm17) + ymm7
vfmadd231ps %ymm25, %ymm13, %ymm6 # ymm6 = (ymm13 * ymm25) + ymm6
vfmadd231ps %ymm9, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm9) + ymm1
vfmadd231ps %ymm22, %ymm2, %ymm7 # ymm7 = (ymm2 * ymm22) + ymm7
vfmadd231ps %ymm18, %ymm2, %ymm6 # ymm6 = (ymm2 * ymm18) + ymm6
vfmadd231ps %ymm8, %ymm2, %ymm1 # ymm1 = (ymm2 * ymm8) + ymm1
vmaxps %ymm1, %ymm0, %ymm16
vsubps %ymm5, %ymm7, %ymm9
vsubps %ymm4, %ymm6, %ymm8
vmovaps %ymm17, %ymm24
vmulps %ymm9, %ymm4, %ymm17
vmovaps %ymm18, %ymm23
vmulps %ymm8, %ymm5, %ymm18
vsubps %ymm18, %ymm17, %ymm17
vmulps %ymm8, %ymm8, %ymm18
vfmadd231ps %ymm9, %ymm9, %ymm18 # ymm18 = (ymm9 * ymm9) + ymm18
vmulps %ymm16, %ymm16, %ymm16
vmulps %ymm18, %ymm16, %ymm16
vmulps %ymm17, %ymm17, %ymm17
vcmpleps %ymm16, %ymm17, %k1 {%k1}
kortestb %k1, %k1
je 0x1cc09cd
vmovaps %ymm23, %ymm16
vmovaps 0x580(%rsp), %ymm23
vmulps %ymm15, %ymm23, %ymm15
vmovaps 0x5a0(%rsp), %ymm31
vfmadd213ps %ymm15, %ymm31, %ymm14 # ymm14 = (ymm31 * ymm14) + ymm15
vmovaps 0x5c0(%rsp), %ymm30
vfmadd213ps %ymm14, %ymm30, %ymm13 # ymm13 = (ymm30 * ymm13) + ymm14
vmovaps 0x5e0(%rsp), %ymm18
vfmadd213ps %ymm13, %ymm18, %ymm2 # ymm2 = (ymm18 * ymm2) + ymm13
vmulps %ymm12, %ymm23, %ymm12
vfmadd213ps %ymm12, %ymm31, %ymm11 # ymm11 = (ymm31 * ymm11) + ymm12
vfmadd213ps %ymm11, %ymm30, %ymm10 # ymm10 = (ymm30 * ymm10) + ymm11
vfmadd213ps %ymm10, %ymm18, %ymm3 # ymm3 = (ymm18 * ymm3) + ymm10
vmovups 0x1210(%rcx,%r14,4), %ymm12
vmovups 0x1694(%rcx,%r14,4), %ymm13
vmovups 0x1b18(%rcx,%r14,4), %ymm14
vmovups 0x1f9c(%rcx,%r14,4), %ymm15
vmulps %ymm15, %ymm28, %ymm11
vmulps %ymm15, %ymm29, %ymm10
vmulps %ymm15, %ymm23, %ymm15
vfmadd231ps %ymm19, %ymm14, %ymm11 # ymm11 = (ymm14 * ymm19) + ymm11
vfmadd231ps %ymm26, %ymm14, %ymm10 # ymm10 = (ymm14 * ymm26) + ymm10
vfmadd231ps %ymm14, %ymm31, %ymm15 # ymm15 = (ymm31 * ymm14) + ymm15
vfmadd231ps %ymm24, %ymm13, %ymm11 # ymm11 = (ymm13 * ymm24) + ymm11
vfmadd231ps %ymm25, %ymm13, %ymm10 # ymm10 = (ymm13 * ymm25) + ymm10
vfmadd231ps %ymm13, %ymm30, %ymm15 # ymm15 = (ymm30 * ymm13) + ymm15
vfmadd231ps %ymm22, %ymm12, %ymm11 # ymm11 = (ymm12 * ymm22) + ymm11
vfmadd231ps %ymm16, %ymm12, %ymm10 # ymm10 = (ymm12 * ymm16) + ymm10
vmovaps %ymm26, %ymm25
vmovaps %ymm19, %ymm26
vmovaps %ymm16, %ymm19
vfmadd231ps %ymm12, %ymm18, %ymm15 # ymm15 = (ymm18 * ymm12) + ymm15
vmovups 0x1210(%rax,%r14,4), %ymm13
vmovups 0x1b18(%rax,%r14,4), %ymm14
vmovups 0x1f9c(%rax,%r14,4), %ymm16
vmulps %ymm16, %ymm28, %ymm17
vmulps %ymm16, %ymm29, %ymm12
vmulps %ymm16, %ymm23, %ymm16
vfmadd231ps %ymm26, %ymm14, %ymm17 # ymm17 = (ymm14 * ymm26) + ymm17
vfmadd231ps %ymm25, %ymm14, %ymm12 # ymm12 = (ymm14 * ymm25) + ymm12
vfmadd231ps %ymm14, %ymm31, %ymm16 # ymm16 = (ymm31 * ymm14) + ymm16
vmovups 0x1694(%rax,%r14,4), %ymm14
vfmadd231ps %ymm24, %ymm14, %ymm17 # ymm17 = (ymm14 * ymm24) + ymm17
vfmadd231ps 0x560(%rsp), %ymm14, %ymm12 # ymm12 = (ymm14 * mem) + ymm12
vfmadd231ps %ymm14, %ymm30, %ymm16 # ymm16 = (ymm30 * ymm14) + ymm16
vfmadd231ps %ymm22, %ymm13, %ymm17 # ymm17 = (ymm13 * ymm22) + ymm17
vfmadd231ps %ymm19, %ymm13, %ymm12 # ymm12 = (ymm13 * ymm19) + ymm12
vfmadd231ps %ymm13, %ymm18, %ymm16 # ymm16 = (ymm18 * ymm13) + ymm16
vbroadcastss 0x260b45(%rip), %ymm18 # 0x1f20ec4
vandps %ymm18, %ymm11, %ymm13
vandps %ymm18, %ymm10, %ymm14
vmaxps %ymm14, %ymm13, %ymm13
vandps %ymm18, %ymm15, %ymm14
vmaxps %ymm14, %ymm13, %ymm13
vmovaps 0x260(%rsp), %ymm15
vcmpltps %ymm15, %ymm13, %k2
vmovaps %ymm9, %ymm11 {%k2}
vmovaps %ymm8, %ymm10 {%k2}
vandps %ymm18, %ymm17, %ymm13
vandps %ymm18, %ymm12, %ymm14
vmaxps %ymm14, %ymm13, %ymm13
vandps %ymm18, %ymm16, %ymm14
vmaxps %ymm14, %ymm13, %ymm13
vcmpltps %ymm15, %ymm13, %k2
vmovaps %ymm9, %ymm17 {%k2}
vmovaps %ymm8, %ymm12 {%k2}
vbroadcastss 0x260ad1(%rip), %ymm9 # 0x1f20ec0
vxorps %ymm9, %ymm11, %ymm8
vxorps %ymm9, %ymm17, %ymm9
vfmadd213ps %ymm27, %ymm11, %ymm11 # ymm11 = (ymm11 * ymm11) + ymm27
vfmadd231ps %ymm10, %ymm10, %ymm11 # ymm11 = (ymm10 * ymm10) + ymm11
vrsqrt14ps %ymm11, %ymm13
vbroadcastss 0x22c308(%rip), %ymm15 # 0x1eec71c
vmulps %ymm15, %ymm11, %ymm11
vmulps %ymm11, %ymm13, %ymm11
vmulps %ymm13, %ymm13, %ymm14
vmulps %ymm11, %ymm14, %ymm14
vbroadcastss 0x22c2e6(%rip), %ymm16 # 0x1eec718
vfmadd231ps %ymm13, %ymm16, %ymm14 # ymm14 = (ymm16 * ymm13) + ymm14
vmulps %ymm14, %ymm10, %ymm11
vmulps %ymm8, %ymm14, %ymm10
vmulps %ymm27, %ymm14, %ymm13
vfmadd213ps %ymm27, %ymm17, %ymm17 # ymm17 = (ymm17 * ymm17) + ymm27
vfmadd231ps %ymm12, %ymm12, %ymm17 # ymm17 = (ymm12 * ymm12) + ymm17
vrsqrt14ps %ymm17, %ymm8
vmulps %ymm15, %ymm17, %ymm14
vmulps %ymm14, %ymm8, %ymm14
vmulps %ymm8, %ymm8, %ymm15
vmulps %ymm14, %ymm15, %ymm14
vfmadd231ps %ymm8, %ymm16, %ymm14 # ymm14 = (ymm16 * ymm8) + ymm14
vmulps %ymm14, %ymm12, %ymm8
vmulps %ymm9, %ymm14, %ymm9
vmulps %ymm27, %ymm14, %ymm12
vmovaps %ymm11, %ymm14
vfmadd213ps %ymm5, %ymm0, %ymm14 # ymm14 = (ymm0 * ymm14) + ymm5
vmovaps %ymm10, %ymm15
vfmadd213ps %ymm4, %ymm0, %ymm15 # ymm15 = (ymm0 * ymm15) + ymm4
vmovaps %ymm13, %ymm16
vfmadd213ps %ymm3, %ymm0, %ymm16 # ymm16 = (ymm0 * ymm16) + ymm3
vmovaps %ymm8, %ymm17
vfmadd213ps %ymm7, %ymm1, %ymm17 # ymm17 = (ymm1 * ymm17) + ymm7
vfnmadd213ps %ymm5, %ymm0, %ymm11 # ymm11 = -(ymm0 * ymm11) + ymm5
vmovaps %ymm9, %ymm5
vfmadd213ps %ymm6, %ymm1, %ymm5 # ymm5 = (ymm1 * ymm5) + ymm6
vfnmadd213ps %ymm4, %ymm0, %ymm10 # ymm10 = -(ymm0 * ymm10) + ymm4
vmovaps %ymm12, %ymm4
vfmadd213ps %ymm2, %ymm1, %ymm4 # ymm4 = (ymm1 * ymm4) + ymm2
vfnmadd231ps %ymm13, %ymm0, %ymm3 # ymm3 = -(ymm0 * ymm13) + ymm3
vfnmadd213ps %ymm7, %ymm1, %ymm8 # ymm8 = -(ymm1 * ymm8) + ymm7
vfnmadd213ps %ymm6, %ymm1, %ymm9 # ymm9 = -(ymm1 * ymm9) + ymm6
vfnmadd231ps %ymm12, %ymm1, %ymm2 # ymm2 = -(ymm1 * ymm12) + ymm2
vsubps %ymm11, %ymm17, %ymm6
vsubps %ymm10, %ymm5, %ymm7
vsubps %ymm3, %ymm4, %ymm12
vmulps %ymm3, %ymm7, %ymm13
vfmsub231ps %ymm12, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm12) - ymm13
vmulps %ymm11, %ymm12, %ymm12
vfmsub231ps %ymm6, %ymm3, %ymm12 # ymm12 = (ymm3 * ymm6) - ymm12
vmulps %ymm6, %ymm10, %ymm6
vfmsub231ps %ymm7, %ymm11, %ymm6 # ymm6 = (ymm11 * ymm7) - ymm6
vfmadd231ps %ymm12, %ymm27, %ymm6 # ymm6 = (ymm27 * ymm12) + ymm6
vfmadd231ps %ymm13, %ymm27, %ymm6 # ymm6 = (ymm27 * ymm13) + ymm6
vcmpleps %ymm27, %ymm6, %k2
vmovaps %ymm14, %ymm8 {%k2}
vmovaps %ymm15, %ymm9 {%k2}
vmovaps %ymm16, %ymm2 {%k2}
vblendmps %ymm17, %ymm11, %ymm13 {%k2}
vblendmps %ymm5, %ymm10, %ymm14 {%k2}
vblendmps %ymm4, %ymm3, %ymm15 {%k2}
vmovaps %ymm11, %ymm17 {%k2}
vmovaps %ymm10, %ymm5 {%k2}
vmovaps %ymm3, %ymm4 {%k2}
vsubps %ymm8, %ymm17, %ymm6
vsubps %ymm9, %ymm5, %ymm5
vsubps %ymm2, %ymm4, %ymm11
vsubps %ymm13, %ymm8, %ymm7
vsubps %ymm14, %ymm9, %ymm10
vsubps %ymm15, %ymm2, %ymm12
vmulps %ymm8, %ymm11, %ymm4
vfmsub231ps %ymm6, %ymm2, %ymm4 # ymm4 = (ymm2 * ymm6) - ymm4
vmulps %ymm6, %ymm9, %ymm3
vfmsub231ps %ymm5, %ymm8, %ymm3 # ymm3 = (ymm8 * ymm5) - ymm3
vfmadd231ps %ymm4, %ymm27, %ymm3 # ymm3 = (ymm27 * ymm4) + ymm3
vmulps %ymm2, %ymm5, %ymm4
vfmsub231ps %ymm11, %ymm9, %ymm4 # ymm4 = (ymm9 * ymm11) - ymm4
vfmadd231ps %ymm4, %ymm27, %ymm3 # ymm3 = (ymm27 * ymm4) + ymm3
vmulps %ymm13, %ymm12, %ymm16
vfmsub231ps %ymm15, %ymm7, %ymm16 # ymm16 = (ymm7 * ymm15) - ymm16
vmulps %ymm15, %ymm10, %ymm15
vfmsub231ps %ymm12, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm12) - ymm15
vmulps %ymm7, %ymm14, %ymm4
vfmsub231ps %ymm13, %ymm10, %ymm4 # ymm4 = (ymm10 * ymm13) - ymm4
vfmadd231ps %ymm16, %ymm27, %ymm4 # ymm4 = (ymm27 * ymm16) + ymm4
vfmadd231ps %ymm15, %ymm27, %ymm4 # ymm4 = (ymm27 * ymm15) + ymm4
vmaxps %ymm4, %ymm3, %ymm13
vcmpleps %ymm27, %ymm13, %k0 {%k1}
kortestb %k0, %k0
vmovaps %ymm19, %ymm18
je 0x1cc09fa
vmulps %ymm5, %ymm12, %ymm13
vfmsub231ps %ymm11, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm11) - ymm13
vmulps %ymm7, %ymm11, %ymm11
vfmsub231ps %ymm12, %ymm6, %ymm11 # ymm11 = (ymm6 * ymm12) - ymm11
vmulps %ymm6, %ymm10, %ymm10
vfmsub231ps %ymm5, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm5) - ymm10
vxorps %xmm6, %xmm6, %xmm6
vfmadd213ps %ymm10, %ymm11, %ymm6 # ymm6 = (ymm11 * ymm6) + ymm10
vfmadd231ps %ymm27, %ymm13, %ymm6 # ymm6 = (ymm13 * ymm27) + ymm6
vrcp14ps %ymm6, %ymm7
vmovaps %ymm7, %ymm5
vfnmadd213ps 0x22c0f5(%rip){1to8}, %ymm6, %ymm5 # ymm5 = -(ymm6 * ymm5) + mem
vfmadd132ps %ymm7, %ymm7, %ymm5 # ymm5 = (ymm5 * ymm7) + ymm7
vmulps %ymm2, %ymm10, %ymm2
vfmadd231ps %ymm11, %ymm9, %ymm2 # ymm2 = (ymm9 * ymm11) + ymm2
vfmadd231ps %ymm13, %ymm8, %ymm2 # ymm2 = (ymm8 * ymm13) + ymm2
vmulps %ymm5, %ymm2, %ymm2
vcmpgeps 0x300(%rsp), %ymm2, %k1
vcmpleps 0x80(%rsi,%r15,4){1to8}, %ymm2, %k1 {%k1}
kandb %k0, %k1, %k0
kortestb %k0, %k0
je 0x1cc09fa
vcmpneqps %ymm27, %ymm6, %k1
ktestb %k1, %k0
vmovaps 0x40(%rsp), %xmm9
vmovaps 0x140(%rsp), %ymm17
je 0x1cc0a1f
kandb %k1, %k0, %k0
kmovd %k0, %eax
vmulps %ymm5, %ymm3, %ymm3
vmulps %ymm5, %ymm4, %ymm4
vbroadcastss 0x22c086(%rip), %ymm5 # 0x1eec714
vsubps %ymm3, %ymm5, %ymm20
vmovaps %ymm3, %ymm20 {%k2}
vsubps %ymm4, %ymm5, %ymm3
vmovaps %ymm4, %ymm3 {%k2}
vmovaps %ymm3, 0x500(%rsp)
movzbl %al, %r9d
vmovaps %ymm2, %ymm21
vmovaps 0x80(%rsp), %ymm6
vmovaps 0x60(%rsp), %ymm3
testw %r9w, %r9w
je 0x1cc09e8
vsubps %ymm0, %ymm1, %ymm1
vfmadd213ps %ymm0, %ymm20, %ymm1 # ymm1 = (ymm20 * ymm1) + ymm0
vaddps %ymm1, %ymm1, %ymm0
movq 0xc8(%rsp), %rax
vmulps (%rax,%r15,4){1to8}, %ymm0, %ymm0
vcmpnleps %ymm0, %ymm21, %k0
kmovd %k0, %eax
andb %al, %r9b
je 0x1cc09e8
vbroadcastss 0x2302c2(%rip), %ymm0 # 0x1ef09cc
vmovaps 0x500(%rsp), %ymm1
vfmadd132ps 0x2308db(%rip){1to8}, %ymm0, %ymm1 # ymm1 = (ymm1 * mem) + ymm0
vmovaps %ymm20, 0x340(%rsp)
vmovaps %ymm1, 0x500(%rsp)
vmovaps %ymm1, 0x360(%rsp)
vmovaps %ymm21, 0x380(%rsp)
movl %r14d, 0x3a0(%rsp)
movl %edi, 0x3a4(%rsp)
vmovaps %xmm9, 0x3b0(%rsp)
vmovaps 0xe0(%rsp), %xmm0
vmovaps %xmm0, 0x3c0(%rsp)
vmovaps 0xd0(%rsp), %xmm0
vmovaps %xmm0, 0x3d0(%rsp)
vmovdqa 0x120(%rsp), %xmm0
vmovdqa %xmm0, 0x3e0(%rsp)
movb %r9b, 0x3f0(%rsp)
movq (%r10), %rax
movq 0x1e8(%rax), %rax
movq 0x38(%rsp), %rcx
movq (%rax,%rcx,8), %r11
movl 0x90(%rsi,%r15,4), %eax
testl %eax, 0x34(%r11)
je 0x1cc09c4
vaddps 0x26077c(%rip), %ymm20, %ymm0 # 0x1f20f40
vcvtsi2ss %r14d, %xmm19, %xmm1
vbroadcastss %xmm1, %ymm1
vaddps %ymm0, %ymm1, %ymm0
vmulps 0x320(%rsp), %ymm0, %ymm0
vmovaps %ymm0, 0x400(%rsp)
vmovaps 0x500(%rsp), %ymm0
vmovaps %ymm0, 0x420(%rsp)
vmovaps %ymm21, 0x440(%rsp)
kmovd %r9d, %k1
vbroadcastss 0x22b213(%rip), %ymm0 # 0x1eeba20
vblendmps %ymm21, %ymm0, %ymm0 {%k1}
vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm0, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1]
vminps %ymm2, %ymm1, %ymm1
vcmpeqps %ymm1, %ymm0, %k0
kmovd %k0, %eax
andb %r9b, %al
movzbl %al, %eax
movzbl %r9b, %ecx
cmovnel %eax, %ecx
tzcntl %ecx, %r12d
movq 0x10(%r10), %rax
cmpq $0x0, 0x10(%rax)
jne 0x1cc0a27
cmpq $0x0, 0x40(%r11)
jne 0x1cc0a27
vmovss 0x400(%rsp,%r12,4), %xmm0
vmovss 0x420(%rsp,%r12,4), %xmm1
vmovss 0x22be92(%rip), %xmm2 # 0x1eec714
vsubss %xmm0, %xmm2, %xmm2
vaddss %xmm2, %xmm2, %xmm3
vmulss %xmm3, %xmm0, %xmm4
vfnmadd231ss %xmm2, %xmm2, %xmm4 # xmm4 = -(xmm2 * xmm2) + xmm4
vaddss %xmm0, %xmm0, %xmm5
vmovss 0x23074d(%rip), %xmm8 # 0x1ef0fec
vmovaps %xmm8, %xmm6
vfmadd213ss 0x230758(%rip), %xmm0, %xmm6 # xmm6 = (xmm0 * xmm6) + mem
vmulss %xmm0, %xmm8, %xmm7
vmulss %xmm7, %xmm0, %xmm7
vfmadd231ss %xmm6, %xmm5, %xmm7 # xmm7 = (xmm5 * xmm6) + xmm7
vmovaps %xmm8, %xmm5
vfmadd213ss 0x230732(%rip), %xmm0, %xmm5 # xmm5 = (xmm0 * xmm5) + mem
vmulss 0x230722(%rip), %xmm2, %xmm6 # 0x1ef0ff0
vmulss %xmm6, %xmm2, %xmm6
vfmadd231ss %xmm5, %xmm3, %xmm6 # xmm6 = (xmm3 * xmm5) + xmm6
vmulss 0x2300fd(%rip), %xmm2, %xmm2 # 0x1ef09dc
vmulss %xmm0, %xmm0, %xmm3
vfmadd231ss %xmm2, %xmm0, %xmm3 # xmm3 = (xmm0 * xmm2) + xmm3
vmovss 0x22c290(%rip), %xmm8 # 0x1eecb80
vmulss %xmm4, %xmm8, %xmm2
vmulss %xmm7, %xmm8, %xmm4
vmulss %xmm6, %xmm8, %xmm5
vmulss %xmm3, %xmm8, %xmm3
vbroadcastss %xmm3, %xmm3
vmulps 0x120(%rsp), %xmm3, %xmm3
vbroadcastss %xmm5, %xmm5
vfmadd132ps 0xd0(%rsp), %xmm3, %xmm5 # xmm5 = (xmm5 * mem) + xmm3
vbroadcastss %xmm4, %xmm3
vfmadd132ps 0xe0(%rsp), %xmm5, %xmm3 # xmm3 = (xmm3 * mem) + xmm5
vbroadcastss %xmm2, %xmm2
vfmadd213ps %xmm3, %xmm9, %xmm2 # xmm2 = (xmm9 * xmm2) + xmm3
vmovss 0x440(%rsp,%r12,4), %xmm3
vmovss %xmm3, 0x80(%rsi,%r15,4)
vmovss %xmm2, 0xc0(%rsi,%r15,4)
vextractps $0x1, %xmm2, 0xd0(%rsi,%r15,4)
vextractps $0x2, %xmm2, 0xe0(%rsi,%r15,4)
vmovss %xmm0, 0xf0(%rsi,%r15,4)
vmovss %xmm1, 0x100(%rsi,%r15,4)
movq 0x58(%rsp), %rax
movl %eax, 0x110(%rsi,%r15,4)
movq 0x38(%rsp), %rax
movl %eax, 0x120(%rsi,%r15,4)
movq 0x8(%r10), %rax
movl (%rax), %eax
movl %eax, 0x130(%rsi,%r15,4)
movq 0x8(%r10), %rax
movl 0x4(%rax), %eax
movl %eax, 0x140(%rsi,%r15,4)
vmovaps 0x80(%rsp), %ymm6
vmovaps 0x60(%rsp), %ymm3
leaq 0x46f9a1(%rip), %r12 # 0x213036c
jmp 0x1cc09e8
vmovaps 0x80(%rsp), %ymm6
vmovaps 0x60(%rsp), %ymm3
vmovaps %ymm23, %ymm18
vmovaps %ymm24, %ymm17
addq $0x8, %r14
cmpl %r14d, %edi
jg 0x1cc00a3
jmp 0x1cbfff7
xorl %r9d, %r9d
vmovaps 0x80(%rsp), %ymm6
vmovaps 0x60(%rsp), %ymm3
vmovaps 0x40(%rsp), %xmm9
vmovaps 0x140(%rsp), %ymm17
jmp 0x1cc06c6
xorl %r9d, %r9d
jmp 0x1cc06b7
vmovaps 0x3c0(%rsp), %xmm0
vmovaps %xmm0, 0x210(%rsp)
vmovaps 0x3d0(%rsp), %xmm0
vmovaps %xmm0, 0x200(%rsp)
vmovaps 0x3e0(%rsp), %xmm0
vmovaps %xmm0, 0x550(%rsp)
vmovaps %ymm20, 0x1e0(%rsp)
vmovaps %ymm21, 0x1c0(%rsp)
movq %r11, 0x138(%rsp)
movq %r8, 0x30(%rsp)
movq %r10, 0x28(%rsp)
movq %rsi, 0x20(%rsp)
movl %edi, 0x1c(%rsp)
vmovaps %ymm28, 0x1a0(%rsp)
vmovaps %ymm29, 0x180(%rsp)
vmovss 0x80(%rsi,%r15,4), %xmm0
vmovss %xmm0, 0x220(%rsp)
vmovss 0x440(%rsp,%r12,4), %xmm0
vbroadcastss 0x400(%rsp,%r12,4), %xmm1
vbroadcastss 0x420(%rsp,%r12,4), %xmm2
vmovss %xmm0, 0x80(%rsi,%r15,4)
movq 0x8(%r10), %rax
vmovss 0x22bc35(%rip), %xmm0 # 0x1eec714
vsubss %xmm1, %xmm0, %xmm0
vaddss %xmm0, %xmm0, %xmm3
vmulss %xmm3, %xmm1, %xmm4
vfnmadd231ss %xmm0, %xmm0, %xmm4 # xmm4 = -(xmm0 * xmm0) + xmm4
vaddss %xmm1, %xmm1, %xmm5
vmovss 0x2304f0(%rip), %xmm8 # 0x1ef0fec
vmovaps %xmm8, %xmm6
vfmadd213ss 0x2304fb(%rip), %xmm1, %xmm6 # xmm6 = (xmm1 * xmm6) + mem
vmulss %xmm1, %xmm8, %xmm7
vmulss %xmm7, %xmm1, %xmm7
vfmadd231ss %xmm6, %xmm5, %xmm7 # xmm7 = (xmm5 * xmm6) + xmm7
vmovaps %xmm8, %xmm5
vfmadd213ss 0x2304d5(%rip), %xmm1, %xmm5 # xmm5 = (xmm1 * xmm5) + mem
vmulss 0x2304c5(%rip), %xmm0, %xmm6 # 0x1ef0ff0
vmulss %xmm6, %xmm0, %xmm6
vfmadd231ss %xmm5, %xmm3, %xmm6 # xmm6 = (xmm3 * xmm5) + xmm6
vmulss 0x22fea0(%rip), %xmm0, %xmm0 # 0x1ef09dc
vmulss %xmm1, %xmm1, %xmm3
vfmadd231ss %xmm0, %xmm1, %xmm3 # xmm3 = (xmm1 * xmm0) + xmm3
vmovss 0x22c033(%rip), %xmm8 # 0x1eecb80
vmulss %xmm4, %xmm8, %xmm0
vmulss %xmm7, %xmm8, %xmm4
vmulss %xmm6, %xmm8, %xmm5
vmulss %xmm3, %xmm8, %xmm3
vbroadcastss %xmm3, %xmm3
vmulps 0x550(%rsp), %xmm3, %xmm3
vbroadcastss %xmm5, %xmm5
vfmadd132ps 0x200(%rsp), %xmm3, %xmm5 # xmm5 = (xmm5 * mem) + xmm3
vbroadcastss %xmm4, %xmm3
vfmadd132ps 0x210(%rsp), %xmm5, %xmm3 # xmm3 = (xmm3 * mem) + xmm5
vbroadcastss %xmm0, %xmm0
vfmadd213ps %xmm3, %xmm9, %xmm0 # xmm0 = (xmm9 * xmm0) + xmm3
vbroadcastss %xmm0, %xmm3
vshufps $0x55, %xmm0, %xmm0, %xmm4 # xmm4 = xmm0[1,1,1,1]
vshufps $0xaa, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[2,2,2,2]
vmovaps %xmm3, 0x470(%rsp)
vmovaps %xmm4, 0x480(%rsp)
vmovaps %xmm0, 0x490(%rsp)
vmovaps %xmm1, 0x4a0(%rsp)
vmovaps %xmm2, 0x4b0(%rsp)
vmovaps 0x230(%rsp), %xmm0
vmovaps %xmm0, 0x4c0(%rsp)
vmovdqa 0x240(%rsp), %xmm0
vmovdqa %xmm0, 0x4d0(%rsp)
leaq 0x4e0(%rsp), %rcx
vpcmpeqd %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, (%rcx)
vbroadcastss (%rax), %xmm0
vmovaps %xmm0, 0x4e0(%rsp)
vbroadcastss 0x4(%rax), %xmm0
vmovaps %xmm0, 0x4f0(%rsp)
vmovaps 0x2f0(%rsp), %xmm0
vmovaps %xmm0, 0xb0(%rsp)
leaq 0xb0(%rsp), %rcx
movq %rcx, 0xf0(%rsp)
movq 0x18(%r11), %rcx
movq %rcx, 0xf8(%rsp)
movq %rax, 0x100(%rsp)
movq %rsi, 0x108(%rsp)
leaq 0x470(%rsp), %rax
movq %rax, 0x110(%rsp)
movl $0x4, 0x118(%rsp)
movq 0x40(%r11), %rax
testq %rax, %rax
movl %r9d, 0x170(%rsp)
je 0x1cc0d05
leaq 0xf0(%rsp), %rdi
vzeroupper
callq *%rax
movq 0x138(%rsp), %r11
movl 0x170(%rsp), %r9d
vmovaps 0x180(%rsp), %ymm29
vmovaps 0x1a0(%rsp), %ymm28
vmovaps 0x140(%rsp), %ymm17
vmovaps 0x280(%rsp), %ymm18
vmovaps 0x2a0(%rsp), %ymm22
movl 0x1c(%rsp), %edi
vmovaps 0x40(%rsp), %xmm9
vmovaps 0x1c0(%rsp), %ymm21
vmovaps 0x1e0(%rsp), %ymm20
vxorps %xmm27, %xmm27, %xmm27
leaq 0x471a96(%rip), %rdx # 0x213278c
movq 0x20(%rsp), %rsi
movq 0x28(%rsp), %r10
movq 0x30(%rsp), %r8
vmovdqa 0xb0(%rsp), %xmm0
vptestmd %xmm0, %xmm0, %k0
kortestb %k0, %k0
vmovaps 0x80(%rsp), %ymm6
vmovaps 0x60(%rsp), %ymm3
je 0x1cc0e71
movq 0x10(%r10), %rcx
movq 0x10(%rcx), %rax
testq %rax, %rax
je 0x1cc0dd8
testb $0x2, (%rcx)
jne 0x1cc0d4e
testb $0x40, 0x3e(%r11)
je 0x1cc0dd8
leaq 0xf0(%rsp), %rdi
vzeroupper
callq *%rax
movq 0x138(%rsp), %r11
movl 0x170(%rsp), %r9d
vmovaps 0x180(%rsp), %ymm29
vmovaps 0x1a0(%rsp), %ymm28
vmovaps 0x140(%rsp), %ymm17
vmovaps 0x280(%rsp), %ymm18
vmovaps 0x2a0(%rsp), %ymm22
movl 0x1c(%rsp), %edi
vmovaps 0x40(%rsp), %xmm9
vmovaps 0x1c0(%rsp), %ymm21
vmovaps 0x60(%rsp), %ymm3
vmovaps 0x1e0(%rsp), %ymm20
vmovaps 0x80(%rsp), %ymm6
vxorps %xmm27, %xmm27, %xmm27
leaq 0x4719c3(%rip), %rdx # 0x213278c
movq 0x20(%rsp), %rsi
movq 0x28(%rsp), %r10
movq 0x30(%rsp), %r8
vmovdqa 0xb0(%rsp), %xmm0
vptestmd %xmm0, %xmm0, %k1
kortestb %k1, %k1
je 0x1cc0e71
movq 0x108(%rsp), %rax
movq 0x110(%rsp), %rcx
vmovaps (%rcx), %xmm0
vmovups %xmm0, 0xc0(%rax) {%k1}
vmovaps 0x10(%rcx), %xmm0
vmovups %xmm0, 0xd0(%rax) {%k1}
vmovaps 0x20(%rcx), %xmm0
vmovups %xmm0, 0xe0(%rax) {%k1}
vmovaps 0x30(%rcx), %xmm0
vmovups %xmm0, 0xf0(%rax) {%k1}
vmovaps 0x40(%rcx), %xmm0
vmovups %xmm0, 0x100(%rax) {%k1}
vmovdqa 0x50(%rcx), %xmm0
vmovdqu32 %xmm0, 0x110(%rax) {%k1}
vmovdqa 0x60(%rcx), %xmm0
vmovdqu32 %xmm0, 0x120(%rax) {%k1}
vmovdqa 0x70(%rcx), %xmm0
vmovdqa32 %xmm0, 0x130(%rax) {%k1}
vmovdqa 0x80(%rcx), %xmm0
vmovdqa32 %xmm0, 0x140(%rax) {%k1}
jmp 0x1cc0e84
vmovd 0x220(%rsp), %xmm0
vmovd %xmm0, 0x80(%rsi,%r15,4)
movl $0x1, %eax
shlxl %r12d, %eax, %eax
kmovd %eax, %k0
movzbl %r9b, %eax
kmovd %eax, %k1
kandnb %k1, %k0, %k0
vcmpleps 0x80(%rsi,%r15,4){1to8}, %ymm21, %k1
kandb %k1, %k0, %k2
kmovd %k2, %r9d
ktestb %k1, %k0
je 0x1cc0f02
kmovd %r9d, %k1
vbroadcastss 0x22ab5d(%rip), %ymm0 # 0x1eeba20
vblendmps %ymm21, %ymm0, %ymm0 {%k1}
vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm0, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1]
vminps %ymm2, %ymm1, %ymm1
vcmpeqps %ymm1, %ymm0, %k0
kmovd %k0, %eax
andb %r9b, %al
movzbl %al, %eax
movzbl %r9b, %ecx
cmovnel %eax, %ecx
tzcntl %ecx, %r12d
testb %r9b, %r9b
jne 0x1cc0a98
jmp 0x1cc09c4
xorl %r12d, %r12d
vmovaps 0x80(%rsp), %ymm6
vmovaps 0x60(%rsp), %ymm3
vmovaps 0x40(%rsp), %xmm9
vmovaps 0x1a0(%rsp), %ymm28
vmovaps 0x180(%rsp), %ymm29
vmovaps 0x260(%rsp), %xmm10
jmp 0x1cbfcad
xorl %r12d, %r12d
vmovaps 0x80(%rsp), %ymm6
vmovaps 0x60(%rsp), %ymm3
vmovaps 0x40(%rsp), %xmm9
jmp 0x1cbfcad
xorl %r12d, %r12d
vmovaps 0x80(%rsp), %ymm6
vmovaps 0x60(%rsp), %ymm3
jmp 0x1cbfcad
movq 0x38(%rsp), %rax
vpbroadcastd %eax, %xmm0
vmovdqa %xmm0, 0x230(%rsp)
movq 0x58(%rsp), %rax
vpbroadcastd %eax, %xmm0
vmovdqa %xmm0, 0x170(%rsp)
vmovaps 0x3c0(%rsp), %xmm0
vmovaps %xmm0, 0x220(%rsp)
vmovaps 0x3d0(%rsp), %xmm0
vmovaps %xmm0, 0x210(%rsp)
vmovaps 0x3e0(%rsp), %xmm0
vmovaps %xmm0, 0x200(%rsp)
movq %r8, 0x30(%rsp)
movq %r10, 0x28(%rsp)
movq %rsi, 0x20(%rsp)
movl %edi, 0x1c(%rsp)
vmovss 0x80(%rsi,%r15,4), %xmm0
vmovss %xmm0, 0x240(%rsp)
vmovss 0x440(%rsp,%r9,4), %xmm0
vbroadcastss 0x400(%rsp,%r9,4), %xmm1
vbroadcastss 0x420(%rsp,%r9,4), %xmm2
vmovss %xmm0, 0x80(%rsi,%r15,4)
movq 0x8(%r10), %rax
vmovss 0x22b6e2(%rip), %xmm0 # 0x1eec714
vsubss %xmm1, %xmm0, %xmm0
vaddss %xmm0, %xmm0, %xmm3
vmulss %xmm3, %xmm1, %xmm4
vfnmadd231ss %xmm0, %xmm0, %xmm4 # xmm4 = -(xmm0 * xmm0) + xmm4
vaddss %xmm1, %xmm1, %xmm5
vmovss 0x22ff9d(%rip), %xmm8 # 0x1ef0fec
vmovaps %xmm8, %xmm6
vfmadd213ss 0x22ffa8(%rip), %xmm1, %xmm6 # xmm6 = (xmm1 * xmm6) + mem
vmulss %xmm1, %xmm8, %xmm7
vmulss %xmm7, %xmm1, %xmm7
vfmadd231ss %xmm6, %xmm5, %xmm7 # xmm7 = (xmm5 * xmm6) + xmm7
vmovaps %xmm8, %xmm5
vfmadd213ss 0x22ff82(%rip), %xmm1, %xmm5 # xmm5 = (xmm1 * xmm5) + mem
vmulss 0x22ff72(%rip), %xmm0, %xmm6 # 0x1ef0ff0
vmulss %xmm6, %xmm0, %xmm6
vfmadd231ss %xmm5, %xmm3, %xmm6 # xmm6 = (xmm3 * xmm5) + xmm6
vmulss 0x22f94d(%rip), %xmm0, %xmm0 # 0x1ef09dc
vmulss %xmm1, %xmm1, %xmm3
vfmadd231ss %xmm0, %xmm1, %xmm3 # xmm3 = (xmm1 * xmm0) + xmm3
vmovss 0x22bae0(%rip), %xmm8 # 0x1eecb80
vmulss %xmm4, %xmm8, %xmm0
vmulss %xmm7, %xmm8, %xmm4
vmulss %xmm6, %xmm8, %xmm5
vmulss %xmm3, %xmm8, %xmm3
vbroadcastss %xmm3, %xmm3
vmulps 0x200(%rsp), %xmm3, %xmm3
vbroadcastss %xmm5, %xmm5
vfmadd132ps 0x210(%rsp), %xmm3, %xmm5 # xmm5 = (xmm5 * mem) + xmm3
vbroadcastss %xmm4, %xmm3
vfmadd132ps 0x220(%rsp), %xmm5, %xmm3 # xmm3 = (xmm3 * mem) + xmm5
vbroadcastss %xmm0, %xmm0
vfmadd213ps %xmm3, %xmm9, %xmm0 # xmm0 = (xmm9 * xmm0) + xmm3
vbroadcastss %xmm0, %xmm3
vshufps $0x55, %xmm0, %xmm0, %xmm4 # xmm4 = xmm0[1,1,1,1]
vshufps $0xaa, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[2,2,2,2]
vmovaps %xmm3, 0x470(%rsp)
vmovaps %xmm4, 0x480(%rsp)
vmovaps %xmm0, 0x490(%rsp)
vmovaps %xmm1, 0x4a0(%rsp)
vmovaps %xmm2, 0x4b0(%rsp)
vmovaps 0x170(%rsp), %xmm0
vmovaps %xmm0, 0x4c0(%rsp)
vmovdqa 0x230(%rsp), %xmm0
vmovdqa %xmm0, 0x4d0(%rsp)
leaq 0x4e0(%rsp), %rcx
vpcmpeqd %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, (%rcx)
vbroadcastss (%rax), %xmm0
vmovaps %xmm0, 0x4e0(%rsp)
vbroadcastss 0x4(%rax), %xmm0
vmovaps %xmm0, 0x4f0(%rsp)
vmovaps 0x2f0(%rsp), %xmm0
vmovaps %xmm0, 0xb0(%rsp)
leaq 0xb0(%rsp), %rcx
movq %rcx, 0xf0(%rsp)
movq 0x18(%r14), %rcx
movq %rcx, 0xf8(%rsp)
movq %rax, 0x100(%rsp)
movq %rsi, 0x108(%rsp)
leaq 0x470(%rsp), %rax
movq %rax, 0x110(%rsp)
movl $0x4, 0x118(%rsp)
movq 0x40(%r14), %rax
testq %rax, %rax
movq %r9, 0x300(%rsp)
je 0x1cc1265
leaq 0xf0(%rsp), %rdi
vzeroupper
callq *%rax
movq 0x300(%rsp), %r9
vmovaps 0x260(%rsp), %xmm10
vmovaps 0x2c0(%rsp), %xmm26
vmovaps 0x180(%rsp), %ymm29
vmovaps 0x1a0(%rsp), %ymm28
vmovaps 0x140(%rsp), %ymm17
vmovaps 0x280(%rsp), %ymm18
vmovaps 0x2a0(%rsp), %ymm22
movl 0x1c(%rsp), %edi
vmovaps 0x40(%rsp), %xmm9
vmovaps 0x1c0(%rsp), %ymm21
vmovaps 0x1e0(%rsp), %ymm20
vxorps %xmm27, %xmm27, %xmm27
leaq 0x471536(%rip), %rdx # 0x213278c
movq 0x20(%rsp), %rsi
movq 0x28(%rsp), %r10
movq 0x30(%rsp), %r8
vmovdqa 0xb0(%rsp), %xmm0
vptestmd %xmm0, %xmm0, %k0
kortestb %k0, %k0
vmovaps 0x80(%rsp), %ymm6
vmovaps 0x60(%rsp), %ymm3
je 0x1cc13da
movq 0x10(%r10), %rcx
movq 0x10(%rcx), %rax
testq %rax, %rax
je 0x1cc1341
testb $0x2, (%rcx)
jne 0x1cc12ae
testb $0x40, 0x3e(%r14)
je 0x1cc1341
leaq 0xf0(%rsp), %rdi
vzeroupper
callq *%rax
movq 0x300(%rsp), %r9
vmovaps 0x260(%rsp), %xmm10
vmovaps 0x2c0(%rsp), %xmm26
vmovaps 0x180(%rsp), %ymm29
vmovaps 0x1a0(%rsp), %ymm28
vmovaps 0x140(%rsp), %ymm17
vmovaps 0x280(%rsp), %ymm18
vmovaps 0x2a0(%rsp), %ymm22
movl 0x1c(%rsp), %edi
vmovaps 0x40(%rsp), %xmm9
vmovaps 0x1c0(%rsp), %ymm21
vmovaps 0x60(%rsp), %ymm3
vmovaps 0x1e0(%rsp), %ymm20
vmovaps 0x80(%rsp), %ymm6
vxorps %xmm27, %xmm27, %xmm27
leaq 0x47145a(%rip), %rdx # 0x213278c
movq 0x20(%rsp), %rsi
movq 0x28(%rsp), %r10
movq 0x30(%rsp), %r8
vmovdqa 0xb0(%rsp), %xmm0
vptestmd %xmm0, %xmm0, %k1
kortestb %k1, %k1
je 0x1cc13da
movq 0x108(%rsp), %rax
movq 0x110(%rsp), %rcx
vmovaps (%rcx), %xmm0
vmovups %xmm0, 0xc0(%rax) {%k1}
vmovaps 0x10(%rcx), %xmm0
vmovups %xmm0, 0xd0(%rax) {%k1}
vmovaps 0x20(%rcx), %xmm0
vmovups %xmm0, 0xe0(%rax) {%k1}
vmovaps 0x30(%rcx), %xmm0
vmovups %xmm0, 0xf0(%rax) {%k1}
vmovaps 0x40(%rcx), %xmm0
vmovups %xmm0, 0x100(%rax) {%k1}
vmovdqa 0x50(%rcx), %xmm0
vmovdqu32 %xmm0, 0x110(%rax) {%k1}
vmovdqa 0x60(%rcx), %xmm0
vmovdqu32 %xmm0, 0x120(%rax) {%k1}
vmovdqa 0x70(%rcx), %xmm0
vmovdqa32 %xmm0, 0x130(%rax) {%k1}
vmovdqa 0x80(%rcx), %xmm0
vmovdqa32 %xmm0, 0x140(%rax) {%k1}
jmp 0x1cc13ed
vmovd 0x240(%rsp), %xmm0
vmovd %xmm0, 0x80(%rsi,%r15,4)
movl $0x1, %eax
shlxl %r9d, %eax, %eax
kmovd %eax, %k0
movzbl %r12b, %eax
kmovd %eax, %k1
kandnb %k1, %k0, %k0
vcmpleps 0x80(%rsi,%r15,4){1to8}, %ymm3, %k1
kandb %k1, %k0, %k2
kmovd %k2, %r12d
ktestb %k1, %k0
je 0x1cc146b
kmovd %r12d, %k1
vbroadcastss 0x22a5f4(%rip), %ymm0 # 0x1eeba20
vblendmps %ymm3, %ymm0, %ymm0 {%k1}
vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm0, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1]
vminps %ymm2, %ymm1, %ymm1
vcmpeqps %ymm1, %ymm0, %k0
kmovd %k0, %eax
andb %r12b, %al
movzbl %al, %eax
movzbl %r12b, %ecx
cmovnel %eax, %ecx
tzcntl %ecx, %r9d
testb %r12b, %r12b
jne 0x1cc0feb
jmp 0x1cbffac
leaq -0x28(%rbp), %rsp
popq %rbx
popq %r12
popq %r13
popq %r14
popq %r15
popq %rbp
vzeroupper
retq
nop
|
/embree[P]embree/kernels/geometry/curveNi_intersector.h
|
bool embree::avx512::CurveNiIntersectorK<8, 4>::occluded_t<embree::avx512::RibbonCurve1IntersectorK<embree::CatmullRomCurveT, 4, 8>, embree::avx512::Occluded1KEpilogMU<8, 4, true>>(embree::avx512::CurvePrecalculationsK<4>&, embree::RayK<4>&, unsigned long, embree::RayQueryContext*, embree::CurveNi<8> const&)
|
static __forceinline bool occluded_t(Precalculations& pre, RayK<K>& ray, const size_t k, RayQueryContext* context, const Primitive& prim)
{
vfloat<M> tNear;
vbool<M> valid = intersect(ray,k,prim,tNear);
const size_t N = prim.N;
size_t mask = movemask(valid);
while (mask)
{
const size_t i = bscf(mask);
STAT3(shadow.trav_prims,1,1,1);
const unsigned int geomID = prim.geomID(N);
const unsigned int primID = prim.primID(N)[i];
const CurveGeometry* geom = context->scene->get<CurveGeometry>(geomID);
Vec3ff a0,a1,a2,a3; geom->gather(a0,a1,a2,a3,geom->curve(primID));
size_t mask1 = mask;
const size_t i1 = bscf(mask1);
if (mask) {
const unsigned int primID1 = prim.primID(N)[i1];
geom->prefetchL1_vertices(geom->curve(primID1));
if (mask1) {
const size_t i2 = bsf(mask1);
const unsigned int primID2 = prim.primID(N)[i2];
geom->prefetchL2_vertices(geom->curve(primID2));
}
}
if (Intersector().intersect(pre,ray,k,context,geom,primID,a0,a1,a2,a3,Epilog(ray,k,context,geomID,primID)))
return true;
mask &= movemask(tNear <= vfloat<M>(ray.tfar[k]));
}
return false;
}
|
pushq %rbp
movq %rsp, %rbp
pushq %r15
pushq %r14
pushq %r13
pushq %r12
pushq %rbx
andq $-0x20, %rsp
subq $0x6c0, %rsp # imm = 0x6C0
movq %rdx, %r14
movq %rsi, %r15
movzbl 0x1(%r8), %eax
leaq (%rax,%rax,4), %rdx
leaq (%rdx,%rdx,4), %rsi
vbroadcastss 0x12(%r8,%rsi), %xmm0
vmovss (%r15,%r14,4), %xmm1
vmovss 0x40(%r15,%r14,4), %xmm2
vinsertps $0x10, 0x10(%r15,%r14,4), %xmm1, %xmm1 # xmm1 = xmm1[0],mem[0],xmm1[2,3]
vinsertps $0x20, 0x20(%r15,%r14,4), %xmm1, %xmm1 # xmm1 = xmm1[0,1],mem[0],xmm1[3]
vinsertps $0x10, 0x50(%r15,%r14,4), %xmm2, %xmm2 # xmm2 = xmm2[0],mem[0],xmm2[2,3]
movq %rcx, %r10
movq %rdi, %r11
vinsertps $0x20, 0x60(%r15,%r14,4), %xmm2, %xmm2 # xmm2 = xmm2[0,1],mem[0],xmm2[3]
vsubps 0x6(%r8,%rsi), %xmm1, %xmm1
vmulps %xmm1, %xmm0, %xmm3
vmulps %xmm2, %xmm0, %xmm0
vpmovsxbd 0x6(%r8,%rax,4), %ymm1
vcvtdq2ps %ymm1, %ymm5
vpmovsxbd 0x6(%r8,%rdx), %ymm1
vcvtdq2ps %ymm1, %ymm6
leaq (%rax,%rax,2), %rcx
vpmovsxbd 0x6(%r8,%rcx,2), %ymm1
vcvtdq2ps %ymm1, %ymm2
leaq (%rax,%rdx,2), %rsi
vpmovsxbd 0x6(%r8,%rsi), %ymm1
vcvtdq2ps %ymm1, %ymm7
leal (,%rcx,4), %esi
vpmovsxbd 0x6(%r8,%rsi), %ymm1
vcvtdq2ps %ymm1, %ymm8
addq %rax, %rsi
vpmovsxbd 0x6(%r8,%rsi), %ymm1
vcvtdq2ps %ymm1, %ymm9
leaq (%rax,%rax,8), %rsi
leal (%rsi,%rsi), %edi
vpmovsxbd 0x6(%r8,%rdi), %ymm1
addq %rax, %rdi
vpmovsxbd 0x6(%r8,%rdi), %ymm4
vcvtdq2ps %ymm1, %ymm10
vcvtdq2ps %ymm4, %ymm11
shll $0x2, %edx
vpmovsxbd 0x6(%r8,%rdx), %ymm1
vcvtdq2ps %ymm1, %ymm12
vbroadcastss %xmm0, %ymm13
vbroadcastss 0x251174(%rip), %ymm15 # 0x1f12704
vpermps %ymm0, %ymm15, %ymm14
vbroadcastss 0x25f93d(%rip), %ymm16 # 0x1f20edc
vpermps %ymm0, %ymm16, %ymm0
vmulps %ymm2, %ymm0, %ymm4
vmulps %ymm0, %ymm9, %ymm1
vmulps %ymm0, %ymm12, %ymm0
vfmadd231ps %ymm6, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm6) + ymm4
vfmadd231ps %ymm8, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm8) + ymm1
vfmadd231ps %ymm14, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm14) + ymm0
vfmadd231ps %ymm5, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm5) + ymm4
vfmadd231ps %ymm7, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm7) + ymm1
vfmadd231ps %ymm13, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm13) + ymm0
vbroadcastss %xmm3, %ymm13
vpermps %ymm3, %ymm15, %ymm14
vpermps %ymm3, %ymm16, %ymm15
vmulps %ymm2, %ymm15, %ymm16
vmulps %ymm9, %ymm15, %ymm3
vmulps %ymm12, %ymm15, %ymm2
vfmadd231ps %ymm6, %ymm14, %ymm16 # ymm16 = (ymm14 * ymm6) + ymm16
vfmadd231ps %ymm8, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm8) + ymm3
vfmadd231ps %ymm11, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm11) + ymm2
vfmadd231ps %ymm5, %ymm13, %ymm16 # ymm16 = (ymm13 * ymm5) + ymm16
vfmadd231ps %ymm7, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm7) + ymm3
vfmadd231ps %ymm10, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm10) + ymm2
vbroadcastss 0x25f8ac(%rip), %ymm7 # 0x1f20ec4
vandps %ymm7, %ymm4, %ymm5
vbroadcastss 0x22f9c3(%rip), %ymm6 # 0x1ef0fe8
vcmpltps %ymm6, %ymm5, %k1
vmovaps %ymm6, %ymm4 {%k1}
vandps %ymm7, %ymm1, %ymm5
vcmpltps %ymm6, %ymm5, %k1
vmovaps %ymm6, %ymm1 {%k1}
vandps %ymm7, %ymm0, %ymm5
vcmpltps %ymm6, %ymm5, %k1
vmovaps %ymm6, %ymm0 {%k1}
vrcp14ps %ymm4, %ymm5
vbroadcastss 0x22b0b1(%rip), %ymm6 # 0x1eec714
vfnmadd213ps %ymm6, %ymm5, %ymm4 # ymm4 = -(ymm5 * ymm4) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm4 # ymm4 = (ymm4 * ymm5) + ymm5
vrcp14ps %ymm1, %ymm5
vfnmadd213ps %ymm6, %ymm5, %ymm1 # ymm1 = -(ymm5 * ymm1) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm1 # ymm1 = (ymm1 * ymm5) + ymm5
vrcp14ps %ymm0, %ymm5
vfnmadd213ps %ymm6, %ymm5, %ymm0 # ymm0 = -(ymm5 * ymm0) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm0 # ymm0 = (ymm0 * ymm5) + ymm5
leaq (,%rax,8), %rdi
subq %rax, %rdi
vpmovsxwd 0x6(%r8,%rdi), %ymm5
vcvtdq2ps %ymm5, %ymm5
vsubps %ymm16, %ymm5, %ymm5
vpmovsxwd 0x6(%r8,%rsi), %ymm6
vmulps %ymm5, %ymm4, %ymm5
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm16, %ymm6, %ymm6
vmulps %ymm6, %ymm4, %ymm4
leaq (%rax,%rax), %rsi
addq %rax, %rdx
shlq $0x3, %rcx
subq %rax, %rcx
movl %eax, %edi
shll $0x4, %edi
vpmovsxwd 0x6(%r8,%rdi), %ymm6
subq %rsi, %rdi
vpmovsxwd 0x6(%r8,%rdi), %ymm7
vcvtdq2ps %ymm7, %ymm7
vsubps %ymm3, %ymm7, %ymm7
vmulps %ymm7, %ymm1, %ymm7
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm3, %ymm6, %ymm3
vmulps %ymm3, %ymm1, %ymm1
vpmovsxwd 0x6(%r8,%rdx), %ymm3
vcvtdq2ps %ymm3, %ymm3
vsubps %ymm2, %ymm3, %ymm3
vmulps %ymm0, %ymm3, %ymm3
vpmovsxwd 0x6(%r8,%rcx), %ymm6
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm2, %ymm6, %ymm2
vmulps %ymm2, %ymm0, %ymm0
vpminsd %ymm4, %ymm5, %ymm2
vpminsd %ymm1, %ymm7, %ymm6
vmaxps %ymm6, %ymm2, %ymm2
vpminsd %ymm0, %ymm3, %ymm6
vmaxps 0x30(%r15,%r14,4){1to8}, %ymm6, %ymm6
vmaxps %ymm6, %ymm2, %ymm2
vmulps 0x25e7c3(%rip){1to8}, %ymm2, %ymm6 # 0x1f1ff10
vpmaxsd %ymm4, %ymm5, %ymm2
vpmaxsd %ymm1, %ymm7, %ymm1
vminps %ymm1, %ymm2, %ymm1
vpmaxsd %ymm0, %ymm3, %ymm0
vminps 0x80(%r15,%r14,4){1to8}, %ymm0, %ymm0
vminps %ymm0, %ymm1, %ymm0
vmulps 0x25e79e(%rip){1to8}, %ymm0, %ymm0 # 0x1f1ff14
vpbroadcastd %eax, %ymm1
vpcmpgtd 0x29919a(%rip), %ymm1, %k0 # 0x1f5a920
vmovaps %ymm6, 0x680(%rsp)
vcmpleps %ymm0, %ymm6, %k1
ktestb %k0, %k1
setne 0x7(%rsp)
je 0x1cc33ee
kandb %k0, %k1, %k0
kmovd %k0, %eax
movzbl %al, %r12d
leaq (%r14,%r14,2), %rax
shlq $0x4, %rax
addq %r11, %rax
addq $0x10, %rax
movq %rax, 0x198(%rsp)
movl $0x1, %eax
shlxl %r14d, %eax, %eax
kmovd %eax, %k0
vpmovm2d %k0, %xmm0
vmovdqa %xmm0, 0x270(%rsp)
vmovaps %ymm5, 0x60(%rsp)
vmovaps %ymm2, 0x40(%rsp)
vmovaps %ymm20, 0x1e0(%rsp)
tzcntq %r12, %rax
movl 0x2(%r8), %ecx
movl 0x6(%r8,%rax,4), %esi
movq (%r10), %rax
movq 0x1e8(%rax), %rax
movq %rcx, 0x98(%rsp)
movq (%rax,%rcx,8), %r13
movq 0x58(%r13), %rax
movq 0x68(%r13), %rcx
movq %rcx, %rdx
movq %rsi, 0x10(%rsp)
imulq %rsi, %rdx
movl (%rax,%rdx), %edi
movq 0xa0(%r13), %rdx
movq %rdx, %r9
imulq %rdi, %r9
movq 0x90(%r13), %rsi
vmovaps (%rsi,%r9), %xmm13
leaq 0x1(%rdi), %r9
imulq %rdx, %r9
vmovaps (%rsi,%r9), %xmm0
vmovaps %xmm0, 0x150(%rsp)
leaq 0x2(%rdi), %r9
imulq %rdx, %r9
vmovaps (%rsi,%r9), %xmm0
vmovaps %xmm0, 0x140(%rsp)
blsrq %r12, %r12
addq $0x3, %rdi
imulq %rdx, %rdi
vmovaps (%rsi,%rdi), %xmm0
vmovaps %xmm0, 0x180(%rsp)
movq %r12, %rdi
subq $0x1, %rdi
jb 0x1cc18e8
andq %r12, %rdi
tzcntq %r12, %r9
movl 0x6(%r8,%r9,4), %r9d
imulq %rcx, %r9
movl (%rax,%r9), %r9d
imulq %rdx, %r9
prefetcht0 (%rsi,%r9)
prefetcht0 0x40(%rsi,%r9)
testq %rdi, %rdi
je 0x1cc18e8
tzcntq %rdi, %rdi
movl 0x6(%r8,%rdi,4), %edi
imulq %rdi, %rcx
movl (%rax,%rcx), %eax
imulq %rax, %rdx
prefetcht1 (%rsi,%rdx)
prefetcht1 0x40(%rsi,%rdx)
movl 0x248(%r13), %r9d
vmovss (%r15,%r14,4), %xmm0
vinsertps $0x1c, 0x10(%r15,%r14,4), %xmm0, %xmm0 # xmm0 = xmm0[0],mem[0],zero,zero
vinsertps $0x28, 0x20(%r15,%r14,4), %xmm0, %xmm0 # xmm0 = xmm0[0,1],mem[0],zero
vsubps %xmm0, %xmm13, %xmm1
vbroadcastss %xmm1, %xmm2
vshufps $0x55, %xmm1, %xmm1, %xmm3 # xmm3 = xmm1[1,1,1,1]
vshufps $0xaa, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,2,2,2]
movq 0x198(%rsp), %rax
vmovaps (%rax), %xmm4
vmovaps 0x10(%rax), %xmm5
vmovaps 0x20(%rax), %xmm6
vmulps %xmm1, %xmm6, %xmm8
vfmadd231ps %xmm3, %xmm5, %xmm8 # xmm8 = (xmm5 * xmm3) + xmm8
vfmadd231ps %xmm2, %xmm4, %xmm8 # xmm8 = (xmm4 * xmm2) + xmm8
vshufps $0xff, %xmm13, %xmm13, %xmm1 # xmm1 = xmm13[3,3,3,3]
vmovaps 0x150(%rsp), %xmm3
vsubps %xmm0, %xmm3, %xmm2
vmovaps %xmm3, %xmm10
vbroadcastss %xmm2, %xmm3
vshufps $0x55, %xmm2, %xmm2, %xmm7 # xmm7 = xmm2[1,1,1,1]
vshufps $0xaa, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[2,2,2,2]
vmulps %xmm2, %xmm6, %xmm9
vfmadd231ps %xmm7, %xmm5, %xmm9 # xmm9 = (xmm5 * xmm7) + xmm9
vfmadd231ps %xmm3, %xmm4, %xmm9 # xmm9 = (xmm4 * xmm3) + xmm9
vshufps $0xff, %xmm10, %xmm10, %xmm2 # xmm2 = xmm10[3,3,3,3]
vmovaps 0x140(%rsp), %xmm7
vsubps %xmm0, %xmm7, %xmm3
vmovaps %xmm7, %xmm12
vbroadcastss %xmm3, %xmm7
vshufps $0x55, %xmm3, %xmm3, %xmm11 # xmm11 = xmm3[1,1,1,1]
vshufps $0xaa, %xmm3, %xmm3, %xmm3 # xmm3 = xmm3[2,2,2,2]
vmulps %xmm3, %xmm6, %xmm10
vfmadd231ps %xmm11, %xmm5, %xmm10 # xmm10 = (xmm5 * xmm11) + xmm10
vfmadd231ps %xmm7, %xmm4, %xmm10 # xmm10 = (xmm4 * xmm7) + xmm10
vshufps $0xff, %xmm12, %xmm12, %xmm7 # xmm7 = xmm12[3,3,3,3]
vmovaps 0x180(%rsp), %xmm27
vsubps %xmm0, %xmm27, %xmm0
vbroadcastss %xmm0, %xmm3
vshufps $0x55, %xmm0, %xmm0, %xmm12 # xmm12 = xmm0[1,1,1,1]
vshufps $0xaa, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[2,2,2,2]
vmulps %xmm0, %xmm6, %xmm11
vfmadd231ps %xmm12, %xmm5, %xmm11 # xmm11 = (xmm5 * xmm12) + xmm11
vfmadd231ps %xmm3, %xmm4, %xmm11 # xmm11 = (xmm4 * xmm3) + xmm11
movslq %r9d, %rax
movq %rax, %rcx
shlq $0x6, %rcx
leaq (%rcx,%rax,4), %rbx
leaq 0x46e982(%rip), %rdx # 0x213036c
vmovups (%rdx,%rbx), %ymm25
vshufps $0xff, %xmm27, %xmm27, %xmm0 # xmm0 = xmm27[3,3,3,3]
vbroadcastss %xmm8, %ymm20
vbroadcastss 0x250cfd(%rip), %ymm3 # 0x1f12704
vpermps %ymm8, %ymm3, %ymm23
vbroadcastsd %xmm1, %ymm12
vmovups 0x484(%rdx,%rbx), %ymm14
vbroadcastss %xmm9, %ymm1
vpermps %ymm9, %ymm3, %ymm28
vbroadcastsd %xmm2, %ymm21
vmovups 0x908(%rdx,%rbx), %ymm15
vbroadcastss %xmm10, %ymm31
vpermps %ymm10, %ymm3, %ymm29
vbroadcastsd %xmm7, %ymm22
vmovups 0xd8c(%rdx,%rbx), %ymm16
vbroadcastss %xmm11, %ymm30
vpermps %ymm11, %ymm3, %ymm26
vbroadcastsd %xmm0, %ymm3
vmulps %ymm16, %ymm30, %ymm5
vmulps %ymm16, %ymm26, %ymm4
vfmadd231ps %ymm31, %ymm15, %ymm5 # ymm5 = (ymm15 * ymm31) + ymm5
vfmadd231ps %ymm29, %ymm15, %ymm4 # ymm4 = (ymm15 * ymm29) + ymm4
vfmadd231ps %ymm1, %ymm14, %ymm5 # ymm5 = (ymm14 * ymm1) + ymm5
vfmadd231ps %ymm28, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm28) + ymm4
vfmadd231ps %ymm20, %ymm25, %ymm5 # ymm5 = (ymm25 * ymm20) + ymm5
leaq 0x470cf9(%rip), %rsi # 0x213278c
vmovups (%rsi,%rbx), %ymm2
vmovups 0x484(%rsi,%rbx), %ymm17
vfmadd231ps %ymm23, %ymm25, %ymm4 # ymm4 = (ymm25 * ymm23) + ymm4
vmovups 0x908(%rsi,%rbx), %ymm18
vmovups 0xd8c(%rsi,%rbx), %ymm19
vmulps %ymm19, %ymm30, %ymm7
vmulps %ymm19, %ymm26, %ymm6
vfmadd231ps %ymm31, %ymm18, %ymm7 # ymm7 = (ymm18 * ymm31) + ymm7
vfmadd231ps %ymm29, %ymm18, %ymm6 # ymm6 = (ymm18 * ymm29) + ymm6
vmovaps %ymm1, 0x160(%rsp)
vfmadd231ps %ymm1, %ymm17, %ymm7 # ymm7 = (ymm17 * ymm1) + ymm7
vfmadd231ps %ymm28, %ymm17, %ymm6 # ymm6 = (ymm17 * ymm28) + ymm6
vmovaps %ymm20, 0x240(%rsp)
vfmadd231ps %ymm20, %ymm2, %ymm7 # ymm7 = (ymm2 * ymm20) + ymm7
vmovaps %ymm23, 0x220(%rsp)
vfmadd231ps %ymm23, %ymm2, %ymm6 # ymm6 = (ymm2 * ymm23) + ymm6
vsubps %ymm5, %ymm7, %ymm24
vsubps %ymm4, %ymm6, %ymm23
vmulps %ymm24, %ymm4, %ymm0
vmulps %ymm23, %ymm5, %ymm1
vsubps %ymm1, %ymm0, %ymm20
vmulps %ymm16, %ymm3, %ymm0
vfmadd231ps %ymm22, %ymm15, %ymm0 # ymm0 = (ymm15 * ymm22) + ymm0
vfmadd231ps %ymm21, %ymm14, %ymm0 # ymm0 = (ymm14 * ymm21) + ymm0
vfmadd231ps %ymm12, %ymm25, %ymm0 # ymm0 = (ymm25 * ymm12) + ymm0
vmovaps %ymm3, 0x580(%rsp)
vmulps %ymm19, %ymm3, %ymm1
vmovaps %ymm22, 0x5e0(%rsp)
vfmadd231ps %ymm22, %ymm18, %ymm1 # ymm1 = (ymm18 * ymm22) + ymm1
vmovaps %ymm21, 0x640(%rsp)
vfmadd231ps %ymm21, %ymm17, %ymm1 # ymm1 = (ymm17 * ymm21) + ymm1
vmovaps %ymm12, 0x660(%rsp)
vfmadd231ps %ymm12, %ymm2, %ymm1 # ymm1 = (ymm2 * ymm12) + ymm1
vmulps %ymm23, %ymm23, %ymm21
vfmadd231ps %ymm24, %ymm24, %ymm21 # ymm21 = (ymm24 * ymm24) + ymm21
vmaxps %ymm1, %ymm0, %ymm22
vmulps %ymm22, %ymm22, %ymm22
vmulps %ymm21, %ymm22, %ymm21
vmulps %ymm20, %ymm20, %ymm20
vcmpleps %ymm21, %ymm20, %k1
vmovaps %xmm13, 0x20(%rsp)
vblendps $0x8, %xmm13, %xmm8, %xmm12 # xmm12 = xmm8[0,1,2],xmm13[3]
vbroadcastss 0x25f30c(%rip), %xmm20 # 0x1f20ec4
vandps %xmm20, %xmm12, %xmm12
vblendps $0x8, 0x150(%rsp), %xmm9, %xmm13 # xmm13 = xmm9[0,1,2],mem[3]
vandps %xmm20, %xmm13, %xmm13
vmaxps %xmm13, %xmm12, %xmm12
vblendps $0x8, 0x140(%rsp), %xmm10, %xmm13 # xmm13 = xmm10[0,1,2],mem[3]
vandps %xmm20, %xmm13, %xmm13
vmovaps %xmm27, %xmm3
vblendps $0x8, %xmm3, %xmm11, %xmm3 # xmm3 = xmm11[0,1,2],xmm3[3]
vandps %xmm20, %xmm3, %xmm3
vmaxps %xmm3, %xmm13, %xmm3
vmaxps %xmm3, %xmm12, %xmm3
vmovshdup %xmm3, %xmm12 # xmm12 = xmm3[1,1,3,3]
vmaxss %xmm3, %xmm12, %xmm12
vshufpd $0x1, %xmm3, %xmm3, %xmm3 # xmm3 = xmm3[1,0]
vmaxss %xmm12, %xmm3, %xmm3
vcvtsi2ss %r9d, %xmm8, %xmm12
vmovaps %xmm12, 0x130(%rsp)
vbroadcastss %xmm12, %ymm12
vcmpgtps 0x25f311(%rip), %ymm12, %k1 {%k1} # 0x1f20f40
vmulss 0x22f3ad(%rip), %xmm3, %xmm12 # 0x1ef0fe4
vbroadcastss 0x25f29c(%rip), %ymm3 # 0x1f20edc
vpermps %ymm8, %ymm3, %ymm21
vpermps %ymm9, %ymm3, %ymm20
vpermps %ymm10, %ymm3, %ymm22
vpermps %ymm11, %ymm3, %ymm8
kortestb %k1, %k1
vmovss 0x30(%r15,%r14,4), %xmm10
vmovaps %ymm30, 0x5c0(%rsp)
vmovaps %ymm26, 0x5a0(%rsp)
vmovaps %ymm28, 0x500(%rsp)
vmovaps %ymm31, 0x620(%rsp)
vmovaps %ymm29, 0x600(%rsp)
vmovaps %ymm21, 0x560(%rsp)
vmovaps %ymm20, 0x540(%rsp)
vmovaps %ymm22, 0x520(%rsp)
je 0x1cc26e9
vmovaps %xmm10, 0x1a0(%rsp)
vmulps %ymm19, %ymm8, %ymm3
vfmadd213ps %ymm3, %ymm22, %ymm18 # ymm18 = (ymm22 * ymm18) + ymm3
vfmadd213ps %ymm18, %ymm20, %ymm17 # ymm17 = (ymm20 * ymm17) + ymm18
vfmadd213ps %ymm17, %ymm21, %ymm2 # ymm2 = (ymm21 * ymm2) + ymm17
vmulps %ymm16, %ymm8, %ymm3
vfmadd213ps %ymm3, %ymm22, %ymm15 # ymm15 = (ymm22 * ymm15) + ymm3
vfmadd213ps %ymm15, %ymm20, %ymm14 # ymm14 = (ymm20 * ymm14) + ymm15
vmovups 0x1210(%rdx,%rbx), %ymm3
vmovups 0x1694(%rdx,%rbx), %ymm10
vmovups 0x1b18(%rdx,%rbx), %ymm11
vmovaps %xmm12, %xmm16
vmovups 0x1f9c(%rdx,%rbx), %ymm12
vfmadd213ps %ymm14, %ymm21, %ymm25 # ymm25 = (ymm21 * ymm25) + ymm14
vmovaps %ymm8, %ymm15
vmulps %ymm12, %ymm30, %ymm9
vmulps %ymm12, %ymm26, %ymm8
vmulps %ymm12, %ymm15, %ymm12
vfmadd231ps %ymm31, %ymm11, %ymm9 # ymm9 = (ymm11 * ymm31) + ymm9
vfmadd231ps %ymm29, %ymm11, %ymm8 # ymm8 = (ymm11 * ymm29) + ymm8
vfmadd231ps %ymm11, %ymm22, %ymm12 # ymm12 = (ymm22 * ymm11) + ymm12
vmovaps 0x160(%rsp), %ymm19
vfmadd231ps %ymm19, %ymm10, %ymm9 # ymm9 = (ymm10 * ymm19) + ymm9
vfmadd231ps %ymm28, %ymm10, %ymm8 # ymm8 = (ymm10 * ymm28) + ymm8
vfmadd231ps %ymm10, %ymm20, %ymm12 # ymm12 = (ymm20 * ymm10) + ymm12
vmovaps 0x240(%rsp), %ymm17
vfmadd231ps %ymm17, %ymm3, %ymm9 # ymm9 = (ymm3 * ymm17) + ymm9
vmovaps 0x220(%rsp), %ymm18
vfmadd231ps %ymm18, %ymm3, %ymm8 # ymm8 = (ymm3 * ymm18) + ymm8
vmovups 0x1210(%rsi,%rbx), %ymm10
vmovups 0x1b18(%rsi,%rbx), %ymm11
vmovups 0x1f9c(%rsi,%rbx), %ymm13
vfmadd231ps %ymm3, %ymm21, %ymm12 # ymm12 = (ymm21 * ymm3) + ymm12
vmulps %ymm13, %ymm30, %ymm3
vmulps %ymm13, %ymm26, %ymm14
vmovaps %ymm15, 0x200(%rsp)
vmulps %ymm13, %ymm15, %ymm13
vfmadd231ps %ymm31, %ymm11, %ymm3 # ymm3 = (ymm11 * ymm31) + ymm3
vfmadd231ps %ymm29, %ymm11, %ymm14 # ymm14 = (ymm11 * ymm29) + ymm14
vfmadd231ps %ymm11, %ymm22, %ymm13 # ymm13 = (ymm22 * ymm11) + ymm13
vmovups 0x1694(%rsi,%rbx), %ymm11
vfmadd231ps %ymm19, %ymm11, %ymm3 # ymm3 = (ymm11 * ymm19) + ymm3
vfmadd231ps %ymm28, %ymm11, %ymm14 # ymm14 = (ymm11 * ymm28) + ymm14
vfmadd231ps %ymm11, %ymm20, %ymm13 # ymm13 = (ymm20 * ymm11) + ymm13
vfmadd231ps %ymm17, %ymm10, %ymm3 # ymm3 = (ymm10 * ymm17) + ymm3
vfmadd231ps %ymm18, %ymm10, %ymm14 # ymm14 = (ymm10 * ymm18) + ymm14
vfmadd231ps %ymm10, %ymm21, %ymm13 # ymm13 = (ymm21 * ymm10) + ymm13
vbroadcastss 0x25f0d8(%rip), %ymm15 # 0x1f20ec4
vandps %ymm15, %ymm9, %ymm10
vandps %ymm15, %ymm8, %ymm11
vmaxps %ymm11, %ymm10, %ymm10
vandps %ymm15, %ymm12, %ymm11
vmaxps %ymm11, %ymm10, %ymm10
vbroadcastss %xmm16, %ymm11
vmovaps %xmm16, %xmm27
vcmpltps %ymm11, %ymm10, %k2
vmovaps %ymm24, %ymm9 {%k2}
vmovaps %ymm23, %ymm8 {%k2}
vandps %ymm3, %ymm15, %ymm10
vandps %ymm15, %ymm14, %ymm12
vmaxps %ymm12, %ymm10, %ymm10
vandps %ymm15, %ymm13, %ymm12
vmaxps %ymm12, %ymm10, %ymm10
vcmpltps %ymm11, %ymm10, %k2
vmovaps %ymm24, %ymm3 {%k2}
vmovaps %ymm23, %ymm14 {%k2}
vbroadcastss 0x25f068(%rip), %ymm11 # 0x1f20ec0
vxorps %ymm11, %ymm9, %ymm10
vxorps %ymm3, %ymm11, %ymm12
vxorps %xmm26, %xmm26, %xmm26
vfmadd213ps %ymm26, %ymm9, %ymm9 # ymm9 = (ymm9 * ymm9) + ymm26
vfmadd231ps %ymm8, %ymm8, %ymm9 # ymm9 = (ymm8 * ymm8) + ymm9
vrsqrt14ps %ymm9, %ymm11
vbroadcastss 0x22a89b(%rip), %ymm15 # 0x1eec71c
vmulps %ymm15, %ymm9, %ymm9
vmulps %ymm9, %ymm11, %ymm9
vmulps %ymm11, %ymm11, %ymm13
vmulps %ymm9, %ymm13, %ymm9
vbroadcastss 0x22a879(%rip), %ymm16 # 0x1eec718
vfmadd231ps %ymm11, %ymm16, %ymm9 # ymm9 = (ymm16 * ymm11) + ymm9
vmulps %ymm9, %ymm8, %ymm11
vmulps %ymm10, %ymm9, %ymm10
vmulps %ymm26, %ymm9, %ymm13
vfmadd213ps %ymm26, %ymm3, %ymm3 # ymm3 = (ymm3 * ymm3) + ymm26
vfmadd231ps %ymm14, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm14) + ymm3
vrsqrt14ps %ymm3, %ymm8
vmulps %ymm3, %ymm15, %ymm3
vmulps %ymm3, %ymm8, %ymm3
vmulps %ymm8, %ymm8, %ymm9
vmulps %ymm3, %ymm9, %ymm3
vfmadd231ps %ymm8, %ymm16, %ymm3 # ymm3 = (ymm16 * ymm8) + ymm3
vmulps %ymm3, %ymm14, %ymm8
vmulps %ymm3, %ymm12, %ymm9
vmulps %ymm26, %ymm3, %ymm3
vmovaps %ymm11, %ymm12
vfmadd213ps %ymm5, %ymm0, %ymm12 # ymm12 = (ymm0 * ymm12) + ymm5
vmovaps %ymm10, %ymm14
vfmadd213ps %ymm4, %ymm0, %ymm14 # ymm14 = (ymm0 * ymm14) + ymm4
vmovaps %ymm13, %ymm15
vfmadd213ps %ymm25, %ymm0, %ymm15 # ymm15 = (ymm0 * ymm15) + ymm25
vmovaps %ymm8, %ymm16
vfmadd213ps %ymm7, %ymm1, %ymm16 # ymm16 = (ymm1 * ymm16) + ymm7
vfnmadd213ps %ymm5, %ymm0, %ymm11 # ymm11 = -(ymm0 * ymm11) + ymm5
vmovaps %ymm9, %ymm5
vfmadd213ps %ymm6, %ymm1, %ymm5 # ymm5 = (ymm1 * ymm5) + ymm6
vfnmadd213ps %ymm4, %ymm0, %ymm10 # ymm10 = -(ymm0 * ymm10) + ymm4
vmovaps %ymm3, %ymm4
vfmadd213ps %ymm2, %ymm1, %ymm4 # ymm4 = (ymm1 * ymm4) + ymm2
vfnmadd231ps %ymm13, %ymm0, %ymm25 # ymm25 = -(ymm0 * ymm13) + ymm25
vfnmadd213ps %ymm7, %ymm1, %ymm8 # ymm8 = -(ymm1 * ymm8) + ymm7
vfnmadd213ps %ymm6, %ymm1, %ymm9 # ymm9 = -(ymm1 * ymm9) + ymm6
vfnmadd231ps %ymm3, %ymm1, %ymm2 # ymm2 = -(ymm1 * ymm3) + ymm2
vsubps %ymm11, %ymm16, %ymm3
vsubps %ymm10, %ymm5, %ymm6
vsubps %ymm25, %ymm4, %ymm7
vmulps %ymm25, %ymm6, %ymm13
vfmsub231ps %ymm7, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm7) - ymm13
vmulps %ymm7, %ymm11, %ymm7
vfmsub231ps %ymm3, %ymm25, %ymm7 # ymm7 = (ymm25 * ymm3) - ymm7
vmulps %ymm3, %ymm10, %ymm3
vfmsub231ps %ymm6, %ymm11, %ymm3 # ymm3 = (ymm11 * ymm6) - ymm3
vfmadd231ps %ymm7, %ymm26, %ymm3 # ymm3 = (ymm26 * ymm7) + ymm3
vfmadd231ps %ymm13, %ymm26, %ymm3 # ymm3 = (ymm26 * ymm13) + ymm3
vcmpleps %ymm26, %ymm3, %k2
vmovaps %ymm12, %ymm8 {%k2}
vmovaps %ymm14, %ymm9 {%k2}
vmovaps %ymm15, %ymm2 {%k2}
vblendmps %ymm16, %ymm11, %ymm13 {%k2}
vblendmps %ymm5, %ymm10, %ymm14 {%k2}
vblendmps %ymm4, %ymm25, %ymm15 {%k2}
vmovaps %ymm11, %ymm16 {%k2}
vmovaps %ymm10, %ymm5 {%k2}
vmovaps %ymm25, %ymm4 {%k2}
vsubps %ymm8, %ymm16, %ymm6
vsubps %ymm9, %ymm5, %ymm5
vsubps %ymm2, %ymm4, %ymm11
vsubps %ymm13, %ymm8, %ymm7
vsubps %ymm14, %ymm9, %ymm10
vsubps %ymm15, %ymm2, %ymm12
vmulps %ymm8, %ymm11, %ymm4
vfmsub231ps %ymm6, %ymm2, %ymm4 # ymm4 = (ymm2 * ymm6) - ymm4
vmulps %ymm6, %ymm9, %ymm3
vfmsub231ps %ymm5, %ymm8, %ymm3 # ymm3 = (ymm8 * ymm5) - ymm3
vfmadd231ps %ymm4, %ymm26, %ymm3 # ymm3 = (ymm26 * ymm4) + ymm3
vmulps %ymm2, %ymm5, %ymm4
vfmsub231ps %ymm11, %ymm9, %ymm4 # ymm4 = (ymm9 * ymm11) - ymm4
vfmadd231ps %ymm4, %ymm26, %ymm3 # ymm3 = (ymm26 * ymm4) + ymm3
vmulps %ymm13, %ymm12, %ymm16
vfmsub231ps %ymm15, %ymm7, %ymm16 # ymm16 = (ymm7 * ymm15) - ymm16
vmulps %ymm15, %ymm10, %ymm15
vfmsub231ps %ymm12, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm12) - ymm15
vmulps %ymm7, %ymm14, %ymm4
vfmsub231ps %ymm13, %ymm10, %ymm4 # ymm4 = (ymm10 * ymm13) - ymm4
vfmadd231ps %ymm16, %ymm26, %ymm4 # ymm4 = (ymm26 * ymm16) + ymm4
vfmadd231ps %ymm15, %ymm26, %ymm4 # ymm4 = (ymm26 * ymm15) + ymm4
vmaxps %ymm4, %ymm3, %ymm13
vcmpleps %ymm26, %ymm13, %k0 {%k1}
kortestb %k0, %k0
vmovaps 0x1e0(%rsp), %ymm20
vmovaps %ymm17, %ymm22
vmovaps %ymm19, %ymm17
vmovaps %xmm27, %xmm14
je 0x1cc33a0
vmulps %ymm5, %ymm12, %ymm13
vfmsub231ps %ymm11, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm11) - ymm13
vmulps %ymm7, %ymm11, %ymm11
vfmsub231ps %ymm12, %ymm6, %ymm11 # ymm11 = (ymm6 * ymm12) - ymm11
vmulps %ymm6, %ymm10, %ymm10
vfmsub231ps %ymm5, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm5) - ymm10
vxorps %xmm6, %xmm6, %xmm6
vfmadd213ps %ymm10, %ymm11, %ymm6 # ymm6 = (ymm11 * ymm6) + ymm10
vfmadd231ps %ymm26, %ymm13, %ymm6 # ymm6 = (ymm13 * ymm26) + ymm6
vrcp14ps %ymm6, %ymm7
vmovaps %ymm7, %ymm5
vbroadcastss 0x22a678(%rip), %ymm12 # 0x1eec714
vfnmadd213ps %ymm12, %ymm6, %ymm5 # ymm5 = -(ymm6 * ymm5) + ymm12
vfmadd132ps %ymm7, %ymm7, %ymm5 # ymm5 = (ymm5 * ymm7) + ymm7
vmulps %ymm2, %ymm10, %ymm2
vfmadd231ps %ymm11, %ymm9, %ymm2 # ymm2 = (ymm9 * ymm11) + ymm2
vfmadd231ps %ymm13, %ymm8, %ymm2 # ymm2 = (ymm8 * ymm13) + ymm2
vmulps %ymm5, %ymm2, %ymm2
vmovaps 0x1a0(%rsp), %xmm10
vbroadcastss %xmm10, %ymm7
vcmpleps %ymm2, %ymm7, %k1
vcmpleps 0x80(%r15,%r14,4){1to8}, %ymm2, %k1 {%k1}
kandb %k0, %k1, %k0
kortestb %k0, %k0
je 0x1cc33c2
vcmpneqps %ymm26, %ymm6, %k1
ktestb %k1, %k0
vmovaps 0x20(%rsp), %xmm9
je 0x1cc33db
kandb %k1, %k0, %k0
kmovd %k0, %eax
vmulps %ymm5, %ymm3, %ymm3
vmulps %ymm5, %ymm4, %ymm4
vsubps %ymm3, %ymm12, %ymm5
vmovaps %ymm3, %ymm5 {%k2}
vsubps %ymm4, %ymm12, %ymm3
vmovaps %ymm4, %ymm3 {%k2}
vmovaps %ymm3, 0x4c0(%rsp)
movzbl %al, %eax
testw %ax, %ax
vmovaps 0x1c0(%rsp), %ymm21
je 0x1cc26dc
vsubps %ymm0, %ymm1, %ymm1
vfmadd213ps %ymm0, %ymm5, %ymm1 # ymm1 = (ymm5 * ymm1) + ymm0
vaddps %ymm1, %ymm1, %ymm0
vmulps (%r11,%r14,4){1to8}, %ymm0, %ymm0
vcmpnleps %ymm0, %ymm2, %k0
kmovd %k0, %ecx
andb %cl, %al
je 0x1cc26dc
vbroadcastss 0x22e860(%rip), %ymm0 # 0x1ef09cc
vmovaps 0x4c0(%rsp), %ymm1
vfmadd132ps 0x22ee79(%rip){1to8}, %ymm0, %ymm1 # ymm1 = (ymm1 * mem) + ymm0
vmovaps %ymm5, 0x340(%rsp)
vmovaps %ymm1, 0x4c0(%rsp)
vmovaps %ymm1, 0x360(%rsp)
vmovaps %ymm2, 0x380(%rsp)
movl $0x0, 0x3a0(%rsp)
movl %r9d, 0x3a4(%rsp)
vmovaps %xmm9, 0x3b0(%rsp)
vmovaps 0x150(%rsp), %xmm0
vmovaps %xmm0, 0x3c0(%rsp)
vmovaps 0x140(%rsp), %xmm0
vmovaps %xmm0, 0x3d0(%rsp)
vmovaps 0x180(%rsp), %xmm0
vmovaps %xmm0, 0x3e0(%rsp)
movb %al, 0x3f0(%rsp)
movl 0x90(%r15,%r14,4), %ecx
testl %ecx, 0x34(%r13)
je 0x1cc26dc
movq 0x10(%r10), %rcx
cmpq $0x0, 0x10(%rcx)
jne 0x1cc2227
movb $0x1, %dil
cmpq $0x0, 0x48(%r13)
je 0x1cc26de
vaddps 0x25ed11(%rip), %ymm5, %ymm0 # 0x1f20f40
vmovss 0x22a4dd(%rip), %xmm1 # 0x1eec714
vdivss 0x130(%rsp), %xmm1, %xmm1
vbroadcastss %xmm1, %ymm1
vmulps %ymm0, %ymm1, %ymm0
vmovaps %ymm0, 0x400(%rsp)
vmovaps 0x4c0(%rsp), %ymm0
vmovaps %ymm0, 0x420(%rsp)
vmovaps %ymm2, 0x440(%rsp)
movzbl %al, %ecx
tzcntq %rcx, %rdi
movq 0x98(%rsp), %rax
vpbroadcastd %eax, %xmm0
vmovdqa %xmm0, 0x460(%rsp)
vmovaps 0x3c0(%rsp), %xmm0
vmovaps %xmm0, 0x110(%rsp)
movq 0x10(%rsp), %rax
vpbroadcastd %eax, %xmm0
vmovdqa %xmm0, 0x100(%rsp)
movq %rdi, %rax
vmovaps 0x3d0(%rsp), %xmm0
vmovaps %xmm0, 0xf0(%rsp)
vmovaps 0x3e0(%rsp), %xmm0
vmovaps %xmm0, 0xe0(%rsp)
movb $0x1, %dil
vmovaps %xmm14, 0xd0(%rsp)
movq %r8, 0x38(%rsp)
movq %r10, 0x18(%rsp)
movq %r11, 0x30(%rsp)
vmovaps %ymm5, 0x60(%rsp)
vmovaps %ymm2, 0x40(%rsp)
movl %r9d, 0xc(%rsp)
movq %rcx, 0x280(%rsp)
vmovss 0x80(%r15,%r14,4), %xmm11
vmovss 0x440(%rsp,%rax,4), %xmm0
vbroadcastss 0x400(%rsp,%rax,4), %xmm1
movq %rax, 0x480(%rsp)
vbroadcastss 0x420(%rsp,%rax,4), %xmm2
vmovss %xmm0, 0x80(%r15,%r14,4)
movq 0x8(%r10), %rax
vmovss 0x22a3c2(%rip), %xmm0 # 0x1eec714
vsubss %xmm1, %xmm0, %xmm0
vaddss %xmm0, %xmm0, %xmm3
vmulss %xmm3, %xmm1, %xmm4
vfnmadd231ss %xmm0, %xmm0, %xmm4 # xmm4 = -(xmm0 * xmm0) + xmm4
vaddss %xmm1, %xmm1, %xmm5
vmovss 0x22ec7d(%rip), %xmm8 # 0x1ef0fec
vmovaps %xmm8, %xmm6
vfmadd213ss 0x22ec88(%rip), %xmm1, %xmm6 # xmm6 = (xmm1 * xmm6) + mem
vmulss %xmm1, %xmm8, %xmm7
vmulss %xmm7, %xmm1, %xmm7
vfmadd231ss %xmm6, %xmm5, %xmm7 # xmm7 = (xmm5 * xmm6) + xmm7
vmovaps %xmm8, %xmm5
vfmadd213ss 0x22ec62(%rip), %xmm1, %xmm5 # xmm5 = (xmm1 * xmm5) + mem
vmulss 0x22ec52(%rip), %xmm0, %xmm6 # 0x1ef0ff0
vmulss %xmm6, %xmm0, %xmm6
vfmadd231ss %xmm5, %xmm3, %xmm6 # xmm6 = (xmm3 * xmm5) + xmm6
vmulss 0x22e62d(%rip), %xmm0, %xmm0 # 0x1ef09dc
vmulss %xmm1, %xmm1, %xmm3
vfmadd231ss %xmm0, %xmm1, %xmm3 # xmm3 = (xmm1 * xmm0) + xmm3
vmovss 0x22a7c0(%rip), %xmm8 # 0x1eecb80
vmulss %xmm4, %xmm8, %xmm0
vmulss %xmm7, %xmm8, %xmm4
vmulss %xmm6, %xmm8, %xmm5
vmulss %xmm3, %xmm8, %xmm3
vbroadcastss %xmm3, %xmm3
vmulps 0xe0(%rsp), %xmm3, %xmm3
vbroadcastss %xmm5, %xmm5
vfmadd132ps 0xf0(%rsp), %xmm3, %xmm5 # xmm5 = (xmm5 * mem) + xmm3
vbroadcastss %xmm4, %xmm3
vfmadd132ps 0x110(%rsp), %xmm5, %xmm3 # xmm3 = (xmm3 * mem) + xmm5
vbroadcastss %xmm0, %xmm0
vfmadd213ps %xmm3, %xmm9, %xmm0 # xmm0 = (xmm9 * xmm0) + xmm3
vbroadcastss %xmm0, %xmm3
vshufps $0x55, %xmm0, %xmm0, %xmm4 # xmm4 = xmm0[1,1,1,1]
vshufps $0xaa, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[2,2,2,2]
vmovaps %xmm3, 0x2b0(%rsp)
vmovaps %xmm4, 0x2c0(%rsp)
vmovaps %xmm0, 0x2d0(%rsp)
vmovaps %xmm1, 0x2e0(%rsp)
vmovaps %xmm2, 0x2f0(%rsp)
vmovaps 0x100(%rsp), %xmm0
vmovaps %xmm0, 0x300(%rsp)
vmovdqa 0x460(%rsp), %xmm0
vmovdqa %xmm0, 0x310(%rsp)
leaq 0x320(%rsp), %rcx
vpcmpeqd %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, (%rcx)
vbroadcastss (%rax), %xmm0
vmovaps %xmm0, 0x320(%rsp)
vbroadcastss 0x4(%rax), %xmm0
vmovaps %xmm0, 0x330(%rsp)
vmovaps 0x270(%rsp), %xmm0
vmovaps %xmm0, 0x80(%rsp)
leaq 0x80(%rsp), %rcx
movq %rcx, 0xa0(%rsp)
movq 0x18(%r13), %rcx
movq %rcx, 0xa8(%rsp)
movq %rax, 0xb0(%rsp)
movq %r15, 0xb8(%rsp)
leaq 0x2b0(%rsp), %rax
movq %rax, 0xc0(%rsp)
movl $0x4, 0xc8(%rsp)
movq 0x48(%r13), %rax
testq %rax, %rax
movl %edi, 0x8(%rsp)
vmovss %xmm11, 0x120(%rsp)
je 0x1cc2588
leaq 0xa0(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0x120(%rsp), %xmm11
vmovaps 0x1a0(%rsp), %xmm10
vmovaps 0xd0(%rsp), %xmm14
movl 0x8(%rsp), %edi
vmovaps 0x160(%rsp), %ymm17
vmovaps 0x220(%rsp), %ymm18
vmovaps 0x240(%rsp), %ymm22
movl 0xc(%rsp), %r9d
vmovaps 0x20(%rsp), %xmm9
vmovaps 0x1e0(%rsp), %ymm20
vxorps %xmm26, %xmm26, %xmm26
leaq 0x470222(%rip), %rsi # 0x213278c
leaq 0x46ddfb(%rip), %rdx # 0x213036c
vmovaps 0x1c0(%rsp), %ymm21
movq 0x30(%rsp), %r11
movq 0x18(%rsp), %r10
movq 0x38(%rsp), %r8
vmovdqa 0x80(%rsp), %xmm0
vptestmd %xmm0, %xmm0, %k0
kortestb %k0, %k0
je 0x1cc269d
movq 0x10(%r10), %rcx
movq 0x10(%rcx), %rax
testq %rax, %rax
vmovaps 0x60(%rsp), %ymm5
vmovaps 0x40(%rsp), %ymm2
je 0x1cc265c
testb $0x2, (%rcx)
jne 0x1cc25ce
testb $0x40, 0x3e(%r13)
je 0x1cc265c
leaq 0xa0(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0x120(%rsp), %xmm11
vmovaps 0x1a0(%rsp), %xmm10
vmovaps 0xd0(%rsp), %xmm14
movl 0x8(%rsp), %edi
vmovaps 0x160(%rsp), %ymm17
vmovaps 0x220(%rsp), %ymm18
vmovaps 0x240(%rsp), %ymm22
movl 0xc(%rsp), %r9d
vmovaps 0x20(%rsp), %xmm9
vmovaps 0x40(%rsp), %ymm2
vmovaps 0x1e0(%rsp), %ymm20
vmovaps 0x60(%rsp), %ymm5
vxorps %xmm26, %xmm26, %xmm26
leaq 0x47014e(%rip), %rsi # 0x213278c
leaq 0x46dd27(%rip), %rdx # 0x213036c
vmovaps 0x1c0(%rsp), %ymm21
movq 0x30(%rsp), %r11
movq 0x18(%rsp), %r10
movq 0x38(%rsp), %r8
vmovdqa 0x80(%rsp), %xmm0
movq 0xb8(%rsp), %rax
vmovaps 0x80(%rax), %xmm1
vptestmd %xmm0, %xmm0, %k1
vbroadcastss 0x22a4ff(%rip), %xmm1 {%k1} # 0x1eecb84
vmovaps %xmm1, 0x80(%rax)
kortestb %k1, %k1
movq 0x280(%rsp), %rcx
je 0x1cc26b1
jmp 0x1cc26d6
vmovaps 0x60(%rsp), %ymm5
vmovaps 0x40(%rsp), %ymm2
movq 0x280(%rsp), %rcx
vmovss %xmm11, 0x80(%r15,%r14,4)
movq 0x480(%rsp), %rax
btcq %rax, %rcx
tzcntq %rcx, %rax
setae %dil
jae 0x1cc2305
andb $0x1, %dil
jmp 0x1cc26de
xorl %edi, %edi
vmovaps 0x200(%rsp), %ymm8
jmp 0x1cc272a
xorl %edi, %edi
vxorps %xmm26, %xmm26, %xmm26
vmovaps 0x60(%rsp), %ymm5
vmovaps 0x1e0(%rsp), %ymm20
vmovaps 0x40(%rsp), %ymm2
vmovaps 0x1c0(%rsp), %ymm21
vmovaps 0x240(%rsp), %ymm22
vmovaps 0x220(%rsp), %ymm18
vmovaps 0x160(%rsp), %ymm17
vmovaps %xmm12, %xmm14
cmpl $0x9, %r9d
jge 0x1cc276b
vmovaps %ymm21, 0x1c0(%rsp)
testb $0x1, %dil
jne 0x1cc33ee
vmovaps 0x680(%rsp), %ymm0
vcmpleps 0x80(%r15,%r14,4){1to8}, %ymm0, %k0
kmovb %k0, %eax
andl %eax, %r12d
setne 0x7(%rsp)
jne 0x1cc17e5
jmp 0x1cc33ee
vmovaps %ymm8, 0x200(%rsp)
vpbroadcastd %r9d, %ymm0
vmovdqa %ymm0, 0x1a0(%rsp)
vbroadcastss %xmm14, %ymm0
vmovaps %ymm0, 0x280(%rsp)
vbroadcastss %xmm10, %ymm0
vmovaps %ymm0, 0x480(%rsp)
vmovss 0x229f6d(%rip), %xmm0 # 0x1eec714
vdivss 0x130(%rsp), %xmm0, %xmm0
vbroadcastss %xmm0, %ymm0
vmovaps %ymm0, 0x460(%rsp)
movq 0x98(%rsp), %rax
vpbroadcastd %eax, %xmm0
vmovdqa %xmm0, 0x130(%rsp)
movq 0x10(%rsp), %rax
vpbroadcastd %eax, %xmm0
vmovdqa %xmm0, 0x120(%rsp)
movl $0x8, %r13d
vmovaps %ymm5, 0x60(%rsp)
vmovaps %ymm2, 0x40(%rsp)
vpbroadcastd %r13d, %ymm0
vpor 0x298117(%rip), %ymm0, %ymm0 # 0x1f5a920
vpcmpltd 0x1a0(%rsp), %ymm0, %k1
leaq (%rbx,%rdx), %rcx
vmovups (%rcx,%r13,4), %ymm3
vmovups 0x484(%rcx,%r13,4), %ymm10
vmovups 0x908(%rcx,%r13,4), %ymm11
vmovups 0xd8c(%rcx,%r13,4), %ymm12
vmovaps 0x5c0(%rsp), %ymm28
vmulps %ymm12, %ymm28, %ymm5
vmovaps 0x5a0(%rsp), %ymm29
vmulps %ymm12, %ymm29, %ymm4
vmovaps 0x580(%rsp), %ymm1
vmulps %ymm1, %ymm12, %ymm0
vmovaps 0x620(%rsp), %ymm19
vfmadd231ps %ymm19, %ymm11, %ymm5 # ymm5 = (ymm11 * ymm19) + ymm5
vmovaps 0x600(%rsp), %ymm27
vfmadd231ps %ymm27, %ymm11, %ymm4 # ymm4 = (ymm11 * ymm27) + ymm4
vmovaps 0x5e0(%rsp), %ymm16
vfmadd231ps %ymm16, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm16) + ymm0
vfmadd231ps %ymm17, %ymm10, %ymm5 # ymm5 = (ymm10 * ymm17) + ymm5
vmovaps 0x500(%rsp), %ymm25
vfmadd231ps %ymm25, %ymm10, %ymm4 # ymm4 = (ymm10 * ymm25) + ymm4
vmovaps 0x640(%rsp), %ymm9
vfmadd231ps %ymm9, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm9) + ymm0
vfmadd231ps %ymm22, %ymm3, %ymm5 # ymm5 = (ymm3 * ymm22) + ymm5
vfmadd231ps %ymm18, %ymm3, %ymm4 # ymm4 = (ymm3 * ymm18) + ymm4
leaq (%rbx,%rsi), %rax
vmovups (%rax,%r13,4), %ymm2
vmovups 0x484(%rax,%r13,4), %ymm13
vmovaps 0x660(%rsp), %ymm8
vfmadd231ps %ymm8, %ymm3, %ymm0 # ymm0 = (ymm3 * ymm8) + ymm0
vmovups 0x908(%rax,%r13,4), %ymm14
vmovups 0xd8c(%rax,%r13,4), %ymm15
vmulps %ymm15, %ymm28, %ymm7
vmulps %ymm15, %ymm29, %ymm6
vmulps %ymm1, %ymm15, %ymm1
vfmadd231ps %ymm19, %ymm14, %ymm7 # ymm7 = (ymm14 * ymm19) + ymm7
vfmadd231ps %ymm27, %ymm14, %ymm6 # ymm6 = (ymm14 * ymm27) + ymm6
vfmadd231ps %ymm16, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm16) + ymm1
vfmadd231ps %ymm17, %ymm13, %ymm7 # ymm7 = (ymm13 * ymm17) + ymm7
vfmadd231ps %ymm25, %ymm13, %ymm6 # ymm6 = (ymm13 * ymm25) + ymm6
vfmadd231ps %ymm9, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm9) + ymm1
vfmadd231ps %ymm22, %ymm2, %ymm7 # ymm7 = (ymm2 * ymm22) + ymm7
vfmadd231ps %ymm18, %ymm2, %ymm6 # ymm6 = (ymm2 * ymm18) + ymm6
vfmadd231ps %ymm8, %ymm2, %ymm1 # ymm1 = (ymm2 * ymm8) + ymm1
vmaxps %ymm1, %ymm0, %ymm16
vsubps %ymm5, %ymm7, %ymm9
vsubps %ymm4, %ymm6, %ymm8
vmovaps %ymm17, %ymm24
vmulps %ymm9, %ymm4, %ymm17
vmovaps %ymm18, %ymm23
vmulps %ymm8, %ymm5, %ymm18
vsubps %ymm18, %ymm17, %ymm17
vmulps %ymm8, %ymm8, %ymm18
vfmadd231ps %ymm9, %ymm9, %ymm18 # ymm18 = (ymm9 * ymm9) + ymm18
vmulps %ymm16, %ymm16, %ymm16
vmulps %ymm18, %ymm16, %ymm16
vmulps %ymm17, %ymm17, %ymm17
vcmpleps %ymm16, %ymm17, %k1 {%k1}
kortestb %k1, %k1
je 0x1cc3343
vmovaps %ymm23, %ymm16
vmovaps 0x200(%rsp), %ymm23
vmulps %ymm15, %ymm23, %ymm15
vmovaps 0x520(%rsp), %ymm31
vfmadd213ps %ymm15, %ymm31, %ymm14 # ymm14 = (ymm31 * ymm14) + ymm15
vmovaps 0x540(%rsp), %ymm30
vfmadd213ps %ymm14, %ymm30, %ymm13 # ymm13 = (ymm30 * ymm13) + ymm14
vmovaps 0x560(%rsp), %ymm18
vfmadd213ps %ymm13, %ymm18, %ymm2 # ymm2 = (ymm18 * ymm2) + ymm13
vmulps %ymm12, %ymm23, %ymm12
vfmadd213ps %ymm12, %ymm31, %ymm11 # ymm11 = (ymm31 * ymm11) + ymm12
vfmadd213ps %ymm11, %ymm30, %ymm10 # ymm10 = (ymm30 * ymm10) + ymm11
vfmadd213ps %ymm10, %ymm18, %ymm3 # ymm3 = (ymm18 * ymm3) + ymm10
vmovups 0x1210(%rcx,%r13,4), %ymm12
vmovups 0x1694(%rcx,%r13,4), %ymm13
vmovups 0x1b18(%rcx,%r13,4), %ymm14
vmovups 0x1f9c(%rcx,%r13,4), %ymm15
vmulps %ymm15, %ymm28, %ymm11
vmulps %ymm15, %ymm29, %ymm10
vmulps %ymm15, %ymm23, %ymm15
vfmadd231ps %ymm19, %ymm14, %ymm11 # ymm11 = (ymm14 * ymm19) + ymm11
vfmadd231ps %ymm27, %ymm14, %ymm10 # ymm10 = (ymm14 * ymm27) + ymm10
vfmadd231ps %ymm14, %ymm31, %ymm15 # ymm15 = (ymm31 * ymm14) + ymm15
vfmadd231ps %ymm24, %ymm13, %ymm11 # ymm11 = (ymm13 * ymm24) + ymm11
vfmadd231ps %ymm25, %ymm13, %ymm10 # ymm10 = (ymm13 * ymm25) + ymm10
vfmadd231ps %ymm13, %ymm30, %ymm15 # ymm15 = (ymm30 * ymm13) + ymm15
vfmadd231ps %ymm22, %ymm12, %ymm11 # ymm11 = (ymm12 * ymm22) + ymm11
vfmadd231ps %ymm16, %ymm12, %ymm10 # ymm10 = (ymm12 * ymm16) + ymm10
vmovaps %ymm27, %ymm25
vmovaps %ymm19, %ymm27
vmovaps %ymm16, %ymm19
vfmadd231ps %ymm12, %ymm18, %ymm15 # ymm15 = (ymm18 * ymm12) + ymm15
vmovups 0x1210(%rax,%r13,4), %ymm13
vmovups 0x1b18(%rax,%r13,4), %ymm14
vmovups 0x1f9c(%rax,%r13,4), %ymm16
vmulps %ymm16, %ymm28, %ymm17
vmulps %ymm16, %ymm29, %ymm12
vmulps %ymm16, %ymm23, %ymm16
vfmadd231ps %ymm27, %ymm14, %ymm17 # ymm17 = (ymm14 * ymm27) + ymm17
vfmadd231ps %ymm25, %ymm14, %ymm12 # ymm12 = (ymm14 * ymm25) + ymm12
vfmadd231ps %ymm14, %ymm31, %ymm16 # ymm16 = (ymm31 * ymm14) + ymm16
vmovups 0x1694(%rax,%r13,4), %ymm14
vfmadd231ps %ymm24, %ymm14, %ymm17 # ymm17 = (ymm14 * ymm24) + ymm17
vfmadd231ps 0x500(%rsp), %ymm14, %ymm12 # ymm12 = (ymm14 * mem) + ymm12
vfmadd231ps %ymm14, %ymm30, %ymm16 # ymm16 = (ymm30 * ymm14) + ymm16
vfmadd231ps %ymm22, %ymm13, %ymm17 # ymm17 = (ymm13 * ymm22) + ymm17
vfmadd231ps %ymm19, %ymm13, %ymm12 # ymm12 = (ymm13 * ymm19) + ymm12
vfmadd231ps %ymm13, %ymm18, %ymm16 # ymm16 = (ymm18 * ymm13) + ymm16
vbroadcastss 0x25e3dd(%rip), %ymm18 # 0x1f20ec4
vandps %ymm18, %ymm11, %ymm13
vandps %ymm18, %ymm10, %ymm14
vmaxps %ymm14, %ymm13, %ymm13
vandps %ymm18, %ymm15, %ymm14
vmaxps %ymm14, %ymm13, %ymm13
vmovaps 0x280(%rsp), %ymm15
vcmpltps %ymm15, %ymm13, %k2
vmovaps %ymm9, %ymm11 {%k2}
vmovaps %ymm8, %ymm10 {%k2}
vandps %ymm18, %ymm17, %ymm13
vandps %ymm18, %ymm12, %ymm14
vmaxps %ymm14, %ymm13, %ymm13
vandps %ymm18, %ymm16, %ymm14
vmaxps %ymm14, %ymm13, %ymm13
vcmpltps %ymm15, %ymm13, %k2
vmovaps %ymm9, %ymm17 {%k2}
vmovaps %ymm8, %ymm12 {%k2}
vbroadcastss 0x25e369(%rip), %ymm9 # 0x1f20ec0
vxorps %ymm9, %ymm11, %ymm8
vxorps %ymm9, %ymm17, %ymm9
vfmadd213ps %ymm26, %ymm11, %ymm11 # ymm11 = (ymm11 * ymm11) + ymm26
vfmadd231ps %ymm10, %ymm10, %ymm11 # ymm11 = (ymm10 * ymm10) + ymm11
vrsqrt14ps %ymm11, %ymm13
vbroadcastss 0x229ba0(%rip), %ymm15 # 0x1eec71c
vmulps %ymm15, %ymm11, %ymm11
vmulps %ymm11, %ymm13, %ymm11
vmulps %ymm13, %ymm13, %ymm14
vmulps %ymm11, %ymm14, %ymm14
vbroadcastss 0x229b7e(%rip), %ymm16 # 0x1eec718
vfmadd231ps %ymm13, %ymm16, %ymm14 # ymm14 = (ymm16 * ymm13) + ymm14
vmulps %ymm14, %ymm10, %ymm11
vmulps %ymm8, %ymm14, %ymm10
vmulps %ymm26, %ymm14, %ymm13
vfmadd213ps %ymm26, %ymm17, %ymm17 # ymm17 = (ymm17 * ymm17) + ymm26
vfmadd231ps %ymm12, %ymm12, %ymm17 # ymm17 = (ymm12 * ymm12) + ymm17
vrsqrt14ps %ymm17, %ymm8
vmulps %ymm15, %ymm17, %ymm14
vmulps %ymm14, %ymm8, %ymm14
vmulps %ymm8, %ymm8, %ymm15
vmulps %ymm14, %ymm15, %ymm14
vfmadd231ps %ymm8, %ymm16, %ymm14 # ymm14 = (ymm16 * ymm8) + ymm14
vmulps %ymm14, %ymm12, %ymm8
vmulps %ymm9, %ymm14, %ymm9
vmulps %ymm26, %ymm14, %ymm12
vmovaps %ymm11, %ymm14
vfmadd213ps %ymm5, %ymm0, %ymm14 # ymm14 = (ymm0 * ymm14) + ymm5
vmovaps %ymm10, %ymm15
vfmadd213ps %ymm4, %ymm0, %ymm15 # ymm15 = (ymm0 * ymm15) + ymm4
vmovaps %ymm13, %ymm16
vfmadd213ps %ymm3, %ymm0, %ymm16 # ymm16 = (ymm0 * ymm16) + ymm3
vmovaps %ymm8, %ymm17
vfmadd213ps %ymm7, %ymm1, %ymm17 # ymm17 = (ymm1 * ymm17) + ymm7
vfnmadd213ps %ymm5, %ymm0, %ymm11 # ymm11 = -(ymm0 * ymm11) + ymm5
vmovaps %ymm9, %ymm5
vfmadd213ps %ymm6, %ymm1, %ymm5 # ymm5 = (ymm1 * ymm5) + ymm6
vfnmadd213ps %ymm4, %ymm0, %ymm10 # ymm10 = -(ymm0 * ymm10) + ymm4
vmovaps %ymm12, %ymm4
vfmadd213ps %ymm2, %ymm1, %ymm4 # ymm4 = (ymm1 * ymm4) + ymm2
vfnmadd231ps %ymm13, %ymm0, %ymm3 # ymm3 = -(ymm0 * ymm13) + ymm3
vfnmadd213ps %ymm7, %ymm1, %ymm8 # ymm8 = -(ymm1 * ymm8) + ymm7
vfnmadd213ps %ymm6, %ymm1, %ymm9 # ymm9 = -(ymm1 * ymm9) + ymm6
vfnmadd231ps %ymm12, %ymm1, %ymm2 # ymm2 = -(ymm1 * ymm12) + ymm2
vsubps %ymm11, %ymm17, %ymm6
vsubps %ymm10, %ymm5, %ymm7
vsubps %ymm3, %ymm4, %ymm12
vmulps %ymm3, %ymm7, %ymm13
vfmsub231ps %ymm12, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm12) - ymm13
vmulps %ymm11, %ymm12, %ymm12
vfmsub231ps %ymm6, %ymm3, %ymm12 # ymm12 = (ymm3 * ymm6) - ymm12
vmulps %ymm6, %ymm10, %ymm6
vfmsub231ps %ymm7, %ymm11, %ymm6 # ymm6 = (ymm11 * ymm7) - ymm6
vfmadd231ps %ymm12, %ymm26, %ymm6 # ymm6 = (ymm26 * ymm12) + ymm6
vfmadd231ps %ymm13, %ymm26, %ymm6 # ymm6 = (ymm26 * ymm13) + ymm6
vcmpleps %ymm26, %ymm6, %k2
vmovaps %ymm14, %ymm8 {%k2}
vmovaps %ymm15, %ymm9 {%k2}
vmovaps %ymm16, %ymm2 {%k2}
vblendmps %ymm17, %ymm11, %ymm13 {%k2}
vblendmps %ymm5, %ymm10, %ymm14 {%k2}
vblendmps %ymm4, %ymm3, %ymm15 {%k2}
vmovaps %ymm11, %ymm17 {%k2}
vmovaps %ymm10, %ymm5 {%k2}
vmovaps %ymm3, %ymm4 {%k2}
vsubps %ymm8, %ymm17, %ymm6
vsubps %ymm9, %ymm5, %ymm5
vsubps %ymm2, %ymm4, %ymm11
vsubps %ymm13, %ymm8, %ymm7
vsubps %ymm14, %ymm9, %ymm10
vsubps %ymm15, %ymm2, %ymm12
vmulps %ymm8, %ymm11, %ymm4
vfmsub231ps %ymm6, %ymm2, %ymm4 # ymm4 = (ymm2 * ymm6) - ymm4
vmulps %ymm6, %ymm9, %ymm3
vfmsub231ps %ymm5, %ymm8, %ymm3 # ymm3 = (ymm8 * ymm5) - ymm3
vfmadd231ps %ymm4, %ymm26, %ymm3 # ymm3 = (ymm26 * ymm4) + ymm3
vmulps %ymm2, %ymm5, %ymm4
vfmsub231ps %ymm11, %ymm9, %ymm4 # ymm4 = (ymm9 * ymm11) - ymm4
vfmadd231ps %ymm4, %ymm26, %ymm3 # ymm3 = (ymm26 * ymm4) + ymm3
vmulps %ymm13, %ymm12, %ymm16
vfmsub231ps %ymm15, %ymm7, %ymm16 # ymm16 = (ymm7 * ymm15) - ymm16
vmulps %ymm15, %ymm10, %ymm15
vfmsub231ps %ymm12, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm12) - ymm15
vmulps %ymm7, %ymm14, %ymm4
vfmsub231ps %ymm13, %ymm10, %ymm4 # ymm4 = (ymm10 * ymm13) - ymm4
vfmadd231ps %ymm16, %ymm26, %ymm4 # ymm4 = (ymm26 * ymm16) + ymm4
vfmadd231ps %ymm15, %ymm26, %ymm4 # ymm4 = (ymm26 * ymm15) + ymm4
vmaxps %ymm4, %ymm3, %ymm13
vcmpleps %ymm26, %ymm13, %k0 {%k1}
kortestb %k0, %k0
vmovaps %ymm19, %ymm18
je 0x1cc3378
vmulps %ymm5, %ymm12, %ymm13
vfmsub231ps %ymm11, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm11) - ymm13
vmulps %ymm7, %ymm11, %ymm11
vfmsub231ps %ymm12, %ymm6, %ymm11 # ymm11 = (ymm6 * ymm12) - ymm11
vmulps %ymm6, %ymm10, %ymm10
vfmsub231ps %ymm5, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm5) - ymm10
vxorps %xmm6, %xmm6, %xmm6
vfmadd213ps %ymm10, %ymm11, %ymm6 # ymm6 = (ymm11 * ymm6) + ymm10
vfmadd231ps %ymm26, %ymm13, %ymm6 # ymm6 = (ymm13 * ymm26) + ymm6
vrcp14ps %ymm6, %ymm7
vmovaps %ymm7, %ymm5
vfnmadd213ps 0x22998d(%rip){1to8}, %ymm6, %ymm5 # ymm5 = -(ymm6 * ymm5) + mem
vfmadd132ps %ymm7, %ymm7, %ymm5 # ymm5 = (ymm5 * ymm7) + ymm7
vmulps %ymm2, %ymm10, %ymm2
vfmadd231ps %ymm11, %ymm9, %ymm2 # ymm2 = (ymm9 * ymm11) + ymm2
vfmadd231ps %ymm13, %ymm8, %ymm2 # ymm2 = (ymm8 * ymm13) + ymm2
vmulps %ymm5, %ymm2, %ymm2
vcmpgeps 0x480(%rsp), %ymm2, %k1
vcmpleps 0x80(%r15,%r14,4){1to8}, %ymm2, %k1 {%k1}
kandb %k0, %k1, %k0
kortestb %k0, %k0
je 0x1cc3378
vcmpneqps %ymm26, %ymm6, %k1
ktestb %k1, %k0
vmovaps 0x20(%rsp), %xmm9
vmovaps 0x160(%rsp), %ymm17
je 0x1cc3399
kandb %k1, %k0, %k0
kmovd %k0, %eax
vmulps %ymm5, %ymm3, %ymm3
vmulps %ymm5, %ymm4, %ymm4
vbroadcastss 0x22991e(%rip), %ymm5 # 0x1eec714
vsubps %ymm3, %ymm5, %ymm20
vmovaps %ymm3, %ymm20 {%k2}
vsubps %ymm4, %ymm5, %ymm3
vmovaps %ymm4, %ymm3 {%k2}
vmovaps %ymm3, 0x4a0(%rsp)
movzbl %al, %eax
vmovaps %ymm2, %ymm21
vmovaps 0x60(%rsp), %ymm5
vmovaps 0x40(%rsp), %ymm2
testw %ax, %ax
je 0x1cc3366
vsubps %ymm0, %ymm1, %ymm1
vfmadd213ps %ymm0, %ymm20, %ymm1 # ymm1 = (ymm20 * ymm1) + ymm0
vaddps %ymm1, %ymm1, %ymm0
vmulps (%r11,%r14,4){1to8}, %ymm0, %ymm0
vcmpnleps %ymm0, %ymm21, %k0
kmovd %k0, %ecx
andb %cl, %al
je 0x1cc3366
movl %edi, 0x8(%rsp)
vbroadcastss 0x22db64(%rip), %ymm0 # 0x1ef09cc
vmovaps 0x4a0(%rsp), %ymm1
vfmadd132ps 0x22e17d(%rip){1to8}, %ymm0, %ymm1 # ymm1 = (ymm1 * mem) + ymm0
vmovaps %ymm20, 0x340(%rsp)
vmovaps %ymm1, 0x4a0(%rsp)
vmovaps %ymm1, 0x360(%rsp)
vmovaps %ymm21, 0x380(%rsp)
movl %r13d, 0x3a0(%rsp)
movl %r9d, 0x3a4(%rsp)
vmovaps %xmm9, 0x3b0(%rsp)
vmovaps 0x150(%rsp), %xmm0
vmovaps %xmm0, 0x3c0(%rsp)
vmovaps 0x140(%rsp), %xmm0
vmovaps %xmm0, 0x3d0(%rsp)
vmovdqa 0x180(%rsp), %xmm0
vmovdqa %xmm0, 0x3e0(%rsp)
movb %al, 0x3f0(%rsp)
movq (%r10), %rcx
movq 0x1e8(%rcx), %rcx
movq 0x98(%rsp), %rdi
movq (%rcx,%rdi,8), %rdi
movl 0x90(%r15,%r14,4), %ecx
movq %rdi, 0x10(%rsp)
testl %ecx, 0x34(%rdi)
je 0x1cc335d
movq 0x10(%r10), %rcx
cmpq $0x0, 0x10(%rcx)
movl 0x8(%rsp), %edi
jne 0x1cc2f40
movq 0x10(%rsp), %rcx
cmpq $0x0, 0x48(%rcx)
movb $0x1, %cl
je 0x1cc3363
movl %r9d, 0xc(%rsp)
movq %r11, 0x30(%rsp)
movq %r8, 0x38(%rsp)
vmovaps %ymm20, 0x1e0(%rsp)
vaddps 0x25dfdf(%rip), %ymm20, %ymm0 # 0x1f20f40
vcvtsi2ss %r13d, %xmm19, %xmm1
vbroadcastss %xmm1, %ymm1
vaddps %ymm0, %ymm1, %ymm0
vmulps 0x460(%rsp), %ymm0, %ymm0
vmovaps %ymm0, 0x400(%rsp)
vmovaps 0x4a0(%rsp), %ymm0
vmovaps %ymm0, 0x420(%rsp)
vmovaps %ymm21, 0x1c0(%rsp)
vmovaps %ymm21, 0x440(%rsp)
movzbl %al, %esi
vmovaps 0x3c0(%rsp), %xmm0
vmovaps %xmm0, 0xd0(%rsp)
tzcntq %rsi, %rdi
vmovaps 0x3d0(%rsp), %xmm0
vmovaps %xmm0, 0x4f0(%rsp)
vmovaps 0x3e0(%rsp), %xmm0
vmovaps %xmm0, 0x4e0(%rsp)
movb $0x1, %al
movl %eax, 0xe0(%rsp)
movq %r10, 0x18(%rsp)
vmovss 0x80(%r15,%r14,4), %xmm10
vmovss 0x440(%rsp,%rdi,4), %xmm0
vbroadcastss 0x400(%rsp,%rdi,4), %xmm1
vbroadcastss 0x420(%rsp,%rdi,4), %xmm2
vmovss %xmm0, 0x80(%r15,%r14,4)
movq 0x8(%r10), %rax
vmovss 0x2296e7(%rip), %xmm0 # 0x1eec714
vsubss %xmm1, %xmm0, %xmm0
vaddss %xmm0, %xmm0, %xmm3
vmulss %xmm3, %xmm1, %xmm4
vfnmadd231ss %xmm0, %xmm0, %xmm4 # xmm4 = -(xmm0 * xmm0) + xmm4
vaddss %xmm1, %xmm1, %xmm5
vmovss 0x22dfa2(%rip), %xmm8 # 0x1ef0fec
vmovaps %xmm8, %xmm6
vfmadd213ss 0x22dfad(%rip), %xmm1, %xmm6 # xmm6 = (xmm1 * xmm6) + mem
vmulss %xmm1, %xmm8, %xmm7
vmulss %xmm7, %xmm1, %xmm7
vfmadd231ss %xmm6, %xmm5, %xmm7 # xmm7 = (xmm5 * xmm6) + xmm7
vmovaps %xmm8, %xmm5
vfmadd213ss 0x22df87(%rip), %xmm1, %xmm5 # xmm5 = (xmm1 * xmm5) + mem
vmulss 0x22df77(%rip), %xmm0, %xmm6 # 0x1ef0ff0
vmulss %xmm6, %xmm0, %xmm6
vfmadd231ss %xmm5, %xmm3, %xmm6 # xmm6 = (xmm3 * xmm5) + xmm6
vmulss 0x22d952(%rip), %xmm0, %xmm0 # 0x1ef09dc
vmulss %xmm1, %xmm1, %xmm3
vfmadd231ss %xmm0, %xmm1, %xmm3 # xmm3 = (xmm1 * xmm0) + xmm3
vmovss 0x229ae5(%rip), %xmm8 # 0x1eecb80
vmulss %xmm4, %xmm8, %xmm0
vmulss %xmm7, %xmm8, %xmm4
vmulss %xmm6, %xmm8, %xmm5
vmulss %xmm3, %xmm8, %xmm3
vbroadcastss %xmm3, %xmm3
vmulps 0x4e0(%rsp), %xmm3, %xmm3
vbroadcastss %xmm5, %xmm5
vfmadd132ps 0x4f0(%rsp), %xmm3, %xmm5 # xmm5 = (xmm5 * mem) + xmm3
vbroadcastss %xmm4, %xmm3
vfmadd132ps 0xd0(%rsp), %xmm5, %xmm3 # xmm3 = (xmm3 * mem) + xmm5
vbroadcastss %xmm0, %xmm0
vfmadd213ps %xmm3, %xmm9, %xmm0 # xmm0 = (xmm9 * xmm0) + xmm3
vbroadcastss %xmm0, %xmm3
vshufps $0x55, %xmm0, %xmm0, %xmm4 # xmm4 = xmm0[1,1,1,1]
vshufps $0xaa, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[2,2,2,2]
vmovaps %xmm3, 0x2b0(%rsp)
vmovaps %xmm4, 0x2c0(%rsp)
vmovaps %xmm0, 0x2d0(%rsp)
vmovaps %xmm1, 0x2e0(%rsp)
vmovaps %xmm2, 0x2f0(%rsp)
vmovaps 0x120(%rsp), %xmm0
vmovaps %xmm0, 0x300(%rsp)
vmovdqa 0x130(%rsp), %xmm0
vmovdqa %xmm0, 0x310(%rsp)
leaq 0x320(%rsp), %rcx
vpcmpeqd %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, (%rcx)
vbroadcastss (%rax), %xmm0
vmovaps %xmm0, 0x320(%rsp)
vbroadcastss 0x4(%rax), %xmm0
vmovaps %xmm0, 0x330(%rsp)
vmovaps 0x270(%rsp), %xmm0
vmovaps %xmm0, 0x80(%rsp)
leaq 0x80(%rsp), %rcx
movq %rcx, 0xa0(%rsp)
movq 0x10(%rsp), %rdx
movq 0x18(%rdx), %rcx
movq %rcx, 0xa8(%rsp)
movq %rax, 0xb0(%rsp)
movq %r15, 0xb8(%rsp)
leaq 0x2b0(%rsp), %rax
movq %rax, 0xc0(%rsp)
movl $0x4, 0xc8(%rsp)
movq 0x48(%rdx), %rax
testq %rax, %rax
movq %rsi, 0x110(%rsp)
movq %rdi, 0x100(%rsp)
vmovss %xmm10, 0xf0(%rsp)
je 0x1cc321f
leaq 0xa0(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0xf0(%rsp), %xmm10
movq 0x100(%rsp), %rdi
movq 0x110(%rsp), %rsi
vmovaps 0x20(%rsp), %xmm9
movq 0x18(%rsp), %r10
vmovdqa 0x80(%rsp), %xmm0
vptestmd %xmm0, %xmm0, %k0
kortestb %k0, %k0
je 0x1cc32bd
movq 0x10(%r10), %rcx
movq 0x10(%rcx), %rax
testq %rax, %rax
je 0x1cc3286
testb $0x2, (%rcx)
jne 0x1cc3255
movq 0x10(%rsp), %rcx
testb $0x40, 0x3e(%rcx)
je 0x1cc3286
leaq 0xa0(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0xf0(%rsp), %xmm10
movq 0x100(%rsp), %rdi
movq 0x110(%rsp), %rsi
vmovaps 0x20(%rsp), %xmm9
movq 0x18(%rsp), %r10
vmovdqa 0x80(%rsp), %xmm0
movq 0xb8(%rsp), %rax
vmovaps 0x80(%rax), %xmm1
vptestmd %xmm0, %xmm0, %k1
vbroadcastss 0x2298d5(%rip), %xmm1 {%k1} # 0x1eecb84
vmovaps %xmm1, 0x80(%rax)
kortestb %k1, %k1
jne 0x1cc32e0
vmovss %xmm10, 0x80(%r15,%r14,4)
btcq %rdi, %rsi
tzcntq %rsi, %rdi
setae %al
movl %eax, 0xe0(%rsp)
jae 0x1cc2ff0
movl 0xe0(%rsp), %ecx
andb $0x1, %cl
movq 0x38(%rsp), %r8
movq 0x30(%rsp), %r11
leaq 0x46d071(%rip), %rdx # 0x213036c
leaq 0x46f48a(%rip), %rsi # 0x213278c
vxorps %xmm26, %xmm26, %xmm26
vmovaps 0x60(%rsp), %ymm5
vmovaps 0x1e0(%rsp), %ymm20
vmovaps 0x40(%rsp), %ymm2
vmovaps 0x1c0(%rsp), %ymm21
movl 0xc(%rsp), %r9d
vmovaps 0x240(%rsp), %ymm22
vmovaps 0x220(%rsp), %ymm18
vmovaps 0x160(%rsp), %ymm17
jmp 0x1cc335f
vmovaps 0x60(%rsp), %ymm5
vmovaps 0x40(%rsp), %ymm2
vmovaps %ymm23, %ymm18
vmovaps %ymm24, %ymm17
jmp 0x1cc3366
xorl %ecx, %ecx
movl 0x8(%rsp), %edi
orb %cl, %dil
addq $0x8, %r13
cmpl %r13d, %r9d
jg 0x1cc27fb
jmp 0x1cc2730
xorl %eax, %eax
vmovaps 0x60(%rsp), %ymm5
vmovaps 0x40(%rsp), %ymm2
vmovaps 0x20(%rsp), %xmm9
vmovaps 0x160(%rsp), %ymm17
jmp 0x1cc2e2a
xorl %eax, %eax
jmp 0x1cc2e1e
xorl %eax, %eax
vmovaps 0x60(%rsp), %ymm5
vmovaps 0x40(%rsp), %ymm2
vmovaps 0x20(%rsp), %xmm9
vmovaps 0x1a0(%rsp), %xmm10
jmp 0x1cc212b
xorl %eax, %eax
vmovaps 0x60(%rsp), %ymm5
vmovaps 0x40(%rsp), %ymm2
vmovaps 0x20(%rsp), %xmm9
jmp 0x1cc212b
xorl %eax, %eax
vmovaps 0x60(%rsp), %ymm5
vmovaps 0x40(%rsp), %ymm2
jmp 0x1cc212b
movb 0x7(%rsp), %al
andb $0x1, %al
leaq -0x28(%rbp), %rsp
popq %rbx
popq %r12
popq %r13
popq %r14
popq %r15
popq %rbp
vzeroupper
retq
|
/embree[P]embree/kernels/geometry/curveNi_intersector.h
|
void embree::avx512::CurveNiIntersectorK<8, 8>::intersect_t<embree::avx512::RibbonCurve1IntersectorK<embree::CatmullRomCurveT, 8, 8>, embree::avx512::Intersect1KEpilogMU<8, 8, true>>(embree::avx512::CurvePrecalculationsK<8>&, embree::RayHitK<8>&, unsigned long, embree::RayQueryContext*, embree::CurveNi<8> const&)
|
static __forceinline void intersect_t(Precalculations& pre, RayHitK<K>& ray, const size_t k, RayQueryContext* context, const Primitive& prim)
{
vfloat<M> tNear;
vbool<M> valid = intersect(ray,k,prim,tNear);
const size_t N = prim.N;
size_t mask = movemask(valid);
while (mask)
{
const size_t i = bscf(mask);
STAT3(normal.trav_prims,1,1,1);
const unsigned int geomID = prim.geomID(N);
const unsigned int primID = prim.primID(N)[i];
const CurveGeometry* geom = context->scene->get<CurveGeometry>(geomID);
Vec3ff a0,a1,a2,a3; geom->gather(a0,a1,a2,a3,geom->curve(primID));
size_t mask1 = mask;
const size_t i1 = bscf(mask1);
if (mask) {
const unsigned int primID1 = prim.primID(N)[i1];
geom->prefetchL1_vertices(geom->curve(primID1));
if (mask1) {
const size_t i2 = bsf(mask1);
const unsigned int primID2 = prim.primID(N)[i2];
geom->prefetchL2_vertices(geom->curve(primID2));
}
}
Intersector().intersect(pre,ray,k,context,geom,primID,a0,a1,a2,a3,Epilog(ray,k,context,geomID,primID));
mask &= movemask(tNear <= vfloat<M>(ray.tfar[k]));
}
}
|
pushq %rbp
movq %rsp, %rbp
pushq %r15
pushq %r14
pushq %r13
pushq %r12
pushq %rbx
andq $-0x20, %rsp
subq $0x7a0, %rsp # imm = 0x7A0
movq %rcx, %r10
movq %rdx, %r15
movq %rdi, 0xa8(%rsp)
movzbl 0x1(%r8), %ecx
leaq (%rcx,%rcx,4), %rax
leaq (%rax,%rax,4), %rdx
vbroadcastss 0x12(%r8,%rdx), %xmm0
vmovss (%rsi,%r15,4), %xmm1
vmovss 0x80(%rsi,%r15,4), %xmm2
vinsertps $0x10, 0x20(%rsi,%r15,4), %xmm1, %xmm1 # xmm1 = xmm1[0],mem[0],xmm1[2,3]
vinsertps $0x20, 0x40(%rsi,%r15,4), %xmm1, %xmm1 # xmm1 = xmm1[0,1],mem[0],xmm1[3]
vinsertps $0x10, 0xa0(%rsi,%r15,4), %xmm2, %xmm2 # xmm2 = xmm2[0],mem[0],xmm2[2,3]
vinsertps $0x20, 0xc0(%rsi,%r15,4), %xmm2, %xmm2 # xmm2 = xmm2[0,1],mem[0],xmm2[3]
vsubps 0x6(%r8,%rdx), %xmm1, %xmm1
vmulps %xmm1, %xmm0, %xmm3
vmulps %xmm2, %xmm0, %xmm0
vpmovsxbd 0x6(%r8,%rcx,4), %ymm1
vpmovsxbd 0x6(%r8,%rax), %ymm2
vcvtdq2ps %ymm1, %ymm5
vcvtdq2ps %ymm2, %ymm6
leaq (%rcx,%rcx,2), %rdx
vpmovsxbd 0x6(%r8,%rdx,2), %ymm1
vcvtdq2ps %ymm1, %ymm4
leaq (%rcx,%rax,2), %rdi
vpmovsxbd 0x6(%r8,%rdi), %ymm1
leal (,%rdx,4), %edi
vpmovsxbd 0x6(%r8,%rdi), %ymm2
vcvtdq2ps %ymm1, %ymm7
vcvtdq2ps %ymm2, %ymm8
addq %rcx, %rdi
vpmovsxbd 0x6(%r8,%rdi), %ymm1
vcvtdq2ps %ymm1, %ymm9
leaq (%rcx,%rcx,8), %r9
leal (%r9,%r9), %edi
vpmovsxbd 0x6(%r8,%rdi), %ymm1
vcvtdq2ps %ymm1, %ymm10
addq %rcx, %rdi
vpmovsxbd 0x6(%r8,%rdi), %ymm1
vcvtdq2ps %ymm1, %ymm11
shll $0x2, %eax
vpmovsxbd 0x6(%r8,%rax), %ymm1
vcvtdq2ps %ymm1, %ymm12
vbroadcastss %xmm0, %ymm13
vbroadcastss 0x24f1ee(%rip), %ymm15 # 0x1f12704
vbroadcastss 0x25d9bc(%rip), %ymm16 # 0x1f20edc
vpermps %ymm0, %ymm15, %ymm14
vpermps %ymm0, %ymm16, %ymm0
vmulps %ymm4, %ymm0, %ymm2
vmulps %ymm0, %ymm9, %ymm1
vmulps %ymm0, %ymm12, %ymm0
vfmadd231ps %ymm6, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm6) + ymm2
vfmadd231ps %ymm8, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm8) + ymm1
vfmadd231ps %ymm14, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm14) + ymm0
vfmadd231ps %ymm5, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm5) + ymm2
vfmadd231ps %ymm7, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm7) + ymm1
vfmadd231ps %ymm13, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm13) + ymm0
vbroadcastss %xmm3, %ymm13
vpermps %ymm3, %ymm15, %ymm14
vpermps %ymm3, %ymm16, %ymm3
vmulps %ymm4, %ymm3, %ymm15
vmulps %ymm3, %ymm9, %ymm4
vmulps %ymm3, %ymm12, %ymm3
vfmadd231ps %ymm6, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm6) + ymm15
vfmadd231ps %ymm8, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm8) + ymm4
vfmadd231ps %ymm11, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm11) + ymm3
vfmadd231ps %ymm5, %ymm13, %ymm15 # ymm15 = (ymm13 * ymm5) + ymm15
vfmadd231ps %ymm7, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm7) + ymm4
vbroadcastss 0x25d931(%rip), %ymm7 # 0x1f20ec4
vfmadd231ps %ymm10, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm10) + ymm3
vandps %ymm7, %ymm2, %ymm5
vbroadcastss 0x22da43(%rip), %ymm6 # 0x1ef0fe8
vcmpltps %ymm6, %ymm5, %k1
vmovaps %ymm6, %ymm2 {%k1}
vandps %ymm7, %ymm1, %ymm5
vcmpltps %ymm6, %ymm5, %k1
vmovaps %ymm6, %ymm1 {%k1}
vandps %ymm7, %ymm0, %ymm5
vcmpltps %ymm6, %ymm5, %k1
vmovaps %ymm6, %ymm0 {%k1}
vrcp14ps %ymm2, %ymm5
vbroadcastss 0x229131(%rip), %ymm6 # 0x1eec714
vfnmadd213ps %ymm6, %ymm5, %ymm2 # ymm2 = -(ymm5 * ymm2) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm2 # ymm2 = (ymm2 * ymm5) + ymm5
vrcp14ps %ymm1, %ymm5
vfnmadd213ps %ymm6, %ymm5, %ymm1 # ymm1 = -(ymm5 * ymm1) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm1 # ymm1 = (ymm1 * ymm5) + ymm5
vrcp14ps %ymm0, %ymm5
vfnmadd213ps %ymm6, %ymm5, %ymm0 # ymm0 = -(ymm5 * ymm0) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm0 # ymm0 = (ymm0 * ymm5) + ymm5
leaq (,%rcx,8), %rdi
subq %rcx, %rdi
vpmovsxwd 0x6(%r8,%rdi), %ymm5
vcvtdq2ps %ymm5, %ymm5
vsubps %ymm15, %ymm5, %ymm5
vmulps %ymm5, %ymm2, %ymm5
vpmovsxwd 0x6(%r8,%r9), %ymm6
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm15, %ymm6, %ymm6
leaq (%rcx,%rcx), %rdi
addq %rcx, %rax
shlq $0x3, %rdx
subq %rcx, %rdx
vpbroadcastd %ecx, %ymm7
shll $0x4, %ecx
vpmovsxwd 0x6(%r8,%rcx), %ymm8
vmulps %ymm6, %ymm2, %ymm2
subq %rdi, %rcx
vpmovsxwd 0x6(%r8,%rcx), %ymm6
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm4, %ymm6, %ymm6
vmulps %ymm6, %ymm1, %ymm6
vcvtdq2ps %ymm8, %ymm8
vsubps %ymm4, %ymm8, %ymm4
vmulps %ymm4, %ymm1, %ymm1
vpmovsxwd 0x6(%r8,%rax), %ymm4
vcvtdq2ps %ymm4, %ymm4
vsubps %ymm3, %ymm4, %ymm4
vmulps %ymm0, %ymm4, %ymm4
vpmovsxwd 0x6(%r8,%rdx), %ymm8
vcvtdq2ps %ymm8, %ymm8
vsubps %ymm3, %ymm8, %ymm3
vmulps %ymm3, %ymm0, %ymm0
vpminsd %ymm2, %ymm5, %ymm3
vpminsd %ymm1, %ymm6, %ymm8
vmaxps %ymm8, %ymm3, %ymm3
vpminsd %ymm0, %ymm4, %ymm8
vmaxps 0x60(%rsi,%r15,4){1to8}, %ymm8, %ymm8
vmaxps %ymm8, %ymm3, %ymm3
vmulps 0x25c83d(%rip){1to8}, %ymm3, %ymm3 # 0x1f1ff10
vpmaxsd %ymm2, %ymm5, %ymm2
vpmaxsd %ymm1, %ymm6, %ymm1
vminps %ymm1, %ymm2, %ymm1
vpmaxsd %ymm0, %ymm4, %ymm0
vminps 0x100(%rsi,%r15,4){1to8}, %ymm0, %ymm0
vminps %ymm0, %ymm1, %ymm0
vmulps 0x25c818(%rip){1to8}, %ymm0, %ymm0 # 0x1f1ff14
vpcmpgtd 0x29721a(%rip), %ymm7, %k0 # 0x1f5a920
vmovaps %ymm3, 0x760(%rsp)
vcmpleps %ymm0, %ymm3, %k1
ktestb %k0, %k1
je 0x1cc5903
kandb %k0, %k1, %k0
kmovd %k0, %eax
movzbl %al, %r13d
leaq (%r15,%r15,2), %rax
shlq $0x4, %rax
movq 0xa8(%rsp), %rcx
addq %rcx, %rax
addq $0x20, %rax
movq %rax, 0x218(%rsp)
leaq 0x500(%rsp), %rax
leaq 0xe0(%rax), %rax
movq %rax, 0x118(%rsp)
movl $0x1, %eax
shlxl %r15d, %eax, %eax
kmovd %eax, %k0
vpmovm2d %k0, %ymm0
vmovdqa %ymm0, 0x4c0(%rsp)
leaq 0x46cbe6(%rip), %r12 # 0x213036c
vmovaps %ymm6, 0x80(%rsp)
vmovaps %ymm3, 0x60(%rsp)
vmovaps %ymm21, 0x180(%rsp)
vmovaps %ymm20, 0x1a0(%rsp)
tzcntq %r13, %rax
movl 0x2(%r8), %ecx
movl 0x6(%r8,%rax,4), %edi
movq (%r10), %rax
movq 0x1e8(%rax), %rax
movq %rcx, 0x38(%rsp)
movq (%rax,%rcx,8), %r14
movq 0x58(%r14), %rax
movq 0x68(%r14), %rcx
movq %rcx, %rdx
movq %rdi, 0x58(%rsp)
imulq %rdi, %rdx
movl (%rax,%rdx), %edi
movq 0xa0(%r14), %rdx
movq %rdx, %r9
imulq %rdi, %r9
movq 0x90(%r14), %r11
vmovaps (%r11,%r9), %xmm13
leaq 0x1(%rdi), %r9
imulq %rdx, %r9
vmovaps (%r11,%r9), %xmm0
vmovaps %xmm0, 0xc0(%rsp)
leaq 0x2(%rdi), %r9
imulq %rdx, %r9
vmovaps (%r11,%r9), %xmm0
vmovaps %xmm0, 0xb0(%rsp)
blsrq %r13, %r13
addq $0x3, %rdi
imulq %rdx, %rdi
vmovaps (%r11,%rdi), %xmm0
vmovaps %xmm0, 0x100(%rsp)
movq %r13, %rdi
subq $0x1, %rdi
jb 0x1cc3894
andq %r13, %rdi
tzcntq %r13, %r9
movl 0x6(%r8,%r9,4), %r9d
imulq %rcx, %r9
movl (%rax,%r9), %r9d
imulq %rdx, %r9
prefetcht0 (%r11,%r9)
prefetcht0 0x40(%r11,%r9)
testq %rdi, %rdi
je 0x1cc3894
tzcntq %rdi, %rdi
movl 0x6(%r8,%rdi,4), %edi
imulq %rdi, %rcx
movl (%rax,%rcx), %eax
imulq %rax, %rdx
prefetcht1 (%r11,%rdx)
prefetcht1 0x40(%r11,%rdx)
movl 0x248(%r14), %edi
vmovss (%rsi,%r15,4), %xmm0
vinsertps $0x1c, 0x20(%rsi,%r15,4), %xmm0, %xmm0 # xmm0 = xmm0[0],mem[0],zero,zero
vinsertps $0x28, 0x40(%rsi,%r15,4), %xmm0, %xmm0 # xmm0 = xmm0[0,1],mem[0],zero
vsubps %xmm0, %xmm13, %xmm1
vbroadcastss %xmm1, %xmm2
vshufps $0x55, %xmm1, %xmm1, %xmm3 # xmm3 = xmm1[1,1,1,1]
vshufps $0xaa, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,2,2,2]
movq 0x218(%rsp), %rax
vmovaps (%rax), %xmm4
vmovaps 0x10(%rax), %xmm5
vmovaps 0x20(%rax), %xmm6
vmulps %xmm1, %xmm6, %xmm8
vfmadd231ps %xmm3, %xmm5, %xmm8 # xmm8 = (xmm5 * xmm3) + xmm8
vfmadd231ps %xmm2, %xmm4, %xmm8 # xmm8 = (xmm4 * xmm2) + xmm8
vshufps $0xff, %xmm13, %xmm13, %xmm1 # xmm1 = xmm13[3,3,3,3]
vmovaps 0xc0(%rsp), %xmm3
vsubps %xmm0, %xmm3, %xmm2
vmovaps %xmm3, %xmm10
vbroadcastss %xmm2, %xmm3
vshufps $0x55, %xmm2, %xmm2, %xmm7 # xmm7 = xmm2[1,1,1,1]
vshufps $0xaa, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[2,2,2,2]
vmulps %xmm2, %xmm6, %xmm9
vfmadd231ps %xmm7, %xmm5, %xmm9 # xmm9 = (xmm5 * xmm7) + xmm9
vfmadd231ps %xmm3, %xmm4, %xmm9 # xmm9 = (xmm4 * xmm3) + xmm9
vshufps $0xff, %xmm10, %xmm10, %xmm2 # xmm2 = xmm10[3,3,3,3]
vmovaps 0xb0(%rsp), %xmm7
vsubps %xmm0, %xmm7, %xmm3
vmovaps %xmm7, %xmm12
vbroadcastss %xmm3, %xmm7
vshufps $0x55, %xmm3, %xmm3, %xmm11 # xmm11 = xmm3[1,1,1,1]
vshufps $0xaa, %xmm3, %xmm3, %xmm3 # xmm3 = xmm3[2,2,2,2]
vmulps %xmm3, %xmm6, %xmm10
vfmadd231ps %xmm11, %xmm5, %xmm10 # xmm10 = (xmm5 * xmm11) + xmm10
vfmadd231ps %xmm7, %xmm4, %xmm10 # xmm10 = (xmm4 * xmm7) + xmm10
vshufps $0xff, %xmm12, %xmm12, %xmm7 # xmm7 = xmm12[3,3,3,3]
vmovaps 0x100(%rsp), %xmm26
vsubps %xmm0, %xmm26, %xmm0
vbroadcastss %xmm0, %xmm3
vshufps $0x55, %xmm0, %xmm0, %xmm12 # xmm12 = xmm0[1,1,1,1]
vshufps $0xaa, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[2,2,2,2]
vmulps %xmm0, %xmm6, %xmm11
vfmadd231ps %xmm12, %xmm5, %xmm11 # xmm11 = (xmm5 * xmm12) + xmm11
vfmadd231ps %xmm3, %xmm4, %xmm11 # xmm11 = (xmm4 * xmm3) + xmm11
movslq %edi, %rax
movq %rax, %rcx
shlq $0x6, %rcx
leaq (%rcx,%rax,4), %rbx
vmovups (%r12,%rbx), %ymm25
vshufps $0xff, %xmm26, %xmm26, %xmm0 # xmm0 = xmm26[3,3,3,3]
vbroadcastss %xmm8, %ymm20
vbroadcastss 0x24ed58(%rip), %ymm4 # 0x1f12704
vpermps %ymm8, %ymm4, %ymm23
vbroadcastsd %xmm1, %ymm3
vmovups 0x484(%r12,%rbx), %ymm14
vbroadcastss %xmm9, %ymm1
vpermps %ymm9, %ymm4, %ymm27
vbroadcastsd %xmm2, %ymm12
vmovups 0x908(%r12,%rbx), %ymm15
vbroadcastss %xmm10, %ymm31
vpermps %ymm10, %ymm4, %ymm30
vbroadcastsd %xmm7, %ymm21
vmovups 0xd8c(%r12,%rbx), %ymm16
vbroadcastss %xmm11, %ymm28
vpermps %ymm11, %ymm4, %ymm29
vbroadcastsd %xmm0, %ymm22
vmulps %ymm16, %ymm28, %ymm5
vmulps %ymm16, %ymm29, %ymm4
vfmadd231ps %ymm31, %ymm15, %ymm5 # ymm5 = (ymm15 * ymm31) + ymm5
vfmadd231ps %ymm30, %ymm15, %ymm4 # ymm4 = (ymm15 * ymm30) + ymm4
vfmadd231ps %ymm1, %ymm14, %ymm5 # ymm5 = (ymm14 * ymm1) + ymm5
vfmadd231ps %ymm27, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm27) + ymm4
vfmadd231ps %ymm20, %ymm25, %ymm5 # ymm5 = (ymm25 * ymm20) + ymm5
leaq 0x46ed52(%rip), %rdx # 0x213278c
vmovups (%rdx,%rbx), %ymm2
vmovups 0x484(%rdx,%rbx), %ymm17
vfmadd231ps %ymm23, %ymm25, %ymm4 # ymm4 = (ymm25 * ymm23) + ymm4
vmovups 0x908(%rdx,%rbx), %ymm18
vmovups 0xd8c(%rdx,%rbx), %ymm19
vmulps %ymm19, %ymm28, %ymm7
vmulps %ymm19, %ymm29, %ymm6
vfmadd231ps %ymm31, %ymm18, %ymm7 # ymm7 = (ymm18 * ymm31) + ymm7
vfmadd231ps %ymm30, %ymm18, %ymm6 # ymm6 = (ymm18 * ymm30) + ymm6
vmovaps %ymm1, 0x120(%rsp)
vfmadd231ps %ymm1, %ymm17, %ymm7 # ymm7 = (ymm17 * ymm1) + ymm7
vfmadd231ps %ymm27, %ymm17, %ymm6 # ymm6 = (ymm17 * ymm27) + ymm6
vmovaps %ymm20, 0x260(%rsp)
vfmadd231ps %ymm20, %ymm2, %ymm7 # ymm7 = (ymm2 * ymm20) + ymm7
vmovaps %ymm23, 0x240(%rsp)
vfmadd231ps %ymm23, %ymm2, %ymm6 # ymm6 = (ymm2 * ymm23) + ymm6
vsubps %ymm5, %ymm7, %ymm24
vsubps %ymm4, %ymm6, %ymm23
vmulps %ymm24, %ymm4, %ymm0
vmulps %ymm23, %ymm5, %ymm1
vsubps %ymm1, %ymm0, %ymm20
vmulps %ymm16, %ymm22, %ymm0
vfmadd231ps %ymm21, %ymm15, %ymm0 # ymm0 = (ymm15 * ymm21) + ymm0
vfmadd231ps %ymm12, %ymm14, %ymm0 # ymm0 = (ymm14 * ymm12) + ymm0
vfmadd231ps %ymm3, %ymm25, %ymm0 # ymm0 = (ymm25 * ymm3) + ymm0
vmovaps %ymm22, 0x6a0(%rsp)
vmulps %ymm19, %ymm22, %ymm1
vmovaps %ymm21, 0x6c0(%rsp)
vfmadd231ps %ymm21, %ymm18, %ymm1 # ymm1 = (ymm18 * ymm21) + ymm1
vmovaps %ymm12, 0x720(%rsp)
vfmadd231ps %ymm12, %ymm17, %ymm1 # ymm1 = (ymm17 * ymm12) + ymm1
vmovaps %ymm3, 0x740(%rsp)
vfmadd231ps %ymm3, %ymm2, %ymm1 # ymm1 = (ymm2 * ymm3) + ymm1
vmulps %ymm23, %ymm23, %ymm21
vfmadd231ps %ymm24, %ymm24, %ymm21 # ymm21 = (ymm24 * ymm24) + ymm21
vmaxps %ymm1, %ymm0, %ymm22
vmulps %ymm22, %ymm22, %ymm22
vmulps %ymm21, %ymm22, %ymm21
vmulps %ymm20, %ymm20, %ymm20
vcmpleps %ymm21, %ymm20, %k1
vmovaps %xmm13, 0x40(%rsp)
vblendps $0x8, %xmm13, %xmm8, %xmm12 # xmm12 = xmm8[0,1,2],xmm13[3]
vbroadcastss 0x25d366(%rip), %xmm20 # 0x1f20ec4
vandps %xmm20, %xmm12, %xmm12
vblendps $0x8, 0xc0(%rsp), %xmm9, %xmm13 # xmm13 = xmm9[0,1,2],mem[3]
vandps %xmm20, %xmm13, %xmm13
vmaxps %xmm13, %xmm12, %xmm12
vblendps $0x8, 0xb0(%rsp), %xmm10, %xmm13 # xmm13 = xmm10[0,1,2],mem[3]
vandps %xmm20, %xmm13, %xmm13
vmovaps %xmm26, %xmm3
vblendps $0x8, %xmm3, %xmm11, %xmm3 # xmm3 = xmm11[0,1,2],xmm3[3]
vandps %xmm20, %xmm3, %xmm3
vmaxps %xmm3, %xmm13, %xmm3
vmaxps %xmm3, %xmm12, %xmm3
vmovshdup %xmm3, %xmm12 # xmm12 = xmm3[1,1,3,3]
vmaxss %xmm3, %xmm12, %xmm12
vshufpd $0x1, %xmm3, %xmm3, %xmm3 # xmm3 = xmm3[1,0]
vmaxss %xmm12, %xmm3, %xmm3
vcvtsi2ss %edi, %xmm8, %xmm12
vmovaps %xmm12, 0x2e0(%rsp)
vbroadcastss %xmm12, %ymm12
vcmpgtps 0x25d36c(%rip), %ymm12, %k1 {%k1} # 0x1f20f40
vmulss 0x22d406(%rip), %xmm3, %xmm26 # 0x1ef0fe4
vbroadcastss 0x25d2f5(%rip), %ymm3 # 0x1f20edc
vpermps %ymm8, %ymm3, %ymm20
vpermps %ymm9, %ymm3, %ymm21
vpermps %ymm10, %ymm3, %ymm22
vpermps %ymm11, %ymm3, %ymm3
kortestb %k1, %k1
vmovss 0x60(%rsi,%r15,4), %xmm10
vmovaps %ymm27, 0x4e0(%rsp)
vmovaps %ymm31, 0x700(%rsp)
vmovaps %ymm30, 0x6e0(%rsp)
vmovaps %ymm20, 0x680(%rsp)
vmovaps %ymm21, 0x660(%rsp)
vmovaps %ymm22, 0x640(%rsp)
vmovaps %ymm3, 0x620(%rsp)
je 0x1cc4401
vmovaps %xmm10, 0x220(%rsp)
vmovaps %xmm26, 0x280(%rsp)
vmovaps %ymm3, %ymm26
vmulps %ymm19, %ymm3, %ymm3
vfmadd213ps %ymm3, %ymm22, %ymm18 # ymm18 = (ymm22 * ymm18) + ymm3
vfmadd213ps %ymm18, %ymm21, %ymm17 # ymm17 = (ymm21 * ymm17) + ymm18
vfmadd213ps %ymm17, %ymm20, %ymm2 # ymm2 = (ymm20 * ymm2) + ymm17
vmulps %ymm16, %ymm26, %ymm3
vfmadd213ps %ymm3, %ymm22, %ymm15 # ymm15 = (ymm22 * ymm15) + ymm3
vfmadd213ps %ymm15, %ymm21, %ymm14 # ymm14 = (ymm21 * ymm14) + ymm15
vmovups 0x1210(%r12,%rbx), %ymm3
vmovups 0x1694(%r12,%rbx), %ymm10
vmovups 0x1b18(%r12,%rbx), %ymm11
vmovups 0x1f9c(%r12,%rbx), %ymm12
vfmadd213ps %ymm14, %ymm20, %ymm25 # ymm25 = (ymm20 * ymm25) + ymm14
vmulps %ymm12, %ymm28, %ymm9
vmulps %ymm12, %ymm29, %ymm8
vmulps %ymm12, %ymm26, %ymm12
vfmadd231ps %ymm31, %ymm11, %ymm9 # ymm9 = (ymm11 * ymm31) + ymm9
vfmadd231ps %ymm30, %ymm11, %ymm8 # ymm8 = (ymm11 * ymm30) + ymm8
vfmadd231ps %ymm11, %ymm22, %ymm12 # ymm12 = (ymm22 * ymm11) + ymm12
vmovaps 0x120(%rsp), %ymm19
vfmadd231ps %ymm19, %ymm10, %ymm9 # ymm9 = (ymm10 * ymm19) + ymm9
vfmadd231ps %ymm27, %ymm10, %ymm8 # ymm8 = (ymm10 * ymm27) + ymm8
vfmadd231ps %ymm10, %ymm21, %ymm12 # ymm12 = (ymm21 * ymm10) + ymm12
vmovaps 0x260(%rsp), %ymm17
vfmadd231ps %ymm17, %ymm3, %ymm9 # ymm9 = (ymm3 * ymm17) + ymm9
vmovaps 0x240(%rsp), %ymm18
vfmadd231ps %ymm18, %ymm3, %ymm8 # ymm8 = (ymm3 * ymm18) + ymm8
vmovups 0x1210(%rdx,%rbx), %ymm10
vmovups 0x1b18(%rdx,%rbx), %ymm11
vmovups 0x1f9c(%rdx,%rbx), %ymm13
vfmadd231ps %ymm3, %ymm20, %ymm12 # ymm12 = (ymm20 * ymm3) + ymm12
vmovaps %ymm28, 0x160(%rsp)
vmulps %ymm13, %ymm28, %ymm3
vmovaps %ymm29, 0x140(%rsp)
vmulps %ymm13, %ymm29, %ymm14
vmulps %ymm13, %ymm26, %ymm13
vmovaps 0x280(%rsp), %xmm26
vfmadd231ps %ymm31, %ymm11, %ymm3 # ymm3 = (ymm11 * ymm31) + ymm3
vfmadd231ps %ymm30, %ymm11, %ymm14 # ymm14 = (ymm11 * ymm30) + ymm14
vfmadd231ps %ymm11, %ymm22, %ymm13 # ymm13 = (ymm22 * ymm11) + ymm13
vmovups 0x1694(%rdx,%rbx), %ymm11
vfmadd231ps %ymm19, %ymm11, %ymm3 # ymm3 = (ymm11 * ymm19) + ymm3
vfmadd231ps %ymm27, %ymm11, %ymm14 # ymm14 = (ymm11 * ymm27) + ymm14
vfmadd231ps %ymm11, %ymm21, %ymm13 # ymm13 = (ymm21 * ymm11) + ymm13
vfmadd231ps %ymm17, %ymm10, %ymm3 # ymm3 = (ymm10 * ymm17) + ymm3
vfmadd231ps %ymm18, %ymm10, %ymm14 # ymm14 = (ymm10 * ymm18) + ymm14
vfmadd231ps %ymm10, %ymm20, %ymm13 # ymm13 = (ymm20 * ymm10) + ymm13
vbroadcastss 0x25d120(%rip), %ymm15 # 0x1f20ec4
vandps %ymm15, %ymm9, %ymm10
vandps %ymm15, %ymm8, %ymm11
vmaxps %ymm11, %ymm10, %ymm10
vandps %ymm15, %ymm12, %ymm11
vmaxps %ymm11, %ymm10, %ymm10
vbroadcastss %xmm26, %ymm11
vcmpltps %ymm11, %ymm10, %k2
vmovaps %ymm24, %ymm9 {%k2}
vmovaps %ymm23, %ymm8 {%k2}
vandps %ymm3, %ymm15, %ymm10
vandps %ymm15, %ymm14, %ymm12
vmaxps %ymm12, %ymm10, %ymm10
vandps %ymm15, %ymm13, %ymm12
vmaxps %ymm12, %ymm10, %ymm10
vcmpltps %ymm11, %ymm10, %k2
vmovaps %ymm24, %ymm3 {%k2}
vmovaps %ymm23, %ymm14 {%k2}
vbroadcastss 0x25d0b6(%rip), %ymm11 # 0x1f20ec0
vxorps %ymm11, %ymm9, %ymm10
vxorps %ymm3, %ymm11, %ymm12
vxorps %xmm27, %xmm27, %xmm27
vfmadd213ps %ymm27, %ymm9, %ymm9 # ymm9 = (ymm9 * ymm9) + ymm27
vfmadd231ps %ymm8, %ymm8, %ymm9 # ymm9 = (ymm8 * ymm8) + ymm9
vrsqrt14ps %ymm9, %ymm11
vbroadcastss 0x2288e9(%rip), %ymm15 # 0x1eec71c
vmulps %ymm15, %ymm9, %ymm9
vmulps %ymm9, %ymm11, %ymm9
vmulps %ymm11, %ymm11, %ymm13
vmulps %ymm9, %ymm13, %ymm9
vbroadcastss 0x2288c7(%rip), %ymm16 # 0x1eec718
vfmadd231ps %ymm11, %ymm16, %ymm9 # ymm9 = (ymm16 * ymm11) + ymm9
vmulps %ymm9, %ymm8, %ymm11
vmulps %ymm10, %ymm9, %ymm10
vmulps %ymm27, %ymm9, %ymm13
vfmadd213ps %ymm27, %ymm3, %ymm3 # ymm3 = (ymm3 * ymm3) + ymm27
vfmadd231ps %ymm14, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm14) + ymm3
vrsqrt14ps %ymm3, %ymm8
vmulps %ymm3, %ymm15, %ymm3
vmulps %ymm3, %ymm8, %ymm3
vmulps %ymm8, %ymm8, %ymm9
vmulps %ymm3, %ymm9, %ymm3
vfmadd231ps %ymm8, %ymm16, %ymm3 # ymm3 = (ymm16 * ymm8) + ymm3
vmulps %ymm3, %ymm14, %ymm8
vmulps %ymm3, %ymm12, %ymm9
vmulps %ymm27, %ymm3, %ymm3
vmovaps %ymm11, %ymm12
vfmadd213ps %ymm5, %ymm0, %ymm12 # ymm12 = (ymm0 * ymm12) + ymm5
vmovaps %ymm10, %ymm14
vfmadd213ps %ymm4, %ymm0, %ymm14 # ymm14 = (ymm0 * ymm14) + ymm4
vmovaps %ymm13, %ymm15
vfmadd213ps %ymm25, %ymm0, %ymm15 # ymm15 = (ymm0 * ymm15) + ymm25
vmovaps %ymm8, %ymm16
vfmadd213ps %ymm7, %ymm1, %ymm16 # ymm16 = (ymm1 * ymm16) + ymm7
vfnmadd213ps %ymm5, %ymm0, %ymm11 # ymm11 = -(ymm0 * ymm11) + ymm5
vmovaps %ymm9, %ymm5
vfmadd213ps %ymm6, %ymm1, %ymm5 # ymm5 = (ymm1 * ymm5) + ymm6
vfnmadd213ps %ymm4, %ymm0, %ymm10 # ymm10 = -(ymm0 * ymm10) + ymm4
vmovaps %ymm3, %ymm4
vfmadd213ps %ymm2, %ymm1, %ymm4 # ymm4 = (ymm1 * ymm4) + ymm2
vfnmadd231ps %ymm13, %ymm0, %ymm25 # ymm25 = -(ymm0 * ymm13) + ymm25
vfnmadd213ps %ymm7, %ymm1, %ymm8 # ymm8 = -(ymm1 * ymm8) + ymm7
vfnmadd213ps %ymm6, %ymm1, %ymm9 # ymm9 = -(ymm1 * ymm9) + ymm6
vfnmadd231ps %ymm3, %ymm1, %ymm2 # ymm2 = -(ymm1 * ymm3) + ymm2
vsubps %ymm11, %ymm16, %ymm3
vsubps %ymm10, %ymm5, %ymm6
vsubps %ymm25, %ymm4, %ymm7
vmulps %ymm25, %ymm6, %ymm13
vfmsub231ps %ymm7, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm7) - ymm13
vmulps %ymm7, %ymm11, %ymm7
vfmsub231ps %ymm3, %ymm25, %ymm7 # ymm7 = (ymm25 * ymm3) - ymm7
vmulps %ymm3, %ymm10, %ymm3
vfmsub231ps %ymm6, %ymm11, %ymm3 # ymm3 = (ymm11 * ymm6) - ymm3
vfmadd231ps %ymm7, %ymm27, %ymm3 # ymm3 = (ymm27 * ymm7) + ymm3
vfmadd231ps %ymm13, %ymm27, %ymm3 # ymm3 = (ymm27 * ymm13) + ymm3
vcmpleps %ymm27, %ymm3, %k2
vmovaps %ymm12, %ymm8 {%k2}
vmovaps %ymm14, %ymm9 {%k2}
vmovaps %ymm15, %ymm2 {%k2}
vblendmps %ymm16, %ymm11, %ymm13 {%k2}
vblendmps %ymm5, %ymm10, %ymm14 {%k2}
vblendmps %ymm4, %ymm25, %ymm15 {%k2}
vmovaps %ymm11, %ymm16 {%k2}
vmovaps %ymm10, %ymm5 {%k2}
vmovaps %ymm25, %ymm4 {%k2}
vsubps %ymm8, %ymm16, %ymm6
vsubps %ymm9, %ymm5, %ymm5
vsubps %ymm2, %ymm4, %ymm11
vsubps %ymm13, %ymm8, %ymm7
vsubps %ymm14, %ymm9, %ymm10
vsubps %ymm15, %ymm2, %ymm12
vmulps %ymm8, %ymm11, %ymm4
vfmsub231ps %ymm6, %ymm2, %ymm4 # ymm4 = (ymm2 * ymm6) - ymm4
vmulps %ymm6, %ymm9, %ymm3
vfmsub231ps %ymm5, %ymm8, %ymm3 # ymm3 = (ymm8 * ymm5) - ymm3
vfmadd231ps %ymm4, %ymm27, %ymm3 # ymm3 = (ymm27 * ymm4) + ymm3
vmulps %ymm2, %ymm5, %ymm4
vfmsub231ps %ymm11, %ymm9, %ymm4 # ymm4 = (ymm9 * ymm11) - ymm4
vfmadd231ps %ymm4, %ymm27, %ymm3 # ymm3 = (ymm27 * ymm4) + ymm3
vmulps %ymm13, %ymm12, %ymm16
vfmsub231ps %ymm15, %ymm7, %ymm16 # ymm16 = (ymm7 * ymm15) - ymm16
vmulps %ymm15, %ymm10, %ymm15
vfmsub231ps %ymm12, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm12) - ymm15
vmulps %ymm7, %ymm14, %ymm4
vfmsub231ps %ymm13, %ymm10, %ymm4 # ymm4 = (ymm10 * ymm13) - ymm4
vfmadd231ps %ymm16, %ymm27, %ymm4 # ymm4 = (ymm27 * ymm16) + ymm4
vfmadd231ps %ymm15, %ymm27, %ymm4 # ymm4 = (ymm27 * ymm15) + ymm4
vmaxps %ymm4, %ymm3, %ymm13
vcmpleps %ymm27, %ymm13, %k0 {%k1}
kortestb %k0, %k0
vmovaps 0x1a0(%rsp), %ymm20
vmovaps 0x180(%rsp), %ymm21
vmovaps %ymm17, %ymm22
vmovaps %ymm19, %ymm17
je 0x1cc537b
vmulps %ymm5, %ymm12, %ymm13
vfmsub231ps %ymm11, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm11) - ymm13
vmulps %ymm7, %ymm11, %ymm11
vfmsub231ps %ymm12, %ymm6, %ymm11 # ymm11 = (ymm6 * ymm12) - ymm11
vmulps %ymm6, %ymm10, %ymm10
vfmsub231ps %ymm5, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm5) - ymm10
vxorps %xmm6, %xmm6, %xmm6
vfmadd213ps %ymm10, %ymm11, %ymm6 # ymm6 = (ymm11 * ymm6) + ymm10
vfmadd231ps %ymm27, %ymm13, %ymm6 # ymm6 = (ymm13 * ymm27) + ymm6
vrcp14ps %ymm6, %ymm7
vmovaps %ymm7, %ymm5
vfnmadd213ps 0x2286c3(%rip){1to8}, %ymm6, %ymm5 # ymm5 = -(ymm6 * ymm5) + mem
vfmadd132ps %ymm7, %ymm7, %ymm5 # ymm5 = (ymm5 * ymm7) + ymm7
vmulps %ymm2, %ymm10, %ymm2
vfmadd231ps %ymm11, %ymm9, %ymm2 # ymm2 = (ymm9 * ymm11) + ymm2
vfmadd231ps %ymm13, %ymm8, %ymm2 # ymm2 = (ymm8 * ymm13) + ymm2
vmulps %ymm5, %ymm2, %ymm2
vmovaps 0x220(%rsp), %xmm10
vbroadcastss %xmm10, %ymm7
vcmpleps %ymm2, %ymm7, %k1
vcmpleps 0x100(%rsi,%r15,4){1to8}, %ymm2, %k1 {%k1}
kandb %k0, %k1, %k0
kortestb %k0, %k0
vmovaps 0x160(%rsp), %ymm28
vmovaps 0x140(%rsp), %ymm29
je 0x1cc53b1
vcmpneqps %ymm27, %ymm6, %k1
ktestb %k1, %k0
vmovaps 0x40(%rsp), %xmm9
je 0x1cc53ce
kandb %k1, %k0, %k0
kmovd %k0, %eax
vmulps %ymm5, %ymm3, %ymm3
vmulps %ymm5, %ymm4, %ymm4
vbroadcastss 0x228640(%rip), %ymm5 # 0x1eec714
vsubps %ymm3, %ymm5, %ymm6
vmovaps %ymm3, %ymm6 {%k2}
vsubps %ymm4, %ymm5, %ymm3
vmovaps %ymm4, %ymm3 {%k2}
vmovaps %ymm3, 0x480(%rsp)
movzbl %al, %r12d
vmovaps %ymm2, %ymm3
testw %r12w, %r12w
je 0x1cc43f8
vsubps %ymm0, %ymm1, %ymm1
vfmadd213ps %ymm0, %ymm6, %ymm1 # ymm1 = (ymm6 * ymm1) + ymm0
vaddps %ymm1, %ymm1, %ymm0
movq 0xa8(%rsp), %rax
vmulps (%rax,%r15,4){1to8}, %ymm0, %ymm0
vcmpnleps %ymm0, %ymm3, %k0
kmovd %k0, %eax
andb %al, %r12b
je 0x1cc43f8
vbroadcastss 0x22c890(%rip), %ymm0 # 0x1ef09cc
vmovaps 0x480(%rsp), %ymm1
vfmadd132ps 0x22cea9(%rip){1to8}, %ymm0, %ymm1 # ymm1 = (ymm1 * mem) + ymm0
vmovaps %ymm6, 0x300(%rsp)
vmovaps %ymm1, 0x480(%rsp)
vmovaps %ymm1, 0x320(%rsp)
vmovaps %ymm3, 0x340(%rsp)
movl $0x0, 0x360(%rsp)
movl %edi, 0x364(%rsp)
vmovaps %xmm9, 0x370(%rsp)
vmovaps 0xc0(%rsp), %xmm0
vmovaps %xmm0, 0x380(%rsp)
vmovaps 0xb0(%rsp), %xmm0
vmovaps %xmm0, 0x390(%rsp)
vmovdqa 0x100(%rsp), %xmm0
vmovdqa %xmm0, 0x3a0(%rsp)
movb %r12b, 0x3b0(%rsp)
movl 0x120(%rsi,%r15,4), %eax
testl %eax, 0x34(%r14)
je 0x1cc43f8
vaddps 0x25cd5a(%rip), %ymm6, %ymm0 # 0x1f20f40
vmovss 0x228526(%rip), %xmm1 # 0x1eec714
vdivss 0x2e0(%rsp), %xmm1, %xmm1
vbroadcastss %xmm1, %ymm1
vmulps %ymm0, %ymm1, %ymm0
vmovaps %ymm0, 0x3c0(%rsp)
vmovaps 0x480(%rsp), %ymm0
vmovaps %ymm0, 0x3e0(%rsp)
vmovaps %ymm3, 0x400(%rsp)
kmovd %r12d, %k1
vbroadcastss 0x2277ee(%rip), %ymm0 # 0x1eeba20
vblendmps %ymm3, %ymm0, %ymm0 {%k1}
vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm0, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1]
vminps %ymm2, %ymm1, %ymm1
vcmpeqps %ymm1, %ymm0, %k0
kmovd %k0, %eax
andb %r12b, %al
movzbl %al, %eax
movzbl %r12b, %ecx
cmovnel %eax, %ecx
tzcntl %ecx, %r9d
movq 0x10(%r10), %rax
cmpq $0x0, 0x10(%rax)
vmovaps %ymm6, 0x80(%rsp)
vmovaps %ymm3, 0x60(%rsp)
jne 0x1cc53e5
cmpq $0x0, 0x40(%r14)
jne 0x1cc53e5
vmovss 0x3c0(%rsp,%r9,4), %xmm0
vmovss 0x3e0(%rsp,%r9,4), %xmm1
vmovss 0x22845e(%rip), %xmm2 # 0x1eec714
vsubss %xmm0, %xmm2, %xmm2
vaddss %xmm2, %xmm2, %xmm3
vmulss %xmm3, %xmm0, %xmm4
vfnmadd231ss %xmm2, %xmm2, %xmm4 # xmm4 = -(xmm2 * xmm2) + xmm4
vaddss %xmm0, %xmm0, %xmm5
vmovss 0x22cd19(%rip), %xmm8 # 0x1ef0fec
vmovaps %xmm8, %xmm6
vfmadd213ss 0x22cd24(%rip), %xmm0, %xmm6 # xmm6 = (xmm0 * xmm6) + mem
vmulss %xmm0, %xmm8, %xmm7
vmulss %xmm7, %xmm0, %xmm7
vfmadd231ss %xmm6, %xmm5, %xmm7 # xmm7 = (xmm5 * xmm6) + xmm7
vmovaps %xmm8, %xmm5
vfmadd213ss 0x22ccfe(%rip), %xmm0, %xmm5 # xmm5 = (xmm0 * xmm5) + mem
vmulss 0x22ccee(%rip), %xmm2, %xmm6 # 0x1ef0ff0
vmulss %xmm6, %xmm2, %xmm6
vfmadd231ss %xmm5, %xmm3, %xmm6 # xmm6 = (xmm3 * xmm5) + xmm6
vmulss 0x22c6c9(%rip), %xmm2, %xmm2 # 0x1ef09dc
vmulss %xmm0, %xmm0, %xmm3
vfmadd231ss %xmm2, %xmm0, %xmm3 # xmm3 = (xmm0 * xmm2) + xmm3
vmovss 0x22885c(%rip), %xmm8 # 0x1eecb80
vmulss %xmm4, %xmm8, %xmm2
vmulss %xmm7, %xmm8, %xmm4
vmulss %xmm6, %xmm8, %xmm5
vmulss %xmm3, %xmm8, %xmm3
vbroadcastss %xmm3, %xmm3
vmulps 0x100(%rsp), %xmm3, %xmm3
vbroadcastss %xmm5, %xmm5
vfmadd132ps 0xb0(%rsp), %xmm3, %xmm5 # xmm5 = (xmm5 * mem) + xmm3
vbroadcastss %xmm4, %xmm3
vfmadd132ps 0xc0(%rsp), %xmm5, %xmm3 # xmm3 = (xmm3 * mem) + xmm5
vmovaps 0x80(%rsp), %ymm6
vbroadcastss %xmm2, %xmm2
vfmadd213ps %xmm3, %xmm9, %xmm2 # xmm2 = (xmm9 * xmm2) + xmm3
vmovss 0x400(%rsp,%r9,4), %xmm3
vmovss %xmm3, 0x100(%rsi,%r15,4)
vmovaps 0x60(%rsp), %ymm3
vmovss %xmm2, 0x180(%rsi,%r15,4)
vextractps $0x1, %xmm2, 0x1a0(%rsi,%r15,4)
vextractps $0x2, %xmm2, 0x1c0(%rsi,%r15,4)
vmovss %xmm0, 0x1e0(%rsi,%r15,4)
vmovss %xmm1, 0x200(%rsi,%r15,4)
movq 0x58(%rsp), %rax
movl %eax, 0x220(%rsi,%r15,4)
movq 0x38(%rsp), %rax
movl %eax, 0x240(%rsi,%r15,4)
movq 0x8(%r10), %rax
movl (%rax), %eax
movl %eax, 0x260(%rsi,%r15,4)
movq 0x8(%r10), %rax
movl 0x4(%rax), %eax
movl %eax, 0x280(%rsi,%r15,4)
leaq 0x46bf6d(%rip), %r12 # 0x213036c
jmp 0x1cc443e
vxorps %xmm27, %xmm27, %xmm27
vmovaps 0x80(%rsp), %ymm6
vmovaps 0x1a0(%rsp), %ymm20
vmovaps 0x60(%rsp), %ymm3
vmovaps 0x180(%rsp), %ymm21
vmovaps 0x260(%rsp), %ymm22
vmovaps 0x240(%rsp), %ymm18
vmovaps 0x120(%rsp), %ymm17
cmpl $0x9, %edi
jge 0x1cc4467
vmovaps 0x760(%rsp), %ymm0
vcmpleps 0x100(%rsi,%r15,4){1to8}, %ymm0, %k0
kmovb %k0, %eax
andl %eax, %r13d
jne 0x1cc3786
jmp 0x1cc5903
vpbroadcastd %edi, %ymm0
vmovdqa %ymm0, 0x280(%rsp)
vbroadcastss %xmm26, %ymm0
vmovaps %ymm0, 0x220(%rsp)
vbroadcastss %xmm10, %ymm0
vmovaps %ymm0, 0x2c0(%rsp)
vmovss 0x228279(%rip), %xmm0 # 0x1eec714
vdivss 0x2e0(%rsp), %xmm0, %xmm0
vbroadcastss %xmm0, %ymm0
vmovaps %ymm0, 0x2e0(%rsp)
movq 0x38(%rsp), %rax
vpbroadcastd %eax, %ymm0
vmovdqa %ymm0, 0x440(%rsp)
movq 0x58(%rsp), %rax
vpbroadcastd %eax, %ymm0
vmovdqa %ymm0, 0x420(%rsp)
movl $0x8, %r14d
vmovaps %ymm6, 0x80(%rsp)
vmovaps %ymm3, 0x60(%rsp)
vpbroadcastd %r14d, %ymm0
vpor 0x296423(%rip), %ymm0, %ymm0 # 0x1f5a920
vpcmpltd 0x280(%rsp), %ymm0, %k1
leaq (%rbx,%r12), %rcx
vmovups (%rcx,%r14,4), %ymm3
vmovups 0x484(%rcx,%r14,4), %ymm10
vmovups 0x908(%rcx,%r14,4), %ymm11
vmovups 0xd8c(%rcx,%r14,4), %ymm12
vmulps %ymm12, %ymm28, %ymm5
vmulps %ymm12, %ymm29, %ymm4
vmovaps 0x6a0(%rsp), %ymm1
vmulps %ymm1, %ymm12, %ymm0
vmovaps 0x700(%rsp), %ymm19
vfmadd231ps %ymm19, %ymm11, %ymm5 # ymm5 = (ymm11 * ymm19) + ymm5
vmovaps 0x6e0(%rsp), %ymm26
vfmadd231ps %ymm26, %ymm11, %ymm4 # ymm4 = (ymm11 * ymm26) + ymm4
vmovaps 0x6c0(%rsp), %ymm16
vfmadd231ps %ymm16, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm16) + ymm0
vfmadd231ps %ymm17, %ymm10, %ymm5 # ymm5 = (ymm10 * ymm17) + ymm5
vmovaps 0x4e0(%rsp), %ymm25
vfmadd231ps %ymm25, %ymm10, %ymm4 # ymm4 = (ymm10 * ymm25) + ymm4
vmovaps 0x720(%rsp), %ymm9
vfmadd231ps %ymm9, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm9) + ymm0
vfmadd231ps %ymm22, %ymm3, %ymm5 # ymm5 = (ymm3 * ymm22) + ymm5
vfmadd231ps %ymm18, %ymm3, %ymm4 # ymm4 = (ymm3 * ymm18) + ymm4
leaq (%rbx,%rdx), %rax
vmovups (%rax,%r14,4), %ymm2
vmovups 0x484(%rax,%r14,4), %ymm13
vmovaps 0x740(%rsp), %ymm8
vfmadd231ps %ymm8, %ymm3, %ymm0 # ymm0 = (ymm3 * ymm8) + ymm0
vmovups 0x908(%rax,%r14,4), %ymm14
vmovups 0xd8c(%rax,%r14,4), %ymm15
vmulps %ymm15, %ymm28, %ymm7
vmulps %ymm15, %ymm29, %ymm6
vmulps %ymm1, %ymm15, %ymm1
vfmadd231ps %ymm19, %ymm14, %ymm7 # ymm7 = (ymm14 * ymm19) + ymm7
vfmadd231ps %ymm26, %ymm14, %ymm6 # ymm6 = (ymm14 * ymm26) + ymm6
vfmadd231ps %ymm16, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm16) + ymm1
vfmadd231ps %ymm17, %ymm13, %ymm7 # ymm7 = (ymm13 * ymm17) + ymm7
vfmadd231ps %ymm25, %ymm13, %ymm6 # ymm6 = (ymm13 * ymm25) + ymm6
vfmadd231ps %ymm9, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm9) + ymm1
vfmadd231ps %ymm22, %ymm2, %ymm7 # ymm7 = (ymm2 * ymm22) + ymm7
vfmadd231ps %ymm18, %ymm2, %ymm6 # ymm6 = (ymm2 * ymm18) + ymm6
vfmadd231ps %ymm8, %ymm2, %ymm1 # ymm1 = (ymm2 * ymm8) + ymm1
vmaxps %ymm1, %ymm0, %ymm16
vsubps %ymm5, %ymm7, %ymm9
vsubps %ymm4, %ymm6, %ymm8
vmovaps %ymm17, %ymm24
vmulps %ymm9, %ymm4, %ymm17
vmovaps %ymm18, %ymm23
vmulps %ymm8, %ymm5, %ymm18
vsubps %ymm18, %ymm17, %ymm17
vmulps %ymm8, %ymm8, %ymm18
vfmadd231ps %ymm9, %ymm9, %ymm18 # ymm18 = (ymm9 * ymm9) + ymm18
vmulps %ymm16, %ymm16, %ymm16
vmulps %ymm18, %ymm16, %ymm16
vmulps %ymm17, %ymm17, %ymm17
vcmpleps %ymm16, %ymm17, %k1 {%k1}
kortestb %k1, %k1
je 0x1cc4e19
vmovaps %ymm23, %ymm16
vmovaps 0x620(%rsp), %ymm23
vmulps %ymm15, %ymm23, %ymm15
vmovaps 0x640(%rsp), %ymm31
vfmadd213ps %ymm15, %ymm31, %ymm14 # ymm14 = (ymm31 * ymm14) + ymm15
vmovaps 0x660(%rsp), %ymm30
vfmadd213ps %ymm14, %ymm30, %ymm13 # ymm13 = (ymm30 * ymm13) + ymm14
vmovaps 0x680(%rsp), %ymm18
vfmadd213ps %ymm13, %ymm18, %ymm2 # ymm2 = (ymm18 * ymm2) + ymm13
vmulps %ymm12, %ymm23, %ymm12
vfmadd213ps %ymm12, %ymm31, %ymm11 # ymm11 = (ymm31 * ymm11) + ymm12
vfmadd213ps %ymm11, %ymm30, %ymm10 # ymm10 = (ymm30 * ymm10) + ymm11
vfmadd213ps %ymm10, %ymm18, %ymm3 # ymm3 = (ymm18 * ymm3) + ymm10
vmovups 0x1210(%rcx,%r14,4), %ymm12
vmovups 0x1694(%rcx,%r14,4), %ymm13
vmovups 0x1b18(%rcx,%r14,4), %ymm14
vmovups 0x1f9c(%rcx,%r14,4), %ymm15
vmulps %ymm15, %ymm28, %ymm11
vmulps %ymm15, %ymm29, %ymm10
vmulps %ymm15, %ymm23, %ymm15
vfmadd231ps %ymm19, %ymm14, %ymm11 # ymm11 = (ymm14 * ymm19) + ymm11
vfmadd231ps %ymm26, %ymm14, %ymm10 # ymm10 = (ymm14 * ymm26) + ymm10
vfmadd231ps %ymm14, %ymm31, %ymm15 # ymm15 = (ymm31 * ymm14) + ymm15
vfmadd231ps %ymm24, %ymm13, %ymm11 # ymm11 = (ymm13 * ymm24) + ymm11
vfmadd231ps %ymm25, %ymm13, %ymm10 # ymm10 = (ymm13 * ymm25) + ymm10
vfmadd231ps %ymm13, %ymm30, %ymm15 # ymm15 = (ymm30 * ymm13) + ymm15
vfmadd231ps %ymm22, %ymm12, %ymm11 # ymm11 = (ymm12 * ymm22) + ymm11
vfmadd231ps %ymm16, %ymm12, %ymm10 # ymm10 = (ymm12 * ymm16) + ymm10
vmovaps %ymm26, %ymm25
vmovaps %ymm19, %ymm26
vmovaps %ymm16, %ymm19
vfmadd231ps %ymm12, %ymm18, %ymm15 # ymm15 = (ymm18 * ymm12) + ymm15
vmovups 0x1210(%rax,%r14,4), %ymm13
vmovups 0x1b18(%rax,%r14,4), %ymm14
vmovups 0x1f9c(%rax,%r14,4), %ymm16
vmulps %ymm16, %ymm28, %ymm17
vmulps %ymm16, %ymm29, %ymm12
vmulps %ymm16, %ymm23, %ymm16
vfmadd231ps %ymm26, %ymm14, %ymm17 # ymm17 = (ymm14 * ymm26) + ymm17
vfmadd231ps %ymm25, %ymm14, %ymm12 # ymm12 = (ymm14 * ymm25) + ymm12
vfmadd231ps %ymm14, %ymm31, %ymm16 # ymm16 = (ymm31 * ymm14) + ymm16
vmovups 0x1694(%rax,%r14,4), %ymm14
vfmadd231ps %ymm24, %ymm14, %ymm17 # ymm17 = (ymm14 * ymm24) + ymm17
vfmadd231ps 0x4e0(%rsp), %ymm14, %ymm12 # ymm12 = (ymm14 * mem) + ymm12
vfmadd231ps %ymm14, %ymm30, %ymm16 # ymm16 = (ymm30 * ymm14) + ymm16
vfmadd231ps %ymm22, %ymm13, %ymm17 # ymm17 = (ymm13 * ymm22) + ymm17
vfmadd231ps %ymm19, %ymm13, %ymm12 # ymm12 = (ymm13 * ymm19) + ymm12
vfmadd231ps %ymm13, %ymm18, %ymm16 # ymm16 = (ymm18 * ymm13) + ymm16
vbroadcastss 0x25c6f9(%rip), %ymm18 # 0x1f20ec4
vandps %ymm18, %ymm11, %ymm13
vandps %ymm18, %ymm10, %ymm14
vmaxps %ymm14, %ymm13, %ymm13
vandps %ymm18, %ymm15, %ymm14
vmaxps %ymm14, %ymm13, %ymm13
vmovaps 0x220(%rsp), %ymm15
vcmpltps %ymm15, %ymm13, %k2
vmovaps %ymm9, %ymm11 {%k2}
vmovaps %ymm8, %ymm10 {%k2}
vandps %ymm18, %ymm17, %ymm13
vandps %ymm18, %ymm12, %ymm14
vmaxps %ymm14, %ymm13, %ymm13
vandps %ymm18, %ymm16, %ymm14
vmaxps %ymm14, %ymm13, %ymm13
vcmpltps %ymm15, %ymm13, %k2
vmovaps %ymm9, %ymm17 {%k2}
vmovaps %ymm8, %ymm12 {%k2}
vbroadcastss 0x25c685(%rip), %ymm9 # 0x1f20ec0
vxorps %ymm9, %ymm11, %ymm8
vxorps %ymm9, %ymm17, %ymm9
vfmadd213ps %ymm27, %ymm11, %ymm11 # ymm11 = (ymm11 * ymm11) + ymm27
vfmadd231ps %ymm10, %ymm10, %ymm11 # ymm11 = (ymm10 * ymm10) + ymm11
vrsqrt14ps %ymm11, %ymm13
vbroadcastss 0x227ebc(%rip), %ymm15 # 0x1eec71c
vmulps %ymm15, %ymm11, %ymm11
vmulps %ymm11, %ymm13, %ymm11
vmulps %ymm13, %ymm13, %ymm14
vmulps %ymm11, %ymm14, %ymm14
vbroadcastss 0x227e9a(%rip), %ymm16 # 0x1eec718
vfmadd231ps %ymm13, %ymm16, %ymm14 # ymm14 = (ymm16 * ymm13) + ymm14
vmulps %ymm14, %ymm10, %ymm11
vmulps %ymm8, %ymm14, %ymm10
vmulps %ymm27, %ymm14, %ymm13
vfmadd213ps %ymm27, %ymm17, %ymm17 # ymm17 = (ymm17 * ymm17) + ymm27
vfmadd231ps %ymm12, %ymm12, %ymm17 # ymm17 = (ymm12 * ymm12) + ymm17
vrsqrt14ps %ymm17, %ymm8
vmulps %ymm15, %ymm17, %ymm14
vmulps %ymm14, %ymm8, %ymm14
vmulps %ymm8, %ymm8, %ymm15
vmulps %ymm14, %ymm15, %ymm14
vfmadd231ps %ymm8, %ymm16, %ymm14 # ymm14 = (ymm16 * ymm8) + ymm14
vmulps %ymm14, %ymm12, %ymm8
vmulps %ymm9, %ymm14, %ymm9
vmulps %ymm27, %ymm14, %ymm12
vmovaps %ymm11, %ymm14
vfmadd213ps %ymm5, %ymm0, %ymm14 # ymm14 = (ymm0 * ymm14) + ymm5
vmovaps %ymm10, %ymm15
vfmadd213ps %ymm4, %ymm0, %ymm15 # ymm15 = (ymm0 * ymm15) + ymm4
vmovaps %ymm13, %ymm16
vfmadd213ps %ymm3, %ymm0, %ymm16 # ymm16 = (ymm0 * ymm16) + ymm3
vmovaps %ymm8, %ymm17
vfmadd213ps %ymm7, %ymm1, %ymm17 # ymm17 = (ymm1 * ymm17) + ymm7
vfnmadd213ps %ymm5, %ymm0, %ymm11 # ymm11 = -(ymm0 * ymm11) + ymm5
vmovaps %ymm9, %ymm5
vfmadd213ps %ymm6, %ymm1, %ymm5 # ymm5 = (ymm1 * ymm5) + ymm6
vfnmadd213ps %ymm4, %ymm0, %ymm10 # ymm10 = -(ymm0 * ymm10) + ymm4
vmovaps %ymm12, %ymm4
vfmadd213ps %ymm2, %ymm1, %ymm4 # ymm4 = (ymm1 * ymm4) + ymm2
vfnmadd231ps %ymm13, %ymm0, %ymm3 # ymm3 = -(ymm0 * ymm13) + ymm3
vfnmadd213ps %ymm7, %ymm1, %ymm8 # ymm8 = -(ymm1 * ymm8) + ymm7
vfnmadd213ps %ymm6, %ymm1, %ymm9 # ymm9 = -(ymm1 * ymm9) + ymm6
vfnmadd231ps %ymm12, %ymm1, %ymm2 # ymm2 = -(ymm1 * ymm12) + ymm2
vsubps %ymm11, %ymm17, %ymm6
vsubps %ymm10, %ymm5, %ymm7
vsubps %ymm3, %ymm4, %ymm12
vmulps %ymm3, %ymm7, %ymm13
vfmsub231ps %ymm12, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm12) - ymm13
vmulps %ymm11, %ymm12, %ymm12
vfmsub231ps %ymm6, %ymm3, %ymm12 # ymm12 = (ymm3 * ymm6) - ymm12
vmulps %ymm6, %ymm10, %ymm6
vfmsub231ps %ymm7, %ymm11, %ymm6 # ymm6 = (ymm11 * ymm7) - ymm6
vfmadd231ps %ymm12, %ymm27, %ymm6 # ymm6 = (ymm27 * ymm12) + ymm6
vfmadd231ps %ymm13, %ymm27, %ymm6 # ymm6 = (ymm27 * ymm13) + ymm6
vcmpleps %ymm27, %ymm6, %k2
vmovaps %ymm14, %ymm8 {%k2}
vmovaps %ymm15, %ymm9 {%k2}
vmovaps %ymm16, %ymm2 {%k2}
vblendmps %ymm17, %ymm11, %ymm13 {%k2}
vblendmps %ymm5, %ymm10, %ymm14 {%k2}
vblendmps %ymm4, %ymm3, %ymm15 {%k2}
vmovaps %ymm11, %ymm17 {%k2}
vmovaps %ymm10, %ymm5 {%k2}
vmovaps %ymm3, %ymm4 {%k2}
vsubps %ymm8, %ymm17, %ymm6
vsubps %ymm9, %ymm5, %ymm5
vsubps %ymm2, %ymm4, %ymm11
vsubps %ymm13, %ymm8, %ymm7
vsubps %ymm14, %ymm9, %ymm10
vsubps %ymm15, %ymm2, %ymm12
vmulps %ymm8, %ymm11, %ymm4
vfmsub231ps %ymm6, %ymm2, %ymm4 # ymm4 = (ymm2 * ymm6) - ymm4
vmulps %ymm6, %ymm9, %ymm3
vfmsub231ps %ymm5, %ymm8, %ymm3 # ymm3 = (ymm8 * ymm5) - ymm3
vfmadd231ps %ymm4, %ymm27, %ymm3 # ymm3 = (ymm27 * ymm4) + ymm3
vmulps %ymm2, %ymm5, %ymm4
vfmsub231ps %ymm11, %ymm9, %ymm4 # ymm4 = (ymm9 * ymm11) - ymm4
vfmadd231ps %ymm4, %ymm27, %ymm3 # ymm3 = (ymm27 * ymm4) + ymm3
vmulps %ymm13, %ymm12, %ymm16
vfmsub231ps %ymm15, %ymm7, %ymm16 # ymm16 = (ymm7 * ymm15) - ymm16
vmulps %ymm15, %ymm10, %ymm15
vfmsub231ps %ymm12, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm12) - ymm15
vmulps %ymm7, %ymm14, %ymm4
vfmsub231ps %ymm13, %ymm10, %ymm4 # ymm4 = (ymm10 * ymm13) - ymm4
vfmadd231ps %ymm16, %ymm27, %ymm4 # ymm4 = (ymm27 * ymm16) + ymm4
vfmadd231ps %ymm15, %ymm27, %ymm4 # ymm4 = (ymm27 * ymm15) + ymm4
vmaxps %ymm4, %ymm3, %ymm13
vcmpleps %ymm27, %ymm13, %k0 {%k1}
kortestb %k0, %k0
vmovaps %ymm19, %ymm18
je 0x1cc4e46
vmulps %ymm5, %ymm12, %ymm13
vfmsub231ps %ymm11, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm11) - ymm13
vmulps %ymm7, %ymm11, %ymm11
vfmsub231ps %ymm12, %ymm6, %ymm11 # ymm11 = (ymm6 * ymm12) - ymm11
vmulps %ymm6, %ymm10, %ymm10
vfmsub231ps %ymm5, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm5) - ymm10
vxorps %xmm6, %xmm6, %xmm6
vfmadd213ps %ymm10, %ymm11, %ymm6 # ymm6 = (ymm11 * ymm6) + ymm10
vfmadd231ps %ymm27, %ymm13, %ymm6 # ymm6 = (ymm13 * ymm27) + ymm6
vrcp14ps %ymm6, %ymm7
vmovaps %ymm7, %ymm5
vfnmadd213ps 0x227ca9(%rip){1to8}, %ymm6, %ymm5 # ymm5 = -(ymm6 * ymm5) + mem
vfmadd132ps %ymm7, %ymm7, %ymm5 # ymm5 = (ymm5 * ymm7) + ymm7
vmulps %ymm2, %ymm10, %ymm2
vfmadd231ps %ymm11, %ymm9, %ymm2 # ymm2 = (ymm9 * ymm11) + ymm2
vfmadd231ps %ymm13, %ymm8, %ymm2 # ymm2 = (ymm8 * ymm13) + ymm2
vmulps %ymm5, %ymm2, %ymm2
vcmpgeps 0x2c0(%rsp), %ymm2, %k1
vcmpleps 0x100(%rsi,%r15,4){1to8}, %ymm2, %k1 {%k1}
kandb %k0, %k1, %k0
kortestb %k0, %k0
je 0x1cc4e46
vcmpneqps %ymm27, %ymm6, %k1
ktestb %k1, %k0
vmovaps 0x40(%rsp), %xmm9
vmovaps 0x120(%rsp), %ymm17
je 0x1cc4e6b
kandb %k1, %k0, %k0
kmovd %k0, %eax
vmulps %ymm5, %ymm3, %ymm3
vmulps %ymm5, %ymm4, %ymm4
vbroadcastss 0x227c3a(%rip), %ymm5 # 0x1eec714
vsubps %ymm3, %ymm5, %ymm20
vmovaps %ymm3, %ymm20 {%k2}
vsubps %ymm4, %ymm5, %ymm3
vmovaps %ymm4, %ymm3 {%k2}
vmovaps %ymm3, 0x460(%rsp)
movzbl %al, %r9d
vmovaps %ymm2, %ymm21
vmovaps 0x80(%rsp), %ymm6
vmovaps 0x60(%rsp), %ymm3
testw %r9w, %r9w
je 0x1cc4e34
vsubps %ymm0, %ymm1, %ymm1
vfmadd213ps %ymm0, %ymm20, %ymm1 # ymm1 = (ymm20 * ymm1) + ymm0
vaddps %ymm1, %ymm1, %ymm0
movq 0xa8(%rsp), %rax
vmulps (%rax,%r15,4){1to8}, %ymm0, %ymm0
vcmpnleps %ymm0, %ymm21, %k0
kmovd %k0, %eax
andb %al, %r9b
je 0x1cc4e34
vbroadcastss 0x22be76(%rip), %ymm0 # 0x1ef09cc
vmovaps 0x460(%rsp), %ymm1
vfmadd132ps 0x22c48f(%rip){1to8}, %ymm0, %ymm1 # ymm1 = (ymm1 * mem) + ymm0
vmovaps %ymm20, 0x300(%rsp)
vmovaps %ymm1, 0x460(%rsp)
vmovaps %ymm1, 0x320(%rsp)
vmovaps %ymm21, 0x340(%rsp)
movl %r14d, 0x360(%rsp)
movl %edi, 0x364(%rsp)
vmovaps %xmm9, 0x370(%rsp)
vmovaps 0xc0(%rsp), %xmm0
vmovaps %xmm0, 0x380(%rsp)
vmovaps 0xb0(%rsp), %xmm0
vmovaps %xmm0, 0x390(%rsp)
vmovdqa 0x100(%rsp), %xmm0
vmovdqa %xmm0, 0x3a0(%rsp)
movb %r9b, 0x3b0(%rsp)
movq (%r10), %rax
movq 0x1e8(%rax), %rax
movq 0x38(%rsp), %rcx
movq (%rax,%rcx,8), %r11
movl 0x120(%rsi,%r15,4), %eax
testl %eax, 0x34(%r11)
je 0x1cc4e10
vaddps 0x25c330(%rip), %ymm20, %ymm0 # 0x1f20f40
vcvtsi2ss %r14d, %xmm19, %xmm1
vbroadcastss %xmm1, %ymm1
vaddps %ymm0, %ymm1, %ymm0
vmulps 0x2e0(%rsp), %ymm0, %ymm0
vmovaps %ymm0, 0x3c0(%rsp)
vmovaps 0x460(%rsp), %ymm0
vmovaps %ymm0, 0x3e0(%rsp)
vmovaps %ymm21, 0x400(%rsp)
kmovd %r9d, %k1
vbroadcastss 0x226dc7(%rip), %ymm0 # 0x1eeba20
vblendmps %ymm21, %ymm0, %ymm0 {%k1}
vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm0, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1]
vminps %ymm2, %ymm1, %ymm1
vcmpeqps %ymm1, %ymm0, %k0
kmovd %k0, %eax
andb %r9b, %al
movzbl %al, %eax
movzbl %r9b, %ecx
cmovnel %eax, %ecx
tzcntl %ecx, %r12d
movq 0x10(%r10), %rax
cmpq $0x0, 0x10(%rax)
jne 0x1cc4e73
cmpq $0x0, 0x40(%r11)
jne 0x1cc4e73
vmovss 0x3c0(%rsp,%r12,4), %xmm0
vmovss 0x3e0(%rsp,%r12,4), %xmm1
vmovss 0x227a46(%rip), %xmm2 # 0x1eec714
vsubss %xmm0, %xmm2, %xmm2
vaddss %xmm2, %xmm2, %xmm3
vmulss %xmm3, %xmm0, %xmm4
vfnmadd231ss %xmm2, %xmm2, %xmm4 # xmm4 = -(xmm2 * xmm2) + xmm4
vaddss %xmm0, %xmm0, %xmm5
vmovss 0x22c301(%rip), %xmm8 # 0x1ef0fec
vmovaps %xmm8, %xmm6
vfmadd213ss 0x22c30c(%rip), %xmm0, %xmm6 # xmm6 = (xmm0 * xmm6) + mem
vmulss %xmm0, %xmm8, %xmm7
vmulss %xmm7, %xmm0, %xmm7
vfmadd231ss %xmm6, %xmm5, %xmm7 # xmm7 = (xmm5 * xmm6) + xmm7
vmovaps %xmm8, %xmm5
vfmadd213ss 0x22c2e6(%rip), %xmm0, %xmm5 # xmm5 = (xmm0 * xmm5) + mem
vmulss 0x22c2d6(%rip), %xmm2, %xmm6 # 0x1ef0ff0
vmulss %xmm6, %xmm2, %xmm6
vfmadd231ss %xmm5, %xmm3, %xmm6 # xmm6 = (xmm3 * xmm5) + xmm6
vmulss 0x22bcb1(%rip), %xmm2, %xmm2 # 0x1ef09dc
vmulss %xmm0, %xmm0, %xmm3
vfmadd231ss %xmm2, %xmm0, %xmm3 # xmm3 = (xmm0 * xmm2) + xmm3
vmovss 0x227e44(%rip), %xmm8 # 0x1eecb80
vmulss %xmm4, %xmm8, %xmm2
vmulss %xmm7, %xmm8, %xmm4
vmulss %xmm6, %xmm8, %xmm5
vmulss %xmm3, %xmm8, %xmm3
vbroadcastss %xmm3, %xmm3
vmulps 0x100(%rsp), %xmm3, %xmm3
vbroadcastss %xmm5, %xmm5
vfmadd132ps 0xb0(%rsp), %xmm3, %xmm5 # xmm5 = (xmm5 * mem) + xmm3
vbroadcastss %xmm4, %xmm3
vfmadd132ps 0xc0(%rsp), %xmm5, %xmm3 # xmm3 = (xmm3 * mem) + xmm5
vbroadcastss %xmm2, %xmm2
vfmadd213ps %xmm3, %xmm9, %xmm2 # xmm2 = (xmm9 * xmm2) + xmm3
vmovss 0x400(%rsp,%r12,4), %xmm3
vmovss %xmm3, 0x100(%rsi,%r15,4)
vmovss %xmm2, 0x180(%rsi,%r15,4)
vextractps $0x1, %xmm2, 0x1a0(%rsi,%r15,4)
vextractps $0x2, %xmm2, 0x1c0(%rsi,%r15,4)
vmovss %xmm0, 0x1e0(%rsi,%r15,4)
vmovss %xmm1, 0x200(%rsi,%r15,4)
movq 0x58(%rsp), %rax
movl %eax, 0x220(%rsi,%r15,4)
movq 0x38(%rsp), %rax
movl %eax, 0x240(%rsi,%r15,4)
movq 0x8(%r10), %rax
movl (%rax), %eax
movl %eax, 0x260(%rsi,%r15,4)
movq 0x8(%r10), %rax
movl 0x4(%rax), %eax
movl %eax, 0x280(%rsi,%r15,4)
vmovaps 0x80(%rsp), %ymm6
vmovaps 0x60(%rsp), %ymm3
leaq 0x46b555(%rip), %r12 # 0x213036c
jmp 0x1cc4e34
vmovaps 0x80(%rsp), %ymm6
vmovaps 0x60(%rsp), %ymm3
vmovaps %ymm23, %ymm18
vmovaps %ymm24, %ymm17
addq $0x8, %r14
cmpl %r14d, %edi
jg 0x1cc44ef
jmp 0x1cc4443
xorl %r9d, %r9d
vmovaps 0x80(%rsp), %ymm6
vmovaps 0x60(%rsp), %ymm3
vmovaps 0x40(%rsp), %xmm9
vmovaps 0x120(%rsp), %ymm17
jmp 0x1cc4b12
xorl %r9d, %r9d
jmp 0x1cc4b03
vmovaps 0x380(%rsp), %xmm0
vmovaps %xmm0, 0x1f0(%rsp)
vmovaps 0x390(%rsp), %xmm0
vmovaps %xmm0, 0x1e0(%rsp)
vmovaps 0x3a0(%rsp), %xmm0
vmovaps %xmm0, 0x4b0(%rsp)
vmovaps %ymm20, 0x1a0(%rsp)
vmovaps %ymm21, 0x180(%rsp)
movq %r11, 0x110(%rsp)
movq %r8, 0x30(%rsp)
movq %r10, 0x28(%rsp)
movq %rsi, 0x20(%rsp)
movl %edi, 0x1c(%rsp)
vmovaps %ymm28, 0x160(%rsp)
vmovaps %ymm29, 0x140(%rsp)
vmovss 0x100(%rsi,%r15,4), %xmm0
vmovss %xmm0, 0x200(%rsp)
vmovss 0x400(%rsp,%r12,4), %xmm0
vbroadcastss 0x3c0(%rsp,%r12,4), %ymm1
vbroadcastss 0x3e0(%rsp,%r12,4), %ymm2
vmovss %xmm0, 0x100(%rsi,%r15,4)
movq 0x8(%r10), %rax
vmovss 0x2277e9(%rip), %xmm0 # 0x1eec714
vsubss %xmm1, %xmm0, %xmm0
vaddss %xmm0, %xmm0, %xmm3
vmulss %xmm3, %xmm1, %xmm4
vfnmadd231ss %xmm0, %xmm0, %xmm4 # xmm4 = -(xmm0 * xmm0) + xmm4
vaddss %xmm1, %xmm1, %xmm5
vmovss 0x22c0a4(%rip), %xmm8 # 0x1ef0fec
vmovaps %xmm8, %xmm6
vfmadd213ss 0x22c0af(%rip), %xmm1, %xmm6 # xmm6 = (xmm1 * xmm6) + mem
vmulss %xmm1, %xmm8, %xmm7
vmulss %xmm7, %xmm1, %xmm7
vfmadd231ss %xmm6, %xmm5, %xmm7 # xmm7 = (xmm5 * xmm6) + xmm7
vmovaps %xmm8, %xmm5
vfmadd213ss 0x22c089(%rip), %xmm1, %xmm5 # xmm5 = (xmm1 * xmm5) + mem
vmulss 0x22c079(%rip), %xmm0, %xmm6 # 0x1ef0ff0
vmulss %xmm6, %xmm0, %xmm6
vfmadd231ss %xmm5, %xmm3, %xmm6 # xmm6 = (xmm3 * xmm5) + xmm6
vmulss 0x22ba54(%rip), %xmm0, %xmm0 # 0x1ef09dc
vmulss %xmm1, %xmm1, %xmm3
vfmadd231ss %xmm0, %xmm1, %xmm3 # xmm3 = (xmm1 * xmm0) + xmm3
vmovss 0x227be7(%rip), %xmm8 # 0x1eecb80
vmulss %xmm4, %xmm8, %xmm0
vmulss %xmm7, %xmm8, %xmm4
vmulss %xmm6, %xmm8, %xmm5
vmulss %xmm3, %xmm8, %xmm3
vbroadcastss %xmm3, %xmm3
vmulps 0x4b0(%rsp), %xmm3, %xmm3
vbroadcastss %xmm5, %xmm5
vfmadd132ps 0x1e0(%rsp), %xmm3, %xmm5 # xmm5 = (xmm5 * mem) + xmm3
vbroadcastss %xmm4, %xmm3
vfmadd132ps 0x1f0(%rsp), %xmm5, %xmm3 # xmm3 = (xmm3 * mem) + xmm5
vbroadcastss %xmm0, %xmm0
vfmadd213ps %xmm3, %xmm9, %xmm0 # xmm0 = (xmm9 * xmm0) + xmm3
vbroadcastss %xmm0, %ymm3
vbroadcastss 0x24d717(%rip), %ymm4 # 0x1f12704
vpermps %ymm0, %ymm4, %ymm4
vbroadcastss 0x25bee1(%rip), %ymm5 # 0x1f20edc
vpermps %ymm0, %ymm5, %ymm0
vmovaps %ymm3, 0x500(%rsp)
vmovaps %ymm4, 0x520(%rsp)
vmovaps %ymm0, 0x540(%rsp)
vmovaps %ymm1, 0x560(%rsp)
vmovaps %ymm2, 0x580(%rsp)
vmovaps 0x420(%rsp), %ymm0
vmovaps %ymm0, 0x5a0(%rsp)
vmovdqa 0x440(%rsp), %ymm0
vmovdqa %ymm0, 0x5c0(%rsp)
movq 0x118(%rsp), %rcx
vpcmpeqd %ymm0, %ymm0, %ymm0
vmovdqa %ymm0, 0x20(%rcx)
vmovdqa %ymm0, (%rcx)
vbroadcastss (%rax), %ymm0
vmovaps %ymm0, 0x5e0(%rsp)
vbroadcastss 0x4(%rax), %ymm0
vmovaps %ymm0, 0x600(%rsp)
vmovaps 0x4c0(%rsp), %ymm0
vmovaps %ymm0, 0x1c0(%rsp)
leaq 0x1c0(%rsp), %rcx
movq %rcx, 0xd0(%rsp)
movq 0x18(%r11), %rcx
movq %rcx, 0xd8(%rsp)
movq %rax, 0xe0(%rsp)
movq %rsi, 0xe8(%rsp)
leaq 0x500(%rsp), %rax
movq %rax, 0xf0(%rsp)
movl $0x8, 0xf8(%rsp)
movq 0x40(%r11), %rax
testq %rax, %rax
movl %r9d, 0x2a0(%rsp)
je 0x1cc5168
leaq 0xd0(%rsp), %rdi
vzeroupper
callq *%rax
movq 0x110(%rsp), %r11
movl 0x2a0(%rsp), %r9d
vmovaps 0x140(%rsp), %ymm29
vmovaps 0x160(%rsp), %ymm28
vmovaps 0x120(%rsp), %ymm17
vmovaps 0x240(%rsp), %ymm18
vmovaps 0x260(%rsp), %ymm22
movl 0x1c(%rsp), %edi
vmovaps 0x40(%rsp), %xmm9
vmovaps 0x180(%rsp), %ymm21
vmovaps 0x1a0(%rsp), %ymm20
vxorps %xmm27, %xmm27, %xmm27
leaq 0x46d633(%rip), %rdx # 0x213278c
movq 0x20(%rsp), %rsi
movq 0x28(%rsp), %r10
movq 0x30(%rsp), %r8
vmovdqa 0x1c0(%rsp), %ymm0
vptest %ymm0, %ymm0
vmovaps 0x80(%rsp), %ymm6
vmovaps 0x60(%rsp), %ymm3
je 0x1cc52dc
movq 0x10(%r10), %rcx
movq 0x10(%rcx), %rax
testq %rax, %rax
je 0x1cc5236
testb $0x2, (%rcx)
jne 0x1cc51ac
testb $0x40, 0x3e(%r11)
je 0x1cc5236
leaq 0xd0(%rsp), %rdi
vzeroupper
callq *%rax
movq 0x110(%rsp), %r11
movl 0x2a0(%rsp), %r9d
vmovaps 0x140(%rsp), %ymm29
vmovaps 0x160(%rsp), %ymm28
vmovaps 0x120(%rsp), %ymm17
vmovaps 0x240(%rsp), %ymm18
vmovaps 0x260(%rsp), %ymm22
movl 0x1c(%rsp), %edi
vmovaps 0x40(%rsp), %xmm9
vmovaps 0x180(%rsp), %ymm21
vmovaps 0x60(%rsp), %ymm3
vmovaps 0x1a0(%rsp), %ymm20
vmovaps 0x80(%rsp), %ymm6
vxorps %xmm27, %xmm27, %xmm27
leaq 0x46d565(%rip), %rdx # 0x213278c
movq 0x20(%rsp), %rsi
movq 0x28(%rsp), %r10
movq 0x30(%rsp), %r8
vmovdqa 0x1c0(%rsp), %ymm0
vptest %ymm0, %ymm0
je 0x1cc52dc
vptestmd %ymm0, %ymm0, %k1
movq 0xe8(%rsp), %rax
movq 0xf0(%rsp), %rcx
vmovaps (%rcx), %ymm0
vmovups %ymm0, 0x180(%rax) {%k1}
vmovaps 0x20(%rcx), %ymm0
vmovups %ymm0, 0x1a0(%rax) {%k1}
vmovaps 0x40(%rcx), %ymm0
vmovups %ymm0, 0x1c0(%rax) {%k1}
vmovaps 0x60(%rcx), %ymm0
vmovups %ymm0, 0x1e0(%rax) {%k1}
vmovaps 0x80(%rcx), %ymm0
vmovups %ymm0, 0x200(%rax) {%k1}
vmovdqa 0xa0(%rcx), %ymm0
vmovdqu32 %ymm0, 0x220(%rax) {%k1}
vmovdqa 0xc0(%rcx), %ymm0
vmovdqu32 %ymm0, 0x240(%rax) {%k1}
vmovdqa 0xe0(%rcx), %ymm0
vmovdqa32 %ymm0, 0x260(%rax) {%k1}
vmovdqa 0x100(%rcx), %ymm0
vmovdqa32 %ymm0, 0x280(%rax) {%k1}
jmp 0x1cc52ef
vmovd 0x200(%rsp), %xmm0
vmovd %xmm0, 0x100(%rsi,%r15,4)
movl $0x1, %eax
shlxl %r12d, %eax, %eax
kmovd %eax, %k0
movzbl %r9b, %eax
kmovd %eax, %k1
kandnb %k1, %k0, %k0
vcmpleps 0x100(%rsi,%r15,4){1to8}, %ymm21, %k1
kandb %k1, %k0, %k2
kmovd %k2, %r9d
ktestb %k1, %k0
je 0x1cc536d
kmovd %r9d, %k1
vbroadcastss 0x2266f2(%rip), %ymm0 # 0x1eeba20
vblendmps %ymm21, %ymm0, %ymm0 {%k1}
vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm0, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1]
vminps %ymm2, %ymm1, %ymm1
vcmpeqps %ymm1, %ymm0, %k0
kmovd %k0, %eax
andb %r9b, %al
movzbl %al, %eax
movzbl %r9b, %ecx
cmovnel %eax, %ecx
tzcntl %ecx, %r12d
testb %r9b, %r9b
jne 0x1cc4ee4
jmp 0x1cc4e10
xorl %r12d, %r12d
vmovaps 0x80(%rsp), %ymm6
vmovaps 0x60(%rsp), %ymm3
vmovaps 0x40(%rsp), %xmm9
vmovaps 0x160(%rsp), %ymm28
vmovaps 0x140(%rsp), %ymm29
vmovaps 0x220(%rsp), %xmm10
jmp 0x1cc40f9
xorl %r12d, %r12d
vmovaps 0x80(%rsp), %ymm6
vmovaps 0x60(%rsp), %ymm3
vmovaps 0x40(%rsp), %xmm9
jmp 0x1cc40f9
xorl %r12d, %r12d
vmovaps 0x80(%rsp), %ymm6
vmovaps 0x60(%rsp), %ymm3
jmp 0x1cc40f9
movq 0x38(%rsp), %rax
vpbroadcastd %eax, %ymm0
vmovdqa %ymm0, 0x420(%rsp)
movq 0x58(%rsp), %rax
vpbroadcastd %eax, %ymm0
vmovdqa %ymm0, 0x2a0(%rsp)
vmovaps 0x380(%rsp), %xmm0
vmovaps %xmm0, 0x200(%rsp)
vmovaps 0x390(%rsp), %xmm0
vmovaps %xmm0, 0x1f0(%rsp)
vmovaps 0x3a0(%rsp), %xmm0
vmovaps %xmm0, 0x1e0(%rsp)
movq %r8, 0x30(%rsp)
movq %r10, 0x28(%rsp)
movq %rsi, 0x20(%rsp)
movl %edi, 0x1c(%rsp)
vmovss 0x100(%rsi,%r15,4), %xmm0
vmovss %xmm0, 0x440(%rsp)
vmovss 0x400(%rsp,%r9,4), %xmm0
vbroadcastss 0x3c0(%rsp,%r9,4), %ymm1
vbroadcastss 0x3e0(%rsp,%r9,4), %ymm2
vmovss %xmm0, 0x100(%rsi,%r15,4)
movq 0x8(%r10), %rax
vmovss 0x227277(%rip), %xmm0 # 0x1eec714
vsubss %xmm1, %xmm0, %xmm0
vaddss %xmm0, %xmm0, %xmm3
vmulss %xmm3, %xmm1, %xmm4
vfnmadd231ss %xmm0, %xmm0, %xmm4 # xmm4 = -(xmm0 * xmm0) + xmm4
vaddss %xmm1, %xmm1, %xmm5
vmovss 0x22bb32(%rip), %xmm8 # 0x1ef0fec
vmovaps %xmm8, %xmm6
vfmadd213ss 0x22bb3d(%rip), %xmm1, %xmm6 # xmm6 = (xmm1 * xmm6) + mem
vmulss %xmm1, %xmm8, %xmm7
vmulss %xmm7, %xmm1, %xmm7
vfmadd231ss %xmm6, %xmm5, %xmm7 # xmm7 = (xmm5 * xmm6) + xmm7
vmovaps %xmm8, %xmm5
vfmadd213ss 0x22bb17(%rip), %xmm1, %xmm5 # xmm5 = (xmm1 * xmm5) + mem
vmulss 0x22bb07(%rip), %xmm0, %xmm6 # 0x1ef0ff0
vmulss %xmm6, %xmm0, %xmm6
vfmadd231ss %xmm5, %xmm3, %xmm6 # xmm6 = (xmm3 * xmm5) + xmm6
vmulss 0x22b4e2(%rip), %xmm0, %xmm0 # 0x1ef09dc
vmulss %xmm1, %xmm1, %xmm3
vfmadd231ss %xmm0, %xmm1, %xmm3 # xmm3 = (xmm1 * xmm0) + xmm3
vmovss 0x227675(%rip), %xmm8 # 0x1eecb80
vmulss %xmm4, %xmm8, %xmm0
vmulss %xmm7, %xmm8, %xmm4
vmulss %xmm6, %xmm8, %xmm5
vmulss %xmm3, %xmm8, %xmm3
vbroadcastss %xmm3, %xmm3
vmulps 0x1e0(%rsp), %xmm3, %xmm3
vbroadcastss %xmm5, %xmm5
vfmadd132ps 0x1f0(%rsp), %xmm3, %xmm5 # xmm5 = (xmm5 * mem) + xmm3
vbroadcastss %xmm4, %xmm3
vfmadd132ps 0x200(%rsp), %xmm5, %xmm3 # xmm3 = (xmm3 * mem) + xmm5
vbroadcastss %xmm0, %xmm0
vfmadd213ps %xmm3, %xmm9, %xmm0 # xmm0 = (xmm9 * xmm0) + xmm3
vbroadcastss %xmm0, %ymm3
vbroadcastss 0x24d1a5(%rip), %ymm4 # 0x1f12704
vpermps %ymm0, %ymm4, %ymm4
vbroadcastss 0x25b96f(%rip), %ymm5 # 0x1f20edc
vpermps %ymm0, %ymm5, %ymm0
vmovaps %ymm3, 0x500(%rsp)
vmovaps %ymm4, 0x520(%rsp)
vmovaps %ymm0, 0x540(%rsp)
vmovaps %ymm1, 0x560(%rsp)
vmovaps %ymm2, 0x580(%rsp)
vmovaps 0x2a0(%rsp), %ymm0
vmovaps %ymm0, 0x5a0(%rsp)
vmovdqa 0x420(%rsp), %ymm0
vmovdqa %ymm0, 0x5c0(%rsp)
movq 0x118(%rsp), %rcx
vpcmpeqd %ymm0, %ymm0, %ymm0
vmovdqa %ymm0, 0x20(%rcx)
vmovdqa %ymm0, (%rcx)
vbroadcastss (%rax), %ymm0
vmovaps %ymm0, 0x5e0(%rsp)
vbroadcastss 0x4(%rax), %ymm0
vmovaps %ymm0, 0x600(%rsp)
vmovaps 0x4c0(%rsp), %ymm0
vmovaps %ymm0, 0x1c0(%rsp)
leaq 0x1c0(%rsp), %rcx
movq %rcx, 0xd0(%rsp)
movq 0x18(%r14), %rcx
movq %rcx, 0xd8(%rsp)
movq %rax, 0xe0(%rsp)
movq %rsi, 0xe8(%rsp)
leaq 0x500(%rsp), %rax
movq %rax, 0xf0(%rsp)
movl $0x8, 0xf8(%rsp)
movq 0x40(%r14), %rax
testq %rax, %rax
movq %r9, 0x2c0(%rsp)
je 0x1cc56e7
leaq 0xd0(%rsp), %rdi
vzeroupper
callq *%rax
movq 0x2c0(%rsp), %r9
vmovaps 0x220(%rsp), %xmm10
vmovaps 0x280(%rsp), %xmm26
vmovaps 0x140(%rsp), %ymm29
vmovaps 0x160(%rsp), %ymm28
vmovaps 0x120(%rsp), %ymm17
vmovaps 0x240(%rsp), %ymm18
vmovaps 0x260(%rsp), %ymm22
movl 0x1c(%rsp), %edi
vmovaps 0x40(%rsp), %xmm9
vmovaps 0x180(%rsp), %ymm21
vmovaps 0x1a0(%rsp), %ymm20
vxorps %xmm27, %xmm27, %xmm27
leaq 0x46d0b4(%rip), %rdx # 0x213278c
movq 0x20(%rsp), %rsi
movq 0x28(%rsp), %r10
movq 0x30(%rsp), %r8
vmovdqa 0x1c0(%rsp), %ymm0
vptest %ymm0, %ymm0
vmovaps 0x80(%rsp), %ymm6
vmovaps 0x60(%rsp), %ymm3
je 0x1cc5864
movq 0x10(%r10), %rcx
movq 0x10(%rcx), %rax
testq %rax, %rax
je 0x1cc57be
testb $0x2, (%rcx)
jne 0x1cc572b
testb $0x40, 0x3e(%r14)
je 0x1cc57be
leaq 0xd0(%rsp), %rdi
vzeroupper
callq *%rax
movq 0x2c0(%rsp), %r9
vmovaps 0x220(%rsp), %xmm10
vmovaps 0x280(%rsp), %xmm26
vmovaps 0x140(%rsp), %ymm29
vmovaps 0x160(%rsp), %ymm28
vmovaps 0x120(%rsp), %ymm17
vmovaps 0x240(%rsp), %ymm18
vmovaps 0x260(%rsp), %ymm22
movl 0x1c(%rsp), %edi
vmovaps 0x40(%rsp), %xmm9
vmovaps 0x180(%rsp), %ymm21
vmovaps 0x60(%rsp), %ymm3
vmovaps 0x1a0(%rsp), %ymm20
vmovaps 0x80(%rsp), %ymm6
vxorps %xmm27, %xmm27, %xmm27
leaq 0x46cfdd(%rip), %rdx # 0x213278c
movq 0x20(%rsp), %rsi
movq 0x28(%rsp), %r10
movq 0x30(%rsp), %r8
vmovdqa 0x1c0(%rsp), %ymm0
vptest %ymm0, %ymm0
je 0x1cc5864
vptestmd %ymm0, %ymm0, %k1
movq 0xe8(%rsp), %rax
movq 0xf0(%rsp), %rcx
vmovaps (%rcx), %ymm0
vmovups %ymm0, 0x180(%rax) {%k1}
vmovaps 0x20(%rcx), %ymm0
vmovups %ymm0, 0x1a0(%rax) {%k1}
vmovaps 0x40(%rcx), %ymm0
vmovups %ymm0, 0x1c0(%rax) {%k1}
vmovaps 0x60(%rcx), %ymm0
vmovups %ymm0, 0x1e0(%rax) {%k1}
vmovaps 0x80(%rcx), %ymm0
vmovups %ymm0, 0x200(%rax) {%k1}
vmovdqa 0xa0(%rcx), %ymm0
vmovdqu32 %ymm0, 0x220(%rax) {%k1}
vmovdqa 0xc0(%rcx), %ymm0
vmovdqu32 %ymm0, 0x240(%rax) {%k1}
vmovdqa 0xe0(%rcx), %ymm0
vmovdqa32 %ymm0, 0x260(%rax) {%k1}
vmovdqa 0x100(%rcx), %ymm0
vmovdqa32 %ymm0, 0x280(%rax) {%k1}
jmp 0x1cc5877
vmovd 0x440(%rsp), %xmm0
vmovd %xmm0, 0x100(%rsi,%r15,4)
movl $0x1, %eax
shlxl %r9d, %eax, %eax
kmovd %eax, %k0
movzbl %r12b, %eax
kmovd %eax, %k1
kandnb %k1, %k0, %k0
vcmpleps 0x100(%rsi,%r15,4){1to8}, %ymm3, %k1
kandb %k1, %k0, %k2
kmovd %k2, %r12d
ktestb %k1, %k0
je 0x1cc58f5
kmovd %r12d, %k1
vbroadcastss 0x22616a(%rip), %ymm0 # 0x1eeba20
vblendmps %ymm3, %ymm0, %ymm0 {%k1}
vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm0, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1]
vminps %ymm2, %ymm1, %ymm1
vcmpeqps %ymm1, %ymm0, %k0
kmovd %k0, %eax
andb %r12b, %al
movzbl %al, %eax
movzbl %r12b, %ecx
cmovnel %eax, %ecx
tzcntl %ecx, %r9d
testb %r12b, %r12b
jne 0x1cc5456
jmp 0x1cc43f8
leaq -0x28(%rbp), %rsp
popq %rbx
popq %r12
popq %r13
popq %r14
popq %r15
popq %rbp
vzeroupper
retq
nop
|
/embree[P]embree/kernels/geometry/curveNi_intersector.h
|
bool embree::avx512::CurveNiIntersectorK<8, 8>::occluded_t<embree::avx512::RibbonCurve1IntersectorK<embree::CatmullRomCurveT, 8, 8>, embree::avx512::Occluded1KEpilogMU<8, 8, true>>(embree::avx512::CurvePrecalculationsK<8>&, embree::RayK<8>&, unsigned long, embree::RayQueryContext*, embree::CurveNi<8> const&)
|
static __forceinline bool occluded_t(Precalculations& pre, RayK<K>& ray, const size_t k, RayQueryContext* context, const Primitive& prim)
{
vfloat<M> tNear;
vbool<M> valid = intersect(ray,k,prim,tNear);
const size_t N = prim.N;
size_t mask = movemask(valid);
while (mask)
{
const size_t i = bscf(mask);
STAT3(shadow.trav_prims,1,1,1);
const unsigned int geomID = prim.geomID(N);
const unsigned int primID = prim.primID(N)[i];
const CurveGeometry* geom = context->scene->get<CurveGeometry>(geomID);
Vec3ff a0,a1,a2,a3; geom->gather(a0,a1,a2,a3,geom->curve(primID));
size_t mask1 = mask;
const size_t i1 = bscf(mask1);
if (mask) {
const unsigned int primID1 = prim.primID(N)[i1];
geom->prefetchL1_vertices(geom->curve(primID1));
if (mask1) {
const size_t i2 = bsf(mask1);
const unsigned int primID2 = prim.primID(N)[i2];
geom->prefetchL2_vertices(geom->curve(primID2));
}
}
if (Intersector().intersect(pre,ray,k,context,geom,primID,a0,a1,a2,a3,Epilog(ray,k,context,geomID,primID)))
return true;
mask &= movemask(tNear <= vfloat<M>(ray.tfar[k]));
}
return false;
}
|
pushq %rbp
movq %rsp, %rbp
pushq %r15
pushq %r14
pushq %r13
pushq %r12
pushq %rbx
andq $-0x20, %rsp
subq $0x780, %rsp # imm = 0x780
movq %rdx, %r14
movq %rsi, %r15
movzbl 0x1(%r8), %eax
leaq (%rax,%rax,4), %rdx
leaq (%rdx,%rdx,4), %rsi
vbroadcastss 0x12(%r8,%rsi), %xmm0
vmovss (%r15,%r14,4), %xmm1
vmovss 0x80(%r15,%r14,4), %xmm2
vinsertps $0x10, 0x20(%r15,%r14,4), %xmm1, %xmm1 # xmm1 = xmm1[0],mem[0],xmm1[2,3]
vinsertps $0x20, 0x40(%r15,%r14,4), %xmm1, %xmm1 # xmm1 = xmm1[0,1],mem[0],xmm1[3]
vinsertps $0x10, 0xa0(%r15,%r14,4), %xmm2, %xmm2 # xmm2 = xmm2[0],mem[0],xmm2[2,3]
movq %rcx, %r10
movq %rdi, %r11
vinsertps $0x20, 0xc0(%r15,%r14,4), %xmm2, %xmm2 # xmm2 = xmm2[0,1],mem[0],xmm2[3]
vsubps 0x6(%r8,%rsi), %xmm1, %xmm1
vmulps %xmm1, %xmm0, %xmm3
vmulps %xmm2, %xmm0, %xmm0
vpmovsxbd 0x6(%r8,%rax,4), %ymm1
vcvtdq2ps %ymm1, %ymm5
vpmovsxbd 0x6(%r8,%rdx), %ymm1
vcvtdq2ps %ymm1, %ymm6
leaq (%rax,%rax,2), %rcx
vpmovsxbd 0x6(%r8,%rcx,2), %ymm1
vcvtdq2ps %ymm1, %ymm2
leaq (%rax,%rdx,2), %rsi
vpmovsxbd 0x6(%r8,%rsi), %ymm1
vcvtdq2ps %ymm1, %ymm7
leal (,%rcx,4), %esi
vpmovsxbd 0x6(%r8,%rsi), %ymm1
vcvtdq2ps %ymm1, %ymm8
addq %rax, %rsi
vpmovsxbd 0x6(%r8,%rsi), %ymm1
vcvtdq2ps %ymm1, %ymm9
leaq (%rax,%rax,8), %rsi
leal (%rsi,%rsi), %edi
vpmovsxbd 0x6(%r8,%rdi), %ymm1
addq %rax, %rdi
vpmovsxbd 0x6(%r8,%rdi), %ymm4
vcvtdq2ps %ymm1, %ymm10
vcvtdq2ps %ymm4, %ymm11
shll $0x2, %edx
vpmovsxbd 0x6(%r8,%rdx), %ymm1
vcvtdq2ps %ymm1, %ymm12
vbroadcastss %xmm0, %ymm13
vbroadcastss 0x24cce1(%rip), %ymm15 # 0x1f12704
vpermps %ymm0, %ymm15, %ymm14
vbroadcastss 0x25b4aa(%rip), %ymm16 # 0x1f20edc
vpermps %ymm0, %ymm16, %ymm0
vmulps %ymm2, %ymm0, %ymm4
vmulps %ymm0, %ymm9, %ymm1
vmulps %ymm0, %ymm12, %ymm0
vfmadd231ps %ymm6, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm6) + ymm4
vfmadd231ps %ymm8, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm8) + ymm1
vfmadd231ps %ymm14, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm14) + ymm0
vfmadd231ps %ymm5, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm5) + ymm4
vfmadd231ps %ymm7, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm7) + ymm1
vfmadd231ps %ymm13, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm13) + ymm0
vbroadcastss %xmm3, %ymm13
vpermps %ymm3, %ymm15, %ymm14
vpermps %ymm3, %ymm16, %ymm15
vmulps %ymm2, %ymm15, %ymm16
vmulps %ymm9, %ymm15, %ymm3
vmulps %ymm12, %ymm15, %ymm2
vfmadd231ps %ymm6, %ymm14, %ymm16 # ymm16 = (ymm14 * ymm6) + ymm16
vfmadd231ps %ymm8, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm8) + ymm3
vfmadd231ps %ymm11, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm11) + ymm2
vfmadd231ps %ymm5, %ymm13, %ymm16 # ymm16 = (ymm13 * ymm5) + ymm16
vfmadd231ps %ymm7, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm7) + ymm3
vfmadd231ps %ymm10, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm10) + ymm2
vbroadcastss 0x25b419(%rip), %ymm7 # 0x1f20ec4
vandps %ymm7, %ymm4, %ymm5
vbroadcastss 0x22b530(%rip), %ymm6 # 0x1ef0fe8
vcmpltps %ymm6, %ymm5, %k1
vmovaps %ymm6, %ymm4 {%k1}
vandps %ymm7, %ymm1, %ymm5
vcmpltps %ymm6, %ymm5, %k1
vmovaps %ymm6, %ymm1 {%k1}
vandps %ymm7, %ymm0, %ymm5
vcmpltps %ymm6, %ymm5, %k1
vmovaps %ymm6, %ymm0 {%k1}
vrcp14ps %ymm4, %ymm5
vbroadcastss 0x226c1e(%rip), %ymm6 # 0x1eec714
vfnmadd213ps %ymm6, %ymm5, %ymm4 # ymm4 = -(ymm5 * ymm4) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm4 # ymm4 = (ymm4 * ymm5) + ymm5
vrcp14ps %ymm1, %ymm5
vfnmadd213ps %ymm6, %ymm5, %ymm1 # ymm1 = -(ymm5 * ymm1) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm1 # ymm1 = (ymm1 * ymm5) + ymm5
vrcp14ps %ymm0, %ymm5
vfnmadd213ps %ymm6, %ymm5, %ymm0 # ymm0 = -(ymm5 * ymm0) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm0 # ymm0 = (ymm0 * ymm5) + ymm5
leaq (,%rax,8), %rdi
subq %rax, %rdi
vpmovsxwd 0x6(%r8,%rdi), %ymm5
vcvtdq2ps %ymm5, %ymm5
vsubps %ymm16, %ymm5, %ymm5
vpmovsxwd 0x6(%r8,%rsi), %ymm6
vmulps %ymm5, %ymm4, %ymm5
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm16, %ymm6, %ymm6
vmulps %ymm6, %ymm4, %ymm4
leaq (%rax,%rax), %rsi
addq %rax, %rdx
shlq $0x3, %rcx
subq %rax, %rcx
movl %eax, %edi
shll $0x4, %edi
vpmovsxwd 0x6(%r8,%rdi), %ymm6
subq %rsi, %rdi
vpmovsxwd 0x6(%r8,%rdi), %ymm7
vcvtdq2ps %ymm7, %ymm7
vsubps %ymm3, %ymm7, %ymm7
vmulps %ymm7, %ymm1, %ymm7
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm3, %ymm6, %ymm3
vmulps %ymm3, %ymm1, %ymm1
vpmovsxwd 0x6(%r8,%rdx), %ymm3
vcvtdq2ps %ymm3, %ymm3
vsubps %ymm2, %ymm3, %ymm3
vmulps %ymm0, %ymm3, %ymm3
vpmovsxwd 0x6(%r8,%rcx), %ymm6
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm2, %ymm6, %ymm2
vmulps %ymm2, %ymm0, %ymm0
vpminsd %ymm4, %ymm5, %ymm2
vpminsd %ymm1, %ymm7, %ymm6
vmaxps %ymm6, %ymm2, %ymm2
vpminsd %ymm0, %ymm3, %ymm6
vmaxps 0x60(%r15,%r14,4){1to8}, %ymm6, %ymm6
vmaxps %ymm6, %ymm2, %ymm2
vmulps 0x25a330(%rip){1to8}, %ymm2, %ymm6 # 0x1f1ff10
vpmaxsd %ymm4, %ymm5, %ymm2
vpmaxsd %ymm1, %ymm7, %ymm1
vminps %ymm1, %ymm2, %ymm1
vpmaxsd %ymm0, %ymm3, %ymm0
vminps 0x100(%r15,%r14,4){1to8}, %ymm0, %ymm0
vminps %ymm0, %ymm1, %ymm0
vmulps 0x25a30b(%rip){1to8}, %ymm0, %ymm0 # 0x1f1ff14
vpbroadcastd %eax, %ymm1
vpcmpgtd 0x294d07(%rip), %ymm1, %k0 # 0x1f5a920
vmovaps %ymm6, 0x740(%rsp)
vcmpleps %ymm0, %ymm6, %k1
ktestb %k0, %k1
setne 0x7(%rsp)
je 0x1cc7919
kandb %k0, %k1, %k0
kmovd %k0, %eax
movzbl %al, %r12d
leaq (%r14,%r14,2), %rax
shlq $0x4, %rax
addq %r11, %rax
addq $0x20, %rax
movq %rax, 0x178(%rsp)
leaq 0x500(%rsp), %rax
leaq 0xe0(%rax), %rax
movq %rax, 0x88(%rsp)
movl $0x1, %eax
shlxl %r14d, %eax, %eax
kmovd %eax, %k0
vpmovm2d %k0, %ymm0
vmovdqa %ymm0, 0x4c0(%rsp)
vmovaps %ymm6, 0x60(%rsp)
vmovaps %ymm2, 0x40(%rsp)
vmovaps %ymm21, 0x1e0(%rsp)
vmovaps %ymm20, 0x200(%rsp)
tzcntq %r12, %rax
movl 0x2(%r8), %ecx
movl 0x6(%r8,%rax,4), %esi
movq (%r10), %rax
movq 0x1e8(%rax), %rax
movq %rcx, 0x80(%rsp)
movq (%rax,%rcx,8), %r13
movq 0x58(%r13), %rax
movq 0x68(%r13), %rcx
movq %rcx, %rdx
movq %rsi, 0x10(%rsp)
imulq %rsi, %rdx
movl (%rax,%rdx), %edi
movq 0xa0(%r13), %rdx
movq %rdx, %r9
imulq %rdi, %r9
movq 0x90(%r13), %rsi
vmovaps (%rsi,%r9), %xmm13
leaq 0x1(%rdi), %r9
imulq %rdx, %r9
vmovaps (%rsi,%r9), %xmm0
vmovaps %xmm0, 0x110(%rsp)
leaq 0x2(%rdi), %r9
imulq %rdx, %r9
vmovaps (%rsi,%r9), %xmm0
vmovaps %xmm0, 0x100(%rsp)
blsrq %r12, %r12
addq $0x3, %rdi
imulq %rdx, %rdi
vmovaps (%rsi,%rdi), %xmm0
vmovaps %xmm0, 0x160(%rsp)
movq %r12, %rdi
subq $0x1, %rdi
jb 0x1cc5d9a
andq %r12, %rdi
tzcntq %r12, %r9
movl 0x6(%r8,%r9,4), %r9d
imulq %rcx, %r9
movl (%rax,%r9), %r9d
imulq %rdx, %r9
prefetcht0 (%rsi,%r9)
prefetcht0 0x40(%rsi,%r9)
testq %rdi, %rdi
je 0x1cc5d9a
tzcntq %rdi, %rdi
movl 0x6(%r8,%rdi,4), %edi
imulq %rdi, %rcx
movl (%rax,%rcx), %eax
imulq %rax, %rdx
prefetcht1 (%rsi,%rdx)
prefetcht1 0x40(%rsi,%rdx)
movl 0x248(%r13), %r9d
vmovss (%r15,%r14,4), %xmm0
vinsertps $0x1c, 0x20(%r15,%r14,4), %xmm0, %xmm0 # xmm0 = xmm0[0],mem[0],zero,zero
vinsertps $0x28, 0x40(%r15,%r14,4), %xmm0, %xmm0 # xmm0 = xmm0[0,1],mem[0],zero
vsubps %xmm0, %xmm13, %xmm1
vbroadcastss %xmm1, %xmm2
vshufps $0x55, %xmm1, %xmm1, %xmm3 # xmm3 = xmm1[1,1,1,1]
vshufps $0xaa, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,2,2,2]
movq 0x178(%rsp), %rax
vmovaps (%rax), %xmm4
vmovaps 0x10(%rax), %xmm5
vmovaps 0x20(%rax), %xmm6
vmulps %xmm1, %xmm6, %xmm8
vfmadd231ps %xmm3, %xmm5, %xmm8 # xmm8 = (xmm5 * xmm3) + xmm8
vfmadd231ps %xmm2, %xmm4, %xmm8 # xmm8 = (xmm4 * xmm2) + xmm8
vshufps $0xff, %xmm13, %xmm13, %xmm1 # xmm1 = xmm13[3,3,3,3]
vmovaps 0x110(%rsp), %xmm3
vsubps %xmm0, %xmm3, %xmm2
vmovaps %xmm3, %xmm10
vbroadcastss %xmm2, %xmm3
vshufps $0x55, %xmm2, %xmm2, %xmm7 # xmm7 = xmm2[1,1,1,1]
vshufps $0xaa, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[2,2,2,2]
vmulps %xmm2, %xmm6, %xmm9
vfmadd231ps %xmm7, %xmm5, %xmm9 # xmm9 = (xmm5 * xmm7) + xmm9
vfmadd231ps %xmm3, %xmm4, %xmm9 # xmm9 = (xmm4 * xmm3) + xmm9
vshufps $0xff, %xmm10, %xmm10, %xmm2 # xmm2 = xmm10[3,3,3,3]
vmovaps 0x100(%rsp), %xmm7
vsubps %xmm0, %xmm7, %xmm3
vmovaps %xmm7, %xmm12
vbroadcastss %xmm3, %xmm7
vshufps $0x55, %xmm3, %xmm3, %xmm11 # xmm11 = xmm3[1,1,1,1]
vshufps $0xaa, %xmm3, %xmm3, %xmm3 # xmm3 = xmm3[2,2,2,2]
vmulps %xmm3, %xmm6, %xmm10
vfmadd231ps %xmm11, %xmm5, %xmm10 # xmm10 = (xmm5 * xmm11) + xmm10
vfmadd231ps %xmm7, %xmm4, %xmm10 # xmm10 = (xmm4 * xmm7) + xmm10
vshufps $0xff, %xmm12, %xmm12, %xmm7 # xmm7 = xmm12[3,3,3,3]
vmovaps 0x160(%rsp), %xmm27
vsubps %xmm0, %xmm27, %xmm0
vbroadcastss %xmm0, %xmm3
vshufps $0x55, %xmm0, %xmm0, %xmm12 # xmm12 = xmm0[1,1,1,1]
vshufps $0xaa, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[2,2,2,2]
vmulps %xmm0, %xmm6, %xmm11
vfmadd231ps %xmm12, %xmm5, %xmm11 # xmm11 = (xmm5 * xmm12) + xmm11
vfmadd231ps %xmm3, %xmm4, %xmm11 # xmm11 = (xmm4 * xmm3) + xmm11
movslq %r9d, %rax
movq %rax, %rcx
shlq $0x6, %rcx
leaq (%rcx,%rax,4), %rbx
leaq 0x46a4d0(%rip), %rdx # 0x213036c
vmovups (%rdx,%rbx), %ymm25
vshufps $0xff, %xmm27, %xmm27, %xmm0 # xmm0 = xmm27[3,3,3,3]
vbroadcastss %xmm8, %ymm20
vbroadcastss 0x24c84b(%rip), %ymm3 # 0x1f12704
vpermps %ymm8, %ymm3, %ymm23
vbroadcastsd %xmm1, %ymm12
vmovups 0x484(%rdx,%rbx), %ymm14
vbroadcastss %xmm9, %ymm1
vpermps %ymm9, %ymm3, %ymm31
vbroadcastsd %xmm2, %ymm21
vmovups 0x908(%rdx,%rbx), %ymm15
vbroadcastss %xmm10, %ymm29
vpermps %ymm10, %ymm3, %ymm30
vbroadcastsd %xmm7, %ymm22
vmovups 0xd8c(%rdx,%rbx), %ymm16
vbroadcastss %xmm11, %ymm28
vpermps %ymm11, %ymm3, %ymm26
vbroadcastsd %xmm0, %ymm3
vmulps %ymm16, %ymm28, %ymm5
vmulps %ymm16, %ymm26, %ymm4
vfmadd231ps %ymm29, %ymm15, %ymm5 # ymm5 = (ymm15 * ymm29) + ymm5
vfmadd231ps %ymm30, %ymm15, %ymm4 # ymm4 = (ymm15 * ymm30) + ymm4
vfmadd231ps %ymm1, %ymm14, %ymm5 # ymm5 = (ymm14 * ymm1) + ymm5
vfmadd231ps %ymm31, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm31) + ymm4
vfmadd231ps %ymm20, %ymm25, %ymm5 # ymm5 = (ymm25 * ymm20) + ymm5
leaq 0x46c847(%rip), %rsi # 0x213278c
vmovups (%rsi,%rbx), %ymm2
vmovups 0x484(%rsi,%rbx), %ymm17
vfmadd231ps %ymm23, %ymm25, %ymm4 # ymm4 = (ymm25 * ymm23) + ymm4
vmovups 0x908(%rsi,%rbx), %ymm18
vmovups 0xd8c(%rsi,%rbx), %ymm19
vmulps %ymm19, %ymm28, %ymm7
vmulps %ymm19, %ymm26, %ymm6
vfmadd231ps %ymm29, %ymm18, %ymm7 # ymm7 = (ymm18 * ymm29) + ymm7
vfmadd231ps %ymm30, %ymm18, %ymm6 # ymm6 = (ymm18 * ymm30) + ymm6
vmovaps %ymm1, 0x120(%rsp)
vfmadd231ps %ymm1, %ymm17, %ymm7 # ymm7 = (ymm17 * ymm1) + ymm7
vfmadd231ps %ymm31, %ymm17, %ymm6 # ymm6 = (ymm17 * ymm31) + ymm6
vmovaps %ymm20, 0x260(%rsp)
vfmadd231ps %ymm20, %ymm2, %ymm7 # ymm7 = (ymm2 * ymm20) + ymm7
vmovaps %ymm23, 0x240(%rsp)
vfmadd231ps %ymm23, %ymm2, %ymm6 # ymm6 = (ymm2 * ymm23) + ymm6
vsubps %ymm5, %ymm7, %ymm24
vsubps %ymm4, %ymm6, %ymm23
vmulps %ymm24, %ymm4, %ymm0
vmulps %ymm23, %ymm5, %ymm1
vsubps %ymm1, %ymm0, %ymm20
vmulps %ymm16, %ymm3, %ymm0
vfmadd231ps %ymm22, %ymm15, %ymm0 # ymm0 = (ymm15 * ymm22) + ymm0
vfmadd231ps %ymm21, %ymm14, %ymm0 # ymm0 = (ymm14 * ymm21) + ymm0
vfmadd231ps %ymm12, %ymm25, %ymm0 # ymm0 = (ymm25 * ymm12) + ymm0
vmovaps %ymm3, 0x680(%rsp)
vmulps %ymm19, %ymm3, %ymm1
vmovaps %ymm22, 0x6a0(%rsp)
vfmadd231ps %ymm22, %ymm18, %ymm1 # ymm1 = (ymm18 * ymm22) + ymm1
vmovaps %ymm21, 0x700(%rsp)
vfmadd231ps %ymm21, %ymm17, %ymm1 # ymm1 = (ymm17 * ymm21) + ymm1
vmovaps %ymm12, 0x720(%rsp)
vfmadd231ps %ymm12, %ymm2, %ymm1 # ymm1 = (ymm2 * ymm12) + ymm1
vmulps %ymm23, %ymm23, %ymm21
vfmadd231ps %ymm24, %ymm24, %ymm21 # ymm21 = (ymm24 * ymm24) + ymm21
vmaxps %ymm1, %ymm0, %ymm22
vmulps %ymm22, %ymm22, %ymm22
vmulps %ymm21, %ymm22, %ymm21
vmulps %ymm20, %ymm20, %ymm20
vcmpleps %ymm21, %ymm20, %k1
vmovaps %xmm13, 0x20(%rsp)
vblendps $0x8, %xmm13, %xmm8, %xmm12 # xmm12 = xmm8[0,1,2],xmm13[3]
vbroadcastss 0x25ae5a(%rip), %xmm20 # 0x1f20ec4
vandps %xmm20, %xmm12, %xmm12
vblendps $0x8, 0x110(%rsp), %xmm9, %xmm13 # xmm13 = xmm9[0,1,2],mem[3]
vandps %xmm20, %xmm13, %xmm13
vmaxps %xmm13, %xmm12, %xmm12
vblendps $0x8, 0x100(%rsp), %xmm10, %xmm13 # xmm13 = xmm10[0,1,2],mem[3]
vandps %xmm20, %xmm13, %xmm13
vmovaps %xmm27, %xmm3
vblendps $0x8, %xmm3, %xmm11, %xmm3 # xmm3 = xmm11[0,1,2],xmm3[3]
vandps %xmm20, %xmm3, %xmm3
vmaxps %xmm3, %xmm13, %xmm3
vmaxps %xmm3, %xmm12, %xmm3
vmovshdup %xmm3, %xmm12 # xmm12 = xmm3[1,1,3,3]
vmaxss %xmm3, %xmm12, %xmm12
vshufpd $0x1, %xmm3, %xmm3, %xmm3 # xmm3 = xmm3[1,0]
vmaxss %xmm12, %xmm3, %xmm3
vcvtsi2ss %r9d, %xmm8, %xmm12
vmovaps %xmm12, 0x2e0(%rsp)
vbroadcastss %xmm12, %ymm12
vcmpgtps 0x25ae5f(%rip), %ymm12, %k1 {%k1} # 0x1f20f40
vmulss 0x22aefb(%rip), %xmm3, %xmm12 # 0x1ef0fe4
vbroadcastss 0x25adea(%rip), %ymm3 # 0x1f20edc
vpermps %ymm8, %ymm3, %ymm20
vpermps %ymm9, %ymm3, %ymm21
vpermps %ymm10, %ymm3, %ymm22
vpermps %ymm11, %ymm3, %ymm8
kortestb %k1, %k1
vmovss 0x60(%r15,%r14,4), %xmm10
vmovaps %ymm31, 0x4e0(%rsp)
vmovaps %ymm29, 0x6e0(%rsp)
vmovaps %ymm30, 0x6c0(%rsp)
vmovaps %ymm20, 0x660(%rsp)
vmovaps %ymm21, 0x640(%rsp)
vmovaps %ymm22, 0x620(%rsp)
je 0x1cc6be3
vmovaps %xmm10, 0x180(%rsp)
vmulps %ymm19, %ymm8, %ymm3
vfmadd213ps %ymm3, %ymm22, %ymm18 # ymm18 = (ymm22 * ymm18) + ymm3
vfmadd213ps %ymm18, %ymm21, %ymm17 # ymm17 = (ymm21 * ymm17) + ymm18
vfmadd213ps %ymm17, %ymm20, %ymm2 # ymm2 = (ymm20 * ymm2) + ymm17
vmulps %ymm16, %ymm8, %ymm3
vfmadd213ps %ymm3, %ymm22, %ymm15 # ymm15 = (ymm22 * ymm15) + ymm3
vfmadd213ps %ymm15, %ymm21, %ymm14 # ymm14 = (ymm21 * ymm14) + ymm15
vmovups 0x1210(%rdx,%rbx), %ymm3
vmovups 0x1694(%rdx,%rbx), %ymm10
vmovups 0x1b18(%rdx,%rbx), %ymm11
vmovaps %xmm12, %xmm16
vmovups 0x1f9c(%rdx,%rbx), %ymm12
vfmadd213ps %ymm14, %ymm20, %ymm25 # ymm25 = (ymm20 * ymm25) + ymm14
vmovaps %ymm8, %ymm15
vmulps %ymm12, %ymm28, %ymm9
vmulps %ymm12, %ymm26, %ymm8
vmulps %ymm12, %ymm15, %ymm12
vfmadd231ps %ymm29, %ymm11, %ymm9 # ymm9 = (ymm11 * ymm29) + ymm9
vfmadd231ps %ymm30, %ymm11, %ymm8 # ymm8 = (ymm11 * ymm30) + ymm8
vfmadd231ps %ymm11, %ymm22, %ymm12 # ymm12 = (ymm22 * ymm11) + ymm12
vmovaps 0x120(%rsp), %ymm19
vfmadd231ps %ymm19, %ymm10, %ymm9 # ymm9 = (ymm10 * ymm19) + ymm9
vfmadd231ps %ymm31, %ymm10, %ymm8 # ymm8 = (ymm10 * ymm31) + ymm8
vfmadd231ps %ymm10, %ymm21, %ymm12 # ymm12 = (ymm21 * ymm10) + ymm12
vmovaps 0x260(%rsp), %ymm17
vfmadd231ps %ymm17, %ymm3, %ymm9 # ymm9 = (ymm3 * ymm17) + ymm9
vmovaps 0x240(%rsp), %ymm18
vfmadd231ps %ymm18, %ymm3, %ymm8 # ymm8 = (ymm3 * ymm18) + ymm8
vmovups 0x1210(%rsi,%rbx), %ymm10
vmovups 0x1b18(%rsi,%rbx), %ymm11
vmovups 0x1f9c(%rsi,%rbx), %ymm13
vfmadd231ps %ymm3, %ymm20, %ymm12 # ymm12 = (ymm20 * ymm3) + ymm12
vmovaps %ymm28, 0x1c0(%rsp)
vmulps %ymm13, %ymm28, %ymm3
vmovaps %ymm26, 0x1a0(%rsp)
vmulps %ymm13, %ymm26, %ymm14
vmovaps %ymm15, 0x220(%rsp)
vmulps %ymm13, %ymm15, %ymm13
vfmadd231ps %ymm29, %ymm11, %ymm3 # ymm3 = (ymm11 * ymm29) + ymm3
vfmadd231ps %ymm30, %ymm11, %ymm14 # ymm14 = (ymm11 * ymm30) + ymm14
vfmadd231ps %ymm11, %ymm22, %ymm13 # ymm13 = (ymm22 * ymm11) + ymm13
vmovups 0x1694(%rsi,%rbx), %ymm11
vfmadd231ps %ymm19, %ymm11, %ymm3 # ymm3 = (ymm11 * ymm19) + ymm3
vfmadd231ps %ymm31, %ymm11, %ymm14 # ymm14 = (ymm11 * ymm31) + ymm14
vfmadd231ps %ymm11, %ymm21, %ymm13 # ymm13 = (ymm21 * ymm11) + ymm13
vfmadd231ps %ymm17, %ymm10, %ymm3 # ymm3 = (ymm10 * ymm17) + ymm3
vfmadd231ps %ymm18, %ymm10, %ymm14 # ymm14 = (ymm10 * ymm18) + ymm14
vfmadd231ps %ymm10, %ymm20, %ymm13 # ymm13 = (ymm20 * ymm10) + ymm13
vbroadcastss 0x25ac26(%rip), %ymm15 # 0x1f20ec4
vandps %ymm15, %ymm9, %ymm10
vandps %ymm15, %ymm8, %ymm11
vmaxps %ymm11, %ymm10, %ymm10
vandps %ymm15, %ymm12, %ymm11
vmaxps %ymm11, %ymm10, %ymm10
vbroadcastss %xmm16, %ymm11
vmovaps %xmm16, %xmm26
vcmpltps %ymm11, %ymm10, %k2
vmovaps %ymm24, %ymm9 {%k2}
vmovaps %ymm23, %ymm8 {%k2}
vandps %ymm3, %ymm15, %ymm10
vandps %ymm15, %ymm14, %ymm12
vmaxps %ymm12, %ymm10, %ymm10
vandps %ymm15, %ymm13, %ymm12
vmaxps %ymm12, %ymm10, %ymm10
vcmpltps %ymm11, %ymm10, %k2
vmovaps %ymm24, %ymm3 {%k2}
vmovaps %ymm23, %ymm14 {%k2}
vbroadcastss 0x25abb6(%rip), %ymm11 # 0x1f20ec0
vxorps %ymm11, %ymm9, %ymm10
vxorps %ymm3, %ymm11, %ymm12
vxorps %xmm24, %xmm24, %xmm24
vfmadd213ps %ymm24, %ymm9, %ymm9 # ymm9 = (ymm9 * ymm9) + ymm24
vfmadd231ps %ymm8, %ymm8, %ymm9 # ymm9 = (ymm8 * ymm8) + ymm9
vrsqrt14ps %ymm9, %ymm11
vbroadcastss 0x2263e9(%rip), %ymm15 # 0x1eec71c
vmulps %ymm15, %ymm9, %ymm9
vmulps %ymm9, %ymm11, %ymm9
vmulps %ymm11, %ymm11, %ymm13
vmulps %ymm9, %ymm13, %ymm9
vbroadcastss 0x2263c7(%rip), %ymm16 # 0x1eec718
vfmadd231ps %ymm11, %ymm16, %ymm9 # ymm9 = (ymm16 * ymm11) + ymm9
vmulps %ymm9, %ymm8, %ymm11
vmulps %ymm10, %ymm9, %ymm10
vmulps %ymm24, %ymm9, %ymm13
vfmadd213ps %ymm24, %ymm3, %ymm3 # ymm3 = (ymm3 * ymm3) + ymm24
vfmadd231ps %ymm14, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm14) + ymm3
vrsqrt14ps %ymm3, %ymm8
vmulps %ymm3, %ymm15, %ymm3
vmulps %ymm3, %ymm8, %ymm3
vmulps %ymm8, %ymm8, %ymm9
vmulps %ymm3, %ymm9, %ymm3
vfmadd231ps %ymm8, %ymm16, %ymm3 # ymm3 = (ymm16 * ymm8) + ymm3
vmulps %ymm3, %ymm14, %ymm8
vmulps %ymm3, %ymm12, %ymm9
vmulps %ymm24, %ymm3, %ymm3
vmovaps %ymm11, %ymm12
vfmadd213ps %ymm5, %ymm0, %ymm12 # ymm12 = (ymm0 * ymm12) + ymm5
vmovaps %ymm10, %ymm14
vfmadd213ps %ymm4, %ymm0, %ymm14 # ymm14 = (ymm0 * ymm14) + ymm4
vmovaps %ymm13, %ymm15
vfmadd213ps %ymm25, %ymm0, %ymm15 # ymm15 = (ymm0 * ymm15) + ymm25
vmovaps %ymm8, %ymm16
vfmadd213ps %ymm7, %ymm1, %ymm16 # ymm16 = (ymm1 * ymm16) + ymm7
vfnmadd213ps %ymm5, %ymm0, %ymm11 # ymm11 = -(ymm0 * ymm11) + ymm5
vmovaps %ymm9, %ymm5
vfmadd213ps %ymm6, %ymm1, %ymm5 # ymm5 = (ymm1 * ymm5) + ymm6
vfnmadd213ps %ymm4, %ymm0, %ymm10 # ymm10 = -(ymm0 * ymm10) + ymm4
vmovaps %ymm3, %ymm4
vfmadd213ps %ymm2, %ymm1, %ymm4 # ymm4 = (ymm1 * ymm4) + ymm2
vfnmadd231ps %ymm13, %ymm0, %ymm25 # ymm25 = -(ymm0 * ymm13) + ymm25
vfnmadd213ps %ymm7, %ymm1, %ymm8 # ymm8 = -(ymm1 * ymm8) + ymm7
vfnmadd213ps %ymm6, %ymm1, %ymm9 # ymm9 = -(ymm1 * ymm9) + ymm6
vfnmadd231ps %ymm3, %ymm1, %ymm2 # ymm2 = -(ymm1 * ymm3) + ymm2
vsubps %ymm11, %ymm16, %ymm3
vsubps %ymm10, %ymm5, %ymm6
vsubps %ymm25, %ymm4, %ymm7
vmulps %ymm25, %ymm6, %ymm13
vfmsub231ps %ymm7, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm7) - ymm13
vmulps %ymm7, %ymm11, %ymm7
vfmsub231ps %ymm3, %ymm25, %ymm7 # ymm7 = (ymm25 * ymm3) - ymm7
vmulps %ymm3, %ymm10, %ymm3
vfmsub231ps %ymm6, %ymm11, %ymm3 # ymm3 = (ymm11 * ymm6) - ymm3
vfmadd231ps %ymm7, %ymm24, %ymm3 # ymm3 = (ymm24 * ymm7) + ymm3
vfmadd231ps %ymm13, %ymm24, %ymm3 # ymm3 = (ymm24 * ymm13) + ymm3
vcmpleps %ymm24, %ymm3, %k2
vmovaps %ymm12, %ymm8 {%k2}
vmovaps %ymm14, %ymm9 {%k2}
vmovaps %ymm15, %ymm2 {%k2}
vblendmps %ymm16, %ymm11, %ymm13 {%k2}
vblendmps %ymm5, %ymm10, %ymm14 {%k2}
vblendmps %ymm4, %ymm25, %ymm15 {%k2}
vmovaps %ymm11, %ymm16 {%k2}
vmovaps %ymm10, %ymm5 {%k2}
vmovaps %ymm25, %ymm4 {%k2}
vsubps %ymm8, %ymm16, %ymm6
vsubps %ymm9, %ymm5, %ymm5
vsubps %ymm2, %ymm4, %ymm11
vsubps %ymm13, %ymm8, %ymm7
vsubps %ymm14, %ymm9, %ymm10
vsubps %ymm15, %ymm2, %ymm12
vmulps %ymm8, %ymm11, %ymm4
vfmsub231ps %ymm6, %ymm2, %ymm4 # ymm4 = (ymm2 * ymm6) - ymm4
vmulps %ymm6, %ymm9, %ymm3
vfmsub231ps %ymm5, %ymm8, %ymm3 # ymm3 = (ymm8 * ymm5) - ymm3
vfmadd231ps %ymm4, %ymm24, %ymm3 # ymm3 = (ymm24 * ymm4) + ymm3
vmulps %ymm2, %ymm5, %ymm4
vfmsub231ps %ymm11, %ymm9, %ymm4 # ymm4 = (ymm9 * ymm11) - ymm4
vfmadd231ps %ymm4, %ymm24, %ymm3 # ymm3 = (ymm24 * ymm4) + ymm3
vmulps %ymm13, %ymm12, %ymm16
vfmsub231ps %ymm15, %ymm7, %ymm16 # ymm16 = (ymm7 * ymm15) - ymm16
vmulps %ymm15, %ymm10, %ymm15
vfmsub231ps %ymm12, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm12) - ymm15
vmulps %ymm7, %ymm14, %ymm4
vfmsub231ps %ymm13, %ymm10, %ymm4 # ymm4 = (ymm10 * ymm13) - ymm4
vfmadd231ps %ymm16, %ymm24, %ymm4 # ymm4 = (ymm24 * ymm16) + ymm4
vfmadd231ps %ymm15, %ymm24, %ymm4 # ymm4 = (ymm24 * ymm15) + ymm4
vmaxps %ymm4, %ymm3, %ymm13
vcmpleps %ymm24, %ymm13, %k0 {%k1}
kortestb %k0, %k0
vmovaps 0x200(%rsp), %ymm20
vmovaps 0x1e0(%rsp), %ymm21
vmovaps %ymm17, %ymm22
vmovaps %ymm19, %ymm17
vmovaps %xmm26, %xmm14
je 0x1cc78bb
vmulps %ymm5, %ymm12, %ymm13
vfmsub231ps %ymm11, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm11) - ymm13
vmulps %ymm7, %ymm11, %ymm11
vfmsub231ps %ymm12, %ymm6, %ymm11 # ymm11 = (ymm6 * ymm12) - ymm11
vmulps %ymm6, %ymm10, %ymm10
vfmsub231ps %ymm5, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm5) - ymm10
vxorps %xmm6, %xmm6, %xmm6
vfmadd213ps %ymm10, %ymm11, %ymm6 # ymm6 = (ymm11 * ymm6) + ymm10
vfmadd231ps %ymm24, %ymm13, %ymm6 # ymm6 = (ymm13 * ymm24) + ymm6
vrcp14ps %ymm6, %ymm7
vmovaps %ymm7, %ymm5
vfnmadd213ps 0x2261bd(%rip){1to8}, %ymm6, %ymm5 # ymm5 = -(ymm6 * ymm5) + mem
vfmadd132ps %ymm7, %ymm7, %ymm5 # ymm5 = (ymm5 * ymm7) + ymm7
vmulps %ymm2, %ymm10, %ymm2
vfmadd231ps %ymm11, %ymm9, %ymm2 # ymm2 = (ymm9 * ymm11) + ymm2
vfmadd231ps %ymm13, %ymm8, %ymm2 # ymm2 = (ymm8 * ymm13) + ymm2
vmulps %ymm5, %ymm2, %ymm2
vmovaps 0x180(%rsp), %xmm10
vbroadcastss %xmm10, %ymm7
vcmpleps %ymm2, %ymm7, %k1
vcmpleps 0x100(%r15,%r14,4){1to8}, %ymm2, %k1 {%k1}
kandb %k0, %k1, %k0
kortestb %k0, %k0
vmovaps 0x1c0(%rsp), %ymm28
vmovaps 0x1a0(%rsp), %ymm29
je 0x1cc78ed
vcmpneqps %ymm24, %ymm6, %k1
ktestb %k1, %k0
vmovaps 0x20(%rsp), %xmm9
je 0x1cc7906
kandb %k1, %k0, %k0
kmovd %k0, %eax
vmulps %ymm5, %ymm3, %ymm3
vmulps %ymm5, %ymm4, %ymm4
vbroadcastss 0x22613a(%rip), %ymm5 # 0x1eec714
vsubps %ymm3, %ymm5, %ymm6
vmovaps %ymm3, %ymm6 {%k2}
vsubps %ymm4, %ymm5, %ymm3
vmovaps %ymm4, %ymm3 {%k2}
vmovaps %ymm3, 0x480(%rsp)
movzbl %al, %eax
testw %ax, %ax
je 0x1cc6bd6
vsubps %ymm0, %ymm1, %ymm1
vfmadd213ps %ymm0, %ymm6, %ymm1 # ymm1 = (ymm6 * ymm1) + ymm0
vaddps %ymm1, %ymm1, %ymm0
vmulps (%r11,%r14,4){1to8}, %ymm0, %ymm0
vcmpnleps %ymm0, %ymm2, %k0
kmovd %k0, %ecx
andb %cl, %al
je 0x1cc6bd6
vbroadcastss 0x22a399(%rip), %ymm0 # 0x1ef09cc
vmovaps 0x480(%rsp), %ymm1
vfmadd132ps 0x22a9b2(%rip){1to8}, %ymm0, %ymm1 # ymm1 = (ymm1 * mem) + ymm0
vmovaps %ymm6, 0x300(%rsp)
vmovaps %ymm1, 0x480(%rsp)
vmovaps %ymm1, 0x320(%rsp)
vmovaps %ymm2, 0x340(%rsp)
movl $0x0, 0x360(%rsp)
movl %r9d, 0x364(%rsp)
vmovaps %xmm9, 0x370(%rsp)
vmovaps 0x110(%rsp), %xmm0
vmovaps %xmm0, 0x380(%rsp)
vmovaps 0x100(%rsp), %xmm0
vmovaps %xmm0, 0x390(%rsp)
vmovaps 0x160(%rsp), %xmm0
vmovaps %xmm0, 0x3a0(%rsp)
movb %al, 0x3b0(%rsp)
movl 0x120(%r15,%r14,4), %ecx
testl %ecx, 0x34(%r13)
je 0x1cc6bd6
movq 0x10(%r10), %rcx
cmpq $0x0, 0x10(%rcx)
jne 0x1cc66ee
movb $0x1, %dil
cmpq $0x0, 0x48(%r13)
je 0x1cc6bd8
vaddps 0x25a84a(%rip), %ymm6, %ymm0 # 0x1f20f40
vmovss 0x226016(%rip), %xmm1 # 0x1eec714
vdivss 0x2e0(%rsp), %xmm1, %xmm1
vbroadcastss %xmm1, %ymm1
vmulps %ymm0, %ymm1, %ymm0
vmovaps %ymm0, 0x3c0(%rsp)
vmovaps 0x480(%rsp), %ymm0
vmovaps %ymm0, 0x3e0(%rsp)
vmovaps %ymm2, 0x400(%rsp)
movzbl %al, %ecx
tzcntq %rcx, %rdi
movq 0x80(%rsp), %rax
vpbroadcastd %eax, %ymm0
vmovdqa %ymm0, 0x420(%rsp)
vmovaps 0x380(%rsp), %xmm0
vmovaps %xmm0, 0xf0(%rsp)
movq 0x10(%rsp), %rax
vpbroadcastd %eax, %ymm0
vmovdqa %ymm0, 0x280(%rsp)
movq %rdi, %rax
vmovaps 0x390(%rsp), %xmm0
vmovaps %xmm0, 0xe0(%rsp)
vmovaps 0x3a0(%rsp), %xmm0
vmovaps %xmm0, 0xd0(%rsp)
movb $0x1, %dil
vmovaps %xmm14, 0xc0(%rsp)
movq %r8, 0x38(%rsp)
movq %r10, 0x18(%rsp)
movq %r11, 0x30(%rsp)
vmovaps %ymm6, 0x60(%rsp)
vmovaps %ymm2, 0x40(%rsp)
movl %r9d, 0xc(%rsp)
movq %rcx, 0x2c0(%rsp)
vmovss 0x100(%r15,%r14,4), %xmm11
vmovss 0x400(%rsp,%rax,4), %xmm0
vbroadcastss 0x3c0(%rsp,%rax,4), %ymm1
movq %rax, 0x440(%rsp)
vbroadcastss 0x3e0(%rsp,%rax,4), %ymm2
vmovss %xmm0, 0x100(%r15,%r14,4)
movq 0x8(%r10), %rax
vmovss 0x225efb(%rip), %xmm0 # 0x1eec714
vsubss %xmm1, %xmm0, %xmm0
vaddss %xmm0, %xmm0, %xmm3
vmulss %xmm3, %xmm1, %xmm4
vfnmadd231ss %xmm0, %xmm0, %xmm4 # xmm4 = -(xmm0 * xmm0) + xmm4
vaddss %xmm1, %xmm1, %xmm5
vmovss 0x22a7b6(%rip), %xmm8 # 0x1ef0fec
vmovaps %xmm8, %xmm6
vfmadd213ss 0x22a7c1(%rip), %xmm1, %xmm6 # xmm6 = (xmm1 * xmm6) + mem
vmulss %xmm1, %xmm8, %xmm7
vmulss %xmm7, %xmm1, %xmm7
vfmadd231ss %xmm6, %xmm5, %xmm7 # xmm7 = (xmm5 * xmm6) + xmm7
vmovaps %xmm8, %xmm5
vfmadd213ss 0x22a79b(%rip), %xmm1, %xmm5 # xmm5 = (xmm1 * xmm5) + mem
vmulss 0x22a78b(%rip), %xmm0, %xmm6 # 0x1ef0ff0
vmulss %xmm6, %xmm0, %xmm6
vfmadd231ss %xmm5, %xmm3, %xmm6 # xmm6 = (xmm3 * xmm5) + xmm6
vmulss 0x22a166(%rip), %xmm0, %xmm0 # 0x1ef09dc
vmulss %xmm1, %xmm1, %xmm3
vfmadd231ss %xmm0, %xmm1, %xmm3 # xmm3 = (xmm1 * xmm0) + xmm3
vmovss 0x2262f9(%rip), %xmm8 # 0x1eecb80
vmulss %xmm4, %xmm8, %xmm0
vmulss %xmm7, %xmm8, %xmm4
vmulss %xmm6, %xmm8, %xmm5
vmulss %xmm3, %xmm8, %xmm3
vbroadcastss %xmm3, %xmm3
vmulps 0xd0(%rsp), %xmm3, %xmm3
vbroadcastss %xmm5, %xmm5
vfmadd132ps 0xe0(%rsp), %xmm3, %xmm5 # xmm5 = (xmm5 * mem) + xmm3
vbroadcastss %xmm4, %xmm3
vfmadd132ps 0xf0(%rsp), %xmm5, %xmm3 # xmm3 = (xmm3 * mem) + xmm5
vbroadcastss %xmm0, %xmm0
vfmadd213ps %xmm3, %xmm9, %xmm0 # xmm0 = (xmm9 * xmm0) + xmm3
vbroadcastss %xmm0, %ymm3
vbroadcastss 0x24be29(%rip), %ymm4 # 0x1f12704
vpermps %ymm0, %ymm4, %ymm4
vbroadcastss 0x25a5f3(%rip), %ymm5 # 0x1f20edc
vpermps %ymm0, %ymm5, %ymm0
vmovaps %ymm3, 0x500(%rsp)
vmovaps %ymm4, 0x520(%rsp)
vmovaps %ymm0, 0x540(%rsp)
vmovaps %ymm1, 0x560(%rsp)
vmovaps %ymm2, 0x580(%rsp)
vmovaps 0x280(%rsp), %ymm0
vmovaps %ymm0, 0x5a0(%rsp)
vmovdqa 0x420(%rsp), %ymm0
vmovdqa %ymm0, 0x5c0(%rsp)
movq 0x88(%rsp), %rcx
vpcmpeqd %ymm0, %ymm0, %ymm0
vmovdqa %ymm0, 0x20(%rcx)
vmovdqa %ymm0, (%rcx)
vbroadcastss (%rax), %ymm0
vmovaps %ymm0, 0x5e0(%rsp)
vbroadcastss 0x4(%rax), %ymm0
vmovaps %ymm0, 0x600(%rsp)
vmovaps 0x4c0(%rsp), %ymm0
vmovaps %ymm0, 0x140(%rsp)
leaq 0x140(%rsp), %rcx
movq %rcx, 0x90(%rsp)
movq 0x18(%r13), %rcx
movq %rcx, 0x98(%rsp)
movq %rax, 0xa0(%rsp)
movq %r15, 0xa8(%rsp)
leaq 0x500(%rsp), %rax
movq %rax, 0xb0(%rsp)
movl $0x8, 0xb8(%rsp)
movq 0x48(%r13), %rax
testq %rax, %rax
movl %edi, 0x8(%rsp)
vmovss %xmm11, 0x2a0(%rsp)
je 0x1cc6a76
leaq 0x90(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0x2a0(%rsp), %xmm11
vmovaps 0x180(%rsp), %xmm10
vmovaps 0xc0(%rsp), %xmm14
movl 0x8(%rsp), %edi
vmovaps 0x1a0(%rsp), %ymm29
vmovaps 0x1c0(%rsp), %ymm28
vmovaps 0x120(%rsp), %ymm17
vmovaps 0x240(%rsp), %ymm18
vmovaps 0x260(%rsp), %ymm22
movl 0xc(%rsp), %r9d
vmovaps 0x20(%rsp), %xmm9
vmovaps 0x1e0(%rsp), %ymm21
vmovaps 0x200(%rsp), %ymm20
vxorps %xmm24, %xmm24, %xmm24
leaq 0x46bd2c(%rip), %rsi # 0x213278c
leaq 0x469905(%rip), %rdx # 0x213036c
movq 0x30(%rsp), %r11
movq 0x18(%rsp), %r10
movq 0x38(%rsp), %r8
vmovdqa 0x140(%rsp), %ymm0
vptest %ymm0, %ymm0
je 0x1cc6b97
movq 0x10(%r10), %rcx
movq 0x10(%rcx), %rax
testq %rax, %rax
vmovaps 0x60(%rsp), %ymm6
vmovaps 0x40(%rsp), %ymm2
je 0x1cc6b55
testb $0x2, (%rcx)
jne 0x1cc6ab7
testb $0x40, 0x3e(%r13)
je 0x1cc6b55
leaq 0x90(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0x2a0(%rsp), %xmm11
vmovaps 0x180(%rsp), %xmm10
vmovaps 0xc0(%rsp), %xmm14
movl 0x8(%rsp), %edi
vmovaps 0x1a0(%rsp), %ymm29
vmovaps 0x1c0(%rsp), %ymm28
vmovaps 0x120(%rsp), %ymm17
vmovaps 0x240(%rsp), %ymm18
vmovaps 0x260(%rsp), %ymm22
movl 0xc(%rsp), %r9d
vmovaps 0x20(%rsp), %xmm9
vmovaps 0x1e0(%rsp), %ymm21
vmovaps 0x40(%rsp), %ymm2
vmovaps 0x200(%rsp), %ymm20
vmovaps 0x60(%rsp), %ymm6
vxorps %xmm24, %xmm24, %xmm24
leaq 0x46bc4d(%rip), %rsi # 0x213278c
leaq 0x469826(%rip), %rdx # 0x213036c
movq 0x30(%rsp), %r11
movq 0x18(%rsp), %r10
movq 0x38(%rsp), %r8
vmovdqa 0x140(%rsp), %ymm0
vptestmd %ymm0, %ymm0, %k1
movq 0xa8(%rsp), %rax
vmovaps 0x100(%rax), %ymm1
vbroadcastss 0x226006(%rip), %ymm1 {%k1} # 0x1eecb84
vmovaps %ymm1, 0x100(%rax)
vptest %ymm0, %ymm0
movq 0x2c0(%rsp), %rcx
je 0x1cc6bab
jmp 0x1cc6bd0
vmovaps 0x60(%rsp), %ymm6
vmovaps 0x40(%rsp), %ymm2
movq 0x2c0(%rsp), %rcx
vmovss %xmm11, 0x100(%r15,%r14,4)
movq 0x440(%rsp), %rax
btcq %rax, %rcx
tzcntq %rcx, %rax
setae %dil
jae 0x1cc67cc
andb $0x1, %dil
jmp 0x1cc6bd8
xorl %edi, %edi
vmovaps 0x220(%rsp), %ymm8
jmp 0x1cc6c2a
xorl %edi, %edi
vxorps %xmm24, %xmm24, %xmm24
vmovaps 0x60(%rsp), %ymm6
vmovaps 0x200(%rsp), %ymm20
vmovaps 0x40(%rsp), %ymm2
vmovaps 0x1e0(%rsp), %ymm21
vmovaps 0x260(%rsp), %ymm22
vmovaps 0x240(%rsp), %ymm18
vmovaps 0x120(%rsp), %ymm17
vmovaps %ymm26, %ymm29
vmovaps %xmm12, %xmm14
cmpl $0x9, %r9d
jge 0x1cc6c63
testb $0x1, %dil
jne 0x1cc7919
vmovaps 0x740(%rsp), %ymm0
vcmpleps 0x100(%r15,%r14,4){1to8}, %ymm0, %k0
kmovb %k0, %eax
andl %eax, %r12d
setne 0x7(%rsp)
jne 0x1cc5c8f
jmp 0x1cc7919
vmovaps %ymm8, 0x220(%rsp)
vpbroadcastd %r9d, %ymm0
vmovdqa %ymm0, 0x180(%rsp)
vbroadcastss %xmm14, %ymm0
vmovaps %ymm0, 0x2c0(%rsp)
vbroadcastss %xmm10, %ymm0
vmovaps %ymm0, 0x440(%rsp)
vmovss 0x225a75(%rip), %xmm0 # 0x1eec714
vdivss 0x2e0(%rsp), %xmm0, %xmm0
vbroadcastss %xmm0, %ymm0
vmovaps %ymm0, 0x420(%rsp)
movq 0x80(%rsp), %rax
vpbroadcastd %eax, %ymm0
vmovdqa %ymm0, 0x2e0(%rsp)
movq 0x10(%rsp), %rax
vpbroadcastd %eax, %ymm0
vmovdqa %ymm0, 0x2a0(%rsp)
movl $0x8, %r13d
vmovaps %ymm6, 0x60(%rsp)
vmovaps %ymm2, 0x40(%rsp)
vpbroadcastd %r13d, %ymm0
vpor 0x293c1f(%rip), %ymm0, %ymm0 # 0x1f5a920
vpcmpltd 0x180(%rsp), %ymm0, %k1
leaq (%rbx,%rdx), %rcx
vmovups (%rcx,%r13,4), %ymm3
vmovups 0x484(%rcx,%r13,4), %ymm10
vmovups 0x908(%rcx,%r13,4), %ymm11
vmovups 0xd8c(%rcx,%r13,4), %ymm12
vmulps %ymm12, %ymm28, %ymm5
vmulps %ymm12, %ymm29, %ymm4
vmovaps 0x680(%rsp), %ymm1
vmulps %ymm1, %ymm12, %ymm0
vmovaps 0x6e0(%rsp), %ymm19
vfmadd231ps %ymm19, %ymm11, %ymm5 # ymm5 = (ymm11 * ymm19) + ymm5
vmovaps 0x6c0(%rsp), %ymm27
vfmadd231ps %ymm27, %ymm11, %ymm4 # ymm4 = (ymm11 * ymm27) + ymm4
vmovaps 0x6a0(%rsp), %ymm16
vfmadd231ps %ymm16, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm16) + ymm0
vfmadd231ps %ymm17, %ymm10, %ymm5 # ymm5 = (ymm10 * ymm17) + ymm5
vmovaps 0x4e0(%rsp), %ymm25
vfmadd231ps %ymm25, %ymm10, %ymm4 # ymm4 = (ymm10 * ymm25) + ymm4
vmovaps 0x700(%rsp), %ymm9
vfmadd231ps %ymm9, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm9) + ymm0
vfmadd231ps %ymm22, %ymm3, %ymm5 # ymm5 = (ymm3 * ymm22) + ymm5
vfmadd231ps %ymm18, %ymm3, %ymm4 # ymm4 = (ymm3 * ymm18) + ymm4
leaq (%rbx,%rsi), %rax
vmovups (%rax,%r13,4), %ymm2
vmovups 0x484(%rax,%r13,4), %ymm13
vmovaps 0x720(%rsp), %ymm8
vfmadd231ps %ymm8, %ymm3, %ymm0 # ymm0 = (ymm3 * ymm8) + ymm0
vmovups 0x908(%rax,%r13,4), %ymm14
vmovups 0xd8c(%rax,%r13,4), %ymm15
vmulps %ymm15, %ymm28, %ymm7
vmulps %ymm15, %ymm29, %ymm6
vmulps %ymm1, %ymm15, %ymm1
vfmadd231ps %ymm19, %ymm14, %ymm7 # ymm7 = (ymm14 * ymm19) + ymm7
vfmadd231ps %ymm27, %ymm14, %ymm6 # ymm6 = (ymm14 * ymm27) + ymm6
vfmadd231ps %ymm16, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm16) + ymm1
vfmadd231ps %ymm17, %ymm13, %ymm7 # ymm7 = (ymm13 * ymm17) + ymm7
vfmadd231ps %ymm25, %ymm13, %ymm6 # ymm6 = (ymm13 * ymm25) + ymm6
vfmadd231ps %ymm9, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm9) + ymm1
vfmadd231ps %ymm22, %ymm2, %ymm7 # ymm7 = (ymm2 * ymm22) + ymm7
vfmadd231ps %ymm18, %ymm2, %ymm6 # ymm6 = (ymm2 * ymm18) + ymm6
vfmadd231ps %ymm8, %ymm2, %ymm1 # ymm1 = (ymm2 * ymm8) + ymm1
vmaxps %ymm1, %ymm0, %ymm16
vsubps %ymm5, %ymm7, %ymm9
vsubps %ymm4, %ymm6, %ymm8
vmovaps %ymm17, %ymm26
vmulps %ymm9, %ymm4, %ymm17
vmovaps %ymm18, %ymm23
vmulps %ymm8, %ymm5, %ymm18
vsubps %ymm18, %ymm17, %ymm17
vmulps %ymm8, %ymm8, %ymm18
vfmadd231ps %ymm9, %ymm9, %ymm18 # ymm18 = (ymm9 * ymm9) + ymm18
vmulps %ymm16, %ymm16, %ymm16
vmulps %ymm18, %ymm16, %ymm16
vmulps %ymm17, %ymm17, %ymm17
vcmpleps %ymm16, %ymm17, %k1 {%k1}
kortestb %k1, %k1
je 0x1cc785e
vmovaps %ymm23, %ymm16
vmovaps 0x220(%rsp), %ymm23
vmulps %ymm15, %ymm23, %ymm15
vmovaps 0x620(%rsp), %ymm31
vfmadd213ps %ymm15, %ymm31, %ymm14 # ymm14 = (ymm31 * ymm14) + ymm15
vmovaps 0x640(%rsp), %ymm30
vfmadd213ps %ymm14, %ymm30, %ymm13 # ymm13 = (ymm30 * ymm13) + ymm14
vmovaps 0x660(%rsp), %ymm18
vfmadd213ps %ymm13, %ymm18, %ymm2 # ymm2 = (ymm18 * ymm2) + ymm13
vmulps %ymm12, %ymm23, %ymm12
vfmadd213ps %ymm12, %ymm31, %ymm11 # ymm11 = (ymm31 * ymm11) + ymm12
vfmadd213ps %ymm11, %ymm30, %ymm10 # ymm10 = (ymm30 * ymm10) + ymm11
vfmadd213ps %ymm10, %ymm18, %ymm3 # ymm3 = (ymm18 * ymm3) + ymm10
vmovups 0x1210(%rcx,%r13,4), %ymm12
vmovups 0x1694(%rcx,%r13,4), %ymm13
vmovups 0x1b18(%rcx,%r13,4), %ymm14
vmovups 0x1f9c(%rcx,%r13,4), %ymm15
vmulps %ymm15, %ymm28, %ymm11
vmulps %ymm15, %ymm29, %ymm10
vmulps %ymm15, %ymm23, %ymm15
vfmadd231ps %ymm19, %ymm14, %ymm11 # ymm11 = (ymm14 * ymm19) + ymm11
vfmadd231ps %ymm27, %ymm14, %ymm10 # ymm10 = (ymm14 * ymm27) + ymm10
vfmadd231ps %ymm14, %ymm31, %ymm15 # ymm15 = (ymm31 * ymm14) + ymm15
vfmadd231ps %ymm26, %ymm13, %ymm11 # ymm11 = (ymm13 * ymm26) + ymm11
vfmadd231ps %ymm25, %ymm13, %ymm10 # ymm10 = (ymm13 * ymm25) + ymm10
vfmadd231ps %ymm13, %ymm30, %ymm15 # ymm15 = (ymm30 * ymm13) + ymm15
vfmadd231ps %ymm22, %ymm12, %ymm11 # ymm11 = (ymm12 * ymm22) + ymm11
vfmadd231ps %ymm16, %ymm12, %ymm10 # ymm10 = (ymm12 * ymm16) + ymm10
vmovaps %ymm27, %ymm25
vmovaps %ymm19, %ymm27
vmovaps %ymm16, %ymm19
vfmadd231ps %ymm12, %ymm18, %ymm15 # ymm15 = (ymm18 * ymm12) + ymm15
vmovups 0x1210(%rax,%r13,4), %ymm13
vmovups 0x1b18(%rax,%r13,4), %ymm14
vmovups 0x1f9c(%rax,%r13,4), %ymm16
vmulps %ymm16, %ymm28, %ymm17
vmulps %ymm16, %ymm29, %ymm12
vmulps %ymm16, %ymm23, %ymm16
vfmadd231ps %ymm27, %ymm14, %ymm17 # ymm17 = (ymm14 * ymm27) + ymm17
vfmadd231ps %ymm25, %ymm14, %ymm12 # ymm12 = (ymm14 * ymm25) + ymm12
vfmadd231ps %ymm14, %ymm31, %ymm16 # ymm16 = (ymm31 * ymm14) + ymm16
vmovups 0x1694(%rax,%r13,4), %ymm14
vfmadd231ps %ymm26, %ymm14, %ymm17 # ymm17 = (ymm14 * ymm26) + ymm17
vfmadd231ps 0x4e0(%rsp), %ymm14, %ymm12 # ymm12 = (ymm14 * mem) + ymm12
vfmadd231ps %ymm14, %ymm30, %ymm16 # ymm16 = (ymm30 * ymm14) + ymm16
vfmadd231ps %ymm22, %ymm13, %ymm17 # ymm17 = (ymm13 * ymm22) + ymm17
vfmadd231ps %ymm19, %ymm13, %ymm12 # ymm12 = (ymm13 * ymm19) + ymm12
vfmadd231ps %ymm13, %ymm18, %ymm16 # ymm16 = (ymm18 * ymm13) + ymm16
vbroadcastss 0x259ef5(%rip), %ymm18 # 0x1f20ec4
vandps %ymm18, %ymm11, %ymm13
vandps %ymm18, %ymm10, %ymm14
vmaxps %ymm14, %ymm13, %ymm13
vandps %ymm18, %ymm15, %ymm14
vmaxps %ymm14, %ymm13, %ymm13
vmovaps 0x2c0(%rsp), %ymm15
vcmpltps %ymm15, %ymm13, %k2
vmovaps %ymm9, %ymm11 {%k2}
vmovaps %ymm8, %ymm10 {%k2}
vandps %ymm18, %ymm17, %ymm13
vandps %ymm18, %ymm12, %ymm14
vmaxps %ymm14, %ymm13, %ymm13
vandps %ymm18, %ymm16, %ymm14
vmaxps %ymm14, %ymm13, %ymm13
vcmpltps %ymm15, %ymm13, %k2
vmovaps %ymm9, %ymm17 {%k2}
vmovaps %ymm8, %ymm12 {%k2}
vbroadcastss 0x259e81(%rip), %ymm9 # 0x1f20ec0
vxorps %ymm9, %ymm11, %ymm8
vxorps %ymm9, %ymm17, %ymm9
vfmadd213ps %ymm24, %ymm11, %ymm11 # ymm11 = (ymm11 * ymm11) + ymm24
vfmadd231ps %ymm10, %ymm10, %ymm11 # ymm11 = (ymm10 * ymm10) + ymm11
vrsqrt14ps %ymm11, %ymm13
vbroadcastss 0x2256b8(%rip), %ymm15 # 0x1eec71c
vmulps %ymm15, %ymm11, %ymm11
vmulps %ymm11, %ymm13, %ymm11
vmulps %ymm13, %ymm13, %ymm14
vmulps %ymm11, %ymm14, %ymm14
vbroadcastss 0x225696(%rip), %ymm16 # 0x1eec718
vfmadd231ps %ymm13, %ymm16, %ymm14 # ymm14 = (ymm16 * ymm13) + ymm14
vmulps %ymm14, %ymm10, %ymm11
vmulps %ymm8, %ymm14, %ymm10
vmulps %ymm24, %ymm14, %ymm13
vfmadd213ps %ymm24, %ymm17, %ymm17 # ymm17 = (ymm17 * ymm17) + ymm24
vfmadd231ps %ymm12, %ymm12, %ymm17 # ymm17 = (ymm12 * ymm12) + ymm17
vrsqrt14ps %ymm17, %ymm8
vmulps %ymm15, %ymm17, %ymm14
vmulps %ymm14, %ymm8, %ymm14
vmulps %ymm8, %ymm8, %ymm15
vmulps %ymm14, %ymm15, %ymm14
vfmadd231ps %ymm8, %ymm16, %ymm14 # ymm14 = (ymm16 * ymm8) + ymm14
vmulps %ymm14, %ymm12, %ymm8
vmulps %ymm9, %ymm14, %ymm9
vmulps %ymm24, %ymm14, %ymm12
vmovaps %ymm11, %ymm14
vfmadd213ps %ymm5, %ymm0, %ymm14 # ymm14 = (ymm0 * ymm14) + ymm5
vmovaps %ymm10, %ymm15
vfmadd213ps %ymm4, %ymm0, %ymm15 # ymm15 = (ymm0 * ymm15) + ymm4
vmovaps %ymm13, %ymm16
vfmadd213ps %ymm3, %ymm0, %ymm16 # ymm16 = (ymm0 * ymm16) + ymm3
vmovaps %ymm8, %ymm17
vfmadd213ps %ymm7, %ymm1, %ymm17 # ymm17 = (ymm1 * ymm17) + ymm7
vfnmadd213ps %ymm5, %ymm0, %ymm11 # ymm11 = -(ymm0 * ymm11) + ymm5
vmovaps %ymm9, %ymm5
vfmadd213ps %ymm6, %ymm1, %ymm5 # ymm5 = (ymm1 * ymm5) + ymm6
vfnmadd213ps %ymm4, %ymm0, %ymm10 # ymm10 = -(ymm0 * ymm10) + ymm4
vmovaps %ymm12, %ymm4
vfmadd213ps %ymm2, %ymm1, %ymm4 # ymm4 = (ymm1 * ymm4) + ymm2
vfnmadd231ps %ymm13, %ymm0, %ymm3 # ymm3 = -(ymm0 * ymm13) + ymm3
vfnmadd213ps %ymm7, %ymm1, %ymm8 # ymm8 = -(ymm1 * ymm8) + ymm7
vfnmadd213ps %ymm6, %ymm1, %ymm9 # ymm9 = -(ymm1 * ymm9) + ymm6
vfnmadd231ps %ymm12, %ymm1, %ymm2 # ymm2 = -(ymm1 * ymm12) + ymm2
vsubps %ymm11, %ymm17, %ymm6
vsubps %ymm10, %ymm5, %ymm7
vsubps %ymm3, %ymm4, %ymm12
vmulps %ymm3, %ymm7, %ymm13
vfmsub231ps %ymm12, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm12) - ymm13
vmulps %ymm11, %ymm12, %ymm12
vfmsub231ps %ymm6, %ymm3, %ymm12 # ymm12 = (ymm3 * ymm6) - ymm12
vmulps %ymm6, %ymm10, %ymm6
vfmsub231ps %ymm7, %ymm11, %ymm6 # ymm6 = (ymm11 * ymm7) - ymm6
vfmadd231ps %ymm12, %ymm24, %ymm6 # ymm6 = (ymm24 * ymm12) + ymm6
vfmadd231ps %ymm13, %ymm24, %ymm6 # ymm6 = (ymm24 * ymm13) + ymm6
vcmpleps %ymm24, %ymm6, %k2
vmovaps %ymm14, %ymm8 {%k2}
vmovaps %ymm15, %ymm9 {%k2}
vmovaps %ymm16, %ymm2 {%k2}
vblendmps %ymm17, %ymm11, %ymm13 {%k2}
vblendmps %ymm5, %ymm10, %ymm14 {%k2}
vblendmps %ymm4, %ymm3, %ymm15 {%k2}
vmovaps %ymm11, %ymm17 {%k2}
vmovaps %ymm10, %ymm5 {%k2}
vmovaps %ymm3, %ymm4 {%k2}
vsubps %ymm8, %ymm17, %ymm6
vsubps %ymm9, %ymm5, %ymm5
vsubps %ymm2, %ymm4, %ymm11
vsubps %ymm13, %ymm8, %ymm7
vsubps %ymm14, %ymm9, %ymm10
vsubps %ymm15, %ymm2, %ymm12
vmulps %ymm8, %ymm11, %ymm4
vfmsub231ps %ymm6, %ymm2, %ymm4 # ymm4 = (ymm2 * ymm6) - ymm4
vmulps %ymm6, %ymm9, %ymm3
vfmsub231ps %ymm5, %ymm8, %ymm3 # ymm3 = (ymm8 * ymm5) - ymm3
vfmadd231ps %ymm4, %ymm24, %ymm3 # ymm3 = (ymm24 * ymm4) + ymm3
vmulps %ymm2, %ymm5, %ymm4
vfmsub231ps %ymm11, %ymm9, %ymm4 # ymm4 = (ymm9 * ymm11) - ymm4
vfmadd231ps %ymm4, %ymm24, %ymm3 # ymm3 = (ymm24 * ymm4) + ymm3
vmulps %ymm13, %ymm12, %ymm16
vfmsub231ps %ymm15, %ymm7, %ymm16 # ymm16 = (ymm7 * ymm15) - ymm16
vmulps %ymm15, %ymm10, %ymm15
vfmsub231ps %ymm12, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm12) - ymm15
vmulps %ymm7, %ymm14, %ymm4
vfmsub231ps %ymm13, %ymm10, %ymm4 # ymm4 = (ymm10 * ymm13) - ymm4
vfmadd231ps %ymm16, %ymm24, %ymm4 # ymm4 = (ymm24 * ymm16) + ymm4
vfmadd231ps %ymm15, %ymm24, %ymm4 # ymm4 = (ymm24 * ymm15) + ymm4
vmaxps %ymm4, %ymm3, %ymm13
vcmpleps %ymm24, %ymm13, %k0 {%k1}
kortestb %k0, %k0
vmovaps %ymm19, %ymm18
je 0x1cc7893
vmulps %ymm5, %ymm12, %ymm13
vfmsub231ps %ymm11, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm11) - ymm13
vmulps %ymm7, %ymm11, %ymm11
vfmsub231ps %ymm12, %ymm6, %ymm11 # ymm11 = (ymm6 * ymm12) - ymm11
vmulps %ymm6, %ymm10, %ymm10
vfmsub231ps %ymm5, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm5) - ymm10
vxorps %xmm6, %xmm6, %xmm6
vfmadd213ps %ymm10, %ymm11, %ymm6 # ymm6 = (ymm11 * ymm6) + ymm10
vfmadd231ps %ymm24, %ymm13, %ymm6 # ymm6 = (ymm13 * ymm24) + ymm6
vrcp14ps %ymm6, %ymm7
vmovaps %ymm7, %ymm5
vfnmadd213ps 0x2254a5(%rip){1to8}, %ymm6, %ymm5 # ymm5 = -(ymm6 * ymm5) + mem
vfmadd132ps %ymm7, %ymm7, %ymm5 # ymm5 = (ymm5 * ymm7) + ymm7
vmulps %ymm2, %ymm10, %ymm2
vfmadd231ps %ymm11, %ymm9, %ymm2 # ymm2 = (ymm9 * ymm11) + ymm2
vfmadd231ps %ymm13, %ymm8, %ymm2 # ymm2 = (ymm8 * ymm13) + ymm2
vmulps %ymm5, %ymm2, %ymm2
vcmpgeps 0x440(%rsp), %ymm2, %k1
vcmpleps 0x100(%r15,%r14,4){1to8}, %ymm2, %k1 {%k1}
kandb %k0, %k1, %k0
kortestb %k0, %k0
je 0x1cc7893
vcmpneqps %ymm24, %ymm6, %k1
ktestb %k1, %k0
vmovaps 0x20(%rsp), %xmm9
vmovaps 0x120(%rsp), %ymm17
je 0x1cc78b4
kandb %k1, %k0, %k0
kmovd %k0, %eax
vmulps %ymm5, %ymm3, %ymm3
vmulps %ymm5, %ymm4, %ymm4
vbroadcastss 0x225436(%rip), %ymm5 # 0x1eec714
vsubps %ymm3, %ymm5, %ymm20
vmovaps %ymm3, %ymm20 {%k2}
vsubps %ymm4, %ymm5, %ymm3
vmovaps %ymm4, %ymm3 {%k2}
vmovaps %ymm3, 0x460(%rsp)
movzbl %al, %eax
vmovaps %ymm2, %ymm21
vmovaps 0x60(%rsp), %ymm6
vmovaps 0x40(%rsp), %ymm2
testw %ax, %ax
je 0x1cc7881
vsubps %ymm0, %ymm1, %ymm1
vfmadd213ps %ymm0, %ymm20, %ymm1 # ymm1 = (ymm20 * ymm1) + ymm0
vaddps %ymm1, %ymm1, %ymm0
vmulps (%r11,%r14,4){1to8}, %ymm0, %ymm0
vcmpnleps %ymm0, %ymm21, %k0
kmovd %k0, %ecx
andb %cl, %al
je 0x1cc7881
movl %edi, 0x8(%rsp)
vbroadcastss 0x22967c(%rip), %ymm0 # 0x1ef09cc
vmovaps 0x460(%rsp), %ymm1
vfmadd132ps 0x229c95(%rip){1to8}, %ymm0, %ymm1 # ymm1 = (ymm1 * mem) + ymm0
vmovaps %ymm20, 0x300(%rsp)
vmovaps %ymm1, 0x460(%rsp)
vmovaps %ymm1, 0x320(%rsp)
vmovaps %ymm21, 0x340(%rsp)
movl %r13d, 0x360(%rsp)
movl %r9d, 0x364(%rsp)
vmovaps %xmm9, 0x370(%rsp)
vmovaps 0x110(%rsp), %xmm0
vmovaps %xmm0, 0x380(%rsp)
vmovaps 0x100(%rsp), %xmm0
vmovaps %xmm0, 0x390(%rsp)
vmovdqa 0x160(%rsp), %xmm0
vmovdqa %xmm0, 0x3a0(%rsp)
movb %al, 0x3b0(%rsp)
movq (%r10), %rcx
movq 0x1e8(%rcx), %rcx
movq 0x80(%rsp), %rdi
movq (%rcx,%rdi,8), %rdi
movl 0x120(%r15,%r14,4), %ecx
movq %rdi, 0x10(%rsp)
testl %ecx, 0x34(%rdi)
je 0x1cc7878
movq 0x10(%r10), %rcx
cmpq $0x0, 0x10(%rcx)
movl 0x8(%rsp), %edi
jne 0x1cc7428
movq 0x10(%rsp), %rcx
cmpq $0x0, 0x48(%rcx)
movb $0x1, %cl
je 0x1cc787e
vmovaps %ymm29, 0x1a0(%rsp)
vmovaps %ymm28, 0x1c0(%rsp)
movl %r9d, 0xc(%rsp)
movq %r11, 0x30(%rsp)
movq %r8, 0x38(%rsp)
vmovaps %ymm20, 0x200(%rsp)
vaddps 0x259ae7(%rip), %ymm20, %ymm0 # 0x1f20f40
vcvtsi2ss %r13d, %xmm19, %xmm1
vbroadcastss %xmm1, %ymm1
vaddps %ymm0, %ymm1, %ymm0
vmulps 0x420(%rsp), %ymm0, %ymm0
vmovaps %ymm0, 0x3c0(%rsp)
vmovaps 0x460(%rsp), %ymm0
vmovaps %ymm0, 0x3e0(%rsp)
vmovaps %ymm21, 0x1e0(%rsp)
vmovaps %ymm21, 0x400(%rsp)
movzbl %al, %esi
vmovaps 0x380(%rsp), %xmm0
vmovaps %xmm0, 0xc0(%rsp)
tzcntq %rsi, %rdi
vmovaps 0x390(%rsp), %xmm0
vmovaps %xmm0, 0x4b0(%rsp)
vmovaps 0x3a0(%rsp), %xmm0
vmovaps %xmm0, 0x4a0(%rsp)
movb $0x1, %al
movl %eax, 0xd0(%rsp)
movq %r10, 0x18(%rsp)
vmovss 0x100(%r15,%r14,4), %xmm10
vmovss 0x400(%rsp,%rdi,4), %xmm0
vbroadcastss 0x3c0(%rsp,%rdi,4), %ymm1
vbroadcastss 0x3e0(%rsp,%rdi,4), %ymm2
vmovss %xmm0, 0x100(%r15,%r14,4)
movq 0x8(%r10), %rax
vmovss 0x2251ef(%rip), %xmm0 # 0x1eec714
vsubss %xmm1, %xmm0, %xmm0
vaddss %xmm0, %xmm0, %xmm3
vmulss %xmm3, %xmm1, %xmm4
vfnmadd231ss %xmm0, %xmm0, %xmm4 # xmm4 = -(xmm0 * xmm0) + xmm4
vaddss %xmm1, %xmm1, %xmm5
vmovss 0x229aaa(%rip), %xmm8 # 0x1ef0fec
vmovaps %xmm8, %xmm6
vfmadd213ss 0x229ab5(%rip), %xmm1, %xmm6 # xmm6 = (xmm1 * xmm6) + mem
vmulss %xmm1, %xmm8, %xmm7
vmulss %xmm7, %xmm1, %xmm7
vfmadd231ss %xmm6, %xmm5, %xmm7 # xmm7 = (xmm5 * xmm6) + xmm7
vmovaps %xmm8, %xmm5
vfmadd213ss 0x229a8f(%rip), %xmm1, %xmm5 # xmm5 = (xmm1 * xmm5) + mem
vmulss 0x229a7f(%rip), %xmm0, %xmm6 # 0x1ef0ff0
vmulss %xmm6, %xmm0, %xmm6
vfmadd231ss %xmm5, %xmm3, %xmm6 # xmm6 = (xmm3 * xmm5) + xmm6
vmulss 0x22945a(%rip), %xmm0, %xmm0 # 0x1ef09dc
vmulss %xmm1, %xmm1, %xmm3
vfmadd231ss %xmm0, %xmm1, %xmm3 # xmm3 = (xmm1 * xmm0) + xmm3
vmovss 0x2255ed(%rip), %xmm8 # 0x1eecb80
vmulss %xmm4, %xmm8, %xmm0
vmulss %xmm7, %xmm8, %xmm4
vmulss %xmm6, %xmm8, %xmm5
vmulss %xmm3, %xmm8, %xmm3
vbroadcastss %xmm3, %xmm3
vmulps 0x4a0(%rsp), %xmm3, %xmm3
vbroadcastss %xmm5, %xmm5
vfmadd132ps 0x4b0(%rsp), %xmm3, %xmm5 # xmm5 = (xmm5 * mem) + xmm3
vbroadcastss %xmm4, %xmm3
vfmadd132ps 0xc0(%rsp), %xmm5, %xmm3 # xmm3 = (xmm3 * mem) + xmm5
vbroadcastss %xmm0, %xmm0
vfmadd213ps %xmm3, %xmm9, %xmm0 # xmm0 = (xmm9 * xmm0) + xmm3
vbroadcastss %xmm0, %ymm3
vbroadcastss 0x24b11d(%rip), %ymm4 # 0x1f12704
vpermps %ymm0, %ymm4, %ymm4
vbroadcastss 0x2598e7(%rip), %ymm5 # 0x1f20edc
vpermps %ymm0, %ymm5, %ymm0
vmovaps %ymm3, 0x500(%rsp)
vmovaps %ymm4, 0x520(%rsp)
vmovaps %ymm0, 0x540(%rsp)
vmovaps %ymm1, 0x560(%rsp)
vmovaps %ymm2, 0x580(%rsp)
vmovaps 0x2a0(%rsp), %ymm0
vmovaps %ymm0, 0x5a0(%rsp)
vmovdqa 0x2e0(%rsp), %ymm0
vmovdqa %ymm0, 0x5c0(%rsp)
movq 0x88(%rsp), %rcx
vpcmpeqd %ymm0, %ymm0, %ymm0
vmovdqa %ymm0, 0x20(%rcx)
vmovdqa %ymm0, (%rcx)
vbroadcastss (%rax), %ymm0
vmovaps %ymm0, 0x5e0(%rsp)
vbroadcastss 0x4(%rax), %ymm0
vmovaps %ymm0, 0x600(%rsp)
vmovaps 0x4c0(%rsp), %ymm0
vmovaps %ymm0, 0x140(%rsp)
leaq 0x140(%rsp), %rcx
movq %rcx, 0x90(%rsp)
movq 0x10(%rsp), %rdx
movq 0x18(%rdx), %rcx
movq %rcx, 0x98(%rsp)
movq %rax, 0xa0(%rsp)
movq %r15, 0xa8(%rsp)
leaq 0x500(%rsp), %rax
movq %rax, 0xb0(%rsp)
movl $0x8, 0xb8(%rsp)
movq 0x48(%rdx), %rax
testq %rax, %rax
movq %rsi, 0xf0(%rsp)
movq %rdi, 0x280(%rsp)
vmovss %xmm10, 0xe0(%rsp)
je 0x1cc772e
leaq 0x90(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0xe0(%rsp), %xmm10
movq 0x280(%rsp), %rdi
movq 0xf0(%rsp), %rsi
vmovaps 0x20(%rsp), %xmm9
movq 0x18(%rsp), %r10
vmovdqa 0x140(%rsp), %ymm0
vptest %ymm0, %ymm0
je 0x1cc77c8
movq 0x10(%r10), %rcx
movq 0x10(%rcx), %rax
testq %rax, %rax
je 0x1cc7790
testb $0x2, (%rcx)
jne 0x1cc775f
movq 0x10(%rsp), %rcx
testb $0x40, 0x3e(%rcx)
je 0x1cc7790
leaq 0x90(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0xe0(%rsp), %xmm10
movq 0x280(%rsp), %rdi
movq 0xf0(%rsp), %rsi
vmovaps 0x20(%rsp), %xmm9
movq 0x18(%rsp), %r10
vmovdqa 0x140(%rsp), %ymm0
vptestmd %ymm0, %ymm0, %k1
movq 0xa8(%rsp), %rax
vmovaps 0x100(%rax), %ymm1
vbroadcastss 0x2253cb(%rip), %ymm1 {%k1} # 0x1eecb84
vmovaps %ymm1, 0x100(%rax)
vptest %ymm0, %ymm0
jne 0x1cc77eb
vmovss %xmm10, 0x100(%r15,%r14,4)
btcq %rdi, %rsi
tzcntq %rsi, %rdi
setae %al
movl %eax, 0xd0(%rsp)
jae 0x1cc74e8
movl 0xd0(%rsp), %ecx
andb $0x1, %cl
movq 0x38(%rsp), %r8
movq 0x30(%rsp), %r11
leaq 0x468b66(%rip), %rdx # 0x213036c
leaq 0x46af7f(%rip), %rsi # 0x213278c
vxorps %xmm24, %xmm24, %xmm24
vmovaps 0x60(%rsp), %ymm6
vmovaps 0x200(%rsp), %ymm20
vmovaps 0x40(%rsp), %ymm2
vmovaps 0x1e0(%rsp), %ymm21
movl 0xc(%rsp), %r9d
vmovaps 0x260(%rsp), %ymm22
vmovaps 0x240(%rsp), %ymm18
vmovaps 0x120(%rsp), %ymm17
vmovaps 0x1c0(%rsp), %ymm28
vmovaps 0x1a0(%rsp), %ymm29
jmp 0x1cc787a
vmovaps 0x60(%rsp), %ymm6
vmovaps 0x40(%rsp), %ymm2
vmovaps %ymm23, %ymm18
vmovaps %ymm26, %ymm17
jmp 0x1cc7881
xorl %ecx, %ecx
movl 0x8(%rsp), %edi
orb %cl, %dil
addq $0x8, %r13
cmpl %r13d, %r9d
jg 0x1cc6cf3
jmp 0x1cc6c30
xorl %eax, %eax
vmovaps 0x60(%rsp), %ymm6
vmovaps 0x40(%rsp), %ymm2
vmovaps 0x20(%rsp), %xmm9
vmovaps 0x120(%rsp), %ymm17
jmp 0x1cc7312
xorl %eax, %eax
jmp 0x1cc7306
xorl %eax, %eax
vmovaps 0x60(%rsp), %ymm6
vmovaps 0x40(%rsp), %ymm2
vmovaps 0x20(%rsp), %xmm9
vmovaps 0x1c0(%rsp), %ymm28
vmovaps 0x1a0(%rsp), %ymm29
vmovaps 0x180(%rsp), %xmm10
jmp 0x1cc65fa
xorl %eax, %eax
vmovaps 0x60(%rsp), %ymm6
vmovaps 0x40(%rsp), %ymm2
vmovaps 0x20(%rsp), %xmm9
jmp 0x1cc65fa
xorl %eax, %eax
vmovaps 0x60(%rsp), %ymm6
vmovaps 0x40(%rsp), %ymm2
jmp 0x1cc65fa
movb 0x7(%rsp), %al
andb $0x1, %al
leaq -0x28(%rbp), %rsp
popq %rbx
popq %r12
popq %r13
popq %r14
popq %r15
popq %rbp
vzeroupper
retq
nop
|
/embree[P]embree/kernels/geometry/curveNi_intersector.h
|
void embree::avx512::CurveNiIntersectorK<8, 16>::intersect_t<embree::avx512::RibbonCurve1IntersectorK<embree::CatmullRomCurveT, 16, 8>, embree::avx512::Intersect1KEpilogMU<8, 16, true>>(embree::avx512::CurvePrecalculationsK<16>&, embree::RayHitK<16>&, unsigned long, embree::RayQueryContext*, embree::CurveNi<8> const&)
|
static __forceinline void intersect_t(Precalculations& pre, RayHitK<K>& ray, const size_t k, RayQueryContext* context, const Primitive& prim)
{
vfloat<M> tNear;
vbool<M> valid = intersect(ray,k,prim,tNear);
const size_t N = prim.N;
size_t mask = movemask(valid);
while (mask)
{
const size_t i = bscf(mask);
STAT3(normal.trav_prims,1,1,1);
const unsigned int geomID = prim.geomID(N);
const unsigned int primID = prim.primID(N)[i];
const CurveGeometry* geom = context->scene->get<CurveGeometry>(geomID);
Vec3ff a0,a1,a2,a3; geom->gather(a0,a1,a2,a3,geom->curve(primID));
size_t mask1 = mask;
const size_t i1 = bscf(mask1);
if (mask) {
const unsigned int primID1 = prim.primID(N)[i1];
geom->prefetchL1_vertices(geom->curve(primID1));
if (mask1) {
const size_t i2 = bsf(mask1);
const unsigned int primID2 = prim.primID(N)[i2];
geom->prefetchL2_vertices(geom->curve(primID2));
}
}
Intersector().intersect(pre,ray,k,context,geom,primID,a0,a1,a2,a3,Epilog(ray,k,context,geomID,primID));
mask &= movemask(tNear <= vfloat<M>(ray.tfar[k]));
}
}
|
pushq %rbp
movq %rsp, %rbp
pushq %r15
pushq %r14
pushq %r13
pushq %r12
pushq %rbx
andq $-0x40, %rsp
subq $0x9c0, %rsp # imm = 0x9C0
movq %rcx, %r10
movq %rdx, %r15
movq %rdi, 0xc8(%rsp)
movzbl 0x1(%r8), %ecx
leaq (%rcx,%rcx,4), %rax
leaq (%rax,%rax,4), %rdx
vbroadcastss 0x12(%r8,%rdx), %xmm0
vmovss (%rsi,%r15,4), %xmm1
vmovss 0x100(%rsi,%r15,4), %xmm2
vinsertps $0x10, 0x40(%rsi,%r15,4), %xmm1, %xmm1 # xmm1 = xmm1[0],mem[0],xmm1[2,3]
vinsertps $0x20, 0x80(%rsi,%r15,4), %xmm1, %xmm1 # xmm1 = xmm1[0,1],mem[0],xmm1[3]
vinsertps $0x10, 0x140(%rsi,%r15,4), %xmm2, %xmm2 # xmm2 = xmm2[0],mem[0],xmm2[2,3]
vinsertps $0x20, 0x180(%rsi,%r15,4), %xmm2, %xmm2 # xmm2 = xmm2[0,1],mem[0],xmm2[3]
vsubps 0x6(%r8,%rdx), %xmm1, %xmm1
vmulps %xmm1, %xmm0, %xmm3
vmulps %xmm2, %xmm0, %xmm0
vpmovsxbd 0x6(%r8,%rcx,4), %ymm1
vpmovsxbd 0x6(%r8,%rax), %ymm2
vcvtdq2ps %ymm1, %ymm5
vcvtdq2ps %ymm2, %ymm6
leaq (%rcx,%rcx,2), %rdx
vpmovsxbd 0x6(%r8,%rdx,2), %ymm1
vcvtdq2ps %ymm1, %ymm4
leaq (%rcx,%rax,2), %rdi
vpmovsxbd 0x6(%r8,%rdi), %ymm1
leal (,%rdx,4), %edi
vpmovsxbd 0x6(%r8,%rdi), %ymm2
vcvtdq2ps %ymm1, %ymm7
vcvtdq2ps %ymm2, %ymm8
addq %rcx, %rdi
vpmovsxbd 0x6(%r8,%rdi), %ymm1
vcvtdq2ps %ymm1, %ymm9
leaq (%rcx,%rcx,8), %r9
leal (%r9,%r9), %edi
vpmovsxbd 0x6(%r8,%rdi), %ymm1
vcvtdq2ps %ymm1, %ymm10
addq %rcx, %rdi
vpmovsxbd 0x6(%r8,%rdi), %ymm1
vcvtdq2ps %ymm1, %ymm11
shll $0x2, %eax
vpmovsxbd 0x6(%r8,%rax), %ymm1
vcvtdq2ps %ymm1, %ymm12
vbroadcastss %xmm0, %ymm13
vbroadcastss 0x24acbf(%rip), %ymm15 # 0x1f12704
vbroadcastss 0x25948d(%rip), %ymm16 # 0x1f20edc
vpermps %ymm0, %ymm15, %ymm14
vpermps %ymm0, %ymm16, %ymm0
vmulps %ymm4, %ymm0, %ymm2
vmulps %ymm0, %ymm9, %ymm1
vmulps %ymm0, %ymm12, %ymm0
vfmadd231ps %ymm6, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm6) + ymm2
vfmadd231ps %ymm8, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm8) + ymm1
vfmadd231ps %ymm14, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm14) + ymm0
vfmadd231ps %ymm5, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm5) + ymm2
vfmadd231ps %ymm7, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm7) + ymm1
vfmadd231ps %ymm13, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm13) + ymm0
vbroadcastss %xmm3, %ymm13
vpermps %ymm3, %ymm15, %ymm14
vpermps %ymm3, %ymm16, %ymm3
vmulps %ymm4, %ymm3, %ymm15
vmulps %ymm3, %ymm9, %ymm4
vmulps %ymm3, %ymm12, %ymm3
vfmadd231ps %ymm6, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm6) + ymm15
vfmadd231ps %ymm8, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm8) + ymm4
vfmadd231ps %ymm11, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm11) + ymm3
vfmadd231ps %ymm5, %ymm13, %ymm15 # ymm15 = (ymm13 * ymm5) + ymm15
vfmadd231ps %ymm7, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm7) + ymm4
vbroadcastss 0x259402(%rip), %ymm7 # 0x1f20ec4
vfmadd231ps %ymm10, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm10) + ymm3
vandps %ymm7, %ymm2, %ymm5
vbroadcastss 0x229514(%rip), %ymm6 # 0x1ef0fe8
vcmpltps %ymm6, %ymm5, %k1
vmovaps %ymm6, %ymm2 {%k1}
vandps %ymm7, %ymm1, %ymm5
vcmpltps %ymm6, %ymm5, %k1
vmovaps %ymm6, %ymm1 {%k1}
vandps %ymm7, %ymm0, %ymm5
vcmpltps %ymm6, %ymm5, %k1
vmovaps %ymm6, %ymm0 {%k1}
vrcp14ps %ymm2, %ymm5
vbroadcastss 0x224c02(%rip), %ymm6 # 0x1eec714
vfnmadd213ps %ymm6, %ymm5, %ymm2 # ymm2 = -(ymm5 * ymm2) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm2 # ymm2 = (ymm2 * ymm5) + ymm5
vrcp14ps %ymm1, %ymm5
vfnmadd213ps %ymm6, %ymm5, %ymm1 # ymm1 = -(ymm5 * ymm1) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm1 # ymm1 = (ymm1 * ymm5) + ymm5
vrcp14ps %ymm0, %ymm5
vfnmadd213ps %ymm6, %ymm5, %ymm0 # ymm0 = -(ymm5 * ymm0) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm0 # ymm0 = (ymm0 * ymm5) + ymm5
leaq (,%rcx,8), %rdi
subq %rcx, %rdi
vpmovsxwd 0x6(%r8,%rdi), %ymm5
vcvtdq2ps %ymm5, %ymm5
vsubps %ymm15, %ymm5, %ymm5
vmulps %ymm5, %ymm2, %ymm5
vpmovsxwd 0x6(%r8,%r9), %ymm6
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm15, %ymm6, %ymm6
leaq (%rcx,%rcx), %rdi
addq %rcx, %rax
shlq $0x3, %rdx
subq %rcx, %rdx
vpbroadcastd %ecx, %ymm7
shll $0x4, %ecx
vpmovsxwd 0x6(%r8,%rcx), %ymm8
vmulps %ymm6, %ymm2, %ymm2
subq %rdi, %rcx
vpmovsxwd 0x6(%r8,%rcx), %ymm6
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm4, %ymm6, %ymm6
vmulps %ymm6, %ymm1, %ymm6
vcvtdq2ps %ymm8, %ymm8
vsubps %ymm4, %ymm8, %ymm4
vmulps %ymm4, %ymm1, %ymm1
vpmovsxwd 0x6(%r8,%rax), %ymm4
vcvtdq2ps %ymm4, %ymm4
vsubps %ymm3, %ymm4, %ymm4
vmulps %ymm0, %ymm4, %ymm4
vpmovsxwd 0x6(%r8,%rdx), %ymm8
vcvtdq2ps %ymm8, %ymm8
vsubps %ymm3, %ymm8, %ymm3
vmulps %ymm3, %ymm0, %ymm0
vpminsd %ymm2, %ymm5, %ymm3
vpminsd %ymm1, %ymm6, %ymm8
vmaxps %ymm8, %ymm3, %ymm3
vpminsd %ymm0, %ymm4, %ymm8
vmaxps 0xc0(%rsi,%r15,4){1to8}, %ymm8, %ymm8
vmaxps %ymm8, %ymm3, %ymm3
vmulps 0x25830e(%rip){1to8}, %ymm3, %ymm3 # 0x1f1ff10
vpmaxsd %ymm2, %ymm5, %ymm2
vpmaxsd %ymm1, %ymm6, %ymm1
vminps %ymm1, %ymm2, %ymm1
vpmaxsd %ymm0, %ymm4, %ymm0
vminps 0x200(%rsi,%r15,4){1to8}, %ymm0, %ymm0
vminps %ymm0, %ymm1, %ymm0
vmulps 0x2582e6(%rip){1to8}, %ymm0, %ymm0 # 0x1f1ff14
vpcmpgtd 0x292ce8(%rip), %ymm7, %k0 # 0x1f5a920
vmovaps %ymm3, 0x6e0(%rsp)
vcmpleps %ymm0, %ymm3, %k1
ktestb %k0, %k1
je 0x1cc9e8b
kandb %k0, %k1, %k0
kmovd %k0, %eax
movzbl %al, %r13d
leaq (%r15,%r15,2), %rax
shlq $0x4, %rax
movq 0xc8(%rsp), %rcx
addq %rcx, %rax
addq $0x40, %rax
movq %rax, 0x218(%rsp)
leaq 0x740(%rsp), %rax
leaq 0x1c0(%rax), %rax
movq %rax, 0x138(%rsp)
movl $0x1, %eax
shlxl %r15d, %eax, %eax
kmovd %eax, %k0
vpmovm2d %k0, %zmm0
vmovdqa64 %zmm0, 0x700(%rsp)
leaq 0x4686b5(%rip), %r12 # 0x213036c
vmovaps %ymm6, 0xa0(%rsp)
vmovaps %ymm3, 0x80(%rsp)
vmovaps %ymm21, 0x1a0(%rsp)
vmovaps %ymm20, 0x1c0(%rsp)
tzcntq %r13, %rax
movl 0x2(%r8), %ecx
movl 0x6(%r8,%rax,4), %edi
movq (%r10), %rax
movq 0x1e8(%rax), %rax
movq %rcx, 0x58(%rsp)
movq (%rax,%rcx,8), %r14
movq 0x58(%r14), %rax
movq 0x68(%r14), %rcx
movq %rcx, %rdx
movq %rdi, 0x78(%rsp)
imulq %rdi, %rdx
movl (%rax,%rdx), %edi
movq 0xa0(%r14), %rdx
movq %rdx, %r9
imulq %rdi, %r9
movq 0x90(%r14), %r11
vmovaps (%r11,%r9), %xmm13
leaq 0x1(%rdi), %r9
imulq %rdx, %r9
vmovaps (%r11,%r9), %xmm0
vmovaps %xmm0, 0xe0(%rsp)
leaq 0x2(%rdi), %r9
imulq %rdx, %r9
vmovaps (%r11,%r9), %xmm0
vmovaps %xmm0, 0xd0(%rsp)
blsrq %r13, %r13
addq $0x3, %rdi
imulq %rdx, %rdi
vmovaps (%r11,%rdi), %xmm0
vmovaps %xmm0, 0x120(%rsp)
movq %r13, %rdi
subq $0x1, %rdi
jb 0x1cc7dc8
andq %r13, %rdi
tzcntq %r13, %r9
movl 0x6(%r8,%r9,4), %r9d
imulq %rcx, %r9
movl (%rax,%r9), %r9d
imulq %rdx, %r9
prefetcht0 (%r11,%r9)
prefetcht0 0x40(%r11,%r9)
testq %rdi, %rdi
je 0x1cc7dc8
tzcntq %rdi, %rdi
movl 0x6(%r8,%rdi,4), %edi
imulq %rdi, %rcx
movl (%rax,%rcx), %eax
imulq %rax, %rdx
prefetcht1 (%r11,%rdx)
prefetcht1 0x40(%r11,%rdx)
movl 0x248(%r14), %edi
vmovss (%rsi,%r15,4), %xmm0
vinsertps $0x1c, 0x40(%rsi,%r15,4), %xmm0, %xmm0 # xmm0 = xmm0[0],mem[0],zero,zero
vinsertps $0x28, 0x80(%rsi,%r15,4), %xmm0, %xmm0 # xmm0 = xmm0[0,1],mem[0],zero
vsubps %xmm0, %xmm13, %xmm1
vbroadcastss %xmm1, %xmm2
vshufps $0x55, %xmm1, %xmm1, %xmm3 # xmm3 = xmm1[1,1,1,1]
vshufps $0xaa, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,2,2,2]
movq 0x218(%rsp), %rax
vmovaps (%rax), %xmm4
vmovaps 0x10(%rax), %xmm5
vmovaps 0x20(%rax), %xmm6
vmulps %xmm1, %xmm6, %xmm8
vfmadd231ps %xmm3, %xmm5, %xmm8 # xmm8 = (xmm5 * xmm3) + xmm8
vfmadd231ps %xmm2, %xmm4, %xmm8 # xmm8 = (xmm4 * xmm2) + xmm8
vshufps $0xff, %xmm13, %xmm13, %xmm1 # xmm1 = xmm13[3,3,3,3]
vmovaps 0xe0(%rsp), %xmm3
vsubps %xmm0, %xmm3, %xmm2
vmovaps %xmm3, %xmm10
vbroadcastss %xmm2, %xmm3
vshufps $0x55, %xmm2, %xmm2, %xmm7 # xmm7 = xmm2[1,1,1,1]
vshufps $0xaa, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[2,2,2,2]
vmulps %xmm2, %xmm6, %xmm9
vfmadd231ps %xmm7, %xmm5, %xmm9 # xmm9 = (xmm5 * xmm7) + xmm9
vfmadd231ps %xmm3, %xmm4, %xmm9 # xmm9 = (xmm4 * xmm3) + xmm9
vshufps $0xff, %xmm10, %xmm10, %xmm2 # xmm2 = xmm10[3,3,3,3]
vmovaps 0xd0(%rsp), %xmm7
vsubps %xmm0, %xmm7, %xmm3
vmovaps %xmm7, %xmm12
vbroadcastss %xmm3, %xmm7
vshufps $0x55, %xmm3, %xmm3, %xmm11 # xmm11 = xmm3[1,1,1,1]
vshufps $0xaa, %xmm3, %xmm3, %xmm3 # xmm3 = xmm3[2,2,2,2]
vmulps %xmm3, %xmm6, %xmm10
vfmadd231ps %xmm11, %xmm5, %xmm10 # xmm10 = (xmm5 * xmm11) + xmm10
vfmadd231ps %xmm7, %xmm4, %xmm10 # xmm10 = (xmm4 * xmm7) + xmm10
vshufps $0xff, %xmm12, %xmm12, %xmm7 # xmm7 = xmm12[3,3,3,3]
vmovaps 0x120(%rsp), %xmm26
vsubps %xmm0, %xmm26, %xmm0
vbroadcastss %xmm0, %xmm3
vshufps $0x55, %xmm0, %xmm0, %xmm12 # xmm12 = xmm0[1,1,1,1]
vshufps $0xaa, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[2,2,2,2]
vmulps %xmm0, %xmm6, %xmm11
vfmadd231ps %xmm12, %xmm5, %xmm11 # xmm11 = (xmm5 * xmm12) + xmm11
vfmadd231ps %xmm3, %xmm4, %xmm11 # xmm11 = (xmm4 * xmm3) + xmm11
movslq %edi, %rax
movq %rax, %rcx
shlq $0x6, %rcx
leaq (%rcx,%rax,4), %rbx
vmovups (%r12,%rbx), %ymm25
vshufps $0xff, %xmm26, %xmm26, %xmm0 # xmm0 = xmm26[3,3,3,3]
vbroadcastss %xmm8, %ymm20
vbroadcastss 0x24a821(%rip), %ymm4 # 0x1f12704
vpermps %ymm8, %ymm4, %ymm23
vbroadcastsd %xmm1, %ymm3
vmovups 0x484(%r12,%rbx), %ymm14
vbroadcastss %xmm9, %ymm1
vpermps %ymm9, %ymm4, %ymm27
vbroadcastsd %xmm2, %ymm12
vmovups 0x908(%r12,%rbx), %ymm15
vbroadcastss %xmm10, %ymm31
vpermps %ymm10, %ymm4, %ymm30
vbroadcastsd %xmm7, %ymm21
vmovups 0xd8c(%r12,%rbx), %ymm16
vbroadcastss %xmm11, %ymm28
vpermps %ymm11, %ymm4, %ymm29
vbroadcastsd %xmm0, %ymm22
vmulps %ymm16, %ymm28, %ymm5
vmulps %ymm16, %ymm29, %ymm4
vfmadd231ps %ymm31, %ymm15, %ymm5 # ymm5 = (ymm15 * ymm31) + ymm5
vfmadd231ps %ymm30, %ymm15, %ymm4 # ymm4 = (ymm15 * ymm30) + ymm4
vfmadd231ps %ymm1, %ymm14, %ymm5 # ymm5 = (ymm14 * ymm1) + ymm5
vfmadd231ps %ymm27, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm27) + ymm4
vfmadd231ps %ymm20, %ymm25, %ymm5 # ymm5 = (ymm25 * ymm20) + ymm5
leaq 0x46a81b(%rip), %rdx # 0x213278c
vmovups (%rdx,%rbx), %ymm2
vmovups 0x484(%rdx,%rbx), %ymm17
vfmadd231ps %ymm23, %ymm25, %ymm4 # ymm4 = (ymm25 * ymm23) + ymm4
vmovups 0x908(%rdx,%rbx), %ymm18
vmovups 0xd8c(%rdx,%rbx), %ymm19
vmulps %ymm19, %ymm28, %ymm7
vmulps %ymm19, %ymm29, %ymm6
vfmadd231ps %ymm31, %ymm18, %ymm7 # ymm7 = (ymm18 * ymm31) + ymm7
vfmadd231ps %ymm30, %ymm18, %ymm6 # ymm6 = (ymm18 * ymm30) + ymm6
vmovaps %ymm1, 0x140(%rsp)
vfmadd231ps %ymm1, %ymm17, %ymm7 # ymm7 = (ymm17 * ymm1) + ymm7
vfmadd231ps %ymm27, %ymm17, %ymm6 # ymm6 = (ymm17 * ymm27) + ymm6
vmovaps %ymm20, 0x260(%rsp)
vfmadd231ps %ymm20, %ymm2, %ymm7 # ymm7 = (ymm2 * ymm20) + ymm7
vmovaps %ymm23, 0x240(%rsp)
vfmadd231ps %ymm23, %ymm2, %ymm6 # ymm6 = (ymm2 * ymm23) + ymm6
vsubps %ymm5, %ymm7, %ymm24
vsubps %ymm4, %ymm6, %ymm23
vmulps %ymm24, %ymm4, %ymm0
vmulps %ymm23, %ymm5, %ymm1
vsubps %ymm1, %ymm0, %ymm20
vmulps %ymm16, %ymm22, %ymm0
vfmadd231ps %ymm21, %ymm15, %ymm0 # ymm0 = (ymm15 * ymm21) + ymm0
vfmadd231ps %ymm12, %ymm14, %ymm0 # ymm0 = (ymm14 * ymm12) + ymm0
vfmadd231ps %ymm3, %ymm25, %ymm0 # ymm0 = (ymm25 * ymm3) + ymm0
vmovaps %ymm22, 0x620(%rsp)
vmulps %ymm19, %ymm22, %ymm1
vmovaps %ymm21, 0x640(%rsp)
vfmadd231ps %ymm21, %ymm18, %ymm1 # ymm1 = (ymm18 * ymm21) + ymm1
vmovaps %ymm12, 0x6a0(%rsp)
vfmadd231ps %ymm12, %ymm17, %ymm1 # ymm1 = (ymm17 * ymm12) + ymm1
vmovaps %ymm3, 0x6c0(%rsp)
vfmadd231ps %ymm3, %ymm2, %ymm1 # ymm1 = (ymm2 * ymm3) + ymm1
vmulps %ymm23, %ymm23, %ymm21
vfmadd231ps %ymm24, %ymm24, %ymm21 # ymm21 = (ymm24 * ymm24) + ymm21
vmaxps %ymm1, %ymm0, %ymm22
vmulps %ymm22, %ymm22, %ymm22
vmulps %ymm21, %ymm22, %ymm21
vmulps %ymm20, %ymm20, %ymm20
vcmpleps %ymm21, %ymm20, %k1
vmovaps %xmm13, 0x60(%rsp)
vblendps $0x8, %xmm13, %xmm8, %xmm12 # xmm12 = xmm8[0,1,2],xmm13[3]
vbroadcastss 0x258e2f(%rip), %xmm20 # 0x1f20ec4
vandps %xmm20, %xmm12, %xmm12
vblendps $0x8, 0xe0(%rsp), %xmm9, %xmm13 # xmm13 = xmm9[0,1,2],mem[3]
vandps %xmm20, %xmm13, %xmm13
vmaxps %xmm13, %xmm12, %xmm12
vblendps $0x8, 0xd0(%rsp), %xmm10, %xmm13 # xmm13 = xmm10[0,1,2],mem[3]
vandps %xmm20, %xmm13, %xmm13
vmovaps %xmm26, %xmm3
vblendps $0x8, %xmm3, %xmm11, %xmm3 # xmm3 = xmm11[0,1,2],xmm3[3]
vandps %xmm20, %xmm3, %xmm3
vmaxps %xmm3, %xmm13, %xmm3
vmaxps %xmm3, %xmm12, %xmm3
vmovshdup %xmm3, %xmm12 # xmm12 = xmm3[1,1,3,3]
vmaxss %xmm3, %xmm12, %xmm12
vshufpd $0x1, %xmm3, %xmm3, %xmm3 # xmm3 = xmm3[1,0]
vmaxss %xmm12, %xmm3, %xmm3
vcvtsi2ss %edi, %xmm8, %xmm12
vmovaps %xmm12, 0x2c0(%rsp)
vbroadcastss %xmm12, %ymm12
vcmpgtps 0x258e35(%rip), %ymm12, %k1 {%k1} # 0x1f20f40
vmulss 0x228ecf(%rip), %xmm3, %xmm26 # 0x1ef0fe4
vbroadcastss 0x258dbe(%rip), %ymm3 # 0x1f20edc
vpermps %ymm8, %ymm3, %ymm20
vpermps %ymm9, %ymm3, %ymm21
vpermps %ymm10, %ymm3, %ymm22
vpermps %ymm11, %ymm3, %ymm3
kortestb %k1, %k1
vmovss 0xc0(%rsi,%r15,4), %xmm10
vmovaps %ymm27, 0x4a0(%rsp)
vmovaps %ymm31, 0x680(%rsp)
vmovaps %ymm30, 0x660(%rsp)
vmovaps %ymm20, 0x600(%rsp)
vmovaps %ymm21, 0x5e0(%rsp)
vmovaps %ymm22, 0x5c0(%rsp)
vmovaps %ymm3, 0x5a0(%rsp)
je 0x1cc8944
vmovaps %xmm10, 0x220(%rsp)
vmovaps %xmm26, 0x280(%rsp)
vmovaps %ymm3, %ymm26
vmulps %ymm19, %ymm3, %ymm3
vfmadd213ps %ymm3, %ymm22, %ymm18 # ymm18 = (ymm22 * ymm18) + ymm3
vfmadd213ps %ymm18, %ymm21, %ymm17 # ymm17 = (ymm21 * ymm17) + ymm18
vfmadd213ps %ymm17, %ymm20, %ymm2 # ymm2 = (ymm20 * ymm2) + ymm17
vmulps %ymm16, %ymm26, %ymm3
vfmadd213ps %ymm3, %ymm22, %ymm15 # ymm15 = (ymm22 * ymm15) + ymm3
vfmadd213ps %ymm15, %ymm21, %ymm14 # ymm14 = (ymm21 * ymm14) + ymm15
vmovups 0x1210(%r12,%rbx), %ymm3
vmovups 0x1694(%r12,%rbx), %ymm10
vmovups 0x1b18(%r12,%rbx), %ymm11
vmovups 0x1f9c(%r12,%rbx), %ymm12
vfmadd213ps %ymm14, %ymm20, %ymm25 # ymm25 = (ymm20 * ymm25) + ymm14
vmulps %ymm12, %ymm28, %ymm9
vmulps %ymm12, %ymm29, %ymm8
vmulps %ymm12, %ymm26, %ymm12
vfmadd231ps %ymm31, %ymm11, %ymm9 # ymm9 = (ymm11 * ymm31) + ymm9
vfmadd231ps %ymm30, %ymm11, %ymm8 # ymm8 = (ymm11 * ymm30) + ymm8
vfmadd231ps %ymm11, %ymm22, %ymm12 # ymm12 = (ymm22 * ymm11) + ymm12
vmovaps 0x140(%rsp), %ymm19
vfmadd231ps %ymm19, %ymm10, %ymm9 # ymm9 = (ymm10 * ymm19) + ymm9
vfmadd231ps %ymm27, %ymm10, %ymm8 # ymm8 = (ymm10 * ymm27) + ymm8
vfmadd231ps %ymm10, %ymm21, %ymm12 # ymm12 = (ymm21 * ymm10) + ymm12
vmovaps 0x260(%rsp), %ymm17
vfmadd231ps %ymm17, %ymm3, %ymm9 # ymm9 = (ymm3 * ymm17) + ymm9
vmovaps 0x240(%rsp), %ymm18
vfmadd231ps %ymm18, %ymm3, %ymm8 # ymm8 = (ymm3 * ymm18) + ymm8
vmovups 0x1210(%rdx,%rbx), %ymm10
vmovups 0x1b18(%rdx,%rbx), %ymm11
vmovups 0x1f9c(%rdx,%rbx), %ymm13
vfmadd231ps %ymm3, %ymm20, %ymm12 # ymm12 = (ymm20 * ymm3) + ymm12
vmovaps %ymm28, 0x180(%rsp)
vmulps %ymm13, %ymm28, %ymm3
vmovaps %ymm29, 0x160(%rsp)
vmulps %ymm13, %ymm29, %ymm14
vmulps %ymm13, %ymm26, %ymm13
vmovaps 0x280(%rsp), %xmm26
vfmadd231ps %ymm31, %ymm11, %ymm3 # ymm3 = (ymm11 * ymm31) + ymm3
vfmadd231ps %ymm30, %ymm11, %ymm14 # ymm14 = (ymm11 * ymm30) + ymm14
vfmadd231ps %ymm11, %ymm22, %ymm13 # ymm13 = (ymm22 * ymm11) + ymm13
vmovups 0x1694(%rdx,%rbx), %ymm11
vfmadd231ps %ymm19, %ymm11, %ymm3 # ymm3 = (ymm11 * ymm19) + ymm3
vfmadd231ps %ymm27, %ymm11, %ymm14 # ymm14 = (ymm11 * ymm27) + ymm14
vfmadd231ps %ymm11, %ymm21, %ymm13 # ymm13 = (ymm21 * ymm11) + ymm13
vfmadd231ps %ymm17, %ymm10, %ymm3 # ymm3 = (ymm10 * ymm17) + ymm3
vfmadd231ps %ymm18, %ymm10, %ymm14 # ymm14 = (ymm10 * ymm18) + ymm14
vfmadd231ps %ymm10, %ymm20, %ymm13 # ymm13 = (ymm20 * ymm10) + ymm13
vbroadcastss 0x258be6(%rip), %ymm15 # 0x1f20ec4
vandps %ymm15, %ymm9, %ymm10
vandps %ymm15, %ymm8, %ymm11
vmaxps %ymm11, %ymm10, %ymm10
vandps %ymm15, %ymm12, %ymm11
vmaxps %ymm11, %ymm10, %ymm10
vbroadcastss %xmm26, %ymm11
vcmpltps %ymm11, %ymm10, %k2
vmovaps %ymm24, %ymm9 {%k2}
vmovaps %ymm23, %ymm8 {%k2}
vandps %ymm3, %ymm15, %ymm10
vandps %ymm15, %ymm14, %ymm12
vmaxps %ymm12, %ymm10, %ymm10
vandps %ymm15, %ymm13, %ymm12
vmaxps %ymm12, %ymm10, %ymm10
vcmpltps %ymm11, %ymm10, %k2
vmovaps %ymm24, %ymm3 {%k2}
vmovaps %ymm23, %ymm14 {%k2}
vbroadcastss 0x258b7c(%rip), %ymm11 # 0x1f20ec0
vxorps %ymm11, %ymm9, %ymm10
vxorps %ymm3, %ymm11, %ymm12
vxorps %xmm27, %xmm27, %xmm27
vfmadd213ps %ymm27, %ymm9, %ymm9 # ymm9 = (ymm9 * ymm9) + ymm27
vfmadd231ps %ymm8, %ymm8, %ymm9 # ymm9 = (ymm8 * ymm8) + ymm9
vrsqrt14ps %ymm9, %ymm11
vbroadcastss 0x2243af(%rip), %ymm15 # 0x1eec71c
vmulps %ymm15, %ymm9, %ymm9
vmulps %ymm9, %ymm11, %ymm9
vmulps %ymm11, %ymm11, %ymm13
vmulps %ymm9, %ymm13, %ymm9
vbroadcastss 0x22438d(%rip), %ymm16 # 0x1eec718
vfmadd231ps %ymm11, %ymm16, %ymm9 # ymm9 = (ymm16 * ymm11) + ymm9
vmulps %ymm9, %ymm8, %ymm11
vmulps %ymm10, %ymm9, %ymm10
vmulps %ymm27, %ymm9, %ymm13
vfmadd213ps %ymm27, %ymm3, %ymm3 # ymm3 = (ymm3 * ymm3) + ymm27
vfmadd231ps %ymm14, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm14) + ymm3
vrsqrt14ps %ymm3, %ymm8
vmulps %ymm3, %ymm15, %ymm3
vmulps %ymm3, %ymm8, %ymm3
vmulps %ymm8, %ymm8, %ymm9
vmulps %ymm3, %ymm9, %ymm3
vfmadd231ps %ymm8, %ymm16, %ymm3 # ymm3 = (ymm16 * ymm8) + ymm3
vmulps %ymm3, %ymm14, %ymm8
vmulps %ymm3, %ymm12, %ymm9
vmulps %ymm27, %ymm3, %ymm3
vmovaps %ymm11, %ymm12
vfmadd213ps %ymm5, %ymm0, %ymm12 # ymm12 = (ymm0 * ymm12) + ymm5
vmovaps %ymm10, %ymm14
vfmadd213ps %ymm4, %ymm0, %ymm14 # ymm14 = (ymm0 * ymm14) + ymm4
vmovaps %ymm13, %ymm15
vfmadd213ps %ymm25, %ymm0, %ymm15 # ymm15 = (ymm0 * ymm15) + ymm25
vmovaps %ymm8, %ymm16
vfmadd213ps %ymm7, %ymm1, %ymm16 # ymm16 = (ymm1 * ymm16) + ymm7
vfnmadd213ps %ymm5, %ymm0, %ymm11 # ymm11 = -(ymm0 * ymm11) + ymm5
vmovaps %ymm9, %ymm5
vfmadd213ps %ymm6, %ymm1, %ymm5 # ymm5 = (ymm1 * ymm5) + ymm6
vfnmadd213ps %ymm4, %ymm0, %ymm10 # ymm10 = -(ymm0 * ymm10) + ymm4
vmovaps %ymm3, %ymm4
vfmadd213ps %ymm2, %ymm1, %ymm4 # ymm4 = (ymm1 * ymm4) + ymm2
vfnmadd231ps %ymm13, %ymm0, %ymm25 # ymm25 = -(ymm0 * ymm13) + ymm25
vfnmadd213ps %ymm7, %ymm1, %ymm8 # ymm8 = -(ymm1 * ymm8) + ymm7
vfnmadd213ps %ymm6, %ymm1, %ymm9 # ymm9 = -(ymm1 * ymm9) + ymm6
vfnmadd231ps %ymm3, %ymm1, %ymm2 # ymm2 = -(ymm1 * ymm3) + ymm2
vsubps %ymm11, %ymm16, %ymm3
vsubps %ymm10, %ymm5, %ymm6
vsubps %ymm25, %ymm4, %ymm7
vmulps %ymm25, %ymm6, %ymm13
vfmsub231ps %ymm7, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm7) - ymm13
vmulps %ymm7, %ymm11, %ymm7
vfmsub231ps %ymm3, %ymm25, %ymm7 # ymm7 = (ymm25 * ymm3) - ymm7
vmulps %ymm3, %ymm10, %ymm3
vfmsub231ps %ymm6, %ymm11, %ymm3 # ymm3 = (ymm11 * ymm6) - ymm3
vfmadd231ps %ymm7, %ymm27, %ymm3 # ymm3 = (ymm27 * ymm7) + ymm3
vfmadd231ps %ymm13, %ymm27, %ymm3 # ymm3 = (ymm27 * ymm13) + ymm3
vcmpleps %ymm27, %ymm3, %k2
vmovaps %ymm12, %ymm8 {%k2}
vmovaps %ymm14, %ymm9 {%k2}
vmovaps %ymm15, %ymm2 {%k2}
vblendmps %ymm16, %ymm11, %ymm13 {%k2}
vblendmps %ymm5, %ymm10, %ymm14 {%k2}
vblendmps %ymm4, %ymm25, %ymm15 {%k2}
vmovaps %ymm11, %ymm16 {%k2}
vmovaps %ymm10, %ymm5 {%k2}
vmovaps %ymm25, %ymm4 {%k2}
vsubps %ymm8, %ymm16, %ymm6
vsubps %ymm9, %ymm5, %ymm5
vsubps %ymm2, %ymm4, %ymm11
vsubps %ymm13, %ymm8, %ymm7
vsubps %ymm14, %ymm9, %ymm10
vsubps %ymm15, %ymm2, %ymm12
vmulps %ymm8, %ymm11, %ymm4
vfmsub231ps %ymm6, %ymm2, %ymm4 # ymm4 = (ymm2 * ymm6) - ymm4
vmulps %ymm6, %ymm9, %ymm3
vfmsub231ps %ymm5, %ymm8, %ymm3 # ymm3 = (ymm8 * ymm5) - ymm3
vfmadd231ps %ymm4, %ymm27, %ymm3 # ymm3 = (ymm27 * ymm4) + ymm3
vmulps %ymm2, %ymm5, %ymm4
vfmsub231ps %ymm11, %ymm9, %ymm4 # ymm4 = (ymm9 * ymm11) - ymm4
vfmadd231ps %ymm4, %ymm27, %ymm3 # ymm3 = (ymm27 * ymm4) + ymm3
vmulps %ymm13, %ymm12, %ymm16
vfmsub231ps %ymm15, %ymm7, %ymm16 # ymm16 = (ymm7 * ymm15) - ymm16
vmulps %ymm15, %ymm10, %ymm15
vfmsub231ps %ymm12, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm12) - ymm15
vmulps %ymm7, %ymm14, %ymm4
vfmsub231ps %ymm13, %ymm10, %ymm4 # ymm4 = (ymm10 * ymm13) - ymm4
vfmadd231ps %ymm16, %ymm27, %ymm4 # ymm4 = (ymm27 * ymm16) + ymm4
vfmadd231ps %ymm15, %ymm27, %ymm4 # ymm4 = (ymm27 * ymm15) + ymm4
vmaxps %ymm4, %ymm3, %ymm13
vcmpleps %ymm27, %ymm13, %k0 {%k1}
kortestb %k0, %k0
vmovaps 0x1c0(%rsp), %ymm20
vmovaps 0x1a0(%rsp), %ymm21
vmovaps %ymm17, %ymm22
vmovaps %ymm19, %ymm17
je 0x1cc98e8
vmulps %ymm5, %ymm12, %ymm13
vfmsub231ps %ymm11, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm11) - ymm13
vmulps %ymm7, %ymm11, %ymm11
vfmsub231ps %ymm12, %ymm6, %ymm11 # ymm11 = (ymm6 * ymm12) - ymm11
vmulps %ymm6, %ymm10, %ymm10
vfmsub231ps %ymm5, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm5) - ymm10
vxorps %xmm6, %xmm6, %xmm6
vfmadd213ps %ymm10, %ymm11, %ymm6 # ymm6 = (ymm11 * ymm6) + ymm10
vfmadd231ps %ymm27, %ymm13, %ymm6 # ymm6 = (ymm13 * ymm27) + ymm6
vrcp14ps %ymm6, %ymm7
vmovaps %ymm7, %ymm5
vfnmadd213ps 0x224189(%rip){1to8}, %ymm6, %ymm5 # ymm5 = -(ymm6 * ymm5) + mem
vfmadd132ps %ymm7, %ymm7, %ymm5 # ymm5 = (ymm5 * ymm7) + ymm7
vmulps %ymm2, %ymm10, %ymm2
vfmadd231ps %ymm11, %ymm9, %ymm2 # ymm2 = (ymm9 * ymm11) + ymm2
vfmadd231ps %ymm13, %ymm8, %ymm2 # ymm2 = (ymm8 * ymm13) + ymm2
vmulps %ymm5, %ymm2, %ymm2
vmovaps 0x220(%rsp), %xmm10
vbroadcastss %xmm10, %ymm7
vcmpleps %ymm2, %ymm7, %k1
vcmpleps 0x200(%rsi,%r15,4){1to8}, %ymm2, %k1 {%k1}
kandb %k0, %k1, %k0
kortestb %k0, %k0
vmovaps 0x180(%rsp), %ymm28
vmovaps 0x160(%rsp), %ymm29
je 0x1cc9921
vcmpneqps %ymm27, %ymm6, %k1
ktestb %k1, %k0
vmovaps 0x60(%rsp), %xmm9
je 0x1cc9941
kandb %k1, %k0, %k0
kmovd %k0, %eax
vmulps %ymm5, %ymm3, %ymm3
vmulps %ymm5, %ymm4, %ymm4
vbroadcastss 0x224103(%rip), %ymm5 # 0x1eec714
vsubps %ymm3, %ymm5, %ymm6
vmovaps %ymm3, %ymm6 {%k2}
vsubps %ymm4, %ymm5, %ymm3
vmovaps %ymm4, %ymm3 {%k2}
vmovaps %ymm3, 0x460(%rsp)
movzbl %al, %r12d
vmovaps %ymm2, %ymm3
testw %r12w, %r12w
je 0x1cc893b
vsubps %ymm0, %ymm1, %ymm1
vfmadd213ps %ymm0, %ymm6, %ymm1 # ymm1 = (ymm6 * ymm1) + ymm0
vaddps %ymm1, %ymm1, %ymm0
movq 0xc8(%rsp), %rax
vmulps (%rax,%r15,4){1to8}, %ymm0, %ymm0
vcmpnleps %ymm0, %ymm3, %k0
kmovd %k0, %eax
andb %al, %r12b
je 0x1cc893b
vbroadcastss 0x228353(%rip), %ymm0 # 0x1ef09cc
vmovaps 0x460(%rsp), %ymm1
vfmadd132ps 0x22896c(%rip){1to8}, %ymm0, %ymm1 # ymm1 = (ymm1 * mem) + ymm0
vmovaps %ymm6, 0x2e0(%rsp)
vmovaps %ymm1, 0x460(%rsp)
vmovaps %ymm1, 0x300(%rsp)
vmovaps %ymm3, 0x320(%rsp)
movl $0x0, 0x340(%rsp)
movl %edi, 0x344(%rsp)
vmovaps %xmm9, 0x350(%rsp)
vmovaps 0xe0(%rsp), %xmm0
vmovaps %xmm0, 0x360(%rsp)
vmovaps 0xd0(%rsp), %xmm0
vmovaps %xmm0, 0x370(%rsp)
vmovdqa 0x120(%rsp), %xmm0
vmovdqa %xmm0, 0x380(%rsp)
movb %r12b, 0x390(%rsp)
movl 0x240(%rsi,%r15,4), %eax
testl %eax, 0x34(%r14)
je 0x1cc893b
vaddps 0x25881d(%rip), %ymm6, %ymm0 # 0x1f20f40
vmovss 0x223fe9(%rip), %xmm1 # 0x1eec714
vdivss 0x2c0(%rsp), %xmm1, %xmm1
vbroadcastss %xmm1, %ymm1
vmulps %ymm0, %ymm1, %ymm0
vmovaps %ymm0, 0x3a0(%rsp)
vmovaps 0x460(%rsp), %ymm0
vmovaps %ymm0, 0x3c0(%rsp)
vmovaps %ymm3, 0x3e0(%rsp)
kmovd %r12d, %k1
vbroadcastss 0x2232b1(%rip), %ymm0 # 0x1eeba20
vblendmps %ymm3, %ymm0, %ymm0 {%k1}
vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm0, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1]
vminps %ymm2, %ymm1, %ymm1
vcmpeqps %ymm1, %ymm0, %k0
kmovd %k0, %eax
andb %r12b, %al
movzbl %al, %eax
movzbl %r12b, %ecx
cmovnel %eax, %ecx
tzcntl %ecx, %r9d
movq 0x10(%r10), %rax
cmpq $0x0, 0x10(%rax)
vmovaps %ymm6, 0xa0(%rsp)
vmovaps %ymm3, 0x80(%rsp)
jne 0x1cc995b
cmpq $0x0, 0x40(%r14)
jne 0x1cc995b
vmovss 0x3a0(%rsp,%r9,4), %xmm0
vmovss 0x3c0(%rsp,%r9,4), %xmm1
vmovss 0x223f1e(%rip), %xmm2 # 0x1eec714
vsubss %xmm0, %xmm2, %xmm2
vaddss %xmm2, %xmm2, %xmm3
vmulss %xmm3, %xmm0, %xmm4
vfnmadd231ss %xmm2, %xmm2, %xmm4 # xmm4 = -(xmm2 * xmm2) + xmm4
vaddss %xmm0, %xmm0, %xmm5
vmovss 0x2287d9(%rip), %xmm8 # 0x1ef0fec
vmovaps %xmm8, %xmm6
vfmadd213ss 0x2287e4(%rip), %xmm0, %xmm6 # xmm6 = (xmm0 * xmm6) + mem
vmulss %xmm0, %xmm8, %xmm7
vmulss %xmm7, %xmm0, %xmm7
vfmadd231ss %xmm6, %xmm5, %xmm7 # xmm7 = (xmm5 * xmm6) + xmm7
vmovaps %xmm8, %xmm5
vfmadd213ss 0x2287be(%rip), %xmm0, %xmm5 # xmm5 = (xmm0 * xmm5) + mem
vmulss 0x2287ae(%rip), %xmm2, %xmm6 # 0x1ef0ff0
vmulss %xmm6, %xmm2, %xmm6
vfmadd231ss %xmm5, %xmm3, %xmm6 # xmm6 = (xmm3 * xmm5) + xmm6
vmulss 0x228189(%rip), %xmm2, %xmm2 # 0x1ef09dc
vmulss %xmm0, %xmm0, %xmm3
vfmadd231ss %xmm2, %xmm0, %xmm3 # xmm3 = (xmm0 * xmm2) + xmm3
vmovss 0x22431c(%rip), %xmm8 # 0x1eecb80
vmulss %xmm4, %xmm8, %xmm2
vmulss %xmm7, %xmm8, %xmm4
vmulss %xmm6, %xmm8, %xmm5
vmulss %xmm3, %xmm8, %xmm3
vbroadcastss %xmm3, %xmm3
vmulps 0x120(%rsp), %xmm3, %xmm3
vbroadcastss %xmm5, %xmm5
vfmadd132ps 0xd0(%rsp), %xmm3, %xmm5 # xmm5 = (xmm5 * mem) + xmm3
vbroadcastss %xmm4, %xmm3
vfmadd132ps 0xe0(%rsp), %xmm5, %xmm3 # xmm3 = (xmm3 * mem) + xmm5
vmovaps 0xa0(%rsp), %ymm6
vbroadcastss %xmm2, %xmm2
vfmadd213ps %xmm3, %xmm9, %xmm2 # xmm2 = (xmm9 * xmm2) + xmm3
vmovss 0x3e0(%rsp,%r9,4), %xmm3
vmovss %xmm3, 0x200(%rsi,%r15,4)
vmovaps 0x80(%rsp), %ymm3
vmovss %xmm2, 0x300(%rsi,%r15,4)
vextractps $0x1, %xmm2, 0x340(%rsi,%r15,4)
vextractps $0x2, %xmm2, 0x380(%rsi,%r15,4)
vmovss %xmm0, 0x3c0(%rsi,%r15,4)
vmovss %xmm1, 0x400(%rsi,%r15,4)
movq 0x78(%rsp), %rax
movl %eax, 0x440(%rsi,%r15,4)
movq 0x58(%rsp), %rax
movl %eax, 0x480(%rsi,%r15,4)
movq 0x8(%r10), %rax
movl (%rax), %eax
movl %eax, 0x4c0(%rsi,%r15,4)
movq 0x8(%r10), %rax
movl 0x4(%rax), %eax
movl %eax, 0x500(%rsi,%r15,4)
leaq 0x467a2a(%rip), %r12 # 0x213036c
jmp 0x1cc8984
vxorps %xmm27, %xmm27, %xmm27
vmovaps 0xa0(%rsp), %ymm6
vmovaps 0x1c0(%rsp), %ymm20
vmovaps 0x80(%rsp), %ymm3
vmovaps 0x1a0(%rsp), %ymm21
vmovaps 0x260(%rsp), %ymm22
vmovaps 0x240(%rsp), %ymm18
vmovaps 0x140(%rsp), %ymm17
cmpl $0x9, %edi
jge 0x1cc89b0
vmovaps 0x6e0(%rsp), %ymm0
vcmpleps 0x200(%rsi,%r15,4){1to8}, %ymm0, %k0
kmovb %k0, %eax
andl %eax, %r13d
jne 0x1cc7cb7
jmp 0x1cc9e8b
vpbroadcastd %edi, %ymm0
vmovdqa %ymm0, 0x280(%rsp)
vbroadcastss %xmm26, %ymm0
vmovaps %ymm0, 0x220(%rsp)
vbroadcastss %xmm10, %ymm0
vmovaps %ymm0, 0x2a0(%rsp)
vmovss 0x223d30(%rip), %xmm0 # 0x1eec714
vdivss 0x2c0(%rsp), %xmm0, %xmm0
vbroadcastss %xmm0, %ymm0
vmovaps %ymm0, 0x2c0(%rsp)
movq 0x58(%rsp), %rax
vpbroadcastd %eax, %zmm0
vmovdqa64 %zmm0, 0x540(%rsp)
movq 0x78(%rsp), %rax
vpbroadcastd %eax, %zmm0
vmovdqa64 %zmm0, 0x500(%rsp)
movl $0x8, %r14d
vmovaps %ymm6, 0xa0(%rsp)
vmovaps %ymm3, 0x80(%rsp)
vpbroadcastd %r14d, %ymm0
vpor 0x291ed9(%rip), %ymm0, %ymm0 # 0x1f5a920
vpcmpltd 0x280(%rsp), %ymm0, %k1
leaq (%rbx,%r12), %rcx
vmovups (%rcx,%r14,4), %ymm3
vmovups 0x484(%rcx,%r14,4), %ymm10
vmovups 0x908(%rcx,%r14,4), %ymm11
vmovups 0xd8c(%rcx,%r14,4), %ymm12
vmulps %ymm12, %ymm28, %ymm5
vmulps %ymm12, %ymm29, %ymm4
vmovaps 0x620(%rsp), %ymm1
vmulps %ymm1, %ymm12, %ymm0
vmovaps 0x680(%rsp), %ymm19
vfmadd231ps %ymm19, %ymm11, %ymm5 # ymm5 = (ymm11 * ymm19) + ymm5
vmovaps 0x660(%rsp), %ymm26
vfmadd231ps %ymm26, %ymm11, %ymm4 # ymm4 = (ymm11 * ymm26) + ymm4
vmovaps 0x640(%rsp), %ymm16
vfmadd231ps %ymm16, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm16) + ymm0
vfmadd231ps %ymm17, %ymm10, %ymm5 # ymm5 = (ymm10 * ymm17) + ymm5
vmovaps 0x4a0(%rsp), %ymm25
vfmadd231ps %ymm25, %ymm10, %ymm4 # ymm4 = (ymm10 * ymm25) + ymm4
vmovaps 0x6a0(%rsp), %ymm9
vfmadd231ps %ymm9, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm9) + ymm0
vfmadd231ps %ymm22, %ymm3, %ymm5 # ymm5 = (ymm3 * ymm22) + ymm5
vfmadd231ps %ymm18, %ymm3, %ymm4 # ymm4 = (ymm3 * ymm18) + ymm4
leaq (%rbx,%rdx), %rax
vmovups (%rax,%r14,4), %ymm2
vmovups 0x484(%rax,%r14,4), %ymm13
vmovaps 0x6c0(%rsp), %ymm8
vfmadd231ps %ymm8, %ymm3, %ymm0 # ymm0 = (ymm3 * ymm8) + ymm0
vmovups 0x908(%rax,%r14,4), %ymm14
vmovups 0xd8c(%rax,%r14,4), %ymm15
vmulps %ymm15, %ymm28, %ymm7
vmulps %ymm15, %ymm29, %ymm6
vmulps %ymm1, %ymm15, %ymm1
vfmadd231ps %ymm19, %ymm14, %ymm7 # ymm7 = (ymm14 * ymm19) + ymm7
vfmadd231ps %ymm26, %ymm14, %ymm6 # ymm6 = (ymm14 * ymm26) + ymm6
vfmadd231ps %ymm16, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm16) + ymm1
vfmadd231ps %ymm17, %ymm13, %ymm7 # ymm7 = (ymm13 * ymm17) + ymm7
vfmadd231ps %ymm25, %ymm13, %ymm6 # ymm6 = (ymm13 * ymm25) + ymm6
vfmadd231ps %ymm9, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm9) + ymm1
vfmadd231ps %ymm22, %ymm2, %ymm7 # ymm7 = (ymm2 * ymm22) + ymm7
vfmadd231ps %ymm18, %ymm2, %ymm6 # ymm6 = (ymm2 * ymm18) + ymm6
vfmadd231ps %ymm8, %ymm2, %ymm1 # ymm1 = (ymm2 * ymm8) + ymm1
vmaxps %ymm1, %ymm0, %ymm16
vsubps %ymm5, %ymm7, %ymm9
vsubps %ymm4, %ymm6, %ymm8
vmovaps %ymm17, %ymm24
vmulps %ymm9, %ymm4, %ymm17
vmovaps %ymm18, %ymm23
vmulps %ymm8, %ymm5, %ymm18
vsubps %ymm18, %ymm17, %ymm17
vmulps %ymm8, %ymm8, %ymm18
vfmadd231ps %ymm9, %ymm9, %ymm18 # ymm18 = (ymm9 * ymm9) + ymm18
vmulps %ymm16, %ymm16, %ymm16
vmulps %ymm18, %ymm16, %ymm16
vmulps %ymm17, %ymm17, %ymm17
vcmpleps %ymm16, %ymm17, %k1 {%k1}
kortestb %k1, %k1
je 0x1cc936c
vmovaps %ymm23, %ymm16
vmovaps 0x5a0(%rsp), %ymm23
vmulps %ymm15, %ymm23, %ymm15
vmovaps 0x5c0(%rsp), %ymm31
vfmadd213ps %ymm15, %ymm31, %ymm14 # ymm14 = (ymm31 * ymm14) + ymm15
vmovaps 0x5e0(%rsp), %ymm30
vfmadd213ps %ymm14, %ymm30, %ymm13 # ymm13 = (ymm30 * ymm13) + ymm14
vmovaps 0x600(%rsp), %ymm18
vfmadd213ps %ymm13, %ymm18, %ymm2 # ymm2 = (ymm18 * ymm2) + ymm13
vmulps %ymm12, %ymm23, %ymm12
vfmadd213ps %ymm12, %ymm31, %ymm11 # ymm11 = (ymm31 * ymm11) + ymm12
vfmadd213ps %ymm11, %ymm30, %ymm10 # ymm10 = (ymm30 * ymm10) + ymm11
vfmadd213ps %ymm10, %ymm18, %ymm3 # ymm3 = (ymm18 * ymm3) + ymm10
vmovups 0x1210(%rcx,%r14,4), %ymm12
vmovups 0x1694(%rcx,%r14,4), %ymm13
vmovups 0x1b18(%rcx,%r14,4), %ymm14
vmovups 0x1f9c(%rcx,%r14,4), %ymm15
vmulps %ymm15, %ymm28, %ymm11
vmulps %ymm15, %ymm29, %ymm10
vmulps %ymm15, %ymm23, %ymm15
vfmadd231ps %ymm19, %ymm14, %ymm11 # ymm11 = (ymm14 * ymm19) + ymm11
vfmadd231ps %ymm26, %ymm14, %ymm10 # ymm10 = (ymm14 * ymm26) + ymm10
vfmadd231ps %ymm14, %ymm31, %ymm15 # ymm15 = (ymm31 * ymm14) + ymm15
vfmadd231ps %ymm24, %ymm13, %ymm11 # ymm11 = (ymm13 * ymm24) + ymm11
vfmadd231ps %ymm25, %ymm13, %ymm10 # ymm10 = (ymm13 * ymm25) + ymm10
vfmadd231ps %ymm13, %ymm30, %ymm15 # ymm15 = (ymm30 * ymm13) + ymm15
vfmadd231ps %ymm22, %ymm12, %ymm11 # ymm11 = (ymm12 * ymm22) + ymm11
vfmadd231ps %ymm16, %ymm12, %ymm10 # ymm10 = (ymm12 * ymm16) + ymm10
vmovaps %ymm26, %ymm25
vmovaps %ymm19, %ymm26
vmovaps %ymm16, %ymm19
vfmadd231ps %ymm12, %ymm18, %ymm15 # ymm15 = (ymm18 * ymm12) + ymm15
vmovups 0x1210(%rax,%r14,4), %ymm13
vmovups 0x1b18(%rax,%r14,4), %ymm14
vmovups 0x1f9c(%rax,%r14,4), %ymm16
vmulps %ymm16, %ymm28, %ymm17
vmulps %ymm16, %ymm29, %ymm12
vmulps %ymm16, %ymm23, %ymm16
vfmadd231ps %ymm26, %ymm14, %ymm17 # ymm17 = (ymm14 * ymm26) + ymm17
vfmadd231ps %ymm25, %ymm14, %ymm12 # ymm12 = (ymm14 * ymm25) + ymm12
vfmadd231ps %ymm14, %ymm31, %ymm16 # ymm16 = (ymm31 * ymm14) + ymm16
vmovups 0x1694(%rax,%r14,4), %ymm14
vfmadd231ps %ymm24, %ymm14, %ymm17 # ymm17 = (ymm14 * ymm24) + ymm17
vfmadd231ps 0x4a0(%rsp), %ymm14, %ymm12 # ymm12 = (ymm14 * mem) + ymm12
vfmadd231ps %ymm14, %ymm30, %ymm16 # ymm16 = (ymm30 * ymm14) + ymm16
vfmadd231ps %ymm22, %ymm13, %ymm17 # ymm17 = (ymm13 * ymm22) + ymm17
vfmadd231ps %ymm19, %ymm13, %ymm12 # ymm12 = (ymm13 * ymm19) + ymm12
vfmadd231ps %ymm13, %ymm18, %ymm16 # ymm16 = (ymm18 * ymm13) + ymm16
vbroadcastss 0x2581af(%rip), %ymm18 # 0x1f20ec4
vandps %ymm18, %ymm11, %ymm13
vandps %ymm18, %ymm10, %ymm14
vmaxps %ymm14, %ymm13, %ymm13
vandps %ymm18, %ymm15, %ymm14
vmaxps %ymm14, %ymm13, %ymm13
vmovaps 0x220(%rsp), %ymm15
vcmpltps %ymm15, %ymm13, %k2
vmovaps %ymm9, %ymm11 {%k2}
vmovaps %ymm8, %ymm10 {%k2}
vandps %ymm18, %ymm17, %ymm13
vandps %ymm18, %ymm12, %ymm14
vmaxps %ymm14, %ymm13, %ymm13
vandps %ymm18, %ymm16, %ymm14
vmaxps %ymm14, %ymm13, %ymm13
vcmpltps %ymm15, %ymm13, %k2
vmovaps %ymm9, %ymm17 {%k2}
vmovaps %ymm8, %ymm12 {%k2}
vbroadcastss 0x25813b(%rip), %ymm9 # 0x1f20ec0
vxorps %ymm9, %ymm11, %ymm8
vxorps %ymm9, %ymm17, %ymm9
vfmadd213ps %ymm27, %ymm11, %ymm11 # ymm11 = (ymm11 * ymm11) + ymm27
vfmadd231ps %ymm10, %ymm10, %ymm11 # ymm11 = (ymm10 * ymm10) + ymm11
vrsqrt14ps %ymm11, %ymm13
vbroadcastss 0x223972(%rip), %ymm15 # 0x1eec71c
vmulps %ymm15, %ymm11, %ymm11
vmulps %ymm11, %ymm13, %ymm11
vmulps %ymm13, %ymm13, %ymm14
vmulps %ymm11, %ymm14, %ymm14
vbroadcastss 0x223950(%rip), %ymm16 # 0x1eec718
vfmadd231ps %ymm13, %ymm16, %ymm14 # ymm14 = (ymm16 * ymm13) + ymm14
vmulps %ymm14, %ymm10, %ymm11
vmulps %ymm8, %ymm14, %ymm10
vmulps %ymm27, %ymm14, %ymm13
vfmadd213ps %ymm27, %ymm17, %ymm17 # ymm17 = (ymm17 * ymm17) + ymm27
vfmadd231ps %ymm12, %ymm12, %ymm17 # ymm17 = (ymm12 * ymm12) + ymm17
vrsqrt14ps %ymm17, %ymm8
vmulps %ymm15, %ymm17, %ymm14
vmulps %ymm14, %ymm8, %ymm14
vmulps %ymm8, %ymm8, %ymm15
vmulps %ymm14, %ymm15, %ymm14
vfmadd231ps %ymm8, %ymm16, %ymm14 # ymm14 = (ymm16 * ymm8) + ymm14
vmulps %ymm14, %ymm12, %ymm8
vmulps %ymm9, %ymm14, %ymm9
vmulps %ymm27, %ymm14, %ymm12
vmovaps %ymm11, %ymm14
vfmadd213ps %ymm5, %ymm0, %ymm14 # ymm14 = (ymm0 * ymm14) + ymm5
vmovaps %ymm10, %ymm15
vfmadd213ps %ymm4, %ymm0, %ymm15 # ymm15 = (ymm0 * ymm15) + ymm4
vmovaps %ymm13, %ymm16
vfmadd213ps %ymm3, %ymm0, %ymm16 # ymm16 = (ymm0 * ymm16) + ymm3
vmovaps %ymm8, %ymm17
vfmadd213ps %ymm7, %ymm1, %ymm17 # ymm17 = (ymm1 * ymm17) + ymm7
vfnmadd213ps %ymm5, %ymm0, %ymm11 # ymm11 = -(ymm0 * ymm11) + ymm5
vmovaps %ymm9, %ymm5
vfmadd213ps %ymm6, %ymm1, %ymm5 # ymm5 = (ymm1 * ymm5) + ymm6
vfnmadd213ps %ymm4, %ymm0, %ymm10 # ymm10 = -(ymm0 * ymm10) + ymm4
vmovaps %ymm12, %ymm4
vfmadd213ps %ymm2, %ymm1, %ymm4 # ymm4 = (ymm1 * ymm4) + ymm2
vfnmadd231ps %ymm13, %ymm0, %ymm3 # ymm3 = -(ymm0 * ymm13) + ymm3
vfnmadd213ps %ymm7, %ymm1, %ymm8 # ymm8 = -(ymm1 * ymm8) + ymm7
vfnmadd213ps %ymm6, %ymm1, %ymm9 # ymm9 = -(ymm1 * ymm9) + ymm6
vfnmadd231ps %ymm12, %ymm1, %ymm2 # ymm2 = -(ymm1 * ymm12) + ymm2
vsubps %ymm11, %ymm17, %ymm6
vsubps %ymm10, %ymm5, %ymm7
vsubps %ymm3, %ymm4, %ymm12
vmulps %ymm3, %ymm7, %ymm13
vfmsub231ps %ymm12, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm12) - ymm13
vmulps %ymm11, %ymm12, %ymm12
vfmsub231ps %ymm6, %ymm3, %ymm12 # ymm12 = (ymm3 * ymm6) - ymm12
vmulps %ymm6, %ymm10, %ymm6
vfmsub231ps %ymm7, %ymm11, %ymm6 # ymm6 = (ymm11 * ymm7) - ymm6
vfmadd231ps %ymm12, %ymm27, %ymm6 # ymm6 = (ymm27 * ymm12) + ymm6
vfmadd231ps %ymm13, %ymm27, %ymm6 # ymm6 = (ymm27 * ymm13) + ymm6
vcmpleps %ymm27, %ymm6, %k2
vmovaps %ymm14, %ymm8 {%k2}
vmovaps %ymm15, %ymm9 {%k2}
vmovaps %ymm16, %ymm2 {%k2}
vblendmps %ymm17, %ymm11, %ymm13 {%k2}
vblendmps %ymm5, %ymm10, %ymm14 {%k2}
vblendmps %ymm4, %ymm3, %ymm15 {%k2}
vmovaps %ymm11, %ymm17 {%k2}
vmovaps %ymm10, %ymm5 {%k2}
vmovaps %ymm3, %ymm4 {%k2}
vsubps %ymm8, %ymm17, %ymm6
vsubps %ymm9, %ymm5, %ymm5
vsubps %ymm2, %ymm4, %ymm11
vsubps %ymm13, %ymm8, %ymm7
vsubps %ymm14, %ymm9, %ymm10
vsubps %ymm15, %ymm2, %ymm12
vmulps %ymm8, %ymm11, %ymm4
vfmsub231ps %ymm6, %ymm2, %ymm4 # ymm4 = (ymm2 * ymm6) - ymm4
vmulps %ymm6, %ymm9, %ymm3
vfmsub231ps %ymm5, %ymm8, %ymm3 # ymm3 = (ymm8 * ymm5) - ymm3
vfmadd231ps %ymm4, %ymm27, %ymm3 # ymm3 = (ymm27 * ymm4) + ymm3
vmulps %ymm2, %ymm5, %ymm4
vfmsub231ps %ymm11, %ymm9, %ymm4 # ymm4 = (ymm9 * ymm11) - ymm4
vfmadd231ps %ymm4, %ymm27, %ymm3 # ymm3 = (ymm27 * ymm4) + ymm3
vmulps %ymm13, %ymm12, %ymm16
vfmsub231ps %ymm15, %ymm7, %ymm16 # ymm16 = (ymm7 * ymm15) - ymm16
vmulps %ymm15, %ymm10, %ymm15
vfmsub231ps %ymm12, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm12) - ymm15
vmulps %ymm7, %ymm14, %ymm4
vfmsub231ps %ymm13, %ymm10, %ymm4 # ymm4 = (ymm10 * ymm13) - ymm4
vfmadd231ps %ymm16, %ymm27, %ymm4 # ymm4 = (ymm27 * ymm16) + ymm4
vfmadd231ps %ymm15, %ymm27, %ymm4 # ymm4 = (ymm27 * ymm15) + ymm4
vmaxps %ymm4, %ymm3, %ymm13
vcmpleps %ymm27, %ymm13, %k0 {%k1}
kortestb %k0, %k0
vmovaps %ymm19, %ymm18
je 0x1cc939c
vmulps %ymm5, %ymm12, %ymm13
vfmsub231ps %ymm11, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm11) - ymm13
vmulps %ymm7, %ymm11, %ymm11
vfmsub231ps %ymm12, %ymm6, %ymm11 # ymm11 = (ymm6 * ymm12) - ymm11
vmulps %ymm6, %ymm10, %ymm10
vfmsub231ps %ymm5, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm5) - ymm10
vxorps %xmm6, %xmm6, %xmm6
vfmadd213ps %ymm10, %ymm11, %ymm6 # ymm6 = (ymm11 * ymm6) + ymm10
vfmadd231ps %ymm27, %ymm13, %ymm6 # ymm6 = (ymm13 * ymm27) + ymm6
vrcp14ps %ymm6, %ymm7
vmovaps %ymm7, %ymm5
vfnmadd213ps 0x22375f(%rip){1to8}, %ymm6, %ymm5 # ymm5 = -(ymm6 * ymm5) + mem
vfmadd132ps %ymm7, %ymm7, %ymm5 # ymm5 = (ymm5 * ymm7) + ymm7
vmulps %ymm2, %ymm10, %ymm2
vfmadd231ps %ymm11, %ymm9, %ymm2 # ymm2 = (ymm9 * ymm11) + ymm2
vfmadd231ps %ymm13, %ymm8, %ymm2 # ymm2 = (ymm8 * ymm13) + ymm2
vmulps %ymm5, %ymm2, %ymm2
vcmpgeps 0x2a0(%rsp), %ymm2, %k1
vcmpleps 0x200(%rsi,%r15,4){1to8}, %ymm2, %k1 {%k1}
kandb %k0, %k1, %k0
kortestb %k0, %k0
je 0x1cc939c
vcmpneqps %ymm27, %ymm6, %k1
ktestb %k1, %k0
vmovaps 0x60(%rsp), %xmm9
vmovaps 0x140(%rsp), %ymm17
je 0x1cc93c4
kandb %k1, %k0, %k0
kmovd %k0, %eax
vmulps %ymm5, %ymm3, %ymm3
vmulps %ymm5, %ymm4, %ymm4
vbroadcastss 0x2236ed(%rip), %ymm5 # 0x1eec714
vsubps %ymm3, %ymm5, %ymm20
vmovaps %ymm3, %ymm20 {%k2}
vsubps %ymm4, %ymm5, %ymm3
vmovaps %ymm4, %ymm3 {%k2}
vmovaps %ymm3, 0x440(%rsp)
movzbl %al, %r9d
vmovaps %ymm2, %ymm21
vmovaps 0xa0(%rsp), %ymm6
vmovaps 0x80(%rsp), %ymm3
testw %r9w, %r9w
je 0x1cc938a
vsubps %ymm0, %ymm1, %ymm1
vfmadd213ps %ymm0, %ymm20, %ymm1 # ymm1 = (ymm20 * ymm1) + ymm0
vaddps %ymm1, %ymm1, %ymm0
movq 0xc8(%rsp), %rax
vmulps (%rax,%r15,4){1to8}, %ymm0, %ymm0
vcmpnleps %ymm0, %ymm21, %k0
kmovd %k0, %eax
andb %al, %r9b
je 0x1cc938a
vbroadcastss 0x227926(%rip), %ymm0 # 0x1ef09cc
vmovaps 0x440(%rsp), %ymm1
vfmadd132ps 0x227f3f(%rip){1to8}, %ymm0, %ymm1 # ymm1 = (ymm1 * mem) + ymm0
vmovaps %ymm20, 0x2e0(%rsp)
vmovaps %ymm1, 0x440(%rsp)
vmovaps %ymm1, 0x300(%rsp)
vmovaps %ymm21, 0x320(%rsp)
movl %r14d, 0x340(%rsp)
movl %edi, 0x344(%rsp)
vmovaps %xmm9, 0x350(%rsp)
vmovaps 0xe0(%rsp), %xmm0
vmovaps %xmm0, 0x360(%rsp)
vmovaps 0xd0(%rsp), %xmm0
vmovaps %xmm0, 0x370(%rsp)
vmovdqa 0x120(%rsp), %xmm0
vmovdqa %xmm0, 0x380(%rsp)
movb %r9b, 0x390(%rsp)
movq (%r10), %rax
movq 0x1e8(%rax), %rax
movq 0x58(%rsp), %rcx
movq (%rax,%rcx,8), %r11
movl 0x240(%rsi,%r15,4), %eax
testl %eax, 0x34(%r11)
je 0x1cc9363
vaddps 0x257de0(%rip), %ymm20, %ymm0 # 0x1f20f40
vcvtsi2ss %r14d, %xmm19, %xmm1
vbroadcastss %xmm1, %ymm1
vaddps %ymm0, %ymm1, %ymm0
vmulps 0x2c0(%rsp), %ymm0, %ymm0
vmovaps %ymm0, 0x3a0(%rsp)
vmovaps 0x440(%rsp), %ymm0
vmovaps %ymm0, 0x3c0(%rsp)
vmovaps %ymm21, 0x3e0(%rsp)
kmovd %r9d, %k1
vbroadcastss 0x222877(%rip), %ymm0 # 0x1eeba20
vblendmps %ymm21, %ymm0, %ymm0 {%k1}
vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm0, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1]
vminps %ymm2, %ymm1, %ymm1
vcmpeqps %ymm1, %ymm0, %k0
kmovd %k0, %eax
andb %r9b, %al
movzbl %al, %eax
movzbl %r9b, %ecx
cmovnel %eax, %ecx
tzcntl %ecx, %r12d
movq 0x10(%r10), %rax
cmpq $0x0, 0x10(%rax)
jne 0x1cc93cc
cmpq $0x0, 0x40(%r11)
jne 0x1cc93cc
vmovss 0x3a0(%rsp,%r12,4), %xmm0
vmovss 0x3c0(%rsp,%r12,4), %xmm1
vmovss 0x2234f6(%rip), %xmm2 # 0x1eec714
vsubss %xmm0, %xmm2, %xmm2
vaddss %xmm2, %xmm2, %xmm3
vmulss %xmm3, %xmm0, %xmm4
vfnmadd231ss %xmm2, %xmm2, %xmm4 # xmm4 = -(xmm2 * xmm2) + xmm4
vaddss %xmm0, %xmm0, %xmm5
vmovss 0x227db1(%rip), %xmm8 # 0x1ef0fec
vmovaps %xmm8, %xmm6
vfmadd213ss 0x227dbc(%rip), %xmm0, %xmm6 # xmm6 = (xmm0 * xmm6) + mem
vmulss %xmm0, %xmm8, %xmm7
vmulss %xmm7, %xmm0, %xmm7
vfmadd231ss %xmm6, %xmm5, %xmm7 # xmm7 = (xmm5 * xmm6) + xmm7
vmovaps %xmm8, %xmm5
vfmadd213ss 0x227d96(%rip), %xmm0, %xmm5 # xmm5 = (xmm0 * xmm5) + mem
vmulss 0x227d86(%rip), %xmm2, %xmm6 # 0x1ef0ff0
vmulss %xmm6, %xmm2, %xmm6
vfmadd231ss %xmm5, %xmm3, %xmm6 # xmm6 = (xmm3 * xmm5) + xmm6
vmulss 0x227761(%rip), %xmm2, %xmm2 # 0x1ef09dc
vmulss %xmm0, %xmm0, %xmm3
vfmadd231ss %xmm2, %xmm0, %xmm3 # xmm3 = (xmm0 * xmm2) + xmm3
vmovss 0x2238f4(%rip), %xmm8 # 0x1eecb80
vmulss %xmm4, %xmm8, %xmm2
vmulss %xmm7, %xmm8, %xmm4
vmulss %xmm6, %xmm8, %xmm5
vmulss %xmm3, %xmm8, %xmm3
vbroadcastss %xmm3, %xmm3
vmulps 0x120(%rsp), %xmm3, %xmm3
vbroadcastss %xmm5, %xmm5
vfmadd132ps 0xd0(%rsp), %xmm3, %xmm5 # xmm5 = (xmm5 * mem) + xmm3
vbroadcastss %xmm4, %xmm3
vfmadd132ps 0xe0(%rsp), %xmm5, %xmm3 # xmm3 = (xmm3 * mem) + xmm5
vbroadcastss %xmm2, %xmm2
vfmadd213ps %xmm3, %xmm9, %xmm2 # xmm2 = (xmm9 * xmm2) + xmm3
vmovss 0x3e0(%rsp,%r12,4), %xmm3
vmovss %xmm3, 0x200(%rsi,%r15,4)
vmovss %xmm2, 0x300(%rsi,%r15,4)
vextractps $0x1, %xmm2, 0x340(%rsi,%r15,4)
vextractps $0x2, %xmm2, 0x380(%rsi,%r15,4)
vmovss %xmm0, 0x3c0(%rsi,%r15,4)
vmovss %xmm1, 0x400(%rsi,%r15,4)
movq 0x78(%rsp), %rax
movl %eax, 0x440(%rsi,%r15,4)
movq 0x58(%rsp), %rax
movl %eax, 0x480(%rsi,%r15,4)
movq 0x8(%r10), %rax
movl (%rax), %eax
movl %eax, 0x4c0(%rsi,%r15,4)
movq 0x8(%r10), %rax
movl 0x4(%rax), %eax
movl %eax, 0x500(%rsi,%r15,4)
vmovaps 0xa0(%rsp), %ymm6
vmovaps 0x80(%rsp), %ymm3
leaq 0x467002(%rip), %r12 # 0x213036c
jmp 0x1cc938a
vmovaps 0xa0(%rsp), %ymm6
vmovaps 0x80(%rsp), %ymm3
vmovaps %ymm23, %ymm18
vmovaps %ymm24, %ymm17
addq $0x8, %r14
cmpl %r14d, %edi
jg 0x1cc8a39
jmp 0x1cc8989
xorl %r9d, %r9d
vmovaps 0xa0(%rsp), %ymm6
vmovaps 0x80(%rsp), %ymm3
vmovaps 0x60(%rsp), %xmm9
vmovaps 0x140(%rsp), %ymm17
jmp 0x1cc9062
xorl %r9d, %r9d
jmp 0x1cc9050
vmovaps 0x360(%rsp), %xmm0
vmovaps %xmm0, 0x1f0(%rsp)
vmovaps 0x370(%rsp), %xmm0
vmovaps %xmm0, 0x1e0(%rsp)
vmovaps 0x380(%rsp), %xmm0
vmovaps %xmm0, 0x490(%rsp)
vmovaps %ymm20, 0x1c0(%rsp)
vmovaps %ymm21, 0x1a0(%rsp)
movq %r11, 0x130(%rsp)
movq %r8, 0x50(%rsp)
movq %r10, 0x48(%rsp)
movq %rsi, 0x40(%rsp)
movl %edi, 0x3c(%rsp)
vmovaps %ymm28, 0x180(%rsp)
vmovaps %ymm29, 0x160(%rsp)
vmovss 0x200(%rsi,%r15,4), %xmm0
vmovss %xmm0, 0x200(%rsp)
vmovss 0x3e0(%rsp,%r12,4), %xmm0
vbroadcastss 0x3a0(%rsp,%r12,4), %zmm1
vbroadcastss 0x3c0(%rsp,%r12,4), %zmm2
vmovss %xmm0, 0x200(%rsi,%r15,4)
movq 0x8(%r10), %rax
vmovss 0x22328e(%rip), %xmm0 # 0x1eec714
vsubss %xmm1, %xmm0, %xmm0
vaddss %xmm0, %xmm0, %xmm3
vmulss %xmm3, %xmm1, %xmm4
vfnmadd231ss %xmm0, %xmm0, %xmm4 # xmm4 = -(xmm0 * xmm0) + xmm4
vaddss %xmm1, %xmm1, %xmm5
vmovss 0x227b49(%rip), %xmm8 # 0x1ef0fec
vmovaps %xmm8, %xmm6
vfmadd213ss 0x227b54(%rip), %xmm1, %xmm6 # xmm6 = (xmm1 * xmm6) + mem
vmulss %xmm1, %xmm8, %xmm7
vmulss %xmm7, %xmm1, %xmm7
vfmadd231ss %xmm6, %xmm5, %xmm7 # xmm7 = (xmm5 * xmm6) + xmm7
vmovaps %xmm8, %xmm5
vfmadd213ss 0x227b2e(%rip), %xmm1, %xmm5 # xmm5 = (xmm1 * xmm5) + mem
vmulss 0x227b1e(%rip), %xmm0, %xmm6 # 0x1ef0ff0
vmulss %xmm6, %xmm0, %xmm6
vfmadd231ss %xmm5, %xmm3, %xmm6 # xmm6 = (xmm3 * xmm5) + xmm6
vmulss 0x2274f9(%rip), %xmm0, %xmm0 # 0x1ef09dc
vmulss %xmm1, %xmm1, %xmm3
vfmadd231ss %xmm0, %xmm1, %xmm3 # xmm3 = (xmm1 * xmm0) + xmm3
vmovss 0x22368c(%rip), %xmm8 # 0x1eecb80
vmulss %xmm4, %xmm8, %xmm0
vmulss %xmm7, %xmm8, %xmm4
vmulss %xmm6, %xmm8, %xmm5
vmulss %xmm3, %xmm8, %xmm3
vbroadcastss %xmm3, %xmm3
vmulps 0x490(%rsp), %xmm3, %xmm3
vbroadcastss %xmm5, %xmm5
vfmadd132ps 0x1e0(%rsp), %xmm3, %xmm5 # xmm5 = (xmm5 * mem) + xmm3
vbroadcastss %xmm4, %xmm3
vfmadd132ps 0x1f0(%rsp), %xmm5, %xmm3 # xmm3 = (xmm3 * mem) + xmm5
vbroadcastss %xmm0, %xmm0
vfmadd213ps %xmm3, %xmm9, %xmm0 # xmm0 = (xmm9 * xmm0) + xmm3
vbroadcastss %xmm0, %zmm3
vbroadcastss 0x2491ba(%rip), %zmm4 # 0x1f12704
vpermps %zmm0, %zmm4, %zmm4
vbroadcastss 0x257982(%rip), %zmm5 # 0x1f20edc
vpermps %zmm0, %zmm5, %zmm0
vmovaps %zmm3, 0x740(%rsp)
vmovaps %zmm4, 0x780(%rsp)
vmovaps %zmm0, 0x7c0(%rsp)
vmovaps %zmm1, 0x800(%rsp)
vmovaps %zmm2, 0x840(%rsp)
vmovaps 0x500(%rsp), %zmm0
vmovaps %zmm0, 0x880(%rsp)
vmovdqa64 0x540(%rsp), %zmm0
vmovdqa64 %zmm0, 0x8c0(%rsp)
movq 0x138(%rsp), %rcx
vpcmpeqd %ymm0, %ymm0, %ymm0
vmovdqa %ymm0, 0x60(%rcx)
vmovdqa %ymm0, 0x40(%rcx)
vmovdqa %ymm0, 0x20(%rcx)
vmovdqa %ymm0, (%rcx)
vbroadcastss (%rax), %zmm0
vmovaps %zmm0, 0x900(%rsp)
vbroadcastss 0x4(%rax), %zmm0
vmovaps %zmm0, 0x940(%rsp)
vmovaps 0x700(%rsp), %zmm0
vmovaps %zmm0, 0x400(%rsp)
leaq 0x400(%rsp), %rcx
movq %rcx, 0xf0(%rsp)
movq 0x18(%r11), %rcx
movq %rcx, 0xf8(%rsp)
movq %rax, 0x100(%rsp)
movq %rsi, 0x108(%rsp)
leaq 0x740(%rsp), %rax
movq %rax, 0x110(%rsp)
movl $0x10, 0x118(%rsp)
movq 0x40(%r11), %rax
testq %rax, %rax
movl %r9d, 0x4c0(%rsp)
je 0x1cc96c7
leaq 0xf0(%rsp), %rdi
vzeroupper
callq *%rax
movq 0x130(%rsp), %r11
movl 0x4c0(%rsp), %r9d
vmovaps 0x160(%rsp), %ymm29
vmovaps 0x180(%rsp), %ymm28
vmovaps 0x140(%rsp), %ymm17
vmovaps 0x240(%rsp), %ymm18
vmovaps 0x260(%rsp), %ymm22
movl 0x3c(%rsp), %edi
vmovaps 0x60(%rsp), %xmm9
vmovaps 0x1a0(%rsp), %ymm21
vmovaps 0x1c0(%rsp), %ymm20
vxorps %xmm27, %xmm27, %xmm27
leaq 0x4690d4(%rip), %rdx # 0x213278c
movq 0x40(%rsp), %rsi
movq 0x48(%rsp), %r10
movq 0x50(%rsp), %r8
vmovdqa64 0x400(%rsp), %zmm0
vptestmd %zmm0, %zmm0, %k0
kortestw %k0, %k0
vmovaps 0xa0(%rsp), %ymm6
vmovaps 0x80(%rsp), %ymm3
je 0x1cc9846
movq 0x10(%r10), %rcx
movq 0x10(%rcx), %rax
testq %rax, %rax
je 0x1cc979f
testb $0x2, (%rcx)
jne 0x1cc9712
testb $0x40, 0x3e(%r11)
je 0x1cc979f
leaq 0xf0(%rsp), %rdi
vzeroupper
callq *%rax
movq 0x130(%rsp), %r11
movl 0x4c0(%rsp), %r9d
vmovaps 0x160(%rsp), %ymm29
vmovaps 0x180(%rsp), %ymm28
vmovaps 0x140(%rsp), %ymm17
vmovaps 0x240(%rsp), %ymm18
vmovaps 0x260(%rsp), %ymm22
movl 0x3c(%rsp), %edi
vmovaps 0x60(%rsp), %xmm9
vmovaps 0x1a0(%rsp), %ymm21
vmovaps 0x80(%rsp), %ymm3
vmovaps 0x1c0(%rsp), %ymm20
vmovaps 0xa0(%rsp), %ymm6
vxorps %xmm27, %xmm27, %xmm27
leaq 0x468ffc(%rip), %rdx # 0x213278c
movq 0x40(%rsp), %rsi
movq 0x48(%rsp), %r10
movq 0x50(%rsp), %r8
vmovdqa64 0x400(%rsp), %zmm0
vptestmd %zmm0, %zmm0, %k1
kortestw %k1, %k1
je 0x1cc9846
movq 0x108(%rsp), %rax
movq 0x110(%rsp), %rcx
vmovaps (%rcx), %zmm0
vmovups %zmm0, 0x300(%rax) {%k1}
vmovaps 0x40(%rcx), %zmm0
vmovups %zmm0, 0x340(%rax) {%k1}
vmovaps 0x80(%rcx), %zmm0
vmovups %zmm0, 0x380(%rax) {%k1}
vmovaps 0xc0(%rcx), %zmm0
vmovups %zmm0, 0x3c0(%rax) {%k1}
vmovaps 0x100(%rcx), %zmm0
vmovups %zmm0, 0x400(%rax) {%k1}
vmovdqa64 0x140(%rcx), %zmm0
vmovdqu32 %zmm0, 0x440(%rax) {%k1}
vmovdqa64 0x180(%rcx), %zmm0
vmovdqu32 %zmm0, 0x480(%rax) {%k1}
vmovdqa64 0x1c0(%rcx), %zmm0
vmovdqa32 %zmm0, 0x4c0(%rax) {%k1}
vmovdqa64 0x200(%rcx), %zmm0
vmovdqa32 %zmm0, 0x500(%rax) {%k1}
jmp 0x1cc9859
vmovd 0x200(%rsp), %xmm0
vmovd %xmm0, 0x200(%rsi,%r15,4)
movl $0x1, %eax
shlxl %r12d, %eax, %eax
kmovd %eax, %k0
movzbl %r9b, %eax
kmovd %eax, %k1
kandnb %k1, %k0, %k0
vcmpleps 0x200(%rsi,%r15,4){1to8}, %ymm21, %k1
kandb %k1, %k0, %k2
kmovd %k2, %r9d
ktestb %k1, %k0
je 0x1cc98da
kmovd %r9d, %k1
vbroadcastss 0x222185(%rip), %ymm0 # 0x1eeba20
vblendmps %ymm21, %ymm0, %ymm0 {%k1}
vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm0, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1]
vminps %ymm2, %ymm1, %ymm1
vcmpeqps %ymm1, %ymm0, %k0
kmovd %k0, %eax
andb %r9b, %al
movzbl %al, %eax
movzbl %r9b, %ecx
cmovnel %eax, %ecx
tzcntl %ecx, %r12d
testb %r9b, %r9b
jne 0x1cc943d
jmp 0x1cc9363
xorl %r12d, %r12d
vmovaps 0xa0(%rsp), %ymm6
vmovaps 0x80(%rsp), %ymm3
vmovaps 0x60(%rsp), %xmm9
vmovaps 0x180(%rsp), %ymm28
vmovaps 0x160(%rsp), %ymm29
vmovaps 0x220(%rsp), %xmm10
jmp 0x1cc8636
xorl %r12d, %r12d
vmovaps 0xa0(%rsp), %ymm6
vmovaps 0x80(%rsp), %ymm3
vmovaps 0x60(%rsp), %xmm9
jmp 0x1cc8636
xorl %r12d, %r12d
vmovaps 0xa0(%rsp), %ymm6
vmovaps 0x80(%rsp), %ymm3
jmp 0x1cc8636
movq 0x58(%rsp), %rax
vpbroadcastd %eax, %zmm0
vmovdqa64 %zmm0, 0x500(%rsp)
movq 0x78(%rsp), %rax
vpbroadcastd %eax, %zmm0
vmovdqa64 %zmm0, 0x4c0(%rsp)
vmovaps 0x360(%rsp), %xmm0
vmovaps %xmm0, 0x200(%rsp)
vmovaps 0x370(%rsp), %xmm0
vmovaps %xmm0, 0x1f0(%rsp)
vmovaps 0x380(%rsp), %xmm0
vmovaps %xmm0, 0x1e0(%rsp)
movq %r8, 0x50(%rsp)
movq %r10, 0x48(%rsp)
movq %rsi, 0x40(%rsp)
movl %edi, 0x3c(%rsp)
vmovss 0x200(%rsi,%r15,4), %xmm0
vmovss %xmm0, 0x540(%rsp)
vmovss 0x3e0(%rsp,%r9,4), %xmm0
vbroadcastss 0x3a0(%rsp,%r9,4), %zmm1
vbroadcastss 0x3c0(%rsp,%r9,4), %zmm2
vmovss %xmm0, 0x200(%rsi,%r15,4)
movq 0x8(%r10), %rax
vmovss 0x222d01(%rip), %xmm0 # 0x1eec714
vsubss %xmm1, %xmm0, %xmm0
vaddss %xmm0, %xmm0, %xmm3
vmulss %xmm3, %xmm1, %xmm4
vfnmadd231ss %xmm0, %xmm0, %xmm4 # xmm4 = -(xmm0 * xmm0) + xmm4
vaddss %xmm1, %xmm1, %xmm5
vmovss 0x2275bc(%rip), %xmm8 # 0x1ef0fec
vmovaps %xmm8, %xmm6
vfmadd213ss 0x2275c7(%rip), %xmm1, %xmm6 # xmm6 = (xmm1 * xmm6) + mem
vmulss %xmm1, %xmm8, %xmm7
vmulss %xmm7, %xmm1, %xmm7
vfmadd231ss %xmm6, %xmm5, %xmm7 # xmm7 = (xmm5 * xmm6) + xmm7
vmovaps %xmm8, %xmm5
vfmadd213ss 0x2275a1(%rip), %xmm1, %xmm5 # xmm5 = (xmm1 * xmm5) + mem
vmulss 0x227591(%rip), %xmm0, %xmm6 # 0x1ef0ff0
vmulss %xmm6, %xmm0, %xmm6
vfmadd231ss %xmm5, %xmm3, %xmm6 # xmm6 = (xmm3 * xmm5) + xmm6
vmulss 0x226f6c(%rip), %xmm0, %xmm0 # 0x1ef09dc
vmulss %xmm1, %xmm1, %xmm3
vfmadd231ss %xmm0, %xmm1, %xmm3 # xmm3 = (xmm1 * xmm0) + xmm3
vmovss 0x2230ff(%rip), %xmm8 # 0x1eecb80
vmulss %xmm4, %xmm8, %xmm0
vmulss %xmm7, %xmm8, %xmm4
vmulss %xmm6, %xmm8, %xmm5
vmulss %xmm3, %xmm8, %xmm3
vbroadcastss %xmm3, %xmm3
vmulps 0x1e0(%rsp), %xmm3, %xmm3
vbroadcastss %xmm5, %xmm5
vfmadd132ps 0x1f0(%rsp), %xmm3, %xmm5 # xmm5 = (xmm5 * mem) + xmm3
vbroadcastss %xmm4, %xmm3
vfmadd132ps 0x200(%rsp), %xmm5, %xmm3 # xmm3 = (xmm3 * mem) + xmm5
vbroadcastss %xmm0, %xmm0
vfmadd213ps %xmm3, %xmm9, %xmm0 # xmm0 = (xmm9 * xmm0) + xmm3
vbroadcastss %xmm0, %zmm3
vbroadcastss 0x248c2d(%rip), %zmm4 # 0x1f12704
vpermps %zmm0, %zmm4, %zmm4
vbroadcastss 0x2573f5(%rip), %zmm5 # 0x1f20edc
vpermps %zmm0, %zmm5, %zmm0
vmovaps %zmm3, 0x740(%rsp)
vmovaps %zmm4, 0x780(%rsp)
vmovaps %zmm0, 0x7c0(%rsp)
vmovaps %zmm1, 0x800(%rsp)
vmovaps %zmm2, 0x840(%rsp)
vmovaps 0x4c0(%rsp), %zmm0
vmovaps %zmm0, 0x880(%rsp)
vmovdqa64 0x500(%rsp), %zmm0
vmovdqa64 %zmm0, 0x8c0(%rsp)
movq 0x138(%rsp), %rcx
vpcmpeqd %ymm0, %ymm0, %ymm0
vmovdqa %ymm0, 0x60(%rcx)
vmovdqa %ymm0, 0x40(%rcx)
vmovdqa %ymm0, 0x20(%rcx)
vmovdqa %ymm0, (%rcx)
vbroadcastss (%rax), %zmm0
vmovaps %zmm0, 0x900(%rsp)
vbroadcastss 0x4(%rax), %zmm0
vmovaps %zmm0, 0x940(%rsp)
vmovaps 0x700(%rsp), %zmm0
vmovaps %zmm0, 0x400(%rsp)
leaq 0x400(%rsp), %rcx
movq %rcx, 0xf0(%rsp)
movq 0x18(%r14), %rcx
movq %rcx, 0xf8(%rsp)
movq %rax, 0x100(%rsp)
movq %rsi, 0x108(%rsp)
leaq 0x740(%rsp), %rax
movq %rax, 0x110(%rsp)
movl $0x10, 0x118(%rsp)
movq 0x40(%r14), %rax
testq %rax, %rax
movq %r9, 0x2a0(%rsp)
je 0x1cc9c61
leaq 0xf0(%rsp), %rdi
vzeroupper
callq *%rax
movq 0x2a0(%rsp), %r9
vmovaps 0x220(%rsp), %xmm10
vmovaps 0x280(%rsp), %xmm26
vmovaps 0x160(%rsp), %ymm29
vmovaps 0x180(%rsp), %ymm28
vmovaps 0x140(%rsp), %ymm17
vmovaps 0x240(%rsp), %ymm18
vmovaps 0x260(%rsp), %ymm22
movl 0x3c(%rsp), %edi
vmovaps 0x60(%rsp), %xmm9
vmovaps 0x1a0(%rsp), %ymm21
vmovaps 0x1c0(%rsp), %ymm20
vxorps %xmm27, %xmm27, %xmm27
leaq 0x468b3a(%rip), %rdx # 0x213278c
movq 0x40(%rsp), %rsi
movq 0x48(%rsp), %r10
movq 0x50(%rsp), %r8
vmovdqa64 0x400(%rsp), %zmm0
vptestmd %zmm0, %zmm0, %k0
kortestw %k0, %k0
vmovaps 0xa0(%rsp), %ymm6
vmovaps 0x80(%rsp), %ymm3
je 0x1cc9de9
movq 0x10(%r10), %rcx
movq 0x10(%rcx), %rax
testq %rax, %rax
je 0x1cc9d42
testb $0x2, (%rcx)
jne 0x1cc9cac
testb $0x40, 0x3e(%r14)
je 0x1cc9d42
leaq 0xf0(%rsp), %rdi
vzeroupper
callq *%rax
movq 0x2a0(%rsp), %r9
vmovaps 0x220(%rsp), %xmm10
vmovaps 0x280(%rsp), %xmm26
vmovaps 0x160(%rsp), %ymm29
vmovaps 0x180(%rsp), %ymm28
vmovaps 0x140(%rsp), %ymm17
vmovaps 0x240(%rsp), %ymm18
vmovaps 0x260(%rsp), %ymm22
movl 0x3c(%rsp), %edi
vmovaps 0x60(%rsp), %xmm9
vmovaps 0x1a0(%rsp), %ymm21
vmovaps 0x80(%rsp), %ymm3
vmovaps 0x1c0(%rsp), %ymm20
vmovaps 0xa0(%rsp), %ymm6
vxorps %xmm27, %xmm27, %xmm27
leaq 0x468a59(%rip), %rdx # 0x213278c
movq 0x40(%rsp), %rsi
movq 0x48(%rsp), %r10
movq 0x50(%rsp), %r8
vmovdqa64 0x400(%rsp), %zmm0
vptestmd %zmm0, %zmm0, %k1
kortestw %k1, %k1
je 0x1cc9de9
movq 0x108(%rsp), %rax
movq 0x110(%rsp), %rcx
vmovaps (%rcx), %zmm0
vmovups %zmm0, 0x300(%rax) {%k1}
vmovaps 0x40(%rcx), %zmm0
vmovups %zmm0, 0x340(%rax) {%k1}
vmovaps 0x80(%rcx), %zmm0
vmovups %zmm0, 0x380(%rax) {%k1}
vmovaps 0xc0(%rcx), %zmm0
vmovups %zmm0, 0x3c0(%rax) {%k1}
vmovaps 0x100(%rcx), %zmm0
vmovups %zmm0, 0x400(%rax) {%k1}
vmovdqa64 0x140(%rcx), %zmm0
vmovdqu32 %zmm0, 0x440(%rax) {%k1}
vmovdqa64 0x180(%rcx), %zmm0
vmovdqu32 %zmm0, 0x480(%rax) {%k1}
vmovdqa64 0x1c0(%rcx), %zmm0
vmovdqa32 %zmm0, 0x4c0(%rax) {%k1}
vmovdqa64 0x200(%rcx), %zmm0
vmovdqa32 %zmm0, 0x500(%rax) {%k1}
jmp 0x1cc9dfc
vmovd 0x540(%rsp), %xmm0
vmovd %xmm0, 0x200(%rsi,%r15,4)
movl $0x1, %eax
shlxl %r9d, %eax, %eax
kmovd %eax, %k0
movzbl %r12b, %eax
kmovd %eax, %k1
kandnb %k1, %k0, %k0
vcmpleps 0x200(%rsi,%r15,4){1to8}, %ymm3, %k1
kandb %k1, %k0, %k2
kmovd %k2, %r12d
ktestb %k1, %k0
je 0x1cc9e7d
kmovd %r12d, %k1
vbroadcastss 0x221be2(%rip), %ymm0 # 0x1eeba20
vblendmps %ymm3, %ymm0, %ymm0 {%k1}
vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm0, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1]
vminps %ymm2, %ymm1, %ymm1
vcmpeqps %ymm1, %ymm0, %k0
kmovd %k0, %eax
andb %r12b, %al
movzbl %al, %eax
movzbl %r12b, %ecx
cmovnel %eax, %ecx
tzcntl %ecx, %r9d
testb %r12b, %r12b
jne 0x1cc99ca
jmp 0x1cc893b
leaq -0x28(%rbp), %rsp
popq %rbx
popq %r12
popq %r13
popq %r14
popq %r15
popq %rbp
vzeroupper
retq
nop
|
/embree[P]embree/kernels/geometry/curveNi_intersector.h
|
void embree::avx512::CurveNiIntersector1<8>::intersect_n<embree::avx512::OrientedCurve1Intersector1<embree::CatmullRomCurveT, 7, 8>, embree::avx512::Intersect1Epilog1<true>>(embree::avx512::CurvePrecalculations1 const&, embree::RayHitK<1>&, embree::RayQueryContext*, embree::CurveNi<8> const&)
|
static __forceinline void intersect_n(const Precalculations& pre, RayHit& ray, RayQueryContext* context, const Primitive& prim)
{
vfloat<M> tNear;
vbool<M> valid = intersect(ray,prim,tNear);
const size_t N = prim.N;
size_t mask = movemask(valid);
while (mask)
{
const size_t i = bscf(mask);
STAT3(normal.trav_prims,1,1,1);
const unsigned int geomID = prim.geomID(N);
const unsigned int primID = prim.primID(N)[i];
const CurveGeometry* geom = context->scene->get<CurveGeometry>(geomID);
unsigned int vertexID = geom->curve(primID);
Vec3ff a0,a1,a2,a3; Vec3fa n0,n1,n2,n3; geom->gather(a0,a1,a2,a3,n0,n1,n2,n3,vertexID);
size_t mask1 = mask;
const size_t i1 = bscf(mask1);
if (mask) {
const unsigned int primID1 = prim.primID(N)[i1];
geom->prefetchL1_vertices(geom->curve(primID1));
if (mask1) {
const size_t i2 = bsf(mask1);
const unsigned int primID2 = prim.primID(N)[i2];
geom->prefetchL2_vertices(geom->curve(primID2));
}
}
Intersector().intersect(pre,ray,context,geom,primID,a0,a1,a2,a3,n0,n1,n2,n3,Epilog(ray,context,geomID,primID));
mask &= movemask(tNear <= vfloat<M>(ray.tfar));
}
}
|
pushq %rbp
pushq %r15
pushq %r14
pushq %r13
pushq %r12
pushq %rbx
subq $0x348, %rsp # imm = 0x348
movq %rcx, %r13
movzbl 0x1(%rcx), %ecx
leaq (%rcx,%rcx,4), %rax
leaq (%rax,%rax,4), %r8
vbroadcastss 0x12(%r13,%r8), %xmm0
movq %rdx, %r9
movq %rsi, %r10
vmovaps (%rsi), %xmm1
vsubps 0x6(%r13,%r8), %xmm1, %xmm1
vmulps %xmm1, %xmm0, %xmm3
vmulps 0x10(%rsi), %xmm0, %xmm0
vpmovsxbd 0x6(%r13,%rcx,4), %ymm1
vpmovsxbd 0x6(%r13,%rax), %ymm2
vcvtdq2ps %ymm1, %ymm5
vcvtdq2ps %ymm2, %ymm6
leaq (%rcx,%rcx,2), %rdx
vpmovsxbd 0x6(%r13,%rdx,2), %ymm1
vcvtdq2ps %ymm1, %ymm4
leaq (%rcx,%rax,2), %rsi
vpmovsxbd 0x6(%r13,%rsi), %ymm1
leal (,%rdx,4), %esi
vpmovsxbd 0x6(%r13,%rsi), %ymm2
vcvtdq2ps %ymm1, %ymm7
vcvtdq2ps %ymm2, %ymm8
addq %rcx, %rsi
vpmovsxbd 0x6(%r13,%rsi), %ymm1
vcvtdq2ps %ymm1, %ymm9
leaq (%rcx,%rcx,8), %rsi
leal (%rsi,%rsi), %r8d
vpmovsxbd 0x6(%r13,%r8), %ymm1
vcvtdq2ps %ymm1, %ymm10
addq %rcx, %r8
vpmovsxbd 0x6(%r13,%r8), %ymm1
vcvtdq2ps %ymm1, %ymm11
shll $0x2, %eax
vpmovsxbd 0x6(%r13,%rax), %ymm1
vcvtdq2ps %ymm1, %ymm12
vbroadcastss %xmm0, %ymm13
vbroadcastss 0x246732(%rip), %ymm15 # 0x1f12704
vbroadcastss 0x254f00(%rip), %ymm16 # 0x1f20edc
vpermps %ymm0, %ymm15, %ymm14
vpermps %ymm0, %ymm16, %ymm0
vmulps %ymm4, %ymm0, %ymm2
vmulps %ymm0, %ymm9, %ymm1
vmulps %ymm0, %ymm12, %ymm0
vfmadd231ps %ymm6, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm6) + ymm2
vfmadd231ps %ymm8, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm8) + ymm1
vfmadd231ps %ymm14, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm14) + ymm0
vfmadd231ps %ymm5, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm5) + ymm2
vfmadd231ps %ymm7, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm7) + ymm1
vfmadd231ps %ymm13, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm13) + ymm0
vbroadcastss %xmm3, %ymm13
vpermps %ymm3, %ymm15, %ymm14
vpermps %ymm3, %ymm16, %ymm3
vmulps %ymm4, %ymm3, %ymm15
vmulps %ymm3, %ymm9, %ymm4
vmulps %ymm3, %ymm12, %ymm3
vfmadd231ps %ymm6, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm6) + ymm15
vfmadd231ps %ymm8, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm8) + ymm4
vfmadd231ps %ymm11, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm11) + ymm3
vfmadd231ps %ymm5, %ymm13, %ymm15 # ymm15 = (ymm13 * ymm5) + ymm15
vfmadd231ps %ymm7, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm7) + ymm4
vbroadcastss 0x254e75(%rip), %ymm5 # 0x1f20ec4
vfmadd231ps %ymm10, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm10) + ymm3
vandps %ymm5, %ymm2, %ymm6
vbroadcastss 0x224f87(%rip), %ymm7 # 0x1ef0fe8
vcmpltps %ymm7, %ymm6, %k1
vmovaps %ymm7, %ymm2 {%k1}
vandps %ymm5, %ymm1, %ymm6
vcmpltps %ymm7, %ymm6, %k1
vmovaps %ymm7, %ymm1 {%k1}
vandps %ymm5, %ymm0, %ymm5
vcmpltps %ymm7, %ymm5, %k1
vmovaps %ymm7, %ymm0 {%k1}
vrcp14ps %ymm2, %ymm5
vbroadcastss 0x220675(%rip), %ymm6 # 0x1eec714
vfnmadd213ps %ymm6, %ymm5, %ymm2 # ymm2 = -(ymm5 * ymm2) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm2 # ymm2 = (ymm2 * ymm5) + ymm5
vrcp14ps %ymm1, %ymm5
vfnmadd213ps %ymm6, %ymm5, %ymm1 # ymm1 = -(ymm5 * ymm1) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm1 # ymm1 = (ymm1 * ymm5) + ymm5
vrcp14ps %ymm0, %ymm5
vfnmadd213ps %ymm6, %ymm5, %ymm0 # ymm0 = -(ymm5 * ymm0) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm0 # ymm0 = (ymm0 * ymm5) + ymm5
leaq (,%rcx,8), %r8
subq %rcx, %r8
vpmovsxwd 0x6(%r13,%r8), %ymm5
vcvtdq2ps %ymm5, %ymm5
vsubps %ymm15, %ymm5, %ymm5
vmulps %ymm5, %ymm2, %ymm5
vpmovsxwd 0x6(%r13,%rsi), %ymm6
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm15, %ymm6, %ymm6
leaq (%rcx,%rcx), %rsi
addq %rcx, %rax
shlq $0x3, %rdx
subq %rcx, %rdx
vpbroadcastd %ecx, %ymm7
shll $0x4, %ecx
vpmovsxwd 0x6(%r13,%rcx), %ymm8
vmulps %ymm6, %ymm2, %ymm2
subq %rsi, %rcx
vpmovsxwd 0x6(%r13,%rcx), %ymm6
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm4, %ymm6, %ymm6
vmulps %ymm6, %ymm1, %ymm6
vcvtdq2ps %ymm8, %ymm8
vsubps %ymm4, %ymm8, %ymm4
vmulps %ymm4, %ymm1, %ymm1
vpmovsxwd 0x6(%r13,%rax), %ymm4
vcvtdq2ps %ymm4, %ymm4
vsubps %ymm3, %ymm4, %ymm4
vmulps %ymm0, %ymm4, %ymm4
vpmovsxwd 0x6(%r13,%rdx), %ymm8
vcvtdq2ps %ymm8, %ymm8
vsubps %ymm3, %ymm8, %ymm3
vmulps %ymm3, %ymm0, %ymm0
vpminsd %ymm2, %ymm5, %ymm3
vpminsd %ymm1, %ymm6, %ymm8
vmaxps %ymm8, %ymm3, %ymm3
vpminsd %ymm0, %ymm4, %ymm8
vmaxps 0xc(%r10){1to8}, %ymm8, %ymm8
vmaxps %ymm8, %ymm3, %ymm3
vmulps 0x253d82(%rip){1to8}, %ymm3, %ymm3 # 0x1f1ff10
vpmaxsd %ymm2, %ymm5, %ymm2
vpmaxsd %ymm1, %ymm6, %ymm1
vminps %ymm1, %ymm2, %ymm1
vpmaxsd %ymm0, %ymm4, %ymm0
vminps 0x20(%r10){1to8}, %ymm0, %ymm0
vminps %ymm0, %ymm1, %ymm0
vmulps 0x253d5e(%rip){1to8}, %ymm0, %ymm0 # 0x1f1ff14
vpcmpgtd 0x28e760(%rip), %ymm7, %k0 # 0x1f5a920
vmovups %ymm3, 0x2c0(%rsp)
vcmpleps %ymm0, %ymm3, %k1
ktestb %k0, %k1
je 0x1ccde24
movq %rdi, %r15
kandb %k0, %k1, %k0
kmovd %k0, %eax
movzbl %al, %ebp
vbroadcastss 0x254cce(%rip), %xmm30 # 0x1f20ec0
vbroadcastss 0x220984(%rip), %xmm31 # 0x1eecb80
vbroadcastss 0x254cbe(%rip), %xmm17 # 0x1f20ec4
movq %r9, 0x28(%rsp)
movq %r10, 0x20(%rsp)
tzcntq %rbp, %rax
movl 0x2(%r13), %ecx
movl 0x6(%r13,%rax,4), %r8d
movq (%r9), %rax
movq 0x1e8(%rax), %rax
movq %rcx, 0x30(%rsp)
movq (%rax,%rcx,8), %rsi
movq 0x58(%rsi), %rax
movq 0x68(%rsi), %rcx
movq %rcx, %rdx
movq %r8, 0x58(%rsp)
imulq %r8, %rdx
movl (%rax,%rdx), %r9d
movq 0xa0(%rsi), %rdx
movq %rdx, %r12
imulq %r9, %r12
leaq 0x1(%r9), %r11
leaq 0x2(%r9), %r10
leaq 0x3(%r9), %r8
movq 0xd8(%rsi), %rbx
imulq %rbx, %r9
movq 0xc8(%rsi), %r14
vmovups (%r14,%r9), %xmm4
movq %rdx, %r9
imulq %r11, %r9
imulq %rbx, %r11
vmovups (%r14,%r11), %xmm5
movq %rdx, %r11
imulq %r10, %r11
imulq %rbx, %r10
vmovups (%r14,%r10), %xmm6
imulq %r8, %rbx
vmovups (%r14,%rbx), %xmm7
movq %rdx, %r10
imulq %r8, %r10
movq 0x90(%rsi), %rsi
vmovaps (%rsi,%r12), %xmm8
vmovaps (%rsi,%r9), %xmm9
vmovaps (%rsi,%r11), %xmm10
blsrq %rbp, %rbp
vmovaps (%rsi,%r10), %xmm3
movq %rbp, %r9
subq $0x1, %r9
jb 0x1ccc322
andq %rbp, %r9
tzcntq %rbp, %r8
movl 0x6(%r13,%r8,4), %r8d
imulq %rcx, %r8
movl (%rax,%r8), %r8d
imulq %rdx, %r8
prefetcht0 (%rsi,%r8)
prefetcht0 0x40(%rsi,%r8)
testq %r9, %r9
je 0x1ccc322
tzcntq %r9, %r8
movl 0x6(%r13,%r8,4), %r8d
imulq %r8, %rcx
movl (%rax,%rcx), %eax
imulq %rax, %rdx
prefetcht1 (%rsi,%rdx)
prefetcht1 0x40(%rsi,%rdx)
vmulps %xmm30, %xmm3, %xmm2
vxorps %xmm0, %xmm0, %xmm0
vfmadd213ps %xmm2, %xmm10, %xmm0 # xmm0 = (xmm10 * xmm0) + xmm2
vaddps %xmm0, %xmm9, %xmm0
vfmadd231ps %xmm30, %xmm8, %xmm0 # xmm0 = (xmm8 * xmm30) + xmm0
vxorps %xmm18, %xmm18, %xmm18
vmulps %xmm18, %xmm3, %xmm1
vfmadd231ps %xmm31, %xmm10, %xmm1 # xmm1 = (xmm10 * xmm31) + xmm1
vfmadd231ps %xmm18, %xmm9, %xmm1 # xmm1 = (xmm9 * xmm18) + xmm1
vfnmadd231ps %xmm31, %xmm8, %xmm1 # xmm1 = -(xmm8 * xmm31) + xmm1
vmulps %xmm30, %xmm7, %xmm11
vxorps %xmm12, %xmm12, %xmm12
vfmadd213ps %xmm11, %xmm6, %xmm12 # xmm12 = (xmm6 * xmm12) + xmm11
vaddps %xmm5, %xmm12, %xmm12
vfmadd231ps %xmm30, %xmm4, %xmm12 # xmm12 = (xmm4 * xmm30) + xmm12
vmulps %xmm18, %xmm7, %xmm13
vfmadd231ps %xmm31, %xmm6, %xmm13 # xmm13 = (xmm6 * xmm31) + xmm13
vfmadd231ps %xmm18, %xmm5, %xmm13 # xmm13 = (xmm5 * xmm18) + xmm13
vfnmadd231ps %xmm31, %xmm4, %xmm13 # xmm13 = -(xmm4 * xmm31) + xmm13
vaddps %xmm2, %xmm10, %xmm2
vfmadd231ps %xmm18, %xmm9, %xmm2 # xmm2 = (xmm9 * xmm18) + xmm2
vfmadd231ps %xmm30, %xmm8, %xmm2 # xmm2 = (xmm8 * xmm30) + xmm2
vmulps %xmm31, %xmm3, %xmm3
vfmadd231ps %xmm10, %xmm18, %xmm3 # xmm3 = (xmm18 * xmm10) + xmm3
vfnmadd231ps %xmm9, %xmm31, %xmm3 # xmm3 = -(xmm31 * xmm9) + xmm3
vfmadd231ps %xmm8, %xmm18, %xmm3 # xmm3 = (xmm18 * xmm8) + xmm3
vaddps %xmm6, %xmm11, %xmm8
vfmadd231ps %xmm18, %xmm5, %xmm8 # xmm8 = (xmm5 * xmm18) + xmm8
vfmadd231ps %xmm30, %xmm4, %xmm8 # xmm8 = (xmm4 * xmm30) + xmm8
vmulps %xmm31, %xmm7, %xmm7
vfmadd231ps %xmm6, %xmm18, %xmm7 # xmm7 = (xmm18 * xmm6) + xmm7
vfnmadd231ps %xmm5, %xmm31, %xmm7 # xmm7 = -(xmm31 * xmm5) + xmm7
vfmadd231ps %xmm4, %xmm18, %xmm7 # xmm7 = (xmm18 * xmm4) + xmm7
vshufps $0xc9, %xmm1, %xmm1, %xmm4 # xmm4 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm12, %xmm12, %xmm5 # xmm5 = xmm12[1,2,0,3]
vmulps %xmm5, %xmm1, %xmm5
vfmsub231ps %xmm12, %xmm4, %xmm5 # xmm5 = (xmm4 * xmm12) - xmm5
vshufps $0xc9, %xmm5, %xmm5, %xmm6 # xmm6 = xmm5[1,2,0,3]
vshufps $0xc9, %xmm13, %xmm13, %xmm5 # xmm5 = xmm13[1,2,0,3]
vmulps %xmm5, %xmm1, %xmm5
vfmsub231ps %xmm13, %xmm4, %xmm5 # xmm5 = (xmm4 * xmm13) - xmm5
vshufps $0xc9, %xmm5, %xmm5, %xmm9 # xmm9 = xmm5[1,2,0,3]
vshufps $0xc9, %xmm3, %xmm3, %xmm5 # xmm5 = xmm3[1,2,0,3]
vshufps $0xc9, %xmm8, %xmm8, %xmm4 # xmm4 = xmm8[1,2,0,3]
vmulps %xmm4, %xmm3, %xmm4
vfmsub231ps %xmm8, %xmm5, %xmm4 # xmm4 = (xmm5 * xmm8) - xmm4
vshufps $0xc9, %xmm4, %xmm4, %xmm4 # xmm4 = xmm4[1,2,0,3]
vshufps $0xc9, %xmm7, %xmm7, %xmm8 # xmm8 = xmm7[1,2,0,3]
vmulps %xmm3, %xmm8, %xmm8
vfmsub231ps %xmm7, %xmm5, %xmm8 # xmm8 = (xmm5 * xmm7) - xmm8
vdpps $0x7f, %xmm6, %xmm6, %xmm7
vshufps $0xc9, %xmm8, %xmm8, %xmm5 # xmm5 = xmm8[1,2,0,3]
vmovss %xmm7, %xmm18, %xmm8 # xmm8 = xmm7[0],xmm18[1,2,3]
vrsqrt14ss %xmm8, %xmm18, %xmm10
vmovss 0x2202c9(%rip), %xmm14 # 0x1eec718
vmulss %xmm14, %xmm10, %xmm11
vmovss 0x2202c0(%rip), %xmm15 # 0x1eec71c
vmulss %xmm7, %xmm15, %xmm12
vmulss %xmm10, %xmm12, %xmm12
vmulss %xmm10, %xmm10, %xmm10
vmulss %xmm10, %xmm12, %xmm10
vdpps $0x7f, %xmm9, %xmm6, %xmm12
vaddss %xmm10, %xmm11, %xmm10
vbroadcastss %xmm10, %xmm10
vmulps %xmm6, %xmm10, %xmm11
vbroadcastss %xmm7, %xmm13
vmulps %xmm13, %xmm9, %xmm9
vbroadcastss %xmm12, %xmm12
vmulps %xmm6, %xmm12, %xmm6
vsubps %xmm6, %xmm9, %xmm6
vrcp14ss %xmm8, %xmm18, %xmm8
vmovss 0x224b4e(%rip), %xmm16 # 0x1ef0ff8
vfnmadd213ss %xmm16, %xmm8, %xmm7 # xmm7 = -(xmm8 * xmm7) + xmm16
vmulss %xmm7, %xmm8, %xmm7
vbroadcastss %xmm7, %xmm7
vmulps %xmm7, %xmm6, %xmm6
vmulps %xmm6, %xmm10, %xmm6
vdpps $0x7f, %xmm4, %xmm4, %xmm7
vmovss %xmm7, %xmm18, %xmm8 # xmm8 = xmm7[0],xmm18[1,2,3]
vrsqrt14ss %xmm8, %xmm18, %xmm9
vmulss %xmm14, %xmm9, %xmm10
vmulss %xmm7, %xmm15, %xmm12
vmulss %xmm9, %xmm12, %xmm12
vmulss %xmm9, %xmm9, %xmm9
vmulss %xmm9, %xmm12, %xmm9
vaddss %xmm9, %xmm10, %xmm9
vdpps $0x7f, %xmm5, %xmm4, %xmm10
vbroadcastss %xmm9, %xmm9
vmulps %xmm4, %xmm9, %xmm12
vbroadcastss %xmm7, %xmm13
vmulps %xmm5, %xmm13, %xmm5
vbroadcastss %xmm10, %xmm10
vmulps %xmm4, %xmm10, %xmm4
vsubps %xmm4, %xmm5, %xmm4
vrcp14ss %xmm8, %xmm18, %xmm5
vfnmadd213ss %xmm16, %xmm5, %xmm7 # xmm7 = -(xmm5 * xmm7) + xmm16
vmulss %xmm7, %xmm5, %xmm5
vbroadcastss %xmm5, %xmm5
vmulps %xmm5, %xmm4, %xmm4
vmulps %xmm4, %xmm9, %xmm4
vshufps $0xff, %xmm0, %xmm0, %xmm5 # xmm5 = xmm0[3,3,3,3]
vmulps %xmm5, %xmm11, %xmm7
vsubps %xmm7, %xmm0, %xmm13
vshufps $0xff, %xmm1, %xmm1, %xmm8 # xmm8 = xmm1[3,3,3,3]
vmulps %xmm11, %xmm8, %xmm8
vmulps %xmm6, %xmm5, %xmm5
vaddps %xmm5, %xmm8, %xmm5
vsubps %xmm5, %xmm1, %xmm6
vaddps %xmm7, %xmm0, %xmm14
vaddps %xmm5, %xmm1, %xmm0
vshufps $0xff, %xmm2, %xmm2, %xmm1 # xmm1 = xmm2[3,3,3,3]
vmulps %xmm1, %xmm12, %xmm5
vsubps %xmm5, %xmm2, %xmm15
vshufps $0xff, %xmm3, %xmm3, %xmm7 # xmm7 = xmm3[3,3,3,3]
vmulps %xmm7, %xmm12, %xmm7
vmulps %xmm4, %xmm1, %xmm1
vaddps %xmm1, %xmm7, %xmm1
vsubps %xmm1, %xmm3, %xmm4
vaddps %xmm5, %xmm2, %xmm16
vaddps %xmm1, %xmm3, %xmm1
vbroadcastss 0x22592a(%rip), %xmm3 # 0x1ef1ebc
vmulps %xmm3, %xmm6, %xmm2
vaddps %xmm2, %xmm13, %xmm18
vmulps %xmm3, %xmm4, %xmm2
vsubps %xmm2, %xmm15, %xmm19
vmulps %xmm3, %xmm0, %xmm0
vaddps %xmm0, %xmm14, %xmm20
vmulps %xmm3, %xmm1, %xmm0
movq 0x20(%rsp), %r10
vmovaps (%r10), %xmm4
vsubps %xmm0, %xmm16, %xmm21
vsubps %xmm4, %xmm13, %xmm0
vbroadcastss %xmm0, %xmm1
vshufps $0x55, %xmm0, %xmm0, %xmm2 # xmm2 = xmm0[1,1,1,1]
vmovaps 0x10(%r15), %xmm3
vshufps $0xaa, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[2,2,2,2]
vmovaps 0x20(%r15), %xmm5
vmovaps 0x30(%r15), %xmm6
vmulps %xmm0, %xmm6, %xmm0
vfmadd231ps %xmm2, %xmm5, %xmm0 # xmm0 = (xmm5 * xmm2) + xmm0
vfmadd231ps %xmm1, %xmm3, %xmm0 # xmm0 = (xmm3 * xmm1) + xmm0
vsubps %xmm4, %xmm18, %xmm1
vbroadcastss %xmm1, %xmm2
vshufps $0x55, %xmm1, %xmm1, %xmm7 # xmm7 = xmm1[1,1,1,1]
vshufps $0xaa, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,2,2,2]
vmulps %xmm1, %xmm6, %xmm1
vfmadd231ps %xmm7, %xmm5, %xmm1 # xmm1 = (xmm5 * xmm7) + xmm1
vfmadd231ps %xmm2, %xmm3, %xmm1 # xmm1 = (xmm3 * xmm2) + xmm1
vsubps %xmm4, %xmm19, %xmm2
vbroadcastss %xmm2, %xmm7
vshufps $0x55, %xmm2, %xmm2, %xmm8 # xmm8 = xmm2[1,1,1,1]
vshufps $0xaa, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[2,2,2,2]
vmulps %xmm2, %xmm6, %xmm2
vfmadd231ps %xmm8, %xmm5, %xmm2 # xmm2 = (xmm5 * xmm8) + xmm2
vfmadd231ps %xmm7, %xmm3, %xmm2 # xmm2 = (xmm3 * xmm7) + xmm2
vsubps %xmm4, %xmm15, %xmm7
vbroadcastss %xmm7, %xmm8
vshufps $0x55, %xmm7, %xmm7, %xmm9 # xmm9 = xmm7[1,1,1,1]
vshufps $0xaa, %xmm7, %xmm7, %xmm7 # xmm7 = xmm7[2,2,2,2]
vmulps %xmm7, %xmm6, %xmm7
vfmadd231ps %xmm9, %xmm5, %xmm7 # xmm7 = (xmm5 * xmm9) + xmm7
vfmadd231ps %xmm8, %xmm3, %xmm7 # xmm7 = (xmm3 * xmm8) + xmm7
vsubps %xmm4, %xmm14, %xmm8
vbroadcastss %xmm8, %xmm9
vshufps $0x55, %xmm8, %xmm8, %xmm10 # xmm10 = xmm8[1,1,1,1]
vshufps $0xaa, %xmm8, %xmm8, %xmm8 # xmm8 = xmm8[2,2,2,2]
vmulps %xmm6, %xmm8, %xmm8
vfmadd231ps %xmm10, %xmm5, %xmm8 # xmm8 = (xmm5 * xmm10) + xmm8
vfmadd231ps %xmm9, %xmm3, %xmm8 # xmm8 = (xmm3 * xmm9) + xmm8
vsubps %xmm4, %xmm20, %xmm9
vbroadcastss %xmm9, %xmm10
vshufps $0x55, %xmm9, %xmm9, %xmm11 # xmm11 = xmm9[1,1,1,1]
vshufps $0xaa, %xmm9, %xmm9, %xmm9 # xmm9 = xmm9[2,2,2,2]
vmulps %xmm6, %xmm9, %xmm9
vfmadd231ps %xmm11, %xmm5, %xmm9 # xmm9 = (xmm5 * xmm11) + xmm9
vfmadd231ps %xmm10, %xmm3, %xmm9 # xmm9 = (xmm3 * xmm10) + xmm9
vsubps %xmm4, %xmm21, %xmm10
vbroadcastss %xmm10, %xmm11
vshufps $0x55, %xmm10, %xmm10, %xmm12 # xmm12 = xmm10[1,1,1,1]
vshufps $0xaa, %xmm10, %xmm10, %xmm10 # xmm10 = xmm10[2,2,2,2]
vmulps %xmm6, %xmm10, %xmm10
vfmadd231ps %xmm12, %xmm5, %xmm10 # xmm10 = (xmm5 * xmm12) + xmm10
vfmadd231ps %xmm11, %xmm3, %xmm10 # xmm10 = (xmm3 * xmm11) + xmm10
vsubps %xmm4, %xmm16, %xmm4
vbroadcastss %xmm4, %xmm11
vshufps $0x55, %xmm4, %xmm4, %xmm12 # xmm12 = xmm4[1,1,1,1]
vshufps $0xaa, %xmm4, %xmm4, %xmm4 # xmm4 = xmm4[2,2,2,2]
vmulps %xmm4, %xmm6, %xmm4
vfmadd231ps %xmm12, %xmm5, %xmm4 # xmm4 = (xmm5 * xmm12) + xmm4
vfmadd231ps %xmm11, %xmm3, %xmm4 # xmm4 = (xmm3 * xmm11) + xmm4
vmovlhps %xmm8, %xmm0, %xmm29 # xmm29 = xmm0[0],xmm8[0]
vmovlhps %xmm9, %xmm1, %xmm12 # xmm12 = xmm1[0],xmm9[0]
vmovlhps %xmm10, %xmm2, %xmm22 # xmm22 = xmm2[0],xmm10[0]
vmovlhps %xmm4, %xmm7, %xmm23 # xmm23 = xmm7[0],xmm4[0]
vminps %xmm12, %xmm29, %xmm3
vmaxps %xmm12, %xmm29, %xmm5
vminps %xmm23, %xmm22, %xmm6
vminps %xmm6, %xmm3, %xmm3
vmaxps %xmm23, %xmm22, %xmm6
vmaxps %xmm6, %xmm5, %xmm5
vshufpd $0x3, %xmm3, %xmm3, %xmm6 # xmm6 = xmm3[1,1]
vshufpd $0x3, %xmm5, %xmm5, %xmm11 # xmm11 = xmm5[1,1]
vminps %xmm6, %xmm3, %xmm3
vmaxps %xmm11, %xmm5, %xmm5
vandps %xmm17, %xmm3, %xmm3
vandps %xmm17, %xmm5, %xmm5
vmaxps %xmm5, %xmm3, %xmm3
vmovshdup %xmm3, %xmm5 # xmm5 = xmm3[1,1,3,3]
vmaxss %xmm3, %xmm5, %xmm3
vmulss 0x225760(%rip), %xmm3, %xmm3 # 0x1ef1eb8
vmovddup %xmm0, %xmm6 # xmm6 = xmm0[0,0]
vmovddup %xmm1, %xmm11 # xmm11 = xmm1[0,0]
vmovddup %xmm2, %xmm17 # xmm17 = xmm2[0,0]
vmovddup %xmm7, %xmm7 # xmm7 = xmm7[0,0]
vmovddup %xmm8, %xmm5 # xmm5 = xmm8[0,0]
vmovddup %xmm9, %xmm8 # xmm8 = xmm9[0,0]
vmovddup %xmm10, %xmm9 # xmm9 = xmm10[0,0]
vmovddup %xmm4, %xmm10 # xmm10 = xmm4[0,0]
vmovaps %xmm3, 0x170(%rsp)
vbroadcastss %xmm3, %ymm28
vxorps %xmm30, %xmm28, %xmm0
vbroadcastss %xmm0, %ymm26
vsubps %xmm29, %xmm12, %xmm0
vmovaps %xmm0, 0x70(%rsp)
vmovaps %xmm12, 0xa0(%rsp)
vsubps %xmm12, %xmm22, %xmm0
vmovaps %xmm0, 0x60(%rsp)
vmovaps %xmm22, 0x90(%rsp)
vmovaps %xmm23, 0x180(%rsp)
vsubps %xmm22, %xmm23, %xmm0
vmovaps %xmm0, 0x290(%rsp)
vmovaps %xmm13, 0x160(%rsp)
vmovaps %xmm14, 0x150(%rsp)
vsubps %xmm13, %xmm14, %xmm0
vmovaps %xmm0, 0x280(%rsp)
vmovaps %xmm18, 0x120(%rsp)
vmovaps %xmm20, 0x100(%rsp)
vsubps %xmm18, %xmm20, %xmm0
vmovaps %xmm0, 0x270(%rsp)
vmovaps %xmm19, 0x110(%rsp)
vmovaps %xmm21, 0xf0(%rsp)
vsubps %xmm19, %xmm21, %xmm0
vmovaps %xmm0, 0x260(%rsp)
vmovaps %xmm15, 0x140(%rsp)
vmovaps %xmm16, 0x130(%rsp)
vsubps %xmm15, %xmm16, %xmm0
vmovaps %xmm0, 0x250(%rsp)
xorl %ebx, %ebx
vmovsd 0x21fe90(%rip), %xmm0 # 0x1eec6f0
vmovaps %xmm0, %xmm15
movq 0x28(%rsp), %r9
movq 0x30(%rsp), %r8
vmovaps %xmm29, 0x40(%rsp)
vmovaps %xmm6, 0x200(%rsp)
vmovaps %xmm11, 0x1f0(%rsp)
vmovaps %xmm17, 0x1e0(%rsp)
vmovaps %xmm7, 0x1d0(%rsp)
vmovaps %xmm5, 0x1c0(%rsp)
vmovaps %xmm8, 0x1b0(%rsp)
vmovaps %xmm9, 0x1a0(%rsp)
vmovaps %xmm10, 0x190(%rsp)
vmovups %ymm28, 0x300(%rsp)
vmovups %ymm26, 0x2e0(%rsp)
vmovaps %xmm15, %xmm27
vshufps $0x50, %xmm15, %xmm15, %xmm1 # xmm1 = xmm15[0,0,1,1]
vbroadcastss 0x21fe32(%rip), %ymm13 # 0x1eec714
vsubps %xmm1, %xmm13, %xmm2
vmulps %xmm1, %xmm5, %xmm3
vmulps %xmm1, %xmm8, %xmm4
vmulps %xmm1, %xmm9, %xmm5
vmulps %xmm1, %xmm10, %xmm1
vfmadd231ps %xmm6, %xmm2, %xmm3 # xmm3 = (xmm2 * xmm6) + xmm3
vfmadd231ps %xmm11, %xmm2, %xmm4 # xmm4 = (xmm2 * xmm11) + xmm4
vfmadd231ps %xmm17, %xmm2, %xmm5 # xmm5 = (xmm2 * xmm17) + xmm5
vfmadd231ps %xmm2, %xmm7, %xmm1 # xmm1 = (xmm7 * xmm2) + xmm1
vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3]
vsubss %xmm0, %xmm2, %xmm6
vmulss 0x2545b5(%rip), %xmm6, %xmm6 # 0x1f20ed0
vbroadcastss %xmm0, %ymm7
vbroadcastsd %xmm2, %ymm2
vsubps %ymm7, %ymm2, %ymm10
vbroadcastss %xmm3, %ymm2
vbroadcastss 0x245dcd(%rip), %ymm9 # 0x1f12704
vpermps %ymm3, %ymm9, %ymm8
vbroadcastss %xmm4, %ymm20
vpermps %ymm4, %ymm9, %ymm21
vbroadcastss %xmm5, %ymm22
vpermps %ymm5, %ymm9, %ymm23
vbroadcastss %xmm1, %ymm24
vpermps %ymm1, %ymm9, %ymm25
vbroadcastss %xmm6, %ymm9
vbroadcastss 0x25456d(%rip), %ymm16 # 0x1f20edc
vpermps %ymm3, %ymm16, %ymm19
vbroadcastss 0x25455a(%rip), %ymm6 # 0x1f20ed8
vpermps %ymm3, %ymm6, %ymm18
vpermps %ymm4, %ymm16, %ymm15
vpermps %ymm4, %ymm6, %ymm14
vpermps %ymm5, %ymm16, %ymm12
vpermps %ymm5, %ymm6, %ymm11
vpermps %ymm1, %ymm16, %ymm16
vpermps %ymm1, %ymm6, %ymm17
vfmadd132ps 0x254571(%rip), %ymm7, %ymm10 # ymm10 = (ymm10 * mem) + ymm7
vsubps %ymm10, %ymm13, %ymm13
vmulps %ymm10, %ymm20, %ymm1
vmulps %ymm10, %ymm21, %ymm3
vfmadd231ps %ymm2, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm2) + ymm1
vfmadd231ps %ymm8, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm8) + ymm3
vmulps %ymm10, %ymm22, %ymm2
vmulps %ymm10, %ymm23, %ymm4
vfmadd231ps %ymm20, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm20) + ymm2
vfmadd231ps %ymm21, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm21) + ymm4
vmulps %ymm10, %ymm24, %ymm5
vmulps %ymm10, %ymm25, %ymm6
vfmadd231ps %ymm22, %ymm13, %ymm5 # ymm5 = (ymm13 * ymm22) + ymm5
vfmadd231ps %ymm23, %ymm13, %ymm6 # ymm6 = (ymm13 * ymm23) + ymm6
vmulps %ymm2, %ymm10, %ymm7
vmulps %ymm4, %ymm10, %ymm8
vfmadd231ps %ymm1, %ymm13, %ymm7 # ymm7 = (ymm13 * ymm1) + ymm7
vfmadd231ps %ymm3, %ymm13, %ymm8 # ymm8 = (ymm13 * ymm3) + ymm8
vmulps %ymm5, %ymm10, %ymm1
vmulps %ymm6, %ymm10, %ymm5
vfmadd231ps %ymm2, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm2) + ymm1
vfmadd231ps %ymm4, %ymm13, %ymm5 # ymm5 = (ymm13 * ymm4) + ymm5
vmulps %ymm1, %ymm10, %ymm3
vmulps %ymm5, %ymm10, %ymm4
vfmadd231ps %ymm7, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm7) + ymm3
vfmadd231ps %ymm8, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm8) + ymm4
vsubps %ymm7, %ymm1, %ymm1
vsubps %ymm8, %ymm5, %ymm2
vbroadcastss 0x2245a9(%rip), %ymm22 # 0x1ef0fec
vmulps %ymm22, %ymm1, %ymm1
vmulps %ymm22, %ymm2, %ymm2
vmulps %ymm1, %ymm9, %ymm8
vmulps %ymm2, %ymm9, %ymm20
vmovaps %ymm3, %ymm5
vmovaps 0x2932b9(%rip), %ymm23 # 0x1f5fd20
vxorps %xmm24, %xmm24, %xmm24
vpermt2ps %ymm24, %ymm23, %ymm5
vmovaps %ymm4, %ymm6
vpermt2ps %ymm24, %ymm23, %ymm6
vaddps %ymm3, %ymm8, %ymm1
vpermt2ps %ymm24, %ymm23, %ymm8
vaddps %ymm20, %ymm4, %ymm7
vpermt2ps %ymm24, %ymm23, %ymm20
vsubps %ymm8, %ymm5, %ymm2
vsubps %ymm20, %ymm6, %ymm8
vmulps %ymm10, %ymm15, %ymm20
vmulps %ymm10, %ymm14, %ymm21
vfmadd231ps %ymm19, %ymm13, %ymm20 # ymm20 = (ymm13 * ymm19) + ymm20
vfmadd231ps %ymm18, %ymm13, %ymm21 # ymm21 = (ymm13 * ymm18) + ymm21
vmulps %ymm10, %ymm12, %ymm18
vmulps %ymm10, %ymm11, %ymm19
vfmadd231ps %ymm15, %ymm13, %ymm18 # ymm18 = (ymm13 * ymm15) + ymm18
vfmadd231ps %ymm14, %ymm13, %ymm19 # ymm19 = (ymm13 * ymm14) + ymm19
vmulps %ymm10, %ymm16, %ymm14
vmulps %ymm10, %ymm17, %ymm15
vfmadd231ps %ymm12, %ymm13, %ymm14 # ymm14 = (ymm13 * ymm12) + ymm14
vfmadd231ps %ymm11, %ymm13, %ymm15 # ymm15 = (ymm13 * ymm11) + ymm15
vmulps %ymm18, %ymm10, %ymm16
vmulps %ymm19, %ymm10, %ymm17
vfmadd231ps %ymm20, %ymm13, %ymm16 # ymm16 = (ymm13 * ymm20) + ymm16
vfmadd231ps %ymm21, %ymm13, %ymm17 # ymm17 = (ymm13 * ymm21) + ymm17
vmulps %ymm14, %ymm10, %ymm14
vmulps %ymm15, %ymm10, %ymm15
vfmadd231ps %ymm18, %ymm13, %ymm14 # ymm14 = (ymm13 * ymm18) + ymm14
vfmadd231ps %ymm19, %ymm13, %ymm15 # ymm15 = (ymm13 * ymm19) + ymm15
vmulps %ymm14, %ymm10, %ymm11
vmulps %ymm15, %ymm10, %ymm12
vfmadd231ps %ymm16, %ymm13, %ymm11 # ymm11 = (ymm13 * ymm16) + ymm11
vfmadd231ps %ymm13, %ymm17, %ymm12 # ymm12 = (ymm17 * ymm13) + ymm12
vsubps %ymm16, %ymm14, %ymm10
vsubps %ymm17, %ymm15, %ymm13
vmulps %ymm22, %ymm10, %ymm10
vmulps %ymm22, %ymm13, %ymm13
vmulps %ymm10, %ymm9, %ymm10
vmulps %ymm13, %ymm9, %ymm16
vmovaps %ymm11, %ymm13
vpermt2ps %ymm24, %ymm23, %ymm13
vmovaps %ymm12, %ymm14
vpermt2ps %ymm24, %ymm23, %ymm14
vaddps %ymm10, %ymm11, %ymm9
vpermt2ps %ymm24, %ymm23, %ymm10
vaddps %ymm16, %ymm12, %ymm15
vpermt2ps %ymm24, %ymm23, %ymm16
vsubps %ymm10, %ymm13, %ymm10
vsubps %ymm16, %ymm14, %ymm16
vsubps %ymm3, %ymm11, %ymm17
vsubps %ymm4, %ymm12, %ymm18
vsubps %ymm5, %ymm13, %ymm19
vaddps %ymm19, %ymm17, %ymm17
vsubps %ymm6, %ymm14, %ymm19
vaddps %ymm19, %ymm18, %ymm18
vmulps %ymm17, %ymm4, %ymm19
vfnmadd231ps %ymm18, %ymm3, %ymm19 # ymm19 = -(ymm3 * ymm18) + ymm19
vmulps %ymm17, %ymm7, %ymm20
vfnmadd231ps %ymm18, %ymm1, %ymm20 # ymm20 = -(ymm1 * ymm18) + ymm20
vmulps %ymm17, %ymm8, %ymm21
vfnmadd231ps %ymm18, %ymm2, %ymm21 # ymm21 = -(ymm2 * ymm18) + ymm21
vmulps %ymm17, %ymm6, %ymm22
vfnmadd231ps %ymm18, %ymm5, %ymm22 # ymm22 = -(ymm5 * ymm18) + ymm22
vmulps %ymm17, %ymm12, %ymm23
vfnmadd231ps %ymm18, %ymm11, %ymm23 # ymm23 = -(ymm11 * ymm18) + ymm23
vmulps %ymm17, %ymm15, %ymm24
vfnmadd231ps %ymm18, %ymm9, %ymm24 # ymm24 = -(ymm9 * ymm18) + ymm24
vmulps %ymm17, %ymm16, %ymm25
vfnmadd231ps %ymm18, %ymm10, %ymm25 # ymm25 = -(ymm10 * ymm18) + ymm25
vmulps %ymm17, %ymm14, %ymm17
vfnmadd231ps %ymm18, %ymm13, %ymm17 # ymm17 = -(ymm13 * ymm18) + ymm17
vminps %ymm20, %ymm19, %ymm18
vmaxps %ymm20, %ymm19, %ymm19
vminps %ymm22, %ymm21, %ymm20
vminps %ymm20, %ymm18, %ymm18
vmaxps %ymm22, %ymm21, %ymm20
vmaxps %ymm20, %ymm19, %ymm19
vminps %ymm24, %ymm23, %ymm20
vmaxps %ymm24, %ymm23, %ymm21
vminps %ymm17, %ymm25, %ymm22
vminps %ymm22, %ymm20, %ymm20
vminps %ymm20, %ymm18, %ymm18
vmaxps %ymm17, %ymm25, %ymm17
vmaxps %ymm17, %ymm21, %ymm17
vmaxps %ymm17, %ymm19, %ymm17
vcmpleps %ymm28, %ymm18, %k1
vcmpnltps %ymm26, %ymm17, %k0 {%k1}
kmovd %k0, %eax
movl $0x0, %ecx
andb $0x7f, %al
je 0x1cccd4f
vsubps %ymm3, %ymm5, %ymm17
vsubps %ymm4, %ymm6, %ymm18
vsubps %ymm11, %ymm13, %ymm19
vaddps %ymm19, %ymm17, %ymm17
vsubps %ymm12, %ymm14, %ymm19
vaddps %ymm19, %ymm18, %ymm18
vmulps %ymm17, %ymm4, %ymm4
vfnmadd231ps %ymm3, %ymm18, %ymm4 # ymm4 = -(ymm18 * ymm3) + ymm4
vmulps %ymm17, %ymm7, %ymm3
vfnmadd213ps %ymm3, %ymm18, %ymm1 # ymm1 = -(ymm18 * ymm1) + ymm3
vmulps %ymm17, %ymm8, %ymm3
vfnmadd213ps %ymm3, %ymm18, %ymm2 # ymm2 = -(ymm18 * ymm2) + ymm3
vmulps %ymm17, %ymm6, %ymm3
vfnmadd231ps %ymm5, %ymm18, %ymm3 # ymm3 = -(ymm18 * ymm5) + ymm3
vmulps %ymm17, %ymm12, %ymm5
vfnmadd231ps %ymm11, %ymm18, %ymm5 # ymm5 = -(ymm18 * ymm11) + ymm5
vmulps %ymm17, %ymm15, %ymm6
vfnmadd213ps %ymm6, %ymm18, %ymm9 # ymm9 = -(ymm18 * ymm9) + ymm6
vmulps %ymm17, %ymm16, %ymm6
vfnmadd213ps %ymm6, %ymm18, %ymm10 # ymm10 = -(ymm18 * ymm10) + ymm6
vmulps %ymm17, %ymm14, %ymm6
vfnmadd231ps %ymm18, %ymm13, %ymm6 # ymm6 = -(ymm13 * ymm18) + ymm6
vminps %ymm1, %ymm4, %ymm7
vmaxps %ymm1, %ymm4, %ymm1
vminps %ymm3, %ymm2, %ymm4
vminps %ymm4, %ymm7, %ymm4
vmaxps %ymm3, %ymm2, %ymm2
vmaxps %ymm2, %ymm1, %ymm1
vminps %ymm9, %ymm5, %ymm2
vmaxps %ymm9, %ymm5, %ymm3
vminps %ymm6, %ymm10, %ymm5
vminps %ymm5, %ymm2, %ymm2
vminps %ymm2, %ymm4, %ymm2
vmaxps %ymm6, %ymm10, %ymm4
vmaxps %ymm4, %ymm3, %ymm3
vmaxps %ymm3, %ymm1, %ymm1
vcmpnltps %ymm26, %ymm1, %k1
vcmpleps %ymm28, %ymm2, %k0 {%k1}
kmovd %k0, %ecx
andb %cl, %al
movzbl %al, %ecx
testl %ecx, %ecx
je 0x1cccd6f
movl %ebx, %eax
movl %ecx, 0x210(%rsp,%rax,4)
vmovlps %xmm0, 0x2a0(%rsp,%rax,8)
vmovlps %xmm27, 0x320(%rsp,%rax,8)
incl %ebx
vbroadcastss 0x25414b(%rip), %xmm17 # 0x1f20ec4
vbroadcastss 0x224269(%rip), %ymm18 # 0x1ef0fec
vmovss 0x254153(%rip), %xmm19 # 0x1f20ee0
vmovss 0x21f97d(%rip), %xmm20 # 0x1eec714
vmovss 0x22425f(%rip), %xmm21 # 0x1ef1000
vmovss 0x224ca1(%rip), %xmm22 # 0x1ef1a4c
vbroadcastss 0x21f95f(%rip), %xmm23 # 0x1eec714
vmovss 0x2250fd(%rip), %xmm24 # 0x1ef1ebc
vmovss 0x223c0f(%rip), %xmm25 # 0x1ef09d8
vxorps %xmm16, %xmm16, %xmm16
vmovaps 0x70(%rsp), %xmm26
vmovaps 0x60(%rsp), %xmm28
testl %ebx, %ebx
je 0x1ccde07
leal -0x1(%rbx), %eax
vmovss 0x2a0(%rsp,%rax,8), %xmm0
vmovss 0x2a4(%rsp,%rax,8), %xmm1
movl 0x210(%rsp,%rax,4), %ecx
vmovsd 0x320(%rsp,%rax,8), %xmm15
tzcntq %rcx, %rdx
blsrl %ecx, %ecx
movl %ecx, 0x210(%rsp,%rax,4)
cmovel %eax, %ebx
vpxord %xmm27, %xmm27, %xmm27
vcvtsi2ss %rdx, %xmm27, %xmm2
vmulss %xmm19, %xmm2, %xmm2
incq %rdx
vpxord %xmm27, %xmm27, %xmm27
vcvtsi2ss %rdx, %xmm27, %xmm3
vmulss %xmm19, %xmm3, %xmm3
vsubss %xmm2, %xmm20, %xmm4
vmulss %xmm2, %xmm1, %xmm14
vfmadd231ss %xmm4, %xmm0, %xmm14 # xmm14 = (xmm0 * xmm4) + xmm14
vsubss %xmm3, %xmm20, %xmm2
vmulss %xmm3, %xmm1, %xmm7
vfmadd231ss %xmm2, %xmm0, %xmm7 # xmm7 = (xmm0 * xmm2) + xmm7
vsubss %xmm14, %xmm7, %xmm0
vucomiss %xmm0, %xmm21
jbe 0x1ccdda5
vmovaps %xmm15, %xmm27
vshufps $0x50, %xmm15, %xmm15, %xmm1 # xmm1 = xmm15[0,0,1,1]
vucomiss %xmm0, %xmm22
seta %cl
cmpl $0x4, %ebx
setae %al
vsubps %xmm1, %xmm23, %xmm2
vmulps 0x1c0(%rsp), %xmm1, %xmm3
vmulps 0x1b0(%rsp), %xmm1, %xmm4
vmulps 0x1a0(%rsp), %xmm1, %xmm5
vmulps 0x190(%rsp), %xmm1, %xmm1
vfmadd231ps 0x200(%rsp), %xmm2, %xmm3 # xmm3 = (xmm2 * mem) + xmm3
vfmadd231ps 0x1f0(%rsp), %xmm2, %xmm4 # xmm4 = (xmm2 * mem) + xmm4
vfmadd231ps 0x1e0(%rsp), %xmm2, %xmm5 # xmm5 = (xmm2 * mem) + xmm5
vfmadd231ps 0x1d0(%rsp), %xmm2, %xmm1 # xmm1 = (xmm2 * mem) + xmm1
vinsertf128 $0x1, %xmm3, %ymm3, %ymm2
vinsertf128 $0x1, %xmm4, %ymm4, %ymm3
vinsertf128 $0x1, %xmm5, %ymm5, %ymm4
vmovaps %xmm14, 0x80(%rsp)
vbroadcastss %xmm14, %xmm6
vmovaps %xmm7, (%rsp)
vbroadcastss %xmm7, %xmm7
vinsertf128 $0x1, %xmm7, %ymm6, %ymm6
vsubps %ymm2, %ymm3, %ymm7
vfmadd213ps %ymm2, %ymm6, %ymm7 # ymm7 = (ymm6 * ymm7) + ymm2
vsubps %ymm3, %ymm4, %ymm2
vfmadd213ps %ymm3, %ymm6, %ymm2 # ymm2 = (ymm6 * ymm2) + ymm3
vsubps %xmm5, %xmm1, %xmm1
vinsertf128 $0x1, %xmm1, %ymm1, %ymm3
vfmadd213ps %ymm4, %ymm6, %ymm3 # ymm3 = (ymm6 * ymm3) + ymm4
vsubps %ymm7, %ymm2, %ymm1
vfmadd213ps %ymm7, %ymm6, %ymm1 # ymm1 = (ymm6 * ymm1) + ymm7
vsubps %ymm2, %ymm3, %ymm3
vfmadd213ps %ymm2, %ymm6, %ymm3 # ymm3 = (ymm6 * ymm3) + ymm2
vsubps %ymm1, %ymm3, %ymm2
vfmadd231ps %ymm6, %ymm2, %ymm1 # ymm1 = (ymm2 * ymm6) + ymm1
vmulps %ymm18, %ymm2, %ymm3
vextractf128 $0x1, %ymm1, %xmm2
vextractf128 $0x1, %ymm3, %xmm4
vmulss %xmm24, %xmm0, %xmm5
vbroadcastss %xmm5, %xmm6
vmulps %xmm3, %xmm6, %xmm3
vaddps %xmm3, %xmm1, %xmm5
vmulps %xmm4, %xmm6, %xmm3
vsubps %xmm3, %xmm2, %xmm6
vshufpd $0x3, %xmm1, %xmm1, %xmm4 # xmm4 = xmm1[1,1]
vshufpd $0x3, %xmm2, %xmm2, %xmm3 # xmm3 = xmm2[1,1]
vsubps %xmm1, %xmm4, %xmm7
vsubps %xmm2, %xmm3, %xmm8
vaddps %xmm7, %xmm8, %xmm7
vshufps $0xb1, %xmm1, %xmm1, %xmm8 # xmm8 = xmm1[1,0,3,2]
vshufps $0xb1, %xmm5, %xmm5, %xmm9 # xmm9 = xmm5[1,0,3,2]
vshufps $0xb1, %xmm6, %xmm6, %xmm10 # xmm10 = xmm6[1,0,3,2]
vshufps $0xb1, %xmm2, %xmm2, %xmm11 # xmm11 = xmm2[1,0,3,2]
vbroadcastss %xmm7, %xmm12
vshufps $0x55, %xmm7, %xmm7, %xmm7 # xmm7 = xmm7[1,1,1,1]
vmulps %xmm7, %xmm8, %xmm8
vmulps %xmm7, %xmm9, %xmm9
vmulps %xmm7, %xmm10, %xmm10
vmulps %xmm7, %xmm11, %xmm7
vfmadd231ps %xmm1, %xmm12, %xmm8 # xmm8 = (xmm12 * xmm1) + xmm8
vfmadd231ps %xmm5, %xmm12, %xmm9 # xmm9 = (xmm12 * xmm5) + xmm9
vfmadd231ps %xmm6, %xmm12, %xmm10 # xmm10 = (xmm12 * xmm6) + xmm10
vfmadd231ps %xmm12, %xmm2, %xmm7 # xmm7 = (xmm2 * xmm12) + xmm7
vshufpd $0x1, %xmm8, %xmm8, %xmm11 # xmm11 = xmm8[1,0]
vshufpd $0x1, %xmm9, %xmm9, %xmm12 # xmm12 = xmm9[1,0]
vshufpd $0x1, %xmm10, %xmm10, %xmm14 # xmm14 = xmm10[1,0]
vshufpd $0x1, %xmm7, %xmm7, %xmm15 # xmm15 = xmm7[1,0]
vminss %xmm9, %xmm8, %xmm13
vmaxss %xmm8, %xmm9, %xmm8
vminss %xmm7, %xmm10, %xmm9
vmaxss %xmm10, %xmm7, %xmm7
vminss %xmm9, %xmm13, %xmm13
vmaxss %xmm8, %xmm7, %xmm9
vminss %xmm12, %xmm11, %xmm7
vmaxss %xmm11, %xmm12, %xmm8
vminss %xmm15, %xmm14, %xmm10
vmaxss %xmm14, %xmm15, %xmm11
vminss %xmm10, %xmm7, %xmm14
vmaxss %xmm8, %xmm11, %xmm10
vucomiss %xmm13, %xmm25
jbe 0x1ccd03c
vmovss 0x224e8a(%rip), %xmm7 # 0x1ef1ec0
vucomiss %xmm7, %xmm10
ja 0x1ccd09d
vmovss 0x224e7c(%rip), %xmm7 # 0x1ef1ec0
vucomiss %xmm7, %xmm9
seta %dl
vmovss 0x223985(%rip), %xmm7 # 0x1ef09d8
vcmpltps %xmm7, %xmm14, %k0
vcmpltps %xmm7, %xmm13, %k1
korw %k0, %k1, %k0
kmovd %k0, %esi
testb %sil, %dl
jne 0x1ccd09d
vmovss 0x224e4a(%rip), %xmm7 # 0x1ef1ec0
vcmpnltps %xmm10, %xmm7, %k0
vmovss 0x223953(%rip), %xmm7 # 0x1ef09d8
vcmpnltps %xmm7, %xmm14, %k1
korw %k0, %k1, %k0
kmovd %k0, %edx
testb $0x1, %dl
jne 0x1ccdaa2
vcmpltss %xmm16, %xmm13, %k1
vmovaps %xmm20, %xmm15
vmovss 0x223918(%rip), %xmm16 # 0x1ef09cc
vxorps %xmm11, %xmm11, %xmm11
vmovss %xmm16, %xmm15, %xmm15 {%k1}
vcmpltss %xmm11, %xmm9, %k1
vmovaps %xmm20, %xmm12
vmovss %xmm16, %xmm12, %xmm12 {%k1}
vucomiss %xmm12, %xmm15
setp %dl
setne %sil
orb %dl, %sil
kmovd %esi, %k1
vmovss 0x21e933(%rip), %xmm7 # 0x1eeba20
vmovss %xmm11, %xmm7, %xmm7 {%k1}
vmovss 0x21fa89(%rip), %xmm8 # 0x1eecb84
vmovss %xmm11, %xmm8, %xmm8 {%k1}
vcmpltss %xmm11, %xmm14, %k1
vmovaps %xmm20, %xmm11
vmovss %xmm16, %xmm11, %xmm11 {%k1}
vucomiss %xmm11, %xmm15
jne 0x1ccd11d
jnp 0x1ccd162
vucomiss %xmm13, %xmm14
jne 0x1ccd170
jp 0x1ccd170
vxorps %xmm16, %xmm16, %xmm16
vucomiss %xmm16, %xmm13
setnp %dl
sete %sil
andb %dl, %sil
kmovd %esi, %k1
vmovss 0x21e8d8(%rip), %xmm13 # 0x1eeba20
vmovss %xmm16, %xmm13, %xmm13 {%k1}
vmovss 0x21fa2e(%rip), %xmm14 # 0x1eecb84
vmovss 0x21f5b4(%rip), %xmm14 {%k1} # 0x1eec714
jmp 0x1ccd19b
vxorps %xmm16, %xmm16, %xmm16
vmovaps %xmm27, %xmm15
jmp 0x1ccd1ab
vxorps 0x253d46(%rip){1to4}, %xmm13, %xmm15 # 0x1f20ec0
vsubss %xmm13, %xmm14, %xmm13
vdivss %xmm13, %xmm15, %xmm14
vsubss %xmm14, %xmm20, %xmm13
vxorps %xmm16, %xmm16, %xmm16
vfmadd213ss %xmm14, %xmm16, %xmm13 # xmm13 = (xmm16 * xmm13) + xmm14
vmovaps %xmm13, %xmm14
vmovaps %xmm27, %xmm15
vminss %xmm13, %xmm7, %xmm7
vmaxss %xmm8, %xmm14, %xmm8
vcmpltss %xmm16, %xmm10, %k1
vmovaps %xmm20, %xmm13
vmovss 0x22380a(%rip), %xmm13 {%k1} # 0x1ef09cc
vucomiss %xmm13, %xmm12
vmovaps 0x80(%rsp), %xmm14
jne 0x1ccd1d4
jnp 0x1ccd242
vucomiss %xmm9, %xmm10
jne 0x1ccd213
jp 0x1ccd213
vucomiss %xmm16, %xmm9
setnp %dl
sete %sil
andb %dl, %sil
kmovd %esi, %k1
vmovss 0x21e827(%rip), %xmm9 # 0x1eeba20
vmovss %xmm16, %xmm9, %xmm9 {%k1}
vmovss 0x21f97d(%rip), %xmm10 # 0x1eecb84
vmovss 0x21f503(%rip), %xmm10 {%k1} # 0x1eec714
jmp 0x1ccd238
vxorps 0x253ca3(%rip){1to4}, %xmm9, %xmm12 # 0x1f20ec0
vsubss %xmm9, %xmm10, %xmm9
vdivss %xmm9, %xmm12, %xmm10
vsubss %xmm10, %xmm20, %xmm9
vfmadd213ss %xmm10, %xmm16, %xmm9 # xmm9 = (xmm16 * xmm9) + xmm10
vmovaps %xmm9, %xmm10
vminss %xmm9, %xmm7, %xmm7
vmaxss %xmm8, %xmm10, %xmm8
vucomiss %xmm13, %xmm11
setp %dl
setne %sil
orb %dl, %sil
vminss %xmm20, %xmm7, %xmm9
kmovd %esi, %k1
vmovss %xmm9, %xmm7, %xmm7 {%k1}
vmaxss %xmm8, %xmm20, %xmm9
vmovss %xmm9, %xmm8, %xmm8 {%k1}
vmaxss %xmm7, %xmm16, %xmm7
vminss %xmm20, %xmm8, %xmm8
movb $0x1, %r14b
vucomiss %xmm8, %xmm7
ja 0x1ccda74
vaddss 0x2901d9(%rip), %xmm7, %xmm7 # 0x1f5d468
vaddss 0x21f905(%rip), %xmm8, %xmm8 # 0x1eecb9c
vmaxss %xmm7, %xmm16, %xmm7
vminss %xmm20, %xmm8, %xmm8
vmovddup %xmm1, %xmm1 # xmm1 = xmm1[0,0]
vmovddup %xmm5, %xmm9 # xmm9 = xmm5[0,0]
vmovddup %xmm6, %xmm10 # xmm10 = xmm6[0,0]
vmovddup %xmm2, %xmm2 # xmm2 = xmm2[0,0]
vshufpd $0x3, %xmm5, %xmm5, %xmm5 # xmm5 = xmm5[1,1]
vshufpd $0x3, %xmm6, %xmm6, %xmm6 # xmm6 = xmm6[1,1]
vshufps $0x0, %xmm8, %xmm7, %xmm11 # xmm11 = xmm7[0,0],xmm8[0,0]
vsubps %xmm11, %xmm23, %xmm12
vmulps %xmm4, %xmm11, %xmm13
vmulps %xmm5, %xmm11, %xmm5
vmulps %xmm6, %xmm11, %xmm6
vmulps %xmm3, %xmm11, %xmm3
vfmadd231ps %xmm1, %xmm12, %xmm13 # xmm13 = (xmm12 * xmm1) + xmm13
vfmadd231ps %xmm9, %xmm12, %xmm5 # xmm5 = (xmm12 * xmm9) + xmm5
vfmadd231ps %xmm10, %xmm12, %xmm6 # xmm6 = (xmm12 * xmm10) + xmm6
vfmadd231ps %xmm2, %xmm12, %xmm3 # xmm3 = (xmm12 * xmm2) + xmm3
vsubss %xmm7, %xmm20, %xmm2
vmovshdup %xmm15, %xmm4 # xmm4 = xmm15[1,1,3,3]
vmulss %xmm7, %xmm4, %xmm1
vfmadd231ss %xmm2, %xmm15, %xmm1 # xmm1 = (xmm15 * xmm2) + xmm1
vsubss %xmm8, %xmm20, %xmm2
vmulss %xmm4, %xmm8, %xmm4
vfmadd231ss %xmm2, %xmm15, %xmm4 # xmm4 = (xmm15 * xmm2) + xmm4
vdivss %xmm0, %xmm20, %xmm0
vsubps %xmm13, %xmm5, %xmm2
vbroadcastss 0x223cc8(%rip), %xmm15 # 0x1ef0fec
vmulps %xmm2, %xmm15, %xmm2
vsubps %xmm5, %xmm6, %xmm7
vmulps %xmm7, %xmm15, %xmm7
vsubps %xmm6, %xmm3, %xmm8
vmulps %xmm15, %xmm8, %xmm8
vminps %xmm8, %xmm7, %xmm9
vmaxps %xmm8, %xmm7, %xmm7
vminps %xmm9, %xmm2, %xmm8
vmaxps %xmm7, %xmm2, %xmm2
vshufpd $0x3, %xmm8, %xmm8, %xmm7 # xmm7 = xmm8[1,1]
vshufpd $0x3, %xmm2, %xmm2, %xmm9 # xmm9 = xmm2[1,1]
vminps %xmm7, %xmm8, %xmm7
vmaxps %xmm9, %xmm2, %xmm2
vbroadcastss %xmm0, %xmm0
vmulps %xmm7, %xmm0, %xmm8
vmulps %xmm2, %xmm0, %xmm7
vsubss %xmm1, %xmm4, %xmm0
vdivss %xmm0, %xmm20, %xmm0
vshufpd $0x3, %xmm13, %xmm13, %xmm2 # xmm2 = xmm13[1,1]
vshufpd $0x3, %xmm5, %xmm5, %xmm9 # xmm9 = xmm5[1,1]
vshufpd $0x3, %xmm6, %xmm6, %xmm10 # xmm10 = xmm6[1,1]
vshufpd $0x3, %xmm3, %xmm3, %xmm11 # xmm11 = xmm3[1,1]
vsubps %xmm13, %xmm2, %xmm2
vsubps %xmm5, %xmm9, %xmm5
vsubps %xmm6, %xmm10, %xmm6
vsubps %xmm3, %xmm11, %xmm3
vminps %xmm5, %xmm2, %xmm9
vmaxps %xmm5, %xmm2, %xmm2
vminps %xmm3, %xmm6, %xmm5
vminps %xmm5, %xmm9, %xmm5
vmaxps %xmm3, %xmm6, %xmm3
vmaxps %xmm3, %xmm2, %xmm2
vbroadcastss %xmm0, %xmm0
vmulps %xmm5, %xmm0, %xmm10
vmulps %xmm2, %xmm0, %xmm11
vinsertps $0x10, %xmm1, %xmm14, %xmm6 # xmm6 = xmm14[0],xmm1[0],xmm14[2,3]
vmovaps (%rsp), %xmm0
vinsertps $0x10, %xmm4, %xmm0, %xmm5 # xmm5 = xmm0[0],xmm4[0],xmm0[2,3]
vaddps %xmm5, %xmm6, %xmm0
vmulps %xmm31, %xmm0, %xmm9
vshufps $0x54, %xmm9, %xmm9, %xmm0 # xmm0 = xmm9[0,1,1,1]
vbroadcastss %xmm9, %xmm2
vmovaps %xmm26, %xmm3
vfmadd213ps %xmm29, %xmm2, %xmm3 # xmm3 = (xmm2 * xmm3) + xmm29
vmovaps %xmm28, %xmm12
vfmadd213ps 0xa0(%rsp), %xmm2, %xmm12 # xmm12 = (xmm2 * xmm12) + mem
vmovaps 0x290(%rsp), %xmm13
vfmadd213ps 0x90(%rsp), %xmm2, %xmm13 # xmm13 = (xmm2 * xmm13) + mem
vmovaps %xmm14, %xmm27
vsubps %xmm3, %xmm12, %xmm14
vfmadd213ps %xmm3, %xmm2, %xmm14 # xmm14 = (xmm2 * xmm14) + xmm3
vsubps %xmm12, %xmm13, %xmm3
vfmadd213ps %xmm12, %xmm2, %xmm3 # xmm3 = (xmm2 * xmm3) + xmm12
vsubps %xmm14, %xmm3, %xmm3
vfmadd231ps %xmm2, %xmm3, %xmm14 # xmm14 = (xmm3 * xmm2) + xmm14
vmulps %xmm3, %xmm15, %xmm2
vmovddup %xmm14, %xmm12 # xmm12 = xmm14[0,0]
vshufpd $0x3, %xmm14, %xmm14, %xmm3 # xmm3 = xmm14[1,1]
vshufps $0x55, %xmm9, %xmm9, %xmm13 # xmm13 = xmm9[1,1,1,1]
vsubps %xmm12, %xmm3, %xmm3
vfmadd231ps %xmm3, %xmm13, %xmm12 # xmm12 = (xmm13 * xmm3) + xmm12
vmovddup %xmm2, %xmm14 # xmm14 = xmm2[0,0]
vshufpd $0x3, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[1,1]
vsubps %xmm14, %xmm2, %xmm15
vfmadd213ps %xmm14, %xmm13, %xmm15 # xmm15 = (xmm13 * xmm15) + xmm14
vxorps %xmm30, %xmm3, %xmm2
vmovshdup %xmm15, %xmm13 # xmm13 = xmm15[1,1,3,3]
vxorps %xmm30, %xmm13, %xmm14
vmovshdup %xmm3, %xmm16 # xmm16 = xmm3[1,1,3,3]
vmovss 0x29286f(%rip), %xmm29 # 0x1f5fcfc
vpermt2ps %xmm3, %xmm29, %xmm14
vmulss %xmm3, %xmm13, %xmm3
vfmsub231ss %xmm16, %xmm15, %xmm3 # xmm3 = (xmm15 * xmm16) - xmm3
vmovss 0x28d4cf(%rip), %xmm13 # 0x1f5a974
vpermt2ps %xmm2, %xmm13, %xmm15
vbroadcastss %xmm3, %xmm3
vdivps %xmm3, %xmm14, %xmm2
vdivps %xmm3, %xmm15, %xmm3
vbroadcastss %xmm12, %xmm13
vmulps %xmm2, %xmm13, %xmm13
vshufps $0x55, %xmm12, %xmm12, %xmm12 # xmm12 = xmm12[1,1,1,1]
vmulps %xmm3, %xmm12, %xmm12
vaddps %xmm12, %xmm13, %xmm12
vsubps %xmm12, %xmm0, %xmm0
vmovshdup %xmm2, %xmm12 # xmm12 = xmm2[1,1,3,3]
vinsertps $0x1c, %xmm10, %xmm8, %xmm13 # xmm13 = xmm8[0],xmm10[0],zero,zero
vmulps %xmm13, %xmm12, %xmm14
vinsertps $0x1c, %xmm11, %xmm7, %xmm15 # xmm15 = xmm7[0],xmm11[0],zero,zero
vmulps %xmm15, %xmm12, %xmm12
vminps %xmm12, %xmm14, %xmm16
vmaxps %xmm14, %xmm12, %xmm12
vmovshdup %xmm3, %xmm14 # xmm14 = xmm3[1,1,3,3]
vinsertps $0x4c, %xmm8, %xmm10, %xmm8 # xmm8 = xmm8[1],xmm10[1],zero,zero
vmulps %xmm8, %xmm14, %xmm10
vinsertps $0x4c, %xmm7, %xmm11, %xmm7 # xmm7 = xmm7[1],xmm11[1],zero,zero
vmulps %xmm7, %xmm14, %xmm11
vminps %xmm11, %xmm10, %xmm14
vaddps %xmm14, %xmm16, %xmm14
vmaxps %xmm10, %xmm11, %xmm10
vaddps %xmm10, %xmm12, %xmm10
vmovddup 0x2539c0(%rip), %xmm11 # xmm11 = mem[0,0]
vsubps %xmm10, %xmm11, %xmm10
vsubps %xmm14, %xmm11, %xmm11
vsubps %xmm9, %xmm6, %xmm12
vsubps %xmm9, %xmm5, %xmm9
vmulps %xmm10, %xmm12, %xmm14
vbroadcastss %xmm2, %xmm16
vmulps %xmm13, %xmm16, %xmm13
vmulps %xmm15, %xmm16, %xmm15
vminps %xmm15, %xmm13, %xmm16
vmaxps %xmm13, %xmm15, %xmm13
vbroadcastss %xmm3, %xmm15
vmulps %xmm8, %xmm15, %xmm8
vmulps %xmm7, %xmm15, %xmm7
vminps %xmm7, %xmm8, %xmm15
vaddps %xmm15, %xmm16, %xmm15
vmulps %xmm11, %xmm12, %xmm16
vmulps %xmm10, %xmm9, %xmm10
vmulps %xmm11, %xmm9, %xmm11
vmaxps %xmm8, %xmm7, %xmm7
vaddps %xmm7, %xmm13, %xmm7
vmovddup 0x253959(%rip), %xmm8 # xmm8 = mem[0,0]
vsubps %xmm7, %xmm8, %xmm7
vsubps %xmm15, %xmm8, %xmm8
vmulps %xmm7, %xmm12, %xmm13
vmulps %xmm8, %xmm12, %xmm12
vmulps %xmm7, %xmm9, %xmm7
vmulps %xmm8, %xmm9, %xmm8
vminps %xmm12, %xmm13, %xmm9
vminps %xmm8, %xmm7, %xmm15
vminps %xmm15, %xmm9, %xmm9
vmaxps %xmm13, %xmm12, %xmm12
vmaxps %xmm7, %xmm8, %xmm7
vmaxps %xmm12, %xmm7, %xmm7
vminps %xmm16, %xmm14, %xmm8
vminps %xmm11, %xmm10, %xmm12
vminps %xmm12, %xmm8, %xmm8
vhaddps %xmm8, %xmm9, %xmm8
vmaxps %xmm14, %xmm16, %xmm9
vmaxps %xmm10, %xmm11, %xmm10
vmaxps %xmm9, %xmm10, %xmm9
vhaddps %xmm9, %xmm7, %xmm7
vshufps $0xe8, %xmm8, %xmm8, %xmm8 # xmm8 = xmm8[0,2,2,3]
vshufps $0xe8, %xmm7, %xmm7, %xmm9 # xmm9 = xmm7[0,2,2,3]
vaddps %xmm0, %xmm8, %xmm7
vaddps %xmm0, %xmm9, %xmm8
vmaxps %xmm7, %xmm6, %xmm6
vminps %xmm5, %xmm8, %xmm9
vcmpltps %xmm6, %xmm9, %k0
vinsertps $0x10, %xmm4, %xmm1, %xmm15 # xmm15 = xmm1[0],xmm4[0],xmm1[2,3]
kmovd %k0, %edx
testb $0x3, %dl
jne 0x1ccda87
vucomiss %xmm8, %xmm5
seta %sil
xorl %edx, %edx
vucomiss %xmm27, %xmm7
vmovaps %xmm27, %xmm14
jbe 0x1ccd6af
testb %sil, %sil
vxorps %xmm16, %xmm16, %xmm16
vmovss 0x22398c(%rip), %xmm11 # 0x1ef0fec
vmovaps 0x40(%rsp), %xmm29
vmovaps 0xa0(%rsp), %xmm9
vmovaps 0x90(%rsp), %xmm10
vmovaps 0x180(%rsp), %xmm12
vmovaps 0x170(%rsp), %xmm13
je 0x1ccd6e9
vcmpltps %xmm5, %xmm8, %k0
kshiftrb $0x1, %k0, %k0
kmovd %k0, %esi
vmovshdup %xmm7, %xmm4 # xmm4 = xmm7[1,1,3,3]
vucomiss %xmm1, %xmm4
seta %dl
andb %sil, %dl
jmp 0x1ccd6e9
vxorps %xmm16, %xmm16, %xmm16
vmovss 0x22392f(%rip), %xmm11 # 0x1ef0fec
vmovaps 0x40(%rsp), %xmm29
vmovaps 0xa0(%rsp), %xmm9
vmovaps 0x90(%rsp), %xmm10
vmovaps 0x180(%rsp), %xmm12
vmovaps 0x170(%rsp), %xmm13
orb %cl, %al
orb %dl, %al
cmpb $0x1, %al
jne 0x1ccda9d
movl $0xc8, %eax
vsubss %xmm0, %xmm20, %xmm1
vmulss %xmm1, %xmm1, %xmm4
vmulss %xmm4, %xmm1, %xmm5
vmulss %xmm0, %xmm11, %xmm6
vmulss %xmm4, %xmm6, %xmm4
vmulss %xmm0, %xmm0, %xmm6
vmulss %xmm6, %xmm11, %xmm7
vmulss %xmm7, %xmm1, %xmm1
vbroadcastss %xmm5, %xmm5
vbroadcastss %xmm4, %xmm4
vbroadcastss %xmm1, %xmm1
vmulss %xmm6, %xmm0, %xmm6
vbroadcastss %xmm6, %xmm6
vmulps %xmm6, %xmm12, %xmm6
vfmadd231ps %xmm1, %xmm10, %xmm6 # xmm6 = (xmm10 * xmm1) + xmm6
vfmadd231ps %xmm4, %xmm9, %xmm6 # xmm6 = (xmm9 * xmm4) + xmm6
vfmadd231ps %xmm5, %xmm29, %xmm6 # xmm6 = (xmm29 * xmm5) + xmm6
vmovddup %xmm6, %xmm1 # xmm1 = xmm6[0,0]
vshufpd $0x3, %xmm6, %xmm6, %xmm4 # xmm4 = xmm6[1,1]
vshufps $0x55, %xmm0, %xmm0, %xmm5 # xmm5 = xmm0[1,1,1,1]
vsubps %xmm1, %xmm4, %xmm4
vfmadd213ps %xmm1, %xmm5, %xmm4 # xmm4 = (xmm5 * xmm4) + xmm1
vbroadcastss %xmm4, %xmm1
vmulps %xmm1, %xmm2, %xmm1
vshufps $0x55, %xmm4, %xmm4, %xmm5 # xmm5 = xmm4[1,1,1,1]
vmulps %xmm5, %xmm3, %xmm5
vaddps %xmm5, %xmm1, %xmm1
vsubps %xmm1, %xmm0, %xmm0
vandps %xmm17, %xmm4, %xmm1
vprolq $0x20, %xmm1, %xmm4
vmaxss %xmm1, %xmm4, %xmm1
vucomiss %xmm1, %xmm13
ja 0x1ccd79e
decq %rax
jne 0x1ccd6fa
jmp 0x1ccda74
vucomiss %xmm16, %xmm0
jb 0x1ccda74
vucomiss %xmm0, %xmm20
jb 0x1ccda74
vmovshdup %xmm0, %xmm1 # xmm1 = xmm0[1,1,3,3]
vucomiss %xmm16, %xmm1
jb 0x1ccda74
vucomiss %xmm1, %xmm20
jb 0x1ccda74
vmovss 0x18(%r15), %xmm2
vinsertps $0x1c, 0x28(%r15), %xmm2, %xmm2 # xmm2 = xmm2[0],mem[0],zero,zero
vinsertps $0x28, 0x38(%r15), %xmm2, %xmm2 # xmm2 = xmm2[0,1],mem[0],zero
vmovaps (%r10), %xmm3
vmovaps 0x160(%rsp), %xmm4
vsubps %xmm3, %xmm4, %xmm4
vdpps $0x7f, %xmm2, %xmm4, %xmm4
vmovaps 0x120(%rsp), %xmm5
vsubps %xmm3, %xmm5, %xmm5
vdpps $0x7f, %xmm2, %xmm5, %xmm5
vmovaps 0x110(%rsp), %xmm6
vsubps %xmm3, %xmm6, %xmm6
vdpps $0x7f, %xmm2, %xmm6, %xmm6
vmovaps 0x140(%rsp), %xmm7
vsubps %xmm3, %xmm7, %xmm7
vdpps $0x7f, %xmm2, %xmm7, %xmm7
vmovaps 0x150(%rsp), %xmm8
vsubps %xmm3, %xmm8, %xmm8
vdpps $0x7f, %xmm2, %xmm8, %xmm8
vmovaps 0x100(%rsp), %xmm9
vsubps %xmm3, %xmm9, %xmm9
vdpps $0x7f, %xmm2, %xmm9, %xmm9
vmovaps 0xf0(%rsp), %xmm10
vsubps %xmm3, %xmm10, %xmm10
vdpps $0x7f, %xmm2, %xmm10, %xmm10
vmovaps 0x130(%rsp), %xmm12
vsubps %xmm3, %xmm12, %xmm3
vdpps $0x7f, %xmm2, %xmm3, %xmm2
vsubss %xmm1, %xmm20, %xmm3
vmulss %xmm1, %xmm8, %xmm8
vmulss %xmm1, %xmm9, %xmm9
vmulss %xmm1, %xmm10, %xmm10
vmulss %xmm2, %xmm1, %xmm1
vfmadd231ss %xmm4, %xmm3, %xmm8 # xmm8 = (xmm3 * xmm4) + xmm8
vfmadd231ss %xmm5, %xmm3, %xmm9 # xmm9 = (xmm3 * xmm5) + xmm9
vfmadd231ss %xmm6, %xmm3, %xmm10 # xmm10 = (xmm3 * xmm6) + xmm10
vfmadd231ss %xmm7, %xmm3, %xmm1 # xmm1 = (xmm3 * xmm7) + xmm1
vsubss %xmm0, %xmm20, %xmm6
vmulss %xmm6, %xmm6, %xmm3
vmulss %xmm3, %xmm6, %xmm2
vmulss %xmm0, %xmm11, %xmm4
vmulss %xmm3, %xmm4, %xmm3
vmulps %xmm0, %xmm0, %xmm5
vmulss %xmm5, %xmm11, %xmm4
vmulss %xmm4, %xmm6, %xmm4
vmulps %xmm5, %xmm0, %xmm5
vmulss %xmm1, %xmm5, %xmm1
vfmadd231ss %xmm10, %xmm4, %xmm1 # xmm1 = (xmm4 * xmm10) + xmm1
vfmadd231ss %xmm9, %xmm3, %xmm1 # xmm1 = (xmm3 * xmm9) + xmm1
vfmadd231ss %xmm8, %xmm2, %xmm1 # xmm1 = (xmm2 * xmm8) + xmm1
vucomiss 0xc(%r10), %xmm1
jb 0x1ccda74
vmovss 0x20(%r10), %xmm12
vucomiss %xmm1, %xmm12
jb 0x1ccda74
movq %rbp, %r12
movq %r13, %rbp
vshufps $0x55, %xmm0, %xmm0, %xmm7 # xmm7 = xmm0[1,1,1,1]
vsubps %xmm7, %xmm23, %xmm8
vmulps 0x150(%rsp), %xmm7, %xmm9
vmulps 0x100(%rsp), %xmm7, %xmm10
vmulps 0xf0(%rsp), %xmm7, %xmm11
vmulps 0x130(%rsp), %xmm7, %xmm7
vfmadd231ps 0x160(%rsp), %xmm8, %xmm9 # xmm9 = (xmm8 * mem) + xmm9
vfmadd231ps 0x120(%rsp), %xmm8, %xmm10 # xmm10 = (xmm8 * mem) + xmm10
vfmadd231ps 0x110(%rsp), %xmm8, %xmm11 # xmm11 = (xmm8 * mem) + xmm11
vfmadd231ps 0x140(%rsp), %xmm8, %xmm7 # xmm7 = (xmm8 * mem) + xmm7
vsubps %xmm9, %xmm10, %xmm8
vsubps %xmm10, %xmm11, %xmm9
vsubps %xmm11, %xmm7, %xmm7
vbroadcastss %xmm0, %xmm10
vmulps %xmm9, %xmm10, %xmm11
vbroadcastss %xmm6, %xmm6
vfmadd231ps %xmm8, %xmm6, %xmm11 # xmm11 = (xmm6 * xmm8) + xmm11
vmulps %xmm7, %xmm10, %xmm7
vfmadd231ps %xmm9, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm9) + xmm7
vmulps %xmm7, %xmm10, %xmm7
vfmadd231ps %xmm11, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm11) + xmm7
vmulps 0x22364e(%rip){1to4}, %xmm7, %xmm6 # 0x1ef0fec
movq (%r9), %rax
movq 0x1e8(%rax), %rax
movq (%rax,%r8,8), %r13
movl 0x24(%r10), %eax
testl %eax, 0x34(%r13)
je 0x1ccda6e
vbroadcastss %xmm5, %xmm5
vmulps 0x250(%rsp), %xmm5, %xmm5
vbroadcastss %xmm4, %xmm4
vfmadd132ps 0x260(%rsp), %xmm5, %xmm4 # xmm4 = (xmm4 * mem) + xmm5
vbroadcastss %xmm3, %xmm3
vfmadd132ps 0x270(%rsp), %xmm4, %xmm3 # xmm3 = (xmm3 * mem) + xmm4
vbroadcastss %xmm2, %xmm2
vfmadd132ps 0x280(%rsp), %xmm3, %xmm2 # xmm2 = (xmm2 * mem) + xmm3
vshufps $0xc9, %xmm2, %xmm2, %xmm3 # xmm3 = xmm2[1,2,0,3]
vshufps $0xc9, %xmm6, %xmm6, %xmm4 # xmm4 = xmm6[1,2,0,3]
vmulps %xmm4, %xmm2, %xmm2
vfmsub231ps %xmm3, %xmm6, %xmm2 # xmm2 = (xmm6 * xmm3) - xmm2
movq 0x10(%r9), %rax
cmpq $0x0, 0x10(%rax)
vmovaps (%rsp), %xmm7
jne 0x1ccdab6
cmpq $0x0, 0x40(%r13)
jne 0x1ccdab6
vmovss %xmm1, 0x20(%r10)
vshufps $0xe9, %xmm2, %xmm2, %xmm1 # xmm1 = xmm2[1,2,2,3]
vmovlps %xmm1, 0x30(%r10)
vmovss %xmm2, 0x38(%r10)
vmovlps %xmm0, 0x3c(%r10)
movq 0x58(%rsp), %rax
movl %eax, 0x44(%r10)
movl %r8d, 0x48(%r10)
movq 0x8(%r9), %rax
movl (%rax), %eax
movl %eax, 0x4c(%r10)
movq 0x8(%r9), %rax
movl 0x4(%rax), %eax
movl %eax, 0x50(%r10)
movq %rbp, %r13
movq %r12, %rbp
jmp 0x1ccda79
movq %rbp, %r13
movq %r12, %rbp
vmovaps (%rsp), %xmm7
testb %r14b, %r14b
jne 0x1cccddf
jmp 0x1ccdda5
vxorps %xmm16, %xmm16, %xmm16
vmovaps 0x40(%rsp), %xmm29
vmovaps %xmm27, %xmm14
jmp 0x1ccda74
xorl %r14d, %r14d
jmp 0x1ccda74
movb $0x1, %r14b
vmovaps %xmm27, %xmm15
vmovaps 0x80(%rsp), %xmm14
jmp 0x1ccda74
movq 0x8(%r9), %rax
vshufps $0xe9, %xmm2, %xmm2, %xmm3 # xmm3 = xmm2[1,2,2,3]
vmovlps %xmm3, 0x220(%rsp)
vmovss %xmm2, 0x228(%rsp)
vmovlps %xmm0, 0x22c(%rsp)
movq 0x58(%rsp), %rcx
movl %ecx, 0x234(%rsp)
movl %r8d, 0x238(%rsp)
movl (%rax), %ecx
movl %ecx, 0x23c(%rsp)
movl 0x4(%rax), %eax
movl %eax, 0x240(%rsp)
vmovss %xmm1, 0x20(%r10)
movl $0xffffffff, 0x3c(%rsp) # imm = 0xFFFFFFFF
leaq 0x3c(%rsp), %rax
movq %rax, 0xb0(%rsp)
movq 0x18(%r13), %rax
movq %rax, 0xb8(%rsp)
movq 0x8(%r9), %rax
movq %rax, 0xc0(%rsp)
movq %r10, 0xc8(%rsp)
leaq 0x220(%rsp), %rax
movq %rax, 0xd0(%rsp)
movl $0x1, 0xd8(%rsp)
movq 0x40(%r13), %rax
testq %rax, %rax
vmovaps %xmm15, 0xe0(%rsp)
vmovss %xmm12, 0x1c(%rsp)
je 0x1ccdc49
leaq 0xb0(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0x1c(%rsp), %xmm12
vmovaps (%rsp), %xmm7
vmovaps 0x80(%rsp), %xmm14
vmovaps 0xe0(%rsp), %xmm15
vmovaps 0x60(%rsp), %xmm28
vmovaps 0x70(%rsp), %xmm26
vmovaps 0x40(%rsp), %xmm29
movq 0x30(%rsp), %r8
vxorps %xmm16, %xmm16, %xmm16
vmovss 0x222e0e(%rip), %xmm25 # 0x1ef09d8
vmovss 0x2242e8(%rip), %xmm24 # 0x1ef1ebc
vbroadcastss 0x21eb36(%rip), %xmm23 # 0x1eec714
vmovss 0x223e64(%rip), %xmm22 # 0x1ef1a4c
vmovss 0x22340e(%rip), %xmm21 # 0x1ef1000
vmovss 0x21eb18(%rip), %xmm20 # 0x1eec714
vmovss 0x2532da(%rip), %xmm19 # 0x1f20ee0
vbroadcastss 0x2233dc(%rip), %ymm18 # 0x1ef0fec
vbroadcastss 0x2532aa(%rip), %xmm17 # 0x1f20ec4
vbroadcastss 0x21ef5c(%rip), %xmm31 # 0x1eecb80
vbroadcastss 0x253292(%rip), %xmm30 # 0x1f20ec0
movq 0x20(%rsp), %r10
movq 0x28(%rsp), %r9
movq 0xb0(%rsp), %rax
cmpl $0x0, (%rax)
je 0x1ccdd9a
movq 0x10(%r9), %rcx
movq 0x10(%rcx), %rax
testq %rax, %rax
je 0x1ccdd3c
testb $0x2, (%rcx)
jne 0x1ccdc6a
testb $0x40, 0x3e(%r13)
je 0x1ccdd2f
leaq 0xb0(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0x1c(%rsp), %xmm12
vmovaps (%rsp), %xmm7
vmovaps 0x80(%rsp), %xmm14
vmovaps 0xe0(%rsp), %xmm15
vmovaps 0x60(%rsp), %xmm28
vmovaps 0x70(%rsp), %xmm26
vmovaps 0x40(%rsp), %xmm29
movq 0x30(%rsp), %r8
vxorps %xmm16, %xmm16, %xmm16
vmovss 0x222d17(%rip), %xmm25 # 0x1ef09d8
vmovss 0x2241f1(%rip), %xmm24 # 0x1ef1ebc
vbroadcastss 0x21ea3f(%rip), %xmm23 # 0x1eec714
vmovss 0x223d6d(%rip), %xmm22 # 0x1ef1a4c
vmovss 0x223317(%rip), %xmm21 # 0x1ef1000
vmovss 0x21ea21(%rip), %xmm20 # 0x1eec714
vmovss 0x2531e3(%rip), %xmm19 # 0x1f20ee0
vbroadcastss 0x2232e5(%rip), %ymm18 # 0x1ef0fec
vbroadcastss 0x2531b3(%rip), %xmm17 # 0x1f20ec4
vbroadcastss 0x21ee65(%rip), %xmm31 # 0x1eecb80
vbroadcastss 0x25319b(%rip), %xmm30 # 0x1f20ec0
movq 0x20(%rsp), %r10
movq 0x28(%rsp), %r9
movq 0xb0(%rsp), %rax
cmpl $0x0, (%rax)
je 0x1ccdd9a
movq 0xc8(%rsp), %rax
movq 0xd0(%rsp), %rcx
vmovss (%rcx), %xmm0
vmovss %xmm0, 0x30(%rax)
vmovss 0x4(%rcx), %xmm0
vmovss %xmm0, 0x34(%rax)
vmovss 0x8(%rcx), %xmm0
vmovss %xmm0, 0x38(%rax)
vmovss 0xc(%rcx), %xmm0
vmovss %xmm0, 0x3c(%rax)
vmovss 0x10(%rcx), %xmm0
vmovss %xmm0, 0x40(%rax)
movl 0x14(%rcx), %edx
movl %edx, 0x44(%rax)
movl 0x18(%rcx), %edx
movl %edx, 0x48(%rax)
movl 0x1c(%rcx), %edx
movl %edx, 0x4c(%rax)
movl 0x20(%rcx), %ecx
movl %ecx, 0x50(%rax)
jmp 0x1ccda66
vmovss %xmm12, 0x20(%r10)
jmp 0x1ccda66
vinsertps $0x10, %xmm7, %xmm14, %xmm0 # xmm0 = xmm14[0],xmm7[0],xmm14[2,3]
vmovaps 0x200(%rsp), %xmm6
vmovaps 0x1f0(%rsp), %xmm11
vmovaps 0x1e0(%rsp), %xmm17
vmovdqa 0x1d0(%rsp), %xmm7
vmovaps 0x1c0(%rsp), %xmm5
vmovaps 0x1b0(%rsp), %xmm8
vmovaps 0x1a0(%rsp), %xmm9
vmovaps 0x190(%rsp), %xmm10
vmovups 0x300(%rsp), %ymm28
vmovups 0x2e0(%rsp), %ymm26
jmp 0x1ccc8cd
vmovups 0x2c0(%rsp), %ymm0
vcmpleps 0x20(%r10){1to8}, %ymm0, %k0
kmovb %k0, %eax
andl %eax, %ebp
jne 0x1ccc210
addq $0x348, %rsp # imm = 0x348
popq %rbx
popq %r12
popq %r13
popq %r14
popq %r15
popq %rbp
vzeroupper
retq
nop
|
/embree[P]embree/kernels/geometry/curveNi_intersector.h
|
bool embree::avx512::CurveNiIntersector1<8>::occluded_n<embree::avx512::OrientedCurve1Intersector1<embree::CatmullRomCurveT, 7, 8>, embree::avx512::Occluded1Epilog1<true>>(embree::avx512::CurvePrecalculations1 const&, embree::RayK<1>&, embree::RayQueryContext*, embree::CurveNi<8> const&)
|
static __forceinline bool occluded_n(const Precalculations& pre, Ray& ray, RayQueryContext* context, const Primitive& prim)
{
vfloat<M> tNear;
vbool<M> valid = intersect(ray,prim,tNear);
const size_t N = prim.N;
size_t mask = movemask(valid);
while (mask)
{
const size_t i = bscf(mask);
STAT3(shadow.trav_prims,1,1,1);
const unsigned int geomID = prim.geomID(N);
const unsigned int primID = prim.primID(N)[i];
const CurveGeometry* geom = context->scene->get<CurveGeometry>(geomID);
unsigned int vertexID = geom->curve(primID);
Vec3ff a0,a1,a2,a3; Vec3fa n0,n1,n2,n3; geom->gather(a0,a1,a2,a3,n0,n1,n2,n3,vertexID);
size_t mask1 = mask;
const size_t i1 = bscf(mask1);
if (mask) {
const unsigned int primID1 = prim.primID(N)[i1];
geom->prefetchL1_vertices(geom->curve(primID1));
if (mask1) {
const size_t i2 = bsf(mask1);
const unsigned int primID2 = prim.primID(N)[i2];
geom->prefetchL2_vertices(geom->curve(primID2));
}
}
if (Intersector().intersect(pre,ray,context,geom,primID,a0,a1,a2,a3,n0,n1,n2,n3,Epilog(ray,context,geomID,primID)))
return true;
mask &= movemask(tNear <= vfloat<M>(ray.tfar));
}
return false;
}
|
pushq %rbp
pushq %r15
pushq %r14
pushq %r13
pushq %r12
pushq %rbx
subq $0x348, %rsp # imm = 0x348
movq %rdx, %r9
movq %rsi, %r15
movq %rdi, %r12
movzbl 0x1(%rcx), %eax
leaq (%rax,%rax,4), %r8
leaq (%r8,%r8,4), %rdx
vbroadcastss 0x12(%rcx,%rdx), %xmm0
vmovaps (%rsi), %xmm1
vsubps 0x6(%rcx,%rdx), %xmm1, %xmm1
vmulps 0x10(%rsi), %xmm0, %xmm2
vmulps %xmm1, %xmm0, %xmm3
vpmovsxbd 0x6(%rcx,%rax,4), %ymm0
vcvtdq2ps %ymm0, %ymm5
vpmovsxbd 0x6(%rcx,%r8), %ymm0
vcvtdq2ps %ymm0, %ymm6
leaq (%rax,%rax,2), %rdx
vpmovsxbd 0x6(%rcx,%rdx,2), %ymm0
vcvtdq2ps %ymm0, %ymm7
leaq (%rax,%r8,2), %rsi
vpmovsxbd 0x6(%rcx,%rsi), %ymm0
vcvtdq2ps %ymm0, %ymm8
leal (,%rdx,4), %esi
vpmovsxbd 0x6(%rcx,%rsi), %ymm0
vcvtdq2ps %ymm0, %ymm9
addq %rax, %rsi
vpmovsxbd 0x6(%rcx,%rsi), %ymm0
vcvtdq2ps %ymm0, %ymm10
leaq (%rax,%rax,8), %rsi
leal (%rsi,%rsi), %edi
vpmovsxbd 0x6(%rcx,%rdi), %ymm0
addq %rax, %rdi
vpmovsxbd 0x6(%rcx,%rdi), %ymm1
vcvtdq2ps %ymm0, %ymm11
vcvtdq2ps %ymm1, %ymm12
shll $0x2, %r8d
vpmovsxbd 0x6(%rcx,%r8), %ymm0
vcvtdq2ps %ymm0, %ymm13
vbroadcastss %xmm2, %ymm14
vbroadcastss 0x2447f8(%rip), %ymm16 # 0x1f12704
vpermps %ymm2, %ymm16, %ymm15
vbroadcastss 0x252fc0(%rip), %ymm17 # 0x1f20edc
vpermps %ymm2, %ymm17, %ymm0
vmulps %ymm7, %ymm0, %ymm4
vmulps %ymm0, %ymm10, %ymm1
vmulps %ymm0, %ymm13, %ymm0
vfmadd231ps %ymm6, %ymm15, %ymm4 # ymm4 = (ymm15 * ymm6) + ymm4
vfmadd231ps %ymm9, %ymm15, %ymm1 # ymm1 = (ymm15 * ymm9) + ymm1
vfmadd231ps %ymm15, %ymm12, %ymm0 # ymm0 = (ymm12 * ymm15) + ymm0
vfmadd231ps %ymm5, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm5) + ymm4
vfmadd231ps %ymm8, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm8) + ymm1
vfmadd231ps %ymm14, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm14) + ymm0
vbroadcastss %xmm3, %ymm14
vpermps %ymm3, %ymm16, %ymm15
vpermps %ymm3, %ymm17, %ymm2
vmulps %ymm7, %ymm2, %ymm7
vmulps %ymm2, %ymm10, %ymm3
vmulps %ymm2, %ymm13, %ymm2
vfmadd231ps %ymm6, %ymm15, %ymm7 # ymm7 = (ymm15 * ymm6) + ymm7
vfmadd231ps %ymm9, %ymm15, %ymm3 # ymm3 = (ymm15 * ymm9) + ymm3
vfmadd231ps %ymm12, %ymm15, %ymm2 # ymm2 = (ymm15 * ymm12) + ymm2
vfmadd231ps %ymm5, %ymm14, %ymm7 # ymm7 = (ymm14 * ymm5) + ymm7
vfmadd231ps %ymm8, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm8) + ymm3
vfmadd231ps %ymm11, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm11) + ymm2
vbroadcastss 0x252f34(%rip), %ymm5 # 0x1f20ec4
vandps %ymm5, %ymm4, %ymm6
vbroadcastss 0x22304b(%rip), %ymm8 # 0x1ef0fe8
vcmpltps %ymm8, %ymm6, %k1
vmovaps %ymm8, %ymm4 {%k1}
vandps %ymm5, %ymm1, %ymm6
vcmpltps %ymm8, %ymm6, %k1
vmovaps %ymm8, %ymm1 {%k1}
vandps %ymm5, %ymm0, %ymm5
vcmpltps %ymm8, %ymm5, %k1
vmovaps %ymm8, %ymm0 {%k1}
vrcp14ps %ymm4, %ymm5
vbroadcastss 0x21e739(%rip), %ymm6 # 0x1eec714
vfnmadd213ps %ymm6, %ymm5, %ymm4 # ymm4 = -(ymm5 * ymm4) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm4 # ymm4 = (ymm4 * ymm5) + ymm5
vrcp14ps %ymm1, %ymm5
vfnmadd213ps %ymm6, %ymm5, %ymm1 # ymm1 = -(ymm5 * ymm1) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm1 # ymm1 = (ymm1 * ymm5) + ymm5
vrcp14ps %ymm0, %ymm5
vfnmadd213ps %ymm6, %ymm5, %ymm0 # ymm0 = -(ymm5 * ymm0) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm0 # ymm0 = (ymm0 * ymm5) + ymm5
leaq (,%rax,8), %rdi
subq %rax, %rdi
vpmovsxwd 0x6(%rcx,%rdi), %ymm5
vcvtdq2ps %ymm5, %ymm5
vsubps %ymm7, %ymm5, %ymm5
vpmovsxwd 0x6(%rcx,%rsi), %ymm6
vmulps %ymm5, %ymm4, %ymm5
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm7, %ymm6, %ymm6
vmulps %ymm6, %ymm4, %ymm4
leaq (%rax,%rax), %rsi
addq %rax, %r8
shlq $0x3, %rdx
subq %rax, %rdx
movl %eax, %edi
shll $0x4, %edi
vpmovsxwd 0x6(%rcx,%rdi), %ymm6
subq %rsi, %rdi
vpmovsxwd 0x6(%rcx,%rdi), %ymm7
vcvtdq2ps %ymm7, %ymm7
vsubps %ymm3, %ymm7, %ymm7
vmulps %ymm7, %ymm1, %ymm7
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm3, %ymm6, %ymm3
vmulps %ymm3, %ymm1, %ymm1
vpmovsxwd 0x6(%rcx,%r8), %ymm3
vcvtdq2ps %ymm3, %ymm3
vsubps %ymm2, %ymm3, %ymm3
vmulps %ymm0, %ymm3, %ymm3
vpmovsxwd 0x6(%rcx,%rdx), %ymm6
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm2, %ymm6, %ymm2
vmulps %ymm2, %ymm0, %ymm0
vpminsd %ymm4, %ymm5, %ymm2
vpminsd %ymm1, %ymm7, %ymm6
vmaxps %ymm6, %ymm2, %ymm2
vpminsd %ymm0, %ymm3, %ymm6
vmaxps 0xc(%r15){1to8}, %ymm6, %ymm6
vmaxps %ymm6, %ymm2, %ymm2
vmulps 0x251e50(%rip){1to8}, %ymm2, %ymm6 # 0x1f1ff10
vpmaxsd %ymm4, %ymm5, %ymm2
vpmaxsd %ymm1, %ymm7, %ymm1
vminps %ymm1, %ymm2, %ymm1
vpmaxsd %ymm0, %ymm3, %ymm0
vminps 0x20(%r15){1to8}, %ymm0, %ymm0
vminps %ymm0, %ymm1, %ymm0
vmulps 0x251e2c(%rip){1to8}, %ymm0, %ymm0 # 0x1f1ff14
vpbroadcastd %eax, %ymm1
vpcmpgtd 0x28c828(%rip), %ymm1, %k0 # 0x1f5a920
vmovups %ymm6, 0x2c0(%rsp)
vcmpleps %ymm0, %ymm6, %k1
ktestb %k0, %k1
setne 0xb(%rsp)
je 0x1ccfcc2
kandb %k0, %k1, %k0
kmovd %k0, %eax
movzbl %al, %r13d
vbroadcastss 0x252d93(%rip), %xmm30 # 0x1f20ec0
vbroadcastss 0x21ea49(%rip), %xmm31 # 0x1eecb80
vbroadcastss 0x252d83(%rip), %xmm17 # 0x1f20ec4
movq %rcx, 0xa8(%rsp)
movq %r9, 0x20(%rsp)
tzcntq %r13, %rax
movl 0x2(%rcx), %edx
movl 0x6(%rcx,%rax,4), %edi
movq (%r9), %rax
movq 0x1e8(%rax), %rax
movq %rdx, 0x48(%rsp)
movq (%rax,%rdx,8), %rsi
movq 0x58(%rsi), %rax
movq 0x68(%rsi), %rbp
movq %rbp, %rdx
movq %rdi, 0xa0(%rsp)
imulq %rdi, %rdx
movl (%rax,%rdx), %r9d
movq 0xa0(%rsi), %rdx
movq %rdx, %rdi
imulq %r9, %rdi
leaq 0x1(%r9), %r11
leaq 0x2(%r9), %r10
leaq 0x3(%r9), %r8
movq 0xd8(%rsi), %rbx
imulq %rbx, %r9
movq 0xc8(%rsi), %r14
vmovups (%r14,%r9), %xmm4
movq %rdx, %r9
imulq %r11, %r9
imulq %rbx, %r11
vmovups (%r14,%r11), %xmm5
movq %rdx, %r11
imulq %r10, %r11
imulq %rbx, %r10
vmovups (%r14,%r10), %xmm6
imulq %r8, %rbx
vmovups (%r14,%rbx), %xmm7
movq %rdx, %r10
imulq %r8, %r10
movq 0x90(%rsi), %rsi
vmovaps (%rsi,%rdi), %xmm8
vmovaps (%rsi,%r9), %xmm9
vmovaps (%rsi,%r11), %xmm10
blsrq %r13, %r13
vmovaps (%rsi,%r10), %xmm3
movq %r13, %rdi
subq $0x1, %rdi
jb 0x1cce25f
andq %r13, %rdi
tzcntq %r13, %r8
movl 0x6(%rcx,%r8,4), %r8d
imulq %rbp, %r8
movl (%rax,%r8), %r8d
imulq %rdx, %r8
prefetcht0 (%rsi,%r8)
prefetcht0 0x40(%rsi,%r8)
testq %rdi, %rdi
je 0x1cce25f
tzcntq %rdi, %rdi
movl 0x6(%rcx,%rdi,4), %edi
imulq %rdi, %rbp
movl (%rax,%rbp), %eax
imulq %rax, %rdx
prefetcht1 (%rsi,%rdx)
prefetcht1 0x40(%rsi,%rdx)
vmulps %xmm30, %xmm3, %xmm2
vxorps %xmm0, %xmm0, %xmm0
vfmadd213ps %xmm2, %xmm10, %xmm0 # xmm0 = (xmm10 * xmm0) + xmm2
vaddps %xmm0, %xmm9, %xmm0
vfmadd231ps %xmm30, %xmm8, %xmm0 # xmm0 = (xmm8 * xmm30) + xmm0
vxorps %xmm18, %xmm18, %xmm18
vmulps %xmm18, %xmm3, %xmm1
vfmadd231ps %xmm31, %xmm10, %xmm1 # xmm1 = (xmm10 * xmm31) + xmm1
vfmadd231ps %xmm18, %xmm9, %xmm1 # xmm1 = (xmm9 * xmm18) + xmm1
vfnmadd231ps %xmm31, %xmm8, %xmm1 # xmm1 = -(xmm8 * xmm31) + xmm1
vmulps %xmm30, %xmm7, %xmm11
vxorps %xmm12, %xmm12, %xmm12
vfmadd213ps %xmm11, %xmm6, %xmm12 # xmm12 = (xmm6 * xmm12) + xmm11
vaddps %xmm5, %xmm12, %xmm12
vfmadd231ps %xmm30, %xmm4, %xmm12 # xmm12 = (xmm4 * xmm30) + xmm12
vmulps %xmm18, %xmm7, %xmm13
vfmadd231ps %xmm31, %xmm6, %xmm13 # xmm13 = (xmm6 * xmm31) + xmm13
vfmadd231ps %xmm18, %xmm5, %xmm13 # xmm13 = (xmm5 * xmm18) + xmm13
vfnmadd231ps %xmm31, %xmm4, %xmm13 # xmm13 = -(xmm4 * xmm31) + xmm13
vaddps %xmm2, %xmm10, %xmm2
vfmadd231ps %xmm18, %xmm9, %xmm2 # xmm2 = (xmm9 * xmm18) + xmm2
vfmadd231ps %xmm30, %xmm8, %xmm2 # xmm2 = (xmm8 * xmm30) + xmm2
vmulps %xmm31, %xmm3, %xmm3
vfmadd231ps %xmm10, %xmm18, %xmm3 # xmm3 = (xmm18 * xmm10) + xmm3
vfnmadd231ps %xmm9, %xmm31, %xmm3 # xmm3 = -(xmm31 * xmm9) + xmm3
vfmadd231ps %xmm8, %xmm18, %xmm3 # xmm3 = (xmm18 * xmm8) + xmm3
vaddps %xmm6, %xmm11, %xmm8
vfmadd231ps %xmm18, %xmm5, %xmm8 # xmm8 = (xmm5 * xmm18) + xmm8
vfmadd231ps %xmm30, %xmm4, %xmm8 # xmm8 = (xmm4 * xmm30) + xmm8
vmulps %xmm31, %xmm7, %xmm7
vfmadd231ps %xmm6, %xmm18, %xmm7 # xmm7 = (xmm18 * xmm6) + xmm7
vfnmadd231ps %xmm5, %xmm31, %xmm7 # xmm7 = -(xmm31 * xmm5) + xmm7
vfmadd231ps %xmm4, %xmm18, %xmm7 # xmm7 = (xmm18 * xmm4) + xmm7
vshufps $0xc9, %xmm1, %xmm1, %xmm4 # xmm4 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm12, %xmm12, %xmm5 # xmm5 = xmm12[1,2,0,3]
vmulps %xmm5, %xmm1, %xmm5
vfmsub231ps %xmm12, %xmm4, %xmm5 # xmm5 = (xmm4 * xmm12) - xmm5
vshufps $0xc9, %xmm5, %xmm5, %xmm6 # xmm6 = xmm5[1,2,0,3]
vshufps $0xc9, %xmm13, %xmm13, %xmm5 # xmm5 = xmm13[1,2,0,3]
vmulps %xmm5, %xmm1, %xmm5
vfmsub231ps %xmm13, %xmm4, %xmm5 # xmm5 = (xmm4 * xmm13) - xmm5
vshufps $0xc9, %xmm5, %xmm5, %xmm9 # xmm9 = xmm5[1,2,0,3]
vshufps $0xc9, %xmm3, %xmm3, %xmm5 # xmm5 = xmm3[1,2,0,3]
vshufps $0xc9, %xmm8, %xmm8, %xmm4 # xmm4 = xmm8[1,2,0,3]
vmulps %xmm4, %xmm3, %xmm4
vfmsub231ps %xmm8, %xmm5, %xmm4 # xmm4 = (xmm5 * xmm8) - xmm4
vshufps $0xc9, %xmm4, %xmm4, %xmm4 # xmm4 = xmm4[1,2,0,3]
vshufps $0xc9, %xmm7, %xmm7, %xmm8 # xmm8 = xmm7[1,2,0,3]
vmulps %xmm3, %xmm8, %xmm8
vfmsub231ps %xmm7, %xmm5, %xmm8 # xmm8 = (xmm5 * xmm7) - xmm8
vshufps $0xc9, %xmm8, %xmm8, %xmm5 # xmm5 = xmm8[1,2,0,3]
vdpps $0x7f, %xmm6, %xmm6, %xmm7
vmovss %xmm7, %xmm18, %xmm8 # xmm8 = xmm7[0],xmm18[1,2,3]
vrsqrt14ss %xmm8, %xmm18, %xmm10
vmovss 0x21e38c(%rip), %xmm14 # 0x1eec718
vmulss %xmm14, %xmm10, %xmm11
vmovss 0x21e383(%rip), %xmm15 # 0x1eec71c
vmulss %xmm7, %xmm15, %xmm12
vmulss %xmm10, %xmm12, %xmm12
vmulss %xmm10, %xmm10, %xmm10
vmulss %xmm10, %xmm12, %xmm10
vaddss %xmm10, %xmm11, %xmm10
vdpps $0x7f, %xmm9, %xmm6, %xmm11
vbroadcastss %xmm10, %xmm10
vmulps %xmm6, %xmm10, %xmm12
vbroadcastss %xmm7, %xmm13
vmulps %xmm13, %xmm9, %xmm9
vbroadcastss %xmm11, %xmm11
vmulps %xmm6, %xmm11, %xmm6
vsubps %xmm6, %xmm9, %xmm6
vrcp14ss %xmm8, %xmm18, %xmm8
vmovss 0x222c11(%rip), %xmm16 # 0x1ef0ff8
vfnmadd213ss %xmm16, %xmm8, %xmm7 # xmm7 = -(xmm8 * xmm7) + xmm16
vmulss %xmm7, %xmm8, %xmm7
vbroadcastss %xmm7, %xmm7
vmulps %xmm7, %xmm6, %xmm6
vmulps %xmm6, %xmm10, %xmm6
vdpps $0x7f, %xmm4, %xmm4, %xmm7
vmovss %xmm7, %xmm18, %xmm8 # xmm8 = xmm7[0],xmm18[1,2,3]
vrsqrt14ss %xmm8, %xmm18, %xmm9
vmulss %xmm14, %xmm9, %xmm10
vmulss %xmm7, %xmm15, %xmm11
vmulss %xmm9, %xmm11, %xmm11
vmulss %xmm9, %xmm9, %xmm9
vmulss %xmm9, %xmm11, %xmm9
vaddss %xmm9, %xmm10, %xmm9
vbroadcastss %xmm9, %xmm9
vdpps $0x7f, %xmm5, %xmm4, %xmm10
vmulps %xmm4, %xmm9, %xmm11
vbroadcastss %xmm7, %xmm13
vmulps %xmm5, %xmm13, %xmm5
vbroadcastss %xmm10, %xmm10
vmulps %xmm4, %xmm10, %xmm4
vsubps %xmm4, %xmm5, %xmm4
vrcp14ss %xmm8, %xmm18, %xmm5
vfnmadd213ss %xmm16, %xmm5, %xmm7 # xmm7 = -(xmm5 * xmm7) + xmm16
vmulss %xmm7, %xmm5, %xmm5
vbroadcastss %xmm5, %xmm5
vmulps %xmm5, %xmm4, %xmm4
vmulps %xmm4, %xmm9, %xmm4
vshufps $0xff, %xmm0, %xmm0, %xmm5 # xmm5 = xmm0[3,3,3,3]
vmulps %xmm5, %xmm12, %xmm7
vsubps %xmm7, %xmm0, %xmm13
vshufps $0xff, %xmm1, %xmm1, %xmm8 # xmm8 = xmm1[3,3,3,3]
vmulps %xmm12, %xmm8, %xmm8
vmulps %xmm6, %xmm5, %xmm5
vaddps %xmm5, %xmm8, %xmm5
vsubps %xmm5, %xmm1, %xmm6
vaddps %xmm7, %xmm0, %xmm14
vaddps %xmm5, %xmm1, %xmm0
vshufps $0xff, %xmm2, %xmm2, %xmm1 # xmm1 = xmm2[3,3,3,3]
vmulps %xmm1, %xmm11, %xmm5
vsubps %xmm5, %xmm2, %xmm15
vshufps $0xff, %xmm3, %xmm3, %xmm7 # xmm7 = xmm3[3,3,3,3]
vmulps %xmm7, %xmm11, %xmm7
vmulps %xmm4, %xmm1, %xmm1
vaddps %xmm1, %xmm7, %xmm1
vsubps %xmm1, %xmm3, %xmm4
vaddps %xmm5, %xmm2, %xmm16
vaddps %xmm1, %xmm3, %xmm1
vbroadcastss 0x2239ed(%rip), %xmm3 # 0x1ef1ebc
vmulps %xmm3, %xmm6, %xmm2
vaddps %xmm2, %xmm13, %xmm18
vmulps %xmm3, %xmm4, %xmm2
vsubps %xmm2, %xmm15, %xmm19
vmulps %xmm3, %xmm0, %xmm0
vaddps %xmm0, %xmm14, %xmm20
vmulps %xmm3, %xmm1, %xmm0
vsubps %xmm0, %xmm16, %xmm21
vmovaps (%r15), %xmm4
vsubps %xmm4, %xmm13, %xmm0
vbroadcastss %xmm0, %xmm1
vshufps $0x55, %xmm0, %xmm0, %xmm2 # xmm2 = xmm0[1,1,1,1]
vshufps $0xaa, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[2,2,2,2]
vmovaps 0x10(%r12), %xmm3
vmovaps 0x20(%r12), %xmm5
vmovaps 0x30(%r12), %xmm6
vmulps %xmm0, %xmm6, %xmm0
vfmadd231ps %xmm2, %xmm5, %xmm0 # xmm0 = (xmm5 * xmm2) + xmm0
vfmadd231ps %xmm1, %xmm3, %xmm0 # xmm0 = (xmm3 * xmm1) + xmm0
vsubps %xmm4, %xmm18, %xmm1
vbroadcastss %xmm1, %xmm2
vshufps $0x55, %xmm1, %xmm1, %xmm7 # xmm7 = xmm1[1,1,1,1]
vshufps $0xaa, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,2,2,2]
vmulps %xmm1, %xmm6, %xmm1
vfmadd231ps %xmm7, %xmm5, %xmm1 # xmm1 = (xmm5 * xmm7) + xmm1
vfmadd231ps %xmm2, %xmm3, %xmm1 # xmm1 = (xmm3 * xmm2) + xmm1
vsubps %xmm4, %xmm19, %xmm2
vbroadcastss %xmm2, %xmm7
vshufps $0x55, %xmm2, %xmm2, %xmm8 # xmm8 = xmm2[1,1,1,1]
vshufps $0xaa, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[2,2,2,2]
vmulps %xmm2, %xmm6, %xmm2
vfmadd231ps %xmm8, %xmm5, %xmm2 # xmm2 = (xmm5 * xmm8) + xmm2
vfmadd231ps %xmm7, %xmm3, %xmm2 # xmm2 = (xmm3 * xmm7) + xmm2
vsubps %xmm4, %xmm15, %xmm7
vbroadcastss %xmm7, %xmm8
vshufps $0x55, %xmm7, %xmm7, %xmm9 # xmm9 = xmm7[1,1,1,1]
vshufps $0xaa, %xmm7, %xmm7, %xmm7 # xmm7 = xmm7[2,2,2,2]
vmulps %xmm7, %xmm6, %xmm7
vfmadd231ps %xmm9, %xmm5, %xmm7 # xmm7 = (xmm5 * xmm9) + xmm7
vfmadd231ps %xmm8, %xmm3, %xmm7 # xmm7 = (xmm3 * xmm8) + xmm7
vsubps %xmm4, %xmm14, %xmm8
vbroadcastss %xmm8, %xmm9
vshufps $0x55, %xmm8, %xmm8, %xmm10 # xmm10 = xmm8[1,1,1,1]
vshufps $0xaa, %xmm8, %xmm8, %xmm8 # xmm8 = xmm8[2,2,2,2]
vmulps %xmm6, %xmm8, %xmm8
vfmadd231ps %xmm10, %xmm5, %xmm8 # xmm8 = (xmm5 * xmm10) + xmm8
vfmadd231ps %xmm9, %xmm3, %xmm8 # xmm8 = (xmm3 * xmm9) + xmm8
vsubps %xmm4, %xmm20, %xmm9
vbroadcastss %xmm9, %xmm10
vshufps $0x55, %xmm9, %xmm9, %xmm11 # xmm11 = xmm9[1,1,1,1]
vshufps $0xaa, %xmm9, %xmm9, %xmm9 # xmm9 = xmm9[2,2,2,2]
vmulps %xmm6, %xmm9, %xmm9
vfmadd231ps %xmm11, %xmm5, %xmm9 # xmm9 = (xmm5 * xmm11) + xmm9
vfmadd231ps %xmm10, %xmm3, %xmm9 # xmm9 = (xmm3 * xmm10) + xmm9
vsubps %xmm4, %xmm21, %xmm10
vbroadcastss %xmm10, %xmm11
vshufps $0x55, %xmm10, %xmm10, %xmm12 # xmm12 = xmm10[1,1,1,1]
vshufps $0xaa, %xmm10, %xmm10, %xmm10 # xmm10 = xmm10[2,2,2,2]
vmulps %xmm6, %xmm10, %xmm10
vfmadd231ps %xmm12, %xmm5, %xmm10 # xmm10 = (xmm5 * xmm12) + xmm10
vfmadd231ps %xmm11, %xmm3, %xmm10 # xmm10 = (xmm3 * xmm11) + xmm10
vsubps %xmm4, %xmm16, %xmm4
vbroadcastss %xmm4, %xmm11
vshufps $0x55, %xmm4, %xmm4, %xmm12 # xmm12 = xmm4[1,1,1,1]
vshufps $0xaa, %xmm4, %xmm4, %xmm4 # xmm4 = xmm4[2,2,2,2]
vmulps %xmm4, %xmm6, %xmm4
vfmadd231ps %xmm12, %xmm5, %xmm4 # xmm4 = (xmm5 * xmm12) + xmm4
vfmadd231ps %xmm11, %xmm3, %xmm4 # xmm4 = (xmm3 * xmm11) + xmm4
vmovlhps %xmm8, %xmm0, %xmm29 # xmm29 = xmm0[0],xmm8[0]
vmovlhps %xmm9, %xmm1, %xmm12 # xmm12 = xmm1[0],xmm9[0]
vmovlhps %xmm10, %xmm2, %xmm22 # xmm22 = xmm2[0],xmm10[0]
vmovlhps %xmm4, %xmm7, %xmm23 # xmm23 = xmm7[0],xmm4[0]
vminps %xmm12, %xmm29, %xmm3
vmaxps %xmm12, %xmm29, %xmm5
vminps %xmm23, %xmm22, %xmm6
vminps %xmm6, %xmm3, %xmm3
vmaxps %xmm23, %xmm22, %xmm6
vmaxps %xmm6, %xmm5, %xmm5
vshufpd $0x3, %xmm3, %xmm3, %xmm6 # xmm6 = xmm3[1,1]
vshufpd $0x3, %xmm5, %xmm5, %xmm11 # xmm11 = xmm5[1,1]
vminps %xmm6, %xmm3, %xmm3
vmaxps %xmm11, %xmm5, %xmm5
vandps %xmm17, %xmm3, %xmm3
vandps %xmm17, %xmm5, %xmm5
vmaxps %xmm5, %xmm3, %xmm3
vmovshdup %xmm3, %xmm5 # xmm5 = xmm3[1,1,3,3]
vmaxss %xmm3, %xmm5, %xmm3
vmulss 0x223825(%rip), %xmm3, %xmm3 # 0x1ef1eb8
vmovddup %xmm0, %xmm6 # xmm6 = xmm0[0,0]
vmovddup %xmm1, %xmm11 # xmm11 = xmm1[0,0]
vmovddup %xmm2, %xmm17 # xmm17 = xmm2[0,0]
vmovddup %xmm7, %xmm7 # xmm7 = xmm7[0,0]
vmovddup %xmm8, %xmm5 # xmm5 = xmm8[0,0]
vmovddup %xmm9, %xmm8 # xmm8 = xmm9[0,0]
vmovddup %xmm10, %xmm9 # xmm9 = xmm10[0,0]
vmovddup %xmm4, %xmm10 # xmm10 = xmm4[0,0]
vmovaps %xmm3, 0x170(%rsp)
vbroadcastss %xmm3, %ymm28
vxorps %xmm30, %xmm28, %xmm0
vbroadcastss %xmm0, %ymm26
vsubps %xmm29, %xmm12, %xmm0
vmovaps %xmm0, 0x60(%rsp)
vmovaps %xmm12, 0x90(%rsp)
vsubps %xmm12, %xmm22, %xmm0
vmovaps %xmm0, 0x50(%rsp)
vmovaps %xmm22, 0x80(%rsp)
vmovaps %xmm23, 0x180(%rsp)
vsubps %xmm22, %xmm23, %xmm0
vmovaps %xmm0, 0x290(%rsp)
vmovaps %xmm13, 0x160(%rsp)
vmovaps %xmm14, 0x150(%rsp)
vsubps %xmm13, %xmm14, %xmm0
vmovaps %xmm0, 0x280(%rsp)
vmovaps %xmm18, 0x120(%rsp)
vmovaps %xmm20, 0x100(%rsp)
vsubps %xmm18, %xmm20, %xmm0
vmovaps %xmm0, 0x270(%rsp)
vmovaps %xmm19, 0x110(%rsp)
vmovaps %xmm21, 0xf0(%rsp)
vsubps %xmm19, %xmm21, %xmm0
vmovaps %xmm0, 0x260(%rsp)
vmovaps %xmm15, 0x140(%rsp)
vmovaps %xmm16, 0x130(%rsp)
vsubps %xmm15, %xmm16, %xmm0
vmovaps %xmm0, 0x250(%rsp)
xorl %edi, %edi
vmovsd 0x21df55(%rip), %xmm0 # 0x1eec6f0
vmovaps %xmm0, %xmm15
xorl %ebp, %ebp
movq 0x20(%rsp), %r9
vmovaps %xmm29, 0x30(%rsp)
vmovaps %xmm6, 0x200(%rsp)
vmovaps %xmm11, 0x1f0(%rsp)
vmovaps %xmm17, 0x1e0(%rsp)
vmovaps %xmm7, 0x1d0(%rsp)
vmovaps %xmm5, 0x1c0(%rsp)
vmovaps %xmm8, 0x1b0(%rsp)
vmovaps %xmm9, 0x1a0(%rsp)
vmovaps %xmm10, 0x190(%rsp)
vmovups %ymm28, 0x300(%rsp)
vmovups %ymm26, 0x2e0(%rsp)
vmovaps %xmm15, %xmm27
vshufps $0x50, %xmm15, %xmm15, %xmm1 # xmm1 = xmm15[0,0,1,1]
vbroadcastss 0x21defa(%rip), %ymm13 # 0x1eec714
vsubps %xmm1, %xmm13, %xmm2
vmulps %xmm1, %xmm5, %xmm3
vmulps %xmm1, %xmm8, %xmm4
vmulps %xmm1, %xmm9, %xmm5
vmulps %xmm1, %xmm10, %xmm1
vfmadd231ps %xmm6, %xmm2, %xmm3 # xmm3 = (xmm2 * xmm6) + xmm3
vfmadd231ps %xmm11, %xmm2, %xmm4 # xmm4 = (xmm2 * xmm11) + xmm4
vfmadd231ps %xmm17, %xmm2, %xmm5 # xmm5 = (xmm2 * xmm17) + xmm5
vfmadd231ps %xmm2, %xmm7, %xmm1 # xmm1 = (xmm7 * xmm2) + xmm1
vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3]
vsubss %xmm0, %xmm2, %xmm6
vmulss 0x25267d(%rip), %xmm6, %xmm6 # 0x1f20ed0
vbroadcastss %xmm0, %ymm7
vbroadcastsd %xmm2, %ymm2
vsubps %ymm7, %ymm2, %ymm10
vbroadcastss %xmm3, %ymm2
vbroadcastss 0x243e95(%rip), %ymm9 # 0x1f12704
vpermps %ymm3, %ymm9, %ymm8
vbroadcastss %xmm4, %ymm20
vpermps %ymm4, %ymm9, %ymm21
vbroadcastss %xmm5, %ymm22
vpermps %ymm5, %ymm9, %ymm23
vbroadcastss %xmm1, %ymm24
vpermps %ymm1, %ymm9, %ymm25
vbroadcastss %xmm6, %ymm9
vbroadcastss 0x252635(%rip), %ymm16 # 0x1f20edc
vpermps %ymm3, %ymm16, %ymm19
vbroadcastss 0x252622(%rip), %ymm6 # 0x1f20ed8
vpermps %ymm3, %ymm6, %ymm18
vpermps %ymm4, %ymm16, %ymm15
vpermps %ymm4, %ymm6, %ymm14
vpermps %ymm5, %ymm16, %ymm12
vpermps %ymm5, %ymm6, %ymm11
vpermps %ymm1, %ymm16, %ymm16
vpermps %ymm1, %ymm6, %ymm17
vfmadd132ps 0x252639(%rip), %ymm7, %ymm10 # ymm10 = (ymm10 * mem) + ymm7
vsubps %ymm10, %ymm13, %ymm13
vmulps %ymm10, %ymm20, %ymm1
vmulps %ymm10, %ymm21, %ymm3
vfmadd231ps %ymm2, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm2) + ymm1
vfmadd231ps %ymm8, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm8) + ymm3
vmulps %ymm10, %ymm22, %ymm2
vmulps %ymm10, %ymm23, %ymm4
vfmadd231ps %ymm20, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm20) + ymm2
vfmadd231ps %ymm21, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm21) + ymm4
vmulps %ymm10, %ymm24, %ymm5
vmulps %ymm10, %ymm25, %ymm6
vfmadd231ps %ymm22, %ymm13, %ymm5 # ymm5 = (ymm13 * ymm22) + ymm5
vfmadd231ps %ymm23, %ymm13, %ymm6 # ymm6 = (ymm13 * ymm23) + ymm6
vmulps %ymm2, %ymm10, %ymm7
vmulps %ymm4, %ymm10, %ymm8
vfmadd231ps %ymm1, %ymm13, %ymm7 # ymm7 = (ymm13 * ymm1) + ymm7
vfmadd231ps %ymm3, %ymm13, %ymm8 # ymm8 = (ymm13 * ymm3) + ymm8
vmulps %ymm5, %ymm10, %ymm1
vmulps %ymm6, %ymm10, %ymm5
vfmadd231ps %ymm2, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm2) + ymm1
vfmadd231ps %ymm4, %ymm13, %ymm5 # ymm5 = (ymm13 * ymm4) + ymm5
vmulps %ymm1, %ymm10, %ymm3
vmulps %ymm5, %ymm10, %ymm4
vfmadd231ps %ymm7, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm7) + ymm3
vfmadd231ps %ymm8, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm8) + ymm4
vsubps %ymm7, %ymm1, %ymm1
vsubps %ymm8, %ymm5, %ymm2
vbroadcastss 0x222671(%rip), %ymm22 # 0x1ef0fec
vmulps %ymm22, %ymm1, %ymm1
vmulps %ymm22, %ymm2, %ymm2
vmulps %ymm1, %ymm9, %ymm8
vmulps %ymm2, %ymm9, %ymm20
vmovaps %ymm3, %ymm5
vmovaps 0x291381(%rip), %ymm23 # 0x1f5fd20
vxorps %xmm24, %xmm24, %xmm24
vpermt2ps %ymm24, %ymm23, %ymm5
vmovaps %ymm4, %ymm6
vpermt2ps %ymm24, %ymm23, %ymm6
vaddps %ymm3, %ymm8, %ymm1
vpermt2ps %ymm24, %ymm23, %ymm8
vaddps %ymm20, %ymm4, %ymm7
vpermt2ps %ymm24, %ymm23, %ymm20
vsubps %ymm8, %ymm5, %ymm2
vsubps %ymm20, %ymm6, %ymm8
vmulps %ymm10, %ymm15, %ymm20
vmulps %ymm10, %ymm14, %ymm21
vfmadd231ps %ymm19, %ymm13, %ymm20 # ymm20 = (ymm13 * ymm19) + ymm20
vfmadd231ps %ymm18, %ymm13, %ymm21 # ymm21 = (ymm13 * ymm18) + ymm21
vmulps %ymm10, %ymm12, %ymm18
vmulps %ymm10, %ymm11, %ymm19
vfmadd231ps %ymm15, %ymm13, %ymm18 # ymm18 = (ymm13 * ymm15) + ymm18
vfmadd231ps %ymm14, %ymm13, %ymm19 # ymm19 = (ymm13 * ymm14) + ymm19
vmulps %ymm10, %ymm16, %ymm14
vmulps %ymm10, %ymm17, %ymm15
vfmadd231ps %ymm12, %ymm13, %ymm14 # ymm14 = (ymm13 * ymm12) + ymm14
vfmadd231ps %ymm11, %ymm13, %ymm15 # ymm15 = (ymm13 * ymm11) + ymm15
vmulps %ymm18, %ymm10, %ymm16
vmulps %ymm19, %ymm10, %ymm17
vfmadd231ps %ymm20, %ymm13, %ymm16 # ymm16 = (ymm13 * ymm20) + ymm16
vfmadd231ps %ymm21, %ymm13, %ymm17 # ymm17 = (ymm13 * ymm21) + ymm17
vmulps %ymm14, %ymm10, %ymm14
vmulps %ymm15, %ymm10, %ymm15
vfmadd231ps %ymm18, %ymm13, %ymm14 # ymm14 = (ymm13 * ymm18) + ymm14
vfmadd231ps %ymm19, %ymm13, %ymm15 # ymm15 = (ymm13 * ymm19) + ymm15
vmulps %ymm14, %ymm10, %ymm11
vmulps %ymm15, %ymm10, %ymm12
vfmadd231ps %ymm16, %ymm13, %ymm11 # ymm11 = (ymm13 * ymm16) + ymm11
vfmadd231ps %ymm13, %ymm17, %ymm12 # ymm12 = (ymm17 * ymm13) + ymm12
vsubps %ymm16, %ymm14, %ymm10
vsubps %ymm17, %ymm15, %ymm13
vmulps %ymm22, %ymm10, %ymm10
vmulps %ymm22, %ymm13, %ymm13
vmulps %ymm10, %ymm9, %ymm10
vmulps %ymm13, %ymm9, %ymm16
vmovaps %ymm11, %ymm13
vpermt2ps %ymm24, %ymm23, %ymm13
vmovaps %ymm12, %ymm14
vpermt2ps %ymm24, %ymm23, %ymm14
vaddps %ymm10, %ymm11, %ymm9
vpermt2ps %ymm24, %ymm23, %ymm10
vaddps %ymm16, %ymm12, %ymm15
vpermt2ps %ymm24, %ymm23, %ymm16
vsubps %ymm10, %ymm13, %ymm10
vsubps %ymm16, %ymm14, %ymm16
vsubps %ymm3, %ymm11, %ymm17
vsubps %ymm4, %ymm12, %ymm18
vsubps %ymm5, %ymm13, %ymm19
vaddps %ymm19, %ymm17, %ymm17
vsubps %ymm6, %ymm14, %ymm19
vaddps %ymm19, %ymm18, %ymm18
vmulps %ymm17, %ymm4, %ymm19
vfnmadd231ps %ymm18, %ymm3, %ymm19 # ymm19 = -(ymm3 * ymm18) + ymm19
vmulps %ymm17, %ymm7, %ymm20
vfnmadd231ps %ymm18, %ymm1, %ymm20 # ymm20 = -(ymm1 * ymm18) + ymm20
vmulps %ymm17, %ymm8, %ymm21
vfnmadd231ps %ymm18, %ymm2, %ymm21 # ymm21 = -(ymm2 * ymm18) + ymm21
vmulps %ymm17, %ymm6, %ymm22
vfnmadd231ps %ymm18, %ymm5, %ymm22 # ymm22 = -(ymm5 * ymm18) + ymm22
vmulps %ymm17, %ymm12, %ymm23
vfnmadd231ps %ymm18, %ymm11, %ymm23 # ymm23 = -(ymm11 * ymm18) + ymm23
vmulps %ymm17, %ymm15, %ymm24
vfnmadd231ps %ymm18, %ymm9, %ymm24 # ymm24 = -(ymm9 * ymm18) + ymm24
vmulps %ymm17, %ymm16, %ymm25
vfnmadd231ps %ymm18, %ymm10, %ymm25 # ymm25 = -(ymm10 * ymm18) + ymm25
vmulps %ymm17, %ymm14, %ymm17
vfnmadd231ps %ymm18, %ymm13, %ymm17 # ymm17 = -(ymm13 * ymm18) + ymm17
vminps %ymm20, %ymm19, %ymm18
vmaxps %ymm20, %ymm19, %ymm19
vminps %ymm22, %ymm21, %ymm20
vminps %ymm20, %ymm18, %ymm18
vmaxps %ymm22, %ymm21, %ymm20
vmaxps %ymm20, %ymm19, %ymm19
vminps %ymm24, %ymm23, %ymm20
vmaxps %ymm24, %ymm23, %ymm21
vminps %ymm17, %ymm25, %ymm22
vminps %ymm22, %ymm20, %ymm20
vminps %ymm20, %ymm18, %ymm18
vmaxps %ymm17, %ymm25, %ymm17
vmaxps %ymm17, %ymm21, %ymm17
vmaxps %ymm17, %ymm19, %ymm17
vcmpleps %ymm28, %ymm18, %k1
vcmpnltps %ymm26, %ymm17, %k0 {%k1}
kmovd %k0, %eax
movl $0x0, %ecx
andb $0x7f, %al
je 0x1ccec87
vsubps %ymm3, %ymm5, %ymm17
vsubps %ymm4, %ymm6, %ymm18
vsubps %ymm11, %ymm13, %ymm19
vaddps %ymm19, %ymm17, %ymm17
vsubps %ymm12, %ymm14, %ymm19
vaddps %ymm19, %ymm18, %ymm18
vmulps %ymm17, %ymm4, %ymm4
vfnmadd231ps %ymm3, %ymm18, %ymm4 # ymm4 = -(ymm18 * ymm3) + ymm4
vmulps %ymm17, %ymm7, %ymm3
vfnmadd213ps %ymm3, %ymm18, %ymm1 # ymm1 = -(ymm18 * ymm1) + ymm3
vmulps %ymm17, %ymm8, %ymm3
vfnmadd213ps %ymm3, %ymm18, %ymm2 # ymm2 = -(ymm18 * ymm2) + ymm3
vmulps %ymm17, %ymm6, %ymm3
vfnmadd231ps %ymm5, %ymm18, %ymm3 # ymm3 = -(ymm18 * ymm5) + ymm3
vmulps %ymm17, %ymm12, %ymm5
vfnmadd231ps %ymm11, %ymm18, %ymm5 # ymm5 = -(ymm18 * ymm11) + ymm5
vmulps %ymm17, %ymm15, %ymm6
vfnmadd213ps %ymm6, %ymm18, %ymm9 # ymm9 = -(ymm18 * ymm9) + ymm6
vmulps %ymm17, %ymm16, %ymm6
vfnmadd213ps %ymm6, %ymm18, %ymm10 # ymm10 = -(ymm18 * ymm10) + ymm6
vmulps %ymm17, %ymm14, %ymm6
vfnmadd231ps %ymm18, %ymm13, %ymm6 # ymm6 = -(ymm13 * ymm18) + ymm6
vminps %ymm1, %ymm4, %ymm7
vmaxps %ymm1, %ymm4, %ymm1
vminps %ymm3, %ymm2, %ymm4
vminps %ymm4, %ymm7, %ymm4
vmaxps %ymm3, %ymm2, %ymm2
vmaxps %ymm2, %ymm1, %ymm1
vminps %ymm9, %ymm5, %ymm2
vmaxps %ymm9, %ymm5, %ymm3
vminps %ymm6, %ymm10, %ymm5
vminps %ymm5, %ymm2, %ymm2
vminps %ymm2, %ymm4, %ymm2
vmaxps %ymm6, %ymm10, %ymm4
vmaxps %ymm4, %ymm3, %ymm3
vmaxps %ymm3, %ymm1, %ymm1
vcmpnltps %ymm26, %ymm1, %k1
vcmpleps %ymm28, %ymm2, %k0 {%k1}
kmovd %k0, %ecx
andb %cl, %al
movzbl %al, %ecx
testl %ecx, %ecx
je 0x1cceca7
movl %ebp, %eax
movl %ecx, 0x210(%rsp,%rax,4)
vmovlps %xmm0, 0x2a0(%rsp,%rax,8)
vmovlps %xmm27, 0x320(%rsp,%rax,8)
incl %ebp
vbroadcastss 0x252213(%rip), %xmm17 # 0x1f20ec4
vbroadcastss 0x222331(%rip), %ymm18 # 0x1ef0fec
vmovss 0x25221b(%rip), %xmm19 # 0x1f20ee0
vmovss 0x21da45(%rip), %xmm20 # 0x1eec714
vmovss 0x222327(%rip), %xmm21 # 0x1ef1000
vmovss 0x222d69(%rip), %xmm22 # 0x1ef1a4c
vbroadcastss 0x21da27(%rip), %xmm23 # 0x1eec714
vmovss 0x2231c5(%rip), %xmm24 # 0x1ef1ebc
vmovss 0x221cd7(%rip), %xmm25 # 0x1ef09d8
vxorps %xmm16, %xmm16, %xmm16
vmovaps 0x60(%rsp), %xmm26
vmovaps 0x50(%rsp), %xmm28
testl %ebp, %ebp
je 0x1ccfc91
leal -0x1(%rbp), %eax
vmovss 0x2a0(%rsp,%rax,8), %xmm0
vmovss 0x2a4(%rsp,%rax,8), %xmm1
movl 0x210(%rsp,%rax,4), %ecx
vmovsd 0x320(%rsp,%rax,8), %xmm15
tzcntq %rcx, %rdx
blsrl %ecx, %ecx
movl %ecx, 0x210(%rsp,%rax,4)
cmovel %eax, %ebp
vpxord %xmm27, %xmm27, %xmm27
vcvtsi2ss %rdx, %xmm27, %xmm2
vmulss %xmm19, %xmm2, %xmm2
incq %rdx
vpxord %xmm27, %xmm27, %xmm27
vcvtsi2ss %rdx, %xmm27, %xmm3
vmulss %xmm19, %xmm3, %xmm3
vsubss %xmm2, %xmm20, %xmm4
vmulss %xmm2, %xmm1, %xmm14
vfmadd231ss %xmm4, %xmm0, %xmm14 # xmm14 = (xmm0 * xmm4) + xmm14
vsubss %xmm3, %xmm20, %xmm2
vmulss %xmm3, %xmm1, %xmm13
vfmadd231ss %xmm2, %xmm0, %xmm13 # xmm13 = (xmm0 * xmm2) + xmm13
vsubss %xmm14, %xmm13, %xmm0
vucomiss %xmm0, %xmm21
jbe 0x1ccfc2f
vmovaps %xmm15, %xmm27
vshufps $0x50, %xmm15, %xmm15, %xmm1 # xmm1 = xmm15[0,0,1,1]
vucomiss %xmm0, %xmm22
seta %cl
cmpl $0x4, %ebp
setae %al
vsubps %xmm1, %xmm23, %xmm2
vmulps 0x1c0(%rsp), %xmm1, %xmm3
vmulps 0x1b0(%rsp), %xmm1, %xmm4
vmulps 0x1a0(%rsp), %xmm1, %xmm5
vmulps 0x190(%rsp), %xmm1, %xmm1
vfmadd231ps 0x200(%rsp), %xmm2, %xmm3 # xmm3 = (xmm2 * mem) + xmm3
vfmadd231ps 0x1f0(%rsp), %xmm2, %xmm4 # xmm4 = (xmm2 * mem) + xmm4
vfmadd231ps 0x1e0(%rsp), %xmm2, %xmm5 # xmm5 = (xmm2 * mem) + xmm5
vfmadd231ps 0x1d0(%rsp), %xmm2, %xmm1 # xmm1 = (xmm2 * mem) + xmm1
vinsertf128 $0x1, %xmm3, %ymm3, %ymm2
vinsertf128 $0x1, %xmm4, %ymm4, %ymm3
vinsertf128 $0x1, %xmm5, %ymm5, %ymm4
vmovaps %xmm14, 0x70(%rsp)
vbroadcastss %xmm14, %xmm6
vmovaps %xmm13, 0x10(%rsp)
vbroadcastss %xmm13, %xmm7
vinsertf128 $0x1, %xmm7, %ymm6, %ymm6
vsubps %ymm2, %ymm3, %ymm7
vfmadd213ps %ymm2, %ymm6, %ymm7 # ymm7 = (ymm6 * ymm7) + ymm2
vsubps %ymm3, %ymm4, %ymm2
vfmadd213ps %ymm3, %ymm6, %ymm2 # ymm2 = (ymm6 * ymm2) + ymm3
vsubps %xmm5, %xmm1, %xmm1
vinsertf128 $0x1, %xmm1, %ymm1, %ymm3
vfmadd213ps %ymm4, %ymm6, %ymm3 # ymm3 = (ymm6 * ymm3) + ymm4
vsubps %ymm7, %ymm2, %ymm1
vfmadd213ps %ymm7, %ymm6, %ymm1 # ymm1 = (ymm6 * ymm1) + ymm7
vsubps %ymm2, %ymm3, %ymm3
vfmadd213ps %ymm2, %ymm6, %ymm3 # ymm3 = (ymm6 * ymm3) + ymm2
vsubps %ymm1, %ymm3, %ymm2
vfmadd231ps %ymm6, %ymm2, %ymm1 # ymm1 = (ymm2 * ymm6) + ymm1
vmulps %ymm18, %ymm2, %ymm3
vextractf128 $0x1, %ymm1, %xmm2
vextractf128 $0x1, %ymm3, %xmm4
vmulss %xmm24, %xmm0, %xmm5
vbroadcastss %xmm5, %xmm6
vmulps %xmm3, %xmm6, %xmm3
vaddps %xmm3, %xmm1, %xmm5
vmulps %xmm4, %xmm6, %xmm3
vsubps %xmm3, %xmm2, %xmm6
vshufpd $0x3, %xmm1, %xmm1, %xmm4 # xmm4 = xmm1[1,1]
vshufpd $0x3, %xmm2, %xmm2, %xmm3 # xmm3 = xmm2[1,1]
vsubps %xmm1, %xmm4, %xmm7
vsubps %xmm2, %xmm3, %xmm8
vaddps %xmm7, %xmm8, %xmm7
vshufps $0xb1, %xmm1, %xmm1, %xmm8 # xmm8 = xmm1[1,0,3,2]
vshufps $0xb1, %xmm5, %xmm5, %xmm9 # xmm9 = xmm5[1,0,3,2]
vshufps $0xb1, %xmm6, %xmm6, %xmm10 # xmm10 = xmm6[1,0,3,2]
vshufps $0xb1, %xmm2, %xmm2, %xmm11 # xmm11 = xmm2[1,0,3,2]
vbroadcastss %xmm7, %xmm12
vshufps $0x55, %xmm7, %xmm7, %xmm7 # xmm7 = xmm7[1,1,1,1]
vmulps %xmm7, %xmm8, %xmm8
vmulps %xmm7, %xmm9, %xmm9
vmulps %xmm7, %xmm10, %xmm10
vmulps %xmm7, %xmm11, %xmm7
vfmadd231ps %xmm1, %xmm12, %xmm8 # xmm8 = (xmm12 * xmm1) + xmm8
vfmadd231ps %xmm5, %xmm12, %xmm9 # xmm9 = (xmm12 * xmm5) + xmm9
vfmadd231ps %xmm6, %xmm12, %xmm10 # xmm10 = (xmm12 * xmm6) + xmm10
vfmadd231ps %xmm12, %xmm2, %xmm7 # xmm7 = (xmm2 * xmm12) + xmm7
vshufpd $0x1, %xmm8, %xmm8, %xmm11 # xmm11 = xmm8[1,0]
vshufpd $0x1, %xmm9, %xmm9, %xmm12 # xmm12 = xmm9[1,0]
vshufpd $0x1, %xmm10, %xmm10, %xmm14 # xmm14 = xmm10[1,0]
vshufpd $0x1, %xmm7, %xmm7, %xmm15 # xmm15 = xmm7[1,0]
vminss %xmm9, %xmm8, %xmm13
vmaxss %xmm8, %xmm9, %xmm8
vminss %xmm7, %xmm10, %xmm9
vmaxss %xmm10, %xmm7, %xmm7
vminss %xmm9, %xmm13, %xmm13
vmaxss %xmm8, %xmm7, %xmm9
vminss %xmm12, %xmm11, %xmm7
vmaxss %xmm11, %xmm12, %xmm8
vminss %xmm15, %xmm14, %xmm10
vmaxss %xmm14, %xmm15, %xmm11
vminss %xmm10, %xmm7, %xmm14
vmaxss %xmm8, %xmm11, %xmm10
vucomiss %xmm13, %xmm25
jbe 0x1ccef72
vmovss 0x222f54(%rip), %xmm7 # 0x1ef1ec0
vucomiss %xmm7, %xmm10
ja 0x1ccefd3
vmovss 0x222f46(%rip), %xmm7 # 0x1ef1ec0
vucomiss %xmm7, %xmm9
seta %dl
vmovss 0x221a4f(%rip), %xmm7 # 0x1ef09d8
vcmpltps %xmm7, %xmm14, %k0
vcmpltps %xmm7, %xmm13, %k1
korw %k0, %k1, %k0
kmovd %k0, %esi
testb %sil, %dl
jne 0x1ccefd3
vmovss 0x222f14(%rip), %xmm7 # 0x1ef1ec0
vcmpnltps %xmm10, %xmm7, %k0
vmovss 0x221a1d(%rip), %xmm7 # 0x1ef09d8
vcmpnltps %xmm7, %xmm14, %k1
korw %k0, %k1, %k0
kmovd %k0, %edx
testb $0x1, %dl
jne 0x1ccfc03
vcmpltss %xmm16, %xmm13, %k1
vmovaps %xmm20, %xmm15
vmovss 0x2219e2(%rip), %xmm16 # 0x1ef09cc
vxorps %xmm11, %xmm11, %xmm11
vmovss %xmm16, %xmm15, %xmm15 {%k1}
vcmpltss %xmm11, %xmm9, %k1
vmovaps %xmm20, %xmm12
vmovss %xmm16, %xmm12, %xmm12 {%k1}
vucomiss %xmm12, %xmm15
setp %dl
setne %sil
orb %dl, %sil
kmovd %esi, %k1
vmovss 0x21c9fd(%rip), %xmm7 # 0x1eeba20
vmovss %xmm11, %xmm7, %xmm7 {%k1}
vmovss 0x21db53(%rip), %xmm8 # 0x1eecb84
vmovss %xmm11, %xmm8, %xmm8 {%k1}
vcmpltss %xmm11, %xmm14, %k1
vmovaps %xmm20, %xmm11
vmovss %xmm16, %xmm11, %xmm11 {%k1}
vucomiss %xmm11, %xmm15
jne 0x1ccf053
jnp 0x1ccf098
vucomiss %xmm13, %xmm14
jne 0x1ccf0a6
jp 0x1ccf0a6
vxorps %xmm16, %xmm16, %xmm16
vucomiss %xmm16, %xmm13
setnp %dl
sete %sil
andb %dl, %sil
kmovd %esi, %k1
vmovss 0x21c9a2(%rip), %xmm13 # 0x1eeba20
vmovss %xmm16, %xmm13, %xmm13 {%k1}
vmovss 0x21daf8(%rip), %xmm14 # 0x1eecb84
vmovss 0x21d67e(%rip), %xmm14 {%k1} # 0x1eec714
jmp 0x1ccf0d1
vxorps %xmm16, %xmm16, %xmm16
vmovaps %xmm27, %xmm15
jmp 0x1ccf0e1
vxorps 0x251e10(%rip){1to4}, %xmm13, %xmm15 # 0x1f20ec0
vsubss %xmm13, %xmm14, %xmm13
vdivss %xmm13, %xmm15, %xmm14
vsubss %xmm14, %xmm20, %xmm13
vxorps %xmm16, %xmm16, %xmm16
vfmadd213ss %xmm14, %xmm16, %xmm13 # xmm13 = (xmm16 * xmm13) + xmm14
vmovaps %xmm13, %xmm14
vmovaps %xmm27, %xmm15
vminss %xmm13, %xmm7, %xmm7
vmaxss %xmm8, %xmm14, %xmm8
vcmpltss %xmm16, %xmm10, %k1
vmovaps %xmm20, %xmm13
vmovss 0x2218d4(%rip), %xmm13 {%k1} # 0x1ef09cc
vucomiss %xmm13, %xmm12
vmovaps 0x70(%rsp), %xmm14
jne 0x1ccf107
jnp 0x1ccf175
vucomiss %xmm9, %xmm10
jne 0x1ccf146
jp 0x1ccf146
vucomiss %xmm16, %xmm9
setnp %dl
sete %sil
andb %dl, %sil
kmovd %esi, %k1
vmovss 0x21c8f4(%rip), %xmm9 # 0x1eeba20
vmovss %xmm16, %xmm9, %xmm9 {%k1}
vmovss 0x21da4a(%rip), %xmm10 # 0x1eecb84
vmovss 0x21d5d0(%rip), %xmm10 {%k1} # 0x1eec714
jmp 0x1ccf16b
vxorps 0x251d70(%rip){1to4}, %xmm9, %xmm12 # 0x1f20ec0
vsubss %xmm9, %xmm10, %xmm9
vdivss %xmm9, %xmm12, %xmm10
vsubss %xmm10, %xmm20, %xmm9
vfmadd213ss %xmm10, %xmm16, %xmm9 # xmm9 = (xmm16 * xmm9) + xmm10
vmovaps %xmm9, %xmm10
vminss %xmm9, %xmm7, %xmm7
vmaxss %xmm8, %xmm10, %xmm8
vucomiss %xmm13, %xmm11
setp %dl
setne %sil
orb %dl, %sil
vminss %xmm20, %xmm7, %xmm9
kmovd %esi, %k1
vmovss %xmm9, %xmm7, %xmm7 {%k1}
vmaxss %xmm8, %xmm20, %xmm9
vmovss %xmm9, %xmm8, %xmm8 {%k1}
vmaxss %xmm7, %xmm16, %xmm7
vminss %xmm20, %xmm8, %xmm8
movb $0x1, %bl
vucomiss %xmm8, %xmm7
ja 0x1ccfc11
vaddss 0x28e2a7(%rip), %xmm7, %xmm7 # 0x1f5d468
vaddss 0x21d9d3(%rip), %xmm8, %xmm8 # 0x1eecb9c
vmaxss %xmm7, %xmm16, %xmm7
vminss %xmm20, %xmm8, %xmm8
vmovddup %xmm1, %xmm1 # xmm1 = xmm1[0,0]
vmovddup %xmm5, %xmm9 # xmm9 = xmm5[0,0]
vmovddup %xmm6, %xmm10 # xmm10 = xmm6[0,0]
vmovddup %xmm2, %xmm2 # xmm2 = xmm2[0,0]
vshufpd $0x3, %xmm5, %xmm5, %xmm5 # xmm5 = xmm5[1,1]
vshufpd $0x3, %xmm6, %xmm6, %xmm6 # xmm6 = xmm6[1,1]
vshufps $0x0, %xmm8, %xmm7, %xmm11 # xmm11 = xmm7[0,0],xmm8[0,0]
vsubps %xmm11, %xmm23, %xmm12
vmulps %xmm4, %xmm11, %xmm13
vmulps %xmm5, %xmm11, %xmm5
vmulps %xmm6, %xmm11, %xmm6
vmulps %xmm3, %xmm11, %xmm3
vfmadd231ps %xmm1, %xmm12, %xmm13 # xmm13 = (xmm12 * xmm1) + xmm13
vfmadd231ps %xmm9, %xmm12, %xmm5 # xmm5 = (xmm12 * xmm9) + xmm5
vfmadd231ps %xmm10, %xmm12, %xmm6 # xmm6 = (xmm12 * xmm10) + xmm6
vfmadd231ps %xmm2, %xmm12, %xmm3 # xmm3 = (xmm12 * xmm2) + xmm3
vsubss %xmm7, %xmm20, %xmm2
vmovshdup %xmm15, %xmm4 # xmm4 = xmm15[1,1,3,3]
vmulss %xmm7, %xmm4, %xmm1
vfmadd231ss %xmm2, %xmm15, %xmm1 # xmm1 = (xmm15 * xmm2) + xmm1
vsubss %xmm8, %xmm20, %xmm2
vmulss %xmm4, %xmm8, %xmm4
vfmadd231ss %xmm2, %xmm15, %xmm4 # xmm4 = (xmm15 * xmm2) + xmm4
vdivss %xmm0, %xmm20, %xmm0
vsubps %xmm13, %xmm5, %xmm2
vbroadcastss 0x221d96(%rip), %xmm15 # 0x1ef0fec
vmulps %xmm2, %xmm15, %xmm2
vsubps %xmm5, %xmm6, %xmm7
vmulps %xmm7, %xmm15, %xmm7
vsubps %xmm6, %xmm3, %xmm8
vmulps %xmm15, %xmm8, %xmm8
vminps %xmm8, %xmm7, %xmm9
vmaxps %xmm8, %xmm7, %xmm7
vminps %xmm9, %xmm2, %xmm8
vmaxps %xmm7, %xmm2, %xmm2
vshufpd $0x3, %xmm8, %xmm8, %xmm7 # xmm7 = xmm8[1,1]
vshufpd $0x3, %xmm2, %xmm2, %xmm9 # xmm9 = xmm2[1,1]
vminps %xmm7, %xmm8, %xmm7
vmaxps %xmm9, %xmm2, %xmm2
vbroadcastss %xmm0, %xmm0
vmulps %xmm7, %xmm0, %xmm8
vmulps %xmm2, %xmm0, %xmm7
vsubss %xmm1, %xmm4, %xmm0
vdivss %xmm0, %xmm20, %xmm0
vshufpd $0x3, %xmm13, %xmm13, %xmm2 # xmm2 = xmm13[1,1]
vshufpd $0x3, %xmm5, %xmm5, %xmm9 # xmm9 = xmm5[1,1]
vshufpd $0x3, %xmm6, %xmm6, %xmm10 # xmm10 = xmm6[1,1]
vshufpd $0x3, %xmm3, %xmm3, %xmm11 # xmm11 = xmm3[1,1]
vsubps %xmm13, %xmm2, %xmm2
vsubps %xmm5, %xmm9, %xmm5
vsubps %xmm6, %xmm10, %xmm6
vsubps %xmm3, %xmm11, %xmm3
vminps %xmm5, %xmm2, %xmm9
vmaxps %xmm5, %xmm2, %xmm2
vminps %xmm3, %xmm6, %xmm5
vminps %xmm5, %xmm9, %xmm5
vmaxps %xmm3, %xmm6, %xmm3
vmaxps %xmm3, %xmm2, %xmm2
vbroadcastss %xmm0, %xmm0
vmulps %xmm5, %xmm0, %xmm10
vmulps %xmm2, %xmm0, %xmm11
vinsertps $0x10, %xmm1, %xmm14, %xmm6 # xmm6 = xmm14[0],xmm1[0],xmm14[2,3]
vmovaps 0x10(%rsp), %xmm0
vinsertps $0x10, %xmm4, %xmm0, %xmm5 # xmm5 = xmm0[0],xmm4[0],xmm0[2,3]
vaddps %xmm5, %xmm6, %xmm0
vmulps %xmm31, %xmm0, %xmm9
vshufps $0x54, %xmm9, %xmm9, %xmm0 # xmm0 = xmm9[0,1,1,1]
vbroadcastss %xmm9, %xmm2
vmovaps %xmm26, %xmm3
vfmadd213ps %xmm29, %xmm2, %xmm3 # xmm3 = (xmm2 * xmm3) + xmm29
vmovaps %xmm28, %xmm12
vfmadd213ps 0x90(%rsp), %xmm2, %xmm12 # xmm12 = (xmm2 * xmm12) + mem
vmovaps 0x290(%rsp), %xmm13
vfmadd213ps 0x80(%rsp), %xmm2, %xmm13 # xmm13 = (xmm2 * xmm13) + mem
vmovaps %xmm14, %xmm27
vsubps %xmm3, %xmm12, %xmm14
vfmadd213ps %xmm3, %xmm2, %xmm14 # xmm14 = (xmm2 * xmm14) + xmm3
vsubps %xmm12, %xmm13, %xmm3
vfmadd213ps %xmm12, %xmm2, %xmm3 # xmm3 = (xmm2 * xmm3) + xmm12
vsubps %xmm14, %xmm3, %xmm3
vfmadd231ps %xmm2, %xmm3, %xmm14 # xmm14 = (xmm3 * xmm2) + xmm14
vmulps %xmm3, %xmm15, %xmm2
vmovddup %xmm14, %xmm12 # xmm12 = xmm14[0,0]
vshufpd $0x3, %xmm14, %xmm14, %xmm3 # xmm3 = xmm14[1,1]
vshufps $0x55, %xmm9, %xmm9, %xmm13 # xmm13 = xmm9[1,1,1,1]
vsubps %xmm12, %xmm3, %xmm3
vfmadd231ps %xmm3, %xmm13, %xmm12 # xmm12 = (xmm13 * xmm3) + xmm12
vmovddup %xmm2, %xmm14 # xmm14 = xmm2[0,0]
vshufpd $0x3, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[1,1]
vsubps %xmm14, %xmm2, %xmm15
vfmadd213ps %xmm14, %xmm13, %xmm15 # xmm15 = (xmm13 * xmm15) + xmm14
vxorps %xmm30, %xmm3, %xmm2
vmovshdup %xmm15, %xmm13 # xmm13 = xmm15[1,1,3,3]
vxorps %xmm30, %xmm13, %xmm14
vmovshdup %xmm3, %xmm16 # xmm16 = xmm3[1,1,3,3]
vmovss 0x29093c(%rip), %xmm29 # 0x1f5fcfc
vpermt2ps %xmm3, %xmm29, %xmm14
vmulss %xmm3, %xmm13, %xmm3
vfmsub231ss %xmm16, %xmm15, %xmm3 # xmm3 = (xmm15 * xmm16) - xmm3
vmovss 0x28b59c(%rip), %xmm13 # 0x1f5a974
vpermt2ps %xmm2, %xmm13, %xmm15
vbroadcastss %xmm3, %xmm3
vdivps %xmm3, %xmm14, %xmm2
vdivps %xmm3, %xmm15, %xmm3
vbroadcastss %xmm12, %xmm13
vmulps %xmm2, %xmm13, %xmm13
vshufps $0x55, %xmm12, %xmm12, %xmm12 # xmm12 = xmm12[1,1,1,1]
vmulps %xmm3, %xmm12, %xmm12
vaddps %xmm12, %xmm13, %xmm12
vsubps %xmm12, %xmm0, %xmm0
vmovshdup %xmm2, %xmm12 # xmm12 = xmm2[1,1,3,3]
vinsertps $0x1c, %xmm10, %xmm8, %xmm13 # xmm13 = xmm8[0],xmm10[0],zero,zero
vmulps %xmm13, %xmm12, %xmm14
vinsertps $0x1c, %xmm11, %xmm7, %xmm15 # xmm15 = xmm7[0],xmm11[0],zero,zero
vmulps %xmm15, %xmm12, %xmm12
vminps %xmm12, %xmm14, %xmm16
vmaxps %xmm14, %xmm12, %xmm12
vmovshdup %xmm3, %xmm14 # xmm14 = xmm3[1,1,3,3]
vinsertps $0x4c, %xmm8, %xmm10, %xmm8 # xmm8 = xmm8[1],xmm10[1],zero,zero
vmulps %xmm8, %xmm14, %xmm10
vinsertps $0x4c, %xmm7, %xmm11, %xmm7 # xmm7 = xmm7[1],xmm11[1],zero,zero
vmulps %xmm7, %xmm14, %xmm11
vminps %xmm11, %xmm10, %xmm14
vaddps %xmm14, %xmm16, %xmm14
vmaxps %xmm10, %xmm11, %xmm10
vaddps %xmm10, %xmm12, %xmm10
vmovddup 0x251a8d(%rip), %xmm11 # xmm11 = mem[0,0]
vsubps %xmm10, %xmm11, %xmm10
vsubps %xmm14, %xmm11, %xmm11
vsubps %xmm9, %xmm6, %xmm12
vsubps %xmm9, %xmm5, %xmm9
vmulps %xmm10, %xmm12, %xmm14
vbroadcastss %xmm2, %xmm16
vmulps %xmm13, %xmm16, %xmm13
vmulps %xmm15, %xmm16, %xmm15
vminps %xmm15, %xmm13, %xmm16
vmaxps %xmm13, %xmm15, %xmm13
vbroadcastss %xmm3, %xmm15
vmulps %xmm8, %xmm15, %xmm8
vmulps %xmm7, %xmm15, %xmm7
vminps %xmm7, %xmm8, %xmm15
vaddps %xmm15, %xmm16, %xmm15
vmulps %xmm11, %xmm12, %xmm16
vmulps %xmm10, %xmm9, %xmm10
vmulps %xmm11, %xmm9, %xmm11
vmaxps %xmm8, %xmm7, %xmm7
vaddps %xmm7, %xmm13, %xmm7
vmovddup 0x251a26(%rip), %xmm8 # xmm8 = mem[0,0]
vsubps %xmm7, %xmm8, %xmm7
vsubps %xmm15, %xmm8, %xmm8
vmulps %xmm7, %xmm12, %xmm13
vmulps %xmm8, %xmm12, %xmm12
vmulps %xmm7, %xmm9, %xmm7
vmulps %xmm8, %xmm9, %xmm8
vminps %xmm12, %xmm13, %xmm9
vminps %xmm8, %xmm7, %xmm15
vminps %xmm15, %xmm9, %xmm9
vmaxps %xmm13, %xmm12, %xmm12
vmaxps %xmm7, %xmm8, %xmm7
vmaxps %xmm12, %xmm7, %xmm7
vminps %xmm16, %xmm14, %xmm8
vminps %xmm11, %xmm10, %xmm12
vminps %xmm12, %xmm8, %xmm8
vhaddps %xmm8, %xmm9, %xmm8
vmaxps %xmm14, %xmm16, %xmm9
vmaxps %xmm10, %xmm11, %xmm10
vmaxps %xmm9, %xmm10, %xmm9
vhaddps %xmm9, %xmm7, %xmm7
vshufps $0xe8, %xmm8, %xmm8, %xmm8 # xmm8 = xmm8[0,2,2,3]
vshufps $0xe8, %xmm7, %xmm7, %xmm9 # xmm9 = xmm7[0,2,2,3]
vaddps %xmm0, %xmm8, %xmm7
vaddps %xmm0, %xmm9, %xmm8
vmaxps %xmm7, %xmm6, %xmm6
vminps %xmm5, %xmm8, %xmm9
vcmpltps %xmm6, %xmm9, %k0
vinsertps $0x10, %xmm4, %xmm1, %xmm15 # xmm15 = xmm1[0],xmm4[0],xmm1[2,3]
kmovd %k0, %edx
testb $0x3, %dl
jne 0x1ccfbe9
vucomiss %xmm8, %xmm5
seta %sil
xorl %edx, %edx
vucomiss %xmm27, %xmm7
vmovaps %xmm27, %xmm14
jbe 0x1ccf5e2
testb %sil, %sil
vxorps %xmm16, %xmm16, %xmm16
vmovss 0x221a59(%rip), %xmm11 # 0x1ef0fec
vmovaps 0x30(%rsp), %xmm29
vmovaps 0x90(%rsp), %xmm9
vmovaps 0x80(%rsp), %xmm10
vmovaps 0x180(%rsp), %xmm12
vmovaps 0x170(%rsp), %xmm13
je 0x1ccf61c
vcmpltps %xmm5, %xmm8, %k0
kshiftrb $0x1, %k0, %k0
kmovd %k0, %esi
vmovshdup %xmm7, %xmm4 # xmm4 = xmm7[1,1,3,3]
vucomiss %xmm1, %xmm4
seta %dl
andb %sil, %dl
jmp 0x1ccf61c
vxorps %xmm16, %xmm16, %xmm16
vmovss 0x2219fc(%rip), %xmm11 # 0x1ef0fec
vmovaps 0x30(%rsp), %xmm29
vmovaps 0x90(%rsp), %xmm9
vmovaps 0x80(%rsp), %xmm10
vmovaps 0x180(%rsp), %xmm12
vmovaps 0x170(%rsp), %xmm13
orb %cl, %al
orb %dl, %al
cmpb $0x1, %al
jne 0x1ccfbff
movl $0xc8, %eax
vsubss %xmm0, %xmm20, %xmm1
vmulss %xmm1, %xmm1, %xmm4
vmulss %xmm4, %xmm1, %xmm5
vmulss %xmm0, %xmm11, %xmm6
vmulss %xmm4, %xmm6, %xmm4
vmulss %xmm0, %xmm0, %xmm6
vmulss %xmm6, %xmm11, %xmm7
vmulss %xmm7, %xmm1, %xmm1
vbroadcastss %xmm5, %xmm5
vbroadcastss %xmm4, %xmm4
vbroadcastss %xmm1, %xmm1
vmulss %xmm6, %xmm0, %xmm6
vbroadcastss %xmm6, %xmm6
vmulps %xmm6, %xmm12, %xmm6
vfmadd231ps %xmm1, %xmm10, %xmm6 # xmm6 = (xmm10 * xmm1) + xmm6
vfmadd231ps %xmm4, %xmm9, %xmm6 # xmm6 = (xmm9 * xmm4) + xmm6
vfmadd231ps %xmm5, %xmm29, %xmm6 # xmm6 = (xmm29 * xmm5) + xmm6
vmovddup %xmm6, %xmm1 # xmm1 = xmm6[0,0]
vshufpd $0x3, %xmm6, %xmm6, %xmm4 # xmm4 = xmm6[1,1]
vshufps $0x55, %xmm0, %xmm0, %xmm5 # xmm5 = xmm0[1,1,1,1]
vsubps %xmm1, %xmm4, %xmm4
vfmadd213ps %xmm1, %xmm5, %xmm4 # xmm4 = (xmm5 * xmm4) + xmm1
vbroadcastss %xmm4, %xmm1
vmulps %xmm1, %xmm2, %xmm1
vshufps $0x55, %xmm4, %xmm4, %xmm5 # xmm5 = xmm4[1,1,1,1]
vmulps %xmm5, %xmm3, %xmm5
vaddps %xmm5, %xmm1, %xmm1
vsubps %xmm1, %xmm0, %xmm0
vandps %xmm17, %xmm4, %xmm1
vprolq $0x20, %xmm1, %xmm4
vmaxss %xmm1, %xmm4, %xmm1
vucomiss %xmm1, %xmm13
ja 0x1ccf6d1
decq %rax
jne 0x1ccf62d
jmp 0x1ccfc11
vucomiss %xmm16, %xmm0
jb 0x1ccfc11
vucomiss %xmm0, %xmm20
vmovaps 0x10(%rsp), %xmm13
jb 0x1ccfc17
vmovshdup %xmm0, %xmm1 # xmm1 = xmm0[1,1,3,3]
vucomiss %xmm16, %xmm1
jb 0x1ccfc17
vucomiss %xmm1, %xmm20
jb 0x1ccfc17
vmovss 0x18(%r12), %xmm2
vinsertps $0x1c, 0x28(%r12), %xmm2, %xmm2 # xmm2 = xmm2[0],mem[0],zero,zero
vinsertps $0x28, 0x38(%r12), %xmm2, %xmm2 # xmm2 = xmm2[0,1],mem[0],zero
vmovaps (%r15), %xmm3
vmovaps 0x160(%rsp), %xmm4
vsubps %xmm3, %xmm4, %xmm4
vdpps $0x7f, %xmm2, %xmm4, %xmm4
vmovaps 0x120(%rsp), %xmm5
vsubps %xmm3, %xmm5, %xmm5
vdpps $0x7f, %xmm2, %xmm5, %xmm5
vmovaps 0x110(%rsp), %xmm6
vsubps %xmm3, %xmm6, %xmm6
vdpps $0x7f, %xmm2, %xmm6, %xmm6
vmovaps 0x140(%rsp), %xmm7
vsubps %xmm3, %xmm7, %xmm7
vdpps $0x7f, %xmm2, %xmm7, %xmm7
vmovaps 0x150(%rsp), %xmm8
vsubps %xmm3, %xmm8, %xmm8
vdpps $0x7f, %xmm2, %xmm8, %xmm8
vmovaps 0x100(%rsp), %xmm9
vsubps %xmm3, %xmm9, %xmm9
vdpps $0x7f, %xmm2, %xmm9, %xmm9
vmovaps 0xf0(%rsp), %xmm10
vsubps %xmm3, %xmm10, %xmm10
vdpps $0x7f, %xmm2, %xmm10, %xmm10
vmovaps 0x130(%rsp), %xmm12
vsubps %xmm3, %xmm12, %xmm3
vdpps $0x7f, %xmm2, %xmm3, %xmm2
vsubss %xmm1, %xmm20, %xmm3
vmulss %xmm1, %xmm8, %xmm8
vmulss %xmm1, %xmm9, %xmm9
vmulss %xmm1, %xmm10, %xmm10
vmulss %xmm2, %xmm1, %xmm1
vfmadd231ss %xmm4, %xmm3, %xmm8 # xmm8 = (xmm3 * xmm4) + xmm8
vfmadd231ss %xmm5, %xmm3, %xmm9 # xmm9 = (xmm3 * xmm5) + xmm9
vfmadd231ss %xmm6, %xmm3, %xmm10 # xmm10 = (xmm3 * xmm6) + xmm10
vfmadd231ss %xmm7, %xmm3, %xmm1 # xmm1 = (xmm3 * xmm7) + xmm1
vsubss %xmm0, %xmm20, %xmm6
vmulss %xmm6, %xmm6, %xmm3
vmulss %xmm3, %xmm6, %xmm2
vmulss %xmm0, %xmm11, %xmm4
vmulss %xmm3, %xmm4, %xmm3
vmulps %xmm0, %xmm0, %xmm5
vmulss %xmm5, %xmm11, %xmm4
vmulss %xmm4, %xmm6, %xmm4
vmulps %xmm5, %xmm0, %xmm5
vmulss %xmm1, %xmm5, %xmm1
vfmadd231ss %xmm10, %xmm4, %xmm1 # xmm1 = (xmm4 * xmm10) + xmm1
vfmadd231ss %xmm9, %xmm3, %xmm1 # xmm1 = (xmm3 * xmm9) + xmm1
vfmadd231ss %xmm8, %xmm2, %xmm1 # xmm1 = (xmm2 * xmm8) + xmm1
vucomiss 0xc(%r15), %xmm1
jb 0x1ccfc17
vmovss 0x20(%r15), %xmm12
vucomiss %xmm1, %xmm12
jb 0x1ccfc17
vshufps $0x55, %xmm0, %xmm0, %xmm7 # xmm7 = xmm0[1,1,1,1]
vsubps %xmm7, %xmm23, %xmm8
vmulps 0x150(%rsp), %xmm7, %xmm9
vmulps 0x100(%rsp), %xmm7, %xmm10
vmulps 0xf0(%rsp), %xmm7, %xmm11
vmulps 0x130(%rsp), %xmm7, %xmm7
vfmadd231ps 0x160(%rsp), %xmm8, %xmm9 # xmm9 = (xmm8 * mem) + xmm9
vfmadd231ps 0x120(%rsp), %xmm8, %xmm10 # xmm10 = (xmm8 * mem) + xmm10
vfmadd231ps 0x110(%rsp), %xmm8, %xmm11 # xmm11 = (xmm8 * mem) + xmm11
vfmadd231ps 0x140(%rsp), %xmm8, %xmm7 # xmm7 = (xmm8 * mem) + xmm7
vsubps %xmm9, %xmm10, %xmm8
vsubps %xmm10, %xmm11, %xmm9
vsubps %xmm11, %xmm7, %xmm7
vbroadcastss %xmm0, %xmm10
vmulps %xmm9, %xmm10, %xmm11
vbroadcastss %xmm6, %xmm6
vfmadd231ps %xmm8, %xmm6, %xmm11 # xmm11 = (xmm6 * xmm8) + xmm11
vmulps %xmm7, %xmm10, %xmm7
vfmadd231ps %xmm9, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm9) + xmm7
vmulps %xmm7, %xmm10, %xmm7
vfmadd231ps %xmm11, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm11) + xmm7
vmulps 0x221718(%rip){1to4}, %xmm7, %xmm6 # 0x1ef0fec
movq (%r9), %rax
movq 0x1e8(%rax), %rax
movq 0x48(%rsp), %rcx
movq (%rax,%rcx,8), %r14
movl 0x24(%r15), %eax
testl %eax, 0x34(%r14)
je 0x1ccfbe2
movq 0x10(%r9), %rax
cmpq $0x0, 0x10(%rax)
jne 0x1ccf90d
movb $0x1, %al
cmpq $0x0, 0x48(%r14)
je 0x1ccfbe4
vbroadcastss %xmm5, %xmm5
vmulps 0x250(%rsp), %xmm5, %xmm5
vbroadcastss %xmm4, %xmm4
vfmadd132ps 0x260(%rsp), %xmm5, %xmm4 # xmm4 = (xmm4 * mem) + xmm5
vbroadcastss %xmm3, %xmm3
vfmadd132ps 0x270(%rsp), %xmm4, %xmm3 # xmm3 = (xmm3 * mem) + xmm4
vbroadcastss %xmm2, %xmm2
vfmadd132ps 0x280(%rsp), %xmm3, %xmm2 # xmm2 = (xmm2 * mem) + xmm3
vshufps $0xc9, %xmm2, %xmm2, %xmm3 # xmm3 = xmm2[1,2,0,3]
vshufps $0xc9, %xmm6, %xmm6, %xmm4 # xmm4 = xmm6[1,2,0,3]
vmulps %xmm4, %xmm2, %xmm2
vfmsub231ps %xmm3, %xmm6, %xmm2 # xmm2 = (xmm6 * xmm3) - xmm2
movq 0x8(%r9), %rax
vshufps $0xe9, %xmm2, %xmm2, %xmm3 # xmm3 = xmm2[1,2,2,3]
vmovlps %xmm3, 0x220(%rsp)
vmovss %xmm2, 0x228(%rsp)
vmovlps %xmm0, 0x22c(%rsp)
movq 0xa0(%rsp), %rcx
movl %ecx, 0x234(%rsp)
movq 0x48(%rsp), %rcx
movl %ecx, 0x238(%rsp)
movl (%rax), %ecx
movl %ecx, 0x23c(%rsp)
movl 0x4(%rax), %eax
movl %eax, 0x240(%rsp)
vmovss %xmm1, 0x20(%r15)
movl $0xffffffff, 0x2c(%rsp) # imm = 0xFFFFFFFF
leaq 0x2c(%rsp), %rax
movq %rax, 0xb0(%rsp)
movq 0x18(%r14), %rax
movq %rax, 0xb8(%rsp)
movq 0x8(%r9), %rax
movq %rax, 0xc0(%rsp)
movq %r15, 0xc8(%rsp)
leaq 0x220(%rsp), %rax
movq %rax, 0xd0(%rsp)
movl $0x1, 0xd8(%rsp)
movq 0x48(%r14), %rax
testq %rax, %rax
vmovaps %xmm15, 0xe0(%rsp)
vmovss %xmm12, 0xc(%rsp)
je 0x1ccfaf1
movl %edi, 0x28(%rsp)
leaq 0xb0(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0xc(%rsp), %xmm12
vmovaps 0x10(%rsp), %xmm13
vmovaps 0x70(%rsp), %xmm14
vmovaps 0xe0(%rsp), %xmm15
movl 0x28(%rsp), %edi
vmovaps 0x50(%rsp), %xmm28
vmovaps 0x60(%rsp), %xmm26
vmovaps 0x30(%rsp), %xmm29
vxorps %xmm16, %xmm16, %xmm16
vmovss 0x220f61(%rip), %xmm25 # 0x1ef09d8
vmovss 0x22243b(%rip), %xmm24 # 0x1ef1ebc
vbroadcastss 0x21cc89(%rip), %xmm23 # 0x1eec714
vmovss 0x221fb7(%rip), %xmm22 # 0x1ef1a4c
vmovss 0x221561(%rip), %xmm21 # 0x1ef1000
vmovss 0x21cc6b(%rip), %xmm20 # 0x1eec714
vmovss 0x25142d(%rip), %xmm19 # 0x1f20ee0
vbroadcastss 0x22152f(%rip), %ymm18 # 0x1ef0fec
vbroadcastss 0x2513fd(%rip), %xmm17 # 0x1f20ec4
vbroadcastss 0x21d0af(%rip), %xmm31 # 0x1eecb80
vbroadcastss 0x2513e5(%rip), %xmm30 # 0x1f20ec0
movq 0x20(%rsp), %r9
movq 0xb0(%rsp), %rax
cmpl $0x0, (%rax)
je 0x1ccfc21
movq 0x10(%r9), %rcx
movq 0x10(%rcx), %rax
testq %rax, %rax
je 0x1ccfbde
testb $0x2, (%rcx)
jne 0x1ccfb12
testb $0x40, 0x3e(%r14)
je 0x1ccfbd1
movl %edi, %r14d
leaq 0xb0(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0xc(%rsp), %xmm12
vmovaps 0x10(%rsp), %xmm13
vmovaps 0x70(%rsp), %xmm14
vmovaps 0xe0(%rsp), %xmm15
movl %r14d, %edi
vmovaps 0x50(%rsp), %xmm28
vmovaps 0x60(%rsp), %xmm26
vmovaps 0x30(%rsp), %xmm29
vxorps %xmm16, %xmm16, %xmm16
vmovss 0x220e70(%rip), %xmm25 # 0x1ef09d8
vmovss 0x22234a(%rip), %xmm24 # 0x1ef1ebc
vbroadcastss 0x21cb98(%rip), %xmm23 # 0x1eec714
vmovss 0x221ec6(%rip), %xmm22 # 0x1ef1a4c
vmovss 0x221470(%rip), %xmm21 # 0x1ef1000
vmovss 0x21cb7a(%rip), %xmm20 # 0x1eec714
vmovss 0x25133c(%rip), %xmm19 # 0x1f20ee0
vbroadcastss 0x22143e(%rip), %ymm18 # 0x1ef0fec
vbroadcastss 0x25130c(%rip), %xmm17 # 0x1f20ec4
vbroadcastss 0x21cfbe(%rip), %xmm31 # 0x1eecb80
vbroadcastss 0x2512f4(%rip), %xmm30 # 0x1f20ec0
movq 0x20(%rsp), %r9
movq 0xb0(%rsp), %rax
cmpl $0x0, (%rax)
je 0x1ccfc21
movb $0x1, %al
jmp 0x1ccfc23
xorl %eax, %eax
orb %al, %dil
jmp 0x1ccfc17
vxorps %xmm16, %xmm16, %xmm16
vmovaps 0x30(%rsp), %xmm29
vmovaps %xmm27, %xmm14
jmp 0x1ccfc11
xorl %ebx, %ebx
jmp 0x1ccfc11
movb $0x1, %bl
vmovaps %xmm27, %xmm15
vmovaps 0x70(%rsp), %xmm14
vmovaps 0x10(%rsp), %xmm13
testb %bl, %bl
jne 0x1cced17
jmp 0x1ccfc2f
xorl %eax, %eax
testb %al, %al
jne 0x1ccfbe4
vmovss %xmm12, 0x20(%r15)
jmp 0x1ccfbe4
vinsertps $0x10, %xmm13, %xmm14, %xmm0 # xmm0 = xmm14[0],xmm13[0],xmm14[2,3]
vmovaps 0x200(%rsp), %xmm6
vmovaps 0x1f0(%rsp), %xmm11
vmovaps 0x1e0(%rsp), %xmm17
vmovaps 0x1d0(%rsp), %xmm7
vmovaps 0x1c0(%rsp), %xmm5
vmovaps 0x1b0(%rsp), %xmm8
vmovaps 0x1a0(%rsp), %xmm9
vmovaps 0x190(%rsp), %xmm10
vmovups 0x300(%rsp), %ymm28
vmovups 0x2e0(%rsp), %ymm26
jmp 0x1cce805
testb $0x1, %dil
movq 0xa8(%rsp), %rcx
jne 0x1ccfcc2
vmovups 0x2c0(%rsp), %ymm0
vcmpleps 0x20(%r15){1to8}, %ymm0, %k0
kmovb %k0, %eax
andl %eax, %r13d
setne 0xb(%rsp)
jne 0x1cce14e
movb 0xb(%rsp), %al
andb $0x1, %al
addq $0x348, %rsp # imm = 0x348
popq %rbx
popq %r12
popq %r13
popq %r14
popq %r15
popq %rbp
vzeroupper
retq
nop
|
/embree[P]embree/kernels/geometry/curveNi_intersector.h
|
bool embree::avx512::CurveNiIntersectorK<8, 4>::occluded_n<embree::avx512::OrientedCurve1IntersectorK<embree::CatmullRomCurveT, 4>, embree::avx512::Occluded1KEpilog1<4, true>>(embree::avx512::CurvePrecalculationsK<4>&, embree::RayK<4>&, unsigned long, embree::RayQueryContext*, embree::CurveNi<8> const&)
|
static __forceinline bool occluded_n(Precalculations& pre, RayK<K>& ray, const size_t k, RayQueryContext* context, const Primitive& prim)
{
vfloat<M> tNear;
vbool<M> valid = intersect(ray,k,prim,tNear);
const size_t N = prim.N;
size_t mask = movemask(valid);
while (mask)
{
const size_t i = bscf(mask);
STAT3(shadow.trav_prims,1,1,1);
const unsigned int geomID = prim.geomID(N);
const unsigned int primID = prim.primID(N)[i];
const CurveGeometry* geom = context->scene->get<CurveGeometry>(geomID);
unsigned int vertexID = geom->curve(primID);
Vec3ff a0,a1,a2,a3; Vec3fa n0,n1,n2,n3; geom->gather(a0,a1,a2,a3,n0,n1,n2,n3,vertexID);
size_t mask1 = mask;
const size_t i1 = bscf(mask1);
if (mask) {
const unsigned int primID1 = prim.primID(N)[i1];
geom->prefetchL1_vertices(geom->curve(primID1));
if (mask1) {
const size_t i2 = bsf(mask1);
const unsigned int primID2 = prim.primID(N)[i2];
geom->prefetchL2_vertices(geom->curve(primID2));
}
}
if (Intersector().intersect(pre,ray,k,context,geom,primID,a0,a1,a2,a3,n0,n1,n2,n3,Epilog(ray,k,context,geomID,primID)))
return true;
mask &= movemask(tNear <= vfloat<M>(ray.tfar[k]));
}
return false;
}
|
pushq %rbp
pushq %r15
pushq %r14
pushq %r13
pushq %r12
pushq %rbx
subq $0x468, %rsp # imm = 0x468
movq %r8, %r10
movq %rdx, %r14
movq %rsi, %r9
movzbl 0x1(%r8), %eax
leaq (%rax,%rax,4), %rdx
leaq (%rdx,%rdx,4), %rsi
vbroadcastss 0x12(%r8,%rsi), %xmm0
vmovss (%r9,%r14,4), %xmm1
vmovss 0x40(%r9,%r14,4), %xmm2
vinsertps $0x10, 0x10(%r9,%r14,4), %xmm1, %xmm1 # xmm1 = xmm1[0],mem[0],xmm1[2,3]
vinsertps $0x20, 0x20(%r9,%r14,4), %xmm1, %xmm1 # xmm1 = xmm1[0,1],mem[0],xmm1[3]
vinsertps $0x10, 0x50(%r9,%r14,4), %xmm2, %xmm2 # xmm2 = xmm2[0],mem[0],xmm2[2,3]
vinsertps $0x20, 0x60(%r9,%r14,4), %xmm2, %xmm2 # xmm2 = xmm2[0,1],mem[0],xmm2[3]
vsubps 0x6(%r8,%rsi), %xmm1, %xmm1
vmulps %xmm1, %xmm0, %xmm3
vmulps %xmm2, %xmm0, %xmm0
vpmovsxbd 0x6(%r8,%rax,4), %ymm1
vcvtdq2ps %ymm1, %ymm5
vpmovsxbd 0x6(%r8,%rdx), %ymm1
vcvtdq2ps %ymm1, %ymm6
leaq (%rax,%rax,2), %r11
vpmovsxbd 0x6(%r8,%r11,2), %ymm1
vcvtdq2ps %ymm1, %ymm2
leaq (%rax,%rdx,2), %rsi
vpmovsxbd 0x6(%r8,%rsi), %ymm1
vcvtdq2ps %ymm1, %ymm7
leal (,%r11,4), %esi
vpmovsxbd 0x6(%r8,%rsi), %ymm1
vcvtdq2ps %ymm1, %ymm8
addq %rax, %rsi
vpmovsxbd 0x6(%r8,%rsi), %ymm1
vcvtdq2ps %ymm1, %ymm9
leaq (%rax,%rax,8), %rsi
leal (%rsi,%rsi), %r8d
vpmovsxbd 0x6(%r10,%r8), %ymm1
addq %rax, %r8
vpmovsxbd 0x6(%r10,%r8), %ymm4
vcvtdq2ps %ymm1, %ymm10
vcvtdq2ps %ymm4, %ymm11
shll $0x2, %edx
vpmovsxbd 0x6(%r10,%rdx), %ymm1
vcvtdq2ps %ymm1, %ymm12
vbroadcastss %xmm0, %ymm13
vbroadcastss 0x2407fa(%rip), %ymm15 # 0x1f12704
vpermps %ymm0, %ymm15, %ymm14
vbroadcastss 0x24efc3(%rip), %ymm16 # 0x1f20edc
vpermps %ymm0, %ymm16, %ymm0
vmulps %ymm2, %ymm0, %ymm4
vmulps %ymm0, %ymm9, %ymm1
vmulps %ymm0, %ymm12, %ymm0
vfmadd231ps %ymm6, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm6) + ymm4
vfmadd231ps %ymm8, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm8) + ymm1
vfmadd231ps %ymm14, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm14) + ymm0
vfmadd231ps %ymm5, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm5) + ymm4
vfmadd231ps %ymm7, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm7) + ymm1
vfmadd231ps %ymm13, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm13) + ymm0
vbroadcastss %xmm3, %ymm13
vpermps %ymm3, %ymm15, %ymm14
vpermps %ymm3, %ymm16, %ymm15
vmulps %ymm2, %ymm15, %ymm16
vmulps %ymm9, %ymm15, %ymm3
vmulps %ymm12, %ymm15, %ymm2
vfmadd231ps %ymm6, %ymm14, %ymm16 # ymm16 = (ymm14 * ymm6) + ymm16
vfmadd231ps %ymm8, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm8) + ymm3
vfmadd231ps %ymm11, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm11) + ymm2
vfmadd231ps %ymm5, %ymm13, %ymm16 # ymm16 = (ymm13 * ymm5) + ymm16
vfmadd231ps %ymm7, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm7) + ymm3
vfmadd231ps %ymm10, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm10) + ymm2
vbroadcastss 0x24ef32(%rip), %ymm5 # 0x1f20ec4
vandps %ymm5, %ymm4, %ymm6
vbroadcastss 0x21f049(%rip), %ymm7 # 0x1ef0fe8
vcmpltps %ymm7, %ymm6, %k1
vmovaps %ymm7, %ymm4 {%k1}
vandps %ymm5, %ymm1, %ymm6
vcmpltps %ymm7, %ymm6, %k1
vmovaps %ymm7, %ymm1 {%k1}
vandps %ymm5, %ymm0, %ymm5
vcmpltps %ymm7, %ymm5, %k1
vmovaps %ymm7, %ymm0 {%k1}
vrcp14ps %ymm4, %ymm5
vbroadcastss 0x21a737(%rip), %ymm6 # 0x1eec714
vfnmadd213ps %ymm6, %ymm5, %ymm4 # ymm4 = -(ymm5 * ymm4) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm4 # ymm4 = (ymm4 * ymm5) + ymm5
vrcp14ps %ymm1, %ymm5
vfnmadd213ps %ymm6, %ymm5, %ymm1 # ymm1 = -(ymm5 * ymm1) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm1 # ymm1 = (ymm1 * ymm5) + ymm5
vrcp14ps %ymm0, %ymm5
vfnmadd213ps %ymm6, %ymm5, %ymm0 # ymm0 = -(ymm5 * ymm0) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm0 # ymm0 = (ymm0 * ymm5) + ymm5
leaq (,%rax,8), %r8
subq %rax, %r8
vpmovsxwd 0x6(%r10,%r8), %ymm5
vcvtdq2ps %ymm5, %ymm5
vsubps %ymm16, %ymm5, %ymm5
vpmovsxwd 0x6(%r10,%rsi), %ymm6
vmulps %ymm5, %ymm4, %ymm5
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm16, %ymm6, %ymm6
vmulps %ymm6, %ymm4, %ymm4
leaq (%rax,%rax), %rsi
addq %rax, %rdx
shlq $0x3, %r11
subq %rax, %r11
movl %eax, %r8d
shll $0x4, %r8d
vpmovsxwd 0x6(%r10,%r8), %ymm6
subq %rsi, %r8
vpmovsxwd 0x6(%r10,%r8), %ymm7
vcvtdq2ps %ymm7, %ymm7
vsubps %ymm3, %ymm7, %ymm7
vmulps %ymm7, %ymm1, %ymm7
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm3, %ymm6, %ymm3
vmulps %ymm3, %ymm1, %ymm1
vpmovsxwd 0x6(%r10,%rdx), %ymm3
vcvtdq2ps %ymm3, %ymm3
vsubps %ymm2, %ymm3, %ymm3
vmulps %ymm0, %ymm3, %ymm3
vpmovsxwd 0x6(%r10,%r11), %ymm6
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm2, %ymm6, %ymm2
vmulps %ymm2, %ymm0, %ymm0
vpminsd %ymm4, %ymm5, %ymm2
vpminsd %ymm1, %ymm7, %ymm6
vmaxps %ymm6, %ymm2, %ymm2
vpminsd %ymm0, %ymm3, %ymm6
vmaxps 0x30(%r9,%r14,4){1to8}, %ymm6, %ymm6
vmaxps %ymm6, %ymm2, %ymm2
vmulps 0x24de47(%rip){1to8}, %ymm2, %ymm6 # 0x1f1ff10
vpmaxsd %ymm4, %ymm5, %ymm2
vpmaxsd %ymm1, %ymm7, %ymm1
vminps %ymm1, %ymm2, %ymm1
vpmaxsd %ymm0, %ymm3, %ymm0
vminps 0x80(%r9,%r14,4){1to8}, %ymm0, %ymm0
vminps %ymm0, %ymm1, %ymm0
vmulps 0x24de22(%rip){1to8}, %ymm0, %ymm0 # 0x1f1ff14
vpbroadcastd %eax, %ymm1
vpcmpgtd 0x28881e(%rip), %ymm1, %k0 # 0x1f5a920
vmovups %ymm6, 0x3e0(%rsp)
vcmpleps %ymm0, %ymm6, %k1
ktestb %k0, %k1
setne 0xf(%rsp)
je 0x1cd3eb6
kandb %k0, %k1, %k0
kmovd %k0, %eax
movzbl %al, %r13d
leaq (%r14,%r14,2), %rax
shlq $0x4, %rax
leaq (%rdi,%rax), %r12
addq $0x10, %r12
movl $0x1, %eax
shlxl %r14d, %eax, %eax
kmovd %eax, %k0
vbroadcastss 0x24ed6b(%rip), %xmm30 # 0x1f20ec0
vpmovm2d %k0, %xmm0
vmovdqa %xmm0, 0x1c0(%rsp)
vbroadcastss 0x21aa12(%rip), %xmm17 # 0x1eecb80
vbroadcastss 0x24ed4c(%rip), %xmm19 # 0x1f20ec4
vxorps %xmm31, %xmm31, %xmm31
movq %r10, 0x80(%rsp)
movq %r9, 0x78(%rsp)
movq %rcx, 0x70(%rsp)
tzcntq %r13, %rax
movl 0x2(%r10), %edx
movl 0x6(%r10,%rax,4), %eax
movq (%rcx), %rcx
movq 0x1e8(%rcx), %rcx
movq %rdx, 0x88(%rsp)
movq (%rcx,%rdx,8), %rdi
movq 0x58(%rdi), %rcx
movq 0x68(%rdi), %rdx
movq %rdx, %rsi
imulq %rax, %rsi
movl (%rcx,%rsi), %r10d
movq 0xa0(%rdi), %rsi
movq %rsi, %r8
imulq %r10, %r8
leaq 0x1(%r10), %rbx
leaq 0x2(%r10), %r11
leaq 0x3(%r10), %r9
movq 0xd8(%rdi), %r15
imulq %r15, %r10
movq 0xc8(%rdi), %rbp
vmovups (%rbp,%r10), %xmm5
movq %rsi, %r10
imulq %rbx, %r10
imulq %r15, %rbx
vmovups (%rbp,%rbx), %xmm6
movq %rsi, %rbx
imulq %r11, %rbx
imulq %r15, %r11
vmovups (%rbp,%r11), %xmm7
imulq %r9, %r15
vmovups (%rbp,%r15), %xmm8
movq %rsi, %r11
imulq %r9, %r11
movq 0x90(%rdi), %rdi
vmovaps (%rdi,%r8), %xmm9
vmovaps (%rdi,%r10), %xmm10
movq 0x80(%rsp), %r10
vmovaps (%rdi,%rbx), %xmm11
blsrq %r13, %r13
vmovaps (%rdi,%r11), %xmm4
movq %r13, %r8
subq $0x1, %r8
jb 0x1cd22aa
andq %r13, %r8
tzcntq %r13, %r9
movl 0x6(%r10,%r9,4), %r9d
imulq %rdx, %r9
movl (%rcx,%r9), %r9d
imulq %rsi, %r9
prefetcht0 (%rdi,%r9)
prefetcht0 0x40(%rdi,%r9)
testq %r8, %r8
je 0x1cd22aa
tzcntq %r8, %r8
movl 0x6(%r10,%r8,4), %r8d
imulq %r8, %rdx
movl (%rcx,%rdx), %ecx
imulq %rcx, %rsi
prefetcht1 (%rdi,%rsi)
prefetcht1 0x40(%rdi,%rsi)
movq 0x78(%rsp), %r9
vmovss (%r9,%r14,4), %xmm0
vinsertps $0x1c, 0x10(%r9,%r14,4), %xmm0, %xmm0 # xmm0 = xmm0[0],mem[0],zero,zero
vinsertps $0x28, 0x20(%r9,%r14,4), %xmm0, %xmm0 # xmm0 = xmm0[0,1],mem[0],zero
vmulps %xmm30, %xmm4, %xmm3
vpxor %xmm1, %xmm1, %xmm1
vfmadd213ps %xmm3, %xmm11, %xmm1 # xmm1 = (xmm11 * xmm1) + xmm3
vaddps %xmm1, %xmm10, %xmm1
vfmadd231ps %xmm30, %xmm9, %xmm1 # xmm1 = (xmm9 * xmm30) + xmm1
vxorps %xmm15, %xmm15, %xmm15
vmulps %xmm4, %xmm15, %xmm2
vfmadd231ps %xmm17, %xmm11, %xmm2 # xmm2 = (xmm11 * xmm17) + xmm2
vfmadd231ps %xmm15, %xmm10, %xmm2 # xmm2 = (xmm10 * xmm15) + xmm2
vfnmadd231ps %xmm17, %xmm9, %xmm2 # xmm2 = -(xmm9 * xmm17) + xmm2
vmulps %xmm30, %xmm8, %xmm12
vxorps %xmm13, %xmm13, %xmm13
vfmadd213ps %xmm12, %xmm7, %xmm13 # xmm13 = (xmm7 * xmm13) + xmm12
vaddps %xmm6, %xmm13, %xmm13
vfmadd231ps %xmm30, %xmm5, %xmm13 # xmm13 = (xmm5 * xmm30) + xmm13
vmulps %xmm15, %xmm8, %xmm14
vfmadd231ps %xmm17, %xmm7, %xmm14 # xmm14 = (xmm7 * xmm17) + xmm14
vfmadd231ps %xmm15, %xmm6, %xmm14 # xmm14 = (xmm6 * xmm15) + xmm14
vfnmadd231ps %xmm17, %xmm5, %xmm14 # xmm14 = -(xmm5 * xmm17) + xmm14
vaddps %xmm3, %xmm11, %xmm3
vfmadd231ps %xmm15, %xmm10, %xmm3 # xmm3 = (xmm10 * xmm15) + xmm3
vfmadd231ps %xmm30, %xmm9, %xmm3 # xmm3 = (xmm9 * xmm30) + xmm3
vmulps %xmm17, %xmm4, %xmm4
vfmadd231ps %xmm11, %xmm15, %xmm4 # xmm4 = (xmm15 * xmm11) + xmm4
vfnmadd231ps %xmm10, %xmm17, %xmm4 # xmm4 = -(xmm17 * xmm10) + xmm4
vfmadd231ps %xmm9, %xmm15, %xmm4 # xmm4 = (xmm15 * xmm9) + xmm4
vaddps %xmm7, %xmm12, %xmm9
vfmadd231ps %xmm15, %xmm6, %xmm9 # xmm9 = (xmm6 * xmm15) + xmm9
vfmadd231ps %xmm30, %xmm5, %xmm9 # xmm9 = (xmm5 * xmm30) + xmm9
vmulps %xmm17, %xmm8, %xmm8
vfmadd231ps %xmm7, %xmm15, %xmm8 # xmm8 = (xmm15 * xmm7) + xmm8
vfnmadd231ps %xmm6, %xmm17, %xmm8 # xmm8 = -(xmm17 * xmm6) + xmm8
vfmadd231ps %xmm5, %xmm15, %xmm8 # xmm8 = (xmm15 * xmm5) + xmm8
vshufps $0xc9, %xmm2, %xmm2, %xmm5 # xmm5 = xmm2[1,2,0,3]
vshufps $0xc9, %xmm13, %xmm13, %xmm6 # xmm6 = xmm13[1,2,0,3]
vmulps %xmm6, %xmm2, %xmm6
vfmsub231ps %xmm13, %xmm5, %xmm6 # xmm6 = (xmm5 * xmm13) - xmm6
vshufps $0xc9, %xmm6, %xmm6, %xmm7 # xmm7 = xmm6[1,2,0,3]
vshufps $0xc9, %xmm14, %xmm14, %xmm6 # xmm6 = xmm14[1,2,0,3]
vmulps %xmm6, %xmm2, %xmm6
vfmsub231ps %xmm14, %xmm5, %xmm6 # xmm6 = (xmm5 * xmm14) - xmm6
vshufps $0xc9, %xmm6, %xmm6, %xmm10 # xmm10 = xmm6[1,2,0,3]
vshufps $0xc9, %xmm4, %xmm4, %xmm6 # xmm6 = xmm4[1,2,0,3]
vshufps $0xc9, %xmm9, %xmm9, %xmm5 # xmm5 = xmm9[1,2,0,3]
vmulps %xmm5, %xmm4, %xmm5
vfmsub231ps %xmm9, %xmm6, %xmm5 # xmm5 = (xmm6 * xmm9) - xmm5
vshufps $0xc9, %xmm5, %xmm5, %xmm5 # xmm5 = xmm5[1,2,0,3]
vshufps $0xc9, %xmm8, %xmm8, %xmm9 # xmm9 = xmm8[1,2,0,3]
vmulps %xmm4, %xmm9, %xmm9
vfmsub231ps %xmm8, %xmm6, %xmm9 # xmm9 = (xmm6 * xmm8) - xmm9
vshufps $0xc9, %xmm9, %xmm9, %xmm6 # xmm6 = xmm9[1,2,0,3]
vdpps $0x7f, %xmm7, %xmm7, %xmm8
vmovss %xmm8, %xmm15, %xmm9 # xmm9 = xmm8[0],xmm15[1,2,3]
vrsqrt14ss %xmm9, %xmm15, %xmm11
vmovss 0x21a330(%rip), %xmm16 # 0x1eec718
vmulss %xmm16, %xmm11, %xmm12
vmovss 0x21a324(%rip), %xmm17 # 0x1eec71c
vmulss %xmm17, %xmm8, %xmm13
vmulss %xmm11, %xmm13, %xmm13
vmulss %xmm11, %xmm11, %xmm11
vmulss %xmm11, %xmm13, %xmm11
vaddss %xmm11, %xmm12, %xmm11
vbroadcastss %xmm11, %xmm11
vmulps %xmm7, %xmm11, %xmm12
vdpps $0x7f, %xmm10, %xmm7, %xmm13
vbroadcastss %xmm8, %xmm14
vmulps %xmm14, %xmm10, %xmm10
vbroadcastss %xmm13, %xmm13
vmulps %xmm7, %xmm13, %xmm7
vsubps %xmm7, %xmm10, %xmm7
vrcp14ss %xmm9, %xmm15, %xmm9
vmovss 0x21ebb0(%rip), %xmm18 # 0x1ef0ff8
vfnmadd213ss %xmm18, %xmm9, %xmm8 # xmm8 = -(xmm9 * xmm8) + xmm18
vmulss %xmm8, %xmm9, %xmm8
vdpps $0x7f, %xmm5, %xmm5, %xmm9
vbroadcastss %xmm8, %xmm8
vmulps %xmm7, %xmm8, %xmm7
vmulps %xmm7, %xmm11, %xmm7
vmovss %xmm9, %xmm15, %xmm8 # xmm8 = xmm9[0],xmm15[1,2,3]
vrsqrt14ss %xmm8, %xmm15, %xmm10
vmulss %xmm16, %xmm10, %xmm11
vmulss %xmm17, %xmm9, %xmm13
vmulss %xmm10, %xmm13, %xmm13
vmulss %xmm10, %xmm10, %xmm10
vmulss %xmm10, %xmm13, %xmm10
vaddss %xmm10, %xmm11, %xmm10
vbroadcastss %xmm10, %xmm10
vmulps %xmm5, %xmm10, %xmm11
vdpps $0x7f, %xmm6, %xmm5, %xmm13
vbroadcastss %xmm9, %xmm14
vmulps %xmm6, %xmm14, %xmm6
vbroadcastss %xmm13, %xmm13
vmulps %xmm5, %xmm13, %xmm5
vsubps %xmm5, %xmm6, %xmm5
vrcp14ss %xmm8, %xmm15, %xmm6
vfnmadd213ss %xmm18, %xmm6, %xmm9 # xmm9 = -(xmm6 * xmm9) + xmm18
vmulss %xmm6, %xmm9, %xmm6
vbroadcastss %xmm6, %xmm6
vmulps %xmm6, %xmm5, %xmm5
vmulps %xmm5, %xmm10, %xmm5
vshufps $0xff, %xmm1, %xmm1, %xmm6 # xmm6 = xmm1[3,3,3,3]
vmulps %xmm6, %xmm12, %xmm8
vsubps %xmm8, %xmm1, %xmm13
vshufps $0xff, %xmm2, %xmm2, %xmm9 # xmm9 = xmm2[3,3,3,3]
vmulps %xmm12, %xmm9, %xmm9
vmulps %xmm7, %xmm6, %xmm6
vaddps %xmm6, %xmm9, %xmm6
vsubps %xmm6, %xmm2, %xmm7
vaddps %xmm1, %xmm8, %xmm14
vaddps %xmm6, %xmm2, %xmm1
vshufps $0xff, %xmm3, %xmm3, %xmm2 # xmm2 = xmm3[3,3,3,3]
vmulps %xmm2, %xmm11, %xmm6
vsubps %xmm6, %xmm3, %xmm15
vshufps $0xff, %xmm4, %xmm4, %xmm8 # xmm8 = xmm4[3,3,3,3]
vmulps %xmm11, %xmm8, %xmm8
vmulps %xmm5, %xmm2, %xmm2
vaddps %xmm2, %xmm8, %xmm2
vsubps %xmm2, %xmm4, %xmm5
vaddps %xmm6, %xmm3, %xmm16
vaddps %xmm2, %xmm4, %xmm2
vbroadcastss 0x21f987(%rip), %xmm4 # 0x1ef1ebc
vmulps %xmm4, %xmm7, %xmm3
vaddps %xmm3, %xmm13, %xmm17
vmulps %xmm4, %xmm5, %xmm3
vsubps %xmm3, %xmm15, %xmm18
vmulps %xmm4, %xmm1, %xmm1
vaddps %xmm1, %xmm14, %xmm20
vmulps %xmm4, %xmm2, %xmm1
vsubps %xmm1, %xmm16, %xmm21
vsubps %xmm0, %xmm13, %xmm1
vbroadcastss %xmm1, %xmm2
vshufps $0x55, %xmm1, %xmm1, %xmm3 # xmm3 = xmm1[1,1,1,1]
vmovaps %xmm1, 0x320(%rsp)
vshufps $0xaa, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,2,2,2]
vmovaps (%r12), %xmm4
vmovaps 0x10(%r12), %xmm5
vmovaps 0x20(%r12), %xmm6
vmulps %xmm1, %xmm6, %xmm1
vfmadd231ps %xmm3, %xmm5, %xmm1 # xmm1 = (xmm5 * xmm3) + xmm1
vfmadd231ps %xmm2, %xmm4, %xmm1 # xmm1 = (xmm4 * xmm2) + xmm1
vsubps %xmm0, %xmm17, %xmm2
vbroadcastss %xmm2, %xmm3
vshufps $0x55, %xmm2, %xmm2, %xmm7 # xmm7 = xmm2[1,1,1,1]
vmovaps %xmm2, 0x310(%rsp)
vshufps $0xaa, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[2,2,2,2]
vmulps %xmm2, %xmm6, %xmm2
vfmadd231ps %xmm7, %xmm5, %xmm2 # xmm2 = (xmm5 * xmm7) + xmm2
vfmadd231ps %xmm3, %xmm4, %xmm2 # xmm2 = (xmm4 * xmm3) + xmm2
vsubps %xmm0, %xmm18, %xmm3
vbroadcastss %xmm3, %xmm7
vshufps $0x55, %xmm3, %xmm3, %xmm8 # xmm8 = xmm3[1,1,1,1]
vmovaps %xmm3, 0x300(%rsp)
vshufps $0xaa, %xmm3, %xmm3, %xmm3 # xmm3 = xmm3[2,2,2,2]
vmulps %xmm3, %xmm6, %xmm3
vfmadd231ps %xmm8, %xmm5, %xmm3 # xmm3 = (xmm5 * xmm8) + xmm3
vfmadd231ps %xmm7, %xmm4, %xmm3 # xmm3 = (xmm4 * xmm7) + xmm3
vsubps %xmm0, %xmm15, %xmm9
vbroadcastss %xmm9, %xmm7
vshufps $0x55, %xmm9, %xmm9, %xmm8 # xmm8 = xmm9[1,1,1,1]
vmovaps %xmm9, 0x2f0(%rsp)
vshufps $0xaa, %xmm9, %xmm9, %xmm9 # xmm9 = xmm9[2,2,2,2]
vmulps %xmm6, %xmm9, %xmm9
vfmadd231ps %xmm8, %xmm5, %xmm9 # xmm9 = (xmm5 * xmm8) + xmm9
vfmadd231ps %xmm7, %xmm4, %xmm9 # xmm9 = (xmm4 * xmm7) + xmm9
vsubps %xmm0, %xmm14, %xmm10
vbroadcastss %xmm10, %xmm7
vshufps $0x55, %xmm10, %xmm10, %xmm8 # xmm8 = xmm10[1,1,1,1]
vmovaps %xmm10, 0x2e0(%rsp)
vshufps $0xaa, %xmm10, %xmm10, %xmm10 # xmm10 = xmm10[2,2,2,2]
vmulps %xmm6, %xmm10, %xmm10
vfmadd231ps %xmm8, %xmm5, %xmm10 # xmm10 = (xmm5 * xmm8) + xmm10
vfmadd231ps %xmm7, %xmm4, %xmm10 # xmm10 = (xmm4 * xmm7) + xmm10
vsubps %xmm0, %xmm20, %xmm11
vbroadcastss %xmm11, %xmm7
vshufps $0x55, %xmm11, %xmm11, %xmm8 # xmm8 = xmm11[1,1,1,1]
vmovaps %xmm11, 0x2d0(%rsp)
vshufps $0xaa, %xmm11, %xmm11, %xmm11 # xmm11 = xmm11[2,2,2,2]
vmulps %xmm6, %xmm11, %xmm11
vfmadd231ps %xmm8, %xmm5, %xmm11 # xmm11 = (xmm5 * xmm8) + xmm11
vfmadd231ps %xmm7, %xmm4, %xmm11 # xmm11 = (xmm4 * xmm7) + xmm11
vsubps %xmm0, %xmm21, %xmm12
vbroadcastss %xmm12, %xmm7
vshufps $0x55, %xmm12, %xmm12, %xmm8 # xmm8 = xmm12[1,1,1,1]
vmovaps %xmm12, 0x2c0(%rsp)
vshufps $0xaa, %xmm12, %xmm12, %xmm12 # xmm12 = xmm12[2,2,2,2]
vmulps %xmm6, %xmm12, %xmm12
vfmadd231ps %xmm8, %xmm5, %xmm12 # xmm12 = (xmm5 * xmm8) + xmm12
vfmadd231ps %xmm7, %xmm4, %xmm12 # xmm12 = (xmm4 * xmm7) + xmm12
vsubps %xmm0, %xmm16, %xmm8
vbroadcastss %xmm8, %xmm0
vshufps $0x55, %xmm8, %xmm8, %xmm7 # xmm7 = xmm8[1,1,1,1]
vmovaps %xmm8, 0x2b0(%rsp)
vshufps $0xaa, %xmm8, %xmm8, %xmm8 # xmm8 = xmm8[2,2,2,2]
vmulps %xmm6, %xmm8, %xmm6
vfmadd231ps %xmm7, %xmm5, %xmm6 # xmm6 = (xmm5 * xmm7) + xmm6
vfmadd231ps %xmm0, %xmm4, %xmm6 # xmm6 = (xmm4 * xmm0) + xmm6
vmovlhps %xmm10, %xmm1, %xmm8 # xmm8 = xmm1[0],xmm10[0]
vmovlhps %xmm11, %xmm2, %xmm22 # xmm22 = xmm2[0],xmm11[0]
vmovlhps %xmm12, %xmm3, %xmm23 # xmm23 = xmm3[0],xmm12[0]
vmovlhps %xmm6, %xmm9, %xmm24 # xmm24 = xmm9[0],xmm6[0]
vminps %xmm22, %xmm8, %xmm0
vmaxps %xmm22, %xmm8, %xmm4
vminps %xmm24, %xmm23, %xmm5
vminps %xmm5, %xmm0, %xmm0
vmaxps %xmm24, %xmm23, %xmm5
vmaxps %xmm5, %xmm4, %xmm4
vshufpd $0x3, %xmm0, %xmm0, %xmm5 # xmm5 = xmm0[1,1]
vshufpd $0x3, %xmm4, %xmm4, %xmm7 # xmm7 = xmm4[1,1]
vminps %xmm5, %xmm0, %xmm0
vmaxps %xmm7, %xmm4, %xmm4
vandps %xmm19, %xmm0, %xmm0
vandps %xmm19, %xmm4, %xmm4
vmaxps %xmm4, %xmm0, %xmm0
vmovshdup %xmm0, %xmm4 # xmm4 = xmm0[1,1,3,3]
vmaxss %xmm0, %xmm4, %xmm0
vmulss 0x21f77a(%rip), %xmm0, %xmm0 # 0x1ef1eb8
vmovddup %xmm1, %xmm7 # xmm7 = xmm1[0,0]
vmovddup %xmm2, %xmm19 # xmm19 = xmm2[0,0]
vmovddup %xmm3, %xmm25 # xmm25 = xmm3[0,0]
vmovddup %xmm9, %xmm1 # xmm1 = xmm9[0,0]
vmovddup %xmm10, %xmm2 # xmm2 = xmm10[0,0]
vmovddup %xmm11, %xmm9 # xmm9 = xmm11[0,0]
vmovddup %xmm12, %xmm10 # xmm10 = xmm12[0,0]
vmovddup %xmm6, %xmm11 # xmm11 = xmm6[0,0]
vmovaps %xmm0, 0x130(%rsp)
vbroadcastss %xmm0, %ymm29
vxorps %xmm30, %xmm29, %xmm0
vbroadcastss %xmm0, %ymm28
vpbroadcastd %eax, %xmm0
vmovdqa %xmm0, 0x220(%rsp)
xorl %r11d, %r11d
xorl %ebx, %ebx
vmovss 0x30(%r9,%r14,4), %xmm0
vmovss %xmm0, 0x9c(%rsp)
vmovaps %xmm8, 0xb0(%rsp)
vsubps %xmm8, %xmm22, %xmm0
vmovaps %xmm0, 0xe0(%rsp)
vmovaps %xmm22, 0x100(%rsp)
vsubps %xmm22, %xmm23, %xmm0
vmovaps %xmm0, 0xd0(%rsp)
vmovaps %xmm23, 0xf0(%rsp)
vmovaps %xmm24, 0x140(%rsp)
vsubps %xmm23, %xmm24, %xmm0
vmovaps %xmm0, 0xc0(%rsp)
vmovaps %xmm13, 0x2a0(%rsp)
vmovaps %xmm14, 0x290(%rsp)
vsubps %xmm13, %xmm14, %xmm0
vmovaps %xmm0, 0x210(%rsp)
vmovaps %xmm2, %xmm13
vmovaps %xmm17, 0x260(%rsp)
vmovaps %xmm20, 0x240(%rsp)
vsubps %xmm17, %xmm20, %xmm0
vmovaps %xmm0, 0x200(%rsp)
vmovaps %xmm18, 0x250(%rsp)
vmovaps %xmm21, 0x230(%rsp)
vsubps %xmm18, %xmm21, %xmm0
vmovaps %xmm0, 0x1f0(%rsp)
vmovaps %xmm15, 0x280(%rsp)
vmovaps %xmm16, 0x270(%rsp)
vsubps %xmm15, %xmm16, %xmm0
vmovaps %xmm0, 0x1e0(%rsp)
vmovaps %xmm1, %xmm16
movq 0x88(%rsp), %r8
vpbroadcastd %r8d, %xmm0
vmovdqa %xmm0, 0x1d0(%rsp)
vmovsd 0x219e56(%rip), %xmm0 # 0x1eec6f0
vmovaps %xmm0, %xmm15
movq 0x70(%rsp), %rcx
vmovaps %xmm7, 0x170(%rsp)
vmovaps %xmm19, 0x160(%rsp)
vmovaps %xmm25, 0x150(%rsp)
vmovaps %xmm1, 0x60(%rsp)
vmovaps %xmm2, 0x40(%rsp)
vmovaps %xmm9, 0x30(%rsp)
vmovaps %xmm10, 0x20(%rsp)
vmovaps %xmm11, 0x10(%rsp)
vmovups %ymm29, 0x420(%rsp)
vmovups %ymm28, 0x400(%rsp)
vmovaps %xmm15, %xmm27
vshufps $0x50, %xmm15, %xmm15, %xmm1 # xmm1 = xmm15[0,0,1,1]
vbroadcastss 0x219e14(%rip), %ymm26 # 0x1eec714
vsubps %xmm1, %xmm26, %xmm2
vmulps %xmm1, %xmm13, %xmm3
vmulps %xmm1, %xmm9, %xmm4
vmulps %xmm1, %xmm10, %xmm5
vmulps %xmm1, %xmm11, %xmm1
vfmadd231ps %xmm7, %xmm2, %xmm3 # xmm3 = (xmm2 * xmm7) + xmm3
vfmadd231ps %xmm19, %xmm2, %xmm4 # xmm4 = (xmm2 * xmm19) + xmm4
vfmadd231ps %xmm25, %xmm2, %xmm5 # xmm5 = (xmm2 * xmm25) + xmm5
vfmadd231ps %xmm2, %xmm16, %xmm1 # xmm1 = (xmm16 * xmm2) + xmm1
vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3]
vsubss %xmm0, %xmm2, %xmm6
vmulss 0x24e593(%rip), %xmm6, %xmm6 # 0x1f20ed0
vbroadcastss %xmm0, %ymm7
vbroadcastsd %xmm2, %ymm2
vsubps %ymm7, %ymm2, %ymm10
vbroadcastss %xmm3, %ymm2
vbroadcastss 0x23fdab(%rip), %ymm9 # 0x1f12704
vpermps %ymm3, %ymm9, %ymm8
vbroadcastss %xmm4, %ymm20
vpermps %ymm4, %ymm9, %ymm21
vbroadcastss %xmm5, %ymm22
vpermps %ymm5, %ymm9, %ymm23
vbroadcastss %xmm1, %ymm24
vpermps %ymm1, %ymm9, %ymm25
vbroadcastss %xmm6, %ymm9
vbroadcastss 0x24e54c(%rip), %ymm13 # 0x1f20edc
vpermps %ymm3, %ymm13, %ymm19
vbroadcastss 0x24e539(%rip), %ymm6 # 0x1f20ed8
vpermps %ymm3, %ymm6, %ymm18
vpermps %ymm4, %ymm13, %ymm15
vpermps %ymm4, %ymm6, %ymm14
vpermps %ymm5, %ymm13, %ymm12
vpermps %ymm5, %ymm6, %ymm11
vpermps %ymm1, %ymm13, %ymm16
vpermps %ymm1, %ymm6, %ymm17
vfmadd132ps 0x24e552(%rip), %ymm7, %ymm10 # ymm10 = (ymm10 * mem) + ymm7
vsubps %ymm10, %ymm26, %ymm13
vmulps %ymm10, %ymm20, %ymm1
vmulps %ymm10, %ymm21, %ymm3
vfmadd231ps %ymm2, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm2) + ymm1
vfmadd231ps %ymm8, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm8) + ymm3
vmulps %ymm10, %ymm22, %ymm2
vmulps %ymm10, %ymm23, %ymm4
vfmadd231ps %ymm20, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm20) + ymm2
vfmadd231ps %ymm21, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm21) + ymm4
vmulps %ymm10, %ymm24, %ymm5
vmulps %ymm10, %ymm25, %ymm6
vfmadd231ps %ymm22, %ymm13, %ymm5 # ymm5 = (ymm13 * ymm22) + ymm5
vfmadd231ps %ymm23, %ymm13, %ymm6 # ymm6 = (ymm13 * ymm23) + ymm6
vmulps %ymm2, %ymm10, %ymm7
vmulps %ymm4, %ymm10, %ymm8
vfmadd231ps %ymm1, %ymm13, %ymm7 # ymm7 = (ymm13 * ymm1) + ymm7
vfmadd231ps %ymm3, %ymm13, %ymm8 # ymm8 = (ymm13 * ymm3) + ymm8
vmulps %ymm5, %ymm10, %ymm1
vmulps %ymm6, %ymm10, %ymm5
vfmadd231ps %ymm2, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm2) + ymm1
vfmadd231ps %ymm4, %ymm13, %ymm5 # ymm5 = (ymm13 * ymm4) + ymm5
vmulps %ymm1, %ymm10, %ymm3
vmulps %ymm5, %ymm10, %ymm4
vfmadd231ps %ymm7, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm7) + ymm3
vfmadd231ps %ymm8, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm8) + ymm4
vsubps %ymm7, %ymm1, %ymm1
vsubps %ymm8, %ymm5, %ymm2
vbroadcastss 0x21e589(%rip), %ymm22 # 0x1ef0fec
vmulps %ymm22, %ymm1, %ymm1
vmulps %ymm22, %ymm2, %ymm2
vmulps %ymm1, %ymm9, %ymm8
vmulps %ymm2, %ymm9, %ymm20
vmovaps %ymm3, %ymm5
vmovaps 0x28d299(%rip), %ymm23 # 0x1f5fd20
vxorps %xmm24, %xmm24, %xmm24
vpermt2ps %ymm24, %ymm23, %ymm5
vmovaps %ymm4, %ymm6
vpermt2ps %ymm24, %ymm23, %ymm6
vaddps %ymm3, %ymm8, %ymm1
vpermt2ps %ymm24, %ymm23, %ymm8
vaddps %ymm20, %ymm4, %ymm7
vpermt2ps %ymm24, %ymm23, %ymm20
vsubps %ymm8, %ymm5, %ymm2
vsubps %ymm20, %ymm6, %ymm8
vmulps %ymm10, %ymm15, %ymm20
vmulps %ymm10, %ymm14, %ymm21
vfmadd231ps %ymm19, %ymm13, %ymm20 # ymm20 = (ymm13 * ymm19) + ymm20
vfmadd231ps %ymm18, %ymm13, %ymm21 # ymm21 = (ymm13 * ymm18) + ymm21
vmulps %ymm10, %ymm12, %ymm18
vmulps %ymm10, %ymm11, %ymm19
vfmadd231ps %ymm15, %ymm13, %ymm18 # ymm18 = (ymm13 * ymm15) + ymm18
vfmadd231ps %ymm14, %ymm13, %ymm19 # ymm19 = (ymm13 * ymm14) + ymm19
vmulps %ymm10, %ymm16, %ymm14
vmulps %ymm10, %ymm17, %ymm15
vfmadd231ps %ymm12, %ymm13, %ymm14 # ymm14 = (ymm13 * ymm12) + ymm14
vfmadd231ps %ymm11, %ymm13, %ymm15 # ymm15 = (ymm13 * ymm11) + ymm15
vmulps %ymm18, %ymm10, %ymm16
vmulps %ymm19, %ymm10, %ymm17
vfmadd231ps %ymm20, %ymm13, %ymm16 # ymm16 = (ymm13 * ymm20) + ymm16
vfmadd231ps %ymm21, %ymm13, %ymm17 # ymm17 = (ymm13 * ymm21) + ymm17
vmulps %ymm14, %ymm10, %ymm14
vmulps %ymm15, %ymm10, %ymm15
vfmadd231ps %ymm18, %ymm13, %ymm14 # ymm14 = (ymm13 * ymm18) + ymm14
vfmadd231ps %ymm19, %ymm13, %ymm15 # ymm15 = (ymm13 * ymm19) + ymm15
vmulps %ymm14, %ymm10, %ymm11
vmulps %ymm15, %ymm10, %ymm12
vfmadd231ps %ymm16, %ymm13, %ymm11 # ymm11 = (ymm13 * ymm16) + ymm11
vfmadd231ps %ymm13, %ymm17, %ymm12 # ymm12 = (ymm17 * ymm13) + ymm12
vsubps %ymm16, %ymm14, %ymm10
vsubps %ymm17, %ymm15, %ymm13
vmulps %ymm22, %ymm10, %ymm10
vmulps %ymm22, %ymm13, %ymm13
vmulps %ymm10, %ymm9, %ymm10
vmulps %ymm13, %ymm9, %ymm16
vmovaps %ymm11, %ymm13
vpermt2ps %ymm24, %ymm23, %ymm13
vmovaps %ymm12, %ymm14
vpermt2ps %ymm24, %ymm23, %ymm14
vaddps %ymm10, %ymm11, %ymm9
vpermt2ps %ymm24, %ymm23, %ymm10
vaddps %ymm16, %ymm12, %ymm15
vpermt2ps %ymm24, %ymm23, %ymm16
vsubps %ymm10, %ymm13, %ymm10
vsubps %ymm16, %ymm14, %ymm16
vsubps %ymm3, %ymm11, %ymm17
vsubps %ymm4, %ymm12, %ymm18
vsubps %ymm5, %ymm13, %ymm19
vaddps %ymm19, %ymm17, %ymm17
vsubps %ymm6, %ymm14, %ymm19
vaddps %ymm19, %ymm18, %ymm18
vmulps %ymm17, %ymm4, %ymm19
vfnmadd231ps %ymm18, %ymm3, %ymm19 # ymm19 = -(ymm3 * ymm18) + ymm19
vmulps %ymm17, %ymm7, %ymm20
vfnmadd231ps %ymm18, %ymm1, %ymm20 # ymm20 = -(ymm1 * ymm18) + ymm20
vmulps %ymm17, %ymm8, %ymm21
vfnmadd231ps %ymm18, %ymm2, %ymm21 # ymm21 = -(ymm2 * ymm18) + ymm21
vmulps %ymm17, %ymm6, %ymm22
vfnmadd231ps %ymm18, %ymm5, %ymm22 # ymm22 = -(ymm5 * ymm18) + ymm22
vmulps %ymm17, %ymm12, %ymm23
vfnmadd231ps %ymm18, %ymm11, %ymm23 # ymm23 = -(ymm11 * ymm18) + ymm23
vmulps %ymm17, %ymm15, %ymm24
vfnmadd231ps %ymm18, %ymm9, %ymm24 # ymm24 = -(ymm9 * ymm18) + ymm24
vmulps %ymm17, %ymm16, %ymm25
vfnmadd231ps %ymm18, %ymm10, %ymm25 # ymm25 = -(ymm10 * ymm18) + ymm25
vmulps %ymm17, %ymm14, %ymm17
vfnmadd231ps %ymm18, %ymm13, %ymm17 # ymm17 = -(ymm13 * ymm18) + ymm17
vminps %ymm20, %ymm19, %ymm18
vmaxps %ymm20, %ymm19, %ymm19
vminps %ymm22, %ymm21, %ymm20
vminps %ymm20, %ymm18, %ymm18
vmaxps %ymm22, %ymm21, %ymm20
vmaxps %ymm20, %ymm19, %ymm19
vminps %ymm24, %ymm23, %ymm20
vmaxps %ymm24, %ymm23, %ymm21
vminps %ymm17, %ymm25, %ymm22
vminps %ymm22, %ymm20, %ymm20
vminps %ymm20, %ymm18, %ymm18
vmaxps %ymm17, %ymm25, %ymm17
vmaxps %ymm17, %ymm21, %ymm17
vmaxps %ymm17, %ymm19, %ymm17
vcmpleps %ymm29, %ymm18, %k1
vcmpnltps %ymm28, %ymm17, %k0 {%k1}
kmovd %k0, %eax
movl $0x0, %edx
andb $0x7f, %al
je 0x1cd2d6f
vsubps %ymm3, %ymm5, %ymm17
vsubps %ymm4, %ymm6, %ymm18
vsubps %ymm11, %ymm13, %ymm19
vaddps %ymm19, %ymm17, %ymm17
vsubps %ymm12, %ymm14, %ymm19
vaddps %ymm19, %ymm18, %ymm18
vmulps %ymm17, %ymm4, %ymm4
vfnmadd231ps %ymm3, %ymm18, %ymm4 # ymm4 = -(ymm18 * ymm3) + ymm4
vmulps %ymm17, %ymm7, %ymm3
vfnmadd213ps %ymm3, %ymm18, %ymm1 # ymm1 = -(ymm18 * ymm1) + ymm3
vmulps %ymm17, %ymm8, %ymm3
vfnmadd213ps %ymm3, %ymm18, %ymm2 # ymm2 = -(ymm18 * ymm2) + ymm3
vmulps %ymm17, %ymm6, %ymm3
vfnmadd231ps %ymm5, %ymm18, %ymm3 # ymm3 = -(ymm18 * ymm5) + ymm3
vmulps %ymm17, %ymm12, %ymm5
vfnmadd231ps %ymm11, %ymm18, %ymm5 # ymm5 = -(ymm18 * ymm11) + ymm5
vmulps %ymm17, %ymm15, %ymm6
vfnmadd213ps %ymm6, %ymm18, %ymm9 # ymm9 = -(ymm18 * ymm9) + ymm6
vmulps %ymm17, %ymm16, %ymm6
vfnmadd213ps %ymm6, %ymm18, %ymm10 # ymm10 = -(ymm18 * ymm10) + ymm6
vmulps %ymm17, %ymm14, %ymm6
vfnmadd231ps %ymm18, %ymm13, %ymm6 # ymm6 = -(ymm13 * ymm18) + ymm6
vminps %ymm1, %ymm4, %ymm7
vmaxps %ymm1, %ymm4, %ymm1
vminps %ymm3, %ymm2, %ymm4
vminps %ymm4, %ymm7, %ymm4
vmaxps %ymm3, %ymm2, %ymm2
vmaxps %ymm2, %ymm1, %ymm1
vminps %ymm9, %ymm5, %ymm2
vmaxps %ymm9, %ymm5, %ymm3
vminps %ymm6, %ymm10, %ymm5
vminps %ymm5, %ymm2, %ymm2
vminps %ymm2, %ymm4, %ymm2
vmaxps %ymm6, %ymm10, %ymm4
vmaxps %ymm4, %ymm3, %ymm3
vmaxps %ymm3, %ymm1, %ymm1
vcmpnltps %ymm28, %ymm1, %k1
vcmpleps %ymm29, %ymm2, %k0 {%k1}
kmovd %k0, %edx
andb %dl, %al
movzbl %al, %edx
testl %edx, %edx
je 0x1cd2d92
movl %ebx, %eax
movl %edx, 0x180(%rsp,%rax,4)
vmovlps %xmm0, 0x330(%rsp,%rax,8)
vmovlps %xmm27, 0x440(%rsp,%rax,8)
incl %ebx
vbroadcastss 0x219de4(%rip), %xmm17 # 0x1eecb80
vbroadcastss 0x24e11e(%rip), %xmm19 # 0x1f20ec4
vbroadcastss 0x21e23c(%rip), %ymm18 # 0x1ef0fec
vmovss 0x24e126(%rip), %xmm20 # 0x1f20ee0
vmovss 0x219950(%rip), %xmm21 # 0x1eec714
vmovss 0x21e232(%rip), %xmm22 # 0x1ef1000
vmovss 0x21ec74(%rip), %xmm23 # 0x1ef1a4c
vbroadcastss 0x219932(%rip), %xmm24 # 0x1eec714
vmovss 0x21f0d0(%rip), %xmm25 # 0x1ef1ebc
vmovaps 0x60(%rsp), %xmm16
vmovaps 0x40(%rsp), %xmm13
vmovaps 0x30(%rsp), %xmm9
vmovaps 0x20(%rsp), %xmm10
vmovaps 0x10(%rsp), %xmm11
vmovaps 0xe0(%rsp), %xmm26
vmovaps 0xd0(%rsp), %xmm28
vmovaps 0xc0(%rsp), %xmm29
testl %ebx, %ebx
je 0x1cd3e8c
leal -0x1(%rbx), %eax
vmovss 0x330(%rsp,%rax,8), %xmm0
vmovss 0x334(%rsp,%rax,8), %xmm1
movl 0x180(%rsp,%rax,4), %esi
vmovsd 0x440(%rsp,%rax,8), %xmm15
tzcntq %rsi, %rdx
blsrl %esi, %esi
movl %esi, 0x180(%rsp,%rax,4)
cmovel %eax, %ebx
vxorps %xmm2, %xmm2, %xmm2
vcvtsi2ss %rdx, %xmm2, %xmm2
vmulss %xmm20, %xmm2, %xmm2
incq %rdx
vxorps %xmm12, %xmm12, %xmm12
vcvtsi2ss %rdx, %xmm12, %xmm3
vmulss %xmm20, %xmm3, %xmm3
vsubss %xmm2, %xmm21, %xmm4
vmulss %xmm2, %xmm1, %xmm27
vfmadd231ss %xmm4, %xmm0, %xmm27 # xmm27 = (xmm0 * xmm4) + xmm27
vsubss %xmm3, %xmm21, %xmm2
vmulss %xmm3, %xmm1, %xmm14
vfmadd231ss %xmm2, %xmm0, %xmm14 # xmm14 = (xmm0 * xmm2) + xmm14
vsubss %xmm27, %xmm14, %xmm0
vucomiss %xmm0, %xmm22
jbe 0x1cd3e57
vmovaps %xmm27, %xmm6
vmovaps %xmm15, %xmm27
vshufps $0x50, %xmm15, %xmm15, %xmm1 # xmm1 = xmm15[0,0,1,1]
vucomiss %xmm0, %xmm23
seta %dil
cmpl $0x4, %ebx
setae %al
vsubps %xmm1, %xmm24, %xmm2
vmulps %xmm1, %xmm13, %xmm3
vmulps %xmm1, %xmm9, %xmm4
vmulps %xmm1, %xmm10, %xmm5
vmulps %xmm1, %xmm11, %xmm1
vfmadd231ps 0x170(%rsp), %xmm2, %xmm3 # xmm3 = (xmm2 * mem) + xmm3
vfmadd231ps 0x160(%rsp), %xmm2, %xmm4 # xmm4 = (xmm2 * mem) + xmm4
vfmadd231ps 0x150(%rsp), %xmm2, %xmm5 # xmm5 = (xmm2 * mem) + xmm5
vfmadd231ps %xmm2, %xmm16, %xmm1 # xmm1 = (xmm16 * xmm2) + xmm1
vinsertf128 $0x1, %xmm3, %ymm3, %ymm2
vinsertf128 $0x1, %xmm4, %ymm4, %ymm3
vinsertf128 $0x1, %xmm5, %ymm5, %ymm4
vmovaps %xmm6, 0xa0(%rsp)
vbroadcastss %xmm6, %xmm6
vmovaps %xmm14, 0x50(%rsp)
vbroadcastss %xmm14, %xmm7
vinsertf128 $0x1, %xmm7, %ymm6, %ymm6
vsubps %ymm2, %ymm3, %ymm7
vfmadd213ps %ymm2, %ymm6, %ymm7 # ymm7 = (ymm6 * ymm7) + ymm2
vsubps %ymm3, %ymm4, %ymm2
vfmadd213ps %ymm3, %ymm6, %ymm2 # ymm2 = (ymm6 * ymm2) + ymm3
vsubps %xmm5, %xmm1, %xmm1
vinsertf128 $0x1, %xmm1, %ymm1, %ymm3
vfmadd213ps %ymm4, %ymm6, %ymm3 # ymm3 = (ymm6 * ymm3) + ymm4
vsubps %ymm7, %ymm2, %ymm1
vfmadd213ps %ymm7, %ymm6, %ymm1 # ymm1 = (ymm6 * ymm1) + ymm7
vsubps %ymm2, %ymm3, %ymm3
vfmadd213ps %ymm2, %ymm6, %ymm3 # ymm3 = (ymm6 * ymm3) + ymm2
vsubps %ymm1, %ymm3, %ymm2
vfmadd231ps %ymm6, %ymm2, %ymm1 # ymm1 = (ymm2 * ymm6) + ymm1
vmulps %ymm18, %ymm2, %ymm3
vextractf128 $0x1, %ymm1, %xmm2
vextractf128 $0x1, %ymm3, %xmm4
vmulss %xmm25, %xmm0, %xmm5
vbroadcastss %xmm5, %xmm6
vmulps %xmm3, %xmm6, %xmm3
vaddps %xmm3, %xmm1, %xmm5
vmulps %xmm4, %xmm6, %xmm3
vsubps %xmm3, %xmm2, %xmm6
vshufpd $0x3, %xmm1, %xmm1, %xmm4 # xmm4 = xmm1[1,1]
vshufpd $0x3, %xmm2, %xmm2, %xmm3 # xmm3 = xmm2[1,1]
vsubps %xmm1, %xmm4, %xmm7
vsubps %xmm2, %xmm3, %xmm8
vaddps %xmm7, %xmm8, %xmm7
vshufps $0xb1, %xmm1, %xmm1, %xmm8 # xmm8 = xmm1[1,0,3,2]
vshufps $0xb1, %xmm5, %xmm5, %xmm9 # xmm9 = xmm5[1,0,3,2]
vshufps $0xb1, %xmm6, %xmm6, %xmm10 # xmm10 = xmm6[1,0,3,2]
vshufps $0xb1, %xmm2, %xmm2, %xmm11 # xmm11 = xmm2[1,0,3,2]
vbroadcastss %xmm7, %xmm12
vshufps $0x55, %xmm7, %xmm7, %xmm7 # xmm7 = xmm7[1,1,1,1]
vmulps %xmm7, %xmm8, %xmm8
vmulps %xmm7, %xmm9, %xmm9
vmulps %xmm7, %xmm10, %xmm10
vmulps %xmm7, %xmm11, %xmm7
vfmadd231ps %xmm1, %xmm12, %xmm8 # xmm8 = (xmm12 * xmm1) + xmm8
vfmadd231ps %xmm5, %xmm12, %xmm9 # xmm9 = (xmm12 * xmm5) + xmm9
vfmadd231ps %xmm6, %xmm12, %xmm10 # xmm10 = (xmm12 * xmm6) + xmm10
vfmadd231ps %xmm12, %xmm2, %xmm7 # xmm7 = (xmm2 * xmm12) + xmm7
vshufpd $0x1, %xmm8, %xmm8, %xmm11 # xmm11 = xmm8[1,0]
vshufpd $0x1, %xmm9, %xmm9, %xmm12 # xmm12 = xmm9[1,0]
vshufpd $0x1, %xmm10, %xmm10, %xmm14 # xmm14 = xmm10[1,0]
vshufpd $0x1, %xmm7, %xmm7, %xmm15 # xmm15 = xmm7[1,0]
vminss %xmm9, %xmm8, %xmm13
vmaxss %xmm8, %xmm9, %xmm8
vminss %xmm7, %xmm10, %xmm9
vmaxss %xmm10, %xmm7, %xmm7
vminss %xmm9, %xmm13, %xmm13
vmaxss %xmm8, %xmm7, %xmm9
vminss %xmm12, %xmm11, %xmm7
vmaxss %xmm11, %xmm12, %xmm8
vminss %xmm15, %xmm14, %xmm10
vmaxss %xmm14, %xmm15, %xmm11
vminss %xmm10, %xmm7, %xmm14
vmaxss %xmm8, %xmm11, %xmm10
vmovss 0x21d976(%rip), %xmm7 # 0x1ef09d8
vucomiss %xmm13, %xmm7
jbe 0x1cd3077
vmovss 0x21ee4f(%rip), %xmm7 # 0x1ef1ec0
vucomiss %xmm7, %xmm10
ja 0x1cd30d8
vmovss 0x21ee41(%rip), %xmm7 # 0x1ef1ec0
vucomiss %xmm7, %xmm9
seta %dl
vmovss 0x21d94a(%rip), %xmm7 # 0x1ef09d8
vcmpltps %xmm7, %xmm14, %k0
vcmpltps %xmm7, %xmm13, %k1
korw %k0, %k1, %k0
kmovd %k0, %esi
testb %sil, %dl
jne 0x1cd30d8
vmovss 0x21ee0f(%rip), %xmm7 # 0x1ef1ec0
vcmpnltps %xmm10, %xmm7, %k0
vmovss 0x21d918(%rip), %xmm7 # 0x1ef09d8
vcmpnltps %xmm7, %xmm14, %k1
korw %k0, %k1, %k0
kmovd %k0, %edx
testb $0x1, %dl
jne 0x1cd3e0a
vcmpltss %xmm31, %xmm13, %k1
vmovaps %xmm21, %xmm15
vmovss 0x21d8dd(%rip), %xmm16 # 0x1ef09cc
vmovss %xmm16, %xmm15, %xmm15 {%k1}
vcmpltss %xmm31, %xmm9, %k1
vmovaps %xmm21, %xmm12
vmovss %xmm16, %xmm12, %xmm12 {%k1}
vucomiss %xmm12, %xmm15
setp %dl
setne %sil
orb %dl, %sil
kmovd %esi, %k1
vmovss 0x2188fd(%rip), %xmm7 # 0x1eeba20
vmovss %xmm31, %xmm7, %xmm7 {%k1}
vmovss 0x219a53(%rip), %xmm8 # 0x1eecb84
vmovss %xmm31, %xmm8, %xmm8 {%k1}
vcmpltss %xmm31, %xmm14, %k1
vmovaps %xmm21, %xmm11
vmovss %xmm16, %xmm11, %xmm11 {%k1}
vucomiss %xmm11, %xmm15
jne 0x1cd3153
jnp 0x1cd3192
vucomiss %xmm13, %xmm14
jne 0x1cd31a2
jp 0x1cd31a2
vucomiss %xmm31, %xmm13
setnp %dl
sete %sil
andb %dl, %sil
kmovd %esi, %k1
vmovss 0x2188a8(%rip), %xmm13 # 0x1eeba20
vmovss %xmm31, %xmm13, %xmm13 {%k1}
vmovss 0x2199fe(%rip), %xmm14 # 0x1eecb84
vmovss 0x219584(%rip), %xmm14 {%k1} # 0x1eec714
jmp 0x1cd31c7
vmovaps 0xb0(%rsp), %xmm16
vmovaps %xmm27, %xmm15
jmp 0x1cd31df
vxorps 0x24dd14(%rip){1to4}, %xmm13, %xmm15 # 0x1f20ec0
vsubss %xmm13, %xmm14, %xmm13
vdivss %xmm13, %xmm15, %xmm14
vsubss %xmm14, %xmm21, %xmm13
vfmadd213ss %xmm14, %xmm31, %xmm13 # xmm13 = (xmm31 * xmm13) + xmm14
vmovaps %xmm13, %xmm14
vmovaps 0xb0(%rsp), %xmm16
vmovaps %xmm27, %xmm15
vminss %xmm13, %xmm7, %xmm7
vmaxss %xmm8, %xmm14, %xmm8
vmovaps 0xa0(%rsp), %xmm27
vcmpltss %xmm31, %xmm10, %k1
vmovaps %xmm21, %xmm13
vmovss 0x21d7ce(%rip), %xmm13 {%k1} # 0x1ef09cc
vucomiss %xmm13, %xmm12
vmovaps 0x50(%rsp), %xmm14
jne 0x1cd320d
jnp 0x1cd327b
vucomiss %xmm9, %xmm10
jne 0x1cd324c
jp 0x1cd324c
vucomiss %xmm31, %xmm9
setnp %dl
sete %sil
andb %dl, %sil
kmovd %esi, %k1
vmovss 0x2187ee(%rip), %xmm9 # 0x1eeba20
vmovss %xmm31, %xmm9, %xmm9 {%k1}
vmovss 0x219944(%rip), %xmm10 # 0x1eecb84
vmovss 0x2194ca(%rip), %xmm10 {%k1} # 0x1eec714
jmp 0x1cd3271
vxorps 0x24dc6a(%rip){1to4}, %xmm9, %xmm12 # 0x1f20ec0
vsubss %xmm9, %xmm10, %xmm9
vdivss %xmm9, %xmm12, %xmm10
vsubss %xmm10, %xmm21, %xmm9
vfmadd213ss %xmm10, %xmm31, %xmm9 # xmm9 = (xmm31 * xmm9) + xmm10
vmovaps %xmm9, %xmm10
vminss %xmm9, %xmm7, %xmm7
vmaxss %xmm8, %xmm10, %xmm8
vucomiss %xmm13, %xmm11
setp %dl
setne %sil
orb %dl, %sil
vminss %xmm21, %xmm7, %xmm9
kmovd %esi, %k1
vmovss %xmm9, %xmm7, %xmm7 {%k1}
vmaxss %xmm8, %xmm21, %xmm9
vmovss %xmm9, %xmm8, %xmm8 {%k1}
vmaxss %xmm7, %xmm31, %xmm7
vminss %xmm21, %xmm8, %xmm8
movb $0x1, %bpl
vucomiss %xmm8, %xmm7
ja 0x1cd3dcc
vaddss 0x28a1a0(%rip), %xmm7, %xmm7 # 0x1f5d468
vaddss 0x2198cc(%rip), %xmm8, %xmm8 # 0x1eecb9c
vmaxss %xmm7, %xmm31, %xmm7
vminss %xmm21, %xmm8, %xmm8
vmovddup %xmm1, %xmm1 # xmm1 = xmm1[0,0]
vmovddup %xmm5, %xmm9 # xmm9 = xmm5[0,0]
vmovddup %xmm6, %xmm10 # xmm10 = xmm6[0,0]
vmovddup %xmm2, %xmm2 # xmm2 = xmm2[0,0]
vshufpd $0x3, %xmm5, %xmm5, %xmm5 # xmm5 = xmm5[1,1]
vshufpd $0x3, %xmm6, %xmm6, %xmm6 # xmm6 = xmm6[1,1]
vshufps $0x0, %xmm8, %xmm7, %xmm11 # xmm11 = xmm7[0,0],xmm8[0,0]
vsubps %xmm11, %xmm24, %xmm12
vmulps %xmm4, %xmm11, %xmm13
vmulps %xmm5, %xmm11, %xmm5
vmulps %xmm6, %xmm11, %xmm6
vmulps %xmm3, %xmm11, %xmm3
vfmadd231ps %xmm1, %xmm12, %xmm13 # xmm13 = (xmm12 * xmm1) + xmm13
vfmadd231ps %xmm9, %xmm12, %xmm5 # xmm5 = (xmm12 * xmm9) + xmm5
vfmadd231ps %xmm10, %xmm12, %xmm6 # xmm6 = (xmm12 * xmm10) + xmm6
vfmadd231ps %xmm2, %xmm12, %xmm3 # xmm3 = (xmm12 * xmm2) + xmm3
vsubss %xmm7, %xmm21, %xmm2
vmovshdup %xmm15, %xmm4 # xmm4 = xmm15[1,1,3,3]
vmulss %xmm7, %xmm4, %xmm1
vfmadd231ss %xmm2, %xmm15, %xmm1 # xmm1 = (xmm15 * xmm2) + xmm1
vsubss %xmm8, %xmm21, %xmm2
vmulss %xmm4, %xmm8, %xmm4
vfmadd231ss %xmm2, %xmm15, %xmm4 # xmm4 = (xmm15 * xmm2) + xmm4
vdivss %xmm0, %xmm21, %xmm0
vsubps %xmm13, %xmm5, %xmm2
vbroadcastss 0x21dc8f(%rip), %xmm15 # 0x1ef0fec
vmulps %xmm2, %xmm15, %xmm2
vsubps %xmm5, %xmm6, %xmm7
vmulps %xmm7, %xmm15, %xmm7
vsubps %xmm6, %xmm3, %xmm8
vmulps %xmm15, %xmm8, %xmm8
vminps %xmm8, %xmm7, %xmm9
vmaxps %xmm8, %xmm7, %xmm7
vminps %xmm9, %xmm2, %xmm8
vmaxps %xmm7, %xmm2, %xmm2
vshufpd $0x3, %xmm8, %xmm8, %xmm7 # xmm7 = xmm8[1,1]
vshufpd $0x3, %xmm2, %xmm2, %xmm9 # xmm9 = xmm2[1,1]
vminps %xmm7, %xmm8, %xmm7
vmaxps %xmm9, %xmm2, %xmm2
vbroadcastss %xmm0, %xmm0
vmulps %xmm7, %xmm0, %xmm8
vmulps %xmm2, %xmm0, %xmm7
vsubss %xmm1, %xmm4, %xmm0
vdivss %xmm0, %xmm21, %xmm0
vshufpd $0x3, %xmm13, %xmm13, %xmm2 # xmm2 = xmm13[1,1]
vshufpd $0x3, %xmm5, %xmm5, %xmm9 # xmm9 = xmm5[1,1]
vshufpd $0x3, %xmm6, %xmm6, %xmm10 # xmm10 = xmm6[1,1]
vshufpd $0x3, %xmm3, %xmm3, %xmm11 # xmm11 = xmm3[1,1]
vsubps %xmm13, %xmm2, %xmm2
vsubps %xmm5, %xmm9, %xmm5
vsubps %xmm6, %xmm10, %xmm6
vsubps %xmm3, %xmm11, %xmm3
vminps %xmm5, %xmm2, %xmm9
vmaxps %xmm5, %xmm2, %xmm2
vminps %xmm3, %xmm6, %xmm5
vminps %xmm5, %xmm9, %xmm5
vmaxps %xmm3, %xmm6, %xmm3
vmaxps %xmm3, %xmm2, %xmm2
vbroadcastss %xmm0, %xmm0
vmulps %xmm5, %xmm0, %xmm10
vmulps %xmm2, %xmm0, %xmm11
vinsertps $0x10, %xmm1, %xmm27, %xmm6 # xmm6 = xmm27[0],xmm1[0],xmm27[2,3]
vinsertps $0x10, %xmm4, %xmm14, %xmm5 # xmm5 = xmm14[0],xmm4[0],xmm14[2,3]
vaddps %xmm5, %xmm6, %xmm0
vmulps %xmm17, %xmm0, %xmm9
vshufps $0x54, %xmm9, %xmm9, %xmm0 # xmm0 = xmm9[0,1,1,1]
vbroadcastss %xmm9, %xmm2
vmovaps %xmm26, %xmm3
vfmadd213ps %xmm16, %xmm2, %xmm3 # xmm3 = (xmm2 * xmm3) + xmm16
vmovaps %xmm28, %xmm12
vfmadd213ps 0x100(%rsp), %xmm2, %xmm12 # xmm12 = (xmm2 * xmm12) + mem
vmovaps %xmm29, %xmm13
vfmadd213ps 0xf0(%rsp), %xmm2, %xmm13 # xmm13 = (xmm2 * xmm13) + mem
vsubps %xmm3, %xmm12, %xmm14
vfmadd213ps %xmm3, %xmm2, %xmm14 # xmm14 = (xmm2 * xmm14) + xmm3
vsubps %xmm12, %xmm13, %xmm3
vfmadd213ps %xmm12, %xmm2, %xmm3 # xmm3 = (xmm2 * xmm3) + xmm12
vsubps %xmm14, %xmm3, %xmm3
vfmadd231ps %xmm2, %xmm3, %xmm14 # xmm14 = (xmm3 * xmm2) + xmm14
vmulps %xmm3, %xmm15, %xmm2
vmovddup %xmm14, %xmm12 # xmm12 = xmm14[0,0]
vshufpd $0x3, %xmm14, %xmm14, %xmm3 # xmm3 = xmm14[1,1]
vshufps $0x55, %xmm9, %xmm9, %xmm13 # xmm13 = xmm9[1,1,1,1]
vsubps %xmm12, %xmm3, %xmm3
vfmadd231ps %xmm3, %xmm13, %xmm12 # xmm12 = (xmm13 * xmm3) + xmm12
vmovddup %xmm2, %xmm14 # xmm14 = xmm2[0,0]
vshufpd $0x3, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[1,1]
vsubps %xmm14, %xmm2, %xmm15
vfmadd213ps %xmm14, %xmm13, %xmm15 # xmm15 = (xmm13 * xmm15) + xmm14
vxorps %xmm30, %xmm3, %xmm2
vmovshdup %xmm15, %xmm13 # xmm13 = xmm15[1,1,3,3]
vxorps %xmm30, %xmm13, %xmm14
vmovshdup %xmm3, %xmm16 # xmm16 = xmm3[1,1,3,3]
vmovss 0x28c843(%rip), %xmm31 # 0x1f5fcfc
vpermt2ps %xmm3, %xmm31, %xmm14
vmulss %xmm3, %xmm13, %xmm3
vfmsub231ss %xmm16, %xmm15, %xmm3 # xmm3 = (xmm15 * xmm16) - xmm3
vmovss 0x2874a3(%rip), %xmm13 # 0x1f5a974
vpermt2ps %xmm2, %xmm13, %xmm15
vbroadcastss %xmm3, %xmm3
vdivps %xmm3, %xmm14, %xmm2
vdivps %xmm3, %xmm15, %xmm3
vbroadcastss %xmm12, %xmm13
vmulps %xmm2, %xmm13, %xmm13
vshufps $0x55, %xmm12, %xmm12, %xmm12 # xmm12 = xmm12[1,1,1,1]
vmulps %xmm3, %xmm12, %xmm12
vaddps %xmm12, %xmm13, %xmm12
vsubps %xmm12, %xmm0, %xmm0
vmovshdup %xmm2, %xmm12 # xmm12 = xmm2[1,1,3,3]
vinsertps $0x1c, %xmm10, %xmm8, %xmm13 # xmm13 = xmm8[0],xmm10[0],zero,zero
vmulps %xmm13, %xmm12, %xmm14
vinsertps $0x1c, %xmm11, %xmm7, %xmm15 # xmm15 = xmm7[0],xmm11[0],zero,zero
vmulps %xmm15, %xmm12, %xmm12
vminps %xmm12, %xmm14, %xmm16
vmaxps %xmm14, %xmm12, %xmm12
vmovshdup %xmm3, %xmm14 # xmm14 = xmm3[1,1,3,3]
vinsertps $0x4c, %xmm8, %xmm10, %xmm8 # xmm8 = xmm8[1],xmm10[1],zero,zero
vmulps %xmm8, %xmm14, %xmm10
vinsertps $0x4c, %xmm7, %xmm11, %xmm7 # xmm7 = xmm7[1],xmm11[1],zero,zero
vmulps %xmm7, %xmm14, %xmm11
vminps %xmm11, %xmm10, %xmm14
vaddps %xmm14, %xmm16, %xmm14
vmaxps %xmm10, %xmm11, %xmm10
vaddps %xmm10, %xmm12, %xmm10
vmovddup 0x24d994(%rip), %xmm11 # xmm11 = mem[0,0]
vsubps %xmm10, %xmm11, %xmm10
vsubps %xmm14, %xmm11, %xmm11
vsubps %xmm9, %xmm6, %xmm12
vsubps %xmm9, %xmm5, %xmm9
vmulps %xmm10, %xmm12, %xmm14
vbroadcastss %xmm2, %xmm16
vmulps %xmm13, %xmm16, %xmm13
vmulps %xmm15, %xmm16, %xmm15
vminps %xmm15, %xmm13, %xmm16
vmaxps %xmm13, %xmm15, %xmm13
vbroadcastss %xmm3, %xmm15
vmulps %xmm8, %xmm15, %xmm8
vmulps %xmm7, %xmm15, %xmm7
vminps %xmm7, %xmm8, %xmm15
vaddps %xmm15, %xmm16, %xmm15
vmulps %xmm11, %xmm12, %xmm16
vmulps %xmm10, %xmm9, %xmm10
vmulps %xmm11, %xmm9, %xmm11
vmaxps %xmm8, %xmm7, %xmm7
vaddps %xmm7, %xmm13, %xmm7
vmovddup 0x24d92d(%rip), %xmm8 # xmm8 = mem[0,0]
vsubps %xmm7, %xmm8, %xmm7
vsubps %xmm15, %xmm8, %xmm8
vmulps %xmm7, %xmm12, %xmm13
vmulps %xmm8, %xmm12, %xmm12
vmulps %xmm7, %xmm9, %xmm7
vmulps %xmm8, %xmm9, %xmm8
vminps %xmm12, %xmm13, %xmm9
vminps %xmm8, %xmm7, %xmm15
vminps %xmm15, %xmm9, %xmm9
vmaxps %xmm13, %xmm12, %xmm12
vmaxps %xmm7, %xmm8, %xmm7
vmaxps %xmm12, %xmm7, %xmm7
vminps %xmm16, %xmm14, %xmm8
vminps %xmm11, %xmm10, %xmm12
vminps %xmm12, %xmm8, %xmm8
vhaddps %xmm8, %xmm9, %xmm8
vmaxps %xmm14, %xmm16, %xmm9
vmaxps %xmm10, %xmm11, %xmm10
vmaxps %xmm9, %xmm10, %xmm9
vhaddps %xmm9, %xmm7, %xmm7
vshufps $0xe8, %xmm8, %xmm8, %xmm8 # xmm8 = xmm8[0,2,2,3]
vshufps $0xe8, %xmm7, %xmm7, %xmm9 # xmm9 = xmm7[0,2,2,3]
vaddps %xmm0, %xmm8, %xmm7
vaddps %xmm0, %xmm9, %xmm8
vmaxps %xmm7, %xmm6, %xmm6
vminps %xmm5, %xmm8, %xmm9
vcmpltps %xmm6, %xmm9, %k0
vinsertps $0x10, %xmm4, %xmm1, %xmm15 # xmm15 = xmm1[0],xmm4[0],xmm1[2,3]
kmovd %k0, %edx
testb $0x3, %dl
jne 0x1cd3dbc
vucomiss %xmm8, %xmm5
seta %sil
xorl %edx, %edx
vucomiss %xmm27, %xmm7
vmovaps 0x60(%rsp), %xmm16
jbe 0x1cd36de
testb %sil, %sil
vxorps %xmm31, %xmm31, %xmm31
vmovss 0x21d95e(%rip), %xmm12 # 0x1ef0fec
vmovaps 0xb0(%rsp), %xmm9
vmovaps 0x100(%rsp), %xmm10
vmovaps 0xf0(%rsp), %xmm11
vmovaps 0x140(%rsp), %xmm13
vmovaps 0x130(%rsp), %xmm14
je 0x1cd3719
vcmpltps %xmm5, %xmm8, %k0
kshiftrb $0x1, %k0, %k0
kmovd %k0, %esi
vmovshdup %xmm7, %xmm4 # xmm4 = xmm7[1,1,3,3]
vucomiss %xmm1, %xmm4
seta %dl
andb %sil, %dl
jmp 0x1cd3719
vxorps %xmm31, %xmm31, %xmm31
vmovss 0x21d900(%rip), %xmm12 # 0x1ef0fec
vmovaps 0xb0(%rsp), %xmm9
vmovaps 0x100(%rsp), %xmm10
vmovaps 0xf0(%rsp), %xmm11
vmovaps 0x140(%rsp), %xmm13
vmovaps 0x130(%rsp), %xmm14
orb %dil, %al
orb %dl, %al
cmpb $0x1, %al
jne 0x1cd3ddf
movl $0xc8, %eax
vsubss %xmm0, %xmm21, %xmm1
vmulss %xmm1, %xmm1, %xmm4
vmulss %xmm4, %xmm1, %xmm5
vmulss %xmm0, %xmm12, %xmm6
vmulss %xmm4, %xmm6, %xmm4
vmulss %xmm0, %xmm0, %xmm6
vmulss %xmm6, %xmm12, %xmm7
vmulss %xmm7, %xmm1, %xmm1
vbroadcastss %xmm5, %xmm5
vbroadcastss %xmm4, %xmm4
vbroadcastss %xmm1, %xmm1
vmulss %xmm6, %xmm0, %xmm6
vbroadcastss %xmm6, %xmm6
vmulps %xmm6, %xmm13, %xmm6
vfmadd231ps %xmm1, %xmm11, %xmm6 # xmm6 = (xmm11 * xmm1) + xmm6
vfmadd231ps %xmm4, %xmm10, %xmm6 # xmm6 = (xmm10 * xmm4) + xmm6
vfmadd231ps %xmm5, %xmm9, %xmm6 # xmm6 = (xmm9 * xmm5) + xmm6
vmovddup %xmm6, %xmm1 # xmm1 = xmm6[0,0]
vshufpd $0x3, %xmm6, %xmm6, %xmm4 # xmm4 = xmm6[1,1]
vshufps $0x55, %xmm0, %xmm0, %xmm5 # xmm5 = xmm0[1,1,1,1]
vsubps %xmm1, %xmm4, %xmm4
vfmadd213ps %xmm1, %xmm5, %xmm4 # xmm4 = (xmm5 * xmm4) + xmm1
vbroadcastss %xmm4, %xmm1
vmulps %xmm1, %xmm2, %xmm1
vshufps $0x55, %xmm4, %xmm4, %xmm5 # xmm5 = xmm4[1,1,1,1]
vmulps %xmm5, %xmm3, %xmm5
vaddps %xmm5, %xmm1, %xmm1
vsubps %xmm1, %xmm0, %xmm0
vandps %xmm19, %xmm4, %xmm1
vprolq $0x20, %xmm1, %xmm4
vmaxss %xmm1, %xmm4, %xmm1
vucomiss %xmm1, %xmm14
ja 0x1cd37ce
decq %rax
jne 0x1cd372b
jmp 0x1cd3de1
vucomiss %xmm31, %xmm0
jb 0x1cd3de1
vucomiss %xmm0, %xmm21
vmovaps 0x40(%rsp), %xmm13
vmovaps 0x50(%rsp), %xmm14
jb 0x1cd38fb
vmovshdup %xmm0, %xmm1 # xmm1 = xmm0[1,1,3,3]
vucomiss %xmm31, %xmm1
jb 0x1cd38fb
vucomiss %xmm1, %xmm21
jb 0x1cd38fb
vmovss 0x8(%r12), %xmm2
vinsertps $0x1c, 0x18(%r12), %xmm2, %xmm2 # xmm2 = xmm2[0],mem[0],zero,zero
vinsertps $0x28, 0x28(%r12), %xmm2, %xmm2 # xmm2 = xmm2[0,1],mem[0],zero
vdpps $0x7f, 0x320(%rsp), %xmm2, %xmm3
vdpps $0x7f, 0x310(%rsp), %xmm2, %xmm4
vdpps $0x7f, 0x300(%rsp), %xmm2, %xmm5
vdpps $0x7f, 0x2f0(%rsp), %xmm2, %xmm6
vdpps $0x7f, 0x2e0(%rsp), %xmm2, %xmm7
vdpps $0x7f, 0x2d0(%rsp), %xmm2, %xmm8
vdpps $0x7f, 0x2c0(%rsp), %xmm2, %xmm9
vdpps $0x7f, 0x2b0(%rsp), %xmm2, %xmm2
vsubss %xmm1, %xmm21, %xmm10
vmulss %xmm7, %xmm1, %xmm11
vmulss %xmm1, %xmm8, %xmm8
vmulss %xmm1, %xmm9, %xmm9
vmulss %xmm2, %xmm1, %xmm1
vfmadd231ss %xmm3, %xmm10, %xmm11 # xmm11 = (xmm10 * xmm3) + xmm11
vfmadd231ss %xmm4, %xmm10, %xmm8 # xmm8 = (xmm10 * xmm4) + xmm8
vfmadd231ss %xmm5, %xmm10, %xmm9 # xmm9 = (xmm10 * xmm5) + xmm9
vfmadd231ss %xmm6, %xmm10, %xmm1 # xmm1 = (xmm10 * xmm6) + xmm1
vsubss %xmm0, %xmm21, %xmm7
vmulss %xmm7, %xmm7, %xmm3
vmulss %xmm3, %xmm7, %xmm2
vmulss %xmm0, %xmm12, %xmm4
vmulss %xmm3, %xmm4, %xmm3
vmulps %xmm0, %xmm0, %xmm4
vmulss %xmm4, %xmm12, %xmm5
vmulss %xmm5, %xmm7, %xmm5
vmulps %xmm4, %xmm0, %xmm6
vmulss %xmm1, %xmm6, %xmm1
vfmadd231ss %xmm9, %xmm5, %xmm1 # xmm1 = (xmm5 * xmm9) + xmm1
vfmadd231ss %xmm8, %xmm3, %xmm1 # xmm1 = (xmm3 * xmm8) + xmm1
vfmadd231ss %xmm11, %xmm2, %xmm1 # xmm1 = (xmm2 * xmm11) + xmm1
vucomiss 0x9c(%rsp), %xmm1
jb 0x1cd38fb
vmovss 0x80(%r9,%r14,4), %xmm4
vucomiss %xmm1, %xmm4
jae 0x1cd3912
vmovaps 0x30(%rsp), %xmm9
vmovaps 0x20(%rsp), %xmm10
vmovaps 0x10(%rsp), %xmm11
jmp 0x1cd3dff
vmovss %xmm4, 0x98(%rsp)
vshufps $0x55, %xmm0, %xmm0, %xmm4 # xmm4 = xmm0[1,1,1,1]
vsubps %xmm4, %xmm24, %xmm8
vmulps 0x290(%rsp), %xmm4, %xmm9
vmulps 0x240(%rsp), %xmm4, %xmm10
vmulps 0x230(%rsp), %xmm4, %xmm11
vmulps 0x270(%rsp), %xmm4, %xmm12
vfmadd231ps 0x2a0(%rsp), %xmm8, %xmm9 # xmm9 = (xmm8 * mem) + xmm9
vfmadd231ps 0x260(%rsp), %xmm8, %xmm10 # xmm10 = (xmm8 * mem) + xmm10
vfmadd231ps 0x250(%rsp), %xmm8, %xmm11 # xmm11 = (xmm8 * mem) + xmm11
vfmadd231ps 0x280(%rsp), %xmm8, %xmm12 # xmm12 = (xmm8 * mem) + xmm12
vsubps %xmm9, %xmm10, %xmm8
vsubps %xmm10, %xmm11, %xmm9
vsubps %xmm11, %xmm12, %xmm10
vbroadcastss %xmm0, %xmm0
vmulps %xmm0, %xmm9, %xmm11
vbroadcastss %xmm7, %xmm7
vfmadd231ps %xmm8, %xmm7, %xmm11 # xmm11 = (xmm7 * xmm8) + xmm11
vmulps %xmm0, %xmm10, %xmm8
vfmadd231ps %xmm9, %xmm7, %xmm8 # xmm8 = (xmm7 * xmm9) + xmm8
vmulps %xmm0, %xmm8, %xmm8
vfmadd231ps %xmm11, %xmm7, %xmm8 # xmm8 = (xmm7 * xmm11) + xmm8
vmulps 0x21d63c(%rip){1to4}, %xmm8, %xmm7 # 0x1ef0fec
movq (%rcx), %rax
movq 0x1e8(%rax), %rax
movq (%rax,%r8,8), %r15
movl 0x90(%r9,%r14,4), %eax
testl %eax, 0x34(%r15)
je 0x1cd3da3
movq 0x10(%rcx), %rax
cmpq $0x0, 0x10(%rax)
vmovaps 0x30(%rsp), %xmm9
vmovaps 0x20(%rsp), %xmm10
vmovaps 0x10(%rsp), %xmm11
jne 0x1cd39fa
movb $0x1, %al
cmpq $0x0, 0x48(%r15)
je 0x1cd3db7
vbroadcastss %xmm6, %xmm6
vmulps 0x1e0(%rsp), %xmm6, %xmm6
vbroadcastss %xmm5, %xmm5
vfmadd132ps 0x1f0(%rsp), %xmm6, %xmm5 # xmm5 = (xmm5 * mem) + xmm6
vbroadcastss %xmm3, %xmm3
vfmadd132ps 0x200(%rsp), %xmm5, %xmm3 # xmm3 = (xmm3 * mem) + xmm5
vbroadcastss %xmm2, %xmm2
vfmadd132ps 0x210(%rsp), %xmm3, %xmm2 # xmm2 = (xmm2 * mem) + xmm3
vshufps $0xc9, %xmm2, %xmm2, %xmm3 # xmm3 = xmm2[1,2,0,3]
vshufps $0xc9, %xmm7, %xmm7, %xmm5 # xmm5 = xmm7[1,2,0,3]
vmulps %xmm5, %xmm2, %xmm2
vfmsub231ps %xmm3, %xmm7, %xmm2 # xmm2 = (xmm7 * xmm3) - xmm2
movq 0x8(%rcx), %rax
vshufps $0x55, %xmm2, %xmm2, %xmm3 # xmm3 = xmm2[1,1,1,1]
vshufps $0xaa, %xmm2, %xmm2, %xmm5 # xmm5 = xmm2[2,2,2,2]
vbroadcastss %xmm2, %xmm2
vmovaps %xmm3, 0x350(%rsp)
vmovaps %xmm5, 0x360(%rsp)
vmovaps %xmm2, 0x370(%rsp)
vmovaps %xmm0, 0x380(%rsp)
vmovaps %xmm4, 0x390(%rsp)
vmovaps 0x220(%rsp), %xmm0
vmovaps %xmm0, 0x3a0(%rsp)
vmovdqa 0x1d0(%rsp), %xmm0
vmovdqa %xmm0, 0x3b0(%rsp)
leaq 0x3c0(%rsp), %rdx
vpcmpeqd %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, (%rdx)
vbroadcastss (%rax), %xmm0
vmovaps %xmm0, 0x3c0(%rsp)
vbroadcastss 0x4(%rax), %xmm0
vmovaps %xmm0, 0x3d0(%rsp)
vmovss %xmm1, 0x80(%r9,%r14,4)
vmovaps 0x1c0(%rsp), %xmm0
vmovaps %xmm0, 0x110(%rsp)
leaq 0x110(%rsp), %rax
movq %rax, 0x190(%rsp)
movq 0x18(%r15), %rax
movq %rax, 0x198(%rsp)
movq 0x8(%rcx), %rax
movq %rax, 0x1a0(%rsp)
movq %r9, 0x1a8(%rsp)
leaq 0x350(%rsp), %rax
movq %rax, 0x1b0(%rsp)
movl $0x4, 0x1b8(%rsp)
movq 0x48(%r15), %rax
testq %rax, %rax
vmovaps %xmm15, 0x120(%rsp)
je 0x1cd3c46
leaq 0x190(%rsp), %rdi
movl %r11d, 0x94(%rsp)
vzeroupper
callq *%rax
vmovaps 0x50(%rsp), %xmm14
vmovaps 0xa0(%rsp), %xmm27
vmovaps 0x120(%rsp), %xmm15
vmovaps 0xc0(%rsp), %xmm29
vmovaps 0xd0(%rsp), %xmm28
vmovaps 0xe0(%rsp), %xmm26
movl 0x94(%rsp), %r11d
vmovaps 0x10(%rsp), %xmm11
vmovaps 0x20(%rsp), %xmm10
vmovaps 0x30(%rsp), %xmm9
vmovaps 0x40(%rsp), %xmm13
vmovaps 0x60(%rsp), %xmm16
movq 0x88(%rsp), %r8
vxorps %xmm31, %xmm31, %xmm31
vmovss 0x21e2e2(%rip), %xmm25 # 0x1ef1ebc
vbroadcastss 0x218b30(%rip), %xmm24 # 0x1eec714
vmovss 0x21de5e(%rip), %xmm23 # 0x1ef1a4c
vmovss 0x21d408(%rip), %xmm22 # 0x1ef1000
vmovss 0x218b12(%rip), %xmm21 # 0x1eec714
vmovss 0x24d2d4(%rip), %xmm20 # 0x1f20ee0
vbroadcastss 0x21d3d6(%rip), %ymm18 # 0x1ef0fec
vbroadcastss 0x24d2a4(%rip), %xmm19 # 0x1f20ec4
vbroadcastss 0x218f56(%rip), %xmm17 # 0x1eecb80
vbroadcastss 0x24d28c(%rip), %xmm30 # 0x1f20ec0
movq 0x70(%rsp), %rcx
movq 0x78(%rsp), %r9
movq 0x80(%rsp), %r10
vmovdqa 0x110(%rsp), %xmm0
vptestmd %xmm0, %xmm0, %k0
kortestb %k0, %k0
je 0x1cd3e35
movq 0x10(%rcx), %rdx
movq 0x10(%rdx), %rax
testq %rax, %rax
je 0x1cd3d66
testb $0x2, (%rdx)
jne 0x1cd3c80
testb $0x40, 0x3e(%r15)
je 0x1cd3d66
leaq 0x190(%rsp), %rdi
movl %r11d, %r15d
vzeroupper
callq *%rax
vmovaps 0x50(%rsp), %xmm14
vmovaps 0xa0(%rsp), %xmm27
vmovaps 0x120(%rsp), %xmm15
vmovaps 0xc0(%rsp), %xmm29
vmovaps 0xd0(%rsp), %xmm28
vmovaps 0xe0(%rsp), %xmm26
movl %r15d, %r11d
vmovaps 0x10(%rsp), %xmm11
vmovaps 0x20(%rsp), %xmm10
vmovaps 0x30(%rsp), %xmm9
vmovaps 0x40(%rsp), %xmm13
vmovaps 0x60(%rsp), %xmm16
movq 0x88(%rsp), %r8
vxorps %xmm31, %xmm31, %xmm31
vmovss 0x21e1c2(%rip), %xmm25 # 0x1ef1ebc
vbroadcastss 0x218a10(%rip), %xmm24 # 0x1eec714
vmovss 0x21dd3e(%rip), %xmm23 # 0x1ef1a4c
vmovss 0x21d2e8(%rip), %xmm22 # 0x1ef1000
vmovss 0x2189f2(%rip), %xmm21 # 0x1eec714
vmovss 0x24d1b4(%rip), %xmm20 # 0x1f20ee0
vbroadcastss 0x21d2b6(%rip), %ymm18 # 0x1ef0fec
vbroadcastss 0x24d184(%rip), %xmm19 # 0x1f20ec4
vbroadcastss 0x218e36(%rip), %xmm17 # 0x1eecb80
vbroadcastss 0x24d16c(%rip), %xmm30 # 0x1f20ec0
movq 0x70(%rsp), %rcx
movq 0x78(%rsp), %r9
movq 0x80(%rsp), %r10
vmovdqa 0x110(%rsp), %xmm0
vptestmd %xmm0, %xmm0, %k1
movq 0x1a8(%rsp), %rax
vmovaps 0x80(%rax), %xmm0
vbroadcastss 0x218df5(%rip), %xmm0 {%k1} # 0x1eecb84
vmovaps %xmm0, 0x80(%rax)
kortestb %k1, %k1
setne %al
jmp 0x1cd3e37
xorl %eax, %eax
vmovaps 0x30(%rsp), %xmm9
vmovaps 0x20(%rsp), %xmm10
vmovaps 0x10(%rsp), %xmm11
orb %al, %r11b
jmp 0x1cd3dff
vxorps %xmm31, %xmm31, %xmm31
vmovaps 0x60(%rsp), %xmm16
jmp 0x1cd3de1
vmovaps 0x60(%rsp), %xmm16
vmovaps 0x40(%rsp), %xmm13
jmp 0x1cd38fb
xorl %ebp, %ebp
vmovaps 0x40(%rsp), %xmm13
vmovaps 0x30(%rsp), %xmm9
vmovaps 0x20(%rsp), %xmm10
vmovaps 0x10(%rsp), %xmm11
vmovaps 0x50(%rsp), %xmm14
testb %bpl, %bpl
jne 0x1cd2e24
jmp 0x1cd3e57
movb $0x1, %bpl
vmovaps 0x40(%rsp), %xmm13
vmovaps 0x30(%rsp), %xmm9
vmovaps 0x20(%rsp), %xmm10
vmovaps 0x10(%rsp), %xmm11
vmovaps %xmm27, %xmm15
vmovaps 0xa0(%rsp), %xmm27
jmp 0x1cd3df9
xorl %eax, %eax
testb %al, %al
jne 0x1cd3db7
vmovss 0x98(%rsp), %xmm0
vmovss %xmm0, 0x80(%r9,%r14,4)
jmp 0x1cd3db7
vinsertps $0x10, %xmm14, %xmm27, %xmm0 # xmm0 = xmm27[0],xmm14[0],xmm27[2,3]
vmovaps 0x170(%rsp), %xmm7
vmovaps 0x160(%rsp), %xmm19
vmovaps 0x150(%rsp), %xmm25
vmovups 0x420(%rsp), %ymm29
vmovups 0x400(%rsp), %ymm28
jmp 0x1cd28ea
testb $0x1, %r11b
jne 0x1cd3eb6
vmovups 0x3e0(%rsp), %ymm0
vcmpleps 0x80(%r9,%r14,4){1to8}, %ymm0, %k0
kmovb %k0, %eax
andl %eax, %r13d
setne 0xf(%rsp)
jne 0x1cd2190
movb 0xf(%rsp), %al
andb $0x1, %al
addq $0x468, %rsp # imm = 0x468
popq %rbx
popq %r12
popq %r13
popq %r14
popq %r15
popq %rbp
vzeroupper
retq
nop
|
/embree[P]embree/kernels/geometry/curveNi_intersector.h
|
bool embree::avx512::CurveNiIntersectorK<8, 8>::occluded_n<embree::avx512::OrientedCurve1IntersectorK<embree::CatmullRomCurveT, 8>, embree::avx512::Occluded1KEpilog1<8, true>>(embree::avx512::CurvePrecalculationsK<8>&, embree::RayK<8>&, unsigned long, embree::RayQueryContext*, embree::CurveNi<8> const&)
|
static __forceinline bool occluded_n(Precalculations& pre, RayK<K>& ray, const size_t k, RayQueryContext* context, const Primitive& prim)
{
vfloat<M> tNear;
vbool<M> valid = intersect(ray,k,prim,tNear);
const size_t N = prim.N;
size_t mask = movemask(valid);
while (mask)
{
const size_t i = bscf(mask);
STAT3(shadow.trav_prims,1,1,1);
const unsigned int geomID = prim.geomID(N);
const unsigned int primID = prim.primID(N)[i];
const CurveGeometry* geom = context->scene->get<CurveGeometry>(geomID);
unsigned int vertexID = geom->curve(primID);
Vec3ff a0,a1,a2,a3; Vec3fa n0,n1,n2,n3; geom->gather(a0,a1,a2,a3,n0,n1,n2,n3,vertexID);
size_t mask1 = mask;
const size_t i1 = bscf(mask1);
if (mask) {
const unsigned int primID1 = prim.primID(N)[i1];
geom->prefetchL1_vertices(geom->curve(primID1));
if (mask1) {
const size_t i2 = bsf(mask1);
const unsigned int primID2 = prim.primID(N)[i2];
geom->prefetchL2_vertices(geom->curve(primID2));
}
}
if (Intersector().intersect(pre,ray,k,context,geom,primID,a0,a1,a2,a3,n0,n1,n2,n3,Epilog(ray,k,context,geomID,primID)))
return true;
mask &= movemask(tNear <= vfloat<M>(ray.tfar[k]));
}
return false;
}
|
pushq %rbp
movq %rsp, %rbp
pushq %r15
pushq %r14
pushq %r13
pushq %r12
pushq %rbx
andq $-0x20, %rsp
subq $0x5a0, %rsp # imm = 0x5A0
movq %r8, %r10
movq %rdx, %r9
movq %rsi, %r11
movzbl 0x1(%r8), %eax
leaq (%rax,%rax,4), %rdx
leaq (%rdx,%rdx,4), %rsi
vbroadcastss 0x12(%r8,%rsi), %xmm0
vmovss (%r11,%r9,4), %xmm1
vmovss 0x80(%r11,%r9,4), %xmm2
vinsertps $0x10, 0x20(%r11,%r9,4), %xmm1, %xmm1 # xmm1 = xmm1[0],mem[0],xmm1[2,3]
vinsertps $0x20, 0x40(%r11,%r9,4), %xmm1, %xmm1 # xmm1 = xmm1[0,1],mem[0],xmm1[3]
vinsertps $0x10, 0xa0(%r11,%r9,4), %xmm2, %xmm2 # xmm2 = xmm2[0],mem[0],xmm2[2,3]
movq %rcx, 0x88(%rsp)
vinsertps $0x20, 0xc0(%r11,%r9,4), %xmm2, %xmm2 # xmm2 = xmm2[0,1],mem[0],xmm2[3]
vsubps 0x6(%r8,%rsi), %xmm1, %xmm1
vmulps %xmm1, %xmm0, %xmm3
vmulps %xmm2, %xmm0, %xmm0
vpmovsxbd 0x6(%r8,%rax,4), %ymm1
vcvtdq2ps %ymm1, %ymm5
vpmovsxbd 0x6(%r8,%rdx), %ymm1
vcvtdq2ps %ymm1, %ymm6
leaq (%rax,%rax,2), %rcx
vpmovsxbd 0x6(%r8,%rcx,2), %ymm1
vcvtdq2ps %ymm1, %ymm2
leaq (%rax,%rdx,2), %rsi
vpmovsxbd 0x6(%r8,%rsi), %ymm1
vcvtdq2ps %ymm1, %ymm7
leal (,%rcx,4), %esi
vpmovsxbd 0x6(%r8,%rsi), %ymm1
vcvtdq2ps %ymm1, %ymm8
addq %rax, %rsi
vpmovsxbd 0x6(%r8,%rsi), %ymm1
vcvtdq2ps %ymm1, %ymm9
leaq (%rax,%rax,8), %rsi
leal (%rsi,%rsi), %r8d
vpmovsxbd 0x6(%r10,%r8), %ymm1
addq %rax, %r8
vpmovsxbd 0x6(%r10,%r8), %ymm4
vcvtdq2ps %ymm1, %ymm10
vcvtdq2ps %ymm4, %ymm11
shll $0x2, %edx
vpmovsxbd 0x6(%r10,%rdx), %ymm1
vcvtdq2ps %ymm1, %ymm12
vbroadcastss %xmm0, %ymm13
vbroadcastss 0x23c5bf(%rip), %ymm15 # 0x1f12704
vpermps %ymm0, %ymm15, %ymm14
vbroadcastss 0x24ad88(%rip), %ymm27 # 0x1f20edc
vpermps %ymm0, %ymm27, %ymm0
vmulps %ymm2, %ymm0, %ymm4
vmulps %ymm0, %ymm9, %ymm1
vmulps %ymm0, %ymm12, %ymm0
vfmadd231ps %ymm6, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm6) + ymm4
vfmadd231ps %ymm8, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm8) + ymm1
vfmadd231ps %ymm14, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm14) + ymm0
vfmadd231ps %ymm5, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm5) + ymm4
vfmadd231ps %ymm7, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm7) + ymm1
vfmadd231ps %ymm13, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm13) + ymm0
vbroadcastss %xmm3, %ymm13
vpermps %ymm3, %ymm15, %ymm14
vpermps %ymm3, %ymm27, %ymm15
vmulps %ymm2, %ymm15, %ymm16
vmulps %ymm9, %ymm15, %ymm3
vmulps %ymm12, %ymm15, %ymm2
vfmadd231ps %ymm6, %ymm14, %ymm16 # ymm16 = (ymm14 * ymm6) + ymm16
vfmadd231ps %ymm8, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm8) + ymm3
vfmadd231ps %ymm11, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm11) + ymm2
vfmadd231ps %ymm5, %ymm13, %ymm16 # ymm16 = (ymm13 * ymm5) + ymm16
vfmadd231ps %ymm7, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm7) + ymm3
vfmadd231ps %ymm10, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm10) + ymm2
vbroadcastss 0x24acf7(%rip), %ymm5 # 0x1f20ec4
vandps %ymm5, %ymm4, %ymm6
vbroadcastss 0x21ae0e(%rip), %ymm7 # 0x1ef0fe8
vcmpltps %ymm7, %ymm6, %k1
vmovaps %ymm7, %ymm4 {%k1}
vandps %ymm5, %ymm1, %ymm6
vcmpltps %ymm7, %ymm6, %k1
vmovaps %ymm7, %ymm1 {%k1}
vandps %ymm5, %ymm0, %ymm5
vcmpltps %ymm7, %ymm5, %k1
vmovaps %ymm7, %ymm0 {%k1}
vrcp14ps %ymm4, %ymm5
vbroadcastss 0x2164fc(%rip), %ymm6 # 0x1eec714
vfnmadd213ps %ymm6, %ymm5, %ymm4 # ymm4 = -(ymm5 * ymm4) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm4 # ymm4 = (ymm4 * ymm5) + ymm5
vrcp14ps %ymm1, %ymm5
vfnmadd213ps %ymm6, %ymm5, %ymm1 # ymm1 = -(ymm5 * ymm1) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm1 # ymm1 = (ymm1 * ymm5) + ymm5
vrcp14ps %ymm0, %ymm5
vfnmadd213ps %ymm6, %ymm5, %ymm0 # ymm0 = -(ymm5 * ymm0) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm0 # ymm0 = (ymm0 * ymm5) + ymm5
leaq (,%rax,8), %r8
subq %rax, %r8
vpmovsxwd 0x6(%r10,%r8), %ymm5
vcvtdq2ps %ymm5, %ymm5
vsubps %ymm16, %ymm5, %ymm5
vpmovsxwd 0x6(%r10,%rsi), %ymm6
vmulps %ymm5, %ymm4, %ymm5
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm16, %ymm6, %ymm6
vmulps %ymm6, %ymm4, %ymm4
leaq (%rax,%rax), %rsi
addq %rax, %rdx
shlq $0x3, %rcx
subq %rax, %rcx
movl %eax, %r8d
shll $0x4, %r8d
vpmovsxwd 0x6(%r10,%r8), %ymm6
subq %rsi, %r8
vpmovsxwd 0x6(%r10,%r8), %ymm7
vcvtdq2ps %ymm7, %ymm7
vsubps %ymm3, %ymm7, %ymm7
vmulps %ymm7, %ymm1, %ymm7
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm3, %ymm6, %ymm3
vmulps %ymm3, %ymm1, %ymm1
vpmovsxwd 0x6(%r10,%rdx), %ymm3
vcvtdq2ps %ymm3, %ymm3
vsubps %ymm2, %ymm3, %ymm3
vmulps %ymm0, %ymm3, %ymm3
vpmovsxwd 0x6(%r10,%rcx), %ymm6
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm2, %ymm6, %ymm2
vmulps %ymm2, %ymm0, %ymm0
vpminsd %ymm4, %ymm5, %ymm2
vpminsd %ymm1, %ymm7, %ymm6
vmaxps %ymm6, %ymm2, %ymm2
vpminsd %ymm0, %ymm3, %ymm6
vmaxps 0x60(%r11,%r9,4){1to8}, %ymm6, %ymm6
vmaxps %ymm6, %ymm2, %ymm2
vmulps 0x249c0c(%rip){1to8}, %ymm2, %ymm6 # 0x1f1ff10
vpmaxsd %ymm4, %ymm5, %ymm2
vpmaxsd %ymm1, %ymm7, %ymm1
vminps %ymm1, %ymm2, %ymm1
vpmaxsd %ymm0, %ymm3, %ymm0
vminps 0x100(%r11,%r9,4){1to8}, %ymm0, %ymm0
vminps %ymm0, %ymm1, %ymm0
vmulps 0x249be7(%rip){1to8}, %ymm0, %ymm0 # 0x1f1ff14
vpbroadcastd %eax, %ymm1
vpcmpgtd 0x2845e3(%rip), %ymm1, %k0 # 0x1f5a920
vmovaps %ymm6, 0x3e0(%rsp)
vcmpleps %ymm0, %ymm6, %k1
ktestb %k0, %k1
setne 0x1f(%rsp)
je 0x1cd8112
kandb %k0, %k1, %k0
kmovd %k0, %eax
movzbl %al, %r12d
leaq (%r9,%r9,2), %rax
shlq $0x4, %rax
leaq (%rdi,%rax), %r13
addq $0x20, %r13
movl $0x1, %eax
shlxl %r9d, %eax, %eax
kmovd %eax, %k0
vbroadcastss 0x24ab30(%rip), %xmm30 # 0x1f20ec0
vpmovm2d %k0, %ymm0
vmovdqa %ymm0, 0x380(%rsp)
vbroadcastss 0x2167d7(%rip), %xmm17 # 0x1eecb80
vbroadcastss 0x24ab11(%rip), %xmm19 # 0x1f20ec4
vxorps %xmm31, %xmm31, %xmm31
movq 0x88(%rsp), %rdi
movq %r10, 0xb8(%rsp)
movq %r9, 0xb0(%rsp)
movq %r11, 0xa8(%rsp)
tzcntq %r12, %rax
movl 0x2(%r10), %edx
movl 0x6(%r10,%rax,4), %eax
movq (%rdi), %rcx
movq 0x1e8(%rcx), %rcx
movq %rdx, 0xc0(%rsp)
movq (%rcx,%rdx,8), %rdi
movq 0x58(%rdi), %rcx
movq 0x68(%rdi), %rdx
movq %rdx, %rsi
imulq %rax, %rsi
movl (%rcx,%rsi), %r10d
movq 0xa0(%rdi), %rsi
movq %rsi, %r8
imulq %r10, %r8
leaq 0x1(%r10), %rbx
leaq 0x2(%r10), %r11
leaq 0x3(%r10), %r9
movq 0xd8(%rdi), %r14
imulq %r14, %r10
movq 0xc8(%rdi), %r15
vmovups (%r15,%r10), %xmm5
movq %rsi, %r10
imulq %rbx, %r10
imulq %r14, %rbx
vmovups (%r15,%rbx), %xmm6
movq %rsi, %rbx
imulq %r11, %rbx
imulq %r14, %r11
vmovups (%r15,%r11), %xmm7
imulq %r9, %r14
vmovups (%r15,%r14), %xmm8
movq %rsi, %r11
imulq %r9, %r11
movq 0x90(%rdi), %rdi
vmovaps (%rdi,%r8), %xmm9
vmovaps (%rdi,%r10), %xmm10
movq 0xb8(%rsp), %r10
vmovaps (%rdi,%rbx), %xmm11
blsrq %r12, %r12
vmovaps (%rdi,%r11), %xmm4
movq %r12, %r8
subq $0x1, %r8
jb 0x1cd64f0
andq %r12, %r8
tzcntq %r12, %r9
movl 0x6(%r10,%r9,4), %r9d
imulq %rdx, %r9
movl (%rcx,%r9), %r9d
imulq %rsi, %r9
prefetcht0 (%rdi,%r9)
prefetcht0 0x40(%rdi,%r9)
testq %r8, %r8
je 0x1cd64f0
tzcntq %r8, %r8
movl 0x6(%r10,%r8,4), %r8d
imulq %r8, %rdx
movl (%rcx,%rdx), %ecx
imulq %rcx, %rsi
prefetcht1 (%rdi,%rsi)
prefetcht1 0x40(%rdi,%rsi)
movq 0xb0(%rsp), %r9
movq 0xa8(%rsp), %r11
vmovss (%r11,%r9,4), %xmm0
vinsertps $0x1c, 0x20(%r11,%r9,4), %xmm0, %xmm0 # xmm0 = xmm0[0],mem[0],zero,zero
vinsertps $0x28, 0x40(%r11,%r9,4), %xmm0, %xmm0 # xmm0 = xmm0[0,1],mem[0],zero
vmulps %xmm30, %xmm4, %xmm3
vpxor %xmm1, %xmm1, %xmm1
vfmadd213ps %xmm3, %xmm11, %xmm1 # xmm1 = (xmm11 * xmm1) + xmm3
vaddps %xmm1, %xmm10, %xmm1
vfmadd231ps %xmm30, %xmm9, %xmm1 # xmm1 = (xmm9 * xmm30) + xmm1
vxorps %xmm15, %xmm15, %xmm15
vmulps %xmm4, %xmm15, %xmm2
vfmadd231ps %xmm17, %xmm11, %xmm2 # xmm2 = (xmm11 * xmm17) + xmm2
vfmadd231ps %xmm15, %xmm10, %xmm2 # xmm2 = (xmm10 * xmm15) + xmm2
vfnmadd231ps %xmm17, %xmm9, %xmm2 # xmm2 = -(xmm9 * xmm17) + xmm2
vmulps %xmm30, %xmm8, %xmm12
vxorps %xmm13, %xmm13, %xmm13
vfmadd213ps %xmm12, %xmm7, %xmm13 # xmm13 = (xmm7 * xmm13) + xmm12
vaddps %xmm6, %xmm13, %xmm13
vfmadd231ps %xmm30, %xmm5, %xmm13 # xmm13 = (xmm5 * xmm30) + xmm13
vmulps %xmm15, %xmm8, %xmm14
vfmadd231ps %xmm17, %xmm7, %xmm14 # xmm14 = (xmm7 * xmm17) + xmm14
vfmadd231ps %xmm15, %xmm6, %xmm14 # xmm14 = (xmm6 * xmm15) + xmm14
vfnmadd231ps %xmm17, %xmm5, %xmm14 # xmm14 = -(xmm5 * xmm17) + xmm14
vaddps %xmm3, %xmm11, %xmm3
vfmadd231ps %xmm15, %xmm10, %xmm3 # xmm3 = (xmm10 * xmm15) + xmm3
vfmadd231ps %xmm30, %xmm9, %xmm3 # xmm3 = (xmm9 * xmm30) + xmm3
vmulps %xmm17, %xmm4, %xmm4
vfmadd231ps %xmm11, %xmm15, %xmm4 # xmm4 = (xmm15 * xmm11) + xmm4
vfnmadd231ps %xmm10, %xmm17, %xmm4 # xmm4 = -(xmm17 * xmm10) + xmm4
vfmadd231ps %xmm9, %xmm15, %xmm4 # xmm4 = (xmm15 * xmm9) + xmm4
vaddps %xmm7, %xmm12, %xmm9
vfmadd231ps %xmm15, %xmm6, %xmm9 # xmm9 = (xmm6 * xmm15) + xmm9
vfmadd231ps %xmm30, %xmm5, %xmm9 # xmm9 = (xmm5 * xmm30) + xmm9
vmulps %xmm17, %xmm8, %xmm8
vfmadd231ps %xmm7, %xmm15, %xmm8 # xmm8 = (xmm15 * xmm7) + xmm8
vfnmadd231ps %xmm6, %xmm17, %xmm8 # xmm8 = -(xmm17 * xmm6) + xmm8
vfmadd231ps %xmm5, %xmm15, %xmm8 # xmm8 = (xmm15 * xmm5) + xmm8
vshufps $0xc9, %xmm2, %xmm2, %xmm5 # xmm5 = xmm2[1,2,0,3]
vshufps $0xc9, %xmm13, %xmm13, %xmm6 # xmm6 = xmm13[1,2,0,3]
vmulps %xmm6, %xmm2, %xmm6
vfmsub231ps %xmm13, %xmm5, %xmm6 # xmm6 = (xmm5 * xmm13) - xmm6
vshufps $0xc9, %xmm6, %xmm6, %xmm7 # xmm7 = xmm6[1,2,0,3]
vshufps $0xc9, %xmm14, %xmm14, %xmm6 # xmm6 = xmm14[1,2,0,3]
vmulps %xmm6, %xmm2, %xmm6
vfmsub231ps %xmm14, %xmm5, %xmm6 # xmm6 = (xmm5 * xmm14) - xmm6
vshufps $0xc9, %xmm6, %xmm6, %xmm10 # xmm10 = xmm6[1,2,0,3]
vshufps $0xc9, %xmm4, %xmm4, %xmm6 # xmm6 = xmm4[1,2,0,3]
vshufps $0xc9, %xmm9, %xmm9, %xmm5 # xmm5 = xmm9[1,2,0,3]
vmulps %xmm5, %xmm4, %xmm5
vfmsub231ps %xmm9, %xmm6, %xmm5 # xmm5 = (xmm6 * xmm9) - xmm5
vshufps $0xc9, %xmm5, %xmm5, %xmm5 # xmm5 = xmm5[1,2,0,3]
vshufps $0xc9, %xmm8, %xmm8, %xmm9 # xmm9 = xmm8[1,2,0,3]
vmulps %xmm4, %xmm9, %xmm9
vfmsub231ps %xmm8, %xmm6, %xmm9 # xmm9 = (xmm6 * xmm8) - xmm9
vshufps $0xc9, %xmm9, %xmm9, %xmm6 # xmm6 = xmm9[1,2,0,3]
vdpps $0x7f, %xmm7, %xmm7, %xmm8
vmovss %xmm8, %xmm15, %xmm9 # xmm9 = xmm8[0],xmm15[1,2,3]
vrsqrt14ss %xmm9, %xmm15, %xmm11
vmovss 0x2160df(%rip), %xmm16 # 0x1eec718
vmulss %xmm16, %xmm11, %xmm12
vmovss 0x2160d3(%rip), %xmm17 # 0x1eec71c
vmulss %xmm17, %xmm8, %xmm13
vmulss %xmm11, %xmm13, %xmm13
vmulss %xmm11, %xmm11, %xmm11
vmulss %xmm11, %xmm13, %xmm11
vaddss %xmm11, %xmm12, %xmm11
vbroadcastss %xmm11, %xmm11
vmulps %xmm7, %xmm11, %xmm12
vdpps $0x7f, %xmm10, %xmm7, %xmm13
vbroadcastss %xmm8, %xmm14
vmulps %xmm14, %xmm10, %xmm10
vbroadcastss %xmm13, %xmm13
vmulps %xmm7, %xmm13, %xmm7
vsubps %xmm7, %xmm10, %xmm7
vrcp14ss %xmm9, %xmm15, %xmm9
vmovss 0x21a95f(%rip), %xmm18 # 0x1ef0ff8
vfnmadd213ss %xmm18, %xmm9, %xmm8 # xmm8 = -(xmm9 * xmm8) + xmm18
vmulss %xmm8, %xmm9, %xmm8
vdpps $0x7f, %xmm5, %xmm5, %xmm9
vbroadcastss %xmm8, %xmm8
vmulps %xmm7, %xmm8, %xmm7
vmulps %xmm7, %xmm11, %xmm7
vmovss %xmm9, %xmm15, %xmm8 # xmm8 = xmm9[0],xmm15[1,2,3]
vrsqrt14ss %xmm8, %xmm15, %xmm10
vmulss %xmm16, %xmm10, %xmm11
vmulss %xmm17, %xmm9, %xmm13
vmulss %xmm10, %xmm13, %xmm13
vmulss %xmm10, %xmm10, %xmm10
vmulss %xmm10, %xmm13, %xmm10
vaddss %xmm10, %xmm11, %xmm10
vbroadcastss %xmm10, %xmm10
vmulps %xmm5, %xmm10, %xmm11
vdpps $0x7f, %xmm6, %xmm5, %xmm13
vbroadcastss %xmm9, %xmm14
vmulps %xmm6, %xmm14, %xmm6
vbroadcastss %xmm13, %xmm13
vmulps %xmm5, %xmm13, %xmm5
vsubps %xmm5, %xmm6, %xmm5
vrcp14ss %xmm8, %xmm15, %xmm6
vfnmadd213ss %xmm18, %xmm6, %xmm9 # xmm9 = -(xmm6 * xmm9) + xmm18
vmulss %xmm6, %xmm9, %xmm6
vbroadcastss %xmm6, %xmm6
vmulps %xmm6, %xmm5, %xmm5
vmulps %xmm5, %xmm10, %xmm5
vshufps $0xff, %xmm1, %xmm1, %xmm6 # xmm6 = xmm1[3,3,3,3]
vmulps %xmm6, %xmm12, %xmm8
vsubps %xmm8, %xmm1, %xmm13
vshufps $0xff, %xmm2, %xmm2, %xmm9 # xmm9 = xmm2[3,3,3,3]
vmulps %xmm12, %xmm9, %xmm9
vmulps %xmm7, %xmm6, %xmm6
vaddps %xmm6, %xmm9, %xmm6
vsubps %xmm6, %xmm2, %xmm7
vaddps %xmm1, %xmm8, %xmm14
vaddps %xmm6, %xmm2, %xmm1
vshufps $0xff, %xmm3, %xmm3, %xmm2 # xmm2 = xmm3[3,3,3,3]
vmulps %xmm2, %xmm11, %xmm6
vsubps %xmm6, %xmm3, %xmm15
vshufps $0xff, %xmm4, %xmm4, %xmm8 # xmm8 = xmm4[3,3,3,3]
vmulps %xmm11, %xmm8, %xmm8
vmulps %xmm5, %xmm2, %xmm2
vaddps %xmm2, %xmm8, %xmm2
vsubps %xmm2, %xmm4, %xmm5
vaddps %xmm6, %xmm3, %xmm16
vaddps %xmm2, %xmm4, %xmm2
vbroadcastss 0x21b736(%rip), %xmm4 # 0x1ef1ebc
vmulps %xmm4, %xmm7, %xmm3
vaddps %xmm3, %xmm13, %xmm17
vmulps %xmm4, %xmm5, %xmm3
vsubps %xmm3, %xmm15, %xmm18
vmulps %xmm4, %xmm1, %xmm1
vaddps %xmm1, %xmm14, %xmm20
vmulps %xmm4, %xmm2, %xmm1
vsubps %xmm1, %xmm16, %xmm21
vsubps %xmm0, %xmm13, %xmm1
vbroadcastss %xmm1, %xmm2
vshufps $0x55, %xmm1, %xmm1, %xmm3 # xmm3 = xmm1[1,1,1,1]
vmovaps %xmm1, 0x340(%rsp)
vshufps $0xaa, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,2,2,2]
vmovaps (%r13), %xmm4
vmovaps 0x10(%r13), %xmm5
vmovaps 0x20(%r13), %xmm6
vmulps %xmm1, %xmm6, %xmm1
vfmadd231ps %xmm3, %xmm5, %xmm1 # xmm1 = (xmm5 * xmm3) + xmm1
vfmadd231ps %xmm2, %xmm4, %xmm1 # xmm1 = (xmm4 * xmm2) + xmm1
vsubps %xmm0, %xmm17, %xmm2
vbroadcastss %xmm2, %xmm3
vshufps $0x55, %xmm2, %xmm2, %xmm7 # xmm7 = xmm2[1,1,1,1]
vmovaps %xmm2, 0x330(%rsp)
vshufps $0xaa, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[2,2,2,2]
vmulps %xmm2, %xmm6, %xmm2
vfmadd231ps %xmm7, %xmm5, %xmm2 # xmm2 = (xmm5 * xmm7) + xmm2
vfmadd231ps %xmm3, %xmm4, %xmm2 # xmm2 = (xmm4 * xmm3) + xmm2
vsubps %xmm0, %xmm18, %xmm3
vbroadcastss %xmm3, %xmm7
vshufps $0x55, %xmm3, %xmm3, %xmm8 # xmm8 = xmm3[1,1,1,1]
vmovaps %xmm3, 0x320(%rsp)
vshufps $0xaa, %xmm3, %xmm3, %xmm3 # xmm3 = xmm3[2,2,2,2]
vmulps %xmm3, %xmm6, %xmm3
vfmadd231ps %xmm8, %xmm5, %xmm3 # xmm3 = (xmm5 * xmm8) + xmm3
vfmadd231ps %xmm7, %xmm4, %xmm3 # xmm3 = (xmm4 * xmm7) + xmm3
vsubps %xmm0, %xmm15, %xmm9
vbroadcastss %xmm9, %xmm7
vshufps $0x55, %xmm9, %xmm9, %xmm8 # xmm8 = xmm9[1,1,1,1]
vmovaps %xmm9, 0x310(%rsp)
vshufps $0xaa, %xmm9, %xmm9, %xmm9 # xmm9 = xmm9[2,2,2,2]
vmulps %xmm6, %xmm9, %xmm9
vfmadd231ps %xmm8, %xmm5, %xmm9 # xmm9 = (xmm5 * xmm8) + xmm9
vfmadd231ps %xmm7, %xmm4, %xmm9 # xmm9 = (xmm4 * xmm7) + xmm9
vsubps %xmm0, %xmm14, %xmm10
vbroadcastss %xmm10, %xmm7
vshufps $0x55, %xmm10, %xmm10, %xmm8 # xmm8 = xmm10[1,1,1,1]
vmovaps %xmm10, 0x300(%rsp)
vshufps $0xaa, %xmm10, %xmm10, %xmm10 # xmm10 = xmm10[2,2,2,2]
vmulps %xmm6, %xmm10, %xmm10
vfmadd231ps %xmm8, %xmm5, %xmm10 # xmm10 = (xmm5 * xmm8) + xmm10
vfmadd231ps %xmm7, %xmm4, %xmm10 # xmm10 = (xmm4 * xmm7) + xmm10
vsubps %xmm0, %xmm20, %xmm11
vbroadcastss %xmm11, %xmm7
vshufps $0x55, %xmm11, %xmm11, %xmm8 # xmm8 = xmm11[1,1,1,1]
vmovaps %xmm11, 0x2f0(%rsp)
vshufps $0xaa, %xmm11, %xmm11, %xmm11 # xmm11 = xmm11[2,2,2,2]
vmulps %xmm6, %xmm11, %xmm11
vfmadd231ps %xmm8, %xmm5, %xmm11 # xmm11 = (xmm5 * xmm8) + xmm11
vfmadd231ps %xmm7, %xmm4, %xmm11 # xmm11 = (xmm4 * xmm7) + xmm11
vsubps %xmm0, %xmm21, %xmm12
vbroadcastss %xmm12, %xmm7
vshufps $0x55, %xmm12, %xmm12, %xmm8 # xmm8 = xmm12[1,1,1,1]
vmovaps %xmm12, 0x2e0(%rsp)
vshufps $0xaa, %xmm12, %xmm12, %xmm12 # xmm12 = xmm12[2,2,2,2]
vmulps %xmm6, %xmm12, %xmm12
vfmadd231ps %xmm8, %xmm5, %xmm12 # xmm12 = (xmm5 * xmm8) + xmm12
vfmadd231ps %xmm7, %xmm4, %xmm12 # xmm12 = (xmm4 * xmm7) + xmm12
vsubps %xmm0, %xmm16, %xmm8
vbroadcastss %xmm8, %xmm0
vshufps $0x55, %xmm8, %xmm8, %xmm7 # xmm7 = xmm8[1,1,1,1]
vmovaps %xmm8, 0x2d0(%rsp)
vshufps $0xaa, %xmm8, %xmm8, %xmm8 # xmm8 = xmm8[2,2,2,2]
vmulps %xmm6, %xmm8, %xmm6
vfmadd231ps %xmm7, %xmm5, %xmm6 # xmm6 = (xmm5 * xmm7) + xmm6
vfmadd231ps %xmm0, %xmm4, %xmm6 # xmm6 = (xmm4 * xmm0) + xmm6
vmovlhps %xmm10, %xmm1, %xmm8 # xmm8 = xmm1[0],xmm10[0]
vmovlhps %xmm11, %xmm2, %xmm22 # xmm22 = xmm2[0],xmm11[0]
vmovlhps %xmm12, %xmm3, %xmm23 # xmm23 = xmm3[0],xmm12[0]
vmovlhps %xmm6, %xmm9, %xmm24 # xmm24 = xmm9[0],xmm6[0]
vminps %xmm22, %xmm8, %xmm0
vmaxps %xmm22, %xmm8, %xmm4
vminps %xmm24, %xmm23, %xmm5
vminps %xmm5, %xmm0, %xmm0
vmaxps %xmm24, %xmm23, %xmm5
vmaxps %xmm5, %xmm4, %xmm4
vshufpd $0x3, %xmm0, %xmm0, %xmm5 # xmm5 = xmm0[1,1]
vshufpd $0x3, %xmm4, %xmm4, %xmm7 # xmm7 = xmm4[1,1]
vminps %xmm5, %xmm0, %xmm0
vmaxps %xmm7, %xmm4, %xmm4
vandps %xmm19, %xmm0, %xmm0
vandps %xmm19, %xmm4, %xmm4
vmaxps %xmm4, %xmm0, %xmm0
vmovshdup %xmm0, %xmm4 # xmm4 = xmm0[1,1,3,3]
vmaxss %xmm0, %xmm4, %xmm0
vmulss 0x21b52b(%rip), %xmm0, %xmm0 # 0x1ef1eb8
vmovddup %xmm1, %xmm7 # xmm7 = xmm1[0,0]
vmovddup %xmm2, %xmm19 # xmm19 = xmm2[0,0]
vmovddup %xmm3, %xmm25 # xmm25 = xmm3[0,0]
vmovddup %xmm9, %xmm1 # xmm1 = xmm9[0,0]
vmovddup %xmm10, %xmm2 # xmm2 = xmm10[0,0]
vmovddup %xmm11, %xmm9 # xmm9 = xmm11[0,0]
vmovddup %xmm12, %xmm10 # xmm10 = xmm12[0,0]
vmovddup %xmm6, %xmm11 # xmm11 = xmm6[0,0]
vmovaps %xmm0, 0x150(%rsp)
vbroadcastss %xmm0, %ymm29
vxorps %xmm30, %xmm29, %xmm0
vbroadcastss %xmm0, %ymm28
vpbroadcastd %eax, %ymm0
vmovdqa %ymm0, 0x3c0(%rsp)
xorl %r14d, %r14d
xorl %ebx, %ebx
vmovss 0x60(%r11,%r9,4), %xmm0
vmovss %xmm0, 0xcc(%rsp)
vmovaps %xmm8, 0xe0(%rsp)
vsubps %xmm8, %xmm22, %xmm0
vmovaps %xmm0, 0x100(%rsp)
vmovaps %xmm22, 0x120(%rsp)
vsubps %xmm22, %xmm23, %xmm0
vmovaps %xmm0, 0xf0(%rsp)
vmovaps %xmm23, 0x110(%rsp)
vmovaps %xmm24, 0x160(%rsp)
vsubps %xmm23, %xmm24, %xmm0
vmovaps %xmm0, 0x350(%rsp)
vmovaps %xmm13, 0x2c0(%rsp)
vmovaps %xmm14, 0x2b0(%rsp)
vsubps %xmm13, %xmm14, %xmm0
vmovaps %xmm0, 0x240(%rsp)
vmovaps %xmm2, %xmm12
vmovaps %xmm17, 0x280(%rsp)
vmovaps %xmm20, 0x260(%rsp)
vsubps %xmm17, %xmm20, %xmm0
vmovaps %xmm0, 0x230(%rsp)
vmovaps %xmm18, 0x270(%rsp)
vmovaps %xmm21, 0x250(%rsp)
vsubps %xmm18, %xmm21, %xmm0
vmovaps %xmm0, 0x220(%rsp)
vmovaps %xmm15, 0x2a0(%rsp)
vmovaps %xmm16, 0x290(%rsp)
vsubps %xmm15, %xmm16, %xmm0
vmovaps %xmm0, 0x210(%rsp)
vmovaps %xmm1, %xmm16
movq 0xc0(%rsp), %r8
vpbroadcastd %r8d, %ymm0
vmovdqa %ymm0, 0x3a0(%rsp)
vmovsd 0x215c07(%rip), %xmm0 # 0x1eec6f0
vmovaps %xmm0, %xmm15
movq 0x88(%rsp), %rdi
vmovaps %xmm7, 0x190(%rsp)
vmovaps %xmm19, 0x180(%rsp)
vmovaps %xmm25, 0x170(%rsp)
vmovaps %xmm1, 0x90(%rsp)
vmovaps %xmm2, 0x50(%rsp)
vmovaps %xmm9, 0x40(%rsp)
vmovaps %xmm10, 0x30(%rsp)
vmovaps %xmm11, 0x20(%rsp)
vmovaps %ymm29, 0x420(%rsp)
vmovaps %ymm28, 0x400(%rsp)
vmovaps %xmm15, %xmm26
vshufps $0x50, %xmm15, %xmm15, %xmm1 # xmm1 = xmm15[0,0,1,1]
vbroadcastss 0x215bc0(%rip), %ymm13 # 0x1eec714
vsubps %xmm1, %xmm13, %xmm2
vmulps %xmm1, %xmm12, %xmm3
vmulps %xmm1, %xmm9, %xmm4
vmulps %xmm1, %xmm10, %xmm5
vmulps %xmm1, %xmm11, %xmm1
vfmadd231ps %xmm7, %xmm2, %xmm3 # xmm3 = (xmm2 * xmm7) + xmm3
vfmadd231ps %xmm19, %xmm2, %xmm4 # xmm4 = (xmm2 * xmm19) + xmm4
vfmadd231ps %xmm25, %xmm2, %xmm5 # xmm5 = (xmm2 * xmm25) + xmm5
vfmadd231ps %xmm2, %xmm16, %xmm1 # xmm1 = (xmm16 * xmm2) + xmm1
vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3]
vsubss %xmm0, %xmm2, %xmm6
vmulss 0x24a341(%rip), %xmm6, %xmm6 # 0x1f20ed0
vbroadcastss %xmm0, %ymm7
vbroadcastsd %xmm2, %ymm2
vsubps %ymm7, %ymm2, %ymm10
vbroadcastss %xmm3, %ymm2
vbroadcastss 0x23bb59(%rip), %ymm9 # 0x1f12704
vpermps %ymm3, %ymm9, %ymm8
vbroadcastss %xmm4, %ymm20
vpermps %ymm4, %ymm9, %ymm21
vbroadcastss %xmm5, %ymm22
vpermps %ymm5, %ymm9, %ymm23
vbroadcastss %xmm1, %ymm24
vpermps %ymm1, %ymm9, %ymm25
vbroadcastss %xmm6, %ymm9
vpermps %ymm3, %ymm27, %ymm19
vbroadcastss 0x24a2f0(%rip), %ymm6 # 0x1f20ed8
vpermps %ymm3, %ymm6, %ymm18
vpermps %ymm4, %ymm27, %ymm15
vpermps %ymm4, %ymm6, %ymm14
vpermps %ymm5, %ymm27, %ymm12
vpermps %ymm5, %ymm6, %ymm11
vpermps %ymm1, %ymm27, %ymm16
vpermps %ymm1, %ymm6, %ymm17
vfmadd132ps 0x24a307(%rip), %ymm7, %ymm10 # ymm10 = (ymm10 * mem) + ymm7
vsubps %ymm10, %ymm13, %ymm13
vmulps %ymm10, %ymm20, %ymm1
vmulps %ymm10, %ymm21, %ymm3
vfmadd231ps %ymm2, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm2) + ymm1
vfmadd231ps %ymm8, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm8) + ymm3
vmulps %ymm10, %ymm22, %ymm2
vmulps %ymm10, %ymm23, %ymm4
vfmadd231ps %ymm20, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm20) + ymm2
vfmadd231ps %ymm21, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm21) + ymm4
vmulps %ymm10, %ymm24, %ymm5
vmulps %ymm10, %ymm25, %ymm6
vfmadd231ps %ymm22, %ymm13, %ymm5 # ymm5 = (ymm13 * ymm22) + ymm5
vfmadd231ps %ymm23, %ymm13, %ymm6 # ymm6 = (ymm13 * ymm23) + ymm6
vmulps %ymm2, %ymm10, %ymm7
vmulps %ymm4, %ymm10, %ymm8
vfmadd231ps %ymm1, %ymm13, %ymm7 # ymm7 = (ymm13 * ymm1) + ymm7
vfmadd231ps %ymm3, %ymm13, %ymm8 # ymm8 = (ymm13 * ymm3) + ymm8
vmulps %ymm5, %ymm10, %ymm1
vmulps %ymm6, %ymm10, %ymm5
vfmadd231ps %ymm2, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm2) + ymm1
vfmadd231ps %ymm4, %ymm13, %ymm5 # ymm5 = (ymm13 * ymm4) + ymm5
vmulps %ymm1, %ymm10, %ymm3
vmulps %ymm5, %ymm10, %ymm4
vfmadd231ps %ymm7, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm7) + ymm3
vfmadd231ps %ymm8, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm8) + ymm4
vsubps %ymm7, %ymm1, %ymm1
vsubps %ymm8, %ymm5, %ymm2
vbroadcastss 0x21a33f(%rip), %ymm22 # 0x1ef0fec
vmulps %ymm22, %ymm1, %ymm1
vmulps %ymm22, %ymm2, %ymm2
vmulps %ymm1, %ymm9, %ymm8
vmulps %ymm2, %ymm9, %ymm20
vmovaps %ymm3, %ymm5
vmovaps 0x28904f(%rip), %ymm23 # 0x1f5fd20
vxorps %xmm24, %xmm24, %xmm24
vpermt2ps %ymm24, %ymm23, %ymm5
vmovaps %ymm4, %ymm6
vpermt2ps %ymm24, %ymm23, %ymm6
vaddps %ymm3, %ymm8, %ymm1
vpermt2ps %ymm24, %ymm23, %ymm8
vaddps %ymm20, %ymm4, %ymm7
vpermt2ps %ymm24, %ymm23, %ymm20
vsubps %ymm8, %ymm5, %ymm2
vsubps %ymm20, %ymm6, %ymm8
vmulps %ymm10, %ymm15, %ymm20
vmulps %ymm10, %ymm14, %ymm21
vfmadd231ps %ymm19, %ymm13, %ymm20 # ymm20 = (ymm13 * ymm19) + ymm20
vfmadd231ps %ymm18, %ymm13, %ymm21 # ymm21 = (ymm13 * ymm18) + ymm21
vmulps %ymm10, %ymm12, %ymm18
vmulps %ymm10, %ymm11, %ymm19
vfmadd231ps %ymm15, %ymm13, %ymm18 # ymm18 = (ymm13 * ymm15) + ymm18
vfmadd231ps %ymm14, %ymm13, %ymm19 # ymm19 = (ymm13 * ymm14) + ymm19
vmulps %ymm10, %ymm16, %ymm14
vmulps %ymm10, %ymm17, %ymm15
vfmadd231ps %ymm12, %ymm13, %ymm14 # ymm14 = (ymm13 * ymm12) + ymm14
vfmadd231ps %ymm11, %ymm13, %ymm15 # ymm15 = (ymm13 * ymm11) + ymm15
vmulps %ymm18, %ymm10, %ymm16
vmulps %ymm19, %ymm10, %ymm17
vfmadd231ps %ymm20, %ymm13, %ymm16 # ymm16 = (ymm13 * ymm20) + ymm16
vfmadd231ps %ymm21, %ymm13, %ymm17 # ymm17 = (ymm13 * ymm21) + ymm17
vmulps %ymm14, %ymm10, %ymm14
vmulps %ymm15, %ymm10, %ymm15
vfmadd231ps %ymm18, %ymm13, %ymm14 # ymm14 = (ymm13 * ymm18) + ymm14
vfmadd231ps %ymm19, %ymm13, %ymm15 # ymm15 = (ymm13 * ymm19) + ymm15
vmulps %ymm14, %ymm10, %ymm11
vmulps %ymm15, %ymm10, %ymm12
vfmadd231ps %ymm16, %ymm13, %ymm11 # ymm11 = (ymm13 * ymm16) + ymm11
vfmadd231ps %ymm13, %ymm17, %ymm12 # ymm12 = (ymm17 * ymm13) + ymm12
vsubps %ymm16, %ymm14, %ymm10
vsubps %ymm17, %ymm15, %ymm13
vmulps %ymm22, %ymm10, %ymm10
vmulps %ymm22, %ymm13, %ymm13
vmulps %ymm10, %ymm9, %ymm10
vmulps %ymm13, %ymm9, %ymm16
vmovaps %ymm11, %ymm13
vpermt2ps %ymm24, %ymm23, %ymm13
vmovaps %ymm12, %ymm14
vpermt2ps %ymm24, %ymm23, %ymm14
vaddps %ymm10, %ymm11, %ymm9
vpermt2ps %ymm24, %ymm23, %ymm10
vaddps %ymm16, %ymm12, %ymm15
vpermt2ps %ymm24, %ymm23, %ymm16
vsubps %ymm10, %ymm13, %ymm10
vsubps %ymm16, %ymm14, %ymm16
vsubps %ymm3, %ymm11, %ymm17
vsubps %ymm4, %ymm12, %ymm18
vsubps %ymm5, %ymm13, %ymm19
vaddps %ymm19, %ymm17, %ymm17
vsubps %ymm6, %ymm14, %ymm19
vaddps %ymm19, %ymm18, %ymm18
vmulps %ymm17, %ymm4, %ymm19
vfnmadd231ps %ymm18, %ymm3, %ymm19 # ymm19 = -(ymm3 * ymm18) + ymm19
vmulps %ymm17, %ymm7, %ymm20
vfnmadd231ps %ymm18, %ymm1, %ymm20 # ymm20 = -(ymm1 * ymm18) + ymm20
vmulps %ymm17, %ymm8, %ymm21
vfnmadd231ps %ymm18, %ymm2, %ymm21 # ymm21 = -(ymm2 * ymm18) + ymm21
vmulps %ymm17, %ymm6, %ymm22
vfnmadd231ps %ymm18, %ymm5, %ymm22 # ymm22 = -(ymm5 * ymm18) + ymm22
vmulps %ymm17, %ymm12, %ymm23
vfnmadd231ps %ymm18, %ymm11, %ymm23 # ymm23 = -(ymm11 * ymm18) + ymm23
vmulps %ymm17, %ymm15, %ymm24
vfnmadd231ps %ymm18, %ymm9, %ymm24 # ymm24 = -(ymm9 * ymm18) + ymm24
vmulps %ymm17, %ymm16, %ymm25
vfnmadd231ps %ymm18, %ymm10, %ymm25 # ymm25 = -(ymm10 * ymm18) + ymm25
vmulps %ymm17, %ymm14, %ymm17
vfnmadd231ps %ymm18, %ymm13, %ymm17 # ymm17 = -(ymm13 * ymm18) + ymm17
vminps %ymm20, %ymm19, %ymm18
vmaxps %ymm20, %ymm19, %ymm19
vminps %ymm22, %ymm21, %ymm20
vminps %ymm20, %ymm18, %ymm18
vmaxps %ymm22, %ymm21, %ymm20
vmaxps %ymm20, %ymm19, %ymm19
vminps %ymm24, %ymm23, %ymm20
vmaxps %ymm24, %ymm23, %ymm21
vminps %ymm17, %ymm25, %ymm22
vminps %ymm22, %ymm20, %ymm20
vminps %ymm20, %ymm18, %ymm18
vmaxps %ymm17, %ymm25, %ymm17
vmaxps %ymm17, %ymm21, %ymm17
vmaxps %ymm17, %ymm19, %ymm17
vcmpleps %ymm29, %ymm18, %k1
vcmpnltps %ymm28, %ymm17, %k0 {%k1}
kmovd %k0, %eax
movl $0x0, %ecx
andb $0x7f, %al
je 0x1cd6fb9
vsubps %ymm3, %ymm5, %ymm17
vsubps %ymm4, %ymm6, %ymm18
vsubps %ymm11, %ymm13, %ymm19
vaddps %ymm19, %ymm17, %ymm17
vsubps %ymm12, %ymm14, %ymm19
vaddps %ymm19, %ymm18, %ymm18
vmulps %ymm17, %ymm4, %ymm4
vfnmadd231ps %ymm3, %ymm18, %ymm4 # ymm4 = -(ymm18 * ymm3) + ymm4
vmulps %ymm17, %ymm7, %ymm3
vfnmadd213ps %ymm3, %ymm18, %ymm1 # ymm1 = -(ymm18 * ymm1) + ymm3
vmulps %ymm17, %ymm8, %ymm3
vfnmadd213ps %ymm3, %ymm18, %ymm2 # ymm2 = -(ymm18 * ymm2) + ymm3
vmulps %ymm17, %ymm6, %ymm3
vfnmadd231ps %ymm5, %ymm18, %ymm3 # ymm3 = -(ymm18 * ymm5) + ymm3
vmulps %ymm17, %ymm12, %ymm5
vfnmadd231ps %ymm11, %ymm18, %ymm5 # ymm5 = -(ymm18 * ymm11) + ymm5
vmulps %ymm17, %ymm15, %ymm6
vfnmadd213ps %ymm6, %ymm18, %ymm9 # ymm9 = -(ymm18 * ymm9) + ymm6
vmulps %ymm17, %ymm16, %ymm6
vfnmadd213ps %ymm6, %ymm18, %ymm10 # ymm10 = -(ymm18 * ymm10) + ymm6
vmulps %ymm17, %ymm14, %ymm6
vfnmadd231ps %ymm18, %ymm13, %ymm6 # ymm6 = -(ymm13 * ymm18) + ymm6
vminps %ymm1, %ymm4, %ymm7
vmaxps %ymm1, %ymm4, %ymm1
vminps %ymm3, %ymm2, %ymm4
vminps %ymm4, %ymm7, %ymm4
vmaxps %ymm3, %ymm2, %ymm2
vmaxps %ymm2, %ymm1, %ymm1
vminps %ymm9, %ymm5, %ymm2
vmaxps %ymm9, %ymm5, %ymm3
vminps %ymm6, %ymm10, %ymm5
vminps %ymm5, %ymm2, %ymm2
vminps %ymm2, %ymm4, %ymm2
vmaxps %ymm6, %ymm10, %ymm4
vmaxps %ymm4, %ymm3, %ymm3
vmaxps %ymm3, %ymm1, %ymm1
vcmpnltps %ymm28, %ymm1, %k1
vcmpleps %ymm29, %ymm2, %k0 {%k1}
kmovd %k0, %ecx
andb %cl, %al
movzbl %al, %ecx
testl %ecx, %ecx
je 0x1cd6fdc
movl %ebx, %eax
movl %ecx, 0x1a0(%rsp,%rax,4)
vmovlps %xmm0, 0x360(%rsp,%rax,8)
vmovlps %xmm26, 0x440(%rsp,%rax,8)
incl %ebx
vbroadcastss 0x215b9a(%rip), %xmm17 # 0x1eecb80
vbroadcastss 0x249ed4(%rip), %xmm19 # 0x1f20ec4
vbroadcastss 0x219ff2(%rip), %ymm18 # 0x1ef0fec
vmovss 0x249edc(%rip), %xmm20 # 0x1f20ee0
vmovss 0x215706(%rip), %xmm21 # 0x1eec714
vmovss 0x219fe8(%rip), %xmm22 # 0x1ef1000
vmovss 0x21aa2a(%rip), %xmm23 # 0x1ef1a4c
vbroadcastss 0x2156e8(%rip), %xmm24 # 0x1eec714
vmovss 0x21ae86(%rip), %xmm25 # 0x1ef1ebc
vmovaps 0x90(%rsp), %xmm16
vmovaps 0x50(%rsp), %xmm12
vmovaps 0x40(%rsp), %xmm9
vmovaps 0x30(%rsp), %xmm10
vmovaps 0x20(%rsp), %xmm11
vmovaps 0x100(%rsp), %xmm28
vmovaps 0xf0(%rsp), %xmm29
testl %ebx, %ebx
je 0x1cd80e8
leal -0x1(%rbx), %eax
vmovss 0x360(%rsp,%rax,8), %xmm0
vmovss 0x364(%rsp,%rax,8), %xmm1
movl 0x1a0(%rsp,%rax,4), %ecx
vmovsd 0x440(%rsp,%rax,8), %xmm15
tzcntq %rcx, %rdx
blsrl %ecx, %ecx
movl %ecx, 0x1a0(%rsp,%rax,4)
cmovel %eax, %ebx
vxorps %xmm2, %xmm2, %xmm2
vcvtsi2ss %rdx, %xmm2, %xmm2
vmulss %xmm20, %xmm2, %xmm2
incq %rdx
vcvtsi2ss %rdx, %xmm30, %xmm3
vmulss %xmm20, %xmm3, %xmm3
vsubss %xmm2, %xmm21, %xmm4
vmulss %xmm2, %xmm1, %xmm26
vfmadd231ss %xmm4, %xmm0, %xmm26 # xmm26 = (xmm0 * xmm4) + xmm26
vsubss %xmm3, %xmm21, %xmm2
vmulss %xmm3, %xmm1, %xmm13
vfmadd231ss %xmm2, %xmm0, %xmm13 # xmm13 = (xmm0 * xmm2) + xmm13
vsubss %xmm26, %xmm13, %xmm0
vucomiss %xmm0, %xmm22
jbe 0x1cd80b3
vmovaps %xmm26, %xmm6
vmovaps %xmm15, %xmm26
vshufps $0x50, %xmm15, %xmm15, %xmm1 # xmm1 = xmm15[0,0,1,1]
vucomiss %xmm0, %xmm23
seta %cl
cmpl $0x4, %ebx
setae %al
vsubps %xmm1, %xmm24, %xmm2
vmulps %xmm1, %xmm12, %xmm3
vmulps %xmm1, %xmm9, %xmm4
vmulps %xmm1, %xmm10, %xmm5
vmulps %xmm1, %xmm11, %xmm1
vfmadd231ps 0x190(%rsp), %xmm2, %xmm3 # xmm3 = (xmm2 * mem) + xmm3
vfmadd231ps 0x180(%rsp), %xmm2, %xmm4 # xmm4 = (xmm2 * mem) + xmm4
vfmadd231ps 0x170(%rsp), %xmm2, %xmm5 # xmm5 = (xmm2 * mem) + xmm5
vfmadd231ps %xmm2, %xmm16, %xmm1 # xmm1 = (xmm16 * xmm2) + xmm1
vinsertf128 $0x1, %xmm3, %ymm3, %ymm2
vinsertf128 $0x1, %xmm4, %ymm4, %ymm3
vinsertf128 $0x1, %xmm5, %ymm5, %ymm4
vmovaps %xmm6, 0xd0(%rsp)
vbroadcastss %xmm6, %xmm6
vmovaps %xmm13, 0x70(%rsp)
vbroadcastss %xmm13, %xmm7
vinsertf128 $0x1, %xmm7, %ymm6, %ymm6
vsubps %ymm2, %ymm3, %ymm7
vfmadd213ps %ymm2, %ymm6, %ymm7 # ymm7 = (ymm6 * ymm7) + ymm2
vsubps %ymm3, %ymm4, %ymm2
vfmadd213ps %ymm3, %ymm6, %ymm2 # ymm2 = (ymm6 * ymm2) + ymm3
vsubps %xmm5, %xmm1, %xmm1
vinsertf128 $0x1, %xmm1, %ymm1, %ymm3
vfmadd213ps %ymm4, %ymm6, %ymm3 # ymm3 = (ymm6 * ymm3) + ymm4
vsubps %ymm7, %ymm2, %ymm1
vfmadd213ps %ymm7, %ymm6, %ymm1 # ymm1 = (ymm6 * ymm1) + ymm7
vsubps %ymm2, %ymm3, %ymm3
vfmadd213ps %ymm2, %ymm6, %ymm3 # ymm3 = (ymm6 * ymm3) + ymm2
vsubps %ymm1, %ymm3, %ymm2
vfmadd231ps %ymm6, %ymm2, %ymm1 # ymm1 = (ymm2 * ymm6) + ymm1
vmulps %ymm18, %ymm2, %ymm3
vextractf128 $0x1, %ymm1, %xmm2
vextractf128 $0x1, %ymm3, %xmm4
vmulss %xmm25, %xmm0, %xmm5
vbroadcastss %xmm5, %xmm6
vmulps %xmm3, %xmm6, %xmm3
vaddps %xmm3, %xmm1, %xmm5
vmulps %xmm4, %xmm6, %xmm3
vsubps %xmm3, %xmm2, %xmm6
vshufpd $0x3, %xmm1, %xmm1, %xmm4 # xmm4 = xmm1[1,1]
vshufpd $0x3, %xmm2, %xmm2, %xmm3 # xmm3 = xmm2[1,1]
vsubps %xmm1, %xmm4, %xmm7
vsubps %xmm2, %xmm3, %xmm8
vaddps %xmm7, %xmm8, %xmm7
vshufps $0xb1, %xmm1, %xmm1, %xmm8 # xmm8 = xmm1[1,0,3,2]
vshufps $0xb1, %xmm5, %xmm5, %xmm9 # xmm9 = xmm5[1,0,3,2]
vshufps $0xb1, %xmm6, %xmm6, %xmm10 # xmm10 = xmm6[1,0,3,2]
vshufps $0xb1, %xmm2, %xmm2, %xmm11 # xmm11 = xmm2[1,0,3,2]
vbroadcastss %xmm7, %xmm12
vshufps $0x55, %xmm7, %xmm7, %xmm7 # xmm7 = xmm7[1,1,1,1]
vmulps %xmm7, %xmm8, %xmm8
vmulps %xmm7, %xmm9, %xmm9
vmulps %xmm7, %xmm10, %xmm10
vmulps %xmm7, %xmm11, %xmm7
vfmadd231ps %xmm1, %xmm12, %xmm8 # xmm8 = (xmm12 * xmm1) + xmm8
vfmadd231ps %xmm5, %xmm12, %xmm9 # xmm9 = (xmm12 * xmm5) + xmm9
vfmadd231ps %xmm6, %xmm12, %xmm10 # xmm10 = (xmm12 * xmm6) + xmm10
vfmadd231ps %xmm12, %xmm2, %xmm7 # xmm7 = (xmm2 * xmm12) + xmm7
vshufpd $0x1, %xmm8, %xmm8, %xmm11 # xmm11 = xmm8[1,0]
vshufpd $0x1, %xmm9, %xmm9, %xmm12 # xmm12 = xmm9[1,0]
vshufpd $0x1, %xmm10, %xmm10, %xmm14 # xmm14 = xmm10[1,0]
vshufpd $0x1, %xmm7, %xmm7, %xmm15 # xmm15 = xmm7[1,0]
vminss %xmm9, %xmm8, %xmm13
vmaxss %xmm8, %xmm9, %xmm8
vminss %xmm7, %xmm10, %xmm9
vmaxss %xmm10, %xmm7, %xmm7
vminss %xmm9, %xmm13, %xmm13
vmaxss %xmm8, %xmm7, %xmm9
vminss %xmm12, %xmm11, %xmm7
vmaxss %xmm11, %xmm12, %xmm8
vminss %xmm15, %xmm14, %xmm10
vmaxss %xmm14, %xmm15, %xmm11
vminss %xmm10, %xmm7, %xmm14
vmaxss %xmm8, %xmm11, %xmm10
vmovss 0x219739(%rip), %xmm7 # 0x1ef09d8
vucomiss %xmm13, %xmm7
jbe 0x1cd72b4
vmovss 0x21ac12(%rip), %xmm7 # 0x1ef1ec0
vucomiss %xmm7, %xmm10
ja 0x1cd7315
vmovss 0x21ac04(%rip), %xmm7 # 0x1ef1ec0
vucomiss %xmm7, %xmm9
seta %dl
vmovss 0x21970d(%rip), %xmm7 # 0x1ef09d8
vcmpltps %xmm7, %xmm14, %k0
vcmpltps %xmm7, %xmm13, %k1
korw %k0, %k1, %k0
kmovd %k0, %esi
testb %sil, %dl
jne 0x1cd7315
vmovss 0x21abd2(%rip), %xmm7 # 0x1ef1ec0
vcmpnltps %xmm10, %xmm7, %k0
vmovss 0x2196db(%rip), %xmm7 # 0x1ef09d8
vcmpnltps %xmm7, %xmm14, %k1
korw %k0, %k1, %k0
kmovd %k0, %edx
testb $0x1, %dl
jne 0x1cd8073
vcmpltss %xmm31, %xmm13, %k1
vmovaps %xmm21, %xmm15
vmovss 0x2196a0(%rip), %xmm16 # 0x1ef09cc
vmovss %xmm16, %xmm15, %xmm15 {%k1}
vcmpltss %xmm31, %xmm9, %k1
vmovaps %xmm21, %xmm12
vmovss %xmm16, %xmm12, %xmm12 {%k1}
vucomiss %xmm12, %xmm15
setp %dl
setne %sil
orb %dl, %sil
kmovd %esi, %k1
vmovss 0x2146c0(%rip), %xmm7 # 0x1eeba20
vmovss %xmm31, %xmm7, %xmm7 {%k1}
vmovss 0x215816(%rip), %xmm8 # 0x1eecb84
vmovss %xmm31, %xmm8, %xmm8 {%k1}
vcmpltss %xmm31, %xmm14, %k1
vmovaps %xmm21, %xmm11
vmovss %xmm16, %xmm11, %xmm11 {%k1}
vucomiss %xmm11, %xmm15
jne 0x1cd7390
jnp 0x1cd73cf
vucomiss %xmm13, %xmm14
jne 0x1cd73df
jp 0x1cd73df
vucomiss %xmm31, %xmm13
setnp %dl
sete %sil
andb %dl, %sil
kmovd %esi, %k1
vmovss 0x21466b(%rip), %xmm13 # 0x1eeba20
vmovss %xmm31, %xmm13, %xmm13 {%k1}
vmovss 0x2157c1(%rip), %xmm14 # 0x1eecb84
vmovss 0x215347(%rip), %xmm14 {%k1} # 0x1eec714
jmp 0x1cd7404
vmovaps 0xe0(%rsp), %xmm16
vmovaps %xmm26, %xmm15
jmp 0x1cd741c
vxorps 0x249ad7(%rip){1to4}, %xmm13, %xmm15 # 0x1f20ec0
vsubss %xmm13, %xmm14, %xmm13
vdivss %xmm13, %xmm15, %xmm14
vsubss %xmm14, %xmm21, %xmm13
vfmadd213ss %xmm14, %xmm31, %xmm13 # xmm13 = (xmm31 * xmm13) + xmm14
vmovaps %xmm13, %xmm14
vmovaps 0xe0(%rsp), %xmm16
vmovaps %xmm26, %xmm15
vminss %xmm13, %xmm7, %xmm7
vmaxss %xmm8, %xmm14, %xmm8
vmovaps 0xd0(%rsp), %xmm26
vcmpltss %xmm31, %xmm10, %k1
vmovaps %xmm21, %xmm13
vmovss 0x219591(%rip), %xmm13 {%k1} # 0x1ef09cc
vucomiss %xmm13, %xmm12
jne 0x1cd7444
jnp 0x1cd74b2
vucomiss %xmm9, %xmm10
jne 0x1cd7483
jp 0x1cd7483
vucomiss %xmm31, %xmm9
setnp %dl
sete %sil
andb %dl, %sil
kmovd %esi, %k1
vmovss 0x2145b7(%rip), %xmm9 # 0x1eeba20
vmovss %xmm31, %xmm9, %xmm9 {%k1}
vmovss 0x21570d(%rip), %xmm10 # 0x1eecb84
vmovss 0x215293(%rip), %xmm10 {%k1} # 0x1eec714
jmp 0x1cd74a8
vxorps 0x249a33(%rip){1to4}, %xmm9, %xmm12 # 0x1f20ec0
vsubss %xmm9, %xmm10, %xmm9
vdivss %xmm9, %xmm12, %xmm10
vsubss %xmm10, %xmm21, %xmm9
vfmadd213ss %xmm10, %xmm31, %xmm9 # xmm9 = (xmm31 * xmm9) + xmm10
vmovaps %xmm9, %xmm10
vminss %xmm9, %xmm7, %xmm7
vmaxss %xmm8, %xmm10, %xmm8
vucomiss %xmm13, %xmm11
setp %dl
setne %sil
orb %dl, %sil
vminss %xmm21, %xmm7, %xmm9
kmovd %esi, %k1
vmovss %xmm9, %xmm7, %xmm7 {%k1}
vmaxss %xmm8, %xmm21, %xmm9
vmovss %xmm9, %xmm8, %xmm8 {%k1}
vmaxss %xmm7, %xmm31, %xmm7
vminss %xmm21, %xmm8, %xmm8
movb $0x1, %r15b
vucomiss %xmm8, %xmm7
ja 0x1cd803d
vaddss 0x285f69(%rip), %xmm7, %xmm7 # 0x1f5d468
vaddss 0x215695(%rip), %xmm8, %xmm8 # 0x1eecb9c
vmaxss %xmm7, %xmm31, %xmm7
vminss %xmm21, %xmm8, %xmm8
vmovddup %xmm1, %xmm1 # xmm1 = xmm1[0,0]
vmovddup %xmm5, %xmm9 # xmm9 = xmm5[0,0]
vmovddup %xmm6, %xmm10 # xmm10 = xmm6[0,0]
vmovddup %xmm2, %xmm2 # xmm2 = xmm2[0,0]
vshufpd $0x3, %xmm5, %xmm5, %xmm5 # xmm5 = xmm5[1,1]
vshufpd $0x3, %xmm6, %xmm6, %xmm6 # xmm6 = xmm6[1,1]
vshufps $0x0, %xmm8, %xmm7, %xmm11 # xmm11 = xmm7[0,0],xmm8[0,0]
vsubps %xmm11, %xmm24, %xmm12
vmulps %xmm4, %xmm11, %xmm13
vmulps %xmm5, %xmm11, %xmm5
vmulps %xmm6, %xmm11, %xmm6
vmulps %xmm3, %xmm11, %xmm3
vfmadd231ps %xmm1, %xmm12, %xmm13 # xmm13 = (xmm12 * xmm1) + xmm13
vfmadd231ps %xmm9, %xmm12, %xmm5 # xmm5 = (xmm12 * xmm9) + xmm5
vfmadd231ps %xmm10, %xmm12, %xmm6 # xmm6 = (xmm12 * xmm10) + xmm6
vfmadd231ps %xmm2, %xmm12, %xmm3 # xmm3 = (xmm12 * xmm2) + xmm3
vsubss %xmm7, %xmm21, %xmm2
vmovshdup %xmm15, %xmm4 # xmm4 = xmm15[1,1,3,3]
vmulss %xmm7, %xmm4, %xmm1
vfmadd231ss %xmm2, %xmm15, %xmm1 # xmm1 = (xmm15 * xmm2) + xmm1
vsubss %xmm8, %xmm21, %xmm2
vmulss %xmm4, %xmm8, %xmm4
vfmadd231ss %xmm2, %xmm15, %xmm4 # xmm4 = (xmm15 * xmm2) + xmm4
vdivss %xmm0, %xmm21, %xmm0
vsubps %xmm13, %xmm5, %xmm2
vbroadcastss 0x219a58(%rip), %xmm15 # 0x1ef0fec
vmulps %xmm2, %xmm15, %xmm2
vsubps %xmm5, %xmm6, %xmm7
vmulps %xmm7, %xmm15, %xmm7
vsubps %xmm6, %xmm3, %xmm8
vmulps %xmm15, %xmm8, %xmm8
vminps %xmm8, %xmm7, %xmm9
vmaxps %xmm8, %xmm7, %xmm7
vminps %xmm9, %xmm2, %xmm8
vmaxps %xmm7, %xmm2, %xmm2
vshufpd $0x3, %xmm8, %xmm8, %xmm7 # xmm7 = xmm8[1,1]
vshufpd $0x3, %xmm2, %xmm2, %xmm9 # xmm9 = xmm2[1,1]
vminps %xmm7, %xmm8, %xmm7
vmaxps %xmm9, %xmm2, %xmm2
vbroadcastss %xmm0, %xmm0
vmulps %xmm7, %xmm0, %xmm8
vmulps %xmm2, %xmm0, %xmm7
vsubss %xmm1, %xmm4, %xmm0
vdivss %xmm0, %xmm21, %xmm0
vshufpd $0x3, %xmm13, %xmm13, %xmm2 # xmm2 = xmm13[1,1]
vshufpd $0x3, %xmm5, %xmm5, %xmm9 # xmm9 = xmm5[1,1]
vshufpd $0x3, %xmm6, %xmm6, %xmm10 # xmm10 = xmm6[1,1]
vshufpd $0x3, %xmm3, %xmm3, %xmm11 # xmm11 = xmm3[1,1]
vsubps %xmm13, %xmm2, %xmm2
vsubps %xmm5, %xmm9, %xmm5
vsubps %xmm6, %xmm10, %xmm6
vsubps %xmm3, %xmm11, %xmm3
vminps %xmm5, %xmm2, %xmm9
vmaxps %xmm5, %xmm2, %xmm2
vminps %xmm3, %xmm6, %xmm5
vminps %xmm5, %xmm9, %xmm5
vmaxps %xmm3, %xmm6, %xmm3
vmaxps %xmm3, %xmm2, %xmm2
vbroadcastss %xmm0, %xmm0
vmulps %xmm5, %xmm0, %xmm10
vmulps %xmm2, %xmm0, %xmm11
vinsertps $0x10, %xmm1, %xmm26, %xmm6 # xmm6 = xmm26[0],xmm1[0],xmm26[2,3]
vmovaps 0x70(%rsp), %xmm0
vinsertps $0x10, %xmm4, %xmm0, %xmm5 # xmm5 = xmm0[0],xmm4[0],xmm0[2,3]
vaddps %xmm5, %xmm6, %xmm0
vmulps %xmm17, %xmm0, %xmm9
vshufps $0x54, %xmm9, %xmm9, %xmm0 # xmm0 = xmm9[0,1,1,1]
vbroadcastss %xmm9, %xmm2
vmovaps %xmm28, %xmm3
vfmadd213ps %xmm16, %xmm2, %xmm3 # xmm3 = (xmm2 * xmm3) + xmm16
vmovaps %xmm29, %xmm12
vfmadd213ps 0x120(%rsp), %xmm2, %xmm12 # xmm12 = (xmm2 * xmm12) + mem
vmovaps 0x350(%rsp), %xmm13
vfmadd213ps 0x110(%rsp), %xmm2, %xmm13 # xmm13 = (xmm2 * xmm13) + mem
vsubps %xmm3, %xmm12, %xmm14
vfmadd213ps %xmm3, %xmm2, %xmm14 # xmm14 = (xmm2 * xmm14) + xmm3
vsubps %xmm12, %xmm13, %xmm3
vfmadd213ps %xmm12, %xmm2, %xmm3 # xmm3 = (xmm2 * xmm3) + xmm12
vsubps %xmm14, %xmm3, %xmm3
vfmadd231ps %xmm2, %xmm3, %xmm14 # xmm14 = (xmm3 * xmm2) + xmm14
vmulps %xmm3, %xmm15, %xmm2
vmovddup %xmm14, %xmm12 # xmm12 = xmm14[0,0]
vshufpd $0x3, %xmm14, %xmm14, %xmm3 # xmm3 = xmm14[1,1]
vshufps $0x55, %xmm9, %xmm9, %xmm13 # xmm13 = xmm9[1,1,1,1]
vsubps %xmm12, %xmm3, %xmm3
vfmadd231ps %xmm3, %xmm13, %xmm12 # xmm12 = (xmm13 * xmm3) + xmm12
vmovddup %xmm2, %xmm14 # xmm14 = xmm2[0,0]
vshufpd $0x3, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[1,1]
vsubps %xmm14, %xmm2, %xmm15
vfmadd213ps %xmm14, %xmm13, %xmm15 # xmm15 = (xmm13 * xmm15) + xmm14
vxorps %xmm30, %xmm3, %xmm2
vmovshdup %xmm15, %xmm13 # xmm13 = xmm15[1,1,3,3]
vxorps %xmm30, %xmm13, %xmm14
vmovshdup %xmm3, %xmm16 # xmm16 = xmm3[1,1,3,3]
vmovss 0x288603(%rip), %xmm31 # 0x1f5fcfc
vpermt2ps %xmm3, %xmm31, %xmm14
vmulss %xmm3, %xmm13, %xmm3
vfmsub231ss %xmm16, %xmm15, %xmm3 # xmm3 = (xmm15 * xmm16) - xmm3
vmovss 0x283263(%rip), %xmm13 # 0x1f5a974
vpermt2ps %xmm2, %xmm13, %xmm15
vbroadcastss %xmm3, %xmm3
vdivps %xmm3, %xmm14, %xmm2
vdivps %xmm3, %xmm15, %xmm3
vbroadcastss %xmm12, %xmm13
vmulps %xmm2, %xmm13, %xmm13
vshufps $0x55, %xmm12, %xmm12, %xmm12 # xmm12 = xmm12[1,1,1,1]
vmulps %xmm3, %xmm12, %xmm12
vaddps %xmm12, %xmm13, %xmm12
vsubps %xmm12, %xmm0, %xmm0
vmovshdup %xmm2, %xmm12 # xmm12 = xmm2[1,1,3,3]
vinsertps $0x1c, %xmm10, %xmm8, %xmm13 # xmm13 = xmm8[0],xmm10[0],zero,zero
vmulps %xmm13, %xmm12, %xmm14
vinsertps $0x1c, %xmm11, %xmm7, %xmm15 # xmm15 = xmm7[0],xmm11[0],zero,zero
vmulps %xmm15, %xmm12, %xmm12
vminps %xmm12, %xmm14, %xmm16
vmaxps %xmm14, %xmm12, %xmm12
vmovshdup %xmm3, %xmm14 # xmm14 = xmm3[1,1,3,3]
vinsertps $0x4c, %xmm8, %xmm10, %xmm8 # xmm8 = xmm8[1],xmm10[1],zero,zero
vmulps %xmm8, %xmm14, %xmm10
vinsertps $0x4c, %xmm7, %xmm11, %xmm7 # xmm7 = xmm7[1],xmm11[1],zero,zero
vmulps %xmm7, %xmm14, %xmm11
vminps %xmm11, %xmm10, %xmm14
vaddps %xmm14, %xmm16, %xmm14
vmaxps %xmm10, %xmm11, %xmm10
vaddps %xmm10, %xmm12, %xmm10
vmovddup 0x249754(%rip), %xmm11 # xmm11 = mem[0,0]
vsubps %xmm10, %xmm11, %xmm10
vsubps %xmm14, %xmm11, %xmm11
vsubps %xmm9, %xmm6, %xmm12
vsubps %xmm9, %xmm5, %xmm9
vmulps %xmm10, %xmm12, %xmm14
vbroadcastss %xmm2, %xmm16
vmulps %xmm13, %xmm16, %xmm13
vmulps %xmm15, %xmm16, %xmm15
vminps %xmm15, %xmm13, %xmm16
vmaxps %xmm13, %xmm15, %xmm13
vbroadcastss %xmm3, %xmm15
vmulps %xmm8, %xmm15, %xmm8
vmulps %xmm7, %xmm15, %xmm7
vminps %xmm7, %xmm8, %xmm15
vaddps %xmm15, %xmm16, %xmm15
vmulps %xmm11, %xmm12, %xmm16
vmulps %xmm10, %xmm9, %xmm10
vmulps %xmm11, %xmm9, %xmm11
vmaxps %xmm8, %xmm7, %xmm7
vaddps %xmm7, %xmm13, %xmm7
vmovddup 0x2496ed(%rip), %xmm8 # xmm8 = mem[0,0]
vsubps %xmm7, %xmm8, %xmm7
vsubps %xmm15, %xmm8, %xmm8
vmulps %xmm7, %xmm12, %xmm13
vmulps %xmm8, %xmm12, %xmm12
vmulps %xmm7, %xmm9, %xmm7
vmulps %xmm8, %xmm9, %xmm8
vminps %xmm12, %xmm13, %xmm9
vminps %xmm8, %xmm7, %xmm15
vminps %xmm15, %xmm9, %xmm9
vmaxps %xmm13, %xmm12, %xmm12
vmaxps %xmm7, %xmm8, %xmm7
vmaxps %xmm12, %xmm7, %xmm7
vminps %xmm16, %xmm14, %xmm8
vminps %xmm11, %xmm10, %xmm12
vminps %xmm12, %xmm8, %xmm8
vhaddps %xmm8, %xmm9, %xmm8
vmaxps %xmm14, %xmm16, %xmm9
vmaxps %xmm10, %xmm11, %xmm10
vmaxps %xmm9, %xmm10, %xmm9
vhaddps %xmm9, %xmm7, %xmm7
vshufps $0xe8, %xmm8, %xmm8, %xmm8 # xmm8 = xmm8[0,2,2,3]
vshufps $0xe8, %xmm7, %xmm7, %xmm9 # xmm9 = xmm7[0,2,2,3]
vaddps %xmm0, %xmm8, %xmm7
vaddps %xmm0, %xmm9, %xmm8
vmaxps %xmm7, %xmm6, %xmm6
vminps %xmm5, %xmm8, %xmm9
vcmpltps %xmm6, %xmm9, %k0
vinsertps $0x10, %xmm4, %xmm1, %xmm15 # xmm15 = xmm1[0],xmm4[0],xmm1[2,3]
kmovd %k0, %edx
testb $0x3, %dl
jne 0x1cd8037
vucomiss %xmm8, %xmm5
seta %sil
xorl %edx, %edx
vucomiss %xmm26, %xmm7
vmovaps 0x90(%rsp), %xmm16
jbe 0x1cd791e
testb %sil, %sil
vxorps %xmm31, %xmm31, %xmm31
vmovss 0x21971e(%rip), %xmm11 # 0x1ef0fec
vmovaps 0xe0(%rsp), %xmm9
vmovaps 0x120(%rsp), %xmm10
vmovaps 0x110(%rsp), %xmm12
vmovaps 0x160(%rsp), %xmm13
vmovaps 0x150(%rsp), %xmm14
je 0x1cd7959
vcmpltps %xmm5, %xmm8, %k0
kshiftrb $0x1, %k0, %k0
kmovd %k0, %esi
vmovshdup %xmm7, %xmm4 # xmm4 = xmm7[1,1,3,3]
vucomiss %xmm1, %xmm4
seta %dl
andb %sil, %dl
jmp 0x1cd7959
vxorps %xmm31, %xmm31, %xmm31
vmovss 0x2196c0(%rip), %xmm11 # 0x1ef0fec
vmovaps 0xe0(%rsp), %xmm9
vmovaps 0x120(%rsp), %xmm10
vmovaps 0x110(%rsp), %xmm12
vmovaps 0x160(%rsp), %xmm13
vmovaps 0x150(%rsp), %xmm14
orb %cl, %al
orb %dl, %al
cmpb $0x1, %al
jne 0x1cd8047
movl $0xc8, %eax
vsubss %xmm0, %xmm21, %xmm1
vmulss %xmm1, %xmm1, %xmm4
vmulss %xmm4, %xmm1, %xmm5
vmulss %xmm0, %xmm11, %xmm6
vmulss %xmm4, %xmm6, %xmm4
vmulss %xmm0, %xmm0, %xmm6
vmulss %xmm6, %xmm11, %xmm7
vmulss %xmm7, %xmm1, %xmm1
vbroadcastss %xmm5, %xmm5
vbroadcastss %xmm4, %xmm4
vbroadcastss %xmm1, %xmm1
vmulss %xmm6, %xmm0, %xmm6
vbroadcastss %xmm6, %xmm6
vmulps %xmm6, %xmm13, %xmm6
vfmadd231ps %xmm1, %xmm12, %xmm6 # xmm6 = (xmm12 * xmm1) + xmm6
vfmadd231ps %xmm4, %xmm10, %xmm6 # xmm6 = (xmm10 * xmm4) + xmm6
vfmadd231ps %xmm5, %xmm9, %xmm6 # xmm6 = (xmm9 * xmm5) + xmm6
vmovddup %xmm6, %xmm1 # xmm1 = xmm6[0,0]
vshufpd $0x3, %xmm6, %xmm6, %xmm4 # xmm4 = xmm6[1,1]
vshufps $0x55, %xmm0, %xmm0, %xmm5 # xmm5 = xmm0[1,1,1,1]
vsubps %xmm1, %xmm4, %xmm4
vfmadd213ps %xmm1, %xmm5, %xmm4 # xmm4 = (xmm5 * xmm4) + xmm1
vbroadcastss %xmm4, %xmm1
vmulps %xmm1, %xmm2, %xmm1
vshufps $0x55, %xmm4, %xmm4, %xmm5 # xmm5 = xmm4[1,1,1,1]
vmulps %xmm5, %xmm3, %xmm5
vaddps %xmm5, %xmm1, %xmm1
vsubps %xmm1, %xmm0, %xmm0
vandps %xmm19, %xmm4, %xmm1
vprolq $0x20, %xmm1, %xmm4
vmaxss %xmm1, %xmm4, %xmm1
vucomiss %xmm1, %xmm14
ja 0x1cd7a0d
decq %rax
jne 0x1cd796a
jmp 0x1cd804a
vucomiss %xmm31, %xmm0
jb 0x1cd804a
vucomiss %xmm0, %xmm21
vmovaps 0x50(%rsp), %xmm12
vmovaps 0x70(%rsp), %xmm13
jb 0x1cd7b37
vmovshdup %xmm0, %xmm1 # xmm1 = xmm0[1,1,3,3]
vucomiss %xmm31, %xmm1
jb 0x1cd7b37
vucomiss %xmm1, %xmm21
jb 0x1cd7b37
vmovss 0x8(%r13), %xmm2
vinsertps $0x1c, 0x18(%r13), %xmm2, %xmm2 # xmm2 = xmm2[0],mem[0],zero,zero
vinsertps $0x28, 0x28(%r13), %xmm2, %xmm2 # xmm2 = xmm2[0,1],mem[0],zero
vdpps $0x7f, 0x340(%rsp), %xmm2, %xmm3
vdpps $0x7f, 0x330(%rsp), %xmm2, %xmm4
vdpps $0x7f, 0x320(%rsp), %xmm2, %xmm5
vdpps $0x7f, 0x310(%rsp), %xmm2, %xmm6
vdpps $0x7f, 0x300(%rsp), %xmm2, %xmm7
vdpps $0x7f, 0x2f0(%rsp), %xmm2, %xmm8
vdpps $0x7f, 0x2e0(%rsp), %xmm2, %xmm9
vdpps $0x7f, 0x2d0(%rsp), %xmm2, %xmm2
vsubss %xmm1, %xmm21, %xmm10
vmulss %xmm7, %xmm1, %xmm7
vmulss %xmm1, %xmm8, %xmm8
vmulss %xmm1, %xmm9, %xmm9
vmulss %xmm2, %xmm1, %xmm1
vfmadd231ss %xmm3, %xmm10, %xmm7 # xmm7 = (xmm10 * xmm3) + xmm7
vfmadd231ss %xmm4, %xmm10, %xmm8 # xmm8 = (xmm10 * xmm4) + xmm8
vfmadd231ss %xmm5, %xmm10, %xmm9 # xmm9 = (xmm10 * xmm5) + xmm9
vfmadd231ss %xmm6, %xmm10, %xmm1 # xmm1 = (xmm10 * xmm6) + xmm1
vsubss %xmm0, %xmm21, %xmm6
vmulss %xmm6, %xmm6, %xmm3
vmulss %xmm3, %xmm6, %xmm2
vmulss %xmm0, %xmm11, %xmm4
vmulss %xmm3, %xmm4, %xmm3
vmulps %xmm0, %xmm0, %xmm5
vmulss %xmm5, %xmm11, %xmm4
vmulss %xmm4, %xmm6, %xmm4
vmulps %xmm5, %xmm0, %xmm5
vmulss %xmm1, %xmm5, %xmm1
vfmadd231ss %xmm9, %xmm4, %xmm1 # xmm1 = (xmm4 * xmm9) + xmm1
vfmadd231ss %xmm8, %xmm3, %xmm1 # xmm1 = (xmm3 * xmm8) + xmm1
vfmadd231ss %xmm7, %xmm2, %xmm1 # xmm1 = (xmm2 * xmm7) + xmm1
vucomiss 0xcc(%rsp), %xmm1
jb 0x1cd7b37
vmovss 0x100(%r11,%r9,4), %xmm14
vucomiss %xmm1, %xmm14
jae 0x1cd7b4e
vmovaps 0x40(%rsp), %xmm9
vmovaps 0x30(%rsp), %xmm10
vmovaps 0x20(%rsp), %xmm11
jmp 0x1cd8068
movq %r12, 0x138(%rsp)
movl %r14d, %r12d
vshufps $0x55, %xmm0, %xmm0, %xmm7 # xmm7 = xmm0[1,1,1,1]
vsubps %xmm7, %xmm24, %xmm8
vmulps 0x2b0(%rsp), %xmm7, %xmm9
vmulps 0x260(%rsp), %xmm7, %xmm10
vmulps 0x250(%rsp), %xmm7, %xmm11
vmulps 0x290(%rsp), %xmm7, %xmm7
vfmadd231ps 0x2c0(%rsp), %xmm8, %xmm9 # xmm9 = (xmm8 * mem) + xmm9
vfmadd231ps 0x280(%rsp), %xmm8, %xmm10 # xmm10 = (xmm8 * mem) + xmm10
vfmadd231ps 0x270(%rsp), %xmm8, %xmm11 # xmm11 = (xmm8 * mem) + xmm11
vfmadd231ps 0x2a0(%rsp), %xmm8, %xmm7 # xmm7 = (xmm8 * mem) + xmm7
vsubps %xmm9, %xmm10, %xmm8
vsubps %xmm10, %xmm11, %xmm9
vsubps %xmm11, %xmm7, %xmm7
vbroadcastss %xmm0, %xmm10
vmulps %xmm9, %xmm10, %xmm11
vbroadcastss %xmm6, %xmm6
vfmadd231ps %xmm8, %xmm6, %xmm11 # xmm11 = (xmm6 * xmm8) + xmm11
vmulps %xmm7, %xmm10, %xmm7
vfmadd231ps %xmm9, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm9) + xmm7
vmulps %xmm7, %xmm10, %xmm7
vfmadd231ps %xmm11, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm11) + xmm7
vmulps 0x2193fd(%rip){1to4}, %xmm7, %xmm6 # 0x1ef0fec
movq (%rdi), %rax
movq 0x1e8(%rax), %rax
movq (%rax,%r8,8), %r14
movl 0x120(%r11,%r9,4), %eax
testl %eax, 0x34(%r14)
je 0x1cd8013
movq 0x10(%rdi), %rax
cmpq $0x0, 0x10(%rax)
vmovaps 0x40(%rsp), %xmm9
vmovaps 0x30(%rsp), %xmm10
vmovaps 0x20(%rsp), %xmm11
jne 0x1cd7c39
movb $0x1, %al
cmpq $0x0, 0x48(%r14)
je 0x1cd8027
vbroadcastss %xmm5, %xmm5
vmulps 0x210(%rsp), %xmm5, %xmm5
vbroadcastss %xmm4, %xmm4
vfmadd132ps 0x220(%rsp), %xmm5, %xmm4 # xmm4 = (xmm4 * mem) + xmm5
vbroadcastss %xmm3, %xmm3
vfmadd132ps 0x230(%rsp), %xmm4, %xmm3 # xmm3 = (xmm3 * mem) + xmm4
vbroadcastss %xmm2, %xmm2
vfmadd132ps 0x240(%rsp), %xmm3, %xmm2 # xmm2 = (xmm2 * mem) + xmm3
vshufps $0xc9, %xmm2, %xmm2, %xmm3 # xmm3 = xmm2[1,2,0,3]
vshufps $0xc9, %xmm6, %xmm6, %xmm4 # xmm4 = xmm6[1,2,0,3]
vmulps %xmm4, %xmm2, %xmm2
vfmsub231ps %xmm3, %xmm6, %xmm2 # xmm2 = (xmm6 * xmm3) - xmm2
movq 0x8(%rdi), %rax
vbroadcastss %xmm0, %ymm3
vbroadcastss 0x23aa6b(%rip), %ymm4 # 0x1f12704
vpermps %ymm0, %ymm4, %ymm0
vpermps %ymm2, %ymm4, %ymm4
vpermps %ymm2, %ymm27, %ymm5
vbroadcastss %xmm2, %ymm2
vmovaps %ymm4, 0x460(%rsp)
vmovaps %ymm5, 0x480(%rsp)
vmovaps %ymm2, 0x4a0(%rsp)
vmovaps %ymm3, 0x4c0(%rsp)
vmovaps %ymm0, 0x4e0(%rsp)
vmovaps 0x3c0(%rsp), %ymm0
vmovaps %ymm0, 0x500(%rsp)
vmovdqa 0x3a0(%rsp), %ymm0
vmovdqa %ymm0, 0x520(%rsp)
leaq 0x540(%rsp), %rcx
vpcmpeqd %ymm0, %ymm0, %ymm0
vmovdqa %ymm0, 0x20(%rcx)
vmovdqa %ymm0, (%rcx)
vbroadcastss (%rax), %ymm0
vmovaps %ymm0, 0x540(%rsp)
vbroadcastss 0x4(%rax), %ymm0
vmovaps %ymm0, 0x560(%rsp)
vmovss %xmm1, 0x100(%r11,%r9,4)
vmovaps 0x380(%rsp), %ymm0
vmovaps %ymm0, 0x1e0(%rsp)
leaq 0x1e0(%rsp), %rax
movq %rax, 0x1b0(%rsp)
movq 0x18(%r14), %rax
movq %rax, 0x1b8(%rsp)
movq 0x8(%rdi), %rax
movq %rax, 0x1c0(%rsp)
movq %r11, 0x1c8(%rsp)
leaq 0x460(%rsp), %rax
movq %rax, 0x1d0(%rsp)
movl $0x8, 0x1d8(%rsp)
movq 0x48(%r14), %rax
testq %rax, %rax
vmovaps %xmm15, 0x140(%rsp)
vmovss %xmm14, 0x6c(%rsp)
je 0x1cd7eaa
leaq 0x1b0(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0x6c(%rsp), %xmm14
vmovaps 0x70(%rsp), %xmm13
vmovaps 0xd0(%rsp), %xmm26
vmovaps 0x140(%rsp), %xmm15
vmovaps 0xf0(%rsp), %xmm29
vmovaps 0x100(%rsp), %xmm28
vmovaps 0x20(%rsp), %xmm11
vmovaps 0x30(%rsp), %xmm10
vmovaps 0x40(%rsp), %xmm9
vmovaps 0x50(%rsp), %xmm12
vmovaps 0x90(%rsp), %xmm16
movq 0xc0(%rsp), %r8
vxorps %xmm31, %xmm31, %xmm31
vmovss 0x21a096(%rip), %xmm25 # 0x1ef1ebc
vbroadcastss 0x2148e4(%rip), %xmm24 # 0x1eec714
vmovss 0x219c12(%rip), %xmm23 # 0x1ef1a4c
vmovss 0x2191bc(%rip), %xmm22 # 0x1ef1000
vmovss 0x2148c6(%rip), %xmm21 # 0x1eec714
vmovss 0x249088(%rip), %xmm20 # 0x1f20ee0
vbroadcastss 0x21918a(%rip), %ymm18 # 0x1ef0fec
vbroadcastss 0x249058(%rip), %xmm19 # 0x1f20ec4
vbroadcastss 0x214d0a(%rip), %xmm17 # 0x1eecb80
vbroadcastss 0x249040(%rip), %xmm30 # 0x1f20ec0
vbroadcastss 0x249052(%rip), %ymm27 # 0x1f20edc
movq 0x88(%rsp), %rdi
movq 0xa8(%rsp), %r11
movq 0xb0(%rsp), %r9
movq 0xb8(%rsp), %r10
vmovdqa 0x1e0(%rsp), %ymm0
vptest %ymm0, %ymm0
je 0x1cd809e
movq 0x10(%rdi), %rcx
movq 0x10(%rcx), %rax
testq %rax, %rax
je 0x1cd7fd5
testb $0x2, (%rcx)
jne 0x1cd7edf
testb $0x40, 0x3e(%r14)
je 0x1cd7fd5
leaq 0x1b0(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0x6c(%rsp), %xmm14
vmovaps 0x70(%rsp), %xmm13
vmovaps 0xd0(%rsp), %xmm26
vmovaps 0x140(%rsp), %xmm15
vmovaps 0xf0(%rsp), %xmm29
vmovaps 0x100(%rsp), %xmm28
vmovaps 0x20(%rsp), %xmm11
vmovaps 0x30(%rsp), %xmm10
vmovaps 0x40(%rsp), %xmm9
vmovaps 0x50(%rsp), %xmm12
vmovaps 0x90(%rsp), %xmm16
movq 0xc0(%rsp), %r8
vxorps %xmm31, %xmm31, %xmm31
vmovss 0x219f6b(%rip), %xmm25 # 0x1ef1ebc
vbroadcastss 0x2147b9(%rip), %xmm24 # 0x1eec714
vmovss 0x219ae7(%rip), %xmm23 # 0x1ef1a4c
vmovss 0x219091(%rip), %xmm22 # 0x1ef1000
vmovss 0x21479b(%rip), %xmm21 # 0x1eec714
vmovss 0x248f5d(%rip), %xmm20 # 0x1f20ee0
vbroadcastss 0x21905f(%rip), %ymm18 # 0x1ef0fec
vbroadcastss 0x248f2d(%rip), %xmm19 # 0x1f20ec4
vbroadcastss 0x214bdf(%rip), %xmm17 # 0x1eecb80
vbroadcastss 0x248f15(%rip), %xmm30 # 0x1f20ec0
vbroadcastss 0x248f27(%rip), %ymm27 # 0x1f20edc
movq 0x88(%rsp), %rdi
movq 0xa8(%rsp), %r11
movq 0xb0(%rsp), %r9
movq 0xb8(%rsp), %r10
vmovdqa 0x1e0(%rsp), %ymm0
vptestmd %ymm0, %ymm0, %k1
movq 0x1c8(%rsp), %rax
vmovaps 0x100(%rax), %ymm1
vbroadcastss 0x214b86(%rip), %ymm1 {%k1} # 0x1eecb84
vmovaps %ymm1, 0x100(%rax)
vptest %ymm0, %ymm0
setne %al
jmp 0x1cd80a0
xorl %eax, %eax
vmovaps 0x40(%rsp), %xmm9
vmovaps 0x30(%rsp), %xmm10
vmovaps 0x20(%rsp), %xmm11
movl %r12d, %r14d
orb %al, %r14b
movq 0x138(%rsp), %r12
jmp 0x1cd8068
vxorps %xmm31, %xmm31, %xmm31
vmovaps 0x90(%rsp), %xmm16
jmp 0x1cd804a
xorl %r15d, %r15d
vmovaps 0x50(%rsp), %xmm12
vmovaps 0x40(%rsp), %xmm9
vmovaps 0x30(%rsp), %xmm10
vmovaps 0x20(%rsp), %xmm11
vmovaps 0x70(%rsp), %xmm13
testb %r15b, %r15b
jne 0x1cd7066
jmp 0x1cd80b3
movb $0x1, %r15b
vmovaps 0x50(%rsp), %xmm12
vmovaps 0x40(%rsp), %xmm9
vmovaps 0x30(%rsp), %xmm10
vmovaps 0x20(%rsp), %xmm11
vmovaps %xmm26, %xmm15
vmovaps 0xd0(%rsp), %xmm26
jmp 0x1cd8062
xorl %eax, %eax
testb %al, %al
jne 0x1cd8027
vmovss %xmm14, 0x100(%r11,%r9,4)
jmp 0x1cd8027
vinsertps $0x10, %xmm13, %xmm26, %xmm0 # xmm0 = xmm26[0],xmm13[0],xmm26[2,3]
vmovaps 0x190(%rsp), %xmm7
vmovaps 0x180(%rsp), %xmm19
vmovaps 0x170(%rsp), %xmm25
vmovaps 0x420(%rsp), %ymm29
vmovaps 0x400(%rsp), %ymm28
jmp 0x1cd6b3f
testb $0x1, %r14b
jne 0x1cd8112
vmovaps 0x3e0(%rsp), %ymm0
vcmpleps 0x100(%r11,%r9,4){1to8}, %ymm0, %k0
kmovb %k0, %eax
andl %eax, %r12d
setne 0x1f(%rsp)
jne 0x1cd63d9
movb 0x1f(%rsp), %al
andb $0x1, %al
leaq -0x28(%rbp), %rsp
popq %rbx
popq %r12
popq %r13
popq %r14
popq %r15
popq %rbp
vzeroupper
retq
|
/embree[P]embree/kernels/geometry/curveNi_intersector.h
|
bool embree::avx512::CurveNiIntersectorK<8, 16>::occluded_n<embree::avx512::OrientedCurve1IntersectorK<embree::CatmullRomCurveT, 16>, embree::avx512::Occluded1KEpilog1<16, true>>(embree::avx512::CurvePrecalculationsK<16>&, embree::RayK<16>&, unsigned long, embree::RayQueryContext*, embree::CurveNi<8> const&)
|
static __forceinline bool occluded_n(Precalculations& pre, RayK<K>& ray, const size_t k, RayQueryContext* context, const Primitive& prim)
{
vfloat<M> tNear;
vbool<M> valid = intersect(ray,k,prim,tNear);
const size_t N = prim.N;
size_t mask = movemask(valid);
while (mask)
{
const size_t i = bscf(mask);
STAT3(shadow.trav_prims,1,1,1);
const unsigned int geomID = prim.geomID(N);
const unsigned int primID = prim.primID(N)[i];
const CurveGeometry* geom = context->scene->get<CurveGeometry>(geomID);
unsigned int vertexID = geom->curve(primID);
Vec3ff a0,a1,a2,a3; Vec3fa n0,n1,n2,n3; geom->gather(a0,a1,a2,a3,n0,n1,n2,n3,vertexID);
size_t mask1 = mask;
const size_t i1 = bscf(mask1);
if (mask) {
const unsigned int primID1 = prim.primID(N)[i1];
geom->prefetchL1_vertices(geom->curve(primID1));
if (mask1) {
const size_t i2 = bsf(mask1);
const unsigned int primID2 = prim.primID(N)[i2];
geom->prefetchL2_vertices(geom->curve(primID2));
}
}
if (Intersector().intersect(pre,ray,k,context,geom,primID,a0,a1,a2,a3,n0,n1,n2,n3,Epilog(ray,k,context,geomID,primID)))
return true;
mask &= movemask(tNear <= vfloat<M>(ray.tfar[k]));
}
return false;
}
|
pushq %rbp
movq %rsp, %rbp
pushq %r15
pushq %r14
pushq %r13
pushq %r12
pushq %rbx
andq $-0x40, %rsp
subq $0x740, %rsp # imm = 0x740
movq %r8, %r10
movq %rdx, %r9
movq %rsi, %r11
movzbl 0x1(%r8), %eax
leaq (%rax,%rax,4), %rdx
leaq (%rdx,%rdx,4), %rsi
vbroadcastss 0x12(%r8,%rsi), %xmm0
vmovss (%r11,%r9,4), %xmm1
vmovss 0x100(%r11,%r9,4), %xmm2
vinsertps $0x10, 0x40(%r11,%r9,4), %xmm1, %xmm1 # xmm1 = xmm1[0],mem[0],xmm1[2,3]
vinsertps $0x20, 0x80(%r11,%r9,4), %xmm1, %xmm1 # xmm1 = xmm1[0,1],mem[0],xmm1[3]
vinsertps $0x10, 0x140(%r11,%r9,4), %xmm2, %xmm2 # xmm2 = xmm2[0],mem[0],xmm2[2,3]
movq %rcx, 0x78(%rsp)
vinsertps $0x20, 0x180(%r11,%r9,4), %xmm2, %xmm2 # xmm2 = xmm2[0,1],mem[0],xmm2[3]
vsubps 0x6(%r8,%rsi), %xmm1, %xmm1
vmulps %xmm1, %xmm0, %xmm3
vmulps %xmm2, %xmm0, %xmm0
vpmovsxbd 0x6(%r8,%rax,4), %ymm1
vcvtdq2ps %ymm1, %ymm5
vpmovsxbd 0x6(%r8,%rdx), %ymm1
vcvtdq2ps %ymm1, %ymm6
leaq (%rax,%rax,2), %rcx
vpmovsxbd 0x6(%r8,%rcx,2), %ymm1
vcvtdq2ps %ymm1, %ymm2
leaq (%rax,%rdx,2), %rsi
vpmovsxbd 0x6(%r8,%rsi), %ymm1
vcvtdq2ps %ymm1, %ymm7
leal (,%rcx,4), %esi
vpmovsxbd 0x6(%r8,%rsi), %ymm1
vcvtdq2ps %ymm1, %ymm8
addq %rax, %rsi
vpmovsxbd 0x6(%r8,%rsi), %ymm1
vcvtdq2ps %ymm1, %ymm9
leaq (%rax,%rax,8), %rsi
leal (%rsi,%rsi), %r8d
vpmovsxbd 0x6(%r10,%r8), %ymm1
addq %rax, %r8
vpmovsxbd 0x6(%r10,%r8), %ymm4
vcvtdq2ps %ymm1, %ymm10
vcvtdq2ps %ymm4, %ymm11
shll $0x2, %edx
vpmovsxbd 0x6(%r10,%rdx), %ymm1
vcvtdq2ps %ymm1, %ymm12
vbroadcastss %xmm0, %ymm13
vbroadcastss 0x238339(%rip), %ymm15 # 0x1f12704
vpermps %ymm0, %ymm15, %ymm14
vbroadcastss 0x246b02(%rip), %ymm27 # 0x1f20edc
vpermps %ymm0, %ymm27, %ymm0
vmulps %ymm2, %ymm0, %ymm4
vmulps %ymm0, %ymm9, %ymm1
vmulps %ymm0, %ymm12, %ymm0
vfmadd231ps %ymm6, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm6) + ymm4
vfmadd231ps %ymm8, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm8) + ymm1
vfmadd231ps %ymm14, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm14) + ymm0
vfmadd231ps %ymm5, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm5) + ymm4
vfmadd231ps %ymm7, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm7) + ymm1
vfmadd231ps %ymm13, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm13) + ymm0
vbroadcastss %xmm3, %ymm13
vpermps %ymm3, %ymm15, %ymm14
vpermps %ymm3, %ymm27, %ymm15
vmulps %ymm2, %ymm15, %ymm16
vmulps %ymm9, %ymm15, %ymm3
vmulps %ymm12, %ymm15, %ymm2
vfmadd231ps %ymm6, %ymm14, %ymm16 # ymm16 = (ymm14 * ymm6) + ymm16
vfmadd231ps %ymm8, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm8) + ymm3
vfmadd231ps %ymm11, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm11) + ymm2
vfmadd231ps %ymm5, %ymm13, %ymm16 # ymm16 = (ymm13 * ymm5) + ymm16
vfmadd231ps %ymm7, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm7) + ymm3
vfmadd231ps %ymm10, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm10) + ymm2
vbroadcastss 0x246a71(%rip), %ymm5 # 0x1f20ec4
vandps %ymm5, %ymm4, %ymm6
vbroadcastss 0x216b88(%rip), %ymm7 # 0x1ef0fe8
vcmpltps %ymm7, %ymm6, %k1
vmovaps %ymm7, %ymm4 {%k1}
vandps %ymm5, %ymm1, %ymm6
vcmpltps %ymm7, %ymm6, %k1
vmovaps %ymm7, %ymm1 {%k1}
vandps %ymm5, %ymm0, %ymm5
vcmpltps %ymm7, %ymm5, %k1
vmovaps %ymm7, %ymm0 {%k1}
vrcp14ps %ymm4, %ymm5
vbroadcastss 0x212276(%rip), %ymm6 # 0x1eec714
vfnmadd213ps %ymm6, %ymm5, %ymm4 # ymm4 = -(ymm5 * ymm4) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm4 # ymm4 = (ymm4 * ymm5) + ymm5
vrcp14ps %ymm1, %ymm5
vfnmadd213ps %ymm6, %ymm5, %ymm1 # ymm1 = -(ymm5 * ymm1) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm1 # ymm1 = (ymm1 * ymm5) + ymm5
vrcp14ps %ymm0, %ymm5
vfnmadd213ps %ymm6, %ymm5, %ymm0 # ymm0 = -(ymm5 * ymm0) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm0 # ymm0 = (ymm0 * ymm5) + ymm5
leaq (,%rax,8), %r8
subq %rax, %r8
vpmovsxwd 0x6(%r10,%r8), %ymm5
vcvtdq2ps %ymm5, %ymm5
vsubps %ymm16, %ymm5, %ymm5
vpmovsxwd 0x6(%r10,%rsi), %ymm6
vmulps %ymm5, %ymm4, %ymm5
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm16, %ymm6, %ymm6
vmulps %ymm6, %ymm4, %ymm4
leaq (%rax,%rax), %rsi
addq %rax, %rdx
shlq $0x3, %rcx
subq %rax, %rcx
movl %eax, %r8d
shll $0x4, %r8d
vpmovsxwd 0x6(%r10,%r8), %ymm6
subq %rsi, %r8
vpmovsxwd 0x6(%r10,%r8), %ymm7
vcvtdq2ps %ymm7, %ymm7
vsubps %ymm3, %ymm7, %ymm7
vmulps %ymm7, %ymm1, %ymm7
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm3, %ymm6, %ymm3
vmulps %ymm3, %ymm1, %ymm1
vpmovsxwd 0x6(%r10,%rdx), %ymm3
vcvtdq2ps %ymm3, %ymm3
vsubps %ymm2, %ymm3, %ymm3
vmulps %ymm0, %ymm3, %ymm3
vpmovsxwd 0x6(%r10,%rcx), %ymm6
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm2, %ymm6, %ymm2
vmulps %ymm2, %ymm0, %ymm0
vpminsd %ymm4, %ymm5, %ymm2
vpminsd %ymm1, %ymm7, %ymm6
vmaxps %ymm6, %ymm2, %ymm2
vpminsd %ymm0, %ymm3, %ymm6
vmaxps 0xc0(%r11,%r9,4){1to8}, %ymm6, %ymm6
vmaxps %ymm6, %ymm2, %ymm2
vmulps 0x245986(%rip){1to8}, %ymm2, %ymm6 # 0x1f1ff10
vpmaxsd %ymm4, %ymm5, %ymm2
vpmaxsd %ymm1, %ymm7, %ymm1
vminps %ymm1, %ymm2, %ymm1
vpmaxsd %ymm0, %ymm3, %ymm0
vminps 0x200(%r11,%r9,4){1to8}, %ymm0, %ymm0
vminps %ymm0, %ymm1, %ymm0
vmulps 0x24595e(%rip){1to8}, %ymm0, %ymm0 # 0x1f1ff14
vpbroadcastd %eax, %ymm1
vpcmpgtd 0x28035a(%rip), %ymm1, %k0 # 0x1f5a920
vmovaps %ymm6, 0x380(%rsp)
vcmpleps %ymm0, %ymm6, %k1
ktestb %k0, %k1
setne 0xf(%rsp)
je 0x1cdc3a0
kandb %k0, %k1, %k0
kmovd %k0, %eax
movzbl %al, %r12d
leaq (%r9,%r9,2), %rax
shlq $0x4, %rax
leaq (%rdi,%rax), %r13
addq $0x40, %r13
movl $0x1, %eax
shlxl %r9d, %eax, %eax
kmovd %eax, %k0
vpmovm2d %k0, %zmm0
vmovdqa64 %zmm0, 0x400(%rsp)
vbroadcastss 0x246899(%rip), %xmm31 # 0x1f20ec0
vbroadcastss 0x21254f(%rip), %xmm17 # 0x1eecb80
vbroadcastss 0x246889(%rip), %xmm19 # 0x1f20ec4
vxorps %xmm30, %xmm30, %xmm30
movq 0x78(%rsp), %rdi
movq %r10, 0xa8(%rsp)
movq %r9, 0xa0(%rsp)
movq %r11, 0x98(%rsp)
tzcntq %r12, %rax
movl 0x2(%r10), %edx
movl 0x6(%r10,%rax,4), %eax
movq (%rdi), %rcx
movq 0x1e8(%rcx), %rcx
movq %rdx, 0xb0(%rsp)
movq (%rcx,%rdx,8), %rdi
movq 0x58(%rdi), %rcx
movq 0x68(%rdi), %rdx
movq %rdx, %rsi
imulq %rax, %rsi
movl (%rcx,%rsi), %r10d
movq 0xa0(%rdi), %rsi
movq %rsi, %r8
imulq %r10, %r8
leaq 0x1(%r10), %rbx
leaq 0x2(%r10), %r11
leaq 0x3(%r10), %r9
movq 0xd8(%rdi), %r14
imulq %r14, %r10
movq 0xc8(%rdi), %r15
vmovups (%r15,%r10), %xmm5
movq %rsi, %r10
imulq %rbx, %r10
imulq %r14, %rbx
vmovups (%r15,%rbx), %xmm6
movq %rsi, %rbx
imulq %r11, %rbx
imulq %r14, %r11
vmovups (%r15,%r11), %xmm7
imulq %r9, %r14
vmovups (%r15,%r14), %xmm8
movq %rsi, %r11
imulq %r9, %r11
movq 0x90(%rdi), %rdi
vmovaps (%rdi,%r8), %xmm9
vmovaps (%rdi,%r10), %xmm10
movq 0xa8(%rsp), %r10
vmovaps (%rdi,%rbx), %xmm11
blsrq %r12, %r12
vmovaps (%rdi,%r11), %xmm4
movq %r12, %r8
subq $0x1, %r8
jb 0x1cda775
andq %r12, %r8
tzcntq %r12, %r9
movl 0x6(%r10,%r9,4), %r9d
imulq %rdx, %r9
movl (%rcx,%r9), %r9d
imulq %rsi, %r9
prefetcht0 (%rdi,%r9)
prefetcht0 0x40(%rdi,%r9)
testq %r8, %r8
je 0x1cda775
tzcntq %r8, %r8
movl 0x6(%r10,%r8,4), %r8d
imulq %r8, %rdx
movl (%rcx,%rdx), %ecx
imulq %rcx, %rsi
prefetcht1 (%rdi,%rsi)
prefetcht1 0x40(%rdi,%rsi)
movq 0xa0(%rsp), %r9
movq 0x98(%rsp), %r11
vmovss (%r11,%r9,4), %xmm0
vinsertps $0x1c, 0x40(%r11,%r9,4), %xmm0, %xmm0 # xmm0 = xmm0[0],mem[0],zero,zero
vinsertps $0x28, 0x80(%r11,%r9,4), %xmm0, %xmm0 # xmm0 = xmm0[0,1],mem[0],zero
vmulps %xmm31, %xmm4, %xmm3
vpxor %xmm1, %xmm1, %xmm1
vfmadd213ps %xmm3, %xmm11, %xmm1 # xmm1 = (xmm11 * xmm1) + xmm3
vaddps %xmm1, %xmm10, %xmm1
vfmadd231ps %xmm31, %xmm9, %xmm1 # xmm1 = (xmm9 * xmm31) + xmm1
vxorps %xmm15, %xmm15, %xmm15
vmulps %xmm4, %xmm15, %xmm2
vfmadd231ps %xmm17, %xmm11, %xmm2 # xmm2 = (xmm11 * xmm17) + xmm2
vfmadd231ps %xmm15, %xmm10, %xmm2 # xmm2 = (xmm10 * xmm15) + xmm2
vfnmadd231ps %xmm17, %xmm9, %xmm2 # xmm2 = -(xmm9 * xmm17) + xmm2
vmulps %xmm31, %xmm8, %xmm12
vxorps %xmm13, %xmm13, %xmm13
vfmadd213ps %xmm12, %xmm7, %xmm13 # xmm13 = (xmm7 * xmm13) + xmm12
vaddps %xmm6, %xmm13, %xmm13
vfmadd231ps %xmm31, %xmm5, %xmm13 # xmm13 = (xmm5 * xmm31) + xmm13
vmulps %xmm15, %xmm8, %xmm14
vfmadd231ps %xmm17, %xmm7, %xmm14 # xmm14 = (xmm7 * xmm17) + xmm14
vfmadd231ps %xmm15, %xmm6, %xmm14 # xmm14 = (xmm6 * xmm15) + xmm14
vfnmadd231ps %xmm17, %xmm5, %xmm14 # xmm14 = -(xmm5 * xmm17) + xmm14
vaddps %xmm3, %xmm11, %xmm3
vfmadd231ps %xmm15, %xmm10, %xmm3 # xmm3 = (xmm10 * xmm15) + xmm3
vfmadd231ps %xmm31, %xmm9, %xmm3 # xmm3 = (xmm9 * xmm31) + xmm3
vmulps %xmm17, %xmm4, %xmm4
vfmadd231ps %xmm11, %xmm15, %xmm4 # xmm4 = (xmm15 * xmm11) + xmm4
vfnmadd231ps %xmm10, %xmm17, %xmm4 # xmm4 = -(xmm17 * xmm10) + xmm4
vfmadd231ps %xmm9, %xmm15, %xmm4 # xmm4 = (xmm15 * xmm9) + xmm4
vaddps %xmm7, %xmm12, %xmm9
vfmadd231ps %xmm15, %xmm6, %xmm9 # xmm9 = (xmm6 * xmm15) + xmm9
vfmadd231ps %xmm31, %xmm5, %xmm9 # xmm9 = (xmm5 * xmm31) + xmm9
vmulps %xmm17, %xmm8, %xmm8
vfmadd231ps %xmm7, %xmm15, %xmm8 # xmm8 = (xmm15 * xmm7) + xmm8
vfnmadd231ps %xmm6, %xmm17, %xmm8 # xmm8 = -(xmm17 * xmm6) + xmm8
vfmadd231ps %xmm5, %xmm15, %xmm8 # xmm8 = (xmm15 * xmm5) + xmm8
vshufps $0xc9, %xmm2, %xmm2, %xmm5 # xmm5 = xmm2[1,2,0,3]
vshufps $0xc9, %xmm13, %xmm13, %xmm6 # xmm6 = xmm13[1,2,0,3]
vmulps %xmm6, %xmm2, %xmm6
vfmsub231ps %xmm13, %xmm5, %xmm6 # xmm6 = (xmm5 * xmm13) - xmm6
vshufps $0xc9, %xmm6, %xmm6, %xmm7 # xmm7 = xmm6[1,2,0,3]
vshufps $0xc9, %xmm14, %xmm14, %xmm6 # xmm6 = xmm14[1,2,0,3]
vmulps %xmm6, %xmm2, %xmm6
vfmsub231ps %xmm14, %xmm5, %xmm6 # xmm6 = (xmm5 * xmm14) - xmm6
vshufps $0xc9, %xmm6, %xmm6, %xmm10 # xmm10 = xmm6[1,2,0,3]
vshufps $0xc9, %xmm4, %xmm4, %xmm6 # xmm6 = xmm4[1,2,0,3]
vshufps $0xc9, %xmm9, %xmm9, %xmm5 # xmm5 = xmm9[1,2,0,3]
vmulps %xmm5, %xmm4, %xmm5
vfmsub231ps %xmm9, %xmm6, %xmm5 # xmm5 = (xmm6 * xmm9) - xmm5
vshufps $0xc9, %xmm5, %xmm5, %xmm5 # xmm5 = xmm5[1,2,0,3]
vshufps $0xc9, %xmm8, %xmm8, %xmm9 # xmm9 = xmm8[1,2,0,3]
vmulps %xmm4, %xmm9, %xmm9
vfmsub231ps %xmm8, %xmm6, %xmm9 # xmm9 = (xmm6 * xmm8) - xmm9
vshufps $0xc9, %xmm9, %xmm9, %xmm6 # xmm6 = xmm9[1,2,0,3]
vdpps $0x7f, %xmm7, %xmm7, %xmm8
vmovss %xmm8, %xmm15, %xmm9 # xmm9 = xmm8[0],xmm15[1,2,3]
vrsqrt14ss %xmm9, %xmm15, %xmm11
vmovss 0x211e57(%rip), %xmm16 # 0x1eec718
vmulss %xmm16, %xmm11, %xmm12
vmovss 0x211e4b(%rip), %xmm17 # 0x1eec71c
vmulss %xmm17, %xmm8, %xmm13
vmulss %xmm11, %xmm13, %xmm13
vmulss %xmm11, %xmm11, %xmm11
vmulss %xmm11, %xmm13, %xmm11
vaddss %xmm11, %xmm12, %xmm11
vbroadcastss %xmm11, %xmm11
vmulps %xmm7, %xmm11, %xmm12
vdpps $0x7f, %xmm10, %xmm7, %xmm13
vbroadcastss %xmm8, %xmm14
vmulps %xmm14, %xmm10, %xmm10
vbroadcastss %xmm13, %xmm13
vmulps %xmm7, %xmm13, %xmm7
vsubps %xmm7, %xmm10, %xmm7
vrcp14ss %xmm9, %xmm15, %xmm9
vmovss 0x2166d7(%rip), %xmm18 # 0x1ef0ff8
vfnmadd213ss %xmm18, %xmm9, %xmm8 # xmm8 = -(xmm9 * xmm8) + xmm18
vmulss %xmm8, %xmm9, %xmm8
vdpps $0x7f, %xmm5, %xmm5, %xmm9
vbroadcastss %xmm8, %xmm8
vmulps %xmm7, %xmm8, %xmm7
vmulps %xmm7, %xmm11, %xmm7
vmovss %xmm9, %xmm15, %xmm8 # xmm8 = xmm9[0],xmm15[1,2,3]
vrsqrt14ss %xmm8, %xmm15, %xmm10
vmulss %xmm16, %xmm10, %xmm11
vmulss %xmm17, %xmm9, %xmm13
vmulss %xmm10, %xmm13, %xmm13
vmulss %xmm10, %xmm10, %xmm10
vmulss %xmm10, %xmm13, %xmm10
vaddss %xmm10, %xmm11, %xmm10
vbroadcastss %xmm10, %xmm10
vmulps %xmm5, %xmm10, %xmm11
vdpps $0x7f, %xmm6, %xmm5, %xmm13
vbroadcastss %xmm9, %xmm14
vmulps %xmm6, %xmm14, %xmm6
vbroadcastss %xmm13, %xmm13
vmulps %xmm5, %xmm13, %xmm5
vsubps %xmm5, %xmm6, %xmm5
vrcp14ss %xmm8, %xmm15, %xmm6
vfnmadd213ss %xmm18, %xmm6, %xmm9 # xmm9 = -(xmm6 * xmm9) + xmm18
vmulss %xmm6, %xmm9, %xmm6
vbroadcastss %xmm6, %xmm6
vmulps %xmm6, %xmm5, %xmm5
vmulps %xmm5, %xmm10, %xmm5
vshufps $0xff, %xmm1, %xmm1, %xmm6 # xmm6 = xmm1[3,3,3,3]
vmulps %xmm6, %xmm12, %xmm8
vsubps %xmm8, %xmm1, %xmm13
vshufps $0xff, %xmm2, %xmm2, %xmm9 # xmm9 = xmm2[3,3,3,3]
vmulps %xmm12, %xmm9, %xmm9
vmulps %xmm7, %xmm6, %xmm6
vaddps %xmm6, %xmm9, %xmm6
vsubps %xmm6, %xmm2, %xmm7
vaddps %xmm1, %xmm8, %xmm14
vaddps %xmm6, %xmm2, %xmm1
vshufps $0xff, %xmm3, %xmm3, %xmm2 # xmm2 = xmm3[3,3,3,3]
vmulps %xmm2, %xmm11, %xmm6
vsubps %xmm6, %xmm3, %xmm15
vshufps $0xff, %xmm4, %xmm4, %xmm8 # xmm8 = xmm4[3,3,3,3]
vmulps %xmm11, %xmm8, %xmm8
vmulps %xmm5, %xmm2, %xmm2
vaddps %xmm2, %xmm8, %xmm2
vsubps %xmm2, %xmm4, %xmm5
vaddps %xmm6, %xmm3, %xmm16
vaddps %xmm2, %xmm4, %xmm2
vbroadcastss 0x2174ae(%rip), %xmm4 # 0x1ef1ebc
vmulps %xmm4, %xmm7, %xmm3
vaddps %xmm3, %xmm13, %xmm17
vmulps %xmm4, %xmm5, %xmm3
vsubps %xmm3, %xmm15, %xmm18
vmulps %xmm4, %xmm1, %xmm1
vaddps %xmm1, %xmm14, %xmm20
vmulps %xmm4, %xmm2, %xmm1
vsubps %xmm1, %xmm16, %xmm21
vsubps %xmm0, %xmm13, %xmm1
vbroadcastss %xmm1, %xmm2
vshufps $0x55, %xmm1, %xmm1, %xmm3 # xmm3 = xmm1[1,1,1,1]
vmovaps %xmm1, 0x300(%rsp)
vshufps $0xaa, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,2,2,2]
vmovaps (%r13), %xmm4
vmovaps 0x10(%r13), %xmm5
vmovaps 0x20(%r13), %xmm6
vmulps %xmm1, %xmm6, %xmm1
vfmadd231ps %xmm3, %xmm5, %xmm1 # xmm1 = (xmm5 * xmm3) + xmm1
vfmadd231ps %xmm2, %xmm4, %xmm1 # xmm1 = (xmm4 * xmm2) + xmm1
vsubps %xmm0, %xmm17, %xmm2
vbroadcastss %xmm2, %xmm3
vshufps $0x55, %xmm2, %xmm2, %xmm7 # xmm7 = xmm2[1,1,1,1]
vmovaps %xmm2, 0x2f0(%rsp)
vshufps $0xaa, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[2,2,2,2]
vmulps %xmm2, %xmm6, %xmm2
vfmadd231ps %xmm7, %xmm5, %xmm2 # xmm2 = (xmm5 * xmm7) + xmm2
vfmadd231ps %xmm3, %xmm4, %xmm2 # xmm2 = (xmm4 * xmm3) + xmm2
vsubps %xmm0, %xmm18, %xmm3
vbroadcastss %xmm3, %xmm7
vshufps $0x55, %xmm3, %xmm3, %xmm8 # xmm8 = xmm3[1,1,1,1]
vmovaps %xmm3, 0x2e0(%rsp)
vshufps $0xaa, %xmm3, %xmm3, %xmm3 # xmm3 = xmm3[2,2,2,2]
vmulps %xmm3, %xmm6, %xmm3
vfmadd231ps %xmm8, %xmm5, %xmm3 # xmm3 = (xmm5 * xmm8) + xmm3
vfmadd231ps %xmm7, %xmm4, %xmm3 # xmm3 = (xmm4 * xmm7) + xmm3
vsubps %xmm0, %xmm15, %xmm9
vbroadcastss %xmm9, %xmm7
vshufps $0x55, %xmm9, %xmm9, %xmm8 # xmm8 = xmm9[1,1,1,1]
vmovaps %xmm9, 0x2d0(%rsp)
vshufps $0xaa, %xmm9, %xmm9, %xmm9 # xmm9 = xmm9[2,2,2,2]
vmulps %xmm6, %xmm9, %xmm9
vfmadd231ps %xmm8, %xmm5, %xmm9 # xmm9 = (xmm5 * xmm8) + xmm9
vfmadd231ps %xmm7, %xmm4, %xmm9 # xmm9 = (xmm4 * xmm7) + xmm9
vsubps %xmm0, %xmm14, %xmm10
vbroadcastss %xmm10, %xmm7
vshufps $0x55, %xmm10, %xmm10, %xmm8 # xmm8 = xmm10[1,1,1,1]
vmovaps %xmm10, 0x2c0(%rsp)
vshufps $0xaa, %xmm10, %xmm10, %xmm10 # xmm10 = xmm10[2,2,2,2]
vmulps %xmm6, %xmm10, %xmm10
vfmadd231ps %xmm8, %xmm5, %xmm10 # xmm10 = (xmm5 * xmm8) + xmm10
vfmadd231ps %xmm7, %xmm4, %xmm10 # xmm10 = (xmm4 * xmm7) + xmm10
vsubps %xmm0, %xmm20, %xmm11
vbroadcastss %xmm11, %xmm7
vshufps $0x55, %xmm11, %xmm11, %xmm8 # xmm8 = xmm11[1,1,1,1]
vmovaps %xmm11, 0x2b0(%rsp)
vshufps $0xaa, %xmm11, %xmm11, %xmm11 # xmm11 = xmm11[2,2,2,2]
vmulps %xmm6, %xmm11, %xmm11
vfmadd231ps %xmm8, %xmm5, %xmm11 # xmm11 = (xmm5 * xmm8) + xmm11
vfmadd231ps %xmm7, %xmm4, %xmm11 # xmm11 = (xmm4 * xmm7) + xmm11
vsubps %xmm0, %xmm21, %xmm12
vbroadcastss %xmm12, %xmm7
vshufps $0x55, %xmm12, %xmm12, %xmm8 # xmm8 = xmm12[1,1,1,1]
vmovaps %xmm12, 0x2a0(%rsp)
vshufps $0xaa, %xmm12, %xmm12, %xmm12 # xmm12 = xmm12[2,2,2,2]
vmulps %xmm6, %xmm12, %xmm12
vfmadd231ps %xmm8, %xmm5, %xmm12 # xmm12 = (xmm5 * xmm8) + xmm12
vfmadd231ps %xmm7, %xmm4, %xmm12 # xmm12 = (xmm4 * xmm7) + xmm12
vsubps %xmm0, %xmm16, %xmm8
vbroadcastss %xmm8, %xmm0
vshufps $0x55, %xmm8, %xmm8, %xmm7 # xmm7 = xmm8[1,1,1,1]
vmovaps %xmm8, 0x290(%rsp)
vshufps $0xaa, %xmm8, %xmm8, %xmm8 # xmm8 = xmm8[2,2,2,2]
vmulps %xmm6, %xmm8, %xmm6
vfmadd231ps %xmm7, %xmm5, %xmm6 # xmm6 = (xmm5 * xmm7) + xmm6
vfmadd231ps %xmm0, %xmm4, %xmm6 # xmm6 = (xmm4 * xmm0) + xmm6
vmovlhps %xmm10, %xmm1, %xmm8 # xmm8 = xmm1[0],xmm10[0]
vmovlhps %xmm11, %xmm2, %xmm22 # xmm22 = xmm2[0],xmm11[0]
vmovlhps %xmm12, %xmm3, %xmm23 # xmm23 = xmm3[0],xmm12[0]
vmovlhps %xmm6, %xmm9, %xmm24 # xmm24 = xmm9[0],xmm6[0]
vminps %xmm22, %xmm8, %xmm0
vmaxps %xmm22, %xmm8, %xmm4
vminps %xmm24, %xmm23, %xmm5
vminps %xmm5, %xmm0, %xmm0
vmaxps %xmm24, %xmm23, %xmm5
vmaxps %xmm5, %xmm4, %xmm4
vshufpd $0x3, %xmm0, %xmm0, %xmm5 # xmm5 = xmm0[1,1]
vshufpd $0x3, %xmm4, %xmm4, %xmm7 # xmm7 = xmm4[1,1]
vminps %xmm5, %xmm0, %xmm0
vmaxps %xmm7, %xmm4, %xmm4
vandps %xmm19, %xmm0, %xmm0
vandps %xmm19, %xmm4, %xmm4
vmaxps %xmm4, %xmm0, %xmm0
vmovshdup %xmm0, %xmm4 # xmm4 = xmm0[1,1,3,3]
vmaxss %xmm0, %xmm4, %xmm0
vmulss 0x2172a3(%rip), %xmm0, %xmm0 # 0x1ef1eb8
vmovddup %xmm1, %xmm7 # xmm7 = xmm1[0,0]
vmovddup %xmm2, %xmm19 # xmm19 = xmm2[0,0]
vmovddup %xmm3, %xmm25 # xmm25 = xmm3[0,0]
vmovddup %xmm9, %xmm1 # xmm1 = xmm9[0,0]
vmovddup %xmm10, %xmm2 # xmm2 = xmm10[0,0]
vmovddup %xmm11, %xmm9 # xmm9 = xmm11[0,0]
vmovddup %xmm12, %xmm10 # xmm10 = xmm12[0,0]
vmovddup %xmm6, %xmm11 # xmm11 = xmm6[0,0]
vmovaps %xmm0, 0x140(%rsp)
vbroadcastss %xmm0, %ymm29
vxorps %xmm31, %xmm29, %xmm0
vbroadcastss %xmm0, %ymm28
vpbroadcastd %eax, %zmm0
vmovdqa64 %zmm0, 0x480(%rsp)
xorl %r14d, %r14d
xorl %ebx, %ebx
vmovss 0xc0(%r11,%r9,4), %xmm0
vmovss %xmm0, 0xbc(%rsp)
vmovaps %xmm8, 0xd0(%rsp)
vsubps %xmm8, %xmm22, %xmm0
vmovaps %xmm0, 0xf0(%rsp)
vmovaps %xmm22, 0x110(%rsp)
vsubps %xmm22, %xmm23, %xmm0
vmovaps %xmm0, 0xe0(%rsp)
vmovaps %xmm23, 0x100(%rsp)
vmovaps %xmm24, 0x150(%rsp)
vsubps %xmm23, %xmm24, %xmm0
vmovaps %xmm0, 0x310(%rsp)
vmovaps %xmm13, 0x280(%rsp)
vmovaps %xmm14, 0x270(%rsp)
vsubps %xmm13, %xmm14, %xmm0
vmovaps %xmm0, 0x200(%rsp)
vmovaps %xmm2, %xmm12
vmovaps %xmm17, 0x240(%rsp)
vmovaps %xmm20, 0x220(%rsp)
vsubps %xmm17, %xmm20, %xmm0
vmovaps %xmm0, 0x1f0(%rsp)
vmovaps %xmm18, 0x230(%rsp)
vmovaps %xmm21, 0x210(%rsp)
vsubps %xmm18, %xmm21, %xmm0
vmovaps %xmm0, 0x1e0(%rsp)
vmovaps %xmm15, 0x260(%rsp)
vmovaps %xmm16, 0x250(%rsp)
vsubps %xmm15, %xmm16, %xmm0
vmovaps %xmm0, 0x1d0(%rsp)
vmovaps %xmm1, %xmm16
movq 0xb0(%rsp), %r8
vpbroadcastd %r8d, %zmm0
vmovdqa64 %zmm0, 0x440(%rsp)
vmovsd 0x21197e(%rip), %xmm0 # 0x1eec6f0
vmovaps %xmm0, %xmm15
movq 0x78(%rsp), %rdi
vmovaps %xmm7, 0x180(%rsp)
vmovaps %xmm19, 0x170(%rsp)
vmovaps %xmm25, 0x160(%rsp)
vmovaps %xmm1, 0x80(%rsp)
vmovaps %xmm2, 0x40(%rsp)
vmovaps %xmm9, 0x30(%rsp)
vmovaps %xmm10, 0x20(%rsp)
vmovaps %xmm11, 0x10(%rsp)
vmovaps %ymm29, 0x3c0(%rsp)
vmovaps %ymm28, 0x3a0(%rsp)
vmovaps %xmm15, %xmm26
vshufps $0x50, %xmm15, %xmm15, %xmm1 # xmm1 = xmm15[0,0,1,1]
vbroadcastss 0x21193a(%rip), %ymm13 # 0x1eec714
vsubps %xmm1, %xmm13, %xmm2
vmulps %xmm1, %xmm12, %xmm3
vmulps %xmm1, %xmm9, %xmm4
vmulps %xmm1, %xmm10, %xmm5
vmulps %xmm1, %xmm11, %xmm1
vfmadd231ps %xmm7, %xmm2, %xmm3 # xmm3 = (xmm2 * xmm7) + xmm3
vfmadd231ps %xmm19, %xmm2, %xmm4 # xmm4 = (xmm2 * xmm19) + xmm4
vfmadd231ps %xmm25, %xmm2, %xmm5 # xmm5 = (xmm2 * xmm25) + xmm5
vfmadd231ps %xmm2, %xmm16, %xmm1 # xmm1 = (xmm16 * xmm2) + xmm1
vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3]
vsubss %xmm0, %xmm2, %xmm6
vmulss 0x2460bb(%rip), %xmm6, %xmm6 # 0x1f20ed0
vbroadcastss %xmm0, %ymm7
vbroadcastsd %xmm2, %ymm2
vsubps %ymm7, %ymm2, %ymm10
vbroadcastss %xmm3, %ymm2
vbroadcastss 0x2378d3(%rip), %ymm9 # 0x1f12704
vpermps %ymm3, %ymm9, %ymm8
vbroadcastss %xmm4, %ymm20
vpermps %ymm4, %ymm9, %ymm21
vbroadcastss %xmm5, %ymm22
vpermps %ymm5, %ymm9, %ymm23
vbroadcastss %xmm1, %ymm24
vpermps %ymm1, %ymm9, %ymm25
vbroadcastss %xmm6, %ymm9
vpermps %ymm3, %ymm27, %ymm19
vbroadcastss 0x24606a(%rip), %ymm6 # 0x1f20ed8
vpermps %ymm3, %ymm6, %ymm18
vpermps %ymm4, %ymm27, %ymm15
vpermps %ymm4, %ymm6, %ymm14
vpermps %ymm5, %ymm27, %ymm12
vpermps %ymm5, %ymm6, %ymm11
vpermps %ymm1, %ymm27, %ymm16
vpermps %ymm1, %ymm6, %ymm17
vfmadd132ps 0x246081(%rip), %ymm7, %ymm10 # ymm10 = (ymm10 * mem) + ymm7
vsubps %ymm10, %ymm13, %ymm13
vmulps %ymm10, %ymm20, %ymm1
vmulps %ymm10, %ymm21, %ymm3
vfmadd231ps %ymm2, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm2) + ymm1
vfmadd231ps %ymm8, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm8) + ymm3
vmulps %ymm10, %ymm22, %ymm2
vmulps %ymm10, %ymm23, %ymm4
vfmadd231ps %ymm20, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm20) + ymm2
vfmadd231ps %ymm21, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm21) + ymm4
vmulps %ymm10, %ymm24, %ymm5
vmulps %ymm10, %ymm25, %ymm6
vfmadd231ps %ymm22, %ymm13, %ymm5 # ymm5 = (ymm13 * ymm22) + ymm5
vfmadd231ps %ymm23, %ymm13, %ymm6 # ymm6 = (ymm13 * ymm23) + ymm6
vmulps %ymm2, %ymm10, %ymm7
vmulps %ymm4, %ymm10, %ymm8
vfmadd231ps %ymm1, %ymm13, %ymm7 # ymm7 = (ymm13 * ymm1) + ymm7
vfmadd231ps %ymm3, %ymm13, %ymm8 # ymm8 = (ymm13 * ymm3) + ymm8
vmulps %ymm5, %ymm10, %ymm1
vmulps %ymm6, %ymm10, %ymm5
vfmadd231ps %ymm2, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm2) + ymm1
vfmadd231ps %ymm4, %ymm13, %ymm5 # ymm5 = (ymm13 * ymm4) + ymm5
vmulps %ymm1, %ymm10, %ymm3
vmulps %ymm5, %ymm10, %ymm4
vfmadd231ps %ymm7, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm7) + ymm3
vfmadd231ps %ymm8, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm8) + ymm4
vsubps %ymm7, %ymm1, %ymm1
vsubps %ymm8, %ymm5, %ymm2
vbroadcastss 0x2160b9(%rip), %ymm22 # 0x1ef0fec
vmulps %ymm22, %ymm1, %ymm1
vmulps %ymm22, %ymm2, %ymm2
vmulps %ymm1, %ymm9, %ymm8
vmulps %ymm2, %ymm9, %ymm20
vmovaps %ymm3, %ymm5
vmovaps 0x284dc9(%rip), %ymm23 # 0x1f5fd20
vxorps %xmm24, %xmm24, %xmm24
vpermt2ps %ymm24, %ymm23, %ymm5
vmovaps %ymm4, %ymm6
vpermt2ps %ymm24, %ymm23, %ymm6
vaddps %ymm3, %ymm8, %ymm1
vpermt2ps %ymm24, %ymm23, %ymm8
vaddps %ymm20, %ymm4, %ymm7
vpermt2ps %ymm24, %ymm23, %ymm20
vsubps %ymm8, %ymm5, %ymm2
vsubps %ymm20, %ymm6, %ymm8
vmulps %ymm10, %ymm15, %ymm20
vmulps %ymm10, %ymm14, %ymm21
vfmadd231ps %ymm19, %ymm13, %ymm20 # ymm20 = (ymm13 * ymm19) + ymm20
vfmadd231ps %ymm18, %ymm13, %ymm21 # ymm21 = (ymm13 * ymm18) + ymm21
vmulps %ymm10, %ymm12, %ymm18
vmulps %ymm10, %ymm11, %ymm19
vfmadd231ps %ymm15, %ymm13, %ymm18 # ymm18 = (ymm13 * ymm15) + ymm18
vfmadd231ps %ymm14, %ymm13, %ymm19 # ymm19 = (ymm13 * ymm14) + ymm19
vmulps %ymm10, %ymm16, %ymm14
vmulps %ymm10, %ymm17, %ymm15
vfmadd231ps %ymm12, %ymm13, %ymm14 # ymm14 = (ymm13 * ymm12) + ymm14
vfmadd231ps %ymm11, %ymm13, %ymm15 # ymm15 = (ymm13 * ymm11) + ymm15
vmulps %ymm18, %ymm10, %ymm16
vmulps %ymm19, %ymm10, %ymm17
vfmadd231ps %ymm20, %ymm13, %ymm16 # ymm16 = (ymm13 * ymm20) + ymm16
vfmadd231ps %ymm21, %ymm13, %ymm17 # ymm17 = (ymm13 * ymm21) + ymm17
vmulps %ymm14, %ymm10, %ymm14
vmulps %ymm15, %ymm10, %ymm15
vfmadd231ps %ymm18, %ymm13, %ymm14 # ymm14 = (ymm13 * ymm18) + ymm14
vfmadd231ps %ymm19, %ymm13, %ymm15 # ymm15 = (ymm13 * ymm19) + ymm15
vmulps %ymm14, %ymm10, %ymm11
vmulps %ymm15, %ymm10, %ymm12
vfmadd231ps %ymm16, %ymm13, %ymm11 # ymm11 = (ymm13 * ymm16) + ymm11
vfmadd231ps %ymm13, %ymm17, %ymm12 # ymm12 = (ymm17 * ymm13) + ymm12
vsubps %ymm16, %ymm14, %ymm10
vsubps %ymm17, %ymm15, %ymm13
vmulps %ymm22, %ymm10, %ymm10
vmulps %ymm22, %ymm13, %ymm13
vmulps %ymm10, %ymm9, %ymm10
vmulps %ymm13, %ymm9, %ymm16
vmovaps %ymm11, %ymm13
vpermt2ps %ymm24, %ymm23, %ymm13
vmovaps %ymm12, %ymm14
vpermt2ps %ymm24, %ymm23, %ymm14
vaddps %ymm10, %ymm11, %ymm9
vpermt2ps %ymm24, %ymm23, %ymm10
vaddps %ymm16, %ymm12, %ymm15
vpermt2ps %ymm24, %ymm23, %ymm16
vsubps %ymm10, %ymm13, %ymm10
vsubps %ymm16, %ymm14, %ymm16
vsubps %ymm3, %ymm11, %ymm17
vsubps %ymm4, %ymm12, %ymm18
vsubps %ymm5, %ymm13, %ymm19
vaddps %ymm19, %ymm17, %ymm17
vsubps %ymm6, %ymm14, %ymm19
vaddps %ymm19, %ymm18, %ymm18
vmulps %ymm17, %ymm4, %ymm19
vfnmadd231ps %ymm18, %ymm3, %ymm19 # ymm19 = -(ymm3 * ymm18) + ymm19
vmulps %ymm17, %ymm7, %ymm20
vfnmadd231ps %ymm18, %ymm1, %ymm20 # ymm20 = -(ymm1 * ymm18) + ymm20
vmulps %ymm17, %ymm8, %ymm21
vfnmadd231ps %ymm18, %ymm2, %ymm21 # ymm21 = -(ymm2 * ymm18) + ymm21
vmulps %ymm17, %ymm6, %ymm22
vfnmadd231ps %ymm18, %ymm5, %ymm22 # ymm22 = -(ymm5 * ymm18) + ymm22
vmulps %ymm17, %ymm12, %ymm23
vfnmadd231ps %ymm18, %ymm11, %ymm23 # ymm23 = -(ymm11 * ymm18) + ymm23
vmulps %ymm17, %ymm15, %ymm24
vfnmadd231ps %ymm18, %ymm9, %ymm24 # ymm24 = -(ymm9 * ymm18) + ymm24
vmulps %ymm17, %ymm16, %ymm25
vfnmadd231ps %ymm18, %ymm10, %ymm25 # ymm25 = -(ymm10 * ymm18) + ymm25
vmulps %ymm17, %ymm14, %ymm17
vfnmadd231ps %ymm18, %ymm13, %ymm17 # ymm17 = -(ymm13 * ymm18) + ymm17
vminps %ymm20, %ymm19, %ymm18
vmaxps %ymm20, %ymm19, %ymm19
vminps %ymm22, %ymm21, %ymm20
vminps %ymm20, %ymm18, %ymm18
vmaxps %ymm22, %ymm21, %ymm20
vmaxps %ymm20, %ymm19, %ymm19
vminps %ymm24, %ymm23, %ymm20
vmaxps %ymm24, %ymm23, %ymm21
vminps %ymm17, %ymm25, %ymm22
vminps %ymm22, %ymm20, %ymm20
vminps %ymm20, %ymm18, %ymm18
vmaxps %ymm17, %ymm25, %ymm17
vmaxps %ymm17, %ymm21, %ymm17
vmaxps %ymm17, %ymm19, %ymm17
vcmpleps %ymm29, %ymm18, %k1
vcmpnltps %ymm28, %ymm17, %k0 {%k1}
kmovd %k0, %eax
movl $0x0, %ecx
andb $0x7f, %al
je 0x1cdb23f
vsubps %ymm3, %ymm5, %ymm17
vsubps %ymm4, %ymm6, %ymm18
vsubps %ymm11, %ymm13, %ymm19
vaddps %ymm19, %ymm17, %ymm17
vsubps %ymm12, %ymm14, %ymm19
vaddps %ymm19, %ymm18, %ymm18
vmulps %ymm17, %ymm4, %ymm4
vfnmadd231ps %ymm3, %ymm18, %ymm4 # ymm4 = -(ymm18 * ymm3) + ymm4
vmulps %ymm17, %ymm7, %ymm3
vfnmadd213ps %ymm3, %ymm18, %ymm1 # ymm1 = -(ymm18 * ymm1) + ymm3
vmulps %ymm17, %ymm8, %ymm3
vfnmadd213ps %ymm3, %ymm18, %ymm2 # ymm2 = -(ymm18 * ymm2) + ymm3
vmulps %ymm17, %ymm6, %ymm3
vfnmadd231ps %ymm5, %ymm18, %ymm3 # ymm3 = -(ymm18 * ymm5) + ymm3
vmulps %ymm17, %ymm12, %ymm5
vfnmadd231ps %ymm11, %ymm18, %ymm5 # ymm5 = -(ymm18 * ymm11) + ymm5
vmulps %ymm17, %ymm15, %ymm6
vfnmadd213ps %ymm6, %ymm18, %ymm9 # ymm9 = -(ymm18 * ymm9) + ymm6
vmulps %ymm17, %ymm16, %ymm6
vfnmadd213ps %ymm6, %ymm18, %ymm10 # ymm10 = -(ymm18 * ymm10) + ymm6
vmulps %ymm17, %ymm14, %ymm6
vfnmadd231ps %ymm18, %ymm13, %ymm6 # ymm6 = -(ymm13 * ymm18) + ymm6
vminps %ymm1, %ymm4, %ymm7
vmaxps %ymm1, %ymm4, %ymm1
vminps %ymm3, %ymm2, %ymm4
vminps %ymm4, %ymm7, %ymm4
vmaxps %ymm3, %ymm2, %ymm2
vmaxps %ymm2, %ymm1, %ymm1
vminps %ymm9, %ymm5, %ymm2
vmaxps %ymm9, %ymm5, %ymm3
vminps %ymm6, %ymm10, %ymm5
vminps %ymm5, %ymm2, %ymm2
vminps %ymm2, %ymm4, %ymm2
vmaxps %ymm6, %ymm10, %ymm4
vmaxps %ymm4, %ymm3, %ymm3
vmaxps %ymm3, %ymm1, %ymm1
vcmpnltps %ymm28, %ymm1, %k1
vcmpleps %ymm29, %ymm2, %k0 {%k1}
kmovd %k0, %ecx
andb %cl, %al
movzbl %al, %ecx
testl %ecx, %ecx
je 0x1cdb25f
movl %ebx, %eax
movl %ecx, 0x190(%rsp,%rax,4)
vmovlps %xmm0, 0x320(%rsp,%rax,8)
vmovlps %xmm26, 0x3e0(%rsp,%rax,8)
incl %ebx
vbroadcastss 0x211917(%rip), %xmm17 # 0x1eecb80
vbroadcastss 0x245c51(%rip), %xmm19 # 0x1f20ec4
vbroadcastss 0x215d6f(%rip), %ymm18 # 0x1ef0fec
vmovss 0x245c59(%rip), %xmm20 # 0x1f20ee0
vmovss 0x211483(%rip), %xmm21 # 0x1eec714
vmovss 0x215d65(%rip), %xmm22 # 0x1ef1000
vmovss 0x2167a7(%rip), %xmm23 # 0x1ef1a4c
vbroadcastss 0x211465(%rip), %xmm24 # 0x1eec714
vmovss 0x216c03(%rip), %xmm25 # 0x1ef1ebc
vmovaps 0x80(%rsp), %xmm16
vmovaps 0x40(%rsp), %xmm12
vmovaps 0x30(%rsp), %xmm9
vmovaps 0x20(%rsp), %xmm10
vmovaps 0x10(%rsp), %xmm11
vmovaps 0xf0(%rsp), %xmm28
vmovaps 0xe0(%rsp), %xmm29
testl %ebx, %ebx
je 0x1cdc373
leal -0x1(%rbx), %eax
vmovss 0x320(%rsp,%rax,8), %xmm0
vmovss 0x324(%rsp,%rax,8), %xmm1
movl 0x190(%rsp,%rax,4), %ecx
vmovsd 0x3e0(%rsp,%rax,8), %xmm15
tzcntq %rcx, %rdx
blsrl %ecx, %ecx
movl %ecx, 0x190(%rsp,%rax,4)
cmovel %eax, %ebx
vxorps %xmm2, %xmm2, %xmm2
vcvtsi2ss %rdx, %xmm2, %xmm2
vmulss %xmm20, %xmm2, %xmm2
incq %rdx
vcvtsi2ss %rdx, %xmm31, %xmm3
vmulss %xmm20, %xmm3, %xmm3
vsubss %xmm2, %xmm21, %xmm4
vmulss %xmm2, %xmm1, %xmm26
vfmadd231ss %xmm4, %xmm0, %xmm26 # xmm26 = (xmm0 * xmm4) + xmm26
vsubss %xmm3, %xmm21, %xmm2
vmulss %xmm3, %xmm1, %xmm13
vfmadd231ss %xmm2, %xmm0, %xmm13 # xmm13 = (xmm0 * xmm2) + xmm13
vsubss %xmm26, %xmm13, %xmm0
vucomiss %xmm0, %xmm22
jbe 0x1cdc33e
vmovaps %xmm26, %xmm6
vmovaps %xmm15, %xmm26
vshufps $0x50, %xmm15, %xmm15, %xmm1 # xmm1 = xmm15[0,0,1,1]
vucomiss %xmm0, %xmm23
seta %cl
cmpl $0x4, %ebx
setae %al
vsubps %xmm1, %xmm24, %xmm2
vmulps %xmm1, %xmm12, %xmm3
vmulps %xmm1, %xmm9, %xmm4
vmulps %xmm1, %xmm10, %xmm5
vmulps %xmm1, %xmm11, %xmm1
vfmadd231ps 0x180(%rsp), %xmm2, %xmm3 # xmm3 = (xmm2 * mem) + xmm3
vfmadd231ps 0x170(%rsp), %xmm2, %xmm4 # xmm4 = (xmm2 * mem) + xmm4
vfmadd231ps 0x160(%rsp), %xmm2, %xmm5 # xmm5 = (xmm2 * mem) + xmm5
vfmadd231ps %xmm2, %xmm16, %xmm1 # xmm1 = (xmm16 * xmm2) + xmm1
vinsertf128 $0x1, %xmm3, %ymm3, %ymm2
vinsertf128 $0x1, %xmm4, %ymm4, %ymm3
vinsertf128 $0x1, %xmm5, %ymm5, %ymm4
vmovaps %xmm6, 0xc0(%rsp)
vbroadcastss %xmm6, %xmm6
vmovaps %xmm13, 0x60(%rsp)
vbroadcastss %xmm13, %xmm7
vinsertf128 $0x1, %xmm7, %ymm6, %ymm6
vsubps %ymm2, %ymm3, %ymm7
vfmadd213ps %ymm2, %ymm6, %ymm7 # ymm7 = (ymm6 * ymm7) + ymm2
vsubps %ymm3, %ymm4, %ymm2
vfmadd213ps %ymm3, %ymm6, %ymm2 # ymm2 = (ymm6 * ymm2) + ymm3
vsubps %xmm5, %xmm1, %xmm1
vinsertf128 $0x1, %xmm1, %ymm1, %ymm3
vfmadd213ps %ymm4, %ymm6, %ymm3 # ymm3 = (ymm6 * ymm3) + ymm4
vsubps %ymm7, %ymm2, %ymm1
vfmadd213ps %ymm7, %ymm6, %ymm1 # ymm1 = (ymm6 * ymm1) + ymm7
vsubps %ymm2, %ymm3, %ymm3
vfmadd213ps %ymm2, %ymm6, %ymm3 # ymm3 = (ymm6 * ymm3) + ymm2
vsubps %ymm1, %ymm3, %ymm2
vfmadd231ps %ymm6, %ymm2, %ymm1 # ymm1 = (ymm2 * ymm6) + ymm1
vmulps %ymm18, %ymm2, %ymm3
vextractf128 $0x1, %ymm1, %xmm2
vextractf128 $0x1, %ymm3, %xmm4
vmulss %xmm25, %xmm0, %xmm5
vbroadcastss %xmm5, %xmm6
vmulps %xmm3, %xmm6, %xmm3
vaddps %xmm3, %xmm1, %xmm5
vmulps %xmm4, %xmm6, %xmm3
vsubps %xmm3, %xmm2, %xmm6
vshufpd $0x3, %xmm1, %xmm1, %xmm4 # xmm4 = xmm1[1,1]
vshufpd $0x3, %xmm2, %xmm2, %xmm3 # xmm3 = xmm2[1,1]
vsubps %xmm1, %xmm4, %xmm7
vsubps %xmm2, %xmm3, %xmm8
vaddps %xmm7, %xmm8, %xmm7
vshufps $0xb1, %xmm1, %xmm1, %xmm8 # xmm8 = xmm1[1,0,3,2]
vshufps $0xb1, %xmm5, %xmm5, %xmm9 # xmm9 = xmm5[1,0,3,2]
vshufps $0xb1, %xmm6, %xmm6, %xmm10 # xmm10 = xmm6[1,0,3,2]
vshufps $0xb1, %xmm2, %xmm2, %xmm11 # xmm11 = xmm2[1,0,3,2]
vbroadcastss %xmm7, %xmm12
vshufps $0x55, %xmm7, %xmm7, %xmm7 # xmm7 = xmm7[1,1,1,1]
vmulps %xmm7, %xmm8, %xmm8
vmulps %xmm7, %xmm9, %xmm9
vmulps %xmm7, %xmm10, %xmm10
vmulps %xmm7, %xmm11, %xmm7
vfmadd231ps %xmm1, %xmm12, %xmm8 # xmm8 = (xmm12 * xmm1) + xmm8
vfmadd231ps %xmm5, %xmm12, %xmm9 # xmm9 = (xmm12 * xmm5) + xmm9
vfmadd231ps %xmm6, %xmm12, %xmm10 # xmm10 = (xmm12 * xmm6) + xmm10
vfmadd231ps %xmm12, %xmm2, %xmm7 # xmm7 = (xmm2 * xmm12) + xmm7
vshufpd $0x1, %xmm8, %xmm8, %xmm11 # xmm11 = xmm8[1,0]
vshufpd $0x1, %xmm9, %xmm9, %xmm12 # xmm12 = xmm9[1,0]
vshufpd $0x1, %xmm10, %xmm10, %xmm14 # xmm14 = xmm10[1,0]
vshufpd $0x1, %xmm7, %xmm7, %xmm15 # xmm15 = xmm7[1,0]
vminss %xmm9, %xmm8, %xmm13
vmaxss %xmm8, %xmm9, %xmm8
vminss %xmm7, %xmm10, %xmm9
vmaxss %xmm10, %xmm7, %xmm7
vminss %xmm9, %xmm13, %xmm13
vmaxss %xmm8, %xmm7, %xmm9
vminss %xmm12, %xmm11, %xmm7
vmaxss %xmm11, %xmm12, %xmm8
vminss %xmm15, %xmm14, %xmm10
vmaxss %xmm14, %xmm15, %xmm11
vminss %xmm10, %xmm7, %xmm14
vmaxss %xmm8, %xmm11, %xmm10
vmovss 0x2154b6(%rip), %xmm7 # 0x1ef09d8
vucomiss %xmm13, %xmm7
jbe 0x1cdb537
vmovss 0x21698f(%rip), %xmm7 # 0x1ef1ec0
vucomiss %xmm7, %xmm10
ja 0x1cdb598
vmovss 0x216981(%rip), %xmm7 # 0x1ef1ec0
vucomiss %xmm7, %xmm9
seta %dl
vmovss 0x21548a(%rip), %xmm7 # 0x1ef09d8
vcmpltps %xmm7, %xmm14, %k0
vcmpltps %xmm7, %xmm13, %k1
korw %k0, %k1, %k0
kmovd %k0, %esi
testb %sil, %dl
jne 0x1cdb598
vmovss 0x21694f(%rip), %xmm7 # 0x1ef1ec0
vcmpnltps %xmm10, %xmm7, %k0
vmovss 0x215458(%rip), %xmm7 # 0x1ef09d8
vcmpnltps %xmm7, %xmm14, %k1
korw %k0, %k1, %k0
kmovd %k0, %edx
testb $0x1, %dl
jne 0x1cdc2fe
vcmpltss %xmm30, %xmm13, %k1
vmovaps %xmm21, %xmm15
vmovss 0x21541d(%rip), %xmm16 # 0x1ef09cc
vmovss %xmm16, %xmm15, %xmm15 {%k1}
vcmpltss %xmm30, %xmm9, %k1
vmovaps %xmm21, %xmm12
vmovss %xmm16, %xmm12, %xmm12 {%k1}
vucomiss %xmm12, %xmm15
setp %dl
setne %sil
orb %dl, %sil
kmovd %esi, %k1
vmovss 0x21043d(%rip), %xmm7 # 0x1eeba20
vmovss %xmm30, %xmm7, %xmm7 {%k1}
vmovss 0x211593(%rip), %xmm8 # 0x1eecb84
vmovss %xmm30, %xmm8, %xmm8 {%k1}
vcmpltss %xmm30, %xmm14, %k1
vmovaps %xmm21, %xmm11
vmovss %xmm16, %xmm11, %xmm11 {%k1}
vucomiss %xmm11, %xmm15
jne 0x1cdb613
jnp 0x1cdb652
vucomiss %xmm13, %xmm14
jne 0x1cdb662
jp 0x1cdb662
vucomiss %xmm30, %xmm13
setnp %dl
sete %sil
andb %dl, %sil
kmovd %esi, %k1
vmovss 0x2103e8(%rip), %xmm13 # 0x1eeba20
vmovss %xmm30, %xmm13, %xmm13 {%k1}
vmovss 0x21153e(%rip), %xmm14 # 0x1eecb84
vmovss 0x2110c4(%rip), %xmm14 {%k1} # 0x1eec714
jmp 0x1cdb687
vmovaps 0xd0(%rsp), %xmm16
vmovaps %xmm26, %xmm15
jmp 0x1cdb69f
vxorps 0x245854(%rip){1to4}, %xmm13, %xmm15 # 0x1f20ec0
vsubss %xmm13, %xmm14, %xmm13
vdivss %xmm13, %xmm15, %xmm14
vsubss %xmm14, %xmm21, %xmm13
vfmadd213ss %xmm14, %xmm30, %xmm13 # xmm13 = (xmm30 * xmm13) + xmm14
vmovaps %xmm13, %xmm14
vmovaps 0xd0(%rsp), %xmm16
vmovaps %xmm26, %xmm15
vminss %xmm13, %xmm7, %xmm7
vmaxss %xmm8, %xmm14, %xmm8
vmovaps 0xc0(%rsp), %xmm26
vcmpltss %xmm30, %xmm10, %k1
vmovaps %xmm21, %xmm13
vmovss 0x21530e(%rip), %xmm13 {%k1} # 0x1ef09cc
vucomiss %xmm13, %xmm12
jne 0x1cdb6c7
jnp 0x1cdb735
vucomiss %xmm9, %xmm10
jne 0x1cdb706
jp 0x1cdb706
vucomiss %xmm30, %xmm9
setnp %dl
sete %sil
andb %dl, %sil
kmovd %esi, %k1
vmovss 0x210334(%rip), %xmm9 # 0x1eeba20
vmovss %xmm30, %xmm9, %xmm9 {%k1}
vmovss 0x21148a(%rip), %xmm10 # 0x1eecb84
vmovss 0x211010(%rip), %xmm10 {%k1} # 0x1eec714
jmp 0x1cdb72b
vxorps 0x2457b0(%rip){1to4}, %xmm9, %xmm12 # 0x1f20ec0
vsubss %xmm9, %xmm10, %xmm9
vdivss %xmm9, %xmm12, %xmm10
vsubss %xmm10, %xmm21, %xmm9
vfmadd213ss %xmm10, %xmm30, %xmm9 # xmm9 = (xmm30 * xmm9) + xmm10
vmovaps %xmm9, %xmm10
vminss %xmm9, %xmm7, %xmm7
vmaxss %xmm8, %xmm10, %xmm8
vucomiss %xmm13, %xmm11
setp %dl
setne %sil
orb %dl, %sil
vminss %xmm21, %xmm7, %xmm9
kmovd %esi, %k1
vmovss %xmm9, %xmm7, %xmm7 {%k1}
vmaxss %xmm8, %xmm21, %xmm9
vmovss %xmm9, %xmm8, %xmm8 {%k1}
vmaxss %xmm7, %xmm30, %xmm7
vminss %xmm21, %xmm8, %xmm8
movb $0x1, %r15b
vucomiss %xmm8, %xmm7
ja 0x1cdc2c8
vaddss 0x281ce6(%rip), %xmm7, %xmm7 # 0x1f5d468
vaddss 0x211412(%rip), %xmm8, %xmm8 # 0x1eecb9c
vmaxss %xmm7, %xmm30, %xmm7
vminss %xmm21, %xmm8, %xmm8
vmovddup %xmm1, %xmm1 # xmm1 = xmm1[0,0]
vmovddup %xmm5, %xmm9 # xmm9 = xmm5[0,0]
vmovddup %xmm6, %xmm10 # xmm10 = xmm6[0,0]
vmovddup %xmm2, %xmm2 # xmm2 = xmm2[0,0]
vshufpd $0x3, %xmm5, %xmm5, %xmm5 # xmm5 = xmm5[1,1]
vshufpd $0x3, %xmm6, %xmm6, %xmm6 # xmm6 = xmm6[1,1]
vshufps $0x0, %xmm8, %xmm7, %xmm11 # xmm11 = xmm7[0,0],xmm8[0,0]
vsubps %xmm11, %xmm24, %xmm12
vmulps %xmm4, %xmm11, %xmm13
vmulps %xmm5, %xmm11, %xmm5
vmulps %xmm6, %xmm11, %xmm6
vmulps %xmm3, %xmm11, %xmm3
vfmadd231ps %xmm1, %xmm12, %xmm13 # xmm13 = (xmm12 * xmm1) + xmm13
vfmadd231ps %xmm9, %xmm12, %xmm5 # xmm5 = (xmm12 * xmm9) + xmm5
vfmadd231ps %xmm10, %xmm12, %xmm6 # xmm6 = (xmm12 * xmm10) + xmm6
vfmadd231ps %xmm2, %xmm12, %xmm3 # xmm3 = (xmm12 * xmm2) + xmm3
vsubss %xmm7, %xmm21, %xmm2
vmovshdup %xmm15, %xmm4 # xmm4 = xmm15[1,1,3,3]
vmulss %xmm7, %xmm4, %xmm1
vfmadd231ss %xmm2, %xmm15, %xmm1 # xmm1 = (xmm15 * xmm2) + xmm1
vsubss %xmm8, %xmm21, %xmm2
vmulss %xmm4, %xmm8, %xmm4
vfmadd231ss %xmm2, %xmm15, %xmm4 # xmm4 = (xmm15 * xmm2) + xmm4
vdivss %xmm0, %xmm21, %xmm0
vsubps %xmm13, %xmm5, %xmm2
vbroadcastss 0x2157d5(%rip), %xmm15 # 0x1ef0fec
vmulps %xmm2, %xmm15, %xmm2
vsubps %xmm5, %xmm6, %xmm7
vmulps %xmm7, %xmm15, %xmm7
vsubps %xmm6, %xmm3, %xmm8
vmulps %xmm15, %xmm8, %xmm8
vminps %xmm8, %xmm7, %xmm9
vmaxps %xmm8, %xmm7, %xmm7
vminps %xmm9, %xmm2, %xmm8
vmaxps %xmm7, %xmm2, %xmm2
vshufpd $0x3, %xmm8, %xmm8, %xmm7 # xmm7 = xmm8[1,1]
vshufpd $0x3, %xmm2, %xmm2, %xmm9 # xmm9 = xmm2[1,1]
vminps %xmm7, %xmm8, %xmm7
vmaxps %xmm9, %xmm2, %xmm2
vbroadcastss %xmm0, %xmm0
vmulps %xmm7, %xmm0, %xmm8
vmulps %xmm2, %xmm0, %xmm7
vsubss %xmm1, %xmm4, %xmm0
vdivss %xmm0, %xmm21, %xmm0
vshufpd $0x3, %xmm13, %xmm13, %xmm2 # xmm2 = xmm13[1,1]
vshufpd $0x3, %xmm5, %xmm5, %xmm9 # xmm9 = xmm5[1,1]
vshufpd $0x3, %xmm6, %xmm6, %xmm10 # xmm10 = xmm6[1,1]
vshufpd $0x3, %xmm3, %xmm3, %xmm11 # xmm11 = xmm3[1,1]
vsubps %xmm13, %xmm2, %xmm2
vsubps %xmm5, %xmm9, %xmm5
vsubps %xmm6, %xmm10, %xmm6
vsubps %xmm3, %xmm11, %xmm3
vminps %xmm5, %xmm2, %xmm9
vmaxps %xmm5, %xmm2, %xmm2
vminps %xmm3, %xmm6, %xmm5
vminps %xmm5, %xmm9, %xmm5
vmaxps %xmm3, %xmm6, %xmm3
vmaxps %xmm3, %xmm2, %xmm2
vbroadcastss %xmm0, %xmm0
vmulps %xmm5, %xmm0, %xmm10
vmulps %xmm2, %xmm0, %xmm11
vinsertps $0x10, %xmm1, %xmm26, %xmm6 # xmm6 = xmm26[0],xmm1[0],xmm26[2,3]
vmovaps 0x60(%rsp), %xmm0
vinsertps $0x10, %xmm4, %xmm0, %xmm5 # xmm5 = xmm0[0],xmm4[0],xmm0[2,3]
vaddps %xmm5, %xmm6, %xmm0
vmulps %xmm17, %xmm0, %xmm9
vshufps $0x54, %xmm9, %xmm9, %xmm0 # xmm0 = xmm9[0,1,1,1]
vbroadcastss %xmm9, %xmm2
vmovaps %xmm28, %xmm3
vfmadd213ps %xmm16, %xmm2, %xmm3 # xmm3 = (xmm2 * xmm3) + xmm16
vmovaps %xmm29, %xmm12
vfmadd213ps 0x110(%rsp), %xmm2, %xmm12 # xmm12 = (xmm2 * xmm12) + mem
vmovaps 0x310(%rsp), %xmm13
vfmadd213ps 0x100(%rsp), %xmm2, %xmm13 # xmm13 = (xmm2 * xmm13) + mem
vsubps %xmm3, %xmm12, %xmm14
vfmadd213ps %xmm3, %xmm2, %xmm14 # xmm14 = (xmm2 * xmm14) + xmm3
vsubps %xmm12, %xmm13, %xmm3
vfmadd213ps %xmm12, %xmm2, %xmm3 # xmm3 = (xmm2 * xmm3) + xmm12
vsubps %xmm14, %xmm3, %xmm3
vfmadd231ps %xmm2, %xmm3, %xmm14 # xmm14 = (xmm3 * xmm2) + xmm14
vmulps %xmm3, %xmm15, %xmm2
vmovddup %xmm14, %xmm12 # xmm12 = xmm14[0,0]
vshufpd $0x3, %xmm14, %xmm14, %xmm3 # xmm3 = xmm14[1,1]
vshufps $0x55, %xmm9, %xmm9, %xmm13 # xmm13 = xmm9[1,1,1,1]
vsubps %xmm12, %xmm3, %xmm3
vfmadd231ps %xmm3, %xmm13, %xmm12 # xmm12 = (xmm13 * xmm3) + xmm12
vmovddup %xmm2, %xmm14 # xmm14 = xmm2[0,0]
vshufpd $0x3, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[1,1]
vsubps %xmm14, %xmm2, %xmm15
vfmadd213ps %xmm14, %xmm13, %xmm15 # xmm15 = (xmm13 * xmm15) + xmm14
vxorps %xmm31, %xmm3, %xmm2
vmovshdup %xmm15, %xmm13 # xmm13 = xmm15[1,1,3,3]
vxorps %xmm31, %xmm13, %xmm14
vmovshdup %xmm3, %xmm16 # xmm16 = xmm3[1,1,3,3]
vmovss 0x284380(%rip), %xmm30 # 0x1f5fcfc
vpermt2ps %xmm3, %xmm30, %xmm14
vmulss %xmm3, %xmm13, %xmm3
vfmsub231ss %xmm16, %xmm15, %xmm3 # xmm3 = (xmm15 * xmm16) - xmm3
vmovss 0x27efe0(%rip), %xmm13 # 0x1f5a974
vpermt2ps %xmm2, %xmm13, %xmm15
vbroadcastss %xmm3, %xmm3
vdivps %xmm3, %xmm14, %xmm2
vdivps %xmm3, %xmm15, %xmm3
vbroadcastss %xmm12, %xmm13
vmulps %xmm2, %xmm13, %xmm13
vshufps $0x55, %xmm12, %xmm12, %xmm12 # xmm12 = xmm12[1,1,1,1]
vmulps %xmm3, %xmm12, %xmm12
vaddps %xmm12, %xmm13, %xmm12
vsubps %xmm12, %xmm0, %xmm0
vmovshdup %xmm2, %xmm12 # xmm12 = xmm2[1,1,3,3]
vinsertps $0x1c, %xmm10, %xmm8, %xmm13 # xmm13 = xmm8[0],xmm10[0],zero,zero
vmulps %xmm13, %xmm12, %xmm14
vinsertps $0x1c, %xmm11, %xmm7, %xmm15 # xmm15 = xmm7[0],xmm11[0],zero,zero
vmulps %xmm15, %xmm12, %xmm12
vminps %xmm12, %xmm14, %xmm16
vmaxps %xmm14, %xmm12, %xmm12
vmovshdup %xmm3, %xmm14 # xmm14 = xmm3[1,1,3,3]
vinsertps $0x4c, %xmm8, %xmm10, %xmm8 # xmm8 = xmm8[1],xmm10[1],zero,zero
vmulps %xmm8, %xmm14, %xmm10
vinsertps $0x4c, %xmm7, %xmm11, %xmm7 # xmm7 = xmm7[1],xmm11[1],zero,zero
vmulps %xmm7, %xmm14, %xmm11
vminps %xmm11, %xmm10, %xmm14
vaddps %xmm14, %xmm16, %xmm14
vmaxps %xmm10, %xmm11, %xmm10
vaddps %xmm10, %xmm12, %xmm10
vmovddup 0x2454d1(%rip), %xmm11 # xmm11 = mem[0,0]
vsubps %xmm10, %xmm11, %xmm10
vsubps %xmm14, %xmm11, %xmm11
vsubps %xmm9, %xmm6, %xmm12
vsubps %xmm9, %xmm5, %xmm9
vmulps %xmm10, %xmm12, %xmm14
vbroadcastss %xmm2, %xmm16
vmulps %xmm13, %xmm16, %xmm13
vmulps %xmm15, %xmm16, %xmm15
vminps %xmm15, %xmm13, %xmm16
vmaxps %xmm13, %xmm15, %xmm13
vbroadcastss %xmm3, %xmm15
vmulps %xmm8, %xmm15, %xmm8
vmulps %xmm7, %xmm15, %xmm7
vminps %xmm7, %xmm8, %xmm15
vaddps %xmm15, %xmm16, %xmm15
vmulps %xmm11, %xmm12, %xmm16
vmulps %xmm10, %xmm9, %xmm10
vmulps %xmm11, %xmm9, %xmm11
vmaxps %xmm8, %xmm7, %xmm7
vaddps %xmm7, %xmm13, %xmm7
vmovddup 0x24546a(%rip), %xmm8 # xmm8 = mem[0,0]
vsubps %xmm7, %xmm8, %xmm7
vsubps %xmm15, %xmm8, %xmm8
vmulps %xmm7, %xmm12, %xmm13
vmulps %xmm8, %xmm12, %xmm12
vmulps %xmm7, %xmm9, %xmm7
vmulps %xmm8, %xmm9, %xmm8
vminps %xmm12, %xmm13, %xmm9
vminps %xmm8, %xmm7, %xmm15
vminps %xmm15, %xmm9, %xmm9
vmaxps %xmm13, %xmm12, %xmm12
vmaxps %xmm7, %xmm8, %xmm7
vmaxps %xmm12, %xmm7, %xmm7
vminps %xmm16, %xmm14, %xmm8
vminps %xmm11, %xmm10, %xmm12
vminps %xmm12, %xmm8, %xmm8
vhaddps %xmm8, %xmm9, %xmm8
vmaxps %xmm14, %xmm16, %xmm9
vmaxps %xmm10, %xmm11, %xmm10
vmaxps %xmm9, %xmm10, %xmm9
vhaddps %xmm9, %xmm7, %xmm7
vshufps $0xe8, %xmm8, %xmm8, %xmm8 # xmm8 = xmm8[0,2,2,3]
vshufps $0xe8, %xmm7, %xmm7, %xmm9 # xmm9 = xmm7[0,2,2,3]
vaddps %xmm0, %xmm8, %xmm7
vaddps %xmm0, %xmm9, %xmm8
vmaxps %xmm7, %xmm6, %xmm6
vminps %xmm5, %xmm8, %xmm9
vcmpltps %xmm6, %xmm9, %k0
vinsertps $0x10, %xmm4, %xmm1, %xmm15 # xmm15 = xmm1[0],xmm4[0],xmm1[2,3]
kmovd %k0, %edx
testb $0x3, %dl
jne 0x1cdc2c2
vucomiss %xmm8, %xmm5
seta %sil
xorl %edx, %edx
vucomiss %xmm26, %xmm7
vmovaps 0x80(%rsp), %xmm16
jbe 0x1cdbba1
testb %sil, %sil
vmovss 0x2154a1(%rip), %xmm11 # 0x1ef0fec
vxorps %xmm30, %xmm30, %xmm30
vmovaps 0xd0(%rsp), %xmm9
vmovaps 0x110(%rsp), %xmm10
vmovaps 0x100(%rsp), %xmm12
vmovaps 0x150(%rsp), %xmm13
vmovaps 0x140(%rsp), %xmm14
je 0x1cdbbdc
vcmpltps %xmm5, %xmm8, %k0
kshiftrb $0x1, %k0, %k0
kmovd %k0, %esi
vmovshdup %xmm7, %xmm4 # xmm4 = xmm7[1,1,3,3]
vucomiss %xmm1, %xmm4
seta %dl
andb %sil, %dl
jmp 0x1cdbbdc
vmovss 0x215443(%rip), %xmm11 # 0x1ef0fec
vxorps %xmm30, %xmm30, %xmm30
vmovaps 0xd0(%rsp), %xmm9
vmovaps 0x110(%rsp), %xmm10
vmovaps 0x100(%rsp), %xmm12
vmovaps 0x150(%rsp), %xmm13
vmovaps 0x140(%rsp), %xmm14
orb %cl, %al
orb %dl, %al
cmpb $0x1, %al
jne 0x1cdc2d2
movl $0xc8, %eax
vsubss %xmm0, %xmm21, %xmm1
vmulss %xmm1, %xmm1, %xmm4
vmulss %xmm4, %xmm1, %xmm5
vmulss %xmm0, %xmm11, %xmm6
vmulss %xmm4, %xmm6, %xmm4
vmulss %xmm0, %xmm0, %xmm6
vmulss %xmm6, %xmm11, %xmm7
vmulss %xmm7, %xmm1, %xmm1
vbroadcastss %xmm5, %xmm5
vbroadcastss %xmm4, %xmm4
vbroadcastss %xmm1, %xmm1
vmulss %xmm6, %xmm0, %xmm6
vbroadcastss %xmm6, %xmm6
vmulps %xmm6, %xmm13, %xmm6
vfmadd231ps %xmm1, %xmm12, %xmm6 # xmm6 = (xmm12 * xmm1) + xmm6
vfmadd231ps %xmm4, %xmm10, %xmm6 # xmm6 = (xmm10 * xmm4) + xmm6
vfmadd231ps %xmm5, %xmm9, %xmm6 # xmm6 = (xmm9 * xmm5) + xmm6
vmovddup %xmm6, %xmm1 # xmm1 = xmm6[0,0]
vshufpd $0x3, %xmm6, %xmm6, %xmm4 # xmm4 = xmm6[1,1]
vshufps $0x55, %xmm0, %xmm0, %xmm5 # xmm5 = xmm0[1,1,1,1]
vsubps %xmm1, %xmm4, %xmm4
vfmadd213ps %xmm1, %xmm5, %xmm4 # xmm4 = (xmm5 * xmm4) + xmm1
vbroadcastss %xmm4, %xmm1
vmulps %xmm1, %xmm2, %xmm1
vshufps $0x55, %xmm4, %xmm4, %xmm5 # xmm5 = xmm4[1,1,1,1]
vmulps %xmm5, %xmm3, %xmm5
vaddps %xmm5, %xmm1, %xmm1
vsubps %xmm1, %xmm0, %xmm0
vandps %xmm19, %xmm4, %xmm1
vprolq $0x20, %xmm1, %xmm4
vmaxss %xmm1, %xmm4, %xmm1
vucomiss %xmm1, %xmm14
ja 0x1cdbc90
decq %rax
jne 0x1cdbbed
jmp 0x1cdc2d5
vucomiss %xmm30, %xmm0
jb 0x1cdc2d5
vucomiss %xmm0, %xmm21
vmovaps 0x40(%rsp), %xmm12
vmovaps 0x60(%rsp), %xmm13
jb 0x1cdbdba
vmovshdup %xmm0, %xmm1 # xmm1 = xmm0[1,1,3,3]
vucomiss %xmm30, %xmm1
jb 0x1cdbdba
vucomiss %xmm1, %xmm21
jb 0x1cdbdba
vmovss 0x8(%r13), %xmm2
vinsertps $0x1c, 0x18(%r13), %xmm2, %xmm2 # xmm2 = xmm2[0],mem[0],zero,zero
vinsertps $0x28, 0x28(%r13), %xmm2, %xmm2 # xmm2 = xmm2[0,1],mem[0],zero
vdpps $0x7f, 0x300(%rsp), %xmm2, %xmm3
vdpps $0x7f, 0x2f0(%rsp), %xmm2, %xmm4
vdpps $0x7f, 0x2e0(%rsp), %xmm2, %xmm5
vdpps $0x7f, 0x2d0(%rsp), %xmm2, %xmm6
vdpps $0x7f, 0x2c0(%rsp), %xmm2, %xmm7
vdpps $0x7f, 0x2b0(%rsp), %xmm2, %xmm8
vdpps $0x7f, 0x2a0(%rsp), %xmm2, %xmm9
vdpps $0x7f, 0x290(%rsp), %xmm2, %xmm2
vsubss %xmm1, %xmm21, %xmm10
vmulss %xmm7, %xmm1, %xmm7
vmulss %xmm1, %xmm8, %xmm8
vmulss %xmm1, %xmm9, %xmm9
vmulss %xmm2, %xmm1, %xmm1
vfmadd231ss %xmm3, %xmm10, %xmm7 # xmm7 = (xmm10 * xmm3) + xmm7
vfmadd231ss %xmm4, %xmm10, %xmm8 # xmm8 = (xmm10 * xmm4) + xmm8
vfmadd231ss %xmm5, %xmm10, %xmm9 # xmm9 = (xmm10 * xmm5) + xmm9
vfmadd231ss %xmm6, %xmm10, %xmm1 # xmm1 = (xmm10 * xmm6) + xmm1
vsubss %xmm0, %xmm21, %xmm6
vmulss %xmm6, %xmm6, %xmm3
vmulss %xmm3, %xmm6, %xmm2
vmulss %xmm0, %xmm11, %xmm4
vmulss %xmm3, %xmm4, %xmm3
vmulps %xmm0, %xmm0, %xmm5
vmulss %xmm5, %xmm11, %xmm4
vmulss %xmm4, %xmm6, %xmm4
vmulps %xmm5, %xmm0, %xmm5
vmulss %xmm1, %xmm5, %xmm1
vfmadd231ss %xmm9, %xmm4, %xmm1 # xmm1 = (xmm4 * xmm9) + xmm1
vfmadd231ss %xmm8, %xmm3, %xmm1 # xmm1 = (xmm3 * xmm8) + xmm1
vfmadd231ss %xmm7, %xmm2, %xmm1 # xmm1 = (xmm2 * xmm7) + xmm1
vucomiss 0xbc(%rsp), %xmm1
jb 0x1cdbdba
vmovss 0x200(%r11,%r9,4), %xmm14
vucomiss %xmm1, %xmm14
jae 0x1cdbdd1
vmovaps 0x30(%rsp), %xmm9
vmovaps 0x20(%rsp), %xmm10
vmovaps 0x10(%rsp), %xmm11
jmp 0x1cdc2f3
movq %r12, 0x128(%rsp)
movl %r14d, %r12d
vshufps $0x55, %xmm0, %xmm0, %xmm7 # xmm7 = xmm0[1,1,1,1]
vsubps %xmm7, %xmm24, %xmm8
vmulps 0x270(%rsp), %xmm7, %xmm9
vmulps 0x220(%rsp), %xmm7, %xmm10
vmulps 0x210(%rsp), %xmm7, %xmm11
vmulps 0x250(%rsp), %xmm7, %xmm7
vfmadd231ps 0x280(%rsp), %xmm8, %xmm9 # xmm9 = (xmm8 * mem) + xmm9
vfmadd231ps 0x240(%rsp), %xmm8, %xmm10 # xmm10 = (xmm8 * mem) + xmm10
vfmadd231ps 0x230(%rsp), %xmm8, %xmm11 # xmm11 = (xmm8 * mem) + xmm11
vfmadd231ps 0x260(%rsp), %xmm8, %xmm7 # xmm7 = (xmm8 * mem) + xmm7
vsubps %xmm9, %xmm10, %xmm8
vsubps %xmm10, %xmm11, %xmm9
vsubps %xmm11, %xmm7, %xmm7
vbroadcastss %xmm0, %xmm10
vmulps %xmm9, %xmm10, %xmm11
vbroadcastss %xmm6, %xmm6
vfmadd231ps %xmm8, %xmm6, %xmm11 # xmm11 = (xmm6 * xmm8) + xmm11
vmulps %xmm7, %xmm10, %xmm7
vfmadd231ps %xmm9, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm9) + xmm7
vmulps %xmm7, %xmm10, %xmm7
vfmadd231ps %xmm11, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm11) + xmm7
vmulps 0x21517a(%rip){1to4}, %xmm7, %xmm6 # 0x1ef0fec
movq (%rdi), %rax
movq 0x1e8(%rax), %rax
movq (%rax,%r8,8), %r14
movl 0x240(%r11,%r9,4), %eax
testl %eax, 0x34(%r14)
je 0x1cdc29e
movq 0x10(%rdi), %rax
cmpq $0x0, 0x10(%rax)
vmovaps 0x30(%rsp), %xmm9
vmovaps 0x20(%rsp), %xmm10
vmovaps 0x10(%rsp), %xmm11
jne 0x1cdbebc
movb $0x1, %al
cmpq $0x0, 0x48(%r14)
je 0x1cdc2b2
vbroadcastss %xmm5, %xmm5
vmulps 0x1d0(%rsp), %xmm5, %xmm5
vbroadcastss %xmm4, %xmm4
vfmadd132ps 0x1e0(%rsp), %xmm5, %xmm4 # xmm4 = (xmm4 * mem) + xmm5
vbroadcastss %xmm3, %xmm3
vfmadd132ps 0x1f0(%rsp), %xmm4, %xmm3 # xmm3 = (xmm3 * mem) + xmm4
vbroadcastss %xmm2, %xmm2
vfmadd132ps 0x200(%rsp), %xmm3, %xmm2 # xmm2 = (xmm2 * mem) + xmm3
vshufps $0xc9, %xmm2, %xmm2, %xmm3 # xmm3 = xmm2[1,2,0,3]
vshufps $0xc9, %xmm6, %xmm6, %xmm4 # xmm4 = xmm6[1,2,0,3]
vmulps %xmm4, %xmm2, %xmm2
vfmsub231ps %xmm3, %xmm6, %xmm2 # xmm2 = (xmm6 * xmm3) - xmm2
movq 0x8(%rdi), %rax
vbroadcastss %xmm0, %zmm3
vbroadcastss 0x2367e6(%rip), %zmm4 # 0x1f12704
vpermps %zmm0, %zmm4, %zmm0
vpermps %zmm2, %zmm4, %zmm4
vbroadcastss 0x244fa8(%rip), %zmm5 # 0x1f20edc
vpermps %zmm2, %zmm5, %zmm5
vbroadcastss %xmm2, %zmm2
vmovaps %zmm4, 0x4c0(%rsp)
vmovaps %zmm5, 0x500(%rsp)
vmovaps %zmm2, 0x540(%rsp)
vmovaps %zmm3, 0x580(%rsp)
vmovaps %zmm0, 0x5c0(%rsp)
vmovaps 0x480(%rsp), %zmm0
vmovaps %zmm0, 0x600(%rsp)
vmovdqa64 0x440(%rsp), %zmm0
vmovdqa64 %zmm0, 0x640(%rsp)
leaq 0x680(%rsp), %rcx
vpcmpeqd %ymm0, %ymm0, %ymm0
vmovdqa %ymm0, 0x60(%rcx)
vmovdqa %ymm0, 0x40(%rcx)
vmovdqa %ymm0, 0x20(%rcx)
vmovdqa %ymm0, (%rcx)
vbroadcastss (%rax), %zmm0
vmovaps %zmm0, 0x680(%rsp)
vbroadcastss 0x4(%rax), %zmm0
vmovaps %zmm0, 0x6c0(%rsp)
vmovss %xmm1, 0x200(%r11,%r9,4)
vmovaps 0x400(%rsp), %zmm0
vmovaps %zmm0, 0x340(%rsp)
leaq 0x340(%rsp), %rax
movq %rax, 0x1a0(%rsp)
movq 0x18(%r14), %rax
movq %rax, 0x1a8(%rsp)
movq 0x8(%rdi), %rax
movq %rax, 0x1b0(%rsp)
movq %r11, 0x1b8(%rsp)
leaq 0x4c0(%rsp), %rax
movq %rax, 0x1c0(%rsp)
movl $0x10, 0x1c8(%rsp)
movq 0x48(%r14), %rax
testq %rax, %rax
vmovaps %xmm15, 0x130(%rsp)
vmovss %xmm14, 0x5c(%rsp)
je 0x1cdc138
leaq 0x1a0(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0x5c(%rsp), %xmm14
vmovaps 0x60(%rsp), %xmm13
vmovaps 0xc0(%rsp), %xmm26
vmovaps 0x130(%rsp), %xmm15
vmovaps 0xe0(%rsp), %xmm29
vmovaps 0xf0(%rsp), %xmm28
vmovaps 0x10(%rsp), %xmm11
vmovaps 0x20(%rsp), %xmm10
vmovaps 0x30(%rsp), %xmm9
vmovaps 0x40(%rsp), %xmm12
vmovaps 0x80(%rsp), %xmm16
movq 0xb0(%rsp), %r8
vxorps %xmm30, %xmm30, %xmm30
vmovss 0x215e05(%rip), %xmm25 # 0x1ef1ebc
vbroadcastss 0x210653(%rip), %xmm24 # 0x1eec714
vmovss 0x215981(%rip), %xmm23 # 0x1ef1a4c
vmovss 0x214f2b(%rip), %xmm22 # 0x1ef1000
vmovss 0x210635(%rip), %xmm21 # 0x1eec714
vmovss 0x244df7(%rip), %xmm20 # 0x1f20ee0
vbroadcastss 0x214ef9(%rip), %ymm18 # 0x1ef0fec
vbroadcastss 0x244dc7(%rip), %xmm19 # 0x1f20ec4
vbroadcastss 0x210a79(%rip), %xmm17 # 0x1eecb80
vbroadcastss 0x244daf(%rip), %xmm31 # 0x1f20ec0
vbroadcastss 0x244dc1(%rip), %ymm27 # 0x1f20edc
movq 0x78(%rsp), %rdi
movq 0x98(%rsp), %r11
movq 0xa0(%rsp), %r9
movq 0xa8(%rsp), %r10
vmovdqa64 0x340(%rsp), %zmm0
vptestmd %zmm0, %zmm0, %k0
kortestw %k0, %k0
je 0x1cdc329
movq 0x10(%rdi), %rcx
movq 0x10(%rcx), %rax
testq %rax, %rax
je 0x1cdc264
testb $0x2, (%rcx)
jne 0x1cdc171
testb $0x40, 0x3e(%r14)
je 0x1cdc264
leaq 0x1a0(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0x5c(%rsp), %xmm14
vmovaps 0x60(%rsp), %xmm13
vmovaps 0xc0(%rsp), %xmm26
vmovaps 0x130(%rsp), %xmm15
vmovaps 0xe0(%rsp), %xmm29
vmovaps 0xf0(%rsp), %xmm28
vmovaps 0x10(%rsp), %xmm11
vmovaps 0x20(%rsp), %xmm10
vmovaps 0x30(%rsp), %xmm9
vmovaps 0x40(%rsp), %xmm12
vmovaps 0x80(%rsp), %xmm16
movq 0xb0(%rsp), %r8
vxorps %xmm30, %xmm30, %xmm30
vmovss 0x215cd9(%rip), %xmm25 # 0x1ef1ebc
vbroadcastss 0x210527(%rip), %xmm24 # 0x1eec714
vmovss 0x215855(%rip), %xmm23 # 0x1ef1a4c
vmovss 0x214dff(%rip), %xmm22 # 0x1ef1000
vmovss 0x210509(%rip), %xmm21 # 0x1eec714
vmovss 0x244ccb(%rip), %xmm20 # 0x1f20ee0
vbroadcastss 0x214dcd(%rip), %ymm18 # 0x1ef0fec
vbroadcastss 0x244c9b(%rip), %xmm19 # 0x1f20ec4
vbroadcastss 0x21094d(%rip), %xmm17 # 0x1eecb80
vbroadcastss 0x244c83(%rip), %xmm31 # 0x1f20ec0
vbroadcastss 0x244c95(%rip), %ymm27 # 0x1f20edc
movq 0x78(%rsp), %rdi
movq 0x98(%rsp), %r11
movq 0xa0(%rsp), %r9
movq 0xa8(%rsp), %r10
vmovdqa64 0x340(%rsp), %zmm0
vptestmd %zmm0, %zmm0, %k1
movq 0x1b8(%rsp), %rax
vmovaps 0x200(%rax), %zmm0
vbroadcastss 0x2108f9(%rip), %zmm0 {%k1} # 0x1eecb84
vmovaps %zmm0, 0x200(%rax)
kortestw %k1, %k1
setne %al
jmp 0x1cdc32b
xorl %eax, %eax
vmovaps 0x30(%rsp), %xmm9
vmovaps 0x20(%rsp), %xmm10
vmovaps 0x10(%rsp), %xmm11
movl %r12d, %r14d
orb %al, %r14b
movq 0x128(%rsp), %r12
jmp 0x1cdc2f3
vxorps %xmm30, %xmm30, %xmm30
vmovaps 0x80(%rsp), %xmm16
jmp 0x1cdc2d5
xorl %r15d, %r15d
vmovaps 0x40(%rsp), %xmm12
vmovaps 0x30(%rsp), %xmm9
vmovaps 0x20(%rsp), %xmm10
vmovaps 0x10(%rsp), %xmm11
vmovaps 0x60(%rsp), %xmm13
testb %r15b, %r15b
jne 0x1cdb2e9
jmp 0x1cdc33e
movb $0x1, %r15b
vmovaps 0x40(%rsp), %xmm12
vmovaps 0x30(%rsp), %xmm9
vmovaps 0x20(%rsp), %xmm10
vmovaps 0x10(%rsp), %xmm11
vmovaps %xmm26, %xmm15
vmovaps 0xc0(%rsp), %xmm26
jmp 0x1cdc2ed
xorl %eax, %eax
testb %al, %al
jne 0x1cdc2b2
vmovss %xmm14, 0x200(%r11,%r9,4)
jmp 0x1cdc2b2
vinsertps $0x10, %xmm13, %xmm26, %xmm0 # xmm0 = xmm26[0],xmm13[0],xmm26[2,3]
vmovaps 0x180(%rsp), %xmm7
vmovaps 0x170(%rsp), %xmm19
vmovaps 0x160(%rsp), %xmm25
vmovaps 0x3c0(%rsp), %ymm29
vmovaps 0x3a0(%rsp), %ymm28
jmp 0x1cdadc5
testb $0x1, %r14b
jne 0x1cdc3a0
vmovaps 0x380(%rsp), %ymm0
vcmpleps 0x200(%r11,%r9,4){1to8}, %ymm0, %k0
kmovb %k0, %eax
andl %eax, %r12d
setne 0xf(%rsp)
jne 0x1cda65e
movb 0xf(%rsp), %al
andb $0x1, %al
leaq -0x28(%rbp), %rsp
popq %rbx
popq %r12
popq %r13
popq %r14
popq %r15
popq %rbp
vzeroupper
retq
|
/embree[P]embree/kernels/geometry/curveNi_intersector.h
|
embree::avx512::VirtualCurveIntersector8i()
|
VirtualCurveIntersector* VirtualCurveIntersector8i()
{
static VirtualCurveIntersector function_local_static_prim = []()
{
VirtualCurveIntersector intersector;
intersector.vtbl[Geometry::GTY_SPHERE_POINT] = SphereNiIntersectors<8>();
intersector.vtbl[Geometry::GTY_DISC_POINT] = DiscNiIntersectors<8>();
intersector.vtbl[Geometry::GTY_ORIENTED_DISC_POINT] = OrientedDiscNiIntersectors<8>();
intersector.vtbl[Geometry::GTY_CONE_LINEAR_CURVE ] = LinearConeNiIntersectors<8>();
intersector.vtbl[Geometry::GTY_ROUND_LINEAR_CURVE ] = LinearRoundConeNiIntersectors<8>();
intersector.vtbl[Geometry::GTY_FLAT_LINEAR_CURVE ] = LinearRibbonNiIntersectors<8>();
intersector.vtbl[Geometry::GTY_ROUND_BEZIER_CURVE] = CurveNiIntersectors <BezierCurveT,8>();
intersector.vtbl[Geometry::GTY_FLAT_BEZIER_CURVE ] = RibbonNiIntersectors<BezierCurveT,8>();
intersector.vtbl[Geometry::GTY_ORIENTED_BEZIER_CURVE] = OrientedCurveNiIntersectors<BezierCurveT,8>();
intersector.vtbl[Geometry::GTY_ROUND_BSPLINE_CURVE] = CurveNiIntersectors <BSplineCurveT,8>();
intersector.vtbl[Geometry::GTY_FLAT_BSPLINE_CURVE ] = RibbonNiIntersectors<BSplineCurveT,8>();
intersector.vtbl[Geometry::GTY_ORIENTED_BSPLINE_CURVE] = OrientedCurveNiIntersectors<BSplineCurveT,8>();
intersector.vtbl[Geometry::GTY_ROUND_HERMITE_CURVE] = HermiteCurveNiIntersectors <HermiteCurveT,8>();
intersector.vtbl[Geometry::GTY_FLAT_HERMITE_CURVE ] = HermiteRibbonNiIntersectors<HermiteCurveT,8>();
intersector.vtbl[Geometry::GTY_ORIENTED_HERMITE_CURVE] = HermiteOrientedCurveNiIntersectors<HermiteCurveT,8>();
intersector.vtbl[Geometry::GTY_ROUND_CATMULL_ROM_CURVE] = CurveNiIntersectors <CatmullRomCurveT,8>();
intersector.vtbl[Geometry::GTY_FLAT_CATMULL_ROM_CURVE ] = RibbonNiIntersectors<CatmullRomCurveT,8>();
intersector.vtbl[Geometry::GTY_ORIENTED_CATMULL_ROM_CURVE] = OrientedCurveNiIntersectors<CatmullRomCurveT,8>();
return intersector;
}();
return &function_local_static_prim;
}
|
movb 0x473292(%rip), %al # 0x214f650
testb %al, %al
je 0x1cdc3ca
leaq 0x472a87(%rip), %rax # 0x214ee50
retq
pushq %rax
callq 0x60bfd2
addq $0x8, %rsp
jmp 0x1cdc3c2
|
/embree[P]embree/kernels/geometry/curve_intersector_virtual_8i.cpp
|
void embree::avx512::CurveNiIntersector1<8>::intersect_t<embree::avx512::SweepCurve1Intersector1<embree::BezierCurveT>, embree::avx512::Intersect1Epilog1<true>>(embree::avx512::CurvePrecalculations1 const&, embree::RayHitK<1>&, embree::RayQueryContext*, embree::CurveNi<8> const&)
|
static __forceinline void intersect_t(const Precalculations& pre, RayHit& ray, RayQueryContext* context, const Primitive& prim)
{
vfloat<M> tNear;
vbool<M> valid = intersect(ray,prim,tNear);
const size_t N = prim.N;
size_t mask = movemask(valid);
while (mask)
{
const size_t i = bscf(mask);
STAT3(normal.trav_prims,1,1,1);
const unsigned int geomID = prim.geomID(N);
const unsigned int primID = prim.primID(N)[i];
const CurveGeometry* geom = context->scene->get<CurveGeometry>(geomID);
Vec3ff a0,a1,a2,a3; geom->gather(a0,a1,a2,a3,geom->curve(primID));
size_t mask1 = mask;
const size_t i1 = bscf(mask1);
if (mask) {
const unsigned int primID1 = prim.primID(N)[i1];
geom->prefetchL1_vertices(geom->curve(primID1));
if (mask1) {
const size_t i2 = bsf(mask1);
const unsigned int primID2 = prim.primID(N)[i2];
geom->prefetchL2_vertices(geom->curve(primID2));
}
}
Intersector().intersect(pre,ray,context,geom,primID,a0,a1,a2,a3,Epilog(ray,context,geomID,primID));
mask &= movemask(tNear <= vfloat<M>(ray.tfar));
}
}
|
pushq %rbp
movq %rsp, %rbp
pushq %r15
pushq %r14
pushq %r13
pushq %r12
pushq %rbx
andq $-0x20, %rsp
subq $0x880, %rsp # imm = 0x880
movq %rcx, %r9
movzbl 0x1(%rcx), %ecx
leaq (%rcx,%rcx,4), %rax
leaq (%rax,%rax,4), %rdi
vbroadcastss 0x12(%r9,%rdi), %xmm0
movq %rdx, %r13
movq %rsi, %r15
vmovaps (%rsi), %xmm1
vsubps 0x6(%r9,%rdi), %xmm1, %xmm1
vmulps %xmm1, %xmm0, %xmm3
vmulps 0x10(%rsi), %xmm0, %xmm0
vpmovsxbd 0x6(%r9,%rcx,4), %ymm1
vpmovsxbd 0x6(%r9,%rax), %ymm2
vcvtdq2ps %ymm1, %ymm5
vcvtdq2ps %ymm2, %ymm6
leaq (%rcx,%rcx,2), %rdx
vpmovsxbd 0x6(%r9,%rdx,2), %ymm1
vcvtdq2ps %ymm1, %ymm4
leaq (%rcx,%rax,2), %rsi
vpmovsxbd 0x6(%r9,%rsi), %ymm1
leal (,%rdx,4), %esi
vpmovsxbd 0x6(%r9,%rsi), %ymm2
vcvtdq2ps %ymm1, %ymm7
vcvtdq2ps %ymm2, %ymm8
addq %rcx, %rsi
vpmovsxbd 0x6(%r9,%rsi), %ymm1
vcvtdq2ps %ymm1, %ymm9
leaq (%rcx,%rcx,8), %rsi
leal (%rsi,%rsi), %edi
vpmovsxbd 0x6(%r9,%rdi), %ymm1
vcvtdq2ps %ymm1, %ymm10
addq %rcx, %rdi
vpmovsxbd 0x6(%r9,%rdi), %ymm1
vcvtdq2ps %ymm1, %ymm11
shll $0x2, %eax
vpmovsxbd 0x6(%r9,%rax), %ymm1
vcvtdq2ps %ymm1, %ymm12
vbroadcastss %xmm0, %ymm13
vbroadcastss 0x235a74(%rip), %ymm15 # 0x1f12704
vbroadcastss 0x244242(%rip), %ymm16 # 0x1f20edc
vpermps %ymm0, %ymm15, %ymm14
vpermps %ymm0, %ymm16, %ymm0
vmulps %ymm4, %ymm0, %ymm2
vmulps %ymm0, %ymm9, %ymm1
vmulps %ymm0, %ymm12, %ymm0
vfmadd231ps %ymm6, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm6) + ymm2
vfmadd231ps %ymm8, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm8) + ymm1
vfmadd231ps %ymm14, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm14) + ymm0
vfmadd231ps %ymm5, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm5) + ymm2
vfmadd231ps %ymm7, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm7) + ymm1
vfmadd231ps %ymm13, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm13) + ymm0
vbroadcastss %xmm3, %ymm13
vpermps %ymm3, %ymm15, %ymm14
vpermps %ymm3, %ymm16, %ymm3
vmulps %ymm4, %ymm3, %ymm15
vmulps %ymm3, %ymm9, %ymm4
vmulps %ymm3, %ymm12, %ymm3
vfmadd231ps %ymm6, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm6) + ymm15
vfmadd231ps %ymm8, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm8) + ymm4
vfmadd231ps %ymm11, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm11) + ymm3
vfmadd231ps %ymm5, %ymm13, %ymm15 # ymm15 = (ymm13 * ymm5) + ymm15
vfmadd231ps %ymm7, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm7) + ymm4
vbroadcastss 0x2441b7(%rip), %ymm6 # 0x1f20ec4
vfmadd231ps %ymm10, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm10) + ymm3
vandps %ymm6, %ymm2, %ymm5
vbroadcastss 0x2142c9(%rip), %ymm7 # 0x1ef0fe8
vcmpltps %ymm7, %ymm5, %k1
vmovaps %ymm7, %ymm2 {%k1}
vandps %ymm6, %ymm1, %ymm5
vcmpltps %ymm7, %ymm5, %k1
vmovaps %ymm7, %ymm1 {%k1}
vandps %ymm6, %ymm0, %ymm5
vcmpltps %ymm7, %ymm5, %k1
vmovaps %ymm7, %ymm0 {%k1}
vrcp14ps %ymm2, %ymm5
vbroadcastss 0x20f9b7(%rip), %ymm6 # 0x1eec714
vfnmadd213ps %ymm6, %ymm5, %ymm2 # ymm2 = -(ymm5 * ymm2) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm2 # ymm2 = (ymm2 * ymm5) + ymm5
vrcp14ps %ymm1, %ymm5
vfnmadd213ps %ymm6, %ymm5, %ymm1 # ymm1 = -(ymm5 * ymm1) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm1 # ymm1 = (ymm1 * ymm5) + ymm5
vrcp14ps %ymm0, %ymm5
vfnmadd213ps %ymm6, %ymm5, %ymm0 # ymm0 = -(ymm5 * ymm0) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm0 # ymm0 = (ymm0 * ymm5) + ymm5
leaq (,%rcx,8), %rdi
subq %rcx, %rdi
vpmovsxwd 0x6(%r9,%rdi), %ymm5
vcvtdq2ps %ymm5, %ymm5
vsubps %ymm15, %ymm5, %ymm5
vmulps %ymm5, %ymm2, %ymm5
vpmovsxwd 0x6(%r9,%rsi), %ymm6
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm15, %ymm6, %ymm6
leaq (%rcx,%rcx), %rsi
addq %rcx, %rax
shlq $0x3, %rdx
subq %rcx, %rdx
vpbroadcastd %ecx, %ymm7
shll $0x4, %ecx
vpmovsxwd 0x6(%r9,%rcx), %ymm8
vmulps %ymm6, %ymm2, %ymm2
subq %rsi, %rcx
vpmovsxwd 0x6(%r9,%rcx), %ymm6
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm4, %ymm6, %ymm6
vmulps %ymm6, %ymm1, %ymm6
vcvtdq2ps %ymm8, %ymm8
vsubps %ymm4, %ymm8, %ymm4
vmulps %ymm4, %ymm1, %ymm1
vpmovsxwd 0x6(%r9,%rax), %ymm4
vcvtdq2ps %ymm4, %ymm4
vsubps %ymm3, %ymm4, %ymm4
vmulps %ymm0, %ymm4, %ymm4
vpmovsxwd 0x6(%r9,%rdx), %ymm8
vcvtdq2ps %ymm8, %ymm8
vsubps %ymm3, %ymm8, %ymm3
vmulps %ymm3, %ymm0, %ymm0
vpminsd %ymm2, %ymm5, %ymm3
vpminsd %ymm1, %ymm6, %ymm8
vmaxps %ymm8, %ymm3, %ymm3
vpminsd %ymm0, %ymm4, %ymm8
vmaxps 0xc(%r15){1to8}, %ymm8, %ymm8
vmaxps %ymm8, %ymm3, %ymm3
vmulps 0x2430c4(%rip){1to8}, %ymm3, %ymm3 # 0x1f1ff10
vpmaxsd %ymm2, %ymm5, %ymm2
vpmaxsd %ymm1, %ymm6, %ymm1
vminps %ymm1, %ymm2, %ymm1
vpmaxsd %ymm0, %ymm4, %ymm0
vminps 0x20(%r15){1to8}, %ymm0, %ymm0
vminps %ymm0, %ymm1, %ymm0
vmulps 0x2430a0(%rip){1to8}, %ymm0, %ymm0 # 0x1f1ff14
vpcmpgtd 0x27daa2(%rip), %ymm7, %k0 # 0x1f5a920
vmovaps %ymm3, 0x500(%rsp)
vcmpleps %ymm0, %ymm3, %k1
ktestb %k0, %k1
je 0x1cdf29b
kandb %k0, %k1, %k0
kmovd %k0, %eax
movzbl %al, %r10d
vxorps %xmm12, %xmm12, %xmm12
movq %r13, 0x10(%rsp)
movq %r9, 0x188(%rsp)
tzcntq %r10, %rax
movl 0x2(%r9), %ecx
movl 0x6(%r9,%rax,4), %edi
movq (%r13), %rax
movq 0x1e8(%rax), %rax
movq %rcx, 0x38(%rsp)
movq (%rax,%rcx,8), %rsi
movq 0x58(%rsi), %rax
movq 0x68(%rsi), %rcx
movq %rcx, %rdx
movq %rdi, 0x78(%rsp)
imulq %rdi, %rdx
movl (%rax,%rdx), %edi
movq 0xa0(%rsi), %rdx
movq %rdx, %r8
imulq %rdi, %r8
movq 0x90(%rsi), %rsi
vmovaps (%rsi,%r8), %xmm1
leaq 0x1(%rdi), %r8
imulq %rdx, %r8
vmovaps (%rsi,%r8), %xmm0
leaq 0x2(%rdi), %r8
imulq %rdx, %r8
vmovaps (%rsi,%r8), %xmm3
blsrq %r10, %r10
addq $0x3, %rdi
imulq %rdx, %rdi
vmovaps (%rsi,%rdi), %xmm2
movq %r10, %rdi
subq $0x1, %rdi
jb 0x1cdcf88
andq %r10, %rdi
tzcntq %r10, %r8
movl 0x6(%r9,%r8,4), %r8d
imulq %rcx, %r8
movl (%rax,%r8), %r8d
imulq %rdx, %r8
prefetcht0 (%rsi,%r8)
prefetcht0 0x40(%rsi,%r8)
testq %rdi, %rdi
je 0x1cdcf88
tzcntq %rdi, %rdi
movl 0x6(%r9,%rdi,4), %edi
imulq %rdi, %rcx
movl (%rax,%rcx), %eax
imulq %rax, %rdx
prefetcht1 (%rsi,%rdx)
prefetcht1 0x40(%rsi,%rdx)
vaddps %xmm0, %xmm1, %xmm4
vaddps %xmm3, %xmm4, %xmm4
vaddps %xmm2, %xmm4, %xmm5
vmovaps (%r15), %xmm6
vmovaps 0x10(%r15), %xmm4
vmulps 0x240353(%rip){1to4}, %xmm5, %xmm5 # 0x1f1d2fc
vsubps %xmm6, %xmm5, %xmm5
vdpps $0x7f, %xmm4, %xmm5, %xmm5
vdpps $0x7f, %xmm4, %xmm4, %xmm7
vmovss %xmm7, %xmm12, %xmm8 # xmm8 = xmm7[0],xmm12[1,2,3]
vrcp14ss %xmm8, %xmm12, %xmm8
vmovaps %xmm8, %xmm9
vfnmadd213ss 0x214027(%rip), %xmm7, %xmm9 # xmm9 = -(xmm7 * xmm9) + mem
vmulss %xmm9, %xmm8, %xmm7
vmulss %xmm7, %xmm5, %xmm5
vmovaps %xmm5, 0x230(%rsp)
vbroadcastss %xmm5, %ymm7
vfmadd231ps %xmm7, %xmm4, %xmm6 # xmm6 = (xmm4 * xmm7) + xmm6
vblendps $0x8, %xmm12, %xmm6, %xmm5 # xmm5 = xmm6[0,1,2],xmm12[3]
vsubps %xmm5, %xmm1, %xmm6
vbroadcastss 0x10(%r15), %ymm8
vsubps %xmm5, %xmm3, %xmm3
vbroadcastss 0x14(%r15), %ymm9
vbroadcastss 0x18(%r15), %ymm1
vmovaps %ymm1, 0x360(%rsp)
vsubps %xmm5, %xmm0, %xmm10
vsubps %xmm5, %xmm2, %xmm5
vbroadcastss %xmm6, %ymm0
vmovaps %ymm0, 0x720(%rsp)
vbroadcastss 0x2356cf(%rip), %ymm0 # 0x1f12704
vpermps %ymm6, %ymm0, %ymm1
vmovaps %ymm1, 0x700(%rsp)
vbroadcastss 0x243e90(%rip), %ymm1 # 0x1f20edc
vpermps %ymm6, %ymm1, %ymm2
vmovaps %ymm2, 0x6e0(%rsp)
vbroadcastss 0x243e75(%rip), %ymm2 # 0x1f20ed8
vmovaps %ymm6, 0x300(%rsp)
vpermps %ymm6, %ymm2, %ymm6
vmovaps %ymm6, 0x6c0(%rsp)
vbroadcastss %xmm10, %ymm6
vmovaps %ymm6, 0x6a0(%rsp)
vpermps %ymm10, %ymm0, %ymm6
vmovaps %ymm6, 0x680(%rsp)
vpermps %ymm10, %ymm1, %ymm6
vmovaps %ymm6, 0x660(%rsp)
vmovaps %ymm10, 0x2c0(%rsp)
vpermps %ymm10, %ymm2, %ymm6
vmovaps %ymm6, 0x640(%rsp)
vbroadcastss %xmm3, %ymm6
vmovaps %ymm6, 0x620(%rsp)
vpermps %ymm3, %ymm0, %ymm6
vmovaps %ymm6, 0x600(%rsp)
vpermps %ymm3, %ymm1, %ymm6
vmovaps %ymm6, 0x5e0(%rsp)
vmovaps %ymm3, 0x2e0(%rsp)
vpermps %ymm3, %ymm2, %ymm3
vmovaps %ymm3, 0x5c0(%rsp)
vbroadcastss %xmm5, %ymm3
vmovaps %ymm3, 0x5a0(%rsp)
vpermps %ymm5, %ymm0, %ymm0
vmovaps %ymm0, 0x580(%rsp)
vpermps %ymm5, %ymm1, %ymm0
vmovaps %ymm0, 0x560(%rsp)
vmovaps %ymm5, 0x2a0(%rsp)
vpermps %ymm5, %ymm2, %ymm0
vmovaps %ymm0, 0x540(%rsp)
vmulps %xmm4, %xmm4, %xmm0
vpermps %ymm0, %ymm1, %ymm0
vmovaps %ymm9, 0x380(%rsp)
vfmadd231ps %ymm9, %ymm9, %ymm0 # ymm0 = (ymm9 * ymm9) + ymm0
vmovaps %ymm8, 0x3a0(%rsp)
vfmadd231ps %ymm8, %ymm8, %ymm0 # ymm0 = (ymm8 * ymm8) + ymm0
vmovaps %ymm0, 0x520(%rsp)
vandps 0x243d4f(%rip){1to8}, %ymm0, %ymm0 # 0x1f20ec4
vmovaps %ymm0, 0x440(%rsp)
movl $0x1, %r11d
xorl %r8d, %r8d
vmovsd 0x20f561(%rip), %xmm3 # 0x1eec6f0
vmovaps %ymm7, 0x1e0(%rsp)
vmovshdup %xmm3, %xmm0 # xmm0 = xmm3[1,1,3,3]
vsubss %xmm3, %xmm0, %xmm1
vmulss 0x243d28(%rip), %xmm1, %xmm6 # 0x1f20ed0
vmovaps %xmm3, 0x140(%rsp)
vbroadcastss %xmm3, %ymm5
vbroadcastss %xmm1, %ymm0
vmovaps %ymm5, 0x40(%rsp)
vmovaps %ymm0, 0x1c0(%rsp)
vfmadd231ps 0x243d4d(%rip), %ymm0, %ymm5 # ymm5 = (ymm0 * mem) + ymm5
vbroadcastss 0x20f538(%rip), %ymm0 # 0x1eec714
vsubps %ymm5, %ymm0, %ymm7
vmovaps 0x6a0(%rsp), %ymm1
vmulps %ymm5, %ymm1, %ymm2
vmovaps 0x680(%rsp), %ymm13
vmulps %ymm5, %ymm13, %ymm3
vmovaps 0x660(%rsp), %ymm14
vmulps %ymm5, %ymm14, %ymm4
vmovaps 0x640(%rsp), %ymm15
vmulps %ymm5, %ymm15, %ymm8
vfmadd231ps 0x720(%rsp), %ymm7, %ymm2 # ymm2 = (ymm7 * mem) + ymm2
vfmadd231ps 0x700(%rsp), %ymm7, %ymm3 # ymm3 = (ymm7 * mem) + ymm3
vfmadd231ps 0x6e0(%rsp), %ymm7, %ymm4 # ymm4 = (ymm7 * mem) + ymm4
vfmadd231ps 0x6c0(%rsp), %ymm7, %ymm8 # ymm8 = (ymm7 * mem) + ymm8
vmovaps 0x620(%rsp), %ymm17
vmulps %ymm5, %ymm17, %ymm9
vmovaps 0x600(%rsp), %ymm18
vmulps %ymm5, %ymm18, %ymm10
vmovaps 0x5e0(%rsp), %ymm19
vmulps %ymm5, %ymm19, %ymm11
vmovaps 0x5c0(%rsp), %ymm20
vmulps %ymm5, %ymm20, %ymm12
vfmadd231ps %ymm1, %ymm7, %ymm9 # ymm9 = (ymm7 * ymm1) + ymm9
vfmadd231ps %ymm13, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm13) + ymm10
vfmadd231ps %ymm14, %ymm7, %ymm11 # ymm11 = (ymm7 * ymm14) + ymm11
vfmadd231ps %ymm15, %ymm7, %ymm12 # ymm12 = (ymm7 * ymm15) + ymm12
vmulps 0x5a0(%rsp), %ymm5, %ymm13
vmulps 0x580(%rsp), %ymm5, %ymm14
vmulps 0x560(%rsp), %ymm5, %ymm15
vmulps 0x540(%rsp), %ymm5, %ymm16
vfmadd231ps %ymm17, %ymm7, %ymm13 # ymm13 = (ymm7 * ymm17) + ymm13
vfmadd231ps %ymm18, %ymm7, %ymm14 # ymm14 = (ymm7 * ymm18) + ymm14
vfmadd231ps %ymm19, %ymm7, %ymm15 # ymm15 = (ymm7 * ymm19) + ymm15
vfmadd231ps %ymm20, %ymm7, %ymm16 # ymm16 = (ymm7 * ymm20) + ymm16
vmulps %ymm9, %ymm5, %ymm17
vmulps %ymm10, %ymm5, %ymm18
vmulps %ymm11, %ymm5, %ymm19
vmulps %ymm12, %ymm5, %ymm20
vfmadd231ps %ymm2, %ymm7, %ymm17 # ymm17 = (ymm7 * ymm2) + ymm17
vfmadd231ps %ymm3, %ymm7, %ymm18 # ymm18 = (ymm7 * ymm3) + ymm18
vfmadd231ps %ymm4, %ymm7, %ymm19 # ymm19 = (ymm7 * ymm4) + ymm19
vfmadd231ps %ymm8, %ymm7, %ymm20 # ymm20 = (ymm7 * ymm8) + ymm20
vmulps %ymm5, %ymm13, %ymm8
vmulps %ymm5, %ymm14, %ymm13
vmulps %ymm5, %ymm15, %ymm14
vmulps %ymm16, %ymm5, %ymm15
vfmadd231ps %ymm9, %ymm7, %ymm8 # ymm8 = (ymm7 * ymm9) + ymm8
vfmadd231ps %ymm10, %ymm7, %ymm13 # ymm13 = (ymm7 * ymm10) + ymm13
vfmadd231ps %ymm11, %ymm7, %ymm14 # ymm14 = (ymm7 * ymm11) + ymm14
vfmadd231ps %ymm12, %ymm7, %ymm15 # ymm15 = (ymm7 * ymm12) + ymm15
vmulps %ymm5, %ymm8, %ymm4
vmulps %ymm5, %ymm13, %ymm3
vmulps %ymm5, %ymm14, %ymm2
vmulps %ymm5, %ymm15, %ymm5
vfmadd231ps %ymm17, %ymm7, %ymm4 # ymm4 = (ymm7 * ymm17) + ymm4
vfmadd231ps %ymm18, %ymm7, %ymm3 # ymm3 = (ymm7 * ymm18) + ymm3
vfmadd231ps %ymm19, %ymm7, %ymm2 # ymm2 = (ymm7 * ymm19) + ymm2
vfmadd231ps %ymm7, %ymm20, %ymm5 # ymm5 = (ymm20 * ymm7) + ymm5
vsubps %ymm17, %ymm8, %ymm7
vsubps %ymm18, %ymm13, %ymm8
vsubps %ymm19, %ymm14, %ymm9
vsubps %ymm20, %ymm15, %ymm10
vbroadcastss 0x213c8a(%rip), %ymm1 # 0x1ef0fec
vmulps %ymm1, %ymm7, %ymm7
vmulps %ymm1, %ymm8, %ymm8
vmulps %ymm1, %ymm9, %ymm9
vmulps %ymm1, %ymm10, %ymm10
vbroadcastss %xmm6, %ymm6
vmulps %ymm7, %ymm6, %ymm11
vmulps %ymm6, %ymm8, %ymm12
vmulps %ymm6, %ymm9, %ymm13
vmulps %ymm6, %ymm10, %ymm6
vmovaps %ymm4, %ymm8
vmovaps 0x28298d(%rip), %ymm1 # 0x1f5fd20
vxorps %xmm31, %xmm31, %xmm31
vpermt2ps %ymm31, %ymm1, %ymm8
vmovaps %ymm3, %ymm9
vpermt2ps %ymm31, %ymm1, %ymm9
vmovaps %ymm2, %ymm10
vpermt2ps %ymm31, %ymm1, %ymm10
vaddps %ymm6, %ymm5, %ymm7
vmaxps %ymm7, %ymm5, %ymm14
vminps %ymm7, %ymm5, %ymm15
vmovaps %ymm5, %ymm16
vpermt2ps %ymm31, %ymm1, %ymm16
vmovaps %ymm11, %ymm19
vpermt2ps %ymm31, %ymm1, %ymm19
vmovaps %ymm12, %ymm20
vpermt2ps %ymm31, %ymm1, %ymm20
vmovaps %ymm13, %ymm21
vpermt2ps %ymm31, %ymm1, %ymm21
vpermt2ps %ymm31, %ymm1, %ymm6
vsubps %ymm6, %ymm16, %ymm17
vsubps %ymm4, %ymm8, %ymm7
vsubps %ymm3, %ymm9, %ymm6
vsubps %ymm2, %ymm10, %ymm5
vmulps %ymm13, %ymm6, %ymm18
vfmsub231ps %ymm5, %ymm12, %ymm18 # ymm18 = (ymm12 * ymm5) - ymm18
vmulps %ymm11, %ymm5, %ymm22
vfmsub231ps %ymm7, %ymm13, %ymm22 # ymm22 = (ymm13 * ymm7) - ymm22
vmulps %ymm12, %ymm7, %ymm23
vfmsub231ps %ymm6, %ymm11, %ymm23 # ymm23 = (ymm11 * ymm6) - ymm23
vmulps %ymm23, %ymm23, %ymm23
vfmadd231ps %ymm22, %ymm22, %ymm23 # ymm23 = (ymm22 * ymm22) + ymm23
vfmadd231ps %ymm18, %ymm18, %ymm23 # ymm23 = (ymm18 * ymm18) + ymm23
vmulps %ymm5, %ymm5, %ymm18
vfmadd231ps %ymm6, %ymm6, %ymm18 # ymm18 = (ymm6 * ymm6) + ymm18
vfmadd231ps %ymm7, %ymm7, %ymm18 # ymm18 = (ymm7 * ymm7) + ymm18
vrcp14ps %ymm18, %ymm22
vmovaps %ymm22, %ymm24
vfnmadd213ps %ymm0, %ymm18, %ymm24 # ymm24 = -(ymm18 * ymm24) + ymm0
vfmadd132ps %ymm22, %ymm22, %ymm24 # ymm24 = (ymm24 * ymm22) + ymm22
vmulps %ymm24, %ymm23, %ymm22
vmulps %ymm21, %ymm6, %ymm23
vfmsub231ps %ymm5, %ymm20, %ymm23 # ymm23 = (ymm20 * ymm5) - ymm23
vmulps %ymm19, %ymm5, %ymm25
vfmsub231ps %ymm7, %ymm21, %ymm25 # ymm25 = (ymm21 * ymm7) - ymm25
vmulps %ymm20, %ymm7, %ymm26
vfmsub231ps %ymm6, %ymm19, %ymm26 # ymm26 = (ymm19 * ymm6) - ymm26
vmulps %ymm26, %ymm26, %ymm26
vfmadd231ps %ymm25, %ymm25, %ymm26 # ymm26 = (ymm25 * ymm25) + ymm26
vfmadd231ps %ymm23, %ymm23, %ymm26 # ymm26 = (ymm23 * ymm23) + ymm26
vmulps %ymm24, %ymm26, %ymm23
vmaxps %ymm23, %ymm22, %ymm22
vsqrtps %ymm22, %ymm22
vmaxps %ymm16, %ymm17, %ymm23
vmaxps %ymm23, %ymm14, %ymm14
vaddps %ymm14, %ymm22, %ymm14
vminps %ymm16, %ymm17, %ymm16
vminps %ymm16, %ymm15, %ymm15
vsubps %ymm22, %ymm15, %ymm15
vmulps 0x21345d(%rip){1to8}, %ymm14, %ymm14 # 0x1ef0940
vmulps 0x213457(%rip){1to8}, %ymm15, %ymm1 # 0x1ef0944
vmovaps %ymm1, 0x1a0(%rsp)
vmulps %ymm14, %ymm14, %ymm23
vrsqrt14ps %ymm18, %ymm15
vmulps 0x20f210(%rip){1to8}, %ymm18, %ymm14 # 0x1eec71c
vmulps %ymm14, %ymm15, %ymm14
vmulps %ymm15, %ymm15, %ymm16
vmulps %ymm14, %ymm16, %ymm14
vfmadd231ps 0x20f1f1(%rip){1to8}, %ymm15, %ymm14 # ymm14 = (ymm15 * mem) + ymm14
vmulps %ymm7, %ymm14, %ymm15
vmulps %ymm14, %ymm6, %ymm16
vmulps %ymm14, %ymm5, %ymm18
vsubps %ymm4, %ymm31, %ymm27
vsubps %ymm3, %ymm31, %ymm28
vsubps %ymm2, %ymm31, %ymm29
vmovaps 0x360(%rsp), %ymm17
vmulps %ymm29, %ymm17, %ymm22
vmovaps 0x380(%rsp), %ymm25
vfmadd231ps %ymm28, %ymm25, %ymm22 # ymm22 = (ymm25 * ymm28) + ymm22
vmovaps 0x3a0(%rsp), %ymm1
vfmadd231ps %ymm27, %ymm1, %ymm22 # ymm22 = (ymm1 * ymm27) + ymm22
vmulps %ymm29, %ymm29, %ymm24
vfmadd231ps %ymm28, %ymm28, %ymm24 # ymm24 = (ymm28 * ymm28) + ymm24
vfmadd231ps %ymm27, %ymm27, %ymm24 # ymm24 = (ymm27 * ymm27) + ymm24
vmulps %ymm18, %ymm17, %ymm17
vfmadd231ps %ymm25, %ymm16, %ymm17 # ymm17 = (ymm16 * ymm25) + ymm17
vfmadd231ps %ymm1, %ymm15, %ymm17 # ymm17 = (ymm15 * ymm1) + ymm17
vmulps %ymm18, %ymm29, %ymm18
vfmadd231ps %ymm16, %ymm28, %ymm18 # ymm18 = (ymm28 * ymm16) + ymm18
vfmadd231ps %ymm15, %ymm27, %ymm18 # ymm18 = (ymm27 * ymm15) + ymm18
vmulps %ymm17, %ymm17, %ymm16
vmovaps 0x520(%rsp), %ymm1
vsubps %ymm16, %ymm1, %ymm15
vmulps %ymm18, %ymm17, %ymm25
vsubps %ymm25, %ymm22, %ymm22
vaddps %ymm22, %ymm22, %ymm22
vmulps %ymm18, %ymm18, %ymm25
vsubps %ymm25, %ymm24, %ymm25
vsubps %ymm23, %ymm25, %ymm23
vmulps %ymm22, %ymm22, %ymm1
vmulps 0x20f599(%rip){1to8}, %ymm15, %ymm26 # 0x1eecb8c
vmulps %ymm23, %ymm26, %ymm30
vmovaps %ymm1, 0xa0(%rsp)
vsubps %ymm30, %ymm1, %ymm30
vcmpnltps %ymm31, %ymm30, %k1
kmovd %k1, %eax
kortestb %k1, %k1
je 0x1cdd6f9
vsqrtps %ymm30, %ymm30
vaddps %ymm15, %ymm15, %ymm31
vrcp14ps %ymm31, %ymm1
vfnmadd213ps %ymm0, %ymm1, %ymm31 # ymm31 = -(ymm1 * ymm31) + ymm0
vfmadd132ps %ymm1, %ymm1, %ymm31 # ymm31 = (ymm31 * ymm1) + ymm1
vxorps 0x24387b(%rip){1to8}, %ymm22, %ymm1 # 0x1f20ec0
vsubps %ymm30, %ymm1, %ymm1
vmulps %ymm31, %ymm1, %ymm1
vsubps %ymm22, %ymm30, %ymm30
vmulps %ymm31, %ymm30, %ymm30
vmovaps %ymm17, %ymm31
vfmadd213ps %ymm18, %ymm1, %ymm31 # ymm31 = (ymm1 * ymm31) + ymm18
vmulps %ymm31, %ymm14, %ymm31
vmovaps %ymm31, 0x400(%rsp)
vmovaps %ymm17, %ymm31
vfmadd213ps %ymm18, %ymm30, %ymm31 # ymm31 = (ymm30 * ymm31) + ymm18
vmulps %ymm31, %ymm14, %ymm31
vmovaps %ymm31, 0x3e0(%rsp)
vbroadcastss 0x20e386(%rip), %ymm0 # 0x1eeba20
vblendmps %ymm1, %ymm0, %ymm31 {%k1}
vbroadcastss 0x20f4db(%rip), %ymm0 # 0x1eecb84
vblendmps %ymm30, %ymm0, %ymm30 {%k1}
vbroadcastss 0x24380c(%rip), %ymm0 # 0x1f20ec4
vmovaps %ymm16, %ymm24
vandps %ymm0, %ymm16, %ymm1
vmovaps 0x440(%rsp), %ymm16
vmaxps %ymm1, %ymm16, %ymm1
vmulps 0x2147d8(%rip){1to8}, %ymm1, %ymm1 # 0x1ef1eb4
vandps %ymm0, %ymm15, %ymm0
vcmpltps %ymm1, %ymm0, %k1 {%k1}
kortestb %k1, %k1
jne 0x1cdf230
vmovaps %ymm24, %ymm16
jmp 0x1cdd70d
vbroadcastss 0x20e31d(%rip), %ymm31 # 0x1eeba20
vbroadcastss 0x20f477(%rip), %ymm30 # 0x1eecb84
andb $0x7f, %al
je 0x1cddb34
vmovaps %ymm25, 0x80(%rsp)
vmovaps %ymm16, 0x200(%rsp)
vmovss 0xc(%r15), %xmm0
vmovss 0x20(%r15), %xmm1
vmovaps 0x230(%rsp), %xmm23
vsubss %xmm23, %xmm0, %xmm0
vbroadcastss %xmm0, %ymm0
vmaxps %ymm31, %ymm0, %ymm0
vsubss %xmm23, %xmm1, %xmm1
vbroadcastss %xmm1, %ymm1
vminps %ymm30, %ymm1, %ymm1
vmulps %ymm13, %ymm29, %ymm23
vfmadd213ps %ymm23, %ymm12, %ymm28 # ymm28 = (ymm12 * ymm28) + ymm23
vfmadd213ps %ymm28, %ymm11, %ymm27 # ymm27 = (ymm11 * ymm27) + ymm28
vmovaps 0x360(%rsp), %ymm25
vmulps %ymm13, %ymm25, %ymm13
vmovaps 0x380(%rsp), %ymm24
vfmadd231ps %ymm12, %ymm24, %ymm13 # ymm13 = (ymm24 * ymm12) + ymm13
vmovaps 0x3a0(%rsp), %ymm16
vfmadd231ps %ymm11, %ymm16, %ymm13 # ymm13 = (ymm16 * ymm11) + ymm13
vbroadcastss 0x243723(%rip), %ymm28 # 0x1f20ec4
vandps %ymm28, %ymm13, %ymm11
vbroadcastss 0x213837(%rip), %ymm29 # 0x1ef0fe8
vcmpltps %ymm29, %ymm11, %k0
vbroadcastss 0x2436fe(%rip), %ymm31 # 0x1f20ec0
vxorps %ymm31, %ymm27, %ymm11
vrcp14ps %ymm13, %ymm12
vxorps %ymm31, %ymm13, %ymm23
vmovaps %ymm12, %ymm27
vbroadcastss 0x20ef30(%rip), %ymm30 # 0x1eec714
vfnmadd213ps %ymm30, %ymm13, %ymm27 # ymm27 = -(ymm13 * ymm27) + ymm30
vfmadd132ps %ymm12, %ymm12, %ymm27 # ymm27 = (ymm27 * ymm12) + ymm12
vmulps %ymm11, %ymm27, %ymm11
vcmpltps %ymm23, %ymm13, %k1
korb %k1, %k0, %k1
vbroadcastss 0x20f379(%rip), %ymm27 # 0x1eecb84
vblendmps %ymm27, %ymm11, %ymm12 {%k1}
vmaxps %ymm12, %ymm0, %ymm0
vcmpnleps %ymm23, %ymm13, %k1
korb %k1, %k0, %k1
vbroadcastss 0x20e1f5(%rip), %ymm23 # 0x1eeba20
vmovaps %ymm23, %ymm11 {%k1}
vminps %ymm11, %ymm1, %ymm1
vxorps %xmm13, %xmm13, %xmm13
vsubps %ymm8, %ymm13, %ymm8
vsubps %ymm9, %ymm13, %ymm9
vsubps %ymm10, %ymm13, %ymm10
vmulps %ymm21, %ymm10, %ymm10
vfnmsub231ps %ymm9, %ymm20, %ymm10 # ymm10 = -(ymm20 * ymm9) - ymm10
vfnmadd231ps %ymm8, %ymm19, %ymm10 # ymm10 = -(ymm19 * ymm8) + ymm10
vmulps %ymm21, %ymm25, %ymm8
vfnmsub231ps %ymm20, %ymm24, %ymm8 # ymm8 = -(ymm24 * ymm20) - ymm8
vfnmadd231ps %ymm19, %ymm16, %ymm8 # ymm8 = -(ymm16 * ymm19) + ymm8
vandps %ymm28, %ymm8, %ymm9
vcmpltps %ymm29, %ymm9, %k0
vxorps %ymm31, %ymm10, %ymm9
vrcp14ps %ymm8, %ymm10
vxorps %ymm31, %ymm8, %ymm11
vmovaps %ymm10, %ymm12
vfnmadd213ps %ymm30, %ymm8, %ymm12 # ymm12 = -(ymm8 * ymm12) + ymm30
vfmadd132ps %ymm10, %ymm10, %ymm12 # ymm12 = (ymm12 * ymm10) + ymm10
vmulps %ymm9, %ymm12, %ymm9
vcmpltps %ymm11, %ymm8, %k1
korb %k1, %k0, %k1
vblendmps %ymm27, %ymm9, %ymm10 {%k1}
vmaxps %ymm10, %ymm0, %ymm0
vcmpnleps %ymm11, %ymm8, %k1
korb %k1, %k0, %k1
vmovaps %ymm23, %ymm9 {%k1}
vminps %ymm9, %ymm1, %ymm8
vmovaps %ymm0, 0x320(%rsp)
vcmpleps %ymm8, %ymm0, %k0
kmovd %k0, %ecx
andb %cl, %al
je 0x1cddb34
vmovaps 0x400(%rsp), %ymm0
vmaxps 0x1a0(%rsp), %ymm13, %ymm1
vminps %ymm30, %ymm0, %ymm0
vxorps %xmm10, %xmm10, %xmm10
vmaxps %ymm10, %ymm0, %ymm0
vmovaps 0x3e0(%rsp), %ymm9
vminps %ymm30, %ymm9, %ymm9
vmovaps 0x24361d(%rip), %ymm11 # 0x1f20f40
vaddps %ymm0, %ymm11, %ymm0
vbroadcastss 0x240b88(%rip), %ymm12 # 0x1f1e4b8
vmulps %ymm0, %ymm12, %ymm0
vmovaps 0x40(%rsp), %ymm13
vmovaps 0x1c0(%rsp), %ymm16
vfmadd213ps %ymm13, %ymm16, %ymm0 # ymm0 = (ymm16 * ymm0) + ymm13
vmovaps %ymm0, 0x400(%rsp)
vmaxps %ymm10, %ymm9, %ymm0
vaddps %ymm0, %ymm11, %ymm0
vmulps %ymm0, %ymm12, %ymm0
vfmadd213ps %ymm13, %ymm16, %ymm0 # ymm0 = (ymm16 * ymm0) + ymm13
vmovaps %ymm0, 0x3e0(%rsp)
vmulps %ymm1, %ymm1, %ymm0
vmovaps 0x80(%rsp), %ymm1
vsubps %ymm0, %ymm1, %ymm11
vmulps %ymm11, %ymm26, %ymm0
vmovaps 0xa0(%rsp), %ymm1
vsubps %ymm0, %ymm1, %ymm0
vcmpnltps %ymm10, %ymm0, %k0
kortestb %k0, %k0
vxorps %xmm1, %xmm1, %xmm1
movq %r8, 0xf8(%rsp)
je 0x1cddc4d
vxorps %xmm20, %xmm20, %xmm20
vcmpnltps %ymm1, %ymm0, %k1
vsqrtps %ymm0, %ymm0
vaddps %ymm15, %ymm15, %ymm1
vrcp14ps %ymm1, %ymm9
vfnmadd213ps %ymm30, %ymm9, %ymm1 # ymm1 = -(ymm9 * ymm1) + ymm30
vfmadd132ps %ymm9, %ymm9, %ymm1 # ymm1 = (ymm1 * ymm9) + ymm9
vxorps 0x2434e1(%rip){1to8}, %ymm22, %ymm9 # 0x1f20ec0
vsubps %ymm0, %ymm9, %ymm9
vmulps %ymm1, %ymm9, %ymm12
vsubps %ymm22, %ymm0, %ymm0
vmulps %ymm1, %ymm0, %ymm13
vmovaps %ymm17, %ymm0
vfmadd213ps %ymm18, %ymm12, %ymm0 # ymm0 = (ymm12 * ymm0) + ymm18
vmulps %ymm0, %ymm14, %ymm9
vmovaps 0x3a0(%rsp), %ymm16
vmulps %ymm12, %ymm16, %ymm0
vmovaps 0x380(%rsp), %ymm21
vmulps %ymm12, %ymm21, %ymm1
vmovaps 0x360(%rsp), %ymm22
vmulps %ymm12, %ymm22, %ymm10
vmovaps %ymm7, %ymm19
vfmadd213ps %ymm4, %ymm9, %ymm19 # ymm19 = (ymm9 * ymm19) + ymm4
vsubps %ymm19, %ymm0, %ymm0
vmovaps %ymm6, %ymm19
vfmadd213ps %ymm3, %ymm9, %ymm19 # ymm19 = (ymm9 * ymm19) + ymm3
vsubps %ymm19, %ymm1, %ymm1
vfmadd213ps %ymm2, %ymm5, %ymm9 # ymm9 = (ymm5 * ymm9) + ymm2
vsubps %ymm9, %ymm10, %ymm9
vfmadd213ps %ymm18, %ymm13, %ymm17 # ymm17 = (ymm13 * ymm17) + ymm18
vmulps %ymm17, %ymm14, %ymm14
vmulps %ymm13, %ymm16, %ymm10
vmulps %ymm13, %ymm21, %ymm17
vmulps %ymm13, %ymm22, %ymm18
vfmadd213ps %ymm4, %ymm14, %ymm7 # ymm7 = (ymm14 * ymm7) + ymm4
vsubps %ymm7, %ymm10, %ymm10
vfmadd213ps %ymm3, %ymm14, %ymm6 # ymm6 = (ymm14 * ymm6) + ymm3
vsubps %ymm6, %ymm17, %ymm3
vfmadd213ps %ymm2, %ymm14, %ymm5 # ymm5 = (ymm14 * ymm5) + ymm2
vsubps %ymm5, %ymm18, %ymm5
vbroadcastss 0x20df81(%rip), %ymm2 # 0x1eeba20
vblendmps %ymm12, %ymm2, %ymm4 {%k1}
vbroadcastss 0x20f0d6(%rip), %ymm2 # 0x1eecb84
vblendmps %ymm13, %ymm2, %ymm2 {%k1}
vbroadcastss 0x243407(%rip), %ymm7 # 0x1f20ec4
vandps 0x200(%rsp), %ymm7, %ymm6
vmovaps 0x440(%rsp), %ymm12
vmaxps %ymm6, %ymm12, %ymm6
vmulps 0x2143d7(%rip){1to8}, %ymm6, %ymm6 # 0x1ef1eb4
vandps %ymm7, %ymm15, %ymm7
vcmpltps %ymm6, %ymm7, %k1 {%k1}
kortestb %k1, %k1
je 0x1cddc70
vcmpleps %ymm20, %ymm11, %k2
vbroadcastss 0x20f082(%rip), %ymm7 # 0x1eecb84
vbroadcastss 0x20df15(%rip), %ymm11 # 0x1eeba20
vblendmps %ymm7, %ymm11, %ymm6 {%k2}
vmovaps %ymm6, %ymm4 {%k1}
vblendmps %ymm11, %ymm7, %ymm6 {%k2}
vmovaps %ymm6, %ymm2 {%k1}
knotb %k1, %k1
korb %k2, %k1, %k1
kandb %k0, %k1, %k0
jmp 0x1cddc70
vxorps %xmm12, %xmm12, %xmm12
vmovaps 0x1e0(%rsp), %ymm7
vmovaps 0x140(%rsp), %xmm3
vbroadcastss 0x20(%r15), %ymm0
movl %r8d, %eax
testl %eax, %eax
je 0x1cdf27d
leal -0x1(%rax), %r8d
leaq (%r8,%r8,2), %rcx
shlq $0x5, %rcx
movzbl 0x740(%rsp,%rcx), %esi
vmovaps 0x760(%rsp,%rcx), %ymm1
vaddps %ymm1, %ymm7, %ymm2
vcmpleps %ymm0, %ymm2, %k0
kmovb %k0, %edx
andl %esi, %edx
je 0x1cddc3d
kmovd %edx, %k1
vbroadcastss 0x20de83(%rip), %ymm2 # 0x1eeba20
vblendmps %ymm1, %ymm2, %ymm1 {%k1}
vshufps $0xb1, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2,5,4,7,6]
vminps %ymm2, %ymm1, %ymm2
vshufpd $0x5, %ymm2, %ymm2, %ymm3 # ymm3 = ymm2[1,0,3,2]
vminps %ymm3, %ymm2, %ymm2
vpermpd $0x4e, %ymm2, %ymm3 # ymm3 = ymm2[2,3,0,1]
vminps %ymm3, %ymm2, %ymm2
vcmpeqps %ymm2, %ymm1, %k0
kmovd %k0, %esi
andb %dl, %sil
je 0x1cddbd5
movzbl %sil, %edi
jmp 0x1cddbd8
movzbl %dl, %edi
leaq (%rsp,%rcx), %rsi
addq $0x740, %rsi # imm = 0x740
vmovss 0x44(%rsi), %xmm1
tzcntl %edi, %ecx
movb $0x1, %dil
shlb %cl, %dil
movl 0x48(%rsi), %r11d
movzbl %dil, %edi
kmovd %edi, %k0
kmovd %edx, %k1
kandnb %k1, %k0, %k0
kmovb %k0, (%rsi)
kortestb %k0, %k0
je 0x1cddc13
movl %eax, %r8d
vbroadcastss 0x40(%rsi), %ymm2
vsubss %xmm2, %xmm1, %xmm1
vbroadcastss %xmm1, %ymm1
vfmadd132ps 0x2432f5(%rip), %ymm2, %ymm1 # ymm1 = (ymm1 * mem) + ymm2
vmovaps %ymm1, 0x460(%rsp)
vmovsd 0x460(%rsp,%rcx,4), %xmm3
movl %r8d, %eax
testb %dl, %dl
je 0x1cddb54
jmp 0x1cdd198
vxorps %xmm3, %xmm3, %xmm3
vxorps %xmm5, %xmm5, %xmm5
vxorps %xmm0, %xmm0, %xmm0
vxorps %xmm9, %xmm9, %xmm9
vbroadcastss 0x20ddb9(%rip), %ymm4 # 0x1eeba20
vbroadcastss 0x20ef14(%rip), %ymm2 # 0x1eecb84
vxorps %xmm12, %xmm12, %xmm12
vbroadcastss 0x243246(%rip), %xmm13 # 0x1f20ec4
vbroadcastss 0x10(%r15), %ymm6
vbroadcastss 0x14(%r15), %ymm7
vbroadcastss 0x18(%r15), %ymm11
vmulps %ymm5, %ymm11, %ymm5
vfmadd231ps %ymm3, %ymm7, %ymm5 # ymm5 = (ymm7 * ymm3) + ymm5
vfmadd231ps %ymm10, %ymm6, %ymm5 # ymm5 = (ymm6 * ymm10) + ymm5
vmovaps 0x320(%rsp), %ymm14
vmovaps %ymm14, 0x460(%rsp)
vminps %ymm4, %ymm8, %ymm3
vmovaps %ymm3, 0x480(%rsp)
vbroadcastss 0x2431fe(%rip), %ymm10 # 0x1f20ec4
vandps %ymm5, %ymm10, %ymm4
vmaxps %ymm2, %ymm14, %ymm5
vmovaps %ymm5, 0x4a0(%rsp)
vmovaps %ymm8, 0x4c0(%rsp)
vbroadcastss 0x2431eb(%rip), %ymm2 # 0x1f20ed4
vcmpltps %ymm2, %ymm4, %k1
kmovd %k1, 0x13c(%rsp)
vcmpleps %ymm3, %ymm14, %k1
kmovd %k1, %ecx
andb %al, %cl
vmovaps %ymm5, 0x340(%rsp)
vcmpleps %ymm8, %ymm5, %k1
kmovd %k1, %edx
andb %al, %dl
movl %edx, %eax
orb %cl, %al
je 0x1cdf1f5
movl %edx, 0x18(%rsp)
movq %r10, 0x198(%rsp)
knotb %k0, %k1
vmovaps %ymm2, %ymm3
vmulps %ymm11, %ymm9, %ymm2
vfmadd213ps %ymm2, %ymm7, %ymm1 # ymm1 = (ymm7 * ymm1) + ymm2
vfmadd213ps %ymm1, %ymm6, %ymm0 # ymm0 = (ymm6 * ymm0) + ymm1
vandps %ymm0, %ymm10, %ymm0
vcmpltps %ymm3, %ymm0, %k0
kmovd %k1, 0x134(%rsp)
korb %k1, %k0, %k1
vpbroadcastd 0x243170(%rip), %ymm0 # 0x1f20edc
vpblendmd 0x243162(%rip){1to8}, %ymm0, %ymm0 {%k1} # 0x1f20ed8
movq %r11, 0x190(%rsp)
vpbroadcastd %r11d, %ymm1
vmovdqa %ymm0, 0x4e0(%rsp)
vmovdqa %ymm1, 0x420(%rsp)
vpcmpnltd %ymm0, %ymm1, %k0
kmovd %k0, %ebx
movl %ecx, 0x138(%rsp)
andb %cl, %bl
je 0x1cde731
vmovaps 0x300(%rsp), %ymm1
vmovaps 0x2c0(%rsp), %ymm2
vminps %xmm2, %xmm1, %xmm0
vmaxps %xmm2, %xmm1, %xmm1
vmovaps 0x2e0(%rsp), %ymm3
vmovaps 0x2a0(%rsp), %ymm4
vminps %xmm4, %xmm3, %xmm2
vminps %xmm2, %xmm0, %xmm0
vmaxps %xmm4, %xmm3, %xmm2
vmaxps %xmm2, %xmm1, %xmm1
vandps %xmm0, %xmm13, %xmm0
vandps %xmm1, %xmm13, %xmm2
vmaxps %xmm2, %xmm0, %xmm0
vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3]
vmaxss %xmm0, %xmm2, %xmm2
vshufpd $0x1, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[1,0]
vmaxss %xmm2, %xmm0, %xmm0
vmulss 0x2140a3(%rip), %xmm0, %xmm0 # 0x1ef1eb4
vmovss %xmm0, 0x28(%rsp)
vshufps $0xff, %xmm1, %xmm1, %xmm0 # xmm0 = xmm1[3,3,3,3]
vmovaps %xmm0, 0x220(%rsp)
vmovaps 0x320(%rsp), %ymm0
vaddps 0x1e0(%rsp), %ymm0, %ymm0
vmovaps %ymm0, 0x3c0(%rsp)
kmovd %ebx, %k1
vbroadcastss 0x20dbd3(%rip), %ymm0 # 0x1eeba20
vblendmps 0x320(%rsp), %ymm0, %ymm0 {%k1}
vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm0, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1]
vminps %ymm2, %ymm1, %ymm1
vcmpeqps %ymm1, %ymm0, %k0
kmovd %k0, %eax
andb %bl, %al
movzbl %al, %eax
movzbl %bl, %ecx
cmovnel %eax, %ecx
tzcntl %ecx, %ecx
movb $0x1, %bl
shlb %cl, %bl
shll $0x2, %ecx
vmovss 0x400(%rsp,%rcx), %xmm8
vmovss 0x460(%rsp,%rcx), %xmm9
vmovaps 0x10(%r15), %xmm0
vmovaps %xmm0, 0x200(%rsp)
vdpps $0x7f, %xmm0, %xmm0, %xmm0
vucomiss 0x20db63(%rip), %xmm0 # 0x1eeba24
jb 0x1cddec9
vsqrtss %xmm0, %xmm0, %xmm0
jmp 0x1cddf06
vmovaps %xmm8, 0xa0(%rsp)
vmovaps %xmm9, 0x80(%rsp)
kmovw %k1, 0x40(%rsp)
vzeroupper
callq 0x6aa20
kmovw 0x40(%rsp), %k1
vmovaps 0x80(%rsp), %xmm9
vmovaps 0xa0(%rsp), %xmm8
vxorps %xmm12, %xmm12, %xmm12
movzbl %bl, %eax
kmovd %eax, %k0
kandnb %k1, %k0, %k0
kmovd %k0, %ebx
vmulss 0x213f97(%rip), %xmm0, %xmm0 # 0x1ef1eb4
vmovss %xmm0, 0x2c(%rsp)
movl $0x4, %r12d
vbroadcastss %xmm9, %xmm0
vfmadd132ps 0x200(%rsp), %xmm12, %xmm0 # xmm0 = (xmm0 * mem) + xmm12
vmovss 0x20e7d4(%rip), %xmm1 # 0x1eec714
vsubss %xmm8, %xmm1, %xmm3
vbroadcastss %xmm8, %xmm1
vmovaps 0x2c0(%rsp), %ymm5
vmulps %xmm1, %xmm5, %xmm2
vmovaps %xmm3, 0x280(%rsp)
vbroadcastss %xmm3, %xmm3
vfmadd231ps 0x300(%rsp), %xmm3, %xmm2 # xmm2 = (xmm3 * mem) + xmm2
vmovaps 0x2e0(%rsp), %ymm6
vmulps %xmm1, %xmm6, %xmm4
vfmadd231ps %xmm5, %xmm3, %xmm4 # xmm4 = (xmm3 * xmm5) + xmm4
vmulps 0x2a0(%rsp), %xmm1, %xmm5
vfmadd231ps %xmm6, %xmm3, %xmm5 # xmm5 = (xmm3 * xmm6) + xmm5
vmulps %xmm4, %xmm1, %xmm6
vfmadd231ps %xmm2, %xmm3, %xmm6 # xmm6 = (xmm3 * xmm2) + xmm6
vmulps %xmm5, %xmm1, %xmm2
vfmadd231ps %xmm4, %xmm3, %xmm2 # xmm2 = (xmm3 * xmm4) + xmm2
vmulps %xmm2, %xmm1, %xmm4
vfmadd231ps %xmm3, %xmm6, %xmm4 # xmm4 = (xmm6 * xmm3) + xmm4
vsubps %xmm6, %xmm2, %xmm1
vmulps 0x213034(%rip){1to4}, %xmm1, %xmm10 # 0x1ef0fec
vmovaps %xmm4, 0x290(%rsp)
vsubps %xmm4, %xmm0, %xmm0
vmovaps %xmm0, 0x1c0(%rsp)
vdpps $0x7f, %xmm0, %xmm0, %xmm0
vucomiss 0x20da48(%rip), %xmm0 # 0x1eeba24
vmovaps %xmm10, 0x40(%rsp)
vmovaps %xmm0, 0x1a0(%rsp)
vmovaps %xmm8, 0xa0(%rsp)
vmovaps %xmm9, 0x80(%rsp)
jb 0x1cde005
vsqrtss %xmm0, %xmm0, %xmm7
jmp 0x1cde01c
vzeroupper
callq 0x6aa20
vmovaps 0x40(%rsp), %xmm10
vxorps %xmm12, %xmm12, %xmm12
vmovaps %xmm0, %xmm7
vdpps $0x7f, %xmm10, %xmm10, %xmm0
vmovss %xmm0, %xmm12, %xmm1 # xmm1 = xmm0[0],xmm12[1,2,3]
vrsqrt14ss %xmm1, %xmm12, %xmm3
vmulss 0x20e6e4(%rip), %xmm3, %xmm4 # 0x1eec718
vmulss 0x20e6e0(%rip), %xmm0, %xmm5 # 0x1eec71c
vrcp14ss %xmm1, %xmm12, %xmm2
vxorps 0x242e74(%rip){1to4}, %xmm0, %xmm1 # 0x1f20ec0
vmovaps %xmm2, 0x260(%rsp)
vfnmadd213ss 0x212f9a(%rip), %xmm0, %xmm2 # xmm2 = -(xmm0 * xmm2) + mem
vmovss %xmm2, 0x30(%rsp)
vucomiss %xmm1, %xmm0
vmovss %xmm7, 0xc(%rsp)
vmovaps %xmm0, 0x270(%rsp)
jb 0x1cde081
vsqrtss %xmm0, %xmm0, %xmm16
jmp 0x1cde0d0
vmovaps %xmm3, 0xe0(%rsp)
vmovss %xmm4, 0xd0(%rsp)
vmovss %xmm5, 0x8(%rsp)
vzeroupper
callq 0x6aa20
vmovss 0x8(%rsp), %xmm5
vmovss 0xd0(%rsp), %xmm4
vmovaps 0xe0(%rsp), %xmm3
vmovss 0xc(%rsp), %xmm7
vmovaps 0x40(%rsp), %xmm10
vxorps %xmm12, %xmm12, %xmm12
vmovaps %xmm0, %xmm16
vmovaps 0x1c0(%rsp), %xmm11
vmovaps 0x1a0(%rsp), %xmm14
vmulss %xmm3, %xmm5, %xmm0
vmulss %xmm3, %xmm3, %xmm1
vmulss %xmm1, %xmm0, %xmm0
vaddss %xmm0, %xmm4, %xmm0
vbroadcastss %xmm0, %xmm6
vmulps %xmm6, %xmm10, %xmm0
vmovaps %xmm0, 0xd0(%rsp)
vdpps $0x7f, %xmm0, %xmm11, %xmm0
vaddss 0x20e602(%rip), %xmm7, %xmm15 # 0x1eec714
vmovaps %xmm0, 0xe0(%rsp)
vmulps %xmm0, %xmm0, %xmm0
vsubps %xmm0, %xmm14, %xmm0
vmovss %xmm0, %xmm12, %xmm1 # xmm1 = xmm0[0],xmm12[1,2,3]
vrsqrt14ss %xmm1, %xmm12, %xmm18
vmulss 0x20e5e1(%rip), %xmm18, %xmm17 # 0x1eec718
vmulss 0x20e5db(%rip), %xmm0, %xmm19 # 0x1eec71c
vucomiss 0x20d8db(%rip), %xmm0 # 0x1eeba24
jb 0x1cde154
vsqrtss %xmm0, %xmm0, %xmm0
jmp 0x1cde1d8
vmovss %xmm15, 0x8(%rsp)
vmovss %xmm16, 0x24(%rsp)
vmovss %xmm17, 0x20(%rsp)
vmovaps %xmm18, 0x250(%rsp)
vmovss %xmm19, 0x1c(%rsp)
vmovaps %xmm6, 0x240(%rsp)
vzeroupper
callq 0x6aa20
vmovaps 0x240(%rsp), %xmm6
vmovss 0x1c(%rsp), %xmm19
vmovaps 0x250(%rsp), %xmm18
vmovss 0x20(%rsp), %xmm17
vmovss 0x24(%rsp), %xmm16
vmovss 0xc(%rsp), %xmm7
vmovss 0x8(%rsp), %xmm15
vmovaps 0x1a0(%rsp), %xmm14
vmovaps 0x1c0(%rsp), %xmm11
vmovaps 0x40(%rsp), %xmm10
vbroadcastss 0x242ce3(%rip), %xmm13 # 0x1f20ec4
vmovaps 0xa0(%rsp), %xmm8
vmovaps 0x80(%rsp), %xmm9
vmovss 0x2127e1(%rip), %xmm3 # 0x1ef09dc
vmovaps %xmm3, %xmm1
vmovaps 0x280(%rsp), %xmm5
vfmadd213ss %xmm5, %xmm8, %xmm1 # xmm1 = (xmm8 * xmm1) + xmm5
vmovss 0x212ddf(%rip), %xmm4 # 0x1ef0ff4
vmulss %xmm4, %xmm1, %xmm1
vmulss %xmm4, %xmm8, %xmm2
vbroadcastss %xmm2, %xmm2
vmulps 0x2a0(%rsp), %xmm2, %xmm2
vbroadcastss %xmm1, %xmm1
vfmadd132ps 0x2e0(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2
vmovaps %xmm3, %xmm2
vfmadd213ss %xmm8, %xmm5, %xmm2 # xmm2 = (xmm5 * xmm2) + xmm8
vmulss %xmm4, %xmm2, %xmm2
vbroadcastss %xmm2, %xmm2
vfmadd132ps 0x2c0(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1
vmulss %xmm4, %xmm5, %xmm1
vbroadcastss %xmm1, %xmm1
vfmadd132ps 0x300(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2
vbroadcastss 0x270(%rsp), %xmm2
vmulps %xmm2, %xmm1, %xmm2
vdpps $0x7f, %xmm1, %xmm10, %xmm1
vbroadcastss %xmm1, %xmm1
vmulps %xmm1, %xmm10, %xmm1
vsubps %xmm1, %xmm2, %xmm1
vmovss 0x30(%rsp), %xmm2
vmulss 0x260(%rsp), %xmm2, %xmm2
vmulss 0x2c(%rsp), %xmm9, %xmm3
vbroadcastss %xmm2, %xmm2
vmulps %xmm2, %xmm1, %xmm1
vxorps 0x242c0e(%rip){1to4}, %xmm10, %xmm2 # 0x1f20ec0
vmulps %xmm1, %xmm6, %xmm4
vmovaps 0xd0(%rsp), %xmm12
vdpps $0x7f, %xmm12, %xmm2, %xmm5
vmovss 0x28(%rsp), %xmm6
vmaxss %xmm3, %xmm6, %xmm1
vdivss %xmm16, %xmm6, %xmm3
vdpps $0x7f, %xmm4, %xmm11, %xmm4
vfmadd213ss %xmm1, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm7) + xmm1
vfmadd213ss %xmm7, %xmm3, %xmm15 # xmm15 = (xmm3 * xmm15) + xmm7
vmovaps 0x200(%rsp), %xmm7
vdpps $0x7f, %xmm12, %xmm7, %xmm3
vaddss %xmm4, %xmm5, %xmm4
vdpps $0x7f, %xmm2, %xmm11, %xmm5
vmulss %xmm18, %xmm19, %xmm2
vmulss %xmm18, %xmm18, %xmm6
vmulss %xmm6, %xmm2, %xmm2
vdpps $0x7f, %xmm7, %xmm11, %xmm6
vaddss %xmm2, %xmm17, %xmm7
vmovaps 0xe0(%rsp), %xmm16
vfnmadd231ss %xmm4, %xmm16, %xmm5 # xmm5 = -(xmm16 * xmm4) + xmm5
vfnmadd231ss %xmm3, %xmm16, %xmm6 # xmm6 = -(xmm16 * xmm3) + xmm6
vpermilps $0xff, 0x290(%rsp), %xmm2 # xmm2 = mem[3,3,3,3]
vsubss %xmm2, %xmm0, %xmm2
vshufps $0xff, %xmm10, %xmm10, %xmm0 # xmm0 = xmm10[3,3,3,3]
vfmsub213ss %xmm0, %xmm7, %xmm5 # xmm5 = (xmm7 * xmm5) - xmm0
vmulss %xmm7, %xmm6, %xmm6
vmulss %xmm5, %xmm3, %xmm7
vfmsub231ss %xmm6, %xmm4, %xmm7 # xmm7 = (xmm4 * xmm6) - xmm7
vdivss %xmm7, %xmm6, %xmm6
vdivss %xmm7, %xmm5, %xmm5
vdivss %xmm7, %xmm3, %xmm3
vdivss %xmm7, %xmm4, %xmm4
vmulss %xmm6, %xmm16, %xmm6
vmulss %xmm3, %xmm2, %xmm3
vsubss %xmm3, %xmm6, %xmm3
vmulss %xmm5, %xmm16, %xmm5
vmulss %xmm4, %xmm2, %xmm4
vsubss %xmm5, %xmm4, %xmm4
vsubss %xmm3, %xmm8, %xmm8
vsubss %xmm4, %xmm9, %xmm9
vandps %xmm13, %xmm16, %xmm3
vucomiss %xmm3, %xmm15
jbe 0x1cde502
vaddss %xmm1, %xmm15, %xmm1
vmovaps 0x220(%rsp), %xmm3
vfmadd231ss 0x213b05(%rip), %xmm3, %xmm1 # xmm1 = (xmm3 * mem) + xmm1
vandps %xmm2, %xmm13, %xmm2
vucomiss %xmm2, %xmm1
vxorps %xmm12, %xmm12, %xmm12
jbe 0x1cde50c
vaddss 0x230(%rsp), %xmm9, %xmm9
vucomiss 0xc(%r15), %xmm9
movb $0x1, %r14b
jb 0x1cde50f
vmovss 0x20(%r15), %xmm4
vucomiss %xmm9, %xmm4
jb 0x1cde50f
vucomiss 0x20d631(%rip), %xmm8 # 0x1eeba24
jb 0x1cde50f
vmovss 0x20e313(%rip), %xmm1 # 0x1eec714
vucomiss %xmm8, %xmm1
jb 0x1cde50f
vmovss %xmm14, %xmm12, %xmm1
vrsqrt14ss %xmm1, %xmm12, %xmm1
vmulss 0x20e2fa(%rip), %xmm1, %xmm2 # 0x1eec718
vmulss 0x20e2f6(%rip), %xmm14, %xmm3 # 0x1eec71c
movq (%r13), %rax
movq 0x1e8(%rax), %rax
movq %r13, %rcx
movq 0x38(%rsp), %rdx
movq (%rax,%rdx,8), %r13
movl 0x24(%r15), %eax
testl %eax, 0x34(%r13)
je 0x1cde52c
vmulss %xmm1, %xmm3, %xmm3
vmulss %xmm1, %xmm1, %xmm1
vmulss %xmm1, %xmm3, %xmm1
vaddss %xmm1, %xmm2, %xmm1
vbroadcastss %xmm1, %xmm1
vmulps %xmm1, %xmm11, %xmm1
vfmadd213ps %xmm10, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm0) + xmm10
vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm10, %xmm10, %xmm3 # xmm3 = xmm10[1,2,0,3]
vmulps %xmm3, %xmm1, %xmm1
vfmsub231ps %xmm2, %xmm10, %xmm1 # xmm1 = (xmm10 * xmm2) - xmm1
vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3]
vshufps $0xd2, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,0,1,3]
vmulps %xmm1, %xmm0, %xmm0
vfmsub231ps %xmm3, %xmm2, %xmm0 # xmm0 = (xmm2 * xmm3) - xmm0
movq 0x10(%rcx), %rax
cmpq $0x0, 0x10(%rax)
jne 0x1cde531
cmpq $0x0, 0x40(%r13)
jne 0x1cde531
vmovss %xmm9, 0x20(%r15)
vshufps $0xe9, %xmm0, %xmm0, %xmm1 # xmm1 = xmm0[1,2,2,3]
vmovlps %xmm1, 0x30(%r15)
vmovss %xmm0, 0x38(%r15)
vmovss %xmm8, 0x3c(%r15)
movl $0x0, 0x40(%r15)
movq 0x78(%rsp), %rax
movl %eax, 0x44(%r15)
movq 0x38(%rsp), %rax
movl %eax, 0x48(%r15)
movq 0x10(%rsp), %r13
movq 0x8(%r13), %rax
movl (%rax), %eax
movl %eax, 0x4c(%r15)
movq 0x8(%r13), %rax
movl 0x4(%rax), %eax
movl %eax, 0x50(%r15)
jmp 0x1cde50f
xorl %r14d, %r14d
vxorps %xmm12, %xmm12, %xmm12
jmp 0x1cde50f
xorl %r14d, %r14d
subq $0x1, %r12
setb %al
testb %r14b, %r14b
jne 0x1cde714
testb %al, %al
je 0x1cddf29
jmp 0x1cde714
movq %rcx, %r13
jmp 0x1cde50f
movq 0x10(%rsp), %rdx
movq 0x8(%rdx), %rax
vshufps $0xe9, %xmm0, %xmm0, %xmm1 # xmm1 = xmm0[1,2,2,3]
vmovlps %xmm1, 0x150(%rsp)
vmovss %xmm0, 0x158(%rsp)
vmovss %xmm8, 0x15c(%rsp)
movl $0x0, 0x160(%rsp)
movq 0x78(%rsp), %rcx
movl %ecx, 0x164(%rsp)
movq 0x38(%rsp), %rcx
movl %ecx, 0x168(%rsp)
movl (%rax), %ecx
movl %ecx, 0x16c(%rsp)
movl 0x4(%rax), %eax
movl %eax, 0x170(%rsp)
vmovss %xmm9, 0x20(%r15)
movl $0xffffffff, 0x34(%rsp) # imm = 0xFFFFFFFF
leaq 0x34(%rsp), %rax
movq %rax, 0x100(%rsp)
movq 0x18(%r13), %rax
movq %rax, 0x108(%rsp)
movq 0x8(%rdx), %rax
movq %rax, 0x110(%rsp)
movq %r15, 0x118(%rsp)
leaq 0x150(%rsp), %rax
movq %rax, 0x120(%rsp)
movl $0x1, 0x128(%rsp)
movq 0x40(%r13), %rax
testq %rax, %rax
vmovaps %xmm8, 0xa0(%rsp)
vmovaps %xmm9, 0x80(%rsp)
vmovss %xmm4, 0x40(%rsp)
je 0x1cde64b
leaq 0x100(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0x40(%rsp), %xmm4
vmovaps 0x80(%rsp), %xmm9
vmovaps 0xa0(%rsp), %xmm8
vbroadcastss 0x24288f(%rip), %xmm13 # 0x1f20ec4
vxorps %xmm12, %xmm12, %xmm12
movq 0x100(%rsp), %rax
cmpl $0x0, (%rax)
je 0x1cde704
movq 0x10(%rsp), %rax
movq 0x10(%rax), %rcx
movq 0x10(%rcx), %rax
testq %rax, %rax
je 0x1cde6a9
testb $0x2, (%rcx)
jne 0x1cde669
testb $0x40, 0x3e(%r13)
je 0x1cde69c
leaq 0x100(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0x40(%rsp), %xmm4
vmovaps 0x80(%rsp), %xmm9
vmovaps 0xa0(%rsp), %xmm8
vbroadcastss 0x24282d(%rip), %xmm13 # 0x1f20ec4
vxorps %xmm12, %xmm12, %xmm12
movq 0x100(%rsp), %rax
cmpl $0x0, (%rax)
je 0x1cde704
movq 0x118(%rsp), %rax
movq 0x120(%rsp), %rcx
vmovss (%rcx), %xmm0
vmovss %xmm0, 0x30(%rax)
vmovss 0x4(%rcx), %xmm0
vmovss %xmm0, 0x34(%rax)
vmovss 0x8(%rcx), %xmm0
vmovss %xmm0, 0x38(%rax)
vmovss 0xc(%rcx), %xmm0
vmovss %xmm0, 0x3c(%rax)
vmovss 0x10(%rcx), %xmm0
vmovss %xmm0, 0x40(%rax)
movl 0x14(%rcx), %edx
movl %edx, 0x44(%rax)
movl 0x18(%rcx), %edx
movl %edx, 0x48(%rax)
movl 0x1c(%rcx), %edx
movl %edx, 0x4c(%rax)
movl 0x20(%rcx), %ecx
movl %ecx, 0x50(%rax)
jmp 0x1cde70a
vmovss %xmm4, 0x20(%r15)
movq 0x10(%rsp), %r13
jmp 0x1cde50f
vmovaps 0x3c0(%rsp), %ymm0
vcmpleps 0x20(%r15){1to8}, %ymm0, %k0
kmovd %k0, %eax
andb %al, %bl
jne 0x1cdde40
vmovaps 0x340(%rsp), %ymm0
vaddps 0x1e0(%rsp), %ymm0, %ymm0
vcmpleps 0x20(%r15){1to8}, %ymm0, %k0
kmovd 0x13c(%rsp), %k1
kmovd 0x134(%rsp), %k2
korb %k2, %k1, %k1
kmovd %k0, %eax
movl 0x18(%rsp), %ecx
andb %al, %cl
vpbroadcastd 0x242766(%rip), %ymm0 # 0x1f20edc
vpblendmd 0x242758(%rip){1to8}, %ymm0, %ymm0 {%k1} # 0x1f20ed8
vmovdqa %ymm0, 0x340(%rsp)
vpcmpled 0x420(%rsp), %ymm0, %k0
kmovd %k0, %ebx
movl %ecx, 0x18(%rsp)
andb %cl, %bl
je 0x1cdf11a
vmovaps 0x4a0(%rsp), %ymm5
vmovaps 0x300(%rsp), %ymm1
vmovaps 0x2c0(%rsp), %ymm2
vminps %xmm2, %xmm1, %xmm0
vmaxps %xmm2, %xmm1, %xmm1
vmovaps 0x2e0(%rsp), %ymm3
vmovaps 0x2a0(%rsp), %ymm4
vminps %xmm4, %xmm3, %xmm2
vminps %xmm2, %xmm0, %xmm0
vmaxps %xmm4, %xmm3, %xmm2
vmaxps %xmm2, %xmm1, %xmm1
vandps %xmm0, %xmm13, %xmm0
vandps %xmm1, %xmm13, %xmm2
vmaxps %xmm2, %xmm0, %xmm0
vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3]
vmaxss %xmm0, %xmm2, %xmm2
vshufpd $0x1, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[1,0]
vmaxss %xmm2, %xmm0, %xmm0
vmulss 0x2136a8(%rip), %xmm0, %xmm0 # 0x1ef1eb4
vmovss %xmm0, 0x28(%rsp)
vshufps $0xff, %xmm1, %xmm1, %xmm0 # xmm0 = xmm1[3,3,3,3]
vmovaps %xmm0, 0x220(%rsp)
vmovaps %ymm5, 0x320(%rsp)
vaddps 0x1e0(%rsp), %ymm5, %ymm0
vmovaps %ymm0, 0x3c0(%rsp)
kmovd %ebx, %k1
vbroadcastss 0x20d1d8(%rip), %ymm0 # 0x1eeba20
vblendmps 0x320(%rsp), %ymm0, %ymm0 {%k1}
vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm0, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1]
vminps %ymm2, %ymm1, %ymm1
vcmpeqps %ymm1, %ymm0, %k0
kmovd %k0, %eax
andb %bl, %al
movzbl %al, %eax
movzbl %bl, %ecx
cmovnel %eax, %ecx
tzcntl %ecx, %ecx
movb $0x1, %bl
shlb %cl, %bl
shll $0x2, %ecx
vmovss 0x3e0(%rsp,%rcx), %xmm9
vmovss 0x4c0(%rsp,%rcx), %xmm10
vmovaps 0x10(%r15), %xmm0
vmovaps %xmm0, 0x200(%rsp)
vdpps $0x7f, %xmm0, %xmm0, %xmm0
vucomiss 0x20d168(%rip), %xmm0 # 0x1eeba24
jb 0x1cde8c4
vsqrtss %xmm0, %xmm0, %xmm0
jmp 0x1cde901
vmovaps %xmm9, 0xa0(%rsp)
vmovaps %xmm10, 0x80(%rsp)
kmovw %k1, 0x40(%rsp)
vzeroupper
callq 0x6aa20
kmovw 0x40(%rsp), %k1
vmovaps 0x80(%rsp), %xmm10
vmovaps 0xa0(%rsp), %xmm9
vxorps %xmm12, %xmm12, %xmm12
movzbl %bl, %eax
kmovd %eax, %k0
kandnb %k1, %k0, %k0
kmovd %k0, %ebx
vmulss 0x21359c(%rip), %xmm0, %xmm0 # 0x1ef1eb4
vmovss %xmm0, 0x2c(%rsp)
movl $0x4, %r12d
vbroadcastss %xmm10, %xmm0
vfmadd132ps 0x200(%rsp), %xmm12, %xmm0 # xmm0 = (xmm0 * mem) + xmm12
vmovss 0x20ddd9(%rip), %xmm1 # 0x1eec714
vsubss %xmm9, %xmm1, %xmm3
vbroadcastss %xmm9, %xmm1
vmovaps 0x2c0(%rsp), %ymm5
vmulps %xmm1, %xmm5, %xmm2
vmovaps %xmm3, 0x280(%rsp)
vbroadcastss %xmm3, %xmm3
vfmadd231ps 0x300(%rsp), %xmm3, %xmm2 # xmm2 = (xmm3 * mem) + xmm2
vmovaps 0x2e0(%rsp), %ymm6
vmulps %xmm1, %xmm6, %xmm4
vfmadd231ps %xmm5, %xmm3, %xmm4 # xmm4 = (xmm3 * xmm5) + xmm4
vmulps 0x2a0(%rsp), %xmm1, %xmm5
vfmadd231ps %xmm6, %xmm3, %xmm5 # xmm5 = (xmm3 * xmm6) + xmm5
vmulps %xmm4, %xmm1, %xmm6
vfmadd231ps %xmm2, %xmm3, %xmm6 # xmm6 = (xmm3 * xmm2) + xmm6
vmulps %xmm5, %xmm1, %xmm2
vfmadd231ps %xmm4, %xmm3, %xmm2 # xmm2 = (xmm3 * xmm4) + xmm2
vmulps %xmm2, %xmm1, %xmm4
vfmadd231ps %xmm3, %xmm6, %xmm4 # xmm4 = (xmm6 * xmm3) + xmm4
vsubps %xmm6, %xmm2, %xmm1
vmulps 0x212639(%rip){1to4}, %xmm1, %xmm11 # 0x1ef0fec
vmovaps %xmm4, 0x290(%rsp)
vsubps %xmm4, %xmm0, %xmm0
vmovaps %xmm0, 0x1c0(%rsp)
vdpps $0x7f, %xmm0, %xmm0, %xmm0
vucomiss 0x20d04d(%rip), %xmm0 # 0x1eeba24
vmovaps %xmm11, 0x40(%rsp)
vmovaps %xmm0, 0x1a0(%rsp)
vmovaps %xmm9, 0xa0(%rsp)
vmovaps %xmm10, 0x80(%rsp)
jb 0x1cdea00
vsqrtss %xmm0, %xmm0, %xmm7
jmp 0x1cdea17
vzeroupper
callq 0x6aa20
vmovaps 0x40(%rsp), %xmm11
vxorps %xmm12, %xmm12, %xmm12
vmovaps %xmm0, %xmm7
vdpps $0x7f, %xmm11, %xmm11, %xmm0
vmovss %xmm0, %xmm12, %xmm1 # xmm1 = xmm0[0],xmm12[1,2,3]
vrsqrt14ss %xmm1, %xmm12, %xmm3
vmulss 0x20dce9(%rip), %xmm3, %xmm4 # 0x1eec718
vmulss 0x20dce5(%rip), %xmm0, %xmm5 # 0x1eec71c
vrcp14ss %xmm1, %xmm12, %xmm2
vxorps 0x242479(%rip){1to4}, %xmm0, %xmm1 # 0x1f20ec0
vmovaps %xmm2, 0x260(%rsp)
vfnmadd213ss 0x21259f(%rip), %xmm0, %xmm2 # xmm2 = -(xmm0 * xmm2) + mem
vmovss %xmm2, 0x30(%rsp)
vucomiss %xmm1, %xmm0
vmovss %xmm7, 0xc(%rsp)
vmovaps %xmm0, 0x270(%rsp)
jb 0x1cdea7c
vsqrtss %xmm0, %xmm0, %xmm16
jmp 0x1cdeacb
vmovaps %xmm3, 0xe0(%rsp)
vmovss %xmm4, 0xd0(%rsp)
vmovss %xmm5, 0x8(%rsp)
vzeroupper
callq 0x6aa20
vmovss 0x8(%rsp), %xmm5
vmovss 0xd0(%rsp), %xmm4
vmovaps 0xe0(%rsp), %xmm3
vmovss 0xc(%rsp), %xmm7
vmovaps 0x40(%rsp), %xmm11
vxorps %xmm12, %xmm12, %xmm12
vmovaps %xmm0, %xmm16
vmovaps 0x1c0(%rsp), %xmm13
vmovaps 0x1a0(%rsp), %xmm14
vmulss %xmm3, %xmm5, %xmm0
vmulss %xmm3, %xmm3, %xmm1
vmulss %xmm1, %xmm0, %xmm0
vaddss %xmm0, %xmm4, %xmm0
vbroadcastss %xmm0, %xmm6
vmulps %xmm6, %xmm11, %xmm0
vmovaps %xmm0, 0xd0(%rsp)
vdpps $0x7f, %xmm0, %xmm13, %xmm0
vaddss 0x20dc07(%rip), %xmm7, %xmm15 # 0x1eec714
vmovaps %xmm0, 0xe0(%rsp)
vmulps %xmm0, %xmm0, %xmm0
vsubps %xmm0, %xmm14, %xmm0
vmovss %xmm0, %xmm12, %xmm1 # xmm1 = xmm0[0],xmm12[1,2,3]
vrsqrt14ss %xmm1, %xmm12, %xmm18
vmulss 0x20dbe6(%rip), %xmm18, %xmm17 # 0x1eec718
vmulss 0x20dbe0(%rip), %xmm0, %xmm19 # 0x1eec71c
vucomiss 0x20cee0(%rip), %xmm0 # 0x1eeba24
jb 0x1cdeb4f
vsqrtss %xmm0, %xmm0, %xmm0
jmp 0x1cdebd3
vmovss %xmm15, 0x8(%rsp)
vmovss %xmm16, 0x24(%rsp)
vmovss %xmm17, 0x20(%rsp)
vmovaps %xmm18, 0x250(%rsp)
vmovss %xmm19, 0x1c(%rsp)
vmovaps %xmm6, 0x240(%rsp)
vzeroupper
callq 0x6aa20
vmovaps 0x240(%rsp), %xmm6
vmovss 0x1c(%rsp), %xmm19
vmovaps 0x250(%rsp), %xmm18
vmovss 0x20(%rsp), %xmm17
vmovss 0x24(%rsp), %xmm16
vmovss 0xc(%rsp), %xmm7
vmovss 0x8(%rsp), %xmm15
vmovaps 0x1a0(%rsp), %xmm14
vmovaps 0x1c0(%rsp), %xmm13
vmovaps 0x40(%rsp), %xmm11
vbroadcastss 0x2422e8(%rip), %xmm8 # 0x1f20ec4
vmovaps 0xa0(%rsp), %xmm9
vmovaps 0x80(%rsp), %xmm10
vmovss 0x211de6(%rip), %xmm3 # 0x1ef09dc
vmovaps %xmm3, %xmm1
vmovaps 0x280(%rsp), %xmm5
vfmadd213ss %xmm5, %xmm9, %xmm1 # xmm1 = (xmm9 * xmm1) + xmm5
vmovss 0x2123e4(%rip), %xmm4 # 0x1ef0ff4
vmulss %xmm4, %xmm1, %xmm1
vmulss %xmm4, %xmm9, %xmm2
vbroadcastss %xmm2, %xmm2
vmulps 0x2a0(%rsp), %xmm2, %xmm2
vbroadcastss %xmm1, %xmm1
vfmadd132ps 0x2e0(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2
vmovaps %xmm3, %xmm2
vfmadd213ss %xmm9, %xmm5, %xmm2 # xmm2 = (xmm5 * xmm2) + xmm9
vmulss %xmm4, %xmm2, %xmm2
vbroadcastss %xmm2, %xmm2
vfmadd132ps 0x2c0(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1
vmulss %xmm4, %xmm5, %xmm1
vbroadcastss %xmm1, %xmm1
vfmadd132ps 0x300(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2
vbroadcastss 0x270(%rsp), %xmm2
vmulps %xmm2, %xmm1, %xmm2
vdpps $0x7f, %xmm1, %xmm11, %xmm1
vbroadcastss %xmm1, %xmm1
vmulps %xmm1, %xmm11, %xmm1
vsubps %xmm1, %xmm2, %xmm1
vmovss 0x30(%rsp), %xmm2
vmulss 0x260(%rsp), %xmm2, %xmm2
vmulss 0x2c(%rsp), %xmm10, %xmm3
vbroadcastss %xmm2, %xmm2
vmulps %xmm2, %xmm1, %xmm1
vxorps 0x242213(%rip){1to4}, %xmm11, %xmm2 # 0x1f20ec0
vmulps %xmm1, %xmm6, %xmm4
vmovaps 0xd0(%rsp), %xmm12
vdpps $0x7f, %xmm12, %xmm2, %xmm5
vmovss 0x28(%rsp), %xmm6
vmaxss %xmm3, %xmm6, %xmm1
vdivss %xmm16, %xmm6, %xmm3
vdpps $0x7f, %xmm4, %xmm13, %xmm4
vfmadd213ss %xmm1, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm7) + xmm1
vfmadd213ss %xmm7, %xmm3, %xmm15 # xmm15 = (xmm3 * xmm15) + xmm7
vmovaps 0x200(%rsp), %xmm7
vdpps $0x7f, %xmm12, %xmm7, %xmm3
vaddss %xmm4, %xmm5, %xmm4
vdpps $0x7f, %xmm2, %xmm13, %xmm5
vmulss %xmm18, %xmm19, %xmm2
vmulss %xmm18, %xmm18, %xmm6
vmulss %xmm6, %xmm2, %xmm2
vdpps $0x7f, %xmm7, %xmm13, %xmm6
vaddss %xmm2, %xmm17, %xmm7
vmovaps 0xe0(%rsp), %xmm16
vfnmadd231ss %xmm4, %xmm16, %xmm5 # xmm5 = -(xmm16 * xmm4) + xmm5
vfnmadd231ss %xmm3, %xmm16, %xmm6 # xmm6 = -(xmm16 * xmm3) + xmm6
vpermilps $0xff, 0x290(%rsp), %xmm2 # xmm2 = mem[3,3,3,3]
vsubss %xmm2, %xmm0, %xmm2
vshufps $0xff, %xmm11, %xmm11, %xmm0 # xmm0 = xmm11[3,3,3,3]
vfmsub213ss %xmm0, %xmm7, %xmm5 # xmm5 = (xmm7 * xmm5) - xmm0
vmulss %xmm7, %xmm6, %xmm6
vmulss %xmm5, %xmm3, %xmm7
vfmsub231ss %xmm6, %xmm4, %xmm7 # xmm7 = (xmm4 * xmm6) - xmm7
vdivss %xmm7, %xmm6, %xmm6
vdivss %xmm7, %xmm5, %xmm5
vdivss %xmm7, %xmm3, %xmm3
vdivss %xmm7, %xmm4, %xmm4
vmulss %xmm6, %xmm16, %xmm6
vmulss %xmm3, %xmm2, %xmm3
vsubss %xmm3, %xmm6, %xmm3
vmulss %xmm5, %xmm16, %xmm5
vmulss %xmm4, %xmm2, %xmm4
vsubss %xmm5, %xmm4, %xmm4
vsubss %xmm3, %xmm9, %xmm9
vsubss %xmm4, %xmm10, %xmm10
vandps %xmm8, %xmm16, %xmm3
vucomiss %xmm3, %xmm15
jbe 0x1cdeefd
vaddss %xmm1, %xmm15, %xmm1
vmovaps 0x220(%rsp), %xmm3
vfmadd231ss 0x21310a(%rip), %xmm3, %xmm1 # xmm1 = (xmm3 * mem) + xmm1
vandps %xmm2, %xmm8, %xmm2
vucomiss %xmm2, %xmm1
vxorps %xmm12, %xmm12, %xmm12
jbe 0x1cdef07
vaddss 0x230(%rsp), %xmm10, %xmm10
vucomiss 0xc(%r15), %xmm10
movb $0x1, %r14b
jb 0x1cdef0a
vmovss 0x20(%r15), %xmm4
vucomiss %xmm10, %xmm4
jb 0x1cdef0a
vucomiss 0x20cc36(%rip), %xmm9 # 0x1eeba24
jb 0x1cdef0a
vmovss 0x20d918(%rip), %xmm1 # 0x1eec714
vucomiss %xmm9, %xmm1
jb 0x1cdef0a
vmovss %xmm14, %xmm12, %xmm1
vrsqrt14ss %xmm1, %xmm12, %xmm1
vmulss 0x20d8ff(%rip), %xmm1, %xmm2 # 0x1eec718
vmulss 0x20d8fb(%rip), %xmm14, %xmm3 # 0x1eec71c
movq (%r13), %rax
movq 0x1e8(%rax), %rax
movq %r13, %rcx
movq 0x38(%rsp), %rdx
movq (%rax,%rdx,8), %r13
movl 0x24(%r15), %eax
testl %eax, 0x34(%r13)
je 0x1cdef27
vmulss %xmm1, %xmm3, %xmm3
vmulss %xmm1, %xmm1, %xmm1
vmulss %xmm1, %xmm3, %xmm1
vaddss %xmm1, %xmm2, %xmm1
vbroadcastss %xmm1, %xmm1
vmulps %xmm1, %xmm13, %xmm1
vfmadd213ps %xmm11, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm0) + xmm11
vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm11, %xmm11, %xmm3 # xmm3 = xmm11[1,2,0,3]
vmulps %xmm3, %xmm1, %xmm1
vfmsub231ps %xmm2, %xmm11, %xmm1 # xmm1 = (xmm11 * xmm2) - xmm1
vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3]
vshufps $0xd2, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,0,1,3]
vmulps %xmm1, %xmm0, %xmm0
vfmsub231ps %xmm3, %xmm2, %xmm0 # xmm0 = (xmm2 * xmm3) - xmm0
movq 0x10(%rcx), %rax
cmpq $0x0, 0x10(%rax)
jne 0x1cdef2c
cmpq $0x0, 0x40(%r13)
jne 0x1cdef2c
vmovss %xmm10, 0x20(%r15)
vshufps $0xe9, %xmm0, %xmm0, %xmm1 # xmm1 = xmm0[1,2,2,3]
vmovlps %xmm1, 0x30(%r15)
vmovss %xmm0, 0x38(%r15)
vmovss %xmm9, 0x3c(%r15)
movl $0x0, 0x40(%r15)
movq 0x78(%rsp), %rax
movl %eax, 0x44(%r15)
movq 0x38(%rsp), %rax
movl %eax, 0x48(%r15)
movq 0x10(%rsp), %r13
movq 0x8(%r13), %rax
movl (%rax), %eax
movl %eax, 0x4c(%r15)
movq 0x8(%r13), %rax
movl 0x4(%rax), %eax
movl %eax, 0x50(%r15)
jmp 0x1cdef0a
xorl %r14d, %r14d
vxorps %xmm12, %xmm12, %xmm12
jmp 0x1cdef0a
xorl %r14d, %r14d
subq $0x1, %r12
setb %al
testb %r14b, %r14b
jne 0x1cdf0fd
testb %al, %al
je 0x1cde924
jmp 0x1cdf0fd
movq %rcx, %r13
jmp 0x1cdef0a
movq 0x10(%rsp), %rdx
movq 0x8(%rdx), %rax
vshufps $0xe9, %xmm0, %xmm0, %xmm1 # xmm1 = xmm0[1,2,2,3]
vmovlps %xmm1, 0x150(%rsp)
vmovss %xmm0, 0x158(%rsp)
vmovss %xmm9, 0x15c(%rsp)
movl $0x0, 0x160(%rsp)
movq 0x78(%rsp), %rcx
movl %ecx, 0x164(%rsp)
movq 0x38(%rsp), %rcx
movl %ecx, 0x168(%rsp)
movl (%rax), %ecx
movl %ecx, 0x16c(%rsp)
movl 0x4(%rax), %eax
movl %eax, 0x170(%rsp)
vmovss %xmm10, 0x20(%r15)
movl $0xffffffff, 0x34(%rsp) # imm = 0xFFFFFFFF
leaq 0x34(%rsp), %rax
movq %rax, 0x100(%rsp)
movq 0x18(%r13), %rax
movq %rax, 0x108(%rsp)
movq 0x8(%rdx), %rax
movq %rax, 0x110(%rsp)
movq %r15, 0x118(%rsp)
leaq 0x150(%rsp), %rax
movq %rax, 0x120(%rsp)
movl $0x1, 0x128(%rsp)
movq 0x40(%r13), %rax
testq %rax, %rax
vmovaps %xmm9, 0xa0(%rsp)
vmovaps %xmm10, 0x80(%rsp)
vmovss %xmm4, 0x40(%rsp)
je 0x1cdf03d
leaq 0x100(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0x40(%rsp), %xmm4
vmovaps 0x80(%rsp), %xmm10
vmovaps 0xa0(%rsp), %xmm9
vxorps %xmm12, %xmm12, %xmm12
movq 0x100(%rsp), %rax
cmpl $0x0, (%rax)
je 0x1cdf0ed
movq 0x10(%rsp), %rax
movq 0x10(%rax), %rcx
movq 0x10(%rcx), %rax
testq %rax, %rax
je 0x1cdf092
testb $0x2, (%rcx)
jne 0x1cdf05b
testb $0x40, 0x3e(%r13)
je 0x1cdf085
leaq 0x100(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0x40(%rsp), %xmm4
vmovaps 0x80(%rsp), %xmm10
vmovaps 0xa0(%rsp), %xmm9
vxorps %xmm12, %xmm12, %xmm12
movq 0x100(%rsp), %rax
cmpl $0x0, (%rax)
je 0x1cdf0ed
movq 0x118(%rsp), %rax
movq 0x120(%rsp), %rcx
vmovss (%rcx), %xmm0
vmovss %xmm0, 0x30(%rax)
vmovss 0x4(%rcx), %xmm0
vmovss %xmm0, 0x34(%rax)
vmovss 0x8(%rcx), %xmm0
vmovss %xmm0, 0x38(%rax)
vmovss 0xc(%rcx), %xmm0
vmovss %xmm0, 0x3c(%rax)
vmovss 0x10(%rcx), %xmm0
vmovss %xmm0, 0x40(%rax)
movl 0x14(%rcx), %edx
movl %edx, 0x44(%rax)
movl 0x18(%rcx), %edx
movl %edx, 0x48(%rax)
movl 0x1c(%rcx), %edx
movl %edx, 0x4c(%rax)
movl 0x20(%rcx), %ecx
movl %ecx, 0x50(%rax)
jmp 0x1cdf0f3
vmovss %xmm4, 0x20(%r15)
movq 0x10(%rsp), %r13
jmp 0x1cdef0a
vmovaps 0x3c0(%rsp), %ymm0
vcmpleps 0x20(%r15){1to8}, %ymm0, %k0
kmovd %k0, %eax
andb %al, %bl
jne 0x1cde83b
vmovdqa 0x420(%rsp), %ymm1
vpcmpltd 0x340(%rsp), %ymm1, %k1
vmovaps 0x460(%rsp), %ymm0
vpcmpltd 0x4e0(%rsp), %ymm1, %k2
vmovaps 0x1e0(%rsp), %ymm7
vaddps %ymm0, %ymm7, %ymm1
vbroadcastss 0x20(%r15), %ymm2
vcmpleps %ymm2, %ymm1, %k0 {%k2}
kmovd %k0, %eax
movl 0x138(%rsp), %ecx
andb %al, %cl
vmovaps 0x4a0(%rsp), %ymm1
vaddps %ymm1, %ymm7, %ymm3
vcmpleps %ymm2, %ymm3, %k0 {%k1}
kmovd %k0, %eax
movl 0x18(%rsp), %edx
andb %al, %dl
orb %cl, %dl
je 0x1cdf20b
movq 0xf8(%rsp), %r8
movl %r8d, %eax
leaq (%rax,%rax,2), %rax
shlq $0x5, %rax
movb %dl, 0x740(%rsp,%rax)
kmovd %ecx, %k1
vmovaps %ymm0, %ymm1 {%k1}
vmovaps %ymm1, 0x760(%rsp,%rax)
vmovaps 0x140(%rsp), %xmm3
vmovlps %xmm3, 0x780(%rsp,%rax)
movq 0x190(%rsp), %r11
leal 0x1(%r11), %ecx
movl %ecx, 0x788(%rsp,%rax)
incl %r8d
movq 0x188(%rsp), %r9
movq 0x198(%rsp), %r10
jmp 0x1cddb4b
vmovaps 0x1e0(%rsp), %ymm7
movq 0xf8(%rsp), %r8
jmp 0x1cddb42
movq 0x188(%rsp), %r9
movq 0x198(%rsp), %r10
movq 0xf8(%rsp), %r8
movq 0x190(%rsp), %r11
jmp 0x1cddb42
vcmpleps 0x241cc5(%rip), %ymm23, %k2 # 0x1f20f00
vbroadcastss 0x20d940(%rip), %ymm1 # 0x1eecb84
vbroadcastss 0x20c7d2(%rip), %ymm23 # 0x1eeba20
vblendmps %ymm1, %ymm23, %ymm0 {%k2}
vmovaps %ymm0, %ymm31 {%k1}
vblendmps %ymm23, %ymm1, %ymm0 {%k2}
kmovd %k2, %ecx
vmovaps %ymm0, %ymm30 {%k1}
knotb %k1, %k0
kmovd %k0, %edx
orb %cl, %dl
andb %al, %dl
movl %edx, %eax
jmp 0x1cdd6f1
vmovaps 0x500(%rsp), %ymm0
vcmpleps 0x20(%r15){1to8}, %ymm0, %k0
kmovb %k0, %eax
andl %eax, %r10d
jne 0x1cdceb6
leaq -0x28(%rbp), %rsp
popq %rbx
popq %r12
popq %r13
popq %r14
popq %r15
popq %rbp
vzeroupper
retq
nop
|
/embree[P]embree/kernels/geometry/curveNi_intersector.h
|
bool embree::avx512::CurveNiIntersector1<8>::occluded_t<embree::avx512::SweepCurve1Intersector1<embree::BezierCurveT>, embree::avx512::Occluded1Epilog1<true>>(embree::avx512::CurvePrecalculations1 const&, embree::RayK<1>&, embree::RayQueryContext*, embree::CurveNi<8> const&)
|
static __forceinline bool occluded_t(const Precalculations& pre, Ray& ray, RayQueryContext* context, const Primitive& prim)
{
vfloat<M> tNear;
vbool<M> valid = intersect(ray,prim,tNear);
const size_t N = prim.N;
size_t mask = movemask(valid);
while (mask)
{
const size_t i = bscf(mask);
STAT3(shadow.trav_prims,1,1,1);
const unsigned int geomID = prim.geomID(N);
const unsigned int primID = prim.primID(N)[i];
const CurveGeometry* geom = context->scene->get<CurveGeometry>(geomID);
Vec3ff a0,a1,a2,a3; geom->gather(a0,a1,a2,a3,geom->curve(primID));
size_t mask1 = mask;
const size_t i1 = bscf(mask1);
if (mask) {
const unsigned int primID1 = prim.primID(N)[i1];
geom->prefetchL1_vertices(geom->curve(primID1));
if (mask1) {
const size_t i2 = bsf(mask1);
const unsigned int primID2 = prim.primID(N)[i2];
geom->prefetchL2_vertices(geom->curve(primID2));
}
}
if (Intersector().intersect(pre,ray,context,geom,primID,a0,a1,a2,a3,Epilog(ray,context,geomID,primID)))
return true;
mask &= movemask(tNear <= vfloat<M>(ray.tfar));
}
return false;
}
|
pushq %rbp
movq %rsp, %rbp
pushq %r15
pushq %r14
pushq %r13
pushq %r12
pushq %rbx
andq $-0x20, %rsp
subq $0x8a0, %rsp # imm = 0x8A0
movq %rcx, %r9
movq %rsi, %r15
movzbl 0x1(%rcx), %eax
leaq (%rax,%rax,4), %rcx
leaq (%rcx,%rcx,4), %rsi
vbroadcastss 0x12(%r9,%rsi), %xmm0
vmovaps (%r15), %xmm1
vsubps 0x6(%r9,%rsi), %xmm1, %xmm1
vmulps 0x10(%r15), %xmm0, %xmm2
vmulps %xmm1, %xmm0, %xmm3
vpmovsxbd 0x6(%r9,%rax,4), %ymm0
vcvtdq2ps %ymm0, %ymm5
vpmovsxbd 0x6(%r9,%rcx), %ymm0
vcvtdq2ps %ymm0, %ymm6
leaq (%rax,%rax,2), %r8
vpmovsxbd 0x6(%r9,%r8,2), %ymm0
vcvtdq2ps %ymm0, %ymm7
leaq (%rax,%rcx,2), %rsi
vpmovsxbd 0x6(%r9,%rsi), %ymm0
vcvtdq2ps %ymm0, %ymm8
leal (,%r8,4), %esi
vpmovsxbd 0x6(%r9,%rsi), %ymm0
vcvtdq2ps %ymm0, %ymm9
addq %rax, %rsi
vpmovsxbd 0x6(%r9,%rsi), %ymm0
vcvtdq2ps %ymm0, %ymm10
leaq (%rax,%rax,8), %rsi
leal (%rsi,%rsi), %edi
vpmovsxbd 0x6(%r9,%rdi), %ymm0
addq %rax, %rdi
vpmovsxbd 0x6(%r9,%rdi), %ymm1
vcvtdq2ps %ymm0, %ymm11
vcvtdq2ps %ymm1, %ymm12
shll $0x2, %ecx
vpmovsxbd 0x6(%r9,%rcx), %ymm0
vcvtdq2ps %ymm0, %ymm13
vbroadcastss %xmm2, %ymm14
vbroadcastss 0x23337d(%rip), %ymm16 # 0x1f12704
vpermps %ymm2, %ymm16, %ymm15
vbroadcastss 0x241b45(%rip), %ymm17 # 0x1f20edc
vpermps %ymm2, %ymm17, %ymm0
vmulps %ymm7, %ymm0, %ymm4
vmulps %ymm0, %ymm10, %ymm1
vmulps %ymm0, %ymm13, %ymm0
vfmadd231ps %ymm6, %ymm15, %ymm4 # ymm4 = (ymm15 * ymm6) + ymm4
vfmadd231ps %ymm9, %ymm15, %ymm1 # ymm1 = (ymm15 * ymm9) + ymm1
vfmadd231ps %ymm15, %ymm12, %ymm0 # ymm0 = (ymm12 * ymm15) + ymm0
vfmadd231ps %ymm5, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm5) + ymm4
vfmadd231ps %ymm8, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm8) + ymm1
vfmadd231ps %ymm14, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm14) + ymm0
vbroadcastss %xmm3, %ymm14
vpermps %ymm3, %ymm16, %ymm15
vpermps %ymm3, %ymm17, %ymm2
vmulps %ymm7, %ymm2, %ymm7
vmulps %ymm2, %ymm10, %ymm3
vmulps %ymm2, %ymm13, %ymm2
vfmadd231ps %ymm6, %ymm15, %ymm7 # ymm7 = (ymm15 * ymm6) + ymm7
vfmadd231ps %ymm9, %ymm15, %ymm3 # ymm3 = (ymm15 * ymm9) + ymm3
vfmadd231ps %ymm12, %ymm15, %ymm2 # ymm2 = (ymm15 * ymm12) + ymm2
vfmadd231ps %ymm5, %ymm14, %ymm7 # ymm7 = (ymm14 * ymm5) + ymm7
vfmadd231ps %ymm8, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm8) + ymm3
vfmadd231ps %ymm11, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm11) + ymm2
vbroadcastss 0x241ab8(%rip), %ymm28 # 0x1f20ec4
vandps %ymm28, %ymm4, %ymm5
vbroadcastss 0x211bcd(%rip), %ymm6 # 0x1ef0fe8
vcmpltps %ymm6, %ymm5, %k1
vmovaps %ymm6, %ymm4 {%k1}
vandps %ymm28, %ymm1, %ymm5
vcmpltps %ymm6, %ymm5, %k1
vmovaps %ymm6, %ymm1 {%k1}
vandps %ymm28, %ymm0, %ymm5
vcmpltps %ymm6, %ymm5, %k1
vmovaps %ymm6, %ymm0 {%k1}
vrcp14ps %ymm4, %ymm5
vbroadcastss 0x20d2b7(%rip), %ymm6 # 0x1eec714
vfnmadd213ps %ymm6, %ymm5, %ymm4 # ymm4 = -(ymm5 * ymm4) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm4 # ymm4 = (ymm4 * ymm5) + ymm5
vrcp14ps %ymm1, %ymm5
vfnmadd213ps %ymm6, %ymm5, %ymm1 # ymm1 = -(ymm5 * ymm1) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm1 # ymm1 = (ymm1 * ymm5) + ymm5
vrcp14ps %ymm0, %ymm5
vfnmadd213ps %ymm6, %ymm5, %ymm0 # ymm0 = -(ymm5 * ymm0) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm0 # ymm0 = (ymm0 * ymm5) + ymm5
leaq (,%rax,8), %rdi
subq %rax, %rdi
vpmovsxwd 0x6(%r9,%rdi), %ymm5
vcvtdq2ps %ymm5, %ymm5
vsubps %ymm7, %ymm5, %ymm5
vpmovsxwd 0x6(%r9,%rsi), %ymm6
vmulps %ymm5, %ymm4, %ymm5
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm7, %ymm6, %ymm6
vmulps %ymm6, %ymm4, %ymm4
leaq (%rax,%rax), %rsi
addq %rax, %rcx
shlq $0x3, %r8
subq %rax, %r8
movl %eax, %edi
shll $0x4, %edi
vpmovsxwd 0x6(%r9,%rdi), %ymm6
subq %rsi, %rdi
vpmovsxwd 0x6(%r9,%rdi), %ymm7
vcvtdq2ps %ymm7, %ymm7
vsubps %ymm3, %ymm7, %ymm7
vmulps %ymm7, %ymm1, %ymm7
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm3, %ymm6, %ymm3
vmulps %ymm3, %ymm1, %ymm1
vpmovsxwd 0x6(%r9,%rcx), %ymm3
vcvtdq2ps %ymm3, %ymm3
vsubps %ymm2, %ymm3, %ymm3
vmulps %ymm0, %ymm3, %ymm3
vpmovsxwd 0x6(%r9,%r8), %ymm6
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm2, %ymm6, %ymm2
vmulps %ymm2, %ymm0, %ymm0
vpminsd %ymm4, %ymm5, %ymm2
vpminsd %ymm1, %ymm7, %ymm6
vmaxps %ymm6, %ymm2, %ymm2
vpminsd %ymm0, %ymm3, %ymm6
vmaxps 0xc(%r15){1to8}, %ymm6, %ymm6
vmaxps %ymm6, %ymm2, %ymm2
vmulps 0x2409ce(%rip){1to8}, %ymm2, %ymm6 # 0x1f1ff10
vpmaxsd %ymm4, %ymm5, %ymm2
vpmaxsd %ymm1, %ymm7, %ymm1
vminps %ymm1, %ymm2, %ymm1
vpmaxsd %ymm0, %ymm3, %ymm0
vminps 0x20(%r15){1to8}, %ymm0, %ymm0
vminps %ymm0, %ymm1, %ymm0
vmulps 0x2409aa(%rip){1to8}, %ymm0, %ymm0 # 0x1f1ff14
vpbroadcastd %eax, %ymm1
vpcmpgtd 0x27b3a6(%rip), %ymm1, %k0 # 0x1f5a920
vmovaps %ymm6, 0x6e0(%rsp)
vcmpleps %ymm0, %ymm6, %k1
ktestb %k0, %k1
setne %al
je 0x1ce1c3c
kandb %k0, %k1, %k0
kmovd %k0, %ecx
movzbl %cl, %r14d
movq %r9, 0x308(%rsp)
movq %rdx, 0x8(%rsp)
tzcntq %r14, %rcx
movl 0x2(%r9), %esi
movl 0x6(%r9,%rcx,4), %r12d
movq (%rdx), %rcx
movq 0x1e8(%rcx), %rcx
movq %rsi, 0x38(%rsp)
movq (%rcx,%rsi,8), %rsi
movq 0x58(%rsi), %r11
movq 0x68(%rsi), %rcx
movq %rcx, %rdi
imulq %r12, %rdi
movl (%r11,%rdi), %edi
movq 0xa0(%rsi), %r10
movq %r10, %r8
imulq %rdi, %r8
movq 0x90(%rsi), %rsi
vmovaps (%rsi,%r8), %xmm1
leaq 0x1(%rdi), %r8
imulq %r10, %r8
vmovaps (%rsi,%r8), %xmm0
leaq 0x2(%rdi), %r8
imulq %r10, %r8
vmovaps (%rsi,%r8), %xmm3
blsrq %r14, %r14
addq $0x3, %rdi
imulq %r10, %rdi
vmovaps (%rsi,%rdi), %xmm2
movq %r14, %rdi
subq $0x1, %rdi
jb 0x1cdf680
andq %r14, %rdi
tzcntq %r14, %r8
movl 0x6(%r9,%r8,4), %r8d
imulq %rcx, %r8
movl (%r11,%r8), %r8d
imulq %r10, %r8
prefetcht0 (%rsi,%r8)
prefetcht0 0x40(%rsi,%r8)
testq %rdi, %rdi
je 0x1cdf680
tzcntq %rdi, %rdi
movl 0x6(%r9,%rdi,4), %edi
imulq %rdi, %rcx
movl (%r11,%rcx), %ecx
imulq %rcx, %r10
prefetcht1 (%rsi,%r10)
prefetcht1 0x40(%rsi,%r10)
vaddps %xmm0, %xmm1, %xmm4
vaddps %xmm3, %xmm4, %xmm4
vaddps %xmm2, %xmm4, %xmm5
vmovaps (%r15), %xmm6
vmovaps 0x10(%r15), %xmm4
vmulps 0x23dc5b(%rip){1to4}, %xmm5, %xmm5 # 0x1f1d2fc
vsubps %xmm6, %xmm5, %xmm5
vdpps $0x7f, %xmm4, %xmm5, %xmm5
vdpps $0x7f, %xmm4, %xmm4, %xmm7
vxorps %xmm10, %xmm10, %xmm10
vmovss %xmm7, %xmm10, %xmm8 # xmm8 = xmm7[0],xmm10[1,2,3]
vrcp14ss %xmm8, %xmm10, %xmm8
vmovaps %xmm8, %xmm9
vfnmadd213ss 0x21192a(%rip), %xmm7, %xmm9 # xmm9 = -(xmm7 * xmm9) + mem
vmulss %xmm9, %xmm8, %xmm7
vmulss %xmm7, %xmm5, %xmm5
vmovaps %xmm5, 0x3f0(%rsp)
vbroadcastss %xmm5, %ymm5
vmovaps %ymm5, 0x320(%rsp)
vfmadd231ps %xmm5, %xmm4, %xmm6 # xmm6 = (xmm4 * xmm5) + xmm6
vblendps $0x8, %xmm10, %xmm6, %xmm5 # xmm5 = xmm6[0,1,2],xmm10[3]
vsubps %xmm5, %xmm1, %xmm6
vsubps %xmm5, %xmm3, %xmm3
vbroadcastss 0x10(%r15), %ymm8
vbroadcastss 0x14(%r15), %ymm13
vbroadcastss 0x18(%r15), %ymm1
vmovaps %ymm1, 0x620(%rsp)
vsubps %xmm5, %xmm0, %xmm7
vsubps %xmm5, %xmm2, %xmm5
vbroadcastss %xmm6, %ymm12
vbroadcastss 0x232fd2(%rip), %ymm0 # 0x1f12704
vpermps %ymm6, %ymm0, %ymm9
vbroadcastss 0x24179c(%rip), %ymm1 # 0x1f20edc
vpermps %ymm6, %ymm1, %ymm10
vbroadcastss 0x24178a(%rip), %ymm2 # 0x1f20ed8
vmovaps %ymm6, 0x4e0(%rsp)
vpermps %ymm6, %ymm2, %ymm11
vbroadcastss %xmm7, %ymm6
vpermps %ymm7, %ymm0, %ymm25
vpermps %ymm7, %ymm1, %ymm26
vmovaps %ymm7, 0x4a0(%rsp)
vpermps %ymm7, %ymm2, %ymm14
vbroadcastss %xmm3, %ymm17
vpermps %ymm3, %ymm0, %ymm18
vpermps %ymm3, %ymm1, %ymm20
vmovaps %ymm3, 0x4c0(%rsp)
vpermps %ymm3, %ymm2, %ymm22
vmovaps %ymm6, %ymm3
vbroadcastss %xmm5, %ymm30
vpermps %ymm5, %ymm0, %ymm19
vpermps %ymm5, %ymm1, %ymm23
vmovaps %ymm5, 0x480(%rsp)
vpermps %ymm5, %ymm2, %ymm24
vmulps %xmm4, %xmm4, %xmm0
vpermps %ymm0, %ymm1, %ymm21
vmovaps %ymm13, 0x560(%rsp)
vfmadd231ps %ymm13, %ymm13, %ymm21 # ymm21 = (ymm13 * ymm13) + ymm21
vfmadd231ps %ymm8, %ymm8, %ymm21 # ymm21 = (ymm8 * ymm8) + ymm21
vandps %ymm28, %ymm21, %ymm0
vmovaps %ymm0, 0x600(%rsp)
movl $0x1, %ecx
movq %rcx, 0xe8(%rsp)
xorl %r11d, %r11d
xorl %ebx, %ebx
vmovsd 0x20cee7(%rip), %xmm2 # 0x1eec6f0
vmovaps %ymm8, 0x520(%rsp)
vmovaps %ymm12, 0x740(%rsp)
vmovaps %ymm9, 0x200(%rsp)
vmovaps %ymm10, 0x220(%rsp)
vmovaps %ymm11, 0x1e0(%rsp)
vmovaps %ymm6, 0x460(%rsp)
vmovaps %ymm25, 0x180(%rsp)
vmovaps %ymm26, 0x160(%rsp)
vmovaps %ymm14, 0x720(%rsp)
vmovaps %ymm17, 0x140(%rsp)
vmovaps %ymm18, 0x120(%rsp)
vmovaps %ymm20, 0x2a0(%rsp)
vmovaps %ymm22, 0x280(%rsp)
vmovaps %ymm30, 0x360(%rsp)
vmovaps %ymm19, 0x100(%rsp)
vmovaps %ymm23, 0x260(%rsp)
vmovaps %ymm24, 0x240(%rsp)
vmovaps %ymm21, 0x700(%rsp)
vmovshdup %xmm2, %xmm0 # xmm0 = xmm2[1,1,3,3]
vsubss %xmm2, %xmm0, %xmm1
vmulss 0x241620(%rip), %xmm1, %xmm6 # 0x1f20ed0
vmovaps %xmm2, 0x3d0(%rsp)
vbroadcastss %xmm2, %ymm5
vbroadcastss %xmm1, %ymm0
vmovaps %ymm5, 0x80(%rsp)
vmovaps %ymm0, 0x340(%rsp)
vfmadd231ps 0x241642(%rip), %ymm0, %ymm5 # ymm5 = (ymm0 * mem) + ymm5
vbroadcastss 0x20ce2d(%rip), %ymm0 # 0x1eec714
vsubps %ymm5, %ymm0, %ymm7
vmulps %ymm5, %ymm3, %ymm2
vmovaps %ymm3, %ymm1
vmulps %ymm5, %ymm25, %ymm3
vmulps %ymm5, %ymm26, %ymm4
vmulps %ymm5, %ymm14, %ymm8
vfmadd231ps %ymm12, %ymm7, %ymm2 # ymm2 = (ymm7 * ymm12) + ymm2
vfmadd231ps %ymm9, %ymm7, %ymm3 # ymm3 = (ymm7 * ymm9) + ymm3
vfmadd231ps %ymm10, %ymm7, %ymm4 # ymm4 = (ymm7 * ymm10) + ymm4
vfmadd231ps %ymm11, %ymm7, %ymm8 # ymm8 = (ymm7 * ymm11) + ymm8
vmulps %ymm5, %ymm17, %ymm9
vmulps %ymm5, %ymm18, %ymm10
vmulps %ymm5, %ymm20, %ymm11
vmulps %ymm5, %ymm22, %ymm12
vfmadd231ps %ymm1, %ymm7, %ymm9 # ymm9 = (ymm7 * ymm1) + ymm9
vfmadd231ps %ymm25, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm25) + ymm10
vfmadd231ps %ymm26, %ymm7, %ymm11 # ymm11 = (ymm7 * ymm26) + ymm11
vfmadd231ps %ymm14, %ymm7, %ymm12 # ymm12 = (ymm7 * ymm14) + ymm12
vmulps %ymm5, %ymm30, %ymm13
vmulps %ymm5, %ymm19, %ymm14
vmulps %ymm5, %ymm23, %ymm15
vmulps %ymm5, %ymm24, %ymm16
vfmadd231ps %ymm17, %ymm7, %ymm13 # ymm13 = (ymm7 * ymm17) + ymm13
vfmadd231ps %ymm18, %ymm7, %ymm14 # ymm14 = (ymm7 * ymm18) + ymm14
vfmadd231ps %ymm20, %ymm7, %ymm15 # ymm15 = (ymm7 * ymm20) + ymm15
vfmadd231ps %ymm22, %ymm7, %ymm16 # ymm16 = (ymm7 * ymm22) + ymm16
vmulps %ymm9, %ymm5, %ymm17
vmulps %ymm10, %ymm5, %ymm18
vmulps %ymm11, %ymm5, %ymm19
vmulps %ymm12, %ymm5, %ymm20
vfmadd231ps %ymm2, %ymm7, %ymm17 # ymm17 = (ymm7 * ymm2) + ymm17
vfmadd231ps %ymm3, %ymm7, %ymm18 # ymm18 = (ymm7 * ymm3) + ymm18
vfmadd231ps %ymm4, %ymm7, %ymm19 # ymm19 = (ymm7 * ymm4) + ymm19
vfmadd231ps %ymm8, %ymm7, %ymm20 # ymm20 = (ymm7 * ymm8) + ymm20
vmulps %ymm5, %ymm13, %ymm8
vmulps %ymm5, %ymm14, %ymm13
vmulps %ymm5, %ymm15, %ymm14
vmulps %ymm16, %ymm5, %ymm15
vfmadd231ps %ymm9, %ymm7, %ymm8 # ymm8 = (ymm7 * ymm9) + ymm8
vfmadd231ps %ymm10, %ymm7, %ymm13 # ymm13 = (ymm7 * ymm10) + ymm13
vfmadd231ps %ymm11, %ymm7, %ymm14 # ymm14 = (ymm7 * ymm11) + ymm14
vfmadd231ps %ymm12, %ymm7, %ymm15 # ymm15 = (ymm7 * ymm12) + ymm15
vmulps %ymm5, %ymm8, %ymm4
vmulps %ymm5, %ymm13, %ymm3
vmulps %ymm14, %ymm5, %ymm29
vmulps %ymm5, %ymm15, %ymm5
vfmadd231ps %ymm17, %ymm7, %ymm4 # ymm4 = (ymm7 * ymm17) + ymm4
vfmadd231ps %ymm18, %ymm7, %ymm3 # ymm3 = (ymm7 * ymm18) + ymm3
vfmadd231ps %ymm19, %ymm7, %ymm29 # ymm29 = (ymm7 * ymm19) + ymm29
vfmadd231ps %ymm7, %ymm20, %ymm5 # ymm5 = (ymm20 * ymm7) + ymm5
vsubps %ymm17, %ymm8, %ymm7
vsubps %ymm18, %ymm13, %ymm8
vsubps %ymm19, %ymm14, %ymm9
vsubps %ymm20, %ymm15, %ymm10
vbroadcastss 0x2115d6(%rip), %ymm1 # 0x1ef0fec
vmulps %ymm1, %ymm7, %ymm7
vmulps %ymm1, %ymm8, %ymm8
vmulps %ymm1, %ymm9, %ymm9
vmulps %ymm1, %ymm10, %ymm10
vbroadcastss %xmm6, %ymm6
vmulps %ymm7, %ymm6, %ymm11
vmulps %ymm6, %ymm8, %ymm12
vmulps %ymm6, %ymm9, %ymm13
vmulps %ymm6, %ymm10, %ymm6
vmovaps %ymm4, %ymm8
vmovaps 0x2802d9(%rip), %ymm1 # 0x1f5fd20
vxorps %xmm31, %xmm31, %xmm31
vpermt2ps %ymm31, %ymm1, %ymm8
vmovaps %ymm3, %ymm9
vpermt2ps %ymm31, %ymm1, %ymm9
vmovaps %ymm29, %ymm10
vpermt2ps %ymm31, %ymm1, %ymm10
vaddps %ymm6, %ymm5, %ymm7
vmaxps %ymm7, %ymm5, %ymm14
vminps %ymm7, %ymm5, %ymm15
vmovaps %ymm5, %ymm16
vpermt2ps %ymm31, %ymm1, %ymm16
vmovaps %ymm11, %ymm19
vpermt2ps %ymm31, %ymm1, %ymm19
vmovaps %ymm12, %ymm20
vpermt2ps %ymm31, %ymm1, %ymm20
vmovaps %ymm13, %ymm2
vpermt2ps %ymm31, %ymm1, %ymm2
vpermt2ps %ymm31, %ymm1, %ymm6
vsubps %ymm6, %ymm16, %ymm17
vsubps %ymm4, %ymm8, %ymm7
vsubps %ymm3, %ymm9, %ymm6
vsubps %ymm29, %ymm10, %ymm5
vmulps %ymm13, %ymm6, %ymm18
vfmsub231ps %ymm5, %ymm12, %ymm18 # ymm18 = (ymm12 * ymm5) - ymm18
vmulps %ymm11, %ymm5, %ymm22
vfmsub231ps %ymm7, %ymm13, %ymm22 # ymm22 = (ymm13 * ymm7) - ymm22
vmulps %ymm12, %ymm7, %ymm23
vfmsub231ps %ymm6, %ymm11, %ymm23 # ymm23 = (ymm11 * ymm6) - ymm23
vmulps %ymm23, %ymm23, %ymm23
vfmadd231ps %ymm22, %ymm22, %ymm23 # ymm23 = (ymm22 * ymm22) + ymm23
vfmadd231ps %ymm18, %ymm18, %ymm23 # ymm23 = (ymm18 * ymm18) + ymm23
vmulps %ymm5, %ymm5, %ymm18
vfmadd231ps %ymm6, %ymm6, %ymm18 # ymm18 = (ymm6 * ymm6) + ymm18
vfmadd231ps %ymm7, %ymm7, %ymm18 # ymm18 = (ymm7 * ymm7) + ymm18
vrcp14ps %ymm18, %ymm22
vmovaps %ymm22, %ymm24
vfnmadd213ps %ymm0, %ymm18, %ymm24 # ymm24 = -(ymm18 * ymm24) + ymm0
vfmadd132ps %ymm22, %ymm22, %ymm24 # ymm24 = (ymm24 * ymm22) + ymm22
vmulps %ymm24, %ymm23, %ymm22
vmulps %ymm2, %ymm6, %ymm23
vfmsub231ps %ymm5, %ymm20, %ymm23 # ymm23 = (ymm20 * ymm5) - ymm23
vmulps %ymm19, %ymm5, %ymm25
vfmsub231ps %ymm7, %ymm2, %ymm25 # ymm25 = (ymm2 * ymm7) - ymm25
vmulps %ymm20, %ymm7, %ymm26
vfmsub231ps %ymm6, %ymm19, %ymm26 # ymm26 = (ymm19 * ymm6) - ymm26
vmulps %ymm26, %ymm26, %ymm26
vfmadd231ps %ymm25, %ymm25, %ymm26 # ymm26 = (ymm25 * ymm25) + ymm26
vfmadd231ps %ymm23, %ymm23, %ymm26 # ymm26 = (ymm23 * ymm23) + ymm26
vmulps %ymm24, %ymm26, %ymm23
vmaxps %ymm23, %ymm22, %ymm22
vsqrtps %ymm22, %ymm22
vmaxps %ymm16, %ymm17, %ymm23
vmaxps %ymm23, %ymm14, %ymm14
vaddps %ymm14, %ymm22, %ymm14
vminps %ymm16, %ymm17, %ymm16
vminps %ymm16, %ymm15, %ymm15
vsubps %ymm22, %ymm15, %ymm15
vmulps 0x210da7(%rip){1to8}, %ymm14, %ymm14 # 0x1ef0940
vmulps 0x210da1(%rip){1to8}, %ymm15, %ymm1 # 0x1ef0944
vmovaps %ymm1, 0x3a0(%rsp)
vmulps %ymm14, %ymm14, %ymm23
vrsqrt14ps %ymm18, %ymm15
vmulps 0x20cb5a(%rip){1to8}, %ymm18, %ymm14 # 0x1eec71c
vmulps %ymm14, %ymm15, %ymm14
vmulps %ymm15, %ymm15, %ymm16
vmulps %ymm14, %ymm16, %ymm14
vfmadd231ps 0x20cb3b(%rip){1to8}, %ymm15, %ymm14 # ymm14 = (ymm15 * mem) + ymm14
vmulps %ymm7, %ymm14, %ymm15
vmulps %ymm14, %ymm6, %ymm16
vmulps %ymm14, %ymm5, %ymm18
vsubps %ymm4, %ymm31, %ymm27
vsubps %ymm3, %ymm31, %ymm28
vmovaps %ymm29, 0x40(%rsp)
vsubps %ymm29, %ymm31, %ymm29
vmovaps 0x620(%rsp), %ymm17
vmulps %ymm29, %ymm17, %ymm22
vmovaps 0x560(%rsp), %ymm25
vfmadd231ps %ymm28, %ymm25, %ymm22 # ymm22 = (ymm25 * ymm28) + ymm22
vmovaps 0x520(%rsp), %ymm1
vfmadd231ps %ymm27, %ymm1, %ymm22 # ymm22 = (ymm1 * ymm27) + ymm22
vmulps %ymm29, %ymm29, %ymm24
vfmadd231ps %ymm28, %ymm28, %ymm24 # ymm24 = (ymm28 * ymm28) + ymm24
vfmadd231ps %ymm27, %ymm27, %ymm24 # ymm24 = (ymm27 * ymm27) + ymm24
vmulps %ymm18, %ymm17, %ymm17
vfmadd231ps %ymm25, %ymm16, %ymm17 # ymm17 = (ymm16 * ymm25) + ymm17
vfmadd231ps %ymm1, %ymm15, %ymm17 # ymm17 = (ymm15 * ymm1) + ymm17
vmulps %ymm18, %ymm29, %ymm18
vfmadd231ps %ymm16, %ymm28, %ymm18 # ymm18 = (ymm28 * ymm16) + ymm18
vfmadd231ps %ymm15, %ymm27, %ymm18 # ymm18 = (ymm27 * ymm15) + ymm18
vmulps %ymm17, %ymm17, %ymm16
vsubps %ymm16, %ymm21, %ymm15
vmulps %ymm18, %ymm17, %ymm25
vsubps %ymm25, %ymm22, %ymm22
vaddps %ymm22, %ymm22, %ymm22
vmulps %ymm18, %ymm18, %ymm25
vsubps %ymm25, %ymm24, %ymm24
vmovaps %ymm24, 0x60(%rsp)
vsubps %ymm23, %ymm24, %ymm23
vmulps %ymm22, %ymm22, %ymm25
vmulps 0x20cedc(%rip){1to8}, %ymm15, %ymm26 # 0x1eecb8c
vmulps %ymm23, %ymm26, %ymm30
vsubps %ymm30, %ymm25, %ymm30
vcmpnltps %ymm31, %ymm30, %k1
kmovd %k1, %edi
kortestb %k1, %k1
je 0x1cdfdb6
vsqrtps %ymm30, %ymm30
vaddps %ymm15, %ymm15, %ymm31
vrcp14ps %ymm31, %ymm1
vfnmadd213ps %ymm0, %ymm1, %ymm31 # ymm31 = -(ymm1 * ymm31) + ymm0
vfmadd132ps %ymm1, %ymm1, %ymm31 # ymm31 = (ymm31 * ymm1) + ymm1
vxorps 0x2411c7(%rip){1to8}, %ymm22, %ymm1 # 0x1f20ec0
vsubps %ymm30, %ymm1, %ymm1
vmulps %ymm31, %ymm1, %ymm1
vsubps %ymm22, %ymm30, %ymm30
vmulps %ymm31, %ymm30, %ymm30
vmovaps %ymm17, %ymm31
vfmadd213ps %ymm18, %ymm1, %ymm31 # ymm31 = (ymm1 * ymm31) + ymm18
vmulps %ymm31, %ymm14, %ymm31
vmovaps %ymm31, 0x5c0(%rsp)
vmovaps %ymm17, %ymm31
vfmadd213ps %ymm18, %ymm30, %ymm31 # ymm31 = (ymm30 * ymm31) + ymm18
vmulps %ymm31, %ymm14, %ymm31
vmovaps %ymm31, 0x5a0(%rsp)
vbroadcastss 0x20bcd2(%rip), %ymm0 # 0x1eeba20
vblendmps %ymm1, %ymm0, %ymm31 {%k1}
vbroadcastss 0x20ce27(%rip), %ymm0 # 0x1eecb84
vblendmps %ymm30, %ymm0, %ymm30 {%k1}
vbroadcastss 0x241158(%rip), %ymm0 # 0x1f20ec4
vmovaps %ymm16, %ymm24
vandps %ymm0, %ymm16, %ymm1
vmovaps 0x600(%rsp), %ymm16
vmaxps %ymm1, %ymm16, %ymm1
vmulps 0x212124(%rip){1to8}, %ymm1, %ymm1 # 0x1ef1eb4
vandps %ymm0, %ymm15, %ymm0
vcmpltps %ymm1, %ymm0, %k1 {%k1}
kortestb %k1, %k1
jne 0x1ce1bc7
vmovaps 0x520(%rsp), %ymm1
vmovaps %ymm24, %ymm16
jmp 0x1cdfdca
vbroadcastss 0x20bc60(%rip), %ymm31 # 0x1eeba20
vbroadcastss 0x20cdba(%rip), %ymm30 # 0x1eecb84
andb $0x7f, %dil
je 0x1ce01db
vmovaps %ymm16, 0x380(%rsp)
vmovss 0xc(%r15), %xmm0
vmovaps %ymm1, %ymm16
vmovss 0x20(%r15), %xmm1
vmovaps 0x3f0(%rsp), %xmm23
vsubss %xmm23, %xmm0, %xmm0
vbroadcastss %xmm0, %ymm0
vmaxps %ymm31, %ymm0, %ymm0
vsubss %xmm23, %xmm1, %xmm1
vbroadcastss %xmm1, %ymm1
vminps %ymm30, %ymm1, %ymm1
vmulps %ymm13, %ymm29, %ymm23
vfmadd213ps %ymm23, %ymm12, %ymm28 # ymm28 = (ymm12 * ymm28) + ymm23
vfmadd213ps %ymm28, %ymm11, %ymm27 # ymm27 = (ymm11 * ymm27) + ymm28
vmovaps 0x620(%rsp), %ymm21
vmulps %ymm13, %ymm21, %ymm13
vmovaps 0x560(%rsp), %ymm24
vfmadd231ps %ymm12, %ymm24, %ymm13 # ymm13 = (ymm24 * ymm12) + ymm13
vfmadd231ps %ymm11, %ymm16, %ymm13 # ymm13 = (ymm16 * ymm11) + ymm13
vbroadcastss 0x24106e(%rip), %ymm28 # 0x1f20ec4
vandps %ymm28, %ymm13, %ymm11
vbroadcastss 0x211182(%rip), %ymm29 # 0x1ef0fe8
vcmpltps %ymm29, %ymm11, %k0
vbroadcastss 0x241049(%rip), %ymm31 # 0x1f20ec0
vxorps %ymm31, %ymm27, %ymm11
vrcp14ps %ymm13, %ymm12
vxorps %ymm31, %ymm13, %ymm23
vmovaps %ymm12, %ymm27
vbroadcastss 0x20c87b(%rip), %ymm30 # 0x1eec714
vfnmadd213ps %ymm30, %ymm13, %ymm27 # ymm27 = -(ymm13 * ymm27) + ymm30
vfmadd132ps %ymm12, %ymm12, %ymm27 # ymm27 = (ymm27 * ymm12) + ymm12
vmulps %ymm11, %ymm27, %ymm11
vcmpltps %ymm23, %ymm13, %k1
korb %k1, %k0, %k1
vbroadcastss 0x20ccc4(%rip), %ymm27 # 0x1eecb84
vblendmps %ymm27, %ymm11, %ymm12 {%k1}
vmaxps %ymm12, %ymm0, %ymm0
vcmpnleps %ymm23, %ymm13, %k1
korb %k1, %k0, %k1
vbroadcastss 0x20bb40(%rip), %ymm23 # 0x1eeba20
vmovaps %ymm23, %ymm11 {%k1}
vminps %ymm11, %ymm1, %ymm1
vxorps %xmm13, %xmm13, %xmm13
vsubps %ymm8, %ymm13, %ymm8
vsubps %ymm9, %ymm13, %ymm9
vsubps %ymm10, %ymm13, %ymm10
vmulps %ymm2, %ymm10, %ymm10
vfnmsub231ps %ymm9, %ymm20, %ymm10 # ymm10 = -(ymm20 * ymm9) - ymm10
vfnmadd231ps %ymm8, %ymm19, %ymm10 # ymm10 = -(ymm19 * ymm8) + ymm10
vmulps %ymm2, %ymm21, %ymm8
vfnmsub231ps %ymm20, %ymm24, %ymm8 # ymm8 = -(ymm24 * ymm20) - ymm8
vfnmadd231ps %ymm19, %ymm16, %ymm8 # ymm8 = -(ymm16 * ymm19) + ymm8
vandps %ymm28, %ymm8, %ymm9
vcmpltps %ymm29, %ymm9, %k0
vxorps %ymm31, %ymm10, %ymm9
vrcp14ps %ymm8, %ymm10
vxorps %ymm31, %ymm8, %ymm11
vmovaps %ymm10, %ymm12
vfnmadd213ps %ymm30, %ymm8, %ymm12 # ymm12 = -(ymm8 * ymm12) + ymm30
vfmadd132ps %ymm10, %ymm10, %ymm12 # ymm12 = (ymm12 * ymm10) + ymm10
vmulps %ymm9, %ymm12, %ymm9
vcmpltps %ymm11, %ymm8, %k1
korb %k1, %k0, %k1
vblendmps %ymm27, %ymm9, %ymm10 {%k1}
vmaxps %ymm10, %ymm0, %ymm0
vcmpnleps %ymm11, %ymm8, %k1
korb %k1, %k0, %k1
vmovaps %ymm23, %ymm9 {%k1}
vminps %ymm9, %ymm1, %ymm8
vmovaps %ymm0, 0x500(%rsp)
vcmpleps %ymm8, %ymm0, %k0
kmovd %k0, %ecx
andb %cl, %dil
je 0x1ce01e5
vmovaps 0x5c0(%rsp), %ymm0
vmaxps 0x3a0(%rsp), %ymm13, %ymm1
vminps %ymm30, %ymm0, %ymm0
vxorps %xmm10, %xmm10, %xmm10
vmaxps %ymm10, %ymm0, %ymm0
vmovaps 0x5a0(%rsp), %ymm9
vminps %ymm30, %ymm9, %ymm9
vmovaps 0x240f69(%rip), %ymm11 # 0x1f20f40
vaddps %ymm0, %ymm11, %ymm0
vbroadcastss 0x23e4d4(%rip), %ymm12 # 0x1f1e4b8
vmulps %ymm0, %ymm12, %ymm0
vmovaps 0x80(%rsp), %ymm2
vmovaps 0x340(%rsp), %ymm16
vfmadd213ps %ymm2, %ymm16, %ymm0 # ymm0 = (ymm16 * ymm0) + ymm2
vmovaps %ymm0, 0x5c0(%rsp)
vmaxps %ymm10, %ymm9, %ymm0
vaddps %ymm0, %ymm11, %ymm0
vmulps %ymm0, %ymm12, %ymm0
vfmadd213ps %ymm2, %ymm16, %ymm0 # ymm0 = (ymm16 * ymm0) + ymm2
vmovaps %ymm0, 0x5a0(%rsp)
vmulps %ymm1, %ymm1, %ymm0
vmovaps 0x60(%rsp), %ymm1
vsubps %ymm0, %ymm1, %ymm11
vmulps %ymm11, %ymm26, %ymm0
vsubps %ymm0, %ymm25, %ymm0
vcmpnltps %ymm10, %ymm0, %k0
kortestb %k0, %k0
vmovaps 0x260(%rsp), %ymm23
vmovaps 0x240(%rsp), %ymm24
je 0x1ce0267
vxorps %xmm20, %xmm20, %xmm20
vcmpnltps %ymm13, %ymm0, %k1
vsqrtps %ymm0, %ymm0
vaddps %ymm15, %ymm15, %ymm1
vrcp14ps %ymm1, %ymm9
vfnmadd213ps %ymm30, %ymm9, %ymm1 # ymm1 = -(ymm9 * ymm1) + ymm30
vfmadd132ps %ymm9, %ymm9, %ymm1 # ymm1 = (ymm1 * ymm9) + ymm9
vxorps 0x240e30(%rip){1to8}, %ymm22, %ymm9 # 0x1f20ec0
vsubps %ymm0, %ymm9, %ymm9
vmulps %ymm1, %ymm9, %ymm12
vsubps %ymm22, %ymm0, %ymm0
vmulps %ymm1, %ymm0, %ymm13
vmovaps %ymm17, %ymm0
vfmadd213ps %ymm18, %ymm12, %ymm0 # ymm0 = (ymm12 * ymm0) + ymm18
vmulps %ymm0, %ymm14, %ymm9
vmovaps 0x520(%rsp), %ymm16
vmulps %ymm12, %ymm16, %ymm0
vmovaps 0x560(%rsp), %ymm22
vmulps %ymm12, %ymm22, %ymm1
vmulps %ymm12, %ymm21, %ymm10
vmovaps %ymm7, %ymm19
vfmadd213ps %ymm4, %ymm9, %ymm19 # ymm19 = (ymm9 * ymm19) + ymm4
vsubps %ymm19, %ymm0, %ymm0
vmovaps %ymm6, %ymm19
vfmadd213ps %ymm3, %ymm9, %ymm19 # ymm19 = (ymm9 * ymm19) + ymm3
vsubps %ymm19, %ymm1, %ymm1
vmovaps 0x40(%rsp), %ymm2
vfmadd213ps %ymm2, %ymm5, %ymm9 # ymm9 = (ymm5 * ymm9) + ymm2
vsubps %ymm9, %ymm10, %ymm9
vfmadd213ps %ymm18, %ymm13, %ymm17 # ymm17 = (ymm13 * ymm17) + ymm18
vmulps %ymm17, %ymm14, %ymm14
vmulps %ymm13, %ymm16, %ymm10
vmulps %ymm13, %ymm22, %ymm17
vmulps %ymm13, %ymm21, %ymm18
vfmadd213ps %ymm4, %ymm14, %ymm7 # ymm7 = (ymm14 * ymm7) + ymm4
vsubps %ymm7, %ymm10, %ymm10
vfmadd213ps %ymm3, %ymm14, %ymm6 # ymm6 = (ymm14 * ymm6) + ymm3
vsubps %ymm6, %ymm17, %ymm3
vfmadd213ps %ymm2, %ymm14, %ymm5 # ymm5 = (ymm14 * ymm5) + ymm2
vsubps %ymm5, %ymm18, %ymm5
vbroadcastss 0x20b8d2(%rip), %ymm2 # 0x1eeba20
vblendmps %ymm12, %ymm2, %ymm4 {%k1}
vbroadcastss 0x20ca27(%rip), %ymm2 # 0x1eecb84
vblendmps %ymm13, %ymm2, %ymm2 {%k1}
vandps 0x380(%rsp), %ymm28, %ymm6
vmovaps 0x600(%rsp), %ymm7
vmaxps %ymm6, %ymm7, %ymm6
vmulps 0x211d32(%rip){1to8}, %ymm6, %ymm6 # 0x1ef1eb4
vandps %ymm28, %ymm15, %ymm7
vcmpltps %ymm6, %ymm7, %k1 {%k1}
kortestb %k1, %k1
je 0x1ce028e
vcmpleps %ymm20, %ymm11, %k2
vbroadcastss 0x20c9db(%rip), %ymm7 # 0x1eecb84
vbroadcastss 0x20b86e(%rip), %ymm11 # 0x1eeba20
vblendmps %ymm7, %ymm11, %ymm6 {%k2}
vmovaps %ymm6, %ymm4 {%k1}
vblendmps %ymm11, %ymm7, %ymm6 {%k2}
vmovaps %ymm6, %ymm2 {%k1}
knotb %k1, %k1
korb %k2, %k1, %k1
kandb %k0, %k1, %k0
jmp 0x1ce028e
vbroadcastss 0x240cdf(%rip), %ymm28 # 0x1f20ec4
vmovaps 0x320(%rsp), %ymm4
vmovaps 0x200(%rsp), %ymm9
vmovaps 0x220(%rsp), %ymm10
vmovaps 0x1e0(%rsp), %ymm11
vmovaps 0x460(%rsp), %ymm3
vmovaps 0x180(%rsp), %ymm25
vmovaps 0x160(%rsp), %ymm26
vmovaps 0x140(%rsp), %ymm17
vmovaps 0x120(%rsp), %ymm18
vmovaps 0x2a0(%rsp), %ymm20
vmovaps 0x280(%rsp), %ymm16
vmovaps 0x360(%rsp), %ymm30
vmovaps 0x100(%rsp), %ymm19
vmovaps 0x260(%rsp), %ymm23
vmovaps 0x240(%rsp), %ymm24
jmp 0x1ce1a7f
vxorps %xmm3, %xmm3, %xmm3
vxorps %xmm5, %xmm5, %xmm5
vxorps %xmm0, %xmm0, %xmm0
vxorps %xmm1, %xmm1, %xmm1
vxorps %xmm9, %xmm9, %xmm9
vbroadcastss 0x20b79b(%rip), %ymm4 # 0x1eeba20
vbroadcastss 0x20c8f6(%rip), %ymm2 # 0x1eecb84
vmovaps 0x180(%rsp), %ymm25
vmovaps 0x160(%rsp), %ymm26
vmovaps 0x140(%rsp), %ymm17
vmovaps 0x120(%rsp), %ymm18
vmovaps 0x100(%rsp), %ymm19
vbroadcastss 0x10(%r15), %ymm6
vbroadcastss 0x14(%r15), %ymm7
vbroadcastss 0x18(%r15), %ymm11
vmulps %ymm5, %ymm11, %ymm5
vfmadd231ps %ymm3, %ymm7, %ymm5 # ymm5 = (ymm7 * ymm3) + ymm5
vfmadd231ps %ymm10, %ymm6, %ymm5 # ymm5 = (ymm6 * ymm10) + ymm5
vmovaps 0x500(%rsp), %ymm10
vmovaps %ymm10, 0x640(%rsp)
vminps %ymm4, %ymm8, %ymm3
vmovaps %ymm3, 0x660(%rsp)
vandps %ymm28, %ymm5, %ymm4
vmaxps %ymm2, %ymm10, %ymm5
vmovaps %ymm5, 0x680(%rsp)
vmovaps %ymm8, 0x6a0(%rsp)
vbroadcastss 0x240bba(%rip), %ymm2 # 0x1f20ed4
vcmpltps %ymm2, %ymm4, %k1
kmovd %k1, 0xfc(%rsp)
vcmpleps %ymm3, %ymm10, %k1
kmovd %k1, %esi
andb %dil, %sil
vmovaps %ymm5, 0x540(%rsp)
vcmpleps %ymm8, %ymm5, %k1
kmovd %k1, %ecx
andb %dil, %cl
movl %ecx, 0x14(%rsp)
orb %sil, %cl
vmovaps 0x2a0(%rsp), %ymm20
vmovaps 0x280(%rsp), %ymm16
vmovaps 0x360(%rsp), %ymm30
je 0x1ce0e93
movq %r12, 0x30(%rsp)
movq %r14, 0x310(%rsp)
movb %al, 0x3(%rsp)
knotb %k0, %k1
vmovaps %ymm2, %ymm3
vmulps %ymm11, %ymm9, %ymm2
vfmadd213ps %ymm2, %ymm7, %ymm1 # ymm1 = (ymm7 * ymm1) + ymm2
vfmadd213ps %ymm1, %ymm6, %ymm0 # ymm0 = (ymm6 * ymm0) + ymm1
vandps %ymm28, %ymm0, %ymm0
vcmpltps %ymm3, %ymm0, %k0
kmovd %k1, 0xf4(%rsp)
korb %k1, %k0, %k1
vpbroadcastd 0x240b1b(%rip), %ymm0 # 0x1f20edc
vpblendmd 0x240b0d(%rip){1to8}, %ymm0, %ymm0 {%k1} # 0x1f20ed8
movq 0xe8(%rsp), %rax
vpbroadcastd %eax, %ymm1
vmovdqa %ymm0, 0x6c0(%rsp)
vmovdqa %ymm1, 0x5e0(%rsp)
vpcmpnltd %ymm0, %ymm1, %k0
kmovd %k0, %r12d
movl %esi, 0xf8(%rsp)
andb %sil, %r12b
vmovaps 0x320(%rsp), %ymm3
vmovaps 0x220(%rsp), %ymm10
movq %r11, 0x318(%rsp)
je 0x1ce0ebc
vmovaps 0x4e0(%rsp), %ymm1
vmovaps 0x4a0(%rsp), %ymm2
vminps %xmm2, %xmm1, %xmm0
vmaxps %xmm2, %xmm1, %xmm1
vmovaps 0x4c0(%rsp), %ymm4
vmovaps 0x480(%rsp), %ymm5
vminps %xmm5, %xmm4, %xmm2
vminps %xmm2, %xmm0, %xmm0
vmaxps %xmm5, %xmm4, %xmm2
vmaxps %xmm2, %xmm1, %xmm1
vbroadcastss 0x240a5f(%rip), %xmm2 # 0x1f20ec4
vandps %xmm2, %xmm0, %xmm0
vandps %xmm2, %xmm1, %xmm2
vmaxps %xmm2, %xmm0, %xmm0
vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3]
vmaxss %xmm0, %xmm2, %xmm2
vshufpd $0x1, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[1,0]
vmaxss %xmm2, %xmm0, %xmm0
vmulss 0x211a2a(%rip), %xmm0, %xmm0 # 0x1ef1eb4
vmovss %xmm0, 0x20(%rsp)
vshufps $0xff, %xmm1, %xmm1, %xmm0 # xmm0 = xmm1[3,3,3,3]
vmovaps %xmm0, 0x3e0(%rsp)
vaddps 0x500(%rsp), %ymm3, %ymm0
vmovaps %ymm0, 0x580(%rsp)
kmovd %r12d, %k1
vbroadcastss 0x20b562(%rip), %ymm0 # 0x1eeba20
vblendmps 0x500(%rsp), %ymm0, %ymm0 {%k1}
vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm0, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1]
vminps %ymm2, %ymm1, %ymm1
vcmpeqps %ymm1, %ymm0, %k0
kmovd %k0, %eax
andb %r12b, %al
movzbl %al, %eax
movzbl %r12b, %ecx
cmovnel %eax, %ecx
tzcntl %ecx, %ecx
movb $0x1, %r14b
shlb %cl, %r14b
shll $0x2, %ecx
vmovss 0x5c0(%rsp,%rcx), %xmm8
vmovss 0x640(%rsp,%rcx), %xmm12
vmovaps 0x10(%r15), %xmm0
vmovaps %xmm0, 0x380(%rsp)
vdpps $0x7f, %xmm0, %xmm0, %xmm0
vucomiss 0x20b4ee(%rip), %xmm0 # 0x1eeba24
jb 0x1ce053e
vsqrtss %xmm0, %xmm0, %xmm0
jmp 0x1ce0570
vmovaps %xmm8, 0x60(%rsp)
vmovaps %xmm12, 0x40(%rsp)
kmovw %k1, 0x80(%rsp)
vzeroupper
callq 0x6aa20
kmovw 0x80(%rsp), %k1
vmovaps 0x40(%rsp), %xmm12
vmovaps 0x60(%rsp), %xmm8
movzbl %r14b, %eax
kmovd %eax, %k0
kandnb %k1, %k0, %k0
kmovd %k0, %r12d
vmulss 0x21192c(%rip), %xmm0, %xmm0 # 0x1ef1eb4
vmovss %xmm0, 0x24(%rsp)
movl $0x5, %r14d
vbroadcastss %xmm12, %xmm0
vxorps %xmm1, %xmm1, %xmm1
vfmadd132ps 0x380(%rsp), %xmm1, %xmm0 # xmm0 = (xmm0 * mem) + xmm1
vmovss 0x20c165(%rip), %xmm1 # 0x1eec714
vsubss %xmm8, %xmm1, %xmm3
vbroadcastss %xmm8, %xmm1
vmovaps 0x4a0(%rsp), %ymm5
vmulps %xmm1, %xmm5, %xmm2
vmovaps %xmm3, 0x450(%rsp)
vbroadcastss %xmm3, %xmm3
vfmadd231ps 0x4e0(%rsp), %xmm3, %xmm2 # xmm2 = (xmm3 * mem) + xmm2
vmovaps 0x4c0(%rsp), %ymm6
vmulps %xmm1, %xmm6, %xmm4
vfmadd231ps %xmm5, %xmm3, %xmm4 # xmm4 = (xmm3 * xmm5) + xmm4
vmulps 0x480(%rsp), %xmm1, %xmm5
vfmadd231ps %xmm6, %xmm3, %xmm5 # xmm5 = (xmm3 * xmm6) + xmm5
vmulps %xmm4, %xmm1, %xmm6
vfmadd231ps %xmm2, %xmm3, %xmm6 # xmm6 = (xmm3 * xmm2) + xmm6
vmulps %xmm5, %xmm1, %xmm2
vfmadd231ps %xmm4, %xmm3, %xmm2 # xmm2 = (xmm3 * xmm4) + xmm2
vmulps %xmm2, %xmm1, %xmm4
vfmadd231ps %xmm3, %xmm6, %xmm4 # xmm4 = (xmm6 * xmm3) + xmm4
vsubps %xmm6, %xmm2, %xmm1
vmulps 0x2109c5(%rip){1to4}, %xmm1, %xmm1 # 0x1ef0fec
vmovaps %xmm1, 0x80(%rsp)
vmovaps %xmm4, 0x1a0(%rsp)
vsubps %xmm4, %xmm0, %xmm0
vmovaps %xmm0, 0x340(%rsp)
vdpps $0x7f, %xmm0, %xmm0, %xmm0
vucomiss 0x20b3d0(%rip), %xmm0 # 0x1eeba24
vmovaps %xmm0, 0x3a0(%rsp)
vmovaps %xmm8, 0x60(%rsp)
vmovaps %xmm12, 0x40(%rsp)
jb 0x1ce0671
vsqrtss %xmm0, %xmm0, %xmm7
jmp 0x1ce067d
vzeroupper
callq 0x6aa20
vmovaps %xmm0, %xmm7
vmovaps 0x80(%rsp), %xmm0
vdpps $0x7f, %xmm0, %xmm0, %xmm0
vxorps %xmm1, %xmm1, %xmm1
vmovss %xmm0, %xmm1, %xmm2 # xmm2 = xmm0[0],xmm1[1,2,3]
vrsqrt14ss %xmm2, %xmm1, %xmm3
vmulss 0x20c076(%rip), %xmm3, %xmm4 # 0x1eec718
vmulss 0x20c072(%rip), %xmm0, %xmm5 # 0x1eec71c
vrcp14ss %xmm2, %xmm1, %xmm2
vxorps 0x240806(%rip){1to4}, %xmm0, %xmm1 # 0x1f20ec0
vmovaps %xmm2, 0x430(%rsp)
vfnmadd213ss 0x21092c(%rip), %xmm0, %xmm2 # xmm2 = -(xmm0 * xmm2) + mem
vmovss %xmm2, 0x28(%rsp)
vucomiss %xmm1, %xmm0
vmovss %xmm7, 0x4(%rsp)
vmovaps %xmm0, 0x440(%rsp)
jb 0x1ce06ed
vsqrtss %xmm0, %xmm0, %xmm14
jmp 0x1ce0735
vmovaps %xmm3, 0xd0(%rsp)
vmovss %xmm4, 0xc0(%rsp)
vmovss %xmm5, 0xb0(%rsp)
vzeroupper
callq 0x6aa20
vmovss 0xb0(%rsp), %xmm5
vmovss 0xc0(%rsp), %xmm4
vmovaps 0xd0(%rsp), %xmm3
vmovss 0x4(%rsp), %xmm7
vmovaps %xmm0, %xmm14
vmulss %xmm3, %xmm5, %xmm0
vmulss %xmm3, %xmm3, %xmm1
vmulss %xmm1, %xmm0, %xmm0
vaddss %xmm0, %xmm4, %xmm0
vbroadcastss %xmm0, %xmm15
vmulps 0x80(%rsp), %xmm15, %xmm0
vmovaps %xmm0, 0xc0(%rsp)
vdpps $0x7f, 0x340(%rsp), %xmm0, %xmm0
vaddss 0x20bfa3(%rip), %xmm7, %xmm27 # 0x1eec714
vmovaps %xmm0, 0xd0(%rsp)
vmulps %xmm0, %xmm0, %xmm0
vmovaps 0x3a0(%rsp), %xmm1
vsubps %xmm0, %xmm1, %xmm0
vxorps %xmm2, %xmm2, %xmm2
vmovss %xmm0, %xmm2, %xmm1 # xmm1 = xmm0[0],xmm2[1,2,3]
vrsqrt14ss %xmm1, %xmm2, %xmm29
vmulss 0x20bf75(%rip), %xmm29, %xmm31 # 0x1eec718
vmulss 0x20bf71(%rip), %xmm0, %xmm1 # 0x1eec71c
vmovss %xmm1, 0xb0(%rsp)
vucomiss 0x20b268(%rip), %xmm0 # 0x1eeba24
jb 0x1ce07c4
vsqrtss %xmm0, %xmm0, %xmm0
jmp 0x1ce0826
vmovss %xmm27, 0x1c(%rsp)
vmovss %xmm14, 0x18(%rsp)
vmovaps %xmm29, 0x420(%rsp)
vmovss %xmm31, 0x410(%rsp)
vmovaps %xmm15, 0x400(%rsp)
vzeroupper
callq 0x6aa20
vmovaps 0x400(%rsp), %xmm15
vmovss 0x410(%rsp), %xmm31
vmovaps 0x420(%rsp), %xmm29
vmovss 0x18(%rsp), %xmm14
vmovss 0x4(%rsp), %xmm7
vmovss 0x1c(%rsp), %xmm27
vbroadcastss 0x240694(%rip), %ymm21 # 0x1f20ec4
vmovaps 0x200(%rsp), %ymm9
vmovaps 0x220(%rsp), %ymm10
vmovaps 0x1e0(%rsp), %ymm11
vmovaps 0x180(%rsp), %ymm26
vmovaps 0x160(%rsp), %ymm17
vmovaps 0x140(%rsp), %ymm18
vmovaps 0x120(%rsp), %ymm30
vmovaps 0x2a0(%rsp), %ymm20
vmovaps 0x280(%rsp), %ymm16
vmovaps 0x100(%rsp), %ymm19
vmovaps 0x260(%rsp), %ymm23
vmovaps 0x240(%rsp), %ymm24
vmovaps 0x60(%rsp), %xmm8
vmovaps 0x40(%rsp), %xmm12
vmovss 0x210135(%rip), %xmm3 # 0x1ef09dc
vmovaps %xmm3, %xmm1
vmovaps 0x450(%rsp), %xmm5
vfmadd213ss %xmm5, %xmm8, %xmm1 # xmm1 = (xmm8 * xmm1) + xmm5
vmovss 0x210733(%rip), %xmm4 # 0x1ef0ff4
vmulss %xmm4, %xmm1, %xmm1
vmulss %xmm4, %xmm8, %xmm2
vbroadcastss %xmm2, %xmm2
vmulps 0x480(%rsp), %xmm2, %xmm2
vbroadcastss %xmm1, %xmm1
vfmadd132ps 0x4c0(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2
vmovaps %xmm3, %xmm2
vfmadd213ss %xmm8, %xmm5, %xmm2 # xmm2 = (xmm5 * xmm2) + xmm8
vmulss %xmm4, %xmm2, %xmm2
vbroadcastss %xmm2, %xmm2
vfmadd132ps 0x4a0(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1
vmulss %xmm4, %xmm5, %xmm1
vbroadcastss %xmm1, %xmm1
vfmadd132ps 0x4e0(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2
vbroadcastss 0x440(%rsp), %xmm2
vmulps %xmm2, %xmm1, %xmm2
vmovaps 0x80(%rsp), %xmm13
vdpps $0x7f, %xmm1, %xmm13, %xmm1
vbroadcastss %xmm1, %xmm1
vmulps %xmm1, %xmm13, %xmm1
vsubps %xmm1, %xmm2, %xmm2
vmovss 0x28(%rsp), %xmm1
vmulss 0x430(%rsp), %xmm1, %xmm3
vmulss 0x24(%rsp), %xmm12, %xmm1
vmovss 0x20(%rsp), %xmm6
vmaxss %xmm1, %xmm6, %xmm1
vbroadcastss %xmm3, %xmm3
vmulps %xmm3, %xmm2, %xmm2
vxorps 0x24054f(%rip){1to4}, %xmm13, %xmm3 # 0x1f20ec0
vmulps %xmm2, %xmm15, %xmm2
vmovaps 0xc0(%rsp), %xmm15
vdpps $0x7f, %xmm15, %xmm3, %xmm4
vdivss %xmm14, %xmm6, %xmm5
vfmadd213ss %xmm1, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm7) + xmm1
vmovaps 0x340(%rsp), %xmm14
vdpps $0x7f, %xmm2, %xmm14, %xmm2
vfmadd213ss %xmm7, %xmm5, %xmm27 # xmm27 = (xmm5 * xmm27) + xmm7
vaddss %xmm2, %xmm4, %xmm4
vmovaps 0x380(%rsp), %xmm7
vdpps $0x7f, %xmm15, %xmm7, %xmm5
vdpps $0x7f, %xmm3, %xmm14, %xmm3
vmulss 0xb0(%rsp), %xmm29, %xmm2
vmulss %xmm29, %xmm29, %xmm6
vmulss %xmm6, %xmm2, %xmm2
vaddss %xmm2, %xmm31, %xmm6
vdpps $0x7f, %xmm7, %xmm14, %xmm7
vmovaps 0xd0(%rsp), %xmm14
vfnmadd231ss %xmm4, %xmm14, %xmm3 # xmm3 = -(xmm14 * xmm4) + xmm3
vfnmadd231ss %xmm5, %xmm14, %xmm7 # xmm7 = -(xmm14 * xmm5) + xmm7
vpermilps $0xff, 0x1a0(%rsp), %xmm2 # xmm2 = mem[3,3,3,3]
vsubss %xmm2, %xmm0, %xmm2
vshufps $0xff, %xmm13, %xmm13, %xmm0 # xmm0 = xmm13[3,3,3,3]
vfmsub213ss %xmm0, %xmm6, %xmm3 # xmm3 = (xmm6 * xmm3) - xmm0
vmulss %xmm6, %xmm7, %xmm6
vmulss %xmm3, %xmm5, %xmm7
vfmsub231ss %xmm6, %xmm4, %xmm7 # xmm7 = (xmm4 * xmm6) - xmm7
vdivss %xmm7, %xmm6, %xmm6
vdivss %xmm7, %xmm3, %xmm3
vdivss %xmm7, %xmm5, %xmm5
vdivss %xmm7, %xmm4, %xmm4
vmulss %xmm6, %xmm14, %xmm6
vmulss %xmm5, %xmm2, %xmm5
vsubss %xmm5, %xmm6, %xmm5
vmulss %xmm3, %xmm14, %xmm3
vmulss %xmm4, %xmm2, %xmm4
vsubss %xmm3, %xmm4, %xmm3
vsubss %xmm5, %xmm8, %xmm8
vsubss %xmm3, %xmm12, %xmm12
vbroadcastss 0x240477(%rip), %xmm4 # 0x1f20ec4
vandps %xmm4, %xmm14, %xmm3
vucomiss %xmm3, %xmm27
movb $0x1, %al
jbe 0x1ce0b50
vaddss %xmm27, %xmm1, %xmm1
vmovaps 0x3e0(%rsp), %xmm3
vfmadd231ss 0x21143d(%rip), %xmm3, %xmm1 # xmm1 = (xmm3 * mem) + xmm1
vandps %xmm4, %xmm2, %xmm2
vucomiss %xmm2, %xmm1
jbe 0x1ce0b50
vaddss 0x3f0(%rsp), %xmm12, %xmm12
xorl %eax, %eax
vucomiss 0xc(%r15), %xmm12
vmovaps %ymm21, %ymm28
jb 0x1ce0b84
vmovss 0x20(%r15), %xmm6
vucomiss %xmm12, %xmm6
jb 0x1ce0b84
xorl %eax, %eax
vucomiss 0x20af67(%rip), %xmm8 # 0x1eeba24
vmovaps %ymm26, %ymm25
jb 0x1ce0b8e
vmovss 0x20bc43(%rip), %xmm1 # 0x1eec714
vucomiss %xmm8, %xmm1
vmovaps %ymm17, %ymm26
jb 0x1ce0b89
vxorps %xmm2, %xmm2, %xmm2
vmovaps 0x3a0(%rsp), %xmm3
vmovss %xmm3, %xmm2, %xmm1 # xmm1 = xmm3[0],xmm2[1,2,3]
vrsqrt14ss %xmm1, %xmm2, %xmm1
vmulss 0x20bc17(%rip), %xmm1, %xmm2 # 0x1eec718
vmulss 0x20bc13(%rip), %xmm3, %xmm3 # 0x1eec71c
movq 0x8(%rsp), %rcx
movq (%rcx), %rax
movq 0x1e8(%rax), %rax
movq 0x38(%rsp), %rdx
movq (%rax,%rdx,8), %r13
movl 0x24(%r15), %eax
testl %eax, 0x34(%r13)
vmovaps %ymm18, %ymm17
je 0x1ce0b93
movq 0x10(%rcx), %rax
cmpq $0x0, 0x10(%rax)
vmovaps %ymm30, %ymm18
jne 0x1ce0b9a
cmpq $0x0, 0x48(%r13)
jne 0x1ce0b9a
movb $0x1, %r13b
xorl %eax, %eax
jmp 0x1ce0b6e
vmovaps %ymm21, %ymm28
vmovaps %ymm26, %ymm25
vmovaps %ymm17, %ymm26
vmovaps %ymm18, %ymm17
vmovaps %ymm30, %ymm18
testb %al, %al
je 0x1ce0e64
decq %r14
jne 0x1ce0594
jmp 0x1ce0e58
xorl %r13d, %r13d
jmp 0x1ce0b56
xorl %r13d, %r13d
jmp 0x1ce0b62
xorl %r13d, %r13d
jmp 0x1ce0b5c
xorl %eax, %eax
xorl %r13d, %r13d
jmp 0x1ce0b68
vmulss %xmm1, %xmm3, %xmm3
vmulss %xmm1, %xmm1, %xmm1
vmulss %xmm1, %xmm3, %xmm1
vaddss %xmm1, %xmm2, %xmm1
vbroadcastss %xmm1, %xmm1
vmulps 0x340(%rsp), %xmm1, %xmm1
vmovaps 0x80(%rsp), %xmm5
vfmadd213ps %xmm5, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm0) + xmm5
vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm5, %xmm5, %xmm3 # xmm3 = xmm5[1,2,0,3]
vmulps %xmm3, %xmm1, %xmm1
vfmsub231ps %xmm2, %xmm5, %xmm1 # xmm1 = (xmm5 * xmm2) - xmm1
vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3]
vshufps $0xd2, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,0,1,3]
vmulps %xmm1, %xmm0, %xmm0
vfmsub231ps %xmm3, %xmm2, %xmm0 # xmm0 = (xmm2 * xmm3) - xmm0
movq 0x8(%rsp), %rdx
movq 0x8(%rdx), %rax
vshufps $0xe9, %xmm0, %xmm0, %xmm1 # xmm1 = xmm0[1,2,2,3]
vmovlps %xmm1, 0x2d0(%rsp)
vmovss %xmm0, 0x2d8(%rsp)
vmovss %xmm8, 0x2dc(%rsp)
movl $0x0, 0x2e0(%rsp)
movq 0x30(%rsp), %rcx
movl %ecx, 0x2e4(%rsp)
movq 0x38(%rsp), %rcx
movl %ecx, 0x2e8(%rsp)
movl (%rax), %ecx
movl %ecx, 0x2ec(%rsp)
movl 0x4(%rax), %eax
movl %eax, 0x2f0(%rsp)
vmovss %xmm12, 0x20(%r15)
movl $0xffffffff, 0x2c(%rsp) # imm = 0xFFFFFFFF
leaq 0x2c(%rsp), %rax
movq %rax, 0x1b0(%rsp)
movq 0x18(%r13), %rax
movq %rax, 0x1b8(%rsp)
movq 0x8(%rdx), %rax
movq %rax, 0x1c0(%rsp)
movq %r15, 0x1c8(%rsp)
leaq 0x2d0(%rsp), %rax
movq %rax, 0x1d0(%rsp)
movl $0x1, 0x1d8(%rsp)
movq 0x48(%r13), %rax
testq %rax, %rax
vmovaps %xmm8, 0x60(%rsp)
vmovaps %xmm12, 0x40(%rsp)
vmovss %xmm6, 0x1a0(%rsp)
je 0x1ce0d71
leaq 0x1b0(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0x1a0(%rsp), %xmm6
vmovaps 0x40(%rsp), %xmm12
vmovaps 0x60(%rsp), %xmm8
vmovaps 0x240(%rsp), %ymm24
vmovaps 0x260(%rsp), %ymm23
vmovaps 0x100(%rsp), %ymm19
vmovaps 0x280(%rsp), %ymm16
vmovaps 0x2a0(%rsp), %ymm20
vmovaps 0x120(%rsp), %ymm18
vmovaps 0x140(%rsp), %ymm17
vmovaps 0x160(%rsp), %ymm26
vmovaps 0x180(%rsp), %ymm25
vmovaps 0x1e0(%rsp), %ymm11
vmovaps 0x220(%rsp), %ymm10
vmovaps 0x200(%rsp), %ymm9
vbroadcastss 0x24016e(%rip), %xmm4 # 0x1f20ec4
vbroadcastss 0x240164(%rip), %ymm28 # 0x1f20ec4
movq 0x1b0(%rsp), %rax
cmpl $0x0, (%rax)
je 0x1ce0e41
movq 0x8(%rsp), %rax
movq 0x10(%rax), %rcx
movq 0x10(%rcx), %rax
testq %rax, %rax
je 0x1ce0e3c
testb $0x2, (%rcx)
jne 0x1ce0d97
testb $0x40, 0x3e(%r13)
je 0x1ce0e2f
leaq 0x1b0(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0x1a0(%rsp), %xmm6
vmovaps 0x40(%rsp), %xmm12
vmovaps 0x60(%rsp), %xmm8
vmovaps 0x240(%rsp), %ymm24
vmovaps 0x260(%rsp), %ymm23
vmovaps 0x100(%rsp), %ymm19
vmovaps 0x280(%rsp), %ymm16
vmovaps 0x2a0(%rsp), %ymm20
vmovaps 0x120(%rsp), %ymm18
vmovaps 0x140(%rsp), %ymm17
vmovaps 0x160(%rsp), %ymm26
vmovaps 0x180(%rsp), %ymm25
vmovaps 0x1e0(%rsp), %ymm11
vmovaps 0x220(%rsp), %ymm10
vmovaps 0x200(%rsp), %ymm9
vbroadcastss 0x24009f(%rip), %xmm4 # 0x1f20ec4
vbroadcastss 0x240095(%rip), %ymm28 # 0x1f20ec4
movq 0x1b0(%rsp), %rax
cmpl $0x0, (%rax)
je 0x1ce0e41
movb $0x1, %r13b
jmp 0x1ce0e44
xorl %r13d, %r13d
testb %r13b, %r13b
jne 0x1ce0b4c
vmovss %xmm6, 0x20(%r15)
jmp 0x1ce0b4c
xorl %r13d, %r13d
vbroadcastss 0x240060(%rip), %xmm4 # 0x1f20ec4
andb $0x1, %r13b
orb %r13b, %bl
vmovaps 0x580(%rsp), %ymm0
vcmpleps 0x20(%r15){1to8}, %ymm0, %k0
kmovd %k0, %eax
andb %al, %r12b
movq 0x318(%rsp), %r11
jne 0x1ce04b0
jmp 0x1ce0ed7
vmovaps 0x320(%rsp), %ymm4
vmovaps 0x200(%rsp), %ymm9
vmovaps 0x220(%rsp), %ymm10
vmovaps 0x1e0(%rsp), %ymm11
jmp 0x1ce1a76
vbroadcastss 0x23ffff(%rip), %xmm4 # 0x1f20ec4
vmovaps 0x200(%rsp), %ymm9
vmovaps 0x1e0(%rsp), %ymm11
vmovaps 0x320(%rsp), %ymm3
vaddps 0x540(%rsp), %ymm3, %ymm0
vcmpleps 0x20(%r15){1to8}, %ymm0, %k0
kmovd 0xfc(%rsp), %k1
kmovd 0xf4(%rsp), %k2
korb %k2, %k1, %k1
kmovd %k0, %eax
movl 0x14(%rsp), %ecx
andb %al, %cl
vpbroadcastd 0x23ffc0(%rip), %ymm0 # 0x1f20edc
vpblendmd 0x23ffb2(%rip){1to8}, %ymm0, %ymm0 {%k1} # 0x1f20ed8
vmovdqa %ymm0, 0x540(%rsp)
vpcmpled 0x5e0(%rsp), %ymm0, %k0
kmovd %k0, %r12d
movl %ecx, 0x14(%rsp)
andb %cl, %r12b
je 0x1ce199d
vmovaps 0x680(%rsp), %ymm7
vmovaps 0x4e0(%rsp), %ymm1
vmovaps 0x4a0(%rsp), %ymm2
vminps %xmm2, %xmm1, %xmm0
vmaxps %xmm2, %xmm1, %xmm1
vmovaps 0x4c0(%rsp), %ymm5
vmovaps 0x480(%rsp), %ymm6
vminps %xmm6, %xmm5, %xmm2
vminps %xmm2, %xmm0, %xmm0
vmaxps %xmm6, %xmm5, %xmm2
vmaxps %xmm2, %xmm1, %xmm1
vandps %xmm4, %xmm0, %xmm0
vandps %xmm4, %xmm1, %xmm2
vmaxps %xmm2, %xmm0, %xmm0
vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3]
vmaxss %xmm0, %xmm2, %xmm2
vshufpd $0x1, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[1,0]
vmaxss %xmm2, %xmm0, %xmm0
vmulss 0x210f01(%rip), %xmm0, %xmm0 # 0x1ef1eb4
vmovss %xmm0, 0x1c(%rsp)
vshufps $0xff, %xmm1, %xmm1, %xmm0 # xmm0 = xmm1[3,3,3,3]
vmovaps %xmm0, 0x3e0(%rsp)
vmovaps %ymm7, 0x500(%rsp)
vaddps %ymm7, %ymm3, %ymm0
vmovaps %ymm0, 0x580(%rsp)
kmovd %r12d, %k1
vbroadcastss 0x20aa35(%rip), %ymm0 # 0x1eeba20
vblendmps 0x500(%rsp), %ymm0, %ymm0 {%k1}
vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm0, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1]
vminps %ymm2, %ymm1, %ymm1
vcmpeqps %ymm1, %ymm0, %k0
kmovd %k0, %eax
andb %r12b, %al
movzbl %al, %eax
movzbl %r12b, %ecx
cmovnel %eax, %ecx
tzcntl %ecx, %ecx
movb $0x1, %r14b
shlb %cl, %r14b
shll $0x2, %ecx
vmovss 0x5a0(%rsp,%rcx), %xmm8
vmovss 0x6a0(%rsp,%rcx), %xmm12
vmovaps 0x10(%r15), %xmm0
vmovaps %xmm0, 0x380(%rsp)
vdpps $0x7f, %xmm0, %xmm0, %xmm0
vucomiss 0x20a9c1(%rip), %xmm0 # 0x1eeba24
jb 0x1ce106b
vsqrtss %xmm0, %xmm0, %xmm0
jmp 0x1ce109d
vmovaps %xmm8, 0x60(%rsp)
vmovaps %xmm12, 0x40(%rsp)
kmovw %k1, 0x80(%rsp)
vzeroupper
callq 0x6aa20
kmovw 0x80(%rsp), %k1
vmovaps 0x40(%rsp), %xmm12
vmovaps 0x60(%rsp), %xmm8
movzbl %r14b, %eax
kmovd %eax, %k0
kandnb %k1, %k0, %k0
kmovd %k0, %r12d
vmulss 0x210dff(%rip), %xmm0, %xmm0 # 0x1ef1eb4
vmovss %xmm0, 0x20(%rsp)
movl $0x5, %r14d
vbroadcastss %xmm12, %xmm0
vxorps %xmm1, %xmm1, %xmm1
vfmadd132ps 0x380(%rsp), %xmm1, %xmm0 # xmm0 = (xmm0 * mem) + xmm1
vmovss 0x20b638(%rip), %xmm1 # 0x1eec714
vsubss %xmm8, %xmm1, %xmm3
vbroadcastss %xmm8, %xmm1
vmovaps 0x4a0(%rsp), %ymm5
vmulps %xmm1, %xmm5, %xmm2
vmovaps %xmm3, 0x450(%rsp)
vbroadcastss %xmm3, %xmm3
vfmadd231ps 0x4e0(%rsp), %xmm3, %xmm2 # xmm2 = (xmm3 * mem) + xmm2
vmovaps 0x4c0(%rsp), %ymm6
vmulps %xmm1, %xmm6, %xmm4
vfmadd231ps %xmm5, %xmm3, %xmm4 # xmm4 = (xmm3 * xmm5) + xmm4
vmulps 0x480(%rsp), %xmm1, %xmm5
vfmadd231ps %xmm6, %xmm3, %xmm5 # xmm5 = (xmm3 * xmm6) + xmm5
vmulps %xmm4, %xmm1, %xmm6
vfmadd231ps %xmm2, %xmm3, %xmm6 # xmm6 = (xmm3 * xmm2) + xmm6
vmulps %xmm5, %xmm1, %xmm2
vfmadd231ps %xmm4, %xmm3, %xmm2 # xmm2 = (xmm3 * xmm4) + xmm2
vmulps %xmm2, %xmm1, %xmm4
vfmadd231ps %xmm3, %xmm6, %xmm4 # xmm4 = (xmm6 * xmm3) + xmm4
vsubps %xmm6, %xmm2, %xmm1
vmulps 0x20fe98(%rip){1to4}, %xmm1, %xmm13 # 0x1ef0fec
vmovaps %xmm4, 0x1a0(%rsp)
vsubps %xmm4, %xmm0, %xmm0
vmovaps %xmm0, 0x340(%rsp)
vdpps $0x7f, %xmm0, %xmm0, %xmm0
vucomiss 0x20a8ac(%rip), %xmm0 # 0x1eeba24
vmovaps %xmm13, 0x80(%rsp)
vmovaps %xmm0, 0x3a0(%rsp)
vmovaps %xmm8, 0x60(%rsp)
vmovaps %xmm12, 0x40(%rsp)
jb 0x1ce119e
vsqrtss %xmm0, %xmm0, %xmm7
jmp 0x1ce11b3
vzeroupper
callq 0x6aa20
vmovaps 0x80(%rsp), %xmm13
vmovaps %xmm0, %xmm7
vdpps $0x7f, %xmm13, %xmm13, %xmm0
vxorps %xmm1, %xmm1, %xmm1
vmovss %xmm0, %xmm1, %xmm2 # xmm2 = xmm0[0],xmm1[1,2,3]
vrsqrt14ss %xmm2, %xmm1, %xmm3
vmulss 0x20b549(%rip), %xmm3, %xmm4 # 0x1eec718
vmulss 0x20b545(%rip), %xmm0, %xmm5 # 0x1eec71c
vrcp14ss %xmm2, %xmm1, %xmm2
vxorps 0x23fcd9(%rip){1to4}, %xmm0, %xmm1 # 0x1f20ec0
vmovaps %xmm2, 0x430(%rsp)
vfnmadd213ss 0x20fdff(%rip), %xmm0, %xmm2 # xmm2 = -(xmm0 * xmm2) + mem
vmovss %xmm2, 0x28(%rsp)
vucomiss %xmm1, %xmm0
vmovss %xmm7, 0x4(%rsp)
vmovaps %xmm0, 0x440(%rsp)
jb 0x1ce121c
vsqrtss %xmm0, %xmm0, %xmm29
jmp 0x1ce126f
vmovaps %xmm3, 0xd0(%rsp)
vmovss %xmm4, 0xc0(%rsp)
vmovss %xmm5, 0xb0(%rsp)
vzeroupper
callq 0x6aa20
vmovss 0xb0(%rsp), %xmm5
vmovss 0xc0(%rsp), %xmm4
vmovaps 0xd0(%rsp), %xmm3
vmovss 0x4(%rsp), %xmm7
vmovaps 0x80(%rsp), %xmm13
vmovaps %xmm0, %xmm29
vmovaps 0x340(%rsp), %xmm14
vmulss %xmm3, %xmm5, %xmm0
vmulss %xmm3, %xmm3, %xmm1
vmulss %xmm1, %xmm0, %xmm0
vaddss %xmm0, %xmm4, %xmm0
vbroadcastss %xmm0, %xmm15
vmulps %xmm15, %xmm13, %xmm0
vmovaps %xmm0, 0xb0(%rsp)
vdpps $0x7f, %xmm0, %xmm14, %xmm0
vaddss 0x20b469(%rip), %xmm7, %xmm27 # 0x1eec714
vmovaps %xmm0, 0xd0(%rsp)
vmulps %xmm0, %xmm0, %xmm0
vmovaps 0x3a0(%rsp), %xmm1
vsubps %xmm0, %xmm1, %xmm0
vxorps %xmm2, %xmm2, %xmm2
vmovss %xmm0, %xmm2, %xmm1 # xmm1 = xmm0[0],xmm2[1,2,3]
vrsqrt14ss %xmm1, %xmm2, %xmm31
vmulss 0x20b43b(%rip), %xmm31, %xmm1 # 0x1eec718
vmovss %xmm1, 0xc0(%rsp)
vmulss 0x20b42e(%rip), %xmm0, %xmm1 # 0x1eec71c
vmovss %xmm1, 0x24(%rsp)
vucomiss 0x20a728(%rip), %xmm0 # 0x1eeba24
jb 0x1ce1304
vsqrtss %xmm0, %xmm0, %xmm0
jmp 0x1ce136c
vmovss %xmm27, 0x18(%rsp)
vmovss %xmm29, 0x420(%rsp)
vmovaps %xmm31, 0x410(%rsp)
vmovaps %xmm15, 0x400(%rsp)
vzeroupper
callq 0x6aa20
vmovaps 0x400(%rsp), %xmm15
vmovaps 0x410(%rsp), %xmm31
vmovss 0x420(%rsp), %xmm29
vmovss 0x4(%rsp), %xmm7
vmovss 0x18(%rsp), %xmm27
vmovaps 0x340(%rsp), %xmm14
vmovaps 0x80(%rsp), %xmm13
vbroadcastss 0x23fb4e(%rip), %ymm22 # 0x1f20ec4
vmovaps 0x200(%rsp), %ymm9
vmovaps 0x220(%rsp), %ymm10
vmovaps 0x1e0(%rsp), %ymm11
vmovaps 0x180(%rsp), %ymm25
vmovaps 0x160(%rsp), %ymm26
vmovaps 0x140(%rsp), %ymm17
vmovaps 0x120(%rsp), %ymm18
vmovaps 0x2a0(%rsp), %ymm20
vmovaps 0x280(%rsp), %ymm16
vmovaps 0x360(%rsp), %ymm30
vmovaps 0x100(%rsp), %ymm19
vmovaps 0x260(%rsp), %ymm23
vmovaps 0x240(%rsp), %ymm24
vmovaps 0x60(%rsp), %xmm8
vmovaps 0x40(%rsp), %xmm12
vmovss 0x20f5e7(%rip), %xmm3 # 0x1ef09dc
vmovaps %xmm3, %xmm1
vmovaps 0x450(%rsp), %xmm5
vfmadd213ss %xmm5, %xmm8, %xmm1 # xmm1 = (xmm8 * xmm1) + xmm5
vmovss 0x20fbe5(%rip), %xmm4 # 0x1ef0ff4
vmulss %xmm4, %xmm1, %xmm1
vmulss %xmm4, %xmm8, %xmm2
vbroadcastss %xmm2, %xmm2
vmulps 0x480(%rsp), %xmm2, %xmm2
vbroadcastss %xmm1, %xmm1
vfmadd132ps 0x4c0(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2
vmovaps %xmm3, %xmm2
vfmadd213ss %xmm8, %xmm5, %xmm2 # xmm2 = (xmm5 * xmm2) + xmm8
vmulss %xmm4, %xmm2, %xmm2
vbroadcastss %xmm2, %xmm2
vfmadd132ps 0x4a0(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1
vmulss %xmm4, %xmm5, %xmm1
vbroadcastss %xmm1, %xmm1
vfmadd132ps 0x4e0(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2
vbroadcastss 0x440(%rsp), %xmm2
vmulps %xmm2, %xmm1, %xmm2
vdpps $0x7f, %xmm1, %xmm13, %xmm1
vbroadcastss %xmm1, %xmm1
vmulps %xmm1, %xmm13, %xmm1
vsubps %xmm1, %xmm2, %xmm2
vmovss 0x28(%rsp), %xmm1
vmulss 0x430(%rsp), %xmm1, %xmm3
vmulss 0x20(%rsp), %xmm12, %xmm1
vmovss 0x1c(%rsp), %xmm6
vmaxss %xmm1, %xmm6, %xmm1
vbroadcastss %xmm3, %xmm3
vmulps %xmm3, %xmm2, %xmm2
vxorps 0x23fa0a(%rip){1to4}, %xmm13, %xmm3 # 0x1f20ec0
vmulps %xmm2, %xmm15, %xmm2
vmovaps 0xb0(%rsp), %xmm15
vdpps $0x7f, %xmm15, %xmm3, %xmm4
vdivss %xmm29, %xmm6, %xmm5
vfmadd213ss %xmm1, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm7) + xmm1
vdpps $0x7f, %xmm2, %xmm14, %xmm2
vfmadd213ss %xmm7, %xmm5, %xmm27 # xmm27 = (xmm5 * xmm27) + xmm7
vaddss %xmm2, %xmm4, %xmm4
vmovaps 0x380(%rsp), %xmm7
vdpps $0x7f, %xmm15, %xmm7, %xmm5
vdpps $0x7f, %xmm3, %xmm14, %xmm3
vmulss 0x24(%rsp), %xmm31, %xmm2
vmulss %xmm31, %xmm31, %xmm6
vmulss %xmm6, %xmm2, %xmm2
vaddss 0xc0(%rsp), %xmm2, %xmm6
vdpps $0x7f, %xmm7, %xmm14, %xmm7
vmovaps 0xd0(%rsp), %xmm29
vfnmadd231ss %xmm4, %xmm29, %xmm3 # xmm3 = -(xmm29 * xmm4) + xmm3
vfnmadd231ss %xmm5, %xmm29, %xmm7 # xmm7 = -(xmm29 * xmm5) + xmm7
vpermilps $0xff, 0x1a0(%rsp), %xmm2 # xmm2 = mem[3,3,3,3]
vsubss %xmm2, %xmm0, %xmm2
vshufps $0xff, %xmm13, %xmm13, %xmm0 # xmm0 = xmm13[3,3,3,3]
vfmsub213ss %xmm0, %xmm6, %xmm3 # xmm3 = (xmm6 * xmm3) - xmm0
vmulss %xmm6, %xmm7, %xmm6
vmulss %xmm3, %xmm5, %xmm7
vfmsub231ss %xmm6, %xmm4, %xmm7 # xmm7 = (xmm4 * xmm6) - xmm7
vdivss %xmm7, %xmm6, %xmm6
vdivss %xmm7, %xmm3, %xmm3
vdivss %xmm7, %xmm5, %xmm5
vdivss %xmm7, %xmm4, %xmm4
vmulss %xmm6, %xmm29, %xmm6
vmulss %xmm5, %xmm2, %xmm5
vsubss %xmm5, %xmm6, %xmm5
vmulss %xmm3, %xmm29, %xmm3
vmulss %xmm4, %xmm2, %xmm4
vsubss %xmm3, %xmm4, %xmm3
vsubss %xmm5, %xmm8, %xmm8
vsubss %xmm3, %xmm12, %xmm12
vbroadcastss 0x23f932(%rip), %xmm4 # 0x1f20ec4
vandps %xmm4, %xmm29, %xmm3
vucomiss %xmm3, %xmm27
movb $0x1, %al
jbe 0x1ce167a
vaddss %xmm27, %xmm1, %xmm1
vmovaps 0x3e0(%rsp), %xmm3
vfmadd231ss 0x2108f6(%rip), %xmm3, %xmm1 # xmm1 = (xmm3 * mem) + xmm1
vandps %xmm4, %xmm2, %xmm2
vucomiss %xmm2, %xmm1
jbe 0x1ce167a
vaddss 0x3f0(%rsp), %xmm12, %xmm12
xorl %eax, %eax
vucomiss 0xc(%r15), %xmm12
vmovaps 0x320(%rsp), %ymm4
jb 0x1ce1687
vmovss 0x20(%r15), %xmm5
vucomiss %xmm12, %xmm5
jb 0x1ce1687
xorl %eax, %eax
vucomiss 0x20a41d(%rip), %xmm8 # 0x1eeba24
jb 0x1ce1687
vmovss 0x20b103(%rip), %xmm1 # 0x1eec714
vucomiss %xmm8, %xmm1
jb 0x1ce1687
vxorps %xmm2, %xmm2, %xmm2
vmovaps 0x3a0(%rsp), %xmm3
vmovss %xmm3, %xmm2, %xmm1 # xmm1 = xmm3[0],xmm2[1,2,3]
vrsqrt14ss %xmm1, %xmm2, %xmm1
vmulss 0x20b0e1(%rip), %xmm1, %xmm2 # 0x1eec718
vmulss 0x20b0dd(%rip), %xmm3, %xmm3 # 0x1eec71c
movq 0x8(%rsp), %rcx
movq (%rcx), %rax
movq 0x1e8(%rax), %rax
movq 0x38(%rsp), %rdx
movq (%rax,%rdx,8), %r13
movl 0x24(%r15), %eax
testl %eax, 0x34(%r13)
je 0x1ce1685
movq 0x10(%rcx), %rax
cmpq $0x0, 0x10(%rax)
jne 0x1ce16a6
cmpq $0x0, 0x48(%r13)
jne 0x1ce16a6
movb $0x1, %r13b
xorl %eax, %eax
jmp 0x1ce168a
vmovaps 0x320(%rsp), %ymm4
jmp 0x1ce168a
xorl %eax, %eax
xorl %r13d, %r13d
vmovaps %ymm22, %ymm28
testb %al, %al
je 0x1ce196e
decq %r14
jne 0x1ce10c1
jmp 0x1ce196b
vmulss %xmm1, %xmm3, %xmm3
vmulss %xmm1, %xmm1, %xmm1
vmulss %xmm1, %xmm3, %xmm1
vaddss %xmm1, %xmm2, %xmm1
vbroadcastss %xmm1, %xmm1
vmulps %xmm1, %xmm14, %xmm1
vfmadd213ps %xmm13, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm0) + xmm13
vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm13, %xmm13, %xmm3 # xmm3 = xmm13[1,2,0,3]
vmulps %xmm3, %xmm1, %xmm1
vfmsub231ps %xmm2, %xmm13, %xmm1 # xmm1 = (xmm13 * xmm2) - xmm1
vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3]
vshufps $0xd2, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,0,1,3]
vmulps %xmm1, %xmm0, %xmm0
vfmsub231ps %xmm3, %xmm2, %xmm0 # xmm0 = (xmm2 * xmm3) - xmm0
movq 0x8(%rsp), %rdx
movq 0x8(%rdx), %rax
vshufps $0xe9, %xmm0, %xmm0, %xmm1 # xmm1 = xmm0[1,2,2,3]
vmovlps %xmm1, 0x2d0(%rsp)
vmovss %xmm0, 0x2d8(%rsp)
vmovss %xmm8, 0x2dc(%rsp)
movl $0x0, 0x2e0(%rsp)
movq 0x30(%rsp), %rcx
movl %ecx, 0x2e4(%rsp)
movq 0x38(%rsp), %rcx
movl %ecx, 0x2e8(%rsp)
movl (%rax), %ecx
movl %ecx, 0x2ec(%rsp)
movl 0x4(%rax), %eax
movl %eax, 0x2f0(%rsp)
vmovss %xmm12, 0x20(%r15)
movl $0xffffffff, 0x2c(%rsp) # imm = 0xFFFFFFFF
leaq 0x2c(%rsp), %rax
movq %rax, 0x1b0(%rsp)
movq 0x18(%r13), %rax
movq %rax, 0x1b8(%rsp)
movq 0x8(%rdx), %rax
movq %rax, 0x1c0(%rsp)
movq %r15, 0x1c8(%rsp)
leaq 0x2d0(%rsp), %rax
movq %rax, 0x1d0(%rsp)
movl $0x1, 0x1d8(%rsp)
movq 0x48(%r13), %rax
testq %rax, %rax
vmovaps %ymm22, %ymm28
vmovaps %xmm8, 0x60(%rsp)
vmovaps %xmm12, 0x40(%rsp)
vmovss %xmm5, 0x80(%rsp)
je 0x1ce187e
leaq 0x1b0(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0x80(%rsp), %xmm5
vmovaps 0x40(%rsp), %xmm12
vmovaps 0x60(%rsp), %xmm8
vmovaps 0x240(%rsp), %ymm24
vmovaps 0x260(%rsp), %ymm23
vmovaps 0x100(%rsp), %ymm19
vmovaps 0x360(%rsp), %ymm30
vmovaps 0x280(%rsp), %ymm16
vmovaps 0x2a0(%rsp), %ymm20
vmovaps 0x120(%rsp), %ymm18
vmovaps 0x140(%rsp), %ymm17
vmovaps 0x160(%rsp), %ymm26
vmovaps 0x180(%rsp), %ymm25
vmovaps 0x1e0(%rsp), %ymm11
vmovaps 0x220(%rsp), %ymm10
vmovaps 0x200(%rsp), %ymm9
vmovaps 0x320(%rsp), %ymm4
vbroadcastss 0x23f657(%rip), %ymm28 # 0x1f20ec4
movq 0x1b0(%rsp), %rax
cmpl $0x0, (%rax)
je 0x1ce1956
movq 0x8(%rsp), %rax
movq 0x10(%rax), %rcx
movq 0x10(%rcx), %rax
testq %rax, %rax
je 0x1ce1951
testb $0x2, (%rcx)
jne 0x1ce18a4
testb $0x40, 0x3e(%r13)
je 0x1ce1944
leaq 0x1b0(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0x80(%rsp), %xmm5
vmovaps 0x40(%rsp), %xmm12
vmovaps 0x60(%rsp), %xmm8
vmovaps 0x240(%rsp), %ymm24
vmovaps 0x260(%rsp), %ymm23
vmovaps 0x100(%rsp), %ymm19
vmovaps 0x360(%rsp), %ymm30
vmovaps 0x280(%rsp), %ymm16
vmovaps 0x2a0(%rsp), %ymm20
vmovaps 0x120(%rsp), %ymm18
vmovaps 0x140(%rsp), %ymm17
vmovaps 0x160(%rsp), %ymm26
vmovaps 0x180(%rsp), %ymm25
vmovaps 0x1e0(%rsp), %ymm11
vmovaps 0x220(%rsp), %ymm10
vmovaps 0x200(%rsp), %ymm9
vmovaps 0x320(%rsp), %ymm4
vbroadcastss 0x23f580(%rip), %ymm28 # 0x1f20ec4
movq 0x1b0(%rsp), %rax
cmpl $0x0, (%rax)
je 0x1ce1956
movb $0x1, %r13b
jmp 0x1ce1959
xorl %r13d, %r13d
testb %r13b, %r13b
jne 0x1ce1964
vmovss %xmm5, 0x20(%r15)
xorl %eax, %eax
jmp 0x1ce1690
xorl %r13d, %r13d
andb $0x1, %r13b
orb %r13b, %bl
vmovaps 0x580(%rsp), %ymm0
vcmpleps 0x20(%r15){1to8}, %ymm0, %k0
kmovd %k0, %eax
andb %al, %r12b
movq 0x318(%rsp), %r11
jne 0x1ce0fdd
jmp 0x1ce19a9
vmovaps %ymm3, %ymm4
vmovaps 0x360(%rsp), %ymm30
vmovdqa 0x5e0(%rsp), %ymm1
vpcmpltd 0x540(%rsp), %ymm1, %k1
vmovaps 0x640(%rsp), %ymm0
vpcmpltd 0x6c0(%rsp), %ymm1, %k2
vaddps %ymm0, %ymm4, %ymm1
vbroadcastss 0x20(%r15), %ymm2
vcmpleps %ymm2, %ymm1, %k0 {%k2}
kmovd %k0, %eax
movl 0xf8(%rsp), %ecx
andb %al, %cl
vmovaps 0x680(%rsp), %ymm1
vaddps %ymm1, %ymm4, %ymm3
vcmpleps %ymm2, %ymm3, %k0 {%k1}
kmovd %k0, %eax
movl 0x14(%rsp), %edx
andb %al, %dl
orb %cl, %dl
je 0x1ce1a58
movl %r11d, %eax
leaq (%rax,%rax,2), %rax
shlq $0x5, %rax
movb %dl, 0x760(%rsp,%rax)
kmovd %ecx, %k1
vmovaps %ymm0, %ymm1 {%k1}
vmovaps %ymm1, 0x780(%rsp,%rax)
vmovaps 0x3d0(%rsp), %xmm0
vmovlps %xmm0, 0x7a0(%rsp,%rax)
movq 0xe8(%rsp), %rcx
incl %ecx
movl %ecx, 0x7a8(%rsp,%rax)
incl %r11d
movq 0x308(%rsp), %r9
movq 0x8(%rsp), %rdx
movb 0x3(%rsp), %al
movq 0x310(%rsp), %r14
movq 0x30(%rsp), %r12
vmovaps 0x460(%rsp), %ymm3
vbroadcastss 0x20(%r15), %ymm0
testl %r11d, %r11d
je 0x1ce1c16
leal -0x1(%r11), %r8d
leaq (%r8,%r8,2), %rcx
shlq $0x5, %rcx
movzbl 0x760(%rsp,%rcx), %esi
vmovaps 0x780(%rsp,%rcx), %ymm1
vaddps %ymm1, %ymm4, %ymm2
vcmpleps %ymm0, %ymm2, %k0
kmovb %k0, %r10d
andl %esi, %r10d
je 0x1ce1b8d
kmovd %r10d, %k1
vbroadcastss 0x209f4f(%rip), %ymm2 # 0x1eeba20
vblendmps %ymm1, %ymm2, %ymm1 {%k1}
vshufps $0xb1, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2,5,4,7,6]
vminps %ymm2, %ymm1, %ymm2
vshufpd $0x5, %ymm2, %ymm2, %ymm3 # ymm3 = ymm2[1,0,3,2]
vminps %ymm3, %ymm2, %ymm2
vpermpd $0x4e, %ymm2, %ymm3 # ymm3 = ymm2[2,3,0,1]
vminps %ymm3, %ymm2, %ymm2
vcmpeqps %ymm2, %ymm1, %k0
kmovd %k0, %esi
andb %r10b, %sil
je 0x1ce1b09
movzbl %sil, %edi
jmp 0x1ce1b0d
movzbl %r10b, %edi
leaq (%rsp,%rcx), %rsi
addq $0x760, %rsi # imm = 0x760
vmovss 0x44(%rsi), %xmm1
tzcntl %edi, %ecx
movb $0x1, %dil
shlb %cl, %dil
movl 0x48(%rsi), %r13d
movq %r13, 0xe8(%rsp)
movzbl %dil, %edi
kmovd %edi, %k0
kmovd %r10d, %k1
kandnb %k1, %k0, %k0
kmovb %k0, (%rsi)
kortestb %k0, %k0
vmovaps 0x460(%rsp), %ymm3
je 0x1ce1b5a
movl %r11d, %r8d
vbroadcastss 0x40(%rsi), %ymm2
vsubss %xmm2, %xmm1, %xmm1
vbroadcastss %xmm1, %ymm1
vfmadd132ps 0x23f3ae(%rip), %ymm2, %ymm1 # ymm1 = (ymm1 * mem) + ymm2
vmovaps %ymm1, 0x640(%rsp)
vmovsd 0x640(%rsp,%rcx,4), %xmm1
vmovaps %xmm1, 0x3d0(%rsp)
movl %r8d, %r11d
testb %r10b, %r10b
je 0x1ce1a85
vmovaps 0x740(%rsp), %ymm12
vmovaps 0x700(%rsp), %ymm21
vmovaps 0x3d0(%rsp), %xmm2
vmovaps %ymm16, %ymm22
vmovaps 0x720(%rsp), %ymm14
jmp 0x1cdf8a0
vcmpleps 0x23f32e(%rip), %ymm23, %k2 # 0x1f20f00
vbroadcastss 0x20afa9(%rip), %ymm1 # 0x1eecb84
vbroadcastss 0x209e3b(%rip), %ymm23 # 0x1eeba20
vblendmps %ymm1, %ymm23, %ymm0 {%k2}
vmovaps %ymm0, %ymm31 {%k1}
vblendmps %ymm23, %ymm1, %ymm0 {%k2}
kmovd %k2, %ecx
vmovaps %ymm0, %ymm30 {%k1}
knotb %k1, %k0
kmovd %k0, %esi
orb %cl, %sil
andb %dil, %sil
movl %esi, %edi
jmp 0x1cdfda5
testb $0x1, %bl
jne 0x1ce1c3c
vmovaps 0x6e0(%rsp), %ymm0
vcmpleps 0x20(%r15){1to8}, %ymm0, %k0
kmovb %k0, %eax
andl %eax, %r14d
setne %al
jne 0x1cdf5b0
andb $0x1, %al
leaq -0x28(%rbp), %rsp
popq %rbx
popq %r12
popq %r13
popq %r14
popq %r15
popq %rbp
vzeroupper
retq
|
/embree[P]embree/kernels/geometry/curveNi_intersector.h
|
void embree::avx512::CurveNiIntersectorK<8, 4>::intersect_t<embree::avx512::SweepCurve1IntersectorK<embree::BezierCurveT, 4>, embree::avx512::Intersect1KEpilog1<4, true>>(embree::avx512::CurvePrecalculationsK<4>&, embree::RayHitK<4>&, unsigned long, embree::RayQueryContext*, embree::CurveNi<8> const&)
|
static __forceinline void intersect_t(Precalculations& pre, RayHitK<K>& ray, const size_t k, RayQueryContext* context, const Primitive& prim)
{
vfloat<M> tNear;
vbool<M> valid = intersect(ray,k,prim,tNear);
const size_t N = prim.N;
size_t mask = movemask(valid);
while (mask)
{
const size_t i = bscf(mask);
STAT3(normal.trav_prims,1,1,1);
const unsigned int geomID = prim.geomID(N);
const unsigned int primID = prim.primID(N)[i];
const CurveGeometry* geom = context->scene->get<CurveGeometry>(geomID);
Vec3ff a0,a1,a2,a3; geom->gather(a0,a1,a2,a3,geom->curve(primID));
size_t mask1 = mask;
const size_t i1 = bscf(mask1);
if (mask) {
const unsigned int primID1 = prim.primID(N)[i1];
geom->prefetchL1_vertices(geom->curve(primID1));
if (mask1) {
const size_t i2 = bsf(mask1);
const unsigned int primID2 = prim.primID(N)[i2];
geom->prefetchL2_vertices(geom->curve(primID2));
}
}
Intersector().intersect(pre,ray,k,context,geom,primID,a0,a1,a2,a3,Epilog(ray,k,context,geomID,primID));
mask &= movemask(tNear <= vfloat<M>(ray.tfar[k]));
}
}
|
pushq %rbp
movq %rsp, %rbp
pushq %r15
pushq %r14
pushq %r13
pushq %r12
pushq %rbx
andq $-0x20, %rsp
subq $0x980, %rsp # imm = 0x980
movq %rcx, %r15
movq %rsi, %r12
movzbl 0x1(%r8), %ecx
leaq (%rcx,%rcx,4), %rax
leaq (%rax,%rax,4), %rsi
vbroadcastss 0x12(%r8,%rsi), %xmm0
vmovss (%r12,%rdx,4), %xmm1
vmovss 0x40(%r12,%rdx,4), %xmm2
vinsertps $0x10, 0x10(%r12,%rdx,4), %xmm1, %xmm1 # xmm1 = xmm1[0],mem[0],xmm1[2,3]
vinsertps $0x20, 0x20(%r12,%rdx,4), %xmm1, %xmm1 # xmm1 = xmm1[0,1],mem[0],xmm1[3]
vinsertps $0x10, 0x50(%r12,%rdx,4), %xmm2, %xmm2 # xmm2 = xmm2[0],mem[0],xmm2[2,3]
vinsertps $0x20, 0x60(%r12,%rdx,4), %xmm2, %xmm2 # xmm2 = xmm2[0,1],mem[0],xmm2[3]
vsubps 0x6(%r8,%rsi), %xmm1, %xmm1
vmulps %xmm1, %xmm0, %xmm3
vmulps %xmm2, %xmm0, %xmm0
vpmovsxbd 0x6(%r8,%rcx,4), %ymm1
vpmovsxbd 0x6(%r8,%rax), %ymm2
vcvtdq2ps %ymm1, %ymm5
vcvtdq2ps %ymm2, %ymm6
leaq (%rcx,%rcx,2), %r9
vpmovsxbd 0x6(%r8,%r9,2), %ymm1
vcvtdq2ps %ymm1, %ymm4
leaq (%rcx,%rax,2), %rsi
vpmovsxbd 0x6(%r8,%rsi), %ymm1
leal (,%r9,4), %esi
vpmovsxbd 0x6(%r8,%rsi), %ymm2
vcvtdq2ps %ymm1, %ymm7
vcvtdq2ps %ymm2, %ymm8
addq %rcx, %rsi
vpmovsxbd 0x6(%r8,%rsi), %ymm1
vcvtdq2ps %ymm1, %ymm9
leaq (%rcx,%rcx,8), %rsi
leal (%rsi,%rsi), %edi
vpmovsxbd 0x6(%r8,%rdi), %ymm1
vcvtdq2ps %ymm1, %ymm10
addq %rcx, %rdi
vpmovsxbd 0x6(%r8,%rdi), %ymm1
vcvtdq2ps %ymm1, %ymm11
shll $0x2, %eax
vpmovsxbd 0x6(%r8,%rax), %ymm1
vcvtdq2ps %ymm1, %ymm12
vbroadcastss %xmm0, %ymm13
vbroadcastss 0x2309b5(%rip), %ymm15 # 0x1f12704
vbroadcastss 0x23f183(%rip), %ymm16 # 0x1f20edc
vpermps %ymm0, %ymm15, %ymm14
vpermps %ymm0, %ymm16, %ymm0
vmulps %ymm4, %ymm0, %ymm2
vmulps %ymm0, %ymm9, %ymm1
vmulps %ymm0, %ymm12, %ymm0
vfmadd231ps %ymm6, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm6) + ymm2
vfmadd231ps %ymm8, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm8) + ymm1
vfmadd231ps %ymm14, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm14) + ymm0
vfmadd231ps %ymm5, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm5) + ymm2
vfmadd231ps %ymm7, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm7) + ymm1
vfmadd231ps %ymm13, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm13) + ymm0
vbroadcastss %xmm3, %ymm13
vpermps %ymm3, %ymm15, %ymm14
vpermps %ymm3, %ymm16, %ymm3
vmulps %ymm4, %ymm3, %ymm15
vmulps %ymm3, %ymm9, %ymm4
vmulps %ymm3, %ymm12, %ymm3
vfmadd231ps %ymm6, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm6) + ymm15
vfmadd231ps %ymm8, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm8) + ymm4
vfmadd231ps %ymm11, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm11) + ymm3
vfmadd231ps %ymm5, %ymm13, %ymm15 # ymm15 = (ymm13 * ymm5) + ymm15
vfmadd231ps %ymm7, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm7) + ymm4
vbroadcastss 0x23f0f8(%rip), %ymm6 # 0x1f20ec4
vfmadd231ps %ymm10, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm10) + ymm3
vandps %ymm6, %ymm2, %ymm5
vbroadcastss 0x20f20a(%rip), %ymm7 # 0x1ef0fe8
vcmpltps %ymm7, %ymm5, %k1
vmovaps %ymm7, %ymm2 {%k1}
vandps %ymm6, %ymm1, %ymm5
vcmpltps %ymm7, %ymm5, %k1
vmovaps %ymm7, %ymm1 {%k1}
vandps %ymm6, %ymm0, %ymm5
vcmpltps %ymm7, %ymm5, %k1
vmovaps %ymm7, %ymm0 {%k1}
vrcp14ps %ymm2, %ymm5
vbroadcastss 0x20a8f8(%rip), %ymm6 # 0x1eec714
vfnmadd213ps %ymm6, %ymm5, %ymm2 # ymm2 = -(ymm5 * ymm2) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm2 # ymm2 = (ymm2 * ymm5) + ymm5
vrcp14ps %ymm1, %ymm5
vfnmadd213ps %ymm6, %ymm5, %ymm1 # ymm1 = -(ymm5 * ymm1) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm1 # ymm1 = (ymm1 * ymm5) + ymm5
vrcp14ps %ymm0, %ymm5
vfnmadd213ps %ymm6, %ymm5, %ymm0 # ymm0 = -(ymm5 * ymm0) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm0 # ymm0 = (ymm0 * ymm5) + ymm5
leaq (,%rcx,8), %rdi
subq %rcx, %rdi
vpmovsxwd 0x6(%r8,%rdi), %ymm5
vcvtdq2ps %ymm5, %ymm5
vsubps %ymm15, %ymm5, %ymm5
vmulps %ymm5, %ymm2, %ymm5
vpmovsxwd 0x6(%r8,%rsi), %ymm6
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm15, %ymm6, %ymm6
leaq (%rcx,%rcx), %rsi
addq %rcx, %rax
shlq $0x3, %r9
subq %rcx, %r9
vpbroadcastd %ecx, %ymm7
shll $0x4, %ecx
vpmovsxwd 0x6(%r8,%rcx), %ymm8
vmulps %ymm6, %ymm2, %ymm2
subq %rsi, %rcx
vpmovsxwd 0x6(%r8,%rcx), %ymm6
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm4, %ymm6, %ymm6
vmulps %ymm6, %ymm1, %ymm6
vcvtdq2ps %ymm8, %ymm8
vsubps %ymm4, %ymm8, %ymm4
vmulps %ymm4, %ymm1, %ymm1
vpmovsxwd 0x6(%r8,%rax), %ymm4
vcvtdq2ps %ymm4, %ymm4
vsubps %ymm3, %ymm4, %ymm4
vmulps %ymm0, %ymm4, %ymm4
vpmovsxwd 0x6(%r8,%r9), %ymm8
vcvtdq2ps %ymm8, %ymm8
vsubps %ymm3, %ymm8, %ymm3
vmulps %ymm3, %ymm0, %ymm0
vpminsd %ymm2, %ymm5, %ymm3
vpminsd %ymm1, %ymm6, %ymm8
vmaxps %ymm8, %ymm3, %ymm3
vpminsd %ymm0, %ymm4, %ymm8
vmaxps 0x30(%r12,%rdx,4){1to8}, %ymm8, %ymm8
vmaxps %ymm8, %ymm3, %ymm3
vmulps 0x23e004(%rip){1to8}, %ymm3, %ymm3 # 0x1f1ff10
vpmaxsd %ymm2, %ymm5, %ymm2
vpmaxsd %ymm1, %ymm6, %ymm1
vminps %ymm1, %ymm2, %ymm1
vpmaxsd %ymm0, %ymm4, %ymm0
movq %rdx, 0x18(%rsp)
vminps 0x80(%r12,%rdx,4){1to8}, %ymm0, %ymm0
vminps %ymm0, %ymm1, %ymm0
vmulps 0x23dfda(%rip){1to8}, %ymm0, %ymm0 # 0x1f1ff14
vpcmpgtd 0x2789dc(%rip), %ymm7, %k0 # 0x1f5a920
vmovaps %ymm3, 0x5a0(%rsp)
vcmpleps %ymm0, %ymm3, %k1
ktestb %k0, %k1
je 0x1ce4679
kandb %k0, %k1, %k0
kmovd %k0, %eax
movzbl %al, %r10d
movl $0x1, %eax
movq 0x18(%rsp), %rcx
shlxl %ecx, %eax, %eax
kmovd %eax, %k0
vpmovm2d %k0, %xmm0
vmovdqa %xmm0, 0x3b0(%rsp)
movq %r15, 0x28(%rsp)
movq %r8, 0x1a0(%rsp)
tzcntq %r10, %rax
movl 0x2(%r8), %ecx
movl 0x6(%r8,%rax,4), %edi
movq (%r15), %rax
movq 0x1e8(%rax), %rax
movq %rcx, 0x50(%rsp)
movq (%rax,%rcx,8), %rsi
movq 0x58(%rsi), %rax
movq 0x68(%rsi), %rcx
movq %rcx, %rdx
movq %rdi, 0x100(%rsp)
imulq %rdi, %rdx
movl (%rax,%rdx), %edi
movq 0xa0(%rsi), %rdx
movq %rdx, %r9
imulq %rdi, %r9
movq 0x90(%rsi), %rsi
vmovaps (%rsi,%r9), %xmm1
leaq 0x1(%rdi), %r9
imulq %rdx, %r9
vmovaps (%rsi,%r9), %xmm0
leaq 0x2(%rdi), %r9
imulq %rdx, %r9
vmovaps (%rsi,%r9), %xmm2
blsrq %r10, %r10
addq $0x3, %rdi
imulq %rdx, %rdi
vmovaps (%rsi,%rdi), %xmm3
movq %r10, %rdi
subq $0x1, %rdi
jb 0x1ce206d
andq %r10, %rdi
tzcntq %r10, %r9
movl 0x6(%r8,%r9,4), %r9d
imulq %rcx, %r9
movl (%rax,%r9), %r9d
imulq %rdx, %r9
prefetcht0 (%rsi,%r9)
prefetcht0 0x40(%rsi,%r9)
testq %rdi, %rdi
je 0x1ce206d
tzcntq %rdi, %rdi
movl 0x6(%r8,%rdi,4), %edi
imulq %rdi, %rcx
movl (%rax,%rcx), %eax
imulq %rax, %rdx
prefetcht1 (%rsi,%rdx)
prefetcht1 0x40(%rsi,%rdx)
movq 0x18(%rsp), %rax
vmovss (%r12,%rax,4), %xmm4
vinsertps $0x1c, 0x10(%r12,%rax,4), %xmm4, %xmm4 # xmm4 = xmm4[0],mem[0],zero,zero
vinsertps $0x28, 0x20(%r12,%rax,4), %xmm4, %xmm4 # xmm4 = xmm4[0,1],mem[0],zero
vbroadcastss 0x40(%r12,%rax,4), %ymm26
vbroadcastss 0x50(%r12,%rax,4), %ymm30
vunpcklps %xmm30, %xmm26, %xmm5 # xmm5 = xmm26[0],xmm30[0],xmm26[1],xmm30[1]
vbroadcastss 0x60(%r12,%rax,4), %ymm21
vinsertps $0x28, %xmm21, %xmm5, %xmm9 # xmm9 = xmm5[0,1],xmm21[0],zero
vaddps %xmm0, %xmm1, %xmm5
vaddps %xmm2, %xmm5, %xmm5
vaddps %xmm3, %xmm5, %xmm5
vmulps 0x23b239(%rip){1to4}, %xmm5, %xmm5 # 0x1f1d2fc
vsubps %xmm4, %xmm5, %xmm5
vdpps $0x7f, %xmm9, %xmm5, %xmm5
vmovss 0x30(%r12,%rax,4), %xmm10
vdpps $0x7f, %xmm9, %xmm9, %xmm11
vxorps %xmm8, %xmm8, %xmm8
vmovss %xmm11, %xmm8, %xmm6
vrcp14ss %xmm6, %xmm8, %xmm6
vmovaps %xmm6, %xmm7
vfnmadd213ss 0x20ef02(%rip), %xmm11, %xmm7 # xmm7 = -(xmm11 * xmm7) + mem
vmulss %xmm7, %xmm6, %xmm6
vmulss %xmm6, %xmm5, %xmm5
vbroadcastss %xmm5, %ymm6
vmovaps %xmm9, 0x240(%rsp)
vmovaps %ymm6, 0x360(%rsp)
vfmadd231ps %xmm6, %xmm9, %xmm4 # xmm4 = (xmm9 * xmm6) + xmm4
vblendps $0x8, %xmm8, %xmm4, %xmm4 # xmm4 = xmm4[0,1,2],xmm8[3]
vsubps %xmm4, %xmm1, %xmm6
vsubps %xmm4, %xmm2, %xmm7
vsubps %xmm4, %xmm0, %xmm8
vsubps %xmm4, %xmm3, %xmm3
vbroadcastss %xmm6, %ymm0
vmovaps %ymm0, 0x7e0(%rsp)
vbroadcastss 0x2305bd(%rip), %ymm0 # 0x1f12704
vpermps %ymm6, %ymm0, %ymm1
vmovaps %ymm1, 0x7c0(%rsp)
vbroadcastss 0x23ed7e(%rip), %ymm1 # 0x1f20edc
vpermps %ymm6, %ymm1, %ymm2
vmovaps %ymm2, 0x7a0(%rsp)
vbroadcastss 0x23ed63(%rip), %ymm2 # 0x1f20ed8
vmovaps %ymm6, 0x320(%rsp)
vpermps %ymm6, %ymm2, %ymm4
vmovaps %ymm4, 0x780(%rsp)
vbroadcastss %xmm8, %ymm4
vmovaps %ymm4, 0x760(%rsp)
vpermps %ymm8, %ymm0, %ymm4
vmovaps %ymm4, 0x740(%rsp)
vpermps %ymm8, %ymm1, %ymm4
vmovaps %ymm4, 0x720(%rsp)
vmovaps %ymm8, 0x2e0(%rsp)
vpermps %ymm8, %ymm2, %ymm4
vmovaps %ymm4, 0x700(%rsp)
vbroadcastss %xmm7, %ymm4
vmovaps %ymm4, 0x6e0(%rsp)
vpermps %ymm7, %ymm0, %ymm4
vmovaps %ymm4, 0x6c0(%rsp)
vpermps %ymm7, %ymm1, %ymm4
vmovaps %ymm4, 0x6a0(%rsp)
vmovaps %ymm7, 0x300(%rsp)
vpermps %ymm7, %ymm2, %ymm4
vmovaps %ymm4, 0x680(%rsp)
vbroadcastss %xmm3, %ymm4
vmovaps %ymm4, 0x660(%rsp)
vpermps %ymm3, %ymm0, %ymm0
vmovaps %ymm0, 0x640(%rsp)
vpermps %ymm3, %ymm1, %ymm0
vmovaps %ymm0, 0x620(%rsp)
vmovaps %ymm3, 0x2c0(%rsp)
vpermps %ymm3, %ymm2, %ymm0
vmovaps %ymm0, 0x600(%rsp)
vmulss %xmm21, %xmm21, %xmm0
vfmadd231ps %ymm30, %ymm30, %ymm0 # ymm0 = (ymm30 * ymm30) + ymm0
vfmadd231ps %ymm26, %ymm26, %ymm0 # ymm0 = (ymm26 * ymm26) + ymm0
vbroadcastss %xmm0, %ymm0
vmovaps %ymm0, 0x5e0(%rsp)
vandps 0x23ec4b(%rip){1to8}, %ymm0, %ymm0 # 0x1f20ec4
vmovaps %ymm0, 0x520(%rsp)
vmovss %xmm10, 0x5c(%rsp)
vmovaps %xmm5, 0x260(%rsp)
vsubss %xmm5, %xmm10, %xmm0
vbroadcastss %xmm0, %ymm0
vmovaps %ymm0, 0x5c0(%rsp)
movq 0x50(%rsp), %rax
vpbroadcastd %eax, %xmm0
vmovdqa %xmm0, 0x3d0(%rsp)
movl $0x1, %r11d
xorl %r9d, %r9d
movq 0x100(%rsp), %rax
vpbroadcastd %eax, %xmm0
vmovdqa %xmm0, 0x3c0(%rsp)
vsqrtss %xmm11, %xmm11, %xmm0
vmovss %xmm0, 0x11c(%rsp)
vmovaps %xmm11, 0x230(%rsp)
vsqrtss %xmm11, %xmm11, %xmm0
vmovss %xmm0, 0x118(%rsp)
vmovsd 0x20a3ec(%rip), %xmm2 # 0x1eec6f0
vmovaps 0x23ec14(%rip), %ymm3 # 0x1f20f20
vmovaps %ymm26, 0x140(%rsp)
vmovaps %ymm30, 0x120(%rsp)
vmovaps %ymm21, 0x1c0(%rsp)
vmovshdup %xmm2, %xmm0 # xmm0 = xmm2[1,1,3,3]
vsubss %xmm2, %xmm0, %xmm1
vmulss 0x23eb9c(%rip), %xmm1, %xmm6 # 0x1f20ed0
vmovaps %xmm2, 0x190(%rsp)
vbroadcastss %xmm2, %ymm5
vbroadcastss %xmm1, %ymm0
vmovaps %ymm5, 0x60(%rsp)
vmovaps %ymm0, 0x200(%rsp)
vfmadd231ps %ymm3, %ymm0, %ymm5 # ymm5 = (ymm0 * ymm3) + ymm5
vbroadcastss 0x20a3b0(%rip), %ymm0 # 0x1eec714
vsubps %ymm5, %ymm0, %ymm7
vmovaps 0x760(%rsp), %ymm12
vmulps %ymm5, %ymm12, %ymm1
vmovaps 0x740(%rsp), %ymm13
vmulps %ymm5, %ymm13, %ymm2
vmovaps 0x720(%rsp), %ymm14
vmulps %ymm5, %ymm14, %ymm3
vmovaps 0x700(%rsp), %ymm15
vmulps %ymm5, %ymm15, %ymm4
vfmadd231ps 0x7e0(%rsp), %ymm7, %ymm1 # ymm1 = (ymm7 * mem) + ymm1
vfmadd231ps 0x7c0(%rsp), %ymm7, %ymm2 # ymm2 = (ymm7 * mem) + ymm2
vfmadd231ps 0x7a0(%rsp), %ymm7, %ymm3 # ymm3 = (ymm7 * mem) + ymm3
vfmadd231ps 0x780(%rsp), %ymm7, %ymm4 # ymm4 = (ymm7 * mem) + ymm4
vmovaps 0x6e0(%rsp), %ymm16
vmulps %ymm5, %ymm16, %ymm8
vmovaps 0x6c0(%rsp), %ymm17
vmulps %ymm5, %ymm17, %ymm9
vmovaps 0x6a0(%rsp), %ymm18
vmulps %ymm5, %ymm18, %ymm10
vmovaps 0x680(%rsp), %ymm19
vmulps %ymm5, %ymm19, %ymm11
vfmadd231ps %ymm12, %ymm7, %ymm8 # ymm8 = (ymm7 * ymm12) + ymm8
vfmadd231ps %ymm13, %ymm7, %ymm9 # ymm9 = (ymm7 * ymm13) + ymm9
vfmadd231ps %ymm14, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm14) + ymm10
vfmadd231ps %ymm15, %ymm7, %ymm11 # ymm11 = (ymm7 * ymm15) + ymm11
vmulps 0x660(%rsp), %ymm5, %ymm12
vmulps 0x640(%rsp), %ymm5, %ymm13
vmulps 0x620(%rsp), %ymm5, %ymm14
vmulps 0x600(%rsp), %ymm5, %ymm15
vfmadd231ps %ymm16, %ymm7, %ymm12 # ymm12 = (ymm7 * ymm16) + ymm12
vfmadd231ps %ymm17, %ymm7, %ymm13 # ymm13 = (ymm7 * ymm17) + ymm13
vfmadd231ps %ymm18, %ymm7, %ymm14 # ymm14 = (ymm7 * ymm18) + ymm14
vfmadd231ps %ymm19, %ymm7, %ymm15 # ymm15 = (ymm7 * ymm19) + ymm15
vmulps %ymm8, %ymm5, %ymm16
vmulps %ymm9, %ymm5, %ymm17
vmulps %ymm10, %ymm5, %ymm18
vmulps %ymm11, %ymm5, %ymm19
vfmadd231ps %ymm1, %ymm7, %ymm16 # ymm16 = (ymm7 * ymm1) + ymm16
vfmadd231ps %ymm2, %ymm7, %ymm17 # ymm17 = (ymm7 * ymm2) + ymm17
vfmadd231ps %ymm3, %ymm7, %ymm18 # ymm18 = (ymm7 * ymm3) + ymm18
vfmadd231ps %ymm4, %ymm7, %ymm19 # ymm19 = (ymm7 * ymm4) + ymm19
vmulps %ymm5, %ymm12, %ymm1
vmulps %ymm5, %ymm13, %ymm12
vmulps %ymm5, %ymm14, %ymm13
vmulps %ymm5, %ymm15, %ymm14
vfmadd231ps %ymm8, %ymm7, %ymm1 # ymm1 = (ymm7 * ymm8) + ymm1
vfmadd231ps %ymm9, %ymm7, %ymm12 # ymm12 = (ymm7 * ymm9) + ymm12
vfmadd231ps %ymm10, %ymm7, %ymm13 # ymm13 = (ymm7 * ymm10) + ymm13
vfmadd231ps %ymm11, %ymm7, %ymm14 # ymm14 = (ymm7 * ymm11) + ymm14
vmulps %ymm1, %ymm5, %ymm4
vmulps %ymm5, %ymm12, %ymm3
vmulps %ymm13, %ymm5, %ymm29
vmulps %ymm5, %ymm14, %ymm5
vfmadd231ps %ymm16, %ymm7, %ymm4 # ymm4 = (ymm7 * ymm16) + ymm4
vfmadd231ps %ymm17, %ymm7, %ymm3 # ymm3 = (ymm7 * ymm17) + ymm3
vfmadd231ps %ymm18, %ymm7, %ymm29 # ymm29 = (ymm7 * ymm18) + ymm29
vfmadd231ps %ymm7, %ymm19, %ymm5 # ymm5 = (ymm19 * ymm7) + ymm5
vsubps %ymm16, %ymm1, %ymm1
vsubps %ymm17, %ymm12, %ymm7
vsubps %ymm18, %ymm13, %ymm8
vsubps %ymm19, %ymm14, %ymm9
vbroadcastss 0x20eb01(%rip), %ymm10 # 0x1ef0fec
vmulps %ymm1, %ymm10, %ymm1
vmulps %ymm7, %ymm10, %ymm7
vmulps %ymm10, %ymm8, %ymm8
vmulps %ymm10, %ymm9, %ymm9
vbroadcastss %xmm6, %ymm6
vmulps %ymm1, %ymm6, %ymm11
vmulps %ymm7, %ymm6, %ymm12
vmulps %ymm6, %ymm8, %ymm13
vmulps %ymm6, %ymm9, %ymm6
vmovaps %ymm4, %ymm8
vmovaps 0x27d802(%rip), %ymm7 # 0x1f5fd20
vxorps %xmm31, %xmm31, %xmm31
vpermt2ps %ymm31, %ymm7, %ymm8
vmovaps %ymm3, %ymm9
vpermt2ps %ymm31, %ymm7, %ymm9
vmovaps %ymm29, %ymm10
vpermt2ps %ymm31, %ymm7, %ymm10
vaddps %ymm6, %ymm5, %ymm1
vmaxps %ymm1, %ymm5, %ymm14
vminps %ymm1, %ymm5, %ymm1
vmovaps %ymm5, %ymm15
vpermt2ps %ymm31, %ymm7, %ymm15
vmovaps %ymm11, %ymm19
vpermt2ps %ymm31, %ymm7, %ymm19
vmovaps %ymm12, %ymm20
vpermt2ps %ymm31, %ymm7, %ymm20
vmovaps %ymm13, %ymm2
vpermt2ps %ymm31, %ymm7, %ymm2
vpermt2ps %ymm31, %ymm7, %ymm6
vsubps %ymm6, %ymm15, %ymm16
vsubps %ymm4, %ymm8, %ymm7
vsubps %ymm3, %ymm9, %ymm6
vsubps %ymm29, %ymm10, %ymm5
vmulps %ymm13, %ymm6, %ymm17
vfmsub231ps %ymm5, %ymm12, %ymm17 # ymm17 = (ymm12 * ymm5) - ymm17
vmulps %ymm11, %ymm5, %ymm18
vfmsub231ps %ymm7, %ymm13, %ymm18 # ymm18 = (ymm13 * ymm7) - ymm18
vmulps %ymm12, %ymm7, %ymm22
vfmsub231ps %ymm6, %ymm11, %ymm22 # ymm22 = (ymm11 * ymm6) - ymm22
vmulps %ymm22, %ymm22, %ymm22
vfmadd231ps %ymm18, %ymm18, %ymm22 # ymm22 = (ymm18 * ymm18) + ymm22
vfmadd231ps %ymm17, %ymm17, %ymm22 # ymm22 = (ymm17 * ymm17) + ymm22
vmulps %ymm5, %ymm5, %ymm17
vfmadd231ps %ymm6, %ymm6, %ymm17 # ymm17 = (ymm6 * ymm6) + ymm17
vfmadd231ps %ymm7, %ymm7, %ymm17 # ymm17 = (ymm7 * ymm7) + ymm17
vrcp14ps %ymm17, %ymm18
vmovaps %ymm18, %ymm23
vfnmadd213ps %ymm0, %ymm17, %ymm23 # ymm23 = -(ymm17 * ymm23) + ymm0
vfmadd132ps %ymm18, %ymm18, %ymm23 # ymm23 = (ymm23 * ymm18) + ymm18
vmulps %ymm23, %ymm22, %ymm18
vmulps %ymm2, %ymm6, %ymm22
vfmsub231ps %ymm5, %ymm20, %ymm22 # ymm22 = (ymm20 * ymm5) - ymm22
vmulps %ymm19, %ymm5, %ymm24
vfmsub231ps %ymm7, %ymm2, %ymm24 # ymm24 = (ymm2 * ymm7) - ymm24
vmulps %ymm20, %ymm7, %ymm25
vfmsub231ps %ymm6, %ymm19, %ymm25 # ymm25 = (ymm19 * ymm6) - ymm25
vmulps %ymm25, %ymm25, %ymm25
vfmadd231ps %ymm24, %ymm24, %ymm25 # ymm25 = (ymm24 * ymm24) + ymm25
vfmadd231ps %ymm22, %ymm22, %ymm25 # ymm25 = (ymm22 * ymm22) + ymm25
vmulps %ymm23, %ymm25, %ymm22
vmaxps %ymm22, %ymm18, %ymm18
vsqrtps %ymm18, %ymm18
vmaxps %ymm15, %ymm16, %ymm22
vmaxps %ymm22, %ymm14, %ymm14
vaddps %ymm14, %ymm18, %ymm14
vminps %ymm15, %ymm16, %ymm15
vminps %ymm15, %ymm1, %ymm1
vsubps %ymm18, %ymm1, %ymm1
vmulps 0x20e2d3(%rip){1to8}, %ymm14, %ymm14 # 0x1ef0940
vmulps 0x20e2cd(%rip){1to8}, %ymm1, %ymm1 # 0x1ef0944
vmovaps %ymm1, 0x1e0(%rsp)
vmulps %ymm14, %ymm14, %ymm1
vrsqrt14ps %ymm17, %ymm15
vmulps 0x20a087(%rip){1to8}, %ymm17, %ymm14 # 0x1eec71c
vmulps %ymm14, %ymm15, %ymm14
vmulps %ymm15, %ymm15, %ymm16
vmulps %ymm14, %ymm16, %ymm14
vfmadd231ps 0x20a068(%rip){1to8}, %ymm15, %ymm14 # ymm14 = (ymm15 * mem) + ymm14
vmulps %ymm7, %ymm14, %ymm15
vmulps %ymm14, %ymm6, %ymm16
vmulps %ymm14, %ymm5, %ymm18
vsubps %ymm4, %ymm31, %ymm27
vsubps %ymm3, %ymm31, %ymm28
vmovaps %ymm29, 0x80(%rsp)
vsubps %ymm29, %ymm31, %ymm29
vmulps %ymm29, %ymm21, %ymm22
vfmadd231ps %ymm28, %ymm30, %ymm22 # ymm22 = (ymm30 * ymm28) + ymm22
vfmadd231ps %ymm27, %ymm26, %ymm22 # ymm22 = (ymm26 * ymm27) + ymm22
vmulps %ymm29, %ymm29, %ymm24
vfmadd231ps %ymm28, %ymm28, %ymm24 # ymm24 = (ymm28 * ymm28) + ymm24
vfmadd231ps %ymm27, %ymm27, %ymm24 # ymm24 = (ymm27 * ymm27) + ymm24
vmulps %ymm18, %ymm21, %ymm17
vfmadd231ps %ymm30, %ymm16, %ymm17 # ymm17 = (ymm16 * ymm30) + ymm17
vfmadd231ps %ymm26, %ymm15, %ymm17 # ymm17 = (ymm15 * ymm26) + ymm17
vmulps %ymm18, %ymm29, %ymm18
vfmadd231ps %ymm16, %ymm28, %ymm18 # ymm18 = (ymm28 * ymm16) + ymm18
vfmadd231ps %ymm15, %ymm27, %ymm18 # ymm18 = (ymm27 * ymm15) + ymm18
vmulps %ymm17, %ymm17, %ymm21
vmovaps 0x5e0(%rsp), %ymm15
vsubps %ymm21, %ymm15, %ymm15
vmulps %ymm18, %ymm17, %ymm25
vsubps %ymm25, %ymm22, %ymm22
vaddps %ymm22, %ymm22, %ymm22
vmulps %ymm18, %ymm18, %ymm25
vsubps %ymm25, %ymm24, %ymm16
vmovaps %ymm16, 0xa0(%rsp)
vsubps %ymm1, %ymm16, %ymm1
vmulps %ymm22, %ymm22, %ymm25
vmulps 0x20a419(%rip){1to8}, %ymm15, %ymm26 # 0x1eecb8c
vmulps %ymm1, %ymm26, %ymm30
vsubps %ymm30, %ymm25, %ymm30
vxorps %xmm16, %xmm16, %xmm16
vcmpnltps %ymm31, %ymm30, %k1
kmovd %k1, %eax
kortestb %k1, %k1
je 0x1ce287f
vsqrtps %ymm30, %ymm30
vaddps %ymm15, %ymm15, %ymm31
vrcp14ps %ymm31, %ymm23
vfnmadd213ps %ymm0, %ymm23, %ymm31 # ymm31 = -(ymm23 * ymm31) + ymm0
vfmadd132ps %ymm23, %ymm23, %ymm31 # ymm31 = (ymm31 * ymm23) + ymm23
vxorps 0x23e6fe(%rip){1to8}, %ymm22, %ymm23 # 0x1f20ec0
vsubps %ymm30, %ymm23, %ymm23
vmulps %ymm31, %ymm23, %ymm23
vsubps %ymm22, %ymm30, %ymm30
vmulps %ymm31, %ymm30, %ymm31
vmovaps %ymm17, %ymm30
vfmadd213ps %ymm18, %ymm23, %ymm30 # ymm30 = (ymm23 * ymm30) + ymm18
vmulps %ymm30, %ymm14, %ymm30
vmovaps %ymm30, 0x4e0(%rsp)
vmovaps %ymm17, %ymm30
vfmadd213ps %ymm18, %ymm31, %ymm30 # ymm30 = (ymm31 * ymm30) + ymm18
vmulps %ymm30, %ymm14, %ymm30
vmovaps %ymm30, 0x4c0(%rsp)
vbroadcastss 0x209209(%rip), %ymm0 # 0x1eeba20
vblendmps %ymm23, %ymm0, %ymm30 {%k1}
vbroadcastss 0x20a35e(%rip), %ymm0 # 0x1eecb84
vblendmps %ymm31, %ymm0, %ymm31 {%k1}
vbroadcastss 0x23e68f(%rip), %ymm0 # 0x1f20ec4
vmovaps %ymm21, %ymm24
vandps %ymm0, %ymm21, %ymm23
vmovaps 0x520(%rsp), %ymm21
vmaxps %ymm23, %ymm21, %ymm23
vmulps 0x20f65b(%rip){1to8}, %ymm23, %ymm23 # 0x1ef1eb4
vandps %ymm0, %ymm15, %ymm0
vcmpltps %ymm23, %ymm0, %k1 {%k1}
kortestb %k1, %k1
jne 0x1ce45ca
vbroadcastss 0x209e9d(%rip), %ymm0 # 0x1eec714
vmovaps %ymm24, %ymm21
jmp 0x1ce2893
vbroadcastss 0x209197(%rip), %ymm30 # 0x1eeba20
vbroadcastss 0x20a2f1(%rip), %ymm31 # 0x1eecb84
andb $0x7f, %al
je 0x1ce2c63
vmovaps %ymm21, 0x380(%rsp)
movq 0x18(%rsp), %rcx
vmovaps %ymm0, %ymm16
vmovss 0x80(%r12,%rcx,4), %xmm0
vsubss 0x260(%rsp), %xmm0, %xmm0
vbroadcastss %xmm0, %ymm0
vminps %ymm31, %ymm0, %ymm0
vmovaps 0x5c0(%rsp), %ymm1
vmaxps %ymm30, %ymm1, %ymm1
vmulps %ymm13, %ymm29, %ymm23
vfmadd213ps %ymm23, %ymm12, %ymm28 # ymm28 = (ymm12 * ymm28) + ymm23
vfmadd213ps %ymm28, %ymm11, %ymm27 # ymm27 = (ymm11 * ymm27) + ymm28
vmovaps 0x1c0(%rsp), %ymm21
vmulps %ymm13, %ymm21, %ymm13
vmovaps 0x120(%rsp), %ymm24
vfmadd231ps %ymm12, %ymm24, %ymm13 # ymm13 = (ymm24 * ymm12) + ymm13
vmovaps 0x140(%rsp), %ymm31
vfmadd231ps %ymm11, %ymm31, %ymm13 # ymm13 = (ymm31 * ymm11) + ymm13
vbroadcastss 0x23e5a3(%rip), %ymm28 # 0x1f20ec4
vandps %ymm28, %ymm13, %ymm11
vbroadcastss 0x20e6b7(%rip), %ymm29 # 0x1ef0fe8
vcmpltps %ymm29, %ymm11, %k0
vbroadcastss 0x23e57e(%rip), %ymm30 # 0x1f20ec0
vxorps %ymm30, %ymm27, %ymm11
vrcp14ps %ymm13, %ymm12
vxorps %ymm30, %ymm13, %ymm23
vmovaps %ymm12, %ymm27
vfnmadd213ps %ymm16, %ymm13, %ymm27 # ymm27 = -(ymm13 * ymm27) + ymm16
vfmadd132ps %ymm12, %ymm12, %ymm27 # ymm27 = (ymm27 * ymm12) + ymm12
vmulps %ymm11, %ymm27, %ymm11
vcmpltps %ymm23, %ymm13, %k1
korb %k1, %k0, %k1
vbroadcastss 0x20a203(%rip), %ymm27 # 0x1eecb84
vblendmps %ymm27, %ymm11, %ymm12 {%k1}
vmaxps %ymm12, %ymm1, %ymm1
vcmpnleps %ymm23, %ymm13, %k1
korb %k1, %k0, %k1
vbroadcastss 0x209080(%rip), %ymm13 # 0x1eeba20
vmovaps %ymm13, %ymm11 {%k1}
vminps %ymm11, %ymm0, %ymm0
vxorps %xmm23, %xmm23, %xmm23
vsubps %ymm8, %ymm23, %ymm8
vsubps %ymm9, %ymm23, %ymm9
vsubps %ymm10, %ymm23, %ymm10
vmulps %ymm2, %ymm10, %ymm10
vfnmsub231ps %ymm9, %ymm20, %ymm10 # ymm10 = -(ymm20 * ymm9) - ymm10
vfnmadd231ps %ymm8, %ymm19, %ymm10 # ymm10 = -(ymm19 * ymm8) + ymm10
vmulps %ymm2, %ymm21, %ymm8
vfnmsub231ps %ymm20, %ymm24, %ymm8 # ymm8 = -(ymm24 * ymm20) - ymm8
vfnmadd231ps %ymm19, %ymm31, %ymm8 # ymm8 = -(ymm31 * ymm19) + ymm8
vandps %ymm28, %ymm8, %ymm9
vcmpltps %ymm29, %ymm9, %k0
vxorps %ymm30, %ymm10, %ymm9
vrcp14ps %ymm8, %ymm10
vxorps %ymm30, %ymm8, %ymm11
vmovaps %ymm10, %ymm12
vfnmadd213ps %ymm16, %ymm8, %ymm12 # ymm12 = -(ymm8 * ymm12) + ymm16
vfmadd132ps %ymm10, %ymm10, %ymm12 # ymm12 = (ymm12 * ymm10) + ymm10
vmulps %ymm9, %ymm12, %ymm9
vcmpltps %ymm11, %ymm8, %k1
korb %k1, %k0, %k1
vblendmps %ymm27, %ymm9, %ymm10 {%k1}
vmaxps %ymm10, %ymm1, %ymm1
vcmpnleps %ymm11, %ymm8, %k1
korb %k1, %k0, %k1
vmovaps %ymm13, %ymm9 {%k1}
vminps %ymm9, %ymm0, %ymm8
vmovaps %ymm1, 0x340(%rsp)
vcmpleps %ymm8, %ymm1, %k0
kmovd %k0, %ecx
andb %cl, %al
je 0x1ce2c88
vmovaps 0x4e0(%rsp), %ymm0
vmaxps 0x1e0(%rsp), %ymm23, %ymm1
vminps %ymm16, %ymm0, %ymm0
vxorps %xmm10, %xmm10, %xmm10
vmaxps %ymm10, %ymm0, %ymm0
vmovaps 0x4c0(%rsp), %ymm9
vminps %ymm16, %ymm9, %ymm9
vmovaps 0x23e4a7(%rip), %ymm11 # 0x1f20f40
vaddps %ymm0, %ymm11, %ymm0
vbroadcastss 0x23ba12(%rip), %ymm12 # 0x1f1e4b8
vmulps %ymm0, %ymm12, %ymm0
vmovaps 0x60(%rsp), %ymm2
vmovaps 0x200(%rsp), %ymm13
vfmadd213ps %ymm2, %ymm13, %ymm0 # ymm0 = (ymm13 * ymm0) + ymm2
vmovaps %ymm0, 0x4e0(%rsp)
vmaxps %ymm10, %ymm9, %ymm0
vaddps %ymm0, %ymm11, %ymm0
vmulps %ymm0, %ymm12, %ymm0
vfmadd213ps %ymm2, %ymm13, %ymm0 # ymm0 = (ymm13 * ymm0) + ymm2
vmovaps %ymm0, 0x4c0(%rsp)
vmulps %ymm1, %ymm1, %ymm0
vmovaps 0xa0(%rsp), %ymm1
vsubps %ymm0, %ymm1, %ymm11
vmulps %ymm11, %ymm26, %ymm0
vsubps %ymm0, %ymm25, %ymm0
vcmpnltps %ymm10, %ymm0, %k0
kortestb %k0, %k0
je 0x1ce2ca5
vxorps %xmm20, %xmm20, %xmm20
vcmpnltps %ymm23, %ymm0, %k1
vsqrtps %ymm0, %ymm0
vaddps %ymm15, %ymm15, %ymm1
vrcp14ps %ymm1, %ymm9
vfnmadd213ps %ymm16, %ymm9, %ymm1 # ymm1 = -(ymm9 * ymm1) + ymm16
vfmadd132ps %ymm9, %ymm9, %ymm1 # ymm1 = (ymm1 * ymm9) + ymm9
vxorps 0x23e37f(%rip){1to8}, %ymm22, %ymm9 # 0x1f20ec0
vsubps %ymm0, %ymm9, %ymm9
vmulps %ymm1, %ymm9, %ymm12
vsubps %ymm22, %ymm0, %ymm0
vmulps %ymm1, %ymm0, %ymm13
vmovaps %ymm17, %ymm0
vfmadd213ps %ymm18, %ymm12, %ymm0 # ymm0 = (ymm12 * ymm0) + ymm18
vmulps %ymm0, %ymm14, %ymm9
vmovaps 0x140(%rsp), %ymm26
vmulps %ymm12, %ymm26, %ymm0
vmovaps 0x120(%rsp), %ymm30
vmulps %ymm12, %ymm30, %ymm1
vmulps %ymm12, %ymm21, %ymm10
vmovaps %ymm7, %ymm19
vfmadd213ps %ymm4, %ymm9, %ymm19 # ymm19 = (ymm9 * ymm19) + ymm4
vsubps %ymm19, %ymm0, %ymm0
vmovaps %ymm6, %ymm19
vfmadd213ps %ymm3, %ymm9, %ymm19 # ymm19 = (ymm9 * ymm19) + ymm3
vsubps %ymm19, %ymm1, %ymm1
vmovaps 0x80(%rsp), %ymm2
vfmadd213ps %ymm2, %ymm5, %ymm9 # ymm9 = (ymm5 * ymm9) + ymm2
vsubps %ymm9, %ymm10, %ymm9
vfmadd213ps %ymm18, %ymm13, %ymm17 # ymm17 = (ymm13 * ymm17) + ymm18
vmulps %ymm17, %ymm14, %ymm14
vmulps %ymm13, %ymm26, %ymm10
vmulps %ymm13, %ymm30, %ymm17
vmulps %ymm13, %ymm21, %ymm18
vfmadd213ps %ymm4, %ymm14, %ymm7 # ymm7 = (ymm14 * ymm7) + ymm4
vsubps %ymm7, %ymm10, %ymm10
vfmadd213ps %ymm3, %ymm14, %ymm6 # ymm6 = (ymm14 * ymm6) + ymm3
vsubps %ymm6, %ymm17, %ymm3
vfmadd213ps %ymm2, %ymm14, %ymm5 # ymm5 = (ymm14 * ymm5) + ymm2
vsubps %ymm5, %ymm18, %ymm5
vbroadcastss 0x208e1e(%rip), %ymm2 # 0x1eeba20
vblendmps %ymm12, %ymm2, %ymm4 {%k1}
vbroadcastss 0x209f73(%rip), %ymm2 # 0x1eecb84
vblendmps %ymm13, %ymm2, %ymm2 {%k1}
vbroadcastss 0x23e2a4(%rip), %ymm7 # 0x1f20ec4
vandps 0x380(%rsp), %ymm7, %ymm6
vmovaps 0x520(%rsp), %ymm12
vmaxps %ymm6, %ymm12, %ymm6
vmulps 0x20f274(%rip){1to8}, %ymm6, %ymm6 # 0x1ef1eb4
vandps %ymm7, %ymm15, %ymm7
vcmpltps %ymm6, %ymm7, %k1 {%k1}
kortestb %k1, %k1
jne 0x1ce4613
vbroadcastss 0x23e266(%rip), %xmm11 # 0x1f20ec4
jmp 0x1ce2ce5
vmovaps 0x23e2b5(%rip), %ymm3 # 0x1f20f20
vmovaps 0x140(%rsp), %ymm26
vmovaps 0x120(%rsp), %ymm30
vmovaps 0x1c0(%rsp), %ymm21
jmp 0x1ce44bd
vmovaps 0x23e290(%rip), %ymm3 # 0x1f20f20
vmovaps 0x140(%rsp), %ymm26
vmovaps 0x120(%rsp), %ymm30
jmp 0x1ce44bd
vxorps %xmm3, %xmm3, %xmm3
vxorps %xmm5, %xmm5, %xmm5
vxorps %xmm0, %xmm0, %xmm0
vxorps %xmm1, %xmm1, %xmm1
vxorps %xmm9, %xmm9, %xmm9
vbroadcastss 0x208d5d(%rip), %ymm4 # 0x1eeba20
vbroadcastss 0x209eb8(%rip), %ymm2 # 0x1eecb84
vbroadcastss 0x23e1ef(%rip), %xmm11 # 0x1f20ec4
vmovaps 0x140(%rsp), %ymm26
vmovaps 0x120(%rsp), %ymm30
vmulps %ymm5, %ymm21, %ymm5
vfmadd231ps %ymm3, %ymm30, %ymm5 # ymm5 = (ymm30 * ymm3) + ymm5
vfmadd231ps %ymm10, %ymm26, %ymm5 # ymm5 = (ymm26 * ymm10) + ymm5
vmovaps 0x340(%rsp), %ymm7
vmovaps %ymm7, 0x800(%rsp)
vminps %ymm4, %ymm8, %ymm3
vmovaps %ymm3, 0x820(%rsp)
vbroadcastss 0x23e1a5(%rip), %ymm6 # 0x1f20ec4
vandps %ymm6, %ymm5, %ymm4
vmaxps %ymm2, %ymm7, %ymm5
vmovaps %ymm5, 0x540(%rsp)
vmovaps %ymm8, 0x560(%rsp)
vbroadcastss 0x23e192(%rip), %ymm2 # 0x1f20ed4
vcmpltps %ymm2, %ymm4, %k1
kmovd %k1, 0x114(%rsp)
vcmpleps %ymm3, %ymm7, %k1
kmovd %k1, %ecx
andb %al, %cl
vmovaps %ymm5, 0x480(%rsp)
vcmpleps %ymm8, %ymm5, %k1
kmovd %k1, %edx
andb %al, %dl
movl %edx, %eax
orb %cl, %al
je 0x1ce448b
movl %edx, 0x34(%rsp)
movq %r9, 0x1b0(%rsp)
movq %r10, 0x1b8(%rsp)
knotb %k0, %k1
vmovaps %ymm2, %ymm3
vmulps %ymm9, %ymm21, %ymm2
vfmadd213ps %ymm2, %ymm30, %ymm1 # ymm1 = (ymm30 * ymm1) + ymm2
vfmadd213ps %ymm1, %ymm26, %ymm0 # ymm0 = (ymm26 * ymm0) + ymm1
vandps %ymm6, %ymm0, %ymm0
vcmpltps %ymm3, %ymm0, %k0
kmovd %k1, 0x10c(%rsp)
korb %k1, %k0, %k1
vpbroadcastd 0x23e10c(%rip), %ymm0 # 0x1f20edc
vpblendmd 0x23e0fe(%rip){1to8}, %ymm0, %ymm0 {%k1} # 0x1f20ed8
movq %r11, 0x1a8(%rsp)
vpbroadcastd %r11d, %ymm1
vmovdqa %ymm0, 0x580(%rsp)
vmovdqa %ymm1, 0x500(%rsp)
vpcmpnltd %ymm0, %ymm1, %k0
kmovd %k0, %ebx
movl %ecx, 0x110(%rsp)
andb %cl, %bl
je 0x1ce38a6
vmovaps 0x320(%rsp), %ymm1
vmovaps 0x2e0(%rsp), %ymm2
vminps %xmm2, %xmm1, %xmm0
vmaxps %xmm2, %xmm1, %xmm1
vmovaps 0x300(%rsp), %ymm3
vmovaps 0x2c0(%rsp), %ymm4
vminps %xmm4, %xmm3, %xmm2
vminps %xmm2, %xmm0, %xmm0
vmaxps %xmm4, %xmm3, %xmm2
vmaxps %xmm2, %xmm1, %xmm1
vandps %xmm0, %xmm11, %xmm0
vandps %xmm1, %xmm11, %xmm2
vmaxps %xmm2, %xmm0, %xmm0
vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3]
vmaxss %xmm0, %xmm2, %xmm2
vshufpd $0x1, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[1,0]
vmaxss %xmm2, %xmm0, %xmm0
vmulss 0x20f03f(%rip), %xmm0, %xmm0 # 0x1ef1eb4
vmovss %xmm0, 0x44(%rsp)
vshufps $0xff, %xmm1, %xmm1, %xmm0 # xmm0 = xmm1[3,3,3,3]
vmovaps %xmm0, 0x250(%rsp)
vmovaps 0x340(%rsp), %ymm0
vaddps 0x360(%rsp), %ymm0, %ymm0
vmovaps %ymm0, 0x4a0(%rsp)
kmovd %ebx, %k1
vbroadcastss 0x208b6f(%rip), %ymm0 # 0x1eeba20
vblendmps 0x340(%rsp), %ymm0, %ymm0 {%k1}
vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm0, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1]
vminps %ymm2, %ymm1, %ymm1
vcmpeqps %ymm1, %ymm0, %k0
kmovd %k0, %eax
andb %bl, %al
movzbl %al, %eax
movzbl %bl, %ecx
cmovnel %eax, %ecx
tzcntl %ecx, %ecx
movb $0x1, %bl
shlb %cl, %bl
shll $0x2, %ecx
vmovss 0x4e0(%rsp,%rcx), %xmm8
vmovss 0x800(%rsp,%rcx), %xmm9
vmovaps 0x230(%rsp), %xmm0
vucomiss 0x208b0b(%rip), %xmm0 # 0x1eeba24
vmovss 0x118(%rsp), %xmm0
jae 0x1ce2f65
vmovaps 0x230(%rsp), %xmm0
vmovaps %xmm8, 0xa0(%rsp)
vmovaps %xmm9, 0x80(%rsp)
kmovw %k1, 0x60(%rsp)
vzeroupper
callq 0x6aa20
kmovw 0x60(%rsp), %k1
vmovaps 0x80(%rsp), %xmm9
vmovaps 0xa0(%rsp), %xmm8
movzbl %bl, %eax
kmovd %eax, %k0
kandnb %k1, %k0, %k0
kmovd %k0, %ebx
vmulss 0x20ef38(%rip), %xmm0, %xmm0 # 0x1ef1eb4
vmovss %xmm0, 0x48(%rsp)
movl $0x4, %r14d
vbroadcastss %xmm9, %xmm0
vxorps %xmm1, %xmm1, %xmm1
vfmadd132ps 0x240(%rsp), %xmm1, %xmm0 # xmm0 = (xmm0 * mem) + xmm1
vmovss 0x209771(%rip), %xmm1 # 0x1eec714
vsubss %xmm8, %xmm1, %xmm3
vbroadcastss %xmm8, %xmm1
vmovaps 0x2e0(%rsp), %ymm5
vmulps %xmm1, %xmm5, %xmm2
vmovaps %xmm3, 0x2b0(%rsp)
vbroadcastss %xmm3, %xmm3
vfmadd231ps 0x320(%rsp), %xmm3, %xmm2 # xmm2 = (xmm3 * mem) + xmm2
vmovaps 0x300(%rsp), %ymm6
vmulps %xmm1, %xmm6, %xmm4
vfmadd231ps %xmm5, %xmm3, %xmm4 # xmm4 = (xmm3 * xmm5) + xmm4
vmulps 0x2c0(%rsp), %xmm1, %xmm5
vfmadd231ps %xmm6, %xmm3, %xmm5 # xmm5 = (xmm3 * xmm6) + xmm5
vmulps %xmm4, %xmm1, %xmm6
vfmadd231ps %xmm2, %xmm3, %xmm6 # xmm6 = (xmm3 * xmm2) + xmm6
vmulps %xmm5, %xmm1, %xmm2
vfmadd231ps %xmm4, %xmm3, %xmm2 # xmm2 = (xmm3 * xmm4) + xmm2
vmulps %xmm2, %xmm1, %xmm4
vfmadd231ps %xmm3, %xmm6, %xmm4 # xmm4 = (xmm6 * xmm3) + xmm4
vsubps %xmm6, %xmm2, %xmm1
vmulps 0x20dfd1(%rip){1to4}, %xmm1, %xmm10 # 0x1ef0fec
vmovaps %xmm4, 0x380(%rsp)
vsubps %xmm4, %xmm0, %xmm0
vmovaps %xmm0, 0x200(%rsp)
vdpps $0x7f, %xmm0, %xmm0, %xmm0
vucomiss 0x2089e5(%rip), %xmm0 # 0x1eeba24
vmovaps %xmm10, 0x60(%rsp)
vmovaps %xmm0, 0x1e0(%rsp)
vmovaps %xmm8, 0xa0(%rsp)
vmovaps %xmm9, 0x80(%rsp)
jb 0x1ce3068
vsqrtss %xmm0, %xmm0, %xmm7
jmp 0x1ce307a
vzeroupper
callq 0x6aa20
vmovaps 0x60(%rsp), %xmm10
vmovaps %xmm0, %xmm7
vdpps $0x7f, %xmm10, %xmm10, %xmm0
vxorps %xmm1, %xmm1, %xmm1
vmovss %xmm0, %xmm1, %xmm2 # xmm2 = xmm0[0],xmm1[1,2,3]
vrsqrt14ss %xmm2, %xmm1, %xmm3
vmulss 0x209682(%rip), %xmm3, %xmm4 # 0x1eec718
vmulss 0x20967e(%rip), %xmm0, %xmm5 # 0x1eec71c
vrcp14ss %xmm2, %xmm1, %xmm2
vxorps 0x23de12(%rip){1to4}, %xmm0, %xmm1 # 0x1f20ec0
vmovaps %xmm2, 0x290(%rsp)
vfnmadd213ss 0x20df38(%rip), %xmm0, %xmm2 # xmm2 = -(xmm0 * xmm2) + mem
vmovss %xmm2, 0x4c(%rsp)
vucomiss %xmm1, %xmm0
vmovss %xmm7, 0x24(%rsp)
vmovaps %xmm0, 0x2a0(%rsp)
jb 0x1ce30e3
vsqrtss %xmm0, %xmm0, %xmm16
jmp 0x1ce312d
vmovaps %xmm3, 0xe0(%rsp)
vmovss %xmm4, 0x20(%rsp)
vmovss %xmm5, 0xd0(%rsp)
vzeroupper
callq 0x6aa20
vmovss 0xd0(%rsp), %xmm5
vmovss 0x20(%rsp), %xmm4
vmovaps 0xe0(%rsp), %xmm3
vmovss 0x24(%rsp), %xmm7
vmovaps 0x60(%rsp), %xmm10
vmovaps %xmm0, %xmm16
vmovaps 0x200(%rsp), %xmm12
vmovaps 0x1e0(%rsp), %xmm19
vmulss %xmm3, %xmm5, %xmm0
vmulss %xmm3, %xmm3, %xmm1
vmulss %xmm1, %xmm0, %xmm0
vaddss %xmm0, %xmm4, %xmm0
vbroadcastss %xmm0, %xmm6
vmulps %xmm6, %xmm10, %xmm0
vmovaps %xmm0, 0xe0(%rsp)
vdpps $0x7f, %xmm0, %xmm12, %xmm15
vaddss 0x2095a6(%rip), %xmm7, %xmm14 # 0x1eec714
vmulps %xmm15, %xmm15, %xmm0
vsubps %xmm0, %xmm19, %xmm0
vxorps %xmm2, %xmm2, %xmm2
vmovss %xmm0, %xmm2, %xmm1 # xmm1 = xmm0[0],xmm2[1,2,3]
vrsqrt14ss %xmm1, %xmm2, %xmm18
vmulss 0x209587(%rip), %xmm18, %xmm17 # 0x1eec718
vmulss 0x209581(%rip), %xmm0, %xmm20 # 0x1eec71c
vucomiss 0x208881(%rip), %xmm0 # 0x1eeba24
jb 0x1ce31ae
vsqrtss %xmm0, %xmm0, %xmm0
jmp 0x1ce3243
vmovss %xmm14, 0x20(%rsp)
vmovaps %xmm15, 0xd0(%rsp)
vmovss %xmm16, 0x40(%rsp)
vmovss %xmm17, 0x3c(%rsp)
vmovaps %xmm18, 0x280(%rsp)
vmovss %xmm20, 0x38(%rsp)
vmovaps %xmm6, 0x270(%rsp)
vzeroupper
callq 0x6aa20
vmovaps 0x270(%rsp), %xmm6
vmovss 0x38(%rsp), %xmm20
vmovaps 0x280(%rsp), %xmm18
vmovss 0x3c(%rsp), %xmm17
vmovss 0x40(%rsp), %xmm16
vmovaps 0xd0(%rsp), %xmm15
vmovss 0x24(%rsp), %xmm7
vmovss 0x20(%rsp), %xmm14
vmovaps 0x1e0(%rsp), %xmm19
vmovaps 0x200(%rsp), %xmm12
vmovaps 0x60(%rsp), %xmm10
vbroadcastss 0x23dc78(%rip), %xmm11 # 0x1f20ec4
vmovaps 0x140(%rsp), %ymm26
vmovaps 0x120(%rsp), %ymm30
vmovaps 0x1c0(%rsp), %ymm21
vmovaps 0xa0(%rsp), %xmm8
vmovaps 0x80(%rsp), %xmm9
vmovss 0x20d75e(%rip), %xmm3 # 0x1ef09dc
vmovaps %xmm3, %xmm1
vmovaps 0x2b0(%rsp), %xmm5
vfmadd213ss %xmm5, %xmm8, %xmm1 # xmm1 = (xmm8 * xmm1) + xmm5
vmovss 0x20dd5c(%rip), %xmm4 # 0x1ef0ff4
vmulss %xmm4, %xmm1, %xmm1
vmulss %xmm4, %xmm8, %xmm2
vbroadcastss %xmm2, %xmm2
vmulps 0x2c0(%rsp), %xmm2, %xmm2
vbroadcastss %xmm1, %xmm1
vfmadd132ps 0x300(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2
vmovaps %xmm3, %xmm2
vfmadd213ss %xmm8, %xmm5, %xmm2 # xmm2 = (xmm5 * xmm2) + xmm8
vmulss %xmm4, %xmm2, %xmm2
vbroadcastss %xmm2, %xmm2
vfmadd132ps 0x2e0(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1
vmulss %xmm4, %xmm5, %xmm1
vbroadcastss %xmm1, %xmm1
vfmadd132ps 0x320(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2
vbroadcastss 0x2a0(%rsp), %xmm2
vmulps %xmm2, %xmm1, %xmm2
vdpps $0x7f, %xmm1, %xmm10, %xmm1
vbroadcastss %xmm1, %xmm1
vmulps %xmm1, %xmm10, %xmm1
vsubps %xmm1, %xmm2, %xmm1
vmovss 0x4c(%rsp), %xmm2
vmulss 0x290(%rsp), %xmm2, %xmm2
vmulss 0x48(%rsp), %xmm9, %xmm3
vbroadcastss %xmm2, %xmm2
vmulps %xmm2, %xmm1, %xmm1
vxorps 0x23db8b(%rip){1to4}, %xmm10, %xmm2 # 0x1f20ec0
vmulps %xmm1, %xmm6, %xmm4
vmovaps 0xe0(%rsp), %xmm13
vdpps $0x7f, %xmm13, %xmm2, %xmm5
vmovss 0x44(%rsp), %xmm6
vmaxss %xmm3, %xmm6, %xmm1
vdivss %xmm16, %xmm6, %xmm3
vdpps $0x7f, %xmm4, %xmm12, %xmm4
vfmadd213ss %xmm1, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm7) + xmm1
vfmadd213ss %xmm7, %xmm3, %xmm14 # xmm14 = (xmm3 * xmm14) + xmm7
vmovaps 0x240(%rsp), %xmm7
vdpps $0x7f, %xmm13, %xmm7, %xmm3
vaddss %xmm4, %xmm5, %xmm4
vdpps $0x7f, %xmm2, %xmm12, %xmm5
vmulss %xmm18, %xmm20, %xmm2
vmulss %xmm18, %xmm18, %xmm6
vmulss %xmm6, %xmm2, %xmm2
vdpps $0x7f, %xmm7, %xmm12, %xmm6
vaddss %xmm2, %xmm17, %xmm7
vfnmadd231ss %xmm4, %xmm15, %xmm5 # xmm5 = -(xmm15 * xmm4) + xmm5
vfnmadd231ss %xmm3, %xmm15, %xmm6 # xmm6 = -(xmm15 * xmm3) + xmm6
vpermilps $0xff, 0x380(%rsp), %xmm2 # xmm2 = mem[3,3,3,3]
vsubss %xmm2, %xmm0, %xmm2
vshufps $0xff, %xmm10, %xmm10, %xmm0 # xmm0 = xmm10[3,3,3,3]
vfmsub213ss %xmm0, %xmm7, %xmm5 # xmm5 = (xmm7 * xmm5) - xmm0
vmulss %xmm7, %xmm6, %xmm6
vmulss %xmm5, %xmm3, %xmm7
vfmsub231ss %xmm6, %xmm4, %xmm7 # xmm7 = (xmm4 * xmm6) - xmm7
vdivss %xmm7, %xmm6, %xmm6
vdivss %xmm7, %xmm5, %xmm5
vdivss %xmm7, %xmm3, %xmm3
vdivss %xmm7, %xmm4, %xmm4
vmulss %xmm6, %xmm15, %xmm6
vmulss %xmm3, %xmm2, %xmm3
vsubss %xmm3, %xmm6, %xmm3
vmulss %xmm5, %xmm15, %xmm5
vmulss %xmm4, %xmm2, %xmm4
vsubss %xmm5, %xmm4, %xmm4
vsubss %xmm3, %xmm8, %xmm8
vsubss %xmm4, %xmm9, %xmm9
vandps %xmm11, %xmm15, %xmm3
vucomiss %xmm3, %xmm14
jbe 0x1ce35bd
vaddss %xmm1, %xmm14, %xmm1
vmovaps 0x250(%rsp), %xmm3
vfmadd231ss 0x20ea91(%rip), %xmm3, %xmm1 # xmm1 = (xmm3 * mem) + xmm1
vandps %xmm2, %xmm11, %xmm2
vucomiss %xmm2, %xmm1
jbe 0x1ce35bd
vaddss 0x260(%rsp), %xmm9, %xmm9
movb $0x1, %r13b
vucomiss 0x5c(%rsp), %xmm9
jb 0x1ce35c0
movq 0x18(%rsp), %rax
vmovss 0x80(%r12,%rax,4), %xmm4
vucomiss %xmm9, %xmm4
jb 0x1ce35c0
vucomiss 0x2085b9(%rip), %xmm8 # 0x1eeba24
jb 0x1ce35c0
vmovss 0x20929b(%rip), %xmm1 # 0x1eec714
vucomiss %xmm8, %xmm1
jb 0x1ce35c0
vxorps %xmm2, %xmm2, %xmm2
vmovss %xmm19, %xmm2, %xmm1 # xmm1 = xmm19[0],xmm2[1,2,3]
vrsqrt14ss %xmm1, %xmm2, %xmm1
vmulss 0x20927c(%rip), %xmm1, %xmm2 # 0x1eec718
vmulss 0x209276(%rip), %xmm19, %xmm3 # 0x1eec71c
movq (%r15), %rax
movq 0x1e8(%rax), %rax
movq %r15, %rcx
movq 0x50(%rsp), %rdx
movq (%rax,%rdx,8), %r15
movq 0x18(%rsp), %rax
movl 0x90(%r12,%rax,4), %eax
testl %eax, 0x34(%r15)
je 0x1ce35dd
vmulss %xmm1, %xmm3, %xmm3
vmulss %xmm1, %xmm1, %xmm1
vmulss %xmm1, %xmm3, %xmm1
vaddss %xmm1, %xmm2, %xmm1
vbroadcastss %xmm1, %xmm1
vmulps %xmm1, %xmm12, %xmm1
vfmadd213ps %xmm10, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm0) + xmm10
vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm10, %xmm10, %xmm3 # xmm3 = xmm10[1,2,0,3]
vmulps %xmm3, %xmm1, %xmm1
vfmsub231ps %xmm2, %xmm10, %xmm1 # xmm1 = (xmm10 * xmm2) - xmm1
vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3]
vshufps $0xd2, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,0,1,3]
vmulps %xmm1, %xmm0, %xmm0
vfmsub231ps %xmm3, %xmm2, %xmm0 # xmm0 = (xmm2 * xmm3) - xmm0
movq 0x10(%rcx), %rax
cmpq $0x0, 0x10(%rax)
jne 0x1ce35e2
cmpq $0x0, 0x40(%r15)
jne 0x1ce35e2
movq 0x18(%rsp), %rcx
vmovss %xmm9, 0x80(%r12,%rcx,4)
vextractps $0x1, %xmm0, 0xc0(%r12,%rcx,4)
vextractps $0x2, %xmm0, 0xd0(%r12,%rcx,4)
vmovss %xmm0, 0xe0(%r12,%rcx,4)
vmovss %xmm8, 0xf0(%r12,%rcx,4)
movl $0x0, 0x100(%r12,%rcx,4)
movq 0x100(%rsp), %rax
movl %eax, 0x110(%r12,%rcx,4)
movq 0x50(%rsp), %rax
movl %eax, 0x120(%r12,%rcx,4)
movq 0x28(%rsp), %r15
movq 0x8(%r15), %rax
movl (%rax), %eax
movl %eax, 0x130(%r12,%rcx,4)
movq 0x8(%r15), %rax
movl 0x4(%rax), %eax
movl %eax, 0x140(%r12,%rcx,4)
jmp 0x1ce35c0
xorl %r13d, %r13d
subq $0x1, %r14
setb %al
testb %r13b, %r13b
jne 0x1ce3883
testb %al, %al
je 0x1ce2f88
jmp 0x1ce3883
movq %rcx, %r15
jmp 0x1ce35c0
movq 0x28(%rsp), %rcx
movq 0x8(%rcx), %rax
vbroadcastss %xmm8, %xmm1
vshufps $0x55, %xmm0, %xmm0, %xmm2 # xmm2 = xmm0[1,1,1,1]
vshufps $0xaa, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[2,2,2,2]
vbroadcastss %xmm0, %xmm0
vmovaps %xmm2, 0x3e0(%rsp)
vmovaps %xmm3, 0x3f0(%rsp)
vmovaps %xmm0, 0x400(%rsp)
vmovaps %xmm1, 0x410(%rsp)
vxorps %xmm0, %xmm0, %xmm0
vmovaps %xmm0, 0x420(%rsp)
vmovaps 0x3c0(%rsp), %xmm0
vmovaps %xmm0, 0x430(%rsp)
vmovdqa 0x3d0(%rsp), %xmm0
vmovdqa %xmm0, 0x440(%rsp)
leaq 0x450(%rsp), %rdx
vpcmpeqd %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, (%rdx)
vbroadcastss (%rax), %xmm0
vmovaps %xmm0, 0x450(%rsp)
vbroadcastss 0x4(%rax), %xmm0
vmovaps %xmm0, 0x460(%rsp)
movq 0x18(%rsp), %rax
vmovss %xmm9, 0x80(%r12,%rax,4)
vmovaps 0x3b0(%rsp), %xmm0
vmovaps %xmm0, 0xf0(%rsp)
leaq 0xf0(%rsp), %rax
movq %rax, 0x160(%rsp)
movq 0x18(%r15), %rax
movq %rax, 0x168(%rsp)
movq 0x8(%rcx), %rax
movq %rax, 0x170(%rsp)
movq %r12, 0x178(%rsp)
leaq 0x3e0(%rsp), %rax
movq %rax, 0x180(%rsp)
movl $0x4, 0x188(%rsp)
movq 0x40(%r15), %rax
testq %rax, %rax
vmovaps %xmm8, 0xa0(%rsp)
vmovaps %xmm9, 0x80(%rsp)
vmovss %xmm4, 0x60(%rsp)
je 0x1ce3754
leaq 0x160(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0x60(%rsp), %xmm4
vmovaps 0x80(%rsp), %xmm9
vmovaps 0xa0(%rsp), %xmm8
vmovaps 0x1c0(%rsp), %ymm21
vmovaps 0x120(%rsp), %ymm30
vmovaps 0x140(%rsp), %ymm26
vbroadcastss 0x23d770(%rip), %xmm11 # 0x1f20ec4
vmovdqa 0xf0(%rsp), %xmm0
vptestmd %xmm0, %xmm0, %k0
kortestb %k0, %k0
je 0x1ce386a
movq 0x28(%rsp), %rax
movq 0x10(%rax), %rcx
movq 0x10(%rcx), %rax
testq %rax, %rax
je 0x1ce37d1
testb $0x2, (%rcx)
jne 0x1ce378b
testb $0x40, 0x3e(%r15)
je 0x1ce37d1
leaq 0x160(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0x60(%rsp), %xmm4
vmovaps 0x80(%rsp), %xmm9
vmovaps 0xa0(%rsp), %xmm8
vmovaps 0x1c0(%rsp), %ymm21
vmovaps 0x120(%rsp), %ymm30
vmovaps 0x140(%rsp), %ymm26
vbroadcastss 0x23d6f3(%rip), %xmm11 # 0x1f20ec4
vmovdqa 0xf0(%rsp), %xmm0
vptestmd %xmm0, %xmm0, %k1
kortestb %k1, %k1
je 0x1ce386a
movq 0x178(%rsp), %rax
movq 0x180(%rsp), %rcx
vmovaps (%rcx), %xmm0
vmovups %xmm0, 0xc0(%rax) {%k1}
vmovaps 0x10(%rcx), %xmm0
vmovups %xmm0, 0xd0(%rax) {%k1}
vmovaps 0x20(%rcx), %xmm0
vmovups %xmm0, 0xe0(%rax) {%k1}
vmovaps 0x30(%rcx), %xmm0
vmovups %xmm0, 0xf0(%rax) {%k1}
vmovaps 0x40(%rcx), %xmm0
vmovups %xmm0, 0x100(%rax) {%k1}
vmovdqa 0x50(%rcx), %xmm0
vmovdqu32 %xmm0, 0x110(%rax) {%k1}
vmovdqa 0x60(%rcx), %xmm0
vmovdqu32 %xmm0, 0x120(%rax) {%k1}
vmovdqa 0x70(%rcx), %xmm0
vmovdqa32 %xmm0, 0x130(%rax) {%k1}
vmovdqa 0x80(%rcx), %xmm0
vmovdqa32 %xmm0, 0x140(%rax) {%k1}
jmp 0x1ce3879
movq 0x18(%rsp), %rax
vmovss %xmm4, 0x80(%r12,%rax,4)
movq 0x28(%rsp), %r15
jmp 0x1ce35c0
movq 0x18(%rsp), %rax
vmovaps 0x4a0(%rsp), %ymm0
vcmpleps 0x80(%r12,%rax,4){1to8}, %ymm0, %k0
kmovd %k0, %eax
andb %al, %bl
jne 0x1ce2ea4
vmovaps 0x480(%rsp), %ymm0
vaddps 0x360(%rsp), %ymm0, %ymm0
movq 0x18(%rsp), %rax
vcmpleps 0x80(%r12,%rax,4){1to8}, %ymm0, %k0
kmovd 0x114(%rsp), %k1
kmovd 0x10c(%rsp), %k2
korb %k2, %k1, %k1
kmovd %k0, %eax
movl 0x34(%rsp), %ecx
andb %al, %cl
vpbroadcastd 0x23d5eb(%rip), %ymm0 # 0x1f20edc
vpblendmd 0x23d5dd(%rip){1to8}, %ymm0, %ymm0 {%k1} # 0x1f20ed8
vmovdqa %ymm0, 0x480(%rsp)
vpcmpled 0x500(%rsp), %ymm0, %k0
kmovd %k0, %ebx
movl %ecx, 0x34(%rsp)
andb %cl, %bl
je 0x1ce43a6
vmovaps 0x540(%rsp), %ymm5
vmovaps 0x320(%rsp), %ymm1
vmovaps 0x2e0(%rsp), %ymm2
vminps %xmm2, %xmm1, %xmm0
vmaxps %xmm2, %xmm1, %xmm1
vmovaps 0x300(%rsp), %ymm3
vmovaps 0x2c0(%rsp), %ymm4
vminps %xmm4, %xmm3, %xmm2
vminps %xmm2, %xmm0, %xmm0
vmaxps %xmm4, %xmm3, %xmm2
vmaxps %xmm2, %xmm1, %xmm1
vandps %xmm0, %xmm11, %xmm0
vandps %xmm1, %xmm11, %xmm2
vmaxps %xmm2, %xmm0, %xmm0
vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3]
vmaxss %xmm0, %xmm2, %xmm2
vshufpd $0x1, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[1,0]
vmaxss %xmm2, %xmm0, %xmm0
vmulss 0x20e52d(%rip), %xmm0, %xmm0 # 0x1ef1eb4
vmovss %xmm0, 0x44(%rsp)
vshufps $0xff, %xmm1, %xmm1, %xmm0 # xmm0 = xmm1[3,3,3,3]
vmovaps %xmm0, 0x250(%rsp)
vmovaps %ymm5, 0x340(%rsp)
vaddps 0x360(%rsp), %ymm5, %ymm0
vmovaps %ymm0, 0x4a0(%rsp)
kmovd %ebx, %k1
vbroadcastss 0x20805d(%rip), %ymm0 # 0x1eeba20
vblendmps 0x340(%rsp), %ymm0, %ymm0 {%k1}
vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm0, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1]
vminps %ymm2, %ymm1, %ymm1
vcmpeqps %ymm1, %ymm0, %k0
kmovd %k0, %eax
andb %bl, %al
movzbl %al, %eax
movzbl %bl, %ecx
cmovnel %eax, %ecx
tzcntl %ecx, %ecx
movb $0x1, %bl
shlb %cl, %bl
shll $0x2, %ecx
vmovss 0x4c0(%rsp,%rcx), %xmm9
vmovss 0x560(%rsp,%rcx), %xmm10
vmovaps 0x230(%rsp), %xmm0
vucomiss 0x207ff9(%rip), %xmm0 # 0x1eeba24
vmovss 0x11c(%rsp), %xmm0
jae 0x1ce3a77
vmovaps 0x230(%rsp), %xmm0
vmovaps %xmm9, 0xa0(%rsp)
vmovaps %xmm10, 0x80(%rsp)
kmovw %k1, 0x60(%rsp)
vzeroupper
callq 0x6aa20
kmovw 0x60(%rsp), %k1
vmovaps 0x80(%rsp), %xmm10
vmovaps 0xa0(%rsp), %xmm9
movzbl %bl, %eax
kmovd %eax, %k0
kandnb %k1, %k0, %k0
kmovd %k0, %ebx
vmulss 0x20e426(%rip), %xmm0, %xmm0 # 0x1ef1eb4
vmovss %xmm0, 0x48(%rsp)
movl $0x4, %r14d
vbroadcastss %xmm10, %xmm0
vxorps %xmm1, %xmm1, %xmm1
vfmadd132ps 0x240(%rsp), %xmm1, %xmm0 # xmm0 = (xmm0 * mem) + xmm1
vmovss 0x208c5f(%rip), %xmm1 # 0x1eec714
vsubss %xmm9, %xmm1, %xmm3
vbroadcastss %xmm9, %xmm1
vmovaps 0x2e0(%rsp), %ymm5
vmulps %xmm1, %xmm5, %xmm2
vmovaps %xmm3, 0x2b0(%rsp)
vbroadcastss %xmm3, %xmm3
vfmadd231ps 0x320(%rsp), %xmm3, %xmm2 # xmm2 = (xmm3 * mem) + xmm2
vmovaps 0x300(%rsp), %ymm6
vmulps %xmm1, %xmm6, %xmm4
vfmadd231ps %xmm5, %xmm3, %xmm4 # xmm4 = (xmm3 * xmm5) + xmm4
vmulps 0x2c0(%rsp), %xmm1, %xmm5
vfmadd231ps %xmm6, %xmm3, %xmm5 # xmm5 = (xmm3 * xmm6) + xmm5
vmulps %xmm4, %xmm1, %xmm6
vfmadd231ps %xmm2, %xmm3, %xmm6 # xmm6 = (xmm3 * xmm2) + xmm6
vmulps %xmm5, %xmm1, %xmm2
vfmadd231ps %xmm4, %xmm3, %xmm2 # xmm2 = (xmm3 * xmm4) + xmm2
vmulps %xmm2, %xmm1, %xmm4
vfmadd231ps %xmm3, %xmm6, %xmm4 # xmm4 = (xmm6 * xmm3) + xmm4
vsubps %xmm6, %xmm2, %xmm1
vmulps 0x20d4bf(%rip){1to4}, %xmm1, %xmm11 # 0x1ef0fec
vmovaps %xmm4, 0x380(%rsp)
vsubps %xmm4, %xmm0, %xmm0
vmovaps %xmm0, 0x200(%rsp)
vdpps $0x7f, %xmm0, %xmm0, %xmm0
vucomiss 0x207ed3(%rip), %xmm0 # 0x1eeba24
vmovaps %xmm11, 0x60(%rsp)
vmovaps %xmm0, 0x1e0(%rsp)
vmovaps %xmm9, 0xa0(%rsp)
vmovaps %xmm10, 0x80(%rsp)
jb 0x1ce3b7a
vsqrtss %xmm0, %xmm0, %xmm7
jmp 0x1ce3b8c
vzeroupper
callq 0x6aa20
vmovaps 0x60(%rsp), %xmm11
vmovaps %xmm0, %xmm7
vdpps $0x7f, %xmm11, %xmm11, %xmm0
vxorps %xmm1, %xmm1, %xmm1
vmovss %xmm0, %xmm1, %xmm2 # xmm2 = xmm0[0],xmm1[1,2,3]
vrsqrt14ss %xmm2, %xmm1, %xmm3
vmulss 0x208b70(%rip), %xmm3, %xmm4 # 0x1eec718
vmulss 0x208b6c(%rip), %xmm0, %xmm5 # 0x1eec71c
vrcp14ss %xmm2, %xmm1, %xmm2
vxorps 0x23d300(%rip){1to4}, %xmm0, %xmm1 # 0x1f20ec0
vmovaps %xmm2, 0x290(%rsp)
vfnmadd213ss 0x20d426(%rip), %xmm0, %xmm2 # xmm2 = -(xmm0 * xmm2) + mem
vmovss %xmm2, 0x4c(%rsp)
vucomiss %xmm1, %xmm0
vmovss %xmm7, 0x24(%rsp)
vmovaps %xmm0, 0x2a0(%rsp)
jb 0x1ce3bf5
vsqrtss %xmm0, %xmm0, %xmm16
jmp 0x1ce3c3f
vmovaps %xmm3, 0xe0(%rsp)
vmovss %xmm4, 0x20(%rsp)
vmovss %xmm5, 0xd0(%rsp)
vzeroupper
callq 0x6aa20
vmovss 0xd0(%rsp), %xmm5
vmovss 0x20(%rsp), %xmm4
vmovaps 0xe0(%rsp), %xmm3
vmovss 0x24(%rsp), %xmm7
vmovaps 0x60(%rsp), %xmm11
vmovaps %xmm0, %xmm16
vmovaps 0x200(%rsp), %xmm12
vmovaps 0x1e0(%rsp), %xmm19
vmulss %xmm3, %xmm5, %xmm0
vmulss %xmm3, %xmm3, %xmm1
vmulss %xmm1, %xmm0, %xmm0
vaddss %xmm0, %xmm4, %xmm0
vbroadcastss %xmm0, %xmm6
vmulps %xmm6, %xmm11, %xmm0
vmovaps %xmm0, 0xe0(%rsp)
vdpps $0x7f, %xmm0, %xmm12, %xmm15
vaddss 0x208a94(%rip), %xmm7, %xmm14 # 0x1eec714
vmulps %xmm15, %xmm15, %xmm0
vsubps %xmm0, %xmm19, %xmm0
vxorps %xmm2, %xmm2, %xmm2
vmovss %xmm0, %xmm2, %xmm1 # xmm1 = xmm0[0],xmm2[1,2,3]
vrsqrt14ss %xmm1, %xmm2, %xmm18
vmulss 0x208a75(%rip), %xmm18, %xmm17 # 0x1eec718
vmulss 0x208a6f(%rip), %xmm0, %xmm20 # 0x1eec71c
vucomiss 0x207d6f(%rip), %xmm0 # 0x1eeba24
jb 0x1ce3cc0
vsqrtss %xmm0, %xmm0, %xmm0
jmp 0x1ce3d55
vmovss %xmm14, 0x20(%rsp)
vmovaps %xmm15, 0xd0(%rsp)
vmovss %xmm16, 0x40(%rsp)
vmovss %xmm17, 0x3c(%rsp)
vmovaps %xmm18, 0x280(%rsp)
vmovss %xmm20, 0x38(%rsp)
vmovaps %xmm6, 0x270(%rsp)
vzeroupper
callq 0x6aa20
vmovaps 0x270(%rsp), %xmm6
vmovss 0x38(%rsp), %xmm20
vmovaps 0x280(%rsp), %xmm18
vmovss 0x3c(%rsp), %xmm17
vmovss 0x40(%rsp), %xmm16
vmovaps 0xd0(%rsp), %xmm15
vmovss 0x24(%rsp), %xmm7
vmovss 0x20(%rsp), %xmm14
vmovaps 0x1e0(%rsp), %xmm19
vmovaps 0x200(%rsp), %xmm12
vmovaps 0x60(%rsp), %xmm11
vbroadcastss 0x23d166(%rip), %xmm8 # 0x1f20ec4
vmovaps 0x140(%rsp), %ymm26
vmovaps 0x120(%rsp), %ymm30
vmovaps 0x1c0(%rsp), %ymm21
vmovaps 0xa0(%rsp), %xmm9
vmovaps 0x80(%rsp), %xmm10
vmovss 0x20cc4c(%rip), %xmm3 # 0x1ef09dc
vmovaps %xmm3, %xmm1
vmovaps 0x2b0(%rsp), %xmm5
vfmadd213ss %xmm5, %xmm9, %xmm1 # xmm1 = (xmm9 * xmm1) + xmm5
vmovss 0x20d24a(%rip), %xmm4 # 0x1ef0ff4
vmulss %xmm4, %xmm1, %xmm1
vmulss %xmm4, %xmm9, %xmm2
vbroadcastss %xmm2, %xmm2
vmulps 0x2c0(%rsp), %xmm2, %xmm2
vbroadcastss %xmm1, %xmm1
vfmadd132ps 0x300(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2
vmovaps %xmm3, %xmm2
vfmadd213ss %xmm9, %xmm5, %xmm2 # xmm2 = (xmm5 * xmm2) + xmm9
vmulss %xmm4, %xmm2, %xmm2
vbroadcastss %xmm2, %xmm2
vfmadd132ps 0x2e0(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1
vmulss %xmm4, %xmm5, %xmm1
vbroadcastss %xmm1, %xmm1
vfmadd132ps 0x320(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2
vbroadcastss 0x2a0(%rsp), %xmm2
vmulps %xmm2, %xmm1, %xmm2
vdpps $0x7f, %xmm1, %xmm11, %xmm1
vbroadcastss %xmm1, %xmm1
vmulps %xmm1, %xmm11, %xmm1
vsubps %xmm1, %xmm2, %xmm1
vmovss 0x4c(%rsp), %xmm2
vmulss 0x290(%rsp), %xmm2, %xmm2
vmulss 0x48(%rsp), %xmm10, %xmm3
vbroadcastss %xmm2, %xmm2
vmulps %xmm2, %xmm1, %xmm1
vxorps 0x23d079(%rip){1to4}, %xmm11, %xmm2 # 0x1f20ec0
vmulps %xmm1, %xmm6, %xmm4
vmovaps 0xe0(%rsp), %xmm13
vdpps $0x7f, %xmm13, %xmm2, %xmm5
vmovss 0x44(%rsp), %xmm6
vmaxss %xmm3, %xmm6, %xmm1
vdivss %xmm16, %xmm6, %xmm3
vdpps $0x7f, %xmm4, %xmm12, %xmm4
vfmadd213ss %xmm1, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm7) + xmm1
vfmadd213ss %xmm7, %xmm3, %xmm14 # xmm14 = (xmm3 * xmm14) + xmm7
vmovaps 0x240(%rsp), %xmm7
vdpps $0x7f, %xmm13, %xmm7, %xmm3
vaddss %xmm4, %xmm5, %xmm4
vdpps $0x7f, %xmm2, %xmm12, %xmm5
vmulss %xmm18, %xmm20, %xmm2
vmulss %xmm18, %xmm18, %xmm6
vmulss %xmm6, %xmm2, %xmm2
vdpps $0x7f, %xmm7, %xmm12, %xmm6
vaddss %xmm2, %xmm17, %xmm7
vfnmadd231ss %xmm4, %xmm15, %xmm5 # xmm5 = -(xmm15 * xmm4) + xmm5
vfnmadd231ss %xmm3, %xmm15, %xmm6 # xmm6 = -(xmm15 * xmm3) + xmm6
vpermilps $0xff, 0x380(%rsp), %xmm2 # xmm2 = mem[3,3,3,3]
vsubss %xmm2, %xmm0, %xmm2
vshufps $0xff, %xmm11, %xmm11, %xmm0 # xmm0 = xmm11[3,3,3,3]
vfmsub213ss %xmm0, %xmm7, %xmm5 # xmm5 = (xmm7 * xmm5) - xmm0
vmulss %xmm7, %xmm6, %xmm6
vmulss %xmm5, %xmm3, %xmm7
vfmsub231ss %xmm6, %xmm4, %xmm7 # xmm7 = (xmm4 * xmm6) - xmm7
vdivss %xmm7, %xmm6, %xmm6
vdivss %xmm7, %xmm5, %xmm5
vdivss %xmm7, %xmm3, %xmm3
vdivss %xmm7, %xmm4, %xmm4
vmulss %xmm6, %xmm15, %xmm6
vmulss %xmm3, %xmm2, %xmm3
vsubss %xmm3, %xmm6, %xmm3
vmulss %xmm5, %xmm15, %xmm5
vmulss %xmm4, %xmm2, %xmm4
vsubss %xmm5, %xmm4, %xmm4
vsubss %xmm3, %xmm9, %xmm9
vsubss %xmm4, %xmm10, %xmm10
vandps %xmm8, %xmm15, %xmm3
vucomiss %xmm3, %xmm14
jbe 0x1ce40cf
vaddss %xmm1, %xmm14, %xmm1
vmovaps 0x250(%rsp), %xmm3
vfmadd231ss 0x20df7f(%rip), %xmm3, %xmm1 # xmm1 = (xmm3 * mem) + xmm1
vandps %xmm2, %xmm8, %xmm2
vucomiss %xmm2, %xmm1
jbe 0x1ce40cf
vaddss 0x260(%rsp), %xmm10, %xmm10
movb $0x1, %r13b
vucomiss 0x5c(%rsp), %xmm10
jb 0x1ce40d2
movq 0x18(%rsp), %rax
vmovss 0x80(%r12,%rax,4), %xmm4
vucomiss %xmm10, %xmm4
jb 0x1ce40d2
vucomiss 0x207aa7(%rip), %xmm9 # 0x1eeba24
jb 0x1ce40d2
vmovss 0x208789(%rip), %xmm1 # 0x1eec714
vucomiss %xmm9, %xmm1
jb 0x1ce40d2
vxorps %xmm2, %xmm2, %xmm2
vmovss %xmm19, %xmm2, %xmm1 # xmm1 = xmm19[0],xmm2[1,2,3]
vrsqrt14ss %xmm1, %xmm2, %xmm1
vmulss 0x20876a(%rip), %xmm1, %xmm2 # 0x1eec718
vmulss 0x208764(%rip), %xmm19, %xmm3 # 0x1eec71c
movq (%r15), %rax
movq 0x1e8(%rax), %rax
movq %r15, %rcx
movq 0x50(%rsp), %rdx
movq (%rax,%rdx,8), %r15
movq 0x18(%rsp), %rax
movl 0x90(%r12,%rax,4), %eax
testl %eax, 0x34(%r15)
je 0x1ce40ef
vmulss %xmm1, %xmm3, %xmm3
vmulss %xmm1, %xmm1, %xmm1
vmulss %xmm1, %xmm3, %xmm1
vaddss %xmm1, %xmm2, %xmm1
vbroadcastss %xmm1, %xmm1
vmulps %xmm1, %xmm12, %xmm1
vfmadd213ps %xmm11, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm0) + xmm11
vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm11, %xmm11, %xmm3 # xmm3 = xmm11[1,2,0,3]
vmulps %xmm3, %xmm1, %xmm1
vfmsub231ps %xmm2, %xmm11, %xmm1 # xmm1 = (xmm11 * xmm2) - xmm1
vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3]
vshufps $0xd2, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,0,1,3]
vmulps %xmm1, %xmm0, %xmm0
vfmsub231ps %xmm3, %xmm2, %xmm0 # xmm0 = (xmm2 * xmm3) - xmm0
movq 0x10(%rcx), %rax
cmpq $0x0, 0x10(%rax)
jne 0x1ce40f4
cmpq $0x0, 0x40(%r15)
jne 0x1ce40f4
movq 0x18(%rsp), %rcx
vmovss %xmm10, 0x80(%r12,%rcx,4)
vextractps $0x1, %xmm0, 0xc0(%r12,%rcx,4)
vextractps $0x2, %xmm0, 0xd0(%r12,%rcx,4)
vmovss %xmm0, 0xe0(%r12,%rcx,4)
vmovss %xmm9, 0xf0(%r12,%rcx,4)
movl $0x0, 0x100(%r12,%rcx,4)
movq 0x100(%rsp), %rax
movl %eax, 0x110(%r12,%rcx,4)
movq 0x50(%rsp), %rax
movl %eax, 0x120(%r12,%rcx,4)
movq 0x28(%rsp), %r15
movq 0x8(%r15), %rax
movl (%rax), %eax
movl %eax, 0x130(%r12,%rcx,4)
movq 0x8(%r15), %rax
movl 0x4(%rax), %eax
movl %eax, 0x140(%r12,%rcx,4)
jmp 0x1ce40d2
xorl %r13d, %r13d
subq $0x1, %r14
setb %al
testb %r13b, %r13b
jne 0x1ce4383
testb %al, %al
je 0x1ce3a9a
jmp 0x1ce4383
movq %rcx, %r15
jmp 0x1ce40d2
movq 0x28(%rsp), %rcx
movq 0x8(%rcx), %rax
vbroadcastss %xmm9, %xmm1
vshufps $0x55, %xmm0, %xmm0, %xmm2 # xmm2 = xmm0[1,1,1,1]
vshufps $0xaa, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[2,2,2,2]
vbroadcastss %xmm0, %xmm0
vmovaps %xmm2, 0x3e0(%rsp)
vmovaps %xmm3, 0x3f0(%rsp)
vmovaps %xmm0, 0x400(%rsp)
vmovaps %xmm1, 0x410(%rsp)
vxorps %xmm0, %xmm0, %xmm0
vmovaps %xmm0, 0x420(%rsp)
vmovaps 0x3c0(%rsp), %xmm0
vmovaps %xmm0, 0x430(%rsp)
vmovdqa 0x3d0(%rsp), %xmm0
vmovdqa %xmm0, 0x440(%rsp)
leaq 0x450(%rsp), %rdx
vpcmpeqd %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, (%rdx)
vbroadcastss (%rax), %xmm0
vmovaps %xmm0, 0x450(%rsp)
vbroadcastss 0x4(%rax), %xmm0
vmovaps %xmm0, 0x460(%rsp)
movq 0x18(%rsp), %rax
vmovss %xmm10, 0x80(%r12,%rax,4)
vmovaps 0x3b0(%rsp), %xmm0
vmovaps %xmm0, 0xf0(%rsp)
leaq 0xf0(%rsp), %rax
movq %rax, 0x160(%rsp)
movq 0x18(%r15), %rax
movq %rax, 0x168(%rsp)
movq 0x8(%rcx), %rax
movq %rax, 0x170(%rsp)
movq %r12, 0x178(%rsp)
leaq 0x3e0(%rsp), %rax
movq %rax, 0x180(%rsp)
movl $0x4, 0x188(%rsp)
movq 0x40(%r15), %rax
testq %rax, %rax
vmovaps %xmm9, 0xa0(%rsp)
vmovaps %xmm10, 0x80(%rsp)
vmovss %xmm4, 0x60(%rsp)
je 0x1ce425d
leaq 0x160(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0x60(%rsp), %xmm4
vmovaps 0x80(%rsp), %xmm10
vmovaps 0xa0(%rsp), %xmm9
vmovaps 0x1c0(%rsp), %ymm21
vmovaps 0x120(%rsp), %ymm30
vmovaps 0x140(%rsp), %ymm26
vmovdqa 0xf0(%rsp), %xmm0
vptestmd %xmm0, %xmm0, %k0
kortestb %k0, %k0
je 0x1ce436a
movq 0x28(%rsp), %rax
movq 0x10(%rax), %rcx
movq 0x10(%rcx), %rax
testq %rax, %rax
je 0x1ce42d1
testb $0x2, (%rcx)
jne 0x1ce4294
testb $0x40, 0x3e(%r15)
je 0x1ce42d1
leaq 0x160(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0x60(%rsp), %xmm4
vmovaps 0x80(%rsp), %xmm10
vmovaps 0xa0(%rsp), %xmm9
vmovaps 0x1c0(%rsp), %ymm21
vmovaps 0x120(%rsp), %ymm30
vmovaps 0x140(%rsp), %ymm26
vmovdqa 0xf0(%rsp), %xmm0
vptestmd %xmm0, %xmm0, %k1
kortestb %k1, %k1
je 0x1ce436a
movq 0x178(%rsp), %rax
movq 0x180(%rsp), %rcx
vmovaps (%rcx), %xmm0
vmovups %xmm0, 0xc0(%rax) {%k1}
vmovaps 0x10(%rcx), %xmm0
vmovups %xmm0, 0xd0(%rax) {%k1}
vmovaps 0x20(%rcx), %xmm0
vmovups %xmm0, 0xe0(%rax) {%k1}
vmovaps 0x30(%rcx), %xmm0
vmovups %xmm0, 0xf0(%rax) {%k1}
vmovaps 0x40(%rcx), %xmm0
vmovups %xmm0, 0x100(%rax) {%k1}
vmovdqa 0x50(%rcx), %xmm0
vmovdqu32 %xmm0, 0x110(%rax) {%k1}
vmovdqa 0x60(%rcx), %xmm0
vmovdqu32 %xmm0, 0x120(%rax) {%k1}
vmovdqa 0x70(%rcx), %xmm0
vmovdqa32 %xmm0, 0x130(%rax) {%k1}
vmovdqa 0x80(%rcx), %xmm0
vmovdqa32 %xmm0, 0x140(%rax) {%k1}
jmp 0x1ce4379
movq 0x18(%rsp), %rax
vmovss %xmm4, 0x80(%r12,%rax,4)
movq 0x28(%rsp), %r15
jmp 0x1ce40d2
movq 0x18(%rsp), %rax
vmovaps 0x4a0(%rsp), %ymm0
vcmpleps 0x80(%r12,%rax,4){1to8}, %ymm0, %k0
kmovd %k0, %eax
andb %al, %bl
jne 0x1ce39b6
vmovdqa 0x500(%rsp), %ymm1
vpcmpltd 0x480(%rsp), %ymm1, %k1
vmovaps 0x800(%rsp), %ymm0
vpcmpltd 0x580(%rsp), %ymm1, %k2
vmovaps 0x360(%rsp), %ymm3
vaddps %ymm0, %ymm3, %ymm1
movq 0x18(%rsp), %rax
vbroadcastss 0x80(%r12,%rax,4), %ymm2
vcmpleps %ymm2, %ymm1, %k0 {%k2}
kmovd %k0, %eax
movl 0x110(%rsp), %ecx
andb %al, %cl
vmovaps 0x540(%rsp), %ymm1
vaddps %ymm1, %ymm3, %ymm3
vcmpleps %ymm2, %ymm3, %k0 {%k1}
kmovd %k0, %eax
movl 0x34(%rsp), %edx
andb %al, %dl
orb %cl, %dl
je 0x1ce4495
movq 0x1b0(%rsp), %r9
movl %r9d, %eax
leaq (%rax,%rax,2), %rax
shlq $0x5, %rax
movb %dl, 0x840(%rsp,%rax)
kmovd %ecx, %k1
vmovaps %ymm0, %ymm1 {%k1}
vmovaps %ymm1, 0x860(%rsp,%rax)
vmovaps 0x190(%rsp), %xmm2
vmovlps %xmm2, 0x880(%rsp,%rax)
movq 0x1a8(%rsp), %r11
leal 0x1(%r11), %ecx
movl %ecx, 0x888(%rsp,%rax)
incl %r9d
movq 0x1a0(%rsp), %r8
movq 0x1b8(%rsp), %r10
vmovaps 0x23ca97(%rip), %ymm3 # 0x1f20f20
jmp 0x1ce44c6
vmovaps 0x23ca8d(%rip), %ymm3 # 0x1f20f20
jmp 0x1ce44bd
movq 0x1a0(%rsp), %r8
movq 0x1b8(%rsp), %r10
vmovaps 0x23ca73(%rip), %ymm3 # 0x1f20f20
movq 0x1b0(%rsp), %r9
movq 0x1a8(%rsp), %r11
vmovaps 0x190(%rsp), %xmm2
movl %r9d, %eax
testl %eax, %eax
je 0x1ce4655
leal -0x1(%rax), %r9d
leaq (%r9,%r9,2), %rcx
shlq $0x5, %rcx
vmovaps 0x860(%rsp,%rcx), %ymm0
movzbl 0x840(%rsp,%rcx), %esi
vaddps 0x360(%rsp), %ymm0, %ymm1
movq 0x18(%rsp), %rdx
vcmpleps 0x80(%r12,%rdx,4){1to8}, %ymm1, %k0
kmovb %k0, %edx
andl %esi, %edx
je 0x1ce45ba
kmovd %edx, %k1
vbroadcastss 0x207502(%rip), %ymm1 # 0x1eeba20
vblendmps %ymm0, %ymm1, %ymm0 {%k1}
vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm0, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1]
vminps %ymm2, %ymm1, %ymm1
vcmpeqps %ymm1, %ymm0, %k0
kmovd %k0, %esi
andb %dl, %sil
je 0x1ce4556
movzbl %sil, %edi
jmp 0x1ce4559
movzbl %dl, %edi
leaq (%rsp,%rcx), %rsi
addq $0x840, %rsi # imm = 0x840
vmovss 0x44(%rsi), %xmm0
tzcntl %edi, %ecx
movb $0x1, %dil
shlb %cl, %dil
movl 0x48(%rsi), %r11d
movzbl %dil, %edi
kmovd %edi, %k0
kmovd %edx, %k1
kandnb %k1, %k0, %k0
kmovb %k0, (%rsi)
kortestb %k0, %k0
je 0x1ce4594
movl %eax, %r9d
vbroadcastss 0x40(%rsi), %ymm1
vsubss %xmm1, %xmm0, %xmm0
vbroadcastss %xmm0, %ymm0
vfmadd132ps %ymm3, %ymm1, %ymm0 # ymm0 = (ymm0 * ymm3) + ymm1
vmovaps %ymm0, 0x3e0(%rsp)
vmovsd 0x3e0(%rsp,%rcx,4), %xmm2
movl %r9d, %eax
testb %dl, %dl
je 0x1ce44c9
jmp 0x1ce2324
vcmpleps %ymm16, %ymm1, %k2
vbroadcastss 0x2085aa(%rip), %ymm1 # 0x1eecb84
vbroadcastss 0x20743c(%rip), %ymm16 # 0x1eeba20
vblendmps %ymm1, %ymm16, %ymm0 {%k2}
vmovaps %ymm0, %ymm30 {%k1}
vblendmps %ymm16, %ymm1, %ymm0 {%k2}
kmovd %k2, %ecx
vmovaps %ymm0, %ymm31 {%k1}
knotb %k1, %k0
kmovd %k0, %edx
orb %cl, %dl
andb %al, %dl
movl %edx, %eax
jmp 0x1ce286e
vcmpleps %ymm20, %ymm11, %k2
vbroadcastss 0x208561(%rip), %ymm7 # 0x1eecb84
vbroadcastss 0x2073f4(%rip), %ymm11 # 0x1eeba20
vblendmps %ymm7, %ymm11, %ymm6 {%k2}
vmovaps %ymm6, %ymm4 {%k1}
vblendmps %ymm11, %ymm7, %ymm6 {%k2}
vmovaps %ymm6, %ymm2 {%k1}
knotb %k1, %k1
korb %k2, %k1, %k1
kandb %k0, %k1, %k0
jmp 0x1ce2c55
movq 0x18(%rsp), %rax
vmovaps 0x5a0(%rsp), %ymm0
vcmpleps 0x80(%r12,%rax,4){1to8}, %ymm0, %k0
kmovb %k0, %eax
andl %eax, %r10d
jne 0x1ce1f99
leaq -0x28(%rbp), %rsp
popq %rbx
popq %r12
popq %r13
popq %r14
popq %r15
popq %rbp
vzeroupper
retq
nop
|
/embree[P]embree/kernels/geometry/curveNi_intersector.h
|
void embree::avx512::CurveNiIntersectorK<8, 8>::intersect_t<embree::avx512::SweepCurve1IntersectorK<embree::BezierCurveT, 8>, embree::avx512::Intersect1KEpilog1<8, true>>(embree::avx512::CurvePrecalculationsK<8>&, embree::RayHitK<8>&, unsigned long, embree::RayQueryContext*, embree::CurveNi<8> const&)
|
static __forceinline void intersect_t(Precalculations& pre, RayHitK<K>& ray, const size_t k, RayQueryContext* context, const Primitive& prim)
{
vfloat<M> tNear;
vbool<M> valid = intersect(ray,k,prim,tNear);
const size_t N = prim.N;
size_t mask = movemask(valid);
while (mask)
{
const size_t i = bscf(mask);
STAT3(normal.trav_prims,1,1,1);
const unsigned int geomID = prim.geomID(N);
const unsigned int primID = prim.primID(N)[i];
const CurveGeometry* geom = context->scene->get<CurveGeometry>(geomID);
Vec3ff a0,a1,a2,a3; geom->gather(a0,a1,a2,a3,geom->curve(primID));
size_t mask1 = mask;
const size_t i1 = bscf(mask1);
if (mask) {
const unsigned int primID1 = prim.primID(N)[i1];
geom->prefetchL1_vertices(geom->curve(primID1));
if (mask1) {
const size_t i2 = bsf(mask1);
const unsigned int primID2 = prim.primID(N)[i2];
geom->prefetchL2_vertices(geom->curve(primID2));
}
}
Intersector().intersect(pre,ray,k,context,geom,primID,a0,a1,a2,a3,Epilog(ray,k,context,geomID,primID));
mask &= movemask(tNear <= vfloat<M>(ray.tfar[k]));
}
}
|
pushq %rbp
movq %rsp, %rbp
pushq %r15
pushq %r14
pushq %r13
pushq %r12
pushq %rbx
andq $-0x20, %rsp
subq $0xa40, %rsp # imm = 0xA40
movq %rcx, %r15
movq %rsi, %r12
movzbl 0x1(%r8), %ecx
leaq (%rcx,%rcx,4), %rax
leaq (%rax,%rax,4), %rsi
vbroadcastss 0x12(%r8,%rsi), %xmm0
vmovss (%r12,%rdx,4), %xmm1
vmovss 0x80(%r12,%rdx,4), %xmm2
vinsertps $0x10, 0x20(%r12,%rdx,4), %xmm1, %xmm1 # xmm1 = xmm1[0],mem[0],xmm1[2,3]
vinsertps $0x20, 0x40(%r12,%rdx,4), %xmm1, %xmm1 # xmm1 = xmm1[0,1],mem[0],xmm1[3]
vinsertps $0x10, 0xa0(%r12,%rdx,4), %xmm2, %xmm2 # xmm2 = xmm2[0],mem[0],xmm2[2,3]
vinsertps $0x20, 0xc0(%r12,%rdx,4), %xmm2, %xmm2 # xmm2 = xmm2[0,1],mem[0],xmm2[3]
vsubps 0x6(%r8,%rsi), %xmm1, %xmm1
vmulps %xmm1, %xmm0, %xmm3
vmulps %xmm2, %xmm0, %xmm0
vpmovsxbd 0x6(%r8,%rcx,4), %ymm1
vpmovsxbd 0x6(%r8,%rax), %ymm2
vcvtdq2ps %ymm1, %ymm5
vcvtdq2ps %ymm2, %ymm6
leaq (%rcx,%rcx,2), %r9
vpmovsxbd 0x6(%r8,%r9,2), %ymm1
vcvtdq2ps %ymm1, %ymm4
leaq (%rcx,%rax,2), %rsi
vpmovsxbd 0x6(%r8,%rsi), %ymm1
leal (,%r9,4), %esi
vpmovsxbd 0x6(%r8,%rsi), %ymm2
vcvtdq2ps %ymm1, %ymm7
vcvtdq2ps %ymm2, %ymm8
addq %rcx, %rsi
vpmovsxbd 0x6(%r8,%rsi), %ymm1
vcvtdq2ps %ymm1, %ymm9
leaq (%rcx,%rcx,8), %rsi
leal (%rsi,%rsi), %edi
vpmovsxbd 0x6(%r8,%rdi), %ymm1
vcvtdq2ps %ymm1, %ymm10
addq %rcx, %rdi
vpmovsxbd 0x6(%r8,%rdi), %ymm1
vcvtdq2ps %ymm1, %ymm11
shll $0x2, %eax
vpmovsxbd 0x6(%r8,%rax), %ymm1
vcvtdq2ps %ymm1, %ymm12
vbroadcastss %xmm0, %ymm13
vbroadcastss 0x22b2ca(%rip), %ymm15 # 0x1f12704
vbroadcastss 0x239a98(%rip), %ymm16 # 0x1f20edc
vpermps %ymm0, %ymm15, %ymm14
vpermps %ymm0, %ymm16, %ymm0
vmulps %ymm4, %ymm0, %ymm2
vmulps %ymm0, %ymm9, %ymm1
vmulps %ymm0, %ymm12, %ymm0
vfmadd231ps %ymm6, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm6) + ymm2
vfmadd231ps %ymm8, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm8) + ymm1
vfmadd231ps %ymm14, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm14) + ymm0
vfmadd231ps %ymm5, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm5) + ymm2
vfmadd231ps %ymm7, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm7) + ymm1
vfmadd231ps %ymm13, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm13) + ymm0
vbroadcastss %xmm3, %ymm13
vpermps %ymm3, %ymm15, %ymm14
vpermps %ymm3, %ymm16, %ymm3
vmulps %ymm4, %ymm3, %ymm15
vmulps %ymm3, %ymm9, %ymm4
vmulps %ymm3, %ymm12, %ymm3
vfmadd231ps %ymm6, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm6) + ymm15
vfmadd231ps %ymm8, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm8) + ymm4
vfmadd231ps %ymm11, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm11) + ymm3
vfmadd231ps %ymm5, %ymm13, %ymm15 # ymm15 = (ymm13 * ymm5) + ymm15
vfmadd231ps %ymm7, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm7) + ymm4
vbroadcastss 0x239a0d(%rip), %ymm6 # 0x1f20ec4
vfmadd231ps %ymm10, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm10) + ymm3
vandps %ymm6, %ymm2, %ymm5
vbroadcastss 0x209b1f(%rip), %ymm7 # 0x1ef0fe8
vcmpltps %ymm7, %ymm5, %k1
vmovaps %ymm7, %ymm2 {%k1}
vandps %ymm6, %ymm1, %ymm5
vcmpltps %ymm7, %ymm5, %k1
vmovaps %ymm7, %ymm1 {%k1}
vandps %ymm6, %ymm0, %ymm5
vcmpltps %ymm7, %ymm5, %k1
vmovaps %ymm7, %ymm0 {%k1}
vrcp14ps %ymm2, %ymm5
vbroadcastss 0x20520d(%rip), %ymm6 # 0x1eec714
vfnmadd213ps %ymm6, %ymm5, %ymm2 # ymm2 = -(ymm5 * ymm2) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm2 # ymm2 = (ymm2 * ymm5) + ymm5
vrcp14ps %ymm1, %ymm5
vfnmadd213ps %ymm6, %ymm5, %ymm1 # ymm1 = -(ymm5 * ymm1) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm1 # ymm1 = (ymm1 * ymm5) + ymm5
vrcp14ps %ymm0, %ymm5
vfnmadd213ps %ymm6, %ymm5, %ymm0 # ymm0 = -(ymm5 * ymm0) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm0 # ymm0 = (ymm0 * ymm5) + ymm5
leaq (,%rcx,8), %rdi
subq %rcx, %rdi
vpmovsxwd 0x6(%r8,%rdi), %ymm5
vcvtdq2ps %ymm5, %ymm5
vsubps %ymm15, %ymm5, %ymm5
vmulps %ymm5, %ymm2, %ymm5
vpmovsxwd 0x6(%r8,%rsi), %ymm6
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm15, %ymm6, %ymm6
leaq (%rcx,%rcx), %rsi
addq %rcx, %rax
shlq $0x3, %r9
subq %rcx, %r9
vpbroadcastd %ecx, %ymm7
shll $0x4, %ecx
vpmovsxwd 0x6(%r8,%rcx), %ymm8
vmulps %ymm6, %ymm2, %ymm2
subq %rsi, %rcx
vpmovsxwd 0x6(%r8,%rcx), %ymm6
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm4, %ymm6, %ymm6
vmulps %ymm6, %ymm1, %ymm6
vcvtdq2ps %ymm8, %ymm8
vsubps %ymm4, %ymm8, %ymm4
vmulps %ymm4, %ymm1, %ymm1
vpmovsxwd 0x6(%r8,%rax), %ymm4
vcvtdq2ps %ymm4, %ymm4
vsubps %ymm3, %ymm4, %ymm4
vmulps %ymm0, %ymm4, %ymm4
vpmovsxwd 0x6(%r8,%r9), %ymm8
vcvtdq2ps %ymm8, %ymm8
vsubps %ymm3, %ymm8, %ymm3
vmulps %ymm3, %ymm0, %ymm0
vpminsd %ymm2, %ymm5, %ymm3
vpminsd %ymm1, %ymm6, %ymm8
vmaxps %ymm8, %ymm3, %ymm3
vpminsd %ymm0, %ymm4, %ymm8
vmaxps 0x60(%r12,%rdx,4){1to8}, %ymm8, %ymm8
vmaxps %ymm8, %ymm3, %ymm3
vmulps 0x238919(%rip){1to8}, %ymm3, %ymm3 # 0x1f1ff10
vpmaxsd %ymm2, %ymm5, %ymm2
vpmaxsd %ymm1, %ymm6, %ymm1
vminps %ymm1, %ymm2, %ymm1
vpmaxsd %ymm0, %ymm4, %ymm0
movq %rdx, 0x18(%rsp)
vminps 0x100(%r12,%rdx,4){1to8}, %ymm0, %ymm0
vminps %ymm0, %ymm1, %ymm0
vmulps 0x2388ef(%rip){1to8}, %ymm0, %ymm0 # 0x1f1ff14
vpcmpgtd 0x2732f1(%rip), %ymm7, %k0 # 0x1f5a920
vmovaps %ymm3, 0x660(%rsp)
vcmpleps %ymm0, %ymm3, %k1
ktestb %k0, %k1
je 0x1ce9db7
kandb %k0, %k1, %k0
kmovd %k0, %eax
movzbl %al, %r10d
leaq 0x4e0(%rsp), %rax
addq $0xe0, %rax
movq %rax, 0x198(%rsp)
movl $0x1, %eax
movq 0x18(%rsp), %rcx
shlxl %ecx, %eax, %eax
kmovd %eax, %k0
vpmovm2d %k0, %ymm0
vmovdqa %ymm0, 0x440(%rsp)
movq %r15, 0x28(%rsp)
movq %r8, 0x1a0(%rsp)
tzcntq %r10, %rax
movl 0x2(%r8), %ecx
movl 0x6(%r8,%rax,4), %edi
movq (%r15), %rax
movq 0x1e8(%rax), %rax
movq %rcx, 0x50(%rsp)
movq (%rax,%rcx,8), %rsi
movq 0x58(%rsi), %rax
movq 0x68(%rsi), %rcx
movq %rcx, %rdx
movq %rdi, 0xe0(%rsp)
imulq %rdi, %rdx
movl (%rax,%rdx), %edi
movq 0xa0(%rsi), %rdx
movq %rdx, %r9
imulq %rdi, %r9
movq 0x90(%rsi), %rsi
vmovaps (%rsi,%r9), %xmm1
leaq 0x1(%rdi), %r9
imulq %rdx, %r9
vmovaps (%rsi,%r9), %xmm0
leaq 0x2(%rdi), %r9
imulq %rdx, %r9
vmovaps (%rsi,%r9), %xmm2
blsrq %r10, %r10
addq $0x3, %rdi
imulq %rdx, %rdi
vmovaps (%rsi,%rdi), %xmm3
movq %r10, %rdi
subq $0x1, %rdi
jb 0x1ce776e
andq %r10, %rdi
tzcntq %r10, %r9
movl 0x6(%r8,%r9,4), %r9d
imulq %rcx, %r9
movl (%rax,%r9), %r9d
imulq %rdx, %r9
prefetcht0 (%rsi,%r9)
prefetcht0 0x40(%rsi,%r9)
testq %rdi, %rdi
je 0x1ce776e
tzcntq %rdi, %rdi
movl 0x6(%r8,%rdi,4), %edi
imulq %rdi, %rcx
movl (%rax,%rcx), %eax
imulq %rax, %rdx
prefetcht1 (%rsi,%rdx)
prefetcht1 0x40(%rsi,%rdx)
movq 0x18(%rsp), %rax
vmovss (%r12,%rax,4), %xmm4
vinsertps $0x1c, 0x20(%r12,%rax,4), %xmm4, %xmm4 # xmm4 = xmm4[0],mem[0],zero,zero
vinsertps $0x28, 0x40(%r12,%rax,4), %xmm4, %xmm4 # xmm4 = xmm4[0,1],mem[0],zero
vbroadcastss 0x80(%r12,%rax,4), %ymm26
vbroadcastss 0xa0(%r12,%rax,4), %ymm30
vunpcklps %xmm30, %xmm26, %xmm5 # xmm5 = xmm26[0],xmm30[0],xmm26[1],xmm30[1]
vbroadcastss 0xc0(%r12,%rax,4), %ymm21
vinsertps $0x28, %xmm21, %xmm5, %xmm9 # xmm9 = xmm5[0,1],xmm21[0],zero
vaddps %xmm0, %xmm1, %xmm5
vaddps %xmm2, %xmm5, %xmm5
vaddps %xmm3, %xmm5, %xmm5
vmulps 0x235b38(%rip){1to4}, %xmm5, %xmm5 # 0x1f1d2fc
vsubps %xmm4, %xmm5, %xmm5
vdpps $0x7f, %xmm9, %xmm5, %xmm5
vmovss 0x60(%r12,%rax,4), %xmm10
vdpps $0x7f, %xmm9, %xmm9, %xmm11
vxorps %xmm8, %xmm8, %xmm8
vmovss %xmm11, %xmm8, %xmm6
vrcp14ss %xmm6, %xmm8, %xmm6
vmovaps %xmm6, %xmm7
vfnmadd213ss 0x209801(%rip), %xmm11, %xmm7 # xmm7 = -(xmm11 * xmm7) + mem
vmulss %xmm7, %xmm6, %xmm6
vmulss %xmm6, %xmm5, %xmm5
vbroadcastss %xmm5, %ymm6
vmovaps %xmm9, 0x230(%rsp)
vmovaps %ymm6, 0x380(%rsp)
vfmadd231ps %xmm6, %xmm9, %xmm4 # xmm4 = (xmm9 * xmm6) + xmm4
vblendps $0x8, %xmm8, %xmm4, %xmm4 # xmm4 = xmm4[0,1,2],xmm8[3]
vsubps %xmm4, %xmm1, %xmm6
vsubps %xmm4, %xmm2, %xmm7
vsubps %xmm4, %xmm0, %xmm8
vsubps %xmm4, %xmm3, %xmm3
vbroadcastss %xmm6, %ymm0
vmovaps %ymm0, 0x8a0(%rsp)
vbroadcastss 0x22aebc(%rip), %ymm0 # 0x1f12704
vpermps %ymm6, %ymm0, %ymm1
vmovaps %ymm1, 0x880(%rsp)
vbroadcastss 0x23967d(%rip), %ymm1 # 0x1f20edc
vpermps %ymm6, %ymm1, %ymm2
vmovaps %ymm2, 0x860(%rsp)
vbroadcastss 0x239662(%rip), %ymm2 # 0x1f20ed8
vmovaps %ymm6, 0x340(%rsp)
vpermps %ymm6, %ymm2, %ymm4
vmovaps %ymm4, 0x840(%rsp)
vbroadcastss %xmm8, %ymm4
vmovaps %ymm4, 0x820(%rsp)
vpermps %ymm8, %ymm0, %ymm4
vmovaps %ymm4, 0x800(%rsp)
vpermps %ymm8, %ymm1, %ymm4
vmovaps %ymm4, 0x7e0(%rsp)
vmovaps %ymm8, 0x300(%rsp)
vpermps %ymm8, %ymm2, %ymm4
vmovaps %ymm4, 0x7c0(%rsp)
vbroadcastss %xmm7, %ymm4
vmovaps %ymm4, 0x7a0(%rsp)
vpermps %ymm7, %ymm0, %ymm4
vmovaps %ymm4, 0x780(%rsp)
vpermps %ymm7, %ymm1, %ymm4
vmovaps %ymm4, 0x760(%rsp)
vmovaps %ymm7, 0x320(%rsp)
vpermps %ymm7, %ymm2, %ymm4
vmovaps %ymm4, 0x740(%rsp)
vbroadcastss %xmm3, %ymm4
vmovaps %ymm4, 0x720(%rsp)
vpermps %ymm3, %ymm0, %ymm0
vmovaps %ymm0, 0x700(%rsp)
vpermps %ymm3, %ymm1, %ymm0
vmovaps %ymm0, 0x6e0(%rsp)
vmovaps %ymm3, 0x2e0(%rsp)
vpermps %ymm3, %ymm2, %ymm0
vmovaps %ymm0, 0x6c0(%rsp)
vmulss %xmm21, %xmm21, %xmm0
vfmadd231ps %ymm30, %ymm30, %ymm0 # ymm0 = (ymm30 * ymm30) + ymm0
vfmadd231ps %ymm26, %ymm26, %ymm0 # ymm0 = (ymm26 * ymm26) + ymm0
vbroadcastss %xmm0, %ymm0
vmovaps %ymm0, 0x6a0(%rsp)
vandps 0x23954a(%rip){1to8}, %ymm0, %ymm0 # 0x1f20ec4
vmovaps %ymm0, 0x4c0(%rsp)
vmovss %xmm10, 0x5c(%rsp)
vmovaps %xmm5, 0x280(%rsp)
vsubss %xmm5, %xmm10, %xmm0
vbroadcastss %xmm0, %ymm0
vmovaps %ymm0, 0x680(%rsp)
movq 0x50(%rsp), %rax
vpbroadcastd %eax, %ymm0
vmovdqa %ymm0, 0x480(%rsp)
movl $0x1, %r11d
xorl %r9d, %r9d
movq 0xe0(%rsp), %rax
vpbroadcastd %eax, %ymm0
vmovdqa %ymm0, 0x460(%rsp)
vsqrtss %xmm11, %xmm11, %xmm0
vmovss %xmm0, 0xfc(%rsp)
vmovaps %xmm11, 0x220(%rsp)
vsqrtss %xmm11, %xmm11, %xmm0
vmovss %xmm0, 0xf8(%rsp)
vmovsd 0x204ceb(%rip), %xmm2 # 0x1eec6f0
vmovaps 0x239513(%rip), %ymm3 # 0x1f20f20
vmovaps %ymm26, 0x120(%rsp)
vmovaps %ymm30, 0x100(%rsp)
vmovaps %ymm21, 0x1c0(%rsp)
vmovshdup %xmm2, %xmm0 # xmm0 = xmm2[1,1,3,3]
vsubss %xmm2, %xmm0, %xmm1
vmulss 0x23949b(%rip), %xmm1, %xmm6 # 0x1f20ed0
vmovaps %xmm2, 0x180(%rsp)
vbroadcastss %xmm2, %ymm5
vbroadcastss %xmm1, %ymm0
vmovaps %ymm5, 0x60(%rsp)
vmovaps %ymm0, 0x200(%rsp)
vfmadd231ps %ymm3, %ymm0, %ymm5 # ymm5 = (ymm0 * ymm3) + ymm5
vbroadcastss 0x204caf(%rip), %ymm0 # 0x1eec714
vsubps %ymm5, %ymm0, %ymm7
vmovaps 0x820(%rsp), %ymm12
vmulps %ymm5, %ymm12, %ymm1
vmovaps 0x800(%rsp), %ymm13
vmulps %ymm5, %ymm13, %ymm2
vmovaps 0x7e0(%rsp), %ymm14
vmulps %ymm5, %ymm14, %ymm3
vmovaps 0x7c0(%rsp), %ymm15
vmulps %ymm5, %ymm15, %ymm4
vfmadd231ps 0x8a0(%rsp), %ymm7, %ymm1 # ymm1 = (ymm7 * mem) + ymm1
vfmadd231ps 0x880(%rsp), %ymm7, %ymm2 # ymm2 = (ymm7 * mem) + ymm2
vfmadd231ps 0x860(%rsp), %ymm7, %ymm3 # ymm3 = (ymm7 * mem) + ymm3
vfmadd231ps 0x840(%rsp), %ymm7, %ymm4 # ymm4 = (ymm7 * mem) + ymm4
vmovaps 0x7a0(%rsp), %ymm16
vmulps %ymm5, %ymm16, %ymm8
vmovaps 0x780(%rsp), %ymm17
vmulps %ymm5, %ymm17, %ymm9
vmovaps 0x760(%rsp), %ymm18
vmulps %ymm5, %ymm18, %ymm10
vmovaps 0x740(%rsp), %ymm19
vmulps %ymm5, %ymm19, %ymm11
vfmadd231ps %ymm12, %ymm7, %ymm8 # ymm8 = (ymm7 * ymm12) + ymm8
vfmadd231ps %ymm13, %ymm7, %ymm9 # ymm9 = (ymm7 * ymm13) + ymm9
vfmadd231ps %ymm14, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm14) + ymm10
vfmadd231ps %ymm15, %ymm7, %ymm11 # ymm11 = (ymm7 * ymm15) + ymm11
vmulps 0x720(%rsp), %ymm5, %ymm12
vmulps 0x700(%rsp), %ymm5, %ymm13
vmulps 0x6e0(%rsp), %ymm5, %ymm14
vmulps 0x6c0(%rsp), %ymm5, %ymm15
vfmadd231ps %ymm16, %ymm7, %ymm12 # ymm12 = (ymm7 * ymm16) + ymm12
vfmadd231ps %ymm17, %ymm7, %ymm13 # ymm13 = (ymm7 * ymm17) + ymm13
vfmadd231ps %ymm18, %ymm7, %ymm14 # ymm14 = (ymm7 * ymm18) + ymm14
vfmadd231ps %ymm19, %ymm7, %ymm15 # ymm15 = (ymm7 * ymm19) + ymm15
vmulps %ymm8, %ymm5, %ymm16
vmulps %ymm9, %ymm5, %ymm17
vmulps %ymm10, %ymm5, %ymm18
vmulps %ymm11, %ymm5, %ymm19
vfmadd231ps %ymm1, %ymm7, %ymm16 # ymm16 = (ymm7 * ymm1) + ymm16
vfmadd231ps %ymm2, %ymm7, %ymm17 # ymm17 = (ymm7 * ymm2) + ymm17
vfmadd231ps %ymm3, %ymm7, %ymm18 # ymm18 = (ymm7 * ymm3) + ymm18
vfmadd231ps %ymm4, %ymm7, %ymm19 # ymm19 = (ymm7 * ymm4) + ymm19
vmulps %ymm5, %ymm12, %ymm1
vmulps %ymm5, %ymm13, %ymm12
vmulps %ymm5, %ymm14, %ymm13
vmulps %ymm5, %ymm15, %ymm14
vfmadd231ps %ymm8, %ymm7, %ymm1 # ymm1 = (ymm7 * ymm8) + ymm1
vfmadd231ps %ymm9, %ymm7, %ymm12 # ymm12 = (ymm7 * ymm9) + ymm12
vfmadd231ps %ymm10, %ymm7, %ymm13 # ymm13 = (ymm7 * ymm10) + ymm13
vfmadd231ps %ymm11, %ymm7, %ymm14 # ymm14 = (ymm7 * ymm11) + ymm14
vmulps %ymm1, %ymm5, %ymm4
vmulps %ymm5, %ymm12, %ymm3
vmulps %ymm13, %ymm5, %ymm29
vmulps %ymm5, %ymm14, %ymm5
vfmadd231ps %ymm16, %ymm7, %ymm4 # ymm4 = (ymm7 * ymm16) + ymm4
vfmadd231ps %ymm17, %ymm7, %ymm3 # ymm3 = (ymm7 * ymm17) + ymm3
vfmadd231ps %ymm18, %ymm7, %ymm29 # ymm29 = (ymm7 * ymm18) + ymm29
vfmadd231ps %ymm7, %ymm19, %ymm5 # ymm5 = (ymm19 * ymm7) + ymm5
vsubps %ymm16, %ymm1, %ymm1
vsubps %ymm17, %ymm12, %ymm7
vsubps %ymm18, %ymm13, %ymm8
vsubps %ymm19, %ymm14, %ymm9
vbroadcastss 0x209400(%rip), %ymm10 # 0x1ef0fec
vmulps %ymm1, %ymm10, %ymm1
vmulps %ymm7, %ymm10, %ymm7
vmulps %ymm10, %ymm8, %ymm8
vmulps %ymm10, %ymm9, %ymm9
vbroadcastss %xmm6, %ymm6
vmulps %ymm1, %ymm6, %ymm11
vmulps %ymm7, %ymm6, %ymm12
vmulps %ymm6, %ymm8, %ymm13
vmulps %ymm6, %ymm9, %ymm6
vmovaps %ymm4, %ymm8
vmovaps 0x278101(%rip), %ymm7 # 0x1f5fd20
vxorps %xmm31, %xmm31, %xmm31
vpermt2ps %ymm31, %ymm7, %ymm8
vmovaps %ymm3, %ymm9
vpermt2ps %ymm31, %ymm7, %ymm9
vmovaps %ymm29, %ymm10
vpermt2ps %ymm31, %ymm7, %ymm10
vaddps %ymm6, %ymm5, %ymm1
vmaxps %ymm1, %ymm5, %ymm14
vminps %ymm1, %ymm5, %ymm1
vmovaps %ymm5, %ymm15
vpermt2ps %ymm31, %ymm7, %ymm15
vmovaps %ymm11, %ymm19
vpermt2ps %ymm31, %ymm7, %ymm19
vmovaps %ymm12, %ymm20
vpermt2ps %ymm31, %ymm7, %ymm20
vmovaps %ymm13, %ymm2
vpermt2ps %ymm31, %ymm7, %ymm2
vpermt2ps %ymm31, %ymm7, %ymm6
vsubps %ymm6, %ymm15, %ymm16
vsubps %ymm4, %ymm8, %ymm7
vsubps %ymm3, %ymm9, %ymm6
vsubps %ymm29, %ymm10, %ymm5
vmulps %ymm13, %ymm6, %ymm17
vfmsub231ps %ymm5, %ymm12, %ymm17 # ymm17 = (ymm12 * ymm5) - ymm17
vmulps %ymm11, %ymm5, %ymm18
vfmsub231ps %ymm7, %ymm13, %ymm18 # ymm18 = (ymm13 * ymm7) - ymm18
vmulps %ymm12, %ymm7, %ymm22
vfmsub231ps %ymm6, %ymm11, %ymm22 # ymm22 = (ymm11 * ymm6) - ymm22
vmulps %ymm22, %ymm22, %ymm22
vfmadd231ps %ymm18, %ymm18, %ymm22 # ymm22 = (ymm18 * ymm18) + ymm22
vfmadd231ps %ymm17, %ymm17, %ymm22 # ymm22 = (ymm17 * ymm17) + ymm22
vmulps %ymm5, %ymm5, %ymm17
vfmadd231ps %ymm6, %ymm6, %ymm17 # ymm17 = (ymm6 * ymm6) + ymm17
vfmadd231ps %ymm7, %ymm7, %ymm17 # ymm17 = (ymm7 * ymm7) + ymm17
vrcp14ps %ymm17, %ymm18
vmovaps %ymm18, %ymm23
vfnmadd213ps %ymm0, %ymm17, %ymm23 # ymm23 = -(ymm17 * ymm23) + ymm0
vfmadd132ps %ymm18, %ymm18, %ymm23 # ymm23 = (ymm23 * ymm18) + ymm18
vmulps %ymm23, %ymm22, %ymm18
vmulps %ymm2, %ymm6, %ymm22
vfmsub231ps %ymm5, %ymm20, %ymm22 # ymm22 = (ymm20 * ymm5) - ymm22
vmulps %ymm19, %ymm5, %ymm24
vfmsub231ps %ymm7, %ymm2, %ymm24 # ymm24 = (ymm2 * ymm7) - ymm24
vmulps %ymm20, %ymm7, %ymm25
vfmsub231ps %ymm6, %ymm19, %ymm25 # ymm25 = (ymm19 * ymm6) - ymm25
vmulps %ymm25, %ymm25, %ymm25
vfmadd231ps %ymm24, %ymm24, %ymm25 # ymm25 = (ymm24 * ymm24) + ymm25
vfmadd231ps %ymm22, %ymm22, %ymm25 # ymm25 = (ymm22 * ymm22) + ymm25
vmulps %ymm23, %ymm25, %ymm22
vmaxps %ymm22, %ymm18, %ymm18
vsqrtps %ymm18, %ymm18
vmaxps %ymm15, %ymm16, %ymm22
vmaxps %ymm22, %ymm14, %ymm14
vaddps %ymm14, %ymm18, %ymm14
vminps %ymm15, %ymm16, %ymm15
vminps %ymm15, %ymm1, %ymm1
vsubps %ymm18, %ymm1, %ymm1
vmulps 0x208bd2(%rip){1to8}, %ymm14, %ymm14 # 0x1ef0940
vmulps 0x208bcc(%rip){1to8}, %ymm1, %ymm1 # 0x1ef0944
vmovaps %ymm1, 0x1e0(%rsp)
vmulps %ymm14, %ymm14, %ymm1
vrsqrt14ps %ymm17, %ymm15
vmulps 0x204986(%rip){1to8}, %ymm17, %ymm14 # 0x1eec71c
vmulps %ymm14, %ymm15, %ymm14
vmulps %ymm15, %ymm15, %ymm16
vmulps %ymm14, %ymm16, %ymm14
vfmadd231ps 0x204967(%rip){1to8}, %ymm15, %ymm14 # ymm14 = (ymm15 * mem) + ymm14
vmulps %ymm7, %ymm14, %ymm15
vmulps %ymm14, %ymm6, %ymm16
vmulps %ymm14, %ymm5, %ymm18
vsubps %ymm4, %ymm31, %ymm27
vsubps %ymm3, %ymm31, %ymm28
vmovaps %ymm29, 0x80(%rsp)
vsubps %ymm29, %ymm31, %ymm29
vmulps %ymm29, %ymm21, %ymm22
vfmadd231ps %ymm28, %ymm30, %ymm22 # ymm22 = (ymm30 * ymm28) + ymm22
vfmadd231ps %ymm27, %ymm26, %ymm22 # ymm22 = (ymm26 * ymm27) + ymm22
vmulps %ymm29, %ymm29, %ymm24
vfmadd231ps %ymm28, %ymm28, %ymm24 # ymm24 = (ymm28 * ymm28) + ymm24
vfmadd231ps %ymm27, %ymm27, %ymm24 # ymm24 = (ymm27 * ymm27) + ymm24
vmulps %ymm18, %ymm21, %ymm17
vfmadd231ps %ymm30, %ymm16, %ymm17 # ymm17 = (ymm16 * ymm30) + ymm17
vfmadd231ps %ymm26, %ymm15, %ymm17 # ymm17 = (ymm15 * ymm26) + ymm17
vmulps %ymm18, %ymm29, %ymm18
vfmadd231ps %ymm16, %ymm28, %ymm18 # ymm18 = (ymm28 * ymm16) + ymm18
vfmadd231ps %ymm15, %ymm27, %ymm18 # ymm18 = (ymm27 * ymm15) + ymm18
vmulps %ymm17, %ymm17, %ymm21
vmovaps 0x6a0(%rsp), %ymm15
vsubps %ymm21, %ymm15, %ymm15
vmulps %ymm18, %ymm17, %ymm25
vsubps %ymm25, %ymm22, %ymm22
vaddps %ymm22, %ymm22, %ymm22
vmulps %ymm18, %ymm18, %ymm25
vsubps %ymm25, %ymm24, %ymm16
vmovaps %ymm16, 0xa0(%rsp)
vsubps %ymm1, %ymm16, %ymm1
vmulps %ymm22, %ymm22, %ymm25
vmulps 0x204d18(%rip){1to8}, %ymm15, %ymm26 # 0x1eecb8c
vmulps %ymm1, %ymm26, %ymm30
vsubps %ymm30, %ymm25, %ymm30
vxorps %xmm16, %xmm16, %xmm16
vcmpnltps %ymm31, %ymm30, %k1
kmovd %k1, %eax
kortestb %k1, %k1
je 0x1ce7f80
vsqrtps %ymm30, %ymm30
vaddps %ymm15, %ymm15, %ymm31
vrcp14ps %ymm31, %ymm23
vfnmadd213ps %ymm0, %ymm23, %ymm31 # ymm31 = -(ymm23 * ymm31) + ymm0
vfmadd132ps %ymm23, %ymm23, %ymm31 # ymm31 = (ymm31 * ymm23) + ymm23
vxorps 0x238ffd(%rip){1to8}, %ymm22, %ymm23 # 0x1f20ec0
vsubps %ymm30, %ymm23, %ymm23
vmulps %ymm31, %ymm23, %ymm23
vsubps %ymm22, %ymm30, %ymm30
vmulps %ymm31, %ymm30, %ymm31
vmovaps %ymm17, %ymm30
vfmadd213ps %ymm18, %ymm23, %ymm30 # ymm30 = (ymm23 * ymm30) + ymm18
vmulps %ymm30, %ymm14, %ymm30
vmovaps %ymm30, 0x420(%rsp)
vmovaps %ymm17, %ymm30
vfmadd213ps %ymm18, %ymm31, %ymm30 # ymm30 = (ymm31 * ymm30) + ymm18
vmulps %ymm30, %ymm14, %ymm30
vmovaps %ymm30, 0x400(%rsp)
vbroadcastss 0x203b08(%rip), %ymm0 # 0x1eeba20
vblendmps %ymm23, %ymm0, %ymm30 {%k1}
vbroadcastss 0x204c5d(%rip), %ymm0 # 0x1eecb84
vblendmps %ymm31, %ymm0, %ymm31 {%k1}
vbroadcastss 0x238f8e(%rip), %ymm0 # 0x1f20ec4
vmovaps %ymm21, %ymm24
vandps %ymm0, %ymm21, %ymm23
vmovaps 0x4c0(%rsp), %ymm21
vmaxps %ymm23, %ymm21, %ymm23
vmulps 0x209f5a(%rip){1to8}, %ymm23, %ymm23 # 0x1ef1eb4
vandps %ymm0, %ymm15, %ymm0
vcmpltps %ymm23, %ymm0, %k1 {%k1}
kortestb %k1, %k1
jne 0x1ce9d08
vbroadcastss 0x20479c(%rip), %ymm0 # 0x1eec714
vmovaps %ymm24, %ymm21
jmp 0x1ce7f94
vbroadcastss 0x203a96(%rip), %ymm30 # 0x1eeba20
vbroadcastss 0x204bf0(%rip), %ymm31 # 0x1eecb84
andb $0x7f, %al
je 0x1ce8363
vmovaps %ymm21, 0x3a0(%rsp)
movq 0x18(%rsp), %rcx
vmovaps %ymm0, %ymm16
vmovss 0x100(%r12,%rcx,4), %xmm0
vsubss 0x280(%rsp), %xmm0, %xmm0
vbroadcastss %xmm0, %ymm0
vminps %ymm31, %ymm0, %ymm0
vmovaps 0x680(%rsp), %ymm1
vmaxps %ymm30, %ymm1, %ymm1
vmulps %ymm13, %ymm29, %ymm23
vfmadd213ps %ymm23, %ymm12, %ymm28 # ymm28 = (ymm12 * ymm28) + ymm23
vfmadd213ps %ymm28, %ymm11, %ymm27 # ymm27 = (ymm11 * ymm27) + ymm28
vmovaps 0x1c0(%rsp), %ymm21
vmulps %ymm13, %ymm21, %ymm13
vmovaps 0x100(%rsp), %ymm24
vfmadd231ps %ymm12, %ymm24, %ymm13 # ymm13 = (ymm24 * ymm12) + ymm13
vmovaps 0x120(%rsp), %ymm31
vfmadd231ps %ymm11, %ymm31, %ymm13 # ymm13 = (ymm31 * ymm11) + ymm13
vbroadcastss 0x238ea2(%rip), %ymm28 # 0x1f20ec4
vandps %ymm28, %ymm13, %ymm11
vbroadcastss 0x208fb6(%rip), %ymm29 # 0x1ef0fe8
vcmpltps %ymm29, %ymm11, %k0
vbroadcastss 0x238e7d(%rip), %ymm30 # 0x1f20ec0
vxorps %ymm30, %ymm27, %ymm11
vrcp14ps %ymm13, %ymm12
vxorps %ymm30, %ymm13, %ymm23
vmovaps %ymm12, %ymm27
vfnmadd213ps %ymm16, %ymm13, %ymm27 # ymm27 = -(ymm13 * ymm27) + ymm16
vfmadd132ps %ymm12, %ymm12, %ymm27 # ymm27 = (ymm27 * ymm12) + ymm12
vmulps %ymm11, %ymm27, %ymm11
vcmpltps %ymm23, %ymm13, %k1
korb %k1, %k0, %k1
vbroadcastss 0x204b02(%rip), %ymm27 # 0x1eecb84
vblendmps %ymm27, %ymm11, %ymm12 {%k1}
vmaxps %ymm12, %ymm1, %ymm1
vcmpnleps %ymm23, %ymm13, %k1
korb %k1, %k0, %k1
vbroadcastss 0x20397e(%rip), %ymm23 # 0x1eeba20
vmovaps %ymm23, %ymm11 {%k1}
vminps %ymm11, %ymm0, %ymm0
vxorps %xmm13, %xmm13, %xmm13
vsubps %ymm8, %ymm13, %ymm8
vsubps %ymm9, %ymm13, %ymm9
vsubps %ymm10, %ymm13, %ymm10
vmulps %ymm2, %ymm10, %ymm10
vfnmsub231ps %ymm9, %ymm20, %ymm10 # ymm10 = -(ymm20 * ymm9) - ymm10
vfnmadd231ps %ymm8, %ymm19, %ymm10 # ymm10 = -(ymm19 * ymm8) + ymm10
vmulps %ymm2, %ymm21, %ymm8
vfnmsub231ps %ymm20, %ymm24, %ymm8 # ymm8 = -(ymm24 * ymm20) - ymm8
vfnmadd231ps %ymm19, %ymm31, %ymm8 # ymm8 = -(ymm31 * ymm19) + ymm8
vandps %ymm28, %ymm8, %ymm9
vcmpltps %ymm29, %ymm9, %k0
vxorps %ymm30, %ymm10, %ymm9
vrcp14ps %ymm8, %ymm10
vxorps %ymm30, %ymm8, %ymm11
vmovaps %ymm10, %ymm12
vfnmadd213ps %ymm16, %ymm8, %ymm12 # ymm12 = -(ymm8 * ymm12) + ymm16
vfmadd132ps %ymm10, %ymm10, %ymm12 # ymm12 = (ymm12 * ymm10) + ymm10
vmulps %ymm9, %ymm12, %ymm9
vcmpltps %ymm11, %ymm8, %k1
korb %k1, %k0, %k1
vblendmps %ymm27, %ymm9, %ymm10 {%k1}
vmaxps %ymm10, %ymm1, %ymm1
vcmpnleps %ymm11, %ymm8, %k1
korb %k1, %k0, %k1
vmovaps %ymm23, %ymm9 {%k1}
vminps %ymm9, %ymm0, %ymm8
vmovaps %ymm1, 0x360(%rsp)
vcmpleps %ymm8, %ymm1, %k0
kmovd %k0, %ecx
andb %cl, %al
je 0x1ce8388
vmovaps 0x420(%rsp), %ymm0
vmaxps 0x1e0(%rsp), %ymm13, %ymm1
vminps %ymm16, %ymm0, %ymm0
vxorps %xmm10, %xmm10, %xmm10
vmaxps %ymm10, %ymm0, %ymm0
vmovaps 0x400(%rsp), %ymm9
vminps %ymm16, %ymm9, %ymm9
vmovaps 0x238da8(%rip), %ymm11 # 0x1f20f40
vaddps %ymm0, %ymm11, %ymm0
vbroadcastss 0x236313(%rip), %ymm12 # 0x1f1e4b8
vmulps %ymm0, %ymm12, %ymm0
vmovaps 0x60(%rsp), %ymm2
vmovaps 0x200(%rsp), %ymm19
vfmadd213ps %ymm2, %ymm19, %ymm0 # ymm0 = (ymm19 * ymm0) + ymm2
vmovaps %ymm0, 0x420(%rsp)
vmaxps %ymm10, %ymm9, %ymm0
vaddps %ymm0, %ymm11, %ymm0
vmulps %ymm0, %ymm12, %ymm0
vfmadd213ps %ymm2, %ymm19, %ymm0 # ymm0 = (ymm19 * ymm0) + ymm2
vmovaps %ymm0, 0x400(%rsp)
vmulps %ymm1, %ymm1, %ymm0
vmovaps 0xa0(%rsp), %ymm1
vsubps %ymm0, %ymm1, %ymm11
vmulps %ymm11, %ymm26, %ymm0
vsubps %ymm0, %ymm25, %ymm0
vcmpnltps %ymm10, %ymm0, %k0
kortestb %k0, %k0
je 0x1ce83a5
vxorps %xmm20, %xmm20, %xmm20
vcmpnltps %ymm13, %ymm0, %k1
vsqrtps %ymm0, %ymm0
vaddps %ymm15, %ymm15, %ymm1
vrcp14ps %ymm1, %ymm9
vfnmadd213ps %ymm16, %ymm9, %ymm1 # ymm1 = -(ymm9 * ymm1) + ymm16
vfmadd132ps %ymm9, %ymm9, %ymm1 # ymm1 = (ymm1 * ymm9) + ymm9
vxorps 0x238c7f(%rip){1to8}, %ymm22, %ymm9 # 0x1f20ec0
vsubps %ymm0, %ymm9, %ymm9
vmulps %ymm1, %ymm9, %ymm12
vsubps %ymm22, %ymm0, %ymm0
vmulps %ymm1, %ymm0, %ymm13
vmovaps %ymm17, %ymm0
vfmadd213ps %ymm18, %ymm12, %ymm0 # ymm0 = (ymm12 * ymm0) + ymm18
vmulps %ymm0, %ymm14, %ymm9
vmovaps 0x120(%rsp), %ymm26
vmulps %ymm12, %ymm26, %ymm0
vmovaps 0x100(%rsp), %ymm30
vmulps %ymm12, %ymm30, %ymm1
vmulps %ymm12, %ymm21, %ymm10
vmovaps %ymm7, %ymm19
vfmadd213ps %ymm4, %ymm9, %ymm19 # ymm19 = (ymm9 * ymm19) + ymm4
vsubps %ymm19, %ymm0, %ymm0
vmovaps %ymm6, %ymm19
vfmadd213ps %ymm3, %ymm9, %ymm19 # ymm19 = (ymm9 * ymm19) + ymm3
vsubps %ymm19, %ymm1, %ymm1
vmovaps 0x80(%rsp), %ymm2
vfmadd213ps %ymm2, %ymm5, %ymm9 # ymm9 = (ymm5 * ymm9) + ymm2
vsubps %ymm9, %ymm10, %ymm9
vfmadd213ps %ymm18, %ymm13, %ymm17 # ymm17 = (ymm13 * ymm17) + ymm18
vmulps %ymm17, %ymm14, %ymm14
vmulps %ymm13, %ymm26, %ymm10
vmulps %ymm13, %ymm30, %ymm17
vmulps %ymm13, %ymm21, %ymm18
vfmadd213ps %ymm4, %ymm14, %ymm7 # ymm7 = (ymm14 * ymm7) + ymm4
vsubps %ymm7, %ymm10, %ymm10
vfmadd213ps %ymm3, %ymm14, %ymm6 # ymm6 = (ymm14 * ymm6) + ymm3
vsubps %ymm6, %ymm17, %ymm3
vfmadd213ps %ymm2, %ymm14, %ymm5 # ymm5 = (ymm14 * ymm5) + ymm2
vsubps %ymm5, %ymm18, %ymm5
vbroadcastss 0x20371e(%rip), %ymm2 # 0x1eeba20
vblendmps %ymm12, %ymm2, %ymm4 {%k1}
vbroadcastss 0x204873(%rip), %ymm2 # 0x1eecb84
vblendmps %ymm13, %ymm2, %ymm2 {%k1}
vbroadcastss 0x238ba4(%rip), %ymm7 # 0x1f20ec4
vandps 0x3a0(%rsp), %ymm7, %ymm6
vmovaps 0x4c0(%rsp), %ymm12
vmaxps %ymm6, %ymm12, %ymm6
vmulps 0x209b74(%rip){1to8}, %ymm6, %ymm6 # 0x1ef1eb4
vandps %ymm7, %ymm15, %ymm7
vcmpltps %ymm6, %ymm7, %k1 {%k1}
kortestb %k1, %k1
jne 0x1ce9d51
vbroadcastss 0x238b66(%rip), %xmm11 # 0x1f20ec4
jmp 0x1ce83e5
vmovaps 0x238bb5(%rip), %ymm3 # 0x1f20f20
vmovaps 0x120(%rsp), %ymm26
vmovaps 0x100(%rsp), %ymm30
vmovaps 0x1c0(%rsp), %ymm21
jmp 0x1ce9bfb
vmovaps 0x238b90(%rip), %ymm3 # 0x1f20f20
vmovaps 0x120(%rsp), %ymm26
vmovaps 0x100(%rsp), %ymm30
jmp 0x1ce9bfb
vxorps %xmm3, %xmm3, %xmm3
vxorps %xmm5, %xmm5, %xmm5
vxorps %xmm0, %xmm0, %xmm0
vxorps %xmm1, %xmm1, %xmm1
vxorps %xmm9, %xmm9, %xmm9
vbroadcastss 0x20365d(%rip), %ymm4 # 0x1eeba20
vbroadcastss 0x2047b8(%rip), %ymm2 # 0x1eecb84
vbroadcastss 0x238aef(%rip), %xmm11 # 0x1f20ec4
vmovaps 0x120(%rsp), %ymm26
vmovaps 0x100(%rsp), %ymm30
vmulps %ymm5, %ymm21, %ymm5
vfmadd231ps %ymm3, %ymm30, %ymm5 # ymm5 = (ymm30 * ymm3) + ymm5
vfmadd231ps %ymm10, %ymm26, %ymm5 # ymm5 = (ymm26 * ymm10) + ymm5
vmovaps 0x360(%rsp), %ymm7
vmovaps %ymm7, 0x8c0(%rsp)
vminps %ymm4, %ymm8, %ymm3
vmovaps %ymm3, 0x8e0(%rsp)
vbroadcastss 0x238aa5(%rip), %ymm6 # 0x1f20ec4
vandps %ymm6, %ymm5, %ymm4
vmaxps %ymm2, %ymm7, %ymm5
vmovaps %ymm5, 0x600(%rsp)
vmovaps %ymm8, 0x620(%rsp)
vbroadcastss 0x238a92(%rip), %ymm2 # 0x1f20ed4
vcmpltps %ymm2, %ymm4, %k1
kmovd %k1, 0xf4(%rsp)
vcmpleps %ymm3, %ymm7, %k1
kmovd %k1, %ecx
andb %al, %cl
vmovaps %ymm5, 0x3c0(%rsp)
vcmpleps %ymm8, %ymm5, %k1
kmovd %k1, %edx
andb %al, %dl
movl %edx, %eax
orb %cl, %al
je 0x1ce9bc9
movl %edx, 0x34(%rsp)
movq %r9, 0x1b0(%rsp)
movq %r10, 0x1b8(%rsp)
knotb %k0, %k1
vmovaps %ymm2, %ymm3
vmulps %ymm9, %ymm21, %ymm2
vfmadd213ps %ymm2, %ymm30, %ymm1 # ymm1 = (ymm30 * ymm1) + ymm2
vfmadd213ps %ymm1, %ymm26, %ymm0 # ymm0 = (ymm26 * ymm0) + ymm1
vandps %ymm6, %ymm0, %ymm0
vcmpltps %ymm3, %ymm0, %k0
kmovd %k1, 0xec(%rsp)
korb %k1, %k0, %k1
vpbroadcastd 0x238a0c(%rip), %ymm0 # 0x1f20edc
vpblendmd 0x2389fe(%rip){1to8}, %ymm0, %ymm0 {%k1} # 0x1f20ed8
movq %r11, 0x1a8(%rsp)
vpbroadcastd %r11d, %ymm1
vmovdqa %ymm0, 0x640(%rsp)
vmovdqa %ymm1, 0x4a0(%rsp)
vpcmpnltd %ymm0, %ymm1, %k0
kmovd %k0, %ebx
movl %ecx, 0xf0(%rsp)
andb %cl, %bl
je 0x1ce8fc5
vmovaps 0x340(%rsp), %ymm1
vmovaps 0x300(%rsp), %ymm2
vminps %xmm2, %xmm1, %xmm0
vmaxps %xmm2, %xmm1, %xmm1
vmovaps 0x320(%rsp), %ymm3
vmovaps 0x2e0(%rsp), %ymm4
vminps %xmm4, %xmm3, %xmm2
vminps %xmm2, %xmm0, %xmm0
vmaxps %xmm4, %xmm3, %xmm2
vmaxps %xmm2, %xmm1, %xmm1
vandps %xmm0, %xmm11, %xmm0
vandps %xmm1, %xmm11, %xmm2
vmaxps %xmm2, %xmm0, %xmm0
vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3]
vmaxss %xmm0, %xmm2, %xmm2
vshufpd $0x1, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[1,0]
vmaxss %xmm2, %xmm0, %xmm0
vmulss 0x20993f(%rip), %xmm0, %xmm0 # 0x1ef1eb4
vmovss %xmm0, 0x44(%rsp)
vshufps $0xff, %xmm1, %xmm1, %xmm0 # xmm0 = xmm1[3,3,3,3]
vmovaps %xmm0, 0x270(%rsp)
vmovaps 0x360(%rsp), %ymm0
vaddps 0x380(%rsp), %ymm0, %ymm0
vmovaps %ymm0, 0x3e0(%rsp)
kmovd %ebx, %k1
vbroadcastss 0x20346f(%rip), %ymm0 # 0x1eeba20
vblendmps 0x360(%rsp), %ymm0, %ymm0 {%k1}
vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm0, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1]
vminps %ymm2, %ymm1, %ymm1
vcmpeqps %ymm1, %ymm0, %k0
kmovd %k0, %eax
andb %bl, %al
movzbl %al, %eax
movzbl %bl, %ecx
cmovnel %eax, %ecx
tzcntl %ecx, %ecx
movb $0x1, %bl
shlb %cl, %bl
shll $0x2, %ecx
vmovss 0x420(%rsp,%rcx), %xmm8
vmovss 0x8c0(%rsp,%rcx), %xmm9
vmovaps 0x220(%rsp), %xmm0
vucomiss 0x20340b(%rip), %xmm0 # 0x1eeba24
vmovss 0xf8(%rsp), %xmm0
jae 0x1ce8665
vmovaps 0x220(%rsp), %xmm0
vmovaps %xmm8, 0xa0(%rsp)
vmovaps %xmm9, 0x80(%rsp)
kmovw %k1, 0x60(%rsp)
vzeroupper
callq 0x6aa20
kmovw 0x60(%rsp), %k1
vmovaps 0x80(%rsp), %xmm9
vmovaps 0xa0(%rsp), %xmm8
movzbl %bl, %eax
kmovd %eax, %k0
kandnb %k1, %k0, %k0
kmovd %k0, %ebx
vmulss 0x209838(%rip), %xmm0, %xmm0 # 0x1ef1eb4
vmovss %xmm0, 0x48(%rsp)
movl $0x4, %r14d
vbroadcastss %xmm9, %xmm0
vxorps %xmm1, %xmm1, %xmm1
vfmadd132ps 0x230(%rsp), %xmm1, %xmm0 # xmm0 = (xmm0 * mem) + xmm1
vmovss 0x204071(%rip), %xmm1 # 0x1eec714
vsubss %xmm8, %xmm1, %xmm3
vbroadcastss %xmm8, %xmm1
vmovaps 0x300(%rsp), %ymm5
vmulps %xmm1, %xmm5, %xmm2
vmovaps %xmm3, 0x2d0(%rsp)
vbroadcastss %xmm3, %xmm3
vfmadd231ps 0x340(%rsp), %xmm3, %xmm2 # xmm2 = (xmm3 * mem) + xmm2
vmovaps 0x320(%rsp), %ymm6
vmulps %xmm1, %xmm6, %xmm4
vfmadd231ps %xmm5, %xmm3, %xmm4 # xmm4 = (xmm3 * xmm5) + xmm4
vmulps 0x2e0(%rsp), %xmm1, %xmm5
vfmadd231ps %xmm6, %xmm3, %xmm5 # xmm5 = (xmm3 * xmm6) + xmm5
vmulps %xmm4, %xmm1, %xmm6
vfmadd231ps %xmm2, %xmm3, %xmm6 # xmm6 = (xmm3 * xmm2) + xmm6
vmulps %xmm5, %xmm1, %xmm2
vfmadd231ps %xmm4, %xmm3, %xmm2 # xmm2 = (xmm3 * xmm4) + xmm2
vmulps %xmm2, %xmm1, %xmm4
vfmadd231ps %xmm3, %xmm6, %xmm4 # xmm4 = (xmm6 * xmm3) + xmm4
vsubps %xmm6, %xmm2, %xmm1
vmulps 0x2088d1(%rip){1to4}, %xmm1, %xmm10 # 0x1ef0fec
vmovaps %xmm4, 0x3a0(%rsp)
vsubps %xmm4, %xmm0, %xmm0
vmovaps %xmm0, 0x200(%rsp)
vdpps $0x7f, %xmm0, %xmm0, %xmm0
vucomiss 0x2032e5(%rip), %xmm0 # 0x1eeba24
vmovaps %xmm10, 0x60(%rsp)
vmovaps %xmm0, 0x1e0(%rsp)
vmovaps %xmm8, 0xa0(%rsp)
vmovaps %xmm9, 0x80(%rsp)
jb 0x1ce8768
vsqrtss %xmm0, %xmm0, %xmm7
jmp 0x1ce877a
vzeroupper
callq 0x6aa20
vmovaps 0x60(%rsp), %xmm10
vmovaps %xmm0, %xmm7
vdpps $0x7f, %xmm10, %xmm10, %xmm0
vxorps %xmm1, %xmm1, %xmm1
vmovss %xmm0, %xmm1, %xmm2 # xmm2 = xmm0[0],xmm1[1,2,3]
vrsqrt14ss %xmm2, %xmm1, %xmm3
vmulss 0x203f82(%rip), %xmm3, %xmm4 # 0x1eec718
vmulss 0x203f7e(%rip), %xmm0, %xmm5 # 0x1eec71c
vrcp14ss %xmm2, %xmm1, %xmm2
vxorps 0x238712(%rip){1to4}, %xmm0, %xmm1 # 0x1f20ec0
vmovaps %xmm2, 0x2b0(%rsp)
vfnmadd213ss 0x208838(%rip), %xmm0, %xmm2 # xmm2 = -(xmm0 * xmm2) + mem
vmovss %xmm2, 0x4c(%rsp)
vucomiss %xmm1, %xmm0
vmovss %xmm7, 0x24(%rsp)
vmovaps %xmm0, 0x2c0(%rsp)
jb 0x1ce87e3
vsqrtss %xmm0, %xmm0, %xmm16
jmp 0x1ce882d
vmovaps %xmm3, 0xd0(%rsp)
vmovss %xmm4, 0x20(%rsp)
vmovss %xmm5, 0xc0(%rsp)
vzeroupper
callq 0x6aa20
vmovss 0xc0(%rsp), %xmm5
vmovss 0x20(%rsp), %xmm4
vmovaps 0xd0(%rsp), %xmm3
vmovss 0x24(%rsp), %xmm7
vmovaps 0x60(%rsp), %xmm10
vmovaps %xmm0, %xmm16
vmovaps 0x200(%rsp), %xmm12
vmovaps 0x1e0(%rsp), %xmm19
vmulss %xmm3, %xmm5, %xmm0
vmulss %xmm3, %xmm3, %xmm1
vmulss %xmm1, %xmm0, %xmm0
vaddss %xmm0, %xmm4, %xmm0
vbroadcastss %xmm0, %xmm6
vmulps %xmm6, %xmm10, %xmm0
vmovaps %xmm0, 0xd0(%rsp)
vdpps $0x7f, %xmm0, %xmm12, %xmm15
vaddss 0x203ea6(%rip), %xmm7, %xmm14 # 0x1eec714
vmulps %xmm15, %xmm15, %xmm0
vsubps %xmm0, %xmm19, %xmm0
vxorps %xmm2, %xmm2, %xmm2
vmovss %xmm0, %xmm2, %xmm1 # xmm1 = xmm0[0],xmm2[1,2,3]
vrsqrt14ss %xmm1, %xmm2, %xmm18
vmulss 0x203e87(%rip), %xmm18, %xmm17 # 0x1eec718
vmulss 0x203e81(%rip), %xmm0, %xmm20 # 0x1eec71c
vucomiss 0x203181(%rip), %xmm0 # 0x1eeba24
jb 0x1ce88ae
vsqrtss %xmm0, %xmm0, %xmm0
jmp 0x1ce8943
vmovss %xmm14, 0x20(%rsp)
vmovaps %xmm15, 0xc0(%rsp)
vmovss %xmm16, 0x40(%rsp)
vmovss %xmm17, 0x3c(%rsp)
vmovaps %xmm18, 0x2a0(%rsp)
vmovss %xmm20, 0x38(%rsp)
vmovaps %xmm6, 0x290(%rsp)
vzeroupper
callq 0x6aa20
vmovaps 0x290(%rsp), %xmm6
vmovss 0x38(%rsp), %xmm20
vmovaps 0x2a0(%rsp), %xmm18
vmovss 0x3c(%rsp), %xmm17
vmovss 0x40(%rsp), %xmm16
vmovaps 0xc0(%rsp), %xmm15
vmovss 0x24(%rsp), %xmm7
vmovss 0x20(%rsp), %xmm14
vmovaps 0x1e0(%rsp), %xmm19
vmovaps 0x200(%rsp), %xmm12
vmovaps 0x60(%rsp), %xmm10
vbroadcastss 0x238578(%rip), %xmm11 # 0x1f20ec4
vmovaps 0x120(%rsp), %ymm26
vmovaps 0x100(%rsp), %ymm30
vmovaps 0x1c0(%rsp), %ymm21
vmovaps 0xa0(%rsp), %xmm8
vmovaps 0x80(%rsp), %xmm9
vmovss 0x20805e(%rip), %xmm3 # 0x1ef09dc
vmovaps %xmm3, %xmm1
vmovaps 0x2d0(%rsp), %xmm5
vfmadd213ss %xmm5, %xmm8, %xmm1 # xmm1 = (xmm8 * xmm1) + xmm5
vmovss 0x20865c(%rip), %xmm4 # 0x1ef0ff4
vmulss %xmm4, %xmm1, %xmm1
vmulss %xmm4, %xmm8, %xmm2
vbroadcastss %xmm2, %xmm2
vmulps 0x2e0(%rsp), %xmm2, %xmm2
vbroadcastss %xmm1, %xmm1
vfmadd132ps 0x320(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2
vmovaps %xmm3, %xmm2
vfmadd213ss %xmm8, %xmm5, %xmm2 # xmm2 = (xmm5 * xmm2) + xmm8
vmulss %xmm4, %xmm2, %xmm2
vbroadcastss %xmm2, %xmm2
vfmadd132ps 0x300(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1
vmulss %xmm4, %xmm5, %xmm1
vbroadcastss %xmm1, %xmm1
vfmadd132ps 0x340(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2
vbroadcastss 0x2c0(%rsp), %xmm2
vmulps %xmm2, %xmm1, %xmm2
vdpps $0x7f, %xmm1, %xmm10, %xmm1
vbroadcastss %xmm1, %xmm1
vmulps %xmm1, %xmm10, %xmm1
vsubps %xmm1, %xmm2, %xmm1
vmovss 0x4c(%rsp), %xmm2
vmulss 0x2b0(%rsp), %xmm2, %xmm2
vmulss 0x48(%rsp), %xmm9, %xmm3
vbroadcastss %xmm2, %xmm2
vmulps %xmm2, %xmm1, %xmm1
vxorps 0x23848b(%rip){1to4}, %xmm10, %xmm2 # 0x1f20ec0
vmulps %xmm1, %xmm6, %xmm4
vmovaps 0xd0(%rsp), %xmm13
vdpps $0x7f, %xmm13, %xmm2, %xmm5
vmovss 0x44(%rsp), %xmm6
vmaxss %xmm3, %xmm6, %xmm1
vdivss %xmm16, %xmm6, %xmm3
vdpps $0x7f, %xmm4, %xmm12, %xmm4
vfmadd213ss %xmm1, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm7) + xmm1
vfmadd213ss %xmm7, %xmm3, %xmm14 # xmm14 = (xmm3 * xmm14) + xmm7
vmovaps 0x230(%rsp), %xmm7
vdpps $0x7f, %xmm13, %xmm7, %xmm3
vaddss %xmm4, %xmm5, %xmm4
vdpps $0x7f, %xmm2, %xmm12, %xmm5
vmulss %xmm18, %xmm20, %xmm2
vmulss %xmm18, %xmm18, %xmm6
vmulss %xmm6, %xmm2, %xmm2
vdpps $0x7f, %xmm7, %xmm12, %xmm6
vaddss %xmm2, %xmm17, %xmm7
vfnmadd231ss %xmm4, %xmm15, %xmm5 # xmm5 = -(xmm15 * xmm4) + xmm5
vfnmadd231ss %xmm3, %xmm15, %xmm6 # xmm6 = -(xmm15 * xmm3) + xmm6
vpermilps $0xff, 0x3a0(%rsp), %xmm2 # xmm2 = mem[3,3,3,3]
vsubss %xmm2, %xmm0, %xmm2
vshufps $0xff, %xmm10, %xmm10, %xmm0 # xmm0 = xmm10[3,3,3,3]
vfmsub213ss %xmm0, %xmm7, %xmm5 # xmm5 = (xmm7 * xmm5) - xmm0
vmulss %xmm7, %xmm6, %xmm6
vmulss %xmm5, %xmm3, %xmm7
vfmsub231ss %xmm6, %xmm4, %xmm7 # xmm7 = (xmm4 * xmm6) - xmm7
vdivss %xmm7, %xmm6, %xmm6
vdivss %xmm7, %xmm5, %xmm5
vdivss %xmm7, %xmm3, %xmm3
vdivss %xmm7, %xmm4, %xmm4
vmulss %xmm6, %xmm15, %xmm6
vmulss %xmm3, %xmm2, %xmm3
vsubss %xmm3, %xmm6, %xmm3
vmulss %xmm5, %xmm15, %xmm5
vmulss %xmm4, %xmm2, %xmm4
vsubss %xmm5, %xmm4, %xmm4
vsubss %xmm3, %xmm8, %xmm8
vsubss %xmm4, %xmm9, %xmm9
vandps %xmm11, %xmm15, %xmm3
vucomiss %xmm3, %xmm14
jbe 0x1ce8cbd
vaddss %xmm1, %xmm14, %xmm1
vmovaps 0x270(%rsp), %xmm3
vfmadd231ss 0x209391(%rip), %xmm3, %xmm1 # xmm1 = (xmm3 * mem) + xmm1
vandps %xmm2, %xmm11, %xmm2
vucomiss %xmm2, %xmm1
jbe 0x1ce8cbd
vaddss 0x280(%rsp), %xmm9, %xmm9
movb $0x1, %r13b
vucomiss 0x5c(%rsp), %xmm9
jb 0x1ce8cc0
movq 0x18(%rsp), %rax
vmovss 0x100(%r12,%rax,4), %xmm4
vucomiss %xmm9, %xmm4
jb 0x1ce8cc0
vucomiss 0x202eb9(%rip), %xmm8 # 0x1eeba24
jb 0x1ce8cc0
vmovss 0x203b9b(%rip), %xmm1 # 0x1eec714
vucomiss %xmm8, %xmm1
jb 0x1ce8cc0
vxorps %xmm2, %xmm2, %xmm2
vmovss %xmm19, %xmm2, %xmm1 # xmm1 = xmm19[0],xmm2[1,2,3]
vrsqrt14ss %xmm1, %xmm2, %xmm1
vmulss 0x203b7c(%rip), %xmm1, %xmm2 # 0x1eec718
vmulss 0x203b76(%rip), %xmm19, %xmm3 # 0x1eec71c
movq (%r15), %rax
movq 0x1e8(%rax), %rax
movq %r15, %rcx
movq 0x50(%rsp), %rdx
movq (%rax,%rdx,8), %r15
movq 0x18(%rsp), %rax
movl 0x120(%r12,%rax,4), %eax
testl %eax, 0x34(%r15)
je 0x1ce8cdd
vmulss %xmm1, %xmm3, %xmm3
vmulss %xmm1, %xmm1, %xmm1
vmulss %xmm1, %xmm3, %xmm1
vaddss %xmm1, %xmm2, %xmm1
vbroadcastss %xmm1, %xmm1
vmulps %xmm1, %xmm12, %xmm1
vfmadd213ps %xmm10, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm0) + xmm10
vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm10, %xmm10, %xmm3 # xmm3 = xmm10[1,2,0,3]
vmulps %xmm3, %xmm1, %xmm1
vfmsub231ps %xmm2, %xmm10, %xmm1 # xmm1 = (xmm10 * xmm2) - xmm1
vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3]
vshufps $0xd2, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,0,1,3]
vmulps %xmm1, %xmm0, %xmm0
vfmsub231ps %xmm3, %xmm2, %xmm0 # xmm0 = (xmm2 * xmm3) - xmm0
movq 0x10(%rcx), %rax
cmpq $0x0, 0x10(%rax)
jne 0x1ce8ce2
cmpq $0x0, 0x40(%r15)
jne 0x1ce8ce2
movq 0x18(%rsp), %rcx
vmovss %xmm9, 0x100(%r12,%rcx,4)
vextractps $0x1, %xmm0, 0x180(%r12,%rcx,4)
vextractps $0x2, %xmm0, 0x1a0(%r12,%rcx,4)
vmovss %xmm0, 0x1c0(%r12,%rcx,4)
vmovss %xmm8, 0x1e0(%r12,%rcx,4)
movl $0x0, 0x200(%r12,%rcx,4)
movq 0xe0(%rsp), %rax
movl %eax, 0x220(%r12,%rcx,4)
movq 0x50(%rsp), %rax
movl %eax, 0x240(%r12,%rcx,4)
movq 0x28(%rsp), %r15
movq 0x8(%r15), %rax
movl (%rax), %eax
movl %eax, 0x260(%r12,%rcx,4)
movq 0x8(%r15), %rax
movl 0x4(%rax), %eax
movl %eax, 0x280(%r12,%rcx,4)
jmp 0x1ce8cc0
xorl %r13d, %r13d
subq $0x1, %r14
setb %al
testb %r13b, %r13b
jne 0x1ce8fa2
testb %al, %al
je 0x1ce8688
jmp 0x1ce8fa2
movq %rcx, %r15
jmp 0x1ce8cc0
movq 0x28(%rsp), %rcx
movq 0x8(%rcx), %rax
vbroadcastss %xmm8, %ymm1
vbroadcastss 0x229a0b(%rip), %ymm2 # 0x1f12704
vpermps %ymm0, %ymm2, %ymm2
vbroadcastss 0x2381d5(%rip), %ymm3 # 0x1f20edc
vpermps %ymm0, %ymm3, %ymm3
vbroadcastss %xmm0, %ymm0
vmovaps %ymm2, 0x4e0(%rsp)
vmovaps %ymm3, 0x500(%rsp)
vmovaps %ymm0, 0x520(%rsp)
vmovaps %ymm1, 0x540(%rsp)
vxorps %xmm0, %xmm0, %xmm0
vmovaps %ymm0, 0x560(%rsp)
vmovaps 0x460(%rsp), %ymm0
vmovaps %ymm0, 0x580(%rsp)
vmovdqa 0x480(%rsp), %ymm0
vmovdqa %ymm0, 0x5a0(%rsp)
movq 0x198(%rsp), %rdx
vpcmpeqd %ymm0, %ymm0, %ymm0
vmovdqa %ymm0, 0x20(%rdx)
vmovdqa %ymm0, (%rdx)
vbroadcastss (%rax), %ymm0
vmovaps %ymm0, 0x5c0(%rsp)
vbroadcastss 0x4(%rax), %ymm0
vmovaps %ymm0, 0x5e0(%rsp)
movq 0x18(%rsp), %rax
vmovss %xmm9, 0x100(%r12,%rax,4)
vmovaps 0x440(%rsp), %ymm0
vmovaps %ymm0, 0x240(%rsp)
leaq 0x240(%rsp), %rax
movq %rax, 0x150(%rsp)
movq 0x18(%r15), %rax
movq %rax, 0x158(%rsp)
movq 0x8(%rcx), %rax
movq %rax, 0x160(%rsp)
movq %r12, 0x168(%rsp)
leaq 0x4e0(%rsp), %rax
movq %rax, 0x170(%rsp)
movl $0x8, 0x178(%rsp)
movq 0x40(%r15), %rax
testq %rax, %rax
vmovaps %xmm8, 0xa0(%rsp)
vmovaps %xmm9, 0x80(%rsp)
vmovss %xmm4, 0x60(%rsp)
je 0x1ce8e6b
leaq 0x150(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0x60(%rsp), %xmm4
vmovaps 0x80(%rsp), %xmm9
vmovaps 0xa0(%rsp), %xmm8
vmovaps 0x1c0(%rsp), %ymm21
vmovaps 0x100(%rsp), %ymm30
vmovaps 0x120(%rsp), %ymm26
vbroadcastss 0x238059(%rip), %xmm11 # 0x1f20ec4
vmovdqa 0x240(%rsp), %ymm0
vptest %ymm0, %ymm0
je 0x1ce8f89
movq 0x28(%rsp), %rax
movq 0x10(%rax), %rcx
movq 0x10(%rcx), %rax
testq %rax, %rax
je 0x1ce8ee3
testb $0x2, (%rcx)
jne 0x1ce8e9d
testb $0x40, 0x3e(%r15)
je 0x1ce8ee3
leaq 0x150(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0x60(%rsp), %xmm4
vmovaps 0x80(%rsp), %xmm9
vmovaps 0xa0(%rsp), %xmm8
vmovaps 0x1c0(%rsp), %ymm21
vmovaps 0x100(%rsp), %ymm30
vmovaps 0x120(%rsp), %ymm26
vbroadcastss 0x237fe1(%rip), %xmm11 # 0x1f20ec4
vmovdqa 0x240(%rsp), %ymm0
vptest %ymm0, %ymm0
je 0x1ce8f89
vptestmd %ymm0, %ymm0, %k1
movq 0x168(%rsp), %rax
movq 0x170(%rsp), %rcx
vmovaps (%rcx), %ymm0
vmovups %ymm0, 0x180(%rax) {%k1}
vmovaps 0x20(%rcx), %ymm0
vmovups %ymm0, 0x1a0(%rax) {%k1}
vmovaps 0x40(%rcx), %ymm0
vmovups %ymm0, 0x1c0(%rax) {%k1}
vmovaps 0x60(%rcx), %ymm0
vmovups %ymm0, 0x1e0(%rax) {%k1}
vmovaps 0x80(%rcx), %ymm0
vmovups %ymm0, 0x200(%rax) {%k1}
vmovdqa 0xa0(%rcx), %ymm0
vmovdqu32 %ymm0, 0x220(%rax) {%k1}
vmovdqa 0xc0(%rcx), %ymm0
vmovdqu32 %ymm0, 0x240(%rax) {%k1}
vmovdqa 0xe0(%rcx), %ymm0
vmovdqa32 %ymm0, 0x260(%rax) {%k1}
vmovdqa 0x100(%rcx), %ymm0
vmovdqa32 %ymm0, 0x280(%rax) {%k1}
jmp 0x1ce8f98
movq 0x18(%rsp), %rax
vmovss %xmm4, 0x100(%r12,%rax,4)
movq 0x28(%rsp), %r15
jmp 0x1ce8cc0
movq 0x18(%rsp), %rax
vmovaps 0x3e0(%rsp), %ymm0
vcmpleps 0x100(%r12,%rax,4){1to8}, %ymm0, %k0
kmovd %k0, %eax
andb %al, %bl
jne 0x1ce85a4
vmovaps 0x3c0(%rsp), %ymm0
vaddps 0x380(%rsp), %ymm0, %ymm0
movq 0x18(%rsp), %rax
vcmpleps 0x100(%r12,%rax,4){1to8}, %ymm0, %k0
kmovd 0xf4(%rsp), %k1
kmovd 0xec(%rsp), %k2
korb %k2, %k1, %k1
kmovd %k0, %eax
movl 0x34(%rsp), %ecx
andb %al, %cl
vpbroadcastd 0x237ecc(%rip), %ymm0 # 0x1f20edc
vpblendmd 0x237ebe(%rip){1to8}, %ymm0, %ymm0 {%k1} # 0x1f20ed8
vmovdqa %ymm0, 0x3c0(%rsp)
vpcmpled 0x4a0(%rsp), %ymm0, %k0
kmovd %k0, %ebx
movl %ecx, 0x34(%rsp)
andb %cl, %bl
je 0x1ce9ae4
vmovaps 0x600(%rsp), %ymm5
vmovaps 0x340(%rsp), %ymm1
vmovaps 0x300(%rsp), %ymm2
vminps %xmm2, %xmm1, %xmm0
vmaxps %xmm2, %xmm1, %xmm1
vmovaps 0x320(%rsp), %ymm3
vmovaps 0x2e0(%rsp), %ymm4
vminps %xmm4, %xmm3, %xmm2
vminps %xmm2, %xmm0, %xmm0
vmaxps %xmm4, %xmm3, %xmm2
vmaxps %xmm2, %xmm1, %xmm1
vandps %xmm0, %xmm11, %xmm0
vandps %xmm1, %xmm11, %xmm2
vmaxps %xmm2, %xmm0, %xmm0
vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3]
vmaxss %xmm0, %xmm2, %xmm2
vshufpd $0x1, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[1,0]
vmaxss %xmm2, %xmm0, %xmm0
vmulss 0x208e0e(%rip), %xmm0, %xmm0 # 0x1ef1eb4
vmovss %xmm0, 0x44(%rsp)
vshufps $0xff, %xmm1, %xmm1, %xmm0 # xmm0 = xmm1[3,3,3,3]
vmovaps %xmm0, 0x270(%rsp)
vmovaps %ymm5, 0x360(%rsp)
vaddps 0x380(%rsp), %ymm5, %ymm0
vmovaps %ymm0, 0x3e0(%rsp)
kmovd %ebx, %k1
vbroadcastss 0x20293e(%rip), %ymm0 # 0x1eeba20
vblendmps 0x360(%rsp), %ymm0, %ymm0 {%k1}
vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm0, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1]
vminps %ymm2, %ymm1, %ymm1
vcmpeqps %ymm1, %ymm0, %k0
kmovd %k0, %eax
andb %bl, %al
movzbl %al, %eax
movzbl %bl, %ecx
cmovnel %eax, %ecx
tzcntl %ecx, %ecx
movb $0x1, %bl
shlb %cl, %bl
shll $0x2, %ecx
vmovss 0x400(%rsp,%rcx), %xmm9
vmovss 0x620(%rsp,%rcx), %xmm10
vmovaps 0x220(%rsp), %xmm0
vucomiss 0x2028da(%rip), %xmm0 # 0x1eeba24
vmovss 0xfc(%rsp), %xmm0
jae 0x1ce9196
vmovaps 0x220(%rsp), %xmm0
vmovaps %xmm9, 0xa0(%rsp)
vmovaps %xmm10, 0x80(%rsp)
kmovw %k1, 0x60(%rsp)
vzeroupper
callq 0x6aa20
kmovw 0x60(%rsp), %k1
vmovaps 0x80(%rsp), %xmm10
vmovaps 0xa0(%rsp), %xmm9
movzbl %bl, %eax
kmovd %eax, %k0
kandnb %k1, %k0, %k0
kmovd %k0, %ebx
vmulss 0x208d07(%rip), %xmm0, %xmm0 # 0x1ef1eb4
vmovss %xmm0, 0x48(%rsp)
movl $0x4, %r14d
vbroadcastss %xmm10, %xmm0
vxorps %xmm1, %xmm1, %xmm1
vfmadd132ps 0x230(%rsp), %xmm1, %xmm0 # xmm0 = (xmm0 * mem) + xmm1
vmovss 0x203540(%rip), %xmm1 # 0x1eec714
vsubss %xmm9, %xmm1, %xmm3
vbroadcastss %xmm9, %xmm1
vmovaps 0x300(%rsp), %ymm5
vmulps %xmm1, %xmm5, %xmm2
vmovaps %xmm3, 0x2d0(%rsp)
vbroadcastss %xmm3, %xmm3
vfmadd231ps 0x340(%rsp), %xmm3, %xmm2 # xmm2 = (xmm3 * mem) + xmm2
vmovaps 0x320(%rsp), %ymm6
vmulps %xmm1, %xmm6, %xmm4
vfmadd231ps %xmm5, %xmm3, %xmm4 # xmm4 = (xmm3 * xmm5) + xmm4
vmulps 0x2e0(%rsp), %xmm1, %xmm5
vfmadd231ps %xmm6, %xmm3, %xmm5 # xmm5 = (xmm3 * xmm6) + xmm5
vmulps %xmm4, %xmm1, %xmm6
vfmadd231ps %xmm2, %xmm3, %xmm6 # xmm6 = (xmm3 * xmm2) + xmm6
vmulps %xmm5, %xmm1, %xmm2
vfmadd231ps %xmm4, %xmm3, %xmm2 # xmm2 = (xmm3 * xmm4) + xmm2
vmulps %xmm2, %xmm1, %xmm4
vfmadd231ps %xmm3, %xmm6, %xmm4 # xmm4 = (xmm6 * xmm3) + xmm4
vsubps %xmm6, %xmm2, %xmm1
vmulps 0x207da0(%rip){1to4}, %xmm1, %xmm11 # 0x1ef0fec
vmovaps %xmm4, 0x3a0(%rsp)
vsubps %xmm4, %xmm0, %xmm0
vmovaps %xmm0, 0x200(%rsp)
vdpps $0x7f, %xmm0, %xmm0, %xmm0
vucomiss 0x2027b4(%rip), %xmm0 # 0x1eeba24
vmovaps %xmm11, 0x60(%rsp)
vmovaps %xmm0, 0x1e0(%rsp)
vmovaps %xmm9, 0xa0(%rsp)
vmovaps %xmm10, 0x80(%rsp)
jb 0x1ce9299
vsqrtss %xmm0, %xmm0, %xmm7
jmp 0x1ce92ab
vzeroupper
callq 0x6aa20
vmovaps 0x60(%rsp), %xmm11
vmovaps %xmm0, %xmm7
vdpps $0x7f, %xmm11, %xmm11, %xmm0
vxorps %xmm1, %xmm1, %xmm1
vmovss %xmm0, %xmm1, %xmm2 # xmm2 = xmm0[0],xmm1[1,2,3]
vrsqrt14ss %xmm2, %xmm1, %xmm3
vmulss 0x203451(%rip), %xmm3, %xmm4 # 0x1eec718
vmulss 0x20344d(%rip), %xmm0, %xmm5 # 0x1eec71c
vrcp14ss %xmm2, %xmm1, %xmm2
vxorps 0x237be1(%rip){1to4}, %xmm0, %xmm1 # 0x1f20ec0
vmovaps %xmm2, 0x2b0(%rsp)
vfnmadd213ss 0x207d07(%rip), %xmm0, %xmm2 # xmm2 = -(xmm0 * xmm2) + mem
vmovss %xmm2, 0x4c(%rsp)
vucomiss %xmm1, %xmm0
vmovss %xmm7, 0x24(%rsp)
vmovaps %xmm0, 0x2c0(%rsp)
jb 0x1ce9314
vsqrtss %xmm0, %xmm0, %xmm16
jmp 0x1ce935e
vmovaps %xmm3, 0xd0(%rsp)
vmovss %xmm4, 0x20(%rsp)
vmovss %xmm5, 0xc0(%rsp)
vzeroupper
callq 0x6aa20
vmovss 0xc0(%rsp), %xmm5
vmovss 0x20(%rsp), %xmm4
vmovaps 0xd0(%rsp), %xmm3
vmovss 0x24(%rsp), %xmm7
vmovaps 0x60(%rsp), %xmm11
vmovaps %xmm0, %xmm16
vmovaps 0x200(%rsp), %xmm12
vmovaps 0x1e0(%rsp), %xmm19
vmulss %xmm3, %xmm5, %xmm0
vmulss %xmm3, %xmm3, %xmm1
vmulss %xmm1, %xmm0, %xmm0
vaddss %xmm0, %xmm4, %xmm0
vbroadcastss %xmm0, %xmm6
vmulps %xmm6, %xmm11, %xmm0
vmovaps %xmm0, 0xd0(%rsp)
vdpps $0x7f, %xmm0, %xmm12, %xmm15
vaddss 0x203375(%rip), %xmm7, %xmm14 # 0x1eec714
vmulps %xmm15, %xmm15, %xmm0
vsubps %xmm0, %xmm19, %xmm0
vxorps %xmm2, %xmm2, %xmm2
vmovss %xmm0, %xmm2, %xmm1 # xmm1 = xmm0[0],xmm2[1,2,3]
vrsqrt14ss %xmm1, %xmm2, %xmm18
vmulss 0x203356(%rip), %xmm18, %xmm17 # 0x1eec718
vmulss 0x203350(%rip), %xmm0, %xmm20 # 0x1eec71c
vucomiss 0x202650(%rip), %xmm0 # 0x1eeba24
jb 0x1ce93df
vsqrtss %xmm0, %xmm0, %xmm0
jmp 0x1ce9474
vmovss %xmm14, 0x20(%rsp)
vmovaps %xmm15, 0xc0(%rsp)
vmovss %xmm16, 0x40(%rsp)
vmovss %xmm17, 0x3c(%rsp)
vmovaps %xmm18, 0x2a0(%rsp)
vmovss %xmm20, 0x38(%rsp)
vmovaps %xmm6, 0x290(%rsp)
vzeroupper
callq 0x6aa20
vmovaps 0x290(%rsp), %xmm6
vmovss 0x38(%rsp), %xmm20
vmovaps 0x2a0(%rsp), %xmm18
vmovss 0x3c(%rsp), %xmm17
vmovss 0x40(%rsp), %xmm16
vmovaps 0xc0(%rsp), %xmm15
vmovss 0x24(%rsp), %xmm7
vmovss 0x20(%rsp), %xmm14
vmovaps 0x1e0(%rsp), %xmm19
vmovaps 0x200(%rsp), %xmm12
vmovaps 0x60(%rsp), %xmm11
vbroadcastss 0x237a47(%rip), %xmm8 # 0x1f20ec4
vmovaps 0x120(%rsp), %ymm26
vmovaps 0x100(%rsp), %ymm30
vmovaps 0x1c0(%rsp), %ymm21
vmovaps 0xa0(%rsp), %xmm9
vmovaps 0x80(%rsp), %xmm10
vmovss 0x20752d(%rip), %xmm3 # 0x1ef09dc
vmovaps %xmm3, %xmm1
vmovaps 0x2d0(%rsp), %xmm5
vfmadd213ss %xmm5, %xmm9, %xmm1 # xmm1 = (xmm9 * xmm1) + xmm5
vmovss 0x207b2b(%rip), %xmm4 # 0x1ef0ff4
vmulss %xmm4, %xmm1, %xmm1
vmulss %xmm4, %xmm9, %xmm2
vbroadcastss %xmm2, %xmm2
vmulps 0x2e0(%rsp), %xmm2, %xmm2
vbroadcastss %xmm1, %xmm1
vfmadd132ps 0x320(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2
vmovaps %xmm3, %xmm2
vfmadd213ss %xmm9, %xmm5, %xmm2 # xmm2 = (xmm5 * xmm2) + xmm9
vmulss %xmm4, %xmm2, %xmm2
vbroadcastss %xmm2, %xmm2
vfmadd132ps 0x300(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1
vmulss %xmm4, %xmm5, %xmm1
vbroadcastss %xmm1, %xmm1
vfmadd132ps 0x340(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2
vbroadcastss 0x2c0(%rsp), %xmm2
vmulps %xmm2, %xmm1, %xmm2
vdpps $0x7f, %xmm1, %xmm11, %xmm1
vbroadcastss %xmm1, %xmm1
vmulps %xmm1, %xmm11, %xmm1
vsubps %xmm1, %xmm2, %xmm1
vmovss 0x4c(%rsp), %xmm2
vmulss 0x2b0(%rsp), %xmm2, %xmm2
vmulss 0x48(%rsp), %xmm10, %xmm3
vbroadcastss %xmm2, %xmm2
vmulps %xmm2, %xmm1, %xmm1
vxorps 0x23795a(%rip){1to4}, %xmm11, %xmm2 # 0x1f20ec0
vmulps %xmm1, %xmm6, %xmm4
vmovaps 0xd0(%rsp), %xmm13
vdpps $0x7f, %xmm13, %xmm2, %xmm5
vmovss 0x44(%rsp), %xmm6
vmaxss %xmm3, %xmm6, %xmm1
vdivss %xmm16, %xmm6, %xmm3
vdpps $0x7f, %xmm4, %xmm12, %xmm4
vfmadd213ss %xmm1, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm7) + xmm1
vfmadd213ss %xmm7, %xmm3, %xmm14 # xmm14 = (xmm3 * xmm14) + xmm7
vmovaps 0x230(%rsp), %xmm7
vdpps $0x7f, %xmm13, %xmm7, %xmm3
vaddss %xmm4, %xmm5, %xmm4
vdpps $0x7f, %xmm2, %xmm12, %xmm5
vmulss %xmm18, %xmm20, %xmm2
vmulss %xmm18, %xmm18, %xmm6
vmulss %xmm6, %xmm2, %xmm2
vdpps $0x7f, %xmm7, %xmm12, %xmm6
vaddss %xmm2, %xmm17, %xmm7
vfnmadd231ss %xmm4, %xmm15, %xmm5 # xmm5 = -(xmm15 * xmm4) + xmm5
vfnmadd231ss %xmm3, %xmm15, %xmm6 # xmm6 = -(xmm15 * xmm3) + xmm6
vpermilps $0xff, 0x3a0(%rsp), %xmm2 # xmm2 = mem[3,3,3,3]
vsubss %xmm2, %xmm0, %xmm2
vshufps $0xff, %xmm11, %xmm11, %xmm0 # xmm0 = xmm11[3,3,3,3]
vfmsub213ss %xmm0, %xmm7, %xmm5 # xmm5 = (xmm7 * xmm5) - xmm0
vmulss %xmm7, %xmm6, %xmm6
vmulss %xmm5, %xmm3, %xmm7
vfmsub231ss %xmm6, %xmm4, %xmm7 # xmm7 = (xmm4 * xmm6) - xmm7
vdivss %xmm7, %xmm6, %xmm6
vdivss %xmm7, %xmm5, %xmm5
vdivss %xmm7, %xmm3, %xmm3
vdivss %xmm7, %xmm4, %xmm4
vmulss %xmm6, %xmm15, %xmm6
vmulss %xmm3, %xmm2, %xmm3
vsubss %xmm3, %xmm6, %xmm3
vmulss %xmm5, %xmm15, %xmm5
vmulss %xmm4, %xmm2, %xmm4
vsubss %xmm5, %xmm4, %xmm4
vsubss %xmm3, %xmm9, %xmm9
vsubss %xmm4, %xmm10, %xmm10
vandps %xmm8, %xmm15, %xmm3
vucomiss %xmm3, %xmm14
jbe 0x1ce97ee
vaddss %xmm1, %xmm14, %xmm1
vmovaps 0x270(%rsp), %xmm3
vfmadd231ss 0x208860(%rip), %xmm3, %xmm1 # xmm1 = (xmm3 * mem) + xmm1
vandps %xmm2, %xmm8, %xmm2
vucomiss %xmm2, %xmm1
jbe 0x1ce97ee
vaddss 0x280(%rsp), %xmm10, %xmm10
movb $0x1, %r13b
vucomiss 0x5c(%rsp), %xmm10
jb 0x1ce97f1
movq 0x18(%rsp), %rax
vmovss 0x100(%r12,%rax,4), %xmm4
vucomiss %xmm10, %xmm4
jb 0x1ce97f1
vucomiss 0x202388(%rip), %xmm9 # 0x1eeba24
jb 0x1ce97f1
vmovss 0x20306a(%rip), %xmm1 # 0x1eec714
vucomiss %xmm9, %xmm1
jb 0x1ce97f1
vxorps %xmm2, %xmm2, %xmm2
vmovss %xmm19, %xmm2, %xmm1 # xmm1 = xmm19[0],xmm2[1,2,3]
vrsqrt14ss %xmm1, %xmm2, %xmm1
vmulss 0x20304b(%rip), %xmm1, %xmm2 # 0x1eec718
vmulss 0x203045(%rip), %xmm19, %xmm3 # 0x1eec71c
movq (%r15), %rax
movq 0x1e8(%rax), %rax
movq %r15, %rcx
movq 0x50(%rsp), %rdx
movq (%rax,%rdx,8), %r15
movq 0x18(%rsp), %rax
movl 0x120(%r12,%rax,4), %eax
testl %eax, 0x34(%r15)
je 0x1ce980e
vmulss %xmm1, %xmm3, %xmm3
vmulss %xmm1, %xmm1, %xmm1
vmulss %xmm1, %xmm3, %xmm1
vaddss %xmm1, %xmm2, %xmm1
vbroadcastss %xmm1, %xmm1
vmulps %xmm1, %xmm12, %xmm1
vfmadd213ps %xmm11, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm0) + xmm11
vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm11, %xmm11, %xmm3 # xmm3 = xmm11[1,2,0,3]
vmulps %xmm3, %xmm1, %xmm1
vfmsub231ps %xmm2, %xmm11, %xmm1 # xmm1 = (xmm11 * xmm2) - xmm1
vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3]
vshufps $0xd2, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,0,1,3]
vmulps %xmm1, %xmm0, %xmm0
vfmsub231ps %xmm3, %xmm2, %xmm0 # xmm0 = (xmm2 * xmm3) - xmm0
movq 0x10(%rcx), %rax
cmpq $0x0, 0x10(%rax)
jne 0x1ce9813
cmpq $0x0, 0x40(%r15)
jne 0x1ce9813
movq 0x18(%rsp), %rcx
vmovss %xmm10, 0x100(%r12,%rcx,4)
vextractps $0x1, %xmm0, 0x180(%r12,%rcx,4)
vextractps $0x2, %xmm0, 0x1a0(%r12,%rcx,4)
vmovss %xmm0, 0x1c0(%r12,%rcx,4)
vmovss %xmm9, 0x1e0(%r12,%rcx,4)
movl $0x0, 0x200(%r12,%rcx,4)
movq 0xe0(%rsp), %rax
movl %eax, 0x220(%r12,%rcx,4)
movq 0x50(%rsp), %rax
movl %eax, 0x240(%r12,%rcx,4)
movq 0x28(%rsp), %r15
movq 0x8(%r15), %rax
movl (%rax), %eax
movl %eax, 0x260(%r12,%rcx,4)
movq 0x8(%r15), %rax
movl 0x4(%rax), %eax
movl %eax, 0x280(%r12,%rcx,4)
jmp 0x1ce97f1
xorl %r13d, %r13d
subq $0x1, %r14
setb %al
testb %r13b, %r13b
jne 0x1ce9ac1
testb %al, %al
je 0x1ce91b9
jmp 0x1ce9ac1
movq %rcx, %r15
jmp 0x1ce97f1
movq 0x28(%rsp), %rcx
movq 0x8(%rcx), %rax
vbroadcastss %xmm9, %ymm1
vbroadcastss 0x228eda(%rip), %ymm2 # 0x1f12704
vpermps %ymm0, %ymm2, %ymm2
vbroadcastss 0x2376a4(%rip), %ymm3 # 0x1f20edc
vpermps %ymm0, %ymm3, %ymm3
vbroadcastss %xmm0, %ymm0
vmovaps %ymm2, 0x4e0(%rsp)
vmovaps %ymm3, 0x500(%rsp)
vmovaps %ymm0, 0x520(%rsp)
vmovaps %ymm1, 0x540(%rsp)
vxorps %xmm0, %xmm0, %xmm0
vmovaps %ymm0, 0x560(%rsp)
vmovaps 0x460(%rsp), %ymm0
vmovaps %ymm0, 0x580(%rsp)
vmovdqa 0x480(%rsp), %ymm0
vmovdqa %ymm0, 0x5a0(%rsp)
movq 0x198(%rsp), %rdx
vpcmpeqd %ymm0, %ymm0, %ymm0
vmovdqa %ymm0, 0x20(%rdx)
vmovdqa %ymm0, (%rdx)
vbroadcastss (%rax), %ymm0
vmovaps %ymm0, 0x5c0(%rsp)
vbroadcastss 0x4(%rax), %ymm0
vmovaps %ymm0, 0x5e0(%rsp)
movq 0x18(%rsp), %rax
vmovss %xmm10, 0x100(%r12,%rax,4)
vmovaps 0x440(%rsp), %ymm0
vmovaps %ymm0, 0x240(%rsp)
leaq 0x240(%rsp), %rax
movq %rax, 0x150(%rsp)
movq 0x18(%r15), %rax
movq %rax, 0x158(%rsp)
movq 0x8(%rcx), %rax
movq %rax, 0x160(%rsp)
movq %r12, 0x168(%rsp)
leaq 0x4e0(%rsp), %rax
movq %rax, 0x170(%rsp)
movl $0x8, 0x178(%rsp)
movq 0x40(%r15), %rax
testq %rax, %rax
vmovaps %xmm9, 0xa0(%rsp)
vmovaps %xmm10, 0x80(%rsp)
vmovss %xmm4, 0x60(%rsp)
je 0x1ce9993
leaq 0x150(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0x60(%rsp), %xmm4
vmovaps 0x80(%rsp), %xmm10
vmovaps 0xa0(%rsp), %xmm9
vmovaps 0x1c0(%rsp), %ymm21
vmovaps 0x100(%rsp), %ymm30
vmovaps 0x120(%rsp), %ymm26
vmovdqa 0x240(%rsp), %ymm0
vptest %ymm0, %ymm0
je 0x1ce9aa8
movq 0x28(%rsp), %rax
movq 0x10(%rax), %rcx
movq 0x10(%rcx), %rax
testq %rax, %rax
je 0x1ce9a02
testb $0x2, (%rcx)
jne 0x1ce99c5
testb $0x40, 0x3e(%r15)
je 0x1ce9a02
leaq 0x150(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0x60(%rsp), %xmm4
vmovaps 0x80(%rsp), %xmm10
vmovaps 0xa0(%rsp), %xmm9
vmovaps 0x1c0(%rsp), %ymm21
vmovaps 0x100(%rsp), %ymm30
vmovaps 0x120(%rsp), %ymm26
vmovdqa 0x240(%rsp), %ymm0
vptest %ymm0, %ymm0
je 0x1ce9aa8
vptestmd %ymm0, %ymm0, %k1
movq 0x168(%rsp), %rax
movq 0x170(%rsp), %rcx
vmovaps (%rcx), %ymm0
vmovups %ymm0, 0x180(%rax) {%k1}
vmovaps 0x20(%rcx), %ymm0
vmovups %ymm0, 0x1a0(%rax) {%k1}
vmovaps 0x40(%rcx), %ymm0
vmovups %ymm0, 0x1c0(%rax) {%k1}
vmovaps 0x60(%rcx), %ymm0
vmovups %ymm0, 0x1e0(%rax) {%k1}
vmovaps 0x80(%rcx), %ymm0
vmovups %ymm0, 0x200(%rax) {%k1}
vmovdqa 0xa0(%rcx), %ymm0
vmovdqu32 %ymm0, 0x220(%rax) {%k1}
vmovdqa 0xc0(%rcx), %ymm0
vmovdqu32 %ymm0, 0x240(%rax) {%k1}
vmovdqa 0xe0(%rcx), %ymm0
vmovdqa32 %ymm0, 0x260(%rax) {%k1}
vmovdqa 0x100(%rcx), %ymm0
vmovdqa32 %ymm0, 0x280(%rax) {%k1}
jmp 0x1ce9ab7
movq 0x18(%rsp), %rax
vmovss %xmm4, 0x100(%r12,%rax,4)
movq 0x28(%rsp), %r15
jmp 0x1ce97f1
movq 0x18(%rsp), %rax
vmovaps 0x3e0(%rsp), %ymm0
vcmpleps 0x100(%r12,%rax,4){1to8}, %ymm0, %k0
kmovd %k0, %eax
andb %al, %bl
jne 0x1ce90d5
vmovdqa 0x4a0(%rsp), %ymm1
vpcmpltd 0x3c0(%rsp), %ymm1, %k1
vmovaps 0x8c0(%rsp), %ymm0
vpcmpltd 0x640(%rsp), %ymm1, %k2
vmovaps 0x380(%rsp), %ymm3
vaddps %ymm0, %ymm3, %ymm1
movq 0x18(%rsp), %rax
vbroadcastss 0x100(%r12,%rax,4), %ymm2
vcmpleps %ymm2, %ymm1, %k0 {%k2}
kmovd %k0, %eax
movl 0xf0(%rsp), %ecx
andb %al, %cl
vmovaps 0x600(%rsp), %ymm1
vaddps %ymm1, %ymm3, %ymm3
vcmpleps %ymm2, %ymm3, %k0 {%k1}
kmovd %k0, %eax
movl 0x34(%rsp), %edx
andb %al, %dl
orb %cl, %dl
je 0x1ce9bd3
movq 0x1b0(%rsp), %r9
movl %r9d, %eax
leaq (%rax,%rax,2), %rax
shlq $0x5, %rax
movb %dl, 0x900(%rsp,%rax)
kmovd %ecx, %k1
vmovaps %ymm0, %ymm1 {%k1}
vmovaps %ymm1, 0x920(%rsp,%rax)
vmovaps 0x180(%rsp), %xmm2
vmovlps %xmm2, 0x940(%rsp,%rax)
movq 0x1a8(%rsp), %r11
leal 0x1(%r11), %ecx
movl %ecx, 0x948(%rsp,%rax)
incl %r9d
movq 0x1a0(%rsp), %r8
movq 0x1b8(%rsp), %r10
vmovaps 0x237359(%rip), %ymm3 # 0x1f20f20
jmp 0x1ce9c04
vmovaps 0x23734f(%rip), %ymm3 # 0x1f20f20
jmp 0x1ce9bfb
movq 0x1a0(%rsp), %r8
movq 0x1b8(%rsp), %r10
vmovaps 0x237335(%rip), %ymm3 # 0x1f20f20
movq 0x1b0(%rsp), %r9
movq 0x1a8(%rsp), %r11
vmovaps 0x180(%rsp), %xmm2
movl %r9d, %eax
testl %eax, %eax
je 0x1ce9d93
leal -0x1(%rax), %r9d
leaq (%r9,%r9,2), %rcx
shlq $0x5, %rcx
vmovaps 0x920(%rsp,%rcx), %ymm0
movzbl 0x900(%rsp,%rcx), %esi
vaddps 0x380(%rsp), %ymm0, %ymm1
movq 0x18(%rsp), %rdx
vcmpleps 0x100(%r12,%rdx,4){1to8}, %ymm1, %k0
kmovb %k0, %edx
andl %esi, %edx
je 0x1ce9cf8
kmovd %edx, %k1
vbroadcastss 0x201dc4(%rip), %ymm1 # 0x1eeba20
vblendmps %ymm0, %ymm1, %ymm0 {%k1}
vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm0, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1]
vminps %ymm2, %ymm1, %ymm1
vcmpeqps %ymm1, %ymm0, %k0
kmovd %k0, %esi
andb %dl, %sil
je 0x1ce9c94
movzbl %sil, %edi
jmp 0x1ce9c97
movzbl %dl, %edi
leaq (%rsp,%rcx), %rsi
addq $0x900, %rsi # imm = 0x900
vmovss 0x44(%rsi), %xmm0
tzcntl %edi, %ecx
movb $0x1, %dil
shlb %cl, %dil
movl 0x48(%rsi), %r11d
movzbl %dil, %edi
kmovd %edi, %k0
kmovd %edx, %k1
kandnb %k1, %k0, %k0
kmovb %k0, (%rsi)
kortestb %k0, %k0
je 0x1ce9cd2
movl %eax, %r9d
vbroadcastss 0x40(%rsi), %ymm1
vsubss %xmm1, %xmm0, %xmm0
vbroadcastss %xmm0, %ymm0
vfmadd132ps %ymm3, %ymm1, %ymm0 # ymm0 = (ymm0 * ymm3) + ymm1
vmovaps %ymm0, 0x4e0(%rsp)
vmovsd 0x4e0(%rsp,%rcx,4), %xmm2
movl %r9d, %eax
testb %dl, %dl
je 0x1ce9c07
jmp 0x1ce7a25
vcmpleps %ymm16, %ymm1, %k2
vbroadcastss 0x202e6c(%rip), %ymm1 # 0x1eecb84
vbroadcastss 0x201cfe(%rip), %ymm16 # 0x1eeba20
vblendmps %ymm1, %ymm16, %ymm0 {%k2}
vmovaps %ymm0, %ymm30 {%k1}
vblendmps %ymm16, %ymm1, %ymm0 {%k2}
kmovd %k2, %ecx
vmovaps %ymm0, %ymm31 {%k1}
knotb %k1, %k0
kmovd %k0, %edx
orb %cl, %dl
andb %al, %dl
movl %edx, %eax
jmp 0x1ce7f6f
vcmpleps %ymm20, %ymm11, %k2
vbroadcastss 0x202e23(%rip), %ymm7 # 0x1eecb84
vbroadcastss 0x201cb6(%rip), %ymm11 # 0x1eeba20
vblendmps %ymm7, %ymm11, %ymm6 {%k2}
vmovaps %ymm6, %ymm4 {%k1}
vblendmps %ymm11, %ymm7, %ymm6 {%k2}
vmovaps %ymm6, %ymm2 {%k1}
knotb %k1, %k1
korb %k2, %k1, %k1
kandb %k0, %k1, %k0
jmp 0x1ce8355
movq 0x18(%rsp), %rax
vmovaps 0x660(%rsp), %ymm0
vcmpleps 0x100(%r12,%rax,4){1to8}, %ymm0, %k0
kmovb %k0, %eax
andl %eax, %r10d
jne 0x1ce769a
leaq -0x28(%rbp), %rsp
popq %rbx
popq %r12
popq %r13
popq %r14
popq %r15
popq %rbp
vzeroupper
retq
nop
|
/embree[P]embree/kernels/geometry/curveNi_intersector.h
|
bool embree::avx512::CurveNiIntersectorK<8, 8>::occluded_t<embree::avx512::SweepCurve1IntersectorK<embree::BezierCurveT, 8>, embree::avx512::Occluded1KEpilog1<8, true>>(embree::avx512::CurvePrecalculationsK<8>&, embree::RayK<8>&, unsigned long, embree::RayQueryContext*, embree::CurveNi<8> const&)
|
static __forceinline bool occluded_t(Precalculations& pre, RayK<K>& ray, const size_t k, RayQueryContext* context, const Primitive& prim)
{
vfloat<M> tNear;
vbool<M> valid = intersect(ray,k,prim,tNear);
const size_t N = prim.N;
size_t mask = movemask(valid);
while (mask)
{
const size_t i = bscf(mask);
STAT3(shadow.trav_prims,1,1,1);
const unsigned int geomID = prim.geomID(N);
const unsigned int primID = prim.primID(N)[i];
const CurveGeometry* geom = context->scene->get<CurveGeometry>(geomID);
Vec3ff a0,a1,a2,a3; geom->gather(a0,a1,a2,a3,geom->curve(primID));
size_t mask1 = mask;
const size_t i1 = bscf(mask1);
if (mask) {
const unsigned int primID1 = prim.primID(N)[i1];
geom->prefetchL1_vertices(geom->curve(primID1));
if (mask1) {
const size_t i2 = bsf(mask1);
const unsigned int primID2 = prim.primID(N)[i2];
geom->prefetchL2_vertices(geom->curve(primID2));
}
}
if (Intersector().intersect(pre,ray,k,context,geom,primID,a0,a1,a2,a3,Epilog(ray,k,context,geomID,primID)))
return true;
mask &= movemask(tNear <= vfloat<M>(ray.tfar[k]));
}
return false;
}
|
pushq %rbp
movq %rsp, %rbp
pushq %r15
pushq %r14
pushq %r13
pushq %r12
pushq %rbx
andq $-0x20, %rsp
subq $0xaa0, %rsp # imm = 0xAA0
movzbl 0x1(%r8), %eax
leaq (%rax,%rax,4), %r9
leaq (%r9,%r9,4), %rdi
vbroadcastss 0x12(%r8,%rdi), %xmm0
vmovss (%rsi,%rdx,4), %xmm1
vmovss 0x80(%rsi,%rdx,4), %xmm2
vinsertps $0x10, 0x20(%rsi,%rdx,4), %xmm1, %xmm1 # xmm1 = xmm1[0],mem[0],xmm1[2,3]
vinsertps $0x20, 0x40(%rsi,%rdx,4), %xmm1, %xmm1 # xmm1 = xmm1[0,1],mem[0],xmm1[3]
vinsertps $0x10, 0xa0(%rsi,%rdx,4), %xmm2, %xmm2 # xmm2 = xmm2[0],mem[0],xmm2[2,3]
movq %rcx, %r14
vinsertps $0x20, 0xc0(%rsi,%rdx,4), %xmm2, %xmm2 # xmm2 = xmm2[0,1],mem[0],xmm2[3]
vsubps 0x6(%r8,%rdi), %xmm1, %xmm1
vmulps %xmm1, %xmm0, %xmm3
vmulps %xmm2, %xmm0, %xmm0
vpmovsxbd 0x6(%r8,%rax,4), %ymm1
vcvtdq2ps %ymm1, %ymm5
vpmovsxbd 0x6(%r8,%r9), %ymm1
vcvtdq2ps %ymm1, %ymm6
leaq (%rax,%rax,2), %rcx
vpmovsxbd 0x6(%r8,%rcx,2), %ymm1
vcvtdq2ps %ymm1, %ymm2
leaq (%rax,%r9,2), %rdi
vpmovsxbd 0x6(%r8,%rdi), %ymm1
vcvtdq2ps %ymm1, %ymm7
leal (,%rcx,4), %edi
vpmovsxbd 0x6(%r8,%rdi), %ymm1
vcvtdq2ps %ymm1, %ymm8
addq %rax, %rdi
vpmovsxbd 0x6(%r8,%rdi), %ymm1
vcvtdq2ps %ymm1, %ymm9
leaq (%rax,%rax,8), %r10
leal (%r10,%r10), %edi
vpmovsxbd 0x6(%r8,%rdi), %ymm1
addq %rax, %rdi
vpmovsxbd 0x6(%r8,%rdi), %ymm4
vcvtdq2ps %ymm1, %ymm10
vcvtdq2ps %ymm4, %ymm11
shll $0x2, %r9d
vpmovsxbd 0x6(%r8,%r9), %ymm1
vcvtdq2ps %ymm1, %ymm12
vbroadcastss %xmm0, %ymm13
vbroadcastss 0x228836(%rip), %ymm15 # 0x1f12704
vpermps %ymm0, %ymm15, %ymm14
vbroadcastss 0x236fff(%rip), %ymm16 # 0x1f20edc
vpermps %ymm0, %ymm16, %ymm0
vmulps %ymm2, %ymm0, %ymm4
vmulps %ymm0, %ymm9, %ymm1
vmulps %ymm0, %ymm12, %ymm0
vfmadd231ps %ymm6, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm6) + ymm4
vfmadd231ps %ymm8, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm8) + ymm1
vfmadd231ps %ymm14, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm14) + ymm0
vfmadd231ps %ymm5, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm5) + ymm4
vfmadd231ps %ymm7, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm7) + ymm1
vfmadd231ps %ymm13, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm13) + ymm0
vbroadcastss %xmm3, %ymm13
vpermps %ymm3, %ymm15, %ymm14
vpermps %ymm3, %ymm16, %ymm15
vmulps %ymm2, %ymm15, %ymm16
vmulps %ymm9, %ymm15, %ymm3
vmulps %ymm12, %ymm15, %ymm2
vfmadd231ps %ymm6, %ymm14, %ymm16 # ymm16 = (ymm14 * ymm6) + ymm16
vfmadd231ps %ymm8, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm8) + ymm3
vfmadd231ps %ymm11, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm11) + ymm2
vfmadd231ps %ymm5, %ymm13, %ymm16 # ymm16 = (ymm13 * ymm5) + ymm16
vfmadd231ps %ymm7, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm7) + ymm3
vfmadd231ps %ymm10, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm10) + ymm2
vbroadcastss 0x236f6d(%rip), %ymm28 # 0x1f20ec4
vandps %ymm28, %ymm4, %ymm5
vbroadcastss 0x207082(%rip), %ymm6 # 0x1ef0fe8
vcmpltps %ymm6, %ymm5, %k1
vmovaps %ymm6, %ymm4 {%k1}
vandps %ymm28, %ymm1, %ymm5
vcmpltps %ymm6, %ymm5, %k1
vmovaps %ymm6, %ymm1 {%k1}
vandps %ymm28, %ymm0, %ymm5
vcmpltps %ymm6, %ymm5, %k1
vmovaps %ymm6, %ymm0 {%k1}
vrcp14ps %ymm4, %ymm5
vbroadcastss 0x20276c(%rip), %ymm6 # 0x1eec714
vfnmadd213ps %ymm6, %ymm5, %ymm4 # ymm4 = -(ymm5 * ymm4) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm4 # ymm4 = (ymm4 * ymm5) + ymm5
vrcp14ps %ymm1, %ymm5
vfnmadd213ps %ymm6, %ymm5, %ymm1 # ymm1 = -(ymm5 * ymm1) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm1 # ymm1 = (ymm1 * ymm5) + ymm5
vrcp14ps %ymm0, %ymm5
vfnmadd213ps %ymm6, %ymm5, %ymm0 # ymm0 = -(ymm5 * ymm0) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm0 # ymm0 = (ymm0 * ymm5) + ymm5
leaq (,%rax,8), %rdi
subq %rax, %rdi
vpmovsxwd 0x6(%r8,%rdi), %ymm5
vcvtdq2ps %ymm5, %ymm5
vsubps %ymm16, %ymm5, %ymm5
vpmovsxwd 0x6(%r8,%r10), %ymm6
vmulps %ymm5, %ymm4, %ymm5
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm16, %ymm6, %ymm6
vmulps %ymm6, %ymm4, %ymm4
leaq (%rax,%rax), %r10
addq %rax, %r9
shlq $0x3, %rcx
subq %rax, %rcx
movl %eax, %edi
shll $0x4, %edi
vpmovsxwd 0x6(%r8,%rdi), %ymm6
subq %r10, %rdi
vpmovsxwd 0x6(%r8,%rdi), %ymm7
vcvtdq2ps %ymm7, %ymm7
vsubps %ymm3, %ymm7, %ymm7
vmulps %ymm7, %ymm1, %ymm7
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm3, %ymm6, %ymm3
vmulps %ymm3, %ymm1, %ymm1
vpmovsxwd 0x6(%r8,%r9), %ymm3
vcvtdq2ps %ymm3, %ymm3
vsubps %ymm2, %ymm3, %ymm3
vmulps %ymm0, %ymm3, %ymm3
vpmovsxwd 0x6(%r8,%rcx), %ymm6
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm2, %ymm6, %ymm2
vmulps %ymm2, %ymm0, %ymm0
vpminsd %ymm4, %ymm5, %ymm2
vpminsd %ymm1, %ymm7, %ymm6
vmaxps %ymm6, %ymm2, %ymm2
vpminsd %ymm0, %ymm3, %ymm6
vmaxps 0x60(%rsi,%rdx,4){1to8}, %ymm6, %ymm6
vmaxps %ymm6, %ymm2, %ymm2
vmulps 0x235e7e(%rip){1to8}, %ymm2, %ymm6 # 0x1f1ff10
vpmaxsd %ymm4, %ymm5, %ymm2
vpmaxsd %ymm1, %ymm7, %ymm1
vminps %ymm1, %ymm2, %ymm1
vpmaxsd %ymm0, %ymm3, %ymm0
movq %rsi, 0x10(%rsp)
vminps 0x100(%rsi,%rdx,4){1to8}, %ymm0, %ymm0
vminps %ymm0, %ymm1, %ymm0
vmulps 0x235e54(%rip){1to8}, %ymm0, %ymm0 # 0x1f1ff14
vpbroadcastd %eax, %ymm1
vpcmpgtd 0x270850(%rip), %ymm1, %k0 # 0x1f5a920
vmovaps %ymm6, 0x8a0(%rsp)
vcmpleps %ymm0, %ymm6, %k1
ktestb %k0, %k1
setne %r15b
je 0x1ceca87
kandb %k0, %k1, %k0
kmovd %k0, %eax
movzbl %al, %r12d
leaq 0x720(%rsp), %rax
addq $0xe0, %rax
movq %rax, 0x2d8(%rsp)
movl $0x1, %eax
shlxl %edx, %eax, %eax
kmovd %eax, %k0
vpmovm2d %k0, %ymm0
vmovdqa %ymm0, 0x680(%rsp)
movq %rdx, 0x18(%rsp)
movq %r8, 0x2e0(%rsp)
movq %r14, 0x20(%rsp)
tzcntq %r12, %rax
movl 0x2(%r8), %esi
movl 0x6(%r8,%rax,4), %eax
movq (%r14), %rcx
movq 0x1e8(%rcx), %rcx
movq %rsi, 0xd8(%rsp)
movq (%rcx,%rsi,8), %rdi
movq 0x58(%rdi), %rcx
movq 0x68(%rdi), %r11
movq %r11, %rsi
imulq %rax, %rsi
movl (%rcx,%rsi), %r10d
movq 0xa0(%rdi), %rsi
movq %rsi, %r9
imulq %r10, %r9
movq 0x90(%rdi), %rdi
vmovaps (%rdi,%r9), %xmm1
leaq 0x1(%r10), %r9
imulq %rsi, %r9
vmovaps (%rdi,%r9), %xmm0
leaq 0x2(%r10), %r9
imulq %rsi, %r9
vmovaps (%rdi,%r9), %xmm2
blsrq %r12, %r12
addq $0x3, %r10
imulq %rsi, %r10
vmovaps (%rdi,%r10), %xmm3
movq %r12, %r10
subq $0x1, %r10
jb 0x1cea211
andq %r12, %r10
tzcntq %r12, %r9
movl 0x6(%r8,%r9,4), %r9d
imulq %r11, %r9
movl (%rcx,%r9), %r9d
imulq %rsi, %r9
prefetcht0 (%rdi,%r9)
prefetcht0 0x40(%rdi,%r9)
testq %r10, %r10
je 0x1cea211
tzcntq %r10, %r9
movl 0x6(%r8,%r9,4), %r9d
imulq %r9, %r11
movl (%rcx,%r11), %ecx
imulq %rcx, %rsi
prefetcht1 (%rdi,%rsi)
prefetcht1 0x40(%rdi,%rsi)
movq 0x10(%rsp), %rcx
vmovss (%rcx,%rdx,4), %xmm4
vinsertps $0x1c, 0x20(%rcx,%rdx,4), %xmm4, %xmm4 # xmm4 = xmm4[0],mem[0],zero,zero
vinsertps $0x28, 0x40(%rcx,%rdx,4), %xmm4, %xmm4 # xmm4 = xmm4[0,1],mem[0],zero
vbroadcastss 0x80(%rcx,%rdx,4), %ymm30
vbroadcastss 0xa0(%rcx,%rdx,4), %ymm21
vunpcklps %xmm21, %xmm30, %xmm5 # xmm5 = xmm30[0],xmm21[0],xmm30[1],xmm21[1]
vbroadcastss 0xc0(%rcx,%rdx,4), %ymm15
vinsertps $0x28, %xmm15, %xmm5, %xmm9 # xmm9 = xmm5[0,1],xmm15[0],zero
vaddps %xmm0, %xmm1, %xmm5
vaddps %xmm2, %xmm5, %xmm5
vaddps %xmm3, %xmm5, %xmm5
vmulps 0x233095(%rip){1to4}, %xmm5, %xmm5 # 0x1f1d2fc
vsubps %xmm4, %xmm5, %xmm5
vdpps $0x7f, %xmm9, %xmm5, %xmm5
vmovss 0x60(%rcx,%rdx,4), %xmm10
vdpps $0x7f, %xmm9, %xmm9, %xmm11
vxorps %xmm8, %xmm8, %xmm8
vmovss %xmm11, %xmm8, %xmm6
vrcp14ss %xmm6, %xmm8, %xmm6
vmovaps %xmm6, %xmm7
vfnmadd213ss 0x206d5f(%rip), %xmm11, %xmm7 # xmm7 = -(xmm11 * xmm7) + mem
vmulss %xmm7, %xmm6, %xmm6
vmulss %xmm6, %xmm5, %xmm5
vbroadcastss %xmm5, %ymm6
vmovaps %xmm9, 0x390(%rsp)
vmovaps %ymm6, 0x5e0(%rsp)
vfmadd231ps %xmm6, %xmm9, %xmm4 # xmm4 = (xmm9 * xmm6) + xmm4
vblendps $0x8, %xmm8, %xmm4, %xmm4 # xmm4 = xmm4[0,1,2],xmm8[3]
vsubps %xmm4, %xmm1, %xmm6
vsubps %xmm4, %xmm2, %xmm7
vsubps %xmm4, %xmm0, %xmm8
vsubps %xmm4, %xmm3, %xmm3
vbroadcastss %xmm6, %ymm9
vbroadcastss 0x228423(%rip), %ymm0 # 0x1f12704
vpermps %ymm6, %ymm0, %ymm12
vbroadcastss 0x236bed(%rip), %ymm1 # 0x1f20edc
vpermps %ymm6, %ymm1, %ymm23
vbroadcastss 0x236bda(%rip), %ymm2 # 0x1f20ed8
vmovaps %ymm6, 0x540(%rsp)
vpermps %ymm6, %ymm2, %ymm14
vbroadcastss %xmm8, %ymm4
vpermps %ymm8, %ymm0, %ymm6
vpermps %ymm8, %ymm1, %ymm17
vmovaps %ymm8, 0x500(%rsp)
vpermps %ymm8, %ymm2, %ymm18
vbroadcastss %xmm7, %ymm19
vpermps %ymm7, %ymm0, %ymm20
vpermps %ymm7, %ymm1, %ymm22
vmovaps %ymm7, 0x520(%rsp)
vpermps %ymm7, %ymm2, %ymm24
vbroadcastss %xmm3, %ymm27
vpermps %ymm3, %ymm0, %ymm25
vpermps %ymm3, %ymm1, %ymm29
vmovaps %ymm3, 0x4e0(%rsp)
vpermps %ymm3, %ymm2, %ymm26
vmovaps %ymm4, %ymm2
vmovaps %ymm6, %ymm4
vmovaps %ymm15, 0x5c0(%rsp)
vmulss %xmm15, %xmm15, %xmm0
vfmadd231ps %ymm21, %ymm21, %ymm0 # ymm0 = (ymm21 * ymm21) + ymm0
vfmadd231ps %ymm30, %ymm30, %ymm0 # ymm0 = (ymm30 * ymm30) + ymm0
vbroadcastss %xmm0, %ymm0
vmovaps %ymm0, 0x900(%rsp)
vandps %ymm28, %ymm0, %ymm0
vmovaps %ymm0, 0x700(%rsp)
vmovss %xmm10, 0x3c(%rsp)
vmovaps %xmm5, 0x470(%rsp)
vsubss %xmm5, %xmm10, %xmm0
vbroadcastss %xmm0, %ymm0
vmovaps %ymm0, 0x8e0(%rsp)
vpbroadcastd %eax, %ymm0
vmovdqa %ymm0, 0x6c0(%rsp)
movl $0x1, %eax
movq %rax, 0xe0(%rsp)
xorl %ebx, %ebx
xorl %r13d, %r13d
movq 0xd8(%rsp), %rax
vpbroadcastd %eax, %ymm0
vmovdqa %ymm0, 0x6a0(%rsp)
vsqrtss %xmm11, %xmm11, %xmm0
vmovss %xmm0, 0xfc(%rsp)
vmovaps %xmm11, 0x370(%rsp)
vsqrtss %xmm11, %xmm11, %xmm0
vmovss %xmm0, 0xf8(%rsp)
vmovsd 0x2022be(%rip), %xmm5 # 0x1eec6f0
vbroadcastss 0x2022d9(%rip), %ymm3 # 0x1eec714
vmovaps %ymm30, 0x200(%rsp)
vmovaps %ymm21, 0x1e0(%rsp)
vmovaps %ymm9, 0x220(%rsp)
vmovaps %ymm12, 0x1c0(%rsp)
vmovaps %ymm23, 0x1a0(%rsp)
vmovaps %ymm14, 0x180(%rsp)
vmovaps %ymm2, 0x4c0(%rsp)
vmovaps %ymm6, 0x320(%rsp)
vmovaps %ymm17, 0x160(%rsp)
vmovaps %ymm18, 0x140(%rsp)
vmovaps %ymm19, 0x3c0(%rsp)
vmovaps %ymm20, 0x3a0(%rsp)
vmovaps %ymm22, 0x120(%rsp)
vmovaps %ymm24, 0x8c0(%rsp)
vmovaps %ymm27, 0x280(%rsp)
vmovaps %ymm25, 0x100(%rsp)
vmovaps %ymm29, 0x260(%rsp)
vmovaps %ymm26, 0x240(%rsp)
vmovshdup %xmm5, %xmm0 # xmm0 = xmm5[1,1,3,3]
vsubss %xmm5, %xmm0, %xmm1
vmulss 0x2369f0(%rip), %xmm1, %xmm6 # 0x1f20ed0
vmovaps %xmm5, 0x450(%rsp)
vbroadcastss %xmm5, %ymm5
vbroadcastss %xmm1, %ymm0
vmovaps %ymm5, 0x40(%rsp)
vmovaps %ymm0, 0x340(%rsp)
vfmadd231ps 0x236a15(%rip), %ymm0, %ymm5 # ymm5 = (ymm0 * mem) + ymm5
vsubps %ymm5, %ymm3, %ymm7
vmulps %ymm5, %ymm2, %ymm1
vmovaps %ymm2, %ymm15
vmulps %ymm5, %ymm4, %ymm2
vmovaps %ymm3, %ymm0
vmulps %ymm5, %ymm17, %ymm3
vmovaps %ymm4, %ymm16
vmulps %ymm5, %ymm18, %ymm4
vfmadd231ps %ymm9, %ymm7, %ymm1 # ymm1 = (ymm7 * ymm9) + ymm1
vfmadd231ps %ymm12, %ymm7, %ymm2 # ymm2 = (ymm7 * ymm12) + ymm2
vfmadd231ps %ymm23, %ymm7, %ymm3 # ymm3 = (ymm7 * ymm23) + ymm3
vfmadd231ps %ymm14, %ymm7, %ymm4 # ymm4 = (ymm7 * ymm14) + ymm4
vmulps %ymm5, %ymm19, %ymm8
vmulps %ymm5, %ymm20, %ymm9
vmulps %ymm5, %ymm22, %ymm10
vmulps %ymm5, %ymm24, %ymm11
vfmadd231ps %ymm15, %ymm7, %ymm8 # ymm8 = (ymm7 * ymm15) + ymm8
vfmadd231ps %ymm16, %ymm7, %ymm9 # ymm9 = (ymm7 * ymm16) + ymm9
vfmadd231ps %ymm17, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm17) + ymm10
vfmadd231ps %ymm18, %ymm7, %ymm11 # ymm11 = (ymm7 * ymm18) + ymm11
vmulps %ymm5, %ymm27, %ymm12
vmulps %ymm5, %ymm25, %ymm13
vmulps %ymm5, %ymm29, %ymm14
vmulps %ymm5, %ymm26, %ymm15
vfmadd231ps %ymm19, %ymm7, %ymm12 # ymm12 = (ymm7 * ymm19) + ymm12
vfmadd231ps %ymm20, %ymm7, %ymm13 # ymm13 = (ymm7 * ymm20) + ymm13
vfmadd231ps %ymm22, %ymm7, %ymm14 # ymm14 = (ymm7 * ymm22) + ymm14
vfmadd231ps %ymm24, %ymm7, %ymm15 # ymm15 = (ymm7 * ymm24) + ymm15
vmulps %ymm8, %ymm5, %ymm16
vmulps %ymm9, %ymm5, %ymm17
vmulps %ymm10, %ymm5, %ymm18
vmulps %ymm11, %ymm5, %ymm19
vfmadd231ps %ymm1, %ymm7, %ymm16 # ymm16 = (ymm7 * ymm1) + ymm16
vfmadd231ps %ymm2, %ymm7, %ymm17 # ymm17 = (ymm7 * ymm2) + ymm17
vfmadd231ps %ymm3, %ymm7, %ymm18 # ymm18 = (ymm7 * ymm3) + ymm18
vfmadd231ps %ymm4, %ymm7, %ymm19 # ymm19 = (ymm7 * ymm4) + ymm19
vmulps %ymm5, %ymm12, %ymm1
vmulps %ymm5, %ymm13, %ymm12
vmulps %ymm5, %ymm14, %ymm13
vmulps %ymm5, %ymm15, %ymm14
vfmadd231ps %ymm8, %ymm7, %ymm1 # ymm1 = (ymm7 * ymm8) + ymm1
vfmadd231ps %ymm9, %ymm7, %ymm12 # ymm12 = (ymm7 * ymm9) + ymm12
vfmadd231ps %ymm10, %ymm7, %ymm13 # ymm13 = (ymm7 * ymm10) + ymm13
vfmadd231ps %ymm11, %ymm7, %ymm14 # ymm14 = (ymm7 * ymm11) + ymm14
vmulps %ymm1, %ymm5, %ymm4
vmulps %ymm5, %ymm12, %ymm3
vmulps %ymm13, %ymm5, %ymm29
vmulps %ymm5, %ymm14, %ymm5
vfmadd231ps %ymm16, %ymm7, %ymm4 # ymm4 = (ymm7 * ymm16) + ymm4
vfmadd231ps %ymm17, %ymm7, %ymm3 # ymm3 = (ymm7 * ymm17) + ymm3
vfmadd231ps %ymm18, %ymm7, %ymm29 # ymm29 = (ymm7 * ymm18) + ymm29
vfmadd231ps %ymm7, %ymm19, %ymm5 # ymm5 = (ymm19 * ymm7) + ymm5
vsubps %ymm16, %ymm1, %ymm1
vsubps %ymm17, %ymm12, %ymm7
vsubps %ymm18, %ymm13, %ymm8
vsubps %ymm19, %ymm14, %ymm9
vbroadcastss 0x2069a8(%rip), %ymm10 # 0x1ef0fec
vmulps %ymm1, %ymm10, %ymm1
vmulps %ymm7, %ymm10, %ymm7
vmulps %ymm10, %ymm8, %ymm8
vmulps %ymm10, %ymm9, %ymm9
vbroadcastss %xmm6, %ymm6
vmulps %ymm1, %ymm6, %ymm11
vmulps %ymm7, %ymm6, %ymm12
vmulps %ymm6, %ymm8, %ymm13
vmulps %ymm6, %ymm9, %ymm6
vmovaps %ymm4, %ymm8
vmovaps 0x2756a9(%rip), %ymm7 # 0x1f5fd20
vxorps %xmm31, %xmm31, %xmm31
vpermt2ps %ymm31, %ymm7, %ymm8
vmovaps %ymm3, %ymm9
vpermt2ps %ymm31, %ymm7, %ymm9
vmovaps %ymm29, %ymm10
vpermt2ps %ymm31, %ymm7, %ymm10
vaddps %ymm6, %ymm5, %ymm1
vmaxps %ymm1, %ymm5, %ymm14
vminps %ymm1, %ymm5, %ymm1
vmovaps %ymm5, %ymm15
vpermt2ps %ymm31, %ymm7, %ymm15
vmovaps %ymm11, %ymm19
vpermt2ps %ymm31, %ymm7, %ymm19
vmovaps %ymm12, %ymm20
vpermt2ps %ymm31, %ymm7, %ymm20
vmovaps %ymm13, %ymm2
vpermt2ps %ymm31, %ymm7, %ymm2
vpermt2ps %ymm31, %ymm7, %ymm6
vsubps %ymm6, %ymm15, %ymm16
vsubps %ymm4, %ymm8, %ymm7
vsubps %ymm3, %ymm9, %ymm6
vsubps %ymm29, %ymm10, %ymm5
vmulps %ymm13, %ymm6, %ymm17
vfmsub231ps %ymm5, %ymm12, %ymm17 # ymm17 = (ymm12 * ymm5) - ymm17
vmulps %ymm11, %ymm5, %ymm18
vfmsub231ps %ymm7, %ymm13, %ymm18 # ymm18 = (ymm13 * ymm7) - ymm18
vmulps %ymm12, %ymm7, %ymm22
vfmsub231ps %ymm6, %ymm11, %ymm22 # ymm22 = (ymm11 * ymm6) - ymm22
vmulps %ymm22, %ymm22, %ymm22
vfmadd231ps %ymm18, %ymm18, %ymm22 # ymm22 = (ymm18 * ymm18) + ymm22
vfmadd231ps %ymm17, %ymm17, %ymm22 # ymm22 = (ymm17 * ymm17) + ymm22
vmulps %ymm5, %ymm5, %ymm17
vfmadd231ps %ymm6, %ymm6, %ymm17 # ymm17 = (ymm6 * ymm6) + ymm17
vfmadd231ps %ymm7, %ymm7, %ymm17 # ymm17 = (ymm7 * ymm7) + ymm17
vrcp14ps %ymm17, %ymm18
vmovaps %ymm18, %ymm23
vfnmadd213ps %ymm0, %ymm17, %ymm23 # ymm23 = -(ymm17 * ymm23) + ymm0
vfmadd132ps %ymm18, %ymm18, %ymm23 # ymm23 = (ymm23 * ymm18) + ymm18
vmulps %ymm23, %ymm22, %ymm18
vmulps %ymm2, %ymm6, %ymm22
vfmsub231ps %ymm5, %ymm20, %ymm22 # ymm22 = (ymm20 * ymm5) - ymm22
vmulps %ymm19, %ymm5, %ymm24
vfmsub231ps %ymm7, %ymm2, %ymm24 # ymm24 = (ymm2 * ymm7) - ymm24
vmulps %ymm20, %ymm7, %ymm25
vfmsub231ps %ymm6, %ymm19, %ymm25 # ymm25 = (ymm19 * ymm6) - ymm25
vmulps %ymm25, %ymm25, %ymm25
vfmadd231ps %ymm24, %ymm24, %ymm25 # ymm25 = (ymm24 * ymm24) + ymm25
vfmadd231ps %ymm22, %ymm22, %ymm25 # ymm25 = (ymm22 * ymm22) + ymm25
vmulps %ymm23, %ymm25, %ymm22
vmaxps %ymm22, %ymm18, %ymm18
vsqrtps %ymm18, %ymm18
vmaxps %ymm15, %ymm16, %ymm22
vmaxps %ymm22, %ymm14, %ymm14
vaddps %ymm14, %ymm18, %ymm14
vminps %ymm15, %ymm16, %ymm15
vminps %ymm15, %ymm1, %ymm1
vsubps %ymm18, %ymm1, %ymm1
vmulps 0x20617a(%rip){1to8}, %ymm14, %ymm14 # 0x1ef0940
vmulps 0x206174(%rip){1to8}, %ymm1, %ymm1 # 0x1ef0944
vmovaps %ymm1, 0x80(%rsp)
vmulps %ymm14, %ymm14, %ymm1
vrsqrt14ps %ymm17, %ymm15
vmulps 0x201f2e(%rip){1to8}, %ymm17, %ymm14 # 0x1eec71c
vmulps %ymm14, %ymm15, %ymm14
vmulps %ymm15, %ymm15, %ymm16
vmulps %ymm14, %ymm16, %ymm14
vfmadd231ps 0x201f0f(%rip){1to8}, %ymm15, %ymm14 # ymm14 = (ymm15 * mem) + ymm14
vmulps %ymm7, %ymm14, %ymm15
vmulps %ymm14, %ymm6, %ymm16
vmulps %ymm14, %ymm5, %ymm18
vsubps %ymm4, %ymm31, %ymm27
vsubps %ymm3, %ymm31, %ymm28
vmovaps %ymm29, 0x5a0(%rsp)
vsubps %ymm29, %ymm31, %ymm29
vmovaps 0x5c0(%rsp), %ymm17
vmulps %ymm29, %ymm17, %ymm22
vfmadd231ps %ymm28, %ymm21, %ymm22 # ymm22 = (ymm21 * ymm28) + ymm22
vfmadd231ps %ymm27, %ymm30, %ymm22 # ymm22 = (ymm30 * ymm27) + ymm22
vmulps %ymm29, %ymm29, %ymm24
vfmadd231ps %ymm28, %ymm28, %ymm24 # ymm24 = (ymm28 * ymm28) + ymm24
vfmadd231ps %ymm27, %ymm27, %ymm24 # ymm24 = (ymm27 * ymm27) + ymm24
vmulps %ymm18, %ymm17, %ymm17
vfmadd231ps %ymm21, %ymm16, %ymm17 # ymm17 = (ymm16 * ymm21) + ymm17
vfmadd231ps %ymm30, %ymm15, %ymm17 # ymm17 = (ymm15 * ymm30) + ymm17
vmulps %ymm18, %ymm29, %ymm18
vfmadd231ps %ymm16, %ymm28, %ymm18 # ymm18 = (ymm28 * ymm16) + ymm18
vfmadd231ps %ymm15, %ymm27, %ymm18 # ymm18 = (ymm27 * ymm15) + ymm18
vmulps %ymm17, %ymm17, %ymm26
vmovaps 0x900(%rsp), %ymm21
vsubps %ymm26, %ymm21, %ymm15
vmulps %ymm18, %ymm17, %ymm25
vsubps %ymm25, %ymm22, %ymm22
vaddps %ymm22, %ymm22, %ymm22
vmulps %ymm18, %ymm18, %ymm25
vsubps %ymm25, %ymm24, %ymm25
vsubps %ymm1, %ymm25, %ymm1
vmulps %ymm22, %ymm22, %ymm16
vmulps 0x2022c1(%rip){1to8}, %ymm15, %ymm23 # 0x1eecb8c
vmovaps %ymm23, 0x400(%rsp)
vmulps %ymm1, %ymm23, %ymm30
vmovaps %ymm16, 0x60(%rsp)
vsubps %ymm30, %ymm16, %ymm30
vcmpnltps %ymm31, %ymm30, %k1
kmovd %k1, %eax
kortestb %k1, %k1
je 0x1ceaa12
vsqrtps %ymm30, %ymm30
vaddps %ymm15, %ymm15, %ymm31
vrcp14ps %ymm31, %ymm23
vfnmadd213ps %ymm0, %ymm23, %ymm31 # ymm31 = -(ymm23 * ymm31) + ymm0
vfmadd132ps %ymm23, %ymm23, %ymm31 # ymm31 = (ymm31 * ymm23) + ymm23
vxorps 0x23659c(%rip){1to8}, %ymm22, %ymm23 # 0x1f20ec0
vsubps %ymm30, %ymm23, %ymm23
vmulps %ymm31, %ymm23, %ymm23
vsubps %ymm22, %ymm30, %ymm30
vmulps %ymm31, %ymm30, %ymm31
vmovaps %ymm17, %ymm30
vfmadd213ps %ymm18, %ymm23, %ymm30 # ymm30 = (ymm23 * ymm30) + ymm18
vmulps %ymm30, %ymm14, %ymm30
vmovaps %ymm30, 0x660(%rsp)
vmovaps %ymm17, %ymm30
vfmadd213ps %ymm18, %ymm31, %ymm30 # ymm30 = (ymm31 * ymm30) + ymm18
vmulps %ymm30, %ymm14, %ymm30
vmovaps %ymm30, 0x640(%rsp)
vbroadcastss 0x2010a7(%rip), %ymm0 # 0x1eeba20
vblendmps %ymm23, %ymm0, %ymm30 {%k1}
vbroadcastss 0x2021fc(%rip), %ymm0 # 0x1eecb84
vblendmps %ymm31, %ymm0, %ymm31 {%k1}
vbroadcastss 0x23652d(%rip), %ymm0 # 0x1f20ec4
vandps %ymm0, %ymm26, %ymm23
vmovaps 0x700(%rsp), %ymm21
vmaxps %ymm23, %ymm21, %ymm23
vmulps 0x2074ff(%rip){1to8}, %ymm23, %ymm23 # 0x1ef1eb4
vandps %ymm0, %ymm15, %ymm0
vcmpltps %ymm23, %ymm0, %k1 {%k1}
kortestb %k1, %k1
je 0x1ceaa26
vcmpleps 0x23652f(%rip), %ymm1, %k2 # 0x1f20f00
vbroadcastss 0x2021aa(%rip), %ymm1 # 0x1eecb84
vbroadcastss 0x20103c(%rip), %ymm23 # 0x1eeba20
vblendmps %ymm1, %ymm23, %ymm0 {%k2}
vmovaps %ymm0, %ymm30 {%k1}
vblendmps %ymm23, %ymm1, %ymm0 {%k2}
kmovd %k2, %ecx
vmovaps %ymm0, %ymm31 {%k1}
knotb %k1, %k0
kmovd %k0, %esi
orb %cl, %sil
andb %al, %sil
movl %esi, %eax
jmp 0x1ceaa26
vbroadcastss 0x201004(%rip), %ymm30 # 0x1eeba20
vbroadcastss 0x20215e(%rip), %ymm31 # 0x1eecb84
andb $0x7f, %al
je 0x1ceae50
vmovaps %ymm25, 0x580(%rsp)
vmovaps %ymm26, 0x3e0(%rsp)
movq 0x10(%rsp), %rcx
vmovss 0x100(%rcx,%rdx,4), %xmm0
vsubss 0x470(%rsp), %xmm0, %xmm0
vbroadcastss %xmm0, %ymm0
vminps %ymm31, %ymm0, %ymm0
vmovaps 0x8e0(%rsp), %ymm1
vmaxps %ymm30, %ymm1, %ymm1
vmulps %ymm13, %ymm29, %ymm23
vfmadd213ps %ymm23, %ymm12, %ymm28 # ymm28 = (ymm12 * ymm28) + ymm23
vfmadd213ps %ymm28, %ymm11, %ymm27 # ymm27 = (ymm11 * ymm27) + ymm28
vmovaps 0x5c0(%rsp), %ymm21
vmulps %ymm13, %ymm21, %ymm13
vmovaps 0x1e0(%rsp), %ymm24
vfmadd231ps %ymm12, %ymm24, %ymm13 # ymm13 = (ymm24 * ymm12) + ymm13
vmovaps 0x200(%rsp), %ymm16
vfmadd231ps %ymm11, %ymm16, %ymm13 # ymm13 = (ymm16 * ymm11) + ymm13
vbroadcastss 0x23640f(%rip), %ymm28 # 0x1f20ec4
vandps %ymm28, %ymm13, %ymm11
vbroadcastss 0x206523(%rip), %ymm29 # 0x1ef0fe8
vcmpltps %ymm29, %ymm11, %k0
vbroadcastss 0x2363ea(%rip), %ymm31 # 0x1f20ec0
vxorps %ymm31, %ymm27, %ymm11
vrcp14ps %ymm13, %ymm12
vxorps %ymm31, %ymm13, %ymm23
vmovaps %ymm12, %ymm27
vbroadcastss 0x201c1c(%rip), %ymm30 # 0x1eec714
vfnmadd213ps %ymm30, %ymm13, %ymm27 # ymm27 = -(ymm13 * ymm27) + ymm30
vfmadd132ps %ymm12, %ymm12, %ymm27 # ymm27 = (ymm27 * ymm12) + ymm12
vmulps %ymm11, %ymm27, %ymm11
vcmpltps %ymm23, %ymm13, %k1
korb %k1, %k0, %k1
vbroadcastss 0x202065(%rip), %ymm27 # 0x1eecb84
vblendmps %ymm27, %ymm11, %ymm12 {%k1}
vmaxps %ymm12, %ymm1, %ymm1
vcmpnleps %ymm23, %ymm13, %k1
korb %k1, %k0, %k1
vbroadcastss 0x200ee1(%rip), %ymm26 # 0x1eeba20
vmovaps %ymm26, %ymm11 {%k1}
vminps %ymm11, %ymm0, %ymm0
vxorps %xmm13, %xmm13, %xmm13
vsubps %ymm8, %ymm13, %ymm8
vsubps %ymm9, %ymm13, %ymm9
vsubps %ymm10, %ymm13, %ymm10
vmulps %ymm2, %ymm10, %ymm10
vfnmsub231ps %ymm9, %ymm20, %ymm10 # ymm10 = -(ymm20 * ymm9) - ymm10
vfnmadd231ps %ymm8, %ymm19, %ymm10 # ymm10 = -(ymm19 * ymm8) + ymm10
vmulps %ymm2, %ymm21, %ymm8
vfnmsub231ps %ymm20, %ymm24, %ymm8 # ymm8 = -(ymm24 * ymm20) - ymm8
vfnmadd231ps %ymm19, %ymm16, %ymm8 # ymm8 = -(ymm16 * ymm19) + ymm8
vandps %ymm28, %ymm8, %ymm9
vcmpltps %ymm29, %ymm9, %k0
vxorps %ymm31, %ymm10, %ymm9
vrcp14ps %ymm8, %ymm10
vxorps %ymm31, %ymm8, %ymm11
vmovaps %ymm10, %ymm12
vfnmadd213ps %ymm30, %ymm8, %ymm12 # ymm12 = -(ymm8 * ymm12) + ymm30
vfmadd132ps %ymm10, %ymm10, %ymm12 # ymm12 = (ymm12 * ymm10) + ymm10
vmulps %ymm9, %ymm12, %ymm9
vcmpltps %ymm11, %ymm8, %k1
korb %k1, %k0, %k1
vblendmps %ymm27, %ymm9, %ymm10 {%k1}
vmaxps %ymm10, %ymm1, %ymm1
vcmpnleps %ymm11, %ymm8, %k1
korb %k1, %k0, %k1
vmovaps %ymm26, %ymm9 {%k1}
vminps %ymm9, %ymm0, %ymm8
vmovaps %ymm1, 0x560(%rsp)
vcmpleps %ymm8, %ymm1, %k0
kmovd %k0, %ecx
andb %cl, %al
je 0x1ceae65
vmovaps 0x660(%rsp), %ymm0
vmaxps 0x80(%rsp), %ymm13, %ymm1
vminps %ymm30, %ymm0, %ymm0
vxorps %xmm10, %xmm10, %xmm10
vmaxps %ymm10, %ymm0, %ymm0
vmovaps 0x640(%rsp), %ymm9
vminps %ymm30, %ymm9, %ymm9
vmovaps 0x23630b(%rip), %ymm11 # 0x1f20f40
vaddps %ymm0, %ymm11, %ymm0
vbroadcastss 0x233876(%rip), %ymm12 # 0x1f1e4b8
vmulps %ymm0, %ymm12, %ymm0
vmovaps 0x40(%rsp), %ymm2
vmovaps 0x340(%rsp), %ymm16
vfmadd213ps %ymm2, %ymm16, %ymm0 # ymm0 = (ymm16 * ymm0) + ymm2
vmovaps %ymm0, 0x660(%rsp)
vmaxps %ymm10, %ymm9, %ymm0
vaddps %ymm0, %ymm11, %ymm0
vmulps %ymm0, %ymm12, %ymm0
vfmadd213ps %ymm2, %ymm16, %ymm0 # ymm0 = (ymm16 * ymm0) + ymm2
vmovaps %ymm0, 0x640(%rsp)
vmulps %ymm1, %ymm1, %ymm0
vmovaps 0x580(%rsp), %ymm1
vsubps %ymm0, %ymm1, %ymm11
vmulps 0x400(%rsp), %ymm11, %ymm0
vmovaps 0x60(%rsp), %ymm1
vsubps %ymm0, %ymm1, %ymm0
vcmpnltps %ymm10, %ymm0, %k0
kortestb %k0, %k0
vmovaps 0x280(%rsp), %ymm27
vmovaps 0x260(%rsp), %ymm29
vmovaps 0x240(%rsp), %ymm16
je 0x1ceaefd
vxorps %xmm20, %xmm20, %xmm20
vcmpnltps %ymm13, %ymm0, %k1
vsqrtps %ymm0, %ymm0
vaddps %ymm15, %ymm15, %ymm1
vrcp14ps %ymm1, %ymm9
vfnmadd213ps %ymm30, %ymm9, %ymm1 # ymm1 = -(ymm9 * ymm1) + ymm30
vfmadd132ps %ymm9, %ymm9, %ymm1 # ymm1 = (ymm1 * ymm9) + ymm9
vxorps 0x2361c3(%rip){1to8}, %ymm22, %ymm9 # 0x1f20ec0
vsubps %ymm0, %ymm9, %ymm9
vmulps %ymm1, %ymm9, %ymm12
vsubps %ymm22, %ymm0, %ymm0
vmulps %ymm1, %ymm0, %ymm13
vmovaps %ymm17, %ymm0
vfmadd213ps %ymm18, %ymm12, %ymm0 # ymm0 = (ymm12 * ymm0) + ymm18
vmulps %ymm0, %ymm14, %ymm9
vmovaps 0x200(%rsp), %ymm30
vmulps %ymm12, %ymm30, %ymm0
vmovaps 0x1e0(%rsp), %ymm21
vmulps %ymm12, %ymm21, %ymm1
vmovaps 0x5c0(%rsp), %ymm26
vmulps %ymm12, %ymm26, %ymm10
vmovaps %ymm7, %ymm19
vfmadd213ps %ymm4, %ymm9, %ymm19 # ymm19 = (ymm9 * ymm19) + ymm4
vsubps %ymm19, %ymm0, %ymm0
vmovaps %ymm6, %ymm19
vfmadd213ps %ymm3, %ymm9, %ymm19 # ymm19 = (ymm9 * ymm19) + ymm3
vsubps %ymm19, %ymm1, %ymm1
vmovaps 0x5a0(%rsp), %ymm2
vfmadd213ps %ymm2, %ymm5, %ymm9 # ymm9 = (ymm5 * ymm9) + ymm2
vsubps %ymm9, %ymm10, %ymm9
vfmadd213ps %ymm18, %ymm13, %ymm17 # ymm17 = (ymm13 * ymm17) + ymm18
vmulps %ymm17, %ymm14, %ymm14
vmulps %ymm13, %ymm30, %ymm10
vmulps %ymm13, %ymm21, %ymm17
vmulps %ymm13, %ymm26, %ymm18
vfmadd213ps %ymm4, %ymm14, %ymm7 # ymm7 = (ymm14 * ymm7) + ymm4
vsubps %ymm7, %ymm10, %ymm10
vfmadd213ps %ymm3, %ymm14, %ymm6 # ymm6 = (ymm14 * ymm6) + ymm3
vsubps %ymm6, %ymm17, %ymm3
vfmadd213ps %ymm2, %ymm14, %ymm5 # ymm5 = (ymm14 * ymm5) + ymm2
vsubps %ymm5, %ymm18, %ymm5
vbroadcastss 0x200c5a(%rip), %ymm2 # 0x1eeba20
vblendmps %ymm12, %ymm2, %ymm4 {%k1}
vbroadcastss 0x201daf(%rip), %ymm2 # 0x1eecb84
vblendmps %ymm13, %ymm2, %ymm2 {%k1}
vandps 0x3e0(%rsp), %ymm28, %ymm6
vmovaps 0x700(%rsp), %ymm7
vmaxps %ymm6, %ymm7, %ymm6
vmulps 0x2070ba(%rip){1to8}, %ymm6, %ymm6 # 0x1ef1eb4
vandps %ymm28, %ymm15, %ymm7
vcmpltps %ymm6, %ymm7, %k1 {%k1}
kortestb %k1, %k1
jne 0x1ceca17
vmovaps 0x1c0(%rsp), %ymm12
vmovaps 0x1a0(%rsp), %ymm23
vmovaps 0x180(%rsp), %ymm14
vmovaps 0x160(%rsp), %ymm17
vmovaps 0x140(%rsp), %ymm18
vmovaps 0x120(%rsp), %ymm22
vmovaps 0x100(%rsp), %ymm25
jmp 0x1ceaf76
vbroadcastss 0x23606a(%rip), %ymm28 # 0x1f20ec4
vbroadcastss 0x2018b1(%rip), %ymm3 # 0x1eec714
jmp 0x1ceae6b
vmovaps %ymm30, %ymm3
vmovaps 0x200(%rsp), %ymm30
vmovaps 0x1e0(%rsp), %ymm21
vmovaps 0x220(%rsp), %ymm9
vmovaps 0x1c0(%rsp), %ymm12
vmovaps 0x1a0(%rsp), %ymm23
vmovaps 0x180(%rsp), %ymm14
vmovaps 0x4c0(%rsp), %ymm2
vmovaps 0x320(%rsp), %ymm4
vmovaps 0x160(%rsp), %ymm17
vmovaps 0x140(%rsp), %ymm18
vmovaps 0x3c0(%rsp), %ymm19
vmovaps 0x3a0(%rsp), %ymm20
vmovaps 0x120(%rsp), %ymm22
vmovaps 0x280(%rsp), %ymm27
vmovaps 0x100(%rsp), %ymm25
vmovaps 0x260(%rsp), %ymm29
vmovaps 0x240(%rsp), %ymm16
jmp 0x1cec8e1
vxorps %xmm3, %xmm3, %xmm3
vxorps %xmm5, %xmm5, %xmm5
vxorps %xmm0, %xmm0, %xmm0
vxorps %xmm1, %xmm1, %xmm1
vxorps %xmm9, %xmm9, %xmm9
vbroadcastss 0x200b05(%rip), %ymm4 # 0x1eeba20
vbroadcastss 0x201c60(%rip), %ymm2 # 0x1eecb84
vmovaps 0x200(%rsp), %ymm30
vmovaps 0x1e0(%rsp), %ymm21
vmovaps 0x1c0(%rsp), %ymm12
vmovaps 0x1a0(%rsp), %ymm23
vmovaps 0x180(%rsp), %ymm14
vmovaps 0x160(%rsp), %ymm17
vmovaps 0x140(%rsp), %ymm18
vmovaps 0x120(%rsp), %ymm22
vmovaps 0x100(%rsp), %ymm25
vmovaps 0x5c0(%rsp), %ymm26
vmulps %ymm5, %ymm26, %ymm5
vfmadd231ps %ymm3, %ymm21, %ymm5 # ymm5 = (ymm21 * ymm3) + ymm5
vfmadd231ps %ymm10, %ymm30, %ymm5 # ymm5 = (ymm30 * ymm10) + ymm5
vmovaps 0x560(%rsp), %ymm6
vmovaps %ymm6, 0x920(%rsp)
vminps %ymm4, %ymm8, %ymm3
vmovaps %ymm3, 0x940(%rsp)
vandps %ymm28, %ymm5, %ymm4
vmaxps %ymm2, %ymm6, %ymm5
vmovaps %ymm5, 0x840(%rsp)
vmovaps %ymm8, 0x860(%rsp)
vbroadcastss 0x235f08(%rip), %ymm2 # 0x1f20ed4
vcmpltps %ymm2, %ymm4, %k1
kmovd %k1, 0xf4(%rsp)
vcmpleps %ymm3, %ymm6, %k1
kmovd %k1, %ecx
andb %al, %cl
vmovaps %ymm5, 0x600(%rsp)
vcmpleps %ymm8, %ymm5, %k1
kmovd %k1, %esi
andb %al, %sil
movl %esi, 0x28(%rsp)
movl %esi, %eax
orb %cl, %al
vmovaps 0x3c0(%rsp), %ymm19
vmovaps 0x3a0(%rsp), %ymm20
je 0x1cebba0
movq %r12, 0x2e8(%rsp)
movb %r15b, 0xf(%rsp)
knotb %k0, %k1
vmovaps %ymm2, %ymm3
vmulps %ymm9, %ymm26, %ymm2
vfmadd213ps %ymm2, %ymm21, %ymm1 # ymm1 = (ymm21 * ymm1) + ymm2
vfmadd213ps %ymm1, %ymm30, %ymm0 # ymm0 = (ymm30 * ymm0) + ymm1
vandps %ymm28, %ymm0, %ymm0
vcmpltps %ymm3, %ymm0, %k0
kmovd %k1, 0xec(%rsp)
korb %k1, %k0, %k1
vpbroadcastd 0x235e72(%rip), %ymm0 # 0x1f20edc
vpblendmd 0x235e64(%rip){1to8}, %ymm0, %ymm0 {%k1} # 0x1f20ed8
movq 0xe0(%rsp), %rax
vpbroadcastd %eax, %ymm1
vmovdqa %ymm0, 0x880(%rsp)
vmovdqa %ymm1, 0x6e0(%rsp)
vpcmpnltd %ymm0, %ymm1, %k0
kmovd %k0, %r12d
movl %ecx, 0xf0(%rsp)
andb %cl, %r12b
je 0x1cebbc9
vmovaps 0x540(%rsp), %ymm1
vmovaps 0x500(%rsp), %ymm2
vminps %xmm2, %xmm1, %xmm0
vmaxps %xmm2, %xmm1, %xmm1
vmovaps 0x520(%rsp), %ymm3
vmovaps 0x4e0(%rsp), %ymm4
vminps %xmm4, %xmm3, %xmm2
vminps %xmm2, %xmm0, %xmm0
vmaxps %xmm4, %xmm3, %xmm2
vmaxps %xmm2, %xmm1, %xmm1
vbroadcastss 0x235dd0(%rip), %xmm2 # 0x1f20ec4
vandps %xmm2, %xmm0, %xmm0
vandps %xmm2, %xmm1, %xmm2
vmaxps %xmm2, %xmm0, %xmm0
vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3]
vmaxss %xmm0, %xmm2, %xmm2
vshufpd $0x1, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[1,0]
vmaxss %xmm2, %xmm0, %xmm0
vmulss 0x206d9b(%rip), %xmm0, %xmm0 # 0x1ef1eb4
vmovss %xmm0, 0x30(%rsp)
vshufps $0xff, %xmm1, %xmm1, %xmm0 # xmm0 = xmm1[3,3,3,3]
vmovaps %xmm0, 0x460(%rsp)
vmovaps 0x560(%rsp), %ymm0
vaddps 0x5e0(%rsp), %ymm0, %ymm0
vmovaps %ymm0, 0x620(%rsp)
kmovd %r12d, %k1
vbroadcastss 0x2008ca(%rip), %ymm0 # 0x1eeba20
vblendmps 0x560(%rsp), %ymm0, %ymm0 {%k1}
vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm0, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1]
vminps %ymm2, %ymm1, %ymm1
vcmpeqps %ymm1, %ymm0, %k0
kmovd %k0, %eax
andb %r12b, %al
movzbl %al, %eax
movzbl %r12b, %ecx
cmovnel %eax, %ecx
tzcntl %ecx, %ecx
movb $0x1, %r14b
shlb %cl, %r14b
shll $0x2, %ecx
vmovss 0x660(%rsp,%rcx), %xmm8
vmovss 0x920(%rsp,%rcx), %xmm10
vmovaps 0x370(%rsp), %xmm0
vucomiss 0x200862(%rip), %xmm0 # 0x1eeba24
vmovss 0xf8(%rsp), %xmm0
jae 0x1ceb208
vmovaps 0x370(%rsp), %xmm0
vmovaps %xmm8, 0x80(%rsp)
vmovaps %xmm10, 0x60(%rsp)
kmovw %k1, 0x40(%rsp)
vzeroupper
callq 0x6aa20
kmovw 0x40(%rsp), %k1
vmovaps 0x60(%rsp), %xmm10
vmovaps 0x80(%rsp), %xmm8
movzbl %r14b, %eax
kmovd %eax, %k0
kandnb %k1, %k0, %k0
kmovd %k0, %r12d
vmulss 0x206c94(%rip), %xmm0, %xmm0 # 0x1ef1eb4
vmovss %xmm0, 0x34(%rsp)
movl $0x5, %r15d
vbroadcastss %xmm10, %xmm0
vxorps %xmm1, %xmm1, %xmm1
vfmadd132ps 0x390(%rsp), %xmm1, %xmm0 # xmm0 = (xmm0 * mem) + xmm1
vmovss 0x2014cd(%rip), %xmm1 # 0x1eec714
vsubss %xmm8, %xmm1, %xmm3
vbroadcastss %xmm8, %xmm1
vmovaps 0x500(%rsp), %ymm5
vmulps %xmm1, %xmm5, %xmm2
vmovaps %xmm3, 0x580(%rsp)
vbroadcastss %xmm3, %xmm3
vfmadd231ps 0x540(%rsp), %xmm3, %xmm2 # xmm2 = (xmm3 * mem) + xmm2
vmovaps 0x520(%rsp), %ymm6
vmulps %xmm1, %xmm6, %xmm4
vfmadd231ps %xmm5, %xmm3, %xmm4 # xmm4 = (xmm3 * xmm5) + xmm4
vmulps 0x4e0(%rsp), %xmm1, %xmm5
vfmadd231ps %xmm6, %xmm3, %xmm5 # xmm5 = (xmm3 * xmm6) + xmm5
vmulps %xmm4, %xmm1, %xmm6
vfmadd231ps %xmm2, %xmm3, %xmm6 # xmm6 = (xmm3 * xmm2) + xmm6
vmulps %xmm5, %xmm1, %xmm2
vfmadd231ps %xmm4, %xmm3, %xmm2 # xmm2 = (xmm3 * xmm4) + xmm2
vmulps %xmm2, %xmm1, %xmm4
vfmadd231ps %xmm3, %xmm6, %xmm4 # xmm4 = (xmm6 * xmm3) + xmm4
vsubps %xmm6, %xmm2, %xmm1
vmulps 0x205d2d(%rip){1to4}, %xmm1, %xmm11 # 0x1ef0fec
vmovaps %xmm4, 0x5a0(%rsp)
vsubps %xmm4, %xmm0, %xmm0
vmovaps %xmm0, 0x340(%rsp)
vdpps $0x7f, %xmm0, %xmm0, %xmm0
vucomiss 0x200741(%rip), %xmm0 # 0x1eeba24
vmovaps %xmm11, 0x40(%rsp)
vmovaps %xmm0, 0x400(%rsp)
vmovaps %xmm8, 0x80(%rsp)
vmovaps %xmm10, 0x60(%rsp)
jb 0x1ceb309
vsqrtss %xmm0, %xmm0, %xmm7
jmp 0x1ceb31b
vzeroupper
callq 0x6aa20
vmovaps 0x40(%rsp), %xmm11
vmovaps %xmm0, %xmm7
vdpps $0x7f, %xmm11, %xmm11, %xmm0
vxorps %xmm1, %xmm1, %xmm1
vmovss %xmm0, %xmm1, %xmm2 # xmm2 = xmm0[0],xmm1[1,2,3]
vrsqrt14ss %xmm2, %xmm1, %xmm3
vmulss 0x2013e1(%rip), %xmm3, %xmm4 # 0x1eec718
vmulss 0x2013dd(%rip), %xmm0, %xmm5 # 0x1eec71c
vrcp14ss %xmm2, %xmm1, %xmm2
vxorps 0x235b71(%rip){1to4}, %xmm0, %xmm1 # 0x1f20ec0
vmovaps %xmm2, 0x4a0(%rsp)
vfnmadd213ss 0x205c97(%rip), %xmm0, %xmm2 # xmm2 = -(xmm0 * xmm2) + mem
vmovss %xmm2, 0x2c0(%rsp)
vucomiss %xmm1, %xmm0
vmovss %xmm7, 0x3e0(%rsp)
vmovaps %xmm0, 0x4b0(%rsp)
jb 0x1ceb388
vsqrtss %xmm0, %xmm0, %xmm0
jmp 0x1ceb3d5
vmovaps %xmm3, 0xc0(%rsp)
vmovss %xmm4, 0xb0(%rsp)
vmovss %xmm5, 0x2b0(%rsp)
vzeroupper
callq 0x6aa20
vmovss 0x2b0(%rsp), %xmm5
vmovss 0xb0(%rsp), %xmm4
vmovaps 0xc0(%rsp), %xmm3
vmovss 0x3e0(%rsp), %xmm7
vmovaps 0x40(%rsp), %xmm11
vmovss %xmm0, 0x380(%rsp)
vmovaps 0x340(%rsp), %xmm15
vmulss %xmm3, %xmm5, %xmm0
vmulss %xmm3, %xmm3, %xmm1
vmulss %xmm1, %xmm0, %xmm0
vaddss %xmm0, %xmm4, %xmm0
vbroadcastss %xmm0, %xmm13
vmulps %xmm13, %xmm11, %xmm0
vmovaps %xmm0, 0x490(%rsp)
vdpps $0x7f, %xmm0, %xmm15, %xmm0
vaddss 0x2012fa(%rip), %xmm7, %xmm31 # 0x1eec714
vmovaps %xmm0, 0xc0(%rsp)
vmulps %xmm0, %xmm0, %xmm0
vmovaps 0x400(%rsp), %xmm1
vsubps %xmm0, %xmm1, %xmm0
vxorps %xmm2, %xmm2, %xmm2
vmovss %xmm0, %xmm2, %xmm1 # xmm1 = xmm0[0],xmm2[1,2,3]
vrsqrt14ss %xmm1, %xmm2, %xmm1
vmovaps %xmm1, 0xb0(%rsp)
vmulss 0x2012c5(%rip), %xmm1, %xmm1 # 0x1eec718
vmovss %xmm1, 0x2b0(%rsp)
vmulss 0x2012b8(%rip), %xmm0, %xmm1 # 0x1eec71c
vmovss %xmm1, 0x38(%rsp)
vucomiss 0x2005b2(%rip), %xmm0 # 0x1eeba24
jb 0x1ceb47a
vsqrtss %xmm0, %xmm0, %xmm0
jmp 0x1ceb4bc
vmovss %xmm31, 0x2c(%rsp)
vmovaps %xmm13, 0x480(%rsp)
vzeroupper
callq 0x6aa20
vmovaps 0x480(%rsp), %xmm13
vmovss 0x3e0(%rsp), %xmm7
vmovss 0x2c(%rsp), %xmm31
vmovaps 0x340(%rsp), %xmm15
vmovaps 0x40(%rsp), %xmm11
vbroadcastss 0x2359fe(%rip), %ymm26 # 0x1f20ec4
vmovaps 0x200(%rsp), %ymm30
vmovaps 0x1e0(%rsp), %ymm21
vmovaps 0x220(%rsp), %ymm9
vmovaps 0x1c0(%rsp), %ymm12
vmovaps 0x1a0(%rsp), %ymm17
vmovaps 0x180(%rsp), %ymm20
vmovaps 0x160(%rsp), %ymm18
vmovaps 0x140(%rsp), %ymm22
vmovaps 0x120(%rsp), %ymm25
vmovaps 0x280(%rsp), %ymm27
vmovaps 0x100(%rsp), %ymm19
vmovaps 0x260(%rsp), %ymm29
vmovaps 0x240(%rsp), %ymm16
vmovaps 0x80(%rsp), %xmm8
vmovaps 0x60(%rsp), %xmm10
vmovss 0x205495(%rip), %xmm3 # 0x1ef09dc
vmovaps %xmm3, %xmm1
vmovaps 0x580(%rsp), %xmm5
vfmadd213ss %xmm5, %xmm8, %xmm1 # xmm1 = (xmm8 * xmm1) + xmm5
vmovss 0x205a93(%rip), %xmm4 # 0x1ef0ff4
vmulss %xmm4, %xmm1, %xmm1
vmulss %xmm4, %xmm8, %xmm2
vbroadcastss %xmm2, %xmm2
vmulps 0x4e0(%rsp), %xmm2, %xmm2
vbroadcastss %xmm1, %xmm1
vfmadd132ps 0x520(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2
vmovaps %xmm3, %xmm2
vfmadd213ss %xmm8, %xmm5, %xmm2 # xmm2 = (xmm5 * xmm2) + xmm8
vmulss %xmm4, %xmm2, %xmm2
vbroadcastss %xmm2, %xmm2
vfmadd132ps 0x500(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1
vmulss %xmm4, %xmm5, %xmm1
vbroadcastss %xmm1, %xmm1
vfmadd132ps 0x540(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2
vbroadcastss 0x4b0(%rsp), %xmm2
vmulps %xmm2, %xmm1, %xmm2
vdpps $0x7f, %xmm1, %xmm11, %xmm1
vbroadcastss %xmm1, %xmm1
vmulps %xmm1, %xmm11, %xmm1
vsubps %xmm1, %xmm2, %xmm2
vmovss 0x2c0(%rsp), %xmm1
vmulss 0x4a0(%rsp), %xmm1, %xmm3
vmulss 0x34(%rsp), %xmm10, %xmm1
vmovss 0x30(%rsp), %xmm6
vmaxss %xmm1, %xmm6, %xmm1
vbroadcastss %xmm3, %xmm3
vmulps %xmm3, %xmm2, %xmm2
vxorps 0x2358b5(%rip){1to4}, %xmm11, %xmm3 # 0x1f20ec0
vmulps %xmm2, %xmm13, %xmm2
vmovaps 0x490(%rsp), %xmm13
vdpps $0x7f, %xmm13, %xmm3, %xmm4
vdivss 0x380(%rsp), %xmm6, %xmm5
vfmadd213ss %xmm1, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm7) + xmm1
vdpps $0x7f, %xmm2, %xmm15, %xmm2
vfmadd213ss %xmm7, %xmm5, %xmm31 # xmm31 = (xmm5 * xmm31) + xmm7
vaddss %xmm2, %xmm4, %xmm4
vmovaps 0x390(%rsp), %xmm7
vdpps $0x7f, %xmm13, %xmm7, %xmm5
vdpps $0x7f, %xmm3, %xmm15, %xmm3
vmovaps 0xb0(%rsp), %xmm6
vmulss 0x38(%rsp), %xmm6, %xmm2
vmulss %xmm6, %xmm6, %xmm6
vmulss %xmm6, %xmm2, %xmm2
vaddss 0x2b0(%rsp), %xmm2, %xmm6
vdpps $0x7f, %xmm7, %xmm15, %xmm7
vmovaps 0xc0(%rsp), %xmm28
vfnmadd231ss %xmm4, %xmm28, %xmm3 # xmm3 = -(xmm28 * xmm4) + xmm3
vfnmadd231ss %xmm5, %xmm28, %xmm7 # xmm7 = -(xmm28 * xmm5) + xmm7
vpermilps $0xff, 0x5a0(%rsp), %xmm2 # xmm2 = mem[3,3,3,3]
vsubss %xmm2, %xmm0, %xmm2
vshufps $0xff, %xmm11, %xmm11, %xmm0 # xmm0 = xmm11[3,3,3,3]
vfmsub213ss %xmm0, %xmm6, %xmm3 # xmm3 = (xmm6 * xmm3) - xmm0
vmulss %xmm6, %xmm7, %xmm6
vmulss %xmm3, %xmm5, %xmm7
vfmsub231ss %xmm6, %xmm4, %xmm7 # xmm7 = (xmm4 * xmm6) - xmm7
vdivss %xmm7, %xmm6, %xmm6
vdivss %xmm7, %xmm3, %xmm3
vdivss %xmm7, %xmm5, %xmm5
vdivss %xmm7, %xmm4, %xmm4
vmulss %xmm6, %xmm28, %xmm6
vmulss %xmm5, %xmm2, %xmm5
vsubss %xmm5, %xmm6, %xmm5
vmulss %xmm3, %xmm28, %xmm3
vmulss %xmm4, %xmm2, %xmm4
vsubss %xmm3, %xmm4, %xmm3
vsubss %xmm5, %xmm8, %xmm8
vsubss %xmm3, %xmm10, %xmm10
vbroadcastss 0x2357d5(%rip), %xmm4 # 0x1f20ec4
vandps %xmm4, %xmm28, %xmm3
vucomiss %xmm3, %xmm31
movb $0x1, %al
jbe 0x1ceb751
vaddss %xmm31, %xmm1, %xmm1
vmovaps 0x460(%rsp), %xmm3
vfmadd231ss 0x20679d(%rip), %xmm3, %xmm1 # xmm1 = (xmm3 * mem) + xmm1
vandps %xmm4, %xmm2, %xmm2
vucomiss %xmm2, %xmm1
jbe 0x1ceb751
vaddss 0x470(%rsp), %xmm10, %xmm10
vucomiss 0x3c(%rsp), %xmm10
jb 0x1ceb74c
movq 0x18(%rsp), %rax
movq 0x10(%rsp), %rcx
vmovss 0x100(%rcx,%rax,4), %xmm5
vucomiss %xmm10, %xmm5
jae 0x1ceb767
xorl %eax, %eax
xorl %r14d, %r14d
testb %al, %al
je 0x1cebb68
decq %r15
jne 0x1ceb22c
jmp 0x1cebb65
xorl %eax, %eax
vucomiss 0x2002b3(%rip), %xmm8 # 0x1eeba24
jb 0x1ceb74e
vmovss 0x200f99(%rip), %xmm1 # 0x1eec714
vucomiss %xmm8, %xmm1
jb 0x1ceb74e
vxorps %xmm2, %xmm2, %xmm2
vmovaps 0x400(%rsp), %xmm3
vmovss %xmm3, %xmm2, %xmm1 # xmm1 = xmm3[0],xmm2[1,2,3]
vrsqrt14ss %xmm1, %xmm2, %xmm1
vmulss 0x200f77(%rip), %xmm1, %xmm2 # 0x1eec718
vmulss 0x200f73(%rip), %xmm3, %xmm3 # 0x1eec71c
movq 0x20(%rsp), %rdx
movq (%rdx), %rax
movq 0x1e8(%rax), %rax
movq 0xd8(%rsp), %rcx
movq (%rax,%rcx,8), %r14
movq 0x18(%rsp), %rax
movq 0x10(%rsp), %rcx
movl 0x120(%rcx,%rax,4), %eax
testl %eax, 0x34(%r14)
je 0x1ceb74c
movq 0x10(%rdx), %rax
cmpq $0x0, 0x10(%rax)
jne 0x1ceb7fb
cmpq $0x0, 0x48(%r14)
jne 0x1ceb7fb
movb $0x1, %r14b
xorl %eax, %eax
jmp 0x1ceb751
vmulss %xmm1, %xmm3, %xmm3
vmulss %xmm1, %xmm1, %xmm1
vmulss %xmm1, %xmm3, %xmm1
vaddss %xmm1, %xmm2, %xmm1
vbroadcastss %xmm1, %xmm1
vmulps %xmm1, %xmm15, %xmm1
vfmadd213ps %xmm11, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm0) + xmm11
vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm11, %xmm11, %xmm3 # xmm3 = xmm11[1,2,0,3]
vmulps %xmm3, %xmm1, %xmm1
vfmsub231ps %xmm2, %xmm11, %xmm1 # xmm1 = (xmm11 * xmm2) - xmm1
vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3]
vshufps $0xd2, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,0,1,3]
vmulps %xmm1, %xmm0, %xmm0
vfmsub231ps %xmm3, %xmm2, %xmm0 # xmm0 = (xmm2 * xmm3) - xmm0
movq 0x20(%rsp), %rdx
movq 0x8(%rdx), %rax
vbroadcastss %xmm8, %ymm1
vbroadcastss 0x226ea8(%rip), %ymm2 # 0x1f12704
vpermps %ymm0, %ymm2, %ymm2
vbroadcastss 0x235672(%rip), %ymm3 # 0x1f20edc
vpermps %ymm0, %ymm3, %ymm3
vbroadcastss %xmm0, %ymm0
vmovaps %ymm2, 0x720(%rsp)
vmovaps %ymm3, 0x740(%rsp)
vmovaps %ymm0, 0x760(%rsp)
vmovaps %ymm1, 0x780(%rsp)
vxorps %xmm0, %xmm0, %xmm0
vmovaps %ymm0, 0x7a0(%rsp)
vmovaps 0x6c0(%rsp), %ymm0
vmovaps %ymm0, 0x7c0(%rsp)
vmovdqa 0x6a0(%rsp), %ymm0
vmovdqa %ymm0, 0x7e0(%rsp)
movq 0x2d8(%rsp), %rcx
vpcmpeqd %ymm0, %ymm0, %ymm0
vmovdqa %ymm0, 0x20(%rcx)
vmovdqa %ymm0, (%rcx)
vbroadcastss (%rax), %ymm0
vmovaps %ymm0, 0x800(%rsp)
vbroadcastss 0x4(%rax), %ymm0
vmovaps %ymm0, 0x820(%rsp)
movq 0x18(%rsp), %rax
movq 0x10(%rsp), %rcx
vmovss %xmm10, 0x100(%rcx,%rax,4)
vmovaps 0x680(%rsp), %ymm0
vmovaps %ymm0, 0x420(%rsp)
leaq 0x420(%rsp), %rax
movq %rax, 0x2f0(%rsp)
movq 0x18(%r14), %rax
movq %rax, 0x2f8(%rsp)
movq 0x8(%rdx), %rax
movq %rax, 0x300(%rsp)
movq %rcx, 0x308(%rsp)
leaq 0x720(%rsp), %rax
movq %rax, 0x310(%rsp)
movl $0x8, 0x318(%rsp)
movq 0x48(%r14), %rax
testq %rax, %rax
vmovaps %xmm8, 0x80(%rsp)
vmovaps %xmm10, 0x60(%rsp)
vmovss %xmm5, 0x40(%rsp)
je 0x1ceba2c
leaq 0x2f0(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0x40(%rsp), %xmm5
vmovaps 0x60(%rsp), %xmm10
vmovaps 0x80(%rsp), %xmm8
vmovaps 0x240(%rsp), %ymm16
vmovaps 0x260(%rsp), %ymm29
vmovaps 0x100(%rsp), %ymm19
vmovaps 0x280(%rsp), %ymm27
vmovaps 0x120(%rsp), %ymm25
vmovaps 0x140(%rsp), %ymm22
vmovaps 0x160(%rsp), %ymm18
vmovaps 0x180(%rsp), %ymm20
vmovaps 0x1a0(%rsp), %ymm17
vmovaps 0x1c0(%rsp), %ymm12
vmovaps 0x220(%rsp), %ymm9
vmovaps 0x1e0(%rsp), %ymm21
vmovaps 0x200(%rsp), %ymm30
vbroadcastss 0x2354a2(%rip), %xmm4 # 0x1f20ec4
vbroadcastss 0x235498(%rip), %ymm26 # 0x1f20ec4
vmovdqa 0x420(%rsp), %ymm0
vptest %ymm0, %ymm0
je 0x1cebb41
movq 0x20(%rsp), %rax
movq 0x10(%rax), %rcx
movq 0x10(%rcx), %rax
testq %rax, %rax
je 0x1cebb05
testb $0x2, (%rcx)
jne 0x1ceba66
testb $0x40, 0x3e(%r14)
je 0x1cebb05
leaq 0x2f0(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0x40(%rsp), %xmm5
vmovaps 0x60(%rsp), %xmm10
vmovaps 0x80(%rsp), %xmm8
vmovaps 0x240(%rsp), %ymm16
vmovaps 0x260(%rsp), %ymm29
vmovaps 0x100(%rsp), %ymm19
vmovaps 0x280(%rsp), %ymm27
vmovaps 0x120(%rsp), %ymm25
vmovaps 0x140(%rsp), %ymm22
vmovaps 0x160(%rsp), %ymm18
vmovaps 0x180(%rsp), %ymm20
vmovaps 0x1a0(%rsp), %ymm17
vmovaps 0x1c0(%rsp), %ymm12
vmovaps 0x220(%rsp), %ymm9
vmovaps 0x1e0(%rsp), %ymm21
vmovaps 0x200(%rsp), %ymm30
vbroadcastss 0x2353c9(%rip), %xmm4 # 0x1f20ec4
vbroadcastss 0x2353bf(%rip), %ymm26 # 0x1f20ec4
vmovdqa 0x420(%rsp), %ymm0
vptestmd %ymm0, %ymm0, %k1
movq 0x308(%rsp), %rax
vmovaps 0x100(%rax), %ymm1
vbroadcastss 0x201056(%rip), %ymm1 {%k1} # 0x1eecb84
vmovaps %ymm1, 0x100(%rax)
vptest %ymm0, %ymm0
setne %r14b
jmp 0x1cebb44
xorl %r14d, %r14d
testb %r14b, %r14b
jne 0x1ceb7f4
movq 0x18(%rsp), %rax
movq 0x10(%rsp), %rcx
vmovss %xmm5, 0x100(%rcx,%rax,4)
jmp 0x1ceb7f4
xorl %r14d, %r14d
andb $0x1, %r14b
orb %r14b, %r13b
movq 0x18(%rsp), %rdx
movq 0x10(%rsp), %rax
vmovaps 0x620(%rsp), %ymm0
vcmpleps 0x100(%rax,%rdx,4){1to8}, %ymm0, %k0
kmovd %k0, %eax
andb %al, %r12b
vmovaps %ymm26, %ymm28
jne 0x1ceb148
jmp 0x1cebbff
vbroadcastss 0x200b6b(%rip), %ymm3 # 0x1eec714
vmovaps 0x220(%rsp), %ymm9
vmovaps 0x4c0(%rsp), %ymm2
vmovaps 0x320(%rsp), %ymm4
jmp 0x1cec8e1
vmovaps %ymm25, %ymm19
vmovaps %ymm22, %ymm25
vmovaps %ymm18, %ymm22
vmovaps %ymm17, %ymm18
vmovaps %ymm23, %ymm17
vmovaps %ymm14, %ymm20
vbroadcastss 0x2352ce(%rip), %xmm4 # 0x1f20ec4
vmovaps 0x220(%rsp), %ymm9
vmovaps 0x5e0(%rsp), %ymm3
vaddps 0x600(%rsp), %ymm3, %ymm0
movq 0x10(%rsp), %rax
vcmpleps 0x100(%rax,%rdx,4){1to8}, %ymm0, %k0
kmovd 0xf4(%rsp), %k1
kmovd 0xec(%rsp), %k2
korb %k2, %k1, %k1
kmovd %k0, %eax
movl 0x28(%rsp), %ecx
andb %al, %cl
vpbroadcastd 0x235292(%rip), %ymm0 # 0x1f20edc
vpblendmd 0x235284(%rip){1to8}, %ymm0, %ymm0 {%k1} # 0x1f20ed8
vmovdqa %ymm0, 0x600(%rsp)
vpcmpled 0x6e0(%rsp), %ymm0, %k0
kmovd %k0, %r12d
movl %ecx, 0x28(%rsp)
andb %cl, %r12b
je 0x1cec7b6
vmovaps 0x840(%rsp), %ymm7
vmovaps 0x540(%rsp), %ymm1
vmovaps 0x500(%rsp), %ymm2
vminps %xmm2, %xmm1, %xmm0
vmaxps %xmm2, %xmm1, %xmm1
vmovaps 0x520(%rsp), %ymm5
vmovaps 0x4e0(%rsp), %ymm6
vminps %xmm6, %xmm5, %xmm2
vminps %xmm2, %xmm0, %xmm0
vmaxps %xmm6, %xmm5, %xmm2
vmaxps %xmm2, %xmm1, %xmm1
vandps %xmm4, %xmm0, %xmm0
vandps %xmm4, %xmm1, %xmm2
vmaxps %xmm2, %xmm0, %xmm0
vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3]
vmaxss %xmm0, %xmm2, %xmm2
vshufpd $0x1, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[1,0]
vmaxss %xmm2, %xmm0, %xmm0
vmulss 0x2061d3(%rip), %xmm0, %xmm0 # 0x1ef1eb4
vmovss %xmm0, 0x34(%rsp)
vshufps $0xff, %xmm1, %xmm1, %xmm0 # xmm0 = xmm1[3,3,3,3]
vmovaps %xmm0, 0x460(%rsp)
vmovaps %ymm7, 0x560(%rsp)
vaddps %ymm7, %ymm3, %ymm0
vmovaps %ymm0, 0x620(%rsp)
kmovd %r12d, %k1
vbroadcastss 0x1ffd07(%rip), %ymm0 # 0x1eeba20
vblendmps 0x560(%rsp), %ymm0, %ymm0 {%k1}
vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm0, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1]
vminps %ymm2, %ymm1, %ymm1
vcmpeqps %ymm1, %ymm0, %k0
kmovd %k0, %eax
andb %r12b, %al
movzbl %al, %eax
movzbl %r12b, %ecx
cmovnel %eax, %ecx
tzcntl %ecx, %ecx
movb $0x1, %r14b
shlb %cl, %r14b
shll $0x2, %ecx
vmovss 0x640(%rsp,%rcx), %xmm8
vmovss 0x860(%rsp,%rcx), %xmm10
vmovaps 0x370(%rsp), %xmm0
vucomiss 0x1ffc9f(%rip), %xmm0 # 0x1eeba24
vmovss 0xfc(%rsp), %xmm0
jae 0x1cebdcb
vmovaps 0x370(%rsp), %xmm0
vmovaps %xmm8, 0x80(%rsp)
vmovaps %xmm10, 0x60(%rsp)
kmovw %k1, 0x40(%rsp)
vzeroupper
callq 0x6aa20
kmovw 0x40(%rsp), %k1
vmovaps 0x60(%rsp), %xmm10
vmovaps 0x80(%rsp), %xmm8
movzbl %r14b, %eax
kmovd %eax, %k0
kandnb %k1, %k0, %k0
kmovd %k0, %r12d
vmulss 0x2060d1(%rip), %xmm0, %xmm0 # 0x1ef1eb4
vmovss %xmm0, 0x38(%rsp)
movl $0x5, %r15d
vbroadcastss %xmm10, %xmm0
vxorps %xmm1, %xmm1, %xmm1
vfmadd132ps 0x390(%rsp), %xmm1, %xmm0 # xmm0 = (xmm0 * mem) + xmm1
vmovss 0x20090a(%rip), %xmm1 # 0x1eec714
vsubss %xmm8, %xmm1, %xmm3
vbroadcastss %xmm8, %xmm1
vmovaps 0x500(%rsp), %ymm5
vmulps %xmm1, %xmm5, %xmm2
vmovaps %xmm3, 0x580(%rsp)
vbroadcastss %xmm3, %xmm3
vfmadd231ps 0x540(%rsp), %xmm3, %xmm2 # xmm2 = (xmm3 * mem) + xmm2
vmovaps 0x520(%rsp), %ymm6
vmulps %xmm1, %xmm6, %xmm4
vfmadd231ps %xmm5, %xmm3, %xmm4 # xmm4 = (xmm3 * xmm5) + xmm4
vmulps 0x4e0(%rsp), %xmm1, %xmm5
vfmadd231ps %xmm6, %xmm3, %xmm5 # xmm5 = (xmm3 * xmm6) + xmm5
vmulps %xmm4, %xmm1, %xmm6
vfmadd231ps %xmm2, %xmm3, %xmm6 # xmm6 = (xmm3 * xmm2) + xmm6
vmulps %xmm5, %xmm1, %xmm2
vfmadd231ps %xmm4, %xmm3, %xmm2 # xmm2 = (xmm3 * xmm4) + xmm2
vmulps %xmm2, %xmm1, %xmm4
vfmadd231ps %xmm3, %xmm6, %xmm4 # xmm4 = (xmm6 * xmm3) + xmm4
vsubps %xmm6, %xmm2, %xmm1
vmulps 0x20516a(%rip){1to4}, %xmm1, %xmm11 # 0x1ef0fec
vmovaps %xmm4, 0x5a0(%rsp)
vsubps %xmm4, %xmm0, %xmm0
vmovaps %xmm0, 0x340(%rsp)
vdpps $0x7f, %xmm0, %xmm0, %xmm0
vucomiss 0x1ffb7e(%rip), %xmm0 # 0x1eeba24
vmovaps %xmm11, 0x40(%rsp)
vmovaps %xmm0, 0x400(%rsp)
vmovaps %xmm8, 0x80(%rsp)
vmovaps %xmm10, 0x60(%rsp)
jb 0x1cebecc
vsqrtss %xmm0, %xmm0, %xmm7
jmp 0x1cebede
vzeroupper
callq 0x6aa20
vmovaps 0x40(%rsp), %xmm11
vmovaps %xmm0, %xmm7
vdpps $0x7f, %xmm11, %xmm11, %xmm0
vxorps %xmm1, %xmm1, %xmm1
vmovss %xmm0, %xmm1, %xmm2 # xmm2 = xmm0[0],xmm1[1,2,3]
vrsqrt14ss %xmm2, %xmm1, %xmm3
vmulss 0x20081e(%rip), %xmm3, %xmm4 # 0x1eec718
vmulss 0x20081a(%rip), %xmm0, %xmm5 # 0x1eec71c
vrcp14ss %xmm2, %xmm1, %xmm2
vxorps 0x234fae(%rip){1to4}, %xmm0, %xmm1 # 0x1f20ec0
vmovaps %xmm2, 0x380(%rsp)
vfnmadd213ss 0x2050d4(%rip), %xmm0, %xmm2 # xmm2 = -(xmm0 * xmm2) + mem
vmovss %xmm2, 0x4a0(%rsp)
vucomiss %xmm1, %xmm0
vmovss %xmm7, 0x3e0(%rsp)
vmovaps %xmm0, 0x4b0(%rsp)
jb 0x1cebf4d
vsqrtss %xmm0, %xmm0, %xmm26
jmp 0x1cebfa0
vmovaps %xmm3, 0xc0(%rsp)
vmovss %xmm4, 0x2c0(%rsp)
vmovss %xmm5, 0xb0(%rsp)
vzeroupper
callq 0x6aa20
vmovss 0xb0(%rsp), %xmm5
vmovss 0x2c0(%rsp), %xmm4
vmovaps 0xc0(%rsp), %xmm3
vmovss 0x3e0(%rsp), %xmm7
vmovaps 0x40(%rsp), %xmm11
vmovaps %xmm0, %xmm26
vmovaps 0x340(%rsp), %xmm15
vmulss %xmm3, %xmm5, %xmm0
vmulss %xmm3, %xmm3, %xmm1
vmulss %xmm1, %xmm0, %xmm0
vaddss %xmm0, %xmm4, %xmm0
vbroadcastss %xmm0, %xmm13
vmulps %xmm13, %xmm11, %xmm0
vmovaps %xmm0, 0x2b0(%rsp)
vdpps $0x7f, %xmm0, %xmm15, %xmm0
vaddss 0x200738(%rip), %xmm7, %xmm31 # 0x1eec714
vmovaps %xmm0, 0xc0(%rsp)
vmulps %xmm0, %xmm0, %xmm0
vmovaps 0x400(%rsp), %xmm1
vsubps %xmm0, %xmm1, %xmm0
vxorps %xmm2, %xmm2, %xmm2
vmovss %xmm0, %xmm2, %xmm1 # xmm1 = xmm0[0],xmm2[1,2,3]
vrsqrt14ss %xmm1, %xmm2, %xmm1
vmovaps %xmm1, 0x2c0(%rsp)
vmulss 0x200703(%rip), %xmm1, %xmm1 # 0x1eec718
vmovss %xmm1, 0xb0(%rsp)
vmulss 0x2006f6(%rip), %xmm0, %xmm1 # 0x1eec71c
vmovss %xmm1, 0x490(%rsp)
vucomiss 0x1ff9ed(%rip), %xmm0 # 0x1eeba24
jb 0x1cec03f
vsqrtss %xmm0, %xmm0, %xmm0
jmp 0x1cec091
vmovss %xmm31, 0x30(%rsp)
vmovss %xmm26, 0x2c(%rsp)
vmovaps %xmm13, 0x480(%rsp)
vzeroupper
callq 0x6aa20
vmovaps 0x480(%rsp), %xmm13
vmovss 0x2c(%rsp), %xmm26
vmovss 0x3e0(%rsp), %xmm7
vmovss 0x30(%rsp), %xmm31
vmovaps 0x340(%rsp), %xmm15
vmovaps 0x40(%rsp), %xmm11
vbroadcastss 0x234e29(%rip), %ymm28 # 0x1f20ec4
vmovaps 0x200(%rsp), %ymm30
vmovaps 0x1e0(%rsp), %ymm21
vmovaps 0x220(%rsp), %ymm9
vmovaps 0x1c0(%rsp), %ymm12
vmovaps 0x1a0(%rsp), %ymm23
vmovaps 0x180(%rsp), %ymm14
vmovaps 0x160(%rsp), %ymm17
vmovaps 0x140(%rsp), %ymm18
vmovaps 0x3c0(%rsp), %ymm19
vmovaps 0x3a0(%rsp), %ymm20
vmovaps 0x120(%rsp), %ymm22
vmovaps 0x280(%rsp), %ymm27
vmovaps 0x100(%rsp), %ymm25
vmovaps 0x260(%rsp), %ymm29
vmovaps 0x240(%rsp), %ymm16
vmovaps 0x80(%rsp), %xmm8
vmovaps 0x60(%rsp), %xmm10
vmovss 0x2048af(%rip), %xmm3 # 0x1ef09dc
vmovaps %xmm3, %xmm1
vmovaps 0x580(%rsp), %xmm5
vfmadd213ss %xmm5, %xmm8, %xmm1 # xmm1 = (xmm8 * xmm1) + xmm5
vmovss 0x204ead(%rip), %xmm4 # 0x1ef0ff4
vmulss %xmm4, %xmm1, %xmm1
vmulss %xmm4, %xmm8, %xmm2
vbroadcastss %xmm2, %xmm2
vmulps 0x4e0(%rsp), %xmm2, %xmm2
vbroadcastss %xmm1, %xmm1
vfmadd132ps 0x520(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2
vmovaps %xmm3, %xmm2
vfmadd213ss %xmm8, %xmm5, %xmm2 # xmm2 = (xmm5 * xmm2) + xmm8
vmulss %xmm4, %xmm2, %xmm2
vbroadcastss %xmm2, %xmm2
vfmadd132ps 0x500(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1
vmulss %xmm4, %xmm5, %xmm1
vbroadcastss %xmm1, %xmm1
vfmadd132ps 0x540(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2
vbroadcastss 0x4b0(%rsp), %xmm2
vmulps %xmm2, %xmm1, %xmm2
vdpps $0x7f, %xmm1, %xmm11, %xmm1
vbroadcastss %xmm1, %xmm1
vmulps %xmm1, %xmm11, %xmm1
vsubps %xmm1, %xmm2, %xmm2
vmovss 0x4a0(%rsp), %xmm1
vmulss 0x380(%rsp), %xmm1, %xmm3
vmulss 0x38(%rsp), %xmm10, %xmm1
vmovss 0x34(%rsp), %xmm6
vmaxss %xmm1, %xmm6, %xmm1
vbroadcastss %xmm3, %xmm3
vmulps %xmm3, %xmm2, %xmm2
vxorps 0x234ccf(%rip){1to4}, %xmm11, %xmm3 # 0x1f20ec0
vmulps %xmm2, %xmm13, %xmm2
vmovaps 0x2b0(%rsp), %xmm13
vdpps $0x7f, %xmm13, %xmm3, %xmm4
vdivss %xmm26, %xmm6, %xmm5
vfmadd213ss %xmm1, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm7) + xmm1
vdpps $0x7f, %xmm2, %xmm15, %xmm2
vfmadd213ss %xmm7, %xmm5, %xmm31 # xmm31 = (xmm5 * xmm31) + xmm7
vaddss %xmm2, %xmm4, %xmm4
vmovaps 0x390(%rsp), %xmm7
vdpps $0x7f, %xmm13, %xmm7, %xmm5
vdpps $0x7f, %xmm3, %xmm15, %xmm3
vmovaps 0x2c0(%rsp), %xmm6
vmulss 0x490(%rsp), %xmm6, %xmm2
vmulss %xmm6, %xmm6, %xmm6
vmulss %xmm6, %xmm2, %xmm2
vaddss 0xb0(%rsp), %xmm2, %xmm6
vdpps $0x7f, %xmm7, %xmm15, %xmm7
vmovaps 0xc0(%rsp), %xmm26
vfnmadd231ss %xmm4, %xmm26, %xmm3 # xmm3 = -(xmm26 * xmm4) + xmm3
vfnmadd231ss %xmm5, %xmm26, %xmm7 # xmm7 = -(xmm26 * xmm5) + xmm7
vpermilps $0xff, 0x5a0(%rsp), %xmm2 # xmm2 = mem[3,3,3,3]
vsubss %xmm2, %xmm0, %xmm2
vshufps $0xff, %xmm11, %xmm11, %xmm0 # xmm0 = xmm11[3,3,3,3]
vfmsub213ss %xmm0, %xmm6, %xmm3 # xmm3 = (xmm6 * xmm3) - xmm0
vmulss %xmm6, %xmm7, %xmm6
vmulss %xmm3, %xmm5, %xmm7
vfmsub231ss %xmm6, %xmm4, %xmm7 # xmm7 = (xmm4 * xmm6) - xmm7
vdivss %xmm7, %xmm6, %xmm6
vdivss %xmm7, %xmm3, %xmm3
vdivss %xmm7, %xmm5, %xmm5
vdivss %xmm7, %xmm4, %xmm4
vmulss %xmm6, %xmm26, %xmm6
vmulss %xmm5, %xmm2, %xmm5
vsubss %xmm5, %xmm6, %xmm5
vmulss %xmm3, %xmm26, %xmm3
vmulss %xmm4, %xmm2, %xmm4
vsubss %xmm3, %xmm4, %xmm3
vsubss %xmm5, %xmm8, %xmm8
vsubss %xmm3, %xmm10, %xmm10
vbroadcastss 0x234bef(%rip), %xmm4 # 0x1f20ec4
vandps %xmm4, %xmm26, %xmm3
vucomiss %xmm3, %xmm31
movb $0x1, %al
jbe 0x1cec342
vaddss %xmm31, %xmm1, %xmm1
vmovaps 0x460(%rsp), %xmm3
vfmadd231ss 0x205bb7(%rip), %xmm3, %xmm1 # xmm1 = (xmm3 * mem) + xmm1
vandps %xmm4, %xmm2, %xmm2
vucomiss %xmm2, %xmm1
jbe 0x1cec342
vaddss 0x470(%rsp), %xmm10, %xmm10
vucomiss 0x3c(%rsp), %xmm10
vmovaps 0x320(%rsp), %ymm4
jb 0x1cec33b
movq 0x18(%rsp), %rax
movq 0x10(%rsp), %rcx
vmovss 0x100(%rcx,%rax,4), %xmm5
vucomiss %xmm10, %xmm5
jae 0x1cec361
xorl %eax, %eax
xorl %r14d, %r14d
jmp 0x1cec34b
vmovaps 0x320(%rsp), %ymm4
testb %al, %al
je 0x1cec784
decq %r15
jne 0x1cebdef
jmp 0x1cec781
xorl %eax, %eax
vucomiss 0x1ff6b9(%rip), %xmm8 # 0x1eeba24
jb 0x1cec33d
vmovss 0x20039f(%rip), %xmm1 # 0x1eec714
vucomiss %xmm8, %xmm1
jb 0x1cec33d
vxorps %xmm2, %xmm2, %xmm2
vmovaps 0x400(%rsp), %xmm3
vmovss %xmm3, %xmm2, %xmm1 # xmm1 = xmm3[0],xmm2[1,2,3]
vrsqrt14ss %xmm1, %xmm2, %xmm1
vmulss 0x20037d(%rip), %xmm1, %xmm2 # 0x1eec718
vmulss 0x200379(%rip), %xmm3, %xmm3 # 0x1eec71c
movq 0x20(%rsp), %rdx
movq (%rdx), %rax
movq 0x1e8(%rax), %rax
movq 0xd8(%rsp), %rcx
movq (%rax,%rcx,8), %r14
movq 0x18(%rsp), %rax
movq 0x10(%rsp), %rcx
movl 0x120(%rcx,%rax,4), %eax
testl %eax, 0x34(%r14)
je 0x1cec33b
movq 0x10(%rdx), %rax
cmpq $0x0, 0x10(%rax)
jne 0x1cec3f5
cmpq $0x0, 0x48(%r14)
jne 0x1cec3f5
movb $0x1, %r14b
xorl %eax, %eax
jmp 0x1cec34b
vmulss %xmm1, %xmm3, %xmm3
vmulss %xmm1, %xmm1, %xmm1
vmulss %xmm1, %xmm3, %xmm1
vaddss %xmm1, %xmm2, %xmm1
vbroadcastss %xmm1, %xmm1
vmulps %xmm1, %xmm15, %xmm1
vfmadd213ps %xmm11, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm0) + xmm11
vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm11, %xmm11, %xmm3 # xmm3 = xmm11[1,2,0,3]
vmulps %xmm3, %xmm1, %xmm1
vfmsub231ps %xmm2, %xmm11, %xmm1 # xmm1 = (xmm11 * xmm2) - xmm1
vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3]
vshufps $0xd2, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,0,1,3]
vmulps %xmm1, %xmm0, %xmm0
vfmsub231ps %xmm3, %xmm2, %xmm0 # xmm0 = (xmm2 * xmm3) - xmm0
movq 0x20(%rsp), %rdx
movq 0x8(%rdx), %rax
vbroadcastss %xmm8, %ymm1
vbroadcastss 0x2262ae(%rip), %ymm2 # 0x1f12704
vpermps %ymm0, %ymm2, %ymm2
vbroadcastss 0x234a78(%rip), %ymm3 # 0x1f20edc
vpermps %ymm0, %ymm3, %ymm3
vbroadcastss %xmm0, %ymm0
vmovaps %ymm2, 0x720(%rsp)
vmovaps %ymm3, 0x740(%rsp)
vmovaps %ymm0, 0x760(%rsp)
vmovaps %ymm1, 0x780(%rsp)
vxorps %xmm0, %xmm0, %xmm0
vmovaps %ymm0, 0x7a0(%rsp)
vmovaps 0x6c0(%rsp), %ymm0
vmovaps %ymm0, 0x7c0(%rsp)
vmovdqa 0x6a0(%rsp), %ymm0
vmovdqa %ymm0, 0x7e0(%rsp)
movq 0x2d8(%rsp), %rcx
vpcmpeqd %ymm0, %ymm0, %ymm0
vmovdqa %ymm0, 0x20(%rcx)
vmovdqa %ymm0, (%rcx)
vbroadcastss (%rax), %ymm0
vmovaps %ymm0, 0x800(%rsp)
vbroadcastss 0x4(%rax), %ymm0
vmovaps %ymm0, 0x820(%rsp)
movq 0x18(%rsp), %rax
movq 0x10(%rsp), %rcx
vmovss %xmm10, 0x100(%rcx,%rax,4)
vmovaps 0x680(%rsp), %ymm0
vmovaps %ymm0, 0x420(%rsp)
leaq 0x420(%rsp), %rax
movq %rax, 0x2f0(%rsp)
movq 0x18(%r14), %rax
movq %rax, 0x2f8(%rsp)
movq 0x8(%rdx), %rax
movq %rax, 0x300(%rsp)
movq %rcx, 0x308(%rsp)
leaq 0x720(%rsp), %rax
movq %rax, 0x310(%rsp)
movl $0x8, 0x318(%rsp)
movq 0x48(%r14), %rax
testq %rax, %rax
vmovaps %xmm8, 0x80(%rsp)
vmovaps %xmm10, 0x60(%rsp)
vmovss %xmm5, 0x40(%rsp)
je 0x1cec637
leaq 0x2f0(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0x40(%rsp), %xmm5
vmovaps 0x60(%rsp), %xmm10
vmovaps 0x80(%rsp), %xmm8
vmovaps 0x240(%rsp), %ymm16
vmovaps 0x260(%rsp), %ymm29
vmovaps 0x100(%rsp), %ymm25
vmovaps 0x280(%rsp), %ymm27
vmovaps 0x120(%rsp), %ymm22
vmovaps 0x3a0(%rsp), %ymm20
vmovaps 0x3c0(%rsp), %ymm19
vmovaps 0x140(%rsp), %ymm18
vmovaps 0x160(%rsp), %ymm17
vmovaps 0x320(%rsp), %ymm4
vmovaps 0x180(%rsp), %ymm14
vmovaps 0x1a0(%rsp), %ymm23
vmovaps 0x1c0(%rsp), %ymm12
vmovaps 0x220(%rsp), %ymm9
vmovaps 0x1e0(%rsp), %ymm21
vmovaps 0x200(%rsp), %ymm30
vbroadcastss 0x23488d(%rip), %ymm28 # 0x1f20ec4
vmovdqa 0x420(%rsp), %ymm0
vptest %ymm0, %ymm0
je 0x1cec75d
movq 0x20(%rsp), %rax
movq 0x10(%rax), %rcx
movq 0x10(%rcx), %rax
testq %rax, %rax
je 0x1cec721
testb $0x2, (%rcx)
jne 0x1cec671
testb $0x40, 0x3e(%r14)
je 0x1cec721
leaq 0x2f0(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0x40(%rsp), %xmm5
vmovaps 0x60(%rsp), %xmm10
vmovaps 0x80(%rsp), %xmm8
vmovaps 0x240(%rsp), %ymm16
vmovaps 0x260(%rsp), %ymm29
vmovaps 0x100(%rsp), %ymm25
vmovaps 0x280(%rsp), %ymm27
vmovaps 0x120(%rsp), %ymm22
vmovaps 0x3a0(%rsp), %ymm20
vmovaps 0x3c0(%rsp), %ymm19
vmovaps 0x140(%rsp), %ymm18
vmovaps 0x160(%rsp), %ymm17
vmovaps 0x320(%rsp), %ymm4
vmovaps 0x180(%rsp), %ymm14
vmovaps 0x1a0(%rsp), %ymm23
vmovaps 0x1c0(%rsp), %ymm12
vmovaps 0x220(%rsp), %ymm9
vmovaps 0x1e0(%rsp), %ymm21
vmovaps 0x200(%rsp), %ymm30
vbroadcastss 0x2347a3(%rip), %ymm28 # 0x1f20ec4
vmovdqa 0x420(%rsp), %ymm0
vptestmd %ymm0, %ymm0, %k1
movq 0x308(%rsp), %rax
vmovaps 0x100(%rax), %ymm1
vbroadcastss 0x20043a(%rip), %ymm1 {%k1} # 0x1eecb84
vmovaps %ymm1, 0x100(%rax)
vptest %ymm0, %ymm0
setne %r14b
jmp 0x1cec760
xorl %r14d, %r14d
testb %r14b, %r14b
jne 0x1cec3ee
movq 0x18(%rsp), %rax
movq 0x10(%rsp), %rcx
vmovss %xmm5, 0x100(%rcx,%rax,4)
jmp 0x1cec3ee
xorl %r14d, %r14d
andb $0x1, %r14b
orb %r14b, %r13b
movq 0x18(%rsp), %rdx
movq 0x10(%rsp), %rax
vmovaps 0x620(%rsp), %ymm0
vcmpleps 0x100(%rax,%rdx,4){1to8}, %ymm0, %k0
kmovd %k0, %eax
andb %al, %r12b
jne 0x1cebd0b
jmp 0x1cec7f3
vmovaps 0x320(%rsp), %ymm4
vmovaps %ymm20, %ymm14
vmovaps %ymm17, %ymm23
vmovaps %ymm18, %ymm17
vmovaps %ymm22, %ymm18
vmovaps %ymm25, %ymm22
vmovaps %ymm19, %ymm25
vmovaps 0x3c0(%rsp), %ymm19
vmovaps 0x3a0(%rsp), %ymm20
vmovdqa 0x6e0(%rsp), %ymm1
vpcmpltd 0x600(%rsp), %ymm1, %k1
vmovaps 0x920(%rsp), %ymm0
vpcmpltd 0x880(%rsp), %ymm1, %k2
vmovaps 0x5e0(%rsp), %ymm3
vaddps %ymm0, %ymm3, %ymm1
movq 0x10(%rsp), %rax
vbroadcastss 0x100(%rax,%rdx,4), %ymm2
vcmpleps %ymm2, %ymm1, %k0 {%k2}
kmovd %k0, %eax
movl 0xf0(%rsp), %ecx
andb %al, %cl
vmovaps 0x840(%rsp), %ymm1
vaddps %ymm1, %ymm3, %ymm3
vcmpleps %ymm2, %ymm3, %k0 {%k1}
kmovd %k0, %eax
movl 0x28(%rsp), %esi
andb %al, %sil
orb %cl, %sil
je 0x1cec8b5
movl %ebx, %eax
leaq (%rax,%rax,2), %rax
shlq $0x5, %rax
movb %sil, 0x960(%rsp,%rax)
kmovd %ecx, %k1
vmovaps %ymm0, %ymm1 {%k1}
vmovaps %ymm1, 0x980(%rsp,%rax)
vmovaps 0x450(%rsp), %xmm0
vmovlps %xmm0, 0x9a0(%rsp,%rax)
movq 0xe0(%rsp), %rcx
incl %ecx
movl %ecx, 0x9a8(%rsp,%rax)
incl %ebx
movq 0x2e0(%rsp), %r8
movq 0x20(%rsp), %r14
vbroadcastss 0x1ffe49(%rip), %ymm3 # 0x1eec714
movb 0xf(%rsp), %r15b
movq 0x2e8(%rsp), %r12
vmovaps 0x4c0(%rsp), %ymm2
testl %ebx, %ebx
je 0x1ceca59
leal -0x1(%rbx), %r9d
leaq (%r9,%r9,2), %rcx
shlq $0x5, %rcx
vmovaps 0x980(%rsp,%rcx), %ymm0
movzbl 0x960(%rsp,%rcx), %esi
vaddps 0x5e0(%rsp), %ymm0, %ymm1
movq 0x10(%rsp), %rax
vcmpleps 0x100(%rax,%rdx,4){1to8}, %ymm1, %k0
kmovb %k0, %eax
andl %esi, %eax
je 0x1cec9f0
kmovd %eax, %k1
vbroadcastss 0x1ff0ea(%rip), %ymm1 # 0x1eeba20
vblendmps %ymm0, %ymm1, %ymm0 {%k1}
vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm0, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1]
vminps %ymm2, %ymm1, %ymm1
vcmpeqps %ymm1, %ymm0, %k0
kmovd %k0, %esi
andb %al, %sil
je 0x1cec96e
movzbl %sil, %edi
jmp 0x1cec971
movzbl %al, %edi
leaq (%rsp,%rcx), %rsi
addq $0x960, %rsi # imm = 0x960
vmovss 0x44(%rsi), %xmm0
tzcntl %edi, %ecx
movb $0x1, %dil
shlb %cl, %dil
movl 0x48(%rsi), %r10d
movq %r10, 0xe0(%rsp)
movzbl %dil, %edi
kmovd %edi, %k0
kmovd %eax, %k1
kandnb %k1, %k0, %k0
kmovb %k0, (%rsi)
kortestb %k0, %k0
vmovaps 0x4c0(%rsp), %ymm2
je 0x1cec9bd
movl %ebx, %r9d
vbroadcastss 0x40(%rsi), %ymm1
vsubss %xmm1, %xmm0, %xmm0
vbroadcastss %xmm0, %ymm0
vfmadd132ps 0x23454b(%rip), %ymm1, %ymm0 # ymm0 = (ymm0 * mem) + ymm1
vmovaps %ymm0, 0x720(%rsp)
vmovsd 0x720(%rsp,%rcx,4), %xmm0
vmovaps %xmm0, 0x450(%rsp)
movl %r9d, %ebx
testb %al, %al
je 0x1cec8e1
vmovaps 0x450(%rsp), %xmm5
vmovaps 0x8c0(%rsp), %ymm24
vmovaps %ymm16, %ymm26
jmp 0x1cea4d0
vcmpleps %ymm20, %ymm11, %k2
vbroadcastss 0x20015d(%rip), %ymm7 # 0x1eecb84
vbroadcastss 0x1feff0(%rip), %ymm11 # 0x1eeba20
vblendmps %ymm7, %ymm11, %ymm6 {%k2}
vmovaps %ymm6, %ymm4 {%k1}
vblendmps %ymm11, %ymm7, %ymm6 {%k2}
vmovaps %ymm6, %ymm2 {%k1}
knotb %k1, %k1
korb %k2, %k1, %k1
kandb %k0, %k1, %k0
jmp 0x1ceae11
testb $0x1, %r13b
jne 0x1ceca87
movq 0x10(%rsp), %rax
vmovaps 0x8a0(%rsp), %ymm0
vcmpleps 0x100(%rax,%rdx,4){1to8}, %ymm0, %k0
kmovb %k0, %eax
andl %eax, %r12d
setne %r15b
jne 0x1cea13f
andb $0x1, %r15b
movl %r15d, %eax
leaq -0x28(%rbp), %rsp
popq %rbx
popq %r12
popq %r13
popq %r14
popq %r15
popq %rbp
vzeroupper
retq
|
/embree[P]embree/kernels/geometry/curveNi_intersector.h
|
void embree::avx512::CurveNiIntersectorK<8, 16>::intersect_t<embree::avx512::SweepCurve1IntersectorK<embree::BezierCurveT, 16>, embree::avx512::Intersect1KEpilog1<16, true>>(embree::avx512::CurvePrecalculationsK<16>&, embree::RayHitK<16>&, unsigned long, embree::RayQueryContext*, embree::CurveNi<8> const&)
|
static __forceinline void intersect_t(Precalculations& pre, RayHitK<K>& ray, const size_t k, RayQueryContext* context, const Primitive& prim)
{
vfloat<M> tNear;
vbool<M> valid = intersect(ray,k,prim,tNear);
const size_t N = prim.N;
size_t mask = movemask(valid);
while (mask)
{
const size_t i = bscf(mask);
STAT3(normal.trav_prims,1,1,1);
const unsigned int geomID = prim.geomID(N);
const unsigned int primID = prim.primID(N)[i];
const CurveGeometry* geom = context->scene->get<CurveGeometry>(geomID);
Vec3ff a0,a1,a2,a3; geom->gather(a0,a1,a2,a3,geom->curve(primID));
size_t mask1 = mask;
const size_t i1 = bscf(mask1);
if (mask) {
const unsigned int primID1 = prim.primID(N)[i1];
geom->prefetchL1_vertices(geom->curve(primID1));
if (mask1) {
const size_t i2 = bsf(mask1);
const unsigned int primID2 = prim.primID(N)[i2];
geom->prefetchL2_vertices(geom->curve(primID2));
}
}
Intersector().intersect(pre,ray,k,context,geom,primID,a0,a1,a2,a3,Epilog(ray,k,context,geomID,primID));
mask &= movemask(tNear <= vfloat<M>(ray.tfar[k]));
}
}
|
pushq %rbp
movq %rsp, %rbp
pushq %r15
pushq %r14
pushq %r13
pushq %r12
pushq %rbx
andq $-0x40, %rsp
subq $0xc40, %rsp # imm = 0xC40
movq %rcx, %r15
movq %rsi, %r12
movzbl 0x1(%r8), %ecx
leaq (%rcx,%rcx,4), %rax
leaq (%rax,%rax,4), %rsi
vbroadcastss 0x12(%r8,%rsi), %xmm0
vmovss (%r12,%rdx,4), %xmm1
vmovss 0x100(%r12,%rdx,4), %xmm2
vinsertps $0x10, 0x40(%r12,%rdx,4), %xmm1, %xmm1 # xmm1 = xmm1[0],mem[0],xmm1[2,3]
vinsertps $0x20, 0x80(%r12,%rdx,4), %xmm1, %xmm1 # xmm1 = xmm1[0,1],mem[0],xmm1[3]
vinsertps $0x10, 0x140(%r12,%rdx,4), %xmm2, %xmm2 # xmm2 = xmm2[0],mem[0],xmm2[2,3]
vinsertps $0x20, 0x180(%r12,%rdx,4), %xmm2, %xmm2 # xmm2 = xmm2[0,1],mem[0],xmm2[3]
vsubps 0x6(%r8,%rsi), %xmm1, %xmm1
vmulps %xmm1, %xmm0, %xmm3
vmulps %xmm2, %xmm0, %xmm0
vpmovsxbd 0x6(%r8,%rcx,4), %ymm1
vpmovsxbd 0x6(%r8,%rax), %ymm2
vcvtdq2ps %ymm1, %ymm5
vcvtdq2ps %ymm2, %ymm6
leaq (%rcx,%rcx,2), %r9
vpmovsxbd 0x6(%r8,%r9,2), %ymm1
vcvtdq2ps %ymm1, %ymm4
leaq (%rcx,%rax,2), %rsi
vpmovsxbd 0x6(%r8,%rsi), %ymm1
leal (,%r9,4), %esi
vpmovsxbd 0x6(%r8,%rsi), %ymm2
vcvtdq2ps %ymm1, %ymm7
vcvtdq2ps %ymm2, %ymm8
addq %rcx, %rsi
vpmovsxbd 0x6(%r8,%rsi), %ymm1
vcvtdq2ps %ymm1, %ymm9
leaq (%rcx,%rcx,8), %rsi
leal (%rsi,%rsi), %edi
vpmovsxbd 0x6(%r8,%rdi), %ymm1
vcvtdq2ps %ymm1, %ymm10
addq %rcx, %rdi
vpmovsxbd 0x6(%r8,%rdi), %ymm1
vcvtdq2ps %ymm1, %ymm11
shll $0x2, %eax
vpmovsxbd 0x6(%r8,%rax), %ymm1
vcvtdq2ps %ymm1, %ymm12
vbroadcastss %xmm0, %ymm13
vbroadcastss 0x225b59(%rip), %ymm15 # 0x1f12704
vbroadcastss 0x234327(%rip), %ymm16 # 0x1f20edc
vpermps %ymm0, %ymm15, %ymm14
vpermps %ymm0, %ymm16, %ymm0
vmulps %ymm4, %ymm0, %ymm2
vmulps %ymm0, %ymm9, %ymm1
vmulps %ymm0, %ymm12, %ymm0
vfmadd231ps %ymm6, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm6) + ymm2
vfmadd231ps %ymm8, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm8) + ymm1
vfmadd231ps %ymm14, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm14) + ymm0
vfmadd231ps %ymm5, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm5) + ymm2
vfmadd231ps %ymm7, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm7) + ymm1
vfmadd231ps %ymm13, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm13) + ymm0
vbroadcastss %xmm3, %ymm13
vpermps %ymm3, %ymm15, %ymm14
vpermps %ymm3, %ymm16, %ymm3
vmulps %ymm4, %ymm3, %ymm15
vmulps %ymm3, %ymm9, %ymm4
vmulps %ymm3, %ymm12, %ymm3
vfmadd231ps %ymm6, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm6) + ymm15
vfmadd231ps %ymm8, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm8) + ymm4
vfmadd231ps %ymm11, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm11) + ymm3
vfmadd231ps %ymm5, %ymm13, %ymm15 # ymm15 = (ymm13 * ymm5) + ymm15
vfmadd231ps %ymm7, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm7) + ymm4
vbroadcastss 0x23429c(%rip), %ymm6 # 0x1f20ec4
vfmadd231ps %ymm10, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm10) + ymm3
vandps %ymm6, %ymm2, %ymm5
vbroadcastss 0x2043ae(%rip), %ymm7 # 0x1ef0fe8
vcmpltps %ymm7, %ymm5, %k1
vmovaps %ymm7, %ymm2 {%k1}
vandps %ymm6, %ymm1, %ymm5
vcmpltps %ymm7, %ymm5, %k1
vmovaps %ymm7, %ymm1 {%k1}
vandps %ymm6, %ymm0, %ymm5
vcmpltps %ymm7, %ymm5, %k1
vmovaps %ymm7, %ymm0 {%k1}
vrcp14ps %ymm2, %ymm5
vbroadcastss 0x1ffa9c(%rip), %ymm6 # 0x1eec714
vfnmadd213ps %ymm6, %ymm5, %ymm2 # ymm2 = -(ymm5 * ymm2) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm2 # ymm2 = (ymm2 * ymm5) + ymm5
vrcp14ps %ymm1, %ymm5
vfnmadd213ps %ymm6, %ymm5, %ymm1 # ymm1 = -(ymm5 * ymm1) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm1 # ymm1 = (ymm1 * ymm5) + ymm5
vrcp14ps %ymm0, %ymm5
vfnmadd213ps %ymm6, %ymm5, %ymm0 # ymm0 = -(ymm5 * ymm0) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm0 # ymm0 = (ymm0 * ymm5) + ymm5
leaq (,%rcx,8), %rdi
subq %rcx, %rdi
vpmovsxwd 0x6(%r8,%rdi), %ymm5
vcvtdq2ps %ymm5, %ymm5
vsubps %ymm15, %ymm5, %ymm5
vmulps %ymm5, %ymm2, %ymm5
vpmovsxwd 0x6(%r8,%rsi), %ymm6
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm15, %ymm6, %ymm6
leaq (%rcx,%rcx), %rsi
addq %rcx, %rax
shlq $0x3, %r9
subq %rcx, %r9
vpbroadcastd %ecx, %ymm7
shll $0x4, %ecx
vpmovsxwd 0x6(%r8,%rcx), %ymm8
vmulps %ymm6, %ymm2, %ymm2
subq %rsi, %rcx
vpmovsxwd 0x6(%r8,%rcx), %ymm6
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm4, %ymm6, %ymm6
vmulps %ymm6, %ymm1, %ymm6
vcvtdq2ps %ymm8, %ymm8
vsubps %ymm4, %ymm8, %ymm4
vmulps %ymm4, %ymm1, %ymm1
vpmovsxwd 0x6(%r8,%rax), %ymm4
vcvtdq2ps %ymm4, %ymm4
vsubps %ymm3, %ymm4, %ymm4
vmulps %ymm0, %ymm4, %ymm4
vpmovsxwd 0x6(%r8,%r9), %ymm8
vcvtdq2ps %ymm8, %ymm8
vsubps %ymm3, %ymm8, %ymm3
vmulps %ymm3, %ymm0, %ymm0
vpminsd %ymm2, %ymm5, %ymm3
vpminsd %ymm1, %ymm6, %ymm8
vmaxps %ymm8, %ymm3, %ymm3
vpminsd %ymm0, %ymm4, %ymm8
vmaxps 0xc0(%r12,%rdx,4){1to8}, %ymm8, %ymm8
vmaxps %ymm8, %ymm3, %ymm3
vmulps 0x2331a8(%rip){1to8}, %ymm3, %ymm3 # 0x1f1ff10
vpmaxsd %ymm2, %ymm5, %ymm2
vpmaxsd %ymm1, %ymm6, %ymm1
vminps %ymm1, %ymm2, %ymm1
vpmaxsd %ymm0, %ymm4, %ymm0
movq %rdx, 0x38(%rsp)
vminps 0x200(%r12,%rdx,4){1to8}, %ymm0, %ymm0
vminps %ymm0, %ymm1, %ymm0
vmulps 0x23317b(%rip){1to8}, %ymm0, %ymm0 # 0x1f1ff14
vpcmpgtd 0x26db7d(%rip), %ymm7, %k0 # 0x1f5a920
vmovaps %ymm3, 0x520(%rsp)
vcmpleps %ymm0, %ymm3, %k1
ktestb %k0, %k1
je 0x1cef58e
kandb %k0, %k1, %k0
kmovd %k0, %eax
movzbl %al, %r10d
leaq 0x880(%rsp), %rax
addq $0x1c0, %rax # imm = 0x1C0
movq %rax, 0x1b8(%rsp)
movl $0x1, %eax
movq 0x38(%rsp), %rcx
shlxl %ecx, %eax, %eax
kmovd %eax, %k0
vpmovm2d %k0, %zmm0
vmovdqa64 %zmm0, 0x7c0(%rsp)
movq %r15, 0x48(%rsp)
movq %r8, 0x1c0(%rsp)
tzcntq %r10, %rax
movl 0x2(%r8), %ecx
movl 0x6(%r8,%rax,4), %edi
movq (%r15), %rax
movq 0x1e8(%rax), %rax
movq %rcx, 0x70(%rsp)
movq (%rax,%rcx,8), %rsi
movq 0x58(%rsi), %rax
movq 0x68(%rsi), %rcx
movq %rcx, %rdx
movq %rdi, 0x100(%rsp)
imulq %rdi, %rdx
movl (%rax,%rdx), %edi
movq 0xa0(%rsi), %rdx
movq %rdx, %r9
imulq %rdi, %r9
movq 0x90(%rsi), %rsi
vmovaps (%rsi,%r9), %xmm1
leaq 0x1(%rdi), %r9
imulq %rdx, %r9
vmovaps (%rsi,%r9), %xmm0
leaq 0x2(%rdi), %r9
imulq %rdx, %r9
vmovaps (%rsi,%r9), %xmm2
blsrq %r10, %r10
addq $0x3, %rdi
imulq %rdx, %rdi
vmovaps (%rsi,%rdi), %xmm3
movq %r10, %rdi
subq $0x1, %rdi
jb 0x1cecee1
andq %r10, %rdi
tzcntq %r10, %r9
movl 0x6(%r8,%r9,4), %r9d
imulq %rcx, %r9
movl (%rax,%r9), %r9d
imulq %rdx, %r9
prefetcht0 (%rsi,%r9)
prefetcht0 0x40(%rsi,%r9)
testq %rdi, %rdi
je 0x1cecee1
tzcntq %rdi, %rdi
movl 0x6(%r8,%rdi,4), %edi
imulq %rdi, %rcx
movl (%rax,%rcx), %eax
imulq %rax, %rdx
prefetcht1 (%rsi,%rdx)
prefetcht1 0x40(%rsi,%rdx)
movq 0x38(%rsp), %rax
vmovss (%r12,%rax,4), %xmm4
vinsertps $0x1c, 0x40(%r12,%rax,4), %xmm4, %xmm4 # xmm4 = xmm4[0],mem[0],zero,zero
vinsertps $0x28, 0x80(%r12,%rax,4), %xmm4, %xmm4 # xmm4 = xmm4[0,1],mem[0],zero
vbroadcastss 0x100(%r12,%rax,4), %ymm26
vbroadcastss 0x140(%r12,%rax,4), %ymm30
vunpcklps %xmm30, %xmm26, %xmm5 # xmm5 = xmm26[0],xmm30[0],xmm26[1],xmm30[1]
vbroadcastss 0x180(%r12,%rax,4), %ymm21
vinsertps $0x28, %xmm21, %xmm5, %xmm9 # xmm9 = xmm5[0,1],xmm21[0],zero
vaddps %xmm0, %xmm1, %xmm5
vaddps %xmm2, %xmm5, %xmm5
vaddps %xmm3, %xmm5, %xmm5
vmulps 0x2303c2(%rip){1to4}, %xmm5, %xmm5 # 0x1f1d2fc
vsubps %xmm4, %xmm5, %xmm5
vdpps $0x7f, %xmm9, %xmm5, %xmm5
vmovss 0xc0(%r12,%rax,4), %xmm10
vdpps $0x7f, %xmm9, %xmm9, %xmm11
vxorps %xmm8, %xmm8, %xmm8
vmovss %xmm11, %xmm8, %xmm6
vrcp14ss %xmm6, %xmm8, %xmm6
vmovaps %xmm6, %xmm7
vfnmadd213ss 0x204088(%rip), %xmm11, %xmm7 # xmm7 = -(xmm11 * xmm7) + mem
vmulss %xmm7, %xmm6, %xmm6
vmulss %xmm6, %xmm5, %xmm5
vbroadcastss %xmm5, %ymm6
vmovaps %xmm9, 0x260(%rsp)
vmovaps %ymm6, 0x380(%rsp)
vfmadd231ps %xmm6, %xmm9, %xmm4 # xmm4 = (xmm9 * xmm6) + xmm4
vblendps $0x8, %xmm8, %xmm4, %xmm4 # xmm4 = xmm4[0,1,2],xmm8[3]
vsubps %xmm4, %xmm1, %xmm6
vsubps %xmm4, %xmm2, %xmm7
vsubps %xmm4, %xmm0, %xmm8
vsubps %xmm4, %xmm3, %xmm3
vbroadcastss %xmm6, %ymm0
vmovaps %ymm0, 0x760(%rsp)
vbroadcastss 0x225743(%rip), %ymm0 # 0x1f12704
vpermps %ymm6, %ymm0, %ymm1
vmovaps %ymm1, 0x740(%rsp)
vbroadcastss 0x233f04(%rip), %ymm1 # 0x1f20edc
vpermps %ymm6, %ymm1, %ymm2
vmovaps %ymm2, 0x720(%rsp)
vbroadcastss 0x233ee9(%rip), %ymm2 # 0x1f20ed8
vmovaps %ymm6, 0x340(%rsp)
vpermps %ymm6, %ymm2, %ymm4
vmovaps %ymm4, 0x700(%rsp)
vbroadcastss %xmm8, %ymm4
vmovaps %ymm4, 0x6e0(%rsp)
vpermps %ymm8, %ymm0, %ymm4
vmovaps %ymm4, 0x6c0(%rsp)
vpermps %ymm8, %ymm1, %ymm4
vmovaps %ymm4, 0x6a0(%rsp)
vmovaps %ymm8, 0x300(%rsp)
vpermps %ymm8, %ymm2, %ymm4
vmovaps %ymm4, 0x680(%rsp)
vbroadcastss %xmm7, %ymm4
vmovaps %ymm4, 0x660(%rsp)
vpermps %ymm7, %ymm0, %ymm4
vmovaps %ymm4, 0x640(%rsp)
vpermps %ymm7, %ymm1, %ymm4
vmovaps %ymm4, 0x620(%rsp)
vmovaps %ymm7, 0x320(%rsp)
vpermps %ymm7, %ymm2, %ymm4
vmovaps %ymm4, 0x600(%rsp)
vbroadcastss %xmm3, %ymm4
vmovaps %ymm4, 0x5e0(%rsp)
vpermps %ymm3, %ymm0, %ymm0
vmovaps %ymm0, 0x5c0(%rsp)
vpermps %ymm3, %ymm1, %ymm0
vmovaps %ymm0, 0x5a0(%rsp)
vmovaps %ymm3, 0x2e0(%rsp)
vpermps %ymm3, %ymm2, %ymm0
vmovaps %ymm0, 0x580(%rsp)
vmulss %xmm21, %xmm21, %xmm0
vfmadd231ps %ymm30, %ymm30, %ymm0 # ymm0 = (ymm30 * ymm30) + ymm0
vfmadd231ps %ymm26, %ymm26, %ymm0 # ymm0 = (ymm26 * ymm26) + ymm0
vbroadcastss %xmm0, %ymm0
vmovaps %ymm0, 0x560(%rsp)
vandps 0x233dd1(%rip){1to8}, %ymm0, %ymm0 # 0x1f20ec4
vmovaps %ymm0, 0x4a0(%rsp)
vmovss %xmm10, 0x7c(%rsp)
vmovaps %xmm5, 0x280(%rsp)
vsubss %xmm5, %xmm10, %xmm0
vbroadcastss %xmm0, %ymm0
vmovaps %ymm0, 0x540(%rsp)
movq 0x70(%rsp), %rax
vpbroadcastd %eax, %zmm0
vmovdqa64 %zmm0, 0x840(%rsp)
movl $0x1, %r11d
xorl %r9d, %r9d
movq 0x100(%rsp), %rax
vpbroadcastd %eax, %zmm0
vmovdqa64 %zmm0, 0x800(%rsp)
vsqrtss %xmm11, %xmm11, %xmm0
vmovss %xmm0, 0x11c(%rsp)
vmovaps %xmm11, 0x250(%rsp)
vsqrtss %xmm11, %xmm11, %xmm0
vmovss %xmm0, 0x118(%rsp)
vmovsd 0x1ff574(%rip), %xmm2 # 0x1eec6f0
vmovaps 0x233d9c(%rip), %ymm3 # 0x1f20f20
vmovaps %ymm26, 0x140(%rsp)
vmovaps %ymm30, 0x120(%rsp)
vmovaps %ymm21, 0x1e0(%rsp)
vmovshdup %xmm2, %xmm0 # xmm0 = xmm2[1,1,3,3]
vsubss %xmm2, %xmm0, %xmm1
vmulss 0x233d24(%rip), %xmm1, %xmm6 # 0x1f20ed0
vmovaps %xmm2, 0x1a0(%rsp)
vbroadcastss %xmm2, %ymm5
vbroadcastss %xmm1, %ymm0
vmovaps %ymm5, 0x80(%rsp)
vmovaps %ymm0, 0x220(%rsp)
vfmadd231ps %ymm3, %ymm0, %ymm5 # ymm5 = (ymm0 * ymm3) + ymm5
vbroadcastss 0x1ff535(%rip), %ymm0 # 0x1eec714
vsubps %ymm5, %ymm0, %ymm7
vmovaps 0x6e0(%rsp), %ymm12
vmulps %ymm5, %ymm12, %ymm1
vmovaps 0x6c0(%rsp), %ymm13
vmulps %ymm5, %ymm13, %ymm2
vmovaps 0x6a0(%rsp), %ymm14
vmulps %ymm5, %ymm14, %ymm3
vmovaps 0x680(%rsp), %ymm15
vmulps %ymm5, %ymm15, %ymm4
vfmadd231ps 0x760(%rsp), %ymm7, %ymm1 # ymm1 = (ymm7 * mem) + ymm1
vfmadd231ps 0x740(%rsp), %ymm7, %ymm2 # ymm2 = (ymm7 * mem) + ymm2
vfmadd231ps 0x720(%rsp), %ymm7, %ymm3 # ymm3 = (ymm7 * mem) + ymm3
vfmadd231ps 0x700(%rsp), %ymm7, %ymm4 # ymm4 = (ymm7 * mem) + ymm4
vmovaps 0x660(%rsp), %ymm16
vmulps %ymm5, %ymm16, %ymm8
vmovaps 0x640(%rsp), %ymm17
vmulps %ymm5, %ymm17, %ymm9
vmovaps 0x620(%rsp), %ymm18
vmulps %ymm5, %ymm18, %ymm10
vmovaps 0x600(%rsp), %ymm19
vmulps %ymm5, %ymm19, %ymm11
vfmadd231ps %ymm12, %ymm7, %ymm8 # ymm8 = (ymm7 * ymm12) + ymm8
vfmadd231ps %ymm13, %ymm7, %ymm9 # ymm9 = (ymm7 * ymm13) + ymm9
vfmadd231ps %ymm14, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm14) + ymm10
vfmadd231ps %ymm15, %ymm7, %ymm11 # ymm11 = (ymm7 * ymm15) + ymm11
vmulps 0x5e0(%rsp), %ymm5, %ymm12
vmulps 0x5c0(%rsp), %ymm5, %ymm13
vmulps 0x5a0(%rsp), %ymm5, %ymm14
vmulps 0x580(%rsp), %ymm5, %ymm15
vfmadd231ps %ymm16, %ymm7, %ymm12 # ymm12 = (ymm7 * ymm16) + ymm12
vfmadd231ps %ymm17, %ymm7, %ymm13 # ymm13 = (ymm7 * ymm17) + ymm13
vfmadd231ps %ymm18, %ymm7, %ymm14 # ymm14 = (ymm7 * ymm18) + ymm14
vfmadd231ps %ymm19, %ymm7, %ymm15 # ymm15 = (ymm7 * ymm19) + ymm15
vmulps %ymm8, %ymm5, %ymm16
vmulps %ymm9, %ymm5, %ymm17
vmulps %ymm10, %ymm5, %ymm18
vmulps %ymm11, %ymm5, %ymm19
vfmadd231ps %ymm1, %ymm7, %ymm16 # ymm16 = (ymm7 * ymm1) + ymm16
vfmadd231ps %ymm2, %ymm7, %ymm17 # ymm17 = (ymm7 * ymm2) + ymm17
vfmadd231ps %ymm3, %ymm7, %ymm18 # ymm18 = (ymm7 * ymm3) + ymm18
vfmadd231ps %ymm4, %ymm7, %ymm19 # ymm19 = (ymm7 * ymm4) + ymm19
vmulps %ymm5, %ymm12, %ymm1
vmulps %ymm5, %ymm13, %ymm12
vmulps %ymm5, %ymm14, %ymm13
vmulps %ymm5, %ymm15, %ymm14
vfmadd231ps %ymm8, %ymm7, %ymm1 # ymm1 = (ymm7 * ymm8) + ymm1
vfmadd231ps %ymm9, %ymm7, %ymm12 # ymm12 = (ymm7 * ymm9) + ymm12
vfmadd231ps %ymm10, %ymm7, %ymm13 # ymm13 = (ymm7 * ymm10) + ymm13
vfmadd231ps %ymm11, %ymm7, %ymm14 # ymm14 = (ymm7 * ymm11) + ymm14
vmulps %ymm1, %ymm5, %ymm4
vmulps %ymm5, %ymm12, %ymm3
vmulps %ymm13, %ymm5, %ymm29
vmulps %ymm5, %ymm14, %ymm5
vfmadd231ps %ymm16, %ymm7, %ymm4 # ymm4 = (ymm7 * ymm16) + ymm4
vfmadd231ps %ymm17, %ymm7, %ymm3 # ymm3 = (ymm7 * ymm17) + ymm3
vfmadd231ps %ymm18, %ymm7, %ymm29 # ymm29 = (ymm7 * ymm18) + ymm29
vfmadd231ps %ymm7, %ymm19, %ymm5 # ymm5 = (ymm19 * ymm7) + ymm5
vsubps %ymm16, %ymm1, %ymm1
vsubps %ymm17, %ymm12, %ymm7
vsubps %ymm18, %ymm13, %ymm8
vsubps %ymm19, %ymm14, %ymm9
vbroadcastss 0x203c86(%rip), %ymm10 # 0x1ef0fec
vmulps %ymm1, %ymm10, %ymm1
vmulps %ymm7, %ymm10, %ymm7
vmulps %ymm10, %ymm8, %ymm8
vmulps %ymm10, %ymm9, %ymm9
vbroadcastss %xmm6, %ymm6
vmulps %ymm1, %ymm6, %ymm11
vmulps %ymm7, %ymm6, %ymm12
vmulps %ymm6, %ymm8, %ymm13
vmulps %ymm6, %ymm9, %ymm6
vmovaps %ymm4, %ymm8
vmovaps 0x272987(%rip), %ymm7 # 0x1f5fd20
vxorps %xmm31, %xmm31, %xmm31
vpermt2ps %ymm31, %ymm7, %ymm8
vmovaps %ymm3, %ymm9
vpermt2ps %ymm31, %ymm7, %ymm9
vmovaps %ymm29, %ymm10
vpermt2ps %ymm31, %ymm7, %ymm10
vaddps %ymm6, %ymm5, %ymm1
vmaxps %ymm1, %ymm5, %ymm14
vminps %ymm1, %ymm5, %ymm1
vmovaps %ymm5, %ymm15
vpermt2ps %ymm31, %ymm7, %ymm15
vmovaps %ymm11, %ymm19
vpermt2ps %ymm31, %ymm7, %ymm19
vmovaps %ymm12, %ymm20
vpermt2ps %ymm31, %ymm7, %ymm20
vmovaps %ymm13, %ymm2
vpermt2ps %ymm31, %ymm7, %ymm2
vpermt2ps %ymm31, %ymm7, %ymm6
vsubps %ymm6, %ymm15, %ymm16
vsubps %ymm4, %ymm8, %ymm7
vsubps %ymm3, %ymm9, %ymm6
vsubps %ymm29, %ymm10, %ymm5
vmulps %ymm13, %ymm6, %ymm17
vfmsub231ps %ymm5, %ymm12, %ymm17 # ymm17 = (ymm12 * ymm5) - ymm17
vmulps %ymm11, %ymm5, %ymm18
vfmsub231ps %ymm7, %ymm13, %ymm18 # ymm18 = (ymm13 * ymm7) - ymm18
vmulps %ymm12, %ymm7, %ymm22
vfmsub231ps %ymm6, %ymm11, %ymm22 # ymm22 = (ymm11 * ymm6) - ymm22
vmulps %ymm22, %ymm22, %ymm22
vfmadd231ps %ymm18, %ymm18, %ymm22 # ymm22 = (ymm18 * ymm18) + ymm22
vfmadd231ps %ymm17, %ymm17, %ymm22 # ymm22 = (ymm17 * ymm17) + ymm22
vmulps %ymm5, %ymm5, %ymm17
vfmadd231ps %ymm6, %ymm6, %ymm17 # ymm17 = (ymm6 * ymm6) + ymm17
vfmadd231ps %ymm7, %ymm7, %ymm17 # ymm17 = (ymm7 * ymm7) + ymm17
vrcp14ps %ymm17, %ymm18
vmovaps %ymm18, %ymm23
vfnmadd213ps %ymm0, %ymm17, %ymm23 # ymm23 = -(ymm17 * ymm23) + ymm0
vfmadd132ps %ymm18, %ymm18, %ymm23 # ymm23 = (ymm23 * ymm18) + ymm18
vmulps %ymm23, %ymm22, %ymm18
vmulps %ymm2, %ymm6, %ymm22
vfmsub231ps %ymm5, %ymm20, %ymm22 # ymm22 = (ymm20 * ymm5) - ymm22
vmulps %ymm19, %ymm5, %ymm24
vfmsub231ps %ymm7, %ymm2, %ymm24 # ymm24 = (ymm2 * ymm7) - ymm24
vmulps %ymm20, %ymm7, %ymm25
vfmsub231ps %ymm6, %ymm19, %ymm25 # ymm25 = (ymm19 * ymm6) - ymm25
vmulps %ymm25, %ymm25, %ymm25
vfmadd231ps %ymm24, %ymm24, %ymm25 # ymm25 = (ymm24 * ymm24) + ymm25
vfmadd231ps %ymm22, %ymm22, %ymm25 # ymm25 = (ymm22 * ymm22) + ymm25
vmulps %ymm23, %ymm25, %ymm22
vmaxps %ymm22, %ymm18, %ymm18
vsqrtps %ymm18, %ymm18
vmaxps %ymm15, %ymm16, %ymm22
vmaxps %ymm22, %ymm14, %ymm14
vaddps %ymm14, %ymm18, %ymm14
vminps %ymm15, %ymm16, %ymm15
vminps %ymm15, %ymm1, %ymm1
vsubps %ymm18, %ymm1, %ymm1
vmulps 0x203458(%rip){1to8}, %ymm14, %ymm14 # 0x1ef0940
vmulps 0x203452(%rip){1to8}, %ymm1, %ymm1 # 0x1ef0944
vmovaps %ymm1, 0x200(%rsp)
vmulps %ymm14, %ymm14, %ymm1
vrsqrt14ps %ymm17, %ymm15
vmulps 0x1ff20c(%rip){1to8}, %ymm17, %ymm14 # 0x1eec71c
vmulps %ymm14, %ymm15, %ymm14
vmulps %ymm15, %ymm15, %ymm16
vmulps %ymm14, %ymm16, %ymm14
vfmadd231ps 0x1ff1ed(%rip){1to8}, %ymm15, %ymm14 # ymm14 = (ymm15 * mem) + ymm14
vmulps %ymm7, %ymm14, %ymm15
vmulps %ymm14, %ymm6, %ymm16
vmulps %ymm14, %ymm5, %ymm18
vsubps %ymm4, %ymm31, %ymm27
vsubps %ymm3, %ymm31, %ymm28
vmovaps %ymm29, 0xa0(%rsp)
vsubps %ymm29, %ymm31, %ymm29
vmulps %ymm29, %ymm21, %ymm22
vfmadd231ps %ymm28, %ymm30, %ymm22 # ymm22 = (ymm30 * ymm28) + ymm22
vfmadd231ps %ymm27, %ymm26, %ymm22 # ymm22 = (ymm26 * ymm27) + ymm22
vmulps %ymm29, %ymm29, %ymm24
vfmadd231ps %ymm28, %ymm28, %ymm24 # ymm24 = (ymm28 * ymm28) + ymm24
vfmadd231ps %ymm27, %ymm27, %ymm24 # ymm24 = (ymm27 * ymm27) + ymm24
vmulps %ymm18, %ymm21, %ymm17
vfmadd231ps %ymm30, %ymm16, %ymm17 # ymm17 = (ymm16 * ymm30) + ymm17
vfmadd231ps %ymm26, %ymm15, %ymm17 # ymm17 = (ymm15 * ymm26) + ymm17
vmulps %ymm18, %ymm29, %ymm18
vfmadd231ps %ymm16, %ymm28, %ymm18 # ymm18 = (ymm28 * ymm16) + ymm18
vfmadd231ps %ymm15, %ymm27, %ymm18 # ymm18 = (ymm27 * ymm15) + ymm18
vmulps %ymm17, %ymm17, %ymm21
vmovaps 0x560(%rsp), %ymm15
vsubps %ymm21, %ymm15, %ymm15
vmulps %ymm18, %ymm17, %ymm25
vsubps %ymm25, %ymm22, %ymm22
vaddps %ymm22, %ymm22, %ymm22
vmulps %ymm18, %ymm18, %ymm25
vsubps %ymm25, %ymm24, %ymm16
vmovaps %ymm16, 0xc0(%rsp)
vsubps %ymm1, %ymm16, %ymm1
vmulps %ymm22, %ymm22, %ymm25
vmulps 0x1ff59e(%rip){1to8}, %ymm15, %ymm26 # 0x1eecb8c
vmulps %ymm1, %ymm26, %ymm30
vsubps %ymm30, %ymm25, %ymm30
vxorps %xmm16, %xmm16, %xmm16
vcmpnltps %ymm31, %ymm30, %k1
kmovd %k1, %eax
kortestb %k1, %k1
je 0x1ced6fa
vsqrtps %ymm30, %ymm30
vaddps %ymm15, %ymm15, %ymm31
vrcp14ps %ymm31, %ymm23
vfnmadd213ps %ymm0, %ymm23, %ymm31 # ymm31 = -(ymm23 * ymm31) + ymm0
vfmadd132ps %ymm23, %ymm23, %ymm31 # ymm31 = (ymm31 * ymm23) + ymm23
vxorps 0x233883(%rip){1to8}, %ymm22, %ymm23 # 0x1f20ec0
vsubps %ymm30, %ymm23, %ymm23
vmulps %ymm31, %ymm23, %ymm23
vsubps %ymm22, %ymm30, %ymm30
vmulps %ymm31, %ymm30, %ymm31
vmovaps %ymm17, %ymm30
vfmadd213ps %ymm18, %ymm23, %ymm30 # ymm30 = (ymm23 * ymm30) + ymm18
vmulps %ymm30, %ymm14, %ymm30
vmovaps %ymm30, 0x460(%rsp)
vmovaps %ymm17, %ymm30
vfmadd213ps %ymm18, %ymm31, %ymm30 # ymm30 = (ymm31 * ymm30) + ymm18
vmulps %ymm30, %ymm14, %ymm30
vmovaps %ymm30, 0x440(%rsp)
vbroadcastss 0x1fe38e(%rip), %ymm0 # 0x1eeba20
vblendmps %ymm23, %ymm0, %ymm30 {%k1}
vbroadcastss 0x1ff4e3(%rip), %ymm0 # 0x1eecb84
vblendmps %ymm31, %ymm0, %ymm31 {%k1}
vbroadcastss 0x233814(%rip), %ymm0 # 0x1f20ec4
vmovaps %ymm21, %ymm24
vandps %ymm0, %ymm21, %ymm23
vmovaps 0x4a0(%rsp), %ymm21
vmaxps %ymm23, %ymm21, %ymm23
vmulps 0x2047e0(%rip){1to8}, %ymm23, %ymm23 # 0x1ef1eb4
vandps %ymm0, %ymm15, %ymm0
vcmpltps %ymm23, %ymm0, %k1 {%k1}
kortestb %k1, %k1
jne 0x1cef4dc
vbroadcastss 0x1ff022(%rip), %ymm0 # 0x1eec714
vmovaps %ymm24, %ymm21
jmp 0x1ced70e
vbroadcastss 0x1fe31c(%rip), %ymm30 # 0x1eeba20
vbroadcastss 0x1ff476(%rip), %ymm31 # 0x1eecb84
andb $0x7f, %al
je 0x1cedae1
vmovaps %ymm21, 0x3a0(%rsp)
movq 0x38(%rsp), %rcx
vmovaps %ymm0, %ymm16
vmovss 0x200(%r12,%rcx,4), %xmm0
vsubss 0x280(%rsp), %xmm0, %xmm0
vbroadcastss %xmm0, %ymm0
vminps %ymm31, %ymm0, %ymm0
vmovaps 0x540(%rsp), %ymm1
vmaxps %ymm30, %ymm1, %ymm1
vmulps %ymm13, %ymm29, %ymm23
vfmadd213ps %ymm23, %ymm12, %ymm28 # ymm28 = (ymm12 * ymm28) + ymm23
vfmadd213ps %ymm28, %ymm11, %ymm27 # ymm27 = (ymm11 * ymm27) + ymm28
vmovaps 0x1e0(%rsp), %ymm21
vmulps %ymm13, %ymm21, %ymm13
vmovaps 0x120(%rsp), %ymm24
vfmadd231ps %ymm12, %ymm24, %ymm13 # ymm13 = (ymm24 * ymm12) + ymm13
vmovaps 0x140(%rsp), %ymm31
vfmadd231ps %ymm11, %ymm31, %ymm13 # ymm13 = (ymm31 * ymm11) + ymm13
vbroadcastss 0x233728(%rip), %ymm28 # 0x1f20ec4
vandps %ymm28, %ymm13, %ymm11
vbroadcastss 0x20383c(%rip), %ymm29 # 0x1ef0fe8
vcmpltps %ymm29, %ymm11, %k0
vbroadcastss 0x233703(%rip), %ymm30 # 0x1f20ec0
vxorps %ymm30, %ymm27, %ymm11
vrcp14ps %ymm13, %ymm12
vxorps %ymm30, %ymm13, %ymm23
vmovaps %ymm12, %ymm27
vfnmadd213ps %ymm16, %ymm13, %ymm27 # ymm27 = -(ymm13 * ymm27) + ymm16
vfmadd132ps %ymm12, %ymm12, %ymm27 # ymm27 = (ymm27 * ymm12) + ymm12
vmulps %ymm11, %ymm27, %ymm11
vcmpltps %ymm23, %ymm13, %k1
korb %k1, %k0, %k1
vbroadcastss 0x1ff388(%rip), %ymm27 # 0x1eecb84
vblendmps %ymm27, %ymm11, %ymm12 {%k1}
vmaxps %ymm12, %ymm1, %ymm1
vcmpnleps %ymm23, %ymm13, %k1
korb %k1, %k0, %k1
vbroadcastss 0x1fe205(%rip), %ymm13 # 0x1eeba20
vmovaps %ymm13, %ymm11 {%k1}
vminps %ymm11, %ymm0, %ymm0
vxorps %xmm23, %xmm23, %xmm23
vsubps %ymm8, %ymm23, %ymm8
vsubps %ymm9, %ymm23, %ymm9
vsubps %ymm10, %ymm23, %ymm10
vmulps %ymm2, %ymm10, %ymm10
vfnmsub231ps %ymm9, %ymm20, %ymm10 # ymm10 = -(ymm20 * ymm9) - ymm10
vfnmadd231ps %ymm8, %ymm19, %ymm10 # ymm10 = -(ymm19 * ymm8) + ymm10
vmulps %ymm2, %ymm21, %ymm8
vfnmsub231ps %ymm20, %ymm24, %ymm8 # ymm8 = -(ymm24 * ymm20) - ymm8
vfnmadd231ps %ymm19, %ymm31, %ymm8 # ymm8 = -(ymm31 * ymm19) + ymm8
vandps %ymm28, %ymm8, %ymm9
vcmpltps %ymm29, %ymm9, %k0
vxorps %ymm30, %ymm10, %ymm9
vrcp14ps %ymm8, %ymm10
vxorps %ymm30, %ymm8, %ymm11
vmovaps %ymm10, %ymm12
vfnmadd213ps %ymm16, %ymm8, %ymm12 # ymm12 = -(ymm8 * ymm12) + ymm16
vfmadd132ps %ymm10, %ymm10, %ymm12 # ymm12 = (ymm12 * ymm10) + ymm10
vmulps %ymm9, %ymm12, %ymm9
vcmpltps %ymm11, %ymm8, %k1
korb %k1, %k0, %k1
vblendmps %ymm27, %ymm9, %ymm10 {%k1}
vmaxps %ymm10, %ymm1, %ymm1
vcmpnleps %ymm11, %ymm8, %k1
korb %k1, %k0, %k1
vmovaps %ymm13, %ymm9 {%k1}
vminps %ymm9, %ymm0, %ymm8
vmovaps %ymm1, 0x360(%rsp)
vcmpleps %ymm8, %ymm1, %k0
kmovd %k0, %ecx
andb %cl, %al
je 0x1cedb06
vmovaps 0x460(%rsp), %ymm0
vmaxps 0x200(%rsp), %ymm23, %ymm1
vminps %ymm16, %ymm0, %ymm0
vxorps %xmm10, %xmm10, %xmm10
vmaxps %ymm10, %ymm0, %ymm0
vmovaps 0x440(%rsp), %ymm9
vminps %ymm16, %ymm9, %ymm9
vmovaps 0x23362c(%rip), %ymm11 # 0x1f20f40
vaddps %ymm0, %ymm11, %ymm0
vbroadcastss 0x230b97(%rip), %ymm12 # 0x1f1e4b8
vmulps %ymm0, %ymm12, %ymm0
vmovaps 0x80(%rsp), %ymm2
vmovaps 0x220(%rsp), %ymm13
vfmadd213ps %ymm2, %ymm13, %ymm0 # ymm0 = (ymm13 * ymm0) + ymm2
vmovaps %ymm0, 0x460(%rsp)
vmaxps %ymm10, %ymm9, %ymm0
vaddps %ymm0, %ymm11, %ymm0
vmulps %ymm0, %ymm12, %ymm0
vfmadd213ps %ymm2, %ymm13, %ymm0 # ymm0 = (ymm13 * ymm0) + ymm2
vmovaps %ymm0, 0x440(%rsp)
vmulps %ymm1, %ymm1, %ymm0
vmovaps 0xc0(%rsp), %ymm1
vsubps %ymm0, %ymm1, %ymm11
vmulps %ymm11, %ymm26, %ymm0
vsubps %ymm0, %ymm25, %ymm0
vcmpnltps %ymm10, %ymm0, %k0
kortestb %k0, %k0
je 0x1cedb23
vxorps %xmm20, %xmm20, %xmm20
vcmpnltps %ymm23, %ymm0, %k1
vsqrtps %ymm0, %ymm0
vaddps %ymm15, %ymm15, %ymm1
vrcp14ps %ymm1, %ymm9
vfnmadd213ps %ymm16, %ymm9, %ymm1 # ymm1 = -(ymm9 * ymm1) + ymm16
vfmadd132ps %ymm9, %ymm9, %ymm1 # ymm1 = (ymm1 * ymm9) + ymm9
vxorps 0x233501(%rip){1to8}, %ymm22, %ymm9 # 0x1f20ec0
vsubps %ymm0, %ymm9, %ymm9
vmulps %ymm1, %ymm9, %ymm12
vsubps %ymm22, %ymm0, %ymm0
vmulps %ymm1, %ymm0, %ymm13
vmovaps %ymm17, %ymm0
vfmadd213ps %ymm18, %ymm12, %ymm0 # ymm0 = (ymm12 * ymm0) + ymm18
vmulps %ymm0, %ymm14, %ymm9
vmovaps 0x140(%rsp), %ymm26
vmulps %ymm12, %ymm26, %ymm0
vmovaps 0x120(%rsp), %ymm30
vmulps %ymm12, %ymm30, %ymm1
vmulps %ymm12, %ymm21, %ymm10
vmovaps %ymm7, %ymm19
vfmadd213ps %ymm4, %ymm9, %ymm19 # ymm19 = (ymm9 * ymm19) + ymm4
vsubps %ymm19, %ymm0, %ymm0
vmovaps %ymm6, %ymm19
vfmadd213ps %ymm3, %ymm9, %ymm19 # ymm19 = (ymm9 * ymm19) + ymm3
vsubps %ymm19, %ymm1, %ymm1
vmovaps 0xa0(%rsp), %ymm2
vfmadd213ps %ymm2, %ymm5, %ymm9 # ymm9 = (ymm5 * ymm9) + ymm2
vsubps %ymm9, %ymm10, %ymm9
vfmadd213ps %ymm18, %ymm13, %ymm17 # ymm17 = (ymm13 * ymm17) + ymm18
vmulps %ymm17, %ymm14, %ymm14
vmulps %ymm13, %ymm26, %ymm10
vmulps %ymm13, %ymm30, %ymm17
vmulps %ymm13, %ymm21, %ymm18
vfmadd213ps %ymm4, %ymm14, %ymm7 # ymm7 = (ymm14 * ymm7) + ymm4
vsubps %ymm7, %ymm10, %ymm10
vfmadd213ps %ymm3, %ymm14, %ymm6 # ymm6 = (ymm14 * ymm6) + ymm3
vsubps %ymm6, %ymm17, %ymm3
vfmadd213ps %ymm2, %ymm14, %ymm5 # ymm5 = (ymm14 * ymm5) + ymm2
vsubps %ymm5, %ymm18, %ymm5
vbroadcastss 0x1fdfa0(%rip), %ymm2 # 0x1eeba20
vblendmps %ymm12, %ymm2, %ymm4 {%k1}
vbroadcastss 0x1ff0f5(%rip), %ymm2 # 0x1eecb84
vblendmps %ymm13, %ymm2, %ymm2 {%k1}
vbroadcastss 0x233426(%rip), %ymm7 # 0x1f20ec4
vandps 0x3a0(%rsp), %ymm7, %ymm6
vmovaps 0x4a0(%rsp), %ymm12
vmaxps %ymm6, %ymm12, %ymm6
vmulps 0x2043f6(%rip){1to8}, %ymm6, %ymm6 # 0x1ef1eb4
vandps %ymm7, %ymm15, %ymm7
vcmpltps %ymm6, %ymm7, %k1 {%k1}
kortestb %k1, %k1
jne 0x1cef525
vbroadcastss 0x2333e8(%rip), %xmm11 # 0x1f20ec4
jmp 0x1cedb63
vmovaps 0x233437(%rip), %ymm3 # 0x1f20f20
vmovaps 0x140(%rsp), %ymm26
vmovaps 0x120(%rsp), %ymm30
vmovaps 0x1e0(%rsp), %ymm21
jmp 0x1cef3cc
vmovaps 0x233412(%rip), %ymm3 # 0x1f20f20
vmovaps 0x140(%rsp), %ymm26
vmovaps 0x120(%rsp), %ymm30
jmp 0x1cef3cc
vxorps %xmm3, %xmm3, %xmm3
vxorps %xmm5, %xmm5, %xmm5
vxorps %xmm0, %xmm0, %xmm0
vxorps %xmm1, %xmm1, %xmm1
vxorps %xmm9, %xmm9, %xmm9
vbroadcastss 0x1fdedf(%rip), %ymm4 # 0x1eeba20
vbroadcastss 0x1ff03a(%rip), %ymm2 # 0x1eecb84
vbroadcastss 0x233371(%rip), %xmm11 # 0x1f20ec4
vmovaps 0x140(%rsp), %ymm26
vmovaps 0x120(%rsp), %ymm30
vmulps %ymm5, %ymm21, %ymm5
vfmadd231ps %ymm3, %ymm30, %ymm5 # ymm5 = (ymm30 * ymm3) + ymm5
vfmadd231ps %ymm10, %ymm26, %ymm5 # ymm5 = (ymm26 * ymm10) + ymm5
vmovaps 0x360(%rsp), %ymm7
vmovaps %ymm7, 0x780(%rsp)
vminps %ymm4, %ymm8, %ymm3
vmovaps %ymm3, 0x7a0(%rsp)
vbroadcastss 0x233327(%rip), %ymm6 # 0x1f20ec4
vandps %ymm6, %ymm5, %ymm4
vmaxps %ymm2, %ymm7, %ymm5
vmovaps %ymm5, 0x4c0(%rsp)
vmovaps %ymm8, 0x4e0(%rsp)
vbroadcastss 0x233314(%rip), %ymm2 # 0x1f20ed4
vcmpltps %ymm2, %ymm4, %k1
kmovd %k1, 0x114(%rsp)
vcmpleps %ymm3, %ymm7, %k1
kmovd %k1, %ecx
andb %al, %cl
vmovaps %ymm5, 0x400(%rsp)
vcmpleps %ymm8, %ymm5, %k1
kmovd %k1, %edx
andb %al, %dl
movl %edx, %eax
orb %cl, %al
je 0x1cef39a
movl %edx, 0x54(%rsp)
movq %r9, 0x1d0(%rsp)
movq %r10, 0x1d8(%rsp)
knotb %k0, %k1
vmovaps %ymm2, %ymm3
vmulps %ymm9, %ymm21, %ymm2
vfmadd213ps %ymm2, %ymm30, %ymm1 # ymm1 = (ymm30 * ymm1) + ymm2
vfmadd213ps %ymm1, %ymm26, %ymm0 # ymm0 = (ymm26 * ymm0) + ymm1
vandps %ymm6, %ymm0, %ymm0
vcmpltps %ymm3, %ymm0, %k0
kmovd %k1, 0x10c(%rsp)
korb %k1, %k0, %k1
vpbroadcastd 0x23328e(%rip), %ymm0 # 0x1f20edc
vpblendmd 0x233280(%rip){1to8}, %ymm0, %ymm0 {%k1} # 0x1f20ed8
movq %r11, 0x1c8(%rsp)
vpbroadcastd %r11d, %ymm1
vmovdqa %ymm0, 0x500(%rsp)
vmovdqa %ymm1, 0x480(%rsp)
vpcmpnltd %ymm0, %ymm1, %k0
kmovd %k0, %ebx
movl %ecx, 0x110(%rsp)
andb %cl, %bl
je 0x1cee76b
vmovaps 0x340(%rsp), %ymm1
vmovaps 0x300(%rsp), %ymm2
vminps %xmm2, %xmm1, %xmm0
vmaxps %xmm2, %xmm1, %xmm1
vmovaps 0x320(%rsp), %ymm3
vmovaps 0x2e0(%rsp), %ymm4
vminps %xmm4, %xmm3, %xmm2
vminps %xmm2, %xmm0, %xmm0
vmaxps %xmm4, %xmm3, %xmm2
vmaxps %xmm2, %xmm1, %xmm1
vandps %xmm0, %xmm11, %xmm0
vandps %xmm1, %xmm11, %xmm2
vmaxps %xmm2, %xmm0, %xmm0
vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3]
vmaxss %xmm0, %xmm2, %xmm2
vshufpd $0x1, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[1,0]
vmaxss %xmm2, %xmm0, %xmm0
vmulss 0x2041c1(%rip), %xmm0, %xmm0 # 0x1ef1eb4
vmovss %xmm0, 0x64(%rsp)
vshufps $0xff, %xmm1, %xmm1, %xmm0 # xmm0 = xmm1[3,3,3,3]
vmovaps %xmm0, 0x270(%rsp)
vmovaps 0x360(%rsp), %ymm0
vaddps 0x380(%rsp), %ymm0, %ymm0
vmovaps %ymm0, 0x420(%rsp)
kmovd %ebx, %k1
vbroadcastss 0x1fdcf1(%rip), %ymm0 # 0x1eeba20
vblendmps 0x360(%rsp), %ymm0, %ymm0 {%k1}
vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm0, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1]
vminps %ymm2, %ymm1, %ymm1
vcmpeqps %ymm1, %ymm0, %k0
kmovd %k0, %eax
andb %bl, %al
movzbl %al, %eax
movzbl %bl, %ecx
cmovnel %eax, %ecx
tzcntl %ecx, %ecx
movb $0x1, %bl
shlb %cl, %bl
shll $0x2, %ecx
vmovss 0x460(%rsp,%rcx), %xmm8
vmovss 0x780(%rsp,%rcx), %xmm9
vmovaps 0x250(%rsp), %xmm0
vucomiss 0x1fdc8d(%rip), %xmm0 # 0x1eeba24
vmovss 0x118(%rsp), %xmm0
jae 0x1cedde9
vmovaps 0x250(%rsp), %xmm0
vmovaps %xmm8, 0xc0(%rsp)
vmovaps %xmm9, 0xa0(%rsp)
kmovw %k1, 0x80(%rsp)
vzeroupper
callq 0x6aa20
kmovw 0x80(%rsp), %k1
vmovaps 0xa0(%rsp), %xmm9
vmovaps 0xc0(%rsp), %xmm8
movzbl %bl, %eax
kmovd %eax, %k0
kandnb %k1, %k0, %k0
kmovd %k0, %ebx
vmulss 0x2040b4(%rip), %xmm0, %xmm0 # 0x1ef1eb4
vmovss %xmm0, 0x68(%rsp)
movl $0x4, %r14d
vbroadcastss %xmm9, %xmm0
vxorps %xmm1, %xmm1, %xmm1
vfmadd132ps 0x260(%rsp), %xmm1, %xmm0 # xmm0 = (xmm0 * mem) + xmm1
vmovss 0x1fe8ed(%rip), %xmm1 # 0x1eec714
vsubss %xmm8, %xmm1, %xmm3
vbroadcastss %xmm8, %xmm1
vmovaps 0x300(%rsp), %ymm5
vmulps %xmm1, %xmm5, %xmm2
vmovaps %xmm3, 0x2d0(%rsp)
vbroadcastss %xmm3, %xmm3
vfmadd231ps 0x340(%rsp), %xmm3, %xmm2 # xmm2 = (xmm3 * mem) + xmm2
vmovaps 0x320(%rsp), %ymm6
vmulps %xmm1, %xmm6, %xmm4
vfmadd231ps %xmm5, %xmm3, %xmm4 # xmm4 = (xmm3 * xmm5) + xmm4
vmulps 0x2e0(%rsp), %xmm1, %xmm5
vfmadd231ps %xmm6, %xmm3, %xmm5 # xmm5 = (xmm3 * xmm6) + xmm5
vmulps %xmm4, %xmm1, %xmm6
vfmadd231ps %xmm2, %xmm3, %xmm6 # xmm6 = (xmm3 * xmm2) + xmm6
vmulps %xmm5, %xmm1, %xmm2
vfmadd231ps %xmm4, %xmm3, %xmm2 # xmm2 = (xmm3 * xmm4) + xmm2
vmulps %xmm2, %xmm1, %xmm4
vfmadd231ps %xmm3, %xmm6, %xmm4 # xmm4 = (xmm6 * xmm3) + xmm4
vsubps %xmm6, %xmm2, %xmm1
vmulps 0x20314d(%rip){1to4}, %xmm1, %xmm10 # 0x1ef0fec
vmovaps %xmm4, 0x3a0(%rsp)
vsubps %xmm4, %xmm0, %xmm0
vmovaps %xmm0, 0x220(%rsp)
vdpps $0x7f, %xmm0, %xmm0, %xmm0
vucomiss 0x1fdb61(%rip), %xmm0 # 0x1eeba24
vmovaps %xmm10, 0x80(%rsp)
vmovaps %xmm0, 0x200(%rsp)
vmovaps %xmm8, 0xc0(%rsp)
vmovaps %xmm9, 0xa0(%rsp)
jb 0x1cedeef
vsqrtss %xmm0, %xmm0, %xmm7
jmp 0x1cedf04
vzeroupper
callq 0x6aa20
vmovaps 0x80(%rsp), %xmm10
vmovaps %xmm0, %xmm7
vdpps $0x7f, %xmm10, %xmm10, %xmm0
vxorps %xmm1, %xmm1, %xmm1
vmovss %xmm0, %xmm1, %xmm2 # xmm2 = xmm0[0],xmm1[1,2,3]
vrsqrt14ss %xmm2, %xmm1, %xmm3
vmulss 0x1fe7f8(%rip), %xmm3, %xmm4 # 0x1eec718
vmulss 0x1fe7f4(%rip), %xmm0, %xmm5 # 0x1eec71c
vrcp14ss %xmm2, %xmm1, %xmm2
vxorps 0x232f88(%rip){1to4}, %xmm0, %xmm1 # 0x1f20ec0
vmovaps %xmm2, 0x2b0(%rsp)
vfnmadd213ss 0x2030ae(%rip), %xmm0, %xmm2 # xmm2 = -(xmm0 * xmm2) + mem
vmovss %xmm2, 0x6c(%rsp)
vucomiss %xmm1, %xmm0
vmovss %xmm7, 0x44(%rsp)
vmovaps %xmm0, 0x2c0(%rsp)
jb 0x1cedf6d
vsqrtss %xmm0, %xmm0, %xmm16
jmp 0x1cedfba
vmovaps %xmm3, 0xf0(%rsp)
vmovss %xmm4, 0x40(%rsp)
vmovss %xmm5, 0xe0(%rsp)
vzeroupper
callq 0x6aa20
vmovss 0xe0(%rsp), %xmm5
vmovss 0x40(%rsp), %xmm4
vmovaps 0xf0(%rsp), %xmm3
vmovss 0x44(%rsp), %xmm7
vmovaps 0x80(%rsp), %xmm10
vmovaps %xmm0, %xmm16
vmovaps 0x220(%rsp), %xmm12
vmovaps 0x200(%rsp), %xmm19
vmulss %xmm3, %xmm5, %xmm0
vmulss %xmm3, %xmm3, %xmm1
vmulss %xmm1, %xmm0, %xmm0
vaddss %xmm0, %xmm4, %xmm0
vbroadcastss %xmm0, %xmm6
vmulps %xmm6, %xmm10, %xmm0
vmovaps %xmm0, 0xf0(%rsp)
vdpps $0x7f, %xmm0, %xmm12, %xmm15
vaddss 0x1fe719(%rip), %xmm7, %xmm14 # 0x1eec714
vmulps %xmm15, %xmm15, %xmm0
vsubps %xmm0, %xmm19, %xmm0
vxorps %xmm2, %xmm2, %xmm2
vmovss %xmm0, %xmm2, %xmm1 # xmm1 = xmm0[0],xmm2[1,2,3]
vrsqrt14ss %xmm1, %xmm2, %xmm18
vmulss 0x1fe6fa(%rip), %xmm18, %xmm17 # 0x1eec718
vmulss 0x1fe6f4(%rip), %xmm0, %xmm20 # 0x1eec71c
vucomiss 0x1fd9f4(%rip), %xmm0 # 0x1eeba24
jb 0x1cee03b
vsqrtss %xmm0, %xmm0, %xmm0
jmp 0x1cee0d3
vmovss %xmm14, 0x40(%rsp)
vmovaps %xmm15, 0xe0(%rsp)
vmovss %xmm16, 0x60(%rsp)
vmovss %xmm17, 0x5c(%rsp)
vmovaps %xmm18, 0x2a0(%rsp)
vmovss %xmm20, 0x58(%rsp)
vmovaps %xmm6, 0x290(%rsp)
vzeroupper
callq 0x6aa20
vmovaps 0x290(%rsp), %xmm6
vmovss 0x58(%rsp), %xmm20
vmovaps 0x2a0(%rsp), %xmm18
vmovss 0x5c(%rsp), %xmm17
vmovss 0x60(%rsp), %xmm16
vmovaps 0xe0(%rsp), %xmm15
vmovss 0x44(%rsp), %xmm7
vmovss 0x40(%rsp), %xmm14
vmovaps 0x200(%rsp), %xmm19
vmovaps 0x220(%rsp), %xmm12
vmovaps 0x80(%rsp), %xmm10
vbroadcastss 0x232de8(%rip), %xmm11 # 0x1f20ec4
vmovaps 0x140(%rsp), %ymm26
vmovaps 0x120(%rsp), %ymm30
vmovaps 0x1e0(%rsp), %ymm21
vmovaps 0xc0(%rsp), %xmm8
vmovaps 0xa0(%rsp), %xmm9
vmovss 0x2028ce(%rip), %xmm3 # 0x1ef09dc
vmovaps %xmm3, %xmm1
vmovaps 0x2d0(%rsp), %xmm5
vfmadd213ss %xmm5, %xmm8, %xmm1 # xmm1 = (xmm8 * xmm1) + xmm5
vmovss 0x202ecc(%rip), %xmm4 # 0x1ef0ff4
vmulss %xmm4, %xmm1, %xmm1
vmulss %xmm4, %xmm8, %xmm2
vbroadcastss %xmm2, %xmm2
vmulps 0x2e0(%rsp), %xmm2, %xmm2
vbroadcastss %xmm1, %xmm1
vfmadd132ps 0x320(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2
vmovaps %xmm3, %xmm2
vfmadd213ss %xmm8, %xmm5, %xmm2 # xmm2 = (xmm5 * xmm2) + xmm8
vmulss %xmm4, %xmm2, %xmm2
vbroadcastss %xmm2, %xmm2
vfmadd132ps 0x300(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1
vmulss %xmm4, %xmm5, %xmm1
vbroadcastss %xmm1, %xmm1
vfmadd132ps 0x340(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2
vbroadcastss 0x2c0(%rsp), %xmm2
vmulps %xmm2, %xmm1, %xmm2
vdpps $0x7f, %xmm1, %xmm10, %xmm1
vbroadcastss %xmm1, %xmm1
vmulps %xmm1, %xmm10, %xmm1
vsubps %xmm1, %xmm2, %xmm1
vmovss 0x6c(%rsp), %xmm2
vmulss 0x2b0(%rsp), %xmm2, %xmm2
vmulss 0x68(%rsp), %xmm9, %xmm3
vbroadcastss %xmm2, %xmm2
vmulps %xmm2, %xmm1, %xmm1
vxorps 0x232cfb(%rip){1to4}, %xmm10, %xmm2 # 0x1f20ec0
vmulps %xmm1, %xmm6, %xmm4
vmovaps 0xf0(%rsp), %xmm13
vdpps $0x7f, %xmm13, %xmm2, %xmm5
vmovss 0x64(%rsp), %xmm6
vmaxss %xmm3, %xmm6, %xmm1
vdivss %xmm16, %xmm6, %xmm3
vdpps $0x7f, %xmm4, %xmm12, %xmm4
vfmadd213ss %xmm1, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm7) + xmm1
vfmadd213ss %xmm7, %xmm3, %xmm14 # xmm14 = (xmm3 * xmm14) + xmm7
vmovaps 0x260(%rsp), %xmm7
vdpps $0x7f, %xmm13, %xmm7, %xmm3
vaddss %xmm4, %xmm5, %xmm4
vdpps $0x7f, %xmm2, %xmm12, %xmm5
vmulss %xmm18, %xmm20, %xmm2
vmulss %xmm18, %xmm18, %xmm6
vmulss %xmm6, %xmm2, %xmm2
vdpps $0x7f, %xmm7, %xmm12, %xmm6
vaddss %xmm2, %xmm17, %xmm7
vfnmadd231ss %xmm4, %xmm15, %xmm5 # xmm5 = -(xmm15 * xmm4) + xmm5
vfnmadd231ss %xmm3, %xmm15, %xmm6 # xmm6 = -(xmm15 * xmm3) + xmm6
vpermilps $0xff, 0x3a0(%rsp), %xmm2 # xmm2 = mem[3,3,3,3]
vsubss %xmm2, %xmm0, %xmm2
vshufps $0xff, %xmm10, %xmm10, %xmm0 # xmm0 = xmm10[3,3,3,3]
vfmsub213ss %xmm0, %xmm7, %xmm5 # xmm5 = (xmm7 * xmm5) - xmm0
vmulss %xmm7, %xmm6, %xmm6
vmulss %xmm5, %xmm3, %xmm7
vfmsub231ss %xmm6, %xmm4, %xmm7 # xmm7 = (xmm4 * xmm6) - xmm7
vdivss %xmm7, %xmm6, %xmm6
vdivss %xmm7, %xmm5, %xmm5
vdivss %xmm7, %xmm3, %xmm3
vdivss %xmm7, %xmm4, %xmm4
vmulss %xmm6, %xmm15, %xmm6
vmulss %xmm3, %xmm2, %xmm3
vsubss %xmm3, %xmm6, %xmm3
vmulss %xmm5, %xmm15, %xmm5
vmulss %xmm4, %xmm2, %xmm4
vsubss %xmm5, %xmm4, %xmm4
vsubss %xmm3, %xmm8, %xmm8
vsubss %xmm4, %xmm9, %xmm9
vandps %xmm11, %xmm15, %xmm3
vucomiss %xmm3, %xmm14
jbe 0x1cee44d
vaddss %xmm1, %xmm14, %xmm1
vmovaps 0x270(%rsp), %xmm3
vfmadd231ss 0x203c01(%rip), %xmm3, %xmm1 # xmm1 = (xmm3 * mem) + xmm1
vandps %xmm2, %xmm11, %xmm2
vucomiss %xmm2, %xmm1
jbe 0x1cee44d
vaddss 0x280(%rsp), %xmm9, %xmm9
movb $0x1, %r13b
vucomiss 0x7c(%rsp), %xmm9
jb 0x1cee450
movq 0x38(%rsp), %rax
vmovss 0x200(%r12,%rax,4), %xmm4
vucomiss %xmm9, %xmm4
jb 0x1cee450
vucomiss 0x1fd729(%rip), %xmm8 # 0x1eeba24
jb 0x1cee450
vmovss 0x1fe40b(%rip), %xmm1 # 0x1eec714
vucomiss %xmm8, %xmm1
jb 0x1cee450
vxorps %xmm2, %xmm2, %xmm2
vmovss %xmm19, %xmm2, %xmm1 # xmm1 = xmm19[0],xmm2[1,2,3]
vrsqrt14ss %xmm1, %xmm2, %xmm1
vmulss 0x1fe3ec(%rip), %xmm1, %xmm2 # 0x1eec718
vmulss 0x1fe3e6(%rip), %xmm19, %xmm3 # 0x1eec71c
movq (%r15), %rax
movq 0x1e8(%rax), %rax
movq %r15, %rcx
movq 0x70(%rsp), %rdx
movq (%rax,%rdx,8), %r15
movq 0x38(%rsp), %rax
movl 0x240(%r12,%rax,4), %eax
testl %eax, 0x34(%r15)
je 0x1cee46d
vmulss %xmm1, %xmm3, %xmm3
vmulss %xmm1, %xmm1, %xmm1
vmulss %xmm1, %xmm3, %xmm1
vaddss %xmm1, %xmm2, %xmm1
vbroadcastss %xmm1, %xmm1
vmulps %xmm1, %xmm12, %xmm1
vfmadd213ps %xmm10, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm0) + xmm10
vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm10, %xmm10, %xmm3 # xmm3 = xmm10[1,2,0,3]
vmulps %xmm3, %xmm1, %xmm1
vfmsub231ps %xmm2, %xmm10, %xmm1 # xmm1 = (xmm10 * xmm2) - xmm1
vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3]
vshufps $0xd2, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,0,1,3]
vmulps %xmm1, %xmm0, %xmm0
vfmsub231ps %xmm3, %xmm2, %xmm0 # xmm0 = (xmm2 * xmm3) - xmm0
movq 0x10(%rcx), %rax
cmpq $0x0, 0x10(%rax)
jne 0x1cee472
cmpq $0x0, 0x40(%r15)
jne 0x1cee472
movq 0x38(%rsp), %rcx
vmovss %xmm9, 0x200(%r12,%rcx,4)
vextractps $0x1, %xmm0, 0x300(%r12,%rcx,4)
vextractps $0x2, %xmm0, 0x340(%r12,%rcx,4)
vmovss %xmm0, 0x380(%r12,%rcx,4)
vmovss %xmm8, 0x3c0(%r12,%rcx,4)
movl $0x0, 0x400(%r12,%rcx,4)
movq 0x100(%rsp), %rax
movl %eax, 0x440(%r12,%rcx,4)
movq 0x70(%rsp), %rax
movl %eax, 0x480(%r12,%rcx,4)
movq 0x48(%rsp), %r15
movq 0x8(%r15), %rax
movl (%rax), %eax
movl %eax, 0x4c0(%r12,%rcx,4)
movq 0x8(%r15), %rax
movl 0x4(%rax), %eax
movl %eax, 0x500(%r12,%rcx,4)
jmp 0x1cee450
xorl %r13d, %r13d
subq $0x1, %r14
setb %al
testb %r13b, %r13b
jne 0x1cee745
testb %al, %al
je 0x1cede0c
jmp 0x1cee745
movq %rcx, %r15
jmp 0x1cee450
movq 0x48(%rsp), %rcx
movq 0x8(%rcx), %rax
vbroadcastss %xmm8, %zmm1
vbroadcastss 0x224279(%rip), %zmm2 # 0x1f12704
vpermps %zmm0, %zmm2, %zmm2
vbroadcastss 0x232a41(%rip), %zmm3 # 0x1f20edc
vpermps %zmm0, %zmm3, %zmm3
vbroadcastss %xmm0, %zmm0
vmovaps %zmm2, 0x880(%rsp)
vmovaps %zmm3, 0x8c0(%rsp)
vmovaps %zmm0, 0x900(%rsp)
vmovaps %zmm1, 0x940(%rsp)
vxorps %xmm0, %xmm0, %xmm0
vmovaps %zmm0, 0x980(%rsp)
vmovaps 0x800(%rsp), %zmm0
vmovaps %zmm0, 0x9c0(%rsp)
vmovdqa64 0x840(%rsp), %zmm0
vmovdqa64 %zmm0, 0xa00(%rsp)
movq 0x1b8(%rsp), %rdx
vpcmpeqd %ymm0, %ymm0, %ymm0
vmovdqa %ymm0, 0x60(%rdx)
vmovdqa %ymm0, 0x40(%rdx)
vmovdqa %ymm0, 0x20(%rdx)
vmovdqa %ymm0, (%rdx)
vbroadcastss (%rax), %zmm0
vmovaps %zmm0, 0xa40(%rsp)
vbroadcastss 0x4(%rax), %zmm0
vmovaps %zmm0, 0xa80(%rsp)
movq 0x38(%rsp), %rax
vmovss %xmm9, 0x200(%r12,%rax,4)
vmovaps 0x7c0(%rsp), %zmm0
vmovaps %zmm0, 0x3c0(%rsp)
leaq 0x3c0(%rsp), %rax
movq %rax, 0x170(%rsp)
movq 0x18(%r15), %rax
movq %rax, 0x178(%rsp)
movq 0x8(%rcx), %rax
movq %rax, 0x180(%rsp)
movq %r12, 0x188(%rsp)
leaq 0x880(%rsp), %rax
movq %rax, 0x190(%rsp)
movl $0x10, 0x198(%rsp)
movq 0x40(%r15), %rax
testq %rax, %rax
vmovaps %xmm8, 0xc0(%rsp)
vmovaps %xmm9, 0xa0(%rsp)
vmovss %xmm4, 0x80(%rsp)
je 0x1cee606
leaq 0x170(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0x80(%rsp), %xmm4
vmovaps 0xa0(%rsp), %xmm9
vmovaps 0xc0(%rsp), %xmm8
vmovaps 0x1e0(%rsp), %ymm21
vmovaps 0x120(%rsp), %ymm30
vmovaps 0x140(%rsp), %ymm26
vbroadcastss 0x2328be(%rip), %xmm11 # 0x1f20ec4
vmovdqa64 0x3c0(%rsp), %zmm0
vptestmd %zmm0, %zmm0, %k0
kortestw %k0, %k0
je 0x1cee72c
movq 0x48(%rsp), %rax
movq 0x10(%rax), %rcx
movq 0x10(%rcx), %rax
testq %rax, %rax
je 0x1cee685
testb $0x2, (%rcx)
jne 0x1cee63c
testb $0x40, 0x3e(%r15)
je 0x1cee685
leaq 0x170(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0x80(%rsp), %xmm4
vmovaps 0xa0(%rsp), %xmm9
vmovaps 0xc0(%rsp), %xmm8
vmovaps 0x1e0(%rsp), %ymm21
vmovaps 0x120(%rsp), %ymm30
vmovaps 0x140(%rsp), %ymm26
vbroadcastss 0x23283f(%rip), %xmm11 # 0x1f20ec4
vmovdqa64 0x3c0(%rsp), %zmm0
vptestmd %zmm0, %zmm0, %k1
kortestw %k1, %k1
je 0x1cee72c
movq 0x188(%rsp), %rax
movq 0x190(%rsp), %rcx
vmovaps (%rcx), %zmm0
vmovups %zmm0, 0x300(%rax) {%k1}
vmovaps 0x40(%rcx), %zmm0
vmovups %zmm0, 0x340(%rax) {%k1}
vmovaps 0x80(%rcx), %zmm0
vmovups %zmm0, 0x380(%rax) {%k1}
vmovaps 0xc0(%rcx), %zmm0
vmovups %zmm0, 0x3c0(%rax) {%k1}
vmovaps 0x100(%rcx), %zmm0
vmovups %zmm0, 0x400(%rax) {%k1}
vmovdqa64 0x140(%rcx), %zmm0
vmovdqu32 %zmm0, 0x440(%rax) {%k1}
vmovdqa64 0x180(%rcx), %zmm0
vmovdqu32 %zmm0, 0x480(%rax) {%k1}
vmovdqa64 0x1c0(%rcx), %zmm0
vmovdqa32 %zmm0, 0x4c0(%rax) {%k1}
vmovdqa64 0x200(%rcx), %zmm0
vmovdqa32 %zmm0, 0x500(%rax) {%k1}
jmp 0x1cee73b
movq 0x38(%rsp), %rax
vmovss %xmm4, 0x200(%r12,%rax,4)
movq 0x48(%rsp), %r15
jmp 0x1cee450
movq 0x38(%rsp), %rax
vmovaps 0x420(%rsp), %ymm0
vcmpleps 0x200(%r12,%rax,4){1to8}, %ymm0, %k0
kmovd %k0, %eax
andb %al, %bl
jne 0x1cedd22
vmovaps 0x400(%rsp), %ymm0
vaddps 0x380(%rsp), %ymm0, %ymm0
movq 0x38(%rsp), %rax
vcmpleps 0x200(%r12,%rax,4){1to8}, %ymm0, %k0
kmovd 0x114(%rsp), %k1
kmovd 0x10c(%rsp), %k2
korb %k2, %k1, %k1
kmovd %k0, %eax
movl 0x54(%rsp), %ecx
andb %al, %cl
vpbroadcastd 0x232723(%rip), %ymm0 # 0x1f20edc
vpblendmd 0x232715(%rip){1to8}, %ymm0, %ymm0 {%k1} # 0x1f20ed8
vmovdqa %ymm0, 0x400(%rsp)
vpcmpled 0x480(%rsp), %ymm0, %k0
kmovd %k0, %ebx
movl %ecx, 0x54(%rsp)
andb %cl, %bl
je 0x1cef2b5
vmovaps 0x4c0(%rsp), %ymm5
vmovaps 0x340(%rsp), %ymm1
vmovaps 0x300(%rsp), %ymm2
vminps %xmm2, %xmm1, %xmm0
vmaxps %xmm2, %xmm1, %xmm1
vmovaps 0x320(%rsp), %ymm3
vmovaps 0x2e0(%rsp), %ymm4
vminps %xmm4, %xmm3, %xmm2
vminps %xmm2, %xmm0, %xmm0
vmaxps %xmm4, %xmm3, %xmm2
vmaxps %xmm2, %xmm1, %xmm1
vandps %xmm0, %xmm11, %xmm0
vandps %xmm1, %xmm11, %xmm2
vmaxps %xmm2, %xmm0, %xmm0
vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3]
vmaxss %xmm0, %xmm2, %xmm2
vshufpd $0x1, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[1,0]
vmaxss %xmm2, %xmm0, %xmm0
vmulss 0x203665(%rip), %xmm0, %xmm0 # 0x1ef1eb4
vmovss %xmm0, 0x64(%rsp)
vshufps $0xff, %xmm1, %xmm1, %xmm0 # xmm0 = xmm1[3,3,3,3]
vmovaps %xmm0, 0x270(%rsp)
vmovaps %ymm5, 0x360(%rsp)
vaddps 0x380(%rsp), %ymm5, %ymm0
vmovaps %ymm0, 0x420(%rsp)
kmovd %ebx, %k1
vbroadcastss 0x1fd195(%rip), %ymm0 # 0x1eeba20
vblendmps 0x360(%rsp), %ymm0, %ymm0 {%k1}
vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm0, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1]
vminps %ymm2, %ymm1, %ymm1
vcmpeqps %ymm1, %ymm0, %k0
kmovd %k0, %eax
andb %bl, %al
movzbl %al, %eax
movzbl %bl, %ecx
cmovnel %eax, %ecx
tzcntl %ecx, %ecx
movb $0x1, %bl
shlb %cl, %bl
shll $0x2, %ecx
vmovss 0x440(%rsp,%rcx), %xmm9
vmovss 0x4e0(%rsp,%rcx), %xmm10
vmovaps 0x250(%rsp), %xmm0
vucomiss 0x1fd131(%rip), %xmm0 # 0x1eeba24
vmovss 0x11c(%rsp), %xmm0
jae 0x1cee945
vmovaps 0x250(%rsp), %xmm0
vmovaps %xmm9, 0xc0(%rsp)
vmovaps %xmm10, 0xa0(%rsp)
kmovw %k1, 0x80(%rsp)
vzeroupper
callq 0x6aa20
kmovw 0x80(%rsp), %k1
vmovaps 0xa0(%rsp), %xmm10
vmovaps 0xc0(%rsp), %xmm9
movzbl %bl, %eax
kmovd %eax, %k0
kandnb %k1, %k0, %k0
kmovd %k0, %ebx
vmulss 0x203558(%rip), %xmm0, %xmm0 # 0x1ef1eb4
vmovss %xmm0, 0x68(%rsp)
movl $0x4, %r14d
vbroadcastss %xmm10, %xmm0
vxorps %xmm1, %xmm1, %xmm1
vfmadd132ps 0x260(%rsp), %xmm1, %xmm0 # xmm0 = (xmm0 * mem) + xmm1
vmovss 0x1fdd91(%rip), %xmm1 # 0x1eec714
vsubss %xmm9, %xmm1, %xmm3
vbroadcastss %xmm9, %xmm1
vmovaps 0x300(%rsp), %ymm5
vmulps %xmm1, %xmm5, %xmm2
vmovaps %xmm3, 0x2d0(%rsp)
vbroadcastss %xmm3, %xmm3
vfmadd231ps 0x340(%rsp), %xmm3, %xmm2 # xmm2 = (xmm3 * mem) + xmm2
vmovaps 0x320(%rsp), %ymm6
vmulps %xmm1, %xmm6, %xmm4
vfmadd231ps %xmm5, %xmm3, %xmm4 # xmm4 = (xmm3 * xmm5) + xmm4
vmulps 0x2e0(%rsp), %xmm1, %xmm5
vfmadd231ps %xmm6, %xmm3, %xmm5 # xmm5 = (xmm3 * xmm6) + xmm5
vmulps %xmm4, %xmm1, %xmm6
vfmadd231ps %xmm2, %xmm3, %xmm6 # xmm6 = (xmm3 * xmm2) + xmm6
vmulps %xmm5, %xmm1, %xmm2
vfmadd231ps %xmm4, %xmm3, %xmm2 # xmm2 = (xmm3 * xmm4) + xmm2
vmulps %xmm2, %xmm1, %xmm4
vfmadd231ps %xmm3, %xmm6, %xmm4 # xmm4 = (xmm6 * xmm3) + xmm4
vsubps %xmm6, %xmm2, %xmm1
vmulps 0x2025f1(%rip){1to4}, %xmm1, %xmm11 # 0x1ef0fec
vmovaps %xmm4, 0x3a0(%rsp)
vsubps %xmm4, %xmm0, %xmm0
vmovaps %xmm0, 0x220(%rsp)
vdpps $0x7f, %xmm0, %xmm0, %xmm0
vucomiss 0x1fd005(%rip), %xmm0 # 0x1eeba24
vmovaps %xmm11, 0x80(%rsp)
vmovaps %xmm0, 0x200(%rsp)
vmovaps %xmm9, 0xc0(%rsp)
vmovaps %xmm10, 0xa0(%rsp)
jb 0x1ceea4b
vsqrtss %xmm0, %xmm0, %xmm7
jmp 0x1ceea60
vzeroupper
callq 0x6aa20
vmovaps 0x80(%rsp), %xmm11
vmovaps %xmm0, %xmm7
vdpps $0x7f, %xmm11, %xmm11, %xmm0
vxorps %xmm1, %xmm1, %xmm1
vmovss %xmm0, %xmm1, %xmm2 # xmm2 = xmm0[0],xmm1[1,2,3]
vrsqrt14ss %xmm2, %xmm1, %xmm3
vmulss 0x1fdc9c(%rip), %xmm3, %xmm4 # 0x1eec718
vmulss 0x1fdc98(%rip), %xmm0, %xmm5 # 0x1eec71c
vrcp14ss %xmm2, %xmm1, %xmm2
vxorps 0x23242c(%rip){1to4}, %xmm0, %xmm1 # 0x1f20ec0
vmovaps %xmm2, 0x2b0(%rsp)
vfnmadd213ss 0x202552(%rip), %xmm0, %xmm2 # xmm2 = -(xmm0 * xmm2) + mem
vmovss %xmm2, 0x6c(%rsp)
vucomiss %xmm1, %xmm0
vmovss %xmm7, 0x44(%rsp)
vmovaps %xmm0, 0x2c0(%rsp)
jb 0x1ceeac9
vsqrtss %xmm0, %xmm0, %xmm16
jmp 0x1ceeb16
vmovaps %xmm3, 0xf0(%rsp)
vmovss %xmm4, 0x40(%rsp)
vmovss %xmm5, 0xe0(%rsp)
vzeroupper
callq 0x6aa20
vmovss 0xe0(%rsp), %xmm5
vmovss 0x40(%rsp), %xmm4
vmovaps 0xf0(%rsp), %xmm3
vmovss 0x44(%rsp), %xmm7
vmovaps 0x80(%rsp), %xmm11
vmovaps %xmm0, %xmm16
vmovaps 0x220(%rsp), %xmm12
vmovaps 0x200(%rsp), %xmm19
vmulss %xmm3, %xmm5, %xmm0
vmulss %xmm3, %xmm3, %xmm1
vmulss %xmm1, %xmm0, %xmm0
vaddss %xmm0, %xmm4, %xmm0
vbroadcastss %xmm0, %xmm6
vmulps %xmm6, %xmm11, %xmm0
vmovaps %xmm0, 0xf0(%rsp)
vdpps $0x7f, %xmm0, %xmm12, %xmm15
vaddss 0x1fdbbd(%rip), %xmm7, %xmm14 # 0x1eec714
vmulps %xmm15, %xmm15, %xmm0
vsubps %xmm0, %xmm19, %xmm0
vxorps %xmm2, %xmm2, %xmm2
vmovss %xmm0, %xmm2, %xmm1 # xmm1 = xmm0[0],xmm2[1,2,3]
vrsqrt14ss %xmm1, %xmm2, %xmm18
vmulss 0x1fdb9e(%rip), %xmm18, %xmm17 # 0x1eec718
vmulss 0x1fdb98(%rip), %xmm0, %xmm20 # 0x1eec71c
vucomiss 0x1fce98(%rip), %xmm0 # 0x1eeba24
jb 0x1ceeb97
vsqrtss %xmm0, %xmm0, %xmm0
jmp 0x1ceec2f
vmovss %xmm14, 0x40(%rsp)
vmovaps %xmm15, 0xe0(%rsp)
vmovss %xmm16, 0x60(%rsp)
vmovss %xmm17, 0x5c(%rsp)
vmovaps %xmm18, 0x2a0(%rsp)
vmovss %xmm20, 0x58(%rsp)
vmovaps %xmm6, 0x290(%rsp)
vzeroupper
callq 0x6aa20
vmovaps 0x290(%rsp), %xmm6
vmovss 0x58(%rsp), %xmm20
vmovaps 0x2a0(%rsp), %xmm18
vmovss 0x5c(%rsp), %xmm17
vmovss 0x60(%rsp), %xmm16
vmovaps 0xe0(%rsp), %xmm15
vmovss 0x44(%rsp), %xmm7
vmovss 0x40(%rsp), %xmm14
vmovaps 0x200(%rsp), %xmm19
vmovaps 0x220(%rsp), %xmm12
vmovaps 0x80(%rsp), %xmm11
vbroadcastss 0x23228c(%rip), %xmm8 # 0x1f20ec4
vmovaps 0x140(%rsp), %ymm26
vmovaps 0x120(%rsp), %ymm30
vmovaps 0x1e0(%rsp), %ymm21
vmovaps 0xc0(%rsp), %xmm9
vmovaps 0xa0(%rsp), %xmm10
vmovss 0x201d72(%rip), %xmm3 # 0x1ef09dc
vmovaps %xmm3, %xmm1
vmovaps 0x2d0(%rsp), %xmm5
vfmadd213ss %xmm5, %xmm9, %xmm1 # xmm1 = (xmm9 * xmm1) + xmm5
vmovss 0x202370(%rip), %xmm4 # 0x1ef0ff4
vmulss %xmm4, %xmm1, %xmm1
vmulss %xmm4, %xmm9, %xmm2
vbroadcastss %xmm2, %xmm2
vmulps 0x2e0(%rsp), %xmm2, %xmm2
vbroadcastss %xmm1, %xmm1
vfmadd132ps 0x320(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2
vmovaps %xmm3, %xmm2
vfmadd213ss %xmm9, %xmm5, %xmm2 # xmm2 = (xmm5 * xmm2) + xmm9
vmulss %xmm4, %xmm2, %xmm2
vbroadcastss %xmm2, %xmm2
vfmadd132ps 0x300(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1
vmulss %xmm4, %xmm5, %xmm1
vbroadcastss %xmm1, %xmm1
vfmadd132ps 0x340(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2
vbroadcastss 0x2c0(%rsp), %xmm2
vmulps %xmm2, %xmm1, %xmm2
vdpps $0x7f, %xmm1, %xmm11, %xmm1
vbroadcastss %xmm1, %xmm1
vmulps %xmm1, %xmm11, %xmm1
vsubps %xmm1, %xmm2, %xmm1
vmovss 0x6c(%rsp), %xmm2
vmulss 0x2b0(%rsp), %xmm2, %xmm2
vmulss 0x68(%rsp), %xmm10, %xmm3
vbroadcastss %xmm2, %xmm2
vmulps %xmm2, %xmm1, %xmm1
vxorps 0x23219f(%rip){1to4}, %xmm11, %xmm2 # 0x1f20ec0
vmulps %xmm1, %xmm6, %xmm4
vmovaps 0xf0(%rsp), %xmm13
vdpps $0x7f, %xmm13, %xmm2, %xmm5
vmovss 0x64(%rsp), %xmm6
vmaxss %xmm3, %xmm6, %xmm1
vdivss %xmm16, %xmm6, %xmm3
vdpps $0x7f, %xmm4, %xmm12, %xmm4
vfmadd213ss %xmm1, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm7) + xmm1
vfmadd213ss %xmm7, %xmm3, %xmm14 # xmm14 = (xmm3 * xmm14) + xmm7
vmovaps 0x260(%rsp), %xmm7
vdpps $0x7f, %xmm13, %xmm7, %xmm3
vaddss %xmm4, %xmm5, %xmm4
vdpps $0x7f, %xmm2, %xmm12, %xmm5
vmulss %xmm18, %xmm20, %xmm2
vmulss %xmm18, %xmm18, %xmm6
vmulss %xmm6, %xmm2, %xmm2
vdpps $0x7f, %xmm7, %xmm12, %xmm6
vaddss %xmm2, %xmm17, %xmm7
vfnmadd231ss %xmm4, %xmm15, %xmm5 # xmm5 = -(xmm15 * xmm4) + xmm5
vfnmadd231ss %xmm3, %xmm15, %xmm6 # xmm6 = -(xmm15 * xmm3) + xmm6
vpermilps $0xff, 0x3a0(%rsp), %xmm2 # xmm2 = mem[3,3,3,3]
vsubss %xmm2, %xmm0, %xmm2
vshufps $0xff, %xmm11, %xmm11, %xmm0 # xmm0 = xmm11[3,3,3,3]
vfmsub213ss %xmm0, %xmm7, %xmm5 # xmm5 = (xmm7 * xmm5) - xmm0
vmulss %xmm7, %xmm6, %xmm6
vmulss %xmm5, %xmm3, %xmm7
vfmsub231ss %xmm6, %xmm4, %xmm7 # xmm7 = (xmm4 * xmm6) - xmm7
vdivss %xmm7, %xmm6, %xmm6
vdivss %xmm7, %xmm5, %xmm5
vdivss %xmm7, %xmm3, %xmm3
vdivss %xmm7, %xmm4, %xmm4
vmulss %xmm6, %xmm15, %xmm6
vmulss %xmm3, %xmm2, %xmm3
vsubss %xmm3, %xmm6, %xmm3
vmulss %xmm5, %xmm15, %xmm5
vmulss %xmm4, %xmm2, %xmm4
vsubss %xmm5, %xmm4, %xmm4
vsubss %xmm3, %xmm9, %xmm9
vsubss %xmm4, %xmm10, %xmm10
vandps %xmm8, %xmm15, %xmm3
vucomiss %xmm3, %xmm14
jbe 0x1ceefa9
vaddss %xmm1, %xmm14, %xmm1
vmovaps 0x270(%rsp), %xmm3
vfmadd231ss 0x2030a5(%rip), %xmm3, %xmm1 # xmm1 = (xmm3 * mem) + xmm1
vandps %xmm2, %xmm8, %xmm2
vucomiss %xmm2, %xmm1
jbe 0x1ceefa9
vaddss 0x280(%rsp), %xmm10, %xmm10
movb $0x1, %r13b
vucomiss 0x7c(%rsp), %xmm10
jb 0x1ceefac
movq 0x38(%rsp), %rax
vmovss 0x200(%r12,%rax,4), %xmm4
vucomiss %xmm10, %xmm4
jb 0x1ceefac
vucomiss 0x1fcbcd(%rip), %xmm9 # 0x1eeba24
jb 0x1ceefac
vmovss 0x1fd8af(%rip), %xmm1 # 0x1eec714
vucomiss %xmm9, %xmm1
jb 0x1ceefac
vxorps %xmm2, %xmm2, %xmm2
vmovss %xmm19, %xmm2, %xmm1 # xmm1 = xmm19[0],xmm2[1,2,3]
vrsqrt14ss %xmm1, %xmm2, %xmm1
vmulss 0x1fd890(%rip), %xmm1, %xmm2 # 0x1eec718
vmulss 0x1fd88a(%rip), %xmm19, %xmm3 # 0x1eec71c
movq (%r15), %rax
movq 0x1e8(%rax), %rax
movq %r15, %rcx
movq 0x70(%rsp), %rdx
movq (%rax,%rdx,8), %r15
movq 0x38(%rsp), %rax
movl 0x240(%r12,%rax,4), %eax
testl %eax, 0x34(%r15)
je 0x1ceefc9
vmulss %xmm1, %xmm3, %xmm3
vmulss %xmm1, %xmm1, %xmm1
vmulss %xmm1, %xmm3, %xmm1
vaddss %xmm1, %xmm2, %xmm1
vbroadcastss %xmm1, %xmm1
vmulps %xmm1, %xmm12, %xmm1
vfmadd213ps %xmm11, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm0) + xmm11
vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm11, %xmm11, %xmm3 # xmm3 = xmm11[1,2,0,3]
vmulps %xmm3, %xmm1, %xmm1
vfmsub231ps %xmm2, %xmm11, %xmm1 # xmm1 = (xmm11 * xmm2) - xmm1
vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3]
vshufps $0xd2, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,0,1,3]
vmulps %xmm1, %xmm0, %xmm0
vfmsub231ps %xmm3, %xmm2, %xmm0 # xmm0 = (xmm2 * xmm3) - xmm0
movq 0x10(%rcx), %rax
cmpq $0x0, 0x10(%rax)
jne 0x1ceefce
cmpq $0x0, 0x40(%r15)
jne 0x1ceefce
movq 0x38(%rsp), %rcx
vmovss %xmm10, 0x200(%r12,%rcx,4)
vextractps $0x1, %xmm0, 0x300(%r12,%rcx,4)
vextractps $0x2, %xmm0, 0x340(%r12,%rcx,4)
vmovss %xmm0, 0x380(%r12,%rcx,4)
vmovss %xmm9, 0x3c0(%r12,%rcx,4)
movl $0x0, 0x400(%r12,%rcx,4)
movq 0x100(%rsp), %rax
movl %eax, 0x440(%r12,%rcx,4)
movq 0x70(%rsp), %rax
movl %eax, 0x480(%r12,%rcx,4)
movq 0x48(%rsp), %r15
movq 0x8(%r15), %rax
movl (%rax), %eax
movl %eax, 0x4c0(%r12,%rcx,4)
movq 0x8(%r15), %rax
movl 0x4(%rax), %eax
movl %eax, 0x500(%r12,%rcx,4)
jmp 0x1ceefac
xorl %r13d, %r13d
subq $0x1, %r14
setb %al
testb %r13b, %r13b
jne 0x1cef28f
testb %al, %al
je 0x1cee968
jmp 0x1cef28f
movq %rcx, %r15
jmp 0x1ceefac
movq 0x48(%rsp), %rcx
movq 0x8(%rcx), %rax
vbroadcastss %xmm9, %zmm1
vbroadcastss 0x22371d(%rip), %zmm2 # 0x1f12704
vpermps %zmm0, %zmm2, %zmm2
vbroadcastss 0x231ee5(%rip), %zmm3 # 0x1f20edc
vpermps %zmm0, %zmm3, %zmm3
vbroadcastss %xmm0, %zmm0
vmovaps %zmm2, 0x880(%rsp)
vmovaps %zmm3, 0x8c0(%rsp)
vmovaps %zmm0, 0x900(%rsp)
vmovaps %zmm1, 0x940(%rsp)
vxorps %xmm0, %xmm0, %xmm0
vmovaps %zmm0, 0x980(%rsp)
vmovaps 0x800(%rsp), %zmm0
vmovaps %zmm0, 0x9c0(%rsp)
vmovdqa64 0x840(%rsp), %zmm0
vmovdqa64 %zmm0, 0xa00(%rsp)
movq 0x1b8(%rsp), %rdx
vpcmpeqd %ymm0, %ymm0, %ymm0
vmovdqa %ymm0, 0x60(%rdx)
vmovdqa %ymm0, 0x40(%rdx)
vmovdqa %ymm0, 0x20(%rdx)
vmovdqa %ymm0, (%rdx)
vbroadcastss (%rax), %zmm0
vmovaps %zmm0, 0xa40(%rsp)
vbroadcastss 0x4(%rax), %zmm0
vmovaps %zmm0, 0xa80(%rsp)
movq 0x38(%rsp), %rax
vmovss %xmm10, 0x200(%r12,%rax,4)
vmovaps 0x7c0(%rsp), %zmm0
vmovaps %zmm0, 0x3c0(%rsp)
leaq 0x3c0(%rsp), %rax
movq %rax, 0x170(%rsp)
movq 0x18(%r15), %rax
movq %rax, 0x178(%rsp)
movq 0x8(%rcx), %rax
movq %rax, 0x180(%rsp)
movq %r12, 0x188(%rsp)
leaq 0x880(%rsp), %rax
movq %rax, 0x190(%rsp)
movl $0x10, 0x198(%rsp)
movq 0x40(%r15), %rax
testq %rax, %rax
vmovaps %xmm9, 0xc0(%rsp)
vmovaps %xmm10, 0xa0(%rsp)
vmovss %xmm4, 0x80(%rsp)
je 0x1cef159
leaq 0x170(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0x80(%rsp), %xmm4
vmovaps 0xa0(%rsp), %xmm10
vmovaps 0xc0(%rsp), %xmm9
vmovaps 0x1e0(%rsp), %ymm21
vmovaps 0x120(%rsp), %ymm30
vmovaps 0x140(%rsp), %ymm26
vmovdqa64 0x3c0(%rsp), %zmm0
vptestmd %zmm0, %zmm0, %k0
kortestw %k0, %k0
je 0x1cef276
movq 0x48(%rsp), %rax
movq 0x10(%rax), %rcx
movq 0x10(%rcx), %rax
testq %rax, %rax
je 0x1cef1cf
testb $0x2, (%rcx)
jne 0x1cef18f
testb $0x40, 0x3e(%r15)
je 0x1cef1cf
leaq 0x170(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0x80(%rsp), %xmm4
vmovaps 0xa0(%rsp), %xmm10
vmovaps 0xc0(%rsp), %xmm9
vmovaps 0x1e0(%rsp), %ymm21
vmovaps 0x120(%rsp), %ymm30
vmovaps 0x140(%rsp), %ymm26
vmovdqa64 0x3c0(%rsp), %zmm0
vptestmd %zmm0, %zmm0, %k1
kortestw %k1, %k1
je 0x1cef276
movq 0x188(%rsp), %rax
movq 0x190(%rsp), %rcx
vmovaps (%rcx), %zmm0
vmovups %zmm0, 0x300(%rax) {%k1}
vmovaps 0x40(%rcx), %zmm0
vmovups %zmm0, 0x340(%rax) {%k1}
vmovaps 0x80(%rcx), %zmm0
vmovups %zmm0, 0x380(%rax) {%k1}
vmovaps 0xc0(%rcx), %zmm0
vmovups %zmm0, 0x3c0(%rax) {%k1}
vmovaps 0x100(%rcx), %zmm0
vmovups %zmm0, 0x400(%rax) {%k1}
vmovdqa64 0x140(%rcx), %zmm0
vmovdqu32 %zmm0, 0x440(%rax) {%k1}
vmovdqa64 0x180(%rcx), %zmm0
vmovdqu32 %zmm0, 0x480(%rax) {%k1}
vmovdqa64 0x1c0(%rcx), %zmm0
vmovdqa32 %zmm0, 0x4c0(%rax) {%k1}
vmovdqa64 0x200(%rcx), %zmm0
vmovdqa32 %zmm0, 0x500(%rax) {%k1}
jmp 0x1cef285
movq 0x38(%rsp), %rax
vmovss %xmm4, 0x200(%r12,%rax,4)
movq 0x48(%rsp), %r15
jmp 0x1ceefac
movq 0x38(%rsp), %rax
vmovaps 0x420(%rsp), %ymm0
vcmpleps 0x200(%r12,%rax,4){1to8}, %ymm0, %k0
kmovd %k0, %eax
andb %al, %bl
jne 0x1cee87e
vmovdqa 0x480(%rsp), %ymm1
vpcmpltd 0x400(%rsp), %ymm1, %k1
vmovaps 0x780(%rsp), %ymm0
vpcmpltd 0x500(%rsp), %ymm1, %k2
vmovaps 0x380(%rsp), %ymm3
vaddps %ymm0, %ymm3, %ymm1
movq 0x38(%rsp), %rax
vbroadcastss 0x200(%r12,%rax,4), %ymm2
vcmpleps %ymm2, %ymm1, %k0 {%k2}
kmovd %k0, %eax
movl 0x110(%rsp), %ecx
andb %al, %cl
vmovaps 0x4c0(%rsp), %ymm1
vaddps %ymm1, %ymm3, %ymm3
vcmpleps %ymm2, %ymm3, %k0 {%k1}
kmovd %k0, %eax
movl 0x54(%rsp), %edx
andb %al, %dl
orb %cl, %dl
je 0x1cef3a4
movq 0x1d0(%rsp), %r9
movl %r9d, %eax
leaq (%rax,%rax,2), %rax
shlq $0x5, %rax
movb %dl, 0xae0(%rsp,%rax)
kmovd %ecx, %k1
vmovaps %ymm0, %ymm1 {%k1}
vmovaps %ymm1, 0xb00(%rsp,%rax)
vmovaps 0x1a0(%rsp), %xmm2
vmovlps %xmm2, 0xb20(%rsp,%rax)
movq 0x1c8(%rsp), %r11
leal 0x1(%r11), %ecx
movl %ecx, 0xb28(%rsp,%rax)
incl %r9d
movq 0x1c0(%rsp), %r8
movq 0x1d8(%rsp), %r10
vmovaps 0x231b88(%rip), %ymm3 # 0x1f20f20
jmp 0x1cef3d5
vmovaps 0x231b7e(%rip), %ymm3 # 0x1f20f20
jmp 0x1cef3cc
movq 0x1c0(%rsp), %r8
movq 0x1d8(%rsp), %r10
vmovaps 0x231b64(%rip), %ymm3 # 0x1f20f20
movq 0x1d0(%rsp), %r9
movq 0x1c8(%rsp), %r11
vmovaps 0x1a0(%rsp), %xmm2
movl %r9d, %eax
testl %eax, %eax
je 0x1cef567
leal -0x1(%rax), %r9d
leaq (%r9,%r9,2), %rcx
shlq $0x5, %rcx
vmovaps 0xb00(%rsp,%rcx), %ymm0
movzbl 0xae0(%rsp,%rcx), %esi
vaddps 0x380(%rsp), %ymm0, %ymm1
movq 0x38(%rsp), %rdx
vcmpleps 0x200(%r12,%rdx,4){1to8}, %ymm1, %k0
kmovb %k0, %edx
andl %esi, %edx
je 0x1cef4cc
kmovd %edx, %k1
vbroadcastss 0x1fc5f0(%rip), %ymm1 # 0x1eeba20
vblendmps %ymm0, %ymm1, %ymm0 {%k1}
vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm0, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1]
vminps %ymm2, %ymm1, %ymm1
vcmpeqps %ymm1, %ymm0, %k0
kmovd %k0, %esi
andb %dl, %sil
je 0x1cef468
movzbl %sil, %edi
jmp 0x1cef46b
movzbl %dl, %edi
leaq (%rsp,%rcx), %rsi
addq $0xae0, %rsi # imm = 0xAE0
vmovss 0x44(%rsi), %xmm0
tzcntl %edi, %ecx
movb $0x1, %dil
shlb %cl, %dil
movl 0x48(%rsi), %r11d
movzbl %dil, %edi
kmovd %edi, %k0
kmovd %edx, %k1
kandnb %k1, %k0, %k0
kmovb %k0, (%rsi)
kortestb %k0, %k0
je 0x1cef4a6
movl %eax, %r9d
vbroadcastss 0x40(%rsi), %ymm1
vsubss %xmm1, %xmm0, %xmm0
vbroadcastss %xmm0, %ymm0
vfmadd132ps %ymm3, %ymm1, %ymm0 # ymm0 = (ymm0 * ymm3) + ymm1
vmovaps %ymm0, 0x880(%rsp)
vmovsd 0x880(%rsp,%rcx,4), %xmm2
movl %r9d, %eax
testb %dl, %dl
je 0x1cef3d8
jmp 0x1ced19c
vcmpleps %ymm16, %ymm1, %k2
vbroadcastss 0x1fd698(%rip), %ymm1 # 0x1eecb84
vbroadcastss 0x1fc52a(%rip), %ymm16 # 0x1eeba20
vblendmps %ymm1, %ymm16, %ymm0 {%k2}
vmovaps %ymm0, %ymm30 {%k1}
vblendmps %ymm16, %ymm1, %ymm0 {%k2}
kmovd %k2, %ecx
vmovaps %ymm0, %ymm31 {%k1}
knotb %k1, %k0
kmovd %k0, %edx
orb %cl, %dl
andb %al, %dl
movl %edx, %eax
jmp 0x1ced6e9
vcmpleps %ymm20, %ymm11, %k2
vbroadcastss 0x1fd64f(%rip), %ymm7 # 0x1eecb84
vbroadcastss 0x1fc4e2(%rip), %ymm11 # 0x1eeba20
vblendmps %ymm7, %ymm11, %ymm6 {%k2}
vmovaps %ymm6, %ymm4 {%k1}
vblendmps %ymm11, %ymm7, %ymm6 {%k2}
vmovaps %ymm6, %ymm2 {%k1}
knotb %k1, %k1
korb %k2, %k1, %k1
kandb %k0, %k1, %k0
jmp 0x1cedad3
movq 0x38(%rsp), %rax
vmovaps 0x520(%rsp), %ymm0
vcmpleps 0x200(%r12,%rax,4){1to8}, %ymm0, %k0
kmovb %k0, %eax
andl %eax, %r10d
jne 0x1cece0d
leaq -0x28(%rbp), %rsp
popq %rbx
popq %r12
popq %r13
popq %r14
popq %r15
popq %rbp
vzeroupper
retq
|
/embree[P]embree/kernels/geometry/curveNi_intersector.h
|
bool embree::avx512::CurveNiIntersectorK<8, 16>::occluded_t<embree::avx512::SweepCurve1IntersectorK<embree::BezierCurveT, 16>, embree::avx512::Occluded1KEpilog1<16, true>>(embree::avx512::CurvePrecalculationsK<16>&, embree::RayK<16>&, unsigned long, embree::RayQueryContext*, embree::CurveNi<8> const&)
|
static __forceinline bool occluded_t(Precalculations& pre, RayK<K>& ray, const size_t k, RayQueryContext* context, const Primitive& prim)
{
vfloat<M> tNear;
vbool<M> valid = intersect(ray,k,prim,tNear);
const size_t N = prim.N;
size_t mask = movemask(valid);
while (mask)
{
const size_t i = bscf(mask);
STAT3(shadow.trav_prims,1,1,1);
const unsigned int geomID = prim.geomID(N);
const unsigned int primID = prim.primID(N)[i];
const CurveGeometry* geom = context->scene->get<CurveGeometry>(geomID);
Vec3ff a0,a1,a2,a3; geom->gather(a0,a1,a2,a3,geom->curve(primID));
size_t mask1 = mask;
const size_t i1 = bscf(mask1);
if (mask) {
const unsigned int primID1 = prim.primID(N)[i1];
geom->prefetchL1_vertices(geom->curve(primID1));
if (mask1) {
const size_t i2 = bsf(mask1);
const unsigned int primID2 = prim.primID(N)[i2];
geom->prefetchL2_vertices(geom->curve(primID2));
}
}
if (Intersector().intersect(pre,ray,k,context,geom,primID,a0,a1,a2,a3,Epilog(ray,k,context,geomID,primID)))
return true;
mask &= movemask(tNear <= vfloat<M>(ray.tfar[k]));
}
return false;
}
|
pushq %rbp
movq %rsp, %rbp
pushq %r15
pushq %r14
pushq %r13
pushq %r12
pushq %rbx
andq $-0x40, %rsp
subq $0xcc0, %rsp # imm = 0xCC0
movzbl 0x1(%r8), %eax
leaq (%rax,%rax,4), %r9
leaq (%r9,%r9,4), %rdi
vbroadcastss 0x12(%r8,%rdi), %xmm0
vmovss (%rsi,%rdx,4), %xmm1
vmovss 0x100(%rsi,%rdx,4), %xmm2
vinsertps $0x10, 0x40(%rsi,%rdx,4), %xmm1, %xmm1 # xmm1 = xmm1[0],mem[0],xmm1[2,3]
vinsertps $0x20, 0x80(%rsi,%rdx,4), %xmm1, %xmm1 # xmm1 = xmm1[0,1],mem[0],xmm1[3]
vinsertps $0x10, 0x140(%rsi,%rdx,4), %xmm2, %xmm2 # xmm2 = xmm2[0],mem[0],xmm2[2,3]
movq %rcx, %r14
vinsertps $0x20, 0x180(%rsi,%rdx,4), %xmm2, %xmm2 # xmm2 = xmm2[0,1],mem[0],xmm2[3]
vsubps 0x6(%r8,%rdi), %xmm1, %xmm1
vmulps %xmm1, %xmm0, %xmm3
vmulps %xmm2, %xmm0, %xmm0
vpmovsxbd 0x6(%r8,%rax,4), %ymm1
vcvtdq2ps %ymm1, %ymm5
vpmovsxbd 0x6(%r8,%r9), %ymm1
vcvtdq2ps %ymm1, %ymm6
leaq (%rax,%rax,2), %rcx
vpmovsxbd 0x6(%r8,%rcx,2), %ymm1
vcvtdq2ps %ymm1, %ymm2
leaq (%rax,%r9,2), %rdi
vpmovsxbd 0x6(%r8,%rdi), %ymm1
vcvtdq2ps %ymm1, %ymm7
leal (,%rcx,4), %edi
vpmovsxbd 0x6(%r8,%rdi), %ymm1
vcvtdq2ps %ymm1, %ymm8
addq %rax, %rdi
vpmovsxbd 0x6(%r8,%rdi), %ymm1
vcvtdq2ps %ymm1, %ymm9
leaq (%rax,%rax,8), %r10
leal (%r10,%r10), %edi
vpmovsxbd 0x6(%r8,%rdi), %ymm1
addq %rax, %rdi
vpmovsxbd 0x6(%r8,%rdi), %ymm4
vcvtdq2ps %ymm1, %ymm10
vcvtdq2ps %ymm4, %ymm11
shll $0x2, %r9d
vpmovsxbd 0x6(%r8,%r9), %ymm1
vcvtdq2ps %ymm1, %ymm12
vbroadcastss %xmm0, %ymm13
vbroadcastss 0x22305d(%rip), %ymm15 # 0x1f12704
vpermps %ymm0, %ymm15, %ymm14
vbroadcastss 0x231826(%rip), %ymm16 # 0x1f20edc
vpermps %ymm0, %ymm16, %ymm0
vmulps %ymm2, %ymm0, %ymm4
vmulps %ymm0, %ymm9, %ymm1
vmulps %ymm0, %ymm12, %ymm0
vfmadd231ps %ymm6, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm6) + ymm4
vfmadd231ps %ymm8, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm8) + ymm1
vfmadd231ps %ymm14, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm14) + ymm0
vfmadd231ps %ymm5, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm5) + ymm4
vfmadd231ps %ymm7, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm7) + ymm1
vfmadd231ps %ymm13, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm13) + ymm0
vbroadcastss %xmm3, %ymm13
vpermps %ymm3, %ymm15, %ymm14
vpermps %ymm3, %ymm16, %ymm15
vmulps %ymm2, %ymm15, %ymm16
vmulps %ymm9, %ymm15, %ymm3
vmulps %ymm12, %ymm15, %ymm2
vfmadd231ps %ymm6, %ymm14, %ymm16 # ymm16 = (ymm14 * ymm6) + ymm16
vfmadd231ps %ymm8, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm8) + ymm3
vfmadd231ps %ymm11, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm11) + ymm2
vfmadd231ps %ymm5, %ymm13, %ymm16 # ymm16 = (ymm13 * ymm5) + ymm16
vfmadd231ps %ymm7, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm7) + ymm3
vfmadd231ps %ymm10, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm10) + ymm2
vbroadcastss 0x231794(%rip), %ymm28 # 0x1f20ec4
vandps %ymm28, %ymm4, %ymm5
vbroadcastss 0x2018a9(%rip), %ymm6 # 0x1ef0fe8
vcmpltps %ymm6, %ymm5, %k1
vmovaps %ymm6, %ymm4 {%k1}
vandps %ymm28, %ymm1, %ymm5
vcmpltps %ymm6, %ymm5, %k1
vmovaps %ymm6, %ymm1 {%k1}
vandps %ymm28, %ymm0, %ymm5
vcmpltps %ymm6, %ymm5, %k1
vmovaps %ymm6, %ymm0 {%k1}
vrcp14ps %ymm4, %ymm5
vbroadcastss 0x1fcf93(%rip), %ymm6 # 0x1eec714
vfnmadd213ps %ymm6, %ymm5, %ymm4 # ymm4 = -(ymm5 * ymm4) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm4 # ymm4 = (ymm4 * ymm5) + ymm5
vrcp14ps %ymm1, %ymm5
vfnmadd213ps %ymm6, %ymm5, %ymm1 # ymm1 = -(ymm5 * ymm1) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm1 # ymm1 = (ymm1 * ymm5) + ymm5
vrcp14ps %ymm0, %ymm5
vfnmadd213ps %ymm6, %ymm5, %ymm0 # ymm0 = -(ymm5 * ymm0) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm0 # ymm0 = (ymm0 * ymm5) + ymm5
leaq (,%rax,8), %rdi
subq %rax, %rdi
vpmovsxwd 0x6(%r8,%rdi), %ymm5
vcvtdq2ps %ymm5, %ymm5
vsubps %ymm16, %ymm5, %ymm5
vpmovsxwd 0x6(%r8,%r10), %ymm6
vmulps %ymm5, %ymm4, %ymm5
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm16, %ymm6, %ymm6
vmulps %ymm6, %ymm4, %ymm4
leaq (%rax,%rax), %r10
addq %rax, %r9
shlq $0x3, %rcx
subq %rax, %rcx
movl %eax, %edi
shll $0x4, %edi
vpmovsxwd 0x6(%r8,%rdi), %ymm6
subq %r10, %rdi
vpmovsxwd 0x6(%r8,%rdi), %ymm7
vcvtdq2ps %ymm7, %ymm7
vsubps %ymm3, %ymm7, %ymm7
vmulps %ymm7, %ymm1, %ymm7
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm3, %ymm6, %ymm3
vmulps %ymm3, %ymm1, %ymm1
vpmovsxwd 0x6(%r8,%r9), %ymm3
vcvtdq2ps %ymm3, %ymm3
vsubps %ymm2, %ymm3, %ymm3
vmulps %ymm0, %ymm3, %ymm3
vpmovsxwd 0x6(%r8,%rcx), %ymm6
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm2, %ymm6, %ymm2
vmulps %ymm2, %ymm0, %ymm0
vpminsd %ymm4, %ymm5, %ymm2
vpminsd %ymm1, %ymm7, %ymm6
vmaxps %ymm6, %ymm2, %ymm2
vpminsd %ymm0, %ymm3, %ymm6
vmaxps 0xc0(%rsi,%rdx,4){1to8}, %ymm6, %ymm6
vmaxps %ymm6, %ymm2, %ymm2
vmulps 0x2306a5(%rip){1to8}, %ymm2, %ymm6 # 0x1f1ff10
vpmaxsd %ymm4, %ymm5, %ymm2
vpmaxsd %ymm1, %ymm7, %ymm1
vminps %ymm1, %ymm2, %ymm1
vpmaxsd %ymm0, %ymm3, %ymm0
movq %rsi, 0x30(%rsp)
vminps 0x200(%rsi,%rdx,4){1to8}, %ymm0, %ymm0
vminps %ymm0, %ymm1, %ymm0
vmulps 0x230678(%rip){1to8}, %ymm0, %ymm0 # 0x1f1ff14
vpbroadcastd %eax, %ymm1
vpcmpgtd 0x26b074(%rip), %ymm1, %k0 # 0x1f5a920
vmovaps %ymm6, 0x780(%rsp)
vcmpleps %ymm0, %ymm6, %k1
ktestb %k0, %k1
setne %r15b
je 0x1cf22c4
kandb %k0, %k1, %k0
kmovd %k0, %eax
movzbl %al, %r12d
leaq 0x900(%rsp), %rax
addq $0x1c0, %rax # imm = 0x1C0
movq %rax, 0x2f8(%rsp)
movl $0x1, %eax
shlxl %edx, %eax, %eax
kmovd %eax, %k0
vpmovm2d %k0, %zmm0
vmovdqa64 %zmm0, 0x840(%rsp)
movq %rdx, 0x38(%rsp)
movq %r8, 0x300(%rsp)
movq %r14, 0x40(%rsp)
tzcntq %r12, %rax
movl 0x2(%r8), %esi
movl 0x6(%r8,%rax,4), %eax
movq (%r14), %rcx
movq 0x1e8(%rcx), %rcx
movq %rsi, 0xf8(%rsp)
movq (%rcx,%rsi,8), %rdi
movq 0x58(%rdi), %rcx
movq 0x68(%rdi), %r11
movq %r11, %rsi
imulq %rax, %rsi
movl (%rcx,%rsi), %r10d
movq 0xa0(%rdi), %rsi
movq %rsi, %r9
imulq %r10, %r9
movq 0x90(%rdi), %rdi
vmovaps (%rdi,%r9), %xmm1
leaq 0x1(%r10), %r9
imulq %rsi, %r9
vmovaps (%rdi,%r9), %xmm0
leaq 0x2(%r10), %r9
imulq %rsi, %r9
vmovaps (%rdi,%r9), %xmm2
blsrq %r12, %r12
addq $0x3, %r10
imulq %rsi, %r10
vmovaps (%rdi,%r10), %xmm3
movq %r12, %r10
subq $0x1, %r10
jb 0x1cef9ec
andq %r12, %r10
tzcntq %r12, %r9
movl 0x6(%r8,%r9,4), %r9d
imulq %r11, %r9
movl (%rcx,%r9), %r9d
imulq %rsi, %r9
prefetcht0 (%rdi,%r9)
prefetcht0 0x40(%rdi,%r9)
testq %r10, %r10
je 0x1cef9ec
tzcntq %r10, %r9
movl 0x6(%r8,%r9,4), %r9d
imulq %r9, %r11
movl (%rcx,%r11), %ecx
imulq %rcx, %rsi
prefetcht1 (%rdi,%rsi)
prefetcht1 0x40(%rdi,%rsi)
movq 0x30(%rsp), %rcx
vmovss (%rcx,%rdx,4), %xmm4
vinsertps $0x1c, 0x40(%rcx,%rdx,4), %xmm4, %xmm4 # xmm4 = xmm4[0],mem[0],zero,zero
vinsertps $0x28, 0x80(%rcx,%rdx,4), %xmm4, %xmm4 # xmm4 = xmm4[0,1],mem[0],zero
vbroadcastss 0x100(%rcx,%rdx,4), %ymm30
vbroadcastss 0x140(%rcx,%rdx,4), %ymm21
vunpcklps %xmm21, %xmm30, %xmm5 # xmm5 = xmm30[0],xmm21[0],xmm30[1],xmm21[1]
vbroadcastss 0x180(%rcx,%rdx,4), %ymm15
vinsertps $0x28, %xmm15, %xmm5, %xmm9 # xmm9 = xmm5[0,1],xmm15[0],zero
vaddps %xmm0, %xmm1, %xmm5
vaddps %xmm2, %xmm5, %xmm5
vaddps %xmm3, %xmm5, %xmm5
vmulps 0x22d8b7(%rip){1to4}, %xmm5, %xmm5 # 0x1f1d2fc
vsubps %xmm4, %xmm5, %xmm5
vdpps $0x7f, %xmm9, %xmm5, %xmm5
vmovss 0xc0(%rcx,%rdx,4), %xmm10
vdpps $0x7f, %xmm9, %xmm9, %xmm11
vxorps %xmm8, %xmm8, %xmm8
vmovss %xmm11, %xmm8, %xmm6
vrcp14ss %xmm6, %xmm8, %xmm6
vmovaps %xmm6, %xmm7
vfnmadd213ss 0x20157e(%rip), %xmm11, %xmm7 # xmm7 = -(xmm11 * xmm7) + mem
vmulss %xmm7, %xmm6, %xmm6
vmulss %xmm6, %xmm5, %xmm5
vbroadcastss %xmm5, %ymm6
vmovaps %xmm9, 0x3b0(%rsp)
vmovaps %ymm6, 0x5e0(%rsp)
vfmadd231ps %xmm6, %xmm9, %xmm4 # xmm4 = (xmm9 * xmm6) + xmm4
vblendps $0x8, %xmm8, %xmm4, %xmm4 # xmm4 = xmm4[0,1,2],xmm8[3]
vsubps %xmm4, %xmm1, %xmm6
vsubps %xmm4, %xmm2, %xmm7
vsubps %xmm4, %xmm0, %xmm8
vsubps %xmm4, %xmm3, %xmm3
vbroadcastss %xmm6, %ymm9
vbroadcastss 0x222c42(%rip), %ymm0 # 0x1f12704
vpermps %ymm6, %ymm0, %ymm12
vbroadcastss 0x23140c(%rip), %ymm1 # 0x1f20edc
vpermps %ymm6, %ymm1, %ymm13
vbroadcastss 0x2313fa(%rip), %ymm2 # 0x1f20ed8
vmovaps %ymm6, 0x540(%rsp)
vpermps %ymm6, %ymm2, %ymm24
vbroadcastss %xmm8, %ymm4
vpermps %ymm8, %ymm0, %ymm6
vpermps %ymm8, %ymm1, %ymm17
vmovaps %ymm8, 0x500(%rsp)
vpermps %ymm8, %ymm2, %ymm18
vbroadcastss %xmm7, %ymm19
vpermps %ymm7, %ymm0, %ymm20
vpermps %ymm7, %ymm1, %ymm22
vmovaps %ymm7, 0x520(%rsp)
vpermps %ymm7, %ymm2, %ymm23
vbroadcastss %xmm3, %ymm27
vpermps %ymm3, %ymm0, %ymm25
vpermps %ymm3, %ymm1, %ymm29
vmovaps %ymm3, 0x4e0(%rsp)
vpermps %ymm3, %ymm2, %ymm26
vmovaps %ymm4, %ymm2
vmovaps %ymm6, %ymm4
vmovaps %ymm15, 0x5c0(%rsp)
vmulss %xmm15, %xmm15, %xmm0
vfmadd231ps %ymm21, %ymm21, %ymm0 # ymm0 = (ymm21 * ymm21) + ymm0
vfmadd231ps %ymm30, %ymm30, %ymm0 # ymm0 = (ymm30 * ymm30) + ymm0
vbroadcastss %xmm0, %ymm0
vmovaps %ymm0, 0x7e0(%rsp)
vandps %ymm28, %ymm0, %ymm0
vmovaps %ymm0, 0x700(%rsp)
vmovss %xmm10, 0x5c(%rsp)
vmovaps %xmm5, 0x470(%rsp)
vsubss %xmm5, %xmm10, %xmm0
vbroadcastss %xmm0, %ymm0
vmovaps %ymm0, 0x7c0(%rsp)
vpbroadcastd %eax, %zmm0
vmovdqa64 %zmm0, 0x8c0(%rsp)
movl $0x1, %eax
movq %rax, 0x100(%rsp)
xorl %ebx, %ebx
xorl %r13d, %r13d
movq 0xf8(%rsp), %rax
vpbroadcastd %eax, %zmm0
vmovdqa64 %zmm0, 0x880(%rsp)
vsqrtss %xmm11, %xmm11, %xmm0
vmovss %xmm0, 0x11c(%rsp)
vmovaps %xmm11, 0x390(%rsp)
vsqrtss %xmm11, %xmm11, %xmm0
vmovss %xmm0, 0x118(%rsp)
vmovsd 0x1fcadf(%rip), %xmm5 # 0x1eec6f0
vbroadcastss 0x1fcafa(%rip), %ymm3 # 0x1eec714
vmovaps %ymm30, 0x220(%rsp)
vmovaps %ymm21, 0x200(%rsp)
vmovaps %ymm9, 0x240(%rsp)
vmovaps %ymm12, 0x1e0(%rsp)
vmovaps %ymm13, 0x2a0(%rsp)
vmovaps %ymm24, 0x1c0(%rsp)
vmovaps %ymm2, 0x4c0(%rsp)
vmovaps %ymm6, 0x340(%rsp)
vmovaps %ymm17, 0x1a0(%rsp)
vmovaps %ymm18, 0x180(%rsp)
vmovaps %ymm19, 0x3e0(%rsp)
vmovaps %ymm20, 0x3c0(%rsp)
vmovaps %ymm22, 0x160(%rsp)
vmovaps %ymm23, 0x140(%rsp)
vmovaps %ymm27, 0x7a0(%rsp)
vmovaps %ymm25, 0x120(%rsp)
vmovaps %ymm29, 0x280(%rsp)
vmovaps %ymm26, 0x260(%rsp)
vmovshdup %xmm5, %xmm0 # xmm0 = xmm5[1,1,3,3]
vsubss %xmm5, %xmm0, %xmm1
vmulss 0x231211(%rip), %xmm1, %xmm6 # 0x1f20ed0
vmovaps %xmm5, 0x450(%rsp)
vbroadcastss %xmm5, %ymm5
vbroadcastss %xmm1, %ymm0
vmovaps %ymm5, 0x60(%rsp)
vmovaps %ymm0, 0x360(%rsp)
vfmadd231ps 0x231236(%rip), %ymm0, %ymm5 # ymm5 = (ymm0 * mem) + ymm5
vsubps %ymm5, %ymm3, %ymm7
vmulps %ymm5, %ymm2, %ymm1
vmovaps %ymm2, %ymm15
vmulps %ymm5, %ymm4, %ymm2
vmovaps %ymm3, %ymm0
vmulps %ymm5, %ymm17, %ymm3
vmovaps %ymm4, %ymm16
vmulps %ymm5, %ymm18, %ymm4
vfmadd231ps %ymm9, %ymm7, %ymm1 # ymm1 = (ymm7 * ymm9) + ymm1
vfmadd231ps %ymm12, %ymm7, %ymm2 # ymm2 = (ymm7 * ymm12) + ymm2
vfmadd231ps %ymm13, %ymm7, %ymm3 # ymm3 = (ymm7 * ymm13) + ymm3
vfmadd231ps %ymm24, %ymm7, %ymm4 # ymm4 = (ymm7 * ymm24) + ymm4
vmulps %ymm5, %ymm19, %ymm8
vmulps %ymm5, %ymm20, %ymm9
vmulps %ymm5, %ymm22, %ymm10
vmulps %ymm5, %ymm23, %ymm11
vfmadd231ps %ymm15, %ymm7, %ymm8 # ymm8 = (ymm7 * ymm15) + ymm8
vfmadd231ps %ymm16, %ymm7, %ymm9 # ymm9 = (ymm7 * ymm16) + ymm9
vfmadd231ps %ymm17, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm17) + ymm10
vfmadd231ps %ymm18, %ymm7, %ymm11 # ymm11 = (ymm7 * ymm18) + ymm11
vmulps %ymm5, %ymm27, %ymm12
vmulps %ymm5, %ymm25, %ymm13
vmulps %ymm5, %ymm29, %ymm14
vmulps %ymm5, %ymm26, %ymm15
vfmadd231ps %ymm19, %ymm7, %ymm12 # ymm12 = (ymm7 * ymm19) + ymm12
vfmadd231ps %ymm20, %ymm7, %ymm13 # ymm13 = (ymm7 * ymm20) + ymm13
vfmadd231ps %ymm22, %ymm7, %ymm14 # ymm14 = (ymm7 * ymm22) + ymm14
vfmadd231ps %ymm23, %ymm7, %ymm15 # ymm15 = (ymm7 * ymm23) + ymm15
vmulps %ymm8, %ymm5, %ymm16
vmulps %ymm9, %ymm5, %ymm17
vmulps %ymm10, %ymm5, %ymm18
vmulps %ymm11, %ymm5, %ymm19
vfmadd231ps %ymm1, %ymm7, %ymm16 # ymm16 = (ymm7 * ymm1) + ymm16
vfmadd231ps %ymm2, %ymm7, %ymm17 # ymm17 = (ymm7 * ymm2) + ymm17
vfmadd231ps %ymm3, %ymm7, %ymm18 # ymm18 = (ymm7 * ymm3) + ymm18
vfmadd231ps %ymm4, %ymm7, %ymm19 # ymm19 = (ymm7 * ymm4) + ymm19
vmulps %ymm5, %ymm12, %ymm1
vmulps %ymm5, %ymm13, %ymm12
vmulps %ymm5, %ymm14, %ymm13
vmulps %ymm5, %ymm15, %ymm14
vfmadd231ps %ymm8, %ymm7, %ymm1 # ymm1 = (ymm7 * ymm8) + ymm1
vfmadd231ps %ymm9, %ymm7, %ymm12 # ymm12 = (ymm7 * ymm9) + ymm12
vfmadd231ps %ymm10, %ymm7, %ymm13 # ymm13 = (ymm7 * ymm10) + ymm13
vfmadd231ps %ymm11, %ymm7, %ymm14 # ymm14 = (ymm7 * ymm11) + ymm14
vmulps %ymm1, %ymm5, %ymm4
vmulps %ymm12, %ymm5, %ymm26
vmulps %ymm13, %ymm5, %ymm29
vmulps %ymm5, %ymm14, %ymm5
vfmadd231ps %ymm16, %ymm7, %ymm4 # ymm4 = (ymm7 * ymm16) + ymm4
vfmadd231ps %ymm17, %ymm7, %ymm26 # ymm26 = (ymm7 * ymm17) + ymm26
vfmadd231ps %ymm18, %ymm7, %ymm29 # ymm29 = (ymm7 * ymm18) + ymm29
vfmadd231ps %ymm7, %ymm19, %ymm5 # ymm5 = (ymm19 * ymm7) + ymm5
vsubps %ymm16, %ymm1, %ymm1
vsubps %ymm17, %ymm12, %ymm7
vsubps %ymm18, %ymm13, %ymm8
vsubps %ymm19, %ymm14, %ymm9
vbroadcastss 0x2011c7(%rip), %ymm10 # 0x1ef0fec
vmulps %ymm1, %ymm10, %ymm1
vmulps %ymm7, %ymm10, %ymm7
vmulps %ymm10, %ymm8, %ymm8
vmulps %ymm10, %ymm9, %ymm9
vbroadcastss %xmm6, %ymm6
vmulps %ymm1, %ymm6, %ymm11
vmulps %ymm7, %ymm6, %ymm12
vmulps %ymm6, %ymm8, %ymm13
vmulps %ymm6, %ymm9, %ymm6
vmovaps %ymm4, %ymm8
vmovaps 0x26fec8(%rip), %ymm7 # 0x1f5fd20
vxorps %xmm31, %xmm31, %xmm31
vpermt2ps %ymm31, %ymm7, %ymm8
vmovaps %ymm26, %ymm9
vpermt2ps %ymm31, %ymm7, %ymm9
vmovaps %ymm29, %ymm10
vpermt2ps %ymm31, %ymm7, %ymm10
vaddps %ymm6, %ymm5, %ymm1
vmaxps %ymm1, %ymm5, %ymm14
vminps %ymm1, %ymm5, %ymm1
vmovaps %ymm5, %ymm15
vpermt2ps %ymm31, %ymm7, %ymm15
vmovaps %ymm11, %ymm19
vpermt2ps %ymm31, %ymm7, %ymm19
vmovaps %ymm12, %ymm20
vpermt2ps %ymm31, %ymm7, %ymm20
vmovaps %ymm13, %ymm2
vpermt2ps %ymm31, %ymm7, %ymm2
vpermt2ps %ymm31, %ymm7, %ymm6
vsubps %ymm6, %ymm15, %ymm16
vsubps %ymm4, %ymm8, %ymm7
vsubps %ymm26, %ymm9, %ymm6
vsubps %ymm29, %ymm10, %ymm5
vmulps %ymm13, %ymm6, %ymm17
vfmsub231ps %ymm5, %ymm12, %ymm17 # ymm17 = (ymm12 * ymm5) - ymm17
vmulps %ymm11, %ymm5, %ymm18
vfmsub231ps %ymm7, %ymm13, %ymm18 # ymm18 = (ymm13 * ymm7) - ymm18
vmulps %ymm12, %ymm7, %ymm22
vfmsub231ps %ymm6, %ymm11, %ymm22 # ymm22 = (ymm11 * ymm6) - ymm22
vmulps %ymm22, %ymm22, %ymm22
vfmadd231ps %ymm18, %ymm18, %ymm22 # ymm22 = (ymm18 * ymm18) + ymm22
vfmadd231ps %ymm17, %ymm17, %ymm22 # ymm22 = (ymm17 * ymm17) + ymm22
vmulps %ymm5, %ymm5, %ymm17
vfmadd231ps %ymm6, %ymm6, %ymm17 # ymm17 = (ymm6 * ymm6) + ymm17
vfmadd231ps %ymm7, %ymm7, %ymm17 # ymm17 = (ymm7 * ymm7) + ymm17
vrcp14ps %ymm17, %ymm18
vmovaps %ymm18, %ymm23
vfnmadd213ps %ymm0, %ymm17, %ymm23 # ymm23 = -(ymm17 * ymm23) + ymm0
vfmadd132ps %ymm18, %ymm18, %ymm23 # ymm23 = (ymm23 * ymm18) + ymm18
vmulps %ymm23, %ymm22, %ymm18
vmulps %ymm2, %ymm6, %ymm22
vfmsub231ps %ymm5, %ymm20, %ymm22 # ymm22 = (ymm20 * ymm5) - ymm22
vmulps %ymm19, %ymm5, %ymm24
vfmsub231ps %ymm7, %ymm2, %ymm24 # ymm24 = (ymm2 * ymm7) - ymm24
vmulps %ymm20, %ymm7, %ymm25
vfmsub231ps %ymm6, %ymm19, %ymm25 # ymm25 = (ymm19 * ymm6) - ymm25
vmulps %ymm25, %ymm25, %ymm25
vfmadd231ps %ymm24, %ymm24, %ymm25 # ymm25 = (ymm24 * ymm24) + ymm25
vfmadd231ps %ymm22, %ymm22, %ymm25 # ymm25 = (ymm22 * ymm22) + ymm25
vmulps %ymm23, %ymm25, %ymm22
vmaxps %ymm22, %ymm18, %ymm18
vsqrtps %ymm18, %ymm18
vmaxps %ymm15, %ymm16, %ymm22
vmaxps %ymm22, %ymm14, %ymm14
vaddps %ymm14, %ymm18, %ymm14
vminps %ymm15, %ymm16, %ymm15
vminps %ymm15, %ymm1, %ymm1
vsubps %ymm18, %ymm1, %ymm1
vmulps 0x200995(%rip){1to8}, %ymm14, %ymm14 # 0x1ef0940
vmulps 0x20098f(%rip){1to8}, %ymm1, %ymm1 # 0x1ef0944
vmovaps %ymm1, 0xa0(%rsp)
vmulps %ymm14, %ymm14, %ymm1
vrsqrt14ps %ymm17, %ymm15
vmulps 0x1fc749(%rip){1to8}, %ymm17, %ymm14 # 0x1eec71c
vmulps %ymm14, %ymm15, %ymm14
vmulps %ymm15, %ymm15, %ymm16
vmulps %ymm14, %ymm16, %ymm14
vfmadd231ps 0x1fc72a(%rip){1to8}, %ymm15, %ymm14 # ymm14 = (ymm15 * mem) + ymm14
vmulps %ymm7, %ymm14, %ymm15
vmulps %ymm14, %ymm6, %ymm16
vmulps %ymm14, %ymm5, %ymm18
vsubps %ymm4, %ymm31, %ymm3
vmovaps %ymm26, 0x5a0(%rsp)
vsubps %ymm26, %ymm31, %ymm28
vmovaps %ymm29, 0x420(%rsp)
vsubps %ymm29, %ymm31, %ymm29
vmovaps 0x5c0(%rsp), %ymm17
vmulps %ymm29, %ymm17, %ymm22
vfmadd231ps %ymm28, %ymm21, %ymm22 # ymm22 = (ymm21 * ymm28) + ymm22
vfmadd231ps %ymm3, %ymm30, %ymm22 # ymm22 = (ymm30 * ymm3) + ymm22
vmulps %ymm29, %ymm29, %ymm24
vfmadd231ps %ymm28, %ymm28, %ymm24 # ymm24 = (ymm28 * ymm28) + ymm24
vfmadd231ps %ymm3, %ymm3, %ymm24 # ymm24 = (ymm3 * ymm3) + ymm24
vmulps %ymm18, %ymm17, %ymm17
vfmadd231ps %ymm21, %ymm16, %ymm17 # ymm17 = (ymm16 * ymm21) + ymm17
vfmadd231ps %ymm30, %ymm15, %ymm17 # ymm17 = (ymm15 * ymm30) + ymm17
vmulps %ymm18, %ymm29, %ymm18
vfmadd231ps %ymm16, %ymm28, %ymm18 # ymm18 = (ymm28 * ymm16) + ymm18
vfmadd231ps %ymm15, %ymm3, %ymm18 # ymm18 = (ymm3 * ymm15) + ymm18
vmulps %ymm17, %ymm17, %ymm26
vmovaps 0x7e0(%rsp), %ymm27
vsubps %ymm26, %ymm27, %ymm15
vmulps %ymm18, %ymm17, %ymm25
vsubps %ymm25, %ymm22, %ymm22
vaddps %ymm22, %ymm22, %ymm22
vmulps %ymm18, %ymm18, %ymm25
vsubps %ymm25, %ymm24, %ymm24
vsubps %ymm1, %ymm24, %ymm1
vmulps %ymm22, %ymm22, %ymm16
vmulps 0x1fcad4(%rip){1to8}, %ymm15, %ymm25 # 0x1eecb8c
vmulps %ymm1, %ymm25, %ymm30
vmovaps %ymm16, 0x80(%rsp)
vsubps %ymm30, %ymm16, %ymm30
vcmpnltps %ymm31, %ymm30, %k1
kmovd %k1, %eax
kortestb %k1, %k1
je 0x1cf01f7
vsqrtps %ymm30, %ymm30
vaddps %ymm15, %ymm15, %ymm31
vrcp14ps %ymm31, %ymm23
vfnmadd213ps %ymm0, %ymm23, %ymm31 # ymm31 = -(ymm23 * ymm31) + ymm0
vfmadd132ps %ymm23, %ymm23, %ymm31 # ymm31 = (ymm31 * ymm23) + ymm23
vxorps 0x230db7(%rip){1to8}, %ymm22, %ymm23 # 0x1f20ec0
vsubps %ymm30, %ymm23, %ymm23
vmulps %ymm31, %ymm23, %ymm23
vsubps %ymm22, %ymm30, %ymm30
vmulps %ymm31, %ymm30, %ymm31
vmovaps %ymm17, %ymm30
vfmadd213ps %ymm18, %ymm23, %ymm30 # ymm30 = (ymm23 * ymm30) + ymm18
vmulps %ymm30, %ymm14, %ymm30
vmovaps %ymm30, 0x6c0(%rsp)
vmovaps %ymm17, %ymm30
vfmadd213ps %ymm18, %ymm31, %ymm30 # ymm30 = (ymm31 * ymm30) + ymm18
vmulps %ymm30, %ymm14, %ymm30
vmovaps %ymm30, 0x6a0(%rsp)
vbroadcastss 0x1fb8c2(%rip), %ymm0 # 0x1eeba20
vblendmps %ymm23, %ymm0, %ymm30 {%k1}
vbroadcastss 0x1fca17(%rip), %ymm0 # 0x1eecb84
vblendmps %ymm31, %ymm0, %ymm31 {%k1}
vbroadcastss 0x230d48(%rip), %ymm0 # 0x1f20ec4
vandps %ymm0, %ymm26, %ymm23
vmovaps 0x700(%rsp), %ymm21
vmaxps %ymm23, %ymm21, %ymm23
vmulps 0x201d1a(%rip){1to8}, %ymm23, %ymm23 # 0x1ef1eb4
vandps %ymm0, %ymm15, %ymm0
vcmpltps %ymm23, %ymm0, %k1 {%k1}
kortestb %k1, %k1
je 0x1cf020b
vcmpleps 0x230d4a(%rip), %ymm1, %k2 # 0x1f20f00
vbroadcastss 0x1fc9c5(%rip), %ymm1 # 0x1eecb84
vbroadcastss 0x1fb857(%rip), %ymm23 # 0x1eeba20
vblendmps %ymm1, %ymm23, %ymm0 {%k2}
vmovaps %ymm0, %ymm30 {%k1}
vblendmps %ymm23, %ymm1, %ymm0 {%k2}
kmovd %k2, %ecx
vmovaps %ymm0, %ymm31 {%k1}
knotb %k1, %k0
kmovd %k0, %esi
orb %cl, %sil
andb %al, %sil
movl %esi, %eax
jmp 0x1cf020b
vbroadcastss 0x1fb81f(%rip), %ymm30 # 0x1eeba20
vbroadcastss 0x1fc979(%rip), %ymm31 # 0x1eecb84
andb $0x7f, %al
je 0x1cf0636
vmovaps %ymm24, 0x580(%rsp)
vmovaps %ymm26, 0x400(%rsp)
movq 0x30(%rsp), %rcx
vmovss 0x200(%rcx,%rdx,4), %xmm0
vsubss 0x470(%rsp), %xmm0, %xmm0
vbroadcastss %xmm0, %ymm0
vminps %ymm31, %ymm0, %ymm0
vmovaps 0x7c0(%rsp), %ymm1
vmaxps %ymm30, %ymm1, %ymm1
vmulps %ymm13, %ymm29, %ymm23
vfmadd213ps %ymm23, %ymm12, %ymm28 # ymm28 = (ymm12 * ymm28) + ymm23
vfmadd213ps %ymm28, %ymm11, %ymm3 # ymm3 = (ymm11 * ymm3) + ymm28
vmovaps 0x5c0(%rsp), %ymm21
vmulps %ymm13, %ymm21, %ymm13
vmovaps 0x200(%rsp), %ymm26
vfmadd231ps %ymm12, %ymm26, %ymm13 # ymm13 = (ymm26 * ymm12) + ymm13
vmovaps 0x220(%rsp), %ymm16
vfmadd231ps %ymm11, %ymm16, %ymm13 # ymm13 = (ymm16 * ymm11) + ymm13
vbroadcastss 0x230c2a(%rip), %ymm28 # 0x1f20ec4
vandps %ymm28, %ymm13, %ymm11
vbroadcastss 0x200d3e(%rip), %ymm29 # 0x1ef0fe8
vcmpltps %ymm29, %ymm11, %k0
vbroadcastss 0x230c05(%rip), %ymm31 # 0x1f20ec0
vxorps %ymm31, %ymm3, %ymm11
vrcp14ps %ymm13, %ymm12
vxorps %ymm31, %ymm13, %ymm23
vmovaps %ymm12, %ymm27
vbroadcastss 0x1fc437(%rip), %ymm30 # 0x1eec714
vfnmadd213ps %ymm30, %ymm13, %ymm27 # ymm27 = -(ymm13 * ymm27) + ymm30
vfmadd132ps %ymm12, %ymm12, %ymm27 # ymm27 = (ymm27 * ymm12) + ymm12
vmulps %ymm11, %ymm27, %ymm11
vcmpltps %ymm23, %ymm13, %k1
korb %k1, %k0, %k1
vbroadcastss 0x1fc880(%rip), %ymm27 # 0x1eecb84
vblendmps %ymm27, %ymm11, %ymm12 {%k1}
vmaxps %ymm12, %ymm1, %ymm1
vcmpnleps %ymm23, %ymm13, %k1
korb %k1, %k0, %k1
vbroadcastss 0x1fb6fd(%rip), %ymm13 # 0x1eeba20
vmovaps %ymm13, %ymm11 {%k1}
vminps %ymm11, %ymm0, %ymm0
vxorps %xmm23, %xmm23, %xmm23
vsubps %ymm8, %ymm23, %ymm8
vsubps %ymm9, %ymm23, %ymm9
vsubps %ymm10, %ymm23, %ymm10
vmulps %ymm2, %ymm10, %ymm10
vfnmsub231ps %ymm9, %ymm20, %ymm10 # ymm10 = -(ymm20 * ymm9) - ymm10
vfnmadd231ps %ymm8, %ymm19, %ymm10 # ymm10 = -(ymm19 * ymm8) + ymm10
vmulps %ymm2, %ymm21, %ymm8
vfnmsub231ps %ymm20, %ymm26, %ymm8 # ymm8 = -(ymm26 * ymm20) - ymm8
vfnmadd231ps %ymm19, %ymm16, %ymm8 # ymm8 = -(ymm16 * ymm19) + ymm8
vandps %ymm28, %ymm8, %ymm9
vcmpltps %ymm29, %ymm9, %k0
vxorps %ymm31, %ymm10, %ymm9
vrcp14ps %ymm8, %ymm10
vxorps %ymm31, %ymm8, %ymm11
vmovaps %ymm10, %ymm12
vfnmadd213ps %ymm30, %ymm8, %ymm12 # ymm12 = -(ymm8 * ymm12) + ymm30
vfmadd132ps %ymm10, %ymm10, %ymm12 # ymm12 = (ymm12 * ymm10) + ymm10
vmulps %ymm9, %ymm12, %ymm9
vcmpltps %ymm11, %ymm8, %k1
korb %k1, %k0, %k1
vblendmps %ymm27, %ymm9, %ymm10 {%k1}
vmaxps %ymm10, %ymm1, %ymm1
vcmpnleps %ymm11, %ymm8, %k1
korb %k1, %k0, %k1
vmovaps %ymm13, %ymm9 {%k1}
vminps %ymm9, %ymm0, %ymm8
vmovaps %ymm1, 0x560(%rsp)
vcmpleps %ymm8, %ymm1, %k0
kmovd %k0, %ecx
andb %cl, %al
je 0x1cf064b
vmovaps 0x6c0(%rsp), %ymm0
vmaxps 0xa0(%rsp), %ymm23, %ymm1
vminps %ymm30, %ymm0, %ymm0
vxorps %xmm10, %xmm10, %xmm10
vmaxps %ymm10, %ymm0, %ymm0
vmovaps 0x6a0(%rsp), %ymm9
vminps %ymm30, %ymm9, %ymm9
vmovaps 0x230b24(%rip), %ymm11 # 0x1f20f40
vaddps %ymm0, %ymm11, %ymm0
vbroadcastss 0x22e08f(%rip), %ymm12 # 0x1f1e4b8
vmulps %ymm0, %ymm12, %ymm0
vmovaps 0x60(%rsp), %ymm2
vmovaps 0x360(%rsp), %ymm13
vfmadd213ps %ymm2, %ymm13, %ymm0 # ymm0 = (ymm13 * ymm0) + ymm2
vmovaps %ymm0, 0x6c0(%rsp)
vmaxps %ymm10, %ymm9, %ymm0
vaddps %ymm0, %ymm11, %ymm0
vmulps %ymm0, %ymm12, %ymm0
vfmadd213ps %ymm2, %ymm13, %ymm0 # ymm0 = (ymm13 * ymm0) + ymm2
vmovaps %ymm0, 0x6a0(%rsp)
vmulps %ymm1, %ymm1, %ymm0
vmovaps 0x580(%rsp), %ymm1
vsubps %ymm0, %ymm1, %ymm11
vmulps %ymm11, %ymm25, %ymm0
vmovaps 0x80(%rsp), %ymm1
vsubps %ymm0, %ymm1, %ymm0
vcmpnltps %ymm10, %ymm0, %k0
kortestb %k0, %k0
vmovaps 0x280(%rsp), %ymm29
vmovaps 0x260(%rsp), %ymm16
je 0x1cf06e3
vxorps %xmm20, %xmm20, %xmm20
vcmpnltps %ymm23, %ymm0, %k1
vsqrtps %ymm0, %ymm0
vaddps %ymm15, %ymm15, %ymm1
vrcp14ps %ymm1, %ymm9
vfnmadd213ps %ymm30, %ymm9, %ymm1 # ymm1 = -(ymm9 * ymm1) + ymm30
vfmadd132ps %ymm9, %ymm9, %ymm1 # ymm1 = (ymm1 * ymm9) + ymm9
vxorps 0x2309e5(%rip){1to8}, %ymm22, %ymm9 # 0x1f20ec0
vsubps %ymm0, %ymm9, %ymm9
vmulps %ymm1, %ymm9, %ymm12
vsubps %ymm22, %ymm0, %ymm0
vmulps %ymm1, %ymm0, %ymm13
vmovaps %ymm17, %ymm0
vfmadd213ps %ymm18, %ymm12, %ymm0 # ymm0 = (ymm12 * ymm0) + ymm18
vmulps %ymm0, %ymm14, %ymm9
vmovaps 0x220(%rsp), %ymm30
vmulps %ymm12, %ymm30, %ymm0
vmovaps 0x200(%rsp), %ymm21
vmulps %ymm12, %ymm21, %ymm1
vmovaps 0x5c0(%rsp), %ymm26
vmulps %ymm12, %ymm26, %ymm10
vmovaps %ymm7, %ymm19
vfmadd213ps %ymm4, %ymm9, %ymm19 # ymm19 = (ymm9 * ymm19) + ymm4
vsubps %ymm19, %ymm0, %ymm0
vmovaps %ymm6, %ymm19
vmovaps 0x5a0(%rsp), %ymm3
vfmadd213ps %ymm3, %ymm9, %ymm19 # ymm19 = (ymm9 * ymm19) + ymm3
vsubps %ymm19, %ymm1, %ymm1
vmovaps 0x420(%rsp), %ymm2
vfmadd213ps %ymm2, %ymm5, %ymm9 # ymm9 = (ymm5 * ymm9) + ymm2
vsubps %ymm9, %ymm10, %ymm9
vfmadd213ps %ymm18, %ymm13, %ymm17 # ymm17 = (ymm13 * ymm17) + ymm18
vmulps %ymm17, %ymm14, %ymm14
vmulps %ymm13, %ymm30, %ymm10
vmulps %ymm13, %ymm21, %ymm17
vmulps %ymm13, %ymm26, %ymm18
vfmadd213ps %ymm4, %ymm14, %ymm7 # ymm7 = (ymm14 * ymm7) + ymm4
vsubps %ymm7, %ymm10, %ymm10
vfmadd213ps %ymm3, %ymm14, %ymm6 # ymm6 = (ymm14 * ymm6) + ymm3
vsubps %ymm6, %ymm17, %ymm3
vfmadd213ps %ymm2, %ymm14, %ymm5 # ymm5 = (ymm14 * ymm5) + ymm2
vsubps %ymm5, %ymm18, %ymm5
vbroadcastss 0x1fb473(%rip), %ymm2 # 0x1eeba20
vblendmps %ymm12, %ymm2, %ymm4 {%k1}
vbroadcastss 0x1fc5c8(%rip), %ymm2 # 0x1eecb84
vblendmps %ymm13, %ymm2, %ymm2 {%k1}
vandps 0x400(%rsp), %ymm28, %ymm6
vmovaps 0x700(%rsp), %ymm7
vmaxps %ymm6, %ymm7, %ymm6
vmulps 0x2018d3(%rip){1to8}, %ymm6, %ymm6 # 0x1ef1eb4
vandps %ymm28, %ymm15, %ymm7
vcmpltps %ymm6, %ymm7, %k1 {%k1}
kortestb %k1, %k1
jne 0x1cf2251
vmovaps 0x1e0(%rsp), %ymm12
vmovaps 0x1c0(%rsp), %ymm24
vmovaps 0x1a0(%rsp), %ymm17
vmovaps 0x180(%rsp), %ymm18
vmovaps 0x160(%rsp), %ymm22
vmovaps 0x140(%rsp), %ymm23
vmovaps 0x120(%rsp), %ymm25
jmp 0x1cf075b
vbroadcastss 0x230884(%rip), %ymm28 # 0x1f20ec4
vbroadcastss 0x1fc0cb(%rip), %ymm3 # 0x1eec714
jmp 0x1cf0651
vmovaps %ymm30, %ymm3
vmovaps 0x220(%rsp), %ymm30
vmovaps 0x200(%rsp), %ymm21
vmovaps 0x240(%rsp), %ymm9
vmovaps 0x1e0(%rsp), %ymm12
vmovaps 0x2a0(%rsp), %ymm13
vmovaps 0x1c0(%rsp), %ymm24
vmovaps 0x4c0(%rsp), %ymm2
vmovaps 0x340(%rsp), %ymm4
vmovaps 0x1a0(%rsp), %ymm17
vmovaps 0x180(%rsp), %ymm18
vmovaps 0x3e0(%rsp), %ymm19
vmovaps 0x3c0(%rsp), %ymm20
vmovaps 0x160(%rsp), %ymm22
vmovaps 0x140(%rsp), %ymm23
vmovaps 0x120(%rsp), %ymm25
vmovaps 0x280(%rsp), %ymm29
vmovaps 0x260(%rsp), %ymm16
jmp 0x1cf2118
vxorps %xmm3, %xmm3, %xmm3
vxorps %xmm5, %xmm5, %xmm5
vxorps %xmm0, %xmm0, %xmm0
vxorps %xmm1, %xmm1, %xmm1
vxorps %xmm9, %xmm9, %xmm9
vbroadcastss 0x1fb31f(%rip), %ymm4 # 0x1eeba20
vbroadcastss 0x1fc47a(%rip), %ymm2 # 0x1eecb84
vmovaps 0x220(%rsp), %ymm30
vmovaps 0x200(%rsp), %ymm21
vmovaps 0x1e0(%rsp), %ymm12
vmovaps 0x1c0(%rsp), %ymm24
vmovaps 0x1a0(%rsp), %ymm17
vmovaps 0x180(%rsp), %ymm18
vmovaps 0x160(%rsp), %ymm22
vmovaps 0x140(%rsp), %ymm23
vmovaps 0x120(%rsp), %ymm25
vmovaps 0x5c0(%rsp), %ymm26
vmulps %ymm5, %ymm26, %ymm5
vfmadd231ps %ymm3, %ymm21, %ymm5 # ymm5 = (ymm21 * ymm3) + ymm5
vfmadd231ps %ymm10, %ymm30, %ymm5 # ymm5 = (ymm30 * ymm10) + ymm5
vmovaps 0x560(%rsp), %ymm6
vmovaps %ymm6, 0x800(%rsp)
vminps %ymm4, %ymm8, %ymm3
vmovaps %ymm3, 0x820(%rsp)
vandps %ymm28, %ymm5, %ymm4
vmaxps %ymm2, %ymm6, %ymm5
vmovaps %ymm5, 0x720(%rsp)
vmovaps %ymm8, 0x740(%rsp)
vbroadcastss 0x230723(%rip), %ymm2 # 0x1f20ed4
vcmpltps %ymm2, %ymm4, %k1
kmovd %k1, 0x114(%rsp)
vcmpleps %ymm3, %ymm6, %k1
kmovd %k1, %ecx
andb %al, %cl
vmovaps %ymm5, 0x660(%rsp)
vcmpleps %ymm8, %ymm5, %k1
kmovd %k1, %esi
andb %al, %sil
movl %esi, 0x48(%rsp)
movl %esi, %eax
orb %cl, %al
vmovaps 0x2a0(%rsp), %ymm13
vmovaps 0x3e0(%rsp), %ymm19
vmovaps 0x3c0(%rsp), %ymm20
je 0x1cf13ab
movq %r12, 0x308(%rsp)
movb %r15b, 0x2f(%rsp)
knotb %k0, %k1
vmovaps %ymm2, %ymm3
vmulps %ymm9, %ymm26, %ymm2
vfmadd213ps %ymm2, %ymm21, %ymm1 # ymm1 = (ymm21 * ymm1) + ymm2
vfmadd213ps %ymm1, %ymm30, %ymm0 # ymm0 = (ymm30 * ymm0) + ymm1
vandps %ymm28, %ymm0, %ymm0
vcmpltps %ymm3, %ymm0, %k0
kmovd %k1, 0x10c(%rsp)
korb %k1, %k0, %k1
vpbroadcastd 0x230684(%rip), %ymm0 # 0x1f20edc
vpblendmd 0x230676(%rip){1to8}, %ymm0, %ymm0 {%k1} # 0x1f20ed8
movq 0x100(%rsp), %rax
vpbroadcastd %eax, %ymm1
vmovdqa %ymm0, 0x760(%rsp)
vmovdqa %ymm1, 0x6e0(%rsp)
vpcmpnltd %ymm0, %ymm1, %k0
kmovd %k0, %r12d
movl %ecx, 0x110(%rsp)
andb %cl, %r12b
je 0x1cf13d4
vmovaps 0x540(%rsp), %ymm1
vmovaps 0x500(%rsp), %ymm2
vminps %xmm2, %xmm1, %xmm0
vmaxps %xmm2, %xmm1, %xmm1
vmovaps 0x520(%rsp), %ymm3
vmovaps 0x4e0(%rsp), %ymm4
vminps %xmm4, %xmm3, %xmm2
vminps %xmm2, %xmm0, %xmm0
vmaxps %xmm4, %xmm3, %xmm2
vmaxps %xmm2, %xmm1, %xmm1
vbroadcastss 0x2305e2(%rip), %xmm2 # 0x1f20ec4
vandps %xmm2, %xmm0, %xmm0
vandps %xmm2, %xmm1, %xmm2
vmaxps %xmm2, %xmm0, %xmm0
vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3]
vmaxss %xmm0, %xmm2, %xmm2
vshufpd $0x1, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[1,0]
vmaxss %xmm2, %xmm0, %xmm0
vmulss 0x2015ad(%rip), %xmm0, %xmm0 # 0x1ef1eb4
vmovss %xmm0, 0x50(%rsp)
vshufps $0xff, %xmm1, %xmm1, %xmm0 # xmm0 = xmm1[3,3,3,3]
vmovaps %xmm0, 0x460(%rsp)
vmovaps 0x560(%rsp), %ymm0
vaddps 0x5e0(%rsp), %ymm0, %ymm0
vmovaps %ymm0, 0x680(%rsp)
kmovd %r12d, %k1
vbroadcastss 0x1fb0dc(%rip), %ymm0 # 0x1eeba20
vblendmps 0x560(%rsp), %ymm0, %ymm0 {%k1}
vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm0, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1]
vminps %ymm2, %ymm1, %ymm1
vcmpeqps %ymm1, %ymm0, %k0
kmovd %k0, %eax
andb %r12b, %al
movzbl %al, %eax
movzbl %r12b, %ecx
cmovnel %eax, %ecx
tzcntl %ecx, %ecx
movb $0x1, %r14b
shlb %cl, %r14b
shll $0x2, %ecx
vmovss 0x6c0(%rsp,%rcx), %xmm8
vmovss 0x800(%rsp,%rcx), %xmm10
vmovaps 0x390(%rsp), %xmm0
vucomiss 0x1fb074(%rip), %xmm0 # 0x1eeba24
vmovss 0x118(%rsp), %xmm0
jae 0x1cf09fc
vmovaps 0x390(%rsp), %xmm0
vmovaps %xmm8, 0xa0(%rsp)
vmovaps %xmm10, 0x80(%rsp)
kmovw %k1, 0x60(%rsp)
vzeroupper
callq 0x6aa20
kmovw 0x60(%rsp), %k1
vmovaps 0x80(%rsp), %xmm10
vmovaps 0xa0(%rsp), %xmm8
movzbl %r14b, %eax
kmovd %eax, %k0
kandnb %k1, %k0, %k0
kmovd %k0, %r12d
vmulss 0x2014a0(%rip), %xmm0, %xmm0 # 0x1ef1eb4
vmovss %xmm0, 0x54(%rsp)
movl $0x5, %r15d
vbroadcastss %xmm10, %xmm0
vxorps %xmm1, %xmm1, %xmm1
vfmadd132ps 0x3b0(%rsp), %xmm1, %xmm0 # xmm0 = (xmm0 * mem) + xmm1
vmovss 0x1fbcd9(%rip), %xmm1 # 0x1eec714
vsubss %xmm8, %xmm1, %xmm3
vbroadcastss %xmm8, %xmm1
vmovaps 0x500(%rsp), %ymm5
vmulps %xmm1, %xmm5, %xmm2
vmovaps %xmm3, 0x580(%rsp)
vbroadcastss %xmm3, %xmm3
vfmadd231ps 0x540(%rsp), %xmm3, %xmm2 # xmm2 = (xmm3 * mem) + xmm2
vmovaps 0x520(%rsp), %ymm6
vmulps %xmm1, %xmm6, %xmm4
vfmadd231ps %xmm5, %xmm3, %xmm4 # xmm4 = (xmm3 * xmm5) + xmm4
vmulps 0x4e0(%rsp), %xmm1, %xmm5
vfmadd231ps %xmm6, %xmm3, %xmm5 # xmm5 = (xmm3 * xmm6) + xmm5
vmulps %xmm4, %xmm1, %xmm6
vfmadd231ps %xmm2, %xmm3, %xmm6 # xmm6 = (xmm3 * xmm2) + xmm6
vmulps %xmm5, %xmm1, %xmm2
vfmadd231ps %xmm4, %xmm3, %xmm2 # xmm2 = (xmm3 * xmm4) + xmm2
vmulps %xmm2, %xmm1, %xmm4
vfmadd231ps %xmm3, %xmm6, %xmm4 # xmm4 = (xmm6 * xmm3) + xmm4
vsubps %xmm6, %xmm2, %xmm1
vmulps 0x200539(%rip){1to4}, %xmm1, %xmm11 # 0x1ef0fec
vmovaps %xmm4, 0x5a0(%rsp)
vsubps %xmm4, %xmm0, %xmm0
vmovaps %xmm0, 0x360(%rsp)
vdpps $0x7f, %xmm0, %xmm0, %xmm0
vucomiss 0x1faf4d(%rip), %xmm0 # 0x1eeba24
vmovaps %xmm11, 0x60(%rsp)
vmovaps %xmm0, 0x420(%rsp)
vmovaps %xmm8, 0xa0(%rsp)
vmovaps %xmm10, 0x80(%rsp)
jb 0x1cf0b00
vsqrtss %xmm0, %xmm0, %xmm7
jmp 0x1cf0b12
vzeroupper
callq 0x6aa20
vmovaps 0x60(%rsp), %xmm11
vmovaps %xmm0, %xmm7
vdpps $0x7f, %xmm11, %xmm11, %xmm0
vxorps %xmm1, %xmm1, %xmm1
vmovss %xmm0, %xmm1, %xmm2 # xmm2 = xmm0[0],xmm1[1,2,3]
vrsqrt14ss %xmm2, %xmm1, %xmm3
vmulss 0x1fbbea(%rip), %xmm3, %xmm4 # 0x1eec718
vmulss 0x1fbbe6(%rip), %xmm0, %xmm5 # 0x1eec71c
vrcp14ss %xmm2, %xmm1, %xmm2
vxorps 0x23037a(%rip){1to4}, %xmm0, %xmm1 # 0x1f20ec0
vmovaps %xmm2, 0x4a0(%rsp)
vfnmadd213ss 0x2004a0(%rip), %xmm0, %xmm2 # xmm2 = -(xmm0 * xmm2) + mem
vmovss %xmm2, 0x2e0(%rsp)
vucomiss %xmm1, %xmm0
vmovss %xmm7, 0x400(%rsp)
vmovaps %xmm0, 0x4b0(%rsp)
jb 0x1cf0b7f
vsqrtss %xmm0, %xmm0, %xmm0
jmp 0x1cf0bcc
vmovaps %xmm3, 0xe0(%rsp)
vmovss %xmm4, 0xd0(%rsp)
vmovss %xmm5, 0x2d0(%rsp)
vzeroupper
callq 0x6aa20
vmovss 0x2d0(%rsp), %xmm5
vmovss 0xd0(%rsp), %xmm4
vmovaps 0xe0(%rsp), %xmm3
vmovss 0x400(%rsp), %xmm7
vmovaps 0x60(%rsp), %xmm11
vmovss %xmm0, 0x3a0(%rsp)
vmovaps 0x360(%rsp), %xmm15
vmulss %xmm3, %xmm5, %xmm0
vmulss %xmm3, %xmm3, %xmm1
vmulss %xmm1, %xmm0, %xmm0
vaddss %xmm0, %xmm4, %xmm0
vbroadcastss %xmm0, %xmm13
vmulps %xmm13, %xmm11, %xmm0
vmovaps %xmm0, 0x490(%rsp)
vdpps $0x7f, %xmm0, %xmm15, %xmm0
vaddss 0x1fbb03(%rip), %xmm7, %xmm31 # 0x1eec714
vmovaps %xmm0, 0xe0(%rsp)
vmulps %xmm0, %xmm0, %xmm0
vmovaps 0x420(%rsp), %xmm1
vsubps %xmm0, %xmm1, %xmm0
vxorps %xmm2, %xmm2, %xmm2
vmovss %xmm0, %xmm2, %xmm1 # xmm1 = xmm0[0],xmm2[1,2,3]
vrsqrt14ss %xmm1, %xmm2, %xmm1
vmovaps %xmm1, 0xd0(%rsp)
vmulss 0x1fbace(%rip), %xmm1, %xmm1 # 0x1eec718
vmovss %xmm1, 0x2d0(%rsp)
vmulss 0x1fbac1(%rip), %xmm0, %xmm1 # 0x1eec71c
vmovss %xmm1, 0x58(%rsp)
vucomiss 0x1fadbb(%rip), %xmm0 # 0x1eeba24
jb 0x1cf0c71
vsqrtss %xmm0, %xmm0, %xmm0
jmp 0x1cf0cb3
vmovss %xmm31, 0x4c(%rsp)
vmovaps %xmm13, 0x480(%rsp)
vzeroupper
callq 0x6aa20
vmovaps 0x480(%rsp), %xmm13
vmovss 0x400(%rsp), %xmm7
vmovss 0x4c(%rsp), %xmm31
vmovaps 0x360(%rsp), %xmm15
vmovaps 0x60(%rsp), %xmm11
vbroadcastss 0x230207(%rip), %ymm26 # 0x1f20ec4
vmovaps 0x220(%rsp), %ymm30
vmovaps 0x200(%rsp), %ymm21
vmovaps 0x240(%rsp), %ymm9
vmovaps 0x1e0(%rsp), %ymm12
vmovaps 0x2a0(%rsp), %ymm25
vmovaps 0x1c0(%rsp), %ymm17
vmovaps 0x1a0(%rsp), %ymm18
vmovaps 0x180(%rsp), %ymm22
vmovaps 0x160(%rsp), %ymm23
vmovaps 0x140(%rsp), %ymm20
vmovaps 0x120(%rsp), %ymm19
vmovaps 0x280(%rsp), %ymm29
vmovaps 0x260(%rsp), %ymm16
vmovaps 0xa0(%rsp), %xmm8
vmovaps 0x80(%rsp), %xmm10
vmovss 0x1ffc9b(%rip), %xmm3 # 0x1ef09dc
vmovaps %xmm3, %xmm1
vmovaps 0x580(%rsp), %xmm5
vfmadd213ss %xmm5, %xmm8, %xmm1 # xmm1 = (xmm8 * xmm1) + xmm5
vmovss 0x200299(%rip), %xmm4 # 0x1ef0ff4
vmulss %xmm4, %xmm1, %xmm1
vmulss %xmm4, %xmm8, %xmm2
vbroadcastss %xmm2, %xmm2
vmulps 0x4e0(%rsp), %xmm2, %xmm2
vbroadcastss %xmm1, %xmm1
vfmadd132ps 0x520(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2
vmovaps %xmm3, %xmm2
vfmadd213ss %xmm8, %xmm5, %xmm2 # xmm2 = (xmm5 * xmm2) + xmm8
vmulss %xmm4, %xmm2, %xmm2
vbroadcastss %xmm2, %xmm2
vfmadd132ps 0x500(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1
vmulss %xmm4, %xmm5, %xmm1
vbroadcastss %xmm1, %xmm1
vfmadd132ps 0x540(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2
vbroadcastss 0x4b0(%rsp), %xmm2
vmulps %xmm2, %xmm1, %xmm2
vdpps $0x7f, %xmm1, %xmm11, %xmm1
vbroadcastss %xmm1, %xmm1
vmulps %xmm1, %xmm11, %xmm1
vsubps %xmm1, %xmm2, %xmm2
vmovss 0x2e0(%rsp), %xmm1
vmulss 0x4a0(%rsp), %xmm1, %xmm3
vmulss 0x54(%rsp), %xmm10, %xmm1
vmovss 0x50(%rsp), %xmm6
vmaxss %xmm1, %xmm6, %xmm1
vbroadcastss %xmm3, %xmm3
vmulps %xmm3, %xmm2, %xmm2
vxorps 0x2300bb(%rip){1to4}, %xmm11, %xmm3 # 0x1f20ec0
vmulps %xmm2, %xmm13, %xmm2
vmovaps 0x490(%rsp), %xmm13
vdpps $0x7f, %xmm13, %xmm3, %xmm4
vdivss 0x3a0(%rsp), %xmm6, %xmm5
vfmadd213ss %xmm1, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm7) + xmm1
vdpps $0x7f, %xmm2, %xmm15, %xmm2
vfmadd213ss %xmm7, %xmm5, %xmm31 # xmm31 = (xmm5 * xmm31) + xmm7
vaddss %xmm2, %xmm4, %xmm4
vmovaps 0x3b0(%rsp), %xmm7
vdpps $0x7f, %xmm13, %xmm7, %xmm5
vdpps $0x7f, %xmm3, %xmm15, %xmm3
vmovaps 0xd0(%rsp), %xmm6
vmulss 0x58(%rsp), %xmm6, %xmm2
vmulss %xmm6, %xmm6, %xmm6
vmulss %xmm6, %xmm2, %xmm2
vaddss 0x2d0(%rsp), %xmm2, %xmm6
vdpps $0x7f, %xmm7, %xmm15, %xmm7
vmovaps 0xe0(%rsp), %xmm28
vfnmadd231ss %xmm4, %xmm28, %xmm3 # xmm3 = -(xmm28 * xmm4) + xmm3
vfnmadd231ss %xmm5, %xmm28, %xmm7 # xmm7 = -(xmm28 * xmm5) + xmm7
vpermilps $0xff, 0x5a0(%rsp), %xmm2 # xmm2 = mem[3,3,3,3]
vsubss %xmm2, %xmm0, %xmm2
vshufps $0xff, %xmm11, %xmm11, %xmm0 # xmm0 = xmm11[3,3,3,3]
vfmsub213ss %xmm0, %xmm6, %xmm3 # xmm3 = (xmm6 * xmm3) - xmm0
vmulss %xmm6, %xmm7, %xmm6
vmulss %xmm3, %xmm5, %xmm7
vfmsub231ss %xmm6, %xmm4, %xmm7 # xmm7 = (xmm4 * xmm6) - xmm7
vdivss %xmm7, %xmm6, %xmm6
vdivss %xmm7, %xmm3, %xmm3
vdivss %xmm7, %xmm5, %xmm5
vdivss %xmm7, %xmm4, %xmm4
vmulss %xmm6, %xmm28, %xmm6
vmulss %xmm5, %xmm2, %xmm5
vsubss %xmm5, %xmm6, %xmm5
vmulss %xmm3, %xmm28, %xmm3
vmulss %xmm4, %xmm2, %xmm4
vsubss %xmm3, %xmm4, %xmm3
vsubss %xmm5, %xmm8, %xmm8
vsubss %xmm3, %xmm10, %xmm10
vbroadcastss 0x22ffdb(%rip), %xmm4 # 0x1f20ec4
vandps %xmm4, %xmm28, %xmm3
vucomiss %xmm3, %xmm31
movb $0x1, %al
jbe 0x1cf0f4b
vaddss %xmm31, %xmm1, %xmm1
vmovaps 0x460(%rsp), %xmm3
vfmadd231ss 0x200fa3(%rip), %xmm3, %xmm1 # xmm1 = (xmm3 * mem) + xmm1
vandps %xmm4, %xmm2, %xmm2
vucomiss %xmm2, %xmm1
jbe 0x1cf0f4b
vaddss 0x470(%rsp), %xmm10, %xmm10
vucomiss 0x5c(%rsp), %xmm10
jb 0x1cf0f46
movq 0x38(%rsp), %rax
movq 0x30(%rsp), %rcx
vmovss 0x200(%rcx,%rax,4), %xmm5
vucomiss %xmm10, %xmm5
jae 0x1cf0f61
xorl %eax, %eax
xorl %r14d, %r14d
testb %al, %al
je 0x1cf1370
decq %r15
jne 0x1cf0a20
jmp 0x1cf136d
xorl %eax, %eax
vucomiss 0x1faab9(%rip), %xmm8 # 0x1eeba24
jb 0x1cf0f48
vmovss 0x1fb79f(%rip), %xmm1 # 0x1eec714
vucomiss %xmm8, %xmm1
jb 0x1cf0f48
vxorps %xmm2, %xmm2, %xmm2
vmovaps 0x420(%rsp), %xmm3
vmovss %xmm3, %xmm2, %xmm1 # xmm1 = xmm3[0],xmm2[1,2,3]
vrsqrt14ss %xmm1, %xmm2, %xmm1
vmulss 0x1fb77d(%rip), %xmm1, %xmm2 # 0x1eec718
vmulss 0x1fb779(%rip), %xmm3, %xmm3 # 0x1eec71c
movq 0x40(%rsp), %rdx
movq (%rdx), %rax
movq 0x1e8(%rax), %rax
movq 0xf8(%rsp), %rcx
movq (%rax,%rcx,8), %r14
movq 0x38(%rsp), %rax
movq 0x30(%rsp), %rcx
movl 0x240(%rcx,%rax,4), %eax
testl %eax, 0x34(%r14)
je 0x1cf0f46
movq 0x10(%rdx), %rax
cmpq $0x0, 0x10(%rax)
jne 0x1cf0ff5
cmpq $0x0, 0x48(%r14)
jne 0x1cf0ff5
movb $0x1, %r14b
xorl %eax, %eax
jmp 0x1cf0f4b
vmulss %xmm1, %xmm3, %xmm3
vmulss %xmm1, %xmm1, %xmm1
vmulss %xmm1, %xmm3, %xmm1
vaddss %xmm1, %xmm2, %xmm1
vbroadcastss %xmm1, %xmm1
vmulps %xmm1, %xmm15, %xmm1
vfmadd213ps %xmm11, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm0) + xmm11
vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm11, %xmm11, %xmm3 # xmm3 = xmm11[1,2,0,3]
vmulps %xmm3, %xmm1, %xmm1
vfmsub231ps %xmm2, %xmm11, %xmm1 # xmm1 = (xmm11 * xmm2) - xmm1
vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3]
vshufps $0xd2, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,0,1,3]
vmulps %xmm1, %xmm0, %xmm0
vfmsub231ps %xmm3, %xmm2, %xmm0 # xmm0 = (xmm2 * xmm3) - xmm0
movq 0x40(%rsp), %rdx
movq 0x8(%rdx), %rax
vbroadcastss %xmm8, %zmm1
vbroadcastss 0x2216ac(%rip), %zmm2 # 0x1f12704
vpermps %zmm0, %zmm2, %zmm2
vbroadcastss 0x22fe74(%rip), %zmm3 # 0x1f20edc
vpermps %zmm0, %zmm3, %zmm3
vbroadcastss %xmm0, %zmm0
vmovaps %zmm2, 0x900(%rsp)
vmovaps %zmm3, 0x940(%rsp)
vmovaps %zmm0, 0x980(%rsp)
vmovaps %zmm1, 0x9c0(%rsp)
vxorps %xmm0, %xmm0, %xmm0
vmovaps %zmm0, 0xa00(%rsp)
vmovaps 0x8c0(%rsp), %zmm0
vmovaps %zmm0, 0xa40(%rsp)
vmovdqa64 0x880(%rsp), %zmm0
vmovdqa64 %zmm0, 0xa80(%rsp)
movq 0x2f8(%rsp), %rcx
vpcmpeqd %ymm0, %ymm0, %ymm0
vmovdqa %ymm0, 0x60(%rcx)
vmovdqa %ymm0, 0x40(%rcx)
vmovdqa %ymm0, 0x20(%rcx)
vmovdqa %ymm0, (%rcx)
vbroadcastss (%rax), %zmm0
vmovaps %zmm0, 0xac0(%rsp)
vbroadcastss 0x4(%rax), %zmm0
vmovaps %zmm0, 0xb00(%rsp)
movq 0x38(%rsp), %rax
movq 0x30(%rsp), %rcx
vmovss %xmm10, 0x200(%rcx,%rax,4)
vmovaps 0x840(%rsp), %zmm0
vmovaps %zmm0, 0x600(%rsp)
leaq 0x600(%rsp), %rax
movq %rax, 0x310(%rsp)
movq 0x18(%r14), %rax
movq %rax, 0x318(%rsp)
movq 0x8(%rdx), %rax
movq %rax, 0x320(%rsp)
movq %rcx, 0x328(%rsp)
leaq 0x900(%rsp), %rax
movq %rax, 0x330(%rsp)
movl $0x10, 0x338(%rsp)
movq 0x48(%r14), %rax
testq %rax, %rax
vmovaps %xmm8, 0xa0(%rsp)
vmovaps %xmm10, 0x80(%rsp)
vmovss %xmm5, 0x60(%rsp)
je 0x1cf1231
leaq 0x310(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0x60(%rsp), %xmm5
vmovaps 0x80(%rsp), %xmm10
vmovaps 0xa0(%rsp), %xmm8
vmovaps 0x260(%rsp), %ymm16
vmovaps 0x280(%rsp), %ymm29
vmovaps 0x120(%rsp), %ymm19
vmovaps 0x140(%rsp), %ymm20
vmovaps 0x160(%rsp), %ymm23
vmovaps 0x180(%rsp), %ymm22
vmovaps 0x1a0(%rsp), %ymm18
vmovaps 0x1c0(%rsp), %ymm17
vmovaps 0x2a0(%rsp), %ymm25
vmovaps 0x1e0(%rsp), %ymm12
vmovaps 0x240(%rsp), %ymm9
vmovaps 0x200(%rsp), %ymm21
vmovaps 0x220(%rsp), %ymm30
vbroadcastss 0x22fc9d(%rip), %xmm4 # 0x1f20ec4
vbroadcastss 0x22fc93(%rip), %ymm26 # 0x1f20ec4
vmovdqa64 0x600(%rsp), %zmm0
vptestmd %zmm0, %zmm0, %k0
kortestw %k0, %k0
je 0x1cf1349
movq 0x40(%rsp), %rax
movq 0x10(%rax), %rcx
movq 0x10(%rcx), %rax
testq %rax, %rax
je 0x1cf1311
testb $0x2, (%rcx)
jne 0x1cf126f
testb $0x40, 0x3e(%r14)
je 0x1cf1311
leaq 0x310(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0x60(%rsp), %xmm5
vmovaps 0x80(%rsp), %xmm10
vmovaps 0xa0(%rsp), %xmm8
vmovaps 0x260(%rsp), %ymm16
vmovaps 0x280(%rsp), %ymm29
vmovaps 0x120(%rsp), %ymm19
vmovaps 0x140(%rsp), %ymm20
vmovaps 0x160(%rsp), %ymm23
vmovaps 0x180(%rsp), %ymm22
vmovaps 0x1a0(%rsp), %ymm18
vmovaps 0x1c0(%rsp), %ymm17
vmovaps 0x2a0(%rsp), %ymm25
vmovaps 0x1e0(%rsp), %ymm12
vmovaps 0x240(%rsp), %ymm9
vmovaps 0x200(%rsp), %ymm21
vmovaps 0x220(%rsp), %ymm30
vbroadcastss 0x22fbbd(%rip), %xmm4 # 0x1f20ec4
vbroadcastss 0x22fbb3(%rip), %ymm26 # 0x1f20ec4
vmovdqa64 0x600(%rsp), %zmm0
vptestmd %zmm0, %zmm0, %k1
movq 0x328(%rsp), %rax
vmovaps 0x200(%rax), %zmm0
vbroadcastss 0x1fb84c(%rip), %zmm0 {%k1} # 0x1eecb84
vmovaps %zmm0, 0x200(%rax)
kortestw %k1, %k1
setne %r14b
jmp 0x1cf134c
xorl %r14d, %r14d
testb %r14b, %r14b
jne 0x1cf0fee
movq 0x38(%rsp), %rax
movq 0x30(%rsp), %rcx
vmovss %xmm5, 0x200(%rcx,%rax,4)
jmp 0x1cf0fee
xorl %r14d, %r14d
andb $0x1, %r14b
orb %r14b, %r13b
movq 0x38(%rsp), %rdx
movq 0x30(%rsp), %rax
vmovaps 0x680(%rsp), %ymm0
vcmpleps 0x200(%rax,%rdx,4){1to8}, %ymm0, %k0
kmovd %k0, %eax
andb %al, %r12b
vmovaps %ymm26, %ymm28
jne 0x1cf0936
jmp 0x1cf1410
vbroadcastss 0x1fb360(%rip), %ymm3 # 0x1eec714
vmovaps 0x240(%rsp), %ymm9
vmovaps 0x4c0(%rsp), %ymm2
vmovaps 0x340(%rsp), %ymm4
jmp 0x1cf2118
vmovaps %ymm25, %ymm19
vmovaps %ymm13, %ymm25
vmovaps %ymm23, %ymm20
vmovaps %ymm22, %ymm23
vmovaps %ymm18, %ymm22
vmovaps %ymm17, %ymm18
vmovaps %ymm24, %ymm17
vbroadcastss 0x22fabd(%rip), %xmm4 # 0x1f20ec4
vmovaps 0x240(%rsp), %ymm9
vmovaps 0x5e0(%rsp), %ymm3
vaddps 0x660(%rsp), %ymm3, %ymm0
movq 0x30(%rsp), %rax
vcmpleps 0x200(%rax,%rdx,4){1to8}, %ymm0, %k0
kmovd 0x114(%rsp), %k1
kmovd 0x10c(%rsp), %k2
korb %k2, %k1, %k1
kmovd %k0, %eax
movl 0x48(%rsp), %ecx
andb %al, %cl
vpbroadcastd 0x22fa7e(%rip), %ymm0 # 0x1f20edc
vpblendmd 0x22fa70(%rip){1to8}, %ymm0, %ymm0 {%k1} # 0x1f20ed8
vmovdqa %ymm0, 0x660(%rsp)
vpcmpled 0x6e0(%rsp), %ymm0, %k0
kmovd %k0, %r12d
movl %ecx, 0x48(%rsp)
andb %cl, %r12b
je 0x1cf1fe7
vmovaps 0x720(%rsp), %ymm7
vmovaps 0x540(%rsp), %ymm1
vmovaps 0x500(%rsp), %ymm2
vminps %xmm2, %xmm1, %xmm0
vmaxps %xmm2, %xmm1, %xmm1
vmovaps 0x520(%rsp), %ymm5
vmovaps 0x4e0(%rsp), %ymm6
vminps %xmm6, %xmm5, %xmm2
vminps %xmm2, %xmm0, %xmm0
vmaxps %xmm6, %xmm5, %xmm2
vmaxps %xmm2, %xmm1, %xmm1
vandps %xmm4, %xmm0, %xmm0
vandps %xmm4, %xmm1, %xmm2
vmaxps %xmm2, %xmm0, %xmm0
vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3]
vmaxss %xmm0, %xmm2, %xmm2
vshufpd $0x1, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[1,0]
vmaxss %xmm2, %xmm0, %xmm0
vmulss 0x2009bf(%rip), %xmm0, %xmm0 # 0x1ef1eb4
vmovss %xmm0, 0x54(%rsp)
vshufps $0xff, %xmm1, %xmm1, %xmm0 # xmm0 = xmm1[3,3,3,3]
vmovaps %xmm0, 0x460(%rsp)
vmovaps %ymm7, 0x560(%rsp)
vaddps %ymm7, %ymm3, %ymm0
vmovaps %ymm0, 0x680(%rsp)
kmovd %r12d, %k1
vbroadcastss 0x1fa4f3(%rip), %ymm0 # 0x1eeba20
vblendmps 0x560(%rsp), %ymm0, %ymm0 {%k1}
vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm0, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1]
vminps %ymm2, %ymm1, %ymm1
vcmpeqps %ymm1, %ymm0, %k0
kmovd %k0, %eax
andb %r12b, %al
movzbl %al, %eax
movzbl %r12b, %ecx
cmovnel %eax, %ecx
tzcntl %ecx, %ecx
movb $0x1, %r14b
shlb %cl, %r14b
shll $0x2, %ecx
vmovss 0x6a0(%rsp,%rcx), %xmm8
vmovss 0x740(%rsp,%rcx), %xmm10
vmovaps 0x390(%rsp), %xmm0
vucomiss 0x1fa48b(%rip), %xmm0 # 0x1eeba24
vmovss 0x11c(%rsp), %xmm0
jae 0x1cf15e5
vmovaps 0x390(%rsp), %xmm0
vmovaps %xmm8, 0xa0(%rsp)
vmovaps %xmm10, 0x80(%rsp)
kmovw %k1, 0x60(%rsp)
vzeroupper
callq 0x6aa20
kmovw 0x60(%rsp), %k1
vmovaps 0x80(%rsp), %xmm10
vmovaps 0xa0(%rsp), %xmm8
movzbl %r14b, %eax
kmovd %eax, %k0
kandnb %k1, %k0, %k0
kmovd %k0, %r12d
vmulss 0x2008b7(%rip), %xmm0, %xmm0 # 0x1ef1eb4
vmovss %xmm0, 0x58(%rsp)
movl $0x5, %r15d
vbroadcastss %xmm10, %xmm0
vxorps %xmm1, %xmm1, %xmm1
vfmadd132ps 0x3b0(%rsp), %xmm1, %xmm0 # xmm0 = (xmm0 * mem) + xmm1
vmovss 0x1fb0f0(%rip), %xmm1 # 0x1eec714
vsubss %xmm8, %xmm1, %xmm3
vbroadcastss %xmm8, %xmm1
vmovaps 0x500(%rsp), %ymm5
vmulps %xmm1, %xmm5, %xmm2
vmovaps %xmm3, 0x580(%rsp)
vbroadcastss %xmm3, %xmm3
vfmadd231ps 0x540(%rsp), %xmm3, %xmm2 # xmm2 = (xmm3 * mem) + xmm2
vmovaps 0x520(%rsp), %ymm6
vmulps %xmm1, %xmm6, %xmm4
vfmadd231ps %xmm5, %xmm3, %xmm4 # xmm4 = (xmm3 * xmm5) + xmm4
vmulps 0x4e0(%rsp), %xmm1, %xmm5
vfmadd231ps %xmm6, %xmm3, %xmm5 # xmm5 = (xmm3 * xmm6) + xmm5
vmulps %xmm4, %xmm1, %xmm6
vfmadd231ps %xmm2, %xmm3, %xmm6 # xmm6 = (xmm3 * xmm2) + xmm6
vmulps %xmm5, %xmm1, %xmm2
vfmadd231ps %xmm4, %xmm3, %xmm2 # xmm2 = (xmm3 * xmm4) + xmm2
vmulps %xmm2, %xmm1, %xmm4
vfmadd231ps %xmm3, %xmm6, %xmm4 # xmm4 = (xmm6 * xmm3) + xmm4
vsubps %xmm6, %xmm2, %xmm1
vmulps 0x1ff950(%rip){1to4}, %xmm1, %xmm11 # 0x1ef0fec
vmovaps %xmm4, 0x5a0(%rsp)
vsubps %xmm4, %xmm0, %xmm0
vmovaps %xmm0, 0x360(%rsp)
vdpps $0x7f, %xmm0, %xmm0, %xmm0
vucomiss 0x1fa364(%rip), %xmm0 # 0x1eeba24
vmovaps %xmm11, 0x60(%rsp)
vmovaps %xmm0, 0x420(%rsp)
vmovaps %xmm8, 0xa0(%rsp)
vmovaps %xmm10, 0x80(%rsp)
jb 0x1cf16e9
vsqrtss %xmm0, %xmm0, %xmm7
jmp 0x1cf16fb
vzeroupper
callq 0x6aa20
vmovaps 0x60(%rsp), %xmm11
vmovaps %xmm0, %xmm7
vdpps $0x7f, %xmm11, %xmm11, %xmm0
vxorps %xmm1, %xmm1, %xmm1
vmovss %xmm0, %xmm1, %xmm2 # xmm2 = xmm0[0],xmm1[1,2,3]
vrsqrt14ss %xmm2, %xmm1, %xmm3
vmulss 0x1fb001(%rip), %xmm3, %xmm4 # 0x1eec718
vmulss 0x1faffd(%rip), %xmm0, %xmm5 # 0x1eec71c
vrcp14ss %xmm2, %xmm1, %xmm2
vxorps 0x22f791(%rip){1to4}, %xmm0, %xmm1 # 0x1f20ec0
vmovaps %xmm2, 0x3a0(%rsp)
vfnmadd213ss 0x1ff8b7(%rip), %xmm0, %xmm2 # xmm2 = -(xmm0 * xmm2) + mem
vmovss %xmm2, 0x4a0(%rsp)
vucomiss %xmm1, %xmm0
vmovss %xmm7, 0x400(%rsp)
vmovaps %xmm0, 0x4b0(%rsp)
jb 0x1cf176a
vsqrtss %xmm0, %xmm0, %xmm26
jmp 0x1cf17bd
vmovaps %xmm3, 0xe0(%rsp)
vmovss %xmm4, 0x2e0(%rsp)
vmovss %xmm5, 0xd0(%rsp)
vzeroupper
callq 0x6aa20
vmovss 0xd0(%rsp), %xmm5
vmovss 0x2e0(%rsp), %xmm4
vmovaps 0xe0(%rsp), %xmm3
vmovss 0x400(%rsp), %xmm7
vmovaps 0x60(%rsp), %xmm11
vmovaps %xmm0, %xmm26
vmovaps 0x360(%rsp), %xmm15
vmulss %xmm3, %xmm5, %xmm0
vmulss %xmm3, %xmm3, %xmm1
vmulss %xmm1, %xmm0, %xmm0
vaddss %xmm0, %xmm4, %xmm0
vbroadcastss %xmm0, %xmm14
vmulps %xmm14, %xmm11, %xmm0
vmovaps %xmm0, 0x2d0(%rsp)
vdpps $0x7f, %xmm0, %xmm15, %xmm0
vaddss 0x1faf1b(%rip), %xmm7, %xmm31 # 0x1eec714
vmovaps %xmm0, 0xe0(%rsp)
vmulps %xmm0, %xmm0, %xmm0
vmovaps 0x420(%rsp), %xmm1
vsubps %xmm0, %xmm1, %xmm0
vxorps %xmm2, %xmm2, %xmm2
vmovss %xmm0, %xmm2, %xmm1 # xmm1 = xmm0[0],xmm2[1,2,3]
vrsqrt14ss %xmm1, %xmm2, %xmm1
vmovaps %xmm1, 0x2e0(%rsp)
vmulss 0x1faee6(%rip), %xmm1, %xmm1 # 0x1eec718
vmovss %xmm1, 0xd0(%rsp)
vmulss 0x1faed9(%rip), %xmm0, %xmm1 # 0x1eec71c
vmovss %xmm1, 0x490(%rsp)
vucomiss 0x1fa1d0(%rip), %xmm0 # 0x1eeba24
jb 0x1cf185c
vsqrtss %xmm0, %xmm0, %xmm0
jmp 0x1cf18ae
vmovss %xmm31, 0x50(%rsp)
vmovss %xmm26, 0x4c(%rsp)
vmovaps %xmm14, 0x480(%rsp)
vzeroupper
callq 0x6aa20
vmovaps 0x480(%rsp), %xmm14
vmovss 0x4c(%rsp), %xmm26
vmovss 0x400(%rsp), %xmm7
vmovss 0x50(%rsp), %xmm31
vmovaps 0x360(%rsp), %xmm15
vmovaps 0x60(%rsp), %xmm11
vbroadcastss 0x22f60c(%rip), %ymm28 # 0x1f20ec4
vmovaps 0x220(%rsp), %ymm30
vmovaps 0x200(%rsp), %ymm21
vmovaps 0x240(%rsp), %ymm9
vmovaps 0x1e0(%rsp), %ymm12
vmovaps 0x2a0(%rsp), %ymm13
vmovaps 0x1c0(%rsp), %ymm24
vmovaps 0x1a0(%rsp), %ymm17
vmovaps 0x180(%rsp), %ymm18
vmovaps 0x3e0(%rsp), %ymm19
vmovaps 0x3c0(%rsp), %ymm20
vmovaps 0x160(%rsp), %ymm22
vmovaps 0x140(%rsp), %ymm23
vmovaps 0x120(%rsp), %ymm25
vmovaps 0x280(%rsp), %ymm29
vmovaps 0x260(%rsp), %ymm16
vmovaps 0xa0(%rsp), %xmm8
vmovaps 0x80(%rsp), %xmm10
vmovss 0x1ff08f(%rip), %xmm3 # 0x1ef09dc
vmovaps %xmm3, %xmm1
vmovaps 0x580(%rsp), %xmm5
vfmadd213ss %xmm5, %xmm8, %xmm1 # xmm1 = (xmm8 * xmm1) + xmm5
vmovss 0x1ff68d(%rip), %xmm4 # 0x1ef0ff4
vmulss %xmm4, %xmm1, %xmm1
vmulss %xmm4, %xmm8, %xmm2
vbroadcastss %xmm2, %xmm2
vmulps 0x4e0(%rsp), %xmm2, %xmm2
vbroadcastss %xmm1, %xmm1
vfmadd132ps 0x520(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2
vmovaps %xmm3, %xmm2
vfmadd213ss %xmm8, %xmm5, %xmm2 # xmm2 = (xmm5 * xmm2) + xmm8
vmulss %xmm4, %xmm2, %xmm2
vbroadcastss %xmm2, %xmm2
vfmadd132ps 0x500(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1
vmulss %xmm4, %xmm5, %xmm1
vbroadcastss %xmm1, %xmm1
vfmadd132ps 0x540(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2
vbroadcastss 0x4b0(%rsp), %xmm2
vmulps %xmm2, %xmm1, %xmm2
vdpps $0x7f, %xmm1, %xmm11, %xmm1
vbroadcastss %xmm1, %xmm1
vmulps %xmm1, %xmm11, %xmm1
vsubps %xmm1, %xmm2, %xmm2
vmovss 0x4a0(%rsp), %xmm1
vmulss 0x3a0(%rsp), %xmm1, %xmm3
vmulss 0x58(%rsp), %xmm10, %xmm1
vmovss 0x54(%rsp), %xmm6
vmaxss %xmm1, %xmm6, %xmm1
vbroadcastss %xmm3, %xmm3
vmulps %xmm3, %xmm2, %xmm2
vxorps 0x22f4af(%rip){1to4}, %xmm11, %xmm3 # 0x1f20ec0
vmulps %xmm2, %xmm14, %xmm2
vmovaps 0x2d0(%rsp), %xmm14
vdpps $0x7f, %xmm14, %xmm3, %xmm4
vdivss %xmm26, %xmm6, %xmm5
vfmadd213ss %xmm1, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm7) + xmm1
vdpps $0x7f, %xmm2, %xmm15, %xmm2
vfmadd213ss %xmm7, %xmm5, %xmm31 # xmm31 = (xmm5 * xmm31) + xmm7
vaddss %xmm2, %xmm4, %xmm4
vmovaps 0x3b0(%rsp), %xmm7
vdpps $0x7f, %xmm14, %xmm7, %xmm5
vdpps $0x7f, %xmm3, %xmm15, %xmm3
vmovaps 0x2e0(%rsp), %xmm6
vmulss 0x490(%rsp), %xmm6, %xmm2
vmulss %xmm6, %xmm6, %xmm6
vmulss %xmm6, %xmm2, %xmm2
vaddss 0xd0(%rsp), %xmm2, %xmm6
vdpps $0x7f, %xmm7, %xmm15, %xmm7
vmovaps 0xe0(%rsp), %xmm26
vfnmadd231ss %xmm4, %xmm26, %xmm3 # xmm3 = -(xmm26 * xmm4) + xmm3
vfnmadd231ss %xmm5, %xmm26, %xmm7 # xmm7 = -(xmm26 * xmm5) + xmm7
vpermilps $0xff, 0x5a0(%rsp), %xmm2 # xmm2 = mem[3,3,3,3]
vsubss %xmm2, %xmm0, %xmm2
vshufps $0xff, %xmm11, %xmm11, %xmm0 # xmm0 = xmm11[3,3,3,3]
vfmsub213ss %xmm0, %xmm6, %xmm3 # xmm3 = (xmm6 * xmm3) - xmm0
vmulss %xmm6, %xmm7, %xmm6
vmulss %xmm3, %xmm5, %xmm7
vfmsub231ss %xmm6, %xmm4, %xmm7 # xmm7 = (xmm4 * xmm6) - xmm7
vdivss %xmm7, %xmm6, %xmm6
vdivss %xmm7, %xmm3, %xmm3
vdivss %xmm7, %xmm5, %xmm5
vdivss %xmm7, %xmm4, %xmm4
vmulss %xmm6, %xmm26, %xmm6
vmulss %xmm5, %xmm2, %xmm5
vsubss %xmm5, %xmm6, %xmm5
vmulss %xmm3, %xmm26, %xmm3
vmulss %xmm4, %xmm2, %xmm4
vsubss %xmm3, %xmm4, %xmm3
vsubss %xmm5, %xmm8, %xmm8
vsubss %xmm3, %xmm10, %xmm10
vbroadcastss 0x22f3cf(%rip), %xmm4 # 0x1f20ec4
vandps %xmm4, %xmm26, %xmm3
vucomiss %xmm3, %xmm31
movb $0x1, %al
jbe 0x1cf1b62
vaddss %xmm31, %xmm1, %xmm1
vmovaps 0x460(%rsp), %xmm3
vfmadd231ss 0x200397(%rip), %xmm3, %xmm1 # xmm1 = (xmm3 * mem) + xmm1
vandps %xmm4, %xmm2, %xmm2
vucomiss %xmm2, %xmm1
jbe 0x1cf1b62
vaddss 0x470(%rsp), %xmm10, %xmm10
vucomiss 0x5c(%rsp), %xmm10
vmovaps 0x340(%rsp), %ymm4
jb 0x1cf1b5b
movq 0x38(%rsp), %rax
movq 0x30(%rsp), %rcx
vmovss 0x200(%rcx,%rax,4), %xmm5
vucomiss %xmm10, %xmm5
jae 0x1cf1b81
xorl %eax, %eax
xorl %r14d, %r14d
jmp 0x1cf1b6b
vmovaps 0x340(%rsp), %ymm4
testb %al, %al
je 0x1cf1fb2
decq %r15
jne 0x1cf1609
jmp 0x1cf1faf
xorl %eax, %eax
vucomiss 0x1f9e99(%rip), %xmm8 # 0x1eeba24
jb 0x1cf1b5d
vmovss 0x1fab7f(%rip), %xmm1 # 0x1eec714
vucomiss %xmm8, %xmm1
jb 0x1cf1b5d
vxorps %xmm2, %xmm2, %xmm2
vmovaps 0x420(%rsp), %xmm3
vmovss %xmm3, %xmm2, %xmm1 # xmm1 = xmm3[0],xmm2[1,2,3]
vrsqrt14ss %xmm1, %xmm2, %xmm1
vmulss 0x1fab5d(%rip), %xmm1, %xmm2 # 0x1eec718
vmulss 0x1fab59(%rip), %xmm3, %xmm3 # 0x1eec71c
movq 0x40(%rsp), %rdx
movq (%rdx), %rax
movq 0x1e8(%rax), %rax
movq 0xf8(%rsp), %rcx
movq (%rax,%rcx,8), %r14
movq 0x38(%rsp), %rax
movq 0x30(%rsp), %rcx
movl 0x240(%rcx,%rax,4), %eax
testl %eax, 0x34(%r14)
je 0x1cf1b5b
movq 0x10(%rdx), %rax
cmpq $0x0, 0x10(%rax)
jne 0x1cf1c15
cmpq $0x0, 0x48(%r14)
jne 0x1cf1c15
movb $0x1, %r14b
xorl %eax, %eax
jmp 0x1cf1b6b
vmulss %xmm1, %xmm3, %xmm3
vmulss %xmm1, %xmm1, %xmm1
vmulss %xmm1, %xmm3, %xmm1
vaddss %xmm1, %xmm2, %xmm1
vbroadcastss %xmm1, %xmm1
vmulps %xmm1, %xmm15, %xmm1
vfmadd213ps %xmm11, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm0) + xmm11
vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm11, %xmm11, %xmm3 # xmm3 = xmm11[1,2,0,3]
vmulps %xmm3, %xmm1, %xmm1
vfmsub231ps %xmm2, %xmm11, %xmm1 # xmm1 = (xmm11 * xmm2) - xmm1
vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3]
vshufps $0xd2, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,0,1,3]
vmulps %xmm1, %xmm0, %xmm0
vfmsub231ps %xmm3, %xmm2, %xmm0 # xmm0 = (xmm2 * xmm3) - xmm0
movq 0x40(%rsp), %rdx
movq 0x8(%rdx), %rax
vbroadcastss %xmm8, %zmm1
vbroadcastss 0x220a8c(%rip), %zmm2 # 0x1f12704
vpermps %zmm0, %zmm2, %zmm2
vbroadcastss 0x22f254(%rip), %zmm3 # 0x1f20edc
vpermps %zmm0, %zmm3, %zmm3
vbroadcastss %xmm0, %zmm0
vmovaps %zmm2, 0x900(%rsp)
vmovaps %zmm3, 0x940(%rsp)
vmovaps %zmm0, 0x980(%rsp)
vmovaps %zmm1, 0x9c0(%rsp)
vxorps %xmm0, %xmm0, %xmm0
vmovaps %zmm0, 0xa00(%rsp)
vmovaps 0x8c0(%rsp), %zmm0
vmovaps %zmm0, 0xa40(%rsp)
vmovdqa64 0x880(%rsp), %zmm0
vmovdqa64 %zmm0, 0xa80(%rsp)
movq 0x2f8(%rsp), %rcx
vpcmpeqd %ymm0, %ymm0, %ymm0
vmovdqa %ymm0, 0x60(%rcx)
vmovdqa %ymm0, 0x40(%rcx)
vmovdqa %ymm0, 0x20(%rcx)
vmovdqa %ymm0, (%rcx)
vbroadcastss (%rax), %zmm0
vmovaps %zmm0, 0xac0(%rsp)
vbroadcastss 0x4(%rax), %zmm0
vmovaps %zmm0, 0xb00(%rsp)
movq 0x38(%rsp), %rax
movq 0x30(%rsp), %rcx
vmovss %xmm10, 0x200(%rcx,%rax,4)
vmovaps 0x840(%rsp), %zmm0
vmovaps %zmm0, 0x600(%rsp)
leaq 0x600(%rsp), %rax
movq %rax, 0x310(%rsp)
movq 0x18(%r14), %rax
movq %rax, 0x318(%rsp)
movq 0x8(%rdx), %rax
movq %rax, 0x320(%rsp)
movq %rcx, 0x328(%rsp)
leaq 0x900(%rsp), %rax
movq %rax, 0x330(%rsp)
movl $0x10, 0x338(%rsp)
movq 0x48(%r14), %rax
testq %rax, %rax
vmovaps %xmm8, 0xa0(%rsp)
vmovaps %xmm10, 0x80(%rsp)
vmovss %xmm5, 0x60(%rsp)
je 0x1cf1e62
leaq 0x310(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0x60(%rsp), %xmm5
vmovaps 0x80(%rsp), %xmm10
vmovaps 0xa0(%rsp), %xmm8
vmovaps 0x260(%rsp), %ymm16
vmovaps 0x280(%rsp), %ymm29
vmovaps 0x120(%rsp), %ymm25
vmovaps 0x140(%rsp), %ymm23
vmovaps 0x160(%rsp), %ymm22
vmovaps 0x3c0(%rsp), %ymm20
vmovaps 0x3e0(%rsp), %ymm19
vmovaps 0x180(%rsp), %ymm18
vmovaps 0x1a0(%rsp), %ymm17
vmovaps 0x340(%rsp), %ymm4
vmovaps 0x1c0(%rsp), %ymm24
vmovaps 0x2a0(%rsp), %ymm13
vmovaps 0x1e0(%rsp), %ymm12
vmovaps 0x240(%rsp), %ymm9
vmovaps 0x200(%rsp), %ymm21
vmovaps 0x220(%rsp), %ymm30
vbroadcastss 0x22f062(%rip), %ymm28 # 0x1f20ec4
vmovdqa64 0x600(%rsp), %zmm0
vptestmd %zmm0, %zmm0, %k0
kortestw %k0, %k0
je 0x1cf1f8b
movq 0x40(%rsp), %rax
movq 0x10(%rax), %rcx
movq 0x10(%rcx), %rax
testq %rax, %rax
je 0x1cf1f53
testb $0x2, (%rcx)
jne 0x1cf1ea0
testb $0x40, 0x3e(%r14)
je 0x1cf1f53
leaq 0x310(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0x60(%rsp), %xmm5
vmovaps 0x80(%rsp), %xmm10
vmovaps 0xa0(%rsp), %xmm8
vmovaps 0x260(%rsp), %ymm16
vmovaps 0x280(%rsp), %ymm29
vmovaps 0x120(%rsp), %ymm25
vmovaps 0x140(%rsp), %ymm23
vmovaps 0x160(%rsp), %ymm22
vmovaps 0x3c0(%rsp), %ymm20
vmovaps 0x3e0(%rsp), %ymm19
vmovaps 0x180(%rsp), %ymm18
vmovaps 0x1a0(%rsp), %ymm17
vmovaps 0x340(%rsp), %ymm4
vmovaps 0x1c0(%rsp), %ymm24
vmovaps 0x2a0(%rsp), %ymm13
vmovaps 0x1e0(%rsp), %ymm12
vmovaps 0x240(%rsp), %ymm9
vmovaps 0x200(%rsp), %ymm21
vmovaps 0x220(%rsp), %ymm30
vbroadcastss 0x22ef71(%rip), %ymm28 # 0x1f20ec4
vmovdqa64 0x600(%rsp), %zmm0
vptestmd %zmm0, %zmm0, %k1
movq 0x328(%rsp), %rax
vmovaps 0x200(%rax), %zmm0
vbroadcastss 0x1fac0a(%rip), %zmm0 {%k1} # 0x1eecb84
vmovaps %zmm0, 0x200(%rax)
kortestw %k1, %k1
setne %r14b
jmp 0x1cf1f8e
xorl %r14d, %r14d
testb %r14b, %r14b
jne 0x1cf1c0e
movq 0x38(%rsp), %rax
movq 0x30(%rsp), %rcx
vmovss %xmm5, 0x200(%rcx,%rax,4)
jmp 0x1cf1c0e
xorl %r14d, %r14d
andb $0x1, %r14b
orb %r14b, %r13b
movq 0x38(%rsp), %rdx
movq 0x30(%rsp), %rax
vmovaps 0x680(%rsp), %ymm0
vcmpleps 0x200(%rax,%rdx,4){1to8}, %ymm0, %k0
kmovd %k0, %eax
andb %al, %r12b
jne 0x1cf151f
jmp 0x1cf202a
vmovaps 0x340(%rsp), %ymm4
vmovaps %ymm17, %ymm24
vmovaps %ymm18, %ymm17
vmovaps %ymm22, %ymm18
vmovaps %ymm23, %ymm22
vmovaps %ymm20, %ymm23
vmovaps %ymm25, %ymm13
vmovaps %ymm19, %ymm25
vmovaps 0x3e0(%rsp), %ymm19
vmovaps 0x3c0(%rsp), %ymm20
vmovdqa 0x6e0(%rsp), %ymm1
vpcmpltd 0x660(%rsp), %ymm1, %k1
vmovaps 0x800(%rsp), %ymm0
vpcmpltd 0x760(%rsp), %ymm1, %k2
vmovaps 0x5e0(%rsp), %ymm3
vaddps %ymm0, %ymm3, %ymm1
movq 0x30(%rsp), %rax
vbroadcastss 0x200(%rax,%rdx,4), %ymm2
vcmpleps %ymm2, %ymm1, %k0 {%k2}
kmovd %k0, %eax
movl 0x110(%rsp), %ecx
andb %al, %cl
vmovaps 0x720(%rsp), %ymm1
vaddps %ymm1, %ymm3, %ymm3
vcmpleps %ymm2, %ymm3, %k0 {%k1}
kmovd %k0, %eax
movl 0x48(%rsp), %esi
andb %al, %sil
orb %cl, %sil
je 0x1cf20ec
movl %ebx, %eax
leaq (%rax,%rax,2), %rax
shlq $0x5, %rax
movb %sil, 0xb60(%rsp,%rax)
kmovd %ecx, %k1
vmovaps %ymm0, %ymm1 {%k1}
vmovaps %ymm1, 0xb80(%rsp,%rax)
vmovaps 0x450(%rsp), %xmm0
vmovlps %xmm0, 0xba0(%rsp,%rax)
movq 0x100(%rsp), %rcx
incl %ecx
movl %ecx, 0xba8(%rsp,%rax)
incl %ebx
movq 0x300(%rsp), %r8
movq 0x40(%rsp), %r14
vbroadcastss 0x1fa612(%rip), %ymm3 # 0x1eec714
movb 0x2f(%rsp), %r15b
movq 0x308(%rsp), %r12
vmovaps 0x4c0(%rsp), %ymm2
testl %ebx, %ebx
je 0x1cf2293
leal -0x1(%rbx), %r9d
leaq (%r9,%r9,2), %rcx
shlq $0x5, %rcx
vmovaps 0xb80(%rsp,%rcx), %ymm0
movzbl 0xb60(%rsp,%rcx), %esi
vaddps 0x5e0(%rsp), %ymm0, %ymm1
movq 0x30(%rsp), %rax
vcmpleps 0x200(%rax,%rdx,4){1to8}, %ymm1, %k0
kmovb %k0, %eax
andl %esi, %eax
je 0x1cf222a
kmovd %eax, %k1
vbroadcastss 0x1f98b0(%rip), %ymm1 # 0x1eeba20
vblendmps %ymm0, %ymm1, %ymm0 {%k1}
vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm0, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1]
vminps %ymm2, %ymm1, %ymm1
vcmpeqps %ymm1, %ymm0, %k0
kmovd %k0, %esi
andb %al, %sil
je 0x1cf21a8
movzbl %sil, %edi
jmp 0x1cf21ab
movzbl %al, %edi
leaq (%rsp,%rcx), %rsi
addq $0xb60, %rsi # imm = 0xB60
vmovss 0x44(%rsi), %xmm0
tzcntl %edi, %ecx
movb $0x1, %dil
shlb %cl, %dil
movl 0x48(%rsi), %r10d
movq %r10, 0x100(%rsp)
movzbl %dil, %edi
kmovd %edi, %k0
kmovd %eax, %k1
kandnb %k1, %k0, %k0
kmovb %k0, (%rsi)
kortestb %k0, %k0
vmovaps 0x4c0(%rsp), %ymm2
je 0x1cf21f7
movl %ebx, %r9d
vbroadcastss 0x40(%rsi), %ymm1
vsubss %xmm1, %xmm0, %xmm0
vbroadcastss %xmm0, %ymm0
vfmadd132ps 0x22ed11(%rip), %ymm1, %ymm0 # ymm0 = (ymm0 * mem) + ymm1
vmovaps %ymm0, 0x900(%rsp)
vmovsd 0x900(%rsp,%rcx,4), %xmm0
vmovaps %xmm0, 0x450(%rsp)
movl %r9d, %ebx
testb %al, %al
je 0x1cf2118
vmovaps 0x450(%rsp), %xmm5
vmovaps 0x7a0(%rsp), %ymm27
vmovaps %ymm16, %ymm26
jmp 0x1cefcaf
vcmpleps %ymm20, %ymm11, %k2
vbroadcastss 0x1fa923(%rip), %ymm7 # 0x1eecb84
vbroadcastss 0x1f97b6(%rip), %ymm11 # 0x1eeba20
vblendmps %ymm7, %ymm11, %ymm6 {%k2}
vmovaps %ymm6, %ymm4 {%k1}
vblendmps %ymm11, %ymm7, %ymm6 {%k2}
vmovaps %ymm6, %ymm2 {%k1}
knotb %k1, %k1
korb %k2, %k1, %k1
kandb %k0, %k1, %k0
jmp 0x1cf05f8
testb $0x1, %r13b
jne 0x1cf22c4
movq 0x30(%rsp), %rax
vmovaps 0x780(%rsp), %ymm0
vcmpleps 0x200(%rax,%rdx,4){1to8}, %ymm0, %k0
kmovb %k0, %eax
andl %eax, %r12d
setne %r15b
jne 0x1cef91a
andb $0x1, %r15b
movl %r15d, %eax
leaq -0x28(%rbp), %rsp
popq %rbx
popq %r12
popq %r13
popq %r14
popq %r15
popq %rbp
vzeroupper
retq
nop
|
/embree[P]embree/kernels/geometry/curveNi_intersector.h
|
bool embree::avx512::CurveNiIntersector1<8>::occluded_t<embree::avx512::RibbonCurve1Intersector1<embree::BezierCurveT, 8>, embree::avx512::Occluded1EpilogMU<8, true>>(embree::avx512::CurvePrecalculations1 const&, embree::RayK<1>&, embree::RayQueryContext*, embree::CurveNi<8> const&)
|
static __forceinline bool occluded_t(const Precalculations& pre, Ray& ray, RayQueryContext* context, const Primitive& prim)
{
vfloat<M> tNear;
vbool<M> valid = intersect(ray,prim,tNear);
const size_t N = prim.N;
size_t mask = movemask(valid);
while (mask)
{
const size_t i = bscf(mask);
STAT3(shadow.trav_prims,1,1,1);
const unsigned int geomID = prim.geomID(N);
const unsigned int primID = prim.primID(N)[i];
const CurveGeometry* geom = context->scene->get<CurveGeometry>(geomID);
Vec3ff a0,a1,a2,a3; geom->gather(a0,a1,a2,a3,geom->curve(primID));
size_t mask1 = mask;
const size_t i1 = bscf(mask1);
if (mask) {
const unsigned int primID1 = prim.primID(N)[i1];
geom->prefetchL1_vertices(geom->curve(primID1));
if (mask1) {
const size_t i2 = bsf(mask1);
const unsigned int primID2 = prim.primID(N)[i2];
geom->prefetchL2_vertices(geom->curve(primID2));
}
}
if (Intersector().intersect(pre,ray,context,geom,primID,a0,a1,a2,a3,Epilog(ray,context,geomID,primID)))
return true;
mask &= movemask(tNear <= vfloat<M>(ray.tfar));
}
return false;
}
|
pushq %rbp
movq %rsp, %rbp
pushq %r15
pushq %r14
pushq %r13
pushq %r12
pushq %rbx
andq $-0x20, %rsp
subq $0x620, %rsp # imm = 0x620
movq %rcx, %rbx
movq %rdi, %r11
movzbl 0x1(%rcx), %eax
leaq (%rax,%rax,4), %rcx
leaq (%rcx,%rcx,4), %rdi
vbroadcastss 0x12(%rbx,%rdi), %xmm0
vmovaps (%rsi), %xmm1
vsubps 0x6(%rbx,%rdi), %xmm1, %xmm1
vmulps 0x10(%rsi), %xmm0, %xmm2
vmulps %xmm1, %xmm0, %xmm3
vpmovsxbd 0x6(%rbx,%rax,4), %ymm0
vcvtdq2ps %ymm0, %ymm5
vpmovsxbd 0x6(%rbx,%rcx), %ymm0
vcvtdq2ps %ymm0, %ymm6
leaq (%rax,%rax,2), %r8
vpmovsxbd 0x6(%rbx,%r8,2), %ymm0
vcvtdq2ps %ymm0, %ymm7
leaq (%rax,%rcx,2), %rdi
vpmovsxbd 0x6(%rbx,%rdi), %ymm0
vcvtdq2ps %ymm0, %ymm8
leal (,%r8,4), %edi
vpmovsxbd 0x6(%rbx,%rdi), %ymm0
vcvtdq2ps %ymm0, %ymm9
addq %rax, %rdi
vpmovsxbd 0x6(%rbx,%rdi), %ymm0
vcvtdq2ps %ymm0, %ymm10
leaq (%rax,%rax,8), %r9
leal (%r9,%r9), %edi
vpmovsxbd 0x6(%rbx,%rdi), %ymm0
addq %rax, %rdi
vpmovsxbd 0x6(%rbx,%rdi), %ymm1
vcvtdq2ps %ymm0, %ymm11
vcvtdq2ps %ymm1, %ymm12
shll $0x2, %ecx
vpmovsxbd 0x6(%rbx,%rcx), %ymm0
vcvtdq2ps %ymm0, %ymm13
vbroadcastss %xmm2, %ymm14
vbroadcastss 0x21e235(%rip), %ymm16 # 0x1f12704
vpermps %ymm2, %ymm16, %ymm15
vbroadcastss 0x22c9fd(%rip), %ymm17 # 0x1f20edc
vpermps %ymm2, %ymm17, %ymm0
vmulps %ymm7, %ymm0, %ymm4
vmulps %ymm0, %ymm10, %ymm1
vmulps %ymm0, %ymm13, %ymm0
vfmadd231ps %ymm6, %ymm15, %ymm4 # ymm4 = (ymm15 * ymm6) + ymm4
vfmadd231ps %ymm9, %ymm15, %ymm1 # ymm1 = (ymm15 * ymm9) + ymm1
vfmadd231ps %ymm15, %ymm12, %ymm0 # ymm0 = (ymm12 * ymm15) + ymm0
vfmadd231ps %ymm5, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm5) + ymm4
vfmadd231ps %ymm8, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm8) + ymm1
vfmadd231ps %ymm14, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm14) + ymm0
vbroadcastss %xmm3, %ymm14
vpermps %ymm3, %ymm16, %ymm15
vpermps %ymm3, %ymm17, %ymm2
vmulps %ymm7, %ymm2, %ymm7
vmulps %ymm2, %ymm10, %ymm3
vmulps %ymm2, %ymm13, %ymm2
vfmadd231ps %ymm6, %ymm15, %ymm7 # ymm7 = (ymm15 * ymm6) + ymm7
vfmadd231ps %ymm9, %ymm15, %ymm3 # ymm3 = (ymm15 * ymm9) + ymm3
vfmadd231ps %ymm12, %ymm15, %ymm2 # ymm2 = (ymm15 * ymm12) + ymm2
vfmadd231ps %ymm5, %ymm14, %ymm7 # ymm7 = (ymm14 * ymm5) + ymm7
vfmadd231ps %ymm8, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm8) + ymm3
vfmadd231ps %ymm11, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm11) + ymm2
vbroadcastss 0x22c971(%rip), %ymm8 # 0x1f20ec4
vandps %ymm4, %ymm8, %ymm5
vbroadcastss 0x1fca88(%rip), %ymm6 # 0x1ef0fe8
vcmpltps %ymm6, %ymm5, %k1
vmovaps %ymm6, %ymm4 {%k1}
vandps %ymm1, %ymm8, %ymm5
vcmpltps %ymm6, %ymm5, %k1
vmovaps %ymm6, %ymm1 {%k1}
vandps %ymm0, %ymm8, %ymm5
vcmpltps %ymm6, %ymm5, %k1
vmovaps %ymm6, %ymm0 {%k1}
vrcp14ps %ymm4, %ymm5
vbroadcastss 0x1f8176(%rip), %ymm6 # 0x1eec714
vfnmadd213ps %ymm6, %ymm5, %ymm4 # ymm4 = -(ymm5 * ymm4) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm4 # ymm4 = (ymm4 * ymm5) + ymm5
vrcp14ps %ymm1, %ymm5
vfnmadd213ps %ymm6, %ymm5, %ymm1 # ymm1 = -(ymm5 * ymm1) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm1 # ymm1 = (ymm1 * ymm5) + ymm5
vrcp14ps %ymm0, %ymm5
vfnmadd213ps %ymm6, %ymm5, %ymm0 # ymm0 = -(ymm5 * ymm0) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm0 # ymm0 = (ymm0 * ymm5) + ymm5
leaq (,%rax,8), %rdi
subq %rax, %rdi
vpmovsxwd 0x6(%rbx,%rdi), %ymm5
vcvtdq2ps %ymm5, %ymm5
vsubps %ymm7, %ymm5, %ymm5
vpmovsxwd 0x6(%rbx,%r9), %ymm6
vmulps %ymm5, %ymm4, %ymm5
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm7, %ymm6, %ymm6
vmulps %ymm6, %ymm4, %ymm4
leaq (%rax,%rax), %r9
addq %rax, %rcx
shlq $0x3, %r8
subq %rax, %r8
movl %eax, %edi
shll $0x4, %edi
vpmovsxwd 0x6(%rbx,%rdi), %ymm6
subq %r9, %rdi
vpmovsxwd 0x6(%rbx,%rdi), %ymm7
vcvtdq2ps %ymm7, %ymm7
vsubps %ymm3, %ymm7, %ymm7
vmulps %ymm7, %ymm1, %ymm7
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm3, %ymm6, %ymm3
vmulps %ymm3, %ymm1, %ymm1
vpmovsxwd 0x6(%rbx,%rcx), %ymm3
vcvtdq2ps %ymm3, %ymm3
vsubps %ymm2, %ymm3, %ymm3
vmulps %ymm0, %ymm3, %ymm3
vpmovsxwd 0x6(%rbx,%r8), %ymm6
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm2, %ymm6, %ymm2
vmulps %ymm2, %ymm0, %ymm0
vpminsd %ymm4, %ymm5, %ymm2
vpminsd %ymm1, %ymm7, %ymm6
vmaxps %ymm6, %ymm2, %ymm2
vpminsd %ymm0, %ymm3, %ymm6
vmaxps 0xc(%rsi){1to8}, %ymm6, %ymm6
vmaxps %ymm6, %ymm2, %ymm2
vmulps 0x22b88d(%rip){1to8}, %ymm2, %ymm6 # 0x1f1ff10
vpmaxsd %ymm4, %ymm5, %ymm2
vpmaxsd %ymm1, %ymm7, %ymm1
vminps %ymm1, %ymm2, %ymm1
vpmaxsd %ymm0, %ymm3, %ymm0
vminps 0x20(%rsi){1to8}, %ymm0, %ymm0
vminps %ymm0, %ymm1, %ymm0
vmulps 0x22b869(%rip){1to8}, %ymm0, %ymm0 # 0x1f1ff14
vpbroadcastd %eax, %ymm1
vpcmpgtd 0x266265(%rip), %ymm1, %k0 # 0x1f5a920
vmovaps %ymm6, 0x5e0(%rsp)
vcmpleps %ymm0, %ymm6, %k1
ktestb %k0, %k1
setne 0x17(%rsp)
je 0x1cf60da
kandb %k0, %k1, %k0
kmovd %k0, %eax
movzbl %al, %r14d
vmovaps %ymm6, 0x80(%rsp)
vmovaps %ymm2, 0x60(%rsp)
vmovaps %ymm21, 0x1e0(%rsp)
vmovaps %ymm20, 0x200(%rsp)
tzcntq %r14, %rax
movl 0x2(%rbx), %ecx
movl 0x6(%rbx,%rax,4), %r8d
movq (%rdx), %rax
movq 0x1e8(%rax), %rax
movq %rcx, 0x58(%rsp)
movq (%rax,%rcx,8), %r15
movq 0x58(%r15), %rax
movq 0x68(%r15), %rcx
movq %rcx, %rdi
movq %r8, 0x108(%rsp)
imulq %r8, %rdi
movl (%rax,%rdi), %edi
movq 0xa0(%r15), %r9
movq %r9, %r8
imulq %rdi, %r8
movq 0x90(%r15), %r10
vmovaps (%r10,%r8), %xmm13
leaq 0x1(%rdi), %r8
imulq %r9, %r8
vmovaps (%r10,%r8), %xmm0
vmovaps %xmm0, 0x150(%rsp)
leaq 0x2(%rdi), %r8
imulq %r9, %r8
vmovaps (%r10,%r8), %xmm0
vmovaps %xmm0, 0x140(%rsp)
blsrq %r14, %r14
addq $0x3, %rdi
imulq %r9, %rdi
vmovaps (%r10,%rdi), %xmm0
vmovaps %xmm0, 0x1b0(%rsp)
movq %r14, %rdi
subq $0x1, %rdi
jb 0x1cf47f5
andq %r14, %rdi
tzcntq %r14, %r8
movl 0x6(%rbx,%r8,4), %r8d
imulq %rcx, %r8
movl (%rax,%r8), %r8d
imulq %r9, %r8
prefetcht0 (%r10,%r8)
prefetcht0 0x40(%r10,%r8)
testq %rdi, %rdi
je 0x1cf47f5
tzcntq %rdi, %rdi
movl 0x6(%rbx,%rdi,4), %edi
imulq %rdi, %rcx
movl (%rax,%rcx), %eax
imulq %rax, %r9
prefetcht1 (%r10,%r9)
prefetcht1 0x40(%r10,%r9)
movl 0x248(%r15), %r12d
vmovaps (%rsi), %xmm0
vsubps %xmm0, %xmm13, %xmm1
vbroadcastss %xmm1, %xmm2
vshufps $0x55, %xmm1, %xmm1, %xmm3 # xmm3 = xmm1[1,1,1,1]
vshufps $0xaa, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,2,2,2]
vmovaps 0x10(%r11), %xmm4
vmovaps 0x20(%r11), %xmm5
vmovaps 0x30(%r11), %xmm6
vmulps %xmm6, %xmm1, %xmm8
vfmadd231ps %xmm3, %xmm5, %xmm8 # xmm8 = (xmm5 * xmm3) + xmm8
vfmadd231ps %xmm2, %xmm4, %xmm8 # xmm8 = (xmm4 * xmm2) + xmm8
vshufps $0xff, %xmm13, %xmm13, %xmm1 # xmm1 = xmm13[3,3,3,3]
vmovaps 0x150(%rsp), %xmm3
vsubps %xmm0, %xmm3, %xmm2
vmovaps %xmm3, %xmm10
vbroadcastss %xmm2, %xmm3
vshufps $0x55, %xmm2, %xmm2, %xmm7 # xmm7 = xmm2[1,1,1,1]
vshufps $0xaa, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[2,2,2,2]
vmulps %xmm6, %xmm2, %xmm9
vfmadd231ps %xmm7, %xmm5, %xmm9 # xmm9 = (xmm5 * xmm7) + xmm9
vfmadd231ps %xmm3, %xmm4, %xmm9 # xmm9 = (xmm4 * xmm3) + xmm9
vshufps $0xff, %xmm10, %xmm10, %xmm2 # xmm2 = xmm10[3,3,3,3]
vmovaps 0x140(%rsp), %xmm7
vsubps %xmm0, %xmm7, %xmm3
vmovaps %xmm7, %xmm12
vbroadcastss %xmm3, %xmm7
vshufps $0x55, %xmm3, %xmm3, %xmm11 # xmm11 = xmm3[1,1,1,1]
vshufps $0xaa, %xmm3, %xmm3, %xmm3 # xmm3 = xmm3[2,2,2,2]
vmulps %xmm6, %xmm3, %xmm10
vfmadd231ps %xmm11, %xmm5, %xmm10 # xmm10 = (xmm5 * xmm11) + xmm10
vfmadd231ps %xmm7, %xmm4, %xmm10 # xmm10 = (xmm4 * xmm7) + xmm10
vshufps $0xff, %xmm12, %xmm12, %xmm7 # xmm7 = xmm12[3,3,3,3]
vmovaps 0x1b0(%rsp), %xmm30
vsubps %xmm0, %xmm30, %xmm0
vbroadcastss %xmm0, %xmm3
vshufps $0x55, %xmm0, %xmm0, %xmm12 # xmm12 = xmm0[1,1,1,1]
vshufps $0xaa, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[2,2,2,2]
vmulps %xmm6, %xmm0, %xmm11
vfmadd231ps %xmm12, %xmm5, %xmm11 # xmm11 = (xmm5 * xmm12) + xmm11
vfmadd231ps %xmm3, %xmm4, %xmm11 # xmm11 = (xmm4 * xmm3) + xmm11
movslq %r12d, %rax
movq %rax, %rcx
shlq $0x6, %rcx
leaq (%rcx,%rax,4), %r13
leaq 0x432a03(%rip), %rdi # 0x21272e4
vmovups (%rdi,%r13), %ymm25
vshufps $0xff, %xmm30, %xmm30, %xmm0 # xmm0 = xmm30[3,3,3,3]
vbroadcastss %xmm8, %ymm20
vbroadcastss 0x21de06(%rip), %ymm3 # 0x1f12704
vpermps %ymm8, %ymm3, %ymm23
vbroadcastsd %xmm1, %ymm12
vmovups 0x484(%rdi,%r13), %ymm14
vbroadcastss %xmm9, %ymm1
vpermps %ymm9, %ymm3, %ymm31
vbroadcastsd %xmm2, %ymm21
vmovups 0x908(%rdi,%r13), %ymm15
vbroadcastss %xmm10, %ymm26
vpermps %ymm10, %ymm3, %ymm29
vbroadcastsd %xmm7, %ymm22
vmovups 0xd8c(%rdi,%r13), %ymm16
vbroadcastss %xmm11, %ymm27
vpermps %ymm11, %ymm3, %ymm28
vbroadcastsd %xmm0, %ymm3
vmulps %ymm16, %ymm27, %ymm5
vmulps %ymm16, %ymm28, %ymm4
vfmadd231ps %ymm26, %ymm15, %ymm5 # ymm5 = (ymm15 * ymm26) + ymm5
vfmadd231ps %ymm29, %ymm15, %ymm4 # ymm4 = (ymm15 * ymm29) + ymm4
vfmadd231ps %ymm1, %ymm14, %ymm5 # ymm5 = (ymm14 * ymm1) + ymm5
vfmadd231ps %ymm31, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm31) + ymm4
vfmadd231ps %ymm20, %ymm25, %ymm5 # ymm5 = (ymm25 * ymm20) + ymm5
leaq 0x434d78(%rip), %r8 # 0x2129704
vmovups (%r8,%r13), %ymm2
vmovups 0x484(%r8,%r13), %ymm17
vfmadd231ps %ymm23, %ymm25, %ymm4 # ymm4 = (ymm25 * ymm23) + ymm4
vmovups 0x908(%r8,%r13), %ymm18
vmovups 0xd8c(%r8,%r13), %ymm19
vmulps %ymm19, %ymm27, %ymm7
vmulps %ymm19, %ymm28, %ymm6
vfmadd231ps %ymm26, %ymm18, %ymm7 # ymm7 = (ymm18 * ymm26) + ymm7
vfmadd231ps %ymm29, %ymm18, %ymm6 # ymm6 = (ymm18 * ymm29) + ymm6
vmovaps %ymm1, 0x160(%rsp)
vfmadd231ps %ymm1, %ymm17, %ymm7 # ymm7 = (ymm17 * ymm1) + ymm7
vfmadd231ps %ymm31, %ymm17, %ymm6 # ymm6 = (ymm17 * ymm31) + ymm6
vmovaps %ymm20, 0x240(%rsp)
vfmadd231ps %ymm20, %ymm2, %ymm7 # ymm7 = (ymm2 * ymm20) + ymm7
vmovaps %ymm23, 0x220(%rsp)
vfmadd231ps %ymm23, %ymm2, %ymm6 # ymm6 = (ymm2 * ymm23) + ymm6
vsubps %ymm5, %ymm7, %ymm24
vsubps %ymm4, %ymm6, %ymm23
vmulps %ymm24, %ymm4, %ymm0
vmulps %ymm23, %ymm5, %ymm1
vsubps %ymm1, %ymm0, %ymm20
vmulps %ymm16, %ymm3, %ymm0
vfmadd231ps %ymm22, %ymm15, %ymm0 # ymm0 = (ymm15 * ymm22) + ymm0
vfmadd231ps %ymm21, %ymm14, %ymm0 # ymm0 = (ymm14 * ymm21) + ymm0
vfmadd231ps %ymm12, %ymm25, %ymm0 # ymm0 = (ymm25 * ymm12) + ymm0
vmovaps %ymm3, 0x4c0(%rsp)
vmulps %ymm19, %ymm3, %ymm1
vmovaps %ymm22, 0x520(%rsp)
vfmadd231ps %ymm22, %ymm18, %ymm1 # ymm1 = (ymm18 * ymm22) + ymm1
vmovaps %ymm21, 0x580(%rsp)
vfmadd231ps %ymm21, %ymm17, %ymm1 # ymm1 = (ymm17 * ymm21) + ymm1
vmovaps %ymm12, 0x5c0(%rsp)
vfmadd231ps %ymm12, %ymm2, %ymm1 # ymm1 = (ymm2 * ymm12) + ymm1
vmulps %ymm23, %ymm23, %ymm21
vfmadd231ps %ymm24, %ymm24, %ymm21 # ymm21 = (ymm24 * ymm24) + ymm21
vmaxps %ymm1, %ymm0, %ymm22
vmulps %ymm22, %ymm22, %ymm22
vmulps %ymm21, %ymm22, %ymm21
vmulps %ymm20, %ymm20, %ymm20
vcmpleps %ymm21, %ymm20, %k1
vmovaps %xmm13, 0x30(%rsp)
vblendps $0x8, %xmm13, %xmm8, %xmm12 # xmm12 = xmm8[0,1,2],xmm13[3]
vbroadcastss 0x22c412(%rip), %xmm20 # 0x1f20ec4
vandps %xmm20, %xmm12, %xmm12
vblendps $0x8, 0x150(%rsp), %xmm9, %xmm13 # xmm13 = xmm9[0,1,2],mem[3]
vandps %xmm20, %xmm13, %xmm13
vmaxps %xmm13, %xmm12, %xmm12
vblendps $0x8, 0x140(%rsp), %xmm10, %xmm13 # xmm13 = xmm10[0,1,2],mem[3]
vandps %xmm20, %xmm13, %xmm13
vmovaps %xmm30, %xmm3
vblendps $0x8, %xmm3, %xmm11, %xmm3 # xmm3 = xmm11[0,1,2],xmm3[3]
vandps %xmm20, %xmm3, %xmm3
vmaxps %xmm3, %xmm13, %xmm3
vmaxps %xmm3, %xmm12, %xmm3
vmovshdup %xmm3, %xmm12 # xmm12 = xmm3[1,1,3,3]
vmaxss %xmm3, %xmm12, %xmm12
vshufpd $0x1, %xmm3, %xmm3, %xmm3 # xmm3 = xmm3[1,0]
vmaxss %xmm12, %xmm3, %xmm3
vcvtsi2ss %r12d, %xmm8, %xmm12
vmovaps %xmm12, 0x280(%rsp)
vbroadcastss %xmm12, %ymm12
vcmpgtps 0x22c417(%rip), %ymm12, %k1 {%k1} # 0x1f20f40
vmulss 0x1fc4b3(%rip), %xmm3, %xmm12 # 0x1ef0fe4
vbroadcastss 0x22c3a2(%rip), %ymm3 # 0x1f20edc
vpermps %ymm8, %ymm3, %ymm20
vpermps %ymm9, %ymm3, %ymm21
vpermps %ymm10, %ymm3, %ymm22
vpermps %ymm11, %ymm3, %ymm8
kortestb %k1, %k1
vmovss 0xc(%rsi), %xmm9
vmovaps %ymm31, 0x5a0(%rsp)
vmovaps %ymm26, 0x560(%rsp)
vmovaps %ymm29, 0x540(%rsp)
vmovaps %ymm27, 0x500(%rsp)
vmovaps %ymm28, 0x4e0(%rsp)
vmovaps %ymm20, 0x4a0(%rsp)
vmovaps %ymm21, 0x480(%rsp)
vmovaps %ymm22, 0x460(%rsp)
je 0x1cf54d6
vmovaps %xmm9, 0x1c0(%rsp)
vmulps %ymm19, %ymm8, %ymm3
vfmadd213ps %ymm3, %ymm22, %ymm18 # ymm18 = (ymm22 * ymm18) + ymm3
vfmadd213ps %ymm18, %ymm21, %ymm17 # ymm17 = (ymm21 * ymm17) + ymm18
vfmadd213ps %ymm17, %ymm20, %ymm2 # ymm2 = (ymm20 * ymm2) + ymm17
vmulps %ymm16, %ymm8, %ymm3
vfmadd213ps %ymm3, %ymm22, %ymm15 # ymm15 = (ymm22 * ymm15) + ymm3
vfmadd213ps %ymm15, %ymm21, %ymm14 # ymm14 = (ymm21 * ymm14) + ymm15
vmovups 0x1210(%rdi,%r13), %ymm3
vmovups 0x1694(%rdi,%r13), %ymm10
vmovups 0x1b18(%rdi,%r13), %ymm11
vmovaps %xmm12, %xmm16
vmovups 0x1f9c(%rdi,%r13), %ymm12
vfmadd213ps %ymm14, %ymm20, %ymm25 # ymm25 = (ymm20 * ymm25) + ymm14
vmulps %ymm12, %ymm27, %ymm9
vmovaps %ymm8, %ymm15
vmulps %ymm12, %ymm28, %ymm8
vmulps %ymm12, %ymm15, %ymm12
vfmadd231ps %ymm26, %ymm11, %ymm9 # ymm9 = (ymm11 * ymm26) + ymm9
vfmadd231ps %ymm29, %ymm11, %ymm8 # ymm8 = (ymm11 * ymm29) + ymm8
vfmadd231ps %ymm11, %ymm22, %ymm12 # ymm12 = (ymm22 * ymm11) + ymm12
vmovaps 0x160(%rsp), %ymm19
vfmadd231ps %ymm19, %ymm10, %ymm9 # ymm9 = (ymm10 * ymm19) + ymm9
vfmadd231ps %ymm31, %ymm10, %ymm8 # ymm8 = (ymm10 * ymm31) + ymm8
vfmadd231ps %ymm10, %ymm21, %ymm12 # ymm12 = (ymm21 * ymm10) + ymm12
vmovaps 0x240(%rsp), %ymm17
vfmadd231ps %ymm17, %ymm3, %ymm9 # ymm9 = (ymm3 * ymm17) + ymm9
vmovaps 0x220(%rsp), %ymm18
vfmadd231ps %ymm18, %ymm3, %ymm8 # ymm8 = (ymm3 * ymm18) + ymm8
vmovups 0x1210(%r8,%r13), %ymm10
vmovups 0x1b18(%r8,%r13), %ymm11
vmovups 0x1f9c(%r8,%r13), %ymm13
vfmadd231ps %ymm3, %ymm20, %ymm12 # ymm12 = (ymm20 * ymm3) + ymm12
vmulps %ymm13, %ymm27, %ymm3
vmulps %ymm13, %ymm28, %ymm14
vmovaps %ymm15, 0x180(%rsp)
vmulps %ymm13, %ymm15, %ymm13
vfmadd231ps %ymm26, %ymm11, %ymm3 # ymm3 = (ymm11 * ymm26) + ymm3
vfmadd231ps %ymm29, %ymm11, %ymm14 # ymm14 = (ymm11 * ymm29) + ymm14
vfmadd231ps %ymm11, %ymm22, %ymm13 # ymm13 = (ymm22 * ymm11) + ymm13
vmovups 0x1694(%r8,%r13), %ymm11
vfmadd231ps %ymm19, %ymm11, %ymm3 # ymm3 = (ymm11 * ymm19) + ymm3
vfmadd231ps %ymm31, %ymm11, %ymm14 # ymm14 = (ymm11 * ymm31) + ymm14
vfmadd231ps %ymm11, %ymm21, %ymm13 # ymm13 = (ymm21 * ymm11) + ymm13
vfmadd231ps %ymm17, %ymm10, %ymm3 # ymm3 = (ymm10 * ymm17) + ymm3
vfmadd231ps %ymm18, %ymm10, %ymm14 # ymm14 = (ymm10 * ymm18) + ymm14
vfmadd231ps %ymm10, %ymm20, %ymm13 # ymm13 = (ymm20 * ymm10) + ymm13
vbroadcastss 0x22c1d8(%rip), %ymm15 # 0x1f20ec4
vandps %ymm15, %ymm9, %ymm10
vandps %ymm15, %ymm8, %ymm11
vmaxps %ymm11, %ymm10, %ymm10
vandps %ymm15, %ymm12, %ymm11
vmaxps %ymm11, %ymm10, %ymm10
vbroadcastss %xmm16, %ymm11
vmovaps %xmm16, %xmm26
vcmpltps %ymm11, %ymm10, %k2
vmovaps %ymm24, %ymm9 {%k2}
vmovaps %ymm23, %ymm8 {%k2}
vandps %ymm3, %ymm15, %ymm10
vandps %ymm15, %ymm14, %ymm12
vmaxps %ymm12, %ymm10, %ymm10
vandps %ymm15, %ymm13, %ymm12
vmaxps %ymm12, %ymm10, %ymm10
vcmpltps %ymm11, %ymm10, %k2
vmovaps %ymm24, %ymm3 {%k2}
vmovaps %ymm23, %ymm14 {%k2}
vbroadcastss 0x22c168(%rip), %ymm11 # 0x1f20ec0
vxorps %ymm11, %ymm9, %ymm10
vxorps %ymm3, %ymm11, %ymm12
vxorps %xmm28, %xmm28, %xmm28
vfmadd213ps %ymm28, %ymm9, %ymm9 # ymm9 = (ymm9 * ymm9) + ymm28
vfmadd231ps %ymm8, %ymm8, %ymm9 # ymm9 = (ymm8 * ymm8) + ymm9
vrsqrt14ps %ymm9, %ymm11
vbroadcastss 0x1f799b(%rip), %ymm15 # 0x1eec71c
vmulps %ymm15, %ymm9, %ymm9
vmulps %ymm9, %ymm11, %ymm9
vmulps %ymm11, %ymm11, %ymm13
vmulps %ymm9, %ymm13, %ymm9
vbroadcastss 0x1f7979(%rip), %ymm16 # 0x1eec718
vfmadd231ps %ymm11, %ymm16, %ymm9 # ymm9 = (ymm16 * ymm11) + ymm9
vmulps %ymm9, %ymm8, %ymm11
vmulps %ymm10, %ymm9, %ymm10
vmulps %ymm28, %ymm9, %ymm13
vfmadd213ps %ymm28, %ymm3, %ymm3 # ymm3 = (ymm3 * ymm3) + ymm28
vfmadd231ps %ymm14, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm14) + ymm3
vrsqrt14ps %ymm3, %ymm8
vmulps %ymm3, %ymm15, %ymm3
vmulps %ymm3, %ymm8, %ymm3
vmulps %ymm8, %ymm8, %ymm9
vmulps %ymm3, %ymm9, %ymm3
vfmadd231ps %ymm8, %ymm16, %ymm3 # ymm3 = (ymm16 * ymm8) + ymm3
vmulps %ymm3, %ymm14, %ymm8
vmulps %ymm3, %ymm12, %ymm9
vmulps %ymm28, %ymm3, %ymm3
vmovaps %ymm11, %ymm12
vfmadd213ps %ymm5, %ymm0, %ymm12 # ymm12 = (ymm0 * ymm12) + ymm5
vmovaps %ymm10, %ymm14
vfmadd213ps %ymm4, %ymm0, %ymm14 # ymm14 = (ymm0 * ymm14) + ymm4
vmovaps %ymm13, %ymm15
vfmadd213ps %ymm25, %ymm0, %ymm15 # ymm15 = (ymm0 * ymm15) + ymm25
vmovaps %ymm8, %ymm16
vfmadd213ps %ymm7, %ymm1, %ymm16 # ymm16 = (ymm1 * ymm16) + ymm7
vfnmadd213ps %ymm5, %ymm0, %ymm11 # ymm11 = -(ymm0 * ymm11) + ymm5
vmovaps %ymm9, %ymm5
vfmadd213ps %ymm6, %ymm1, %ymm5 # ymm5 = (ymm1 * ymm5) + ymm6
vfnmadd213ps %ymm4, %ymm0, %ymm10 # ymm10 = -(ymm0 * ymm10) + ymm4
vmovaps %ymm3, %ymm4
vfmadd213ps %ymm2, %ymm1, %ymm4 # ymm4 = (ymm1 * ymm4) + ymm2
vfnmadd231ps %ymm13, %ymm0, %ymm25 # ymm25 = -(ymm0 * ymm13) + ymm25
vfnmadd213ps %ymm7, %ymm1, %ymm8 # ymm8 = -(ymm1 * ymm8) + ymm7
vfnmadd213ps %ymm6, %ymm1, %ymm9 # ymm9 = -(ymm1 * ymm9) + ymm6
vfnmadd231ps %ymm3, %ymm1, %ymm2 # ymm2 = -(ymm1 * ymm3) + ymm2
vsubps %ymm11, %ymm16, %ymm3
vsubps %ymm10, %ymm5, %ymm6
vsubps %ymm25, %ymm4, %ymm7
vmulps %ymm25, %ymm6, %ymm13
vfmsub231ps %ymm7, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm7) - ymm13
vmulps %ymm7, %ymm11, %ymm7
vfmsub231ps %ymm3, %ymm25, %ymm7 # ymm7 = (ymm25 * ymm3) - ymm7
vmulps %ymm3, %ymm10, %ymm3
vfmsub231ps %ymm6, %ymm11, %ymm3 # ymm3 = (ymm11 * ymm6) - ymm3
vfmadd231ps %ymm7, %ymm28, %ymm3 # ymm3 = (ymm28 * ymm7) + ymm3
vfmadd231ps %ymm13, %ymm28, %ymm3 # ymm3 = (ymm28 * ymm13) + ymm3
vcmpleps %ymm28, %ymm3, %k2
vmovaps %ymm12, %ymm8 {%k2}
vmovaps %ymm14, %ymm9 {%k2}
vmovaps %ymm15, %ymm2 {%k2}
vblendmps %ymm16, %ymm11, %ymm13 {%k2}
vblendmps %ymm5, %ymm10, %ymm14 {%k2}
vblendmps %ymm4, %ymm25, %ymm15 {%k2}
vmovaps %ymm11, %ymm16 {%k2}
vmovaps %ymm10, %ymm5 {%k2}
vmovaps %ymm25, %ymm4 {%k2}
vsubps %ymm8, %ymm16, %ymm6
vsubps %ymm9, %ymm5, %ymm5
vsubps %ymm2, %ymm4, %ymm11
vsubps %ymm13, %ymm8, %ymm7
vsubps %ymm14, %ymm9, %ymm10
vsubps %ymm15, %ymm2, %ymm12
vmulps %ymm8, %ymm11, %ymm4
vfmsub231ps %ymm6, %ymm2, %ymm4 # ymm4 = (ymm2 * ymm6) - ymm4
vmulps %ymm6, %ymm9, %ymm3
vfmsub231ps %ymm5, %ymm8, %ymm3 # ymm3 = (ymm8 * ymm5) - ymm3
vfmadd231ps %ymm4, %ymm28, %ymm3 # ymm3 = (ymm28 * ymm4) + ymm3
vmulps %ymm2, %ymm5, %ymm4
vfmsub231ps %ymm11, %ymm9, %ymm4 # ymm4 = (ymm9 * ymm11) - ymm4
vfmadd231ps %ymm4, %ymm28, %ymm3 # ymm3 = (ymm28 * ymm4) + ymm3
vmulps %ymm13, %ymm12, %ymm16
vfmsub231ps %ymm15, %ymm7, %ymm16 # ymm16 = (ymm7 * ymm15) - ymm16
vmulps %ymm15, %ymm10, %ymm15
vfmsub231ps %ymm12, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm12) - ymm15
vmulps %ymm7, %ymm14, %ymm4
vfmsub231ps %ymm13, %ymm10, %ymm4 # ymm4 = (ymm10 * ymm13) - ymm4
vfmadd231ps %ymm16, %ymm28, %ymm4 # ymm4 = (ymm28 * ymm16) + ymm4
vfmadd231ps %ymm15, %ymm28, %ymm4 # ymm4 = (ymm28 * ymm15) + ymm4
vmaxps %ymm4, %ymm3, %ymm13
vcmpleps %ymm28, %ymm13, %k0 {%k1}
kortestb %k0, %k0
vmovaps 0x200(%rsp), %ymm20
vmovaps 0x1e0(%rsp), %ymm21
vmovaps %ymm17, %ymm22
vmovaps %ymm19, %ymm17
vmovaps %xmm26, %xmm14
je 0x1cf6071
vmulps %ymm5, %ymm12, %ymm13
vfmsub231ps %ymm11, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm11) - ymm13
vmulps %ymm7, %ymm11, %ymm11
vfmsub231ps %ymm12, %ymm6, %ymm11 # ymm11 = (ymm6 * ymm12) - ymm11
vmulps %ymm6, %ymm10, %ymm10
vfmsub231ps %ymm5, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm5) - ymm10
vxorps %xmm6, %xmm6, %xmm6
vfmadd213ps %ymm10, %ymm11, %ymm6 # ymm6 = (ymm11 * ymm6) + ymm10
vfmadd231ps %ymm28, %ymm13, %ymm6 # ymm6 = (ymm13 * ymm28) + ymm6
vrcp14ps %ymm6, %ymm7
vmovaps %ymm7, %ymm5
vfnmadd213ps 0x1f776f(%rip){1to8}, %ymm6, %ymm5 # ymm5 = -(ymm6 * ymm5) + mem
vfmadd132ps %ymm7, %ymm7, %ymm5 # ymm5 = (ymm5 * ymm7) + ymm7
vmulps %ymm2, %ymm10, %ymm2
vfmadd231ps %ymm11, %ymm9, %ymm2 # ymm2 = (ymm9 * ymm11) + ymm2
vfmadd231ps %ymm13, %ymm8, %ymm2 # ymm2 = (ymm8 * ymm13) + ymm2
vmulps %ymm5, %ymm2, %ymm2
vmovaps 0x1c0(%rsp), %xmm9
vbroadcastss %xmm9, %ymm7
vcmpleps %ymm2, %ymm7, %k1
vcmpleps 0x20(%rsi){1to8}, %ymm2, %k1 {%k1}
kandb %k0, %k1, %k0
kortestb %k0, %k0
je 0x1cf609f
vcmpneqps %ymm28, %ymm6, %k1
ktestb %k1, %k0
vmovaps 0x30(%rsp), %xmm7
vmovaps 0x180(%rsp), %ymm8
je 0x1cf60c4
kandb %k1, %k0, %k0
kmovd %k0, %eax
vmulps %ymm5, %ymm3, %ymm3
vmulps %ymm5, %ymm4, %ymm4
vbroadcastss 0x1f76f4(%rip), %ymm5 # 0x1eec714
vsubps %ymm3, %ymm5, %ymm6
vmovaps %ymm3, %ymm6 {%k2}
vsubps %ymm4, %ymm5, %ymm3
vmovaps %ymm4, %ymm3 {%k2}
vmovaps %ymm3, 0x400(%rsp)
movzbl %al, %eax
testw %ax, %ax
je 0x1cf54d1
vsubps %ymm0, %ymm1, %ymm1
vfmadd213ps %ymm0, %ymm6, %ymm1 # ymm1 = (ymm6 * ymm1) + ymm0
vaddps %ymm1, %ymm1, %ymm0
vmulps (%r11){1to8}, %ymm0, %ymm0
vcmpnleps %ymm0, %ymm2, %k0
kmovd %k0, %ecx
andb %cl, %al
je 0x1cf54d1
vbroadcastss 0x1fb954(%rip), %ymm0 # 0x1ef09cc
vmovaps 0x400(%rsp), %ymm1
vfmadd132ps 0x1fbf6d(%rip){1to8}, %ymm0, %ymm1 # ymm1 = (ymm1 * mem) + ymm0
vmovaps %ymm6, 0x2a0(%rsp)
vmovaps %ymm1, 0x400(%rsp)
vmovaps %ymm1, 0x2c0(%rsp)
vmovaps %ymm2, 0x2e0(%rsp)
movl $0x0, 0x300(%rsp)
movl %r12d, 0x304(%rsp)
vmovaps %xmm7, 0x310(%rsp)
vmovaps 0x150(%rsp), %xmm0
vmovaps %xmm0, 0x320(%rsp)
vmovaps 0x140(%rsp), %xmm0
vmovaps %xmm0, 0x330(%rsp)
vmovaps 0x1b0(%rsp), %xmm0
vmovaps %xmm0, 0x340(%rsp)
movb %al, 0x350(%rsp)
movl 0x24(%rsi), %ecx
testl %ecx, 0x34(%r15)
je 0x1cf54d1
movq 0x10(%rdx), %rcx
cmpq $0x0, 0x10(%rcx)
jne 0x1cf512e
movb $0x1, %r10b
cmpq $0x0, 0x48(%r15)
je 0x1cf551b
vmovaps %ymm6, 0x80(%rsp)
vaddps 0x22be01(%rip), %ymm6, %ymm0 # 0x1f20f40
vmovss 0x1f75cd(%rip), %xmm1 # 0x1eec714
vdivss 0x280(%rsp), %xmm1, %xmm1
vbroadcastss %xmm1, %ymm1
vmulps %ymm0, %ymm1, %ymm0
vmovaps %ymm0, 0x360(%rsp)
vmovaps 0x400(%rsp), %ymm0
vmovaps %ymm0, 0x380(%rsp)
vmovaps %ymm2, 0x60(%rsp)
vmovaps %ymm2, 0x3a0(%rsp)
movzbl %al, %eax
vmovaps 0x320(%rsp), %xmm0
vmovaps %xmm0, 0x1a0(%rsp)
tzcntq %rax, %rcx
vmovaps 0x330(%rsp), %xmm0
vmovaps %xmm0, 0x120(%rsp)
vmovaps 0x340(%rsp), %xmm0
vmovaps %xmm0, 0x110(%rsp)
movb $0x1, %r10b
vmovaps %xmm14, 0x130(%rsp)
movq %rdx, 0x28(%rsp)
movq %rsi, 0x20(%rsp)
movq %r11, 0x48(%rsp)
vmovss 0x360(%rsp,%rcx,4), %xmm0
vmovss 0x380(%rsp,%rcx,4), %xmm1
vmovss 0x20(%rsi), %xmm2
vmovss %xmm2, 0x50(%rsp)
movq %rcx, 0x3c0(%rsp)
vmovss 0x3a0(%rsp,%rcx,4), %xmm2
vmovss %xmm2, 0x20(%rsi)
movq %rax, %r9
movq 0x8(%rdx), %rax
vmovss 0x1f74f6(%rip), %xmm2 # 0x1eec714
vsubss %xmm0, %xmm2, %xmm2
vmulss %xmm2, %xmm2, %xmm3
vmulss %xmm2, %xmm0, %xmm2
vmulss 0x1fbdbe(%rip), %xmm3, %xmm4 # 0x1ef0ff0
vfmadd231ss 0x1fb7a1(%rip), %xmm2, %xmm3 # xmm3 = (xmm2 * mem) + xmm3
vmulss %xmm0, %xmm0, %xmm5
vfmsub132ss 0x1fbdb0(%rip), %xmm5, %xmm2 # xmm2 = (xmm2 * mem) - xmm5
vmovss 0x1fbd9c(%rip), %xmm6 # 0x1ef0fec
vmulss %xmm6, %xmm3, %xmm3
vmulss %xmm6, %xmm2, %xmm2
vmulss %xmm6, %xmm5, %xmm5
vbroadcastss %xmm5, %xmm5
vmulps 0x110(%rsp), %xmm5, %xmm5
vbroadcastss %xmm2, %xmm2
vfmadd132ps 0x120(%rsp), %xmm5, %xmm2 # xmm2 = (xmm2 * mem) + xmm5
vbroadcastss %xmm3, %xmm3
vfmadd132ps 0x1a0(%rsp), %xmm2, %xmm3 # xmm3 = (xmm3 * mem) + xmm2
vbroadcastss %xmm4, %xmm2
vfmadd213ps %xmm3, %xmm7, %xmm2 # xmm2 = (xmm7 * xmm2) + xmm3
vmovlps %xmm2, 0xd0(%rsp)
vextractps $0x2, %xmm2, 0xd8(%rsp)
vmovss %xmm0, 0xdc(%rsp)
vmovss %xmm1, 0xe0(%rsp)
movq 0x108(%rsp), %rcx
movl %ecx, 0xe4(%rsp)
movq 0x58(%rsp), %rcx
movl %ecx, 0xe8(%rsp)
movl (%rax), %ecx
movl %ecx, 0xec(%rsp)
movl 0x4(%rax), %ecx
movl %ecx, 0xf0(%rsp)
movl $0xffffffff, 0x1c(%rsp) # imm = 0xFFFFFFFF
leaq 0x1c(%rsp), %rcx
movq %rcx, 0xa0(%rsp)
movq 0x18(%r15), %rcx
movq %rcx, 0xa8(%rsp)
movq %rax, 0xb0(%rsp)
movq %rsi, 0xb8(%rsp)
leaq 0xd0(%rsp), %rax
movq %rax, 0xc0(%rsp)
movl $0x1, 0xc8(%rsp)
movq 0x48(%r15), %rax
testq %rax, %rax
movl %r10d, 0x18(%rsp)
movq %r9, 0x260(%rsp)
je 0x1cf53e3
leaq 0xa0(%rsp), %rdi
vzeroupper
callq *%rax
movq 0x260(%rsp), %r9
vmovaps 0x1c0(%rsp), %xmm9
vmovaps 0x130(%rsp), %xmm14
movl 0x18(%rsp), %r10d
vmovaps 0x180(%rsp), %ymm8
vmovaps 0x160(%rsp), %ymm17
vmovaps 0x220(%rsp), %ymm18
vmovaps 0x240(%rsp), %ymm22
vmovaps 0x30(%rsp), %xmm7
vmovaps 0x1e0(%rsp), %ymm21
vmovaps 0x200(%rsp), %ymm20
vxorps %xmm28, %xmm28, %xmm28
leaq 0x434348(%rip), %r8 # 0x2129704
leaq 0x431f21(%rip), %rdi # 0x21272e4
movq 0x48(%rsp), %r11
movq 0x20(%rsp), %rsi
movq 0x28(%rsp), %rdx
movq 0xa0(%rsp), %rax
cmpl $0x0, (%rax)
je 0x1cf5493
movq 0x10(%rdx), %rcx
movq 0x10(%rcx), %rax
testq %rax, %rax
je 0x1cf54bc
testb $0x2, (%rcx)
jne 0x1cf5400
testb $0x40, 0x3e(%r15)
je 0x1cf547e
leaq 0xa0(%rsp), %rdi
vzeroupper
callq *%rax
vmovaps 0x1c0(%rsp), %xmm9
vmovaps 0x130(%rsp), %xmm14
movl 0x18(%rsp), %r10d
vmovaps 0x180(%rsp), %ymm8
vmovaps 0x160(%rsp), %ymm17
vmovaps 0x220(%rsp), %ymm18
vmovaps 0x240(%rsp), %ymm22
vmovaps 0x30(%rsp), %xmm7
vmovaps 0x1e0(%rsp), %ymm21
vmovaps 0x200(%rsp), %ymm20
vxorps %xmm28, %xmm28, %xmm28
leaq 0x43429c(%rip), %r8 # 0x2129704
leaq 0x431e75(%rip), %rdi # 0x21272e4
movq 0x48(%rsp), %r11
movq 0x20(%rsp), %rsi
movq 0x28(%rsp), %rdx
movq 0xa0(%rsp), %rax
cmpl $0x0, (%rax)
movq 0x260(%rsp), %r9
jne 0x1cf54bc
vmovss 0x50(%rsp), %xmm0
vmovss %xmm0, 0x20(%rsi)
movq 0x3c0(%rsp), %rax
btcq %rax, %r9
tzcntq %r9, %rcx
setae %r10b
movq %r9, %rax
jae 0x1cf51dc
andb $0x1, %r10b
vmovaps 0x80(%rsp), %ymm6
vmovaps 0x60(%rsp), %ymm2
jmp 0x1cf551b
xorl %r10d, %r10d
jmp 0x1cf551b
xorl %r10d, %r10d
vxorps %xmm28, %xmm28, %xmm28
vmovaps 0x80(%rsp), %ymm6
vmovaps 0x200(%rsp), %ymm20
vmovaps 0x60(%rsp), %ymm2
vmovaps 0x1e0(%rsp), %ymm21
vmovaps 0x240(%rsp), %ymm22
vmovaps 0x220(%rsp), %ymm18
vmovaps 0x160(%rsp), %ymm17
vmovaps %xmm12, %xmm14
cmpl $0x9, %r12d
jge 0x1cf5553
testb $0x1, %r10b
jne 0x1cf60da
vmovaps 0x5e0(%rsp), %ymm0
vcmpleps 0x20(%rsi){1to8}, %ymm0, %k0
kmovb %k0, %eax
andl %eax, %r14d
setne 0x17(%rsp)
jne 0x1cf46e6
jmp 0x1cf60da
vmovaps %ymm8, 0x180(%rsp)
vpbroadcastd %r12d, %ymm0
vmovdqa %ymm0, 0x1c0(%rsp)
vbroadcastss %xmm14, %ymm0
vmovaps %ymm0, 0x260(%rsp)
vbroadcastss %xmm9, %ymm0
vmovaps %ymm0, 0x3c0(%rsp)
vmovss 0x1f7185(%rip), %xmm0 # 0x1eec714
vdivss 0x280(%rsp), %xmm0, %xmm0
vbroadcastss %xmm0, %ymm0
vmovaps %ymm0, 0x280(%rsp)
movl $0x8, %r15d
vmovaps %ymm6, 0x80(%rsp)
vmovaps %ymm2, 0x60(%rsp)
vpbroadcastd %r15d, %ymm0
vpor 0x265357(%rip), %ymm0, %ymm0 # 0x1f5a920
vpcmpltd 0x1c0(%rsp), %ymm0, %k1
leaq (%rdi,%r13), %rcx
vmovups (%rcx,%r15,4), %ymm3
vmovups 0x484(%rcx,%r15,4), %ymm10
vmovups 0x908(%rcx,%r15,4), %ymm11
vmovups 0xd8c(%rcx,%r15,4), %ymm12
vmovaps 0x500(%rsp), %ymm19
vmulps %ymm12, %ymm19, %ymm5
vmovaps 0x4e0(%rsp), %ymm29
vmulps %ymm12, %ymm29, %ymm4
vmovaps 0x4c0(%rsp), %ymm1
vmulps %ymm1, %ymm12, %ymm0
vmovaps 0x560(%rsp), %ymm26
vfmadd231ps %ymm26, %ymm11, %ymm5 # ymm5 = (ymm11 * ymm26) + ymm5
vmovaps 0x540(%rsp), %ymm27
vfmadd231ps %ymm27, %ymm11, %ymm4 # ymm4 = (ymm11 * ymm27) + ymm4
vmovaps 0x520(%rsp), %ymm16
vfmadd231ps %ymm16, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm16) + ymm0
vfmadd231ps %ymm17, %ymm10, %ymm5 # ymm5 = (ymm10 * ymm17) + ymm5
vmovaps 0x5a0(%rsp), %ymm25
vfmadd231ps %ymm25, %ymm10, %ymm4 # ymm4 = (ymm10 * ymm25) + ymm4
vmovaps 0x580(%rsp), %ymm9
vfmadd231ps %ymm9, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm9) + ymm0
vfmadd231ps %ymm22, %ymm3, %ymm5 # ymm5 = (ymm3 * ymm22) + ymm5
vfmadd231ps %ymm18, %ymm3, %ymm4 # ymm4 = (ymm3 * ymm18) + ymm4
leaq (%r13,%r8), %rax
vmovups (%rax,%r15,4), %ymm2
vmovups 0x484(%rax,%r15,4), %ymm13
vmovaps 0x5c0(%rsp), %ymm8
vfmadd231ps %ymm8, %ymm3, %ymm0 # ymm0 = (ymm3 * ymm8) + ymm0
vmovups 0x908(%rax,%r15,4), %ymm14
vmovups 0xd8c(%rax,%r15,4), %ymm15
vmulps %ymm15, %ymm19, %ymm7
vmulps %ymm15, %ymm29, %ymm6
vmulps %ymm1, %ymm15, %ymm1
vfmadd231ps %ymm26, %ymm14, %ymm7 # ymm7 = (ymm14 * ymm26) + ymm7
vfmadd231ps %ymm27, %ymm14, %ymm6 # ymm6 = (ymm14 * ymm27) + ymm6
vfmadd231ps %ymm16, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm16) + ymm1
vfmadd231ps %ymm17, %ymm13, %ymm7 # ymm7 = (ymm13 * ymm17) + ymm7
vfmadd231ps %ymm25, %ymm13, %ymm6 # ymm6 = (ymm13 * ymm25) + ymm6
vfmadd231ps %ymm9, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm9) + ymm1
vfmadd231ps %ymm22, %ymm2, %ymm7 # ymm7 = (ymm2 * ymm22) + ymm7
vfmadd231ps %ymm18, %ymm2, %ymm6 # ymm6 = (ymm2 * ymm18) + ymm6
vfmadd231ps %ymm8, %ymm2, %ymm1 # ymm1 = (ymm2 * ymm8) + ymm1
vmaxps %ymm1, %ymm0, %ymm16
vsubps %ymm5, %ymm7, %ymm9
vsubps %ymm4, %ymm6, %ymm8
vmovaps %ymm17, %ymm24
vmulps %ymm9, %ymm4, %ymm17
vmovaps %ymm18, %ymm23
vmulps %ymm8, %ymm5, %ymm18
vsubps %ymm18, %ymm17, %ymm17
vmulps %ymm8, %ymm8, %ymm18
vfmadd231ps %ymm9, %ymm9, %ymm18 # ymm18 = (ymm9 * ymm9) + ymm18
vmulps %ymm16, %ymm16, %ymm16
vmulps %ymm18, %ymm16, %ymm16
vmulps %ymm17, %ymm17, %ymm17
vcmpleps %ymm16, %ymm17, %k1 {%k1}
kortestb %k1, %k1
je 0x1cf6012
vmovaps %ymm23, %ymm16
vmovaps 0x180(%rsp), %ymm23
vmulps %ymm15, %ymm23, %ymm15
vmovaps 0x460(%rsp), %ymm31
vfmadd213ps %ymm15, %ymm31, %ymm14 # ymm14 = (ymm31 * ymm14) + ymm15
vmovaps 0x480(%rsp), %ymm30
vfmadd213ps %ymm14, %ymm30, %ymm13 # ymm13 = (ymm30 * ymm13) + ymm14
vmovaps 0x4a0(%rsp), %ymm18
vfmadd213ps %ymm13, %ymm18, %ymm2 # ymm2 = (ymm18 * ymm2) + ymm13
vmulps %ymm12, %ymm23, %ymm12
vfmadd213ps %ymm12, %ymm31, %ymm11 # ymm11 = (ymm31 * ymm11) + ymm12
vfmadd213ps %ymm11, %ymm30, %ymm10 # ymm10 = (ymm30 * ymm10) + ymm11
vfmadd213ps %ymm10, %ymm18, %ymm3 # ymm3 = (ymm18 * ymm3) + ymm10
vmovups 0x1210(%rcx,%r15,4), %ymm12
vmovups 0x1694(%rcx,%r15,4), %ymm13
vmovups 0x1b18(%rcx,%r15,4), %ymm14
vmovups 0x1f9c(%rcx,%r15,4), %ymm15
vmulps %ymm15, %ymm19, %ymm11
vmulps %ymm15, %ymm29, %ymm10
vmulps %ymm15, %ymm23, %ymm15
vfmadd231ps %ymm26, %ymm14, %ymm11 # ymm11 = (ymm14 * ymm26) + ymm11
vfmadd231ps %ymm27, %ymm14, %ymm10 # ymm10 = (ymm14 * ymm27) + ymm10
vfmadd231ps %ymm14, %ymm31, %ymm15 # ymm15 = (ymm31 * ymm14) + ymm15
vfmadd231ps %ymm24, %ymm13, %ymm11 # ymm11 = (ymm13 * ymm24) + ymm11
vfmadd231ps %ymm25, %ymm13, %ymm10 # ymm10 = (ymm13 * ymm25) + ymm10
vfmadd231ps %ymm13, %ymm30, %ymm15 # ymm15 = (ymm30 * ymm13) + ymm15
vfmadd231ps %ymm22, %ymm12, %ymm11 # ymm11 = (ymm12 * ymm22) + ymm11
vfmadd231ps %ymm16, %ymm12, %ymm10 # ymm10 = (ymm12 * ymm16) + ymm10
vmovaps %ymm19, %ymm17
vmovaps %ymm16, %ymm19
vfmadd231ps %ymm12, %ymm18, %ymm15 # ymm15 = (ymm18 * ymm12) + ymm15
vmovups 0x1210(%rax,%r15,4), %ymm13
vmovups 0x1b18(%rax,%r15,4), %ymm14
vmovups 0x1f9c(%rax,%r15,4), %ymm16
vmulps %ymm16, %ymm17, %ymm17
vmulps %ymm16, %ymm29, %ymm12
vmulps %ymm16, %ymm23, %ymm16
vfmadd231ps %ymm26, %ymm14, %ymm17 # ymm17 = (ymm14 * ymm26) + ymm17
vfmadd231ps %ymm27, %ymm14, %ymm12 # ymm12 = (ymm14 * ymm27) + ymm12
vfmadd231ps %ymm14, %ymm31, %ymm16 # ymm16 = (ymm31 * ymm14) + ymm16
vmovups 0x1694(%rax,%r15,4), %ymm14
vfmadd231ps %ymm24, %ymm14, %ymm17 # ymm17 = (ymm14 * ymm24) + ymm17
vfmadd231ps %ymm25, %ymm14, %ymm12 # ymm12 = (ymm14 * ymm25) + ymm12
vfmadd231ps %ymm14, %ymm30, %ymm16 # ymm16 = (ymm30 * ymm14) + ymm16
vfmadd231ps %ymm22, %ymm13, %ymm17 # ymm17 = (ymm13 * ymm22) + ymm17
vfmadd231ps %ymm19, %ymm13, %ymm12 # ymm12 = (ymm13 * ymm19) + ymm12
vfmadd231ps %ymm13, %ymm18, %ymm16 # ymm16 = (ymm18 * ymm13) + ymm16
vbroadcastss 0x22b626(%rip), %ymm18 # 0x1f20ec4
vandps %ymm18, %ymm11, %ymm13
vandps %ymm18, %ymm10, %ymm14
vmaxps %ymm14, %ymm13, %ymm13
vandps %ymm18, %ymm15, %ymm14
vmaxps %ymm14, %ymm13, %ymm13
vmovaps 0x260(%rsp), %ymm15
vcmpltps %ymm15, %ymm13, %k2
vmovaps %ymm9, %ymm11 {%k2}
vmovaps %ymm8, %ymm10 {%k2}
vandps %ymm18, %ymm17, %ymm13
vandps %ymm18, %ymm12, %ymm14
vmaxps %ymm14, %ymm13, %ymm13
vandps %ymm18, %ymm16, %ymm14
vmaxps %ymm14, %ymm13, %ymm13
vcmpltps %ymm15, %ymm13, %k2
vmovaps %ymm9, %ymm17 {%k2}
vmovaps %ymm8, %ymm12 {%k2}
vbroadcastss 0x22b5b2(%rip), %ymm9 # 0x1f20ec0
vxorps %ymm9, %ymm11, %ymm8
vxorps %ymm9, %ymm17, %ymm9
vfmadd213ps %ymm28, %ymm11, %ymm11 # ymm11 = (ymm11 * ymm11) + ymm28
vfmadd231ps %ymm10, %ymm10, %ymm11 # ymm11 = (ymm10 * ymm10) + ymm11
vrsqrt14ps %ymm11, %ymm13
vbroadcastss 0x1f6de9(%rip), %ymm15 # 0x1eec71c
vmulps %ymm15, %ymm11, %ymm11
vmulps %ymm11, %ymm13, %ymm11
vmulps %ymm13, %ymm13, %ymm14
vmulps %ymm11, %ymm14, %ymm14
vbroadcastss 0x1f6dc7(%rip), %ymm16 # 0x1eec718
vfmadd231ps %ymm13, %ymm16, %ymm14 # ymm14 = (ymm16 * ymm13) + ymm14
vmulps %ymm14, %ymm10, %ymm11
vmulps %ymm8, %ymm14, %ymm10
vmulps %ymm28, %ymm14, %ymm13
vfmadd213ps %ymm28, %ymm17, %ymm17 # ymm17 = (ymm17 * ymm17) + ymm28
vfmadd231ps %ymm12, %ymm12, %ymm17 # ymm17 = (ymm12 * ymm12) + ymm17
vrsqrt14ps %ymm17, %ymm8
vmulps %ymm15, %ymm17, %ymm14
vmulps %ymm14, %ymm8, %ymm14
vmulps %ymm8, %ymm8, %ymm15
vmulps %ymm14, %ymm15, %ymm14
vfmadd231ps %ymm8, %ymm16, %ymm14 # ymm14 = (ymm16 * ymm8) + ymm14
vmulps %ymm14, %ymm12, %ymm8
vmulps %ymm9, %ymm14, %ymm9
vmulps %ymm28, %ymm14, %ymm12
vmovaps %ymm11, %ymm14
vfmadd213ps %ymm5, %ymm0, %ymm14 # ymm14 = (ymm0 * ymm14) + ymm5
vmovaps %ymm10, %ymm15
vfmadd213ps %ymm4, %ymm0, %ymm15 # ymm15 = (ymm0 * ymm15) + ymm4
vmovaps %ymm13, %ymm16
vfmadd213ps %ymm3, %ymm0, %ymm16 # ymm16 = (ymm0 * ymm16) + ymm3
vmovaps %ymm8, %ymm17
vfmadd213ps %ymm7, %ymm1, %ymm17 # ymm17 = (ymm1 * ymm17) + ymm7
vfnmadd213ps %ymm5, %ymm0, %ymm11 # ymm11 = -(ymm0 * ymm11) + ymm5
vmovaps %ymm9, %ymm5
vfmadd213ps %ymm6, %ymm1, %ymm5 # ymm5 = (ymm1 * ymm5) + ymm6
vfnmadd213ps %ymm4, %ymm0, %ymm10 # ymm10 = -(ymm0 * ymm10) + ymm4
vmovaps %ymm12, %ymm4
vfmadd213ps %ymm2, %ymm1, %ymm4 # ymm4 = (ymm1 * ymm4) + ymm2
vfnmadd231ps %ymm13, %ymm0, %ymm3 # ymm3 = -(ymm0 * ymm13) + ymm3
vfnmadd213ps %ymm7, %ymm1, %ymm8 # ymm8 = -(ymm1 * ymm8) + ymm7
vfnmadd213ps %ymm6, %ymm1, %ymm9 # ymm9 = -(ymm1 * ymm9) + ymm6
vfnmadd231ps %ymm12, %ymm1, %ymm2 # ymm2 = -(ymm1 * ymm12) + ymm2
vsubps %ymm11, %ymm17, %ymm6
vsubps %ymm10, %ymm5, %ymm7
vsubps %ymm3, %ymm4, %ymm12
vmulps %ymm3, %ymm7, %ymm13
vfmsub231ps %ymm12, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm12) - ymm13
vmulps %ymm11, %ymm12, %ymm12
vfmsub231ps %ymm6, %ymm3, %ymm12 # ymm12 = (ymm3 * ymm6) - ymm12
vmulps %ymm6, %ymm10, %ymm6
vfmsub231ps %ymm7, %ymm11, %ymm6 # ymm6 = (ymm11 * ymm7) - ymm6
vfmadd231ps %ymm12, %ymm28, %ymm6 # ymm6 = (ymm28 * ymm12) + ymm6
vfmadd231ps %ymm13, %ymm28, %ymm6 # ymm6 = (ymm28 * ymm13) + ymm6
vcmpleps %ymm28, %ymm6, %k2
vmovaps %ymm14, %ymm8 {%k2}
vmovaps %ymm15, %ymm9 {%k2}
vmovaps %ymm16, %ymm2 {%k2}
vblendmps %ymm17, %ymm11, %ymm13 {%k2}
vblendmps %ymm5, %ymm10, %ymm14 {%k2}
vblendmps %ymm4, %ymm3, %ymm15 {%k2}
vmovaps %ymm11, %ymm17 {%k2}
vmovaps %ymm10, %ymm5 {%k2}
vmovaps %ymm3, %ymm4 {%k2}
vsubps %ymm8, %ymm17, %ymm6
vsubps %ymm9, %ymm5, %ymm5
vsubps %ymm2, %ymm4, %ymm11
vsubps %ymm13, %ymm8, %ymm7
vsubps %ymm14, %ymm9, %ymm10
vsubps %ymm15, %ymm2, %ymm12
vmulps %ymm8, %ymm11, %ymm4
vfmsub231ps %ymm6, %ymm2, %ymm4 # ymm4 = (ymm2 * ymm6) - ymm4
vmulps %ymm6, %ymm9, %ymm3
vfmsub231ps %ymm5, %ymm8, %ymm3 # ymm3 = (ymm8 * ymm5) - ymm3
vfmadd231ps %ymm4, %ymm28, %ymm3 # ymm3 = (ymm28 * ymm4) + ymm3
vmulps %ymm2, %ymm5, %ymm4
vfmsub231ps %ymm11, %ymm9, %ymm4 # ymm4 = (ymm9 * ymm11) - ymm4
vfmadd231ps %ymm4, %ymm28, %ymm3 # ymm3 = (ymm28 * ymm4) + ymm3
vmulps %ymm13, %ymm12, %ymm16
vfmsub231ps %ymm15, %ymm7, %ymm16 # ymm16 = (ymm7 * ymm15) - ymm16
vmulps %ymm15, %ymm10, %ymm15
vfmsub231ps %ymm12, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm12) - ymm15
vmulps %ymm7, %ymm14, %ymm4
vfmsub231ps %ymm13, %ymm10, %ymm4 # ymm4 = (ymm10 * ymm13) - ymm4
vfmadd231ps %ymm16, %ymm28, %ymm4 # ymm4 = (ymm28 * ymm16) + ymm4
vfmadd231ps %ymm15, %ymm28, %ymm4 # ymm4 = (ymm28 * ymm15) + ymm4
vmaxps %ymm4, %ymm3, %ymm13
vcmpleps %ymm28, %ymm13, %k0 {%k1}
kortestb %k0, %k0
vmovaps %ymm19, %ymm18
je 0x1cf6046
vmulps %ymm5, %ymm12, %ymm13
vfmsub231ps %ymm11, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm11) - ymm13
vmulps %ymm7, %ymm11, %ymm11
vfmsub231ps %ymm12, %ymm6, %ymm11 # ymm11 = (ymm6 * ymm12) - ymm11
vmulps %ymm6, %ymm10, %ymm10
vfmsub231ps %ymm5, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm5) - ymm10
vxorps %xmm6, %xmm6, %xmm6
vfmadd213ps %ymm10, %ymm11, %ymm6 # ymm6 = (ymm11 * ymm6) + ymm10
vfmadd231ps %ymm28, %ymm13, %ymm6 # ymm6 = (ymm13 * ymm28) + ymm6
vrcp14ps %ymm6, %ymm7
vmovaps %ymm7, %ymm5
vfnmadd213ps 0x1f6bd6(%rip){1to8}, %ymm6, %ymm5 # ymm5 = -(ymm6 * ymm5) + mem
vfmadd132ps %ymm7, %ymm7, %ymm5 # ymm5 = (ymm5 * ymm7) + ymm7
vmulps %ymm2, %ymm10, %ymm2
vfmadd231ps %ymm11, %ymm9, %ymm2 # ymm2 = (ymm9 * ymm11) + ymm2
vfmadd231ps %ymm13, %ymm8, %ymm2 # ymm2 = (ymm8 * ymm13) + ymm2
vmulps %ymm5, %ymm2, %ymm2
vcmpgeps 0x3c0(%rsp), %ymm2, %k1
vcmpleps 0x20(%rsi){1to8}, %ymm2, %k1 {%k1}
kandb %k0, %k1, %k0
kortestb %k0, %k0
je 0x1cf6046
vcmpneqps %ymm28, %ymm6, %k1
ktestb %k1, %k0
vmovaps 0x30(%rsp), %xmm7
vmovaps 0x160(%rsp), %ymm17
je 0x1cf606a
kandb %k1, %k0, %k0
kmovd %k0, %eax
vmulps %ymm5, %ymm3, %ymm3
vmulps %ymm5, %ymm4, %ymm4
vbroadcastss 0x1f6b68(%rip), %ymm5 # 0x1eec714
vsubps %ymm3, %ymm5, %ymm20
vmovaps %ymm3, %ymm20 {%k2}
vsubps %ymm4, %ymm5, %ymm3
vmovaps %ymm4, %ymm3 {%k2}
vmovaps %ymm3, 0x3e0(%rsp)
movzbl %al, %eax
vmovaps %ymm2, %ymm21
vmovaps 0x80(%rsp), %ymm6
vmovaps 0x60(%rsp), %ymm2
testw %ax, %ax
je 0x1cf6034
vsubps %ymm0, %ymm1, %ymm1
vfmadd213ps %ymm0, %ymm20, %ymm1 # ymm1 = (ymm20 * ymm1) + ymm0
vaddps %ymm1, %ymm1, %ymm0
vmulps (%r11){1to8}, %ymm0, %ymm0
vcmpnleps %ymm0, %ymm21, %k0
kmovd %k0, %ecx
andb %cl, %al
je 0x1cf6034
vbroadcastss 0x1fadb0(%rip), %ymm0 # 0x1ef09cc
vmovaps 0x3e0(%rsp), %ymm1
vfmadd132ps 0x1fb3c9(%rip){1to8}, %ymm0, %ymm1 # ymm1 = (ymm1 * mem) + ymm0
vmovaps %ymm20, 0x2a0(%rsp)
vmovaps %ymm1, 0x3e0(%rsp)
vmovaps %ymm1, 0x2c0(%rsp)
vmovaps %ymm21, 0x2e0(%rsp)
movl %r15d, 0x300(%rsp)
movl %r12d, 0x304(%rsp)
vmovaps %xmm7, 0x310(%rsp)
vmovaps 0x150(%rsp), %xmm0
vmovaps %xmm0, 0x320(%rsp)
vmovaps 0x140(%rsp), %xmm0
vmovaps %xmm0, 0x330(%rsp)
vmovaps 0x1b0(%rsp), %xmm0
vmovaps %xmm0, 0x340(%rsp)
movb %al, 0x350(%rsp)
movq (%rdx), %rcx
movq 0x1e8(%rcx), %rcx
movq 0x58(%rsp), %r9
movq (%rcx,%r9,8), %r9
movl 0x24(%rsi), %ecx
testl %ecx, 0x34(%r9)
je 0x1cf602f
movq 0x10(%rdx), %rcx
cmpq $0x0, 0x10(%rcx)
jne 0x1cf5cdf
movb $0x1, %cl
cmpq $0x0, 0x48(%r9)
je 0x1cf6031
movl %r10d, 0x18(%rsp)
movq %r11, 0x48(%rsp)
vmovaps %ymm20, 0x200(%rsp)
vaddps 0x22b245(%rip), %ymm20, %ymm0 # 0x1f20f40
vcvtsi2ss %r15d, %xmm19, %xmm1
vbroadcastss %xmm1, %ymm1
vaddps %ymm0, %ymm1, %ymm0
vmulps 0x280(%rsp), %ymm0, %ymm0
vmovaps %ymm0, 0x360(%rsp)
vmovaps 0x3e0(%rsp), %ymm0
vmovaps %ymm0, 0x380(%rsp)
vmovaps %ymm21, 0x1e0(%rsp)
vmovaps %ymm21, 0x3a0(%rsp)
movzbl %al, %edi
vmovaps 0x320(%rsp), %xmm0
vmovaps %xmm0, 0x450(%rsp)
tzcntq %rdi, %rcx
vmovaps 0x330(%rsp), %xmm0
vmovaps %xmm0, 0x440(%rsp)
vmovaps 0x340(%rsp), %xmm0
vmovaps %xmm0, 0x430(%rsp)
movb $0x1, %al
movl %eax, 0x110(%rsp)
movq %r9, 0x120(%rsp)
movq %rdx, 0x28(%rsp)
movq %rsi, 0x20(%rsp)
vmovss 0x360(%rsp,%rcx,4), %xmm0
vmovss 0x380(%rsp,%rcx,4), %xmm1
vmovss 0x20(%rsi), %xmm2
vmovss %xmm2, 0x1a0(%rsp)
movq %rcx, 0x130(%rsp)
vmovss 0x3a0(%rsp,%rcx,4), %xmm2
vmovss %xmm2, 0x20(%rsi)
movq 0x8(%rdx), %rax
vmovss 0x1f693b(%rip), %xmm2 # 0x1eec714
vsubss %xmm0, %xmm2, %xmm2
vmulss %xmm2, %xmm2, %xmm3
vmulss %xmm2, %xmm0, %xmm2
vmulss 0x1fb203(%rip), %xmm3, %xmm4 # 0x1ef0ff0
vfmadd231ss 0x1fabe6(%rip), %xmm2, %xmm3 # xmm3 = (xmm2 * mem) + xmm3
vmulss %xmm0, %xmm0, %xmm5
vfmsub132ss 0x1fb1f5(%rip), %xmm5, %xmm2 # xmm2 = (xmm2 * mem) - xmm5
vmovss 0x1fb1e1(%rip), %xmm6 # 0x1ef0fec
vmulss %xmm6, %xmm3, %xmm3
vmulss %xmm6, %xmm2, %xmm2
vmulss %xmm6, %xmm5, %xmm5
vbroadcastss %xmm5, %xmm5
vmulps 0x430(%rsp), %xmm5, %xmm5
vbroadcastss %xmm2, %xmm2
vfmadd132ps 0x440(%rsp), %xmm5, %xmm2 # xmm2 = (xmm2 * mem) + xmm5
vbroadcastss %xmm3, %xmm3
vfmadd132ps 0x450(%rsp), %xmm2, %xmm3 # xmm3 = (xmm3 * mem) + xmm2
vbroadcastss %xmm4, %xmm2
vfmadd213ps %xmm3, %xmm7, %xmm2 # xmm2 = (xmm7 * xmm2) + xmm3
vmovlps %xmm2, 0xd0(%rsp)
vextractps $0x2, %xmm2, 0xd8(%rsp)
vmovss %xmm0, 0xdc(%rsp)
vmovss %xmm1, 0xe0(%rsp)
movq 0x108(%rsp), %rcx
movl %ecx, 0xe4(%rsp)
movq 0x58(%rsp), %rcx
movl %ecx, 0xe8(%rsp)
movl (%rax), %ecx
movl %ecx, 0xec(%rsp)
movl 0x4(%rax), %ecx
movl %ecx, 0xf0(%rsp)
movl $0xffffffff, 0x1c(%rsp) # imm = 0xFFFFFFFF
leaq 0x1c(%rsp), %rcx
movq %rcx, 0xa0(%rsp)
movq 0x18(%r9), %rcx
movq %rcx, 0xa8(%rsp)
movq %rax, 0xb0(%rsp)
movq %rsi, 0xb8(%rsp)
leaq 0xd0(%rsp), %rax
movq %rax, 0xc0(%rsp)
movl $0x1, 0xc8(%rsp)
movq 0x48(%r9), %rax
testq %rax, %rax
movq %rdi, 0x50(%rsp)
je 0x1cf5f32
leaq 0xa0(%rsp), %rdi
vzeroupper
callq *%rax
movq 0x50(%rsp), %rdi
movq 0x120(%rsp), %r9
vmovaps 0x30(%rsp), %xmm7
movq 0x20(%rsp), %rsi
movq 0x28(%rsp), %rdx
movq 0xa0(%rsp), %rax
cmpl $0x0, (%rax)
je 0x1cf5f82
movq 0x10(%rdx), %rcx
movq 0x10(%rcx), %rax
testq %rax, %rax
je 0x1cf5fb1
testb $0x2, (%rcx)
jne 0x1cf5f4b
testb $0x40, 0x3e(%r9)
je 0x1cf5f60
leaq 0xa0(%rsp), %rdi
vzeroupper
callq *%rax
movq 0x120(%rsp), %r9
movq 0xa0(%rsp), %rax
cmpl $0x0, (%rax)
movq 0x28(%rsp), %rdx
movq 0x20(%rsp), %rsi
vmovaps 0x30(%rsp), %xmm7
movq 0x50(%rsp), %rdi
jne 0x1cf5fb1
vmovss 0x1a0(%rsp), %xmm0
vmovss %xmm0, 0x20(%rsi)
movq 0x130(%rsp), %rax
btcq %rax, %rdi
tzcntq %rdi, %rcx
setae %al
movl %eax, 0x110(%rsp)
jae 0x1cf5d97
movl 0x110(%rsp), %ecx
andb $0x1, %cl
movq 0x48(%rsp), %r11
leaq 0x43131d(%rip), %rdi # 0x21272e4
leaq 0x433736(%rip), %r8 # 0x2129704
vxorps %xmm28, %xmm28, %xmm28
vmovaps 0x80(%rsp), %ymm6
vmovaps 0x200(%rsp), %ymm20
vmovaps 0x60(%rsp), %ymm2
vmovaps 0x1e0(%rsp), %ymm21
vmovaps 0x240(%rsp), %ymm22
vmovaps 0x220(%rsp), %ymm18
vmovaps 0x160(%rsp), %ymm17
movl 0x18(%rsp), %r10d
jmp 0x1cf6031
vmovaps 0x80(%rsp), %ymm6
vmovaps 0x60(%rsp), %ymm2
vmovaps %ymm23, %ymm18
vmovaps %ymm24, %ymm17
jmp 0x1cf6034
xorl %ecx, %ecx
orb %cl, %r10b
addq $0x8, %r15
cmpl %r15d, %r12d
jg 0x1cf55bb
jmp 0x1cf5521
xorl %eax, %eax
vmovaps 0x80(%rsp), %ymm6
vmovaps 0x60(%rsp), %ymm2
vmovaps 0x30(%rsp), %xmm7
vmovaps 0x160(%rsp), %ymm17
jmp 0x1cf5be3
xorl %eax, %eax
jmp 0x1cf5bd4
xorl %eax, %eax
vmovaps 0x80(%rsp), %ymm6
vmovaps 0x60(%rsp), %ymm2
vmovaps 0x30(%rsp), %xmm7
vmovaps 0x180(%rsp), %ymm8
vmovaps 0x1c0(%rsp), %xmm9
jmp 0x1cf5040
xorl %eax, %eax
vmovaps 0x80(%rsp), %ymm6
vmovaps 0x60(%rsp), %ymm2
vmovaps 0x30(%rsp), %xmm7
vmovaps 0x180(%rsp), %ymm8
jmp 0x1cf5040
xorl %eax, %eax
vmovaps 0x80(%rsp), %ymm6
vmovaps 0x60(%rsp), %ymm2
jmp 0x1cf5040
movb 0x17(%rsp), %al
andb $0x1, %al
leaq -0x28(%rbp), %rsp
popq %rbx
popq %r12
popq %r13
popq %r14
popq %r15
popq %rbp
vzeroupper
retq
|
/embree[P]embree/kernels/geometry/curveNi_intersector.h
|
void embree::avx512::CurveNiIntersectorK<8, 4>::intersect_t<embree::avx512::RibbonCurve1IntersectorK<embree::BezierCurveT, 4, 8>, embree::avx512::Intersect1KEpilogMU<8, 4, true>>(embree::avx512::CurvePrecalculationsK<4>&, embree::RayHitK<4>&, unsigned long, embree::RayQueryContext*, embree::CurveNi<8> const&)
|
static __forceinline void intersect_t(Precalculations& pre, RayHitK<K>& ray, const size_t k, RayQueryContext* context, const Primitive& prim)
{
vfloat<M> tNear;
vbool<M> valid = intersect(ray,k,prim,tNear);
const size_t N = prim.N;
size_t mask = movemask(valid);
while (mask)
{
const size_t i = bscf(mask);
STAT3(normal.trav_prims,1,1,1);
const unsigned int geomID = prim.geomID(N);
const unsigned int primID = prim.primID(N)[i];
const CurveGeometry* geom = context->scene->get<CurveGeometry>(geomID);
Vec3ff a0,a1,a2,a3; geom->gather(a0,a1,a2,a3,geom->curve(primID));
size_t mask1 = mask;
const size_t i1 = bscf(mask1);
if (mask) {
const unsigned int primID1 = prim.primID(N)[i1];
geom->prefetchL1_vertices(geom->curve(primID1));
if (mask1) {
const size_t i2 = bsf(mask1);
const unsigned int primID2 = prim.primID(N)[i2];
geom->prefetchL2_vertices(geom->curve(primID2));
}
}
Intersector().intersect(pre,ray,k,context,geom,primID,a0,a1,a2,a3,Epilog(ray,k,context,geomID,primID));
mask &= movemask(tNear <= vfloat<M>(ray.tfar[k]));
}
}
|
pushq %rbp
movq %rsp, %rbp
pushq %r15
pushq %r14
pushq %r13
pushq %r12
pushq %rbx
andq $-0x20, %rsp
subq $0x700, %rsp # imm = 0x700
movq %rcx, %r10
movq %rdx, %r15
movq %rdi, 0xc8(%rsp)
movzbl 0x1(%r8), %ecx
leaq (%rcx,%rcx,4), %rax
leaq (%rax,%rax,4), %rdx
vbroadcastss 0x12(%r8,%rdx), %xmm0
vmovss (%rsi,%r15,4), %xmm1
vmovss 0x40(%rsi,%r15,4), %xmm2
vinsertps $0x10, 0x10(%rsi,%r15,4), %xmm1, %xmm1 # xmm1 = xmm1[0],mem[0],xmm1[2,3]
vinsertps $0x20, 0x20(%rsi,%r15,4), %xmm1, %xmm1 # xmm1 = xmm1[0,1],mem[0],xmm1[3]
vinsertps $0x10, 0x50(%rsi,%r15,4), %xmm2, %xmm2 # xmm2 = xmm2[0],mem[0],xmm2[2,3]
vinsertps $0x20, 0x60(%rsi,%r15,4), %xmm2, %xmm2 # xmm2 = xmm2[0,1],mem[0],xmm2[3]
vsubps 0x6(%r8,%rdx), %xmm1, %xmm1
vmulps %xmm1, %xmm0, %xmm3
vmulps %xmm2, %xmm0, %xmm0
vpmovsxbd 0x6(%r8,%rcx,4), %ymm1
vpmovsxbd 0x6(%r8,%rax), %ymm2
vcvtdq2ps %ymm1, %ymm5
vcvtdq2ps %ymm2, %ymm6
leaq (%rcx,%rcx,2), %rdx
vpmovsxbd 0x6(%r8,%rdx,2), %ymm1
vcvtdq2ps %ymm1, %ymm4
leaq (%rcx,%rax,2), %rdi
vpmovsxbd 0x6(%r8,%rdi), %ymm1
leal (,%rdx,4), %edi
vpmovsxbd 0x6(%r8,%rdi), %ymm2
vcvtdq2ps %ymm1, %ymm7
vcvtdq2ps %ymm2, %ymm8
addq %rcx, %rdi
vpmovsxbd 0x6(%r8,%rdi), %ymm1
vcvtdq2ps %ymm1, %ymm9
leaq (%rcx,%rcx,8), %r9
leal (%r9,%r9), %edi
vpmovsxbd 0x6(%r8,%rdi), %ymm1
vcvtdq2ps %ymm1, %ymm10
addq %rcx, %rdi
vpmovsxbd 0x6(%r8,%rdi), %ymm1
vcvtdq2ps %ymm1, %ymm11
shll $0x2, %eax
vpmovsxbd 0x6(%r8,%rax), %ymm1
vcvtdq2ps %ymm1, %ymm12
vbroadcastss %xmm0, %ymm13
vbroadcastss 0x21c50b(%rip), %ymm15 # 0x1f12704
vbroadcastss 0x22acd9(%rip), %ymm16 # 0x1f20edc
vpermps %ymm0, %ymm15, %ymm14
vpermps %ymm0, %ymm16, %ymm0
vmulps %ymm4, %ymm0, %ymm2
vmulps %ymm0, %ymm9, %ymm1
vmulps %ymm0, %ymm12, %ymm0
vfmadd231ps %ymm6, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm6) + ymm2
vfmadd231ps %ymm8, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm8) + ymm1
vfmadd231ps %ymm14, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm14) + ymm0
vfmadd231ps %ymm5, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm5) + ymm2
vfmadd231ps %ymm7, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm7) + ymm1
vfmadd231ps %ymm13, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm13) + ymm0
vbroadcastss %xmm3, %ymm13
vpermps %ymm3, %ymm15, %ymm14
vpermps %ymm3, %ymm16, %ymm3
vmulps %ymm4, %ymm3, %ymm15
vmulps %ymm3, %ymm9, %ymm4
vmulps %ymm3, %ymm12, %ymm3
vfmadd231ps %ymm6, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm6) + ymm15
vfmadd231ps %ymm8, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm8) + ymm4
vfmadd231ps %ymm11, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm11) + ymm3
vfmadd231ps %ymm5, %ymm13, %ymm15 # ymm15 = (ymm13 * ymm5) + ymm15
vfmadd231ps %ymm7, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm7) + ymm4
vbroadcastss 0x22ac4e(%rip), %ymm7 # 0x1f20ec4
vfmadd231ps %ymm10, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm10) + ymm3
vandps %ymm7, %ymm2, %ymm5
vbroadcastss 0x1fad60(%rip), %ymm6 # 0x1ef0fe8
vcmpltps %ymm6, %ymm5, %k1
vmovaps %ymm6, %ymm2 {%k1}
vandps %ymm7, %ymm1, %ymm5
vcmpltps %ymm6, %ymm5, %k1
vmovaps %ymm6, %ymm1 {%k1}
vandps %ymm7, %ymm0, %ymm5
vcmpltps %ymm6, %ymm5, %k1
vmovaps %ymm6, %ymm0 {%k1}
vrcp14ps %ymm2, %ymm5
vbroadcastss 0x1f644e(%rip), %ymm6 # 0x1eec714
vfnmadd213ps %ymm6, %ymm5, %ymm2 # ymm2 = -(ymm5 * ymm2) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm2 # ymm2 = (ymm2 * ymm5) + ymm5
vrcp14ps %ymm1, %ymm5
vfnmadd213ps %ymm6, %ymm5, %ymm1 # ymm1 = -(ymm5 * ymm1) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm1 # ymm1 = (ymm1 * ymm5) + ymm5
vrcp14ps %ymm0, %ymm5
vfnmadd213ps %ymm6, %ymm5, %ymm0 # ymm0 = -(ymm5 * ymm0) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm0 # ymm0 = (ymm0 * ymm5) + ymm5
leaq (,%rcx,8), %rdi
subq %rcx, %rdi
vpmovsxwd 0x6(%r8,%rdi), %ymm5
vcvtdq2ps %ymm5, %ymm5
vsubps %ymm15, %ymm5, %ymm5
vmulps %ymm5, %ymm2, %ymm5
vpmovsxwd 0x6(%r8,%r9), %ymm6
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm15, %ymm6, %ymm6
leaq (%rcx,%rcx), %rdi
addq %rcx, %rax
shlq $0x3, %rdx
subq %rcx, %rdx
vpbroadcastd %ecx, %ymm7
shll $0x4, %ecx
vpmovsxwd 0x6(%r8,%rcx), %ymm8
vmulps %ymm6, %ymm2, %ymm2
subq %rdi, %rcx
vpmovsxwd 0x6(%r8,%rcx), %ymm6
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm4, %ymm6, %ymm6
vmulps %ymm6, %ymm1, %ymm6
vcvtdq2ps %ymm8, %ymm8
vsubps %ymm4, %ymm8, %ymm4
vmulps %ymm4, %ymm1, %ymm1
vpmovsxwd 0x6(%r8,%rax), %ymm4
vcvtdq2ps %ymm4, %ymm4
vsubps %ymm3, %ymm4, %ymm4
vmulps %ymm0, %ymm4, %ymm4
vpmovsxwd 0x6(%r8,%rdx), %ymm8
vcvtdq2ps %ymm8, %ymm8
vsubps %ymm3, %ymm8, %ymm3
vmulps %ymm3, %ymm0, %ymm0
vpminsd %ymm2, %ymm5, %ymm3
vpminsd %ymm1, %ymm6, %ymm8
vmaxps %ymm8, %ymm3, %ymm3
vpminsd %ymm0, %ymm4, %ymm8
vmaxps 0x30(%rsi,%r15,4){1to8}, %ymm8, %ymm8
vmaxps %ymm8, %ymm3, %ymm3
vmulps 0x229b5a(%rip){1to8}, %ymm3, %ymm3 # 0x1f1ff10
vpmaxsd %ymm2, %ymm5, %ymm2
vpmaxsd %ymm1, %ymm6, %ymm1
vminps %ymm1, %ymm2, %ymm1
vpmaxsd %ymm0, %ymm4, %ymm0
vminps 0x80(%rsi,%r15,4){1to8}, %ymm0, %ymm0
vminps %ymm0, %ymm1, %ymm0
vmulps 0x229b35(%rip){1to8}, %ymm0, %ymm0 # 0x1f1ff14
vpcmpgtd 0x264537(%rip), %ymm7, %k0 # 0x1f5a920
vmovaps %ymm3, 0x6c0(%rsp)
vcmpleps %ymm0, %ymm3, %k1
ktestb %k0, %k1
je 0x1cf8490
kandb %k0, %k1, %k0
kmovd %k0, %eax
movzbl %al, %r13d
leaq (%r15,%r15,2), %rax
shlq $0x4, %rax
movq 0xc8(%rsp), %rcx
addq %rcx, %rax
addq $0x10, %rax
movq %rax, 0x278(%rsp)
movl $0x1, %eax
shlxl %r15d, %eax, %eax
kmovd %eax, %k0
vpmovm2d %k0, %xmm0
vmovdqa %xmm0, 0x2f0(%rsp)
leaq 0x430e92(%rip), %r12 # 0x21272e4
vmovaps %ymm6, 0x80(%rsp)
vmovaps %ymm3, 0x60(%rsp)
vmovaps %ymm21, 0x1e0(%rsp)
vmovaps %ymm20, 0x200(%rsp)
tzcntq %r13, %rax
movl 0x2(%r8), %ecx
movl 0x6(%r8,%rax,4), %edi
movq (%r10), %rax
movq 0x1e8(%rax), %rax
movq %rcx, 0x38(%rsp)
movq (%rax,%rcx,8), %r14
movq 0x58(%r14), %rax
movq 0x68(%r14), %rcx
movq %rcx, %rdx
movq %rdi, 0x58(%rsp)
imulq %rdi, %rdx
movl (%rax,%rdx), %edi
movq 0xa0(%r14), %rdx
movq %rdx, %r9
imulq %rdi, %r9
movq 0x90(%r14), %r11
vmovaps (%r11,%r9), %xmm13
leaq 0x1(%rdi), %r9
imulq %rdx, %r9
vmovaps (%r11,%r9), %xmm0
vmovaps %xmm0, 0xe0(%rsp)
leaq 0x2(%rdi), %r9
imulq %rdx, %r9
vmovaps (%r11,%r9), %xmm0
vmovaps %xmm0, 0xd0(%rsp)
blsrq %r13, %r13
addq $0x3, %rdi
imulq %rdx, %rdi
vmovaps (%r11,%rdi), %xmm0
vmovaps %xmm0, 0x120(%rsp)
movq %r13, %rdi
subq $0x1, %rdi
jb 0x1cf6560
andq %r13, %rdi
tzcntq %r13, %r9
movl 0x6(%r8,%r9,4), %r9d
imulq %rcx, %r9
movl (%rax,%r9), %r9d
imulq %rdx, %r9
prefetcht0 (%r11,%r9)
prefetcht0 0x40(%r11,%r9)
testq %rdi, %rdi
je 0x1cf6560
tzcntq %rdi, %rdi
movl 0x6(%r8,%rdi,4), %edi
imulq %rdi, %rcx
movl (%rax,%rcx), %eax
imulq %rax, %rdx
prefetcht1 (%r11,%rdx)
prefetcht1 0x40(%r11,%rdx)
movl 0x248(%r14), %edi
vmovss (%rsi,%r15,4), %xmm0
vinsertps $0x1c, 0x10(%rsi,%r15,4), %xmm0, %xmm0 # xmm0 = xmm0[0],mem[0],zero,zero
vinsertps $0x28, 0x20(%rsi,%r15,4), %xmm0, %xmm0 # xmm0 = xmm0[0,1],mem[0],zero
vsubps %xmm0, %xmm13, %xmm1
vbroadcastss %xmm1, %xmm2
vshufps $0x55, %xmm1, %xmm1, %xmm3 # xmm3 = xmm1[1,1,1,1]
vshufps $0xaa, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,2,2,2]
movq 0x278(%rsp), %rax
vmovaps (%rax), %xmm4
vmovaps 0x10(%rax), %xmm5
vmovaps 0x20(%rax), %xmm6
vmulps %xmm1, %xmm6, %xmm8
vfmadd231ps %xmm3, %xmm5, %xmm8 # xmm8 = (xmm5 * xmm3) + xmm8
vfmadd231ps %xmm2, %xmm4, %xmm8 # xmm8 = (xmm4 * xmm2) + xmm8
vshufps $0xff, %xmm13, %xmm13, %xmm1 # xmm1 = xmm13[3,3,3,3]
vmovaps 0xe0(%rsp), %xmm3
vsubps %xmm0, %xmm3, %xmm2
vmovaps %xmm3, %xmm10
vbroadcastss %xmm2, %xmm3
vshufps $0x55, %xmm2, %xmm2, %xmm7 # xmm7 = xmm2[1,1,1,1]
vshufps $0xaa, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[2,2,2,2]
vmulps %xmm2, %xmm6, %xmm9
vfmadd231ps %xmm7, %xmm5, %xmm9 # xmm9 = (xmm5 * xmm7) + xmm9
vfmadd231ps %xmm3, %xmm4, %xmm9 # xmm9 = (xmm4 * xmm3) + xmm9
vshufps $0xff, %xmm10, %xmm10, %xmm2 # xmm2 = xmm10[3,3,3,3]
vmovaps 0xd0(%rsp), %xmm7
vsubps %xmm0, %xmm7, %xmm3
vmovaps %xmm7, %xmm12
vbroadcastss %xmm3, %xmm7
vshufps $0x55, %xmm3, %xmm3, %xmm11 # xmm11 = xmm3[1,1,1,1]
vshufps $0xaa, %xmm3, %xmm3, %xmm3 # xmm3 = xmm3[2,2,2,2]
vmulps %xmm3, %xmm6, %xmm10
vfmadd231ps %xmm11, %xmm5, %xmm10 # xmm10 = (xmm5 * xmm11) + xmm10
vfmadd231ps %xmm7, %xmm4, %xmm10 # xmm10 = (xmm4 * xmm7) + xmm10
vshufps $0xff, %xmm12, %xmm12, %xmm7 # xmm7 = xmm12[3,3,3,3]
vmovaps 0x120(%rsp), %xmm27
vsubps %xmm0, %xmm27, %xmm0
vbroadcastss %xmm0, %xmm3
vshufps $0x55, %xmm0, %xmm0, %xmm12 # xmm12 = xmm0[1,1,1,1]
vshufps $0xaa, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[2,2,2,2]
vmulps %xmm0, %xmm6, %xmm11
vfmadd231ps %xmm12, %xmm5, %xmm11 # xmm11 = (xmm5 * xmm12) + xmm11
vfmadd231ps %xmm3, %xmm4, %xmm11 # xmm11 = (xmm4 * xmm3) + xmm11
movslq %edi, %rax
movq %rax, %rcx
shlq $0x6, %rcx
leaq (%rcx,%rax,4), %rbx
vmovups (%r12,%rbx), %ymm25
vshufps $0xff, %xmm27, %xmm27, %xmm0 # xmm0 = xmm27[3,3,3,3]
vbroadcastss %xmm8, %ymm20
vbroadcastss 0x21c08c(%rip), %ymm3 # 0x1f12704
vpermps %ymm8, %ymm3, %ymm23
vbroadcastsd %xmm1, %ymm12
vmovups 0x484(%r12,%rbx), %ymm14
vbroadcastss %xmm9, %ymm1
vpermps %ymm9, %ymm3, %ymm31
vbroadcastsd %xmm2, %ymm21
vmovups 0x908(%r12,%rbx), %ymm15
vbroadcastss %xmm10, %ymm30
vpermps %ymm10, %ymm3, %ymm26
vbroadcastsd %xmm7, %ymm22
vmovups 0xd8c(%r12,%rbx), %ymm16
vbroadcastss %xmm11, %ymm28
vpermps %ymm11, %ymm3, %ymm29
vbroadcastsd %xmm0, %ymm3
vmulps %ymm16, %ymm28, %ymm5
vmulps %ymm16, %ymm29, %ymm4
vfmadd231ps %ymm30, %ymm15, %ymm5 # ymm5 = (ymm15 * ymm30) + ymm5
vfmadd231ps %ymm26, %ymm15, %ymm4 # ymm4 = (ymm15 * ymm26) + ymm4
vfmadd231ps %ymm1, %ymm14, %ymm5 # ymm5 = (ymm14 * ymm1) + ymm5
vfmadd231ps %ymm31, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm31) + ymm4
vfmadd231ps %ymm20, %ymm25, %ymm5 # ymm5 = (ymm25 * ymm20) + ymm5
leaq 0x432ffe(%rip), %rdx # 0x2129704
vmovups (%rdx,%rbx), %ymm2
vmovups 0x484(%rdx,%rbx), %ymm17
vfmadd231ps %ymm23, %ymm25, %ymm4 # ymm4 = (ymm25 * ymm23) + ymm4
vmovups 0x908(%rdx,%rbx), %ymm18
vmovups 0xd8c(%rdx,%rbx), %ymm19
vmulps %ymm19, %ymm28, %ymm7
vmulps %ymm19, %ymm29, %ymm6
vfmadd231ps %ymm30, %ymm18, %ymm7 # ymm7 = (ymm18 * ymm30) + ymm7
vfmadd231ps %ymm26, %ymm18, %ymm6 # ymm6 = (ymm18 * ymm26) + ymm6
vmovaps %ymm1, 0x140(%rsp)
vfmadd231ps %ymm1, %ymm17, %ymm7 # ymm7 = (ymm17 * ymm1) + ymm7
vfmadd231ps %ymm31, %ymm17, %ymm6 # ymm6 = (ymm17 * ymm31) + ymm6
vmovaps %ymm20, 0x2a0(%rsp)
vfmadd231ps %ymm20, %ymm2, %ymm7 # ymm7 = (ymm2 * ymm20) + ymm7
vmovaps %ymm23, 0x160(%rsp)
vfmadd231ps %ymm23, %ymm2, %ymm6 # ymm6 = (ymm2 * ymm23) + ymm6
vsubps %ymm5, %ymm7, %ymm24
vsubps %ymm4, %ymm6, %ymm23
vmulps %ymm24, %ymm4, %ymm0
vmulps %ymm23, %ymm5, %ymm1
vsubps %ymm1, %ymm0, %ymm20
vmulps %ymm16, %ymm3, %ymm0
vfmadd231ps %ymm22, %ymm15, %ymm0 # ymm0 = (ymm15 * ymm22) + ymm0
vfmadd231ps %ymm21, %ymm14, %ymm0 # ymm0 = (ymm14 * ymm21) + ymm0
vfmadd231ps %ymm12, %ymm25, %ymm0 # ymm0 = (ymm25 * ymm12) + ymm0
vmovaps %ymm3, 0x600(%rsp)
vmulps %ymm19, %ymm3, %ymm1
vmovaps %ymm22, 0x620(%rsp)
vfmadd231ps %ymm22, %ymm18, %ymm1 # ymm1 = (ymm18 * ymm22) + ymm1
vmovaps %ymm21, 0x680(%rsp)
vfmadd231ps %ymm21, %ymm17, %ymm1 # ymm1 = (ymm17 * ymm21) + ymm1
vmovaps %ymm12, 0x6a0(%rsp)
vfmadd231ps %ymm12, %ymm2, %ymm1 # ymm1 = (ymm2 * ymm12) + ymm1
vmulps %ymm23, %ymm23, %ymm21
vfmadd231ps %ymm24, %ymm24, %ymm21 # ymm21 = (ymm24 * ymm24) + ymm21
vmaxps %ymm1, %ymm0, %ymm22
vmulps %ymm22, %ymm22, %ymm22
vmulps %ymm21, %ymm22, %ymm21
vmulps %ymm20, %ymm20, %ymm20
vcmpleps %ymm21, %ymm20, %k1
vmovaps %xmm13, 0x40(%rsp)
vblendps $0x8, %xmm13, %xmm8, %xmm12 # xmm12 = xmm8[0,1,2],xmm13[3]
vbroadcastss 0x22a699(%rip), %xmm20 # 0x1f20ec4
vandps %xmm20, %xmm12, %xmm12
vblendps $0x8, 0xe0(%rsp), %xmm9, %xmm13 # xmm13 = xmm9[0,1,2],mem[3]
vandps %xmm20, %xmm13, %xmm13
vmaxps %xmm13, %xmm12, %xmm12
vblendps $0x8, 0xd0(%rsp), %xmm10, %xmm13 # xmm13 = xmm10[0,1,2],mem[3]
vandps %xmm20, %xmm13, %xmm13
vmovaps %xmm27, %xmm3
vblendps $0x8, %xmm3, %xmm11, %xmm3 # xmm3 = xmm11[0,1,2],xmm3[3]
vandps %xmm20, %xmm3, %xmm3
vmaxps %xmm3, %xmm13, %xmm3
vmaxps %xmm3, %xmm12, %xmm3
vmovshdup %xmm3, %xmm12 # xmm12 = xmm3[1,1,3,3]
vmaxss %xmm3, %xmm12, %xmm12
vshufpd $0x1, %xmm3, %xmm3, %xmm3 # xmm3 = xmm3[1,0]
vmaxss %xmm12, %xmm3, %xmm3
vcvtsi2ss %edi, %xmm8, %xmm12
vmovaps %xmm12, 0x320(%rsp)
vbroadcastss %xmm12, %ymm12
vcmpgtps 0x22a69f(%rip), %ymm12, %k1 {%k1} # 0x1f20f40
vmulss 0x1fa739(%rip), %xmm3, %xmm27 # 0x1ef0fe4
vbroadcastss 0x22a628(%rip), %ymm3 # 0x1f20edc
vpermps %ymm8, %ymm3, %ymm20
vpermps %ymm9, %ymm3, %ymm21
vpermps %ymm10, %ymm3, %ymm22
vpermps %ymm11, %ymm3, %ymm3
kortestb %k1, %k1
vmovss 0x30(%rsi,%r15,4), %xmm8
vmovaps %ymm31, 0x560(%rsp)
vmovaps %ymm30, 0x660(%rsp)
vmovaps %ymm26, 0x640(%rsp)
vmovaps %ymm20, 0x5e0(%rsp)
vmovaps %ymm21, 0x5c0(%rsp)
vmovaps %ymm22, 0x5a0(%rsp)
vmovaps %ymm3, 0x580(%rsp)
je 0x1cf7088
vmovaps %xmm8, 0x280(%rsp)
vmovaps %xmm27, 0x2c0(%rsp)
vmovaps %ymm3, %ymm27
vmulps %ymm19, %ymm3, %ymm3
vfmadd213ps %ymm3, %ymm22, %ymm18 # ymm18 = (ymm22 * ymm18) + ymm3
vfmadd213ps %ymm18, %ymm21, %ymm17 # ymm17 = (ymm21 * ymm17) + ymm18
vfmadd213ps %ymm17, %ymm20, %ymm2 # ymm2 = (ymm20 * ymm2) + ymm17
vmulps %ymm16, %ymm27, %ymm3
vfmadd213ps %ymm3, %ymm22, %ymm15 # ymm15 = (ymm22 * ymm15) + ymm3
vfmadd213ps %ymm15, %ymm21, %ymm14 # ymm14 = (ymm21 * ymm14) + ymm15
vmovups 0x1210(%r12,%rbx), %ymm3
vmovups 0x1694(%r12,%rbx), %ymm10
vmovups 0x1b18(%r12,%rbx), %ymm11
vmovups 0x1f9c(%r12,%rbx), %ymm12
vfmadd213ps %ymm14, %ymm20, %ymm25 # ymm25 = (ymm20 * ymm25) + ymm14
vmulps %ymm12, %ymm28, %ymm9
vmulps %ymm12, %ymm29, %ymm8
vmulps %ymm12, %ymm27, %ymm12
vfmadd231ps %ymm30, %ymm11, %ymm9 # ymm9 = (ymm11 * ymm30) + ymm9
vfmadd231ps %ymm26, %ymm11, %ymm8 # ymm8 = (ymm11 * ymm26) + ymm8
vfmadd231ps %ymm11, %ymm22, %ymm12 # ymm12 = (ymm22 * ymm11) + ymm12
vmovaps 0x140(%rsp), %ymm19
vfmadd231ps %ymm19, %ymm10, %ymm9 # ymm9 = (ymm10 * ymm19) + ymm9
vfmadd231ps %ymm31, %ymm10, %ymm8 # ymm8 = (ymm10 * ymm31) + ymm8
vfmadd231ps %ymm10, %ymm21, %ymm12 # ymm12 = (ymm21 * ymm10) + ymm12
vmovaps 0x2a0(%rsp), %ymm17
vfmadd231ps %ymm17, %ymm3, %ymm9 # ymm9 = (ymm3 * ymm17) + ymm9
vmovaps 0x160(%rsp), %ymm18
vfmadd231ps %ymm18, %ymm3, %ymm8 # ymm8 = (ymm3 * ymm18) + ymm8
vmovups 0x1210(%rdx,%rbx), %ymm10
vmovups 0x1b18(%rdx,%rbx), %ymm11
vmovups 0x1f9c(%rdx,%rbx), %ymm13
vfmadd231ps %ymm3, %ymm20, %ymm12 # ymm12 = (ymm20 * ymm3) + ymm12
vmovaps %ymm28, 0x1c0(%rsp)
vmulps %ymm13, %ymm28, %ymm3
vmovaps %ymm29, 0x1a0(%rsp)
vmulps %ymm13, %ymm29, %ymm14
vmulps %ymm13, %ymm27, %ymm13
vmovaps 0x2c0(%rsp), %xmm27
vfmadd231ps %ymm30, %ymm11, %ymm3 # ymm3 = (ymm11 * ymm30) + ymm3
vfmadd231ps %ymm26, %ymm11, %ymm14 # ymm14 = (ymm11 * ymm26) + ymm14
vfmadd231ps %ymm11, %ymm22, %ymm13 # ymm13 = (ymm22 * ymm11) + ymm13
vmovups 0x1694(%rdx,%rbx), %ymm11
vfmadd231ps %ymm19, %ymm11, %ymm3 # ymm3 = (ymm11 * ymm19) + ymm3
vfmadd231ps %ymm31, %ymm11, %ymm14 # ymm14 = (ymm11 * ymm31) + ymm14
vfmadd231ps %ymm11, %ymm21, %ymm13 # ymm13 = (ymm21 * ymm11) + ymm13
vfmadd231ps %ymm17, %ymm10, %ymm3 # ymm3 = (ymm10 * ymm17) + ymm3
vfmadd231ps %ymm18, %ymm10, %ymm14 # ymm14 = (ymm10 * ymm18) + ymm14
vfmadd231ps %ymm10, %ymm20, %ymm13 # ymm13 = (ymm20 * ymm10) + ymm13
vbroadcastss 0x22a453(%rip), %ymm15 # 0x1f20ec4
vandps %ymm15, %ymm9, %ymm10
vandps %ymm15, %ymm8, %ymm11
vmaxps %ymm11, %ymm10, %ymm10
vandps %ymm15, %ymm12, %ymm11
vmaxps %ymm11, %ymm10, %ymm10
vbroadcastss %xmm27, %ymm11
vcmpltps %ymm11, %ymm10, %k2
vmovaps %ymm24, %ymm9 {%k2}
vmovaps %ymm23, %ymm8 {%k2}
vandps %ymm3, %ymm15, %ymm10
vandps %ymm15, %ymm14, %ymm12
vmaxps %ymm12, %ymm10, %ymm10
vandps %ymm15, %ymm13, %ymm12
vmaxps %ymm12, %ymm10, %ymm10
vcmpltps %ymm11, %ymm10, %k2
vmovaps %ymm24, %ymm3 {%k2}
vmovaps %ymm23, %ymm14 {%k2}
vbroadcastss 0x22a3e9(%rip), %ymm11 # 0x1f20ec0
vxorps %ymm11, %ymm9, %ymm10
vxorps %ymm3, %ymm11, %ymm12
vxorps %xmm23, %xmm23, %xmm23
vfmadd213ps %ymm23, %ymm9, %ymm9 # ymm9 = (ymm9 * ymm9) + ymm23
vfmadd231ps %ymm8, %ymm8, %ymm9 # ymm9 = (ymm8 * ymm8) + ymm9
vrsqrt14ps %ymm9, %ymm11
vbroadcastss 0x1f5c1c(%rip), %ymm15 # 0x1eec71c
vmulps %ymm15, %ymm9, %ymm9
vmulps %ymm9, %ymm11, %ymm9
vmulps %ymm11, %ymm11, %ymm13
vmulps %ymm9, %ymm13, %ymm9
vbroadcastss 0x1f5bfa(%rip), %ymm16 # 0x1eec718
vfmadd231ps %ymm11, %ymm16, %ymm9 # ymm9 = (ymm16 * ymm11) + ymm9
vmulps %ymm9, %ymm8, %ymm11
vmulps %ymm10, %ymm9, %ymm10
vmulps %ymm23, %ymm9, %ymm13
vfmadd213ps %ymm23, %ymm3, %ymm3 # ymm3 = (ymm3 * ymm3) + ymm23
vfmadd231ps %ymm14, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm14) + ymm3
vrsqrt14ps %ymm3, %ymm8
vmulps %ymm3, %ymm15, %ymm3
vmulps %ymm3, %ymm8, %ymm3
vmulps %ymm8, %ymm8, %ymm9
vmulps %ymm3, %ymm9, %ymm3
vfmadd231ps %ymm8, %ymm16, %ymm3 # ymm3 = (ymm16 * ymm8) + ymm3
vmulps %ymm3, %ymm14, %ymm8
vmulps %ymm3, %ymm12, %ymm9
vmulps %ymm23, %ymm3, %ymm3
vmovaps %ymm11, %ymm12
vfmadd213ps %ymm5, %ymm0, %ymm12 # ymm12 = (ymm0 * ymm12) + ymm5
vmovaps %ymm10, %ymm14
vfmadd213ps %ymm4, %ymm0, %ymm14 # ymm14 = (ymm0 * ymm14) + ymm4
vmovaps %ymm13, %ymm15
vfmadd213ps %ymm25, %ymm0, %ymm15 # ymm15 = (ymm0 * ymm15) + ymm25
vmovaps %ymm8, %ymm16
vfmadd213ps %ymm7, %ymm1, %ymm16 # ymm16 = (ymm1 * ymm16) + ymm7
vfnmadd213ps %ymm5, %ymm0, %ymm11 # ymm11 = -(ymm0 * ymm11) + ymm5
vmovaps %ymm9, %ymm5
vfmadd213ps %ymm6, %ymm1, %ymm5 # ymm5 = (ymm1 * ymm5) + ymm6
vfnmadd213ps %ymm4, %ymm0, %ymm10 # ymm10 = -(ymm0 * ymm10) + ymm4
vmovaps %ymm3, %ymm4
vfmadd213ps %ymm2, %ymm1, %ymm4 # ymm4 = (ymm1 * ymm4) + ymm2
vfnmadd231ps %ymm13, %ymm0, %ymm25 # ymm25 = -(ymm0 * ymm13) + ymm25
vfnmadd213ps %ymm7, %ymm1, %ymm8 # ymm8 = -(ymm1 * ymm8) + ymm7
vfnmadd213ps %ymm6, %ymm1, %ymm9 # ymm9 = -(ymm1 * ymm9) + ymm6
vfnmadd231ps %ymm3, %ymm1, %ymm2 # ymm2 = -(ymm1 * ymm3) + ymm2
vsubps %ymm11, %ymm16, %ymm3
vsubps %ymm10, %ymm5, %ymm6
vsubps %ymm25, %ymm4, %ymm7
vmulps %ymm25, %ymm6, %ymm13
vfmsub231ps %ymm7, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm7) - ymm13
vmulps %ymm7, %ymm11, %ymm7
vfmsub231ps %ymm3, %ymm25, %ymm7 # ymm7 = (ymm25 * ymm3) - ymm7
vmulps %ymm3, %ymm10, %ymm3
vfmsub231ps %ymm6, %ymm11, %ymm3 # ymm3 = (ymm11 * ymm6) - ymm3
vfmadd231ps %ymm7, %ymm23, %ymm3 # ymm3 = (ymm23 * ymm7) + ymm3
vfmadd231ps %ymm13, %ymm23, %ymm3 # ymm3 = (ymm23 * ymm13) + ymm3
vcmpleps %ymm23, %ymm3, %k2
vmovaps %ymm12, %ymm8 {%k2}
vmovaps %ymm14, %ymm9 {%k2}
vmovaps %ymm15, %ymm2 {%k2}
vblendmps %ymm16, %ymm11, %ymm13 {%k2}
vblendmps %ymm5, %ymm10, %ymm14 {%k2}
vblendmps %ymm4, %ymm25, %ymm15 {%k2}
vmovaps %ymm11, %ymm16 {%k2}
vmovaps %ymm10, %ymm5 {%k2}
vmovaps %ymm25, %ymm4 {%k2}
vsubps %ymm8, %ymm16, %ymm6
vsubps %ymm9, %ymm5, %ymm5
vsubps %ymm2, %ymm4, %ymm11
vsubps %ymm13, %ymm8, %ymm7
vsubps %ymm14, %ymm9, %ymm10
vsubps %ymm15, %ymm2, %ymm12
vmulps %ymm8, %ymm11, %ymm4
vfmsub231ps %ymm6, %ymm2, %ymm4 # ymm4 = (ymm2 * ymm6) - ymm4
vmulps %ymm6, %ymm9, %ymm3
vfmsub231ps %ymm5, %ymm8, %ymm3 # ymm3 = (ymm8 * ymm5) - ymm3
vfmadd231ps %ymm4, %ymm23, %ymm3 # ymm3 = (ymm23 * ymm4) + ymm3
vmulps %ymm2, %ymm5, %ymm4
vfmsub231ps %ymm11, %ymm9, %ymm4 # ymm4 = (ymm9 * ymm11) - ymm4
vfmadd231ps %ymm4, %ymm23, %ymm3 # ymm3 = (ymm23 * ymm4) + ymm3
vmulps %ymm13, %ymm12, %ymm16
vfmsub231ps %ymm15, %ymm7, %ymm16 # ymm16 = (ymm7 * ymm15) - ymm16
vmulps %ymm15, %ymm10, %ymm15
vfmsub231ps %ymm12, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm12) - ymm15
vmulps %ymm7, %ymm14, %ymm4
vfmsub231ps %ymm13, %ymm10, %ymm4 # ymm4 = (ymm10 * ymm13) - ymm4
vfmadd231ps %ymm16, %ymm23, %ymm4 # ymm4 = (ymm23 * ymm16) + ymm4
vfmadd231ps %ymm15, %ymm23, %ymm4 # ymm4 = (ymm23 * ymm15) + ymm4
vmaxps %ymm4, %ymm3, %ymm13
vcmpleps %ymm23, %ymm13, %k0 {%k1}
kortestb %k0, %k0
vmovaps 0x200(%rsp), %ymm20
vmovaps 0x1e0(%rsp), %ymm21
vmovaps %ymm17, %ymm22
je 0x1cf7f67
vmulps %ymm5, %ymm12, %ymm13
vfmsub231ps %ymm11, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm11) - ymm13
vmulps %ymm7, %ymm11, %ymm11
vfmsub231ps %ymm12, %ymm6, %ymm11 # ymm11 = (ymm6 * ymm12) - ymm11
vmulps %ymm6, %ymm10, %ymm10
vfmsub231ps %ymm5, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm5) - ymm10
vxorps %xmm6, %xmm6, %xmm6
vfmadd213ps %ymm10, %ymm11, %ymm6 # ymm6 = (ymm11 * ymm6) + ymm10
vfmadd231ps %ymm23, %ymm13, %ymm6 # ymm6 = (ymm13 * ymm23) + ymm6
vrcp14ps %ymm6, %ymm7
vmovaps %ymm7, %ymm5
vfnmadd213ps 0x1f59fc(%rip){1to8}, %ymm6, %ymm5 # ymm5 = -(ymm6 * ymm5) + mem
vfmadd132ps %ymm7, %ymm7, %ymm5 # ymm5 = (ymm5 * ymm7) + ymm7
vmulps %ymm2, %ymm10, %ymm2
vfmadd231ps %ymm11, %ymm9, %ymm2 # ymm2 = (ymm9 * ymm11) + ymm2
vfmadd231ps %ymm13, %ymm8, %ymm2 # ymm2 = (ymm8 * ymm13) + ymm2
vmulps %ymm5, %ymm2, %ymm2
vmovaps 0x280(%rsp), %xmm8
vbroadcastss %xmm8, %ymm7
vcmpleps %ymm2, %ymm7, %k1
vcmpleps 0x80(%rsi,%r15,4){1to8}, %ymm2, %k1 {%k1}
kandb %k0, %k1, %k0
kortestb %k0, %k0
vmovaps 0x1c0(%rsp), %ymm28
vmovaps 0x1a0(%rsp), %ymm29
je 0x1cf7f9d
vcmpneqps %ymm23, %ymm6, %k1
ktestb %k1, %k0
vmovaps 0x40(%rsp), %xmm7
je 0x1cf7fba
kandb %k1, %k0, %k0
kmovd %k0, %eax
vmulps %ymm5, %ymm3, %ymm3
vmulps %ymm5, %ymm4, %ymm4
vbroadcastss 0x1f5979(%rip), %ymm5 # 0x1eec714
vsubps %ymm3, %ymm5, %ymm6
vmovaps %ymm3, %ymm6 {%k2}
vsubps %ymm4, %ymm5, %ymm3
vmovaps %ymm4, %ymm3 {%k2}
vmovaps %ymm3, 0x520(%rsp)
movzbl %al, %r12d
vmovaps %ymm2, %ymm3
testw %r12w, %r12w
je 0x1cf707f
vsubps %ymm0, %ymm1, %ymm1
vfmadd213ps %ymm0, %ymm6, %ymm1 # ymm1 = (ymm6 * ymm1) + ymm0
vaddps %ymm1, %ymm1, %ymm0
movq 0xc8(%rsp), %rax
vmulps (%rax,%r15,4){1to8}, %ymm0, %ymm0
vcmpnleps %ymm0, %ymm3, %k0
kmovd %k0, %eax
andb %al, %r12b
je 0x1cf707f
vbroadcastss 0x1f9bc9(%rip), %ymm0 # 0x1ef09cc
vmovaps 0x520(%rsp), %ymm1
vfmadd132ps 0x1fa1e2(%rip){1to8}, %ymm0, %ymm1 # ymm1 = (ymm1 * mem) + ymm0
vmovaps %ymm6, 0x340(%rsp)
vmovaps %ymm1, 0x520(%rsp)
vmovaps %ymm1, 0x360(%rsp)
vmovaps %ymm3, 0x380(%rsp)
movl $0x0, 0x3a0(%rsp)
movl %edi, 0x3a4(%rsp)
vmovaps %xmm7, 0x3b0(%rsp)
vmovaps 0xe0(%rsp), %xmm0
vmovaps %xmm0, 0x3c0(%rsp)
vmovaps 0xd0(%rsp), %xmm0
vmovaps %xmm0, 0x3d0(%rsp)
vmovdqa 0x120(%rsp), %xmm0
vmovdqa %xmm0, 0x3e0(%rsp)
movb %r12b, 0x3f0(%rsp)
movl 0x90(%rsi,%r15,4), %eax
testl %eax, 0x34(%r14)
je 0x1cf707f
vaddps 0x22a093(%rip), %ymm6, %ymm0 # 0x1f20f40
vmovss 0x1f585f(%rip), %xmm1 # 0x1eec714
vdivss 0x320(%rsp), %xmm1, %xmm1
vbroadcastss %xmm1, %ymm1
vmulps %ymm0, %ymm1, %ymm0
vmovaps %ymm0, 0x400(%rsp)
vmovaps 0x520(%rsp), %ymm0
vmovaps %ymm0, 0x420(%rsp)
vmovaps %ymm3, 0x440(%rsp)
kmovd %r12d, %k1
vbroadcastss 0x1f4b27(%rip), %ymm0 # 0x1eeba20
vblendmps %ymm3, %ymm0, %ymm0 {%k1}
vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm0, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1]
vminps %ymm2, %ymm1, %ymm1
vcmpeqps %ymm1, %ymm0, %k0
kmovd %k0, %eax
andb %r12b, %al
movzbl %al, %eax
movzbl %r12b, %ecx
cmovnel %eax, %ecx
tzcntl %ecx, %r9d
movq 0x10(%r10), %rax
cmpq $0x0, 0x10(%rax)
vmovaps %ymm6, 0x80(%rsp)
vmovaps %ymm3, 0x60(%rsp)
jne 0x1cf7fd1
cmpq $0x0, 0x40(%r14)
jne 0x1cf7fd1
vmovss 0x400(%rsp,%r9,4), %xmm0
vmovss 0x420(%rsp,%r9,4), %xmm1
vmovss 0x1f5797(%rip), %xmm2 # 0x1eec714
vsubss %xmm0, %xmm2, %xmm2
vmulss %xmm2, %xmm2, %xmm3
vmulss %xmm2, %xmm0, %xmm2
vmulss 0x1fa05f(%rip), %xmm3, %xmm4 # 0x1ef0ff0
vfmadd231ss 0x1f9a42(%rip), %xmm2, %xmm3 # xmm3 = (xmm2 * mem) + xmm3
vmulss %xmm0, %xmm0, %xmm5
vfmsub132ss 0x1fa051(%rip), %xmm5, %xmm2 # xmm2 = (xmm2 * mem) - xmm5
vmovss 0x1fa03d(%rip), %xmm6 # 0x1ef0fec
vmulss %xmm6, %xmm3, %xmm3
vmulss %xmm6, %xmm2, %xmm2
vmulss %xmm6, %xmm5, %xmm5
vbroadcastss %xmm5, %xmm5
vmulps 0x120(%rsp), %xmm5, %xmm5
vbroadcastss %xmm2, %xmm2
vfmadd132ps 0xd0(%rsp), %xmm5, %xmm2 # xmm2 = (xmm2 * mem) + xmm5
vmovaps 0x80(%rsp), %ymm6
vbroadcastss %xmm3, %xmm3
vfmadd132ps 0xe0(%rsp), %xmm2, %xmm3 # xmm3 = (xmm3 * mem) + xmm2
vbroadcastss %xmm4, %xmm2
vfmadd213ps %xmm3, %xmm7, %xmm2 # xmm2 = (xmm7 * xmm2) + xmm3
vmovss 0x440(%rsp,%r9,4), %xmm3
vmovss %xmm3, 0x80(%rsi,%r15,4)
vmovaps 0x60(%rsp), %ymm3
vmovss %xmm2, 0xc0(%rsi,%r15,4)
vextractps $0x1, %xmm2, 0xd0(%rsi,%r15,4)
vextractps $0x2, %xmm2, 0xe0(%rsi,%r15,4)
vmovss %xmm0, 0xf0(%rsi,%r15,4)
vmovss %xmm1, 0x100(%rsi,%r15,4)
movq 0x58(%rsp), %rax
movl %eax, 0x110(%rsi,%r15,4)
movq 0x38(%rsp), %rax
movl %eax, 0x120(%rsi,%r15,4)
movq 0x8(%r10), %rax
movl (%rax), %eax
movl %eax, 0x130(%rsi,%r15,4)
movq 0x8(%r10), %rax
movl 0x4(%rax), %eax
movl %eax, 0x140(%rsi,%r15,4)
leaq 0x43025e(%rip), %r12 # 0x21272e4
jmp 0x1cf70c5
vxorps %xmm23, %xmm23, %xmm23
vmovaps 0x80(%rsp), %ymm6
vmovaps 0x200(%rsp), %ymm20
vmovaps 0x60(%rsp), %ymm3
vmovaps 0x1e0(%rsp), %ymm21
vmovaps 0x2a0(%rsp), %ymm22
vmovaps 0x160(%rsp), %ymm18
vmovaps 0x140(%rsp), %ymm19
cmpl $0x9, %edi
jge 0x1cf70ee
vmovaps 0x6c0(%rsp), %ymm0
vcmpleps 0x80(%rsi,%r15,4){1to8}, %ymm0, %k0
kmovb %k0, %eax
andl %eax, %r13d
jne 0x1cf6452
jmp 0x1cf8490
vpbroadcastd %edi, %ymm0
vmovdqa %ymm0, 0x2c0(%rsp)
vbroadcastss %xmm27, %ymm0
vmovaps %ymm0, 0x280(%rsp)
vbroadcastss %xmm8, %ymm0
vmovaps %ymm0, 0x300(%rsp)
vmovss 0x1f55f2(%rip), %xmm0 # 0x1eec714
vdivss 0x320(%rsp), %xmm0, %xmm0
vbroadcastss %xmm0, %ymm0
vmovaps %ymm0, 0x320(%rsp)
movq 0x38(%rsp), %rax
vpbroadcastd %eax, %xmm0
vmovdqa %xmm0, 0x260(%rsp)
movq 0x58(%rsp), %rax
vpbroadcastd %eax, %xmm0
vmovdqa %xmm0, 0x250(%rsp)
movl $0x8, %r14d
vmovaps %ymm6, 0x80(%rsp)
vmovaps %ymm3, 0x60(%rsp)
vpbroadcastd %r14d, %ymm0
vpor 0x26379c(%rip), %ymm0, %ymm0 # 0x1f5a920
vpcmpltd 0x2c0(%rsp), %ymm0, %k1
leaq (%rbx,%r12), %rcx
vmovups (%rcx,%r14,4), %ymm3
vmovups 0x484(%rcx,%r14,4), %ymm10
vmovups 0x908(%rcx,%r14,4), %ymm11
vmovups 0xd8c(%rcx,%r14,4), %ymm12
vmulps %ymm12, %ymm28, %ymm5
vmulps %ymm12, %ymm29, %ymm4
vmovaps 0x600(%rsp), %ymm1
vmulps %ymm1, %ymm12, %ymm0
vmovaps 0x660(%rsp), %ymm26
vfmadd231ps %ymm26, %ymm11, %ymm5 # ymm5 = (ymm11 * ymm26) + ymm5
vmovaps 0x640(%rsp), %ymm27
vfmadd231ps %ymm27, %ymm11, %ymm4 # ymm4 = (ymm11 * ymm27) + ymm4
vmovaps 0x620(%rsp), %ymm16
vfmadd231ps %ymm16, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm16) + ymm0
vfmadd231ps %ymm19, %ymm10, %ymm5 # ymm5 = (ymm10 * ymm19) + ymm5
vmovaps 0x560(%rsp), %ymm25
vfmadd231ps %ymm25, %ymm10, %ymm4 # ymm4 = (ymm10 * ymm25) + ymm4
vmovaps 0x680(%rsp), %ymm9
vfmadd231ps %ymm9, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm9) + ymm0
vfmadd231ps %ymm22, %ymm3, %ymm5 # ymm5 = (ymm3 * ymm22) + ymm5
vfmadd231ps %ymm18, %ymm3, %ymm4 # ymm4 = (ymm3 * ymm18) + ymm4
leaq (%rbx,%rdx), %rax
vmovups (%rax,%r14,4), %ymm2
vmovups 0x484(%rax,%r14,4), %ymm13
vmovaps 0x6a0(%rsp), %ymm8
vfmadd231ps %ymm8, %ymm3, %ymm0 # ymm0 = (ymm3 * ymm8) + ymm0
vmovups 0x908(%rax,%r14,4), %ymm14
vmovups 0xd8c(%rax,%r14,4), %ymm15
vmulps %ymm15, %ymm28, %ymm7
vmulps %ymm15, %ymm29, %ymm6
vmulps %ymm1, %ymm15, %ymm1
vfmadd231ps %ymm26, %ymm14, %ymm7 # ymm7 = (ymm14 * ymm26) + ymm7
vfmadd231ps %ymm27, %ymm14, %ymm6 # ymm6 = (ymm14 * ymm27) + ymm6
vfmadd231ps %ymm16, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm16) + ymm1
vfmadd231ps %ymm19, %ymm13, %ymm7 # ymm7 = (ymm13 * ymm19) + ymm7
vfmadd231ps %ymm25, %ymm13, %ymm6 # ymm6 = (ymm13 * ymm25) + ymm6
vfmadd231ps %ymm9, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm9) + ymm1
vfmadd231ps %ymm22, %ymm2, %ymm7 # ymm7 = (ymm2 * ymm22) + ymm7
vfmadd231ps %ymm18, %ymm2, %ymm6 # ymm6 = (ymm2 * ymm18) + ymm6
vfmadd231ps %ymm8, %ymm2, %ymm1 # ymm1 = (ymm2 * ymm8) + ymm1
vmaxps %ymm1, %ymm0, %ymm16
vsubps %ymm5, %ymm7, %ymm9
vsubps %ymm4, %ymm6, %ymm8
vmovaps %ymm19, %ymm24
vmulps %ymm9, %ymm4, %ymm17
vmovaps %ymm18, %ymm19
vmulps %ymm8, %ymm5, %ymm18
vsubps %ymm18, %ymm17, %ymm17
vmulps %ymm8, %ymm8, %ymm18
vfmadd231ps %ymm9, %ymm9, %ymm18 # ymm18 = (ymm9 * ymm9) + ymm18
vmulps %ymm16, %ymm16, %ymm16
vmulps %ymm18, %ymm16, %ymm16
vmulps %ymm17, %ymm17, %ymm17
vcmpleps %ymm16, %ymm17, %k1 {%k1}
kortestb %k1, %k1
je 0x1cf7a5c
vmovaps %ymm25, %ymm16
vmovaps %ymm27, %ymm25
vmovaps %ymm26, %ymm27
vmovaps 0x580(%rsp), %ymm26
vmulps %ymm15, %ymm26, %ymm15
vmovaps 0x5a0(%rsp), %ymm31
vfmadd213ps %ymm15, %ymm31, %ymm14 # ymm14 = (ymm31 * ymm14) + ymm15
vmovaps 0x5c0(%rsp), %ymm30
vfmadd213ps %ymm14, %ymm30, %ymm13 # ymm13 = (ymm30 * ymm13) + ymm14
vmovaps 0x5e0(%rsp), %ymm18
vfmadd213ps %ymm13, %ymm18, %ymm2 # ymm2 = (ymm18 * ymm2) + ymm13
vmulps %ymm12, %ymm26, %ymm12
vfmadd213ps %ymm12, %ymm31, %ymm11 # ymm11 = (ymm31 * ymm11) + ymm12
vfmadd213ps %ymm11, %ymm30, %ymm10 # ymm10 = (ymm30 * ymm10) + ymm11
vfmadd213ps %ymm10, %ymm18, %ymm3 # ymm3 = (ymm18 * ymm3) + ymm10
vmovups 0x1210(%rcx,%r14,4), %ymm12
vmovups 0x1694(%rcx,%r14,4), %ymm13
vmovups 0x1b18(%rcx,%r14,4), %ymm14
vmovups 0x1f9c(%rcx,%r14,4), %ymm15
vmulps %ymm15, %ymm28, %ymm11
vmulps %ymm15, %ymm29, %ymm10
vmulps %ymm15, %ymm26, %ymm15
vfmadd231ps %ymm27, %ymm14, %ymm11 # ymm11 = (ymm14 * ymm27) + ymm11
vfmadd231ps %ymm25, %ymm14, %ymm10 # ymm10 = (ymm14 * ymm25) + ymm10
vfmadd231ps %ymm14, %ymm31, %ymm15 # ymm15 = (ymm31 * ymm14) + ymm15
vfmadd231ps %ymm24, %ymm13, %ymm11 # ymm11 = (ymm13 * ymm24) + ymm11
vfmadd231ps %ymm16, %ymm13, %ymm10 # ymm10 = (ymm13 * ymm16) + ymm10
vfmadd231ps %ymm13, %ymm30, %ymm15 # ymm15 = (ymm30 * ymm13) + ymm15
vfmadd231ps %ymm22, %ymm12, %ymm11 # ymm11 = (ymm12 * ymm22) + ymm11
vfmadd231ps %ymm19, %ymm12, %ymm10 # ymm10 = (ymm12 * ymm19) + ymm10
vfmadd231ps %ymm12, %ymm18, %ymm15 # ymm15 = (ymm18 * ymm12) + ymm15
vmovups 0x1210(%rax,%r14,4), %ymm13
vmovups 0x1b18(%rax,%r14,4), %ymm14
vmovups 0x1f9c(%rax,%r14,4), %ymm16
vmulps %ymm16, %ymm28, %ymm17
vmulps %ymm16, %ymm29, %ymm12
vmulps %ymm16, %ymm26, %ymm16
vfmadd231ps %ymm27, %ymm14, %ymm17 # ymm17 = (ymm14 * ymm27) + ymm17
vfmadd231ps %ymm25, %ymm14, %ymm12 # ymm12 = (ymm14 * ymm25) + ymm12
vfmadd231ps %ymm14, %ymm31, %ymm16 # ymm16 = (ymm31 * ymm14) + ymm16
vmovups 0x1694(%rax,%r14,4), %ymm14
vfmadd231ps %ymm24, %ymm14, %ymm17 # ymm17 = (ymm14 * ymm24) + ymm17
vfmadd231ps 0x560(%rsp), %ymm14, %ymm12 # ymm12 = (ymm14 * mem) + ymm12
vfmadd231ps %ymm14, %ymm30, %ymm16 # ymm16 = (ymm30 * ymm14) + ymm16
vfmadd231ps %ymm22, %ymm13, %ymm17 # ymm17 = (ymm13 * ymm22) + ymm17
vfmadd231ps %ymm19, %ymm13, %ymm12 # ymm12 = (ymm13 * ymm19) + ymm12
vfmadd231ps %ymm13, %ymm18, %ymm16 # ymm16 = (ymm18 * ymm13) + ymm16
vbroadcastss 0x229a78(%rip), %ymm18 # 0x1f20ec4
vandps %ymm18, %ymm11, %ymm13
vandps %ymm18, %ymm10, %ymm14
vmaxps %ymm14, %ymm13, %ymm13
vandps %ymm18, %ymm15, %ymm14
vmaxps %ymm14, %ymm13, %ymm13
vmovaps 0x280(%rsp), %ymm15
vcmpltps %ymm15, %ymm13, %k2
vmovaps %ymm9, %ymm11 {%k2}
vmovaps %ymm8, %ymm10 {%k2}
vandps %ymm18, %ymm17, %ymm13
vandps %ymm18, %ymm12, %ymm14
vmaxps %ymm14, %ymm13, %ymm13
vandps %ymm18, %ymm16, %ymm14
vmaxps %ymm14, %ymm13, %ymm13
vcmpltps %ymm15, %ymm13, %k2
vmovaps %ymm9, %ymm17 {%k2}
vmovaps %ymm8, %ymm12 {%k2}
vbroadcastss 0x229a04(%rip), %ymm9 # 0x1f20ec0
vxorps %ymm9, %ymm11, %ymm8
vxorps %ymm9, %ymm17, %ymm9
vfmadd213ps %ymm23, %ymm11, %ymm11 # ymm11 = (ymm11 * ymm11) + ymm23
vfmadd231ps %ymm10, %ymm10, %ymm11 # ymm11 = (ymm10 * ymm10) + ymm11
vrsqrt14ps %ymm11, %ymm13
vbroadcastss 0x1f523b(%rip), %ymm15 # 0x1eec71c
vmulps %ymm15, %ymm11, %ymm11
vmulps %ymm11, %ymm13, %ymm11
vmulps %ymm13, %ymm13, %ymm14
vmulps %ymm11, %ymm14, %ymm14
vbroadcastss 0x1f5219(%rip), %ymm16 # 0x1eec718
vfmadd231ps %ymm13, %ymm16, %ymm14 # ymm14 = (ymm16 * ymm13) + ymm14
vmulps %ymm14, %ymm10, %ymm11
vmulps %ymm8, %ymm14, %ymm10
vmulps %ymm23, %ymm14, %ymm13
vfmadd213ps %ymm23, %ymm17, %ymm17 # ymm17 = (ymm17 * ymm17) + ymm23
vfmadd231ps %ymm12, %ymm12, %ymm17 # ymm17 = (ymm12 * ymm12) + ymm17
vrsqrt14ps %ymm17, %ymm8
vmulps %ymm15, %ymm17, %ymm14
vmulps %ymm14, %ymm8, %ymm14
vmulps %ymm8, %ymm8, %ymm15
vmulps %ymm14, %ymm15, %ymm14
vfmadd231ps %ymm8, %ymm16, %ymm14 # ymm14 = (ymm16 * ymm8) + ymm14
vmulps %ymm14, %ymm12, %ymm8
vmulps %ymm9, %ymm14, %ymm9
vmulps %ymm23, %ymm14, %ymm12
vmovaps %ymm11, %ymm14
vfmadd213ps %ymm5, %ymm0, %ymm14 # ymm14 = (ymm0 * ymm14) + ymm5
vmovaps %ymm10, %ymm15
vfmadd213ps %ymm4, %ymm0, %ymm15 # ymm15 = (ymm0 * ymm15) + ymm4
vmovaps %ymm13, %ymm16
vfmadd213ps %ymm3, %ymm0, %ymm16 # ymm16 = (ymm0 * ymm16) + ymm3
vmovaps %ymm8, %ymm17
vfmadd213ps %ymm7, %ymm1, %ymm17 # ymm17 = (ymm1 * ymm17) + ymm7
vfnmadd213ps %ymm5, %ymm0, %ymm11 # ymm11 = -(ymm0 * ymm11) + ymm5
vmovaps %ymm9, %ymm5
vfmadd213ps %ymm6, %ymm1, %ymm5 # ymm5 = (ymm1 * ymm5) + ymm6
vfnmadd213ps %ymm4, %ymm0, %ymm10 # ymm10 = -(ymm0 * ymm10) + ymm4
vmovaps %ymm12, %ymm4
vfmadd213ps %ymm2, %ymm1, %ymm4 # ymm4 = (ymm1 * ymm4) + ymm2
vfnmadd231ps %ymm13, %ymm0, %ymm3 # ymm3 = -(ymm0 * ymm13) + ymm3
vfnmadd213ps %ymm7, %ymm1, %ymm8 # ymm8 = -(ymm1 * ymm8) + ymm7
vfnmadd213ps %ymm6, %ymm1, %ymm9 # ymm9 = -(ymm1 * ymm9) + ymm6
vfnmadd231ps %ymm12, %ymm1, %ymm2 # ymm2 = -(ymm1 * ymm12) + ymm2
vsubps %ymm11, %ymm17, %ymm6
vsubps %ymm10, %ymm5, %ymm7
vsubps %ymm3, %ymm4, %ymm12
vmulps %ymm3, %ymm7, %ymm13
vfmsub231ps %ymm12, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm12) - ymm13
vmulps %ymm11, %ymm12, %ymm12
vfmsub231ps %ymm6, %ymm3, %ymm12 # ymm12 = (ymm3 * ymm6) - ymm12
vmulps %ymm6, %ymm10, %ymm6
vfmsub231ps %ymm7, %ymm11, %ymm6 # ymm6 = (ymm11 * ymm7) - ymm6
vfmadd231ps %ymm12, %ymm23, %ymm6 # ymm6 = (ymm23 * ymm12) + ymm6
vfmadd231ps %ymm13, %ymm23, %ymm6 # ymm6 = (ymm23 * ymm13) + ymm6
vcmpleps %ymm23, %ymm6, %k2
vmovaps %ymm14, %ymm8 {%k2}
vmovaps %ymm15, %ymm9 {%k2}
vmovaps %ymm16, %ymm2 {%k2}
vblendmps %ymm17, %ymm11, %ymm13 {%k2}
vblendmps %ymm5, %ymm10, %ymm14 {%k2}
vblendmps %ymm4, %ymm3, %ymm15 {%k2}
vmovaps %ymm11, %ymm17 {%k2}
vmovaps %ymm10, %ymm5 {%k2}
vmovaps %ymm3, %ymm4 {%k2}
vsubps %ymm8, %ymm17, %ymm6
vsubps %ymm9, %ymm5, %ymm5
vsubps %ymm2, %ymm4, %ymm11
vsubps %ymm13, %ymm8, %ymm7
vsubps %ymm14, %ymm9, %ymm10
vsubps %ymm15, %ymm2, %ymm12
vmulps %ymm8, %ymm11, %ymm4
vfmsub231ps %ymm6, %ymm2, %ymm4 # ymm4 = (ymm2 * ymm6) - ymm4
vmulps %ymm6, %ymm9, %ymm3
vfmsub231ps %ymm5, %ymm8, %ymm3 # ymm3 = (ymm8 * ymm5) - ymm3
vfmadd231ps %ymm4, %ymm23, %ymm3 # ymm3 = (ymm23 * ymm4) + ymm3
vmulps %ymm2, %ymm5, %ymm4
vfmsub231ps %ymm11, %ymm9, %ymm4 # ymm4 = (ymm9 * ymm11) - ymm4
vfmadd231ps %ymm4, %ymm23, %ymm3 # ymm3 = (ymm23 * ymm4) + ymm3
vmulps %ymm13, %ymm12, %ymm16
vfmsub231ps %ymm15, %ymm7, %ymm16 # ymm16 = (ymm7 * ymm15) - ymm16
vmulps %ymm15, %ymm10, %ymm15
vfmsub231ps %ymm12, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm12) - ymm15
vmulps %ymm7, %ymm14, %ymm4
vfmsub231ps %ymm13, %ymm10, %ymm4 # ymm4 = (ymm10 * ymm13) - ymm4
vfmadd231ps %ymm16, %ymm23, %ymm4 # ymm4 = (ymm23 * ymm16) + ymm4
vfmadd231ps %ymm15, %ymm23, %ymm4 # ymm4 = (ymm23 * ymm15) + ymm4
vmaxps %ymm4, %ymm3, %ymm13
vcmpleps %ymm23, %ymm13, %k0 {%k1}
kortestb %k0, %k0
je 0x1cf7a89
vmulps %ymm5, %ymm12, %ymm13
vfmsub231ps %ymm11, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm11) - ymm13
vmulps %ymm7, %ymm11, %ymm11
vfmsub231ps %ymm12, %ymm6, %ymm11 # ymm11 = (ymm6 * ymm12) - ymm11
vmulps %ymm6, %ymm10, %ymm10
vfmsub231ps %ymm5, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm5) - ymm10
vxorps %xmm6, %xmm6, %xmm6
vfmadd213ps %ymm10, %ymm11, %ymm6 # ymm6 = (ymm11 * ymm6) + ymm10
vfmadd231ps %ymm23, %ymm13, %ymm6 # ymm6 = (ymm13 * ymm23) + ymm6
vrcp14ps %ymm6, %ymm7
vmovaps %ymm7, %ymm5
vfnmadd213ps 0x1f502e(%rip){1to8}, %ymm6, %ymm5 # ymm5 = -(ymm6 * ymm5) + mem
vfmadd132ps %ymm7, %ymm7, %ymm5 # ymm5 = (ymm5 * ymm7) + ymm7
vmulps %ymm2, %ymm10, %ymm2
vfmadd231ps %ymm11, %ymm9, %ymm2 # ymm2 = (ymm9 * ymm11) + ymm2
vfmadd231ps %ymm13, %ymm8, %ymm2 # ymm2 = (ymm8 * ymm13) + ymm2
vmulps %ymm5, %ymm2, %ymm2
vcmpgeps 0x300(%rsp), %ymm2, %k1
vcmpleps 0x80(%rsi,%r15,4){1to8}, %ymm2, %k1 {%k1}
kandb %k0, %k1, %k0
kortestb %k0, %k0
je 0x1cf7a89
vcmpneqps %ymm23, %ymm6, %k1
ktestb %k1, %k0
vmovaps 0x40(%rsp), %xmm7
vmovaps 0x160(%rsp), %ymm18
vmovaps 0x140(%rsp), %ymm19
je 0x1cf7ab6
kandb %k1, %k0, %k0
kmovd %k0, %eax
vmulps %ymm5, %ymm3, %ymm3
vmulps %ymm5, %ymm4, %ymm4
vbroadcastss 0x1f4fb7(%rip), %ymm5 # 0x1eec714
vsubps %ymm3, %ymm5, %ymm20
vmovaps %ymm3, %ymm20 {%k2}
vsubps %ymm4, %ymm5, %ymm3
vmovaps %ymm4, %ymm3 {%k2}
vmovaps %ymm3, 0x500(%rsp)
movzbl %al, %r9d
vmovaps %ymm2, %ymm21
vmovaps 0x80(%rsp), %ymm6
vmovaps 0x60(%rsp), %ymm3
testw %r9w, %r9w
je 0x1cf7a77
vsubps %ymm0, %ymm1, %ymm1
vfmadd213ps %ymm0, %ymm20, %ymm1 # ymm1 = (ymm20 * ymm1) + ymm0
vaddps %ymm1, %ymm1, %ymm0
movq 0xc8(%rsp), %rax
vmulps (%rax,%r15,4){1to8}, %ymm0, %ymm0
vcmpnleps %ymm0, %ymm21, %k0
kmovd %k0, %eax
andb %al, %r9b
je 0x1cf7a77
vbroadcastss 0x1f91f3(%rip), %ymm0 # 0x1ef09cc
vmovaps 0x500(%rsp), %ymm1
vfmadd132ps 0x1f980c(%rip){1to8}, %ymm0, %ymm1 # ymm1 = (ymm1 * mem) + ymm0
vmovaps %ymm20, 0x340(%rsp)
vmovaps %ymm1, 0x500(%rsp)
vmovaps %ymm1, 0x360(%rsp)
vmovaps %ymm21, 0x380(%rsp)
movl %r14d, 0x3a0(%rsp)
movl %edi, 0x3a4(%rsp)
vmovaps %xmm7, 0x3b0(%rsp)
vmovaps 0xe0(%rsp), %xmm0
vmovaps %xmm0, 0x3c0(%rsp)
vmovaps 0xd0(%rsp), %xmm0
vmovaps %xmm0, 0x3d0(%rsp)
vmovdqa 0x120(%rsp), %xmm0
vmovdqa %xmm0, 0x3e0(%rsp)
movb %r9b, 0x3f0(%rsp)
movq (%r10), %rax
movq 0x1e8(%rax), %rax
movq 0x38(%rsp), %rcx
movq (%rax,%rcx,8), %r11
movl 0x90(%rsi,%r15,4), %eax
testl %eax, 0x34(%r11)
je 0x1cf7a53
vaddps 0x2296ad(%rip), %ymm20, %ymm0 # 0x1f20f40
vcvtsi2ss %r14d, %xmm22, %xmm1
vbroadcastss %xmm1, %ymm1
vaddps %ymm0, %ymm1, %ymm0
vmulps 0x320(%rsp), %ymm0, %ymm0
vmovaps %ymm0, 0x400(%rsp)
vmovaps 0x500(%rsp), %ymm0
vmovaps %ymm0, 0x420(%rsp)
vmovaps %ymm21, 0x440(%rsp)
kmovd %r9d, %k1
vbroadcastss 0x1f4144(%rip), %ymm0 # 0x1eeba20
vblendmps %ymm21, %ymm0, %ymm0 {%k1}
vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm0, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1]
vminps %ymm2, %ymm1, %ymm1
vcmpeqps %ymm1, %ymm0, %k0
kmovd %k0, %eax
andb %r9b, %al
movzbl %al, %eax
movzbl %r9b, %ecx
cmovnel %eax, %ecx
tzcntl %ecx, %r12d
movq 0x10(%r10), %rax
cmpq $0x0, 0x10(%rax)
jne 0x1cf7abe
cmpq $0x0, 0x40(%r11)
jne 0x1cf7abe
vmovss 0x400(%rsp,%r12,4), %xmm0
vmovss 0x420(%rsp,%r12,4), %xmm1
vmovss 0x1f4dc3(%rip), %xmm2 # 0x1eec714
vsubss %xmm0, %xmm2, %xmm2
vmulss %xmm2, %xmm2, %xmm3
vmulss %xmm2, %xmm0, %xmm2
vmulss 0x1f968b(%rip), %xmm3, %xmm4 # 0x1ef0ff0
vfmadd231ss 0x1f906e(%rip), %xmm2, %xmm3 # xmm3 = (xmm2 * mem) + xmm3
vmulss %xmm0, %xmm0, %xmm5
vfmsub132ss 0x1f967d(%rip), %xmm5, %xmm2 # xmm2 = (xmm2 * mem) - xmm5
vmovss 0x1f9669(%rip), %xmm6 # 0x1ef0fec
vmulss %xmm6, %xmm3, %xmm3
vmulss %xmm6, %xmm2, %xmm2
vmulss %xmm6, %xmm5, %xmm5
vbroadcastss %xmm5, %xmm5
vmulps 0x120(%rsp), %xmm5, %xmm5
vbroadcastss %xmm2, %xmm2
vfmadd132ps 0xd0(%rsp), %xmm5, %xmm2 # xmm2 = (xmm2 * mem) + xmm5
vbroadcastss %xmm3, %xmm3
vfmadd132ps 0xe0(%rsp), %xmm2, %xmm3 # xmm3 = (xmm3 * mem) + xmm2
vbroadcastss %xmm4, %xmm2
vfmadd213ps %xmm3, %xmm7, %xmm2 # xmm2 = (xmm7 * xmm2) + xmm3
vmovss 0x440(%rsp,%r12,4), %xmm3
vmovss %xmm3, 0x80(%rsi,%r15,4)
vmovss %xmm2, 0xc0(%rsi,%r15,4)
vextractps $0x1, %xmm2, 0xd0(%rsi,%r15,4)
vextractps $0x2, %xmm2, 0xe0(%rsi,%r15,4)
vmovss %xmm0, 0xf0(%rsi,%r15,4)
vmovss %xmm1, 0x100(%rsi,%r15,4)
movq 0x58(%rsp), %rax
movl %eax, 0x110(%rsi,%r15,4)
movq 0x38(%rsp), %rax
movl %eax, 0x120(%rsi,%r15,4)
movq 0x8(%r10), %rax
movl (%rax), %eax
movl %eax, 0x130(%rsi,%r15,4)
movq 0x8(%r10), %rax
movl 0x4(%rax), %eax
movl %eax, 0x140(%rsi,%r15,4)
vmovaps 0x80(%rsp), %ymm6
vmovaps 0x60(%rsp), %ymm3
leaq 0x42f88a(%rip), %r12 # 0x21272e4
jmp 0x1cf7a77
vmovaps 0x80(%rsp), %ymm6
vmovaps 0x60(%rsp), %ymm3
vmovaps %ymm19, %ymm18
vmovaps %ymm24, %ymm19
addq $0x8, %r14
cmpl %r14d, %edi
jg 0x1cf7176
jmp 0x1cf70ca
xorl %r9d, %r9d
vmovaps 0x80(%rsp), %ymm6
vmovaps 0x60(%rsp), %ymm3
vmovaps 0x40(%rsp), %xmm7
vmovaps 0x160(%rsp), %ymm18
vmovaps 0x140(%rsp), %ymm19
jmp 0x1cf7795
xorl %r9d, %r9d
jmp 0x1cf7786
vmovaps 0x3c0(%rsp), %xmm0
vmovaps %xmm0, 0x230(%rsp)
vmovaps 0x3d0(%rsp), %xmm0
vmovaps %xmm0, 0x220(%rsp)
vmovaps 0x3e0(%rsp), %xmm0
vmovaps %xmm0, 0x550(%rsp)
vmovaps %ymm20, 0x200(%rsp)
vmovaps %ymm21, 0x1e0(%rsp)
movq %r11, 0x138(%rsp)
movq %r8, 0x30(%rsp)
movq %r10, 0x28(%rsp)
movq %rsi, 0x20(%rsp)
movl %edi, 0x1c(%rsp)
vmovaps %ymm28, 0x1c0(%rsp)
vmovaps %ymm29, 0x1a0(%rsp)
vmovss 0x80(%rsi,%r15,4), %xmm0
vmovss %xmm0, 0x240(%rsp)
vmovss 0x440(%rsp,%r12,4), %xmm0
vbroadcastss 0x400(%rsp,%r12,4), %xmm1
vbroadcastss 0x420(%rsp,%r12,4), %xmm2
vmovss %xmm0, 0x80(%rsi,%r15,4)
movq 0x8(%r10), %rax
vmovss 0x1f4b9e(%rip), %xmm0 # 0x1eec714
vsubss %xmm1, %xmm0, %xmm0
vmulss %xmm0, %xmm0, %xmm3
vmulss %xmm0, %xmm1, %xmm0
vmulss 0x1f9466(%rip), %xmm3, %xmm4 # 0x1ef0ff0
vfmadd231ss 0x1f8e49(%rip), %xmm0, %xmm3 # xmm3 = (xmm0 * mem) + xmm3
vmulss %xmm1, %xmm1, %xmm5
vfmsub132ss 0x1f9458(%rip), %xmm5, %xmm0 # xmm0 = (xmm0 * mem) - xmm5
vmovss 0x1f9444(%rip), %xmm6 # 0x1ef0fec
vmulss %xmm6, %xmm3, %xmm3
vmulss %xmm6, %xmm0, %xmm0
vmulss %xmm6, %xmm5, %xmm5
vbroadcastss %xmm5, %xmm5
vmulps 0x550(%rsp), %xmm5, %xmm5
vbroadcastss %xmm0, %xmm0
vfmadd132ps 0x220(%rsp), %xmm5, %xmm0 # xmm0 = (xmm0 * mem) + xmm5
vbroadcastss %xmm3, %xmm3
vfmadd132ps 0x230(%rsp), %xmm0, %xmm3 # xmm3 = (xmm3 * mem) + xmm0
vbroadcastss %xmm4, %xmm0
vfmadd213ps %xmm3, %xmm7, %xmm0 # xmm0 = (xmm7 * xmm0) + xmm3
vbroadcastss %xmm0, %xmm3
vshufps $0x55, %xmm0, %xmm0, %xmm4 # xmm4 = xmm0[1,1,1,1]
vshufps $0xaa, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[2,2,2,2]
vmovaps %xmm3, 0x470(%rsp)
vmovaps %xmm4, 0x480(%rsp)
vmovaps %xmm0, 0x490(%rsp)
vmovaps %xmm1, 0x4a0(%rsp)
vmovaps %xmm2, 0x4b0(%rsp)
vmovaps 0x250(%rsp), %xmm0
vmovaps %xmm0, 0x4c0(%rsp)
vmovdqa 0x260(%rsp), %xmm0
vmovdqa %xmm0, 0x4d0(%rsp)
leaq 0x4e0(%rsp), %rcx
vpcmpeqd %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, (%rcx)
vbroadcastss (%rax), %xmm0
vmovaps %xmm0, 0x4e0(%rsp)
vbroadcastss 0x4(%rax), %xmm0
vmovaps %xmm0, 0x4f0(%rsp)
vmovaps 0x2f0(%rsp), %xmm0
vmovaps %xmm0, 0xb0(%rsp)
leaq 0xb0(%rsp), %rcx
movq %rcx, 0xf0(%rsp)
movq 0x18(%r11), %rcx
movq %rcx, 0xf8(%rsp)
movq %rax, 0x100(%rsp)
movq %rsi, 0x108(%rsp)
leaq 0x470(%rsp), %rax
movq %rax, 0x110(%rsp)
movl $0x4, 0x118(%rsp)
movq 0x40(%r11), %rax
testq %rax, %rax
movl %r9d, 0x190(%rsp)
je 0x1cf7d5c
leaq 0xf0(%rsp), %rdi
vzeroupper
callq *%rax
movq 0x138(%rsp), %r11
movl 0x190(%rsp), %r9d
vmovaps 0x1a0(%rsp), %ymm29
vmovaps 0x1c0(%rsp), %ymm28
vmovaps 0x140(%rsp), %ymm19
vmovaps 0x160(%rsp), %ymm18
vmovaps 0x2a0(%rsp), %ymm22
movl 0x1c(%rsp), %edi
vmovaps 0x40(%rsp), %xmm7
vmovaps 0x1e0(%rsp), %ymm21
vmovaps 0x200(%rsp), %ymm20
vxorps %xmm23, %xmm23, %xmm23
leaq 0x4319b7(%rip), %rdx # 0x2129704
movq 0x20(%rsp), %rsi
movq 0x28(%rsp), %r10
movq 0x30(%rsp), %r8
vmovdqa 0xb0(%rsp), %xmm0
vptestmd %xmm0, %xmm0, %k0
kortestb %k0, %k0
vmovaps 0x80(%rsp), %ymm6
vmovaps 0x60(%rsp), %ymm3
je 0x1cf7ec8
movq 0x10(%r10), %rcx
movq 0x10(%rcx), %rax
testq %rax, %rax
je 0x1cf7e2f
testb $0x2, (%rcx)
jne 0x1cf7da5
testb $0x40, 0x3e(%r11)
je 0x1cf7e2f
leaq 0xf0(%rsp), %rdi
vzeroupper
callq *%rax
movq 0x138(%rsp), %r11
movl 0x190(%rsp), %r9d
vmovaps 0x1a0(%rsp), %ymm29
vmovaps 0x1c0(%rsp), %ymm28
vmovaps 0x140(%rsp), %ymm19
vmovaps 0x160(%rsp), %ymm18
vmovaps 0x2a0(%rsp), %ymm22
movl 0x1c(%rsp), %edi
vmovaps 0x40(%rsp), %xmm7
vmovaps 0x1e0(%rsp), %ymm21
vmovaps 0x60(%rsp), %ymm3
vmovaps 0x200(%rsp), %ymm20
vmovaps 0x80(%rsp), %ymm6
vxorps %xmm23, %xmm23, %xmm23
leaq 0x4318e4(%rip), %rdx # 0x2129704
movq 0x20(%rsp), %rsi
movq 0x28(%rsp), %r10
movq 0x30(%rsp), %r8
vmovdqa 0xb0(%rsp), %xmm0
vptestmd %xmm0, %xmm0, %k1
kortestb %k1, %k1
je 0x1cf7ec8
movq 0x108(%rsp), %rax
movq 0x110(%rsp), %rcx
vmovaps (%rcx), %xmm0
vmovups %xmm0, 0xc0(%rax) {%k1}
vmovaps 0x10(%rcx), %xmm0
vmovups %xmm0, 0xd0(%rax) {%k1}
vmovaps 0x20(%rcx), %xmm0
vmovups %xmm0, 0xe0(%rax) {%k1}
vmovaps 0x30(%rcx), %xmm0
vmovups %xmm0, 0xf0(%rax) {%k1}
vmovaps 0x40(%rcx), %xmm0
vmovups %xmm0, 0x100(%rax) {%k1}
vmovdqa 0x50(%rcx), %xmm0
vmovdqu32 %xmm0, 0x110(%rax) {%k1}
vmovdqa 0x60(%rcx), %xmm0
vmovdqu32 %xmm0, 0x120(%rax) {%k1}
vmovdqa 0x70(%rcx), %xmm0
vmovdqa32 %xmm0, 0x130(%rax) {%k1}
vmovdqa 0x80(%rcx), %xmm0
vmovdqa32 %xmm0, 0x140(%rax) {%k1}
jmp 0x1cf7edb
vmovd 0x240(%rsp), %xmm0
vmovd %xmm0, 0x80(%rsi,%r15,4)
movl $0x1, %eax
shlxl %r12d, %eax, %eax
kmovd %eax, %k0
movzbl %r9b, %eax
kmovd %eax, %k1
kandnb %k1, %k0, %k0
vcmpleps 0x80(%rsi,%r15,4){1to8}, %ymm21, %k1
kandb %k1, %k0, %k2
kmovd %k2, %r9d
ktestb %k1, %k0
je 0x1cf7f59
kmovd %r9d, %k1
vbroadcastss 0x1f3b06(%rip), %ymm0 # 0x1eeba20
vblendmps %ymm21, %ymm0, %ymm0 {%k1}
vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm0, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1]
vminps %ymm2, %ymm1, %ymm1
vcmpeqps %ymm1, %ymm0, %k0
kmovd %k0, %eax
andb %r9b, %al
movzbl %al, %eax
movzbl %r9b, %ecx
cmovnel %eax, %ecx
tzcntl %ecx, %r12d
testb %r9b, %r9b
jne 0x1cf7b2f
jmp 0x1cf7a53
xorl %r12d, %r12d
vmovaps 0x80(%rsp), %ymm6
vmovaps 0x60(%rsp), %ymm3
vmovaps 0x40(%rsp), %xmm7
vmovaps 0x1c0(%rsp), %ymm28
vmovaps 0x1a0(%rsp), %ymm29
vmovaps 0x280(%rsp), %xmm8
jmp 0x1cf6dc0
xorl %r12d, %r12d
vmovaps 0x80(%rsp), %ymm6
vmovaps 0x60(%rsp), %ymm3
vmovaps 0x40(%rsp), %xmm7
jmp 0x1cf6dc0
xorl %r12d, %r12d
vmovaps 0x80(%rsp), %ymm6
vmovaps 0x60(%rsp), %ymm3
jmp 0x1cf6dc0
movq 0x38(%rsp), %rax
vpbroadcastd %eax, %xmm0
vmovdqa %xmm0, 0x250(%rsp)
movq 0x58(%rsp), %rax
vpbroadcastd %eax, %xmm0
vmovdqa %xmm0, 0x190(%rsp)
vmovaps 0x3c0(%rsp), %xmm0
vmovaps %xmm0, 0x240(%rsp)
vmovaps 0x3d0(%rsp), %xmm0
vmovaps %xmm0, 0x230(%rsp)
vmovaps 0x3e0(%rsp), %xmm0
vmovaps %xmm0, 0x220(%rsp)
movq %r8, 0x30(%rsp)
movq %r10, 0x28(%rsp)
movq %rsi, 0x20(%rsp)
movl %edi, 0x1c(%rsp)
vmovss 0x80(%rsi,%r15,4), %xmm0
vmovss %xmm0, 0x260(%rsp)
vmovss 0x440(%rsp,%r9,4), %xmm0
vbroadcastss 0x400(%rsp,%r9,4), %xmm1
vbroadcastss 0x420(%rsp,%r9,4), %xmm2
vmovss %xmm0, 0x80(%rsi,%r15,4)
movq 0x8(%r10), %rax
vmovss 0x1f468b(%rip), %xmm0 # 0x1eec714
vsubss %xmm1, %xmm0, %xmm0
vmulss %xmm0, %xmm0, %xmm3
vmulss %xmm0, %xmm1, %xmm0
vmulss 0x1f8f53(%rip), %xmm3, %xmm4 # 0x1ef0ff0
vfmadd231ss 0x1f8936(%rip), %xmm0, %xmm3 # xmm3 = (xmm0 * mem) + xmm3
vmulss %xmm1, %xmm1, %xmm5
vfmsub132ss 0x1f8f45(%rip), %xmm5, %xmm0 # xmm0 = (xmm0 * mem) - xmm5
vmovss 0x1f8f31(%rip), %xmm6 # 0x1ef0fec
vmulss %xmm6, %xmm3, %xmm3
vmulss %xmm6, %xmm0, %xmm0
vmulss %xmm6, %xmm5, %xmm5
vbroadcastss %xmm5, %xmm5
vmulps 0x220(%rsp), %xmm5, %xmm5
vbroadcastss %xmm0, %xmm0
vfmadd132ps 0x230(%rsp), %xmm5, %xmm0 # xmm0 = (xmm0 * mem) + xmm5
vbroadcastss %xmm3, %xmm3
vfmadd132ps 0x240(%rsp), %xmm0, %xmm3 # xmm3 = (xmm3 * mem) + xmm0
vbroadcastss %xmm4, %xmm0
vfmadd213ps %xmm3, %xmm7, %xmm0 # xmm0 = (xmm7 * xmm0) + xmm3
vbroadcastss %xmm0, %xmm3
vshufps $0x55, %xmm0, %xmm0, %xmm4 # xmm4 = xmm0[1,1,1,1]
vshufps $0xaa, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[2,2,2,2]
vmovaps %xmm3, 0x470(%rsp)
vmovaps %xmm4, 0x480(%rsp)
vmovaps %xmm0, 0x490(%rsp)
vmovaps %xmm1, 0x4a0(%rsp)
vmovaps %xmm2, 0x4b0(%rsp)
vmovaps 0x190(%rsp), %xmm0
vmovaps %xmm0, 0x4c0(%rsp)
vmovdqa 0x250(%rsp), %xmm0
vmovdqa %xmm0, 0x4d0(%rsp)
leaq 0x4e0(%rsp), %rcx
vpcmpeqd %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, (%rcx)
vbroadcastss (%rax), %xmm0
vmovaps %xmm0, 0x4e0(%rsp)
vbroadcastss 0x4(%rax), %xmm0
vmovaps %xmm0, 0x4f0(%rsp)
vmovaps 0x2f0(%rsp), %xmm0
vmovaps %xmm0, 0xb0(%rsp)
leaq 0xb0(%rsp), %rcx
movq %rcx, 0xf0(%rsp)
movq 0x18(%r14), %rcx
movq %rcx, 0xf8(%rsp)
movq %rax, 0x100(%rsp)
movq %rsi, 0x108(%rsp)
leaq 0x470(%rsp), %rax
movq %rax, 0x110(%rsp)
movl $0x4, 0x118(%rsp)
movq 0x40(%r14), %rax
testq %rax, %rax
movq %r9, 0x300(%rsp)
je 0x1cf827c
leaq 0xf0(%rsp), %rdi
vzeroupper
callq *%rax
movq 0x300(%rsp), %r9
vmovaps 0x280(%rsp), %xmm8
vmovaps 0x2c0(%rsp), %xmm27
vmovaps 0x1a0(%rsp), %ymm29
vmovaps 0x1c0(%rsp), %ymm28
vmovaps 0x140(%rsp), %ymm19
vmovaps 0x160(%rsp), %ymm18
vmovaps 0x2a0(%rsp), %ymm22
movl 0x1c(%rsp), %edi
vmovaps 0x40(%rsp), %xmm7
vmovaps 0x1e0(%rsp), %ymm21
vmovaps 0x200(%rsp), %ymm20
vxorps %xmm23, %xmm23, %xmm23
leaq 0x431497(%rip), %rdx # 0x2129704
movq 0x20(%rsp), %rsi
movq 0x28(%rsp), %r10
movq 0x30(%rsp), %r8
vmovdqa 0xb0(%rsp), %xmm0
vptestmd %xmm0, %xmm0, %k0
kortestb %k0, %k0
vmovaps 0x80(%rsp), %ymm6
vmovaps 0x60(%rsp), %ymm3
je 0x1cf83f1
movq 0x10(%r10), %rcx
movq 0x10(%rcx), %rax
testq %rax, %rax
je 0x1cf8358
testb $0x2, (%rcx)
jne 0x1cf82c5
testb $0x40, 0x3e(%r14)
je 0x1cf8358
leaq 0xf0(%rsp), %rdi
vzeroupper
callq *%rax
movq 0x300(%rsp), %r9
vmovaps 0x280(%rsp), %xmm8
vmovaps 0x2c0(%rsp), %xmm27
vmovaps 0x1a0(%rsp), %ymm29
vmovaps 0x1c0(%rsp), %ymm28
vmovaps 0x140(%rsp), %ymm19
vmovaps 0x160(%rsp), %ymm18
vmovaps 0x2a0(%rsp), %ymm22
movl 0x1c(%rsp), %edi
vmovaps 0x40(%rsp), %xmm7
vmovaps 0x1e0(%rsp), %ymm21
vmovaps 0x60(%rsp), %ymm3
vmovaps 0x200(%rsp), %ymm20
vmovaps 0x80(%rsp), %ymm6
vxorps %xmm23, %xmm23, %xmm23
leaq 0x4313bb(%rip), %rdx # 0x2129704
movq 0x20(%rsp), %rsi
movq 0x28(%rsp), %r10
movq 0x30(%rsp), %r8
vmovdqa 0xb0(%rsp), %xmm0
vptestmd %xmm0, %xmm0, %k1
kortestb %k1, %k1
je 0x1cf83f1
movq 0x108(%rsp), %rax
movq 0x110(%rsp), %rcx
vmovaps (%rcx), %xmm0
vmovups %xmm0, 0xc0(%rax) {%k1}
vmovaps 0x10(%rcx), %xmm0
vmovups %xmm0, 0xd0(%rax) {%k1}
vmovaps 0x20(%rcx), %xmm0
vmovups %xmm0, 0xe0(%rax) {%k1}
vmovaps 0x30(%rcx), %xmm0
vmovups %xmm0, 0xf0(%rax) {%k1}
vmovaps 0x40(%rcx), %xmm0
vmovups %xmm0, 0x100(%rax) {%k1}
vmovdqa 0x50(%rcx), %xmm0
vmovdqu32 %xmm0, 0x110(%rax) {%k1}
vmovdqa 0x60(%rcx), %xmm0
vmovdqu32 %xmm0, 0x120(%rax) {%k1}
vmovdqa 0x70(%rcx), %xmm0
vmovdqa32 %xmm0, 0x130(%rax) {%k1}
vmovdqa 0x80(%rcx), %xmm0
vmovdqa32 %xmm0, 0x140(%rax) {%k1}
jmp 0x1cf8404
vmovd 0x260(%rsp), %xmm0
vmovd %xmm0, 0x80(%rsi,%r15,4)
movl $0x1, %eax
shlxl %r9d, %eax, %eax
kmovd %eax, %k0
movzbl %r12b, %eax
kmovd %eax, %k1
kandnb %k1, %k0, %k0
vcmpleps 0x80(%rsi,%r15,4){1to8}, %ymm3, %k1
kandb %k1, %k0, %k2
kmovd %k2, %r12d
ktestb %k1, %k0
je 0x1cf8482
kmovd %r12d, %k1
vbroadcastss 0x1f35dd(%rip), %ymm0 # 0x1eeba20
vblendmps %ymm3, %ymm0, %ymm0 {%k1}
vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm0, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1]
vminps %ymm2, %ymm1, %ymm1
vcmpeqps %ymm1, %ymm0, %k0
kmovd %k0, %eax
andb %r12b, %al
movzbl %al, %eax
movzbl %r12b, %ecx
cmovnel %eax, %ecx
tzcntl %ecx, %r9d
testb %r12b, %r12b
jne 0x1cf8042
jmp 0x1cf707f
leaq -0x28(%rbp), %rsp
popq %rbx
popq %r12
popq %r13
popq %r14
popq %r15
popq %rbp
vzeroupper
retq
|
/embree[P]embree/kernels/geometry/curveNi_intersector.h
|
bool embree::avx512::CurveNiIntersectorK<8, 4>::occluded_t<embree::avx512::RibbonCurve1IntersectorK<embree::BezierCurveT, 4, 8>, embree::avx512::Occluded1KEpilogMU<8, 4, true>>(embree::avx512::CurvePrecalculationsK<4>&, embree::RayK<4>&, unsigned long, embree::RayQueryContext*, embree::CurveNi<8> const&)
|
static __forceinline bool occluded_t(Precalculations& pre, RayK<K>& ray, const size_t k, RayQueryContext* context, const Primitive& prim)
{
vfloat<M> tNear;
vbool<M> valid = intersect(ray,k,prim,tNear);
const size_t N = prim.N;
size_t mask = movemask(valid);
while (mask)
{
const size_t i = bscf(mask);
STAT3(shadow.trav_prims,1,1,1);
const unsigned int geomID = prim.geomID(N);
const unsigned int primID = prim.primID(N)[i];
const CurveGeometry* geom = context->scene->get<CurveGeometry>(geomID);
Vec3ff a0,a1,a2,a3; geom->gather(a0,a1,a2,a3,geom->curve(primID));
size_t mask1 = mask;
const size_t i1 = bscf(mask1);
if (mask) {
const unsigned int primID1 = prim.primID(N)[i1];
geom->prefetchL1_vertices(geom->curve(primID1));
if (mask1) {
const size_t i2 = bsf(mask1);
const unsigned int primID2 = prim.primID(N)[i2];
geom->prefetchL2_vertices(geom->curve(primID2));
}
}
if (Intersector().intersect(pre,ray,k,context,geom,primID,a0,a1,a2,a3,Epilog(ray,k,context,geomID,primID)))
return true;
mask &= movemask(tNear <= vfloat<M>(ray.tfar[k]));
}
return false;
}
|
pushq %rbp
movq %rsp, %rbp
pushq %r15
pushq %r14
pushq %r13
pushq %r12
pushq %rbx
andq $-0x20, %rsp
subq $0x6c0, %rsp # imm = 0x6C0
movq %rdx, %r14
movq %rsi, %r15
movzbl 0x1(%r8), %eax
leaq (%rax,%rax,4), %rdx
leaq (%rdx,%rdx,4), %rsi
vbroadcastss 0x12(%r8,%rsi), %xmm0
vmovss (%r15,%r14,4), %xmm1
vmovss 0x40(%r15,%r14,4), %xmm2
vinsertps $0x10, 0x10(%r15,%r14,4), %xmm1, %xmm1 # xmm1 = xmm1[0],mem[0],xmm1[2,3]
vinsertps $0x20, 0x20(%r15,%r14,4), %xmm1, %xmm1 # xmm1 = xmm1[0,1],mem[0],xmm1[3]
vinsertps $0x10, 0x50(%r15,%r14,4), %xmm2, %xmm2 # xmm2 = xmm2[0],mem[0],xmm2[2,3]
movq %rcx, %r10
movq %rdi, %r11
vinsertps $0x20, 0x60(%r15,%r14,4), %xmm2, %xmm2 # xmm2 = xmm2[0,1],mem[0],xmm2[3]
vsubps 0x6(%r8,%rsi), %xmm1, %xmm1
vmulps %xmm1, %xmm0, %xmm3
vmulps %xmm2, %xmm0, %xmm0
vpmovsxbd 0x6(%r8,%rax,4), %ymm1
vcvtdq2ps %ymm1, %ymm5
vpmovsxbd 0x6(%r8,%rdx), %ymm1
vcvtdq2ps %ymm1, %ymm6
leaq (%rax,%rax,2), %rcx
vpmovsxbd 0x6(%r8,%rcx,2), %ymm1
vcvtdq2ps %ymm1, %ymm2
leaq (%rax,%rdx,2), %rsi
vpmovsxbd 0x6(%r8,%rsi), %ymm1
vcvtdq2ps %ymm1, %ymm7
leal (,%rcx,4), %esi
vpmovsxbd 0x6(%r8,%rsi), %ymm1
vcvtdq2ps %ymm1, %ymm8
addq %rax, %rsi
vpmovsxbd 0x6(%r8,%rsi), %ymm1
vcvtdq2ps %ymm1, %ymm9
leaq (%rax,%rax,8), %rsi
leal (%rsi,%rsi), %edi
vpmovsxbd 0x6(%r8,%rdi), %ymm1
addq %rax, %rdi
vpmovsxbd 0x6(%r8,%rdi), %ymm4
vcvtdq2ps %ymm1, %ymm10
vcvtdq2ps %ymm4, %ymm11
shll $0x2, %edx
vpmovsxbd 0x6(%r8,%rdx), %ymm1
vcvtdq2ps %ymm1, %ymm12
vbroadcastss %xmm0, %ymm13
vbroadcastss 0x21a15e(%rip), %ymm15 # 0x1f12704
vpermps %ymm0, %ymm15, %ymm14
vbroadcastss 0x228927(%rip), %ymm16 # 0x1f20edc
vpermps %ymm0, %ymm16, %ymm0
vmulps %ymm2, %ymm0, %ymm4
vmulps %ymm0, %ymm9, %ymm1
vmulps %ymm0, %ymm12, %ymm0
vfmadd231ps %ymm6, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm6) + ymm4
vfmadd231ps %ymm8, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm8) + ymm1
vfmadd231ps %ymm14, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm14) + ymm0
vfmadd231ps %ymm5, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm5) + ymm4
vfmadd231ps %ymm7, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm7) + ymm1
vfmadd231ps %ymm13, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm13) + ymm0
vbroadcastss %xmm3, %ymm13
vpermps %ymm3, %ymm15, %ymm14
vpermps %ymm3, %ymm16, %ymm15
vmulps %ymm2, %ymm15, %ymm16
vmulps %ymm9, %ymm15, %ymm3
vmulps %ymm12, %ymm15, %ymm2
vfmadd231ps %ymm6, %ymm14, %ymm16 # ymm16 = (ymm14 * ymm6) + ymm16
vfmadd231ps %ymm8, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm8) + ymm3
vfmadd231ps %ymm11, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm11) + ymm2
vfmadd231ps %ymm5, %ymm13, %ymm16 # ymm16 = (ymm13 * ymm5) + ymm16
vfmadd231ps %ymm7, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm7) + ymm3
vfmadd231ps %ymm10, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm10) + ymm2
vbroadcastss 0x228896(%rip), %ymm7 # 0x1f20ec4
vandps %ymm7, %ymm4, %ymm5
vbroadcastss 0x1f89ad(%rip), %ymm6 # 0x1ef0fe8
vcmpltps %ymm6, %ymm5, %k1
vmovaps %ymm6, %ymm4 {%k1}
vandps %ymm7, %ymm1, %ymm5
vcmpltps %ymm6, %ymm5, %k1
vmovaps %ymm6, %ymm1 {%k1}
vandps %ymm7, %ymm0, %ymm5
vcmpltps %ymm6, %ymm5, %k1
vmovaps %ymm6, %ymm0 {%k1}
vrcp14ps %ymm4, %ymm5
vbroadcastss 0x1f409b(%rip), %ymm6 # 0x1eec714
vfnmadd213ps %ymm6, %ymm5, %ymm4 # ymm4 = -(ymm5 * ymm4) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm4 # ymm4 = (ymm4 * ymm5) + ymm5
vrcp14ps %ymm1, %ymm5
vfnmadd213ps %ymm6, %ymm5, %ymm1 # ymm1 = -(ymm5 * ymm1) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm1 # ymm1 = (ymm1 * ymm5) + ymm5
vrcp14ps %ymm0, %ymm5
vfnmadd213ps %ymm6, %ymm5, %ymm0 # ymm0 = -(ymm5 * ymm0) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm0 # ymm0 = (ymm0 * ymm5) + ymm5
leaq (,%rax,8), %rdi
subq %rax, %rdi
vpmovsxwd 0x6(%r8,%rdi), %ymm5
vcvtdq2ps %ymm5, %ymm5
vsubps %ymm16, %ymm5, %ymm5
vpmovsxwd 0x6(%r8,%rsi), %ymm6
vmulps %ymm5, %ymm4, %ymm5
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm16, %ymm6, %ymm6
vmulps %ymm6, %ymm4, %ymm4
leaq (%rax,%rax), %rsi
addq %rax, %rdx
shlq $0x3, %rcx
subq %rax, %rcx
movl %eax, %edi
shll $0x4, %edi
vpmovsxwd 0x6(%r8,%rdi), %ymm6
subq %rsi, %rdi
vpmovsxwd 0x6(%r8,%rdi), %ymm7
vcvtdq2ps %ymm7, %ymm7
vsubps %ymm3, %ymm7, %ymm7
vmulps %ymm7, %ymm1, %ymm7
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm3, %ymm6, %ymm3
vmulps %ymm3, %ymm1, %ymm1
vpmovsxwd 0x6(%r8,%rdx), %ymm3
vcvtdq2ps %ymm3, %ymm3
vsubps %ymm2, %ymm3, %ymm3
vmulps %ymm0, %ymm3, %ymm3
vpmovsxwd 0x6(%r8,%rcx), %ymm6
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm2, %ymm6, %ymm2
vmulps %ymm2, %ymm0, %ymm0
vpminsd %ymm4, %ymm5, %ymm2
vpminsd %ymm1, %ymm7, %ymm6
vmaxps %ymm6, %ymm2, %ymm2
vpminsd %ymm0, %ymm3, %ymm6
vmaxps 0x30(%r15,%r14,4){1to8}, %ymm6, %ymm6
vmaxps %ymm6, %ymm2, %ymm2
vmulps 0x2277ad(%rip){1to8}, %ymm2, %ymm6 # 0x1f1ff10
vpmaxsd %ymm4, %ymm5, %ymm2
vpmaxsd %ymm1, %ymm7, %ymm1
vminps %ymm1, %ymm2, %ymm1
vpmaxsd %ymm0, %ymm3, %ymm0
vminps 0x80(%r15,%r14,4){1to8}, %ymm0, %ymm0
vminps %ymm0, %ymm1, %ymm0
vmulps 0x227788(%rip){1to8}, %ymm0, %ymm0 # 0x1f1ff14
vpbroadcastd %eax, %ymm1
vpcmpgtd 0x262184(%rip), %ymm1, %k0 # 0x1f5a920
vmovaps %ymm6, 0x680(%rsp)
vcmpleps %ymm0, %ymm6, %k1
ktestb %k0, %k1
setne 0x7(%rsp)
je 0x1cfa403
kandb %k0, %k1, %k0
kmovd %k0, %eax
movzbl %al, %r12d
leaq (%r14,%r14,2), %rax
shlq $0x4, %rax
addq %r11, %rax
addq $0x10, %rax
movq %rax, 0x1b8(%rsp)
movl $0x1, %eax
shlxl %r14d, %eax, %eax
kmovd %eax, %k0
vpmovm2d %k0, %xmm0
vmovdqa %xmm0, 0x2b0(%rsp)
vmovaps %ymm6, 0x60(%rsp)
vmovaps %ymm2, 0x40(%rsp)
vmovaps %ymm21, 0x220(%rsp)
vmovaps %ymm20, 0x240(%rsp)
tzcntq %r12, %rax
movl 0x2(%r8), %ecx
movl 0x6(%r8,%rax,4), %esi
movq (%r10), %rax
movq 0x1e8(%rax), %rax
movq %rcx, 0x98(%rsp)
movq (%rax,%rcx,8), %r13
movq 0x58(%r13), %rax
movq 0x68(%r13), %rcx
movq %rcx, %rdx
movq %rsi, 0x10(%rsp)
imulq %rsi, %rdx
movl (%rax,%rdx), %edi
movq 0xa0(%r13), %rdx
movq %rdx, %r9
imulq %rdi, %r9
movq 0x90(%r13), %rsi
vmovaps (%rsi,%r9), %xmm13
leaq 0x1(%rdi), %r9
imulq %rdx, %r9
vmovaps (%rsi,%r9), %xmm0
vmovaps %xmm0, 0x150(%rsp)
leaq 0x2(%rdi), %r9
imulq %rdx, %r9
vmovaps (%rsi,%r9), %xmm0
vmovaps %xmm0, 0x140(%rsp)
blsrq %r12, %r12
addq $0x3, %rdi
imulq %rdx, %rdi
vmovaps (%rsi,%rdi), %xmm0
vmovaps %xmm0, 0x1a0(%rsp)
movq %r12, %rdi
subq $0x1, %rdi
jb 0x1cf8906
andq %r12, %rdi
tzcntq %r12, %r9
movl 0x6(%r8,%r9,4), %r9d
imulq %rcx, %r9
movl (%rax,%r9), %r9d
imulq %rdx, %r9
prefetcht0 (%rsi,%r9)
prefetcht0 0x40(%rsi,%r9)
testq %rdi, %rdi
je 0x1cf8906
tzcntq %rdi, %rdi
movl 0x6(%r8,%rdi,4), %edi
imulq %rdi, %rcx
movl (%rax,%rcx), %eax
imulq %rax, %rdx
prefetcht1 (%rsi,%rdx)
prefetcht1 0x40(%rsi,%rdx)
movl 0x248(%r13), %r9d
vmovss (%r15,%r14,4), %xmm0
vinsertps $0x1c, 0x10(%r15,%r14,4), %xmm0, %xmm0 # xmm0 = xmm0[0],mem[0],zero,zero
vinsertps $0x28, 0x20(%r15,%r14,4), %xmm0, %xmm0 # xmm0 = xmm0[0,1],mem[0],zero
vsubps %xmm0, %xmm13, %xmm1
vbroadcastss %xmm1, %xmm2
vshufps $0x55, %xmm1, %xmm1, %xmm3 # xmm3 = xmm1[1,1,1,1]
vshufps $0xaa, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,2,2,2]
movq 0x1b8(%rsp), %rax
vmovaps (%rax), %xmm4
vmovaps 0x10(%rax), %xmm5
vmovaps 0x20(%rax), %xmm6
vmulps %xmm1, %xmm6, %xmm8
vfmadd231ps %xmm3, %xmm5, %xmm8 # xmm8 = (xmm5 * xmm3) + xmm8
vfmadd231ps %xmm2, %xmm4, %xmm8 # xmm8 = (xmm4 * xmm2) + xmm8
vshufps $0xff, %xmm13, %xmm13, %xmm1 # xmm1 = xmm13[3,3,3,3]
vmovaps 0x150(%rsp), %xmm3
vsubps %xmm0, %xmm3, %xmm2
vmovaps %xmm3, %xmm10
vbroadcastss %xmm2, %xmm3
vshufps $0x55, %xmm2, %xmm2, %xmm7 # xmm7 = xmm2[1,1,1,1]
vshufps $0xaa, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[2,2,2,2]
vmulps %xmm2, %xmm6, %xmm9
vfmadd231ps %xmm7, %xmm5, %xmm9 # xmm9 = (xmm5 * xmm7) + xmm9
vfmadd231ps %xmm3, %xmm4, %xmm9 # xmm9 = (xmm4 * xmm3) + xmm9
vshufps $0xff, %xmm10, %xmm10, %xmm2 # xmm2 = xmm10[3,3,3,3]
vmovaps 0x140(%rsp), %xmm7
vsubps %xmm0, %xmm7, %xmm3
vmovaps %xmm7, %xmm12
vbroadcastss %xmm3, %xmm7
vshufps $0x55, %xmm3, %xmm3, %xmm11 # xmm11 = xmm3[1,1,1,1]
vshufps $0xaa, %xmm3, %xmm3, %xmm3 # xmm3 = xmm3[2,2,2,2]
vmulps %xmm3, %xmm6, %xmm10
vfmadd231ps %xmm11, %xmm5, %xmm10 # xmm10 = (xmm5 * xmm11) + xmm10
vfmadd231ps %xmm7, %xmm4, %xmm10 # xmm10 = (xmm4 * xmm7) + xmm10
vshufps $0xff, %xmm12, %xmm12, %xmm7 # xmm7 = xmm12[3,3,3,3]
vmovaps 0x1a0(%rsp), %xmm27
vsubps %xmm0, %xmm27, %xmm0
vbroadcastss %xmm0, %xmm3
vshufps $0x55, %xmm0, %xmm0, %xmm12 # xmm12 = xmm0[1,1,1,1]
vshufps $0xaa, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[2,2,2,2]
vmulps %xmm0, %xmm6, %xmm11
vfmadd231ps %xmm12, %xmm5, %xmm11 # xmm11 = (xmm5 * xmm12) + xmm11
vfmadd231ps %xmm3, %xmm4, %xmm11 # xmm11 = (xmm4 * xmm3) + xmm11
movslq %r9d, %rax
movq %rax, %rcx
shlq $0x6, %rcx
leaq (%rcx,%rax,4), %rbx
leaq 0x42e8dc(%rip), %rdx # 0x21272e4
vmovups (%rdx,%rbx), %ymm25
vshufps $0xff, %xmm27, %xmm27, %xmm0 # xmm0 = xmm27[3,3,3,3]
vbroadcastss %xmm8, %ymm20
vbroadcastss 0x219cdf(%rip), %ymm3 # 0x1f12704
vpermps %ymm8, %ymm3, %ymm23
vbroadcastsd %xmm1, %ymm12
vmovups 0x484(%rdx,%rbx), %ymm14
vbroadcastss %xmm9, %ymm1
vpermps %ymm9, %ymm3, %ymm31
vbroadcastsd %xmm2, %ymm21
vmovups 0x908(%rdx,%rbx), %ymm15
vbroadcastss %xmm10, %ymm29
vpermps %ymm10, %ymm3, %ymm30
vbroadcastsd %xmm7, %ymm22
vmovups 0xd8c(%rdx,%rbx), %ymm16
vbroadcastss %xmm11, %ymm28
vpermps %ymm11, %ymm3, %ymm26
vbroadcastsd %xmm0, %ymm3
vmulps %ymm16, %ymm28, %ymm5
vmulps %ymm16, %ymm26, %ymm4
vfmadd231ps %ymm29, %ymm15, %ymm5 # ymm5 = (ymm15 * ymm29) + ymm5
vfmadd231ps %ymm30, %ymm15, %ymm4 # ymm4 = (ymm15 * ymm30) + ymm4
vfmadd231ps %ymm1, %ymm14, %ymm5 # ymm5 = (ymm14 * ymm1) + ymm5
vfmadd231ps %ymm31, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm31) + ymm4
vfmadd231ps %ymm20, %ymm25, %ymm5 # ymm5 = (ymm25 * ymm20) + ymm5
leaq 0x430c53(%rip), %rsi # 0x2129704
vmovups (%rsi,%rbx), %ymm2
vmovups 0x484(%rsi,%rbx), %ymm17
vfmadd231ps %ymm23, %ymm25, %ymm4 # ymm4 = (ymm25 * ymm23) + ymm4
vmovups 0x908(%rsi,%rbx), %ymm18
vmovups 0xd8c(%rsi,%rbx), %ymm19
vmulps %ymm19, %ymm28, %ymm7
vmulps %ymm19, %ymm26, %ymm6
vfmadd231ps %ymm29, %ymm18, %ymm7 # ymm7 = (ymm18 * ymm29) + ymm7
vfmadd231ps %ymm30, %ymm18, %ymm6 # ymm6 = (ymm18 * ymm30) + ymm6
vmovaps %ymm1, 0x160(%rsp)
vfmadd231ps %ymm1, %ymm17, %ymm7 # ymm7 = (ymm17 * ymm1) + ymm7
vfmadd231ps %ymm31, %ymm17, %ymm6 # ymm6 = (ymm17 * ymm31) + ymm6
vmovaps %ymm20, 0x280(%rsp)
vfmadd231ps %ymm20, %ymm2, %ymm7 # ymm7 = (ymm2 * ymm20) + ymm7
vmovaps %ymm23, 0x260(%rsp)
vfmadd231ps %ymm23, %ymm2, %ymm6 # ymm6 = (ymm2 * ymm23) + ymm6
vsubps %ymm5, %ymm7, %ymm24
vsubps %ymm4, %ymm6, %ymm23
vmulps %ymm24, %ymm4, %ymm0
vmulps %ymm23, %ymm5, %ymm1
vsubps %ymm1, %ymm0, %ymm20
vmulps %ymm16, %ymm3, %ymm0
vfmadd231ps %ymm22, %ymm15, %ymm0 # ymm0 = (ymm15 * ymm22) + ymm0
vfmadd231ps %ymm21, %ymm14, %ymm0 # ymm0 = (ymm14 * ymm21) + ymm0
vfmadd231ps %ymm12, %ymm25, %ymm0 # ymm0 = (ymm25 * ymm12) + ymm0
vmovaps %ymm3, 0x5c0(%rsp)
vmulps %ymm19, %ymm3, %ymm1
vmovaps %ymm22, 0x5e0(%rsp)
vfmadd231ps %ymm22, %ymm18, %ymm1 # ymm1 = (ymm18 * ymm22) + ymm1
vmovaps %ymm21, 0x640(%rsp)
vfmadd231ps %ymm21, %ymm17, %ymm1 # ymm1 = (ymm17 * ymm21) + ymm1
vmovaps %ymm12, 0x660(%rsp)
vfmadd231ps %ymm12, %ymm2, %ymm1 # ymm1 = (ymm2 * ymm12) + ymm1
vmulps %ymm23, %ymm23, %ymm21
vfmadd231ps %ymm24, %ymm24, %ymm21 # ymm21 = (ymm24 * ymm24) + ymm21
vmaxps %ymm1, %ymm0, %ymm22
vmulps %ymm22, %ymm22, %ymm22
vmulps %ymm21, %ymm22, %ymm21
vmulps %ymm20, %ymm20, %ymm20
vcmpleps %ymm21, %ymm20, %k1
vmovaps %xmm13, 0x20(%rsp)
vblendps $0x8, %xmm13, %xmm8, %xmm12 # xmm12 = xmm8[0,1,2],xmm13[3]
vbroadcastss 0x2282ee(%rip), %xmm20 # 0x1f20ec4
vandps %xmm20, %xmm12, %xmm12
vblendps $0x8, 0x150(%rsp), %xmm9, %xmm13 # xmm13 = xmm9[0,1,2],mem[3]
vandps %xmm20, %xmm13, %xmm13
vmaxps %xmm13, %xmm12, %xmm12
vblendps $0x8, 0x140(%rsp), %xmm10, %xmm13 # xmm13 = xmm10[0,1,2],mem[3]
vandps %xmm20, %xmm13, %xmm13
vmovaps %xmm27, %xmm3
vblendps $0x8, %xmm3, %xmm11, %xmm3 # xmm3 = xmm11[0,1,2],xmm3[3]
vandps %xmm20, %xmm3, %xmm3
vmaxps %xmm3, %xmm13, %xmm3
vmaxps %xmm3, %xmm12, %xmm3
vmovshdup %xmm3, %xmm12 # xmm12 = xmm3[1,1,3,3]
vmaxss %xmm3, %xmm12, %xmm12
vshufpd $0x1, %xmm3, %xmm3, %xmm3 # xmm3 = xmm3[1,0]
vmaxss %xmm12, %xmm3, %xmm3
vcvtsi2ss %r9d, %xmm8, %xmm12
vmovaps %xmm12, 0x130(%rsp)
vbroadcastss %xmm12, %ymm12
vcmpgtps 0x2282f3(%rip), %ymm12, %k1 {%k1} # 0x1f20f40
vmulss 0x1f838f(%rip), %xmm3, %xmm12 # 0x1ef0fe4
vbroadcastss 0x22827e(%rip), %ymm3 # 0x1f20edc
vpermps %ymm8, %ymm3, %ymm20
vpermps %ymm9, %ymm3, %ymm21
vpermps %ymm10, %ymm3, %ymm22
vpermps %ymm11, %ymm3, %ymm8
kortestb %k1, %k1
vmovss 0x30(%r15,%r14,4), %xmm9
vmovaps %ymm31, 0x540(%rsp)
vmovaps %ymm29, 0x620(%rsp)
vmovaps %ymm30, 0x600(%rsp)
vmovaps %ymm20, 0x5a0(%rsp)
vmovaps %ymm21, 0x580(%rsp)
vmovaps %ymm22, 0x560(%rsp)
je 0x1cf970e
vmovaps %xmm9, 0x1c0(%rsp)
vmulps %ymm19, %ymm8, %ymm3
vfmadd213ps %ymm3, %ymm22, %ymm18 # ymm18 = (ymm22 * ymm18) + ymm3
vfmadd213ps %ymm18, %ymm21, %ymm17 # ymm17 = (ymm21 * ymm17) + ymm18
vfmadd213ps %ymm17, %ymm20, %ymm2 # ymm2 = (ymm20 * ymm2) + ymm17
vmulps %ymm16, %ymm8, %ymm3
vfmadd213ps %ymm3, %ymm22, %ymm15 # ymm15 = (ymm22 * ymm15) + ymm3
vfmadd213ps %ymm15, %ymm21, %ymm14 # ymm14 = (ymm21 * ymm14) + ymm15
vmovups 0x1210(%rdx,%rbx), %ymm3
vmovups 0x1694(%rdx,%rbx), %ymm10
vmovups 0x1b18(%rdx,%rbx), %ymm11
vmovaps %xmm12, %xmm16
vmovups 0x1f9c(%rdx,%rbx), %ymm12
vfmadd213ps %ymm14, %ymm20, %ymm25 # ymm25 = (ymm20 * ymm25) + ymm14
vmulps %ymm12, %ymm28, %ymm9
vmovaps %ymm8, %ymm15
vmulps %ymm12, %ymm26, %ymm8
vmulps %ymm12, %ymm15, %ymm12
vfmadd231ps %ymm29, %ymm11, %ymm9 # ymm9 = (ymm11 * ymm29) + ymm9
vfmadd231ps %ymm30, %ymm11, %ymm8 # ymm8 = (ymm11 * ymm30) + ymm8
vfmadd231ps %ymm11, %ymm22, %ymm12 # ymm12 = (ymm22 * ymm11) + ymm12
vmovaps 0x160(%rsp), %ymm19
vfmadd231ps %ymm19, %ymm10, %ymm9 # ymm9 = (ymm10 * ymm19) + ymm9
vfmadd231ps %ymm31, %ymm10, %ymm8 # ymm8 = (ymm10 * ymm31) + ymm8
vfmadd231ps %ymm10, %ymm21, %ymm12 # ymm12 = (ymm21 * ymm10) + ymm12
vmovaps 0x280(%rsp), %ymm17
vfmadd231ps %ymm17, %ymm3, %ymm9 # ymm9 = (ymm3 * ymm17) + ymm9
vmovaps 0x260(%rsp), %ymm18
vfmadd231ps %ymm18, %ymm3, %ymm8 # ymm8 = (ymm3 * ymm18) + ymm8
vmovups 0x1210(%rsi,%rbx), %ymm10
vmovups 0x1b18(%rsi,%rbx), %ymm11
vmovups 0x1f9c(%rsi,%rbx), %ymm13
vfmadd231ps %ymm3, %ymm20, %ymm12 # ymm12 = (ymm20 * ymm3) + ymm12
vmovaps %ymm28, 0x200(%rsp)
vmulps %ymm13, %ymm28, %ymm3
vmovaps %ymm26, 0x1e0(%rsp)
vmulps %ymm13, %ymm26, %ymm14
vmovaps %ymm15, 0x180(%rsp)
vmulps %ymm13, %ymm15, %ymm13
vfmadd231ps %ymm29, %ymm11, %ymm3 # ymm3 = (ymm11 * ymm29) + ymm3
vfmadd231ps %ymm30, %ymm11, %ymm14 # ymm14 = (ymm11 * ymm30) + ymm14
vfmadd231ps %ymm11, %ymm22, %ymm13 # ymm13 = (ymm22 * ymm11) + ymm13
vmovups 0x1694(%rsi,%rbx), %ymm11
vfmadd231ps %ymm19, %ymm11, %ymm3 # ymm3 = (ymm11 * ymm19) + ymm3
vfmadd231ps %ymm31, %ymm11, %ymm14 # ymm14 = (ymm11 * ymm31) + ymm14
vfmadd231ps %ymm11, %ymm21, %ymm13 # ymm13 = (ymm21 * ymm11) + ymm13
vfmadd231ps %ymm17, %ymm10, %ymm3 # ymm3 = (ymm10 * ymm17) + ymm3
vfmadd231ps %ymm18, %ymm10, %ymm14 # ymm14 = (ymm10 * ymm18) + ymm14
vfmadd231ps %ymm10, %ymm20, %ymm13 # ymm13 = (ymm20 * ymm10) + ymm13
vbroadcastss 0x2280ba(%rip), %ymm15 # 0x1f20ec4
vandps %ymm15, %ymm9, %ymm10
vandps %ymm15, %ymm8, %ymm11
vmaxps %ymm11, %ymm10, %ymm10
vandps %ymm15, %ymm12, %ymm11
vmaxps %ymm11, %ymm10, %ymm10
vbroadcastss %xmm16, %ymm11
vmovaps %xmm16, %xmm26
vcmpltps %ymm11, %ymm10, %k2
vmovaps %ymm24, %ymm9 {%k2}
vmovaps %ymm23, %ymm8 {%k2}
vandps %ymm3, %ymm15, %ymm10
vandps %ymm15, %ymm14, %ymm12
vmaxps %ymm12, %ymm10, %ymm10
vandps %ymm15, %ymm13, %ymm12
vmaxps %ymm12, %ymm10, %ymm10
vcmpltps %ymm11, %ymm10, %k2
vmovaps %ymm24, %ymm3 {%k2}
vmovaps %ymm23, %ymm14 {%k2}
vbroadcastss 0x22804a(%rip), %ymm11 # 0x1f20ec0
vxorps %ymm11, %ymm9, %ymm10
vxorps %ymm3, %ymm11, %ymm12
vxorps %xmm24, %xmm24, %xmm24
vfmadd213ps %ymm24, %ymm9, %ymm9 # ymm9 = (ymm9 * ymm9) + ymm24
vfmadd231ps %ymm8, %ymm8, %ymm9 # ymm9 = (ymm8 * ymm8) + ymm9
vrsqrt14ps %ymm9, %ymm11
vbroadcastss 0x1f387d(%rip), %ymm15 # 0x1eec71c
vmulps %ymm15, %ymm9, %ymm9
vmulps %ymm9, %ymm11, %ymm9
vmulps %ymm11, %ymm11, %ymm13
vmulps %ymm9, %ymm13, %ymm9
vbroadcastss 0x1f385b(%rip), %ymm16 # 0x1eec718
vfmadd231ps %ymm11, %ymm16, %ymm9 # ymm9 = (ymm16 * ymm11) + ymm9
vmulps %ymm9, %ymm8, %ymm11
vmulps %ymm10, %ymm9, %ymm10
vmulps %ymm24, %ymm9, %ymm13
vfmadd213ps %ymm24, %ymm3, %ymm3 # ymm3 = (ymm3 * ymm3) + ymm24
vfmadd231ps %ymm14, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm14) + ymm3
vrsqrt14ps %ymm3, %ymm8
vmulps %ymm3, %ymm15, %ymm3
vmulps %ymm3, %ymm8, %ymm3
vmulps %ymm8, %ymm8, %ymm9
vmulps %ymm3, %ymm9, %ymm3
vfmadd231ps %ymm8, %ymm16, %ymm3 # ymm3 = (ymm16 * ymm8) + ymm3
vmulps %ymm3, %ymm14, %ymm8
vmulps %ymm3, %ymm12, %ymm9
vmulps %ymm24, %ymm3, %ymm3
vmovaps %ymm11, %ymm12
vfmadd213ps %ymm5, %ymm0, %ymm12 # ymm12 = (ymm0 * ymm12) + ymm5
vmovaps %ymm10, %ymm14
vfmadd213ps %ymm4, %ymm0, %ymm14 # ymm14 = (ymm0 * ymm14) + ymm4
vmovaps %ymm13, %ymm15
vfmadd213ps %ymm25, %ymm0, %ymm15 # ymm15 = (ymm0 * ymm15) + ymm25
vmovaps %ymm8, %ymm16
vfmadd213ps %ymm7, %ymm1, %ymm16 # ymm16 = (ymm1 * ymm16) + ymm7
vfnmadd213ps %ymm5, %ymm0, %ymm11 # ymm11 = -(ymm0 * ymm11) + ymm5
vmovaps %ymm9, %ymm5
vfmadd213ps %ymm6, %ymm1, %ymm5 # ymm5 = (ymm1 * ymm5) + ymm6
vfnmadd213ps %ymm4, %ymm0, %ymm10 # ymm10 = -(ymm0 * ymm10) + ymm4
vmovaps %ymm3, %ymm4
vfmadd213ps %ymm2, %ymm1, %ymm4 # ymm4 = (ymm1 * ymm4) + ymm2
vfnmadd231ps %ymm13, %ymm0, %ymm25 # ymm25 = -(ymm0 * ymm13) + ymm25
vfnmadd213ps %ymm7, %ymm1, %ymm8 # ymm8 = -(ymm1 * ymm8) + ymm7
vfnmadd213ps %ymm6, %ymm1, %ymm9 # ymm9 = -(ymm1 * ymm9) + ymm6
vfnmadd231ps %ymm3, %ymm1, %ymm2 # ymm2 = -(ymm1 * ymm3) + ymm2
vsubps %ymm11, %ymm16, %ymm3
vsubps %ymm10, %ymm5, %ymm6
vsubps %ymm25, %ymm4, %ymm7
vmulps %ymm25, %ymm6, %ymm13
vfmsub231ps %ymm7, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm7) - ymm13
vmulps %ymm7, %ymm11, %ymm7
vfmsub231ps %ymm3, %ymm25, %ymm7 # ymm7 = (ymm25 * ymm3) - ymm7
vmulps %ymm3, %ymm10, %ymm3
vfmsub231ps %ymm6, %ymm11, %ymm3 # ymm3 = (ymm11 * ymm6) - ymm3
vfmadd231ps %ymm7, %ymm24, %ymm3 # ymm3 = (ymm24 * ymm7) + ymm3
vfmadd231ps %ymm13, %ymm24, %ymm3 # ymm3 = (ymm24 * ymm13) + ymm3
vcmpleps %ymm24, %ymm3, %k2
vmovaps %ymm12, %ymm8 {%k2}
vmovaps %ymm14, %ymm9 {%k2}
vmovaps %ymm15, %ymm2 {%k2}
vblendmps %ymm16, %ymm11, %ymm13 {%k2}
vblendmps %ymm5, %ymm10, %ymm14 {%k2}
vblendmps %ymm4, %ymm25, %ymm15 {%k2}
vmovaps %ymm11, %ymm16 {%k2}
vmovaps %ymm10, %ymm5 {%k2}
vmovaps %ymm25, %ymm4 {%k2}
vsubps %ymm8, %ymm16, %ymm6
vsubps %ymm9, %ymm5, %ymm5
vsubps %ymm2, %ymm4, %ymm11
vsubps %ymm13, %ymm8, %ymm7
vsubps %ymm14, %ymm9, %ymm10
vsubps %ymm15, %ymm2, %ymm12
vmulps %ymm8, %ymm11, %ymm4
vfmsub231ps %ymm6, %ymm2, %ymm4 # ymm4 = (ymm2 * ymm6) - ymm4
vmulps %ymm6, %ymm9, %ymm3
vfmsub231ps %ymm5, %ymm8, %ymm3 # ymm3 = (ymm8 * ymm5) - ymm3
vfmadd231ps %ymm4, %ymm24, %ymm3 # ymm3 = (ymm24 * ymm4) + ymm3
vmulps %ymm2, %ymm5, %ymm4
vfmsub231ps %ymm11, %ymm9, %ymm4 # ymm4 = (ymm9 * ymm11) - ymm4
vfmadd231ps %ymm4, %ymm24, %ymm3 # ymm3 = (ymm24 * ymm4) + ymm3
vmulps %ymm13, %ymm12, %ymm16
vfmsub231ps %ymm15, %ymm7, %ymm16 # ymm16 = (ymm7 * ymm15) - ymm16
vmulps %ymm15, %ymm10, %ymm15
vfmsub231ps %ymm12, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm12) - ymm15
vmulps %ymm7, %ymm14, %ymm4
vfmsub231ps %ymm13, %ymm10, %ymm4 # ymm4 = (ymm10 * ymm13) - ymm4
vfmadd231ps %ymm16, %ymm24, %ymm4 # ymm4 = (ymm24 * ymm16) + ymm4
vfmadd231ps %ymm15, %ymm24, %ymm4 # ymm4 = (ymm24 * ymm15) + ymm4
vmaxps %ymm4, %ymm3, %ymm13
vcmpleps %ymm24, %ymm13, %k0 {%k1}
kortestb %k0, %k0
vmovaps 0x240(%rsp), %ymm20
vmovaps 0x220(%rsp), %ymm21
vmovaps %ymm17, %ymm22
vmovaps %ymm19, %ymm17
vmovaps %xmm26, %xmm14
je 0x1cfa393
vmulps %ymm5, %ymm12, %ymm13
vfmsub231ps %ymm11, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm11) - ymm13
vmulps %ymm7, %ymm11, %ymm11
vfmsub231ps %ymm12, %ymm6, %ymm11 # ymm11 = (ymm6 * ymm12) - ymm11
vmulps %ymm6, %ymm10, %ymm10
vfmsub231ps %ymm5, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm5) - ymm10
vxorps %xmm6, %xmm6, %xmm6
vfmadd213ps %ymm10, %ymm11, %ymm6 # ymm6 = (ymm11 * ymm6) + ymm10
vfmadd231ps %ymm24, %ymm13, %ymm6 # ymm6 = (ymm13 * ymm24) + ymm6
vrcp14ps %ymm6, %ymm7
vmovaps %ymm7, %ymm5
vfnmadd213ps 0x1f3651(%rip){1to8}, %ymm6, %ymm5 # ymm5 = -(ymm6 * ymm5) + mem
vfmadd132ps %ymm7, %ymm7, %ymm5 # ymm5 = (ymm5 * ymm7) + ymm7
vmulps %ymm2, %ymm10, %ymm2
vfmadd231ps %ymm11, %ymm9, %ymm2 # ymm2 = (ymm9 * ymm11) + ymm2
vfmadd231ps %ymm13, %ymm8, %ymm2 # ymm2 = (ymm8 * ymm13) + ymm2
vmulps %ymm5, %ymm2, %ymm2
vmovaps 0x1c0(%rsp), %xmm9
vbroadcastss %xmm9, %ymm7
vcmpleps %ymm2, %ymm7, %k1
vcmpleps 0x80(%r15,%r14,4){1to8}, %ymm2, %k1 {%k1}
kandb %k0, %k1, %k0
kortestb %k0, %k0
vmovaps 0x200(%rsp), %ymm28
vmovaps 0x1e0(%rsp), %ymm29
je 0x1cfa3ce
vcmpneqps %ymm24, %ymm6, %k1
ktestb %k1, %k0
vmovaps 0x20(%rsp), %xmm7
vmovaps 0x180(%rsp), %ymm8
je 0x1cfa3f0
kandb %k1, %k0, %k0
kmovd %k0, %eax
vmulps %ymm5, %ymm3, %ymm3
vmulps %ymm5, %ymm4, %ymm4
vbroadcastss 0x1f35c5(%rip), %ymm5 # 0x1eec714
vsubps %ymm3, %ymm5, %ymm6
vmovaps %ymm3, %ymm6 {%k2}
vsubps %ymm4, %ymm5, %ymm3
vmovaps %ymm4, %ymm3 {%k2}
vmovaps %ymm3, 0x500(%rsp)
movzbl %al, %eax
testw %ax, %ax
je 0x1cf970a
vsubps %ymm0, %ymm1, %ymm1
vfmadd213ps %ymm0, %ymm6, %ymm1 # ymm1 = (ymm6 * ymm1) + ymm0
vaddps %ymm1, %ymm1, %ymm0
vmulps (%r11,%r14,4){1to8}, %ymm0, %ymm0
vcmpnleps %ymm0, %ymm2, %k0
kmovd %k0, %ecx
andb %cl, %al
je 0x1cf970a
vbroadcastss 0x1f7824(%rip), %ymm0 # 0x1ef09cc
vmovaps 0x500(%rsp), %ymm1
vfmadd132ps 0x1f7e3d(%rip){1to8}, %ymm0, %ymm1 # ymm1 = (ymm1 * mem) + ymm0
vmovaps %ymm6, 0x380(%rsp)
vmovaps %ymm1, 0x500(%rsp)
vmovaps %ymm1, 0x3a0(%rsp)
vmovaps %ymm2, 0x3c0(%rsp)
movl $0x0, 0x3e0(%rsp)
movl %r9d, 0x3e4(%rsp)
vmovaps %xmm7, 0x3f0(%rsp)
vmovaps 0x150(%rsp), %xmm0
vmovaps %xmm0, 0x400(%rsp)
vmovaps 0x140(%rsp), %xmm0
vmovaps %xmm0, 0x410(%rsp)
vmovaps 0x1a0(%rsp), %xmm0
vmovaps %xmm0, 0x420(%rsp)
movb %al, 0x430(%rsp)
movl 0x90(%r15,%r14,4), %ecx
testl %ecx, 0x34(%r13)
je 0x1cf970a
movq 0x10(%r10), %rcx
cmpq $0x0, 0x10(%rcx)
jne 0x1cf9263
movb $0x1, %dil
cmpq $0x0, 0x48(%r13)
je 0x1cf9755
vaddps 0x227cd5(%rip), %ymm6, %ymm0 # 0x1f20f40
vmovss 0x1f34a1(%rip), %xmm1 # 0x1eec714
vdivss 0x130(%rsp), %xmm1, %xmm1
vbroadcastss %xmm1, %ymm1
vmulps %ymm0, %ymm1, %ymm0
vmovaps %ymm0, 0x440(%rsp)
vmovaps 0x500(%rsp), %ymm0
vmovaps %ymm0, 0x460(%rsp)
vmovaps %ymm2, 0x480(%rsp)
movzbl %al, %ecx
tzcntq %rcx, %rdi
movq 0x98(%rsp), %rax
vpbroadcastd %eax, %xmm0
vmovdqa %xmm0, 0x4a0(%rsp)
vmovaps 0x400(%rsp), %xmm0
vmovaps %xmm0, 0x110(%rsp)
movq 0x10(%rsp), %rax
vpbroadcastd %eax, %xmm0
vmovdqa %xmm0, 0x100(%rsp)
movq %rdi, %rax
vmovaps 0x410(%rsp), %xmm0
vmovaps %xmm0, 0xf0(%rsp)
vmovaps 0x420(%rsp), %xmm0
vmovaps %xmm0, 0xe0(%rsp)
movb $0x1, %dil
vmovaps %xmm14, 0xd0(%rsp)
movq %r8, 0x38(%rsp)
movq %r10, 0x18(%rsp)
movq %r11, 0x30(%rsp)
vmovaps %ymm6, 0x60(%rsp)
vmovaps %ymm2, 0x40(%rsp)
movl %r9d, 0xc(%rsp)
movq %rcx, 0x2c0(%rsp)
vmovss 0x80(%r15,%r14,4), %xmm10
vmovss 0x480(%rsp,%rax,4), %xmm0
vbroadcastss 0x440(%rsp,%rax,4), %xmm1
movq %rax, 0x4c0(%rsp)
vbroadcastss 0x460(%rsp,%rax,4), %xmm2
vmovss %xmm0, 0x80(%r15,%r14,4)
movq 0x8(%r10), %rax
vmovss 0x1f3386(%rip), %xmm0 # 0x1eec714
vsubss %xmm1, %xmm0, %xmm0
vmulss %xmm0, %xmm0, %xmm3
vmulss %xmm0, %xmm1, %xmm0
vmulss 0x1f7c4e(%rip), %xmm3, %xmm4 # 0x1ef0ff0
vfmadd231ss 0x1f7631(%rip), %xmm0, %xmm3 # xmm3 = (xmm0 * mem) + xmm3
vmulss %xmm1, %xmm1, %xmm5
vfmsub132ss 0x1f7c40(%rip), %xmm5, %xmm0 # xmm0 = (xmm0 * mem) - xmm5
vmovss 0x1f7c2c(%rip), %xmm6 # 0x1ef0fec
vmulss %xmm6, %xmm3, %xmm3
vmulss %xmm6, %xmm0, %xmm0
vmulss %xmm6, %xmm5, %xmm5
vbroadcastss %xmm5, %xmm5
vmulps 0xe0(%rsp), %xmm5, %xmm5
vbroadcastss %xmm0, %xmm0
vfmadd132ps 0xf0(%rsp), %xmm5, %xmm0 # xmm0 = (xmm0 * mem) + xmm5
vbroadcastss %xmm3, %xmm3
vfmadd132ps 0x110(%rsp), %xmm0, %xmm3 # xmm3 = (xmm3 * mem) + xmm0
vbroadcastss %xmm4, %xmm0
vfmadd213ps %xmm3, %xmm7, %xmm0 # xmm0 = (xmm7 * xmm0) + xmm3
vbroadcastss %xmm0, %xmm3
vshufps $0x55, %xmm0, %xmm0, %xmm4 # xmm4 = xmm0[1,1,1,1]
vshufps $0xaa, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[2,2,2,2]
vmovaps %xmm3, 0x2f0(%rsp)
vmovaps %xmm4, 0x300(%rsp)
vmovaps %xmm0, 0x310(%rsp)
vmovaps %xmm1, 0x320(%rsp)
vmovaps %xmm2, 0x330(%rsp)
vmovaps 0x100(%rsp), %xmm0
vmovaps %xmm0, 0x340(%rsp)
vmovdqa 0x4a0(%rsp), %xmm0
vmovdqa %xmm0, 0x350(%rsp)
leaq 0x360(%rsp), %rcx
vpcmpeqd %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, (%rcx)
vbroadcastss (%rax), %xmm0
vmovaps %xmm0, 0x360(%rsp)
vbroadcastss 0x4(%rax), %xmm0
vmovaps %xmm0, 0x370(%rsp)
vmovaps 0x2b0(%rsp), %xmm0
vmovaps %xmm0, 0x80(%rsp)
leaq 0x80(%rsp), %rcx
movq %rcx, 0xa0(%rsp)
movq 0x18(%r13), %rcx
movq %rcx, 0xa8(%rsp)
movq %rax, 0xb0(%rsp)
movq %r15, 0xb8(%rsp)
leaq 0x2f0(%rsp), %rax
movq %rax, 0xc0(%rsp)
movl $0x4, 0xc8(%rsp)
movq 0x48(%r13), %rax
testq %rax, %rax
movl %edi, 0x8(%rsp)
vmovss %xmm10, 0x120(%rsp)
je 0x1cf959d
leaq 0xa0(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0x120(%rsp), %xmm10
vmovaps 0x1c0(%rsp), %xmm9
vmovaps 0xd0(%rsp), %xmm14
movl 0x8(%rsp), %edi
vmovaps 0x180(%rsp), %ymm8
vmovaps 0x1e0(%rsp), %ymm29
vmovaps 0x200(%rsp), %ymm28
vmovaps 0x160(%rsp), %ymm17
vmovaps 0x260(%rsp), %ymm18
vmovaps 0x280(%rsp), %ymm22
movl 0xc(%rsp), %r9d
vmovaps 0x20(%rsp), %xmm7
vmovaps 0x220(%rsp), %ymm21
vmovaps 0x240(%rsp), %ymm20
vxorps %xmm24, %xmm24, %xmm24
leaq 0x43017d(%rip), %rsi # 0x2129704
leaq 0x42dd56(%rip), %rdx # 0x21272e4
movq 0x30(%rsp), %r11
movq 0x18(%rsp), %r10
movq 0x38(%rsp), %r8
vmovdqa 0x80(%rsp), %xmm0
vptestmd %xmm0, %xmm0, %k0
kortestb %k0, %k0
je 0x1cf96cb
movq 0x10(%r10), %rcx
movq 0x10(%rcx), %rax
testq %rax, %rax
vmovaps 0x60(%rsp), %ymm6
vmovaps 0x40(%rsp), %ymm2
je 0x1cf968a
testb $0x2, (%rcx)
jne 0x1cf95e3
testb $0x40, 0x3e(%r13)
je 0x1cf968a
leaq 0xa0(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0x120(%rsp), %xmm10
vmovaps 0x1c0(%rsp), %xmm9
vmovaps 0xd0(%rsp), %xmm14
movl 0x8(%rsp), %edi
vmovaps 0x180(%rsp), %ymm8
vmovaps 0x1e0(%rsp), %ymm29
vmovaps 0x200(%rsp), %ymm28
vmovaps 0x160(%rsp), %ymm17
vmovaps 0x260(%rsp), %ymm18
vmovaps 0x280(%rsp), %ymm22
movl 0xc(%rsp), %r9d
vmovaps 0x20(%rsp), %xmm7
vmovaps 0x220(%rsp), %ymm21
vmovaps 0x40(%rsp), %ymm2
vmovaps 0x240(%rsp), %ymm20
vmovaps 0x60(%rsp), %ymm6
vxorps %xmm24, %xmm24, %xmm24
leaq 0x430090(%rip), %rsi # 0x2129704
leaq 0x42dc69(%rip), %rdx # 0x21272e4
movq 0x30(%rsp), %r11
movq 0x18(%rsp), %r10
movq 0x38(%rsp), %r8
vmovdqa 0x80(%rsp), %xmm0
movq 0xb8(%rsp), %rax
vmovaps 0x80(%rax), %xmm1
vptestmd %xmm0, %xmm0, %k1
vbroadcastss 0x1f34d1(%rip), %xmm1 {%k1} # 0x1eecb84
vmovaps %xmm1, 0x80(%rax)
kortestb %k1, %k1
movq 0x2c0(%rsp), %rcx
je 0x1cf96df
jmp 0x1cf9704
vmovaps 0x60(%rsp), %ymm6
vmovaps 0x40(%rsp), %ymm2
movq 0x2c0(%rsp), %rcx
vmovss %xmm10, 0x80(%r15,%r14,4)
movq 0x4c0(%rsp), %rax
btcq %rax, %rcx
tzcntq %rcx, %rax
setae %dil
jae 0x1cf9341
andb $0x1, %dil
jmp 0x1cf9755
xorl %edi, %edi
jmp 0x1cf9755
xorl %edi, %edi
vxorps %xmm24, %xmm24, %xmm24
vmovaps 0x60(%rsp), %ymm6
vmovaps 0x240(%rsp), %ymm20
vmovaps 0x40(%rsp), %ymm2
vmovaps 0x220(%rsp), %ymm21
vmovaps 0x280(%rsp), %ymm22
vmovaps 0x260(%rsp), %ymm18
vmovaps 0x160(%rsp), %ymm17
vmovaps %ymm26, %ymm29
vmovaps %xmm12, %xmm14
cmpl $0x9, %r9d
jge 0x1cf978e
testb $0x1, %dil
jne 0x1cfa403
vmovaps 0x680(%rsp), %ymm0
vcmpleps 0x80(%r15,%r14,4){1to8}, %ymm0, %k0
kmovb %k0, %eax
andl %eax, %r12d
setne 0x7(%rsp)
jne 0x1cf87fb
jmp 0x1cfa403
vmovaps %ymm8, 0x180(%rsp)
vpbroadcastd %r9d, %ymm0
vmovdqa %ymm0, 0x1c0(%rsp)
vbroadcastss %xmm14, %ymm0
vmovaps %ymm0, 0x2c0(%rsp)
vbroadcastss %xmm9, %ymm0
vmovaps %ymm0, 0x4c0(%rsp)
vmovss 0x1f2f4a(%rip), %xmm0 # 0x1eec714
vdivss 0x130(%rsp), %xmm0, %xmm0
vbroadcastss %xmm0, %ymm0
vmovaps %ymm0, 0x4a0(%rsp)
movq 0x98(%rsp), %rax
vpbroadcastd %eax, %xmm0
vmovdqa %xmm0, 0x130(%rsp)
movq 0x10(%rsp), %rax
vpbroadcastd %eax, %xmm0
vmovdqa %xmm0, 0x120(%rsp)
movl $0x8, %r13d
vmovaps %ymm6, 0x60(%rsp)
vmovaps %ymm2, 0x40(%rsp)
vpbroadcastd %r13d, %ymm0
vpor 0x2610f4(%rip), %ymm0, %ymm0 # 0x1f5a920
vpcmpltd 0x1c0(%rsp), %ymm0, %k1
leaq (%rbx,%rdx), %rcx
vmovups (%rcx,%r13,4), %ymm3
vmovups 0x484(%rcx,%r13,4), %ymm10
vmovups 0x908(%rcx,%r13,4), %ymm11
vmovups 0xd8c(%rcx,%r13,4), %ymm12
vmulps %ymm12, %ymm28, %ymm5
vmulps %ymm12, %ymm29, %ymm4
vmovaps 0x5c0(%rsp), %ymm1
vmulps %ymm1, %ymm12, %ymm0
vmovaps 0x620(%rsp), %ymm19
vfmadd231ps %ymm19, %ymm11, %ymm5 # ymm5 = (ymm11 * ymm19) + ymm5
vmovaps 0x600(%rsp), %ymm27
vfmadd231ps %ymm27, %ymm11, %ymm4 # ymm4 = (ymm11 * ymm27) + ymm4
vmovaps 0x5e0(%rsp), %ymm16
vfmadd231ps %ymm16, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm16) + ymm0
vfmadd231ps %ymm17, %ymm10, %ymm5 # ymm5 = (ymm10 * ymm17) + ymm5
vmovaps 0x540(%rsp), %ymm25
vfmadd231ps %ymm25, %ymm10, %ymm4 # ymm4 = (ymm10 * ymm25) + ymm4
vmovaps 0x640(%rsp), %ymm9
vfmadd231ps %ymm9, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm9) + ymm0
vfmadd231ps %ymm22, %ymm3, %ymm5 # ymm5 = (ymm3 * ymm22) + ymm5
vfmadd231ps %ymm18, %ymm3, %ymm4 # ymm4 = (ymm3 * ymm18) + ymm4
leaq (%rbx,%rsi), %rax
vmovups (%rax,%r13,4), %ymm2
vmovups 0x484(%rax,%r13,4), %ymm13
vmovaps 0x660(%rsp), %ymm8
vfmadd231ps %ymm8, %ymm3, %ymm0 # ymm0 = (ymm3 * ymm8) + ymm0
vmovups 0x908(%rax,%r13,4), %ymm14
vmovups 0xd8c(%rax,%r13,4), %ymm15
vmulps %ymm15, %ymm28, %ymm7
vmulps %ymm15, %ymm29, %ymm6
vmulps %ymm1, %ymm15, %ymm1
vfmadd231ps %ymm19, %ymm14, %ymm7 # ymm7 = (ymm14 * ymm19) + ymm7
vfmadd231ps %ymm27, %ymm14, %ymm6 # ymm6 = (ymm14 * ymm27) + ymm6
vfmadd231ps %ymm16, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm16) + ymm1
vfmadd231ps %ymm17, %ymm13, %ymm7 # ymm7 = (ymm13 * ymm17) + ymm7
vfmadd231ps %ymm25, %ymm13, %ymm6 # ymm6 = (ymm13 * ymm25) + ymm6
vfmadd231ps %ymm9, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm9) + ymm1
vfmadd231ps %ymm22, %ymm2, %ymm7 # ymm7 = (ymm2 * ymm22) + ymm7
vfmadd231ps %ymm18, %ymm2, %ymm6 # ymm6 = (ymm2 * ymm18) + ymm6
vfmadd231ps %ymm8, %ymm2, %ymm1 # ymm1 = (ymm2 * ymm8) + ymm1
vmaxps %ymm1, %ymm0, %ymm16
vsubps %ymm5, %ymm7, %ymm9
vsubps %ymm4, %ymm6, %ymm8
vmovaps %ymm17, %ymm26
vmulps %ymm9, %ymm4, %ymm17
vmovaps %ymm18, %ymm23
vmulps %ymm8, %ymm5, %ymm18
vsubps %ymm18, %ymm17, %ymm17
vmulps %ymm8, %ymm8, %ymm18
vfmadd231ps %ymm9, %ymm9, %ymm18 # ymm18 = (ymm9 * ymm9) + ymm18
vmulps %ymm16, %ymm16, %ymm16
vmulps %ymm18, %ymm16, %ymm16
vmulps %ymm17, %ymm17, %ymm17
vcmpleps %ymm16, %ymm17, %k1 {%k1}
kortestb %k1, %k1
je 0x1cfa336
vmovaps %ymm23, %ymm16
vmovaps 0x180(%rsp), %ymm23
vmulps %ymm15, %ymm23, %ymm15
vmovaps 0x560(%rsp), %ymm31
vfmadd213ps %ymm15, %ymm31, %ymm14 # ymm14 = (ymm31 * ymm14) + ymm15
vmovaps 0x580(%rsp), %ymm30
vfmadd213ps %ymm14, %ymm30, %ymm13 # ymm13 = (ymm30 * ymm13) + ymm14
vmovaps 0x5a0(%rsp), %ymm18
vfmadd213ps %ymm13, %ymm18, %ymm2 # ymm2 = (ymm18 * ymm2) + ymm13
vmulps %ymm12, %ymm23, %ymm12
vfmadd213ps %ymm12, %ymm31, %ymm11 # ymm11 = (ymm31 * ymm11) + ymm12
vfmadd213ps %ymm11, %ymm30, %ymm10 # ymm10 = (ymm30 * ymm10) + ymm11
vfmadd213ps %ymm10, %ymm18, %ymm3 # ymm3 = (ymm18 * ymm3) + ymm10
vmovups 0x1210(%rcx,%r13,4), %ymm12
vmovups 0x1694(%rcx,%r13,4), %ymm13
vmovups 0x1b18(%rcx,%r13,4), %ymm14
vmovups 0x1f9c(%rcx,%r13,4), %ymm15
vmulps %ymm15, %ymm28, %ymm11
vmulps %ymm15, %ymm29, %ymm10
vmulps %ymm15, %ymm23, %ymm15
vfmadd231ps %ymm19, %ymm14, %ymm11 # ymm11 = (ymm14 * ymm19) + ymm11
vfmadd231ps %ymm27, %ymm14, %ymm10 # ymm10 = (ymm14 * ymm27) + ymm10
vfmadd231ps %ymm14, %ymm31, %ymm15 # ymm15 = (ymm31 * ymm14) + ymm15
vfmadd231ps %ymm26, %ymm13, %ymm11 # ymm11 = (ymm13 * ymm26) + ymm11
vfmadd231ps %ymm25, %ymm13, %ymm10 # ymm10 = (ymm13 * ymm25) + ymm10
vfmadd231ps %ymm13, %ymm30, %ymm15 # ymm15 = (ymm30 * ymm13) + ymm15
vfmadd231ps %ymm22, %ymm12, %ymm11 # ymm11 = (ymm12 * ymm22) + ymm11
vfmadd231ps %ymm16, %ymm12, %ymm10 # ymm10 = (ymm12 * ymm16) + ymm10
vmovaps %ymm27, %ymm25
vmovaps %ymm19, %ymm27
vmovaps %ymm16, %ymm19
vfmadd231ps %ymm12, %ymm18, %ymm15 # ymm15 = (ymm18 * ymm12) + ymm15
vmovups 0x1210(%rax,%r13,4), %ymm13
vmovups 0x1b18(%rax,%r13,4), %ymm14
vmovups 0x1f9c(%rax,%r13,4), %ymm16
vmulps %ymm16, %ymm28, %ymm17
vmulps %ymm16, %ymm29, %ymm12
vmulps %ymm16, %ymm23, %ymm16
vfmadd231ps %ymm27, %ymm14, %ymm17 # ymm17 = (ymm14 * ymm27) + ymm17
vfmadd231ps %ymm25, %ymm14, %ymm12 # ymm12 = (ymm14 * ymm25) + ymm12
vfmadd231ps %ymm14, %ymm31, %ymm16 # ymm16 = (ymm31 * ymm14) + ymm16
vmovups 0x1694(%rax,%r13,4), %ymm14
vfmadd231ps %ymm26, %ymm14, %ymm17 # ymm17 = (ymm14 * ymm26) + ymm17
vfmadd231ps 0x540(%rsp), %ymm14, %ymm12 # ymm12 = (ymm14 * mem) + ymm12
vfmadd231ps %ymm14, %ymm30, %ymm16 # ymm16 = (ymm30 * ymm14) + ymm16
vfmadd231ps %ymm22, %ymm13, %ymm17 # ymm17 = (ymm13 * ymm22) + ymm17
vfmadd231ps %ymm19, %ymm13, %ymm12 # ymm12 = (ymm13 * ymm19) + ymm12
vfmadd231ps %ymm13, %ymm18, %ymm16 # ymm16 = (ymm18 * ymm13) + ymm16
vbroadcastss 0x2273ca(%rip), %ymm18 # 0x1f20ec4
vandps %ymm18, %ymm11, %ymm13
vandps %ymm18, %ymm10, %ymm14
vmaxps %ymm14, %ymm13, %ymm13
vandps %ymm18, %ymm15, %ymm14
vmaxps %ymm14, %ymm13, %ymm13
vmovaps 0x2c0(%rsp), %ymm15
vcmpltps %ymm15, %ymm13, %k2
vmovaps %ymm9, %ymm11 {%k2}
vmovaps %ymm8, %ymm10 {%k2}
vandps %ymm18, %ymm17, %ymm13
vandps %ymm18, %ymm12, %ymm14
vmaxps %ymm14, %ymm13, %ymm13
vandps %ymm18, %ymm16, %ymm14
vmaxps %ymm14, %ymm13, %ymm13
vcmpltps %ymm15, %ymm13, %k2
vmovaps %ymm9, %ymm17 {%k2}
vmovaps %ymm8, %ymm12 {%k2}
vbroadcastss 0x227356(%rip), %ymm9 # 0x1f20ec0
vxorps %ymm9, %ymm11, %ymm8
vxorps %ymm9, %ymm17, %ymm9
vfmadd213ps %ymm24, %ymm11, %ymm11 # ymm11 = (ymm11 * ymm11) + ymm24
vfmadd231ps %ymm10, %ymm10, %ymm11 # ymm11 = (ymm10 * ymm10) + ymm11
vrsqrt14ps %ymm11, %ymm13
vbroadcastss 0x1f2b8d(%rip), %ymm15 # 0x1eec71c
vmulps %ymm15, %ymm11, %ymm11
vmulps %ymm11, %ymm13, %ymm11
vmulps %ymm13, %ymm13, %ymm14
vmulps %ymm11, %ymm14, %ymm14
vbroadcastss 0x1f2b6b(%rip), %ymm16 # 0x1eec718
vfmadd231ps %ymm13, %ymm16, %ymm14 # ymm14 = (ymm16 * ymm13) + ymm14
vmulps %ymm14, %ymm10, %ymm11
vmulps %ymm8, %ymm14, %ymm10
vmulps %ymm24, %ymm14, %ymm13
vfmadd213ps %ymm24, %ymm17, %ymm17 # ymm17 = (ymm17 * ymm17) + ymm24
vfmadd231ps %ymm12, %ymm12, %ymm17 # ymm17 = (ymm12 * ymm12) + ymm17
vrsqrt14ps %ymm17, %ymm8
vmulps %ymm15, %ymm17, %ymm14
vmulps %ymm14, %ymm8, %ymm14
vmulps %ymm8, %ymm8, %ymm15
vmulps %ymm14, %ymm15, %ymm14
vfmadd231ps %ymm8, %ymm16, %ymm14 # ymm14 = (ymm16 * ymm8) + ymm14
vmulps %ymm14, %ymm12, %ymm8
vmulps %ymm9, %ymm14, %ymm9
vmulps %ymm24, %ymm14, %ymm12
vmovaps %ymm11, %ymm14
vfmadd213ps %ymm5, %ymm0, %ymm14 # ymm14 = (ymm0 * ymm14) + ymm5
vmovaps %ymm10, %ymm15
vfmadd213ps %ymm4, %ymm0, %ymm15 # ymm15 = (ymm0 * ymm15) + ymm4
vmovaps %ymm13, %ymm16
vfmadd213ps %ymm3, %ymm0, %ymm16 # ymm16 = (ymm0 * ymm16) + ymm3
vmovaps %ymm8, %ymm17
vfmadd213ps %ymm7, %ymm1, %ymm17 # ymm17 = (ymm1 * ymm17) + ymm7
vfnmadd213ps %ymm5, %ymm0, %ymm11 # ymm11 = -(ymm0 * ymm11) + ymm5
vmovaps %ymm9, %ymm5
vfmadd213ps %ymm6, %ymm1, %ymm5 # ymm5 = (ymm1 * ymm5) + ymm6
vfnmadd213ps %ymm4, %ymm0, %ymm10 # ymm10 = -(ymm0 * ymm10) + ymm4
vmovaps %ymm12, %ymm4
vfmadd213ps %ymm2, %ymm1, %ymm4 # ymm4 = (ymm1 * ymm4) + ymm2
vfnmadd231ps %ymm13, %ymm0, %ymm3 # ymm3 = -(ymm0 * ymm13) + ymm3
vfnmadd213ps %ymm7, %ymm1, %ymm8 # ymm8 = -(ymm1 * ymm8) + ymm7
vfnmadd213ps %ymm6, %ymm1, %ymm9 # ymm9 = -(ymm1 * ymm9) + ymm6
vfnmadd231ps %ymm12, %ymm1, %ymm2 # ymm2 = -(ymm1 * ymm12) + ymm2
vsubps %ymm11, %ymm17, %ymm6
vsubps %ymm10, %ymm5, %ymm7
vsubps %ymm3, %ymm4, %ymm12
vmulps %ymm3, %ymm7, %ymm13
vfmsub231ps %ymm12, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm12) - ymm13
vmulps %ymm11, %ymm12, %ymm12
vfmsub231ps %ymm6, %ymm3, %ymm12 # ymm12 = (ymm3 * ymm6) - ymm12
vmulps %ymm6, %ymm10, %ymm6
vfmsub231ps %ymm7, %ymm11, %ymm6 # ymm6 = (ymm11 * ymm7) - ymm6
vfmadd231ps %ymm12, %ymm24, %ymm6 # ymm6 = (ymm24 * ymm12) + ymm6
vfmadd231ps %ymm13, %ymm24, %ymm6 # ymm6 = (ymm24 * ymm13) + ymm6
vcmpleps %ymm24, %ymm6, %k2
vmovaps %ymm14, %ymm8 {%k2}
vmovaps %ymm15, %ymm9 {%k2}
vmovaps %ymm16, %ymm2 {%k2}
vblendmps %ymm17, %ymm11, %ymm13 {%k2}
vblendmps %ymm5, %ymm10, %ymm14 {%k2}
vblendmps %ymm4, %ymm3, %ymm15 {%k2}
vmovaps %ymm11, %ymm17 {%k2}
vmovaps %ymm10, %ymm5 {%k2}
vmovaps %ymm3, %ymm4 {%k2}
vsubps %ymm8, %ymm17, %ymm6
vsubps %ymm9, %ymm5, %ymm5
vsubps %ymm2, %ymm4, %ymm11
vsubps %ymm13, %ymm8, %ymm7
vsubps %ymm14, %ymm9, %ymm10
vsubps %ymm15, %ymm2, %ymm12
vmulps %ymm8, %ymm11, %ymm4
vfmsub231ps %ymm6, %ymm2, %ymm4 # ymm4 = (ymm2 * ymm6) - ymm4
vmulps %ymm6, %ymm9, %ymm3
vfmsub231ps %ymm5, %ymm8, %ymm3 # ymm3 = (ymm8 * ymm5) - ymm3
vfmadd231ps %ymm4, %ymm24, %ymm3 # ymm3 = (ymm24 * ymm4) + ymm3
vmulps %ymm2, %ymm5, %ymm4
vfmsub231ps %ymm11, %ymm9, %ymm4 # ymm4 = (ymm9 * ymm11) - ymm4
vfmadd231ps %ymm4, %ymm24, %ymm3 # ymm3 = (ymm24 * ymm4) + ymm3
vmulps %ymm13, %ymm12, %ymm16
vfmsub231ps %ymm15, %ymm7, %ymm16 # ymm16 = (ymm7 * ymm15) - ymm16
vmulps %ymm15, %ymm10, %ymm15
vfmsub231ps %ymm12, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm12) - ymm15
vmulps %ymm7, %ymm14, %ymm4
vfmsub231ps %ymm13, %ymm10, %ymm4 # ymm4 = (ymm10 * ymm13) - ymm4
vfmadd231ps %ymm16, %ymm24, %ymm4 # ymm4 = (ymm24 * ymm16) + ymm4
vfmadd231ps %ymm15, %ymm24, %ymm4 # ymm4 = (ymm24 * ymm15) + ymm4
vmaxps %ymm4, %ymm3, %ymm13
vcmpleps %ymm24, %ymm13, %k0 {%k1}
kortestb %k0, %k0
vmovaps %ymm19, %ymm18
je 0x1cfa36b
vmulps %ymm5, %ymm12, %ymm13
vfmsub231ps %ymm11, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm11) - ymm13
vmulps %ymm7, %ymm11, %ymm11
vfmsub231ps %ymm12, %ymm6, %ymm11 # ymm11 = (ymm6 * ymm12) - ymm11
vmulps %ymm6, %ymm10, %ymm10
vfmsub231ps %ymm5, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm5) - ymm10
vxorps %xmm6, %xmm6, %xmm6
vfmadd213ps %ymm10, %ymm11, %ymm6 # ymm6 = (ymm11 * ymm6) + ymm10
vfmadd231ps %ymm24, %ymm13, %ymm6 # ymm6 = (ymm13 * ymm24) + ymm6
vrcp14ps %ymm6, %ymm7
vmovaps %ymm7, %ymm5
vfnmadd213ps 0x1f297a(%rip){1to8}, %ymm6, %ymm5 # ymm5 = -(ymm6 * ymm5) + mem
vfmadd132ps %ymm7, %ymm7, %ymm5 # ymm5 = (ymm5 * ymm7) + ymm7
vmulps %ymm2, %ymm10, %ymm2
vfmadd231ps %ymm11, %ymm9, %ymm2 # ymm2 = (ymm9 * ymm11) + ymm2
vfmadd231ps %ymm13, %ymm8, %ymm2 # ymm2 = (ymm8 * ymm13) + ymm2
vmulps %ymm5, %ymm2, %ymm2
vcmpgeps 0x4c0(%rsp), %ymm2, %k1
vcmpleps 0x80(%r15,%r14,4){1to8}, %ymm2, %k1 {%k1}
kandb %k0, %k1, %k0
kortestb %k0, %k0
je 0x1cfa36b
vcmpneqps %ymm24, %ymm6, %k1
ktestb %k1, %k0
vmovaps 0x20(%rsp), %xmm7
vmovaps 0x160(%rsp), %ymm17
je 0x1cfa38c
kandb %k1, %k0, %k0
kmovd %k0, %eax
vmulps %ymm5, %ymm3, %ymm3
vmulps %ymm5, %ymm4, %ymm4
vbroadcastss 0x1f290b(%rip), %ymm5 # 0x1eec714
vsubps %ymm3, %ymm5, %ymm20
vmovaps %ymm3, %ymm20 {%k2}
vsubps %ymm4, %ymm5, %ymm3
vmovaps %ymm4, %ymm3 {%k2}
vmovaps %ymm3, 0x4e0(%rsp)
movzbl %al, %eax
vmovaps %ymm2, %ymm21
vmovaps 0x60(%rsp), %ymm6
vmovaps 0x40(%rsp), %ymm2
testw %ax, %ax
je 0x1cfa359
vsubps %ymm0, %ymm1, %ymm1
vfmadd213ps %ymm0, %ymm20, %ymm1 # ymm1 = (ymm20 * ymm1) + ymm0
vaddps %ymm1, %ymm1, %ymm0
vmulps (%r11,%r14,4){1to8}, %ymm0, %ymm0
vcmpnleps %ymm0, %ymm21, %k0
kmovd %k0, %ecx
andb %cl, %al
je 0x1cfa359
movl %edi, 0x8(%rsp)
vbroadcastss 0x1f6b51(%rip), %ymm0 # 0x1ef09cc
vmovaps 0x4e0(%rsp), %ymm1
vfmadd132ps 0x1f716a(%rip){1to8}, %ymm0, %ymm1 # ymm1 = (ymm1 * mem) + ymm0
vmovaps %ymm20, 0x380(%rsp)
vmovaps %ymm1, 0x4e0(%rsp)
vmovaps %ymm1, 0x3a0(%rsp)
vmovaps %ymm21, 0x3c0(%rsp)
movl %r13d, 0x3e0(%rsp)
movl %r9d, 0x3e4(%rsp)
vmovaps %xmm7, 0x3f0(%rsp)
vmovaps 0x150(%rsp), %xmm0
vmovaps %xmm0, 0x400(%rsp)
vmovaps 0x140(%rsp), %xmm0
vmovaps %xmm0, 0x410(%rsp)
vmovdqa 0x1a0(%rsp), %xmm0
vmovdqa %xmm0, 0x420(%rsp)
movb %al, 0x430(%rsp)
movq (%r10), %rcx
movq 0x1e8(%rcx), %rcx
movq 0x98(%rsp), %rdi
movq (%rcx,%rdi,8), %rdi
movl 0x90(%r15,%r14,4), %ecx
movq %rdi, 0x10(%rsp)
testl %ecx, 0x34(%rdi)
je 0x1cfa350
movq 0x10(%r10), %rcx
cmpq $0x0, 0x10(%rcx)
movl 0x8(%rsp), %edi
jne 0x1cf9f53
movq 0x10(%rsp), %rcx
cmpq $0x0, 0x48(%rcx)
movb $0x1, %cl
je 0x1cfa356
vmovaps %ymm29, 0x1e0(%rsp)
vmovaps %ymm28, 0x200(%rsp)
movl %r9d, 0xc(%rsp)
movq %r11, 0x30(%rsp)
movq %r8, 0x38(%rsp)
vmovaps %ymm20, 0x240(%rsp)
vaddps 0x226fbc(%rip), %ymm20, %ymm0 # 0x1f20f40
vcvtsi2ss %r13d, %xmm19, %xmm1
vbroadcastss %xmm1, %ymm1
vaddps %ymm0, %ymm1, %ymm0
vmulps 0x4a0(%rsp), %ymm0, %ymm0
vmovaps %ymm0, 0x440(%rsp)
vmovaps 0x4e0(%rsp), %ymm0
vmovaps %ymm0, 0x460(%rsp)
vmovaps %ymm21, 0x220(%rsp)
vmovaps %ymm21, 0x480(%rsp)
movzbl %al, %esi
vmovaps 0x400(%rsp), %xmm0
vmovaps %xmm0, 0xd0(%rsp)
tzcntq %rsi, %rdi
vmovaps 0x410(%rsp), %xmm0
vmovaps %xmm0, 0x530(%rsp)
vmovaps 0x420(%rsp), %xmm0
vmovaps %xmm0, 0x520(%rsp)
movb $0x1, %al
movl %eax, 0xe0(%rsp)
movq %r10, 0x18(%rsp)
vmovss 0x80(%r15,%r14,4), %xmm8
vmovss 0x480(%rsp,%rdi,4), %xmm0
vbroadcastss 0x440(%rsp,%rdi,4), %xmm1
vbroadcastss 0x460(%rsp,%rdi,4), %xmm2
vmovss %xmm0, 0x80(%r15,%r14,4)
movq 0x8(%r10), %rax
vmovss 0x1f26c4(%rip), %xmm0 # 0x1eec714
vsubss %xmm1, %xmm0, %xmm0
vmulss %xmm0, %xmm0, %xmm3
vmulss %xmm0, %xmm1, %xmm0
vmulss 0x1f6f8c(%rip), %xmm3, %xmm4 # 0x1ef0ff0
vfmadd231ss 0x1f696f(%rip), %xmm0, %xmm3 # xmm3 = (xmm0 * mem) + xmm3
vmulss %xmm1, %xmm1, %xmm5
vfmsub132ss 0x1f6f7e(%rip), %xmm5, %xmm0 # xmm0 = (xmm0 * mem) - xmm5
vmovss 0x1f6f6a(%rip), %xmm6 # 0x1ef0fec
vmulss %xmm6, %xmm3, %xmm3
vmulss %xmm6, %xmm0, %xmm0
vmulss %xmm6, %xmm5, %xmm5
vbroadcastss %xmm5, %xmm5
vmulps 0x520(%rsp), %xmm5, %xmm5
vbroadcastss %xmm0, %xmm0
vfmadd132ps 0x530(%rsp), %xmm5, %xmm0 # xmm0 = (xmm0 * mem) + xmm5
vbroadcastss %xmm3, %xmm3
vfmadd132ps 0xd0(%rsp), %xmm0, %xmm3 # xmm3 = (xmm3 * mem) + xmm0
vbroadcastss %xmm4, %xmm0
vfmadd213ps %xmm3, %xmm7, %xmm0 # xmm0 = (xmm7 * xmm0) + xmm3
vbroadcastss %xmm0, %xmm3
vshufps $0x55, %xmm0, %xmm0, %xmm4 # xmm4 = xmm0[1,1,1,1]
vshufps $0xaa, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[2,2,2,2]
vmovaps %xmm3, 0x2f0(%rsp)
vmovaps %xmm4, 0x300(%rsp)
vmovaps %xmm0, 0x310(%rsp)
vmovaps %xmm1, 0x320(%rsp)
vmovaps %xmm2, 0x330(%rsp)
vmovaps 0x120(%rsp), %xmm0
vmovaps %xmm0, 0x340(%rsp)
vmovdqa 0x130(%rsp), %xmm0
vmovdqa %xmm0, 0x350(%rsp)
leaq 0x360(%rsp), %rcx
vpcmpeqd %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, (%rcx)
vbroadcastss (%rax), %xmm0
vmovaps %xmm0, 0x360(%rsp)
vbroadcastss 0x4(%rax), %xmm0
vmovaps %xmm0, 0x370(%rsp)
vmovaps 0x2b0(%rsp), %xmm0
vmovaps %xmm0, 0x80(%rsp)
leaq 0x80(%rsp), %rcx
movq %rcx, 0xa0(%rsp)
movq 0x10(%rsp), %rdx
movq 0x18(%rdx), %rcx
movq %rcx, 0xa8(%rsp)
movq %rax, 0xb0(%rsp)
movq %r15, 0xb8(%rsp)
leaq 0x2f0(%rsp), %rax
movq %rax, 0xc0(%rsp)
movl $0x4, 0xc8(%rsp)
movq 0x48(%rdx), %rax
testq %rax, %rax
movq %rsi, 0x110(%rsp)
movq %rdi, 0x100(%rsp)
vmovss %xmm8, 0xf0(%rsp)
je 0x1cfa202
leaq 0xa0(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0xf0(%rsp), %xmm8
movq 0x100(%rsp), %rdi
movq 0x110(%rsp), %rsi
vmovaps 0x20(%rsp), %xmm7
movq 0x18(%rsp), %r10
vmovdqa 0x80(%rsp), %xmm0
vptestmd %xmm0, %xmm0, %k0
kortestb %k0, %k0
je 0x1cfa2a0
movq 0x10(%r10), %rcx
movq 0x10(%rcx), %rax
testq %rax, %rax
je 0x1cfa269
testb $0x2, (%rcx)
jne 0x1cfa238
movq 0x10(%rsp), %rcx
testb $0x40, 0x3e(%rcx)
je 0x1cfa269
leaq 0xa0(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0xf0(%rsp), %xmm8
movq 0x100(%rsp), %rdi
movq 0x110(%rsp), %rsi
vmovaps 0x20(%rsp), %xmm7
movq 0x18(%rsp), %r10
vmovdqa 0x80(%rsp), %xmm0
movq 0xb8(%rsp), %rax
vmovaps 0x80(%rax), %xmm1
vptestmd %xmm0, %xmm0, %k1
vbroadcastss 0x1f28f2(%rip), %xmm1 {%k1} # 0x1eecb84
vmovaps %xmm1, 0x80(%rax)
kortestb %k1, %k1
jne 0x1cfa2c3
vmovss %xmm8, 0x80(%r15,%r14,4)
btcq %rdi, %rsi
tzcntq %rsi, %rdi
setae %al
movl %eax, 0xe0(%rsp)
jae 0x1cfa013
movl 0xe0(%rsp), %ecx
andb $0x1, %cl
movq 0x38(%rsp), %r8
movq 0x30(%rsp), %r11
leaq 0x42d006(%rip), %rdx # 0x21272e4
leaq 0x42f41f(%rip), %rsi # 0x2129704
vxorps %xmm24, %xmm24, %xmm24
vmovaps 0x60(%rsp), %ymm6
vmovaps 0x240(%rsp), %ymm20
vmovaps 0x40(%rsp), %ymm2
vmovaps 0x220(%rsp), %ymm21
movl 0xc(%rsp), %r9d
vmovaps 0x280(%rsp), %ymm22
vmovaps 0x260(%rsp), %ymm18
vmovaps 0x160(%rsp), %ymm17
vmovaps 0x200(%rsp), %ymm28
vmovaps 0x1e0(%rsp), %ymm29
jmp 0x1cfa352
vmovaps 0x60(%rsp), %ymm6
vmovaps 0x40(%rsp), %ymm2
vmovaps %ymm23, %ymm18
vmovaps %ymm26, %ymm17
jmp 0x1cfa359
xorl %ecx, %ecx
movl 0x8(%rsp), %edi
orb %cl, %dil
addq $0x8, %r13
cmpl %r13d, %r9d
jg 0x1cf981e
jmp 0x1cf975b
xorl %eax, %eax
vmovaps 0x60(%rsp), %ymm6
vmovaps 0x40(%rsp), %ymm2
vmovaps 0x20(%rsp), %xmm7
vmovaps 0x160(%rsp), %ymm17
jmp 0x1cf9e3d
xorl %eax, %eax
jmp 0x1cf9e31
xorl %eax, %eax
vmovaps 0x60(%rsp), %ymm6
vmovaps 0x40(%rsp), %ymm2
vmovaps 0x20(%rsp), %xmm7
vmovaps 0x200(%rsp), %ymm28
vmovaps 0x1e0(%rsp), %ymm29
vmovaps 0x180(%rsp), %ymm8
vmovaps 0x1c0(%rsp), %xmm9
jmp 0x1cf916f
xorl %eax, %eax
vmovaps 0x60(%rsp), %ymm6
vmovaps 0x40(%rsp), %ymm2
vmovaps 0x20(%rsp), %xmm7
vmovaps 0x180(%rsp), %ymm8
jmp 0x1cf916f
xorl %eax, %eax
vmovaps 0x60(%rsp), %ymm6
vmovaps 0x40(%rsp), %ymm2
jmp 0x1cf916f
movb 0x7(%rsp), %al
andb $0x1, %al
leaq -0x28(%rbp), %rsp
popq %rbx
popq %r12
popq %r13
popq %r14
popq %r15
popq %rbp
vzeroupper
retq
nop
|
/embree[P]embree/kernels/geometry/curveNi_intersector.h
|
bool embree::avx512::CurveNiIntersectorK<8, 8>::occluded_t<embree::avx512::RibbonCurve1IntersectorK<embree::BezierCurveT, 8, 8>, embree::avx512::Occluded1KEpilogMU<8, 8, true>>(embree::avx512::CurvePrecalculationsK<8>&, embree::RayK<8>&, unsigned long, embree::RayQueryContext*, embree::CurveNi<8> const&)
|
static __forceinline bool occluded_t(Precalculations& pre, RayK<K>& ray, const size_t k, RayQueryContext* context, const Primitive& prim)
{
vfloat<M> tNear;
vbool<M> valid = intersect(ray,k,prim,tNear);
const size_t N = prim.N;
size_t mask = movemask(valid);
while (mask)
{
const size_t i = bscf(mask);
STAT3(shadow.trav_prims,1,1,1);
const unsigned int geomID = prim.geomID(N);
const unsigned int primID = prim.primID(N)[i];
const CurveGeometry* geom = context->scene->get<CurveGeometry>(geomID);
Vec3ff a0,a1,a2,a3; geom->gather(a0,a1,a2,a3,geom->curve(primID));
size_t mask1 = mask;
const size_t i1 = bscf(mask1);
if (mask) {
const unsigned int primID1 = prim.primID(N)[i1];
geom->prefetchL1_vertices(geom->curve(primID1));
if (mask1) {
const size_t i2 = bsf(mask1);
const unsigned int primID2 = prim.primID(N)[i2];
geom->prefetchL2_vertices(geom->curve(primID2));
}
}
if (Intersector().intersect(pre,ray,k,context,geom,primID,a0,a1,a2,a3,Epilog(ray,k,context,geomID,primID)))
return true;
mask &= movemask(tNear <= vfloat<M>(ray.tfar[k]));
}
return false;
}
|
pushq %rbp
movq %rsp, %rbp
pushq %r15
pushq %r14
pushq %r13
pushq %r12
pushq %rbx
andq $-0x20, %rsp
subq $0x780, %rsp # imm = 0x780
movq %rdx, %r14
movq %rsi, %r15
movzbl 0x1(%r8), %eax
leaq (%rax,%rax,4), %rdx
leaq (%rdx,%rdx,4), %rsi
vbroadcastss 0x12(%r8,%rsi), %xmm0
vmovss (%r15,%r14,4), %xmm1
vmovss 0x80(%r15,%r14,4), %xmm2
vinsertps $0x10, 0x20(%r15,%r14,4), %xmm1, %xmm1 # xmm1 = xmm1[0],mem[0],xmm1[2,3]
vinsertps $0x20, 0x40(%r15,%r14,4), %xmm1, %xmm1 # xmm1 = xmm1[0,1],mem[0],xmm1[3]
vinsertps $0x10, 0xa0(%r15,%r14,4), %xmm2, %xmm2 # xmm2 = xmm2[0],mem[0],xmm2[2,3]
movq %rcx, %r10
movq %rdi, %r11
vinsertps $0x20, 0xc0(%r15,%r14,4), %xmm2, %xmm2 # xmm2 = xmm2[0,1],mem[0],xmm2[3]
vsubps 0x6(%r8,%rsi), %xmm1, %xmm1
vmulps %xmm1, %xmm0, %xmm3
vmulps %xmm2, %xmm0, %xmm0
vpmovsxbd 0x6(%r8,%rax,4), %ymm1
vcvtdq2ps %ymm1, %ymm5
vpmovsxbd 0x6(%r8,%rdx), %ymm1
vcvtdq2ps %ymm1, %ymm6
leaq (%rax,%rax,2), %rcx
vpmovsxbd 0x6(%r8,%rcx,2), %ymm1
vcvtdq2ps %ymm1, %ymm2
leaq (%rax,%rdx,2), %rsi
vpmovsxbd 0x6(%r8,%rsi), %ymm1
vcvtdq2ps %ymm1, %ymm7
leal (,%rcx,4), %esi
vpmovsxbd 0x6(%r8,%rsi), %ymm1
vcvtdq2ps %ymm1, %ymm8
addq %rax, %rsi
vpmovsxbd 0x6(%r8,%rsi), %ymm1
vcvtdq2ps %ymm1, %ymm9
leaq (%rax,%rax,8), %rsi
leal (%rsi,%rsi), %edi
vpmovsxbd 0x6(%r8,%rdi), %ymm1
addq %rax, %rdi
vpmovsxbd 0x6(%r8,%rdi), %ymm4
vcvtdq2ps %ymm1, %ymm10
vcvtdq2ps %ymm4, %ymm11
shll $0x2, %edx
vpmovsxbd 0x6(%r8,%rdx), %ymm1
vcvtdq2ps %ymm1, %ymm12
vbroadcastss %xmm0, %ymm13
vbroadcastss 0x215dcb(%rip), %ymm15 # 0x1f12704
vpermps %ymm0, %ymm15, %ymm14
vbroadcastss 0x224594(%rip), %ymm16 # 0x1f20edc
vpermps %ymm0, %ymm16, %ymm0
vmulps %ymm2, %ymm0, %ymm4
vmulps %ymm0, %ymm9, %ymm1
vmulps %ymm0, %ymm12, %ymm0
vfmadd231ps %ymm6, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm6) + ymm4
vfmadd231ps %ymm8, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm8) + ymm1
vfmadd231ps %ymm14, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm14) + ymm0
vfmadd231ps %ymm5, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm5) + ymm4
vfmadd231ps %ymm7, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm7) + ymm1
vfmadd231ps %ymm13, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm13) + ymm0
vbroadcastss %xmm3, %ymm13
vpermps %ymm3, %ymm15, %ymm14
vpermps %ymm3, %ymm16, %ymm15
vmulps %ymm2, %ymm15, %ymm16
vmulps %ymm9, %ymm15, %ymm3
vmulps %ymm12, %ymm15, %ymm2
vfmadd231ps %ymm6, %ymm14, %ymm16 # ymm16 = (ymm14 * ymm6) + ymm16
vfmadd231ps %ymm8, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm8) + ymm3
vfmadd231ps %ymm11, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm11) + ymm2
vfmadd231ps %ymm5, %ymm13, %ymm16 # ymm16 = (ymm13 * ymm5) + ymm16
vfmadd231ps %ymm7, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm7) + ymm3
vfmadd231ps %ymm10, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm10) + ymm2
vbroadcastss 0x224503(%rip), %ymm7 # 0x1f20ec4
vandps %ymm7, %ymm4, %ymm5
vbroadcastss 0x1f461a(%rip), %ymm6 # 0x1ef0fe8
vcmpltps %ymm6, %ymm5, %k1
vmovaps %ymm6, %ymm4 {%k1}
vandps %ymm7, %ymm1, %ymm5
vcmpltps %ymm6, %ymm5, %k1
vmovaps %ymm6, %ymm1 {%k1}
vandps %ymm7, %ymm0, %ymm5
vcmpltps %ymm6, %ymm5, %k1
vmovaps %ymm6, %ymm0 {%k1}
vrcp14ps %ymm4, %ymm5
vbroadcastss 0x1efd08(%rip), %ymm6 # 0x1eec714
vfnmadd213ps %ymm6, %ymm5, %ymm4 # ymm4 = -(ymm5 * ymm4) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm4 # ymm4 = (ymm4 * ymm5) + ymm5
vrcp14ps %ymm1, %ymm5
vfnmadd213ps %ymm6, %ymm5, %ymm1 # ymm1 = -(ymm5 * ymm1) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm1 # ymm1 = (ymm1 * ymm5) + ymm5
vrcp14ps %ymm0, %ymm5
vfnmadd213ps %ymm6, %ymm5, %ymm0 # ymm0 = -(ymm5 * ymm0) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm0 # ymm0 = (ymm0 * ymm5) + ymm5
leaq (,%rax,8), %rdi
subq %rax, %rdi
vpmovsxwd 0x6(%r8,%rdi), %ymm5
vcvtdq2ps %ymm5, %ymm5
vsubps %ymm16, %ymm5, %ymm5
vpmovsxwd 0x6(%r8,%rsi), %ymm6
vmulps %ymm5, %ymm4, %ymm5
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm16, %ymm6, %ymm6
vmulps %ymm6, %ymm4, %ymm4
leaq (%rax,%rax), %rsi
addq %rax, %rdx
shlq $0x3, %rcx
subq %rax, %rcx
movl %eax, %edi
shll $0x4, %edi
vpmovsxwd 0x6(%r8,%rdi), %ymm6
subq %rsi, %rdi
vpmovsxwd 0x6(%r8,%rdi), %ymm7
vcvtdq2ps %ymm7, %ymm7
vsubps %ymm3, %ymm7, %ymm7
vmulps %ymm7, %ymm1, %ymm7
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm3, %ymm6, %ymm3
vmulps %ymm3, %ymm1, %ymm1
vpmovsxwd 0x6(%r8,%rdx), %ymm3
vcvtdq2ps %ymm3, %ymm3
vsubps %ymm2, %ymm3, %ymm3
vmulps %ymm0, %ymm3, %ymm3
vpmovsxwd 0x6(%r8,%rcx), %ymm6
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm2, %ymm6, %ymm2
vmulps %ymm2, %ymm0, %ymm0
vpminsd %ymm4, %ymm5, %ymm2
vpminsd %ymm1, %ymm7, %ymm6
vmaxps %ymm6, %ymm2, %ymm2
vpminsd %ymm0, %ymm3, %ymm6
vmaxps 0x60(%r15,%r14,4){1to8}, %ymm6, %ymm6
vmaxps %ymm6, %ymm2, %ymm2
vmulps 0x22341a(%rip){1to8}, %ymm2, %ymm6 # 0x1f1ff10
vpmaxsd %ymm4, %ymm5, %ymm2
vpmaxsd %ymm1, %ymm7, %ymm1
vminps %ymm1, %ymm2, %ymm1
vpmaxsd %ymm0, %ymm3, %ymm0
vminps 0x100(%r15,%r14,4){1to8}, %ymm0, %ymm0
vminps %ymm0, %ymm1, %ymm0
vmulps 0x2233f5(%rip){1to8}, %ymm0, %ymm0 # 0x1f1ff14
vpbroadcastd %eax, %ymm1
vpcmpgtd 0x25ddf1(%rip), %ymm1, %k0 # 0x1f5a920
vmovaps %ymm6, 0x740(%rsp)
vcmpleps %ymm0, %ymm6, %k1
ktestb %k0, %k1
setne 0x7(%rsp)
je 0x1cfe7d3
kandb %k0, %k1, %k0
kmovd %k0, %eax
movzbl %al, %r12d
leaq (%r14,%r14,2), %rax
shlq $0x4, %rax
addq %r11, %rax
addq $0x20, %rax
movq %rax, 0x198(%rsp)
leaq 0x500(%rsp), %rax
leaq 0xe0(%rax), %rax
movq %rax, 0x88(%rsp)
movl $0x1, %eax
shlxl %r14d, %eax, %eax
kmovd %eax, %k0
vpmovm2d %k0, %ymm0
vmovdqa %ymm0, 0x4c0(%rsp)
vmovaps %ymm6, 0x60(%rsp)
vmovaps %ymm2, 0x40(%rsp)
vmovaps %ymm21, 0x200(%rsp)
vmovaps %ymm20, 0x220(%rsp)
tzcntq %r12, %rax
movl 0x2(%r8), %ecx
movl 0x6(%r8,%rax,4), %esi
movq (%r10), %rax
movq 0x1e8(%rax), %rax
movq %rcx, 0x80(%rsp)
movq (%rax,%rcx,8), %r13
movq 0x58(%r13), %rax
movq 0x68(%r13), %rcx
movq %rcx, %rdx
movq %rsi, 0x10(%rsp)
imulq %rsi, %rdx
movl (%rax,%rdx), %edi
movq 0xa0(%r13), %rdx
movq %rdx, %r9
imulq %rdi, %r9
movq 0x90(%r13), %rsi
vmovaps (%rsi,%r9), %xmm13
leaq 0x1(%rdi), %r9
imulq %rdx, %r9
vmovaps (%rsi,%r9), %xmm0
vmovaps %xmm0, 0x110(%rsp)
leaq 0x2(%rdi), %r9
imulq %rdx, %r9
vmovaps (%rsi,%r9), %xmm0
vmovaps %xmm0, 0x100(%rsp)
blsrq %r12, %r12
addq $0x3, %rdi
imulq %rdx, %rdi
vmovaps (%rsi,%rdi), %xmm0
vmovaps %xmm0, 0x180(%rsp)
movq %r12, %rdi
subq $0x1, %rdi
jb 0x1cfccb0
andq %r12, %rdi
tzcntq %r12, %r9
movl 0x6(%r8,%r9,4), %r9d
imulq %rcx, %r9
movl (%rax,%r9), %r9d
imulq %rdx, %r9
prefetcht0 (%rsi,%r9)
prefetcht0 0x40(%rsi,%r9)
testq %rdi, %rdi
je 0x1cfccb0
tzcntq %rdi, %rdi
movl 0x6(%r8,%rdi,4), %edi
imulq %rdi, %rcx
movl (%rax,%rcx), %eax
imulq %rax, %rdx
prefetcht1 (%rsi,%rdx)
prefetcht1 0x40(%rsi,%rdx)
movl 0x248(%r13), %r9d
vmovss (%r15,%r14,4), %xmm0
vinsertps $0x1c, 0x20(%r15,%r14,4), %xmm0, %xmm0 # xmm0 = xmm0[0],mem[0],zero,zero
vinsertps $0x28, 0x40(%r15,%r14,4), %xmm0, %xmm0 # xmm0 = xmm0[0,1],mem[0],zero
vsubps %xmm0, %xmm13, %xmm1
vbroadcastss %xmm1, %xmm2
vshufps $0x55, %xmm1, %xmm1, %xmm3 # xmm3 = xmm1[1,1,1,1]
vshufps $0xaa, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,2,2,2]
movq 0x198(%rsp), %rax
vmovaps (%rax), %xmm4
vmovaps 0x10(%rax), %xmm5
vmovaps 0x20(%rax), %xmm6
vmulps %xmm1, %xmm6, %xmm8
vfmadd231ps %xmm3, %xmm5, %xmm8 # xmm8 = (xmm5 * xmm3) + xmm8
vfmadd231ps %xmm2, %xmm4, %xmm8 # xmm8 = (xmm4 * xmm2) + xmm8
vshufps $0xff, %xmm13, %xmm13, %xmm1 # xmm1 = xmm13[3,3,3,3]
vmovaps 0x110(%rsp), %xmm3
vsubps %xmm0, %xmm3, %xmm2
vmovaps %xmm3, %xmm10
vbroadcastss %xmm2, %xmm3
vshufps $0x55, %xmm2, %xmm2, %xmm7 # xmm7 = xmm2[1,1,1,1]
vshufps $0xaa, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[2,2,2,2]
vmulps %xmm2, %xmm6, %xmm9
vfmadd231ps %xmm7, %xmm5, %xmm9 # xmm9 = (xmm5 * xmm7) + xmm9
vfmadd231ps %xmm3, %xmm4, %xmm9 # xmm9 = (xmm4 * xmm3) + xmm9
vshufps $0xff, %xmm10, %xmm10, %xmm2 # xmm2 = xmm10[3,3,3,3]
vmovaps 0x100(%rsp), %xmm7
vsubps %xmm0, %xmm7, %xmm3
vmovaps %xmm7, %xmm12
vbroadcastss %xmm3, %xmm7
vshufps $0x55, %xmm3, %xmm3, %xmm11 # xmm11 = xmm3[1,1,1,1]
vshufps $0xaa, %xmm3, %xmm3, %xmm3 # xmm3 = xmm3[2,2,2,2]
vmulps %xmm3, %xmm6, %xmm10
vfmadd231ps %xmm11, %xmm5, %xmm10 # xmm10 = (xmm5 * xmm11) + xmm10
vfmadd231ps %xmm7, %xmm4, %xmm10 # xmm10 = (xmm4 * xmm7) + xmm10
vshufps $0xff, %xmm12, %xmm12, %xmm7 # xmm7 = xmm12[3,3,3,3]
vmovaps 0x180(%rsp), %xmm27
vsubps %xmm0, %xmm27, %xmm0
vbroadcastss %xmm0, %xmm3
vshufps $0x55, %xmm0, %xmm0, %xmm12 # xmm12 = xmm0[1,1,1,1]
vshufps $0xaa, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[2,2,2,2]
vmulps %xmm0, %xmm6, %xmm11
vfmadd231ps %xmm12, %xmm5, %xmm11 # xmm11 = (xmm5 * xmm12) + xmm11
vfmadd231ps %xmm3, %xmm4, %xmm11 # xmm11 = (xmm4 * xmm3) + xmm11
movslq %r9d, %rax
movq %rax, %rcx
shlq $0x6, %rcx
leaq (%rcx,%rax,4), %rbx
leaq 0x42a532(%rip), %rdx # 0x21272e4
vmovups (%rdx,%rbx), %ymm25
vshufps $0xff, %xmm27, %xmm27, %xmm0 # xmm0 = xmm27[3,3,3,3]
vbroadcastss %xmm8, %ymm20
vbroadcastss 0x215935(%rip), %ymm3 # 0x1f12704
vpermps %ymm8, %ymm3, %ymm23
vbroadcastsd %xmm1, %ymm12
vmovups 0x484(%rdx,%rbx), %ymm14
vbroadcastss %xmm9, %ymm1
vpermps %ymm9, %ymm3, %ymm31
vbroadcastsd %xmm2, %ymm21
vmovups 0x908(%rdx,%rbx), %ymm15
vbroadcastss %xmm10, %ymm29
vpermps %ymm10, %ymm3, %ymm30
vbroadcastsd %xmm7, %ymm22
vmovups 0xd8c(%rdx,%rbx), %ymm16
vbroadcastss %xmm11, %ymm28
vpermps %ymm11, %ymm3, %ymm26
vbroadcastsd %xmm0, %ymm3
vmulps %ymm16, %ymm28, %ymm5
vmulps %ymm16, %ymm26, %ymm4
vfmadd231ps %ymm29, %ymm15, %ymm5 # ymm5 = (ymm15 * ymm29) + ymm5
vfmadd231ps %ymm30, %ymm15, %ymm4 # ymm4 = (ymm15 * ymm30) + ymm4
vfmadd231ps %ymm1, %ymm14, %ymm5 # ymm5 = (ymm14 * ymm1) + ymm5
vfmadd231ps %ymm31, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm31) + ymm4
vfmadd231ps %ymm20, %ymm25, %ymm5 # ymm5 = (ymm25 * ymm20) + ymm5
leaq 0x42c8a9(%rip), %rsi # 0x2129704
vmovups (%rsi,%rbx), %ymm2
vmovups 0x484(%rsi,%rbx), %ymm17
vfmadd231ps %ymm23, %ymm25, %ymm4 # ymm4 = (ymm25 * ymm23) + ymm4
vmovups 0x908(%rsi,%rbx), %ymm18
vmovups 0xd8c(%rsi,%rbx), %ymm19
vmulps %ymm19, %ymm28, %ymm7
vmulps %ymm19, %ymm26, %ymm6
vfmadd231ps %ymm29, %ymm18, %ymm7 # ymm7 = (ymm18 * ymm29) + ymm7
vfmadd231ps %ymm30, %ymm18, %ymm6 # ymm6 = (ymm18 * ymm30) + ymm6
vmovaps %ymm1, 0x120(%rsp)
vfmadd231ps %ymm1, %ymm17, %ymm7 # ymm7 = (ymm17 * ymm1) + ymm7
vfmadd231ps %ymm31, %ymm17, %ymm6 # ymm6 = (ymm17 * ymm31) + ymm6
vmovaps %ymm20, 0x260(%rsp)
vfmadd231ps %ymm20, %ymm2, %ymm7 # ymm7 = (ymm2 * ymm20) + ymm7
vmovaps %ymm23, 0x240(%rsp)
vfmadd231ps %ymm23, %ymm2, %ymm6 # ymm6 = (ymm2 * ymm23) + ymm6
vsubps %ymm5, %ymm7, %ymm24
vsubps %ymm4, %ymm6, %ymm23
vmulps %ymm24, %ymm4, %ymm0
vmulps %ymm23, %ymm5, %ymm1
vsubps %ymm1, %ymm0, %ymm20
vmulps %ymm16, %ymm3, %ymm0
vfmadd231ps %ymm22, %ymm15, %ymm0 # ymm0 = (ymm15 * ymm22) + ymm0
vfmadd231ps %ymm21, %ymm14, %ymm0 # ymm0 = (ymm14 * ymm21) + ymm0
vfmadd231ps %ymm12, %ymm25, %ymm0 # ymm0 = (ymm25 * ymm12) + ymm0
vmovaps %ymm3, 0x680(%rsp)
vmulps %ymm19, %ymm3, %ymm1
vmovaps %ymm22, 0x6a0(%rsp)
vfmadd231ps %ymm22, %ymm18, %ymm1 # ymm1 = (ymm18 * ymm22) + ymm1
vmovaps %ymm21, 0x700(%rsp)
vfmadd231ps %ymm21, %ymm17, %ymm1 # ymm1 = (ymm17 * ymm21) + ymm1
vmovaps %ymm12, 0x720(%rsp)
vfmadd231ps %ymm12, %ymm2, %ymm1 # ymm1 = (ymm2 * ymm12) + ymm1
vmulps %ymm23, %ymm23, %ymm21
vfmadd231ps %ymm24, %ymm24, %ymm21 # ymm21 = (ymm24 * ymm24) + ymm21
vmaxps %ymm1, %ymm0, %ymm22
vmulps %ymm22, %ymm22, %ymm22
vmulps %ymm21, %ymm22, %ymm21
vmulps %ymm20, %ymm20, %ymm20
vcmpleps %ymm21, %ymm20, %k1
vmovaps %xmm13, 0x20(%rsp)
vblendps $0x8, %xmm13, %xmm8, %xmm12 # xmm12 = xmm8[0,1,2],xmm13[3]
vbroadcastss 0x223f44(%rip), %xmm20 # 0x1f20ec4
vandps %xmm20, %xmm12, %xmm12
vblendps $0x8, 0x110(%rsp), %xmm9, %xmm13 # xmm13 = xmm9[0,1,2],mem[3]
vandps %xmm20, %xmm13, %xmm13
vmaxps %xmm13, %xmm12, %xmm12
vblendps $0x8, 0x100(%rsp), %xmm10, %xmm13 # xmm13 = xmm10[0,1,2],mem[3]
vandps %xmm20, %xmm13, %xmm13
vmovaps %xmm27, %xmm3
vblendps $0x8, %xmm3, %xmm11, %xmm3 # xmm3 = xmm11[0,1,2],xmm3[3]
vandps %xmm20, %xmm3, %xmm3
vmaxps %xmm3, %xmm13, %xmm3
vmaxps %xmm3, %xmm12, %xmm3
vmovshdup %xmm3, %xmm12 # xmm12 = xmm3[1,1,3,3]
vmaxss %xmm3, %xmm12, %xmm12
vshufpd $0x1, %xmm3, %xmm3, %xmm3 # xmm3 = xmm3[1,0]
vmaxss %xmm12, %xmm3, %xmm3
vcvtsi2ss %r9d, %xmm8, %xmm12
vmovaps %xmm12, 0x2e0(%rsp)
vbroadcastss %xmm12, %ymm12
vcmpgtps 0x223f49(%rip), %ymm12, %k1 {%k1} # 0x1f20f40
vmulss 0x1f3fe5(%rip), %xmm3, %xmm12 # 0x1ef0fe4
vbroadcastss 0x223ed4(%rip), %ymm3 # 0x1f20edc
vpermps %ymm8, %ymm3, %ymm20
vpermps %ymm9, %ymm3, %ymm21
vpermps %ymm10, %ymm3, %ymm22
vpermps %ymm11, %ymm3, %ymm8
kortestb %k1, %k1
vmovss 0x60(%r15,%r14,4), %xmm9
vmovaps %ymm31, 0x4e0(%rsp)
vmovaps %ymm29, 0x6e0(%rsp)
vmovaps %ymm30, 0x6c0(%rsp)
vmovaps %ymm20, 0x660(%rsp)
vmovaps %ymm21, 0x640(%rsp)
vmovaps %ymm22, 0x620(%rsp)
je 0x1cfdacb
vmovaps %xmm9, 0x1a0(%rsp)
vmulps %ymm19, %ymm8, %ymm3
vfmadd213ps %ymm3, %ymm22, %ymm18 # ymm18 = (ymm22 * ymm18) + ymm3
vfmadd213ps %ymm18, %ymm21, %ymm17 # ymm17 = (ymm21 * ymm17) + ymm18
vfmadd213ps %ymm17, %ymm20, %ymm2 # ymm2 = (ymm20 * ymm2) + ymm17
vmulps %ymm16, %ymm8, %ymm3
vfmadd213ps %ymm3, %ymm22, %ymm15 # ymm15 = (ymm22 * ymm15) + ymm3
vfmadd213ps %ymm15, %ymm21, %ymm14 # ymm14 = (ymm21 * ymm14) + ymm15
vmovups 0x1210(%rdx,%rbx), %ymm3
vmovups 0x1694(%rdx,%rbx), %ymm10
vmovups 0x1b18(%rdx,%rbx), %ymm11
vmovaps %xmm12, %xmm16
vmovups 0x1f9c(%rdx,%rbx), %ymm12
vfmadd213ps %ymm14, %ymm20, %ymm25 # ymm25 = (ymm20 * ymm25) + ymm14
vmulps %ymm12, %ymm28, %ymm9
vmovaps %ymm8, %ymm15
vmulps %ymm12, %ymm26, %ymm8
vmulps %ymm12, %ymm15, %ymm12
vfmadd231ps %ymm29, %ymm11, %ymm9 # ymm9 = (ymm11 * ymm29) + ymm9
vfmadd231ps %ymm30, %ymm11, %ymm8 # ymm8 = (ymm11 * ymm30) + ymm8
vfmadd231ps %ymm11, %ymm22, %ymm12 # ymm12 = (ymm22 * ymm11) + ymm12
vmovaps 0x120(%rsp), %ymm19
vfmadd231ps %ymm19, %ymm10, %ymm9 # ymm9 = (ymm10 * ymm19) + ymm9
vfmadd231ps %ymm31, %ymm10, %ymm8 # ymm8 = (ymm10 * ymm31) + ymm8
vfmadd231ps %ymm10, %ymm21, %ymm12 # ymm12 = (ymm21 * ymm10) + ymm12
vmovaps 0x260(%rsp), %ymm17
vfmadd231ps %ymm17, %ymm3, %ymm9 # ymm9 = (ymm3 * ymm17) + ymm9
vmovaps 0x240(%rsp), %ymm18
vfmadd231ps %ymm18, %ymm3, %ymm8 # ymm8 = (ymm3 * ymm18) + ymm8
vmovups 0x1210(%rsi,%rbx), %ymm10
vmovups 0x1b18(%rsi,%rbx), %ymm11
vmovups 0x1f9c(%rsi,%rbx), %ymm13
vfmadd231ps %ymm3, %ymm20, %ymm12 # ymm12 = (ymm20 * ymm3) + ymm12
vmovaps %ymm28, 0x1e0(%rsp)
vmulps %ymm13, %ymm28, %ymm3
vmovaps %ymm26, 0x1c0(%rsp)
vmulps %ymm13, %ymm26, %ymm14
vmovaps %ymm15, 0x140(%rsp)
vmulps %ymm13, %ymm15, %ymm13
vfmadd231ps %ymm29, %ymm11, %ymm3 # ymm3 = (ymm11 * ymm29) + ymm3
vfmadd231ps %ymm30, %ymm11, %ymm14 # ymm14 = (ymm11 * ymm30) + ymm14
vfmadd231ps %ymm11, %ymm22, %ymm13 # ymm13 = (ymm22 * ymm11) + ymm13
vmovups 0x1694(%rsi,%rbx), %ymm11
vfmadd231ps %ymm19, %ymm11, %ymm3 # ymm3 = (ymm11 * ymm19) + ymm3
vfmadd231ps %ymm31, %ymm11, %ymm14 # ymm14 = (ymm11 * ymm31) + ymm14
vfmadd231ps %ymm11, %ymm21, %ymm13 # ymm13 = (ymm21 * ymm11) + ymm13
vfmadd231ps %ymm17, %ymm10, %ymm3 # ymm3 = (ymm10 * ymm17) + ymm3
vfmadd231ps %ymm18, %ymm10, %ymm14 # ymm14 = (ymm10 * ymm18) + ymm14
vfmadd231ps %ymm10, %ymm20, %ymm13 # ymm13 = (ymm20 * ymm10) + ymm13
vbroadcastss 0x223d10(%rip), %ymm15 # 0x1f20ec4
vandps %ymm15, %ymm9, %ymm10
vandps %ymm15, %ymm8, %ymm11
vmaxps %ymm11, %ymm10, %ymm10
vandps %ymm15, %ymm12, %ymm11
vmaxps %ymm11, %ymm10, %ymm10
vbroadcastss %xmm16, %ymm11
vmovaps %xmm16, %xmm26
vcmpltps %ymm11, %ymm10, %k2
vmovaps %ymm24, %ymm9 {%k2}
vmovaps %ymm23, %ymm8 {%k2}
vandps %ymm3, %ymm15, %ymm10
vandps %ymm15, %ymm14, %ymm12
vmaxps %ymm12, %ymm10, %ymm10
vandps %ymm15, %ymm13, %ymm12
vmaxps %ymm12, %ymm10, %ymm10
vcmpltps %ymm11, %ymm10, %k2
vmovaps %ymm24, %ymm3 {%k2}
vmovaps %ymm23, %ymm14 {%k2}
vbroadcastss 0x223ca0(%rip), %ymm11 # 0x1f20ec0
vxorps %ymm11, %ymm9, %ymm10
vxorps %ymm3, %ymm11, %ymm12
vxorps %xmm24, %xmm24, %xmm24
vfmadd213ps %ymm24, %ymm9, %ymm9 # ymm9 = (ymm9 * ymm9) + ymm24
vfmadd231ps %ymm8, %ymm8, %ymm9 # ymm9 = (ymm8 * ymm8) + ymm9
vrsqrt14ps %ymm9, %ymm11
vbroadcastss 0x1ef4d3(%rip), %ymm15 # 0x1eec71c
vmulps %ymm15, %ymm9, %ymm9
vmulps %ymm9, %ymm11, %ymm9
vmulps %ymm11, %ymm11, %ymm13
vmulps %ymm9, %ymm13, %ymm9
vbroadcastss 0x1ef4b1(%rip), %ymm16 # 0x1eec718
vfmadd231ps %ymm11, %ymm16, %ymm9 # ymm9 = (ymm16 * ymm11) + ymm9
vmulps %ymm9, %ymm8, %ymm11
vmulps %ymm10, %ymm9, %ymm10
vmulps %ymm24, %ymm9, %ymm13
vfmadd213ps %ymm24, %ymm3, %ymm3 # ymm3 = (ymm3 * ymm3) + ymm24
vfmadd231ps %ymm14, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm14) + ymm3
vrsqrt14ps %ymm3, %ymm8
vmulps %ymm3, %ymm15, %ymm3
vmulps %ymm3, %ymm8, %ymm3
vmulps %ymm8, %ymm8, %ymm9
vmulps %ymm3, %ymm9, %ymm3
vfmadd231ps %ymm8, %ymm16, %ymm3 # ymm3 = (ymm16 * ymm8) + ymm3
vmulps %ymm3, %ymm14, %ymm8
vmulps %ymm3, %ymm12, %ymm9
vmulps %ymm24, %ymm3, %ymm3
vmovaps %ymm11, %ymm12
vfmadd213ps %ymm5, %ymm0, %ymm12 # ymm12 = (ymm0 * ymm12) + ymm5
vmovaps %ymm10, %ymm14
vfmadd213ps %ymm4, %ymm0, %ymm14 # ymm14 = (ymm0 * ymm14) + ymm4
vmovaps %ymm13, %ymm15
vfmadd213ps %ymm25, %ymm0, %ymm15 # ymm15 = (ymm0 * ymm15) + ymm25
vmovaps %ymm8, %ymm16
vfmadd213ps %ymm7, %ymm1, %ymm16 # ymm16 = (ymm1 * ymm16) + ymm7
vfnmadd213ps %ymm5, %ymm0, %ymm11 # ymm11 = -(ymm0 * ymm11) + ymm5
vmovaps %ymm9, %ymm5
vfmadd213ps %ymm6, %ymm1, %ymm5 # ymm5 = (ymm1 * ymm5) + ymm6
vfnmadd213ps %ymm4, %ymm0, %ymm10 # ymm10 = -(ymm0 * ymm10) + ymm4
vmovaps %ymm3, %ymm4
vfmadd213ps %ymm2, %ymm1, %ymm4 # ymm4 = (ymm1 * ymm4) + ymm2
vfnmadd231ps %ymm13, %ymm0, %ymm25 # ymm25 = -(ymm0 * ymm13) + ymm25
vfnmadd213ps %ymm7, %ymm1, %ymm8 # ymm8 = -(ymm1 * ymm8) + ymm7
vfnmadd213ps %ymm6, %ymm1, %ymm9 # ymm9 = -(ymm1 * ymm9) + ymm6
vfnmadd231ps %ymm3, %ymm1, %ymm2 # ymm2 = -(ymm1 * ymm3) + ymm2
vsubps %ymm11, %ymm16, %ymm3
vsubps %ymm10, %ymm5, %ymm6
vsubps %ymm25, %ymm4, %ymm7
vmulps %ymm25, %ymm6, %ymm13
vfmsub231ps %ymm7, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm7) - ymm13
vmulps %ymm7, %ymm11, %ymm7
vfmsub231ps %ymm3, %ymm25, %ymm7 # ymm7 = (ymm25 * ymm3) - ymm7
vmulps %ymm3, %ymm10, %ymm3
vfmsub231ps %ymm6, %ymm11, %ymm3 # ymm3 = (ymm11 * ymm6) - ymm3
vfmadd231ps %ymm7, %ymm24, %ymm3 # ymm3 = (ymm24 * ymm7) + ymm3
vfmadd231ps %ymm13, %ymm24, %ymm3 # ymm3 = (ymm24 * ymm13) + ymm3
vcmpleps %ymm24, %ymm3, %k2
vmovaps %ymm12, %ymm8 {%k2}
vmovaps %ymm14, %ymm9 {%k2}
vmovaps %ymm15, %ymm2 {%k2}
vblendmps %ymm16, %ymm11, %ymm13 {%k2}
vblendmps %ymm5, %ymm10, %ymm14 {%k2}
vblendmps %ymm4, %ymm25, %ymm15 {%k2}
vmovaps %ymm11, %ymm16 {%k2}
vmovaps %ymm10, %ymm5 {%k2}
vmovaps %ymm25, %ymm4 {%k2}
vsubps %ymm8, %ymm16, %ymm6
vsubps %ymm9, %ymm5, %ymm5
vsubps %ymm2, %ymm4, %ymm11
vsubps %ymm13, %ymm8, %ymm7
vsubps %ymm14, %ymm9, %ymm10
vsubps %ymm15, %ymm2, %ymm12
vmulps %ymm8, %ymm11, %ymm4
vfmsub231ps %ymm6, %ymm2, %ymm4 # ymm4 = (ymm2 * ymm6) - ymm4
vmulps %ymm6, %ymm9, %ymm3
vfmsub231ps %ymm5, %ymm8, %ymm3 # ymm3 = (ymm8 * ymm5) - ymm3
vfmadd231ps %ymm4, %ymm24, %ymm3 # ymm3 = (ymm24 * ymm4) + ymm3
vmulps %ymm2, %ymm5, %ymm4
vfmsub231ps %ymm11, %ymm9, %ymm4 # ymm4 = (ymm9 * ymm11) - ymm4
vfmadd231ps %ymm4, %ymm24, %ymm3 # ymm3 = (ymm24 * ymm4) + ymm3
vmulps %ymm13, %ymm12, %ymm16
vfmsub231ps %ymm15, %ymm7, %ymm16 # ymm16 = (ymm7 * ymm15) - ymm16
vmulps %ymm15, %ymm10, %ymm15
vfmsub231ps %ymm12, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm12) - ymm15
vmulps %ymm7, %ymm14, %ymm4
vfmsub231ps %ymm13, %ymm10, %ymm4 # ymm4 = (ymm10 * ymm13) - ymm4
vfmadd231ps %ymm16, %ymm24, %ymm4 # ymm4 = (ymm24 * ymm16) + ymm4
vfmadd231ps %ymm15, %ymm24, %ymm4 # ymm4 = (ymm24 * ymm15) + ymm4
vmaxps %ymm4, %ymm3, %ymm13
vcmpleps %ymm24, %ymm13, %k0 {%k1}
kortestb %k0, %k0
vmovaps 0x220(%rsp), %ymm20
vmovaps 0x200(%rsp), %ymm21
vmovaps %ymm17, %ymm22
vmovaps %ymm19, %ymm17
vmovaps %xmm26, %xmm14
je 0x1cfe763
vmulps %ymm5, %ymm12, %ymm13
vfmsub231ps %ymm11, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm11) - ymm13
vmulps %ymm7, %ymm11, %ymm11
vfmsub231ps %ymm12, %ymm6, %ymm11 # ymm11 = (ymm6 * ymm12) - ymm11
vmulps %ymm6, %ymm10, %ymm10
vfmsub231ps %ymm5, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm5) - ymm10
vxorps %xmm6, %xmm6, %xmm6
vfmadd213ps %ymm10, %ymm11, %ymm6 # ymm6 = (ymm11 * ymm6) + ymm10
vfmadd231ps %ymm24, %ymm13, %ymm6 # ymm6 = (ymm13 * ymm24) + ymm6
vrcp14ps %ymm6, %ymm7
vmovaps %ymm7, %ymm5
vfnmadd213ps 0x1ef2a7(%rip){1to8}, %ymm6, %ymm5 # ymm5 = -(ymm6 * ymm5) + mem
vfmadd132ps %ymm7, %ymm7, %ymm5 # ymm5 = (ymm5 * ymm7) + ymm7
vmulps %ymm2, %ymm10, %ymm2
vfmadd231ps %ymm11, %ymm9, %ymm2 # ymm2 = (ymm9 * ymm11) + ymm2
vfmadd231ps %ymm13, %ymm8, %ymm2 # ymm2 = (ymm8 * ymm13) + ymm2
vmulps %ymm5, %ymm2, %ymm2
vmovaps 0x1a0(%rsp), %xmm9
vbroadcastss %xmm9, %ymm7
vcmpleps %ymm2, %ymm7, %k1
vcmpleps 0x100(%r15,%r14,4){1to8}, %ymm2, %k1 {%k1}
kandb %k0, %k1, %k0
kortestb %k0, %k0
vmovaps 0x1e0(%rsp), %ymm28
vmovaps 0x1c0(%rsp), %ymm29
je 0x1cfe79e
vcmpneqps %ymm24, %ymm6, %k1
ktestb %k1, %k0
vmovaps 0x20(%rsp), %xmm7
vmovaps 0x140(%rsp), %ymm8
je 0x1cfe7c0
kandb %k1, %k0, %k0
kmovd %k0, %eax
vmulps %ymm5, %ymm3, %ymm3
vmulps %ymm5, %ymm4, %ymm4
vbroadcastss 0x1ef21b(%rip), %ymm5 # 0x1eec714
vsubps %ymm3, %ymm5, %ymm6
vmovaps %ymm3, %ymm6 {%k2}
vsubps %ymm4, %ymm5, %ymm3
vmovaps %ymm4, %ymm3 {%k2}
vmovaps %ymm3, 0x480(%rsp)
movzbl %al, %eax
testw %ax, %ax
je 0x1cfdac7
vsubps %ymm0, %ymm1, %ymm1
vfmadd213ps %ymm0, %ymm6, %ymm1 # ymm1 = (ymm6 * ymm1) + ymm0
vaddps %ymm1, %ymm1, %ymm0
vmulps (%r11,%r14,4){1to8}, %ymm0, %ymm0
vcmpnleps %ymm0, %ymm2, %k0
kmovd %k0, %ecx
andb %cl, %al
je 0x1cfdac7
vbroadcastss 0x1f347a(%rip), %ymm0 # 0x1ef09cc
vmovaps 0x480(%rsp), %ymm1
vfmadd132ps 0x1f3a93(%rip){1to8}, %ymm0, %ymm1 # ymm1 = (ymm1 * mem) + ymm0
vmovaps %ymm6, 0x300(%rsp)
vmovaps %ymm1, 0x480(%rsp)
vmovaps %ymm1, 0x320(%rsp)
vmovaps %ymm2, 0x340(%rsp)
movl $0x0, 0x360(%rsp)
movl %r9d, 0x364(%rsp)
vmovaps %xmm7, 0x370(%rsp)
vmovaps 0x110(%rsp), %xmm0
vmovaps %xmm0, 0x380(%rsp)
vmovaps 0x100(%rsp), %xmm0
vmovaps %xmm0, 0x390(%rsp)
vmovaps 0x180(%rsp), %xmm0
vmovaps %xmm0, 0x3a0(%rsp)
movb %al, 0x3b0(%rsp)
movl 0x120(%r15,%r14,4), %ecx
testl %ecx, 0x34(%r13)
je 0x1cfdac7
movq 0x10(%r10), %rcx
cmpq $0x0, 0x10(%rcx)
jne 0x1cfd60d
movb $0x1, %dil
cmpq $0x0, 0x48(%r13)
je 0x1cfdb12
vaddps 0x22392b(%rip), %ymm6, %ymm0 # 0x1f20f40
vmovss 0x1ef0f7(%rip), %xmm1 # 0x1eec714
vdivss 0x2e0(%rsp), %xmm1, %xmm1
vbroadcastss %xmm1, %ymm1
vmulps %ymm0, %ymm1, %ymm0
vmovaps %ymm0, 0x3c0(%rsp)
vmovaps 0x480(%rsp), %ymm0
vmovaps %ymm0, 0x3e0(%rsp)
vmovaps %ymm2, 0x400(%rsp)
movzbl %al, %ecx
tzcntq %rcx, %rdi
movq 0x80(%rsp), %rax
vpbroadcastd %eax, %ymm0
vmovdqa %ymm0, 0x420(%rsp)
vmovaps 0x380(%rsp), %xmm0
vmovaps %xmm0, 0xf0(%rsp)
movq 0x10(%rsp), %rax
vpbroadcastd %eax, %ymm0
vmovdqa %ymm0, 0x280(%rsp)
movq %rdi, %rax
vmovaps 0x390(%rsp), %xmm0
vmovaps %xmm0, 0xe0(%rsp)
vmovaps 0x3a0(%rsp), %xmm0
vmovaps %xmm0, 0xd0(%rsp)
movb $0x1, %dil
vmovaps %xmm14, 0xc0(%rsp)
movq %r8, 0x38(%rsp)
movq %r10, 0x18(%rsp)
movq %r11, 0x30(%rsp)
vmovaps %ymm6, 0x60(%rsp)
vmovaps %ymm2, 0x40(%rsp)
movl %r9d, 0xc(%rsp)
movq %rcx, 0x2c0(%rsp)
vmovss 0x100(%r15,%r14,4), %xmm10
vmovss 0x400(%rsp,%rax,4), %xmm0
vbroadcastss 0x3c0(%rsp,%rax,4), %ymm1
movq %rax, 0x440(%rsp)
vbroadcastss 0x3e0(%rsp,%rax,4), %ymm2
vmovss %xmm0, 0x100(%r15,%r14,4)
movq 0x8(%r10), %rax
vmovss 0x1eefdc(%rip), %xmm0 # 0x1eec714
vsubss %xmm1, %xmm0, %xmm0
vmulss %xmm0, %xmm0, %xmm3
vmulss %xmm0, %xmm1, %xmm0
vmulss 0x1f38a4(%rip), %xmm3, %xmm4 # 0x1ef0ff0
vfmadd231ss 0x1f3287(%rip), %xmm0, %xmm3 # xmm3 = (xmm0 * mem) + xmm3
vmulss %xmm1, %xmm1, %xmm5
vfmsub132ss 0x1f3896(%rip), %xmm5, %xmm0 # xmm0 = (xmm0 * mem) - xmm5
vmovss 0x1f3882(%rip), %xmm6 # 0x1ef0fec
vmulss %xmm6, %xmm3, %xmm3
vmulss %xmm6, %xmm0, %xmm0
vmulss %xmm6, %xmm5, %xmm5
vbroadcastss %xmm5, %xmm5
vmulps 0xd0(%rsp), %xmm5, %xmm5
vbroadcastss %xmm0, %xmm0
vfmadd132ps 0xe0(%rsp), %xmm5, %xmm0 # xmm0 = (xmm0 * mem) + xmm5
vbroadcastss %xmm3, %xmm3
vfmadd132ps 0xf0(%rsp), %xmm0, %xmm3 # xmm3 = (xmm3 * mem) + xmm0
vbroadcastss %xmm4, %xmm0
vfmadd213ps %xmm3, %xmm7, %xmm0 # xmm0 = (xmm7 * xmm0) + xmm3
vbroadcastss %xmm0, %ymm3
vbroadcastss 0x214f4a(%rip), %ymm4 # 0x1f12704
vpermps %ymm0, %ymm4, %ymm4
vbroadcastss 0x223714(%rip), %ymm5 # 0x1f20edc
vpermps %ymm0, %ymm5, %ymm0
vmovaps %ymm3, 0x500(%rsp)
vmovaps %ymm4, 0x520(%rsp)
vmovaps %ymm0, 0x540(%rsp)
vmovaps %ymm1, 0x560(%rsp)
vmovaps %ymm2, 0x580(%rsp)
vmovaps 0x280(%rsp), %ymm0
vmovaps %ymm0, 0x5a0(%rsp)
vmovdqa 0x420(%rsp), %ymm0
vmovdqa %ymm0, 0x5c0(%rsp)
movq 0x88(%rsp), %rcx
vpcmpeqd %ymm0, %ymm0, %ymm0
vmovdqa %ymm0, 0x20(%rcx)
vmovdqa %ymm0, (%rcx)
vbroadcastss (%rax), %ymm0
vmovaps %ymm0, 0x5e0(%rsp)
vbroadcastss 0x4(%rax), %ymm0
vmovaps %ymm0, 0x600(%rsp)
vmovaps 0x4c0(%rsp), %ymm0
vmovaps %ymm0, 0x160(%rsp)
leaq 0x160(%rsp), %rcx
movq %rcx, 0x90(%rsp)
movq 0x18(%r13), %rcx
movq %rcx, 0x98(%rsp)
movq %rax, 0xa0(%rsp)
movq %r15, 0xa8(%rsp)
leaq 0x500(%rsp), %rax
movq %rax, 0xb0(%rsp)
movl $0x8, 0xb8(%rsp)
movq 0x48(%r13), %rax
testq %rax, %rax
movl %edi, 0x8(%rsp)
vmovss %xmm10, 0x2a0(%rsp)
je 0x1cfd95e
leaq 0x90(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0x2a0(%rsp), %xmm10
vmovaps 0x1a0(%rsp), %xmm9
vmovaps 0xc0(%rsp), %xmm14
movl 0x8(%rsp), %edi
vmovaps 0x140(%rsp), %ymm8
vmovaps 0x1c0(%rsp), %ymm29
vmovaps 0x1e0(%rsp), %ymm28
vmovaps 0x120(%rsp), %ymm17
vmovaps 0x240(%rsp), %ymm18
vmovaps 0x260(%rsp), %ymm22
movl 0xc(%rsp), %r9d
vmovaps 0x20(%rsp), %xmm7
vmovaps 0x200(%rsp), %ymm21
vmovaps 0x220(%rsp), %ymm20
vxorps %xmm24, %xmm24, %xmm24
leaq 0x42bdbc(%rip), %rsi # 0x2129704
leaq 0x429995(%rip), %rdx # 0x21272e4
movq 0x30(%rsp), %r11
movq 0x18(%rsp), %r10
movq 0x38(%rsp), %r8
vmovdqa 0x160(%rsp), %ymm0
vptest %ymm0, %ymm0
je 0x1cfda88
movq 0x10(%r10), %rcx
movq 0x10(%rcx), %rax
testq %rax, %rax
vmovaps 0x60(%rsp), %ymm6
vmovaps 0x40(%rsp), %ymm2
je 0x1cfda46
testb $0x2, (%rcx)
jne 0x1cfd99f
testb $0x40, 0x3e(%r13)
je 0x1cfda46
leaq 0x90(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0x2a0(%rsp), %xmm10
vmovaps 0x1a0(%rsp), %xmm9
vmovaps 0xc0(%rsp), %xmm14
movl 0x8(%rsp), %edi
vmovaps 0x140(%rsp), %ymm8
vmovaps 0x1c0(%rsp), %ymm29
vmovaps 0x1e0(%rsp), %ymm28
vmovaps 0x120(%rsp), %ymm17
vmovaps 0x240(%rsp), %ymm18
vmovaps 0x260(%rsp), %ymm22
movl 0xc(%rsp), %r9d
vmovaps 0x20(%rsp), %xmm7
vmovaps 0x200(%rsp), %ymm21
vmovaps 0x40(%rsp), %ymm2
vmovaps 0x220(%rsp), %ymm20
vmovaps 0x60(%rsp), %ymm6
vxorps %xmm24, %xmm24, %xmm24
leaq 0x42bcd4(%rip), %rsi # 0x2129704
leaq 0x4298ad(%rip), %rdx # 0x21272e4
movq 0x30(%rsp), %r11
movq 0x18(%rsp), %r10
movq 0x38(%rsp), %r8
vmovdqa 0x160(%rsp), %ymm0
vptestmd %ymm0, %ymm0, %k1
movq 0xa8(%rsp), %rax
vmovaps 0x100(%rax), %ymm1
vbroadcastss 0x1ef115(%rip), %ymm1 {%k1} # 0x1eecb84
vmovaps %ymm1, 0x100(%rax)
vptest %ymm0, %ymm0
movq 0x2c0(%rsp), %rcx
je 0x1cfda9c
jmp 0x1cfdac1
vmovaps 0x60(%rsp), %ymm6
vmovaps 0x40(%rsp), %ymm2
movq 0x2c0(%rsp), %rcx
vmovss %xmm10, 0x100(%r15,%r14,4)
movq 0x440(%rsp), %rax
btcq %rax, %rcx
tzcntq %rcx, %rax
setae %dil
jae 0x1cfd6eb
andb $0x1, %dil
jmp 0x1cfdb12
xorl %edi, %edi
jmp 0x1cfdb12
xorl %edi, %edi
vxorps %xmm24, %xmm24, %xmm24
vmovaps 0x60(%rsp), %ymm6
vmovaps 0x220(%rsp), %ymm20
vmovaps 0x40(%rsp), %ymm2
vmovaps 0x200(%rsp), %ymm21
vmovaps 0x260(%rsp), %ymm22
vmovaps 0x240(%rsp), %ymm18
vmovaps 0x120(%rsp), %ymm17
vmovaps %ymm26, %ymm29
vmovaps %xmm12, %xmm14
cmpl $0x9, %r9d
jge 0x1cfdb4b
testb $0x1, %dil
jne 0x1cfe7d3
vmovaps 0x740(%rsp), %ymm0
vcmpleps 0x100(%r15,%r14,4){1to8}, %ymm0, %k0
kmovb %k0, %eax
andl %eax, %r12d
setne 0x7(%rsp)
jne 0x1cfcba5
jmp 0x1cfe7d3
vmovaps %ymm8, 0x140(%rsp)
vpbroadcastd %r9d, %ymm0
vmovdqa %ymm0, 0x1a0(%rsp)
vbroadcastss %xmm14, %ymm0
vmovaps %ymm0, 0x2c0(%rsp)
vbroadcastss %xmm9, %ymm0
vmovaps %ymm0, 0x440(%rsp)
vmovss 0x1eeb8d(%rip), %xmm0 # 0x1eec714
vdivss 0x2e0(%rsp), %xmm0, %xmm0
vbroadcastss %xmm0, %ymm0
vmovaps %ymm0, 0x420(%rsp)
movq 0x80(%rsp), %rax
vpbroadcastd %eax, %ymm0
vmovdqa %ymm0, 0x2e0(%rsp)
movq 0x10(%rsp), %rax
vpbroadcastd %eax, %ymm0
vmovdqa %ymm0, 0x2a0(%rsp)
movl $0x8, %r13d
vmovaps %ymm6, 0x60(%rsp)
vmovaps %ymm2, 0x40(%rsp)
vpbroadcastd %r13d, %ymm0
vpor 0x25cd37(%rip), %ymm0, %ymm0 # 0x1f5a920
vpcmpltd 0x1a0(%rsp), %ymm0, %k1
leaq (%rbx,%rdx), %rcx
vmovups (%rcx,%r13,4), %ymm3
vmovups 0x484(%rcx,%r13,4), %ymm10
vmovups 0x908(%rcx,%r13,4), %ymm11
vmovups 0xd8c(%rcx,%r13,4), %ymm12
vmulps %ymm12, %ymm28, %ymm5
vmulps %ymm12, %ymm29, %ymm4
vmovaps 0x680(%rsp), %ymm1
vmulps %ymm1, %ymm12, %ymm0
vmovaps 0x6e0(%rsp), %ymm19
vfmadd231ps %ymm19, %ymm11, %ymm5 # ymm5 = (ymm11 * ymm19) + ymm5
vmovaps 0x6c0(%rsp), %ymm27
vfmadd231ps %ymm27, %ymm11, %ymm4 # ymm4 = (ymm11 * ymm27) + ymm4
vmovaps 0x6a0(%rsp), %ymm16
vfmadd231ps %ymm16, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm16) + ymm0
vfmadd231ps %ymm17, %ymm10, %ymm5 # ymm5 = (ymm10 * ymm17) + ymm5
vmovaps 0x4e0(%rsp), %ymm25
vfmadd231ps %ymm25, %ymm10, %ymm4 # ymm4 = (ymm10 * ymm25) + ymm4
vmovaps 0x700(%rsp), %ymm9
vfmadd231ps %ymm9, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm9) + ymm0
vfmadd231ps %ymm22, %ymm3, %ymm5 # ymm5 = (ymm3 * ymm22) + ymm5
vfmadd231ps %ymm18, %ymm3, %ymm4 # ymm4 = (ymm3 * ymm18) + ymm4
leaq (%rbx,%rsi), %rax
vmovups (%rax,%r13,4), %ymm2
vmovups 0x484(%rax,%r13,4), %ymm13
vmovaps 0x720(%rsp), %ymm8
vfmadd231ps %ymm8, %ymm3, %ymm0 # ymm0 = (ymm3 * ymm8) + ymm0
vmovups 0x908(%rax,%r13,4), %ymm14
vmovups 0xd8c(%rax,%r13,4), %ymm15
vmulps %ymm15, %ymm28, %ymm7
vmulps %ymm15, %ymm29, %ymm6
vmulps %ymm1, %ymm15, %ymm1
vfmadd231ps %ymm19, %ymm14, %ymm7 # ymm7 = (ymm14 * ymm19) + ymm7
vfmadd231ps %ymm27, %ymm14, %ymm6 # ymm6 = (ymm14 * ymm27) + ymm6
vfmadd231ps %ymm16, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm16) + ymm1
vfmadd231ps %ymm17, %ymm13, %ymm7 # ymm7 = (ymm13 * ymm17) + ymm7
vfmadd231ps %ymm25, %ymm13, %ymm6 # ymm6 = (ymm13 * ymm25) + ymm6
vfmadd231ps %ymm9, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm9) + ymm1
vfmadd231ps %ymm22, %ymm2, %ymm7 # ymm7 = (ymm2 * ymm22) + ymm7
vfmadd231ps %ymm18, %ymm2, %ymm6 # ymm6 = (ymm2 * ymm18) + ymm6
vfmadd231ps %ymm8, %ymm2, %ymm1 # ymm1 = (ymm2 * ymm8) + ymm1
vmaxps %ymm1, %ymm0, %ymm16
vsubps %ymm5, %ymm7, %ymm9
vsubps %ymm4, %ymm6, %ymm8
vmovaps %ymm17, %ymm26
vmulps %ymm9, %ymm4, %ymm17
vmovaps %ymm18, %ymm23
vmulps %ymm8, %ymm5, %ymm18
vsubps %ymm18, %ymm17, %ymm17
vmulps %ymm8, %ymm8, %ymm18
vfmadd231ps %ymm9, %ymm9, %ymm18 # ymm18 = (ymm9 * ymm9) + ymm18
vmulps %ymm16, %ymm16, %ymm16
vmulps %ymm18, %ymm16, %ymm16
vmulps %ymm17, %ymm17, %ymm17
vcmpleps %ymm16, %ymm17, %k1 {%k1}
kortestb %k1, %k1
je 0x1cfe706
vmovaps %ymm23, %ymm16
vmovaps 0x140(%rsp), %ymm23
vmulps %ymm15, %ymm23, %ymm15
vmovaps 0x620(%rsp), %ymm31
vfmadd213ps %ymm15, %ymm31, %ymm14 # ymm14 = (ymm31 * ymm14) + ymm15
vmovaps 0x640(%rsp), %ymm30
vfmadd213ps %ymm14, %ymm30, %ymm13 # ymm13 = (ymm30 * ymm13) + ymm14
vmovaps 0x660(%rsp), %ymm18
vfmadd213ps %ymm13, %ymm18, %ymm2 # ymm2 = (ymm18 * ymm2) + ymm13
vmulps %ymm12, %ymm23, %ymm12
vfmadd213ps %ymm12, %ymm31, %ymm11 # ymm11 = (ymm31 * ymm11) + ymm12
vfmadd213ps %ymm11, %ymm30, %ymm10 # ymm10 = (ymm30 * ymm10) + ymm11
vfmadd213ps %ymm10, %ymm18, %ymm3 # ymm3 = (ymm18 * ymm3) + ymm10
vmovups 0x1210(%rcx,%r13,4), %ymm12
vmovups 0x1694(%rcx,%r13,4), %ymm13
vmovups 0x1b18(%rcx,%r13,4), %ymm14
vmovups 0x1f9c(%rcx,%r13,4), %ymm15
vmulps %ymm15, %ymm28, %ymm11
vmulps %ymm15, %ymm29, %ymm10
vmulps %ymm15, %ymm23, %ymm15
vfmadd231ps %ymm19, %ymm14, %ymm11 # ymm11 = (ymm14 * ymm19) + ymm11
vfmadd231ps %ymm27, %ymm14, %ymm10 # ymm10 = (ymm14 * ymm27) + ymm10
vfmadd231ps %ymm14, %ymm31, %ymm15 # ymm15 = (ymm31 * ymm14) + ymm15
vfmadd231ps %ymm26, %ymm13, %ymm11 # ymm11 = (ymm13 * ymm26) + ymm11
vfmadd231ps %ymm25, %ymm13, %ymm10 # ymm10 = (ymm13 * ymm25) + ymm10
vfmadd231ps %ymm13, %ymm30, %ymm15 # ymm15 = (ymm30 * ymm13) + ymm15
vfmadd231ps %ymm22, %ymm12, %ymm11 # ymm11 = (ymm12 * ymm22) + ymm11
vfmadd231ps %ymm16, %ymm12, %ymm10 # ymm10 = (ymm12 * ymm16) + ymm10
vmovaps %ymm27, %ymm25
vmovaps %ymm19, %ymm27
vmovaps %ymm16, %ymm19
vfmadd231ps %ymm12, %ymm18, %ymm15 # ymm15 = (ymm18 * ymm12) + ymm15
vmovups 0x1210(%rax,%r13,4), %ymm13
vmovups 0x1b18(%rax,%r13,4), %ymm14
vmovups 0x1f9c(%rax,%r13,4), %ymm16
vmulps %ymm16, %ymm28, %ymm17
vmulps %ymm16, %ymm29, %ymm12
vmulps %ymm16, %ymm23, %ymm16
vfmadd231ps %ymm27, %ymm14, %ymm17 # ymm17 = (ymm14 * ymm27) + ymm17
vfmadd231ps %ymm25, %ymm14, %ymm12 # ymm12 = (ymm14 * ymm25) + ymm12
vfmadd231ps %ymm14, %ymm31, %ymm16 # ymm16 = (ymm31 * ymm14) + ymm16
vmovups 0x1694(%rax,%r13,4), %ymm14
vfmadd231ps %ymm26, %ymm14, %ymm17 # ymm17 = (ymm14 * ymm26) + ymm17
vfmadd231ps 0x4e0(%rsp), %ymm14, %ymm12 # ymm12 = (ymm14 * mem) + ymm12
vfmadd231ps %ymm14, %ymm30, %ymm16 # ymm16 = (ymm30 * ymm14) + ymm16
vfmadd231ps %ymm22, %ymm13, %ymm17 # ymm17 = (ymm13 * ymm22) + ymm17
vfmadd231ps %ymm19, %ymm13, %ymm12 # ymm12 = (ymm13 * ymm19) + ymm12
vfmadd231ps %ymm13, %ymm18, %ymm16 # ymm16 = (ymm18 * ymm13) + ymm16
vbroadcastss 0x22300d(%rip), %ymm18 # 0x1f20ec4
vandps %ymm18, %ymm11, %ymm13
vandps %ymm18, %ymm10, %ymm14
vmaxps %ymm14, %ymm13, %ymm13
vandps %ymm18, %ymm15, %ymm14
vmaxps %ymm14, %ymm13, %ymm13
vmovaps 0x2c0(%rsp), %ymm15
vcmpltps %ymm15, %ymm13, %k2
vmovaps %ymm9, %ymm11 {%k2}
vmovaps %ymm8, %ymm10 {%k2}
vandps %ymm18, %ymm17, %ymm13
vandps %ymm18, %ymm12, %ymm14
vmaxps %ymm14, %ymm13, %ymm13
vandps %ymm18, %ymm16, %ymm14
vmaxps %ymm14, %ymm13, %ymm13
vcmpltps %ymm15, %ymm13, %k2
vmovaps %ymm9, %ymm17 {%k2}
vmovaps %ymm8, %ymm12 {%k2}
vbroadcastss 0x222f99(%rip), %ymm9 # 0x1f20ec0
vxorps %ymm9, %ymm11, %ymm8
vxorps %ymm9, %ymm17, %ymm9
vfmadd213ps %ymm24, %ymm11, %ymm11 # ymm11 = (ymm11 * ymm11) + ymm24
vfmadd231ps %ymm10, %ymm10, %ymm11 # ymm11 = (ymm10 * ymm10) + ymm11
vrsqrt14ps %ymm11, %ymm13
vbroadcastss 0x1ee7d0(%rip), %ymm15 # 0x1eec71c
vmulps %ymm15, %ymm11, %ymm11
vmulps %ymm11, %ymm13, %ymm11
vmulps %ymm13, %ymm13, %ymm14
vmulps %ymm11, %ymm14, %ymm14
vbroadcastss 0x1ee7ae(%rip), %ymm16 # 0x1eec718
vfmadd231ps %ymm13, %ymm16, %ymm14 # ymm14 = (ymm16 * ymm13) + ymm14
vmulps %ymm14, %ymm10, %ymm11
vmulps %ymm8, %ymm14, %ymm10
vmulps %ymm24, %ymm14, %ymm13
vfmadd213ps %ymm24, %ymm17, %ymm17 # ymm17 = (ymm17 * ymm17) + ymm24
vfmadd231ps %ymm12, %ymm12, %ymm17 # ymm17 = (ymm12 * ymm12) + ymm17
vrsqrt14ps %ymm17, %ymm8
vmulps %ymm15, %ymm17, %ymm14
vmulps %ymm14, %ymm8, %ymm14
vmulps %ymm8, %ymm8, %ymm15
vmulps %ymm14, %ymm15, %ymm14
vfmadd231ps %ymm8, %ymm16, %ymm14 # ymm14 = (ymm16 * ymm8) + ymm14
vmulps %ymm14, %ymm12, %ymm8
vmulps %ymm9, %ymm14, %ymm9
vmulps %ymm24, %ymm14, %ymm12
vmovaps %ymm11, %ymm14
vfmadd213ps %ymm5, %ymm0, %ymm14 # ymm14 = (ymm0 * ymm14) + ymm5
vmovaps %ymm10, %ymm15
vfmadd213ps %ymm4, %ymm0, %ymm15 # ymm15 = (ymm0 * ymm15) + ymm4
vmovaps %ymm13, %ymm16
vfmadd213ps %ymm3, %ymm0, %ymm16 # ymm16 = (ymm0 * ymm16) + ymm3
vmovaps %ymm8, %ymm17
vfmadd213ps %ymm7, %ymm1, %ymm17 # ymm17 = (ymm1 * ymm17) + ymm7
vfnmadd213ps %ymm5, %ymm0, %ymm11 # ymm11 = -(ymm0 * ymm11) + ymm5
vmovaps %ymm9, %ymm5
vfmadd213ps %ymm6, %ymm1, %ymm5 # ymm5 = (ymm1 * ymm5) + ymm6
vfnmadd213ps %ymm4, %ymm0, %ymm10 # ymm10 = -(ymm0 * ymm10) + ymm4
vmovaps %ymm12, %ymm4
vfmadd213ps %ymm2, %ymm1, %ymm4 # ymm4 = (ymm1 * ymm4) + ymm2
vfnmadd231ps %ymm13, %ymm0, %ymm3 # ymm3 = -(ymm0 * ymm13) + ymm3
vfnmadd213ps %ymm7, %ymm1, %ymm8 # ymm8 = -(ymm1 * ymm8) + ymm7
vfnmadd213ps %ymm6, %ymm1, %ymm9 # ymm9 = -(ymm1 * ymm9) + ymm6
vfnmadd231ps %ymm12, %ymm1, %ymm2 # ymm2 = -(ymm1 * ymm12) + ymm2
vsubps %ymm11, %ymm17, %ymm6
vsubps %ymm10, %ymm5, %ymm7
vsubps %ymm3, %ymm4, %ymm12
vmulps %ymm3, %ymm7, %ymm13
vfmsub231ps %ymm12, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm12) - ymm13
vmulps %ymm11, %ymm12, %ymm12
vfmsub231ps %ymm6, %ymm3, %ymm12 # ymm12 = (ymm3 * ymm6) - ymm12
vmulps %ymm6, %ymm10, %ymm6
vfmsub231ps %ymm7, %ymm11, %ymm6 # ymm6 = (ymm11 * ymm7) - ymm6
vfmadd231ps %ymm12, %ymm24, %ymm6 # ymm6 = (ymm24 * ymm12) + ymm6
vfmadd231ps %ymm13, %ymm24, %ymm6 # ymm6 = (ymm24 * ymm13) + ymm6
vcmpleps %ymm24, %ymm6, %k2
vmovaps %ymm14, %ymm8 {%k2}
vmovaps %ymm15, %ymm9 {%k2}
vmovaps %ymm16, %ymm2 {%k2}
vblendmps %ymm17, %ymm11, %ymm13 {%k2}
vblendmps %ymm5, %ymm10, %ymm14 {%k2}
vblendmps %ymm4, %ymm3, %ymm15 {%k2}
vmovaps %ymm11, %ymm17 {%k2}
vmovaps %ymm10, %ymm5 {%k2}
vmovaps %ymm3, %ymm4 {%k2}
vsubps %ymm8, %ymm17, %ymm6
vsubps %ymm9, %ymm5, %ymm5
vsubps %ymm2, %ymm4, %ymm11
vsubps %ymm13, %ymm8, %ymm7
vsubps %ymm14, %ymm9, %ymm10
vsubps %ymm15, %ymm2, %ymm12
vmulps %ymm8, %ymm11, %ymm4
vfmsub231ps %ymm6, %ymm2, %ymm4 # ymm4 = (ymm2 * ymm6) - ymm4
vmulps %ymm6, %ymm9, %ymm3
vfmsub231ps %ymm5, %ymm8, %ymm3 # ymm3 = (ymm8 * ymm5) - ymm3
vfmadd231ps %ymm4, %ymm24, %ymm3 # ymm3 = (ymm24 * ymm4) + ymm3
vmulps %ymm2, %ymm5, %ymm4
vfmsub231ps %ymm11, %ymm9, %ymm4 # ymm4 = (ymm9 * ymm11) - ymm4
vfmadd231ps %ymm4, %ymm24, %ymm3 # ymm3 = (ymm24 * ymm4) + ymm3
vmulps %ymm13, %ymm12, %ymm16
vfmsub231ps %ymm15, %ymm7, %ymm16 # ymm16 = (ymm7 * ymm15) - ymm16
vmulps %ymm15, %ymm10, %ymm15
vfmsub231ps %ymm12, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm12) - ymm15
vmulps %ymm7, %ymm14, %ymm4
vfmsub231ps %ymm13, %ymm10, %ymm4 # ymm4 = (ymm10 * ymm13) - ymm4
vfmadd231ps %ymm16, %ymm24, %ymm4 # ymm4 = (ymm24 * ymm16) + ymm4
vfmadd231ps %ymm15, %ymm24, %ymm4 # ymm4 = (ymm24 * ymm15) + ymm4
vmaxps %ymm4, %ymm3, %ymm13
vcmpleps %ymm24, %ymm13, %k0 {%k1}
kortestb %k0, %k0
vmovaps %ymm19, %ymm18
je 0x1cfe73b
vmulps %ymm5, %ymm12, %ymm13
vfmsub231ps %ymm11, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm11) - ymm13
vmulps %ymm7, %ymm11, %ymm11
vfmsub231ps %ymm12, %ymm6, %ymm11 # ymm11 = (ymm6 * ymm12) - ymm11
vmulps %ymm6, %ymm10, %ymm10
vfmsub231ps %ymm5, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm5) - ymm10
vxorps %xmm6, %xmm6, %xmm6
vfmadd213ps %ymm10, %ymm11, %ymm6 # ymm6 = (ymm11 * ymm6) + ymm10
vfmadd231ps %ymm24, %ymm13, %ymm6 # ymm6 = (ymm13 * ymm24) + ymm6
vrcp14ps %ymm6, %ymm7
vmovaps %ymm7, %ymm5
vfnmadd213ps 0x1ee5bd(%rip){1to8}, %ymm6, %ymm5 # ymm5 = -(ymm6 * ymm5) + mem
vfmadd132ps %ymm7, %ymm7, %ymm5 # ymm5 = (ymm5 * ymm7) + ymm7
vmulps %ymm2, %ymm10, %ymm2
vfmadd231ps %ymm11, %ymm9, %ymm2 # ymm2 = (ymm9 * ymm11) + ymm2
vfmadd231ps %ymm13, %ymm8, %ymm2 # ymm2 = (ymm8 * ymm13) + ymm2
vmulps %ymm5, %ymm2, %ymm2
vcmpgeps 0x440(%rsp), %ymm2, %k1
vcmpleps 0x100(%r15,%r14,4){1to8}, %ymm2, %k1 {%k1}
kandb %k0, %k1, %k0
kortestb %k0, %k0
je 0x1cfe73b
vcmpneqps %ymm24, %ymm6, %k1
ktestb %k1, %k0
vmovaps 0x20(%rsp), %xmm7
vmovaps 0x120(%rsp), %ymm17
je 0x1cfe75c
kandb %k1, %k0, %k0
kmovd %k0, %eax
vmulps %ymm5, %ymm3, %ymm3
vmulps %ymm5, %ymm4, %ymm4
vbroadcastss 0x1ee54e(%rip), %ymm5 # 0x1eec714
vsubps %ymm3, %ymm5, %ymm20
vmovaps %ymm3, %ymm20 {%k2}
vsubps %ymm4, %ymm5, %ymm3
vmovaps %ymm4, %ymm3 {%k2}
vmovaps %ymm3, 0x460(%rsp)
movzbl %al, %eax
vmovaps %ymm2, %ymm21
vmovaps 0x60(%rsp), %ymm6
vmovaps 0x40(%rsp), %ymm2
testw %ax, %ax
je 0x1cfe729
vsubps %ymm0, %ymm1, %ymm1
vfmadd213ps %ymm0, %ymm20, %ymm1 # ymm1 = (ymm20 * ymm1) + ymm0
vaddps %ymm1, %ymm1, %ymm0
vmulps (%r11,%r14,4){1to8}, %ymm0, %ymm0
vcmpnleps %ymm0, %ymm21, %k0
kmovd %k0, %ecx
andb %cl, %al
je 0x1cfe729
movl %edi, 0x8(%rsp)
vbroadcastss 0x1f2794(%rip), %ymm0 # 0x1ef09cc
vmovaps 0x460(%rsp), %ymm1
vfmadd132ps 0x1f2dad(%rip){1to8}, %ymm0, %ymm1 # ymm1 = (ymm1 * mem) + ymm0
vmovaps %ymm20, 0x300(%rsp)
vmovaps %ymm1, 0x460(%rsp)
vmovaps %ymm1, 0x320(%rsp)
vmovaps %ymm21, 0x340(%rsp)
movl %r13d, 0x360(%rsp)
movl %r9d, 0x364(%rsp)
vmovaps %xmm7, 0x370(%rsp)
vmovaps 0x110(%rsp), %xmm0
vmovaps %xmm0, 0x380(%rsp)
vmovaps 0x100(%rsp), %xmm0
vmovaps %xmm0, 0x390(%rsp)
vmovdqa 0x180(%rsp), %xmm0
vmovdqa %xmm0, 0x3a0(%rsp)
movb %al, 0x3b0(%rsp)
movq (%r10), %rcx
movq 0x1e8(%rcx), %rcx
movq 0x80(%rsp), %rdi
movq (%rcx,%rdi,8), %rdi
movl 0x120(%r15,%r14,4), %ecx
movq %rdi, 0x10(%rsp)
testl %ecx, 0x34(%rdi)
je 0x1cfe720
movq 0x10(%r10), %rcx
cmpq $0x0, 0x10(%rcx)
movl 0x8(%rsp), %edi
jne 0x1cfe310
movq 0x10(%rsp), %rcx
cmpq $0x0, 0x48(%rcx)
movb $0x1, %cl
je 0x1cfe726
vmovaps %ymm29, 0x1c0(%rsp)
vmovaps %ymm28, 0x1e0(%rsp)
movl %r9d, 0xc(%rsp)
movq %r11, 0x30(%rsp)
movq %r8, 0x38(%rsp)
vmovaps %ymm20, 0x220(%rsp)
vaddps 0x222bff(%rip), %ymm20, %ymm0 # 0x1f20f40
vcvtsi2ss %r13d, %xmm19, %xmm1
vbroadcastss %xmm1, %ymm1
vaddps %ymm0, %ymm1, %ymm0
vmulps 0x420(%rsp), %ymm0, %ymm0
vmovaps %ymm0, 0x3c0(%rsp)
vmovaps 0x460(%rsp), %ymm0
vmovaps %ymm0, 0x3e0(%rsp)
vmovaps %ymm21, 0x200(%rsp)
vmovaps %ymm21, 0x400(%rsp)
movzbl %al, %esi
vmovaps 0x380(%rsp), %xmm0
vmovaps %xmm0, 0xc0(%rsp)
tzcntq %rsi, %rdi
vmovaps 0x390(%rsp), %xmm0
vmovaps %xmm0, 0x4b0(%rsp)
vmovaps 0x3a0(%rsp), %xmm0
vmovaps %xmm0, 0x4a0(%rsp)
movb $0x1, %al
movl %eax, 0xd0(%rsp)
movq %r10, 0x18(%rsp)
vmovss 0x100(%r15,%r14,4), %xmm8
vmovss 0x400(%rsp,%rdi,4), %xmm0
vbroadcastss 0x3c0(%rsp,%rdi,4), %ymm1
vbroadcastss 0x3e0(%rsp,%rdi,4), %ymm2
vmovss %xmm0, 0x100(%r15,%r14,4)
movq 0x8(%r10), %rax
vmovss 0x1ee307(%rip), %xmm0 # 0x1eec714
vsubss %xmm1, %xmm0, %xmm0
vmulss %xmm0, %xmm0, %xmm3
vmulss %xmm0, %xmm1, %xmm0
vmulss 0x1f2bcf(%rip), %xmm3, %xmm4 # 0x1ef0ff0
vfmadd231ss 0x1f25b2(%rip), %xmm0, %xmm3 # xmm3 = (xmm0 * mem) + xmm3
vmulss %xmm1, %xmm1, %xmm5
vfmsub132ss 0x1f2bc1(%rip), %xmm5, %xmm0 # xmm0 = (xmm0 * mem) - xmm5
vmovss 0x1f2bad(%rip), %xmm6 # 0x1ef0fec
vmulss %xmm6, %xmm3, %xmm3
vmulss %xmm6, %xmm0, %xmm0
vmulss %xmm6, %xmm5, %xmm5
vbroadcastss %xmm5, %xmm5
vmulps 0x4a0(%rsp), %xmm5, %xmm5
vbroadcastss %xmm0, %xmm0
vfmadd132ps 0x4b0(%rsp), %xmm5, %xmm0 # xmm0 = (xmm0 * mem) + xmm5
vbroadcastss %xmm3, %xmm3
vfmadd132ps 0xc0(%rsp), %xmm0, %xmm3 # xmm3 = (xmm3 * mem) + xmm0
vbroadcastss %xmm4, %xmm0
vfmadd213ps %xmm3, %xmm7, %xmm0 # xmm0 = (xmm7 * xmm0) + xmm3
vbroadcastss %xmm0, %ymm3
vbroadcastss 0x214275(%rip), %ymm4 # 0x1f12704
vpermps %ymm0, %ymm4, %ymm4
vbroadcastss 0x222a3f(%rip), %ymm5 # 0x1f20edc
vpermps %ymm0, %ymm5, %ymm0
vmovaps %ymm3, 0x500(%rsp)
vmovaps %ymm4, 0x520(%rsp)
vmovaps %ymm0, 0x540(%rsp)
vmovaps %ymm1, 0x560(%rsp)
vmovaps %ymm2, 0x580(%rsp)
vmovaps 0x2a0(%rsp), %ymm0
vmovaps %ymm0, 0x5a0(%rsp)
vmovdqa 0x2e0(%rsp), %ymm0
vmovdqa %ymm0, 0x5c0(%rsp)
movq 0x88(%rsp), %rcx
vpcmpeqd %ymm0, %ymm0, %ymm0
vmovdqa %ymm0, 0x20(%rcx)
vmovdqa %ymm0, (%rcx)
vbroadcastss (%rax), %ymm0
vmovaps %ymm0, 0x5e0(%rsp)
vbroadcastss 0x4(%rax), %ymm0
vmovaps %ymm0, 0x600(%rsp)
vmovaps 0x4c0(%rsp), %ymm0
vmovaps %ymm0, 0x160(%rsp)
leaq 0x160(%rsp), %rcx
movq %rcx, 0x90(%rsp)
movq 0x10(%rsp), %rdx
movq 0x18(%rdx), %rcx
movq %rcx, 0x98(%rsp)
movq %rax, 0xa0(%rsp)
movq %r15, 0xa8(%rsp)
leaq 0x500(%rsp), %rax
movq %rax, 0xb0(%rsp)
movl $0x8, 0xb8(%rsp)
movq 0x48(%rdx), %rax
testq %rax, %rax
movq %rsi, 0xf0(%rsp)
movq %rdi, 0x280(%rsp)
vmovss %xmm8, 0xe0(%rsp)
je 0x1cfe5d6
leaq 0x90(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0xe0(%rsp), %xmm8
movq 0x280(%rsp), %rdi
movq 0xf0(%rsp), %rsi
vmovaps 0x20(%rsp), %xmm7
movq 0x18(%rsp), %r10
vmovdqa 0x160(%rsp), %ymm0
vptest %ymm0, %ymm0
je 0x1cfe670
movq 0x10(%r10), %rcx
movq 0x10(%rcx), %rax
testq %rax, %rax
je 0x1cfe638
testb $0x2, (%rcx)
jne 0x1cfe607
movq 0x10(%rsp), %rcx
testb $0x40, 0x3e(%rcx)
je 0x1cfe638
leaq 0x90(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0xe0(%rsp), %xmm8
movq 0x280(%rsp), %rdi
movq 0xf0(%rsp), %rsi
vmovaps 0x20(%rsp), %xmm7
movq 0x18(%rsp), %r10
vmovdqa 0x160(%rsp), %ymm0
vptestmd %ymm0, %ymm0, %k1
movq 0xa8(%rsp), %rax
vmovaps 0x100(%rax), %ymm1
vbroadcastss 0x1ee523(%rip), %ymm1 {%k1} # 0x1eecb84
vmovaps %ymm1, 0x100(%rax)
vptest %ymm0, %ymm0
jne 0x1cfe693
vmovss %xmm8, 0x100(%r15,%r14,4)
btcq %rdi, %rsi
tzcntq %rsi, %rdi
setae %al
movl %eax, 0xd0(%rsp)
jae 0x1cfe3d0
movl 0xd0(%rsp), %ecx
andb $0x1, %cl
movq 0x38(%rsp), %r8
movq 0x30(%rsp), %r11
leaq 0x428c36(%rip), %rdx # 0x21272e4
leaq 0x42b04f(%rip), %rsi # 0x2129704
vxorps %xmm24, %xmm24, %xmm24
vmovaps 0x60(%rsp), %ymm6
vmovaps 0x220(%rsp), %ymm20
vmovaps 0x40(%rsp), %ymm2
vmovaps 0x200(%rsp), %ymm21
movl 0xc(%rsp), %r9d
vmovaps 0x260(%rsp), %ymm22
vmovaps 0x240(%rsp), %ymm18
vmovaps 0x120(%rsp), %ymm17
vmovaps 0x1e0(%rsp), %ymm28
vmovaps 0x1c0(%rsp), %ymm29
jmp 0x1cfe722
vmovaps 0x60(%rsp), %ymm6
vmovaps 0x40(%rsp), %ymm2
vmovaps %ymm23, %ymm18
vmovaps %ymm26, %ymm17
jmp 0x1cfe729
xorl %ecx, %ecx
movl 0x8(%rsp), %edi
orb %cl, %dil
addq $0x8, %r13
cmpl %r13d, %r9d
jg 0x1cfdbdb
jmp 0x1cfdb18
xorl %eax, %eax
vmovaps 0x60(%rsp), %ymm6
vmovaps 0x40(%rsp), %ymm2
vmovaps 0x20(%rsp), %xmm7
vmovaps 0x120(%rsp), %ymm17
jmp 0x1cfe1fa
xorl %eax, %eax
jmp 0x1cfe1ee
xorl %eax, %eax
vmovaps 0x60(%rsp), %ymm6
vmovaps 0x40(%rsp), %ymm2
vmovaps 0x20(%rsp), %xmm7
vmovaps 0x1e0(%rsp), %ymm28
vmovaps 0x1c0(%rsp), %ymm29
vmovaps 0x140(%rsp), %ymm8
vmovaps 0x1a0(%rsp), %xmm9
jmp 0x1cfd519
xorl %eax, %eax
vmovaps 0x60(%rsp), %ymm6
vmovaps 0x40(%rsp), %ymm2
vmovaps 0x20(%rsp), %xmm7
vmovaps 0x140(%rsp), %ymm8
jmp 0x1cfd519
xorl %eax, %eax
vmovaps 0x60(%rsp), %ymm6
vmovaps 0x40(%rsp), %ymm2
jmp 0x1cfd519
movb 0x7(%rsp), %al
andb $0x1, %al
leaq -0x28(%rbp), %rsp
popq %rbx
popq %r12
popq %r13
popq %r14
popq %r15
popq %rbp
vzeroupper
retq
nop
|
/embree[P]embree/kernels/geometry/curveNi_intersector.h
|
void embree::avx512::CurveNiIntersectorK<8, 16>::intersect_t<embree::avx512::RibbonCurve1IntersectorK<embree::BezierCurveT, 16, 8>, embree::avx512::Intersect1KEpilogMU<8, 16, true>>(embree::avx512::CurvePrecalculationsK<16>&, embree::RayHitK<16>&, unsigned long, embree::RayQueryContext*, embree::CurveNi<8> const&)
|
static __forceinline void intersect_t(Precalculations& pre, RayHitK<K>& ray, const size_t k, RayQueryContext* context, const Primitive& prim)
{
vfloat<M> tNear;
vbool<M> valid = intersect(ray,k,prim,tNear);
const size_t N = prim.N;
size_t mask = movemask(valid);
while (mask)
{
const size_t i = bscf(mask);
STAT3(normal.trav_prims,1,1,1);
const unsigned int geomID = prim.geomID(N);
const unsigned int primID = prim.primID(N)[i];
const CurveGeometry* geom = context->scene->get<CurveGeometry>(geomID);
Vec3ff a0,a1,a2,a3; geom->gather(a0,a1,a2,a3,geom->curve(primID));
size_t mask1 = mask;
const size_t i1 = bscf(mask1);
if (mask) {
const unsigned int primID1 = prim.primID(N)[i1];
geom->prefetchL1_vertices(geom->curve(primID1));
if (mask1) {
const size_t i2 = bsf(mask1);
const unsigned int primID2 = prim.primID(N)[i2];
geom->prefetchL2_vertices(geom->curve(primID2));
}
}
Intersector().intersect(pre,ray,k,context,geom,primID,a0,a1,a2,a3,Epilog(ray,k,context,geomID,primID));
mask &= movemask(tNear <= vfloat<M>(ray.tfar[k]));
}
}
|
pushq %rbp
movq %rsp, %rbp
pushq %r15
pushq %r14
pushq %r13
pushq %r12
pushq %rbx
andq $-0x40, %rsp
subq $0x9c0, %rsp # imm = 0x9C0
movq %rcx, %r10
movq %rdx, %r15
movq %rdi, 0xc8(%rsp)
movzbl 0x1(%r8), %ecx
leaq (%rcx,%rcx,4), %rax
leaq (%rax,%rax,4), %rdx
vbroadcastss 0x12(%r8,%rdx), %xmm0
vmovss (%rsi,%r15,4), %xmm1
vmovss 0x100(%rsi,%r15,4), %xmm2
vinsertps $0x10, 0x40(%rsi,%r15,4), %xmm1, %xmm1 # xmm1 = xmm1[0],mem[0],xmm1[2,3]
vinsertps $0x20, 0x80(%rsi,%r15,4), %xmm1, %xmm1 # xmm1 = xmm1[0,1],mem[0],xmm1[3]
vinsertps $0x10, 0x140(%rsi,%r15,4), %xmm2, %xmm2 # xmm2 = xmm2[0],mem[0],xmm2[2,3]
vinsertps $0x20, 0x180(%rsi,%r15,4), %xmm2, %xmm2 # xmm2 = xmm2[0,1],mem[0],xmm2[3]
vsubps 0x6(%r8,%rdx), %xmm1, %xmm1
vmulps %xmm1, %xmm0, %xmm3
vmulps %xmm2, %xmm0, %xmm0
vpmovsxbd 0x6(%r8,%rcx,4), %ymm1
vpmovsxbd 0x6(%r8,%rax), %ymm2
vcvtdq2ps %ymm1, %ymm5
vcvtdq2ps %ymm2, %ymm6
leaq (%rcx,%rcx,2), %rdx
vpmovsxbd 0x6(%r8,%rdx,2), %ymm1
vcvtdq2ps %ymm1, %ymm4
leaq (%rcx,%rax,2), %rdi
vpmovsxbd 0x6(%r8,%rdi), %ymm1
leal (,%rdx,4), %edi
vpmovsxbd 0x6(%r8,%rdi), %ymm2
vcvtdq2ps %ymm1, %ymm7
vcvtdq2ps %ymm2, %ymm8
addq %rcx, %rdi
vpmovsxbd 0x6(%r8,%rdi), %ymm1
vcvtdq2ps %ymm1, %ymm9
leaq (%rcx,%rcx,8), %r9
leal (%r9,%r9), %edi
vpmovsxbd 0x6(%r8,%rdi), %ymm1
vcvtdq2ps %ymm1, %ymm10
addq %rcx, %rdi
vpmovsxbd 0x6(%r8,%rdi), %ymm1
vcvtdq2ps %ymm1, %ymm11
shll $0x2, %eax
vpmovsxbd 0x6(%r8,%rax), %ymm1
vcvtdq2ps %ymm1, %ymm12
vbroadcastss %xmm0, %ymm13
vbroadcastss 0x213e05(%rip), %ymm15 # 0x1f12704
vbroadcastss 0x2225d3(%rip), %ymm16 # 0x1f20edc
vpermps %ymm0, %ymm15, %ymm14
vpermps %ymm0, %ymm16, %ymm0
vmulps %ymm4, %ymm0, %ymm2
vmulps %ymm0, %ymm9, %ymm1
vmulps %ymm0, %ymm12, %ymm0
vfmadd231ps %ymm6, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm6) + ymm2
vfmadd231ps %ymm8, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm8) + ymm1
vfmadd231ps %ymm14, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm14) + ymm0
vfmadd231ps %ymm5, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm5) + ymm2
vfmadd231ps %ymm7, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm7) + ymm1
vfmadd231ps %ymm13, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm13) + ymm0
vbroadcastss %xmm3, %ymm13
vpermps %ymm3, %ymm15, %ymm14
vpermps %ymm3, %ymm16, %ymm3
vmulps %ymm4, %ymm3, %ymm15
vmulps %ymm3, %ymm9, %ymm4
vmulps %ymm3, %ymm12, %ymm3
vfmadd231ps %ymm6, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm6) + ymm15
vfmadd231ps %ymm8, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm8) + ymm4
vfmadd231ps %ymm11, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm11) + ymm3
vfmadd231ps %ymm5, %ymm13, %ymm15 # ymm15 = (ymm13 * ymm5) + ymm15
vfmadd231ps %ymm7, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm7) + ymm4
vbroadcastss 0x222548(%rip), %ymm7 # 0x1f20ec4
vfmadd231ps %ymm10, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm10) + ymm3
vandps %ymm7, %ymm2, %ymm5
vbroadcastss 0x1f265a(%rip), %ymm6 # 0x1ef0fe8
vcmpltps %ymm6, %ymm5, %k1
vmovaps %ymm6, %ymm2 {%k1}
vandps %ymm7, %ymm1, %ymm5
vcmpltps %ymm6, %ymm5, %k1
vmovaps %ymm6, %ymm1 {%k1}
vandps %ymm7, %ymm0, %ymm5
vcmpltps %ymm6, %ymm5, %k1
vmovaps %ymm6, %ymm0 {%k1}
vrcp14ps %ymm2, %ymm5
vbroadcastss 0x1edd48(%rip), %ymm6 # 0x1eec714
vfnmadd213ps %ymm6, %ymm5, %ymm2 # ymm2 = -(ymm5 * ymm2) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm2 # ymm2 = (ymm2 * ymm5) + ymm5
vrcp14ps %ymm1, %ymm5
vfnmadd213ps %ymm6, %ymm5, %ymm1 # ymm1 = -(ymm5 * ymm1) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm1 # ymm1 = (ymm1 * ymm5) + ymm5
vrcp14ps %ymm0, %ymm5
vfnmadd213ps %ymm6, %ymm5, %ymm0 # ymm0 = -(ymm5 * ymm0) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm0 # ymm0 = (ymm0 * ymm5) + ymm5
leaq (,%rcx,8), %rdi
subq %rcx, %rdi
vpmovsxwd 0x6(%r8,%rdi), %ymm5
vcvtdq2ps %ymm5, %ymm5
vsubps %ymm15, %ymm5, %ymm5
vmulps %ymm5, %ymm2, %ymm5
vpmovsxwd 0x6(%r8,%r9), %ymm6
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm15, %ymm6, %ymm6
leaq (%rcx,%rcx), %rdi
addq %rcx, %rax
shlq $0x3, %rdx
subq %rcx, %rdx
vpbroadcastd %ecx, %ymm7
shll $0x4, %ecx
vpmovsxwd 0x6(%r8,%rcx), %ymm8
vmulps %ymm6, %ymm2, %ymm2
subq %rdi, %rcx
vpmovsxwd 0x6(%r8,%rcx), %ymm6
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm4, %ymm6, %ymm6
vmulps %ymm6, %ymm1, %ymm6
vcvtdq2ps %ymm8, %ymm8
vsubps %ymm4, %ymm8, %ymm4
vmulps %ymm4, %ymm1, %ymm1
vpmovsxwd 0x6(%r8,%rax), %ymm4
vcvtdq2ps %ymm4, %ymm4
vsubps %ymm3, %ymm4, %ymm4
vmulps %ymm0, %ymm4, %ymm4
vpmovsxwd 0x6(%r8,%rdx), %ymm8
vcvtdq2ps %ymm8, %ymm8
vsubps %ymm3, %ymm8, %ymm3
vmulps %ymm3, %ymm0, %ymm0
vpminsd %ymm2, %ymm5, %ymm3
vpminsd %ymm1, %ymm6, %ymm8
vmaxps %ymm8, %ymm3, %ymm3
vpminsd %ymm0, %ymm4, %ymm8
vmaxps 0xc0(%rsi,%r15,4){1to8}, %ymm8, %ymm8
vmaxps %ymm8, %ymm3, %ymm3
vmulps 0x221454(%rip){1to8}, %ymm3, %ymm3 # 0x1f1ff10
vpmaxsd %ymm2, %ymm5, %ymm2
vpmaxsd %ymm1, %ymm6, %ymm1
vminps %ymm1, %ymm2, %ymm1
vpmaxsd %ymm0, %ymm4, %ymm0
vminps 0x200(%rsi,%r15,4){1to8}, %ymm0, %ymm0
vminps %ymm0, %ymm1, %ymm0
vmulps 0x22142c(%rip){1to8}, %ymm0, %ymm0 # 0x1f1ff14
vpcmpgtd 0x25be2e(%rip), %ymm7, %k0 # 0x1f5a920
vmovaps %ymm3, 0x6e0(%rsp)
vcmpleps %ymm0, %ymm3, %k1
ktestb %k0, %k1
je 0x1d00c45
kandb %k0, %k1, %k0
kmovd %k0, %eax
movzbl %al, %r13d
leaq (%r15,%r15,2), %rax
shlq $0x4, %rax
movq 0xc8(%rsp), %rcx
addq %rcx, %rax
addq $0x40, %rax
movq %rax, 0x218(%rsp)
leaq 0x740(%rsp), %rax
leaq 0x1c0(%rax), %rax
movq %rax, 0x138(%rsp)
movl $0x1, %eax
shlxl %r15d, %eax, %eax
kmovd %eax, %k0
vpmovm2d %k0, %zmm0
vmovdqa64 %zmm0, 0x700(%rsp)
leaq 0x428773(%rip), %r12 # 0x21272e4
vmovaps %ymm6, 0xa0(%rsp)
vmovaps %ymm3, 0x80(%rsp)
vmovaps %ymm21, 0x1a0(%rsp)
vmovaps %ymm20, 0x1c0(%rsp)
tzcntq %r13, %rax
movl 0x2(%r8), %ecx
movl 0x6(%r8,%rax,4), %edi
movq (%r10), %rax
movq 0x1e8(%rax), %rax
movq %rcx, 0x58(%rsp)
movq (%rax,%rcx,8), %r14
movq 0x58(%r14), %rax
movq 0x68(%r14), %rcx
movq %rcx, %rdx
movq %rdi, 0x78(%rsp)
imulq %rdi, %rdx
movl (%rax,%rdx), %edi
movq 0xa0(%r14), %rdx
movq %rdx, %r9
imulq %rdi, %r9
movq 0x90(%r14), %r11
vmovaps (%r11,%r9), %xmm13
leaq 0x1(%rdi), %r9
imulq %rdx, %r9
vmovaps (%r11,%r9), %xmm0
vmovaps %xmm0, 0xe0(%rsp)
leaq 0x2(%rdi), %r9
imulq %rdx, %r9
vmovaps (%r11,%r9), %xmm0
vmovaps %xmm0, 0xd0(%rsp)
blsrq %r13, %r13
addq $0x3, %rdi
imulq %rdx, %rdi
vmovaps (%r11,%rdi), %xmm0
vmovaps %xmm0, 0x120(%rsp)
movq %r13, %rdi
subq $0x1, %rdi
jb 0x1cfec82
andq %r13, %rdi
tzcntq %r13, %r9
movl 0x6(%r8,%r9,4), %r9d
imulq %rcx, %r9
movl (%rax,%r9), %r9d
imulq %rdx, %r9
prefetcht0 (%r11,%r9)
prefetcht0 0x40(%r11,%r9)
testq %rdi, %rdi
je 0x1cfec82
tzcntq %rdi, %rdi
movl 0x6(%r8,%rdi,4), %edi
imulq %rdi, %rcx
movl (%rax,%rcx), %eax
imulq %rax, %rdx
prefetcht1 (%r11,%rdx)
prefetcht1 0x40(%r11,%rdx)
movl 0x248(%r14), %edi
vmovss (%rsi,%r15,4), %xmm0
vinsertps $0x1c, 0x40(%rsi,%r15,4), %xmm0, %xmm0 # xmm0 = xmm0[0],mem[0],zero,zero
vinsertps $0x28, 0x80(%rsi,%r15,4), %xmm0, %xmm0 # xmm0 = xmm0[0,1],mem[0],zero
vsubps %xmm0, %xmm13, %xmm1
vbroadcastss %xmm1, %xmm2
vshufps $0x55, %xmm1, %xmm1, %xmm3 # xmm3 = xmm1[1,1,1,1]
vshufps $0xaa, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,2,2,2]
movq 0x218(%rsp), %rax
vmovaps (%rax), %xmm4
vmovaps 0x10(%rax), %xmm5
vmovaps 0x20(%rax), %xmm6
vmulps %xmm1, %xmm6, %xmm8
vfmadd231ps %xmm3, %xmm5, %xmm8 # xmm8 = (xmm5 * xmm3) + xmm8
vfmadd231ps %xmm2, %xmm4, %xmm8 # xmm8 = (xmm4 * xmm2) + xmm8
vshufps $0xff, %xmm13, %xmm13, %xmm1 # xmm1 = xmm13[3,3,3,3]
vmovaps 0xe0(%rsp), %xmm3
vsubps %xmm0, %xmm3, %xmm2
vmovaps %xmm3, %xmm10
vbroadcastss %xmm2, %xmm3
vshufps $0x55, %xmm2, %xmm2, %xmm7 # xmm7 = xmm2[1,1,1,1]
vshufps $0xaa, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[2,2,2,2]
vmulps %xmm2, %xmm6, %xmm9
vfmadd231ps %xmm7, %xmm5, %xmm9 # xmm9 = (xmm5 * xmm7) + xmm9
vfmadd231ps %xmm3, %xmm4, %xmm9 # xmm9 = (xmm4 * xmm3) + xmm9
vshufps $0xff, %xmm10, %xmm10, %xmm2 # xmm2 = xmm10[3,3,3,3]
vmovaps 0xd0(%rsp), %xmm7
vsubps %xmm0, %xmm7, %xmm3
vmovaps %xmm7, %xmm12
vbroadcastss %xmm3, %xmm7
vshufps $0x55, %xmm3, %xmm3, %xmm11 # xmm11 = xmm3[1,1,1,1]
vshufps $0xaa, %xmm3, %xmm3, %xmm3 # xmm3 = xmm3[2,2,2,2]
vmulps %xmm3, %xmm6, %xmm10
vfmadd231ps %xmm11, %xmm5, %xmm10 # xmm10 = (xmm5 * xmm11) + xmm10
vfmadd231ps %xmm7, %xmm4, %xmm10 # xmm10 = (xmm4 * xmm7) + xmm10
vshufps $0xff, %xmm12, %xmm12, %xmm7 # xmm7 = xmm12[3,3,3,3]
vmovaps 0x120(%rsp), %xmm26
vsubps %xmm0, %xmm26, %xmm0
vbroadcastss %xmm0, %xmm3
vshufps $0x55, %xmm0, %xmm0, %xmm12 # xmm12 = xmm0[1,1,1,1]
vshufps $0xaa, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[2,2,2,2]
vmulps %xmm0, %xmm6, %xmm11
vfmadd231ps %xmm12, %xmm5, %xmm11 # xmm11 = (xmm5 * xmm12) + xmm11
vfmadd231ps %xmm3, %xmm4, %xmm11 # xmm11 = (xmm4 * xmm3) + xmm11
movslq %edi, %rax
movq %rax, %rcx
shlq $0x6, %rcx
leaq (%rcx,%rax,4), %rbx
vmovups (%r12,%rbx), %ymm25
vshufps $0xff, %xmm26, %xmm26, %xmm0 # xmm0 = xmm26[3,3,3,3]
vbroadcastss %xmm8, %ymm20
vbroadcastss 0x213967(%rip), %ymm4 # 0x1f12704
vpermps %ymm8, %ymm4, %ymm23
vbroadcastsd %xmm1, %ymm3
vmovups 0x484(%r12,%rbx), %ymm14
vbroadcastss %xmm9, %ymm1
vpermps %ymm9, %ymm4, %ymm27
vbroadcastsd %xmm2, %ymm12
vmovups 0x908(%r12,%rbx), %ymm15
vbroadcastss %xmm10, %ymm31
vpermps %ymm10, %ymm4, %ymm30
vbroadcastsd %xmm7, %ymm21
vmovups 0xd8c(%r12,%rbx), %ymm16
vbroadcastss %xmm11, %ymm28
vpermps %ymm11, %ymm4, %ymm29
vbroadcastsd %xmm0, %ymm22
vmulps %ymm16, %ymm28, %ymm5
vmulps %ymm16, %ymm29, %ymm4
vfmadd231ps %ymm31, %ymm15, %ymm5 # ymm5 = (ymm15 * ymm31) + ymm5
vfmadd231ps %ymm30, %ymm15, %ymm4 # ymm4 = (ymm15 * ymm30) + ymm4
vfmadd231ps %ymm1, %ymm14, %ymm5 # ymm5 = (ymm14 * ymm1) + ymm5
vfmadd231ps %ymm27, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm27) + ymm4
vfmadd231ps %ymm20, %ymm25, %ymm5 # ymm5 = (ymm25 * ymm20) + ymm5
leaq 0x42a8d9(%rip), %rdx # 0x2129704
vmovups (%rdx,%rbx), %ymm2
vmovups 0x484(%rdx,%rbx), %ymm17
vfmadd231ps %ymm23, %ymm25, %ymm4 # ymm4 = (ymm25 * ymm23) + ymm4
vmovups 0x908(%rdx,%rbx), %ymm18
vmovups 0xd8c(%rdx,%rbx), %ymm19
vmulps %ymm19, %ymm28, %ymm7
vmulps %ymm19, %ymm29, %ymm6
vfmadd231ps %ymm31, %ymm18, %ymm7 # ymm7 = (ymm18 * ymm31) + ymm7
vfmadd231ps %ymm30, %ymm18, %ymm6 # ymm6 = (ymm18 * ymm30) + ymm6
vmovaps %ymm1, 0x140(%rsp)
vfmadd231ps %ymm1, %ymm17, %ymm7 # ymm7 = (ymm17 * ymm1) + ymm7
vfmadd231ps %ymm27, %ymm17, %ymm6 # ymm6 = (ymm17 * ymm27) + ymm6
vmovaps %ymm20, 0x260(%rsp)
vfmadd231ps %ymm20, %ymm2, %ymm7 # ymm7 = (ymm2 * ymm20) + ymm7
vmovaps %ymm23, 0x240(%rsp)
vfmadd231ps %ymm23, %ymm2, %ymm6 # ymm6 = (ymm2 * ymm23) + ymm6
vsubps %ymm5, %ymm7, %ymm24
vsubps %ymm4, %ymm6, %ymm23
vmulps %ymm24, %ymm4, %ymm0
vmulps %ymm23, %ymm5, %ymm1
vsubps %ymm1, %ymm0, %ymm20
vmulps %ymm16, %ymm22, %ymm0
vfmadd231ps %ymm21, %ymm15, %ymm0 # ymm0 = (ymm15 * ymm21) + ymm0
vfmadd231ps %ymm12, %ymm14, %ymm0 # ymm0 = (ymm14 * ymm12) + ymm0
vfmadd231ps %ymm3, %ymm25, %ymm0 # ymm0 = (ymm25 * ymm3) + ymm0
vmovaps %ymm22, 0x620(%rsp)
vmulps %ymm19, %ymm22, %ymm1
vmovaps %ymm21, 0x640(%rsp)
vfmadd231ps %ymm21, %ymm18, %ymm1 # ymm1 = (ymm18 * ymm21) + ymm1
vmovaps %ymm12, 0x6a0(%rsp)
vfmadd231ps %ymm12, %ymm17, %ymm1 # ymm1 = (ymm17 * ymm12) + ymm1
vmovaps %ymm3, 0x6c0(%rsp)
vfmadd231ps %ymm3, %ymm2, %ymm1 # ymm1 = (ymm2 * ymm3) + ymm1
vmulps %ymm23, %ymm23, %ymm21
vfmadd231ps %ymm24, %ymm24, %ymm21 # ymm21 = (ymm24 * ymm24) + ymm21
vmaxps %ymm1, %ymm0, %ymm22
vmulps %ymm22, %ymm22, %ymm22
vmulps %ymm21, %ymm22, %ymm21
vmulps %ymm20, %ymm20, %ymm20
vcmpleps %ymm21, %ymm20, %k1
vmovaps %xmm13, 0x60(%rsp)
vblendps $0x8, %xmm13, %xmm8, %xmm12 # xmm12 = xmm8[0,1,2],xmm13[3]
vbroadcastss 0x221f75(%rip), %xmm20 # 0x1f20ec4
vandps %xmm20, %xmm12, %xmm12
vblendps $0x8, 0xe0(%rsp), %xmm9, %xmm13 # xmm13 = xmm9[0,1,2],mem[3]
vandps %xmm20, %xmm13, %xmm13
vmaxps %xmm13, %xmm12, %xmm12
vblendps $0x8, 0xd0(%rsp), %xmm10, %xmm13 # xmm13 = xmm10[0,1,2],mem[3]
vandps %xmm20, %xmm13, %xmm13
vmovaps %xmm26, %xmm3
vblendps $0x8, %xmm3, %xmm11, %xmm3 # xmm3 = xmm11[0,1,2],xmm3[3]
vandps %xmm20, %xmm3, %xmm3
vmaxps %xmm3, %xmm13, %xmm3
vmaxps %xmm3, %xmm12, %xmm3
vmovshdup %xmm3, %xmm12 # xmm12 = xmm3[1,1,3,3]
vmaxss %xmm3, %xmm12, %xmm12
vshufpd $0x1, %xmm3, %xmm3, %xmm3 # xmm3 = xmm3[1,0]
vmaxss %xmm12, %xmm3, %xmm3
vcvtsi2ss %edi, %xmm8, %xmm12
vmovaps %xmm12, 0x2c0(%rsp)
vbroadcastss %xmm12, %ymm12
vcmpgtps 0x221f7b(%rip), %ymm12, %k1 {%k1} # 0x1f20f40
vmulss 0x1f2015(%rip), %xmm3, %xmm26 # 0x1ef0fe4
vbroadcastss 0x221f04(%rip), %ymm3 # 0x1f20edc
vpermps %ymm8, %ymm3, %ymm20
vpermps %ymm9, %ymm3, %ymm21
vpermps %ymm10, %ymm3, %ymm22
vpermps %ymm11, %ymm3, %ymm3
kortestb %k1, %k1
vmovss 0xc0(%rsi,%r15,4), %xmm8
vmovaps %ymm27, 0x4a0(%rsp)
vmovaps %ymm31, 0x680(%rsp)
vmovaps %ymm30, 0x660(%rsp)
vmovaps %ymm20, 0x600(%rsp)
vmovaps %ymm21, 0x5e0(%rsp)
vmovaps %ymm22, 0x5c0(%rsp)
vmovaps %ymm3, 0x5a0(%rsp)
je 0x1cff7be
vmovaps %xmm8, 0x220(%rsp)
vmovaps %xmm26, 0x280(%rsp)
vmovaps %ymm3, %ymm26
vmulps %ymm19, %ymm3, %ymm3
vfmadd213ps %ymm3, %ymm22, %ymm18 # ymm18 = (ymm22 * ymm18) + ymm3
vfmadd213ps %ymm18, %ymm21, %ymm17 # ymm17 = (ymm21 * ymm17) + ymm18
vfmadd213ps %ymm17, %ymm20, %ymm2 # ymm2 = (ymm20 * ymm2) + ymm17
vmulps %ymm16, %ymm26, %ymm3
vfmadd213ps %ymm3, %ymm22, %ymm15 # ymm15 = (ymm22 * ymm15) + ymm3
vfmadd213ps %ymm15, %ymm21, %ymm14 # ymm14 = (ymm21 * ymm14) + ymm15
vmovups 0x1210(%r12,%rbx), %ymm3
vmovups 0x1694(%r12,%rbx), %ymm10
vmovups 0x1b18(%r12,%rbx), %ymm11
vmovups 0x1f9c(%r12,%rbx), %ymm12
vfmadd213ps %ymm14, %ymm20, %ymm25 # ymm25 = (ymm20 * ymm25) + ymm14
vmulps %ymm12, %ymm28, %ymm9
vmulps %ymm12, %ymm29, %ymm8
vmulps %ymm12, %ymm26, %ymm12
vfmadd231ps %ymm31, %ymm11, %ymm9 # ymm9 = (ymm11 * ymm31) + ymm9
vfmadd231ps %ymm30, %ymm11, %ymm8 # ymm8 = (ymm11 * ymm30) + ymm8
vfmadd231ps %ymm11, %ymm22, %ymm12 # ymm12 = (ymm22 * ymm11) + ymm12
vmovaps 0x140(%rsp), %ymm19
vfmadd231ps %ymm19, %ymm10, %ymm9 # ymm9 = (ymm10 * ymm19) + ymm9
vfmadd231ps %ymm27, %ymm10, %ymm8 # ymm8 = (ymm10 * ymm27) + ymm8
vfmadd231ps %ymm10, %ymm21, %ymm12 # ymm12 = (ymm21 * ymm10) + ymm12
vmovaps 0x260(%rsp), %ymm17
vfmadd231ps %ymm17, %ymm3, %ymm9 # ymm9 = (ymm3 * ymm17) + ymm9
vmovaps 0x240(%rsp), %ymm18
vfmadd231ps %ymm18, %ymm3, %ymm8 # ymm8 = (ymm3 * ymm18) + ymm8
vmovups 0x1210(%rdx,%rbx), %ymm10
vmovups 0x1b18(%rdx,%rbx), %ymm11
vmovups 0x1f9c(%rdx,%rbx), %ymm13
vfmadd231ps %ymm3, %ymm20, %ymm12 # ymm12 = (ymm20 * ymm3) + ymm12
vmovaps %ymm28, 0x180(%rsp)
vmulps %ymm13, %ymm28, %ymm3
vmovaps %ymm29, 0x160(%rsp)
vmulps %ymm13, %ymm29, %ymm14
vmulps %ymm13, %ymm26, %ymm13
vmovaps 0x280(%rsp), %xmm26
vfmadd231ps %ymm31, %ymm11, %ymm3 # ymm3 = (ymm11 * ymm31) + ymm3
vfmadd231ps %ymm30, %ymm11, %ymm14 # ymm14 = (ymm11 * ymm30) + ymm14
vfmadd231ps %ymm11, %ymm22, %ymm13 # ymm13 = (ymm22 * ymm11) + ymm13
vmovups 0x1694(%rdx,%rbx), %ymm11
vfmadd231ps %ymm19, %ymm11, %ymm3 # ymm3 = (ymm11 * ymm19) + ymm3
vfmadd231ps %ymm27, %ymm11, %ymm14 # ymm14 = (ymm11 * ymm27) + ymm14
vfmadd231ps %ymm11, %ymm21, %ymm13 # ymm13 = (ymm21 * ymm11) + ymm13
vfmadd231ps %ymm17, %ymm10, %ymm3 # ymm3 = (ymm10 * ymm17) + ymm3
vfmadd231ps %ymm18, %ymm10, %ymm14 # ymm14 = (ymm10 * ymm18) + ymm14
vfmadd231ps %ymm10, %ymm20, %ymm13 # ymm13 = (ymm20 * ymm10) + ymm13
vbroadcastss 0x221d2c(%rip), %ymm15 # 0x1f20ec4
vandps %ymm15, %ymm9, %ymm10
vandps %ymm15, %ymm8, %ymm11
vmaxps %ymm11, %ymm10, %ymm10
vandps %ymm15, %ymm12, %ymm11
vmaxps %ymm11, %ymm10, %ymm10
vbroadcastss %xmm26, %ymm11
vcmpltps %ymm11, %ymm10, %k2
vmovaps %ymm24, %ymm9 {%k2}
vmovaps %ymm23, %ymm8 {%k2}
vandps %ymm3, %ymm15, %ymm10
vandps %ymm15, %ymm14, %ymm12
vmaxps %ymm12, %ymm10, %ymm10
vandps %ymm15, %ymm13, %ymm12
vmaxps %ymm12, %ymm10, %ymm10
vcmpltps %ymm11, %ymm10, %k2
vmovaps %ymm24, %ymm3 {%k2}
vmovaps %ymm23, %ymm14 {%k2}
vbroadcastss 0x221cc2(%rip), %ymm11 # 0x1f20ec0
vxorps %ymm11, %ymm9, %ymm10
vxorps %ymm3, %ymm11, %ymm12
vxorps %xmm27, %xmm27, %xmm27
vfmadd213ps %ymm27, %ymm9, %ymm9 # ymm9 = (ymm9 * ymm9) + ymm27
vfmadd231ps %ymm8, %ymm8, %ymm9 # ymm9 = (ymm8 * ymm8) + ymm9
vrsqrt14ps %ymm9, %ymm11
vbroadcastss 0x1ed4f5(%rip), %ymm15 # 0x1eec71c
vmulps %ymm15, %ymm9, %ymm9
vmulps %ymm9, %ymm11, %ymm9
vmulps %ymm11, %ymm11, %ymm13
vmulps %ymm9, %ymm13, %ymm9
vbroadcastss 0x1ed4d3(%rip), %ymm16 # 0x1eec718
vfmadd231ps %ymm11, %ymm16, %ymm9 # ymm9 = (ymm16 * ymm11) + ymm9
vmulps %ymm9, %ymm8, %ymm11
vmulps %ymm10, %ymm9, %ymm10
vmulps %ymm27, %ymm9, %ymm13
vfmadd213ps %ymm27, %ymm3, %ymm3 # ymm3 = (ymm3 * ymm3) + ymm27
vfmadd231ps %ymm14, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm14) + ymm3
vrsqrt14ps %ymm3, %ymm8
vmulps %ymm3, %ymm15, %ymm3
vmulps %ymm3, %ymm8, %ymm3
vmulps %ymm8, %ymm8, %ymm9
vmulps %ymm3, %ymm9, %ymm3
vfmadd231ps %ymm8, %ymm16, %ymm3 # ymm3 = (ymm16 * ymm8) + ymm3
vmulps %ymm3, %ymm14, %ymm8
vmulps %ymm3, %ymm12, %ymm9
vmulps %ymm27, %ymm3, %ymm3
vmovaps %ymm11, %ymm12
vfmadd213ps %ymm5, %ymm0, %ymm12 # ymm12 = (ymm0 * ymm12) + ymm5
vmovaps %ymm10, %ymm14
vfmadd213ps %ymm4, %ymm0, %ymm14 # ymm14 = (ymm0 * ymm14) + ymm4
vmovaps %ymm13, %ymm15
vfmadd213ps %ymm25, %ymm0, %ymm15 # ymm15 = (ymm0 * ymm15) + ymm25
vmovaps %ymm8, %ymm16
vfmadd213ps %ymm7, %ymm1, %ymm16 # ymm16 = (ymm1 * ymm16) + ymm7
vfnmadd213ps %ymm5, %ymm0, %ymm11 # ymm11 = -(ymm0 * ymm11) + ymm5
vmovaps %ymm9, %ymm5
vfmadd213ps %ymm6, %ymm1, %ymm5 # ymm5 = (ymm1 * ymm5) + ymm6
vfnmadd213ps %ymm4, %ymm0, %ymm10 # ymm10 = -(ymm0 * ymm10) + ymm4
vmovaps %ymm3, %ymm4
vfmadd213ps %ymm2, %ymm1, %ymm4 # ymm4 = (ymm1 * ymm4) + ymm2
vfnmadd231ps %ymm13, %ymm0, %ymm25 # ymm25 = -(ymm0 * ymm13) + ymm25
vfnmadd213ps %ymm7, %ymm1, %ymm8 # ymm8 = -(ymm1 * ymm8) + ymm7
vfnmadd213ps %ymm6, %ymm1, %ymm9 # ymm9 = -(ymm1 * ymm9) + ymm6
vfnmadd231ps %ymm3, %ymm1, %ymm2 # ymm2 = -(ymm1 * ymm3) + ymm2
vsubps %ymm11, %ymm16, %ymm3
vsubps %ymm10, %ymm5, %ymm6
vsubps %ymm25, %ymm4, %ymm7
vmulps %ymm25, %ymm6, %ymm13
vfmsub231ps %ymm7, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm7) - ymm13
vmulps %ymm7, %ymm11, %ymm7
vfmsub231ps %ymm3, %ymm25, %ymm7 # ymm7 = (ymm25 * ymm3) - ymm7
vmulps %ymm3, %ymm10, %ymm3
vfmsub231ps %ymm6, %ymm11, %ymm3 # ymm3 = (ymm11 * ymm6) - ymm3
vfmadd231ps %ymm7, %ymm27, %ymm3 # ymm3 = (ymm27 * ymm7) + ymm3
vfmadd231ps %ymm13, %ymm27, %ymm3 # ymm3 = (ymm27 * ymm13) + ymm3
vcmpleps %ymm27, %ymm3, %k2
vmovaps %ymm12, %ymm8 {%k2}
vmovaps %ymm14, %ymm9 {%k2}
vmovaps %ymm15, %ymm2 {%k2}
vblendmps %ymm16, %ymm11, %ymm13 {%k2}
vblendmps %ymm5, %ymm10, %ymm14 {%k2}
vblendmps %ymm4, %ymm25, %ymm15 {%k2}
vmovaps %ymm11, %ymm16 {%k2}
vmovaps %ymm10, %ymm5 {%k2}
vmovaps %ymm25, %ymm4 {%k2}
vsubps %ymm8, %ymm16, %ymm6
vsubps %ymm9, %ymm5, %ymm5
vsubps %ymm2, %ymm4, %ymm11
vsubps %ymm13, %ymm8, %ymm7
vsubps %ymm14, %ymm9, %ymm10
vsubps %ymm15, %ymm2, %ymm12
vmulps %ymm8, %ymm11, %ymm4
vfmsub231ps %ymm6, %ymm2, %ymm4 # ymm4 = (ymm2 * ymm6) - ymm4
vmulps %ymm6, %ymm9, %ymm3
vfmsub231ps %ymm5, %ymm8, %ymm3 # ymm3 = (ymm8 * ymm5) - ymm3
vfmadd231ps %ymm4, %ymm27, %ymm3 # ymm3 = (ymm27 * ymm4) + ymm3
vmulps %ymm2, %ymm5, %ymm4
vfmsub231ps %ymm11, %ymm9, %ymm4 # ymm4 = (ymm9 * ymm11) - ymm4
vfmadd231ps %ymm4, %ymm27, %ymm3 # ymm3 = (ymm27 * ymm4) + ymm3
vmulps %ymm13, %ymm12, %ymm16
vfmsub231ps %ymm15, %ymm7, %ymm16 # ymm16 = (ymm7 * ymm15) - ymm16
vmulps %ymm15, %ymm10, %ymm15
vfmsub231ps %ymm12, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm12) - ymm15
vmulps %ymm7, %ymm14, %ymm4
vfmsub231ps %ymm13, %ymm10, %ymm4 # ymm4 = (ymm10 * ymm13) - ymm4
vfmadd231ps %ymm16, %ymm27, %ymm4 # ymm4 = (ymm27 * ymm16) + ymm4
vfmadd231ps %ymm15, %ymm27, %ymm4 # ymm4 = (ymm27 * ymm15) + ymm4
vmaxps %ymm4, %ymm3, %ymm13
vcmpleps %ymm27, %ymm13, %k0 {%k1}
kortestb %k0, %k0
vmovaps 0x1c0(%rsp), %ymm20
vmovaps 0x1a0(%rsp), %ymm21
vmovaps %ymm17, %ymm22
vmovaps %ymm19, %ymm17
je 0x1d006e2
vmulps %ymm5, %ymm12, %ymm13
vfmsub231ps %ymm11, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm11) - ymm13
vmulps %ymm7, %ymm11, %ymm11
vfmsub231ps %ymm12, %ymm6, %ymm11 # ymm11 = (ymm6 * ymm12) - ymm11
vmulps %ymm6, %ymm10, %ymm10
vfmsub231ps %ymm5, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm5) - ymm10
vxorps %xmm6, %xmm6, %xmm6
vfmadd213ps %ymm10, %ymm11, %ymm6 # ymm6 = (ymm11 * ymm6) + ymm10
vfmadd231ps %ymm27, %ymm13, %ymm6 # ymm6 = (ymm13 * ymm27) + ymm6
vrcp14ps %ymm6, %ymm7
vmovaps %ymm7, %ymm5
vfnmadd213ps 0x1ed2cf(%rip){1to8}, %ymm6, %ymm5 # ymm5 = -(ymm6 * ymm5) + mem
vfmadd132ps %ymm7, %ymm7, %ymm5 # ymm5 = (ymm5 * ymm7) + ymm7
vmulps %ymm2, %ymm10, %ymm2
vfmadd231ps %ymm11, %ymm9, %ymm2 # ymm2 = (ymm9 * ymm11) + ymm2
vfmadd231ps %ymm13, %ymm8, %ymm2 # ymm2 = (ymm8 * ymm13) + ymm2
vmulps %ymm5, %ymm2, %ymm2
vmovaps 0x220(%rsp), %xmm8
vbroadcastss %xmm8, %ymm7
vcmpleps %ymm2, %ymm7, %k1
vcmpleps 0x200(%rsi,%r15,4){1to8}, %ymm2, %k1 {%k1}
kandb %k0, %k1, %k0
kortestb %k0, %k0
vmovaps 0x180(%rsp), %ymm28
vmovaps 0x160(%rsp), %ymm29
je 0x1d0071b
vcmpneqps %ymm27, %ymm6, %k1
ktestb %k1, %k0
vmovaps 0x60(%rsp), %xmm7
je 0x1d0073b
kandb %k1, %k0, %k0
kmovd %k0, %eax
vmulps %ymm5, %ymm3, %ymm3
vmulps %ymm5, %ymm4, %ymm4
vbroadcastss 0x1ed249(%rip), %ymm5 # 0x1eec714
vsubps %ymm3, %ymm5, %ymm6
vmovaps %ymm3, %ymm6 {%k2}
vsubps %ymm4, %ymm5, %ymm3
vmovaps %ymm4, %ymm3 {%k2}
vmovaps %ymm3, 0x460(%rsp)
movzbl %al, %r12d
vmovaps %ymm2, %ymm3
testw %r12w, %r12w
je 0x1cff7b5
vsubps %ymm0, %ymm1, %ymm1
vfmadd213ps %ymm0, %ymm6, %ymm1 # ymm1 = (ymm6 * ymm1) + ymm0
vaddps %ymm1, %ymm1, %ymm0
movq 0xc8(%rsp), %rax
vmulps (%rax,%r15,4){1to8}, %ymm0, %ymm0
vcmpnleps %ymm0, %ymm3, %k0
kmovd %k0, %eax
andb %al, %r12b
je 0x1cff7b5
vbroadcastss 0x1f1499(%rip), %ymm0 # 0x1ef09cc
vmovaps 0x460(%rsp), %ymm1
vfmadd132ps 0x1f1ab2(%rip){1to8}, %ymm0, %ymm1 # ymm1 = (ymm1 * mem) + ymm0
vmovaps %ymm6, 0x2e0(%rsp)
vmovaps %ymm1, 0x460(%rsp)
vmovaps %ymm1, 0x300(%rsp)
vmovaps %ymm3, 0x320(%rsp)
movl $0x0, 0x340(%rsp)
movl %edi, 0x344(%rsp)
vmovaps %xmm7, 0x350(%rsp)
vmovaps 0xe0(%rsp), %xmm0
vmovaps %xmm0, 0x360(%rsp)
vmovaps 0xd0(%rsp), %xmm0
vmovaps %xmm0, 0x370(%rsp)
vmovdqa 0x120(%rsp), %xmm0
vmovdqa %xmm0, 0x380(%rsp)
movb %r12b, 0x390(%rsp)
movl 0x240(%rsi,%r15,4), %eax
testl %eax, 0x34(%r14)
je 0x1cff7b5
vaddps 0x221963(%rip), %ymm6, %ymm0 # 0x1f20f40
vmovss 0x1ed12f(%rip), %xmm1 # 0x1eec714
vdivss 0x2c0(%rsp), %xmm1, %xmm1
vbroadcastss %xmm1, %ymm1
vmulps %ymm0, %ymm1, %ymm0
vmovaps %ymm0, 0x3a0(%rsp)
vmovaps 0x460(%rsp), %ymm0
vmovaps %ymm0, 0x3c0(%rsp)
vmovaps %ymm3, 0x3e0(%rsp)
kmovd %r12d, %k1
vbroadcastss 0x1ec3f7(%rip), %ymm0 # 0x1eeba20
vblendmps %ymm3, %ymm0, %ymm0 {%k1}
vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm0, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1]
vminps %ymm2, %ymm1, %ymm1
vcmpeqps %ymm1, %ymm0, %k0
kmovd %k0, %eax
andb %r12b, %al
movzbl %al, %eax
movzbl %r12b, %ecx
cmovnel %eax, %ecx
tzcntl %ecx, %r9d
movq 0x10(%r10), %rax
cmpq $0x0, 0x10(%rax)
vmovaps %ymm6, 0xa0(%rsp)
vmovaps %ymm3, 0x80(%rsp)
jne 0x1d00755
cmpq $0x0, 0x40(%r14)
jne 0x1d00755
vmovss 0x3a0(%rsp,%r9,4), %xmm0
vmovss 0x3c0(%rsp,%r9,4), %xmm1
vmovss 0x1ed064(%rip), %xmm2 # 0x1eec714
vsubss %xmm0, %xmm2, %xmm2
vmulss %xmm2, %xmm2, %xmm3
vmulss %xmm2, %xmm0, %xmm2
vmulss 0x1f192c(%rip), %xmm3, %xmm4 # 0x1ef0ff0
vfmadd231ss 0x1f130f(%rip), %xmm2, %xmm3 # xmm3 = (xmm2 * mem) + xmm3
vmulss %xmm0, %xmm0, %xmm5
vfmsub132ss 0x1f191e(%rip), %xmm5, %xmm2 # xmm2 = (xmm2 * mem) - xmm5
vmovss 0x1f190a(%rip), %xmm6 # 0x1ef0fec
vmulss %xmm6, %xmm3, %xmm3
vmulss %xmm6, %xmm2, %xmm2
vmulss %xmm6, %xmm5, %xmm5
vbroadcastss %xmm5, %xmm5
vmulps 0x120(%rsp), %xmm5, %xmm5
vbroadcastss %xmm2, %xmm2
vfmadd132ps 0xd0(%rsp), %xmm5, %xmm2 # xmm2 = (xmm2 * mem) + xmm5
vmovaps 0xa0(%rsp), %ymm6
vbroadcastss %xmm3, %xmm3
vfmadd132ps 0xe0(%rsp), %xmm2, %xmm3 # xmm3 = (xmm3 * mem) + xmm2
vbroadcastss %xmm4, %xmm2
vfmadd213ps %xmm3, %xmm7, %xmm2 # xmm2 = (xmm7 * xmm2) + xmm3
vmovss 0x3e0(%rsp,%r9,4), %xmm3
vmovss %xmm3, 0x200(%rsi,%r15,4)
vmovaps 0x80(%rsp), %ymm3
vmovss %xmm2, 0x300(%rsi,%r15,4)
vextractps $0x1, %xmm2, 0x340(%rsi,%r15,4)
vextractps $0x2, %xmm2, 0x380(%rsi,%r15,4)
vmovss %xmm0, 0x3c0(%rsi,%r15,4)
vmovss %xmm1, 0x400(%rsi,%r15,4)
movq 0x78(%rsp), %rax
movl %eax, 0x440(%rsi,%r15,4)
movq 0x58(%rsp), %rax
movl %eax, 0x480(%rsi,%r15,4)
movq 0x8(%r10), %rax
movl (%rax), %eax
movl %eax, 0x4c0(%rsi,%r15,4)
movq 0x8(%r10), %rax
movl 0x4(%rax), %eax
movl %eax, 0x500(%rsi,%r15,4)
leaq 0x427b28(%rip), %r12 # 0x21272e4
jmp 0x1cff7fe
vxorps %xmm27, %xmm27, %xmm27
vmovaps 0xa0(%rsp), %ymm6
vmovaps 0x1c0(%rsp), %ymm20
vmovaps 0x80(%rsp), %ymm3
vmovaps 0x1a0(%rsp), %ymm21
vmovaps 0x260(%rsp), %ymm22
vmovaps 0x240(%rsp), %ymm18
vmovaps 0x140(%rsp), %ymm17
cmpl $0x9, %edi
jge 0x1cff82a
vmovaps 0x6e0(%rsp), %ymm0
vcmpleps 0x200(%rsi,%r15,4){1to8}, %ymm0, %k0
kmovb %k0, %eax
andl %eax, %r13d
jne 0x1cfeb71
jmp 0x1d00c45
vpbroadcastd %edi, %ymm0
vmovdqa %ymm0, 0x280(%rsp)
vbroadcastss %xmm26, %ymm0
vmovaps %ymm0, 0x220(%rsp)
vbroadcastss %xmm8, %ymm0
vmovaps %ymm0, 0x2a0(%rsp)
vmovss 0x1eceb6(%rip), %xmm0 # 0x1eec714
vdivss 0x2c0(%rsp), %xmm0, %xmm0
vbroadcastss %xmm0, %ymm0
vmovaps %ymm0, 0x2c0(%rsp)
movq 0x58(%rsp), %rax
vpbroadcastd %eax, %zmm0
vmovdqa64 %zmm0, 0x540(%rsp)
movq 0x78(%rsp), %rax
vpbroadcastd %eax, %zmm0
vmovdqa64 %zmm0, 0x500(%rsp)
movl $0x8, %r14d
vmovaps %ymm6, 0xa0(%rsp)
vmovaps %ymm3, 0x80(%rsp)
vpbroadcastd %r14d, %ymm0
vpor 0x25b05f(%rip), %ymm0, %ymm0 # 0x1f5a920
vpcmpltd 0x280(%rsp), %ymm0, %k1
leaq (%rbx,%r12), %rcx
vmovups (%rcx,%r14,4), %ymm3
vmovups 0x484(%rcx,%r14,4), %ymm10
vmovups 0x908(%rcx,%r14,4), %ymm11
vmovups 0xd8c(%rcx,%r14,4), %ymm12
vmulps %ymm12, %ymm28, %ymm5
vmulps %ymm12, %ymm29, %ymm4
vmovaps 0x620(%rsp), %ymm1
vmulps %ymm1, %ymm12, %ymm0
vmovaps 0x680(%rsp), %ymm19
vfmadd231ps %ymm19, %ymm11, %ymm5 # ymm5 = (ymm11 * ymm19) + ymm5
vmovaps 0x660(%rsp), %ymm26
vfmadd231ps %ymm26, %ymm11, %ymm4 # ymm4 = (ymm11 * ymm26) + ymm4
vmovaps 0x640(%rsp), %ymm16
vfmadd231ps %ymm16, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm16) + ymm0
vfmadd231ps %ymm17, %ymm10, %ymm5 # ymm5 = (ymm10 * ymm17) + ymm5
vmovaps 0x4a0(%rsp), %ymm25
vfmadd231ps %ymm25, %ymm10, %ymm4 # ymm4 = (ymm10 * ymm25) + ymm4
vmovaps 0x6a0(%rsp), %ymm9
vfmadd231ps %ymm9, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm9) + ymm0
vfmadd231ps %ymm22, %ymm3, %ymm5 # ymm5 = (ymm3 * ymm22) + ymm5
vfmadd231ps %ymm18, %ymm3, %ymm4 # ymm4 = (ymm3 * ymm18) + ymm4
leaq (%rbx,%rdx), %rax
vmovups (%rax,%r14,4), %ymm2
vmovups 0x484(%rax,%r14,4), %ymm13
vmovaps 0x6c0(%rsp), %ymm8
vfmadd231ps %ymm8, %ymm3, %ymm0 # ymm0 = (ymm3 * ymm8) + ymm0
vmovups 0x908(%rax,%r14,4), %ymm14
vmovups 0xd8c(%rax,%r14,4), %ymm15
vmulps %ymm15, %ymm28, %ymm7
vmulps %ymm15, %ymm29, %ymm6
vmulps %ymm1, %ymm15, %ymm1
vfmadd231ps %ymm19, %ymm14, %ymm7 # ymm7 = (ymm14 * ymm19) + ymm7
vfmadd231ps %ymm26, %ymm14, %ymm6 # ymm6 = (ymm14 * ymm26) + ymm6
vfmadd231ps %ymm16, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm16) + ymm1
vfmadd231ps %ymm17, %ymm13, %ymm7 # ymm7 = (ymm13 * ymm17) + ymm7
vfmadd231ps %ymm25, %ymm13, %ymm6 # ymm6 = (ymm13 * ymm25) + ymm6
vfmadd231ps %ymm9, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm9) + ymm1
vfmadd231ps %ymm22, %ymm2, %ymm7 # ymm7 = (ymm2 * ymm22) + ymm7
vfmadd231ps %ymm18, %ymm2, %ymm6 # ymm6 = (ymm2 * ymm18) + ymm6
vfmadd231ps %ymm8, %ymm2, %ymm1 # ymm1 = (ymm2 * ymm8) + ymm1
vmaxps %ymm1, %ymm0, %ymm16
vsubps %ymm5, %ymm7, %ymm9
vsubps %ymm4, %ymm6, %ymm8
vmovaps %ymm17, %ymm24
vmulps %ymm9, %ymm4, %ymm17
vmovaps %ymm18, %ymm23
vmulps %ymm8, %ymm5, %ymm18
vsubps %ymm18, %ymm17, %ymm17
vmulps %ymm8, %ymm8, %ymm18
vfmadd231ps %ymm9, %ymm9, %ymm18 # ymm18 = (ymm9 * ymm9) + ymm18
vmulps %ymm16, %ymm16, %ymm16
vmulps %ymm18, %ymm16, %ymm16
vmulps %ymm17, %ymm17, %ymm17
vcmpleps %ymm16, %ymm17, %k1 {%k1}
kortestb %k1, %k1
je 0x1d001a6
vmovaps %ymm23, %ymm16
vmovaps 0x5a0(%rsp), %ymm23
vmulps %ymm15, %ymm23, %ymm15
vmovaps 0x5c0(%rsp), %ymm31
vfmadd213ps %ymm15, %ymm31, %ymm14 # ymm14 = (ymm31 * ymm14) + ymm15
vmovaps 0x5e0(%rsp), %ymm30
vfmadd213ps %ymm14, %ymm30, %ymm13 # ymm13 = (ymm30 * ymm13) + ymm14
vmovaps 0x600(%rsp), %ymm18
vfmadd213ps %ymm13, %ymm18, %ymm2 # ymm2 = (ymm18 * ymm2) + ymm13
vmulps %ymm12, %ymm23, %ymm12
vfmadd213ps %ymm12, %ymm31, %ymm11 # ymm11 = (ymm31 * ymm11) + ymm12
vfmadd213ps %ymm11, %ymm30, %ymm10 # ymm10 = (ymm30 * ymm10) + ymm11
vfmadd213ps %ymm10, %ymm18, %ymm3 # ymm3 = (ymm18 * ymm3) + ymm10
vmovups 0x1210(%rcx,%r14,4), %ymm12
vmovups 0x1694(%rcx,%r14,4), %ymm13
vmovups 0x1b18(%rcx,%r14,4), %ymm14
vmovups 0x1f9c(%rcx,%r14,4), %ymm15
vmulps %ymm15, %ymm28, %ymm11
vmulps %ymm15, %ymm29, %ymm10
vmulps %ymm15, %ymm23, %ymm15
vfmadd231ps %ymm19, %ymm14, %ymm11 # ymm11 = (ymm14 * ymm19) + ymm11
vfmadd231ps %ymm26, %ymm14, %ymm10 # ymm10 = (ymm14 * ymm26) + ymm10
vfmadd231ps %ymm14, %ymm31, %ymm15 # ymm15 = (ymm31 * ymm14) + ymm15
vfmadd231ps %ymm24, %ymm13, %ymm11 # ymm11 = (ymm13 * ymm24) + ymm11
vfmadd231ps %ymm25, %ymm13, %ymm10 # ymm10 = (ymm13 * ymm25) + ymm10
vfmadd231ps %ymm13, %ymm30, %ymm15 # ymm15 = (ymm30 * ymm13) + ymm15
vfmadd231ps %ymm22, %ymm12, %ymm11 # ymm11 = (ymm12 * ymm22) + ymm11
vfmadd231ps %ymm16, %ymm12, %ymm10 # ymm10 = (ymm12 * ymm16) + ymm10
vmovaps %ymm26, %ymm25
vmovaps %ymm19, %ymm26
vmovaps %ymm16, %ymm19
vfmadd231ps %ymm12, %ymm18, %ymm15 # ymm15 = (ymm18 * ymm12) + ymm15
vmovups 0x1210(%rax,%r14,4), %ymm13
vmovups 0x1b18(%rax,%r14,4), %ymm14
vmovups 0x1f9c(%rax,%r14,4), %ymm16
vmulps %ymm16, %ymm28, %ymm17
vmulps %ymm16, %ymm29, %ymm12
vmulps %ymm16, %ymm23, %ymm16
vfmadd231ps %ymm26, %ymm14, %ymm17 # ymm17 = (ymm14 * ymm26) + ymm17
vfmadd231ps %ymm25, %ymm14, %ymm12 # ymm12 = (ymm14 * ymm25) + ymm12
vfmadd231ps %ymm14, %ymm31, %ymm16 # ymm16 = (ymm31 * ymm14) + ymm16
vmovups 0x1694(%rax,%r14,4), %ymm14
vfmadd231ps %ymm24, %ymm14, %ymm17 # ymm17 = (ymm14 * ymm24) + ymm17
vfmadd231ps 0x4a0(%rsp), %ymm14, %ymm12 # ymm12 = (ymm14 * mem) + ymm12
vfmadd231ps %ymm14, %ymm30, %ymm16 # ymm16 = (ymm30 * ymm14) + ymm16
vfmadd231ps %ymm22, %ymm13, %ymm17 # ymm17 = (ymm13 * ymm22) + ymm17
vfmadd231ps %ymm19, %ymm13, %ymm12 # ymm12 = (ymm13 * ymm19) + ymm12
vfmadd231ps %ymm13, %ymm18, %ymm16 # ymm16 = (ymm18 * ymm13) + ymm16
vbroadcastss 0x221335(%rip), %ymm18 # 0x1f20ec4
vandps %ymm18, %ymm11, %ymm13
vandps %ymm18, %ymm10, %ymm14
vmaxps %ymm14, %ymm13, %ymm13
vandps %ymm18, %ymm15, %ymm14
vmaxps %ymm14, %ymm13, %ymm13
vmovaps 0x220(%rsp), %ymm15
vcmpltps %ymm15, %ymm13, %k2
vmovaps %ymm9, %ymm11 {%k2}
vmovaps %ymm8, %ymm10 {%k2}
vandps %ymm18, %ymm17, %ymm13
vandps %ymm18, %ymm12, %ymm14
vmaxps %ymm14, %ymm13, %ymm13
vandps %ymm18, %ymm16, %ymm14
vmaxps %ymm14, %ymm13, %ymm13
vcmpltps %ymm15, %ymm13, %k2
vmovaps %ymm9, %ymm17 {%k2}
vmovaps %ymm8, %ymm12 {%k2}
vbroadcastss 0x2212c1(%rip), %ymm9 # 0x1f20ec0
vxorps %ymm9, %ymm11, %ymm8
vxorps %ymm9, %ymm17, %ymm9
vfmadd213ps %ymm27, %ymm11, %ymm11 # ymm11 = (ymm11 * ymm11) + ymm27
vfmadd231ps %ymm10, %ymm10, %ymm11 # ymm11 = (ymm10 * ymm10) + ymm11
vrsqrt14ps %ymm11, %ymm13
vbroadcastss 0x1ecaf8(%rip), %ymm15 # 0x1eec71c
vmulps %ymm15, %ymm11, %ymm11
vmulps %ymm11, %ymm13, %ymm11
vmulps %ymm13, %ymm13, %ymm14
vmulps %ymm11, %ymm14, %ymm14
vbroadcastss 0x1ecad6(%rip), %ymm16 # 0x1eec718
vfmadd231ps %ymm13, %ymm16, %ymm14 # ymm14 = (ymm16 * ymm13) + ymm14
vmulps %ymm14, %ymm10, %ymm11
vmulps %ymm8, %ymm14, %ymm10
vmulps %ymm27, %ymm14, %ymm13
vfmadd213ps %ymm27, %ymm17, %ymm17 # ymm17 = (ymm17 * ymm17) + ymm27
vfmadd231ps %ymm12, %ymm12, %ymm17 # ymm17 = (ymm12 * ymm12) + ymm17
vrsqrt14ps %ymm17, %ymm8
vmulps %ymm15, %ymm17, %ymm14
vmulps %ymm14, %ymm8, %ymm14
vmulps %ymm8, %ymm8, %ymm15
vmulps %ymm14, %ymm15, %ymm14
vfmadd231ps %ymm8, %ymm16, %ymm14 # ymm14 = (ymm16 * ymm8) + ymm14
vmulps %ymm14, %ymm12, %ymm8
vmulps %ymm9, %ymm14, %ymm9
vmulps %ymm27, %ymm14, %ymm12
vmovaps %ymm11, %ymm14
vfmadd213ps %ymm5, %ymm0, %ymm14 # ymm14 = (ymm0 * ymm14) + ymm5
vmovaps %ymm10, %ymm15
vfmadd213ps %ymm4, %ymm0, %ymm15 # ymm15 = (ymm0 * ymm15) + ymm4
vmovaps %ymm13, %ymm16
vfmadd213ps %ymm3, %ymm0, %ymm16 # ymm16 = (ymm0 * ymm16) + ymm3
vmovaps %ymm8, %ymm17
vfmadd213ps %ymm7, %ymm1, %ymm17 # ymm17 = (ymm1 * ymm17) + ymm7
vfnmadd213ps %ymm5, %ymm0, %ymm11 # ymm11 = -(ymm0 * ymm11) + ymm5
vmovaps %ymm9, %ymm5
vfmadd213ps %ymm6, %ymm1, %ymm5 # ymm5 = (ymm1 * ymm5) + ymm6
vfnmadd213ps %ymm4, %ymm0, %ymm10 # ymm10 = -(ymm0 * ymm10) + ymm4
vmovaps %ymm12, %ymm4
vfmadd213ps %ymm2, %ymm1, %ymm4 # ymm4 = (ymm1 * ymm4) + ymm2
vfnmadd231ps %ymm13, %ymm0, %ymm3 # ymm3 = -(ymm0 * ymm13) + ymm3
vfnmadd213ps %ymm7, %ymm1, %ymm8 # ymm8 = -(ymm1 * ymm8) + ymm7
vfnmadd213ps %ymm6, %ymm1, %ymm9 # ymm9 = -(ymm1 * ymm9) + ymm6
vfnmadd231ps %ymm12, %ymm1, %ymm2 # ymm2 = -(ymm1 * ymm12) + ymm2
vsubps %ymm11, %ymm17, %ymm6
vsubps %ymm10, %ymm5, %ymm7
vsubps %ymm3, %ymm4, %ymm12
vmulps %ymm3, %ymm7, %ymm13
vfmsub231ps %ymm12, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm12) - ymm13
vmulps %ymm11, %ymm12, %ymm12
vfmsub231ps %ymm6, %ymm3, %ymm12 # ymm12 = (ymm3 * ymm6) - ymm12
vmulps %ymm6, %ymm10, %ymm6
vfmsub231ps %ymm7, %ymm11, %ymm6 # ymm6 = (ymm11 * ymm7) - ymm6
vfmadd231ps %ymm12, %ymm27, %ymm6 # ymm6 = (ymm27 * ymm12) + ymm6
vfmadd231ps %ymm13, %ymm27, %ymm6 # ymm6 = (ymm27 * ymm13) + ymm6
vcmpleps %ymm27, %ymm6, %k2
vmovaps %ymm14, %ymm8 {%k2}
vmovaps %ymm15, %ymm9 {%k2}
vmovaps %ymm16, %ymm2 {%k2}
vblendmps %ymm17, %ymm11, %ymm13 {%k2}
vblendmps %ymm5, %ymm10, %ymm14 {%k2}
vblendmps %ymm4, %ymm3, %ymm15 {%k2}
vmovaps %ymm11, %ymm17 {%k2}
vmovaps %ymm10, %ymm5 {%k2}
vmovaps %ymm3, %ymm4 {%k2}
vsubps %ymm8, %ymm17, %ymm6
vsubps %ymm9, %ymm5, %ymm5
vsubps %ymm2, %ymm4, %ymm11
vsubps %ymm13, %ymm8, %ymm7
vsubps %ymm14, %ymm9, %ymm10
vsubps %ymm15, %ymm2, %ymm12
vmulps %ymm8, %ymm11, %ymm4
vfmsub231ps %ymm6, %ymm2, %ymm4 # ymm4 = (ymm2 * ymm6) - ymm4
vmulps %ymm6, %ymm9, %ymm3
vfmsub231ps %ymm5, %ymm8, %ymm3 # ymm3 = (ymm8 * ymm5) - ymm3
vfmadd231ps %ymm4, %ymm27, %ymm3 # ymm3 = (ymm27 * ymm4) + ymm3
vmulps %ymm2, %ymm5, %ymm4
vfmsub231ps %ymm11, %ymm9, %ymm4 # ymm4 = (ymm9 * ymm11) - ymm4
vfmadd231ps %ymm4, %ymm27, %ymm3 # ymm3 = (ymm27 * ymm4) + ymm3
vmulps %ymm13, %ymm12, %ymm16
vfmsub231ps %ymm15, %ymm7, %ymm16 # ymm16 = (ymm7 * ymm15) - ymm16
vmulps %ymm15, %ymm10, %ymm15
vfmsub231ps %ymm12, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm12) - ymm15
vmulps %ymm7, %ymm14, %ymm4
vfmsub231ps %ymm13, %ymm10, %ymm4 # ymm4 = (ymm10 * ymm13) - ymm4
vfmadd231ps %ymm16, %ymm27, %ymm4 # ymm4 = (ymm27 * ymm16) + ymm4
vfmadd231ps %ymm15, %ymm27, %ymm4 # ymm4 = (ymm27 * ymm15) + ymm4
vmaxps %ymm4, %ymm3, %ymm13
vcmpleps %ymm27, %ymm13, %k0 {%k1}
kortestb %k0, %k0
vmovaps %ymm19, %ymm18
je 0x1d001d6
vmulps %ymm5, %ymm12, %ymm13
vfmsub231ps %ymm11, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm11) - ymm13
vmulps %ymm7, %ymm11, %ymm11
vfmsub231ps %ymm12, %ymm6, %ymm11 # ymm11 = (ymm6 * ymm12) - ymm11
vmulps %ymm6, %ymm10, %ymm10
vfmsub231ps %ymm5, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm5) - ymm10
vxorps %xmm6, %xmm6, %xmm6
vfmadd213ps %ymm10, %ymm11, %ymm6 # ymm6 = (ymm11 * ymm6) + ymm10
vfmadd231ps %ymm27, %ymm13, %ymm6 # ymm6 = (ymm13 * ymm27) + ymm6
vrcp14ps %ymm6, %ymm7
vmovaps %ymm7, %ymm5
vfnmadd213ps 0x1ec8e5(%rip){1to8}, %ymm6, %ymm5 # ymm5 = -(ymm6 * ymm5) + mem
vfmadd132ps %ymm7, %ymm7, %ymm5 # ymm5 = (ymm5 * ymm7) + ymm7
vmulps %ymm2, %ymm10, %ymm2
vfmadd231ps %ymm11, %ymm9, %ymm2 # ymm2 = (ymm9 * ymm11) + ymm2
vfmadd231ps %ymm13, %ymm8, %ymm2 # ymm2 = (ymm8 * ymm13) + ymm2
vmulps %ymm5, %ymm2, %ymm2
vcmpgeps 0x2a0(%rsp), %ymm2, %k1
vcmpleps 0x200(%rsi,%r15,4){1to8}, %ymm2, %k1 {%k1}
kandb %k0, %k1, %k0
kortestb %k0, %k0
je 0x1d001d6
vcmpneqps %ymm27, %ymm6, %k1
ktestb %k1, %k0
vmovaps 0x60(%rsp), %xmm7
vmovaps 0x140(%rsp), %ymm17
je 0x1d001fe
kandb %k1, %k0, %k0
kmovd %k0, %eax
vmulps %ymm5, %ymm3, %ymm3
vmulps %ymm5, %ymm4, %ymm4
vbroadcastss 0x1ec873(%rip), %ymm5 # 0x1eec714
vsubps %ymm3, %ymm5, %ymm20
vmovaps %ymm3, %ymm20 {%k2}
vsubps %ymm4, %ymm5, %ymm3
vmovaps %ymm4, %ymm3 {%k2}
vmovaps %ymm3, 0x440(%rsp)
movzbl %al, %r9d
vmovaps %ymm2, %ymm21
vmovaps 0xa0(%rsp), %ymm6
vmovaps 0x80(%rsp), %ymm3
testw %r9w, %r9w
je 0x1d001c4
vsubps %ymm0, %ymm1, %ymm1
vfmadd213ps %ymm0, %ymm20, %ymm1 # ymm1 = (ymm20 * ymm1) + ymm0
vaddps %ymm1, %ymm1, %ymm0
movq 0xc8(%rsp), %rax
vmulps (%rax,%r15,4){1to8}, %ymm0, %ymm0
vcmpnleps %ymm0, %ymm21, %k0
kmovd %k0, %eax
andb %al, %r9b
je 0x1d001c4
vbroadcastss 0x1f0aac(%rip), %ymm0 # 0x1ef09cc
vmovaps 0x440(%rsp), %ymm1
vfmadd132ps 0x1f10c5(%rip){1to8}, %ymm0, %ymm1 # ymm1 = (ymm1 * mem) + ymm0
vmovaps %ymm20, 0x2e0(%rsp)
vmovaps %ymm1, 0x440(%rsp)
vmovaps %ymm1, 0x300(%rsp)
vmovaps %ymm21, 0x320(%rsp)
movl %r14d, 0x340(%rsp)
movl %edi, 0x344(%rsp)
vmovaps %xmm7, 0x350(%rsp)
vmovaps 0xe0(%rsp), %xmm0
vmovaps %xmm0, 0x360(%rsp)
vmovaps 0xd0(%rsp), %xmm0
vmovaps %xmm0, 0x370(%rsp)
vmovdqa 0x120(%rsp), %xmm0
vmovdqa %xmm0, 0x380(%rsp)
movb %r9b, 0x390(%rsp)
movq (%r10), %rax
movq 0x1e8(%rax), %rax
movq 0x58(%rsp), %rcx
movq (%rax,%rcx,8), %r11
movl 0x240(%rsi,%r15,4), %eax
testl %eax, 0x34(%r11)
je 0x1d0019d
vaddps 0x220f66(%rip), %ymm20, %ymm0 # 0x1f20f40
vcvtsi2ss %r14d, %xmm19, %xmm1
vbroadcastss %xmm1, %ymm1
vaddps %ymm0, %ymm1, %ymm0
vmulps 0x2c0(%rsp), %ymm0, %ymm0
vmovaps %ymm0, 0x3a0(%rsp)
vmovaps 0x440(%rsp), %ymm0
vmovaps %ymm0, 0x3c0(%rsp)
vmovaps %ymm21, 0x3e0(%rsp)
kmovd %r9d, %k1
vbroadcastss 0x1eb9fd(%rip), %ymm0 # 0x1eeba20
vblendmps %ymm21, %ymm0, %ymm0 {%k1}
vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm0, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1]
vminps %ymm2, %ymm1, %ymm1
vcmpeqps %ymm1, %ymm0, %k0
kmovd %k0, %eax
andb %r9b, %al
movzbl %al, %eax
movzbl %r9b, %ecx
cmovnel %eax, %ecx
tzcntl %ecx, %r12d
movq 0x10(%r10), %rax
cmpq $0x0, 0x10(%rax)
jne 0x1d00206
cmpq $0x0, 0x40(%r11)
jne 0x1d00206
vmovss 0x3a0(%rsp,%r12,4), %xmm0
vmovss 0x3c0(%rsp,%r12,4), %xmm1
vmovss 0x1ec67c(%rip), %xmm2 # 0x1eec714
vsubss %xmm0, %xmm2, %xmm2
vmulss %xmm2, %xmm2, %xmm3
vmulss %xmm2, %xmm0, %xmm2
vmulss 0x1f0f44(%rip), %xmm3, %xmm4 # 0x1ef0ff0
vfmadd231ss 0x1f0927(%rip), %xmm2, %xmm3 # xmm3 = (xmm2 * mem) + xmm3
vmulss %xmm0, %xmm0, %xmm5
vfmsub132ss 0x1f0f36(%rip), %xmm5, %xmm2 # xmm2 = (xmm2 * mem) - xmm5
vmovss 0x1f0f22(%rip), %xmm6 # 0x1ef0fec
vmulss %xmm6, %xmm3, %xmm3
vmulss %xmm6, %xmm2, %xmm2
vmulss %xmm6, %xmm5, %xmm5
vbroadcastss %xmm5, %xmm5
vmulps 0x120(%rsp), %xmm5, %xmm5
vbroadcastss %xmm2, %xmm2
vfmadd132ps 0xd0(%rsp), %xmm5, %xmm2 # xmm2 = (xmm2 * mem) + xmm5
vbroadcastss %xmm3, %xmm3
vfmadd132ps 0xe0(%rsp), %xmm2, %xmm3 # xmm3 = (xmm3 * mem) + xmm2
vbroadcastss %xmm4, %xmm2
vfmadd213ps %xmm3, %xmm7, %xmm2 # xmm2 = (xmm7 * xmm2) + xmm3
vmovss 0x3e0(%rsp,%r12,4), %xmm3
vmovss %xmm3, 0x200(%rsi,%r15,4)
vmovss %xmm2, 0x300(%rsi,%r15,4)
vextractps $0x1, %xmm2, 0x340(%rsi,%r15,4)
vextractps $0x2, %xmm2, 0x380(%rsi,%r15,4)
vmovss %xmm0, 0x3c0(%rsi,%r15,4)
vmovss %xmm1, 0x400(%rsi,%r15,4)
movq 0x78(%rsp), %rax
movl %eax, 0x440(%rsi,%r15,4)
movq 0x58(%rsp), %rax
movl %eax, 0x480(%rsi,%r15,4)
movq 0x8(%r10), %rax
movl (%rax), %eax
movl %eax, 0x4c0(%rsi,%r15,4)
movq 0x8(%r10), %rax
movl 0x4(%rax), %eax
movl %eax, 0x500(%rsi,%r15,4)
vmovaps 0xa0(%rsp), %ymm6
vmovaps 0x80(%rsp), %ymm3
leaq 0x427140(%rip), %r12 # 0x21272e4
jmp 0x1d001c4
vmovaps 0xa0(%rsp), %ymm6
vmovaps 0x80(%rsp), %ymm3
vmovaps %ymm23, %ymm18
vmovaps %ymm24, %ymm17
addq $0x8, %r14
cmpl %r14d, %edi
jg 0x1cff8b3
jmp 0x1cff803
xorl %r9d, %r9d
vmovaps 0xa0(%rsp), %ymm6
vmovaps 0x80(%rsp), %ymm3
vmovaps 0x60(%rsp), %xmm7
vmovaps 0x140(%rsp), %ymm17
jmp 0x1cffedc
xorl %r9d, %r9d
jmp 0x1cffeca
vmovaps 0x360(%rsp), %xmm0
vmovaps %xmm0, 0x1f0(%rsp)
vmovaps 0x370(%rsp), %xmm0
vmovaps %xmm0, 0x1e0(%rsp)
vmovaps 0x380(%rsp), %xmm0
vmovaps %xmm0, 0x490(%rsp)
vmovaps %ymm20, 0x1c0(%rsp)
vmovaps %ymm21, 0x1a0(%rsp)
movq %r11, 0x130(%rsp)
movq %r8, 0x50(%rsp)
movq %r10, 0x48(%rsp)
movq %rsi, 0x40(%rsp)
movl %edi, 0x3c(%rsp)
vmovaps %ymm28, 0x180(%rsp)
vmovaps %ymm29, 0x160(%rsp)
vmovss 0x200(%rsi,%r15,4), %xmm0
vmovss %xmm0, 0x200(%rsp)
vmovss 0x3e0(%rsp,%r12,4), %xmm0
vbroadcastss 0x3a0(%rsp,%r12,4), %zmm1
vbroadcastss 0x3c0(%rsp,%r12,4), %zmm2
vmovss %xmm0, 0x200(%rsi,%r15,4)
movq 0x8(%r10), %rax
vmovss 0x1ec454(%rip), %xmm0 # 0x1eec714
vsubss %xmm1, %xmm0, %xmm0
vmulss %xmm0, %xmm0, %xmm3
vmulss %xmm0, %xmm1, %xmm0
vmulss 0x1f0d1c(%rip), %xmm3, %xmm4 # 0x1ef0ff0
vfmadd231ss 0x1f06ff(%rip), %xmm0, %xmm3 # xmm3 = (xmm0 * mem) + xmm3
vmulss %xmm1, %xmm1, %xmm5
vfmsub132ss 0x1f0d0e(%rip), %xmm5, %xmm0 # xmm0 = (xmm0 * mem) - xmm5
vmovss 0x1f0cfa(%rip), %xmm6 # 0x1ef0fec
vmulss %xmm6, %xmm3, %xmm3
vmulss %xmm6, %xmm0, %xmm0
vmulss %xmm6, %xmm5, %xmm5
vbroadcastss %xmm5, %xmm5
vmulps 0x490(%rsp), %xmm5, %xmm5
vbroadcastss %xmm0, %xmm0
vfmadd132ps 0x1e0(%rsp), %xmm5, %xmm0 # xmm0 = (xmm0 * mem) + xmm5
vbroadcastss %xmm3, %xmm3
vfmadd132ps 0x1f0(%rsp), %xmm0, %xmm3 # xmm3 = (xmm3 * mem) + xmm0
vbroadcastss %xmm4, %xmm0
vfmadd213ps %xmm3, %xmm7, %xmm0 # xmm0 = (xmm7 * xmm0) + xmm3
vbroadcastss %xmm0, %zmm3
vbroadcastss 0x2123c0(%rip), %zmm4 # 0x1f12704
vpermps %zmm0, %zmm4, %zmm4
vbroadcastss 0x220b88(%rip), %zmm5 # 0x1f20edc
vpermps %zmm0, %zmm5, %zmm0
vmovaps %zmm3, 0x740(%rsp)
vmovaps %zmm4, 0x780(%rsp)
vmovaps %zmm0, 0x7c0(%rsp)
vmovaps %zmm1, 0x800(%rsp)
vmovaps %zmm2, 0x840(%rsp)
vmovaps 0x500(%rsp), %zmm0
vmovaps %zmm0, 0x880(%rsp)
vmovdqa64 0x540(%rsp), %zmm0
vmovdqa64 %zmm0, 0x8c0(%rsp)
movq 0x138(%rsp), %rcx
vpcmpeqd %ymm0, %ymm0, %ymm0
vmovdqa %ymm0, 0x60(%rcx)
vmovdqa %ymm0, 0x40(%rcx)
vmovdqa %ymm0, 0x20(%rcx)
vmovdqa %ymm0, (%rcx)
vbroadcastss (%rax), %zmm0
vmovaps %zmm0, 0x900(%rsp)
vbroadcastss 0x4(%rax), %zmm0
vmovaps %zmm0, 0x940(%rsp)
vmovaps 0x700(%rsp), %zmm0
vmovaps %zmm0, 0x400(%rsp)
leaq 0x400(%rsp), %rcx
movq %rcx, 0xf0(%rsp)
movq 0x18(%r11), %rcx
movq %rcx, 0xf8(%rsp)
movq %rax, 0x100(%rsp)
movq %rsi, 0x108(%rsp)
leaq 0x740(%rsp), %rax
movq %rax, 0x110(%rsp)
movl $0x10, 0x118(%rsp)
movq 0x40(%r11), %rax
testq %rax, %rax
movl %r9d, 0x4c0(%rsp)
je 0x1d004c1
leaq 0xf0(%rsp), %rdi
vzeroupper
callq *%rax
movq 0x130(%rsp), %r11
movl 0x4c0(%rsp), %r9d
vmovaps 0x160(%rsp), %ymm29
vmovaps 0x180(%rsp), %ymm28
vmovaps 0x140(%rsp), %ymm17
vmovaps 0x240(%rsp), %ymm18
vmovaps 0x260(%rsp), %ymm22
movl 0x3c(%rsp), %edi
vmovaps 0x60(%rsp), %xmm7
vmovaps 0x1a0(%rsp), %ymm21
vmovaps 0x1c0(%rsp), %ymm20
vxorps %xmm27, %xmm27, %xmm27
leaq 0x429252(%rip), %rdx # 0x2129704
movq 0x40(%rsp), %rsi
movq 0x48(%rsp), %r10
movq 0x50(%rsp), %r8
vmovdqa64 0x400(%rsp), %zmm0
vptestmd %zmm0, %zmm0, %k0
kortestw %k0, %k0
vmovaps 0xa0(%rsp), %ymm6
vmovaps 0x80(%rsp), %ymm3
je 0x1d00640
movq 0x10(%r10), %rcx
movq 0x10(%rcx), %rax
testq %rax, %rax
je 0x1d00599
testb $0x2, (%rcx)
jne 0x1d0050c
testb $0x40, 0x3e(%r11)
je 0x1d00599
leaq 0xf0(%rsp), %rdi
vzeroupper
callq *%rax
movq 0x130(%rsp), %r11
movl 0x4c0(%rsp), %r9d
vmovaps 0x160(%rsp), %ymm29
vmovaps 0x180(%rsp), %ymm28
vmovaps 0x140(%rsp), %ymm17
vmovaps 0x240(%rsp), %ymm18
vmovaps 0x260(%rsp), %ymm22
movl 0x3c(%rsp), %edi
vmovaps 0x60(%rsp), %xmm7
vmovaps 0x1a0(%rsp), %ymm21
vmovaps 0x80(%rsp), %ymm3
vmovaps 0x1c0(%rsp), %ymm20
vmovaps 0xa0(%rsp), %ymm6
vxorps %xmm27, %xmm27, %xmm27
leaq 0x42917a(%rip), %rdx # 0x2129704
movq 0x40(%rsp), %rsi
movq 0x48(%rsp), %r10
movq 0x50(%rsp), %r8
vmovdqa64 0x400(%rsp), %zmm0
vptestmd %zmm0, %zmm0, %k1
kortestw %k1, %k1
je 0x1d00640
movq 0x108(%rsp), %rax
movq 0x110(%rsp), %rcx
vmovaps (%rcx), %zmm0
vmovups %zmm0, 0x300(%rax) {%k1}
vmovaps 0x40(%rcx), %zmm0
vmovups %zmm0, 0x340(%rax) {%k1}
vmovaps 0x80(%rcx), %zmm0
vmovups %zmm0, 0x380(%rax) {%k1}
vmovaps 0xc0(%rcx), %zmm0
vmovups %zmm0, 0x3c0(%rax) {%k1}
vmovaps 0x100(%rcx), %zmm0
vmovups %zmm0, 0x400(%rax) {%k1}
vmovdqa64 0x140(%rcx), %zmm0
vmovdqu32 %zmm0, 0x440(%rax) {%k1}
vmovdqa64 0x180(%rcx), %zmm0
vmovdqu32 %zmm0, 0x480(%rax) {%k1}
vmovdqa64 0x1c0(%rcx), %zmm0
vmovdqa32 %zmm0, 0x4c0(%rax) {%k1}
vmovdqa64 0x200(%rcx), %zmm0
vmovdqa32 %zmm0, 0x500(%rax) {%k1}
jmp 0x1d00653
vmovd 0x200(%rsp), %xmm0
vmovd %xmm0, 0x200(%rsi,%r15,4)
movl $0x1, %eax
shlxl %r12d, %eax, %eax
kmovd %eax, %k0
movzbl %r9b, %eax
kmovd %eax, %k1
kandnb %k1, %k0, %k0
vcmpleps 0x200(%rsi,%r15,4){1to8}, %ymm21, %k1
kandb %k1, %k0, %k2
kmovd %k2, %r9d
ktestb %k1, %k0
je 0x1d006d4
kmovd %r9d, %k1
vbroadcastss 0x1eb38b(%rip), %ymm0 # 0x1eeba20
vblendmps %ymm21, %ymm0, %ymm0 {%k1}
vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm0, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1]
vminps %ymm2, %ymm1, %ymm1
vcmpeqps %ymm1, %ymm0, %k0
kmovd %k0, %eax
andb %r9b, %al
movzbl %al, %eax
movzbl %r9b, %ecx
cmovnel %eax, %ecx
tzcntl %ecx, %r12d
testb %r9b, %r9b
jne 0x1d00277
jmp 0x1d0019d
xorl %r12d, %r12d
vmovaps 0xa0(%rsp), %ymm6
vmovaps 0x80(%rsp), %ymm3
vmovaps 0x60(%rsp), %xmm7
vmovaps 0x180(%rsp), %ymm28
vmovaps 0x160(%rsp), %ymm29
vmovaps 0x220(%rsp), %xmm8
jmp 0x1cff4f0
xorl %r12d, %r12d
vmovaps 0xa0(%rsp), %ymm6
vmovaps 0x80(%rsp), %ymm3
vmovaps 0x60(%rsp), %xmm7
jmp 0x1cff4f0
xorl %r12d, %r12d
vmovaps 0xa0(%rsp), %ymm6
vmovaps 0x80(%rsp), %ymm3
jmp 0x1cff4f0
movq 0x58(%rsp), %rax
vpbroadcastd %eax, %zmm0
vmovdqa64 %zmm0, 0x500(%rsp)
movq 0x78(%rsp), %rax
vpbroadcastd %eax, %zmm0
vmovdqa64 %zmm0, 0x4c0(%rsp)
vmovaps 0x360(%rsp), %xmm0
vmovaps %xmm0, 0x200(%rsp)
vmovaps 0x370(%rsp), %xmm0
vmovaps %xmm0, 0x1f0(%rsp)
vmovaps 0x380(%rsp), %xmm0
vmovaps %xmm0, 0x1e0(%rsp)
movq %r8, 0x50(%rsp)
movq %r10, 0x48(%rsp)
movq %rsi, 0x40(%rsp)
movl %edi, 0x3c(%rsp)
vmovss 0x200(%rsi,%r15,4), %xmm0
vmovss %xmm0, 0x540(%rsp)
vmovss 0x3e0(%rsp,%r9,4), %xmm0
vbroadcastss 0x3a0(%rsp,%r9,4), %zmm1
vbroadcastss 0x3c0(%rsp,%r9,4), %zmm2
vmovss %xmm0, 0x200(%rsi,%r15,4)
movq 0x8(%r10), %rax
vmovss 0x1ebf07(%rip), %xmm0 # 0x1eec714
vsubss %xmm1, %xmm0, %xmm0
vmulss %xmm0, %xmm0, %xmm3
vmulss %xmm0, %xmm1, %xmm0
vmulss 0x1f07cf(%rip), %xmm3, %xmm4 # 0x1ef0ff0
vfmadd231ss 0x1f01b2(%rip), %xmm0, %xmm3 # xmm3 = (xmm0 * mem) + xmm3
vmulss %xmm1, %xmm1, %xmm5
vfmsub132ss 0x1f07c1(%rip), %xmm5, %xmm0 # xmm0 = (xmm0 * mem) - xmm5
vmovss 0x1f07ad(%rip), %xmm6 # 0x1ef0fec
vmulss %xmm6, %xmm3, %xmm3
vmulss %xmm6, %xmm0, %xmm0
vmulss %xmm6, %xmm5, %xmm5
vbroadcastss %xmm5, %xmm5
vmulps 0x1e0(%rsp), %xmm5, %xmm5
vbroadcastss %xmm0, %xmm0
vfmadd132ps 0x1f0(%rsp), %xmm5, %xmm0 # xmm0 = (xmm0 * mem) + xmm5
vbroadcastss %xmm3, %xmm3
vfmadd132ps 0x200(%rsp), %xmm0, %xmm3 # xmm3 = (xmm3 * mem) + xmm0
vbroadcastss %xmm4, %xmm0
vfmadd213ps %xmm3, %xmm7, %xmm0 # xmm0 = (xmm7 * xmm0) + xmm3
vbroadcastss %xmm0, %zmm3
vbroadcastss 0x211e73(%rip), %zmm4 # 0x1f12704
vpermps %zmm0, %zmm4, %zmm4
vbroadcastss 0x22063b(%rip), %zmm5 # 0x1f20edc
vpermps %zmm0, %zmm5, %zmm0
vmovaps %zmm3, 0x740(%rsp)
vmovaps %zmm4, 0x780(%rsp)
vmovaps %zmm0, 0x7c0(%rsp)
vmovaps %zmm1, 0x800(%rsp)
vmovaps %zmm2, 0x840(%rsp)
vmovaps 0x4c0(%rsp), %zmm0
vmovaps %zmm0, 0x880(%rsp)
vmovdqa64 0x500(%rsp), %zmm0
vmovdqa64 %zmm0, 0x8c0(%rsp)
movq 0x138(%rsp), %rcx
vpcmpeqd %ymm0, %ymm0, %ymm0
vmovdqa %ymm0, 0x60(%rcx)
vmovdqa %ymm0, 0x40(%rcx)
vmovdqa %ymm0, 0x20(%rcx)
vmovdqa %ymm0, (%rcx)
vbroadcastss (%rax), %zmm0
vmovaps %zmm0, 0x900(%rsp)
vbroadcastss 0x4(%rax), %zmm0
vmovaps %zmm0, 0x940(%rsp)
vmovaps 0x700(%rsp), %zmm0
vmovaps %zmm0, 0x400(%rsp)
leaq 0x400(%rsp), %rcx
movq %rcx, 0xf0(%rsp)
movq 0x18(%r14), %rcx
movq %rcx, 0xf8(%rsp)
movq %rax, 0x100(%rsp)
movq %rsi, 0x108(%rsp)
leaq 0x740(%rsp), %rax
movq %rax, 0x110(%rsp)
movl $0x10, 0x118(%rsp)
movq 0x40(%r14), %rax
testq %rax, %rax
movq %r9, 0x2a0(%rsp)
je 0x1d00a1b
leaq 0xf0(%rsp), %rdi
vzeroupper
callq *%rax
movq 0x2a0(%rsp), %r9
vmovaps 0x220(%rsp), %xmm8
vmovaps 0x280(%rsp), %xmm26
vmovaps 0x160(%rsp), %ymm29
vmovaps 0x180(%rsp), %ymm28
vmovaps 0x140(%rsp), %ymm17
vmovaps 0x240(%rsp), %ymm18
vmovaps 0x260(%rsp), %ymm22
movl 0x3c(%rsp), %edi
vmovaps 0x60(%rsp), %xmm7
vmovaps 0x1a0(%rsp), %ymm21
vmovaps 0x1c0(%rsp), %ymm20
vxorps %xmm27, %xmm27, %xmm27
leaq 0x428cf8(%rip), %rdx # 0x2129704
movq 0x40(%rsp), %rsi
movq 0x48(%rsp), %r10
movq 0x50(%rsp), %r8
vmovdqa64 0x400(%rsp), %zmm0
vptestmd %zmm0, %zmm0, %k0
kortestw %k0, %k0
vmovaps 0xa0(%rsp), %ymm6
vmovaps 0x80(%rsp), %ymm3
je 0x1d00ba3
movq 0x10(%r10), %rcx
movq 0x10(%rcx), %rax
testq %rax, %rax
je 0x1d00afc
testb $0x2, (%rcx)
jne 0x1d00a66
testb $0x40, 0x3e(%r14)
je 0x1d00afc
leaq 0xf0(%rsp), %rdi
vzeroupper
callq *%rax
movq 0x2a0(%rsp), %r9
vmovaps 0x220(%rsp), %xmm8
vmovaps 0x280(%rsp), %xmm26
vmovaps 0x160(%rsp), %ymm29
vmovaps 0x180(%rsp), %ymm28
vmovaps 0x140(%rsp), %ymm17
vmovaps 0x240(%rsp), %ymm18
vmovaps 0x260(%rsp), %ymm22
movl 0x3c(%rsp), %edi
vmovaps 0x60(%rsp), %xmm7
vmovaps 0x1a0(%rsp), %ymm21
vmovaps 0x80(%rsp), %ymm3
vmovaps 0x1c0(%rsp), %ymm20
vmovaps 0xa0(%rsp), %ymm6
vxorps %xmm27, %xmm27, %xmm27
leaq 0x428c17(%rip), %rdx # 0x2129704
movq 0x40(%rsp), %rsi
movq 0x48(%rsp), %r10
movq 0x50(%rsp), %r8
vmovdqa64 0x400(%rsp), %zmm0
vptestmd %zmm0, %zmm0, %k1
kortestw %k1, %k1
je 0x1d00ba3
movq 0x108(%rsp), %rax
movq 0x110(%rsp), %rcx
vmovaps (%rcx), %zmm0
vmovups %zmm0, 0x300(%rax) {%k1}
vmovaps 0x40(%rcx), %zmm0
vmovups %zmm0, 0x340(%rax) {%k1}
vmovaps 0x80(%rcx), %zmm0
vmovups %zmm0, 0x380(%rax) {%k1}
vmovaps 0xc0(%rcx), %zmm0
vmovups %zmm0, 0x3c0(%rax) {%k1}
vmovaps 0x100(%rcx), %zmm0
vmovups %zmm0, 0x400(%rax) {%k1}
vmovdqa64 0x140(%rcx), %zmm0
vmovdqu32 %zmm0, 0x440(%rax) {%k1}
vmovdqa64 0x180(%rcx), %zmm0
vmovdqu32 %zmm0, 0x480(%rax) {%k1}
vmovdqa64 0x1c0(%rcx), %zmm0
vmovdqa32 %zmm0, 0x4c0(%rax) {%k1}
vmovdqa64 0x200(%rcx), %zmm0
vmovdqa32 %zmm0, 0x500(%rax) {%k1}
jmp 0x1d00bb6
vmovd 0x540(%rsp), %xmm0
vmovd %xmm0, 0x200(%rsi,%r15,4)
movl $0x1, %eax
shlxl %r9d, %eax, %eax
kmovd %eax, %k0
movzbl %r12b, %eax
kmovd %eax, %k1
kandnb %k1, %k0, %k0
vcmpleps 0x200(%rsi,%r15,4){1to8}, %ymm3, %k1
kandb %k1, %k0, %k2
kmovd %k2, %r12d
ktestb %k1, %k0
je 0x1d00c37
kmovd %r12d, %k1
vbroadcastss 0x1eae28(%rip), %ymm0 # 0x1eeba20
vblendmps %ymm3, %ymm0, %ymm0 {%k1}
vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm0, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1]
vminps %ymm2, %ymm1, %ymm1
vcmpeqps %ymm1, %ymm0, %k0
kmovd %k0, %eax
andb %r12b, %al
movzbl %al, %eax
movzbl %r12b, %ecx
cmovnel %eax, %ecx
tzcntl %ecx, %r9d
testb %r12b, %r12b
jne 0x1d007c4
jmp 0x1cff7b5
leaq -0x28(%rbp), %rsp
popq %rbx
popq %r12
popq %r13
popq %r14
popq %r15
popq %rbp
vzeroupper
retq
nop
|
/embree[P]embree/kernels/geometry/curveNi_intersector.h
|
void embree::avx512::CurveNiIntersector1<8>::intersect_t<embree::avx512::SweepCurve1Intersector1<embree::BSplineCurveT>, embree::avx512::Intersect1Epilog1<true>>(embree::avx512::CurvePrecalculations1 const&, embree::RayHitK<1>&, embree::RayQueryContext*, embree::CurveNi<8> const&)
|
static __forceinline void intersect_t(const Precalculations& pre, RayHit& ray, RayQueryContext* context, const Primitive& prim)
{
vfloat<M> tNear;
vbool<M> valid = intersect(ray,prim,tNear);
const size_t N = prim.N;
size_t mask = movemask(valid);
while (mask)
{
const size_t i = bscf(mask);
STAT3(normal.trav_prims,1,1,1);
const unsigned int geomID = prim.geomID(N);
const unsigned int primID = prim.primID(N)[i];
const CurveGeometry* geom = context->scene->get<CurveGeometry>(geomID);
Vec3ff a0,a1,a2,a3; geom->gather(a0,a1,a2,a3,geom->curve(primID));
size_t mask1 = mask;
const size_t i1 = bscf(mask1);
if (mask) {
const unsigned int primID1 = prim.primID(N)[i1];
geom->prefetchL1_vertices(geom->curve(primID1));
if (mask1) {
const size_t i2 = bsf(mask1);
const unsigned int primID2 = prim.primID(N)[i2];
geom->prefetchL2_vertices(geom->curve(primID2));
}
}
Intersector().intersect(pre,ray,context,geom,primID,a0,a1,a2,a3,Epilog(ray,context,geomID,primID));
mask &= movemask(tNear <= vfloat<M>(ray.tfar));
}
}
|
pushq %rbp
movq %rsp, %rbp
pushq %r15
pushq %r14
pushq %r13
pushq %r12
pushq %rbx
andq $-0x20, %rsp
subq $0x880, %rsp # imm = 0x880
movq %rcx, %r9
movzbl 0x1(%rcx), %ecx
leaq (%rcx,%rcx,4), %rax
leaq (%rax,%rax,4), %rdi
vbroadcastss 0x12(%r9,%rdi), %xmm0
movq %rdx, %r13
movq %rsi, %r15
vmovaps (%rsi), %xmm1
vsubps 0x6(%r9,%rdi), %xmm1, %xmm1
vmulps %xmm1, %xmm0, %xmm3
vmulps 0x10(%rsi), %xmm0, %xmm0
vpmovsxbd 0x6(%r9,%rcx,4), %ymm1
vpmovsxbd 0x6(%r9,%rax), %ymm2
vcvtdq2ps %ymm1, %ymm5
vcvtdq2ps %ymm2, %ymm6
leaq (%rcx,%rcx,2), %rdx
vpmovsxbd 0x6(%r9,%rdx,2), %ymm1
vcvtdq2ps %ymm1, %ymm4
leaq (%rcx,%rax,2), %rsi
vpmovsxbd 0x6(%r9,%rsi), %ymm1
leal (,%rdx,4), %esi
vpmovsxbd 0x6(%r9,%rsi), %ymm2
vcvtdq2ps %ymm1, %ymm7
vcvtdq2ps %ymm2, %ymm8
addq %rcx, %rsi
vpmovsxbd 0x6(%r9,%rsi), %ymm1
vcvtdq2ps %ymm1, %ymm9
leaq (%rcx,%rcx,8), %rsi
leal (%rsi,%rsi), %edi
vpmovsxbd 0x6(%r9,%rdi), %ymm1
vcvtdq2ps %ymm1, %ymm10
addq %rcx, %rdi
vpmovsxbd 0x6(%r9,%rdi), %ymm1
vcvtdq2ps %ymm1, %ymm11
shll $0x2, %eax
vpmovsxbd 0x6(%r9,%rax), %ymm1
vcvtdq2ps %ymm1, %ymm12
vbroadcastss %xmm0, %ymm13
vbroadcastss 0x20f9ce(%rip), %ymm15 # 0x1f12704
vbroadcastss 0x21e19c(%rip), %ymm16 # 0x1f20edc
vpermps %ymm0, %ymm15, %ymm14
vpermps %ymm0, %ymm16, %ymm0
vmulps %ymm4, %ymm0, %ymm2
vmulps %ymm0, %ymm9, %ymm1
vmulps %ymm0, %ymm12, %ymm0
vfmadd231ps %ymm6, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm6) + ymm2
vfmadd231ps %ymm8, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm8) + ymm1
vfmadd231ps %ymm14, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm14) + ymm0
vfmadd231ps %ymm5, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm5) + ymm2
vfmadd231ps %ymm7, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm7) + ymm1
vfmadd231ps %ymm13, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm13) + ymm0
vbroadcastss %xmm3, %ymm13
vpermps %ymm3, %ymm15, %ymm14
vpermps %ymm3, %ymm16, %ymm3
vmulps %ymm4, %ymm3, %ymm15
vmulps %ymm3, %ymm9, %ymm4
vmulps %ymm3, %ymm12, %ymm3
vfmadd231ps %ymm6, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm6) + ymm15
vfmadd231ps %ymm8, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm8) + ymm4
vfmadd231ps %ymm11, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm11) + ymm3
vfmadd231ps %ymm5, %ymm13, %ymm15 # ymm15 = (ymm13 * ymm5) + ymm15
vfmadd231ps %ymm7, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm7) + ymm4
vbroadcastss 0x21e111(%rip), %ymm6 # 0x1f20ec4
vfmadd231ps %ymm10, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm10) + ymm3
vandps %ymm6, %ymm2, %ymm5
vbroadcastss 0x1ee223(%rip), %ymm7 # 0x1ef0fe8
vcmpltps %ymm7, %ymm5, %k1
vmovaps %ymm7, %ymm2 {%k1}
vandps %ymm6, %ymm1, %ymm5
vcmpltps %ymm7, %ymm5, %k1
vmovaps %ymm7, %ymm1 {%k1}
vandps %ymm6, %ymm0, %ymm5
vcmpltps %ymm7, %ymm5, %k1
vmovaps %ymm7, %ymm0 {%k1}
vrcp14ps %ymm2, %ymm5
vbroadcastss 0x1e9911(%rip), %ymm6 # 0x1eec714
vfnmadd213ps %ymm6, %ymm5, %ymm2 # ymm2 = -(ymm5 * ymm2) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm2 # ymm2 = (ymm2 * ymm5) + ymm5
vrcp14ps %ymm1, %ymm5
vfnmadd213ps %ymm6, %ymm5, %ymm1 # ymm1 = -(ymm5 * ymm1) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm1 # ymm1 = (ymm1 * ymm5) + ymm5
vrcp14ps %ymm0, %ymm5
vfnmadd213ps %ymm6, %ymm5, %ymm0 # ymm0 = -(ymm5 * ymm0) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm0 # ymm0 = (ymm0 * ymm5) + ymm5
leaq (,%rcx,8), %rdi
subq %rcx, %rdi
vpmovsxwd 0x6(%r9,%rdi), %ymm5
vcvtdq2ps %ymm5, %ymm5
vsubps %ymm15, %ymm5, %ymm5
vmulps %ymm5, %ymm2, %ymm5
vpmovsxwd 0x6(%r9,%rsi), %ymm6
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm15, %ymm6, %ymm6
leaq (%rcx,%rcx), %rsi
addq %rcx, %rax
shlq $0x3, %rdx
subq %rcx, %rdx
vpbroadcastd %ecx, %ymm7
shll $0x4, %ecx
vpmovsxwd 0x6(%r9,%rcx), %ymm8
vmulps %ymm6, %ymm2, %ymm2
subq %rsi, %rcx
vpmovsxwd 0x6(%r9,%rcx), %ymm6
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm4, %ymm6, %ymm6
vmulps %ymm6, %ymm1, %ymm6
vcvtdq2ps %ymm8, %ymm8
vsubps %ymm4, %ymm8, %ymm4
vmulps %ymm4, %ymm1, %ymm1
vpmovsxwd 0x6(%r9,%rax), %ymm4
vcvtdq2ps %ymm4, %ymm4
vsubps %ymm3, %ymm4, %ymm4
vmulps %ymm0, %ymm4, %ymm4
vpmovsxwd 0x6(%r9,%rdx), %ymm8
vcvtdq2ps %ymm8, %ymm8
vsubps %ymm3, %ymm8, %ymm3
vmulps %ymm3, %ymm0, %ymm0
vpminsd %ymm2, %ymm5, %ymm3
vpminsd %ymm1, %ymm6, %ymm8
vmaxps %ymm8, %ymm3, %ymm3
vpminsd %ymm0, %ymm4, %ymm8
vmaxps 0xc(%r15){1to8}, %ymm8, %ymm8
vmaxps %ymm8, %ymm3, %ymm3
vmulps 0x21d01e(%rip){1to8}, %ymm3, %ymm3 # 0x1f1ff10
vpmaxsd %ymm2, %ymm5, %ymm2
vpmaxsd %ymm1, %ymm6, %ymm1
vminps %ymm1, %ymm2, %ymm1
vpmaxsd %ymm0, %ymm4, %ymm0
vminps 0x20(%r15){1to8}, %ymm0, %ymm0
vminps %ymm0, %ymm1, %ymm0
vmulps 0x21cffa(%rip){1to8}, %ymm0, %ymm0 # 0x1f1ff14
vpcmpgtd 0x2579fc(%rip), %ymm7, %k0 # 0x1f5a920
vmovaps %ymm3, 0x500(%rsp)
vcmpleps %ymm0, %ymm3, %k1
ktestb %k0, %k1
je 0x1d05586
kandb %k0, %k1, %k0
kmovd %k0, %eax
movzbl %al, %r10d
vxorps %xmm12, %xmm12, %xmm12
movq %r13, 0x10(%rsp)
movq %r9, 0x188(%rsp)
tzcntq %r10, %rax
movl 0x2(%r9), %ecx
movl 0x6(%r9,%rax,4), %edi
movq (%r13), %rax
movq 0x1e8(%rax), %rax
movq %rcx, 0x38(%rsp)
movq (%rax,%rcx,8), %rsi
movq 0x58(%rsi), %rax
movq 0x68(%rsi), %rcx
movq %rcx, %rdx
movq %rdi, 0x78(%rsp)
imulq %rdi, %rdx
movl (%rax,%rdx), %edi
movq 0xa0(%rsi), %rdx
movq %rdx, %r8
imulq %rdi, %r8
movq 0x90(%rsi), %rsi
vmovaps (%rsi,%r8), %xmm1
leaq 0x1(%rdi), %r8
imulq %rdx, %r8
vmovaps (%rsi,%r8), %xmm0
leaq 0x2(%rdi), %r8
imulq %rdx, %r8
vmovaps (%rsi,%r8), %xmm3
blsrq %r10, %r10
addq $0x3, %rdi
imulq %rdx, %rdi
vmovaps (%rsi,%rdi), %xmm2
movq %r10, %rdi
subq $0x1, %rdi
jb 0x1d0302e
andq %r10, %rdi
tzcntq %r10, %r8
movl 0x6(%r9,%r8,4), %r8d
imulq %rcx, %r8
movl (%rax,%r8), %r8d
imulq %rdx, %r8
prefetcht0 (%rsi,%r8)
prefetcht0 0x40(%rsi,%r8)
testq %rdi, %rdi
je 0x1d0302e
tzcntq %rdi, %rdi
movl 0x6(%r9,%rdi,4), %edi
imulq %rdi, %rcx
movl (%rax,%rcx), %eax
imulq %rax, %rdx
prefetcht1 (%rsi,%rdx)
prefetcht1 0x40(%rsi,%rdx)
vaddps %xmm0, %xmm1, %xmm4
vaddps %xmm3, %xmm4, %xmm4
vaddps %xmm2, %xmm4, %xmm5
vmovaps (%r15), %xmm6
vmovaps 0x10(%r15), %xmm4
vmulps 0x21a2ad(%rip){1to4}, %xmm5, %xmm5 # 0x1f1d2fc
vsubps %xmm6, %xmm5, %xmm5
vdpps $0x7f, %xmm4, %xmm5, %xmm5
vdpps $0x7f, %xmm4, %xmm4, %xmm7
vmovss %xmm7, %xmm12, %xmm8 # xmm8 = xmm7[0],xmm12[1,2,3]
vrcp14ss %xmm8, %xmm12, %xmm8
vmovaps %xmm8, %xmm9
vfnmadd213ss 0x1edf81(%rip), %xmm7, %xmm9 # xmm9 = -(xmm7 * xmm9) + mem
vmulss %xmm9, %xmm8, %xmm7
vmulss %xmm7, %xmm5, %xmm5
vmovaps %xmm5, 0x2b0(%rsp)
vbroadcastss %xmm5, %ymm7
vfmadd231ps %xmm7, %xmm4, %xmm6 # xmm6 = (xmm4 * xmm7) + xmm6
vblendps $0x8, %xmm12, %xmm6, %xmm5 # xmm5 = xmm6[0,1,2],xmm12[3]
vsubps %xmm5, %xmm1, %xmm6
vbroadcastss 0x10(%r15), %ymm8
vsubps %xmm5, %xmm3, %xmm3
vbroadcastss 0x14(%r15), %ymm9
vbroadcastss 0x18(%r15), %ymm1
vmovaps %ymm1, 0x360(%rsp)
vsubps %xmm5, %xmm0, %xmm10
vsubps %xmm5, %xmm2, %xmm5
vbroadcastss %xmm6, %ymm0
vmovaps %ymm0, 0x720(%rsp)
vbroadcastss 0x20f629(%rip), %ymm0 # 0x1f12704
vpermps %ymm6, %ymm0, %ymm1
vmovaps %ymm1, 0x700(%rsp)
vbroadcastss 0x21ddea(%rip), %ymm1 # 0x1f20edc
vpermps %ymm6, %ymm1, %ymm2
vmovaps %ymm2, 0x6e0(%rsp)
vbroadcastss 0x21ddcf(%rip), %ymm2 # 0x1f20ed8
vmovaps %ymm6, 0x240(%rsp)
vpermps %ymm6, %ymm2, %ymm6
vmovaps %ymm6, 0x6c0(%rsp)
vbroadcastss %xmm10, %ymm6
vmovaps %ymm6, 0x6a0(%rsp)
vpermps %ymm10, %ymm0, %ymm6
vmovaps %ymm6, 0x680(%rsp)
vpermps %ymm10, %ymm1, %ymm6
vmovaps %ymm6, 0x660(%rsp)
vmovaps %ymm10, 0x200(%rsp)
vpermps %ymm10, %ymm2, %ymm6
vmovaps %ymm6, 0x640(%rsp)
vbroadcastss %xmm3, %ymm6
vmovaps %ymm6, 0x620(%rsp)
vpermps %ymm3, %ymm0, %ymm6
vmovaps %ymm6, 0x600(%rsp)
vpermps %ymm3, %ymm1, %ymm6
vmovaps %ymm6, 0x5e0(%rsp)
vmovaps %ymm3, 0x220(%rsp)
vpermps %ymm3, %ymm2, %ymm3
vmovaps %ymm3, 0x5c0(%rsp)
vbroadcastss %xmm5, %ymm3
vmovaps %ymm3, 0x5a0(%rsp)
vpermps %ymm5, %ymm0, %ymm0
vmovaps %ymm0, 0x580(%rsp)
vpermps %ymm5, %ymm1, %ymm0
vmovaps %ymm0, 0x560(%rsp)
vmovaps %ymm5, 0x1e0(%rsp)
vpermps %ymm5, %ymm2, %ymm0
vmovaps %ymm0, 0x540(%rsp)
vmulps %xmm4, %xmm4, %xmm0
vpermps %ymm0, %ymm1, %ymm0
vmovaps %ymm9, 0x380(%rsp)
vfmadd231ps %ymm9, %ymm9, %ymm0 # ymm0 = (ymm9 * ymm9) + ymm0
vmovaps %ymm8, 0x3a0(%rsp)
vfmadd231ps %ymm8, %ymm8, %ymm0 # ymm0 = (ymm8 * ymm8) + ymm0
vmovaps %ymm0, 0x520(%rsp)
vandps 0x21dca9(%rip){1to8}, %ymm0, %ymm0 # 0x1f20ec4
vmovaps %ymm0, 0x440(%rsp)
movl $0x1, %r11d
xorl %r8d, %r8d
vmovsd 0x1e94bb(%rip), %xmm4 # 0x1eec6f0
vbroadcastss 0x1e94d6(%rip), %ymm3 # 0x1eec714
vmovaps %ymm7, 0x260(%rsp)
vmovshdup %xmm4, %xmm0 # xmm0 = xmm4[1,1,3,3]
vsubss %xmm4, %xmm0, %xmm0
vmulss 0x21dc79(%rip), %xmm0, %xmm6 # 0x1f20ed0
vmovaps %xmm4, 0x140(%rsp)
vbroadcastss %xmm4, %ymm4
vbroadcastss %xmm0, %ymm0
vmovaps %ymm4, 0xa0(%rsp)
vmovaps %ymm0, 0x40(%rsp)
vfmadd231ps 0x21dc9e(%rip), %ymm0, %ymm4 # ymm4 = (ymm0 * mem) + ymm4
vsubps %ymm4, %ymm3, %ymm7
vmulps %ymm7, %ymm7, %ymm8
vmulps %ymm7, %ymm8, %ymm0
vbroadcastss 0x1e98f4(%rip), %ymm30 # 0x1eecb8c
vmulps %ymm30, %ymm0, %ymm1
vmulps %ymm4, %ymm4, %ymm9
vmulps %ymm4, %ymm9, %ymm2
vaddps %ymm1, %ymm2, %ymm1
vmulps %ymm7, %ymm4, %ymm10
vmulps %ymm7, %ymm10, %ymm5
vbroadcastss 0x1edd41(%rip), %ymm14 # 0x1ef0ffc
vmulps %ymm5, %ymm14, %ymm11
vmulps %ymm4, %ymm10, %ymm12
vbroadcastss 0x1edd28(%rip), %ymm15 # 0x1ef0ff4
vmulps %ymm15, %ymm12, %ymm13
vaddps %ymm13, %ymm11, %ymm11
vaddps %ymm1, %ymm11, %ymm1
vmulps %ymm30, %ymm2, %ymm11
vaddps %ymm0, %ymm11, %ymm11
vmulps %ymm14, %ymm12, %ymm12
vmulps %ymm5, %ymm15, %ymm5
vaddps %ymm5, %ymm12, %ymm5
vaddps %ymm5, %ymm11, %ymm5
vbroadcastss 0x1edd02(%rip), %ymm14 # 0x1ef1000
vmulps %ymm0, %ymm14, %ymm11
vmulps %ymm1, %ymm14, %ymm12
vmulps %ymm5, %ymm14, %ymm13
vmulps %ymm2, %ymm14, %ymm5
vmovaps 0x5a0(%rsp), %ymm27
vmulps %ymm5, %ymm27, %ymm2
vmovaps 0x580(%rsp), %ymm28
vmulps %ymm5, %ymm28, %ymm1
vmovaps 0x560(%rsp), %ymm29
vmulps %ymm5, %ymm29, %ymm0
vmovaps 0x540(%rsp), %ymm31
vmulps %ymm5, %ymm31, %ymm5
vmovaps 0x620(%rsp), %ymm22
vfmadd231ps %ymm22, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm22) + ymm2
vmovaps 0x600(%rsp), %ymm23
vfmadd231ps %ymm23, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm23) + ymm1
vmovaps 0x5e0(%rsp), %ymm24
vfmadd231ps %ymm24, %ymm13, %ymm0 # ymm0 = (ymm13 * ymm24) + ymm0
vmovaps 0x5c0(%rsp), %ymm25
vfmadd231ps %ymm13, %ymm25, %ymm5 # ymm5 = (ymm25 * ymm13) + ymm5
vmovaps 0x6a0(%rsp), %ymm18
vfmadd231ps %ymm18, %ymm12, %ymm2 # ymm2 = (ymm12 * ymm18) + ymm2
vmovaps 0x680(%rsp), %ymm19
vfmadd231ps %ymm19, %ymm12, %ymm1 # ymm1 = (ymm12 * ymm19) + ymm1
vmovaps 0x660(%rsp), %ymm20
vfmadd231ps %ymm20, %ymm12, %ymm0 # ymm0 = (ymm12 * ymm20) + ymm0
vmovaps 0x640(%rsp), %ymm21
vfmadd231ps %ymm12, %ymm21, %ymm5 # ymm5 = (ymm21 * ymm12) + ymm5
vmovaps 0x720(%rsp), %ymm14
vfmadd231ps %ymm14, %ymm11, %ymm2 # ymm2 = (ymm11 * ymm14) + ymm2
vmovaps 0x700(%rsp), %ymm15
vfmadd231ps %ymm15, %ymm11, %ymm1 # ymm1 = (ymm11 * ymm15) + ymm1
vmovaps 0x6e0(%rsp), %ymm16
vfmadd231ps %ymm16, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm16) + ymm0
vmovaps 0x6c0(%rsp), %ymm17
vfmadd231ps %ymm11, %ymm17, %ymm5 # ymm5 = (ymm17 * ymm11) + ymm5
vbroadcastss 0x21dac8(%rip), %ymm26 # 0x1f20ec0
vxorps %ymm26, %ymm7, %ymm11
vmulps %ymm7, %ymm11, %ymm7
vxorps %ymm26, %ymm4, %ymm11
vmulps %ymm4, %ymm11, %ymm4
vmulps %ymm30, %ymm10, %ymm10
vsubps %ymm10, %ymm4, %ymm4
vaddps %ymm10, %ymm8, %ymm8
vbroadcastss 0x1e975b(%rip), %ymm10 # 0x1eecb80
vmulps %ymm7, %ymm10, %ymm7
vmulps %ymm4, %ymm10, %ymm4
vmulps %ymm10, %ymm8, %ymm8
vmulps %ymm10, %ymm9, %ymm9
vmulps %ymm9, %ymm27, %ymm10
vmulps %ymm9, %ymm28, %ymm12
vmulps %ymm9, %ymm29, %ymm13
vmulps %ymm9, %ymm31, %ymm9
vfmadd231ps %ymm22, %ymm8, %ymm10 # ymm10 = (ymm8 * ymm22) + ymm10
vfmadd231ps %ymm23, %ymm8, %ymm12 # ymm12 = (ymm8 * ymm23) + ymm12
vfmadd231ps %ymm24, %ymm8, %ymm13 # ymm13 = (ymm8 * ymm24) + ymm13
vfmadd231ps %ymm8, %ymm25, %ymm9 # ymm9 = (ymm25 * ymm8) + ymm9
vfmadd231ps %ymm18, %ymm4, %ymm10 # ymm10 = (ymm4 * ymm18) + ymm10
vfmadd231ps %ymm19, %ymm4, %ymm12 # ymm12 = (ymm4 * ymm19) + ymm12
vfmadd231ps %ymm20, %ymm4, %ymm13 # ymm13 = (ymm4 * ymm20) + ymm13
vfmadd231ps %ymm4, %ymm21, %ymm9 # ymm9 = (ymm21 * ymm4) + ymm9
vfmadd231ps %ymm14, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm14) + ymm10
vfmadd231ps %ymm15, %ymm7, %ymm12 # ymm12 = (ymm7 * ymm15) + ymm12
vfmadd231ps %ymm16, %ymm7, %ymm13 # ymm13 = (ymm7 * ymm16) + ymm13
vfmadd231ps %ymm7, %ymm17, %ymm9 # ymm9 = (ymm17 * ymm7) + ymm9
vbroadcastss %xmm6, %ymm4
vmulps %ymm4, %ymm10, %ymm11
vmulps %ymm4, %ymm12, %ymm12
vmulps %ymm4, %ymm13, %ymm13
vmulps %ymm4, %ymm9, %ymm6
vmovaps %ymm2, %ymm8
vmovaps 0x25c86a(%rip), %ymm7 # 0x1f5fd20
vxorps %xmm31, %xmm31, %xmm31
vpermt2ps %ymm31, %ymm7, %ymm8
vmovaps %ymm1, %ymm9
vpermt2ps %ymm31, %ymm7, %ymm9
vmovaps %ymm0, %ymm10
vpermt2ps %ymm31, %ymm7, %ymm10
vaddps %ymm5, %ymm6, %ymm4
vmaxps %ymm4, %ymm5, %ymm14
vminps %ymm4, %ymm5, %ymm4
vmovaps %ymm5, %ymm15
vpermt2ps %ymm31, %ymm7, %ymm15
vmovaps %ymm11, %ymm19
vpermt2ps %ymm31, %ymm7, %ymm19
vmovaps %ymm12, %ymm20
vpermt2ps %ymm31, %ymm7, %ymm20
vmovaps %ymm13, %ymm21
vpermt2ps %ymm31, %ymm7, %ymm21
vpermt2ps %ymm31, %ymm7, %ymm6
vsubps %ymm6, %ymm15, %ymm16
vsubps %ymm2, %ymm8, %ymm7
vsubps %ymm1, %ymm9, %ymm6
vsubps %ymm0, %ymm10, %ymm5
vmulps %ymm13, %ymm6, %ymm17
vfmsub231ps %ymm5, %ymm12, %ymm17 # ymm17 = (ymm12 * ymm5) - ymm17
vmulps %ymm11, %ymm5, %ymm18
vfmsub231ps %ymm7, %ymm13, %ymm18 # ymm18 = (ymm13 * ymm7) - ymm18
vmulps %ymm12, %ymm7, %ymm22
vfmsub231ps %ymm6, %ymm11, %ymm22 # ymm22 = (ymm11 * ymm6) - ymm22
vmulps %ymm22, %ymm22, %ymm22
vfmadd231ps %ymm18, %ymm18, %ymm22 # ymm22 = (ymm18 * ymm18) + ymm22
vfmadd231ps %ymm17, %ymm17, %ymm22 # ymm22 = (ymm17 * ymm17) + ymm22
vmulps %ymm5, %ymm5, %ymm17
vfmadd231ps %ymm6, %ymm6, %ymm17 # ymm17 = (ymm6 * ymm6) + ymm17
vfmadd231ps %ymm7, %ymm7, %ymm17 # ymm17 = (ymm7 * ymm7) + ymm17
vrcp14ps %ymm17, %ymm18
vmovaps %ymm18, %ymm23
vfnmadd213ps %ymm3, %ymm17, %ymm23 # ymm23 = -(ymm17 * ymm23) + ymm3
vfmadd132ps %ymm18, %ymm18, %ymm23 # ymm23 = (ymm23 * ymm18) + ymm18
vmulps %ymm23, %ymm22, %ymm18
vmulps %ymm21, %ymm6, %ymm22
vfmsub231ps %ymm5, %ymm20, %ymm22 # ymm22 = (ymm20 * ymm5) - ymm22
vmulps %ymm19, %ymm5, %ymm24
vfmsub231ps %ymm7, %ymm21, %ymm24 # ymm24 = (ymm21 * ymm7) - ymm24
vmulps %ymm20, %ymm7, %ymm25
vfmsub231ps %ymm6, %ymm19, %ymm25 # ymm25 = (ymm19 * ymm6) - ymm25
vmulps %ymm25, %ymm25, %ymm25
vfmadd231ps %ymm24, %ymm24, %ymm25 # ymm25 = (ymm24 * ymm24) + ymm25
vfmadd231ps %ymm22, %ymm22, %ymm25 # ymm25 = (ymm22 * ymm22) + ymm25
vmulps %ymm23, %ymm25, %ymm22
vmaxps %ymm22, %ymm18, %ymm18
vsqrtps %ymm18, %ymm18
vmaxps %ymm15, %ymm16, %ymm22
vmaxps %ymm22, %ymm14, %ymm14
vaddps %ymm14, %ymm18, %ymm14
vminps %ymm15, %ymm16, %ymm15
vminps %ymm15, %ymm4, %ymm4
vsubps %ymm18, %ymm4, %ymm4
vmulps 0x1ed33d(%rip){1to8}, %ymm14, %ymm14 # 0x1ef0940
vmulps 0x1ed337(%rip){1to8}, %ymm4, %ymm4 # 0x1ef0944
vmovaps %ymm4, 0x1c0(%rsp)
vmulps %ymm14, %ymm14, %ymm4
vrsqrt14ps %ymm17, %ymm15
vmulps 0x1e90f1(%rip){1to8}, %ymm17, %ymm14 # 0x1eec71c
vmulps %ymm14, %ymm15, %ymm14
vmulps %ymm15, %ymm15, %ymm16
vmulps %ymm14, %ymm16, %ymm14
vfmadd231ps 0x1e90d2(%rip){1to8}, %ymm15, %ymm14 # ymm14 = (ymm15 * mem) + ymm14
vmulps %ymm7, %ymm14, %ymm15
vmulps %ymm14, %ymm6, %ymm16
vmulps %ymm14, %ymm5, %ymm18
vsubps %ymm2, %ymm31, %ymm27
vsubps %ymm1, %ymm31, %ymm28
vsubps %ymm0, %ymm31, %ymm29
vmovaps 0x360(%rsp), %ymm17
vmulps %ymm29, %ymm17, %ymm22
vmovaps 0x380(%rsp), %ymm25
vfmadd231ps %ymm28, %ymm25, %ymm22 # ymm22 = (ymm25 * ymm28) + ymm22
vmovaps 0x3a0(%rsp), %ymm23
vfmadd231ps %ymm27, %ymm23, %ymm22 # ymm22 = (ymm23 * ymm27) + ymm22
vmulps %ymm29, %ymm29, %ymm24
vfmadd231ps %ymm28, %ymm28, %ymm24 # ymm24 = (ymm28 * ymm28) + ymm24
vfmadd231ps %ymm27, %ymm27, %ymm24 # ymm24 = (ymm27 * ymm27) + ymm24
vmulps %ymm18, %ymm17, %ymm17
vfmadd231ps %ymm25, %ymm16, %ymm17 # ymm17 = (ymm16 * ymm25) + ymm17
vfmadd231ps %ymm23, %ymm15, %ymm17 # ymm17 = (ymm15 * ymm23) + ymm17
vmulps %ymm18, %ymm29, %ymm18
vfmadd231ps %ymm16, %ymm28, %ymm18 # ymm18 = (ymm28 * ymm16) + ymm18
vfmadd231ps %ymm15, %ymm27, %ymm18 # ymm18 = (ymm27 * ymm15) + ymm18
vmulps %ymm17, %ymm17, %ymm26
vmovaps 0x520(%rsp), %ymm15
vsubps %ymm26, %ymm15, %ymm15
vmulps %ymm18, %ymm17, %ymm25
vsubps %ymm25, %ymm22, %ymm22
vaddps %ymm22, %ymm22, %ymm22
vmulps %ymm18, %ymm18, %ymm25
vsubps %ymm25, %ymm24, %ymm25
vsubps %ymm4, %ymm25, %ymm4
vmulps %ymm22, %ymm22, %ymm16
vmulps %ymm30, %ymm15, %ymm24
vmulps %ymm4, %ymm24, %ymm30
vmovaps %ymm16, 0x1a0(%rsp)
vsubps %ymm30, %ymm16, %ymm30
vcmpnltps %ymm31, %ymm30, %k1
kmovd %k1, %eax
kortestb %k1, %k1
je 0x1d03819
vsqrtps %ymm30, %ymm30
vaddps %ymm15, %ymm15, %ymm31
vmovaps %ymm3, %ymm16
vrcp14ps %ymm31, %ymm3
vfnmadd213ps %ymm16, %ymm3, %ymm31 # ymm31 = -(ymm3 * ymm31) + ymm16
vfmadd132ps %ymm3, %ymm3, %ymm31 # ymm31 = (ymm31 * ymm3) + ymm3
vxorps 0x21d75c(%rip){1to8}, %ymm22, %ymm3 # 0x1f20ec0
vsubps %ymm30, %ymm3, %ymm3
vmulps %ymm31, %ymm3, %ymm3
vsubps %ymm22, %ymm30, %ymm30
vmulps %ymm31, %ymm30, %ymm30
vmovaps %ymm17, %ymm31
vfmadd213ps %ymm18, %ymm3, %ymm31 # ymm31 = (ymm3 * ymm31) + ymm18
vmulps %ymm31, %ymm14, %ymm31
vmovaps %ymm31, 0x400(%rsp)
vmovaps %ymm17, %ymm31
vfmadd213ps %ymm18, %ymm30, %ymm31 # ymm31 = (ymm30 * ymm31) + ymm18
vmulps %ymm31, %ymm14, %ymm31
vmovaps %ymm31, 0x3e0(%rsp)
vbroadcastss 0x1e8266(%rip), %ymm16 # 0x1eeba20
vblendmps %ymm3, %ymm16, %ymm31 {%k1}
vbroadcastss 0x1e93bb(%rip), %ymm3 # 0x1eecb84
vblendmps %ymm30, %ymm3, %ymm30 {%k1}
vbroadcastss 0x21d6eb(%rip), %ymm23 # 0x1f20ec4
vandps %ymm23, %ymm26, %ymm3
vmovaps 0x440(%rsp), %ymm16
vmaxps %ymm3, %ymm16, %ymm3
vmulps 0x1ee6bd(%rip){1to8}, %ymm3, %ymm3 # 0x1ef1eb4
vandps %ymm23, %ymm15, %ymm23
vcmpltps %ymm3, %ymm23, %k1 {%k1}
kortestb %k1, %k1
jne 0x1d0551b
vbroadcastss 0x1e8efd(%rip), %ymm3 # 0x1eec714
jmp 0x1d0382d
vbroadcastss 0x1e81fd(%rip), %ymm31 # 0x1eeba20
vbroadcastss 0x1e9357(%rip), %ymm30 # 0x1eecb84
andb $0x7f, %al
je 0x1d03c59
vmovaps %ymm25, 0x80(%rsp)
vmovaps %ymm26, 0x280(%rsp)
vmovaps %ymm3, %ymm16
vmovss 0xc(%r15), %xmm3
vmovss 0x20(%r15), %xmm4
vmovaps 0x2b0(%rsp), %xmm23
vsubss %xmm23, %xmm3, %xmm3
vbroadcastss %xmm3, %ymm3
vmaxps %ymm31, %ymm3, %ymm3
vsubss %xmm23, %xmm4, %xmm4
vbroadcastss %xmm4, %ymm4
vminps %ymm30, %ymm4, %ymm4
vmulps %ymm29, %ymm13, %ymm23
vfmadd213ps %ymm23, %ymm12, %ymm28 # ymm28 = (ymm12 * ymm28) + ymm23
vfmadd213ps %ymm28, %ymm11, %ymm27 # ymm27 = (ymm11 * ymm27) + ymm28
vmovaps 0x360(%rsp), %ymm25
vmulps %ymm13, %ymm25, %ymm13
vmovaps 0x380(%rsp), %ymm31
vfmadd231ps %ymm12, %ymm31, %ymm13 # ymm13 = (ymm31 * ymm12) + ymm13
vmovaps 0x3a0(%rsp), %ymm30
vfmadd231ps %ymm11, %ymm30, %ymm13 # ymm13 = (ymm30 * ymm11) + ymm13
vbroadcastss 0x21d5fd(%rip), %ymm28 # 0x1f20ec4
vandps %ymm28, %ymm13, %ymm11
vbroadcastss 0x1ed711(%rip), %ymm29 # 0x1ef0fe8
vcmpltps %ymm29, %ymm11, %k0
vbroadcastss 0x21d5d8(%rip), %ymm26 # 0x1f20ec0
vxorps %ymm26, %ymm27, %ymm11
vrcp14ps %ymm13, %ymm12
vxorps %ymm26, %ymm13, %ymm23
vmovaps %ymm12, %ymm27
vfnmadd213ps %ymm16, %ymm13, %ymm27 # ymm27 = -(ymm13 * ymm27) + ymm16
vfmadd132ps %ymm12, %ymm12, %ymm27 # ymm27 = (ymm27 * ymm12) + ymm12
vmulps %ymm11, %ymm27, %ymm11
vcmpltps %ymm23, %ymm13, %k1
korb %k1, %k0, %k1
vbroadcastss 0x1e925d(%rip), %ymm27 # 0x1eecb84
vblendmps %ymm27, %ymm11, %ymm12 {%k1}
vmaxps %ymm12, %ymm3, %ymm3
vcmpnleps %ymm23, %ymm13, %k1
korb %k1, %k0, %k1
vbroadcastss 0x1e80d9(%rip), %ymm23 # 0x1eeba20
vmovaps %ymm23, %ymm11 {%k1}
vminps %ymm11, %ymm4, %ymm4
vxorps %xmm13, %xmm13, %xmm13
vsubps %ymm8, %ymm13, %ymm8
vsubps %ymm9, %ymm13, %ymm9
vsubps %ymm10, %ymm13, %ymm10
vmulps %ymm21, %ymm10, %ymm10
vfnmsub231ps %ymm9, %ymm20, %ymm10 # ymm10 = -(ymm20 * ymm9) - ymm10
vfnmadd231ps %ymm8, %ymm19, %ymm10 # ymm10 = -(ymm19 * ymm8) + ymm10
vmulps %ymm21, %ymm25, %ymm8
vfnmsub231ps %ymm20, %ymm31, %ymm8 # ymm8 = -(ymm31 * ymm20) - ymm8
vfnmadd231ps %ymm19, %ymm30, %ymm8 # ymm8 = -(ymm30 * ymm19) + ymm8
vandps %ymm28, %ymm8, %ymm9
vcmpltps %ymm29, %ymm9, %k0
vxorps %ymm26, %ymm10, %ymm9
vrcp14ps %ymm8, %ymm10
vxorps %ymm26, %ymm8, %ymm11
vmovaps %ymm10, %ymm12
vfnmadd213ps %ymm16, %ymm8, %ymm12 # ymm12 = -(ymm8 * ymm12) + ymm16
vfmadd132ps %ymm10, %ymm10, %ymm12 # ymm12 = (ymm12 * ymm10) + ymm10
vmulps %ymm9, %ymm12, %ymm9
vcmpltps %ymm11, %ymm8, %k1
korb %k1, %k0, %k1
vblendmps %ymm27, %ymm9, %ymm10 {%k1}
vmaxps %ymm10, %ymm3, %ymm3
vcmpnleps %ymm11, %ymm8, %k1
korb %k1, %k0, %k1
vmovaps %ymm23, %ymm9 {%k1}
vminps %ymm9, %ymm4, %ymm8
vmovaps %ymm3, 0x320(%rsp)
vcmpleps %ymm8, %ymm3, %k0
kmovd %k0, %ecx
andb %cl, %al
je 0x1d03c53
vmovaps 0x400(%rsp), %ymm3
vmaxps 0x1c0(%rsp), %ymm13, %ymm4
vminps %ymm16, %ymm3, %ymm3
vxorps %xmm10, %xmm10, %xmm10
vmaxps %ymm10, %ymm3, %ymm3
vmovaps 0x3e0(%rsp), %ymm9
vminps %ymm16, %ymm9, %ymm9
vmovaps 0x21d501(%rip), %ymm11 # 0x1f20f40
vaddps %ymm3, %ymm11, %ymm3
vbroadcastss 0x21aa6c(%rip), %ymm12 # 0x1f1e4b8
vmulps %ymm3, %ymm12, %ymm3
vmovaps 0xa0(%rsp), %ymm13
vmovaps 0x40(%rsp), %ymm19
vfmadd213ps %ymm13, %ymm19, %ymm3 # ymm3 = (ymm19 * ymm3) + ymm13
vmovaps %ymm3, 0x400(%rsp)
vmaxps %ymm10, %ymm9, %ymm3
vaddps %ymm3, %ymm11, %ymm3
vmulps %ymm3, %ymm12, %ymm3
vfmadd213ps %ymm13, %ymm19, %ymm3 # ymm3 = (ymm19 * ymm3) + ymm13
vmovaps %ymm3, 0x3e0(%rsp)
vmulps %ymm4, %ymm4, %ymm3
vmovaps 0x80(%rsp), %ymm4
vsubps %ymm3, %ymm4, %ymm11
vmulps %ymm11, %ymm24, %ymm3
vmovaps 0x1a0(%rsp), %ymm4
vsubps %ymm3, %ymm4, %ymm3
vcmpnltps %ymm10, %ymm3, %k0
kortestb %k0, %k0
vxorps %xmm4, %xmm4, %xmm4
movq %r8, 0xf8(%rsp)
je 0x1d03d7b
vxorps %xmm20, %xmm20, %xmm20
vcmpnltps %ymm4, %ymm3, %k1
vsqrtps %ymm3, %ymm3
vaddps %ymm15, %ymm15, %ymm4
vrcp14ps %ymm4, %ymm9
vfnmadd213ps %ymm16, %ymm9, %ymm4 # ymm4 = -(ymm9 * ymm4) + ymm16
vfmadd132ps %ymm9, %ymm9, %ymm4 # ymm4 = (ymm4 * ymm9) + ymm9
vxorps 0x21d3c2(%rip){1to8}, %ymm22, %ymm9 # 0x1f20ec0
vsubps %ymm3, %ymm9, %ymm9
vmulps %ymm4, %ymm9, %ymm12
vsubps %ymm22, %ymm3, %ymm3
vmulps %ymm4, %ymm3, %ymm13
vmovaps %ymm17, %ymm3
vfmadd213ps %ymm18, %ymm12, %ymm3 # ymm3 = (ymm12 * ymm3) + ymm18
vmulps %ymm3, %ymm14, %ymm9
vmovaps 0x3a0(%rsp), %ymm16
vmulps %ymm12, %ymm16, %ymm3
vmovaps 0x380(%rsp), %ymm21
vmulps %ymm12, %ymm21, %ymm4
vmovaps 0x360(%rsp), %ymm22
vmulps %ymm12, %ymm22, %ymm10
vmovaps %ymm7, %ymm19
vfmadd213ps %ymm2, %ymm9, %ymm19 # ymm19 = (ymm9 * ymm19) + ymm2
vsubps %ymm19, %ymm3, %ymm3
vmovaps %ymm6, %ymm19
vfmadd213ps %ymm1, %ymm9, %ymm19 # ymm19 = (ymm9 * ymm19) + ymm1
vsubps %ymm19, %ymm4, %ymm4
vfmadd213ps %ymm0, %ymm5, %ymm9 # ymm9 = (ymm5 * ymm9) + ymm0
vsubps %ymm9, %ymm10, %ymm9
vfmadd213ps %ymm18, %ymm13, %ymm17 # ymm17 = (ymm13 * ymm17) + ymm18
vmulps %ymm17, %ymm14, %ymm14
vmulps %ymm13, %ymm16, %ymm10
vmulps %ymm13, %ymm21, %ymm17
vmulps %ymm13, %ymm22, %ymm18
vfmadd213ps %ymm2, %ymm14, %ymm7 # ymm7 = (ymm14 * ymm7) + ymm2
vsubps %ymm7, %ymm10, %ymm10
vfmadd213ps %ymm1, %ymm14, %ymm6 # ymm6 = (ymm14 * ymm6) + ymm1
vsubps %ymm6, %ymm17, %ymm1
vfmadd213ps %ymm0, %ymm14, %ymm5 # ymm5 = (ymm14 * ymm5) + ymm0
vsubps %ymm5, %ymm18, %ymm5
vbroadcastss 0x1e7e62(%rip), %ymm0 # 0x1eeba20
vblendmps %ymm12, %ymm0, %ymm2 {%k1}
vbroadcastss 0x1e8fb7(%rip), %ymm0 # 0x1eecb84
vblendmps %ymm13, %ymm0, %ymm0 {%k1}
vbroadcastss 0x21d2e8(%rip), %ymm7 # 0x1f20ec4
vandps 0x280(%rsp), %ymm7, %ymm6
vmovaps 0x440(%rsp), %ymm12
vmaxps %ymm6, %ymm12, %ymm6
vmulps 0x1ee2b8(%rip){1to8}, %ymm6, %ymm6 # 0x1ef1eb4
vandps %ymm7, %ymm15, %ymm7
vcmpltps %ymm6, %ymm7, %k1 {%k1}
kortestb %k1, %k1
je 0x1d03d9e
vcmpleps %ymm20, %ymm11, %k2
vbroadcastss 0x1e8f63(%rip), %ymm7 # 0x1eecb84
vbroadcastss 0x1e7df6(%rip), %ymm11 # 0x1eeba20
vblendmps %ymm7, %ymm11, %ymm6 {%k2}
vmovaps %ymm6, %ymm2 {%k1}
vblendmps %ymm11, %ymm7, %ymm6 {%k2}
vmovaps %ymm6, %ymm0 {%k1}
knotb %k1, %k1
korb %k2, %k1, %k1
kandb %k0, %k1, %k0
jmp 0x1d03d9e
vmovaps %ymm16, %ymm3
vxorps %xmm12, %xmm12, %xmm12
vmovaps 0x260(%rsp), %ymm7
vmovaps 0x140(%rsp), %xmm4
vbroadcastss 0x20(%r15), %ymm0
movl %r8d, %eax
testl %eax, %eax
je 0x1d05568
leal -0x1(%rax), %r8d
leaq (%r8,%r8,2), %rcx
shlq $0x5, %rcx
movzbl 0x740(%rsp,%rcx), %esi
vmovaps 0x760(%rsp,%rcx), %ymm1
vaddps %ymm1, %ymm7, %ymm2
vcmpleps %ymm0, %ymm2, %k0
kmovb %k0, %edx
andl %esi, %edx
je 0x1d03d6b
kmovd %edx, %k1
vbroadcastss 0x1e7d5e(%rip), %ymm2 # 0x1eeba20
vblendmps %ymm1, %ymm2, %ymm1 {%k1}
vshufps $0xb1, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2,5,4,7,6]
vminps %ymm2, %ymm1, %ymm2
vshufpd $0x5, %ymm2, %ymm2, %ymm3 # ymm3 = ymm2[1,0,3,2]
vminps %ymm3, %ymm2, %ymm2
vpermpd $0x4e, %ymm2, %ymm3 # ymm3 = ymm2[2,3,0,1]
vminps %ymm3, %ymm2, %ymm2
vcmpeqps %ymm2, %ymm1, %k0
kmovd %k0, %esi
andb %dl, %sil
je 0x1d03cfa
movzbl %sil, %edi
jmp 0x1d03cfd
movzbl %dl, %edi
leaq (%rsp,%rcx), %rsi
addq $0x740, %rsi # imm = 0x740
vmovss 0x44(%rsi), %xmm1
tzcntl %edi, %ecx
movb $0x1, %dil
shlb %cl, %dil
movl 0x48(%rsi), %r11d
movzbl %dil, %edi
kmovd %edi, %k0
kmovd %edx, %k1
kandnb %k1, %k0, %k0
kmovb %k0, (%rsi)
kortestb %k0, %k0
vbroadcastss 0x1e89d8(%rip), %ymm3 # 0x1eec714
je 0x1d03d41
movl %eax, %r8d
vbroadcastss 0x40(%rsi), %ymm2
vsubss %xmm2, %xmm1, %xmm1
vbroadcastss %xmm1, %ymm1
vfmadd132ps 0x21d1c7(%rip), %ymm2, %ymm1 # ymm1 = (ymm1 * mem) + ymm2
vmovaps %ymm1, 0x460(%rsp)
vmovsd 0x460(%rsp,%rcx,4), %xmm4
movl %r8d, %eax
testb %dl, %dl
je 0x1d03c79
jmp 0x1d03247
vxorps %xmm1, %xmm1, %xmm1
vxorps %xmm5, %xmm5, %xmm5
vxorps %xmm3, %xmm3, %xmm3
vxorps %xmm9, %xmm9, %xmm9
vbroadcastss 0x1e7c8b(%rip), %ymm2 # 0x1eeba20
vbroadcastss 0x1e8de6(%rip), %ymm0 # 0x1eecb84
vxorps %xmm12, %xmm12, %xmm12
vbroadcastss 0x21d118(%rip), %xmm13 # 0x1f20ec4
vbroadcastss 0x10(%r15), %ymm6
vbroadcastss 0x14(%r15), %ymm7
vbroadcastss 0x18(%r15), %ymm11
vmulps %ymm5, %ymm11, %ymm5
vfmadd231ps %ymm1, %ymm7, %ymm5 # ymm5 = (ymm7 * ymm1) + ymm5
vfmadd231ps %ymm10, %ymm6, %ymm5 # ymm5 = (ymm6 * ymm10) + ymm5
vmovaps 0x320(%rsp), %ymm14
vmovaps %ymm14, 0x460(%rsp)
vminps %ymm2, %ymm8, %ymm1
vmovaps %ymm1, 0x480(%rsp)
vbroadcastss 0x21d0d0(%rip), %ymm10 # 0x1f20ec4
vandps %ymm5, %ymm10, %ymm2
vmaxps %ymm0, %ymm14, %ymm5
vmovaps %ymm5, 0x4a0(%rsp)
vmovaps %ymm8, 0x4c0(%rsp)
vbroadcastss 0x21d0bd(%rip), %ymm0 # 0x1f20ed4
vcmpltps %ymm0, %ymm2, %k1
kmovd %k1, 0x13c(%rsp)
vcmpleps %ymm1, %ymm14, %k1
kmovd %k1, %ecx
andb %al, %cl
vmovaps %ymm5, 0x340(%rsp)
vcmpleps %ymm8, %ymm5, %k1
kmovd %k1, %edx
andb %al, %dl
movl %edx, %eax
orb %cl, %al
je 0x1d054ce
vmovaps %ymm0, %ymm2
movl %edx, 0x18(%rsp)
movq %r10, 0x198(%rsp)
knotb %k0, %k1
vmulps %ymm11, %ymm9, %ymm0
vfmadd213ps %ymm0, %ymm7, %ymm4 # ymm4 = (ymm7 * ymm4) + ymm0
vfmadd213ps %ymm4, %ymm6, %ymm3 # ymm3 = (ymm6 * ymm3) + ymm4
vandps %ymm3, %ymm10, %ymm0
vcmpltps %ymm2, %ymm0, %k0
kmovd %k1, 0x134(%rsp)
korb %k1, %k0, %k1
vpbroadcastd 0x21d042(%rip), %ymm0 # 0x1f20edc
vpblendmd 0x21d034(%rip){1to8}, %ymm0, %ymm0 {%k1} # 0x1f20ed8
movq %r11, 0x190(%rsp)
vpbroadcastd %r11d, %ymm1
vmovdqa %ymm0, 0x4e0(%rsp)
vmovdqa %ymm1, 0x420(%rsp)
vpcmpnltd %ymm0, %ymm1, %k0
kmovd %k0, %ebx
movl %ecx, 0x138(%rsp)
andb %cl, %bl
je 0x1d04930
vmovaps 0x240(%rsp), %ymm1
vmovaps 0x200(%rsp), %ymm2
vminps %xmm2, %xmm1, %xmm0
vmaxps %xmm2, %xmm1, %xmm1
vmovaps 0x220(%rsp), %ymm3
vmovaps 0x1e0(%rsp), %ymm4
vminps %xmm4, %xmm3, %xmm2
vminps %xmm2, %xmm0, %xmm0
vmaxps %xmm4, %xmm3, %xmm2
vmaxps %xmm2, %xmm1, %xmm1
vandps %xmm0, %xmm13, %xmm0
vandps %xmm1, %xmm13, %xmm2
vmaxps %xmm2, %xmm0, %xmm0
vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3]
vmaxss %xmm0, %xmm2, %xmm2
vshufpd $0x1, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[1,0]
vmaxss %xmm2, %xmm0, %xmm0
vmulss 0x1edf75(%rip), %xmm0, %xmm0 # 0x1ef1eb4
vmovss %xmm0, 0x28(%rsp)
vshufps $0xff, %xmm1, %xmm1, %xmm0 # xmm0 = xmm1[3,3,3,3]
vmovaps %xmm0, 0x2a0(%rsp)
vmovaps 0x320(%rsp), %ymm0
vaddps 0x260(%rsp), %ymm0, %ymm0
vmovaps %ymm0, 0x3c0(%rsp)
kmovd %ebx, %k1
vbroadcastss 0x1e7aa5(%rip), %ymm0 # 0x1eeba20
vblendmps 0x320(%rsp), %ymm0, %ymm0 {%k1}
vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm0, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1]
vminps %ymm2, %ymm1, %ymm1
vcmpeqps %ymm1, %ymm0, %k0
kmovd %k0, %eax
andb %bl, %al
movzbl %al, %eax
movzbl %bl, %ecx
cmovnel %eax, %ecx
tzcntl %ecx, %ecx
movb $0x1, %bl
shlb %cl, %bl
shll $0x2, %ecx
vmovss 0x400(%rsp,%rcx), %xmm10
vmovss 0x460(%rsp,%rcx), %xmm8
vmovaps 0x10(%r15), %xmm0
vmovaps %xmm0, 0x280(%rsp)
vdpps $0x7f, %xmm0, %xmm0, %xmm0
vucomiss 0x1e7a35(%rip), %xmm0 # 0x1eeba24
jb 0x1d03ff7
vsqrtss %xmm0, %xmm0, %xmm0
jmp 0x1d04034
vmovaps %xmm10, 0x40(%rsp)
vmovaps %xmm8, 0x80(%rsp)
kmovw %k1, 0xa0(%rsp)
vzeroupper
callq 0x6aa20
kmovw 0xa0(%rsp), %k1
vmovaps 0x80(%rsp), %xmm8
vmovaps 0x40(%rsp), %xmm10
vxorps %xmm12, %xmm12, %xmm12
movzbl %bl, %eax
kmovd %eax, %k0
kandnb %k1, %k0, %k0
kmovd %k0, %ebx
vmulss 0x1ede69(%rip), %xmm0, %xmm0 # 0x1ef1eb4
vmovss %xmm0, 0x2c(%rsp)
movl $0x4, %r12d
vmovaps %xmm8, 0x80(%rsp)
vbroadcastss %xmm8, %xmm0
vfmadd132ps 0x280(%rsp), %xmm12, %xmm0 # xmm0 = (xmm0 * mem) + xmm12
vmovss 0x1e869d(%rip), %xmm1 # 0x1eec714
vsubss %xmm10, %xmm1, %xmm4
vmulss %xmm4, %xmm4, %xmm1
vmulss %xmm1, %xmm4, %xmm1
vmulss %xmm10, %xmm10, %xmm11
vmulss %xmm11, %xmm10, %xmm2
vmovss 0x1e8af6(%rip), %xmm7 # 0x1eecb8c
vmovaps %xmm7, %xmm3
vfmadd213ss %xmm2, %xmm1, %xmm3 # xmm3 = (xmm1 * xmm3) + xmm2
vmulss %xmm4, %xmm10, %xmm13
vmovaps %xmm4, 0xa0(%rsp)
vmulss %xmm4, %xmm13, %xmm4
vmulss %xmm13, %xmm10, %xmm5
vmovss 0x1ecf37(%rip), %xmm8 # 0x1ef0ff4
vmulss %xmm5, %xmm8, %xmm6
vmovss 0x1ecf33(%rip), %xmm9 # 0x1ef0ffc
vfmadd231ss %xmm9, %xmm4, %xmm6 # xmm6 = (xmm4 * xmm9) + xmm6
vaddss %xmm6, %xmm3, %xmm3
vmovaps %xmm7, %xmm6
vfmadd213ss %xmm1, %xmm2, %xmm6 # xmm6 = (xmm2 * xmm6) + xmm1
vmulss %xmm4, %xmm8, %xmm4
vfmadd231ss %xmm5, %xmm9, %xmm4 # xmm4 = (xmm9 * xmm5) + xmm4
vaddss %xmm4, %xmm6, %xmm4
vmovss 0x1ecf10(%rip), %xmm5 # 0x1ef1000
vmulss %xmm5, %xmm1, %xmm1
vmulss %xmm5, %xmm3, %xmm3
vmulss %xmm5, %xmm4, %xmm4
vmulss %xmm5, %xmm2, %xmm2
vbroadcastss %xmm2, %xmm2
vmulps 0x1e0(%rsp), %xmm2, %xmm2
vbroadcastss %xmm4, %xmm4
vfmadd132ps 0x220(%rsp), %xmm2, %xmm4 # xmm4 = (xmm4 * mem) + xmm2
vbroadcastss %xmm3, %xmm2
vfmadd132ps 0x200(%rsp), %xmm4, %xmm2 # xmm2 = (xmm2 * mem) + xmm4
vbroadcastss %xmm1, %xmm1
vfmadd132ps 0x240(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2
vmovaps %xmm1, 0x310(%rsp)
vsubps %xmm1, %xmm0, %xmm0
vmovaps %xmm0, 0x1c0(%rsp)
vdpps $0x7f, %xmm0, %xmm0, %xmm0
vucomiss 0x1e78c5(%rip), %xmm0 # 0x1eeba24
vmovaps %xmm10, 0x40(%rsp)
vmovaps %xmm0, 0x1a0(%rsp)
jb 0x1d04176
vsqrtss %xmm0, %xmm0, %xmm7
jmp 0x1d041a5
vmovss %xmm11, 0x60(%rsp)
vmovss %xmm13, 0x8(%rsp)
vzeroupper
callq 0x6aa20
vmovss 0x8(%rsp), %xmm13
vmovss 0x60(%rsp), %xmm11
vmovaps 0x40(%rsp), %xmm10
vxorps %xmm12, %xmm12, %xmm12
vmovaps %xmm0, %xmm7
vmovaps 0xa0(%rsp), %xmm3
vbroadcastss %xmm3, %xmm1
vbroadcastss 0x21cd04(%rip), %xmm4 # 0x1f20ec0
vmovaps %xmm1, 0x300(%rsp)
vxorps %xmm4, %xmm1, %xmm0
vmulss %xmm0, %xmm3, %xmm0
vmulss 0x1e89b7(%rip), %xmm13, %xmm1 # 0x1eecb8c
vmovaps %xmm10, %xmm2
vfnmsub213ss %xmm1, %xmm10, %xmm2 # xmm2 = -(xmm10 * xmm2) - xmm1
vfmadd231ss %xmm3, %xmm3, %xmm1 # xmm1 = (xmm3 * xmm3) + xmm1
vmovss 0x1e8995(%rip), %xmm3 # 0x1eecb80
vmulss %xmm3, %xmm0, %xmm0
vmulss %xmm3, %xmm2, %xmm2
vmulss %xmm3, %xmm1, %xmm1
vmulss %xmm3, %xmm11, %xmm3
vbroadcastss %xmm3, %xmm3
vmulps 0x1e0(%rsp), %xmm3, %xmm3
vbroadcastss %xmm1, %xmm1
vfmadd132ps 0x220(%rsp), %xmm3, %xmm1 # xmm1 = (xmm1 * mem) + xmm3
vbroadcastss %xmm2, %xmm2
vfmadd132ps 0x200(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1
vbroadcastss %xmm0, %xmm14
vfmadd132ps 0x240(%rsp), %xmm2, %xmm14 # xmm14 = (xmm14 * mem) + xmm2
vdpps $0x7f, %xmm14, %xmm14, %xmm0
vmovss %xmm0, %xmm12, %xmm1 # xmm1 = xmm0[0],xmm12[1,2,3]
vrsqrt14ss %xmm1, %xmm12, %xmm3
vmulss 0x1e84ca(%rip), %xmm3, %xmm5 # 0x1eec718
vmulss 0x1e84c6(%rip), %xmm0, %xmm6 # 0x1eec71c
vrcp14ss %xmm1, %xmm12, %xmm2
vxorps %xmm4, %xmm0, %xmm1
vmovaps %xmm2, 0x2e0(%rsp)
vfnmadd213ss 0x1ecd86(%rip), %xmm0, %xmm2 # xmm2 = -(xmm0 * xmm2) + mem
vmovss %xmm2, 0x30(%rsp)
vucomiss %xmm1, %xmm0
vmovaps %xmm14, 0x60(%rsp)
vmovss %xmm7, 0x8(%rsp)
vmovaps %xmm0, 0x2f0(%rsp)
jb 0x1d0429b
vsqrtss %xmm0, %xmm0, %xmm16
jmp 0x1d042ea
vmovaps %xmm3, 0xe0(%rsp)
vmovss %xmm5, 0xd0(%rsp)
vmovss %xmm6, 0xc(%rsp)
vzeroupper
callq 0x6aa20
vmovss 0xc(%rsp), %xmm6
vmovss 0xd0(%rsp), %xmm5
vmovaps 0xe0(%rsp), %xmm3
vmovss 0x8(%rsp), %xmm7
vmovaps 0x60(%rsp), %xmm14
vxorps %xmm12, %xmm12, %xmm12
vmovaps %xmm0, %xmm16
vmovaps 0x1c0(%rsp), %xmm9
vmovaps 0x1a0(%rsp), %xmm11
vmulss %xmm3, %xmm6, %xmm0
vmulss %xmm3, %xmm3, %xmm1
vmulss %xmm1, %xmm0, %xmm0
vaddss %xmm0, %xmm5, %xmm0
vbroadcastss %xmm0, %xmm4
vmulps %xmm4, %xmm14, %xmm0
vmovaps %xmm0, 0xd0(%rsp)
vdpps $0x7f, %xmm0, %xmm9, %xmm0
vaddss 0x1e83e8(%rip), %xmm7, %xmm15 # 0x1eec714
vmovaps %xmm0, 0xe0(%rsp)
vmulps %xmm0, %xmm0, %xmm0
vsubps %xmm0, %xmm11, %xmm0
vmovss %xmm0, %xmm12, %xmm1 # xmm1 = xmm0[0],xmm12[1,2,3]
vrsqrt14ss %xmm1, %xmm12, %xmm18
vmulss 0x1e83c7(%rip), %xmm18, %xmm17 # 0x1eec718
vmulss 0x1e83c1(%rip), %xmm0, %xmm19 # 0x1eec71c
vucomiss 0x1e76c1(%rip), %xmm0 # 0x1eeba24
jb 0x1d0436e
vsqrtss %xmm0, %xmm0, %xmm0
jmp 0x1d043f2
vmovss %xmm15, 0xc(%rsp)
vmovss %xmm16, 0x24(%rsp)
vmovss %xmm17, 0x20(%rsp)
vmovaps %xmm18, 0x2d0(%rsp)
vmovss %xmm19, 0x1c(%rsp)
vmovaps %xmm4, 0x2c0(%rsp)
vzeroupper
callq 0x6aa20
vmovaps 0x2c0(%rsp), %xmm4
vmovss 0x1c(%rsp), %xmm19
vmovaps 0x2d0(%rsp), %xmm18
vmovss 0x20(%rsp), %xmm17
vmovss 0x24(%rsp), %xmm16
vmovss 0xc(%rsp), %xmm15
vmovss 0x8(%rsp), %xmm7
vmovaps 0x60(%rsp), %xmm14
vmovaps 0x1a0(%rsp), %xmm11
vmovaps 0x1c0(%rsp), %xmm9
vbroadcastss 0x21cac9(%rip), %xmm13 # 0x1f20ec4
vmovaps 0x40(%rsp), %xmm10
vmovaps 0x80(%rsp), %xmm8
vmovss 0x1ec5ca(%rip), %xmm2 # 0x1ef09dc
vmovaps %xmm2, %xmm1
vmovaps 0xa0(%rsp), %xmm3
vfmadd213ss %xmm10, %xmm3, %xmm1 # xmm1 = (xmm3 * xmm1) + xmm10
vfmadd231ss %xmm2, %xmm10, %xmm3 # xmm3 = (xmm10 * xmm2) + xmm3
vbroadcastss %xmm10, %xmm2
vmulps 0x1e0(%rsp), %xmm2, %xmm2
vbroadcastss %xmm3, %xmm3
vfmadd132ps 0x220(%rsp), %xmm2, %xmm3 # xmm3 = (xmm3 * mem) + xmm2
vbroadcastss %xmm1, %xmm1
vfmadd132ps 0x200(%rsp), %xmm3, %xmm1 # xmm1 = (xmm1 * mem) + xmm3
vmovaps 0x300(%rsp), %xmm2
vfmadd132ps 0x240(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1
vbroadcastss 0x2f0(%rsp), %xmm1
vmulps %xmm1, %xmm2, %xmm1
vdpps $0x7f, %xmm2, %xmm14, %xmm2
vbroadcastss %xmm2, %xmm2
vmulps %xmm2, %xmm14, %xmm2
vsubps %xmm2, %xmm1, %xmm1
vmovss 0x30(%rsp), %xmm2
vmulss 0x2e0(%rsp), %xmm2, %xmm2
vmulss 0x2c(%rsp), %xmm8, %xmm3
vbroadcastss %xmm2, %xmm2
vmulps %xmm2, %xmm1, %xmm1
vxorps 0x21ca0f(%rip){1to4}, %xmm14, %xmm2 # 0x1f20ec0
vmulps %xmm1, %xmm4, %xmm4
vmovaps 0xd0(%rsp), %xmm12
vdpps $0x7f, %xmm12, %xmm2, %xmm5
vmovss 0x28(%rsp), %xmm6
vmaxss %xmm3, %xmm6, %xmm1
vdivss %xmm16, %xmm6, %xmm3
vdpps $0x7f, %xmm4, %xmm9, %xmm4
vfmadd213ss %xmm1, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm7) + xmm1
vfmadd213ss %xmm7, %xmm3, %xmm15 # xmm15 = (xmm3 * xmm15) + xmm7
vmovaps 0x280(%rsp), %xmm7
vdpps $0x7f, %xmm12, %xmm7, %xmm3
vaddss %xmm4, %xmm5, %xmm4
vdpps $0x7f, %xmm2, %xmm9, %xmm5
vmulss %xmm18, %xmm19, %xmm2
vmulss %xmm18, %xmm18, %xmm6
vmulss %xmm6, %xmm2, %xmm2
vdpps $0x7f, %xmm7, %xmm9, %xmm6
vaddss %xmm2, %xmm17, %xmm7
vmovaps 0xe0(%rsp), %xmm16
vfnmadd231ss %xmm4, %xmm16, %xmm5 # xmm5 = -(xmm16 * xmm4) + xmm5
vfnmadd231ss %xmm3, %xmm16, %xmm6 # xmm6 = -(xmm16 * xmm3) + xmm6
vpermilps $0xff, 0x310(%rsp), %xmm2 # xmm2 = mem[3,3,3,3]
vsubss %xmm2, %xmm0, %xmm2
vshufps $0xff, %xmm14, %xmm14, %xmm0 # xmm0 = xmm14[3,3,3,3]
vfmsub213ss %xmm0, %xmm7, %xmm5 # xmm5 = (xmm7 * xmm5) - xmm0
vmulss %xmm7, %xmm6, %xmm6
vmulss %xmm5, %xmm3, %xmm7
vfmsub231ss %xmm6, %xmm4, %xmm7 # xmm7 = (xmm4 * xmm6) - xmm7
vdivss %xmm7, %xmm6, %xmm6
vdivss %xmm7, %xmm5, %xmm5
vdivss %xmm7, %xmm3, %xmm3
vdivss %xmm7, %xmm4, %xmm4
vmulss %xmm6, %xmm16, %xmm6
vmulss %xmm3, %xmm2, %xmm3
vsubss %xmm3, %xmm6, %xmm3
vmulss %xmm5, %xmm16, %xmm5
vmulss %xmm4, %xmm2, %xmm4
vsubss %xmm5, %xmm4, %xmm4
vsubss %xmm3, %xmm10, %xmm10
vsubss %xmm4, %xmm8, %xmm8
vandps %xmm13, %xmm16, %xmm3
vucomiss %xmm3, %xmm15
jbe 0x1d04701
vaddss %xmm1, %xmm15, %xmm1
vmovaps 0x2a0(%rsp), %xmm3
vfmadd231ss 0x1ed906(%rip), %xmm3, %xmm1 # xmm1 = (xmm3 * mem) + xmm1
vandps %xmm2, %xmm13, %xmm2
vucomiss %xmm2, %xmm1
vxorps %xmm12, %xmm12, %xmm12
jbe 0x1d0470b
vaddss 0x2b0(%rsp), %xmm8, %xmm8
vucomiss 0xc(%r15), %xmm8
movb $0x1, %r14b
jb 0x1d0470e
vmovss 0x20(%r15), %xmm4
vucomiss %xmm8, %xmm4
jb 0x1d0470e
vucomiss 0x1e7432(%rip), %xmm10 # 0x1eeba24
jb 0x1d0470e
vmovss 0x1e8114(%rip), %xmm1 # 0x1eec714
vucomiss %xmm10, %xmm1
jb 0x1d0470e
vmovss %xmm11, %xmm12, %xmm1
vrsqrt14ss %xmm1, %xmm12, %xmm1
vmulss 0x1e80fb(%rip), %xmm1, %xmm2 # 0x1eec718
vmulss 0x1e80f7(%rip), %xmm11, %xmm3 # 0x1eec71c
movq (%r13), %rax
movq 0x1e8(%rax), %rax
movq %r13, %rcx
movq 0x38(%rsp), %rdx
movq (%rax,%rdx,8), %r13
movl 0x24(%r15), %eax
testl %eax, 0x34(%r13)
je 0x1d0472b
vmulss %xmm1, %xmm3, %xmm3
vmulss %xmm1, %xmm1, %xmm1
vmulss %xmm1, %xmm3, %xmm1
vaddss %xmm1, %xmm2, %xmm1
vbroadcastss %xmm1, %xmm1
vmulps %xmm1, %xmm9, %xmm1
vfmadd213ps %xmm14, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm0) + xmm14
vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm14, %xmm14, %xmm3 # xmm3 = xmm14[1,2,0,3]
vmulps %xmm3, %xmm1, %xmm1
vfmsub231ps %xmm2, %xmm14, %xmm1 # xmm1 = (xmm14 * xmm2) - xmm1
vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3]
vshufps $0xd2, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,0,1,3]
vmulps %xmm1, %xmm0, %xmm0
vfmsub231ps %xmm3, %xmm2, %xmm0 # xmm0 = (xmm2 * xmm3) - xmm0
movq 0x10(%rcx), %rax
cmpq $0x0, 0x10(%rax)
jne 0x1d04730
cmpq $0x0, 0x40(%r13)
jne 0x1d04730
vmovss %xmm8, 0x20(%r15)
vshufps $0xe9, %xmm0, %xmm0, %xmm1 # xmm1 = xmm0[1,2,2,3]
vmovlps %xmm1, 0x30(%r15)
vmovss %xmm0, 0x38(%r15)
vmovss %xmm10, 0x3c(%r15)
movl $0x0, 0x40(%r15)
movq 0x78(%rsp), %rax
movl %eax, 0x44(%r15)
movq 0x38(%rsp), %rax
movl %eax, 0x48(%r15)
movq 0x10(%rsp), %r13
movq 0x8(%r13), %rax
movl (%rax), %eax
movl %eax, 0x4c(%r15)
movq 0x8(%r13), %rax
movl 0x4(%rax), %eax
movl %eax, 0x50(%r15)
jmp 0x1d0470e
xorl %r14d, %r14d
vxorps %xmm12, %xmm12, %xmm12
jmp 0x1d0470e
xorl %r14d, %r14d
subq $0x1, %r12
setb %al
testb %r14b, %r14b
jne 0x1d04913
testb %al, %al
je 0x1d04057
jmp 0x1d04913
movq %rcx, %r13
jmp 0x1d0470e
movq 0x10(%rsp), %rdx
movq 0x8(%rdx), %rax
vshufps $0xe9, %xmm0, %xmm0, %xmm1 # xmm1 = xmm0[1,2,2,3]
vmovlps %xmm1, 0x150(%rsp)
vmovss %xmm0, 0x158(%rsp)
vmovss %xmm10, 0x15c(%rsp)
movl $0x0, 0x160(%rsp)
movq 0x78(%rsp), %rcx
movl %ecx, 0x164(%rsp)
movq 0x38(%rsp), %rcx
movl %ecx, 0x168(%rsp)
movl (%rax), %ecx
movl %ecx, 0x16c(%rsp)
movl 0x4(%rax), %eax
movl %eax, 0x170(%rsp)
vmovss %xmm8, 0x20(%r15)
movl $0xffffffff, 0x34(%rsp) # imm = 0xFFFFFFFF
leaq 0x34(%rsp), %rax
movq %rax, 0x100(%rsp)
movq 0x18(%r13), %rax
movq %rax, 0x108(%rsp)
movq 0x8(%rdx), %rax
movq %rax, 0x110(%rsp)
movq %r15, 0x118(%rsp)
leaq 0x150(%rsp), %rax
movq %rax, 0x120(%rsp)
movl $0x1, 0x128(%rsp)
movq 0x40(%r13), %rax
testq %rax, %rax
vmovaps %xmm10, 0x40(%rsp)
vmovaps %xmm8, 0x80(%rsp)
vmovss %xmm4, 0xa0(%rsp)
je 0x1d0484a
leaq 0x100(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0xa0(%rsp), %xmm4
vmovaps 0x80(%rsp), %xmm8
vmovaps 0x40(%rsp), %xmm10
vbroadcastss 0x21c690(%rip), %xmm13 # 0x1f20ec4
vxorps %xmm12, %xmm12, %xmm12
movq 0x100(%rsp), %rax
cmpl $0x0, (%rax)
je 0x1d04903
movq 0x10(%rsp), %rax
movq 0x10(%rax), %rcx
movq 0x10(%rcx), %rax
testq %rax, %rax
je 0x1d048a8
testb $0x2, (%rcx)
jne 0x1d04868
testb $0x40, 0x3e(%r13)
je 0x1d0489b
leaq 0x100(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0xa0(%rsp), %xmm4
vmovaps 0x80(%rsp), %xmm8
vmovaps 0x40(%rsp), %xmm10
vbroadcastss 0x21c62e(%rip), %xmm13 # 0x1f20ec4
vxorps %xmm12, %xmm12, %xmm12
movq 0x100(%rsp), %rax
cmpl $0x0, (%rax)
je 0x1d04903
movq 0x118(%rsp), %rax
movq 0x120(%rsp), %rcx
vmovss (%rcx), %xmm0
vmovss %xmm0, 0x30(%rax)
vmovss 0x4(%rcx), %xmm0
vmovss %xmm0, 0x34(%rax)
vmovss 0x8(%rcx), %xmm0
vmovss %xmm0, 0x38(%rax)
vmovss 0xc(%rcx), %xmm0
vmovss %xmm0, 0x3c(%rax)
vmovss 0x10(%rcx), %xmm0
vmovss %xmm0, 0x40(%rax)
movl 0x14(%rcx), %edx
movl %edx, 0x44(%rax)
movl 0x18(%rcx), %edx
movl %edx, 0x48(%rax)
movl 0x1c(%rcx), %edx
movl %edx, 0x4c(%rax)
movl 0x20(%rcx), %ecx
movl %ecx, 0x50(%rax)
jmp 0x1d04909
vmovss %xmm4, 0x20(%r15)
movq 0x10(%rsp), %r13
jmp 0x1d0470e
vmovaps 0x3c0(%rsp), %ymm0
vcmpleps 0x20(%r15){1to8}, %ymm0, %k0
kmovd %k0, %eax
andb %al, %bl
jne 0x1d03f6e
vmovaps 0x340(%rsp), %ymm0
vaddps 0x260(%rsp), %ymm0, %ymm0
vcmpleps 0x20(%r15){1to8}, %ymm0, %k0
kmovd 0x13c(%rsp), %k1
kmovd 0x134(%rsp), %k2
korb %k2, %k1, %k1
kmovd %k0, %eax
movl 0x18(%rsp), %ecx
andb %al, %cl
vpbroadcastd 0x21c567(%rip), %ymm0 # 0x1f20edc
vpblendmd 0x21c559(%rip){1to8}, %ymm0, %ymm0 {%k1} # 0x1f20ed8
vmovdqa %ymm0, 0x340(%rsp)
vpcmpled 0x420(%rsp), %ymm0, %k0
kmovd %k0, %ebx
movl %ecx, 0x18(%rsp)
andb %cl, %bl
je 0x1d053ea
vmovaps 0x4a0(%rsp), %ymm5
vmovaps 0x240(%rsp), %ymm1
vmovaps 0x200(%rsp), %ymm2
vminps %xmm2, %xmm1, %xmm0
vmaxps %xmm2, %xmm1, %xmm1
vmovaps 0x220(%rsp), %ymm3
vmovaps 0x1e0(%rsp), %ymm4
vminps %xmm4, %xmm3, %xmm2
vminps %xmm2, %xmm0, %xmm0
vmaxps %xmm4, %xmm3, %xmm2
vmaxps %xmm2, %xmm1, %xmm1
vandps %xmm0, %xmm13, %xmm0
vandps %xmm1, %xmm13, %xmm2
vmaxps %xmm2, %xmm0, %xmm0
vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3]
vmaxss %xmm0, %xmm2, %xmm2
vshufpd $0x1, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[1,0]
vmaxss %xmm2, %xmm0, %xmm0
vmulss 0x1ed4a9(%rip), %xmm0, %xmm0 # 0x1ef1eb4
vmovss %xmm0, 0x28(%rsp)
vshufps $0xff, %xmm1, %xmm1, %xmm0 # xmm0 = xmm1[3,3,3,3]
vmovaps %xmm0, 0x2a0(%rsp)
vmovaps %ymm5, 0x320(%rsp)
vaddps 0x260(%rsp), %ymm5, %ymm0
vmovaps %ymm0, 0x3c0(%rsp)
kmovd %ebx, %k1
vbroadcastss 0x1e6fd9(%rip), %ymm0 # 0x1eeba20
vblendmps 0x320(%rsp), %ymm0, %ymm0 {%k1}
vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm0, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1]
vminps %ymm2, %ymm1, %ymm1
vcmpeqps %ymm1, %ymm0, %k0
kmovd %k0, %eax
andb %bl, %al
movzbl %al, %eax
movzbl %bl, %ecx
cmovnel %eax, %ecx
tzcntl %ecx, %ecx
movb $0x1, %bl
shlb %cl, %bl
shll $0x2, %ecx
vmovss 0x3e0(%rsp,%rcx), %xmm10
vmovss 0x4c0(%rsp,%rcx), %xmm9
vmovaps 0x10(%r15), %xmm0
vmovaps %xmm0, 0x280(%rsp)
vdpps $0x7f, %xmm0, %xmm0, %xmm0
vucomiss 0x1e6f69(%rip), %xmm0 # 0x1eeba24
jb 0x1d04ac3
vsqrtss %xmm0, %xmm0, %xmm0
jmp 0x1d04b00
vmovaps %xmm10, 0x40(%rsp)
vmovaps %xmm9, 0x80(%rsp)
kmovw %k1, 0xa0(%rsp)
vzeroupper
callq 0x6aa20
kmovw 0xa0(%rsp), %k1
vmovaps 0x80(%rsp), %xmm9
vmovaps 0x40(%rsp), %xmm10
vxorps %xmm12, %xmm12, %xmm12
movzbl %bl, %eax
kmovd %eax, %k0
kandnb %k1, %k0, %k0
kmovd %k0, %ebx
vmulss 0x1ed39d(%rip), %xmm0, %xmm0 # 0x1ef1eb4
vmovss %xmm0, 0x2c(%rsp)
movl $0x4, %r12d
vmovaps %xmm9, 0x80(%rsp)
vbroadcastss %xmm9, %xmm0
vfmadd132ps 0x280(%rsp), %xmm12, %xmm0 # xmm0 = (xmm0 * mem) + xmm12
vmovss 0x1e7bd1(%rip), %xmm1 # 0x1eec714
vsubss %xmm10, %xmm1, %xmm4
vmulss %xmm4, %xmm4, %xmm1
vmulss %xmm1, %xmm4, %xmm1
vmulss %xmm10, %xmm10, %xmm11
vmulss %xmm11, %xmm10, %xmm2
vmovss 0x1e802a(%rip), %xmm7 # 0x1eecb8c
vmovaps %xmm7, %xmm3
vfmadd213ss %xmm2, %xmm1, %xmm3 # xmm3 = (xmm1 * xmm3) + xmm2
vmulss %xmm4, %xmm10, %xmm13
vmovaps %xmm4, 0xa0(%rsp)
vmulss %xmm4, %xmm13, %xmm4
vmulss %xmm13, %xmm10, %xmm5
vmovss 0x1ec46b(%rip), %xmm8 # 0x1ef0ff4
vmulss %xmm5, %xmm8, %xmm6
vmovss 0x1ec467(%rip), %xmm9 # 0x1ef0ffc
vfmadd231ss %xmm9, %xmm4, %xmm6 # xmm6 = (xmm4 * xmm9) + xmm6
vaddss %xmm6, %xmm3, %xmm3
vmovaps %xmm7, %xmm6
vfmadd213ss %xmm1, %xmm2, %xmm6 # xmm6 = (xmm2 * xmm6) + xmm1
vmulss %xmm4, %xmm8, %xmm4
vfmadd231ss %xmm5, %xmm9, %xmm4 # xmm4 = (xmm9 * xmm5) + xmm4
vaddss %xmm4, %xmm6, %xmm4
vmovss 0x1ec444(%rip), %xmm5 # 0x1ef1000
vmulss %xmm5, %xmm1, %xmm1
vmulss %xmm5, %xmm3, %xmm3
vmulss %xmm5, %xmm4, %xmm4
vmulss %xmm5, %xmm2, %xmm2
vbroadcastss %xmm2, %xmm2
vmulps 0x1e0(%rsp), %xmm2, %xmm2
vbroadcastss %xmm4, %xmm4
vfmadd132ps 0x220(%rsp), %xmm2, %xmm4 # xmm4 = (xmm4 * mem) + xmm2
vbroadcastss %xmm3, %xmm2
vfmadd132ps 0x200(%rsp), %xmm4, %xmm2 # xmm2 = (xmm2 * mem) + xmm4
vbroadcastss %xmm1, %xmm1
vfmadd132ps 0x240(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2
vmovaps %xmm1, 0x310(%rsp)
vsubps %xmm1, %xmm0, %xmm0
vmovaps %xmm0, 0x1c0(%rsp)
vdpps $0x7f, %xmm0, %xmm0, %xmm0
vucomiss 0x1e6df9(%rip), %xmm0 # 0x1eeba24
vmovaps %xmm10, 0x40(%rsp)
vmovaps %xmm0, 0x1a0(%rsp)
jb 0x1d04c42
vsqrtss %xmm0, %xmm0, %xmm7
jmp 0x1d04c71
vmovss %xmm11, 0x60(%rsp)
vmovss %xmm13, 0x8(%rsp)
vzeroupper
callq 0x6aa20
vmovss 0x8(%rsp), %xmm13
vmovss 0x60(%rsp), %xmm11
vmovaps 0x40(%rsp), %xmm10
vxorps %xmm12, %xmm12, %xmm12
vmovaps %xmm0, %xmm7
vmovaps 0xa0(%rsp), %xmm3
vbroadcastss %xmm3, %xmm1
vbroadcastss 0x21c238(%rip), %xmm4 # 0x1f20ec0
vmovaps %xmm1, 0x300(%rsp)
vxorps %xmm4, %xmm1, %xmm0
vmulss %xmm0, %xmm3, %xmm0
vmulss 0x1e7eeb(%rip), %xmm13, %xmm1 # 0x1eecb8c
vmovaps %xmm10, %xmm2
vfnmsub213ss %xmm1, %xmm10, %xmm2 # xmm2 = -(xmm10 * xmm2) - xmm1
vfmadd231ss %xmm3, %xmm3, %xmm1 # xmm1 = (xmm3 * xmm3) + xmm1
vmovss 0x1e7ec9(%rip), %xmm3 # 0x1eecb80
vmulss %xmm3, %xmm0, %xmm0
vmulss %xmm3, %xmm2, %xmm2
vmulss %xmm3, %xmm1, %xmm1
vmulss %xmm3, %xmm11, %xmm3
vbroadcastss %xmm3, %xmm3
vmulps 0x1e0(%rsp), %xmm3, %xmm3
vbroadcastss %xmm1, %xmm1
vfmadd132ps 0x220(%rsp), %xmm3, %xmm1 # xmm1 = (xmm1 * mem) + xmm3
vbroadcastss %xmm2, %xmm2
vfmadd132ps 0x200(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1
vbroadcastss %xmm0, %xmm14
vfmadd132ps 0x240(%rsp), %xmm2, %xmm14 # xmm14 = (xmm14 * mem) + xmm2
vdpps $0x7f, %xmm14, %xmm14, %xmm0
vmovss %xmm0, %xmm12, %xmm1 # xmm1 = xmm0[0],xmm12[1,2,3]
vrsqrt14ss %xmm1, %xmm12, %xmm3
vmulss 0x1e79fe(%rip), %xmm3, %xmm5 # 0x1eec718
vmulss 0x1e79fa(%rip), %xmm0, %xmm6 # 0x1eec71c
vrcp14ss %xmm1, %xmm12, %xmm2
vxorps %xmm4, %xmm0, %xmm1
vmovaps %xmm2, 0x2e0(%rsp)
vfnmadd213ss 0x1ec2ba(%rip), %xmm0, %xmm2 # xmm2 = -(xmm0 * xmm2) + mem
vmovss %xmm2, 0x30(%rsp)
vucomiss %xmm1, %xmm0
vmovaps %xmm14, 0x60(%rsp)
vmovss %xmm7, 0x8(%rsp)
vmovaps %xmm0, 0x2f0(%rsp)
jb 0x1d04d67
vsqrtss %xmm0, %xmm0, %xmm16
jmp 0x1d04db6
vmovaps %xmm3, 0xe0(%rsp)
vmovss %xmm5, 0xd0(%rsp)
vmovss %xmm6, 0xc(%rsp)
vzeroupper
callq 0x6aa20
vmovss 0xc(%rsp), %xmm6
vmovss 0xd0(%rsp), %xmm5
vmovaps 0xe0(%rsp), %xmm3
vmovss 0x8(%rsp), %xmm7
vmovaps 0x60(%rsp), %xmm14
vxorps %xmm12, %xmm12, %xmm12
vmovaps %xmm0, %xmm16
vmovaps 0x1c0(%rsp), %xmm11
vmovaps 0x1a0(%rsp), %xmm13
vmulss %xmm3, %xmm6, %xmm0
vmulss %xmm3, %xmm3, %xmm1
vmulss %xmm1, %xmm0, %xmm0
vaddss %xmm0, %xmm5, %xmm0
vbroadcastss %xmm0, %xmm4
vmulps %xmm4, %xmm14, %xmm0
vmovaps %xmm0, 0xd0(%rsp)
vdpps $0x7f, %xmm0, %xmm11, %xmm0
vaddss 0x1e791c(%rip), %xmm7, %xmm15 # 0x1eec714
vmovaps %xmm0, 0xe0(%rsp)
vmulps %xmm0, %xmm0, %xmm0
vsubps %xmm0, %xmm13, %xmm0
vmovss %xmm0, %xmm12, %xmm1 # xmm1 = xmm0[0],xmm12[1,2,3]
vrsqrt14ss %xmm1, %xmm12, %xmm18
vmulss 0x1e78fb(%rip), %xmm18, %xmm17 # 0x1eec718
vmulss 0x1e78f5(%rip), %xmm0, %xmm19 # 0x1eec71c
vucomiss 0x1e6bf5(%rip), %xmm0 # 0x1eeba24
jb 0x1d04e3a
vsqrtss %xmm0, %xmm0, %xmm0
jmp 0x1d04ebe
vmovss %xmm15, 0xc(%rsp)
vmovss %xmm16, 0x24(%rsp)
vmovss %xmm17, 0x20(%rsp)
vmovaps %xmm18, 0x2d0(%rsp)
vmovss %xmm19, 0x1c(%rsp)
vmovaps %xmm4, 0x2c0(%rsp)
vzeroupper
callq 0x6aa20
vmovaps 0x2c0(%rsp), %xmm4
vmovss 0x1c(%rsp), %xmm19
vmovaps 0x2d0(%rsp), %xmm18
vmovss 0x20(%rsp), %xmm17
vmovss 0x24(%rsp), %xmm16
vmovss 0xc(%rsp), %xmm15
vmovss 0x8(%rsp), %xmm7
vmovaps 0x60(%rsp), %xmm14
vmovaps 0x1a0(%rsp), %xmm13
vmovaps 0x1c0(%rsp), %xmm11
vbroadcastss 0x21bffd(%rip), %xmm8 # 0x1f20ec4
vmovaps 0x40(%rsp), %xmm10
vmovaps 0x80(%rsp), %xmm9
vmovss 0x1ebafe(%rip), %xmm2 # 0x1ef09dc
vmovaps %xmm2, %xmm1
vmovaps 0xa0(%rsp), %xmm3
vfmadd213ss %xmm10, %xmm3, %xmm1 # xmm1 = (xmm3 * xmm1) + xmm10
vfmadd231ss %xmm2, %xmm10, %xmm3 # xmm3 = (xmm10 * xmm2) + xmm3
vbroadcastss %xmm10, %xmm2
vmulps 0x1e0(%rsp), %xmm2, %xmm2
vbroadcastss %xmm3, %xmm3
vfmadd132ps 0x220(%rsp), %xmm2, %xmm3 # xmm3 = (xmm3 * mem) + xmm2
vbroadcastss %xmm1, %xmm1
vfmadd132ps 0x200(%rsp), %xmm3, %xmm1 # xmm1 = (xmm1 * mem) + xmm3
vmovaps 0x300(%rsp), %xmm2
vfmadd132ps 0x240(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1
vbroadcastss 0x2f0(%rsp), %xmm1
vmulps %xmm1, %xmm2, %xmm1
vdpps $0x7f, %xmm2, %xmm14, %xmm2
vbroadcastss %xmm2, %xmm2
vmulps %xmm2, %xmm14, %xmm2
vsubps %xmm2, %xmm1, %xmm1
vmovss 0x30(%rsp), %xmm2
vmulss 0x2e0(%rsp), %xmm2, %xmm2
vmulss 0x2c(%rsp), %xmm9, %xmm3
vbroadcastss %xmm2, %xmm2
vmulps %xmm2, %xmm1, %xmm1
vxorps 0x21bf43(%rip){1to4}, %xmm14, %xmm2 # 0x1f20ec0
vmulps %xmm1, %xmm4, %xmm4
vmovaps 0xd0(%rsp), %xmm12
vdpps $0x7f, %xmm12, %xmm2, %xmm5
vmovss 0x28(%rsp), %xmm6
vmaxss %xmm3, %xmm6, %xmm1
vdivss %xmm16, %xmm6, %xmm3
vdpps $0x7f, %xmm4, %xmm11, %xmm4
vfmadd213ss %xmm1, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm7) + xmm1
vfmadd213ss %xmm7, %xmm3, %xmm15 # xmm15 = (xmm3 * xmm15) + xmm7
vmovaps 0x280(%rsp), %xmm7
vdpps $0x7f, %xmm12, %xmm7, %xmm3
vaddss %xmm4, %xmm5, %xmm4
vdpps $0x7f, %xmm2, %xmm11, %xmm5
vmulss %xmm18, %xmm19, %xmm2
vmulss %xmm18, %xmm18, %xmm6
vmulss %xmm6, %xmm2, %xmm2
vdpps $0x7f, %xmm7, %xmm11, %xmm6
vaddss %xmm2, %xmm17, %xmm7
vmovaps 0xe0(%rsp), %xmm16
vfnmadd231ss %xmm4, %xmm16, %xmm5 # xmm5 = -(xmm16 * xmm4) + xmm5
vfnmadd231ss %xmm3, %xmm16, %xmm6 # xmm6 = -(xmm16 * xmm3) + xmm6
vpermilps $0xff, 0x310(%rsp), %xmm2 # xmm2 = mem[3,3,3,3]
vsubss %xmm2, %xmm0, %xmm2
vshufps $0xff, %xmm14, %xmm14, %xmm0 # xmm0 = xmm14[3,3,3,3]
vfmsub213ss %xmm0, %xmm7, %xmm5 # xmm5 = (xmm7 * xmm5) - xmm0
vmulss %xmm7, %xmm6, %xmm6
vmulss %xmm5, %xmm3, %xmm7
vfmsub231ss %xmm6, %xmm4, %xmm7 # xmm7 = (xmm4 * xmm6) - xmm7
vdivss %xmm7, %xmm6, %xmm6
vdivss %xmm7, %xmm5, %xmm5
vdivss %xmm7, %xmm3, %xmm3
vdivss %xmm7, %xmm4, %xmm4
vmulss %xmm6, %xmm16, %xmm6
vmulss %xmm3, %xmm2, %xmm3
vsubss %xmm3, %xmm6, %xmm3
vmulss %xmm5, %xmm16, %xmm5
vmulss %xmm4, %xmm2, %xmm4
vsubss %xmm5, %xmm4, %xmm4
vsubss %xmm3, %xmm10, %xmm10
vsubss %xmm4, %xmm9, %xmm9
vandps %xmm8, %xmm16, %xmm3
vucomiss %xmm3, %xmm15
jbe 0x1d051cd
vaddss %xmm1, %xmm15, %xmm1
vmovaps 0x2a0(%rsp), %xmm3
vfmadd231ss 0x1ece3a(%rip), %xmm3, %xmm1 # xmm1 = (xmm3 * mem) + xmm1
vandps %xmm2, %xmm8, %xmm2
vucomiss %xmm2, %xmm1
vxorps %xmm12, %xmm12, %xmm12
jbe 0x1d051d7
vaddss 0x2b0(%rsp), %xmm9, %xmm9
vucomiss 0xc(%r15), %xmm9
movb $0x1, %r14b
jb 0x1d051da
vmovss 0x20(%r15), %xmm4
vucomiss %xmm9, %xmm4
jb 0x1d051da
vucomiss 0x1e6966(%rip), %xmm10 # 0x1eeba24
jb 0x1d051da
vmovss 0x1e7648(%rip), %xmm1 # 0x1eec714
vucomiss %xmm10, %xmm1
jb 0x1d051da
vmovss %xmm13, %xmm12, %xmm1
vrsqrt14ss %xmm1, %xmm12, %xmm1
vmulss 0x1e762f(%rip), %xmm1, %xmm2 # 0x1eec718
vmulss 0x1e762b(%rip), %xmm13, %xmm3 # 0x1eec71c
movq (%r13), %rax
movq 0x1e8(%rax), %rax
movq %r13, %rcx
movq 0x38(%rsp), %rdx
movq (%rax,%rdx,8), %r13
movl 0x24(%r15), %eax
testl %eax, 0x34(%r13)
je 0x1d051f7
vmulss %xmm1, %xmm3, %xmm3
vmulss %xmm1, %xmm1, %xmm1
vmulss %xmm1, %xmm3, %xmm1
vaddss %xmm1, %xmm2, %xmm1
vbroadcastss %xmm1, %xmm1
vmulps %xmm1, %xmm11, %xmm1
vfmadd213ps %xmm14, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm0) + xmm14
vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm14, %xmm14, %xmm3 # xmm3 = xmm14[1,2,0,3]
vmulps %xmm3, %xmm1, %xmm1
vfmsub231ps %xmm2, %xmm14, %xmm1 # xmm1 = (xmm14 * xmm2) - xmm1
vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3]
vshufps $0xd2, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,0,1,3]
vmulps %xmm1, %xmm0, %xmm0
vfmsub231ps %xmm3, %xmm2, %xmm0 # xmm0 = (xmm2 * xmm3) - xmm0
movq 0x10(%rcx), %rax
cmpq $0x0, 0x10(%rax)
jne 0x1d051fc
cmpq $0x0, 0x40(%r13)
jne 0x1d051fc
vmovss %xmm9, 0x20(%r15)
vshufps $0xe9, %xmm0, %xmm0, %xmm1 # xmm1 = xmm0[1,2,2,3]
vmovlps %xmm1, 0x30(%r15)
vmovss %xmm0, 0x38(%r15)
vmovss %xmm10, 0x3c(%r15)
movl $0x0, 0x40(%r15)
movq 0x78(%rsp), %rax
movl %eax, 0x44(%r15)
movq 0x38(%rsp), %rax
movl %eax, 0x48(%r15)
movq 0x10(%rsp), %r13
movq 0x8(%r13), %rax
movl (%rax), %eax
movl %eax, 0x4c(%r15)
movq 0x8(%r13), %rax
movl 0x4(%rax), %eax
movl %eax, 0x50(%r15)
jmp 0x1d051da
xorl %r14d, %r14d
vxorps %xmm12, %xmm12, %xmm12
jmp 0x1d051da
xorl %r14d, %r14d
subq $0x1, %r12
setb %al
testb %r14b, %r14b
jne 0x1d053cd
testb %al, %al
je 0x1d04b23
jmp 0x1d053cd
movq %rcx, %r13
jmp 0x1d051da
movq 0x10(%rsp), %rdx
movq 0x8(%rdx), %rax
vshufps $0xe9, %xmm0, %xmm0, %xmm1 # xmm1 = xmm0[1,2,2,3]
vmovlps %xmm1, 0x150(%rsp)
vmovss %xmm0, 0x158(%rsp)
vmovss %xmm10, 0x15c(%rsp)
movl $0x0, 0x160(%rsp)
movq 0x78(%rsp), %rcx
movl %ecx, 0x164(%rsp)
movq 0x38(%rsp), %rcx
movl %ecx, 0x168(%rsp)
movl (%rax), %ecx
movl %ecx, 0x16c(%rsp)
movl 0x4(%rax), %eax
movl %eax, 0x170(%rsp)
vmovss %xmm9, 0x20(%r15)
movl $0xffffffff, 0x34(%rsp) # imm = 0xFFFFFFFF
leaq 0x34(%rsp), %rax
movq %rax, 0x100(%rsp)
movq 0x18(%r13), %rax
movq %rax, 0x108(%rsp)
movq 0x8(%rdx), %rax
movq %rax, 0x110(%rsp)
movq %r15, 0x118(%rsp)
leaq 0x150(%rsp), %rax
movq %rax, 0x120(%rsp)
movl $0x1, 0x128(%rsp)
movq 0x40(%r13), %rax
testq %rax, %rax
vmovaps %xmm10, 0x40(%rsp)
vmovaps %xmm9, 0x80(%rsp)
vmovss %xmm4, 0xa0(%rsp)
je 0x1d0530d
leaq 0x100(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0xa0(%rsp), %xmm4
vmovaps 0x80(%rsp), %xmm9
vmovaps 0x40(%rsp), %xmm10
vxorps %xmm12, %xmm12, %xmm12
movq 0x100(%rsp), %rax
cmpl $0x0, (%rax)
je 0x1d053bd
movq 0x10(%rsp), %rax
movq 0x10(%rax), %rcx
movq 0x10(%rcx), %rax
testq %rax, %rax
je 0x1d05362
testb $0x2, (%rcx)
jne 0x1d0532b
testb $0x40, 0x3e(%r13)
je 0x1d05355
leaq 0x100(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0xa0(%rsp), %xmm4
vmovaps 0x80(%rsp), %xmm9
vmovaps 0x40(%rsp), %xmm10
vxorps %xmm12, %xmm12, %xmm12
movq 0x100(%rsp), %rax
cmpl $0x0, (%rax)
je 0x1d053bd
movq 0x118(%rsp), %rax
movq 0x120(%rsp), %rcx
vmovss (%rcx), %xmm0
vmovss %xmm0, 0x30(%rax)
vmovss 0x4(%rcx), %xmm0
vmovss %xmm0, 0x34(%rax)
vmovss 0x8(%rcx), %xmm0
vmovss %xmm0, 0x38(%rax)
vmovss 0xc(%rcx), %xmm0
vmovss %xmm0, 0x3c(%rax)
vmovss 0x10(%rcx), %xmm0
vmovss %xmm0, 0x40(%rax)
movl 0x14(%rcx), %edx
movl %edx, 0x44(%rax)
movl 0x18(%rcx), %edx
movl %edx, 0x48(%rax)
movl 0x1c(%rcx), %edx
movl %edx, 0x4c(%rax)
movl 0x20(%rcx), %ecx
movl %ecx, 0x50(%rax)
jmp 0x1d053c3
vmovss %xmm4, 0x20(%r15)
movq 0x10(%rsp), %r13
jmp 0x1d051da
vmovaps 0x3c0(%rsp), %ymm0
vcmpleps 0x20(%r15){1to8}, %ymm0, %k0
kmovd %k0, %eax
andb %al, %bl
jne 0x1d04a3a
vmovdqa 0x420(%rsp), %ymm1
vpcmpltd 0x340(%rsp), %ymm1, %k1
vmovaps 0x460(%rsp), %ymm0
vpcmpltd 0x4e0(%rsp), %ymm1, %k2
vmovaps 0x260(%rsp), %ymm7
vaddps %ymm0, %ymm7, %ymm1
vbroadcastss 0x20(%r15), %ymm2
vcmpleps %ymm2, %ymm1, %k0 {%k2}
kmovd %k0, %eax
movl 0x138(%rsp), %ecx
andb %al, %cl
vmovaps 0x4a0(%rsp), %ymm1
vaddps %ymm1, %ymm7, %ymm3
vcmpleps %ymm2, %ymm3, %k0 {%k1}
kmovd %k0, %eax
movl 0x18(%rsp), %edx
andb %al, %dl
orb %cl, %dl
je 0x1d054ed
movq 0xf8(%rsp), %r8
movl %r8d, %eax
leaq (%rax,%rax,2), %rax
shlq $0x5, %rax
movb %dl, 0x740(%rsp,%rax)
kmovd %ecx, %k1
vmovaps %ymm0, %ymm1 {%k1}
vmovaps %ymm1, 0x760(%rsp,%rax)
vmovaps 0x140(%rsp), %xmm4
vmovlps %xmm4, 0x780(%rsp,%rax)
movq 0x190(%rsp), %r11
leal 0x1(%r11), %ecx
movl %ecx, 0x788(%rsp,%rax)
incl %r8d
movq 0x188(%rsp), %r9
vbroadcastss 0x1e7253(%rip), %ymm3 # 0x1eec714
movq 0x198(%rsp), %r10
jmp 0x1d03c70
vbroadcastss 0x1e723d(%rip), %ymm3 # 0x1eec714
vmovaps 0x260(%rsp), %ymm7
movq 0xf8(%rsp), %r8
jmp 0x1d03c67
movq 0x188(%rsp), %r9
vbroadcastss 0x1e7216(%rip), %ymm3 # 0x1eec714
movq 0x198(%rsp), %r10
movq 0xf8(%rsp), %r8
movq 0x190(%rsp), %r11
jmp 0x1d03c67
vcmpleps 0x21b9da(%rip), %ymm4, %k2 # 0x1f20f00
vbroadcastss 0x1e7655(%rip), %ymm4 # 0x1eecb84
vbroadcastss 0x1e64e7(%rip), %ymm16 # 0x1eeba20
vblendmps %ymm4, %ymm16, %ymm3 {%k2}
vmovaps %ymm3, %ymm31 {%k1}
vblendmps %ymm16, %ymm4, %ymm3 {%k2}
kmovd %k2, %ecx
vmovaps %ymm3, %ymm30 {%k1}
knotb %k1, %k0
kmovd %k0, %edx
orb %cl, %dl
andb %al, %dl
movl %edx, %eax
jmp 0x1d0380e
vmovaps 0x500(%rsp), %ymm0
vcmpleps 0x20(%r15){1to8}, %ymm0, %k0
kmovb %k0, %eax
andl %eax, %r10d
jne 0x1d02f5c
leaq -0x28(%rbp), %rsp
popq %rbx
popq %r12
popq %r13
popq %r14
popq %r15
popq %rbp
vzeroupper
retq
|
/embree[P]embree/kernels/geometry/curveNi_intersector.h
|
bool embree::avx512::CurveNiIntersector1<8>::occluded_t<embree::avx512::SweepCurve1Intersector1<embree::BSplineCurveT>, embree::avx512::Occluded1Epilog1<true>>(embree::avx512::CurvePrecalculations1 const&, embree::RayK<1>&, embree::RayQueryContext*, embree::CurveNi<8> const&)
|
static __forceinline bool occluded_t(const Precalculations& pre, Ray& ray, RayQueryContext* context, const Primitive& prim)
{
vfloat<M> tNear;
vbool<M> valid = intersect(ray,prim,tNear);
const size_t N = prim.N;
size_t mask = movemask(valid);
while (mask)
{
const size_t i = bscf(mask);
STAT3(shadow.trav_prims,1,1,1);
const unsigned int geomID = prim.geomID(N);
const unsigned int primID = prim.primID(N)[i];
const CurveGeometry* geom = context->scene->get<CurveGeometry>(geomID);
Vec3ff a0,a1,a2,a3; geom->gather(a0,a1,a2,a3,geom->curve(primID));
size_t mask1 = mask;
const size_t i1 = bscf(mask1);
if (mask) {
const unsigned int primID1 = prim.primID(N)[i1];
geom->prefetchL1_vertices(geom->curve(primID1));
if (mask1) {
const size_t i2 = bsf(mask1);
const unsigned int primID2 = prim.primID(N)[i2];
geom->prefetchL2_vertices(geom->curve(primID2));
}
}
if (Intersector().intersect(pre,ray,context,geom,primID,a0,a1,a2,a3,Epilog(ray,context,geomID,primID)))
return true;
mask &= movemask(tNear <= vfloat<M>(ray.tfar));
}
return false;
}
|
pushq %rbp
movq %rsp, %rbp
pushq %r15
pushq %r14
pushq %r13
pushq %r12
pushq %rbx
andq $-0x20, %rsp
subq $0x8c0, %rsp # imm = 0x8C0
movq %rcx, %r9
movq %rsi, %r15
movzbl 0x1(%rcx), %eax
leaq (%rax,%rax,4), %rcx
leaq (%rcx,%rcx,4), %rsi
vbroadcastss 0x12(%r9,%rsi), %xmm0
vmovaps (%r15), %xmm1
vsubps 0x6(%r9,%rsi), %xmm1, %xmm1
vmulps 0x10(%r15), %xmm0, %xmm2
vmulps %xmm1, %xmm0, %xmm3
vpmovsxbd 0x6(%r9,%rax,4), %ymm0
vcvtdq2ps %ymm0, %ymm5
vpmovsxbd 0x6(%r9,%rcx), %ymm0
vcvtdq2ps %ymm0, %ymm6
leaq (%rax,%rax,2), %r8
vpmovsxbd 0x6(%r9,%r8,2), %ymm0
vcvtdq2ps %ymm0, %ymm7
leaq (%rax,%rcx,2), %rsi
vpmovsxbd 0x6(%r9,%rsi), %ymm0
vcvtdq2ps %ymm0, %ymm8
leal (,%r8,4), %esi
vpmovsxbd 0x6(%r9,%rsi), %ymm0
vcvtdq2ps %ymm0, %ymm9
addq %rax, %rsi
vpmovsxbd 0x6(%r9,%rsi), %ymm0
vcvtdq2ps %ymm0, %ymm10
leaq (%rax,%rax,8), %rsi
leal (%rsi,%rsi), %edi
vpmovsxbd 0x6(%r9,%rdi), %ymm0
addq %rax, %rdi
vpmovsxbd 0x6(%r9,%rdi), %ymm1
vcvtdq2ps %ymm0, %ymm11
vcvtdq2ps %ymm1, %ymm12
shll $0x2, %ecx
vpmovsxbd 0x6(%r9,%rcx), %ymm0
vcvtdq2ps %ymm0, %ymm13
vbroadcastss %xmm2, %ymm14
vbroadcastss 0x20d093(%rip), %ymm16 # 0x1f12704
vpermps %ymm2, %ymm16, %ymm15
vbroadcastss 0x21b85b(%rip), %ymm17 # 0x1f20edc
vpermps %ymm2, %ymm17, %ymm0
vmulps %ymm7, %ymm0, %ymm4
vmulps %ymm0, %ymm10, %ymm1
vmulps %ymm0, %ymm13, %ymm0
vfmadd231ps %ymm6, %ymm15, %ymm4 # ymm4 = (ymm15 * ymm6) + ymm4
vfmadd231ps %ymm9, %ymm15, %ymm1 # ymm1 = (ymm15 * ymm9) + ymm1
vfmadd231ps %ymm15, %ymm12, %ymm0 # ymm0 = (ymm12 * ymm15) + ymm0
vfmadd231ps %ymm5, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm5) + ymm4
vfmadd231ps %ymm8, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm8) + ymm1
vfmadd231ps %ymm14, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm14) + ymm0
vbroadcastss %xmm3, %ymm14
vpermps %ymm3, %ymm16, %ymm15
vpermps %ymm3, %ymm17, %ymm2
vmulps %ymm7, %ymm2, %ymm7
vmulps %ymm2, %ymm10, %ymm3
vmulps %ymm2, %ymm13, %ymm2
vfmadd231ps %ymm6, %ymm15, %ymm7 # ymm7 = (ymm15 * ymm6) + ymm7
vfmadd231ps %ymm9, %ymm15, %ymm3 # ymm3 = (ymm15 * ymm9) + ymm3
vfmadd231ps %ymm12, %ymm15, %ymm2 # ymm2 = (ymm15 * ymm12) + ymm2
vfmadd231ps %ymm5, %ymm14, %ymm7 # ymm7 = (ymm14 * ymm5) + ymm7
vfmadd231ps %ymm8, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm8) + ymm3
vfmadd231ps %ymm11, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm11) + ymm2
vbroadcastss 0x21b7ce(%rip), %ymm28 # 0x1f20ec4
vandps %ymm28, %ymm4, %ymm5
vbroadcastss 0x1eb8e3(%rip), %ymm6 # 0x1ef0fe8
vcmpltps %ymm6, %ymm5, %k1
vmovaps %ymm6, %ymm4 {%k1}
vandps %ymm28, %ymm1, %ymm5
vcmpltps %ymm6, %ymm5, %k1
vmovaps %ymm6, %ymm1 {%k1}
vandps %ymm28, %ymm0, %ymm5
vcmpltps %ymm6, %ymm5, %k1
vmovaps %ymm6, %ymm0 {%k1}
vrcp14ps %ymm4, %ymm5
vbroadcastss 0x1e6fcd(%rip), %ymm6 # 0x1eec714
vfnmadd213ps %ymm6, %ymm5, %ymm4 # ymm4 = -(ymm5 * ymm4) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm4 # ymm4 = (ymm4 * ymm5) + ymm5
vrcp14ps %ymm1, %ymm5
vfnmadd213ps %ymm6, %ymm5, %ymm1 # ymm1 = -(ymm5 * ymm1) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm1 # ymm1 = (ymm1 * ymm5) + ymm5
vrcp14ps %ymm0, %ymm5
vfnmadd213ps %ymm6, %ymm5, %ymm0 # ymm0 = -(ymm5 * ymm0) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm0 # ymm0 = (ymm0 * ymm5) + ymm5
leaq (,%rax,8), %rdi
subq %rax, %rdi
vpmovsxwd 0x6(%r9,%rdi), %ymm5
vcvtdq2ps %ymm5, %ymm5
vsubps %ymm7, %ymm5, %ymm5
vpmovsxwd 0x6(%r9,%rsi), %ymm6
vmulps %ymm5, %ymm4, %ymm5
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm7, %ymm6, %ymm6
vmulps %ymm6, %ymm4, %ymm4
leaq (%rax,%rax), %rsi
addq %rax, %rcx
shlq $0x3, %r8
subq %rax, %r8
movl %eax, %edi
shll $0x4, %edi
vpmovsxwd 0x6(%r9,%rdi), %ymm6
subq %rsi, %rdi
vpmovsxwd 0x6(%r9,%rdi), %ymm7
vcvtdq2ps %ymm7, %ymm7
vsubps %ymm3, %ymm7, %ymm7
vmulps %ymm7, %ymm1, %ymm7
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm3, %ymm6, %ymm3
vmulps %ymm3, %ymm1, %ymm1
vpmovsxwd 0x6(%r9,%rcx), %ymm3
vcvtdq2ps %ymm3, %ymm3
vsubps %ymm2, %ymm3, %ymm3
vmulps %ymm0, %ymm3, %ymm3
vpmovsxwd 0x6(%r9,%r8), %ymm6
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm2, %ymm6, %ymm2
vmulps %ymm2, %ymm0, %ymm0
vpminsd %ymm4, %ymm5, %ymm2
vpminsd %ymm1, %ymm7, %ymm6
vmaxps %ymm6, %ymm2, %ymm2
vpminsd %ymm0, %ymm3, %ymm6
vmaxps 0xc(%r15){1to8}, %ymm6, %ymm6
vmaxps %ymm6, %ymm2, %ymm2
vmulps 0x21a6e4(%rip){1to8}, %ymm2, %ymm6 # 0x1f1ff10
vpmaxsd %ymm4, %ymm5, %ymm2
vpmaxsd %ymm1, %ymm7, %ymm1
vminps %ymm1, %ymm2, %ymm1
vpmaxsd %ymm0, %ymm3, %ymm0
vminps 0x20(%r15){1to8}, %ymm0, %ymm0
vminps %ymm0, %ymm1, %ymm0
vmulps 0x21a6c0(%rip){1to8}, %ymm0, %ymm0 # 0x1f1ff14
vpbroadcastd %eax, %ymm1
vpcmpgtd 0x2550bc(%rip), %ymm1, %k0 # 0x1f5a920
vmovaps %ymm6, 0x540(%rsp)
vcmpleps %ymm0, %ymm6, %k1
ktestb %k0, %k1
setne %al
je 0x1d07d99
kandb %k0, %k1, %k0
kmovd %k0, %ecx
movzbl %cl, %r14d
movq %r9, 0x1a8(%rsp)
movq %rdx, 0x18(%rsp)
tzcntq %r14, %rcx
movl 0x2(%r9), %esi
movl 0x6(%r9,%rcx,4), %r12d
movq (%rdx), %rcx
movq 0x1e8(%rcx), %rcx
movq %rsi, 0x98(%rsp)
movq (%rcx,%rsi,8), %rsi
movq 0x58(%rsi), %r11
movq 0x68(%rsi), %rcx
movq %rcx, %rdi
imulq %r12, %rdi
movl (%r11,%rdi), %edi
movq 0xa0(%rsi), %r10
movq %r10, %r8
imulq %rdi, %r8
movq 0x90(%rsi), %rsi
vmovaps (%rsi,%r8), %xmm1
leaq 0x1(%rdi), %r8
imulq %r10, %r8
vmovaps (%rsi,%r8), %xmm0
leaq 0x2(%rdi), %r8
imulq %r10, %r8
vmovaps (%rsi,%r8), %xmm3
blsrq %r14, %r14
addq $0x3, %rdi
imulq %r10, %rdi
vmovaps (%rsi,%rdi), %xmm2
movq %r14, %rdi
subq $0x1, %rdi
jb 0x1d0596d
andq %r14, %rdi
tzcntq %r14, %r8
movl 0x6(%r9,%r8,4), %r8d
imulq %rcx, %r8
movl (%r11,%r8), %r8d
imulq %r10, %r8
prefetcht0 (%rsi,%r8)
prefetcht0 0x40(%rsi,%r8)
testq %rdi, %rdi
je 0x1d0596d
tzcntq %rdi, %rdi
movl 0x6(%r9,%rdi,4), %edi
imulq %rdi, %rcx
movl (%r11,%rcx), %ecx
imulq %rcx, %r10
prefetcht1 (%rsi,%r10)
prefetcht1 0x40(%rsi,%r10)
vaddps %xmm0, %xmm1, %xmm4
vaddps %xmm3, %xmm4, %xmm4
vaddps %xmm2, %xmm4, %xmm5
vmovaps (%r15), %xmm6
vmovaps 0x10(%r15), %xmm4
vmulps 0x21796e(%rip){1to4}, %xmm5, %xmm5 # 0x1f1d2fc
vsubps %xmm6, %xmm5, %xmm5
vdpps $0x7f, %xmm4, %xmm5, %xmm5
vdpps $0x7f, %xmm4, %xmm4, %xmm7
vxorps %xmm10, %xmm10, %xmm10
vmovss %xmm7, %xmm10, %xmm8 # xmm8 = xmm7[0],xmm10[1,2,3]
vrcp14ss %xmm8, %xmm10, %xmm8
vmovaps %xmm8, %xmm9
vfnmadd213ss 0x1eb63d(%rip), %xmm7, %xmm9 # xmm9 = -(xmm7 * xmm9) + mem
vmulss %xmm9, %xmm8, %xmm7
vmulss %xmm7, %xmm5, %xmm5
vmovaps %xmm5, 0x2f0(%rsp)
vbroadcastss %xmm5, %ymm5
vmovaps %ymm5, 0x1c0(%rsp)
vfmadd231ps %xmm5, %xmm4, %xmm6 # xmm6 = (xmm4 * xmm5) + xmm6
vblendps $0x8, %xmm10, %xmm6, %xmm5 # xmm5 = xmm6[0,1,2],xmm10[3]
vsubps %xmm5, %xmm1, %xmm6
vsubps %xmm5, %xmm3, %xmm3
vbroadcastss 0x10(%r15), %ymm8
vbroadcastss 0x14(%r15), %ymm9
vbroadcastss 0x18(%r15), %ymm1
vmovaps %ymm1, 0x440(%rsp)
vsubps %xmm5, %xmm0, %xmm7
vsubps %xmm5, %xmm2, %xmm5
vbroadcastss %xmm6, %ymm18
vbroadcastss 0x20cce4(%rip), %ymm0 # 0x1f12704
vpermps %ymm6, %ymm0, %ymm16
vbroadcastss 0x21b4ad(%rip), %ymm1 # 0x1f20edc
vpermps %ymm6, %ymm1, %ymm17
vbroadcastss 0x21b49a(%rip), %ymm2 # 0x1f20ed8
vmovaps %ymm6, 0x280(%rsp)
vpermps %ymm6, %ymm2, %ymm6
vmovaps %ymm6, 0x760(%rsp)
vbroadcastss %xmm7, %ymm19
vpermps %ymm7, %ymm0, %ymm20
vpermps %ymm7, %ymm1, %ymm22
vmovaps %ymm7, 0x240(%rsp)
vpermps %ymm7, %ymm2, %ymm23
vbroadcastss %xmm3, %ymm24
vpermps %ymm3, %ymm0, %ymm25
vpermps %ymm3, %ymm1, %ymm27
vmovaps %ymm3, 0x260(%rsp)
vpermps %ymm3, %ymm2, %ymm29
vbroadcastss %xmm5, %ymm31
vpermps %ymm5, %ymm0, %ymm21
vpermps %ymm5, %ymm1, %ymm6
vmovaps %ymm5, 0x220(%rsp)
vpermps %ymm5, %ymm2, %ymm30
vmulps %xmm4, %xmm4, %xmm0
vpermps %ymm0, %ymm1, %ymm2
vmovaps %ymm9, 0x460(%rsp)
vfmadd231ps %ymm9, %ymm9, %ymm2 # ymm2 = (ymm9 * ymm9) + ymm2
vmovaps %ymm8, 0x480(%rsp)
vfmadd231ps %ymm8, %ymm8, %ymm2 # ymm2 = (ymm8 * ymm8) + ymm2
vandps %ymm28, %ymm2, %ymm0
vmovaps %ymm0, 0x420(%rsp)
movl $0x1, %ecx
movq %rcx, 0xf8(%rsp)
xorl %r11d, %r11d
xorl %ebx, %ebx
vmovsd 0x1e6beb(%rip), %xmm1 # 0x1eec6f0
vbroadcastss 0x1e6c06(%rip), %ymm3 # 0x1eec714
vmovaps %ymm2, 0x740(%rsp)
vmovaps %ymm18, 0x720(%rsp)
vmovaps %ymm16, 0x700(%rsp)
vmovaps %ymm17, 0x6e0(%rsp)
vmovaps %ymm19, 0x6c0(%rsp)
vmovaps %ymm20, 0x6a0(%rsp)
vmovaps %ymm22, 0x680(%rsp)
vmovaps %ymm23, 0x660(%rsp)
vmovaps %ymm24, 0x640(%rsp)
vmovaps %ymm25, 0x620(%rsp)
vmovaps %ymm27, 0x600(%rsp)
vmovaps %ymm29, 0x5e0(%rsp)
vmovaps %ymm31, 0x5c0(%rsp)
vmovaps %ymm21, 0x5a0(%rsp)
vmovaps %ymm6, 0x580(%rsp)
vmovaps %ymm30, 0x560(%rsp)
vmovshdup %xmm1, %xmm0 # xmm0 = xmm1[1,1,3,3]
vsubss %xmm1, %xmm0, %xmm0
vmulss 0x21b330(%rip), %xmm0, %xmm2 # 0x1f20ed0
vmovaps %xmm2, 0x60(%rsp)
vmovaps %xmm1, 0x2d0(%rsp)
vbroadcastss %xmm1, %ymm4
vbroadcastss %xmm0, %ymm0
vmovaps %ymm4, 0x40(%rsp)
vmovaps %ymm0, 0x200(%rsp)
vfmadd231ps 0x21b34f(%rip), %ymm0, %ymm4 # ymm4 = (ymm0 * mem) + ymm4
vsubps %ymm4, %ymm3, %ymm7
vmulps %ymm7, %ymm7, %ymm8
vmulps %ymm7, %ymm8, %ymm0
vbroadcastss 0x1e6fa5(%rip), %ymm26 # 0x1eecb8c
vmulps %ymm26, %ymm0, %ymm1
vmulps %ymm4, %ymm4, %ymm9
vmulps %ymm4, %ymm9, %ymm2
vaddps %ymm1, %ymm2, %ymm1
vmulps %ymm7, %ymm4, %ymm10
vmulps %ymm7, %ymm10, %ymm5
vbroadcastss 0x1eb3f2(%rip), %ymm14 # 0x1ef0ffc
vmulps %ymm5, %ymm14, %ymm11
vmulps %ymm4, %ymm10, %ymm12
vbroadcastss 0x1eb3d9(%rip), %ymm15 # 0x1ef0ff4
vmulps %ymm15, %ymm12, %ymm13
vaddps %ymm13, %ymm11, %ymm11
vaddps %ymm1, %ymm11, %ymm1
vmulps %ymm26, %ymm2, %ymm11
vaddps %ymm0, %ymm11, %ymm11
vmulps %ymm14, %ymm12, %ymm12
vmulps %ymm5, %ymm15, %ymm5
vaddps %ymm5, %ymm12, %ymm5
vaddps %ymm5, %ymm11, %ymm5
vbroadcastss 0x1eb3b3(%rip), %ymm14 # 0x1ef1000
vmulps %ymm0, %ymm14, %ymm11
vmulps %ymm1, %ymm14, %ymm12
vmulps %ymm5, %ymm14, %ymm13
vmulps %ymm2, %ymm14, %ymm5
vmulps %ymm5, %ymm31, %ymm2
vmulps %ymm5, %ymm21, %ymm28
vmulps %ymm5, %ymm6, %ymm1
vmulps %ymm5, %ymm30, %ymm5
vfmadd231ps %ymm24, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm24) + ymm2
vfmadd231ps %ymm25, %ymm13, %ymm28 # ymm28 = (ymm13 * ymm25) + ymm28
vfmadd231ps %ymm27, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm27) + ymm1
vfmadd231ps %ymm13, %ymm29, %ymm5 # ymm5 = (ymm29 * ymm13) + ymm5
vfmadd231ps %ymm19, %ymm12, %ymm2 # ymm2 = (ymm12 * ymm19) + ymm2
vfmadd231ps %ymm20, %ymm12, %ymm28 # ymm28 = (ymm12 * ymm20) + ymm28
vfmadd231ps %ymm22, %ymm12, %ymm1 # ymm1 = (ymm12 * ymm22) + ymm1
vfmadd231ps %ymm12, %ymm23, %ymm5 # ymm5 = (ymm23 * ymm12) + ymm5
vfmadd231ps %ymm18, %ymm11, %ymm2 # ymm2 = (ymm11 * ymm18) + ymm2
vfmadd231ps %ymm16, %ymm11, %ymm28 # ymm28 = (ymm11 * ymm16) + ymm28
vfmadd231ps %ymm17, %ymm11, %ymm1 # ymm1 = (ymm11 * ymm17) + ymm1
vmovaps 0x760(%rsp), %ymm0
vfmadd231ps %ymm11, %ymm0, %ymm5 # ymm5 = (ymm0 * ymm11) + ymm5
vbroadcastss 0x21b1f3(%rip), %ymm26 # 0x1f20ec0
vxorps %ymm26, %ymm7, %ymm11
vmulps %ymm7, %ymm11, %ymm7
vxorps %ymm26, %ymm4, %ymm11
vmulps %ymm4, %ymm11, %ymm4
vmulps 0x1e6ea1(%rip){1to8}, %ymm10, %ymm10 # 0x1eecb8c
vsubps %ymm10, %ymm4, %ymm4
vaddps %ymm10, %ymm8, %ymm8
vbroadcastss 0x1e6e82(%rip), %ymm10 # 0x1eecb80
vmulps %ymm7, %ymm10, %ymm7
vmulps %ymm4, %ymm10, %ymm4
vmulps %ymm10, %ymm8, %ymm8
vmulps %ymm10, %ymm9, %ymm9
vmulps %ymm9, %ymm31, %ymm10
vmulps %ymm9, %ymm21, %ymm12
vmulps %ymm6, %ymm9, %ymm13
vmulps %ymm9, %ymm30, %ymm9
vfmadd231ps %ymm24, %ymm8, %ymm10 # ymm10 = (ymm8 * ymm24) + ymm10
vfmadd231ps %ymm25, %ymm8, %ymm12 # ymm12 = (ymm8 * ymm25) + ymm12
vfmadd231ps %ymm27, %ymm8, %ymm13 # ymm13 = (ymm8 * ymm27) + ymm13
vfmadd231ps %ymm8, %ymm29, %ymm9 # ymm9 = (ymm29 * ymm8) + ymm9
vfmadd231ps %ymm19, %ymm4, %ymm10 # ymm10 = (ymm4 * ymm19) + ymm10
vfmadd231ps %ymm20, %ymm4, %ymm12 # ymm12 = (ymm4 * ymm20) + ymm12
vfmadd231ps %ymm22, %ymm4, %ymm13 # ymm13 = (ymm4 * ymm22) + ymm13
vfmadd231ps %ymm4, %ymm23, %ymm9 # ymm9 = (ymm23 * ymm4) + ymm9
vfmadd231ps %ymm18, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm18) + ymm10
vfmadd231ps %ymm16, %ymm7, %ymm12 # ymm12 = (ymm7 * ymm16) + ymm12
vfmadd231ps %ymm17, %ymm7, %ymm13 # ymm13 = (ymm7 * ymm17) + ymm13
vfmadd231ps %ymm7, %ymm0, %ymm9 # ymm9 = (ymm0 * ymm7) + ymm9
vbroadcastss 0x60(%rsp), %ymm4
vmulps %ymm4, %ymm10, %ymm11
vmulps %ymm4, %ymm12, %ymm12
vmulps %ymm4, %ymm13, %ymm13
vmulps %ymm4, %ymm9, %ymm6
vmovaps %ymm2, %ymm8
vmovaps 0x259f90(%rip), %ymm7 # 0x1f5fd20
vxorps %xmm31, %xmm31, %xmm31
vpermt2ps %ymm31, %ymm7, %ymm8
vmovaps %ymm28, %ymm9
vpermt2ps %ymm31, %ymm7, %ymm9
vmovaps %ymm1, %ymm10
vpermt2ps %ymm31, %ymm7, %ymm10
vaddps %ymm5, %ymm6, %ymm4
vmaxps %ymm4, %ymm5, %ymm14
vminps %ymm4, %ymm5, %ymm4
vmovaps %ymm5, %ymm15
vpermt2ps %ymm31, %ymm7, %ymm15
vmovaps %ymm11, %ymm19
vpermt2ps %ymm31, %ymm7, %ymm19
vmovaps %ymm12, %ymm20
vpermt2ps %ymm31, %ymm7, %ymm20
vmovaps %ymm13, %ymm0
vpermt2ps %ymm31, %ymm7, %ymm0
vpermt2ps %ymm31, %ymm7, %ymm6
vsubps %ymm6, %ymm15, %ymm16
vsubps %ymm2, %ymm8, %ymm7
vsubps %ymm28, %ymm9, %ymm6
vsubps %ymm1, %ymm10, %ymm5
vmulps %ymm13, %ymm6, %ymm17
vfmsub231ps %ymm5, %ymm12, %ymm17 # ymm17 = (ymm12 * ymm5) - ymm17
vmulps %ymm11, %ymm5, %ymm18
vfmsub231ps %ymm7, %ymm13, %ymm18 # ymm18 = (ymm13 * ymm7) - ymm18
vmulps %ymm12, %ymm7, %ymm22
vfmsub231ps %ymm6, %ymm11, %ymm22 # ymm22 = (ymm11 * ymm6) - ymm22
vmulps %ymm22, %ymm22, %ymm22
vfmadd231ps %ymm18, %ymm18, %ymm22 # ymm22 = (ymm18 * ymm18) + ymm22
vfmadd231ps %ymm17, %ymm17, %ymm22 # ymm22 = (ymm17 * ymm17) + ymm22
vmulps %ymm5, %ymm5, %ymm17
vfmadd231ps %ymm6, %ymm6, %ymm17 # ymm17 = (ymm6 * ymm6) + ymm17
vfmadd231ps %ymm7, %ymm7, %ymm17 # ymm17 = (ymm7 * ymm7) + ymm17
vrcp14ps %ymm17, %ymm18
vmovaps %ymm18, %ymm23
vfnmadd213ps %ymm3, %ymm17, %ymm23 # ymm23 = -(ymm17 * ymm23) + ymm3
vfmadd132ps %ymm18, %ymm18, %ymm23 # ymm23 = (ymm23 * ymm18) + ymm18
vmulps %ymm23, %ymm22, %ymm18
vmulps %ymm0, %ymm6, %ymm22
vfmsub231ps %ymm5, %ymm20, %ymm22 # ymm22 = (ymm20 * ymm5) - ymm22
vmulps %ymm19, %ymm5, %ymm24
vfmsub231ps %ymm7, %ymm0, %ymm24 # ymm24 = (ymm0 * ymm7) - ymm24
vmulps %ymm20, %ymm7, %ymm25
vfmsub231ps %ymm6, %ymm19, %ymm25 # ymm25 = (ymm19 * ymm6) - ymm25
vmulps %ymm25, %ymm25, %ymm25
vfmadd231ps %ymm24, %ymm24, %ymm25 # ymm25 = (ymm24 * ymm24) + ymm25
vfmadd231ps %ymm22, %ymm22, %ymm25 # ymm25 = (ymm22 * ymm22) + ymm25
vmulps %ymm23, %ymm25, %ymm22
vmaxps %ymm22, %ymm18, %ymm18
vsqrtps %ymm18, %ymm18
vmaxps %ymm15, %ymm16, %ymm22
vmaxps %ymm22, %ymm14, %ymm14
vaddps %ymm14, %ymm18, %ymm14
vminps %ymm15, %ymm16, %ymm15
vminps %ymm15, %ymm4, %ymm4
vsubps %ymm18, %ymm4, %ymm4
vmulps 0x1eaa61(%rip){1to8}, %ymm14, %ymm14 # 0x1ef0940
vmulps 0x1eaa5b(%rip){1to8}, %ymm4, %ymm4 # 0x1ef0944
vmovaps %ymm4, 0x60(%rsp)
vmulps %ymm14, %ymm14, %ymm4
vrsqrt14ps %ymm17, %ymm15
vmulps 0x1e6818(%rip){1to8}, %ymm17, %ymm14 # 0x1eec71c
vmulps %ymm14, %ymm15, %ymm14
vmulps %ymm15, %ymm15, %ymm16
vmulps %ymm14, %ymm16, %ymm14
vfmadd231ps 0x1e67f9(%rip){1to8}, %ymm15, %ymm14 # ymm14 = (ymm15 * mem) + ymm14
vmulps %ymm7, %ymm14, %ymm15
vmulps %ymm14, %ymm6, %ymm16
vmulps %ymm14, %ymm5, %ymm18
vsubps %ymm2, %ymm31, %ymm27
vmovaps %ymm28, 0xa0(%rsp)
vsubps %ymm28, %ymm31, %ymm28
vmovaps %ymm1, 0x1e0(%rsp)
vsubps %ymm1, %ymm31, %ymm29
vmovaps 0x440(%rsp), %ymm17
vmulps %ymm29, %ymm17, %ymm22
vmovaps 0x460(%rsp), %ymm21
vfmadd231ps %ymm28, %ymm21, %ymm22 # ymm22 = (ymm21 * ymm28) + ymm22
vmovaps 0x480(%rsp), %ymm1
vfmadd231ps %ymm27, %ymm1, %ymm22 # ymm22 = (ymm1 * ymm27) + ymm22
vmulps %ymm29, %ymm29, %ymm24
vfmadd231ps %ymm28, %ymm28, %ymm24 # ymm24 = (ymm28 * ymm28) + ymm24
vfmadd231ps %ymm27, %ymm27, %ymm24 # ymm24 = (ymm27 * ymm27) + ymm24
vmulps %ymm18, %ymm17, %ymm17
vfmadd231ps %ymm21, %ymm16, %ymm17 # ymm17 = (ymm16 * ymm21) + ymm17
vfmadd231ps %ymm1, %ymm15, %ymm17 # ymm17 = (ymm15 * ymm1) + ymm17
vmulps %ymm18, %ymm29, %ymm18
vfmadd231ps %ymm16, %ymm28, %ymm18 # ymm18 = (ymm28 * ymm16) + ymm18
vfmadd231ps %ymm15, %ymm27, %ymm18 # ymm18 = (ymm27 * ymm15) + ymm18
vmulps %ymm17, %ymm17, %ymm1
vmovaps 0x740(%rsp), %ymm16
vsubps %ymm1, %ymm16, %ymm15
vmulps %ymm18, %ymm17, %ymm25
vsubps %ymm25, %ymm22, %ymm22
vaddps %ymm22, %ymm22, %ymm22
vmulps %ymm18, %ymm18, %ymm25
vsubps %ymm25, %ymm24, %ymm21
vsubps %ymm4, %ymm21, %ymm4
vmulps %ymm22, %ymm22, %ymm25
vmulps 0x1e6b91(%rip){1to8}, %ymm15, %ymm24 # 0x1eecb8c
vmulps %ymm4, %ymm24, %ymm30
vsubps %ymm30, %ymm25, %ymm30
vcmpnltps %ymm31, %ymm30, %k1
kmovd %k1, %edi
kortestb %k1, %k1
vmovaps %ymm1, 0x2a0(%rsp)
je 0x1d06104
vsqrtps %ymm30, %ymm30
vaddps %ymm15, %ymm15, %ymm31
vmovaps %ymm3, %ymm16
vrcp14ps %ymm31, %ymm3
vfnmadd213ps %ymm16, %ymm3, %ymm31 # ymm31 = -(ymm3 * ymm31) + ymm16
vfmadd132ps %ymm3, %ymm3, %ymm31 # ymm31 = (ymm31 * ymm3) + ymm3
vxorps %ymm26, %ymm22, %ymm3
vsubps %ymm30, %ymm3, %ymm3
vmulps %ymm31, %ymm3, %ymm3
vsubps %ymm22, %ymm30, %ymm30
vmulps %ymm31, %ymm30, %ymm30
vmovaps %ymm17, %ymm31
vfmadd213ps %ymm18, %ymm3, %ymm31 # ymm31 = (ymm3 * ymm31) + ymm18
vmulps %ymm31, %ymm14, %ymm31
vmovaps %ymm31, 0x3e0(%rsp)
vmovaps %ymm17, %ymm31
vfmadd213ps %ymm18, %ymm30, %ymm31 # ymm31 = (ymm30 * ymm31) + ymm18
vmulps %ymm31, %ymm14, %ymm31
vmovaps %ymm31, 0x3c0(%rsp)
vbroadcastss 0x1e597b(%rip), %ymm16 # 0x1eeba20
vblendmps %ymm3, %ymm16, %ymm31 {%k1}
vbroadcastss 0x1e6ad0(%rip), %ymm3 # 0x1eecb84
vblendmps %ymm30, %ymm3, %ymm30 {%k1}
vbroadcastss 0x21ae00(%rip), %ymm23 # 0x1f20ec4
vandps %ymm23, %ymm1, %ymm3
vmovaps 0x420(%rsp), %ymm16
vmaxps %ymm3, %ymm16, %ymm3
vmulps 0x1ebdd2(%rip){1to8}, %ymm3, %ymm3 # 0x1ef1eb4
vandps %ymm23, %ymm15, %ymm23
vcmpltps %ymm3, %ymm23, %k1 {%k1}
kortestb %k1, %k1
jne 0x1d07d24
vbroadcastss 0x1e6612(%rip), %ymm3 # 0x1eec714
jmp 0x1d06118
vbroadcastss 0x1e5912(%rip), %ymm31 # 0x1eeba20
vbroadcastss 0x1e6a6c(%rip), %ymm30 # 0x1eecb84
andb $0x7f, %dil
je 0x1d0650c
vmovaps %ymm21, 0x140(%rsp)
vmovaps %ymm3, %ymm16
vmovss 0xc(%r15), %xmm3
vmovss 0x20(%r15), %xmm4
vmovaps 0x2f0(%rsp), %xmm23
vsubss %xmm23, %xmm3, %xmm3
vbroadcastss %xmm3, %ymm3
vmaxps %ymm31, %ymm3, %ymm3
vsubss %xmm23, %xmm4, %xmm4
vbroadcastss %xmm4, %ymm4
vminps %ymm30, %ymm4, %ymm4
vmulps %ymm29, %ymm13, %ymm23
vfmadd213ps %ymm23, %ymm12, %ymm28 # ymm28 = (ymm12 * ymm28) + ymm23
vfmadd213ps %ymm28, %ymm11, %ymm27 # ymm27 = (ymm11 * ymm27) + ymm28
vmovaps 0x440(%rsp), %ymm21
vmulps %ymm13, %ymm21, %ymm13
vmovaps 0x460(%rsp), %ymm31
vfmadd231ps %ymm12, %ymm31, %ymm13 # ymm13 = (ymm31 * ymm12) + ymm13
vmovaps 0x480(%rsp), %ymm30
vfmadd231ps %ymm11, %ymm30, %ymm13 # ymm13 = (ymm30 * ymm11) + ymm13
vbroadcastss 0x21ad18(%rip), %ymm28 # 0x1f20ec4
vandps %ymm28, %ymm13, %ymm11
vbroadcastss 0x1eae2c(%rip), %ymm29 # 0x1ef0fe8
vcmpltps %ymm29, %ymm11, %k0
vbroadcastss 0x21acf3(%rip), %ymm26 # 0x1f20ec0
vxorps %ymm26, %ymm27, %ymm11
vrcp14ps %ymm13, %ymm12
vxorps %ymm26, %ymm13, %ymm23
vmovaps %ymm12, %ymm27
vfnmadd213ps %ymm16, %ymm13, %ymm27 # ymm27 = -(ymm13 * ymm27) + ymm16
vfmadd132ps %ymm12, %ymm12, %ymm27 # ymm27 = (ymm27 * ymm12) + ymm12
vmulps %ymm11, %ymm27, %ymm11
vcmpltps %ymm23, %ymm13, %k1
korb %k1, %k0, %k1
vbroadcastss 0x1e6978(%rip), %ymm27 # 0x1eecb84
vblendmps %ymm27, %ymm11, %ymm12 {%k1}
vmaxps %ymm12, %ymm3, %ymm3
vcmpnleps %ymm23, %ymm13, %k1
korb %k1, %k0, %k1
vbroadcastss 0x1e57f4(%rip), %ymm23 # 0x1eeba20
vmovaps %ymm23, %ymm11 {%k1}
vminps %ymm11, %ymm4, %ymm4
vxorps %xmm13, %xmm13, %xmm13
vsubps %ymm8, %ymm13, %ymm8
vsubps %ymm9, %ymm13, %ymm9
vsubps %ymm10, %ymm13, %ymm10
vmulps %ymm0, %ymm10, %ymm10
vfnmsub231ps %ymm9, %ymm20, %ymm10 # ymm10 = -(ymm20 * ymm9) - ymm10
vfnmadd231ps %ymm8, %ymm19, %ymm10 # ymm10 = -(ymm19 * ymm8) + ymm10
vmulps %ymm0, %ymm21, %ymm8
vfnmsub231ps %ymm20, %ymm31, %ymm8 # ymm8 = -(ymm31 * ymm20) - ymm8
vfnmadd231ps %ymm19, %ymm30, %ymm8 # ymm8 = -(ymm30 * ymm19) + ymm8
vandps %ymm28, %ymm8, %ymm9
vcmpltps %ymm29, %ymm9, %k0
vxorps %ymm26, %ymm10, %ymm9
vrcp14ps %ymm8, %ymm10
vxorps %ymm26, %ymm8, %ymm11
vmovaps %ymm10, %ymm12
vfnmadd213ps %ymm16, %ymm8, %ymm12 # ymm12 = -(ymm8 * ymm12) + ymm16
vfmadd132ps %ymm10, %ymm10, %ymm12 # ymm12 = (ymm12 * ymm10) + ymm10
vmulps %ymm9, %ymm12, %ymm9
vcmpltps %ymm11, %ymm8, %k1
korb %k1, %k0, %k1
vblendmps %ymm27, %ymm9, %ymm10 {%k1}
vmaxps %ymm10, %ymm3, %ymm0
vcmpnleps %ymm11, %ymm8, %k1
korb %k1, %k0, %k1
vmovaps %ymm23, %ymm9 {%k1}
vminps %ymm9, %ymm4, %ymm8
vmovaps %ymm0, 0x360(%rsp)
vcmpleps %ymm8, %ymm0, %k0
kmovd %k0, %ecx
andb %cl, %dil
je 0x1d0651b
vmovaps 0x3e0(%rsp), %ymm3
vmaxps 0x60(%rsp), %ymm13, %ymm4
vminps %ymm16, %ymm3, %ymm3
vxorps %xmm10, %xmm10, %xmm10
vmaxps %ymm10, %ymm3, %ymm3
vmovaps 0x3c0(%rsp), %ymm9
vminps %ymm16, %ymm9, %ymm9
vmovaps 0x21ac20(%rip), %ymm11 # 0x1f20f40
vaddps %ymm3, %ymm11, %ymm3
vbroadcastss 0x21818b(%rip), %ymm12 # 0x1f1e4b8
vmulps %ymm3, %ymm12, %ymm3
vmovaps 0x40(%rsp), %ymm0
vmovaps 0x200(%rsp), %ymm1
vfmadd213ps %ymm0, %ymm1, %ymm3 # ymm3 = (ymm1 * ymm3) + ymm0
vmovaps %ymm3, 0x3e0(%rsp)
vmaxps %ymm10, %ymm9, %ymm3
vaddps %ymm3, %ymm11, %ymm3
vmulps %ymm3, %ymm12, %ymm3
vfmadd213ps %ymm0, %ymm1, %ymm3 # ymm3 = (ymm1 * ymm3) + ymm0
vmovaps %ymm3, 0x3c0(%rsp)
vmulps %ymm4, %ymm4, %ymm3
vmovaps 0x140(%rsp), %ymm0
vsubps %ymm3, %ymm0, %ymm11
vmulps %ymm11, %ymm24, %ymm3
vsubps %ymm3, %ymm25, %ymm3
vcmpnltps %ymm10, %ymm3, %k0
kortestb %k0, %k0
je 0x1d06526
vxorps %xmm20, %xmm20, %xmm20
vcmpnltps %ymm13, %ymm3, %k1
vsqrtps %ymm3, %ymm3
vaddps %ymm15, %ymm15, %ymm4
vrcp14ps %ymm4, %ymm9
vfnmadd213ps %ymm16, %ymm9, %ymm4 # ymm4 = -(ymm9 * ymm4) + ymm16
vfmadd132ps %ymm9, %ymm9, %ymm4 # ymm4 = (ymm4 * ymm9) + ymm9
vxorps 0x21aaf8(%rip){1to8}, %ymm22, %ymm9 # 0x1f20ec0
vsubps %ymm3, %ymm9, %ymm9
vmulps %ymm4, %ymm9, %ymm12
vsubps %ymm22, %ymm3, %ymm3
vmulps %ymm4, %ymm3, %ymm13
vmovaps %ymm17, %ymm3
vfmadd213ps %ymm18, %ymm12, %ymm3 # ymm3 = (ymm12 * ymm3) + ymm18
vmulps %ymm3, %ymm14, %ymm9
vmulps %ymm12, %ymm30, %ymm3
vmulps %ymm12, %ymm31, %ymm4
vmulps %ymm12, %ymm21, %ymm10
vmovaps %ymm7, %ymm19
vfmadd213ps %ymm2, %ymm9, %ymm19 # ymm19 = (ymm9 * ymm19) + ymm2
vsubps %ymm19, %ymm3, %ymm3
vmovaps %ymm6, %ymm19
vmovaps 0xa0(%rsp), %ymm1
vfmadd213ps %ymm1, %ymm9, %ymm19 # ymm19 = (ymm9 * ymm19) + ymm1
vsubps %ymm19, %ymm4, %ymm4
vmovaps 0x1e0(%rsp), %ymm0
vfmadd213ps %ymm0, %ymm5, %ymm9 # ymm9 = (ymm5 * ymm9) + ymm0
vsubps %ymm9, %ymm10, %ymm9
vfmadd213ps %ymm18, %ymm13, %ymm17 # ymm17 = (ymm13 * ymm17) + ymm18
vmulps %ymm17, %ymm14, %ymm14
vmulps %ymm13, %ymm30, %ymm10
vmulps %ymm13, %ymm31, %ymm17
vmulps %ymm13, %ymm21, %ymm18
vfmadd213ps %ymm2, %ymm14, %ymm7 # ymm7 = (ymm14 * ymm7) + ymm2
vsubps %ymm7, %ymm10, %ymm10
vfmadd213ps %ymm1, %ymm14, %ymm6 # ymm6 = (ymm14 * ymm6) + ymm1
vsubps %ymm6, %ymm17, %ymm1
vfmadd213ps %ymm0, %ymm14, %ymm5 # ymm5 = (ymm14 * ymm5) + ymm0
vsubps %ymm5, %ymm18, %ymm5
vbroadcastss 0x1e559e(%rip), %ymm0 # 0x1eeba20
vblendmps %ymm12, %ymm0, %ymm2 {%k1}
vbroadcastss 0x1e66f3(%rip), %ymm0 # 0x1eecb84
vblendmps %ymm13, %ymm0, %ymm0 {%k1}
vandps 0x2a0(%rsp), %ymm28, %ymm6
vmovaps 0x420(%rsp), %ymm7
vmaxps %ymm6, %ymm7, %ymm6
vmulps 0x1eb9fe(%rip){1to8}, %ymm6, %ymm6 # 0x1ef1eb4
vandps %ymm28, %ymm15, %ymm7
vcmpltps %ymm6, %ymm7, %k1 {%k1}
kortestb %k1, %k1
je 0x1d0654d
vcmpleps %ymm20, %ymm11, %k2
vbroadcastss 0x1e66a7(%rip), %ymm7 # 0x1eecb84
vbroadcastss 0x1e553a(%rip), %ymm11 # 0x1eeba20
vblendmps %ymm7, %ymm11, %ymm6 {%k2}
vmovaps %ymm6, %ymm2 {%k1}
vblendmps %ymm11, %ymm7, %ymm6 {%k2}
vmovaps %ymm6, %ymm0 {%k1}
knotb %k1, %k1
korb %k2, %k1, %k1
kandb %k0, %k1, %k0
jmp 0x1d0654d
vbroadcastss 0x21a9ae(%rip), %ymm28 # 0x1f20ec4
jmp 0x1d07056
vmovaps %ymm16, %ymm3
jmp 0x1d07056
vxorps %xmm1, %xmm1, %xmm1
vxorps %xmm5, %xmm5, %xmm5
vxorps %xmm3, %xmm3, %xmm3
vxorps %xmm4, %xmm4, %xmm4
vxorps %xmm9, %xmm9, %xmm9
vbroadcastss 0x1e54dc(%rip), %ymm2 # 0x1eeba20
vbroadcastss 0x1e6637(%rip), %ymm0 # 0x1eecb84
vbroadcastss 0x10(%r15), %ymm6
vbroadcastss 0x14(%r15), %ymm7
vbroadcastss 0x18(%r15), %ymm11
vmulps %ymm5, %ymm11, %ymm5
vfmadd231ps %ymm1, %ymm7, %ymm5 # ymm5 = (ymm7 * ymm1) + ymm5
vfmadd231ps %ymm10, %ymm6, %ymm5 # ymm5 = (ymm6 * ymm10) + ymm5
vmovaps 0x360(%rsp), %ymm10
vmovaps %ymm10, 0x4a0(%rsp)
vminps %ymm2, %ymm8, %ymm1
vmovaps %ymm1, 0x4c0(%rsp)
vandps %ymm28, %ymm5, %ymm2
vmaxps %ymm0, %ymm10, %ymm5
vmovaps %ymm5, 0x4e0(%rsp)
vmovaps %ymm8, 0x500(%rsp)
vbroadcastss 0x21a923(%rip), %ymm0 # 0x1f20ed4
vcmpltps %ymm0, %ymm2, %k1
kmovd %k1, 0x10c(%rsp)
vcmpleps %ymm1, %ymm10, %k1
kmovd %k1, %esi
andb %dil, %sil
vmovaps %ymm5, 0x380(%rsp)
vcmpleps %ymm8, %ymm5, %k1
kmovd %k1, %ecx
andb %dil, %cl
movl %ecx, 0x20(%rsp)
orb %sil, %cl
je 0x1d0704d
vmovaps %ymm0, %ymm2
movq %r12, 0x90(%rsp)
movq %r14, 0x1b0(%rsp)
movb %al, 0xf(%rsp)
knotb %k0, %k1
vmulps %ymm11, %ymm9, %ymm0
vfmadd213ps %ymm0, %ymm7, %ymm4 # ymm4 = (ymm7 * ymm4) + ymm0
vfmadd213ps %ymm4, %ymm6, %ymm3 # ymm3 = (ymm6 * ymm3) + ymm4
vandps %ymm28, %ymm3, %ymm0
vcmpltps %ymm2, %ymm0, %k0
kmovd %k1, 0x104(%rsp)
korb %k1, %k0, %k1
vpbroadcastd 0x21a899(%rip), %ymm0 # 0x1f20edc
vpblendmd 0x21a88b(%rip){1to8}, %ymm0, %ymm0 {%k1} # 0x1f20ed8
movq 0xf8(%rsp), %rax
vpbroadcastd %eax, %ymm1
vmovdqa %ymm0, 0x520(%rsp)
vmovdqa %ymm1, 0x400(%rsp)
vpcmpnltd %ymm0, %ymm1, %k0
kmovd %k0, %r12d
movl %esi, 0x108(%rsp)
andb %sil, %r12b
movq %r11, 0x1b8(%rsp)
je 0x1d07064
vmovaps 0x280(%rsp), %ymm1
vmovaps 0x240(%rsp), %ymm2
vminps %xmm2, %xmm1, %xmm0
vmaxps %xmm2, %xmm1, %xmm1
vmovaps 0x260(%rsp), %ymm3
vmovaps 0x220(%rsp), %ymm4
vminps %xmm4, %xmm3, %xmm2
vminps %xmm2, %xmm0, %xmm0
vmaxps %xmm4, %xmm3, %xmm2
vmaxps %xmm2, %xmm1, %xmm1
vbroadcastss 0x21a7ef(%rip), %xmm2 # 0x1f20ec4
vandps %xmm2, %xmm0, %xmm0
vandps %xmm2, %xmm1, %xmm2
vmaxps %xmm2, %xmm0, %xmm0
vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3]
vmaxss %xmm0, %xmm2, %xmm2
vshufpd $0x1, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[1,0]
vmaxss %xmm2, %xmm0, %xmm0
vmulss 0x1eb7ba(%rip), %xmm0, %xmm0 # 0x1ef1eb4
vmovss %xmm0, 0x30(%rsp)
vshufps $0xff, %xmm1, %xmm1, %xmm0 # xmm0 = xmm1[3,3,3,3]
vmovaps %xmm0, 0x2e0(%rsp)
vmovaps 0x360(%rsp), %ymm0
vaddps 0x1c0(%rsp), %ymm0, %ymm0
vmovaps %ymm0, 0x3a0(%rsp)
kmovd %r12d, %k1
vbroadcastss 0x1e52e9(%rip), %ymm0 # 0x1eeba20
vblendmps 0x360(%rsp), %ymm0, %ymm0 {%k1}
vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm0, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1]
vminps %ymm2, %ymm1, %ymm1
vcmpeqps %ymm1, %ymm0, %k0
kmovd %k0, %eax
andb %r12b, %al
movzbl %al, %eax
movzbl %r12b, %ecx
cmovnel %eax, %ecx
tzcntl %ecx, %ecx
movb $0x1, %r14b
shlb %cl, %r14b
shll $0x2, %ecx
vmovss 0x3e0(%rsp,%rcx), %xmm10
vmovss 0x4a0(%rsp,%rcx), %xmm8
vmovaps 0x10(%r15), %xmm0
vmovaps %xmm0, 0x2a0(%rsp)
vdpps $0x7f, %xmm0, %xmm0, %xmm0
vucomiss 0x1e5275(%rip), %xmm0 # 0x1eeba24
jb 0x1d067b7
vsqrtss %xmm0, %xmm0, %xmm0
jmp 0x1d067e9
vmovaps %xmm10, 0x40(%rsp)
vmovaps %xmm8, 0xa0(%rsp)
kmovw %k1, 0x60(%rsp)
vzeroupper
callq 0x6aa20
kmovw 0x60(%rsp), %k1
vmovaps 0xa0(%rsp), %xmm8
vmovaps 0x40(%rsp), %xmm10
movzbl %r14b, %eax
kmovd %eax, %k0
kandnb %k1, %k0, %k0
kmovd %k0, %r12d
vmulss 0x1eb6b3(%rip), %xmm0, %xmm0 # 0x1ef1eb4
vmovss %xmm0, 0x34(%rsp)
movl $0x5, %r14d
vmovaps %xmm8, 0xa0(%rsp)
vbroadcastss %xmm8, %xmm0
vxorps %xmm1, %xmm1, %xmm1
vfmadd132ps 0x2a0(%rsp), %xmm1, %xmm0 # xmm0 = (xmm0 * mem) + xmm1
vmovss 0x1e5ee3(%rip), %xmm1 # 0x1eec714
vsubss %xmm10, %xmm1, %xmm4
vmulss %xmm4, %xmm4, %xmm1
vmulss %xmm1, %xmm4, %xmm1
vmulss %xmm10, %xmm10, %xmm11
vmulss %xmm11, %xmm10, %xmm2
vmovss 0x1e633c(%rip), %xmm7 # 0x1eecb8c
vmovaps %xmm7, %xmm3
vfmadd213ss %xmm2, %xmm1, %xmm3 # xmm3 = (xmm1 * xmm3) + xmm2
vmulss %xmm4, %xmm10, %xmm12
vmovaps %xmm4, 0x60(%rsp)
vmulss %xmm4, %xmm12, %xmm4
vmulss %xmm12, %xmm10, %xmm5
vmovss 0x1ea780(%rip), %xmm8 # 0x1ef0ff4
vmulss %xmm5, %xmm8, %xmm6
vmovss 0x1ea77c(%rip), %xmm9 # 0x1ef0ffc
vfmadd231ss %xmm9, %xmm4, %xmm6 # xmm6 = (xmm4 * xmm9) + xmm6
vaddss %xmm6, %xmm3, %xmm3
vmovaps %xmm7, %xmm6
vfmadd213ss %xmm1, %xmm2, %xmm6 # xmm6 = (xmm2 * xmm6) + xmm1
vmulss %xmm4, %xmm8, %xmm4
vfmadd231ss %xmm5, %xmm9, %xmm4 # xmm4 = (xmm9 * xmm5) + xmm4
vaddss %xmm4, %xmm6, %xmm4
vmovss 0x1ea759(%rip), %xmm5 # 0x1ef1000
vmulss %xmm5, %xmm1, %xmm1
vmulss %xmm5, %xmm3, %xmm3
vmulss %xmm5, %xmm4, %xmm4
vmulss %xmm5, %xmm2, %xmm2
vbroadcastss %xmm2, %xmm2
vmulps 0x220(%rsp), %xmm2, %xmm2
vbroadcastss %xmm4, %xmm4
vfmadd132ps 0x260(%rsp), %xmm2, %xmm4 # xmm4 = (xmm4 * mem) + xmm2
vbroadcastss %xmm3, %xmm2
vfmadd132ps 0x240(%rsp), %xmm4, %xmm2 # xmm2 = (xmm2 * mem) + xmm4
vbroadcastss %xmm1, %xmm1
vfmadd132ps 0x280(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2
vmovaps %xmm1, 0x350(%rsp)
vsubps %xmm1, %xmm0, %xmm0
vmovaps %xmm0, 0x200(%rsp)
vdpps $0x7f, %xmm0, %xmm0, %xmm0
vucomiss 0x1e510e(%rip), %xmm0 # 0x1eeba24
vmovaps %xmm10, 0x40(%rsp)
vmovaps %xmm0, 0x1e0(%rsp)
jb 0x1d0692d
vsqrtss %xmm0, %xmm0, %xmm7
jmp 0x1d0695d
vmovss %xmm11, 0x140(%rsp)
vmovss %xmm12, 0x10(%rsp)
vzeroupper
callq 0x6aa20
vmovss 0x10(%rsp), %xmm12
vmovss 0x140(%rsp), %xmm11
vmovaps 0x40(%rsp), %xmm10
vmovaps %xmm0, %xmm7
vmovaps 0x60(%rsp), %xmm3
vbroadcastss %xmm3, %xmm1
vbroadcastss 0x21a54f(%rip), %xmm4 # 0x1f20ec0
vmovaps %xmm1, 0x340(%rsp)
vxorps %xmm4, %xmm1, %xmm0
vmulss %xmm0, %xmm3, %xmm0
vmulss 0x1e6202(%rip), %xmm12, %xmm1 # 0x1eecb8c
vmovaps %xmm10, %xmm2
vfnmsub213ss %xmm1, %xmm10, %xmm2 # xmm2 = -(xmm10 * xmm2) - xmm1
vfmadd231ss %xmm3, %xmm3, %xmm1 # xmm1 = (xmm3 * xmm3) + xmm1
vmovss 0x1e61e0(%rip), %xmm3 # 0x1eecb80
vmulss %xmm3, %xmm0, %xmm0
vmulss %xmm3, %xmm2, %xmm2
vmulss %xmm3, %xmm1, %xmm1
vmulss %xmm3, %xmm11, %xmm3
vbroadcastss %xmm3, %xmm3
vmulps 0x220(%rsp), %xmm3, %xmm3
vbroadcastss %xmm1, %xmm1
vfmadd132ps 0x260(%rsp), %xmm3, %xmm1 # xmm1 = (xmm1 * mem) + xmm3
vbroadcastss %xmm2, %xmm2
vfmadd132ps 0x240(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1
vbroadcastss %xmm0, %xmm12
vfmadd132ps 0x280(%rsp), %xmm2, %xmm12 # xmm12 = (xmm12 * mem) + xmm2
vdpps $0x7f, %xmm12, %xmm12, %xmm0
vxorps %xmm1, %xmm1, %xmm1
vmovss %xmm0, %xmm1, %xmm2 # xmm2 = xmm0[0],xmm1[1,2,3]
vrsqrt14ss %xmm2, %xmm1, %xmm3
vmulss 0x1e5d11(%rip), %xmm3, %xmm6 # 0x1eec718
vmulss 0x1e5d0d(%rip), %xmm0, %xmm8 # 0x1eec71c
vrcp14ss %xmm2, %xmm1, %xmm2
vxorps %xmm4, %xmm0, %xmm1
vmovaps %xmm2, 0x320(%rsp)
vfnmadd213ss 0x1ea5cd(%rip), %xmm0, %xmm2 # xmm2 = -(xmm0 * xmm2) + mem
vmovss %xmm2, 0x38(%rsp)
vucomiss %xmm1, %xmm0
vmovaps %xmm12, 0x140(%rsp)
vmovss %xmm7, 0x10(%rsp)
vmovaps %xmm0, 0x330(%rsp)
jb 0x1d06a55
vsqrtss %xmm0, %xmm0, %xmm5
jmp 0x1d06aa0
vmovaps %xmm3, 0xe0(%rsp)
vmovss %xmm6, 0x14(%rsp)
vmovss %xmm8, 0xd0(%rsp)
vzeroupper
callq 0x6aa20
vmovss 0xd0(%rsp), %xmm8
vmovss 0x14(%rsp), %xmm6
vmovaps 0xe0(%rsp), %xmm3
vmovss 0x10(%rsp), %xmm7
vmovaps 0x140(%rsp), %xmm12
vmovaps %xmm0, %xmm5
vmovaps 0x200(%rsp), %xmm9
vmovaps 0x1e0(%rsp), %xmm18
vmulss %xmm3, %xmm8, %xmm0
vmulss %xmm3, %xmm3, %xmm1
vmulss %xmm1, %xmm0, %xmm0
vaddss %xmm0, %xmm6, %xmm0
vbroadcastss %xmm0, %xmm4
vmulps %xmm4, %xmm12, %xmm0
vmovaps %xmm0, 0xe0(%rsp)
vdpps $0x7f, %xmm0, %xmm9, %xmm14
vaddss 0x1e5c33(%rip), %xmm7, %xmm13 # 0x1eec714
vmulps %xmm14, %xmm14, %xmm0
vsubps %xmm0, %xmm18, %xmm0
vxorps %xmm2, %xmm2, %xmm2
vmovss %xmm0, %xmm2, %xmm1 # xmm1 = xmm0[0],xmm2[1,2,3]
vrsqrt14ss %xmm1, %xmm2, %xmm15
vmulss 0x1e5c14(%rip), %xmm15, %xmm17 # 0x1eec718
vmulss 0x1e5c0e(%rip), %xmm0, %xmm19 # 0x1eec71c
vucomiss 0x1e4f0e(%rip), %xmm0 # 0x1eeba24
jb 0x1d06b21
vsqrtss %xmm0, %xmm0, %xmm0
jmp 0x1d06bb7
vmovss %xmm13, 0x14(%rsp)
vmovaps %xmm14, 0xd0(%rsp)
vmovss %xmm5, 0x2c(%rsp)
vmovaps %xmm15, 0x310(%rsp)
vmovss %xmm17, 0x28(%rsp)
vmovss %xmm19, 0x24(%rsp)
vmovaps %xmm4, 0x300(%rsp)
vzeroupper
callq 0x6aa20
vmovaps 0x300(%rsp), %xmm4
vmovss 0x24(%rsp), %xmm19
vmovss 0x28(%rsp), %xmm17
vmovaps 0x310(%rsp), %xmm15
vmovss 0x2c(%rsp), %xmm5
vmovaps 0xd0(%rsp), %xmm14
vmovss 0x14(%rsp), %xmm13
vmovss 0x10(%rsp), %xmm7
vmovaps 0x140(%rsp), %xmm12
vmovaps 0x1e0(%rsp), %xmm18
vmovaps 0x200(%rsp), %xmm9
vbroadcastss 0x21a303(%rip), %ymm28 # 0x1f20ec4
vmovaps 0x40(%rsp), %xmm10
vmovaps 0xa0(%rsp), %xmm8
vmovss 0x1e9e04(%rip), %xmm2 # 0x1ef09dc
vmovaps %xmm2, %xmm1
vmovaps 0x60(%rsp), %xmm3
vfmadd213ss %xmm10, %xmm3, %xmm1 # xmm1 = (xmm3 * xmm1) + xmm10
vfmadd231ss %xmm2, %xmm10, %xmm3 # xmm3 = (xmm10 * xmm2) + xmm3
vbroadcastss %xmm10, %xmm2
vmulps 0x220(%rsp), %xmm2, %xmm2
vbroadcastss %xmm3, %xmm3
vfmadd132ps 0x260(%rsp), %xmm2, %xmm3 # xmm3 = (xmm3 * mem) + xmm2
vbroadcastss %xmm1, %xmm1
vfmadd132ps 0x240(%rsp), %xmm3, %xmm1 # xmm1 = (xmm1 * mem) + xmm3
vmovaps 0x340(%rsp), %xmm2
vfmadd132ps 0x280(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1
vbroadcastss 0x330(%rsp), %xmm1
vmulps %xmm1, %xmm2, %xmm1
vdpps $0x7f, %xmm2, %xmm12, %xmm2
vbroadcastss %xmm2, %xmm2
vmulps %xmm2, %xmm12, %xmm2
vsubps %xmm2, %xmm1, %xmm2
vmovss 0x38(%rsp), %xmm1
vmulss 0x320(%rsp), %xmm1, %xmm3
vmulss 0x34(%rsp), %xmm8, %xmm1
vmovss 0x30(%rsp), %xmm6
vmaxss %xmm1, %xmm6, %xmm1
vbroadcastss %xmm3, %xmm3
vmulps %xmm3, %xmm2, %xmm2
vxorps 0x21a242(%rip){1to4}, %xmm12, %xmm3 # 0x1f20ec0
vmulps %xmm2, %xmm4, %xmm2
vmovaps 0xe0(%rsp), %xmm11
vdpps $0x7f, %xmm11, %xmm3, %xmm4
vdivss %xmm5, %xmm6, %xmm5
vfmadd213ss %xmm1, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm7) + xmm1
vdpps $0x7f, %xmm2, %xmm9, %xmm2
vfmadd213ss %xmm7, %xmm5, %xmm13 # xmm13 = (xmm5 * xmm13) + xmm7
vaddss %xmm2, %xmm4, %xmm4
vmovaps 0x2a0(%rsp), %xmm7
vdpps $0x7f, %xmm11, %xmm7, %xmm5
vdpps $0x7f, %xmm3, %xmm9, %xmm3
vmulss %xmm15, %xmm19, %xmm2
vmulss %xmm15, %xmm15, %xmm6
vmulss %xmm6, %xmm2, %xmm2
vaddss %xmm2, %xmm17, %xmm6
vdpps $0x7f, %xmm7, %xmm9, %xmm7
vfnmadd231ss %xmm4, %xmm14, %xmm3 # xmm3 = -(xmm14 * xmm4) + xmm3
vfnmadd231ss %xmm5, %xmm14, %xmm7 # xmm7 = -(xmm14 * xmm5) + xmm7
vpermilps $0xff, 0x350(%rsp), %xmm2 # xmm2 = mem[3,3,3,3]
vsubss %xmm2, %xmm0, %xmm2
vshufps $0xff, %xmm12, %xmm12, %xmm0 # xmm0 = xmm12[3,3,3,3]
vfmsub213ss %xmm0, %xmm6, %xmm3 # xmm3 = (xmm6 * xmm3) - xmm0
vmulss %xmm6, %xmm7, %xmm6
vmulss %xmm3, %xmm5, %xmm7
vfmsub231ss %xmm6, %xmm4, %xmm7 # xmm7 = (xmm4 * xmm6) - xmm7
vdivss %xmm7, %xmm6, %xmm6
vdivss %xmm7, %xmm3, %xmm3
vdivss %xmm7, %xmm5, %xmm5
vdivss %xmm7, %xmm4, %xmm4
vmulss %xmm6, %xmm14, %xmm6
vmulss %xmm5, %xmm2, %xmm5
vsubss %xmm5, %xmm6, %xmm5
vmulss %xmm3, %xmm14, %xmm3
vmulss %xmm4, %xmm2, %xmm4
vsubss %xmm3, %xmm4, %xmm3
vsubss %xmm5, %xmm10, %xmm10
vsubss %xmm3, %xmm8, %xmm8
vbroadcastss 0x21a181(%rip), %xmm4 # 0x1f20ec4
vandps %xmm4, %xmm14, %xmm3
vucomiss %xmm3, %xmm13
movb $0x1, %al
jbe 0x1d06e1b
vaddss %xmm1, %xmm13, %xmm1
vmovaps 0x2e0(%rsp), %xmm3
vfmadd231ss 0x1eb14b(%rip), %xmm3, %xmm1 # xmm1 = (xmm3 * mem) + xmm1
vandps %xmm4, %xmm2, %xmm2
vucomiss %xmm2, %xmm1
jbe 0x1d06e1b
vaddss 0x2f0(%rsp), %xmm8, %xmm8
xorl %eax, %eax
vucomiss 0xc(%r15), %xmm8
jb 0x1d06e18
vmovss 0x20(%r15), %xmm5
vucomiss %xmm8, %xmm5
jb 0x1d06e18
xorl %eax, %eax
vucomiss 0x1e4c7f(%rip), %xmm10 # 0x1eeba24
jb 0x1d06e18
vmovss 0x1e5965(%rip), %xmm1 # 0x1eec714
vucomiss %xmm10, %xmm1
jb 0x1d06e18
vxorps %xmm2, %xmm2, %xmm2
vmovss %xmm18, %xmm2, %xmm1 # xmm1 = xmm18[0],xmm2[1,2,3]
vrsqrt14ss %xmm1, %xmm2, %xmm1
vmulss 0x1e594a(%rip), %xmm1, %xmm2 # 0x1eec718
vmulss 0x1e5944(%rip), %xmm18, %xmm3 # 0x1eec71c
movq 0x18(%rsp), %rcx
movq (%rcx), %rax
movq 0x1e8(%rax), %rax
movq 0x98(%rsp), %rdx
movq (%rax,%rdx,8), %r13
movl 0x24(%r15), %eax
testl %eax, 0x34(%r13)
je 0x1d06e16
movq 0x10(%rcx), %rax
cmpq $0x0, 0x10(%rax)
jne 0x1d06e31
cmpq $0x0, 0x48(%r13)
jne 0x1d06e31
movb $0x1, %r13b
xorl %eax, %eax
jmp 0x1d06e1b
xorl %eax, %eax
xorl %r13d, %r13d
testb %al, %al
je 0x1d0701e
decq %r14
jne 0x1d0680d
jmp 0x1d07012
vmulss %xmm1, %xmm3, %xmm3
vmulss %xmm1, %xmm1, %xmm1
vmulss %xmm1, %xmm3, %xmm1
vaddss %xmm1, %xmm2, %xmm1
vbroadcastss %xmm1, %xmm1
vmulps %xmm1, %xmm9, %xmm1
vfmadd213ps %xmm12, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm0) + xmm12
vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm12, %xmm12, %xmm3 # xmm3 = xmm12[1,2,0,3]
vmulps %xmm3, %xmm1, %xmm1
vfmsub231ps %xmm2, %xmm12, %xmm1 # xmm1 = (xmm12 * xmm2) - xmm1
vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3]
vshufps $0xd2, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,0,1,3]
vmulps %xmm1, %xmm0, %xmm0
vfmsub231ps %xmm3, %xmm2, %xmm0 # xmm0 = (xmm2 * xmm3) - xmm0
movq 0x18(%rsp), %rdx
movq 0x8(%rdx), %rax
vshufps $0xe9, %xmm0, %xmm0, %xmm1 # xmm1 = xmm0[1,2,2,3]
vmovlps %xmm1, 0x170(%rsp)
vmovss %xmm0, 0x178(%rsp)
vmovss %xmm10, 0x17c(%rsp)
movl $0x0, 0x180(%rsp)
movq 0x90(%rsp), %rcx
movl %ecx, 0x184(%rsp)
movq 0x98(%rsp), %rcx
movl %ecx, 0x188(%rsp)
movl (%rax), %ecx
movl %ecx, 0x18c(%rsp)
movl 0x4(%rax), %eax
movl %eax, 0x190(%rsp)
vmovss %xmm8, 0x20(%r15)
movl $0xffffffff, 0x3c(%rsp) # imm = 0xFFFFFFFF
leaq 0x3c(%rsp), %rax
movq %rax, 0x110(%rsp)
movq 0x18(%r13), %rax
movq %rax, 0x118(%rsp)
movq 0x8(%rdx), %rax
movq %rax, 0x120(%rsp)
movq %r15, 0x128(%rsp)
leaq 0x170(%rsp), %rax
movq %rax, 0x130(%rsp)
movl $0x1, 0x138(%rsp)
movq 0x48(%r13), %rax
testq %rax, %rax
vmovaps %xmm10, 0x40(%rsp)
vmovaps %xmm8, 0xa0(%rsp)
vmovss %xmm5, 0x60(%rsp)
je 0x1d06f96
leaq 0x110(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0x60(%rsp), %xmm5
vmovaps 0xa0(%rsp), %xmm8
vmovaps 0x40(%rsp), %xmm10
vbroadcastss 0x219f45(%rip), %xmm4 # 0x1f20ec4
vbroadcastss 0x219f3b(%rip), %ymm28 # 0x1f20ec4
movq 0x110(%rsp), %rax
cmpl $0x0, (%rax)
je 0x1d06ffb
movq 0x18(%rsp), %rax
movq 0x10(%rax), %rcx
movq 0x10(%rcx), %rax
testq %rax, %rax
je 0x1d06ff6
testb $0x2, (%rcx)
jne 0x1d06fb4
testb $0x40, 0x3e(%r13)
je 0x1d06fe9
leaq 0x110(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0x60(%rsp), %xmm5
vmovaps 0xa0(%rsp), %xmm8
vmovaps 0x40(%rsp), %xmm10
vbroadcastss 0x219ee5(%rip), %xmm4 # 0x1f20ec4
vbroadcastss 0x219edb(%rip), %ymm28 # 0x1f20ec4
movq 0x110(%rsp), %rax
cmpl $0x0, (%rax)
je 0x1d06ffb
movb $0x1, %r13b
jmp 0x1d06ffe
xorl %r13d, %r13d
testb %r13b, %r13b
jne 0x1d06e12
vmovss %xmm5, 0x20(%r15)
jmp 0x1d06e12
xorl %r13d, %r13d
vbroadcastss 0x219ea6(%rip), %xmm4 # 0x1f20ec4
andb $0x1, %r13b
orb %r13b, %bl
vmovaps 0x3a0(%rsp), %ymm0
vcmpleps 0x20(%r15){1to8}, %ymm0, %k0
kmovd %k0, %eax
andb %al, %r12b
movq 0x1b8(%rsp), %r11
jne 0x1d06729
jmp 0x1d0706d
vbroadcastss 0x1e56be(%rip), %ymm3 # 0x1eec714
vmovaps 0x1c0(%rsp), %ymm4
jmp 0x1d07b83
vbroadcastss 0x219e57(%rip), %xmm4 # 0x1f20ec4
vmovaps 0x1c0(%rsp), %ymm3
vaddps 0x380(%rsp), %ymm3, %ymm0
vcmpleps 0x20(%r15){1to8}, %ymm0, %k0
kmovd 0x10c(%rsp), %k1
kmovd 0x104(%rsp), %k2
korb %k2, %k1, %k1
kmovd %k0, %eax
movl 0x20(%rsp), %ecx
andb %al, %cl
vpbroadcastd 0x219e2a(%rip), %ymm0 # 0x1f20edc
vpblendmd 0x219e1c(%rip){1to8}, %ymm0, %ymm0 {%k1} # 0x1f20ed8
vmovdqa %ymm0, 0x380(%rsp)
vpcmpled 0x400(%rsp), %ymm0, %k0
kmovd %k0, %r12d
movl %ecx, 0x20(%rsp)
andb %cl, %r12b
je 0x1d07aa6
vmovaps 0x4e0(%rsp), %ymm7
vmovaps 0x280(%rsp), %ymm1
vmovaps 0x240(%rsp), %ymm2
vminps %xmm2, %xmm1, %xmm0
vmaxps %xmm2, %xmm1, %xmm1
vmovaps 0x260(%rsp), %ymm5
vmovaps 0x220(%rsp), %ymm6
vminps %xmm6, %xmm5, %xmm2
vminps %xmm2, %xmm0, %xmm0
vmaxps %xmm6, %xmm5, %xmm2
vmaxps %xmm2, %xmm1, %xmm1
vandps %xmm4, %xmm0, %xmm0
vandps %xmm4, %xmm1, %xmm2
vmaxps %xmm2, %xmm0, %xmm0
vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3]
vmaxss %xmm0, %xmm2, %xmm2
vshufpd $0x1, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[1,0]
vmaxss %xmm2, %xmm0, %xmm0
vmulss 0x1ead6b(%rip), %xmm0, %xmm0 # 0x1ef1eb4
vmovss %xmm0, 0x30(%rsp)
vshufps $0xff, %xmm1, %xmm1, %xmm0 # xmm0 = xmm1[3,3,3,3]
vmovaps %xmm0, 0x2e0(%rsp)
vmovaps %ymm7, 0x360(%rsp)
vaddps %ymm7, %ymm3, %ymm0
vmovaps %ymm0, 0x3a0(%rsp)
kmovd %r12d, %k1
vbroadcastss 0x1e489f(%rip), %ymm0 # 0x1eeba20
vblendmps 0x360(%rsp), %ymm0, %ymm0 {%k1}
vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm0, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1]
vminps %ymm2, %ymm1, %ymm1
vcmpeqps %ymm1, %ymm0, %k0
kmovd %k0, %eax
andb %r12b, %al
movzbl %al, %eax
movzbl %r12b, %ecx
cmovnel %eax, %ecx
tzcntl %ecx, %ecx
movb $0x1, %r14b
shlb %cl, %r14b
shll $0x2, %ecx
vmovss 0x3c0(%rsp,%rcx), %xmm10
vmovss 0x500(%rsp,%rcx), %xmm8
vmovaps 0x10(%r15), %xmm0
vmovaps %xmm0, 0x2a0(%rsp)
vdpps $0x7f, %xmm0, %xmm0, %xmm0
vucomiss 0x1e482b(%rip), %xmm0 # 0x1eeba24
jb 0x1d07201
vsqrtss %xmm0, %xmm0, %xmm0
jmp 0x1d07233
vmovaps %xmm10, 0x40(%rsp)
vmovaps %xmm8, 0xa0(%rsp)
kmovw %k1, 0x60(%rsp)
vzeroupper
callq 0x6aa20
kmovw 0x60(%rsp), %k1
vmovaps 0xa0(%rsp), %xmm8
vmovaps 0x40(%rsp), %xmm10
movzbl %r14b, %eax
kmovd %eax, %k0
kandnb %k1, %k0, %k0
kmovd %k0, %r12d
vmulss 0x1eac69(%rip), %xmm0, %xmm0 # 0x1ef1eb4
vmovss %xmm0, 0x34(%rsp)
movl $0x5, %r14d
vmovaps %xmm8, 0xa0(%rsp)
vbroadcastss %xmm8, %xmm0
vxorps %xmm1, %xmm1, %xmm1
vfmadd132ps 0x2a0(%rsp), %xmm1, %xmm0 # xmm0 = (xmm0 * mem) + xmm1
vmovss 0x1e5499(%rip), %xmm1 # 0x1eec714
vsubss %xmm10, %xmm1, %xmm4
vmulss %xmm4, %xmm4, %xmm1
vmulss %xmm1, %xmm4, %xmm1
vmulss %xmm10, %xmm10, %xmm11
vmulss %xmm11, %xmm10, %xmm2
vmovss 0x1e58f2(%rip), %xmm7 # 0x1eecb8c
vmovaps %xmm7, %xmm3
vfmadd213ss %xmm2, %xmm1, %xmm3 # xmm3 = (xmm1 * xmm3) + xmm2
vmulss %xmm4, %xmm10, %xmm12
vmovaps %xmm4, 0x60(%rsp)
vmulss %xmm4, %xmm12, %xmm4
vmulss %xmm12, %xmm10, %xmm5
vmovss 0x1e9d36(%rip), %xmm8 # 0x1ef0ff4
vmulss %xmm5, %xmm8, %xmm6
vmovss 0x1e9d32(%rip), %xmm9 # 0x1ef0ffc
vfmadd231ss %xmm9, %xmm4, %xmm6 # xmm6 = (xmm4 * xmm9) + xmm6
vaddss %xmm6, %xmm3, %xmm3
vmovaps %xmm7, %xmm6
vfmadd213ss %xmm1, %xmm2, %xmm6 # xmm6 = (xmm2 * xmm6) + xmm1
vmulss %xmm4, %xmm8, %xmm4
vfmadd231ss %xmm5, %xmm9, %xmm4 # xmm4 = (xmm9 * xmm5) + xmm4
vaddss %xmm4, %xmm6, %xmm4
vmovss 0x1e9d0f(%rip), %xmm5 # 0x1ef1000
vmulss %xmm5, %xmm1, %xmm1
vmulss %xmm5, %xmm3, %xmm3
vmulss %xmm5, %xmm4, %xmm4
vmulss %xmm5, %xmm2, %xmm2
vbroadcastss %xmm2, %xmm2
vmulps 0x220(%rsp), %xmm2, %xmm2
vbroadcastss %xmm4, %xmm4
vfmadd132ps 0x260(%rsp), %xmm2, %xmm4 # xmm4 = (xmm4 * mem) + xmm2
vbroadcastss %xmm3, %xmm2
vfmadd132ps 0x240(%rsp), %xmm4, %xmm2 # xmm2 = (xmm2 * mem) + xmm4
vbroadcastss %xmm1, %xmm1
vfmadd132ps 0x280(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2
vmovaps %xmm1, 0x350(%rsp)
vsubps %xmm1, %xmm0, %xmm0
vmovaps %xmm0, 0x200(%rsp)
vdpps $0x7f, %xmm0, %xmm0, %xmm0
vucomiss 0x1e46c4(%rip), %xmm0 # 0x1eeba24
vmovaps %xmm10, 0x40(%rsp)
vmovaps %xmm0, 0x1e0(%rsp)
jb 0x1d07377
vsqrtss %xmm0, %xmm0, %xmm7
jmp 0x1d073a7
vmovss %xmm11, 0x140(%rsp)
vmovss %xmm12, 0x10(%rsp)
vzeroupper
callq 0x6aa20
vmovss 0x10(%rsp), %xmm12
vmovss 0x140(%rsp), %xmm11
vmovaps 0x40(%rsp), %xmm10
vmovaps %xmm0, %xmm7
vmovaps 0x60(%rsp), %xmm3
vbroadcastss %xmm3, %xmm1
vbroadcastss 0x219b05(%rip), %xmm4 # 0x1f20ec0
vmovaps %xmm1, 0x340(%rsp)
vxorps %xmm4, %xmm1, %xmm0
vmulss %xmm0, %xmm3, %xmm0
vmulss 0x1e57b8(%rip), %xmm12, %xmm1 # 0x1eecb8c
vmovaps %xmm10, %xmm2
vfnmsub213ss %xmm1, %xmm10, %xmm2 # xmm2 = -(xmm10 * xmm2) - xmm1
vfmadd231ss %xmm3, %xmm3, %xmm1 # xmm1 = (xmm3 * xmm3) + xmm1
vmovss 0x1e5796(%rip), %xmm3 # 0x1eecb80
vmulss %xmm3, %xmm0, %xmm0
vmulss %xmm3, %xmm2, %xmm2
vmulss %xmm3, %xmm1, %xmm1
vmulss %xmm3, %xmm11, %xmm3
vbroadcastss %xmm3, %xmm3
vmulps 0x220(%rsp), %xmm3, %xmm3
vbroadcastss %xmm1, %xmm1
vfmadd132ps 0x260(%rsp), %xmm3, %xmm1 # xmm1 = (xmm1 * mem) + xmm3
vbroadcastss %xmm2, %xmm2
vfmadd132ps 0x240(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1
vbroadcastss %xmm0, %xmm12
vfmadd132ps 0x280(%rsp), %xmm2, %xmm12 # xmm12 = (xmm12 * mem) + xmm2
vdpps $0x7f, %xmm12, %xmm12, %xmm0
vxorps %xmm1, %xmm1, %xmm1
vmovss %xmm0, %xmm1, %xmm2 # xmm2 = xmm0[0],xmm1[1,2,3]
vrsqrt14ss %xmm2, %xmm1, %xmm3
vmulss 0x1e52c7(%rip), %xmm3, %xmm6 # 0x1eec718
vmulss 0x1e52c3(%rip), %xmm0, %xmm8 # 0x1eec71c
vrcp14ss %xmm2, %xmm1, %xmm2
vxorps %xmm4, %xmm0, %xmm1
vmovaps %xmm2, 0x320(%rsp)
vfnmadd213ss 0x1e9b83(%rip), %xmm0, %xmm2 # xmm2 = -(xmm0 * xmm2) + mem
vmovss %xmm2, 0x38(%rsp)
vucomiss %xmm1, %xmm0
vmovaps %xmm12, 0x140(%rsp)
vmovss %xmm7, 0x10(%rsp)
vmovaps %xmm0, 0x330(%rsp)
jb 0x1d0749f
vsqrtss %xmm0, %xmm0, %xmm5
jmp 0x1d074ea
vmovaps %xmm3, 0xe0(%rsp)
vmovss %xmm6, 0x14(%rsp)
vmovss %xmm8, 0xd0(%rsp)
vzeroupper
callq 0x6aa20
vmovss 0xd0(%rsp), %xmm8
vmovss 0x14(%rsp), %xmm6
vmovaps 0xe0(%rsp), %xmm3
vmovss 0x10(%rsp), %xmm7
vmovaps 0x140(%rsp), %xmm12
vmovaps %xmm0, %xmm5
vmovaps 0x200(%rsp), %xmm9
vmovaps 0x1e0(%rsp), %xmm18
vmulss %xmm3, %xmm8, %xmm0
vmulss %xmm3, %xmm3, %xmm1
vmulss %xmm1, %xmm0, %xmm0
vaddss %xmm0, %xmm6, %xmm0
vbroadcastss %xmm0, %xmm4
vmulps %xmm4, %xmm12, %xmm0
vmovaps %xmm0, 0xe0(%rsp)
vdpps $0x7f, %xmm0, %xmm9, %xmm14
vaddss 0x1e51e9(%rip), %xmm7, %xmm13 # 0x1eec714
vmulps %xmm14, %xmm14, %xmm0
vsubps %xmm0, %xmm18, %xmm0
vxorps %xmm2, %xmm2, %xmm2
vmovss %xmm0, %xmm2, %xmm1 # xmm1 = xmm0[0],xmm2[1,2,3]
vrsqrt14ss %xmm1, %xmm2, %xmm15
vmulss 0x1e51ca(%rip), %xmm15, %xmm17 # 0x1eec718
vmulss 0x1e51c4(%rip), %xmm0, %xmm19 # 0x1eec71c
vucomiss 0x1e44c4(%rip), %xmm0 # 0x1eeba24
jb 0x1d0756b
vsqrtss %xmm0, %xmm0, %xmm0
jmp 0x1d07601
vmovss %xmm13, 0x14(%rsp)
vmovaps %xmm14, 0xd0(%rsp)
vmovss %xmm5, 0x2c(%rsp)
vmovaps %xmm15, 0x310(%rsp)
vmovss %xmm17, 0x28(%rsp)
vmovss %xmm19, 0x24(%rsp)
vmovaps %xmm4, 0x300(%rsp)
vzeroupper
callq 0x6aa20
vmovaps 0x300(%rsp), %xmm4
vmovss 0x24(%rsp), %xmm19
vmovss 0x28(%rsp), %xmm17
vmovaps 0x310(%rsp), %xmm15
vmovss 0x2c(%rsp), %xmm5
vmovaps 0xd0(%rsp), %xmm14
vmovss 0x14(%rsp), %xmm13
vmovss 0x10(%rsp), %xmm7
vmovaps 0x140(%rsp), %xmm12
vmovaps 0x1e0(%rsp), %xmm18
vmovaps 0x200(%rsp), %xmm9
vbroadcastss 0x2198b9(%rip), %ymm28 # 0x1f20ec4
vmovaps 0x40(%rsp), %xmm10
vmovaps 0xa0(%rsp), %xmm8
vmovss 0x1e93ba(%rip), %xmm2 # 0x1ef09dc
vmovaps %xmm2, %xmm1
vmovaps 0x60(%rsp), %xmm3
vfmadd213ss %xmm10, %xmm3, %xmm1 # xmm1 = (xmm3 * xmm1) + xmm10
vfmadd231ss %xmm2, %xmm10, %xmm3 # xmm3 = (xmm10 * xmm2) + xmm3
vbroadcastss %xmm10, %xmm2
vmulps 0x220(%rsp), %xmm2, %xmm2
vbroadcastss %xmm3, %xmm3
vfmadd132ps 0x260(%rsp), %xmm2, %xmm3 # xmm3 = (xmm3 * mem) + xmm2
vbroadcastss %xmm1, %xmm1
vfmadd132ps 0x240(%rsp), %xmm3, %xmm1 # xmm1 = (xmm1 * mem) + xmm3
vmovaps 0x340(%rsp), %xmm2
vfmadd132ps 0x280(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1
vbroadcastss 0x330(%rsp), %xmm1
vmulps %xmm1, %xmm2, %xmm1
vdpps $0x7f, %xmm2, %xmm12, %xmm2
vbroadcastss %xmm2, %xmm2
vmulps %xmm2, %xmm12, %xmm2
vsubps %xmm2, %xmm1, %xmm2
vmovss 0x38(%rsp), %xmm1
vmulss 0x320(%rsp), %xmm1, %xmm3
vmulss 0x34(%rsp), %xmm8, %xmm1
vmovss 0x30(%rsp), %xmm6
vmaxss %xmm1, %xmm6, %xmm1
vbroadcastss %xmm3, %xmm3
vmulps %xmm3, %xmm2, %xmm2
vxorps 0x2197f8(%rip){1to4}, %xmm12, %xmm3 # 0x1f20ec0
vmulps %xmm2, %xmm4, %xmm2
vmovaps 0xe0(%rsp), %xmm11
vdpps $0x7f, %xmm11, %xmm3, %xmm4
vdivss %xmm5, %xmm6, %xmm5
vfmadd213ss %xmm1, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm7) + xmm1
vdpps $0x7f, %xmm2, %xmm9, %xmm2
vfmadd213ss %xmm7, %xmm5, %xmm13 # xmm13 = (xmm5 * xmm13) + xmm7
vaddss %xmm2, %xmm4, %xmm4
vmovaps 0x2a0(%rsp), %xmm7
vdpps $0x7f, %xmm11, %xmm7, %xmm5
vdpps $0x7f, %xmm3, %xmm9, %xmm3
vmulss %xmm15, %xmm19, %xmm2
vmulss %xmm15, %xmm15, %xmm6
vmulss %xmm6, %xmm2, %xmm2
vaddss %xmm2, %xmm17, %xmm6
vdpps $0x7f, %xmm7, %xmm9, %xmm7
vfnmadd231ss %xmm4, %xmm14, %xmm3 # xmm3 = -(xmm14 * xmm4) + xmm3
vfnmadd231ss %xmm5, %xmm14, %xmm7 # xmm7 = -(xmm14 * xmm5) + xmm7
vpermilps $0xff, 0x350(%rsp), %xmm2 # xmm2 = mem[3,3,3,3]
vsubss %xmm2, %xmm0, %xmm2
vshufps $0xff, %xmm12, %xmm12, %xmm0 # xmm0 = xmm12[3,3,3,3]
vfmsub213ss %xmm0, %xmm6, %xmm3 # xmm3 = (xmm6 * xmm3) - xmm0
vmulss %xmm6, %xmm7, %xmm6
vmulss %xmm3, %xmm5, %xmm7
vfmsub231ss %xmm6, %xmm4, %xmm7 # xmm7 = (xmm4 * xmm6) - xmm7
vdivss %xmm7, %xmm6, %xmm6
vdivss %xmm7, %xmm3, %xmm3
vdivss %xmm7, %xmm5, %xmm5
vdivss %xmm7, %xmm4, %xmm4
vmulss %xmm6, %xmm14, %xmm6
vmulss %xmm5, %xmm2, %xmm5
vsubss %xmm5, %xmm6, %xmm5
vmulss %xmm3, %xmm14, %xmm3
vmulss %xmm4, %xmm2, %xmm4
vsubss %xmm3, %xmm4, %xmm3
vsubss %xmm5, %xmm10, %xmm10
vsubss %xmm3, %xmm8, %xmm8
vbroadcastss 0x219737(%rip), %xmm4 # 0x1f20ec4
vandps %xmm4, %xmm14, %xmm3
vucomiss %xmm3, %xmm13
movb $0x1, %al
jbe 0x1d0786d
vaddss %xmm1, %xmm13, %xmm1
vmovaps 0x2e0(%rsp), %xmm3
vfmadd231ss 0x1ea701(%rip), %xmm3, %xmm1 # xmm1 = (xmm3 * mem) + xmm1
vandps %xmm4, %xmm2, %xmm2
vucomiss %xmm2, %xmm1
jbe 0x1d0786d
vaddss 0x2f0(%rsp), %xmm8, %xmm8
xorl %eax, %eax
vucomiss 0xc(%r15), %xmm8
vmovaps 0x1c0(%rsp), %ymm4
jb 0x1d0787a
vmovss 0x20(%r15), %xmm5
vucomiss %xmm8, %xmm5
jb 0x1d0787a
xorl %eax, %eax
vucomiss 0x1e4228(%rip), %xmm10 # 0x1eeba24
jb 0x1d0787a
vmovss 0x1e4f0e(%rip), %xmm1 # 0x1eec714
vucomiss %xmm10, %xmm1
jb 0x1d0787a
vxorps %xmm2, %xmm2, %xmm2
vmovss %xmm18, %xmm2, %xmm1 # xmm1 = xmm18[0],xmm2[1,2,3]
vrsqrt14ss %xmm1, %xmm2, %xmm1
vmulss 0x1e4ef3(%rip), %xmm1, %xmm2 # 0x1eec718
vmulss 0x1e4eed(%rip), %xmm18, %xmm3 # 0x1eec71c
movq 0x18(%rsp), %rcx
movq (%rcx), %rax
movq 0x1e8(%rax), %rax
movq 0x98(%rsp), %rdx
movq (%rax,%rdx,8), %r13
movl 0x24(%r15), %eax
testl %eax, 0x34(%r13)
je 0x1d07878
movq 0x10(%rcx), %rax
cmpq $0x0, 0x10(%rax)
jne 0x1d07893
cmpq $0x0, 0x48(%r13)
jne 0x1d07893
movb $0x1, %r13b
xorl %eax, %eax
jmp 0x1d0787d
vmovaps 0x1c0(%rsp), %ymm4
jmp 0x1d0787d
xorl %eax, %eax
xorl %r13d, %r13d
testb %al, %al
je 0x1d07a77
decq %r14
jne 0x1d07257
jmp 0x1d07a74
vmulss %xmm1, %xmm3, %xmm3
vmulss %xmm1, %xmm1, %xmm1
vmulss %xmm1, %xmm3, %xmm1
vaddss %xmm1, %xmm2, %xmm1
vbroadcastss %xmm1, %xmm1
vmulps %xmm1, %xmm9, %xmm1
vfmadd213ps %xmm12, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm0) + xmm12
vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm12, %xmm12, %xmm3 # xmm3 = xmm12[1,2,0,3]
vmulps %xmm3, %xmm1, %xmm1
vfmsub231ps %xmm2, %xmm12, %xmm1 # xmm1 = (xmm12 * xmm2) - xmm1
vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3]
vshufps $0xd2, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,0,1,3]
vmulps %xmm1, %xmm0, %xmm0
vfmsub231ps %xmm3, %xmm2, %xmm0 # xmm0 = (xmm2 * xmm3) - xmm0
movq 0x18(%rsp), %rdx
movq 0x8(%rdx), %rax
vshufps $0xe9, %xmm0, %xmm0, %xmm1 # xmm1 = xmm0[1,2,2,3]
vmovlps %xmm1, 0x170(%rsp)
vmovss %xmm0, 0x178(%rsp)
vmovss %xmm10, 0x17c(%rsp)
movl $0x0, 0x180(%rsp)
movq 0x90(%rsp), %rcx
movl %ecx, 0x184(%rsp)
movq 0x98(%rsp), %rcx
movl %ecx, 0x188(%rsp)
movl (%rax), %ecx
movl %ecx, 0x18c(%rsp)
movl 0x4(%rax), %eax
movl %eax, 0x190(%rsp)
vmovss %xmm8, 0x20(%r15)
movl $0xffffffff, 0x3c(%rsp) # imm = 0xFFFFFFFF
leaq 0x3c(%rsp), %rax
movq %rax, 0x110(%rsp)
movq 0x18(%r13), %rax
movq %rax, 0x118(%rsp)
movq 0x8(%rdx), %rax
movq %rax, 0x120(%rsp)
movq %r15, 0x128(%rsp)
leaq 0x170(%rsp), %rax
movq %rax, 0x130(%rsp)
movl $0x1, 0x138(%rsp)
movq 0x48(%r13), %rax
testq %rax, %rax
vmovaps %xmm10, 0x40(%rsp)
vmovaps %xmm8, 0xa0(%rsp)
vmovss %xmm5, 0x60(%rsp)
je 0x1d079f8
leaq 0x110(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0x60(%rsp), %xmm5
vmovaps 0xa0(%rsp), %xmm8
vmovaps 0x40(%rsp), %xmm10
vmovaps 0x1c0(%rsp), %ymm4
vbroadcastss 0x2194d9(%rip), %ymm28 # 0x1f20ec4
movq 0x110(%rsp), %rax
cmpl $0x0, (%rax)
je 0x1d07a5d
movq 0x18(%rsp), %rax
movq 0x10(%rax), %rcx
movq 0x10(%rcx), %rax
testq %rax, %rax
je 0x1d07a58
testb $0x2, (%rcx)
jne 0x1d07a16
testb $0x40, 0x3e(%r13)
je 0x1d07a4b
leaq 0x110(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0x60(%rsp), %xmm5
vmovaps 0xa0(%rsp), %xmm8
vmovaps 0x40(%rsp), %xmm10
vmovaps 0x1c0(%rsp), %ymm4
vbroadcastss 0x219479(%rip), %ymm28 # 0x1f20ec4
movq 0x110(%rsp), %rax
cmpl $0x0, (%rax)
je 0x1d07a5d
movb $0x1, %r13b
jmp 0x1d07a60
xorl %r13d, %r13d
testb %r13b, %r13b
jne 0x1d07869
vmovss %xmm5, 0x20(%r15)
jmp 0x1d07869
xorl %r13d, %r13d
andb $0x1, %r13b
orb %r13b, %bl
vmovaps 0x3a0(%rsp), %ymm0
vcmpleps 0x20(%r15){1to8}, %ymm0, %k0
kmovd %k0, %eax
andb %al, %r12b
movq 0x1b8(%rsp), %r11
jne 0x1d07173
jmp 0x1d07aaa
vmovaps %ymm3, %ymm4
vmovdqa 0x400(%rsp), %ymm1
vpcmpltd 0x380(%rsp), %ymm1, %k1
vmovaps 0x4a0(%rsp), %ymm0
vpcmpltd 0x520(%rsp), %ymm1, %k2
vaddps %ymm0, %ymm4, %ymm1
vbroadcastss 0x20(%r15), %ymm2
vcmpleps %ymm2, %ymm1, %k0 {%k2}
kmovd %k0, %eax
movl 0x108(%rsp), %ecx
andb %al, %cl
vmovaps 0x4e0(%rsp), %ymm1
vaddps %ymm1, %ymm4, %ymm3
vcmpleps %ymm2, %ymm3, %k0 {%k1}
kmovd %k0, %eax
movl 0x20(%rsp), %edx
andb %al, %dl
orb %cl, %dl
je 0x1d07b59
movl %r11d, %eax
leaq (%rax,%rax,2), %rax
shlq $0x5, %rax
movb %dl, 0x780(%rsp,%rax)
kmovd %ecx, %k1
vmovaps %ymm0, %ymm1 {%k1}
vmovaps %ymm1, 0x7a0(%rsp,%rax)
vmovaps 0x2d0(%rsp), %xmm0
vmovlps %xmm0, 0x7c0(%rsp,%rax)
movq 0xf8(%rsp), %rcx
incl %ecx
movl %ecx, 0x7c8(%rsp,%rax)
incl %r11d
movq 0x1a8(%rsp), %r9
movq 0x18(%rsp), %rdx
vbroadcastss 0x1e4ba5(%rip), %ymm3 # 0x1eec714
movb 0xf(%rsp), %al
movq 0x1b0(%rsp), %r14
movq 0x90(%rsp), %r12
vbroadcastss 0x20(%r15), %ymm0
testl %r11d, %r11d
je 0x1d07d73
leal -0x1(%r11), %r8d
leaq (%r8,%r8,2), %rcx
shlq $0x5, %rcx
movzbl 0x780(%rsp,%rcx), %esi
vmovaps 0x7a0(%rsp,%rcx), %ymm1
vaddps %ymm1, %ymm4, %ymm2
vcmpleps %ymm0, %ymm2, %k0
kmovb %k0, %r10d
andl %esi, %r10d
je 0x1d07c91
kmovd %r10d, %k1
vbroadcastss 0x1e3e4b(%rip), %ymm2 # 0x1eeba20
vblendmps %ymm1, %ymm2, %ymm1 {%k1}
vshufps $0xb1, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2,5,4,7,6]
vminps %ymm2, %ymm1, %ymm2
vshufpd $0x5, %ymm2, %ymm2, %ymm3 # ymm3 = ymm2[1,0,3,2]
vminps %ymm3, %ymm2, %ymm2
vpermpd $0x4e, %ymm2, %ymm3 # ymm3 = ymm2[2,3,0,1]
vminps %ymm3, %ymm2, %ymm2
vcmpeqps %ymm2, %ymm1, %k0
kmovd %k0, %esi
andb %r10b, %sil
je 0x1d07c0d
movzbl %sil, %edi
jmp 0x1d07c11
movzbl %r10b, %edi
leaq (%rsp,%rcx), %rsi
addq $0x780, %rsi # imm = 0x780
vmovss 0x44(%rsi), %xmm1
tzcntl %edi, %ecx
movb $0x1, %dil
shlb %cl, %dil
movl 0x48(%rsi), %r13d
movq %r13, 0xf8(%rsp)
movzbl %dil, %edi
kmovd %edi, %k0
kmovd %r10d, %k1
kandnb %k1, %k0, %k0
kmovb %k0, (%rsi)
kortestb %k0, %k0
vbroadcastss 0x1e4abb(%rip), %ymm3 # 0x1eec714
je 0x1d07c5e
movl %r11d, %r8d
vbroadcastss 0x40(%rsi), %ymm2
vsubss %xmm2, %xmm1, %xmm1
vbroadcastss %xmm1, %ymm1
vfmadd132ps 0x2192aa(%rip), %ymm2, %ymm1 # ymm1 = (ymm1 * mem) + ymm2
vmovaps %ymm1, 0x4a0(%rsp)
vmovsd 0x4a0(%rsp,%rcx,4), %xmm1
vmovaps %xmm1, 0x2d0(%rsp)
movl %r8d, %r11d
testb %r10b, %r10b
je 0x1d07b89
vmovaps 0x720(%rsp), %ymm18
vmovaps 0x700(%rsp), %ymm16
vmovaps 0x6e0(%rsp), %ymm17
vmovaps 0x6c0(%rsp), %ymm19
vmovaps 0x6a0(%rsp), %ymm20
vmovaps 0x680(%rsp), %ymm22
vmovaps 0x660(%rsp), %ymm23
vmovaps 0x640(%rsp), %ymm24
vmovaps 0x620(%rsp), %ymm25
vmovaps 0x600(%rsp), %ymm27
vmovaps 0x5e0(%rsp), %ymm29
vmovaps 0x5c0(%rsp), %ymm31
vmovaps 0x5a0(%rsp), %ymm21
vmovaps 0x580(%rsp), %ymm6
vmovaps 0x560(%rsp), %ymm30
vmovdqa 0x2d0(%rsp), %xmm1
jmp 0x1d05b90
vcmpleps 0x2191d1(%rip), %ymm4, %k2 # 0x1f20f00
vbroadcastss 0x1e4e4c(%rip), %ymm4 # 0x1eecb84
vbroadcastss 0x1e3cde(%rip), %ymm16 # 0x1eeba20
vblendmps %ymm4, %ymm16, %ymm3 {%k2}
vmovaps %ymm3, %ymm31 {%k1}
vblendmps %ymm16, %ymm4, %ymm3 {%k2}
kmovd %k2, %ecx
vmovaps %ymm3, %ymm30 {%k1}
knotb %k1, %k0
kmovd %k0, %esi
orb %cl, %sil
andb %dil, %sil
movl %esi, %edi
jmp 0x1d060f9
testb $0x1, %bl
jne 0x1d07d99
vmovaps 0x540(%rsp), %ymm0
vcmpleps 0x20(%r15){1to8}, %ymm0, %k0
kmovb %k0, %eax
andl %eax, %r14d
setne %al
jne 0x1d0589a
andb $0x1, %al
leaq -0x28(%rbp), %rsp
popq %rbx
popq %r12
popq %r13
popq %r14
popq %r15
popq %rbp
vzeroupper
retq
nop
|
/embree[P]embree/kernels/geometry/curveNi_intersector.h
|
void embree::avx512::CurveNiIntersectorK<8, 4>::intersect_t<embree::avx512::SweepCurve1IntersectorK<embree::BSplineCurveT, 4>, embree::avx512::Intersect1KEpilog1<4, true>>(embree::avx512::CurvePrecalculationsK<4>&, embree::RayHitK<4>&, unsigned long, embree::RayQueryContext*, embree::CurveNi<8> const&)
|
static __forceinline void intersect_t(Precalculations& pre, RayHitK<K>& ray, const size_t k, RayQueryContext* context, const Primitive& prim)
{
vfloat<M> tNear;
vbool<M> valid = intersect(ray,k,prim,tNear);
const size_t N = prim.N;
size_t mask = movemask(valid);
while (mask)
{
const size_t i = bscf(mask);
STAT3(normal.trav_prims,1,1,1);
const unsigned int geomID = prim.geomID(N);
const unsigned int primID = prim.primID(N)[i];
const CurveGeometry* geom = context->scene->get<CurveGeometry>(geomID);
Vec3ff a0,a1,a2,a3; geom->gather(a0,a1,a2,a3,geom->curve(primID));
size_t mask1 = mask;
const size_t i1 = bscf(mask1);
if (mask) {
const unsigned int primID1 = prim.primID(N)[i1];
geom->prefetchL1_vertices(geom->curve(primID1));
if (mask1) {
const size_t i2 = bsf(mask1);
const unsigned int primID2 = prim.primID(N)[i2];
geom->prefetchL2_vertices(geom->curve(primID2));
}
}
Intersector().intersect(pre,ray,k,context,geom,primID,a0,a1,a2,a3,Epilog(ray,k,context,geomID,primID));
mask &= movemask(tNear <= vfloat<M>(ray.tfar[k]));
}
}
|
pushq %rbp
movq %rsp, %rbp
pushq %r15
pushq %r14
pushq %r13
pushq %r12
pushq %rbx
andq $-0x20, %rsp
subq $0x9a0, %rsp # imm = 0x9A0
movq %rcx, %r15
movq %rsi, %r12
movzbl 0x1(%r8), %ecx
leaq (%rcx,%rcx,4), %rax
leaq (%rax,%rax,4), %rsi
vbroadcastss 0x12(%r8,%rsi), %xmm0
vmovss (%r12,%rdx,4), %xmm1
vmovss 0x40(%r12,%rdx,4), %xmm2
vinsertps $0x10, 0x10(%r12,%rdx,4), %xmm1, %xmm1 # xmm1 = xmm1[0],mem[0],xmm1[2,3]
vinsertps $0x20, 0x20(%r12,%rdx,4), %xmm1, %xmm1 # xmm1 = xmm1[0,1],mem[0],xmm1[3]
vinsertps $0x10, 0x50(%r12,%rdx,4), %xmm2, %xmm2 # xmm2 = xmm2[0],mem[0],xmm2[2,3]
vinsertps $0x20, 0x60(%r12,%rdx,4), %xmm2, %xmm2 # xmm2 = xmm2[0,1],mem[0],xmm2[3]
vsubps 0x6(%r8,%rsi), %xmm1, %xmm1
vmulps %xmm1, %xmm0, %xmm3
vmulps %xmm2, %xmm0, %xmm0
vpmovsxbd 0x6(%r8,%rcx,4), %ymm1
vpmovsxbd 0x6(%r8,%rax), %ymm2
vcvtdq2ps %ymm1, %ymm5
vcvtdq2ps %ymm2, %ymm6
leaq (%rcx,%rcx,2), %r9
vpmovsxbd 0x6(%r8,%r9,2), %ymm1
vcvtdq2ps %ymm1, %ymm4
leaq (%rcx,%rax,2), %rsi
vpmovsxbd 0x6(%r8,%rsi), %ymm1
leal (,%r9,4), %esi
vpmovsxbd 0x6(%r8,%rsi), %ymm2
vcvtdq2ps %ymm1, %ymm7
vcvtdq2ps %ymm2, %ymm8
addq %rcx, %rsi
vpmovsxbd 0x6(%r8,%rsi), %ymm1
vcvtdq2ps %ymm1, %ymm9
leaq (%rcx,%rcx,8), %rsi
leal (%rsi,%rsi), %edi
vpmovsxbd 0x6(%r8,%rdi), %ymm1
vcvtdq2ps %ymm1, %ymm10
addq %rcx, %rdi
vpmovsxbd 0x6(%r8,%rdi), %ymm1
vcvtdq2ps %ymm1, %ymm11
shll $0x2, %eax
vpmovsxbd 0x6(%r8,%rax), %ymm1
vcvtdq2ps %ymm1, %ymm12
vbroadcastss %xmm0, %ymm13
vbroadcastss 0x20a857(%rip), %ymm15 # 0x1f12704
vbroadcastss 0x219025(%rip), %ymm16 # 0x1f20edc
vpermps %ymm0, %ymm15, %ymm14
vpermps %ymm0, %ymm16, %ymm0
vmulps %ymm4, %ymm0, %ymm2
vmulps %ymm0, %ymm9, %ymm1
vmulps %ymm0, %ymm12, %ymm0
vfmadd231ps %ymm6, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm6) + ymm2
vfmadd231ps %ymm8, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm8) + ymm1
vfmadd231ps %ymm14, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm14) + ymm0
vfmadd231ps %ymm5, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm5) + ymm2
vfmadd231ps %ymm7, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm7) + ymm1
vfmadd231ps %ymm13, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm13) + ymm0
vbroadcastss %xmm3, %ymm13
vpermps %ymm3, %ymm15, %ymm14
vpermps %ymm3, %ymm16, %ymm3
vmulps %ymm4, %ymm3, %ymm15
vmulps %ymm3, %ymm9, %ymm4
vmulps %ymm3, %ymm12, %ymm3
vfmadd231ps %ymm6, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm6) + ymm15
vfmadd231ps %ymm8, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm8) + ymm4
vfmadd231ps %ymm11, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm11) + ymm3
vfmadd231ps %ymm5, %ymm13, %ymm15 # ymm15 = (ymm13 * ymm5) + ymm15
vfmadd231ps %ymm7, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm7) + ymm4
vbroadcastss 0x218f9a(%rip), %ymm6 # 0x1f20ec4
vfmadd231ps %ymm10, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm10) + ymm3
vandps %ymm6, %ymm2, %ymm5
vbroadcastss 0x1e90ac(%rip), %ymm7 # 0x1ef0fe8
vcmpltps %ymm7, %ymm5, %k1
vmovaps %ymm7, %ymm2 {%k1}
vandps %ymm6, %ymm1, %ymm5
vcmpltps %ymm7, %ymm5, %k1
vmovaps %ymm7, %ymm1 {%k1}
vandps %ymm6, %ymm0, %ymm5
vcmpltps %ymm7, %ymm5, %k1
vmovaps %ymm7, %ymm0 {%k1}
vrcp14ps %ymm2, %ymm5
vbroadcastss 0x1e479a(%rip), %ymm6 # 0x1eec714
vfnmadd213ps %ymm6, %ymm5, %ymm2 # ymm2 = -(ymm5 * ymm2) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm2 # ymm2 = (ymm2 * ymm5) + ymm5
vrcp14ps %ymm1, %ymm5
vfnmadd213ps %ymm6, %ymm5, %ymm1 # ymm1 = -(ymm5 * ymm1) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm1 # ymm1 = (ymm1 * ymm5) + ymm5
vrcp14ps %ymm0, %ymm5
vfnmadd213ps %ymm6, %ymm5, %ymm0 # ymm0 = -(ymm5 * ymm0) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm0 # ymm0 = (ymm0 * ymm5) + ymm5
leaq (,%rcx,8), %rdi
subq %rcx, %rdi
vpmovsxwd 0x6(%r8,%rdi), %ymm5
vcvtdq2ps %ymm5, %ymm5
vsubps %ymm15, %ymm5, %ymm5
vmulps %ymm5, %ymm2, %ymm5
vpmovsxwd 0x6(%r8,%rsi), %ymm6
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm15, %ymm6, %ymm6
leaq (%rcx,%rcx), %rsi
addq %rcx, %rax
shlq $0x3, %r9
subq %rcx, %r9
vpbroadcastd %ecx, %ymm7
shll $0x4, %ecx
vpmovsxwd 0x6(%r8,%rcx), %ymm8
vmulps %ymm6, %ymm2, %ymm2
subq %rsi, %rcx
vpmovsxwd 0x6(%r8,%rcx), %ymm6
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm4, %ymm6, %ymm6
vmulps %ymm6, %ymm1, %ymm6
vcvtdq2ps %ymm8, %ymm8
vsubps %ymm4, %ymm8, %ymm4
vmulps %ymm4, %ymm1, %ymm1
vpmovsxwd 0x6(%r8,%rax), %ymm4
vcvtdq2ps %ymm4, %ymm4
vsubps %ymm3, %ymm4, %ymm4
vmulps %ymm0, %ymm4, %ymm4
vpmovsxwd 0x6(%r8,%r9), %ymm8
vcvtdq2ps %ymm8, %ymm8
vsubps %ymm3, %ymm8, %ymm3
vmulps %ymm3, %ymm0, %ymm0
vpminsd %ymm2, %ymm5, %ymm3
vpminsd %ymm1, %ymm6, %ymm8
vmaxps %ymm8, %ymm3, %ymm3
vpminsd %ymm0, %ymm4, %ymm8
vmaxps 0x30(%r12,%rdx,4){1to8}, %ymm8, %ymm8
vmaxps %ymm8, %ymm3, %ymm3
vmulps 0x217ea6(%rip){1to8}, %ymm3, %ymm3 # 0x1f1ff10
vpmaxsd %ymm2, %ymm5, %ymm2
vpmaxsd %ymm1, %ymm6, %ymm1
vminps %ymm1, %ymm2, %ymm1
vpmaxsd %ymm0, %ymm4, %ymm0
movq %rdx, 0x18(%rsp)
vminps 0x80(%r12,%rdx,4){1to8}, %ymm0, %ymm0
vminps %ymm0, %ymm1, %ymm0
vmulps 0x217e7c(%rip){1to8}, %ymm0, %ymm0 # 0x1f1ff14
vpcmpgtd 0x25287e(%rip), %ymm7, %k0 # 0x1f5a920
vmovaps %ymm3, 0x5c0(%rsp)
vcmpleps %ymm0, %ymm3, %k1
ktestb %k0, %k1
je 0x1d0a9c4
kandb %k0, %k1, %k0
kmovd %k0, %eax
movzbl %al, %r10d
movl $0x1, %eax
movq 0x18(%rsp), %rcx
shlxl %ecx, %eax, %eax
kmovd %eax, %k0
vpmovm2d %k0, %xmm0
vmovdqa %xmm0, 0x3b0(%rsp)
movq %r15, 0x28(%rsp)
movq %r8, 0x180(%rsp)
tzcntq %r10, %rax
movl 0x2(%r8), %ecx
movl 0x6(%r8,%rax,4), %edi
movq (%r15), %rax
movq 0x1e8(%rax), %rax
movq %rcx, 0x50(%rsp)
movq (%rax,%rcx,8), %rsi
movq 0x58(%rsi), %rax
movq 0x68(%rsi), %rcx
movq %rcx, %rdx
movq %rdi, 0xf0(%rsp)
imulq %rdi, %rdx
movl (%rax,%rdx), %edi
movq 0xa0(%rsi), %rdx
movq %rdx, %r9
imulq %rdi, %r9
movq 0x90(%rsi), %rsi
vmovaps (%rsi,%r9), %xmm1
leaq 0x1(%rdi), %r9
imulq %rdx, %r9
vmovaps (%rsi,%r9), %xmm0
leaq 0x2(%rdi), %r9
imulq %rdx, %r9
vmovaps (%rsi,%r9), %xmm2
blsrq %r10, %r10
addq $0x3, %rdi
imulq %rdx, %rdi
vmovaps (%rsi,%rdi), %xmm3
movq %r10, %rdi
subq $0x1, %rdi
jb 0x1d081cb
andq %r10, %rdi
tzcntq %r10, %r9
movl 0x6(%r8,%r9,4), %r9d
imulq %rcx, %r9
movl (%rax,%r9), %r9d
imulq %rdx, %r9
prefetcht0 (%rsi,%r9)
prefetcht0 0x40(%rsi,%r9)
testq %rdi, %rdi
je 0x1d081cb
tzcntq %rdi, %rdi
movl 0x6(%r8,%rdi,4), %edi
imulq %rdi, %rcx
movl (%rax,%rcx), %eax
imulq %rax, %rdx
prefetcht1 (%rsi,%rdx)
prefetcht1 0x40(%rsi,%rdx)
movq 0x18(%rsp), %rax
vmovss (%r12,%rax,4), %xmm4
vinsertps $0x1c, 0x10(%r12,%rax,4), %xmm4, %xmm4 # xmm4 = xmm4[0],mem[0],zero,zero
vinsertps $0x28, 0x20(%r12,%rax,4), %xmm4, %xmm4 # xmm4 = xmm4[0,1],mem[0],zero
vbroadcastss 0x40(%r12,%rax,4), %ymm30
vbroadcastss 0x50(%r12,%rax,4), %ymm31
vunpcklps %xmm31, %xmm30, %xmm5 # xmm5 = xmm30[0],xmm31[0],xmm30[1],xmm31[1]
vbroadcastss 0x60(%r12,%rax,4), %ymm21
vinsertps $0x28, %xmm21, %xmm5, %xmm9 # xmm9 = xmm5[0,1],xmm21[0],zero
vaddps %xmm0, %xmm1, %xmm5
vaddps %xmm2, %xmm5, %xmm5
vaddps %xmm3, %xmm5, %xmm5
vmulps 0x2150db(%rip){1to4}, %xmm5, %xmm5 # 0x1f1d2fc
vsubps %xmm4, %xmm5, %xmm5
vdpps $0x7f, %xmm9, %xmm5, %xmm5
vmovss 0x30(%r12,%rax,4), %xmm10
vdpps $0x7f, %xmm9, %xmm9, %xmm11
vxorps %xmm8, %xmm8, %xmm8
vmovss %xmm11, %xmm8, %xmm6
vrcp14ss %xmm6, %xmm8, %xmm6
vmovaps %xmm6, %xmm7
vfnmadd213ss 0x1e8da4(%rip), %xmm11, %xmm7 # xmm7 = -(xmm11 * xmm7) + mem
vmulss %xmm7, %xmm6, %xmm6
vmulss %xmm6, %xmm5, %xmm5
vbroadcastss %xmm5, %ymm6
vmovaps %xmm9, 0x230(%rsp)
vmovaps %ymm6, 0x360(%rsp)
vfmadd231ps %xmm6, %xmm9, %xmm4 # xmm4 = (xmm9 * xmm6) + xmm4
vblendps $0x8, %xmm8, %xmm4, %xmm4 # xmm4 = xmm4[0,1,2],xmm8[3]
vsubps %xmm4, %xmm1, %xmm6
vsubps %xmm4, %xmm2, %xmm7
vsubps %xmm4, %xmm0, %xmm8
vsubps %xmm4, %xmm3, %xmm3
vbroadcastss %xmm6, %ymm0
vmovaps %ymm0, 0x800(%rsp)
vbroadcastss 0x20a45f(%rip), %ymm0 # 0x1f12704
vpermps %ymm6, %ymm0, %ymm1
vmovaps %ymm1, 0x7e0(%rsp)
vbroadcastss 0x218c20(%rip), %ymm1 # 0x1f20edc
vpermps %ymm6, %ymm1, %ymm2
vmovaps %ymm2, 0x7c0(%rsp)
vbroadcastss 0x218c05(%rip), %ymm2 # 0x1f20ed8
vmovaps %ymm6, 0x2a0(%rsp)
vpermps %ymm6, %ymm2, %ymm4
vmovaps %ymm4, 0x7a0(%rsp)
vbroadcastss %xmm8, %ymm4
vmovaps %ymm4, 0x780(%rsp)
vpermps %ymm8, %ymm0, %ymm4
vmovaps %ymm4, 0x760(%rsp)
vpermps %ymm8, %ymm1, %ymm4
vmovaps %ymm4, 0x740(%rsp)
vmovaps %ymm8, 0x260(%rsp)
vpermps %ymm8, %ymm2, %ymm4
vmovaps %ymm4, 0x720(%rsp)
vbroadcastss %xmm7, %ymm4
vmovaps %ymm4, 0x700(%rsp)
vpermps %ymm7, %ymm0, %ymm4
vmovaps %ymm4, 0x6e0(%rsp)
vpermps %ymm7, %ymm1, %ymm4
vmovaps %ymm4, 0x6c0(%rsp)
vmovaps %ymm7, 0x280(%rsp)
vpermps %ymm7, %ymm2, %ymm4
vmovaps %ymm4, 0x6a0(%rsp)
vbroadcastss %xmm3, %ymm4
vmovaps %ymm4, 0x680(%rsp)
vpermps %ymm3, %ymm0, %ymm0
vmovaps %ymm0, 0x660(%rsp)
vpermps %ymm3, %ymm1, %ymm0
vmovaps %ymm0, 0x640(%rsp)
vmovaps %ymm3, 0x240(%rsp)
vpermps %ymm3, %ymm2, %ymm0
vmovaps %ymm0, 0x620(%rsp)
vmulss %xmm21, %xmm21, %xmm0
vfmadd231ps %ymm31, %ymm31, %ymm0 # ymm0 = (ymm31 * ymm31) + ymm0
vfmadd231ps %ymm30, %ymm30, %ymm0 # ymm0 = (ymm30 * ymm30) + ymm0
vbroadcastss %xmm0, %ymm0
vmovaps %ymm0, 0x600(%rsp)
vandps 0x218aed(%rip){1to8}, %ymm0, %ymm0 # 0x1f20ec4
vmovaps %ymm0, 0x520(%rsp)
vmovss %xmm10, 0x5c(%rsp)
vmovaps %xmm5, 0x2e0(%rsp)
vsubss %xmm5, %xmm10, %xmm0
vbroadcastss %xmm0, %ymm0
vmovaps %ymm0, 0x5e0(%rsp)
movq 0x50(%rsp), %rax
vpbroadcastd %eax, %xmm0
vmovdqa %xmm0, 0x3d0(%rsp)
movl $0x1, %r11d
xorl %r9d, %r9d
movq 0xf0(%rsp), %rax
vpbroadcastd %eax, %xmm0
vmovdqa %xmm0, 0x3c0(%rsp)
vsqrtss %xmm11, %xmm11, %xmm0
vmovss %xmm0, 0x10c(%rsp)
vmovaps %xmm11, 0x220(%rsp)
vsqrtss %xmm11, %xmm11, %xmm0
vmovss %xmm0, 0x108(%rsp)
vmovsd 0x1e428e(%rip), %xmm2 # 0x1eec6f0
vbroadcastss 0x1e42a8(%rip), %ymm16 # 0x1eec714
vmovaps %ymm30, 0x540(%rsp)
vmovaps %ymm31, 0x1c0(%rsp)
vmovaps %ymm21, 0x1a0(%rsp)
vmovshdup %xmm2, %xmm0 # xmm0 = xmm2[1,1,3,3]
vsubss %xmm2, %xmm0, %xmm0
vmulss 0x218a3c(%rip), %xmm0, %xmm1 # 0x1f20ed0
vmovaps %xmm1, 0x80(%rsp)
vmovaps %xmm2, 0x170(%rsp)
vbroadcastss %xmm2, %ymm4
vbroadcastss %xmm0, %ymm0
vmovaps %ymm4, 0x60(%rsp)
vmovaps %ymm0, 0x200(%rsp)
vfmadd231ps 0x218a58(%rip), %ymm0, %ymm4 # ymm4 = (ymm0 * mem) + ymm4
vsubps %ymm4, %ymm16, %ymm7
vmulps %ymm7, %ymm7, %ymm8
vmulps %ymm7, %ymm8, %ymm0
vbroadcastss 0x1e46ac(%rip), %ymm30 # 0x1eecb8c
vmulps %ymm30, %ymm0, %ymm1
vmulps %ymm4, %ymm4, %ymm9
vmulps %ymm4, %ymm9, %ymm2
vaddps %ymm1, %ymm2, %ymm1
vmulps %ymm7, %ymm4, %ymm10
vmulps %ymm7, %ymm10, %ymm5
vbroadcastss 0x1e8af9(%rip), %ymm14 # 0x1ef0ffc
vmulps %ymm5, %ymm14, %ymm11
vmulps %ymm4, %ymm10, %ymm12
vbroadcastss 0x1e8ae0(%rip), %ymm15 # 0x1ef0ff4
vmulps %ymm15, %ymm12, %ymm13
vaddps %ymm13, %ymm11, %ymm11
vaddps %ymm1, %ymm11, %ymm1
vmulps %ymm30, %ymm2, %ymm11
vaddps %ymm0, %ymm11, %ymm11
vmulps %ymm14, %ymm12, %ymm12
vmulps %ymm5, %ymm15, %ymm5
vaddps %ymm5, %ymm12, %ymm5
vaddps %ymm5, %ymm11, %ymm5
vbroadcastss 0x1e8aba(%rip), %ymm14 # 0x1ef1000
vmulps %ymm0, %ymm14, %ymm11
vmulps %ymm1, %ymm14, %ymm12
vmulps %ymm5, %ymm14, %ymm13
vmulps %ymm2, %ymm14, %ymm5
vmovaps 0x680(%rsp), %ymm25
vmulps %ymm5, %ymm25, %ymm0
vmovaps 0x660(%rsp), %ymm27
vmulps %ymm5, %ymm27, %ymm2
vmovaps 0x640(%rsp), %ymm28
vmulps %ymm5, %ymm28, %ymm1
vmovaps 0x620(%rsp), %ymm29
vmulps %ymm5, %ymm29, %ymm5
vmovaps 0x700(%rsp), %ymm20
vfmadd231ps %ymm20, %ymm13, %ymm0 # ymm0 = (ymm13 * ymm20) + ymm0
vmovaps 0x6e0(%rsp), %ymm22
vfmadd231ps %ymm22, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm22) + ymm2
vmovaps 0x6c0(%rsp), %ymm23
vfmadd231ps %ymm23, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm23) + ymm1
vmovaps 0x6a0(%rsp), %ymm24
vfmadd231ps %ymm13, %ymm24, %ymm5 # ymm5 = (ymm24 * ymm13) + ymm5
vmovaps 0x780(%rsp), %ymm16
vfmadd231ps %ymm16, %ymm12, %ymm0 # ymm0 = (ymm12 * ymm16) + ymm0
vmovaps 0x760(%rsp), %ymm17
vfmadd231ps %ymm17, %ymm12, %ymm2 # ymm2 = (ymm12 * ymm17) + ymm2
vmovaps 0x740(%rsp), %ymm18
vfmadd231ps %ymm18, %ymm12, %ymm1 # ymm1 = (ymm12 * ymm18) + ymm1
vmovaps 0x720(%rsp), %ymm19
vfmadd231ps %ymm12, %ymm19, %ymm5 # ymm5 = (ymm19 * ymm12) + ymm5
vmovaps 0x800(%rsp), %ymm6
vfmadd231ps %ymm6, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm6) + ymm0
vmovaps 0x7e0(%rsp), %ymm3
vfmadd231ps %ymm3, %ymm11, %ymm2 # ymm2 = (ymm11 * ymm3) + ymm2
vmovaps 0x7c0(%rsp), %ymm14
vfmadd231ps %ymm14, %ymm11, %ymm1 # ymm1 = (ymm11 * ymm14) + ymm1
vmovaps 0x7a0(%rsp), %ymm15
vfmadd231ps %ymm11, %ymm15, %ymm5 # ymm5 = (ymm15 * ymm11) + ymm5
vbroadcastss 0x218880(%rip), %ymm26 # 0x1f20ec0
vxorps %ymm26, %ymm7, %ymm11
vmulps %ymm7, %ymm11, %ymm7
vxorps %ymm26, %ymm4, %ymm11
vmulps %ymm4, %ymm11, %ymm4
vmulps %ymm30, %ymm10, %ymm10
vsubps %ymm10, %ymm4, %ymm4
vaddps %ymm10, %ymm8, %ymm8
vbroadcastss 0x1e4513(%rip), %ymm10 # 0x1eecb80
vmulps %ymm7, %ymm10, %ymm7
vmulps %ymm4, %ymm10, %ymm4
vmulps %ymm10, %ymm8, %ymm8
vmulps %ymm10, %ymm9, %ymm9
vmulps %ymm9, %ymm25, %ymm10
vmulps %ymm9, %ymm27, %ymm12
vmulps %ymm9, %ymm28, %ymm13
vmulps %ymm9, %ymm29, %ymm9
vfmadd231ps %ymm20, %ymm8, %ymm10 # ymm10 = (ymm8 * ymm20) + ymm10
vfmadd231ps %ymm22, %ymm8, %ymm12 # ymm12 = (ymm8 * ymm22) + ymm12
vfmadd231ps %ymm23, %ymm8, %ymm13 # ymm13 = (ymm8 * ymm23) + ymm13
vfmadd231ps %ymm8, %ymm24, %ymm9 # ymm9 = (ymm24 * ymm8) + ymm9
vfmadd231ps %ymm16, %ymm4, %ymm10 # ymm10 = (ymm4 * ymm16) + ymm10
vfmadd231ps %ymm17, %ymm4, %ymm12 # ymm12 = (ymm4 * ymm17) + ymm12
vfmadd231ps %ymm18, %ymm4, %ymm13 # ymm13 = (ymm4 * ymm18) + ymm13
vfmadd231ps %ymm4, %ymm19, %ymm9 # ymm9 = (ymm19 * ymm4) + ymm9
vfmadd231ps %ymm6, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm6) + ymm10
vfmadd231ps %ymm3, %ymm7, %ymm12 # ymm12 = (ymm7 * ymm3) + ymm12
vfmadd231ps %ymm14, %ymm7, %ymm13 # ymm13 = (ymm7 * ymm14) + ymm13
vfmadd231ps %ymm7, %ymm15, %ymm9 # ymm9 = (ymm15 * ymm7) + ymm9
vbroadcastss 0x80(%rsp), %ymm4
vmulps %ymm4, %ymm10, %ymm11
vmulps %ymm4, %ymm12, %ymm12
vmulps %ymm4, %ymm13, %ymm13
vmulps %ymm4, %ymm9, %ymm6
vmovaps %ymm0, %ymm8
vmovaps 0x25761f(%rip), %ymm7 # 0x1f5fd20
vmovaps %ymm31, %ymm3
vxorps %xmm31, %xmm31, %xmm31
vpermt2ps %ymm31, %ymm7, %ymm8
vmovaps %ymm2, %ymm9
vpermt2ps %ymm31, %ymm7, %ymm9
vmovaps %ymm1, %ymm10
vpermt2ps %ymm31, %ymm7, %ymm10
vaddps %ymm5, %ymm6, %ymm4
vmaxps %ymm4, %ymm5, %ymm14
vminps %ymm4, %ymm5, %ymm4
vmovaps %ymm5, %ymm15
vpermt2ps %ymm31, %ymm7, %ymm15
vmovaps %ymm11, %ymm19
vpermt2ps %ymm31, %ymm7, %ymm19
vmovaps %ymm12, %ymm20
vpermt2ps %ymm31, %ymm7, %ymm20
vmovaps %ymm13, %ymm5
vpermt2ps %ymm31, %ymm7, %ymm5
vpermt2ps %ymm31, %ymm7, %ymm6
vsubps %ymm6, %ymm15, %ymm16
vsubps %ymm0, %ymm8, %ymm7
vsubps %ymm2, %ymm9, %ymm6
vsubps %ymm1, %ymm10, %ymm27
vmulps %ymm13, %ymm6, %ymm17
vfmsub231ps %ymm27, %ymm12, %ymm17 # ymm17 = (ymm12 * ymm27) - ymm17
vmulps %ymm11, %ymm27, %ymm18
vfmsub231ps %ymm7, %ymm13, %ymm18 # ymm18 = (ymm13 * ymm7) - ymm18
vmulps %ymm12, %ymm7, %ymm22
vfmsub231ps %ymm6, %ymm11, %ymm22 # ymm22 = (ymm11 * ymm6) - ymm22
vmulps %ymm22, %ymm22, %ymm22
vfmadd231ps %ymm18, %ymm18, %ymm22 # ymm22 = (ymm18 * ymm18) + ymm22
vfmadd231ps %ymm17, %ymm17, %ymm22 # ymm22 = (ymm17 * ymm17) + ymm22
vmulps %ymm27, %ymm27, %ymm17
vfmadd231ps %ymm6, %ymm6, %ymm17 # ymm17 = (ymm6 * ymm6) + ymm17
vfmadd231ps %ymm7, %ymm7, %ymm17 # ymm17 = (ymm7 * ymm7) + ymm17
vrcp14ps %ymm17, %ymm18
vmovaps %ymm18, %ymm23
vbroadcastss 0x1e3f3d(%rip), %ymm24 # 0x1eec714
vmovaps %ymm24, %ymm26
vfnmadd213ps %ymm24, %ymm17, %ymm23 # ymm23 = -(ymm17 * ymm23) + ymm24
vfmadd132ps %ymm18, %ymm18, %ymm23 # ymm23 = (ymm23 * ymm18) + ymm18
vmulps %ymm23, %ymm22, %ymm18
vmulps %ymm5, %ymm6, %ymm22
vfmsub231ps %ymm27, %ymm20, %ymm22 # ymm22 = (ymm20 * ymm27) - ymm22
vmulps %ymm19, %ymm27, %ymm24
vfmsub231ps %ymm7, %ymm5, %ymm24 # ymm24 = (ymm5 * ymm7) - ymm24
vmulps %ymm20, %ymm7, %ymm25
vfmsub231ps %ymm6, %ymm19, %ymm25 # ymm25 = (ymm19 * ymm6) - ymm25
vmulps %ymm25, %ymm25, %ymm25
vfmadd231ps %ymm24, %ymm24, %ymm25 # ymm25 = (ymm24 * ymm24) + ymm25
vfmadd231ps %ymm22, %ymm22, %ymm25 # ymm25 = (ymm22 * ymm22) + ymm25
vmulps %ymm23, %ymm25, %ymm22
vmaxps %ymm22, %ymm18, %ymm18
vsqrtps %ymm18, %ymm18
vmaxps %ymm15, %ymm16, %ymm22
vmaxps %ymm22, %ymm14, %ymm14
vaddps %ymm14, %ymm18, %ymm14
vminps %ymm15, %ymm16, %ymm15
vminps %ymm15, %ymm4, %ymm4
vsubps %ymm18, %ymm4, %ymm4
vmulps 0x1e80dc(%rip){1to8}, %ymm14, %ymm14 # 0x1ef0940
vmulps 0x1e80d6(%rip){1to8}, %ymm4, %ymm4 # 0x1ef0944
vmovaps %ymm4, 0x80(%rsp)
vmulps %ymm14, %ymm14, %ymm4
vrsqrt14ps %ymm17, %ymm15
vmulps 0x1e3e90(%rip){1to8}, %ymm17, %ymm14 # 0x1eec71c
vmulps %ymm14, %ymm15, %ymm14
vmulps %ymm15, %ymm15, %ymm16
vmulps %ymm14, %ymm16, %ymm14
vfmadd231ps 0x1e3e71(%rip){1to8}, %ymm15, %ymm14 # ymm14 = (ymm15 * mem) + ymm14
vmulps %ymm7, %ymm14, %ymm15
vmulps %ymm14, %ymm6, %ymm16
vmovaps %ymm27, 0x380(%rsp)
vmulps %ymm14, %ymm27, %ymm18
vmovaps %ymm0, 0x140(%rsp)
vsubps %ymm0, %ymm31, %ymm27
vmovaps %ymm2, 0xa0(%rsp)
vsubps %ymm2, %ymm31, %ymm28
vmovaps %ymm1, 0x1e0(%rsp)
vsubps %ymm1, %ymm31, %ymm29
vmulps %ymm29, %ymm21, %ymm22
vfmadd231ps %ymm28, %ymm3, %ymm22 # ymm22 = (ymm3 * ymm28) + ymm22
vmovaps 0x540(%rsp), %ymm0
vfmadd231ps %ymm27, %ymm0, %ymm22 # ymm22 = (ymm0 * ymm27) + ymm22
vmulps %ymm29, %ymm29, %ymm24
vfmadd231ps %ymm28, %ymm28, %ymm24 # ymm24 = (ymm28 * ymm28) + ymm24
vfmadd231ps %ymm27, %ymm27, %ymm24 # ymm24 = (ymm27 * ymm27) + ymm24
vmulps %ymm18, %ymm21, %ymm17
vfmadd231ps %ymm3, %ymm16, %ymm17 # ymm17 = (ymm16 * ymm3) + ymm17
vfmadd231ps %ymm0, %ymm15, %ymm17 # ymm17 = (ymm15 * ymm0) + ymm17
vmulps %ymm18, %ymm29, %ymm18
vfmadd231ps %ymm16, %ymm28, %ymm18 # ymm18 = (ymm28 * ymm16) + ymm18
vfmadd231ps %ymm15, %ymm27, %ymm18 # ymm18 = (ymm27 * ymm15) + ymm18
vmulps %ymm17, %ymm17, %ymm2
vmovaps 0x600(%rsp), %ymm3
vsubps %ymm2, %ymm3, %ymm15
vmulps %ymm18, %ymm17, %ymm25
vsubps %ymm25, %ymm22, %ymm22
vaddps %ymm22, %ymm22, %ymm22
vmulps %ymm18, %ymm18, %ymm25
vsubps %ymm25, %ymm24, %ymm1
vsubps %ymm4, %ymm1, %ymm4
vmulps %ymm22, %ymm22, %ymm25
vmulps %ymm30, %ymm15, %ymm24
vmulps %ymm4, %ymm24, %ymm30
vsubps %ymm30, %ymm25, %ymm30
vcmpnltps %ymm31, %ymm30, %k1
kmovd %k1, %eax
kortestb %k1, %k1
je 0x1d08a7d
vsqrtps %ymm30, %ymm30
vaddps %ymm15, %ymm15, %ymm31
vrcp14ps %ymm31, %ymm3
vfnmadd213ps %ymm26, %ymm3, %ymm31 # ymm31 = -(ymm3 * ymm31) + ymm26
vfmadd132ps %ymm3, %ymm3, %ymm31 # ymm31 = (ymm31 * ymm3) + ymm3
vxorps 0x2184f9(%rip){1to8}, %ymm22, %ymm3 # 0x1f20ec0
vsubps %ymm30, %ymm3, %ymm3
vmulps %ymm31, %ymm3, %ymm3
vsubps %ymm22, %ymm30, %ymm30
vmulps %ymm31, %ymm30, %ymm31
vmovaps %ymm17, %ymm30
vfmadd213ps %ymm18, %ymm3, %ymm30 # ymm30 = (ymm3 * ymm30) + ymm18
vmulps %ymm30, %ymm14, %ymm30
vmovaps %ymm30, 0x4e0(%rsp)
vmovaps %ymm17, %ymm30
vfmadd213ps %ymm18, %ymm31, %ymm30 # ymm30 = (ymm31 * ymm30) + ymm18
vmulps %ymm30, %ymm14, %ymm30
vmovaps %ymm30, 0x4c0(%rsp)
vbroadcastss 0x1e3003(%rip), %ymm16 # 0x1eeba20
vblendmps %ymm3, %ymm16, %ymm30 {%k1}
vbroadcastss 0x1e4158(%rip), %ymm3 # 0x1eecb84
vblendmps %ymm31, %ymm3, %ymm31 {%k1}
vbroadcastss 0x218488(%rip), %ymm23 # 0x1f20ec4
vandps %ymm23, %ymm2, %ymm3
vmovaps 0x520(%rsp), %ymm16
vmaxps %ymm3, %ymm16, %ymm3
vmulps 0x1e945a(%rip){1to8}, %ymm3, %ymm3 # 0x1ef1eb4
vandps %ymm23, %ymm15, %ymm23
vcmpltps %ymm3, %ymm23, %k1 {%k1}
kortestb %k1, %k1
jne 0x1d0a953
vbroadcastss 0x1e3c99(%rip), %ymm16 # 0x1eec714
jmp 0x1d08a97
vbroadcastss 0x1e2f99(%rip), %ymm30 # 0x1eeba20
vbroadcastss 0x1e40f3(%rip), %ymm31 # 0x1eecb84
vmovaps %ymm26, %ymm16
andb $0x7f, %al
je 0x1d08e8f
movq 0x18(%rsp), %rcx
vmovss 0x80(%r12,%rcx,4), %xmm3
vsubss 0x2e0(%rsp), %xmm3, %xmm3
vbroadcastss %xmm3, %ymm3
vminps %ymm31, %ymm3, %ymm3
vmovaps 0x5e0(%rsp), %ymm4
vmaxps %ymm30, %ymm4, %ymm4
vmulps %ymm29, %ymm13, %ymm23
vfmadd213ps %ymm23, %ymm12, %ymm28 # ymm28 = (ymm12 * ymm28) + ymm23
vfmadd213ps %ymm28, %ymm11, %ymm27 # ymm27 = (ymm11 * ymm27) + ymm28
vmovaps 0x1a0(%rsp), %ymm21
vmulps %ymm13, %ymm21, %ymm13
vmovaps 0x1c0(%rsp), %ymm31
vfmadd231ps %ymm12, %ymm31, %ymm13 # ymm13 = (ymm31 * ymm12) + ymm13
vmovaps 0x540(%rsp), %ymm30
vfmadd231ps %ymm11, %ymm30, %ymm13 # ymm13 = (ymm30 * ymm11) + ymm13
vbroadcastss 0x2183ad(%rip), %ymm28 # 0x1f20ec4
vandps %ymm28, %ymm13, %ymm11
vbroadcastss 0x1e84c1(%rip), %ymm29 # 0x1ef0fe8
vcmpltps %ymm29, %ymm11, %k0
vbroadcastss 0x218388(%rip), %ymm26 # 0x1f20ec0
vxorps %ymm26, %ymm27, %ymm11
vrcp14ps %ymm13, %ymm12
vxorps %ymm26, %ymm13, %ymm23
vmovaps %ymm12, %ymm27
vfnmadd213ps %ymm16, %ymm13, %ymm27 # ymm27 = -(ymm13 * ymm27) + ymm16
vfmadd132ps %ymm12, %ymm12, %ymm27 # ymm27 = (ymm27 * ymm12) + ymm12
vmulps %ymm11, %ymm27, %ymm11
vcmpltps %ymm23, %ymm13, %k1
korb %k1, %k0, %k1
vbroadcastss 0x1e400d(%rip), %ymm27 # 0x1eecb84
vblendmps %ymm27, %ymm11, %ymm12 {%k1}
vmaxps %ymm12, %ymm4, %ymm4
vcmpnleps %ymm23, %ymm13, %k1
korb %k1, %k0, %k1
vbroadcastss 0x1e2e8a(%rip), %ymm13 # 0x1eeba20
vmovaps %ymm13, %ymm11 {%k1}
vminps %ymm11, %ymm3, %ymm3
vxorps %xmm23, %xmm23, %xmm23
vsubps %ymm8, %ymm23, %ymm8
vsubps %ymm9, %ymm23, %ymm9
vsubps %ymm10, %ymm23, %ymm10
vmulps %ymm5, %ymm10, %ymm10
vfnmsub231ps %ymm9, %ymm20, %ymm10 # ymm10 = -(ymm20 * ymm9) - ymm10
vfnmadd231ps %ymm8, %ymm19, %ymm10 # ymm10 = -(ymm19 * ymm8) + ymm10
vmulps %ymm5, %ymm21, %ymm8
vfnmsub231ps %ymm20, %ymm31, %ymm8 # ymm8 = -(ymm31 * ymm20) - ymm8
vfnmadd231ps %ymm19, %ymm30, %ymm8 # ymm8 = -(ymm30 * ymm19) + ymm8
vandps %ymm28, %ymm8, %ymm9
vcmpltps %ymm29, %ymm9, %k0
vxorps %ymm26, %ymm10, %ymm9
vrcp14ps %ymm8, %ymm10
vxorps %ymm26, %ymm8, %ymm11
vmovaps %ymm10, %ymm12
vfnmadd213ps %ymm16, %ymm8, %ymm12 # ymm12 = -(ymm8 * ymm12) + ymm16
vfmadd132ps %ymm10, %ymm10, %ymm12 # ymm12 = (ymm12 * ymm10) + ymm10
vmulps %ymm9, %ymm12, %ymm9
vcmpltps %ymm11, %ymm8, %k1
korb %k1, %k0, %k1
vblendmps %ymm27, %ymm9, %ymm10 {%k1}
vmaxps %ymm10, %ymm4, %ymm0
vcmpnleps %ymm11, %ymm8, %k1
korb %k1, %k0, %k1
vmovaps %ymm13, %ymm9 {%k1}
vminps %ymm9, %ymm3, %ymm8
vmovaps %ymm0, 0x340(%rsp)
vcmpleps %ymm8, %ymm0, %k0
kmovd %k0, %ecx
andb %cl, %al
je 0x1d0a842
vmovaps 0x4e0(%rsp), %ymm3
vmaxps 0x80(%rsp), %ymm23, %ymm4
vminps %ymm16, %ymm3, %ymm3
vxorps %xmm10, %xmm10, %xmm10
vmaxps %ymm10, %ymm3, %ymm3
vmovaps 0x4c0(%rsp), %ymm9
vminps %ymm16, %ymm9, %ymm9
vmovaps 0x2182b1(%rip), %ymm11 # 0x1f20f40
vaddps %ymm3, %ymm11, %ymm3
vbroadcastss 0x21581c(%rip), %ymm12 # 0x1f1e4b8
vmulps %ymm3, %ymm12, %ymm3
vmovaps 0x60(%rsp), %ymm0
vmovaps %ymm1, %ymm5
vmovaps 0x200(%rsp), %ymm1
vfmadd213ps %ymm0, %ymm1, %ymm3 # ymm3 = (ymm1 * ymm3) + ymm0
vmovaps %ymm3, 0x4e0(%rsp)
vmaxps %ymm10, %ymm9, %ymm3
vaddps %ymm3, %ymm11, %ymm3
vmulps %ymm3, %ymm12, %ymm3
vfmadd213ps %ymm0, %ymm1, %ymm3 # ymm3 = (ymm1 * ymm3) + ymm0
vmovaps %ymm3, 0x4c0(%rsp)
vmulps %ymm4, %ymm4, %ymm3
vsubps %ymm3, %ymm5, %ymm11
vmulps %ymm11, %ymm24, %ymm3
vsubps %ymm3, %ymm25, %ymm3
vcmpnltps %ymm10, %ymm3, %k0
kortestb %k0, %k0
je 0x1d08ea4
vxorps %xmm20, %xmm20, %xmm20
vcmpnltps %ymm23, %ymm3, %k1
vsqrtps %ymm3, %ymm3
vaddps %ymm15, %ymm15, %ymm4
vrcp14ps %ymm4, %ymm9
vfnmadd213ps %ymm16, %ymm9, %ymm4 # ymm4 = -(ymm9 * ymm4) + ymm16
vfmadd132ps %ymm9, %ymm9, %ymm4 # ymm4 = (ymm4 * ymm9) + ymm9
vxorps 0x21818e(%rip){1to8}, %ymm22, %ymm9 # 0x1f20ec0
vsubps %ymm3, %ymm9, %ymm9
vmulps %ymm4, %ymm9, %ymm12
vsubps %ymm22, %ymm3, %ymm3
vmulps %ymm4, %ymm3, %ymm13
vmovaps %ymm17, %ymm3
vfmadd213ps %ymm18, %ymm12, %ymm3 # ymm3 = (ymm12 * ymm3) + ymm18
vmulps %ymm3, %ymm14, %ymm9
vmulps %ymm12, %ymm30, %ymm3
vmulps %ymm12, %ymm31, %ymm4
vmulps %ymm12, %ymm21, %ymm10
vmovaps %ymm7, %ymm19
vmovaps %ymm2, %ymm16
vmovaps 0x140(%rsp), %ymm2
vfmadd213ps %ymm2, %ymm9, %ymm19 # ymm19 = (ymm9 * ymm19) + ymm2
vsubps %ymm19, %ymm3, %ymm3
vmovaps %ymm6, %ymm19
vmovaps 0xa0(%rsp), %ymm1
vfmadd213ps %ymm1, %ymm9, %ymm19 # ymm19 = (ymm9 * ymm19) + ymm1
vsubps %ymm19, %ymm4, %ymm4
vmovaps 0x1e0(%rsp), %ymm0
vmovaps 0x380(%rsp), %ymm5
vfmadd213ps %ymm0, %ymm5, %ymm9 # ymm9 = (ymm5 * ymm9) + ymm0
vsubps %ymm9, %ymm10, %ymm9
vfmadd213ps %ymm18, %ymm13, %ymm17 # ymm17 = (ymm13 * ymm17) + ymm18
vmulps %ymm17, %ymm14, %ymm14
vmulps %ymm13, %ymm30, %ymm10
vmulps %ymm13, %ymm31, %ymm17
vmulps %ymm13, %ymm21, %ymm18
vfmadd213ps %ymm2, %ymm14, %ymm7 # ymm7 = (ymm14 * ymm7) + ymm2
vsubps %ymm7, %ymm10, %ymm10
vfmadd213ps %ymm1, %ymm14, %ymm6 # ymm6 = (ymm14 * ymm6) + ymm1
vsubps %ymm6, %ymm17, %ymm1
vfmadd213ps %ymm0, %ymm14, %ymm5 # ymm5 = (ymm14 * ymm5) + ymm0
vsubps %ymm5, %ymm18, %ymm5
vbroadcastss 0x1e2c1c(%rip), %ymm0 # 0x1eeba20
vblendmps %ymm12, %ymm0, %ymm2 {%k1}
vbroadcastss 0x1e3d71(%rip), %ymm0 # 0x1eecb84
vblendmps %ymm13, %ymm0, %ymm0 {%k1}
vbroadcastss 0x2180a2(%rip), %ymm7 # 0x1f20ec4
vandps %ymm7, %ymm16, %ymm6
vmovaps 0x520(%rsp), %ymm12
vmaxps %ymm6, %ymm12, %ymm6
vmulps 0x1e9075(%rip){1to8}, %ymm6, %ymm6 # 0x1ef1eb4
vandps %ymm7, %ymm15, %ymm7
vcmpltps %ymm6, %ymm7, %k1 {%k1}
kortestb %k1, %k1
je 0x1d08ecb
vcmpleps %ymm20, %ymm11, %k2
vbroadcastss 0x1e3d24(%rip), %ymm7 # 0x1eecb84
vbroadcastss 0x1e2bb7(%rip), %ymm11 # 0x1eeba20
vblendmps %ymm7, %ymm11, %ymm6 {%k2}
vmovaps %ymm6, %ymm2 {%k1}
vblendmps %ymm11, %ymm7, %ymm6 {%k2}
vmovaps %ymm6, %ymm0 {%k1}
knotb %k1, %k1
korb %k2, %k1, %k1
kandb %k0, %k1, %k0
jmp 0x1d08ecb
vmovaps 0x1c0(%rsp), %ymm31
vmovaps 0x1a0(%rsp), %ymm21
jmp 0x1d0a842
vxorps %xmm1, %xmm1, %xmm1
vxorps %xmm5, %xmm5, %xmm5
vxorps %xmm3, %xmm3, %xmm3
vxorps %xmm4, %xmm4, %xmm4
vxorps %xmm9, %xmm9, %xmm9
vbroadcastss 0x1e2b5e(%rip), %ymm2 # 0x1eeba20
vbroadcastss 0x1e3cb9(%rip), %ymm0 # 0x1eecb84
vbroadcastss 0x217ff0(%rip), %xmm11 # 0x1f20ec4
vmulps %ymm5, %ymm21, %ymm5
vfmadd231ps %ymm1, %ymm31, %ymm5 # ymm5 = (ymm31 * ymm1) + ymm5
vfmadd231ps %ymm10, %ymm30, %ymm5 # ymm5 = (ymm30 * ymm10) + ymm5
vmovaps 0x340(%rsp), %ymm7
vmovaps %ymm7, 0x820(%rsp)
vminps %ymm2, %ymm8, %ymm1
vmovaps %ymm1, 0x840(%rsp)
vbroadcastss 0x217fb6(%rip), %ymm6 # 0x1f20ec4
vandps %ymm6, %ymm5, %ymm2
vmaxps %ymm0, %ymm7, %ymm5
vmovaps %ymm5, 0x560(%rsp)
vmovaps %ymm8, 0x580(%rsp)
vbroadcastss 0x217fa3(%rip), %ymm0 # 0x1f20ed4
vcmpltps %ymm0, %ymm2, %k1
kmovd %k1, 0x104(%rsp)
vcmpleps %ymm1, %ymm7, %k1
kmovd %k1, %ecx
andb %al, %cl
vmovaps %ymm5, 0x480(%rsp)
vcmpleps %ymm8, %ymm5, %k1
kmovd %k1, %edx
andb %al, %dl
movl %edx, %eax
orb %cl, %al
je 0x1d0a80c
vmovaps %ymm0, %ymm2
movl %edx, 0x34(%rsp)
movq %r9, 0x190(%rsp)
movq %r10, 0x198(%rsp)
knotb %k0, %k1
vmulps %ymm9, %ymm21, %ymm0
vfmadd213ps %ymm0, %ymm31, %ymm4 # ymm4 = (ymm31 * ymm4) + ymm0
vfmadd213ps %ymm4, %ymm30, %ymm3 # ymm3 = (ymm30 * ymm3) + ymm4
vandps %ymm6, %ymm3, %ymm0
vcmpltps %ymm2, %ymm0, %k0
kmovd %k1, 0xfc(%rsp)
korb %k1, %k0, %k1
vpbroadcastd 0x217f1d(%rip), %ymm0 # 0x1f20edc
vpblendmd 0x217f0f(%rip){1to8}, %ymm0, %ymm0 {%k1} # 0x1f20ed8
movq %r11, 0x188(%rsp)
vpbroadcastd %r11d, %ymm1
vmovdqa %ymm0, 0x5a0(%rsp)
vmovdqa %ymm1, 0x500(%rsp)
vpcmpnltd %ymm0, %ymm1, %k0
kmovd %k0, %ebx
movl %ecx, 0x100(%rsp)
andb %cl, %bl
je 0x1d09b5d
vmovaps 0x2a0(%rsp), %ymm1
vmovaps 0x260(%rsp), %ymm2
vminps %xmm2, %xmm1, %xmm0
vmaxps %xmm2, %xmm1, %xmm1
vmovaps 0x280(%rsp), %ymm3
vmovaps 0x240(%rsp), %ymm4
vminps %xmm4, %xmm3, %xmm2
vminps %xmm2, %xmm0, %xmm0
vmaxps %xmm4, %xmm3, %xmm2
vmaxps %xmm2, %xmm1, %xmm1
vandps %xmm0, %xmm11, %xmm0
vandps %xmm1, %xmm11, %xmm2
vmaxps %xmm2, %xmm0, %xmm0
vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3]
vmaxss %xmm0, %xmm2, %xmm2
vshufpd $0x1, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[1,0]
vmaxss %xmm2, %xmm0, %xmm0
vmulss 0x1e8e50(%rip), %xmm0, %xmm0 # 0x1ef1eb4
vmovss %xmm0, 0x44(%rsp)
vshufps $0xff, %xmm1, %xmm1, %xmm0 # xmm0 = xmm1[3,3,3,3]
vmovaps %xmm0, 0x2d0(%rsp)
vmovaps 0x340(%rsp), %ymm0
vaddps 0x360(%rsp), %ymm0, %ymm0
vmovaps %ymm0, 0x4a0(%rsp)
kmovd %ebx, %k1
vbroadcastss 0x1e2980(%rip), %ymm0 # 0x1eeba20
vblendmps 0x340(%rsp), %ymm0, %ymm0 {%k1}
vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm0, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1]
vminps %ymm2, %ymm1, %ymm1
vcmpeqps %ymm1, %ymm0, %k0
kmovd %k0, %eax
andb %bl, %al
movzbl %al, %eax
movzbl %bl, %ecx
cmovnel %eax, %ecx
tzcntl %ecx, %ecx
movb $0x1, %bl
shlb %cl, %bl
shll $0x2, %ecx
vmovss 0x4e0(%rsp,%rcx), %xmm10
vmovss 0x820(%rsp,%rcx), %xmm8
vmovaps 0x220(%rsp), %xmm0
vucomiss 0x1e291c(%rip), %xmm0 # 0x1eeba24
vmovss 0x108(%rsp), %xmm0
jae 0x1d09154
vmovaps 0x220(%rsp), %xmm0
vmovaps %xmm10, 0x60(%rsp)
vmovaps %xmm8, 0xa0(%rsp)
kmovw %k1, 0x80(%rsp)
vzeroupper
callq 0x6aa20
kmovw 0x80(%rsp), %k1
vmovaps 0xa0(%rsp), %xmm8
vmovaps 0x60(%rsp), %xmm10
movzbl %bl, %eax
kmovd %eax, %k0
kandnb %k1, %k0, %k0
kmovd %k0, %ebx
vmulss 0x1e8d49(%rip), %xmm0, %xmm0 # 0x1ef1eb4
vmovss %xmm0, 0x48(%rsp)
movl $0x4, %r14d
vmovaps %xmm8, 0xa0(%rsp)
vbroadcastss %xmm8, %xmm0
vxorps %xmm1, %xmm1, %xmm1
vfmadd132ps 0x230(%rsp), %xmm1, %xmm0 # xmm0 = (xmm0 * mem) + xmm1
vmovss 0x1e3579(%rip), %xmm1 # 0x1eec714
vsubss %xmm10, %xmm1, %xmm4
vmulss %xmm4, %xmm4, %xmm1
vmulss %xmm1, %xmm4, %xmm1
vmulss %xmm10, %xmm10, %xmm11
vmulss %xmm11, %xmm10, %xmm2
vmovss 0x1e39d2(%rip), %xmm7 # 0x1eecb8c
vmovaps %xmm7, %xmm3
vfmadd213ss %xmm2, %xmm1, %xmm3 # xmm3 = (xmm1 * xmm3) + xmm2
vmulss %xmm4, %xmm10, %xmm12
vmovaps %xmm4, 0x80(%rsp)
vmulss %xmm4, %xmm12, %xmm4
vmulss %xmm12, %xmm10, %xmm5
vmovss 0x1e7e13(%rip), %xmm8 # 0x1ef0ff4
vmulss %xmm5, %xmm8, %xmm6
vmovss 0x1e7e0f(%rip), %xmm9 # 0x1ef0ffc
vfmadd231ss %xmm9, %xmm4, %xmm6 # xmm6 = (xmm4 * xmm9) + xmm6
vaddss %xmm6, %xmm3, %xmm3
vmovaps %xmm7, %xmm6
vfmadd213ss %xmm1, %xmm2, %xmm6 # xmm6 = (xmm2 * xmm6) + xmm1
vmulss %xmm4, %xmm8, %xmm4
vfmadd231ss %xmm5, %xmm9, %xmm4 # xmm4 = (xmm9 * xmm5) + xmm4
vaddss %xmm4, %xmm6, %xmm4
vmovss 0x1e7dec(%rip), %xmm5 # 0x1ef1000
vmulss %xmm5, %xmm1, %xmm1
vmulss %xmm5, %xmm3, %xmm3
vmulss %xmm5, %xmm4, %xmm4
vmulss %xmm5, %xmm2, %xmm2
vbroadcastss %xmm2, %xmm2
vmulps 0x240(%rsp), %xmm2, %xmm2
vbroadcastss %xmm4, %xmm4
vfmadd132ps 0x280(%rsp), %xmm2, %xmm4 # xmm4 = (xmm4 * mem) + xmm2
vbroadcastss %xmm3, %xmm2
vfmadd132ps 0x260(%rsp), %xmm4, %xmm2 # xmm2 = (xmm2 * mem) + xmm4
vbroadcastss %xmm1, %xmm1
vfmadd132ps 0x2a0(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2
vmovaps %xmm1, 0x380(%rsp)
vsubps %xmm1, %xmm0, %xmm0
vmovaps %xmm0, 0x200(%rsp)
vdpps $0x7f, %xmm0, %xmm0, %xmm0
vucomiss 0x1e27a1(%rip), %xmm0 # 0x1eeba24
vmovaps %xmm10, 0x60(%rsp)
vmovaps %xmm0, 0x1e0(%rsp)
jb 0x1d0929a
vsqrtss %xmm0, %xmm0, %xmm7
jmp 0x1d092ca
vmovss %xmm11, 0x140(%rsp)
vmovss %xmm12, 0x20(%rsp)
vzeroupper
callq 0x6aa20
vmovss 0x20(%rsp), %xmm12
vmovss 0x140(%rsp), %xmm11
vmovaps 0x60(%rsp), %xmm10
vmovaps %xmm0, %xmm7
vmovaps 0x80(%rsp), %xmm3
vbroadcastss %xmm3, %xmm1
vbroadcastss 0x217bdf(%rip), %xmm4 # 0x1f20ec0
vmovaps %xmm1, 0x330(%rsp)
vxorps %xmm4, %xmm1, %xmm0
vmulss %xmm0, %xmm3, %xmm0
vmulss 0x1e3892(%rip), %xmm12, %xmm1 # 0x1eecb8c
vmovaps %xmm10, %xmm2
vfnmsub213ss %xmm1, %xmm10, %xmm2 # xmm2 = -(xmm10 * xmm2) - xmm1
vfmadd231ss %xmm3, %xmm3, %xmm1 # xmm1 = (xmm3 * xmm3) + xmm1
vmovss 0x1e3870(%rip), %xmm3 # 0x1eecb80
vmulss %xmm3, %xmm0, %xmm0
vmulss %xmm3, %xmm2, %xmm2
vmulss %xmm3, %xmm1, %xmm1
vmulss %xmm3, %xmm11, %xmm3
vbroadcastss %xmm3, %xmm3
vmulps 0x240(%rsp), %xmm3, %xmm3
vbroadcastss %xmm1, %xmm1
vfmadd132ps 0x280(%rsp), %xmm3, %xmm1 # xmm1 = (xmm1 * mem) + xmm3
vbroadcastss %xmm2, %xmm2
vfmadd132ps 0x260(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1
vbroadcastss %xmm0, %xmm13
vfmadd132ps 0x2a0(%rsp), %xmm2, %xmm13 # xmm13 = (xmm13 * mem) + xmm2
vdpps $0x7f, %xmm13, %xmm13, %xmm0
vxorps %xmm1, %xmm1, %xmm1
vmovss %xmm0, %xmm1, %xmm2 # xmm2 = xmm0[0],xmm1[1,2,3]
vrsqrt14ss %xmm2, %xmm1, %xmm3
vmulss 0x1e33a1(%rip), %xmm3, %xmm5 # 0x1eec718
vmulss 0x1e339d(%rip), %xmm0, %xmm6 # 0x1eec71c
vrcp14ss %xmm2, %xmm1, %xmm2
vxorps %xmm4, %xmm0, %xmm1
vmovaps %xmm2, 0x310(%rsp)
vfnmadd213ss 0x1e7c5d(%rip), %xmm0, %xmm2 # xmm2 = -(xmm0 * xmm2) + mem
vmovss %xmm2, 0x4c(%rsp)
vucomiss %xmm1, %xmm0
vmovaps %xmm13, 0x140(%rsp)
vmovss %xmm7, 0x20(%rsp)
vmovaps %xmm0, 0x320(%rsp)
jb 0x1d093c7
vsqrtss %xmm0, %xmm0, %xmm16
jmp 0x1d09414
vmovaps %xmm3, 0xd0(%rsp)
vmovss %xmm5, 0x24(%rsp)
vmovss %xmm6, 0xc0(%rsp)
vzeroupper
callq 0x6aa20
vmovss 0xc0(%rsp), %xmm6
vmovss 0x24(%rsp), %xmm5
vmovaps 0xd0(%rsp), %xmm3
vmovss 0x20(%rsp), %xmm7
vmovaps 0x140(%rsp), %xmm13
vmovaps %xmm0, %xmm16
vmovaps 0x200(%rsp), %xmm9
vmovaps 0x1e0(%rsp), %xmm19
vmulss %xmm3, %xmm6, %xmm0
vmulss %xmm3, %xmm3, %xmm1
vmulss %xmm1, %xmm0, %xmm0
vaddss %xmm0, %xmm5, %xmm0
vbroadcastss %xmm0, %xmm4
vmulps %xmm4, %xmm13, %xmm0
vmovaps %xmm0, 0xd0(%rsp)
vdpps $0x7f, %xmm0, %xmm9, %xmm15
vaddss 0x1e32bf(%rip), %xmm7, %xmm14 # 0x1eec714
vmulps %xmm15, %xmm15, %xmm0
vsubps %xmm0, %xmm19, %xmm0
vxorps %xmm2, %xmm2, %xmm2
vmovss %xmm0, %xmm2, %xmm1 # xmm1 = xmm0[0],xmm2[1,2,3]
vrsqrt14ss %xmm1, %xmm2, %xmm18
vmulss 0x1e32a0(%rip), %xmm18, %xmm17 # 0x1eec718
vmulss 0x1e329a(%rip), %xmm0, %xmm20 # 0x1eec71c
vucomiss 0x1e259a(%rip), %xmm0 # 0x1eeba24
jb 0x1d09495
vsqrtss %xmm0, %xmm0, %xmm0
jmp 0x1d0952d
vmovss %xmm14, 0x24(%rsp)
vmovaps %xmm15, 0xc0(%rsp)
vmovss %xmm16, 0x40(%rsp)
vmovss %xmm17, 0x3c(%rsp)
vmovaps %xmm18, 0x300(%rsp)
vmovss %xmm20, 0x38(%rsp)
vmovaps %xmm4, 0x2f0(%rsp)
vzeroupper
callq 0x6aa20
vmovaps 0x2f0(%rsp), %xmm4
vmovss 0x38(%rsp), %xmm20
vmovaps 0x300(%rsp), %xmm18
vmovss 0x3c(%rsp), %xmm17
vmovss 0x40(%rsp), %xmm16
vmovaps 0xc0(%rsp), %xmm15
vmovss 0x24(%rsp), %xmm14
vmovss 0x20(%rsp), %xmm7
vmovaps 0x140(%rsp), %xmm13
vmovaps 0x1e0(%rsp), %xmm19
vmovaps 0x200(%rsp), %xmm9
vbroadcastss 0x21798e(%rip), %xmm11 # 0x1f20ec4
vmovaps 0x1c0(%rsp), %ymm31
vmovaps 0x1a0(%rsp), %ymm21
vmovaps 0x60(%rsp), %xmm10
vmovaps 0xa0(%rsp), %xmm8
vmovss 0x1e747f(%rip), %xmm2 # 0x1ef09dc
vmovaps %xmm2, %xmm1
vmovaps 0x80(%rsp), %xmm3
vfmadd213ss %xmm10, %xmm3, %xmm1 # xmm1 = (xmm3 * xmm1) + xmm10
vfmadd231ss %xmm2, %xmm10, %xmm3 # xmm3 = (xmm10 * xmm2) + xmm3
vbroadcastss %xmm10, %xmm2
vmulps 0x240(%rsp), %xmm2, %xmm2
vbroadcastss %xmm3, %xmm3
vfmadd132ps 0x280(%rsp), %xmm2, %xmm3 # xmm3 = (xmm3 * mem) + xmm2
vbroadcastss %xmm1, %xmm1
vfmadd132ps 0x260(%rsp), %xmm3, %xmm1 # xmm1 = (xmm1 * mem) + xmm3
vmovaps 0x330(%rsp), %xmm2
vfmadd132ps 0x2a0(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1
vbroadcastss 0x320(%rsp), %xmm1
vmulps %xmm1, %xmm2, %xmm1
vdpps $0x7f, %xmm2, %xmm13, %xmm2
vbroadcastss %xmm2, %xmm2
vmulps %xmm2, %xmm13, %xmm2
vsubps %xmm2, %xmm1, %xmm1
vmovss 0x4c(%rsp), %xmm2
vmulss 0x310(%rsp), %xmm2, %xmm2
vmulss 0x48(%rsp), %xmm8, %xmm3
vbroadcastss %xmm2, %xmm2
vmulps %xmm2, %xmm1, %xmm1
vxorps 0x2178c4(%rip){1to4}, %xmm13, %xmm2 # 0x1f20ec0
vmulps %xmm1, %xmm4, %xmm4
vmovaps 0xd0(%rsp), %xmm12
vdpps $0x7f, %xmm12, %xmm2, %xmm5
vmovss 0x44(%rsp), %xmm6
vmaxss %xmm3, %xmm6, %xmm1
vdivss %xmm16, %xmm6, %xmm3
vdpps $0x7f, %xmm4, %xmm9, %xmm4
vfmadd213ss %xmm1, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm7) + xmm1
vfmadd213ss %xmm7, %xmm3, %xmm14 # xmm14 = (xmm3 * xmm14) + xmm7
vmovaps 0x230(%rsp), %xmm7
vdpps $0x7f, %xmm12, %xmm7, %xmm3
vaddss %xmm4, %xmm5, %xmm4
vdpps $0x7f, %xmm2, %xmm9, %xmm5
vmulss %xmm18, %xmm20, %xmm2
vmulss %xmm18, %xmm18, %xmm6
vmulss %xmm6, %xmm2, %xmm2
vdpps $0x7f, %xmm7, %xmm9, %xmm6
vaddss %xmm2, %xmm17, %xmm7
vfnmadd231ss %xmm4, %xmm15, %xmm5 # xmm5 = -(xmm15 * xmm4) + xmm5
vfnmadd231ss %xmm3, %xmm15, %xmm6 # xmm6 = -(xmm15 * xmm3) + xmm6
vpermilps $0xff, 0x380(%rsp), %xmm2 # xmm2 = mem[3,3,3,3]
vsubss %xmm2, %xmm0, %xmm2
vshufps $0xff, %xmm13, %xmm13, %xmm0 # xmm0 = xmm13[3,3,3,3]
vfmsub213ss %xmm0, %xmm7, %xmm5 # xmm5 = (xmm7 * xmm5) - xmm0
vmulss %xmm7, %xmm6, %xmm6
vmulss %xmm5, %xmm3, %xmm7
vfmsub231ss %xmm6, %xmm4, %xmm7 # xmm7 = (xmm4 * xmm6) - xmm7
vdivss %xmm7, %xmm6, %xmm6
vdivss %xmm7, %xmm5, %xmm5
vdivss %xmm7, %xmm3, %xmm3
vdivss %xmm7, %xmm4, %xmm4
vmulss %xmm6, %xmm15, %xmm6
vmulss %xmm3, %xmm2, %xmm3
vsubss %xmm3, %xmm6, %xmm3
vmulss %xmm5, %xmm15, %xmm5
vmulss %xmm4, %xmm2, %xmm4
vsubss %xmm5, %xmm4, %xmm4
vsubss %xmm3, %xmm10, %xmm10
vsubss %xmm4, %xmm8, %xmm8
vandps %xmm11, %xmm15, %xmm3
vucomiss %xmm3, %xmm14
jbe 0x1d09884
vaddss %xmm1, %xmm14, %xmm1
vmovaps 0x2d0(%rsp), %xmm3
vfmadd231ss 0x1e87ca(%rip), %xmm3, %xmm1 # xmm1 = (xmm3 * mem) + xmm1
vandps %xmm2, %xmm11, %xmm2
vucomiss %xmm2, %xmm1
jbe 0x1d09884
vaddss 0x2e0(%rsp), %xmm8, %xmm8
movb $0x1, %r13b
vucomiss 0x5c(%rsp), %xmm8
jb 0x1d09887
movq 0x18(%rsp), %rax
vmovss 0x80(%r12,%rax,4), %xmm4
vucomiss %xmm8, %xmm4
jb 0x1d09887
vucomiss 0x1e22f2(%rip), %xmm10 # 0x1eeba24
jb 0x1d09887
vmovss 0x1e2fd4(%rip), %xmm1 # 0x1eec714
vucomiss %xmm10, %xmm1
jb 0x1d09887
vxorps %xmm2, %xmm2, %xmm2
vmovss %xmm19, %xmm2, %xmm1 # xmm1 = xmm19[0],xmm2[1,2,3]
vrsqrt14ss %xmm1, %xmm2, %xmm1
vmulss 0x1e2fb5(%rip), %xmm1, %xmm2 # 0x1eec718
vmulss 0x1e2faf(%rip), %xmm19, %xmm3 # 0x1eec71c
movq (%r15), %rax
movq 0x1e8(%rax), %rax
movq %r15, %rcx
movq 0x50(%rsp), %rdx
movq (%rax,%rdx,8), %r15
movq 0x18(%rsp), %rax
movl 0x90(%r12,%rax,4), %eax
testl %eax, 0x34(%r15)
je 0x1d098a4
vmulss %xmm1, %xmm3, %xmm3
vmulss %xmm1, %xmm1, %xmm1
vmulss %xmm1, %xmm3, %xmm1
vaddss %xmm1, %xmm2, %xmm1
vbroadcastss %xmm1, %xmm1
vmulps %xmm1, %xmm9, %xmm1
vfmadd213ps %xmm13, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm0) + xmm13
vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm13, %xmm13, %xmm3 # xmm3 = xmm13[1,2,0,3]
vmulps %xmm3, %xmm1, %xmm1
vfmsub231ps %xmm2, %xmm13, %xmm1 # xmm1 = (xmm13 * xmm2) - xmm1
vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3]
vshufps $0xd2, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,0,1,3]
vmulps %xmm1, %xmm0, %xmm0
vfmsub231ps %xmm3, %xmm2, %xmm0 # xmm0 = (xmm2 * xmm3) - xmm0
movq 0x10(%rcx), %rax
cmpq $0x0, 0x10(%rax)
jne 0x1d098a9
cmpq $0x0, 0x40(%r15)
jne 0x1d098a9
movq 0x18(%rsp), %rcx
vmovss %xmm8, 0x80(%r12,%rcx,4)
vextractps $0x1, %xmm0, 0xc0(%r12,%rcx,4)
vextractps $0x2, %xmm0, 0xd0(%r12,%rcx,4)
vmovss %xmm0, 0xe0(%r12,%rcx,4)
vmovss %xmm10, 0xf0(%r12,%rcx,4)
movl $0x0, 0x100(%r12,%rcx,4)
movq 0xf0(%rsp), %rax
movl %eax, 0x110(%r12,%rcx,4)
movq 0x50(%rsp), %rax
movl %eax, 0x120(%r12,%rcx,4)
movq 0x28(%rsp), %r15
movq 0x8(%r15), %rax
movl (%rax), %eax
movl %eax, 0x130(%r12,%rcx,4)
movq 0x8(%r15), %rax
movl 0x4(%rax), %eax
movl %eax, 0x140(%r12,%rcx,4)
jmp 0x1d09887
xorl %r13d, %r13d
subq $0x1, %r14
setb %al
testb %r13b, %r13b
jne 0x1d09b3a
testb %al, %al
je 0x1d09177
jmp 0x1d09b3a
movq %rcx, %r15
jmp 0x1d09887
movq 0x28(%rsp), %rcx
movq 0x8(%rcx), %rax
vbroadcastss %xmm10, %xmm1
vshufps $0x55, %xmm0, %xmm0, %xmm2 # xmm2 = xmm0[1,1,1,1]
vshufps $0xaa, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[2,2,2,2]
vbroadcastss %xmm0, %xmm0
vmovaps %xmm2, 0x3e0(%rsp)
vmovaps %xmm3, 0x3f0(%rsp)
vmovaps %xmm0, 0x400(%rsp)
vmovaps %xmm1, 0x410(%rsp)
vxorps %xmm0, %xmm0, %xmm0
vmovaps %xmm0, 0x420(%rsp)
vmovaps 0x3c0(%rsp), %xmm0
vmovaps %xmm0, 0x430(%rsp)
vmovdqa 0x3d0(%rsp), %xmm0
vmovdqa %xmm0, 0x440(%rsp)
leaq 0x450(%rsp), %rdx
vpcmpeqd %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, (%rdx)
vbroadcastss (%rax), %xmm0
vmovaps %xmm0, 0x450(%rsp)
vbroadcastss 0x4(%rax), %xmm0
vmovaps %xmm0, 0x460(%rsp)
movq 0x18(%rsp), %rax
vmovss %xmm8, 0x80(%r12,%rax,4)
vmovaps 0x3b0(%rsp), %xmm0
vmovaps %xmm0, 0xe0(%rsp)
leaq 0xe0(%rsp), %rax
movq %rax, 0x110(%rsp)
movq 0x18(%r15), %rax
movq %rax, 0x118(%rsp)
movq 0x8(%rcx), %rax
movq %rax, 0x120(%rsp)
movq %r12, 0x128(%rsp)
leaq 0x3e0(%rsp), %rax
movq %rax, 0x130(%rsp)
movl $0x4, 0x138(%rsp)
movq 0x40(%r15), %rax
testq %rax, %rax
vmovaps %xmm10, 0x60(%rsp)
vmovaps %xmm8, 0xa0(%rsp)
vmovss %xmm4, 0x80(%rsp)
je 0x1d09a13
leaq 0x110(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0x80(%rsp), %xmm4
vmovaps 0xa0(%rsp), %xmm8
vmovaps 0x60(%rsp), %xmm10
vmovaps 0x1a0(%rsp), %ymm21
vmovaps 0x1c0(%rsp), %ymm31
vbroadcastss 0x2174b1(%rip), %xmm11 # 0x1f20ec4
vmovdqa 0xe0(%rsp), %xmm0
vptestmd %xmm0, %xmm0, %k0
kortestb %k0, %k0
je 0x1d09b21
movq 0x28(%rsp), %rax
movq 0x10(%rax), %rcx
movq 0x10(%rcx), %rax
testq %rax, %rax
je 0x1d09a88
testb $0x2, (%rcx)
jne 0x1d09a4a
testb $0x40, 0x3e(%r15)
je 0x1d09a88
leaq 0x110(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0x80(%rsp), %xmm4
vmovaps 0xa0(%rsp), %xmm8
vmovaps 0x60(%rsp), %xmm10
vmovaps 0x1a0(%rsp), %ymm21
vmovaps 0x1c0(%rsp), %ymm31
vbroadcastss 0x21743c(%rip), %xmm11 # 0x1f20ec4
vmovdqa 0xe0(%rsp), %xmm0
vptestmd %xmm0, %xmm0, %k1
kortestb %k1, %k1
je 0x1d09b21
movq 0x128(%rsp), %rax
movq 0x130(%rsp), %rcx
vmovaps (%rcx), %xmm0
vmovups %xmm0, 0xc0(%rax) {%k1}
vmovaps 0x10(%rcx), %xmm0
vmovups %xmm0, 0xd0(%rax) {%k1}
vmovaps 0x20(%rcx), %xmm0
vmovups %xmm0, 0xe0(%rax) {%k1}
vmovaps 0x30(%rcx), %xmm0
vmovups %xmm0, 0xf0(%rax) {%k1}
vmovaps 0x40(%rcx), %xmm0
vmovups %xmm0, 0x100(%rax) {%k1}
vmovdqa 0x50(%rcx), %xmm0
vmovdqu32 %xmm0, 0x110(%rax) {%k1}
vmovdqa 0x60(%rcx), %xmm0
vmovdqu32 %xmm0, 0x120(%rax) {%k1}
vmovdqa 0x70(%rcx), %xmm0
vmovdqa32 %xmm0, 0x130(%rax) {%k1}
vmovdqa 0x80(%rcx), %xmm0
vmovdqa32 %xmm0, 0x140(%rax) {%k1}
jmp 0x1d09b30
movq 0x18(%rsp), %rax
vmovss %xmm4, 0x80(%r12,%rax,4)
movq 0x28(%rsp), %r15
jmp 0x1d09887
movq 0x18(%rsp), %rax
vmovaps 0x4a0(%rsp), %ymm0
vcmpleps 0x80(%r12,%rax,4){1to8}, %ymm0, %k0
kmovd %k0, %eax
andb %al, %bl
jne 0x1d09093
vmovaps 0x480(%rsp), %ymm0
vaddps 0x360(%rsp), %ymm0, %ymm0
movq 0x18(%rsp), %rax
vcmpleps 0x80(%r12,%rax,4){1to8}, %ymm0, %k0
kmovd 0x104(%rsp), %k1
kmovd 0xfc(%rsp), %k2
korb %k2, %k1, %k1
kmovd %k0, %eax
movl 0x34(%rsp), %ecx
andb %al, %cl
vpbroadcastd 0x217334(%rip), %ymm0 # 0x1f20edc
vpblendmd 0x217326(%rip){1to8}, %ymm0, %ymm0 {%k1} # 0x1f20ed8
vmovdqa %ymm0, 0x480(%rsp)
vpcmpled 0x500(%rsp), %ymm0, %k0
kmovd %k0, %ebx
movl %ecx, 0x34(%rsp)
andb %cl, %bl
je 0x1d0a725
vmovaps 0x560(%rsp), %ymm5
vmovaps 0x2a0(%rsp), %ymm1
vmovaps 0x260(%rsp), %ymm2
vminps %xmm2, %xmm1, %xmm0
vmaxps %xmm2, %xmm1, %xmm1
vmovaps 0x280(%rsp), %ymm3
vmovaps 0x240(%rsp), %ymm4
vminps %xmm4, %xmm3, %xmm2
vminps %xmm2, %xmm0, %xmm0
vmaxps %xmm4, %xmm3, %xmm2
vmaxps %xmm2, %xmm1, %xmm1
vandps %xmm0, %xmm11, %xmm0
vandps %xmm1, %xmm11, %xmm2
vmaxps %xmm2, %xmm0, %xmm0
vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3]
vmaxss %xmm0, %xmm2, %xmm2
vshufpd $0x1, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[1,0]
vmaxss %xmm2, %xmm0, %xmm0
vmulss 0x1e8276(%rip), %xmm0, %xmm0 # 0x1ef1eb4
vmovss %xmm0, 0x44(%rsp)
vshufps $0xff, %xmm1, %xmm1, %xmm0 # xmm0 = xmm1[3,3,3,3]
vmovaps %xmm0, 0x2d0(%rsp)
vmovaps %ymm5, 0x340(%rsp)
vaddps 0x360(%rsp), %ymm5, %ymm0
vmovaps %ymm0, 0x4a0(%rsp)
kmovd %ebx, %k1
vbroadcastss 0x1e1da6(%rip), %ymm0 # 0x1eeba20
vblendmps 0x340(%rsp), %ymm0, %ymm0 {%k1}
vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm0, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1]
vminps %ymm2, %ymm1, %ymm1
vcmpeqps %ymm1, %ymm0, %k0
kmovd %k0, %eax
andb %bl, %al
movzbl %al, %eax
movzbl %bl, %ecx
cmovnel %eax, %ecx
tzcntl %ecx, %ecx
movb $0x1, %bl
shlb %cl, %bl
shll $0x2, %ecx
vmovss 0x4c0(%rsp,%rcx), %xmm10
vmovss 0x580(%rsp,%rcx), %xmm9
vmovaps 0x220(%rsp), %xmm0
vucomiss 0x1e1d42(%rip), %xmm0 # 0x1eeba24
vmovss 0x10c(%rsp), %xmm0
jae 0x1d09d2e
vmovaps 0x220(%rsp), %xmm0
vmovaps %xmm10, 0x60(%rsp)
vmovaps %xmm9, 0xa0(%rsp)
kmovw %k1, 0x80(%rsp)
vzeroupper
callq 0x6aa20
kmovw 0x80(%rsp), %k1
vmovaps 0xa0(%rsp), %xmm9
vmovaps 0x60(%rsp), %xmm10
movzbl %bl, %eax
kmovd %eax, %k0
kandnb %k1, %k0, %k0
kmovd %k0, %ebx
vmulss 0x1e816f(%rip), %xmm0, %xmm0 # 0x1ef1eb4
vmovss %xmm0, 0x48(%rsp)
movl $0x4, %r14d
vmovaps %xmm9, 0xa0(%rsp)
vbroadcastss %xmm9, %xmm0
vxorps %xmm1, %xmm1, %xmm1
vfmadd132ps 0x230(%rsp), %xmm1, %xmm0 # xmm0 = (xmm0 * mem) + xmm1
vmovss 0x1e299f(%rip), %xmm1 # 0x1eec714
vsubss %xmm10, %xmm1, %xmm4
vmulss %xmm4, %xmm4, %xmm1
vmulss %xmm1, %xmm4, %xmm1
vmulss %xmm10, %xmm10, %xmm11
vmulss %xmm11, %xmm10, %xmm2
vmovss 0x1e2df8(%rip), %xmm7 # 0x1eecb8c
vmovaps %xmm7, %xmm3
vfmadd213ss %xmm2, %xmm1, %xmm3 # xmm3 = (xmm1 * xmm3) + xmm2
vmulss %xmm4, %xmm10, %xmm12
vmovaps %xmm4, 0x80(%rsp)
vmulss %xmm4, %xmm12, %xmm4
vmulss %xmm12, %xmm10, %xmm5
vmovss 0x1e7239(%rip), %xmm8 # 0x1ef0ff4
vmulss %xmm5, %xmm8, %xmm6
vmovss 0x1e7235(%rip), %xmm9 # 0x1ef0ffc
vfmadd231ss %xmm9, %xmm4, %xmm6 # xmm6 = (xmm4 * xmm9) + xmm6
vaddss %xmm6, %xmm3, %xmm3
vmovaps %xmm7, %xmm6
vfmadd213ss %xmm1, %xmm2, %xmm6 # xmm6 = (xmm2 * xmm6) + xmm1
vmulss %xmm4, %xmm8, %xmm4
vfmadd231ss %xmm5, %xmm9, %xmm4 # xmm4 = (xmm9 * xmm5) + xmm4
vaddss %xmm4, %xmm6, %xmm4
vmovss 0x1e7212(%rip), %xmm5 # 0x1ef1000
vmulss %xmm5, %xmm1, %xmm1
vmulss %xmm5, %xmm3, %xmm3
vmulss %xmm5, %xmm4, %xmm4
vmulss %xmm5, %xmm2, %xmm2
vbroadcastss %xmm2, %xmm2
vmulps 0x240(%rsp), %xmm2, %xmm2
vbroadcastss %xmm4, %xmm4
vfmadd132ps 0x280(%rsp), %xmm2, %xmm4 # xmm4 = (xmm4 * mem) + xmm2
vbroadcastss %xmm3, %xmm2
vfmadd132ps 0x260(%rsp), %xmm4, %xmm2 # xmm2 = (xmm2 * mem) + xmm4
vbroadcastss %xmm1, %xmm1
vfmadd132ps 0x2a0(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2
vmovaps %xmm1, 0x380(%rsp)
vsubps %xmm1, %xmm0, %xmm0
vmovaps %xmm0, 0x200(%rsp)
vdpps $0x7f, %xmm0, %xmm0, %xmm0
vucomiss 0x1e1bc7(%rip), %xmm0 # 0x1eeba24
vmovaps %xmm10, 0x60(%rsp)
vmovaps %xmm0, 0x1e0(%rsp)
jb 0x1d09e74
vsqrtss %xmm0, %xmm0, %xmm7
jmp 0x1d09ea4
vmovss %xmm11, 0x140(%rsp)
vmovss %xmm12, 0x20(%rsp)
vzeroupper
callq 0x6aa20
vmovss 0x20(%rsp), %xmm12
vmovss 0x140(%rsp), %xmm11
vmovaps 0x60(%rsp), %xmm10
vmovaps %xmm0, %xmm7
vmovaps 0x80(%rsp), %xmm3
vbroadcastss %xmm3, %xmm1
vbroadcastss 0x217005(%rip), %xmm4 # 0x1f20ec0
vmovaps %xmm1, 0x330(%rsp)
vxorps %xmm4, %xmm1, %xmm0
vmulss %xmm0, %xmm3, %xmm0
vmulss 0x1e2cb8(%rip), %xmm12, %xmm1 # 0x1eecb8c
vmovaps %xmm10, %xmm2
vfnmsub213ss %xmm1, %xmm10, %xmm2 # xmm2 = -(xmm10 * xmm2) - xmm1
vfmadd231ss %xmm3, %xmm3, %xmm1 # xmm1 = (xmm3 * xmm3) + xmm1
vmovss 0x1e2c96(%rip), %xmm3 # 0x1eecb80
vmulss %xmm3, %xmm0, %xmm0
vmulss %xmm3, %xmm2, %xmm2
vmulss %xmm3, %xmm1, %xmm1
vmulss %xmm3, %xmm11, %xmm3
vbroadcastss %xmm3, %xmm3
vmulps 0x240(%rsp), %xmm3, %xmm3
vbroadcastss %xmm1, %xmm1
vfmadd132ps 0x280(%rsp), %xmm3, %xmm1 # xmm1 = (xmm1 * mem) + xmm3
vbroadcastss %xmm2, %xmm2
vfmadd132ps 0x260(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1
vbroadcastss %xmm0, %xmm13
vfmadd132ps 0x2a0(%rsp), %xmm2, %xmm13 # xmm13 = (xmm13 * mem) + xmm2
vdpps $0x7f, %xmm13, %xmm13, %xmm0
vxorps %xmm1, %xmm1, %xmm1
vmovss %xmm0, %xmm1, %xmm2 # xmm2 = xmm0[0],xmm1[1,2,3]
vrsqrt14ss %xmm2, %xmm1, %xmm3
vmulss 0x1e27c7(%rip), %xmm3, %xmm5 # 0x1eec718
vmulss 0x1e27c3(%rip), %xmm0, %xmm6 # 0x1eec71c
vrcp14ss %xmm2, %xmm1, %xmm2
vxorps %xmm4, %xmm0, %xmm1
vmovaps %xmm2, 0x310(%rsp)
vfnmadd213ss 0x1e7083(%rip), %xmm0, %xmm2 # xmm2 = -(xmm0 * xmm2) + mem
vmovss %xmm2, 0x4c(%rsp)
vucomiss %xmm1, %xmm0
vmovaps %xmm13, 0x140(%rsp)
vmovss %xmm7, 0x20(%rsp)
vmovaps %xmm0, 0x320(%rsp)
jb 0x1d09fa1
vsqrtss %xmm0, %xmm0, %xmm16
jmp 0x1d09fee
vmovaps %xmm3, 0xd0(%rsp)
vmovss %xmm5, 0x24(%rsp)
vmovss %xmm6, 0xc0(%rsp)
vzeroupper
callq 0x6aa20
vmovss 0xc0(%rsp), %xmm6
vmovss 0x24(%rsp), %xmm5
vmovaps 0xd0(%rsp), %xmm3
vmovss 0x20(%rsp), %xmm7
vmovaps 0x140(%rsp), %xmm13
vmovaps %xmm0, %xmm16
vmovaps 0x200(%rsp), %xmm11
vmovaps 0x1e0(%rsp), %xmm19
vmulss %xmm3, %xmm6, %xmm0
vmulss %xmm3, %xmm3, %xmm1
vmulss %xmm1, %xmm0, %xmm0
vaddss %xmm0, %xmm5, %xmm0
vbroadcastss %xmm0, %xmm4
vmulps %xmm4, %xmm13, %xmm0
vmovaps %xmm0, 0xd0(%rsp)
vdpps $0x7f, %xmm0, %xmm11, %xmm15
vaddss 0x1e26e5(%rip), %xmm7, %xmm14 # 0x1eec714
vmulps %xmm15, %xmm15, %xmm0
vsubps %xmm0, %xmm19, %xmm0
vxorps %xmm2, %xmm2, %xmm2
vmovss %xmm0, %xmm2, %xmm1 # xmm1 = xmm0[0],xmm2[1,2,3]
vrsqrt14ss %xmm1, %xmm2, %xmm18
vmulss 0x1e26c6(%rip), %xmm18, %xmm17 # 0x1eec718
vmulss 0x1e26c0(%rip), %xmm0, %xmm20 # 0x1eec71c
vucomiss 0x1e19c0(%rip), %xmm0 # 0x1eeba24
jb 0x1d0a06f
vsqrtss %xmm0, %xmm0, %xmm0
jmp 0x1d0a107
vmovss %xmm14, 0x24(%rsp)
vmovaps %xmm15, 0xc0(%rsp)
vmovss %xmm16, 0x40(%rsp)
vmovss %xmm17, 0x3c(%rsp)
vmovaps %xmm18, 0x300(%rsp)
vmovss %xmm20, 0x38(%rsp)
vmovaps %xmm4, 0x2f0(%rsp)
vzeroupper
callq 0x6aa20
vmovaps 0x2f0(%rsp), %xmm4
vmovss 0x38(%rsp), %xmm20
vmovaps 0x300(%rsp), %xmm18
vmovss 0x3c(%rsp), %xmm17
vmovss 0x40(%rsp), %xmm16
vmovaps 0xc0(%rsp), %xmm15
vmovss 0x24(%rsp), %xmm14
vmovss 0x20(%rsp), %xmm7
vmovaps 0x140(%rsp), %xmm13
vmovaps 0x1e0(%rsp), %xmm19
vmovaps 0x200(%rsp), %xmm11
vbroadcastss 0x216db4(%rip), %xmm8 # 0x1f20ec4
vmovaps 0x1c0(%rsp), %ymm31
vmovaps 0x1a0(%rsp), %ymm21
vmovaps 0x60(%rsp), %xmm10
vmovaps 0xa0(%rsp), %xmm9
vmovss 0x1e68a5(%rip), %xmm2 # 0x1ef09dc
vmovaps %xmm2, %xmm1
vmovaps 0x80(%rsp), %xmm3
vfmadd213ss %xmm10, %xmm3, %xmm1 # xmm1 = (xmm3 * xmm1) + xmm10
vfmadd231ss %xmm2, %xmm10, %xmm3 # xmm3 = (xmm10 * xmm2) + xmm3
vbroadcastss %xmm10, %xmm2
vmulps 0x240(%rsp), %xmm2, %xmm2
vbroadcastss %xmm3, %xmm3
vfmadd132ps 0x280(%rsp), %xmm2, %xmm3 # xmm3 = (xmm3 * mem) + xmm2
vbroadcastss %xmm1, %xmm1
vfmadd132ps 0x260(%rsp), %xmm3, %xmm1 # xmm1 = (xmm1 * mem) + xmm3
vmovaps 0x330(%rsp), %xmm2
vfmadd132ps 0x2a0(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1
vbroadcastss 0x320(%rsp), %xmm1
vmulps %xmm1, %xmm2, %xmm1
vdpps $0x7f, %xmm2, %xmm13, %xmm2
vbroadcastss %xmm2, %xmm2
vmulps %xmm2, %xmm13, %xmm2
vsubps %xmm2, %xmm1, %xmm1
vmovss 0x4c(%rsp), %xmm2
vmulss 0x310(%rsp), %xmm2, %xmm2
vmulss 0x48(%rsp), %xmm9, %xmm3
vbroadcastss %xmm2, %xmm2
vmulps %xmm2, %xmm1, %xmm1
vxorps 0x216cea(%rip){1to4}, %xmm13, %xmm2 # 0x1f20ec0
vmulps %xmm1, %xmm4, %xmm4
vmovaps 0xd0(%rsp), %xmm12
vdpps $0x7f, %xmm12, %xmm2, %xmm5
vmovss 0x44(%rsp), %xmm6
vmaxss %xmm3, %xmm6, %xmm1
vdivss %xmm16, %xmm6, %xmm3
vdpps $0x7f, %xmm4, %xmm11, %xmm4
vfmadd213ss %xmm1, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm7) + xmm1
vfmadd213ss %xmm7, %xmm3, %xmm14 # xmm14 = (xmm3 * xmm14) + xmm7
vmovaps 0x230(%rsp), %xmm7
vdpps $0x7f, %xmm12, %xmm7, %xmm3
vaddss %xmm4, %xmm5, %xmm4
vdpps $0x7f, %xmm2, %xmm11, %xmm5
vmulss %xmm18, %xmm20, %xmm2
vmulss %xmm18, %xmm18, %xmm6
vmulss %xmm6, %xmm2, %xmm2
vdpps $0x7f, %xmm7, %xmm11, %xmm6
vaddss %xmm2, %xmm17, %xmm7
vfnmadd231ss %xmm4, %xmm15, %xmm5 # xmm5 = -(xmm15 * xmm4) + xmm5
vfnmadd231ss %xmm3, %xmm15, %xmm6 # xmm6 = -(xmm15 * xmm3) + xmm6
vpermilps $0xff, 0x380(%rsp), %xmm2 # xmm2 = mem[3,3,3,3]
vsubss %xmm2, %xmm0, %xmm2
vshufps $0xff, %xmm13, %xmm13, %xmm0 # xmm0 = xmm13[3,3,3,3]
vfmsub213ss %xmm0, %xmm7, %xmm5 # xmm5 = (xmm7 * xmm5) - xmm0
vmulss %xmm7, %xmm6, %xmm6
vmulss %xmm5, %xmm3, %xmm7
vfmsub231ss %xmm6, %xmm4, %xmm7 # xmm7 = (xmm4 * xmm6) - xmm7
vdivss %xmm7, %xmm6, %xmm6
vdivss %xmm7, %xmm5, %xmm5
vdivss %xmm7, %xmm3, %xmm3
vdivss %xmm7, %xmm4, %xmm4
vmulss %xmm6, %xmm15, %xmm6
vmulss %xmm3, %xmm2, %xmm3
vsubss %xmm3, %xmm6, %xmm3
vmulss %xmm5, %xmm15, %xmm5
vmulss %xmm4, %xmm2, %xmm4
vsubss %xmm5, %xmm4, %xmm4
vsubss %xmm3, %xmm10, %xmm10
vsubss %xmm4, %xmm9, %xmm9
vandps %xmm8, %xmm15, %xmm3
vucomiss %xmm3, %xmm14
jbe 0x1d0a45e
vaddss %xmm1, %xmm14, %xmm1
vmovaps 0x2d0(%rsp), %xmm3
vfmadd231ss 0x1e7bf0(%rip), %xmm3, %xmm1 # xmm1 = (xmm3 * mem) + xmm1
vandps %xmm2, %xmm8, %xmm2
vucomiss %xmm2, %xmm1
jbe 0x1d0a45e
vaddss 0x2e0(%rsp), %xmm9, %xmm9
movb $0x1, %r13b
vucomiss 0x5c(%rsp), %xmm9
jb 0x1d0a461
movq 0x18(%rsp), %rax
vmovss 0x80(%r12,%rax,4), %xmm4
vucomiss %xmm9, %xmm4
jb 0x1d0a461
vucomiss 0x1e1718(%rip), %xmm10 # 0x1eeba24
jb 0x1d0a461
vmovss 0x1e23fa(%rip), %xmm1 # 0x1eec714
vucomiss %xmm10, %xmm1
jb 0x1d0a461
vxorps %xmm2, %xmm2, %xmm2
vmovss %xmm19, %xmm2, %xmm1 # xmm1 = xmm19[0],xmm2[1,2,3]
vrsqrt14ss %xmm1, %xmm2, %xmm1
vmulss 0x1e23db(%rip), %xmm1, %xmm2 # 0x1eec718
vmulss 0x1e23d5(%rip), %xmm19, %xmm3 # 0x1eec71c
movq (%r15), %rax
movq 0x1e8(%rax), %rax
movq %r15, %rcx
movq 0x50(%rsp), %rdx
movq (%rax,%rdx,8), %r15
movq 0x18(%rsp), %rax
movl 0x90(%r12,%rax,4), %eax
testl %eax, 0x34(%r15)
je 0x1d0a47e
vmulss %xmm1, %xmm3, %xmm3
vmulss %xmm1, %xmm1, %xmm1
vmulss %xmm1, %xmm3, %xmm1
vaddss %xmm1, %xmm2, %xmm1
vbroadcastss %xmm1, %xmm1
vmulps %xmm1, %xmm11, %xmm1
vfmadd213ps %xmm13, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm0) + xmm13
vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm13, %xmm13, %xmm3 # xmm3 = xmm13[1,2,0,3]
vmulps %xmm3, %xmm1, %xmm1
vfmsub231ps %xmm2, %xmm13, %xmm1 # xmm1 = (xmm13 * xmm2) - xmm1
vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3]
vshufps $0xd2, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,0,1,3]
vmulps %xmm1, %xmm0, %xmm0
vfmsub231ps %xmm3, %xmm2, %xmm0 # xmm0 = (xmm2 * xmm3) - xmm0
movq 0x10(%rcx), %rax
cmpq $0x0, 0x10(%rax)
jne 0x1d0a483
cmpq $0x0, 0x40(%r15)
jne 0x1d0a483
movq 0x18(%rsp), %rcx
vmovss %xmm9, 0x80(%r12,%rcx,4)
vextractps $0x1, %xmm0, 0xc0(%r12,%rcx,4)
vextractps $0x2, %xmm0, 0xd0(%r12,%rcx,4)
vmovss %xmm0, 0xe0(%r12,%rcx,4)
vmovss %xmm10, 0xf0(%r12,%rcx,4)
movl $0x0, 0x100(%r12,%rcx,4)
movq 0xf0(%rsp), %rax
movl %eax, 0x110(%r12,%rcx,4)
movq 0x50(%rsp), %rax
movl %eax, 0x120(%r12,%rcx,4)
movq 0x28(%rsp), %r15
movq 0x8(%r15), %rax
movl (%rax), %eax
movl %eax, 0x130(%r12,%rcx,4)
movq 0x8(%r15), %rax
movl 0x4(%rax), %eax
movl %eax, 0x140(%r12,%rcx,4)
jmp 0x1d0a461
xorl %r13d, %r13d
subq $0x1, %r14
setb %al
testb %r13b, %r13b
jne 0x1d0a702
testb %al, %al
je 0x1d09d51
jmp 0x1d0a702
movq %rcx, %r15
jmp 0x1d0a461
movq 0x28(%rsp), %rcx
movq 0x8(%rcx), %rax
vbroadcastss %xmm10, %xmm1
vshufps $0x55, %xmm0, %xmm0, %xmm2 # xmm2 = xmm0[1,1,1,1]
vshufps $0xaa, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[2,2,2,2]
vbroadcastss %xmm0, %xmm0
vmovaps %xmm2, 0x3e0(%rsp)
vmovaps %xmm3, 0x3f0(%rsp)
vmovaps %xmm0, 0x400(%rsp)
vmovaps %xmm1, 0x410(%rsp)
vxorps %xmm0, %xmm0, %xmm0
vmovaps %xmm0, 0x420(%rsp)
vmovaps 0x3c0(%rsp), %xmm0
vmovaps %xmm0, 0x430(%rsp)
vmovdqa 0x3d0(%rsp), %xmm0
vmovdqa %xmm0, 0x440(%rsp)
leaq 0x450(%rsp), %rdx
vpcmpeqd %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, (%rdx)
vbroadcastss (%rax), %xmm0
vmovaps %xmm0, 0x450(%rsp)
vbroadcastss 0x4(%rax), %xmm0
vmovaps %xmm0, 0x460(%rsp)
movq 0x18(%rsp), %rax
vmovss %xmm9, 0x80(%r12,%rax,4)
vmovaps 0x3b0(%rsp), %xmm0
vmovaps %xmm0, 0xe0(%rsp)
leaq 0xe0(%rsp), %rax
movq %rax, 0x110(%rsp)
movq 0x18(%r15), %rax
movq %rax, 0x118(%rsp)
movq 0x8(%rcx), %rax
movq %rax, 0x120(%rsp)
movq %r12, 0x128(%rsp)
leaq 0x3e0(%rsp), %rax
movq %rax, 0x130(%rsp)
movl $0x4, 0x138(%rsp)
movq 0x40(%r15), %rax
testq %rax, %rax
vmovaps %xmm10, 0x60(%rsp)
vmovaps %xmm9, 0xa0(%rsp)
vmovss %xmm4, 0x80(%rsp)
je 0x1d0a5e4
leaq 0x110(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0x80(%rsp), %xmm4
vmovaps 0xa0(%rsp), %xmm9
vmovaps 0x60(%rsp), %xmm10
vmovaps 0x1a0(%rsp), %ymm21
vmovaps 0x1c0(%rsp), %ymm31
vmovdqa 0xe0(%rsp), %xmm0
vptestmd %xmm0, %xmm0, %k0
kortestb %k0, %k0
je 0x1d0a6e9
movq 0x28(%rsp), %rax
movq 0x10(%rax), %rcx
movq 0x10(%rcx), %rax
testq %rax, %rax
je 0x1d0a650
testb $0x2, (%rcx)
jne 0x1d0a61b
testb $0x40, 0x3e(%r15)
je 0x1d0a650
leaq 0x110(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0x80(%rsp), %xmm4
vmovaps 0xa0(%rsp), %xmm9
vmovaps 0x60(%rsp), %xmm10
vmovaps 0x1a0(%rsp), %ymm21
vmovaps 0x1c0(%rsp), %ymm31
vmovdqa 0xe0(%rsp), %xmm0
vptestmd %xmm0, %xmm0, %k1
kortestb %k1, %k1
je 0x1d0a6e9
movq 0x128(%rsp), %rax
movq 0x130(%rsp), %rcx
vmovaps (%rcx), %xmm0
vmovups %xmm0, 0xc0(%rax) {%k1}
vmovaps 0x10(%rcx), %xmm0
vmovups %xmm0, 0xd0(%rax) {%k1}
vmovaps 0x20(%rcx), %xmm0
vmovups %xmm0, 0xe0(%rax) {%k1}
vmovaps 0x30(%rcx), %xmm0
vmovups %xmm0, 0xf0(%rax) {%k1}
vmovaps 0x40(%rcx), %xmm0
vmovups %xmm0, 0x100(%rax) {%k1}
vmovdqa 0x50(%rcx), %xmm0
vmovdqu32 %xmm0, 0x110(%rax) {%k1}
vmovdqa 0x60(%rcx), %xmm0
vmovdqu32 %xmm0, 0x120(%rax) {%k1}
vmovdqa 0x70(%rcx), %xmm0
vmovdqa32 %xmm0, 0x130(%rax) {%k1}
vmovdqa 0x80(%rcx), %xmm0
vmovdqa32 %xmm0, 0x140(%rax) {%k1}
jmp 0x1d0a6f8
movq 0x18(%rsp), %rax
vmovss %xmm4, 0x80(%r12,%rax,4)
movq 0x28(%rsp), %r15
jmp 0x1d0a461
movq 0x18(%rsp), %rax
vmovaps 0x4a0(%rsp), %ymm0
vcmpleps 0x80(%r12,%rax,4){1to8}, %ymm0, %k0
kmovd %k0, %eax
andb %al, %bl
jne 0x1d09c6d
vmovdqa 0x500(%rsp), %ymm1
vpcmpltd 0x480(%rsp), %ymm1, %k1
vmovaps 0x820(%rsp), %ymm0
vpcmpltd 0x5a0(%rsp), %ymm1, %k2
vmovaps 0x360(%rsp), %ymm3
vaddps %ymm0, %ymm3, %ymm1
movq 0x18(%rsp), %rax
vbroadcastss 0x80(%r12,%rax,4), %ymm2
vcmpleps %ymm2, %ymm1, %k0 {%k2}
kmovd %k0, %eax
movl 0x100(%rsp), %ecx
andb %al, %cl
vmovaps 0x560(%rsp), %ymm1
vaddps %ymm1, %ymm3, %ymm3
vcmpleps %ymm2, %ymm3, %k0 {%k1}
kmovd %k0, %eax
movl 0x34(%rsp), %edx
andb %al, %dl
orb %cl, %dl
je 0x1d0a818
movq 0x190(%rsp), %r9
movl %r9d, %eax
leaq (%rax,%rax,2), %rax
shlq $0x5, %rax
movb %dl, 0x860(%rsp,%rax)
kmovd %ecx, %k1
vmovaps %ymm0, %ymm1 {%k1}
vmovaps %ymm1, 0x880(%rsp,%rax)
vmovaps 0x170(%rsp), %xmm2
vmovlps %xmm2, 0x8a0(%rsp,%rax)
movq 0x188(%rsp), %r11
leal 0x1(%r11), %ecx
movl %ecx, 0x8a8(%rsp,%rax)
incl %r9d
movq 0x180(%rsp), %r8
vbroadcastss 0x1e1f12(%rip), %ymm16 # 0x1eec714
movq 0x198(%rsp), %r10
jmp 0x1d0a84b
vbroadcastss 0x1e1efe(%rip), %ymm16 # 0x1eec714
jmp 0x1d0a842
movq 0x180(%rsp), %r8
vbroadcastss 0x1e1eea(%rip), %ymm16 # 0x1eec714
movq 0x198(%rsp), %r10
movq 0x190(%rsp), %r9
movq 0x188(%rsp), %r11
vmovaps 0x170(%rsp), %xmm2
movl %r9d, %eax
testl %eax, %eax
je 0x1d0a9a0
leal -0x1(%rax), %r9d
leaq (%r9,%r9,2), %rcx
shlq $0x5, %rcx
vmovaps 0x880(%rsp,%rcx), %ymm0
movzbl 0x860(%rsp,%rcx), %esi
vaddps 0x360(%rsp), %ymm0, %ymm1
movq 0x18(%rsp), %rdx
vcmpleps 0x80(%r12,%rdx,4){1to8}, %ymm1, %k0
kmovb %k0, %edx
andl %esi, %edx
je 0x1d0a943
kmovd %edx, %k1
vbroadcastss 0x1e117d(%rip), %ymm1 # 0x1eeba20
vblendmps %ymm0, %ymm1, %ymm0 {%k1}
vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm0, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1]
vminps %ymm2, %ymm1, %ymm1
vcmpeqps %ymm1, %ymm0, %k0
kmovd %k0, %esi
andb %dl, %sil
je 0x1d0a8db
movzbl %sil, %edi
jmp 0x1d0a8de
movzbl %dl, %edi
leaq (%rsp,%rcx), %rsi
addq $0x860, %rsi # imm = 0x860
vmovss 0x44(%rsi), %xmm0
tzcntl %edi, %ecx
movb $0x1, %dil
shlb %cl, %dil
movl 0x48(%rsi), %r11d
movzbl %dil, %edi
kmovd %edi, %k0
kmovd %edx, %k1
kandnb %k1, %k0, %k0
kmovb %k0, (%rsi)
kortestb %k0, %k0
je 0x1d0a919
movl %eax, %r9d
vbroadcastss 0x40(%rsi), %ymm1
vsubss %xmm1, %xmm0, %xmm0
vbroadcastss %xmm0, %ymm0
vfmadd132ps 0x2165ef(%rip), %ymm1, %ymm0 # ymm0 = (ymm0 * mem) + ymm1
vmovaps %ymm0, 0x3e0(%rsp)
vmovsd 0x3e0(%rsp,%rcx,4), %xmm2
movl %r9d, %eax
testb %dl, %dl
je 0x1d0a84e
jmp 0x1d08484
vcmpleps 0x2165a2(%rip), %ymm4, %k2 # 0x1f20f00
vbroadcastss 0x1e221d(%rip), %ymm4 # 0x1eecb84
vbroadcastss 0x1e10af(%rip), %ymm16 # 0x1eeba20
vblendmps %ymm4, %ymm16, %ymm3 {%k2}
vmovaps %ymm3, %ymm30 {%k1}
vblendmps %ymm16, %ymm4, %ymm3 {%k2}
kmovd %k2, %ecx
vmovaps %ymm3, %ymm31 {%k1}
knotb %k1, %k0
kmovd %k0, %edx
orb %cl, %dl
andb %al, %dl
movl %edx, %eax
jmp 0x1d08a71
movq 0x18(%rsp), %rax
vmovaps 0x5c0(%rsp), %ymm0
vcmpleps 0x80(%r12,%rax,4){1to8}, %ymm0, %k0
kmovb %k0, %eax
andl %eax, %r10d
jne 0x1d080f7
leaq -0x28(%rbp), %rsp
popq %rbx
popq %r12
popq %r13
popq %r14
popq %r15
popq %rbp
vzeroupper
retq
|
/embree[P]embree/kernels/geometry/curveNi_intersector.h
|
bool embree::avx512::CurveNiIntersectorK<8, 4>::occluded_t<embree::avx512::SweepCurve1IntersectorK<embree::BSplineCurveT, 4>, embree::avx512::Occluded1KEpilog1<4, true>>(embree::avx512::CurvePrecalculationsK<4>&, embree::RayK<4>&, unsigned long, embree::RayQueryContext*, embree::CurveNi<8> const&)
|
static __forceinline bool occluded_t(Precalculations& pre, RayK<K>& ray, const size_t k, RayQueryContext* context, const Primitive& prim)
{
vfloat<M> tNear;
vbool<M> valid = intersect(ray,k,prim,tNear);
const size_t N = prim.N;
size_t mask = movemask(valid);
while (mask)
{
const size_t i = bscf(mask);
STAT3(shadow.trav_prims,1,1,1);
const unsigned int geomID = prim.geomID(N);
const unsigned int primID = prim.primID(N)[i];
const CurveGeometry* geom = context->scene->get<CurveGeometry>(geomID);
Vec3ff a0,a1,a2,a3; geom->gather(a0,a1,a2,a3,geom->curve(primID));
size_t mask1 = mask;
const size_t i1 = bscf(mask1);
if (mask) {
const unsigned int primID1 = prim.primID(N)[i1];
geom->prefetchL1_vertices(geom->curve(primID1));
if (mask1) {
const size_t i2 = bsf(mask1);
const unsigned int primID2 = prim.primID(N)[i2];
geom->prefetchL2_vertices(geom->curve(primID2));
}
}
if (Intersector().intersect(pre,ray,k,context,geom,primID,a0,a1,a2,a3,Epilog(ray,k,context,geomID,primID)))
return true;
mask &= movemask(tNear <= vfloat<M>(ray.tfar[k]));
}
return false;
}
|
pushq %rbp
movq %rsp, %rbp
pushq %r15
pushq %r14
pushq %r13
pushq %r12
pushq %rbx
andq $-0x20, %rsp
subq $0x980, %rsp # imm = 0x980
movzbl 0x1(%r8), %eax
leaq (%rax,%rax,4), %r9
leaq (%r9,%r9,4), %rdi
vbroadcastss 0x12(%r8,%rdi), %xmm0
vmovss (%rsi,%rdx,4), %xmm1
vmovss 0x40(%rsi,%rdx,4), %xmm2
vinsertps $0x10, 0x10(%rsi,%rdx,4), %xmm1, %xmm1 # xmm1 = xmm1[0],mem[0],xmm1[2,3]
vinsertps $0x20, 0x20(%rsi,%rdx,4), %xmm1, %xmm1 # xmm1 = xmm1[0,1],mem[0],xmm1[3]
vinsertps $0x10, 0x50(%rsi,%rdx,4), %xmm2, %xmm2 # xmm2 = xmm2[0],mem[0],xmm2[2,3]
movq %rcx, %r14
vinsertps $0x20, 0x60(%rsi,%rdx,4), %xmm2, %xmm2 # xmm2 = xmm2[0,1],mem[0],xmm2[3]
vsubps 0x6(%r8,%rdi), %xmm1, %xmm1
vmulps %xmm1, %xmm0, %xmm3
vmulps %xmm2, %xmm0, %xmm0
vpmovsxbd 0x6(%r8,%rax,4), %ymm1
vcvtdq2ps %ymm1, %ymm5
vpmovsxbd 0x6(%r8,%r9), %ymm1
vcvtdq2ps %ymm1, %ymm6
leaq (%rax,%rax,2), %rcx
vpmovsxbd 0x6(%r8,%rcx,2), %ymm1
vcvtdq2ps %ymm1, %ymm2
leaq (%rax,%r9,2), %rdi
vpmovsxbd 0x6(%r8,%rdi), %ymm1
vcvtdq2ps %ymm1, %ymm7
leal (,%rcx,4), %edi
vpmovsxbd 0x6(%r8,%rdi), %ymm1
vcvtdq2ps %ymm1, %ymm8
addq %rax, %rdi
vpmovsxbd 0x6(%r8,%rdi), %ymm1
vcvtdq2ps %ymm1, %ymm9
leaq (%rax,%rax,8), %r10
leal (%r10,%r10), %edi
vpmovsxbd 0x6(%r8,%rdi), %ymm1
addq %rax, %rdi
vpmovsxbd 0x6(%r8,%rdi), %ymm4
vcvtdq2ps %ymm1, %ymm10
vcvtdq2ps %ymm4, %ymm11
shll $0x2, %r9d
vpmovsxbd 0x6(%r8,%r9), %ymm1
vcvtdq2ps %ymm1, %ymm12
vbroadcastss %xmm0, %ymm13
vbroadcastss 0x207c33(%rip), %ymm15 # 0x1f12704
vpermps %ymm0, %ymm15, %ymm14
vbroadcastss 0x2163fc(%rip), %ymm16 # 0x1f20edc
vpermps %ymm0, %ymm16, %ymm0
vmulps %ymm2, %ymm0, %ymm4
vmulps %ymm0, %ymm9, %ymm1
vmulps %ymm0, %ymm12, %ymm0
vfmadd231ps %ymm6, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm6) + ymm4
vfmadd231ps %ymm8, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm8) + ymm1
vfmadd231ps %ymm14, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm14) + ymm0
vfmadd231ps %ymm5, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm5) + ymm4
vfmadd231ps %ymm7, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm7) + ymm1
vfmadd231ps %ymm13, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm13) + ymm0
vbroadcastss %xmm3, %ymm13
vpermps %ymm3, %ymm15, %ymm14
vpermps %ymm3, %ymm16, %ymm15
vmulps %ymm2, %ymm15, %ymm16
vmulps %ymm9, %ymm15, %ymm3
vmulps %ymm12, %ymm15, %ymm2
vfmadd231ps %ymm6, %ymm14, %ymm16 # ymm16 = (ymm14 * ymm6) + ymm16
vfmadd231ps %ymm8, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm8) + ymm3
vfmadd231ps %ymm11, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm11) + ymm2
vfmadd231ps %ymm5, %ymm13, %ymm16 # ymm16 = (ymm13 * ymm5) + ymm16
vfmadd231ps %ymm7, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm7) + ymm3
vfmadd231ps %ymm10, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm10) + ymm2
vbroadcastss 0x21636a(%rip), %ymm28 # 0x1f20ec4
vandps %ymm28, %ymm4, %ymm5
vbroadcastss 0x1e647f(%rip), %ymm6 # 0x1ef0fe8
vcmpltps %ymm6, %ymm5, %k1
vmovaps %ymm6, %ymm4 {%k1}
vandps %ymm28, %ymm1, %ymm5
vcmpltps %ymm6, %ymm5, %k1
vmovaps %ymm6, %ymm1 {%k1}
vandps %ymm28, %ymm0, %ymm5
vcmpltps %ymm6, %ymm5, %k1
vmovaps %ymm6, %ymm0 {%k1}
vrcp14ps %ymm4, %ymm5
vbroadcastss 0x1e1b69(%rip), %ymm6 # 0x1eec714
vfnmadd213ps %ymm6, %ymm5, %ymm4 # ymm4 = -(ymm5 * ymm4) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm4 # ymm4 = (ymm4 * ymm5) + ymm5
vrcp14ps %ymm1, %ymm5
vfnmadd213ps %ymm6, %ymm5, %ymm1 # ymm1 = -(ymm5 * ymm1) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm1 # ymm1 = (ymm1 * ymm5) + ymm5
vrcp14ps %ymm0, %ymm5
vfnmadd213ps %ymm6, %ymm5, %ymm0 # ymm0 = -(ymm5 * ymm0) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm0 # ymm0 = (ymm0 * ymm5) + ymm5
leaq (,%rax,8), %rdi
subq %rax, %rdi
vpmovsxwd 0x6(%r8,%rdi), %ymm5
vcvtdq2ps %ymm5, %ymm5
vsubps %ymm16, %ymm5, %ymm5
vpmovsxwd 0x6(%r8,%r10), %ymm6
vmulps %ymm5, %ymm4, %ymm5
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm16, %ymm6, %ymm6
vmulps %ymm6, %ymm4, %ymm4
leaq (%rax,%rax), %r10
addq %rax, %r9
shlq $0x3, %rcx
subq %rax, %rcx
movl %eax, %edi
shll $0x4, %edi
vpmovsxwd 0x6(%r8,%rdi), %ymm6
subq %r10, %rdi
vpmovsxwd 0x6(%r8,%rdi), %ymm7
vcvtdq2ps %ymm7, %ymm7
vsubps %ymm3, %ymm7, %ymm7
vmulps %ymm7, %ymm1, %ymm7
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm3, %ymm6, %ymm3
vmulps %ymm3, %ymm1, %ymm1
vpmovsxwd 0x6(%r8,%r9), %ymm3
vcvtdq2ps %ymm3, %ymm3
vsubps %ymm2, %ymm3, %ymm3
vmulps %ymm0, %ymm3, %ymm3
vpmovsxwd 0x6(%r8,%rcx), %ymm6
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm2, %ymm6, %ymm2
vmulps %ymm2, %ymm0, %ymm0
vpminsd %ymm4, %ymm5, %ymm2
vpminsd %ymm1, %ymm7, %ymm6
vmaxps %ymm6, %ymm2, %ymm2
vpminsd %ymm0, %ymm3, %ymm6
vmaxps 0x30(%rsi,%rdx,4){1to8}, %ymm6, %ymm6
vmaxps %ymm6, %ymm2, %ymm2
vmulps 0x21527b(%rip){1to8}, %ymm2, %ymm6 # 0x1f1ff10
vpmaxsd %ymm4, %ymm5, %ymm2
vpmaxsd %ymm1, %ymm7, %ymm1
vminps %ymm1, %ymm2, %ymm1
vpmaxsd %ymm0, %ymm3, %ymm0
movq %rsi, 0x20(%rsp)
vminps 0x80(%rsi,%rdx,4){1to8}, %ymm0, %ymm0
vminps %ymm0, %ymm1, %ymm0
vmulps 0x215251(%rip){1to8}, %ymm0, %ymm0 # 0x1f1ff14
vpbroadcastd %eax, %ymm1
vpcmpgtd 0x24fc4d(%rip), %ymm1, %k0 # 0x1f5a920
vmovaps %ymm6, 0x5a0(%rsp)
vcmpleps %ymm0, %ymm6, %k1
ktestb %k0, %k1
setne %r15b
je 0x1d0d429
kandb %k0, %k1, %k0
kmovd %k0, %eax
movzbl %al, %r12d
movl $0x1, %eax
shlxl %edx, %eax, %eax
kmovd %eax, %k0
vpmovm2d %k0, %xmm0
vmovdqa %xmm0, 0x330(%rsp)
movq %rdx, 0x30(%rsp)
movq %r8, 0x160(%rsp)
movq %r14, 0x38(%rsp)
tzcntq %r12, %rax
movl 0x2(%r8), %esi
movl 0x6(%r8,%rax,4), %eax
movq (%r14), %rcx
movq 0x1e8(%rcx), %rcx
movq %rsi, 0xf8(%rsp)
movq (%rcx,%rsi,8), %rdi
movq 0x58(%rdi), %rcx
movq 0x68(%rdi), %r11
movq %r11, %rsi
imulq %rax, %rsi
movl (%rcx,%rsi), %r10d
movq 0xa0(%rdi), %rsi
movq %rsi, %r9
imulq %r10, %r9
movq 0x90(%rdi), %rdi
vmovaps (%rdi,%r9), %xmm1
leaq 0x1(%r10), %r9
imulq %rsi, %r9
vmovaps (%rdi,%r9), %xmm0
leaq 0x2(%r10), %r9
imulq %rsi, %r9
vmovaps (%rdi,%r9), %xmm2
blsrq %r12, %r12
addq $0x3, %r10
imulq %rsi, %r10
vmovaps (%rdi,%r10), %xmm3
movq %r12, %r10
subq $0x1, %r10
jb 0x1d0adfe
andq %r12, %r10
tzcntq %r12, %r9
movl 0x6(%r8,%r9,4), %r9d
imulq %r11, %r9
movl (%rcx,%r9), %r9d
imulq %rsi, %r9
prefetcht0 (%rdi,%r9)
prefetcht0 0x40(%rdi,%r9)
testq %r10, %r10
je 0x1d0adfe
tzcntq %r10, %r9
movl 0x6(%r8,%r9,4), %r9d
imulq %r9, %r11
movl (%rcx,%r11), %ecx
imulq %rcx, %rsi
prefetcht1 (%rdi,%rsi)
prefetcht1 0x40(%rdi,%rsi)
movq 0x20(%rsp), %rcx
vmovss (%rcx,%rdx,4), %xmm4
vinsertps $0x1c, 0x10(%rcx,%rdx,4), %xmm4, %xmm4 # xmm4 = xmm4[0],mem[0],zero,zero
vinsertps $0x28, 0x20(%rcx,%rdx,4), %xmm4, %xmm4 # xmm4 = xmm4[0,1],mem[0],zero
vbroadcastss 0x40(%rcx,%rdx,4), %ymm12
vbroadcastss 0x50(%rcx,%rdx,4), %ymm13
vunpcklps %xmm13, %xmm12, %xmm5 # xmm5 = xmm12[0],xmm13[0],xmm12[1],xmm13[1]
vbroadcastss 0x60(%rcx,%rdx,4), %ymm14
vinsertps $0x28, %xmm14, %xmm5, %xmm9 # xmm9 = xmm5[0,1],xmm14[0],zero
vaddps %xmm0, %xmm1, %xmm5
vaddps %xmm2, %xmm5, %xmm5
vaddps %xmm3, %xmm5, %xmm5
vmulps 0x2124ae(%rip){1to4}, %xmm5, %xmm5 # 0x1f1d2fc
vsubps %xmm4, %xmm5, %xmm5
vdpps $0x7f, %xmm9, %xmm5, %xmm5
vmovss 0x30(%rcx,%rdx,4), %xmm10
vdpps $0x7f, %xmm9, %xmm9, %xmm11
vxorps %xmm8, %xmm8, %xmm8
vmovss %xmm11, %xmm8, %xmm6
vrcp14ss %xmm6, %xmm8, %xmm6
vmovaps %xmm6, %xmm7
vfnmadd213ss 0x1e6178(%rip), %xmm11, %xmm7 # xmm7 = -(xmm11 * xmm7) + mem
vmulss %xmm7, %xmm6, %xmm6
vmulss %xmm6, %xmm5, %xmm5
vbroadcastss %xmm5, %ymm6
vmovaps %xmm9, 0x1f0(%rsp)
vmovaps %ymm6, 0x400(%rsp)
vfmadd231ps %xmm6, %xmm9, %xmm4 # xmm4 = (xmm9 * xmm6) + xmm4
vblendps $0x8, %xmm8, %xmm4, %xmm4 # xmm4 = xmm4[0,1,2],xmm8[3]
vsubps %xmm4, %xmm1, %xmm6
vsubps %xmm4, %xmm2, %xmm7
vsubps %xmm4, %xmm0, %xmm8
vsubps %xmm4, %xmm3, %xmm3
vbroadcastss %xmm6, %ymm16
vbroadcastss 0x20783b(%rip), %ymm0 # 0x1f12704
vpermps %ymm6, %ymm0, %ymm17
vbroadcastss 0x216004(%rip), %ymm1 # 0x1f20edc
vpermps %ymm6, %ymm1, %ymm18
vbroadcastss 0x215ff1(%rip), %ymm2 # 0x1f20ed8
vmovaps %ymm6, 0x260(%rsp)
vpermps %ymm6, %ymm2, %ymm19
vbroadcastss %xmm8, %ymm20
vpermps %ymm8, %ymm0, %ymm22
vpermps %ymm8, %ymm1, %ymm23
vmovaps %ymm8, 0x220(%rsp)
vpermps %ymm8, %ymm2, %ymm24
vbroadcastss %xmm7, %ymm25
vpermps %ymm7, %ymm0, %ymm27
vpermps %ymm7, %ymm1, %ymm29
vmovaps %ymm7, 0x240(%rsp)
vpermps %ymm7, %ymm2, %ymm31
vbroadcastss %xmm3, %ymm21
vpermps %ymm3, %ymm0, %ymm0
vmovaps %ymm0, 0x7e0(%rsp)
vpermps %ymm3, %ymm1, %ymm30
vmovaps %ymm3, 0x200(%rsp)
vpermps %ymm3, %ymm2, %ymm6
vmovaps %ymm14, 0x4e0(%rsp)
vmulss %xmm14, %xmm14, %xmm0
vmovaps %ymm13, 0x500(%rsp)
vfmadd231ps %ymm13, %ymm13, %ymm0 # ymm0 = (ymm13 * ymm13) + ymm0
vmovaps %ymm12, 0x520(%rsp)
vfmadd231ps %ymm12, %ymm12, %ymm0 # ymm0 = (ymm12 * ymm12) + ymm0
vbroadcastss %xmm0, %ymm1
vandps %ymm28, %ymm1, %ymm0
vmovaps %ymm0, 0x4c0(%rsp)
vmovss %xmm10, 0x5c(%rsp)
vmovaps %xmm5, 0x290(%rsp)
vsubss %xmm5, %xmm10, %xmm0
vbroadcastss %xmm0, %ymm0
vmovaps %ymm0, 0x7a0(%rsp)
vpbroadcastd %eax, %xmm0
vmovdqa %xmm0, 0x350(%rsp)
movl $0x1, %eax
movq %rax, 0x100(%rsp)
xorl %ebx, %ebx
xorl %r13d, %r13d
movq 0xf8(%rsp), %rax
vpbroadcastd %eax, %xmm0
vmovdqa %xmm0, 0x340(%rsp)
vsqrtss %xmm11, %xmm11, %xmm0
vmovss %xmm0, 0x11c(%rsp)
vmovaps %xmm11, 0x1e0(%rsp)
vsqrtss %xmm11, %xmm11, %xmm0
vmovss %xmm0, 0x118(%rsp)
vmovsd 0x1e16cc(%rip), %xmm2 # 0x1eec6f0
vbroadcastss 0x1e16e7(%rip), %ymm3 # 0x1eec714
vmovaps %ymm1, 0x7c0(%rsp)
vmovaps %ymm16, 0x780(%rsp)
vmovaps %ymm17, 0x760(%rsp)
vmovaps %ymm18, 0x740(%rsp)
vmovaps %ymm19, 0x720(%rsp)
vmovaps %ymm20, 0x700(%rsp)
vmovaps %ymm22, 0x6e0(%rsp)
vmovaps %ymm23, 0x6c0(%rsp)
vmovaps %ymm24, 0x6a0(%rsp)
vmovaps %ymm25, 0x680(%rsp)
vmovaps %ymm27, 0x660(%rsp)
vmovaps %ymm29, 0x640(%rsp)
vmovaps %ymm31, 0x620(%rsp)
vmovaps %ymm21, 0x600(%rsp)
vmovaps %ymm30, 0x5e0(%rsp)
vmovaps %ymm6, 0x5c0(%rsp)
vmovshdup %xmm2, %xmm0 # xmm0 = xmm2[1,1,3,3]
vsubss %xmm2, %xmm0, %xmm0
vmulss 0x215e11(%rip), %xmm0, %xmm1 # 0x1f20ed0
vmovaps %xmm1, 0x80(%rsp)
vmovaps %xmm2, 0x150(%rsp)
vbroadcastss %xmm2, %ymm4
vbroadcastss %xmm0, %ymm0
vmovaps %ymm4, 0x60(%rsp)
vmovaps %ymm0, 0x1c0(%rsp)
vfmadd231ps 0x215e2d(%rip), %ymm0, %ymm4 # ymm4 = (ymm0 * mem) + ymm4
vsubps %ymm4, %ymm3, %ymm7
vmulps %ymm7, %ymm7, %ymm8
vmulps %ymm7, %ymm8, %ymm0
vbroadcastss 0x1e1a83(%rip), %ymm28 # 0x1eecb8c
vmulps %ymm28, %ymm0, %ymm1
vmulps %ymm4, %ymm4, %ymm9
vmulps %ymm4, %ymm9, %ymm2
vaddps %ymm1, %ymm2, %ymm1
vmulps %ymm7, %ymm4, %ymm10
vmulps %ymm7, %ymm10, %ymm5
vbroadcastss 0x1e5ed0(%rip), %ymm14 # 0x1ef0ffc
vmulps %ymm5, %ymm14, %ymm11
vmulps %ymm4, %ymm10, %ymm12
vbroadcastss 0x1e5eb7(%rip), %ymm15 # 0x1ef0ff4
vmulps %ymm15, %ymm12, %ymm13
vaddps %ymm13, %ymm11, %ymm11
vaddps %ymm1, %ymm11, %ymm1
vmulps %ymm28, %ymm2, %ymm11
vaddps %ymm0, %ymm11, %ymm11
vmulps %ymm14, %ymm12, %ymm12
vmulps %ymm5, %ymm15, %ymm5
vaddps %ymm5, %ymm12, %ymm5
vaddps %ymm5, %ymm11, %ymm5
vbroadcastss 0x1e5e91(%rip), %ymm14 # 0x1ef1000
vmulps %ymm0, %ymm14, %ymm11
vmulps %ymm1, %ymm14, %ymm12
vmulps %ymm5, %ymm14, %ymm13
vmulps %ymm2, %ymm14, %ymm5
vmulps %ymm5, %ymm21, %ymm2
vmovaps 0x7e0(%rsp), %ymm0
vmulps %ymm5, %ymm0, %ymm1
vmulps %ymm5, %ymm30, %ymm3
vmulps %ymm5, %ymm6, %ymm5
vfmadd231ps %ymm25, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm25) + ymm2
vfmadd231ps %ymm27, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm27) + ymm1
vfmadd231ps %ymm29, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm29) + ymm3
vfmadd231ps %ymm13, %ymm31, %ymm5 # ymm5 = (ymm31 * ymm13) + ymm5
vfmadd231ps %ymm20, %ymm12, %ymm2 # ymm2 = (ymm12 * ymm20) + ymm2
vfmadd231ps %ymm22, %ymm12, %ymm1 # ymm1 = (ymm12 * ymm22) + ymm1
vfmadd231ps %ymm23, %ymm12, %ymm3 # ymm3 = (ymm12 * ymm23) + ymm3
vfmadd231ps %ymm12, %ymm24, %ymm5 # ymm5 = (ymm24 * ymm12) + ymm5
vfmadd231ps %ymm16, %ymm11, %ymm2 # ymm2 = (ymm11 * ymm16) + ymm2
vfmadd231ps %ymm17, %ymm11, %ymm1 # ymm1 = (ymm11 * ymm17) + ymm1
vfmadd231ps %ymm18, %ymm11, %ymm3 # ymm3 = (ymm11 * ymm18) + ymm3
vfmadd231ps %ymm11, %ymm19, %ymm5 # ymm5 = (ymm19 * ymm11) + ymm5
vbroadcastss 0x215cd2(%rip), %ymm26 # 0x1f20ec0
vxorps %ymm26, %ymm7, %ymm11
vmulps %ymm7, %ymm11, %ymm7
vxorps %ymm26, %ymm4, %ymm11
vmulps %ymm4, %ymm11, %ymm4
vmulps %ymm28, %ymm10, %ymm10
vsubps %ymm10, %ymm4, %ymm4
vaddps %ymm10, %ymm8, %ymm8
vbroadcastss 0x1e1965(%rip), %ymm10 # 0x1eecb80
vmulps %ymm7, %ymm10, %ymm7
vmulps %ymm4, %ymm10, %ymm4
vmulps %ymm10, %ymm8, %ymm8
vmulps %ymm10, %ymm9, %ymm9
vmulps %ymm9, %ymm21, %ymm10
vmulps %ymm0, %ymm9, %ymm12
vmulps %ymm9, %ymm30, %ymm13
vmulps %ymm6, %ymm9, %ymm9
vfmadd231ps %ymm25, %ymm8, %ymm10 # ymm10 = (ymm8 * ymm25) + ymm10
vfmadd231ps %ymm27, %ymm8, %ymm12 # ymm12 = (ymm8 * ymm27) + ymm12
vfmadd231ps %ymm29, %ymm8, %ymm13 # ymm13 = (ymm8 * ymm29) + ymm13
vfmadd231ps %ymm8, %ymm31, %ymm9 # ymm9 = (ymm31 * ymm8) + ymm9
vfmadd231ps %ymm20, %ymm4, %ymm10 # ymm10 = (ymm4 * ymm20) + ymm10
vfmadd231ps %ymm22, %ymm4, %ymm12 # ymm12 = (ymm4 * ymm22) + ymm12
vfmadd231ps %ymm23, %ymm4, %ymm13 # ymm13 = (ymm4 * ymm23) + ymm13
vfmadd231ps %ymm4, %ymm24, %ymm9 # ymm9 = (ymm24 * ymm4) + ymm9
vfmadd231ps %ymm16, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm16) + ymm10
vfmadd231ps %ymm17, %ymm7, %ymm12 # ymm12 = (ymm7 * ymm17) + ymm12
vfmadd231ps %ymm18, %ymm7, %ymm13 # ymm13 = (ymm7 * ymm18) + ymm13
vfmadd231ps %ymm7, %ymm19, %ymm9 # ymm9 = (ymm19 * ymm7) + ymm9
vbroadcastss 0x80(%rsp), %ymm4
vmulps %ymm4, %ymm10, %ymm11
vmulps %ymm4, %ymm12, %ymm12
vmulps %ymm4, %ymm13, %ymm13
vmulps %ymm4, %ymm9, %ymm6
vmovaps %ymm2, %ymm8
vmovaps 0x254a71(%rip), %ymm7 # 0x1f5fd20
vxorps %xmm31, %xmm31, %xmm31
vpermt2ps %ymm31, %ymm7, %ymm8
vmovaps %ymm1, %ymm9
vpermt2ps %ymm31, %ymm7, %ymm9
vmovaps %ymm3, %ymm10
vpermt2ps %ymm31, %ymm7, %ymm10
vaddps %ymm5, %ymm6, %ymm4
vmaxps %ymm4, %ymm5, %ymm14
vminps %ymm4, %ymm5, %ymm4
vmovaps %ymm5, %ymm15
vpermt2ps %ymm31, %ymm7, %ymm15
vmovaps %ymm11, %ymm19
vpermt2ps %ymm31, %ymm7, %ymm19
vmovaps %ymm12, %ymm20
vpermt2ps %ymm31, %ymm7, %ymm20
vmovaps %ymm13, %ymm0
vpermt2ps %ymm31, %ymm7, %ymm0
vpermt2ps %ymm31, %ymm7, %ymm6
vsubps %ymm6, %ymm15, %ymm16
vsubps %ymm2, %ymm8, %ymm7
vsubps %ymm1, %ymm9, %ymm6
vsubps %ymm3, %ymm10, %ymm5
vmulps %ymm13, %ymm6, %ymm17
vfmsub231ps %ymm5, %ymm12, %ymm17 # ymm17 = (ymm12 * ymm5) - ymm17
vmulps %ymm11, %ymm5, %ymm18
vfmsub231ps %ymm7, %ymm13, %ymm18 # ymm18 = (ymm13 * ymm7) - ymm18
vmulps %ymm12, %ymm7, %ymm22
vfmsub231ps %ymm6, %ymm11, %ymm22 # ymm22 = (ymm11 * ymm6) - ymm22
vmulps %ymm22, %ymm22, %ymm22
vfmadd231ps %ymm18, %ymm18, %ymm22 # ymm22 = (ymm18 * ymm18) + ymm22
vfmadd231ps %ymm17, %ymm17, %ymm22 # ymm22 = (ymm17 * ymm17) + ymm22
vmulps %ymm5, %ymm5, %ymm17
vfmadd231ps %ymm6, %ymm6, %ymm17 # ymm17 = (ymm6 * ymm6) + ymm17
vfmadd231ps %ymm7, %ymm7, %ymm17 # ymm17 = (ymm7 * ymm7) + ymm17
vrcp14ps %ymm17, %ymm18
vmovaps %ymm18, %ymm23
vbroadcastss 0x1e1397(%rip), %ymm21 # 0x1eec714
vmovaps %ymm21, %ymm26
vfnmadd213ps %ymm21, %ymm17, %ymm23 # ymm23 = -(ymm17 * ymm23) + ymm21
vfmadd132ps %ymm18, %ymm18, %ymm23 # ymm23 = (ymm23 * ymm18) + ymm18
vmulps %ymm23, %ymm22, %ymm18
vmulps %ymm0, %ymm6, %ymm22
vfmsub231ps %ymm5, %ymm20, %ymm22 # ymm22 = (ymm20 * ymm5) - ymm22
vmulps %ymm19, %ymm5, %ymm24
vfmsub231ps %ymm7, %ymm0, %ymm24 # ymm24 = (ymm0 * ymm7) - ymm24
vmulps %ymm20, %ymm7, %ymm25
vfmsub231ps %ymm6, %ymm19, %ymm25 # ymm25 = (ymm19 * ymm6) - ymm25
vmulps %ymm25, %ymm25, %ymm25
vfmadd231ps %ymm24, %ymm24, %ymm25 # ymm25 = (ymm24 * ymm24) + ymm25
vfmadd231ps %ymm22, %ymm22, %ymm25 # ymm25 = (ymm22 * ymm22) + ymm25
vmulps %ymm23, %ymm25, %ymm22
vmaxps %ymm22, %ymm18, %ymm18
vsqrtps %ymm18, %ymm18
vmaxps %ymm15, %ymm16, %ymm22
vmaxps %ymm22, %ymm14, %ymm14
vaddps %ymm14, %ymm18, %ymm14
vminps %ymm15, %ymm16, %ymm15
vminps %ymm15, %ymm4, %ymm4
vsubps %ymm18, %ymm4, %ymm4
vmulps 0x1e5536(%rip){1to8}, %ymm14, %ymm14 # 0x1ef0940
vmulps 0x1e5530(%rip){1to8}, %ymm4, %ymm4 # 0x1ef0944
vmovaps %ymm4, 0x80(%rsp)
vmulps %ymm14, %ymm14, %ymm4
vrsqrt14ps %ymm17, %ymm15
vmulps 0x1e12ea(%rip){1to8}, %ymm17, %ymm14 # 0x1eec71c
vmulps %ymm14, %ymm15, %ymm14
vmulps %ymm15, %ymm15, %ymm16
vmulps %ymm14, %ymm16, %ymm14
vfmadd231ps 0x1e12cb(%rip){1to8}, %ymm15, %ymm14 # ymm14 = (ymm15 * mem) + ymm14
vmulps %ymm7, %ymm14, %ymm15
vmulps %ymm14, %ymm6, %ymm16
vmulps %ymm14, %ymm5, %ymm18
vsubps %ymm2, %ymm31, %ymm27
vsubps %ymm1, %ymm31, %ymm28
vmovaps %ymm3, 0xa0(%rsp)
vsubps %ymm3, %ymm31, %ymm29
vmovaps 0x4e0(%rsp), %ymm17
vmulps %ymm29, %ymm17, %ymm22
vmovaps 0x500(%rsp), %ymm21
vfmadd231ps %ymm28, %ymm21, %ymm22 # ymm22 = (ymm21 * ymm28) + ymm22
vmovaps 0x520(%rsp), %ymm3
vfmadd231ps %ymm27, %ymm3, %ymm22 # ymm22 = (ymm3 * ymm27) + ymm22
vmulps %ymm29, %ymm29, %ymm24
vfmadd231ps %ymm28, %ymm28, %ymm24 # ymm24 = (ymm28 * ymm28) + ymm24
vfmadd231ps %ymm27, %ymm27, %ymm24 # ymm24 = (ymm27 * ymm27) + ymm24
vmulps %ymm18, %ymm17, %ymm17
vfmadd231ps %ymm21, %ymm16, %ymm17 # ymm17 = (ymm16 * ymm21) + ymm17
vfmadd231ps %ymm3, %ymm15, %ymm17 # ymm17 = (ymm15 * ymm3) + ymm17
vmulps %ymm18, %ymm29, %ymm18
vfmadd231ps %ymm16, %ymm28, %ymm18 # ymm18 = (ymm28 * ymm16) + ymm18
vfmadd231ps %ymm15, %ymm27, %ymm18 # ymm18 = (ymm27 * ymm15) + ymm18
vmulps %ymm17, %ymm17, %ymm21
vmovaps 0x7c0(%rsp), %ymm16
vsubps %ymm21, %ymm16, %ymm15
vmulps %ymm18, %ymm17, %ymm25
vsubps %ymm25, %ymm22, %ymm22
vaddps %ymm22, %ymm22, %ymm22
vmulps %ymm18, %ymm18, %ymm25
vsubps %ymm25, %ymm24, %ymm3
vmovaps %ymm3, 0x1a0(%rsp)
vsubps %ymm4, %ymm3, %ymm4
vmulps %ymm22, %ymm22, %ymm25
vmulps 0x1e1664(%rip){1to8}, %ymm15, %ymm24 # 0x1eecb8c
vmulps %ymm4, %ymm24, %ymm30
vsubps %ymm30, %ymm25, %ymm30
vcmpnltps %ymm31, %ymm30, %k1
kmovd %k1, %eax
kortestb %k1, %k1
je 0x1d0b626
vsqrtps %ymm30, %ymm30
vaddps %ymm15, %ymm15, %ymm31
vrcp14ps %ymm31, %ymm3
vfnmadd213ps %ymm26, %ymm3, %ymm31 # ymm31 = -(ymm3 * ymm31) + ymm26
vfmadd132ps %ymm3, %ymm3, %ymm31 # ymm31 = (ymm31 * ymm3) + ymm3
vxorps 0x21594f(%rip){1to8}, %ymm22, %ymm3 # 0x1f20ec0
vsubps %ymm30, %ymm3, %ymm3
vmulps %ymm31, %ymm3, %ymm3
vsubps %ymm22, %ymm30, %ymm30
vmulps %ymm31, %ymm30, %ymm31
vmovaps %ymm17, %ymm30
vfmadd213ps %ymm18, %ymm3, %ymm30 # ymm30 = (ymm3 * ymm30) + ymm18
vmulps %ymm30, %ymm14, %ymm30
vmovaps %ymm30, 0x480(%rsp)
vmovaps %ymm17, %ymm30
vfmadd213ps %ymm18, %ymm31, %ymm30 # ymm30 = (ymm31 * ymm30) + ymm18
vmulps %ymm30, %ymm14, %ymm30
vmovaps %ymm30, 0x460(%rsp)
vbroadcastss 0x1e0459(%rip), %ymm16 # 0x1eeba20
vblendmps %ymm3, %ymm16, %ymm30 {%k1}
vbroadcastss 0x1e15ae(%rip), %ymm3 # 0x1eecb84
vblendmps %ymm31, %ymm3, %ymm31 {%k1}
vbroadcastss 0x2158de(%rip), %ymm23 # 0x1f20ec4
vandps %ymm23, %ymm21, %ymm3
vmovaps 0x4c0(%rsp), %ymm16
vmaxps %ymm3, %ymm16, %ymm3
vmulps 0x1e68b0(%rip){1to8}, %ymm3, %ymm3 # 0x1ef1eb4
vandps %ymm23, %ymm15, %ymm23
vcmpltps %ymm3, %ymm23, %k1 {%k1}
kortestb %k1, %k1
jne 0x1d0d3ac
vbroadcastss 0x1e10f0(%rip), %ymm3 # 0x1eec714
jmp 0x1d0b640
vbroadcastss 0x1e03f0(%rip), %ymm30 # 0x1eeba20
vbroadcastss 0x1e154a(%rip), %ymm31 # 0x1eecb84
vmovaps %ymm26, %ymm3
andb $0x7f, %al
je 0x1d0ba28
vmovaps %ymm21, 0x120(%rsp)
movq 0x20(%rsp), %rcx
vmovaps %ymm3, %ymm16
vmovss 0x80(%rcx,%rdx,4), %xmm3
vsubss 0x290(%rsp), %xmm3, %xmm3
vbroadcastss %xmm3, %ymm3
vminps %ymm31, %ymm3, %ymm3
vmovaps 0x7a0(%rsp), %ymm4
vmaxps %ymm30, %ymm4, %ymm4
vmulps %ymm29, %ymm13, %ymm23
vfmadd213ps %ymm23, %ymm12, %ymm28 # ymm28 = (ymm12 * ymm28) + ymm23
vfmadd213ps %ymm28, %ymm11, %ymm27 # ymm27 = (ymm11 * ymm27) + ymm28
vmovaps 0x4e0(%rsp), %ymm21
vmulps %ymm13, %ymm21, %ymm13
vmovaps 0x500(%rsp), %ymm31
vfmadd231ps %ymm12, %ymm31, %ymm13 # ymm13 = (ymm31 * ymm12) + ymm13
vmovaps 0x520(%rsp), %ymm30
vfmadd231ps %ymm11, %ymm30, %ymm13 # ymm13 = (ymm30 * ymm11) + ymm13
vbroadcastss 0x2157f7(%rip), %ymm28 # 0x1f20ec4
vandps %ymm28, %ymm13, %ymm11
vbroadcastss 0x1e590b(%rip), %ymm29 # 0x1ef0fe8
vcmpltps %ymm29, %ymm11, %k0
vbroadcastss 0x2157d2(%rip), %ymm26 # 0x1f20ec0
vxorps %ymm26, %ymm27, %ymm11
vrcp14ps %ymm13, %ymm12
vxorps %ymm26, %ymm13, %ymm23
vmovaps %ymm12, %ymm27
vfnmadd213ps %ymm16, %ymm13, %ymm27 # ymm27 = -(ymm13 * ymm27) + ymm16
vfmadd132ps %ymm12, %ymm12, %ymm27 # ymm27 = (ymm27 * ymm12) + ymm12
vmulps %ymm11, %ymm27, %ymm11
vcmpltps %ymm23, %ymm13, %k1
korb %k1, %k0, %k1
vbroadcastss 0x1e1457(%rip), %ymm27 # 0x1eecb84
vblendmps %ymm27, %ymm11, %ymm12 {%k1}
vmaxps %ymm12, %ymm4, %ymm4
vcmpnleps %ymm23, %ymm13, %k1
korb %k1, %k0, %k1
vbroadcastss 0x1e02d4(%rip), %ymm13 # 0x1eeba20
vmovaps %ymm13, %ymm11 {%k1}
vminps %ymm11, %ymm3, %ymm3
vxorps %xmm23, %xmm23, %xmm23
vsubps %ymm8, %ymm23, %ymm8
vsubps %ymm9, %ymm23, %ymm9
vsubps %ymm10, %ymm23, %ymm10
vmulps %ymm0, %ymm10, %ymm10
vfnmsub231ps %ymm9, %ymm20, %ymm10 # ymm10 = -(ymm20 * ymm9) - ymm10
vfnmadd231ps %ymm8, %ymm19, %ymm10 # ymm10 = -(ymm19 * ymm8) + ymm10
vmulps %ymm0, %ymm21, %ymm8
vfnmsub231ps %ymm20, %ymm31, %ymm8 # ymm8 = -(ymm31 * ymm20) - ymm8
vfnmadd231ps %ymm19, %ymm30, %ymm8 # ymm8 = -(ymm30 * ymm19) + ymm8
vandps %ymm28, %ymm8, %ymm9
vcmpltps %ymm29, %ymm9, %k0
vxorps %ymm26, %ymm10, %ymm9
vrcp14ps %ymm8, %ymm10
vxorps %ymm26, %ymm8, %ymm11
vmovaps %ymm10, %ymm12
vfnmadd213ps %ymm16, %ymm8, %ymm12 # ymm12 = -(ymm8 * ymm12) + ymm16
vfmadd132ps %ymm10, %ymm10, %ymm12 # ymm12 = (ymm12 * ymm10) + ymm10
vmulps %ymm9, %ymm12, %ymm9
vcmpltps %ymm11, %ymm8, %k1
korb %k1, %k0, %k1
vblendmps %ymm27, %ymm9, %ymm10 {%k1}
vmaxps %ymm10, %ymm4, %ymm0
vcmpnleps %ymm11, %ymm8, %k1
korb %k1, %k0, %k1
vmovaps %ymm13, %ymm9 {%k1}
vminps %ymm9, %ymm3, %ymm8
vmovaps %ymm0, 0x300(%rsp)
vcmpleps %ymm8, %ymm0, %k0
kmovd %k0, %ecx
andb %cl, %al
je 0x1d0ba40
vmovaps 0x480(%rsp), %ymm3
vmaxps 0x80(%rsp), %ymm23, %ymm4
vminps %ymm16, %ymm3, %ymm3
vxorps %xmm10, %xmm10, %xmm10
vmaxps %ymm10, %ymm3, %ymm3
vmovaps 0x460(%rsp), %ymm9
vminps %ymm16, %ymm9, %ymm9
vmovaps 0x2156fb(%rip), %ymm11 # 0x1f20f40
vaddps %ymm3, %ymm11, %ymm3
vbroadcastss 0x212c66(%rip), %ymm12 # 0x1f1e4b8
vmulps %ymm3, %ymm12, %ymm3
vmovaps 0x60(%rsp), %ymm0
vmovaps 0x1c0(%rsp), %ymm13
vfmadd213ps %ymm0, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm3) + ymm0
vmovaps %ymm3, 0x480(%rsp)
vmaxps %ymm10, %ymm9, %ymm3
vaddps %ymm3, %ymm11, %ymm3
vmulps %ymm3, %ymm12, %ymm3
vfmadd213ps %ymm0, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm3) + ymm0
vmovaps %ymm3, 0x460(%rsp)
vmulps %ymm4, %ymm4, %ymm3
vmovaps 0x1a0(%rsp), %ymm0
vsubps %ymm3, %ymm0, %ymm11
vmulps %ymm11, %ymm24, %ymm3
vsubps %ymm3, %ymm25, %ymm3
vcmpnltps %ymm10, %ymm3, %k0
kortestb %k0, %k0
je 0x1d0ba54
vxorps %xmm20, %xmm20, %xmm20
vcmpnltps %ymm23, %ymm3, %k1
vsqrtps %ymm3, %ymm3
vaddps %ymm15, %ymm15, %ymm4
vrcp14ps %ymm4, %ymm9
vfnmadd213ps %ymm16, %ymm9, %ymm4 # ymm4 = -(ymm9 * ymm4) + ymm16
vfmadd132ps %ymm9, %ymm9, %ymm4 # ymm4 = (ymm4 * ymm9) + ymm9
vxorps 0x2155d3(%rip){1to8}, %ymm22, %ymm9 # 0x1f20ec0
vsubps %ymm3, %ymm9, %ymm9
vmulps %ymm4, %ymm9, %ymm12
vsubps %ymm22, %ymm3, %ymm3
vmulps %ymm4, %ymm3, %ymm13
vmovaps %ymm17, %ymm3
vfmadd213ps %ymm18, %ymm12, %ymm3 # ymm3 = (ymm12 * ymm3) + ymm18
vmulps %ymm3, %ymm14, %ymm9
vmulps %ymm12, %ymm30, %ymm3
vmulps %ymm12, %ymm31, %ymm4
vmulps %ymm12, %ymm21, %ymm10
vmovaps %ymm7, %ymm19
vfmadd213ps %ymm2, %ymm9, %ymm19 # ymm19 = (ymm9 * ymm19) + ymm2
vsubps %ymm19, %ymm3, %ymm3
vmovaps %ymm6, %ymm19
vfmadd213ps %ymm1, %ymm9, %ymm19 # ymm19 = (ymm9 * ymm19) + ymm1
vsubps %ymm19, %ymm4, %ymm4
vmovaps 0xa0(%rsp), %ymm0
vfmadd213ps %ymm0, %ymm5, %ymm9 # ymm9 = (ymm5 * ymm9) + ymm0
vsubps %ymm9, %ymm10, %ymm9
vfmadd213ps %ymm18, %ymm13, %ymm17 # ymm17 = (ymm13 * ymm17) + ymm18
vmulps %ymm17, %ymm14, %ymm14
vmulps %ymm13, %ymm30, %ymm10
vmulps %ymm13, %ymm31, %ymm17
vmulps %ymm13, %ymm21, %ymm18
vfmadd213ps %ymm2, %ymm14, %ymm7 # ymm7 = (ymm14 * ymm7) + ymm2
vsubps %ymm7, %ymm10, %ymm10
vfmadd213ps %ymm1, %ymm14, %ymm6 # ymm6 = (ymm14 * ymm6) + ymm1
vsubps %ymm6, %ymm17, %ymm1
vfmadd213ps %ymm0, %ymm14, %ymm5 # ymm5 = (ymm14 * ymm5) + ymm0
vsubps %ymm5, %ymm18, %ymm5
vbroadcastss 0x1e0082(%rip), %ymm0 # 0x1eeba20
vblendmps %ymm12, %ymm0, %ymm2 {%k1}
vbroadcastss 0x1e11d7(%rip), %ymm0 # 0x1eecb84
vblendmps %ymm13, %ymm0, %ymm0 {%k1}
vandps 0x120(%rsp), %ymm28, %ymm6
vmovaps 0x4c0(%rsp), %ymm7
vmaxps %ymm6, %ymm7, %ymm6
vmulps 0x1e64e2(%rip){1to8}, %ymm6, %ymm6 # 0x1ef1eb4
vandps %ymm28, %ymm15, %ymm7
vcmpltps %ymm6, %ymm7, %k1 {%k1}
kortestb %k1, %k1
je 0x1d0ba7b
vcmpleps %ymm20, %ymm11, %k2
vbroadcastss 0x1e118b(%rip), %ymm7 # 0x1eecb84
vbroadcastss 0x1e001e(%rip), %ymm11 # 0x1eeba20
vblendmps %ymm7, %ymm11, %ymm6 {%k2}
vmovaps %ymm6, %ymm2 {%k1}
vblendmps %ymm11, %ymm7, %ymm6 {%k2}
vmovaps %ymm6, %ymm0 {%k1}
knotb %k1, %k1
korb %k2, %k1, %k1
kandb %k0, %k1, %k0
jmp 0x1d0ba7b
vbroadcastss 0x215492(%rip), %ymm28 # 0x1f20ec4
vmovaps 0x150(%rsp), %xmm2
jmp 0x1d0d226
vmovaps %ymm16, %ymm3
vmovaps 0x150(%rsp), %xmm2
jmp 0x1d0d226
vxorps %xmm1, %xmm1, %xmm1
vxorps %xmm5, %xmm5, %xmm5
vxorps %xmm3, %xmm3, %xmm3
vxorps %xmm4, %xmm4, %xmm4
vxorps %xmm9, %xmm9, %xmm9
vbroadcastss 0x1dffae(%rip), %ymm2 # 0x1eeba20
vbroadcastss 0x1e1109(%rip), %ymm0 # 0x1eecb84
vmulps %ymm5, %ymm21, %ymm5
vfmadd231ps %ymm1, %ymm31, %ymm5 # ymm5 = (ymm31 * ymm1) + ymm5
vfmadd231ps %ymm10, %ymm30, %ymm5 # ymm5 = (ymm30 * ymm10) + ymm5
vmovaps 0x300(%rsp), %ymm6
vmovaps %ymm6, 0x800(%rsp)
vminps %ymm2, %ymm8, %ymm1
vmovaps %ymm1, 0x820(%rsp)
vandps %ymm28, %ymm5, %ymm2
vmaxps %ymm0, %ymm6, %ymm5
vmovaps %ymm5, 0x540(%rsp)
vmovaps %ymm8, 0x560(%rsp)
vbroadcastss 0x215403(%rip), %ymm0 # 0x1f20ed4
vcmpltps %ymm0, %ymm2, %k1
kmovd %k1, 0x114(%rsp)
vcmpleps %ymm1, %ymm6, %k1
kmovd %k1, %ecx
andb %al, %cl
vmovaps %ymm5, 0x420(%rsp)
vcmpleps %ymm8, %ymm5, %k1
kmovd %k1, %esi
andb %al, %sil
movl %esi, 0x40(%rsp)
movl %esi, %eax
orb %cl, %al
je 0x1d0c61c
vmovaps %ymm0, %ymm2
movq %r12, 0x168(%rsp)
movb %r15b, 0x1b(%rsp)
knotb %k0, %k1
vmulps %ymm9, %ymm21, %ymm0
vfmadd213ps %ymm0, %ymm31, %ymm4 # ymm4 = (ymm31 * ymm4) + ymm0
vfmadd213ps %ymm4, %ymm30, %ymm3 # ymm3 = (ymm30 * ymm3) + ymm4
vandps %ymm28, %ymm3, %ymm0
vcmpltps %ymm2, %ymm0, %k0
kmovd %k1, 0x10c(%rsp)
korb %k1, %k0, %k1
vpbroadcastd 0x21537d(%rip), %ymm0 # 0x1f20edc
vpblendmd 0x21536f(%rip){1to8}, %ymm0, %ymm0 {%k1} # 0x1f20ed8
movq 0x100(%rsp), %rax
vpbroadcastd %eax, %ymm1
vmovdqa %ymm0, 0x580(%rsp)
vmovdqa %ymm1, 0x4a0(%rsp)
vpcmpnltd %ymm0, %ymm1, %k0
kmovd %k0, %r12d
movl %ecx, 0x110(%rsp)
andb %cl, %r12b
je 0x1d0c633
vmovaps 0x260(%rsp), %ymm1
vmovaps 0x220(%rsp), %ymm2
vminps %xmm2, %xmm1, %xmm0
vmaxps %xmm2, %xmm1, %xmm1
vmovaps 0x240(%rsp), %ymm3
vmovaps 0x200(%rsp), %ymm4
vminps %xmm4, %xmm3, %xmm2
vminps %xmm2, %xmm0, %xmm0
vmaxps %xmm4, %xmm3, %xmm2
vmaxps %xmm2, %xmm1, %xmm1
vbroadcastss 0x2152db(%rip), %xmm2 # 0x1f20ec4
vandps %xmm2, %xmm0, %xmm0
vandps %xmm2, %xmm1, %xmm2
vmaxps %xmm2, %xmm0, %xmm0
vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3]
vmaxss %xmm0, %xmm2, %xmm2
vshufpd $0x1, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[1,0]
vmaxss %xmm2, %xmm0, %xmm0
vmulss 0x1e62a6(%rip), %xmm0, %xmm0 # 0x1ef1eb4
vmovss %xmm0, 0x50(%rsp)
vshufps $0xff, %xmm1, %xmm1, %xmm0 # xmm0 = xmm1[3,3,3,3]
vmovaps %xmm0, 0x280(%rsp)
vmovaps 0x300(%rsp), %ymm0
vaddps 0x400(%rsp), %ymm0, %ymm0
vmovaps %ymm0, 0x440(%rsp)
kmovd %r12d, %k1
vbroadcastss 0x1dfdd5(%rip), %ymm0 # 0x1eeba20
vblendmps 0x300(%rsp), %ymm0, %ymm0 {%k1}
vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm0, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1]
vminps %ymm2, %ymm1, %ymm1
vcmpeqps %ymm1, %ymm0, %k0
kmovd %k0, %eax
andb %r12b, %al
movzbl %al, %eax
movzbl %r12b, %ecx
cmovnel %eax, %ecx
tzcntl %ecx, %ecx
movb $0x1, %r14b
shlb %cl, %r14b
shll $0x2, %ecx
vmovss 0x480(%rsp,%rcx), %xmm10
vmovss 0x800(%rsp,%rcx), %xmm8
vmovaps 0x1e0(%rsp), %xmm0
vucomiss 0x1dfd6d(%rip), %xmm0 # 0x1eeba24
vmovss 0x118(%rsp), %xmm0
jae 0x1d0bd03
vmovaps 0x1e0(%rsp), %xmm0
vmovaps %xmm10, 0x60(%rsp)
vmovaps %xmm8, 0xa0(%rsp)
kmovw %k1, 0x80(%rsp)
vzeroupper
callq 0x6aa20
kmovw 0x80(%rsp), %k1
vmovaps 0xa0(%rsp), %xmm8
vmovaps 0x60(%rsp), %xmm10
movzbl %r14b, %eax
kmovd %eax, %k0
kandnb %k1, %k0, %k0
kmovd %k0, %r12d
vmulss 0x1e6199(%rip), %xmm0, %xmm0 # 0x1ef1eb4
vmovss %xmm0, 0x54(%rsp)
movl $0x5, %r15d
vmovaps %xmm8, 0xa0(%rsp)
vbroadcastss %xmm8, %xmm0
vxorps %xmm1, %xmm1, %xmm1
vfmadd132ps 0x1f0(%rsp), %xmm1, %xmm0 # xmm0 = (xmm0 * mem) + xmm1
vmovss 0x1e09c9(%rip), %xmm1 # 0x1eec714
vsubss %xmm10, %xmm1, %xmm4
vmulss %xmm4, %xmm4, %xmm1
vmulss %xmm1, %xmm4, %xmm1
vmulss %xmm10, %xmm10, %xmm11
vmulss %xmm11, %xmm10, %xmm2
vmovss 0x1e0e22(%rip), %xmm7 # 0x1eecb8c
vmovaps %xmm7, %xmm3
vfmadd213ss %xmm2, %xmm1, %xmm3 # xmm3 = (xmm1 * xmm3) + xmm2
vmulss %xmm4, %xmm10, %xmm12
vmovaps %xmm4, 0x80(%rsp)
vmulss %xmm4, %xmm12, %xmm4
vmulss %xmm12, %xmm10, %xmm5
vmovss 0x1e5263(%rip), %xmm8 # 0x1ef0ff4
vmulss %xmm5, %xmm8, %xmm6
vmovss 0x1e525f(%rip), %xmm9 # 0x1ef0ffc
vfmadd231ss %xmm9, %xmm4, %xmm6 # xmm6 = (xmm4 * xmm9) + xmm6
vaddss %xmm6, %xmm3, %xmm3
vmovaps %xmm7, %xmm6
vfmadd213ss %xmm1, %xmm2, %xmm6 # xmm6 = (xmm2 * xmm6) + xmm1
vmulss %xmm4, %xmm8, %xmm4
vfmadd231ss %xmm5, %xmm9, %xmm4 # xmm4 = (xmm9 * xmm5) + xmm4
vaddss %xmm4, %xmm6, %xmm4
vmovss 0x1e523c(%rip), %xmm5 # 0x1ef1000
vmulss %xmm5, %xmm1, %xmm1
vmulss %xmm5, %xmm3, %xmm3
vmulss %xmm5, %xmm4, %xmm4
vmulss %xmm5, %xmm2, %xmm2
vbroadcastss %xmm2, %xmm2
vmulps 0x200(%rsp), %xmm2, %xmm2
vbroadcastss %xmm4, %xmm4
vfmadd132ps 0x240(%rsp), %xmm2, %xmm4 # xmm4 = (xmm4 * mem) + xmm2
vbroadcastss %xmm3, %xmm2
vfmadd132ps 0x220(%rsp), %xmm4, %xmm2 # xmm2 = (xmm2 * mem) + xmm4
vbroadcastss %xmm1, %xmm1
vfmadd132ps 0x260(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2
vmovaps %xmm1, 0x2f0(%rsp)
vsubps %xmm1, %xmm0, %xmm0
vmovaps %xmm0, 0x1c0(%rsp)
vdpps $0x7f, %xmm0, %xmm0, %xmm0
vucomiss 0x1dfbf1(%rip), %xmm0 # 0x1eeba24
vmovaps %xmm10, 0x60(%rsp)
vmovaps %xmm0, 0x1a0(%rsp)
jb 0x1d0be4a
vsqrtss %xmm0, %xmm0, %xmm7
jmp 0x1d0be7a
vmovss %xmm11, 0x120(%rsp)
vmovss %xmm12, 0x1c(%rsp)
vzeroupper
callq 0x6aa20
vmovss 0x1c(%rsp), %xmm12
vmovss 0x120(%rsp), %xmm11
vmovaps 0x60(%rsp), %xmm10
vmovaps %xmm0, %xmm7
vmovaps 0x80(%rsp), %xmm3
vbroadcastss %xmm3, %xmm1
vbroadcastss 0x21502f(%rip), %xmm4 # 0x1f20ec0
vmovaps %xmm1, 0x2e0(%rsp)
vxorps %xmm4, %xmm1, %xmm0
vmulss %xmm0, %xmm3, %xmm0
vmulss 0x1e0ce2(%rip), %xmm12, %xmm1 # 0x1eecb8c
vmovaps %xmm10, %xmm2
vfnmsub213ss %xmm1, %xmm10, %xmm2 # xmm2 = -(xmm10 * xmm2) - xmm1
vfmadd231ss %xmm3, %xmm3, %xmm1 # xmm1 = (xmm3 * xmm3) + xmm1
vmovss 0x1e0cc0(%rip), %xmm3 # 0x1eecb80
vmulss %xmm3, %xmm0, %xmm0
vmulss %xmm3, %xmm2, %xmm2
vmulss %xmm3, %xmm1, %xmm1
vmulss %xmm3, %xmm11, %xmm3
vbroadcastss %xmm3, %xmm3
vmulps 0x200(%rsp), %xmm3, %xmm3
vbroadcastss %xmm1, %xmm1
vfmadd132ps 0x240(%rsp), %xmm3, %xmm1 # xmm1 = (xmm1 * mem) + xmm3
vbroadcastss %xmm2, %xmm2
vfmadd132ps 0x220(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1
vbroadcastss %xmm0, %xmm12
vfmadd132ps 0x260(%rsp), %xmm2, %xmm12 # xmm12 = (xmm12 * mem) + xmm2
vdpps $0x7f, %xmm12, %xmm12, %xmm0
vxorps %xmm1, %xmm1, %xmm1
vmovss %xmm0, %xmm1, %xmm2 # xmm2 = xmm0[0],xmm1[1,2,3]
vrsqrt14ss %xmm2, %xmm1, %xmm3
vmulss 0x1e07f1(%rip), %xmm3, %xmm6 # 0x1eec718
vmulss 0x1e07ed(%rip), %xmm0, %xmm8 # 0x1eec71c
vrcp14ss %xmm2, %xmm1, %xmm2
vxorps %xmm4, %xmm0, %xmm1
vmovaps %xmm2, 0x2c0(%rsp)
vfnmadd213ss 0x1e50ad(%rip), %xmm0, %xmm2 # xmm2 = -(xmm0 * xmm2) + mem
vmovss %xmm2, 0x58(%rsp)
vucomiss %xmm1, %xmm0
vmovaps %xmm12, 0x120(%rsp)
vmovss %xmm7, 0x1c(%rsp)
vmovaps %xmm0, 0x2d0(%rsp)
jb 0x1d0bf75
vsqrtss %xmm0, %xmm0, %xmm5
jmp 0x1d0bfc0
vmovaps %xmm3, 0xd0(%rsp)
vmovss %xmm6, 0x2c(%rsp)
vmovss %xmm8, 0xc0(%rsp)
vzeroupper
callq 0x6aa20
vmovss 0xc0(%rsp), %xmm8
vmovss 0x2c(%rsp), %xmm6
vmovaps 0xd0(%rsp), %xmm3
vmovss 0x1c(%rsp), %xmm7
vmovaps 0x120(%rsp), %xmm12
vmovaps %xmm0, %xmm5
vmovaps 0x1c0(%rsp), %xmm9
vmovaps 0x1a0(%rsp), %xmm18
vmulss %xmm3, %xmm8, %xmm0
vmulss %xmm3, %xmm3, %xmm1
vmulss %xmm1, %xmm0, %xmm0
vaddss %xmm0, %xmm6, %xmm0
vbroadcastss %xmm0, %xmm4
vmulps %xmm4, %xmm12, %xmm0
vmovaps %xmm0, 0xd0(%rsp)
vdpps $0x7f, %xmm0, %xmm9, %xmm14
vaddss 0x1e0713(%rip), %xmm7, %xmm13 # 0x1eec714
vmulps %xmm14, %xmm14, %xmm0
vsubps %xmm0, %xmm18, %xmm0
vxorps %xmm2, %xmm2, %xmm2
vmovss %xmm0, %xmm2, %xmm1 # xmm1 = xmm0[0],xmm2[1,2,3]
vrsqrt14ss %xmm1, %xmm2, %xmm15
vmulss 0x1e06f4(%rip), %xmm15, %xmm17 # 0x1eec718
vmulss 0x1e06ee(%rip), %xmm0, %xmm19 # 0x1eec71c
vucomiss 0x1df9ee(%rip), %xmm0 # 0x1eeba24
jb 0x1d0c041
vsqrtss %xmm0, %xmm0, %xmm0
jmp 0x1d0c0d7
vmovss %xmm13, 0x2c(%rsp)
vmovaps %xmm14, 0xc0(%rsp)
vmovss %xmm5, 0x4c(%rsp)
vmovaps %xmm15, 0x2b0(%rsp)
vmovss %xmm17, 0x48(%rsp)
vmovss %xmm19, 0x44(%rsp)
vmovaps %xmm4, 0x2a0(%rsp)
vzeroupper
callq 0x6aa20
vmovaps 0x2a0(%rsp), %xmm4
vmovss 0x44(%rsp), %xmm19
vmovss 0x48(%rsp), %xmm17
vmovaps 0x2b0(%rsp), %xmm15
vmovss 0x4c(%rsp), %xmm5
vmovaps 0xc0(%rsp), %xmm14
vmovss 0x2c(%rsp), %xmm13
vmovss 0x1c(%rsp), %xmm7
vmovaps 0x120(%rsp), %xmm12
vmovaps 0x1a0(%rsp), %xmm18
vmovaps 0x1c0(%rsp), %xmm9
vbroadcastss 0x214de3(%rip), %ymm28 # 0x1f20ec4
vmovaps 0x60(%rsp), %xmm10
vmovaps 0xa0(%rsp), %xmm8
vmovss 0x1e48e4(%rip), %xmm2 # 0x1ef09dc
vmovaps %xmm2, %xmm1
vmovaps 0x80(%rsp), %xmm3
vfmadd213ss %xmm10, %xmm3, %xmm1 # xmm1 = (xmm3 * xmm1) + xmm10
vfmadd231ss %xmm2, %xmm10, %xmm3 # xmm3 = (xmm10 * xmm2) + xmm3
vbroadcastss %xmm10, %xmm2
vmulps 0x200(%rsp), %xmm2, %xmm2
vbroadcastss %xmm3, %xmm3
vfmadd132ps 0x240(%rsp), %xmm2, %xmm3 # xmm3 = (xmm3 * mem) + xmm2
vbroadcastss %xmm1, %xmm1
vfmadd132ps 0x220(%rsp), %xmm3, %xmm1 # xmm1 = (xmm1 * mem) + xmm3
vmovaps 0x2e0(%rsp), %xmm2
vfmadd132ps 0x260(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1
vbroadcastss 0x2d0(%rsp), %xmm1
vmulps %xmm1, %xmm2, %xmm1
vdpps $0x7f, %xmm2, %xmm12, %xmm2
vbroadcastss %xmm2, %xmm2
vmulps %xmm2, %xmm12, %xmm2
vsubps %xmm2, %xmm1, %xmm2
vmovss 0x58(%rsp), %xmm1
vmulss 0x2c0(%rsp), %xmm1, %xmm3
vmulss 0x54(%rsp), %xmm8, %xmm1
vmovss 0x50(%rsp), %xmm6
vmaxss %xmm1, %xmm6, %xmm1
vbroadcastss %xmm3, %xmm3
vmulps %xmm3, %xmm2, %xmm2
vxorps 0x214d1f(%rip){1to4}, %xmm12, %xmm3 # 0x1f20ec0
vmulps %xmm2, %xmm4, %xmm2
vmovaps 0xd0(%rsp), %xmm11
vdpps $0x7f, %xmm11, %xmm3, %xmm4
vdivss %xmm5, %xmm6, %xmm5
vfmadd213ss %xmm1, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm7) + xmm1
vdpps $0x7f, %xmm2, %xmm9, %xmm2
vfmadd213ss %xmm7, %xmm5, %xmm13 # xmm13 = (xmm5 * xmm13) + xmm7
vaddss %xmm2, %xmm4, %xmm4
vmovaps 0x1f0(%rsp), %xmm7
vdpps $0x7f, %xmm11, %xmm7, %xmm5
vdpps $0x7f, %xmm3, %xmm9, %xmm3
vmulss %xmm15, %xmm19, %xmm2
vmulss %xmm15, %xmm15, %xmm6
vmulss %xmm6, %xmm2, %xmm2
vaddss %xmm2, %xmm17, %xmm6
vdpps $0x7f, %xmm7, %xmm9, %xmm7
vfnmadd231ss %xmm4, %xmm14, %xmm3 # xmm3 = -(xmm14 * xmm4) + xmm3
vfnmadd231ss %xmm5, %xmm14, %xmm7 # xmm7 = -(xmm14 * xmm5) + xmm7
vpermilps $0xff, 0x2f0(%rsp), %xmm2 # xmm2 = mem[3,3,3,3]
vsubss %xmm2, %xmm0, %xmm2
vshufps $0xff, %xmm12, %xmm12, %xmm0 # xmm0 = xmm12[3,3,3,3]
vfmsub213ss %xmm0, %xmm6, %xmm3 # xmm3 = (xmm6 * xmm3) - xmm0
vmulss %xmm6, %xmm7, %xmm6
vmulss %xmm3, %xmm5, %xmm7
vfmsub231ss %xmm6, %xmm4, %xmm7 # xmm7 = (xmm4 * xmm6) - xmm7
vdivss %xmm7, %xmm6, %xmm6
vdivss %xmm7, %xmm3, %xmm3
vdivss %xmm7, %xmm5, %xmm5
vdivss %xmm7, %xmm4, %xmm4
vmulss %xmm6, %xmm14, %xmm6
vmulss %xmm5, %xmm2, %xmm5
vsubss %xmm5, %xmm6, %xmm5
vmulss %xmm3, %xmm14, %xmm3
vmulss %xmm4, %xmm2, %xmm4
vsubss %xmm3, %xmm4, %xmm3
vsubss %xmm5, %xmm10, %xmm10
vsubss %xmm3, %xmm8, %xmm8
vbroadcastss 0x214c5e(%rip), %xmm4 # 0x1f20ec4
vandps %xmm4, %xmm14, %xmm3
vucomiss %xmm3, %xmm13
movb $0x1, %al
jbe 0x1d0c2c2
vaddss %xmm1, %xmm13, %xmm1
vmovaps 0x280(%rsp), %xmm3
vfmadd231ss 0x1e5c2c(%rip), %xmm3, %xmm1 # xmm1 = (xmm3 * mem) + xmm1
vandps %xmm4, %xmm2, %xmm2
vucomiss %xmm2, %xmm1
jbe 0x1d0c2c2
vaddss 0x290(%rsp), %xmm8, %xmm8
vucomiss 0x5c(%rsp), %xmm8
jb 0x1d0c2bd
movq 0x30(%rsp), %rax
movq 0x20(%rsp), %rcx
vmovss 0x80(%rcx,%rax,4), %xmm5
vucomiss %xmm8, %xmm5
jae 0x1d0c2d8
xorl %eax, %eax
xorl %r14d, %r14d
testb %al, %al
je 0x1d0c5ea
decq %r15
jne 0x1d0bd27
jmp 0x1d0c5e7
xorl %eax, %eax
vucomiss 0x1df742(%rip), %xmm10 # 0x1eeba24
jb 0x1d0c2bf
vmovss 0x1e0428(%rip), %xmm1 # 0x1eec714
vucomiss %xmm10, %xmm1
jb 0x1d0c2bf
vxorps %xmm2, %xmm2, %xmm2
vmovss %xmm18, %xmm2, %xmm1 # xmm1 = xmm18[0],xmm2[1,2,3]
vrsqrt14ss %xmm1, %xmm2, %xmm1
vmulss 0x1e040d(%rip), %xmm1, %xmm2 # 0x1eec718
vmulss 0x1e0407(%rip), %xmm18, %xmm3 # 0x1eec71c
movq 0x38(%rsp), %rdx
movq (%rdx), %rax
movq 0x1e8(%rax), %rax
movq 0xf8(%rsp), %rcx
movq (%rax,%rcx,8), %r14
movq 0x30(%rsp), %rax
movq 0x20(%rsp), %rcx
movl 0x90(%rcx,%rax,4), %eax
testl %eax, 0x34(%r14)
je 0x1d0c2bd
movq 0x10(%rdx), %rax
cmpq $0x0, 0x10(%rax)
jne 0x1d0c367
cmpq $0x0, 0x48(%r14)
jne 0x1d0c367
movb $0x1, %r14b
xorl %eax, %eax
jmp 0x1d0c2c2
vmulss %xmm1, %xmm3, %xmm3
vmulss %xmm1, %xmm1, %xmm1
vmulss %xmm1, %xmm3, %xmm1
vaddss %xmm1, %xmm2, %xmm1
vbroadcastss %xmm1, %xmm1
vmulps %xmm1, %xmm9, %xmm1
vfmadd213ps %xmm12, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm0) + xmm12
vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm12, %xmm12, %xmm3 # xmm3 = xmm12[1,2,0,3]
vmulps %xmm3, %xmm1, %xmm1
vfmsub231ps %xmm2, %xmm12, %xmm1 # xmm1 = (xmm12 * xmm2) - xmm1
vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3]
vshufps $0xd2, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,0,1,3]
vmulps %xmm1, %xmm0, %xmm0
vfmsub231ps %xmm3, %xmm2, %xmm0 # xmm0 = (xmm2 * xmm3) - xmm0
movq 0x38(%rsp), %rdx
movq 0x8(%rdx), %rax
vbroadcastss %xmm10, %xmm1
vshufps $0x55, %xmm0, %xmm0, %xmm2 # xmm2 = xmm0[1,1,1,1]
vshufps $0xaa, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[2,2,2,2]
vbroadcastss %xmm0, %xmm0
vmovaps %xmm2, 0x360(%rsp)
vmovaps %xmm3, 0x370(%rsp)
vmovaps %xmm0, 0x380(%rsp)
vmovaps %xmm1, 0x390(%rsp)
vxorps %xmm0, %xmm0, %xmm0
vmovaps %xmm0, 0x3a0(%rsp)
vmovaps 0x350(%rsp), %xmm0
vmovaps %xmm0, 0x3b0(%rsp)
vmovdqa 0x340(%rsp), %xmm0
vmovdqa %xmm0, 0x3c0(%rsp)
leaq 0x3d0(%rsp), %rcx
vpcmpeqd %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, (%rcx)
vbroadcastss (%rax), %xmm0
vmovaps %xmm0, 0x3d0(%rsp)
vbroadcastss 0x4(%rax), %xmm0
vmovaps %xmm0, 0x3e0(%rsp)
movq 0x30(%rsp), %rax
movq 0x20(%rsp), %rcx
vmovss %xmm8, 0x80(%rcx,%rax,4)
vmovaps 0x330(%rsp), %xmm0
vmovaps %xmm0, 0xe0(%rsp)
leaq 0xe0(%rsp), %rax
movq %rax, 0x170(%rsp)
movq 0x18(%r14), %rax
movq %rax, 0x178(%rsp)
movq 0x8(%rdx), %rax
movq %rax, 0x180(%rsp)
movq %rcx, 0x188(%rsp)
leaq 0x360(%rsp), %rax
movq %rax, 0x190(%rsp)
movl $0x4, 0x198(%rsp)
movq 0x48(%r14), %rax
testq %rax, %rax
vmovaps %xmm10, 0x60(%rsp)
vmovaps %xmm8, 0xa0(%rsp)
vmovss %xmm5, 0x80(%rsp)
je 0x1d0c519
leaq 0x170(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0x80(%rsp), %xmm5
vmovaps 0xa0(%rsp), %xmm8
vmovaps 0x60(%rsp), %xmm10
vbroadcastss 0x2149b5(%rip), %xmm4 # 0x1f20ec4
vbroadcastss 0x2149ab(%rip), %ymm28 # 0x1f20ec4
vmovdqa 0xe0(%rsp), %xmm0
vptestmd %xmm0, %xmm0, %k0
kortestb %k0, %k0
je 0x1d0c5c3
movq 0x38(%rsp), %rax
movq 0x10(%rax), %rcx
movq 0x10(%rcx), %rax
testq %rax, %rax
je 0x1d0c588
testb $0x2, (%rcx)
jne 0x1d0c550
testb $0x40, 0x3e(%r14)
je 0x1d0c588
leaq 0x170(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0x80(%rsp), %xmm5
vmovaps 0xa0(%rsp), %xmm8
vmovaps 0x60(%rsp), %xmm10
vbroadcastss 0x214946(%rip), %xmm4 # 0x1f20ec4
vbroadcastss 0x21493c(%rip), %ymm28 # 0x1f20ec4
vmovdqa 0xe0(%rsp), %xmm0
vptestmd %xmm0, %xmm0, %k1
movq 0x188(%rsp), %rax
vmovaps 0x80(%rax), %xmm0
vbroadcastss 0x1e05d3(%rip), %xmm0 {%k1} # 0x1eecb84
vmovaps %xmm0, 0x80(%rax)
kortestb %k1, %k1
setne %r14b
jmp 0x1d0c5c6
xorl %r14d, %r14d
testb %r14b, %r14b
jne 0x1d0c360
movq 0x30(%rsp), %rax
movq 0x20(%rsp), %rcx
vmovss %xmm5, 0x80(%rcx,%rax,4)
jmp 0x1d0c360
xorl %r14d, %r14d
andb $0x1, %r14b
orb %r14b, %r13b
movq 0x30(%rsp), %rdx
movq 0x20(%rsp), %rax
vmovaps 0x440(%rsp), %ymm0
vcmpleps 0x80(%rax,%rdx,4){1to8}, %ymm0, %k0
kmovd %k0, %eax
andb %al, %r12b
jne 0x1d0bc3d
jmp 0x1d0c63c
vbroadcastss 0x1e00ef(%rip), %ymm3 # 0x1eec714
vmovaps 0x150(%rsp), %xmm2
jmp 0x1d0d226
vbroadcastss 0x214888(%rip), %xmm4 # 0x1f20ec4
vmovaps 0x400(%rsp), %ymm3
vaddps 0x420(%rsp), %ymm3, %ymm0
movq 0x20(%rsp), %rax
vcmpleps 0x80(%rax,%rdx,4){1to8}, %ymm0, %k0
kmovd 0x114(%rsp), %k1
kmovd 0x10c(%rsp), %k2
korb %k2, %k1, %k1
kmovd %k0, %eax
movl 0x40(%rsp), %ecx
andb %al, %cl
vpbroadcastd 0x214855(%rip), %ymm0 # 0x1f20edc
vpblendmd 0x214847(%rip){1to8}, %ymm0, %ymm0 {%k1} # 0x1f20ed8
vmovdqa %ymm0, 0x420(%rsp)
vpcmpled 0x4a0(%rsp), %ymm0, %k0
kmovd %k0, %r12d
movl %ecx, 0x40(%rsp)
andb %cl, %r12b
je 0x1d0d113
vmovaps 0x540(%rsp), %ymm7
vmovaps 0x260(%rsp), %ymm1
vmovaps 0x220(%rsp), %ymm2
vminps %xmm2, %xmm1, %xmm0
vmaxps %xmm2, %xmm1, %xmm1
vmovaps 0x240(%rsp), %ymm5
vmovaps 0x200(%rsp), %ymm6
vminps %xmm6, %xmm5, %xmm2
vminps %xmm2, %xmm0, %xmm0
vmaxps %xmm6, %xmm5, %xmm2
vmaxps %xmm2, %xmm1, %xmm1
vandps %xmm4, %xmm0, %xmm0
vandps %xmm4, %xmm1, %xmm2
vmaxps %xmm2, %xmm0, %xmm0
vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3]
vmaxss %xmm0, %xmm2, %xmm2
vshufpd $0x1, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[1,0]
vmaxss %xmm2, %xmm0, %xmm0
vmulss 0x1e5796(%rip), %xmm0, %xmm0 # 0x1ef1eb4
vmovss %xmm0, 0x50(%rsp)
vshufps $0xff, %xmm1, %xmm1, %xmm0 # xmm0 = xmm1[3,3,3,3]
vmovaps %xmm0, 0x280(%rsp)
vmovaps %ymm7, 0x300(%rsp)
vaddps %ymm7, %ymm3, %ymm0
vmovaps %ymm0, 0x440(%rsp)
kmovd %r12d, %k1
vbroadcastss 0x1df2ca(%rip), %ymm0 # 0x1eeba20
vblendmps 0x300(%rsp), %ymm0, %ymm0 {%k1}
vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm0, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1]
vminps %ymm2, %ymm1, %ymm1
vcmpeqps %ymm1, %ymm0, %k0
kmovd %k0, %eax
andb %r12b, %al
movzbl %al, %eax
movzbl %r12b, %ecx
cmovnel %eax, %ecx
tzcntl %ecx, %ecx
movb $0x1, %r14b
shlb %cl, %r14b
shll $0x2, %ecx
vmovss 0x460(%rsp,%rcx), %xmm10
vmovss 0x560(%rsp,%rcx), %xmm8
vmovaps 0x1e0(%rsp), %xmm0
vucomiss 0x1df262(%rip), %xmm0 # 0x1eeba24
vmovss 0x11c(%rsp), %xmm0
jae 0x1d0c80e
vmovaps 0x1e0(%rsp), %xmm0
vmovaps %xmm10, 0x60(%rsp)
vmovaps %xmm8, 0xa0(%rsp)
kmovw %k1, 0x80(%rsp)
vzeroupper
callq 0x6aa20
kmovw 0x80(%rsp), %k1
vmovaps 0xa0(%rsp), %xmm8
vmovaps 0x60(%rsp), %xmm10
movzbl %r14b, %eax
kmovd %eax, %k0
kandnb %k1, %k0, %k0
kmovd %k0, %r12d
vmulss 0x1e568e(%rip), %xmm0, %xmm0 # 0x1ef1eb4
vmovss %xmm0, 0x54(%rsp)
movl $0x5, %r15d
vmovaps %xmm8, 0xa0(%rsp)
vbroadcastss %xmm8, %xmm0
vxorps %xmm1, %xmm1, %xmm1
vfmadd132ps 0x1f0(%rsp), %xmm1, %xmm0 # xmm0 = (xmm0 * mem) + xmm1
vmovss 0x1dfebe(%rip), %xmm1 # 0x1eec714
vsubss %xmm10, %xmm1, %xmm4
vmulss %xmm4, %xmm4, %xmm1
vmulss %xmm1, %xmm4, %xmm1
vmulss %xmm10, %xmm10, %xmm11
vmulss %xmm11, %xmm10, %xmm2
vmovss 0x1e0317(%rip), %xmm7 # 0x1eecb8c
vmovaps %xmm7, %xmm3
vfmadd213ss %xmm2, %xmm1, %xmm3 # xmm3 = (xmm1 * xmm3) + xmm2
vmulss %xmm4, %xmm10, %xmm12
vmovaps %xmm4, 0x80(%rsp)
vmulss %xmm4, %xmm12, %xmm4
vmulss %xmm12, %xmm10, %xmm5
vmovss 0x1e4758(%rip), %xmm8 # 0x1ef0ff4
vmulss %xmm5, %xmm8, %xmm6
vmovss 0x1e4754(%rip), %xmm9 # 0x1ef0ffc
vfmadd231ss %xmm9, %xmm4, %xmm6 # xmm6 = (xmm4 * xmm9) + xmm6
vaddss %xmm6, %xmm3, %xmm3
vmovaps %xmm7, %xmm6
vfmadd213ss %xmm1, %xmm2, %xmm6 # xmm6 = (xmm2 * xmm6) + xmm1
vmulss %xmm4, %xmm8, %xmm4
vfmadd231ss %xmm5, %xmm9, %xmm4 # xmm4 = (xmm9 * xmm5) + xmm4
vaddss %xmm4, %xmm6, %xmm4
vmovss 0x1e4731(%rip), %xmm5 # 0x1ef1000
vmulss %xmm5, %xmm1, %xmm1
vmulss %xmm5, %xmm3, %xmm3
vmulss %xmm5, %xmm4, %xmm4
vmulss %xmm5, %xmm2, %xmm2
vbroadcastss %xmm2, %xmm2
vmulps 0x200(%rsp), %xmm2, %xmm2
vbroadcastss %xmm4, %xmm4
vfmadd132ps 0x240(%rsp), %xmm2, %xmm4 # xmm4 = (xmm4 * mem) + xmm2
vbroadcastss %xmm3, %xmm2
vfmadd132ps 0x220(%rsp), %xmm4, %xmm2 # xmm2 = (xmm2 * mem) + xmm4
vbroadcastss %xmm1, %xmm1
vfmadd132ps 0x260(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2
vmovaps %xmm1, 0x2f0(%rsp)
vsubps %xmm1, %xmm0, %xmm0
vmovaps %xmm0, 0x1c0(%rsp)
vdpps $0x7f, %xmm0, %xmm0, %xmm0
vucomiss 0x1df0e6(%rip), %xmm0 # 0x1eeba24
vmovaps %xmm10, 0x60(%rsp)
vmovaps %xmm0, 0x1a0(%rsp)
jb 0x1d0c955
vsqrtss %xmm0, %xmm0, %xmm7
jmp 0x1d0c985
vmovss %xmm11, 0x120(%rsp)
vmovss %xmm12, 0x1c(%rsp)
vzeroupper
callq 0x6aa20
vmovss 0x1c(%rsp), %xmm12
vmovss 0x120(%rsp), %xmm11
vmovaps 0x60(%rsp), %xmm10
vmovaps %xmm0, %xmm7
vmovaps 0x80(%rsp), %xmm3
vbroadcastss %xmm3, %xmm1
vbroadcastss 0x214524(%rip), %xmm4 # 0x1f20ec0
vmovaps %xmm1, 0x2e0(%rsp)
vxorps %xmm4, %xmm1, %xmm0
vmulss %xmm0, %xmm3, %xmm0
vmulss 0x1e01d7(%rip), %xmm12, %xmm1 # 0x1eecb8c
vmovaps %xmm10, %xmm2
vfnmsub213ss %xmm1, %xmm10, %xmm2 # xmm2 = -(xmm10 * xmm2) - xmm1
vfmadd231ss %xmm3, %xmm3, %xmm1 # xmm1 = (xmm3 * xmm3) + xmm1
vmovss 0x1e01b5(%rip), %xmm3 # 0x1eecb80
vmulss %xmm3, %xmm0, %xmm0
vmulss %xmm3, %xmm2, %xmm2
vmulss %xmm3, %xmm1, %xmm1
vmulss %xmm3, %xmm11, %xmm3
vbroadcastss %xmm3, %xmm3
vmulps 0x200(%rsp), %xmm3, %xmm3
vbroadcastss %xmm1, %xmm1
vfmadd132ps 0x240(%rsp), %xmm3, %xmm1 # xmm1 = (xmm1 * mem) + xmm3
vbroadcastss %xmm2, %xmm2
vfmadd132ps 0x220(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1
vbroadcastss %xmm0, %xmm12
vfmadd132ps 0x260(%rsp), %xmm2, %xmm12 # xmm12 = (xmm12 * mem) + xmm2
vdpps $0x7f, %xmm12, %xmm12, %xmm0
vxorps %xmm1, %xmm1, %xmm1
vmovss %xmm0, %xmm1, %xmm2 # xmm2 = xmm0[0],xmm1[1,2,3]
vrsqrt14ss %xmm2, %xmm1, %xmm3
vmulss 0x1dfce6(%rip), %xmm3, %xmm6 # 0x1eec718
vmulss 0x1dfce2(%rip), %xmm0, %xmm8 # 0x1eec71c
vrcp14ss %xmm2, %xmm1, %xmm2
vxorps %xmm4, %xmm0, %xmm1
vmovaps %xmm2, 0x2c0(%rsp)
vfnmadd213ss 0x1e45a2(%rip), %xmm0, %xmm2 # xmm2 = -(xmm0 * xmm2) + mem
vmovss %xmm2, 0x58(%rsp)
vucomiss %xmm1, %xmm0
vmovaps %xmm12, 0x120(%rsp)
vmovss %xmm7, 0x1c(%rsp)
vmovaps %xmm0, 0x2d0(%rsp)
jb 0x1d0ca80
vsqrtss %xmm0, %xmm0, %xmm5
jmp 0x1d0cacb
vmovaps %xmm3, 0xd0(%rsp)
vmovss %xmm6, 0x2c(%rsp)
vmovss %xmm8, 0xc0(%rsp)
vzeroupper
callq 0x6aa20
vmovss 0xc0(%rsp), %xmm8
vmovss 0x2c(%rsp), %xmm6
vmovaps 0xd0(%rsp), %xmm3
vmovss 0x1c(%rsp), %xmm7
vmovaps 0x120(%rsp), %xmm12
vmovaps %xmm0, %xmm5
vmovaps 0x1c0(%rsp), %xmm9
vmovaps 0x1a0(%rsp), %xmm18
vmulss %xmm3, %xmm8, %xmm0
vmulss %xmm3, %xmm3, %xmm1
vmulss %xmm1, %xmm0, %xmm0
vaddss %xmm0, %xmm6, %xmm0
vbroadcastss %xmm0, %xmm4
vmulps %xmm4, %xmm12, %xmm0
vmovaps %xmm0, 0xd0(%rsp)
vdpps $0x7f, %xmm0, %xmm9, %xmm14
vaddss 0x1dfc08(%rip), %xmm7, %xmm13 # 0x1eec714
vmulps %xmm14, %xmm14, %xmm0
vsubps %xmm0, %xmm18, %xmm0
vxorps %xmm2, %xmm2, %xmm2
vmovss %xmm0, %xmm2, %xmm1 # xmm1 = xmm0[0],xmm2[1,2,3]
vrsqrt14ss %xmm1, %xmm2, %xmm15
vmulss 0x1dfbe9(%rip), %xmm15, %xmm17 # 0x1eec718
vmulss 0x1dfbe3(%rip), %xmm0, %xmm19 # 0x1eec71c
vucomiss 0x1deee3(%rip), %xmm0 # 0x1eeba24
jb 0x1d0cb4c
vsqrtss %xmm0, %xmm0, %xmm0
jmp 0x1d0cbe2
vmovss %xmm13, 0x2c(%rsp)
vmovaps %xmm14, 0xc0(%rsp)
vmovss %xmm5, 0x4c(%rsp)
vmovaps %xmm15, 0x2b0(%rsp)
vmovss %xmm17, 0x48(%rsp)
vmovss %xmm19, 0x44(%rsp)
vmovaps %xmm4, 0x2a0(%rsp)
vzeroupper
callq 0x6aa20
vmovaps 0x2a0(%rsp), %xmm4
vmovss 0x44(%rsp), %xmm19
vmovss 0x48(%rsp), %xmm17
vmovaps 0x2b0(%rsp), %xmm15
vmovss 0x4c(%rsp), %xmm5
vmovaps 0xc0(%rsp), %xmm14
vmovss 0x2c(%rsp), %xmm13
vmovss 0x1c(%rsp), %xmm7
vmovaps 0x120(%rsp), %xmm12
vmovaps 0x1a0(%rsp), %xmm18
vmovaps 0x1c0(%rsp), %xmm9
vbroadcastss 0x2142d8(%rip), %ymm28 # 0x1f20ec4
vmovaps 0x60(%rsp), %xmm10
vmovaps 0xa0(%rsp), %xmm8
vmovss 0x1e3dd9(%rip), %xmm2 # 0x1ef09dc
vmovaps %xmm2, %xmm1
vmovaps 0x80(%rsp), %xmm3
vfmadd213ss %xmm10, %xmm3, %xmm1 # xmm1 = (xmm3 * xmm1) + xmm10
vfmadd231ss %xmm2, %xmm10, %xmm3 # xmm3 = (xmm10 * xmm2) + xmm3
vbroadcastss %xmm10, %xmm2
vmulps 0x200(%rsp), %xmm2, %xmm2
vbroadcastss %xmm3, %xmm3
vfmadd132ps 0x240(%rsp), %xmm2, %xmm3 # xmm3 = (xmm3 * mem) + xmm2
vbroadcastss %xmm1, %xmm1
vfmadd132ps 0x220(%rsp), %xmm3, %xmm1 # xmm1 = (xmm1 * mem) + xmm3
vmovaps 0x2e0(%rsp), %xmm2
vfmadd132ps 0x260(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1
vbroadcastss 0x2d0(%rsp), %xmm1
vmulps %xmm1, %xmm2, %xmm1
vdpps $0x7f, %xmm2, %xmm12, %xmm2
vbroadcastss %xmm2, %xmm2
vmulps %xmm2, %xmm12, %xmm2
vsubps %xmm2, %xmm1, %xmm2
vmovss 0x58(%rsp), %xmm1
vmulss 0x2c0(%rsp), %xmm1, %xmm3
vmulss 0x54(%rsp), %xmm8, %xmm1
vmovss 0x50(%rsp), %xmm6
vmaxss %xmm1, %xmm6, %xmm1
vbroadcastss %xmm3, %xmm3
vmulps %xmm3, %xmm2, %xmm2
vxorps 0x214214(%rip){1to4}, %xmm12, %xmm3 # 0x1f20ec0
vmulps %xmm2, %xmm4, %xmm2
vmovaps 0xd0(%rsp), %xmm11
vdpps $0x7f, %xmm11, %xmm3, %xmm4
vdivss %xmm5, %xmm6, %xmm5
vfmadd213ss %xmm1, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm7) + xmm1
vdpps $0x7f, %xmm2, %xmm9, %xmm2
vfmadd213ss %xmm7, %xmm5, %xmm13 # xmm13 = (xmm5 * xmm13) + xmm7
vaddss %xmm2, %xmm4, %xmm4
vmovaps 0x1f0(%rsp), %xmm7
vdpps $0x7f, %xmm11, %xmm7, %xmm5
vdpps $0x7f, %xmm3, %xmm9, %xmm3
vmulss %xmm15, %xmm19, %xmm2
vmulss %xmm15, %xmm15, %xmm6
vmulss %xmm6, %xmm2, %xmm2
vaddss %xmm2, %xmm17, %xmm6
vdpps $0x7f, %xmm7, %xmm9, %xmm7
vfnmadd231ss %xmm4, %xmm14, %xmm3 # xmm3 = -(xmm14 * xmm4) + xmm3
vfnmadd231ss %xmm5, %xmm14, %xmm7 # xmm7 = -(xmm14 * xmm5) + xmm7
vpermilps $0xff, 0x2f0(%rsp), %xmm2 # xmm2 = mem[3,3,3,3]
vsubss %xmm2, %xmm0, %xmm2
vshufps $0xff, %xmm12, %xmm12, %xmm0 # xmm0 = xmm12[3,3,3,3]
vfmsub213ss %xmm0, %xmm6, %xmm3 # xmm3 = (xmm6 * xmm3) - xmm0
vmulss %xmm6, %xmm7, %xmm6
vmulss %xmm3, %xmm5, %xmm7
vfmsub231ss %xmm6, %xmm4, %xmm7 # xmm7 = (xmm4 * xmm6) - xmm7
vdivss %xmm7, %xmm6, %xmm6
vdivss %xmm7, %xmm3, %xmm3
vdivss %xmm7, %xmm5, %xmm5
vdivss %xmm7, %xmm4, %xmm4
vmulss %xmm6, %xmm14, %xmm6
vmulss %xmm5, %xmm2, %xmm5
vsubss %xmm5, %xmm6, %xmm5
vmulss %xmm3, %xmm14, %xmm3
vmulss %xmm4, %xmm2, %xmm4
vsubss %xmm3, %xmm4, %xmm3
vsubss %xmm5, %xmm10, %xmm10
vsubss %xmm3, %xmm8, %xmm8
vbroadcastss 0x214153(%rip), %xmm4 # 0x1f20ec4
vandps %xmm4, %xmm14, %xmm3
vucomiss %xmm3, %xmm13
movb $0x1, %al
jbe 0x1d0cdcd
vaddss %xmm1, %xmm13, %xmm1
vmovaps 0x280(%rsp), %xmm3
vfmadd231ss 0x1e5121(%rip), %xmm3, %xmm1 # xmm1 = (xmm3 * mem) + xmm1
vandps %xmm4, %xmm2, %xmm2
vucomiss %xmm2, %xmm1
jbe 0x1d0cdcd
vaddss 0x290(%rsp), %xmm8, %xmm8
vucomiss 0x5c(%rsp), %xmm8
jb 0x1d0cdc8
movq 0x30(%rsp), %rax
movq 0x20(%rsp), %rcx
vmovss 0x80(%rcx,%rax,4), %xmm4
vucomiss %xmm8, %xmm4
jae 0x1d0cde3
xorl %eax, %eax
xorl %r14d, %r14d
testb %al, %al
je 0x1d0d0e3
decq %r15
jne 0x1d0c832
jmp 0x1d0d0e0
xorl %eax, %eax
vucomiss 0x1dec37(%rip), %xmm10 # 0x1eeba24
jb 0x1d0cdca
vmovss 0x1df91d(%rip), %xmm1 # 0x1eec714
vucomiss %xmm10, %xmm1
jb 0x1d0cdca
vxorps %xmm2, %xmm2, %xmm2
vmovss %xmm18, %xmm2, %xmm1 # xmm1 = xmm18[0],xmm2[1,2,3]
vrsqrt14ss %xmm1, %xmm2, %xmm1
vmulss 0x1df902(%rip), %xmm1, %xmm2 # 0x1eec718
vmulss 0x1df8fc(%rip), %xmm18, %xmm3 # 0x1eec71c
movq 0x38(%rsp), %rdx
movq (%rdx), %rax
movq 0x1e8(%rax), %rax
movq 0xf8(%rsp), %rcx
movq (%rax,%rcx,8), %r14
movq 0x30(%rsp), %rax
movq 0x20(%rsp), %rcx
movl 0x90(%rcx,%rax,4), %eax
testl %eax, 0x34(%r14)
je 0x1d0cdc8
movq 0x10(%rdx), %rax
cmpq $0x0, 0x10(%rax)
jne 0x1d0ce72
cmpq $0x0, 0x48(%r14)
jne 0x1d0ce72
movb $0x1, %r14b
xorl %eax, %eax
jmp 0x1d0cdcd
vmulss %xmm1, %xmm3, %xmm3
vmulss %xmm1, %xmm1, %xmm1
vmulss %xmm1, %xmm3, %xmm1
vaddss %xmm1, %xmm2, %xmm1
vbroadcastss %xmm1, %xmm1
vmulps %xmm1, %xmm9, %xmm1
vfmadd213ps %xmm12, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm0) + xmm12
vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm12, %xmm12, %xmm3 # xmm3 = xmm12[1,2,0,3]
vmulps %xmm3, %xmm1, %xmm1
vfmsub231ps %xmm2, %xmm12, %xmm1 # xmm1 = (xmm12 * xmm2) - xmm1
vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3]
vshufps $0xd2, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,0,1,3]
vmulps %xmm1, %xmm0, %xmm0
vfmsub231ps %xmm3, %xmm2, %xmm0 # xmm0 = (xmm2 * xmm3) - xmm0
movq 0x38(%rsp), %rdx
movq 0x8(%rdx), %rax
vbroadcastss %xmm10, %xmm1
vshufps $0x55, %xmm0, %xmm0, %xmm2 # xmm2 = xmm0[1,1,1,1]
vshufps $0xaa, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[2,2,2,2]
vbroadcastss %xmm0, %xmm0
vmovaps %xmm2, 0x360(%rsp)
vmovaps %xmm3, 0x370(%rsp)
vmovaps %xmm0, 0x380(%rsp)
vmovaps %xmm1, 0x390(%rsp)
vxorps %xmm0, %xmm0, %xmm0
vmovaps %xmm0, 0x3a0(%rsp)
vmovaps 0x350(%rsp), %xmm0
vmovaps %xmm0, 0x3b0(%rsp)
vmovdqa 0x340(%rsp), %xmm0
vmovdqa %xmm0, 0x3c0(%rsp)
leaq 0x3d0(%rsp), %rcx
vpcmpeqd %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, (%rcx)
vbroadcastss (%rax), %xmm0
vmovaps %xmm0, 0x3d0(%rsp)
vbroadcastss 0x4(%rax), %xmm0
vmovaps %xmm0, 0x3e0(%rsp)
movq 0x30(%rsp), %rax
movq 0x20(%rsp), %rcx
vmovss %xmm8, 0x80(%rcx,%rax,4)
vmovaps 0x330(%rsp), %xmm0
vmovaps %xmm0, 0xe0(%rsp)
leaq 0xe0(%rsp), %rax
movq %rax, 0x170(%rsp)
movq 0x18(%r14), %rax
movq %rax, 0x178(%rsp)
movq 0x8(%rdx), %rax
movq %rax, 0x180(%rsp)
movq %rcx, 0x188(%rsp)
leaq 0x360(%rsp), %rax
movq %rax, 0x190(%rsp)
movl $0x4, 0x198(%rsp)
movq 0x48(%r14), %rax
testq %rax, %rax
vmovaps %xmm10, 0x60(%rsp)
vmovaps %xmm8, 0xa0(%rsp)
vmovss %xmm4, 0x80(%rsp)
je 0x1d0d01b
leaq 0x170(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0x80(%rsp), %xmm4
vmovaps 0xa0(%rsp), %xmm8
vmovaps 0x60(%rsp), %xmm10
vbroadcastss 0x213ea9(%rip), %ymm28 # 0x1f20ec4
vmovdqa 0xe0(%rsp), %xmm0
vptestmd %xmm0, %xmm0, %k0
kortestb %k0, %k0
je 0x1d0d0bc
movq 0x38(%rsp), %rax
movq 0x10(%rax), %rcx
movq 0x10(%rcx), %rax
testq %rax, %rax
je 0x1d0d081
testb $0x2, (%rcx)
jne 0x1d0d052
testb $0x40, 0x3e(%r14)
je 0x1d0d081
leaq 0x170(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0x80(%rsp), %xmm4
vmovaps 0xa0(%rsp), %xmm8
vmovaps 0x60(%rsp), %xmm10
vbroadcastss 0x213e43(%rip), %ymm28 # 0x1f20ec4
vmovdqa 0xe0(%rsp), %xmm0
vptestmd %xmm0, %xmm0, %k1
movq 0x188(%rsp), %rax
vmovaps 0x80(%rax), %xmm0
vbroadcastss 0x1dfada(%rip), %xmm0 {%k1} # 0x1eecb84
vmovaps %xmm0, 0x80(%rax)
kortestb %k1, %k1
setne %r14b
jmp 0x1d0d0bf
xorl %r14d, %r14d
testb %r14b, %r14b
jne 0x1d0ce6b
movq 0x30(%rsp), %rax
movq 0x20(%rsp), %rcx
vmovss %xmm4, 0x80(%rcx,%rax,4)
jmp 0x1d0ce6b
xorl %r14d, %r14d
andb $0x1, %r14b
orb %r14b, %r13b
movq 0x30(%rsp), %rdx
movq 0x20(%rsp), %rax
vmovaps 0x440(%rsp), %ymm0
vcmpleps 0x80(%rax,%rdx,4){1to8}, %ymm0, %k0
kmovd %k0, %eax
andb %al, %r12b
jne 0x1d0c748
vmovdqa 0x4a0(%rsp), %ymm1
vpcmpltd 0x420(%rsp), %ymm1, %k1
vmovaps 0x800(%rsp), %ymm0
vpcmpltd 0x580(%rsp), %ymm1, %k2
vmovaps 0x400(%rsp), %ymm3
vaddps %ymm0, %ymm3, %ymm1
movq 0x20(%rsp), %rax
vbroadcastss 0x80(%rax,%rdx,4), %ymm2
vcmpleps %ymm2, %ymm1, %k0 {%k2}
kmovd %k0, %eax
movl 0x110(%rsp), %ecx
andb %al, %cl
vmovaps 0x540(%rsp), %ymm1
vaddps %ymm1, %ymm3, %ymm3
vcmpleps %ymm2, %ymm3, %k0 {%k1}
kmovd %k0, %eax
movl 0x40(%rsp), %esi
andb %al, %sil
orb %cl, %sil
je 0x1d0d1fa
movl %ebx, %eax
leaq (%rax,%rax,2), %rax
shlq $0x5, %rax
movb %sil, 0x840(%rsp,%rax)
kmovd %ecx, %k1
vmovaps %ymm0, %ymm1 {%k1}
vmovaps %ymm1, 0x860(%rsp,%rax)
vmovaps 0x150(%rsp), %xmm2
vmovlps %xmm2, 0x880(%rsp,%rax)
movq 0x100(%rsp), %rcx
incl %ecx
movl %ecx, 0x888(%rsp,%rax)
incl %ebx
movq 0x160(%rsp), %r8
movq 0x38(%rsp), %r14
vbroadcastss 0x1df529(%rip), %ymm3 # 0x1eec714
movb 0x1b(%rsp), %r15b
movq 0x168(%rsp), %r12
jmp 0x1d0d226
movq 0x160(%rsp), %r8
movq 0x38(%rsp), %r14
vbroadcastss 0x1df504(%rip), %ymm3 # 0x1eec714
movb 0x1b(%rsp), %r15b
movq 0x168(%rsp), %r12
vmovaps 0x150(%rsp), %xmm2
testl %ebx, %ebx
je 0x1d0d3fb
leal -0x1(%rbx), %r9d
leaq (%r9,%r9,2), %rcx
shlq $0x5, %rcx
vmovaps 0x860(%rsp,%rcx), %ymm0
movzbl 0x840(%rsp,%rcx), %esi
vaddps 0x400(%rsp), %ymm0, %ymm1
movq 0x20(%rsp), %rax
vcmpleps 0x80(%rax,%rdx,4){1to8}, %ymm1, %k0
kmovb %k0, %eax
andl %esi, %eax
je 0x1d0d323
kmovd %eax, %k1
vbroadcastss 0x1de7a5(%rip), %ymm1 # 0x1eeba20
vblendmps %ymm0, %ymm1, %ymm0 {%k1}
vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm0, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1]
vminps %ymm2, %ymm1, %ymm1
vcmpeqps %ymm1, %ymm0, %k0
kmovd %k0, %esi
andb %al, %sil
je 0x1d0d2b3
movzbl %sil, %edi
jmp 0x1d0d2b6
movzbl %al, %edi
leaq (%rsp,%rcx), %rsi
addq $0x840, %rsi # imm = 0x840
vmovss 0x44(%rsi), %xmm0
tzcntl %edi, %ecx
movb $0x1, %dil
shlb %cl, %dil
movl 0x48(%rsi), %r10d
movq %r10, 0x100(%rsp)
movzbl %dil, %edi
kmovd %edi, %k0
kmovd %eax, %k1
kandnb %k1, %k0, %k0
kmovb %k0, (%rsi)
kortestb %k0, %k0
je 0x1d0d2f9
movl %ebx, %r9d
vbroadcastss 0x40(%rsi), %ymm1
vsubss %xmm1, %xmm0, %xmm0
vbroadcastss %xmm0, %ymm0
vfmadd132ps 0x213c0f(%rip), %ymm1, %ymm0 # ymm0 = (ymm0 * mem) + ymm1
vmovaps %ymm0, 0x360(%rsp)
vmovsd 0x360(%rsp,%rcx,4), %xmm2
movl %r9d, %ebx
testb %al, %al
je 0x1d0d226
vmovaps 0x780(%rsp), %ymm16
vmovaps 0x760(%rsp), %ymm17
vmovaps 0x740(%rsp), %ymm18
vmovaps 0x720(%rsp), %ymm19
vmovaps 0x700(%rsp), %ymm20
vmovaps 0x6e0(%rsp), %ymm22
vmovaps 0x6c0(%rsp), %ymm23
vmovaps 0x6a0(%rsp), %ymm24
vmovaps 0x680(%rsp), %ymm25
vmovaps 0x660(%rsp), %ymm27
vmovaps 0x640(%rsp), %ymm29
vmovaps 0x620(%rsp), %ymm31
vmovaps 0x600(%rsp), %ymm21
vmovaps 0x5e0(%rsp), %ymm30
vmovaps 0x5c0(%rsp), %ymm6
jmp 0x1d0b0af
vcmpleps 0x213b49(%rip), %ymm4, %k2 # 0x1f20f00
vbroadcastss 0x1df7c4(%rip), %ymm4 # 0x1eecb84
vbroadcastss 0x1de656(%rip), %ymm16 # 0x1eeba20
vblendmps %ymm4, %ymm16, %ymm3 {%k2}
vmovaps %ymm3, %ymm30 {%k1}
vblendmps %ymm16, %ymm4, %ymm3 {%k2}
kmovd %k2, %ecx
vmovaps %ymm3, %ymm31 {%k1}
knotb %k1, %k0
kmovd %k0, %esi
orb %cl, %sil
andb %al, %sil
movl %esi, %eax
jmp 0x1d0b61b
testb $0x1, %r13b
jne 0x1d0d429
movq 0x20(%rsp), %rax
vmovaps 0x5a0(%rsp), %ymm0
vcmpleps 0x80(%rax,%rdx,4){1to8}, %ymm0, %k0
kmovb %k0, %eax
andl %eax, %r12d
setne %r15b
jne 0x1d0ad2c
andb $0x1, %r15b
movl %r15d, %eax
leaq -0x28(%rbp), %rsp
popq %rbx
popq %r12
popq %r13
popq %r14
popq %r15
popq %rbp
vzeroupper
retq
|
/embree[P]embree/kernels/geometry/curveNi_intersector.h
|
void embree::avx512::CurveNiIntersectorK<8, 8>::intersect_t<embree::avx512::SweepCurve1IntersectorK<embree::BSplineCurveT, 8>, embree::avx512::Intersect1KEpilog1<8, true>>(embree::avx512::CurvePrecalculationsK<8>&, embree::RayHitK<8>&, unsigned long, embree::RayQueryContext*, embree::CurveNi<8> const&)
|
static __forceinline void intersect_t(Precalculations& pre, RayHitK<K>& ray, const size_t k, RayQueryContext* context, const Primitive& prim)
{
vfloat<M> tNear;
vbool<M> valid = intersect(ray,k,prim,tNear);
const size_t N = prim.N;
size_t mask = movemask(valid);
while (mask)
{
const size_t i = bscf(mask);
STAT3(normal.trav_prims,1,1,1);
const unsigned int geomID = prim.geomID(N);
const unsigned int primID = prim.primID(N)[i];
const CurveGeometry* geom = context->scene->get<CurveGeometry>(geomID);
Vec3ff a0,a1,a2,a3; geom->gather(a0,a1,a2,a3,geom->curve(primID));
size_t mask1 = mask;
const size_t i1 = bscf(mask1);
if (mask) {
const unsigned int primID1 = prim.primID(N)[i1];
geom->prefetchL1_vertices(geom->curve(primID1));
if (mask1) {
const size_t i2 = bsf(mask1);
const unsigned int primID2 = prim.primID(N)[i2];
geom->prefetchL2_vertices(geom->curve(primID2));
}
}
Intersector().intersect(pre,ray,k,context,geom,primID,a0,a1,a2,a3,Epilog(ray,k,context,geomID,primID));
mask &= movemask(tNear <= vfloat<M>(ray.tfar[k]));
}
}
|
pushq %rbp
movq %rsp, %rbp
pushq %r15
pushq %r14
pushq %r13
pushq %r12
pushq %rbx
andq $-0x20, %rsp
subq $0xa60, %rsp # imm = 0xA60
movq %rcx, %r15
movq %rsi, %r12
movzbl 0x1(%r8), %ecx
leaq (%rcx,%rcx,4), %rax
leaq (%rax,%rax,4), %rsi
vbroadcastss 0x12(%r8,%rsi), %xmm0
vmovss (%r12,%rdx,4), %xmm1
vmovss 0x80(%r12,%rdx,4), %xmm2
vinsertps $0x10, 0x20(%r12,%rdx,4), %xmm1, %xmm1 # xmm1 = xmm1[0],mem[0],xmm1[2,3]
vinsertps $0x20, 0x40(%r12,%rdx,4), %xmm1, %xmm1 # xmm1 = xmm1[0,1],mem[0],xmm1[3]
vinsertps $0x10, 0xa0(%r12,%rdx,4), %xmm2, %xmm2 # xmm2 = xmm2[0],mem[0],xmm2[2,3]
vinsertps $0x20, 0xc0(%r12,%rdx,4), %xmm2, %xmm2 # xmm2 = xmm2[0,1],mem[0],xmm2[3]
vsubps 0x6(%r8,%rsi), %xmm1, %xmm1
vmulps %xmm1, %xmm0, %xmm3
vmulps %xmm2, %xmm0, %xmm0
vpmovsxbd 0x6(%r8,%rcx,4), %ymm1
vpmovsxbd 0x6(%r8,%rax), %ymm2
vcvtdq2ps %ymm1, %ymm5
vcvtdq2ps %ymm2, %ymm6
leaq (%rcx,%rcx,2), %r9
vpmovsxbd 0x6(%r8,%r9,2), %ymm1
vcvtdq2ps %ymm1, %ymm4
leaq (%rcx,%rax,2), %rsi
vpmovsxbd 0x6(%r8,%rsi), %ymm1
leal (,%r9,4), %esi
vpmovsxbd 0x6(%r8,%rsi), %ymm2
vcvtdq2ps %ymm1, %ymm7
vcvtdq2ps %ymm2, %ymm8
addq %rcx, %rsi
vpmovsxbd 0x6(%r8,%rsi), %ymm1
vcvtdq2ps %ymm1, %ymm9
leaq (%rcx,%rcx,8), %rsi
leal (%rsi,%rsi), %edi
vpmovsxbd 0x6(%r8,%rdi), %ymm1
vcvtdq2ps %ymm1, %ymm10
addq %rcx, %rdi
vpmovsxbd 0x6(%r8,%rdi), %ymm1
vcvtdq2ps %ymm1, %ymm11
shll $0x2, %eax
vpmovsxbd 0x6(%r8,%rax), %ymm1
vcvtdq2ps %ymm1, %ymm12
vbroadcastss %xmm0, %ymm13
vbroadcastss 0x2051ba(%rip), %ymm15 # 0x1f12704
vbroadcastss 0x213988(%rip), %ymm16 # 0x1f20edc
vpermps %ymm0, %ymm15, %ymm14
vpermps %ymm0, %ymm16, %ymm0
vmulps %ymm4, %ymm0, %ymm2
vmulps %ymm0, %ymm9, %ymm1
vmulps %ymm0, %ymm12, %ymm0
vfmadd231ps %ymm6, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm6) + ymm2
vfmadd231ps %ymm8, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm8) + ymm1
vfmadd231ps %ymm14, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm14) + ymm0
vfmadd231ps %ymm5, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm5) + ymm2
vfmadd231ps %ymm7, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm7) + ymm1
vfmadd231ps %ymm13, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm13) + ymm0
vbroadcastss %xmm3, %ymm13
vpermps %ymm3, %ymm15, %ymm14
vpermps %ymm3, %ymm16, %ymm3
vmulps %ymm4, %ymm3, %ymm15
vmulps %ymm3, %ymm9, %ymm4
vmulps %ymm3, %ymm12, %ymm3
vfmadd231ps %ymm6, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm6) + ymm15
vfmadd231ps %ymm8, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm8) + ymm4
vfmadd231ps %ymm11, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm11) + ymm3
vfmadd231ps %ymm5, %ymm13, %ymm15 # ymm15 = (ymm13 * ymm5) + ymm15
vfmadd231ps %ymm7, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm7) + ymm4
vbroadcastss 0x2138fd(%rip), %ymm6 # 0x1f20ec4
vfmadd231ps %ymm10, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm10) + ymm3
vandps %ymm6, %ymm2, %ymm5
vbroadcastss 0x1e3a0f(%rip), %ymm7 # 0x1ef0fe8
vcmpltps %ymm7, %ymm5, %k1
vmovaps %ymm7, %ymm2 {%k1}
vandps %ymm6, %ymm1, %ymm5
vcmpltps %ymm7, %ymm5, %k1
vmovaps %ymm7, %ymm1 {%k1}
vandps %ymm6, %ymm0, %ymm5
vcmpltps %ymm7, %ymm5, %k1
vmovaps %ymm7, %ymm0 {%k1}
vrcp14ps %ymm2, %ymm5
vbroadcastss 0x1df0fd(%rip), %ymm6 # 0x1eec714
vfnmadd213ps %ymm6, %ymm5, %ymm2 # ymm2 = -(ymm5 * ymm2) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm2 # ymm2 = (ymm2 * ymm5) + ymm5
vrcp14ps %ymm1, %ymm5
vfnmadd213ps %ymm6, %ymm5, %ymm1 # ymm1 = -(ymm5 * ymm1) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm1 # ymm1 = (ymm1 * ymm5) + ymm5
vrcp14ps %ymm0, %ymm5
vfnmadd213ps %ymm6, %ymm5, %ymm0 # ymm0 = -(ymm5 * ymm0) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm0 # ymm0 = (ymm0 * ymm5) + ymm5
leaq (,%rcx,8), %rdi
subq %rcx, %rdi
vpmovsxwd 0x6(%r8,%rdi), %ymm5
vcvtdq2ps %ymm5, %ymm5
vsubps %ymm15, %ymm5, %ymm5
vmulps %ymm5, %ymm2, %ymm5
vpmovsxwd 0x6(%r8,%rsi), %ymm6
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm15, %ymm6, %ymm6
leaq (%rcx,%rcx), %rsi
addq %rcx, %rax
shlq $0x3, %r9
subq %rcx, %r9
vpbroadcastd %ecx, %ymm7
shll $0x4, %ecx
vpmovsxwd 0x6(%r8,%rcx), %ymm8
vmulps %ymm6, %ymm2, %ymm2
subq %rsi, %rcx
vpmovsxwd 0x6(%r8,%rcx), %ymm6
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm4, %ymm6, %ymm6
vmulps %ymm6, %ymm1, %ymm6
vcvtdq2ps %ymm8, %ymm8
vsubps %ymm4, %ymm8, %ymm4
vmulps %ymm4, %ymm1, %ymm1
vpmovsxwd 0x6(%r8,%rax), %ymm4
vcvtdq2ps %ymm4, %ymm4
vsubps %ymm3, %ymm4, %ymm4
vmulps %ymm0, %ymm4, %ymm4
vpmovsxwd 0x6(%r8,%r9), %ymm8
vcvtdq2ps %ymm8, %ymm8
vsubps %ymm3, %ymm8, %ymm3
vmulps %ymm3, %ymm0, %ymm0
vpminsd %ymm2, %ymm5, %ymm3
vpminsd %ymm1, %ymm6, %ymm8
vmaxps %ymm8, %ymm3, %ymm3
vpminsd %ymm0, %ymm4, %ymm8
vmaxps 0x60(%r12,%rdx,4){1to8}, %ymm8, %ymm8
vmaxps %ymm8, %ymm3, %ymm3
vmulps 0x212809(%rip){1to8}, %ymm3, %ymm3 # 0x1f1ff10
vpmaxsd %ymm2, %ymm5, %ymm2
vpmaxsd %ymm1, %ymm6, %ymm1
vminps %ymm1, %ymm2, %ymm1
vpmaxsd %ymm0, %ymm4, %ymm0
movq %rdx, 0x18(%rsp)
vminps 0x100(%r12,%rdx,4){1to8}, %ymm0, %ymm0
vminps %ymm0, %ymm1, %ymm0
vmulps 0x2127df(%rip){1to8}, %ymm0, %ymm0 # 0x1f1ff14
vpcmpgtd 0x24d1e1(%rip), %ymm7, %k0 # 0x1f5a920
vmovaps %ymm3, 0x680(%rsp)
vcmpleps %ymm0, %ymm3, %k1
ktestb %k0, %k1
je 0x1d100b3
kandb %k0, %k1, %k0
kmovd %k0, %eax
movzbl %al, %r10d
leaq 0x500(%rsp), %rax
addq $0xe0, %rax
movq %rax, 0x178(%rsp)
movl $0x1, %eax
movq 0x18(%rsp), %rcx
shlxl %ecx, %eax, %eax
kmovd %eax, %k0
vpmovm2d %k0, %ymm0
vmovdqa %ymm0, 0x440(%rsp)
movq %r15, 0x28(%rsp)
movq %r8, 0x180(%rsp)
tzcntq %r10, %rax
movl 0x2(%r8), %ecx
movl 0x6(%r8,%rax,4), %edi
movq (%r15), %rax
movq 0x1e8(%rax), %rax
movq %rcx, 0x50(%rsp)
movq (%rax,%rcx,8), %rsi
movq 0x58(%rsi), %rax
movq 0x68(%rsi), %rcx
movq %rcx, %rdx
movq %rdi, 0xf0(%rsp)
imulq %rdi, %rdx
movl (%rax,%rdx), %edi
movq 0xa0(%rsi), %rdx
movq %rdx, %r9
imulq %rdi, %r9
movq 0x90(%rsi), %rsi
vmovaps (%rsi,%r9), %xmm1
leaq 0x1(%rdi), %r9
imulq %rdx, %r9
vmovaps (%rsi,%r9), %xmm0
leaq 0x2(%rdi), %r9
imulq %rdx, %r9
vmovaps (%rsi,%r9), %xmm2
blsrq %r10, %r10
addq $0x3, %rdi
imulq %rdx, %rdi
vmovaps (%rsi,%rdi), %xmm3
movq %r10, %rdi
subq $0x1, %rdi
jb 0x1d0d87e
andq %r10, %rdi
tzcntq %r10, %r9
movl 0x6(%r8,%r9,4), %r9d
imulq %rcx, %r9
movl (%rax,%r9), %r9d
imulq %rdx, %r9
prefetcht0 (%rsi,%r9)
prefetcht0 0x40(%rsi,%r9)
testq %rdi, %rdi
je 0x1d0d87e
tzcntq %rdi, %rdi
movl 0x6(%r8,%rdi,4), %edi
imulq %rdi, %rcx
movl (%rax,%rcx), %eax
imulq %rax, %rdx
prefetcht1 (%rsi,%rdx)
prefetcht1 0x40(%rsi,%rdx)
movq 0x18(%rsp), %rax
vmovss (%r12,%rax,4), %xmm4
vinsertps $0x1c, 0x20(%r12,%rax,4), %xmm4, %xmm4 # xmm4 = xmm4[0],mem[0],zero,zero
vinsertps $0x28, 0x40(%r12,%rax,4), %xmm4, %xmm4 # xmm4 = xmm4[0,1],mem[0],zero
vbroadcastss 0x80(%r12,%rax,4), %ymm30
vbroadcastss 0xa0(%r12,%rax,4), %ymm31
vunpcklps %xmm31, %xmm30, %xmm5 # xmm5 = xmm30[0],xmm31[0],xmm30[1],xmm31[1]
vbroadcastss 0xc0(%r12,%rax,4), %ymm21
vinsertps $0x28, %xmm21, %xmm5, %xmm9 # xmm9 = xmm5[0,1],xmm21[0],zero
vaddps %xmm0, %xmm1, %xmm5
vaddps %xmm2, %xmm5, %xmm5
vaddps %xmm3, %xmm5, %xmm5
vmulps 0x20fa28(%rip){1to4}, %xmm5, %xmm5 # 0x1f1d2fc
vsubps %xmm4, %xmm5, %xmm5
vdpps $0x7f, %xmm9, %xmm5, %xmm5
vmovss 0x60(%r12,%rax,4), %xmm10
vdpps $0x7f, %xmm9, %xmm9, %xmm11
vxorps %xmm8, %xmm8, %xmm8
vmovss %xmm11, %xmm8, %xmm6
vrcp14ss %xmm6, %xmm8, %xmm6
vmovaps %xmm6, %xmm7
vfnmadd213ss 0x1e36f1(%rip), %xmm11, %xmm7 # xmm7 = -(xmm11 * xmm7) + mem
vmulss %xmm7, %xmm6, %xmm6
vmulss %xmm6, %xmm5, %xmm5
vbroadcastss %xmm5, %ymm6
vmovaps %xmm9, 0x230(%rsp)
vmovaps %ymm6, 0x380(%rsp)
vfmadd231ps %xmm6, %xmm9, %xmm4 # xmm4 = (xmm9 * xmm6) + xmm4
vblendps $0x8, %xmm8, %xmm4, %xmm4 # xmm4 = xmm4[0,1,2],xmm8[3]
vsubps %xmm4, %xmm1, %xmm6
vsubps %xmm4, %xmm2, %xmm7
vsubps %xmm4, %xmm0, %xmm8
vsubps %xmm4, %xmm3, %xmm3
vbroadcastss %xmm6, %ymm0
vmovaps %ymm0, 0x8c0(%rsp)
vbroadcastss 0x204dac(%rip), %ymm0 # 0x1f12704
vpermps %ymm6, %ymm0, %ymm1
vmovaps %ymm1, 0x8a0(%rsp)
vbroadcastss 0x21356d(%rip), %ymm1 # 0x1f20edc
vpermps %ymm6, %ymm1, %ymm2
vmovaps %ymm2, 0x880(%rsp)
vbroadcastss 0x213552(%rip), %ymm2 # 0x1f20ed8
vmovaps %ymm6, 0x2a0(%rsp)
vpermps %ymm6, %ymm2, %ymm4
vmovaps %ymm4, 0x860(%rsp)
vbroadcastss %xmm8, %ymm4
vmovaps %ymm4, 0x840(%rsp)
vpermps %ymm8, %ymm0, %ymm4
vmovaps %ymm4, 0x820(%rsp)
vpermps %ymm8, %ymm1, %ymm4
vmovaps %ymm4, 0x800(%rsp)
vmovaps %ymm8, 0x260(%rsp)
vpermps %ymm8, %ymm2, %ymm4
vmovaps %ymm4, 0x7e0(%rsp)
vbroadcastss %xmm7, %ymm4
vmovaps %ymm4, 0x7c0(%rsp)
vpermps %ymm7, %ymm0, %ymm4
vmovaps %ymm4, 0x7a0(%rsp)
vpermps %ymm7, %ymm1, %ymm4
vmovaps %ymm4, 0x780(%rsp)
vmovaps %ymm7, 0x280(%rsp)
vpermps %ymm7, %ymm2, %ymm4
vmovaps %ymm4, 0x760(%rsp)
vbroadcastss %xmm3, %ymm4
vmovaps %ymm4, 0x740(%rsp)
vpermps %ymm3, %ymm0, %ymm0
vmovaps %ymm0, 0x720(%rsp)
vpermps %ymm3, %ymm1, %ymm0
vmovaps %ymm0, 0x700(%rsp)
vmovaps %ymm3, 0x240(%rsp)
vpermps %ymm3, %ymm2, %ymm0
vmovaps %ymm0, 0x6e0(%rsp)
vmulss %xmm21, %xmm21, %xmm0
vfmadd231ps %ymm31, %ymm31, %ymm0 # ymm0 = (ymm31 * ymm31) + ymm0
vfmadd231ps %ymm30, %ymm30, %ymm0 # ymm0 = (ymm30 * ymm30) + ymm0
vbroadcastss %xmm0, %ymm0
vmovaps %ymm0, 0x6c0(%rsp)
vandps 0x21343a(%rip){1to8}, %ymm0, %ymm0 # 0x1f20ec4
vmovaps %ymm0, 0x4c0(%rsp)
vmovss %xmm10, 0x5c(%rsp)
vmovaps %xmm5, 0x300(%rsp)
vsubss %xmm5, %xmm10, %xmm0
vbroadcastss %xmm0, %ymm0
vmovaps %ymm0, 0x6a0(%rsp)
movq 0x50(%rsp), %rax
vpbroadcastd %eax, %ymm0
vmovdqa %ymm0, 0x480(%rsp)
movl $0x1, %r11d
xorl %r9d, %r9d
movq 0xf0(%rsp), %rax
vpbroadcastd %eax, %ymm0
vmovdqa %ymm0, 0x460(%rsp)
vsqrtss %xmm11, %xmm11, %xmm0
vmovss %xmm0, 0x10c(%rsp)
vmovaps %xmm11, 0x220(%rsp)
vsqrtss %xmm11, %xmm11, %xmm0
vmovss %xmm0, 0x108(%rsp)
vmovsd 0x1debdb(%rip), %xmm2 # 0x1eec6f0
vbroadcastss 0x1debf5(%rip), %ymm16 # 0x1eec714
vmovaps %ymm30, 0x4e0(%rsp)
vmovaps %ymm31, 0x1c0(%rsp)
vmovaps %ymm21, 0x1a0(%rsp)
vmovshdup %xmm2, %xmm0 # xmm0 = xmm2[1,1,3,3]
vsubss %xmm2, %xmm0, %xmm0
vmulss 0x213389(%rip), %xmm0, %xmm1 # 0x1f20ed0
vmovaps %xmm1, 0x80(%rsp)
vmovaps %xmm2, 0x160(%rsp)
vbroadcastss %xmm2, %ymm4
vbroadcastss %xmm0, %ymm0
vmovaps %ymm4, 0x60(%rsp)
vmovaps %ymm0, 0x200(%rsp)
vfmadd231ps 0x2133a5(%rip), %ymm0, %ymm4 # ymm4 = (ymm0 * mem) + ymm4
vsubps %ymm4, %ymm16, %ymm7
vmulps %ymm7, %ymm7, %ymm8
vmulps %ymm7, %ymm8, %ymm0
vbroadcastss 0x1deff9(%rip), %ymm30 # 0x1eecb8c
vmulps %ymm30, %ymm0, %ymm1
vmulps %ymm4, %ymm4, %ymm9
vmulps %ymm4, %ymm9, %ymm2
vaddps %ymm1, %ymm2, %ymm1
vmulps %ymm7, %ymm4, %ymm10
vmulps %ymm7, %ymm10, %ymm5
vbroadcastss 0x1e3446(%rip), %ymm14 # 0x1ef0ffc
vmulps %ymm5, %ymm14, %ymm11
vmulps %ymm4, %ymm10, %ymm12
vbroadcastss 0x1e342d(%rip), %ymm15 # 0x1ef0ff4
vmulps %ymm15, %ymm12, %ymm13
vaddps %ymm13, %ymm11, %ymm11
vaddps %ymm1, %ymm11, %ymm1
vmulps %ymm30, %ymm2, %ymm11
vaddps %ymm0, %ymm11, %ymm11
vmulps %ymm14, %ymm12, %ymm12
vmulps %ymm5, %ymm15, %ymm5
vaddps %ymm5, %ymm12, %ymm5
vaddps %ymm5, %ymm11, %ymm5
vbroadcastss 0x1e3407(%rip), %ymm14 # 0x1ef1000
vmulps %ymm0, %ymm14, %ymm11
vmulps %ymm1, %ymm14, %ymm12
vmulps %ymm5, %ymm14, %ymm13
vmulps %ymm2, %ymm14, %ymm5
vmovaps 0x740(%rsp), %ymm25
vmulps %ymm5, %ymm25, %ymm0
vmovaps 0x720(%rsp), %ymm27
vmulps %ymm5, %ymm27, %ymm2
vmovaps 0x700(%rsp), %ymm28
vmulps %ymm5, %ymm28, %ymm1
vmovaps 0x6e0(%rsp), %ymm29
vmulps %ymm5, %ymm29, %ymm5
vmovaps 0x7c0(%rsp), %ymm20
vfmadd231ps %ymm20, %ymm13, %ymm0 # ymm0 = (ymm13 * ymm20) + ymm0
vmovaps 0x7a0(%rsp), %ymm22
vfmadd231ps %ymm22, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm22) + ymm2
vmovaps 0x780(%rsp), %ymm23
vfmadd231ps %ymm23, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm23) + ymm1
vmovaps 0x760(%rsp), %ymm24
vfmadd231ps %ymm13, %ymm24, %ymm5 # ymm5 = (ymm24 * ymm13) + ymm5
vmovaps 0x840(%rsp), %ymm16
vfmadd231ps %ymm16, %ymm12, %ymm0 # ymm0 = (ymm12 * ymm16) + ymm0
vmovaps 0x820(%rsp), %ymm17
vfmadd231ps %ymm17, %ymm12, %ymm2 # ymm2 = (ymm12 * ymm17) + ymm2
vmovaps 0x800(%rsp), %ymm18
vfmadd231ps %ymm18, %ymm12, %ymm1 # ymm1 = (ymm12 * ymm18) + ymm1
vmovaps 0x7e0(%rsp), %ymm19
vfmadd231ps %ymm12, %ymm19, %ymm5 # ymm5 = (ymm19 * ymm12) + ymm5
vmovaps 0x8c0(%rsp), %ymm6
vfmadd231ps %ymm6, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm6) + ymm0
vmovaps 0x8a0(%rsp), %ymm3
vfmadd231ps %ymm3, %ymm11, %ymm2 # ymm2 = (ymm11 * ymm3) + ymm2
vmovaps 0x880(%rsp), %ymm14
vfmadd231ps %ymm14, %ymm11, %ymm1 # ymm1 = (ymm11 * ymm14) + ymm1
vmovaps 0x860(%rsp), %ymm15
vfmadd231ps %ymm11, %ymm15, %ymm5 # ymm5 = (ymm15 * ymm11) + ymm5
vbroadcastss 0x2131cd(%rip), %ymm26 # 0x1f20ec0
vxorps %ymm26, %ymm7, %ymm11
vmulps %ymm7, %ymm11, %ymm7
vxorps %ymm26, %ymm4, %ymm11
vmulps %ymm4, %ymm11, %ymm4
vmulps %ymm30, %ymm10, %ymm10
vsubps %ymm10, %ymm4, %ymm4
vaddps %ymm10, %ymm8, %ymm8
vbroadcastss 0x1dee60(%rip), %ymm10 # 0x1eecb80
vmulps %ymm7, %ymm10, %ymm7
vmulps %ymm4, %ymm10, %ymm4
vmulps %ymm10, %ymm8, %ymm8
vmulps %ymm10, %ymm9, %ymm9
vmulps %ymm9, %ymm25, %ymm10
vmulps %ymm9, %ymm27, %ymm12
vmulps %ymm9, %ymm28, %ymm13
vmulps %ymm9, %ymm29, %ymm9
vfmadd231ps %ymm20, %ymm8, %ymm10 # ymm10 = (ymm8 * ymm20) + ymm10
vfmadd231ps %ymm22, %ymm8, %ymm12 # ymm12 = (ymm8 * ymm22) + ymm12
vfmadd231ps %ymm23, %ymm8, %ymm13 # ymm13 = (ymm8 * ymm23) + ymm13
vfmadd231ps %ymm8, %ymm24, %ymm9 # ymm9 = (ymm24 * ymm8) + ymm9
vfmadd231ps %ymm16, %ymm4, %ymm10 # ymm10 = (ymm4 * ymm16) + ymm10
vfmadd231ps %ymm17, %ymm4, %ymm12 # ymm12 = (ymm4 * ymm17) + ymm12
vfmadd231ps %ymm18, %ymm4, %ymm13 # ymm13 = (ymm4 * ymm18) + ymm13
vfmadd231ps %ymm4, %ymm19, %ymm9 # ymm9 = (ymm19 * ymm4) + ymm9
vfmadd231ps %ymm6, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm6) + ymm10
vfmadd231ps %ymm3, %ymm7, %ymm12 # ymm12 = (ymm7 * ymm3) + ymm12
vfmadd231ps %ymm14, %ymm7, %ymm13 # ymm13 = (ymm7 * ymm14) + ymm13
vfmadd231ps %ymm7, %ymm15, %ymm9 # ymm9 = (ymm15 * ymm7) + ymm9
vbroadcastss 0x80(%rsp), %ymm4
vmulps %ymm4, %ymm10, %ymm11
vmulps %ymm4, %ymm12, %ymm12
vmulps %ymm4, %ymm13, %ymm13
vmulps %ymm4, %ymm9, %ymm6
vmovaps %ymm0, %ymm8
vmovaps 0x251f6c(%rip), %ymm7 # 0x1f5fd20
vmovaps %ymm31, %ymm3
vxorps %xmm31, %xmm31, %xmm31
vpermt2ps %ymm31, %ymm7, %ymm8
vmovaps %ymm2, %ymm9
vpermt2ps %ymm31, %ymm7, %ymm9
vmovaps %ymm1, %ymm10
vpermt2ps %ymm31, %ymm7, %ymm10
vaddps %ymm5, %ymm6, %ymm4
vmaxps %ymm4, %ymm5, %ymm14
vminps %ymm4, %ymm5, %ymm4
vmovaps %ymm5, %ymm15
vpermt2ps %ymm31, %ymm7, %ymm15
vmovaps %ymm11, %ymm19
vpermt2ps %ymm31, %ymm7, %ymm19
vmovaps %ymm12, %ymm20
vpermt2ps %ymm31, %ymm7, %ymm20
vmovaps %ymm13, %ymm5
vpermt2ps %ymm31, %ymm7, %ymm5
vpermt2ps %ymm31, %ymm7, %ymm6
vsubps %ymm6, %ymm15, %ymm16
vsubps %ymm0, %ymm8, %ymm7
vsubps %ymm2, %ymm9, %ymm6
vsubps %ymm1, %ymm10, %ymm27
vmulps %ymm13, %ymm6, %ymm17
vfmsub231ps %ymm27, %ymm12, %ymm17 # ymm17 = (ymm12 * ymm27) - ymm17
vmulps %ymm11, %ymm27, %ymm18
vfmsub231ps %ymm7, %ymm13, %ymm18 # ymm18 = (ymm13 * ymm7) - ymm18
vmulps %ymm12, %ymm7, %ymm22
vfmsub231ps %ymm6, %ymm11, %ymm22 # ymm22 = (ymm11 * ymm6) - ymm22
vmulps %ymm22, %ymm22, %ymm22
vfmadd231ps %ymm18, %ymm18, %ymm22 # ymm22 = (ymm18 * ymm18) + ymm22
vfmadd231ps %ymm17, %ymm17, %ymm22 # ymm22 = (ymm17 * ymm17) + ymm22
vmulps %ymm27, %ymm27, %ymm17
vfmadd231ps %ymm6, %ymm6, %ymm17 # ymm17 = (ymm6 * ymm6) + ymm17
vfmadd231ps %ymm7, %ymm7, %ymm17 # ymm17 = (ymm7 * ymm7) + ymm17
vrcp14ps %ymm17, %ymm18
vmovaps %ymm18, %ymm23
vbroadcastss 0x1de88a(%rip), %ymm24 # 0x1eec714
vmovaps %ymm24, %ymm26
vfnmadd213ps %ymm24, %ymm17, %ymm23 # ymm23 = -(ymm17 * ymm23) + ymm24
vfmadd132ps %ymm18, %ymm18, %ymm23 # ymm23 = (ymm23 * ymm18) + ymm18
vmulps %ymm23, %ymm22, %ymm18
vmulps %ymm5, %ymm6, %ymm22
vfmsub231ps %ymm27, %ymm20, %ymm22 # ymm22 = (ymm20 * ymm27) - ymm22
vmulps %ymm19, %ymm27, %ymm24
vfmsub231ps %ymm7, %ymm5, %ymm24 # ymm24 = (ymm5 * ymm7) - ymm24
vmulps %ymm20, %ymm7, %ymm25
vfmsub231ps %ymm6, %ymm19, %ymm25 # ymm25 = (ymm19 * ymm6) - ymm25
vmulps %ymm25, %ymm25, %ymm25
vfmadd231ps %ymm24, %ymm24, %ymm25 # ymm25 = (ymm24 * ymm24) + ymm25
vfmadd231ps %ymm22, %ymm22, %ymm25 # ymm25 = (ymm22 * ymm22) + ymm25
vmulps %ymm23, %ymm25, %ymm22
vmaxps %ymm22, %ymm18, %ymm18
vsqrtps %ymm18, %ymm18
vmaxps %ymm15, %ymm16, %ymm22
vmaxps %ymm22, %ymm14, %ymm14
vaddps %ymm14, %ymm18, %ymm14
vminps %ymm15, %ymm16, %ymm15
vminps %ymm15, %ymm4, %ymm4
vsubps %ymm18, %ymm4, %ymm4
vmulps 0x1e2a29(%rip){1to8}, %ymm14, %ymm14 # 0x1ef0940
vmulps 0x1e2a23(%rip){1to8}, %ymm4, %ymm4 # 0x1ef0944
vmovaps %ymm4, 0x80(%rsp)
vmulps %ymm14, %ymm14, %ymm4
vrsqrt14ps %ymm17, %ymm15
vmulps 0x1de7dd(%rip){1to8}, %ymm17, %ymm14 # 0x1eec71c
vmulps %ymm14, %ymm15, %ymm14
vmulps %ymm15, %ymm15, %ymm16
vmulps %ymm14, %ymm16, %ymm14
vfmadd231ps 0x1de7be(%rip){1to8}, %ymm15, %ymm14 # ymm14 = (ymm15 * mem) + ymm14
vmulps %ymm7, %ymm14, %ymm15
vmulps %ymm14, %ymm6, %ymm16
vmovaps %ymm27, 0x3a0(%rsp)
vmulps %ymm14, %ymm27, %ymm18
vmovaps %ymm0, 0x140(%rsp)
vsubps %ymm0, %ymm31, %ymm27
vmovaps %ymm2, 0xa0(%rsp)
vsubps %ymm2, %ymm31, %ymm28
vmovaps %ymm1, 0x1e0(%rsp)
vsubps %ymm1, %ymm31, %ymm29
vmulps %ymm29, %ymm21, %ymm22
vfmadd231ps %ymm28, %ymm3, %ymm22 # ymm22 = (ymm3 * ymm28) + ymm22
vmovaps 0x4e0(%rsp), %ymm0
vfmadd231ps %ymm27, %ymm0, %ymm22 # ymm22 = (ymm0 * ymm27) + ymm22
vmulps %ymm29, %ymm29, %ymm24
vfmadd231ps %ymm28, %ymm28, %ymm24 # ymm24 = (ymm28 * ymm28) + ymm24
vfmadd231ps %ymm27, %ymm27, %ymm24 # ymm24 = (ymm27 * ymm27) + ymm24
vmulps %ymm18, %ymm21, %ymm17
vfmadd231ps %ymm3, %ymm16, %ymm17 # ymm17 = (ymm16 * ymm3) + ymm17
vfmadd231ps %ymm0, %ymm15, %ymm17 # ymm17 = (ymm15 * ymm0) + ymm17
vmulps %ymm18, %ymm29, %ymm18
vfmadd231ps %ymm16, %ymm28, %ymm18 # ymm18 = (ymm28 * ymm16) + ymm18
vfmadd231ps %ymm15, %ymm27, %ymm18 # ymm18 = (ymm27 * ymm15) + ymm18
vmulps %ymm17, %ymm17, %ymm2
vmovaps 0x6c0(%rsp), %ymm3
vsubps %ymm2, %ymm3, %ymm15
vmulps %ymm18, %ymm17, %ymm25
vsubps %ymm25, %ymm22, %ymm22
vaddps %ymm22, %ymm22, %ymm22
vmulps %ymm18, %ymm18, %ymm25
vsubps %ymm25, %ymm24, %ymm1
vsubps %ymm4, %ymm1, %ymm4
vmulps %ymm22, %ymm22, %ymm25
vmulps %ymm30, %ymm15, %ymm24
vmulps %ymm4, %ymm24, %ymm30
vsubps %ymm30, %ymm25, %ymm30
vcmpnltps %ymm31, %ymm30, %k1
kmovd %k1, %eax
kortestb %k1, %k1
je 0x1d0e130
vsqrtps %ymm30, %ymm30
vaddps %ymm15, %ymm15, %ymm31
vrcp14ps %ymm31, %ymm3
vfnmadd213ps %ymm26, %ymm3, %ymm31 # ymm31 = -(ymm3 * ymm31) + ymm26
vfmadd132ps %ymm3, %ymm3, %ymm31 # ymm31 = (ymm31 * ymm3) + ymm3
vxorps 0x212e46(%rip){1to8}, %ymm22, %ymm3 # 0x1f20ec0
vsubps %ymm30, %ymm3, %ymm3
vmulps %ymm31, %ymm3, %ymm3
vsubps %ymm22, %ymm30, %ymm30
vmulps %ymm31, %ymm30, %ymm31
vmovaps %ymm17, %ymm30
vfmadd213ps %ymm18, %ymm3, %ymm30 # ymm30 = (ymm3 * ymm30) + ymm18
vmulps %ymm30, %ymm14, %ymm30
vmovaps %ymm30, 0x420(%rsp)
vmovaps %ymm17, %ymm30
vfmadd213ps %ymm18, %ymm31, %ymm30 # ymm30 = (ymm31 * ymm30) + ymm18
vmulps %ymm30, %ymm14, %ymm30
vmovaps %ymm30, 0x400(%rsp)
vbroadcastss 0x1dd950(%rip), %ymm16 # 0x1eeba20
vblendmps %ymm3, %ymm16, %ymm30 {%k1}
vbroadcastss 0x1deaa5(%rip), %ymm3 # 0x1eecb84
vblendmps %ymm31, %ymm3, %ymm31 {%k1}
vbroadcastss 0x212dd5(%rip), %ymm23 # 0x1f20ec4
vandps %ymm23, %ymm2, %ymm3
vmovaps 0x4c0(%rsp), %ymm16
vmaxps %ymm3, %ymm16, %ymm3
vmulps 0x1e3da7(%rip){1to8}, %ymm3, %ymm3 # 0x1ef1eb4
vandps %ymm23, %ymm15, %ymm23
vcmpltps %ymm3, %ymm23, %k1 {%k1}
kortestb %k1, %k1
jne 0x1d10042
vbroadcastss 0x1de5e6(%rip), %ymm16 # 0x1eec714
jmp 0x1d0e14a
vbroadcastss 0x1dd8e6(%rip), %ymm30 # 0x1eeba20
vbroadcastss 0x1dea40(%rip), %ymm31 # 0x1eecb84
vmovaps %ymm26, %ymm16
andb $0x7f, %al
je 0x1d0e540
movq 0x18(%rsp), %rcx
vmovss 0x100(%r12,%rcx,4), %xmm3
vsubss 0x300(%rsp), %xmm3, %xmm3
vbroadcastss %xmm3, %ymm3
vminps %ymm31, %ymm3, %ymm3
vmovaps 0x6a0(%rsp), %ymm4
vmaxps %ymm30, %ymm4, %ymm4
vmulps %ymm29, %ymm13, %ymm23
vfmadd213ps %ymm23, %ymm12, %ymm28 # ymm28 = (ymm12 * ymm28) + ymm23
vfmadd213ps %ymm28, %ymm11, %ymm27 # ymm27 = (ymm11 * ymm27) + ymm28
vmovaps 0x1a0(%rsp), %ymm21
vmulps %ymm13, %ymm21, %ymm13
vmovaps 0x1c0(%rsp), %ymm31
vfmadd231ps %ymm12, %ymm31, %ymm13 # ymm13 = (ymm31 * ymm12) + ymm13
vmovaps 0x4e0(%rsp), %ymm30
vfmadd231ps %ymm11, %ymm30, %ymm13 # ymm13 = (ymm30 * ymm11) + ymm13
vbroadcastss 0x212cfa(%rip), %ymm28 # 0x1f20ec4
vandps %ymm28, %ymm13, %ymm11
vbroadcastss 0x1e2e0e(%rip), %ymm29 # 0x1ef0fe8
vcmpltps %ymm29, %ymm11, %k0
vbroadcastss 0x212cd5(%rip), %ymm26 # 0x1f20ec0
vxorps %ymm26, %ymm27, %ymm11
vrcp14ps %ymm13, %ymm12
vxorps %ymm26, %ymm13, %ymm23
vmovaps %ymm12, %ymm27
vfnmadd213ps %ymm16, %ymm13, %ymm27 # ymm27 = -(ymm13 * ymm27) + ymm16
vfmadd132ps %ymm12, %ymm12, %ymm27 # ymm27 = (ymm27 * ymm12) + ymm12
vmulps %ymm11, %ymm27, %ymm11
vcmpltps %ymm23, %ymm13, %k1
korb %k1, %k0, %k1
vbroadcastss 0x1de95a(%rip), %ymm27 # 0x1eecb84
vblendmps %ymm27, %ymm11, %ymm12 {%k1}
vmaxps %ymm12, %ymm4, %ymm4
vcmpnleps %ymm23, %ymm13, %k1
korb %k1, %k0, %k1
vbroadcastss 0x1dd7d6(%rip), %ymm23 # 0x1eeba20
vmovaps %ymm23, %ymm11 {%k1}
vminps %ymm11, %ymm3, %ymm3
vxorps %xmm13, %xmm13, %xmm13
vsubps %ymm8, %ymm13, %ymm8
vsubps %ymm9, %ymm13, %ymm9
vsubps %ymm10, %ymm13, %ymm10
vmulps %ymm5, %ymm10, %ymm10
vfnmsub231ps %ymm9, %ymm20, %ymm10 # ymm10 = -(ymm20 * ymm9) - ymm10
vfnmadd231ps %ymm8, %ymm19, %ymm10 # ymm10 = -(ymm19 * ymm8) + ymm10
vmulps %ymm5, %ymm21, %ymm8
vfnmsub231ps %ymm20, %ymm31, %ymm8 # ymm8 = -(ymm31 * ymm20) - ymm8
vfnmadd231ps %ymm19, %ymm30, %ymm8 # ymm8 = -(ymm30 * ymm19) + ymm8
vandps %ymm28, %ymm8, %ymm9
vcmpltps %ymm29, %ymm9, %k0
vxorps %ymm26, %ymm10, %ymm9
vrcp14ps %ymm8, %ymm10
vxorps %ymm26, %ymm8, %ymm11
vmovaps %ymm10, %ymm12
vfnmadd213ps %ymm16, %ymm8, %ymm12 # ymm12 = -(ymm8 * ymm12) + ymm16
vfmadd132ps %ymm10, %ymm10, %ymm12 # ymm12 = (ymm12 * ymm10) + ymm10
vmulps %ymm9, %ymm12, %ymm9
vcmpltps %ymm11, %ymm8, %k1
korb %k1, %k0, %k1
vblendmps %ymm27, %ymm9, %ymm10 {%k1}
vmaxps %ymm10, %ymm4, %ymm0
vcmpnleps %ymm11, %ymm8, %k1
korb %k1, %k0, %k1
vmovaps %ymm23, %ymm9 {%k1}
vminps %ymm9, %ymm3, %ymm8
vmovaps %ymm0, 0x360(%rsp)
vcmpleps %ymm8, %ymm0, %k0
kmovd %k0, %ecx
andb %cl, %al
je 0x1d0ff31
vmovaps 0x420(%rsp), %ymm3
vmaxps 0x80(%rsp), %ymm13, %ymm4
vminps %ymm16, %ymm3, %ymm3
vxorps %xmm10, %xmm10, %xmm10
vmaxps %ymm10, %ymm3, %ymm3
vmovaps 0x400(%rsp), %ymm9
vminps %ymm16, %ymm9, %ymm9
vmovaps 0x212c00(%rip), %ymm11 # 0x1f20f40
vaddps %ymm3, %ymm11, %ymm3
vbroadcastss 0x21016b(%rip), %ymm12 # 0x1f1e4b8
vmulps %ymm3, %ymm12, %ymm3
vmovaps 0x60(%rsp), %ymm0
vmovaps %ymm1, %ymm5
vmovaps 0x200(%rsp), %ymm1
vfmadd213ps %ymm0, %ymm1, %ymm3 # ymm3 = (ymm1 * ymm3) + ymm0
vmovaps %ymm3, 0x420(%rsp)
vmaxps %ymm10, %ymm9, %ymm3
vaddps %ymm3, %ymm11, %ymm3
vmulps %ymm3, %ymm12, %ymm3
vfmadd213ps %ymm0, %ymm1, %ymm3 # ymm3 = (ymm1 * ymm3) + ymm0
vmovaps %ymm3, 0x400(%rsp)
vmulps %ymm4, %ymm4, %ymm3
vsubps %ymm3, %ymm5, %ymm11
vmulps %ymm11, %ymm24, %ymm3
vsubps %ymm3, %ymm25, %ymm3
vcmpnltps %ymm10, %ymm3, %k0
kortestb %k0, %k0
je 0x1d0e555
vxorps %xmm20, %xmm20, %xmm20
vcmpnltps %ymm13, %ymm3, %k1
vsqrtps %ymm3, %ymm3
vaddps %ymm15, %ymm15, %ymm4
vrcp14ps %ymm4, %ymm9
vfnmadd213ps %ymm16, %ymm9, %ymm4 # ymm4 = -(ymm9 * ymm4) + ymm16
vfmadd132ps %ymm9, %ymm9, %ymm4 # ymm4 = (ymm4 * ymm9) + ymm9
vxorps 0x212add(%rip){1to8}, %ymm22, %ymm9 # 0x1f20ec0
vsubps %ymm3, %ymm9, %ymm9
vmulps %ymm4, %ymm9, %ymm12
vsubps %ymm22, %ymm3, %ymm3
vmulps %ymm4, %ymm3, %ymm13
vmovaps %ymm17, %ymm3
vfmadd213ps %ymm18, %ymm12, %ymm3 # ymm3 = (ymm12 * ymm3) + ymm18
vmulps %ymm3, %ymm14, %ymm9
vmulps %ymm12, %ymm30, %ymm3
vmulps %ymm12, %ymm31, %ymm4
vmulps %ymm12, %ymm21, %ymm10
vmovaps %ymm7, %ymm19
vmovaps %ymm2, %ymm16
vmovaps 0x140(%rsp), %ymm2
vfmadd213ps %ymm2, %ymm9, %ymm19 # ymm19 = (ymm9 * ymm19) + ymm2
vsubps %ymm19, %ymm3, %ymm3
vmovaps %ymm6, %ymm19
vmovaps 0xa0(%rsp), %ymm1
vfmadd213ps %ymm1, %ymm9, %ymm19 # ymm19 = (ymm9 * ymm19) + ymm1
vsubps %ymm19, %ymm4, %ymm4
vmovaps 0x1e0(%rsp), %ymm0
vmovaps 0x3a0(%rsp), %ymm5
vfmadd213ps %ymm0, %ymm5, %ymm9 # ymm9 = (ymm5 * ymm9) + ymm0
vsubps %ymm9, %ymm10, %ymm9
vfmadd213ps %ymm18, %ymm13, %ymm17 # ymm17 = (ymm13 * ymm17) + ymm18
vmulps %ymm17, %ymm14, %ymm14
vmulps %ymm13, %ymm30, %ymm10
vmulps %ymm13, %ymm31, %ymm17
vmulps %ymm13, %ymm21, %ymm18
vfmadd213ps %ymm2, %ymm14, %ymm7 # ymm7 = (ymm14 * ymm7) + ymm2
vsubps %ymm7, %ymm10, %ymm10
vfmadd213ps %ymm1, %ymm14, %ymm6 # ymm6 = (ymm14 * ymm6) + ymm1
vsubps %ymm6, %ymm17, %ymm1
vfmadd213ps %ymm0, %ymm14, %ymm5 # ymm5 = (ymm14 * ymm5) + ymm0
vsubps %ymm5, %ymm18, %ymm5
vbroadcastss 0x1dd56b(%rip), %ymm0 # 0x1eeba20
vblendmps %ymm12, %ymm0, %ymm2 {%k1}
vbroadcastss 0x1de6c0(%rip), %ymm0 # 0x1eecb84
vblendmps %ymm13, %ymm0, %ymm0 {%k1}
vbroadcastss 0x2129f1(%rip), %ymm7 # 0x1f20ec4
vandps %ymm7, %ymm16, %ymm6
vmovaps 0x4c0(%rsp), %ymm12
vmaxps %ymm6, %ymm12, %ymm6
vmulps 0x1e39c4(%rip){1to8}, %ymm6, %ymm6 # 0x1ef1eb4
vandps %ymm7, %ymm15, %ymm7
vcmpltps %ymm6, %ymm7, %k1 {%k1}
kortestb %k1, %k1
je 0x1d0e57c
vcmpleps %ymm20, %ymm11, %k2
vbroadcastss 0x1de673(%rip), %ymm7 # 0x1eecb84
vbroadcastss 0x1dd506(%rip), %ymm11 # 0x1eeba20
vblendmps %ymm7, %ymm11, %ymm6 {%k2}
vmovaps %ymm6, %ymm2 {%k1}
vblendmps %ymm11, %ymm7, %ymm6 {%k2}
vmovaps %ymm6, %ymm0 {%k1}
knotb %k1, %k1
korb %k2, %k1, %k1
kandb %k0, %k1, %k0
jmp 0x1d0e57c
vmovaps 0x1c0(%rsp), %ymm31
vmovaps 0x1a0(%rsp), %ymm21
jmp 0x1d0ff31
vxorps %xmm1, %xmm1, %xmm1
vxorps %xmm5, %xmm5, %xmm5
vxorps %xmm3, %xmm3, %xmm3
vxorps %xmm4, %xmm4, %xmm4
vxorps %xmm9, %xmm9, %xmm9
vbroadcastss 0x1dd4ad(%rip), %ymm2 # 0x1eeba20
vbroadcastss 0x1de608(%rip), %ymm0 # 0x1eecb84
vbroadcastss 0x21293f(%rip), %xmm11 # 0x1f20ec4
vmulps %ymm5, %ymm21, %ymm5
vfmadd231ps %ymm1, %ymm31, %ymm5 # ymm5 = (ymm31 * ymm1) + ymm5
vfmadd231ps %ymm10, %ymm30, %ymm5 # ymm5 = (ymm30 * ymm10) + ymm5
vmovaps 0x360(%rsp), %ymm7
vmovaps %ymm7, 0x8e0(%rsp)
vminps %ymm2, %ymm8, %ymm1
vmovaps %ymm1, 0x900(%rsp)
vbroadcastss 0x212905(%rip), %ymm6 # 0x1f20ec4
vandps %ymm6, %ymm5, %ymm2
vmaxps %ymm0, %ymm7, %ymm5
vmovaps %ymm5, 0x620(%rsp)
vmovaps %ymm8, 0x640(%rsp)
vbroadcastss 0x2128f2(%rip), %ymm0 # 0x1f20ed4
vcmpltps %ymm0, %ymm2, %k1
kmovd %k1, 0x104(%rsp)
vcmpleps %ymm1, %ymm7, %k1
kmovd %k1, %ecx
andb %al, %cl
vmovaps %ymm5, 0x3c0(%rsp)
vcmpleps %ymm8, %ymm5, %k1
kmovd %k1, %edx
andb %al, %dl
movl %edx, %eax
orb %cl, %al
je 0x1d0fefb
vmovaps %ymm0, %ymm2
movl %edx, 0x34(%rsp)
movq %r9, 0x190(%rsp)
movq %r10, 0x198(%rsp)
knotb %k0, %k1
vmulps %ymm9, %ymm21, %ymm0
vfmadd213ps %ymm0, %ymm31, %ymm4 # ymm4 = (ymm31 * ymm4) + ymm0
vfmadd213ps %ymm4, %ymm30, %ymm3 # ymm3 = (ymm30 * ymm3) + ymm4
vandps %ymm6, %ymm3, %ymm0
vcmpltps %ymm2, %ymm0, %k0
kmovd %k1, 0xfc(%rsp)
korb %k1, %k0, %k1
vpbroadcastd 0x21286c(%rip), %ymm0 # 0x1f20edc
vpblendmd 0x21285e(%rip){1to8}, %ymm0, %ymm0 {%k1} # 0x1f20ed8
movq %r11, 0x188(%rsp)
vpbroadcastd %r11d, %ymm1
vmovdqa %ymm0, 0x660(%rsp)
vmovdqa %ymm1, 0x4a0(%rsp)
vpcmpnltd %ymm0, %ymm1, %k0
kmovd %k0, %ebx
movl %ecx, 0x100(%rsp)
andb %cl, %bl
je 0x1d0f22d
vmovaps 0x2a0(%rsp), %ymm1
vmovaps 0x260(%rsp), %ymm2
vminps %xmm2, %xmm1, %xmm0
vmaxps %xmm2, %xmm1, %xmm1
vmovaps 0x280(%rsp), %ymm3
vmovaps 0x240(%rsp), %ymm4
vminps %xmm4, %xmm3, %xmm2
vminps %xmm2, %xmm0, %xmm0
vmaxps %xmm4, %xmm3, %xmm2
vmaxps %xmm2, %xmm1, %xmm1
vandps %xmm0, %xmm11, %xmm0
vandps %xmm1, %xmm11, %xmm2
vmaxps %xmm2, %xmm0, %xmm0
vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3]
vmaxss %xmm0, %xmm2, %xmm2
vshufpd $0x1, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[1,0]
vmaxss %xmm2, %xmm0, %xmm0
vmulss 0x1e379f(%rip), %xmm0, %xmm0 # 0x1ef1eb4
vmovss %xmm0, 0x44(%rsp)
vshufps $0xff, %xmm1, %xmm1, %xmm0 # xmm0 = xmm1[3,3,3,3]
vmovaps %xmm0, 0x2f0(%rsp)
vmovaps 0x360(%rsp), %ymm0
vaddps 0x380(%rsp), %ymm0, %ymm0
vmovaps %ymm0, 0x3e0(%rsp)
kmovd %ebx, %k1
vbroadcastss 0x1dd2cf(%rip), %ymm0 # 0x1eeba20
vblendmps 0x360(%rsp), %ymm0, %ymm0 {%k1}
vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm0, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1]
vminps %ymm2, %ymm1, %ymm1
vcmpeqps %ymm1, %ymm0, %k0
kmovd %k0, %eax
andb %bl, %al
movzbl %al, %eax
movzbl %bl, %ecx
cmovnel %eax, %ecx
tzcntl %ecx, %ecx
movb $0x1, %bl
shlb %cl, %bl
shll $0x2, %ecx
vmovss 0x420(%rsp,%rcx), %xmm10
vmovss 0x8e0(%rsp,%rcx), %xmm8
vmovaps 0x220(%rsp), %xmm0
vucomiss 0x1dd26b(%rip), %xmm0 # 0x1eeba24
vmovss 0x108(%rsp), %xmm0
jae 0x1d0e805
vmovaps 0x220(%rsp), %xmm0
vmovaps %xmm10, 0x60(%rsp)
vmovaps %xmm8, 0xa0(%rsp)
kmovw %k1, 0x80(%rsp)
vzeroupper
callq 0x6aa20
kmovw 0x80(%rsp), %k1
vmovaps 0xa0(%rsp), %xmm8
vmovaps 0x60(%rsp), %xmm10
movzbl %bl, %eax
kmovd %eax, %k0
kandnb %k1, %k0, %k0
kmovd %k0, %ebx
vmulss 0x1e3698(%rip), %xmm0, %xmm0 # 0x1ef1eb4
vmovss %xmm0, 0x48(%rsp)
movl $0x4, %r14d
vmovaps %xmm8, 0xa0(%rsp)
vbroadcastss %xmm8, %xmm0
vxorps %xmm1, %xmm1, %xmm1
vfmadd132ps 0x230(%rsp), %xmm1, %xmm0 # xmm0 = (xmm0 * mem) + xmm1
vmovss 0x1ddec8(%rip), %xmm1 # 0x1eec714
vsubss %xmm10, %xmm1, %xmm4
vmulss %xmm4, %xmm4, %xmm1
vmulss %xmm1, %xmm4, %xmm1
vmulss %xmm10, %xmm10, %xmm11
vmulss %xmm11, %xmm10, %xmm2
vmovss 0x1de321(%rip), %xmm7 # 0x1eecb8c
vmovaps %xmm7, %xmm3
vfmadd213ss %xmm2, %xmm1, %xmm3 # xmm3 = (xmm1 * xmm3) + xmm2
vmulss %xmm4, %xmm10, %xmm12
vmovaps %xmm4, 0x80(%rsp)
vmulss %xmm4, %xmm12, %xmm4
vmulss %xmm12, %xmm10, %xmm5
vmovss 0x1e2762(%rip), %xmm8 # 0x1ef0ff4
vmulss %xmm5, %xmm8, %xmm6
vmovss 0x1e275e(%rip), %xmm9 # 0x1ef0ffc
vfmadd231ss %xmm9, %xmm4, %xmm6 # xmm6 = (xmm4 * xmm9) + xmm6
vaddss %xmm6, %xmm3, %xmm3
vmovaps %xmm7, %xmm6
vfmadd213ss %xmm1, %xmm2, %xmm6 # xmm6 = (xmm2 * xmm6) + xmm1
vmulss %xmm4, %xmm8, %xmm4
vfmadd231ss %xmm5, %xmm9, %xmm4 # xmm4 = (xmm9 * xmm5) + xmm4
vaddss %xmm4, %xmm6, %xmm4
vmovss 0x1e273b(%rip), %xmm5 # 0x1ef1000
vmulss %xmm5, %xmm1, %xmm1
vmulss %xmm5, %xmm3, %xmm3
vmulss %xmm5, %xmm4, %xmm4
vmulss %xmm5, %xmm2, %xmm2
vbroadcastss %xmm2, %xmm2
vmulps 0x240(%rsp), %xmm2, %xmm2
vbroadcastss %xmm4, %xmm4
vfmadd132ps 0x280(%rsp), %xmm2, %xmm4 # xmm4 = (xmm4 * mem) + xmm2
vbroadcastss %xmm3, %xmm2
vfmadd132ps 0x260(%rsp), %xmm4, %xmm2 # xmm2 = (xmm2 * mem) + xmm4
vbroadcastss %xmm1, %xmm1
vfmadd132ps 0x2a0(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2
vmovaps %xmm1, 0x3a0(%rsp)
vsubps %xmm1, %xmm0, %xmm0
vmovaps %xmm0, 0x200(%rsp)
vdpps $0x7f, %xmm0, %xmm0, %xmm0
vucomiss 0x1dd0f0(%rip), %xmm0 # 0x1eeba24
vmovaps %xmm10, 0x60(%rsp)
vmovaps %xmm0, 0x1e0(%rsp)
jb 0x1d0e94b
vsqrtss %xmm0, %xmm0, %xmm7
jmp 0x1d0e97b
vmovss %xmm11, 0x140(%rsp)
vmovss %xmm12, 0x20(%rsp)
vzeroupper
callq 0x6aa20
vmovss 0x20(%rsp), %xmm12
vmovss 0x140(%rsp), %xmm11
vmovaps 0x60(%rsp), %xmm10
vmovaps %xmm0, %xmm7
vmovaps 0x80(%rsp), %xmm3
vbroadcastss %xmm3, %xmm1
vbroadcastss 0x21252e(%rip), %xmm4 # 0x1f20ec0
vmovaps %xmm1, 0x350(%rsp)
vxorps %xmm4, %xmm1, %xmm0
vmulss %xmm0, %xmm3, %xmm0
vmulss 0x1de1e1(%rip), %xmm12, %xmm1 # 0x1eecb8c
vmovaps %xmm10, %xmm2
vfnmsub213ss %xmm1, %xmm10, %xmm2 # xmm2 = -(xmm10 * xmm2) - xmm1
vfmadd231ss %xmm3, %xmm3, %xmm1 # xmm1 = (xmm3 * xmm3) + xmm1
vmovss 0x1de1bf(%rip), %xmm3 # 0x1eecb80
vmulss %xmm3, %xmm0, %xmm0
vmulss %xmm3, %xmm2, %xmm2
vmulss %xmm3, %xmm1, %xmm1
vmulss %xmm3, %xmm11, %xmm3
vbroadcastss %xmm3, %xmm3
vmulps 0x240(%rsp), %xmm3, %xmm3
vbroadcastss %xmm1, %xmm1
vfmadd132ps 0x280(%rsp), %xmm3, %xmm1 # xmm1 = (xmm1 * mem) + xmm3
vbroadcastss %xmm2, %xmm2
vfmadd132ps 0x260(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1
vbroadcastss %xmm0, %xmm13
vfmadd132ps 0x2a0(%rsp), %xmm2, %xmm13 # xmm13 = (xmm13 * mem) + xmm2
vdpps $0x7f, %xmm13, %xmm13, %xmm0
vxorps %xmm1, %xmm1, %xmm1
vmovss %xmm0, %xmm1, %xmm2 # xmm2 = xmm0[0],xmm1[1,2,3]
vrsqrt14ss %xmm2, %xmm1, %xmm3
vmulss 0x1ddcf0(%rip), %xmm3, %xmm5 # 0x1eec718
vmulss 0x1ddcec(%rip), %xmm0, %xmm6 # 0x1eec71c
vrcp14ss %xmm2, %xmm1, %xmm2
vxorps %xmm4, %xmm0, %xmm1
vmovaps %xmm2, 0x330(%rsp)
vfnmadd213ss 0x1e25ac(%rip), %xmm0, %xmm2 # xmm2 = -(xmm0 * xmm2) + mem
vmovss %xmm2, 0x4c(%rsp)
vucomiss %xmm1, %xmm0
vmovaps %xmm13, 0x140(%rsp)
vmovss %xmm7, 0x20(%rsp)
vmovaps %xmm0, 0x340(%rsp)
jb 0x1d0ea78
vsqrtss %xmm0, %xmm0, %xmm16
jmp 0x1d0eac5
vmovaps %xmm3, 0xe0(%rsp)
vmovss %xmm5, 0x24(%rsp)
vmovss %xmm6, 0xd0(%rsp)
vzeroupper
callq 0x6aa20
vmovss 0xd0(%rsp), %xmm6
vmovss 0x24(%rsp), %xmm5
vmovaps 0xe0(%rsp), %xmm3
vmovss 0x20(%rsp), %xmm7
vmovaps 0x140(%rsp), %xmm13
vmovaps %xmm0, %xmm16
vmovaps 0x200(%rsp), %xmm9
vmovaps 0x1e0(%rsp), %xmm19
vmulss %xmm3, %xmm6, %xmm0
vmulss %xmm3, %xmm3, %xmm1
vmulss %xmm1, %xmm0, %xmm0
vaddss %xmm0, %xmm5, %xmm0
vbroadcastss %xmm0, %xmm4
vmulps %xmm4, %xmm13, %xmm0
vmovaps %xmm0, 0xe0(%rsp)
vdpps $0x7f, %xmm0, %xmm9, %xmm15
vaddss 0x1ddc0e(%rip), %xmm7, %xmm14 # 0x1eec714
vmulps %xmm15, %xmm15, %xmm0
vsubps %xmm0, %xmm19, %xmm0
vxorps %xmm2, %xmm2, %xmm2
vmovss %xmm0, %xmm2, %xmm1 # xmm1 = xmm0[0],xmm2[1,2,3]
vrsqrt14ss %xmm1, %xmm2, %xmm18
vmulss 0x1ddbef(%rip), %xmm18, %xmm17 # 0x1eec718
vmulss 0x1ddbe9(%rip), %xmm0, %xmm20 # 0x1eec71c
vucomiss 0x1dcee9(%rip), %xmm0 # 0x1eeba24
jb 0x1d0eb46
vsqrtss %xmm0, %xmm0, %xmm0
jmp 0x1d0ebde
vmovss %xmm14, 0x24(%rsp)
vmovaps %xmm15, 0xd0(%rsp)
vmovss %xmm16, 0x40(%rsp)
vmovss %xmm17, 0x3c(%rsp)
vmovaps %xmm18, 0x320(%rsp)
vmovss %xmm20, 0x38(%rsp)
vmovaps %xmm4, 0x310(%rsp)
vzeroupper
callq 0x6aa20
vmovaps 0x310(%rsp), %xmm4
vmovss 0x38(%rsp), %xmm20
vmovaps 0x320(%rsp), %xmm18
vmovss 0x3c(%rsp), %xmm17
vmovss 0x40(%rsp), %xmm16
vmovaps 0xd0(%rsp), %xmm15
vmovss 0x24(%rsp), %xmm14
vmovss 0x20(%rsp), %xmm7
vmovaps 0x140(%rsp), %xmm13
vmovaps 0x1e0(%rsp), %xmm19
vmovaps 0x200(%rsp), %xmm9
vbroadcastss 0x2122dd(%rip), %xmm11 # 0x1f20ec4
vmovaps 0x1c0(%rsp), %ymm31
vmovaps 0x1a0(%rsp), %ymm21
vmovaps 0x60(%rsp), %xmm10
vmovaps 0xa0(%rsp), %xmm8
vmovss 0x1e1dce(%rip), %xmm2 # 0x1ef09dc
vmovaps %xmm2, %xmm1
vmovaps 0x80(%rsp), %xmm3
vfmadd213ss %xmm10, %xmm3, %xmm1 # xmm1 = (xmm3 * xmm1) + xmm10
vfmadd231ss %xmm2, %xmm10, %xmm3 # xmm3 = (xmm10 * xmm2) + xmm3
vbroadcastss %xmm10, %xmm2
vmulps 0x240(%rsp), %xmm2, %xmm2
vbroadcastss %xmm3, %xmm3
vfmadd132ps 0x280(%rsp), %xmm2, %xmm3 # xmm3 = (xmm3 * mem) + xmm2
vbroadcastss %xmm1, %xmm1
vfmadd132ps 0x260(%rsp), %xmm3, %xmm1 # xmm1 = (xmm1 * mem) + xmm3
vmovaps 0x350(%rsp), %xmm2
vfmadd132ps 0x2a0(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1
vbroadcastss 0x340(%rsp), %xmm1
vmulps %xmm1, %xmm2, %xmm1
vdpps $0x7f, %xmm2, %xmm13, %xmm2
vbroadcastss %xmm2, %xmm2
vmulps %xmm2, %xmm13, %xmm2
vsubps %xmm2, %xmm1, %xmm1
vmovss 0x4c(%rsp), %xmm2
vmulss 0x330(%rsp), %xmm2, %xmm2
vmulss 0x48(%rsp), %xmm8, %xmm3
vbroadcastss %xmm2, %xmm2
vmulps %xmm2, %xmm1, %xmm1
vxorps 0x212213(%rip){1to4}, %xmm13, %xmm2 # 0x1f20ec0
vmulps %xmm1, %xmm4, %xmm4
vmovaps 0xe0(%rsp), %xmm12
vdpps $0x7f, %xmm12, %xmm2, %xmm5
vmovss 0x44(%rsp), %xmm6
vmaxss %xmm3, %xmm6, %xmm1
vdivss %xmm16, %xmm6, %xmm3
vdpps $0x7f, %xmm4, %xmm9, %xmm4
vfmadd213ss %xmm1, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm7) + xmm1
vfmadd213ss %xmm7, %xmm3, %xmm14 # xmm14 = (xmm3 * xmm14) + xmm7
vmovaps 0x230(%rsp), %xmm7
vdpps $0x7f, %xmm12, %xmm7, %xmm3
vaddss %xmm4, %xmm5, %xmm4
vdpps $0x7f, %xmm2, %xmm9, %xmm5
vmulss %xmm18, %xmm20, %xmm2
vmulss %xmm18, %xmm18, %xmm6
vmulss %xmm6, %xmm2, %xmm2
vdpps $0x7f, %xmm7, %xmm9, %xmm6
vaddss %xmm2, %xmm17, %xmm7
vfnmadd231ss %xmm4, %xmm15, %xmm5 # xmm5 = -(xmm15 * xmm4) + xmm5
vfnmadd231ss %xmm3, %xmm15, %xmm6 # xmm6 = -(xmm15 * xmm3) + xmm6
vpermilps $0xff, 0x3a0(%rsp), %xmm2 # xmm2 = mem[3,3,3,3]
vsubss %xmm2, %xmm0, %xmm2
vshufps $0xff, %xmm13, %xmm13, %xmm0 # xmm0 = xmm13[3,3,3,3]
vfmsub213ss %xmm0, %xmm7, %xmm5 # xmm5 = (xmm7 * xmm5) - xmm0
vmulss %xmm7, %xmm6, %xmm6
vmulss %xmm5, %xmm3, %xmm7
vfmsub231ss %xmm6, %xmm4, %xmm7 # xmm7 = (xmm4 * xmm6) - xmm7
vdivss %xmm7, %xmm6, %xmm6
vdivss %xmm7, %xmm5, %xmm5
vdivss %xmm7, %xmm3, %xmm3
vdivss %xmm7, %xmm4, %xmm4
vmulss %xmm6, %xmm15, %xmm6
vmulss %xmm3, %xmm2, %xmm3
vsubss %xmm3, %xmm6, %xmm3
vmulss %xmm5, %xmm15, %xmm5
vmulss %xmm4, %xmm2, %xmm4
vsubss %xmm5, %xmm4, %xmm4
vsubss %xmm3, %xmm10, %xmm10
vsubss %xmm4, %xmm8, %xmm8
vandps %xmm11, %xmm15, %xmm3
vucomiss %xmm3, %xmm14
jbe 0x1d0ef35
vaddss %xmm1, %xmm14, %xmm1
vmovaps 0x2f0(%rsp), %xmm3
vfmadd231ss 0x1e3119(%rip), %xmm3, %xmm1 # xmm1 = (xmm3 * mem) + xmm1
vandps %xmm2, %xmm11, %xmm2
vucomiss %xmm2, %xmm1
jbe 0x1d0ef35
vaddss 0x300(%rsp), %xmm8, %xmm8
movb $0x1, %r13b
vucomiss 0x5c(%rsp), %xmm8
jb 0x1d0ef38
movq 0x18(%rsp), %rax
vmovss 0x100(%r12,%rax,4), %xmm4
vucomiss %xmm8, %xmm4
jb 0x1d0ef38
vucomiss 0x1dcc41(%rip), %xmm10 # 0x1eeba24
jb 0x1d0ef38
vmovss 0x1dd923(%rip), %xmm1 # 0x1eec714
vucomiss %xmm10, %xmm1
jb 0x1d0ef38
vxorps %xmm2, %xmm2, %xmm2
vmovss %xmm19, %xmm2, %xmm1 # xmm1 = xmm19[0],xmm2[1,2,3]
vrsqrt14ss %xmm1, %xmm2, %xmm1
vmulss 0x1dd904(%rip), %xmm1, %xmm2 # 0x1eec718
vmulss 0x1dd8fe(%rip), %xmm19, %xmm3 # 0x1eec71c
movq (%r15), %rax
movq 0x1e8(%rax), %rax
movq %r15, %rcx
movq 0x50(%rsp), %rdx
movq (%rax,%rdx,8), %r15
movq 0x18(%rsp), %rax
movl 0x120(%r12,%rax,4), %eax
testl %eax, 0x34(%r15)
je 0x1d0ef55
vmulss %xmm1, %xmm3, %xmm3
vmulss %xmm1, %xmm1, %xmm1
vmulss %xmm1, %xmm3, %xmm1
vaddss %xmm1, %xmm2, %xmm1
vbroadcastss %xmm1, %xmm1
vmulps %xmm1, %xmm9, %xmm1
vfmadd213ps %xmm13, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm0) + xmm13
vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm13, %xmm13, %xmm3 # xmm3 = xmm13[1,2,0,3]
vmulps %xmm3, %xmm1, %xmm1
vfmsub231ps %xmm2, %xmm13, %xmm1 # xmm1 = (xmm13 * xmm2) - xmm1
vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3]
vshufps $0xd2, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,0,1,3]
vmulps %xmm1, %xmm0, %xmm0
vfmsub231ps %xmm3, %xmm2, %xmm0 # xmm0 = (xmm2 * xmm3) - xmm0
movq 0x10(%rcx), %rax
cmpq $0x0, 0x10(%rax)
jne 0x1d0ef5a
cmpq $0x0, 0x40(%r15)
jne 0x1d0ef5a
movq 0x18(%rsp), %rcx
vmovss %xmm8, 0x100(%r12,%rcx,4)
vextractps $0x1, %xmm0, 0x180(%r12,%rcx,4)
vextractps $0x2, %xmm0, 0x1a0(%r12,%rcx,4)
vmovss %xmm0, 0x1c0(%r12,%rcx,4)
vmovss %xmm10, 0x1e0(%r12,%rcx,4)
movl $0x0, 0x200(%r12,%rcx,4)
movq 0xf0(%rsp), %rax
movl %eax, 0x220(%r12,%rcx,4)
movq 0x50(%rsp), %rax
movl %eax, 0x240(%r12,%rcx,4)
movq 0x28(%rsp), %r15
movq 0x8(%r15), %rax
movl (%rax), %eax
movl %eax, 0x260(%r12,%rcx,4)
movq 0x8(%r15), %rax
movl 0x4(%rax), %eax
movl %eax, 0x280(%r12,%rcx,4)
jmp 0x1d0ef38
xorl %r13d, %r13d
subq $0x1, %r14
setb %al
testb %r13b, %r13b
jne 0x1d0f20a
testb %al, %al
je 0x1d0e828
jmp 0x1d0f20a
movq %rcx, %r15
jmp 0x1d0ef38
movq 0x28(%rsp), %rcx
movq 0x8(%rcx), %rax
vbroadcastss %xmm10, %ymm1
vbroadcastss 0x203793(%rip), %ymm2 # 0x1f12704
vpermps %ymm0, %ymm2, %ymm2
vbroadcastss 0x211f5d(%rip), %ymm3 # 0x1f20edc
vpermps %ymm0, %ymm3, %ymm3
vbroadcastss %xmm0, %ymm0
vmovaps %ymm2, 0x500(%rsp)
vmovaps %ymm3, 0x520(%rsp)
vmovaps %ymm0, 0x540(%rsp)
vmovaps %ymm1, 0x560(%rsp)
vxorps %xmm0, %xmm0, %xmm0
vmovaps %ymm0, 0x580(%rsp)
vmovaps 0x460(%rsp), %ymm0
vmovaps %ymm0, 0x5a0(%rsp)
vmovdqa 0x480(%rsp), %ymm0
vmovdqa %ymm0, 0x5c0(%rsp)
movq 0x178(%rsp), %rdx
vpcmpeqd %ymm0, %ymm0, %ymm0
vmovdqa %ymm0, 0x20(%rdx)
vmovdqa %ymm0, (%rdx)
vbroadcastss (%rax), %ymm0
vmovaps %ymm0, 0x5e0(%rsp)
vbroadcastss 0x4(%rax), %ymm0
vmovaps %ymm0, 0x600(%rsp)
movq 0x18(%rsp), %rax
vmovss %xmm8, 0x100(%r12,%rax,4)
vmovaps 0x440(%rsp), %ymm0
vmovaps %ymm0, 0x2c0(%rsp)
leaq 0x2c0(%rsp), %rax
movq %rax, 0x110(%rsp)
movq 0x18(%r15), %rax
movq %rax, 0x118(%rsp)
movq 0x8(%rcx), %rax
movq %rax, 0x120(%rsp)
movq %r12, 0x128(%rsp)
leaq 0x500(%rsp), %rax
movq %rax, 0x130(%rsp)
movl $0x8, 0x138(%rsp)
movq 0x40(%r15), %rax
testq %rax, %rax
vmovaps %xmm10, 0x60(%rsp)
vmovaps %xmm8, 0xa0(%rsp)
vmovss %xmm4, 0x80(%rsp)
je 0x1d0f0db
leaq 0x110(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0x80(%rsp), %xmm4
vmovaps 0xa0(%rsp), %xmm8
vmovaps 0x60(%rsp), %xmm10
vmovaps 0x1a0(%rsp), %ymm21
vmovaps 0x1c0(%rsp), %ymm31
vbroadcastss 0x211de9(%rip), %xmm11 # 0x1f20ec4
vmovdqa 0x2c0(%rsp), %ymm0
vptest %ymm0, %ymm0
je 0x1d0f1f1
movq 0x28(%rsp), %rax
movq 0x10(%rax), %rcx
movq 0x10(%rcx), %rax
testq %rax, %rax
je 0x1d0f14b
testb $0x2, (%rcx)
jne 0x1d0f10d
testb $0x40, 0x3e(%r15)
je 0x1d0f14b
leaq 0x110(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0x80(%rsp), %xmm4
vmovaps 0xa0(%rsp), %xmm8
vmovaps 0x60(%rsp), %xmm10
vmovaps 0x1a0(%rsp), %ymm21
vmovaps 0x1c0(%rsp), %ymm31
vbroadcastss 0x211d79(%rip), %xmm11 # 0x1f20ec4
vmovdqa 0x2c0(%rsp), %ymm0
vptest %ymm0, %ymm0
je 0x1d0f1f1
vptestmd %ymm0, %ymm0, %k1
movq 0x128(%rsp), %rax
movq 0x130(%rsp), %rcx
vmovaps (%rcx), %ymm0
vmovups %ymm0, 0x180(%rax) {%k1}
vmovaps 0x20(%rcx), %ymm0
vmovups %ymm0, 0x1a0(%rax) {%k1}
vmovaps 0x40(%rcx), %ymm0
vmovups %ymm0, 0x1c0(%rax) {%k1}
vmovaps 0x60(%rcx), %ymm0
vmovups %ymm0, 0x1e0(%rax) {%k1}
vmovaps 0x80(%rcx), %ymm0
vmovups %ymm0, 0x200(%rax) {%k1}
vmovdqa 0xa0(%rcx), %ymm0
vmovdqu32 %ymm0, 0x220(%rax) {%k1}
vmovdqa 0xc0(%rcx), %ymm0
vmovdqu32 %ymm0, 0x240(%rax) {%k1}
vmovdqa 0xe0(%rcx), %ymm0
vmovdqa32 %ymm0, 0x260(%rax) {%k1}
vmovdqa 0x100(%rcx), %ymm0
vmovdqa32 %ymm0, 0x280(%rax) {%k1}
jmp 0x1d0f200
movq 0x18(%rsp), %rax
vmovss %xmm4, 0x100(%r12,%rax,4)
movq 0x28(%rsp), %r15
jmp 0x1d0ef38
movq 0x18(%rsp), %rax
vmovaps 0x3e0(%rsp), %ymm0
vcmpleps 0x100(%r12,%rax,4){1to8}, %ymm0, %k0
kmovd %k0, %eax
andb %al, %bl
jne 0x1d0e744
vmovaps 0x3c0(%rsp), %ymm0
vaddps 0x380(%rsp), %ymm0, %ymm0
movq 0x18(%rsp), %rax
vcmpleps 0x100(%r12,%rax,4){1to8}, %ymm0, %k0
kmovd 0x104(%rsp), %k1
kmovd 0xfc(%rsp), %k2
korb %k2, %k1, %k1
kmovd %k0, %eax
movl 0x34(%rsp), %ecx
andb %al, %cl
vpbroadcastd 0x211c64(%rip), %ymm0 # 0x1f20edc
vpblendmd 0x211c56(%rip){1to8}, %ymm0, %ymm0 {%k1} # 0x1f20ed8
vmovdqa %ymm0, 0x3c0(%rsp)
vpcmpled 0x4a0(%rsp), %ymm0, %k0
kmovd %k0, %ebx
movl %ecx, 0x34(%rsp)
andb %cl, %bl
je 0x1d0fe14
vmovaps 0x620(%rsp), %ymm5
vmovaps 0x2a0(%rsp), %ymm1
vmovaps 0x260(%rsp), %ymm2
vminps %xmm2, %xmm1, %xmm0
vmaxps %xmm2, %xmm1, %xmm1
vmovaps 0x280(%rsp), %ymm3
vmovaps 0x240(%rsp), %ymm4
vminps %xmm4, %xmm3, %xmm2
vminps %xmm2, %xmm0, %xmm0
vmaxps %xmm4, %xmm3, %xmm2
vmaxps %xmm2, %xmm1, %xmm1
vandps %xmm0, %xmm11, %xmm0
vandps %xmm1, %xmm11, %xmm2
vmaxps %xmm2, %xmm0, %xmm0
vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3]
vmaxss %xmm0, %xmm2, %xmm2
vshufpd $0x1, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[1,0]
vmaxss %xmm2, %xmm0, %xmm0
vmulss 0x1e2ba6(%rip), %xmm0, %xmm0 # 0x1ef1eb4
vmovss %xmm0, 0x44(%rsp)
vshufps $0xff, %xmm1, %xmm1, %xmm0 # xmm0 = xmm1[3,3,3,3]
vmovaps %xmm0, 0x2f0(%rsp)
vmovaps %ymm5, 0x360(%rsp)
vaddps 0x380(%rsp), %ymm5, %ymm0
vmovaps %ymm0, 0x3e0(%rsp)
kmovd %ebx, %k1
vbroadcastss 0x1dc6d6(%rip), %ymm0 # 0x1eeba20
vblendmps 0x360(%rsp), %ymm0, %ymm0 {%k1}
vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm0, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1]
vminps %ymm2, %ymm1, %ymm1
vcmpeqps %ymm1, %ymm0, %k0
kmovd %k0, %eax
andb %bl, %al
movzbl %al, %eax
movzbl %bl, %ecx
cmovnel %eax, %ecx
tzcntl %ecx, %ecx
movb $0x1, %bl
shlb %cl, %bl
shll $0x2, %ecx
vmovss 0x400(%rsp,%rcx), %xmm10
vmovss 0x640(%rsp,%rcx), %xmm9
vmovaps 0x220(%rsp), %xmm0
vucomiss 0x1dc672(%rip), %xmm0 # 0x1eeba24
vmovss 0x10c(%rsp), %xmm0
jae 0x1d0f3fe
vmovaps 0x220(%rsp), %xmm0
vmovaps %xmm10, 0x60(%rsp)
vmovaps %xmm9, 0xa0(%rsp)
kmovw %k1, 0x80(%rsp)
vzeroupper
callq 0x6aa20
kmovw 0x80(%rsp), %k1
vmovaps 0xa0(%rsp), %xmm9
vmovaps 0x60(%rsp), %xmm10
movzbl %bl, %eax
kmovd %eax, %k0
kandnb %k1, %k0, %k0
kmovd %k0, %ebx
vmulss 0x1e2a9f(%rip), %xmm0, %xmm0 # 0x1ef1eb4
vmovss %xmm0, 0x48(%rsp)
movl $0x4, %r14d
vmovaps %xmm9, 0xa0(%rsp)
vbroadcastss %xmm9, %xmm0
vxorps %xmm1, %xmm1, %xmm1
vfmadd132ps 0x230(%rsp), %xmm1, %xmm0 # xmm0 = (xmm0 * mem) + xmm1
vmovss 0x1dd2cf(%rip), %xmm1 # 0x1eec714
vsubss %xmm10, %xmm1, %xmm4
vmulss %xmm4, %xmm4, %xmm1
vmulss %xmm1, %xmm4, %xmm1
vmulss %xmm10, %xmm10, %xmm11
vmulss %xmm11, %xmm10, %xmm2
vmovss 0x1dd728(%rip), %xmm7 # 0x1eecb8c
vmovaps %xmm7, %xmm3
vfmadd213ss %xmm2, %xmm1, %xmm3 # xmm3 = (xmm1 * xmm3) + xmm2
vmulss %xmm4, %xmm10, %xmm12
vmovaps %xmm4, 0x80(%rsp)
vmulss %xmm4, %xmm12, %xmm4
vmulss %xmm12, %xmm10, %xmm5
vmovss 0x1e1b69(%rip), %xmm8 # 0x1ef0ff4
vmulss %xmm5, %xmm8, %xmm6
vmovss 0x1e1b65(%rip), %xmm9 # 0x1ef0ffc
vfmadd231ss %xmm9, %xmm4, %xmm6 # xmm6 = (xmm4 * xmm9) + xmm6
vaddss %xmm6, %xmm3, %xmm3
vmovaps %xmm7, %xmm6
vfmadd213ss %xmm1, %xmm2, %xmm6 # xmm6 = (xmm2 * xmm6) + xmm1
vmulss %xmm4, %xmm8, %xmm4
vfmadd231ss %xmm5, %xmm9, %xmm4 # xmm4 = (xmm9 * xmm5) + xmm4
vaddss %xmm4, %xmm6, %xmm4
vmovss 0x1e1b42(%rip), %xmm5 # 0x1ef1000
vmulss %xmm5, %xmm1, %xmm1
vmulss %xmm5, %xmm3, %xmm3
vmulss %xmm5, %xmm4, %xmm4
vmulss %xmm5, %xmm2, %xmm2
vbroadcastss %xmm2, %xmm2
vmulps 0x240(%rsp), %xmm2, %xmm2
vbroadcastss %xmm4, %xmm4
vfmadd132ps 0x280(%rsp), %xmm2, %xmm4 # xmm4 = (xmm4 * mem) + xmm2
vbroadcastss %xmm3, %xmm2
vfmadd132ps 0x260(%rsp), %xmm4, %xmm2 # xmm2 = (xmm2 * mem) + xmm4
vbroadcastss %xmm1, %xmm1
vfmadd132ps 0x2a0(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2
vmovaps %xmm1, 0x3a0(%rsp)
vsubps %xmm1, %xmm0, %xmm0
vmovaps %xmm0, 0x200(%rsp)
vdpps $0x7f, %xmm0, %xmm0, %xmm0
vucomiss 0x1dc4f7(%rip), %xmm0 # 0x1eeba24
vmovaps %xmm10, 0x60(%rsp)
vmovaps %xmm0, 0x1e0(%rsp)
jb 0x1d0f544
vsqrtss %xmm0, %xmm0, %xmm7
jmp 0x1d0f574
vmovss %xmm11, 0x140(%rsp)
vmovss %xmm12, 0x20(%rsp)
vzeroupper
callq 0x6aa20
vmovss 0x20(%rsp), %xmm12
vmovss 0x140(%rsp), %xmm11
vmovaps 0x60(%rsp), %xmm10
vmovaps %xmm0, %xmm7
vmovaps 0x80(%rsp), %xmm3
vbroadcastss %xmm3, %xmm1
vbroadcastss 0x211935(%rip), %xmm4 # 0x1f20ec0
vmovaps %xmm1, 0x350(%rsp)
vxorps %xmm4, %xmm1, %xmm0
vmulss %xmm0, %xmm3, %xmm0
vmulss 0x1dd5e8(%rip), %xmm12, %xmm1 # 0x1eecb8c
vmovaps %xmm10, %xmm2
vfnmsub213ss %xmm1, %xmm10, %xmm2 # xmm2 = -(xmm10 * xmm2) - xmm1
vfmadd231ss %xmm3, %xmm3, %xmm1 # xmm1 = (xmm3 * xmm3) + xmm1
vmovss 0x1dd5c6(%rip), %xmm3 # 0x1eecb80
vmulss %xmm3, %xmm0, %xmm0
vmulss %xmm3, %xmm2, %xmm2
vmulss %xmm3, %xmm1, %xmm1
vmulss %xmm3, %xmm11, %xmm3
vbroadcastss %xmm3, %xmm3
vmulps 0x240(%rsp), %xmm3, %xmm3
vbroadcastss %xmm1, %xmm1
vfmadd132ps 0x280(%rsp), %xmm3, %xmm1 # xmm1 = (xmm1 * mem) + xmm3
vbroadcastss %xmm2, %xmm2
vfmadd132ps 0x260(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1
vbroadcastss %xmm0, %xmm13
vfmadd132ps 0x2a0(%rsp), %xmm2, %xmm13 # xmm13 = (xmm13 * mem) + xmm2
vdpps $0x7f, %xmm13, %xmm13, %xmm0
vxorps %xmm1, %xmm1, %xmm1
vmovss %xmm0, %xmm1, %xmm2 # xmm2 = xmm0[0],xmm1[1,2,3]
vrsqrt14ss %xmm2, %xmm1, %xmm3
vmulss 0x1dd0f7(%rip), %xmm3, %xmm5 # 0x1eec718
vmulss 0x1dd0f3(%rip), %xmm0, %xmm6 # 0x1eec71c
vrcp14ss %xmm2, %xmm1, %xmm2
vxorps %xmm4, %xmm0, %xmm1
vmovaps %xmm2, 0x330(%rsp)
vfnmadd213ss 0x1e19b3(%rip), %xmm0, %xmm2 # xmm2 = -(xmm0 * xmm2) + mem
vmovss %xmm2, 0x4c(%rsp)
vucomiss %xmm1, %xmm0
vmovaps %xmm13, 0x140(%rsp)
vmovss %xmm7, 0x20(%rsp)
vmovaps %xmm0, 0x340(%rsp)
jb 0x1d0f671
vsqrtss %xmm0, %xmm0, %xmm16
jmp 0x1d0f6be
vmovaps %xmm3, 0xe0(%rsp)
vmovss %xmm5, 0x24(%rsp)
vmovss %xmm6, 0xd0(%rsp)
vzeroupper
callq 0x6aa20
vmovss 0xd0(%rsp), %xmm6
vmovss 0x24(%rsp), %xmm5
vmovaps 0xe0(%rsp), %xmm3
vmovss 0x20(%rsp), %xmm7
vmovaps 0x140(%rsp), %xmm13
vmovaps %xmm0, %xmm16
vmovaps 0x200(%rsp), %xmm11
vmovaps 0x1e0(%rsp), %xmm19
vmulss %xmm3, %xmm6, %xmm0
vmulss %xmm3, %xmm3, %xmm1
vmulss %xmm1, %xmm0, %xmm0
vaddss %xmm0, %xmm5, %xmm0
vbroadcastss %xmm0, %xmm4
vmulps %xmm4, %xmm13, %xmm0
vmovaps %xmm0, 0xe0(%rsp)
vdpps $0x7f, %xmm0, %xmm11, %xmm15
vaddss 0x1dd015(%rip), %xmm7, %xmm14 # 0x1eec714
vmulps %xmm15, %xmm15, %xmm0
vsubps %xmm0, %xmm19, %xmm0
vxorps %xmm2, %xmm2, %xmm2
vmovss %xmm0, %xmm2, %xmm1 # xmm1 = xmm0[0],xmm2[1,2,3]
vrsqrt14ss %xmm1, %xmm2, %xmm18
vmulss 0x1dcff6(%rip), %xmm18, %xmm17 # 0x1eec718
vmulss 0x1dcff0(%rip), %xmm0, %xmm20 # 0x1eec71c
vucomiss 0x1dc2f0(%rip), %xmm0 # 0x1eeba24
jb 0x1d0f73f
vsqrtss %xmm0, %xmm0, %xmm0
jmp 0x1d0f7d7
vmovss %xmm14, 0x24(%rsp)
vmovaps %xmm15, 0xd0(%rsp)
vmovss %xmm16, 0x40(%rsp)
vmovss %xmm17, 0x3c(%rsp)
vmovaps %xmm18, 0x320(%rsp)
vmovss %xmm20, 0x38(%rsp)
vmovaps %xmm4, 0x310(%rsp)
vzeroupper
callq 0x6aa20
vmovaps 0x310(%rsp), %xmm4
vmovss 0x38(%rsp), %xmm20
vmovaps 0x320(%rsp), %xmm18
vmovss 0x3c(%rsp), %xmm17
vmovss 0x40(%rsp), %xmm16
vmovaps 0xd0(%rsp), %xmm15
vmovss 0x24(%rsp), %xmm14
vmovss 0x20(%rsp), %xmm7
vmovaps 0x140(%rsp), %xmm13
vmovaps 0x1e0(%rsp), %xmm19
vmovaps 0x200(%rsp), %xmm11
vbroadcastss 0x2116e4(%rip), %xmm8 # 0x1f20ec4
vmovaps 0x1c0(%rsp), %ymm31
vmovaps 0x1a0(%rsp), %ymm21
vmovaps 0x60(%rsp), %xmm10
vmovaps 0xa0(%rsp), %xmm9
vmovss 0x1e11d5(%rip), %xmm2 # 0x1ef09dc
vmovaps %xmm2, %xmm1
vmovaps 0x80(%rsp), %xmm3
vfmadd213ss %xmm10, %xmm3, %xmm1 # xmm1 = (xmm3 * xmm1) + xmm10
vfmadd231ss %xmm2, %xmm10, %xmm3 # xmm3 = (xmm10 * xmm2) + xmm3
vbroadcastss %xmm10, %xmm2
vmulps 0x240(%rsp), %xmm2, %xmm2
vbroadcastss %xmm3, %xmm3
vfmadd132ps 0x280(%rsp), %xmm2, %xmm3 # xmm3 = (xmm3 * mem) + xmm2
vbroadcastss %xmm1, %xmm1
vfmadd132ps 0x260(%rsp), %xmm3, %xmm1 # xmm1 = (xmm1 * mem) + xmm3
vmovaps 0x350(%rsp), %xmm2
vfmadd132ps 0x2a0(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1
vbroadcastss 0x340(%rsp), %xmm1
vmulps %xmm1, %xmm2, %xmm1
vdpps $0x7f, %xmm2, %xmm13, %xmm2
vbroadcastss %xmm2, %xmm2
vmulps %xmm2, %xmm13, %xmm2
vsubps %xmm2, %xmm1, %xmm1
vmovss 0x4c(%rsp), %xmm2
vmulss 0x330(%rsp), %xmm2, %xmm2
vmulss 0x48(%rsp), %xmm9, %xmm3
vbroadcastss %xmm2, %xmm2
vmulps %xmm2, %xmm1, %xmm1
vxorps 0x21161a(%rip){1to4}, %xmm13, %xmm2 # 0x1f20ec0
vmulps %xmm1, %xmm4, %xmm4
vmovaps 0xe0(%rsp), %xmm12
vdpps $0x7f, %xmm12, %xmm2, %xmm5
vmovss 0x44(%rsp), %xmm6
vmaxss %xmm3, %xmm6, %xmm1
vdivss %xmm16, %xmm6, %xmm3
vdpps $0x7f, %xmm4, %xmm11, %xmm4
vfmadd213ss %xmm1, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm7) + xmm1
vfmadd213ss %xmm7, %xmm3, %xmm14 # xmm14 = (xmm3 * xmm14) + xmm7
vmovaps 0x230(%rsp), %xmm7
vdpps $0x7f, %xmm12, %xmm7, %xmm3
vaddss %xmm4, %xmm5, %xmm4
vdpps $0x7f, %xmm2, %xmm11, %xmm5
vmulss %xmm18, %xmm20, %xmm2
vmulss %xmm18, %xmm18, %xmm6
vmulss %xmm6, %xmm2, %xmm2
vdpps $0x7f, %xmm7, %xmm11, %xmm6
vaddss %xmm2, %xmm17, %xmm7
vfnmadd231ss %xmm4, %xmm15, %xmm5 # xmm5 = -(xmm15 * xmm4) + xmm5
vfnmadd231ss %xmm3, %xmm15, %xmm6 # xmm6 = -(xmm15 * xmm3) + xmm6
vpermilps $0xff, 0x3a0(%rsp), %xmm2 # xmm2 = mem[3,3,3,3]
vsubss %xmm2, %xmm0, %xmm2
vshufps $0xff, %xmm13, %xmm13, %xmm0 # xmm0 = xmm13[3,3,3,3]
vfmsub213ss %xmm0, %xmm7, %xmm5 # xmm5 = (xmm7 * xmm5) - xmm0
vmulss %xmm7, %xmm6, %xmm6
vmulss %xmm5, %xmm3, %xmm7
vfmsub231ss %xmm6, %xmm4, %xmm7 # xmm7 = (xmm4 * xmm6) - xmm7
vdivss %xmm7, %xmm6, %xmm6
vdivss %xmm7, %xmm5, %xmm5
vdivss %xmm7, %xmm3, %xmm3
vdivss %xmm7, %xmm4, %xmm4
vmulss %xmm6, %xmm15, %xmm6
vmulss %xmm3, %xmm2, %xmm3
vsubss %xmm3, %xmm6, %xmm3
vmulss %xmm5, %xmm15, %xmm5
vmulss %xmm4, %xmm2, %xmm4
vsubss %xmm5, %xmm4, %xmm4
vsubss %xmm3, %xmm10, %xmm10
vsubss %xmm4, %xmm9, %xmm9
vandps %xmm8, %xmm15, %xmm3
vucomiss %xmm3, %xmm14
jbe 0x1d0fb2e
vaddss %xmm1, %xmm14, %xmm1
vmovaps 0x2f0(%rsp), %xmm3
vfmadd231ss 0x1e2520(%rip), %xmm3, %xmm1 # xmm1 = (xmm3 * mem) + xmm1
vandps %xmm2, %xmm8, %xmm2
vucomiss %xmm2, %xmm1
jbe 0x1d0fb2e
vaddss 0x300(%rsp), %xmm9, %xmm9
movb $0x1, %r13b
vucomiss 0x5c(%rsp), %xmm9
jb 0x1d0fb31
movq 0x18(%rsp), %rax
vmovss 0x100(%r12,%rax,4), %xmm4
vucomiss %xmm9, %xmm4
jb 0x1d0fb31
vucomiss 0x1dc048(%rip), %xmm10 # 0x1eeba24
jb 0x1d0fb31
vmovss 0x1dcd2a(%rip), %xmm1 # 0x1eec714
vucomiss %xmm10, %xmm1
jb 0x1d0fb31
vxorps %xmm2, %xmm2, %xmm2
vmovss %xmm19, %xmm2, %xmm1 # xmm1 = xmm19[0],xmm2[1,2,3]
vrsqrt14ss %xmm1, %xmm2, %xmm1
vmulss 0x1dcd0b(%rip), %xmm1, %xmm2 # 0x1eec718
vmulss 0x1dcd05(%rip), %xmm19, %xmm3 # 0x1eec71c
movq (%r15), %rax
movq 0x1e8(%rax), %rax
movq %r15, %rcx
movq 0x50(%rsp), %rdx
movq (%rax,%rdx,8), %r15
movq 0x18(%rsp), %rax
movl 0x120(%r12,%rax,4), %eax
testl %eax, 0x34(%r15)
je 0x1d0fb4e
vmulss %xmm1, %xmm3, %xmm3
vmulss %xmm1, %xmm1, %xmm1
vmulss %xmm1, %xmm3, %xmm1
vaddss %xmm1, %xmm2, %xmm1
vbroadcastss %xmm1, %xmm1
vmulps %xmm1, %xmm11, %xmm1
vfmadd213ps %xmm13, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm0) + xmm13
vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm13, %xmm13, %xmm3 # xmm3 = xmm13[1,2,0,3]
vmulps %xmm3, %xmm1, %xmm1
vfmsub231ps %xmm2, %xmm13, %xmm1 # xmm1 = (xmm13 * xmm2) - xmm1
vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3]
vshufps $0xd2, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,0,1,3]
vmulps %xmm1, %xmm0, %xmm0
vfmsub231ps %xmm3, %xmm2, %xmm0 # xmm0 = (xmm2 * xmm3) - xmm0
movq 0x10(%rcx), %rax
cmpq $0x0, 0x10(%rax)
jne 0x1d0fb53
cmpq $0x0, 0x40(%r15)
jne 0x1d0fb53
movq 0x18(%rsp), %rcx
vmovss %xmm9, 0x100(%r12,%rcx,4)
vextractps $0x1, %xmm0, 0x180(%r12,%rcx,4)
vextractps $0x2, %xmm0, 0x1a0(%r12,%rcx,4)
vmovss %xmm0, 0x1c0(%r12,%rcx,4)
vmovss %xmm10, 0x1e0(%r12,%rcx,4)
movl $0x0, 0x200(%r12,%rcx,4)
movq 0xf0(%rsp), %rax
movl %eax, 0x220(%r12,%rcx,4)
movq 0x50(%rsp), %rax
movl %eax, 0x240(%r12,%rcx,4)
movq 0x28(%rsp), %r15
movq 0x8(%r15), %rax
movl (%rax), %eax
movl %eax, 0x260(%r12,%rcx,4)
movq 0x8(%r15), %rax
movl 0x4(%rax), %eax
movl %eax, 0x280(%r12,%rcx,4)
jmp 0x1d0fb31
xorl %r13d, %r13d
subq $0x1, %r14
setb %al
testb %r13b, %r13b
jne 0x1d0fdf1
testb %al, %al
je 0x1d0f421
jmp 0x1d0fdf1
movq %rcx, %r15
jmp 0x1d0fb31
movq 0x28(%rsp), %rcx
movq 0x8(%rcx), %rax
vbroadcastss %xmm10, %ymm1
vbroadcastss 0x202b9a(%rip), %ymm2 # 0x1f12704
vpermps %ymm0, %ymm2, %ymm2
vbroadcastss 0x211364(%rip), %ymm3 # 0x1f20edc
vpermps %ymm0, %ymm3, %ymm3
vbroadcastss %xmm0, %ymm0
vmovaps %ymm2, 0x500(%rsp)
vmovaps %ymm3, 0x520(%rsp)
vmovaps %ymm0, 0x540(%rsp)
vmovaps %ymm1, 0x560(%rsp)
vxorps %xmm0, %xmm0, %xmm0
vmovaps %ymm0, 0x580(%rsp)
vmovaps 0x460(%rsp), %ymm0
vmovaps %ymm0, 0x5a0(%rsp)
vmovdqa 0x480(%rsp), %ymm0
vmovdqa %ymm0, 0x5c0(%rsp)
movq 0x178(%rsp), %rdx
vpcmpeqd %ymm0, %ymm0, %ymm0
vmovdqa %ymm0, 0x20(%rdx)
vmovdqa %ymm0, (%rdx)
vbroadcastss (%rax), %ymm0
vmovaps %ymm0, 0x5e0(%rsp)
vbroadcastss 0x4(%rax), %ymm0
vmovaps %ymm0, 0x600(%rsp)
movq 0x18(%rsp), %rax
vmovss %xmm9, 0x100(%r12,%rax,4)
vmovaps 0x440(%rsp), %ymm0
vmovaps %ymm0, 0x2c0(%rsp)
leaq 0x2c0(%rsp), %rax
movq %rax, 0x110(%rsp)
movq 0x18(%r15), %rax
movq %rax, 0x118(%rsp)
movq 0x8(%rcx), %rax
movq %rax, 0x120(%rsp)
movq %r12, 0x128(%rsp)
leaq 0x500(%rsp), %rax
movq %rax, 0x130(%rsp)
movl $0x8, 0x138(%rsp)
movq 0x40(%r15), %rax
testq %rax, %rax
vmovaps %xmm10, 0x60(%rsp)
vmovaps %xmm9, 0xa0(%rsp)
vmovss %xmm4, 0x80(%rsp)
je 0x1d0fccb
leaq 0x110(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0x80(%rsp), %xmm4
vmovaps 0xa0(%rsp), %xmm9
vmovaps 0x60(%rsp), %xmm10
vmovaps 0x1a0(%rsp), %ymm21
vmovaps 0x1c0(%rsp), %ymm31
vmovdqa 0x2c0(%rsp), %ymm0
vptest %ymm0, %ymm0
je 0x1d0fdd8
movq 0x28(%rsp), %rax
movq 0x10(%rax), %rcx
movq 0x10(%rcx), %rax
testq %rax, %rax
je 0x1d0fd32
testb $0x2, (%rcx)
jne 0x1d0fcfd
testb $0x40, 0x3e(%r15)
je 0x1d0fd32
leaq 0x110(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0x80(%rsp), %xmm4
vmovaps 0xa0(%rsp), %xmm9
vmovaps 0x60(%rsp), %xmm10
vmovaps 0x1a0(%rsp), %ymm21
vmovaps 0x1c0(%rsp), %ymm31
vmovdqa 0x2c0(%rsp), %ymm0
vptest %ymm0, %ymm0
je 0x1d0fdd8
vptestmd %ymm0, %ymm0, %k1
movq 0x128(%rsp), %rax
movq 0x130(%rsp), %rcx
vmovaps (%rcx), %ymm0
vmovups %ymm0, 0x180(%rax) {%k1}
vmovaps 0x20(%rcx), %ymm0
vmovups %ymm0, 0x1a0(%rax) {%k1}
vmovaps 0x40(%rcx), %ymm0
vmovups %ymm0, 0x1c0(%rax) {%k1}
vmovaps 0x60(%rcx), %ymm0
vmovups %ymm0, 0x1e0(%rax) {%k1}
vmovaps 0x80(%rcx), %ymm0
vmovups %ymm0, 0x200(%rax) {%k1}
vmovdqa 0xa0(%rcx), %ymm0
vmovdqu32 %ymm0, 0x220(%rax) {%k1}
vmovdqa 0xc0(%rcx), %ymm0
vmovdqu32 %ymm0, 0x240(%rax) {%k1}
vmovdqa 0xe0(%rcx), %ymm0
vmovdqa32 %ymm0, 0x260(%rax) {%k1}
vmovdqa 0x100(%rcx), %ymm0
vmovdqa32 %ymm0, 0x280(%rax) {%k1}
jmp 0x1d0fde7
movq 0x18(%rsp), %rax
vmovss %xmm4, 0x100(%r12,%rax,4)
movq 0x28(%rsp), %r15
jmp 0x1d0fb31
movq 0x18(%rsp), %rax
vmovaps 0x3e0(%rsp), %ymm0
vcmpleps 0x100(%r12,%rax,4){1to8}, %ymm0, %k0
kmovd %k0, %eax
andb %al, %bl
jne 0x1d0f33d
vmovdqa 0x4a0(%rsp), %ymm1
vpcmpltd 0x3c0(%rsp), %ymm1, %k1
vmovaps 0x8e0(%rsp), %ymm0
vpcmpltd 0x660(%rsp), %ymm1, %k2
vmovaps 0x380(%rsp), %ymm3
vaddps %ymm0, %ymm3, %ymm1
movq 0x18(%rsp), %rax
vbroadcastss 0x100(%r12,%rax,4), %ymm2
vcmpleps %ymm2, %ymm1, %k0 {%k2}
kmovd %k0, %eax
movl 0x100(%rsp), %ecx
andb %al, %cl
vmovaps 0x620(%rsp), %ymm1
vaddps %ymm1, %ymm3, %ymm3
vcmpleps %ymm2, %ymm3, %k0 {%k1}
kmovd %k0, %eax
movl 0x34(%rsp), %edx
andb %al, %dl
orb %cl, %dl
je 0x1d0ff07
movq 0x190(%rsp), %r9
movl %r9d, %eax
leaq (%rax,%rax,2), %rax
shlq $0x5, %rax
movb %dl, 0x920(%rsp,%rax)
kmovd %ecx, %k1
vmovaps %ymm0, %ymm1 {%k1}
vmovaps %ymm1, 0x940(%rsp,%rax)
vmovaps 0x160(%rsp), %xmm2
vmovlps %xmm2, 0x960(%rsp,%rax)
movq 0x188(%rsp), %r11
leal 0x1(%r11), %ecx
movl %ecx, 0x968(%rsp,%rax)
incl %r9d
movq 0x180(%rsp), %r8
vbroadcastss 0x1dc823(%rip), %ymm16 # 0x1eec714
movq 0x198(%rsp), %r10
jmp 0x1d0ff3a
vbroadcastss 0x1dc80f(%rip), %ymm16 # 0x1eec714
jmp 0x1d0ff31
movq 0x180(%rsp), %r8
vbroadcastss 0x1dc7fb(%rip), %ymm16 # 0x1eec714
movq 0x198(%rsp), %r10
movq 0x190(%rsp), %r9
movq 0x188(%rsp), %r11
vmovaps 0x160(%rsp), %xmm2
movl %r9d, %eax
testl %eax, %eax
je 0x1d1008f
leal -0x1(%rax), %r9d
leaq (%r9,%r9,2), %rcx
shlq $0x5, %rcx
vmovaps 0x940(%rsp,%rcx), %ymm0
movzbl 0x920(%rsp,%rcx), %esi
vaddps 0x380(%rsp), %ymm0, %ymm1
movq 0x18(%rsp), %rdx
vcmpleps 0x100(%r12,%rdx,4){1to8}, %ymm1, %k0
kmovb %k0, %edx
andl %esi, %edx
je 0x1d10032
kmovd %edx, %k1
vbroadcastss 0x1dba8e(%rip), %ymm1 # 0x1eeba20
vblendmps %ymm0, %ymm1, %ymm0 {%k1}
vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm0, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1]
vminps %ymm2, %ymm1, %ymm1
vcmpeqps %ymm1, %ymm0, %k0
kmovd %k0, %esi
andb %dl, %sil
je 0x1d0ffca
movzbl %sil, %edi
jmp 0x1d0ffcd
movzbl %dl, %edi
leaq (%rsp,%rcx), %rsi
addq $0x920, %rsi # imm = 0x920
vmovss 0x44(%rsi), %xmm0
tzcntl %edi, %ecx
movb $0x1, %dil
shlb %cl, %dil
movl 0x48(%rsi), %r11d
movzbl %dil, %edi
kmovd %edi, %k0
kmovd %edx, %k1
kandnb %k1, %k0, %k0
kmovb %k0, (%rsi)
kortestb %k0, %k0
je 0x1d10008
movl %eax, %r9d
vbroadcastss 0x40(%rsi), %ymm1
vsubss %xmm1, %xmm0, %xmm0
vbroadcastss %xmm0, %ymm0
vfmadd132ps 0x210f00(%rip), %ymm1, %ymm0 # ymm0 = (ymm0 * mem) + ymm1
vmovaps %ymm0, 0x500(%rsp)
vmovsd 0x500(%rsp,%rcx,4), %xmm2
movl %r9d, %eax
testb %dl, %dl
je 0x1d0ff3d
jmp 0x1d0db37
vcmpleps 0x210eb3(%rip), %ymm4, %k2 # 0x1f20f00
vbroadcastss 0x1dcb2e(%rip), %ymm4 # 0x1eecb84
vbroadcastss 0x1db9c0(%rip), %ymm16 # 0x1eeba20
vblendmps %ymm4, %ymm16, %ymm3 {%k2}
vmovaps %ymm3, %ymm30 {%k1}
vblendmps %ymm16, %ymm4, %ymm3 {%k2}
kmovd %k2, %ecx
vmovaps %ymm3, %ymm31 {%k1}
knotb %k1, %k0
kmovd %k0, %edx
orb %cl, %dl
andb %al, %dl
movl %edx, %eax
jmp 0x1d0e124
movq 0x18(%rsp), %rax
vmovaps 0x680(%rsp), %ymm0
vcmpleps 0x100(%r12,%rax,4){1to8}, %ymm0, %k0
kmovb %k0, %eax
andl %eax, %r10d
jne 0x1d0d7aa
leaq -0x28(%rbp), %rsp
popq %rbx
popq %r12
popq %r13
popq %r14
popq %r15
popq %rbp
vzeroupper
retq
nop
|
/embree[P]embree/kernels/geometry/curveNi_intersector.h
|
bool embree::avx512::CurveNiIntersectorK<8, 8>::occluded_t<embree::avx512::SweepCurve1IntersectorK<embree::BSplineCurveT, 8>, embree::avx512::Occluded1KEpilog1<8, true>>(embree::avx512::CurvePrecalculationsK<8>&, embree::RayK<8>&, unsigned long, embree::RayQueryContext*, embree::CurveNi<8> const&)
|
static __forceinline bool occluded_t(Precalculations& pre, RayK<K>& ray, const size_t k, RayQueryContext* context, const Primitive& prim)
{
vfloat<M> tNear;
vbool<M> valid = intersect(ray,k,prim,tNear);
const size_t N = prim.N;
size_t mask = movemask(valid);
while (mask)
{
const size_t i = bscf(mask);
STAT3(shadow.trav_prims,1,1,1);
const unsigned int geomID = prim.geomID(N);
const unsigned int primID = prim.primID(N)[i];
const CurveGeometry* geom = context->scene->get<CurveGeometry>(geomID);
Vec3ff a0,a1,a2,a3; geom->gather(a0,a1,a2,a3,geom->curve(primID));
size_t mask1 = mask;
const size_t i1 = bscf(mask1);
if (mask) {
const unsigned int primID1 = prim.primID(N)[i1];
geom->prefetchL1_vertices(geom->curve(primID1));
if (mask1) {
const size_t i2 = bsf(mask1);
const unsigned int primID2 = prim.primID(N)[i2];
geom->prefetchL2_vertices(geom->curve(primID2));
}
}
if (Intersector().intersect(pre,ray,k,context,geom,primID,a0,a1,a2,a3,Epilog(ray,k,context,geomID,primID)))
return true;
mask &= movemask(tNear <= vfloat<M>(ray.tfar[k]));
}
return false;
}
|
pushq %rbp
movq %rsp, %rbp
pushq %r15
pushq %r14
pushq %r13
pushq %r12
pushq %rbx
andq $-0x20, %rsp
subq $0xa40, %rsp # imm = 0xA40
movzbl 0x1(%r8), %eax
leaq (%rax,%rax,4), %r9
leaq (%r9,%r9,4), %rdi
vbroadcastss 0x12(%r8,%rdi), %xmm0
vmovss (%rsi,%rdx,4), %xmm1
vmovss 0x80(%rsi,%rdx,4), %xmm2
vinsertps $0x10, 0x20(%rsi,%rdx,4), %xmm1, %xmm1 # xmm1 = xmm1[0],mem[0],xmm1[2,3]
vinsertps $0x20, 0x40(%rsi,%rdx,4), %xmm1, %xmm1 # xmm1 = xmm1[0,1],mem[0],xmm1[3]
vinsertps $0x10, 0xa0(%rsi,%rdx,4), %xmm2, %xmm2 # xmm2 = xmm2[0],mem[0],xmm2[2,3]
movq %rcx, %r14
vinsertps $0x20, 0xc0(%rsi,%rdx,4), %xmm2, %xmm2 # xmm2 = xmm2[0,1],mem[0],xmm2[3]
vsubps 0x6(%r8,%rdi), %xmm1, %xmm1
vmulps %xmm1, %xmm0, %xmm3
vmulps %xmm2, %xmm0, %xmm0
vpmovsxbd 0x6(%r8,%rax,4), %ymm1
vcvtdq2ps %ymm1, %ymm5
vpmovsxbd 0x6(%r8,%r9), %ymm1
vcvtdq2ps %ymm1, %ymm6
leaq (%rax,%rax,2), %rcx
vpmovsxbd 0x6(%r8,%rcx,2), %ymm1
vcvtdq2ps %ymm1, %ymm2
leaq (%rax,%r9,2), %rdi
vpmovsxbd 0x6(%r8,%rdi), %ymm1
vcvtdq2ps %ymm1, %ymm7
leal (,%rcx,4), %edi
vpmovsxbd 0x6(%r8,%rdi), %ymm1
vcvtdq2ps %ymm1, %ymm8
addq %rax, %rdi
vpmovsxbd 0x6(%r8,%rdi), %ymm1
vcvtdq2ps %ymm1, %ymm9
leaq (%rax,%rax,8), %r10
leal (%r10,%r10), %edi
vpmovsxbd 0x6(%r8,%rdi), %ymm1
addq %rax, %rdi
vpmovsxbd 0x6(%r8,%rdi), %ymm4
vcvtdq2ps %ymm1, %ymm10
vcvtdq2ps %ymm4, %ymm11
shll $0x2, %r9d
vpmovsxbd 0x6(%r8,%r9), %ymm1
vcvtdq2ps %ymm1, %ymm12
vbroadcastss %xmm0, %ymm13
vbroadcastss 0x20253a(%rip), %ymm15 # 0x1f12704
vpermps %ymm0, %ymm15, %ymm14
vbroadcastss 0x210d03(%rip), %ymm16 # 0x1f20edc
vpermps %ymm0, %ymm16, %ymm0
vmulps %ymm2, %ymm0, %ymm4
vmulps %ymm0, %ymm9, %ymm1
vmulps %ymm0, %ymm12, %ymm0
vfmadd231ps %ymm6, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm6) + ymm4
vfmadd231ps %ymm8, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm8) + ymm1
vfmadd231ps %ymm14, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm14) + ymm0
vfmadd231ps %ymm5, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm5) + ymm4
vfmadd231ps %ymm7, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm7) + ymm1
vfmadd231ps %ymm13, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm13) + ymm0
vbroadcastss %xmm3, %ymm13
vpermps %ymm3, %ymm15, %ymm14
vpermps %ymm3, %ymm16, %ymm15
vmulps %ymm2, %ymm15, %ymm16
vmulps %ymm9, %ymm15, %ymm3
vmulps %ymm12, %ymm15, %ymm2
vfmadd231ps %ymm6, %ymm14, %ymm16 # ymm16 = (ymm14 * ymm6) + ymm16
vfmadd231ps %ymm8, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm8) + ymm3
vfmadd231ps %ymm11, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm11) + ymm2
vfmadd231ps %ymm5, %ymm13, %ymm16 # ymm16 = (ymm13 * ymm5) + ymm16
vfmadd231ps %ymm7, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm7) + ymm3
vfmadd231ps %ymm10, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm10) + ymm2
vbroadcastss 0x210c71(%rip), %ymm28 # 0x1f20ec4
vandps %ymm28, %ymm4, %ymm5
vbroadcastss 0x1e0d86(%rip), %ymm6 # 0x1ef0fe8
vcmpltps %ymm6, %ymm5, %k1
vmovaps %ymm6, %ymm4 {%k1}
vandps %ymm28, %ymm1, %ymm5
vcmpltps %ymm6, %ymm5, %k1
vmovaps %ymm6, %ymm1 {%k1}
vandps %ymm28, %ymm0, %ymm5
vcmpltps %ymm6, %ymm5, %k1
vmovaps %ymm6, %ymm0 {%k1}
vrcp14ps %ymm4, %ymm5
vbroadcastss 0x1dc470(%rip), %ymm6 # 0x1eec714
vfnmadd213ps %ymm6, %ymm5, %ymm4 # ymm4 = -(ymm5 * ymm4) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm4 # ymm4 = (ymm4 * ymm5) + ymm5
vrcp14ps %ymm1, %ymm5
vfnmadd213ps %ymm6, %ymm5, %ymm1 # ymm1 = -(ymm5 * ymm1) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm1 # ymm1 = (ymm1 * ymm5) + ymm5
vrcp14ps %ymm0, %ymm5
vfnmadd213ps %ymm6, %ymm5, %ymm0 # ymm0 = -(ymm5 * ymm0) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm0 # ymm0 = (ymm0 * ymm5) + ymm5
leaq (,%rax,8), %rdi
subq %rax, %rdi
vpmovsxwd 0x6(%r8,%rdi), %ymm5
vcvtdq2ps %ymm5, %ymm5
vsubps %ymm16, %ymm5, %ymm5
vpmovsxwd 0x6(%r8,%r10), %ymm6
vmulps %ymm5, %ymm4, %ymm5
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm16, %ymm6, %ymm6
vmulps %ymm6, %ymm4, %ymm4
leaq (%rax,%rax), %r10
addq %rax, %r9
shlq $0x3, %rcx
subq %rax, %rcx
movl %eax, %edi
shll $0x4, %edi
vpmovsxwd 0x6(%r8,%rdi), %ymm6
subq %r10, %rdi
vpmovsxwd 0x6(%r8,%rdi), %ymm7
vcvtdq2ps %ymm7, %ymm7
vsubps %ymm3, %ymm7, %ymm7
vmulps %ymm7, %ymm1, %ymm7
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm3, %ymm6, %ymm3
vmulps %ymm3, %ymm1, %ymm1
vpmovsxwd 0x6(%r8,%r9), %ymm3
vcvtdq2ps %ymm3, %ymm3
vsubps %ymm2, %ymm3, %ymm3
vmulps %ymm0, %ymm3, %ymm3
vpmovsxwd 0x6(%r8,%rcx), %ymm6
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm2, %ymm6, %ymm2
vmulps %ymm2, %ymm0, %ymm0
vpminsd %ymm4, %ymm5, %ymm2
vpminsd %ymm1, %ymm7, %ymm6
vmaxps %ymm6, %ymm2, %ymm2
vpminsd %ymm0, %ymm3, %ymm6
vmaxps 0x60(%rsi,%rdx,4){1to8}, %ymm6, %ymm6
vmaxps %ymm6, %ymm2, %ymm2
vmulps 0x20fb82(%rip){1to8}, %ymm2, %ymm6 # 0x1f1ff10
vpmaxsd %ymm4, %ymm5, %ymm2
vpmaxsd %ymm1, %ymm7, %ymm1
vminps %ymm1, %ymm2, %ymm1
vpmaxsd %ymm0, %ymm3, %ymm0
movq %rsi, 0x20(%rsp)
vminps 0x100(%rsi,%rdx,4){1to8}, %ymm0, %ymm0
vminps %ymm0, %ymm1, %ymm0
vmulps 0x20fb58(%rip){1to8}, %ymm0, %ymm0 # 0x1f1ff14
vpbroadcastd %eax, %ymm1
vpcmpgtd 0x24a554(%rip), %ymm1, %k0 # 0x1f5a920
vmovaps %ymm6, 0x660(%rsp)
vcmpleps %ymm0, %ymm6, %k1
ktestb %k0, %k1
setne %r15b
je 0x1d12b66
kandb %k0, %k1, %k0
kmovd %k0, %eax
movzbl %al, %r12d
leaq 0x4e0(%rsp), %rax
addq $0xe0, %rax
movq %rax, 0x158(%rsp)
movl $0x1, %eax
shlxl %edx, %eax, %eax
kmovd %eax, %k0
vpmovm2d %k0, %ymm0
vmovdqa %ymm0, 0x3e0(%rsp)
movq %rdx, 0x30(%rsp)
movq %r8, 0x160(%rsp)
movq %r14, 0x38(%rsp)
tzcntq %r12, %rax
movl 0x2(%r8), %esi
movl 0x6(%r8,%rax,4), %eax
movq (%r14), %rcx
movq 0x1e8(%rcx), %rcx
movq %rsi, 0xf8(%rsp)
movq (%rcx,%rsi,8), %rdi
movq 0x58(%rdi), %rcx
movq 0x68(%rdi), %r11
movq %r11, %rsi
imulq %rax, %rsi
movl (%rcx,%rsi), %r10d
movq 0xa0(%rdi), %rsi
movq %rsi, %r9
imulq %r10, %r9
movq 0x90(%rdi), %rdi
vmovaps (%rdi,%r9), %xmm1
leaq 0x1(%r10), %r9
imulq %rsi, %r9
vmovaps (%rdi,%r9), %xmm0
leaq 0x2(%r10), %r9
imulq %rsi, %r9
vmovaps (%rdi,%r9), %xmm2
blsrq %r12, %r12
addq $0x3, %r10
imulq %rsi, %r10
vmovaps (%rdi,%r10), %xmm3
movq %r12, %r10
subq $0x1, %r10
jb 0x1d1050d
andq %r12, %r10
tzcntq %r12, %r9
movl 0x6(%r8,%r9,4), %r9d
imulq %r11, %r9
movl (%rcx,%r9), %r9d
imulq %rsi, %r9
prefetcht0 (%rdi,%r9)
prefetcht0 0x40(%rdi,%r9)
testq %r10, %r10
je 0x1d1050d
tzcntq %r10, %r9
movl 0x6(%r8,%r9,4), %r9d
imulq %r9, %r11
movl (%rcx,%r11), %ecx
imulq %rcx, %rsi
prefetcht1 (%rdi,%rsi)
prefetcht1 0x40(%rdi,%rsi)
movq 0x20(%rsp), %rcx
vmovss (%rcx,%rdx,4), %xmm4
vinsertps $0x1c, 0x20(%rcx,%rdx,4), %xmm4, %xmm4 # xmm4 = xmm4[0],mem[0],zero,zero
vinsertps $0x28, 0x40(%rcx,%rdx,4), %xmm4, %xmm4 # xmm4 = xmm4[0,1],mem[0],zero
vbroadcastss 0x80(%rcx,%rdx,4), %ymm12
vbroadcastss 0xa0(%rcx,%rdx,4), %ymm13
vunpcklps %xmm13, %xmm12, %xmm5 # xmm5 = xmm12[0],xmm13[0],xmm12[1],xmm13[1]
vbroadcastss 0xc0(%rcx,%rdx,4), %ymm14
vinsertps $0x28, %xmm14, %xmm5, %xmm9 # xmm9 = xmm5[0,1],xmm14[0],zero
vaddps %xmm0, %xmm1, %xmm5
vaddps %xmm2, %xmm5, %xmm5
vaddps %xmm3, %xmm5, %xmm5
vmulps 0x20cd96(%rip){1to4}, %xmm5, %xmm5 # 0x1f1d2fc
vsubps %xmm4, %xmm5, %xmm5
vdpps $0x7f, %xmm9, %xmm5, %xmm5
vmovss 0x60(%rcx,%rdx,4), %xmm10
vdpps $0x7f, %xmm9, %xmm9, %xmm11
vxorps %xmm8, %xmm8, %xmm8
vmovss %xmm11, %xmm8, %xmm6
vrcp14ss %xmm6, %xmm8, %xmm6
vmovaps %xmm6, %xmm7
vfnmadd213ss 0x1e0a60(%rip), %xmm11, %xmm7 # xmm7 = -(xmm11 * xmm7) + mem
vmulss %xmm7, %xmm6, %xmm6
vmulss %xmm6, %xmm5, %xmm5
vbroadcastss %xmm5, %ymm6
vmovaps %xmm9, 0x1f0(%rsp)
vmovaps %ymm6, 0x340(%rsp)
vfmadd231ps %xmm6, %xmm9, %xmm4 # xmm4 = (xmm9 * xmm6) + xmm4
vblendps $0x8, %xmm8, %xmm4, %xmm4 # xmm4 = xmm4[0,1,2],xmm8[3]
vsubps %xmm4, %xmm1, %xmm6
vsubps %xmm4, %xmm2, %xmm7
vsubps %xmm4, %xmm0, %xmm8
vsubps %xmm4, %xmm3, %xmm3
vbroadcastss %xmm6, %ymm16
vbroadcastss 0x202123(%rip), %ymm0 # 0x1f12704
vpermps %ymm6, %ymm0, %ymm17
vbroadcastss 0x2108ec(%rip), %ymm1 # 0x1f20edc
vpermps %ymm6, %ymm1, %ymm18
vbroadcastss 0x2108d9(%rip), %ymm2 # 0x1f20ed8
vmovaps %ymm6, 0x260(%rsp)
vpermps %ymm6, %ymm2, %ymm19
vbroadcastss %xmm8, %ymm20
vpermps %ymm8, %ymm0, %ymm22
vpermps %ymm8, %ymm1, %ymm23
vmovaps %ymm8, 0x220(%rsp)
vpermps %ymm8, %ymm2, %ymm24
vbroadcastss %xmm7, %ymm25
vpermps %ymm7, %ymm0, %ymm27
vpermps %ymm7, %ymm1, %ymm29
vmovaps %ymm7, 0x240(%rsp)
vpermps %ymm7, %ymm2, %ymm31
vbroadcastss %xmm3, %ymm21
vpermps %ymm3, %ymm0, %ymm0
vmovaps %ymm0, 0x8a0(%rsp)
vpermps %ymm3, %ymm1, %ymm30
vmovaps %ymm3, 0x200(%rsp)
vpermps %ymm3, %ymm2, %ymm6
vmovaps %ymm14, 0x480(%rsp)
vmulss %xmm14, %xmm14, %xmm0
vmovaps %ymm13, 0x4a0(%rsp)
vfmadd231ps %ymm13, %ymm13, %ymm0 # ymm0 = (ymm13 * ymm13) + ymm0
vmovaps %ymm12, 0x4c0(%rsp)
vfmadd231ps %ymm12, %ymm12, %ymm0 # ymm0 = (ymm12 * ymm12) + ymm0
vbroadcastss %xmm0, %ymm1
vandps %ymm28, %ymm1, %ymm0
vmovaps %ymm0, 0x460(%rsp)
vmovss %xmm10, 0x5c(%rsp)
vmovaps %xmm5, 0x2b0(%rsp)
vsubss %xmm5, %xmm10, %xmm0
vbroadcastss %xmm0, %ymm0
vmovaps %ymm0, 0x860(%rsp)
vpbroadcastd %eax, %ymm0
vmovdqa %ymm0, 0x420(%rsp)
movl $0x1, %eax
movq %rax, 0x100(%rsp)
xorl %ebx, %ebx
xorl %r13d, %r13d
movq 0xf8(%rsp), %rax
vpbroadcastd %eax, %ymm0
vmovdqa %ymm0, 0x400(%rsp)
vsqrtss %xmm11, %xmm11, %xmm0
vmovss %xmm0, 0x11c(%rsp)
vmovaps %xmm11, 0x1e0(%rsp)
vsqrtss %xmm11, %xmm11, %xmm0
vmovss %xmm0, 0x118(%rsp)
vmovsd 0x1dbfb4(%rip), %xmm2 # 0x1eec6f0
vbroadcastss 0x1dbfcf(%rip), %ymm3 # 0x1eec714
vmovaps %ymm1, 0x880(%rsp)
vmovaps %ymm16, 0x840(%rsp)
vmovaps %ymm17, 0x820(%rsp)
vmovaps %ymm18, 0x800(%rsp)
vmovaps %ymm19, 0x7e0(%rsp)
vmovaps %ymm20, 0x7c0(%rsp)
vmovaps %ymm22, 0x7a0(%rsp)
vmovaps %ymm23, 0x780(%rsp)
vmovaps %ymm24, 0x760(%rsp)
vmovaps %ymm25, 0x740(%rsp)
vmovaps %ymm27, 0x720(%rsp)
vmovaps %ymm29, 0x700(%rsp)
vmovaps %ymm31, 0x6e0(%rsp)
vmovaps %ymm21, 0x6c0(%rsp)
vmovaps %ymm30, 0x6a0(%rsp)
vmovaps %ymm6, 0x680(%rsp)
vmovshdup %xmm2, %xmm0 # xmm0 = xmm2[1,1,3,3]
vsubss %xmm2, %xmm0, %xmm0
vmulss 0x2106f9(%rip), %xmm0, %xmm1 # 0x1f20ed0
vmovaps %xmm1, 0x80(%rsp)
vmovaps %xmm2, 0x140(%rsp)
vbroadcastss %xmm2, %ymm4
vbroadcastss %xmm0, %ymm0
vmovaps %ymm4, 0x60(%rsp)
vmovaps %ymm0, 0x1c0(%rsp)
vfmadd231ps 0x210715(%rip), %ymm0, %ymm4 # ymm4 = (ymm0 * mem) + ymm4
vsubps %ymm4, %ymm3, %ymm7
vmulps %ymm7, %ymm7, %ymm8
vmulps %ymm7, %ymm8, %ymm0
vbroadcastss 0x1dc36b(%rip), %ymm28 # 0x1eecb8c
vmulps %ymm28, %ymm0, %ymm1
vmulps %ymm4, %ymm4, %ymm9
vmulps %ymm4, %ymm9, %ymm2
vaddps %ymm1, %ymm2, %ymm1
vmulps %ymm7, %ymm4, %ymm10
vmulps %ymm7, %ymm10, %ymm5
vbroadcastss 0x1e07b8(%rip), %ymm14 # 0x1ef0ffc
vmulps %ymm5, %ymm14, %ymm11
vmulps %ymm4, %ymm10, %ymm12
vbroadcastss 0x1e079f(%rip), %ymm15 # 0x1ef0ff4
vmulps %ymm15, %ymm12, %ymm13
vaddps %ymm13, %ymm11, %ymm11
vaddps %ymm1, %ymm11, %ymm1
vmulps %ymm28, %ymm2, %ymm11
vaddps %ymm0, %ymm11, %ymm11
vmulps %ymm14, %ymm12, %ymm12
vmulps %ymm5, %ymm15, %ymm5
vaddps %ymm5, %ymm12, %ymm5
vaddps %ymm5, %ymm11, %ymm5
vbroadcastss 0x1e0779(%rip), %ymm14 # 0x1ef1000
vmulps %ymm0, %ymm14, %ymm11
vmulps %ymm1, %ymm14, %ymm12
vmulps %ymm5, %ymm14, %ymm13
vmulps %ymm2, %ymm14, %ymm5
vmulps %ymm5, %ymm21, %ymm2
vmovaps 0x8a0(%rsp), %ymm0
vmulps %ymm5, %ymm0, %ymm1
vmulps %ymm5, %ymm30, %ymm3
vmulps %ymm5, %ymm6, %ymm5
vfmadd231ps %ymm25, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm25) + ymm2
vfmadd231ps %ymm27, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm27) + ymm1
vfmadd231ps %ymm29, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm29) + ymm3
vfmadd231ps %ymm13, %ymm31, %ymm5 # ymm5 = (ymm31 * ymm13) + ymm5
vfmadd231ps %ymm20, %ymm12, %ymm2 # ymm2 = (ymm12 * ymm20) + ymm2
vfmadd231ps %ymm22, %ymm12, %ymm1 # ymm1 = (ymm12 * ymm22) + ymm1
vfmadd231ps %ymm23, %ymm12, %ymm3 # ymm3 = (ymm12 * ymm23) + ymm3
vfmadd231ps %ymm12, %ymm24, %ymm5 # ymm5 = (ymm24 * ymm12) + ymm5
vfmadd231ps %ymm16, %ymm11, %ymm2 # ymm2 = (ymm11 * ymm16) + ymm2
vfmadd231ps %ymm17, %ymm11, %ymm1 # ymm1 = (ymm11 * ymm17) + ymm1
vfmadd231ps %ymm18, %ymm11, %ymm3 # ymm3 = (ymm11 * ymm18) + ymm3
vfmadd231ps %ymm11, %ymm19, %ymm5 # ymm5 = (ymm19 * ymm11) + ymm5
vbroadcastss 0x2105ba(%rip), %ymm26 # 0x1f20ec0
vxorps %ymm26, %ymm7, %ymm11
vmulps %ymm7, %ymm11, %ymm7
vxorps %ymm26, %ymm4, %ymm11
vmulps %ymm4, %ymm11, %ymm4
vmulps %ymm28, %ymm10, %ymm10
vsubps %ymm10, %ymm4, %ymm4
vaddps %ymm10, %ymm8, %ymm8
vbroadcastss 0x1dc24d(%rip), %ymm10 # 0x1eecb80
vmulps %ymm7, %ymm10, %ymm7
vmulps %ymm4, %ymm10, %ymm4
vmulps %ymm10, %ymm8, %ymm8
vmulps %ymm10, %ymm9, %ymm9
vmulps %ymm9, %ymm21, %ymm10
vmulps %ymm0, %ymm9, %ymm12
vmulps %ymm9, %ymm30, %ymm13
vmulps %ymm6, %ymm9, %ymm9
vfmadd231ps %ymm25, %ymm8, %ymm10 # ymm10 = (ymm8 * ymm25) + ymm10
vfmadd231ps %ymm27, %ymm8, %ymm12 # ymm12 = (ymm8 * ymm27) + ymm12
vfmadd231ps %ymm29, %ymm8, %ymm13 # ymm13 = (ymm8 * ymm29) + ymm13
vfmadd231ps %ymm8, %ymm31, %ymm9 # ymm9 = (ymm31 * ymm8) + ymm9
vfmadd231ps %ymm20, %ymm4, %ymm10 # ymm10 = (ymm4 * ymm20) + ymm10
vfmadd231ps %ymm22, %ymm4, %ymm12 # ymm12 = (ymm4 * ymm22) + ymm12
vfmadd231ps %ymm23, %ymm4, %ymm13 # ymm13 = (ymm4 * ymm23) + ymm13
vfmadd231ps %ymm4, %ymm24, %ymm9 # ymm9 = (ymm24 * ymm4) + ymm9
vfmadd231ps %ymm16, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm16) + ymm10
vfmadd231ps %ymm17, %ymm7, %ymm12 # ymm12 = (ymm7 * ymm17) + ymm12
vfmadd231ps %ymm18, %ymm7, %ymm13 # ymm13 = (ymm7 * ymm18) + ymm13
vfmadd231ps %ymm7, %ymm19, %ymm9 # ymm9 = (ymm19 * ymm7) + ymm9
vbroadcastss 0x80(%rsp), %ymm4
vmulps %ymm4, %ymm10, %ymm11
vmulps %ymm4, %ymm12, %ymm12
vmulps %ymm4, %ymm13, %ymm13
vmulps %ymm4, %ymm9, %ymm6
vmovaps %ymm2, %ymm8
vmovaps 0x24f359(%rip), %ymm7 # 0x1f5fd20
vxorps %xmm31, %xmm31, %xmm31
vpermt2ps %ymm31, %ymm7, %ymm8
vmovaps %ymm1, %ymm9
vpermt2ps %ymm31, %ymm7, %ymm9
vmovaps %ymm3, %ymm10
vpermt2ps %ymm31, %ymm7, %ymm10
vaddps %ymm5, %ymm6, %ymm4
vmaxps %ymm4, %ymm5, %ymm14
vminps %ymm4, %ymm5, %ymm4
vmovaps %ymm5, %ymm15
vpermt2ps %ymm31, %ymm7, %ymm15
vmovaps %ymm11, %ymm19
vpermt2ps %ymm31, %ymm7, %ymm19
vmovaps %ymm12, %ymm20
vpermt2ps %ymm31, %ymm7, %ymm20
vmovaps %ymm13, %ymm0
vpermt2ps %ymm31, %ymm7, %ymm0
vpermt2ps %ymm31, %ymm7, %ymm6
vsubps %ymm6, %ymm15, %ymm16
vsubps %ymm2, %ymm8, %ymm7
vsubps %ymm1, %ymm9, %ymm6
vsubps %ymm3, %ymm10, %ymm5
vmulps %ymm13, %ymm6, %ymm17
vfmsub231ps %ymm5, %ymm12, %ymm17 # ymm17 = (ymm12 * ymm5) - ymm17
vmulps %ymm11, %ymm5, %ymm18
vfmsub231ps %ymm7, %ymm13, %ymm18 # ymm18 = (ymm13 * ymm7) - ymm18
vmulps %ymm12, %ymm7, %ymm22
vfmsub231ps %ymm6, %ymm11, %ymm22 # ymm22 = (ymm11 * ymm6) - ymm22
vmulps %ymm22, %ymm22, %ymm22
vfmadd231ps %ymm18, %ymm18, %ymm22 # ymm22 = (ymm18 * ymm18) + ymm22
vfmadd231ps %ymm17, %ymm17, %ymm22 # ymm22 = (ymm17 * ymm17) + ymm22
vmulps %ymm5, %ymm5, %ymm17
vfmadd231ps %ymm6, %ymm6, %ymm17 # ymm17 = (ymm6 * ymm6) + ymm17
vfmadd231ps %ymm7, %ymm7, %ymm17 # ymm17 = (ymm7 * ymm7) + ymm17
vrcp14ps %ymm17, %ymm18
vmovaps %ymm18, %ymm23
vbroadcastss 0x1dbc7f(%rip), %ymm21 # 0x1eec714
vmovaps %ymm21, %ymm26
vfnmadd213ps %ymm21, %ymm17, %ymm23 # ymm23 = -(ymm17 * ymm23) + ymm21
vfmadd132ps %ymm18, %ymm18, %ymm23 # ymm23 = (ymm23 * ymm18) + ymm18
vmulps %ymm23, %ymm22, %ymm18
vmulps %ymm0, %ymm6, %ymm22
vfmsub231ps %ymm5, %ymm20, %ymm22 # ymm22 = (ymm20 * ymm5) - ymm22
vmulps %ymm19, %ymm5, %ymm24
vfmsub231ps %ymm7, %ymm0, %ymm24 # ymm24 = (ymm0 * ymm7) - ymm24
vmulps %ymm20, %ymm7, %ymm25
vfmsub231ps %ymm6, %ymm19, %ymm25 # ymm25 = (ymm19 * ymm6) - ymm25
vmulps %ymm25, %ymm25, %ymm25
vfmadd231ps %ymm24, %ymm24, %ymm25 # ymm25 = (ymm24 * ymm24) + ymm25
vfmadd231ps %ymm22, %ymm22, %ymm25 # ymm25 = (ymm22 * ymm22) + ymm25
vmulps %ymm23, %ymm25, %ymm22
vmaxps %ymm22, %ymm18, %ymm18
vsqrtps %ymm18, %ymm18
vmaxps %ymm15, %ymm16, %ymm22
vmaxps %ymm22, %ymm14, %ymm14
vaddps %ymm14, %ymm18, %ymm14
vminps %ymm15, %ymm16, %ymm15
vminps %ymm15, %ymm4, %ymm4
vsubps %ymm18, %ymm4, %ymm4
vmulps 0x1dfe1e(%rip){1to8}, %ymm14, %ymm14 # 0x1ef0940
vmulps 0x1dfe18(%rip){1to8}, %ymm4, %ymm4 # 0x1ef0944
vmovaps %ymm4, 0x80(%rsp)
vmulps %ymm14, %ymm14, %ymm4
vrsqrt14ps %ymm17, %ymm15
vmulps 0x1dbbd2(%rip){1to8}, %ymm17, %ymm14 # 0x1eec71c
vmulps %ymm14, %ymm15, %ymm14
vmulps %ymm15, %ymm15, %ymm16
vmulps %ymm14, %ymm16, %ymm14
vfmadd231ps 0x1dbbb3(%rip){1to8}, %ymm15, %ymm14 # ymm14 = (ymm15 * mem) + ymm14
vmulps %ymm7, %ymm14, %ymm15
vmulps %ymm14, %ymm6, %ymm16
vmulps %ymm14, %ymm5, %ymm18
vsubps %ymm2, %ymm31, %ymm27
vsubps %ymm1, %ymm31, %ymm28
vmovaps %ymm3, 0xa0(%rsp)
vsubps %ymm3, %ymm31, %ymm29
vmovaps 0x480(%rsp), %ymm17
vmulps %ymm29, %ymm17, %ymm22
vmovaps 0x4a0(%rsp), %ymm21
vfmadd231ps %ymm28, %ymm21, %ymm22 # ymm22 = (ymm21 * ymm28) + ymm22
vmovaps 0x4c0(%rsp), %ymm3
vfmadd231ps %ymm27, %ymm3, %ymm22 # ymm22 = (ymm3 * ymm27) + ymm22
vmulps %ymm29, %ymm29, %ymm24
vfmadd231ps %ymm28, %ymm28, %ymm24 # ymm24 = (ymm28 * ymm28) + ymm24
vfmadd231ps %ymm27, %ymm27, %ymm24 # ymm24 = (ymm27 * ymm27) + ymm24
vmulps %ymm18, %ymm17, %ymm17
vfmadd231ps %ymm21, %ymm16, %ymm17 # ymm17 = (ymm16 * ymm21) + ymm17
vfmadd231ps %ymm3, %ymm15, %ymm17 # ymm17 = (ymm15 * ymm3) + ymm17
vmulps %ymm18, %ymm29, %ymm18
vfmadd231ps %ymm16, %ymm28, %ymm18 # ymm18 = (ymm28 * ymm16) + ymm18
vfmadd231ps %ymm15, %ymm27, %ymm18 # ymm18 = (ymm27 * ymm15) + ymm18
vmulps %ymm17, %ymm17, %ymm21
vmovaps 0x880(%rsp), %ymm16
vsubps %ymm21, %ymm16, %ymm15
vmulps %ymm18, %ymm17, %ymm25
vsubps %ymm25, %ymm22, %ymm22
vaddps %ymm22, %ymm22, %ymm22
vmulps %ymm18, %ymm18, %ymm25
vsubps %ymm25, %ymm24, %ymm3
vmovaps %ymm3, 0x1a0(%rsp)
vsubps %ymm4, %ymm3, %ymm4
vmulps %ymm22, %ymm22, %ymm25
vmulps 0x1dbf4c(%rip){1to8}, %ymm15, %ymm24 # 0x1eecb8c
vmulps %ymm4, %ymm24, %ymm30
vsubps %ymm30, %ymm25, %ymm30
vcmpnltps %ymm31, %ymm30, %k1
kmovd %k1, %eax
kortestb %k1, %k1
je 0x1d10d3e
vsqrtps %ymm30, %ymm30
vaddps %ymm15, %ymm15, %ymm31
vrcp14ps %ymm31, %ymm3
vfnmadd213ps %ymm26, %ymm3, %ymm31 # ymm31 = -(ymm3 * ymm31) + ymm26
vfmadd132ps %ymm3, %ymm3, %ymm31 # ymm31 = (ymm31 * ymm3) + ymm3
vxorps 0x210237(%rip){1to8}, %ymm22, %ymm3 # 0x1f20ec0
vsubps %ymm30, %ymm3, %ymm3
vmulps %ymm31, %ymm3, %ymm3
vsubps %ymm22, %ymm30, %ymm30
vmulps %ymm31, %ymm30, %ymm31
vmovaps %ymm17, %ymm30
vfmadd213ps %ymm18, %ymm3, %ymm30 # ymm30 = (ymm3 * ymm30) + ymm18
vmulps %ymm30, %ymm14, %ymm30
vmovaps %ymm30, 0x3c0(%rsp)
vmovaps %ymm17, %ymm30
vfmadd213ps %ymm18, %ymm31, %ymm30 # ymm30 = (ymm31 * ymm30) + ymm18
vmulps %ymm30, %ymm14, %ymm30
vmovaps %ymm30, 0x3a0(%rsp)
vbroadcastss 0x1dad41(%rip), %ymm16 # 0x1eeba20
vblendmps %ymm3, %ymm16, %ymm30 {%k1}
vbroadcastss 0x1dbe96(%rip), %ymm3 # 0x1eecb84
vblendmps %ymm31, %ymm3, %ymm31 {%k1}
vbroadcastss 0x2101c6(%rip), %ymm23 # 0x1f20ec4
vandps %ymm23, %ymm21, %ymm3
vmovaps 0x460(%rsp), %ymm16
vmaxps %ymm3, %ymm16, %ymm3
vmulps 0x1e1198(%rip){1to8}, %ymm3, %ymm3 # 0x1ef1eb4
vandps %ymm23, %ymm15, %ymm23
vcmpltps %ymm3, %ymm23, %k1 {%k1}
kortestb %k1, %k1
jne 0x1d12ae9
vbroadcastss 0x1db9d8(%rip), %ymm3 # 0x1eec714
jmp 0x1d10d58
vbroadcastss 0x1dacd8(%rip), %ymm30 # 0x1eeba20
vbroadcastss 0x1dbe32(%rip), %ymm31 # 0x1eecb84
vmovaps %ymm26, %ymm3
andb $0x7f, %al
je 0x1d1113f
vmovaps %ymm21, 0x120(%rsp)
movq 0x20(%rsp), %rcx
vmovaps %ymm3, %ymm16
vmovss 0x100(%rcx,%rdx,4), %xmm3
vsubss 0x2b0(%rsp), %xmm3, %xmm3
vbroadcastss %xmm3, %ymm3
vminps %ymm31, %ymm3, %ymm3
vmovaps 0x860(%rsp), %ymm4
vmaxps %ymm30, %ymm4, %ymm4
vmulps %ymm29, %ymm13, %ymm23
vfmadd213ps %ymm23, %ymm12, %ymm28 # ymm28 = (ymm12 * ymm28) + ymm23
vfmadd213ps %ymm28, %ymm11, %ymm27 # ymm27 = (ymm11 * ymm27) + ymm28
vmovaps 0x480(%rsp), %ymm21
vmulps %ymm13, %ymm21, %ymm13
vmovaps 0x4a0(%rsp), %ymm31
vfmadd231ps %ymm12, %ymm31, %ymm13 # ymm13 = (ymm31 * ymm12) + ymm13
vmovaps 0x4c0(%rsp), %ymm30
vfmadd231ps %ymm11, %ymm30, %ymm13 # ymm13 = (ymm30 * ymm11) + ymm13
vbroadcastss 0x2100df(%rip), %ymm28 # 0x1f20ec4
vandps %ymm28, %ymm13, %ymm11
vbroadcastss 0x1e01f3(%rip), %ymm29 # 0x1ef0fe8
vcmpltps %ymm29, %ymm11, %k0
vbroadcastss 0x2100ba(%rip), %ymm26 # 0x1f20ec0
vxorps %ymm26, %ymm27, %ymm11
vrcp14ps %ymm13, %ymm12
vxorps %ymm26, %ymm13, %ymm23
vmovaps %ymm12, %ymm27
vfnmadd213ps %ymm16, %ymm13, %ymm27 # ymm27 = -(ymm13 * ymm27) + ymm16
vfmadd132ps %ymm12, %ymm12, %ymm27 # ymm27 = (ymm27 * ymm12) + ymm12
vmulps %ymm11, %ymm27, %ymm11
vcmpltps %ymm23, %ymm13, %k1
korb %k1, %k0, %k1
vbroadcastss 0x1dbd3f(%rip), %ymm27 # 0x1eecb84
vblendmps %ymm27, %ymm11, %ymm12 {%k1}
vmaxps %ymm12, %ymm4, %ymm4
vcmpnleps %ymm23, %ymm13, %k1
korb %k1, %k0, %k1
vbroadcastss 0x1dabbb(%rip), %ymm23 # 0x1eeba20
vmovaps %ymm23, %ymm11 {%k1}
vminps %ymm11, %ymm3, %ymm3
vxorps %xmm13, %xmm13, %xmm13
vsubps %ymm8, %ymm13, %ymm8
vsubps %ymm9, %ymm13, %ymm9
vsubps %ymm10, %ymm13, %ymm10
vmulps %ymm0, %ymm10, %ymm10
vfnmsub231ps %ymm9, %ymm20, %ymm10 # ymm10 = -(ymm20 * ymm9) - ymm10
vfnmadd231ps %ymm8, %ymm19, %ymm10 # ymm10 = -(ymm19 * ymm8) + ymm10
vmulps %ymm0, %ymm21, %ymm8
vfnmsub231ps %ymm20, %ymm31, %ymm8 # ymm8 = -(ymm31 * ymm20) - ymm8
vfnmadd231ps %ymm19, %ymm30, %ymm8 # ymm8 = -(ymm30 * ymm19) + ymm8
vandps %ymm28, %ymm8, %ymm9
vcmpltps %ymm29, %ymm9, %k0
vxorps %ymm26, %ymm10, %ymm9
vrcp14ps %ymm8, %ymm10
vxorps %ymm26, %ymm8, %ymm11
vmovaps %ymm10, %ymm12
vfnmadd213ps %ymm16, %ymm8, %ymm12 # ymm12 = -(ymm8 * ymm12) + ymm16
vfmadd132ps %ymm10, %ymm10, %ymm12 # ymm12 = (ymm12 * ymm10) + ymm10
vmulps %ymm9, %ymm12, %ymm9
vcmpltps %ymm11, %ymm8, %k1
korb %k1, %k0, %k1
vblendmps %ymm27, %ymm9, %ymm10 {%k1}
vmaxps %ymm10, %ymm4, %ymm0
vcmpnleps %ymm11, %ymm8, %k1
korb %k1, %k0, %k1
vmovaps %ymm23, %ymm9 {%k1}
vminps %ymm9, %ymm3, %ymm8
vmovaps %ymm0, 0x320(%rsp)
vcmpleps %ymm8, %ymm0, %k0
kmovd %k0, %ecx
andb %cl, %al
je 0x1d11157
vmovaps 0x3c0(%rsp), %ymm3
vmaxps 0x80(%rsp), %ymm13, %ymm4
vminps %ymm16, %ymm3, %ymm3
vxorps %xmm10, %xmm10, %xmm10
vmaxps %ymm10, %ymm3, %ymm3
vmovaps 0x3a0(%rsp), %ymm9
vminps %ymm16, %ymm9, %ymm9
vmovaps 0x20ffe5(%rip), %ymm11 # 0x1f20f40
vaddps %ymm3, %ymm11, %ymm3
vbroadcastss 0x20d550(%rip), %ymm12 # 0x1f1e4b8
vmulps %ymm3, %ymm12, %ymm3
vmovaps 0x60(%rsp), %ymm0
vmovaps 0x1c0(%rsp), %ymm19
vfmadd213ps %ymm0, %ymm19, %ymm3 # ymm3 = (ymm19 * ymm3) + ymm0
vmovaps %ymm3, 0x3c0(%rsp)
vmaxps %ymm10, %ymm9, %ymm3
vaddps %ymm3, %ymm11, %ymm3
vmulps %ymm3, %ymm12, %ymm3
vfmadd213ps %ymm0, %ymm19, %ymm3 # ymm3 = (ymm19 * ymm3) + ymm0
vmovaps %ymm3, 0x3a0(%rsp)
vmulps %ymm4, %ymm4, %ymm3
vmovaps 0x1a0(%rsp), %ymm0
vsubps %ymm3, %ymm0, %ymm11
vmulps %ymm11, %ymm24, %ymm3
vsubps %ymm3, %ymm25, %ymm3
vcmpnltps %ymm10, %ymm3, %k0
kortestb %k0, %k0
je 0x1d1116b
vxorps %xmm20, %xmm20, %xmm20
vcmpnltps %ymm13, %ymm3, %k1
vsqrtps %ymm3, %ymm3
vaddps %ymm15, %ymm15, %ymm4
vrcp14ps %ymm4, %ymm9
vfnmadd213ps %ymm16, %ymm9, %ymm4 # ymm4 = -(ymm9 * ymm4) + ymm16
vfmadd132ps %ymm9, %ymm9, %ymm4 # ymm4 = (ymm4 * ymm9) + ymm9
vxorps 0x20febc(%rip){1to8}, %ymm22, %ymm9 # 0x1f20ec0
vsubps %ymm3, %ymm9, %ymm9
vmulps %ymm4, %ymm9, %ymm12
vsubps %ymm22, %ymm3, %ymm3
vmulps %ymm4, %ymm3, %ymm13
vmovaps %ymm17, %ymm3
vfmadd213ps %ymm18, %ymm12, %ymm3 # ymm3 = (ymm12 * ymm3) + ymm18
vmulps %ymm3, %ymm14, %ymm9
vmulps %ymm12, %ymm30, %ymm3
vmulps %ymm12, %ymm31, %ymm4
vmulps %ymm12, %ymm21, %ymm10
vmovaps %ymm7, %ymm19
vfmadd213ps %ymm2, %ymm9, %ymm19 # ymm19 = (ymm9 * ymm19) + ymm2
vsubps %ymm19, %ymm3, %ymm3
vmovaps %ymm6, %ymm19
vfmadd213ps %ymm1, %ymm9, %ymm19 # ymm19 = (ymm9 * ymm19) + ymm1
vsubps %ymm19, %ymm4, %ymm4
vmovaps 0xa0(%rsp), %ymm0
vfmadd213ps %ymm0, %ymm5, %ymm9 # ymm9 = (ymm5 * ymm9) + ymm0
vsubps %ymm9, %ymm10, %ymm9
vfmadd213ps %ymm18, %ymm13, %ymm17 # ymm17 = (ymm13 * ymm17) + ymm18
vmulps %ymm17, %ymm14, %ymm14
vmulps %ymm13, %ymm30, %ymm10
vmulps %ymm13, %ymm31, %ymm17
vmulps %ymm13, %ymm21, %ymm18
vfmadd213ps %ymm2, %ymm14, %ymm7 # ymm7 = (ymm14 * ymm7) + ymm2
vsubps %ymm7, %ymm10, %ymm10
vfmadd213ps %ymm1, %ymm14, %ymm6 # ymm6 = (ymm14 * ymm6) + ymm1
vsubps %ymm6, %ymm17, %ymm1
vfmadd213ps %ymm0, %ymm14, %ymm5 # ymm5 = (ymm14 * ymm5) + ymm0
vsubps %ymm5, %ymm18, %ymm5
vbroadcastss 0x1da96b(%rip), %ymm0 # 0x1eeba20
vblendmps %ymm12, %ymm0, %ymm2 {%k1}
vbroadcastss 0x1dbac0(%rip), %ymm0 # 0x1eecb84
vblendmps %ymm13, %ymm0, %ymm0 {%k1}
vandps 0x120(%rsp), %ymm28, %ymm6
vmovaps 0x460(%rsp), %ymm7
vmaxps %ymm6, %ymm7, %ymm6
vmulps 0x1e0dcb(%rip){1to8}, %ymm6, %ymm6 # 0x1ef1eb4
vandps %ymm28, %ymm15, %ymm7
vcmpltps %ymm6, %ymm7, %k1 {%k1}
kortestb %k1, %k1
je 0x1d11192
vcmpleps %ymm20, %ymm11, %k2
vbroadcastss 0x1dba74(%rip), %ymm7 # 0x1eecb84
vbroadcastss 0x1da907(%rip), %ymm11 # 0x1eeba20
vblendmps %ymm7, %ymm11, %ymm6 {%k2}
vmovaps %ymm6, %ymm2 {%k1}
vblendmps %ymm11, %ymm7, %ymm6 {%k2}
vmovaps %ymm6, %ymm0 {%k1}
knotb %k1, %k1
korb %k2, %k1, %k1
kandb %k0, %k1, %k0
jmp 0x1d11192
vbroadcastss 0x20fd7b(%rip), %ymm28 # 0x1f20ec4
vmovaps 0x140(%rsp), %xmm2
jmp 0x1d12963
vmovaps %ymm16, %ymm3
vmovaps 0x140(%rsp), %xmm2
jmp 0x1d12963
vxorps %xmm1, %xmm1, %xmm1
vxorps %xmm5, %xmm5, %xmm5
vxorps %xmm3, %xmm3, %xmm3
vxorps %xmm4, %xmm4, %xmm4
vxorps %xmm9, %xmm9, %xmm9
vbroadcastss 0x1da897(%rip), %ymm2 # 0x1eeba20
vbroadcastss 0x1db9f2(%rip), %ymm0 # 0x1eecb84
vmulps %ymm5, %ymm21, %ymm5
vfmadd231ps %ymm1, %ymm31, %ymm5 # ymm5 = (ymm31 * ymm1) + ymm5
vfmadd231ps %ymm10, %ymm30, %ymm5 # ymm5 = (ymm30 * ymm10) + ymm5
vmovaps 0x320(%rsp), %ymm6
vmovaps %ymm6, 0x8c0(%rsp)
vminps %ymm2, %ymm8, %ymm1
vmovaps %ymm1, 0x8e0(%rsp)
vandps %ymm28, %ymm5, %ymm2
vmaxps %ymm0, %ymm6, %ymm5
vmovaps %ymm5, 0x600(%rsp)
vmovaps %ymm8, 0x620(%rsp)
vbroadcastss 0x20fcec(%rip), %ymm0 # 0x1f20ed4
vcmpltps %ymm0, %ymm2, %k1
kmovd %k1, 0x114(%rsp)
vcmpleps %ymm1, %ymm6, %k1
kmovd %k1, %ecx
andb %al, %cl
vmovaps %ymm5, 0x360(%rsp)
vcmpleps %ymm8, %ymm5, %k1
kmovd %k1, %esi
andb %al, %sil
movl %esi, 0x40(%rsp)
movl %esi, %eax
orb %cl, %al
je 0x1d11d46
vmovaps %ymm0, %ymm2
movq %r12, 0x168(%rsp)
movb %r15b, 0x1b(%rsp)
knotb %k0, %k1
vmulps %ymm9, %ymm21, %ymm0
vfmadd213ps %ymm0, %ymm31, %ymm4 # ymm4 = (ymm31 * ymm4) + ymm0
vfmadd213ps %ymm4, %ymm30, %ymm3 # ymm3 = (ymm30 * ymm3) + ymm4
vandps %ymm28, %ymm3, %ymm0
vcmpltps %ymm2, %ymm0, %k0
kmovd %k1, 0x10c(%rsp)
korb %k1, %k0, %k1
vpbroadcastd 0x20fc66(%rip), %ymm0 # 0x1f20edc
vpblendmd 0x20fc58(%rip){1to8}, %ymm0, %ymm0 {%k1} # 0x1f20ed8
movq 0x100(%rsp), %rax
vpbroadcastd %eax, %ymm1
vmovdqa %ymm0, 0x640(%rsp)
vmovdqa %ymm1, 0x440(%rsp)
vpcmpnltd %ymm0, %ymm1, %k0
kmovd %k0, %r12d
movl %ecx, 0x110(%rsp)
andb %cl, %r12b
je 0x1d11d5d
vmovaps 0x260(%rsp), %ymm1
vmovaps 0x220(%rsp), %ymm2
vminps %xmm2, %xmm1, %xmm0
vmaxps %xmm2, %xmm1, %xmm1
vmovaps 0x240(%rsp), %ymm3
vmovaps 0x200(%rsp), %ymm4
vminps %xmm4, %xmm3, %xmm2
vminps %xmm2, %xmm0, %xmm0
vmaxps %xmm4, %xmm3, %xmm2
vmaxps %xmm2, %xmm1, %xmm1
vbroadcastss 0x20fbc4(%rip), %xmm2 # 0x1f20ec4
vandps %xmm2, %xmm0, %xmm0
vandps %xmm2, %xmm1, %xmm2
vmaxps %xmm2, %xmm0, %xmm0
vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3]
vmaxss %xmm0, %xmm2, %xmm2
vshufpd $0x1, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[1,0]
vmaxss %xmm2, %xmm0, %xmm0
vmulss 0x1e0b8f(%rip), %xmm0, %xmm0 # 0x1ef1eb4
vmovss %xmm0, 0x50(%rsp)
vshufps $0xff, %xmm1, %xmm1, %xmm0 # xmm0 = xmm1[3,3,3,3]
vmovaps %xmm0, 0x2a0(%rsp)
vmovaps 0x320(%rsp), %ymm0
vaddps 0x340(%rsp), %ymm0, %ymm0
vmovaps %ymm0, 0x380(%rsp)
kmovd %r12d, %k1
vbroadcastss 0x1da6be(%rip), %ymm0 # 0x1eeba20
vblendmps 0x320(%rsp), %ymm0, %ymm0 {%k1}
vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm0, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1]
vminps %ymm2, %ymm1, %ymm1
vcmpeqps %ymm1, %ymm0, %k0
kmovd %k0, %eax
andb %r12b, %al
movzbl %al, %eax
movzbl %r12b, %ecx
cmovnel %eax, %ecx
tzcntl %ecx, %ecx
movb $0x1, %r14b
shlb %cl, %r14b
shll $0x2, %ecx
vmovss 0x3c0(%rsp,%rcx), %xmm10
vmovss 0x8c0(%rsp,%rcx), %xmm8
vmovaps 0x1e0(%rsp), %xmm0
vucomiss 0x1da656(%rip), %xmm0 # 0x1eeba24
vmovss 0x118(%rsp), %xmm0
jae 0x1d1141a
vmovaps 0x1e0(%rsp), %xmm0
vmovaps %xmm10, 0x60(%rsp)
vmovaps %xmm8, 0xa0(%rsp)
kmovw %k1, 0x80(%rsp)
vzeroupper
callq 0x6aa20
kmovw 0x80(%rsp), %k1
vmovaps 0xa0(%rsp), %xmm8
vmovaps 0x60(%rsp), %xmm10
movzbl %r14b, %eax
kmovd %eax, %k0
kandnb %k1, %k0, %k0
kmovd %k0, %r12d
vmulss 0x1e0a82(%rip), %xmm0, %xmm0 # 0x1ef1eb4
vmovss %xmm0, 0x54(%rsp)
movl $0x5, %r15d
vmovaps %xmm8, 0xa0(%rsp)
vbroadcastss %xmm8, %xmm0
vxorps %xmm1, %xmm1, %xmm1
vfmadd132ps 0x1f0(%rsp), %xmm1, %xmm0 # xmm0 = (xmm0 * mem) + xmm1
vmovss 0x1db2b2(%rip), %xmm1 # 0x1eec714
vsubss %xmm10, %xmm1, %xmm4
vmulss %xmm4, %xmm4, %xmm1
vmulss %xmm1, %xmm4, %xmm1
vmulss %xmm10, %xmm10, %xmm11
vmulss %xmm11, %xmm10, %xmm2
vmovss 0x1db70b(%rip), %xmm7 # 0x1eecb8c
vmovaps %xmm7, %xmm3
vfmadd213ss %xmm2, %xmm1, %xmm3 # xmm3 = (xmm1 * xmm3) + xmm2
vmulss %xmm4, %xmm10, %xmm12
vmovaps %xmm4, 0x80(%rsp)
vmulss %xmm4, %xmm12, %xmm4
vmulss %xmm12, %xmm10, %xmm5
vmovss 0x1dfb4c(%rip), %xmm8 # 0x1ef0ff4
vmulss %xmm5, %xmm8, %xmm6
vmovss 0x1dfb48(%rip), %xmm9 # 0x1ef0ffc
vfmadd231ss %xmm9, %xmm4, %xmm6 # xmm6 = (xmm4 * xmm9) + xmm6
vaddss %xmm6, %xmm3, %xmm3
vmovaps %xmm7, %xmm6
vfmadd213ss %xmm1, %xmm2, %xmm6 # xmm6 = (xmm2 * xmm6) + xmm1
vmulss %xmm4, %xmm8, %xmm4
vfmadd231ss %xmm5, %xmm9, %xmm4 # xmm4 = (xmm9 * xmm5) + xmm4
vaddss %xmm4, %xmm6, %xmm4
vmovss 0x1dfb25(%rip), %xmm5 # 0x1ef1000
vmulss %xmm5, %xmm1, %xmm1
vmulss %xmm5, %xmm3, %xmm3
vmulss %xmm5, %xmm4, %xmm4
vmulss %xmm5, %xmm2, %xmm2
vbroadcastss %xmm2, %xmm2
vmulps 0x200(%rsp), %xmm2, %xmm2
vbroadcastss %xmm4, %xmm4
vfmadd132ps 0x240(%rsp), %xmm2, %xmm4 # xmm4 = (xmm4 * mem) + xmm2
vbroadcastss %xmm3, %xmm2
vfmadd132ps 0x220(%rsp), %xmm4, %xmm2 # xmm2 = (xmm2 * mem) + xmm4
vbroadcastss %xmm1, %xmm1
vfmadd132ps 0x260(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2
vmovaps %xmm1, 0x310(%rsp)
vsubps %xmm1, %xmm0, %xmm0
vmovaps %xmm0, 0x1c0(%rsp)
vdpps $0x7f, %xmm0, %xmm0, %xmm0
vucomiss 0x1da4da(%rip), %xmm0 # 0x1eeba24
vmovaps %xmm10, 0x60(%rsp)
vmovaps %xmm0, 0x1a0(%rsp)
jb 0x1d11561
vsqrtss %xmm0, %xmm0, %xmm7
jmp 0x1d11591
vmovss %xmm11, 0x120(%rsp)
vmovss %xmm12, 0x1c(%rsp)
vzeroupper
callq 0x6aa20
vmovss 0x1c(%rsp), %xmm12
vmovss 0x120(%rsp), %xmm11
vmovaps 0x60(%rsp), %xmm10
vmovaps %xmm0, %xmm7
vmovaps 0x80(%rsp), %xmm3
vbroadcastss %xmm3, %xmm1
vbroadcastss 0x20f918(%rip), %xmm4 # 0x1f20ec0
vmovaps %xmm1, 0x300(%rsp)
vxorps %xmm4, %xmm1, %xmm0
vmulss %xmm0, %xmm3, %xmm0
vmulss 0x1db5cb(%rip), %xmm12, %xmm1 # 0x1eecb8c
vmovaps %xmm10, %xmm2
vfnmsub213ss %xmm1, %xmm10, %xmm2 # xmm2 = -(xmm10 * xmm2) - xmm1
vfmadd231ss %xmm3, %xmm3, %xmm1 # xmm1 = (xmm3 * xmm3) + xmm1
vmovss 0x1db5a9(%rip), %xmm3 # 0x1eecb80
vmulss %xmm3, %xmm0, %xmm0
vmulss %xmm3, %xmm2, %xmm2
vmulss %xmm3, %xmm1, %xmm1
vmulss %xmm3, %xmm11, %xmm3
vbroadcastss %xmm3, %xmm3
vmulps 0x200(%rsp), %xmm3, %xmm3
vbroadcastss %xmm1, %xmm1
vfmadd132ps 0x240(%rsp), %xmm3, %xmm1 # xmm1 = (xmm1 * mem) + xmm3
vbroadcastss %xmm2, %xmm2
vfmadd132ps 0x220(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1
vbroadcastss %xmm0, %xmm12
vfmadd132ps 0x260(%rsp), %xmm2, %xmm12 # xmm12 = (xmm12 * mem) + xmm2
vdpps $0x7f, %xmm12, %xmm12, %xmm0
vxorps %xmm1, %xmm1, %xmm1
vmovss %xmm0, %xmm1, %xmm2 # xmm2 = xmm0[0],xmm1[1,2,3]
vrsqrt14ss %xmm2, %xmm1, %xmm3
vmulss 0x1db0da(%rip), %xmm3, %xmm6 # 0x1eec718
vmulss 0x1db0d6(%rip), %xmm0, %xmm8 # 0x1eec71c
vrcp14ss %xmm2, %xmm1, %xmm2
vxorps %xmm4, %xmm0, %xmm1
vmovaps %xmm2, 0x2e0(%rsp)
vfnmadd213ss 0x1df996(%rip), %xmm0, %xmm2 # xmm2 = -(xmm0 * xmm2) + mem
vmovss %xmm2, 0x58(%rsp)
vucomiss %xmm1, %xmm0
vmovaps %xmm12, 0x120(%rsp)
vmovss %xmm7, 0x1c(%rsp)
vmovaps %xmm0, 0x2f0(%rsp)
jb 0x1d1168c
vsqrtss %xmm0, %xmm0, %xmm5
jmp 0x1d116d7
vmovaps %xmm3, 0xe0(%rsp)
vmovss %xmm6, 0x2c(%rsp)
vmovss %xmm8, 0xd0(%rsp)
vzeroupper
callq 0x6aa20
vmovss 0xd0(%rsp), %xmm8
vmovss 0x2c(%rsp), %xmm6
vmovaps 0xe0(%rsp), %xmm3
vmovss 0x1c(%rsp), %xmm7
vmovaps 0x120(%rsp), %xmm12
vmovaps %xmm0, %xmm5
vmovaps 0x1c0(%rsp), %xmm9
vmovaps 0x1a0(%rsp), %xmm18
vmulss %xmm3, %xmm8, %xmm0
vmulss %xmm3, %xmm3, %xmm1
vmulss %xmm1, %xmm0, %xmm0
vaddss %xmm0, %xmm6, %xmm0
vbroadcastss %xmm0, %xmm4
vmulps %xmm4, %xmm12, %xmm0
vmovaps %xmm0, 0xe0(%rsp)
vdpps $0x7f, %xmm0, %xmm9, %xmm14
vaddss 0x1daffc(%rip), %xmm7, %xmm13 # 0x1eec714
vmulps %xmm14, %xmm14, %xmm0
vsubps %xmm0, %xmm18, %xmm0
vxorps %xmm2, %xmm2, %xmm2
vmovss %xmm0, %xmm2, %xmm1 # xmm1 = xmm0[0],xmm2[1,2,3]
vrsqrt14ss %xmm1, %xmm2, %xmm15
vmulss 0x1dafdd(%rip), %xmm15, %xmm17 # 0x1eec718
vmulss 0x1dafd7(%rip), %xmm0, %xmm19 # 0x1eec71c
vucomiss 0x1da2d7(%rip), %xmm0 # 0x1eeba24
jb 0x1d11758
vsqrtss %xmm0, %xmm0, %xmm0
jmp 0x1d117ee
vmovss %xmm13, 0x2c(%rsp)
vmovaps %xmm14, 0xd0(%rsp)
vmovss %xmm5, 0x4c(%rsp)
vmovaps %xmm15, 0x2d0(%rsp)
vmovss %xmm17, 0x48(%rsp)
vmovss %xmm19, 0x44(%rsp)
vmovaps %xmm4, 0x2c0(%rsp)
vzeroupper
callq 0x6aa20
vmovaps 0x2c0(%rsp), %xmm4
vmovss 0x44(%rsp), %xmm19
vmovss 0x48(%rsp), %xmm17
vmovaps 0x2d0(%rsp), %xmm15
vmovss 0x4c(%rsp), %xmm5
vmovaps 0xd0(%rsp), %xmm14
vmovss 0x2c(%rsp), %xmm13
vmovss 0x1c(%rsp), %xmm7
vmovaps 0x120(%rsp), %xmm12
vmovaps 0x1a0(%rsp), %xmm18
vmovaps 0x1c0(%rsp), %xmm9
vbroadcastss 0x20f6cc(%rip), %ymm28 # 0x1f20ec4
vmovaps 0x60(%rsp), %xmm10
vmovaps 0xa0(%rsp), %xmm8
vmovss 0x1df1cd(%rip), %xmm2 # 0x1ef09dc
vmovaps %xmm2, %xmm1
vmovaps 0x80(%rsp), %xmm3
vfmadd213ss %xmm10, %xmm3, %xmm1 # xmm1 = (xmm3 * xmm1) + xmm10
vfmadd231ss %xmm2, %xmm10, %xmm3 # xmm3 = (xmm10 * xmm2) + xmm3
vbroadcastss %xmm10, %xmm2
vmulps 0x200(%rsp), %xmm2, %xmm2
vbroadcastss %xmm3, %xmm3
vfmadd132ps 0x240(%rsp), %xmm2, %xmm3 # xmm3 = (xmm3 * mem) + xmm2
vbroadcastss %xmm1, %xmm1
vfmadd132ps 0x220(%rsp), %xmm3, %xmm1 # xmm1 = (xmm1 * mem) + xmm3
vmovaps 0x300(%rsp), %xmm2
vfmadd132ps 0x260(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1
vbroadcastss 0x2f0(%rsp), %xmm1
vmulps %xmm1, %xmm2, %xmm1
vdpps $0x7f, %xmm2, %xmm12, %xmm2
vbroadcastss %xmm2, %xmm2
vmulps %xmm2, %xmm12, %xmm2
vsubps %xmm2, %xmm1, %xmm2
vmovss 0x58(%rsp), %xmm1
vmulss 0x2e0(%rsp), %xmm1, %xmm3
vmulss 0x54(%rsp), %xmm8, %xmm1
vmovss 0x50(%rsp), %xmm6
vmaxss %xmm1, %xmm6, %xmm1
vbroadcastss %xmm3, %xmm3
vmulps %xmm3, %xmm2, %xmm2
vxorps 0x20f608(%rip){1to4}, %xmm12, %xmm3 # 0x1f20ec0
vmulps %xmm2, %xmm4, %xmm2
vmovaps 0xe0(%rsp), %xmm11
vdpps $0x7f, %xmm11, %xmm3, %xmm4
vdivss %xmm5, %xmm6, %xmm5
vfmadd213ss %xmm1, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm7) + xmm1
vdpps $0x7f, %xmm2, %xmm9, %xmm2
vfmadd213ss %xmm7, %xmm5, %xmm13 # xmm13 = (xmm5 * xmm13) + xmm7
vaddss %xmm2, %xmm4, %xmm4
vmovaps 0x1f0(%rsp), %xmm7
vdpps $0x7f, %xmm11, %xmm7, %xmm5
vdpps $0x7f, %xmm3, %xmm9, %xmm3
vmulss %xmm15, %xmm19, %xmm2
vmulss %xmm15, %xmm15, %xmm6
vmulss %xmm6, %xmm2, %xmm2
vaddss %xmm2, %xmm17, %xmm6
vdpps $0x7f, %xmm7, %xmm9, %xmm7
vfnmadd231ss %xmm4, %xmm14, %xmm3 # xmm3 = -(xmm14 * xmm4) + xmm3
vfnmadd231ss %xmm5, %xmm14, %xmm7 # xmm7 = -(xmm14 * xmm5) + xmm7
vpermilps $0xff, 0x310(%rsp), %xmm2 # xmm2 = mem[3,3,3,3]
vsubss %xmm2, %xmm0, %xmm2
vshufps $0xff, %xmm12, %xmm12, %xmm0 # xmm0 = xmm12[3,3,3,3]
vfmsub213ss %xmm0, %xmm6, %xmm3 # xmm3 = (xmm6 * xmm3) - xmm0
vmulss %xmm6, %xmm7, %xmm6
vmulss %xmm3, %xmm5, %xmm7
vfmsub231ss %xmm6, %xmm4, %xmm7 # xmm7 = (xmm4 * xmm6) - xmm7
vdivss %xmm7, %xmm6, %xmm6
vdivss %xmm7, %xmm3, %xmm3
vdivss %xmm7, %xmm5, %xmm5
vdivss %xmm7, %xmm4, %xmm4
vmulss %xmm6, %xmm14, %xmm6
vmulss %xmm5, %xmm2, %xmm5
vsubss %xmm5, %xmm6, %xmm5
vmulss %xmm3, %xmm14, %xmm3
vmulss %xmm4, %xmm2, %xmm4
vsubss %xmm3, %xmm4, %xmm3
vsubss %xmm5, %xmm10, %xmm10
vsubss %xmm3, %xmm8, %xmm8
vbroadcastss 0x20f547(%rip), %xmm4 # 0x1f20ec4
vandps %xmm4, %xmm14, %xmm3
vucomiss %xmm3, %xmm13
movb $0x1, %al
jbe 0x1d119d9
vaddss %xmm1, %xmm13, %xmm1
vmovaps 0x2a0(%rsp), %xmm3
vfmadd231ss 0x1e0515(%rip), %xmm3, %xmm1 # xmm1 = (xmm3 * mem) + xmm1
vandps %xmm4, %xmm2, %xmm2
vucomiss %xmm2, %xmm1
jbe 0x1d119d9
vaddss 0x2b0(%rsp), %xmm8, %xmm8
vucomiss 0x5c(%rsp), %xmm8
jb 0x1d119d4
movq 0x30(%rsp), %rax
movq 0x20(%rsp), %rcx
vmovss 0x100(%rcx,%rax,4), %xmm5
vucomiss %xmm8, %xmm5
jae 0x1d119ef
xorl %eax, %eax
xorl %r14d, %r14d
testb %al, %al
je 0x1d11d14
decq %r15
jne 0x1d1143e
jmp 0x1d11d11
xorl %eax, %eax
vucomiss 0x1da02b(%rip), %xmm10 # 0x1eeba24
jb 0x1d119d6
vmovss 0x1dad11(%rip), %xmm1 # 0x1eec714
vucomiss %xmm10, %xmm1
jb 0x1d119d6
vxorps %xmm2, %xmm2, %xmm2
vmovss %xmm18, %xmm2, %xmm1 # xmm1 = xmm18[0],xmm2[1,2,3]
vrsqrt14ss %xmm1, %xmm2, %xmm1
vmulss 0x1dacf6(%rip), %xmm1, %xmm2 # 0x1eec718
vmulss 0x1dacf0(%rip), %xmm18, %xmm3 # 0x1eec71c
movq 0x38(%rsp), %rdx
movq (%rdx), %rax
movq 0x1e8(%rax), %rax
movq 0xf8(%rsp), %rcx
movq (%rax,%rcx,8), %r14
movq 0x30(%rsp), %rax
movq 0x20(%rsp), %rcx
movl 0x120(%rcx,%rax,4), %eax
testl %eax, 0x34(%r14)
je 0x1d119d4
movq 0x10(%rdx), %rax
cmpq $0x0, 0x10(%rax)
jne 0x1d11a7e
cmpq $0x0, 0x48(%r14)
jne 0x1d11a7e
movb $0x1, %r14b
xorl %eax, %eax
jmp 0x1d119d9
vmulss %xmm1, %xmm3, %xmm3
vmulss %xmm1, %xmm1, %xmm1
vmulss %xmm1, %xmm3, %xmm1
vaddss %xmm1, %xmm2, %xmm1
vbroadcastss %xmm1, %xmm1
vmulps %xmm1, %xmm9, %xmm1
vfmadd213ps %xmm12, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm0) + xmm12
vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm12, %xmm12, %xmm3 # xmm3 = xmm12[1,2,0,3]
vmulps %xmm3, %xmm1, %xmm1
vfmsub231ps %xmm2, %xmm12, %xmm1 # xmm1 = (xmm12 * xmm2) - xmm1
vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3]
vshufps $0xd2, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,0,1,3]
vmulps %xmm1, %xmm0, %xmm0
vfmsub231ps %xmm3, %xmm2, %xmm0 # xmm0 = (xmm2 * xmm3) - xmm0
movq 0x38(%rsp), %rdx
movq 0x8(%rdx), %rax
vbroadcastss %xmm10, %ymm1
vbroadcastss 0x200c25(%rip), %ymm2 # 0x1f12704
vpermps %ymm0, %ymm2, %ymm2
vbroadcastss 0x20f3ef(%rip), %ymm3 # 0x1f20edc
vpermps %ymm0, %ymm3, %ymm3
vbroadcastss %xmm0, %ymm0
vmovaps %ymm2, 0x4e0(%rsp)
vmovaps %ymm3, 0x500(%rsp)
vmovaps %ymm0, 0x520(%rsp)
vmovaps %ymm1, 0x540(%rsp)
vxorps %xmm0, %xmm0, %xmm0
vmovaps %ymm0, 0x560(%rsp)
vmovaps 0x420(%rsp), %ymm0
vmovaps %ymm0, 0x580(%rsp)
vmovdqa 0x400(%rsp), %ymm0
vmovdqa %ymm0, 0x5a0(%rsp)
movq 0x158(%rsp), %rcx
vpcmpeqd %ymm0, %ymm0, %ymm0
vmovdqa %ymm0, 0x20(%rcx)
vmovdqa %ymm0, (%rcx)
vbroadcastss (%rax), %ymm0
vmovaps %ymm0, 0x5c0(%rsp)
vbroadcastss 0x4(%rax), %ymm0
vmovaps %ymm0, 0x5e0(%rsp)
movq 0x30(%rsp), %rax
movq 0x20(%rsp), %rcx
vmovss %xmm8, 0x100(%rcx,%rax,4)
vmovaps 0x3e0(%rsp), %ymm0
vmovaps %ymm0, 0x280(%rsp)
leaq 0x280(%rsp), %rax
movq %rax, 0x170(%rsp)
movq 0x18(%r14), %rax
movq %rax, 0x178(%rsp)
movq 0x8(%rdx), %rax
movq %rax, 0x180(%rsp)
movq %rcx, 0x188(%rsp)
leaq 0x4e0(%rsp), %rax
movq %rax, 0x190(%rsp)
movl $0x8, 0x198(%rsp)
movq 0x48(%r14), %rax
testq %rax, %rax
vmovaps %xmm10, 0x60(%rsp)
vmovaps %xmm8, 0xa0(%rsp)
vmovss %xmm5, 0x80(%rsp)
je 0x1d11c47
leaq 0x170(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0x80(%rsp), %xmm5
vmovaps 0xa0(%rsp), %xmm8
vmovaps 0x60(%rsp), %xmm10
vbroadcastss 0x20f287(%rip), %xmm4 # 0x1f20ec4
vbroadcastss 0x20f27d(%rip), %ymm28 # 0x1f20ec4
vmovdqa 0x280(%rsp), %ymm0
vptest %ymm0, %ymm0
je 0x1d11ced
movq 0x38(%rsp), %rax
movq 0x10(%rax), %rcx
movq 0x10(%rcx), %rax
testq %rax, %rax
je 0x1d11cb1
testb $0x2, (%rcx)
jne 0x1d11c79
testb $0x40, 0x3e(%r14)
je 0x1d11cb1
leaq 0x170(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0x80(%rsp), %xmm5
vmovaps 0xa0(%rsp), %xmm8
vmovaps 0x60(%rsp), %xmm10
vbroadcastss 0x20f21d(%rip), %xmm4 # 0x1f20ec4
vbroadcastss 0x20f213(%rip), %ymm28 # 0x1f20ec4
vmovdqa 0x280(%rsp), %ymm0
vptestmd %ymm0, %ymm0, %k1
movq 0x188(%rsp), %rax
vmovaps 0x100(%rax), %ymm1
vbroadcastss 0x1daeaa(%rip), %ymm1 {%k1} # 0x1eecb84
vmovaps %ymm1, 0x100(%rax)
vptest %ymm0, %ymm0
setne %r14b
jmp 0x1d11cf0
xorl %r14d, %r14d
testb %r14b, %r14b
jne 0x1d11a77
movq 0x30(%rsp), %rax
movq 0x20(%rsp), %rcx
vmovss %xmm5, 0x100(%rcx,%rax,4)
jmp 0x1d11a77
xorl %r14d, %r14d
andb $0x1, %r14b
orb %r14b, %r13b
movq 0x30(%rsp), %rdx
movq 0x20(%rsp), %rax
vmovaps 0x380(%rsp), %ymm0
vcmpleps 0x100(%rax,%rdx,4){1to8}, %ymm0, %k0
kmovd %k0, %eax
andb %al, %r12b
jne 0x1d11354
jmp 0x1d11d66
vbroadcastss 0x1da9c5(%rip), %ymm3 # 0x1eec714
vmovaps 0x140(%rsp), %xmm2
jmp 0x1d12963
vbroadcastss 0x20f15e(%rip), %xmm4 # 0x1f20ec4
vmovaps 0x340(%rsp), %ymm3
vaddps 0x360(%rsp), %ymm3, %ymm0
movq 0x20(%rsp), %rax
vcmpleps 0x100(%rax,%rdx,4){1to8}, %ymm0, %k0
kmovd 0x114(%rsp), %k1
kmovd 0x10c(%rsp), %k2
korb %k2, %k1, %k1
kmovd %k0, %eax
movl 0x40(%rsp), %ecx
andb %al, %cl
vpbroadcastd 0x20f12b(%rip), %ymm0 # 0x1f20edc
vpblendmd 0x20f11d(%rip){1to8}, %ymm0, %ymm0 {%k1} # 0x1f20ed8
vmovdqa %ymm0, 0x360(%rsp)
vpcmpled 0x440(%rsp), %ymm0, %k0
kmovd %k0, %r12d
movl %ecx, 0x40(%rsp)
andb %cl, %r12b
je 0x1d12850
vmovaps 0x600(%rsp), %ymm7
vmovaps 0x260(%rsp), %ymm1
vmovaps 0x220(%rsp), %ymm2
vminps %xmm2, %xmm1, %xmm0
vmaxps %xmm2, %xmm1, %xmm1
vmovaps 0x240(%rsp), %ymm5
vmovaps 0x200(%rsp), %ymm6
vminps %xmm6, %xmm5, %xmm2
vminps %xmm2, %xmm0, %xmm0
vmaxps %xmm6, %xmm5, %xmm2
vmaxps %xmm2, %xmm1, %xmm1
vandps %xmm4, %xmm0, %xmm0
vandps %xmm4, %xmm1, %xmm2
vmaxps %xmm2, %xmm0, %xmm0
vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3]
vmaxss %xmm0, %xmm2, %xmm2
vshufpd $0x1, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[1,0]
vmaxss %xmm2, %xmm0, %xmm0
vmulss 0x1e006c(%rip), %xmm0, %xmm0 # 0x1ef1eb4
vmovss %xmm0, 0x50(%rsp)
vshufps $0xff, %xmm1, %xmm1, %xmm0 # xmm0 = xmm1[3,3,3,3]
vmovaps %xmm0, 0x2a0(%rsp)
vmovaps %ymm7, 0x320(%rsp)
vaddps %ymm7, %ymm3, %ymm0
vmovaps %ymm0, 0x380(%rsp)
kmovd %r12d, %k1
vbroadcastss 0x1d9ba0(%rip), %ymm0 # 0x1eeba20
vblendmps 0x320(%rsp), %ymm0, %ymm0 {%k1}
vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm0, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1]
vminps %ymm2, %ymm1, %ymm1
vcmpeqps %ymm1, %ymm0, %k0
kmovd %k0, %eax
andb %r12b, %al
movzbl %al, %eax
movzbl %r12b, %ecx
cmovnel %eax, %ecx
tzcntl %ecx, %ecx
movb $0x1, %r14b
shlb %cl, %r14b
shll $0x2, %ecx
vmovss 0x3a0(%rsp,%rcx), %xmm10
vmovss 0x620(%rsp,%rcx), %xmm8
vmovaps 0x1e0(%rsp), %xmm0
vucomiss 0x1d9b38(%rip), %xmm0 # 0x1eeba24
vmovss 0x11c(%rsp), %xmm0
jae 0x1d11f38
vmovaps 0x1e0(%rsp), %xmm0
vmovaps %xmm10, 0x60(%rsp)
vmovaps %xmm8, 0xa0(%rsp)
kmovw %k1, 0x80(%rsp)
vzeroupper
callq 0x6aa20
kmovw 0x80(%rsp), %k1
vmovaps 0xa0(%rsp), %xmm8
vmovaps 0x60(%rsp), %xmm10
movzbl %r14b, %eax
kmovd %eax, %k0
kandnb %k1, %k0, %k0
kmovd %k0, %r12d
vmulss 0x1dff64(%rip), %xmm0, %xmm0 # 0x1ef1eb4
vmovss %xmm0, 0x54(%rsp)
movl $0x5, %r15d
vmovaps %xmm8, 0xa0(%rsp)
vbroadcastss %xmm8, %xmm0
vxorps %xmm1, %xmm1, %xmm1
vfmadd132ps 0x1f0(%rsp), %xmm1, %xmm0 # xmm0 = (xmm0 * mem) + xmm1
vmovss 0x1da794(%rip), %xmm1 # 0x1eec714
vsubss %xmm10, %xmm1, %xmm4
vmulss %xmm4, %xmm4, %xmm1
vmulss %xmm1, %xmm4, %xmm1
vmulss %xmm10, %xmm10, %xmm11
vmulss %xmm11, %xmm10, %xmm2
vmovss 0x1dabed(%rip), %xmm7 # 0x1eecb8c
vmovaps %xmm7, %xmm3
vfmadd213ss %xmm2, %xmm1, %xmm3 # xmm3 = (xmm1 * xmm3) + xmm2
vmulss %xmm4, %xmm10, %xmm12
vmovaps %xmm4, 0x80(%rsp)
vmulss %xmm4, %xmm12, %xmm4
vmulss %xmm12, %xmm10, %xmm5
vmovss 0x1df02e(%rip), %xmm8 # 0x1ef0ff4
vmulss %xmm5, %xmm8, %xmm6
vmovss 0x1df02a(%rip), %xmm9 # 0x1ef0ffc
vfmadd231ss %xmm9, %xmm4, %xmm6 # xmm6 = (xmm4 * xmm9) + xmm6
vaddss %xmm6, %xmm3, %xmm3
vmovaps %xmm7, %xmm6
vfmadd213ss %xmm1, %xmm2, %xmm6 # xmm6 = (xmm2 * xmm6) + xmm1
vmulss %xmm4, %xmm8, %xmm4
vfmadd231ss %xmm5, %xmm9, %xmm4 # xmm4 = (xmm9 * xmm5) + xmm4
vaddss %xmm4, %xmm6, %xmm4
vmovss 0x1df007(%rip), %xmm5 # 0x1ef1000
vmulss %xmm5, %xmm1, %xmm1
vmulss %xmm5, %xmm3, %xmm3
vmulss %xmm5, %xmm4, %xmm4
vmulss %xmm5, %xmm2, %xmm2
vbroadcastss %xmm2, %xmm2
vmulps 0x200(%rsp), %xmm2, %xmm2
vbroadcastss %xmm4, %xmm4
vfmadd132ps 0x240(%rsp), %xmm2, %xmm4 # xmm4 = (xmm4 * mem) + xmm2
vbroadcastss %xmm3, %xmm2
vfmadd132ps 0x220(%rsp), %xmm4, %xmm2 # xmm2 = (xmm2 * mem) + xmm4
vbroadcastss %xmm1, %xmm1
vfmadd132ps 0x260(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2
vmovaps %xmm1, 0x310(%rsp)
vsubps %xmm1, %xmm0, %xmm0
vmovaps %xmm0, 0x1c0(%rsp)
vdpps $0x7f, %xmm0, %xmm0, %xmm0
vucomiss 0x1d99bc(%rip), %xmm0 # 0x1eeba24
vmovaps %xmm10, 0x60(%rsp)
vmovaps %xmm0, 0x1a0(%rsp)
jb 0x1d1207f
vsqrtss %xmm0, %xmm0, %xmm7
jmp 0x1d120af
vmovss %xmm11, 0x120(%rsp)
vmovss %xmm12, 0x1c(%rsp)
vzeroupper
callq 0x6aa20
vmovss 0x1c(%rsp), %xmm12
vmovss 0x120(%rsp), %xmm11
vmovaps 0x60(%rsp), %xmm10
vmovaps %xmm0, %xmm7
vmovaps 0x80(%rsp), %xmm3
vbroadcastss %xmm3, %xmm1
vbroadcastss 0x20edfa(%rip), %xmm4 # 0x1f20ec0
vmovaps %xmm1, 0x300(%rsp)
vxorps %xmm4, %xmm1, %xmm0
vmulss %xmm0, %xmm3, %xmm0
vmulss 0x1daaad(%rip), %xmm12, %xmm1 # 0x1eecb8c
vmovaps %xmm10, %xmm2
vfnmsub213ss %xmm1, %xmm10, %xmm2 # xmm2 = -(xmm10 * xmm2) - xmm1
vfmadd231ss %xmm3, %xmm3, %xmm1 # xmm1 = (xmm3 * xmm3) + xmm1
vmovss 0x1daa8b(%rip), %xmm3 # 0x1eecb80
vmulss %xmm3, %xmm0, %xmm0
vmulss %xmm3, %xmm2, %xmm2
vmulss %xmm3, %xmm1, %xmm1
vmulss %xmm3, %xmm11, %xmm3
vbroadcastss %xmm3, %xmm3
vmulps 0x200(%rsp), %xmm3, %xmm3
vbroadcastss %xmm1, %xmm1
vfmadd132ps 0x240(%rsp), %xmm3, %xmm1 # xmm1 = (xmm1 * mem) + xmm3
vbroadcastss %xmm2, %xmm2
vfmadd132ps 0x220(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1
vbroadcastss %xmm0, %xmm12
vfmadd132ps 0x260(%rsp), %xmm2, %xmm12 # xmm12 = (xmm12 * mem) + xmm2
vdpps $0x7f, %xmm12, %xmm12, %xmm0
vxorps %xmm1, %xmm1, %xmm1
vmovss %xmm0, %xmm1, %xmm2 # xmm2 = xmm0[0],xmm1[1,2,3]
vrsqrt14ss %xmm2, %xmm1, %xmm3
vmulss 0x1da5bc(%rip), %xmm3, %xmm6 # 0x1eec718
vmulss 0x1da5b8(%rip), %xmm0, %xmm8 # 0x1eec71c
vrcp14ss %xmm2, %xmm1, %xmm2
vxorps %xmm4, %xmm0, %xmm1
vmovaps %xmm2, 0x2e0(%rsp)
vfnmadd213ss 0x1dee78(%rip), %xmm0, %xmm2 # xmm2 = -(xmm0 * xmm2) + mem
vmovss %xmm2, 0x58(%rsp)
vucomiss %xmm1, %xmm0
vmovaps %xmm12, 0x120(%rsp)
vmovss %xmm7, 0x1c(%rsp)
vmovaps %xmm0, 0x2f0(%rsp)
jb 0x1d121aa
vsqrtss %xmm0, %xmm0, %xmm5
jmp 0x1d121f5
vmovaps %xmm3, 0xe0(%rsp)
vmovss %xmm6, 0x2c(%rsp)
vmovss %xmm8, 0xd0(%rsp)
vzeroupper
callq 0x6aa20
vmovss 0xd0(%rsp), %xmm8
vmovss 0x2c(%rsp), %xmm6
vmovaps 0xe0(%rsp), %xmm3
vmovss 0x1c(%rsp), %xmm7
vmovaps 0x120(%rsp), %xmm12
vmovaps %xmm0, %xmm5
vmovaps 0x1c0(%rsp), %xmm9
vmovaps 0x1a0(%rsp), %xmm18
vmulss %xmm3, %xmm8, %xmm0
vmulss %xmm3, %xmm3, %xmm1
vmulss %xmm1, %xmm0, %xmm0
vaddss %xmm0, %xmm6, %xmm0
vbroadcastss %xmm0, %xmm4
vmulps %xmm4, %xmm12, %xmm0
vmovaps %xmm0, 0xe0(%rsp)
vdpps $0x7f, %xmm0, %xmm9, %xmm14
vaddss 0x1da4de(%rip), %xmm7, %xmm13 # 0x1eec714
vmulps %xmm14, %xmm14, %xmm0
vsubps %xmm0, %xmm18, %xmm0
vxorps %xmm2, %xmm2, %xmm2
vmovss %xmm0, %xmm2, %xmm1 # xmm1 = xmm0[0],xmm2[1,2,3]
vrsqrt14ss %xmm1, %xmm2, %xmm15
vmulss 0x1da4bf(%rip), %xmm15, %xmm17 # 0x1eec718
vmulss 0x1da4b9(%rip), %xmm0, %xmm19 # 0x1eec71c
vucomiss 0x1d97b9(%rip), %xmm0 # 0x1eeba24
jb 0x1d12276
vsqrtss %xmm0, %xmm0, %xmm0
jmp 0x1d1230c
vmovss %xmm13, 0x2c(%rsp)
vmovaps %xmm14, 0xd0(%rsp)
vmovss %xmm5, 0x4c(%rsp)
vmovaps %xmm15, 0x2d0(%rsp)
vmovss %xmm17, 0x48(%rsp)
vmovss %xmm19, 0x44(%rsp)
vmovaps %xmm4, 0x2c0(%rsp)
vzeroupper
callq 0x6aa20
vmovaps 0x2c0(%rsp), %xmm4
vmovss 0x44(%rsp), %xmm19
vmovss 0x48(%rsp), %xmm17
vmovaps 0x2d0(%rsp), %xmm15
vmovss 0x4c(%rsp), %xmm5
vmovaps 0xd0(%rsp), %xmm14
vmovss 0x2c(%rsp), %xmm13
vmovss 0x1c(%rsp), %xmm7
vmovaps 0x120(%rsp), %xmm12
vmovaps 0x1a0(%rsp), %xmm18
vmovaps 0x1c0(%rsp), %xmm9
vbroadcastss 0x20ebae(%rip), %ymm28 # 0x1f20ec4
vmovaps 0x60(%rsp), %xmm10
vmovaps 0xa0(%rsp), %xmm8
vmovss 0x1de6af(%rip), %xmm2 # 0x1ef09dc
vmovaps %xmm2, %xmm1
vmovaps 0x80(%rsp), %xmm3
vfmadd213ss %xmm10, %xmm3, %xmm1 # xmm1 = (xmm3 * xmm1) + xmm10
vfmadd231ss %xmm2, %xmm10, %xmm3 # xmm3 = (xmm10 * xmm2) + xmm3
vbroadcastss %xmm10, %xmm2
vmulps 0x200(%rsp), %xmm2, %xmm2
vbroadcastss %xmm3, %xmm3
vfmadd132ps 0x240(%rsp), %xmm2, %xmm3 # xmm3 = (xmm3 * mem) + xmm2
vbroadcastss %xmm1, %xmm1
vfmadd132ps 0x220(%rsp), %xmm3, %xmm1 # xmm1 = (xmm1 * mem) + xmm3
vmovaps 0x300(%rsp), %xmm2
vfmadd132ps 0x260(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1
vbroadcastss 0x2f0(%rsp), %xmm1
vmulps %xmm1, %xmm2, %xmm1
vdpps $0x7f, %xmm2, %xmm12, %xmm2
vbroadcastss %xmm2, %xmm2
vmulps %xmm2, %xmm12, %xmm2
vsubps %xmm2, %xmm1, %xmm2
vmovss 0x58(%rsp), %xmm1
vmulss 0x2e0(%rsp), %xmm1, %xmm3
vmulss 0x54(%rsp), %xmm8, %xmm1
vmovss 0x50(%rsp), %xmm6
vmaxss %xmm1, %xmm6, %xmm1
vbroadcastss %xmm3, %xmm3
vmulps %xmm3, %xmm2, %xmm2
vxorps 0x20eaea(%rip){1to4}, %xmm12, %xmm3 # 0x1f20ec0
vmulps %xmm2, %xmm4, %xmm2
vmovaps 0xe0(%rsp), %xmm11
vdpps $0x7f, %xmm11, %xmm3, %xmm4
vdivss %xmm5, %xmm6, %xmm5
vfmadd213ss %xmm1, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm7) + xmm1
vdpps $0x7f, %xmm2, %xmm9, %xmm2
vfmadd213ss %xmm7, %xmm5, %xmm13 # xmm13 = (xmm5 * xmm13) + xmm7
vaddss %xmm2, %xmm4, %xmm4
vmovaps 0x1f0(%rsp), %xmm7
vdpps $0x7f, %xmm11, %xmm7, %xmm5
vdpps $0x7f, %xmm3, %xmm9, %xmm3
vmulss %xmm15, %xmm19, %xmm2
vmulss %xmm15, %xmm15, %xmm6
vmulss %xmm6, %xmm2, %xmm2
vaddss %xmm2, %xmm17, %xmm6
vdpps $0x7f, %xmm7, %xmm9, %xmm7
vfnmadd231ss %xmm4, %xmm14, %xmm3 # xmm3 = -(xmm14 * xmm4) + xmm3
vfnmadd231ss %xmm5, %xmm14, %xmm7 # xmm7 = -(xmm14 * xmm5) + xmm7
vpermilps $0xff, 0x310(%rsp), %xmm2 # xmm2 = mem[3,3,3,3]
vsubss %xmm2, %xmm0, %xmm2
vshufps $0xff, %xmm12, %xmm12, %xmm0 # xmm0 = xmm12[3,3,3,3]
vfmsub213ss %xmm0, %xmm6, %xmm3 # xmm3 = (xmm6 * xmm3) - xmm0
vmulss %xmm6, %xmm7, %xmm6
vmulss %xmm3, %xmm5, %xmm7
vfmsub231ss %xmm6, %xmm4, %xmm7 # xmm7 = (xmm4 * xmm6) - xmm7
vdivss %xmm7, %xmm6, %xmm6
vdivss %xmm7, %xmm3, %xmm3
vdivss %xmm7, %xmm5, %xmm5
vdivss %xmm7, %xmm4, %xmm4
vmulss %xmm6, %xmm14, %xmm6
vmulss %xmm5, %xmm2, %xmm5
vsubss %xmm5, %xmm6, %xmm5
vmulss %xmm3, %xmm14, %xmm3
vmulss %xmm4, %xmm2, %xmm4
vsubss %xmm3, %xmm4, %xmm3
vsubss %xmm5, %xmm10, %xmm10
vsubss %xmm3, %xmm8, %xmm8
vbroadcastss 0x20ea29(%rip), %xmm4 # 0x1f20ec4
vandps %xmm4, %xmm14, %xmm3
vucomiss %xmm3, %xmm13
movb $0x1, %al
jbe 0x1d124f7
vaddss %xmm1, %xmm13, %xmm1
vmovaps 0x2a0(%rsp), %xmm3
vfmadd231ss 0x1df9f7(%rip), %xmm3, %xmm1 # xmm1 = (xmm3 * mem) + xmm1
vandps %xmm4, %xmm2, %xmm2
vucomiss %xmm2, %xmm1
jbe 0x1d124f7
vaddss 0x2b0(%rsp), %xmm8, %xmm8
vucomiss 0x5c(%rsp), %xmm8
jb 0x1d124f2
movq 0x30(%rsp), %rax
movq 0x20(%rsp), %rcx
vmovss 0x100(%rcx,%rax,4), %xmm4
vucomiss %xmm8, %xmm4
jae 0x1d1250d
xorl %eax, %eax
xorl %r14d, %r14d
testb %al, %al
je 0x1d12820
decq %r15
jne 0x1d11f5c
jmp 0x1d1281d
xorl %eax, %eax
vucomiss 0x1d950d(%rip), %xmm10 # 0x1eeba24
jb 0x1d124f4
vmovss 0x1da1f3(%rip), %xmm1 # 0x1eec714
vucomiss %xmm10, %xmm1
jb 0x1d124f4
vxorps %xmm2, %xmm2, %xmm2
vmovss %xmm18, %xmm2, %xmm1 # xmm1 = xmm18[0],xmm2[1,2,3]
vrsqrt14ss %xmm1, %xmm2, %xmm1
vmulss 0x1da1d8(%rip), %xmm1, %xmm2 # 0x1eec718
vmulss 0x1da1d2(%rip), %xmm18, %xmm3 # 0x1eec71c
movq 0x38(%rsp), %rdx
movq (%rdx), %rax
movq 0x1e8(%rax), %rax
movq 0xf8(%rsp), %rcx
movq (%rax,%rcx,8), %r14
movq 0x30(%rsp), %rax
movq 0x20(%rsp), %rcx
movl 0x120(%rcx,%rax,4), %eax
testl %eax, 0x34(%r14)
je 0x1d124f2
movq 0x10(%rdx), %rax
cmpq $0x0, 0x10(%rax)
jne 0x1d1259c
cmpq $0x0, 0x48(%r14)
jne 0x1d1259c
movb $0x1, %r14b
xorl %eax, %eax
jmp 0x1d124f7
vmulss %xmm1, %xmm3, %xmm3
vmulss %xmm1, %xmm1, %xmm1
vmulss %xmm1, %xmm3, %xmm1
vaddss %xmm1, %xmm2, %xmm1
vbroadcastss %xmm1, %xmm1
vmulps %xmm1, %xmm9, %xmm1
vfmadd213ps %xmm12, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm0) + xmm12
vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm12, %xmm12, %xmm3 # xmm3 = xmm12[1,2,0,3]
vmulps %xmm3, %xmm1, %xmm1
vfmsub231ps %xmm2, %xmm12, %xmm1 # xmm1 = (xmm12 * xmm2) - xmm1
vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3]
vshufps $0xd2, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,0,1,3]
vmulps %xmm1, %xmm0, %xmm0
vfmsub231ps %xmm3, %xmm2, %xmm0 # xmm0 = (xmm2 * xmm3) - xmm0
movq 0x38(%rsp), %rdx
movq 0x8(%rdx), %rax
vbroadcastss %xmm10, %ymm1
vbroadcastss 0x200107(%rip), %ymm2 # 0x1f12704
vpermps %ymm0, %ymm2, %ymm2
vbroadcastss 0x20e8d1(%rip), %ymm3 # 0x1f20edc
vpermps %ymm0, %ymm3, %ymm3
vbroadcastss %xmm0, %ymm0
vmovaps %ymm2, 0x4e0(%rsp)
vmovaps %ymm3, 0x500(%rsp)
vmovaps %ymm0, 0x520(%rsp)
vmovaps %ymm1, 0x540(%rsp)
vxorps %xmm0, %xmm0, %xmm0
vmovaps %ymm0, 0x560(%rsp)
vmovaps 0x420(%rsp), %ymm0
vmovaps %ymm0, 0x580(%rsp)
vmovdqa 0x400(%rsp), %ymm0
vmovdqa %ymm0, 0x5a0(%rsp)
movq 0x158(%rsp), %rcx
vpcmpeqd %ymm0, %ymm0, %ymm0
vmovdqa %ymm0, 0x20(%rcx)
vmovdqa %ymm0, (%rcx)
vbroadcastss (%rax), %ymm0
vmovaps %ymm0, 0x5c0(%rsp)
vbroadcastss 0x4(%rax), %ymm0
vmovaps %ymm0, 0x5e0(%rsp)
movq 0x30(%rsp), %rax
movq 0x20(%rsp), %rcx
vmovss %xmm8, 0x100(%rcx,%rax,4)
vmovaps 0x3e0(%rsp), %ymm0
vmovaps %ymm0, 0x280(%rsp)
leaq 0x280(%rsp), %rax
movq %rax, 0x170(%rsp)
movq 0x18(%r14), %rax
movq %rax, 0x178(%rsp)
movq 0x8(%rdx), %rax
movq %rax, 0x180(%rsp)
movq %rcx, 0x188(%rsp)
leaq 0x4e0(%rsp), %rax
movq %rax, 0x190(%rsp)
movl $0x8, 0x198(%rsp)
movq 0x48(%r14), %rax
testq %rax, %rax
vmovaps %xmm10, 0x60(%rsp)
vmovaps %xmm8, 0xa0(%rsp)
vmovss %xmm4, 0x80(%rsp)
je 0x1d1275c
leaq 0x170(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0x80(%rsp), %xmm4
vmovaps 0xa0(%rsp), %xmm8
vmovaps 0x60(%rsp), %xmm10
vbroadcastss 0x20e768(%rip), %ymm28 # 0x1f20ec4
vmovdqa 0x280(%rsp), %ymm0
vptest %ymm0, %ymm0
je 0x1d127f9
movq 0x38(%rsp), %rax
movq 0x10(%rax), %rcx
movq 0x10(%rcx), %rax
testq %rax, %rax
je 0x1d127bd
testb $0x2, (%rcx)
jne 0x1d1278e
testb $0x40, 0x3e(%r14)
je 0x1d127bd
leaq 0x170(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0x80(%rsp), %xmm4
vmovaps 0xa0(%rsp), %xmm8
vmovaps 0x60(%rsp), %xmm10
vbroadcastss 0x20e707(%rip), %ymm28 # 0x1f20ec4
vmovdqa 0x280(%rsp), %ymm0
vptestmd %ymm0, %ymm0, %k1
movq 0x188(%rsp), %rax
vmovaps 0x100(%rax), %ymm1
vbroadcastss 0x1da39e(%rip), %ymm1 {%k1} # 0x1eecb84
vmovaps %ymm1, 0x100(%rax)
vptest %ymm0, %ymm0
setne %r14b
jmp 0x1d127fc
xorl %r14d, %r14d
testb %r14b, %r14b
jne 0x1d12595
movq 0x30(%rsp), %rax
movq 0x20(%rsp), %rcx
vmovss %xmm4, 0x100(%rcx,%rax,4)
jmp 0x1d12595
xorl %r14d, %r14d
andb $0x1, %r14b
orb %r14b, %r13b
movq 0x30(%rsp), %rdx
movq 0x20(%rsp), %rax
vmovaps 0x380(%rsp), %ymm0
vcmpleps 0x100(%rax,%rdx,4){1to8}, %ymm0, %k0
kmovd %k0, %eax
andb %al, %r12b
jne 0x1d11e72
vmovdqa 0x440(%rsp), %ymm1
vpcmpltd 0x360(%rsp), %ymm1, %k1
vmovaps 0x8c0(%rsp), %ymm0
vpcmpltd 0x640(%rsp), %ymm1, %k2
vmovaps 0x340(%rsp), %ymm3
vaddps %ymm0, %ymm3, %ymm1
movq 0x20(%rsp), %rax
vbroadcastss 0x100(%rax,%rdx,4), %ymm2
vcmpleps %ymm2, %ymm1, %k0 {%k2}
kmovd %k0, %eax
movl 0x110(%rsp), %ecx
andb %al, %cl
vmovaps 0x600(%rsp), %ymm1
vaddps %ymm1, %ymm3, %ymm3
vcmpleps %ymm2, %ymm3, %k0 {%k1}
kmovd %k0, %eax
movl 0x40(%rsp), %esi
andb %al, %sil
orb %cl, %sil
je 0x1d12937
movl %ebx, %eax
leaq (%rax,%rax,2), %rax
shlq $0x5, %rax
movb %sil, 0x900(%rsp,%rax)
kmovd %ecx, %k1
vmovaps %ymm0, %ymm1 {%k1}
vmovaps %ymm1, 0x920(%rsp,%rax)
vmovaps 0x140(%rsp), %xmm2
vmovlps %xmm2, 0x940(%rsp,%rax)
movq 0x100(%rsp), %rcx
incl %ecx
movl %ecx, 0x948(%rsp,%rax)
incl %ebx
movq 0x160(%rsp), %r8
movq 0x38(%rsp), %r14
vbroadcastss 0x1d9dec(%rip), %ymm3 # 0x1eec714
movb 0x1b(%rsp), %r15b
movq 0x168(%rsp), %r12
jmp 0x1d12963
movq 0x160(%rsp), %r8
movq 0x38(%rsp), %r14
vbroadcastss 0x1d9dc7(%rip), %ymm3 # 0x1eec714
movb 0x1b(%rsp), %r15b
movq 0x168(%rsp), %r12
vmovaps 0x140(%rsp), %xmm2
testl %ebx, %ebx
je 0x1d12b38
leal -0x1(%rbx), %r9d
leaq (%r9,%r9,2), %rcx
shlq $0x5, %rcx
vmovaps 0x920(%rsp,%rcx), %ymm0
movzbl 0x900(%rsp,%rcx), %esi
vaddps 0x340(%rsp), %ymm0, %ymm1
movq 0x20(%rsp), %rax
vcmpleps 0x100(%rax,%rdx,4){1to8}, %ymm1, %k0
kmovb %k0, %eax
andl %esi, %eax
je 0x1d12a60
kmovd %eax, %k1
vbroadcastss 0x1d9068(%rip), %ymm1 # 0x1eeba20
vblendmps %ymm0, %ymm1, %ymm0 {%k1}
vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm0, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1]
vminps %ymm2, %ymm1, %ymm1
vcmpeqps %ymm1, %ymm0, %k0
kmovd %k0, %esi
andb %al, %sil
je 0x1d129f0
movzbl %sil, %edi
jmp 0x1d129f3
movzbl %al, %edi
leaq (%rsp,%rcx), %rsi
addq $0x900, %rsi # imm = 0x900
vmovss 0x44(%rsi), %xmm0
tzcntl %edi, %ecx
movb $0x1, %dil
shlb %cl, %dil
movl 0x48(%rsi), %r10d
movq %r10, 0x100(%rsp)
movzbl %dil, %edi
kmovd %edi, %k0
kmovd %eax, %k1
kandnb %k1, %k0, %k0
kmovb %k0, (%rsi)
kortestb %k0, %k0
je 0x1d12a36
movl %ebx, %r9d
vbroadcastss 0x40(%rsi), %ymm1
vsubss %xmm1, %xmm0, %xmm0
vbroadcastss %xmm0, %ymm0
vfmadd132ps 0x20e4d2(%rip), %ymm1, %ymm0 # ymm0 = (ymm0 * mem) + ymm1
vmovaps %ymm0, 0x4e0(%rsp)
vmovsd 0x4e0(%rsp,%rcx,4), %xmm2
movl %r9d, %ebx
testb %al, %al
je 0x1d12963
vmovaps 0x840(%rsp), %ymm16
vmovaps 0x820(%rsp), %ymm17
vmovaps 0x800(%rsp), %ymm18
vmovaps 0x7e0(%rsp), %ymm19
vmovaps 0x7c0(%rsp), %ymm20
vmovaps 0x7a0(%rsp), %ymm22
vmovaps 0x780(%rsp), %ymm23
vmovaps 0x760(%rsp), %ymm24
vmovaps 0x740(%rsp), %ymm25
vmovaps 0x720(%rsp), %ymm27
vmovaps 0x700(%rsp), %ymm29
vmovaps 0x6e0(%rsp), %ymm31
vmovaps 0x6c0(%rsp), %ymm21
vmovaps 0x6a0(%rsp), %ymm30
vmovaps 0x680(%rsp), %ymm6
jmp 0x1d107c7
vcmpleps 0x20e40c(%rip), %ymm4, %k2 # 0x1f20f00
vbroadcastss 0x1da087(%rip), %ymm4 # 0x1eecb84
vbroadcastss 0x1d8f19(%rip), %ymm16 # 0x1eeba20
vblendmps %ymm4, %ymm16, %ymm3 {%k2}
vmovaps %ymm3, %ymm30 {%k1}
vblendmps %ymm16, %ymm4, %ymm3 {%k2}
kmovd %k2, %ecx
vmovaps %ymm3, %ymm31 {%k1}
knotb %k1, %k0
kmovd %k0, %esi
orb %cl, %sil
andb %al, %sil
movl %esi, %eax
jmp 0x1d10d33
testb $0x1, %r13b
jne 0x1d12b66
movq 0x20(%rsp), %rax
vmovaps 0x660(%rsp), %ymm0
vcmpleps 0x100(%rax,%rdx,4){1to8}, %ymm0, %k0
kmovb %k0, %eax
andl %eax, %r12d
setne %r15b
jne 0x1d1043b
andb $0x1, %r15b
movl %r15d, %eax
leaq -0x28(%rbp), %rsp
popq %rbx
popq %r12
popq %r13
popq %r14
popq %r15
popq %rbp
vzeroupper
retq
nop
|
/embree[P]embree/kernels/geometry/curveNi_intersector.h
|
void embree::avx512::CurveNiIntersectorK<8, 16>::intersect_t<embree::avx512::SweepCurve1IntersectorK<embree::BSplineCurveT, 16>, embree::avx512::Intersect1KEpilog1<16, true>>(embree::avx512::CurvePrecalculationsK<16>&, embree::RayHitK<16>&, unsigned long, embree::RayQueryContext*, embree::CurveNi<8> const&)
|
static __forceinline void intersect_t(Precalculations& pre, RayHitK<K>& ray, const size_t k, RayQueryContext* context, const Primitive& prim)
{
vfloat<M> tNear;
vbool<M> valid = intersect(ray,k,prim,tNear);
const size_t N = prim.N;
size_t mask = movemask(valid);
while (mask)
{
const size_t i = bscf(mask);
STAT3(normal.trav_prims,1,1,1);
const unsigned int geomID = prim.geomID(N);
const unsigned int primID = prim.primID(N)[i];
const CurveGeometry* geom = context->scene->get<CurveGeometry>(geomID);
Vec3ff a0,a1,a2,a3; geom->gather(a0,a1,a2,a3,geom->curve(primID));
size_t mask1 = mask;
const size_t i1 = bscf(mask1);
if (mask) {
const unsigned int primID1 = prim.primID(N)[i1];
geom->prefetchL1_vertices(geom->curve(primID1));
if (mask1) {
const size_t i2 = bsf(mask1);
const unsigned int primID2 = prim.primID(N)[i2];
geom->prefetchL2_vertices(geom->curve(primID2));
}
}
Intersector().intersect(pre,ray,k,context,geom,primID,a0,a1,a2,a3,Epilog(ray,k,context,geomID,primID));
mask &= movemask(tNear <= vfloat<M>(ray.tfar[k]));
}
}
|
pushq %rbp
movq %rsp, %rbp
pushq %r15
pushq %r14
pushq %r13
pushq %r12
pushq %rbx
andq $-0x40, %rsp
subq $0xc80, %rsp # imm = 0xC80
movq %rcx, %r15
movq %rsi, %r12
movzbl 0x1(%r8), %ecx
leaq (%rcx,%rcx,4), %rax
leaq (%rax,%rax,4), %rsi
vbroadcastss 0x12(%r8,%rsi), %xmm0
vmovss (%r12,%rdx,4), %xmm1
vmovss 0x100(%r12,%rdx,4), %xmm2
vinsertps $0x10, 0x40(%r12,%rdx,4), %xmm1, %xmm1 # xmm1 = xmm1[0],mem[0],xmm1[2,3]
vinsertps $0x20, 0x80(%r12,%rdx,4), %xmm1, %xmm1 # xmm1 = xmm1[0,1],mem[0],xmm1[3]
vinsertps $0x10, 0x140(%r12,%rdx,4), %xmm2, %xmm2 # xmm2 = xmm2[0],mem[0],xmm2[2,3]
vinsertps $0x20, 0x180(%r12,%rdx,4), %xmm2, %xmm2 # xmm2 = xmm2[0,1],mem[0],xmm2[3]
vsubps 0x6(%r8,%rsi), %xmm1, %xmm1
vmulps %xmm1, %xmm0, %xmm3
vmulps %xmm2, %xmm0, %xmm0
vpmovsxbd 0x6(%r8,%rcx,4), %ymm1
vpmovsxbd 0x6(%r8,%rax), %ymm2
vcvtdq2ps %ymm1, %ymm5
vcvtdq2ps %ymm2, %ymm6
leaq (%rcx,%rcx,2), %r9
vpmovsxbd 0x6(%r8,%r9,2), %ymm1
vcvtdq2ps %ymm1, %ymm4
leaq (%rcx,%rax,2), %rsi
vpmovsxbd 0x6(%r8,%rsi), %ymm1
leal (,%r9,4), %esi
vpmovsxbd 0x6(%r8,%rsi), %ymm2
vcvtdq2ps %ymm1, %ymm7
vcvtdq2ps %ymm2, %ymm8
addq %rcx, %rsi
vpmovsxbd 0x6(%r8,%rsi), %ymm1
vcvtdq2ps %ymm1, %ymm9
leaq (%rcx,%rcx,8), %rsi
leal (%rsi,%rsi), %edi
vpmovsxbd 0x6(%r8,%rdi), %ymm1
vcvtdq2ps %ymm1, %ymm10
addq %rcx, %rdi
vpmovsxbd 0x6(%r8,%rdi), %ymm1
vcvtdq2ps %ymm1, %ymm11
shll $0x2, %eax
vpmovsxbd 0x6(%r8,%rax), %ymm1
vcvtdq2ps %ymm1, %ymm12
vbroadcastss %xmm0, %ymm13
vbroadcastss 0x1ffa79(%rip), %ymm15 # 0x1f12704
vbroadcastss 0x20e247(%rip), %ymm16 # 0x1f20edc
vpermps %ymm0, %ymm15, %ymm14
vpermps %ymm0, %ymm16, %ymm0
vmulps %ymm4, %ymm0, %ymm2
vmulps %ymm0, %ymm9, %ymm1
vmulps %ymm0, %ymm12, %ymm0
vfmadd231ps %ymm6, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm6) + ymm2
vfmadd231ps %ymm8, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm8) + ymm1
vfmadd231ps %ymm14, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm14) + ymm0
vfmadd231ps %ymm5, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm5) + ymm2
vfmadd231ps %ymm7, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm7) + ymm1
vfmadd231ps %ymm13, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm13) + ymm0
vbroadcastss %xmm3, %ymm13
vpermps %ymm3, %ymm15, %ymm14
vpermps %ymm3, %ymm16, %ymm3
vmulps %ymm4, %ymm3, %ymm15
vmulps %ymm3, %ymm9, %ymm4
vmulps %ymm3, %ymm12, %ymm3
vfmadd231ps %ymm6, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm6) + ymm15
vfmadd231ps %ymm8, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm8) + ymm4
vfmadd231ps %ymm11, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm11) + ymm3
vfmadd231ps %ymm5, %ymm13, %ymm15 # ymm15 = (ymm13 * ymm5) + ymm15
vfmadd231ps %ymm7, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm7) + ymm4
vbroadcastss 0x20e1bc(%rip), %ymm6 # 0x1f20ec4
vfmadd231ps %ymm10, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm10) + ymm3
vandps %ymm6, %ymm2, %ymm5
vbroadcastss 0x1de2ce(%rip), %ymm7 # 0x1ef0fe8
vcmpltps %ymm7, %ymm5, %k1
vmovaps %ymm7, %ymm2 {%k1}
vandps %ymm6, %ymm1, %ymm5
vcmpltps %ymm7, %ymm5, %k1
vmovaps %ymm7, %ymm1 {%k1}
vandps %ymm6, %ymm0, %ymm5
vcmpltps %ymm7, %ymm5, %k1
vmovaps %ymm7, %ymm0 {%k1}
vrcp14ps %ymm2, %ymm5
vbroadcastss 0x1d99bc(%rip), %ymm6 # 0x1eec714
vfnmadd213ps %ymm6, %ymm5, %ymm2 # ymm2 = -(ymm5 * ymm2) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm2 # ymm2 = (ymm2 * ymm5) + ymm5
vrcp14ps %ymm1, %ymm5
vfnmadd213ps %ymm6, %ymm5, %ymm1 # ymm1 = -(ymm5 * ymm1) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm1 # ymm1 = (ymm1 * ymm5) + ymm5
vrcp14ps %ymm0, %ymm5
vfnmadd213ps %ymm6, %ymm5, %ymm0 # ymm0 = -(ymm5 * ymm0) + ymm6
vfmadd132ps %ymm5, %ymm5, %ymm0 # ymm0 = (ymm0 * ymm5) + ymm5
leaq (,%rcx,8), %rdi
subq %rcx, %rdi
vpmovsxwd 0x6(%r8,%rdi), %ymm5
vcvtdq2ps %ymm5, %ymm5
vsubps %ymm15, %ymm5, %ymm5
vmulps %ymm5, %ymm2, %ymm5
vpmovsxwd 0x6(%r8,%rsi), %ymm6
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm15, %ymm6, %ymm6
leaq (%rcx,%rcx), %rsi
addq %rcx, %rax
shlq $0x3, %r9
subq %rcx, %r9
vpbroadcastd %ecx, %ymm7
shll $0x4, %ecx
vpmovsxwd 0x6(%r8,%rcx), %ymm8
vmulps %ymm6, %ymm2, %ymm2
subq %rsi, %rcx
vpmovsxwd 0x6(%r8,%rcx), %ymm6
vcvtdq2ps %ymm6, %ymm6
vsubps %ymm4, %ymm6, %ymm6
vmulps %ymm6, %ymm1, %ymm6
vcvtdq2ps %ymm8, %ymm8
vsubps %ymm4, %ymm8, %ymm4
vmulps %ymm4, %ymm1, %ymm1
vpmovsxwd 0x6(%r8,%rax), %ymm4
vcvtdq2ps %ymm4, %ymm4
vsubps %ymm3, %ymm4, %ymm4
vmulps %ymm0, %ymm4, %ymm4
vpmovsxwd 0x6(%r8,%r9), %ymm8
vcvtdq2ps %ymm8, %ymm8
vsubps %ymm3, %ymm8, %ymm3
vmulps %ymm3, %ymm0, %ymm0
vpminsd %ymm2, %ymm5, %ymm3
vpminsd %ymm1, %ymm6, %ymm8
vmaxps %ymm8, %ymm3, %ymm3
vpminsd %ymm0, %ymm4, %ymm8
vmaxps 0xc0(%r12,%rdx,4){1to8}, %ymm8, %ymm8
vmaxps %ymm8, %ymm3, %ymm3
vmulps 0x20d0c8(%rip){1to8}, %ymm3, %ymm3 # 0x1f1ff10
vpmaxsd %ymm2, %ymm5, %ymm2
vpmaxsd %ymm1, %ymm6, %ymm1
vminps %ymm1, %ymm2, %ymm1
vpmaxsd %ymm0, %ymm4, %ymm0
movq %rdx, 0x38(%rsp)
vminps 0x200(%r12,%rdx,4){1to8}, %ymm0, %ymm0
vminps %ymm0, %ymm1, %ymm0
vmulps 0x20d09b(%rip){1to8}, %ymm0, %ymm0 # 0x1f1ff14
vpcmpgtd 0x247a9d(%rip), %ymm7, %k0 # 0x1f5a920
vmovaps %ymm3, 0x560(%rsp)
vcmpleps %ymm0, %ymm3, %k1
ktestb %k0, %k1
je 0x1d15855
kandb %k0, %k1, %k0
kmovd %k0, %eax
movzbl %al, %r10d
leaq 0x8c0(%rsp), %rax
addq $0x1c0, %rax # imm = 0x1C0
movq %rax, 0x198(%rsp)
movl $0x1, %eax
movq 0x38(%rsp), %rcx
shlxl %ecx, %eax, %eax
kmovd %eax, %k0
vpmovm2d %k0, %zmm0
vmovdqa64 %zmm0, 0x800(%rsp)
movq %r15, 0x48(%rsp)
movq %r8, 0x1a0(%rsp)
tzcntq %r10, %rax
movl 0x2(%r8), %ecx
movl 0x6(%r8,%rax,4), %edi
movq (%r15), %rax
movq 0x1e8(%rax), %rax
movq %rcx, 0x70(%rsp)
movq (%rax,%rcx,8), %rsi
movq 0x58(%rsi), %rax
movq 0x68(%rsi), %rcx
movq %rcx, %rdx
movq %rdi, 0x110(%rsp)
imulq %rdi, %rdx
movl (%rax,%rdx), %edi
movq 0xa0(%rsi), %rdx
movq %rdx, %r9
imulq %rdi, %r9
movq 0x90(%rsi), %rsi
vmovaps (%rsi,%r9), %xmm1
leaq 0x1(%rdi), %r9
imulq %rdx, %r9
vmovaps (%rsi,%r9), %xmm0
leaq 0x2(%rdi), %r9
imulq %rdx, %r9
vmovaps (%rsi,%r9), %xmm2
blsrq %r10, %r10
addq $0x3, %rdi
imulq %rdx, %rdi
vmovaps (%rsi,%rdi), %xmm3
movq %r10, %rdi
subq $0x1, %rdi
jb 0x1d12fc1
andq %r10, %rdi
tzcntq %r10, %r9
movl 0x6(%r8,%r9,4), %r9d
imulq %rcx, %r9
movl (%rax,%r9), %r9d
imulq %rdx, %r9
prefetcht0 (%rsi,%r9)
prefetcht0 0x40(%rsi,%r9)
testq %rdi, %rdi
je 0x1d12fc1
tzcntq %rdi, %rdi
movl 0x6(%r8,%rdi,4), %edi
imulq %rdi, %rcx
movl (%rax,%rcx), %eax
imulq %rax, %rdx
prefetcht1 (%rsi,%rdx)
prefetcht1 0x40(%rsi,%rdx)
movq 0x38(%rsp), %rax
vmovss (%r12,%rax,4), %xmm4
vinsertps $0x1c, 0x40(%r12,%rax,4), %xmm4, %xmm4 # xmm4 = xmm4[0],mem[0],zero,zero
vinsertps $0x28, 0x80(%r12,%rax,4), %xmm4, %xmm4 # xmm4 = xmm4[0,1],mem[0],zero
vbroadcastss 0x100(%r12,%rax,4), %ymm30
vbroadcastss 0x140(%r12,%rax,4), %ymm31
vunpcklps %xmm31, %xmm30, %xmm5 # xmm5 = xmm30[0],xmm31[0],xmm30[1],xmm31[1]
vbroadcastss 0x180(%r12,%rax,4), %ymm21
vinsertps $0x28, %xmm21, %xmm5, %xmm9 # xmm9 = xmm5[0,1],xmm21[0],zero
vaddps %xmm0, %xmm1, %xmm5
vaddps %xmm2, %xmm5, %xmm5
vaddps %xmm3, %xmm5, %xmm5
vmulps 0x20a2e2(%rip){1to4}, %xmm5, %xmm5 # 0x1f1d2fc
vsubps %xmm4, %xmm5, %xmm5
vdpps $0x7f, %xmm9, %xmm5, %xmm5
vmovss 0xc0(%r12,%rax,4), %xmm10
vdpps $0x7f, %xmm9, %xmm9, %xmm11
vxorps %xmm8, %xmm8, %xmm8
vmovss %xmm11, %xmm8, %xmm6
vrcp14ss %xmm6, %xmm8, %xmm6
vmovaps %xmm6, %xmm7
vfnmadd213ss 0x1ddfa8(%rip), %xmm11, %xmm7 # xmm7 = -(xmm11 * xmm7) + mem
vmulss %xmm7, %xmm6, %xmm6
vmulss %xmm6, %xmm5, %xmm5
vbroadcastss %xmm5, %ymm6
vmovaps %xmm9, 0x250(%rsp)
vmovaps %ymm6, 0x380(%rsp)
vfmadd231ps %xmm6, %xmm9, %xmm4 # xmm4 = (xmm9 * xmm6) + xmm4
vblendps $0x8, %xmm8, %xmm4, %xmm4 # xmm4 = xmm4[0,1,2],xmm8[3]
vsubps %xmm4, %xmm1, %xmm6
vsubps %xmm4, %xmm2, %xmm7
vsubps %xmm4, %xmm0, %xmm8
vsubps %xmm4, %xmm3, %xmm3
vbroadcastss %xmm6, %ymm0
vmovaps %ymm0, 0x7a0(%rsp)
vbroadcastss 0x1ff663(%rip), %ymm0 # 0x1f12704
vpermps %ymm6, %ymm0, %ymm1
vmovaps %ymm1, 0x780(%rsp)
vbroadcastss 0x20de24(%rip), %ymm1 # 0x1f20edc
vpermps %ymm6, %ymm1, %ymm2
vmovaps %ymm2, 0x760(%rsp)
vbroadcastss 0x20de09(%rip), %ymm2 # 0x1f20ed8
vmovaps %ymm6, 0x2c0(%rsp)
vpermps %ymm6, %ymm2, %ymm4
vmovaps %ymm4, 0x740(%rsp)
vbroadcastss %xmm8, %ymm4
vmovaps %ymm4, 0x720(%rsp)
vpermps %ymm8, %ymm0, %ymm4
vmovaps %ymm4, 0x700(%rsp)
vpermps %ymm8, %ymm1, %ymm4
vmovaps %ymm4, 0x6e0(%rsp)
vmovaps %ymm8, 0x280(%rsp)
vpermps %ymm8, %ymm2, %ymm4
vmovaps %ymm4, 0x6c0(%rsp)
vbroadcastss %xmm7, %ymm4
vmovaps %ymm4, 0x6a0(%rsp)
vpermps %ymm7, %ymm0, %ymm4
vmovaps %ymm4, 0x680(%rsp)
vpermps %ymm7, %ymm1, %ymm4
vmovaps %ymm4, 0x660(%rsp)
vmovaps %ymm7, 0x2a0(%rsp)
vpermps %ymm7, %ymm2, %ymm4
vmovaps %ymm4, 0x640(%rsp)
vbroadcastss %xmm3, %ymm4
vmovaps %ymm4, 0x620(%rsp)
vpermps %ymm3, %ymm0, %ymm0
vmovaps %ymm0, 0x600(%rsp)
vpermps %ymm3, %ymm1, %ymm0
vmovaps %ymm0, 0x5e0(%rsp)
vmovaps %ymm3, 0x260(%rsp)
vpermps %ymm3, %ymm2, %ymm0
vmovaps %ymm0, 0x5c0(%rsp)
vmulss %xmm21, %xmm21, %xmm0
vfmadd231ps %ymm31, %ymm31, %ymm0 # ymm0 = (ymm31 * ymm31) + ymm0
vfmadd231ps %ymm30, %ymm30, %ymm0 # ymm0 = (ymm30 * ymm30) + ymm0
vbroadcastss %xmm0, %ymm0
vmovaps %ymm0, 0x5a0(%rsp)
vandps 0x20dcf1(%rip){1to8}, %ymm0, %ymm0 # 0x1f20ec4
vmovaps %ymm0, 0x4c0(%rsp)
vmovss %xmm10, 0x7c(%rsp)
vmovaps %xmm5, 0x300(%rsp)
vsubss %xmm5, %xmm10, %xmm0
vbroadcastss %xmm0, %ymm0
vmovaps %ymm0, 0x580(%rsp)
movq 0x70(%rsp), %rax
vpbroadcastd %eax, %zmm0
vmovdqa64 %zmm0, 0x880(%rsp)
movl $0x1, %r11d
xorl %r9d, %r9d
movq 0x110(%rsp), %rax
vpbroadcastd %eax, %zmm0
vmovdqa64 %zmm0, 0x840(%rsp)
vsqrtss %xmm11, %xmm11, %xmm0
vmovss %xmm0, 0x12c(%rsp)
vmovaps %xmm11, 0x240(%rsp)
vsqrtss %xmm11, %xmm11, %xmm0
vmovss %xmm0, 0x128(%rsp)
vmovsd 0x1d9494(%rip), %xmm2 # 0x1eec6f0
vbroadcastss 0x1d94ae(%rip), %ymm16 # 0x1eec714
vmovaps %ymm30, 0x4e0(%rsp)
vmovaps %ymm31, 0x1e0(%rsp)
vmovaps %ymm21, 0x1c0(%rsp)
vmovshdup %xmm2, %xmm0 # xmm0 = xmm2[1,1,3,3]
vsubss %xmm2, %xmm0, %xmm0
vmulss 0x20dc42(%rip), %xmm0, %xmm1 # 0x1f20ed0
vmovaps %xmm1, 0xa0(%rsp)
vmovaps %xmm2, 0x180(%rsp)
vbroadcastss %xmm2, %ymm4
vbroadcastss %xmm0, %ymm0
vmovaps %ymm4, 0x80(%rsp)
vmovaps %ymm0, 0x220(%rsp)
vfmadd231ps 0x20dc5b(%rip), %ymm0, %ymm4 # ymm4 = (ymm0 * mem) + ymm4
vsubps %ymm4, %ymm16, %ymm7
vmulps %ymm7, %ymm7, %ymm8
vmulps %ymm7, %ymm8, %ymm0
vbroadcastss 0x1d98af(%rip), %ymm30 # 0x1eecb8c
vmulps %ymm30, %ymm0, %ymm1
vmulps %ymm4, %ymm4, %ymm9
vmulps %ymm4, %ymm9, %ymm2
vaddps %ymm1, %ymm2, %ymm1
vmulps %ymm7, %ymm4, %ymm10
vmulps %ymm7, %ymm10, %ymm5
vbroadcastss 0x1ddcfc(%rip), %ymm14 # 0x1ef0ffc
vmulps %ymm5, %ymm14, %ymm11
vmulps %ymm4, %ymm10, %ymm12
vbroadcastss 0x1ddce3(%rip), %ymm15 # 0x1ef0ff4
vmulps %ymm15, %ymm12, %ymm13
vaddps %ymm13, %ymm11, %ymm11
vaddps %ymm1, %ymm11, %ymm1
vmulps %ymm30, %ymm2, %ymm11
vaddps %ymm0, %ymm11, %ymm11
vmulps %ymm14, %ymm12, %ymm12
vmulps %ymm5, %ymm15, %ymm5
vaddps %ymm5, %ymm12, %ymm5
vaddps %ymm5, %ymm11, %ymm5
vbroadcastss 0x1ddcbd(%rip), %ymm14 # 0x1ef1000
vmulps %ymm0, %ymm14, %ymm11
vmulps %ymm1, %ymm14, %ymm12
vmulps %ymm5, %ymm14, %ymm13
vmulps %ymm2, %ymm14, %ymm5
vmovaps 0x620(%rsp), %ymm25
vmulps %ymm5, %ymm25, %ymm0
vmovaps 0x600(%rsp), %ymm27
vmulps %ymm5, %ymm27, %ymm2
vmovaps 0x5e0(%rsp), %ymm28
vmulps %ymm5, %ymm28, %ymm1
vmovaps 0x5c0(%rsp), %ymm29
vmulps %ymm5, %ymm29, %ymm5
vmovaps 0x6a0(%rsp), %ymm20
vfmadd231ps %ymm20, %ymm13, %ymm0 # ymm0 = (ymm13 * ymm20) + ymm0
vmovaps 0x680(%rsp), %ymm22
vfmadd231ps %ymm22, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm22) + ymm2
vmovaps 0x660(%rsp), %ymm23
vfmadd231ps %ymm23, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm23) + ymm1
vmovaps 0x640(%rsp), %ymm24
vfmadd231ps %ymm13, %ymm24, %ymm5 # ymm5 = (ymm24 * ymm13) + ymm5
vmovaps 0x720(%rsp), %ymm16
vfmadd231ps %ymm16, %ymm12, %ymm0 # ymm0 = (ymm12 * ymm16) + ymm0
vmovaps 0x700(%rsp), %ymm17
vfmadd231ps %ymm17, %ymm12, %ymm2 # ymm2 = (ymm12 * ymm17) + ymm2
vmovaps 0x6e0(%rsp), %ymm18
vfmadd231ps %ymm18, %ymm12, %ymm1 # ymm1 = (ymm12 * ymm18) + ymm1
vmovaps 0x6c0(%rsp), %ymm19
vfmadd231ps %ymm12, %ymm19, %ymm5 # ymm5 = (ymm19 * ymm12) + ymm5
vmovaps 0x7a0(%rsp), %ymm6
vfmadd231ps %ymm6, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm6) + ymm0
vmovaps 0x780(%rsp), %ymm3
vfmadd231ps %ymm3, %ymm11, %ymm2 # ymm2 = (ymm11 * ymm3) + ymm2
vmovaps 0x760(%rsp), %ymm14
vfmadd231ps %ymm14, %ymm11, %ymm1 # ymm1 = (ymm11 * ymm14) + ymm1
vmovaps 0x740(%rsp), %ymm15
vfmadd231ps %ymm11, %ymm15, %ymm5 # ymm5 = (ymm15 * ymm11) + ymm5
vbroadcastss 0x20da83(%rip), %ymm26 # 0x1f20ec0
vxorps %ymm26, %ymm7, %ymm11
vmulps %ymm7, %ymm11, %ymm7
vxorps %ymm26, %ymm4, %ymm11
vmulps %ymm4, %ymm11, %ymm4
vmulps %ymm30, %ymm10, %ymm10
vsubps %ymm10, %ymm4, %ymm4
vaddps %ymm10, %ymm8, %ymm8
vbroadcastss 0x1d9716(%rip), %ymm10 # 0x1eecb80
vmulps %ymm7, %ymm10, %ymm7
vmulps %ymm4, %ymm10, %ymm4
vmulps %ymm10, %ymm8, %ymm8
vmulps %ymm10, %ymm9, %ymm9
vmulps %ymm9, %ymm25, %ymm10
vmulps %ymm9, %ymm27, %ymm12
vmulps %ymm9, %ymm28, %ymm13
vmulps %ymm9, %ymm29, %ymm9
vfmadd231ps %ymm20, %ymm8, %ymm10 # ymm10 = (ymm8 * ymm20) + ymm10
vfmadd231ps %ymm22, %ymm8, %ymm12 # ymm12 = (ymm8 * ymm22) + ymm12
vfmadd231ps %ymm23, %ymm8, %ymm13 # ymm13 = (ymm8 * ymm23) + ymm13
vfmadd231ps %ymm8, %ymm24, %ymm9 # ymm9 = (ymm24 * ymm8) + ymm9
vfmadd231ps %ymm16, %ymm4, %ymm10 # ymm10 = (ymm4 * ymm16) + ymm10
vfmadd231ps %ymm17, %ymm4, %ymm12 # ymm12 = (ymm4 * ymm17) + ymm12
vfmadd231ps %ymm18, %ymm4, %ymm13 # ymm13 = (ymm4 * ymm18) + ymm13
vfmadd231ps %ymm4, %ymm19, %ymm9 # ymm9 = (ymm19 * ymm4) + ymm9
vfmadd231ps %ymm6, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm6) + ymm10
vfmadd231ps %ymm3, %ymm7, %ymm12 # ymm12 = (ymm7 * ymm3) + ymm12
vfmadd231ps %ymm14, %ymm7, %ymm13 # ymm13 = (ymm7 * ymm14) + ymm13
vfmadd231ps %ymm7, %ymm15, %ymm9 # ymm9 = (ymm15 * ymm7) + ymm9
vbroadcastss 0xa0(%rsp), %ymm4
vmulps %ymm4, %ymm10, %ymm11
vmulps %ymm4, %ymm12, %ymm12
vmulps %ymm4, %ymm13, %ymm13
vmulps %ymm4, %ymm9, %ymm6
vmovaps %ymm0, %ymm8
vmovaps 0x24c822(%rip), %ymm7 # 0x1f5fd20
vmovaps %ymm31, %ymm3
vxorps %xmm31, %xmm31, %xmm31
vpermt2ps %ymm31, %ymm7, %ymm8
vmovaps %ymm2, %ymm9
vpermt2ps %ymm31, %ymm7, %ymm9
vmovaps %ymm1, %ymm10
vpermt2ps %ymm31, %ymm7, %ymm10
vaddps %ymm5, %ymm6, %ymm4
vmaxps %ymm4, %ymm5, %ymm14
vminps %ymm4, %ymm5, %ymm4
vmovaps %ymm5, %ymm15
vpermt2ps %ymm31, %ymm7, %ymm15
vmovaps %ymm11, %ymm19
vpermt2ps %ymm31, %ymm7, %ymm19
vmovaps %ymm12, %ymm20
vpermt2ps %ymm31, %ymm7, %ymm20
vmovaps %ymm13, %ymm5
vpermt2ps %ymm31, %ymm7, %ymm5
vpermt2ps %ymm31, %ymm7, %ymm6
vsubps %ymm6, %ymm15, %ymm16
vsubps %ymm0, %ymm8, %ymm7
vsubps %ymm2, %ymm9, %ymm6
vsubps %ymm1, %ymm10, %ymm27
vmulps %ymm13, %ymm6, %ymm17
vfmsub231ps %ymm27, %ymm12, %ymm17 # ymm17 = (ymm12 * ymm27) - ymm17
vmulps %ymm11, %ymm27, %ymm18
vfmsub231ps %ymm7, %ymm13, %ymm18 # ymm18 = (ymm13 * ymm7) - ymm18
vmulps %ymm12, %ymm7, %ymm22
vfmsub231ps %ymm6, %ymm11, %ymm22 # ymm22 = (ymm11 * ymm6) - ymm22
vmulps %ymm22, %ymm22, %ymm22
vfmadd231ps %ymm18, %ymm18, %ymm22 # ymm22 = (ymm18 * ymm18) + ymm22
vfmadd231ps %ymm17, %ymm17, %ymm22 # ymm22 = (ymm17 * ymm17) + ymm22
vmulps %ymm27, %ymm27, %ymm17
vfmadd231ps %ymm6, %ymm6, %ymm17 # ymm17 = (ymm6 * ymm6) + ymm17
vfmadd231ps %ymm7, %ymm7, %ymm17 # ymm17 = (ymm7 * ymm7) + ymm17
vrcp14ps %ymm17, %ymm18
vmovaps %ymm18, %ymm23
vbroadcastss 0x1d9140(%rip), %ymm24 # 0x1eec714
vmovaps %ymm24, %ymm26
vfnmadd213ps %ymm24, %ymm17, %ymm23 # ymm23 = -(ymm17 * ymm23) + ymm24
vfmadd132ps %ymm18, %ymm18, %ymm23 # ymm23 = (ymm23 * ymm18) + ymm18
vmulps %ymm23, %ymm22, %ymm18
vmulps %ymm5, %ymm6, %ymm22
vfmsub231ps %ymm27, %ymm20, %ymm22 # ymm22 = (ymm20 * ymm27) - ymm22
vmulps %ymm19, %ymm27, %ymm24
vfmsub231ps %ymm7, %ymm5, %ymm24 # ymm24 = (ymm5 * ymm7) - ymm24
vmulps %ymm20, %ymm7, %ymm25
vfmsub231ps %ymm6, %ymm19, %ymm25 # ymm25 = (ymm19 * ymm6) - ymm25
vmulps %ymm25, %ymm25, %ymm25
vfmadd231ps %ymm24, %ymm24, %ymm25 # ymm25 = (ymm24 * ymm24) + ymm25
vfmadd231ps %ymm22, %ymm22, %ymm25 # ymm25 = (ymm22 * ymm22) + ymm25
vmulps %ymm23, %ymm25, %ymm22
vmaxps %ymm22, %ymm18, %ymm18
vsqrtps %ymm18, %ymm18
vmaxps %ymm15, %ymm16, %ymm22
vmaxps %ymm22, %ymm14, %ymm14
vaddps %ymm14, %ymm18, %ymm14
vminps %ymm15, %ymm16, %ymm15
vminps %ymm15, %ymm4, %ymm4
vsubps %ymm18, %ymm4, %ymm4
vmulps 0x1dd2df(%rip){1to8}, %ymm14, %ymm14 # 0x1ef0940
vmulps 0x1dd2d9(%rip){1to8}, %ymm4, %ymm4 # 0x1ef0944
vmovaps %ymm4, 0xa0(%rsp)
vmulps %ymm14, %ymm14, %ymm4
vrsqrt14ps %ymm17, %ymm15
vmulps 0x1d9093(%rip){1to8}, %ymm17, %ymm14 # 0x1eec71c
vmulps %ymm14, %ymm15, %ymm14
vmulps %ymm15, %ymm15, %ymm16
vmulps %ymm14, %ymm16, %ymm14
vfmadd231ps 0x1d9074(%rip){1to8}, %ymm15, %ymm14 # ymm14 = (ymm15 * mem) + ymm14
vmulps %ymm7, %ymm14, %ymm15
vmulps %ymm14, %ymm6, %ymm16
vmovaps %ymm27, 0x3a0(%rsp)
vmulps %ymm14, %ymm27, %ymm18
vmovaps %ymm0, 0x160(%rsp)
vsubps %ymm0, %ymm31, %ymm27
vmovaps %ymm2, 0xc0(%rsp)
vsubps %ymm2, %ymm31, %ymm28
vmovaps %ymm1, 0x200(%rsp)
vsubps %ymm1, %ymm31, %ymm29
vmulps %ymm29, %ymm21, %ymm22
vfmadd231ps %ymm28, %ymm3, %ymm22 # ymm22 = (ymm3 * ymm28) + ymm22
vmovaps 0x4e0(%rsp), %ymm0
vfmadd231ps %ymm27, %ymm0, %ymm22 # ymm22 = (ymm0 * ymm27) + ymm22
vmulps %ymm29, %ymm29, %ymm24
vfmadd231ps %ymm28, %ymm28, %ymm24 # ymm24 = (ymm28 * ymm28) + ymm24
vfmadd231ps %ymm27, %ymm27, %ymm24 # ymm24 = (ymm27 * ymm27) + ymm24
vmulps %ymm18, %ymm21, %ymm17
vfmadd231ps %ymm3, %ymm16, %ymm17 # ymm17 = (ymm16 * ymm3) + ymm17
vfmadd231ps %ymm0, %ymm15, %ymm17 # ymm17 = (ymm15 * ymm0) + ymm17
vmulps %ymm18, %ymm29, %ymm18
vfmadd231ps %ymm16, %ymm28, %ymm18 # ymm18 = (ymm28 * ymm16) + ymm18
vfmadd231ps %ymm15, %ymm27, %ymm18 # ymm18 = (ymm27 * ymm15) + ymm18
vmulps %ymm17, %ymm17, %ymm2
vmovaps 0x5a0(%rsp), %ymm3
vsubps %ymm2, %ymm3, %ymm15
vmulps %ymm18, %ymm17, %ymm25
vsubps %ymm25, %ymm22, %ymm22
vaddps %ymm22, %ymm22, %ymm22
vmulps %ymm18, %ymm18, %ymm25
vsubps %ymm25, %ymm24, %ymm1
vsubps %ymm4, %ymm1, %ymm4
vmulps %ymm22, %ymm22, %ymm25
vmulps %ymm30, %ymm15, %ymm24
vmulps %ymm4, %ymm24, %ymm30
vsubps %ymm30, %ymm25, %ymm30
vcmpnltps %ymm31, %ymm30, %k1
kmovd %k1, %eax
kortestb %k1, %k1
je 0x1d1387a
vsqrtps %ymm30, %ymm30
vaddps %ymm15, %ymm15, %ymm31
vrcp14ps %ymm31, %ymm3
vfnmadd213ps %ymm26, %ymm3, %ymm31 # ymm31 = -(ymm3 * ymm31) + ymm26
vfmadd132ps %ymm3, %ymm3, %ymm31 # ymm31 = (ymm31 * ymm3) + ymm3
vxorps 0x20d6fc(%rip){1to8}, %ymm22, %ymm3 # 0x1f20ec0
vsubps %ymm30, %ymm3, %ymm3
vmulps %ymm31, %ymm3, %ymm3
vsubps %ymm22, %ymm30, %ymm30
vmulps %ymm31, %ymm30, %ymm31
vmovaps %ymm17, %ymm30
vfmadd213ps %ymm18, %ymm3, %ymm30 # ymm30 = (ymm3 * ymm30) + ymm18
vmulps %ymm30, %ymm14, %ymm30
vmovaps %ymm30, 0x480(%rsp)
vmovaps %ymm17, %ymm30
vfmadd213ps %ymm18, %ymm31, %ymm30 # ymm30 = (ymm31 * ymm30) + ymm18
vmulps %ymm30, %ymm14, %ymm30
vmovaps %ymm30, 0x460(%rsp)
vbroadcastss 0x1d8206(%rip), %ymm16 # 0x1eeba20
vblendmps %ymm3, %ymm16, %ymm30 {%k1}
vbroadcastss 0x1d935b(%rip), %ymm3 # 0x1eecb84
vblendmps %ymm31, %ymm3, %ymm31 {%k1}
vbroadcastss 0x20d68b(%rip), %ymm23 # 0x1f20ec4
vandps %ymm23, %ymm2, %ymm3
vmovaps 0x4c0(%rsp), %ymm16
vmaxps %ymm3, %ymm16, %ymm3
vmulps 0x1de65d(%rip){1to8}, %ymm3, %ymm3 # 0x1ef1eb4
vandps %ymm23, %ymm15, %ymm23
vcmpltps %ymm3, %ymm23, %k1 {%k1}
kortestb %k1, %k1
jne 0x1d157e1
vbroadcastss 0x1d8e9c(%rip), %ymm16 # 0x1eec714
jmp 0x1d13894
vbroadcastss 0x1d819c(%rip), %ymm30 # 0x1eeba20
vbroadcastss 0x1d92f6(%rip), %ymm31 # 0x1eecb84
vmovaps %ymm26, %ymm16
andb $0x7f, %al
je 0x1d13c8f
movq 0x38(%rsp), %rcx
vmovss 0x200(%r12,%rcx,4), %xmm3
vsubss 0x300(%rsp), %xmm3, %xmm3
vbroadcastss %xmm3, %ymm3
vminps %ymm31, %ymm3, %ymm3
vmovaps 0x580(%rsp), %ymm4
vmaxps %ymm30, %ymm4, %ymm4
vmulps %ymm29, %ymm13, %ymm23
vfmadd213ps %ymm23, %ymm12, %ymm28 # ymm28 = (ymm12 * ymm28) + ymm23
vfmadd213ps %ymm28, %ymm11, %ymm27 # ymm27 = (ymm11 * ymm27) + ymm28
vmovaps 0x1c0(%rsp), %ymm21
vmulps %ymm13, %ymm21, %ymm13
vmovaps 0x1e0(%rsp), %ymm31
vfmadd231ps %ymm12, %ymm31, %ymm13 # ymm13 = (ymm31 * ymm12) + ymm13
vmovaps 0x4e0(%rsp), %ymm30
vfmadd231ps %ymm11, %ymm30, %ymm13 # ymm13 = (ymm30 * ymm11) + ymm13
vbroadcastss 0x20d5b0(%rip), %ymm28 # 0x1f20ec4
vandps %ymm28, %ymm13, %ymm11
vbroadcastss 0x1dd6c4(%rip), %ymm29 # 0x1ef0fe8
vcmpltps %ymm29, %ymm11, %k0
vbroadcastss 0x20d58b(%rip), %ymm26 # 0x1f20ec0
vxorps %ymm26, %ymm27, %ymm11
vrcp14ps %ymm13, %ymm12
vxorps %ymm26, %ymm13, %ymm23
vmovaps %ymm12, %ymm27
vfnmadd213ps %ymm16, %ymm13, %ymm27 # ymm27 = -(ymm13 * ymm27) + ymm16
vfmadd132ps %ymm12, %ymm12, %ymm27 # ymm27 = (ymm27 * ymm12) + ymm12
vmulps %ymm11, %ymm27, %ymm11
vcmpltps %ymm23, %ymm13, %k1
korb %k1, %k0, %k1
vbroadcastss 0x1d9210(%rip), %ymm27 # 0x1eecb84
vblendmps %ymm27, %ymm11, %ymm12 {%k1}
vmaxps %ymm12, %ymm4, %ymm4
vcmpnleps %ymm23, %ymm13, %k1
korb %k1, %k0, %k1
vbroadcastss 0x1d808d(%rip), %ymm13 # 0x1eeba20
vmovaps %ymm13, %ymm11 {%k1}
vminps %ymm11, %ymm3, %ymm3
vxorps %xmm23, %xmm23, %xmm23
vsubps %ymm8, %ymm23, %ymm8
vsubps %ymm9, %ymm23, %ymm9
vsubps %ymm10, %ymm23, %ymm10
vmulps %ymm5, %ymm10, %ymm10
vfnmsub231ps %ymm9, %ymm20, %ymm10 # ymm10 = -(ymm20 * ymm9) - ymm10
vfnmadd231ps %ymm8, %ymm19, %ymm10 # ymm10 = -(ymm19 * ymm8) + ymm10
vmulps %ymm5, %ymm21, %ymm8
vfnmsub231ps %ymm20, %ymm31, %ymm8 # ymm8 = -(ymm31 * ymm20) - ymm8
vfnmadd231ps %ymm19, %ymm30, %ymm8 # ymm8 = -(ymm30 * ymm19) + ymm8
vandps %ymm28, %ymm8, %ymm9
vcmpltps %ymm29, %ymm9, %k0
vxorps %ymm26, %ymm10, %ymm9
vrcp14ps %ymm8, %ymm10
vxorps %ymm26, %ymm8, %ymm11
vmovaps %ymm10, %ymm12
vfnmadd213ps %ymm16, %ymm8, %ymm12 # ymm12 = -(ymm8 * ymm12) + ymm16
vfmadd132ps %ymm10, %ymm10, %ymm12 # ymm12 = (ymm12 * ymm10) + ymm10
vmulps %ymm9, %ymm12, %ymm9
vcmpltps %ymm11, %ymm8, %k1
korb %k1, %k0, %k1
vblendmps %ymm27, %ymm9, %ymm10 {%k1}
vmaxps %ymm10, %ymm4, %ymm0
vcmpnleps %ymm11, %ymm8, %k1
korb %k1, %k0, %k1
vmovaps %ymm13, %ymm9 {%k1}
vminps %ymm9, %ymm3, %ymm8
vmovaps %ymm0, 0x360(%rsp)
vcmpleps %ymm8, %ymm0, %k0
kmovd %k0, %ecx
andb %cl, %al
je 0x1d156cd
vmovaps 0x480(%rsp), %ymm3
vmaxps 0xa0(%rsp), %ymm23, %ymm4
vminps %ymm16, %ymm3, %ymm3
vxorps %xmm10, %xmm10, %xmm10
vmaxps %ymm10, %ymm3, %ymm3
vmovaps 0x460(%rsp), %ymm9
vminps %ymm16, %ymm9, %ymm9
vmovaps 0x20d4b4(%rip), %ymm11 # 0x1f20f40
vaddps %ymm3, %ymm11, %ymm3
vbroadcastss 0x20aa1f(%rip), %ymm12 # 0x1f1e4b8
vmulps %ymm3, %ymm12, %ymm3
vmovaps 0x80(%rsp), %ymm0
vmovaps %ymm1, %ymm5
vmovaps 0x220(%rsp), %ymm1
vfmadd213ps %ymm0, %ymm1, %ymm3 # ymm3 = (ymm1 * ymm3) + ymm0
vmovaps %ymm3, 0x480(%rsp)
vmaxps %ymm10, %ymm9, %ymm3
vaddps %ymm3, %ymm11, %ymm3
vmulps %ymm3, %ymm12, %ymm3
vfmadd213ps %ymm0, %ymm1, %ymm3 # ymm3 = (ymm1 * ymm3) + ymm0
vmovaps %ymm3, 0x460(%rsp)
vmulps %ymm4, %ymm4, %ymm3
vsubps %ymm3, %ymm5, %ymm11
vmulps %ymm11, %ymm24, %ymm3
vsubps %ymm3, %ymm25, %ymm3
vcmpnltps %ymm10, %ymm3, %k0
kortestb %k0, %k0
je 0x1d13ca4
vxorps %xmm20, %xmm20, %xmm20
vcmpnltps %ymm23, %ymm3, %k1
vsqrtps %ymm3, %ymm3
vaddps %ymm15, %ymm15, %ymm4
vrcp14ps %ymm4, %ymm9
vfnmadd213ps %ymm16, %ymm9, %ymm4 # ymm4 = -(ymm9 * ymm4) + ymm16
vfmadd132ps %ymm9, %ymm9, %ymm4 # ymm4 = (ymm4 * ymm9) + ymm9
vxorps 0x20d38e(%rip){1to8}, %ymm22, %ymm9 # 0x1f20ec0
vsubps %ymm3, %ymm9, %ymm9
vmulps %ymm4, %ymm9, %ymm12
vsubps %ymm22, %ymm3, %ymm3
vmulps %ymm4, %ymm3, %ymm13
vmovaps %ymm17, %ymm3
vfmadd213ps %ymm18, %ymm12, %ymm3 # ymm3 = (ymm12 * ymm3) + ymm18
vmulps %ymm3, %ymm14, %ymm9
vmulps %ymm12, %ymm30, %ymm3
vmulps %ymm12, %ymm31, %ymm4
vmulps %ymm12, %ymm21, %ymm10
vmovaps %ymm7, %ymm19
vmovaps %ymm2, %ymm16
vmovaps 0x160(%rsp), %ymm2
vfmadd213ps %ymm2, %ymm9, %ymm19 # ymm19 = (ymm9 * ymm19) + ymm2
vsubps %ymm19, %ymm3, %ymm3
vmovaps %ymm6, %ymm19
vmovaps 0xc0(%rsp), %ymm1
vfmadd213ps %ymm1, %ymm9, %ymm19 # ymm19 = (ymm9 * ymm19) + ymm1
vsubps %ymm19, %ymm4, %ymm4
vmovaps 0x200(%rsp), %ymm0
vmovaps 0x3a0(%rsp), %ymm5
vfmadd213ps %ymm0, %ymm5, %ymm9 # ymm9 = (ymm5 * ymm9) + ymm0
vsubps %ymm9, %ymm10, %ymm9
vfmadd213ps %ymm18, %ymm13, %ymm17 # ymm17 = (ymm13 * ymm17) + ymm18
vmulps %ymm17, %ymm14, %ymm14
vmulps %ymm13, %ymm30, %ymm10
vmulps %ymm13, %ymm31, %ymm17
vmulps %ymm13, %ymm21, %ymm18
vfmadd213ps %ymm2, %ymm14, %ymm7 # ymm7 = (ymm14 * ymm7) + ymm2
vsubps %ymm7, %ymm10, %ymm10
vfmadd213ps %ymm1, %ymm14, %ymm6 # ymm6 = (ymm14 * ymm6) + ymm1
vsubps %ymm6, %ymm17, %ymm1
vfmadd213ps %ymm0, %ymm14, %ymm5 # ymm5 = (ymm14 * ymm5) + ymm0
vsubps %ymm5, %ymm18, %ymm5
vbroadcastss 0x1d7e1c(%rip), %ymm0 # 0x1eeba20
vblendmps %ymm12, %ymm0, %ymm2 {%k1}
vbroadcastss 0x1d8f71(%rip), %ymm0 # 0x1eecb84
vblendmps %ymm13, %ymm0, %ymm0 {%k1}
vbroadcastss 0x20d2a2(%rip), %ymm7 # 0x1f20ec4
vandps %ymm7, %ymm16, %ymm6
vmovaps 0x4c0(%rsp), %ymm12
vmaxps %ymm6, %ymm12, %ymm6
vmulps 0x1de275(%rip){1to8}, %ymm6, %ymm6 # 0x1ef1eb4
vandps %ymm7, %ymm15, %ymm7
vcmpltps %ymm6, %ymm7, %k1 {%k1}
kortestb %k1, %k1
je 0x1d13ccb
vcmpleps %ymm20, %ymm11, %k2
vbroadcastss 0x1d8f24(%rip), %ymm7 # 0x1eecb84
vbroadcastss 0x1d7db7(%rip), %ymm11 # 0x1eeba20
vblendmps %ymm7, %ymm11, %ymm6 {%k2}
vmovaps %ymm6, %ymm2 {%k1}
vblendmps %ymm11, %ymm7, %ymm6 {%k2}
vmovaps %ymm6, %ymm0 {%k1}
knotb %k1, %k1
korb %k2, %k1, %k1
kandb %k0, %k1, %k0
jmp 0x1d13ccb
vmovaps 0x1e0(%rsp), %ymm31
vmovaps 0x1c0(%rsp), %ymm21
jmp 0x1d156cd
vxorps %xmm1, %xmm1, %xmm1
vxorps %xmm5, %xmm5, %xmm5
vxorps %xmm3, %xmm3, %xmm3
vxorps %xmm4, %xmm4, %xmm4
vxorps %xmm9, %xmm9, %xmm9
vbroadcastss 0x1d7d5e(%rip), %ymm2 # 0x1eeba20
vbroadcastss 0x1d8eb9(%rip), %ymm0 # 0x1eecb84
vbroadcastss 0x20d1f0(%rip), %xmm11 # 0x1f20ec4
vmulps %ymm5, %ymm21, %ymm5
vfmadd231ps %ymm1, %ymm31, %ymm5 # ymm5 = (ymm31 * ymm1) + ymm5
vfmadd231ps %ymm10, %ymm30, %ymm5 # ymm5 = (ymm30 * ymm10) + ymm5
vmovaps 0x360(%rsp), %ymm7
vmovaps %ymm7, 0x7c0(%rsp)
vminps %ymm2, %ymm8, %ymm1
vmovaps %ymm1, 0x7e0(%rsp)
vbroadcastss 0x20d1b6(%rip), %ymm6 # 0x1f20ec4
vandps %ymm6, %ymm5, %ymm2
vmaxps %ymm0, %ymm7, %ymm5
vmovaps %ymm5, 0x500(%rsp)
vmovaps %ymm8, 0x520(%rsp)
vbroadcastss 0x20d1a3(%rip), %ymm0 # 0x1f20ed4
vcmpltps %ymm0, %ymm2, %k1
kmovd %k1, 0x124(%rsp)
vcmpleps %ymm1, %ymm7, %k1
kmovd %k1, %ecx
andb %al, %cl
vmovaps %ymm5, 0x420(%rsp)
vcmpleps %ymm8, %ymm5, %k1
kmovd %k1, %edx
andb %al, %dl
movl %edx, %eax
orb %cl, %al
je 0x1d15697
vmovaps %ymm0, %ymm2
movl %edx, 0x54(%rsp)
movq %r9, 0x1b0(%rsp)
movq %r10, 0x1b8(%rsp)
knotb %k0, %k1
vmulps %ymm9, %ymm21, %ymm0
vfmadd213ps %ymm0, %ymm31, %ymm4 # ymm4 = (ymm31 * ymm4) + ymm0
vfmadd213ps %ymm4, %ymm30, %ymm3 # ymm3 = (ymm30 * ymm3) + ymm4
vandps %ymm6, %ymm3, %ymm0
vcmpltps %ymm2, %ymm0, %k0
kmovd %k1, 0x11c(%rsp)
korb %k1, %k0, %k1
vpbroadcastd 0x20d11d(%rip), %ymm0 # 0x1f20edc
vpblendmd 0x20d10f(%rip){1to8}, %ymm0, %ymm0 {%k1} # 0x1f20ed8
movq %r11, 0x1a8(%rsp)
vpbroadcastd %r11d, %ymm1
vmovdqa %ymm0, 0x540(%rsp)
vmovdqa %ymm1, 0x4a0(%rsp)
vpcmpnltd %ymm0, %ymm1, %k0
kmovd %k0, %ebx
movl %ecx, 0x120(%rsp)
andb %cl, %bl
je 0x1d149a1
vmovaps 0x2c0(%rsp), %ymm1
vmovaps 0x280(%rsp), %ymm2
vminps %xmm2, %xmm1, %xmm0
vmaxps %xmm2, %xmm1, %xmm1
vmovaps 0x2a0(%rsp), %ymm3
vmovaps 0x260(%rsp), %ymm4
vminps %xmm4, %xmm3, %xmm2
vminps %xmm2, %xmm0, %xmm0
vmaxps %xmm4, %xmm3, %xmm2
vmaxps %xmm2, %xmm1, %xmm1
vandps %xmm0, %xmm11, %xmm0
vandps %xmm1, %xmm11, %xmm2
vmaxps %xmm2, %xmm0, %xmm0
vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3]
vmaxss %xmm0, %xmm2, %xmm2
vshufpd $0x1, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[1,0]
vmaxss %xmm2, %xmm0, %xmm0
vmulss 0x1de050(%rip), %xmm0, %xmm0 # 0x1ef1eb4
vmovss %xmm0, 0x64(%rsp)
vshufps $0xff, %xmm1, %xmm1, %xmm0 # xmm0 = xmm1[3,3,3,3]
vmovaps %xmm0, 0x2f0(%rsp)
vmovaps 0x360(%rsp), %ymm0
vaddps 0x380(%rsp), %ymm0, %ymm0
vmovaps %ymm0, 0x440(%rsp)
kmovd %ebx, %k1
vbroadcastss 0x1d7b80(%rip), %ymm0 # 0x1eeba20
vblendmps 0x360(%rsp), %ymm0, %ymm0 {%k1}
vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm0, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1]
vminps %ymm2, %ymm1, %ymm1
vcmpeqps %ymm1, %ymm0, %k0
kmovd %k0, %eax
andb %bl, %al
movzbl %al, %eax
movzbl %bl, %ecx
cmovnel %eax, %ecx
tzcntl %ecx, %ecx
movb $0x1, %bl
shlb %cl, %bl
shll $0x2, %ecx
vmovss 0x480(%rsp,%rcx), %xmm10
vmovss 0x7c0(%rsp,%rcx), %xmm8
vmovaps 0x240(%rsp), %xmm0
vucomiss 0x1d7b1c(%rip), %xmm0 # 0x1eeba24
vmovss 0x128(%rsp), %xmm0
jae 0x1d13f5a
vmovaps 0x240(%rsp), %xmm0
vmovaps %xmm10, 0x80(%rsp)
vmovaps %xmm8, 0xc0(%rsp)
kmovw %k1, 0xa0(%rsp)
vzeroupper
callq 0x6aa20
kmovw 0xa0(%rsp), %k1
vmovaps 0xc0(%rsp), %xmm8
vmovaps 0x80(%rsp), %xmm10
movzbl %bl, %eax
kmovd %eax, %k0
kandnb %k1, %k0, %k0
kmovd %k0, %ebx
vmulss 0x1ddf43(%rip), %xmm0, %xmm0 # 0x1ef1eb4
vmovss %xmm0, 0x68(%rsp)
movl $0x4, %r14d
vmovaps %xmm8, 0xc0(%rsp)
vbroadcastss %xmm8, %xmm0
vxorps %xmm1, %xmm1, %xmm1
vfmadd132ps 0x250(%rsp), %xmm1, %xmm0 # xmm0 = (xmm0 * mem) + xmm1
vmovss 0x1d8773(%rip), %xmm1 # 0x1eec714
vsubss %xmm10, %xmm1, %xmm4
vmulss %xmm4, %xmm4, %xmm1
vmulss %xmm1, %xmm4, %xmm1
vmulss %xmm10, %xmm10, %xmm11
vmulss %xmm11, %xmm10, %xmm2
vmovss 0x1d8bcc(%rip), %xmm7 # 0x1eecb8c
vmovaps %xmm7, %xmm3
vfmadd213ss %xmm2, %xmm1, %xmm3 # xmm3 = (xmm1 * xmm3) + xmm2
vmulss %xmm4, %xmm10, %xmm12
vmovaps %xmm4, 0xa0(%rsp)
vmulss %xmm4, %xmm12, %xmm4
vmulss %xmm12, %xmm10, %xmm5
vmovss 0x1dd00d(%rip), %xmm8 # 0x1ef0ff4
vmulss %xmm5, %xmm8, %xmm6
vmovss 0x1dd009(%rip), %xmm9 # 0x1ef0ffc
vfmadd231ss %xmm9, %xmm4, %xmm6 # xmm6 = (xmm4 * xmm9) + xmm6
vaddss %xmm6, %xmm3, %xmm3
vmovaps %xmm7, %xmm6
vfmadd213ss %xmm1, %xmm2, %xmm6 # xmm6 = (xmm2 * xmm6) + xmm1
vmulss %xmm4, %xmm8, %xmm4
vfmadd231ss %xmm5, %xmm9, %xmm4 # xmm4 = (xmm9 * xmm5) + xmm4
vaddss %xmm4, %xmm6, %xmm4
vmovss 0x1dcfe6(%rip), %xmm5 # 0x1ef1000
vmulss %xmm5, %xmm1, %xmm1
vmulss %xmm5, %xmm3, %xmm3
vmulss %xmm5, %xmm4, %xmm4
vmulss %xmm5, %xmm2, %xmm2
vbroadcastss %xmm2, %xmm2
vmulps 0x260(%rsp), %xmm2, %xmm2
vbroadcastss %xmm4, %xmm4
vfmadd132ps 0x2a0(%rsp), %xmm2, %xmm4 # xmm4 = (xmm4 * mem) + xmm2
vbroadcastss %xmm3, %xmm2
vfmadd132ps 0x280(%rsp), %xmm4, %xmm2 # xmm2 = (xmm2 * mem) + xmm4
vbroadcastss %xmm1, %xmm1
vfmadd132ps 0x2c0(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2
vmovaps %xmm1, 0x3a0(%rsp)
vsubps %xmm1, %xmm0, %xmm0
vmovaps %xmm0, 0x220(%rsp)
vdpps $0x7f, %xmm0, %xmm0, %xmm0
vucomiss 0x1d799b(%rip), %xmm0 # 0x1eeba24
vmovaps %xmm10, 0x80(%rsp)
vmovaps %xmm0, 0x200(%rsp)
jb 0x1d140a3
vsqrtss %xmm0, %xmm0, %xmm7
jmp 0x1d140d6
vmovss %xmm11, 0x160(%rsp)
vmovss %xmm12, 0x40(%rsp)
vzeroupper
callq 0x6aa20
vmovss 0x40(%rsp), %xmm12
vmovss 0x160(%rsp), %xmm11
vmovaps 0x80(%rsp), %xmm10
vmovaps %xmm0, %xmm7
vmovaps 0xa0(%rsp), %xmm3
vbroadcastss %xmm3, %xmm1
vbroadcastss 0x20cdd3(%rip), %xmm4 # 0x1f20ec0
vmovaps %xmm1, 0x350(%rsp)
vxorps %xmm4, %xmm1, %xmm0
vmulss %xmm0, %xmm3, %xmm0
vmulss 0x1d8a86(%rip), %xmm12, %xmm1 # 0x1eecb8c
vmovaps %xmm10, %xmm2
vfnmsub213ss %xmm1, %xmm10, %xmm2 # xmm2 = -(xmm10 * xmm2) - xmm1
vfmadd231ss %xmm3, %xmm3, %xmm1 # xmm1 = (xmm3 * xmm3) + xmm1
vmovss 0x1d8a64(%rip), %xmm3 # 0x1eecb80
vmulss %xmm3, %xmm0, %xmm0
vmulss %xmm3, %xmm2, %xmm2
vmulss %xmm3, %xmm1, %xmm1
vmulss %xmm3, %xmm11, %xmm3
vbroadcastss %xmm3, %xmm3
vmulps 0x260(%rsp), %xmm3, %xmm3
vbroadcastss %xmm1, %xmm1
vfmadd132ps 0x2a0(%rsp), %xmm3, %xmm1 # xmm1 = (xmm1 * mem) + xmm3
vbroadcastss %xmm2, %xmm2
vfmadd132ps 0x280(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1
vbroadcastss %xmm0, %xmm13
vfmadd132ps 0x2c0(%rsp), %xmm2, %xmm13 # xmm13 = (xmm13 * mem) + xmm2
vdpps $0x7f, %xmm13, %xmm13, %xmm0
vxorps %xmm1, %xmm1, %xmm1
vmovss %xmm0, %xmm1, %xmm2 # xmm2 = xmm0[0],xmm1[1,2,3]
vrsqrt14ss %xmm2, %xmm1, %xmm3
vmulss 0x1d8595(%rip), %xmm3, %xmm5 # 0x1eec718
vmulss 0x1d8591(%rip), %xmm0, %xmm6 # 0x1eec71c
vrcp14ss %xmm2, %xmm1, %xmm2
vxorps %xmm4, %xmm0, %xmm1
vmovaps %xmm2, 0x330(%rsp)
vfnmadd213ss 0x1dce51(%rip), %xmm0, %xmm2 # xmm2 = -(xmm0 * xmm2) + mem
vmovss %xmm2, 0x6c(%rsp)
vucomiss %xmm1, %xmm0
vmovaps %xmm13, 0x160(%rsp)
vmovss %xmm7, 0x40(%rsp)
vmovaps %xmm0, 0x340(%rsp)
jb 0x1d141d3
vsqrtss %xmm0, %xmm0, %xmm16
jmp 0x1d14220
vmovaps %xmm3, 0x100(%rsp)
vmovss %xmm5, 0x44(%rsp)
vmovss %xmm6, 0xf0(%rsp)
vzeroupper
callq 0x6aa20
vmovss 0xf0(%rsp), %xmm6
vmovss 0x44(%rsp), %xmm5
vmovaps 0x100(%rsp), %xmm3
vmovss 0x40(%rsp), %xmm7
vmovaps 0x160(%rsp), %xmm13
vmovaps %xmm0, %xmm16
vmovaps 0x220(%rsp), %xmm9
vmovaps 0x200(%rsp), %xmm19
vmulss %xmm3, %xmm6, %xmm0
vmulss %xmm3, %xmm3, %xmm1
vmulss %xmm1, %xmm0, %xmm0
vaddss %xmm0, %xmm5, %xmm0
vbroadcastss %xmm0, %xmm4
vmulps %xmm4, %xmm13, %xmm0
vmovaps %xmm0, 0x100(%rsp)
vdpps $0x7f, %xmm0, %xmm9, %xmm15
vaddss 0x1d84b3(%rip), %xmm7, %xmm14 # 0x1eec714
vmulps %xmm15, %xmm15, %xmm0
vsubps %xmm0, %xmm19, %xmm0
vxorps %xmm2, %xmm2, %xmm2
vmovss %xmm0, %xmm2, %xmm1 # xmm1 = xmm0[0],xmm2[1,2,3]
vrsqrt14ss %xmm1, %xmm2, %xmm18
vmulss 0x1d8494(%rip), %xmm18, %xmm17 # 0x1eec718
vmulss 0x1d848e(%rip), %xmm0, %xmm20 # 0x1eec71c
vucomiss 0x1d778e(%rip), %xmm0 # 0x1eeba24
jb 0x1d142a1
vsqrtss %xmm0, %xmm0, %xmm0
jmp 0x1d14339
vmovss %xmm14, 0x44(%rsp)
vmovaps %xmm15, 0xf0(%rsp)
vmovss %xmm16, 0x60(%rsp)
vmovss %xmm17, 0x5c(%rsp)
vmovaps %xmm18, 0x320(%rsp)
vmovss %xmm20, 0x58(%rsp)
vmovaps %xmm4, 0x310(%rsp)
vzeroupper
callq 0x6aa20
vmovaps 0x310(%rsp), %xmm4
vmovss 0x58(%rsp), %xmm20
vmovaps 0x320(%rsp), %xmm18
vmovss 0x5c(%rsp), %xmm17
vmovss 0x60(%rsp), %xmm16
vmovaps 0xf0(%rsp), %xmm15
vmovss 0x44(%rsp), %xmm14
vmovss 0x40(%rsp), %xmm7
vmovaps 0x160(%rsp), %xmm13
vmovaps 0x200(%rsp), %xmm19
vmovaps 0x220(%rsp), %xmm9
vbroadcastss 0x20cb82(%rip), %xmm11 # 0x1f20ec4
vmovaps 0x1e0(%rsp), %ymm31
vmovaps 0x1c0(%rsp), %ymm21
vmovaps 0x80(%rsp), %xmm10
vmovaps 0xc0(%rsp), %xmm8
vmovss 0x1dc670(%rip), %xmm2 # 0x1ef09dc
vmovaps %xmm2, %xmm1
vmovaps 0xa0(%rsp), %xmm3
vfmadd213ss %xmm10, %xmm3, %xmm1 # xmm1 = (xmm3 * xmm1) + xmm10
vfmadd231ss %xmm2, %xmm10, %xmm3 # xmm3 = (xmm10 * xmm2) + xmm3
vbroadcastss %xmm10, %xmm2
vmulps 0x260(%rsp), %xmm2, %xmm2
vbroadcastss %xmm3, %xmm3
vfmadd132ps 0x2a0(%rsp), %xmm2, %xmm3 # xmm3 = (xmm3 * mem) + xmm2
vbroadcastss %xmm1, %xmm1
vfmadd132ps 0x280(%rsp), %xmm3, %xmm1 # xmm1 = (xmm1 * mem) + xmm3
vmovaps 0x350(%rsp), %xmm2
vfmadd132ps 0x2c0(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1
vbroadcastss 0x340(%rsp), %xmm1
vmulps %xmm1, %xmm2, %xmm1
vdpps $0x7f, %xmm2, %xmm13, %xmm2
vbroadcastss %xmm2, %xmm2
vmulps %xmm2, %xmm13, %xmm2
vsubps %xmm2, %xmm1, %xmm1
vmovss 0x6c(%rsp), %xmm2
vmulss 0x330(%rsp), %xmm2, %xmm2
vmulss 0x68(%rsp), %xmm8, %xmm3
vbroadcastss %xmm2, %xmm2
vmulps %xmm2, %xmm1, %xmm1
vxorps 0x20cab5(%rip){1to4}, %xmm13, %xmm2 # 0x1f20ec0
vmulps %xmm1, %xmm4, %xmm4
vmovaps 0x100(%rsp), %xmm12
vdpps $0x7f, %xmm12, %xmm2, %xmm5
vmovss 0x64(%rsp), %xmm6
vmaxss %xmm3, %xmm6, %xmm1
vdivss %xmm16, %xmm6, %xmm3
vdpps $0x7f, %xmm4, %xmm9, %xmm4
vfmadd213ss %xmm1, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm7) + xmm1
vfmadd213ss %xmm7, %xmm3, %xmm14 # xmm14 = (xmm3 * xmm14) + xmm7
vmovaps 0x250(%rsp), %xmm7
vdpps $0x7f, %xmm12, %xmm7, %xmm3
vaddss %xmm4, %xmm5, %xmm4
vdpps $0x7f, %xmm2, %xmm9, %xmm5
vmulss %xmm18, %xmm20, %xmm2
vmulss %xmm18, %xmm18, %xmm6
vmulss %xmm6, %xmm2, %xmm2
vdpps $0x7f, %xmm7, %xmm9, %xmm6
vaddss %xmm2, %xmm17, %xmm7
vfnmadd231ss %xmm4, %xmm15, %xmm5 # xmm5 = -(xmm15 * xmm4) + xmm5
vfnmadd231ss %xmm3, %xmm15, %xmm6 # xmm6 = -(xmm15 * xmm3) + xmm6
vpermilps $0xff, 0x3a0(%rsp), %xmm2 # xmm2 = mem[3,3,3,3]
vsubss %xmm2, %xmm0, %xmm2
vshufps $0xff, %xmm13, %xmm13, %xmm0 # xmm0 = xmm13[3,3,3,3]
vfmsub213ss %xmm0, %xmm7, %xmm5 # xmm5 = (xmm7 * xmm5) - xmm0
vmulss %xmm7, %xmm6, %xmm6
vmulss %xmm5, %xmm3, %xmm7
vfmsub231ss %xmm6, %xmm4, %xmm7 # xmm7 = (xmm4 * xmm6) - xmm7
vdivss %xmm7, %xmm6, %xmm6
vdivss %xmm7, %xmm5, %xmm5
vdivss %xmm7, %xmm3, %xmm3
vdivss %xmm7, %xmm4, %xmm4
vmulss %xmm6, %xmm15, %xmm6
vmulss %xmm3, %xmm2, %xmm3
vsubss %xmm3, %xmm6, %xmm3
vmulss %xmm5, %xmm15, %xmm5
vmulss %xmm4, %xmm2, %xmm4
vsubss %xmm5, %xmm4, %xmm4
vsubss %xmm3, %xmm10, %xmm10
vsubss %xmm4, %xmm8, %xmm8
vandps %xmm11, %xmm15, %xmm3
vucomiss %xmm3, %xmm14
jbe 0x1d14693
vaddss %xmm1, %xmm14, %xmm1
vmovaps 0x2f0(%rsp), %xmm3
vfmadd231ss 0x1dd9bb(%rip), %xmm3, %xmm1 # xmm1 = (xmm3 * mem) + xmm1
vandps %xmm2, %xmm11, %xmm2
vucomiss %xmm2, %xmm1
jbe 0x1d14693
vaddss 0x300(%rsp), %xmm8, %xmm8
movb $0x1, %r13b
vucomiss 0x7c(%rsp), %xmm8
jb 0x1d14696
movq 0x38(%rsp), %rax
vmovss 0x200(%r12,%rax,4), %xmm4
vucomiss %xmm8, %xmm4
jb 0x1d14696
vucomiss 0x1d74e3(%rip), %xmm10 # 0x1eeba24
jb 0x1d14696
vmovss 0x1d81c5(%rip), %xmm1 # 0x1eec714
vucomiss %xmm10, %xmm1
jb 0x1d14696
vxorps %xmm2, %xmm2, %xmm2
vmovss %xmm19, %xmm2, %xmm1 # xmm1 = xmm19[0],xmm2[1,2,3]
vrsqrt14ss %xmm1, %xmm2, %xmm1
vmulss 0x1d81a6(%rip), %xmm1, %xmm2 # 0x1eec718
vmulss 0x1d81a0(%rip), %xmm19, %xmm3 # 0x1eec71c
movq (%r15), %rax
movq 0x1e8(%rax), %rax
movq %r15, %rcx
movq 0x70(%rsp), %rdx
movq (%rax,%rdx,8), %r15
movq 0x38(%rsp), %rax
movl 0x240(%r12,%rax,4), %eax
testl %eax, 0x34(%r15)
je 0x1d146b3
vmulss %xmm1, %xmm3, %xmm3
vmulss %xmm1, %xmm1, %xmm1
vmulss %xmm1, %xmm3, %xmm1
vaddss %xmm1, %xmm2, %xmm1
vbroadcastss %xmm1, %xmm1
vmulps %xmm1, %xmm9, %xmm1
vfmadd213ps %xmm13, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm0) + xmm13
vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm13, %xmm13, %xmm3 # xmm3 = xmm13[1,2,0,3]
vmulps %xmm3, %xmm1, %xmm1
vfmsub231ps %xmm2, %xmm13, %xmm1 # xmm1 = (xmm13 * xmm2) - xmm1
vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3]
vshufps $0xd2, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,0,1,3]
vmulps %xmm1, %xmm0, %xmm0
vfmsub231ps %xmm3, %xmm2, %xmm0 # xmm0 = (xmm2 * xmm3) - xmm0
movq 0x10(%rcx), %rax
cmpq $0x0, 0x10(%rax)
jne 0x1d146b8
cmpq $0x0, 0x40(%r15)
jne 0x1d146b8
movq 0x38(%rsp), %rcx
vmovss %xmm8, 0x200(%r12,%rcx,4)
vextractps $0x1, %xmm0, 0x300(%r12,%rcx,4)
vextractps $0x2, %xmm0, 0x340(%r12,%rcx,4)
vmovss %xmm0, 0x380(%r12,%rcx,4)
vmovss %xmm10, 0x3c0(%r12,%rcx,4)
movl $0x0, 0x400(%r12,%rcx,4)
movq 0x110(%rsp), %rax
movl %eax, 0x440(%r12,%rcx,4)
movq 0x70(%rsp), %rax
movl %eax, 0x480(%r12,%rcx,4)
movq 0x48(%rsp), %r15
movq 0x8(%r15), %rax
movl (%rax), %eax
movl %eax, 0x4c0(%r12,%rcx,4)
movq 0x8(%r15), %rax
movl 0x4(%rax), %eax
movl %eax, 0x500(%r12,%rcx,4)
jmp 0x1d14696
xorl %r13d, %r13d
subq $0x1, %r14
setb %al
testb %r13b, %r13b
jne 0x1d1497b
testb %al, %al
je 0x1d13f7d
jmp 0x1d1497b
movq %rcx, %r15
jmp 0x1d14696
movq 0x48(%rsp), %rcx
movq 0x8(%rcx), %rax
vbroadcastss %xmm10, %zmm1
vbroadcastss 0x1fe033(%rip), %zmm2 # 0x1f12704
vpermps %zmm0, %zmm2, %zmm2
vbroadcastss 0x20c7fb(%rip), %zmm3 # 0x1f20edc
vpermps %zmm0, %zmm3, %zmm3
vbroadcastss %xmm0, %zmm0
vmovaps %zmm2, 0x8c0(%rsp)
vmovaps %zmm3, 0x900(%rsp)
vmovaps %zmm0, 0x940(%rsp)
vmovaps %zmm1, 0x980(%rsp)
vxorps %xmm0, %xmm0, %xmm0
vmovaps %zmm0, 0x9c0(%rsp)
vmovaps 0x840(%rsp), %zmm0
vmovaps %zmm0, 0xa00(%rsp)
vmovdqa64 0x880(%rsp), %zmm0
vmovdqa64 %zmm0, 0xa40(%rsp)
movq 0x198(%rsp), %rdx
vpcmpeqd %ymm0, %ymm0, %ymm0
vmovdqa %ymm0, 0x60(%rdx)
vmovdqa %ymm0, 0x40(%rdx)
vmovdqa %ymm0, 0x20(%rdx)
vmovdqa %ymm0, (%rdx)
vbroadcastss (%rax), %zmm0
vmovaps %zmm0, 0xa80(%rsp)
vbroadcastss 0x4(%rax), %zmm0
vmovaps %zmm0, 0xac0(%rsp)
movq 0x38(%rsp), %rax
vmovss %xmm8, 0x200(%r12,%rax,4)
vmovaps 0x800(%rsp), %zmm0
vmovaps %zmm0, 0x3c0(%rsp)
leaq 0x3c0(%rsp), %rax
movq %rax, 0x130(%rsp)
movq 0x18(%r15), %rax
movq %rax, 0x138(%rsp)
movq 0x8(%rcx), %rax
movq %rax, 0x140(%rsp)
movq %r12, 0x148(%rsp)
leaq 0x8c0(%rsp), %rax
movq %rax, 0x150(%rsp)
movl $0x10, 0x158(%rsp)
movq 0x40(%r15), %rax
testq %rax, %rax
vmovaps %xmm10, 0x80(%rsp)
vmovaps %xmm8, 0xc0(%rsp)
vmovss %xmm4, 0xa0(%rsp)
je 0x1d14844
leaq 0x130(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0xa0(%rsp), %xmm4
vmovaps 0xc0(%rsp), %xmm8
vmovaps 0x80(%rsp), %xmm10
vmovaps 0x1c0(%rsp), %ymm21
vmovaps 0x1e0(%rsp), %ymm31
vbroadcastss 0x20c680(%rip), %xmm11 # 0x1f20ec4
vmovdqa64 0x3c0(%rsp), %zmm0
vptestmd %zmm0, %zmm0, %k0
kortestw %k0, %k0
je 0x1d14962
movq 0x48(%rsp), %rax
movq 0x10(%rax), %rcx
movq 0x10(%rcx), %rax
testq %rax, %rax
je 0x1d148bb
testb $0x2, (%rcx)
jne 0x1d1487a
testb $0x40, 0x3e(%r15)
je 0x1d148bb
leaq 0x130(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0xa0(%rsp), %xmm4
vmovaps 0xc0(%rsp), %xmm8
vmovaps 0x80(%rsp), %xmm10
vmovaps 0x1c0(%rsp), %ymm21
vmovaps 0x1e0(%rsp), %ymm31
vbroadcastss 0x20c609(%rip), %xmm11 # 0x1f20ec4
vmovdqa64 0x3c0(%rsp), %zmm0
vptestmd %zmm0, %zmm0, %k1
kortestw %k1, %k1
je 0x1d14962
movq 0x148(%rsp), %rax
movq 0x150(%rsp), %rcx
vmovaps (%rcx), %zmm0
vmovups %zmm0, 0x300(%rax) {%k1}
vmovaps 0x40(%rcx), %zmm0
vmovups %zmm0, 0x340(%rax) {%k1}
vmovaps 0x80(%rcx), %zmm0
vmovups %zmm0, 0x380(%rax) {%k1}
vmovaps 0xc0(%rcx), %zmm0
vmovups %zmm0, 0x3c0(%rax) {%k1}
vmovaps 0x100(%rcx), %zmm0
vmovups %zmm0, 0x400(%rax) {%k1}
vmovdqa64 0x140(%rcx), %zmm0
vmovdqu32 %zmm0, 0x440(%rax) {%k1}
vmovdqa64 0x180(%rcx), %zmm0
vmovdqu32 %zmm0, 0x480(%rax) {%k1}
vmovdqa64 0x1c0(%rcx), %zmm0
vmovdqa32 %zmm0, 0x4c0(%rax) {%k1}
vmovdqa64 0x200(%rcx), %zmm0
vmovdqa32 %zmm0, 0x500(%rax) {%k1}
jmp 0x1d14971
movq 0x38(%rsp), %rax
vmovss %xmm4, 0x200(%r12,%rax,4)
movq 0x48(%rsp), %r15
jmp 0x1d14696
movq 0x38(%rsp), %rax
vmovaps 0x440(%rsp), %ymm0
vcmpleps 0x200(%r12,%rax,4){1to8}, %ymm0, %k0
kmovd %k0, %eax
andb %al, %bl
jne 0x1d13e93
vmovaps 0x420(%rsp), %ymm0
vaddps 0x380(%rsp), %ymm0, %ymm0
movq 0x38(%rsp), %rax
vcmpleps 0x200(%r12,%rax,4){1to8}, %ymm0, %k0
kmovd 0x124(%rsp), %k1
kmovd 0x11c(%rsp), %k2
korb %k2, %k1, %k1
kmovd %k0, %eax
movl 0x54(%rsp), %ecx
andb %al, %cl
vpbroadcastd 0x20c4ed(%rip), %ymm0 # 0x1f20edc
vpblendmd 0x20c4df(%rip){1to8}, %ymm0, %ymm0 {%k1} # 0x1f20ed8
vmovdqa %ymm0, 0x420(%rsp)
vpcmpled 0x4a0(%rsp), %ymm0, %k0
kmovd %k0, %ebx
movl %ecx, 0x54(%rsp)
andb %cl, %bl
je 0x1d155b0
vmovaps 0x500(%rsp), %ymm5
vmovaps 0x2c0(%rsp), %ymm1
vmovaps 0x280(%rsp), %ymm2
vminps %xmm2, %xmm1, %xmm0
vmaxps %xmm2, %xmm1, %xmm1
vmovaps 0x2a0(%rsp), %ymm3
vmovaps 0x260(%rsp), %ymm4
vminps %xmm4, %xmm3, %xmm2
vminps %xmm2, %xmm0, %xmm0
vmaxps %xmm4, %xmm3, %xmm2
vmaxps %xmm2, %xmm1, %xmm1
vandps %xmm0, %xmm11, %xmm0
vandps %xmm1, %xmm11, %xmm2
vmaxps %xmm2, %xmm0, %xmm0
vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3]
vmaxss %xmm0, %xmm2, %xmm2
vshufpd $0x1, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[1,0]
vmaxss %xmm2, %xmm0, %xmm0
vmulss 0x1dd42f(%rip), %xmm0, %xmm0 # 0x1ef1eb4
vmovss %xmm0, 0x64(%rsp)
vshufps $0xff, %xmm1, %xmm1, %xmm0 # xmm0 = xmm1[3,3,3,3]
vmovaps %xmm0, 0x2f0(%rsp)
vmovaps %ymm5, 0x360(%rsp)
vaddps 0x380(%rsp), %ymm5, %ymm0
vmovaps %ymm0, 0x440(%rsp)
kmovd %ebx, %k1
vbroadcastss 0x1d6f5f(%rip), %ymm0 # 0x1eeba20
vblendmps 0x360(%rsp), %ymm0, %ymm0 {%k1}
vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm0, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1]
vminps %ymm2, %ymm1, %ymm1
vcmpeqps %ymm1, %ymm0, %k0
kmovd %k0, %eax
andb %bl, %al
movzbl %al, %eax
movzbl %bl, %ecx
cmovnel %eax, %ecx
tzcntl %ecx, %ecx
movb $0x1, %bl
shlb %cl, %bl
shll $0x2, %ecx
vmovss 0x460(%rsp,%rcx), %xmm10
vmovss 0x520(%rsp,%rcx), %xmm9
vmovaps 0x240(%rsp), %xmm0
vucomiss 0x1d6efb(%rip), %xmm0 # 0x1eeba24
vmovss 0x12c(%rsp), %xmm0
jae 0x1d14b7b
vmovaps 0x240(%rsp), %xmm0
vmovaps %xmm10, 0x80(%rsp)
vmovaps %xmm9, 0xc0(%rsp)
kmovw %k1, 0xa0(%rsp)
vzeroupper
callq 0x6aa20
kmovw 0xa0(%rsp), %k1
vmovaps 0xc0(%rsp), %xmm9
vmovaps 0x80(%rsp), %xmm10
movzbl %bl, %eax
kmovd %eax, %k0
kandnb %k1, %k0, %k0
kmovd %k0, %ebx
vmulss 0x1dd322(%rip), %xmm0, %xmm0 # 0x1ef1eb4
vmovss %xmm0, 0x68(%rsp)
movl $0x4, %r14d
vmovaps %xmm9, 0xc0(%rsp)
vbroadcastss %xmm9, %xmm0
vxorps %xmm1, %xmm1, %xmm1
vfmadd132ps 0x250(%rsp), %xmm1, %xmm0 # xmm0 = (xmm0 * mem) + xmm1
vmovss 0x1d7b52(%rip), %xmm1 # 0x1eec714
vsubss %xmm10, %xmm1, %xmm4
vmulss %xmm4, %xmm4, %xmm1
vmulss %xmm1, %xmm4, %xmm1
vmulss %xmm10, %xmm10, %xmm11
vmulss %xmm11, %xmm10, %xmm2
vmovss 0x1d7fab(%rip), %xmm7 # 0x1eecb8c
vmovaps %xmm7, %xmm3
vfmadd213ss %xmm2, %xmm1, %xmm3 # xmm3 = (xmm1 * xmm3) + xmm2
vmulss %xmm4, %xmm10, %xmm12
vmovaps %xmm4, 0xa0(%rsp)
vmulss %xmm4, %xmm12, %xmm4
vmulss %xmm12, %xmm10, %xmm5
vmovss 0x1dc3ec(%rip), %xmm8 # 0x1ef0ff4
vmulss %xmm5, %xmm8, %xmm6
vmovss 0x1dc3e8(%rip), %xmm9 # 0x1ef0ffc
vfmadd231ss %xmm9, %xmm4, %xmm6 # xmm6 = (xmm4 * xmm9) + xmm6
vaddss %xmm6, %xmm3, %xmm3
vmovaps %xmm7, %xmm6
vfmadd213ss %xmm1, %xmm2, %xmm6 # xmm6 = (xmm2 * xmm6) + xmm1
vmulss %xmm4, %xmm8, %xmm4
vfmadd231ss %xmm5, %xmm9, %xmm4 # xmm4 = (xmm9 * xmm5) + xmm4
vaddss %xmm4, %xmm6, %xmm4
vmovss 0x1dc3c5(%rip), %xmm5 # 0x1ef1000
vmulss %xmm5, %xmm1, %xmm1
vmulss %xmm5, %xmm3, %xmm3
vmulss %xmm5, %xmm4, %xmm4
vmulss %xmm5, %xmm2, %xmm2
vbroadcastss %xmm2, %xmm2
vmulps 0x260(%rsp), %xmm2, %xmm2
vbroadcastss %xmm4, %xmm4
vfmadd132ps 0x2a0(%rsp), %xmm2, %xmm4 # xmm4 = (xmm4 * mem) + xmm2
vbroadcastss %xmm3, %xmm2
vfmadd132ps 0x280(%rsp), %xmm4, %xmm2 # xmm2 = (xmm2 * mem) + xmm4
vbroadcastss %xmm1, %xmm1
vfmadd132ps 0x2c0(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2
vmovaps %xmm1, 0x3a0(%rsp)
vsubps %xmm1, %xmm0, %xmm0
vmovaps %xmm0, 0x220(%rsp)
vdpps $0x7f, %xmm0, %xmm0, %xmm0
vucomiss 0x1d6d7a(%rip), %xmm0 # 0x1eeba24
vmovaps %xmm10, 0x80(%rsp)
vmovaps %xmm0, 0x200(%rsp)
jb 0x1d14cc4
vsqrtss %xmm0, %xmm0, %xmm7
jmp 0x1d14cf7
vmovss %xmm11, 0x160(%rsp)
vmovss %xmm12, 0x40(%rsp)
vzeroupper
callq 0x6aa20
vmovss 0x40(%rsp), %xmm12
vmovss 0x160(%rsp), %xmm11
vmovaps 0x80(%rsp), %xmm10
vmovaps %xmm0, %xmm7
vmovaps 0xa0(%rsp), %xmm3
vbroadcastss %xmm3, %xmm1
vbroadcastss 0x20c1b2(%rip), %xmm4 # 0x1f20ec0
vmovaps %xmm1, 0x350(%rsp)
vxorps %xmm4, %xmm1, %xmm0
vmulss %xmm0, %xmm3, %xmm0
vmulss 0x1d7e65(%rip), %xmm12, %xmm1 # 0x1eecb8c
vmovaps %xmm10, %xmm2
vfnmsub213ss %xmm1, %xmm10, %xmm2 # xmm2 = -(xmm10 * xmm2) - xmm1
vfmadd231ss %xmm3, %xmm3, %xmm1 # xmm1 = (xmm3 * xmm3) + xmm1
vmovss 0x1d7e43(%rip), %xmm3 # 0x1eecb80
vmulss %xmm3, %xmm0, %xmm0
vmulss %xmm3, %xmm2, %xmm2
vmulss %xmm3, %xmm1, %xmm1
vmulss %xmm3, %xmm11, %xmm3
vbroadcastss %xmm3, %xmm3
vmulps 0x260(%rsp), %xmm3, %xmm3
vbroadcastss %xmm1, %xmm1
vfmadd132ps 0x2a0(%rsp), %xmm3, %xmm1 # xmm1 = (xmm1 * mem) + xmm3
vbroadcastss %xmm2, %xmm2
vfmadd132ps 0x280(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1
vbroadcastss %xmm0, %xmm13
vfmadd132ps 0x2c0(%rsp), %xmm2, %xmm13 # xmm13 = (xmm13 * mem) + xmm2
vdpps $0x7f, %xmm13, %xmm13, %xmm0
vxorps %xmm1, %xmm1, %xmm1
vmovss %xmm0, %xmm1, %xmm2 # xmm2 = xmm0[0],xmm1[1,2,3]
vrsqrt14ss %xmm2, %xmm1, %xmm3
vmulss 0x1d7974(%rip), %xmm3, %xmm5 # 0x1eec718
vmulss 0x1d7970(%rip), %xmm0, %xmm6 # 0x1eec71c
vrcp14ss %xmm2, %xmm1, %xmm2
vxorps %xmm4, %xmm0, %xmm1
vmovaps %xmm2, 0x330(%rsp)
vfnmadd213ss 0x1dc230(%rip), %xmm0, %xmm2 # xmm2 = -(xmm0 * xmm2) + mem
vmovss %xmm2, 0x6c(%rsp)
vucomiss %xmm1, %xmm0
vmovaps %xmm13, 0x160(%rsp)
vmovss %xmm7, 0x40(%rsp)
vmovaps %xmm0, 0x340(%rsp)
jb 0x1d14df4
vsqrtss %xmm0, %xmm0, %xmm16
jmp 0x1d14e41
vmovaps %xmm3, 0x100(%rsp)
vmovss %xmm5, 0x44(%rsp)
vmovss %xmm6, 0xf0(%rsp)
vzeroupper
callq 0x6aa20
vmovss 0xf0(%rsp), %xmm6
vmovss 0x44(%rsp), %xmm5
vmovaps 0x100(%rsp), %xmm3
vmovss 0x40(%rsp), %xmm7
vmovaps 0x160(%rsp), %xmm13
vmovaps %xmm0, %xmm16
vmovaps 0x220(%rsp), %xmm11
vmovaps 0x200(%rsp), %xmm19
vmulss %xmm3, %xmm6, %xmm0
vmulss %xmm3, %xmm3, %xmm1
vmulss %xmm1, %xmm0, %xmm0
vaddss %xmm0, %xmm5, %xmm0
vbroadcastss %xmm0, %xmm4
vmulps %xmm4, %xmm13, %xmm0
vmovaps %xmm0, 0x100(%rsp)
vdpps $0x7f, %xmm0, %xmm11, %xmm15
vaddss 0x1d7892(%rip), %xmm7, %xmm14 # 0x1eec714
vmulps %xmm15, %xmm15, %xmm0
vsubps %xmm0, %xmm19, %xmm0
vxorps %xmm2, %xmm2, %xmm2
vmovss %xmm0, %xmm2, %xmm1 # xmm1 = xmm0[0],xmm2[1,2,3]
vrsqrt14ss %xmm1, %xmm2, %xmm18
vmulss 0x1d7873(%rip), %xmm18, %xmm17 # 0x1eec718
vmulss 0x1d786d(%rip), %xmm0, %xmm20 # 0x1eec71c
vucomiss 0x1d6b6d(%rip), %xmm0 # 0x1eeba24
jb 0x1d14ec2
vsqrtss %xmm0, %xmm0, %xmm0
jmp 0x1d14f5a
vmovss %xmm14, 0x44(%rsp)
vmovaps %xmm15, 0xf0(%rsp)
vmovss %xmm16, 0x60(%rsp)
vmovss %xmm17, 0x5c(%rsp)
vmovaps %xmm18, 0x320(%rsp)
vmovss %xmm20, 0x58(%rsp)
vmovaps %xmm4, 0x310(%rsp)
vzeroupper
callq 0x6aa20
vmovaps 0x310(%rsp), %xmm4
vmovss 0x58(%rsp), %xmm20
vmovaps 0x320(%rsp), %xmm18
vmovss 0x5c(%rsp), %xmm17
vmovss 0x60(%rsp), %xmm16
vmovaps 0xf0(%rsp), %xmm15
vmovss 0x44(%rsp), %xmm14
vmovss 0x40(%rsp), %xmm7
vmovaps 0x160(%rsp), %xmm13
vmovaps 0x200(%rsp), %xmm19
vmovaps 0x220(%rsp), %xmm11
vbroadcastss 0x20bf61(%rip), %xmm8 # 0x1f20ec4
vmovaps 0x1e0(%rsp), %ymm31
vmovaps 0x1c0(%rsp), %ymm21
vmovaps 0x80(%rsp), %xmm10
vmovaps 0xc0(%rsp), %xmm9
vmovss 0x1dba4f(%rip), %xmm2 # 0x1ef09dc
vmovaps %xmm2, %xmm1
vmovaps 0xa0(%rsp), %xmm3
vfmadd213ss %xmm10, %xmm3, %xmm1 # xmm1 = (xmm3 * xmm1) + xmm10
vfmadd231ss %xmm2, %xmm10, %xmm3 # xmm3 = (xmm10 * xmm2) + xmm3
vbroadcastss %xmm10, %xmm2
vmulps 0x260(%rsp), %xmm2, %xmm2
vbroadcastss %xmm3, %xmm3
vfmadd132ps 0x2a0(%rsp), %xmm2, %xmm3 # xmm3 = (xmm3 * mem) + xmm2
vbroadcastss %xmm1, %xmm1
vfmadd132ps 0x280(%rsp), %xmm3, %xmm1 # xmm1 = (xmm1 * mem) + xmm3
vmovaps 0x350(%rsp), %xmm2
vfmadd132ps 0x2c0(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1
vbroadcastss 0x340(%rsp), %xmm1
vmulps %xmm1, %xmm2, %xmm1
vdpps $0x7f, %xmm2, %xmm13, %xmm2
vbroadcastss %xmm2, %xmm2
vmulps %xmm2, %xmm13, %xmm2
vsubps %xmm2, %xmm1, %xmm1
vmovss 0x6c(%rsp), %xmm2
vmulss 0x330(%rsp), %xmm2, %xmm2
vmulss 0x68(%rsp), %xmm9, %xmm3
vbroadcastss %xmm2, %xmm2
vmulps %xmm2, %xmm1, %xmm1
vxorps 0x20be94(%rip){1to4}, %xmm13, %xmm2 # 0x1f20ec0
vmulps %xmm1, %xmm4, %xmm4
vmovaps 0x100(%rsp), %xmm12
vdpps $0x7f, %xmm12, %xmm2, %xmm5
vmovss 0x64(%rsp), %xmm6
vmaxss %xmm3, %xmm6, %xmm1
vdivss %xmm16, %xmm6, %xmm3
vdpps $0x7f, %xmm4, %xmm11, %xmm4
vfmadd213ss %xmm1, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm7) + xmm1
vfmadd213ss %xmm7, %xmm3, %xmm14 # xmm14 = (xmm3 * xmm14) + xmm7
vmovaps 0x250(%rsp), %xmm7
vdpps $0x7f, %xmm12, %xmm7, %xmm3
vaddss %xmm4, %xmm5, %xmm4
vdpps $0x7f, %xmm2, %xmm11, %xmm5
vmulss %xmm18, %xmm20, %xmm2
vmulss %xmm18, %xmm18, %xmm6
vmulss %xmm6, %xmm2, %xmm2
vdpps $0x7f, %xmm7, %xmm11, %xmm6
vaddss %xmm2, %xmm17, %xmm7
vfnmadd231ss %xmm4, %xmm15, %xmm5 # xmm5 = -(xmm15 * xmm4) + xmm5
vfnmadd231ss %xmm3, %xmm15, %xmm6 # xmm6 = -(xmm15 * xmm3) + xmm6
vpermilps $0xff, 0x3a0(%rsp), %xmm2 # xmm2 = mem[3,3,3,3]
vsubss %xmm2, %xmm0, %xmm2
vshufps $0xff, %xmm13, %xmm13, %xmm0 # xmm0 = xmm13[3,3,3,3]
vfmsub213ss %xmm0, %xmm7, %xmm5 # xmm5 = (xmm7 * xmm5) - xmm0
vmulss %xmm7, %xmm6, %xmm6
vmulss %xmm5, %xmm3, %xmm7
vfmsub231ss %xmm6, %xmm4, %xmm7 # xmm7 = (xmm4 * xmm6) - xmm7
vdivss %xmm7, %xmm6, %xmm6
vdivss %xmm7, %xmm5, %xmm5
vdivss %xmm7, %xmm3, %xmm3
vdivss %xmm7, %xmm4, %xmm4
vmulss %xmm6, %xmm15, %xmm6
vmulss %xmm3, %xmm2, %xmm3
vsubss %xmm3, %xmm6, %xmm3
vmulss %xmm5, %xmm15, %xmm5
vmulss %xmm4, %xmm2, %xmm4
vsubss %xmm5, %xmm4, %xmm4
vsubss %xmm3, %xmm10, %xmm10
vsubss %xmm4, %xmm9, %xmm9
vandps %xmm8, %xmm15, %xmm3
vucomiss %xmm3, %xmm14
jbe 0x1d152b4
vaddss %xmm1, %xmm14, %xmm1
vmovaps 0x2f0(%rsp), %xmm3
vfmadd231ss 0x1dcd9a(%rip), %xmm3, %xmm1 # xmm1 = (xmm3 * mem) + xmm1
vandps %xmm2, %xmm8, %xmm2
vucomiss %xmm2, %xmm1
jbe 0x1d152b4
vaddss 0x300(%rsp), %xmm9, %xmm9
movb $0x1, %r13b
vucomiss 0x7c(%rsp), %xmm9
jb 0x1d152b7
movq 0x38(%rsp), %rax
vmovss 0x200(%r12,%rax,4), %xmm4
vucomiss %xmm9, %xmm4
jb 0x1d152b7
vucomiss 0x1d68c2(%rip), %xmm10 # 0x1eeba24
jb 0x1d152b7
vmovss 0x1d75a4(%rip), %xmm1 # 0x1eec714
vucomiss %xmm10, %xmm1
jb 0x1d152b7
vxorps %xmm2, %xmm2, %xmm2
vmovss %xmm19, %xmm2, %xmm1 # xmm1 = xmm19[0],xmm2[1,2,3]
vrsqrt14ss %xmm1, %xmm2, %xmm1
vmulss 0x1d7585(%rip), %xmm1, %xmm2 # 0x1eec718
vmulss 0x1d757f(%rip), %xmm19, %xmm3 # 0x1eec71c
movq (%r15), %rax
movq 0x1e8(%rax), %rax
movq %r15, %rcx
movq 0x70(%rsp), %rdx
movq (%rax,%rdx,8), %r15
movq 0x38(%rsp), %rax
movl 0x240(%r12,%rax,4), %eax
testl %eax, 0x34(%r15)
je 0x1d152d4
vmulss %xmm1, %xmm3, %xmm3
vmulss %xmm1, %xmm1, %xmm1
vmulss %xmm1, %xmm3, %xmm1
vaddss %xmm1, %xmm2, %xmm1
vbroadcastss %xmm1, %xmm1
vmulps %xmm1, %xmm11, %xmm1
vfmadd213ps %xmm13, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm0) + xmm13
vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm13, %xmm13, %xmm3 # xmm3 = xmm13[1,2,0,3]
vmulps %xmm3, %xmm1, %xmm1
vfmsub231ps %xmm2, %xmm13, %xmm1 # xmm1 = (xmm13 * xmm2) - xmm1
vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3]
vshufps $0xd2, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,0,1,3]
vmulps %xmm1, %xmm0, %xmm0
vfmsub231ps %xmm3, %xmm2, %xmm0 # xmm0 = (xmm2 * xmm3) - xmm0
movq 0x10(%rcx), %rax
cmpq $0x0, 0x10(%rax)
jne 0x1d152d9
cmpq $0x0, 0x40(%r15)
jne 0x1d152d9
movq 0x38(%rsp), %rcx
vmovss %xmm9, 0x200(%r12,%rcx,4)
vextractps $0x1, %xmm0, 0x300(%r12,%rcx,4)
vextractps $0x2, %xmm0, 0x340(%r12,%rcx,4)
vmovss %xmm0, 0x380(%r12,%rcx,4)
vmovss %xmm10, 0x3c0(%r12,%rcx,4)
movl $0x0, 0x400(%r12,%rcx,4)
movq 0x110(%rsp), %rax
movl %eax, 0x440(%r12,%rcx,4)
movq 0x70(%rsp), %rax
movl %eax, 0x480(%r12,%rcx,4)
movq 0x48(%rsp), %r15
movq 0x8(%r15), %rax
movl (%rax), %eax
movl %eax, 0x4c0(%r12,%rcx,4)
movq 0x8(%r15), %rax
movl 0x4(%rax), %eax
movl %eax, 0x500(%r12,%rcx,4)
jmp 0x1d152b7
xorl %r13d, %r13d
subq $0x1, %r14
setb %al
testb %r13b, %r13b
jne 0x1d1558a
testb %al, %al
je 0x1d14b9e
jmp 0x1d1558a
movq %rcx, %r15
jmp 0x1d152b7
movq 0x48(%rsp), %rcx
movq 0x8(%rcx), %rax
vbroadcastss %xmm10, %zmm1
vbroadcastss 0x1fd412(%rip), %zmm2 # 0x1f12704
vpermps %zmm0, %zmm2, %zmm2
vbroadcastss 0x20bbda(%rip), %zmm3 # 0x1f20edc
vpermps %zmm0, %zmm3, %zmm3
vbroadcastss %xmm0, %zmm0
vmovaps %zmm2, 0x8c0(%rsp)
vmovaps %zmm3, 0x900(%rsp)
vmovaps %zmm0, 0x940(%rsp)
vmovaps %zmm1, 0x980(%rsp)
vxorps %xmm0, %xmm0, %xmm0
vmovaps %zmm0, 0x9c0(%rsp)
vmovaps 0x840(%rsp), %zmm0
vmovaps %zmm0, 0xa00(%rsp)
vmovdqa64 0x880(%rsp), %zmm0
vmovdqa64 %zmm0, 0xa40(%rsp)
movq 0x198(%rsp), %rdx
vpcmpeqd %ymm0, %ymm0, %ymm0
vmovdqa %ymm0, 0x60(%rdx)
vmovdqa %ymm0, 0x40(%rdx)
vmovdqa %ymm0, 0x20(%rdx)
vmovdqa %ymm0, (%rdx)
vbroadcastss (%rax), %zmm0
vmovaps %zmm0, 0xa80(%rsp)
vbroadcastss 0x4(%rax), %zmm0
vmovaps %zmm0, 0xac0(%rsp)
movq 0x38(%rsp), %rax
vmovss %xmm9, 0x200(%r12,%rax,4)
vmovaps 0x800(%rsp), %zmm0
vmovaps %zmm0, 0x3c0(%rsp)
leaq 0x3c0(%rsp), %rax
movq %rax, 0x130(%rsp)
movq 0x18(%r15), %rax
movq %rax, 0x138(%rsp)
movq 0x8(%rcx), %rax
movq %rax, 0x140(%rsp)
movq %r12, 0x148(%rsp)
leaq 0x8c0(%rsp), %rax
movq %rax, 0x150(%rsp)
movl $0x10, 0x158(%rsp)
movq 0x40(%r15), %rax
testq %rax, %rax
vmovaps %xmm10, 0x80(%rsp)
vmovaps %xmm9, 0xc0(%rsp)
vmovss %xmm4, 0xa0(%rsp)
je 0x1d1545c
leaq 0x130(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0xa0(%rsp), %xmm4
vmovaps 0xc0(%rsp), %xmm9
vmovaps 0x80(%rsp), %xmm10
vmovaps 0x1c0(%rsp), %ymm21
vmovaps 0x1e0(%rsp), %ymm31
vmovdqa64 0x3c0(%rsp), %zmm0
vptestmd %zmm0, %zmm0, %k0
kortestw %k0, %k0
je 0x1d15571
movq 0x48(%rsp), %rax
movq 0x10(%rax), %rcx
movq 0x10(%rcx), %rax
testq %rax, %rax
je 0x1d154ca
testb $0x2, (%rcx)
jne 0x1d15492
testb $0x40, 0x3e(%r15)
je 0x1d154ca
leaq 0x130(%rsp), %rdi
vzeroupper
callq *%rax
vmovss 0xa0(%rsp), %xmm4
vmovaps 0xc0(%rsp), %xmm9
vmovaps 0x80(%rsp), %xmm10
vmovaps 0x1c0(%rsp), %ymm21
vmovaps 0x1e0(%rsp), %ymm31
vmovdqa64 0x3c0(%rsp), %zmm0
vptestmd %zmm0, %zmm0, %k1
kortestw %k1, %k1
je 0x1d15571
movq 0x148(%rsp), %rax
movq 0x150(%rsp), %rcx
vmovaps (%rcx), %zmm0
vmovups %zmm0, 0x300(%rax) {%k1}
vmovaps 0x40(%rcx), %zmm0
vmovups %zmm0, 0x340(%rax) {%k1}
vmovaps 0x80(%rcx), %zmm0
vmovups %zmm0, 0x380(%rax) {%k1}
vmovaps 0xc0(%rcx), %zmm0
vmovups %zmm0, 0x3c0(%rax) {%k1}
vmovaps 0x100(%rcx), %zmm0
vmovups %zmm0, 0x400(%rax) {%k1}
vmovdqa64 0x140(%rcx), %zmm0
vmovdqu32 %zmm0, 0x440(%rax) {%k1}
vmovdqa64 0x180(%rcx), %zmm0
vmovdqu32 %zmm0, 0x480(%rax) {%k1}
vmovdqa64 0x1c0(%rcx), %zmm0
vmovdqa32 %zmm0, 0x4c0(%rax) {%k1}
vmovdqa64 0x200(%rcx), %zmm0
vmovdqa32 %zmm0, 0x500(%rax) {%k1}
jmp 0x1d15580
movq 0x38(%rsp), %rax
vmovss %xmm4, 0x200(%r12,%rax,4)
movq 0x48(%rsp), %r15
jmp 0x1d152b7
movq 0x38(%rsp), %rax
vmovaps 0x440(%rsp), %ymm0
vcmpleps 0x200(%r12,%rax,4){1to8}, %ymm0, %k0
kmovd %k0, %eax
andb %al, %bl
jne 0x1d14ab4
vmovdqa 0x4a0(%rsp), %ymm1
vpcmpltd 0x420(%rsp), %ymm1, %k1
vmovaps 0x7c0(%rsp), %ymm0
vpcmpltd 0x540(%rsp), %ymm1, %k2
vmovaps 0x380(%rsp), %ymm3
vaddps %ymm0, %ymm3, %ymm1
movq 0x38(%rsp), %rax
vbroadcastss 0x200(%r12,%rax,4), %ymm2
vcmpleps %ymm2, %ymm1, %k0 {%k2}
kmovd %k0, %eax
movl 0x120(%rsp), %ecx
andb %al, %cl
vmovaps 0x500(%rsp), %ymm1
vaddps %ymm1, %ymm3, %ymm3
vcmpleps %ymm2, %ymm3, %k0 {%k1}
kmovd %k0, %eax
movl 0x54(%rsp), %edx
andb %al, %dl
orb %cl, %dl
je 0x1d156a3
movq 0x1b0(%rsp), %r9
movl %r9d, %eax
leaq (%rax,%rax,2), %rax
shlq $0x5, %rax
movb %dl, 0xb20(%rsp,%rax)
kmovd %ecx, %k1
vmovaps %ymm0, %ymm1 {%k1}
vmovaps %ymm1, 0xb40(%rsp,%rax)
vmovaps 0x180(%rsp), %xmm2
vmovlps %xmm2, 0xb60(%rsp,%rax)
movq 0x1a8(%rsp), %r11
leal 0x1(%r11), %ecx
movl %ecx, 0xb68(%rsp,%rax)
incl %r9d
movq 0x1a0(%rsp), %r8
vbroadcastss 0x1d7087(%rip), %ymm16 # 0x1eec714
movq 0x1b8(%rsp), %r10
jmp 0x1d156d6
vbroadcastss 0x1d7073(%rip), %ymm16 # 0x1eec714
jmp 0x1d156cd
movq 0x1a0(%rsp), %r8
vbroadcastss 0x1d705f(%rip), %ymm16 # 0x1eec714
movq 0x1b8(%rsp), %r10
movq 0x1b0(%rsp), %r9
movq 0x1a8(%rsp), %r11
vmovaps 0x180(%rsp), %xmm2
movl %r9d, %eax
testl %eax, %eax
je 0x1d1582e
leal -0x1(%rax), %r9d
leaq (%r9,%r9,2), %rcx
shlq $0x5, %rcx
vmovaps 0xb40(%rsp,%rcx), %ymm0
movzbl 0xb20(%rsp,%rcx), %esi
vaddps 0x380(%rsp), %ymm0, %ymm1
movq 0x38(%rsp), %rdx
vcmpleps 0x200(%r12,%rdx,4){1to8}, %ymm1, %k0
kmovb %k0, %edx
andl %esi, %edx
je 0x1d157d1
kmovd %edx, %k1
vbroadcastss 0x1d62ef(%rip), %ymm1 # 0x1eeba20
vblendmps %ymm0, %ymm1, %ymm0 {%k1}
vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm0, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1]
vminps %ymm2, %ymm1, %ymm1
vcmpeqps %ymm1, %ymm0, %k0
kmovd %k0, %esi
andb %dl, %sil
je 0x1d15769
movzbl %sil, %edi
jmp 0x1d1576c
movzbl %dl, %edi
leaq (%rsp,%rcx), %rsi
addq $0xb20, %rsi # imm = 0xB20
vmovss 0x44(%rsi), %xmm0
tzcntl %edi, %ecx
movb $0x1, %dil
shlb %cl, %dil
movl 0x48(%rsi), %r11d
movzbl %dil, %edi
kmovd %edi, %k0
kmovd %edx, %k1
kandnb %k1, %k0, %k0
kmovb %k0, (%rsi)
kortestb %k0, %k0
je 0x1d157a7
movl %eax, %r9d
vbroadcastss 0x40(%rsi), %ymm1
vsubss %xmm1, %xmm0, %xmm0
vbroadcastss %xmm0, %ymm0
vfmadd132ps 0x20b761(%rip), %ymm1, %ymm0 # ymm0 = (ymm0 * mem) + ymm1
vmovaps %ymm0, 0x8c0(%rsp)
vmovsd 0x8c0(%rsp,%rcx,4), %xmm2
movl %r9d, %eax
testb %dl, %dl
je 0x1d156d9
jmp 0x1d1327e
vcmpleps 0x20b714(%rip), %ymm4, %k2 # 0x1f20f00
vbroadcastss 0x1d738f(%rip), %ymm4 # 0x1eecb84
vbroadcastss 0x1d6221(%rip), %ymm16 # 0x1eeba20
vblendmps %ymm4, %ymm16, %ymm3 {%k2}
vmovaps %ymm3, %ymm30 {%k1}
vblendmps %ymm16, %ymm4, %ymm3 {%k2}
kmovd %k2, %ecx
vmovaps %ymm3, %ymm31 {%k1}
knotb %k1, %k0
kmovd %k0, %edx
orb %cl, %dl
andb %al, %dl
movl %edx, %eax
jmp 0x1d1386e
movq 0x38(%rsp), %rax
vmovaps 0x560(%rsp), %ymm0
vcmpleps 0x200(%r12,%rax,4){1to8}, %ymm0, %k0
kmovb %k0, %eax
andl %eax, %r10d
jne 0x1d12eed
leaq -0x28(%rbp), %rsp
popq %rbx
popq %r12
popq %r13
popq %r14
popq %r15
popq %rbp
vzeroupper
retq
nop
|
/embree[P]embree/kernels/geometry/curveNi_intersector.h
|
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)0, embree::avx512::CurveGeometryInterface, embree::BSplineCurveT>::vlinearBounds(embree::LinearSpace3<embree::Vec3fa> const&, unsigned long, embree::BBox<float> const&) const
|
LBBox3fa vlinearBounds(const LinearSpace3fa& space, size_t primID, const BBox1f& time_range) const {
return linearBounds(space,primID,time_range);
}
|
pushq %rbp
pushq %r15
pushq %r14
pushq %r13
pushq %r12
pushq %rbx
subq $0x138, %rsp # imm = 0x138
leaq 0xc8(%rsp), %rax
movq %rcx, (%rax)
leaq 0xb0(%rsp), %r14
movq %rdx, (%r14)
movq %rax, 0x8(%r14)
movq %rsi, 0x10(%r14)
vmovss 0x28(%rsi), %xmm4
vmovss 0x2c(%rsi), %xmm0
vmovss (%r8), %xmm1
vmovss 0x4(%r8), %xmm2
vsubss %xmm0, %xmm1, %xmm1
vmovss 0x30(%rsi), %xmm3
vsubss %xmm0, %xmm3, %xmm3
vdivss %xmm3, %xmm1, %xmm1
vsubss %xmm0, %xmm2, %xmm0
vdivss %xmm3, %xmm0, %xmm2
vmovss %xmm1, 0x4(%rsp)
vmulss %xmm1, %xmm4, %xmm0
vmovss %xmm0, 0x20(%rsp)
vroundss $0x9, %xmm0, %xmm0, %xmm0
vmovss %xmm2, 0x50(%rsp)
vmulss %xmm2, %xmm4, %xmm1
vmovss %xmm1, 0x40(%rsp)
vroundss $0xa, %xmm1, %xmm1, %xmm1
vxorps %xmm2, %xmm2, %xmm2
vmaxss %xmm2, %xmm0, %xmm3
vminss %xmm4, %xmm1, %xmm2
vmovss %xmm3, 0x10(%rsp)
vcvttss2si %xmm3, %r15d
vmovss %xmm2, 0x30(%rsp)
vcvttss2si %xmm2, %r12d
vcvttss2si %xmm0, %eax
movq %rdi, %rbx
testl %eax, %eax
movl $0xffffffff, %r13d # imm = 0xFFFFFFFF
cmovnsl %eax, %r13d
vcvttss2si %xmm1, %eax
vmovss %xmm4, 0xc(%rsp)
vcvttss2si %xmm4, %ebp
incl %ebp
cmpl %ebp, %eax
cmovll %eax, %ebp
movslq %r15d, %rdx
leaq 0x80(%rsp), %rdi
movq %r14, %rsi
callq 0x1e82cf6
movslq %r12d, %rdx
leaq 0x60(%rsp), %rdi
movq %r14, %rsi
callq 0x1e82cf6
movl %ebp, %eax
subl %r13d, %eax
cmpl $0x1, %eax
jne 0x1e82143
vmovss 0x20(%rsp), %xmm0
vsubss 0x10(%rsp), %xmm0, %xmm0
vxorps %xmm8, %xmm8, %xmm8
vmaxss %xmm8, %xmm0, %xmm0
vmovss 0x6a658(%rip), %xmm1 # 0x1eec714
vsubss %xmm0, %xmm1, %xmm2
vbroadcastss %xmm0, %xmm0
vmovaps 0x60(%rsp), %xmm3
vmovaps 0x70(%rsp), %xmm4
vmulps %xmm3, %xmm0, %xmm5
vbroadcastss %xmm2, %xmm2
vmovaps 0x80(%rsp), %xmm6
vmovaps 0x90(%rsp), %xmm7
vfmadd231ps %xmm6, %xmm2, %xmm5 # xmm5 = (xmm2 * xmm6) + xmm5
vmulps %xmm4, %xmm0, %xmm0
vfmadd231ps %xmm2, %xmm7, %xmm0 # xmm0 = (xmm7 * xmm2) + xmm0
vmovaps %xmm5, (%rbx)
vmovaps %xmm0, 0x10(%rbx)
vmovss 0x30(%rsp), %xmm0
vsubss 0x40(%rsp), %xmm0, %xmm0
vmaxss %xmm8, %xmm0, %xmm0
vsubss %xmm0, %xmm1, %xmm1
vbroadcastss %xmm0, %xmm0
vmulps %xmm6, %xmm0, %xmm2
vbroadcastss %xmm1, %xmm1
vfmadd231ps %xmm3, %xmm1, %xmm2 # xmm2 = (xmm1 * xmm3) + xmm2
vmulps %xmm7, %xmm0, %xmm0
vfmadd231ps %xmm4, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm4) + xmm0
vmovaps %xmm2, 0x20(%rbx)
vmovaps %xmm0, 0x30(%rbx)
jmp 0x1e82326
incl %r15d
movslq %r15d, %rdx
leaq 0x110(%rsp), %r14
leaq 0xb0(%rsp), %r15
movq %r14, %rdi
movq %r15, %rsi
callq 0x1e82cf6
decl %r12d
movslq %r12d, %rdx
leaq 0xf0(%rsp), %r12
movq %r12, %rdi
movq %r15, %rsi
callq 0x1e82cf6
vmovss 0x20(%rsp), %xmm0
vsubss 0x10(%rsp), %xmm0, %xmm0
vxorps %xmm5, %xmm5, %xmm5
vmaxss %xmm5, %xmm0, %xmm0
vmovss 0x6a57b(%rip), %xmm4 # 0x1eec714
vbroadcastss %xmm0, %xmm1
vmulps (%r14), %xmm1, %xmm2
vsubss %xmm0, %xmm4, %xmm0
vbroadcastss %xmm0, %xmm0
vfmadd231ps 0x80(%rsp), %xmm0, %xmm2 # xmm2 = (xmm0 * mem) + xmm2
vmulps 0x10(%r14), %xmm1, %xmm3
vfmadd231ps 0x90(%rsp), %xmm0, %xmm3 # xmm3 = (xmm0 * mem) + xmm3
vmovss 0x30(%rsp), %xmm0
vsubss 0x40(%rsp), %xmm0, %xmm0
vmaxss %xmm5, %xmm0, %xmm0
vsubss %xmm0, %xmm4, %xmm1
vbroadcastss %xmm0, %xmm0
vmulps (%r12), %xmm0, %xmm5
vbroadcastss %xmm1, %xmm1
vfmadd231ps 0x60(%rsp), %xmm1, %xmm5 # xmm5 = (xmm1 * mem) + xmm5
vmulps 0x10(%r12), %xmm0, %xmm6
vfmadd231ps 0x70(%rsp), %xmm1, %xmm6 # xmm6 = (xmm1 * mem) + xmm6
leal 0x1(%r13), %eax
cmpl %ebp, %eax
jge 0x1e82313
vmovss 0x4(%rsp), %xmm1
vmovss 0x50(%rsp), %xmm0
vsubss %xmm1, %xmm0, %xmm0
vmovss %xmm0, 0x8(%rsp)
movl %eax, %r14d
notl %r13d
addl %ebp, %r13d
leaq 0xd0(%rsp), %r15
leaq 0xb0(%rsp), %r12
vmovaps %xmm6, 0x10(%rsp)
vmovaps %xmm5, 0x20(%rsp)
vmovaps %xmm3, 0x30(%rsp)
vmovaps %xmm2, 0x40(%rsp)
vcvtsi2ss %r14d, %xmm8, %xmm0
vdivss 0xc(%rsp), %xmm0, %xmm0
vsubss %xmm1, %xmm0, %xmm0
vdivss 0x8(%rsp), %xmm0, %xmm0
vsubss %xmm0, %xmm4, %xmm1
vbroadcastss %xmm0, %xmm0
vmulps %xmm0, %xmm5, %xmm4
vbroadcastss %xmm1, %xmm1
vfmadd231ps %xmm2, %xmm1, %xmm4 # xmm4 = (xmm1 * xmm2) + xmm4
vmovaps %xmm4, 0x50(%rsp)
vmulps %xmm0, %xmm6, %xmm0
vfmadd231ps %xmm1, %xmm3, %xmm0 # xmm0 = (xmm3 * xmm1) + xmm0
vmovaps %xmm0, 0xa0(%rsp)
movq %r15, %rdi
movq %r12, %rsi
movq %r14, %rdx
callq 0x1e82cf6
vmovaps 0x10(%rsp), %xmm6
vmovaps 0x20(%rsp), %xmm5
vmovss 0x6a45c(%rip), %xmm4 # 0x1eec714
vmovaps 0x30(%rsp), %xmm3
vmovaps 0x40(%rsp), %xmm2
vmovaps 0xd0(%rsp), %xmm0
vsubps 0x50(%rsp), %xmm0, %xmm0
vmovaps 0xe0(%rsp), %xmm1
vsubps 0xa0(%rsp), %xmm1, %xmm1
vxorps %xmm7, %xmm7, %xmm7
vminps %xmm7, %xmm0, %xmm0
vmaxps %xmm7, %xmm1, %xmm1
vaddps %xmm0, %xmm2, %xmm2
vaddps %xmm0, %xmm5, %xmm5
vaddps %xmm1, %xmm3, %xmm3
vaddps %xmm1, %xmm6, %xmm6
vmovss 0x4(%rsp), %xmm1
incq %r14
decl %r13d
jne 0x1e8223a
vmovaps %xmm2, (%rbx)
vmovaps %xmm3, 0x10(%rbx)
vmovaps %xmm5, 0x20(%rbx)
vmovaps %xmm6, 0x30(%rbx)
movq %rbx, %rax
addq $0x138, %rsp # imm = 0x138
popq %rbx
popq %r12
popq %r13
popq %r14
popq %r15
popq %rbp
retq
nop
|
/embree[P]embree/kernels/common/scene_curves.cpp
|
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)0, embree::avx512::CurveGeometryInterface, embree::BSplineCurveT>::vlinearBounds(embree::Vec3fa const&, float, float, embree::LinearSpace3<embree::Vec3fa> const&, unsigned long, embree::BBox<float> const&) const
|
LBBox3fa vlinearBounds(const Vec3fa& ofs, const float scale, const float r_scale0, const LinearSpace3fa& space, size_t primID, const BBox1f& time_range) const {
return linearBounds(ofs,scale,r_scale0,space,primID,time_range);
}
|
pushq %rbp
pushq %r15
pushq %r14
pushq %r13
pushq %r12
pushq %rbx
subq $0x168, %rsp # imm = 0x168
leaq 0x6c(%rsp), %rax
vmovss %xmm0, (%rax)
leaq 0x68(%rsp), %r10
vmovss %xmm1, (%r10)
leaq 0xc8(%rsp), %r11
movq %r8, (%r11)
leaq 0xf0(%rsp), %r14
movq %rdx, (%r14)
movq %rax, 0x8(%r14)
movq %r10, 0x10(%r14)
movq %rcx, 0x18(%r14)
movq %r11, 0x20(%r14)
movq %rsi, 0x28(%r14)
vmovss 0x28(%rsi), %xmm4
vmovss 0x2c(%rsi), %xmm0
vmovss (%r9), %xmm1
vmovss 0x4(%r9), %xmm2
vsubss %xmm0, %xmm1, %xmm1
vmovss 0x30(%rsi), %xmm3
vsubss %xmm0, %xmm3, %xmm3
vdivss %xmm3, %xmm1, %xmm1
vsubss %xmm0, %xmm2, %xmm0
vdivss %xmm3, %xmm0, %xmm2
vmovss %xmm1, 0x4(%rsp)
vmulss %xmm1, %xmm4, %xmm0
vmovss %xmm0, 0x20(%rsp)
vroundss $0x9, %xmm0, %xmm0, %xmm0
vmovss %xmm2, 0x50(%rsp)
vmulss %xmm2, %xmm4, %xmm1
vmovss %xmm1, 0x40(%rsp)
vroundss $0xa, %xmm1, %xmm1, %xmm1
vxorps %xmm2, %xmm2, %xmm2
vmaxss %xmm2, %xmm0, %xmm3
vminss %xmm4, %xmm1, %xmm2
vmovss %xmm3, 0x10(%rsp)
vcvttss2si %xmm3, %r15d
vmovss %xmm2, 0x30(%rsp)
vcvttss2si %xmm2, %r12d
vcvttss2si %xmm0, %eax
movq %rdi, %rbx
testl %eax, %eax
movl $0xffffffff, %r13d # imm = 0xFFFFFFFF
cmovnsl %eax, %r13d
vcvttss2si %xmm1, %eax
vmovss %xmm4, 0xc(%rsp)
vcvttss2si %xmm4, %ebp
incl %ebp
cmpl %ebp, %eax
cmovll %eax, %ebp
movslq %r15d, %rdx
leaq 0x90(%rsp), %rdi
movq %r14, %rsi
callq 0x1e83344
movslq %r12d, %rdx
leaq 0x70(%rsp), %rdi
movq %r14, %rsi
callq 0x1e83344
movl %ebp, %eax
subl %r13d, %eax
cmpl $0x1, %eax
jne 0x1e82505
vmovss 0x20(%rsp), %xmm0
vsubss 0x10(%rsp), %xmm0, %xmm0
vxorps %xmm8, %xmm8, %xmm8
vmaxss %xmm8, %xmm0, %xmm0
vmovss 0x6a299(%rip), %xmm1 # 0x1eec714
vsubss %xmm0, %xmm1, %xmm2
vbroadcastss %xmm0, %xmm0
vmovaps 0x70(%rsp), %xmm3
vmovaps 0x80(%rsp), %xmm4
vmulps %xmm3, %xmm0, %xmm5
vbroadcastss %xmm2, %xmm2
vmovaps 0x90(%rsp), %xmm6
vmovaps 0xa0(%rsp), %xmm7
vfmadd231ps %xmm6, %xmm2, %xmm5 # xmm5 = (xmm2 * xmm6) + xmm5
vmulps %xmm4, %xmm0, %xmm0
vfmadd231ps %xmm2, %xmm7, %xmm0 # xmm0 = (xmm7 * xmm2) + xmm0
vmovaps %xmm5, (%rbx)
vmovaps %xmm0, 0x10(%rbx)
vmovss 0x30(%rsp), %xmm0
vsubss 0x40(%rsp), %xmm0, %xmm0
vmaxss %xmm8, %xmm0, %xmm0
vsubss %xmm0, %xmm1, %xmm1
vbroadcastss %xmm0, %xmm0
vmulps %xmm6, %xmm0, %xmm2
vbroadcastss %xmm1, %xmm1
vfmadd231ps %xmm3, %xmm1, %xmm2 # xmm2 = (xmm1 * xmm3) + xmm2
vmulps %xmm7, %xmm0, %xmm0
vfmadd231ps %xmm4, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm4) + xmm0
vmovaps %xmm2, 0x20(%rbx)
vmovaps %xmm0, 0x30(%rbx)
jmp 0x1e826eb
incl %r15d
movslq %r15d, %rdx
leaq 0x140(%rsp), %r14
leaq 0xf0(%rsp), %r15
movq %r14, %rdi
movq %r15, %rsi
callq 0x1e83344
decl %r12d
movslq %r12d, %rdx
leaq 0x120(%rsp), %r12
movq %r12, %rdi
movq %r15, %rsi
callq 0x1e83344
vmovss 0x20(%rsp), %xmm0
vsubss 0x10(%rsp), %xmm0, %xmm0
vxorps %xmm5, %xmm5, %xmm5
vmaxss %xmm5, %xmm0, %xmm0
vmovss 0x6a1b9(%rip), %xmm4 # 0x1eec714
vbroadcastss %xmm0, %xmm1
vmulps (%r14), %xmm1, %xmm2
vsubss %xmm0, %xmm4, %xmm0
vbroadcastss %xmm0, %xmm0
vfmadd231ps 0x90(%rsp), %xmm0, %xmm2 # xmm2 = (xmm0 * mem) + xmm2
vmulps 0x10(%r14), %xmm1, %xmm3
vfmadd231ps 0xa0(%rsp), %xmm0, %xmm3 # xmm3 = (xmm0 * mem) + xmm3
vmovss 0x30(%rsp), %xmm0
vsubss 0x40(%rsp), %xmm0, %xmm0
vmaxss %xmm5, %xmm0, %xmm0
vsubss %xmm0, %xmm4, %xmm1
vbroadcastss %xmm0, %xmm0
vmulps (%r12), %xmm0, %xmm5
vbroadcastss %xmm1, %xmm1
vfmadd231ps 0x70(%rsp), %xmm1, %xmm5 # xmm5 = (xmm1 * mem) + xmm5
vmulps 0x10(%r12), %xmm0, %xmm6
vfmadd231ps 0x80(%rsp), %xmm1, %xmm6 # xmm6 = (xmm1 * mem) + xmm6
leal 0x1(%r13), %eax
cmpl %ebp, %eax
jge 0x1e826d8
vmovss 0x4(%rsp), %xmm1
vmovss 0x50(%rsp), %xmm0
vsubss %xmm1, %xmm0, %xmm0
vmovss %xmm0, 0x8(%rsp)
movl %eax, %r14d
notl %r13d
addl %ebp, %r13d
leaq 0xd0(%rsp), %r15
leaq 0xf0(%rsp), %r12
vmovaps %xmm6, 0x10(%rsp)
vmovaps %xmm5, 0x20(%rsp)
vmovaps %xmm3, 0x30(%rsp)
vmovaps %xmm2, 0x40(%rsp)
vcvtsi2ss %r14d, %xmm8, %xmm0
vdivss 0xc(%rsp), %xmm0, %xmm0
vsubss %xmm1, %xmm0, %xmm0
vdivss 0x8(%rsp), %xmm0, %xmm0
vsubss %xmm0, %xmm4, %xmm1
vbroadcastss %xmm0, %xmm0
vmulps %xmm0, %xmm5, %xmm4
vbroadcastss %xmm1, %xmm1
vfmadd231ps %xmm2, %xmm1, %xmm4 # xmm4 = (xmm1 * xmm2) + xmm4
vmovaps %xmm4, 0x50(%rsp)
vmulps %xmm0, %xmm6, %xmm0
vfmadd231ps %xmm1, %xmm3, %xmm0 # xmm0 = (xmm3 * xmm1) + xmm0
vmovaps %xmm0, 0xb0(%rsp)
movq %r15, %rdi
movq %r12, %rsi
movq %r14, %rdx
callq 0x1e83344
vmovaps 0x10(%rsp), %xmm6
vmovaps 0x20(%rsp), %xmm5
vmovss 0x6a097(%rip), %xmm4 # 0x1eec714
vmovaps 0x30(%rsp), %xmm3
vmovaps 0x40(%rsp), %xmm2
vmovaps 0xd0(%rsp), %xmm0
vsubps 0x50(%rsp), %xmm0, %xmm0
vmovaps 0xe0(%rsp), %xmm1
vsubps 0xb0(%rsp), %xmm1, %xmm1
vxorps %xmm7, %xmm7, %xmm7
vminps %xmm7, %xmm0, %xmm0
vmaxps %xmm7, %xmm1, %xmm1
vaddps %xmm0, %xmm2, %xmm2
vaddps %xmm0, %xmm5, %xmm5
vaddps %xmm1, %xmm3, %xmm3
vaddps %xmm1, %xmm6, %xmm6
vmovss 0x4(%rsp), %xmm1
incq %r14
decl %r13d
jne 0x1e825ff
vmovaps %xmm2, (%rbx)
vmovaps %xmm3, 0x10(%rbx)
vmovaps %xmm5, 0x20(%rbx)
vmovaps %xmm6, 0x30(%rbx)
movq %rbx, %rax
addq $0x168, %rsp # imm = 0x168
popq %rbx
popq %r12
popq %r13
popq %r14
popq %r15
popq %rbp
retq
|
/embree[P]embree/kernels/common/scene_curves.cpp
|
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)0, embree::avx512::CurveGeometryInterface, embree::BSplineCurveT>::linearBounds(unsigned long, embree::BBox<float> const&) const::'lambda'(unsigned long)::operator()(unsigned long) const
|
__forceinline LBBox3fa linearBounds(size_t primID, const BBox1f& dt) const {
return LBBox3fa([&] (size_t itime) { return bounds(primID, itime); }, dt, this->time_range, fnumTimeSegments);
}
|
movq %rdi, %rax
movq (%rsi), %rdi
movq 0x8(%rsi), %rcx
movq 0x58(%rcx), %rsi
movq 0x68(%rcx), %r8
imulq (%rdi), %r8
movl (%rsi,%r8), %esi
movq 0x188(%rcx), %rdi
imulq $0x38, %rdx, %r8
movq (%rdi,%r8), %rdx
movq 0x10(%rdi,%r8), %rdi
leal 0x1(%rsi), %r8d
leal 0x2(%rsi), %r9d
leal 0x3(%rsi), %r10d
imulq %rdi, %rsi
vmovaps (%rdx,%rsi), %xmm3
imulq %rdi, %r8
vmovaps (%rdx,%r8), %xmm7
imulq %rdi, %r9
vmovaps (%rdx,%r9), %xmm11
imulq %rdi, %r10
vmovaps (%rdx,%r10), %xmm15
vmovss 0x24c(%rcx), %xmm0
vmulss 0xc(%rdx,%rsi), %xmm0, %xmm5
vmulss 0xc(%rdx,%r8), %xmm0, %xmm8
vmulss 0xc(%rdx,%r9), %xmm0, %xmm12
vmulss 0xc(%rdx,%r10), %xmm0, %xmm16
movl 0x248(%rcx), %ecx
cmpq $0x4, %rcx
jne 0x1e829b7
vbroadcastss %xmm16, %xmm9
vblendps $0x8, %xmm9, %xmm15, %xmm0 # xmm0 = xmm15[0,1,2],xmm9[3]
vbroadcastss %xmm12, %xmm6
vblendps $0x8, %xmm6, %xmm11, %xmm1 # xmm1 = xmm11[0,1,2],xmm6[3]
vbroadcastss %xmm8, %xmm4
vblendps $0x8, %xmm4, %xmm7, %xmm2 # xmm2 = xmm7[0,1,2],xmm4[3]
leaq 0x2a936a(%rip), %rcx # 0x212bb28
vmovups 0x110(%rcx), %xmm8
vbroadcastss %xmm3, %xmm10
vshufps $0x55, %xmm3, %xmm3, %xmm12 # xmm12 = xmm3[1,1,1,1]
vshufps $0xaa, %xmm3, %xmm3, %xmm3 # xmm3 = xmm3[2,2,2,2]
vbroadcastss %xmm5, %xmm5
vmovups 0x594(%rcx), %xmm13
vbroadcastss %xmm7, %xmm14
vshufps $0x55, %xmm7, %xmm7, %xmm16 # xmm16 = xmm7[1,1,1,1]
vshufps $0xaa, %xmm7, %xmm7, %xmm7 # xmm7 = xmm7[2,2,2,2]
vmovups 0xa18(%rcx), %xmm17
vbroadcastss %xmm11, %xmm18
vshufps $0x55, %xmm11, %xmm11, %xmm19 # xmm19 = xmm11[1,1,1,1]
vmovups 0xe9c(%rcx), %xmm20
vshufps $0xaa, %xmm11, %xmm11, %xmm11 # xmm11 = xmm11[2,2,2,2]
vbroadcastss %xmm15, %xmm21
vshufps $0x55, %xmm15, %xmm15, %xmm22 # xmm22 = xmm15[1,1,1,1]
vshufps $0xaa, %xmm15, %xmm15, %xmm15 # xmm15 = xmm15[2,2,2,2]
vmulps %xmm20, %xmm21, %xmm21
vmulps %xmm20, %xmm22, %xmm22
vmulps %xmm20, %xmm15, %xmm15
vmulps %xmm20, %xmm9, %xmm9
vfmadd231ps %xmm18, %xmm17, %xmm21 # xmm21 = (xmm17 * xmm18) + xmm21
vfmadd231ps %xmm19, %xmm17, %xmm22 # xmm22 = (xmm17 * xmm19) + xmm22
vfmadd231ps %xmm11, %xmm17, %xmm15 # xmm15 = (xmm17 * xmm11) + xmm15
vfmadd231ps %xmm6, %xmm17, %xmm9 # xmm9 = (xmm17 * xmm6) + xmm9
vfmadd231ps %xmm14, %xmm13, %xmm21 # xmm21 = (xmm13 * xmm14) + xmm21
vfmadd231ps %xmm16, %xmm13, %xmm22 # xmm22 = (xmm13 * xmm16) + xmm22
vfmadd231ps %xmm7, %xmm13, %xmm15 # xmm15 = (xmm13 * xmm7) + xmm15
vfmadd231ps %xmm4, %xmm13, %xmm9 # xmm9 = (xmm13 * xmm4) + xmm9
vfmadd231ps %xmm10, %xmm8, %xmm21 # xmm21 = (xmm8 * xmm10) + xmm21
vfmadd231ps %xmm12, %xmm8, %xmm22 # xmm22 = (xmm8 * xmm12) + xmm22
vfmadd231ps %xmm3, %xmm8, %xmm15 # xmm15 = (xmm8 * xmm3) + xmm15
vfmadd231ps %xmm5, %xmm8, %xmm9 # xmm9 = (xmm8 * xmm5) + xmm9
vshufps $0xb1, %xmm21, %xmm21, %xmm3 # xmm3 = xmm21[1,0,3,2]
vminps %xmm21, %xmm3, %xmm4
vshufpd $0x1, %xmm4, %xmm4, %xmm5 # xmm5 = xmm4[1,0]
vminps %xmm4, %xmm5, %xmm4
vshufps $0xb1, %xmm22, %xmm22, %xmm5 # xmm5 = xmm22[1,0,3,2]
vminps %xmm22, %xmm5, %xmm6
vshufpd $0x1, %xmm6, %xmm6, %xmm7 # xmm7 = xmm6[1,0]
vminps %xmm6, %xmm7, %xmm6
vinsertps $0x1c, %xmm6, %xmm4, %xmm4 # xmm4 = xmm4[0],xmm6[0],zero,zero
vshufps $0xb1, %xmm15, %xmm15, %xmm6 # xmm6 = xmm15[1,0,3,2]
vminps %xmm15, %xmm6, %xmm7
vshufpd $0x1, %xmm7, %xmm7, %xmm8 # xmm8 = xmm7[1,0]
vminps %xmm7, %xmm8, %xmm7
vinsertps $0x20, %xmm7, %xmm4, %xmm4 # xmm4 = xmm4[0,1],xmm7[0],xmm4[3]
vmaxps %xmm21, %xmm3, %xmm3
vshufpd $0x1, %xmm3, %xmm3, %xmm7 # xmm7 = xmm3[1,0]
vmaxps %xmm3, %xmm7, %xmm3
vmaxps %xmm22, %xmm5, %xmm5
vshufpd $0x1, %xmm5, %xmm5, %xmm7 # xmm7 = xmm5[1,0]
vmaxps %xmm5, %xmm7, %xmm5
vinsertps $0x1c, %xmm5, %xmm3, %xmm3 # xmm3 = xmm3[0],xmm5[0],zero,zero
vmaxps %xmm15, %xmm6, %xmm5
vshufpd $0x1, %xmm5, %xmm5, %xmm6 # xmm6 = xmm5[1,0]
vmaxps %xmm5, %xmm6, %xmm5
vinsertps $0x20, %xmm5, %xmm3, %xmm3 # xmm3 = xmm3[0,1],xmm5[0],xmm3[3]
vandps 0x9e5ad(%rip){1to4}, %xmm9, %xmm5 # 0x1f20ec4
vprolq $0x20, %xmm5, %xmm6
vmaxps %xmm5, %xmm6, %xmm5
vbroadcastss %xmm5, %xmm6
vshufps $0xaa, %xmm5, %xmm5, %xmm5 # xmm5 = xmm5[2,2,2,2]
vmaxps %xmm6, %xmm5, %xmm5
vbroadcastss 0x6e6c7(%rip), %xmm6 # 0x1ef1000
vmulps %xmm6, %xmm0, %xmm0
vfmadd231ps 0x9e59d(%rip){1to4}, %xmm1, %xmm0 # xmm0 = (xmm1 * mem) + xmm0
vfmadd231ps %xmm2, %xmm6, %xmm0 # xmm0 = (xmm6 * xmm2) + xmm0
vminps %xmm0, %xmm4, %xmm1
vmaxps %xmm0, %xmm3, %xmm2
vshufps $0xff, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[3,3,3,3]
vandps 0x9e561(%rip){1to4}, %xmm0, %xmm0 # 0x1f20ec4
vmaxps %xmm0, %xmm5, %xmm3
vsubps %xmm3, %xmm1, %xmm0
vaddps %xmm3, %xmm2, %xmm1
vbroadcastss 0x9e54c(%rip), %xmm2 # 0x1f20ec4
vandps %xmm2, %xmm0, %xmm3
vandps %xmm2, %xmm1, %xmm2
vmaxps %xmm2, %xmm3, %xmm2
vmovshdup %xmm2, %xmm3 # xmm3 = xmm2[1,1,3,3]
vmaxss %xmm2, %xmm3, %xmm3
vshufpd $0x1, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[1,0]
vmaxss %xmm3, %xmm2, %xmm2
vmulss 0x6e647(%rip), %xmm2, %xmm2 # 0x1ef0fe4
vbroadcastss %xmm2, %xmm2
vsubps %xmm2, %xmm0, %xmm0
vaddps %xmm2, %xmm1, %xmm1
vmovaps %xmm0, (%rax)
vmovaps %xmm1, 0x10(%rax)
vzeroupper
retq
testl %ecx, %ecx
js 0x1e82bbe
vpbroadcastd %ecx, %ymm0
vmovdqu %ymm0, -0x28(%rsp)
vbroadcastss %xmm3, %ymm0
vmovups %ymm0, -0x48(%rsp)
vbroadcastss 0x8fd25(%rip), %ymm14 # 0x1f12704
vpermps %ymm3, %ymm14, %ymm2
vbroadcastss 0x9e4ee(%rip), %ymm17 # 0x1f20edc
vpermps %ymm3, %ymm17, %ymm3
vbroadcastss %xmm5, %ymm4
vbroadcastss %xmm7, %ymm5
vpermps %ymm7, %ymm14, %ymm6
vpermps %ymm7, %ymm17, %ymm7
vbroadcastss %xmm8, %ymm8
vbroadcastss %xmm11, %ymm9
vpermps %ymm11, %ymm14, %ymm10
vpermps %ymm11, %ymm17, %ymm11
vbroadcastss %xmm12, %ymm12
vbroadcastss %xmm15, %ymm13
vpermps %ymm15, %ymm14, %ymm14
vpermps %ymm15, %ymm17, %ymm15
vbroadcastss %xmm16, %ymm16
movq %rcx, %rdx
shlq $0x6, %rdx
leaq (%rdx,%rcx,4), %rdx
addq 0x2a1e95(%rip), %rdx # 0x21248e0
vbroadcastss 0x6a12f(%rip), %ymm20 # 0x1eecb84
vbroadcastss 0x68fc1(%rip), %ymm17 # 0x1eeba20
vxorps %xmm21, %xmm21, %xmm21
xorl %esi, %esi
vmovaps %ymm17, %ymm22
vmovaps %ymm17, %ymm29
vmovaps %ymm20, %ymm26
vmovaps %ymm20, %ymm28
vpbroadcastd %esi, %ymm19
vpord 0xd7e91(%rip), %ymm19, %ymm19 # 0x1f5a920
vmovups (%rdx,%rsi,4), %ymm23
vmovups 0x484(%rdx,%rsi,4), %ymm24
vmovups 0x908(%rdx,%rsi,4), %ymm25
vpcmpgtd -0x28(%rsp), %ymm19, %k1
vmovups 0xd8c(%rdx,%rsi,4), %ymm19
vmulps %ymm19, %ymm13, %ymm18
vmulps %ymm19, %ymm14, %ymm0
vmulps %ymm19, %ymm15, %ymm1
vmulps %ymm19, %ymm16, %ymm19
vfmadd231ps %ymm9, %ymm25, %ymm18 # ymm18 = (ymm25 * ymm9) + ymm18
vfmadd231ps %ymm10, %ymm25, %ymm0 # ymm0 = (ymm25 * ymm10) + ymm0
vfmadd231ps %ymm11, %ymm25, %ymm1 # ymm1 = (ymm25 * ymm11) + ymm1
vfmadd231ps %ymm25, %ymm12, %ymm19 # ymm19 = (ymm12 * ymm25) + ymm19
vfmadd231ps %ymm5, %ymm24, %ymm18 # ymm18 = (ymm24 * ymm5) + ymm18
vfmadd231ps %ymm6, %ymm24, %ymm0 # ymm0 = (ymm24 * ymm6) + ymm0
vfmadd231ps %ymm7, %ymm24, %ymm1 # ymm1 = (ymm24 * ymm7) + ymm1
vfmadd231ps %ymm24, %ymm8, %ymm19 # ymm19 = (ymm8 * ymm24) + ymm19
vfmadd231ps -0x48(%rsp), %ymm23, %ymm18 # ymm18 = (ymm23 * mem) + ymm18
vfmadd231ps %ymm2, %ymm23, %ymm0 # ymm0 = (ymm23 * ymm2) + ymm0
vfmadd231ps %ymm3, %ymm23, %ymm1 # ymm1 = (ymm23 * ymm3) + ymm1
vfmadd231ps %ymm23, %ymm4, %ymm19 # ymm19 = (ymm4 * ymm23) + ymm19
vandps 0x9e393(%rip){1to8}, %ymm19, %ymm19 # 0x1f20ec4
vminps %ymm18, %ymm29, %ymm30
vmovaps %ymm29, %ymm30 {%k1}
vminps %ymm0, %ymm22, %ymm27
vmovaps %ymm22, %ymm27 {%k1}
vminps %ymm1, %ymm17, %ymm31
vmovaps %ymm17, %ymm31 {%k1}
vmaxps %ymm18, %ymm28, %ymm24
vmovaps %ymm28, %ymm24 {%k1}
vmaxps %ymm0, %ymm26, %ymm25
vmovaps %ymm26, %ymm25 {%k1}
vmaxps %ymm1, %ymm20, %ymm23
vmovaps %ymm20, %ymm23 {%k1}
vmaxps %ymm19, %ymm21, %ymm19
vmovaps %ymm21, %ymm19 {%k1}
addq $0x8, %rsi
vmovaps %ymm31, %ymm17
vmovaps %ymm27, %ymm22
vmovaps %ymm30, %ymm29
vmovaps %ymm23, %ymm20
vmovaps %ymm25, %ymm26
vmovaps %ymm24, %ymm28
vmovaps %ymm19, %ymm21
cmpq %rcx, %rsi
jbe 0x1e82a7f
jmp 0x1e82bf0
vbroadcastss 0x68e58(%rip), %ymm30 # 0x1eeba20
vbroadcastss 0x69fb2(%rip), %ymm24 # 0x1eecb84
vxorps %xmm19, %xmm19, %xmm19
vmovaps %ymm24, %ymm25
vmovaps %ymm24, %ymm23
vmovaps %ymm30, %ymm27
vmovaps %ymm30, %ymm31
vshufps $0xb1, %ymm30, %ymm30, %ymm0 # ymm0 = ymm30[1,0,3,2,5,4,7,6]
vminps %ymm0, %ymm30, %ymm0
vshufpd $0x5, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2]
vminps %ymm1, %ymm0, %ymm0
vextractf128 $0x1, %ymm0, %xmm1
vminps %xmm1, %xmm0, %xmm0
vshufps $0xb1, %ymm27, %ymm27, %ymm1 # ymm1 = ymm27[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm27, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vextractf128 $0x1, %ymm1, %xmm2
vminps %xmm2, %xmm1, %xmm1
vunpcklps %xmm1, %xmm0, %xmm0 # xmm0 = xmm0[0],xmm1[0],xmm0[1],xmm1[1]
vshufps $0xb1, %ymm31, %ymm31, %ymm1 # ymm1 = ymm31[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm31, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vextractf128 $0x1, %ymm1, %xmm2
vminps %xmm2, %xmm1, %xmm1
vinsertps $0x28, %xmm1, %xmm0, %xmm0 # xmm0 = xmm0[0,1],xmm1[0],zero
vshufps $0xb1, %ymm24, %ymm24, %ymm1 # ymm1 = ymm24[1,0,3,2,5,4,7,6]
vmaxps %ymm1, %ymm24, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vmaxps %ymm2, %ymm1, %ymm1
vextractf128 $0x1, %ymm1, %xmm2
vmaxps %xmm2, %xmm1, %xmm1
vshufps $0xb1, %ymm25, %ymm25, %ymm2 # ymm2 = ymm25[1,0,3,2,5,4,7,6]
vmaxps %ymm2, %ymm25, %ymm2
vshufpd $0x5, %ymm2, %ymm2, %ymm3 # ymm3 = ymm2[1,0,3,2]
vmaxps %ymm3, %ymm2, %ymm2
vextractf128 $0x1, %ymm2, %xmm3
vmaxps %xmm3, %xmm2, %xmm2
vunpcklps %xmm2, %xmm1, %xmm1 # xmm1 = xmm1[0],xmm2[0],xmm1[1],xmm2[1]
vshufps $0xb1, %ymm23, %ymm23, %ymm2 # ymm2 = ymm23[1,0,3,2,5,4,7,6]
vmaxps %ymm2, %ymm23, %ymm2
vshufpd $0x5, %ymm2, %ymm2, %ymm3 # ymm3 = ymm2[1,0,3,2]
vmaxps %ymm3, %ymm2, %ymm2
vextractf128 $0x1, %ymm2, %xmm3
vmaxps %xmm3, %xmm2, %xmm2
vinsertps $0x28, %xmm2, %xmm1, %xmm1 # xmm1 = xmm1[0,1],xmm2[0],zero
vshufps $0xb1, %ymm19, %ymm19, %ymm2 # ymm2 = ymm19[1,0,3,2,5,4,7,6]
vmaxps %ymm2, %ymm19, %ymm2
vshufpd $0x5, %ymm2, %ymm2, %ymm3 # ymm3 = ymm2[1,0,3,2]
vmaxps %ymm3, %ymm2, %ymm2
vextractf128 $0x1, %ymm2, %xmm3
vmaxps %xmm3, %xmm2, %xmm2
vbroadcastss %xmm2, %xmm2
vsubps %xmm2, %xmm0, %xmm0
vaddps %xmm2, %xmm1, %xmm1
jmp 0x1e8296f
|
/embree[P]embree/kernels/common/scene_curves.cpp
|
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)2, embree::avx512::CurveGeometryInterface, embree::BSplineCurveT>::vbounds(embree::LinearSpace3<embree::Vec3fa> const&, unsigned long) const
|
BBox3fa vbounds(const LinearSpace3fa& space, size_t i) const {
return bounds(space,i);
}
|
pushq %r15
pushq %r14
pushq %rbx
movq %rdi, %rax
imulq 0x68(%rsi), %rcx
movq 0x58(%rsi), %rdi
movq 0x188(%rsi), %r8
movl (%rdi,%rcx), %ecx
movq (%r8), %r9
movq 0x10(%r8), %r10
movq %r10, %r11
imulq %rcx, %r11
vmovaps (%r9,%r11), %xmm0
leal 0x1(%rcx), %edi
movq %r10, %rbx
imulq %rdi, %rbx
vmovaps (%r9,%rbx), %xmm1
leal 0x2(%rcx), %r8d
movq %r10, %r14
imulq %r8, %r14
vmovaps (%r9,%r14), %xmm2
leal 0x3(%rcx), %r15d
imulq %r15, %r10
vmovaps (%r9,%r10), %xmm3
vmovss 0x24c(%rsi), %xmm4
vmulss 0xc(%r9,%r11), %xmm4, %xmm5
vmulss 0xc(%r9,%rbx), %xmm4, %xmm7
vinsertps $0x30, %xmm5, %xmm0, %xmm6 # xmm6 = xmm0[0,1,2],xmm5[0]
vinsertps $0x30, %xmm7, %xmm1, %xmm7 # xmm7 = xmm1[0,1,2],xmm7[0]
vmulss 0xc(%r9,%r14), %xmm4, %xmm0
vmulss 0xc(%r9,%r10), %xmm4, %xmm1
vinsertps $0x30, %xmm0, %xmm2, %xmm8 # xmm8 = xmm2[0,1,2],xmm0[0]
vinsertps $0x30, %xmm1, %xmm3, %xmm4 # xmm4 = xmm3[0,1,2],xmm1[0]
movq 0x1a8(%rsi), %rsi
movq (%rsi), %r9
movq 0x10(%rsi), %rsi
imulq %rsi, %rcx
vmovups (%r9,%rcx), %xmm5
imulq %rsi, %rdi
vmovups (%r9,%rdi), %xmm9
imulq %rsi, %r8
vmovups (%r9,%r8), %xmm10
imulq %r15, %rsi
vmovups (%r9,%rsi), %xmm11
vxorps %xmm2, %xmm2, %xmm2
vmulps %xmm2, %xmm4, %xmm0
vbroadcastss 0x68981(%rip), %xmm12 # 0x1ef1000
vmovaps %xmm12, %xmm1
vfmadd213ps %xmm0, %xmm8, %xmm1 # xmm1 = (xmm8 * xmm1) + xmm0
vbroadcastss 0x98853(%rip), %xmm13 # 0x1f20ee4
vfmadd231ps %xmm13, %xmm7, %xmm1 # xmm1 = (xmm7 * xmm13) + xmm1
vfmadd231ps %xmm12, %xmm6, %xmm1 # xmm1 = (xmm6 * xmm12) + xmm1
vbroadcastss 0x644dc(%rip), %xmm14 # 0x1eecb80
vfmadd231ps %xmm14, %xmm8, %xmm0 # xmm0 = (xmm8 * xmm14) + xmm0
vfnmadd231ps %xmm2, %xmm7, %xmm0 # xmm0 = -(xmm7 * xmm2) + xmm0
vfnmadd231ps %xmm14, %xmm6, %xmm0 # xmm0 = -(xmm6 * xmm14) + xmm0
vmulps %xmm2, %xmm11, %xmm15
vmovaps %xmm12, %xmm16
vfmadd213ps %xmm15, %xmm10, %xmm16 # xmm16 = (xmm10 * xmm16) + xmm15
vfmadd231ps %xmm13, %xmm9, %xmm16 # xmm16 = (xmm9 * xmm13) + xmm16
vfmadd231ps %xmm12, %xmm5, %xmm16 # xmm16 = (xmm5 * xmm12) + xmm16
vfmadd231ps %xmm14, %xmm10, %xmm15 # xmm15 = (xmm10 * xmm14) + xmm15
vfnmadd231ps %xmm2, %xmm9, %xmm15 # xmm15 = -(xmm9 * xmm2) + xmm15
vfnmadd231ps %xmm14, %xmm5, %xmm15 # xmm15 = -(xmm5 * xmm14) + xmm15
vmulps %xmm4, %xmm12, %xmm3
vfmadd231ps %xmm13, %xmm8, %xmm3 # xmm3 = (xmm8 * xmm13) + xmm3
vfmadd231ps %xmm12, %xmm7, %xmm3 # xmm3 = (xmm7 * xmm12) + xmm3
vfmadd231ps %xmm2, %xmm6, %xmm3 # xmm3 = (xmm6 * xmm2) + xmm3
vmulps %xmm4, %xmm14, %xmm4
vfmadd231ps %xmm8, %xmm2, %xmm4 # xmm4 = (xmm2 * xmm8) + xmm4
vfnmadd231ps %xmm7, %xmm14, %xmm4 # xmm4 = -(xmm14 * xmm7) + xmm4
vfnmadd231ps %xmm6, %xmm2, %xmm4 # xmm4 = -(xmm2 * xmm6) + xmm4
vmulps %xmm12, %xmm11, %xmm6
vfmadd231ps %xmm13, %xmm10, %xmm6 # xmm6 = (xmm10 * xmm13) + xmm6
vfmadd231ps %xmm12, %xmm9, %xmm6 # xmm6 = (xmm9 * xmm12) + xmm6
vfmadd231ps %xmm2, %xmm5, %xmm6 # xmm6 = (xmm5 * xmm2) + xmm6
vmulps %xmm14, %xmm11, %xmm8
vfmadd231ps %xmm10, %xmm2, %xmm8 # xmm8 = (xmm2 * xmm10) + xmm8
vfnmadd231ps %xmm14, %xmm9, %xmm8 # xmm8 = -(xmm9 * xmm14) + xmm8
vfnmadd231ps %xmm5, %xmm2, %xmm8 # xmm8 = -(xmm2 * xmm5) + xmm8
vshufps $0xc9, %xmm0, %xmm0, %xmm5 # xmm5 = xmm0[1,2,0,3]
vshufps $0xc9, %xmm16, %xmm16, %xmm7 # xmm7 = xmm16[1,2,0,3]
vmulps %xmm7, %xmm0, %xmm7
vfmsub231ps %xmm16, %xmm5, %xmm7 # xmm7 = (xmm5 * xmm16) - xmm7
vshufps $0xc9, %xmm7, %xmm7, %xmm7 # xmm7 = xmm7[1,2,0,3]
vshufps $0xc9, %xmm15, %xmm15, %xmm9 # xmm9 = xmm15[1,2,0,3]
vmulps %xmm0, %xmm9, %xmm9
vfmsub231ps %xmm15, %xmm5, %xmm9 # xmm9 = (xmm5 * xmm15) - xmm9
vshufps $0xc9, %xmm9, %xmm9, %xmm9 # xmm9 = xmm9[1,2,0,3]
vshufps $0xc9, %xmm4, %xmm4, %xmm10 # xmm10 = xmm4[1,2,0,3]
vshufps $0xc9, %xmm6, %xmm6, %xmm5 # xmm5 = xmm6[1,2,0,3]
vmulps %xmm5, %xmm4, %xmm5
vfmsub231ps %xmm6, %xmm10, %xmm5 # xmm5 = (xmm10 * xmm6) - xmm5
vshufps $0xc9, %xmm5, %xmm5, %xmm5 # xmm5 = xmm5[1,2,0,3]
vshufps $0xc9, %xmm8, %xmm8, %xmm6 # xmm6 = xmm8[1,2,0,3]
vmulps %xmm6, %xmm4, %xmm6
vfmsub231ps %xmm8, %xmm10, %xmm6 # xmm6 = (xmm10 * xmm8) - xmm6
vshufps $0xc9, %xmm6, %xmm6, %xmm6 # xmm6 = xmm6[1,2,0,3]
vdpps $0x7f, %xmm7, %xmm7, %xmm8
vmovss %xmm8, %xmm2, %xmm10 # xmm10 = xmm8[0],xmm2[1,2,3]
vrsqrt14ss %xmm10, %xmm2, %xmm11
vmovss 0x63f77(%rip), %xmm12 # 0x1eec718
vmulss %xmm12, %xmm11, %xmm13
vmovss 0x63f6e(%rip), %xmm14 # 0x1eec71c
vmulss %xmm14, %xmm8, %xmm15
vmulss %xmm11, %xmm15, %xmm15
vmulss %xmm11, %xmm11, %xmm11
vmulss %xmm11, %xmm15, %xmm11
vaddss %xmm11, %xmm13, %xmm11
vbroadcastss %xmm11, %xmm11
vmulps %xmm7, %xmm11, %xmm13
vdpps $0x7f, %xmm9, %xmm7, %xmm15
vbroadcastss %xmm8, %xmm16
vmulps %xmm9, %xmm16, %xmm9
vbroadcastss %xmm15, %xmm15
vmulps %xmm7, %xmm15, %xmm7
vsubps %xmm7, %xmm9, %xmm7
vrcp14ss %xmm10, %xmm2, %xmm9
vmovss 0x687fb(%rip), %xmm10 # 0x1ef0ff8
vfnmadd213ss %xmm10, %xmm9, %xmm8 # xmm8 = -(xmm9 * xmm8) + xmm10
vmulss %xmm8, %xmm9, %xmm8
vdpps $0x7f, %xmm5, %xmm5, %xmm9
vbroadcastss %xmm8, %xmm8
vmulps %xmm7, %xmm8, %xmm7
vmulps %xmm7, %xmm11, %xmm7
vmovss %xmm9, %xmm2, %xmm8 # xmm8 = xmm9[0],xmm2[1,2,3]
vrsqrt14ss %xmm8, %xmm2, %xmm11
vmulss %xmm12, %xmm11, %xmm12
vmulss %xmm14, %xmm9, %xmm14
vmulss %xmm11, %xmm14, %xmm14
vmulss %xmm11, %xmm11, %xmm11
vmulss %xmm11, %xmm14, %xmm11
vaddss %xmm11, %xmm12, %xmm11
vbroadcastss %xmm11, %xmm11
vmulps %xmm5, %xmm11, %xmm12
vdpps $0x7f, %xmm6, %xmm5, %xmm14
vbroadcastss %xmm9, %xmm15
vmulps %xmm6, %xmm15, %xmm6
vbroadcastss %xmm14, %xmm14
vmulps %xmm5, %xmm14, %xmm5
vsubps %xmm5, %xmm6, %xmm5
vrcp14ss %xmm8, %xmm2, %xmm2
vfnmadd213ss %xmm10, %xmm2, %xmm9 # xmm9 = -(xmm2 * xmm9) + xmm10
vmulss %xmm2, %xmm9, %xmm2
vbroadcastss %xmm2, %xmm2
vmulps %xmm2, %xmm5, %xmm2
vmulps %xmm2, %xmm11, %xmm2
vshufps $0xff, %xmm1, %xmm1, %xmm5 # xmm5 = xmm1[3,3,3,3]
vmulps %xmm5, %xmm13, %xmm6
vsubps %xmm6, %xmm1, %xmm8
vshufps $0xff, %xmm0, %xmm0, %xmm9 # xmm9 = xmm0[3,3,3,3]
vmulps %xmm13, %xmm9, %xmm9
vmulps %xmm7, %xmm5, %xmm5
vaddps %xmm5, %xmm9, %xmm5
vsubps %xmm5, %xmm0, %xmm7
vaddps %xmm6, %xmm1, %xmm9
vaddps %xmm5, %xmm0, %xmm0
vshufps $0xff, %xmm3, %xmm3, %xmm1 # xmm1 = xmm3[3,3,3,3]
vmulps %xmm1, %xmm12, %xmm5
vsubps %xmm5, %xmm3, %xmm10
vshufps $0xff, %xmm4, %xmm4, %xmm6 # xmm6 = xmm4[3,3,3,3]
vmulps %xmm6, %xmm12, %xmm6
vmulps %xmm2, %xmm1, %xmm1
vaddps %xmm1, %xmm6, %xmm2
vsubps %xmm2, %xmm4, %xmm6
vaddps %xmm5, %xmm3, %xmm1
vaddps %xmm2, %xmm4, %xmm2
vbroadcastss 0x695da(%rip), %xmm3 # 0x1ef1ebc
vmulps %xmm3, %xmm7, %xmm4
vaddps %xmm4, %xmm8, %xmm4
vmulps %xmm3, %xmm6, %xmm5
vsubps %xmm5, %xmm10, %xmm11
vmulps %xmm3, %xmm0, %xmm0
vaddps %xmm0, %xmm9, %xmm12
vmulps %xmm3, %xmm2, %xmm0
vsubps %xmm0, %xmm1, %xmm13
vbroadcastss %xmm8, %xmm0
vshufps $0x55, %xmm8, %xmm8, %xmm2 # xmm2 = xmm8[1,1,1,1]
vmovaps (%rdx), %xmm5
vmovaps 0x10(%rdx), %xmm7
vmovaps 0x20(%rdx), %xmm6
vshufps $0xaa, %xmm8, %xmm8, %xmm3 # xmm3 = xmm8[2,2,2,2]
vmulps %xmm3, %xmm6, %xmm3
vfmadd231ps %xmm2, %xmm7, %xmm3 # xmm3 = (xmm7 * xmm2) + xmm3
vfmadd231ps %xmm0, %xmm5, %xmm3 # xmm3 = (xmm5 * xmm0) + xmm3
vbroadcastss %xmm4, %xmm0
vshufps $0x55, %xmm4, %xmm4, %xmm2 # xmm2 = xmm4[1,1,1,1]
vshufps $0xaa, %xmm4, %xmm4, %xmm4 # xmm4 = xmm4[2,2,2,2]
vmulps %xmm4, %xmm6, %xmm8
vfmadd231ps %xmm2, %xmm7, %xmm8 # xmm8 = (xmm7 * xmm2) + xmm8
vfmadd231ps %xmm0, %xmm5, %xmm8 # xmm8 = (xmm5 * xmm0) + xmm8
vbroadcastss %xmm11, %xmm0
vshufps $0x55, %xmm11, %xmm11, %xmm2 # xmm2 = xmm11[1,1,1,1]
vshufps $0xaa, %xmm11, %xmm11, %xmm4 # xmm4 = xmm11[2,2,2,2]
vmulps %xmm4, %xmm6, %xmm14
vfmadd231ps %xmm2, %xmm7, %xmm14 # xmm14 = (xmm7 * xmm2) + xmm14
vfmadd231ps %xmm0, %xmm5, %xmm14 # xmm14 = (xmm5 * xmm0) + xmm14
vbroadcastss %xmm10, %xmm0
vshufps $0x55, %xmm10, %xmm10, %xmm2 # xmm2 = xmm10[1,1,1,1]
vshufps $0xaa, %xmm10, %xmm10, %xmm4 # xmm4 = xmm10[2,2,2,2]
vmulps %xmm4, %xmm6, %xmm15
vfmadd231ps %xmm2, %xmm7, %xmm15 # xmm15 = (xmm7 * xmm2) + xmm15
vfmadd231ps %xmm0, %xmm5, %xmm15 # xmm15 = (xmm5 * xmm0) + xmm15
vbroadcastss %xmm9, %xmm2
vshufps $0x55, %xmm9, %xmm9, %xmm4 # xmm4 = xmm9[1,1,1,1]
vshufps $0xaa, %xmm9, %xmm9, %xmm0 # xmm0 = xmm9[2,2,2,2]
vmulps %xmm0, %xmm6, %xmm22
vfmadd231ps %xmm4, %xmm7, %xmm22 # xmm22 = (xmm7 * xmm4) + xmm22
vfmadd231ps %xmm2, %xmm5, %xmm22 # xmm22 = (xmm5 * xmm2) + xmm22
vbroadcastss %xmm12, %xmm4
vshufps $0x55, %xmm12, %xmm12, %xmm9 # xmm9 = xmm12[1,1,1,1]
vshufps $0xaa, %xmm12, %xmm12, %xmm2 # xmm2 = xmm12[2,2,2,2]
vmulps %xmm2, %xmm6, %xmm20
vfmadd231ps %xmm9, %xmm7, %xmm20 # xmm20 = (xmm7 * xmm9) + xmm20
vfmadd231ps %xmm4, %xmm5, %xmm20 # xmm20 = (xmm5 * xmm4) + xmm20
vbroadcastss %xmm13, %xmm9
vshufps $0x55, %xmm13, %xmm13, %xmm10 # xmm10 = xmm13[1,1,1,1]
vshufps $0xaa, %xmm13, %xmm13, %xmm4 # xmm4 = xmm13[2,2,2,2]
vmulps %xmm4, %xmm6, %xmm2
vfmadd231ps %xmm10, %xmm7, %xmm2 # xmm2 = (xmm7 * xmm10) + xmm2
vfmadd231ps %xmm9, %xmm5, %xmm2 # xmm2 = (xmm5 * xmm9) + xmm2
vbroadcastss %xmm1, %xmm9
vshufps $0x55, %xmm1, %xmm1, %xmm10 # xmm10 = xmm1[1,1,1,1]
vshufps $0xaa, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,2,2,2]
vmulps %xmm1, %xmm6, %xmm6
vfmadd231ps %xmm10, %xmm7, %xmm6 # xmm6 = (xmm7 * xmm10) + xmm6
vfmadd231ps %xmm9, %xmm5, %xmm6 # xmm6 = (xmm5 * xmm9) + xmm6
vbroadcastss 0x89cee(%rip), %ymm29 # 0x1f12704
vbroadcastss %xmm3, %ymm1
vpermps %ymm3, %ymm29, %ymm5
vbroadcastss 0x984b1(%rip), %ymm30 # 0x1f20edc
vpermps %ymm3, %ymm30, %ymm3
vbroadcastss %xmm8, %ymm17
vpermps %ymm8, %ymm29, %ymm4
vpermps %ymm8, %ymm30, %ymm0
vbroadcastss %xmm14, %ymm23
vpermps %ymm14, %ymm29, %ymm24
vpermps %ymm14, %ymm30, %ymm25
vbroadcastss %xmm15, %ymm26
vpermps %ymm15, %ymm29, %ymm27
leaq 0x29e87c(%rip), %rcx # 0x21272e4
vmovups 0x1dc(%rcx), %ymm31
vmovups 0x660(%rcx), %ymm10
vpermps %ymm15, %ymm30, %ymm28
vmovups 0xae4(%rcx), %ymm13
vmovups 0xf68(%rcx), %ymm16
vmulps %ymm16, %ymm26, %ymm14
vmulps %ymm16, %ymm27, %ymm18
vmulps %ymm16, %ymm28, %ymm21
vfmadd231ps %ymm23, %ymm13, %ymm14 # ymm14 = (ymm13 * ymm23) + ymm14
vfmadd231ps %ymm24, %ymm13, %ymm18 # ymm18 = (ymm13 * ymm24) + ymm18
vfmadd231ps %ymm25, %ymm13, %ymm21 # ymm21 = (ymm13 * ymm25) + ymm21
vfmadd231ps %ymm17, %ymm10, %ymm14 # ymm14 = (ymm10 * ymm17) + ymm14
vfmadd231ps %ymm4, %ymm10, %ymm18 # ymm18 = (ymm10 * ymm4) + ymm18
vfmadd231ps %ymm0, %ymm10, %ymm21 # ymm21 = (ymm10 * ymm0) + ymm21
vfmadd231ps %ymm1, %ymm31, %ymm14 # ymm14 = (ymm31 * ymm1) + ymm14
vfmadd231ps %ymm5, %ymm31, %ymm18 # ymm18 = (ymm31 * ymm5) + ymm18
vmovups 0x13ec(%rcx), %ymm8
vmovups 0x1870(%rcx), %ymm12
vmovups 0x1cf4(%rcx), %ymm15
vmovups 0x2178(%rcx), %ymm19
vfmadd231ps %ymm3, %ymm31, %ymm21 # ymm21 = (ymm31 * ymm3) + ymm21
vmulps %ymm19, %ymm26, %ymm26
vmulps %ymm19, %ymm27, %ymm27
vmulps %ymm19, %ymm28, %ymm28
vfmadd231ps %ymm23, %ymm15, %ymm26 # ymm26 = (ymm15 * ymm23) + ymm26
vfmadd231ps %ymm24, %ymm15, %ymm27 # ymm27 = (ymm15 * ymm24) + ymm27
vfmadd231ps %ymm25, %ymm15, %ymm28 # ymm28 = (ymm15 * ymm25) + ymm28
vfmadd231ps %ymm17, %ymm12, %ymm26 # ymm26 = (ymm12 * ymm17) + ymm26
vfmadd231ps %ymm4, %ymm12, %ymm27 # ymm27 = (ymm12 * ymm4) + ymm27
vfmadd231ps %ymm0, %ymm12, %ymm28 # ymm28 = (ymm12 * ymm0) + ymm28
vfmadd231ps %ymm1, %ymm8, %ymm26 # ymm26 = (ymm8 * ymm1) + ymm26
vfmadd231ps %ymm5, %ymm8, %ymm27 # ymm27 = (ymm8 * ymm5) + ymm27
vfmadd231ps %ymm3, %ymm8, %ymm28 # ymm28 = (ymm8 * ymm3) + ymm28
vbroadcastss 0x98983(%rip), %ymm0 # 0x1f214d0
vmulps %ymm0, %ymm26, %ymm3
vmulps %ymm0, %ymm27, %ymm5
vmulps %ymm0, %ymm28, %ymm9
vxorps %xmm4, %xmm4, %xmm4
vblendps $0x1, %ymm4, %ymm3, %ymm11 # ymm11 = ymm4[0],ymm3[1,2,3,4,5,6,7]
vblendps $0x1, %ymm4, %ymm5, %ymm7 # ymm7 = ymm4[0],ymm5[1,2,3,4,5,6,7]
vblendps $0x1, %ymm4, %ymm9, %ymm0 # ymm0 = ymm4[0],ymm9[1,2,3,4,5,6,7]
vsubps %ymm11, %ymm14, %ymm11
vsubps %ymm7, %ymm18, %ymm24
vsubps %ymm0, %ymm21, %ymm0
vblendps $0x80, %ymm4, %ymm3, %ymm3 # ymm3 = ymm3[0,1,2,3,4,5,6],ymm4[7]
vblendps $0x80, %ymm4, %ymm5, %ymm5 # ymm5 = ymm5[0,1,2,3,4,5,6],ymm4[7]
vblendps $0x80, %ymm4, %ymm9, %ymm7 # ymm7 = ymm9[0,1,2,3,4,5,6],ymm4[7]
vaddps %ymm3, %ymm14, %ymm9
vaddps %ymm5, %ymm18, %ymm25
vaddps %ymm7, %ymm21, %ymm26
vbroadcastss 0x62e6f(%rip), %ymm7 # 0x1eeba20
vminps %ymm14, %ymm7, %ymm3
vminps %ymm18, %ymm7, %ymm17
vminps %ymm21, %ymm7, %ymm23
vminps %ymm9, %ymm11, %ymm5
vminps %ymm5, %ymm3, %ymm5
vminps %ymm25, %ymm24, %ymm3
vminps %ymm3, %ymm17, %ymm3
vminps %ymm26, %ymm0, %ymm17
vminps %ymm17, %ymm23, %ymm17
vbroadcastss 0x63f97(%rip), %ymm23 # 0x1eecb84
vmaxps %ymm14, %ymm23, %ymm14
vmaxps %ymm18, %ymm23, %ymm18
vmaxps %ymm21, %ymm23, %ymm27
vmaxps %ymm9, %ymm11, %ymm9
vmaxps %ymm9, %ymm14, %ymm21
vmaxps %ymm25, %ymm24, %ymm9
vmaxps %ymm9, %ymm18, %ymm18
vmaxps %ymm26, %ymm0, %ymm0
vmaxps %ymm0, %ymm27, %ymm14
vbroadcastss %xmm22, %ymm9
vpermps %ymm22, %ymm29, %ymm11
vpermps %ymm22, %ymm30, %ymm22
vbroadcastss %xmm20, %ymm24
vpermps %ymm20, %ymm29, %ymm25
vpermps %ymm20, %ymm30, %ymm26
vbroadcastss %xmm2, %ymm27
vpermps %ymm2, %ymm29, %ymm28
vpermps %ymm2, %ymm30, %ymm20
vbroadcastss %xmm6, %ymm1
vpermps %ymm6, %ymm29, %ymm29
vpermps %ymm6, %ymm30, %ymm30
vmulps %ymm16, %ymm1, %ymm0
vmulps %ymm16, %ymm29, %ymm2
vmulps %ymm16, %ymm30, %ymm6
vfmadd231ps %ymm27, %ymm13, %ymm0 # ymm0 = (ymm13 * ymm27) + ymm0
vfmadd231ps %ymm28, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm28) + ymm2
vfmadd231ps %ymm13, %ymm20, %ymm6 # ymm6 = (ymm20 * ymm13) + ymm6
vfmadd231ps %ymm24, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm24) + ymm0
vfmadd231ps %ymm25, %ymm10, %ymm2 # ymm2 = (ymm10 * ymm25) + ymm2
vfmadd231ps %ymm10, %ymm26, %ymm6 # ymm6 = (ymm26 * ymm10) + ymm6
vfmadd231ps %ymm9, %ymm31, %ymm0 # ymm0 = (ymm31 * ymm9) + ymm0
vfmadd231ps %ymm11, %ymm31, %ymm2 # ymm2 = (ymm31 * ymm11) + ymm2
vfmadd231ps %ymm31, %ymm22, %ymm6 # ymm6 = (ymm22 * ymm31) + ymm6
vmulps %ymm19, %ymm1, %ymm1
vmulps %ymm19, %ymm29, %ymm10
vmulps %ymm19, %ymm30, %ymm13
vfmadd231ps %ymm27, %ymm15, %ymm1 # ymm1 = (ymm15 * ymm27) + ymm1
vfmadd231ps %ymm28, %ymm15, %ymm10 # ymm10 = (ymm15 * ymm28) + ymm10
vfmadd231ps %ymm20, %ymm15, %ymm13 # ymm13 = (ymm15 * ymm20) + ymm13
vfmadd231ps %ymm24, %ymm12, %ymm1 # ymm1 = (ymm12 * ymm24) + ymm1
vfmadd231ps %ymm25, %ymm12, %ymm10 # ymm10 = (ymm12 * ymm25) + ymm10
vfmadd231ps %ymm26, %ymm12, %ymm13 # ymm13 = (ymm12 * ymm26) + ymm13
vfmadd231ps %ymm9, %ymm8, %ymm1 # ymm1 = (ymm8 * ymm9) + ymm1
vfmadd231ps %ymm11, %ymm8, %ymm10 # ymm10 = (ymm8 * ymm11) + ymm10
vfmadd231ps %ymm22, %ymm8, %ymm13 # ymm13 = (ymm8 * ymm22) + ymm13
vbroadcastss 0x987d0(%rip), %ymm9 # 0x1f214d0
vmulps %ymm1, %ymm9, %ymm1
vmulps %ymm9, %ymm10, %ymm8
vmulps %ymm9, %ymm13, %ymm9
vblendps $0x1, %ymm4, %ymm1, %ymm10 # ymm10 = ymm4[0],ymm1[1,2,3,4,5,6,7]
vblendps $0x1, %ymm4, %ymm8, %ymm11 # ymm11 = ymm4[0],ymm8[1,2,3,4,5,6,7]
vblendps $0x1, %ymm4, %ymm9, %ymm12 # ymm12 = ymm4[0],ymm9[1,2,3,4,5,6,7]
vsubps %ymm10, %ymm0, %ymm10
vsubps %ymm11, %ymm2, %ymm11
vsubps %ymm12, %ymm6, %ymm12
vblendps $0x80, %ymm4, %ymm1, %ymm1 # ymm1 = ymm1[0,1,2,3,4,5,6],ymm4[7]
vblendps $0x80, %ymm4, %ymm8, %ymm8 # ymm8 = ymm8[0,1,2,3,4,5,6],ymm4[7]
vblendps $0x80, %ymm4, %ymm9, %ymm4 # ymm4 = ymm9[0,1,2,3,4,5,6],ymm4[7]
vaddps %ymm1, %ymm0, %ymm1
vaddps %ymm2, %ymm8, %ymm8
vaddps %ymm4, %ymm6, %ymm9
vminps %ymm0, %ymm7, %ymm4
vminps %ymm2, %ymm7, %ymm13
vminps %ymm6, %ymm7, %ymm15
vminps %ymm1, %ymm10, %ymm7
vminps %ymm7, %ymm4, %ymm16
vminps %ymm8, %ymm11, %ymm4
vminps %ymm4, %ymm13, %ymm7
vminps %ymm9, %ymm12, %ymm4
vminps %ymm4, %ymm15, %ymm4
vmaxps %ymm0, %ymm23, %ymm0
vmaxps %ymm2, %ymm23, %ymm13
vmaxps %ymm6, %ymm23, %ymm6
vmaxps %ymm1, %ymm10, %ymm1
vmaxps %ymm1, %ymm0, %ymm2
vmaxps %ymm8, %ymm11, %ymm0
vmaxps %ymm0, %ymm13, %ymm1
vmaxps %ymm9, %ymm12, %ymm0
vmaxps %ymm0, %ymm6, %ymm0
vshufps $0xb1, %ymm21, %ymm21, %ymm6 # ymm6 = ymm21[1,0,3,2,5,4,7,6]
vmaxps %ymm6, %ymm21, %ymm6
vshufpd $0x5, %ymm6, %ymm6, %ymm8 # ymm8 = ymm6[1,0,3,2]
vmaxps %ymm8, %ymm6, %ymm6
vextractf128 $0x1, %ymm6, %xmm8
vmaxps %xmm8, %xmm6, %xmm6
vshufps $0xb1, %ymm18, %ymm18, %ymm8 # ymm8 = ymm18[1,0,3,2,5,4,7,6]
vmaxps %ymm8, %ymm18, %ymm8
vshufpd $0x5, %ymm8, %ymm8, %ymm9 # ymm9 = ymm8[1,0,3,2]
vmaxps %ymm9, %ymm8, %ymm8
vextractf128 $0x1, %ymm8, %xmm9
vmaxps %xmm9, %xmm8, %xmm8
vunpcklps %xmm8, %xmm6, %xmm6 # xmm6 = xmm6[0],xmm8[0],xmm6[1],xmm8[1]
vshufps $0xb1, %ymm14, %ymm14, %ymm8 # ymm8 = ymm14[1,0,3,2,5,4,7,6]
vmaxps %ymm8, %ymm14, %ymm8
vshufpd $0x5, %ymm8, %ymm8, %ymm9 # ymm9 = ymm8[1,0,3,2]
vmaxps %ymm9, %ymm8, %ymm8
vextractf128 $0x1, %ymm8, %xmm9
vmaxps %xmm9, %xmm8, %xmm8
vinsertps $0x28, %xmm8, %xmm6, %xmm6 # xmm6 = xmm6[0,1],xmm8[0],zero
vshufps $0xb1, %ymm5, %ymm5, %ymm8 # ymm8 = ymm5[1,0,3,2,5,4,7,6]
vminps %ymm8, %ymm5, %ymm5
vshufpd $0x5, %ymm5, %ymm5, %ymm8 # ymm8 = ymm5[1,0,3,2]
vminps %ymm8, %ymm5, %ymm5
vextractf128 $0x1, %ymm5, %xmm8
vminps %xmm8, %xmm5, %xmm5
vshufps $0xb1, %ymm3, %ymm3, %ymm8 # ymm8 = ymm3[1,0,3,2,5,4,7,6]
vminps %ymm8, %ymm3, %ymm3
vshufpd $0x5, %ymm3, %ymm3, %ymm8 # ymm8 = ymm3[1,0,3,2]
vminps %ymm8, %ymm3, %ymm3
vextractf128 $0x1, %ymm3, %xmm8
vminps %xmm8, %xmm3, %xmm3
vunpcklps %xmm3, %xmm5, %xmm3 # xmm3 = xmm5[0],xmm3[0],xmm5[1],xmm3[1]
vshufps $0xb1, %ymm17, %ymm17, %ymm5 # ymm5 = ymm17[1,0,3,2,5,4,7,6]
vminps %ymm5, %ymm17, %ymm5
vshufpd $0x5, %ymm5, %ymm5, %ymm8 # ymm8 = ymm5[1,0,3,2]
vminps %ymm8, %ymm5, %ymm5
vextractf128 $0x1, %ymm5, %xmm8
vminps %xmm8, %xmm5, %xmm5
vinsertps $0x28, %xmm5, %xmm3, %xmm3 # xmm3 = xmm3[0,1],xmm5[0],zero
vshufps $0xb1, %ymm16, %ymm16, %ymm5 # ymm5 = ymm16[1,0,3,2,5,4,7,6]
vminps %ymm5, %ymm16, %ymm5
vshufpd $0x5, %ymm5, %ymm5, %ymm8 # ymm8 = ymm5[1,0,3,2]
vminps %ymm8, %ymm5, %ymm5
vextractf128 $0x1, %ymm5, %xmm8
vminps %xmm8, %xmm5, %xmm5
vshufps $0xb1, %ymm7, %ymm7, %ymm8 # ymm8 = ymm7[1,0,3,2,5,4,7,6]
vminps %ymm8, %ymm7, %ymm7
vshufpd $0x5, %ymm7, %ymm7, %ymm8 # ymm8 = ymm7[1,0,3,2]
vminps %ymm8, %ymm7, %ymm7
vextractf128 $0x1, %ymm7, %xmm8
vminps %xmm8, %xmm7, %xmm7
vunpcklps %xmm7, %xmm5, %xmm5 # xmm5 = xmm5[0],xmm7[0],xmm5[1],xmm7[1]
vshufps $0xb1, %ymm4, %ymm4, %ymm7 # ymm7 = ymm4[1,0,3,2,5,4,7,6]
vminps %ymm7, %ymm4, %ymm4
vshufpd $0x5, %ymm4, %ymm4, %ymm7 # ymm7 = ymm4[1,0,3,2]
vminps %ymm7, %ymm4, %ymm4
vextractf128 $0x1, %ymm4, %xmm7
vminps %xmm7, %xmm4, %xmm4
vinsertps $0x28, %xmm4, %xmm5, %xmm4 # xmm4 = xmm5[0,1],xmm4[0],zero
vminps %xmm4, %xmm3, %xmm3
vshufps $0xb1, %ymm2, %ymm2, %ymm4 # ymm4 = ymm2[1,0,3,2,5,4,7,6]
vmaxps %ymm4, %ymm2, %ymm2
vshufpd $0x5, %ymm2, %ymm2, %ymm4 # ymm4 = ymm2[1,0,3,2]
vmaxps %ymm4, %ymm2, %ymm2
vextractf128 $0x1, %ymm2, %xmm4
vmaxps %xmm4, %xmm2, %xmm2
vshufps $0xb1, %ymm1, %ymm1, %ymm4 # ymm4 = ymm1[1,0,3,2,5,4,7,6]
vmaxps %ymm4, %ymm1, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm4 # ymm4 = ymm1[1,0,3,2]
vmaxps %ymm4, %ymm1, %ymm1
vextractf128 $0x1, %ymm1, %xmm4
vmaxps %xmm4, %xmm1, %xmm1
vunpcklps %xmm1, %xmm2, %xmm1 # xmm1 = xmm2[0],xmm1[0],xmm2[1],xmm1[1]
vshufps $0xb1, %ymm0, %ymm0, %ymm2 # ymm2 = ymm0[1,0,3,2,5,4,7,6]
vmaxps %ymm2, %ymm0, %ymm0
vshufpd $0x5, %ymm0, %ymm0, %ymm2 # ymm2 = ymm0[1,0,3,2]
vmaxps %ymm2, %ymm0, %ymm0
vextractf128 $0x1, %ymm0, %xmm2
vmaxps %xmm2, %xmm0, %xmm0
vinsertps $0x28, %xmm0, %xmm1, %xmm0 # xmm0 = xmm1[0,1],xmm0[0],zero
vmaxps %xmm0, %xmm6, %xmm0
vbroadcastss 0x97f72(%rip), %xmm1 # 0x1f20ec4
vandps %xmm1, %xmm3, %xmm2
vandps %xmm1, %xmm0, %xmm1
vmaxps %xmm1, %xmm2, %xmm1
vmovshdup %xmm1, %xmm2 # xmm2 = xmm1[1,1,3,3]
vmaxss %xmm1, %xmm2, %xmm2
vshufpd $0x1, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[1,0]
vmaxss %xmm2, %xmm1, %xmm1
vmulss 0x6806d(%rip), %xmm1, %xmm1 # 0x1ef0fe4
vbroadcastss %xmm1, %xmm1
vsubps %xmm1, %xmm3, %xmm2
vaddps %xmm1, %xmm0, %xmm0
vmovaps %xmm2, (%rax)
vmovaps %xmm0, 0x10(%rax)
popq %rbx
popq %r14
popq %r15
vzeroupper
retq
|
/embree[P]embree/kernels/common/scene_curves.cpp
|
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)2, embree::avx512::CurveGeometryInterface, embree::BSplineCurveT>::vlinearBounds(embree::LinearSpace3<embree::Vec3fa> const&, unsigned long, embree::BBox<float> const&) const
|
LBBox3fa vlinearBounds(const LinearSpace3fa& space, size_t primID, const BBox1f& time_range) const {
return linearBounds(space,primID,time_range);
}
|
pushq %rbp
pushq %r15
pushq %r14
pushq %r13
pushq %r12
pushq %rbx
subq $0x138, %rsp # imm = 0x138
leaq 0xc8(%rsp), %rax
movq %rcx, (%rax)
leaq 0xb0(%rsp), %r14
movq %rdx, (%r14)
movq %rax, 0x8(%r14)
movq %rsi, 0x10(%r14)
vmovss 0x28(%rsi), %xmm4
vmovss 0x2c(%rsi), %xmm0
vmovss (%r8), %xmm1
vmovss 0x4(%r8), %xmm2
vsubss %xmm0, %xmm1, %xmm1
vmovss 0x30(%rsi), %xmm3
vsubss %xmm0, %xmm3, %xmm3
vdivss %xmm3, %xmm1, %xmm1
vsubss %xmm0, %xmm2, %xmm0
vdivss %xmm3, %xmm0, %xmm2
vmovss %xmm1, 0x4(%rsp)
vmulss %xmm1, %xmm4, %xmm0
vmovss %xmm0, 0x20(%rsp)
vroundss $0x9, %xmm0, %xmm0, %xmm0
vmovss %xmm2, 0x50(%rsp)
vmulss %xmm2, %xmm4, %xmm1
vmovss %xmm1, 0x40(%rsp)
vroundss $0xa, %xmm1, %xmm1, %xmm1
vxorps %xmm2, %xmm2, %xmm2
vmaxss %xmm2, %xmm0, %xmm3
vminss %xmm4, %xmm1, %xmm2
vmovss %xmm3, 0x10(%rsp)
vcvttss2si %xmm3, %r15d
vmovss %xmm2, 0x30(%rsp)
vcvttss2si %xmm2, %r12d
vcvttss2si %xmm0, %eax
movq %rdi, %rbx
testl %eax, %eax
movl $0xffffffff, %r13d # imm = 0xFFFFFFFF
cmovnsl %eax, %r13d
vcvttss2si %xmm1, %eax
vmovss %xmm4, 0xc(%rsp)
vcvttss2si %xmm4, %ebp
incl %ebp
cmpl %ebp, %eax
cmovll %eax, %ebp
movslq %r15d, %rdx
leaq 0x80(%rsp), %rdi
movq %r14, %rsi
callq 0x1e8adfe
movslq %r12d, %rdx
leaq 0x60(%rsp), %rdi
movq %r14, %rsi
callq 0x1e8adfe
movl %ebp, %eax
subl %r13d, %eax
cmpl $0x1, %eax
jne 0x1e89f31
vmovss 0x20(%rsp), %xmm0
vsubss 0x10(%rsp), %xmm0, %xmm0
vxorps %xmm8, %xmm8, %xmm8
vmaxss %xmm8, %xmm0, %xmm0
vmovss 0x6286a(%rip), %xmm1 # 0x1eec714
vsubss %xmm0, %xmm1, %xmm2
vbroadcastss %xmm0, %xmm0
vmovaps 0x60(%rsp), %xmm3
vmovaps 0x70(%rsp), %xmm4
vmulps %xmm3, %xmm0, %xmm5
vbroadcastss %xmm2, %xmm2
vmovaps 0x80(%rsp), %xmm6
vmovaps 0x90(%rsp), %xmm7
vfmadd231ps %xmm6, %xmm2, %xmm5 # xmm5 = (xmm2 * xmm6) + xmm5
vmulps %xmm4, %xmm0, %xmm0
vfmadd231ps %xmm2, %xmm7, %xmm0 # xmm0 = (xmm7 * xmm2) + xmm0
vmovaps %xmm5, (%rbx)
vmovaps %xmm0, 0x10(%rbx)
vmovss 0x30(%rsp), %xmm0
vsubss 0x40(%rsp), %xmm0, %xmm0
vmaxss %xmm8, %xmm0, %xmm0
vsubss %xmm0, %xmm1, %xmm1
vbroadcastss %xmm0, %xmm0
vmulps %xmm6, %xmm0, %xmm2
vbroadcastss %xmm1, %xmm1
vfmadd231ps %xmm3, %xmm1, %xmm2 # xmm2 = (xmm1 * xmm3) + xmm2
vmulps %xmm7, %xmm0, %xmm0
vfmadd231ps %xmm4, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm4) + xmm0
vmovaps %xmm2, 0x20(%rbx)
vmovaps %xmm0, 0x30(%rbx)
jmp 0x1e8a114
incl %r15d
movslq %r15d, %rdx
leaq 0x110(%rsp), %r14
leaq 0xb0(%rsp), %r15
movq %r14, %rdi
movq %r15, %rsi
callq 0x1e8adfe
decl %r12d
movslq %r12d, %rdx
leaq 0xf0(%rsp), %r12
movq %r12, %rdi
movq %r15, %rsi
callq 0x1e8adfe
vmovss 0x20(%rsp), %xmm0
vsubss 0x10(%rsp), %xmm0, %xmm0
vxorps %xmm5, %xmm5, %xmm5
vmaxss %xmm5, %xmm0, %xmm0
vmovss 0x6278d(%rip), %xmm4 # 0x1eec714
vbroadcastss %xmm0, %xmm1
vmulps (%r14), %xmm1, %xmm2
vsubss %xmm0, %xmm4, %xmm0
vbroadcastss %xmm0, %xmm0
vfmadd231ps 0x80(%rsp), %xmm0, %xmm2 # xmm2 = (xmm0 * mem) + xmm2
vmulps 0x10(%r14), %xmm1, %xmm3
vfmadd231ps 0x90(%rsp), %xmm0, %xmm3 # xmm3 = (xmm0 * mem) + xmm3
vmovss 0x30(%rsp), %xmm0
vsubss 0x40(%rsp), %xmm0, %xmm0
vmaxss %xmm5, %xmm0, %xmm0
vsubss %xmm0, %xmm4, %xmm1
vbroadcastss %xmm0, %xmm0
vmulps (%r12), %xmm0, %xmm5
vbroadcastss %xmm1, %xmm1
vfmadd231ps 0x60(%rsp), %xmm1, %xmm5 # xmm5 = (xmm1 * mem) + xmm5
vmulps 0x10(%r12), %xmm0, %xmm6
vfmadd231ps 0x70(%rsp), %xmm1, %xmm6 # xmm6 = (xmm1 * mem) + xmm6
leal 0x1(%r13), %eax
cmpl %ebp, %eax
jge 0x1e8a101
vmovss 0x4(%rsp), %xmm1
vmovss 0x50(%rsp), %xmm0
vsubss %xmm1, %xmm0, %xmm0
vmovss %xmm0, 0x8(%rsp)
movl %eax, %r14d
notl %r13d
addl %ebp, %r13d
leaq 0xd0(%rsp), %r15
leaq 0xb0(%rsp), %r12
vmovaps %xmm6, 0x10(%rsp)
vmovaps %xmm5, 0x20(%rsp)
vmovaps %xmm3, 0x30(%rsp)
vmovaps %xmm2, 0x40(%rsp)
vcvtsi2ss %r14d, %xmm8, %xmm0
vdivss 0xc(%rsp), %xmm0, %xmm0
vsubss %xmm1, %xmm0, %xmm0
vdivss 0x8(%rsp), %xmm0, %xmm0
vsubss %xmm0, %xmm4, %xmm1
vbroadcastss %xmm0, %xmm0
vmulps %xmm0, %xmm5, %xmm4
vbroadcastss %xmm1, %xmm1
vfmadd231ps %xmm2, %xmm1, %xmm4 # xmm4 = (xmm1 * xmm2) + xmm4
vmovaps %xmm4, 0x50(%rsp)
vmulps %xmm0, %xmm6, %xmm0
vfmadd231ps %xmm1, %xmm3, %xmm0 # xmm0 = (xmm3 * xmm1) + xmm0
vmovaps %xmm0, 0xa0(%rsp)
movq %r15, %rdi
movq %r12, %rsi
movq %r14, %rdx
callq 0x1e8adfe
vmovaps 0x10(%rsp), %xmm6
vmovaps 0x20(%rsp), %xmm5
vmovss 0x6266e(%rip), %xmm4 # 0x1eec714
vmovaps 0x30(%rsp), %xmm3
vmovaps 0x40(%rsp), %xmm2
vmovaps 0xd0(%rsp), %xmm0
vsubps 0x50(%rsp), %xmm0, %xmm0
vmovaps 0xe0(%rsp), %xmm1
vsubps 0xa0(%rsp), %xmm1, %xmm1
vxorps %xmm7, %xmm7, %xmm7
vminps %xmm7, %xmm0, %xmm0
vmaxps %xmm7, %xmm1, %xmm1
vaddps %xmm0, %xmm2, %xmm2
vaddps %xmm0, %xmm5, %xmm5
vaddps %xmm1, %xmm3, %xmm3
vaddps %xmm1, %xmm6, %xmm6
vmovss 0x4(%rsp), %xmm1
incq %r14
decl %r13d
jne 0x1e8a028
vmovaps %xmm2, (%rbx)
vmovaps %xmm3, 0x10(%rbx)
vmovaps %xmm5, 0x20(%rbx)
vmovaps %xmm6, 0x30(%rbx)
movq %rbx, %rax
addq $0x138, %rsp # imm = 0x138
popq %rbx
popq %r12
popq %r13
popq %r14
popq %r15
popq %rbp
retq
nop
|
/embree[P]embree/kernels/common/scene_curves.cpp
|
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)2, embree::avx512::CurveGeometryInterface, embree::BSplineCurveT>::linearBounds(embree::Vec3fa const&, float, float, embree::LinearSpace3<embree::Vec3fa> const&, unsigned long, embree::BBox<float> const&) const::'lambda'(unsigned long)::operator()(unsigned long) const
|
PrimInfo createPrimRefArray(PrimRef* prims, const range<size_t>& r, size_t k, unsigned int geomID) const
{
PrimInfo pinfo(empty);
for (size_t j=r.begin(); j<r.end(); j++)
{
if (!valid(ctype, j, make_range<size_t>(0, numTimeSegments()))) continue;
const BBox3fa box = bounds(j);
const PrimRef prim(box,geomID,unsigned(j));
pinfo.add_center2(prim);
prims[k++] = prim;
}
return pinfo;
}
|
pushq %rbp
pushq %r15
pushq %r14
pushq %r13
pushq %r12
pushq %rbx
movq %rdi, %rax
movq 0x28(%rsi), %r9
movq (%rsi), %r8
movq 0x8(%rsi), %rdi
movq 0x18(%rsi), %rcx
movq 0x20(%rsi), %rsi
movq 0x58(%r9), %r10
movq 0x68(%r9), %r11
imulq (%rsi), %r11
movl (%r10,%r11), %esi
movq 0x188(%r9), %r10
imulq $0x38, %rdx, %rdx
movq (%r10,%rdx), %rbx
movq 0x10(%r10,%rdx), %r14
movq %r14, %r15
imulq %rsi, %r15
vmovaps (%rbx,%r15), %xmm0
leal 0x1(%rsi), %r10d
movq %r14, %r12
imulq %r10, %r12
vmovaps (%rbx,%r12), %xmm1
leal 0x2(%rsi), %r11d
movq %r14, %r13
imulq %r11, %r13
vmovaps (%rbx,%r13), %xmm2
leal 0x3(%rsi), %ebp
imulq %rbp, %r14
vmovaps (%rbx,%r14), %xmm3
vmovss 0x24c(%r9), %xmm4
vmulss 0xc(%rbx,%r15), %xmm4, %xmm5
vinsertps $0x30, %xmm5, %xmm0, %xmm6 # xmm6 = xmm0[0,1,2],xmm5[0]
vmulss 0xc(%rbx,%r12), %xmm4, %xmm0
vinsertps $0x30, %xmm0, %xmm1, %xmm7 # xmm7 = xmm1[0,1,2],xmm0[0]
vmulss 0xc(%rbx,%r13), %xmm4, %xmm0
vinsertps $0x30, %xmm0, %xmm2, %xmm8 # xmm8 = xmm2[0,1,2],xmm0[0]
vmulss 0xc(%rbx,%r14), %xmm4, %xmm0
vinsertps $0x30, %xmm0, %xmm3, %xmm4 # xmm4 = xmm3[0,1,2],xmm0[0]
movq 0x1a8(%r9), %r9
movq (%r9,%rdx), %rbx
movq 0x10(%r9,%rdx), %rdx
imulq %rdx, %rsi
vmovups (%rbx,%rsi), %xmm5
imulq %rdx, %r10
vmovups (%rbx,%r10), %xmm9
imulq %rdx, %r11
vmovups (%rbx,%r11), %xmm10
imulq %rbp, %rdx
vmovups (%rbx,%rdx), %xmm11
vxorps %xmm2, %xmm2, %xmm2
vbroadcastss 0x656ee(%rip), %xmm12 # 0x1ef1000
vmulps %xmm2, %xmm4, %xmm0
vmovaps %xmm12, %xmm1
vfmadd213ps %xmm0, %xmm8, %xmm1 # xmm1 = (xmm8 * xmm1) + xmm0
vbroadcastss 0x955bc(%rip), %xmm13 # 0x1f20ee4
vfmadd231ps %xmm13, %xmm7, %xmm1 # xmm1 = (xmm7 * xmm13) + xmm1
vfmadd231ps %xmm12, %xmm6, %xmm1 # xmm1 = (xmm6 * xmm12) + xmm1
vbroadcastss 0x61245(%rip), %xmm14 # 0x1eecb80
vfmadd231ps %xmm14, %xmm8, %xmm0 # xmm0 = (xmm8 * xmm14) + xmm0
vfnmadd231ps %xmm2, %xmm7, %xmm0 # xmm0 = -(xmm7 * xmm2) + xmm0
vfnmadd231ps %xmm14, %xmm6, %xmm0 # xmm0 = -(xmm6 * xmm14) + xmm0
vmulps %xmm2, %xmm11, %xmm15
vmovaps %xmm12, %xmm16
vfmadd213ps %xmm15, %xmm10, %xmm16 # xmm16 = (xmm10 * xmm16) + xmm15
vfmadd231ps %xmm13, %xmm9, %xmm16 # xmm16 = (xmm9 * xmm13) + xmm16
vfmadd231ps %xmm12, %xmm5, %xmm16 # xmm16 = (xmm5 * xmm12) + xmm16
vfmadd231ps %xmm14, %xmm10, %xmm15 # xmm15 = (xmm10 * xmm14) + xmm15
vfnmadd231ps %xmm2, %xmm9, %xmm15 # xmm15 = -(xmm9 * xmm2) + xmm15
vfnmadd231ps %xmm14, %xmm5, %xmm15 # xmm15 = -(xmm5 * xmm14) + xmm15
vmulps %xmm4, %xmm12, %xmm3
vfmadd231ps %xmm13, %xmm8, %xmm3 # xmm3 = (xmm8 * xmm13) + xmm3
vfmadd231ps %xmm12, %xmm7, %xmm3 # xmm3 = (xmm7 * xmm12) + xmm3
vfmadd231ps %xmm2, %xmm6, %xmm3 # xmm3 = (xmm6 * xmm2) + xmm3
vmulps %xmm4, %xmm14, %xmm4
vfmadd231ps %xmm8, %xmm2, %xmm4 # xmm4 = (xmm2 * xmm8) + xmm4
vfnmadd231ps %xmm7, %xmm14, %xmm4 # xmm4 = -(xmm14 * xmm7) + xmm4
vfnmadd231ps %xmm6, %xmm2, %xmm4 # xmm4 = -(xmm2 * xmm6) + xmm4
vmulps %xmm12, %xmm11, %xmm6
vfmadd231ps %xmm13, %xmm10, %xmm6 # xmm6 = (xmm10 * xmm13) + xmm6
vfmadd231ps %xmm12, %xmm9, %xmm6 # xmm6 = (xmm9 * xmm12) + xmm6
vfmadd231ps %xmm2, %xmm5, %xmm6 # xmm6 = (xmm5 * xmm2) + xmm6
vmulps %xmm14, %xmm11, %xmm8
vfmadd231ps %xmm10, %xmm2, %xmm8 # xmm8 = (xmm2 * xmm10) + xmm8
vfnmadd231ps %xmm14, %xmm9, %xmm8 # xmm8 = -(xmm9 * xmm14) + xmm8
vfnmadd231ps %xmm5, %xmm2, %xmm8 # xmm8 = -(xmm2 * xmm5) + xmm8
vshufps $0xc9, %xmm0, %xmm0, %xmm5 # xmm5 = xmm0[1,2,0,3]
vshufps $0xc9, %xmm16, %xmm16, %xmm7 # xmm7 = xmm16[1,2,0,3]
vmulps %xmm7, %xmm0, %xmm7
vfmsub231ps %xmm16, %xmm5, %xmm7 # xmm7 = (xmm5 * xmm16) - xmm7
vshufps $0xc9, %xmm7, %xmm7, %xmm7 # xmm7 = xmm7[1,2,0,3]
vshufps $0xc9, %xmm15, %xmm15, %xmm9 # xmm9 = xmm15[1,2,0,3]
vmulps %xmm0, %xmm9, %xmm9
vfmsub231ps %xmm15, %xmm5, %xmm9 # xmm9 = (xmm5 * xmm15) - xmm9
vshufps $0xc9, %xmm9, %xmm9, %xmm9 # xmm9 = xmm9[1,2,0,3]
vshufps $0xc9, %xmm4, %xmm4, %xmm10 # xmm10 = xmm4[1,2,0,3]
vshufps $0xc9, %xmm6, %xmm6, %xmm5 # xmm5 = xmm6[1,2,0,3]
vmulps %xmm5, %xmm4, %xmm5
vfmsub231ps %xmm6, %xmm10, %xmm5 # xmm5 = (xmm10 * xmm6) - xmm5
vshufps $0xc9, %xmm5, %xmm5, %xmm5 # xmm5 = xmm5[1,2,0,3]
vshufps $0xc9, %xmm8, %xmm8, %xmm6 # xmm6 = xmm8[1,2,0,3]
vmulps %xmm6, %xmm4, %xmm6
vdpps $0x7f, %xmm7, %xmm7, %xmm11
vfmsub231ps %xmm8, %xmm10, %xmm6 # xmm6 = (xmm10 * xmm8) - xmm6
vshufps $0xc9, %xmm6, %xmm6, %xmm6 # xmm6 = xmm6[1,2,0,3]
vmovss %xmm11, %xmm2, %xmm8 # xmm8 = xmm11[0],xmm2[1,2,3]
vrsqrt14ss %xmm8, %xmm2, %xmm10
vmovss 0x60ce0(%rip), %xmm12 # 0x1eec718
vmulss %xmm12, %xmm10, %xmm13
vmovss 0x60cd7(%rip), %xmm14 # 0x1eec71c
vmulss %xmm14, %xmm11, %xmm15
vmulss %xmm10, %xmm15, %xmm15
vmulss %xmm10, %xmm10, %xmm10
vmulss %xmm10, %xmm15, %xmm10
vaddss %xmm10, %xmm13, %xmm10
vdpps $0x7f, %xmm9, %xmm7, %xmm13
vbroadcastss %xmm10, %xmm10
vmulps %xmm7, %xmm10, %xmm15
vbroadcastss %xmm11, %xmm16
vmulps %xmm9, %xmm16, %xmm9
vbroadcastss %xmm13, %xmm13
vmulps %xmm7, %xmm13, %xmm7
vsubps %xmm7, %xmm9, %xmm7
vrcp14ss %xmm8, %xmm2, %xmm8
vmovss 0x65564(%rip), %xmm9 # 0x1ef0ff8
vfnmadd213ss %xmm9, %xmm8, %xmm11 # xmm11 = -(xmm8 * xmm11) + xmm9
vmulss %xmm11, %xmm8, %xmm8
vbroadcastss %xmm8, %xmm8
vmulps %xmm7, %xmm8, %xmm7
vdpps $0x7f, %xmm5, %xmm5, %xmm8
vmulps %xmm7, %xmm10, %xmm7
vmovss %xmm8, %xmm2, %xmm10 # xmm10 = xmm8[0],xmm2[1,2,3]
vrsqrt14ss %xmm10, %xmm2, %xmm11
vmulss %xmm12, %xmm11, %xmm12
vmulss %xmm14, %xmm8, %xmm13
vmulss %xmm11, %xmm13, %xmm13
vmulss %xmm11, %xmm11, %xmm11
vmulss %xmm11, %xmm13, %xmm11
vdpps $0x7f, %xmm6, %xmm5, %xmm13
vaddss %xmm11, %xmm12, %xmm11
vbroadcastss %xmm11, %xmm11
vmulps %xmm5, %xmm11, %xmm12
vbroadcastss %xmm8, %xmm14
vmulps %xmm6, %xmm14, %xmm6
vbroadcastss %xmm13, %xmm13
vmulps %xmm5, %xmm13, %xmm5
vsubps %xmm5, %xmm6, %xmm5
vrcp14ss %xmm10, %xmm2, %xmm2
vfnmadd213ss %xmm9, %xmm2, %xmm8 # xmm8 = -(xmm2 * xmm8) + xmm9
vmulss %xmm2, %xmm8, %xmm2
vbroadcastss %xmm2, %xmm2
vmulps %xmm2, %xmm5, %xmm2
vmulps %xmm2, %xmm11, %xmm2
vshufps $0xff, %xmm1, %xmm1, %xmm5 # xmm5 = xmm1[3,3,3,3]
vmulps %xmm5, %xmm15, %xmm6
vsubps %xmm6, %xmm1, %xmm8
vshufps $0xff, %xmm0, %xmm0, %xmm9 # xmm9 = xmm0[3,3,3,3]
vmulps %xmm15, %xmm9, %xmm9
vmulps %xmm7, %xmm5, %xmm5
vaddps %xmm5, %xmm9, %xmm5
vsubps %xmm5, %xmm0, %xmm7
vaddps %xmm6, %xmm1, %xmm1
vaddps %xmm5, %xmm0, %xmm0
vshufps $0xff, %xmm3, %xmm3, %xmm5 # xmm5 = xmm3[3,3,3,3]
vmulps %xmm5, %xmm12, %xmm6
vsubps %xmm6, %xmm3, %xmm13
vshufps $0xff, %xmm4, %xmm4, %xmm9 # xmm9 = xmm4[3,3,3,3]
vmulps %xmm12, %xmm9, %xmm9
vmulps %xmm2, %xmm5, %xmm2
vaddps %xmm2, %xmm9, %xmm5
vsubps %xmm5, %xmm4, %xmm9
vaddps %xmm6, %xmm3, %xmm2
vaddps %xmm5, %xmm4, %xmm3
vbroadcastss 0x66342(%rip), %xmm4 # 0x1ef1ebc
vmulps %xmm4, %xmm7, %xmm5
vaddps %xmm5, %xmm8, %xmm10
vmulps %xmm4, %xmm9, %xmm5
vsubps %xmm5, %xmm13, %xmm12
vmulps %xmm4, %xmm0, %xmm0
vaddps %xmm0, %xmm1, %xmm11
vmulps %xmm4, %xmm3, %xmm0
vsubps %xmm0, %xmm2, %xmm4
vmovaps (%r8), %xmm6
vbroadcastss (%rdi), %xmm7
vsubps %xmm6, %xmm8, %xmm0
vmulps %xmm0, %xmm7, %xmm0
vbroadcastss %xmm0, %xmm14
vshufps $0x55, %xmm0, %xmm0, %xmm15 # xmm15 = xmm0[1,1,1,1]
vmovaps (%rcx), %xmm5
vshufps $0xaa, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[2,2,2,2]
vmovaps 0x10(%rcx), %xmm8
vmovaps 0x20(%rcx), %xmm9
vmulps %xmm0, %xmm9, %xmm3
vfmadd231ps %xmm15, %xmm8, %xmm3 # xmm3 = (xmm8 * xmm15) + xmm3
vfmadd231ps %xmm14, %xmm5, %xmm3 # xmm3 = (xmm5 * xmm14) + xmm3
vsubps %xmm6, %xmm10, %xmm0
vmulps %xmm0, %xmm7, %xmm0
vbroadcastss %xmm0, %xmm14
vshufps $0x55, %xmm0, %xmm0, %xmm15 # xmm15 = xmm0[1,1,1,1]
vshufps $0xaa, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[2,2,2,2]
vmulps %xmm0, %xmm9, %xmm10
vfmadd231ps %xmm15, %xmm8, %xmm10 # xmm10 = (xmm8 * xmm15) + xmm10
vfmadd231ps %xmm14, %xmm5, %xmm10 # xmm10 = (xmm5 * xmm14) + xmm10
vsubps %xmm6, %xmm12, %xmm0
vmulps %xmm0, %xmm7, %xmm0
vbroadcastss %xmm0, %xmm14
vshufps $0x55, %xmm0, %xmm0, %xmm15 # xmm15 = xmm0[1,1,1,1]
vshufps $0xaa, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[2,2,2,2]
vmulps %xmm0, %xmm9, %xmm12
vfmadd231ps %xmm15, %xmm8, %xmm12 # xmm12 = (xmm8 * xmm15) + xmm12
vfmadd231ps %xmm14, %xmm5, %xmm12 # xmm12 = (xmm5 * xmm14) + xmm12
vsubps %xmm6, %xmm13, %xmm0
vmulps %xmm0, %xmm7, %xmm0
vbroadcastss %xmm0, %xmm14
vshufps $0x55, %xmm0, %xmm0, %xmm15 # xmm15 = xmm0[1,1,1,1]
vshufps $0xaa, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[2,2,2,2]
vmulps %xmm0, %xmm9, %xmm13
vfmadd231ps %xmm15, %xmm8, %xmm13 # xmm13 = (xmm8 * xmm15) + xmm13
vfmadd231ps %xmm14, %xmm5, %xmm13 # xmm13 = (xmm5 * xmm14) + xmm13
vsubps %xmm6, %xmm1, %xmm0
vmulps %xmm0, %xmm7, %xmm0
vbroadcastss %xmm0, %xmm1
vshufps $0x55, %xmm0, %xmm0, %xmm14 # xmm14 = xmm0[1,1,1,1]
vshufps $0xaa, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[2,2,2,2]
vmulps %xmm0, %xmm9, %xmm31
vfmadd231ps %xmm14, %xmm8, %xmm31 # xmm31 = (xmm8 * xmm14) + xmm31
vfmadd231ps %xmm1, %xmm5, %xmm31 # xmm31 = (xmm5 * xmm1) + xmm31
vsubps %xmm6, %xmm11, %xmm1
vmulps %xmm1, %xmm7, %xmm1
vbroadcastss %xmm1, %xmm11
vshufps $0x55, %xmm1, %xmm1, %xmm14 # xmm14 = xmm1[1,1,1,1]
vshufps $0xaa, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,2,2,2]
vmulps %xmm1, %xmm9, %xmm22
vfmadd231ps %xmm14, %xmm8, %xmm22 # xmm22 = (xmm8 * xmm14) + xmm22
vfmadd231ps %xmm11, %xmm5, %xmm22 # xmm22 = (xmm5 * xmm11) + xmm22
vsubps %xmm6, %xmm4, %xmm4
vmulps %xmm4, %xmm7, %xmm4
vbroadcastss %xmm4, %xmm11
vshufps $0x55, %xmm4, %xmm4, %xmm14 # xmm14 = xmm4[1,1,1,1]
vshufps $0xaa, %xmm4, %xmm4, %xmm4 # xmm4 = xmm4[2,2,2,2]
vmulps %xmm4, %xmm9, %xmm20
vfmadd231ps %xmm14, %xmm8, %xmm20 # xmm20 = (xmm8 * xmm14) + xmm20
vfmadd231ps %xmm11, %xmm5, %xmm20 # xmm20 = (xmm5 * xmm11) + xmm20
vsubps %xmm6, %xmm2, %xmm2
vmulps %xmm2, %xmm7, %xmm2
vbroadcastss %xmm2, %xmm7
vshufps $0x55, %xmm2, %xmm2, %xmm11 # xmm11 = xmm2[1,1,1,1]
vshufps $0xaa, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[2,2,2,2]
vmulps %xmm2, %xmm9, %xmm6
vfmadd231ps %xmm11, %xmm8, %xmm6 # xmm6 = (xmm8 * xmm11) + xmm6
vfmadd231ps %xmm7, %xmm5, %xmm6 # xmm6 = (xmm5 * xmm7) + xmm6
vbroadcastss 0x86a14(%rip), %ymm29 # 0x1f12704
vbroadcastss %xmm3, %ymm2
vpermps %ymm3, %ymm29, %ymm5
vbroadcastss 0x951d7(%rip), %ymm30 # 0x1f20edc
vpermps %ymm3, %ymm30, %ymm3
vbroadcastss %xmm10, %ymm17
vpermps %ymm10, %ymm29, %ymm1
vpermps %ymm10, %ymm30, %ymm0
vbroadcastss %xmm12, %ymm23
vpermps %ymm12, %ymm29, %ymm24
vpermps %ymm12, %ymm30, %ymm25
vbroadcastss %xmm13, %ymm26
vpermps %ymm13, %ymm29, %ymm27
leaq 0x29b5a2(%rip), %rcx # 0x21272e4
vmovups 0x1dc(%rcx), %ymm7
vmovups 0x660(%rcx), %ymm10
vpermps %ymm13, %ymm30, %ymm28
vmovups 0xae4(%rcx), %ymm13
vmovups 0xf68(%rcx), %ymm16
vmulps %ymm16, %ymm26, %ymm14
vmulps %ymm16, %ymm27, %ymm18
vmulps %ymm16, %ymm28, %ymm21
vfmadd231ps %ymm23, %ymm13, %ymm14 # ymm14 = (ymm13 * ymm23) + ymm14
vfmadd231ps %ymm24, %ymm13, %ymm18 # ymm18 = (ymm13 * ymm24) + ymm18
vfmadd231ps %ymm25, %ymm13, %ymm21 # ymm21 = (ymm13 * ymm25) + ymm21
vfmadd231ps %ymm17, %ymm10, %ymm14 # ymm14 = (ymm10 * ymm17) + ymm14
vfmadd231ps %ymm1, %ymm10, %ymm18 # ymm18 = (ymm10 * ymm1) + ymm18
vfmadd231ps %ymm0, %ymm10, %ymm21 # ymm21 = (ymm10 * ymm0) + ymm21
vfmadd231ps %ymm2, %ymm7, %ymm14 # ymm14 = (ymm7 * ymm2) + ymm14
vfmadd231ps %ymm5, %ymm7, %ymm18 # ymm18 = (ymm7 * ymm5) + ymm18
vmovups 0x13ec(%rcx), %ymm8
vmovups 0x1870(%rcx), %ymm12
vmovups 0x1cf4(%rcx), %ymm15
vmovups 0x2178(%rcx), %ymm19
vfmadd231ps %ymm3, %ymm7, %ymm21 # ymm21 = (ymm7 * ymm3) + ymm21
vmulps %ymm19, %ymm26, %ymm26
vmulps %ymm19, %ymm27, %ymm27
vmulps %ymm19, %ymm28, %ymm28
vfmadd231ps %ymm23, %ymm15, %ymm26 # ymm26 = (ymm15 * ymm23) + ymm26
vfmadd231ps %ymm24, %ymm15, %ymm27 # ymm27 = (ymm15 * ymm24) + ymm27
vfmadd231ps %ymm25, %ymm15, %ymm28 # ymm28 = (ymm15 * ymm25) + ymm28
vfmadd231ps %ymm17, %ymm12, %ymm26 # ymm26 = (ymm12 * ymm17) + ymm26
vfmadd231ps %ymm1, %ymm12, %ymm27 # ymm27 = (ymm12 * ymm1) + ymm27
vfmadd231ps %ymm0, %ymm12, %ymm28 # ymm28 = (ymm12 * ymm0) + ymm28
vfmadd231ps %ymm2, %ymm8, %ymm26 # ymm26 = (ymm8 * ymm2) + ymm26
vfmadd231ps %ymm5, %ymm8, %ymm27 # ymm27 = (ymm8 * ymm5) + ymm27
vfmadd231ps %ymm3, %ymm8, %ymm28 # ymm28 = (ymm8 * ymm3) + ymm28
vbroadcastss 0x956ac(%rip), %ymm0 # 0x1f214d0
vmulps %ymm0, %ymm26, %ymm3
vmulps %ymm0, %ymm27, %ymm5
vmulps %ymm0, %ymm28, %ymm9
vxorps %xmm4, %xmm4, %xmm4
vblendps $0x1, %ymm4, %ymm3, %ymm11 # ymm11 = ymm4[0],ymm3[1,2,3,4,5,6,7]
vblendps $0x1, %ymm4, %ymm5, %ymm0 # ymm0 = ymm4[0],ymm5[1,2,3,4,5,6,7]
vblendps $0x1, %ymm4, %ymm9, %ymm1 # ymm1 = ymm4[0],ymm9[1,2,3,4,5,6,7]
vsubps %ymm11, %ymm14, %ymm11
vsubps %ymm0, %ymm18, %ymm0
vsubps %ymm1, %ymm21, %ymm1
vblendps $0x80, %ymm4, %ymm3, %ymm3 # ymm3 = ymm3[0,1,2,3,4,5,6],ymm4[7]
vblendps $0x80, %ymm4, %ymm5, %ymm5 # ymm5 = ymm5[0,1,2,3,4,5,6],ymm4[7]
vblendps $0x80, %ymm4, %ymm9, %ymm9 # ymm9 = ymm9[0,1,2,3,4,5,6],ymm4[7]
vaddps %ymm3, %ymm14, %ymm24
vaddps %ymm5, %ymm18, %ymm25
vaddps %ymm9, %ymm21, %ymm26
vbroadcastss 0x5fb96(%rip), %ymm9 # 0x1eeba20
vminps %ymm14, %ymm9, %ymm3
vminps %ymm18, %ymm9, %ymm17
vminps %ymm21, %ymm9, %ymm23
vminps %ymm24, %ymm11, %ymm5
vminps %ymm5, %ymm3, %ymm5
vminps %ymm25, %ymm0, %ymm3
vminps %ymm3, %ymm17, %ymm3
vminps %ymm26, %ymm1, %ymm17
vminps %ymm17, %ymm23, %ymm17
vbroadcastss 0x60cbd(%rip), %ymm23 # 0x1eecb84
vmaxps %ymm14, %ymm23, %ymm14
vmaxps %ymm18, %ymm23, %ymm18
vmaxps %ymm21, %ymm23, %ymm27
vmaxps %ymm24, %ymm11, %ymm11
vmaxps %ymm11, %ymm14, %ymm21
vmaxps %ymm25, %ymm0, %ymm0
vmaxps %ymm0, %ymm18, %ymm18
vmaxps %ymm26, %ymm1, %ymm0
vmaxps %ymm0, %ymm27, %ymm14
vbroadcastss %xmm31, %ymm11
vpermps %ymm31, %ymm29, %ymm24
vpermps %ymm31, %ymm30, %ymm25
vbroadcastss %xmm22, %ymm26
vpermps %ymm22, %ymm29, %ymm27
vpermps %ymm22, %ymm30, %ymm22
vbroadcastss %xmm20, %ymm28
vpermps %ymm20, %ymm29, %ymm31
vpermps %ymm20, %ymm30, %ymm20
vbroadcastss %xmm6, %ymm2
vpermps %ymm6, %ymm29, %ymm29
vpermps %ymm6, %ymm30, %ymm30
vmulps %ymm16, %ymm2, %ymm0
vmulps %ymm16, %ymm29, %ymm1
vmulps %ymm16, %ymm30, %ymm6
vfmadd231ps %ymm28, %ymm13, %ymm0 # ymm0 = (ymm13 * ymm28) + ymm0
vfmadd231ps %ymm31, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm31) + ymm1
vfmadd231ps %ymm13, %ymm20, %ymm6 # ymm6 = (ymm20 * ymm13) + ymm6
vfmadd231ps %ymm26, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm26) + ymm0
vfmadd231ps %ymm27, %ymm10, %ymm1 # ymm1 = (ymm10 * ymm27) + ymm1
vfmadd231ps %ymm10, %ymm22, %ymm6 # ymm6 = (ymm22 * ymm10) + ymm6
vfmadd231ps %ymm11, %ymm7, %ymm0 # ymm0 = (ymm7 * ymm11) + ymm0
vfmadd231ps %ymm24, %ymm7, %ymm1 # ymm1 = (ymm7 * ymm24) + ymm1
vfmadd231ps %ymm7, %ymm25, %ymm6 # ymm6 = (ymm25 * ymm7) + ymm6
vmulps %ymm19, %ymm2, %ymm2
vmulps %ymm19, %ymm29, %ymm7
vmulps %ymm19, %ymm30, %ymm10
vfmadd231ps %ymm28, %ymm15, %ymm2 # ymm2 = (ymm15 * ymm28) + ymm2
vfmadd231ps %ymm31, %ymm15, %ymm7 # ymm7 = (ymm15 * ymm31) + ymm7
vfmadd231ps %ymm20, %ymm15, %ymm10 # ymm10 = (ymm15 * ymm20) + ymm10
vfmadd231ps %ymm26, %ymm12, %ymm2 # ymm2 = (ymm12 * ymm26) + ymm2
vfmadd231ps %ymm27, %ymm12, %ymm7 # ymm7 = (ymm12 * ymm27) + ymm7
vfmadd231ps %ymm22, %ymm12, %ymm10 # ymm10 = (ymm12 * ymm22) + ymm10
vfmadd231ps %ymm11, %ymm8, %ymm2 # ymm2 = (ymm8 * ymm11) + ymm2
vfmadd231ps %ymm24, %ymm8, %ymm7 # ymm7 = (ymm8 * ymm24) + ymm7
vfmadd231ps %ymm25, %ymm8, %ymm10 # ymm10 = (ymm8 * ymm25) + ymm10
vbroadcastss 0x954f5(%rip), %ymm8 # 0x1f214d0
vmulps %ymm2, %ymm8, %ymm2
vmulps %ymm7, %ymm8, %ymm7
vmulps %ymm8, %ymm10, %ymm8
vblendps $0x1, %ymm4, %ymm2, %ymm10 # ymm10 = ymm4[0],ymm2[1,2,3,4,5,6,7]
vblendps $0x1, %ymm4, %ymm7, %ymm11 # ymm11 = ymm4[0],ymm7[1,2,3,4,5,6,7]
vblendps $0x1, %ymm4, %ymm8, %ymm12 # ymm12 = ymm4[0],ymm8[1,2,3,4,5,6,7]
vsubps %ymm10, %ymm0, %ymm10
vsubps %ymm11, %ymm1, %ymm11
vsubps %ymm12, %ymm6, %ymm12
vblendps $0x80, %ymm4, %ymm2, %ymm2 # ymm2 = ymm2[0,1,2,3,4,5,6],ymm4[7]
vblendps $0x80, %ymm4, %ymm7, %ymm7 # ymm7 = ymm7[0,1,2,3,4,5,6],ymm4[7]
vblendps $0x80, %ymm4, %ymm8, %ymm4 # ymm4 = ymm8[0,1,2,3,4,5,6],ymm4[7]
vaddps %ymm2, %ymm0, %ymm2
vaddps %ymm7, %ymm1, %ymm8
vaddps %ymm4, %ymm6, %ymm13
vminps %ymm0, %ymm9, %ymm4
vminps %ymm1, %ymm9, %ymm7
vminps %ymm6, %ymm9, %ymm9
vminps %ymm2, %ymm10, %ymm15
vminps %ymm15, %ymm4, %ymm15
vminps %ymm8, %ymm11, %ymm4
vminps %ymm4, %ymm7, %ymm7
vminps %ymm13, %ymm12, %ymm4
vminps %ymm4, %ymm9, %ymm4
vmaxps %ymm0, %ymm23, %ymm0
vmaxps %ymm1, %ymm23, %ymm1
vmaxps %ymm6, %ymm23, %ymm6
vmaxps %ymm2, %ymm10, %ymm2
vmaxps %ymm2, %ymm0, %ymm2
vmaxps %ymm8, %ymm11, %ymm0
vmaxps %ymm0, %ymm1, %ymm1
vmaxps %ymm13, %ymm12, %ymm0
vmaxps %ymm0, %ymm6, %ymm0
vshufps $0xb1, %ymm21, %ymm21, %ymm6 # ymm6 = ymm21[1,0,3,2,5,4,7,6]
vmaxps %ymm6, %ymm21, %ymm6
vshufpd $0x5, %ymm6, %ymm6, %ymm8 # ymm8 = ymm6[1,0,3,2]
vmaxps %ymm8, %ymm6, %ymm6
vextractf128 $0x1, %ymm6, %xmm8
vmaxps %xmm8, %xmm6, %xmm6
vshufps $0xb1, %ymm18, %ymm18, %ymm8 # ymm8 = ymm18[1,0,3,2,5,4,7,6]
vmaxps %ymm8, %ymm18, %ymm8
vshufpd $0x5, %ymm8, %ymm8, %ymm9 # ymm9 = ymm8[1,0,3,2]
vmaxps %ymm9, %ymm8, %ymm8
vextractf128 $0x1, %ymm8, %xmm9
vmaxps %xmm9, %xmm8, %xmm8
vunpcklps %xmm8, %xmm6, %xmm6 # xmm6 = xmm6[0],xmm8[0],xmm6[1],xmm8[1]
vshufps $0xb1, %ymm14, %ymm14, %ymm8 # ymm8 = ymm14[1,0,3,2,5,4,7,6]
vmaxps %ymm8, %ymm14, %ymm8
vshufpd $0x5, %ymm8, %ymm8, %ymm9 # ymm9 = ymm8[1,0,3,2]
vmaxps %ymm9, %ymm8, %ymm8
vextractf128 $0x1, %ymm8, %xmm9
vmaxps %xmm9, %xmm8, %xmm8
vinsertps $0x28, %xmm8, %xmm6, %xmm6 # xmm6 = xmm6[0,1],xmm8[0],zero
vshufps $0xb1, %ymm5, %ymm5, %ymm8 # ymm8 = ymm5[1,0,3,2,5,4,7,6]
vminps %ymm8, %ymm5, %ymm5
vshufpd $0x5, %ymm5, %ymm5, %ymm8 # ymm8 = ymm5[1,0,3,2]
vminps %ymm8, %ymm5, %ymm5
vextractf128 $0x1, %ymm5, %xmm8
vminps %xmm8, %xmm5, %xmm5
vshufps $0xb1, %ymm3, %ymm3, %ymm8 # ymm8 = ymm3[1,0,3,2,5,4,7,6]
vminps %ymm8, %ymm3, %ymm3
vshufpd $0x5, %ymm3, %ymm3, %ymm8 # ymm8 = ymm3[1,0,3,2]
vminps %ymm8, %ymm3, %ymm3
vextractf128 $0x1, %ymm3, %xmm8
vminps %xmm8, %xmm3, %xmm3
vunpcklps %xmm3, %xmm5, %xmm3 # xmm3 = xmm5[0],xmm3[0],xmm5[1],xmm3[1]
vshufps $0xb1, %ymm17, %ymm17, %ymm5 # ymm5 = ymm17[1,0,3,2,5,4,7,6]
vminps %ymm5, %ymm17, %ymm5
vshufpd $0x5, %ymm5, %ymm5, %ymm8 # ymm8 = ymm5[1,0,3,2]
vminps %ymm8, %ymm5, %ymm5
vextractf128 $0x1, %ymm5, %xmm8
vminps %xmm8, %xmm5, %xmm5
vinsertps $0x28, %xmm5, %xmm3, %xmm3 # xmm3 = xmm3[0,1],xmm5[0],zero
vshufps $0xb1, %ymm15, %ymm15, %ymm5 # ymm5 = ymm15[1,0,3,2,5,4,7,6]
vminps %ymm5, %ymm15, %ymm5
vshufpd $0x5, %ymm5, %ymm5, %ymm8 # ymm8 = ymm5[1,0,3,2]
vminps %ymm8, %ymm5, %ymm5
vextractf128 $0x1, %ymm5, %xmm8
vminps %xmm8, %xmm5, %xmm5
vshufps $0xb1, %ymm7, %ymm7, %ymm8 # ymm8 = ymm7[1,0,3,2,5,4,7,6]
vminps %ymm8, %ymm7, %ymm7
vshufpd $0x5, %ymm7, %ymm7, %ymm8 # ymm8 = ymm7[1,0,3,2]
vminps %ymm8, %ymm7, %ymm7
vextractf128 $0x1, %ymm7, %xmm8
vminps %xmm8, %xmm7, %xmm7
vunpcklps %xmm7, %xmm5, %xmm5 # xmm5 = xmm5[0],xmm7[0],xmm5[1],xmm7[1]
vshufps $0xb1, %ymm4, %ymm4, %ymm7 # ymm7 = ymm4[1,0,3,2,5,4,7,6]
vminps %ymm7, %ymm4, %ymm4
vshufpd $0x5, %ymm4, %ymm4, %ymm7 # ymm7 = ymm4[1,0,3,2]
vminps %ymm7, %ymm4, %ymm4
vextractf128 $0x1, %ymm4, %xmm7
vminps %xmm7, %xmm4, %xmm4
vinsertps $0x28, %xmm4, %xmm5, %xmm4 # xmm4 = xmm5[0,1],xmm4[0],zero
vminps %xmm4, %xmm3, %xmm3
vshufps $0xb1, %ymm2, %ymm2, %ymm4 # ymm4 = ymm2[1,0,3,2,5,4,7,6]
vmaxps %ymm4, %ymm2, %ymm2
vshufpd $0x5, %ymm2, %ymm2, %ymm4 # ymm4 = ymm2[1,0,3,2]
vmaxps %ymm4, %ymm2, %ymm2
vextractf128 $0x1, %ymm2, %xmm4
vmaxps %xmm4, %xmm2, %xmm2
vshufps $0xb1, %ymm1, %ymm1, %ymm4 # ymm4 = ymm1[1,0,3,2,5,4,7,6]
vmaxps %ymm4, %ymm1, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm4 # ymm4 = ymm1[1,0,3,2]
vmaxps %ymm4, %ymm1, %ymm1
vextractf128 $0x1, %ymm1, %xmm4
vmaxps %xmm4, %xmm1, %xmm1
vunpcklps %xmm1, %xmm2, %xmm1 # xmm1 = xmm2[0],xmm1[0],xmm2[1],xmm1[1]
vshufps $0xb1, %ymm0, %ymm0, %ymm2 # ymm2 = ymm0[1,0,3,2,5,4,7,6]
vmaxps %ymm2, %ymm0, %ymm0
vshufpd $0x5, %ymm0, %ymm0, %ymm2 # ymm2 = ymm0[1,0,3,2]
vmaxps %ymm2, %ymm0, %ymm0
vextractf128 $0x1, %ymm0, %xmm2
vmaxps %xmm2, %xmm0, %xmm0
vinsertps $0x28, %xmm0, %xmm1, %xmm0 # xmm0 = xmm1[0,1],xmm0[0],zero
vmaxps %xmm0, %xmm6, %xmm0
vbroadcastss 0x94c9c(%rip), %xmm1 # 0x1f20ec4
vandps %xmm1, %xmm3, %xmm2
vandps %xmm1, %xmm0, %xmm1
vmaxps %xmm1, %xmm2, %xmm1
vmovshdup %xmm1, %xmm2 # xmm2 = xmm1[1,1,3,3]
vmaxss %xmm1, %xmm2, %xmm2
vshufpd $0x1, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[1,0]
vmaxss %xmm2, %xmm1, %xmm1
vmulss 0x64d97(%rip), %xmm1, %xmm1 # 0x1ef0fe4
vbroadcastss %xmm1, %xmm1
vsubps %xmm1, %xmm3, %xmm2
vaddps %xmm1, %xmm0, %xmm0
vmovaps %xmm2, (%rax)
vmovaps %xmm0, 0x10(%rax)
popq %rbx
popq %r12
popq %r13
popq %r14
popq %r15
popq %rbp
vzeroupper
retq
nop
|
/embree[P]embree/kernels/common/scene_curves.cpp
|
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)1, embree::avx512::HermiteCurveGeometryInterface, embree::HermiteCurveT>::computeDirection(unsigned int) const
|
Vec3fa computeDirection(unsigned int primID) const
{
const Curve3ff c = getCurveScaledRadius(primID);
const Vec3fa p0 = c.begin();
const Vec3fa p3 = c.end();
const Vec3fa axis1 = p3 - p0;
return axis1;
}
|
movl %edx, %eax
imulq 0x68(%rsi), %rax
movq 0x58(%rsi), %rcx
movq 0x188(%rsi), %rdx
movl (%rcx,%rax), %eax
movq (%rdx), %rcx
movq 0x10(%rdx), %rdx
leal 0x1(%rax), %r8d
movq %rax, %r9
imulq %rdx, %r9
vmovaps (%rcx,%r9), %xmm0
imulq %rdx, %r8
vmovaps (%rcx,%r8), %xmm1
movq %rdi, %rax
vmovss 0x24c(%rsi), %xmm2
vmulss 0xc(%rcx,%r9), %xmm2, %xmm3
vinsertps $0x30, %xmm3, %xmm0, %xmm0 # xmm0 = xmm0[0,1,2],xmm3[0]
vmulss 0xc(%rcx,%r8), %xmm2, %xmm2
vinsertps $0x30, %xmm2, %xmm1, %xmm1 # xmm1 = xmm1[0,1,2],xmm2[0]
vsubps %xmm0, %xmm1, %xmm0
vmovaps %xmm0, (%rdi)
retq
nop
|
/embree[P]embree/kernels/common/scene_curves.cpp
|
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)1, embree::avx512::HermiteCurveGeometryInterface, embree::HermiteCurveT>::vbounds(embree::Vec3fa const&, float, float, embree::LinearSpace3<embree::Vec3fa> const&, unsigned long, unsigned long) const
|
BBox3fa vbounds(const Vec3fa& ofs, const float scale, const float r_scale0, const LinearSpace3fa& space, size_t i, size_t itime = 0) const {
return bounds(ofs,scale,r_scale0,space,i,itime);
}
|
pushq %r15
pushq %r14
pushq %rbx
movq %rdi, %rax
vmulss %xmm1, %xmm0, %xmm1
imulq 0x68(%rsi), %r8
movq 0x58(%rsi), %rdi
movq 0x188(%rsi), %r11
movl (%rdi,%r8), %edi
imulq $0x38, %r9, %r9
movq (%r11,%r9), %r10
movq 0x10(%r11,%r9), %r11
movq %r11, %rbx
imulq %rdi, %rbx
vmovaps (%r10,%rbx), %xmm2
leal 0x1(%rdi), %r14d
imulq %r14, %r11
vmovaps (%r10,%r11), %xmm3
movq 0x1c8(%rsi), %r15
movq (%r15,%r9), %r8
movq 0x10(%r15,%r9), %r9
imulq %r9, %rdi
imulq %r14, %r9
vmovaps (%rdx), %xmm4
vsubps %xmm4, %xmm2, %xmm2
vbroadcastss %xmm0, %xmm6
vmulps %xmm2, %xmm6, %xmm0
vbroadcastss %xmm0, %xmm2
vshufps $0x55, %xmm0, %xmm0, %xmm5 # xmm5 = xmm0[1,1,1,1]
vmovaps (%rcx), %xmm7
vshufps $0xaa, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[2,2,2,2]
vmovaps 0x10(%rcx), %xmm8
vmovaps 0x20(%rcx), %xmm9
vmulps %xmm0, %xmm9, %xmm10
vfmadd231ps %xmm5, %xmm8, %xmm10 # xmm10 = (xmm8 * xmm5) + xmm10
vfmadd231ps %xmm2, %xmm7, %xmm10 # xmm10 = (xmm7 * xmm2) + xmm10
vmovss 0x24c(%rsi), %xmm11
vmulss 0xc(%r10,%rbx), %xmm11, %xmm0
vmulss %xmm0, %xmm1, %xmm0
vbroadcastss %xmm0, %ymm0
vinsertps $0x30, %xmm0, %xmm10, %xmm12 # xmm12 = xmm10[0,1,2],xmm0[0]
vsubps %xmm4, %xmm3, %xmm2
vmulps %xmm2, %xmm6, %xmm2
vbroadcastss %xmm2, %xmm3
vshufps $0x55, %xmm2, %xmm2, %xmm4 # xmm4 = xmm2[1,1,1,1]
vshufps $0xaa, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[2,2,2,2]
vmulps %xmm2, %xmm9, %xmm2
vfmadd231ps %xmm4, %xmm8, %xmm2 # xmm2 = (xmm8 * xmm4) + xmm2
vmulss 0xc(%r10,%r11), %xmm11, %xmm4
vfmadd231ps %xmm3, %xmm7, %xmm2 # xmm2 = (xmm7 * xmm3) + xmm2
vmulss %xmm4, %xmm1, %xmm3
vbroadcastss %xmm3, %ymm5
vinsertps $0x30, %xmm5, %xmm2, %xmm3 # xmm3 = xmm2[0,1,2],xmm5[0]
vmulps (%r8,%rdi), %xmm6, %xmm4
vbroadcastss %xmm4, %xmm13
vshufps $0x55, %xmm4, %xmm4, %xmm14 # xmm14 = xmm4[1,1,1,1]
vshufps $0xaa, %xmm4, %xmm4, %xmm4 # xmm4 = xmm4[2,2,2,2]
vmulps %xmm4, %xmm9, %xmm4
vfmadd231ps %xmm14, %xmm8, %xmm4 # xmm4 = (xmm8 * xmm14) + xmm4
vfmadd231ps %xmm13, %xmm7, %xmm4 # xmm4 = (xmm7 * xmm13) + xmm4
vmulss 0xc(%r8,%rdi), %xmm11, %xmm13
vmulss %xmm1, %xmm13, %xmm13
vinsertps $0x30, %xmm13, %xmm4, %xmm4 # xmm4 = xmm4[0,1,2],xmm13[0]
vmulps (%r8,%r9), %xmm6, %xmm6
vbroadcastss %xmm6, %xmm13
vshufps $0x55, %xmm6, %xmm6, %xmm14 # xmm14 = xmm6[1,1,1,1]
vshufps $0xaa, %xmm6, %xmm6, %xmm6 # xmm6 = xmm6[2,2,2,2]
vmulps %xmm6, %xmm9, %xmm6
vfmadd231ps %xmm14, %xmm8, %xmm6 # xmm6 = (xmm8 * xmm14) + xmm6
vfmadd231ps %xmm13, %xmm7, %xmm6 # xmm6 = (xmm7 * xmm13) + xmm6
vmulss 0xc(%r8,%r9), %xmm11, %xmm7
vmulss %xmm7, %xmm1, %xmm1
vinsertps $0x30, %xmm1, %xmm6, %xmm1 # xmm1 = xmm6[0,1,2],xmm1[0]
vbroadcastss 0xce7f8(%rip), %xmm6 # 0x1f5d46c
vfnmadd213ps %xmm12, %xmm6, %xmm4 # xmm4 = -(xmm6 * xmm4) + xmm12
vfmadd213ps %xmm3, %xmm6, %xmm1 # xmm1 = (xmm6 * xmm1) + xmm3
vbroadcastss %xmm10, %ymm6
vbroadcastss 0x83a78(%rip), %ymm3 # 0x1f12704
vpermps %ymm10, %ymm3, %ymm7
vbroadcastss 0x92242(%rip), %ymm12 # 0x1f20edc
vpermps %ymm10, %ymm12, %ymm8
vbroadcastss %xmm4, %ymm13
vpermps %ymm4, %ymm3, %ymm11
vpermps %ymm4, %ymm12, %ymm9
vbroadcastss 0x92221(%rip), %ymm14 # 0x1f20ed8
vpermps %ymm4, %ymm14, %ymm10
vbroadcastss %xmm1, %ymm15
vpermps %ymm1, %ymm3, %ymm16
vpermps %ymm1, %ymm12, %ymm17
vpermps %ymm1, %ymm14, %ymm14
vbroadcastss %xmm2, %ymm18
vpermps %ymm2, %ymm3, %ymm19
leaq 0x2985ff(%rip), %rcx # 0x21272e4
vmovups 0x1dc(%rcx), %ymm20
vmovups 0x660(%rcx), %ymm21
vmovups 0xae4(%rcx), %ymm22
vmovups 0xf68(%rcx), %ymm4
vpermps %ymm2, %ymm12, %ymm12
vmulps %ymm4, %ymm18, %ymm1
vmulps %ymm4, %ymm19, %ymm2
vmulps %ymm4, %ymm12, %ymm3
vmulps %ymm4, %ymm5, %ymm4
vfmadd231ps %ymm15, %ymm22, %ymm1 # ymm1 = (ymm22 * ymm15) + ymm1
vfmadd231ps %ymm16, %ymm22, %ymm2 # ymm2 = (ymm22 * ymm16) + ymm2
vfmadd231ps %ymm17, %ymm22, %ymm3 # ymm3 = (ymm22 * ymm17) + ymm3
vfmadd231ps %ymm22, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm22) + ymm4
vfmadd231ps %ymm13, %ymm21, %ymm1 # ymm1 = (ymm21 * ymm13) + ymm1
vfmadd231ps %ymm11, %ymm21, %ymm2 # ymm2 = (ymm21 * ymm11) + ymm2
vfmadd231ps %ymm9, %ymm21, %ymm3 # ymm3 = (ymm21 * ymm9) + ymm3
vfmadd231ps %ymm21, %ymm10, %ymm4 # ymm4 = (ymm10 * ymm21) + ymm4
vfmadd231ps %ymm6, %ymm20, %ymm1 # ymm1 = (ymm20 * ymm6) + ymm1
vfmadd231ps %ymm7, %ymm20, %ymm2 # ymm2 = (ymm20 * ymm7) + ymm2
vfmadd231ps %ymm8, %ymm20, %ymm3 # ymm3 = (ymm20 * ymm8) + ymm3
vmovups 0x13ec(%rcx), %ymm21
vmovups 0x1870(%rcx), %ymm22
vmovups 0x1cf4(%rcx), %ymm23
vmovups 0x2178(%rcx), %ymm24
vfmadd231ps %ymm20, %ymm0, %ymm4 # ymm4 = (ymm0 * ymm20) + ymm4
vmulps %ymm24, %ymm18, %ymm18
vmulps %ymm24, %ymm19, %ymm19
vmulps %ymm24, %ymm12, %ymm12
vmulps %ymm24, %ymm5, %ymm5
vfmadd231ps %ymm15, %ymm23, %ymm18 # ymm18 = (ymm23 * ymm15) + ymm18
vfmadd231ps %ymm16, %ymm23, %ymm19 # ymm19 = (ymm23 * ymm16) + ymm19
vfmadd231ps %ymm17, %ymm23, %ymm12 # ymm12 = (ymm23 * ymm17) + ymm12
vfmadd231ps %ymm14, %ymm23, %ymm5 # ymm5 = (ymm23 * ymm14) + ymm5
vfmadd231ps %ymm13, %ymm22, %ymm18 # ymm18 = (ymm22 * ymm13) + ymm18
vfmadd231ps %ymm11, %ymm22, %ymm19 # ymm19 = (ymm22 * ymm11) + ymm19
vfmadd231ps %ymm9, %ymm22, %ymm12 # ymm12 = (ymm22 * ymm9) + ymm12
vfmadd231ps %ymm10, %ymm22, %ymm5 # ymm5 = (ymm22 * ymm10) + ymm5
vfmadd231ps %ymm6, %ymm21, %ymm18 # ymm18 = (ymm21 * ymm6) + ymm18
vfmadd231ps %ymm7, %ymm21, %ymm19 # ymm19 = (ymm21 * ymm7) + ymm19
vfmadd231ps %ymm8, %ymm21, %ymm12 # ymm12 = (ymm21 * ymm8) + ymm12
vbroadcastss 0x926dc(%rip), %ymm6 # 0x1f214d0
vfmadd231ps %ymm0, %ymm21, %ymm5 # ymm5 = (ymm21 * ymm0) + ymm5
vmulps %ymm6, %ymm18, %ymm0
vmulps %ymm6, %ymm19, %ymm7
vmulps %ymm6, %ymm12, %ymm8
vmulps %ymm6, %ymm5, %ymm5
vxorps %xmm6, %xmm6, %xmm6
vblendps $0x1, %ymm6, %ymm0, %ymm9 # ymm9 = ymm6[0],ymm0[1,2,3,4,5,6,7]
vblendps $0x1, %ymm6, %ymm7, %ymm10 # ymm10 = ymm6[0],ymm7[1,2,3,4,5,6,7]
vblendps $0x1, %ymm6, %ymm8, %ymm11 # ymm11 = ymm6[0],ymm8[1,2,3,4,5,6,7]
vblendps $0x1, %ymm6, %ymm5, %ymm12 # ymm12 = ymm6[0],ymm5[1,2,3,4,5,6,7]
vsubps %ymm9, %ymm1, %ymm9
vsubps %ymm10, %ymm2, %ymm10
vsubps %ymm11, %ymm3, %ymm11
vsubps %ymm12, %ymm4, %ymm12
vblendps $0x80, %ymm6, %ymm0, %ymm0 # ymm0 = ymm0[0,1,2,3,4,5,6],ymm6[7]
vblendps $0x80, %ymm6, %ymm7, %ymm7 # ymm7 = ymm7[0,1,2,3,4,5,6],ymm6[7]
vblendps $0x80, %ymm6, %ymm8, %ymm8 # ymm8 = ymm8[0,1,2,3,4,5,6],ymm6[7]
vblendps $0x80, %ymm6, %ymm5, %ymm5 # ymm5 = ymm5[0,1,2,3,4,5,6],ymm6[7]
vaddps %ymm0, %ymm1, %ymm0
vaddps %ymm7, %ymm2, %ymm6
vaddps %ymm3, %ymm8, %ymm7
vaddps %ymm5, %ymm4, %ymm5
vbroadcastss 0x5cbb1(%rip), %ymm8 # 0x1eeba20
vminps %ymm1, %ymm8, %ymm13
vminps %ymm2, %ymm8, %ymm14
vminps %ymm3, %ymm8, %ymm15
vminps %ymm4, %ymm8, %ymm8
vminps %ymm0, %ymm9, %ymm16
vminps %ymm16, %ymm13, %ymm13
vminps %ymm6, %ymm10, %ymm16
vminps %ymm16, %ymm14, %ymm14
vminps %ymm7, %ymm11, %ymm16
vminps %ymm16, %ymm15, %ymm15
vminps %ymm5, %ymm12, %ymm16
vminps %ymm16, %ymm8, %ymm8
vbroadcastss 0x5dccb(%rip), %ymm16 # 0x1eecb84
vmaxps %ymm1, %ymm16, %ymm1
vmaxps %ymm2, %ymm16, %ymm2
vmaxps %ymm3, %ymm16, %ymm3
vmaxps %ymm4, %ymm16, %ymm4
vmaxps %ymm0, %ymm9, %ymm0
vmaxps %ymm0, %ymm1, %ymm0
vmaxps %ymm6, %ymm10, %ymm1
vmaxps %ymm1, %ymm2, %ymm1
vmaxps %ymm7, %ymm11, %ymm2
vmaxps %ymm2, %ymm3, %ymm2
vmaxps %ymm5, %ymm12, %ymm3
vmaxps %ymm3, %ymm4, %ymm3
vshufps $0xb1, %ymm13, %ymm13, %ymm4 # ymm4 = ymm13[1,0,3,2,5,4,7,6]
vminps %ymm4, %ymm13, %ymm4
vshufpd $0x5, %ymm4, %ymm4, %ymm5 # ymm5 = ymm4[1,0,3,2]
vminps %ymm5, %ymm4, %ymm4
vextractf128 $0x1, %ymm4, %xmm5
vminps %xmm5, %xmm4, %xmm4
vshufps $0xb1, %ymm14, %ymm14, %ymm5 # ymm5 = ymm14[1,0,3,2,5,4,7,6]
vminps %ymm5, %ymm14, %ymm5
vshufpd $0x5, %ymm5, %ymm5, %ymm6 # ymm6 = ymm5[1,0,3,2]
vminps %ymm6, %ymm5, %ymm5
vextractf128 $0x1, %ymm5, %xmm6
vminps %xmm6, %xmm5, %xmm5
vunpcklps %xmm5, %xmm4, %xmm4 # xmm4 = xmm4[0],xmm5[0],xmm4[1],xmm5[1]
vshufps $0xb1, %ymm15, %ymm15, %ymm5 # ymm5 = ymm15[1,0,3,2,5,4,7,6]
vminps %ymm5, %ymm15, %ymm5
vshufpd $0x5, %ymm5, %ymm5, %ymm6 # ymm6 = ymm5[1,0,3,2]
vminps %ymm6, %ymm5, %ymm5
vextractf128 $0x1, %ymm5, %xmm6
vminps %xmm6, %xmm5, %xmm5
vinsertps $0x28, %xmm5, %xmm4, %xmm4 # xmm4 = xmm4[0,1],xmm5[0],zero
vshufps $0xb1, %ymm0, %ymm0, %ymm5 # ymm5 = ymm0[1,0,3,2,5,4,7,6]
vmaxps %ymm5, %ymm0, %ymm0
vshufpd $0x5, %ymm0, %ymm0, %ymm5 # ymm5 = ymm0[1,0,3,2]
vmaxps %ymm5, %ymm0, %ymm0
vextractf128 $0x1, %ymm0, %xmm5
vmaxps %xmm5, %xmm0, %xmm0
vshufps $0xb1, %ymm1, %ymm1, %ymm5 # ymm5 = ymm1[1,0,3,2,5,4,7,6]
vmaxps %ymm5, %ymm1, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm5 # ymm5 = ymm1[1,0,3,2]
vmaxps %ymm5, %ymm1, %ymm1
vextractf128 $0x1, %ymm1, %xmm5
vmaxps %xmm5, %xmm1, %xmm1
vunpcklps %xmm1, %xmm0, %xmm0 # xmm0 = xmm0[0],xmm1[0],xmm0[1],xmm1[1]
vshufps $0xb1, %ymm2, %ymm2, %ymm1 # ymm1 = ymm2[1,0,3,2,5,4,7,6]
vmaxps %ymm1, %ymm2, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vmaxps %ymm2, %ymm1, %ymm1
vextractf128 $0x1, %ymm1, %xmm2
vmaxps %xmm2, %xmm1, %xmm1
vinsertps $0x28, %xmm1, %xmm0, %xmm0 # xmm0 = xmm0[0,1],xmm1[0],zero
vshufps $0xb1, %ymm8, %ymm8, %ymm1 # ymm1 = ymm8[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm8, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vextractf128 $0x1, %ymm1, %xmm2
vminss %xmm2, %xmm1, %xmm1
vshufps $0xb1, %ymm3, %ymm3, %ymm2 # ymm2 = ymm3[1,0,3,2,5,4,7,6]
vmaxps %ymm2, %ymm3, %ymm2
vshufpd $0x5, %ymm2, %ymm2, %ymm3 # ymm3 = ymm2[1,0,3,2]
vmaxps %ymm3, %ymm2, %ymm2
vextractf128 $0x1, %ymm2, %xmm3
vmaxss %xmm3, %xmm2, %xmm2
vbroadcastss 0x91ed2(%rip), %xmm3 # 0x1f20ec4
vandps %xmm3, %xmm1, %xmm1
vandps %xmm3, %xmm2, %xmm2
vmaxss %xmm1, %xmm2, %xmm1
vbroadcastss %xmm1, %xmm1
vsubps %xmm1, %xmm4, %xmm2
vaddps %xmm1, %xmm0, %xmm0
vandps %xmm3, %xmm2, %xmm1
vandps %xmm3, %xmm0, %xmm3
vmaxps %xmm3, %xmm1, %xmm1
vmovshdup %xmm1, %xmm3 # xmm3 = xmm1[1,1,3,3]
vmaxss %xmm1, %xmm3, %xmm3
vshufpd $0x1, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[1,0]
vmaxss %xmm3, %xmm1, %xmm1
vmulss 0x61fb4(%rip), %xmm1, %xmm1 # 0x1ef0fe4
vbroadcastss %xmm1, %xmm1
vsubps %xmm1, %xmm2, %xmm2
vaddps %xmm1, %xmm0, %xmm0
vmovaps %xmm2, (%rax)
vmovaps %xmm0, 0x10(%rax)
popq %rbx
popq %r14
popq %r15
vzeroupper
retq
nop
|
/embree[P]embree/kernels/common/scene_curves.cpp
|
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)1, embree::avx512::HermiteCurveGeometryInterface, embree::HermiteCurveT>::vlinearBounds(embree::LinearSpace3<embree::Vec3fa> const&, unsigned long, embree::BBox<float> const&) const
|
LBBox3fa vlinearBounds(const LinearSpace3fa& space, size_t primID, const BBox1f& time_range) const {
return linearBounds(space,primID,time_range);
}
|
pushq %rbp
pushq %r15
pushq %r14
pushq %r13
pushq %r12
pushq %rbx
subq $0x138, %rsp # imm = 0x138
leaq 0xc8(%rsp), %rax
movq %rcx, (%rax)
leaq 0xb0(%rsp), %r14
movq %rdx, (%r14)
movq %rax, 0x8(%r14)
movq %rsi, 0x10(%r14)
vmovss 0x28(%rsi), %xmm4
vmovss 0x2c(%rsi), %xmm0
vmovss (%r8), %xmm1
vmovss 0x4(%r8), %xmm2
vsubss %xmm0, %xmm1, %xmm1
vmovss 0x30(%rsi), %xmm3
vsubss %xmm0, %xmm3, %xmm3
vdivss %xmm3, %xmm1, %xmm1
vsubss %xmm0, %xmm2, %xmm0
vdivss %xmm3, %xmm0, %xmm2
vmovss %xmm1, 0x4(%rsp)
vmulss %xmm1, %xmm4, %xmm0
vmovss %xmm0, 0x20(%rsp)
vroundss $0x9, %xmm0, %xmm0, %xmm0
vmovss %xmm2, 0x50(%rsp)
vmulss %xmm2, %xmm4, %xmm1
vmovss %xmm1, 0x40(%rsp)
vroundss $0xa, %xmm1, %xmm1, %xmm1
vxorps %xmm2, %xmm2, %xmm2
vmaxss %xmm2, %xmm0, %xmm3
vminss %xmm4, %xmm1, %xmm2
vmovss %xmm3, 0x10(%rsp)
vcvttss2si %xmm3, %r15d
vmovss %xmm2, 0x30(%rsp)
vcvttss2si %xmm2, %r12d
vcvttss2si %xmm0, %eax
movq %rdi, %rbx
testl %eax, %eax
movl $0xffffffff, %r13d # imm = 0xFFFFFFFF
cmovnsl %eax, %r13d
vcvttss2si %xmm1, %eax
vmovss %xmm4, 0xc(%rsp)
vcvttss2si %xmm4, %ebp
incl %ebp
cmpl %ebp, %eax
cmovll %eax, %ebp
movslq %r15d, %rdx
leaq 0x80(%rsp), %rdi
movq %r14, %rsi
callq 0x1e902ee
movslq %r12d, %rdx
leaq 0x60(%rsp), %rdi
movq %r14, %rsi
callq 0x1e902ee
movl %ebp, %eax
subl %r13d, %eax
cmpl $0x1, %eax
jne 0x1e8f58d
vmovss 0x20(%rsp), %xmm0
vsubss 0x10(%rsp), %xmm0, %xmm0
vxorps %xmm8, %xmm8, %xmm8
vmaxss %xmm8, %xmm0, %xmm0
vmovss 0x5d20e(%rip), %xmm1 # 0x1eec714
vsubss %xmm0, %xmm1, %xmm2
vbroadcastss %xmm0, %xmm0
vmovaps 0x60(%rsp), %xmm3
vmovaps 0x70(%rsp), %xmm4
vmulps %xmm3, %xmm0, %xmm5
vbroadcastss %xmm2, %xmm2
vmovaps 0x80(%rsp), %xmm6
vmovaps 0x90(%rsp), %xmm7
vfmadd231ps %xmm6, %xmm2, %xmm5 # xmm5 = (xmm2 * xmm6) + xmm5
vmulps %xmm4, %xmm0, %xmm0
vfmadd231ps %xmm2, %xmm7, %xmm0 # xmm0 = (xmm7 * xmm2) + xmm0
vmovaps %xmm5, (%rbx)
vmovaps %xmm0, 0x10(%rbx)
vmovss 0x30(%rsp), %xmm0
vsubss 0x40(%rsp), %xmm0, %xmm0
vmaxss %xmm8, %xmm0, %xmm0
vsubss %xmm0, %xmm1, %xmm1
vbroadcastss %xmm0, %xmm0
vmulps %xmm6, %xmm0, %xmm2
vbroadcastss %xmm1, %xmm1
vfmadd231ps %xmm3, %xmm1, %xmm2 # xmm2 = (xmm1 * xmm3) + xmm2
vmulps %xmm7, %xmm0, %xmm0
vfmadd231ps %xmm4, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm4) + xmm0
vmovaps %xmm2, 0x20(%rbx)
vmovaps %xmm0, 0x30(%rbx)
jmp 0x1e8f770
incl %r15d
movslq %r15d, %rdx
leaq 0x110(%rsp), %r14
leaq 0xb0(%rsp), %r15
movq %r14, %rdi
movq %r15, %rsi
callq 0x1e902ee
decl %r12d
movslq %r12d, %rdx
leaq 0xf0(%rsp), %r12
movq %r12, %rdi
movq %r15, %rsi
callq 0x1e902ee
vmovss 0x20(%rsp), %xmm0
vsubss 0x10(%rsp), %xmm0, %xmm0
vxorps %xmm5, %xmm5, %xmm5
vmaxss %xmm5, %xmm0, %xmm0
vmovss 0x5d131(%rip), %xmm4 # 0x1eec714
vbroadcastss %xmm0, %xmm1
vmulps (%r14), %xmm1, %xmm2
vsubss %xmm0, %xmm4, %xmm0
vbroadcastss %xmm0, %xmm0
vfmadd231ps 0x80(%rsp), %xmm0, %xmm2 # xmm2 = (xmm0 * mem) + xmm2
vmulps 0x10(%r14), %xmm1, %xmm3
vfmadd231ps 0x90(%rsp), %xmm0, %xmm3 # xmm3 = (xmm0 * mem) + xmm3
vmovss 0x30(%rsp), %xmm0
vsubss 0x40(%rsp), %xmm0, %xmm0
vmaxss %xmm5, %xmm0, %xmm0
vsubss %xmm0, %xmm4, %xmm1
vbroadcastss %xmm0, %xmm0
vmulps (%r12), %xmm0, %xmm5
vbroadcastss %xmm1, %xmm1
vfmadd231ps 0x60(%rsp), %xmm1, %xmm5 # xmm5 = (xmm1 * mem) + xmm5
vmulps 0x10(%r12), %xmm0, %xmm6
vfmadd231ps 0x70(%rsp), %xmm1, %xmm6 # xmm6 = (xmm1 * mem) + xmm6
leal 0x1(%r13), %eax
cmpl %ebp, %eax
jge 0x1e8f75d
vmovss 0x4(%rsp), %xmm1
vmovss 0x50(%rsp), %xmm0
vsubss %xmm1, %xmm0, %xmm0
vmovss %xmm0, 0x8(%rsp)
movl %eax, %r14d
notl %r13d
addl %ebp, %r13d
leaq 0xd0(%rsp), %r15
leaq 0xb0(%rsp), %r12
vmovaps %xmm6, 0x10(%rsp)
vmovaps %xmm5, 0x20(%rsp)
vmovaps %xmm3, 0x30(%rsp)
vmovaps %xmm2, 0x40(%rsp)
vcvtsi2ss %r14d, %xmm8, %xmm0
vdivss 0xc(%rsp), %xmm0, %xmm0
vsubss %xmm1, %xmm0, %xmm0
vdivss 0x8(%rsp), %xmm0, %xmm0
vsubss %xmm0, %xmm4, %xmm1
vbroadcastss %xmm0, %xmm0
vmulps %xmm0, %xmm5, %xmm4
vbroadcastss %xmm1, %xmm1
vfmadd231ps %xmm2, %xmm1, %xmm4 # xmm4 = (xmm1 * xmm2) + xmm4
vmovaps %xmm4, 0x50(%rsp)
vmulps %xmm0, %xmm6, %xmm0
vfmadd231ps %xmm1, %xmm3, %xmm0 # xmm0 = (xmm3 * xmm1) + xmm0
vmovaps %xmm0, 0xa0(%rsp)
movq %r15, %rdi
movq %r12, %rsi
movq %r14, %rdx
callq 0x1e902ee
vmovaps 0x10(%rsp), %xmm6
vmovaps 0x20(%rsp), %xmm5
vmovss 0x5d012(%rip), %xmm4 # 0x1eec714
vmovaps 0x30(%rsp), %xmm3
vmovaps 0x40(%rsp), %xmm2
vmovaps 0xd0(%rsp), %xmm0
vsubps 0x50(%rsp), %xmm0, %xmm0
vmovaps 0xe0(%rsp), %xmm1
vsubps 0xa0(%rsp), %xmm1, %xmm1
vxorps %xmm7, %xmm7, %xmm7
vminps %xmm7, %xmm0, %xmm0
vmaxps %xmm7, %xmm1, %xmm1
vaddps %xmm0, %xmm2, %xmm2
vaddps %xmm0, %xmm5, %xmm5
vaddps %xmm1, %xmm3, %xmm3
vaddps %xmm1, %xmm6, %xmm6
vmovss 0x4(%rsp), %xmm1
incq %r14
decl %r13d
jne 0x1e8f684
vmovaps %xmm2, (%rbx)
vmovaps %xmm3, 0x10(%rbx)
vmovaps %xmm5, 0x20(%rbx)
vmovaps %xmm6, 0x30(%rbx)
movq %rbx, %rax
addq $0x138, %rsp # imm = 0x138
popq %rbx
popq %r12
popq %r13
popq %r14
popq %r15
popq %rbp
retq
nop
|
/embree[P]embree/kernels/common/scene_curves.cpp
|
void embree::avx512::HermiteCurveGeometryInterface<embree::HermiteCurveT>::interpolate_impl<4>(RTCInterpolateArguments const*)
|
void interpolate_impl(const RTCInterpolateArguments* const args)
{
unsigned int primID = args->primID;
float u = args->u;
RTCBufferType bufferType = args->bufferType;
unsigned int bufferSlot = args->bufferSlot;
float* P = args->P;
float* dPdu = args->dPdu;
float* ddPdudu = args->ddPdudu;
unsigned int valueCount = args->valueCount;
/* we interpolate vertex attributes linearly for hermite basis */
if (bufferType == RTC_BUFFER_TYPE_VERTEX_ATTRIBUTE)
{
assert(bufferSlot <= vertexAttribs.size());
const char* vsrc = vertexAttribs[bufferSlot].getPtr();
const size_t vstride = vertexAttribs[bufferSlot].getStride();
for (unsigned int i=0; i<valueCount; i+=N)
{
const size_t ofs = i*sizeof(float);
const size_t index = curves[primID];
const vbool<N> valid = vint<N>((int)i)+vint<N>(step) < vint<N>((int)valueCount);
const vfloat<N> p0 = mem<vfloat<N>>::loadu(valid,(float*)&vsrc[(index+0)*vstride+ofs]);
const vfloat<N> p1 = mem<vfloat<N>>::loadu(valid,(float*)&vsrc[(index+1)*vstride+ofs]);
if (P ) mem<vfloat<N>>::storeu(valid,P+i, madd(1.0f-u,p0,u*p1));
if (dPdu ) mem<vfloat<N>>::storeu(valid,dPdu+i, p1-p0);
if (ddPdudu) mem<vfloat<N>>::storeu(valid,ddPdudu+i,vfloat<N>(zero));
}
}
/* interpolation for vertex buffers */
else
{
assert(bufferSlot < numTimeSteps);
const char* vsrc = vertices[bufferSlot].getPtr();
const char* tsrc = tangents[bufferSlot].getPtr();
const size_t vstride = vertices[bufferSlot].getStride();
const size_t tstride = vertices[bufferSlot].getStride();
for (unsigned int i=0; i<valueCount; i+=N)
{
const size_t ofs = i*sizeof(float);
const size_t index = curves[primID];
const vbool<N> valid = vint<N>((int)i)+vint<N>(step) < vint<N>((int)valueCount);
const vfloat<N> p0 = mem<vfloat<N>>::loadu(valid,(float*)&vsrc[(index+0)*vstride+ofs]);
const vfloat<N> p1 = mem<vfloat<N>>::loadu(valid,(float*)&vsrc[(index+1)*vstride+ofs]);
const vfloat<N> t0 = mem<vfloat<N>>::loadu(valid,(float*)&tsrc[(index+0)*tstride+ofs]);
const vfloat<N> t1 = mem<vfloat<N>>::loadu(valid,(float*)&tsrc[(index+1)*tstride+ofs]);
const HermiteCurveT<vfloat<N>> curve(p0,t0,p1,t1);
if (P ) mem<vfloat<N>>::storeu(valid,P+i, curve.eval(u));
if (dPdu ) mem<vfloat<N>>::storeu(valid,dPdu+i, curve.eval_du(u));
if (ddPdudu) mem<vfloat<N>>::storeu(valid,ddPdudu+i,curve.eval_dudu(u));
}
}
}
|
pushq %rbp
pushq %r15
pushq %r14
pushq %r13
pushq %r12
pushq %rbx
movl 0x8(%rsi), %eax
vmovss 0xc(%rsi), %xmm9
movl 0x18(%rsi), %r10d
movq 0x20(%rsi), %rcx
movq 0x28(%rsi), %rdx
movq 0x38(%rsi), %r8
movl 0x50(%rsi), %r9d
cmpl $0x2, 0x14(%rsi)
jne 0x1e8fc4e
testl %r9d, %r9d
je 0x1e8fe41
movq 0x240(%rdi), %r11
imulq $0x38, %r10, %r10
movq (%r11,%r10), %rsi
movl 0x10(%r11,%r10), %r10d
vpbroadcastd %r9d, %xmm0
vmovss 0x5cb6f(%rip), %xmm1 # 0x1eec714
vsubss %xmm9, %xmm1, %xmm1
vbroadcastss %xmm1, %xmm1
vbroadcastss %xmm9, %xmm2
xorl %ebx, %ebx
vpmovsxbd 0x91915(%rip), %xmm3 # 0x1f214d4
vxorps %xmm4, %xmm4, %xmm4
movq 0x58(%rdi), %r11
movq 0x68(%rdi), %r14
imulq %rax, %r14
movl (%r11,%r14), %r14d
movq %r10, %r15
imulq %r14, %r15
addq %rsi, %r15
incq %r14
imulq %r10, %r14
addq %rsi, %r14
movl %ebx, %r11d
vpbroadcastd %ebx, %xmm5
vpor %xmm3, %xmm5, %xmm5
vpcmpgtd %xmm5, %xmm0, %k1
vmovups (%r15,%r11,4), %xmm5 {%k1} {z}
vmovups (%r14,%r11,4), %xmm6 {%k1} {z}
testq %rcx, %rcx
je 0x1e8fc1d
vmulps %xmm6, %xmm2, %xmm7
vfmadd231ps %xmm5, %xmm1, %xmm7 # xmm7 = (xmm1 * xmm5) + xmm7
vmovups %xmm7, (%rcx,%r11,4) {%k1}
testq %rdx, %rdx
je 0x1e8fc2d
vsubps %xmm5, %xmm6, %xmm5
vmovups %xmm5, (%rdx,%r11,4) {%k1}
testq %r8, %r8
je 0x1e8fc39
vmovups %xmm4, (%r8,%r11,4) {%k1}
addl $0x4, %r11d
movl %r11d, %ebx
cmpl %r9d, %r11d
jb 0x1e8fbc3
jmp 0x1e8fe41
testl %r9d, %r9d
je 0x1e8fe41
imulq $0x38, %r10, %r11
movq 0x188(%rdi), %rbx
movq 0x1c8(%rdi), %r10
movq (%rbx,%r11), %rsi
movq (%r10,%r11), %r10
movl 0x10(%rbx,%r11), %r11d
vpbroadcastd %r9d, %xmm0
vmovss 0x5ca90(%rip), %xmm1 # 0x1eec714
vsubss %xmm9, %xmm1, %xmm10
vmulss %xmm10, %xmm10, %xmm5
vmovss 0x61356(%rip), %xmm6 # 0x1ef0fec
vmulss %xmm5, %xmm10, %xmm1
vmulss %xmm6, %xmm9, %xmm2
vmulss %xmm5, %xmm2, %xmm2
vmulss %xmm9, %xmm9, %xmm7
vmulss %xmm6, %xmm7, %xmm8
vmulss %xmm8, %xmm10, %xmm3
vmulss %xmm7, %xmm9, %xmm4
vbroadcastss %xmm1, %xmm1
vbroadcastss %xmm2, %xmm2
vbroadcastss %xmm3, %xmm3
vbroadcastss %xmm4, %xmm4
vmulss %xmm10, %xmm9, %xmm11
vmovss 0x60d07(%rip), %xmm12 # 0x1ef09dc
vmovaps %xmm12, %xmm13
vfmsub231ss 0x61315(%rip), %xmm11, %xmm7 # xmm7 = (xmm11 * mem) - xmm7
vmulss 0x61305(%rip), %xmm5, %xmm14 # 0x1ef0ff0
vfmadd213ss %xmm5, %xmm11, %xmm13 # xmm13 = (xmm11 * xmm13) + xmm5
vmulss %xmm6, %xmm13, %xmm11
vmulss %xmm6, %xmm7, %xmm7
vbroadcastss %xmm14, %xmm5
vbroadcastss %xmm11, %xmm6
vbroadcastss %xmm7, %xmm7
vbroadcastss %xmm8, %xmm8
vmovaps %xmm12, %xmm11
vfmadd213ss %xmm9, %xmm10, %xmm11 # xmm11 = (xmm10 * xmm11) + xmm9
vfmadd213ss %xmm10, %xmm9, %xmm12 # xmm12 = (xmm9 * xmm12) + xmm10
vmovss 0x612d1(%rip), %xmm13 # 0x1ef0ff4
vmulss %xmm13, %xmm10, %xmm10
vmulss %xmm13, %xmm11, %xmm11
vmulss %xmm13, %xmm12, %xmm12
vmulss %xmm13, %xmm9, %xmm13
vbroadcastss %xmm10, %xmm9
vbroadcastss %xmm11, %xmm10
vbroadcastss %xmm12, %xmm11
vbroadcastss %xmm13, %xmm12
xorl %ebp, %ebp
vpmovsxbd 0x9177e(%rip), %xmm13 # 0x1f214d4
vbroadcastss 0xcd70d(%rip), %xmm14 # 0x1f5d46c
movq 0x58(%rdi), %rbx
movq 0x68(%rdi), %r14
imulq %rax, %r14
movl (%rbx,%r14), %r14d
movq %r11, %r15
imulq %r14, %r15
leaq (%rsi,%r15), %r12
incq %r14
imulq %r11, %r14
leaq (%rsi,%r14), %r13
addq %r10, %r15
movl %ebp, %ebx
vpbroadcastd %ebp, %xmm15
vpor %xmm13, %xmm15, %xmm15
vpcmpgtd %xmm15, %xmm0, %k1
vmovups (%r12,%rbx,4), %xmm15 {%k1} {z}
vmovups (%r13,%rbx,4), %xmm18 {%k1} {z}
vmovups (%r15,%rbx,4), %xmm16 {%k1} {z}
addq %r10, %r14
vmovups (%r14,%rbx,4), %xmm17 {%k1} {z}
vfnmadd213ps %xmm15, %xmm14, %xmm16 # xmm16 = -(xmm14 * xmm16) + xmm15
vfmadd213ps %xmm18, %xmm14, %xmm17 # xmm17 = (xmm14 * xmm17) + xmm18
testq %rcx, %rcx
je 0x1e8fdeb
vmulps %xmm18, %xmm4, %xmm19
vfmadd231ps %xmm17, %xmm3, %xmm19 # xmm19 = (xmm3 * xmm17) + xmm19
vfmadd231ps %xmm16, %xmm2, %xmm19 # xmm19 = (xmm2 * xmm16) + xmm19
vfmadd231ps %xmm15, %xmm1, %xmm19 # xmm19 = (xmm1 * xmm15) + xmm19
vmovups %xmm19, (%rcx,%rbx,4) {%k1}
testq %rdx, %rdx
je 0x1e8fe0f
vmulps %xmm18, %xmm8, %xmm19
vfmadd231ps %xmm17, %xmm7, %xmm19 # xmm19 = (xmm7 * xmm17) + xmm19
vfmadd231ps %xmm16, %xmm6, %xmm19 # xmm19 = (xmm6 * xmm16) + xmm19
vfmadd231ps %xmm15, %xmm5, %xmm19 # xmm19 = (xmm5 * xmm15) + xmm19
vmovups %xmm19, (%rdx,%rbx,4) {%k1}
testq %r8, %r8
je 0x1e8fe33
vmulps %xmm18, %xmm12, %xmm18
vfmadd213ps %xmm18, %xmm11, %xmm17 # xmm17 = (xmm11 * xmm17) + xmm18
vfmadd213ps %xmm17, %xmm10, %xmm16 # xmm16 = (xmm10 * xmm16) + xmm17
vfmadd213ps %xmm16, %xmm9, %xmm15 # xmm15 = (xmm9 * xmm15) + xmm16
vmovups %xmm15, (%r8,%rbx,4) {%k1}
addl $0x4, %ebx
movl %ebx, %ebp
cmpl %r9d, %ebx
jb 0x1e8fd5f
popq %rbx
popq %r12
popq %r13
popq %r14
popq %r15
popq %rbp
retq
|
/embree[P]embree/kernels/common/scene_curves.h
|
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)1, embree::avx512::HermiteCurveGeometryInterface, embree::HermiteCurveT>::linearBounds(embree::LinearSpace3<embree::Vec3fa> const&, unsigned long, embree::BBox<float> const&) const::'lambda'(unsigned long)::operator()(unsigned long) const
|
__forceinline LBBox3fa linearBounds(const LinearSpace3fa& space, size_t primID, const BBox1f& dt) const {
return LBBox3fa([&] (size_t itime) { return bounds(space, primID, itime); }, dt, this->time_range, fnumTimeSegments);
}
|
pushq %r14
pushq %rbx
movq %rdi, %rax
movq 0x10(%rsi), %rdi
movq (%rsi), %r10
movq 0x8(%rsi), %rcx
movq 0x58(%rdi), %rsi
movq 0x68(%rdi), %r8
imulq (%rcx), %r8
movl (%rsi,%r8), %ecx
movq 0x188(%rdi), %rsi
imulq $0x38, %rdx, %r11
movq (%rsi,%r11), %r8
movq 0x10(%rsi,%r11), %r9
movq %r9, %rbx
imulq %rcx, %rbx
leal 0x1(%rcx), %r14d
imulq %r14, %r9
movq 0x1c8(%rdi), %rsi
movq (%rsi,%r11), %rdx
movq 0x10(%rsi,%r11), %rsi
imulq %rsi, %rcx
imulq %r14, %rsi
vmovaps (%r10), %xmm1
vmovaps 0x10(%r10), %xmm2
vmovaps 0x20(%r10), %xmm3
vmulps 0x8(%r8,%rbx){1to4}, %xmm3, %xmm4
vfmadd231ps 0x4(%r8,%rbx){1to4}, %xmm2, %xmm4 # xmm4 = (xmm2 * mem) + xmm4
vfmadd231ps (%r8,%rbx){1to4}, %xmm1, %xmm4 # xmm4 = (xmm1 * mem) + xmm4
vmovss 0x24c(%rdi), %xmm6
vmulss 0xc(%r8,%rbx), %xmm6, %xmm0
vbroadcastss %xmm0, %ymm0
vinsertps $0x30, %xmm0, %xmm4, %xmm7 # xmm7 = xmm4[0,1,2],xmm0[0]
vmulps 0x8(%r8,%r9){1to4}, %xmm3, %xmm12
vfmadd231ps 0x4(%r8,%r9){1to4}, %xmm2, %xmm12 # xmm12 = (xmm2 * mem) + xmm12
vfmadd231ps (%r8,%r9){1to4}, %xmm1, %xmm12 # xmm12 = (xmm1 * mem) + xmm12
vmulss 0xc(%r8,%r9), %xmm6, %xmm5
vbroadcastss %xmm5, %ymm5
vinsertps $0x30, %xmm5, %xmm12, %xmm8 # xmm8 = xmm12[0,1,2],xmm5[0]
vmulps 0x8(%rdx,%rcx){1to4}, %xmm3, %xmm9
vfmadd231ps 0x4(%rdx,%rcx){1to4}, %xmm2, %xmm9 # xmm9 = (xmm2 * mem) + xmm9
vfmadd231ps (%rdx,%rcx){1to4}, %xmm1, %xmm9 # xmm9 = (xmm1 * mem) + xmm9
vmulss 0xc(%rdx,%rcx), %xmm6, %xmm10
vmulps 0x8(%rdx,%rsi){1to4}, %xmm3, %xmm3
vfmadd231ps 0x4(%rdx,%rsi){1to4}, %xmm2, %xmm3 # xmm3 = (xmm2 * mem) + xmm3
vfmadd231ps (%rdx,%rsi){1to4}, %xmm1, %xmm3 # xmm3 = (xmm1 * mem) + xmm3
vinsertps $0x30, %xmm10, %xmm9, %xmm1 # xmm1 = xmm9[0,1,2],xmm10[0]
vmulss 0xc(%rdx,%rsi), %xmm6, %xmm2
vinsertps $0x30, %xmm2, %xmm3, %xmm2 # xmm2 = xmm3[0,1,2],xmm2[0]
vbroadcastss 0xcd068(%rip), %xmm3 # 0x1f5d46c
vfnmadd213ps %xmm7, %xmm3, %xmm1 # xmm1 = -(xmm3 * xmm1) + xmm7
vfmadd213ps %xmm8, %xmm3, %xmm2 # xmm2 = (xmm3 * xmm2) + xmm8
vbroadcastss %xmm4, %ymm6
vbroadcastss 0x822e8(%rip), %ymm3 # 0x1f12704
vpermps %ymm4, %ymm3, %ymm7
vbroadcastss 0x90ab2(%rip), %ymm13 # 0x1f20edc
vpermps %ymm4, %ymm13, %ymm8
vbroadcastss %xmm1, %ymm14
vpermps %ymm1, %ymm3, %ymm11
vpermps %ymm1, %ymm13, %ymm9
vbroadcastss 0x90a91(%rip), %ymm4 # 0x1f20ed8
vpermps %ymm1, %ymm4, %ymm10
vbroadcastss %xmm2, %ymm15
vpermps %ymm2, %ymm3, %ymm16
vpermps %ymm2, %ymm13, %ymm17
vpermps %ymm2, %ymm4, %ymm18
vbroadcastss %xmm12, %ymm19
vpermps %ymm12, %ymm3, %ymm20
leaq 0x296e6e(%rip), %rcx # 0x21272e4
vmovups 0x1dc(%rcx), %ymm21
vmovups 0x660(%rcx), %ymm22
vmovups 0xae4(%rcx), %ymm23
vmovups 0xf68(%rcx), %ymm4
vpermps %ymm12, %ymm13, %ymm12
vmulps %ymm4, %ymm19, %ymm1
vmulps %ymm4, %ymm20, %ymm2
vmulps %ymm4, %ymm12, %ymm3
vmulps %ymm4, %ymm5, %ymm4
vfmadd231ps %ymm15, %ymm23, %ymm1 # ymm1 = (ymm23 * ymm15) + ymm1
vfmadd231ps %ymm16, %ymm23, %ymm2 # ymm2 = (ymm23 * ymm16) + ymm2
vfmadd231ps %ymm17, %ymm23, %ymm3 # ymm3 = (ymm23 * ymm17) + ymm3
vfmadd231ps %ymm23, %ymm18, %ymm4 # ymm4 = (ymm18 * ymm23) + ymm4
vfmadd231ps %ymm14, %ymm22, %ymm1 # ymm1 = (ymm22 * ymm14) + ymm1
vfmadd231ps %ymm11, %ymm22, %ymm2 # ymm2 = (ymm22 * ymm11) + ymm2
vfmadd231ps %ymm9, %ymm22, %ymm3 # ymm3 = (ymm22 * ymm9) + ymm3
vfmadd231ps %ymm22, %ymm10, %ymm4 # ymm4 = (ymm10 * ymm22) + ymm4
vfmadd231ps %ymm6, %ymm21, %ymm1 # ymm1 = (ymm21 * ymm6) + ymm1
vfmadd231ps %ymm7, %ymm21, %ymm2 # ymm2 = (ymm21 * ymm7) + ymm2
vfmadd231ps %ymm8, %ymm21, %ymm3 # ymm3 = (ymm21 * ymm8) + ymm3
vmovups 0x13ec(%rcx), %ymm13
vmovups 0x1870(%rcx), %ymm22
vmovups 0x1cf4(%rcx), %ymm23
vmovups 0x2178(%rcx), %ymm24
vfmadd231ps %ymm21, %ymm0, %ymm4 # ymm4 = (ymm0 * ymm21) + ymm4
vmulps %ymm24, %ymm19, %ymm19
vmulps %ymm24, %ymm20, %ymm20
vmulps %ymm24, %ymm12, %ymm12
vmulps %ymm24, %ymm5, %ymm5
vfmadd231ps %ymm15, %ymm23, %ymm19 # ymm19 = (ymm23 * ymm15) + ymm19
vfmadd231ps %ymm16, %ymm23, %ymm20 # ymm20 = (ymm23 * ymm16) + ymm20
vfmadd231ps %ymm17, %ymm23, %ymm12 # ymm12 = (ymm23 * ymm17) + ymm12
vfmadd231ps %ymm18, %ymm23, %ymm5 # ymm5 = (ymm23 * ymm18) + ymm5
vfmadd231ps %ymm14, %ymm22, %ymm19 # ymm19 = (ymm22 * ymm14) + ymm19
vfmadd231ps %ymm11, %ymm22, %ymm20 # ymm20 = (ymm22 * ymm11) + ymm20
vfmadd231ps %ymm9, %ymm22, %ymm12 # ymm12 = (ymm22 * ymm9) + ymm12
vfmadd231ps %ymm10, %ymm22, %ymm5 # ymm5 = (ymm22 * ymm10) + ymm5
vfmadd231ps %ymm6, %ymm13, %ymm19 # ymm19 = (ymm13 * ymm6) + ymm19
vfmadd231ps %ymm7, %ymm13, %ymm20 # ymm20 = (ymm13 * ymm7) + ymm20
vfmadd231ps %ymm8, %ymm13, %ymm12 # ymm12 = (ymm13 * ymm8) + ymm12
vbroadcastss 0x90f4e(%rip), %ymm6 # 0x1f214d0
vfmadd231ps %ymm0, %ymm13, %ymm5 # ymm5 = (ymm13 * ymm0) + ymm5
vmulps %ymm6, %ymm19, %ymm0
vmulps %ymm6, %ymm20, %ymm7
vmulps %ymm6, %ymm12, %ymm8
vmulps %ymm6, %ymm5, %ymm5
vxorps %xmm6, %xmm6, %xmm6
vblendps $0x1, %ymm6, %ymm0, %ymm9 # ymm9 = ymm6[0],ymm0[1,2,3,4,5,6,7]
vblendps $0x1, %ymm6, %ymm7, %ymm10 # ymm10 = ymm6[0],ymm7[1,2,3,4,5,6,7]
vblendps $0x1, %ymm6, %ymm8, %ymm11 # ymm11 = ymm6[0],ymm8[1,2,3,4,5,6,7]
vblendps $0x1, %ymm6, %ymm5, %ymm12 # ymm12 = ymm6[0],ymm5[1,2,3,4,5,6,7]
vsubps %ymm9, %ymm1, %ymm9
vsubps %ymm10, %ymm2, %ymm10
vsubps %ymm11, %ymm3, %ymm11
vsubps %ymm12, %ymm4, %ymm12
vblendps $0x80, %ymm6, %ymm0, %ymm0 # ymm0 = ymm0[0,1,2,3,4,5,6],ymm6[7]
vblendps $0x80, %ymm6, %ymm7, %ymm7 # ymm7 = ymm7[0,1,2,3,4,5,6],ymm6[7]
vblendps $0x80, %ymm6, %ymm8, %ymm8 # ymm8 = ymm8[0,1,2,3,4,5,6],ymm6[7]
vblendps $0x80, %ymm6, %ymm5, %ymm5 # ymm5 = ymm5[0,1,2,3,4,5,6],ymm6[7]
vaddps %ymm0, %ymm1, %ymm0
vaddps %ymm7, %ymm2, %ymm6
vaddps %ymm3, %ymm8, %ymm7
vaddps %ymm5, %ymm4, %ymm5
vbroadcastss 0x5b424(%rip), %ymm8 # 0x1eeba20
vminps %ymm1, %ymm8, %ymm13
vminps %ymm2, %ymm8, %ymm14
vminps %ymm3, %ymm8, %ymm15
vminps %ymm4, %ymm8, %ymm8
vminps %ymm0, %ymm9, %ymm16
vminps %ymm16, %ymm13, %ymm13
vminps %ymm6, %ymm10, %ymm16
vminps %ymm16, %ymm14, %ymm14
vminps %ymm7, %ymm11, %ymm16
vminps %ymm16, %ymm15, %ymm15
vminps %ymm5, %ymm12, %ymm16
vminps %ymm16, %ymm8, %ymm8
vbroadcastss 0x5c53e(%rip), %ymm16 # 0x1eecb84
vmaxps %ymm1, %ymm16, %ymm1
vmaxps %ymm2, %ymm16, %ymm2
vmaxps %ymm3, %ymm16, %ymm3
vmaxps %ymm4, %ymm16, %ymm4
vmaxps %ymm0, %ymm9, %ymm0
vmaxps %ymm0, %ymm1, %ymm0
vmaxps %ymm6, %ymm10, %ymm1
vmaxps %ymm1, %ymm2, %ymm1
vmaxps %ymm7, %ymm11, %ymm2
vmaxps %ymm2, %ymm3, %ymm2
vmaxps %ymm5, %ymm12, %ymm3
vmaxps %ymm3, %ymm4, %ymm3
vshufps $0xb1, %ymm13, %ymm13, %ymm4 # ymm4 = ymm13[1,0,3,2,5,4,7,6]
vminps %ymm4, %ymm13, %ymm4
vshufpd $0x5, %ymm4, %ymm4, %ymm5 # ymm5 = ymm4[1,0,3,2]
vminps %ymm5, %ymm4, %ymm4
vextractf128 $0x1, %ymm4, %xmm5
vminps %xmm5, %xmm4, %xmm4
vshufps $0xb1, %ymm14, %ymm14, %ymm5 # ymm5 = ymm14[1,0,3,2,5,4,7,6]
vminps %ymm5, %ymm14, %ymm5
vshufpd $0x5, %ymm5, %ymm5, %ymm6 # ymm6 = ymm5[1,0,3,2]
vminps %ymm6, %ymm5, %ymm5
vextractf128 $0x1, %ymm5, %xmm6
vminps %xmm6, %xmm5, %xmm5
vunpcklps %xmm5, %xmm4, %xmm4 # xmm4 = xmm4[0],xmm5[0],xmm4[1],xmm5[1]
vshufps $0xb1, %ymm15, %ymm15, %ymm5 # ymm5 = ymm15[1,0,3,2,5,4,7,6]
vminps %ymm5, %ymm15, %ymm5
vshufpd $0x5, %ymm5, %ymm5, %ymm6 # ymm6 = ymm5[1,0,3,2]
vminps %ymm6, %ymm5, %ymm5
vextractf128 $0x1, %ymm5, %xmm6
vminps %xmm6, %xmm5, %xmm5
vinsertps $0x28, %xmm5, %xmm4, %xmm4 # xmm4 = xmm4[0,1],xmm5[0],zero
vshufps $0xb1, %ymm0, %ymm0, %ymm5 # ymm5 = ymm0[1,0,3,2,5,4,7,6]
vmaxps %ymm5, %ymm0, %ymm0
vshufpd $0x5, %ymm0, %ymm0, %ymm5 # ymm5 = ymm0[1,0,3,2]
vmaxps %ymm5, %ymm0, %ymm0
vextractf128 $0x1, %ymm0, %xmm5
vmaxps %xmm5, %xmm0, %xmm0
vshufps $0xb1, %ymm1, %ymm1, %ymm5 # ymm5 = ymm1[1,0,3,2,5,4,7,6]
vmaxps %ymm5, %ymm1, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm5 # ymm5 = ymm1[1,0,3,2]
vmaxps %ymm5, %ymm1, %ymm1
vextractf128 $0x1, %ymm1, %xmm5
vmaxps %xmm5, %xmm1, %xmm1
vunpcklps %xmm1, %xmm0, %xmm0 # xmm0 = xmm0[0],xmm1[0],xmm0[1],xmm1[1]
vshufps $0xb1, %ymm2, %ymm2, %ymm1 # ymm1 = ymm2[1,0,3,2,5,4,7,6]
vmaxps %ymm1, %ymm2, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vmaxps %ymm2, %ymm1, %ymm1
vextractf128 $0x1, %ymm1, %xmm2
vmaxps %xmm2, %xmm1, %xmm1
vinsertps $0x28, %xmm1, %xmm0, %xmm0 # xmm0 = xmm0[0,1],xmm1[0],zero
vshufps $0xb1, %ymm8, %ymm8, %ymm1 # ymm1 = ymm8[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm8, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vextractf128 $0x1, %ymm1, %xmm2
vminss %xmm2, %xmm1, %xmm1
vshufps $0xb1, %ymm3, %ymm3, %ymm2 # ymm2 = ymm3[1,0,3,2,5,4,7,6]
vmaxps %ymm2, %ymm3, %ymm2
vshufpd $0x5, %ymm2, %ymm2, %ymm3 # ymm3 = ymm2[1,0,3,2]
vmaxps %ymm3, %ymm2, %ymm2
vextractf128 $0x1, %ymm2, %xmm3
vmaxss %xmm3, %xmm2, %xmm2
vbroadcastss 0x90745(%rip), %xmm3 # 0x1f20ec4
vandps %xmm3, %xmm1, %xmm1
vandps %xmm3, %xmm2, %xmm2
vmaxss %xmm1, %xmm2, %xmm1
vbroadcastss %xmm1, %xmm1
vsubps %xmm1, %xmm4, %xmm2
vaddps %xmm1, %xmm0, %xmm0
vandps %xmm3, %xmm2, %xmm1
vandps %xmm3, %xmm0, %xmm3
vmaxps %xmm3, %xmm1, %xmm1
vmovshdup %xmm1, %xmm3 # xmm3 = xmm1[1,1,3,3]
vmaxss %xmm1, %xmm3, %xmm3
vshufpd $0x1, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[1,0]
vmaxss %xmm3, %xmm1, %xmm1
vmulss 0x60827(%rip), %xmm1, %xmm1 # 0x1ef0fe4
vbroadcastss %xmm1, %xmm1
vsubps %xmm1, %xmm2, %xmm2
vaddps %xmm1, %xmm0, %xmm0
vmovaps %xmm2, (%rax)
vmovaps %xmm0, 0x10(%rax)
popq %rbx
popq %r14
vzeroupper
retq
|
/embree[P]embree/kernels/common/scene_curves.cpp
|
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)1, embree::avx512::HermiteCurveGeometryInterface, embree::HermiteCurveT>::linearBounds(embree::Vec3fa const&, float, float, embree::LinearSpace3<embree::Vec3fa> const&, unsigned long, embree::BBox<float> const&) const::'lambda'(unsigned long)::operator()(unsigned long) const
|
__forceinline LBBox3fa linearBounds(const Vec3fa& ofs, const float scale, const float r_scale0, const LinearSpace3fa& space, size_t primID, const BBox1f& dt) const {
return LBBox3fa([&] (size_t itime) { return bounds(ofs, scale, r_scale0, space, primID, itime); }, dt, this->time_range, fnumTimeSegments);
}
|
pushq %r15
pushq %r14
pushq %rbx
movq %rdi, %rax
movq 0x28(%rsi), %rdi
movq (%rsi), %r10
movq 0x8(%rsi), %rcx
movq 0x10(%rsi), %r8
movq 0x20(%rsi), %r9
vbroadcastss (%rcx), %xmm2
vmulss (%r8), %xmm2, %xmm1
movq 0x58(%rdi), %rcx
movq 0x68(%rdi), %r8
imulq (%r9), %r8
movl (%rcx,%r8), %ecx
movq 0x188(%rdi), %r9
imulq $0x38, %rdx, %rbx
movq (%r9,%rbx), %r8
movq 0x10(%r9,%rbx), %r9
movq %r9, %r11
imulq %rcx, %r11
vmovaps (%r8,%r11), %xmm0
movq 0x18(%rsi), %r14
leal 0x1(%rcx), %r15d
imulq %r15, %r9
vmovaps (%r8,%r9), %xmm3
movq 0x1c8(%rdi), %rsi
movq (%rsi,%rbx), %rdx
movq 0x10(%rsi,%rbx), %rsi
imulq %rsi, %rcx
imulq %r15, %rsi
vmovaps (%r10), %xmm4
vsubps %xmm4, %xmm0, %xmm0
vmulps %xmm0, %xmm2, %xmm0
vbroadcastss %xmm0, %xmm5
vshufps $0x55, %xmm0, %xmm0, %xmm6 # xmm6 = xmm0[1,1,1,1]
vmovaps (%r14), %xmm7
vshufps $0xaa, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[2,2,2,2]
vmovaps 0x10(%r14), %xmm8
vmovaps 0x20(%r14), %xmm9
vmulps %xmm0, %xmm9, %xmm10
vfmadd231ps %xmm6, %xmm8, %xmm10 # xmm10 = (xmm8 * xmm6) + xmm10
vfmadd231ps %xmm5, %xmm7, %xmm10 # xmm10 = (xmm7 * xmm5) + xmm10
vmovss 0x24c(%rdi), %xmm6
vmulss 0xc(%r8,%r11), %xmm6, %xmm0
vmulss %xmm0, %xmm1, %xmm0
vbroadcastss %xmm0, %ymm0
vinsertps $0x30, %xmm0, %xmm10, %xmm11 # xmm11 = xmm10[0,1,2],xmm0[0]
vsubps %xmm4, %xmm3, %xmm3
vmulps %xmm3, %xmm2, %xmm3
vbroadcastss %xmm3, %xmm4
vshufps $0x55, %xmm3, %xmm3, %xmm5 # xmm5 = xmm3[1,1,1,1]
vshufps $0xaa, %xmm3, %xmm3, %xmm3 # xmm3 = xmm3[2,2,2,2]
vmulps %xmm3, %xmm9, %xmm3
vfmadd231ps %xmm5, %xmm8, %xmm3 # xmm3 = (xmm8 * xmm5) + xmm3
vmulss 0xc(%r8,%r9), %xmm6, %xmm5
vfmadd231ps %xmm4, %xmm7, %xmm3 # xmm3 = (xmm7 * xmm4) + xmm3
vmulss %xmm5, %xmm1, %xmm4
vbroadcastss %xmm4, %ymm5
vinsertps $0x30, %xmm5, %xmm3, %xmm4 # xmm4 = xmm3[0,1,2],xmm5[0]
vmulps (%rdx,%rcx), %xmm2, %xmm12
vbroadcastss %xmm12, %xmm13
vshufps $0x55, %xmm12, %xmm12, %xmm14 # xmm14 = xmm12[1,1,1,1]
vshufps $0xaa, %xmm12, %xmm12, %xmm12 # xmm12 = xmm12[2,2,2,2]
vmulps %xmm9, %xmm12, %xmm12
vfmadd231ps %xmm14, %xmm8, %xmm12 # xmm12 = (xmm8 * xmm14) + xmm12
vfmadd231ps %xmm13, %xmm7, %xmm12 # xmm12 = (xmm7 * xmm13) + xmm12
vmulss 0xc(%rdx,%rcx), %xmm6, %xmm13
vmulss %xmm1, %xmm13, %xmm13
vinsertps $0x30, %xmm13, %xmm12, %xmm12 # xmm12 = xmm12[0,1,2],xmm13[0]
vmulps (%rdx,%rsi), %xmm2, %xmm2
vbroadcastss %xmm2, %xmm13
vshufps $0x55, %xmm2, %xmm2, %xmm14 # xmm14 = xmm2[1,1,1,1]
vshufps $0xaa, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[2,2,2,2]
vmulps %xmm2, %xmm9, %xmm2
vfmadd231ps %xmm14, %xmm8, %xmm2 # xmm2 = (xmm8 * xmm14) + xmm2
vfmadd231ps %xmm13, %xmm7, %xmm2 # xmm2 = (xmm7 * xmm13) + xmm2
vmulss 0xc(%rdx,%rsi), %xmm6, %xmm6
vmulss %xmm6, %xmm1, %xmm1
vinsertps $0x30, %xmm1, %xmm2, %xmm1 # xmm1 = xmm2[0,1,2],xmm1[0]
vbroadcastss 0xccb0e(%rip), %xmm2 # 0x1f5d46c
vfnmadd213ps %xmm11, %xmm2, %xmm12 # xmm12 = -(xmm2 * xmm12) + xmm11
vfmadd213ps %xmm4, %xmm2, %xmm1 # xmm1 = (xmm2 * xmm1) + xmm4
vbroadcastss %xmm10, %ymm6
vbroadcastss 0x81d8e(%rip), %ymm2 # 0x1f12704
vpermps %ymm10, %ymm2, %ymm7
vbroadcastss 0x90558(%rip), %ymm4 # 0x1f20edc
vpermps %ymm10, %ymm4, %ymm8
vbroadcastss %xmm12, %ymm13
vpermps %ymm12, %ymm2, %ymm11
vpermps %ymm12, %ymm4, %ymm9
vbroadcastss 0x90537(%rip), %ymm14 # 0x1f20ed8
vpermps %ymm12, %ymm14, %ymm10
vbroadcastss %xmm1, %ymm12
vpermps %ymm1, %ymm2, %ymm15
vpermps %ymm1, %ymm4, %ymm16
vpermps %ymm1, %ymm14, %ymm14
vbroadcastss %xmm3, %ymm17
vpermps %ymm3, %ymm2, %ymm18
leaq 0x296916(%rip), %rcx # 0x21272e4
vmovups 0x1dc(%rcx), %ymm19
vmovups 0x660(%rcx), %ymm20
vmovups 0xae4(%rcx), %ymm21
vmovups 0xf68(%rcx), %ymm22
vpermps %ymm3, %ymm4, %ymm23
vmulps %ymm22, %ymm17, %ymm1
vmulps %ymm22, %ymm18, %ymm2
vmulps %ymm22, %ymm23, %ymm3
vmulps %ymm22, %ymm5, %ymm4
vfmadd231ps %ymm12, %ymm21, %ymm1 # ymm1 = (ymm21 * ymm12) + ymm1
vfmadd231ps %ymm15, %ymm21, %ymm2 # ymm2 = (ymm21 * ymm15) + ymm2
vfmadd231ps %ymm16, %ymm21, %ymm3 # ymm3 = (ymm21 * ymm16) + ymm3
vfmadd231ps %ymm21, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm21) + ymm4
vfmadd231ps %ymm13, %ymm20, %ymm1 # ymm1 = (ymm20 * ymm13) + ymm1
vfmadd231ps %ymm11, %ymm20, %ymm2 # ymm2 = (ymm20 * ymm11) + ymm2
vfmadd231ps %ymm9, %ymm20, %ymm3 # ymm3 = (ymm20 * ymm9) + ymm3
vfmadd231ps %ymm20, %ymm10, %ymm4 # ymm4 = (ymm10 * ymm20) + ymm4
vfmadd231ps %ymm6, %ymm19, %ymm1 # ymm1 = (ymm19 * ymm6) + ymm1
vfmadd231ps %ymm7, %ymm19, %ymm2 # ymm2 = (ymm19 * ymm7) + ymm2
vfmadd231ps %ymm8, %ymm19, %ymm3 # ymm3 = (ymm19 * ymm8) + ymm3
vmovups 0x13ec(%rcx), %ymm20
vmovups 0x1870(%rcx), %ymm21
vmovups 0x1cf4(%rcx), %ymm22
vmovups 0x2178(%rcx), %ymm24
vfmadd231ps %ymm19, %ymm0, %ymm4 # ymm4 = (ymm0 * ymm19) + ymm4
vmulps %ymm24, %ymm17, %ymm17
vmulps %ymm24, %ymm18, %ymm18
vmulps %ymm24, %ymm23, %ymm19
vmulps %ymm24, %ymm5, %ymm5
vfmadd231ps %ymm12, %ymm22, %ymm17 # ymm17 = (ymm22 * ymm12) + ymm17
vfmadd231ps %ymm15, %ymm22, %ymm18 # ymm18 = (ymm22 * ymm15) + ymm18
vfmadd231ps %ymm16, %ymm22, %ymm19 # ymm19 = (ymm22 * ymm16) + ymm19
vfmadd231ps %ymm14, %ymm22, %ymm5 # ymm5 = (ymm22 * ymm14) + ymm5
vfmadd231ps %ymm13, %ymm21, %ymm17 # ymm17 = (ymm21 * ymm13) + ymm17
vfmadd231ps %ymm11, %ymm21, %ymm18 # ymm18 = (ymm21 * ymm11) + ymm18
vfmadd231ps %ymm9, %ymm21, %ymm19 # ymm19 = (ymm21 * ymm9) + ymm19
vfmadd231ps %ymm10, %ymm21, %ymm5 # ymm5 = (ymm21 * ymm10) + ymm5
vfmadd231ps %ymm6, %ymm20, %ymm17 # ymm17 = (ymm20 * ymm6) + ymm17
vfmadd231ps %ymm7, %ymm20, %ymm18 # ymm18 = (ymm20 * ymm7) + ymm18
vfmadd231ps %ymm8, %ymm20, %ymm19 # ymm19 = (ymm20 * ymm8) + ymm19
vbroadcastss 0x909ec(%rip), %ymm6 # 0x1f214d0
vfmadd231ps %ymm0, %ymm20, %ymm5 # ymm5 = (ymm20 * ymm0) + ymm5
vmulps %ymm6, %ymm17, %ymm0
vmulps %ymm6, %ymm18, %ymm7
vmulps %ymm6, %ymm19, %ymm8
vmulps %ymm6, %ymm5, %ymm5
vxorps %xmm6, %xmm6, %xmm6
vblendps $0x1, %ymm6, %ymm0, %ymm9 # ymm9 = ymm6[0],ymm0[1,2,3,4,5,6,7]
vblendps $0x1, %ymm6, %ymm7, %ymm10 # ymm10 = ymm6[0],ymm7[1,2,3,4,5,6,7]
vblendps $0x1, %ymm6, %ymm8, %ymm11 # ymm11 = ymm6[0],ymm8[1,2,3,4,5,6,7]
vblendps $0x1, %ymm6, %ymm5, %ymm12 # ymm12 = ymm6[0],ymm5[1,2,3,4,5,6,7]
vsubps %ymm9, %ymm1, %ymm9
vsubps %ymm10, %ymm2, %ymm10
vsubps %ymm11, %ymm3, %ymm11
vsubps %ymm12, %ymm4, %ymm12
vblendps $0x80, %ymm6, %ymm0, %ymm0 # ymm0 = ymm0[0,1,2,3,4,5,6],ymm6[7]
vblendps $0x80, %ymm6, %ymm7, %ymm7 # ymm7 = ymm7[0,1,2,3,4,5,6],ymm6[7]
vblendps $0x80, %ymm6, %ymm8, %ymm8 # ymm8 = ymm8[0,1,2,3,4,5,6],ymm6[7]
vblendps $0x80, %ymm6, %ymm5, %ymm5 # ymm5 = ymm5[0,1,2,3,4,5,6],ymm6[7]
vaddps %ymm0, %ymm1, %ymm0
vaddps %ymm7, %ymm2, %ymm6
vaddps %ymm3, %ymm8, %ymm7
vaddps %ymm5, %ymm4, %ymm5
vbroadcastss 0x5aebf(%rip), %ymm8 # 0x1eeba20
vminps %ymm1, %ymm8, %ymm13
vminps %ymm2, %ymm8, %ymm14
vminps %ymm3, %ymm8, %ymm15
vminps %ymm4, %ymm8, %ymm8
vminps %ymm0, %ymm9, %ymm16
vminps %ymm16, %ymm13, %ymm13
vminps %ymm6, %ymm10, %ymm16
vminps %ymm16, %ymm14, %ymm14
vminps %ymm7, %ymm11, %ymm16
vminps %ymm16, %ymm15, %ymm15
vminps %ymm5, %ymm12, %ymm16
vminps %ymm16, %ymm8, %ymm8
vbroadcastss 0x5bfd9(%rip), %ymm16 # 0x1eecb84
vmaxps %ymm1, %ymm16, %ymm1
vmaxps %ymm2, %ymm16, %ymm2
vmaxps %ymm3, %ymm16, %ymm3
vmaxps %ymm4, %ymm16, %ymm4
vmaxps %ymm0, %ymm9, %ymm0
vmaxps %ymm0, %ymm1, %ymm0
vmaxps %ymm6, %ymm10, %ymm1
vmaxps %ymm1, %ymm2, %ymm1
vmaxps %ymm7, %ymm11, %ymm2
vmaxps %ymm2, %ymm3, %ymm2
vmaxps %ymm5, %ymm12, %ymm3
vmaxps %ymm3, %ymm4, %ymm3
vshufps $0xb1, %ymm13, %ymm13, %ymm4 # ymm4 = ymm13[1,0,3,2,5,4,7,6]
vminps %ymm4, %ymm13, %ymm4
vshufpd $0x5, %ymm4, %ymm4, %ymm5 # ymm5 = ymm4[1,0,3,2]
vminps %ymm5, %ymm4, %ymm4
vextractf128 $0x1, %ymm4, %xmm5
vminps %xmm5, %xmm4, %xmm4
vshufps $0xb1, %ymm14, %ymm14, %ymm5 # ymm5 = ymm14[1,0,3,2,5,4,7,6]
vminps %ymm5, %ymm14, %ymm5
vshufpd $0x5, %ymm5, %ymm5, %ymm6 # ymm6 = ymm5[1,0,3,2]
vminps %ymm6, %ymm5, %ymm5
vextractf128 $0x1, %ymm5, %xmm6
vminps %xmm6, %xmm5, %xmm5
vunpcklps %xmm5, %xmm4, %xmm4 # xmm4 = xmm4[0],xmm5[0],xmm4[1],xmm5[1]
vshufps $0xb1, %ymm15, %ymm15, %ymm5 # ymm5 = ymm15[1,0,3,2,5,4,7,6]
vminps %ymm5, %ymm15, %ymm5
vshufpd $0x5, %ymm5, %ymm5, %ymm6 # ymm6 = ymm5[1,0,3,2]
vminps %ymm6, %ymm5, %ymm5
vextractf128 $0x1, %ymm5, %xmm6
vminps %xmm6, %xmm5, %xmm5
vinsertps $0x28, %xmm5, %xmm4, %xmm4 # xmm4 = xmm4[0,1],xmm5[0],zero
vshufps $0xb1, %ymm0, %ymm0, %ymm5 # ymm5 = ymm0[1,0,3,2,5,4,7,6]
vmaxps %ymm5, %ymm0, %ymm0
vshufpd $0x5, %ymm0, %ymm0, %ymm5 # ymm5 = ymm0[1,0,3,2]
vmaxps %ymm5, %ymm0, %ymm0
vextractf128 $0x1, %ymm0, %xmm5
vmaxps %xmm5, %xmm0, %xmm0
vshufps $0xb1, %ymm1, %ymm1, %ymm5 # ymm5 = ymm1[1,0,3,2,5,4,7,6]
vmaxps %ymm5, %ymm1, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm5 # ymm5 = ymm1[1,0,3,2]
vmaxps %ymm5, %ymm1, %ymm1
vextractf128 $0x1, %ymm1, %xmm5
vmaxps %xmm5, %xmm1, %xmm1
vunpcklps %xmm1, %xmm0, %xmm0 # xmm0 = xmm0[0],xmm1[0],xmm0[1],xmm1[1]
vshufps $0xb1, %ymm2, %ymm2, %ymm1 # ymm1 = ymm2[1,0,3,2,5,4,7,6]
vmaxps %ymm1, %ymm2, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vmaxps %ymm2, %ymm1, %ymm1
vextractf128 $0x1, %ymm1, %xmm2
vmaxps %xmm2, %xmm1, %xmm1
vinsertps $0x28, %xmm1, %xmm0, %xmm0 # xmm0 = xmm0[0,1],xmm1[0],zero
vshufps $0xb1, %ymm8, %ymm8, %ymm1 # ymm1 = ymm8[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm8, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vextractf128 $0x1, %ymm1, %xmm2
vminss %xmm2, %xmm1, %xmm1
vshufps $0xb1, %ymm3, %ymm3, %ymm2 # ymm2 = ymm3[1,0,3,2,5,4,7,6]
vmaxps %ymm2, %ymm3, %ymm2
vshufpd $0x5, %ymm2, %ymm2, %ymm3 # ymm3 = ymm2[1,0,3,2]
vmaxps %ymm3, %ymm2, %ymm2
vextractf128 $0x1, %ymm2, %xmm3
vmaxss %xmm3, %xmm2, %xmm2
vbroadcastss 0x901e0(%rip), %xmm3 # 0x1f20ec4
vandps %xmm3, %xmm1, %xmm1
vandps %xmm3, %xmm2, %xmm2
vmaxss %xmm1, %xmm2, %xmm1
vbroadcastss %xmm1, %xmm1
vsubps %xmm1, %xmm4, %xmm2
vaddps %xmm1, %xmm0, %xmm0
vandps %xmm3, %xmm2, %xmm1
vandps %xmm3, %xmm0, %xmm3
vmaxps %xmm3, %xmm1, %xmm1
vmovshdup %xmm1, %xmm3 # xmm3 = xmm1[1,1,3,3]
vmaxss %xmm1, %xmm3, %xmm3
vshufpd $0x1, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[1,0]
vmaxss %xmm3, %xmm1, %xmm1
vmulss 0x602c2(%rip), %xmm1, %xmm1 # 0x1ef0fe4
vbroadcastss %xmm1, %xmm1
vsubps %xmm1, %xmm2, %xmm2
vaddps %xmm1, %xmm0, %xmm0
vmovaps %xmm2, (%rax)
vmovaps %xmm0, 0x10(%rax)
popq %rbx
popq %r14
popq %r15
vzeroupper
retq
nop
|
/embree[P]embree/kernels/common/scene_curves.cpp
|
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)0, embree::avx512::HermiteCurveGeometryInterface, embree::HermiteCurveT>::createPrimRefArrayMB(embree::PrimRef*, embree::BBox<float> const&, embree::range<unsigned long> const&, unsigned long, unsigned int) const
|
PrimInfo createPrimRefArrayMB(PrimRef* prims, const BBox1f& time_range, const range<size_t>& r, size_t k, unsigned int geomID) const
{
PrimInfo pinfo(empty);
const BBox1f t0t1 = BBox1f::intersect(this->time_range, time_range);
if (t0t1.empty()) return pinfo;
for (size_t j=r.begin(); j<r.end(); j++)
{
if (!valid(ctype, j, this->timeSegmentRange(t0t1))) continue;
const LBBox3fa lbounds = linearBounds(j,t0t1);
if (lbounds.bounds0.empty() || lbounds.bounds1.empty()) continue; // checks oriented curves with invalid normals which cause NaNs here
const PrimRef prim(lbounds.bounds(),geomID,unsigned(j));
pinfo.add_primref(prim);
prims[k++] = prim;
}
return pinfo;
}
|
pushq %rbp
pushq %r15
pushq %r14
pushq %r13
pushq %r12
pushq %rbx
subq $0x1c8, %rsp # imm = 0x1C8
movq %rdi, %rax
vbroadcastss 0x5a451(%rip), %xmm0 # 0x1eeba20
vmovaps %xmm0, (%rdi)
vbroadcastss 0x5b5a8(%rip), %xmm1 # 0x1eecb84
vmovaps %xmm1, 0x10(%rdi)
movq %rdx, 0xc8(%rsp)
vmovaps %xmm0, 0x20(%rdi)
vmovaps %xmm1, 0x30(%rdi)
vxorps %xmm0, %xmm0, %xmm0
vmovaps %xmm0, 0x40(%rdi)
vmovsd 0x2c(%rsi), %xmm0
vmovsd (%rcx), %xmm1
vcmpltps %xmm1, %xmm0, %k1
vinsertps $0x50, %xmm0, %xmm1, %xmm2 # xmm2 = xmm1[0],xmm0[1],xmm1[2,3]
vinsertps $0x50, %xmm1, %xmm0, %xmm4 # xmm4 = xmm0[0],xmm1[1],xmm0[2,3]
vmovaps %xmm2, %xmm4 {%k1}
vmovshdup %xmm4, %xmm5 # xmm5 = xmm4[1,1,3,3]
vucomiss %xmm5, %xmm4
ja 0x1e91d32
movq %r8, %r13
movq %r9, 0x38(%rsp)
vmovaps (%rax), %xmm0
vmovaps %xmm0, 0x90(%rsp)
vmovaps 0x10(%rax), %xmm0
vmovaps %xmm0, 0x80(%rsp)
vmovaps 0x20(%rax), %xmm0
vmovaps %xmm0, 0x70(%rsp)
movq (%r8), %r14
vmovaps 0x30(%rax), %xmm0
vmovaps %xmm0, 0x60(%rsp)
movq %rax, 0xc0(%rsp)
movq 0x48(%rax), %rax
movq %rax, 0x30(%rsp)
cmpq 0x8(%r8), %r14
jae 0x1e91cf0
vmovss 0x5f2b5(%rip), %xmm6 # 0x1ef0940
vxorps %xmm7, %xmm7, %xmm7
vmovss 0x5f2ad(%rip), %xmm8 # 0x1ef0944
leaq 0xe0(%rsp), %rbp
vbroadcastss 0x8fd54(%rip), %xmm9 # 0x1f213fc
vbroadcastss 0x5f92f(%rip), %xmm10 # 0x1ef0fe0
movq %r13, 0xd0(%rsp)
vmovaps %xmm4, 0x140(%rsp)
vmovaps %xmm5, 0x130(%rsp)
movq %rsi, 0x10(%rsp)
vmovsd 0x2c(%rsi), %xmm0
vmovshdup %xmm0, %xmm1 # xmm1 = xmm0[1,1,3,3]
vsubss %xmm0, %xmm1, %xmm1
vsubss %xmm0, %xmm4, %xmm2
vdivss %xmm1, %xmm2, %xmm2
vsubss %xmm0, %xmm5, %xmm0
vdivss %xmm1, %xmm0, %xmm0
vmulss %xmm6, %xmm2, %xmm1
vmulss %xmm0, %xmm8, %xmm0
movq 0x58(%rsi), %rax
movq 0x68(%rsi), %rcx
imulq %r14, %rcx
movl (%rax,%rcx), %eax
leal 0x1(%rax), %ecx
movq 0x188(%rsi), %rdx
cmpq %rcx, 0x18(%rdx)
jbe 0x1e91ce3
vmovss 0x28(%rsi), %xmm3
vmulss %xmm1, %xmm3, %xmm1
vroundss $0x9, %xmm1, %xmm1, %xmm1
vmaxss %xmm1, %xmm7, %xmm1
vcvttss2si %xmm1, %edi
vmulss %xmm0, %xmm3, %xmm0
vroundss $0xa, %xmm0, %xmm0, %xmm0
vminss %xmm3, %xmm0, %xmm0
vcvttss2si %xmm0, %r9d
cmpl %r9d, %edi
seta %sil
ja 0x1e91867
movslq %edi, %rdi
imulq $0x38, %rdi, %r8
movq (%rdx,%r8), %r11
movq 0x10(%rdx,%r8), %rbx
movq %rbx, %r10
imulq %rax, %r10
vmovaps (%r11,%r10), %xmm0
vcmpnleps %xmm9, %xmm0, %k1
vcmpltps %xmm10, %xmm0, %k0 {%k1}
kmovd %k0, %r10d
cmpb $0xf, %r10b
jne 0x1e9185d
movslq %r9d, %r9
movq 0x10(%rsp), %r10
movq 0x1c8(%r10), %r10
imulq %rcx, %rbx
vmovaps (%r11,%rbx), %xmm0
vcmpnleps %xmm9, %xmm0, %k1
vcmpltps %xmm10, %xmm0, %k0 {%k1}
kmovd %k0, %r11d
cmpb $0xf, %r11b
jne 0x1e9185d
movq %rbp, %r12
movq (%r10,%r8), %r11
movq 0x10(%r10,%r8), %rbx
movq %rbx, %r15
imulq %rax, %r15
vmovaps (%r11,%r15), %xmm0
vcmpnleps %xmm9, %xmm0, %k1
vcmpltps %xmm10, %xmm0, %k0 {%k1}
kmovd %k0, %ebp
cmpb $0xf, %bpl
jne 0x1e9185a
imulq %rcx, %rbx
vmovaps (%r11,%rbx), %xmm0
vcmpnleps %xmm9, %xmm0, %k1
vcmpltps %xmm10, %xmm0, %k0 {%k1}
kmovd %k0, %r11d
cmpb $0xf, %r11b
movq %r12, %rbp
jne 0x1e9185d
incq %rdi
cmpq %r9, %rdi
seta %sil
ja 0x1e91867
movq 0x38(%rdx,%r8), %r11
movq 0x48(%rdx,%r8), %rbx
addq $0x38, %r8
movq %rbx, %r15
imulq %rax, %r15
vmovaps (%r11,%r15), %xmm0
vcmpnleps %xmm9, %xmm0, %k1
vcmpltps %xmm10, %xmm0, %k0 {%k1}
kmovd %k0, %ebp
cmpb $0xf, %bpl
movq %r12, %rbp
je 0x1e91796
jmp 0x1e9185d
movq %r12, %rbp
testb $0x1, %sil
je 0x1e91cde
movq %r14, 0xd8(%rsp)
leaq 0xd8(%rsp), %rax
movq %rax, 0xe0(%rsp)
movq 0x10(%rsp), %rax
movq %rax, 0xe8(%rsp)
vmovss 0x2c(%rax), %xmm0
vmovss 0x30(%rax), %xmm1
vsubss %xmm0, %xmm4, %xmm2
vsubss %xmm0, %xmm1, %xmm1
vdivss %xmm1, %xmm2, %xmm2
vsubss %xmm0, %xmm5, %xmm0
vdivss %xmm1, %xmm0, %xmm0
vmovss %xmm2, 0xc(%rsp)
vmulss %xmm2, %xmm3, %xmm2
vmovss %xmm2, 0x20(%rsp)
vmovss %xmm0, 0xa0(%rsp)
vmulss %xmm0, %xmm3, %xmm1
vroundss $0x9, %xmm2, %xmm2, %xmm0
vmovss %xmm1, 0x50(%rsp)
vroundss $0xa, %xmm1, %xmm1, %xmm1
vmaxss %xmm7, %xmm0, %xmm4
vmovss %xmm4, 0xb0(%rsp)
vminss %xmm3, %xmm1, %xmm2
movq %rbp, %r12
vcvttss2si %xmm4, %ebp
vmovss %xmm2, 0x40(%rsp)
vcvttss2si %xmm2, %r13d
vcvttss2si %xmm0, %ebx
testl %ebx, %ebx
movl $0xffffffff, %eax # imm = 0xFFFFFFFF
cmovsl %eax, %ebx
vcvttss2si %xmm1, %eax
vmovss %xmm3, 0x1c(%rsp)
vcvttss2si %xmm3, %r15d
incl %r15d
cmpl %r15d, %eax
cmovll %eax, %r15d
movslq %ebp, %rdx
leaq 0x110(%rsp), %rdi
movq %r12, %rsi
callq 0x1e94a32
movslq %r13d, %rdx
leaq 0xf0(%rsp), %rdi
movq %r12, %rsi
callq 0x1e94a32
movl %r15d, %eax
subl %ebx, %eax
vmovss 0x20(%rsp), %xmm0
vsubss 0xb0(%rsp), %xmm0, %xmm0
cmpl $0x1, %eax
jne 0x1e919f0
vxorps %xmm7, %xmm7, %xmm7
vmaxss %xmm7, %xmm0, %xmm0
vmovss 0x5ada0(%rip), %xmm6 # 0x1eec714
vsubss %xmm0, %xmm6, %xmm1
vbroadcastss %xmm0, %xmm0
vmovaps 0xf0(%rsp), %xmm2
vmovaps 0x100(%rsp), %xmm3
vmulps %xmm2, %xmm0, %xmm11
vbroadcastss %xmm1, %xmm1
vmovaps 0x110(%rsp), %xmm4
vmovaps 0x120(%rsp), %xmm5
vfmadd231ps %xmm4, %xmm1, %xmm11 # xmm11 = (xmm1 * xmm4) + xmm11
vmulps %xmm3, %xmm0, %xmm12
vfmadd231ps %xmm1, %xmm5, %xmm12 # xmm12 = (xmm5 * xmm1) + xmm12
vmovss 0x40(%rsp), %xmm0
vsubss 0x50(%rsp), %xmm0, %xmm0
vmaxss %xmm7, %xmm0, %xmm0
vsubss %xmm0, %xmm6, %xmm1
vbroadcastss %xmm0, %xmm0
vmulps %xmm4, %xmm0, %xmm13
vbroadcastss %xmm1, %xmm1
vfmadd231ps %xmm2, %xmm1, %xmm13 # xmm13 = (xmm1 * xmm2) + xmm13
vmulps %xmm5, %xmm0, %xmm14
vfmadd231ps %xmm3, %xmm1, %xmm14 # xmm14 = (xmm1 * xmm3) + xmm14
movq %r12, %rbp
jmp 0x1e91bcf
incl %ebp
movslq %ebp, %rdx
leaq 0x1a0(%rsp), %rdi
movq %r12, %rsi
vmovss %xmm0, 0x20(%rsp)
callq 0x1e94a32
decl %r13d
movslq %r13d, %rdx
leaq 0x180(%rsp), %rdi
movq %r12, %rsi
callq 0x1e94a32
vxorps %xmm3, %xmm3, %xmm3
vmovss 0x20(%rsp), %xmm0
vmaxss %xmm3, %xmm0, %xmm0
vbroadcastss %xmm0, %xmm1
vmulps 0x1a0(%rsp), %xmm1, %xmm11
vmovss 0x5accf(%rip), %xmm2 # 0x1eec714
vsubss %xmm0, %xmm2, %xmm0
vbroadcastss %xmm0, %xmm0
vfmadd231ps 0x110(%rsp), %xmm0, %xmm11 # xmm11 = (xmm0 * mem) + xmm11
vmulps 0x1b0(%rsp), %xmm1, %xmm12
vfmadd231ps 0x120(%rsp), %xmm0, %xmm12 # xmm12 = (xmm0 * mem) + xmm12
vmovss 0x40(%rsp), %xmm0
vsubss 0x50(%rsp), %xmm0, %xmm0
vmaxss %xmm3, %xmm0, %xmm0
vsubss %xmm0, %xmm2, %xmm1
vbroadcastss %xmm0, %xmm0
vmulps 0x180(%rsp), %xmm0, %xmm13
vbroadcastss %xmm1, %xmm1
vfmadd231ps 0xf0(%rsp), %xmm1, %xmm13 # xmm13 = (xmm1 * mem) + xmm13
vmulps 0x190(%rsp), %xmm0, %xmm14
vfmadd231ps 0x100(%rsp), %xmm1, %xmm14 # xmm14 = (xmm1 * mem) + xmm14
leal 0x1(%rbx), %eax
cmpl %r15d, %eax
movq %r12, %rbp
jge 0x1e91bcb
vmovss 0xc(%rsp), %xmm1
vmovss 0xa0(%rsp), %xmm0
vsubss %xmm1, %xmm0, %xmm0
vmovss %xmm0, 0x18(%rsp)
movl %eax, %r13d
notl %ebx
addl %r15d, %ebx
leaq 0x160(%rsp), %r15
vmovaps %xmm14, 0xb0(%rsp)
vmovaps %xmm13, 0x20(%rsp)
vmovaps %xmm12, 0x40(%rsp)
vmovaps %xmm11, 0x50(%rsp)
vcvtsi2ss %r13d, %xmm5, %xmm0
vdivss 0x1c(%rsp), %xmm0, %xmm0
vsubss %xmm1, %xmm0, %xmm0
vdivss 0x18(%rsp), %xmm0, %xmm0
vsubss %xmm0, %xmm2, %xmm1
vbroadcastss %xmm0, %xmm0
vmulps %xmm0, %xmm13, %xmm2
vbroadcastss %xmm1, %xmm1
vfmadd231ps %xmm11, %xmm1, %xmm2 # xmm2 = (xmm1 * xmm11) + xmm2
vmovaps %xmm2, 0xa0(%rsp)
vmulps %xmm0, %xmm14, %xmm0
vfmadd231ps %xmm1, %xmm12, %xmm0 # xmm0 = (xmm12 * xmm1) + xmm0
vmovaps %xmm0, 0x150(%rsp)
movq %r15, %rdi
movq %rbp, %rsi
movq %r13, %rdx
callq 0x1e94a32
vmovaps 0xb0(%rsp), %xmm14
vmovaps 0x20(%rsp), %xmm13
vmovaps 0x40(%rsp), %xmm12
vmovaps 0x50(%rsp), %xmm11
vxorps %xmm3, %xmm3, %xmm3
vmovss 0x5ab96(%rip), %xmm2 # 0x1eec714
vmovaps 0x160(%rsp), %xmm0
vsubps 0xa0(%rsp), %xmm0, %xmm0
vmovaps 0x170(%rsp), %xmm1
vsubps 0x150(%rsp), %xmm1, %xmm1
vminps %xmm3, %xmm0, %xmm0
vmaxps %xmm3, %xmm1, %xmm1
vaddps %xmm0, %xmm11, %xmm11
vaddps %xmm0, %xmm13, %xmm13
vaddps %xmm1, %xmm12, %xmm12
vaddps %xmm1, %xmm14, %xmm14
vmovss 0xc(%rsp), %xmm1
incq %r13
decl %ebx
jne 0x1e91ae7
vxorps %xmm7, %xmm7, %xmm7
vcmpleps %xmm12, %xmm11, %k0
knotw %k0, %k0
kmovd %k0, %eax
testb $0x7, %al
movq 0xd0(%rsp), %r13
vmovaps 0x140(%rsp), %xmm4
vmovaps 0x130(%rsp), %xmm5
vmovss 0x5ed3e(%rip), %xmm6 # 0x1ef0940
vmovss 0x5ed3a(%rip), %xmm8 # 0x1ef0944
movq 0x10(%rsp), %rsi
vbroadcastss 0x8f7e4(%rip), %xmm9 # 0x1f213fc
vbroadcastss 0x5f3bf(%rip), %xmm10 # 0x1ef0fe0
jne 0x1e91ce3
vcmpleps %xmm14, %xmm13, %k0
knotw %k0, %k0
kmovd %k0, %eax
testb $0x7, %al
jne 0x1e91ce3
vminps %xmm13, %xmm11, %xmm0
vmovss 0x200(%rsp), %xmm1
vinsertps $0x30, %xmm1, %xmm0, %xmm0 # xmm0 = xmm0[0,1,2],xmm1[0]
vmaxps %xmm14, %xmm12, %xmm1
vmovd %r14d, %xmm2
vinsertps $0x30, %xmm2, %xmm1, %xmm1 # xmm1 = xmm1[0,1,2],xmm2[0]
vaddps %xmm1, %xmm0, %xmm2
vmovaps 0x90(%rsp), %xmm3
vminps %xmm0, %xmm3, %xmm3
vmovaps %xmm3, 0x90(%rsp)
vmovaps 0x80(%rsp), %xmm3
vmaxps %xmm1, %xmm3, %xmm3
vmovaps %xmm3, 0x80(%rsp)
vmovaps 0x70(%rsp), %xmm3
vminps %xmm2, %xmm3, %xmm3
vmovaps %xmm3, 0x70(%rsp)
vmovaps 0x60(%rsp), %xmm3
vmaxps %xmm2, %xmm3, %xmm3
vmovaps %xmm3, 0x60(%rsp)
incq 0x30(%rsp)
movq 0x38(%rsp), %rdx
leaq 0x1(%rdx), %rax
shlq $0x5, %rdx
movq 0xc8(%rsp), %rcx
vmovaps %xmm0, (%rcx,%rdx)
vmovaps %xmm1, 0x10(%rcx,%rdx)
movq %rax, 0x38(%rsp)
jmp 0x1e91ce3
movq 0x10(%rsp), %rsi
incq %r14
cmpq 0x8(%r13), %r14
jb 0x1e916d0
movq 0xc0(%rsp), %rax
vmovaps 0x90(%rsp), %xmm0
vmovaps %xmm0, (%rax)
vmovaps 0x80(%rsp), %xmm0
vmovaps %xmm0, 0x10(%rax)
vmovaps 0x70(%rsp), %xmm0
vmovaps %xmm0, 0x20(%rax)
vmovaps 0x60(%rsp), %xmm0
vmovaps %xmm0, 0x30(%rax)
movq 0x30(%rsp), %rcx
movq %rcx, 0x48(%rax)
addq $0x1c8, %rsp # imm = 0x1C8
popq %rbx
popq %r12
popq %r13
popq %r14
popq %r15
popq %rbp
retq
|
/embree[P]embree/kernels/common/scene_curves.cpp
|
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)0, embree::avx512::HermiteCurveGeometryInterface, embree::HermiteCurveT>::computeAlignedSpace(unsigned long) const
|
LinearSpace3fa computeAlignedSpace(const size_t primID) const
{
Vec3fa axisz(0,0,1);
Vec3fa axisy(0,1,0);
const Curve3ff curve = getCurveScaledRadius(primID);
const Vec3fa p0 = curve.begin();
const Vec3fa p3 = curve.end();
const Vec3fa d0 = curve.eval_du(0.0f);
//const Vec3fa d1 = curve.eval_du(1.0f);
const Vec3fa axisz_ = normalize(p3 - p0);
const Vec3fa axisy_ = cross(axisz_,d0);
if (sqr_length(p3-p0) > 1E-18f) {
axisz = axisz_;
axisy = axisy_;
}
if (sqr_length(axisy) > 1E-18) {
axisy = normalize(axisy);
Vec3fa axisx = normalize(cross(axisy,axisz));
return LinearSpace3fa(axisx,axisy,axisz);
}
return frame(axisz);
}
|
movq %rdi, %rax
imulq 0x68(%rsi), %rdx
movq 0x58(%rsi), %rcx
movq 0x188(%rsi), %rdi
movl (%rcx,%rdx), %ecx
movq (%rdi), %r8
movq 0x10(%rdi), %r9
movq %r9, %r10
imulq %rcx, %r10
vmovaps (%r8,%r10), %xmm0
leal 0x1(%rcx), %r11d
imulq %r11, %r9
vmovaps (%r8,%r9), %xmm2
movq 0x1c8(%rsi), %rdi
movq 0x10(%rdi), %rdx
imulq %rdx, %rcx
imulq %r11, %rdx
vmovss 0x24c(%rsi), %xmm4
vmulss 0xc(%r8,%r10), %xmm4, %xmm1
vinsertps $0x30, %xmm1, %xmm0, %xmm1 # xmm1 = xmm0[0,1,2],xmm1[0]
vmulss 0xc(%r8,%r9), %xmm4, %xmm0
vinsertps $0x30, %xmm0, %xmm2, %xmm3 # xmm3 = xmm2[0,1,2],xmm0[0]
vxorps %xmm2, %xmm2, %xmm2
vsubps %xmm1, %xmm3, %xmm0
vdpps $0x7f, %xmm0, %xmm0, %xmm5
vmovss %xmm5, %xmm2, %xmm6 # xmm6 = xmm5[0],xmm2[1,2,3]
vrsqrt14ss %xmm6, %xmm2, %xmm6
vmulss 0x5a09f(%rip), %xmm6, %xmm7 # 0x1eec718
vmulss 0x5a09b(%rip), %xmm5, %xmm8 # 0x1eec71c
vmulss %xmm6, %xmm8, %xmm8
vmulss %xmm6, %xmm6, %xmm6
vmulss %xmm6, %xmm8, %xmm6
vaddss %xmm6, %xmm7, %xmm6
vbroadcastss %xmm6, %xmm6
vmulps %xmm6, %xmm0, %xmm0
vucomiss 0x5e946(%rip), %xmm5 # 0x1ef0fe8
ja 0x1e926b0
vmovsd 0x5a044(%rip), %xmm1 # 0x1eec6f0
jbe 0x1e9271e
jmp 0x1e92726
movq (%rdi), %rsi
vmovaps (%rsi,%rcx), %xmm5
vmovaps (%rsi,%rdx), %xmm6
vmulss 0xc(%rsi,%rcx), %xmm4, %xmm7
vinsertps $0x30, %xmm7, %xmm5, %xmm5 # xmm5 = xmm5[0,1,2],xmm7[0]
vmulss 0xc(%rsi,%rdx), %xmm4, %xmm4
vinsertps $0x30, %xmm4, %xmm6, %xmm4 # xmm4 = xmm6[0,1,2],xmm4[0]
vbroadcastss 0xcad8e(%rip), %xmm6 # 0x1f5d46c
vfnmadd213ps %xmm1, %xmm6, %xmm5 # xmm5 = -(xmm6 * xmm5) + xmm1
vfmadd213ps %xmm3, %xmm6, %xmm4 # xmm4 = (xmm6 * xmm4) + xmm3
vmulps %xmm2, %xmm3, %xmm3
vfmadd231ps %xmm4, %xmm2, %xmm3 # xmm3 = (xmm2 * xmm4) + xmm3
vbroadcastss 0x5e8f6(%rip), %xmm2 # 0x1ef0ff0
vfnmadd231ps %xmm5, %xmm2, %xmm3 # xmm3 = -(xmm2 * xmm5) + xmm3
vfmadd231ps %xmm2, %xmm1, %xmm3 # xmm3 = (xmm1 * xmm2) + xmm3
vshufps $0xc9, %xmm3, %xmm3, %xmm1 # xmm1 = xmm3[1,2,0,3]
vshufps $0xc9, %xmm0, %xmm0, %xmm2 # xmm2 = xmm0[1,2,0,3]
vmulps %xmm2, %xmm3, %xmm2
vfmsub231ps %xmm1, %xmm0, %xmm2 # xmm2 = (xmm0 * xmm1) - xmm2
vshufps $0xc9, %xmm2, %xmm2, %xmm1 # xmm1 = xmm2[1,2,0,3]
ja 0x1e92726
vmovaps 0x59fda(%rip), %xmm0 # 0x1eec700
vdpps $0x7f, %xmm1, %xmm1, %xmm2
vcvtss2sd %xmm2, %xmm2, %xmm3
vucomisd 0x5e8d8(%rip), %xmm3 # 0x1ef1010
jbe 0x1e927cb
vxorps %xmm3, %xmm3, %xmm3
vmovss %xmm2, %xmm3, %xmm4 # xmm4 = xmm2[0],xmm3[1,2,3]
vrsqrt14ss %xmm4, %xmm3, %xmm4
vmovss 0x59fc4(%rip), %xmm5 # 0x1eec718
vmulss %xmm5, %xmm4, %xmm6
vmovss 0x5a420(%rip), %xmm7 # 0x1eecb80
vmulss %xmm7, %xmm2, %xmm2
vmulss %xmm4, %xmm2, %xmm2
vmulss %xmm4, %xmm4, %xmm4
vmulss %xmm4, %xmm2, %xmm2
vsubss %xmm2, %xmm6, %xmm2
vbroadcastss %xmm2, %xmm2
vmulps %xmm2, %xmm1, %xmm1
vshufps $0xc9, %xmm0, %xmm0, %xmm2 # xmm2 = xmm0[1,2,0,3]
vshufps $0xc9, %xmm1, %xmm1, %xmm4 # xmm4 = xmm1[1,2,0,3]
vmulps %xmm4, %xmm0, %xmm4
vfmsub231ps %xmm2, %xmm1, %xmm4 # xmm4 = (xmm1 * xmm2) - xmm4
vshufps $0xc9, %xmm4, %xmm4, %xmm2 # xmm2 = xmm4[1,2,0,3]
vdpps $0x7f, %xmm2, %xmm2, %xmm4
vmovss %xmm4, %xmm3, %xmm6 # xmm6 = xmm4[0],xmm3[1,2,3]
vrsqrt14ss %xmm6, %xmm3, %xmm3
vmulss %xmm5, %xmm3, %xmm5
vmulss %xmm7, %xmm4, %xmm4
vmulss %xmm3, %xmm4, %xmm4
vmulss %xmm3, %xmm3, %xmm3
vmulss %xmm3, %xmm4, %xmm3
vsubss %xmm3, %xmm5, %xmm3
vbroadcastss %xmm3, %xmm3
vmulps %xmm2, %xmm3, %xmm2
jmp 0x1e928ba
vshufpd $0x1, %xmm0, %xmm0, %xmm1 # xmm1 = xmm0[1,0]
vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3]
vbroadcastss 0x8e6e3(%rip), %xmm3 # 0x1f20ec0
vxorps %xmm3, %xmm2, %xmm2
vxorps %xmm4, %xmm4, %xmm4
vunpckhps %xmm4, %xmm0, %xmm5 # xmm5 = xmm0[2],xmm4[2],xmm0[3],xmm4[3]
vmovss %xmm2, %xmm4, %xmm2 # xmm2 = xmm2[0],xmm4[1,2,3]
vshufps $0x41, %xmm2, %xmm5, %xmm2 # xmm2 = xmm5[1,0],xmm2[0,1]
vdpps $0x7f, %xmm2, %xmm2, %xmm5
vxorpd %xmm3, %xmm1, %xmm1
vinsertps $0x2a, %xmm0, %xmm1, %xmm1 # xmm1 = xmm1[0],zero,xmm0[0],zero
vdpps $0x7f, %xmm1, %xmm1, %xmm3
vcmpltps %xmm5, %xmm3, %k0
vpmovm2d %k0, %xmm3
vpbroadcastd %xmm3, %xmm3
vpmovd2m %xmm3, %k1
vpcmpeqd %xmm3, %xmm3, %xmm3
vmovaps %xmm3, %xmm3 {%k1} {z}
vblendvps %xmm3, %xmm2, %xmm1, %xmm1
vdpps $0x7f, %xmm1, %xmm1, %xmm2
vmovss %xmm2, %xmm4, %xmm3 # xmm3 = xmm2[0],xmm4[1,2,3]
vrsqrt14ss %xmm3, %xmm4, %xmm3
vmovss 0x59ed0(%rip), %xmm5 # 0x1eec718
vmulss %xmm5, %xmm3, %xmm6
vmovss 0x5a32c(%rip), %xmm7 # 0x1eecb80
vmulss %xmm7, %xmm2, %xmm2
vmulss %xmm3, %xmm2, %xmm2
vmulss %xmm3, %xmm3, %xmm3
vmulss %xmm3, %xmm2, %xmm2
vsubss %xmm2, %xmm6, %xmm2
vbroadcastss %xmm2, %xmm2
vmulps %xmm2, %xmm1, %xmm2
vshufps $0xc9, %xmm2, %xmm2, %xmm1 # xmm1 = xmm2[1,2,0,3]
vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3]
vmulps %xmm3, %xmm2, %xmm3
vfmsub231ps %xmm1, %xmm0, %xmm3 # xmm3 = (xmm0 * xmm1) - xmm3
vshufps $0xc9, %xmm3, %xmm3, %xmm1 # xmm1 = xmm3[1,2,0,3]
vdpps $0x7f, %xmm1, %xmm1, %xmm3
vmovss %xmm3, %xmm4, %xmm6 # xmm6 = xmm3[0],xmm4[1,2,3]
vrsqrt14ss %xmm6, %xmm4, %xmm4
vmulss %xmm5, %xmm4, %xmm5
vmulss %xmm7, %xmm3, %xmm3
vmulss %xmm4, %xmm3, %xmm3
vmulss %xmm4, %xmm4, %xmm4
vmulss %xmm4, %xmm3, %xmm3
vsubss %xmm3, %xmm5, %xmm3
vbroadcastss %xmm3, %xmm3
vmulps %xmm1, %xmm3, %xmm1
vmovaps %xmm2, (%rax)
vmovaps %xmm1, 0x10(%rax)
vmovaps %xmm0, 0x20(%rax)
retq
nop
|
/embree[P]embree/kernels/common/scene_curves.cpp
|
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)0, embree::avx512::HermiteCurveGeometryInterface, embree::HermiteCurveT>::computeAlignedSpaceMB(unsigned long, embree::BBox<float>) const
|
LinearSpace3fa computeAlignedSpaceMB(const size_t primID, const BBox1f time_range) const
{
Vec3fa axisz(0,0,1);
Vec3fa axisy(0,1,0);
const range<int> tbounds = this->timeSegmentRange(time_range);
if (tbounds.size() == 0) return frame(axisz);
const size_t t = (tbounds.begin()+tbounds.end())/2;
const Curve3ff curve = getCurveScaledRadius(primID,t);
const Vec3fa p0 = curve.begin();
const Vec3fa p3 = curve.end();
const Vec3fa d0 = curve.eval_du(0.0f);
//const Vec3fa d1 = curve.eval_du(1.0f);
const Vec3fa axisz_ = normalize(p3 - p0);
const Vec3fa axisy_ = cross(axisz_,d0);
if (sqr_length(p3-p0) > 1E-18f) {
axisz = axisz_;
axisy = axisy_;
}
if (sqr_length(axisy) > 1E-18) {
axisy = normalize(axisy);
Vec3fa axisx = normalize(cross(axisy,axisz));
return LinearSpace3fa(axisx,axisy,axisz);
}
return frame(axisz);
}
|
pushq %rbx
movq %rdi, %rax
vmovsd 0x2c(%rsi), %xmm1
vmovss 0x28(%rsi), %xmm2
vsubss %xmm1, %xmm0, %xmm3
vmovshdup %xmm1, %xmm4 # xmm4 = xmm1[1,1,3,3]
vsubss %xmm1, %xmm4, %xmm4
vdivss %xmm4, %xmm3, %xmm3
vmovshdup %xmm0, %xmm0 # xmm0 = xmm0[1,1,3,3]
vsubss %xmm1, %xmm0, %xmm0
vdivss %xmm4, %xmm0, %xmm0
vmulss 0x5e044(%rip), %xmm3, %xmm1 # 0x1ef0940
vmulss %xmm1, %xmm2, %xmm1
vroundss $0x9, %xmm1, %xmm1, %xmm1
vxorps %xmm3, %xmm3, %xmm3
vmaxss %xmm1, %xmm3, %xmm1
vcvttss2si %xmm1, %ecx
vmulss 0x5e02a(%rip), %xmm0, %xmm0 # 0x1ef0944
vmulss %xmm0, %xmm2, %xmm0
vroundss $0xa, %xmm0, %xmm0, %xmm0
vminss %xmm2, %xmm0, %xmm0
vcvttss2si %xmm0, %edi
cmpl %ecx, %edi
jne 0x1e92a12
vmovaps 0x8eba4(%rip), %xmm0 # 0x1f214e0
vdpps $0x7f, %xmm0, %xmm0, %xmm1
vmovss 0x5e082(%rip), %xmm2 # 0x1ef09cc
vdpps $0x7f, %xmm2, %xmm2, %xmm3
vcmpltps %xmm1, %xmm3, %k0
vpmovm2d %k0, %xmm1
vpbroadcastd %xmm1, %xmm1
vpmovd2m %xmm1, %k1
vpcmpeqd %xmm1, %xmm1, %xmm1
vmovaps %xmm1, %xmm1 {%k1} {z}
vblendvps %xmm1, %xmm0, %xmm2, %xmm0
vxorps %xmm2, %xmm2, %xmm2
vdpps $0x7f, %xmm0, %xmm0, %xmm1
vmovss %xmm1, %xmm2, %xmm3 # xmm3 = xmm1[0],xmm2[1,2,3]
vrsqrt14ss %xmm3, %xmm2, %xmm3
vmovss 0x59d84(%rip), %xmm4 # 0x1eec718
vmulss %xmm4, %xmm3, %xmm5
vmovss 0x5a1e0(%rip), %xmm6 # 0x1eecb80
vmulss %xmm6, %xmm1, %xmm1
vmulss %xmm3, %xmm1, %xmm1
vmulss %xmm3, %xmm3, %xmm3
vmulss %xmm3, %xmm1, %xmm1
vsubss %xmm1, %xmm5, %xmm1
vbroadcastss %xmm1, %xmm1
vmulps %xmm1, %xmm0, %xmm1
vshufps $0xc9, %xmm1, %xmm1, %xmm3 # xmm3 = xmm1[1,2,0,3]
vmulps 0x5e5a6(%rip), %xmm1, %xmm5 # 0x1ef0f70
vmovaps 0x59d2e(%rip), %xmm0 # 0x1eec700
vfmadd231ps %xmm3, %xmm0, %xmm5 # xmm5 = (xmm0 * xmm3) + xmm5
vshufps $0xc9, %xmm5, %xmm5, %xmm3 # xmm3 = xmm5[1,2,0,3]
vdpps $0x7f, %xmm3, %xmm3, %xmm5
vmovss %xmm5, %xmm2, %xmm7 # xmm7 = xmm5[0],xmm2[1,2,3]
vrsqrt14ss %xmm7, %xmm2, %xmm2
vmulss %xmm4, %xmm2, %xmm4
vmulss %xmm6, %xmm5, %xmm5
vmulss %xmm2, %xmm5, %xmm5
vmulss %xmm2, %xmm2, %xmm2
vmulss %xmm2, %xmm5, %xmm2
vsubss %xmm2, %xmm4, %xmm2
vbroadcastss %xmm2, %xmm2
vmulps %xmm3, %xmm2, %xmm2
jmp 0x1e92cf2
addl %edi, %ecx
movl %ecx, %edi
shrl $0x1f, %edi
addl %ecx, %edi
sarl %edi
movslq %edi, %rdi
imulq 0x68(%rsi), %rdx
movq 0x58(%rsi), %rcx
movq 0x188(%rsi), %r8
movl (%rcx,%rdx), %ecx
imulq $0x38, %rdi, %rdx
movq (%r8,%rdx), %r9
movq 0x10(%r8,%rdx), %r10
movq %r10, %r11
imulq %rcx, %r11
vmovaps (%r9,%r11), %xmm0
leal 0x1(%rcx), %ebx
imulq %rbx, %r10
vmovaps (%r9,%r10), %xmm2
movq 0x1c8(%rsi), %r8
movq 0x10(%r8,%rdx), %rdi
imulq %rdi, %rcx
imulq %rbx, %rdi
vmovss 0x24c(%rsi), %xmm4
vmulss 0xc(%r9,%r11), %xmm4, %xmm1
vinsertps $0x30, %xmm1, %xmm0, %xmm1 # xmm1 = xmm0[0,1,2],xmm1[0]
vmulss 0xc(%r9,%r10), %xmm4, %xmm0
vinsertps $0x30, %xmm0, %xmm2, %xmm3 # xmm3 = xmm2[0,1,2],xmm0[0]
vxorps %xmm2, %xmm2, %xmm2
vsubps %xmm1, %xmm3, %xmm0
vdpps $0x7f, %xmm0, %xmm0, %xmm5
vmovss %xmm5, %xmm2, %xmm6 # xmm6 = xmm5[0],xmm2[1,2,3]
vrsqrt14ss %xmm6, %xmm2, %xmm6
vmulss 0x59c68(%rip), %xmm6, %xmm7 # 0x1eec718
vmulss 0x59c64(%rip), %xmm5, %xmm8 # 0x1eec71c
vmulss %xmm6, %xmm8, %xmm8
vmulss %xmm6, %xmm6, %xmm6
vmulss %xmm6, %xmm8, %xmm6
vaddss %xmm6, %xmm7, %xmm6
vbroadcastss %xmm6, %xmm6
vmulps %xmm6, %xmm0, %xmm0
vucomiss 0x5e50f(%rip), %xmm5 # 0x1ef0fe8
ja 0x1e92ae7
vmovsd 0x59c0d(%rip), %xmm1 # 0x1eec6f0
jbe 0x1e92b56
jmp 0x1e92b5e
movq (%r8,%rdx), %rdx
vmovaps (%rdx,%rcx), %xmm5
vmovaps (%rdx,%rdi), %xmm6
vmulss 0xc(%rdx,%rcx), %xmm4, %xmm7
vinsertps $0x30, %xmm7, %xmm5, %xmm5 # xmm5 = xmm5[0,1,2],xmm7[0]
vmulss 0xc(%rdx,%rdi), %xmm4, %xmm4
vinsertps $0x30, %xmm4, %xmm6, %xmm4 # xmm4 = xmm6[0,1,2],xmm4[0]
vbroadcastss 0xca956(%rip), %xmm6 # 0x1f5d46c
vfnmadd213ps %xmm1, %xmm6, %xmm5 # xmm5 = -(xmm6 * xmm5) + xmm1
vfmadd213ps %xmm3, %xmm6, %xmm4 # xmm4 = (xmm6 * xmm4) + xmm3
vmulps %xmm2, %xmm3, %xmm3
vfmadd231ps %xmm4, %xmm2, %xmm3 # xmm3 = (xmm2 * xmm4) + xmm3
vbroadcastss 0x5e4be(%rip), %xmm2 # 0x1ef0ff0
vfnmadd231ps %xmm5, %xmm2, %xmm3 # xmm3 = -(xmm2 * xmm5) + xmm3
vfmadd231ps %xmm2, %xmm1, %xmm3 # xmm3 = (xmm1 * xmm2) + xmm3
vshufps $0xc9, %xmm3, %xmm3, %xmm1 # xmm1 = xmm3[1,2,0,3]
vshufps $0xc9, %xmm0, %xmm0, %xmm2 # xmm2 = xmm0[1,2,0,3]
vmulps %xmm2, %xmm3, %xmm2
vfmsub231ps %xmm1, %xmm0, %xmm2 # xmm2 = (xmm0 * xmm1) - xmm2
vshufps $0xc9, %xmm2, %xmm2, %xmm1 # xmm1 = xmm2[1,2,0,3]
ja 0x1e92b5e
vmovaps 0x59ba2(%rip), %xmm0 # 0x1eec700
vdpps $0x7f, %xmm1, %xmm1, %xmm2
vcvtss2sd %xmm2, %xmm2, %xmm3
vucomisd 0x5e4a0(%rip), %xmm3 # 0x1ef1010
jbe 0x1e92c03
vxorps %xmm3, %xmm3, %xmm3
vmovss %xmm2, %xmm3, %xmm4 # xmm4 = xmm2[0],xmm3[1,2,3]
vrsqrt14ss %xmm4, %xmm3, %xmm4
vmovss 0x59b8c(%rip), %xmm5 # 0x1eec718
vmulss %xmm5, %xmm4, %xmm6
vmovss 0x59fe8(%rip), %xmm7 # 0x1eecb80
vmulss %xmm7, %xmm2, %xmm2
vmulss %xmm4, %xmm2, %xmm2
vmulss %xmm4, %xmm4, %xmm4
vmulss %xmm4, %xmm2, %xmm2
vsubss %xmm2, %xmm6, %xmm2
vbroadcastss %xmm2, %xmm2
vmulps %xmm2, %xmm1, %xmm2
vshufps $0xc9, %xmm0, %xmm0, %xmm1 # xmm1 = xmm0[1,2,0,3]
vshufps $0xc9, %xmm2, %xmm2, %xmm4 # xmm4 = xmm2[1,2,0,3]
vmulps %xmm4, %xmm0, %xmm4
vfmsub231ps %xmm1, %xmm2, %xmm4 # xmm4 = (xmm2 * xmm1) - xmm4
vshufps $0xc9, %xmm4, %xmm4, %xmm1 # xmm1 = xmm4[1,2,0,3]
vdpps $0x7f, %xmm1, %xmm1, %xmm4
vmovss %xmm4, %xmm3, %xmm6 # xmm6 = xmm4[0],xmm3[1,2,3]
vrsqrt14ss %xmm6, %xmm3, %xmm3
vmulss %xmm5, %xmm3, %xmm5
vmulss %xmm7, %xmm4, %xmm4
vmulss %xmm3, %xmm4, %xmm4
vmulss %xmm3, %xmm3, %xmm3
vmulss %xmm3, %xmm4, %xmm3
vsubss %xmm3, %xmm5, %xmm3
vbroadcastss %xmm3, %xmm3
vmulps %xmm1, %xmm3, %xmm1
jmp 0x1e92cf2
vshufpd $0x1, %xmm0, %xmm0, %xmm1 # xmm1 = xmm0[1,0]
vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3]
vbroadcastss 0x8e2ab(%rip), %xmm3 # 0x1f20ec0
vxorps %xmm3, %xmm2, %xmm2
vxorps %xmm4, %xmm4, %xmm4
vunpckhps %xmm4, %xmm0, %xmm5 # xmm5 = xmm0[2],xmm4[2],xmm0[3],xmm4[3]
vmovss %xmm2, %xmm4, %xmm2 # xmm2 = xmm2[0],xmm4[1,2,3]
vshufps $0x41, %xmm2, %xmm5, %xmm2 # xmm2 = xmm5[1,0],xmm2[0,1]
vdpps $0x7f, %xmm2, %xmm2, %xmm5
vxorpd %xmm3, %xmm1, %xmm1
vinsertps $0x2a, %xmm0, %xmm1, %xmm1 # xmm1 = xmm1[0],zero,xmm0[0],zero
vdpps $0x7f, %xmm1, %xmm1, %xmm3
vcmpltps %xmm5, %xmm3, %k0
vpmovm2d %k0, %xmm3
vpbroadcastd %xmm3, %xmm3
vpmovd2m %xmm3, %k1
vpcmpeqd %xmm3, %xmm3, %xmm3
vmovaps %xmm3, %xmm3 {%k1} {z}
vblendvps %xmm3, %xmm2, %xmm1, %xmm1
vdpps $0x7f, %xmm1, %xmm1, %xmm2
vmovss %xmm2, %xmm4, %xmm3 # xmm3 = xmm2[0],xmm4[1,2,3]
vrsqrt14ss %xmm3, %xmm4, %xmm3
vmovss 0x59a98(%rip), %xmm5 # 0x1eec718
vmulss %xmm5, %xmm3, %xmm6
vmovss 0x59ef4(%rip), %xmm7 # 0x1eecb80
vmulss %xmm7, %xmm2, %xmm2
vmulss %xmm3, %xmm2, %xmm2
vmulss %xmm3, %xmm3, %xmm3
vmulss %xmm3, %xmm2, %xmm2
vsubss %xmm2, %xmm6, %xmm2
vbroadcastss %xmm2, %xmm2
vmulps %xmm2, %xmm1, %xmm1
vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3]
vmulps %xmm3, %xmm1, %xmm3
vfmsub231ps %xmm2, %xmm0, %xmm3 # xmm3 = (xmm0 * xmm2) - xmm3
vshufps $0xc9, %xmm3, %xmm3, %xmm2 # xmm2 = xmm3[1,2,0,3]
vdpps $0x7f, %xmm2, %xmm2, %xmm3
vmovss %xmm3, %xmm4, %xmm6 # xmm6 = xmm3[0],xmm4[1,2,3]
vrsqrt14ss %xmm6, %xmm4, %xmm4
vmulss %xmm5, %xmm4, %xmm5
vmulss %xmm7, %xmm3, %xmm3
vmulss %xmm4, %xmm3, %xmm3
vmulss %xmm4, %xmm4, %xmm4
vmulss %xmm4, %xmm3, %xmm3
vsubss %xmm3, %xmm5, %xmm3
vbroadcastss %xmm3, %xmm3
vmulps %xmm2, %xmm3, %xmm2
vmovaps %xmm1, (%rax)
vmovaps %xmm2, 0x10(%rax)
vmovaps %xmm0, 0x20(%rax)
popq %rbx
retq
|
/embree[P]embree/kernels/common/scene_curves.cpp
|
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)0, embree::avx512::HermiteCurveGeometryInterface, embree::HermiteCurveT>::computeDirection(unsigned int, unsigned long) const
|
Vec3fa computeDirection(unsigned int primID, size_t time) const
{
const Curve3ff c = getCurveScaledRadius(primID,time);
const Vec3fa p0 = c.begin();
const Vec3fa p3 = c.end();
const Vec3fa axis1 = p3 - p0;
return axis1;
}
|
movl %edx, %eax
imulq 0x68(%rsi), %rax
movq 0x58(%rsi), %rdx
movq 0x188(%rsi), %r8
movl (%rdx,%rax), %eax
imulq $0x38, %rcx, %rcx
movq (%r8,%rcx), %rdx
movq 0x10(%r8,%rcx), %rcx
leal 0x1(%rax), %r8d
movq %rax, %r9
imulq %rcx, %r9
vmovaps (%rdx,%r9), %xmm0
imulq %rcx, %r8
vmovaps (%rdx,%r8), %xmm1
movq %rdi, %rax
vmovss 0x24c(%rsi), %xmm2
vmulss 0xc(%rdx,%r9), %xmm2, %xmm3
vinsertps $0x30, %xmm3, %xmm0, %xmm0 # xmm0 = xmm0[0,1,2],xmm3[0]
vmulss 0xc(%rdx,%r8), %xmm2, %xmm2
vinsertps $0x30, %xmm2, %xmm1, %xmm1 # xmm1 = xmm1[0,1,2],xmm2[0]
vsubps %xmm0, %xmm1, %xmm0
vmovaps %xmm0, (%rdi)
retq
nop
|
/embree[P]embree/kernels/common/scene_curves.cpp
|
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)0, embree::avx512::HermiteCurveGeometryInterface, embree::HermiteCurveT>::vbounds(unsigned long) const
|
size_t CurveGeometry::getGeometryDataDeviceByteSize() const {
size_t byte_size = sizeof(CurveGeometry);
if (vertices.size() > 0)
byte_size += numTimeSteps * sizeof(BufferView<Vec3ff>);
if (normals.size() > 0)
byte_size += numTimeSteps * sizeof(BufferView<Vec3fa>);
if (tangents.size() > 0)
byte_size += numTimeSteps * sizeof(BufferView<Vec3ff>);
if (dnormals.size() > 0)
byte_size += numTimeSteps * sizeof(BufferView<Vec3fa>);
return 16 * ((byte_size + 15) / 16);
}
|
pushq %rbx
imulq 0x68(%rsi), %rdx
movq 0x58(%rsi), %rax
movq 0x188(%rsi), %rcx
movl (%rax,%rdx), %edx
movq (%rcx), %r8
movq 0x10(%rcx), %rcx
movq %rcx, %r9
imulq %rdx, %r9
vmovaps (%r8,%r9), %xmm3
leal 0x1(%rdx), %r10d
imulq %r10, %rcx
vmovaps (%r8,%rcx), %xmm2
movq 0x1c8(%rsi), %rax
movq (%rax), %r11
movq 0x10(%rax), %rbx
imulq %rbx, %rdx
vmovaps (%r11,%rdx), %xmm4
movq %rdi, %rax
imulq %r10, %rbx
vmovaps (%r11,%rbx), %xmm5
vmovss 0x24c(%rsi), %xmm6
vmulss 0xc(%r8,%r9), %xmm6, %xmm10
vinsertps $0x30, %xmm10, %xmm3, %xmm8 # xmm8 = xmm3[0,1,2],xmm10[0]
vmulss 0xc(%r8,%rcx), %xmm6, %xmm0
vinsertps $0x30, %xmm0, %xmm2, %xmm1 # xmm1 = xmm2[0,1,2],xmm0[0]
vmulss 0xc(%r11,%rdx), %xmm6, %xmm7
vinsertps $0x30, %xmm7, %xmm4, %xmm7 # xmm7 = xmm4[0,1,2],xmm7[0]
vmulss 0xc(%r11,%rbx), %xmm6, %xmm4
vinsertps $0x30, %xmm4, %xmm5, %xmm4 # xmm4 = xmm5[0,1,2],xmm4[0]
vbroadcastss 0xca5f8(%rip), %xmm5 # 0x1f5d46c
vfnmadd213ps %xmm8, %xmm5, %xmm7 # xmm7 = -(xmm5 * xmm7) + xmm8
vfmadd213ps %xmm1, %xmm5, %xmm4 # xmm4 = (xmm5 * xmm4) + xmm1
movl 0x248(%rsi), %ecx
cmpq $0x4, %rcx
jne 0x1e9307d
leaq 0x29444f(%rip), %rcx # 0x21272e4
vmovups 0x110(%rcx), %xmm5
vbroadcastss %xmm3, %xmm6
vshufps $0x55, %xmm3, %xmm3, %xmm8 # xmm8 = xmm3[1,1,1,1]
vshufps $0xaa, %xmm3, %xmm3, %xmm3 # xmm3 = xmm3[2,2,2,2]
vbroadcastss %xmm10, %xmm9
vmovups 0x594(%rcx), %xmm10
vbroadcastss %xmm7, %xmm11
vshufps $0x55, %xmm7, %xmm7, %xmm12 # xmm12 = xmm7[1,1,1,1]
vshufps $0xaa, %xmm7, %xmm7, %xmm13 # xmm13 = xmm7[2,2,2,2]
vshufps $0xff, %xmm7, %xmm7, %xmm7 # xmm7 = xmm7[3,3,3,3]
vmovups 0xa18(%rcx), %xmm14
vbroadcastss %xmm4, %xmm15
vshufps $0x55, %xmm4, %xmm4, %xmm16 # xmm16 = xmm4[1,1,1,1]
vshufps $0xaa, %xmm4, %xmm4, %xmm17 # xmm17 = xmm4[2,2,2,2]
vshufps $0xff, %xmm4, %xmm4, %xmm4 # xmm4 = xmm4[3,3,3,3]
vmovups 0xe9c(%rcx), %xmm18
vbroadcastss %xmm2, %xmm19
vshufps $0x55, %xmm2, %xmm2, %xmm20 # xmm20 = xmm2[1,1,1,1]
vshufps $0xaa, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[2,2,2,2]
vbroadcastss %xmm0, %xmm21
vmulps %xmm18, %xmm19, %xmm19
vmulps %xmm18, %xmm20, %xmm20
vmulps %xmm18, %xmm2, %xmm2
vmulps %xmm18, %xmm21, %xmm18
vfmadd231ps %xmm15, %xmm14, %xmm19 # xmm19 = (xmm14 * xmm15) + xmm19
vfmadd231ps %xmm16, %xmm14, %xmm20 # xmm20 = (xmm14 * xmm16) + xmm20
vfmadd231ps %xmm17, %xmm14, %xmm2 # xmm2 = (xmm14 * xmm17) + xmm2
vfmadd231ps %xmm4, %xmm14, %xmm18 # xmm18 = (xmm14 * xmm4) + xmm18
vfmadd231ps %xmm11, %xmm10, %xmm19 # xmm19 = (xmm10 * xmm11) + xmm19
vfmadd231ps %xmm12, %xmm10, %xmm20 # xmm20 = (xmm10 * xmm12) + xmm20
vfmadd231ps %xmm13, %xmm10, %xmm2 # xmm2 = (xmm10 * xmm13) + xmm2
vfmadd231ps %xmm7, %xmm10, %xmm18 # xmm18 = (xmm10 * xmm7) + xmm18
vfmadd231ps %xmm6, %xmm5, %xmm19 # xmm19 = (xmm5 * xmm6) + xmm19
vfmadd231ps %xmm8, %xmm5, %xmm20 # xmm20 = (xmm5 * xmm8) + xmm20
vfmadd231ps %xmm3, %xmm5, %xmm2 # xmm2 = (xmm5 * xmm3) + xmm2
vfmadd231ps %xmm9, %xmm5, %xmm18 # xmm18 = (xmm5 * xmm9) + xmm18
vshufps $0xb1, %xmm19, %xmm19, %xmm3 # xmm3 = xmm19[1,0,3,2]
vminps %xmm19, %xmm3, %xmm4
vshufpd $0x1, %xmm4, %xmm4, %xmm5 # xmm5 = xmm4[1,0]
vminps %xmm4, %xmm5, %xmm4
vshufps $0xb1, %xmm20, %xmm20, %xmm6 # xmm6 = xmm20[1,0,3,2]
vminps %xmm20, %xmm6, %xmm5
vshufpd $0x1, %xmm5, %xmm5, %xmm7 # xmm7 = xmm5[1,0]
vminps %xmm5, %xmm7, %xmm5
vinsertps $0x1c, %xmm5, %xmm4, %xmm4 # xmm4 = xmm4[0],xmm5[0],zero,zero
vshufps $0xb1, %xmm2, %xmm2, %xmm7 # xmm7 = xmm2[1,0,3,2]
vminps %xmm2, %xmm7, %xmm5
vshufpd $0x1, %xmm5, %xmm5, %xmm8 # xmm8 = xmm5[1,0]
vminps %xmm5, %xmm8, %xmm5
vinsertps $0x20, %xmm5, %xmm4, %xmm5 # xmm5 = xmm4[0,1],xmm5[0],xmm4[3]
vmaxps %xmm19, %xmm3, %xmm3
vshufpd $0x1, %xmm3, %xmm3, %xmm4 # xmm4 = xmm3[1,0]
vmaxps %xmm3, %xmm4, %xmm3
vmaxps %xmm20, %xmm6, %xmm4
vshufpd $0x1, %xmm4, %xmm4, %xmm6 # xmm6 = xmm4[1,0]
vmaxps %xmm4, %xmm6, %xmm4
vinsertps $0x1c, %xmm4, %xmm3, %xmm3 # xmm3 = xmm3[0],xmm4[0],zero,zero
vmaxps %xmm2, %xmm7, %xmm2
vshufpd $0x1, %xmm2, %xmm2, %xmm4 # xmm4 = xmm2[1,0]
vmaxps %xmm2, %xmm4, %xmm2
vandps 0x8ded2(%rip){1to4}, %xmm18, %xmm4 # 0x1f20ec4
vinsertps $0x20, %xmm2, %xmm3, %xmm3 # xmm3 = xmm3[0,1],xmm2[0],xmm3[3]
vprolq $0x20, %xmm4, %xmm2
vmaxps %xmm4, %xmm2, %xmm2
vbroadcastss %xmm2, %xmm4
vshufps $0xaa, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[2,2,2,2]
vmaxps %xmm4, %xmm2, %xmm2
vminps %xmm1, %xmm5, %xmm4
vmaxps %xmm1, %xmm3, %xmm1
vbroadcastss %xmm0, %xmm0
vandps 0x8de9c(%rip){1to4}, %xmm0, %xmm0 # 0x1f20ec4
vmaxps %xmm0, %xmm2, %xmm0
vsubps %xmm0, %xmm4, %xmm2
vaddps %xmm0, %xmm1, %xmm0
vbroadcastss 0x8de87(%rip), %xmm1 # 0x1f20ec4
vandps %xmm1, %xmm2, %xmm3
vandps %xmm1, %xmm0, %xmm1
vmaxps %xmm1, %xmm3, %xmm1
vmovshdup %xmm1, %xmm3 # xmm3 = xmm1[1,1,3,3]
vmaxss %xmm1, %xmm3, %xmm3
vshufpd $0x1, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[1,0]
vmaxss %xmm3, %xmm1, %xmm1
vmulss 0x5df82(%rip), %xmm1, %xmm1 # 0x1ef0fe4
vbroadcastss %xmm1, %xmm1
vsubps %xmm1, %xmm2, %xmm2
vaddps %xmm1, %xmm0, %xmm0
vmovaps %xmm2, (%rax)
vmovaps %xmm0, 0x10(%rax)
popq %rbx
vzeroupper
retq
testl %ecx, %ecx
jle 0x1e93229
vpbroadcastd %ecx, %ymm5
vbroadcastss %xmm3, %ymm6
vbroadcastss 0x7f66a(%rip), %ymm21 # 0x1f12704
vpermps %ymm3, %ymm21, %ymm8
vbroadcastss 0x8de32(%rip), %ymm22 # 0x1f20edc
vpermps %ymm3, %ymm22, %ymm9
vbroadcastss %xmm10, %ymm11
vbroadcastss %xmm7, %ymm12
vpermps %ymm7, %ymm21, %ymm13
vbroadcastss 0x8de0f(%rip), %ymm3 # 0x1f20ed8
vpermps %ymm7, %ymm22, %ymm14
vpermps %ymm7, %ymm3, %ymm15
vbroadcastss %xmm4, %ymm16
vpermps %ymm4, %ymm21, %ymm17
vpermps %ymm4, %ymm22, %ymm18
vpermps %ymm4, %ymm3, %ymm19
vbroadcastss %xmm2, %ymm20
vpermps %ymm2, %ymm21, %ymm23
vpermps %ymm2, %ymm22, %ymm24
vbroadcastss %xmm0, %ymm25
movq %rcx, %rdx
shlq $0x6, %rdx
leaq (%rdx,%rcx,4), %rdx
addq 0x290f4a(%rip), %rdx # 0x2124060
vbroadcastss 0x59a65(%rip), %ymm3 # 0x1eecb84
vbroadcastss 0x588f8(%rip), %ymm10 # 0x1eeba20
vxorps %xmm2, %xmm2, %xmm2
xorl %esi, %esi
vbroadcastss 0x8dd8c(%rip), %ymm27 # 0x1f20ec4
vmovaps %ymm10, %ymm22
vmovaps %ymm10, %ymm21
vmovaps %ymm3, %ymm4
vmovaps %ymm3, %ymm7
vpbroadcastd %esi, %ymm28
vpord 0xc77c4(%rip), %ymm28, %ymm28 # 0x1f5a920
vpcmpgtd %ymm28, %ymm5, %k1
vmovups 0x908(%rdx,%rsi,4), %ymm28
vmovups 0xd8c(%rdx,%rsi,4), %ymm29
vmulps %ymm29, %ymm20, %ymm30
vmulps %ymm29, %ymm23, %ymm31
vmulps %ymm29, %ymm24, %ymm26
vmulps %ymm29, %ymm25, %ymm29
vfmadd231ps %ymm16, %ymm28, %ymm30 # ymm30 = (ymm28 * ymm16) + ymm30
vfmadd231ps %ymm17, %ymm28, %ymm31 # ymm31 = (ymm28 * ymm17) + ymm31
vfmadd231ps %ymm18, %ymm28, %ymm26 # ymm26 = (ymm28 * ymm18) + ymm26
vfmadd231ps %ymm28, %ymm19, %ymm29 # ymm29 = (ymm19 * ymm28) + ymm29
vmovups 0x484(%rdx,%rsi,4), %ymm28
vfmadd231ps %ymm12, %ymm28, %ymm30 # ymm30 = (ymm28 * ymm12) + ymm30
vfmadd231ps %ymm13, %ymm28, %ymm31 # ymm31 = (ymm28 * ymm13) + ymm31
vfmadd231ps %ymm14, %ymm28, %ymm26 # ymm26 = (ymm28 * ymm14) + ymm26
vfmadd231ps %ymm28, %ymm15, %ymm29 # ymm29 = (ymm15 * ymm28) + ymm29
vmovups (%rdx,%rsi,4), %ymm28
vfmadd231ps %ymm6, %ymm28, %ymm30 # ymm30 = (ymm28 * ymm6) + ymm30
vfmadd231ps %ymm8, %ymm28, %ymm31 # ymm31 = (ymm28 * ymm8) + ymm31
vfmadd231ps %ymm9, %ymm28, %ymm26 # ymm26 = (ymm28 * ymm9) + ymm26
vfmadd231ps %ymm28, %ymm11, %ymm29 # ymm29 = (ymm11 * ymm28) + ymm29
vminps %ymm30, %ymm21, %ymm21 {%k1}
vmaxps %ymm30, %ymm7, %ymm7 {%k1}
vminps %ymm31, %ymm22, %ymm22 {%k1}
vmaxps %ymm31, %ymm4, %ymm4 {%k1}
vminps %ymm26, %ymm10, %ymm10 {%k1}
vmaxps %ymm26, %ymm3, %ymm3 {%k1}
vandps %ymm27, %ymm29, %ymm26
vmaxps %ymm26, %ymm2, %ymm2 {%k1}
addq $0x8, %rsi
cmpq %rcx, %rsi
jb 0x1e9314c
jmp 0x1e93254
vbroadcastss 0x587ed(%rip), %ymm21 # 0x1eeba20
vbroadcastss 0x59948(%rip), %ymm7 # 0x1eecb84
vxorps %xmm2, %xmm2, %xmm2
vmovaps %ymm7, %ymm4
vmovaps %ymm7, %ymm3
vmovaps %ymm21, %ymm22
vmovaps %ymm21, %ymm10
vshufps $0xb1, %ymm21, %ymm21, %ymm5 # ymm5 = ymm21[1,0,3,2,5,4,7,6]
vminps %ymm5, %ymm21, %ymm5
vshufpd $0x5, %ymm5, %ymm5, %ymm6 # ymm6 = ymm5[1,0,3,2]
vminps %ymm6, %ymm5, %ymm5
vextractf128 $0x1, %ymm5, %xmm6
vminps %xmm6, %xmm5, %xmm5
vshufps $0xb1, %ymm22, %ymm22, %ymm6 # ymm6 = ymm22[1,0,3,2,5,4,7,6]
vminps %ymm6, %ymm22, %ymm6
vshufpd $0x5, %ymm6, %ymm6, %ymm8 # ymm8 = ymm6[1,0,3,2]
vminps %ymm8, %ymm6, %ymm6
vextractf128 $0x1, %ymm6, %xmm8
vminps %xmm8, %xmm6, %xmm6
vunpcklps %xmm6, %xmm5, %xmm5 # xmm5 = xmm5[0],xmm6[0],xmm5[1],xmm6[1]
vshufps $0xb1, %ymm10, %ymm10, %ymm6 # ymm6 = ymm10[1,0,3,2,5,4,7,6]
vminps %ymm6, %ymm10, %ymm6
vshufpd $0x5, %ymm6, %ymm6, %ymm8 # ymm8 = ymm6[1,0,3,2]
vminps %ymm8, %ymm6, %ymm6
vextractf128 $0x1, %ymm6, %xmm8
vminps %xmm8, %xmm6, %xmm6
vinsertps $0x28, %xmm6, %xmm5, %xmm5 # xmm5 = xmm5[0,1],xmm6[0],zero
vshufps $0xb1, %ymm7, %ymm7, %ymm6 # ymm6 = ymm7[1,0,3,2,5,4,7,6]
vmaxps %ymm6, %ymm7, %ymm6
vshufpd $0x5, %ymm6, %ymm6, %ymm7 # ymm7 = ymm6[1,0,3,2]
vmaxps %ymm7, %ymm6, %ymm6
vextractf128 $0x1, %ymm6, %xmm7
vmaxps %xmm7, %xmm6, %xmm6
vshufps $0xb1, %ymm4, %ymm4, %ymm7 # ymm7 = ymm4[1,0,3,2,5,4,7,6]
vmaxps %ymm7, %ymm4, %ymm4
vshufpd $0x5, %ymm4, %ymm4, %ymm7 # ymm7 = ymm4[1,0,3,2]
vmaxps %ymm7, %ymm4, %ymm4
vextractf128 $0x1, %ymm4, %xmm7
vmaxps %xmm7, %xmm4, %xmm4
vunpcklps %xmm4, %xmm6, %xmm4 # xmm4 = xmm6[0],xmm4[0],xmm6[1],xmm4[1]
vshufps $0xb1, %ymm3, %ymm3, %ymm6 # ymm6 = ymm3[1,0,3,2,5,4,7,6]
vmaxps %ymm6, %ymm3, %ymm3
vshufpd $0x5, %ymm3, %ymm3, %ymm6 # ymm6 = ymm3[1,0,3,2]
vmaxps %ymm6, %ymm3, %ymm3
vextractf128 $0x1, %ymm3, %xmm6
vmaxps %xmm6, %xmm3, %xmm3
vinsertps $0x28, %xmm3, %xmm4, %xmm3 # xmm3 = xmm4[0,1],xmm3[0],zero
vshufps $0xb1, %ymm2, %ymm2, %ymm4 # ymm4 = ymm2[1,0,3,2,5,4,7,6]
vmaxps %ymm4, %ymm2, %ymm2
vshufpd $0x5, %ymm2, %ymm2, %ymm4 # ymm4 = ymm2[1,0,3,2]
vmaxps %ymm4, %ymm2, %ymm2
vextractf128 $0x1, %ymm2, %xmm4
vmaxps %xmm4, %xmm2, %xmm2
vbroadcastss %xmm2, %xmm2
jmp 0x1e93011
nop
|
/embree[P]embree/kernels/common/scene_curves.cpp
|
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)0, embree::avx512::HermiteCurveGeometryInterface, embree::HermiteCurveT>::vlinearBounds(unsigned long, embree::BBox<float> const&) const
|
LBBox3fa vlinearBounds(size_t primID, const BBox1f& time_range) const {
return linearBounds(primID,time_range);
}
|
pushq %rbp
pushq %r15
pushq %r14
pushq %r13
pushq %r12
pushq %rbx
subq $0x138, %rsp # imm = 0x138
leaq 0xc8(%rsp), %rax
movq %rdx, (%rax)
leaq 0x60(%rsp), %r14
movq %rax, (%r14)
movq %rsi, 0x8(%r14)
vmovss 0x28(%rsi), %xmm4
vmovss 0x2c(%rsi), %xmm0
vmovss (%rcx), %xmm1
vmovss 0x4(%rcx), %xmm2
vsubss %xmm0, %xmm1, %xmm1
vmovss 0x30(%rsi), %xmm3
vsubss %xmm0, %xmm3, %xmm3
vdivss %xmm3, %xmm1, %xmm1
vsubss %xmm0, %xmm2, %xmm0
vdivss %xmm3, %xmm0, %xmm2
vmovss %xmm1, 0x4(%rsp)
vmulss %xmm1, %xmm4, %xmm0
vmovss %xmm0, 0x20(%rsp)
vroundss $0x9, %xmm0, %xmm0, %xmm0
vmovss %xmm2, 0x50(%rsp)
vmulss %xmm2, %xmm4, %xmm1
vmovss %xmm1, 0x40(%rsp)
vroundss $0xa, %xmm1, %xmm1, %xmm1
vxorps %xmm2, %xmm2, %xmm2
vmaxss %xmm2, %xmm0, %xmm3
vminss %xmm4, %xmm1, %xmm2
vmovss %xmm3, 0x10(%rsp)
vcvttss2si %xmm3, %r15d
vmovss %xmm2, 0x30(%rsp)
vcvttss2si %xmm2, %r12d
vcvttss2si %xmm0, %eax
movq %rdi, %rbx
testl %eax, %eax
movl $0xffffffff, %r13d # imm = 0xFFFFFFFF
cmovnsl %eax, %r13d
vcvttss2si %xmm1, %eax
vmovss %xmm4, 0xc(%rsp)
vcvttss2si %xmm4, %ebp
incl %ebp
cmpl %ebp, %eax
cmovll %eax, %ebp
movslq %r15d, %rdx
leaq 0x90(%rsp), %rdi
movq %r14, %rsi
callq 0x1e94a32
movslq %r12d, %rdx
leaq 0x70(%rsp), %rdi
movq %r14, %rsi
callq 0x1e94a32
movl %ebp, %eax
subl %r13d, %eax
cmpl $0x1, %eax
jne 0x1e940d9
vmovss 0x20(%rsp), %xmm0
vsubss 0x10(%rsp), %xmm0, %xmm0
vxorps %xmm8, %xmm8, %xmm8
vmaxss %xmm8, %xmm0, %xmm0
vmovss 0x586c5(%rip), %xmm1 # 0x1eec714
vsubss %xmm0, %xmm1, %xmm2
vbroadcastss %xmm0, %xmm0
vmovaps 0x70(%rsp), %xmm3
vmovaps 0x80(%rsp), %xmm4
vmulps %xmm3, %xmm0, %xmm5
vbroadcastss %xmm2, %xmm2
vmovaps 0x90(%rsp), %xmm6
vmovaps 0xa0(%rsp), %xmm7
vfmadd231ps %xmm6, %xmm2, %xmm5 # xmm5 = (xmm2 * xmm6) + xmm5
vmulps %xmm4, %xmm0, %xmm0
vfmadd231ps %xmm2, %xmm7, %xmm0 # xmm0 = (xmm7 * xmm2) + xmm0
vmovaps %xmm5, (%rbx)
vmovaps %xmm0, 0x10(%rbx)
vmovss 0x30(%rsp), %xmm0
vsubss 0x40(%rsp), %xmm0, %xmm0
vmaxss %xmm8, %xmm0, %xmm0
vsubss %xmm0, %xmm1, %xmm1
vbroadcastss %xmm0, %xmm0
vmulps %xmm6, %xmm0, %xmm2
vbroadcastss %xmm1, %xmm1
vfmadd231ps %xmm3, %xmm1, %xmm2 # xmm2 = (xmm1 * xmm3) + xmm2
vmulps %xmm7, %xmm0, %xmm0
vfmadd231ps %xmm4, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm4) + xmm0
vmovaps %xmm2, 0x20(%rbx)
vmovaps %xmm0, 0x30(%rbx)
jmp 0x1e942b9
incl %r15d
movslq %r15d, %rdx
leaq 0x110(%rsp), %r14
leaq 0x60(%rsp), %r15
movq %r14, %rdi
movq %r15, %rsi
callq 0x1e94a32
decl %r12d
movslq %r12d, %rdx
leaq 0xf0(%rsp), %r12
movq %r12, %rdi
movq %r15, %rsi
callq 0x1e94a32
vmovss 0x20(%rsp), %xmm0
vsubss 0x10(%rsp), %xmm0, %xmm0
vxorps %xmm5, %xmm5, %xmm5
vmaxss %xmm5, %xmm0, %xmm0
vmovss 0x585e8(%rip), %xmm4 # 0x1eec714
vbroadcastss %xmm0, %xmm1
vmulps (%r14), %xmm1, %xmm2
vsubss %xmm0, %xmm4, %xmm0
vbroadcastss %xmm0, %xmm0
vfmadd231ps 0x90(%rsp), %xmm0, %xmm2 # xmm2 = (xmm0 * mem) + xmm2
vmulps 0x10(%r14), %xmm1, %xmm3
vfmadd231ps 0xa0(%rsp), %xmm0, %xmm3 # xmm3 = (xmm0 * mem) + xmm3
vmovss 0x30(%rsp), %xmm0
vsubss 0x40(%rsp), %xmm0, %xmm0
vmaxss %xmm5, %xmm0, %xmm0
vsubss %xmm0, %xmm4, %xmm1
vbroadcastss %xmm0, %xmm0
vmulps (%r12), %xmm0, %xmm5
vbroadcastss %xmm1, %xmm1
vfmadd231ps 0x70(%rsp), %xmm1, %xmm5 # xmm5 = (xmm1 * mem) + xmm5
vmulps 0x10(%r12), %xmm0, %xmm6
vfmadd231ps 0x80(%rsp), %xmm1, %xmm6 # xmm6 = (xmm1 * mem) + xmm6
leal 0x1(%r13), %eax
cmpl %ebp, %eax
jge 0x1e942a6
vmovss 0x4(%rsp), %xmm1
vmovss 0x50(%rsp), %xmm0
vsubss %xmm1, %xmm0, %xmm0
vmovss %xmm0, 0x8(%rsp)
movl %eax, %r14d
notl %r13d
addl %ebp, %r13d
leaq 0xd0(%rsp), %r15
leaq 0x60(%rsp), %r12
vmovaps %xmm6, 0x10(%rsp)
vmovaps %xmm5, 0x20(%rsp)
vmovaps %xmm3, 0x30(%rsp)
vmovaps %xmm2, 0x40(%rsp)
vcvtsi2ss %r14d, %xmm8, %xmm0
vdivss 0xc(%rsp), %xmm0, %xmm0
vsubss %xmm1, %xmm0, %xmm0
vdivss 0x8(%rsp), %xmm0, %xmm0
vsubss %xmm0, %xmm4, %xmm1
vbroadcastss %xmm0, %xmm0
vmulps %xmm0, %xmm5, %xmm4
vbroadcastss %xmm1, %xmm1
vfmadd231ps %xmm2, %xmm1, %xmm4 # xmm4 = (xmm1 * xmm2) + xmm4
vmovaps %xmm4, 0x50(%rsp)
vmulps %xmm0, %xmm6, %xmm0
vfmadd231ps %xmm1, %xmm3, %xmm0 # xmm0 = (xmm3 * xmm1) + xmm0
vmovaps %xmm0, 0xb0(%rsp)
movq %r15, %rdi
movq %r12, %rsi
movq %r14, %rdx
callq 0x1e94a32
vmovaps 0x10(%rsp), %xmm6
vmovaps 0x20(%rsp), %xmm5
vmovss 0x584c9(%rip), %xmm4 # 0x1eec714
vmovaps 0x30(%rsp), %xmm3
vmovaps 0x40(%rsp), %xmm2
vmovaps 0xd0(%rsp), %xmm0
vsubps 0x50(%rsp), %xmm0, %xmm0
vmovaps 0xe0(%rsp), %xmm1
vsubps 0xb0(%rsp), %xmm1, %xmm1
vxorps %xmm7, %xmm7, %xmm7
vminps %xmm7, %xmm0, %xmm0
vmaxps %xmm7, %xmm1, %xmm1
vaddps %xmm0, %xmm2, %xmm2
vaddps %xmm0, %xmm5, %xmm5
vaddps %xmm1, %xmm3, %xmm3
vaddps %xmm1, %xmm6, %xmm6
vmovss 0x4(%rsp), %xmm1
incq %r14
decl %r13d
jne 0x1e941cd
vmovaps %xmm2, (%rbx)
vmovaps %xmm3, 0x10(%rbx)
vmovaps %xmm5, 0x20(%rbx)
vmovaps %xmm6, 0x30(%rbx)
movq %rbx, %rax
addq $0x138, %rsp # imm = 0x138
popq %rbx
popq %r12
popq %r13
popq %r14
popq %r15
popq %rbp
retq
|
/embree[P]embree/kernels/common/scene_curves.cpp
|
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)0, embree::avx512::HermiteCurveGeometryInterface, embree::HermiteCurveT>::vlinearBounds(embree::LinearSpace3<embree::Vec3fa> const&, unsigned long, embree::BBox<float> const&) const
|
LBBox3fa vlinearBounds(const LinearSpace3fa& space, size_t primID, const BBox1f& time_range) const {
return linearBounds(space,primID,time_range);
}
|
pushq %rbp
pushq %r15
pushq %r14
pushq %r13
pushq %r12
pushq %rbx
subq $0x138, %rsp # imm = 0x138
leaq 0xc8(%rsp), %rax
movq %rcx, (%rax)
leaq 0xb0(%rsp), %r14
movq %rdx, (%r14)
movq %rax, 0x8(%r14)
movq %rsi, 0x10(%r14)
vmovss 0x28(%rsi), %xmm4
vmovss 0x2c(%rsi), %xmm0
vmovss (%r8), %xmm1
vmovss 0x4(%r8), %xmm2
vsubss %xmm0, %xmm1, %xmm1
vmovss 0x30(%rsi), %xmm3
vsubss %xmm0, %xmm3, %xmm3
vdivss %xmm3, %xmm1, %xmm1
vsubss %xmm0, %xmm2, %xmm0
vdivss %xmm3, %xmm0, %xmm2
vmovss %xmm1, 0x4(%rsp)
vmulss %xmm1, %xmm4, %xmm0
vmovss %xmm0, 0x20(%rsp)
vroundss $0x9, %xmm0, %xmm0, %xmm0
vmovss %xmm2, 0x50(%rsp)
vmulss %xmm2, %xmm4, %xmm1
vmovss %xmm1, 0x40(%rsp)
vroundss $0xa, %xmm1, %xmm1, %xmm1
vxorps %xmm2, %xmm2, %xmm2
vmaxss %xmm2, %xmm0, %xmm3
vminss %xmm4, %xmm1, %xmm2
vmovss %xmm3, 0x10(%rsp)
vcvttss2si %xmm3, %r15d
vmovss %xmm2, 0x30(%rsp)
vcvttss2si %xmm2, %r12d
vcvttss2si %xmm0, %eax
movq %rdi, %rbx
testl %eax, %eax
movl $0xffffffff, %r13d # imm = 0xFFFFFFFF
cmovnsl %eax, %r13d
vcvttss2si %xmm1, %eax
vmovss %xmm4, 0xc(%rsp)
vcvttss2si %xmm4, %ebp
incl %ebp
cmpl %ebp, %eax
cmovll %eax, %ebp
movslq %r15d, %rdx
leaq 0x80(%rsp), %rdi
movq %r14, %rsi
callq 0x1e94fb0
movslq %r12d, %rdx
leaq 0x60(%rsp), %rdi
movq %r14, %rsi
callq 0x1e94fb0
movl %ebp, %eax
subl %r13d, %eax
cmpl $0x1, %eax
jne 0x1e94475
vmovss 0x20(%rsp), %xmm0
vsubss 0x10(%rsp), %xmm0, %xmm0
vxorps %xmm8, %xmm8, %xmm8
vmaxss %xmm8, %xmm0, %xmm0
vmovss 0x58326(%rip), %xmm1 # 0x1eec714
vsubss %xmm0, %xmm1, %xmm2
vbroadcastss %xmm0, %xmm0
vmovaps 0x60(%rsp), %xmm3
vmovaps 0x70(%rsp), %xmm4
vmulps %xmm3, %xmm0, %xmm5
vbroadcastss %xmm2, %xmm2
vmovaps 0x80(%rsp), %xmm6
vmovaps 0x90(%rsp), %xmm7
vfmadd231ps %xmm6, %xmm2, %xmm5 # xmm5 = (xmm2 * xmm6) + xmm5
vmulps %xmm4, %xmm0, %xmm0
vfmadd231ps %xmm2, %xmm7, %xmm0 # xmm0 = (xmm7 * xmm2) + xmm0
vmovaps %xmm5, (%rbx)
vmovaps %xmm0, 0x10(%rbx)
vmovss 0x30(%rsp), %xmm0
vsubss 0x40(%rsp), %xmm0, %xmm0
vmaxss %xmm8, %xmm0, %xmm0
vsubss %xmm0, %xmm1, %xmm1
vbroadcastss %xmm0, %xmm0
vmulps %xmm6, %xmm0, %xmm2
vbroadcastss %xmm1, %xmm1
vfmadd231ps %xmm3, %xmm1, %xmm2 # xmm2 = (xmm1 * xmm3) + xmm2
vmulps %xmm7, %xmm0, %xmm0
vfmadd231ps %xmm4, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm4) + xmm0
vmovaps %xmm2, 0x20(%rbx)
vmovaps %xmm0, 0x30(%rbx)
jmp 0x1e94658
incl %r15d
movslq %r15d, %rdx
leaq 0x110(%rsp), %r14
leaq 0xb0(%rsp), %r15
movq %r14, %rdi
movq %r15, %rsi
callq 0x1e94fb0
decl %r12d
movslq %r12d, %rdx
leaq 0xf0(%rsp), %r12
movq %r12, %rdi
movq %r15, %rsi
callq 0x1e94fb0
vmovss 0x20(%rsp), %xmm0
vsubss 0x10(%rsp), %xmm0, %xmm0
vxorps %xmm5, %xmm5, %xmm5
vmaxss %xmm5, %xmm0, %xmm0
vmovss 0x58249(%rip), %xmm4 # 0x1eec714
vbroadcastss %xmm0, %xmm1
vmulps (%r14), %xmm1, %xmm2
vsubss %xmm0, %xmm4, %xmm0
vbroadcastss %xmm0, %xmm0
vfmadd231ps 0x80(%rsp), %xmm0, %xmm2 # xmm2 = (xmm0 * mem) + xmm2
vmulps 0x10(%r14), %xmm1, %xmm3
vfmadd231ps 0x90(%rsp), %xmm0, %xmm3 # xmm3 = (xmm0 * mem) + xmm3
vmovss 0x30(%rsp), %xmm0
vsubss 0x40(%rsp), %xmm0, %xmm0
vmaxss %xmm5, %xmm0, %xmm0
vsubss %xmm0, %xmm4, %xmm1
vbroadcastss %xmm0, %xmm0
vmulps (%r12), %xmm0, %xmm5
vbroadcastss %xmm1, %xmm1
vfmadd231ps 0x60(%rsp), %xmm1, %xmm5 # xmm5 = (xmm1 * mem) + xmm5
vmulps 0x10(%r12), %xmm0, %xmm6
vfmadd231ps 0x70(%rsp), %xmm1, %xmm6 # xmm6 = (xmm1 * mem) + xmm6
leal 0x1(%r13), %eax
cmpl %ebp, %eax
jge 0x1e94645
vmovss 0x4(%rsp), %xmm1
vmovss 0x50(%rsp), %xmm0
vsubss %xmm1, %xmm0, %xmm0
vmovss %xmm0, 0x8(%rsp)
movl %eax, %r14d
notl %r13d
addl %ebp, %r13d
leaq 0xd0(%rsp), %r15
leaq 0xb0(%rsp), %r12
vmovaps %xmm6, 0x10(%rsp)
vmovaps %xmm5, 0x20(%rsp)
vmovaps %xmm3, 0x30(%rsp)
vmovaps %xmm2, 0x40(%rsp)
vcvtsi2ss %r14d, %xmm8, %xmm0
vdivss 0xc(%rsp), %xmm0, %xmm0
vsubss %xmm1, %xmm0, %xmm0
vdivss 0x8(%rsp), %xmm0, %xmm0
vsubss %xmm0, %xmm4, %xmm1
vbroadcastss %xmm0, %xmm0
vmulps %xmm0, %xmm5, %xmm4
vbroadcastss %xmm1, %xmm1
vfmadd231ps %xmm2, %xmm1, %xmm4 # xmm4 = (xmm1 * xmm2) + xmm4
vmovaps %xmm4, 0x50(%rsp)
vmulps %xmm0, %xmm6, %xmm0
vfmadd231ps %xmm1, %xmm3, %xmm0 # xmm0 = (xmm3 * xmm1) + xmm0
vmovaps %xmm0, 0xa0(%rsp)
movq %r15, %rdi
movq %r12, %rsi
movq %r14, %rdx
callq 0x1e94fb0
vmovaps 0x10(%rsp), %xmm6
vmovaps 0x20(%rsp), %xmm5
vmovss 0x5812a(%rip), %xmm4 # 0x1eec714
vmovaps 0x30(%rsp), %xmm3
vmovaps 0x40(%rsp), %xmm2
vmovaps 0xd0(%rsp), %xmm0
vsubps 0x50(%rsp), %xmm0, %xmm0
vmovaps 0xe0(%rsp), %xmm1
vsubps 0xa0(%rsp), %xmm1, %xmm1
vxorps %xmm7, %xmm7, %xmm7
vminps %xmm7, %xmm0, %xmm0
vmaxps %xmm7, %xmm1, %xmm1
vaddps %xmm0, %xmm2, %xmm2
vaddps %xmm0, %xmm5, %xmm5
vaddps %xmm1, %xmm3, %xmm3
vaddps %xmm1, %xmm6, %xmm6
vmovss 0x4(%rsp), %xmm1
incq %r14
decl %r13d
jne 0x1e9456c
vmovaps %xmm2, (%rbx)
vmovaps %xmm3, 0x10(%rbx)
vmovaps %xmm5, 0x20(%rbx)
vmovaps %xmm6, 0x30(%rbx)
movq %rbx, %rax
addq $0x138, %rsp # imm = 0x138
popq %rbx
popq %r12
popq %r13
popq %r14
popq %r15
popq %rbp
retq
nop
|
/embree[P]embree/kernels/common/scene_curves.cpp
|
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)0, embree::avx512::HermiteCurveGeometryInterface, embree::HermiteCurveT>::vlinearBounds(embree::Vec3fa const&, float, float, embree::LinearSpace3<embree::Vec3fa> const&, unsigned long, embree::BBox<float> const&) const
|
LBBox3fa vlinearBounds(const Vec3fa& ofs, const float scale, const float r_scale0, const LinearSpace3fa& space, size_t primID, const BBox1f& time_range) const {
return linearBounds(ofs,scale,r_scale0,space,primID,time_range);
}
|
pushq %rbp
pushq %r15
pushq %r14
pushq %r13
pushq %r12
pushq %rbx
subq $0x168, %rsp # imm = 0x168
leaq 0x6c(%rsp), %rax
vmovss %xmm0, (%rax)
leaq 0x68(%rsp), %r10
vmovss %xmm1, (%r10)
leaq 0xc8(%rsp), %r11
movq %r8, (%r11)
leaq 0xf0(%rsp), %r14
movq %rdx, (%r14)
movq %rax, 0x8(%r14)
movq %r10, 0x10(%r14)
movq %rcx, 0x18(%r14)
movq %r11, 0x20(%r14)
movq %rsi, 0x28(%r14)
vmovss 0x28(%rsi), %xmm4
vmovss 0x2c(%rsi), %xmm0
vmovss (%r9), %xmm1
vmovss 0x4(%r9), %xmm2
vsubss %xmm0, %xmm1, %xmm1
vmovss 0x30(%rsi), %xmm3
vsubss %xmm0, %xmm3, %xmm3
vdivss %xmm3, %xmm1, %xmm1
vsubss %xmm0, %xmm2, %xmm0
vdivss %xmm3, %xmm0, %xmm2
vmovss %xmm1, 0x4(%rsp)
vmulss %xmm1, %xmm4, %xmm0
vmovss %xmm0, 0x20(%rsp)
vroundss $0x9, %xmm0, %xmm0, %xmm0
vmovss %xmm2, 0x50(%rsp)
vmulss %xmm2, %xmm4, %xmm1
vmovss %xmm1, 0x40(%rsp)
vroundss $0xa, %xmm1, %xmm1, %xmm1
vxorps %xmm2, %xmm2, %xmm2
vmaxss %xmm2, %xmm0, %xmm3
vminss %xmm4, %xmm1, %xmm2
vmovss %xmm3, 0x10(%rsp)
vcvttss2si %xmm3, %r15d
vmovss %xmm2, 0x30(%rsp)
vcvttss2si %xmm2, %r12d
vcvttss2si %xmm0, %eax
movq %rdi, %rbx
testl %eax, %eax
movl $0xffffffff, %r13d # imm = 0xFFFFFFFF
cmovnsl %eax, %r13d
vcvttss2si %xmm1, %eax
vmovss %xmm4, 0xc(%rsp)
vcvttss2si %xmm4, %ebp
incl %ebp
cmpl %ebp, %eax
cmovll %eax, %ebp
movslq %r15d, %rdx
leaq 0x90(%rsp), %rdi
movq %r14, %rsi
callq 0x1e95590
movslq %r12d, %rdx
leaq 0x70(%rsp), %rdi
movq %r14, %rsi
callq 0x1e95590
movl %ebp, %eax
subl %r13d, %eax
cmpl $0x1, %eax
jne 0x1e94837
vmovss 0x20(%rsp), %xmm0
vsubss 0x10(%rsp), %xmm0, %xmm0
vxorps %xmm8, %xmm8, %xmm8
vmaxss %xmm8, %xmm0, %xmm0
vmovss 0x57f67(%rip), %xmm1 # 0x1eec714
vsubss %xmm0, %xmm1, %xmm2
vbroadcastss %xmm0, %xmm0
vmovaps 0x70(%rsp), %xmm3
vmovaps 0x80(%rsp), %xmm4
vmulps %xmm3, %xmm0, %xmm5
vbroadcastss %xmm2, %xmm2
vmovaps 0x90(%rsp), %xmm6
vmovaps 0xa0(%rsp), %xmm7
vfmadd231ps %xmm6, %xmm2, %xmm5 # xmm5 = (xmm2 * xmm6) + xmm5
vmulps %xmm4, %xmm0, %xmm0
vfmadd231ps %xmm2, %xmm7, %xmm0 # xmm0 = (xmm7 * xmm2) + xmm0
vmovaps %xmm5, (%rbx)
vmovaps %xmm0, 0x10(%rbx)
vmovss 0x30(%rsp), %xmm0
vsubss 0x40(%rsp), %xmm0, %xmm0
vmaxss %xmm8, %xmm0, %xmm0
vsubss %xmm0, %xmm1, %xmm1
vbroadcastss %xmm0, %xmm0
vmulps %xmm6, %xmm0, %xmm2
vbroadcastss %xmm1, %xmm1
vfmadd231ps %xmm3, %xmm1, %xmm2 # xmm2 = (xmm1 * xmm3) + xmm2
vmulps %xmm7, %xmm0, %xmm0
vfmadd231ps %xmm4, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm4) + xmm0
vmovaps %xmm2, 0x20(%rbx)
vmovaps %xmm0, 0x30(%rbx)
jmp 0x1e94a1d
incl %r15d
movslq %r15d, %rdx
leaq 0x140(%rsp), %r14
leaq 0xf0(%rsp), %r15
movq %r14, %rdi
movq %r15, %rsi
callq 0x1e95590
decl %r12d
movslq %r12d, %rdx
leaq 0x120(%rsp), %r12
movq %r12, %rdi
movq %r15, %rsi
callq 0x1e95590
vmovss 0x20(%rsp), %xmm0
vsubss 0x10(%rsp), %xmm0, %xmm0
vxorps %xmm5, %xmm5, %xmm5
vmaxss %xmm5, %xmm0, %xmm0
vmovss 0x57e87(%rip), %xmm4 # 0x1eec714
vbroadcastss %xmm0, %xmm1
vmulps (%r14), %xmm1, %xmm2
vsubss %xmm0, %xmm4, %xmm0
vbroadcastss %xmm0, %xmm0
vfmadd231ps 0x90(%rsp), %xmm0, %xmm2 # xmm2 = (xmm0 * mem) + xmm2
vmulps 0x10(%r14), %xmm1, %xmm3
vfmadd231ps 0xa0(%rsp), %xmm0, %xmm3 # xmm3 = (xmm0 * mem) + xmm3
vmovss 0x30(%rsp), %xmm0
vsubss 0x40(%rsp), %xmm0, %xmm0
vmaxss %xmm5, %xmm0, %xmm0
vsubss %xmm0, %xmm4, %xmm1
vbroadcastss %xmm0, %xmm0
vmulps (%r12), %xmm0, %xmm5
vbroadcastss %xmm1, %xmm1
vfmadd231ps 0x70(%rsp), %xmm1, %xmm5 # xmm5 = (xmm1 * mem) + xmm5
vmulps 0x10(%r12), %xmm0, %xmm6
vfmadd231ps 0x80(%rsp), %xmm1, %xmm6 # xmm6 = (xmm1 * mem) + xmm6
leal 0x1(%r13), %eax
cmpl %ebp, %eax
jge 0x1e94a0a
vmovss 0x4(%rsp), %xmm1
vmovss 0x50(%rsp), %xmm0
vsubss %xmm1, %xmm0, %xmm0
vmovss %xmm0, 0x8(%rsp)
movl %eax, %r14d
notl %r13d
addl %ebp, %r13d
leaq 0xd0(%rsp), %r15
leaq 0xf0(%rsp), %r12
vmovaps %xmm6, 0x10(%rsp)
vmovaps %xmm5, 0x20(%rsp)
vmovaps %xmm3, 0x30(%rsp)
vmovaps %xmm2, 0x40(%rsp)
vcvtsi2ss %r14d, %xmm8, %xmm0
vdivss 0xc(%rsp), %xmm0, %xmm0
vsubss %xmm1, %xmm0, %xmm0
vdivss 0x8(%rsp), %xmm0, %xmm0
vsubss %xmm0, %xmm4, %xmm1
vbroadcastss %xmm0, %xmm0
vmulps %xmm0, %xmm5, %xmm4
vbroadcastss %xmm1, %xmm1
vfmadd231ps %xmm2, %xmm1, %xmm4 # xmm4 = (xmm1 * xmm2) + xmm4
vmovaps %xmm4, 0x50(%rsp)
vmulps %xmm0, %xmm6, %xmm0
vfmadd231ps %xmm1, %xmm3, %xmm0 # xmm0 = (xmm3 * xmm1) + xmm0
vmovaps %xmm0, 0xb0(%rsp)
movq %r15, %rdi
movq %r12, %rsi
movq %r14, %rdx
callq 0x1e95590
vmovaps 0x10(%rsp), %xmm6
vmovaps 0x20(%rsp), %xmm5
vmovss 0x57d65(%rip), %xmm4 # 0x1eec714
vmovaps 0x30(%rsp), %xmm3
vmovaps 0x40(%rsp), %xmm2
vmovaps 0xd0(%rsp), %xmm0
vsubps 0x50(%rsp), %xmm0, %xmm0
vmovaps 0xe0(%rsp), %xmm1
vsubps 0xb0(%rsp), %xmm1, %xmm1
vxorps %xmm7, %xmm7, %xmm7
vminps %xmm7, %xmm0, %xmm0
vmaxps %xmm7, %xmm1, %xmm1
vaddps %xmm0, %xmm2, %xmm2
vaddps %xmm0, %xmm5, %xmm5
vaddps %xmm1, %xmm3, %xmm3
vaddps %xmm1, %xmm6, %xmm6
vmovss 0x4(%rsp), %xmm1
incq %r14
decl %r13d
jne 0x1e94931
vmovaps %xmm2, (%rbx)
vmovaps %xmm3, 0x10(%rbx)
vmovaps %xmm5, 0x20(%rbx)
vmovaps %xmm6, 0x30(%rbx)
movq %rbx, %rax
addq $0x168, %rsp # imm = 0x168
popq %rbx
popq %r12
popq %r13
popq %r14
popq %r15
popq %rbp
retq
|
/embree[P]embree/kernels/common/scene_curves.cpp
|
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)0, embree::avx512::HermiteCurveGeometryInterface, embree::HermiteCurveT>::linearBounds(unsigned long, embree::BBox<float> const&) const::'lambda'(unsigned long)::operator()(unsigned long) const
|
__forceinline LBBox3fa linearBounds(size_t primID, const BBox1f& dt) const {
return LBBox3fa([&] (size_t itime) { return bounds(primID, itime); }, dt, this->time_range, fnumTimeSegments);
}
|
pushq %rbx
movq (%rsi), %rax
movq 0x8(%rsi), %rcx
movq 0x58(%rcx), %rsi
movq 0x68(%rcx), %r8
imulq (%rax), %r8
movl (%rsi,%r8), %esi
movq 0x188(%rcx), %rax
imulq $0x38, %rdx, %rdx
movq (%rax,%rdx), %r8
movq 0x10(%rax,%rdx), %r9
movq %r9, %r10
imulq %rsi, %r10
vmovaps (%r8,%r10), %xmm3
leal 0x1(%rsi), %r11d
imulq %r11, %r9
vmovaps (%r8,%r9), %xmm2
movq 0x1c8(%rcx), %rax
movq (%rax,%rdx), %rbx
movq 0x10(%rax,%rdx), %rdx
imulq %rdx, %rsi
vmovaps (%rbx,%rsi), %xmm4
movq %rdi, %rax
imulq %r11, %rdx
vmovaps (%rbx,%rdx), %xmm5
vmovss 0x24c(%rcx), %xmm6
vmulss 0xc(%r8,%r10), %xmm6, %xmm10
vinsertps $0x30, %xmm10, %xmm3, %xmm8 # xmm8 = xmm3[0,1,2],xmm10[0]
vmulss 0xc(%r8,%r9), %xmm6, %xmm0
vinsertps $0x30, %xmm0, %xmm2, %xmm1 # xmm1 = xmm2[0,1,2],xmm0[0]
vmulss 0xc(%rbx,%rsi), %xmm6, %xmm7
vinsertps $0x30, %xmm7, %xmm4, %xmm7 # xmm7 = xmm4[0,1,2],xmm7[0]
vmulss 0xc(%rbx,%rdx), %xmm6, %xmm4
vinsertps $0x30, %xmm4, %xmm5, %xmm4 # xmm4 = xmm5[0,1,2],xmm4[0]
vbroadcastss 0xc898b(%rip), %xmm5 # 0x1f5d46c
vfnmadd213ps %xmm8, %xmm5, %xmm7 # xmm7 = -(xmm5 * xmm7) + xmm8
vfmadd213ps %xmm1, %xmm5, %xmm4 # xmm4 = (xmm5 * xmm4) + xmm1
movl 0x248(%rcx), %ecx
cmpq $0x4, %rcx
jne 0x1e94cea
leaq 0x2927e2(%rip), %rcx # 0x21272e4
vmovups 0x110(%rcx), %xmm5
vbroadcastss %xmm3, %xmm6
vshufps $0x55, %xmm3, %xmm3, %xmm8 # xmm8 = xmm3[1,1,1,1]
vshufps $0xaa, %xmm3, %xmm3, %xmm3 # xmm3 = xmm3[2,2,2,2]
vbroadcastss %xmm10, %xmm9
vmovups 0x594(%rcx), %xmm10
vbroadcastss %xmm7, %xmm11
vshufps $0x55, %xmm7, %xmm7, %xmm12 # xmm12 = xmm7[1,1,1,1]
vshufps $0xaa, %xmm7, %xmm7, %xmm13 # xmm13 = xmm7[2,2,2,2]
vshufps $0xff, %xmm7, %xmm7, %xmm7 # xmm7 = xmm7[3,3,3,3]
vmovups 0xa18(%rcx), %xmm14
vbroadcastss %xmm4, %xmm15
vshufps $0x55, %xmm4, %xmm4, %xmm16 # xmm16 = xmm4[1,1,1,1]
vshufps $0xaa, %xmm4, %xmm4, %xmm17 # xmm17 = xmm4[2,2,2,2]
vshufps $0xff, %xmm4, %xmm4, %xmm4 # xmm4 = xmm4[3,3,3,3]
vmovups 0xe9c(%rcx), %xmm18
vbroadcastss %xmm2, %xmm19
vshufps $0x55, %xmm2, %xmm2, %xmm20 # xmm20 = xmm2[1,1,1,1]
vshufps $0xaa, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[2,2,2,2]
vbroadcastss %xmm0, %xmm21
vmulps %xmm18, %xmm19, %xmm19
vmulps %xmm18, %xmm20, %xmm20
vmulps %xmm18, %xmm2, %xmm2
vmulps %xmm18, %xmm21, %xmm18
vfmadd231ps %xmm15, %xmm14, %xmm19 # xmm19 = (xmm14 * xmm15) + xmm19
vfmadd231ps %xmm16, %xmm14, %xmm20 # xmm20 = (xmm14 * xmm16) + xmm20
vfmadd231ps %xmm17, %xmm14, %xmm2 # xmm2 = (xmm14 * xmm17) + xmm2
vfmadd231ps %xmm4, %xmm14, %xmm18 # xmm18 = (xmm14 * xmm4) + xmm18
vfmadd231ps %xmm11, %xmm10, %xmm19 # xmm19 = (xmm10 * xmm11) + xmm19
vfmadd231ps %xmm12, %xmm10, %xmm20 # xmm20 = (xmm10 * xmm12) + xmm20
vfmadd231ps %xmm13, %xmm10, %xmm2 # xmm2 = (xmm10 * xmm13) + xmm2
vfmadd231ps %xmm7, %xmm10, %xmm18 # xmm18 = (xmm10 * xmm7) + xmm18
vfmadd231ps %xmm6, %xmm5, %xmm19 # xmm19 = (xmm5 * xmm6) + xmm19
vfmadd231ps %xmm8, %xmm5, %xmm20 # xmm20 = (xmm5 * xmm8) + xmm20
vfmadd231ps %xmm3, %xmm5, %xmm2 # xmm2 = (xmm5 * xmm3) + xmm2
vfmadd231ps %xmm9, %xmm5, %xmm18 # xmm18 = (xmm5 * xmm9) + xmm18
vshufps $0xb1, %xmm19, %xmm19, %xmm3 # xmm3 = xmm19[1,0,3,2]
vminps %xmm19, %xmm3, %xmm4
vshufpd $0x1, %xmm4, %xmm4, %xmm5 # xmm5 = xmm4[1,0]
vminps %xmm4, %xmm5, %xmm4
vshufps $0xb1, %xmm20, %xmm20, %xmm6 # xmm6 = xmm20[1,0,3,2]
vminps %xmm20, %xmm6, %xmm5
vshufpd $0x1, %xmm5, %xmm5, %xmm7 # xmm7 = xmm5[1,0]
vminps %xmm5, %xmm7, %xmm5
vinsertps $0x1c, %xmm5, %xmm4, %xmm4 # xmm4 = xmm4[0],xmm5[0],zero,zero
vshufps $0xb1, %xmm2, %xmm2, %xmm7 # xmm7 = xmm2[1,0,3,2]
vminps %xmm2, %xmm7, %xmm5
vshufpd $0x1, %xmm5, %xmm5, %xmm8 # xmm8 = xmm5[1,0]
vminps %xmm5, %xmm8, %xmm5
vinsertps $0x20, %xmm5, %xmm4, %xmm5 # xmm5 = xmm4[0,1],xmm5[0],xmm4[3]
vmaxps %xmm19, %xmm3, %xmm3
vshufpd $0x1, %xmm3, %xmm3, %xmm4 # xmm4 = xmm3[1,0]
vmaxps %xmm3, %xmm4, %xmm3
vmaxps %xmm20, %xmm6, %xmm4
vshufpd $0x1, %xmm4, %xmm4, %xmm6 # xmm6 = xmm4[1,0]
vmaxps %xmm4, %xmm6, %xmm4
vinsertps $0x1c, %xmm4, %xmm3, %xmm3 # xmm3 = xmm3[0],xmm4[0],zero,zero
vmaxps %xmm2, %xmm7, %xmm2
vshufpd $0x1, %xmm2, %xmm2, %xmm4 # xmm4 = xmm2[1,0]
vmaxps %xmm2, %xmm4, %xmm2
vandps 0x8c265(%rip){1to4}, %xmm18, %xmm4 # 0x1f20ec4
vinsertps $0x20, %xmm2, %xmm3, %xmm3 # xmm3 = xmm3[0,1],xmm2[0],xmm3[3]
vprolq $0x20, %xmm4, %xmm2
vmaxps %xmm4, %xmm2, %xmm2
vbroadcastss %xmm2, %xmm4
vshufps $0xaa, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[2,2,2,2]
vmaxps %xmm4, %xmm2, %xmm2
vminps %xmm1, %xmm5, %xmm4
vmaxps %xmm1, %xmm3, %xmm1
vbroadcastss %xmm0, %xmm0
vandps 0x8c22f(%rip){1to4}, %xmm0, %xmm0 # 0x1f20ec4
vmaxps %xmm0, %xmm2, %xmm0
vsubps %xmm0, %xmm4, %xmm2
vaddps %xmm0, %xmm1, %xmm0
vbroadcastss 0x8c21a(%rip), %xmm1 # 0x1f20ec4
vandps %xmm1, %xmm2, %xmm3
vandps %xmm1, %xmm0, %xmm1
vmaxps %xmm1, %xmm3, %xmm1
vmovshdup %xmm1, %xmm3 # xmm3 = xmm1[1,1,3,3]
vmaxss %xmm1, %xmm3, %xmm3
vshufpd $0x1, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[1,0]
vmaxss %xmm3, %xmm1, %xmm1
vmulss 0x5c315(%rip), %xmm1, %xmm1 # 0x1ef0fe4
vbroadcastss %xmm1, %xmm1
vsubps %xmm1, %xmm2, %xmm2
vaddps %xmm1, %xmm0, %xmm0
vmovaps %xmm2, (%rax)
vmovaps %xmm0, 0x10(%rax)
popq %rbx
vzeroupper
retq
testl %ecx, %ecx
jle 0x1e94e96
vpbroadcastd %ecx, %ymm5
vbroadcastss %xmm3, %ymm6
vbroadcastss 0x7d9fd(%rip), %ymm21 # 0x1f12704
vpermps %ymm3, %ymm21, %ymm8
vbroadcastss 0x8c1c5(%rip), %ymm22 # 0x1f20edc
vpermps %ymm3, %ymm22, %ymm9
vbroadcastss %xmm10, %ymm11
vbroadcastss %xmm7, %ymm12
vpermps %ymm7, %ymm21, %ymm13
vbroadcastss 0x8c1a2(%rip), %ymm3 # 0x1f20ed8
vpermps %ymm7, %ymm22, %ymm14
vpermps %ymm7, %ymm3, %ymm15
vbroadcastss %xmm4, %ymm16
vpermps %ymm4, %ymm21, %ymm17
vpermps %ymm4, %ymm22, %ymm18
vpermps %ymm4, %ymm3, %ymm19
vbroadcastss %xmm2, %ymm20
vpermps %ymm2, %ymm21, %ymm23
vpermps %ymm2, %ymm22, %ymm24
vbroadcastss %xmm0, %ymm25
movq %rcx, %rdx
shlq $0x6, %rdx
leaq (%rdx,%rcx,4), %rdx
addq 0x28f2dd(%rip), %rdx # 0x2124060
vbroadcastss 0x57df8(%rip), %ymm3 # 0x1eecb84
vbroadcastss 0x56c8b(%rip), %ymm10 # 0x1eeba20
vxorps %xmm2, %xmm2, %xmm2
xorl %esi, %esi
vbroadcastss 0x8c11f(%rip), %ymm27 # 0x1f20ec4
vmovaps %ymm10, %ymm22
vmovaps %ymm10, %ymm21
vmovaps %ymm3, %ymm4
vmovaps %ymm3, %ymm7
vpbroadcastd %esi, %ymm28
vpord 0xc5b57(%rip), %ymm28, %ymm28 # 0x1f5a920
vpcmpgtd %ymm28, %ymm5, %k1
vmovups 0x908(%rdx,%rsi,4), %ymm28
vmovups 0xd8c(%rdx,%rsi,4), %ymm29
vmulps %ymm29, %ymm20, %ymm30
vmulps %ymm29, %ymm23, %ymm31
vmulps %ymm29, %ymm24, %ymm26
vmulps %ymm29, %ymm25, %ymm29
vfmadd231ps %ymm16, %ymm28, %ymm30 # ymm30 = (ymm28 * ymm16) + ymm30
vfmadd231ps %ymm17, %ymm28, %ymm31 # ymm31 = (ymm28 * ymm17) + ymm31
vfmadd231ps %ymm18, %ymm28, %ymm26 # ymm26 = (ymm28 * ymm18) + ymm26
vfmadd231ps %ymm28, %ymm19, %ymm29 # ymm29 = (ymm19 * ymm28) + ymm29
vmovups 0x484(%rdx,%rsi,4), %ymm28
vfmadd231ps %ymm12, %ymm28, %ymm30 # ymm30 = (ymm28 * ymm12) + ymm30
vfmadd231ps %ymm13, %ymm28, %ymm31 # ymm31 = (ymm28 * ymm13) + ymm31
vfmadd231ps %ymm14, %ymm28, %ymm26 # ymm26 = (ymm28 * ymm14) + ymm26
vfmadd231ps %ymm28, %ymm15, %ymm29 # ymm29 = (ymm15 * ymm28) + ymm29
vmovups (%rdx,%rsi,4), %ymm28
vfmadd231ps %ymm6, %ymm28, %ymm30 # ymm30 = (ymm28 * ymm6) + ymm30
vfmadd231ps %ymm8, %ymm28, %ymm31 # ymm31 = (ymm28 * ymm8) + ymm31
vfmadd231ps %ymm9, %ymm28, %ymm26 # ymm26 = (ymm28 * ymm9) + ymm26
vfmadd231ps %ymm28, %ymm11, %ymm29 # ymm29 = (ymm11 * ymm28) + ymm29
vminps %ymm30, %ymm21, %ymm21 {%k1}
vmaxps %ymm30, %ymm7, %ymm7 {%k1}
vminps %ymm31, %ymm22, %ymm22 {%k1}
vmaxps %ymm31, %ymm4, %ymm4 {%k1}
vminps %ymm26, %ymm10, %ymm10 {%k1}
vmaxps %ymm26, %ymm3, %ymm3 {%k1}
vandps %ymm27, %ymm29, %ymm26
vmaxps %ymm26, %ymm2, %ymm2 {%k1}
addq $0x8, %rsi
cmpq %rcx, %rsi
jb 0x1e94db9
jmp 0x1e94ec1
vbroadcastss 0x56b80(%rip), %ymm21 # 0x1eeba20
vbroadcastss 0x57cdb(%rip), %ymm7 # 0x1eecb84
vxorps %xmm2, %xmm2, %xmm2
vmovaps %ymm7, %ymm4
vmovaps %ymm7, %ymm3
vmovaps %ymm21, %ymm22
vmovaps %ymm21, %ymm10
vshufps $0xb1, %ymm21, %ymm21, %ymm5 # ymm5 = ymm21[1,0,3,2,5,4,7,6]
vminps %ymm5, %ymm21, %ymm5
vshufpd $0x5, %ymm5, %ymm5, %ymm6 # ymm6 = ymm5[1,0,3,2]
vminps %ymm6, %ymm5, %ymm5
vextractf128 $0x1, %ymm5, %xmm6
vminps %xmm6, %xmm5, %xmm5
vshufps $0xb1, %ymm22, %ymm22, %ymm6 # ymm6 = ymm22[1,0,3,2,5,4,7,6]
vminps %ymm6, %ymm22, %ymm6
vshufpd $0x5, %ymm6, %ymm6, %ymm8 # ymm8 = ymm6[1,0,3,2]
vminps %ymm8, %ymm6, %ymm6
vextractf128 $0x1, %ymm6, %xmm8
vminps %xmm8, %xmm6, %xmm6
vunpcklps %xmm6, %xmm5, %xmm5 # xmm5 = xmm5[0],xmm6[0],xmm5[1],xmm6[1]
vshufps $0xb1, %ymm10, %ymm10, %ymm6 # ymm6 = ymm10[1,0,3,2,5,4,7,6]
vminps %ymm6, %ymm10, %ymm6
vshufpd $0x5, %ymm6, %ymm6, %ymm8 # ymm8 = ymm6[1,0,3,2]
vminps %ymm8, %ymm6, %ymm6
vextractf128 $0x1, %ymm6, %xmm8
vminps %xmm8, %xmm6, %xmm6
vinsertps $0x28, %xmm6, %xmm5, %xmm5 # xmm5 = xmm5[0,1],xmm6[0],zero
vshufps $0xb1, %ymm7, %ymm7, %ymm6 # ymm6 = ymm7[1,0,3,2,5,4,7,6]
vmaxps %ymm6, %ymm7, %ymm6
vshufpd $0x5, %ymm6, %ymm6, %ymm7 # ymm7 = ymm6[1,0,3,2]
vmaxps %ymm7, %ymm6, %ymm6
vextractf128 $0x1, %ymm6, %xmm7
vmaxps %xmm7, %xmm6, %xmm6
vshufps $0xb1, %ymm4, %ymm4, %ymm7 # ymm7 = ymm4[1,0,3,2,5,4,7,6]
vmaxps %ymm7, %ymm4, %ymm4
vshufpd $0x5, %ymm4, %ymm4, %ymm7 # ymm7 = ymm4[1,0,3,2]
vmaxps %ymm7, %ymm4, %ymm4
vextractf128 $0x1, %ymm4, %xmm7
vmaxps %xmm7, %xmm4, %xmm4
vunpcklps %xmm4, %xmm6, %xmm4 # xmm4 = xmm6[0],xmm4[0],xmm6[1],xmm4[1]
vshufps $0xb1, %ymm3, %ymm3, %ymm6 # ymm6 = ymm3[1,0,3,2,5,4,7,6]
vmaxps %ymm6, %ymm3, %ymm3
vshufpd $0x5, %ymm3, %ymm3, %ymm6 # ymm6 = ymm3[1,0,3,2]
vmaxps %ymm6, %ymm3, %ymm3
vextractf128 $0x1, %ymm3, %xmm6
vmaxps %xmm6, %xmm3, %xmm3
vinsertps $0x28, %xmm3, %xmm4, %xmm3 # xmm3 = xmm4[0,1],xmm3[0],zero
vshufps $0xb1, %ymm2, %ymm2, %ymm4 # ymm4 = ymm2[1,0,3,2,5,4,7,6]
vmaxps %ymm4, %ymm2, %ymm2
vshufpd $0x5, %ymm2, %ymm2, %ymm4 # ymm4 = ymm2[1,0,3,2]
vmaxps %ymm4, %ymm2, %ymm2
vextractf128 $0x1, %ymm2, %xmm4
vmaxps %xmm4, %xmm2, %xmm2
vbroadcastss %xmm2, %xmm2
jmp 0x1e94c7e
|
/embree[P]embree/kernels/common/scene_curves.cpp
|
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)0, embree::avx512::HermiteCurveGeometryInterface, embree::HermiteCurveT>::linearBounds(embree::LinearSpace3<embree::Vec3fa> const&, unsigned long, embree::BBox<float> const&) const::'lambda'(unsigned long)::operator()(unsigned long) const
|
__forceinline LBBox3fa linearBounds(const LinearSpace3fa& space, size_t primID, const BBox1f& dt) const {
return LBBox3fa([&] (size_t itime) { return bounds(space, primID, itime); }, dt, this->time_range, fnumTimeSegments);
}
|
pushq %r14
pushq %rbx
movq %rdi, %rax
movq 0x10(%rsi), %rcx
movq (%rsi), %r10
movq 0x8(%rsi), %rsi
movq 0x58(%rcx), %rdi
movq 0x68(%rcx), %r8
imulq (%rsi), %r8
movl (%rdi,%r8), %esi
movq 0x188(%rcx), %rdi
imulq $0x38, %rdx, %r11
movq (%rdi,%r11), %r8
movq 0x10(%rdi,%r11), %r9
movq %r9, %rbx
imulq %rsi, %rbx
leal 0x1(%rsi), %r14d
imulq %r14, %r9
movq 0x1c8(%rcx), %rdi
movq (%rdi,%r11), %rdx
movq 0x10(%rdi,%r11), %rdi
imulq %rdi, %rsi
imulq %r14, %rdi
vmovaps (%r10), %xmm5
vmovaps 0x10(%r10), %xmm6
vmovaps 0x20(%r10), %xmm7
vmulps 0x8(%r8,%rbx){1to4}, %xmm7, %xmm3
vfmadd231ps 0x4(%r8,%rbx){1to4}, %xmm6, %xmm3 # xmm3 = (xmm6 * mem) + xmm3
vfmadd231ps (%r8,%rbx){1to4}, %xmm5, %xmm3 # xmm3 = (xmm5 * mem) + xmm3
vmovss 0x24c(%rcx), %xmm8
vmulss 0xc(%r8,%rbx), %xmm8, %xmm4
vmulps 0x8(%r8,%r9){1to4}, %xmm7, %xmm2
vfmadd231ps 0x4(%r8,%r9){1to4}, %xmm6, %xmm2 # xmm2 = (xmm6 * mem) + xmm2
vinsertps $0x30, %xmm4, %xmm3, %xmm9 # xmm9 = xmm3[0,1,2],xmm4[0]
vfmadd231ps (%r8,%r9){1to4}, %xmm5, %xmm2 # xmm2 = (xmm5 * mem) + xmm2
vmulss 0xc(%r8,%r9), %xmm8, %xmm0
vinsertps $0x30, %xmm0, %xmm2, %xmm1 # xmm1 = xmm2[0,1,2],xmm0[0]
vmulps 0x8(%rdx,%rsi){1to4}, %xmm7, %xmm10
vfmadd231ps 0x4(%rdx,%rsi){1to4}, %xmm6, %xmm10 # xmm10 = (xmm6 * mem) + xmm10
vfmadd231ps (%rdx,%rsi){1to4}, %xmm5, %xmm10 # xmm10 = (xmm5 * mem) + xmm10
vmulss 0xc(%rdx,%rsi), %xmm8, %xmm11
vmulps 0x8(%rdx,%rdi){1to4}, %xmm7, %xmm7
vfmadd231ps 0x4(%rdx,%rdi){1to4}, %xmm6, %xmm7 # xmm7 = (xmm6 * mem) + xmm7
vinsertps $0x30, %xmm11, %xmm10, %xmm10 # xmm10 = xmm10[0,1,2],xmm11[0]
vfmadd231ps (%rdx,%rdi){1to4}, %xmm5, %xmm7 # xmm7 = (xmm5 * mem) + xmm7
vmulss 0xc(%rdx,%rdi), %xmm8, %xmm5
vinsertps $0x30, %xmm5, %xmm7, %xmm7 # xmm7 = xmm7[0,1,2],xmm5[0]
vbroadcastss 0xc83b0(%rip), %xmm5 # 0x1f5d46c
vfnmadd213ps %xmm9, %xmm5, %xmm10 # xmm10 = -(xmm5 * xmm10) + xmm9
vfmadd213ps %xmm1, %xmm5, %xmm7 # xmm7 = (xmm5 * xmm7) + xmm1
movl 0x248(%rcx), %ecx
cmpq $0x4, %rcx
jne 0x1e952ca
leaq 0x292207(%rip), %rcx # 0x21272e4
vmovups 0x110(%rcx), %xmm5
vbroadcastss %xmm3, %xmm6
vshufps $0x55, %xmm3, %xmm3, %xmm8 # xmm8 = xmm3[1,1,1,1]
vshufps $0xaa, %xmm3, %xmm3, %xmm3 # xmm3 = xmm3[2,2,2,2]
vbroadcastss %xmm4, %xmm4
vmovups 0x594(%rcx), %xmm9
vbroadcastss %xmm10, %xmm11
vshufps $0x55, %xmm10, %xmm10, %xmm12 # xmm12 = xmm10[1,1,1,1]
vshufps $0xaa, %xmm10, %xmm10, %xmm13 # xmm13 = xmm10[2,2,2,2]
vshufps $0xff, %xmm10, %xmm10, %xmm10 # xmm10 = xmm10[3,3,3,3]
vmovups 0xa18(%rcx), %xmm14
vbroadcastss %xmm7, %xmm15
vshufps $0x55, %xmm7, %xmm7, %xmm16 # xmm16 = xmm7[1,1,1,1]
vshufps $0xaa, %xmm7, %xmm7, %xmm17 # xmm17 = xmm7[2,2,2,2]
vshufps $0xff, %xmm7, %xmm7, %xmm7 # xmm7 = xmm7[3,3,3,3]
vmovups 0xe9c(%rcx), %xmm18
vbroadcastss %xmm2, %xmm19
vshufps $0x55, %xmm2, %xmm2, %xmm20 # xmm20 = xmm2[1,1,1,1]
vshufps $0xaa, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[2,2,2,2]
vbroadcastss %xmm0, %xmm21
vmulps %xmm18, %xmm19, %xmm19
vmulps %xmm18, %xmm20, %xmm20
vmulps %xmm18, %xmm2, %xmm2
vmulps %xmm18, %xmm21, %xmm18
vfmadd231ps %xmm15, %xmm14, %xmm19 # xmm19 = (xmm14 * xmm15) + xmm19
vfmadd231ps %xmm16, %xmm14, %xmm20 # xmm20 = (xmm14 * xmm16) + xmm20
vfmadd231ps %xmm17, %xmm14, %xmm2 # xmm2 = (xmm14 * xmm17) + xmm2
vfmadd231ps %xmm7, %xmm14, %xmm18 # xmm18 = (xmm14 * xmm7) + xmm18
vfmadd231ps %xmm11, %xmm9, %xmm19 # xmm19 = (xmm9 * xmm11) + xmm19
vfmadd231ps %xmm12, %xmm9, %xmm20 # xmm20 = (xmm9 * xmm12) + xmm20
vfmadd231ps %xmm13, %xmm9, %xmm2 # xmm2 = (xmm9 * xmm13) + xmm2
vfmadd231ps %xmm10, %xmm9, %xmm18 # xmm18 = (xmm9 * xmm10) + xmm18
vfmadd231ps %xmm6, %xmm5, %xmm19 # xmm19 = (xmm5 * xmm6) + xmm19
vfmadd231ps %xmm8, %xmm5, %xmm20 # xmm20 = (xmm5 * xmm8) + xmm20
vfmadd231ps %xmm3, %xmm5, %xmm2 # xmm2 = (xmm5 * xmm3) + xmm2
vfmadd231ps %xmm4, %xmm5, %xmm18 # xmm18 = (xmm5 * xmm4) + xmm18
vshufps $0xb1, %xmm19, %xmm19, %xmm3 # xmm3 = xmm19[1,0,3,2]
vminps %xmm19, %xmm3, %xmm4
vshufpd $0x1, %xmm4, %xmm4, %xmm5 # xmm5 = xmm4[1,0]
vminps %xmm4, %xmm5, %xmm4
vshufps $0xb1, %xmm20, %xmm20, %xmm6 # xmm6 = xmm20[1,0,3,2]
vminps %xmm20, %xmm6, %xmm5
vshufpd $0x1, %xmm5, %xmm5, %xmm7 # xmm7 = xmm5[1,0]
vminps %xmm5, %xmm7, %xmm5
vinsertps $0x1c, %xmm5, %xmm4, %xmm4 # xmm4 = xmm4[0],xmm5[0],zero,zero
vshufps $0xb1, %xmm2, %xmm2, %xmm7 # xmm7 = xmm2[1,0,3,2]
vminps %xmm2, %xmm7, %xmm5
vshufpd $0x1, %xmm5, %xmm5, %xmm8 # xmm8 = xmm5[1,0]
vminps %xmm5, %xmm8, %xmm5
vinsertps $0x20, %xmm5, %xmm4, %xmm5 # xmm5 = xmm4[0,1],xmm5[0],xmm4[3]
vmaxps %xmm19, %xmm3, %xmm3
vshufpd $0x1, %xmm3, %xmm3, %xmm4 # xmm4 = xmm3[1,0]
vmaxps %xmm3, %xmm4, %xmm3
vmaxps %xmm20, %xmm6, %xmm4
vshufpd $0x1, %xmm4, %xmm4, %xmm6 # xmm6 = xmm4[1,0]
vmaxps %xmm4, %xmm6, %xmm4
vinsertps $0x1c, %xmm4, %xmm3, %xmm3 # xmm3 = xmm3[0],xmm4[0],zero,zero
vmaxps %xmm2, %xmm7, %xmm2
vshufpd $0x1, %xmm2, %xmm2, %xmm4 # xmm4 = xmm2[1,0]
vmaxps %xmm2, %xmm4, %xmm2
vandps 0x8bc87(%rip){1to4}, %xmm18, %xmm4 # 0x1f20ec4
vinsertps $0x20, %xmm2, %xmm3, %xmm3 # xmm3 = xmm3[0,1],xmm2[0],xmm3[3]
vprolq $0x20, %xmm4, %xmm2
vmaxps %xmm4, %xmm2, %xmm2
vbroadcastss %xmm2, %xmm4
vshufps $0xaa, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[2,2,2,2]
vmaxps %xmm4, %xmm2, %xmm2
vminps %xmm1, %xmm5, %xmm4
vmaxps %xmm1, %xmm3, %xmm1
vbroadcastss %xmm0, %xmm0
vandps 0x8bc51(%rip){1to4}, %xmm0, %xmm0 # 0x1f20ec4
vmaxps %xmm0, %xmm2, %xmm0
vsubps %xmm0, %xmm4, %xmm2
vaddps %xmm0, %xmm1, %xmm0
vbroadcastss 0x8bc3c(%rip), %xmm1 # 0x1f20ec4
vandps %xmm1, %xmm2, %xmm3
vandps %xmm1, %xmm0, %xmm1
vmaxps %xmm1, %xmm3, %xmm1
vmovshdup %xmm1, %xmm3 # xmm3 = xmm1[1,1,3,3]
vmaxss %xmm1, %xmm3, %xmm3
vshufpd $0x1, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[1,0]
vmaxss %xmm3, %xmm1, %xmm1
vmulss 0x5bd37(%rip), %xmm1, %xmm1 # 0x1ef0fe4
vbroadcastss %xmm1, %xmm1
vsubps %xmm1, %xmm2, %xmm2
vaddps %xmm1, %xmm0, %xmm0
vmovaps %xmm2, (%rax)
vmovaps %xmm0, 0x10(%rax)
popq %rbx
popq %r14
vzeroupper
retq
testl %ecx, %ecx
jle 0x1e95476
vpbroadcastd %ecx, %ymm5
vbroadcastss %xmm3, %ymm6
vbroadcastss 0x7d41d(%rip), %ymm21 # 0x1f12704
vpermps %ymm3, %ymm21, %ymm8
vbroadcastss 0x8bbe5(%rip), %ymm22 # 0x1f20edc
vpermps %ymm3, %ymm22, %ymm9
vbroadcastss %xmm4, %ymm11
vbroadcastss %xmm10, %ymm12
vpermps %ymm10, %ymm21, %ymm13
vbroadcastss 0x8bbc2(%rip), %ymm3 # 0x1f20ed8
vpermps %ymm10, %ymm22, %ymm14
vpermps %ymm10, %ymm3, %ymm15
vbroadcastss %xmm7, %ymm16
vpermps %ymm7, %ymm21, %ymm17
vpermps %ymm7, %ymm22, %ymm18
vpermps %ymm7, %ymm3, %ymm19
vbroadcastss %xmm2, %ymm20
vpermps %ymm2, %ymm21, %ymm23
vpermps %ymm2, %ymm22, %ymm24
vbroadcastss %xmm0, %ymm25
movq %rcx, %rdx
shlq $0x6, %rdx
leaq (%rdx,%rcx,4), %rdx
addq 0x28ecfd(%rip), %rdx # 0x2124060
vbroadcastss 0x57818(%rip), %ymm3 # 0x1eecb84
vbroadcastss 0x566ab(%rip), %ymm10 # 0x1eeba20
vxorps %xmm2, %xmm2, %xmm2
xorl %esi, %esi
vbroadcastss 0x8bb3f(%rip), %ymm27 # 0x1f20ec4
vmovaps %ymm10, %ymm22
vmovaps %ymm10, %ymm21
vmovaps %ymm3, %ymm4
vmovaps %ymm3, %ymm7
vpbroadcastd %esi, %ymm28
vpord 0xc5577(%rip), %ymm28, %ymm28 # 0x1f5a920
vpcmpgtd %ymm28, %ymm5, %k1
vmovups 0x908(%rdx,%rsi,4), %ymm28
vmovups 0xd8c(%rdx,%rsi,4), %ymm29
vmulps %ymm29, %ymm20, %ymm30
vmulps %ymm29, %ymm23, %ymm31
vmulps %ymm29, %ymm24, %ymm26
vmulps %ymm29, %ymm25, %ymm29
vfmadd231ps %ymm16, %ymm28, %ymm30 # ymm30 = (ymm28 * ymm16) + ymm30
vfmadd231ps %ymm17, %ymm28, %ymm31 # ymm31 = (ymm28 * ymm17) + ymm31
vfmadd231ps %ymm18, %ymm28, %ymm26 # ymm26 = (ymm28 * ymm18) + ymm26
vfmadd231ps %ymm28, %ymm19, %ymm29 # ymm29 = (ymm19 * ymm28) + ymm29
vmovups 0x484(%rdx,%rsi,4), %ymm28
vfmadd231ps %ymm12, %ymm28, %ymm30 # ymm30 = (ymm28 * ymm12) + ymm30
vfmadd231ps %ymm13, %ymm28, %ymm31 # ymm31 = (ymm28 * ymm13) + ymm31
vfmadd231ps %ymm14, %ymm28, %ymm26 # ymm26 = (ymm28 * ymm14) + ymm26
vfmadd231ps %ymm28, %ymm15, %ymm29 # ymm29 = (ymm15 * ymm28) + ymm29
vmovups (%rdx,%rsi,4), %ymm28
vfmadd231ps %ymm6, %ymm28, %ymm30 # ymm30 = (ymm28 * ymm6) + ymm30
vfmadd231ps %ymm8, %ymm28, %ymm31 # ymm31 = (ymm28 * ymm8) + ymm31
vfmadd231ps %ymm9, %ymm28, %ymm26 # ymm26 = (ymm28 * ymm9) + ymm26
vfmadd231ps %ymm28, %ymm11, %ymm29 # ymm29 = (ymm11 * ymm28) + ymm29
vminps %ymm30, %ymm21, %ymm21 {%k1}
vmaxps %ymm30, %ymm7, %ymm7 {%k1}
vminps %ymm31, %ymm22, %ymm22 {%k1}
vmaxps %ymm31, %ymm4, %ymm4 {%k1}
vminps %ymm26, %ymm10, %ymm10 {%k1}
vmaxps %ymm26, %ymm3, %ymm3 {%k1}
vandps %ymm27, %ymm29, %ymm26
vmaxps %ymm26, %ymm2, %ymm2 {%k1}
addq $0x8, %rsi
cmpq %rcx, %rsi
jb 0x1e95399
jmp 0x1e954a1
vbroadcastss 0x565a0(%rip), %ymm21 # 0x1eeba20
vbroadcastss 0x576fb(%rip), %ymm7 # 0x1eecb84
vxorps %xmm2, %xmm2, %xmm2
vmovaps %ymm7, %ymm4
vmovaps %ymm7, %ymm3
vmovaps %ymm21, %ymm22
vmovaps %ymm21, %ymm10
vshufps $0xb1, %ymm21, %ymm21, %ymm5 # ymm5 = ymm21[1,0,3,2,5,4,7,6]
vminps %ymm5, %ymm21, %ymm5
vshufpd $0x5, %ymm5, %ymm5, %ymm6 # ymm6 = ymm5[1,0,3,2]
vminps %ymm6, %ymm5, %ymm5
vextractf128 $0x1, %ymm5, %xmm6
vminps %xmm6, %xmm5, %xmm5
vshufps $0xb1, %ymm22, %ymm22, %ymm6 # ymm6 = ymm22[1,0,3,2,5,4,7,6]
vminps %ymm6, %ymm22, %ymm6
vshufpd $0x5, %ymm6, %ymm6, %ymm8 # ymm8 = ymm6[1,0,3,2]
vminps %ymm8, %ymm6, %ymm6
vextractf128 $0x1, %ymm6, %xmm8
vminps %xmm8, %xmm6, %xmm6
vunpcklps %xmm6, %xmm5, %xmm5 # xmm5 = xmm5[0],xmm6[0],xmm5[1],xmm6[1]
vshufps $0xb1, %ymm10, %ymm10, %ymm6 # ymm6 = ymm10[1,0,3,2,5,4,7,6]
vminps %ymm6, %ymm10, %ymm6
vshufpd $0x5, %ymm6, %ymm6, %ymm8 # ymm8 = ymm6[1,0,3,2]
vminps %ymm8, %ymm6, %ymm6
vextractf128 $0x1, %ymm6, %xmm8
vminps %xmm8, %xmm6, %xmm6
vinsertps $0x28, %xmm6, %xmm5, %xmm5 # xmm5 = xmm5[0,1],xmm6[0],zero
vshufps $0xb1, %ymm7, %ymm7, %ymm6 # ymm6 = ymm7[1,0,3,2,5,4,7,6]
vmaxps %ymm6, %ymm7, %ymm6
vshufpd $0x5, %ymm6, %ymm6, %ymm7 # ymm7 = ymm6[1,0,3,2]
vmaxps %ymm7, %ymm6, %ymm6
vextractf128 $0x1, %ymm6, %xmm7
vmaxps %xmm7, %xmm6, %xmm6
vshufps $0xb1, %ymm4, %ymm4, %ymm7 # ymm7 = ymm4[1,0,3,2,5,4,7,6]
vmaxps %ymm7, %ymm4, %ymm4
vshufpd $0x5, %ymm4, %ymm4, %ymm7 # ymm7 = ymm4[1,0,3,2]
vmaxps %ymm7, %ymm4, %ymm4
vextractf128 $0x1, %ymm4, %xmm7
vmaxps %xmm7, %xmm4, %xmm4
vunpcklps %xmm4, %xmm6, %xmm4 # xmm4 = xmm6[0],xmm4[0],xmm6[1],xmm4[1]
vshufps $0xb1, %ymm3, %ymm3, %ymm6 # ymm6 = ymm3[1,0,3,2,5,4,7,6]
vmaxps %ymm6, %ymm3, %ymm3
vshufpd $0x5, %ymm3, %ymm3, %ymm6 # ymm6 = ymm3[1,0,3,2]
vmaxps %ymm6, %ymm3, %ymm3
vextractf128 $0x1, %ymm3, %xmm6
vmaxps %xmm6, %xmm3, %xmm3
vinsertps $0x28, %xmm3, %xmm4, %xmm3 # xmm3 = xmm4[0,1],xmm3[0],zero
vshufps $0xb1, %ymm2, %ymm2, %ymm4 # ymm4 = ymm2[1,0,3,2,5,4,7,6]
vmaxps %ymm4, %ymm2, %ymm2
vshufpd $0x5, %ymm2, %ymm2, %ymm4 # ymm4 = ymm2[1,0,3,2]
vmaxps %ymm4, %ymm2, %ymm2
vextractf128 $0x1, %ymm2, %xmm4
vmaxps %xmm4, %xmm2, %xmm2
vbroadcastss %xmm2, %xmm2
jmp 0x1e9525c
|
/embree[P]embree/kernels/common/scene_curves.cpp
|
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)0, embree::avx512::HermiteCurveGeometryInterface, embree::HermiteCurveT>::linearBounds(embree::Vec3fa const&, float, float, embree::LinearSpace3<embree::Vec3fa> const&, unsigned long, embree::BBox<float> const&) const::'lambda'(unsigned long)::operator()(unsigned long) const
|
__forceinline LBBox3fa linearBounds(const Vec3fa& ofs, const float scale, const float r_scale0, const LinearSpace3fa& space, size_t primID, const BBox1f& dt) const {
return LBBox3fa([&] (size_t itime) { return bounds(ofs, scale, r_scale0, space, primID, itime); }, dt, this->time_range, fnumTimeSegments);
}
|
pushq %r15
pushq %r14
pushq %rbx
movq %rdi, %rax
movq 0x28(%rsi), %rcx
movq (%rsi), %r11
movq 0x8(%rsi), %rdi
movq 0x10(%rsi), %r8
movq 0x18(%rsi), %r10
movq 0x20(%rsi), %rsi
vbroadcastss (%rdi), %xmm4
vmulss (%r8), %xmm4, %xmm3
movq 0x58(%rcx), %rdi
movq 0x68(%rcx), %r8
imulq (%rsi), %r8
movl (%rdi,%r8), %esi
movq 0x188(%rcx), %rdi
imulq $0x38, %rdx, %r14
movq (%rdi,%r14), %r8
movq 0x10(%rdi,%r14), %r9
movq %r9, %rbx
imulq %rsi, %rbx
vmovaps (%r8,%rbx), %xmm0
leal 0x1(%rsi), %r15d
imulq %r15, %r9
vmovaps (%r8,%r9), %xmm1
movq 0x1c8(%rcx), %rdi
movq (%rdi,%r14), %rdx
movq 0x10(%rdi,%r14), %rdi
imulq %rdi, %rsi
imulq %r15, %rdi
vmovaps (%r11), %xmm2
vsubps %xmm2, %xmm0, %xmm0
vmulps %xmm0, %xmm4, %xmm0
vbroadcastss %xmm0, %xmm5
vshufps $0x55, %xmm0, %xmm0, %xmm6 # xmm6 = xmm0[1,1,1,1]
vmovaps (%r10), %xmm8
vmovaps 0x10(%r10), %xmm9
vshufps $0xaa, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[2,2,2,2]
vmovaps 0x20(%r10), %xmm11
vmulps %xmm0, %xmm11, %xmm7
vfmadd231ps %xmm6, %xmm9, %xmm7 # xmm7 = (xmm9 * xmm6) + xmm7
vfmadd231ps %xmm5, %xmm8, %xmm7 # xmm7 = (xmm8 * xmm5) + xmm7
vmovss 0x24c(%rcx), %xmm5
vmulss 0xc(%r8,%rbx), %xmm5, %xmm0
vmulss %xmm0, %xmm3, %xmm10
vinsertps $0x30, %xmm10, %xmm7, %xmm6 # xmm6 = xmm7[0,1,2],xmm10[0]
vsubps %xmm2, %xmm1, %xmm0
vmulps %xmm0, %xmm4, %xmm0
vbroadcastss %xmm0, %xmm1
vshufps $0x55, %xmm0, %xmm0, %xmm12 # xmm12 = xmm0[1,1,1,1]
vshufps $0xaa, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[2,2,2,2]
vmulps %xmm0, %xmm11, %xmm2
vfmadd231ps %xmm12, %xmm9, %xmm2 # xmm2 = (xmm9 * xmm12) + xmm2
vfmadd231ps %xmm1, %xmm8, %xmm2 # xmm2 = (xmm8 * xmm1) + xmm2
vmulss 0xc(%r8,%r9), %xmm5, %xmm0
vmulss %xmm0, %xmm3, %xmm0
vinsertps $0x30, %xmm0, %xmm2, %xmm1 # xmm1 = xmm2[0,1,2],xmm0[0]
vmulps (%rdx,%rsi), %xmm4, %xmm12
vbroadcastss %xmm12, %xmm13
vshufps $0x55, %xmm12, %xmm12, %xmm14 # xmm14 = xmm12[1,1,1,1]
vshufps $0xaa, %xmm12, %xmm12, %xmm12 # xmm12 = xmm12[2,2,2,2]
vmulps %xmm11, %xmm12, %xmm12
vfmadd231ps %xmm14, %xmm9, %xmm12 # xmm12 = (xmm9 * xmm14) + xmm12
vfmadd231ps %xmm13, %xmm8, %xmm12 # xmm12 = (xmm8 * xmm13) + xmm12
vmulss 0xc(%rdx,%rsi), %xmm5, %xmm13
vmulss %xmm3, %xmm13, %xmm13
vinsertps $0x30, %xmm13, %xmm12, %xmm15 # xmm15 = xmm12[0,1,2],xmm13[0]
vmulps (%rdx,%rdi), %xmm4, %xmm4
vbroadcastss %xmm4, %xmm12
vshufps $0x55, %xmm4, %xmm4, %xmm13 # xmm13 = xmm4[1,1,1,1]
vshufps $0xaa, %xmm4, %xmm4, %xmm4 # xmm4 = xmm4[2,2,2,2]
vmulps %xmm4, %xmm11, %xmm4
vfmadd231ps %xmm13, %xmm9, %xmm4 # xmm4 = (xmm9 * xmm13) + xmm4
vfmadd231ps %xmm12, %xmm8, %xmm4 # xmm4 = (xmm8 * xmm12) + xmm4
vmulss 0xc(%rdx,%rdi), %xmm5, %xmm5
vmulss %xmm5, %xmm3, %xmm3
vinsertps $0x30, %xmm3, %xmm4, %xmm3 # xmm3 = xmm4[0,1,2],xmm3[0]
vbroadcastss 0xc7d62(%rip), %xmm4 # 0x1f5d46c
vfnmadd213ps %xmm6, %xmm4, %xmm15 # xmm15 = -(xmm4 * xmm15) + xmm6
vfmadd213ps %xmm1, %xmm4, %xmm3 # xmm3 = (xmm4 * xmm3) + xmm1
movl 0x248(%rcx), %ecx
cmpq $0x4, %rcx
jne 0x1e9591a
leaq 0x291bb9(%rip), %rcx # 0x21272e4
vmovups 0x110(%rcx), %xmm4
vbroadcastss %xmm7, %xmm5
vshufps $0x55, %xmm7, %xmm7, %xmm6 # xmm6 = xmm7[1,1,1,1]
vshufps $0xaa, %xmm7, %xmm7, %xmm7 # xmm7 = xmm7[2,2,2,2]
vbroadcastss %xmm10, %xmm8
vmovups 0x594(%rcx), %xmm9
vbroadcastss %xmm15, %xmm10
vshufps $0x55, %xmm15, %xmm15, %xmm11 # xmm11 = xmm15[1,1,1,1]
vshufps $0xaa, %xmm15, %xmm15, %xmm12 # xmm12 = xmm15[2,2,2,2]
vshufps $0xff, %xmm15, %xmm15, %xmm13 # xmm13 = xmm15[3,3,3,3]
vmovups 0xa18(%rcx), %xmm14
vbroadcastss %xmm3, %xmm15
vshufps $0x55, %xmm3, %xmm3, %xmm16 # xmm16 = xmm3[1,1,1,1]
vshufps $0xaa, %xmm3, %xmm3, %xmm17 # xmm17 = xmm3[2,2,2,2]
vshufps $0xff, %xmm3, %xmm3, %xmm3 # xmm3 = xmm3[3,3,3,3]
vmovups 0xe9c(%rcx), %xmm18
vbroadcastss %xmm2, %xmm19
vshufps $0x55, %xmm2, %xmm2, %xmm20 # xmm20 = xmm2[1,1,1,1]
vshufps $0xaa, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[2,2,2,2]
vbroadcastss %xmm0, %xmm21
vmulps %xmm18, %xmm19, %xmm19
vmulps %xmm18, %xmm20, %xmm20
vmulps %xmm18, %xmm2, %xmm2
vmulps %xmm18, %xmm21, %xmm18
vfmadd231ps %xmm15, %xmm14, %xmm19 # xmm19 = (xmm14 * xmm15) + xmm19
vfmadd231ps %xmm16, %xmm14, %xmm20 # xmm20 = (xmm14 * xmm16) + xmm20
vfmadd231ps %xmm17, %xmm14, %xmm2 # xmm2 = (xmm14 * xmm17) + xmm2
vfmadd231ps %xmm3, %xmm14, %xmm18 # xmm18 = (xmm14 * xmm3) + xmm18
vfmadd231ps %xmm10, %xmm9, %xmm19 # xmm19 = (xmm9 * xmm10) + xmm19
vfmadd231ps %xmm11, %xmm9, %xmm20 # xmm20 = (xmm9 * xmm11) + xmm20
vfmadd231ps %xmm12, %xmm9, %xmm2 # xmm2 = (xmm9 * xmm12) + xmm2
vfmadd231ps %xmm13, %xmm9, %xmm18 # xmm18 = (xmm9 * xmm13) + xmm18
vfmadd231ps %xmm5, %xmm4, %xmm19 # xmm19 = (xmm4 * xmm5) + xmm19
vfmadd231ps %xmm6, %xmm4, %xmm20 # xmm20 = (xmm4 * xmm6) + xmm20
vfmadd231ps %xmm7, %xmm4, %xmm2 # xmm2 = (xmm4 * xmm7) + xmm2
vfmadd231ps %xmm8, %xmm4, %xmm18 # xmm18 = (xmm4 * xmm8) + xmm18
vshufps $0xb1, %xmm19, %xmm19, %xmm3 # xmm3 = xmm19[1,0,3,2]
vminps %xmm19, %xmm3, %xmm4
vshufpd $0x1, %xmm4, %xmm4, %xmm5 # xmm5 = xmm4[1,0]
vminps %xmm4, %xmm5, %xmm4
vshufps $0xb1, %xmm20, %xmm20, %xmm6 # xmm6 = xmm20[1,0,3,2]
vminps %xmm20, %xmm6, %xmm5
vshufpd $0x1, %xmm5, %xmm5, %xmm7 # xmm7 = xmm5[1,0]
vminps %xmm5, %xmm7, %xmm5
vinsertps $0x1c, %xmm5, %xmm4, %xmm4 # xmm4 = xmm4[0],xmm5[0],zero,zero
vshufps $0xb1, %xmm2, %xmm2, %xmm7 # xmm7 = xmm2[1,0,3,2]
vminps %xmm2, %xmm7, %xmm5
vshufpd $0x1, %xmm5, %xmm5, %xmm8 # xmm8 = xmm5[1,0]
vminps %xmm5, %xmm8, %xmm5
vinsertps $0x20, %xmm5, %xmm4, %xmm5 # xmm5 = xmm4[0,1],xmm5[0],xmm4[3]
vmaxps %xmm19, %xmm3, %xmm3
vshufpd $0x1, %xmm3, %xmm3, %xmm4 # xmm4 = xmm3[1,0]
vmaxps %xmm3, %xmm4, %xmm3
vmaxps %xmm20, %xmm6, %xmm4
vshufpd $0x1, %xmm4, %xmm4, %xmm6 # xmm6 = xmm4[1,0]
vmaxps %xmm4, %xmm6, %xmm4
vinsertps $0x1c, %xmm4, %xmm3, %xmm3 # xmm3 = xmm3[0],xmm4[0],zero,zero
vmaxps %xmm2, %xmm7, %xmm2
vshufpd $0x1, %xmm2, %xmm2, %xmm4 # xmm4 = xmm2[1,0]
vmaxps %xmm2, %xmm4, %xmm2
vandps 0x8b639(%rip){1to4}, %xmm18, %xmm4 # 0x1f20ec4
vinsertps $0x20, %xmm2, %xmm3, %xmm3 # xmm3 = xmm3[0,1],xmm2[0],xmm3[3]
vprolq $0x20, %xmm4, %xmm2
vmaxps %xmm4, %xmm2, %xmm2
vbroadcastss %xmm2, %xmm4
vshufps $0xaa, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[2,2,2,2]
vmaxps %xmm4, %xmm2, %xmm2
vminps %xmm1, %xmm5, %xmm4
vmaxps %xmm1, %xmm3, %xmm1
vbroadcastss %xmm0, %xmm0
vandps 0x8b603(%rip){1to4}, %xmm0, %xmm0 # 0x1f20ec4
vmaxps %xmm0, %xmm2, %xmm0
vsubps %xmm0, %xmm4, %xmm2
vaddps %xmm0, %xmm1, %xmm0
vbroadcastss 0x8b5ee(%rip), %xmm1 # 0x1f20ec4
vandps %xmm1, %xmm2, %xmm3
vandps %xmm1, %xmm0, %xmm1
vmaxps %xmm1, %xmm3, %xmm1
vmovshdup %xmm1, %xmm3 # xmm3 = xmm1[1,1,3,3]
vmaxss %xmm1, %xmm3, %xmm3
vshufpd $0x1, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[1,0]
vmaxss %xmm3, %xmm1, %xmm1
vmulss 0x5b6e9(%rip), %xmm1, %xmm1 # 0x1ef0fe4
vbroadcastss %xmm1, %xmm1
vsubps %xmm1, %xmm2, %xmm2
vaddps %xmm1, %xmm0, %xmm0
vmovaps %xmm2, (%rax)
vmovaps %xmm0, 0x10(%rax)
popq %rbx
popq %r14
popq %r15
vzeroupper
retq
testl %ecx, %ecx
jle 0x1e95ac3
vpbroadcastd %ecx, %ymm5
vbroadcastss %xmm7, %ymm6
vbroadcastss 0x7cdce(%rip), %ymm4 # 0x1f12704
vpermps %ymm7, %ymm4, %ymm8
vbroadcastss 0x8b597(%rip), %ymm21 # 0x1f20edc
vpermps %ymm7, %ymm21, %ymm9
vbroadcastss %xmm10, %ymm11
vbroadcastss %xmm15, %ymm12
vpermps %ymm15, %ymm4, %ymm13
vbroadcastss 0x8b575(%rip), %ymm7 # 0x1f20ed8
vpermps %ymm15, %ymm21, %ymm14
vpermps %ymm15, %ymm7, %ymm15
vbroadcastss %xmm3, %ymm16
vpermps %ymm3, %ymm4, %ymm17
vpermps %ymm3, %ymm21, %ymm18
vpermps %ymm3, %ymm7, %ymm19
vbroadcastss %xmm2, %ymm20
vpermps %ymm2, %ymm4, %ymm23
vpermps %ymm2, %ymm21, %ymm24
vbroadcastss %xmm0, %ymm25
movq %rcx, %rdx
shlq $0x6, %rdx
leaq (%rdx,%rcx,4), %rdx
addq 0x28e6b0(%rip), %rdx # 0x2124060
vbroadcastss 0x571cb(%rip), %ymm3 # 0x1eecb84
vbroadcastss 0x5605e(%rip), %ymm10 # 0x1eeba20
vxorps %xmm2, %xmm2, %xmm2
xorl %esi, %esi
vbroadcastss 0x8b4f2(%rip), %ymm27 # 0x1f20ec4
vmovaps %ymm10, %ymm22
vmovaps %ymm10, %ymm21
vmovaps %ymm3, %ymm4
vmovaps %ymm3, %ymm7
vpbroadcastd %esi, %ymm28
vpord 0xc4f2a(%rip), %ymm28, %ymm28 # 0x1f5a920
vpcmpgtd %ymm28, %ymm5, %k1
vmovups 0x908(%rdx,%rsi,4), %ymm28
vmovups 0xd8c(%rdx,%rsi,4), %ymm29
vmulps %ymm29, %ymm20, %ymm30
vmulps %ymm29, %ymm23, %ymm31
vmulps %ymm29, %ymm24, %ymm26
vmulps %ymm29, %ymm25, %ymm29
vfmadd231ps %ymm16, %ymm28, %ymm30 # ymm30 = (ymm28 * ymm16) + ymm30
vfmadd231ps %ymm17, %ymm28, %ymm31 # ymm31 = (ymm28 * ymm17) + ymm31
vfmadd231ps %ymm18, %ymm28, %ymm26 # ymm26 = (ymm28 * ymm18) + ymm26
vfmadd231ps %ymm28, %ymm19, %ymm29 # ymm29 = (ymm19 * ymm28) + ymm29
vmovups 0x484(%rdx,%rsi,4), %ymm28
vfmadd231ps %ymm12, %ymm28, %ymm30 # ymm30 = (ymm28 * ymm12) + ymm30
vfmadd231ps %ymm13, %ymm28, %ymm31 # ymm31 = (ymm28 * ymm13) + ymm31
vfmadd231ps %ymm14, %ymm28, %ymm26 # ymm26 = (ymm28 * ymm14) + ymm26
vfmadd231ps %ymm28, %ymm15, %ymm29 # ymm29 = (ymm15 * ymm28) + ymm29
vmovups (%rdx,%rsi,4), %ymm28
vfmadd231ps %ymm6, %ymm28, %ymm30 # ymm30 = (ymm28 * ymm6) + ymm30
vfmadd231ps %ymm8, %ymm28, %ymm31 # ymm31 = (ymm28 * ymm8) + ymm31
vfmadd231ps %ymm9, %ymm28, %ymm26 # ymm26 = (ymm28 * ymm9) + ymm26
vfmadd231ps %ymm28, %ymm11, %ymm29 # ymm29 = (ymm11 * ymm28) + ymm29
vminps %ymm30, %ymm21, %ymm21 {%k1}
vmaxps %ymm30, %ymm7, %ymm7 {%k1}
vminps %ymm31, %ymm22, %ymm22 {%k1}
vmaxps %ymm31, %ymm4, %ymm4 {%k1}
vminps %ymm26, %ymm10, %ymm10 {%k1}
vmaxps %ymm26, %ymm3, %ymm3 {%k1}
vandps %ymm27, %ymm29, %ymm26
vmaxps %ymm26, %ymm2, %ymm2 {%k1}
addq $0x8, %rsi
cmpq %rcx, %rsi
jb 0x1e959e6
jmp 0x1e95aee
vbroadcastss 0x55f53(%rip), %ymm21 # 0x1eeba20
vbroadcastss 0x570ae(%rip), %ymm7 # 0x1eecb84
vxorps %xmm2, %xmm2, %xmm2
vmovaps %ymm7, %ymm4
vmovaps %ymm7, %ymm3
vmovaps %ymm21, %ymm22
vmovaps %ymm21, %ymm10
vshufps $0xb1, %ymm21, %ymm21, %ymm5 # ymm5 = ymm21[1,0,3,2,5,4,7,6]
vminps %ymm5, %ymm21, %ymm5
vshufpd $0x5, %ymm5, %ymm5, %ymm6 # ymm6 = ymm5[1,0,3,2]
vminps %ymm6, %ymm5, %ymm5
vextractf128 $0x1, %ymm5, %xmm6
vminps %xmm6, %xmm5, %xmm5
vshufps $0xb1, %ymm22, %ymm22, %ymm6 # ymm6 = ymm22[1,0,3,2,5,4,7,6]
vminps %ymm6, %ymm22, %ymm6
vshufpd $0x5, %ymm6, %ymm6, %ymm8 # ymm8 = ymm6[1,0,3,2]
vminps %ymm8, %ymm6, %ymm6
vextractf128 $0x1, %ymm6, %xmm8
vminps %xmm8, %xmm6, %xmm6
vunpcklps %xmm6, %xmm5, %xmm5 # xmm5 = xmm5[0],xmm6[0],xmm5[1],xmm6[1]
vshufps $0xb1, %ymm10, %ymm10, %ymm6 # ymm6 = ymm10[1,0,3,2,5,4,7,6]
vminps %ymm6, %ymm10, %ymm6
vshufpd $0x5, %ymm6, %ymm6, %ymm8 # ymm8 = ymm6[1,0,3,2]
vminps %ymm8, %ymm6, %ymm6
vextractf128 $0x1, %ymm6, %xmm8
vminps %xmm8, %xmm6, %xmm6
vinsertps $0x28, %xmm6, %xmm5, %xmm5 # xmm5 = xmm5[0,1],xmm6[0],zero
vshufps $0xb1, %ymm7, %ymm7, %ymm6 # ymm6 = ymm7[1,0,3,2,5,4,7,6]
vmaxps %ymm6, %ymm7, %ymm6
vshufpd $0x5, %ymm6, %ymm6, %ymm7 # ymm7 = ymm6[1,0,3,2]
vmaxps %ymm7, %ymm6, %ymm6
vextractf128 $0x1, %ymm6, %xmm7
vmaxps %xmm7, %xmm6, %xmm6
vshufps $0xb1, %ymm4, %ymm4, %ymm7 # ymm7 = ymm4[1,0,3,2,5,4,7,6]
vmaxps %ymm7, %ymm4, %ymm4
vshufpd $0x5, %ymm4, %ymm4, %ymm7 # ymm7 = ymm4[1,0,3,2]
vmaxps %ymm7, %ymm4, %ymm4
vextractf128 $0x1, %ymm4, %xmm7
vmaxps %xmm7, %xmm4, %xmm4
vunpcklps %xmm4, %xmm6, %xmm4 # xmm4 = xmm6[0],xmm4[0],xmm6[1],xmm4[1]
vshufps $0xb1, %ymm3, %ymm3, %ymm6 # ymm6 = ymm3[1,0,3,2,5,4,7,6]
vmaxps %ymm6, %ymm3, %ymm3
vshufpd $0x5, %ymm3, %ymm3, %ymm6 # ymm6 = ymm3[1,0,3,2]
vmaxps %ymm6, %ymm3, %ymm3
vextractf128 $0x1, %ymm3, %xmm6
vmaxps %xmm6, %xmm3, %xmm3
vinsertps $0x28, %xmm3, %xmm4, %xmm3 # xmm3 = xmm4[0,1],xmm3[0],zero
vshufps $0xb1, %ymm2, %ymm2, %ymm4 # ymm4 = ymm2[1,0,3,2,5,4,7,6]
vmaxps %ymm4, %ymm2, %ymm2
vshufpd $0x5, %ymm2, %ymm2, %ymm4 # ymm4 = ymm2[1,0,3,2]
vmaxps %ymm4, %ymm2, %ymm2
vextractf128 $0x1, %ymm2, %xmm4
vmaxps %xmm4, %xmm2, %xmm2
vbroadcastss %xmm2, %xmm2
jmp 0x1e958aa
nop
|
/embree[P]embree/kernels/common/scene_curves.cpp
|
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)2, embree::avx512::HermiteCurveGeometryInterface, embree::HermiteCurveT>::createPrimRefArrayMB(embree::PrimRef*, embree::BBox<float> const&, embree::range<unsigned long> const&, unsigned long, unsigned int) const
|
PrimInfo createPrimRefArrayMB(PrimRef* prims, const BBox1f& time_range, const range<size_t>& r, size_t k, unsigned int geomID) const
{
PrimInfo pinfo(empty);
const BBox1f t0t1 = BBox1f::intersect(this->time_range, time_range);
if (t0t1.empty()) return pinfo;
for (size_t j=r.begin(); j<r.end(); j++)
{
if (!valid(ctype, j, this->timeSegmentRange(t0t1))) continue;
const LBBox3fa lbounds = linearBounds(j,t0t1);
if (lbounds.bounds0.empty() || lbounds.bounds1.empty()) continue; // checks oriented curves with invalid normals which cause NaNs here
const PrimRef prim(lbounds.bounds(),geomID,unsigned(j));
pinfo.add_primref(prim);
prims[k++] = prim;
}
return pinfo;
}
|
pushq %rbp
pushq %r15
pushq %r14
pushq %r13
pushq %r12
pushq %rbx
subq $0x1d8, %rsp # imm = 0x1D8
movq %rdi, %rax
vbroadcastss 0x54835(%rip), %xmm0 # 0x1eeba20
vmovaps %xmm0, (%rdi)
vbroadcastss 0x5598c(%rip), %xmm1 # 0x1eecb84
vmovaps %xmm1, 0x10(%rdi)
movq %rdx, 0xe0(%rsp)
vmovaps %xmm0, 0x20(%rdi)
vmovaps %xmm1, 0x30(%rdi)
vxorps %xmm0, %xmm0, %xmm0
vmovaps %xmm0, 0x40(%rdi)
vmovsd 0x2c(%rsi), %xmm0
vmovsd (%rcx), %xmm1
vcmpltps %xmm1, %xmm0, %k1
vinsertps $0x50, %xmm0, %xmm1, %xmm2 # xmm2 = xmm1[0],xmm0[1],xmm1[2,3]
vinsertps $0x50, %xmm1, %xmm0, %xmm19 # xmm19 = xmm0[0],xmm1[1],xmm0[2,3]
vmovaps %xmm2, %xmm19 {%k1}
vmovshdup %xmm19, %xmm20 # xmm20 = xmm19[1,1,3,3]
vucomiss %xmm20, %xmm19
ja 0x1e9836d
movq %r9, 0x50(%rsp)
vmovaps (%rax), %xmm0
vmovaps %xmm0, 0xa0(%rsp)
vmovaps 0x10(%rax), %xmm0
vmovaps 0x20(%rax), %xmm1
vmovaps %xmm1, 0x80(%rsp)
movq (%r8), %r14
vmovaps 0x30(%rax), %xmm1
vmovaps %xmm1, 0x70(%rsp)
movq %rax, 0xd8(%rsp)
movq 0x48(%rax), %rax
cmpq 0x8(%r8), %r14
vmovaps %xmm0, 0x90(%rsp)
movq %rax, 0x48(%rsp)
jae 0x1e98328
vmovss 0x59692(%rip), %xmm29 # 0x1ef0940
vxorps %xmm4, %xmm4, %xmm4
vmovss 0x59688(%rip), %xmm31 # 0x1ef0944
leaq 0x110(%rsp), %rbp
vxorps %xmm22, %xmm22, %xmm22
vbroadcastss 0x8a128(%rip), %xmm17 # 0x1f213fc
vbroadcastss 0x59d02(%rip), %xmm18 # 0x1ef0fe0
movq %r8, 0x58(%rsp)
vmovaps %xmm19, 0x100(%rsp)
vmovaps %xmm20, 0xf0(%rsp)
movq %rsi, 0x10(%rsp)
vmovsd 0x2c(%rsi), %xmm0
vmovshdup %xmm0, %xmm1 # xmm1 = xmm0[1,1,3,3]
vsubss %xmm0, %xmm1, %xmm1
vsubss %xmm0, %xmm19, %xmm2
vdivss %xmm1, %xmm2, %xmm2
vsubss %xmm0, %xmm20, %xmm0
vdivss %xmm1, %xmm0, %xmm0
vmulss %xmm29, %xmm2, %xmm1
vmulss %xmm31, %xmm0, %xmm0
movq 0x58(%rsi), %rax
movq 0x68(%rsi), %rcx
imulq %r14, %rcx
movl (%rax,%rcx), %ecx
leal 0x1(%rcx), %edx
movq 0x188(%rsi), %r13
cmpq %rdx, 0x18(%r13)
jbe 0x1e9831b
vmovss 0x28(%rsi), %xmm3
vmulss %xmm1, %xmm3, %xmm1
vroundss $0x9, %xmm1, %xmm1, %xmm1
vmaxss %xmm1, %xmm4, %xmm1
vcvttss2si %xmm1, %edi
vmulss %xmm0, %xmm3, %xmm0
vroundss $0xa, %xmm0, %xmm0, %xmm0
vminss %xmm3, %xmm0, %xmm0
vcvttss2si %xmm0, %r9d
cmpl %r9d, %edi
seta %al
vmovss %xmm3, 0xc(%rsp)
ja 0x1e97e61
movslq %edi, %rdi
imulq $0x38, %rdi, %r8
movq (%r13,%r8), %rbx
movq 0x10(%r13,%r8), %r15
movq %r15, %r10
imulq %rcx, %r10
vmovaps (%rbx,%r10), %xmm9
vcmpnleps %xmm17, %xmm9, %k1
vcmpltps %xmm18, %xmm9, %k0 {%k1}
kmovd %k0, %r10d
cmpb $0xf, %r10b
jne 0x1e97e59
movslq %r9d, %r9
movq 0x10(%rsp), %r12
movq 0x1a8(%r12), %r10
movq 0x1c8(%r12), %r11
movq 0x1e8(%r12), %rsi
vmovss 0x24c(%r12), %xmm0
vmovss %xmm0, 0x20(%rsp)
imulq %rdx, %r15
addq %r15, %rbx
leaq 0x28fee9(%rip), %r15 # 0x21272e4
vmovups 0x1dc(%r15), %ymm24
vmovups 0x660(%r15), %ymm25
vmovups 0xae4(%r15), %ymm26
vmovups 0xf68(%r15), %ymm28
vmovups 0x13ec(%r15), %ymm5
vmovups 0x1870(%r15), %ymm6
vmovups 0x1cf4(%r15), %ymm7
vmovups 0x2178(%r15), %ymm8
vmovaps (%rbx), %xmm10
vcmpnleps %xmm17, %xmm10, %k1
vcmpltps %xmm18, %xmm10, %k0 {%k1}
kmovd %k0, %ebx
cmpb $0xf, %bl
jne 0x1e97e59
movq %rbp, %r12
movq (%r11,%r8), %rbx
movq 0x10(%r11,%r8), %r15
movq %r15, %rbp
imulq %rcx, %rbp
vmovaps (%rbx,%rbp), %xmm11
vcmpnleps %xmm17, %xmm11, %k1
vcmpltps %xmm18, %xmm11, %k0 {%k1}
kmovd %k0, %ebp
cmpb $0xf, %bpl
jne 0x1e97e56
imulq %rdx, %r15
vmovaps (%rbx,%r15), %xmm13
vcmpnleps %xmm17, %xmm13, %k1
vcmpltps %xmm18, %xmm13, %k0 {%k1}
kmovd %k0, %ebx
cmpb $0xf, %bl
jne 0x1e97e56
movq (%r10,%r8), %rbx
movq 0x10(%r10,%r8), %r15
movq %r15, %rbp
imulq %rcx, %rbp
vmovups (%rbx,%rbp), %xmm12
vcmpnleps %xmm17, %xmm12, %k1
vcmpltps %xmm18, %xmm12, %k0 {%k1}
knotw %k0, %k0
kmovd %k0, %ebp
testb $0x7, %bpl
jne 0x1e97e56
imulq %rdx, %r15
vmovups (%rbx,%r15), %xmm14
vcmpnleps %xmm17, %xmm14, %k1
vcmpltps %xmm18, %xmm14, %k0 {%k1}
knotw %k0, %k0
kmovd %k0, %ebx
testb $0x7, %bl
jne 0x1e97e56
movq (%rsi,%r8), %rbx
movq 0x10(%rsi,%r8), %r15
movq %r15, %rbp
imulq %rcx, %rbp
vmovups (%rbx,%rbp), %xmm15
vcmpnleps %xmm17, %xmm15, %k1
vcmpltps %xmm18, %xmm15, %k0 {%k1}
knotw %k0, %k0
kmovd %k0, %ebp
testb $0x7, %bpl
jne 0x1e97e56
imulq %rdx, %r15
vmovups (%rbx,%r15), %xmm16
vcmpnleps %xmm17, %xmm16, %k1
vcmpltps %xmm18, %xmm16, %k0 {%k1}
knotw %k0, %k0
kmovd %k0, %ebx
testb $0x7, %bl
movq %r12, %rbp
jne 0x1e97e59
vshufps $0xff, %xmm9, %xmm9, %xmm17 # xmm17 = xmm9[3,3,3,3]
vmovss 0x20(%rsp), %xmm0
vmulss %xmm0, %xmm17, %xmm17
vinsertps $0x30, %xmm17, %xmm9, %xmm17 # xmm17 = xmm9[0,1,2],xmm17[0]
vshufps $0xff, %xmm10, %xmm10, %xmm9 # xmm9 = xmm10[3,3,3,3]
vmulss %xmm0, %xmm9, %xmm9
vinsertps $0x30, %xmm9, %xmm10, %xmm18 # xmm18 = xmm10[0,1,2],xmm9[0]
vshufps $0xff, %xmm11, %xmm11, %xmm9 # xmm9 = xmm11[3,3,3,3]
vmulss %xmm0, %xmm9, %xmm9
vinsertps $0x30, %xmm9, %xmm11, %xmm19 # xmm19 = xmm11[0,1,2],xmm9[0]
vshufps $0xff, %xmm13, %xmm13, %xmm9 # xmm9 = xmm13[3,3,3,3]
vmulss %xmm0, %xmm9, %xmm9
vinsertps $0x30, %xmm9, %xmm13, %xmm20 # xmm20 = xmm13[0,1,2],xmm9[0]
vbroadcastss 0xc5e9a(%rip), %xmm0 # 0x1f5d46c
vfnmadd213ps %xmm17, %xmm0, %xmm19 # xmm19 = -(xmm0 * xmm19) + xmm17
vfmadd213ps %xmm18, %xmm0, %xmm20 # xmm20 = (xmm0 * xmm20) + xmm18
vfnmadd213ps %xmm12, %xmm0, %xmm15 # xmm15 = -(xmm0 * xmm15) + xmm12
vfmadd213ps %xmm14, %xmm0, %xmm16 # xmm16 = (xmm0 * xmm16) + xmm14
vmulps %xmm22, %xmm18, %xmm10
vfmadd231ps %xmm22, %xmm20, %xmm10 # xmm10 = (xmm20 * xmm22) + xmm10
vxorps %xmm9, %xmm9, %xmm9
vfmadd213ps %xmm10, %xmm19, %xmm9 # xmm9 = (xmm19 * xmm9) + xmm10
vaddps %xmm9, %xmm17, %xmm9
vbroadcastss 0x599dd(%rip), %xmm1 # 0x1ef0fec
vfmadd231ps %xmm1, %xmm19, %xmm10 # xmm10 = (xmm19 * xmm1) + xmm10
vfnmadd231ps %xmm1, %xmm17, %xmm10 # xmm10 = -(xmm17 * xmm1) + xmm10
vmulps %xmm22, %xmm14, %xmm21
vfmadd231ps %xmm22, %xmm16, %xmm21 # xmm21 = (xmm16 * xmm22) + xmm21
vxorps %xmm11, %xmm11, %xmm11
vfmadd213ps %xmm21, %xmm15, %xmm11 # xmm11 = (xmm15 * xmm11) + xmm21
vxorps %xmm0, %xmm0, %xmm0
vaddps %xmm11, %xmm12, %xmm22
vfmadd231ps %xmm1, %xmm15, %xmm21 # xmm21 = (xmm15 * xmm1) + xmm21
vfnmadd231ps %xmm1, %xmm12, %xmm21 # xmm21 = -(xmm12 * xmm1) + xmm21
vxorps %xmm11, %xmm11, %xmm11
vfmadd213ps %xmm18, %xmm20, %xmm11 # xmm11 = (xmm20 * xmm11) + xmm18
vfmadd231ps %xmm0, %xmm19, %xmm11 # xmm11 = (xmm19 * xmm0) + xmm11
vfmadd231ps %xmm0, %xmm17, %xmm11 # xmm11 = (xmm17 * xmm0) + xmm11
vmulps %xmm1, %xmm18, %xmm13
vfnmadd231ps %xmm20, %xmm1, %xmm13 # xmm13 = -(xmm1 * xmm20) + xmm13
vfmadd231ps %xmm19, %xmm0, %xmm13 # xmm13 = (xmm0 * xmm19) + xmm13
vfnmadd231ps %xmm17, %xmm0, %xmm13 # xmm13 = -(xmm0 * xmm17) + xmm13
vxorps %xmm17, %xmm17, %xmm17
vfmadd213ps %xmm14, %xmm16, %xmm17 # xmm17 = (xmm16 * xmm17) + xmm14
vfmadd231ps %xmm0, %xmm15, %xmm17 # xmm17 = (xmm15 * xmm0) + xmm17
vfmadd231ps %xmm0, %xmm12, %xmm17 # xmm17 = (xmm12 * xmm0) + xmm17
vmulps %xmm1, %xmm14, %xmm14
vfnmadd231ps %xmm16, %xmm1, %xmm14 # xmm14 = -(xmm1 * xmm16) + xmm14
vfmadd231ps %xmm15, %xmm0, %xmm14 # xmm14 = (xmm0 * xmm15) + xmm14
vfnmadd231ps %xmm12, %xmm0, %xmm14 # xmm14 = -(xmm0 * xmm12) + xmm14
vshufps $0xc9, %xmm10, %xmm10, %xmm12 # xmm12 = xmm10[1,2,0,3]
vshufps $0xc9, %xmm22, %xmm22, %xmm15 # xmm15 = xmm22[1,2,0,3]
vmulps %xmm15, %xmm10, %xmm15
vfmsub231ps %xmm22, %xmm12, %xmm15 # xmm15 = (xmm12 * xmm22) - xmm15
vxorps %xmm22, %xmm22, %xmm22
vshufps $0xc9, %xmm15, %xmm15, %xmm15 # xmm15 = xmm15[1,2,0,3]
vshufps $0xc9, %xmm21, %xmm21, %xmm16 # xmm16 = xmm21[1,2,0,3]
vmulps %xmm16, %xmm10, %xmm16
vfmsub231ps %xmm21, %xmm12, %xmm16 # xmm16 = (xmm12 * xmm21) - xmm16
vshufps $0xc9, %xmm16, %xmm16, %xmm0 # xmm0 = xmm16[1,2,0,3]
vshufps $0xc9, %xmm13, %xmm13, %xmm16 # xmm16 = xmm13[1,2,0,3]
vshufps $0xc9, %xmm17, %xmm17, %xmm12 # xmm12 = xmm17[1,2,0,3]
vmulps %xmm12, %xmm13, %xmm12
vfmsub231ps %xmm17, %xmm16, %xmm12 # xmm12 = (xmm16 * xmm17) - xmm12
vshufps $0xc9, %xmm12, %xmm12, %xmm12 # xmm12 = xmm12[1,2,0,3]
vshufps $0xc9, %xmm14, %xmm14, %xmm17 # xmm17 = xmm14[1,2,0,3]
vmulps %xmm17, %xmm13, %xmm17
vfmsub231ps %xmm14, %xmm16, %xmm17 # xmm17 = (xmm16 * xmm14) - xmm17
vshufps $0xc9, %xmm17, %xmm17, %xmm14 # xmm14 = xmm17[1,2,0,3]
vdpps $0x7f, %xmm15, %xmm15, %xmm1
vmovss %xmm1, %xmm22, %xmm16 # xmm16 = xmm1[0],xmm22[1,2,3]
vrsqrt14ss %xmm16, %xmm22, %xmm17
vmovss 0x54fe4(%rip), %xmm3 # 0x1eec718
vmulss %xmm3, %xmm17, %xmm18
vmovss 0x5543c(%rip), %xmm20 # 0x1eecb80
vmulss %xmm20, %xmm1, %xmm19
vmulss %xmm17, %xmm19, %xmm19
vmulss %xmm17, %xmm17, %xmm17
vmulss %xmm17, %xmm19, %xmm17
vsubss %xmm17, %xmm18, %xmm17
vdpps $0x7f, %xmm0, %xmm15, %xmm2
vbroadcastss %xmm17, %xmm17
vmulps %xmm15, %xmm17, %xmm18
vbroadcastss %xmm1, %xmm19
vmulps %xmm0, %xmm19, %xmm0
vbroadcastss %xmm2, %xmm2
vmulps %xmm2, %xmm15, %xmm2
vsubps %xmm2, %xmm0, %xmm0
vrcp14ss %xmm16, %xmm22, %xmm2
vmovss 0x5985b(%rip), %xmm19 # 0x1ef0ff8
vfnmadd213ss %xmm19, %xmm2, %xmm1 # xmm1 = -(xmm2 * xmm1) + xmm19
vmulss %xmm1, %xmm2, %xmm1
vbroadcastss %xmm1, %xmm1
vmulps %xmm0, %xmm1, %xmm0
vmulps %xmm0, %xmm17, %xmm0
vdpps $0x7f, %xmm12, %xmm12, %xmm1
vmovss %xmm1, %xmm22, %xmm2 # xmm2 = xmm1[0],xmm22[1,2,3]
vrsqrt14ss %xmm2, %xmm22, %xmm15
vmulss %xmm3, %xmm15, %xmm16
vmulss %xmm20, %xmm1, %xmm17
vmulss %xmm15, %xmm17, %xmm17
vmulss %xmm15, %xmm15, %xmm15
vmulss %xmm15, %xmm17, %xmm15
vsubss %xmm15, %xmm16, %xmm15
vbroadcastss %xmm15, %xmm15
vdpps $0x7f, %xmm14, %xmm12, %xmm3
vmulps %xmm15, %xmm12, %xmm16
vbroadcastss %xmm1, %xmm17
vmulps %xmm14, %xmm17, %xmm14
vbroadcastss %xmm3, %xmm3
vmulps %xmm3, %xmm12, %xmm3
vsubps %xmm3, %xmm14, %xmm3
vrcp14ss %xmm2, %xmm22, %xmm2
vfnmadd213ss %xmm19, %xmm2, %xmm1 # xmm1 = -(xmm2 * xmm1) + xmm19
vmulss %xmm1, %xmm2, %xmm1
vbroadcastss %xmm1, %xmm1
vmulps %xmm1, %xmm3, %xmm1
vmulps %xmm1, %xmm15, %xmm1
vshufps $0xff, %xmm9, %xmm9, %xmm2 # xmm2 = xmm9[3,3,3,3]
vmulps %xmm18, %xmm2, %xmm3
vsubps %xmm3, %xmm9, %xmm14
vshufps $0xff, %xmm10, %xmm10, %xmm12 # xmm12 = xmm10[3,3,3,3]
vmulps %xmm18, %xmm12, %xmm12
vmulps %xmm0, %xmm2, %xmm0
vaddps %xmm0, %xmm12, %xmm0
vsubps %xmm0, %xmm10, %xmm2
vaddps %xmm3, %xmm9, %xmm9
vaddps %xmm0, %xmm10, %xmm12
vshufps $0xff, %xmm11, %xmm11, %xmm0 # xmm0 = xmm11[3,3,3,3]
vmulps %xmm16, %xmm0, %xmm3
vsubps %xmm3, %xmm11, %xmm15
vshufps $0xff, %xmm13, %xmm13, %xmm10 # xmm10 = xmm13[3,3,3,3]
vmulps %xmm16, %xmm10, %xmm10
vmulps %xmm1, %xmm0, %xmm0
vaddps %xmm0, %xmm10, %xmm0
vsubps %xmm0, %xmm13, %xmm1
vaddps %xmm3, %xmm11, %xmm10
vaddps %xmm0, %xmm13, %xmm11
vbroadcastss 0x5a620(%rip), %xmm30 # 0x1ef1ebc
vmulps %xmm30, %xmm2, %xmm0
vaddps %xmm0, %xmm14, %xmm0
vmulps %xmm30, %xmm1, %xmm1
vsubps %xmm1, %xmm15, %xmm1
vbroadcastss %xmm14, %ymm2
vbroadcastss 0x7ae45(%rip), %ymm29 # 0x1f12704
vpermps %ymm14, %ymm29, %ymm3
vbroadcastss 0x8960d(%rip), %ymm31 # 0x1f20edc
vpermps %ymm14, %ymm31, %ymm14
vbroadcastss %xmm0, %ymm16
vpermps %ymm0, %ymm29, %ymm17
vpermps %ymm0, %ymm31, %ymm0
vbroadcastss %xmm1, %ymm18
vpermps %ymm1, %ymm29, %ymm19
vpermps %ymm1, %ymm31, %ymm1
vbroadcastss %xmm15, %ymm20
vpermps %ymm15, %ymm29, %ymm21
vpermps %ymm15, %ymm31, %ymm15
vmulps %ymm28, %ymm20, %ymm13
vfmadd231ps %ymm18, %ymm26, %ymm13 # ymm13 = (ymm26 * ymm18) + ymm13
vmulps %ymm8, %ymm20, %ymm20
vfmadd231ps %ymm18, %ymm7, %ymm20 # ymm20 = (ymm7 * ymm18) + ymm20
vmulps %ymm28, %ymm21, %ymm18
vfmadd231ps %ymm19, %ymm26, %ymm18 # ymm18 = (ymm26 * ymm19) + ymm18
vmulps %ymm8, %ymm21, %ymm21
vfmadd231ps %ymm19, %ymm7, %ymm21 # ymm21 = (ymm7 * ymm19) + ymm21
vmulps %ymm28, %ymm15, %ymm19
vfmadd231ps %ymm1, %ymm26, %ymm19 # ymm19 = (ymm26 * ymm1) + ymm19
vfmadd231ps %ymm16, %ymm25, %ymm13 # ymm13 = (ymm25 * ymm16) + ymm13
vfmadd231ps %ymm17, %ymm25, %ymm18 # ymm18 = (ymm25 * ymm17) + ymm18
vfmadd231ps %ymm0, %ymm25, %ymm19 # ymm19 = (ymm25 * ymm0) + ymm19
vfmadd231ps %ymm2, %ymm24, %ymm13 # ymm13 = (ymm24 * ymm2) + ymm13
vfmadd231ps %ymm3, %ymm24, %ymm18 # ymm18 = (ymm24 * ymm3) + ymm18
vfmadd231ps %ymm14, %ymm24, %ymm19 # ymm19 = (ymm24 * ymm14) + ymm19
vmulps %ymm8, %ymm15, %ymm15
vfmadd231ps %ymm1, %ymm7, %ymm15 # ymm15 = (ymm7 * ymm1) + ymm15
vfmadd231ps %ymm16, %ymm6, %ymm20 # ymm20 = (ymm6 * ymm16) + ymm20
vfmadd231ps %ymm17, %ymm6, %ymm21 # ymm21 = (ymm6 * ymm17) + ymm21
vfmadd231ps %ymm0, %ymm6, %ymm15 # ymm15 = (ymm6 * ymm0) + ymm15
vfmadd231ps %ymm2, %ymm5, %ymm20 # ymm20 = (ymm5 * ymm2) + ymm20
vfmadd231ps %ymm3, %ymm5, %ymm21 # ymm21 = (ymm5 * ymm3) + ymm21
vfmadd231ps %ymm14, %ymm5, %ymm15 # ymm15 = (ymm5 * ymm14) + ymm15
vbroadcastss 0x89b2f(%rip), %ymm23 # 0x1f214d0
vmulps %ymm23, %ymm20, %ymm0
vmulps %ymm23, %ymm21, %ymm1
vmulps %ymm23, %ymm15, %ymm2
vxorps %xmm4, %xmm4, %xmm4
vblendps $0x1, %ymm4, %ymm0, %ymm3 # ymm3 = ymm4[0],ymm0[1,2,3,4,5,6,7]
vblendps $0x1, %ymm4, %ymm1, %ymm14 # ymm14 = ymm4[0],ymm1[1,2,3,4,5,6,7]
vblendps $0x1, %ymm4, %ymm2, %ymm15 # ymm15 = ymm4[0],ymm2[1,2,3,4,5,6,7]
vsubps %ymm3, %ymm13, %ymm3
vsubps %ymm14, %ymm18, %ymm14
vsubps %ymm15, %ymm19, %ymm15
vblendps $0x80, %ymm4, %ymm0, %ymm0 # ymm0 = ymm0[0,1,2,3,4,5,6],ymm4[7]
vblendps $0x80, %ymm4, %ymm1, %ymm1 # ymm1 = ymm1[0,1,2,3,4,5,6],ymm4[7]
vblendps $0x80, %ymm4, %ymm2, %ymm2 # ymm2 = ymm2[0,1,2,3,4,5,6],ymm4[7]
vaddps %ymm0, %ymm13, %ymm0
vaddps %ymm1, %ymm18, %ymm1
vaddps %ymm2, %ymm19, %ymm2
vbroadcastss 0x5401b(%rip), %ymm27 # 0x1eeba20
vminps %ymm13, %ymm27, %ymm16
vminps %ymm18, %ymm27, %ymm17
vminps %ymm19, %ymm27, %ymm20
vminps %ymm0, %ymm3, %ymm21
vminps %ymm21, %ymm16, %ymm16
vminps %ymm1, %ymm14, %ymm21
vminps %ymm21, %ymm17, %ymm17
vminps %ymm2, %ymm15, %ymm21
vminps %ymm21, %ymm20, %ymm20
vmaxps %ymm0, %ymm3, %ymm0
vmulps %xmm30, %xmm12, %xmm3
vaddps %xmm3, %xmm9, %xmm3
vmulps %xmm30, %xmm11, %xmm11
vsubps %xmm11, %xmm10, %xmm21
vbroadcastss 0x55125(%rip), %ymm30 # 0x1eecb84
vmaxps %ymm13, %ymm30, %ymm11
vmaxps %ymm18, %ymm30, %ymm12
vmaxps %ymm19, %ymm30, %ymm13
vmaxps %ymm0, %ymm11, %ymm0
vmaxps %ymm1, %ymm14, %ymm1
vmaxps %ymm1, %ymm12, %ymm1
vmaxps %ymm2, %ymm15, %ymm2
vmaxps %ymm2, %ymm13, %ymm2
vshufps $0xb1, %ymm16, %ymm16, %ymm11 # ymm11 = ymm16[1,0,3,2,5,4,7,6]
vminps %ymm11, %ymm16, %ymm11
vshufpd $0x5, %ymm11, %ymm11, %ymm12 # ymm12 = ymm11[1,0,3,2]
vminps %ymm12, %ymm11, %ymm11
vextractf128 $0x1, %ymm11, %xmm12
vminps %xmm12, %xmm11, %xmm11
vshufps $0xb1, %ymm17, %ymm17, %ymm12 # ymm12 = ymm17[1,0,3,2,5,4,7,6]
vminps %ymm12, %ymm17, %ymm12
vshufpd $0x5, %ymm12, %ymm12, %ymm13 # ymm13 = ymm12[1,0,3,2]
vminps %ymm13, %ymm12, %ymm12
vextractf128 $0x1, %ymm12, %xmm13
vminps %xmm13, %xmm12, %xmm12
vunpcklps %xmm12, %xmm11, %xmm11 # xmm11 = xmm11[0],xmm12[0],xmm11[1],xmm12[1]
vshufps $0xb1, %ymm20, %ymm20, %ymm12 # ymm12 = ymm20[1,0,3,2,5,4,7,6]
vminps %ymm12, %ymm20, %ymm12
vmovaps 0xf0(%rsp), %xmm20
vshufpd $0x5, %ymm12, %ymm12, %ymm13 # ymm13 = ymm12[1,0,3,2]
vminps %ymm13, %ymm12, %ymm12
vextractf128 $0x1, %ymm12, %xmm13
vminps %xmm13, %xmm12, %xmm12
vinsertps $0x28, %xmm12, %xmm11, %xmm12 # xmm12 = xmm11[0,1],xmm12[0],zero
vshufps $0xb1, %ymm0, %ymm0, %ymm11 # ymm11 = ymm0[1,0,3,2,5,4,7,6]
vmaxps %ymm11, %ymm0, %ymm0
vshufpd $0x5, %ymm0, %ymm0, %ymm11 # ymm11 = ymm0[1,0,3,2]
vmaxps %ymm11, %ymm0, %ymm0
vextractf128 $0x1, %ymm0, %xmm11
vmaxps %xmm11, %xmm0, %xmm0
vshufps $0xb1, %ymm1, %ymm1, %ymm11 # ymm11 = ymm1[1,0,3,2,5,4,7,6]
vmaxps %ymm11, %ymm1, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm11 # ymm11 = ymm1[1,0,3,2]
vmaxps %ymm11, %ymm1, %ymm1
vextractf128 $0x1, %ymm1, %xmm11
vmaxps %xmm11, %xmm1, %xmm1
vunpcklps %xmm1, %xmm0, %xmm0 # xmm0 = xmm0[0],xmm1[0],xmm0[1],xmm1[1]
vshufps $0xb1, %ymm2, %ymm2, %ymm1 # ymm1 = ymm2[1,0,3,2,5,4,7,6]
vmaxps %ymm1, %ymm2, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vmaxps %ymm2, %ymm1, %ymm1
vextractf128 $0x1, %ymm1, %xmm2
vmaxps %xmm2, %xmm1, %xmm1
vinsertps $0x28, %xmm1, %xmm0, %xmm11 # xmm11 = xmm0[0,1],xmm1[0],zero
vbroadcastss %xmm9, %ymm0
vpermps %ymm9, %ymm29, %ymm1
vpermps %ymm9, %ymm31, %ymm2
vbroadcastss %xmm3, %ymm13
vpermps %ymm3, %ymm29, %ymm14
vpermps %ymm3, %ymm31, %ymm3
vbroadcastss %xmm21, %ymm15
vpermps %ymm21, %ymm29, %ymm16
vpermps %ymm21, %ymm31, %ymm17
vbroadcastss %xmm10, %ymm18
vpermps %ymm10, %ymm29, %ymm19
vpermps %ymm10, %ymm31, %ymm10
vmulps %ymm28, %ymm18, %ymm9
vfmadd231ps %ymm15, %ymm26, %ymm9 # ymm9 = (ymm26 * ymm15) + ymm9
vmulps %ymm8, %ymm18, %ymm18
vfmadd231ps %ymm15, %ymm7, %ymm18 # ymm18 = (ymm7 * ymm15) + ymm18
vmulps %ymm28, %ymm19, %ymm15
vfmadd231ps %ymm16, %ymm26, %ymm15 # ymm15 = (ymm26 * ymm16) + ymm15
vmulps %ymm8, %ymm19, %ymm19
vfmadd231ps %ymm16, %ymm7, %ymm19 # ymm19 = (ymm7 * ymm16) + ymm19
vmulps %ymm28, %ymm10, %ymm16
vfmadd231ps %ymm17, %ymm26, %ymm16 # ymm16 = (ymm26 * ymm17) + ymm16
vfmadd231ps %ymm13, %ymm25, %ymm9 # ymm9 = (ymm25 * ymm13) + ymm9
vfmadd231ps %ymm14, %ymm25, %ymm15 # ymm15 = (ymm25 * ymm14) + ymm15
vfmadd231ps %ymm3, %ymm25, %ymm16 # ymm16 = (ymm25 * ymm3) + ymm16
vfmadd231ps %ymm0, %ymm24, %ymm9 # ymm9 = (ymm24 * ymm0) + ymm9
vfmadd231ps %ymm1, %ymm24, %ymm15 # ymm15 = (ymm24 * ymm1) + ymm15
vfmadd231ps %ymm2, %ymm24, %ymm16 # ymm16 = (ymm24 * ymm2) + ymm16
vmulps %ymm8, %ymm10, %ymm10
vfmadd231ps %ymm17, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm17) + ymm10
vfmadd231ps %ymm13, %ymm6, %ymm18 # ymm18 = (ymm6 * ymm13) + ymm18
vfmadd231ps %ymm14, %ymm6, %ymm19 # ymm19 = (ymm6 * ymm14) + ymm19
vfmadd231ps %ymm3, %ymm6, %ymm10 # ymm10 = (ymm6 * ymm3) + ymm10
vfmadd231ps %ymm0, %ymm5, %ymm18 # ymm18 = (ymm5 * ymm0) + ymm18
vfmadd231ps %ymm1, %ymm5, %ymm19 # ymm19 = (ymm5 * ymm1) + ymm19
vfmadd231ps %ymm2, %ymm5, %ymm10 # ymm10 = (ymm5 * ymm2) + ymm10
vmulps %ymm23, %ymm18, %ymm0
vmulps %ymm23, %ymm19, %ymm1
vmulps %ymm23, %ymm10, %ymm2
vblendps $0x1, %ymm4, %ymm0, %ymm3 # ymm3 = ymm4[0],ymm0[1,2,3,4,5,6,7]
vblendps $0x1, %ymm4, %ymm1, %ymm10 # ymm10 = ymm4[0],ymm1[1,2,3,4,5,6,7]
vblendps $0x1, %ymm4, %ymm2, %ymm13 # ymm13 = ymm4[0],ymm2[1,2,3,4,5,6,7]
vsubps %ymm3, %ymm9, %ymm3
vsubps %ymm10, %ymm15, %ymm10
vsubps %ymm13, %ymm16, %ymm13
vblendps $0x80, %ymm4, %ymm0, %ymm0 # ymm0 = ymm0[0,1,2,3,4,5,6],ymm4[7]
vblendps $0x80, %ymm4, %ymm1, %ymm1 # ymm1 = ymm1[0,1,2,3,4,5,6],ymm4[7]
vblendps $0x80, %ymm4, %ymm2, %ymm2 # ymm2 = ymm2[0,1,2,3,4,5,6],ymm4[7]
vxorps %xmm4, %xmm4, %xmm4
vaddps %ymm0, %ymm9, %ymm0
vaddps %ymm1, %ymm15, %ymm1
vaddps %ymm2, %ymm16, %ymm2
vminps %ymm9, %ymm27, %ymm14
vminps %ymm15, %ymm27, %ymm17
vminps %ymm16, %ymm27, %ymm18
vminps %ymm0, %ymm3, %ymm19
vminps %ymm19, %ymm14, %ymm14
vminps %ymm1, %ymm10, %ymm19
vminps %ymm19, %ymm17, %ymm17
vminps %ymm2, %ymm13, %ymm19
vminps %ymm19, %ymm18, %ymm18
vmovaps 0x100(%rsp), %xmm19
vmaxps %ymm0, %ymm3, %ymm0
vmaxps %ymm9, %ymm30, %ymm3
vmaxps %ymm0, %ymm3, %ymm0
vmaxps %ymm1, %ymm10, %ymm1
vmaxps %ymm15, %ymm30, %ymm3
vmaxps %ymm1, %ymm3, %ymm1
vmaxps %ymm2, %ymm13, %ymm2
vmaxps %ymm16, %ymm30, %ymm3
vmaxps %ymm2, %ymm3, %ymm2
vshufps $0xb1, %ymm14, %ymm14, %ymm3 # ymm3 = ymm14[1,0,3,2,5,4,7,6]
vminps %ymm3, %ymm14, %ymm3
vshufpd $0x5, %ymm3, %ymm3, %ymm9 # ymm9 = ymm3[1,0,3,2]
vminps %ymm9, %ymm3, %ymm3
vextractf128 $0x1, %ymm3, %xmm9
vminps %xmm9, %xmm3, %xmm3
vshufps $0xb1, %ymm17, %ymm17, %ymm9 # ymm9 = ymm17[1,0,3,2,5,4,7,6]
vminps %ymm9, %ymm17, %ymm9
vbroadcastss 0x896cf(%rip), %xmm17 # 0x1f213fc
vshufpd $0x5, %ymm9, %ymm9, %ymm10 # ymm10 = ymm9[1,0,3,2]
vminps %ymm10, %ymm9, %ymm9
vextractf128 $0x1, %ymm9, %xmm10
vminps %xmm10, %xmm9, %xmm9
vunpcklps %xmm9, %xmm3, %xmm3 # xmm3 = xmm3[0],xmm9[0],xmm3[1],xmm9[1]
vshufps $0xb1, %ymm18, %ymm18, %ymm9 # ymm9 = ymm18[1,0,3,2,5,4,7,6]
vminps %ymm9, %ymm18, %ymm9
vbroadcastss 0x59281(%rip), %xmm18 # 0x1ef0fe0
vshufpd $0x5, %ymm9, %ymm9, %ymm10 # ymm10 = ymm9[1,0,3,2]
vminps %ymm10, %ymm9, %ymm9
vextractf128 $0x1, %ymm9, %xmm10
vminps %xmm10, %xmm9, %xmm9
vinsertps $0x28, %xmm9, %xmm3, %xmm3 # xmm3 = xmm3[0,1],xmm9[0],zero
vminps %xmm3, %xmm12, %xmm3
vshufps $0xb1, %ymm0, %ymm0, %ymm9 # ymm9 = ymm0[1,0,3,2,5,4,7,6]
vmaxps %ymm9, %ymm0, %ymm0
vshufpd $0x5, %ymm0, %ymm0, %ymm9 # ymm9 = ymm0[1,0,3,2]
vmaxps %ymm9, %ymm0, %ymm0
vextractf128 $0x1, %ymm0, %xmm9
vmaxps %xmm9, %xmm0, %xmm0
vshufps $0xb1, %ymm1, %ymm1, %ymm9 # ymm9 = ymm1[1,0,3,2,5,4,7,6]
vmaxps %ymm9, %ymm1, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm9 # ymm9 = ymm1[1,0,3,2]
vmaxps %ymm9, %ymm1, %ymm1
vextractf128 $0x1, %ymm1, %xmm9
vmaxps %xmm9, %xmm1, %xmm1
vunpcklps %xmm1, %xmm0, %xmm0 # xmm0 = xmm0[0],xmm1[0],xmm0[1],xmm1[1]
vshufps $0xb1, %ymm2, %ymm2, %ymm1 # ymm1 = ymm2[1,0,3,2,5,4,7,6]
vmaxps %ymm1, %ymm2, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vmaxps %ymm2, %ymm1, %ymm1
vextractf128 $0x1, %ymm1, %xmm2
vmaxps %xmm2, %xmm1, %xmm1
vinsertps $0x28, %xmm1, %xmm0, %xmm0 # xmm0 = xmm0[0,1],xmm1[0],zero
vmaxps %xmm0, %xmm11, %xmm0
vcmpltps %xmm18, %xmm0, %k1
vcmpnleps %xmm17, %xmm3, %k0 {%k1}
vmovss 0xc(%rsp), %xmm3
knotw %k0, %k0
kmovd %k0, %ebx
testb $0x7, %bl
jne 0x1e97e59
incq %rdi
cmpq %r9, %rdi
seta %al
ja 0x1e97e61
movq 0x38(%r13,%r8), %r15
movq 0x48(%r13,%r8), %rbx
movq %rbx, %rbp
imulq %rcx, %rbp
vmovaps (%r15,%rbp), %xmm9
addq $0x38, %r8
imulq %rdx, %rbx
addq %r15, %rbx
vcmpnleps %xmm17, %xmm9, %k1
vcmpltps %xmm18, %xmm9, %k0 {%k1}
kmovd %k0, %ebp
cmpb $0xf, %bpl
movq %r12, %rbp
je 0x1e97444
jmp 0x1e97e59
movq %r12, %rbp
testb $0x1, %al
je 0x1e981dc
movq %r14, 0xe8(%rsp)
leaq 0xe8(%rsp), %rax
movq %rax, 0x110(%rsp)
movq 0x10(%rsp), %rax
movq %rax, 0x118(%rsp)
vmovss 0x2c(%rax), %xmm0
vmovss 0x30(%rax), %xmm1
vsubss %xmm0, %xmm19, %xmm2
vsubss %xmm0, %xmm1, %xmm1
vdivss %xmm1, %xmm2, %xmm2
vsubss %xmm0, %xmm20, %xmm0
vdivss %xmm1, %xmm0, %xmm0
vmovss %xmm2, 0x8(%rsp)
vmulss %xmm2, %xmm3, %xmm2
vmovss %xmm2, 0x30(%rsp)
vmovss %xmm0, 0xb0(%rsp)
vmulss %xmm0, %xmm3, %xmm1
vroundss $0x9, %xmm2, %xmm2, %xmm0
vmovss %xmm1, 0x20(%rsp)
vroundss $0xa, %xmm1, %xmm1, %xmm1
vmaxss %xmm4, %xmm0, %xmm4
vmovss %xmm4, 0xc0(%rsp)
vminss %xmm3, %xmm1, %xmm2
movq %rbp, %r12
vcvttss2si %xmm4, %ebp
vmovss %xmm2, 0x60(%rsp)
vcvttss2si %xmm2, %r13d
vcvttss2si %xmm0, %ebx
testl %ebx, %ebx
movl $0xffffffff, %eax # imm = 0xFFFFFFFF
cmovsl %eax, %ebx
vcvttss2si %xmm1, %eax
vcvttss2si %xmm3, %r15d
incl %r15d
cmpl %r15d, %eax
cmovll %eax, %r15d
movslq %ebp, %rdx
leaq 0x140(%rsp), %rdi
movq %r12, %rsi
vzeroupper
callq 0x1e9c76c
movslq %r13d, %rdx
leaq 0x120(%rsp), %rdi
movq %r12, %rsi
callq 0x1e9c76c
movl %r15d, %eax
subl %ebx, %eax
vmovss 0x30(%rsp), %xmm0
vsubss 0xc0(%rsp), %xmm0, %xmm0
cmpl $0x1, %eax
jne 0x1e97ff8
vxorps %xmm9, %xmm9, %xmm9
vmaxss %xmm9, %xmm0, %xmm0
vmovss 0x547a3(%rip), %xmm6 # 0x1eec714
vsubss %xmm0, %xmm6, %xmm1
vbroadcastss %xmm0, %xmm0
vmovaps 0x120(%rsp), %xmm2
vmovaps 0x130(%rsp), %xmm3
vmulps %xmm2, %xmm0, %xmm7
vbroadcastss %xmm1, %xmm1
vmovaps 0x140(%rsp), %xmm4
vmovaps 0x150(%rsp), %xmm5
vfmadd231ps %xmm4, %xmm1, %xmm7 # xmm7 = (xmm1 * xmm4) + xmm7
vmulps %xmm3, %xmm0, %xmm8
vfmadd231ps %xmm1, %xmm5, %xmm8 # xmm8 = (xmm5 * xmm1) + xmm8
vmovss 0x60(%rsp), %xmm0
vsubss 0x20(%rsp), %xmm0, %xmm0
vmaxss %xmm9, %xmm0, %xmm0
vsubss %xmm0, %xmm6, %xmm1
vbroadcastss %xmm0, %xmm0
vmulps %xmm4, %xmm0, %xmm6
vbroadcastss %xmm1, %xmm1
vfmadd231ps %xmm2, %xmm1, %xmm6 # xmm6 = (xmm1 * xmm2) + xmm6
vmulps %xmm5, %xmm0, %xmm5
vfmadd231ps %xmm3, %xmm1, %xmm5 # xmm5 = (xmm1 * xmm3) + xmm5
vxorps %xmm4, %xmm4, %xmm4
movq %r12, %rbp
vxorps %xmm22, %xmm22, %xmm22
jmp 0x1e98209
incl %ebp
movslq %ebp, %rdx
leaq 0x1b0(%rsp), %rdi
movq %r12, %rsi
vmovss %xmm0, 0x30(%rsp)
callq 0x1e9c76c
decl %r13d
movslq %r13d, %rdx
leaq 0x190(%rsp), %rdi
movq %r12, %rsi
callq 0x1e9c76c
vxorps %xmm3, %xmm3, %xmm3
vmovss 0x30(%rsp), %xmm0
vmaxss %xmm3, %xmm0, %xmm0
vbroadcastss %xmm0, %xmm1
vmulps 0x1b0(%rsp), %xmm1, %xmm7
vmovss 0x546c7(%rip), %xmm2 # 0x1eec714
vsubss %xmm0, %xmm2, %xmm0
vbroadcastss %xmm0, %xmm0
vfmadd231ps 0x140(%rsp), %xmm0, %xmm7 # xmm7 = (xmm0 * mem) + xmm7
vmulps 0x1c0(%rsp), %xmm1, %xmm8
vfmadd231ps 0x150(%rsp), %xmm0, %xmm8 # xmm8 = (xmm0 * mem) + xmm8
vmovss 0x60(%rsp), %xmm0
vsubss 0x20(%rsp), %xmm0, %xmm0
vmaxss %xmm3, %xmm0, %xmm0
vsubss %xmm0, %xmm2, %xmm1
vbroadcastss %xmm0, %xmm0
vmulps 0x190(%rsp), %xmm0, %xmm6
vbroadcastss %xmm1, %xmm1
vfmadd231ps 0x120(%rsp), %xmm1, %xmm6 # xmm6 = (xmm1 * mem) + xmm6
vmulps 0x1a0(%rsp), %xmm0, %xmm5
vfmadd231ps 0x130(%rsp), %xmm1, %xmm5 # xmm5 = (xmm1 * mem) + xmm5
leal 0x1(%rbx), %eax
cmpl %r15d, %eax
movq %r12, %rbp
jge 0x1e981ff
vmovss 0x8(%rsp), %xmm1
vmovss 0xb0(%rsp), %xmm0
vsubss %xmm1, %xmm0, %xmm0
vmovss %xmm0, 0x1c(%rsp)
movl %eax, %r13d
notl %ebx
addl %r15d, %ebx
leaq 0x170(%rsp), %r15
vmovaps %xmm5, 0xc0(%rsp)
vmovaps %xmm6, 0x30(%rsp)
vmovaps %xmm8, 0x60(%rsp)
vmovaps %xmm7, 0x20(%rsp)
vcvtsi2ss %r13d, %xmm17, %xmm0
vdivss 0xc(%rsp), %xmm0, %xmm0
vsubss %xmm1, %xmm0, %xmm0
vdivss 0x1c(%rsp), %xmm0, %xmm0
vsubss %xmm0, %xmm2, %xmm1
vbroadcastss %xmm0, %xmm0
vmulps %xmm0, %xmm6, %xmm2
vbroadcastss %xmm1, %xmm1
vfmadd231ps %xmm7, %xmm1, %xmm2 # xmm2 = (xmm1 * xmm7) + xmm2
vmovaps %xmm2, 0xb0(%rsp)
vmulps %xmm0, %xmm5, %xmm0
vfmadd231ps %xmm1, %xmm8, %xmm0 # xmm0 = (xmm8 * xmm1) + xmm0
vmovaps %xmm0, 0x160(%rsp)
movq %r15, %rdi
movq %rbp, %rsi
movq %r13, %rdx
callq 0x1e9c76c
vmovaps 0xc0(%rsp), %xmm5
vmovaps 0x30(%rsp), %xmm6
vmovaps 0x60(%rsp), %xmm8
vmovaps 0x20(%rsp), %xmm7
vxorps %xmm22, %xmm22, %xmm22
vmovss 0x5458b(%rip), %xmm2 # 0x1eec714
vmovaps 0x170(%rsp), %xmm0
vsubps 0xb0(%rsp), %xmm0, %xmm0
vmovaps 0x180(%rsp), %xmm1
vsubps 0x160(%rsp), %xmm1, %xmm1
vminps %xmm22, %xmm0, %xmm0
vmaxps %xmm22, %xmm1, %xmm1
vaddps %xmm0, %xmm7, %xmm7
vaddps %xmm0, %xmm6, %xmm6
vaddps %xmm1, %xmm8, %xmm8
vaddps %xmm1, %xmm5, %xmm5
vmovss 0x8(%rsp), %xmm1
incq %r13
decl %ebx
jne 0x1e980ef
jmp 0x1e98205
movq 0x58(%rsp), %r8
movq 0x10(%rsp), %rsi
vmovss 0x58750(%rip), %xmm29 # 0x1ef0940
vmovss 0x5874a(%rip), %xmm31 # 0x1ef0944
jmp 0x1e9831b
vxorps %xmm22, %xmm22, %xmm22
vxorps %xmm4, %xmm4, %xmm4
vcmpleps %xmm8, %xmm7, %k0
knotw %k0, %k0
kmovd %k0, %eax
testb $0x7, %al
movq 0x58(%rsp), %r8
vmovaps 0x100(%rsp), %xmm19
vmovaps 0xf0(%rsp), %xmm20
vmovss 0x58707(%rip), %xmm29 # 0x1ef0940
vmovss 0x58701(%rip), %xmm31 # 0x1ef0944
movq 0x10(%rsp), %rsi
vbroadcastss 0x891aa(%rip), %xmm17 # 0x1f213fc
vbroadcastss 0x58d84(%rip), %xmm18 # 0x1ef0fe0
jne 0x1e9831b
vcmpleps %xmm5, %xmm6, %k0
knotw %k0, %k0
kmovd %k0, %eax
testb $0x7, %al
jne 0x1e9831b
vminps %xmm6, %xmm7, %xmm0
vmovss 0x210(%rsp), %xmm1
vinsertps $0x30, %xmm1, %xmm0, %xmm0 # xmm0 = xmm0[0,1,2],xmm1[0]
vmaxps %xmm5, %xmm8, %xmm1
vmovd %r14d, %xmm2
vinsertps $0x30, %xmm2, %xmm1, %xmm1 # xmm1 = xmm1[0,1,2],xmm2[0]
vaddps %xmm1, %xmm0, %xmm2
vmovaps 0xa0(%rsp), %xmm3
vminps %xmm0, %xmm3, %xmm3
vmovaps %xmm3, 0xa0(%rsp)
vmovaps 0x90(%rsp), %xmm3
vmaxps %xmm1, %xmm3, %xmm3
vmovaps %xmm3, 0x90(%rsp)
vmovaps 0x80(%rsp), %xmm3
vminps %xmm2, %xmm3, %xmm3
vmovaps %xmm3, 0x80(%rsp)
vmovaps 0x70(%rsp), %xmm3
vmaxps %xmm2, %xmm3, %xmm3
vmovaps %xmm3, 0x70(%rsp)
incq 0x48(%rsp)
movq 0x50(%rsp), %rdx
leaq 0x1(%rdx), %rax
shlq $0x5, %rdx
movq 0xe0(%rsp), %rcx
vmovaps %xmm0, (%rcx,%rdx)
vmovaps %xmm1, 0x10(%rcx,%rdx)
movq %rax, 0x50(%rsp)
incq %r14
cmpq 0x8(%r8), %r14
jb 0x1e972f8
movq 0xd8(%rsp), %rax
vmovaps 0xa0(%rsp), %xmm0
vmovaps %xmm0, (%rax)
vmovaps 0x90(%rsp), %xmm0
vmovaps %xmm0, 0x10(%rax)
vmovaps 0x80(%rsp), %xmm0
vmovaps %xmm0, 0x20(%rax)
vmovaps 0x70(%rsp), %xmm0
vmovaps %xmm0, 0x30(%rax)
movq 0x48(%rsp), %rcx
movq %rcx, 0x48(%rax)
addq $0x1d8, %rsp # imm = 0x1D8
popq %rbx
popq %r12
popq %r13
popq %r14
popq %r15
popq %rbp
vzeroupper
retq
|
/embree[P]embree/kernels/common/scene_curves.cpp
|
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)2, embree::avx512::HermiteCurveGeometryInterface, embree::HermiteCurveT>::computeAlignedSpace(unsigned long) const
|
LinearSpace3fa computeAlignedSpace(const size_t primID) const
{
Vec3fa axisz(0,0,1);
Vec3fa axisy(0,1,0);
const Curve3ff curve = getCurveScaledRadius(primID);
const Vec3fa p0 = curve.begin();
const Vec3fa p3 = curve.end();
const Vec3fa d0 = curve.eval_du(0.0f);
//const Vec3fa d1 = curve.eval_du(1.0f);
const Vec3fa axisz_ = normalize(p3 - p0);
const Vec3fa axisy_ = cross(axisz_,d0);
if (sqr_length(p3-p0) > 1E-18f) {
axisz = axisz_;
axisy = axisy_;
}
if (sqr_length(axisy) > 1E-18) {
axisy = normalize(axisy);
Vec3fa axisx = normalize(cross(axisy,axisz));
return LinearSpace3fa(axisx,axisy,axisz);
}
return frame(axisz);
}
|
movq %rdi, %rax
imulq 0x68(%rsi), %rdx
movq 0x58(%rsi), %rcx
movq 0x188(%rsi), %rdi
movl (%rcx,%rdx), %ecx
movq (%rdi), %r8
movq 0x10(%rdi), %r9
movq %r9, %r10
imulq %rcx, %r10
vmovaps (%r8,%r10), %xmm0
leal 0x1(%rcx), %r11d
imulq %r11, %r9
vmovaps (%r8,%r9), %xmm2
movq 0x1c8(%rsi), %rdi
movq 0x10(%rdi), %rdx
imulq %rdx, %rcx
imulq %r11, %rdx
vmovss 0x24c(%rsi), %xmm4
vmulss 0xc(%r8,%r10), %xmm4, %xmm1
vinsertps $0x30, %xmm1, %xmm0, %xmm1 # xmm1 = xmm0[0,1,2],xmm1[0]
vmulss 0xc(%r8,%r9), %xmm4, %xmm0
vinsertps $0x30, %xmm0, %xmm2, %xmm3 # xmm3 = xmm2[0,1,2],xmm0[0]
vxorps %xmm2, %xmm2, %xmm2
vsubps %xmm1, %xmm3, %xmm0
vdpps $0x7f, %xmm0, %xmm0, %xmm5
vmovss %xmm5, %xmm2, %xmm6 # xmm6 = xmm5[0],xmm2[1,2,3]
vrsqrt14ss %xmm6, %xmm2, %xmm6
vmulss 0x52f59(%rip), %xmm6, %xmm7 # 0x1eec718
vmulss 0x52f55(%rip), %xmm5, %xmm8 # 0x1eec71c
vmulss %xmm6, %xmm8, %xmm8
vmulss %xmm6, %xmm6, %xmm6
vmulss %xmm6, %xmm8, %xmm6
vaddss %xmm6, %xmm7, %xmm6
vbroadcastss %xmm6, %xmm6
vmulps %xmm6, %xmm0, %xmm0
vucomiss 0x57800(%rip), %xmm5 # 0x1ef0fe8
ja 0x1e997f6
vmovsd 0x52efe(%rip), %xmm1 # 0x1eec6f0
jbe 0x1e99864
jmp 0x1e9986c
movq (%rdi), %rsi
vmovaps (%rsi,%rcx), %xmm5
vmovaps (%rsi,%rdx), %xmm6
vmulss 0xc(%rsi,%rcx), %xmm4, %xmm7
vinsertps $0x30, %xmm7, %xmm5, %xmm5 # xmm5 = xmm5[0,1,2],xmm7[0]
vmulss 0xc(%rsi,%rdx), %xmm4, %xmm4
vinsertps $0x30, %xmm4, %xmm6, %xmm4 # xmm4 = xmm6[0,1,2],xmm4[0]
vbroadcastss 0xc3c48(%rip), %xmm6 # 0x1f5d46c
vfnmadd213ps %xmm1, %xmm6, %xmm5 # xmm5 = -(xmm6 * xmm5) + xmm1
vfmadd213ps %xmm3, %xmm6, %xmm4 # xmm4 = (xmm6 * xmm4) + xmm3
vmulps %xmm2, %xmm3, %xmm3
vfmadd231ps %xmm4, %xmm2, %xmm3 # xmm3 = (xmm2 * xmm4) + xmm3
vbroadcastss 0x577b0(%rip), %xmm2 # 0x1ef0ff0
vfnmadd231ps %xmm5, %xmm2, %xmm3 # xmm3 = -(xmm2 * xmm5) + xmm3
vfmadd231ps %xmm2, %xmm1, %xmm3 # xmm3 = (xmm1 * xmm2) + xmm3
vshufps $0xc9, %xmm3, %xmm3, %xmm1 # xmm1 = xmm3[1,2,0,3]
vshufps $0xc9, %xmm0, %xmm0, %xmm2 # xmm2 = xmm0[1,2,0,3]
vmulps %xmm2, %xmm3, %xmm2
vfmsub231ps %xmm1, %xmm0, %xmm2 # xmm2 = (xmm0 * xmm1) - xmm2
vshufps $0xc9, %xmm2, %xmm2, %xmm1 # xmm1 = xmm2[1,2,0,3]
ja 0x1e9986c
vmovaps 0x52e94(%rip), %xmm0 # 0x1eec700
vdpps $0x7f, %xmm1, %xmm1, %xmm2
vcvtss2sd %xmm2, %xmm2, %xmm3
vucomisd 0x57792(%rip), %xmm3 # 0x1ef1010
jbe 0x1e99911
vxorps %xmm3, %xmm3, %xmm3
vmovss %xmm2, %xmm3, %xmm4 # xmm4 = xmm2[0],xmm3[1,2,3]
vrsqrt14ss %xmm4, %xmm3, %xmm4
vmovss 0x52e7e(%rip), %xmm5 # 0x1eec718
vmulss %xmm5, %xmm4, %xmm6
vmovss 0x532da(%rip), %xmm7 # 0x1eecb80
vmulss %xmm7, %xmm2, %xmm2
vmulss %xmm4, %xmm2, %xmm2
vmulss %xmm4, %xmm4, %xmm4
vmulss %xmm4, %xmm2, %xmm2
vsubss %xmm2, %xmm6, %xmm2
vbroadcastss %xmm2, %xmm2
vmulps %xmm2, %xmm1, %xmm1
vshufps $0xc9, %xmm0, %xmm0, %xmm2 # xmm2 = xmm0[1,2,0,3]
vshufps $0xc9, %xmm1, %xmm1, %xmm4 # xmm4 = xmm1[1,2,0,3]
vmulps %xmm4, %xmm0, %xmm4
vfmsub231ps %xmm2, %xmm1, %xmm4 # xmm4 = (xmm1 * xmm2) - xmm4
vshufps $0xc9, %xmm4, %xmm4, %xmm2 # xmm2 = xmm4[1,2,0,3]
vdpps $0x7f, %xmm2, %xmm2, %xmm4
vmovss %xmm4, %xmm3, %xmm6 # xmm6 = xmm4[0],xmm3[1,2,3]
vrsqrt14ss %xmm6, %xmm3, %xmm3
vmulss %xmm5, %xmm3, %xmm5
vmulss %xmm7, %xmm4, %xmm4
vmulss %xmm3, %xmm4, %xmm4
vmulss %xmm3, %xmm3, %xmm3
vmulss %xmm3, %xmm4, %xmm3
vsubss %xmm3, %xmm5, %xmm3
vbroadcastss %xmm3, %xmm3
vmulps %xmm2, %xmm3, %xmm2
jmp 0x1e99a00
vshufpd $0x1, %xmm0, %xmm0, %xmm1 # xmm1 = xmm0[1,0]
vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3]
vbroadcastss 0x8759d(%rip), %xmm3 # 0x1f20ec0
vxorps %xmm3, %xmm2, %xmm2
vxorps %xmm4, %xmm4, %xmm4
vunpckhps %xmm4, %xmm0, %xmm5 # xmm5 = xmm0[2],xmm4[2],xmm0[3],xmm4[3]
vmovss %xmm2, %xmm4, %xmm2 # xmm2 = xmm2[0],xmm4[1,2,3]
vshufps $0x41, %xmm2, %xmm5, %xmm2 # xmm2 = xmm5[1,0],xmm2[0,1]
vdpps $0x7f, %xmm2, %xmm2, %xmm5
vxorpd %xmm3, %xmm1, %xmm1
vinsertps $0x2a, %xmm0, %xmm1, %xmm1 # xmm1 = xmm1[0],zero,xmm0[0],zero
vdpps $0x7f, %xmm1, %xmm1, %xmm3
vcmpltps %xmm5, %xmm3, %k0
vpmovm2d %k0, %xmm3
vpbroadcastd %xmm3, %xmm3
vpmovd2m %xmm3, %k1
vpcmpeqd %xmm3, %xmm3, %xmm3
vmovaps %xmm3, %xmm3 {%k1} {z}
vblendvps %xmm3, %xmm2, %xmm1, %xmm1
vdpps $0x7f, %xmm1, %xmm1, %xmm2
vmovss %xmm2, %xmm4, %xmm3 # xmm3 = xmm2[0],xmm4[1,2,3]
vrsqrt14ss %xmm3, %xmm4, %xmm3
vmovss 0x52d8a(%rip), %xmm5 # 0x1eec718
vmulss %xmm5, %xmm3, %xmm6
vmovss 0x531e6(%rip), %xmm7 # 0x1eecb80
vmulss %xmm7, %xmm2, %xmm2
vmulss %xmm3, %xmm2, %xmm2
vmulss %xmm3, %xmm3, %xmm3
vmulss %xmm3, %xmm2, %xmm2
vsubss %xmm2, %xmm6, %xmm2
vbroadcastss %xmm2, %xmm2
vmulps %xmm2, %xmm1, %xmm2
vshufps $0xc9, %xmm2, %xmm2, %xmm1 # xmm1 = xmm2[1,2,0,3]
vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3]
vmulps %xmm3, %xmm2, %xmm3
vfmsub231ps %xmm1, %xmm0, %xmm3 # xmm3 = (xmm0 * xmm1) - xmm3
vshufps $0xc9, %xmm3, %xmm3, %xmm1 # xmm1 = xmm3[1,2,0,3]
vdpps $0x7f, %xmm1, %xmm1, %xmm3
vmovss %xmm3, %xmm4, %xmm6 # xmm6 = xmm3[0],xmm4[1,2,3]
vrsqrt14ss %xmm6, %xmm4, %xmm4
vmulss %xmm5, %xmm4, %xmm5
vmulss %xmm7, %xmm3, %xmm3
vmulss %xmm4, %xmm3, %xmm3
vmulss %xmm4, %xmm4, %xmm4
vmulss %xmm4, %xmm3, %xmm3
vsubss %xmm3, %xmm5, %xmm3
vbroadcastss %xmm3, %xmm3
vmulps %xmm1, %xmm3, %xmm1
vmovaps %xmm2, (%rax)
vmovaps %xmm1, 0x10(%rax)
vmovaps %xmm0, 0x20(%rax)
retq
nop
|
/embree[P]embree/kernels/common/scene_curves.cpp
|
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)2, embree::avx512::HermiteCurveGeometryInterface, embree::HermiteCurveT>::computeAlignedSpaceMB(unsigned long, embree::BBox<float>) const
|
LinearSpace3fa computeAlignedSpaceMB(const size_t primID, const BBox1f time_range) const
{
Vec3fa axisz(0,0,1);
Vec3fa axisy(0,1,0);
const range<int> tbounds = this->timeSegmentRange(time_range);
if (tbounds.size() == 0) return frame(axisz);
const size_t t = (tbounds.begin()+tbounds.end())/2;
const Curve3ff curve = getCurveScaledRadius(primID,t);
const Vec3fa p0 = curve.begin();
const Vec3fa p3 = curve.end();
const Vec3fa d0 = curve.eval_du(0.0f);
//const Vec3fa d1 = curve.eval_du(1.0f);
const Vec3fa axisz_ = normalize(p3 - p0);
const Vec3fa axisy_ = cross(axisz_,d0);
if (sqr_length(p3-p0) > 1E-18f) {
axisz = axisz_;
axisy = axisy_;
}
if (sqr_length(axisy) > 1E-18) {
axisy = normalize(axisy);
Vec3fa axisx = normalize(cross(axisy,axisz));
return LinearSpace3fa(axisx,axisy,axisz);
}
return frame(axisz);
}
|
pushq %rbx
movq %rdi, %rax
vmovsd 0x2c(%rsi), %xmm1
vmovss 0x28(%rsi), %xmm2
vsubss %xmm1, %xmm0, %xmm3
vmovshdup %xmm1, %xmm4 # xmm4 = xmm1[1,1,3,3]
vsubss %xmm1, %xmm4, %xmm4
vdivss %xmm4, %xmm3, %xmm3
vmovshdup %xmm0, %xmm0 # xmm0 = xmm0[1,1,3,3]
vsubss %xmm1, %xmm0, %xmm0
vdivss %xmm4, %xmm0, %xmm0
vmulss 0x56efe(%rip), %xmm3, %xmm1 # 0x1ef0940
vmulss %xmm1, %xmm2, %xmm1
vroundss $0x9, %xmm1, %xmm1, %xmm1
vxorps %xmm3, %xmm3, %xmm3
vmaxss %xmm1, %xmm3, %xmm1
vcvttss2si %xmm1, %ecx
vmulss 0x56ee4(%rip), %xmm0, %xmm0 # 0x1ef0944
vmulss %xmm0, %xmm2, %xmm0
vroundss $0xa, %xmm0, %xmm0, %xmm0
vminss %xmm2, %xmm0, %xmm0
vcvttss2si %xmm0, %edi
cmpl %ecx, %edi
jne 0x1e99b58
vmovaps 0x87a5e(%rip), %xmm0 # 0x1f214e0
vdpps $0x7f, %xmm0, %xmm0, %xmm1
vmovss 0x56f3c(%rip), %xmm2 # 0x1ef09cc
vdpps $0x7f, %xmm2, %xmm2, %xmm3
vcmpltps %xmm1, %xmm3, %k0
vpmovm2d %k0, %xmm1
vpbroadcastd %xmm1, %xmm1
vpmovd2m %xmm1, %k1
vpcmpeqd %xmm1, %xmm1, %xmm1
vmovaps %xmm1, %xmm1 {%k1} {z}
vblendvps %xmm1, %xmm0, %xmm2, %xmm0
vxorps %xmm2, %xmm2, %xmm2
vdpps $0x7f, %xmm0, %xmm0, %xmm1
vmovss %xmm1, %xmm2, %xmm3 # xmm3 = xmm1[0],xmm2[1,2,3]
vrsqrt14ss %xmm3, %xmm2, %xmm3
vmovss 0x52c3e(%rip), %xmm4 # 0x1eec718
vmulss %xmm4, %xmm3, %xmm5
vmovss 0x5309a(%rip), %xmm6 # 0x1eecb80
vmulss %xmm6, %xmm1, %xmm1
vmulss %xmm3, %xmm1, %xmm1
vmulss %xmm3, %xmm3, %xmm3
vmulss %xmm3, %xmm1, %xmm1
vsubss %xmm1, %xmm5, %xmm1
vbroadcastss %xmm1, %xmm1
vmulps %xmm1, %xmm0, %xmm1
vshufps $0xc9, %xmm1, %xmm1, %xmm3 # xmm3 = xmm1[1,2,0,3]
vmulps 0x57460(%rip), %xmm1, %xmm5 # 0x1ef0f70
vmovaps 0x52be8(%rip), %xmm0 # 0x1eec700
vfmadd231ps %xmm3, %xmm0, %xmm5 # xmm5 = (xmm0 * xmm3) + xmm5
vshufps $0xc9, %xmm5, %xmm5, %xmm3 # xmm3 = xmm5[1,2,0,3]
vdpps $0x7f, %xmm3, %xmm3, %xmm5
vmovss %xmm5, %xmm2, %xmm7 # xmm7 = xmm5[0],xmm2[1,2,3]
vrsqrt14ss %xmm7, %xmm2, %xmm2
vmulss %xmm4, %xmm2, %xmm4
vmulss %xmm6, %xmm5, %xmm5
vmulss %xmm2, %xmm5, %xmm5
vmulss %xmm2, %xmm2, %xmm2
vmulss %xmm2, %xmm5, %xmm2
vsubss %xmm2, %xmm4, %xmm2
vbroadcastss %xmm2, %xmm2
vmulps %xmm3, %xmm2, %xmm2
jmp 0x1e99e38
addl %edi, %ecx
movl %ecx, %edi
shrl $0x1f, %edi
addl %ecx, %edi
sarl %edi
movslq %edi, %rdi
imulq 0x68(%rsi), %rdx
movq 0x58(%rsi), %rcx
movq 0x188(%rsi), %r8
movl (%rcx,%rdx), %ecx
imulq $0x38, %rdi, %rdx
movq (%r8,%rdx), %r9
movq 0x10(%r8,%rdx), %r10
movq %r10, %r11
imulq %rcx, %r11
vmovaps (%r9,%r11), %xmm0
leal 0x1(%rcx), %ebx
imulq %rbx, %r10
vmovaps (%r9,%r10), %xmm2
movq 0x1c8(%rsi), %r8
movq 0x10(%r8,%rdx), %rdi
imulq %rdi, %rcx
imulq %rbx, %rdi
vmovss 0x24c(%rsi), %xmm4
vmulss 0xc(%r9,%r11), %xmm4, %xmm1
vinsertps $0x30, %xmm1, %xmm0, %xmm1 # xmm1 = xmm0[0,1,2],xmm1[0]
vmulss 0xc(%r9,%r10), %xmm4, %xmm0
vinsertps $0x30, %xmm0, %xmm2, %xmm3 # xmm3 = xmm2[0,1,2],xmm0[0]
vxorps %xmm2, %xmm2, %xmm2
vsubps %xmm1, %xmm3, %xmm0
vdpps $0x7f, %xmm0, %xmm0, %xmm5
vmovss %xmm5, %xmm2, %xmm6 # xmm6 = xmm5[0],xmm2[1,2,3]
vrsqrt14ss %xmm6, %xmm2, %xmm6
vmulss 0x52b22(%rip), %xmm6, %xmm7 # 0x1eec718
vmulss 0x52b1e(%rip), %xmm5, %xmm8 # 0x1eec71c
vmulss %xmm6, %xmm8, %xmm8
vmulss %xmm6, %xmm6, %xmm6
vmulss %xmm6, %xmm8, %xmm6
vaddss %xmm6, %xmm7, %xmm6
vbroadcastss %xmm6, %xmm6
vmulps %xmm6, %xmm0, %xmm0
vucomiss 0x573c9(%rip), %xmm5 # 0x1ef0fe8
ja 0x1e99c2d
vmovsd 0x52ac7(%rip), %xmm1 # 0x1eec6f0
jbe 0x1e99c9c
jmp 0x1e99ca4
movq (%r8,%rdx), %rdx
vmovaps (%rdx,%rcx), %xmm5
vmovaps (%rdx,%rdi), %xmm6
vmulss 0xc(%rdx,%rcx), %xmm4, %xmm7
vinsertps $0x30, %xmm7, %xmm5, %xmm5 # xmm5 = xmm5[0,1,2],xmm7[0]
vmulss 0xc(%rdx,%rdi), %xmm4, %xmm4
vinsertps $0x30, %xmm4, %xmm6, %xmm4 # xmm4 = xmm6[0,1,2],xmm4[0]
vbroadcastss 0xc3810(%rip), %xmm6 # 0x1f5d46c
vfnmadd213ps %xmm1, %xmm6, %xmm5 # xmm5 = -(xmm6 * xmm5) + xmm1
vfmadd213ps %xmm3, %xmm6, %xmm4 # xmm4 = (xmm6 * xmm4) + xmm3
vmulps %xmm2, %xmm3, %xmm3
vfmadd231ps %xmm4, %xmm2, %xmm3 # xmm3 = (xmm2 * xmm4) + xmm3
vbroadcastss 0x57378(%rip), %xmm2 # 0x1ef0ff0
vfnmadd231ps %xmm5, %xmm2, %xmm3 # xmm3 = -(xmm2 * xmm5) + xmm3
vfmadd231ps %xmm2, %xmm1, %xmm3 # xmm3 = (xmm1 * xmm2) + xmm3
vshufps $0xc9, %xmm3, %xmm3, %xmm1 # xmm1 = xmm3[1,2,0,3]
vshufps $0xc9, %xmm0, %xmm0, %xmm2 # xmm2 = xmm0[1,2,0,3]
vmulps %xmm2, %xmm3, %xmm2
vfmsub231ps %xmm1, %xmm0, %xmm2 # xmm2 = (xmm0 * xmm1) - xmm2
vshufps $0xc9, %xmm2, %xmm2, %xmm1 # xmm1 = xmm2[1,2,0,3]
ja 0x1e99ca4
vmovaps 0x52a5c(%rip), %xmm0 # 0x1eec700
vdpps $0x7f, %xmm1, %xmm1, %xmm2
vcvtss2sd %xmm2, %xmm2, %xmm3
vucomisd 0x5735a(%rip), %xmm3 # 0x1ef1010
jbe 0x1e99d49
vxorps %xmm3, %xmm3, %xmm3
vmovss %xmm2, %xmm3, %xmm4 # xmm4 = xmm2[0],xmm3[1,2,3]
vrsqrt14ss %xmm4, %xmm3, %xmm4
vmovss 0x52a46(%rip), %xmm5 # 0x1eec718
vmulss %xmm5, %xmm4, %xmm6
vmovss 0x52ea2(%rip), %xmm7 # 0x1eecb80
vmulss %xmm7, %xmm2, %xmm2
vmulss %xmm4, %xmm2, %xmm2
vmulss %xmm4, %xmm4, %xmm4
vmulss %xmm4, %xmm2, %xmm2
vsubss %xmm2, %xmm6, %xmm2
vbroadcastss %xmm2, %xmm2
vmulps %xmm2, %xmm1, %xmm2
vshufps $0xc9, %xmm0, %xmm0, %xmm1 # xmm1 = xmm0[1,2,0,3]
vshufps $0xc9, %xmm2, %xmm2, %xmm4 # xmm4 = xmm2[1,2,0,3]
vmulps %xmm4, %xmm0, %xmm4
vfmsub231ps %xmm1, %xmm2, %xmm4 # xmm4 = (xmm2 * xmm1) - xmm4
vshufps $0xc9, %xmm4, %xmm4, %xmm1 # xmm1 = xmm4[1,2,0,3]
vdpps $0x7f, %xmm1, %xmm1, %xmm4
vmovss %xmm4, %xmm3, %xmm6 # xmm6 = xmm4[0],xmm3[1,2,3]
vrsqrt14ss %xmm6, %xmm3, %xmm3
vmulss %xmm5, %xmm3, %xmm5
vmulss %xmm7, %xmm4, %xmm4
vmulss %xmm3, %xmm4, %xmm4
vmulss %xmm3, %xmm3, %xmm3
vmulss %xmm3, %xmm4, %xmm3
vsubss %xmm3, %xmm5, %xmm3
vbroadcastss %xmm3, %xmm3
vmulps %xmm1, %xmm3, %xmm1
jmp 0x1e99e38
vshufpd $0x1, %xmm0, %xmm0, %xmm1 # xmm1 = xmm0[1,0]
vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3]
vbroadcastss 0x87165(%rip), %xmm3 # 0x1f20ec0
vxorps %xmm3, %xmm2, %xmm2
vxorps %xmm4, %xmm4, %xmm4
vunpckhps %xmm4, %xmm0, %xmm5 # xmm5 = xmm0[2],xmm4[2],xmm0[3],xmm4[3]
vmovss %xmm2, %xmm4, %xmm2 # xmm2 = xmm2[0],xmm4[1,2,3]
vshufps $0x41, %xmm2, %xmm5, %xmm2 # xmm2 = xmm5[1,0],xmm2[0,1]
vdpps $0x7f, %xmm2, %xmm2, %xmm5
vxorpd %xmm3, %xmm1, %xmm1
vinsertps $0x2a, %xmm0, %xmm1, %xmm1 # xmm1 = xmm1[0],zero,xmm0[0],zero
vdpps $0x7f, %xmm1, %xmm1, %xmm3
vcmpltps %xmm5, %xmm3, %k0
vpmovm2d %k0, %xmm3
vpbroadcastd %xmm3, %xmm3
vpmovd2m %xmm3, %k1
vpcmpeqd %xmm3, %xmm3, %xmm3
vmovaps %xmm3, %xmm3 {%k1} {z}
vblendvps %xmm3, %xmm2, %xmm1, %xmm1
vdpps $0x7f, %xmm1, %xmm1, %xmm2
vmovss %xmm2, %xmm4, %xmm3 # xmm3 = xmm2[0],xmm4[1,2,3]
vrsqrt14ss %xmm3, %xmm4, %xmm3
vmovss 0x52952(%rip), %xmm5 # 0x1eec718
vmulss %xmm5, %xmm3, %xmm6
vmovss 0x52dae(%rip), %xmm7 # 0x1eecb80
vmulss %xmm7, %xmm2, %xmm2
vmulss %xmm3, %xmm2, %xmm2
vmulss %xmm3, %xmm3, %xmm3
vmulss %xmm3, %xmm2, %xmm2
vsubss %xmm2, %xmm6, %xmm2
vbroadcastss %xmm2, %xmm2
vmulps %xmm2, %xmm1, %xmm1
vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3]
vmulps %xmm3, %xmm1, %xmm3
vfmsub231ps %xmm2, %xmm0, %xmm3 # xmm3 = (xmm0 * xmm2) - xmm3
vshufps $0xc9, %xmm3, %xmm3, %xmm2 # xmm2 = xmm3[1,2,0,3]
vdpps $0x7f, %xmm2, %xmm2, %xmm3
vmovss %xmm3, %xmm4, %xmm6 # xmm6 = xmm3[0],xmm4[1,2,3]
vrsqrt14ss %xmm6, %xmm4, %xmm4
vmulss %xmm5, %xmm4, %xmm5
vmulss %xmm7, %xmm3, %xmm3
vmulss %xmm4, %xmm3, %xmm3
vmulss %xmm4, %xmm4, %xmm4
vmulss %xmm4, %xmm3, %xmm3
vsubss %xmm3, %xmm5, %xmm3
vbroadcastss %xmm3, %xmm3
vmulps %xmm2, %xmm3, %xmm2
vmovaps %xmm1, (%rax)
vmovaps %xmm2, 0x10(%rax)
vmovaps %xmm0, 0x20(%rax)
popq %rbx
retq
|
/embree[P]embree/kernels/common/scene_curves.cpp
|
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)2, embree::avx512::HermiteCurveGeometryInterface, embree::HermiteCurveT>::computeDirection(unsigned int) const
|
Vec3fa computeDirection(unsigned int primID) const
{
const Curve3ff c = getCurveScaledRadius(primID);
const Vec3fa p0 = c.begin();
const Vec3fa p3 = c.end();
const Vec3fa axis1 = p3 - p0;
return axis1;
}
|
movl %edx, %eax
imulq 0x68(%rsi), %rax
movq 0x58(%rsi), %rcx
movq 0x188(%rsi), %rdx
movl (%rcx,%rax), %eax
movq (%rdx), %rcx
movq 0x10(%rdx), %rdx
leal 0x1(%rax), %r8d
movq %rax, %r9
imulq %rdx, %r9
vmovaps (%rcx,%r9), %xmm0
imulq %rdx, %r8
vmovaps (%rcx,%r8), %xmm1
movq %rdi, %rax
vmovss 0x24c(%rsi), %xmm2
vmulss 0xc(%rcx,%r9), %xmm2, %xmm3
vinsertps $0x30, %xmm3, %xmm0, %xmm0 # xmm0 = xmm0[0,1,2],xmm3[0]
vmulss 0xc(%rcx,%r8), %xmm2, %xmm2
vinsertps $0x30, %xmm2, %xmm1, %xmm1 # xmm1 = xmm1[0,1,2],xmm2[0]
vsubps %xmm0, %xmm1, %xmm0
vmovaps %xmm0, (%rdi)
retq
nop
|
/embree[P]embree/kernels/common/scene_curves.cpp
|
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)2, embree::avx512::HermiteCurveGeometryInterface, embree::HermiteCurveT>::computeDirection(unsigned int, unsigned long) const
|
Vec3fa computeDirection(unsigned int primID, size_t time) const
{
const Curve3ff c = getCurveScaledRadius(primID,time);
const Vec3fa p0 = c.begin();
const Vec3fa p3 = c.end();
const Vec3fa axis1 = p3 - p0;
return axis1;
}
|
movl %edx, %eax
imulq 0x68(%rsi), %rax
movq 0x58(%rsi), %rdx
movq 0x188(%rsi), %r8
movl (%rdx,%rax), %eax
imulq $0x38, %rcx, %rcx
movq (%r8,%rcx), %rdx
movq 0x10(%r8,%rcx), %rcx
leal 0x1(%rax), %r8d
movq %rax, %r9
imulq %rcx, %r9
vmovaps (%rdx,%r9), %xmm0
imulq %rcx, %r8
vmovaps (%rdx,%r8), %xmm1
movq %rdi, %rax
vmovss 0x24c(%rsi), %xmm2
vmulss 0xc(%rdx,%r9), %xmm2, %xmm3
vinsertps $0x30, %xmm3, %xmm0, %xmm0 # xmm0 = xmm0[0,1,2],xmm3[0]
vmulss 0xc(%rdx,%r8), %xmm2, %xmm2
vinsertps $0x30, %xmm2, %xmm1, %xmm1 # xmm1 = xmm1[0,1,2],xmm2[0]
vsubps %xmm0, %xmm1, %xmm0
vmovaps %xmm0, (%rdi)
retq
nop
|
/embree[P]embree/kernels/common/scene_curves.cpp
|
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)2, embree::avx512::HermiteCurveGeometryInterface, embree::HermiteCurveT>::vbounds(unsigned long) const
|
size_t CurveGeometry::getGeometryDataDeviceByteSize() const {
size_t byte_size = sizeof(CurveGeometry);
if (vertices.size() > 0)
byte_size += numTimeSteps * sizeof(BufferView<Vec3ff>);
if (normals.size() > 0)
byte_size += numTimeSteps * sizeof(BufferView<Vec3fa>);
if (tangents.size() > 0)
byte_size += numTimeSteps * sizeof(BufferView<Vec3ff>);
if (dnormals.size() > 0)
byte_size += numTimeSteps * sizeof(BufferView<Vec3fa>);
return 16 * ((byte_size + 15) / 16);
}
|
pushq %rbx
imulq 0x68(%rsi), %rdx
movq 0x58(%rsi), %rax
movq 0x188(%rsi), %r8
movl (%rax,%rdx), %ecx
movq (%r8), %r9
movq 0x10(%r8), %r8
movq %r8, %r10
imulq %rcx, %r10
vmovaps (%r9,%r10), %xmm0
movq %rdi, %rax
leal 0x1(%rcx), %edx
imulq %rdx, %r8
vmovaps (%r9,%r8), %xmm1
movq 0x1c8(%rsi), %rdi
movq (%rdi), %r11
movq 0x10(%rdi), %rdi
movq %rdi, %rbx
imulq %rcx, %rbx
vmovaps (%r11,%rbx), %xmm2
imulq %rdx, %rdi
vmovaps (%r11,%rdi), %xmm3
vmovss 0x24c(%rsi), %xmm4
vmulss 0xc(%r9,%r10), %xmm4, %xmm5
vinsertps $0x30, %xmm5, %xmm0, %xmm6 # xmm6 = xmm0[0,1,2],xmm5[0]
vmulss 0xc(%r9,%r8), %xmm4, %xmm0
vinsertps $0x30, %xmm0, %xmm1, %xmm7 # xmm7 = xmm1[0,1,2],xmm0[0]
vmulss 0xc(%r11,%rbx), %xmm4, %xmm0
vinsertps $0x30, %xmm0, %xmm2, %xmm8 # xmm8 = xmm2[0,1,2],xmm0[0]
vmulss 0xc(%r11,%rdi), %xmm4, %xmm0
vinsertps $0x30, %xmm0, %xmm3, %xmm9 # xmm9 = xmm3[0,1,2],xmm0[0]
vbroadcastss 0xc34b0(%rip), %xmm5 # 0x1f5d46c
vfnmadd213ps %xmm6, %xmm5, %xmm8 # xmm8 = -(xmm5 * xmm8) + xmm6
vfmadd213ps %xmm7, %xmm5, %xmm9 # xmm9 = (xmm5 * xmm9) + xmm7
movq 0x1a8(%rsi), %rdi
movq (%rdi), %r8
movq 0x10(%rdi), %rdi
movq %rdi, %r9
imulq %rcx, %r9
vmovups (%r8,%r9), %xmm10
imulq %rdx, %rdi
vmovups (%r8,%rdi), %xmm11
movq 0x1e8(%rsi), %rsi
movq (%rsi), %rdi
movq 0x10(%rsi), %rsi
imulq %rsi, %rcx
imulq %rdx, %rsi
vmovups (%rdi,%rcx), %xmm12
vfnmadd132ps %xmm5, %xmm10, %xmm12 # xmm12 = -(xmm12 * xmm5) + xmm10
vfmadd132ps (%rdi,%rsi), %xmm11, %xmm5 # xmm5 = (xmm5 * mem) + xmm11
vxorps %xmm4, %xmm4, %xmm4
vmulps %xmm4, %xmm7, %xmm0
vfmadd231ps %xmm4, %xmm9, %xmm0 # xmm0 = (xmm9 * xmm4) + xmm0
vxorps %xmm1, %xmm1, %xmm1
vfmadd213ps %xmm0, %xmm8, %xmm1 # xmm1 = (xmm8 * xmm1) + xmm0
vaddps %xmm1, %xmm6, %xmm1
vbroadcastss 0x56fb8(%rip), %xmm13 # 0x1ef0fec
vfmadd231ps %xmm13, %xmm8, %xmm0 # xmm0 = (xmm8 * xmm13) + xmm0
vfnmadd231ps %xmm13, %xmm6, %xmm0 # xmm0 = -(xmm6 * xmm13) + xmm0
vmulps %xmm4, %xmm11, %xmm14
vfmadd231ps %xmm4, %xmm5, %xmm14 # xmm14 = (xmm5 * xmm4) + xmm14
vxorps %xmm2, %xmm2, %xmm2
vfmadd213ps %xmm14, %xmm12, %xmm2 # xmm2 = (xmm12 * xmm2) + xmm14
vaddps %xmm2, %xmm10, %xmm15
vfmadd231ps %xmm13, %xmm12, %xmm14 # xmm14 = (xmm12 * xmm13) + xmm14
vfnmadd231ps %xmm13, %xmm10, %xmm14 # xmm14 = -(xmm10 * xmm13) + xmm14
vxorps %xmm2, %xmm2, %xmm2
vfmadd213ps %xmm7, %xmm9, %xmm2 # xmm2 = (xmm9 * xmm2) + xmm7
vfmadd231ps %xmm4, %xmm8, %xmm2 # xmm2 = (xmm8 * xmm4) + xmm2
vfmadd231ps %xmm4, %xmm6, %xmm2 # xmm2 = (xmm6 * xmm4) + xmm2
vmulps %xmm7, %xmm13, %xmm3
vfnmadd231ps %xmm9, %xmm13, %xmm3 # xmm3 = -(xmm13 * xmm9) + xmm3
vfmadd231ps %xmm8, %xmm4, %xmm3 # xmm3 = (xmm4 * xmm8) + xmm3
vfnmadd231ps %xmm6, %xmm4, %xmm3 # xmm3 = -(xmm4 * xmm6) + xmm3
vxorps %xmm6, %xmm6, %xmm6
vfmadd213ps %xmm11, %xmm5, %xmm6 # xmm6 = (xmm5 * xmm6) + xmm11
vfmadd231ps %xmm4, %xmm12, %xmm6 # xmm6 = (xmm12 * xmm4) + xmm6
vfmadd231ps %xmm4, %xmm10, %xmm6 # xmm6 = (xmm10 * xmm4) + xmm6
vmulps %xmm13, %xmm11, %xmm8
vfnmadd231ps %xmm5, %xmm13, %xmm8 # xmm8 = -(xmm13 * xmm5) + xmm8
vfmadd231ps %xmm12, %xmm4, %xmm8 # xmm8 = (xmm4 * xmm12) + xmm8
vfnmadd231ps %xmm10, %xmm4, %xmm8 # xmm8 = -(xmm4 * xmm10) + xmm8
vshufps $0xc9, %xmm0, %xmm0, %xmm5 # xmm5 = xmm0[1,2,0,3]
vshufps $0xc9, %xmm15, %xmm15, %xmm7 # xmm7 = xmm15[1,2,0,3]
vmulps %xmm7, %xmm0, %xmm7
vfmsub231ps %xmm15, %xmm5, %xmm7 # xmm7 = (xmm5 * xmm15) - xmm7
vshufps $0xc9, %xmm7, %xmm7, %xmm7 # xmm7 = xmm7[1,2,0,3]
vshufps $0xc9, %xmm14, %xmm14, %xmm9 # xmm9 = xmm14[1,2,0,3]
vmulps %xmm0, %xmm9, %xmm9
vfmsub231ps %xmm14, %xmm5, %xmm9 # xmm9 = (xmm5 * xmm14) - xmm9
vshufps $0xc9, %xmm9, %xmm9, %xmm9 # xmm9 = xmm9[1,2,0,3]
vshufps $0xc9, %xmm3, %xmm3, %xmm10 # xmm10 = xmm3[1,2,0,3]
vshufps $0xc9, %xmm6, %xmm6, %xmm5 # xmm5 = xmm6[1,2,0,3]
vmulps %xmm5, %xmm3, %xmm5
vfmsub231ps %xmm6, %xmm10, %xmm5 # xmm5 = (xmm10 * xmm6) - xmm5
vshufps $0xc9, %xmm5, %xmm5, %xmm5 # xmm5 = xmm5[1,2,0,3]
vshufps $0xc9, %xmm8, %xmm8, %xmm6 # xmm6 = xmm8[1,2,0,3]
vmulps %xmm6, %xmm3, %xmm6
vfmsub231ps %xmm8, %xmm10, %xmm6 # xmm6 = (xmm10 * xmm8) - xmm6
vshufps $0xc9, %xmm6, %xmm6, %xmm6 # xmm6 = xmm6[1,2,0,3]
vdpps $0x7f, %xmm7, %xmm7, %xmm8
vmovss %xmm8, %xmm4, %xmm10 # xmm10 = xmm8[0],xmm4[1,2,3]
vrsqrt14ss %xmm10, %xmm4, %xmm11
vmovss 0x525fa(%rip), %xmm12 # 0x1eec718
vmulss %xmm12, %xmm11, %xmm13
vmovss 0x52a55(%rip), %xmm14 # 0x1eecb80
vmulss %xmm14, %xmm8, %xmm15
vmulss %xmm11, %xmm15, %xmm15
vmulss %xmm11, %xmm11, %xmm11
vmulss %xmm11, %xmm15, %xmm11
vsubss %xmm11, %xmm13, %xmm11
vbroadcastss %xmm11, %xmm11
vmulps %xmm7, %xmm11, %xmm13
vdpps $0x7f, %xmm9, %xmm7, %xmm15
vbroadcastss %xmm8, %xmm16
vmulps %xmm9, %xmm16, %xmm9
vbroadcastss %xmm15, %xmm15
vmulps %xmm7, %xmm15, %xmm7
vsubps %xmm7, %xmm9, %xmm7
vrcp14ss %xmm10, %xmm4, %xmm9
vmovss 0x56e7e(%rip), %xmm10 # 0x1ef0ff8
vfnmadd213ss %xmm10, %xmm9, %xmm8 # xmm8 = -(xmm9 * xmm8) + xmm10
vmulss %xmm8, %xmm9, %xmm8
vdpps $0x7f, %xmm5, %xmm5, %xmm9
vbroadcastss %xmm8, %xmm8
vmulps %xmm7, %xmm8, %xmm7
vmulps %xmm7, %xmm11, %xmm7
vmovss %xmm9, %xmm4, %xmm8 # xmm8 = xmm9[0],xmm4[1,2,3]
vrsqrt14ss %xmm8, %xmm4, %xmm11
vmulss %xmm12, %xmm11, %xmm12
vmulss %xmm14, %xmm9, %xmm14
vmulss %xmm11, %xmm14, %xmm14
vmulss %xmm11, %xmm11, %xmm11
vmulss %xmm11, %xmm14, %xmm11
vsubss %xmm11, %xmm12, %xmm11
vbroadcastss %xmm11, %xmm11
vmulps %xmm5, %xmm11, %xmm12
vdpps $0x7f, %xmm6, %xmm5, %xmm14
vbroadcastss %xmm9, %xmm15
vmulps %xmm6, %xmm15, %xmm6
vbroadcastss %xmm14, %xmm14
vmulps %xmm5, %xmm14, %xmm5
vsubps %xmm5, %xmm6, %xmm5
vrcp14ss %xmm8, %xmm4, %xmm4
vfnmadd213ss %xmm10, %xmm4, %xmm9 # xmm9 = -(xmm4 * xmm9) + xmm10
vmulss %xmm4, %xmm9, %xmm4
vbroadcastss %xmm4, %xmm4
vmulps %xmm4, %xmm5, %xmm4
vmulps %xmm4, %xmm11, %xmm4
vshufps $0xff, %xmm1, %xmm1, %xmm5 # xmm5 = xmm1[3,3,3,3]
vmulps %xmm5, %xmm13, %xmm6
vsubps %xmm6, %xmm1, %xmm10
vshufps $0xff, %xmm0, %xmm0, %xmm8 # xmm8 = xmm0[3,3,3,3]
vmulps %xmm13, %xmm8, %xmm8
vmulps %xmm7, %xmm5, %xmm5
vaddps %xmm5, %xmm8, %xmm5
vsubps %xmm5, %xmm0, %xmm7
vaddps %xmm6, %xmm1, %xmm31
vaddps %xmm5, %xmm0, %xmm0
vshufps $0xff, %xmm2, %xmm2, %xmm5 # xmm5 = xmm2[3,3,3,3]
vmulps %xmm5, %xmm12, %xmm6
vsubps %xmm6, %xmm2, %xmm13
vshufps $0xff, %xmm3, %xmm3, %xmm8 # xmm8 = xmm3[3,3,3,3]
vmulps %xmm12, %xmm8, %xmm8
vmulps %xmm4, %xmm5, %xmm4
vaddps %xmm4, %xmm8, %xmm4
vsubps %xmm4, %xmm3, %xmm5
vaddps %xmm6, %xmm2, %xmm29
vaddps %xmm4, %xmm3, %xmm3
vbroadcastss 0x57c58(%rip), %xmm4 # 0x1ef1ebc
vmulps %xmm4, %xmm7, %xmm6
vaddps %xmm6, %xmm10, %xmm6
vmulps %xmm4, %xmm5, %xmm5
vsubps %xmm5, %xmm13, %xmm5
vmulps %xmm4, %xmm0, %xmm0
vaddps %xmm0, %xmm31, %xmm0
vmovups %ymm0, -0x60(%rsp)
vmulps %xmm4, %xmm3, %xmm0
vsubps %xmm0, %xmm29, %xmm30
vbroadcastss 0x7846d(%rip), %ymm2 # 0x1f12704
vbroadcastss %xmm10, %ymm0
vpermps %ymm10, %ymm2, %ymm3
vbroadcastss 0x86c32(%rip), %ymm11 # 0x1f20edc
vpermps %ymm10, %ymm11, %ymm4
vbroadcastss %xmm6, %ymm17
vpermps %ymm6, %ymm2, %ymm20
vpermps %ymm6, %ymm11, %ymm22
vbroadcastss %xmm5, %ymm23
vpermps %ymm5, %ymm2, %ymm24
vpermps %ymm5, %ymm11, %ymm25
vbroadcastss %xmm13, %ymm26
vpermps %ymm13, %ymm2, %ymm27
leaq 0x28cffe(%rip), %rcx # 0x21272e4
vmovups 0x1dc(%rcx), %ymm9
vmovups 0x660(%rcx), %ymm10
vpermps %ymm13, %ymm11, %ymm28
vmovups 0xae4(%rcx), %ymm13
vmovups 0xf68(%rcx), %ymm16
vmulps %ymm16, %ymm26, %ymm14
vmulps %ymm16, %ymm27, %ymm18
vmulps %ymm16, %ymm28, %ymm21
vfmadd231ps %ymm23, %ymm13, %ymm14 # ymm14 = (ymm13 * ymm23) + ymm14
vfmadd231ps %ymm24, %ymm13, %ymm18 # ymm18 = (ymm13 * ymm24) + ymm18
vfmadd231ps %ymm25, %ymm13, %ymm21 # ymm21 = (ymm13 * ymm25) + ymm21
vfmadd231ps %ymm17, %ymm10, %ymm14 # ymm14 = (ymm10 * ymm17) + ymm14
vfmadd231ps %ymm20, %ymm10, %ymm18 # ymm18 = (ymm10 * ymm20) + ymm18
vfmadd231ps %ymm22, %ymm10, %ymm21 # ymm21 = (ymm10 * ymm22) + ymm21
vfmadd231ps %ymm0, %ymm9, %ymm14 # ymm14 = (ymm9 * ymm0) + ymm14
vfmadd231ps %ymm3, %ymm9, %ymm18 # ymm18 = (ymm9 * ymm3) + ymm18
vmovups 0x13ec(%rcx), %ymm6
vmovups 0x1870(%rcx), %ymm12
vmovups 0x1cf4(%rcx), %ymm15
vmovups 0x2178(%rcx), %ymm19
vfmadd231ps %ymm4, %ymm9, %ymm21 # ymm21 = (ymm9 * ymm4) + ymm21
vmulps %ymm19, %ymm26, %ymm26
vmulps %ymm19, %ymm27, %ymm27
vmulps %ymm19, %ymm28, %ymm28
vfmadd231ps %ymm23, %ymm15, %ymm26 # ymm26 = (ymm15 * ymm23) + ymm26
vfmadd231ps %ymm24, %ymm15, %ymm27 # ymm27 = (ymm15 * ymm24) + ymm27
vfmadd231ps %ymm25, %ymm15, %ymm28 # ymm28 = (ymm15 * ymm25) + ymm28
vfmadd231ps %ymm17, %ymm12, %ymm26 # ymm26 = (ymm12 * ymm17) + ymm26
vfmadd231ps %ymm20, %ymm12, %ymm27 # ymm27 = (ymm12 * ymm20) + ymm27
vfmadd231ps %ymm22, %ymm12, %ymm28 # ymm28 = (ymm12 * ymm22) + ymm28
vfmadd231ps %ymm0, %ymm6, %ymm26 # ymm26 = (ymm6 * ymm0) + ymm26
vfmadd231ps %ymm3, %ymm6, %ymm27 # ymm27 = (ymm6 * ymm3) + ymm27
vfmadd231ps %ymm4, %ymm6, %ymm28 # ymm28 = (ymm6 * ymm4) + ymm28
vbroadcastss 0x87107(%rip), %ymm20 # 0x1f214d0
vmulps %ymm20, %ymm26, %ymm3
vmulps %ymm20, %ymm27, %ymm4
vmulps %ymm20, %ymm28, %ymm7
vxorps %xmm5, %xmm5, %xmm5
vblendps $0x1, %ymm5, %ymm3, %ymm8 # ymm8 = ymm5[0],ymm3[1,2,3,4,5,6,7]
vblendps $0x1, %ymm5, %ymm4, %ymm1 # ymm1 = ymm5[0],ymm4[1,2,3,4,5,6,7]
vblendps $0x1, %ymm5, %ymm7, %ymm0 # ymm0 = ymm5[0],ymm7[1,2,3,4,5,6,7]
vsubps %ymm8, %ymm14, %ymm8
vsubps %ymm1, %ymm18, %ymm1
vsubps %ymm0, %ymm21, %ymm0
vblendps $0x80, %ymm5, %ymm3, %ymm3 # ymm3 = ymm3[0,1,2,3,4,5,6],ymm5[7]
vblendps $0x80, %ymm5, %ymm4, %ymm4 # ymm4 = ymm4[0,1,2,3,4,5,6],ymm5[7]
vblendps $0x80, %ymm5, %ymm7, %ymm7 # ymm7 = ymm7[0,1,2,3,4,5,6],ymm5[7]
vaddps %ymm3, %ymm14, %ymm24
vaddps %ymm4, %ymm18, %ymm25
vaddps %ymm7, %ymm21, %ymm7
vbroadcastss 0x515f0(%rip), %ymm22 # 0x1eeba20
vminps %ymm14, %ymm22, %ymm3
vminps %ymm18, %ymm22, %ymm17
vminps %ymm21, %ymm22, %ymm23
vminps %ymm24, %ymm8, %ymm4
vminps %ymm4, %ymm3, %ymm3
vmovups %ymm3, -0x40(%rsp)
vminps %ymm25, %ymm1, %ymm3
vminps %ymm3, %ymm17, %ymm3
vmovups %ymm3, -0x20(%rsp)
vminps %ymm7, %ymm0, %ymm17
vminps %ymm17, %ymm23, %ymm17
vbroadcastss 0x5270a(%rip), %ymm23 # 0x1eecb84
vmaxps %ymm14, %ymm23, %ymm14
vmaxps %ymm18, %ymm23, %ymm18
vmaxps %ymm21, %ymm23, %ymm26
vmaxps %ymm24, %ymm8, %ymm8
vmaxps %ymm8, %ymm14, %ymm21
vmaxps %ymm25, %ymm1, %ymm1
vmaxps %ymm1, %ymm18, %ymm18
vmaxps %ymm7, %ymm0, %ymm0
vmaxps %ymm0, %ymm26, %ymm14
vbroadcastss %xmm31, %ymm4
vpermps %ymm31, %ymm2, %ymm8
vpermps %ymm31, %ymm11, %ymm24
vmovups -0x60(%rsp), %ymm0
vbroadcastss %xmm0, %ymm25
vpermps %ymm0, %ymm2, %ymm26
vpermps %ymm0, %ymm11, %ymm27
vbroadcastss %xmm30, %ymm28
vpermps %ymm30, %ymm2, %ymm31
vpermps %ymm30, %ymm11, %ymm30
vbroadcastss %xmm29, %ymm0
vpermps %ymm29, %ymm2, %ymm3
vpermps %ymm29, %ymm11, %ymm11
vmulps %ymm16, %ymm0, %ymm1
vmulps %ymm16, %ymm3, %ymm2
vmulps %ymm16, %ymm11, %ymm7
vfmadd231ps %ymm28, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm28) + ymm1
vfmadd231ps %ymm31, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm31) + ymm2
vfmadd231ps %ymm13, %ymm30, %ymm7 # ymm7 = (ymm30 * ymm13) + ymm7
vfmadd231ps %ymm25, %ymm10, %ymm1 # ymm1 = (ymm10 * ymm25) + ymm1
vfmadd231ps %ymm26, %ymm10, %ymm2 # ymm2 = (ymm10 * ymm26) + ymm2
vfmadd231ps %ymm10, %ymm27, %ymm7 # ymm7 = (ymm27 * ymm10) + ymm7
vfmadd231ps %ymm4, %ymm9, %ymm1 # ymm1 = (ymm9 * ymm4) + ymm1
vfmadd231ps %ymm8, %ymm9, %ymm2 # ymm2 = (ymm9 * ymm8) + ymm2
vfmadd231ps %ymm9, %ymm24, %ymm7 # ymm7 = (ymm24 * ymm9) + ymm7
vmulps %ymm19, %ymm0, %ymm0
vmulps %ymm19, %ymm3, %ymm3
vmulps %ymm19, %ymm11, %ymm9
vfmadd231ps %ymm28, %ymm15, %ymm0 # ymm0 = (ymm15 * ymm28) + ymm0
vfmadd231ps %ymm31, %ymm15, %ymm3 # ymm3 = (ymm15 * ymm31) + ymm3
vfmadd231ps %ymm30, %ymm15, %ymm9 # ymm9 = (ymm15 * ymm30) + ymm9
vfmadd231ps %ymm25, %ymm12, %ymm0 # ymm0 = (ymm12 * ymm25) + ymm0
vfmadd231ps %ymm26, %ymm12, %ymm3 # ymm3 = (ymm12 * ymm26) + ymm3
vfmadd231ps %ymm27, %ymm12, %ymm9 # ymm9 = (ymm12 * ymm27) + ymm9
vfmadd231ps %ymm4, %ymm6, %ymm0 # ymm0 = (ymm6 * ymm4) + ymm0
vfmadd231ps %ymm8, %ymm6, %ymm3 # ymm3 = (ymm6 * ymm8) + ymm3
vfmadd231ps %ymm24, %ymm6, %ymm9 # ymm9 = (ymm6 * ymm24) + ymm9
vmulps %ymm20, %ymm0, %ymm0
vmulps %ymm20, %ymm3, %ymm3
vmulps %ymm20, %ymm9, %ymm4
vblendps $0x1, %ymm5, %ymm0, %ymm6 # ymm6 = ymm5[0],ymm0[1,2,3,4,5,6,7]
vblendps $0x1, %ymm5, %ymm3, %ymm8 # ymm8 = ymm5[0],ymm3[1,2,3,4,5,6,7]
vblendps $0x1, %ymm5, %ymm4, %ymm9 # ymm9 = ymm5[0],ymm4[1,2,3,4,5,6,7]
vsubps %ymm6, %ymm1, %ymm6
vsubps %ymm8, %ymm2, %ymm10
vsubps %ymm9, %ymm7, %ymm9
vblendps $0x80, %ymm5, %ymm0, %ymm0 # ymm0 = ymm0[0,1,2,3,4,5,6],ymm5[7]
vblendps $0x80, %ymm5, %ymm3, %ymm3 # ymm3 = ymm3[0,1,2,3,4,5,6],ymm5[7]
vblendps $0x80, %ymm5, %ymm4, %ymm4 # ymm4 = ymm4[0,1,2,3,4,5,6],ymm5[7]
vaddps %ymm0, %ymm1, %ymm0
vaddps %ymm3, %ymm2, %ymm3
vaddps %ymm4, %ymm7, %ymm4
vminps %ymm1, %ymm22, %ymm5
vminps %ymm2, %ymm22, %ymm8
vminps %ymm7, %ymm22, %ymm11
vminps %ymm0, %ymm6, %ymm12
vminps %ymm12, %ymm5, %ymm12
vminps %ymm3, %ymm10, %ymm5
vminps %ymm5, %ymm8, %ymm8
vminps %ymm4, %ymm9, %ymm5
vminps %ymm5, %ymm11, %ymm5
vmaxps %ymm1, %ymm23, %ymm1
vmaxps %ymm2, %ymm23, %ymm11
vmaxps %ymm7, %ymm23, %ymm7
vmaxps %ymm0, %ymm6, %ymm0
vmaxps %ymm0, %ymm1, %ymm2
vmaxps %ymm3, %ymm10, %ymm0
vmaxps %ymm0, %ymm11, %ymm1
vmaxps %ymm4, %ymm9, %ymm0
vmaxps %ymm0, %ymm7, %ymm0
vshufps $0xb1, %ymm21, %ymm21, %ymm3 # ymm3 = ymm21[1,0,3,2,5,4,7,6]
vmaxps %ymm3, %ymm21, %ymm3
vshufpd $0x5, %ymm3, %ymm3, %ymm4 # ymm4 = ymm3[1,0,3,2]
vmaxps %ymm4, %ymm3, %ymm3
vextractf128 $0x1, %ymm3, %xmm4
vmaxps %xmm4, %xmm3, %xmm3
vshufps $0xb1, %ymm18, %ymm18, %ymm4 # ymm4 = ymm18[1,0,3,2,5,4,7,6]
vmaxps %ymm4, %ymm18, %ymm4
vshufpd $0x5, %ymm4, %ymm4, %ymm6 # ymm6 = ymm4[1,0,3,2]
vmaxps %ymm6, %ymm4, %ymm4
vextractf128 $0x1, %ymm4, %xmm6
vmaxps %xmm6, %xmm4, %xmm4
vunpcklps %xmm4, %xmm3, %xmm3 # xmm3 = xmm3[0],xmm4[0],xmm3[1],xmm4[1]
vshufps $0xb1, %ymm14, %ymm14, %ymm4 # ymm4 = ymm14[1,0,3,2,5,4,7,6]
vmaxps %ymm4, %ymm14, %ymm4
vshufpd $0x5, %ymm4, %ymm4, %ymm6 # ymm6 = ymm4[1,0,3,2]
vmaxps %ymm6, %ymm4, %ymm4
vextractf128 $0x1, %ymm4, %xmm6
vmaxps %xmm6, %xmm4, %xmm4
vinsertps $0x28, %xmm4, %xmm3, %xmm6 # xmm6 = xmm3[0,1],xmm4[0],zero
vmovups -0x40(%rsp), %ymm4
vshufps $0xb1, %ymm4, %ymm4, %ymm3 # ymm3 = ymm4[1,0,3,2,5,4,7,6]
vminps %ymm3, %ymm4, %ymm3
vshufpd $0x5, %ymm3, %ymm3, %ymm4 # ymm4 = ymm3[1,0,3,2]
vminps %ymm4, %ymm3, %ymm3
vextractf128 $0x1, %ymm3, %xmm4
vminps %xmm4, %xmm3, %xmm3
vmovups -0x20(%rsp), %ymm7
vshufps $0xb1, %ymm7, %ymm7, %ymm4 # ymm4 = ymm7[1,0,3,2,5,4,7,6]
vminps %ymm4, %ymm7, %ymm4
vshufpd $0x5, %ymm4, %ymm4, %ymm7 # ymm7 = ymm4[1,0,3,2]
vminps %ymm7, %ymm4, %ymm4
vextractf128 $0x1, %ymm4, %xmm7
vminps %xmm7, %xmm4, %xmm4
vunpcklps %xmm4, %xmm3, %xmm3 # xmm3 = xmm3[0],xmm4[0],xmm3[1],xmm4[1]
vshufps $0xb1, %ymm17, %ymm17, %ymm4 # ymm4 = ymm17[1,0,3,2,5,4,7,6]
vminps %ymm4, %ymm17, %ymm4
vshufpd $0x5, %ymm4, %ymm4, %ymm7 # ymm7 = ymm4[1,0,3,2]
vminps %ymm7, %ymm4, %ymm4
vextractf128 $0x1, %ymm4, %xmm7
vminps %xmm7, %xmm4, %xmm4
vinsertps $0x28, %xmm4, %xmm3, %xmm3 # xmm3 = xmm3[0,1],xmm4[0],zero
vshufps $0xb1, %ymm12, %ymm12, %ymm4 # ymm4 = ymm12[1,0,3,2,5,4,7,6]
vminps %ymm4, %ymm12, %ymm4
vshufpd $0x5, %ymm4, %ymm4, %ymm7 # ymm7 = ymm4[1,0,3,2]
vminps %ymm7, %ymm4, %ymm4
vextractf128 $0x1, %ymm4, %xmm7
vminps %xmm7, %xmm4, %xmm4
vshufps $0xb1, %ymm8, %ymm8, %ymm7 # ymm7 = ymm8[1,0,3,2,5,4,7,6]
vminps %ymm7, %ymm8, %ymm7
vshufpd $0x5, %ymm7, %ymm7, %ymm8 # ymm8 = ymm7[1,0,3,2]
vminps %ymm8, %ymm7, %ymm7
vextractf128 $0x1, %ymm7, %xmm8
vminps %xmm8, %xmm7, %xmm7
vunpcklps %xmm7, %xmm4, %xmm4 # xmm4 = xmm4[0],xmm7[0],xmm4[1],xmm7[1]
vshufps $0xb1, %ymm5, %ymm5, %ymm7 # ymm7 = ymm5[1,0,3,2,5,4,7,6]
vminps %ymm7, %ymm5, %ymm5
vshufpd $0x5, %ymm5, %ymm5, %ymm7 # ymm7 = ymm5[1,0,3,2]
vminps %ymm7, %ymm5, %ymm5
vextractf128 $0x1, %ymm5, %xmm7
vminps %xmm7, %xmm5, %xmm5
vinsertps $0x28, %xmm5, %xmm4, %xmm4 # xmm4 = xmm4[0,1],xmm5[0],zero
vminps %xmm4, %xmm3, %xmm3
vshufps $0xb1, %ymm2, %ymm2, %ymm4 # ymm4 = ymm2[1,0,3,2,5,4,7,6]
vmaxps %ymm4, %ymm2, %ymm2
vshufpd $0x5, %ymm2, %ymm2, %ymm4 # ymm4 = ymm2[1,0,3,2]
vmaxps %ymm4, %ymm2, %ymm2
vextractf128 $0x1, %ymm2, %xmm4
vmaxps %xmm4, %xmm2, %xmm2
vshufps $0xb1, %ymm1, %ymm1, %ymm4 # ymm4 = ymm1[1,0,3,2,5,4,7,6]
vmaxps %ymm4, %ymm1, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm4 # ymm4 = ymm1[1,0,3,2]
vmaxps %ymm4, %ymm1, %ymm1
vextractf128 $0x1, %ymm1, %xmm4
vmaxps %xmm4, %xmm1, %xmm1
vunpcklps %xmm1, %xmm2, %xmm1 # xmm1 = xmm2[0],xmm1[0],xmm2[1],xmm1[1]
vshufps $0xb1, %ymm0, %ymm0, %ymm2 # ymm2 = ymm0[1,0,3,2,5,4,7,6]
vmaxps %ymm2, %ymm0, %ymm0
vshufpd $0x5, %ymm0, %ymm0, %ymm2 # ymm2 = ymm0[1,0,3,2]
vmaxps %ymm2, %ymm0, %ymm0
vextractf128 $0x1, %ymm0, %xmm2
vmaxps %xmm2, %xmm0, %xmm0
vinsertps $0x28, %xmm0, %xmm1, %xmm0 # xmm0 = xmm1[0,1],xmm0[0],zero
vmaxps %xmm0, %xmm6, %xmm0
vbroadcastss 0x866f1(%rip), %xmm1 # 0x1f20ec4
vandps %xmm1, %xmm3, %xmm2
vandps %xmm1, %xmm0, %xmm1
vmaxps %xmm1, %xmm2, %xmm1
vmovshdup %xmm1, %xmm2 # xmm2 = xmm1[1,1,3,3]
vmaxss %xmm1, %xmm2, %xmm2
vshufpd $0x1, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[1,0]
vmaxss %xmm2, %xmm1, %xmm1
vmulss 0x567ec(%rip), %xmm1, %xmm1 # 0x1ef0fe4
vbroadcastss %xmm1, %xmm1
vsubps %xmm1, %xmm3, %xmm2
vaddps %xmm1, %xmm0, %xmm0
vmovaps %xmm2, (%rax)
vmovaps %xmm0, 0x10(%rax)
popq %rbx
vzeroupper
retq
nop
|
/embree[P]embree/kernels/common/scene_curves.cpp
|
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)2, embree::avx512::HermiteCurveGeometryInterface, embree::HermiteCurveT>::vbounds(embree::LinearSpace3<embree::Vec3fa> const&, unsigned long) const
|
size_t CurveGeometry::getGeometryDataDeviceByteSize() const {
size_t byte_size = sizeof(CurveGeometry);
if (vertices.size() > 0)
byte_size += numTimeSteps * sizeof(BufferView<Vec3ff>);
if (normals.size() > 0)
byte_size += numTimeSteps * sizeof(BufferView<Vec3fa>);
if (tangents.size() > 0)
byte_size += numTimeSteps * sizeof(BufferView<Vec3ff>);
if (dnormals.size() > 0)
byte_size += numTimeSteps * sizeof(BufferView<Vec3fa>);
return 16 * ((byte_size + 15) / 16);
}
|
pushq %r14
pushq %rbx
imulq 0x68(%rsi), %rcx
movq 0x58(%rsi), %rax
movq 0x188(%rsi), %r8
movl (%rax,%rcx), %ecx
movq (%r8), %r9
movq 0x10(%r8), %r8
movq %r8, %r10
imulq %rcx, %r10
vmovaps (%r9,%r10), %xmm0
movq %rdi, %rax
leal 0x1(%rcx), %edi
imulq %rdi, %r8
vmovaps (%r9,%r8), %xmm1
movq 0x1c8(%rsi), %r11
movq (%r11), %rbx
movq 0x10(%r11), %r11
movq %r11, %r14
imulq %rcx, %r14
vmovaps (%rbx,%r14), %xmm2
imulq %rdi, %r11
vmovaps (%rbx,%r11), %xmm3
vmovss 0x24c(%rsi), %xmm4
vmulss 0xc(%r9,%r10), %xmm4, %xmm5
vinsertps $0x30, %xmm5, %xmm0, %xmm6 # xmm6 = xmm0[0,1,2],xmm5[0]
vmulss 0xc(%r9,%r8), %xmm4, %xmm0
vinsertps $0x30, %xmm0, %xmm1, %xmm7 # xmm7 = xmm1[0,1,2],xmm0[0]
vmulss 0xc(%rbx,%r14), %xmm4, %xmm0
vinsertps $0x30, %xmm0, %xmm2, %xmm8 # xmm8 = xmm2[0,1,2],xmm0[0]
vmulss 0xc(%rbx,%r11), %xmm4, %xmm0
vinsertps $0x30, %xmm0, %xmm3, %xmm9 # xmm9 = xmm3[0,1,2],xmm0[0]
vbroadcastss 0xc2bb4(%rip), %xmm5 # 0x1f5d46c
vfnmadd213ps %xmm6, %xmm5, %xmm8 # xmm8 = -(xmm5 * xmm8) + xmm6
vfmadd213ps %xmm7, %xmm5, %xmm9 # xmm9 = (xmm5 * xmm9) + xmm7
movq 0x1a8(%rsi), %r8
movq (%r8), %r9
movq 0x10(%r8), %r8
movq %r8, %r10
imulq %rcx, %r10
vmovups (%r9,%r10), %xmm10
imulq %rdi, %r8
vmovups (%r9,%r8), %xmm11
movq 0x1e8(%rsi), %rsi
movq (%rsi), %r8
movq 0x10(%rsi), %rsi
imulq %rsi, %rcx
imulq %rdi, %rsi
vmovups (%r8,%rcx), %xmm12
vfnmadd132ps %xmm5, %xmm10, %xmm12 # xmm12 = -(xmm12 * xmm5) + xmm10
vfmadd132ps (%r8,%rsi), %xmm11, %xmm5 # xmm5 = (xmm5 * mem) + xmm11
vxorps %xmm3, %xmm3, %xmm3
vmulps %xmm3, %xmm7, %xmm0
vfmadd231ps %xmm3, %xmm9, %xmm0 # xmm0 = (xmm9 * xmm3) + xmm0
vxorps %xmm1, %xmm1, %xmm1
vfmadd213ps %xmm0, %xmm8, %xmm1 # xmm1 = (xmm8 * xmm1) + xmm0
vaddps %xmm1, %xmm6, %xmm1
vbroadcastss 0x566bb(%rip), %xmm13 # 0x1ef0fec
vfmadd231ps %xmm13, %xmm8, %xmm0 # xmm0 = (xmm8 * xmm13) + xmm0
vfnmadd231ps %xmm13, %xmm6, %xmm0 # xmm0 = -(xmm6 * xmm13) + xmm0
vmulps %xmm3, %xmm11, %xmm14
vfmadd231ps %xmm3, %xmm5, %xmm14 # xmm14 = (xmm5 * xmm3) + xmm14
vxorps %xmm2, %xmm2, %xmm2
vfmadd213ps %xmm14, %xmm12, %xmm2 # xmm2 = (xmm12 * xmm2) + xmm14
vaddps %xmm2, %xmm10, %xmm15
vfmadd231ps %xmm13, %xmm12, %xmm14 # xmm14 = (xmm12 * xmm13) + xmm14
vfnmadd231ps %xmm13, %xmm10, %xmm14 # xmm14 = -(xmm10 * xmm13) + xmm14
vxorps %xmm2, %xmm2, %xmm2
vfmadd213ps %xmm7, %xmm9, %xmm2 # xmm2 = (xmm9 * xmm2) + xmm7
vfmadd231ps %xmm3, %xmm8, %xmm2 # xmm2 = (xmm8 * xmm3) + xmm2
vfmadd231ps %xmm3, %xmm6, %xmm2 # xmm2 = (xmm6 * xmm3) + xmm2
vmulps %xmm7, %xmm13, %xmm4
vfnmadd231ps %xmm9, %xmm13, %xmm4 # xmm4 = -(xmm13 * xmm9) + xmm4
vfmadd231ps %xmm8, %xmm3, %xmm4 # xmm4 = (xmm3 * xmm8) + xmm4
vfnmadd231ps %xmm6, %xmm3, %xmm4 # xmm4 = -(xmm3 * xmm6) + xmm4
vxorps %xmm6, %xmm6, %xmm6
vfmadd213ps %xmm11, %xmm5, %xmm6 # xmm6 = (xmm5 * xmm6) + xmm11
vfmadd231ps %xmm3, %xmm12, %xmm6 # xmm6 = (xmm12 * xmm3) + xmm6
vfmadd231ps %xmm3, %xmm10, %xmm6 # xmm6 = (xmm10 * xmm3) + xmm6
vmulps %xmm13, %xmm11, %xmm8
vfnmadd231ps %xmm5, %xmm13, %xmm8 # xmm8 = -(xmm13 * xmm5) + xmm8
vfmadd231ps %xmm12, %xmm3, %xmm8 # xmm8 = (xmm3 * xmm12) + xmm8
vfnmadd231ps %xmm10, %xmm3, %xmm8 # xmm8 = -(xmm3 * xmm10) + xmm8
vshufps $0xc9, %xmm0, %xmm0, %xmm5 # xmm5 = xmm0[1,2,0,3]
vshufps $0xc9, %xmm15, %xmm15, %xmm7 # xmm7 = xmm15[1,2,0,3]
vmulps %xmm7, %xmm0, %xmm7
vfmsub231ps %xmm15, %xmm5, %xmm7 # xmm7 = (xmm5 * xmm15) - xmm7
vshufps $0xc9, %xmm7, %xmm7, %xmm7 # xmm7 = xmm7[1,2,0,3]
vshufps $0xc9, %xmm14, %xmm14, %xmm9 # xmm9 = xmm14[1,2,0,3]
vmulps %xmm0, %xmm9, %xmm9
vfmsub231ps %xmm14, %xmm5, %xmm9 # xmm9 = (xmm5 * xmm14) - xmm9
vshufps $0xc9, %xmm9, %xmm9, %xmm9 # xmm9 = xmm9[1,2,0,3]
vshufps $0xc9, %xmm4, %xmm4, %xmm10 # xmm10 = xmm4[1,2,0,3]
vshufps $0xc9, %xmm6, %xmm6, %xmm5 # xmm5 = xmm6[1,2,0,3]
vmulps %xmm5, %xmm4, %xmm5
vfmsub231ps %xmm6, %xmm10, %xmm5 # xmm5 = (xmm10 * xmm6) - xmm5
vshufps $0xc9, %xmm5, %xmm5, %xmm5 # xmm5 = xmm5[1,2,0,3]
vshufps $0xc9, %xmm8, %xmm8, %xmm6 # xmm6 = xmm8[1,2,0,3]
vmulps %xmm6, %xmm4, %xmm6
vfmsub231ps %xmm8, %xmm10, %xmm6 # xmm6 = (xmm10 * xmm8) - xmm6
vshufps $0xc9, %xmm6, %xmm6, %xmm6 # xmm6 = xmm6[1,2,0,3]
vdpps $0x7f, %xmm7, %xmm7, %xmm8
vmovss %xmm8, %xmm3, %xmm10 # xmm10 = xmm8[0],xmm3[1,2,3]
vrsqrt14ss %xmm10, %xmm3, %xmm11
vmovss 0x51cfd(%rip), %xmm12 # 0x1eec718
vmulss %xmm12, %xmm11, %xmm13
vmovss 0x52158(%rip), %xmm14 # 0x1eecb80
vmulss %xmm14, %xmm8, %xmm15
vmulss %xmm11, %xmm15, %xmm15
vmulss %xmm11, %xmm11, %xmm11
vmulss %xmm11, %xmm15, %xmm11
vsubss %xmm11, %xmm13, %xmm11
vbroadcastss %xmm11, %xmm11
vmulps %xmm7, %xmm11, %xmm13
vdpps $0x7f, %xmm9, %xmm7, %xmm15
vbroadcastss %xmm8, %xmm16
vmulps %xmm9, %xmm16, %xmm9
vbroadcastss %xmm15, %xmm15
vmulps %xmm7, %xmm15, %xmm7
vsubps %xmm7, %xmm9, %xmm7
vrcp14ss %xmm10, %xmm3, %xmm9
vmovss 0x56581(%rip), %xmm10 # 0x1ef0ff8
vfnmadd213ss %xmm10, %xmm9, %xmm8 # xmm8 = -(xmm9 * xmm8) + xmm10
vmulss %xmm8, %xmm9, %xmm8
vdpps $0x7f, %xmm5, %xmm5, %xmm9
vbroadcastss %xmm8, %xmm8
vmulps %xmm7, %xmm8, %xmm7
vmulps %xmm7, %xmm11, %xmm7
vmovss %xmm9, %xmm3, %xmm8 # xmm8 = xmm9[0],xmm3[1,2,3]
vrsqrt14ss %xmm8, %xmm3, %xmm11
vmulss %xmm12, %xmm11, %xmm12
vmulss %xmm14, %xmm9, %xmm14
vmulss %xmm11, %xmm14, %xmm14
vmulss %xmm11, %xmm11, %xmm11
vmulss %xmm11, %xmm14, %xmm11
vsubss %xmm11, %xmm12, %xmm11
vbroadcastss %xmm11, %xmm11
vmulps %xmm5, %xmm11, %xmm12
vdpps $0x7f, %xmm6, %xmm5, %xmm14
vbroadcastss %xmm9, %xmm15
vmulps %xmm6, %xmm15, %xmm6
vbroadcastss %xmm14, %xmm14
vmulps %xmm5, %xmm14, %xmm5
vsubps %xmm5, %xmm6, %xmm5
vrcp14ss %xmm8, %xmm3, %xmm3
vfnmadd213ss %xmm10, %xmm3, %xmm9 # xmm9 = -(xmm3 * xmm9) + xmm10
vmulss %xmm3, %xmm9, %xmm3
vbroadcastss %xmm3, %xmm3
vmulps %xmm3, %xmm5, %xmm3
vmulps %xmm3, %xmm11, %xmm3
vshufps $0xff, %xmm1, %xmm1, %xmm5 # xmm5 = xmm1[3,3,3,3]
vmulps %xmm5, %xmm13, %xmm6
vsubps %xmm6, %xmm1, %xmm8
vshufps $0xff, %xmm0, %xmm0, %xmm9 # xmm9 = xmm0[3,3,3,3]
vmulps %xmm13, %xmm9, %xmm9
vmulps %xmm7, %xmm5, %xmm5
vaddps %xmm5, %xmm9, %xmm5
vsubps %xmm5, %xmm0, %xmm7
vaddps %xmm6, %xmm1, %xmm9
vaddps %xmm5, %xmm0, %xmm0
vshufps $0xff, %xmm2, %xmm2, %xmm1 # xmm1 = xmm2[3,3,3,3]
vmulps %xmm1, %xmm12, %xmm5
vsubps %xmm5, %xmm2, %xmm10
vshufps $0xff, %xmm4, %xmm4, %xmm6 # xmm6 = xmm4[3,3,3,3]
vmulps %xmm6, %xmm12, %xmm6
vmulps %xmm3, %xmm1, %xmm1
vaddps %xmm1, %xmm6, %xmm3
vsubps %xmm3, %xmm4, %xmm6
vaddps %xmm5, %xmm2, %xmm1
vaddps %xmm3, %xmm4, %xmm2
vbroadcastss 0x57360(%rip), %xmm3 # 0x1ef1ebc
vmulps %xmm3, %xmm7, %xmm4
vaddps %xmm4, %xmm8, %xmm4
vmulps %xmm3, %xmm6, %xmm5
vsubps %xmm5, %xmm10, %xmm11
vmulps %xmm3, %xmm0, %xmm0
vaddps %xmm0, %xmm9, %xmm12
vmulps %xmm3, %xmm2, %xmm0
vsubps %xmm0, %xmm1, %xmm13
vbroadcastss %xmm8, %xmm0
vshufps $0x55, %xmm8, %xmm8, %xmm2 # xmm2 = xmm8[1,1,1,1]
vmovaps (%rdx), %xmm5
vmovaps 0x10(%rdx), %xmm7
vmovaps 0x20(%rdx), %xmm6
vshufps $0xaa, %xmm8, %xmm8, %xmm3 # xmm3 = xmm8[2,2,2,2]
vmulps %xmm3, %xmm6, %xmm3
vfmadd231ps %xmm2, %xmm7, %xmm3 # xmm3 = (xmm7 * xmm2) + xmm3
vfmadd231ps %xmm0, %xmm5, %xmm3 # xmm3 = (xmm5 * xmm0) + xmm3
vbroadcastss %xmm4, %xmm0
vshufps $0x55, %xmm4, %xmm4, %xmm2 # xmm2 = xmm4[1,1,1,1]
vshufps $0xaa, %xmm4, %xmm4, %xmm4 # xmm4 = xmm4[2,2,2,2]
vmulps %xmm4, %xmm6, %xmm8
vfmadd231ps %xmm2, %xmm7, %xmm8 # xmm8 = (xmm7 * xmm2) + xmm8
vfmadd231ps %xmm0, %xmm5, %xmm8 # xmm8 = (xmm5 * xmm0) + xmm8
vbroadcastss %xmm11, %xmm0
vshufps $0x55, %xmm11, %xmm11, %xmm2 # xmm2 = xmm11[1,1,1,1]
vshufps $0xaa, %xmm11, %xmm11, %xmm4 # xmm4 = xmm11[2,2,2,2]
vmulps %xmm4, %xmm6, %xmm14
vfmadd231ps %xmm2, %xmm7, %xmm14 # xmm14 = (xmm7 * xmm2) + xmm14
vfmadd231ps %xmm0, %xmm5, %xmm14 # xmm14 = (xmm5 * xmm0) + xmm14
vbroadcastss %xmm10, %xmm0
vshufps $0x55, %xmm10, %xmm10, %xmm2 # xmm2 = xmm10[1,1,1,1]
vshufps $0xaa, %xmm10, %xmm10, %xmm4 # xmm4 = xmm10[2,2,2,2]
vmulps %xmm4, %xmm6, %xmm15
vfmadd231ps %xmm2, %xmm7, %xmm15 # xmm15 = (xmm7 * xmm2) + xmm15
vfmadd231ps %xmm0, %xmm5, %xmm15 # xmm15 = (xmm5 * xmm0) + xmm15
vbroadcastss %xmm9, %xmm2
vshufps $0x55, %xmm9, %xmm9, %xmm4 # xmm4 = xmm9[1,1,1,1]
vshufps $0xaa, %xmm9, %xmm9, %xmm0 # xmm0 = xmm9[2,2,2,2]
vmulps %xmm0, %xmm6, %xmm22
vfmadd231ps %xmm4, %xmm7, %xmm22 # xmm22 = (xmm7 * xmm4) + xmm22
vfmadd231ps %xmm2, %xmm5, %xmm22 # xmm22 = (xmm5 * xmm2) + xmm22
vbroadcastss %xmm12, %xmm4
vshufps $0x55, %xmm12, %xmm12, %xmm9 # xmm9 = xmm12[1,1,1,1]
vshufps $0xaa, %xmm12, %xmm12, %xmm2 # xmm2 = xmm12[2,2,2,2]
vmulps %xmm2, %xmm6, %xmm20
vfmadd231ps %xmm9, %xmm7, %xmm20 # xmm20 = (xmm7 * xmm9) + xmm20
vfmadd231ps %xmm4, %xmm5, %xmm20 # xmm20 = (xmm5 * xmm4) + xmm20
vbroadcastss %xmm13, %xmm9
vshufps $0x55, %xmm13, %xmm13, %xmm10 # xmm10 = xmm13[1,1,1,1]
vshufps $0xaa, %xmm13, %xmm13, %xmm4 # xmm4 = xmm13[2,2,2,2]
vmulps %xmm4, %xmm6, %xmm2
vfmadd231ps %xmm10, %xmm7, %xmm2 # xmm2 = (xmm7 * xmm10) + xmm2
vfmadd231ps %xmm9, %xmm5, %xmm2 # xmm2 = (xmm5 * xmm9) + xmm2
vbroadcastss %xmm1, %xmm9
vshufps $0x55, %xmm1, %xmm1, %xmm10 # xmm10 = xmm1[1,1,1,1]
vshufps $0xaa, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,2,2,2]
vmulps %xmm1, %xmm6, %xmm6
vfmadd231ps %xmm10, %xmm7, %xmm6 # xmm6 = (xmm7 * xmm10) + xmm6
vfmadd231ps %xmm9, %xmm5, %xmm6 # xmm6 = (xmm5 * xmm9) + xmm6
vbroadcastss 0x77a74(%rip), %ymm29 # 0x1f12704
vbroadcastss %xmm3, %ymm1
vpermps %ymm3, %ymm29, %ymm5
vbroadcastss 0x86237(%rip), %ymm30 # 0x1f20edc
vpermps %ymm3, %ymm30, %ymm3
vbroadcastss %xmm8, %ymm17
vpermps %ymm8, %ymm29, %ymm4
vpermps %ymm8, %ymm30, %ymm0
vbroadcastss %xmm14, %ymm23
vpermps %ymm14, %ymm29, %ymm24
vpermps %ymm14, %ymm30, %ymm25
vbroadcastss %xmm15, %ymm26
vpermps %ymm15, %ymm29, %ymm27
leaq 0x28c602(%rip), %rcx # 0x21272e4
vmovups 0x1dc(%rcx), %ymm31
vmovups 0x660(%rcx), %ymm10
vpermps %ymm15, %ymm30, %ymm28
vmovups 0xae4(%rcx), %ymm13
vmovups 0xf68(%rcx), %ymm16
vmulps %ymm16, %ymm26, %ymm14
vmulps %ymm16, %ymm27, %ymm18
vmulps %ymm16, %ymm28, %ymm21
vfmadd231ps %ymm23, %ymm13, %ymm14 # ymm14 = (ymm13 * ymm23) + ymm14
vfmadd231ps %ymm24, %ymm13, %ymm18 # ymm18 = (ymm13 * ymm24) + ymm18
vfmadd231ps %ymm25, %ymm13, %ymm21 # ymm21 = (ymm13 * ymm25) + ymm21
vfmadd231ps %ymm17, %ymm10, %ymm14 # ymm14 = (ymm10 * ymm17) + ymm14
vfmadd231ps %ymm4, %ymm10, %ymm18 # ymm18 = (ymm10 * ymm4) + ymm18
vfmadd231ps %ymm0, %ymm10, %ymm21 # ymm21 = (ymm10 * ymm0) + ymm21
vfmadd231ps %ymm1, %ymm31, %ymm14 # ymm14 = (ymm31 * ymm1) + ymm14
vfmadd231ps %ymm5, %ymm31, %ymm18 # ymm18 = (ymm31 * ymm5) + ymm18
vmovups 0x13ec(%rcx), %ymm8
vmovups 0x1870(%rcx), %ymm12
vmovups 0x1cf4(%rcx), %ymm15
vmovups 0x2178(%rcx), %ymm19
vfmadd231ps %ymm3, %ymm31, %ymm21 # ymm21 = (ymm31 * ymm3) + ymm21
vmulps %ymm19, %ymm26, %ymm26
vmulps %ymm19, %ymm27, %ymm27
vmulps %ymm19, %ymm28, %ymm28
vfmadd231ps %ymm23, %ymm15, %ymm26 # ymm26 = (ymm15 * ymm23) + ymm26
vfmadd231ps %ymm24, %ymm15, %ymm27 # ymm27 = (ymm15 * ymm24) + ymm27
vfmadd231ps %ymm25, %ymm15, %ymm28 # ymm28 = (ymm15 * ymm25) + ymm28
vfmadd231ps %ymm17, %ymm12, %ymm26 # ymm26 = (ymm12 * ymm17) + ymm26
vfmadd231ps %ymm4, %ymm12, %ymm27 # ymm27 = (ymm12 * ymm4) + ymm27
vfmadd231ps %ymm0, %ymm12, %ymm28 # ymm28 = (ymm12 * ymm0) + ymm28
vfmadd231ps %ymm1, %ymm8, %ymm26 # ymm26 = (ymm8 * ymm1) + ymm26
vfmadd231ps %ymm5, %ymm8, %ymm27 # ymm27 = (ymm8 * ymm5) + ymm27
vfmadd231ps %ymm3, %ymm8, %ymm28 # ymm28 = (ymm8 * ymm3) + ymm28
vbroadcastss 0x86709(%rip), %ymm0 # 0x1f214d0
vmulps %ymm0, %ymm26, %ymm3
vmulps %ymm0, %ymm27, %ymm5
vmulps %ymm0, %ymm28, %ymm9
vxorps %xmm4, %xmm4, %xmm4
vblendps $0x1, %ymm4, %ymm3, %ymm11 # ymm11 = ymm4[0],ymm3[1,2,3,4,5,6,7]
vblendps $0x1, %ymm4, %ymm5, %ymm7 # ymm7 = ymm4[0],ymm5[1,2,3,4,5,6,7]
vblendps $0x1, %ymm4, %ymm9, %ymm0 # ymm0 = ymm4[0],ymm9[1,2,3,4,5,6,7]
vsubps %ymm11, %ymm14, %ymm11
vsubps %ymm7, %ymm18, %ymm24
vsubps %ymm0, %ymm21, %ymm0
vblendps $0x80, %ymm4, %ymm3, %ymm3 # ymm3 = ymm3[0,1,2,3,4,5,6],ymm4[7]
vblendps $0x80, %ymm4, %ymm5, %ymm5 # ymm5 = ymm5[0,1,2,3,4,5,6],ymm4[7]
vblendps $0x80, %ymm4, %ymm9, %ymm7 # ymm7 = ymm9[0,1,2,3,4,5,6],ymm4[7]
vaddps %ymm3, %ymm14, %ymm9
vaddps %ymm5, %ymm18, %ymm25
vaddps %ymm7, %ymm21, %ymm26
vbroadcastss 0x50bf5(%rip), %ymm7 # 0x1eeba20
vminps %ymm14, %ymm7, %ymm3
vminps %ymm18, %ymm7, %ymm17
vminps %ymm21, %ymm7, %ymm23
vminps %ymm9, %ymm11, %ymm5
vminps %ymm5, %ymm3, %ymm5
vminps %ymm25, %ymm24, %ymm3
vminps %ymm3, %ymm17, %ymm3
vminps %ymm26, %ymm0, %ymm17
vminps %ymm17, %ymm23, %ymm17
vbroadcastss 0x51d1d(%rip), %ymm23 # 0x1eecb84
vmaxps %ymm14, %ymm23, %ymm14
vmaxps %ymm18, %ymm23, %ymm18
vmaxps %ymm21, %ymm23, %ymm27
vmaxps %ymm9, %ymm11, %ymm9
vmaxps %ymm9, %ymm14, %ymm21
vmaxps %ymm25, %ymm24, %ymm9
vmaxps %ymm9, %ymm18, %ymm18
vmaxps %ymm26, %ymm0, %ymm0
vmaxps %ymm0, %ymm27, %ymm14
vbroadcastss %xmm22, %ymm9
vpermps %ymm22, %ymm29, %ymm11
vpermps %ymm22, %ymm30, %ymm22
vbroadcastss %xmm20, %ymm24
vpermps %ymm20, %ymm29, %ymm25
vpermps %ymm20, %ymm30, %ymm26
vbroadcastss %xmm2, %ymm27
vpermps %ymm2, %ymm29, %ymm28
vpermps %ymm2, %ymm30, %ymm20
vbroadcastss %xmm6, %ymm1
vpermps %ymm6, %ymm29, %ymm29
vpermps %ymm6, %ymm30, %ymm30
vmulps %ymm16, %ymm1, %ymm0
vmulps %ymm16, %ymm29, %ymm2
vmulps %ymm16, %ymm30, %ymm6
vfmadd231ps %ymm27, %ymm13, %ymm0 # ymm0 = (ymm13 * ymm27) + ymm0
vfmadd231ps %ymm28, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm28) + ymm2
vfmadd231ps %ymm13, %ymm20, %ymm6 # ymm6 = (ymm20 * ymm13) + ymm6
vfmadd231ps %ymm24, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm24) + ymm0
vfmadd231ps %ymm25, %ymm10, %ymm2 # ymm2 = (ymm10 * ymm25) + ymm2
vfmadd231ps %ymm10, %ymm26, %ymm6 # ymm6 = (ymm26 * ymm10) + ymm6
vfmadd231ps %ymm9, %ymm31, %ymm0 # ymm0 = (ymm31 * ymm9) + ymm0
vfmadd231ps %ymm11, %ymm31, %ymm2 # ymm2 = (ymm31 * ymm11) + ymm2
vfmadd231ps %ymm31, %ymm22, %ymm6 # ymm6 = (ymm22 * ymm31) + ymm6
vmulps %ymm19, %ymm1, %ymm1
vmulps %ymm19, %ymm29, %ymm10
vmulps %ymm19, %ymm30, %ymm13
vfmadd231ps %ymm27, %ymm15, %ymm1 # ymm1 = (ymm15 * ymm27) + ymm1
vfmadd231ps %ymm28, %ymm15, %ymm10 # ymm10 = (ymm15 * ymm28) + ymm10
vfmadd231ps %ymm20, %ymm15, %ymm13 # ymm13 = (ymm15 * ymm20) + ymm13
vfmadd231ps %ymm24, %ymm12, %ymm1 # ymm1 = (ymm12 * ymm24) + ymm1
vfmadd231ps %ymm25, %ymm12, %ymm10 # ymm10 = (ymm12 * ymm25) + ymm10
vfmadd231ps %ymm26, %ymm12, %ymm13 # ymm13 = (ymm12 * ymm26) + ymm13
vfmadd231ps %ymm9, %ymm8, %ymm1 # ymm1 = (ymm8 * ymm9) + ymm1
vfmadd231ps %ymm11, %ymm8, %ymm10 # ymm10 = (ymm8 * ymm11) + ymm10
vfmadd231ps %ymm22, %ymm8, %ymm13 # ymm13 = (ymm8 * ymm22) + ymm13
vbroadcastss 0x86556(%rip), %ymm9 # 0x1f214d0
vmulps %ymm1, %ymm9, %ymm1
vmulps %ymm9, %ymm10, %ymm8
vmulps %ymm9, %ymm13, %ymm9
vblendps $0x1, %ymm4, %ymm1, %ymm10 # ymm10 = ymm4[0],ymm1[1,2,3,4,5,6,7]
vblendps $0x1, %ymm4, %ymm8, %ymm11 # ymm11 = ymm4[0],ymm8[1,2,3,4,5,6,7]
vblendps $0x1, %ymm4, %ymm9, %ymm12 # ymm12 = ymm4[0],ymm9[1,2,3,4,5,6,7]
vsubps %ymm10, %ymm0, %ymm10
vsubps %ymm11, %ymm2, %ymm11
vsubps %ymm12, %ymm6, %ymm12
vblendps $0x80, %ymm4, %ymm1, %ymm1 # ymm1 = ymm1[0,1,2,3,4,5,6],ymm4[7]
vblendps $0x80, %ymm4, %ymm8, %ymm8 # ymm8 = ymm8[0,1,2,3,4,5,6],ymm4[7]
vblendps $0x80, %ymm4, %ymm9, %ymm4 # ymm4 = ymm9[0,1,2,3,4,5,6],ymm4[7]
vaddps %ymm1, %ymm0, %ymm1
vaddps %ymm2, %ymm8, %ymm8
vaddps %ymm4, %ymm6, %ymm9
vminps %ymm0, %ymm7, %ymm4
vminps %ymm2, %ymm7, %ymm13
vminps %ymm6, %ymm7, %ymm15
vminps %ymm1, %ymm10, %ymm7
vminps %ymm7, %ymm4, %ymm16
vminps %ymm8, %ymm11, %ymm4
vminps %ymm4, %ymm13, %ymm7
vminps %ymm9, %ymm12, %ymm4
vminps %ymm4, %ymm15, %ymm4
vmaxps %ymm0, %ymm23, %ymm0
vmaxps %ymm2, %ymm23, %ymm13
vmaxps %ymm6, %ymm23, %ymm6
vmaxps %ymm1, %ymm10, %ymm1
vmaxps %ymm1, %ymm0, %ymm2
vmaxps %ymm8, %ymm11, %ymm0
vmaxps %ymm0, %ymm13, %ymm1
vmaxps %ymm9, %ymm12, %ymm0
vmaxps %ymm0, %ymm6, %ymm0
vshufps $0xb1, %ymm21, %ymm21, %ymm6 # ymm6 = ymm21[1,0,3,2,5,4,7,6]
vmaxps %ymm6, %ymm21, %ymm6
vshufpd $0x5, %ymm6, %ymm6, %ymm8 # ymm8 = ymm6[1,0,3,2]
vmaxps %ymm8, %ymm6, %ymm6
vextractf128 $0x1, %ymm6, %xmm8
vmaxps %xmm8, %xmm6, %xmm6
vshufps $0xb1, %ymm18, %ymm18, %ymm8 # ymm8 = ymm18[1,0,3,2,5,4,7,6]
vmaxps %ymm8, %ymm18, %ymm8
vshufpd $0x5, %ymm8, %ymm8, %ymm9 # ymm9 = ymm8[1,0,3,2]
vmaxps %ymm9, %ymm8, %ymm8
vextractf128 $0x1, %ymm8, %xmm9
vmaxps %xmm9, %xmm8, %xmm8
vunpcklps %xmm8, %xmm6, %xmm6 # xmm6 = xmm6[0],xmm8[0],xmm6[1],xmm8[1]
vshufps $0xb1, %ymm14, %ymm14, %ymm8 # ymm8 = ymm14[1,0,3,2,5,4,7,6]
vmaxps %ymm8, %ymm14, %ymm8
vshufpd $0x5, %ymm8, %ymm8, %ymm9 # ymm9 = ymm8[1,0,3,2]
vmaxps %ymm9, %ymm8, %ymm8
vextractf128 $0x1, %ymm8, %xmm9
vmaxps %xmm9, %xmm8, %xmm8
vinsertps $0x28, %xmm8, %xmm6, %xmm6 # xmm6 = xmm6[0,1],xmm8[0],zero
vshufps $0xb1, %ymm5, %ymm5, %ymm8 # ymm8 = ymm5[1,0,3,2,5,4,7,6]
vminps %ymm8, %ymm5, %ymm5
vshufpd $0x5, %ymm5, %ymm5, %ymm8 # ymm8 = ymm5[1,0,3,2]
vminps %ymm8, %ymm5, %ymm5
vextractf128 $0x1, %ymm5, %xmm8
vminps %xmm8, %xmm5, %xmm5
vshufps $0xb1, %ymm3, %ymm3, %ymm8 # ymm8 = ymm3[1,0,3,2,5,4,7,6]
vminps %ymm8, %ymm3, %ymm3
vshufpd $0x5, %ymm3, %ymm3, %ymm8 # ymm8 = ymm3[1,0,3,2]
vminps %ymm8, %ymm3, %ymm3
vextractf128 $0x1, %ymm3, %xmm8
vminps %xmm8, %xmm3, %xmm3
vunpcklps %xmm3, %xmm5, %xmm3 # xmm3 = xmm5[0],xmm3[0],xmm5[1],xmm3[1]
vshufps $0xb1, %ymm17, %ymm17, %ymm5 # ymm5 = ymm17[1,0,3,2,5,4,7,6]
vminps %ymm5, %ymm17, %ymm5
vshufpd $0x5, %ymm5, %ymm5, %ymm8 # ymm8 = ymm5[1,0,3,2]
vminps %ymm8, %ymm5, %ymm5
vextractf128 $0x1, %ymm5, %xmm8
vminps %xmm8, %xmm5, %xmm5
vinsertps $0x28, %xmm5, %xmm3, %xmm3 # xmm3 = xmm3[0,1],xmm5[0],zero
vshufps $0xb1, %ymm16, %ymm16, %ymm5 # ymm5 = ymm16[1,0,3,2,5,4,7,6]
vminps %ymm5, %ymm16, %ymm5
vshufpd $0x5, %ymm5, %ymm5, %ymm8 # ymm8 = ymm5[1,0,3,2]
vminps %ymm8, %ymm5, %ymm5
vextractf128 $0x1, %ymm5, %xmm8
vminps %xmm8, %xmm5, %xmm5
vshufps $0xb1, %ymm7, %ymm7, %ymm8 # ymm8 = ymm7[1,0,3,2,5,4,7,6]
vminps %ymm8, %ymm7, %ymm7
vshufpd $0x5, %ymm7, %ymm7, %ymm8 # ymm8 = ymm7[1,0,3,2]
vminps %ymm8, %ymm7, %ymm7
vextractf128 $0x1, %ymm7, %xmm8
vminps %xmm8, %xmm7, %xmm7
vunpcklps %xmm7, %xmm5, %xmm5 # xmm5 = xmm5[0],xmm7[0],xmm5[1],xmm7[1]
vshufps $0xb1, %ymm4, %ymm4, %ymm7 # ymm7 = ymm4[1,0,3,2,5,4,7,6]
vminps %ymm7, %ymm4, %ymm4
vshufpd $0x5, %ymm4, %ymm4, %ymm7 # ymm7 = ymm4[1,0,3,2]
vminps %ymm7, %ymm4, %ymm4
vextractf128 $0x1, %ymm4, %xmm7
vminps %xmm7, %xmm4, %xmm4
vinsertps $0x28, %xmm4, %xmm5, %xmm4 # xmm4 = xmm5[0,1],xmm4[0],zero
vminps %xmm4, %xmm3, %xmm3
vshufps $0xb1, %ymm2, %ymm2, %ymm4 # ymm4 = ymm2[1,0,3,2,5,4,7,6]
vmaxps %ymm4, %ymm2, %ymm2
vshufpd $0x5, %ymm2, %ymm2, %ymm4 # ymm4 = ymm2[1,0,3,2]
vmaxps %ymm4, %ymm2, %ymm2
vextractf128 $0x1, %ymm2, %xmm4
vmaxps %xmm4, %xmm2, %xmm2
vshufps $0xb1, %ymm1, %ymm1, %ymm4 # ymm4 = ymm1[1,0,3,2,5,4,7,6]
vmaxps %ymm4, %ymm1, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm4 # ymm4 = ymm1[1,0,3,2]
vmaxps %ymm4, %ymm1, %ymm1
vextractf128 $0x1, %ymm1, %xmm4
vmaxps %xmm4, %xmm1, %xmm1
vunpcklps %xmm1, %xmm2, %xmm1 # xmm1 = xmm2[0],xmm1[0],xmm2[1],xmm1[1]
vshufps $0xb1, %ymm0, %ymm0, %ymm2 # ymm2 = ymm0[1,0,3,2,5,4,7,6]
vmaxps %ymm2, %ymm0, %ymm0
vshufpd $0x5, %ymm0, %ymm0, %ymm2 # ymm2 = ymm0[1,0,3,2]
vmaxps %ymm2, %ymm0, %ymm0
vextractf128 $0x1, %ymm0, %xmm2
vmaxps %xmm2, %xmm0, %xmm0
vinsertps $0x28, %xmm0, %xmm1, %xmm0 # xmm0 = xmm1[0,1],xmm0[0],zero
vmaxps %xmm0, %xmm6, %xmm0
vbroadcastss 0x85cf8(%rip), %xmm1 # 0x1f20ec4
vandps %xmm1, %xmm3, %xmm2
vandps %xmm1, %xmm0, %xmm1
vmaxps %xmm1, %xmm2, %xmm1
vmovshdup %xmm1, %xmm2 # xmm2 = xmm1[1,1,3,3]
vmaxss %xmm1, %xmm2, %xmm2
vshufpd $0x1, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[1,0]
vmaxss %xmm2, %xmm1, %xmm1
vmulss 0x55df3(%rip), %xmm1, %xmm1 # 0x1ef0fe4
vbroadcastss %xmm1, %xmm1
vsubps %xmm1, %xmm3, %xmm2
vaddps %xmm1, %xmm0, %xmm0
vmovaps %xmm2, (%rax)
vmovaps %xmm0, 0x10(%rax)
popq %rbx
popq %r14
vzeroupper
retq
|
/embree[P]embree/kernels/common/scene_curves.cpp
|
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)2, embree::avx512::HermiteCurveGeometryInterface, embree::HermiteCurveT>::vbounds(embree::Vec3fa const&, float, float, embree::LinearSpace3<embree::Vec3fa> const&, unsigned long, unsigned long) const
|
size_t CurveGeometry::getGeometryDataDeviceByteSize() const {
size_t byte_size = sizeof(CurveGeometry);
if (vertices.size() > 0)
byte_size += numTimeSteps * sizeof(BufferView<Vec3ff>);
if (normals.size() > 0)
byte_size += numTimeSteps * sizeof(BufferView<Vec3fa>);
if (tangents.size() > 0)
byte_size += numTimeSteps * sizeof(BufferView<Vec3ff>);
if (dnormals.size() > 0)
byte_size += numTimeSteps * sizeof(BufferView<Vec3fa>);
return 16 * ((byte_size + 15) / 16);
}
|
pushq %r15
pushq %r14
pushq %r13
pushq %r12
pushq %rbx
imulq 0x68(%rsi), %r8
movq 0x58(%rsi), %rax
movq 0x188(%rsi), %r10
movl (%rax,%r8), %r8d
imulq $0x38, %r9, %r9
movq (%r10,%r9), %r11
movq 0x10(%r10,%r9), %rbx
movq %rbx, %r14
imulq %r8, %r14
vmovaps (%r11,%r14), %xmm1
leal 0x1(%r8), %r10d
imulq %r10, %rbx
vmovaps (%r11,%rbx), %xmm2
movq 0x1c8(%rsi), %rax
movq (%rax,%r9), %r15
movq 0x10(%rax,%r9), %r12
movq %r12, %r13
imulq %r8, %r13
vmovaps (%r15,%r13), %xmm3
imulq %r10, %r12
vmovaps (%r15,%r12), %xmm4
movq %rdi, %rax
vmovss 0x24c(%rsi), %xmm5
vmulss 0xc(%r11,%r14), %xmm5, %xmm6
vinsertps $0x30, %xmm6, %xmm1, %xmm7 # xmm7 = xmm1[0,1,2],xmm6[0]
vmulss 0xc(%r11,%rbx), %xmm5, %xmm1
vinsertps $0x30, %xmm1, %xmm2, %xmm8 # xmm8 = xmm2[0,1,2],xmm1[0]
vmulss 0xc(%r15,%r13), %xmm5, %xmm1
vinsertps $0x30, %xmm1, %xmm3, %xmm9 # xmm9 = xmm3[0,1,2],xmm1[0]
vmulss 0xc(%r15,%r12), %xmm5, %xmm1
vinsertps $0x30, %xmm1, %xmm4, %xmm10 # xmm10 = xmm4[0,1,2],xmm1[0]
vbroadcastss 0xc21aa(%rip), %xmm6 # 0x1f5d46c
vfnmadd213ps %xmm7, %xmm6, %xmm9 # xmm9 = -(xmm6 * xmm9) + xmm7
movq 0x1a8(%rsi), %rdi
movq (%rdi,%r9), %r11
movq 0x10(%rdi,%r9), %rdi
movq %rdi, %rbx
imulq %r8, %rbx
vmovups (%r11,%rbx), %xmm11
vfmadd213ps %xmm8, %xmm6, %xmm10 # xmm10 = (xmm6 * xmm10) + xmm8
imulq %r10, %rdi
vmovups (%r11,%rdi), %xmm12
movq 0x1e8(%rsi), %rsi
movq (%rsi,%r9), %rdi
movq 0x10(%rsi,%r9), %rsi
imulq %rsi, %r8
imulq %r10, %rsi
vmovups (%rdi,%r8), %xmm13
vfnmadd132ps %xmm6, %xmm11, %xmm13 # xmm13 = -(xmm13 * xmm6) + xmm11
vfmadd132ps (%rdi,%rsi), %xmm12, %xmm6 # xmm6 = (xmm6 * mem) + xmm12
vxorps %xmm4, %xmm4, %xmm4
vmulps %xmm4, %xmm8, %xmm1
vfmadd231ps %xmm4, %xmm10, %xmm1 # xmm1 = (xmm10 * xmm4) + xmm1
vxorps %xmm2, %xmm2, %xmm2
vfmadd213ps %xmm1, %xmm9, %xmm2 # xmm2 = (xmm9 * xmm2) + xmm1
vaddps %xmm2, %xmm7, %xmm17
vbroadcastss 0x55cab(%rip), %xmm14 # 0x1ef0fec
vfmadd231ps %xmm14, %xmm9, %xmm1 # xmm1 = (xmm9 * xmm14) + xmm1
vfnmadd231ps %xmm14, %xmm7, %xmm1 # xmm1 = -(xmm7 * xmm14) + xmm1
vmulps %xmm4, %xmm12, %xmm15
vfmadd231ps %xmm4, %xmm6, %xmm15 # xmm15 = (xmm6 * xmm4) + xmm15
vxorps %xmm3, %xmm3, %xmm3
vfmadd213ps %xmm15, %xmm13, %xmm3 # xmm3 = (xmm13 * xmm3) + xmm15
vaddps %xmm3, %xmm11, %xmm16
vfmadd231ps %xmm14, %xmm13, %xmm15 # xmm15 = (xmm13 * xmm14) + xmm15
vfnmadd231ps %xmm14, %xmm11, %xmm15 # xmm15 = -(xmm11 * xmm14) + xmm15
vxorps %xmm3, %xmm3, %xmm3
vfmadd213ps %xmm8, %xmm10, %xmm3 # xmm3 = (xmm10 * xmm3) + xmm8
vfmadd231ps %xmm4, %xmm9, %xmm3 # xmm3 = (xmm9 * xmm4) + xmm3
vfmadd231ps %xmm4, %xmm7, %xmm3 # xmm3 = (xmm7 * xmm4) + xmm3
vmulps %xmm14, %xmm8, %xmm5
vfnmadd231ps %xmm10, %xmm14, %xmm5 # xmm5 = -(xmm14 * xmm10) + xmm5
vfmadd231ps %xmm9, %xmm4, %xmm5 # xmm5 = (xmm4 * xmm9) + xmm5
vfnmadd231ps %xmm7, %xmm4, %xmm5 # xmm5 = -(xmm4 * xmm7) + xmm5
vxorps %xmm7, %xmm7, %xmm7
vfmadd213ps %xmm12, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm7) + xmm12
vfmadd231ps %xmm4, %xmm13, %xmm7 # xmm7 = (xmm13 * xmm4) + xmm7
vfmadd231ps %xmm4, %xmm11, %xmm7 # xmm7 = (xmm11 * xmm4) + xmm7
vmulps %xmm14, %xmm12, %xmm10
vfnmadd231ps %xmm6, %xmm14, %xmm10 # xmm10 = -(xmm14 * xmm6) + xmm10
vfmadd231ps %xmm13, %xmm4, %xmm10 # xmm10 = (xmm4 * xmm13) + xmm10
vfnmadd231ps %xmm11, %xmm4, %xmm10 # xmm10 = -(xmm4 * xmm11) + xmm10
vshufps $0xc9, %xmm1, %xmm1, %xmm6 # xmm6 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm16, %xmm16, %xmm8 # xmm8 = xmm16[1,2,0,3]
vmulps %xmm1, %xmm8, %xmm8
vfmsub231ps %xmm16, %xmm6, %xmm8 # xmm8 = (xmm6 * xmm16) - xmm8
vshufps $0xc9, %xmm8, %xmm8, %xmm8 # xmm8 = xmm8[1,2,0,3]
vshufps $0xc9, %xmm15, %xmm15, %xmm9 # xmm9 = xmm15[1,2,0,3]
vmulps %xmm1, %xmm9, %xmm9
vfmsub231ps %xmm15, %xmm6, %xmm9 # xmm9 = (xmm6 * xmm15) - xmm9
vshufps $0xc9, %xmm9, %xmm9, %xmm9 # xmm9 = xmm9[1,2,0,3]
vshufps $0xc9, %xmm5, %xmm5, %xmm11 # xmm11 = xmm5[1,2,0,3]
vshufps $0xc9, %xmm7, %xmm7, %xmm6 # xmm6 = xmm7[1,2,0,3]
vmulps %xmm6, %xmm5, %xmm6
vfmsub231ps %xmm7, %xmm11, %xmm6 # xmm6 = (xmm11 * xmm7) - xmm6
vshufps $0xc9, %xmm6, %xmm6, %xmm6 # xmm6 = xmm6[1,2,0,3]
vshufps $0xc9, %xmm10, %xmm10, %xmm7 # xmm7 = xmm10[1,2,0,3]
vdpps $0x7f, %xmm8, %xmm8, %xmm12
vmulps %xmm7, %xmm5, %xmm7
vfmsub231ps %xmm10, %xmm11, %xmm7 # xmm7 = (xmm11 * xmm10) - xmm7
vshufps $0xc9, %xmm7, %xmm7, %xmm7 # xmm7 = xmm7[1,2,0,3]
vmovss %xmm12, %xmm4, %xmm10 # xmm10 = xmm12[0],xmm4[1,2,3]
vmovss 0x512ed(%rip), %xmm11 # 0x1eec718
vrsqrt14ss %xmm10, %xmm4, %xmm13
vmulss %xmm11, %xmm13, %xmm14
vmovss 0x51742(%rip), %xmm15 # 0x1eecb80
vmulss %xmm15, %xmm12, %xmm16
vmulss %xmm13, %xmm16, %xmm16
vmulss %xmm13, %xmm13, %xmm13
vmulss %xmm13, %xmm16, %xmm13
vdpps $0x7f, %xmm9, %xmm8, %xmm2
vsubss %xmm13, %xmm14, %xmm13
vbroadcastss %xmm13, %xmm13
vmulps %xmm13, %xmm8, %xmm14
vbroadcastss %xmm12, %xmm16
vmulps %xmm9, %xmm16, %xmm9
vbroadcastss %xmm2, %xmm2
vmulps %xmm2, %xmm8, %xmm2
vsubps %xmm2, %xmm9, %xmm2
vrcp14ss %xmm10, %xmm4, %xmm8
vmovss 0x55b67(%rip), %xmm9 # 0x1ef0ff8
vfnmadd213ss %xmm9, %xmm8, %xmm12 # xmm12 = -(xmm8 * xmm12) + xmm9
vmulss %xmm12, %xmm8, %xmm8
vbroadcastss %xmm8, %xmm8
vdpps $0x7f, %xmm6, %xmm6, %xmm10
vmulps %xmm2, %xmm8, %xmm2
vmulps %xmm2, %xmm13, %xmm2
vmovss %xmm10, %xmm4, %xmm8 # xmm8 = xmm10[0],xmm4[1,2,3]
vrsqrt14ss %xmm8, %xmm4, %xmm12
vmulss %xmm11, %xmm12, %xmm11
vmulss %xmm15, %xmm10, %xmm13
vmulss %xmm12, %xmm13, %xmm13
vmulss %xmm12, %xmm12, %xmm12
vmulss %xmm12, %xmm13, %xmm12
vsubss %xmm12, %xmm11, %xmm11
vbroadcastss %xmm11, %xmm11
vmulps %xmm6, %xmm11, %xmm12
vdpps $0x7f, %xmm7, %xmm6, %xmm13
vbroadcastss %xmm10, %xmm15
vmulps %xmm7, %xmm15, %xmm7
vbroadcastss %xmm13, %xmm13
vmulps %xmm6, %xmm13, %xmm6
vsubps %xmm6, %xmm7, %xmm6
vrcp14ss %xmm8, %xmm4, %xmm4
vfnmadd213ss %xmm9, %xmm4, %xmm10 # xmm10 = -(xmm4 * xmm10) + xmm9
vmulss %xmm4, %xmm10, %xmm4
vbroadcastss %xmm4, %xmm4
vmulps %xmm4, %xmm6, %xmm4
vmulps %xmm4, %xmm11, %xmm4
vshufps $0xff, %xmm17, %xmm17, %xmm6 # xmm6 = xmm17[3,3,3,3]
vmulps %xmm6, %xmm14, %xmm7
vsubps %xmm7, %xmm17, %xmm8
vshufps $0xff, %xmm1, %xmm1, %xmm9 # xmm9 = xmm1[3,3,3,3]
vmulps %xmm14, %xmm9, %xmm9
vmulps %xmm2, %xmm6, %xmm2
vaddps %xmm2, %xmm9, %xmm2
vsubps %xmm2, %xmm1, %xmm6
vaddps %xmm7, %xmm17, %xmm11
vaddps %xmm2, %xmm1, %xmm1
vshufps $0xff, %xmm3, %xmm3, %xmm2 # xmm2 = xmm3[3,3,3,3]
vmulps %xmm2, %xmm12, %xmm7
vsubps %xmm7, %xmm3, %xmm13
vshufps $0xff, %xmm5, %xmm5, %xmm9 # xmm9 = xmm5[3,3,3,3]
vmulps %xmm12, %xmm9, %xmm9
vmulps %xmm4, %xmm2, %xmm2
vaddps %xmm2, %xmm9, %xmm4
vsubps %xmm4, %xmm5, %xmm9
vaddps %xmm7, %xmm3, %xmm2
vbroadcastss 0x56943(%rip), %xmm3 # 0x1ef1ebc
vaddps %xmm4, %xmm5, %xmm4
vmulps %xmm3, %xmm6, %xmm5
vaddps %xmm5, %xmm8, %xmm10
vmulps %xmm3, %xmm9, %xmm5
vsubps %xmm5, %xmm13, %xmm12
vmulps %xmm3, %xmm1, %xmm1
vaddps %xmm1, %xmm11, %xmm1
vmulps %xmm3, %xmm4, %xmm3
vsubps %xmm3, %xmm2, %xmm4
vmovaps (%rdx), %xmm6
vsubps %xmm6, %xmm8, %xmm3
vbroadcastss %xmm0, %xmm7
vmulps %xmm3, %xmm7, %xmm0
vbroadcastss %xmm0, %xmm14
vshufps $0x55, %xmm0, %xmm0, %xmm15 # xmm15 = xmm0[1,1,1,1]
vmovaps (%rcx), %xmm5
vshufps $0xaa, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[2,2,2,2]
vmovaps 0x10(%rcx), %xmm8
vmovaps 0x20(%rcx), %xmm9
vmulps %xmm0, %xmm9, %xmm3
vfmadd231ps %xmm15, %xmm8, %xmm3 # xmm3 = (xmm8 * xmm15) + xmm3
vfmadd231ps %xmm14, %xmm5, %xmm3 # xmm3 = (xmm5 * xmm14) + xmm3
vsubps %xmm6, %xmm10, %xmm0
vmulps %xmm0, %xmm7, %xmm0
vbroadcastss %xmm0, %xmm14
vshufps $0x55, %xmm0, %xmm0, %xmm15 # xmm15 = xmm0[1,1,1,1]
vshufps $0xaa, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[2,2,2,2]
vmulps %xmm0, %xmm9, %xmm10
vfmadd231ps %xmm15, %xmm8, %xmm10 # xmm10 = (xmm8 * xmm15) + xmm10
vfmadd231ps %xmm14, %xmm5, %xmm10 # xmm10 = (xmm5 * xmm14) + xmm10
vsubps %xmm6, %xmm12, %xmm0
vmulps %xmm0, %xmm7, %xmm0
vbroadcastss %xmm0, %xmm14
vshufps $0x55, %xmm0, %xmm0, %xmm15 # xmm15 = xmm0[1,1,1,1]
vshufps $0xaa, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[2,2,2,2]
vmulps %xmm0, %xmm9, %xmm12
vfmadd231ps %xmm15, %xmm8, %xmm12 # xmm12 = (xmm8 * xmm15) + xmm12
vfmadd231ps %xmm14, %xmm5, %xmm12 # xmm12 = (xmm5 * xmm14) + xmm12
vsubps %xmm6, %xmm13, %xmm0
vmulps %xmm0, %xmm7, %xmm0
vbroadcastss %xmm0, %xmm14
vshufps $0x55, %xmm0, %xmm0, %xmm15 # xmm15 = xmm0[1,1,1,1]
vshufps $0xaa, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[2,2,2,2]
vmulps %xmm0, %xmm9, %xmm13
vfmadd231ps %xmm15, %xmm8, %xmm13 # xmm13 = (xmm8 * xmm15) + xmm13
vfmadd231ps %xmm14, %xmm5, %xmm13 # xmm13 = (xmm5 * xmm14) + xmm13
vsubps %xmm6, %xmm11, %xmm0
vmulps %xmm0, %xmm7, %xmm0
vbroadcastss %xmm0, %xmm11
vshufps $0x55, %xmm0, %xmm0, %xmm14 # xmm14 = xmm0[1,1,1,1]
vshufps $0xaa, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[2,2,2,2]
vmulps %xmm0, %xmm9, %xmm31
vfmadd231ps %xmm14, %xmm8, %xmm31 # xmm31 = (xmm8 * xmm14) + xmm31
vfmadd231ps %xmm11, %xmm5, %xmm31 # xmm31 = (xmm5 * xmm11) + xmm31
vsubps %xmm6, %xmm1, %xmm1
vmulps %xmm1, %xmm7, %xmm1
vbroadcastss %xmm1, %xmm11
vshufps $0x55, %xmm1, %xmm1, %xmm14 # xmm14 = xmm1[1,1,1,1]
vshufps $0xaa, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,2,2,2]
vmulps %xmm1, %xmm9, %xmm22
vfmadd231ps %xmm14, %xmm8, %xmm22 # xmm22 = (xmm8 * xmm14) + xmm22
vfmadd231ps %xmm11, %xmm5, %xmm22 # xmm22 = (xmm5 * xmm11) + xmm22
vsubps %xmm6, %xmm4, %xmm4
vmulps %xmm4, %xmm7, %xmm4
vbroadcastss %xmm4, %xmm11
vshufps $0x55, %xmm4, %xmm4, %xmm14 # xmm14 = xmm4[1,1,1,1]
vshufps $0xaa, %xmm4, %xmm4, %xmm4 # xmm4 = xmm4[2,2,2,2]
vmulps %xmm4, %xmm9, %xmm20
vfmadd231ps %xmm14, %xmm8, %xmm20 # xmm20 = (xmm8 * xmm14) + xmm20
vfmadd231ps %xmm11, %xmm5, %xmm20 # xmm20 = (xmm5 * xmm11) + xmm20
vsubps %xmm6, %xmm2, %xmm2
vmulps %xmm2, %xmm7, %xmm2
vbroadcastss %xmm2, %xmm7
vshufps $0x55, %xmm2, %xmm2, %xmm11 # xmm11 = xmm2[1,1,1,1]
vshufps $0xaa, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[2,2,2,2]
vmulps %xmm2, %xmm9, %xmm6
vfmadd231ps %xmm11, %xmm8, %xmm6 # xmm6 = (xmm8 * xmm11) + xmm6
vfmadd231ps %xmm7, %xmm5, %xmm6 # xmm6 = (xmm5 * xmm7) + xmm6
vbroadcastss 0x77012(%rip), %ymm29 # 0x1f12704
vbroadcastss %xmm3, %ymm2
vpermps %ymm3, %ymm29, %ymm5
vbroadcastss 0x857d5(%rip), %ymm30 # 0x1f20edc
vpermps %ymm3, %ymm30, %ymm3
vbroadcastss %xmm10, %ymm17
vpermps %ymm10, %ymm29, %ymm1
vpermps %ymm10, %ymm30, %ymm0
vbroadcastss %xmm12, %ymm23
vpermps %ymm12, %ymm29, %ymm24
vpermps %ymm12, %ymm30, %ymm25
vbroadcastss %xmm13, %ymm26
vpermps %ymm13, %ymm29, %ymm27
leaq 0x28bba0(%rip), %rcx # 0x21272e4
vmovups 0x1dc(%rcx), %ymm7
vmovups 0x660(%rcx), %ymm10
vpermps %ymm13, %ymm30, %ymm28
vmovups 0xae4(%rcx), %ymm13
vmovups 0xf68(%rcx), %ymm16
vmulps %ymm16, %ymm26, %ymm14
vmulps %ymm16, %ymm27, %ymm18
vmulps %ymm16, %ymm28, %ymm21
vfmadd231ps %ymm23, %ymm13, %ymm14 # ymm14 = (ymm13 * ymm23) + ymm14
vfmadd231ps %ymm24, %ymm13, %ymm18 # ymm18 = (ymm13 * ymm24) + ymm18
vfmadd231ps %ymm25, %ymm13, %ymm21 # ymm21 = (ymm13 * ymm25) + ymm21
vfmadd231ps %ymm17, %ymm10, %ymm14 # ymm14 = (ymm10 * ymm17) + ymm14
vfmadd231ps %ymm1, %ymm10, %ymm18 # ymm18 = (ymm10 * ymm1) + ymm18
vfmadd231ps %ymm0, %ymm10, %ymm21 # ymm21 = (ymm10 * ymm0) + ymm21
vfmadd231ps %ymm2, %ymm7, %ymm14 # ymm14 = (ymm7 * ymm2) + ymm14
vfmadd231ps %ymm5, %ymm7, %ymm18 # ymm18 = (ymm7 * ymm5) + ymm18
vmovups 0x13ec(%rcx), %ymm8
vmovups 0x1870(%rcx), %ymm12
vmovups 0x1cf4(%rcx), %ymm15
vmovups 0x2178(%rcx), %ymm19
vfmadd231ps %ymm3, %ymm7, %ymm21 # ymm21 = (ymm7 * ymm3) + ymm21
vmulps %ymm19, %ymm26, %ymm26
vmulps %ymm19, %ymm27, %ymm27
vmulps %ymm19, %ymm28, %ymm28
vfmadd231ps %ymm23, %ymm15, %ymm26 # ymm26 = (ymm15 * ymm23) + ymm26
vfmadd231ps %ymm24, %ymm15, %ymm27 # ymm27 = (ymm15 * ymm24) + ymm27
vfmadd231ps %ymm25, %ymm15, %ymm28 # ymm28 = (ymm15 * ymm25) + ymm28
vfmadd231ps %ymm17, %ymm12, %ymm26 # ymm26 = (ymm12 * ymm17) + ymm26
vfmadd231ps %ymm1, %ymm12, %ymm27 # ymm27 = (ymm12 * ymm1) + ymm27
vfmadd231ps %ymm0, %ymm12, %ymm28 # ymm28 = (ymm12 * ymm0) + ymm28
vfmadd231ps %ymm2, %ymm8, %ymm26 # ymm26 = (ymm8 * ymm2) + ymm26
vfmadd231ps %ymm5, %ymm8, %ymm27 # ymm27 = (ymm8 * ymm5) + ymm27
vfmadd231ps %ymm3, %ymm8, %ymm28 # ymm28 = (ymm8 * ymm3) + ymm28
vbroadcastss 0x85caa(%rip), %ymm0 # 0x1f214d0
vmulps %ymm0, %ymm26, %ymm3
vmulps %ymm0, %ymm27, %ymm5
vmulps %ymm0, %ymm28, %ymm9
vxorps %xmm4, %xmm4, %xmm4
vblendps $0x1, %ymm4, %ymm3, %ymm11 # ymm11 = ymm4[0],ymm3[1,2,3,4,5,6,7]
vblendps $0x1, %ymm4, %ymm5, %ymm0 # ymm0 = ymm4[0],ymm5[1,2,3,4,5,6,7]
vblendps $0x1, %ymm4, %ymm9, %ymm1 # ymm1 = ymm4[0],ymm9[1,2,3,4,5,6,7]
vsubps %ymm11, %ymm14, %ymm11
vsubps %ymm0, %ymm18, %ymm0
vsubps %ymm1, %ymm21, %ymm1
vblendps $0x80, %ymm4, %ymm3, %ymm3 # ymm3 = ymm3[0,1,2,3,4,5,6],ymm4[7]
vblendps $0x80, %ymm4, %ymm5, %ymm5 # ymm5 = ymm5[0,1,2,3,4,5,6],ymm4[7]
vblendps $0x80, %ymm4, %ymm9, %ymm9 # ymm9 = ymm9[0,1,2,3,4,5,6],ymm4[7]
vaddps %ymm3, %ymm14, %ymm24
vaddps %ymm5, %ymm18, %ymm25
vaddps %ymm9, %ymm21, %ymm26
vbroadcastss 0x50194(%rip), %ymm9 # 0x1eeba20
vminps %ymm14, %ymm9, %ymm3
vminps %ymm18, %ymm9, %ymm17
vminps %ymm21, %ymm9, %ymm23
vminps %ymm24, %ymm11, %ymm5
vminps %ymm5, %ymm3, %ymm5
vminps %ymm25, %ymm0, %ymm3
vminps %ymm3, %ymm17, %ymm3
vminps %ymm26, %ymm1, %ymm17
vminps %ymm17, %ymm23, %ymm17
vbroadcastss 0x512bb(%rip), %ymm23 # 0x1eecb84
vmaxps %ymm14, %ymm23, %ymm14
vmaxps %ymm18, %ymm23, %ymm18
vmaxps %ymm21, %ymm23, %ymm27
vmaxps %ymm24, %ymm11, %ymm11
vmaxps %ymm11, %ymm14, %ymm21
vmaxps %ymm25, %ymm0, %ymm0
vmaxps %ymm0, %ymm18, %ymm18
vmaxps %ymm26, %ymm1, %ymm0
vmaxps %ymm0, %ymm27, %ymm14
vbroadcastss %xmm31, %ymm11
vpermps %ymm31, %ymm29, %ymm24
vpermps %ymm31, %ymm30, %ymm25
vbroadcastss %xmm22, %ymm26
vpermps %ymm22, %ymm29, %ymm27
vpermps %ymm22, %ymm30, %ymm22
vbroadcastss %xmm20, %ymm28
vpermps %ymm20, %ymm29, %ymm31
vpermps %ymm20, %ymm30, %ymm20
vbroadcastss %xmm6, %ymm2
vpermps %ymm6, %ymm29, %ymm29
vpermps %ymm6, %ymm30, %ymm30
vmulps %ymm16, %ymm2, %ymm0
vmulps %ymm16, %ymm29, %ymm1
vmulps %ymm16, %ymm30, %ymm6
vfmadd231ps %ymm28, %ymm13, %ymm0 # ymm0 = (ymm13 * ymm28) + ymm0
vfmadd231ps %ymm31, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm31) + ymm1
vfmadd231ps %ymm13, %ymm20, %ymm6 # ymm6 = (ymm20 * ymm13) + ymm6
vfmadd231ps %ymm26, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm26) + ymm0
vfmadd231ps %ymm27, %ymm10, %ymm1 # ymm1 = (ymm10 * ymm27) + ymm1
vfmadd231ps %ymm10, %ymm22, %ymm6 # ymm6 = (ymm22 * ymm10) + ymm6
vfmadd231ps %ymm11, %ymm7, %ymm0 # ymm0 = (ymm7 * ymm11) + ymm0
vfmadd231ps %ymm24, %ymm7, %ymm1 # ymm1 = (ymm7 * ymm24) + ymm1
vfmadd231ps %ymm7, %ymm25, %ymm6 # ymm6 = (ymm25 * ymm7) + ymm6
vmulps %ymm19, %ymm2, %ymm2
vmulps %ymm19, %ymm29, %ymm7
vmulps %ymm19, %ymm30, %ymm10
vfmadd231ps %ymm28, %ymm15, %ymm2 # ymm2 = (ymm15 * ymm28) + ymm2
vfmadd231ps %ymm31, %ymm15, %ymm7 # ymm7 = (ymm15 * ymm31) + ymm7
vfmadd231ps %ymm20, %ymm15, %ymm10 # ymm10 = (ymm15 * ymm20) + ymm10
vfmadd231ps %ymm26, %ymm12, %ymm2 # ymm2 = (ymm12 * ymm26) + ymm2
vfmadd231ps %ymm27, %ymm12, %ymm7 # ymm7 = (ymm12 * ymm27) + ymm7
vfmadd231ps %ymm22, %ymm12, %ymm10 # ymm10 = (ymm12 * ymm22) + ymm10
vfmadd231ps %ymm11, %ymm8, %ymm2 # ymm2 = (ymm8 * ymm11) + ymm2
vfmadd231ps %ymm24, %ymm8, %ymm7 # ymm7 = (ymm8 * ymm24) + ymm7
vfmadd231ps %ymm25, %ymm8, %ymm10 # ymm10 = (ymm8 * ymm25) + ymm10
vbroadcastss 0x85af3(%rip), %ymm8 # 0x1f214d0
vmulps %ymm2, %ymm8, %ymm2
vmulps %ymm7, %ymm8, %ymm7
vmulps %ymm8, %ymm10, %ymm8
vblendps $0x1, %ymm4, %ymm2, %ymm10 # ymm10 = ymm4[0],ymm2[1,2,3,4,5,6,7]
vblendps $0x1, %ymm4, %ymm7, %ymm11 # ymm11 = ymm4[0],ymm7[1,2,3,4,5,6,7]
vblendps $0x1, %ymm4, %ymm8, %ymm12 # ymm12 = ymm4[0],ymm8[1,2,3,4,5,6,7]
vsubps %ymm10, %ymm0, %ymm10
vsubps %ymm11, %ymm1, %ymm11
vsubps %ymm12, %ymm6, %ymm12
vblendps $0x80, %ymm4, %ymm2, %ymm2 # ymm2 = ymm2[0,1,2,3,4,5,6],ymm4[7]
vblendps $0x80, %ymm4, %ymm7, %ymm7 # ymm7 = ymm7[0,1,2,3,4,5,6],ymm4[7]
vblendps $0x80, %ymm4, %ymm8, %ymm4 # ymm4 = ymm8[0,1,2,3,4,5,6],ymm4[7]
vaddps %ymm2, %ymm0, %ymm2
vaddps %ymm7, %ymm1, %ymm8
vaddps %ymm4, %ymm6, %ymm13
vminps %ymm0, %ymm9, %ymm4
vminps %ymm1, %ymm9, %ymm7
vminps %ymm6, %ymm9, %ymm9
vminps %ymm2, %ymm10, %ymm15
vminps %ymm15, %ymm4, %ymm15
vminps %ymm8, %ymm11, %ymm4
vminps %ymm4, %ymm7, %ymm7
vminps %ymm13, %ymm12, %ymm4
vminps %ymm4, %ymm9, %ymm4
vmaxps %ymm0, %ymm23, %ymm0
vmaxps %ymm1, %ymm23, %ymm1
vmaxps %ymm6, %ymm23, %ymm6
vmaxps %ymm2, %ymm10, %ymm2
vmaxps %ymm2, %ymm0, %ymm2
vmaxps %ymm8, %ymm11, %ymm0
vmaxps %ymm0, %ymm1, %ymm1
vmaxps %ymm13, %ymm12, %ymm0
vmaxps %ymm0, %ymm6, %ymm0
vshufps $0xb1, %ymm21, %ymm21, %ymm6 # ymm6 = ymm21[1,0,3,2,5,4,7,6]
vmaxps %ymm6, %ymm21, %ymm6
vshufpd $0x5, %ymm6, %ymm6, %ymm8 # ymm8 = ymm6[1,0,3,2]
vmaxps %ymm8, %ymm6, %ymm6
vextractf128 $0x1, %ymm6, %xmm8
vmaxps %xmm8, %xmm6, %xmm6
vshufps $0xb1, %ymm18, %ymm18, %ymm8 # ymm8 = ymm18[1,0,3,2,5,4,7,6]
vmaxps %ymm8, %ymm18, %ymm8
vshufpd $0x5, %ymm8, %ymm8, %ymm9 # ymm9 = ymm8[1,0,3,2]
vmaxps %ymm9, %ymm8, %ymm8
vextractf128 $0x1, %ymm8, %xmm9
vmaxps %xmm9, %xmm8, %xmm8
vunpcklps %xmm8, %xmm6, %xmm6 # xmm6 = xmm6[0],xmm8[0],xmm6[1],xmm8[1]
vshufps $0xb1, %ymm14, %ymm14, %ymm8 # ymm8 = ymm14[1,0,3,2,5,4,7,6]
vmaxps %ymm8, %ymm14, %ymm8
vshufpd $0x5, %ymm8, %ymm8, %ymm9 # ymm9 = ymm8[1,0,3,2]
vmaxps %ymm9, %ymm8, %ymm8
vextractf128 $0x1, %ymm8, %xmm9
vmaxps %xmm9, %xmm8, %xmm8
vinsertps $0x28, %xmm8, %xmm6, %xmm6 # xmm6 = xmm6[0,1],xmm8[0],zero
vshufps $0xb1, %ymm5, %ymm5, %ymm8 # ymm8 = ymm5[1,0,3,2,5,4,7,6]
vminps %ymm8, %ymm5, %ymm5
vshufpd $0x5, %ymm5, %ymm5, %ymm8 # ymm8 = ymm5[1,0,3,2]
vminps %ymm8, %ymm5, %ymm5
vextractf128 $0x1, %ymm5, %xmm8
vminps %xmm8, %xmm5, %xmm5
vshufps $0xb1, %ymm3, %ymm3, %ymm8 # ymm8 = ymm3[1,0,3,2,5,4,7,6]
vminps %ymm8, %ymm3, %ymm3
vshufpd $0x5, %ymm3, %ymm3, %ymm8 # ymm8 = ymm3[1,0,3,2]
vminps %ymm8, %ymm3, %ymm3
vextractf128 $0x1, %ymm3, %xmm8
vminps %xmm8, %xmm3, %xmm3
vunpcklps %xmm3, %xmm5, %xmm3 # xmm3 = xmm5[0],xmm3[0],xmm5[1],xmm3[1]
vshufps $0xb1, %ymm17, %ymm17, %ymm5 # ymm5 = ymm17[1,0,3,2,5,4,7,6]
vminps %ymm5, %ymm17, %ymm5
vshufpd $0x5, %ymm5, %ymm5, %ymm8 # ymm8 = ymm5[1,0,3,2]
vminps %ymm8, %ymm5, %ymm5
vextractf128 $0x1, %ymm5, %xmm8
vminps %xmm8, %xmm5, %xmm5
vinsertps $0x28, %xmm5, %xmm3, %xmm3 # xmm3 = xmm3[0,1],xmm5[0],zero
vshufps $0xb1, %ymm15, %ymm15, %ymm5 # ymm5 = ymm15[1,0,3,2,5,4,7,6]
vminps %ymm5, %ymm15, %ymm5
vshufpd $0x5, %ymm5, %ymm5, %ymm8 # ymm8 = ymm5[1,0,3,2]
vminps %ymm8, %ymm5, %ymm5
vextractf128 $0x1, %ymm5, %xmm8
vminps %xmm8, %xmm5, %xmm5
vshufps $0xb1, %ymm7, %ymm7, %ymm8 # ymm8 = ymm7[1,0,3,2,5,4,7,6]
vminps %ymm8, %ymm7, %ymm7
vshufpd $0x5, %ymm7, %ymm7, %ymm8 # ymm8 = ymm7[1,0,3,2]
vminps %ymm8, %ymm7, %ymm7
vextractf128 $0x1, %ymm7, %xmm8
vminps %xmm8, %xmm7, %xmm7
vunpcklps %xmm7, %xmm5, %xmm5 # xmm5 = xmm5[0],xmm7[0],xmm5[1],xmm7[1]
vshufps $0xb1, %ymm4, %ymm4, %ymm7 # ymm7 = ymm4[1,0,3,2,5,4,7,6]
vminps %ymm7, %ymm4, %ymm4
vshufpd $0x5, %ymm4, %ymm4, %ymm7 # ymm7 = ymm4[1,0,3,2]
vminps %ymm7, %ymm4, %ymm4
vextractf128 $0x1, %ymm4, %xmm7
vminps %xmm7, %xmm4, %xmm4
vinsertps $0x28, %xmm4, %xmm5, %xmm4 # xmm4 = xmm5[0,1],xmm4[0],zero
vminps %xmm4, %xmm3, %xmm3
vshufps $0xb1, %ymm2, %ymm2, %ymm4 # ymm4 = ymm2[1,0,3,2,5,4,7,6]
vmaxps %ymm4, %ymm2, %ymm2
vshufpd $0x5, %ymm2, %ymm2, %ymm4 # ymm4 = ymm2[1,0,3,2]
vmaxps %ymm4, %ymm2, %ymm2
vextractf128 $0x1, %ymm2, %xmm4
vmaxps %xmm4, %xmm2, %xmm2
vshufps $0xb1, %ymm1, %ymm1, %ymm4 # ymm4 = ymm1[1,0,3,2,5,4,7,6]
vmaxps %ymm4, %ymm1, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm4 # ymm4 = ymm1[1,0,3,2]
vmaxps %ymm4, %ymm1, %ymm1
vextractf128 $0x1, %ymm1, %xmm4
vmaxps %xmm4, %xmm1, %xmm1
vunpcklps %xmm1, %xmm2, %xmm1 # xmm1 = xmm2[0],xmm1[0],xmm2[1],xmm1[1]
vshufps $0xb1, %ymm0, %ymm0, %ymm2 # ymm2 = ymm0[1,0,3,2,5,4,7,6]
vmaxps %ymm2, %ymm0, %ymm0
vshufpd $0x5, %ymm0, %ymm0, %ymm2 # ymm2 = ymm0[1,0,3,2]
vmaxps %ymm2, %ymm0, %ymm0
vextractf128 $0x1, %ymm0, %xmm2
vmaxps %xmm2, %xmm0, %xmm0
vinsertps $0x28, %xmm0, %xmm1, %xmm0 # xmm0 = xmm1[0,1],xmm0[0],zero
vmaxps %xmm0, %xmm6, %xmm0
vbroadcastss 0x8529a(%rip), %xmm1 # 0x1f20ec4
vandps %xmm1, %xmm3, %xmm2
vandps %xmm1, %xmm0, %xmm1
vmaxps %xmm1, %xmm2, %xmm1
vmovshdup %xmm1, %xmm2 # xmm2 = xmm1[1,1,3,3]
vmaxss %xmm1, %xmm2, %xmm2
vshufpd $0x1, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[1,0]
vmaxss %xmm2, %xmm1, %xmm1
vmulss 0x55395(%rip), %xmm1, %xmm1 # 0x1ef0fe4
vbroadcastss %xmm1, %xmm1
vsubps %xmm1, %xmm3, %xmm2
vaddps %xmm1, %xmm0, %xmm0
vmovaps %xmm2, (%rax)
vmovaps %xmm0, 0x10(%rax)
popq %rbx
popq %r12
popq %r13
popq %r14
popq %r15
vzeroupper
retq
|
/embree[P]embree/kernels/common/scene_curves.cpp
|
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)2, embree::avx512::HermiteCurveGeometryInterface, embree::HermiteCurveT>::vlinearBounds(unsigned long, embree::BBox<float> const&) const
|
LBBox3fa vlinearBounds(size_t primID, const BBox1f& time_range) const {
return linearBounds(primID,time_range);
}
|
pushq %rbp
pushq %r15
pushq %r14
pushq %r13
pushq %r12
pushq %rbx
subq $0x138, %rsp # imm = 0x138
leaq 0xc8(%rsp), %rax
movq %rdx, (%rax)
leaq 0x60(%rsp), %r14
movq %rax, (%r14)
movq %rsi, 0x8(%r14)
vmovss 0x28(%rsi), %xmm4
vmovss 0x2c(%rsi), %xmm0
vmovss (%rcx), %xmm1
vmovss 0x4(%rcx), %xmm2
vsubss %xmm0, %xmm1, %xmm1
vmovss 0x30(%rsi), %xmm3
vsubss %xmm0, %xmm3, %xmm3
vdivss %xmm3, %xmm1, %xmm1
vsubss %xmm0, %xmm2, %xmm0
vdivss %xmm3, %xmm0, %xmm2
vmovss %xmm1, 0x4(%rsp)
vmulss %xmm1, %xmm4, %xmm0
vmovss %xmm0, 0x20(%rsp)
vroundss $0x9, %xmm0, %xmm0, %xmm0
vmovss %xmm2, 0x50(%rsp)
vmulss %xmm2, %xmm4, %xmm1
vmovss %xmm1, 0x40(%rsp)
vroundss $0xa, %xmm1, %xmm1, %xmm1
vxorps %xmm2, %xmm2, %xmm2
vmaxss %xmm2, %xmm0, %xmm3
vminss %xmm4, %xmm1, %xmm2
vmovss %xmm3, 0x10(%rsp)
vcvttss2si %xmm3, %r15d
vmovss %xmm2, 0x30(%rsp)
vcvttss2si %xmm2, %r12d
vcvttss2si %xmm0, %eax
movq %rdi, %rbx
testl %eax, %eax
movl $0xffffffff, %r13d # imm = 0xFFFFFFFF
cmovnsl %eax, %r13d
vcvttss2si %xmm1, %eax
vmovss %xmm4, 0xc(%rsp)
vcvttss2si %xmm4, %ebp
incl %ebp
cmpl %ebp, %eax
cmovll %eax, %ebp
movslq %r15d, %rdx
leaq 0x90(%rsp), %rdi
movq %r14, %rsi
callq 0x1e9c76c
movslq %r12d, %rdx
leaq 0x70(%rsp), %rdi
movq %r14, %rsi
callq 0x1e9c76c
movl %ebp, %eax
subl %r13d, %eax
cmpl $0x1, %eax
jne 0x1e9be13
vmovss 0x20(%rsp), %xmm0
vsubss 0x10(%rsp), %xmm0, %xmm0
vxorps %xmm8, %xmm8, %xmm8
vmaxss %xmm8, %xmm0, %xmm0
vmovss 0x5098b(%rip), %xmm1 # 0x1eec714
vsubss %xmm0, %xmm1, %xmm2
vbroadcastss %xmm0, %xmm0
vmovaps 0x70(%rsp), %xmm3
vmovaps 0x80(%rsp), %xmm4
vmulps %xmm3, %xmm0, %xmm5
vbroadcastss %xmm2, %xmm2
vmovaps 0x90(%rsp), %xmm6
vmovaps 0xa0(%rsp), %xmm7
vfmadd231ps %xmm6, %xmm2, %xmm5 # xmm5 = (xmm2 * xmm6) + xmm5
vmulps %xmm4, %xmm0, %xmm0
vfmadd231ps %xmm2, %xmm7, %xmm0 # xmm0 = (xmm7 * xmm2) + xmm0
vmovaps %xmm5, (%rbx)
vmovaps %xmm0, 0x10(%rbx)
vmovss 0x30(%rsp), %xmm0
vsubss 0x40(%rsp), %xmm0, %xmm0
vmaxss %xmm8, %xmm0, %xmm0
vsubss %xmm0, %xmm1, %xmm1
vbroadcastss %xmm0, %xmm0
vmulps %xmm6, %xmm0, %xmm2
vbroadcastss %xmm1, %xmm1
vfmadd231ps %xmm3, %xmm1, %xmm2 # xmm2 = (xmm1 * xmm3) + xmm2
vmulps %xmm7, %xmm0, %xmm0
vfmadd231ps %xmm4, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm4) + xmm0
vmovaps %xmm2, 0x20(%rbx)
vmovaps %xmm0, 0x30(%rbx)
jmp 0x1e9bff3
incl %r15d
movslq %r15d, %rdx
leaq 0x110(%rsp), %r14
leaq 0x60(%rsp), %r15
movq %r14, %rdi
movq %r15, %rsi
callq 0x1e9c76c
decl %r12d
movslq %r12d, %rdx
leaq 0xf0(%rsp), %r12
movq %r12, %rdi
movq %r15, %rsi
callq 0x1e9c76c
vmovss 0x20(%rsp), %xmm0
vsubss 0x10(%rsp), %xmm0, %xmm0
vxorps %xmm5, %xmm5, %xmm5
vmaxss %xmm5, %xmm0, %xmm0
vmovss 0x508ae(%rip), %xmm4 # 0x1eec714
vbroadcastss %xmm0, %xmm1
vmulps (%r14), %xmm1, %xmm2
vsubss %xmm0, %xmm4, %xmm0
vbroadcastss %xmm0, %xmm0
vfmadd231ps 0x90(%rsp), %xmm0, %xmm2 # xmm2 = (xmm0 * mem) + xmm2
vmulps 0x10(%r14), %xmm1, %xmm3
vfmadd231ps 0xa0(%rsp), %xmm0, %xmm3 # xmm3 = (xmm0 * mem) + xmm3
vmovss 0x30(%rsp), %xmm0
vsubss 0x40(%rsp), %xmm0, %xmm0
vmaxss %xmm5, %xmm0, %xmm0
vsubss %xmm0, %xmm4, %xmm1
vbroadcastss %xmm0, %xmm0
vmulps (%r12), %xmm0, %xmm5
vbroadcastss %xmm1, %xmm1
vfmadd231ps 0x70(%rsp), %xmm1, %xmm5 # xmm5 = (xmm1 * mem) + xmm5
vmulps 0x10(%r12), %xmm0, %xmm6
vfmadd231ps 0x80(%rsp), %xmm1, %xmm6 # xmm6 = (xmm1 * mem) + xmm6
leal 0x1(%r13), %eax
cmpl %ebp, %eax
jge 0x1e9bfe0
vmovss 0x4(%rsp), %xmm1
vmovss 0x50(%rsp), %xmm0
vsubss %xmm1, %xmm0, %xmm0
vmovss %xmm0, 0x8(%rsp)
movl %eax, %r14d
notl %r13d
addl %ebp, %r13d
leaq 0xd0(%rsp), %r15
leaq 0x60(%rsp), %r12
vmovaps %xmm6, 0x10(%rsp)
vmovaps %xmm5, 0x20(%rsp)
vmovaps %xmm3, 0x30(%rsp)
vmovaps %xmm2, 0x40(%rsp)
vcvtsi2ss %r14d, %xmm8, %xmm0
vdivss 0xc(%rsp), %xmm0, %xmm0
vsubss %xmm1, %xmm0, %xmm0
vdivss 0x8(%rsp), %xmm0, %xmm0
vsubss %xmm0, %xmm4, %xmm1
vbroadcastss %xmm0, %xmm0
vmulps %xmm0, %xmm5, %xmm4
vbroadcastss %xmm1, %xmm1
vfmadd231ps %xmm2, %xmm1, %xmm4 # xmm4 = (xmm1 * xmm2) + xmm4
vmovaps %xmm4, 0x50(%rsp)
vmulps %xmm0, %xmm6, %xmm0
vfmadd231ps %xmm1, %xmm3, %xmm0 # xmm0 = (xmm3 * xmm1) + xmm0
vmovaps %xmm0, 0xb0(%rsp)
movq %r15, %rdi
movq %r12, %rsi
movq %r14, %rdx
callq 0x1e9c76c
vmovaps 0x10(%rsp), %xmm6
vmovaps 0x20(%rsp), %xmm5
vmovss 0x5078f(%rip), %xmm4 # 0x1eec714
vmovaps 0x30(%rsp), %xmm3
vmovaps 0x40(%rsp), %xmm2
vmovaps 0xd0(%rsp), %xmm0
vsubps 0x50(%rsp), %xmm0, %xmm0
vmovaps 0xe0(%rsp), %xmm1
vsubps 0xb0(%rsp), %xmm1, %xmm1
vxorps %xmm7, %xmm7, %xmm7
vminps %xmm7, %xmm0, %xmm0
vmaxps %xmm7, %xmm1, %xmm1
vaddps %xmm0, %xmm2, %xmm2
vaddps %xmm0, %xmm5, %xmm5
vaddps %xmm1, %xmm3, %xmm3
vaddps %xmm1, %xmm6, %xmm6
vmovss 0x4(%rsp), %xmm1
incq %r14
decl %r13d
jne 0x1e9bf07
vmovaps %xmm2, (%rbx)
vmovaps %xmm3, 0x10(%rbx)
vmovaps %xmm5, 0x20(%rbx)
vmovaps %xmm6, 0x30(%rbx)
movq %rbx, %rax
addq $0x138, %rsp # imm = 0x138
popq %rbx
popq %r12
popq %r13
popq %r14
popq %r15
popq %rbp
retq
|
/embree[P]embree/kernels/common/scene_curves.cpp
|
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)2, embree::avx512::HermiteCurveGeometryInterface, embree::HermiteCurveT>::vlinearBounds(embree::LinearSpace3<embree::Vec3fa> const&, unsigned long, embree::BBox<float> const&) const
|
LBBox3fa vlinearBounds(const LinearSpace3fa& space, size_t primID, const BBox1f& time_range) const {
return linearBounds(space,primID,time_range);
}
|
pushq %rbp
pushq %r15
pushq %r14
pushq %r13
pushq %r12
pushq %rbx
subq $0x138, %rsp # imm = 0x138
leaq 0xc8(%rsp), %rax
movq %rcx, (%rax)
leaq 0xb0(%rsp), %r14
movq %rdx, (%r14)
movq %rax, 0x8(%r14)
movq %rsi, 0x10(%r14)
vmovss 0x28(%rsi), %xmm4
vmovss 0x2c(%rsi), %xmm0
vmovss (%r8), %xmm1
vmovss 0x4(%r8), %xmm2
vsubss %xmm0, %xmm1, %xmm1
vmovss 0x30(%rsi), %xmm3
vsubss %xmm0, %xmm3, %xmm3
vdivss %xmm3, %xmm1, %xmm1
vsubss %xmm0, %xmm2, %xmm0
vdivss %xmm3, %xmm0, %xmm2
vmovss %xmm1, 0x4(%rsp)
vmulss %xmm1, %xmm4, %xmm0
vmovss %xmm0, 0x20(%rsp)
vroundss $0x9, %xmm0, %xmm0, %xmm0
vmovss %xmm2, 0x50(%rsp)
vmulss %xmm2, %xmm4, %xmm1
vmovss %xmm1, 0x40(%rsp)
vroundss $0xa, %xmm1, %xmm1, %xmm1
vxorps %xmm2, %xmm2, %xmm2
vmaxss %xmm2, %xmm0, %xmm3
vminss %xmm4, %xmm1, %xmm2
vmovss %xmm3, 0x10(%rsp)
vcvttss2si %xmm3, %r15d
vmovss %xmm2, 0x30(%rsp)
vcvttss2si %xmm2, %r12d
vcvttss2si %xmm0, %eax
movq %rdi, %rbx
testl %eax, %eax
movl $0xffffffff, %r13d # imm = 0xFFFFFFFF
cmovnsl %eax, %r13d
vcvttss2si %xmm1, %eax
vmovss %xmm4, 0xc(%rsp)
vcvttss2si %xmm4, %ebp
incl %ebp
cmpl %ebp, %eax
cmovll %eax, %ebp
movslq %r15d, %rdx
leaq 0x80(%rsp), %rdi
movq %r14, %rsi
callq 0x1e9d082
movslq %r12d, %rdx
leaq 0x60(%rsp), %rdi
movq %r14, %rsi
callq 0x1e9d082
movl %ebp, %eax
subl %r13d, %eax
cmpl $0x1, %eax
jne 0x1e9c1af
vmovss 0x20(%rsp), %xmm0
vsubss 0x10(%rsp), %xmm0, %xmm0
vxorps %xmm8, %xmm8, %xmm8
vmaxss %xmm8, %xmm0, %xmm0
vmovss 0x505ec(%rip), %xmm1 # 0x1eec714
vsubss %xmm0, %xmm1, %xmm2
vbroadcastss %xmm0, %xmm0
vmovaps 0x60(%rsp), %xmm3
vmovaps 0x70(%rsp), %xmm4
vmulps %xmm3, %xmm0, %xmm5
vbroadcastss %xmm2, %xmm2
vmovaps 0x80(%rsp), %xmm6
vmovaps 0x90(%rsp), %xmm7
vfmadd231ps %xmm6, %xmm2, %xmm5 # xmm5 = (xmm2 * xmm6) + xmm5
vmulps %xmm4, %xmm0, %xmm0
vfmadd231ps %xmm2, %xmm7, %xmm0 # xmm0 = (xmm7 * xmm2) + xmm0
vmovaps %xmm5, (%rbx)
vmovaps %xmm0, 0x10(%rbx)
vmovss 0x30(%rsp), %xmm0
vsubss 0x40(%rsp), %xmm0, %xmm0
vmaxss %xmm8, %xmm0, %xmm0
vsubss %xmm0, %xmm1, %xmm1
vbroadcastss %xmm0, %xmm0
vmulps %xmm6, %xmm0, %xmm2
vbroadcastss %xmm1, %xmm1
vfmadd231ps %xmm3, %xmm1, %xmm2 # xmm2 = (xmm1 * xmm3) + xmm2
vmulps %xmm7, %xmm0, %xmm0
vfmadd231ps %xmm4, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm4) + xmm0
vmovaps %xmm2, 0x20(%rbx)
vmovaps %xmm0, 0x30(%rbx)
jmp 0x1e9c392
incl %r15d
movslq %r15d, %rdx
leaq 0x110(%rsp), %r14
leaq 0xb0(%rsp), %r15
movq %r14, %rdi
movq %r15, %rsi
callq 0x1e9d082
decl %r12d
movslq %r12d, %rdx
leaq 0xf0(%rsp), %r12
movq %r12, %rdi
movq %r15, %rsi
callq 0x1e9d082
vmovss 0x20(%rsp), %xmm0
vsubss 0x10(%rsp), %xmm0, %xmm0
vxorps %xmm5, %xmm5, %xmm5
vmaxss %xmm5, %xmm0, %xmm0
vmovss 0x5050f(%rip), %xmm4 # 0x1eec714
vbroadcastss %xmm0, %xmm1
vmulps (%r14), %xmm1, %xmm2
vsubss %xmm0, %xmm4, %xmm0
vbroadcastss %xmm0, %xmm0
vfmadd231ps 0x80(%rsp), %xmm0, %xmm2 # xmm2 = (xmm0 * mem) + xmm2
vmulps 0x10(%r14), %xmm1, %xmm3
vfmadd231ps 0x90(%rsp), %xmm0, %xmm3 # xmm3 = (xmm0 * mem) + xmm3
vmovss 0x30(%rsp), %xmm0
vsubss 0x40(%rsp), %xmm0, %xmm0
vmaxss %xmm5, %xmm0, %xmm0
vsubss %xmm0, %xmm4, %xmm1
vbroadcastss %xmm0, %xmm0
vmulps (%r12), %xmm0, %xmm5
vbroadcastss %xmm1, %xmm1
vfmadd231ps 0x60(%rsp), %xmm1, %xmm5 # xmm5 = (xmm1 * mem) + xmm5
vmulps 0x10(%r12), %xmm0, %xmm6
vfmadd231ps 0x70(%rsp), %xmm1, %xmm6 # xmm6 = (xmm1 * mem) + xmm6
leal 0x1(%r13), %eax
cmpl %ebp, %eax
jge 0x1e9c37f
vmovss 0x4(%rsp), %xmm1
vmovss 0x50(%rsp), %xmm0
vsubss %xmm1, %xmm0, %xmm0
vmovss %xmm0, 0x8(%rsp)
movl %eax, %r14d
notl %r13d
addl %ebp, %r13d
leaq 0xd0(%rsp), %r15
leaq 0xb0(%rsp), %r12
vmovaps %xmm6, 0x10(%rsp)
vmovaps %xmm5, 0x20(%rsp)
vmovaps %xmm3, 0x30(%rsp)
vmovaps %xmm2, 0x40(%rsp)
vcvtsi2ss %r14d, %xmm8, %xmm0
vdivss 0xc(%rsp), %xmm0, %xmm0
vsubss %xmm1, %xmm0, %xmm0
vdivss 0x8(%rsp), %xmm0, %xmm0
vsubss %xmm0, %xmm4, %xmm1
vbroadcastss %xmm0, %xmm0
vmulps %xmm0, %xmm5, %xmm4
vbroadcastss %xmm1, %xmm1
vfmadd231ps %xmm2, %xmm1, %xmm4 # xmm4 = (xmm1 * xmm2) + xmm4
vmovaps %xmm4, 0x50(%rsp)
vmulps %xmm0, %xmm6, %xmm0
vfmadd231ps %xmm1, %xmm3, %xmm0 # xmm0 = (xmm3 * xmm1) + xmm0
vmovaps %xmm0, 0xa0(%rsp)
movq %r15, %rdi
movq %r12, %rsi
movq %r14, %rdx
callq 0x1e9d082
vmovaps 0x10(%rsp), %xmm6
vmovaps 0x20(%rsp), %xmm5
vmovss 0x503f0(%rip), %xmm4 # 0x1eec714
vmovaps 0x30(%rsp), %xmm3
vmovaps 0x40(%rsp), %xmm2
vmovaps 0xd0(%rsp), %xmm0
vsubps 0x50(%rsp), %xmm0, %xmm0
vmovaps 0xe0(%rsp), %xmm1
vsubps 0xa0(%rsp), %xmm1, %xmm1
vxorps %xmm7, %xmm7, %xmm7
vminps %xmm7, %xmm0, %xmm0
vmaxps %xmm7, %xmm1, %xmm1
vaddps %xmm0, %xmm2, %xmm2
vaddps %xmm0, %xmm5, %xmm5
vaddps %xmm1, %xmm3, %xmm3
vaddps %xmm1, %xmm6, %xmm6
vmovss 0x4(%rsp), %xmm1
incq %r14
decl %r13d
jne 0x1e9c2a6
vmovaps %xmm2, (%rbx)
vmovaps %xmm3, 0x10(%rbx)
vmovaps %xmm5, 0x20(%rbx)
vmovaps %xmm6, 0x30(%rbx)
movq %rbx, %rax
addq $0x138, %rsp # imm = 0x138
popq %rbx
popq %r12
popq %r13
popq %r14
popq %r15
popq %rbp
retq
nop
|
/embree[P]embree/kernels/common/scene_curves.cpp
|
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)2, embree::avx512::HermiteCurveGeometryInterface, embree::HermiteCurveT>::linearBounds(unsigned long, embree::BBox<float> const&) const::'lambda'(unsigned long)::operator()(unsigned long) const
|
__forceinline LBBox3fa linearBounds(size_t primID, const BBox1f& dt) const {
return LBBox3fa([&] (size_t itime) { return bounds(primID, itime); }, dt, this->time_range, fnumTimeSegments);
}
|
pushq %r14
pushq %rbx
movq (%rsi), %rax
movq 0x8(%rsi), %rsi
movq 0x58(%rsi), %rcx
movq 0x68(%rsi), %r8
imulq (%rax), %r8
movl (%rcx,%r8), %ecx
movq 0x188(%rsi), %rax
imulq $0x38, %rdx, %rdx
movq (%rax,%rdx), %r8
movq 0x10(%rax,%rdx), %r9
movq %r9, %r10
imulq %rcx, %r10
vmovaps (%r8,%r10), %xmm0
movq %rdi, %rax
leal 0x1(%rcx), %edi
imulq %rdi, %r9
vmovaps (%r8,%r9), %xmm1
movq 0x1c8(%rsi), %r11
movq (%r11,%rdx), %rbx
movq 0x10(%r11,%rdx), %r11
movq %r11, %r14
imulq %rcx, %r14
vmovaps (%rbx,%r14), %xmm2
imulq %rdi, %r11
vmovaps (%rbx,%r11), %xmm3
vmovss 0x24c(%rsi), %xmm4
vmulss 0xc(%r8,%r10), %xmm4, %xmm5
vinsertps $0x30, %xmm5, %xmm0, %xmm6 # xmm6 = xmm0[0,1,2],xmm5[0]
vmulss 0xc(%r8,%r9), %xmm4, %xmm0
vinsertps $0x30, %xmm0, %xmm1, %xmm7 # xmm7 = xmm1[0,1,2],xmm0[0]
vmulss 0xc(%rbx,%r14), %xmm4, %xmm0
vinsertps $0x30, %xmm0, %xmm2, %xmm8 # xmm8 = xmm2[0,1,2],xmm0[0]
vmulss 0xc(%rbx,%r11), %xmm4, %xmm0
vinsertps $0x30, %xmm0, %xmm3, %xmm9 # xmm9 = xmm3[0,1,2],xmm0[0]
vbroadcastss 0xc0c49(%rip), %xmm5 # 0x1f5d46c
vfnmadd213ps %xmm6, %xmm5, %xmm8 # xmm8 = -(xmm5 * xmm8) + xmm6
vfmadd213ps %xmm7, %xmm5, %xmm9 # xmm9 = (xmm5 * xmm9) + xmm7
movq 0x1a8(%rsi), %r8
movq (%r8,%rdx), %r9
movq 0x10(%r8,%rdx), %r8
movq %r8, %r10
imulq %rcx, %r10
vmovups (%r9,%r10), %xmm10
imulq %rdi, %r8
vmovups (%r9,%r8), %xmm11
movq 0x1e8(%rsi), %rsi
movq (%rsi,%rdx), %r8
movq 0x10(%rsi,%rdx), %rdx
imulq %rdx, %rcx
imulq %rdi, %rdx
vmovups (%r8,%rcx), %xmm12
vfnmadd132ps %xmm5, %xmm10, %xmm12 # xmm12 = -(xmm12 * xmm5) + xmm10
vfmadd132ps (%r8,%rdx), %xmm11, %xmm5 # xmm5 = (xmm5 * mem) + xmm11
vxorps %xmm4, %xmm4, %xmm4
vmulps %xmm4, %xmm7, %xmm0
vfmadd231ps %xmm4, %xmm9, %xmm0 # xmm0 = (xmm9 * xmm4) + xmm0
vxorps %xmm1, %xmm1, %xmm1
vfmadd213ps %xmm0, %xmm8, %xmm1 # xmm1 = (xmm8 * xmm1) + xmm0
vaddps %xmm1, %xmm6, %xmm1
vbroadcastss 0x5474c(%rip), %xmm13 # 0x1ef0fec
vfmadd231ps %xmm13, %xmm8, %xmm0 # xmm0 = (xmm8 * xmm13) + xmm0
vfnmadd231ps %xmm13, %xmm6, %xmm0 # xmm0 = -(xmm6 * xmm13) + xmm0
vmulps %xmm4, %xmm11, %xmm14
vfmadd231ps %xmm4, %xmm5, %xmm14 # xmm14 = (xmm5 * xmm4) + xmm14
vxorps %xmm2, %xmm2, %xmm2
vfmadd213ps %xmm14, %xmm12, %xmm2 # xmm2 = (xmm12 * xmm2) + xmm14
vaddps %xmm2, %xmm10, %xmm15
vfmadd231ps %xmm13, %xmm12, %xmm14 # xmm14 = (xmm12 * xmm13) + xmm14
vfnmadd231ps %xmm13, %xmm10, %xmm14 # xmm14 = -(xmm10 * xmm13) + xmm14
vxorps %xmm2, %xmm2, %xmm2
vfmadd213ps %xmm7, %xmm9, %xmm2 # xmm2 = (xmm9 * xmm2) + xmm7
vfmadd231ps %xmm4, %xmm8, %xmm2 # xmm2 = (xmm8 * xmm4) + xmm2
vfmadd231ps %xmm4, %xmm6, %xmm2 # xmm2 = (xmm6 * xmm4) + xmm2
vmulps %xmm7, %xmm13, %xmm3
vfnmadd231ps %xmm9, %xmm13, %xmm3 # xmm3 = -(xmm13 * xmm9) + xmm3
vfmadd231ps %xmm8, %xmm4, %xmm3 # xmm3 = (xmm4 * xmm8) + xmm3
vfnmadd231ps %xmm6, %xmm4, %xmm3 # xmm3 = -(xmm4 * xmm6) + xmm3
vxorps %xmm6, %xmm6, %xmm6
vfmadd213ps %xmm11, %xmm5, %xmm6 # xmm6 = (xmm5 * xmm6) + xmm11
vfmadd231ps %xmm4, %xmm12, %xmm6 # xmm6 = (xmm12 * xmm4) + xmm6
vfmadd231ps %xmm4, %xmm10, %xmm6 # xmm6 = (xmm10 * xmm4) + xmm6
vmulps %xmm13, %xmm11, %xmm8
vfnmadd231ps %xmm5, %xmm13, %xmm8 # xmm8 = -(xmm13 * xmm5) + xmm8
vfmadd231ps %xmm12, %xmm4, %xmm8 # xmm8 = (xmm4 * xmm12) + xmm8
vfnmadd231ps %xmm10, %xmm4, %xmm8 # xmm8 = -(xmm4 * xmm10) + xmm8
vshufps $0xc9, %xmm0, %xmm0, %xmm5 # xmm5 = xmm0[1,2,0,3]
vshufps $0xc9, %xmm15, %xmm15, %xmm7 # xmm7 = xmm15[1,2,0,3]
vmulps %xmm7, %xmm0, %xmm7
vfmsub231ps %xmm15, %xmm5, %xmm7 # xmm7 = (xmm5 * xmm15) - xmm7
vshufps $0xc9, %xmm7, %xmm7, %xmm7 # xmm7 = xmm7[1,2,0,3]
vshufps $0xc9, %xmm14, %xmm14, %xmm9 # xmm9 = xmm14[1,2,0,3]
vmulps %xmm0, %xmm9, %xmm9
vfmsub231ps %xmm14, %xmm5, %xmm9 # xmm9 = (xmm5 * xmm14) - xmm9
vshufps $0xc9, %xmm9, %xmm9, %xmm9 # xmm9 = xmm9[1,2,0,3]
vshufps $0xc9, %xmm3, %xmm3, %xmm10 # xmm10 = xmm3[1,2,0,3]
vshufps $0xc9, %xmm6, %xmm6, %xmm5 # xmm5 = xmm6[1,2,0,3]
vmulps %xmm5, %xmm3, %xmm5
vfmsub231ps %xmm6, %xmm10, %xmm5 # xmm5 = (xmm10 * xmm6) - xmm5
vshufps $0xc9, %xmm5, %xmm5, %xmm5 # xmm5 = xmm5[1,2,0,3]
vshufps $0xc9, %xmm8, %xmm8, %xmm6 # xmm6 = xmm8[1,2,0,3]
vmulps %xmm6, %xmm3, %xmm6
vfmsub231ps %xmm8, %xmm10, %xmm6 # xmm6 = (xmm10 * xmm8) - xmm6
vshufps $0xc9, %xmm6, %xmm6, %xmm6 # xmm6 = xmm6[1,2,0,3]
vdpps $0x7f, %xmm7, %xmm7, %xmm8
vmovss %xmm8, %xmm4, %xmm10 # xmm10 = xmm8[0],xmm4[1,2,3]
vrsqrt14ss %xmm10, %xmm4, %xmm11
vmovss 0x4fd8e(%rip), %xmm12 # 0x1eec718
vmulss %xmm12, %xmm11, %xmm13
vmovss 0x501e9(%rip), %xmm14 # 0x1eecb80
vmulss %xmm14, %xmm8, %xmm15
vmulss %xmm11, %xmm15, %xmm15
vmulss %xmm11, %xmm11, %xmm11
vmulss %xmm11, %xmm15, %xmm11
vsubss %xmm11, %xmm13, %xmm11
vbroadcastss %xmm11, %xmm11
vmulps %xmm7, %xmm11, %xmm13
vdpps $0x7f, %xmm9, %xmm7, %xmm15
vbroadcastss %xmm8, %xmm16
vmulps %xmm9, %xmm16, %xmm9
vbroadcastss %xmm15, %xmm15
vmulps %xmm7, %xmm15, %xmm7
vsubps %xmm7, %xmm9, %xmm7
vrcp14ss %xmm10, %xmm4, %xmm9
vmovss 0x54612(%rip), %xmm10 # 0x1ef0ff8
vfnmadd213ss %xmm10, %xmm9, %xmm8 # xmm8 = -(xmm9 * xmm8) + xmm10
vmulss %xmm8, %xmm9, %xmm8
vdpps $0x7f, %xmm5, %xmm5, %xmm9
vbroadcastss %xmm8, %xmm8
vmulps %xmm7, %xmm8, %xmm7
vmulps %xmm7, %xmm11, %xmm7
vmovss %xmm9, %xmm4, %xmm8 # xmm8 = xmm9[0],xmm4[1,2,3]
vrsqrt14ss %xmm8, %xmm4, %xmm11
vmulss %xmm12, %xmm11, %xmm12
vmulss %xmm14, %xmm9, %xmm14
vmulss %xmm11, %xmm14, %xmm14
vmulss %xmm11, %xmm11, %xmm11
vmulss %xmm11, %xmm14, %xmm11
vsubss %xmm11, %xmm12, %xmm11
vbroadcastss %xmm11, %xmm11
vmulps %xmm5, %xmm11, %xmm12
vdpps $0x7f, %xmm6, %xmm5, %xmm14
vbroadcastss %xmm9, %xmm15
vmulps %xmm6, %xmm15, %xmm6
vbroadcastss %xmm14, %xmm14
vmulps %xmm5, %xmm14, %xmm5
vsubps %xmm5, %xmm6, %xmm5
vrcp14ss %xmm8, %xmm4, %xmm4
vfnmadd213ss %xmm10, %xmm4, %xmm9 # xmm9 = -(xmm4 * xmm9) + xmm10
vmulss %xmm4, %xmm9, %xmm4
vbroadcastss %xmm4, %xmm4
vmulps %xmm4, %xmm5, %xmm4
vmulps %xmm4, %xmm11, %xmm4
vshufps $0xff, %xmm1, %xmm1, %xmm5 # xmm5 = xmm1[3,3,3,3]
vmulps %xmm5, %xmm13, %xmm6
vsubps %xmm6, %xmm1, %xmm10
vshufps $0xff, %xmm0, %xmm0, %xmm8 # xmm8 = xmm0[3,3,3,3]
vmulps %xmm13, %xmm8, %xmm8
vmulps %xmm7, %xmm5, %xmm5
vaddps %xmm5, %xmm8, %xmm5
vsubps %xmm5, %xmm0, %xmm7
vaddps %xmm6, %xmm1, %xmm31
vaddps %xmm5, %xmm0, %xmm0
vshufps $0xff, %xmm2, %xmm2, %xmm5 # xmm5 = xmm2[3,3,3,3]
vmulps %xmm5, %xmm12, %xmm6
vsubps %xmm6, %xmm2, %xmm13
vshufps $0xff, %xmm3, %xmm3, %xmm8 # xmm8 = xmm3[3,3,3,3]
vmulps %xmm12, %xmm8, %xmm8
vmulps %xmm4, %xmm5, %xmm4
vaddps %xmm4, %xmm8, %xmm4
vsubps %xmm4, %xmm3, %xmm5
vaddps %xmm6, %xmm2, %xmm29
vaddps %xmm4, %xmm3, %xmm3
vbroadcastss 0x553ec(%rip), %xmm4 # 0x1ef1ebc
vmulps %xmm4, %xmm7, %xmm6
vaddps %xmm6, %xmm10, %xmm6
vmulps %xmm4, %xmm5, %xmm5
vsubps %xmm5, %xmm13, %xmm5
vmulps %xmm4, %xmm0, %xmm0
vaddps %xmm0, %xmm31, %xmm0
vmovups %ymm0, -0x68(%rsp)
vmulps %xmm4, %xmm3, %xmm0
vsubps %xmm0, %xmm29, %xmm30
vbroadcastss 0x75c01(%rip), %ymm2 # 0x1f12704
vbroadcastss %xmm10, %ymm0
vpermps %ymm10, %ymm2, %ymm3
vbroadcastss 0x843c6(%rip), %ymm11 # 0x1f20edc
vpermps %ymm10, %ymm11, %ymm4
vbroadcastss %xmm6, %ymm17
vpermps %ymm6, %ymm2, %ymm20
vpermps %ymm6, %ymm11, %ymm22
vbroadcastss %xmm5, %ymm23
vpermps %ymm5, %ymm2, %ymm24
vpermps %ymm5, %ymm11, %ymm25
vbroadcastss %xmm13, %ymm26
vpermps %ymm13, %ymm2, %ymm27
leaq 0x28a792(%rip), %rcx # 0x21272e4
vmovups 0x1dc(%rcx), %ymm9
vmovups 0x660(%rcx), %ymm10
vpermps %ymm13, %ymm11, %ymm28
vmovups 0xae4(%rcx), %ymm13
vmovups 0xf68(%rcx), %ymm16
vmulps %ymm16, %ymm26, %ymm14
vmulps %ymm16, %ymm27, %ymm18
vmulps %ymm16, %ymm28, %ymm21
vfmadd231ps %ymm23, %ymm13, %ymm14 # ymm14 = (ymm13 * ymm23) + ymm14
vfmadd231ps %ymm24, %ymm13, %ymm18 # ymm18 = (ymm13 * ymm24) + ymm18
vfmadd231ps %ymm25, %ymm13, %ymm21 # ymm21 = (ymm13 * ymm25) + ymm21
vfmadd231ps %ymm17, %ymm10, %ymm14 # ymm14 = (ymm10 * ymm17) + ymm14
vfmadd231ps %ymm20, %ymm10, %ymm18 # ymm18 = (ymm10 * ymm20) + ymm18
vfmadd231ps %ymm22, %ymm10, %ymm21 # ymm21 = (ymm10 * ymm22) + ymm21
vfmadd231ps %ymm0, %ymm9, %ymm14 # ymm14 = (ymm9 * ymm0) + ymm14
vfmadd231ps %ymm3, %ymm9, %ymm18 # ymm18 = (ymm9 * ymm3) + ymm18
vmovups 0x13ec(%rcx), %ymm6
vmovups 0x1870(%rcx), %ymm12
vmovups 0x1cf4(%rcx), %ymm15
vmovups 0x2178(%rcx), %ymm19
vfmadd231ps %ymm4, %ymm9, %ymm21 # ymm21 = (ymm9 * ymm4) + ymm21
vmulps %ymm19, %ymm26, %ymm26
vmulps %ymm19, %ymm27, %ymm27
vmulps %ymm19, %ymm28, %ymm28
vfmadd231ps %ymm23, %ymm15, %ymm26 # ymm26 = (ymm15 * ymm23) + ymm26
vfmadd231ps %ymm24, %ymm15, %ymm27 # ymm27 = (ymm15 * ymm24) + ymm27
vfmadd231ps %ymm25, %ymm15, %ymm28 # ymm28 = (ymm15 * ymm25) + ymm28
vfmadd231ps %ymm17, %ymm12, %ymm26 # ymm26 = (ymm12 * ymm17) + ymm26
vfmadd231ps %ymm20, %ymm12, %ymm27 # ymm27 = (ymm12 * ymm20) + ymm27
vfmadd231ps %ymm22, %ymm12, %ymm28 # ymm28 = (ymm12 * ymm22) + ymm28
vfmadd231ps %ymm0, %ymm6, %ymm26 # ymm26 = (ymm6 * ymm0) + ymm26
vfmadd231ps %ymm3, %ymm6, %ymm27 # ymm27 = (ymm6 * ymm3) + ymm27
vfmadd231ps %ymm4, %ymm6, %ymm28 # ymm28 = (ymm6 * ymm4) + ymm28
vbroadcastss 0x8489b(%rip), %ymm20 # 0x1f214d0
vmulps %ymm20, %ymm26, %ymm3
vmulps %ymm20, %ymm27, %ymm4
vmulps %ymm20, %ymm28, %ymm7
vxorps %xmm5, %xmm5, %xmm5
vblendps $0x1, %ymm5, %ymm3, %ymm8 # ymm8 = ymm5[0],ymm3[1,2,3,4,5,6,7]
vblendps $0x1, %ymm5, %ymm4, %ymm1 # ymm1 = ymm5[0],ymm4[1,2,3,4,5,6,7]
vblendps $0x1, %ymm5, %ymm7, %ymm0 # ymm0 = ymm5[0],ymm7[1,2,3,4,5,6,7]
vsubps %ymm8, %ymm14, %ymm8
vsubps %ymm1, %ymm18, %ymm1
vsubps %ymm0, %ymm21, %ymm0
vblendps $0x80, %ymm5, %ymm3, %ymm3 # ymm3 = ymm3[0,1,2,3,4,5,6],ymm5[7]
vblendps $0x80, %ymm5, %ymm4, %ymm4 # ymm4 = ymm4[0,1,2,3,4,5,6],ymm5[7]
vblendps $0x80, %ymm5, %ymm7, %ymm7 # ymm7 = ymm7[0,1,2,3,4,5,6],ymm5[7]
vaddps %ymm3, %ymm14, %ymm24
vaddps %ymm4, %ymm18, %ymm25
vaddps %ymm7, %ymm21, %ymm7
vbroadcastss 0x4ed84(%rip), %ymm22 # 0x1eeba20
vminps %ymm14, %ymm22, %ymm3
vminps %ymm18, %ymm22, %ymm17
vminps %ymm21, %ymm22, %ymm23
vminps %ymm24, %ymm8, %ymm4
vminps %ymm4, %ymm3, %ymm3
vmovups %ymm3, -0x48(%rsp)
vminps %ymm25, %ymm1, %ymm3
vminps %ymm3, %ymm17, %ymm3
vmovups %ymm3, -0x28(%rsp)
vminps %ymm7, %ymm0, %ymm17
vminps %ymm17, %ymm23, %ymm17
vbroadcastss 0x4fe9e(%rip), %ymm23 # 0x1eecb84
vmaxps %ymm14, %ymm23, %ymm14
vmaxps %ymm18, %ymm23, %ymm18
vmaxps %ymm21, %ymm23, %ymm26
vmaxps %ymm24, %ymm8, %ymm8
vmaxps %ymm8, %ymm14, %ymm21
vmaxps %ymm25, %ymm1, %ymm1
vmaxps %ymm1, %ymm18, %ymm18
vmaxps %ymm7, %ymm0, %ymm0
vmaxps %ymm0, %ymm26, %ymm14
vbroadcastss %xmm31, %ymm4
vpermps %ymm31, %ymm2, %ymm8
vpermps %ymm31, %ymm11, %ymm24
vmovups -0x68(%rsp), %ymm0
vbroadcastss %xmm0, %ymm25
vpermps %ymm0, %ymm2, %ymm26
vpermps %ymm0, %ymm11, %ymm27
vbroadcastss %xmm30, %ymm28
vpermps %ymm30, %ymm2, %ymm31
vpermps %ymm30, %ymm11, %ymm30
vbroadcastss %xmm29, %ymm0
vpermps %ymm29, %ymm2, %ymm3
vpermps %ymm29, %ymm11, %ymm11
vmulps %ymm16, %ymm0, %ymm1
vmulps %ymm16, %ymm3, %ymm2
vmulps %ymm16, %ymm11, %ymm7
vfmadd231ps %ymm28, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm28) + ymm1
vfmadd231ps %ymm31, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm31) + ymm2
vfmadd231ps %ymm13, %ymm30, %ymm7 # ymm7 = (ymm30 * ymm13) + ymm7
vfmadd231ps %ymm25, %ymm10, %ymm1 # ymm1 = (ymm10 * ymm25) + ymm1
vfmadd231ps %ymm26, %ymm10, %ymm2 # ymm2 = (ymm10 * ymm26) + ymm2
vfmadd231ps %ymm10, %ymm27, %ymm7 # ymm7 = (ymm27 * ymm10) + ymm7
vfmadd231ps %ymm4, %ymm9, %ymm1 # ymm1 = (ymm9 * ymm4) + ymm1
vfmadd231ps %ymm8, %ymm9, %ymm2 # ymm2 = (ymm9 * ymm8) + ymm2
vfmadd231ps %ymm9, %ymm24, %ymm7 # ymm7 = (ymm24 * ymm9) + ymm7
vmulps %ymm19, %ymm0, %ymm0
vmulps %ymm19, %ymm3, %ymm3
vmulps %ymm19, %ymm11, %ymm9
vfmadd231ps %ymm28, %ymm15, %ymm0 # ymm0 = (ymm15 * ymm28) + ymm0
vfmadd231ps %ymm31, %ymm15, %ymm3 # ymm3 = (ymm15 * ymm31) + ymm3
vfmadd231ps %ymm30, %ymm15, %ymm9 # ymm9 = (ymm15 * ymm30) + ymm9
vfmadd231ps %ymm25, %ymm12, %ymm0 # ymm0 = (ymm12 * ymm25) + ymm0
vfmadd231ps %ymm26, %ymm12, %ymm3 # ymm3 = (ymm12 * ymm26) + ymm3
vfmadd231ps %ymm27, %ymm12, %ymm9 # ymm9 = (ymm12 * ymm27) + ymm9
vfmadd231ps %ymm4, %ymm6, %ymm0 # ymm0 = (ymm6 * ymm4) + ymm0
vfmadd231ps %ymm8, %ymm6, %ymm3 # ymm3 = (ymm6 * ymm8) + ymm3
vfmadd231ps %ymm24, %ymm6, %ymm9 # ymm9 = (ymm6 * ymm24) + ymm9
vmulps %ymm20, %ymm0, %ymm0
vmulps %ymm20, %ymm3, %ymm3
vmulps %ymm20, %ymm9, %ymm4
vblendps $0x1, %ymm5, %ymm0, %ymm6 # ymm6 = ymm5[0],ymm0[1,2,3,4,5,6,7]
vblendps $0x1, %ymm5, %ymm3, %ymm8 # ymm8 = ymm5[0],ymm3[1,2,3,4,5,6,7]
vblendps $0x1, %ymm5, %ymm4, %ymm9 # ymm9 = ymm5[0],ymm4[1,2,3,4,5,6,7]
vsubps %ymm6, %ymm1, %ymm6
vsubps %ymm8, %ymm2, %ymm10
vsubps %ymm9, %ymm7, %ymm9
vblendps $0x80, %ymm5, %ymm0, %ymm0 # ymm0 = ymm0[0,1,2,3,4,5,6],ymm5[7]
vblendps $0x80, %ymm5, %ymm3, %ymm3 # ymm3 = ymm3[0,1,2,3,4,5,6],ymm5[7]
vblendps $0x80, %ymm5, %ymm4, %ymm4 # ymm4 = ymm4[0,1,2,3,4,5,6],ymm5[7]
vaddps %ymm0, %ymm1, %ymm0
vaddps %ymm3, %ymm2, %ymm3
vaddps %ymm4, %ymm7, %ymm4
vminps %ymm1, %ymm22, %ymm5
vminps %ymm2, %ymm22, %ymm8
vminps %ymm7, %ymm22, %ymm11
vminps %ymm0, %ymm6, %ymm12
vminps %ymm12, %ymm5, %ymm12
vminps %ymm3, %ymm10, %ymm5
vminps %ymm5, %ymm8, %ymm8
vminps %ymm4, %ymm9, %ymm5
vminps %ymm5, %ymm11, %ymm5
vmaxps %ymm1, %ymm23, %ymm1
vmaxps %ymm2, %ymm23, %ymm11
vmaxps %ymm7, %ymm23, %ymm7
vmaxps %ymm0, %ymm6, %ymm0
vmaxps %ymm0, %ymm1, %ymm2
vmaxps %ymm3, %ymm10, %ymm0
vmaxps %ymm0, %ymm11, %ymm1
vmaxps %ymm4, %ymm9, %ymm0
vmaxps %ymm0, %ymm7, %ymm0
vshufps $0xb1, %ymm21, %ymm21, %ymm3 # ymm3 = ymm21[1,0,3,2,5,4,7,6]
vmaxps %ymm3, %ymm21, %ymm3
vshufpd $0x5, %ymm3, %ymm3, %ymm4 # ymm4 = ymm3[1,0,3,2]
vmaxps %ymm4, %ymm3, %ymm3
vextractf128 $0x1, %ymm3, %xmm4
vmaxps %xmm4, %xmm3, %xmm3
vshufps $0xb1, %ymm18, %ymm18, %ymm4 # ymm4 = ymm18[1,0,3,2,5,4,7,6]
vmaxps %ymm4, %ymm18, %ymm4
vshufpd $0x5, %ymm4, %ymm4, %ymm6 # ymm6 = ymm4[1,0,3,2]
vmaxps %ymm6, %ymm4, %ymm4
vextractf128 $0x1, %ymm4, %xmm6
vmaxps %xmm6, %xmm4, %xmm4
vunpcklps %xmm4, %xmm3, %xmm3 # xmm3 = xmm3[0],xmm4[0],xmm3[1],xmm4[1]
vshufps $0xb1, %ymm14, %ymm14, %ymm4 # ymm4 = ymm14[1,0,3,2,5,4,7,6]
vmaxps %ymm4, %ymm14, %ymm4
vshufpd $0x5, %ymm4, %ymm4, %ymm6 # ymm6 = ymm4[1,0,3,2]
vmaxps %ymm6, %ymm4, %ymm4
vextractf128 $0x1, %ymm4, %xmm6
vmaxps %xmm6, %xmm4, %xmm4
vinsertps $0x28, %xmm4, %xmm3, %xmm6 # xmm6 = xmm3[0,1],xmm4[0],zero
vmovups -0x48(%rsp), %ymm4
vshufps $0xb1, %ymm4, %ymm4, %ymm3 # ymm3 = ymm4[1,0,3,2,5,4,7,6]
vminps %ymm3, %ymm4, %ymm3
vshufpd $0x5, %ymm3, %ymm3, %ymm4 # ymm4 = ymm3[1,0,3,2]
vminps %ymm4, %ymm3, %ymm3
vextractf128 $0x1, %ymm3, %xmm4
vminps %xmm4, %xmm3, %xmm3
vmovups -0x28(%rsp), %ymm7
vshufps $0xb1, %ymm7, %ymm7, %ymm4 # ymm4 = ymm7[1,0,3,2,5,4,7,6]
vminps %ymm4, %ymm7, %ymm4
vshufpd $0x5, %ymm4, %ymm4, %ymm7 # ymm7 = ymm4[1,0,3,2]
vminps %ymm7, %ymm4, %ymm4
vextractf128 $0x1, %ymm4, %xmm7
vminps %xmm7, %xmm4, %xmm4
vunpcklps %xmm4, %xmm3, %xmm3 # xmm3 = xmm3[0],xmm4[0],xmm3[1],xmm4[1]
vshufps $0xb1, %ymm17, %ymm17, %ymm4 # ymm4 = ymm17[1,0,3,2,5,4,7,6]
vminps %ymm4, %ymm17, %ymm4
vshufpd $0x5, %ymm4, %ymm4, %ymm7 # ymm7 = ymm4[1,0,3,2]
vminps %ymm7, %ymm4, %ymm4
vextractf128 $0x1, %ymm4, %xmm7
vminps %xmm7, %xmm4, %xmm4
vinsertps $0x28, %xmm4, %xmm3, %xmm3 # xmm3 = xmm3[0,1],xmm4[0],zero
vshufps $0xb1, %ymm12, %ymm12, %ymm4 # ymm4 = ymm12[1,0,3,2,5,4,7,6]
vminps %ymm4, %ymm12, %ymm4
vshufpd $0x5, %ymm4, %ymm4, %ymm7 # ymm7 = ymm4[1,0,3,2]
vminps %ymm7, %ymm4, %ymm4
vextractf128 $0x1, %ymm4, %xmm7
vminps %xmm7, %xmm4, %xmm4
vshufps $0xb1, %ymm8, %ymm8, %ymm7 # ymm7 = ymm8[1,0,3,2,5,4,7,6]
vminps %ymm7, %ymm8, %ymm7
vshufpd $0x5, %ymm7, %ymm7, %ymm8 # ymm8 = ymm7[1,0,3,2]
vminps %ymm8, %ymm7, %ymm7
vextractf128 $0x1, %ymm7, %xmm8
vminps %xmm8, %xmm7, %xmm7
vunpcklps %xmm7, %xmm4, %xmm4 # xmm4 = xmm4[0],xmm7[0],xmm4[1],xmm7[1]
vshufps $0xb1, %ymm5, %ymm5, %ymm7 # ymm7 = ymm5[1,0,3,2,5,4,7,6]
vminps %ymm7, %ymm5, %ymm5
vshufpd $0x5, %ymm5, %ymm5, %ymm7 # ymm7 = ymm5[1,0,3,2]
vminps %ymm7, %ymm5, %ymm5
vextractf128 $0x1, %ymm5, %xmm7
vminps %xmm7, %xmm5, %xmm5
vinsertps $0x28, %xmm5, %xmm4, %xmm4 # xmm4 = xmm4[0,1],xmm5[0],zero
vminps %xmm4, %xmm3, %xmm3
vshufps $0xb1, %ymm2, %ymm2, %ymm4 # ymm4 = ymm2[1,0,3,2,5,4,7,6]
vmaxps %ymm4, %ymm2, %ymm2
vshufpd $0x5, %ymm2, %ymm2, %ymm4 # ymm4 = ymm2[1,0,3,2]
vmaxps %ymm4, %ymm2, %ymm2
vextractf128 $0x1, %ymm2, %xmm4
vmaxps %xmm4, %xmm2, %xmm2
vshufps $0xb1, %ymm1, %ymm1, %ymm4 # ymm4 = ymm1[1,0,3,2,5,4,7,6]
vmaxps %ymm4, %ymm1, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm4 # ymm4 = ymm1[1,0,3,2]
vmaxps %ymm4, %ymm1, %ymm1
vextractf128 $0x1, %ymm1, %xmm4
vmaxps %xmm4, %xmm1, %xmm1
vunpcklps %xmm1, %xmm2, %xmm1 # xmm1 = xmm2[0],xmm1[0],xmm2[1],xmm1[1]
vshufps $0xb1, %ymm0, %ymm0, %ymm2 # ymm2 = ymm0[1,0,3,2,5,4,7,6]
vmaxps %ymm2, %ymm0, %ymm0
vshufpd $0x5, %ymm0, %ymm0, %ymm2 # ymm2 = ymm0[1,0,3,2]
vmaxps %ymm2, %ymm0, %ymm0
vextractf128 $0x1, %ymm0, %xmm2
vmaxps %xmm2, %xmm0, %xmm0
vinsertps $0x28, %xmm0, %xmm1, %xmm0 # xmm0 = xmm1[0,1],xmm0[0],zero
vmaxps %xmm0, %xmm6, %xmm0
vbroadcastss 0x83e85(%rip), %xmm1 # 0x1f20ec4
vandps %xmm1, %xmm3, %xmm2
vandps %xmm1, %xmm0, %xmm1
vmaxps %xmm1, %xmm2, %xmm1
vmovshdup %xmm1, %xmm2 # xmm2 = xmm1[1,1,3,3]
vmaxss %xmm1, %xmm2, %xmm2
vshufpd $0x1, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[1,0]
vmaxss %xmm2, %xmm1, %xmm1
vmulss 0x53f80(%rip), %xmm1, %xmm1 # 0x1ef0fe4
vbroadcastss %xmm1, %xmm1
vsubps %xmm1, %xmm3, %xmm2
vaddps %xmm1, %xmm0, %xmm0
vmovaps %xmm2, (%rax)
vmovaps %xmm0, 0x10(%rax)
popq %rbx
popq %r14
vzeroupper
retq
nop
|
/embree[P]embree/kernels/common/scene_curves.cpp
|
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)2, embree::avx512::HermiteCurveGeometryInterface, embree::HermiteCurveT>::linearBounds(embree::LinearSpace3<embree::Vec3fa> const&, unsigned long, embree::BBox<float> const&) const::'lambda'(unsigned long)::operator()(unsigned long) const
|
__forceinline LBBox3fa linearBounds(const LinearSpace3fa& space, size_t primID, const BBox1f& dt) const {
return LBBox3fa([&] (size_t itime) { return bounds(space, primID, itime); }, dt, this->time_range, fnumTimeSegments);
}
|
pushq %r15
pushq %r14
pushq %rbx
movq %rdi, %rax
movq 0x10(%rsi), %rdi
movq 0x8(%rsi), %rcx
movq 0x58(%rdi), %r8
movq 0x68(%rdi), %r9
imulq (%rcx), %r9
movl (%r8,%r9), %r8d
movq 0x188(%rdi), %rcx
imulq $0x38, %rdx, %rdx
movq (%rcx,%rdx), %r9
movq 0x10(%rcx,%rdx), %r10
movq %r10, %r11
imulq %r8, %r11
vmovaps (%r9,%r11), %xmm0
movq (%rsi), %rcx
leal 0x1(%r8), %esi
imulq %rsi, %r10
vmovaps (%r9,%r10), %xmm1
movq 0x1c8(%rdi), %rbx
movq (%rbx,%rdx), %r14
movq 0x10(%rbx,%rdx), %rbx
movq %rbx, %r15
imulq %r8, %r15
vmovaps (%r14,%r15), %xmm2
imulq %rsi, %rbx
vmovaps (%r14,%rbx), %xmm3
vmovss 0x24c(%rdi), %xmm4
vmulss 0xc(%r9,%r11), %xmm4, %xmm5
vinsertps $0x30, %xmm5, %xmm0, %xmm6 # xmm6 = xmm0[0,1,2],xmm5[0]
vmulss 0xc(%r9,%r10), %xmm4, %xmm0
vinsertps $0x30, %xmm0, %xmm1, %xmm7 # xmm7 = xmm1[0,1,2],xmm0[0]
vmulss 0xc(%r14,%r15), %xmm4, %xmm0
vinsertps $0x30, %xmm0, %xmm2, %xmm8 # xmm8 = xmm2[0,1,2],xmm0[0]
vmulss 0xc(%r14,%rbx), %xmm4, %xmm0
vinsertps $0x30, %xmm0, %xmm3, %xmm9 # xmm9 = xmm3[0,1,2],xmm0[0]
vbroadcastss 0xc032c(%rip), %xmm5 # 0x1f5d46c
vfnmadd213ps %xmm6, %xmm5, %xmm8 # xmm8 = -(xmm5 * xmm8) + xmm6
vfmadd213ps %xmm7, %xmm5, %xmm9 # xmm9 = (xmm5 * xmm9) + xmm7
movq 0x1a8(%rdi), %r9
movq (%r9,%rdx), %r10
movq 0x10(%r9,%rdx), %r9
movq %r9, %r11
imulq %r8, %r11
vmovups (%r10,%r11), %xmm10
imulq %rsi, %r9
vmovups (%r10,%r9), %xmm11
movq 0x1e8(%rdi), %rdi
movq (%rdi,%rdx), %r9
movq 0x10(%rdi,%rdx), %rdx
imulq %rdx, %r8
imulq %rsi, %rdx
vmovups (%r9,%r8), %xmm12
vfnmadd132ps %xmm5, %xmm10, %xmm12 # xmm12 = -(xmm12 * xmm5) + xmm10
vfmadd132ps (%r9,%rdx), %xmm11, %xmm5 # xmm5 = (xmm5 * mem) + xmm11
vxorps %xmm3, %xmm3, %xmm3
vmulps %xmm3, %xmm7, %xmm0
vfmadd231ps %xmm3, %xmm9, %xmm0 # xmm0 = (xmm9 * xmm3) + xmm0
vxorps %xmm1, %xmm1, %xmm1
vfmadd213ps %xmm0, %xmm8, %xmm1 # xmm1 = (xmm8 * xmm1) + xmm0
vaddps %xmm1, %xmm6, %xmm1
vbroadcastss 0x53e2f(%rip), %xmm13 # 0x1ef0fec
vfmadd231ps %xmm13, %xmm8, %xmm0 # xmm0 = (xmm8 * xmm13) + xmm0
vfnmadd231ps %xmm13, %xmm6, %xmm0 # xmm0 = -(xmm6 * xmm13) + xmm0
vmulps %xmm3, %xmm11, %xmm14
vfmadd231ps %xmm3, %xmm5, %xmm14 # xmm14 = (xmm5 * xmm3) + xmm14
vxorps %xmm2, %xmm2, %xmm2
vfmadd213ps %xmm14, %xmm12, %xmm2 # xmm2 = (xmm12 * xmm2) + xmm14
vaddps %xmm2, %xmm10, %xmm15
vfmadd231ps %xmm13, %xmm12, %xmm14 # xmm14 = (xmm12 * xmm13) + xmm14
vfnmadd231ps %xmm13, %xmm10, %xmm14 # xmm14 = -(xmm10 * xmm13) + xmm14
vxorps %xmm2, %xmm2, %xmm2
vfmadd213ps %xmm7, %xmm9, %xmm2 # xmm2 = (xmm9 * xmm2) + xmm7
vfmadd231ps %xmm3, %xmm8, %xmm2 # xmm2 = (xmm8 * xmm3) + xmm2
vfmadd231ps %xmm3, %xmm6, %xmm2 # xmm2 = (xmm6 * xmm3) + xmm2
vmulps %xmm7, %xmm13, %xmm4
vfnmadd231ps %xmm9, %xmm13, %xmm4 # xmm4 = -(xmm13 * xmm9) + xmm4
vfmadd231ps %xmm8, %xmm3, %xmm4 # xmm4 = (xmm3 * xmm8) + xmm4
vfnmadd231ps %xmm6, %xmm3, %xmm4 # xmm4 = -(xmm3 * xmm6) + xmm4
vxorps %xmm6, %xmm6, %xmm6
vfmadd213ps %xmm11, %xmm5, %xmm6 # xmm6 = (xmm5 * xmm6) + xmm11
vfmadd231ps %xmm3, %xmm12, %xmm6 # xmm6 = (xmm12 * xmm3) + xmm6
vfmadd231ps %xmm3, %xmm10, %xmm6 # xmm6 = (xmm10 * xmm3) + xmm6
vmulps %xmm13, %xmm11, %xmm8
vfnmadd231ps %xmm5, %xmm13, %xmm8 # xmm8 = -(xmm13 * xmm5) + xmm8
vfmadd231ps %xmm12, %xmm3, %xmm8 # xmm8 = (xmm3 * xmm12) + xmm8
vfnmadd231ps %xmm10, %xmm3, %xmm8 # xmm8 = -(xmm3 * xmm10) + xmm8
vshufps $0xc9, %xmm0, %xmm0, %xmm5 # xmm5 = xmm0[1,2,0,3]
vshufps $0xc9, %xmm15, %xmm15, %xmm7 # xmm7 = xmm15[1,2,0,3]
vmulps %xmm7, %xmm0, %xmm7
vfmsub231ps %xmm15, %xmm5, %xmm7 # xmm7 = (xmm5 * xmm15) - xmm7
vshufps $0xc9, %xmm7, %xmm7, %xmm7 # xmm7 = xmm7[1,2,0,3]
vshufps $0xc9, %xmm14, %xmm14, %xmm9 # xmm9 = xmm14[1,2,0,3]
vmulps %xmm0, %xmm9, %xmm9
vfmsub231ps %xmm14, %xmm5, %xmm9 # xmm9 = (xmm5 * xmm14) - xmm9
vshufps $0xc9, %xmm9, %xmm9, %xmm9 # xmm9 = xmm9[1,2,0,3]
vshufps $0xc9, %xmm4, %xmm4, %xmm10 # xmm10 = xmm4[1,2,0,3]
vshufps $0xc9, %xmm6, %xmm6, %xmm5 # xmm5 = xmm6[1,2,0,3]
vmulps %xmm5, %xmm4, %xmm5
vfmsub231ps %xmm6, %xmm10, %xmm5 # xmm5 = (xmm10 * xmm6) - xmm5
vshufps $0xc9, %xmm5, %xmm5, %xmm5 # xmm5 = xmm5[1,2,0,3]
vshufps $0xc9, %xmm8, %xmm8, %xmm6 # xmm6 = xmm8[1,2,0,3]
vmulps %xmm6, %xmm4, %xmm6
vfmsub231ps %xmm8, %xmm10, %xmm6 # xmm6 = (xmm10 * xmm8) - xmm6
vshufps $0xc9, %xmm6, %xmm6, %xmm6 # xmm6 = xmm6[1,2,0,3]
vdpps $0x7f, %xmm7, %xmm7, %xmm8
vmovss %xmm8, %xmm3, %xmm10 # xmm10 = xmm8[0],xmm3[1,2,3]
vrsqrt14ss %xmm10, %xmm3, %xmm11
vmovss 0x4f471(%rip), %xmm12 # 0x1eec718
vmulss %xmm12, %xmm11, %xmm13
vmovss 0x4f8cc(%rip), %xmm14 # 0x1eecb80
vmulss %xmm14, %xmm8, %xmm15
vmulss %xmm11, %xmm15, %xmm15
vmulss %xmm11, %xmm11, %xmm11
vmulss %xmm11, %xmm15, %xmm11
vsubss %xmm11, %xmm13, %xmm11
vbroadcastss %xmm11, %xmm11
vmulps %xmm7, %xmm11, %xmm13
vdpps $0x7f, %xmm9, %xmm7, %xmm15
vbroadcastss %xmm8, %xmm16
vmulps %xmm9, %xmm16, %xmm9
vbroadcastss %xmm15, %xmm15
vmulps %xmm7, %xmm15, %xmm7
vsubps %xmm7, %xmm9, %xmm7
vrcp14ss %xmm10, %xmm3, %xmm9
vmovss 0x53cf5(%rip), %xmm10 # 0x1ef0ff8
vfnmadd213ss %xmm10, %xmm9, %xmm8 # xmm8 = -(xmm9 * xmm8) + xmm10
vmulss %xmm8, %xmm9, %xmm8
vdpps $0x7f, %xmm5, %xmm5, %xmm9
vbroadcastss %xmm8, %xmm8
vmulps %xmm7, %xmm8, %xmm7
vmulps %xmm7, %xmm11, %xmm7
vmovss %xmm9, %xmm3, %xmm8 # xmm8 = xmm9[0],xmm3[1,2,3]
vrsqrt14ss %xmm8, %xmm3, %xmm11
vmulss %xmm12, %xmm11, %xmm12
vmulss %xmm14, %xmm9, %xmm14
vmulss %xmm11, %xmm14, %xmm14
vmulss %xmm11, %xmm11, %xmm11
vmulss %xmm11, %xmm14, %xmm11
vsubss %xmm11, %xmm12, %xmm11
vbroadcastss %xmm11, %xmm11
vmulps %xmm5, %xmm11, %xmm12
vdpps $0x7f, %xmm6, %xmm5, %xmm14
vbroadcastss %xmm9, %xmm15
vmulps %xmm6, %xmm15, %xmm6
vbroadcastss %xmm14, %xmm14
vmulps %xmm5, %xmm14, %xmm5
vsubps %xmm5, %xmm6, %xmm5
vrcp14ss %xmm8, %xmm3, %xmm3
vfnmadd213ss %xmm10, %xmm3, %xmm9 # xmm9 = -(xmm3 * xmm9) + xmm10
vmulss %xmm3, %xmm9, %xmm3
vbroadcastss %xmm3, %xmm3
vmulps %xmm3, %xmm5, %xmm3
vmulps %xmm3, %xmm11, %xmm3
vshufps $0xff, %xmm1, %xmm1, %xmm5 # xmm5 = xmm1[3,3,3,3]
vmulps %xmm5, %xmm13, %xmm6
vsubps %xmm6, %xmm1, %xmm8
vshufps $0xff, %xmm0, %xmm0, %xmm9 # xmm9 = xmm0[3,3,3,3]
vmulps %xmm13, %xmm9, %xmm9
vmulps %xmm7, %xmm5, %xmm5
vaddps %xmm5, %xmm9, %xmm5
vsubps %xmm5, %xmm0, %xmm7
vaddps %xmm6, %xmm1, %xmm9
vaddps %xmm5, %xmm0, %xmm0
vshufps $0xff, %xmm2, %xmm2, %xmm1 # xmm1 = xmm2[3,3,3,3]
vmulps %xmm1, %xmm12, %xmm5
vsubps %xmm5, %xmm2, %xmm10
vshufps $0xff, %xmm4, %xmm4, %xmm6 # xmm6 = xmm4[3,3,3,3]
vmulps %xmm6, %xmm12, %xmm6
vmulps %xmm3, %xmm1, %xmm1
vaddps %xmm1, %xmm6, %xmm3
vsubps %xmm3, %xmm4, %xmm6
vaddps %xmm5, %xmm2, %xmm1
vaddps %xmm3, %xmm4, %xmm2
vbroadcastss 0x54ad4(%rip), %xmm3 # 0x1ef1ebc
vmulps %xmm3, %xmm7, %xmm4
vaddps %xmm4, %xmm8, %xmm4
vmulps %xmm3, %xmm6, %xmm5
vsubps %xmm5, %xmm10, %xmm11
vmulps %xmm3, %xmm0, %xmm0
vaddps %xmm0, %xmm9, %xmm12
vmulps %xmm3, %xmm2, %xmm0
vsubps %xmm0, %xmm1, %xmm13
vbroadcastss %xmm8, %xmm0
vshufps $0x55, %xmm8, %xmm8, %xmm2 # xmm2 = xmm8[1,1,1,1]
vmovaps (%rcx), %xmm5
vmovaps 0x10(%rcx), %xmm7
vmovaps 0x20(%rcx), %xmm6
vshufps $0xaa, %xmm8, %xmm8, %xmm3 # xmm3 = xmm8[2,2,2,2]
vmulps %xmm3, %xmm6, %xmm3
vfmadd231ps %xmm2, %xmm7, %xmm3 # xmm3 = (xmm7 * xmm2) + xmm3
vfmadd231ps %xmm0, %xmm5, %xmm3 # xmm3 = (xmm5 * xmm0) + xmm3
vbroadcastss %xmm4, %xmm0
vshufps $0x55, %xmm4, %xmm4, %xmm2 # xmm2 = xmm4[1,1,1,1]
vshufps $0xaa, %xmm4, %xmm4, %xmm4 # xmm4 = xmm4[2,2,2,2]
vmulps %xmm4, %xmm6, %xmm8
vfmadd231ps %xmm2, %xmm7, %xmm8 # xmm8 = (xmm7 * xmm2) + xmm8
vfmadd231ps %xmm0, %xmm5, %xmm8 # xmm8 = (xmm5 * xmm0) + xmm8
vbroadcastss %xmm11, %xmm0
vshufps $0x55, %xmm11, %xmm11, %xmm2 # xmm2 = xmm11[1,1,1,1]
vshufps $0xaa, %xmm11, %xmm11, %xmm4 # xmm4 = xmm11[2,2,2,2]
vmulps %xmm4, %xmm6, %xmm14
vfmadd231ps %xmm2, %xmm7, %xmm14 # xmm14 = (xmm7 * xmm2) + xmm14
vfmadd231ps %xmm0, %xmm5, %xmm14 # xmm14 = (xmm5 * xmm0) + xmm14
vbroadcastss %xmm10, %xmm0
vshufps $0x55, %xmm10, %xmm10, %xmm2 # xmm2 = xmm10[1,1,1,1]
vshufps $0xaa, %xmm10, %xmm10, %xmm4 # xmm4 = xmm10[2,2,2,2]
vmulps %xmm4, %xmm6, %xmm15
vfmadd231ps %xmm2, %xmm7, %xmm15 # xmm15 = (xmm7 * xmm2) + xmm15
vfmadd231ps %xmm0, %xmm5, %xmm15 # xmm15 = (xmm5 * xmm0) + xmm15
vbroadcastss %xmm9, %xmm2
vshufps $0x55, %xmm9, %xmm9, %xmm4 # xmm4 = xmm9[1,1,1,1]
vshufps $0xaa, %xmm9, %xmm9, %xmm0 # xmm0 = xmm9[2,2,2,2]
vmulps %xmm0, %xmm6, %xmm22
vfmadd231ps %xmm4, %xmm7, %xmm22 # xmm22 = (xmm7 * xmm4) + xmm22
vfmadd231ps %xmm2, %xmm5, %xmm22 # xmm22 = (xmm5 * xmm2) + xmm22
vbroadcastss %xmm12, %xmm4
vshufps $0x55, %xmm12, %xmm12, %xmm9 # xmm9 = xmm12[1,1,1,1]
vshufps $0xaa, %xmm12, %xmm12, %xmm2 # xmm2 = xmm12[2,2,2,2]
vmulps %xmm2, %xmm6, %xmm20
vfmadd231ps %xmm9, %xmm7, %xmm20 # xmm20 = (xmm7 * xmm9) + xmm20
vfmadd231ps %xmm4, %xmm5, %xmm20 # xmm20 = (xmm5 * xmm4) + xmm20
vbroadcastss %xmm13, %xmm9
vshufps $0x55, %xmm13, %xmm13, %xmm10 # xmm10 = xmm13[1,1,1,1]
vshufps $0xaa, %xmm13, %xmm13, %xmm4 # xmm4 = xmm13[2,2,2,2]
vmulps %xmm4, %xmm6, %xmm2
vfmadd231ps %xmm10, %xmm7, %xmm2 # xmm2 = (xmm7 * xmm10) + xmm2
vfmadd231ps %xmm9, %xmm5, %xmm2 # xmm2 = (xmm5 * xmm9) + xmm2
vbroadcastss %xmm1, %xmm9
vshufps $0x55, %xmm1, %xmm1, %xmm10 # xmm10 = xmm1[1,1,1,1]
vshufps $0xaa, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,2,2,2]
vmulps %xmm1, %xmm6, %xmm6
vfmadd231ps %xmm10, %xmm7, %xmm6 # xmm6 = (xmm7 * xmm10) + xmm6
vfmadd231ps %xmm9, %xmm5, %xmm6 # xmm6 = (xmm5 * xmm9) + xmm6
vbroadcastss 0x751e8(%rip), %ymm29 # 0x1f12704
vbroadcastss %xmm3, %ymm1
vpermps %ymm3, %ymm29, %ymm5
vbroadcastss 0x839ab(%rip), %ymm30 # 0x1f20edc
vpermps %ymm3, %ymm30, %ymm3
vbroadcastss %xmm8, %ymm17
vpermps %ymm8, %ymm29, %ymm4
vpermps %ymm8, %ymm30, %ymm0
vbroadcastss %xmm14, %ymm23
vpermps %ymm14, %ymm29, %ymm24
vpermps %ymm14, %ymm30, %ymm25
vbroadcastss %xmm15, %ymm26
vpermps %ymm15, %ymm29, %ymm27
leaq 0x289d76(%rip), %rcx # 0x21272e4
vmovups 0x1dc(%rcx), %ymm31
vmovups 0x660(%rcx), %ymm10
vpermps %ymm15, %ymm30, %ymm28
vmovups 0xae4(%rcx), %ymm13
vmovups 0xf68(%rcx), %ymm16
vmulps %ymm16, %ymm26, %ymm14
vmulps %ymm16, %ymm27, %ymm18
vmulps %ymm16, %ymm28, %ymm21
vfmadd231ps %ymm23, %ymm13, %ymm14 # ymm14 = (ymm13 * ymm23) + ymm14
vfmadd231ps %ymm24, %ymm13, %ymm18 # ymm18 = (ymm13 * ymm24) + ymm18
vfmadd231ps %ymm25, %ymm13, %ymm21 # ymm21 = (ymm13 * ymm25) + ymm21
vfmadd231ps %ymm17, %ymm10, %ymm14 # ymm14 = (ymm10 * ymm17) + ymm14
vfmadd231ps %ymm4, %ymm10, %ymm18 # ymm18 = (ymm10 * ymm4) + ymm18
vfmadd231ps %ymm0, %ymm10, %ymm21 # ymm21 = (ymm10 * ymm0) + ymm21
vfmadd231ps %ymm1, %ymm31, %ymm14 # ymm14 = (ymm31 * ymm1) + ymm14
vfmadd231ps %ymm5, %ymm31, %ymm18 # ymm18 = (ymm31 * ymm5) + ymm18
vmovups 0x13ec(%rcx), %ymm8
vmovups 0x1870(%rcx), %ymm12
vmovups 0x1cf4(%rcx), %ymm15
vmovups 0x2178(%rcx), %ymm19
vfmadd231ps %ymm3, %ymm31, %ymm21 # ymm21 = (ymm31 * ymm3) + ymm21
vmulps %ymm19, %ymm26, %ymm26
vmulps %ymm19, %ymm27, %ymm27
vmulps %ymm19, %ymm28, %ymm28
vfmadd231ps %ymm23, %ymm15, %ymm26 # ymm26 = (ymm15 * ymm23) + ymm26
vfmadd231ps %ymm24, %ymm15, %ymm27 # ymm27 = (ymm15 * ymm24) + ymm27
vfmadd231ps %ymm25, %ymm15, %ymm28 # ymm28 = (ymm15 * ymm25) + ymm28
vfmadd231ps %ymm17, %ymm12, %ymm26 # ymm26 = (ymm12 * ymm17) + ymm26
vfmadd231ps %ymm4, %ymm12, %ymm27 # ymm27 = (ymm12 * ymm4) + ymm27
vfmadd231ps %ymm0, %ymm12, %ymm28 # ymm28 = (ymm12 * ymm0) + ymm28
vfmadd231ps %ymm1, %ymm8, %ymm26 # ymm26 = (ymm8 * ymm1) + ymm26
vfmadd231ps %ymm5, %ymm8, %ymm27 # ymm27 = (ymm8 * ymm5) + ymm27
vfmadd231ps %ymm3, %ymm8, %ymm28 # ymm28 = (ymm8 * ymm3) + ymm28
vbroadcastss 0x83e7d(%rip), %ymm0 # 0x1f214d0
vmulps %ymm0, %ymm26, %ymm3
vmulps %ymm0, %ymm27, %ymm5
vmulps %ymm0, %ymm28, %ymm9
vxorps %xmm4, %xmm4, %xmm4
vblendps $0x1, %ymm4, %ymm3, %ymm11 # ymm11 = ymm4[0],ymm3[1,2,3,4,5,6,7]
vblendps $0x1, %ymm4, %ymm5, %ymm7 # ymm7 = ymm4[0],ymm5[1,2,3,4,5,6,7]
vblendps $0x1, %ymm4, %ymm9, %ymm0 # ymm0 = ymm4[0],ymm9[1,2,3,4,5,6,7]
vsubps %ymm11, %ymm14, %ymm11
vsubps %ymm7, %ymm18, %ymm24
vsubps %ymm0, %ymm21, %ymm0
vblendps $0x80, %ymm4, %ymm3, %ymm3 # ymm3 = ymm3[0,1,2,3,4,5,6],ymm4[7]
vblendps $0x80, %ymm4, %ymm5, %ymm5 # ymm5 = ymm5[0,1,2,3,4,5,6],ymm4[7]
vblendps $0x80, %ymm4, %ymm9, %ymm7 # ymm7 = ymm9[0,1,2,3,4,5,6],ymm4[7]
vaddps %ymm3, %ymm14, %ymm9
vaddps %ymm5, %ymm18, %ymm25
vaddps %ymm7, %ymm21, %ymm26
vbroadcastss 0x4e369(%rip), %ymm7 # 0x1eeba20
vminps %ymm14, %ymm7, %ymm3
vminps %ymm18, %ymm7, %ymm17
vminps %ymm21, %ymm7, %ymm23
vminps %ymm9, %ymm11, %ymm5
vminps %ymm5, %ymm3, %ymm5
vminps %ymm25, %ymm24, %ymm3
vminps %ymm3, %ymm17, %ymm3
vminps %ymm26, %ymm0, %ymm17
vminps %ymm17, %ymm23, %ymm17
vbroadcastss 0x4f491(%rip), %ymm23 # 0x1eecb84
vmaxps %ymm14, %ymm23, %ymm14
vmaxps %ymm18, %ymm23, %ymm18
vmaxps %ymm21, %ymm23, %ymm27
vmaxps %ymm9, %ymm11, %ymm9
vmaxps %ymm9, %ymm14, %ymm21
vmaxps %ymm25, %ymm24, %ymm9
vmaxps %ymm9, %ymm18, %ymm18
vmaxps %ymm26, %ymm0, %ymm0
vmaxps %ymm0, %ymm27, %ymm14
vbroadcastss %xmm22, %ymm9
vpermps %ymm22, %ymm29, %ymm11
vpermps %ymm22, %ymm30, %ymm22
vbroadcastss %xmm20, %ymm24
vpermps %ymm20, %ymm29, %ymm25
vpermps %ymm20, %ymm30, %ymm26
vbroadcastss %xmm2, %ymm27
vpermps %ymm2, %ymm29, %ymm28
vpermps %ymm2, %ymm30, %ymm20
vbroadcastss %xmm6, %ymm1
vpermps %ymm6, %ymm29, %ymm29
vpermps %ymm6, %ymm30, %ymm30
vmulps %ymm16, %ymm1, %ymm0
vmulps %ymm16, %ymm29, %ymm2
vmulps %ymm16, %ymm30, %ymm6
vfmadd231ps %ymm27, %ymm13, %ymm0 # ymm0 = (ymm13 * ymm27) + ymm0
vfmadd231ps %ymm28, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm28) + ymm2
vfmadd231ps %ymm13, %ymm20, %ymm6 # ymm6 = (ymm20 * ymm13) + ymm6
vfmadd231ps %ymm24, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm24) + ymm0
vfmadd231ps %ymm25, %ymm10, %ymm2 # ymm2 = (ymm10 * ymm25) + ymm2
vfmadd231ps %ymm10, %ymm26, %ymm6 # ymm6 = (ymm26 * ymm10) + ymm6
vfmadd231ps %ymm9, %ymm31, %ymm0 # ymm0 = (ymm31 * ymm9) + ymm0
vfmadd231ps %ymm11, %ymm31, %ymm2 # ymm2 = (ymm31 * ymm11) + ymm2
vfmadd231ps %ymm31, %ymm22, %ymm6 # ymm6 = (ymm22 * ymm31) + ymm6
vmulps %ymm19, %ymm1, %ymm1
vmulps %ymm19, %ymm29, %ymm10
vmulps %ymm19, %ymm30, %ymm13
vfmadd231ps %ymm27, %ymm15, %ymm1 # ymm1 = (ymm15 * ymm27) + ymm1
vfmadd231ps %ymm28, %ymm15, %ymm10 # ymm10 = (ymm15 * ymm28) + ymm10
vfmadd231ps %ymm20, %ymm15, %ymm13 # ymm13 = (ymm15 * ymm20) + ymm13
vfmadd231ps %ymm24, %ymm12, %ymm1 # ymm1 = (ymm12 * ymm24) + ymm1
vfmadd231ps %ymm25, %ymm12, %ymm10 # ymm10 = (ymm12 * ymm25) + ymm10
vfmadd231ps %ymm26, %ymm12, %ymm13 # ymm13 = (ymm12 * ymm26) + ymm13
vfmadd231ps %ymm9, %ymm8, %ymm1 # ymm1 = (ymm8 * ymm9) + ymm1
vfmadd231ps %ymm11, %ymm8, %ymm10 # ymm10 = (ymm8 * ymm11) + ymm10
vfmadd231ps %ymm22, %ymm8, %ymm13 # ymm13 = (ymm8 * ymm22) + ymm13
vbroadcastss 0x83cca(%rip), %ymm9 # 0x1f214d0
vmulps %ymm1, %ymm9, %ymm1
vmulps %ymm9, %ymm10, %ymm8
vmulps %ymm9, %ymm13, %ymm9
vblendps $0x1, %ymm4, %ymm1, %ymm10 # ymm10 = ymm4[0],ymm1[1,2,3,4,5,6,7]
vblendps $0x1, %ymm4, %ymm8, %ymm11 # ymm11 = ymm4[0],ymm8[1,2,3,4,5,6,7]
vblendps $0x1, %ymm4, %ymm9, %ymm12 # ymm12 = ymm4[0],ymm9[1,2,3,4,5,6,7]
vsubps %ymm10, %ymm0, %ymm10
vsubps %ymm11, %ymm2, %ymm11
vsubps %ymm12, %ymm6, %ymm12
vblendps $0x80, %ymm4, %ymm1, %ymm1 # ymm1 = ymm1[0,1,2,3,4,5,6],ymm4[7]
vblendps $0x80, %ymm4, %ymm8, %ymm8 # ymm8 = ymm8[0,1,2,3,4,5,6],ymm4[7]
vblendps $0x80, %ymm4, %ymm9, %ymm4 # ymm4 = ymm9[0,1,2,3,4,5,6],ymm4[7]
vaddps %ymm1, %ymm0, %ymm1
vaddps %ymm2, %ymm8, %ymm8
vaddps %ymm4, %ymm6, %ymm9
vminps %ymm0, %ymm7, %ymm4
vminps %ymm2, %ymm7, %ymm13
vminps %ymm6, %ymm7, %ymm15
vminps %ymm1, %ymm10, %ymm7
vminps %ymm7, %ymm4, %ymm16
vminps %ymm8, %ymm11, %ymm4
vminps %ymm4, %ymm13, %ymm7
vminps %ymm9, %ymm12, %ymm4
vminps %ymm4, %ymm15, %ymm4
vmaxps %ymm0, %ymm23, %ymm0
vmaxps %ymm2, %ymm23, %ymm13
vmaxps %ymm6, %ymm23, %ymm6
vmaxps %ymm1, %ymm10, %ymm1
vmaxps %ymm1, %ymm0, %ymm2
vmaxps %ymm8, %ymm11, %ymm0
vmaxps %ymm0, %ymm13, %ymm1
vmaxps %ymm9, %ymm12, %ymm0
vmaxps %ymm0, %ymm6, %ymm0
vshufps $0xb1, %ymm21, %ymm21, %ymm6 # ymm6 = ymm21[1,0,3,2,5,4,7,6]
vmaxps %ymm6, %ymm21, %ymm6
vshufpd $0x5, %ymm6, %ymm6, %ymm8 # ymm8 = ymm6[1,0,3,2]
vmaxps %ymm8, %ymm6, %ymm6
vextractf128 $0x1, %ymm6, %xmm8
vmaxps %xmm8, %xmm6, %xmm6
vshufps $0xb1, %ymm18, %ymm18, %ymm8 # ymm8 = ymm18[1,0,3,2,5,4,7,6]
vmaxps %ymm8, %ymm18, %ymm8
vshufpd $0x5, %ymm8, %ymm8, %ymm9 # ymm9 = ymm8[1,0,3,2]
vmaxps %ymm9, %ymm8, %ymm8
vextractf128 $0x1, %ymm8, %xmm9
vmaxps %xmm9, %xmm8, %xmm8
vunpcklps %xmm8, %xmm6, %xmm6 # xmm6 = xmm6[0],xmm8[0],xmm6[1],xmm8[1]
vshufps $0xb1, %ymm14, %ymm14, %ymm8 # ymm8 = ymm14[1,0,3,2,5,4,7,6]
vmaxps %ymm8, %ymm14, %ymm8
vshufpd $0x5, %ymm8, %ymm8, %ymm9 # ymm9 = ymm8[1,0,3,2]
vmaxps %ymm9, %ymm8, %ymm8
vextractf128 $0x1, %ymm8, %xmm9
vmaxps %xmm9, %xmm8, %xmm8
vinsertps $0x28, %xmm8, %xmm6, %xmm6 # xmm6 = xmm6[0,1],xmm8[0],zero
vshufps $0xb1, %ymm5, %ymm5, %ymm8 # ymm8 = ymm5[1,0,3,2,5,4,7,6]
vminps %ymm8, %ymm5, %ymm5
vshufpd $0x5, %ymm5, %ymm5, %ymm8 # ymm8 = ymm5[1,0,3,2]
vminps %ymm8, %ymm5, %ymm5
vextractf128 $0x1, %ymm5, %xmm8
vminps %xmm8, %xmm5, %xmm5
vshufps $0xb1, %ymm3, %ymm3, %ymm8 # ymm8 = ymm3[1,0,3,2,5,4,7,6]
vminps %ymm8, %ymm3, %ymm3
vshufpd $0x5, %ymm3, %ymm3, %ymm8 # ymm8 = ymm3[1,0,3,2]
vminps %ymm8, %ymm3, %ymm3
vextractf128 $0x1, %ymm3, %xmm8
vminps %xmm8, %xmm3, %xmm3
vunpcklps %xmm3, %xmm5, %xmm3 # xmm3 = xmm5[0],xmm3[0],xmm5[1],xmm3[1]
vshufps $0xb1, %ymm17, %ymm17, %ymm5 # ymm5 = ymm17[1,0,3,2,5,4,7,6]
vminps %ymm5, %ymm17, %ymm5
vshufpd $0x5, %ymm5, %ymm5, %ymm8 # ymm8 = ymm5[1,0,3,2]
vminps %ymm8, %ymm5, %ymm5
vextractf128 $0x1, %ymm5, %xmm8
vminps %xmm8, %xmm5, %xmm5
vinsertps $0x28, %xmm5, %xmm3, %xmm3 # xmm3 = xmm3[0,1],xmm5[0],zero
vshufps $0xb1, %ymm16, %ymm16, %ymm5 # ymm5 = ymm16[1,0,3,2,5,4,7,6]
vminps %ymm5, %ymm16, %ymm5
vshufpd $0x5, %ymm5, %ymm5, %ymm8 # ymm8 = ymm5[1,0,3,2]
vminps %ymm8, %ymm5, %ymm5
vextractf128 $0x1, %ymm5, %xmm8
vminps %xmm8, %xmm5, %xmm5
vshufps $0xb1, %ymm7, %ymm7, %ymm8 # ymm8 = ymm7[1,0,3,2,5,4,7,6]
vminps %ymm8, %ymm7, %ymm7
vshufpd $0x5, %ymm7, %ymm7, %ymm8 # ymm8 = ymm7[1,0,3,2]
vminps %ymm8, %ymm7, %ymm7
vextractf128 $0x1, %ymm7, %xmm8
vminps %xmm8, %xmm7, %xmm7
vunpcklps %xmm7, %xmm5, %xmm5 # xmm5 = xmm5[0],xmm7[0],xmm5[1],xmm7[1]
vshufps $0xb1, %ymm4, %ymm4, %ymm7 # ymm7 = ymm4[1,0,3,2,5,4,7,6]
vminps %ymm7, %ymm4, %ymm4
vshufpd $0x5, %ymm4, %ymm4, %ymm7 # ymm7 = ymm4[1,0,3,2]
vminps %ymm7, %ymm4, %ymm4
vextractf128 $0x1, %ymm4, %xmm7
vminps %xmm7, %xmm4, %xmm4
vinsertps $0x28, %xmm4, %xmm5, %xmm4 # xmm4 = xmm5[0,1],xmm4[0],zero
vminps %xmm4, %xmm3, %xmm3
vshufps $0xb1, %ymm2, %ymm2, %ymm4 # ymm4 = ymm2[1,0,3,2,5,4,7,6]
vmaxps %ymm4, %ymm2, %ymm2
vshufpd $0x5, %ymm2, %ymm2, %ymm4 # ymm4 = ymm2[1,0,3,2]
vmaxps %ymm4, %ymm2, %ymm2
vextractf128 $0x1, %ymm2, %xmm4
vmaxps %xmm4, %xmm2, %xmm2
vshufps $0xb1, %ymm1, %ymm1, %ymm4 # ymm4 = ymm1[1,0,3,2,5,4,7,6]
vmaxps %ymm4, %ymm1, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm4 # ymm4 = ymm1[1,0,3,2]
vmaxps %ymm4, %ymm1, %ymm1
vextractf128 $0x1, %ymm1, %xmm4
vmaxps %xmm4, %xmm1, %xmm1
vunpcklps %xmm1, %xmm2, %xmm1 # xmm1 = xmm2[0],xmm1[0],xmm2[1],xmm1[1]
vshufps $0xb1, %ymm0, %ymm0, %ymm2 # ymm2 = ymm0[1,0,3,2,5,4,7,6]
vmaxps %ymm2, %ymm0, %ymm0
vshufpd $0x5, %ymm0, %ymm0, %ymm2 # ymm2 = ymm0[1,0,3,2]
vmaxps %ymm2, %ymm0, %ymm0
vextractf128 $0x1, %ymm0, %xmm2
vmaxps %xmm2, %xmm0, %xmm0
vinsertps $0x28, %xmm0, %xmm1, %xmm0 # xmm0 = xmm1[0,1],xmm0[0],zero
vmaxps %xmm0, %xmm6, %xmm0
vbroadcastss 0x8346c(%rip), %xmm1 # 0x1f20ec4
vandps %xmm1, %xmm3, %xmm2
vandps %xmm1, %xmm0, %xmm1
vmaxps %xmm1, %xmm2, %xmm1
vmovshdup %xmm1, %xmm2 # xmm2 = xmm1[1,1,3,3]
vmaxss %xmm1, %xmm2, %xmm2
vshufpd $0x1, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[1,0]
vmaxss %xmm2, %xmm1, %xmm1
vmulss 0x53567(%rip), %xmm1, %xmm1 # 0x1ef0fe4
vbroadcastss %xmm1, %xmm1
vsubps %xmm1, %xmm3, %xmm2
vaddps %xmm1, %xmm0, %xmm0
vmovaps %xmm2, (%rax)
vmovaps %xmm0, 0x10(%rax)
popq %rbx
popq %r14
popq %r15
vzeroupper
retq
|
/embree[P]embree/kernels/common/scene_curves.cpp
|
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)2, embree::avx512::HermiteCurveGeometryInterface, embree::HermiteCurveT>::linearBounds(embree::Vec3fa const&, float, float, embree::LinearSpace3<embree::Vec3fa> const&, unsigned long, embree::BBox<float> const&) const::'lambda'(unsigned long)::operator()(unsigned long) const
|
__forceinline LBBox3fa linearBounds(const Vec3fa& ofs, const float scale, const float r_scale0, const LinearSpace3fa& space, size_t primID, const BBox1f& dt) const {
return LBBox3fa([&] (size_t itime) { return bounds(ofs, scale, r_scale0, space, primID, itime); }, dt, this->time_range, fnumTimeSegments);
}
|
pushq %r15
pushq %r14
pushq %r13
pushq %r12
pushq %rbx
movq %rdi, %rax
movq 0x28(%rsi), %rdi
movq 0x20(%rsi), %rcx
movq 0x58(%rdi), %r8
movq 0x68(%rdi), %r9
imulq (%rcx), %r9
movl (%r8,%r9), %r8d
movq 0x188(%rdi), %rcx
imulq $0x38, %rdx, %r9
movq (%rcx,%r9), %r11
movq 0x10(%rcx,%r9), %rbx
movq %rbx, %r14
imulq %r8, %r14
vmovaps (%r11,%r14), %xmm0
leal 0x1(%r8), %r10d
imulq %r10, %rbx
vmovaps (%r11,%rbx), %xmm1
movq 0x1c8(%rdi), %rcx
movq (%rcx,%r9), %r15
movq 0x10(%rcx,%r9), %r12
movq %r12, %r13
imulq %r8, %r13
vmovaps (%r15,%r13), %xmm2
movq (%rsi), %rcx
imulq %r10, %r12
vmovaps (%r15,%r12), %xmm3
vmovss 0x24c(%rdi), %xmm4
movq 0x8(%rsi), %rdx
vmulss 0xc(%r11,%r14), %xmm4, %xmm5
vinsertps $0x30, %xmm5, %xmm0, %xmm6 # xmm6 = xmm0[0,1,2],xmm5[0]
vmulss 0xc(%r11,%rbx), %xmm4, %xmm0
vinsertps $0x30, %xmm0, %xmm1, %xmm7 # xmm7 = xmm1[0,1,2],xmm0[0]
vmulss 0xc(%r15,%r13), %xmm4, %xmm0
vinsertps $0x30, %xmm0, %xmm2, %xmm8 # xmm8 = xmm2[0,1,2],xmm0[0]
vmulss 0xc(%r15,%r12), %xmm4, %xmm0
vinsertps $0x30, %xmm0, %xmm3, %xmm9 # xmm9 = xmm3[0,1,2],xmm0[0]
vbroadcastss 0xbf90a(%rip), %xmm5 # 0x1f5d46c
vfnmadd213ps %xmm6, %xmm5, %xmm8 # xmm8 = -(xmm5 * xmm8) + xmm6
vfmadd213ps %xmm7, %xmm5, %xmm9 # xmm9 = (xmm5 * xmm9) + xmm7
movq 0x1a8(%rdi), %r11
movq (%r11,%r9), %rbx
movq 0x10(%r11,%r9), %r11
movq %r11, %r14
imulq %r8, %r14
vmovups (%rbx,%r14), %xmm10
imulq %r10, %r11
vmovups (%rbx,%r11), %xmm11
movq 0x1e8(%rdi), %rdi
movq (%rdi,%r9), %r11
movq 0x10(%rdi,%r9), %rdi
imulq %rdi, %r8
imulq %r10, %rdi
vmovups (%r11,%r8), %xmm12
vfnmadd132ps %xmm5, %xmm10, %xmm12 # xmm12 = -(xmm12 * xmm5) + xmm10
vfmadd132ps (%r11,%rdi), %xmm11, %xmm5 # xmm5 = (xmm5 * mem) + xmm11
movq 0x18(%rsi), %rsi
vxorps %xmm3, %xmm3, %xmm3
vmulps %xmm3, %xmm7, %xmm0
vfmadd231ps %xmm3, %xmm9, %xmm0 # xmm0 = (xmm9 * xmm3) + xmm0
vxorps %xmm1, %xmm1, %xmm1
vfmadd213ps %xmm0, %xmm8, %xmm1 # xmm1 = (xmm8 * xmm1) + xmm0
vaddps %xmm1, %xmm6, %xmm1
vbroadcastss 0x53409(%rip), %xmm13 # 0x1ef0fec
vfmadd231ps %xmm13, %xmm8, %xmm0 # xmm0 = (xmm8 * xmm13) + xmm0
vfnmadd231ps %xmm13, %xmm6, %xmm0 # xmm0 = -(xmm6 * xmm13) + xmm0
vmulps %xmm3, %xmm11, %xmm14
vfmadd231ps %xmm3, %xmm5, %xmm14 # xmm14 = (xmm5 * xmm3) + xmm14
vxorps %xmm2, %xmm2, %xmm2
vfmadd213ps %xmm14, %xmm12, %xmm2 # xmm2 = (xmm12 * xmm2) + xmm14
vaddps %xmm2, %xmm10, %xmm15
vfmadd231ps %xmm13, %xmm12, %xmm14 # xmm14 = (xmm12 * xmm13) + xmm14
vfnmadd231ps %xmm13, %xmm10, %xmm14 # xmm14 = -(xmm10 * xmm13) + xmm14
vxorps %xmm2, %xmm2, %xmm2
vfmadd213ps %xmm7, %xmm9, %xmm2 # xmm2 = (xmm9 * xmm2) + xmm7
vfmadd231ps %xmm3, %xmm8, %xmm2 # xmm2 = (xmm8 * xmm3) + xmm2
vfmadd231ps %xmm3, %xmm6, %xmm2 # xmm2 = (xmm6 * xmm3) + xmm2
vmulps %xmm7, %xmm13, %xmm4
vfnmadd231ps %xmm9, %xmm13, %xmm4 # xmm4 = -(xmm13 * xmm9) + xmm4
vfmadd231ps %xmm8, %xmm3, %xmm4 # xmm4 = (xmm3 * xmm8) + xmm4
vfnmadd231ps %xmm6, %xmm3, %xmm4 # xmm4 = -(xmm3 * xmm6) + xmm4
vxorps %xmm6, %xmm6, %xmm6
vfmadd213ps %xmm11, %xmm5, %xmm6 # xmm6 = (xmm5 * xmm6) + xmm11
vfmadd231ps %xmm3, %xmm12, %xmm6 # xmm6 = (xmm12 * xmm3) + xmm6
vfmadd231ps %xmm3, %xmm10, %xmm6 # xmm6 = (xmm10 * xmm3) + xmm6
vmulps %xmm13, %xmm11, %xmm8
vfnmadd231ps %xmm5, %xmm13, %xmm8 # xmm8 = -(xmm13 * xmm5) + xmm8
vfmadd231ps %xmm12, %xmm3, %xmm8 # xmm8 = (xmm3 * xmm12) + xmm8
vfnmadd231ps %xmm10, %xmm3, %xmm8 # xmm8 = -(xmm3 * xmm10) + xmm8
vshufps $0xc9, %xmm0, %xmm0, %xmm5 # xmm5 = xmm0[1,2,0,3]
vshufps $0xc9, %xmm15, %xmm15, %xmm7 # xmm7 = xmm15[1,2,0,3]
vmulps %xmm7, %xmm0, %xmm7
vfmsub231ps %xmm15, %xmm5, %xmm7 # xmm7 = (xmm5 * xmm15) - xmm7
vshufps $0xc9, %xmm7, %xmm7, %xmm7 # xmm7 = xmm7[1,2,0,3]
vshufps $0xc9, %xmm14, %xmm14, %xmm9 # xmm9 = xmm14[1,2,0,3]
vmulps %xmm0, %xmm9, %xmm9
vfmsub231ps %xmm14, %xmm5, %xmm9 # xmm9 = (xmm5 * xmm14) - xmm9
vshufps $0xc9, %xmm9, %xmm9, %xmm9 # xmm9 = xmm9[1,2,0,3]
vshufps $0xc9, %xmm4, %xmm4, %xmm10 # xmm10 = xmm4[1,2,0,3]
vshufps $0xc9, %xmm6, %xmm6, %xmm5 # xmm5 = xmm6[1,2,0,3]
vmulps %xmm5, %xmm4, %xmm5
vfmsub231ps %xmm6, %xmm10, %xmm5 # xmm5 = (xmm10 * xmm6) - xmm5
vshufps $0xc9, %xmm5, %xmm5, %xmm5 # xmm5 = xmm5[1,2,0,3]
vshufps $0xc9, %xmm8, %xmm8, %xmm6 # xmm6 = xmm8[1,2,0,3]
vmulps %xmm6, %xmm4, %xmm6
vdpps $0x7f, %xmm7, %xmm7, %xmm11
vfmsub231ps %xmm8, %xmm10, %xmm6 # xmm6 = (xmm10 * xmm8) - xmm6
vshufps $0xc9, %xmm6, %xmm6, %xmm6 # xmm6 = xmm6[1,2,0,3]
vmovss %xmm11, %xmm3, %xmm8 # xmm8 = xmm11[0],xmm3[1,2,3]
vrsqrt14ss %xmm8, %xmm3, %xmm10
vmovss 0x4ea4b(%rip), %xmm12 # 0x1eec718
vmulss %xmm12, %xmm10, %xmm13
vmovss 0x4eea6(%rip), %xmm14 # 0x1eecb80
vmulss %xmm14, %xmm11, %xmm15
vmulss %xmm10, %xmm15, %xmm15
vmulss %xmm10, %xmm10, %xmm10
vmulss %xmm10, %xmm15, %xmm10
vsubss %xmm10, %xmm13, %xmm10
vdpps $0x7f, %xmm9, %xmm7, %xmm13
vbroadcastss %xmm10, %xmm10
vmulps %xmm7, %xmm10, %xmm15
vbroadcastss %xmm11, %xmm16
vmulps %xmm9, %xmm16, %xmm9
vbroadcastss %xmm13, %xmm13
vmulps %xmm7, %xmm13, %xmm7
vsubps %xmm7, %xmm9, %xmm7
vrcp14ss %xmm8, %xmm3, %xmm8
vmovss 0x532cf(%rip), %xmm9 # 0x1ef0ff8
vfnmadd213ss %xmm9, %xmm8, %xmm11 # xmm11 = -(xmm8 * xmm11) + xmm9
vmulss %xmm11, %xmm8, %xmm8
vbroadcastss %xmm8, %xmm8
vmulps %xmm7, %xmm8, %xmm7
vdpps $0x7f, %xmm5, %xmm5, %xmm8
vmulps %xmm7, %xmm10, %xmm7
vmovss %xmm8, %xmm3, %xmm10 # xmm10 = xmm8[0],xmm3[1,2,3]
vrsqrt14ss %xmm10, %xmm3, %xmm11
vmulss %xmm12, %xmm11, %xmm12
vmulss %xmm14, %xmm8, %xmm13
vmulss %xmm11, %xmm13, %xmm13
vmulss %xmm11, %xmm11, %xmm11
vmulss %xmm11, %xmm13, %xmm11
vdpps $0x7f, %xmm6, %xmm5, %xmm13
vsubss %xmm11, %xmm12, %xmm11
vbroadcastss %xmm11, %xmm11
vmulps %xmm5, %xmm11, %xmm12
vbroadcastss %xmm8, %xmm14
vmulps %xmm6, %xmm14, %xmm6
vbroadcastss %xmm13, %xmm13
vmulps %xmm5, %xmm13, %xmm5
vsubps %xmm5, %xmm6, %xmm5
vrcp14ss %xmm10, %xmm3, %xmm3
vfnmadd213ss %xmm9, %xmm3, %xmm8 # xmm8 = -(xmm3 * xmm8) + xmm9
vmulss %xmm3, %xmm8, %xmm3
vbroadcastss %xmm3, %xmm3
vmulps %xmm3, %xmm5, %xmm3
vmulps %xmm3, %xmm11, %xmm3
vshufps $0xff, %xmm1, %xmm1, %xmm5 # xmm5 = xmm1[3,3,3,3]
vmulps %xmm5, %xmm15, %xmm6
vsubps %xmm6, %xmm1, %xmm8
vshufps $0xff, %xmm0, %xmm0, %xmm9 # xmm9 = xmm0[3,3,3,3]
vmulps %xmm15, %xmm9, %xmm9
vmulps %xmm7, %xmm5, %xmm5
vaddps %xmm5, %xmm9, %xmm5
vsubps %xmm5, %xmm0, %xmm7
vaddps %xmm6, %xmm1, %xmm1
vaddps %xmm5, %xmm0, %xmm0
vshufps $0xff, %xmm2, %xmm2, %xmm5 # xmm5 = xmm2[3,3,3,3]
vmulps %xmm5, %xmm12, %xmm6
vsubps %xmm6, %xmm2, %xmm13
vshufps $0xff, %xmm4, %xmm4, %xmm9 # xmm9 = xmm4[3,3,3,3]
vmulps %xmm12, %xmm9, %xmm9
vmulps %xmm3, %xmm5, %xmm3
vaddps %xmm3, %xmm9, %xmm3
vsubps %xmm3, %xmm4, %xmm5
vaddps %xmm6, %xmm2, %xmm2
vaddps %xmm3, %xmm4, %xmm3
vbroadcastss 0x540ad(%rip), %xmm4 # 0x1ef1ebc
vmulps %xmm4, %xmm7, %xmm6
vaddps %xmm6, %xmm8, %xmm10
vmulps %xmm4, %xmm5, %xmm5
vsubps %xmm5, %xmm13, %xmm12
vmulps %xmm4, %xmm0, %xmm0
vaddps %xmm0, %xmm1, %xmm11
vmulps %xmm4, %xmm3, %xmm0
vsubps %xmm0, %xmm2, %xmm4
vmovaps (%rcx), %xmm6
vbroadcastss (%rdx), %xmm7
vsubps %xmm6, %xmm8, %xmm0
vmulps %xmm0, %xmm7, %xmm0
vbroadcastss %xmm0, %xmm14
vshufps $0x55, %xmm0, %xmm0, %xmm15 # xmm15 = xmm0[1,1,1,1]
vmovaps (%rsi), %xmm5
vshufps $0xaa, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[2,2,2,2]
vmovaps 0x10(%rsi), %xmm8
vmovaps 0x20(%rsi), %xmm9
vmulps %xmm0, %xmm9, %xmm3
vfmadd231ps %xmm15, %xmm8, %xmm3 # xmm3 = (xmm8 * xmm15) + xmm3
vfmadd231ps %xmm14, %xmm5, %xmm3 # xmm3 = (xmm5 * xmm14) + xmm3
vsubps %xmm6, %xmm10, %xmm0
vmulps %xmm0, %xmm7, %xmm0
vbroadcastss %xmm0, %xmm14
vshufps $0x55, %xmm0, %xmm0, %xmm15 # xmm15 = xmm0[1,1,1,1]
vshufps $0xaa, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[2,2,2,2]
vmulps %xmm0, %xmm9, %xmm10
vfmadd231ps %xmm15, %xmm8, %xmm10 # xmm10 = (xmm8 * xmm15) + xmm10
vfmadd231ps %xmm14, %xmm5, %xmm10 # xmm10 = (xmm5 * xmm14) + xmm10
vsubps %xmm6, %xmm12, %xmm0
vmulps %xmm0, %xmm7, %xmm0
vbroadcastss %xmm0, %xmm14
vshufps $0x55, %xmm0, %xmm0, %xmm15 # xmm15 = xmm0[1,1,1,1]
vshufps $0xaa, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[2,2,2,2]
vmulps %xmm0, %xmm9, %xmm12
vfmadd231ps %xmm15, %xmm8, %xmm12 # xmm12 = (xmm8 * xmm15) + xmm12
vfmadd231ps %xmm14, %xmm5, %xmm12 # xmm12 = (xmm5 * xmm14) + xmm12
vsubps %xmm6, %xmm13, %xmm0
vmulps %xmm0, %xmm7, %xmm0
vbroadcastss %xmm0, %xmm14
vshufps $0x55, %xmm0, %xmm0, %xmm15 # xmm15 = xmm0[1,1,1,1]
vshufps $0xaa, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[2,2,2,2]
vmulps %xmm0, %xmm9, %xmm13
vfmadd231ps %xmm15, %xmm8, %xmm13 # xmm13 = (xmm8 * xmm15) + xmm13
vfmadd231ps %xmm14, %xmm5, %xmm13 # xmm13 = (xmm5 * xmm14) + xmm13
vsubps %xmm6, %xmm1, %xmm0
vmulps %xmm0, %xmm7, %xmm0
vbroadcastss %xmm0, %xmm1
vshufps $0x55, %xmm0, %xmm0, %xmm14 # xmm14 = xmm0[1,1,1,1]
vshufps $0xaa, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[2,2,2,2]
vmulps %xmm0, %xmm9, %xmm31
vfmadd231ps %xmm14, %xmm8, %xmm31 # xmm31 = (xmm8 * xmm14) + xmm31
vfmadd231ps %xmm1, %xmm5, %xmm31 # xmm31 = (xmm5 * xmm1) + xmm31
vsubps %xmm6, %xmm11, %xmm1
vmulps %xmm1, %xmm7, %xmm1
vbroadcastss %xmm1, %xmm11
vshufps $0x55, %xmm1, %xmm1, %xmm14 # xmm14 = xmm1[1,1,1,1]
vshufps $0xaa, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,2,2,2]
vmulps %xmm1, %xmm9, %xmm22
vfmadd231ps %xmm14, %xmm8, %xmm22 # xmm22 = (xmm8 * xmm14) + xmm22
vfmadd231ps %xmm11, %xmm5, %xmm22 # xmm22 = (xmm5 * xmm11) + xmm22
vsubps %xmm6, %xmm4, %xmm4
vmulps %xmm4, %xmm7, %xmm4
vbroadcastss %xmm4, %xmm11
vshufps $0x55, %xmm4, %xmm4, %xmm14 # xmm14 = xmm4[1,1,1,1]
vshufps $0xaa, %xmm4, %xmm4, %xmm4 # xmm4 = xmm4[2,2,2,2]
vmulps %xmm4, %xmm9, %xmm20
vfmadd231ps %xmm14, %xmm8, %xmm20 # xmm20 = (xmm8 * xmm14) + xmm20
vfmadd231ps %xmm11, %xmm5, %xmm20 # xmm20 = (xmm5 * xmm11) + xmm20
vsubps %xmm6, %xmm2, %xmm2
vmulps %xmm2, %xmm7, %xmm2
vbroadcastss %xmm2, %xmm7
vshufps $0x55, %xmm2, %xmm2, %xmm11 # xmm11 = xmm2[1,1,1,1]
vshufps $0xaa, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[2,2,2,2]
vmulps %xmm2, %xmm9, %xmm6
vfmadd231ps %xmm11, %xmm8, %xmm6 # xmm6 = (xmm8 * xmm11) + xmm6
vfmadd231ps %xmm7, %xmm5, %xmm6 # xmm6 = (xmm5 * xmm7) + xmm6
vbroadcastss 0x74780(%rip), %ymm29 # 0x1f12704
vbroadcastss %xmm3, %ymm2
vpermps %ymm3, %ymm29, %ymm5
vbroadcastss 0x82f43(%rip), %ymm30 # 0x1f20edc
vpermps %ymm3, %ymm30, %ymm3
vbroadcastss %xmm10, %ymm17
vpermps %ymm10, %ymm29, %ymm1
vpermps %ymm10, %ymm30, %ymm0
vbroadcastss %xmm12, %ymm23
vpermps %ymm12, %ymm29, %ymm24
vpermps %ymm12, %ymm30, %ymm25
vbroadcastss %xmm13, %ymm26
vpermps %ymm13, %ymm29, %ymm27
leaq 0x28930e(%rip), %rcx # 0x21272e4
vmovups 0x1dc(%rcx), %ymm7
vmovups 0x660(%rcx), %ymm10
vpermps %ymm13, %ymm30, %ymm28
vmovups 0xae4(%rcx), %ymm13
vmovups 0xf68(%rcx), %ymm16
vmulps %ymm16, %ymm26, %ymm14
vmulps %ymm16, %ymm27, %ymm18
vmulps %ymm16, %ymm28, %ymm21
vfmadd231ps %ymm23, %ymm13, %ymm14 # ymm14 = (ymm13 * ymm23) + ymm14
vfmadd231ps %ymm24, %ymm13, %ymm18 # ymm18 = (ymm13 * ymm24) + ymm18
vfmadd231ps %ymm25, %ymm13, %ymm21 # ymm21 = (ymm13 * ymm25) + ymm21
vfmadd231ps %ymm17, %ymm10, %ymm14 # ymm14 = (ymm10 * ymm17) + ymm14
vfmadd231ps %ymm1, %ymm10, %ymm18 # ymm18 = (ymm10 * ymm1) + ymm18
vfmadd231ps %ymm0, %ymm10, %ymm21 # ymm21 = (ymm10 * ymm0) + ymm21
vfmadd231ps %ymm2, %ymm7, %ymm14 # ymm14 = (ymm7 * ymm2) + ymm14
vfmadd231ps %ymm5, %ymm7, %ymm18 # ymm18 = (ymm7 * ymm5) + ymm18
vmovups 0x13ec(%rcx), %ymm8
vmovups 0x1870(%rcx), %ymm12
vmovups 0x1cf4(%rcx), %ymm15
vmovups 0x2178(%rcx), %ymm19
vfmadd231ps %ymm3, %ymm7, %ymm21 # ymm21 = (ymm7 * ymm3) + ymm21
vmulps %ymm19, %ymm26, %ymm26
vmulps %ymm19, %ymm27, %ymm27
vmulps %ymm19, %ymm28, %ymm28
vfmadd231ps %ymm23, %ymm15, %ymm26 # ymm26 = (ymm15 * ymm23) + ymm26
vfmadd231ps %ymm24, %ymm15, %ymm27 # ymm27 = (ymm15 * ymm24) + ymm27
vfmadd231ps %ymm25, %ymm15, %ymm28 # ymm28 = (ymm15 * ymm25) + ymm28
vfmadd231ps %ymm17, %ymm12, %ymm26 # ymm26 = (ymm12 * ymm17) + ymm26
vfmadd231ps %ymm1, %ymm12, %ymm27 # ymm27 = (ymm12 * ymm1) + ymm27
vfmadd231ps %ymm0, %ymm12, %ymm28 # ymm28 = (ymm12 * ymm0) + ymm28
vfmadd231ps %ymm2, %ymm8, %ymm26 # ymm26 = (ymm8 * ymm2) + ymm26
vfmadd231ps %ymm5, %ymm8, %ymm27 # ymm27 = (ymm8 * ymm5) + ymm27
vfmadd231ps %ymm3, %ymm8, %ymm28 # ymm28 = (ymm8 * ymm3) + ymm28
vbroadcastss 0x83418(%rip), %ymm0 # 0x1f214d0
vmulps %ymm0, %ymm26, %ymm3
vmulps %ymm0, %ymm27, %ymm5
vmulps %ymm0, %ymm28, %ymm9
vxorps %xmm4, %xmm4, %xmm4
vblendps $0x1, %ymm4, %ymm3, %ymm11 # ymm11 = ymm4[0],ymm3[1,2,3,4,5,6,7]
vblendps $0x1, %ymm4, %ymm5, %ymm0 # ymm0 = ymm4[0],ymm5[1,2,3,4,5,6,7]
vblendps $0x1, %ymm4, %ymm9, %ymm1 # ymm1 = ymm4[0],ymm9[1,2,3,4,5,6,7]
vsubps %ymm11, %ymm14, %ymm11
vsubps %ymm0, %ymm18, %ymm0
vsubps %ymm1, %ymm21, %ymm1
vblendps $0x80, %ymm4, %ymm3, %ymm3 # ymm3 = ymm3[0,1,2,3,4,5,6],ymm4[7]
vblendps $0x80, %ymm4, %ymm5, %ymm5 # ymm5 = ymm5[0,1,2,3,4,5,6],ymm4[7]
vblendps $0x80, %ymm4, %ymm9, %ymm9 # ymm9 = ymm9[0,1,2,3,4,5,6],ymm4[7]
vaddps %ymm3, %ymm14, %ymm24
vaddps %ymm5, %ymm18, %ymm25
vaddps %ymm9, %ymm21, %ymm26
vbroadcastss 0x4d902(%rip), %ymm9 # 0x1eeba20
vminps %ymm14, %ymm9, %ymm3
vminps %ymm18, %ymm9, %ymm17
vminps %ymm21, %ymm9, %ymm23
vminps %ymm24, %ymm11, %ymm5
vminps %ymm5, %ymm3, %ymm5
vminps %ymm25, %ymm0, %ymm3
vminps %ymm3, %ymm17, %ymm3
vminps %ymm26, %ymm1, %ymm17
vminps %ymm17, %ymm23, %ymm17
vbroadcastss 0x4ea29(%rip), %ymm23 # 0x1eecb84
vmaxps %ymm14, %ymm23, %ymm14
vmaxps %ymm18, %ymm23, %ymm18
vmaxps %ymm21, %ymm23, %ymm27
vmaxps %ymm24, %ymm11, %ymm11
vmaxps %ymm11, %ymm14, %ymm21
vmaxps %ymm25, %ymm0, %ymm0
vmaxps %ymm0, %ymm18, %ymm18
vmaxps %ymm26, %ymm1, %ymm0
vmaxps %ymm0, %ymm27, %ymm14
vbroadcastss %xmm31, %ymm11
vpermps %ymm31, %ymm29, %ymm24
vpermps %ymm31, %ymm30, %ymm25
vbroadcastss %xmm22, %ymm26
vpermps %ymm22, %ymm29, %ymm27
vpermps %ymm22, %ymm30, %ymm22
vbroadcastss %xmm20, %ymm28
vpermps %ymm20, %ymm29, %ymm31
vpermps %ymm20, %ymm30, %ymm20
vbroadcastss %xmm6, %ymm2
vpermps %ymm6, %ymm29, %ymm29
vpermps %ymm6, %ymm30, %ymm30
vmulps %ymm16, %ymm2, %ymm0
vmulps %ymm16, %ymm29, %ymm1
vmulps %ymm16, %ymm30, %ymm6
vfmadd231ps %ymm28, %ymm13, %ymm0 # ymm0 = (ymm13 * ymm28) + ymm0
vfmadd231ps %ymm31, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm31) + ymm1
vfmadd231ps %ymm13, %ymm20, %ymm6 # ymm6 = (ymm20 * ymm13) + ymm6
vfmadd231ps %ymm26, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm26) + ymm0
vfmadd231ps %ymm27, %ymm10, %ymm1 # ymm1 = (ymm10 * ymm27) + ymm1
vfmadd231ps %ymm10, %ymm22, %ymm6 # ymm6 = (ymm22 * ymm10) + ymm6
vfmadd231ps %ymm11, %ymm7, %ymm0 # ymm0 = (ymm7 * ymm11) + ymm0
vfmadd231ps %ymm24, %ymm7, %ymm1 # ymm1 = (ymm7 * ymm24) + ymm1
vfmadd231ps %ymm7, %ymm25, %ymm6 # ymm6 = (ymm25 * ymm7) + ymm6
vmulps %ymm19, %ymm2, %ymm2
vmulps %ymm19, %ymm29, %ymm7
vmulps %ymm19, %ymm30, %ymm10
vfmadd231ps %ymm28, %ymm15, %ymm2 # ymm2 = (ymm15 * ymm28) + ymm2
vfmadd231ps %ymm31, %ymm15, %ymm7 # ymm7 = (ymm15 * ymm31) + ymm7
vfmadd231ps %ymm20, %ymm15, %ymm10 # ymm10 = (ymm15 * ymm20) + ymm10
vfmadd231ps %ymm26, %ymm12, %ymm2 # ymm2 = (ymm12 * ymm26) + ymm2
vfmadd231ps %ymm27, %ymm12, %ymm7 # ymm7 = (ymm12 * ymm27) + ymm7
vfmadd231ps %ymm22, %ymm12, %ymm10 # ymm10 = (ymm12 * ymm22) + ymm10
vfmadd231ps %ymm11, %ymm8, %ymm2 # ymm2 = (ymm8 * ymm11) + ymm2
vfmadd231ps %ymm24, %ymm8, %ymm7 # ymm7 = (ymm8 * ymm24) + ymm7
vfmadd231ps %ymm25, %ymm8, %ymm10 # ymm10 = (ymm8 * ymm25) + ymm10
vbroadcastss 0x83261(%rip), %ymm8 # 0x1f214d0
vmulps %ymm2, %ymm8, %ymm2
vmulps %ymm7, %ymm8, %ymm7
vmulps %ymm8, %ymm10, %ymm8
vblendps $0x1, %ymm4, %ymm2, %ymm10 # ymm10 = ymm4[0],ymm2[1,2,3,4,5,6,7]
vblendps $0x1, %ymm4, %ymm7, %ymm11 # ymm11 = ymm4[0],ymm7[1,2,3,4,5,6,7]
vblendps $0x1, %ymm4, %ymm8, %ymm12 # ymm12 = ymm4[0],ymm8[1,2,3,4,5,6,7]
vsubps %ymm10, %ymm0, %ymm10
vsubps %ymm11, %ymm1, %ymm11
vsubps %ymm12, %ymm6, %ymm12
vblendps $0x80, %ymm4, %ymm2, %ymm2 # ymm2 = ymm2[0,1,2,3,4,5,6],ymm4[7]
vblendps $0x80, %ymm4, %ymm7, %ymm7 # ymm7 = ymm7[0,1,2,3,4,5,6],ymm4[7]
vblendps $0x80, %ymm4, %ymm8, %ymm4 # ymm4 = ymm8[0,1,2,3,4,5,6],ymm4[7]
vaddps %ymm2, %ymm0, %ymm2
vaddps %ymm7, %ymm1, %ymm8
vaddps %ymm4, %ymm6, %ymm13
vminps %ymm0, %ymm9, %ymm4
vminps %ymm1, %ymm9, %ymm7
vminps %ymm6, %ymm9, %ymm9
vminps %ymm2, %ymm10, %ymm15
vminps %ymm15, %ymm4, %ymm15
vminps %ymm8, %ymm11, %ymm4
vminps %ymm4, %ymm7, %ymm7
vminps %ymm13, %ymm12, %ymm4
vminps %ymm4, %ymm9, %ymm4
vmaxps %ymm0, %ymm23, %ymm0
vmaxps %ymm1, %ymm23, %ymm1
vmaxps %ymm6, %ymm23, %ymm6
vmaxps %ymm2, %ymm10, %ymm2
vmaxps %ymm2, %ymm0, %ymm2
vmaxps %ymm8, %ymm11, %ymm0
vmaxps %ymm0, %ymm1, %ymm1
vmaxps %ymm13, %ymm12, %ymm0
vmaxps %ymm0, %ymm6, %ymm0
vshufps $0xb1, %ymm21, %ymm21, %ymm6 # ymm6 = ymm21[1,0,3,2,5,4,7,6]
vmaxps %ymm6, %ymm21, %ymm6
vshufpd $0x5, %ymm6, %ymm6, %ymm8 # ymm8 = ymm6[1,0,3,2]
vmaxps %ymm8, %ymm6, %ymm6
vextractf128 $0x1, %ymm6, %xmm8
vmaxps %xmm8, %xmm6, %xmm6
vshufps $0xb1, %ymm18, %ymm18, %ymm8 # ymm8 = ymm18[1,0,3,2,5,4,7,6]
vmaxps %ymm8, %ymm18, %ymm8
vshufpd $0x5, %ymm8, %ymm8, %ymm9 # ymm9 = ymm8[1,0,3,2]
vmaxps %ymm9, %ymm8, %ymm8
vextractf128 $0x1, %ymm8, %xmm9
vmaxps %xmm9, %xmm8, %xmm8
vunpcklps %xmm8, %xmm6, %xmm6 # xmm6 = xmm6[0],xmm8[0],xmm6[1],xmm8[1]
vshufps $0xb1, %ymm14, %ymm14, %ymm8 # ymm8 = ymm14[1,0,3,2,5,4,7,6]
vmaxps %ymm8, %ymm14, %ymm8
vshufpd $0x5, %ymm8, %ymm8, %ymm9 # ymm9 = ymm8[1,0,3,2]
vmaxps %ymm9, %ymm8, %ymm8
vextractf128 $0x1, %ymm8, %xmm9
vmaxps %xmm9, %xmm8, %xmm8
vinsertps $0x28, %xmm8, %xmm6, %xmm6 # xmm6 = xmm6[0,1],xmm8[0],zero
vshufps $0xb1, %ymm5, %ymm5, %ymm8 # ymm8 = ymm5[1,0,3,2,5,4,7,6]
vminps %ymm8, %ymm5, %ymm5
vshufpd $0x5, %ymm5, %ymm5, %ymm8 # ymm8 = ymm5[1,0,3,2]
vminps %ymm8, %ymm5, %ymm5
vextractf128 $0x1, %ymm5, %xmm8
vminps %xmm8, %xmm5, %xmm5
vshufps $0xb1, %ymm3, %ymm3, %ymm8 # ymm8 = ymm3[1,0,3,2,5,4,7,6]
vminps %ymm8, %ymm3, %ymm3
vshufpd $0x5, %ymm3, %ymm3, %ymm8 # ymm8 = ymm3[1,0,3,2]
vminps %ymm8, %ymm3, %ymm3
vextractf128 $0x1, %ymm3, %xmm8
vminps %xmm8, %xmm3, %xmm3
vunpcklps %xmm3, %xmm5, %xmm3 # xmm3 = xmm5[0],xmm3[0],xmm5[1],xmm3[1]
vshufps $0xb1, %ymm17, %ymm17, %ymm5 # ymm5 = ymm17[1,0,3,2,5,4,7,6]
vminps %ymm5, %ymm17, %ymm5
vshufpd $0x5, %ymm5, %ymm5, %ymm8 # ymm8 = ymm5[1,0,3,2]
vminps %ymm8, %ymm5, %ymm5
vextractf128 $0x1, %ymm5, %xmm8
vminps %xmm8, %xmm5, %xmm5
vinsertps $0x28, %xmm5, %xmm3, %xmm3 # xmm3 = xmm3[0,1],xmm5[0],zero
vshufps $0xb1, %ymm15, %ymm15, %ymm5 # ymm5 = ymm15[1,0,3,2,5,4,7,6]
vminps %ymm5, %ymm15, %ymm5
vshufpd $0x5, %ymm5, %ymm5, %ymm8 # ymm8 = ymm5[1,0,3,2]
vminps %ymm8, %ymm5, %ymm5
vextractf128 $0x1, %ymm5, %xmm8
vminps %xmm8, %xmm5, %xmm5
vshufps $0xb1, %ymm7, %ymm7, %ymm8 # ymm8 = ymm7[1,0,3,2,5,4,7,6]
vminps %ymm8, %ymm7, %ymm7
vshufpd $0x5, %ymm7, %ymm7, %ymm8 # ymm8 = ymm7[1,0,3,2]
vminps %ymm8, %ymm7, %ymm7
vextractf128 $0x1, %ymm7, %xmm8
vminps %xmm8, %xmm7, %xmm7
vunpcklps %xmm7, %xmm5, %xmm5 # xmm5 = xmm5[0],xmm7[0],xmm5[1],xmm7[1]
vshufps $0xb1, %ymm4, %ymm4, %ymm7 # ymm7 = ymm4[1,0,3,2,5,4,7,6]
vminps %ymm7, %ymm4, %ymm4
vshufpd $0x5, %ymm4, %ymm4, %ymm7 # ymm7 = ymm4[1,0,3,2]
vminps %ymm7, %ymm4, %ymm4
vextractf128 $0x1, %ymm4, %xmm7
vminps %xmm7, %xmm4, %xmm4
vinsertps $0x28, %xmm4, %xmm5, %xmm4 # xmm4 = xmm5[0,1],xmm4[0],zero
vminps %xmm4, %xmm3, %xmm3
vshufps $0xb1, %ymm2, %ymm2, %ymm4 # ymm4 = ymm2[1,0,3,2,5,4,7,6]
vmaxps %ymm4, %ymm2, %ymm2
vshufpd $0x5, %ymm2, %ymm2, %ymm4 # ymm4 = ymm2[1,0,3,2]
vmaxps %ymm4, %ymm2, %ymm2
vextractf128 $0x1, %ymm2, %xmm4
vmaxps %xmm4, %xmm2, %xmm2
vshufps $0xb1, %ymm1, %ymm1, %ymm4 # ymm4 = ymm1[1,0,3,2,5,4,7,6]
vmaxps %ymm4, %ymm1, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm4 # ymm4 = ymm1[1,0,3,2]
vmaxps %ymm4, %ymm1, %ymm1
vextractf128 $0x1, %ymm1, %xmm4
vmaxps %xmm4, %xmm1, %xmm1
vunpcklps %xmm1, %xmm2, %xmm1 # xmm1 = xmm2[0],xmm1[0],xmm2[1],xmm1[1]
vshufps $0xb1, %ymm0, %ymm0, %ymm2 # ymm2 = ymm0[1,0,3,2,5,4,7,6]
vmaxps %ymm2, %ymm0, %ymm0
vshufpd $0x5, %ymm0, %ymm0, %ymm2 # ymm2 = ymm0[1,0,3,2]
vmaxps %ymm2, %ymm0, %ymm0
vextractf128 $0x1, %ymm0, %xmm2
vmaxps %xmm2, %xmm0, %xmm0
vinsertps $0x28, %xmm0, %xmm1, %xmm0 # xmm0 = xmm1[0,1],xmm0[0],zero
vmaxps %xmm0, %xmm6, %xmm0
vbroadcastss 0x82a08(%rip), %xmm1 # 0x1f20ec4
vandps %xmm1, %xmm3, %xmm2
vandps %xmm1, %xmm0, %xmm1
vmaxps %xmm1, %xmm2, %xmm1
vmovshdup %xmm1, %xmm2 # xmm2 = xmm1[1,1,3,3]
vmaxss %xmm1, %xmm2, %xmm2
vshufpd $0x1, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[1,0]
vmaxss %xmm2, %xmm1, %xmm1
vmulss 0x52b03(%rip), %xmm1, %xmm1 # 0x1ef0fe4
vbroadcastss %xmm1, %xmm1
vsubps %xmm1, %xmm3, %xmm2
vaddps %xmm1, %xmm0, %xmm0
vmovaps %xmm2, (%rax)
vmovaps %xmm0, 0x10(%rax)
popq %rbx
popq %r12
popq %r13
popq %r14
popq %r15
vzeroupper
retq
|
/embree[P]embree/kernels/common/scene_curves.cpp
|
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)1, embree::avx512::CurveGeometryInterface, embree::CatmullRomCurveT>::createPrimRefArrayMB(embree::PrimRef*, embree::BBox<float> const&, embree::range<unsigned long> const&, unsigned long, unsigned int) const
|
PrimInfo createPrimRefArrayMB(PrimRef* prims, const BBox1f& time_range, const range<size_t>& r, size_t k, unsigned int geomID) const
{
PrimInfo pinfo(empty);
const BBox1f t0t1 = BBox1f::intersect(this->time_range, time_range);
if (t0t1.empty()) return pinfo;
for (size_t j=r.begin(); j<r.end(); j++)
{
if (!valid(ctype, j, this->timeSegmentRange(t0t1))) continue;
const LBBox3fa lbounds = linearBounds(j,t0t1);
if (lbounds.bounds0.empty() || lbounds.bounds1.empty()) continue; // checks oriented curves with invalid normals which cause NaNs here
const PrimRef prim(lbounds.bounds(),geomID,unsigned(j));
pinfo.add_primref(prim);
prims[k++] = prim;
}
return pinfo;
}
|
pushq %rbp
pushq %r15
pushq %r14
pushq %r13
pushq %r12
pushq %rbx
subq $0x1d8, %rsp # imm = 0x1D8
movq %rdi, %rax
vbroadcastss 0x4cdc7(%rip), %xmm0 # 0x1eeba20
vmovaps %xmm0, (%rdi)
vbroadcastss 0x4df1e(%rip), %xmm1 # 0x1eecb84
vmovaps %xmm1, 0x10(%rdi)
movq %rdx, 0xe0(%rsp)
vmovaps %xmm0, 0x20(%rdi)
vmovaps %xmm1, 0x30(%rdi)
vxorps %xmm0, %xmm0, %xmm0
vmovaps %xmm0, 0x40(%rdi)
vmovsd 0x2c(%rsi), %xmm0
vmovsd (%rcx), %xmm1
vcmpltps %xmm1, %xmm0, %k1
vinsertps $0x50, %xmm0, %xmm1, %xmm2 # xmm2 = xmm1[0],xmm0[1],xmm1[2,3]
vinsertps $0x50, %xmm1, %xmm0, %xmm4 # xmm4 = xmm0[0],xmm1[1],xmm0[2,3]
vmovaps %xmm2, %xmm4 {%k1}
vmovshdup %xmm4, %xmm5 # xmm5 = xmm4[1,1,3,3]
vucomiss %xmm5, %xmm4
ja 0x1e9f3fb
movq %r9, 0x40(%rsp)
vmovaps (%rax), %xmm0
vmovaps %xmm0, 0xa0(%rsp)
vmovaps 0x10(%rax), %xmm0
vmovaps 0x20(%rax), %xmm1
vmovaps %xmm1, 0x80(%rsp)
movq (%r8), %r14
vmovaps 0x30(%rax), %xmm1
vmovaps %xmm1, 0x70(%rsp)
movq %rax, 0xd8(%rsp)
movq 0x48(%rax), %rax
cmpq 0x8(%r8), %r14
vmovaps %xmm0, 0x90(%rsp)
movq %rax, 0x38(%rsp)
jae 0x1e9f3b6
vmovss 0x51c2b(%rip), %xmm6 # 0x1ef0940
vxorps %xmm7, %xmm7, %xmm7
vmovss 0x51c23(%rip), %xmm8 # 0x1ef0944
leaq 0xf0(%rsp), %r12
vbroadcastss 0x82192(%rip), %xmm9 # 0x1f20ec4
vmovss 0x522a6(%rip), %xmm10 # 0x1ef0fe0
vbroadcastss 0x826b9(%rip), %xmm11 # 0x1f213fc
vbroadcastss 0x52294(%rip), %xmm12 # 0x1ef0fe0
movq %r8, 0x48(%rsp)
vmovaps %xmm4, 0x150(%rsp)
vmovaps %xmm5, 0x140(%rsp)
movq %rsi, 0x10(%rsp)
vmovsd 0x2c(%rsi), %xmm0
vmovshdup %xmm0, %xmm1 # xmm1 = xmm0[1,1,3,3]
vsubss %xmm0, %xmm1, %xmm1
vsubss %xmm0, %xmm4, %xmm2
vdivss %xmm1, %xmm2, %xmm2
vsubss %xmm0, %xmm5, %xmm0
vdivss %xmm1, %xmm0, %xmm0
vmulss %xmm6, %xmm2, %xmm1
vmulss %xmm0, %xmm8, %xmm0
movq 0x58(%rsi), %rax
movq 0x68(%rsi), %rcx
imulq %r14, %rcx
movl (%rax,%rcx), %eax
leal 0x3(%rax), %ecx
movq 0x188(%rsi), %r10
cmpq %rcx, 0x18(%r10)
jbe 0x1e9f3a9
vmovss 0x28(%rsi), %xmm3
vmulss %xmm1, %xmm3, %xmm1
vroundss $0x9, %xmm1, %xmm1, %xmm1
vmaxss %xmm1, %xmm7, %xmm1
vcvttss2si %xmm1, %edx
vmulss %xmm0, %xmm3, %xmm0
vroundss $0xa, %xmm0, %xmm0, %xmm0
vminss %xmm3, %xmm0, %xmm0
vcvttss2si %xmm0, %esi
cmpl %esi, %edx
seta %dil
ja 0x1e9ef1a
movslq %edx, %rdx
movslq %esi, %rsi
leal 0x1(%rax), %r8d
leal 0x2(%rax), %r9d
imulq $0x38, %rdx, %r11
addq %r11, %r10
addq $0x10, %r10
movq -0x10(%r10), %r11
movq (%r10), %rbx
movq %rbx, %rbp
imulq %rax, %rbp
vmovss 0xc(%r11,%rbp), %xmm0
vandps %xmm0, %xmm9, %xmm0
vucomiss %xmm0, %xmm10
jbe 0x1e9ef10
movq %rbx, %r13
imulq %r8, %r13
vmovss 0xc(%r11,%r13), %xmm0
vandps %xmm0, %xmm9, %xmm0
vucomiss %xmm0, %xmm10
jbe 0x1e9ef10
movq %rbx, %r15
imulq %r9, %r15
vmovss 0xc(%r11,%r15), %xmm0
vandps %xmm0, %xmm9, %xmm0
vucomiss %xmm0, %xmm10
jbe 0x1e9ef10
imulq %rcx, %rbx
vmovss 0xc(%r11,%rbx), %xmm0
vandps %xmm0, %xmm9, %xmm0
vucomiss %xmm0, %xmm10
jbe 0x1e9ef10
vmovaps (%r11,%rbp), %xmm0
vcmpnleps %xmm11, %xmm0, %k1
vcmpltps %xmm12, %xmm0, %k0 {%k1}
knotw %k0, %k0
kmovd %k0, %ebp
testb $0x7, %bpl
jne 0x1e9ef10
vmovaps (%r11,%r13), %xmm0
vcmpnleps %xmm11, %xmm0, %k1
vcmpltps %xmm12, %xmm0, %k0 {%k1}
knotw %k0, %k0
kmovd %k0, %ebp
testb $0x7, %bpl
jne 0x1e9ef10
vmovaps (%r11,%r15), %xmm0
vcmpnleps %xmm11, %xmm0, %k1
vcmpltps %xmm12, %xmm0, %k0 {%k1}
knotw %k0, %k0
kmovd %k0, %ebp
testb $0x7, %bpl
jne 0x1e9ef10
vmovaps (%r11,%rbx), %xmm0
vcmpnleps %xmm11, %xmm0, %k1
vcmpltps %xmm12, %xmm0, %k0 {%k1}
knotw %k0, %k0
kmovd %k0, %r11d
testb $0x7, %r11b
jne 0x1e9ef10
incq %rdx
addq $0x38, %r10
cmpq %rsi, %rdx
seta %dil
jbe 0x1e9edfe
jmp 0x1e9ef1a
testb $0x1, %dil
je 0x1e9f39f
movq %r14, 0xe8(%rsp)
leaq 0xe8(%rsp), %rax
movq %rax, 0xf0(%rsp)
movq 0x10(%rsp), %rax
movq %rax, 0xf8(%rsp)
vmovss 0x2c(%rax), %xmm0
vmovss 0x30(%rax), %xmm1
vsubss %xmm0, %xmm4, %xmm2
vsubss %xmm0, %xmm1, %xmm1
vdivss %xmm1, %xmm2, %xmm2
vsubss %xmm0, %xmm5, %xmm0
vdivss %xmm1, %xmm0, %xmm0
vmovss %xmm2, 0xc(%rsp)
vmulss %xmm2, %xmm3, %xmm2
vmovss %xmm2, 0x20(%rsp)
vmovss %xmm0, 0xb0(%rsp)
vmulss %xmm0, %xmm3, %xmm1
vroundss $0x9, %xmm2, %xmm2, %xmm0
vmovss %xmm1, 0x60(%rsp)
vroundss $0xa, %xmm1, %xmm1, %xmm1
vmaxss %xmm7, %xmm0, %xmm4
vmovss %xmm4, 0xc0(%rsp)
vminss %xmm3, %xmm1, %xmm2
vcvttss2si %xmm4, %ebp
vmovss %xmm2, 0x50(%rsp)
vcvttss2si %xmm2, %r13d
vcvttss2si %xmm0, %ebx
testl %ebx, %ebx
movl $0xffffffff, %eax # imm = 0xFFFFFFFF
cmovsl %eax, %ebx
vcvttss2si %xmm1, %eax
vmovss %xmm3, 0x1c(%rsp)
vcvttss2si %xmm3, %r15d
incl %r15d
cmpl %r15d, %eax
cmovll %eax, %r15d
movslq %ebp, %rdx
leaq 0x120(%rsp), %rdi
movq %r12, %rsi
callq 0x1ea2016
movslq %r13d, %rdx
leaq 0x100(%rsp), %rdi
movq %r12, %rsi
callq 0x1ea2016
movl %r15d, %eax
subl %ebx, %eax
vmovss 0x20(%rsp), %xmm0
vsubss 0xc0(%rsp), %xmm0, %xmm0
cmpl $0x1, %eax
jne 0x1e9f0a0
vxorps %xmm7, %xmm7, %xmm7
vmaxss %xmm7, %xmm0, %xmm0
vmovss 0x4d6f0(%rip), %xmm6 # 0x1eec714
vsubss %xmm0, %xmm6, %xmm1
vbroadcastss %xmm0, %xmm0
vmovaps 0x100(%rsp), %xmm2
vmovaps 0x110(%rsp), %xmm3
vmulps %xmm2, %xmm0, %xmm13
vbroadcastss %xmm1, %xmm1
vmovaps 0x120(%rsp), %xmm4
vmovaps 0x130(%rsp), %xmm5
vfmadd231ps %xmm4, %xmm1, %xmm13 # xmm13 = (xmm1 * xmm4) + xmm13
vmulps %xmm3, %xmm0, %xmm14
vfmadd231ps %xmm1, %xmm5, %xmm14 # xmm14 = (xmm5 * xmm1) + xmm14
vmovss 0x50(%rsp), %xmm0
vsubss 0x60(%rsp), %xmm0, %xmm0
vmaxss %xmm7, %xmm0, %xmm0
vsubss %xmm0, %xmm6, %xmm1
vbroadcastss %xmm0, %xmm0
vmulps %xmm4, %xmm0, %xmm15
vbroadcastss %xmm1, %xmm1
vfmadd231ps %xmm2, %xmm1, %xmm15 # xmm15 = (xmm1 * xmm2) + xmm15
vmulps %xmm5, %xmm0, %xmm16
vfmadd231ps %xmm3, %xmm1, %xmm16 # xmm16 = (xmm1 * xmm3) + xmm16
jmp 0x1e9f27b
incl %ebp
movslq %ebp, %rdx
leaq 0x1b0(%rsp), %rdi
movq %r12, %rsi
vmovss %xmm0, 0x20(%rsp)
callq 0x1ea2016
decl %r13d
movslq %r13d, %rdx
leaq 0x190(%rsp), %rdi
movq %r12, %rsi
callq 0x1ea2016
vxorps %xmm3, %xmm3, %xmm3
vmovss 0x20(%rsp), %xmm0
vmaxss %xmm3, %xmm0, %xmm0
vbroadcastss %xmm0, %xmm1
vmulps 0x1b0(%rsp), %xmm1, %xmm13
vmovss 0x4d61f(%rip), %xmm2 # 0x1eec714
vsubss %xmm0, %xmm2, %xmm0
vbroadcastss %xmm0, %xmm0
vfmadd231ps 0x120(%rsp), %xmm0, %xmm13 # xmm13 = (xmm0 * mem) + xmm13
vmulps 0x1c0(%rsp), %xmm1, %xmm14
vfmadd231ps 0x130(%rsp), %xmm0, %xmm14 # xmm14 = (xmm0 * mem) + xmm14
vmovss 0x50(%rsp), %xmm0
vsubss 0x60(%rsp), %xmm0, %xmm0
vmaxss %xmm3, %xmm0, %xmm0
vsubss %xmm0, %xmm2, %xmm1
vbroadcastss %xmm0, %xmm0
vmulps 0x190(%rsp), %xmm0, %xmm15
vbroadcastss %xmm1, %xmm1
vfmadd231ps 0x100(%rsp), %xmm1, %xmm15 # xmm15 = (xmm1 * mem) + xmm15
vmulps 0x1a0(%rsp), %xmm0, %xmm16
vfmadd231ps 0x110(%rsp), %xmm1, %xmm16 # xmm16 = (xmm1 * mem) + xmm16
leal 0x1(%rbx), %eax
cmpl %r15d, %eax
jge 0x1e9f277
vmovss 0xc(%rsp), %xmm1
vmovss 0xb0(%rsp), %xmm0
vsubss %xmm1, %xmm0, %xmm0
vmovss %xmm0, 0x18(%rsp)
movl %eax, %r13d
notl %ebx
addl %r15d, %ebx
leaq 0x170(%rsp), %r15
vmovaps %xmm16, 0xc0(%rsp)
vmovaps %xmm15, 0x20(%rsp)
vmovaps %xmm14, 0x50(%rsp)
vmovaps %xmm13, 0x60(%rsp)
vcvtsi2ss %r13d, %xmm5, %xmm0
vdivss 0x1c(%rsp), %xmm0, %xmm0
vsubss %xmm1, %xmm0, %xmm0
vdivss 0x18(%rsp), %xmm0, %xmm0
vsubss %xmm0, %xmm2, %xmm1
vbroadcastss %xmm0, %xmm0
vmulps %xmm0, %xmm15, %xmm2
vbroadcastss %xmm1, %xmm1
vfmadd231ps %xmm13, %xmm1, %xmm2 # xmm2 = (xmm1 * xmm13) + xmm2
vmovaps %xmm2, 0xb0(%rsp)
vmulps %xmm0, %xmm16, %xmm0
vfmadd231ps %xmm1, %xmm14, %xmm0 # xmm0 = (xmm14 * xmm1) + xmm0
vmovaps %xmm0, 0x160(%rsp)
movq %r15, %rdi
movq %r12, %rsi
movq %r13, %rdx
callq 0x1ea2016
vmovaps 0xc0(%rsp), %xmm16
vmovaps 0x20(%rsp), %xmm15
vmovaps 0x50(%rsp), %xmm14
vmovaps 0x60(%rsp), %xmm13
vxorps %xmm3, %xmm3, %xmm3
vmovss 0x4d4ec(%rip), %xmm2 # 0x1eec714
vmovaps 0x170(%rsp), %xmm0
vsubps 0xb0(%rsp), %xmm0, %xmm0
vmovaps 0x180(%rsp), %xmm1
vsubps 0x160(%rsp), %xmm1, %xmm1
vminps %xmm3, %xmm0, %xmm0
vmaxps %xmm3, %xmm1, %xmm1
vaddps %xmm0, %xmm13, %xmm13
vaddps %xmm0, %xmm15, %xmm15
vaddps %xmm1, %xmm14, %xmm14
vaddps %xmm1, %xmm16, %xmm16
vmovss 0xc(%rsp), %xmm1
incq %r13
decl %ebx
jne 0x1e9f191
vxorps %xmm7, %xmm7, %xmm7
vcmpleps %xmm14, %xmm13, %k0
knotw %k0, %k0
kmovd %k0, %eax
testb $0x7, %al
movq 0x48(%rsp), %r8
vmovaps 0x150(%rsp), %xmm4
vmovaps 0x140(%rsp), %xmm5
vmovss 0x51695(%rip), %xmm6 # 0x1ef0940
vmovss 0x51691(%rip), %xmm8 # 0x1ef0944
movq 0x10(%rsp), %rsi
vbroadcastss 0x81c03(%rip), %xmm9 # 0x1f20ec4
vmovss 0x51d17(%rip), %xmm10 # 0x1ef0fe0
vbroadcastss 0x8212a(%rip), %xmm11 # 0x1f213fc
vbroadcastss 0x51d05(%rip), %xmm12 # 0x1ef0fe0
jne 0x1e9f3a9
vcmpleps %xmm16, %xmm15, %k0
knotw %k0, %k0
kmovd %k0, %eax
testb $0x7, %al
jne 0x1e9f3a9
vminps %xmm15, %xmm13, %xmm0
vmovss 0x210(%rsp), %xmm1
vinsertps $0x30, %xmm1, %xmm0, %xmm0 # xmm0 = xmm0[0,1,2],xmm1[0]
vmaxps %xmm16, %xmm14, %xmm1
vmovd %r14d, %xmm2
vinsertps $0x30, %xmm2, %xmm1, %xmm1 # xmm1 = xmm1[0,1,2],xmm2[0]
vaddps %xmm1, %xmm0, %xmm2
vmovaps 0xa0(%rsp), %xmm3
vminps %xmm0, %xmm3, %xmm3
vmovaps %xmm3, 0xa0(%rsp)
vmovaps 0x90(%rsp), %xmm3
vmaxps %xmm1, %xmm3, %xmm3
vmovaps %xmm3, 0x90(%rsp)
vmovaps 0x80(%rsp), %xmm3
vminps %xmm2, %xmm3, %xmm3
vmovaps %xmm3, 0x80(%rsp)
vmovaps 0x70(%rsp), %xmm3
vmaxps %xmm2, %xmm3, %xmm3
vmovaps %xmm3, 0x70(%rsp)
incq 0x38(%rsp)
movq 0x40(%rsp), %rdx
leaq 0x1(%rdx), %rax
shlq $0x5, %rdx
movq 0xe0(%rsp), %rcx
vmovaps %xmm0, (%rcx,%rdx)
vmovaps %xmm1, 0x10(%rcx,%rdx)
movq %rax, 0x40(%rsp)
jmp 0x1e9f3a9
movq 0x48(%rsp), %r8
movq 0x10(%rsp), %rsi
incq %r14
cmpq 0x8(%r8), %r14
jb 0x1e9ed68
movq 0xd8(%rsp), %rax
vmovaps 0xa0(%rsp), %xmm0
vmovaps %xmm0, (%rax)
vmovaps 0x90(%rsp), %xmm0
vmovaps %xmm0, 0x10(%rax)
vmovaps 0x80(%rsp), %xmm0
vmovaps %xmm0, 0x20(%rax)
vmovaps 0x70(%rsp), %xmm0
vmovaps %xmm0, 0x30(%rax)
movq 0x38(%rsp), %rcx
movq %rcx, 0x48(%rax)
addq $0x1d8, %rsp # imm = 0x1D8
popq %rbx
popq %r12
popq %r13
popq %r14
popq %r15
popq %rbp
retq
nop
|
/embree[P]embree/kernels/common/scene_curves.cpp
|
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)1, embree::avx512::CurveGeometryInterface, embree::CatmullRomCurveT>::computeAlignedSpace(unsigned long) const
|
LinearSpace3fa computeAlignedSpace(const size_t primID) const
{
Vec3fa axisz(0,0,1);
Vec3fa axisy(0,1,0);
const Curve3ff curve = getCurveScaledRadius(primID);
const Vec3fa p0 = curve.begin();
const Vec3fa p3 = curve.end();
const Vec3fa d0 = curve.eval_du(0.0f);
//const Vec3fa d1 = curve.eval_du(1.0f);
const Vec3fa axisz_ = normalize(p3 - p0);
const Vec3fa axisy_ = cross(axisz_,d0);
if (sqr_length(p3-p0) > 1E-18f) {
axisz = axisz_;
axisy = axisy_;
}
if (sqr_length(axisy) > 1E-18) {
axisy = normalize(axisy);
Vec3fa axisx = normalize(cross(axisy,axisz));
return LinearSpace3fa(axisx,axisy,axisz);
}
return frame(axisz);
}
|
movq %rdi, %rax
imulq 0x68(%rsi), %rdx
movq 0x58(%rsi), %rcx
movq 0x188(%rsi), %rdi
movl (%rcx,%rdx), %r8d
movq (%rdi), %rcx
movq 0x10(%rdi), %r9
leal 0x1(%r8), %r10d
leal 0x2(%r8), %r11d
leal 0x3(%r8), %edx
movq %r8, %rdi
imulq %r9, %r10
vmovaps (%rcx,%r10), %xmm0
imulq %r9, %r11
vmovaps (%rcx,%r11), %xmm2
imulq %r9, %rdi
imulq %r9, %rdx
vmovss 0x24c(%rsi), %xmm4
vmulss 0xc(%rcx,%r10), %xmm4, %xmm1
vinsertps $0x30, %xmm1, %xmm0, %xmm1 # xmm1 = xmm0[0,1,2],xmm1[0]
vmulss 0xc(%rcx,%r11), %xmm4, %xmm0
vinsertps $0x30, %xmm0, %xmm2, %xmm2 # xmm2 = xmm2[0,1,2],xmm0[0]
vxorps %xmm3, %xmm3, %xmm3
vsubps %xmm1, %xmm2, %xmm0
vdpps $0x7f, %xmm0, %xmm0, %xmm5
vmovss %xmm5, %xmm3, %xmm6 # xmm6 = xmm5[0],xmm3[1,2,3]
vrsqrt14ss %xmm6, %xmm3, %xmm6
vmulss 0x4c999(%rip), %xmm6, %xmm7 # 0x1eec718
vmulss 0x4c995(%rip), %xmm5, %xmm8 # 0x1eec71c
vmulss %xmm6, %xmm8, %xmm8
vmulss %xmm6, %xmm6, %xmm6
vmulss %xmm6, %xmm8, %xmm6
vaddss %xmm6, %xmm7, %xmm6
vbroadcastss %xmm6, %xmm6
vmulps %xmm6, %xmm0, %xmm0
vucomiss 0x51240(%rip), %xmm5 # 0x1ef0fe8
ja 0x1e9fdb6
vmovsd 0x4c93e(%rip), %xmm1 # 0x1eec6f0
jbe 0x1e9fe0e
jmp 0x1e9fe16
vmovaps (%rcx,%rdi), %xmm5
vmovaps (%rcx,%rdx), %xmm6
vmulss 0xc(%rcx,%rdi), %xmm4, %xmm7
vinsertps $0x30, %xmm7, %xmm5, %xmm5 # xmm5 = xmm5[0,1,2],xmm7[0]
vmulss 0xc(%rcx,%rdx), %xmm4, %xmm4
vinsertps $0x30, %xmm4, %xmm6, %xmm4 # xmm4 = xmm6[0,1,2],xmm4[0]
vmulps %xmm3, %xmm4, %xmm4
vbroadcastss 0x4c937(%rip), %xmm6 # 0x1eec71c
vfnmadd213ps %xmm4, %xmm6, %xmm2 # xmm2 = -(xmm6 * xmm2) + xmm4
vfmadd213ps %xmm2, %xmm3, %xmm1 # xmm1 = (xmm3 * xmm1) + xmm2
vfmadd231ps %xmm5, %xmm6, %xmm1 # xmm1 = (xmm6 * xmm5) + xmm1
vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3]
vmulps %xmm3, %xmm1, %xmm1
vfmsub231ps %xmm2, %xmm0, %xmm1 # xmm1 = (xmm0 * xmm2) - xmm1
vshufps $0xc9, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[1,2,0,3]
ja 0x1e9fe16
vmovaps 0x4c8ea(%rip), %xmm0 # 0x1eec700
vdpps $0x7f, %xmm1, %xmm1, %xmm2
vcvtss2sd %xmm2, %xmm2, %xmm3
vucomisd 0x511e8(%rip), %xmm3 # 0x1ef1010
jbe 0x1e9febb
vxorps %xmm3, %xmm3, %xmm3
vmovss %xmm2, %xmm3, %xmm4 # xmm4 = xmm2[0],xmm3[1,2,3]
vrsqrt14ss %xmm4, %xmm3, %xmm4
vmovss 0x4c8d4(%rip), %xmm5 # 0x1eec718
vmulss %xmm5, %xmm4, %xmm6
vmovss 0x4cd30(%rip), %xmm7 # 0x1eecb80
vmulss %xmm7, %xmm2, %xmm2
vmulss %xmm4, %xmm2, %xmm2
vmulss %xmm4, %xmm4, %xmm4
vmulss %xmm4, %xmm2, %xmm2
vsubss %xmm2, %xmm6, %xmm2
vbroadcastss %xmm2, %xmm2
vmulps %xmm2, %xmm1, %xmm1
vshufps $0xc9, %xmm0, %xmm0, %xmm2 # xmm2 = xmm0[1,2,0,3]
vshufps $0xc9, %xmm1, %xmm1, %xmm4 # xmm4 = xmm1[1,2,0,3]
vmulps %xmm4, %xmm0, %xmm4
vfmsub231ps %xmm2, %xmm1, %xmm4 # xmm4 = (xmm1 * xmm2) - xmm4
vshufps $0xc9, %xmm4, %xmm4, %xmm2 # xmm2 = xmm4[1,2,0,3]
vdpps $0x7f, %xmm2, %xmm2, %xmm4
vmovss %xmm4, %xmm3, %xmm6 # xmm6 = xmm4[0],xmm3[1,2,3]
vrsqrt14ss %xmm6, %xmm3, %xmm3
vmulss %xmm5, %xmm3, %xmm5
vmulss %xmm7, %xmm4, %xmm4
vmulss %xmm3, %xmm4, %xmm4
vmulss %xmm3, %xmm3, %xmm3
vmulss %xmm3, %xmm4, %xmm3
vsubss %xmm3, %xmm5, %xmm3
vbroadcastss %xmm3, %xmm3
vmulps %xmm2, %xmm3, %xmm2
jmp 0x1e9ffaa
vshufpd $0x1, %xmm0, %xmm0, %xmm1 # xmm1 = xmm0[1,0]
vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3]
vbroadcastss 0x80ff3(%rip), %xmm3 # 0x1f20ec0
vxorps %xmm3, %xmm2, %xmm2
vxorps %xmm4, %xmm4, %xmm4
vunpckhps %xmm4, %xmm0, %xmm5 # xmm5 = xmm0[2],xmm4[2],xmm0[3],xmm4[3]
vmovss %xmm2, %xmm4, %xmm2 # xmm2 = xmm2[0],xmm4[1,2,3]
vshufps $0x41, %xmm2, %xmm5, %xmm2 # xmm2 = xmm5[1,0],xmm2[0,1]
vdpps $0x7f, %xmm2, %xmm2, %xmm5
vxorpd %xmm3, %xmm1, %xmm1
vinsertps $0x2a, %xmm0, %xmm1, %xmm1 # xmm1 = xmm1[0],zero,xmm0[0],zero
vdpps $0x7f, %xmm1, %xmm1, %xmm3
vcmpltps %xmm5, %xmm3, %k0
vpmovm2d %k0, %xmm3
vpbroadcastd %xmm3, %xmm3
vpmovd2m %xmm3, %k1
vpcmpeqd %xmm3, %xmm3, %xmm3
vmovaps %xmm3, %xmm3 {%k1} {z}
vblendvps %xmm3, %xmm2, %xmm1, %xmm1
vdpps $0x7f, %xmm1, %xmm1, %xmm2
vmovss %xmm2, %xmm4, %xmm3 # xmm3 = xmm2[0],xmm4[1,2,3]
vrsqrt14ss %xmm3, %xmm4, %xmm3
vmovss 0x4c7e0(%rip), %xmm5 # 0x1eec718
vmulss %xmm5, %xmm3, %xmm6
vmovss 0x4cc3c(%rip), %xmm7 # 0x1eecb80
vmulss %xmm7, %xmm2, %xmm2
vmulss %xmm3, %xmm2, %xmm2
vmulss %xmm3, %xmm3, %xmm3
vmulss %xmm3, %xmm2, %xmm2
vsubss %xmm2, %xmm6, %xmm2
vbroadcastss %xmm2, %xmm2
vmulps %xmm2, %xmm1, %xmm2
vshufps $0xc9, %xmm2, %xmm2, %xmm1 # xmm1 = xmm2[1,2,0,3]
vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3]
vmulps %xmm3, %xmm2, %xmm3
vfmsub231ps %xmm1, %xmm0, %xmm3 # xmm3 = (xmm0 * xmm1) - xmm3
vshufps $0xc9, %xmm3, %xmm3, %xmm1 # xmm1 = xmm3[1,2,0,3]
vdpps $0x7f, %xmm1, %xmm1, %xmm3
vmovss %xmm3, %xmm4, %xmm6 # xmm6 = xmm3[0],xmm4[1,2,3]
vrsqrt14ss %xmm6, %xmm4, %xmm4
vmulss %xmm5, %xmm4, %xmm5
vmulss %xmm7, %xmm3, %xmm3
vmulss %xmm4, %xmm3, %xmm3
vmulss %xmm4, %xmm4, %xmm4
vmulss %xmm4, %xmm3, %xmm3
vsubss %xmm3, %xmm5, %xmm3
vbroadcastss %xmm3, %xmm3
vmulps %xmm1, %xmm3, %xmm1
vmovaps %xmm2, (%rax)
vmovaps %xmm1, 0x10(%rax)
vmovaps %xmm0, 0x20(%rax)
retq
nop
|
/embree[P]embree/kernels/common/scene_curves.cpp
|
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)1, embree::avx512::CurveGeometryInterface, embree::CatmullRomCurveT>::computeAlignedSpaceMB(unsigned long, embree::BBox<float>) const
|
LinearSpace3fa computeAlignedSpaceMB(const size_t primID, const BBox1f time_range) const
{
Vec3fa axisz(0,0,1);
Vec3fa axisy(0,1,0);
const range<int> tbounds = this->timeSegmentRange(time_range);
if (tbounds.size() == 0) return frame(axisz);
const size_t t = (tbounds.begin()+tbounds.end())/2;
const Curve3ff curve = getCurveScaledRadius(primID,t);
const Vec3fa p0 = curve.begin();
const Vec3fa p3 = curve.end();
const Vec3fa d0 = curve.eval_du(0.0f);
//const Vec3fa d1 = curve.eval_du(1.0f);
const Vec3fa axisz_ = normalize(p3 - p0);
const Vec3fa axisy_ = cross(axisz_,d0);
if (sqr_length(p3-p0) > 1E-18f) {
axisz = axisz_;
axisy = axisy_;
}
if (sqr_length(axisy) > 1E-18) {
axisy = normalize(axisy);
Vec3fa axisx = normalize(cross(axisy,axisz));
return LinearSpace3fa(axisx,axisy,axisz);
}
return frame(axisz);
}
|
movq %rdi, %rax
vmovsd 0x2c(%rsi), %xmm1
vmovss 0x28(%rsi), %xmm2
vsubss %xmm1, %xmm0, %xmm3
vmovshdup %xmm1, %xmm4 # xmm4 = xmm1[1,1,3,3]
vsubss %xmm1, %xmm4, %xmm4
vdivss %xmm4, %xmm3, %xmm3
vmovshdup %xmm0, %xmm0 # xmm0 = xmm0[1,1,3,3]
vsubss %xmm1, %xmm0, %xmm0
vdivss %xmm4, %xmm0, %xmm0
vmulss 0x50955(%rip), %xmm3, %xmm1 # 0x1ef0940
vmulss %xmm1, %xmm2, %xmm1
vroundss $0x9, %xmm1, %xmm1, %xmm1
vxorps %xmm3, %xmm3, %xmm3
vmaxss %xmm1, %xmm3, %xmm1
vcvttss2si %xmm1, %ecx
vmulss 0x5093b(%rip), %xmm0, %xmm0 # 0x1ef0944
vmulss %xmm0, %xmm2, %xmm0
vroundss $0xa, %xmm0, %xmm0, %xmm0
vminss %xmm2, %xmm0, %xmm0
vcvttss2si %xmm0, %edi
cmpl %ecx, %edi
jne 0x1ea0101
vmovaps 0x814b5(%rip), %xmm0 # 0x1f214e0
vdpps $0x7f, %xmm0, %xmm0, %xmm1
vmovss 0x50993(%rip), %xmm2 # 0x1ef09cc
vdpps $0x7f, %xmm2, %xmm2, %xmm3
vcmpltps %xmm1, %xmm3, %k0
vpmovm2d %k0, %xmm1
vpbroadcastd %xmm1, %xmm1
vpmovd2m %xmm1, %k1
vpcmpeqd %xmm1, %xmm1, %xmm1
vmovaps %xmm1, %xmm1 {%k1} {z}
vblendvps %xmm1, %xmm0, %xmm2, %xmm0
vxorps %xmm2, %xmm2, %xmm2
vdpps $0x7f, %xmm0, %xmm0, %xmm1
vmovss %xmm1, %xmm2, %xmm3 # xmm3 = xmm1[0],xmm2[1,2,3]
vrsqrt14ss %xmm3, %xmm2, %xmm3
vmovss 0x4c695(%rip), %xmm4 # 0x1eec718
vmulss %xmm4, %xmm3, %xmm5
vmovss 0x4caf1(%rip), %xmm6 # 0x1eecb80
vmulss %xmm6, %xmm1, %xmm1
vmulss %xmm3, %xmm1, %xmm1
vmulss %xmm3, %xmm3, %xmm3
vmulss %xmm3, %xmm1, %xmm1
vsubss %xmm1, %xmm5, %xmm1
vbroadcastss %xmm1, %xmm1
vmulps %xmm1, %xmm0, %xmm1
vshufps $0xc9, %xmm1, %xmm1, %xmm3 # xmm3 = xmm1[1,2,0,3]
vmulps 0x50eb7(%rip), %xmm1, %xmm5 # 0x1ef0f70
vmovaps 0x4c63f(%rip), %xmm0 # 0x1eec700
vfmadd231ps %xmm3, %xmm0, %xmm5 # xmm5 = (xmm0 * xmm3) + xmm5
vshufps $0xc9, %xmm5, %xmm5, %xmm3 # xmm3 = xmm5[1,2,0,3]
vdpps $0x7f, %xmm3, %xmm3, %xmm5
vmovss %xmm5, %xmm2, %xmm7 # xmm7 = xmm5[0],xmm2[1,2,3]
vrsqrt14ss %xmm7, %xmm2, %xmm2
vmulss %xmm4, %xmm2, %xmm4
vmulss %xmm6, %xmm5, %xmm5
vmulss %xmm2, %xmm5, %xmm5
vmulss %xmm2, %xmm2, %xmm2
vmulss %xmm2, %xmm5, %xmm2
vsubss %xmm2, %xmm4, %xmm2
vbroadcastss %xmm2, %xmm2
vmulps %xmm3, %xmm2, %xmm2
jmp 0x1ea03c3
addl %edi, %ecx
movl %ecx, %edi
shrl $0x1f, %edi
addl %ecx, %edi
sarl %edi
movslq %edi, %rcx
imulq 0x68(%rsi), %rdx
movq 0x58(%rsi), %rdi
movq 0x188(%rsi), %r8
movl (%rdi,%rdx), %edi
imulq $0x38, %rcx, %rdx
movq (%r8,%rdx), %rcx
movq 0x10(%r8,%rdx), %r8
leal 0x1(%rdi), %r9d
leal 0x2(%rdi), %r10d
leal 0x3(%rdi), %edx
imulq %r8, %r9
vmovaps (%rcx,%r9), %xmm0
imulq %r8, %r10
vmovaps (%rcx,%r10), %xmm2
imulq %r8, %rdi
imulq %r8, %rdx
vmovss 0x24c(%rsi), %xmm4
vmulss 0xc(%rcx,%r9), %xmm4, %xmm1
vinsertps $0x30, %xmm1, %xmm0, %xmm1 # xmm1 = xmm0[0,1,2],xmm1[0]
vmulss 0xc(%rcx,%r10), %xmm4, %xmm0
vinsertps $0x30, %xmm0, %xmm2, %xmm2 # xmm2 = xmm2[0,1,2],xmm0[0]
vxorps %xmm3, %xmm3, %xmm3
vsubps %xmm1, %xmm2, %xmm0
vdpps $0x7f, %xmm0, %xmm0, %xmm5
vmovss %xmm5, %xmm3, %xmm6 # xmm6 = xmm5[0],xmm3[1,2,3]
vrsqrt14ss %xmm6, %xmm3, %xmm6
vmulss 0x4c580(%rip), %xmm6, %xmm7 # 0x1eec718
vmulss 0x4c57c(%rip), %xmm5, %xmm8 # 0x1eec71c
vmulss %xmm6, %xmm8, %xmm8
vmulss %xmm6, %xmm6, %xmm6
vmulss %xmm6, %xmm8, %xmm6
vaddss %xmm6, %xmm7, %xmm6
vbroadcastss %xmm6, %xmm6
vmulps %xmm6, %xmm0, %xmm0
vucomiss 0x50e27(%rip), %xmm5 # 0x1ef0fe8
ja 0x1ea01cf
vmovsd 0x4c525(%rip), %xmm1 # 0x1eec6f0
jbe 0x1ea0227
jmp 0x1ea022f
vmovaps (%rcx,%rdi), %xmm5
vmovaps (%rcx,%rdx), %xmm6
vmulss 0xc(%rcx,%rdi), %xmm4, %xmm7
vinsertps $0x30, %xmm7, %xmm5, %xmm5 # xmm5 = xmm5[0,1,2],xmm7[0]
vmulss 0xc(%rcx,%rdx), %xmm4, %xmm4
vinsertps $0x30, %xmm4, %xmm6, %xmm4 # xmm4 = xmm6[0,1,2],xmm4[0]
vmulps %xmm3, %xmm4, %xmm4
vbroadcastss 0x4c51e(%rip), %xmm6 # 0x1eec71c
vfnmadd213ps %xmm4, %xmm6, %xmm2 # xmm2 = -(xmm6 * xmm2) + xmm4
vfmadd213ps %xmm2, %xmm3, %xmm1 # xmm1 = (xmm3 * xmm1) + xmm2
vfmadd231ps %xmm5, %xmm6, %xmm1 # xmm1 = (xmm6 * xmm5) + xmm1
vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3]
vmulps %xmm3, %xmm1, %xmm1
vfmsub231ps %xmm2, %xmm0, %xmm1 # xmm1 = (xmm0 * xmm2) - xmm1
vshufps $0xc9, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[1,2,0,3]
ja 0x1ea022f
vmovaps 0x4c4d1(%rip), %xmm0 # 0x1eec700
vdpps $0x7f, %xmm1, %xmm1, %xmm2
vcvtss2sd %xmm2, %xmm2, %xmm3
vucomisd 0x50dcf(%rip), %xmm3 # 0x1ef1010
jbe 0x1ea02d4
vxorps %xmm3, %xmm3, %xmm3
vmovss %xmm2, %xmm3, %xmm4 # xmm4 = xmm2[0],xmm3[1,2,3]
vrsqrt14ss %xmm4, %xmm3, %xmm4
vmovss 0x4c4bb(%rip), %xmm5 # 0x1eec718
vmulss %xmm5, %xmm4, %xmm6
vmovss 0x4c917(%rip), %xmm7 # 0x1eecb80
vmulss %xmm7, %xmm2, %xmm2
vmulss %xmm4, %xmm2, %xmm2
vmulss %xmm4, %xmm4, %xmm4
vmulss %xmm4, %xmm2, %xmm2
vsubss %xmm2, %xmm6, %xmm2
vbroadcastss %xmm2, %xmm2
vmulps %xmm2, %xmm1, %xmm2
vshufps $0xc9, %xmm0, %xmm0, %xmm1 # xmm1 = xmm0[1,2,0,3]
vshufps $0xc9, %xmm2, %xmm2, %xmm4 # xmm4 = xmm2[1,2,0,3]
vmulps %xmm4, %xmm0, %xmm4
vfmsub231ps %xmm1, %xmm2, %xmm4 # xmm4 = (xmm2 * xmm1) - xmm4
vshufps $0xc9, %xmm4, %xmm4, %xmm1 # xmm1 = xmm4[1,2,0,3]
vdpps $0x7f, %xmm1, %xmm1, %xmm4
vmovss %xmm4, %xmm3, %xmm6 # xmm6 = xmm4[0],xmm3[1,2,3]
vrsqrt14ss %xmm6, %xmm3, %xmm3
vmulss %xmm5, %xmm3, %xmm5
vmulss %xmm7, %xmm4, %xmm4
vmulss %xmm3, %xmm4, %xmm4
vmulss %xmm3, %xmm3, %xmm3
vmulss %xmm3, %xmm4, %xmm3
vsubss %xmm3, %xmm5, %xmm3
vbroadcastss %xmm3, %xmm3
vmulps %xmm1, %xmm3, %xmm1
jmp 0x1ea03c3
vshufpd $0x1, %xmm0, %xmm0, %xmm1 # xmm1 = xmm0[1,0]
vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3]
vbroadcastss 0x80bda(%rip), %xmm3 # 0x1f20ec0
vxorps %xmm3, %xmm2, %xmm2
vxorps %xmm4, %xmm4, %xmm4
vunpckhps %xmm4, %xmm0, %xmm5 # xmm5 = xmm0[2],xmm4[2],xmm0[3],xmm4[3]
vmovss %xmm2, %xmm4, %xmm2 # xmm2 = xmm2[0],xmm4[1,2,3]
vshufps $0x41, %xmm2, %xmm5, %xmm2 # xmm2 = xmm5[1,0],xmm2[0,1]
vdpps $0x7f, %xmm2, %xmm2, %xmm5
vxorpd %xmm3, %xmm1, %xmm1
vinsertps $0x2a, %xmm0, %xmm1, %xmm1 # xmm1 = xmm1[0],zero,xmm0[0],zero
vdpps $0x7f, %xmm1, %xmm1, %xmm3
vcmpltps %xmm5, %xmm3, %k0
vpmovm2d %k0, %xmm3
vpbroadcastd %xmm3, %xmm3
vpmovd2m %xmm3, %k1
vpcmpeqd %xmm3, %xmm3, %xmm3
vmovaps %xmm3, %xmm3 {%k1} {z}
vblendvps %xmm3, %xmm2, %xmm1, %xmm1
vdpps $0x7f, %xmm1, %xmm1, %xmm2
vmovss %xmm2, %xmm4, %xmm3 # xmm3 = xmm2[0],xmm4[1,2,3]
vrsqrt14ss %xmm3, %xmm4, %xmm3
vmovss 0x4c3c7(%rip), %xmm5 # 0x1eec718
vmulss %xmm5, %xmm3, %xmm6
vmovss 0x4c823(%rip), %xmm7 # 0x1eecb80
vmulss %xmm7, %xmm2, %xmm2
vmulss %xmm3, %xmm2, %xmm2
vmulss %xmm3, %xmm3, %xmm3
vmulss %xmm3, %xmm2, %xmm2
vsubss %xmm2, %xmm6, %xmm2
vbroadcastss %xmm2, %xmm2
vmulps %xmm2, %xmm1, %xmm1
vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3]
vmulps %xmm3, %xmm1, %xmm3
vfmsub231ps %xmm2, %xmm0, %xmm3 # xmm3 = (xmm0 * xmm2) - xmm3
vshufps $0xc9, %xmm3, %xmm3, %xmm2 # xmm2 = xmm3[1,2,0,3]
vdpps $0x7f, %xmm2, %xmm2, %xmm3
vmovss %xmm3, %xmm4, %xmm6 # xmm6 = xmm3[0],xmm4[1,2,3]
vrsqrt14ss %xmm6, %xmm4, %xmm4
vmulss %xmm5, %xmm4, %xmm5
vmulss %xmm7, %xmm3, %xmm3
vmulss %xmm4, %xmm3, %xmm3
vmulss %xmm4, %xmm4, %xmm4
vmulss %xmm4, %xmm3, %xmm3
vsubss %xmm3, %xmm5, %xmm3
vbroadcastss %xmm3, %xmm3
vmulps %xmm2, %xmm3, %xmm2
vmovaps %xmm1, (%rax)
vmovaps %xmm2, 0x10(%rax)
vmovaps %xmm0, 0x20(%rax)
retq
|
/embree[P]embree/kernels/common/scene_curves.cpp
|
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)1, embree::avx512::CurveGeometryInterface, embree::CatmullRomCurveT>::computeDirection(unsigned int) const
|
Vec3fa computeDirection(unsigned int primID) const
{
const Curve3ff c = getCurveScaledRadius(primID);
const Vec3fa p0 = c.begin();
const Vec3fa p3 = c.end();
const Vec3fa axis1 = p3 - p0;
return axis1;
}
|
movl %edx, %eax
imulq 0x68(%rsi), %rax
movq 0x58(%rsi), %rcx
movq 0x188(%rsi), %rdx
movl (%rcx,%rax), %ecx
movq (%rdx), %r8
movq 0x10(%rdx), %rax
leal 0x1(%rcx), %edx
imulq %rax, %rdx
vmovaps (%r8,%rdx), %xmm0
addl $0x2, %ecx
imulq %rax, %rcx
vmovaps (%r8,%rcx), %xmm1
movq %rdi, %rax
vmovss 0x24c(%rsi), %xmm2
vmulss 0xc(%r8,%rdx), %xmm2, %xmm3
vinsertps $0x30, %xmm3, %xmm0, %xmm0 # xmm0 = xmm0[0,1,2],xmm3[0]
vmulss 0xc(%r8,%rcx), %xmm2, %xmm2
vinsertps $0x30, %xmm2, %xmm1, %xmm1 # xmm1 = xmm1[0,1,2],xmm2[0]
vsubps %xmm0, %xmm1, %xmm0
vmovaps %xmm0, (%rdi)
retq
|
/embree[P]embree/kernels/common/scene_curves.cpp
|
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)1, embree::avx512::CurveGeometryInterface, embree::CatmullRomCurveT>::computeDirection(unsigned int, unsigned long) const
|
Vec3fa computeDirection(unsigned int primID, size_t time) const
{
const Curve3ff c = getCurveScaledRadius(primID,time);
const Vec3fa p0 = c.begin();
const Vec3fa p3 = c.end();
const Vec3fa axis1 = p3 - p0;
return axis1;
}
|
movl %edx, %eax
imulq 0x68(%rsi), %rax
movq 0x58(%rsi), %rdx
movq 0x188(%rsi), %r8
movl (%rdx,%rax), %edx
imulq $0x38, %rcx, %rax
movq (%r8,%rax), %rcx
movq 0x10(%r8,%rax), %rax
leal 0x1(%rdx), %r8d
imulq %rax, %r8
vmovaps (%rcx,%r8), %xmm0
addl $0x2, %edx
imulq %rax, %rdx
vmovaps (%rcx,%rdx), %xmm1
movq %rdi, %rax
vmovss 0x24c(%rsi), %xmm2
vmulss 0xc(%rcx,%r8), %xmm2, %xmm3
vinsertps $0x30, %xmm3, %xmm0, %xmm0 # xmm0 = xmm0[0,1,2],xmm3[0]
vmulss 0xc(%rcx,%rdx), %xmm2, %xmm2
vinsertps $0x30, %xmm2, %xmm1, %xmm1 # xmm1 = xmm1[0,1,2],xmm2[0]
vsubps %xmm0, %xmm1, %xmm0
vmovaps %xmm0, (%rdi)
retq
nop
|
/embree[P]embree/kernels/common/scene_curves.cpp
|
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)1, embree::avx512::CurveGeometryInterface, embree::CatmullRomCurveT>::vbounds(unsigned long) const
|
BBox3fa vbounds(size_t i) const {
return bounds(i);
}
|
movq %rdi, %rax
imulq 0x68(%rsi), %rdx
movq 0x58(%rsi), %rcx
movq 0x188(%rsi), %rdi
movl (%rcx,%rdx), %edx
movq (%rdi), %rcx
movq 0x10(%rdi), %rdi
leal 0x1(%rdx), %r8d
leal 0x2(%rdx), %r9d
leal 0x3(%rdx), %r10d
imulq %rdi, %rdx
imulq %rdi, %r8
imulq %rdi, %r9
imulq %rdi, %r10
vmovss 0x24c(%rsi), %xmm0
vmulss 0xc(%rcx,%rdx), %xmm0, %xmm1
vmulss 0xc(%rcx,%r8), %xmm0, %xmm2
vmulss 0xc(%rcx,%r9), %xmm0, %xmm3
vmulss 0xc(%rcx,%r10), %xmm0, %xmm0
vbroadcastss (%rcx,%rdx), %ymm7
vbroadcastss 0x4(%rcx,%rdx), %ymm5
vbroadcastss 0x8(%rcx,%rdx), %ymm4
vbroadcastss (%rcx,%r8), %ymm11
vbroadcastss 0x4(%rcx,%r8), %ymm10
vbroadcastss 0x8(%rcx,%r8), %ymm8
vbroadcastss %xmm1, %ymm6
vbroadcastss %xmm2, %ymm9
vbroadcastss (%rcx,%r9), %ymm12
vbroadcastss 0x4(%rcx,%r9), %ymm13
vbroadcastss 0x8(%rcx,%r9), %ymm14
vbroadcastss (%rcx,%r10), %ymm15
vbroadcastss 0x4(%rcx,%r10), %ymm16
vbroadcastss %xmm3, %ymm17
vbroadcastss 0x8(%rcx,%r10), %ymm18
leaq 0x28fe07(%rip), %rcx # 0x213036c
vmovups 0x1dc(%rcx), %ymm19
vmovups 0x660(%rcx), %ymm20
vmovups 0xae4(%rcx), %ymm21
vmovups 0xf68(%rcx), %ymm3
vbroadcastss %xmm0, %ymm22
vmulps %ymm3, %ymm15, %ymm0
vmulps %ymm3, %ymm16, %ymm1
vmulps %ymm3, %ymm18, %ymm2
vmulps %ymm3, %ymm22, %ymm3
vfmadd231ps %ymm12, %ymm21, %ymm0 # ymm0 = (ymm21 * ymm12) + ymm0
vfmadd231ps %ymm13, %ymm21, %ymm1 # ymm1 = (ymm21 * ymm13) + ymm1
vfmadd231ps %ymm14, %ymm21, %ymm2 # ymm2 = (ymm21 * ymm14) + ymm2
vfmadd231ps %ymm21, %ymm17, %ymm3 # ymm3 = (ymm17 * ymm21) + ymm3
vfmadd231ps %ymm11, %ymm20, %ymm0 # ymm0 = (ymm20 * ymm11) + ymm0
vfmadd231ps %ymm10, %ymm20, %ymm1 # ymm1 = (ymm20 * ymm10) + ymm1
vfmadd231ps %ymm8, %ymm20, %ymm2 # ymm2 = (ymm20 * ymm8) + ymm2
vfmadd231ps %ymm20, %ymm9, %ymm3 # ymm3 = (ymm9 * ymm20) + ymm3
vfmadd231ps %ymm7, %ymm19, %ymm0 # ymm0 = (ymm19 * ymm7) + ymm0
vfmadd231ps %ymm5, %ymm19, %ymm1 # ymm1 = (ymm19 * ymm5) + ymm1
vfmadd231ps %ymm4, %ymm19, %ymm2 # ymm2 = (ymm19 * ymm4) + ymm2
vmovups 0x13ec(%rcx), %ymm20
vmovups 0x1870(%rcx), %ymm21
vmovups 0x1cf4(%rcx), %ymm23
vmovups 0x2178(%rcx), %ymm24
vfmadd231ps %ymm19, %ymm6, %ymm3 # ymm3 = (ymm6 * ymm19) + ymm3
vmulps %ymm24, %ymm15, %ymm15
vmulps %ymm24, %ymm16, %ymm16
vmulps %ymm24, %ymm18, %ymm18
vmulps %ymm24, %ymm22, %ymm19
vfmadd231ps %ymm12, %ymm23, %ymm15 # ymm15 = (ymm23 * ymm12) + ymm15
vfmadd231ps %ymm13, %ymm23, %ymm16 # ymm16 = (ymm23 * ymm13) + ymm16
vfmadd231ps %ymm14, %ymm23, %ymm18 # ymm18 = (ymm23 * ymm14) + ymm18
vfmadd231ps %ymm17, %ymm23, %ymm19 # ymm19 = (ymm23 * ymm17) + ymm19
vfmadd231ps %ymm11, %ymm21, %ymm15 # ymm15 = (ymm21 * ymm11) + ymm15
vfmadd231ps %ymm10, %ymm21, %ymm16 # ymm16 = (ymm21 * ymm10) + ymm16
vfmadd231ps %ymm8, %ymm21, %ymm18 # ymm18 = (ymm21 * ymm8) + ymm18
vfmadd231ps %ymm9, %ymm21, %ymm19 # ymm19 = (ymm21 * ymm9) + ymm19
vfmadd231ps %ymm7, %ymm20, %ymm15 # ymm15 = (ymm20 * ymm7) + ymm15
vfmadd231ps %ymm5, %ymm20, %ymm16 # ymm16 = (ymm20 * ymm5) + ymm16
vfmadd231ps %ymm4, %ymm20, %ymm18 # ymm18 = (ymm20 * ymm4) + ymm18
vbroadcastss 0x80e59(%rip), %ymm4 # 0x1f214d0
vfmadd231ps %ymm6, %ymm20, %ymm19 # ymm19 = (ymm20 * ymm6) + ymm19
vmulps %ymm4, %ymm15, %ymm5
vmulps %ymm4, %ymm16, %ymm6
vmulps %ymm4, %ymm18, %ymm7
vmulps %ymm4, %ymm19, %ymm4
vxorps %xmm8, %xmm8, %xmm8
vblendps $0x1, %ymm8, %ymm5, %ymm9 # ymm9 = ymm8[0],ymm5[1,2,3,4,5,6,7]
vblendps $0x1, %ymm8, %ymm6, %ymm10 # ymm10 = ymm8[0],ymm6[1,2,3,4,5,6,7]
vblendps $0x1, %ymm8, %ymm7, %ymm11 # ymm11 = ymm8[0],ymm7[1,2,3,4,5,6,7]
vblendps $0x1, %ymm8, %ymm4, %ymm12 # ymm12 = ymm8[0],ymm4[1,2,3,4,5,6,7]
vsubps %ymm9, %ymm0, %ymm9
vsubps %ymm10, %ymm1, %ymm10
vsubps %ymm11, %ymm2, %ymm11
vsubps %ymm12, %ymm3, %ymm12
vblendps $0x80, %ymm8, %ymm5, %ymm5 # ymm5 = ymm5[0,1,2,3,4,5,6],ymm8[7]
vblendps $0x80, %ymm8, %ymm6, %ymm6 # ymm6 = ymm6[0,1,2,3,4,5,6],ymm8[7]
vblendps $0x80, %ymm8, %ymm7, %ymm7 # ymm7 = ymm7[0,1,2,3,4,5,6],ymm8[7]
vblendps $0x80, %ymm8, %ymm4, %ymm4 # ymm4 = ymm4[0,1,2,3,4,5,6],ymm8[7]
vaddps %ymm5, %ymm0, %ymm5
vaddps %ymm6, %ymm1, %ymm6
vaddps %ymm7, %ymm2, %ymm7
vaddps %ymm4, %ymm3, %ymm4
vbroadcastss 0x4b32b(%rip), %ymm8 # 0x1eeba20
vminps %ymm0, %ymm8, %ymm13
vminps %ymm1, %ymm8, %ymm14
vminps %ymm2, %ymm8, %ymm15
vminps %ymm3, %ymm8, %ymm8
vminps %ymm5, %ymm9, %ymm16
vminps %ymm16, %ymm13, %ymm13
vminps %ymm6, %ymm10, %ymm16
vminps %ymm16, %ymm14, %ymm14
vminps %ymm7, %ymm11, %ymm16
vminps %ymm16, %ymm15, %ymm15
vminps %ymm4, %ymm12, %ymm16
vminps %ymm16, %ymm8, %ymm8
vbroadcastss 0x4c445(%rip), %ymm16 # 0x1eecb84
vmaxps %ymm0, %ymm16, %ymm0
vmaxps %ymm1, %ymm16, %ymm1
vmaxps %ymm2, %ymm16, %ymm2
vmaxps %ymm3, %ymm16, %ymm3
vmaxps %ymm5, %ymm9, %ymm5
vmaxps %ymm5, %ymm0, %ymm0
vmaxps %ymm6, %ymm10, %ymm5
vmaxps %ymm5, %ymm1, %ymm1
vmaxps %ymm7, %ymm11, %ymm5
vmaxps %ymm5, %ymm2, %ymm2
vmaxps %ymm4, %ymm12, %ymm4
vmaxps %ymm4, %ymm3, %ymm3
vshufps $0xb1, %ymm13, %ymm13, %ymm4 # ymm4 = ymm13[1,0,3,2,5,4,7,6]
vminps %ymm4, %ymm13, %ymm4
vshufpd $0x5, %ymm4, %ymm4, %ymm5 # ymm5 = ymm4[1,0,3,2]
vminps %ymm5, %ymm4, %ymm4
vextractf128 $0x1, %ymm4, %xmm5
vminps %xmm5, %xmm4, %xmm4
vshufps $0xb1, %ymm14, %ymm14, %ymm5 # ymm5 = ymm14[1,0,3,2,5,4,7,6]
vminps %ymm5, %ymm14, %ymm5
vshufpd $0x5, %ymm5, %ymm5, %ymm6 # ymm6 = ymm5[1,0,3,2]
vminps %ymm6, %ymm5, %ymm5
vextractf128 $0x1, %ymm5, %xmm6
vminps %xmm6, %xmm5, %xmm5
vunpcklps %xmm5, %xmm4, %xmm4 # xmm4 = xmm4[0],xmm5[0],xmm4[1],xmm5[1]
vshufps $0xb1, %ymm15, %ymm15, %ymm5 # ymm5 = ymm15[1,0,3,2,5,4,7,6]
vminps %ymm5, %ymm15, %ymm5
vshufpd $0x5, %ymm5, %ymm5, %ymm6 # ymm6 = ymm5[1,0,3,2]
vminps %ymm6, %ymm5, %ymm5
vextractf128 $0x1, %ymm5, %xmm6
vminps %xmm6, %xmm5, %xmm5
vinsertps $0x28, %xmm5, %xmm4, %xmm4 # xmm4 = xmm4[0,1],xmm5[0],zero
vshufps $0xb1, %ymm0, %ymm0, %ymm5 # ymm5 = ymm0[1,0,3,2,5,4,7,6]
vmaxps %ymm5, %ymm0, %ymm0
vshufpd $0x5, %ymm0, %ymm0, %ymm5 # ymm5 = ymm0[1,0,3,2]
vmaxps %ymm5, %ymm0, %ymm0
vextractf128 $0x1, %ymm0, %xmm5
vmaxps %xmm5, %xmm0, %xmm0
vshufps $0xb1, %ymm1, %ymm1, %ymm5 # ymm5 = ymm1[1,0,3,2,5,4,7,6]
vmaxps %ymm5, %ymm1, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm5 # ymm5 = ymm1[1,0,3,2]
vmaxps %ymm5, %ymm1, %ymm1
vextractf128 $0x1, %ymm1, %xmm5
vmaxps %xmm5, %xmm1, %xmm1
vunpcklps %xmm1, %xmm0, %xmm0 # xmm0 = xmm0[0],xmm1[0],xmm0[1],xmm1[1]
vshufps $0xb1, %ymm2, %ymm2, %ymm1 # ymm1 = ymm2[1,0,3,2,5,4,7,6]
vmaxps %ymm1, %ymm2, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vmaxps %ymm2, %ymm1, %ymm1
vextractf128 $0x1, %ymm1, %xmm2
vmaxps %xmm2, %xmm1, %xmm1
vinsertps $0x28, %xmm1, %xmm0, %xmm0 # xmm0 = xmm0[0,1],xmm1[0],zero
vshufps $0xb1, %ymm8, %ymm8, %ymm1 # ymm1 = ymm8[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm8, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vextractf128 $0x1, %ymm1, %xmm2
vminss %xmm2, %xmm1, %xmm1
vshufps $0xb1, %ymm3, %ymm3, %ymm2 # ymm2 = ymm3[1,0,3,2,5,4,7,6]
vmaxps %ymm2, %ymm3, %ymm2
vshufpd $0x5, %ymm2, %ymm2, %ymm3 # ymm3 = ymm2[1,0,3,2]
vmaxps %ymm3, %ymm2, %ymm2
vextractf128 $0x1, %ymm2, %xmm3
vmaxss %xmm3, %xmm2, %xmm2
vbroadcastss 0x8064c(%rip), %xmm3 # 0x1f20ec4
vandps %xmm3, %xmm1, %xmm1
vandps %xmm3, %xmm2, %xmm2
vmaxss %xmm1, %xmm2, %xmm1
vbroadcastss %xmm1, %xmm1
vsubps %xmm1, %xmm4, %xmm2
vaddps %xmm1, %xmm0, %xmm0
vandps %xmm3, %xmm2, %xmm1
vandps %xmm3, %xmm0, %xmm3
vmaxps %xmm3, %xmm1, %xmm1
vmovshdup %xmm1, %xmm3 # xmm3 = xmm1[1,1,3,3]
vmaxss %xmm1, %xmm3, %xmm3
vshufpd $0x1, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[1,0]
vmaxss %xmm3, %xmm1, %xmm1
vmulss 0x5072e(%rip), %xmm1, %xmm1 # 0x1ef0fe4
vbroadcastss %xmm1, %xmm1
vsubps %xmm1, %xmm2, %xmm2
vaddps %xmm1, %xmm0, %xmm0
vmovaps %xmm2, (%rax)
vmovaps %xmm0, 0x10(%rax)
vzeroupper
retq
|
/embree[P]embree/kernels/common/scene_curves.cpp
|
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)1, embree::avx512::CurveGeometryInterface, embree::CatmullRomCurveT>::vbounds(embree::LinearSpace3<embree::Vec3fa> const&, unsigned long) const
|
BBox3fa vbounds(const LinearSpace3fa& space, size_t i) const {
return bounds(space,i);
}
|
movq %rdi, %rax
imulq 0x68(%rsi), %rcx
movq 0x58(%rsi), %rdi
movq 0x188(%rsi), %r8
movl (%rdi,%rcx), %r10d
movq (%r8), %rcx
movq 0x10(%r8), %r11
leal 0x1(%r10), %r9d
leal 0x2(%r10), %r8d
leal 0x3(%r10), %edi
imulq %r11, %r10
imulq %r11, %r9
imulq %r11, %r8
imulq %r11, %rdi
vmovaps (%rdx), %xmm0
vmovaps 0x10(%rdx), %xmm1
vmovaps 0x20(%rdx), %xmm2
vmulps 0x8(%rcx,%r10){1to4}, %xmm2, %xmm3
vfmadd231ps 0x4(%rcx,%r10){1to4}, %xmm1, %xmm3 # xmm3 = (xmm1 * mem) + xmm3
vfmadd231ps (%rcx,%r10){1to4}, %xmm0, %xmm3 # xmm3 = (xmm0 * mem) + xmm3
vmovss 0x24c(%rsi), %xmm4
vmulss 0xc(%rcx,%r10), %xmm4, %xmm8
vmulps 0x8(%rcx,%r9){1to4}, %xmm2, %xmm9
vfmadd231ps 0x4(%rcx,%r9){1to4}, %xmm1, %xmm9 # xmm9 = (xmm1 * mem) + xmm9
vfmadd231ps (%rcx,%r9){1to4}, %xmm0, %xmm9 # xmm9 = (xmm0 * mem) + xmm9
vmulss 0xc(%rcx,%r9), %xmm4, %xmm11
vmulps 0x8(%rcx,%r8){1to4}, %xmm2, %xmm12
vfmadd231ps 0x4(%rcx,%r8){1to4}, %xmm1, %xmm12 # xmm12 = (xmm1 * mem) + xmm12
vfmadd231ps (%rcx,%r8){1to4}, %xmm0, %xmm12 # xmm12 = (xmm0 * mem) + xmm12
vmulss 0xc(%rcx,%r8), %xmm4, %xmm13
vmulps 0x8(%rcx,%rdi){1to4}, %xmm2, %xmm2
vfmadd231ps 0x4(%rcx,%rdi){1to4}, %xmm1, %xmm2 # xmm2 = (xmm1 * mem) + xmm2
vfmadd231ps (%rcx,%rdi){1to4}, %xmm0, %xmm2 # xmm2 = (xmm0 * mem) + xmm2
vmulss 0xc(%rcx,%rdi), %xmm4, %xmm0
vbroadcastss %xmm3, %ymm5
vbroadcastss 0x71d5f(%rip), %ymm1 # 0x1f12704
vpermps %ymm3, %ymm1, %ymm6
vbroadcastss 0x80529(%rip), %ymm14 # 0x1f20edc
vpermps %ymm3, %ymm14, %ymm7
vbroadcastss %xmm8, %ymm4
vbroadcastss %xmm9, %ymm15
vpermps %ymm9, %ymm1, %ymm10
vpermps %ymm9, %ymm14, %ymm9
vbroadcastss %xmm11, %ymm8
vbroadcastss %xmm12, %ymm11
vpermps %ymm12, %ymm1, %ymm16
vpermps %ymm12, %ymm14, %ymm12
vbroadcastss %xmm13, %ymm13
vbroadcastss %xmm2, %ymm17
vpermps %ymm2, %ymm1, %ymm18
vpermps %ymm2, %ymm14, %ymm14
leaq 0x28f96e(%rip), %rcx # 0x213036c
vmovups 0x1dc(%rcx), %ymm19
vmovups 0x660(%rcx), %ymm20
vmovups 0xae4(%rcx), %ymm21
vmovups 0xf68(%rcx), %ymm3
vbroadcastss %xmm0, %ymm22
vmulps %ymm3, %ymm17, %ymm0
vmulps %ymm3, %ymm18, %ymm1
vmulps %ymm3, %ymm14, %ymm2
vmulps %ymm3, %ymm22, %ymm3
vfmadd231ps %ymm11, %ymm21, %ymm0 # ymm0 = (ymm21 * ymm11) + ymm0
vfmadd231ps %ymm16, %ymm21, %ymm1 # ymm1 = (ymm21 * ymm16) + ymm1
vfmadd231ps %ymm12, %ymm21, %ymm2 # ymm2 = (ymm21 * ymm12) + ymm2
vfmadd231ps %ymm21, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm21) + ymm3
vfmadd231ps %ymm15, %ymm20, %ymm0 # ymm0 = (ymm20 * ymm15) + ymm0
vfmadd231ps %ymm10, %ymm20, %ymm1 # ymm1 = (ymm20 * ymm10) + ymm1
vfmadd231ps %ymm9, %ymm20, %ymm2 # ymm2 = (ymm20 * ymm9) + ymm2
vfmadd231ps %ymm20, %ymm8, %ymm3 # ymm3 = (ymm8 * ymm20) + ymm3
vfmadd231ps %ymm5, %ymm19, %ymm0 # ymm0 = (ymm19 * ymm5) + ymm0
vfmadd231ps %ymm6, %ymm19, %ymm1 # ymm1 = (ymm19 * ymm6) + ymm1
vfmadd231ps %ymm7, %ymm19, %ymm2 # ymm2 = (ymm19 * ymm7) + ymm2
vmovups 0x13ec(%rcx), %ymm20
vmovups 0x1870(%rcx), %ymm21
vmovups 0x1cf4(%rcx), %ymm23
vmovups 0x2178(%rcx), %ymm24
vfmadd231ps %ymm19, %ymm4, %ymm3 # ymm3 = (ymm4 * ymm19) + ymm3
vmulps %ymm24, %ymm17, %ymm17
vmulps %ymm24, %ymm18, %ymm18
vmulps %ymm24, %ymm14, %ymm14
vmulps %ymm24, %ymm22, %ymm19
vfmadd231ps %ymm11, %ymm23, %ymm17 # ymm17 = (ymm23 * ymm11) + ymm17
vfmadd231ps %ymm16, %ymm23, %ymm18 # ymm18 = (ymm23 * ymm16) + ymm18
vfmadd231ps %ymm12, %ymm23, %ymm14 # ymm14 = (ymm23 * ymm12) + ymm14
vfmadd231ps %ymm13, %ymm23, %ymm19 # ymm19 = (ymm23 * ymm13) + ymm19
vfmadd231ps %ymm15, %ymm21, %ymm17 # ymm17 = (ymm21 * ymm15) + ymm17
vfmadd231ps %ymm10, %ymm21, %ymm18 # ymm18 = (ymm21 * ymm10) + ymm18
vfmadd231ps %ymm9, %ymm21, %ymm14 # ymm14 = (ymm21 * ymm9) + ymm14
vfmadd231ps %ymm8, %ymm21, %ymm19 # ymm19 = (ymm21 * ymm8) + ymm19
vfmadd231ps %ymm5, %ymm20, %ymm17 # ymm17 = (ymm20 * ymm5) + ymm17
vfmadd231ps %ymm6, %ymm20, %ymm18 # ymm18 = (ymm20 * ymm6) + ymm18
vfmadd231ps %ymm7, %ymm20, %ymm14 # ymm14 = (ymm20 * ymm7) + ymm14
vbroadcastss 0x809c0(%rip), %ymm5 # 0x1f214d0
vfmadd231ps %ymm4, %ymm20, %ymm19 # ymm19 = (ymm20 * ymm4) + ymm19
vmulps %ymm5, %ymm17, %ymm4
vmulps %ymm5, %ymm18, %ymm6
vmulps %ymm5, %ymm14, %ymm7
vmulps %ymm5, %ymm19, %ymm5
vxorps %xmm8, %xmm8, %xmm8
vblendps $0x1, %ymm8, %ymm4, %ymm9 # ymm9 = ymm8[0],ymm4[1,2,3,4,5,6,7]
vblendps $0x1, %ymm8, %ymm6, %ymm10 # ymm10 = ymm8[0],ymm6[1,2,3,4,5,6,7]
vblendps $0x1, %ymm8, %ymm7, %ymm11 # ymm11 = ymm8[0],ymm7[1,2,3,4,5,6,7]
vblendps $0x1, %ymm8, %ymm5, %ymm12 # ymm12 = ymm8[0],ymm5[1,2,3,4,5,6,7]
vsubps %ymm9, %ymm0, %ymm9
vsubps %ymm10, %ymm1, %ymm10
vsubps %ymm11, %ymm2, %ymm11
vsubps %ymm12, %ymm3, %ymm12
vblendps $0x80, %ymm8, %ymm4, %ymm4 # ymm4 = ymm4[0,1,2,3,4,5,6],ymm8[7]
vblendps $0x80, %ymm8, %ymm6, %ymm6 # ymm6 = ymm6[0,1,2,3,4,5,6],ymm8[7]
vblendps $0x80, %ymm8, %ymm7, %ymm7 # ymm7 = ymm7[0,1,2,3,4,5,6],ymm8[7]
vblendps $0x80, %ymm8, %ymm5, %ymm5 # ymm5 = ymm5[0,1,2,3,4,5,6],ymm8[7]
vaddps %ymm4, %ymm0, %ymm4
vaddps %ymm6, %ymm1, %ymm6
vaddps %ymm7, %ymm2, %ymm7
vaddps %ymm5, %ymm3, %ymm5
vbroadcastss 0x4ae92(%rip), %ymm8 # 0x1eeba20
vminps %ymm0, %ymm8, %ymm13
vminps %ymm1, %ymm8, %ymm14
vminps %ymm2, %ymm8, %ymm15
vminps %ymm3, %ymm8, %ymm8
vminps %ymm4, %ymm9, %ymm16
vminps %ymm16, %ymm13, %ymm13
vminps %ymm6, %ymm10, %ymm16
vminps %ymm16, %ymm14, %ymm14
vminps %ymm7, %ymm11, %ymm16
vminps %ymm16, %ymm15, %ymm15
vminps %ymm5, %ymm12, %ymm16
vminps %ymm16, %ymm8, %ymm8
vbroadcastss 0x4bfac(%rip), %ymm16 # 0x1eecb84
vmaxps %ymm0, %ymm16, %ymm0
vmaxps %ymm1, %ymm16, %ymm1
vmaxps %ymm2, %ymm16, %ymm2
vmaxps %ymm3, %ymm16, %ymm3
vmaxps %ymm4, %ymm9, %ymm4
vmaxps %ymm4, %ymm0, %ymm0
vmaxps %ymm6, %ymm10, %ymm4
vmaxps %ymm4, %ymm1, %ymm1
vmaxps %ymm7, %ymm11, %ymm4
vmaxps %ymm4, %ymm2, %ymm2
vmaxps %ymm5, %ymm12, %ymm4
vmaxps %ymm4, %ymm3, %ymm3
vshufps $0xb1, %ymm13, %ymm13, %ymm4 # ymm4 = ymm13[1,0,3,2,5,4,7,6]
vminps %ymm4, %ymm13, %ymm4
vshufpd $0x5, %ymm4, %ymm4, %ymm5 # ymm5 = ymm4[1,0,3,2]
vminps %ymm5, %ymm4, %ymm4
vextractf128 $0x1, %ymm4, %xmm5
vminps %xmm5, %xmm4, %xmm4
vshufps $0xb1, %ymm14, %ymm14, %ymm5 # ymm5 = ymm14[1,0,3,2,5,4,7,6]
vminps %ymm5, %ymm14, %ymm5
vshufpd $0x5, %ymm5, %ymm5, %ymm6 # ymm6 = ymm5[1,0,3,2]
vminps %ymm6, %ymm5, %ymm5
vextractf128 $0x1, %ymm5, %xmm6
vminps %xmm6, %xmm5, %xmm5
vunpcklps %xmm5, %xmm4, %xmm4 # xmm4 = xmm4[0],xmm5[0],xmm4[1],xmm5[1]
vshufps $0xb1, %ymm15, %ymm15, %ymm5 # ymm5 = ymm15[1,0,3,2,5,4,7,6]
vminps %ymm5, %ymm15, %ymm5
vshufpd $0x5, %ymm5, %ymm5, %ymm6 # ymm6 = ymm5[1,0,3,2]
vminps %ymm6, %ymm5, %ymm5
vextractf128 $0x1, %ymm5, %xmm6
vminps %xmm6, %xmm5, %xmm5
vinsertps $0x28, %xmm5, %xmm4, %xmm4 # xmm4 = xmm4[0,1],xmm5[0],zero
vshufps $0xb1, %ymm0, %ymm0, %ymm5 # ymm5 = ymm0[1,0,3,2,5,4,7,6]
vmaxps %ymm5, %ymm0, %ymm0
vshufpd $0x5, %ymm0, %ymm0, %ymm5 # ymm5 = ymm0[1,0,3,2]
vmaxps %ymm5, %ymm0, %ymm0
vextractf128 $0x1, %ymm0, %xmm5
vmaxps %xmm5, %xmm0, %xmm0
vshufps $0xb1, %ymm1, %ymm1, %ymm5 # ymm5 = ymm1[1,0,3,2,5,4,7,6]
vmaxps %ymm5, %ymm1, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm5 # ymm5 = ymm1[1,0,3,2]
vmaxps %ymm5, %ymm1, %ymm1
vextractf128 $0x1, %ymm1, %xmm5
vmaxps %xmm5, %xmm1, %xmm1
vunpcklps %xmm1, %xmm0, %xmm0 # xmm0 = xmm0[0],xmm1[0],xmm0[1],xmm1[1]
vshufps $0xb1, %ymm2, %ymm2, %ymm1 # ymm1 = ymm2[1,0,3,2,5,4,7,6]
vmaxps %ymm1, %ymm2, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vmaxps %ymm2, %ymm1, %ymm1
vextractf128 $0x1, %ymm1, %xmm2
vmaxps %xmm2, %xmm1, %xmm1
vinsertps $0x28, %xmm1, %xmm0, %xmm0 # xmm0 = xmm0[0,1],xmm1[0],zero
vshufps $0xb1, %ymm8, %ymm8, %ymm1 # ymm1 = ymm8[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm8, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vextractf128 $0x1, %ymm1, %xmm2
vminss %xmm2, %xmm1, %xmm1
vshufps $0xb1, %ymm3, %ymm3, %ymm2 # ymm2 = ymm3[1,0,3,2,5,4,7,6]
vmaxps %ymm2, %ymm3, %ymm2
vshufpd $0x5, %ymm2, %ymm2, %ymm3 # ymm3 = ymm2[1,0,3,2]
vmaxps %ymm3, %ymm2, %ymm2
vextractf128 $0x1, %ymm2, %xmm3
vmaxss %xmm3, %xmm2, %xmm2
vbroadcastss 0x801b3(%rip), %xmm3 # 0x1f20ec4
vandps %xmm3, %xmm1, %xmm1
vandps %xmm3, %xmm2, %xmm2
vmaxss %xmm1, %xmm2, %xmm1
vbroadcastss %xmm1, %xmm1
vsubps %xmm1, %xmm4, %xmm2
vaddps %xmm1, %xmm0, %xmm0
vandps %xmm3, %xmm2, %xmm1
vandps %xmm3, %xmm0, %xmm3
vmaxps %xmm3, %xmm1, %xmm1
vmovshdup %xmm1, %xmm3 # xmm3 = xmm1[1,1,3,3]
vmaxss %xmm1, %xmm3, %xmm3
vshufpd $0x1, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[1,0]
vmaxss %xmm3, %xmm1, %xmm1
vmulss 0x50295(%rip), %xmm1, %xmm1 # 0x1ef0fe4
vbroadcastss %xmm1, %xmm1
vsubps %xmm1, %xmm2, %xmm2
vaddps %xmm1, %xmm0, %xmm0
vmovaps %xmm2, (%rax)
vmovaps %xmm0, 0x10(%rax)
vzeroupper
retq
nop
|
/embree[P]embree/kernels/common/scene_curves.cpp
|
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)1, embree::avx512::CurveGeometryInterface, embree::CatmullRomCurveT>::vlinearBounds(embree::LinearSpace3<embree::Vec3fa> const&, unsigned long, embree::BBox<float> const&) const
|
LBBox3fa vlinearBounds(const LinearSpace3fa& space, size_t primID, const BBox1f& time_range) const {
return linearBounds(space,primID,time_range);
}
|
pushq %rbp
pushq %r15
pushq %r14
pushq %r13
pushq %r12
pushq %rbx
subq $0x138, %rsp # imm = 0x138
leaq 0xc8(%rsp), %rax
movq %rcx, (%rax)
leaq 0xb0(%rsp), %r14
movq %rdx, (%r14)
movq %rax, 0x8(%r14)
movq %rsi, 0x10(%r14)
vmovss 0x28(%rsi), %xmm4
vmovss 0x2c(%rsi), %xmm0
vmovss (%r8), %xmm1
vmovss 0x4(%r8), %xmm2
vsubss %xmm0, %xmm1, %xmm1
vmovss 0x30(%rsi), %xmm3
vsubss %xmm0, %xmm3, %xmm3
vdivss %xmm3, %xmm1, %xmm1
vsubss %xmm0, %xmm2, %xmm0
vdivss %xmm3, %xmm0, %xmm2
vmovss %xmm1, 0x4(%rsp)
vmulss %xmm1, %xmm4, %xmm0
vmovss %xmm0, 0x20(%rsp)
vroundss $0x9, %xmm0, %xmm0, %xmm0
vmovss %xmm2, 0x50(%rsp)
vmulss %xmm2, %xmm4, %xmm1
vmovss %xmm1, 0x40(%rsp)
vroundss $0xa, %xmm1, %xmm1, %xmm1
vxorps %xmm2, %xmm2, %xmm2
vmaxss %xmm2, %xmm0, %xmm3
vminss %xmm4, %xmm1, %xmm2
vmovss %xmm3, 0x10(%rsp)
vcvttss2si %xmm3, %r15d
vmovss %xmm2, 0x30(%rsp)
vcvttss2si %xmm2, %r12d
vcvttss2si %xmm0, %eax
movq %rdi, %rbx
testl %eax, %eax
movl $0xffffffff, %r13d # imm = 0xFFFFFFFF
cmovnsl %eax, %r13d
vcvttss2si %xmm1, %eax
vmovss %xmm4, 0xc(%rsp)
vcvttss2si %xmm4, %ebp
incl %ebp
cmpl %ebp, %eax
cmovll %eax, %ebp
movslq %r15d, %rdx
leaq 0x80(%rsp), %rdi
movq %r14, %rsi
callq 0x1ea2458
movslq %r12d, %rdx
leaq 0x60(%rsp), %rdi
movq %r14, %rsi
callq 0x1ea2458
movl %ebp, %eax
subl %r13d, %eax
cmpl $0x1, %eax
jne 0x1ea17b3
vmovss 0x20(%rsp), %xmm0
vsubss 0x10(%rsp), %xmm0, %xmm0
vxorps %xmm8, %xmm8, %xmm8
vmaxss %xmm8, %xmm0, %xmm0
vmovss 0x4afe8(%rip), %xmm1 # 0x1eec714
vsubss %xmm0, %xmm1, %xmm2
vbroadcastss %xmm0, %xmm0
vmovaps 0x60(%rsp), %xmm3
vmovaps 0x70(%rsp), %xmm4
vmulps %xmm3, %xmm0, %xmm5
vbroadcastss %xmm2, %xmm2
vmovaps 0x80(%rsp), %xmm6
vmovaps 0x90(%rsp), %xmm7
vfmadd231ps %xmm6, %xmm2, %xmm5 # xmm5 = (xmm2 * xmm6) + xmm5
vmulps %xmm4, %xmm0, %xmm0
vfmadd231ps %xmm2, %xmm7, %xmm0 # xmm0 = (xmm7 * xmm2) + xmm0
vmovaps %xmm5, (%rbx)
vmovaps %xmm0, 0x10(%rbx)
vmovss 0x30(%rsp), %xmm0
vsubss 0x40(%rsp), %xmm0, %xmm0
vmaxss %xmm8, %xmm0, %xmm0
vsubss %xmm0, %xmm1, %xmm1
vbroadcastss %xmm0, %xmm0
vmulps %xmm6, %xmm0, %xmm2
vbroadcastss %xmm1, %xmm1
vfmadd231ps %xmm3, %xmm1, %xmm2 # xmm2 = (xmm1 * xmm3) + xmm2
vmulps %xmm7, %xmm0, %xmm0
vfmadd231ps %xmm4, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm4) + xmm0
vmovaps %xmm2, 0x20(%rbx)
vmovaps %xmm0, 0x30(%rbx)
jmp 0x1ea1996
incl %r15d
movslq %r15d, %rdx
leaq 0x110(%rsp), %r14
leaq 0xb0(%rsp), %r15
movq %r14, %rdi
movq %r15, %rsi
callq 0x1ea2458
decl %r12d
movslq %r12d, %rdx
leaq 0xf0(%rsp), %r12
movq %r12, %rdi
movq %r15, %rsi
callq 0x1ea2458
vmovss 0x20(%rsp), %xmm0
vsubss 0x10(%rsp), %xmm0, %xmm0
vxorps %xmm5, %xmm5, %xmm5
vmaxss %xmm5, %xmm0, %xmm0
vmovss 0x4af0b(%rip), %xmm4 # 0x1eec714
vbroadcastss %xmm0, %xmm1
vmulps (%r14), %xmm1, %xmm2
vsubss %xmm0, %xmm4, %xmm0
vbroadcastss %xmm0, %xmm0
vfmadd231ps 0x80(%rsp), %xmm0, %xmm2 # xmm2 = (xmm0 * mem) + xmm2
vmulps 0x10(%r14), %xmm1, %xmm3
vfmadd231ps 0x90(%rsp), %xmm0, %xmm3 # xmm3 = (xmm0 * mem) + xmm3
vmovss 0x30(%rsp), %xmm0
vsubss 0x40(%rsp), %xmm0, %xmm0
vmaxss %xmm5, %xmm0, %xmm0
vsubss %xmm0, %xmm4, %xmm1
vbroadcastss %xmm0, %xmm0
vmulps (%r12), %xmm0, %xmm5
vbroadcastss %xmm1, %xmm1
vfmadd231ps 0x60(%rsp), %xmm1, %xmm5 # xmm5 = (xmm1 * mem) + xmm5
vmulps 0x10(%r12), %xmm0, %xmm6
vfmadd231ps 0x70(%rsp), %xmm1, %xmm6 # xmm6 = (xmm1 * mem) + xmm6
leal 0x1(%r13), %eax
cmpl %ebp, %eax
jge 0x1ea1983
vmovss 0x4(%rsp), %xmm1
vmovss 0x50(%rsp), %xmm0
vsubss %xmm1, %xmm0, %xmm0
vmovss %xmm0, 0x8(%rsp)
movl %eax, %r14d
notl %r13d
addl %ebp, %r13d
leaq 0xd0(%rsp), %r15
leaq 0xb0(%rsp), %r12
vmovaps %xmm6, 0x10(%rsp)
vmovaps %xmm5, 0x20(%rsp)
vmovaps %xmm3, 0x30(%rsp)
vmovaps %xmm2, 0x40(%rsp)
vcvtsi2ss %r14d, %xmm8, %xmm0
vdivss 0xc(%rsp), %xmm0, %xmm0
vsubss %xmm1, %xmm0, %xmm0
vdivss 0x8(%rsp), %xmm0, %xmm0
vsubss %xmm0, %xmm4, %xmm1
vbroadcastss %xmm0, %xmm0
vmulps %xmm0, %xmm5, %xmm4
vbroadcastss %xmm1, %xmm1
vfmadd231ps %xmm2, %xmm1, %xmm4 # xmm4 = (xmm1 * xmm2) + xmm4
vmovaps %xmm4, 0x50(%rsp)
vmulps %xmm0, %xmm6, %xmm0
vfmadd231ps %xmm1, %xmm3, %xmm0 # xmm0 = (xmm3 * xmm1) + xmm0
vmovaps %xmm0, 0xa0(%rsp)
movq %r15, %rdi
movq %r12, %rsi
movq %r14, %rdx
callq 0x1ea2458
vmovaps 0x10(%rsp), %xmm6
vmovaps 0x20(%rsp), %xmm5
vmovss 0x4adec(%rip), %xmm4 # 0x1eec714
vmovaps 0x30(%rsp), %xmm3
vmovaps 0x40(%rsp), %xmm2
vmovaps 0xd0(%rsp), %xmm0
vsubps 0x50(%rsp), %xmm0, %xmm0
vmovaps 0xe0(%rsp), %xmm1
vsubps 0xa0(%rsp), %xmm1, %xmm1
vxorps %xmm7, %xmm7, %xmm7
vminps %xmm7, %xmm0, %xmm0
vmaxps %xmm7, %xmm1, %xmm1
vaddps %xmm0, %xmm2, %xmm2
vaddps %xmm0, %xmm5, %xmm5
vaddps %xmm1, %xmm3, %xmm3
vaddps %xmm1, %xmm6, %xmm6
vmovss 0x4(%rsp), %xmm1
incq %r14
decl %r13d
jne 0x1ea18aa
vmovaps %xmm2, (%rbx)
vmovaps %xmm3, 0x10(%rbx)
vmovaps %xmm5, 0x20(%rbx)
vmovaps %xmm6, 0x30(%rbx)
movq %rbx, %rax
addq $0x138, %rsp # imm = 0x138
popq %rbx
popq %r12
popq %r13
popq %r14
popq %r15
popq %rbp
retq
nop
|
/embree[P]embree/kernels/common/scene_curves.cpp
|
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)1, embree::avx512::CurveGeometryInterface, embree::CatmullRomCurveT>::vlinearBounds(embree::Vec3fa const&, float, float, embree::LinearSpace3<embree::Vec3fa> const&, unsigned long, embree::BBox<float> const&) const
|
LBBox3fa vlinearBounds(const Vec3fa& ofs, const float scale, const float r_scale0, const LinearSpace3fa& space, size_t primID, const BBox1f& time_range) const {
return linearBounds(ofs,scale,r_scale0,space,primID,time_range);
}
|
pushq %rbp
pushq %r15
pushq %r14
pushq %r13
pushq %r12
pushq %rbx
subq $0x168, %rsp # imm = 0x168
leaq 0x6c(%rsp), %rax
vmovss %xmm0, (%rax)
leaq 0x68(%rsp), %r10
vmovss %xmm1, (%r10)
leaq 0xc8(%rsp), %r11
movq %r8, (%r11)
leaq 0xf0(%rsp), %r14
movq %rdx, (%r14)
movq %rax, 0x8(%r14)
movq %r10, 0x10(%r14)
movq %rcx, 0x18(%r14)
movq %r11, 0x20(%r14)
movq %rsi, 0x28(%r14)
vmovss 0x28(%rsi), %xmm4
vmovss 0x2c(%rsi), %xmm0
vmovss (%r9), %xmm1
vmovss 0x4(%r9), %xmm2
vsubss %xmm0, %xmm1, %xmm1
vmovss 0x30(%rsi), %xmm3
vsubss %xmm0, %xmm3, %xmm3
vdivss %xmm3, %xmm1, %xmm1
vsubss %xmm0, %xmm2, %xmm0
vdivss %xmm3, %xmm0, %xmm2
vmovss %xmm1, 0x4(%rsp)
vmulss %xmm1, %xmm4, %xmm0
vmovss %xmm0, 0x20(%rsp)
vroundss $0x9, %xmm0, %xmm0, %xmm0
vmovss %xmm2, 0x50(%rsp)
vmulss %xmm2, %xmm4, %xmm1
vmovss %xmm1, 0x40(%rsp)
vroundss $0xa, %xmm1, %xmm1, %xmm1
vxorps %xmm2, %xmm2, %xmm2
vmaxss %xmm2, %xmm0, %xmm3
vminss %xmm4, %xmm1, %xmm2
vmovss %xmm3, 0x10(%rsp)
vcvttss2si %xmm3, %r15d
vmovss %xmm2, 0x30(%rsp)
vcvttss2si %xmm2, %r12d
vcvttss2si %xmm0, %eax
movq %rdi, %rbx
testl %eax, %eax
movl $0xffffffff, %r13d # imm = 0xFFFFFFFF
cmovnsl %eax, %r13d
vcvttss2si %xmm1, %eax
vmovss %xmm4, 0xc(%rsp)
vcvttss2si %xmm4, %ebp
incl %ebp
cmpl %ebp, %eax
cmovll %eax, %ebp
movslq %r15d, %rdx
leaq 0x90(%rsp), %rdi
movq %r14, %rsi
callq 0x1ea2908
movslq %r12d, %rdx
leaq 0x70(%rsp), %rdi
movq %r14, %rsi
callq 0x1ea2908
movl %ebp, %eax
subl %r13d, %eax
cmpl $0x1, %eax
jne 0x1ea1b75
vmovss 0x20(%rsp), %xmm0
vsubss 0x10(%rsp), %xmm0, %xmm0
vxorps %xmm8, %xmm8, %xmm8
vmaxss %xmm8, %xmm0, %xmm0
vmovss 0x4ac29(%rip), %xmm1 # 0x1eec714
vsubss %xmm0, %xmm1, %xmm2
vbroadcastss %xmm0, %xmm0
vmovaps 0x70(%rsp), %xmm3
vmovaps 0x80(%rsp), %xmm4
vmulps %xmm3, %xmm0, %xmm5
vbroadcastss %xmm2, %xmm2
vmovaps 0x90(%rsp), %xmm6
vmovaps 0xa0(%rsp), %xmm7
vfmadd231ps %xmm6, %xmm2, %xmm5 # xmm5 = (xmm2 * xmm6) + xmm5
vmulps %xmm4, %xmm0, %xmm0
vfmadd231ps %xmm2, %xmm7, %xmm0 # xmm0 = (xmm7 * xmm2) + xmm0
vmovaps %xmm5, (%rbx)
vmovaps %xmm0, 0x10(%rbx)
vmovss 0x30(%rsp), %xmm0
vsubss 0x40(%rsp), %xmm0, %xmm0
vmaxss %xmm8, %xmm0, %xmm0
vsubss %xmm0, %xmm1, %xmm1
vbroadcastss %xmm0, %xmm0
vmulps %xmm6, %xmm0, %xmm2
vbroadcastss %xmm1, %xmm1
vfmadd231ps %xmm3, %xmm1, %xmm2 # xmm2 = (xmm1 * xmm3) + xmm2
vmulps %xmm7, %xmm0, %xmm0
vfmadd231ps %xmm4, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm4) + xmm0
vmovaps %xmm2, 0x20(%rbx)
vmovaps %xmm0, 0x30(%rbx)
jmp 0x1ea1d5b
incl %r15d
movslq %r15d, %rdx
leaq 0x140(%rsp), %r14
leaq 0xf0(%rsp), %r15
movq %r14, %rdi
movq %r15, %rsi
callq 0x1ea2908
decl %r12d
movslq %r12d, %rdx
leaq 0x120(%rsp), %r12
movq %r12, %rdi
movq %r15, %rsi
callq 0x1ea2908
vmovss 0x20(%rsp), %xmm0
vsubss 0x10(%rsp), %xmm0, %xmm0
vxorps %xmm5, %xmm5, %xmm5
vmaxss %xmm5, %xmm0, %xmm0
vmovss 0x4ab49(%rip), %xmm4 # 0x1eec714
vbroadcastss %xmm0, %xmm1
vmulps (%r14), %xmm1, %xmm2
vsubss %xmm0, %xmm4, %xmm0
vbroadcastss %xmm0, %xmm0
vfmadd231ps 0x90(%rsp), %xmm0, %xmm2 # xmm2 = (xmm0 * mem) + xmm2
vmulps 0x10(%r14), %xmm1, %xmm3
vfmadd231ps 0xa0(%rsp), %xmm0, %xmm3 # xmm3 = (xmm0 * mem) + xmm3
vmovss 0x30(%rsp), %xmm0
vsubss 0x40(%rsp), %xmm0, %xmm0
vmaxss %xmm5, %xmm0, %xmm0
vsubss %xmm0, %xmm4, %xmm1
vbroadcastss %xmm0, %xmm0
vmulps (%r12), %xmm0, %xmm5
vbroadcastss %xmm1, %xmm1
vfmadd231ps 0x70(%rsp), %xmm1, %xmm5 # xmm5 = (xmm1 * mem) + xmm5
vmulps 0x10(%r12), %xmm0, %xmm6
vfmadd231ps 0x80(%rsp), %xmm1, %xmm6 # xmm6 = (xmm1 * mem) + xmm6
leal 0x1(%r13), %eax
cmpl %ebp, %eax
jge 0x1ea1d48
vmovss 0x4(%rsp), %xmm1
vmovss 0x50(%rsp), %xmm0
vsubss %xmm1, %xmm0, %xmm0
vmovss %xmm0, 0x8(%rsp)
movl %eax, %r14d
notl %r13d
addl %ebp, %r13d
leaq 0xd0(%rsp), %r15
leaq 0xf0(%rsp), %r12
vmovaps %xmm6, 0x10(%rsp)
vmovaps %xmm5, 0x20(%rsp)
vmovaps %xmm3, 0x30(%rsp)
vmovaps %xmm2, 0x40(%rsp)
vcvtsi2ss %r14d, %xmm8, %xmm0
vdivss 0xc(%rsp), %xmm0, %xmm0
vsubss %xmm1, %xmm0, %xmm0
vdivss 0x8(%rsp), %xmm0, %xmm0
vsubss %xmm0, %xmm4, %xmm1
vbroadcastss %xmm0, %xmm0
vmulps %xmm0, %xmm5, %xmm4
vbroadcastss %xmm1, %xmm1
vfmadd231ps %xmm2, %xmm1, %xmm4 # xmm4 = (xmm1 * xmm2) + xmm4
vmovaps %xmm4, 0x50(%rsp)
vmulps %xmm0, %xmm6, %xmm0
vfmadd231ps %xmm1, %xmm3, %xmm0 # xmm0 = (xmm3 * xmm1) + xmm0
vmovaps %xmm0, 0xb0(%rsp)
movq %r15, %rdi
movq %r12, %rsi
movq %r14, %rdx
callq 0x1ea2908
vmovaps 0x10(%rsp), %xmm6
vmovaps 0x20(%rsp), %xmm5
vmovss 0x4aa27(%rip), %xmm4 # 0x1eec714
vmovaps 0x30(%rsp), %xmm3
vmovaps 0x40(%rsp), %xmm2
vmovaps 0xd0(%rsp), %xmm0
vsubps 0x50(%rsp), %xmm0, %xmm0
vmovaps 0xe0(%rsp), %xmm1
vsubps 0xb0(%rsp), %xmm1, %xmm1
vxorps %xmm7, %xmm7, %xmm7
vminps %xmm7, %xmm0, %xmm0
vmaxps %xmm7, %xmm1, %xmm1
vaddps %xmm0, %xmm2, %xmm2
vaddps %xmm0, %xmm5, %xmm5
vaddps %xmm1, %xmm3, %xmm3
vaddps %xmm1, %xmm6, %xmm6
vmovss 0x4(%rsp), %xmm1
incq %r14
decl %r13d
jne 0x1ea1c6f
vmovaps %xmm2, (%rbx)
vmovaps %xmm3, 0x10(%rbx)
vmovaps %xmm5, 0x20(%rbx)
vmovaps %xmm6, 0x30(%rbx)
movq %rbx, %rax
addq $0x168, %rsp # imm = 0x168
popq %rbx
popq %r12
popq %r13
popq %r14
popq %r15
popq %rbp
retq
|
/embree[P]embree/kernels/common/scene_curves.cpp
|
void embree::avx512::CurveGeometryInterface<embree::CatmullRomCurveT>::interpolate_impl<4>(RTCInterpolateArguments const*)
|
void interpolate_impl(const RTCInterpolateArguments* const args)
{
unsigned int primID = args->primID;
float u = args->u;
RTCBufferType bufferType = args->bufferType;
unsigned int bufferSlot = args->bufferSlot;
float* P = args->P;
float* dPdu = args->dPdu;
float* ddPdudu = args->ddPdudu;
unsigned int valueCount = args->valueCount;
/* calculate base pointer and stride */
assert((bufferType == RTC_BUFFER_TYPE_VERTEX && bufferSlot < numTimeSteps) ||
(bufferType == RTC_BUFFER_TYPE_VERTEX_ATTRIBUTE && bufferSlot <= vertexAttribs.size()));
const char* src = nullptr;
size_t stride = 0;
if (bufferType == RTC_BUFFER_TYPE_VERTEX_ATTRIBUTE) {
src = vertexAttribs[bufferSlot].getPtr();
stride = vertexAttribs[bufferSlot].getStride();
} else {
src = vertices[bufferSlot].getPtr();
stride = vertices[bufferSlot].getStride();
}
for (unsigned int i=0; i<valueCount; i+=N)
{
size_t ofs = i*sizeof(float);
const size_t index = curves[primID];
const vbool<N> valid = vint<N>((int)i)+vint<N>(step) < vint<N>((int)valueCount);
const vfloat<N> p0 = mem<vfloat<N>>::loadu(valid,(float*)&src[(index+0)*stride+ofs]);
const vfloat<N> p1 = mem<vfloat<N>>::loadu(valid,(float*)&src[(index+1)*stride+ofs]);
const vfloat<N> p2 = mem<vfloat<N>>::loadu(valid,(float*)&src[(index+2)*stride+ofs]);
const vfloat<N> p3 = mem<vfloat<N>>::loadu(valid,(float*)&src[(index+3)*stride+ofs]);
const Curve<vfloat<N>> curve(p0,p1,p2,p3);
if (P ) mem<vfloat<N>>::storeu(valid,P+i, curve.eval(u));
if (dPdu ) mem<vfloat<N>>::storeu(valid,dPdu+i, curve.eval_du(u));
if (ddPdudu) mem<vfloat<N>>::storeu(valid,ddPdudu+i,curve.eval_dudu(u));
}
}
|
movl 0x50(%rsi), %eax
leaq 0x188(%rdi), %r9
leaq 0x240(%rdi), %rcx
cmpl $0x2, 0x14(%rsi)
cmoveq %rcx, %r9
testl %eax, %eax
je 0x1ea2015
pushq %r15
pushq %r14
pushq %r13
pushq %r12
pushq %rbx
movl 0x18(%rsi), %r10d
movq 0x20(%rsi), %rcx
movq 0x28(%rsi), %rdx
movq 0x38(%rsi), %r8
imulq $0x38, %r10, %r10
movq (%r9), %r11
movq (%r11,%r10), %r9
movl 0x10(%r11,%r10), %r10d
vmovss 0xc(%rsi), %xmm9
movl 0x8(%rsi), %esi
vmovss 0x4a94a(%rip), %xmm1 # 0x1eec714
vpbroadcastd %eax, %xmm0
vsubss %xmm9, %xmm1, %xmm5
vbroadcastss 0x7f0e2(%rip), %xmm1 # 0x1f20ec0
vxorps %xmm1, %xmm9, %xmm2
vmulss %xmm2, %xmm5, %xmm2
vmulss %xmm2, %xmm5, %xmm2
vmulss %xmm9, %xmm9, %xmm6
vmovss 0x4f20d(%rip), %xmm10 # 0x1ef1004
vmovss 0x4f1ed(%rip), %xmm12 # 0x1ef0fec
vmovaps %xmm12, %xmm3
vfmadd213ss %xmm10, %xmm9, %xmm3 # xmm3 = (xmm9 * xmm3) + xmm10
vmovss 0x4f1e8(%rip), %xmm11 # 0x1ef0ff8
vaddss %xmm9, %xmm9, %xmm4
vmulss %xmm12, %xmm9, %xmm7
vmulss %xmm7, %xmm9, %xmm7
vfmadd231ss %xmm4, %xmm3, %xmm7 # xmm7 = (xmm3 * xmm4) + xmm7
vfmadd213ss %xmm11, %xmm6, %xmm3 # xmm3 = (xmm6 * xmm3) + xmm11
vmulss %xmm5, %xmm5, %xmm4
vmovaps %xmm12, %xmm8
vfmadd213ss %xmm10, %xmm5, %xmm8 # xmm8 = (xmm5 * xmm8) + xmm10
vfmadd213ss %xmm11, %xmm4, %xmm8 # xmm8 = (xmm4 * xmm8) + xmm11
vxorps %xmm1, %xmm5, %xmm1
vmulss %xmm1, %xmm9, %xmm1
vmulss %xmm1, %xmm9, %xmm1
vmovss 0x4ad31(%rip), %xmm13 # 0x1eecb80
vmulss %xmm2, %xmm13, %xmm2
vmulss %xmm3, %xmm13, %xmm3
vmulss %xmm13, %xmm8, %xmm4
vmulss %xmm1, %xmm13, %xmm8
vbroadcastss %xmm2, %xmm1
vbroadcastss %xmm3, %xmm2
vbroadcastss %xmm4, %xmm3
vbroadcastss %xmm8, %xmm4
vaddss %xmm5, %xmm5, %xmm8
vmulss %xmm8, %xmm9, %xmm14
vfnmadd231ss %xmm5, %xmm5, %xmm14 # xmm14 = -(xmm5 * xmm5) + xmm14
vmovaps %xmm12, %xmm15
vfmadd213ss %xmm11, %xmm9, %xmm15 # xmm15 = (xmm9 * xmm15) + xmm11
vmovss 0x4f15a(%rip), %xmm16 # 0x1ef0ff0
vmulss %xmm16, %xmm5, %xmm17
vmulss %xmm17, %xmm5, %xmm17
vfmadd231ss %xmm15, %xmm8, %xmm17 # xmm17 = (xmm8 * xmm15) + xmm17
vmulss 0x4eb2c(%rip), %xmm5, %xmm5 # 0x1ef09dc
vfmadd213ss %xmm6, %xmm9, %xmm5 # xmm5 = (xmm9 * xmm5) + xmm6
vmulss %xmm13, %xmm14, %xmm6
vmulss %xmm7, %xmm13, %xmm7
vmulss %xmm13, %xmm17, %xmm8
vmulss %xmm5, %xmm13, %xmm13
vbroadcastss %xmm6, %xmm5
vbroadcastss %xmm7, %xmm6
vbroadcastss %xmm8, %xmm7
vbroadcastss %xmm13, %xmm8
vfmadd231ss 0x4f123(%rip), %xmm9, %xmm10 # xmm10 = (xmm9 * mem) + xmm10
vmovss 0x4f11f(%rip), %xmm13 # 0x1ef100c
vfmadd213ss %xmm11, %xmm9, %xmm16 # xmm16 = (xmm9 * xmm16) + xmm11
vfmadd213ss 0x4ac90(%rip), %xmm9, %xmm13 # xmm13 = (xmm9 * xmm13) + mem
vfmadd213ss 0x4eac7(%rip), %xmm9, %xmm12 # xmm12 = (xmm9 * xmm12) + mem
vbroadcastss %xmm16, %xmm9
vbroadcastss %xmm10, %xmm10
vbroadcastss %xmm13, %xmm11
vbroadcastss %xmm12, %xmm12
xorl %ebx, %ebx
vpmovsxbd 0x7f5af(%rip), %xmm13 # 0x1f214d4
movq 0x58(%rdi), %r11
movq 0x68(%rdi), %r14
imulq %rsi, %r14
movl (%r11,%r14), %r14d
movq %r10, %r15
imulq %r14, %r15
addq %r9, %r15
leaq 0x1(%r14), %r12
imulq %r10, %r12
addq %r9, %r12
leaq 0x2(%r14), %r13
imulq %r10, %r13
addq %r9, %r13
addq $0x3, %r14
imulq %r10, %r14
movl %ebx, %r11d
vpbroadcastd %ebx, %xmm14
vpor %xmm13, %xmm14, %xmm14
vpcmpgtd %xmm14, %xmm0, %k1
vmovups (%r15,%r11,4), %xmm14 {%k1} {z}
vmovups (%r12,%r11,4), %xmm15 {%k1} {z}
addq %r9, %r14
vmovups (%r13,%r11,4), %xmm16 {%k1} {z}
vmovups (%r14,%r11,4), %xmm17 {%k1} {z}
testq %rcx, %rcx
je 0x1ea1fb5
vmulps %xmm17, %xmm4, %xmm18
vfmadd231ps %xmm16, %xmm3, %xmm18 # xmm18 = (xmm3 * xmm16) + xmm18
vfmadd231ps %xmm15, %xmm2, %xmm18 # xmm18 = (xmm2 * xmm15) + xmm18
vfmadd231ps %xmm14, %xmm1, %xmm18 # xmm18 = (xmm1 * xmm14) + xmm18
vmovups %xmm18, (%rcx,%r11,4) {%k1}
testq %rdx, %rdx
je 0x1ea1fd9
vmulps %xmm17, %xmm8, %xmm18
vfmadd231ps %xmm16, %xmm7, %xmm18 # xmm18 = (xmm7 * xmm16) + xmm18
vfmadd231ps %xmm15, %xmm6, %xmm18 # xmm18 = (xmm6 * xmm15) + xmm18
vfmadd231ps %xmm14, %xmm5, %xmm18 # xmm18 = (xmm5 * xmm14) + xmm18
vmovups %xmm18, (%rdx,%r11,4) {%k1}
testq %r8, %r8
je 0x1ea1ffc
vmulps %xmm17, %xmm12, %xmm17
vfmadd213ps %xmm17, %xmm11, %xmm16 # xmm16 = (xmm11 * xmm16) + xmm17
vfmadd213ps %xmm16, %xmm10, %xmm15 # xmm15 = (xmm10 * xmm15) + xmm16
vfmadd213ps %xmm15, %xmm9, %xmm14 # xmm14 = (xmm9 * xmm14) + xmm15
vmovups %xmm14, (%r8,%r11,4) {%k1}
addl $0x4, %r11d
movl %r11d, %ebx
cmpl %eax, %r11d
jb 0x1ea1f25
popq %rbx
popq %r12
popq %r13
popq %r14
popq %r15
retq
|
/embree[P]embree/kernels/common/scene_curves.h
|
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)1, embree::avx512::CurveGeometryInterface, embree::CatmullRomCurveT>::linearBounds(unsigned long, embree::BBox<float> const&) const::'lambda'(unsigned long)::operator()(unsigned long) const
|
__forceinline LBBox3fa linearBounds(size_t primID, const BBox1f& dt) const {
return LBBox3fa([&] (size_t itime) { return bounds(primID, itime); }, dt, this->time_range, fnumTimeSegments);
}
|
movq %rdi, %rax
movq (%rsi), %rcx
movq 0x8(%rsi), %rsi
movq 0x58(%rsi), %rdi
movq 0x68(%rsi), %r8
imulq (%rcx), %r8
movl (%rdi,%r8), %edi
movq 0x188(%rsi), %r8
imulq $0x38, %rdx, %rdx
movq (%r8,%rdx), %rcx
movq 0x10(%r8,%rdx), %rdx
leal 0x1(%rdi), %r8d
leal 0x2(%rdi), %r9d
leal 0x3(%rdi), %r10d
imulq %rdx, %rdi
imulq %rdx, %r8
imulq %rdx, %r9
imulq %rdx, %r10
vmovss 0x24c(%rsi), %xmm0
vmulss 0xc(%rcx,%rdi), %xmm0, %xmm1
vmulss 0xc(%rcx,%r8), %xmm0, %xmm2
vmulss 0xc(%rcx,%r9), %xmm0, %xmm3
vmulss 0xc(%rcx,%r10), %xmm0, %xmm0
vbroadcastss (%rcx,%rdi), %ymm7
vbroadcastss 0x4(%rcx,%rdi), %ymm5
vbroadcastss 0x8(%rcx,%rdi), %ymm4
vbroadcastss (%rcx,%r8), %ymm11
vbroadcastss 0x4(%rcx,%r8), %ymm10
vbroadcastss 0x8(%rcx,%r8), %ymm8
vbroadcastss %xmm1, %ymm6
vbroadcastss %xmm2, %ymm9
vbroadcastss (%rcx,%r9), %ymm12
vbroadcastss 0x4(%rcx,%r9), %ymm13
vbroadcastss 0x8(%rcx,%r9), %ymm14
vbroadcastss (%rcx,%r10), %ymm15
vbroadcastss 0x4(%rcx,%r10), %ymm16
vbroadcastss %xmm3, %ymm17
vbroadcastss 0x8(%rcx,%r10), %ymm18
leaq 0x28e280(%rip), %rcx # 0x213036c
vmovups 0x1dc(%rcx), %ymm19
vmovups 0x660(%rcx), %ymm20
vmovups 0xae4(%rcx), %ymm21
vmovups 0xf68(%rcx), %ymm3
vbroadcastss %xmm0, %ymm22
vmulps %ymm3, %ymm15, %ymm0
vmulps %ymm3, %ymm16, %ymm1
vmulps %ymm3, %ymm18, %ymm2
vmulps %ymm3, %ymm22, %ymm3
vfmadd231ps %ymm12, %ymm21, %ymm0 # ymm0 = (ymm21 * ymm12) + ymm0
vfmadd231ps %ymm13, %ymm21, %ymm1 # ymm1 = (ymm21 * ymm13) + ymm1
vfmadd231ps %ymm14, %ymm21, %ymm2 # ymm2 = (ymm21 * ymm14) + ymm2
vfmadd231ps %ymm21, %ymm17, %ymm3 # ymm3 = (ymm17 * ymm21) + ymm3
vfmadd231ps %ymm11, %ymm20, %ymm0 # ymm0 = (ymm20 * ymm11) + ymm0
vfmadd231ps %ymm10, %ymm20, %ymm1 # ymm1 = (ymm20 * ymm10) + ymm1
vfmadd231ps %ymm8, %ymm20, %ymm2 # ymm2 = (ymm20 * ymm8) + ymm2
vfmadd231ps %ymm20, %ymm9, %ymm3 # ymm3 = (ymm9 * ymm20) + ymm3
vfmadd231ps %ymm7, %ymm19, %ymm0 # ymm0 = (ymm19 * ymm7) + ymm0
vfmadd231ps %ymm5, %ymm19, %ymm1 # ymm1 = (ymm19 * ymm5) + ymm1
vfmadd231ps %ymm4, %ymm19, %ymm2 # ymm2 = (ymm19 * ymm4) + ymm2
vmovups 0x13ec(%rcx), %ymm20
vmovups 0x1870(%rcx), %ymm21
vmovups 0x1cf4(%rcx), %ymm23
vmovups 0x2178(%rcx), %ymm24
vfmadd231ps %ymm19, %ymm6, %ymm3 # ymm3 = (ymm6 * ymm19) + ymm3
vmulps %ymm24, %ymm15, %ymm15
vmulps %ymm24, %ymm16, %ymm16
vmulps %ymm24, %ymm18, %ymm18
vmulps %ymm24, %ymm22, %ymm19
vfmadd231ps %ymm12, %ymm23, %ymm15 # ymm15 = (ymm23 * ymm12) + ymm15
vfmadd231ps %ymm13, %ymm23, %ymm16 # ymm16 = (ymm23 * ymm13) + ymm16
vfmadd231ps %ymm14, %ymm23, %ymm18 # ymm18 = (ymm23 * ymm14) + ymm18
vfmadd231ps %ymm17, %ymm23, %ymm19 # ymm19 = (ymm23 * ymm17) + ymm19
vfmadd231ps %ymm11, %ymm21, %ymm15 # ymm15 = (ymm21 * ymm11) + ymm15
vfmadd231ps %ymm10, %ymm21, %ymm16 # ymm16 = (ymm21 * ymm10) + ymm16
vfmadd231ps %ymm8, %ymm21, %ymm18 # ymm18 = (ymm21 * ymm8) + ymm18
vfmadd231ps %ymm9, %ymm21, %ymm19 # ymm19 = (ymm21 * ymm9) + ymm19
vfmadd231ps %ymm7, %ymm20, %ymm15 # ymm15 = (ymm20 * ymm7) + ymm15
vfmadd231ps %ymm5, %ymm20, %ymm16 # ymm16 = (ymm20 * ymm5) + ymm16
vfmadd231ps %ymm4, %ymm20, %ymm18 # ymm18 = (ymm20 * ymm4) + ymm18
vbroadcastss 0x7f2d2(%rip), %ymm4 # 0x1f214d0
vfmadd231ps %ymm6, %ymm20, %ymm19 # ymm19 = (ymm20 * ymm6) + ymm19
vmulps %ymm4, %ymm15, %ymm5
vmulps %ymm4, %ymm16, %ymm6
vmulps %ymm4, %ymm18, %ymm7
vmulps %ymm4, %ymm19, %ymm4
vxorps %xmm8, %xmm8, %xmm8
vblendps $0x1, %ymm8, %ymm5, %ymm9 # ymm9 = ymm8[0],ymm5[1,2,3,4,5,6,7]
vblendps $0x1, %ymm8, %ymm6, %ymm10 # ymm10 = ymm8[0],ymm6[1,2,3,4,5,6,7]
vblendps $0x1, %ymm8, %ymm7, %ymm11 # ymm11 = ymm8[0],ymm7[1,2,3,4,5,6,7]
vblendps $0x1, %ymm8, %ymm4, %ymm12 # ymm12 = ymm8[0],ymm4[1,2,3,4,5,6,7]
vsubps %ymm9, %ymm0, %ymm9
vsubps %ymm10, %ymm1, %ymm10
vsubps %ymm11, %ymm2, %ymm11
vsubps %ymm12, %ymm3, %ymm12
vblendps $0x80, %ymm8, %ymm5, %ymm5 # ymm5 = ymm5[0,1,2,3,4,5,6],ymm8[7]
vblendps $0x80, %ymm8, %ymm6, %ymm6 # ymm6 = ymm6[0,1,2,3,4,5,6],ymm8[7]
vblendps $0x80, %ymm8, %ymm7, %ymm7 # ymm7 = ymm7[0,1,2,3,4,5,6],ymm8[7]
vblendps $0x80, %ymm8, %ymm4, %ymm4 # ymm4 = ymm4[0,1,2,3,4,5,6],ymm8[7]
vaddps %ymm5, %ymm0, %ymm5
vaddps %ymm6, %ymm1, %ymm6
vaddps %ymm7, %ymm2, %ymm7
vaddps %ymm4, %ymm3, %ymm4
vbroadcastss 0x497a4(%rip), %ymm8 # 0x1eeba20
vminps %ymm0, %ymm8, %ymm13
vminps %ymm1, %ymm8, %ymm14
vminps %ymm2, %ymm8, %ymm15
vminps %ymm3, %ymm8, %ymm8
vminps %ymm5, %ymm9, %ymm16
vminps %ymm16, %ymm13, %ymm13
vminps %ymm6, %ymm10, %ymm16
vminps %ymm16, %ymm14, %ymm14
vminps %ymm7, %ymm11, %ymm16
vminps %ymm16, %ymm15, %ymm15
vminps %ymm4, %ymm12, %ymm16
vminps %ymm16, %ymm8, %ymm8
vbroadcastss 0x4a8be(%rip), %ymm16 # 0x1eecb84
vmaxps %ymm0, %ymm16, %ymm0
vmaxps %ymm1, %ymm16, %ymm1
vmaxps %ymm2, %ymm16, %ymm2
vmaxps %ymm3, %ymm16, %ymm3
vmaxps %ymm5, %ymm9, %ymm5
vmaxps %ymm5, %ymm0, %ymm0
vmaxps %ymm6, %ymm10, %ymm5
vmaxps %ymm5, %ymm1, %ymm1
vmaxps %ymm7, %ymm11, %ymm5
vmaxps %ymm5, %ymm2, %ymm2
vmaxps %ymm4, %ymm12, %ymm4
vmaxps %ymm4, %ymm3, %ymm3
vshufps $0xb1, %ymm13, %ymm13, %ymm4 # ymm4 = ymm13[1,0,3,2,5,4,7,6]
vminps %ymm4, %ymm13, %ymm4
vshufpd $0x5, %ymm4, %ymm4, %ymm5 # ymm5 = ymm4[1,0,3,2]
vminps %ymm5, %ymm4, %ymm4
vextractf128 $0x1, %ymm4, %xmm5
vminps %xmm5, %xmm4, %xmm4
vshufps $0xb1, %ymm14, %ymm14, %ymm5 # ymm5 = ymm14[1,0,3,2,5,4,7,6]
vminps %ymm5, %ymm14, %ymm5
vshufpd $0x5, %ymm5, %ymm5, %ymm6 # ymm6 = ymm5[1,0,3,2]
vminps %ymm6, %ymm5, %ymm5
vextractf128 $0x1, %ymm5, %xmm6
vminps %xmm6, %xmm5, %xmm5
vunpcklps %xmm5, %xmm4, %xmm4 # xmm4 = xmm4[0],xmm5[0],xmm4[1],xmm5[1]
vshufps $0xb1, %ymm15, %ymm15, %ymm5 # ymm5 = ymm15[1,0,3,2,5,4,7,6]
vminps %ymm5, %ymm15, %ymm5
vshufpd $0x5, %ymm5, %ymm5, %ymm6 # ymm6 = ymm5[1,0,3,2]
vminps %ymm6, %ymm5, %ymm5
vextractf128 $0x1, %ymm5, %xmm6
vminps %xmm6, %xmm5, %xmm5
vinsertps $0x28, %xmm5, %xmm4, %xmm4 # xmm4 = xmm4[0,1],xmm5[0],zero
vshufps $0xb1, %ymm0, %ymm0, %ymm5 # ymm5 = ymm0[1,0,3,2,5,4,7,6]
vmaxps %ymm5, %ymm0, %ymm0
vshufpd $0x5, %ymm0, %ymm0, %ymm5 # ymm5 = ymm0[1,0,3,2]
vmaxps %ymm5, %ymm0, %ymm0
vextractf128 $0x1, %ymm0, %xmm5
vmaxps %xmm5, %xmm0, %xmm0
vshufps $0xb1, %ymm1, %ymm1, %ymm5 # ymm5 = ymm1[1,0,3,2,5,4,7,6]
vmaxps %ymm5, %ymm1, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm5 # ymm5 = ymm1[1,0,3,2]
vmaxps %ymm5, %ymm1, %ymm1
vextractf128 $0x1, %ymm1, %xmm5
vmaxps %xmm5, %xmm1, %xmm1
vunpcklps %xmm1, %xmm0, %xmm0 # xmm0 = xmm0[0],xmm1[0],xmm0[1],xmm1[1]
vshufps $0xb1, %ymm2, %ymm2, %ymm1 # ymm1 = ymm2[1,0,3,2,5,4,7,6]
vmaxps %ymm1, %ymm2, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vmaxps %ymm2, %ymm1, %ymm1
vextractf128 $0x1, %ymm1, %xmm2
vmaxps %xmm2, %xmm1, %xmm1
vinsertps $0x28, %xmm1, %xmm0, %xmm0 # xmm0 = xmm0[0,1],xmm1[0],zero
vshufps $0xb1, %ymm8, %ymm8, %ymm1 # ymm1 = ymm8[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm8, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vextractf128 $0x1, %ymm1, %xmm2
vminss %xmm2, %xmm1, %xmm1
vshufps $0xb1, %ymm3, %ymm3, %ymm2 # ymm2 = ymm3[1,0,3,2,5,4,7,6]
vmaxps %ymm2, %ymm3, %ymm2
vshufpd $0x5, %ymm2, %ymm2, %ymm3 # ymm3 = ymm2[1,0,3,2]
vmaxps %ymm3, %ymm2, %ymm2
vextractf128 $0x1, %ymm2, %xmm3
vmaxss %xmm3, %xmm2, %xmm2
vbroadcastss 0x7eac5(%rip), %xmm3 # 0x1f20ec4
vandps %xmm3, %xmm1, %xmm1
vandps %xmm3, %xmm2, %xmm2
vmaxss %xmm1, %xmm2, %xmm1
vbroadcastss %xmm1, %xmm1
vsubps %xmm1, %xmm4, %xmm2
vaddps %xmm1, %xmm0, %xmm0
vandps %xmm3, %xmm2, %xmm1
vandps %xmm3, %xmm0, %xmm3
vmaxps %xmm3, %xmm1, %xmm1
vmovshdup %xmm1, %xmm3 # xmm3 = xmm1[1,1,3,3]
vmaxss %xmm1, %xmm3, %xmm3
vshufpd $0x1, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[1,0]
vmaxss %xmm3, %xmm1, %xmm1
vmulss 0x4eba7(%rip), %xmm1, %xmm1 # 0x1ef0fe4
vbroadcastss %xmm1, %xmm1
vsubps %xmm1, %xmm2, %xmm2
vaddps %xmm1, %xmm0, %xmm0
vmovaps %xmm2, (%rax)
vmovaps %xmm0, 0x10(%rax)
vzeroupper
retq
nop
|
/embree[P]embree/kernels/common/scene_curves.cpp
|
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)1, embree::avx512::CurveGeometryInterface, embree::CatmullRomCurveT>::linearBounds(embree::LinearSpace3<embree::Vec3fa> const&, unsigned long, embree::BBox<float> const&) const::'lambda'(unsigned long)::operator()(unsigned long) const
|
__forceinline LBBox3fa linearBounds(const LinearSpace3fa& space, size_t primID, const BBox1f& dt) const {
return LBBox3fa([&] (size_t itime) { return bounds(space, primID, itime); }, dt, this->time_range, fnumTimeSegments);
}
|
movq %rdi, %rax
movq 0x10(%rsi), %rdi
movq (%rsi), %r8
movq 0x8(%rsi), %rcx
movq 0x58(%rdi), %rsi
movq 0x68(%rdi), %r9
imulq (%rcx), %r9
movl (%rsi,%r9), %r10d
movq 0x188(%rdi), %rsi
imulq $0x38, %rdx, %rdx
movq (%rsi,%rdx), %rcx
movq 0x10(%rsi,%rdx), %r11
leal 0x1(%r10), %r9d
leal 0x2(%r10), %esi
leal 0x3(%r10), %edx
imulq %r11, %r10
imulq %r11, %r9
imulq %r11, %rsi
imulq %r11, %rdx
vmovaps (%r8), %xmm0
vmovaps 0x10(%r8), %xmm1
vmovaps 0x20(%r8), %xmm2
vmulps 0x8(%rcx,%r10){1to4}, %xmm2, %xmm3
vfmadd231ps 0x4(%rcx,%r10){1to4}, %xmm1, %xmm3 # xmm3 = (xmm1 * mem) + xmm3
vfmadd231ps (%rcx,%r10){1to4}, %xmm0, %xmm3 # xmm3 = (xmm0 * mem) + xmm3
vmovss 0x24c(%rdi), %xmm4
vmulss 0xc(%rcx,%r10), %xmm4, %xmm8
vmulps 0x8(%rcx,%r9){1to4}, %xmm2, %xmm9
vfmadd231ps 0x4(%rcx,%r9){1to4}, %xmm1, %xmm9 # xmm9 = (xmm1 * mem) + xmm9
vfmadd231ps (%rcx,%r9){1to4}, %xmm0, %xmm9 # xmm9 = (xmm0 * mem) + xmm9
vmulss 0xc(%rcx,%r9), %xmm4, %xmm11
vmulps 0x8(%rcx,%rsi){1to4}, %xmm2, %xmm12
vfmadd231ps 0x4(%rcx,%rsi){1to4}, %xmm1, %xmm12 # xmm12 = (xmm1 * mem) + xmm12
vfmadd231ps (%rcx,%rsi){1to4}, %xmm0, %xmm12 # xmm12 = (xmm0 * mem) + xmm12
vmulss 0xc(%rcx,%rsi), %xmm4, %xmm13
vmulps 0x8(%rcx,%rdx){1to4}, %xmm2, %xmm2
vfmadd231ps 0x4(%rcx,%rdx){1to4}, %xmm1, %xmm2 # xmm2 = (xmm1 * mem) + xmm2
vfmadd231ps (%rcx,%rdx){1to4}, %xmm0, %xmm2 # xmm2 = (xmm0 * mem) + xmm2
vmulss 0xc(%rcx,%rdx), %xmm4, %xmm0
vbroadcastss %xmm3, %ymm5
vbroadcastss 0x701c1(%rip), %ymm1 # 0x1f12704
vpermps %ymm3, %ymm1, %ymm6
vbroadcastss 0x7e98b(%rip), %ymm14 # 0x1f20edc
vpermps %ymm3, %ymm14, %ymm7
vbroadcastss %xmm8, %ymm4
vbroadcastss %xmm9, %ymm15
vpermps %ymm9, %ymm1, %ymm10
vpermps %ymm9, %ymm14, %ymm9
vbroadcastss %xmm11, %ymm8
vbroadcastss %xmm12, %ymm11
vpermps %ymm12, %ymm1, %ymm16
vpermps %ymm12, %ymm14, %ymm12
vbroadcastss %xmm13, %ymm13
vbroadcastss %xmm2, %ymm17
vpermps %ymm2, %ymm1, %ymm18
vpermps %ymm2, %ymm14, %ymm14
leaq 0x28ddd0(%rip), %rcx # 0x213036c
vmovups 0x1dc(%rcx), %ymm19
vmovups 0x660(%rcx), %ymm20
vmovups 0xae4(%rcx), %ymm21
vmovups 0xf68(%rcx), %ymm3
vbroadcastss %xmm0, %ymm22
vmulps %ymm3, %ymm17, %ymm0
vmulps %ymm3, %ymm18, %ymm1
vmulps %ymm3, %ymm14, %ymm2
vmulps %ymm3, %ymm22, %ymm3
vfmadd231ps %ymm11, %ymm21, %ymm0 # ymm0 = (ymm21 * ymm11) + ymm0
vfmadd231ps %ymm16, %ymm21, %ymm1 # ymm1 = (ymm21 * ymm16) + ymm1
vfmadd231ps %ymm12, %ymm21, %ymm2 # ymm2 = (ymm21 * ymm12) + ymm2
vfmadd231ps %ymm21, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm21) + ymm3
vfmadd231ps %ymm15, %ymm20, %ymm0 # ymm0 = (ymm20 * ymm15) + ymm0
vfmadd231ps %ymm10, %ymm20, %ymm1 # ymm1 = (ymm20 * ymm10) + ymm1
vfmadd231ps %ymm9, %ymm20, %ymm2 # ymm2 = (ymm20 * ymm9) + ymm2
vfmadd231ps %ymm20, %ymm8, %ymm3 # ymm3 = (ymm8 * ymm20) + ymm3
vfmadd231ps %ymm5, %ymm19, %ymm0 # ymm0 = (ymm19 * ymm5) + ymm0
vfmadd231ps %ymm6, %ymm19, %ymm1 # ymm1 = (ymm19 * ymm6) + ymm1
vfmadd231ps %ymm7, %ymm19, %ymm2 # ymm2 = (ymm19 * ymm7) + ymm2
vmovups 0x13ec(%rcx), %ymm20
vmovups 0x1870(%rcx), %ymm21
vmovups 0x1cf4(%rcx), %ymm23
vmovups 0x2178(%rcx), %ymm24
vfmadd231ps %ymm19, %ymm4, %ymm3 # ymm3 = (ymm4 * ymm19) + ymm3
vmulps %ymm24, %ymm17, %ymm17
vmulps %ymm24, %ymm18, %ymm18
vmulps %ymm24, %ymm14, %ymm14
vmulps %ymm24, %ymm22, %ymm19
vfmadd231ps %ymm11, %ymm23, %ymm17 # ymm17 = (ymm23 * ymm11) + ymm17
vfmadd231ps %ymm16, %ymm23, %ymm18 # ymm18 = (ymm23 * ymm16) + ymm18
vfmadd231ps %ymm12, %ymm23, %ymm14 # ymm14 = (ymm23 * ymm12) + ymm14
vfmadd231ps %ymm13, %ymm23, %ymm19 # ymm19 = (ymm23 * ymm13) + ymm19
vfmadd231ps %ymm15, %ymm21, %ymm17 # ymm17 = (ymm21 * ymm15) + ymm17
vfmadd231ps %ymm10, %ymm21, %ymm18 # ymm18 = (ymm21 * ymm10) + ymm18
vfmadd231ps %ymm9, %ymm21, %ymm14 # ymm14 = (ymm21 * ymm9) + ymm14
vfmadd231ps %ymm8, %ymm21, %ymm19 # ymm19 = (ymm21 * ymm8) + ymm19
vfmadd231ps %ymm5, %ymm20, %ymm17 # ymm17 = (ymm20 * ymm5) + ymm17
vfmadd231ps %ymm6, %ymm20, %ymm18 # ymm18 = (ymm20 * ymm6) + ymm18
vfmadd231ps %ymm7, %ymm20, %ymm14 # ymm14 = (ymm20 * ymm7) + ymm14
vbroadcastss 0x7ee22(%rip), %ymm5 # 0x1f214d0
vfmadd231ps %ymm4, %ymm20, %ymm19 # ymm19 = (ymm20 * ymm4) + ymm19
vmulps %ymm5, %ymm17, %ymm4
vmulps %ymm5, %ymm18, %ymm6
vmulps %ymm5, %ymm14, %ymm7
vmulps %ymm5, %ymm19, %ymm5
vxorps %xmm8, %xmm8, %xmm8
vblendps $0x1, %ymm8, %ymm4, %ymm9 # ymm9 = ymm8[0],ymm4[1,2,3,4,5,6,7]
vblendps $0x1, %ymm8, %ymm6, %ymm10 # ymm10 = ymm8[0],ymm6[1,2,3,4,5,6,7]
vblendps $0x1, %ymm8, %ymm7, %ymm11 # ymm11 = ymm8[0],ymm7[1,2,3,4,5,6,7]
vblendps $0x1, %ymm8, %ymm5, %ymm12 # ymm12 = ymm8[0],ymm5[1,2,3,4,5,6,7]
vsubps %ymm9, %ymm0, %ymm9
vsubps %ymm10, %ymm1, %ymm10
vsubps %ymm11, %ymm2, %ymm11
vsubps %ymm12, %ymm3, %ymm12
vblendps $0x80, %ymm8, %ymm4, %ymm4 # ymm4 = ymm4[0,1,2,3,4,5,6],ymm8[7]
vblendps $0x80, %ymm8, %ymm6, %ymm6 # ymm6 = ymm6[0,1,2,3,4,5,6],ymm8[7]
vblendps $0x80, %ymm8, %ymm7, %ymm7 # ymm7 = ymm7[0,1,2,3,4,5,6],ymm8[7]
vblendps $0x80, %ymm8, %ymm5, %ymm5 # ymm5 = ymm5[0,1,2,3,4,5,6],ymm8[7]
vaddps %ymm4, %ymm0, %ymm4
vaddps %ymm6, %ymm1, %ymm6
vaddps %ymm7, %ymm2, %ymm7
vaddps %ymm5, %ymm3, %ymm5
vbroadcastss 0x492f4(%rip), %ymm8 # 0x1eeba20
vminps %ymm0, %ymm8, %ymm13
vminps %ymm1, %ymm8, %ymm14
vminps %ymm2, %ymm8, %ymm15
vminps %ymm3, %ymm8, %ymm8
vminps %ymm4, %ymm9, %ymm16
vminps %ymm16, %ymm13, %ymm13
vminps %ymm6, %ymm10, %ymm16
vminps %ymm16, %ymm14, %ymm14
vminps %ymm7, %ymm11, %ymm16
vminps %ymm16, %ymm15, %ymm15
vminps %ymm5, %ymm12, %ymm16
vminps %ymm16, %ymm8, %ymm8
vbroadcastss 0x4a40e(%rip), %ymm16 # 0x1eecb84
vmaxps %ymm0, %ymm16, %ymm0
vmaxps %ymm1, %ymm16, %ymm1
vmaxps %ymm2, %ymm16, %ymm2
vmaxps %ymm3, %ymm16, %ymm3
vmaxps %ymm4, %ymm9, %ymm4
vmaxps %ymm4, %ymm0, %ymm0
vmaxps %ymm6, %ymm10, %ymm4
vmaxps %ymm4, %ymm1, %ymm1
vmaxps %ymm7, %ymm11, %ymm4
vmaxps %ymm4, %ymm2, %ymm2
vmaxps %ymm5, %ymm12, %ymm4
vmaxps %ymm4, %ymm3, %ymm3
vshufps $0xb1, %ymm13, %ymm13, %ymm4 # ymm4 = ymm13[1,0,3,2,5,4,7,6]
vminps %ymm4, %ymm13, %ymm4
vshufpd $0x5, %ymm4, %ymm4, %ymm5 # ymm5 = ymm4[1,0,3,2]
vminps %ymm5, %ymm4, %ymm4
vextractf128 $0x1, %ymm4, %xmm5
vminps %xmm5, %xmm4, %xmm4
vshufps $0xb1, %ymm14, %ymm14, %ymm5 # ymm5 = ymm14[1,0,3,2,5,4,7,6]
vminps %ymm5, %ymm14, %ymm5
vshufpd $0x5, %ymm5, %ymm5, %ymm6 # ymm6 = ymm5[1,0,3,2]
vminps %ymm6, %ymm5, %ymm5
vextractf128 $0x1, %ymm5, %xmm6
vminps %xmm6, %xmm5, %xmm5
vunpcklps %xmm5, %xmm4, %xmm4 # xmm4 = xmm4[0],xmm5[0],xmm4[1],xmm5[1]
vshufps $0xb1, %ymm15, %ymm15, %ymm5 # ymm5 = ymm15[1,0,3,2,5,4,7,6]
vminps %ymm5, %ymm15, %ymm5
vshufpd $0x5, %ymm5, %ymm5, %ymm6 # ymm6 = ymm5[1,0,3,2]
vminps %ymm6, %ymm5, %ymm5
vextractf128 $0x1, %ymm5, %xmm6
vminps %xmm6, %xmm5, %xmm5
vinsertps $0x28, %xmm5, %xmm4, %xmm4 # xmm4 = xmm4[0,1],xmm5[0],zero
vshufps $0xb1, %ymm0, %ymm0, %ymm5 # ymm5 = ymm0[1,0,3,2,5,4,7,6]
vmaxps %ymm5, %ymm0, %ymm0
vshufpd $0x5, %ymm0, %ymm0, %ymm5 # ymm5 = ymm0[1,0,3,2]
vmaxps %ymm5, %ymm0, %ymm0
vextractf128 $0x1, %ymm0, %xmm5
vmaxps %xmm5, %xmm0, %xmm0
vshufps $0xb1, %ymm1, %ymm1, %ymm5 # ymm5 = ymm1[1,0,3,2,5,4,7,6]
vmaxps %ymm5, %ymm1, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm5 # ymm5 = ymm1[1,0,3,2]
vmaxps %ymm5, %ymm1, %ymm1
vextractf128 $0x1, %ymm1, %xmm5
vmaxps %xmm5, %xmm1, %xmm1
vunpcklps %xmm1, %xmm0, %xmm0 # xmm0 = xmm0[0],xmm1[0],xmm0[1],xmm1[1]
vshufps $0xb1, %ymm2, %ymm2, %ymm1 # ymm1 = ymm2[1,0,3,2,5,4,7,6]
vmaxps %ymm1, %ymm2, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vmaxps %ymm2, %ymm1, %ymm1
vextractf128 $0x1, %ymm1, %xmm2
vmaxps %xmm2, %xmm1, %xmm1
vinsertps $0x28, %xmm1, %xmm0, %xmm0 # xmm0 = xmm0[0,1],xmm1[0],zero
vshufps $0xb1, %ymm8, %ymm8, %ymm1 # ymm1 = ymm8[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm8, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vextractf128 $0x1, %ymm1, %xmm2
vminss %xmm2, %xmm1, %xmm1
vshufps $0xb1, %ymm3, %ymm3, %ymm2 # ymm2 = ymm3[1,0,3,2,5,4,7,6]
vmaxps %ymm2, %ymm3, %ymm2
vshufpd $0x5, %ymm2, %ymm2, %ymm3 # ymm3 = ymm2[1,0,3,2]
vmaxps %ymm3, %ymm2, %ymm2
vextractf128 $0x1, %ymm2, %xmm3
vmaxss %xmm3, %xmm2, %xmm2
vbroadcastss 0x7e615(%rip), %xmm3 # 0x1f20ec4
vandps %xmm3, %xmm1, %xmm1
vandps %xmm3, %xmm2, %xmm2
vmaxss %xmm1, %xmm2, %xmm1
vbroadcastss %xmm1, %xmm1
vsubps %xmm1, %xmm4, %xmm2
vaddps %xmm1, %xmm0, %xmm0
vandps %xmm3, %xmm2, %xmm1
vandps %xmm3, %xmm0, %xmm3
vmaxps %xmm3, %xmm1, %xmm1
vmovshdup %xmm1, %xmm3 # xmm3 = xmm1[1,1,3,3]
vmaxss %xmm1, %xmm3, %xmm3
vshufpd $0x1, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[1,0]
vmaxss %xmm3, %xmm1, %xmm1
vmulss 0x4e6f7(%rip), %xmm1, %xmm1 # 0x1ef0fe4
vbroadcastss %xmm1, %xmm1
vsubps %xmm1, %xmm2, %xmm2
vaddps %xmm1, %xmm0, %xmm0
vmovaps %xmm2, (%rax)
vmovaps %xmm0, 0x10(%rax)
vzeroupper
retq
nop
|
/embree[P]embree/kernels/common/scene_curves.cpp
|
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)1, embree::avx512::CurveGeometryInterface, embree::CatmullRomCurveT>::linearBounds(embree::Vec3fa const&, float, float, embree::LinearSpace3<embree::Vec3fa> const&, unsigned long, embree::BBox<float> const&) const::'lambda'(unsigned long)::operator()(unsigned long) const
|
__forceinline LBBox3fa linearBounds(const Vec3fa& ofs, const float scale, const float r_scale0, const LinearSpace3fa& space, size_t primID, const BBox1f& dt) const {
return LBBox3fa([&] (size_t itime) { return bounds(ofs, scale, r_scale0, space, primID, itime); }, dt, this->time_range, fnumTimeSegments);
}
|
pushq %rbx
movq %rdi, %rax
movq 0x28(%rsi), %rdi
movq (%rsi), %r10
movq 0x8(%rsi), %rcx
movq 0x10(%rsi), %r8
movq 0x18(%rsi), %r9
movq 0x20(%rsi), %rsi
vbroadcastss (%rcx), %xmm1
vmulss (%r8), %xmm1, %xmm0
movq 0x58(%rdi), %rcx
movq 0x68(%rdi), %r8
imulq (%rsi), %r8
movl (%rcx,%r8), %r11d
movq 0x188(%rdi), %rsi
imulq $0x38, %rdx, %rdx
movq (%rsi,%rdx), %rcx
movq 0x10(%rsi,%rdx), %rbx
leal 0x1(%r11), %r8d
leal 0x2(%r11), %esi
leal 0x3(%r11), %edx
imulq %rbx, %r11
vmovaps (%rcx,%r11), %xmm2
imulq %rbx, %r8
vmovaps (%rcx,%r8), %xmm3
imulq %rbx, %rsi
vmovaps (%rcx,%rsi), %xmm4
imulq %rbx, %rdx
vmovaps (%rcx,%rdx), %xmm5
vmovaps (%r10), %xmm6
vsubps %xmm6, %xmm2, %xmm2
vmulps %xmm2, %xmm1, %xmm2
vbroadcastss %xmm2, %xmm7
vshufps $0x55, %xmm2, %xmm2, %xmm8 # xmm8 = xmm2[1,1,1,1]
vmovaps (%r9), %xmm9
vmovaps 0x10(%r9), %xmm10
vshufps $0xaa, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[2,2,2,2]
vmovaps 0x20(%r9), %xmm11
vmulps %xmm2, %xmm11, %xmm2
vfmadd231ps %xmm8, %xmm10, %xmm2 # xmm2 = (xmm10 * xmm8) + xmm2
vfmadd231ps %xmm7, %xmm9, %xmm2 # xmm2 = (xmm9 * xmm7) + xmm2
vmovss 0x24c(%rdi), %xmm7
vmulss 0xc(%rcx,%r11), %xmm7, %xmm8
vmulss %xmm0, %xmm8, %xmm8
vsubps %xmm6, %xmm3, %xmm3
vmulps %xmm3, %xmm1, %xmm3
vbroadcastss %xmm3, %xmm12
vshufps $0x55, %xmm3, %xmm3, %xmm13 # xmm13 = xmm3[1,1,1,1]
vshufps $0xaa, %xmm3, %xmm3, %xmm3 # xmm3 = xmm3[2,2,2,2]
vmulps %xmm3, %xmm11, %xmm3
vfmadd231ps %xmm13, %xmm10, %xmm3 # xmm3 = (xmm10 * xmm13) + xmm3
vfmadd231ps %xmm12, %xmm9, %xmm3 # xmm3 = (xmm9 * xmm12) + xmm3
vmulss 0xc(%rcx,%r8), %xmm7, %xmm12
vmulss %xmm0, %xmm12, %xmm12
vsubps %xmm6, %xmm4, %xmm4
vmulps %xmm4, %xmm1, %xmm4
vbroadcastss %xmm4, %xmm13
vshufps $0x55, %xmm4, %xmm4, %xmm14 # xmm14 = xmm4[1,1,1,1]
vshufps $0xaa, %xmm4, %xmm4, %xmm4 # xmm4 = xmm4[2,2,2,2]
vmulps %xmm4, %xmm11, %xmm15
vfmadd231ps %xmm14, %xmm10, %xmm15 # xmm15 = (xmm10 * xmm14) + xmm15
vfmadd231ps %xmm13, %xmm9, %xmm15 # xmm15 = (xmm9 * xmm13) + xmm15
vmulss 0xc(%rcx,%rsi), %xmm7, %xmm4
vmulss %xmm4, %xmm0, %xmm13
vsubps %xmm6, %xmm5, %xmm4
vmulps %xmm4, %xmm1, %xmm1
vbroadcastss %xmm1, %xmm4
vshufps $0x55, %xmm1, %xmm1, %xmm5 # xmm5 = xmm1[1,1,1,1]
vshufps $0xaa, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,2,2,2]
vmulps %xmm1, %xmm11, %xmm1
vfmadd231ps %xmm5, %xmm10, %xmm1 # xmm1 = (xmm10 * xmm5) + xmm1
vmulss 0xc(%rcx,%rdx), %xmm7, %xmm5
vfmadd231ps %xmm4, %xmm9, %xmm1 # xmm1 = (xmm9 * xmm4) + xmm1
vmulss %xmm5, %xmm0, %xmm0
vbroadcastss %xmm2, %ymm5
vbroadcastss 0x6fc97(%rip), %ymm11 # 0x1f12704
vpermps %ymm2, %ymm11, %ymm6
vbroadcastss 0x7e461(%rip), %ymm14 # 0x1f20edc
vpermps %ymm2, %ymm14, %ymm7
vbroadcastss %xmm8, %ymm4
vbroadcastss %xmm3, %ymm16
vpermps %ymm3, %ymm11, %ymm10
vpermps %ymm3, %ymm14, %ymm9
vbroadcastss %xmm12, %ymm8
vbroadcastss %xmm15, %ymm12
vpermps %ymm15, %ymm11, %ymm17
vpermps %ymm15, %ymm14, %ymm15
vbroadcastss %xmm13, %ymm13
vbroadcastss %xmm1, %ymm18
vpermps %ymm1, %ymm11, %ymm11
vpermps %ymm1, %ymm14, %ymm14
leaq 0x28d8a6(%rip), %rcx # 0x213036c
vmovups 0x1dc(%rcx), %ymm19
vmovups 0x660(%rcx), %ymm20
vmovups 0xae4(%rcx), %ymm21
vmovups 0xf68(%rcx), %ymm3
vbroadcastss %xmm0, %ymm22
vmulps %ymm3, %ymm18, %ymm0
vmulps %ymm3, %ymm11, %ymm1
vmulps %ymm3, %ymm14, %ymm2
vmulps %ymm3, %ymm22, %ymm3
vfmadd231ps %ymm12, %ymm21, %ymm0 # ymm0 = (ymm21 * ymm12) + ymm0
vfmadd231ps %ymm17, %ymm21, %ymm1 # ymm1 = (ymm21 * ymm17) + ymm1
vfmadd231ps %ymm15, %ymm21, %ymm2 # ymm2 = (ymm21 * ymm15) + ymm2
vfmadd231ps %ymm21, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm21) + ymm3
vfmadd231ps %ymm16, %ymm20, %ymm0 # ymm0 = (ymm20 * ymm16) + ymm0
vfmadd231ps %ymm10, %ymm20, %ymm1 # ymm1 = (ymm20 * ymm10) + ymm1
vfmadd231ps %ymm9, %ymm20, %ymm2 # ymm2 = (ymm20 * ymm9) + ymm2
vfmadd231ps %ymm20, %ymm8, %ymm3 # ymm3 = (ymm8 * ymm20) + ymm3
vfmadd231ps %ymm5, %ymm19, %ymm0 # ymm0 = (ymm19 * ymm5) + ymm0
vfmadd231ps %ymm6, %ymm19, %ymm1 # ymm1 = (ymm19 * ymm6) + ymm1
vfmadd231ps %ymm7, %ymm19, %ymm2 # ymm2 = (ymm19 * ymm7) + ymm2
vmovups 0x13ec(%rcx), %ymm20
vmovups 0x1870(%rcx), %ymm21
vmovups 0x1cf4(%rcx), %ymm23
vmovups 0x2178(%rcx), %ymm24
vfmadd231ps %ymm19, %ymm4, %ymm3 # ymm3 = (ymm4 * ymm19) + ymm3
vmulps %ymm24, %ymm18, %ymm18
vmulps %ymm24, %ymm11, %ymm11
vmulps %ymm24, %ymm14, %ymm14
vmulps %ymm24, %ymm22, %ymm19
vfmadd231ps %ymm12, %ymm23, %ymm18 # ymm18 = (ymm23 * ymm12) + ymm18
vfmadd231ps %ymm17, %ymm23, %ymm11 # ymm11 = (ymm23 * ymm17) + ymm11
vfmadd231ps %ymm15, %ymm23, %ymm14 # ymm14 = (ymm23 * ymm15) + ymm14
vfmadd231ps %ymm13, %ymm23, %ymm19 # ymm19 = (ymm23 * ymm13) + ymm19
vfmadd231ps %ymm16, %ymm21, %ymm18 # ymm18 = (ymm21 * ymm16) + ymm18
vfmadd231ps %ymm10, %ymm21, %ymm11 # ymm11 = (ymm21 * ymm10) + ymm11
vfmadd231ps %ymm9, %ymm21, %ymm14 # ymm14 = (ymm21 * ymm9) + ymm14
vfmadd231ps %ymm8, %ymm21, %ymm19 # ymm19 = (ymm21 * ymm8) + ymm19
vfmadd231ps %ymm5, %ymm20, %ymm18 # ymm18 = (ymm20 * ymm5) + ymm18
vfmadd231ps %ymm6, %ymm20, %ymm11 # ymm11 = (ymm20 * ymm6) + ymm11
vfmadd231ps %ymm7, %ymm20, %ymm14 # ymm14 = (ymm20 * ymm7) + ymm14
vbroadcastss 0x7e8fa(%rip), %ymm5 # 0x1f214d0
vfmadd231ps %ymm4, %ymm20, %ymm19 # ymm19 = (ymm20 * ymm4) + ymm19
vmulps %ymm5, %ymm18, %ymm4
vmulps %ymm5, %ymm11, %ymm6
vmulps %ymm5, %ymm14, %ymm7
vmulps %ymm5, %ymm19, %ymm5
vxorps %xmm8, %xmm8, %xmm8
vblendps $0x1, %ymm8, %ymm4, %ymm9 # ymm9 = ymm8[0],ymm4[1,2,3,4,5,6,7]
vblendps $0x1, %ymm8, %ymm6, %ymm10 # ymm10 = ymm8[0],ymm6[1,2,3,4,5,6,7]
vblendps $0x1, %ymm8, %ymm7, %ymm11 # ymm11 = ymm8[0],ymm7[1,2,3,4,5,6,7]
vblendps $0x1, %ymm8, %ymm5, %ymm12 # ymm12 = ymm8[0],ymm5[1,2,3,4,5,6,7]
vsubps %ymm9, %ymm0, %ymm9
vsubps %ymm10, %ymm1, %ymm10
vsubps %ymm11, %ymm2, %ymm11
vsubps %ymm12, %ymm3, %ymm12
vblendps $0x80, %ymm8, %ymm4, %ymm4 # ymm4 = ymm4[0,1,2,3,4,5,6],ymm8[7]
vblendps $0x80, %ymm8, %ymm6, %ymm6 # ymm6 = ymm6[0,1,2,3,4,5,6],ymm8[7]
vblendps $0x80, %ymm8, %ymm7, %ymm7 # ymm7 = ymm7[0,1,2,3,4,5,6],ymm8[7]
vblendps $0x80, %ymm8, %ymm5, %ymm5 # ymm5 = ymm5[0,1,2,3,4,5,6],ymm8[7]
vaddps %ymm4, %ymm0, %ymm4
vaddps %ymm6, %ymm1, %ymm6
vaddps %ymm7, %ymm2, %ymm7
vaddps %ymm5, %ymm3, %ymm5
vbroadcastss 0x48dce(%rip), %ymm8 # 0x1eeba20
vminps %ymm0, %ymm8, %ymm13
vminps %ymm1, %ymm8, %ymm14
vminps %ymm2, %ymm8, %ymm15
vminps %ymm3, %ymm8, %ymm8
vminps %ymm4, %ymm9, %ymm16
vminps %ymm16, %ymm13, %ymm13
vminps %ymm6, %ymm10, %ymm16
vminps %ymm16, %ymm14, %ymm14
vminps %ymm7, %ymm11, %ymm16
vminps %ymm16, %ymm15, %ymm15
vminps %ymm5, %ymm12, %ymm16
vminps %ymm16, %ymm8, %ymm8
vbroadcastss 0x49ee8(%rip), %ymm16 # 0x1eecb84
vmaxps %ymm0, %ymm16, %ymm0
vmaxps %ymm1, %ymm16, %ymm1
vmaxps %ymm2, %ymm16, %ymm2
vmaxps %ymm3, %ymm16, %ymm3
vmaxps %ymm4, %ymm9, %ymm4
vmaxps %ymm4, %ymm0, %ymm0
vmaxps %ymm6, %ymm10, %ymm4
vmaxps %ymm4, %ymm1, %ymm1
vmaxps %ymm7, %ymm11, %ymm4
vmaxps %ymm4, %ymm2, %ymm2
vmaxps %ymm5, %ymm12, %ymm4
vmaxps %ymm4, %ymm3, %ymm3
vshufps $0xb1, %ymm13, %ymm13, %ymm4 # ymm4 = ymm13[1,0,3,2,5,4,7,6]
vminps %ymm4, %ymm13, %ymm4
vshufpd $0x5, %ymm4, %ymm4, %ymm5 # ymm5 = ymm4[1,0,3,2]
vminps %ymm5, %ymm4, %ymm4
vextractf128 $0x1, %ymm4, %xmm5
vminps %xmm5, %xmm4, %xmm4
vshufps $0xb1, %ymm14, %ymm14, %ymm5 # ymm5 = ymm14[1,0,3,2,5,4,7,6]
vminps %ymm5, %ymm14, %ymm5
vshufpd $0x5, %ymm5, %ymm5, %ymm6 # ymm6 = ymm5[1,0,3,2]
vminps %ymm6, %ymm5, %ymm5
vextractf128 $0x1, %ymm5, %xmm6
vminps %xmm6, %xmm5, %xmm5
vunpcklps %xmm5, %xmm4, %xmm4 # xmm4 = xmm4[0],xmm5[0],xmm4[1],xmm5[1]
vshufps $0xb1, %ymm15, %ymm15, %ymm5 # ymm5 = ymm15[1,0,3,2,5,4,7,6]
vminps %ymm5, %ymm15, %ymm5
vshufpd $0x5, %ymm5, %ymm5, %ymm6 # ymm6 = ymm5[1,0,3,2]
vminps %ymm6, %ymm5, %ymm5
vextractf128 $0x1, %ymm5, %xmm6
vminps %xmm6, %xmm5, %xmm5
vinsertps $0x28, %xmm5, %xmm4, %xmm4 # xmm4 = xmm4[0,1],xmm5[0],zero
vshufps $0xb1, %ymm0, %ymm0, %ymm5 # ymm5 = ymm0[1,0,3,2,5,4,7,6]
vmaxps %ymm5, %ymm0, %ymm0
vshufpd $0x5, %ymm0, %ymm0, %ymm5 # ymm5 = ymm0[1,0,3,2]
vmaxps %ymm5, %ymm0, %ymm0
vextractf128 $0x1, %ymm0, %xmm5
vmaxps %xmm5, %xmm0, %xmm0
vshufps $0xb1, %ymm1, %ymm1, %ymm5 # ymm5 = ymm1[1,0,3,2,5,4,7,6]
vmaxps %ymm5, %ymm1, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm5 # ymm5 = ymm1[1,0,3,2]
vmaxps %ymm5, %ymm1, %ymm1
vextractf128 $0x1, %ymm1, %xmm5
vmaxps %xmm5, %xmm1, %xmm1
vunpcklps %xmm1, %xmm0, %xmm0 # xmm0 = xmm0[0],xmm1[0],xmm0[1],xmm1[1]
vshufps $0xb1, %ymm2, %ymm2, %ymm1 # ymm1 = ymm2[1,0,3,2,5,4,7,6]
vmaxps %ymm1, %ymm2, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vmaxps %ymm2, %ymm1, %ymm1
vextractf128 $0x1, %ymm1, %xmm2
vmaxps %xmm2, %xmm1, %xmm1
vinsertps $0x28, %xmm1, %xmm0, %xmm0 # xmm0 = xmm0[0,1],xmm1[0],zero
vshufps $0xb1, %ymm8, %ymm8, %ymm1 # ymm1 = ymm8[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm8, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vextractf128 $0x1, %ymm1, %xmm2
vminss %xmm2, %xmm1, %xmm1
vshufps $0xb1, %ymm3, %ymm3, %ymm2 # ymm2 = ymm3[1,0,3,2,5,4,7,6]
vmaxps %ymm2, %ymm3, %ymm2
vshufpd $0x5, %ymm2, %ymm2, %ymm3 # ymm3 = ymm2[1,0,3,2]
vmaxps %ymm3, %ymm2, %ymm2
vextractf128 $0x1, %ymm2, %xmm3
vmaxss %xmm3, %xmm2, %xmm2
vbroadcastss 0x7e0ef(%rip), %xmm3 # 0x1f20ec4
vandps %xmm3, %xmm1, %xmm1
vandps %xmm3, %xmm2, %xmm2
vmaxss %xmm1, %xmm2, %xmm1
vbroadcastss %xmm1, %xmm1
vsubps %xmm1, %xmm4, %xmm2
vaddps %xmm1, %xmm0, %xmm0
vandps %xmm3, %xmm2, %xmm1
vandps %xmm3, %xmm0, %xmm3
vmaxps %xmm3, %xmm1, %xmm1
vmovshdup %xmm1, %xmm3 # xmm3 = xmm1[1,1,3,3]
vmaxss %xmm1, %xmm3, %xmm3
vshufpd $0x1, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[1,0]
vmaxss %xmm3, %xmm1, %xmm1
vmulss 0x4e1d1(%rip), %xmm1, %xmm1 # 0x1ef0fe4
vbroadcastss %xmm1, %xmm1
vsubps %xmm1, %xmm2, %xmm2
vaddps %xmm1, %xmm0, %xmm0
vmovaps %xmm2, (%rax)
vmovaps %xmm0, 0x10(%rax)
popq %rbx
vzeroupper
retq
|
/embree[P]embree/kernels/common/scene_curves.cpp
|
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)0, embree::avx512::CurveGeometryInterface, embree::CatmullRomCurveT>::computeAlignedSpace(unsigned long) const
|
LinearSpace3fa computeAlignedSpace(const size_t primID) const
{
Vec3fa axisz(0,0,1);
Vec3fa axisy(0,1,0);
const Curve3ff curve = getCurveScaledRadius(primID);
const Vec3fa p0 = curve.begin();
const Vec3fa p3 = curve.end();
const Vec3fa d0 = curve.eval_du(0.0f);
//const Vec3fa d1 = curve.eval_du(1.0f);
const Vec3fa axisz_ = normalize(p3 - p0);
const Vec3fa axisy_ = cross(axisz_,d0);
if (sqr_length(p3-p0) > 1E-18f) {
axisz = axisz_;
axisy = axisy_;
}
if (sqr_length(axisy) > 1E-18) {
axisy = normalize(axisy);
Vec3fa axisx = normalize(cross(axisy,axisz));
return LinearSpace3fa(axisx,axisy,axisz);
}
return frame(axisz);
}
|
movq %rdi, %rax
imulq 0x68(%rsi), %rdx
movq 0x58(%rsi), %rcx
movq 0x188(%rsi), %rdi
movl (%rcx,%rdx), %r8d
movq (%rdi), %rcx
movq 0x10(%rdi), %r9
leal 0x1(%r8), %r10d
leal 0x2(%r8), %r11d
leal 0x3(%r8), %edx
movq %r8, %rdi
imulq %r9, %r10
vmovaps (%rcx,%r10), %xmm0
imulq %r9, %r11
vmovaps (%rcx,%r11), %xmm2
imulq %r9, %rdi
imulq %r9, %rdx
vmovss 0x24c(%rsi), %xmm4
vmulss 0xc(%rcx,%r10), %xmm4, %xmm1
vinsertps $0x30, %xmm1, %xmm0, %xmm1 # xmm1 = xmm0[0,1,2],xmm1[0]
vmulss 0xc(%rcx,%r11), %xmm4, %xmm0
vinsertps $0x30, %xmm0, %xmm2, %xmm2 # xmm2 = xmm2[0,1,2],xmm0[0]
vxorps %xmm3, %xmm3, %xmm3
vsubps %xmm1, %xmm2, %xmm0
vdpps $0x7f, %xmm0, %xmm0, %xmm5
vmovss %xmm5, %xmm3, %xmm6 # xmm6 = xmm5[0],xmm3[1,2,3]
vrsqrt14ss %xmm6, %xmm3, %xmm6
vmulss 0x47e09(%rip), %xmm6, %xmm7 # 0x1eec718
vmulss 0x47e05(%rip), %xmm5, %xmm8 # 0x1eec71c
vmulss %xmm6, %xmm8, %xmm8
vmulss %xmm6, %xmm6, %xmm6
vmulss %xmm6, %xmm8, %xmm6
vaddss %xmm6, %xmm7, %xmm6
vbroadcastss %xmm6, %xmm6
vmulps %xmm6, %xmm0, %xmm0
vucomiss 0x4c6b0(%rip), %xmm5 # 0x1ef0fe8
ja 0x1ea4946
vmovsd 0x47dae(%rip), %xmm1 # 0x1eec6f0
jbe 0x1ea499e
jmp 0x1ea49a6
vmovaps (%rcx,%rdi), %xmm5
vmovaps (%rcx,%rdx), %xmm6
vmulss 0xc(%rcx,%rdi), %xmm4, %xmm7
vinsertps $0x30, %xmm7, %xmm5, %xmm5 # xmm5 = xmm5[0,1,2],xmm7[0]
vmulss 0xc(%rcx,%rdx), %xmm4, %xmm4
vinsertps $0x30, %xmm4, %xmm6, %xmm4 # xmm4 = xmm6[0,1,2],xmm4[0]
vmulps %xmm3, %xmm4, %xmm4
vbroadcastss 0x47da7(%rip), %xmm6 # 0x1eec71c
vfnmadd213ps %xmm4, %xmm6, %xmm2 # xmm2 = -(xmm6 * xmm2) + xmm4
vfmadd213ps %xmm2, %xmm3, %xmm1 # xmm1 = (xmm3 * xmm1) + xmm2
vfmadd231ps %xmm5, %xmm6, %xmm1 # xmm1 = (xmm6 * xmm5) + xmm1
vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3]
vmulps %xmm3, %xmm1, %xmm1
vfmsub231ps %xmm2, %xmm0, %xmm1 # xmm1 = (xmm0 * xmm2) - xmm1
vshufps $0xc9, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[1,2,0,3]
ja 0x1ea49a6
vmovaps 0x47d5a(%rip), %xmm0 # 0x1eec700
vdpps $0x7f, %xmm1, %xmm1, %xmm2
vcvtss2sd %xmm2, %xmm2, %xmm3
vucomisd 0x4c658(%rip), %xmm3 # 0x1ef1010
jbe 0x1ea4a4b
vxorps %xmm3, %xmm3, %xmm3
vmovss %xmm2, %xmm3, %xmm4 # xmm4 = xmm2[0],xmm3[1,2,3]
vrsqrt14ss %xmm4, %xmm3, %xmm4
vmovss 0x47d44(%rip), %xmm5 # 0x1eec718
vmulss %xmm5, %xmm4, %xmm6
vmovss 0x481a0(%rip), %xmm7 # 0x1eecb80
vmulss %xmm7, %xmm2, %xmm2
vmulss %xmm4, %xmm2, %xmm2
vmulss %xmm4, %xmm4, %xmm4
vmulss %xmm4, %xmm2, %xmm2
vsubss %xmm2, %xmm6, %xmm2
vbroadcastss %xmm2, %xmm2
vmulps %xmm2, %xmm1, %xmm1
vshufps $0xc9, %xmm0, %xmm0, %xmm2 # xmm2 = xmm0[1,2,0,3]
vshufps $0xc9, %xmm1, %xmm1, %xmm4 # xmm4 = xmm1[1,2,0,3]
vmulps %xmm4, %xmm0, %xmm4
vfmsub231ps %xmm2, %xmm1, %xmm4 # xmm4 = (xmm1 * xmm2) - xmm4
vshufps $0xc9, %xmm4, %xmm4, %xmm2 # xmm2 = xmm4[1,2,0,3]
vdpps $0x7f, %xmm2, %xmm2, %xmm4
vmovss %xmm4, %xmm3, %xmm6 # xmm6 = xmm4[0],xmm3[1,2,3]
vrsqrt14ss %xmm6, %xmm3, %xmm3
vmulss %xmm5, %xmm3, %xmm5
vmulss %xmm7, %xmm4, %xmm4
vmulss %xmm3, %xmm4, %xmm4
vmulss %xmm3, %xmm3, %xmm3
vmulss %xmm3, %xmm4, %xmm3
vsubss %xmm3, %xmm5, %xmm3
vbroadcastss %xmm3, %xmm3
vmulps %xmm2, %xmm3, %xmm2
jmp 0x1ea4b3a
vshufpd $0x1, %xmm0, %xmm0, %xmm1 # xmm1 = xmm0[1,0]
vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3]
vbroadcastss 0x7c463(%rip), %xmm3 # 0x1f20ec0
vxorps %xmm3, %xmm2, %xmm2
vxorps %xmm4, %xmm4, %xmm4
vunpckhps %xmm4, %xmm0, %xmm5 # xmm5 = xmm0[2],xmm4[2],xmm0[3],xmm4[3]
vmovss %xmm2, %xmm4, %xmm2 # xmm2 = xmm2[0],xmm4[1,2,3]
vshufps $0x41, %xmm2, %xmm5, %xmm2 # xmm2 = xmm5[1,0],xmm2[0,1]
vdpps $0x7f, %xmm2, %xmm2, %xmm5
vxorpd %xmm3, %xmm1, %xmm1
vinsertps $0x2a, %xmm0, %xmm1, %xmm1 # xmm1 = xmm1[0],zero,xmm0[0],zero
vdpps $0x7f, %xmm1, %xmm1, %xmm3
vcmpltps %xmm5, %xmm3, %k0
vpmovm2d %k0, %xmm3
vpbroadcastd %xmm3, %xmm3
vpmovd2m %xmm3, %k1
vpcmpeqd %xmm3, %xmm3, %xmm3
vmovaps %xmm3, %xmm3 {%k1} {z}
vblendvps %xmm3, %xmm2, %xmm1, %xmm1
vdpps $0x7f, %xmm1, %xmm1, %xmm2
vmovss %xmm2, %xmm4, %xmm3 # xmm3 = xmm2[0],xmm4[1,2,3]
vrsqrt14ss %xmm3, %xmm4, %xmm3
vmovss 0x47c50(%rip), %xmm5 # 0x1eec718
vmulss %xmm5, %xmm3, %xmm6
vmovss 0x480ac(%rip), %xmm7 # 0x1eecb80
vmulss %xmm7, %xmm2, %xmm2
vmulss %xmm3, %xmm2, %xmm2
vmulss %xmm3, %xmm3, %xmm3
vmulss %xmm3, %xmm2, %xmm2
vsubss %xmm2, %xmm6, %xmm2
vbroadcastss %xmm2, %xmm2
vmulps %xmm2, %xmm1, %xmm2
vshufps $0xc9, %xmm2, %xmm2, %xmm1 # xmm1 = xmm2[1,2,0,3]
vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3]
vmulps %xmm3, %xmm2, %xmm3
vfmsub231ps %xmm1, %xmm0, %xmm3 # xmm3 = (xmm0 * xmm1) - xmm3
vshufps $0xc9, %xmm3, %xmm3, %xmm1 # xmm1 = xmm3[1,2,0,3]
vdpps $0x7f, %xmm1, %xmm1, %xmm3
vmovss %xmm3, %xmm4, %xmm6 # xmm6 = xmm3[0],xmm4[1,2,3]
vrsqrt14ss %xmm6, %xmm4, %xmm4
vmulss %xmm5, %xmm4, %xmm5
vmulss %xmm7, %xmm3, %xmm3
vmulss %xmm4, %xmm3, %xmm3
vmulss %xmm4, %xmm4, %xmm4
vmulss %xmm4, %xmm3, %xmm3
vsubss %xmm3, %xmm5, %xmm3
vbroadcastss %xmm3, %xmm3
vmulps %xmm1, %xmm3, %xmm1
vmovaps %xmm2, (%rax)
vmovaps %xmm1, 0x10(%rax)
vmovaps %xmm0, 0x20(%rax)
retq
nop
|
/embree[P]embree/kernels/common/scene_curves.cpp
|
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)0, embree::avx512::CurveGeometryInterface, embree::CatmullRomCurveT>::computeAlignedSpaceMB(unsigned long, embree::BBox<float>) const
|
LinearSpace3fa computeAlignedSpaceMB(const size_t primID, const BBox1f time_range) const
{
Vec3fa axisz(0,0,1);
Vec3fa axisy(0,1,0);
const range<int> tbounds = this->timeSegmentRange(time_range);
if (tbounds.size() == 0) return frame(axisz);
const size_t t = (tbounds.begin()+tbounds.end())/2;
const Curve3ff curve = getCurveScaledRadius(primID,t);
const Vec3fa p0 = curve.begin();
const Vec3fa p3 = curve.end();
const Vec3fa d0 = curve.eval_du(0.0f);
//const Vec3fa d1 = curve.eval_du(1.0f);
const Vec3fa axisz_ = normalize(p3 - p0);
const Vec3fa axisy_ = cross(axisz_,d0);
if (sqr_length(p3-p0) > 1E-18f) {
axisz = axisz_;
axisy = axisy_;
}
if (sqr_length(axisy) > 1E-18) {
axisy = normalize(axisy);
Vec3fa axisx = normalize(cross(axisy,axisz));
return LinearSpace3fa(axisx,axisy,axisz);
}
return frame(axisz);
}
|
movq %rdi, %rax
vmovsd 0x2c(%rsi), %xmm1
vmovss 0x28(%rsi), %xmm2
vsubss %xmm1, %xmm0, %xmm3
vmovshdup %xmm1, %xmm4 # xmm4 = xmm1[1,1,3,3]
vsubss %xmm1, %xmm4, %xmm4
vdivss %xmm4, %xmm3, %xmm3
vmovshdup %xmm0, %xmm0 # xmm0 = xmm0[1,1,3,3]
vsubss %xmm1, %xmm0, %xmm0
vdivss %xmm4, %xmm0, %xmm0
vmulss 0x4bdc5(%rip), %xmm3, %xmm1 # 0x1ef0940
vmulss %xmm1, %xmm2, %xmm1
vroundss $0x9, %xmm1, %xmm1, %xmm1
vxorps %xmm3, %xmm3, %xmm3
vmaxss %xmm1, %xmm3, %xmm1
vcvttss2si %xmm1, %ecx
vmulss 0x4bdab(%rip), %xmm0, %xmm0 # 0x1ef0944
vmulss %xmm0, %xmm2, %xmm0
vroundss $0xa, %xmm0, %xmm0, %xmm0
vminss %xmm2, %xmm0, %xmm0
vcvttss2si %xmm0, %edi
cmpl %ecx, %edi
jne 0x1ea4c91
vmovaps 0x7c925(%rip), %xmm0 # 0x1f214e0
vdpps $0x7f, %xmm0, %xmm0, %xmm1
vmovss 0x4be03(%rip), %xmm2 # 0x1ef09cc
vdpps $0x7f, %xmm2, %xmm2, %xmm3
vcmpltps %xmm1, %xmm3, %k0
vpmovm2d %k0, %xmm1
vpbroadcastd %xmm1, %xmm1
vpmovd2m %xmm1, %k1
vpcmpeqd %xmm1, %xmm1, %xmm1
vmovaps %xmm1, %xmm1 {%k1} {z}
vblendvps %xmm1, %xmm0, %xmm2, %xmm0
vxorps %xmm2, %xmm2, %xmm2
vdpps $0x7f, %xmm0, %xmm0, %xmm1
vmovss %xmm1, %xmm2, %xmm3 # xmm3 = xmm1[0],xmm2[1,2,3]
vrsqrt14ss %xmm3, %xmm2, %xmm3
vmovss 0x47b05(%rip), %xmm4 # 0x1eec718
vmulss %xmm4, %xmm3, %xmm5
vmovss 0x47f61(%rip), %xmm6 # 0x1eecb80
vmulss %xmm6, %xmm1, %xmm1
vmulss %xmm3, %xmm1, %xmm1
vmulss %xmm3, %xmm3, %xmm3
vmulss %xmm3, %xmm1, %xmm1
vsubss %xmm1, %xmm5, %xmm1
vbroadcastss %xmm1, %xmm1
vmulps %xmm1, %xmm0, %xmm1
vshufps $0xc9, %xmm1, %xmm1, %xmm3 # xmm3 = xmm1[1,2,0,3]
vmulps 0x4c327(%rip), %xmm1, %xmm5 # 0x1ef0f70
vmovaps 0x47aaf(%rip), %xmm0 # 0x1eec700
vfmadd231ps %xmm3, %xmm0, %xmm5 # xmm5 = (xmm0 * xmm3) + xmm5
vshufps $0xc9, %xmm5, %xmm5, %xmm3 # xmm3 = xmm5[1,2,0,3]
vdpps $0x7f, %xmm3, %xmm3, %xmm5
vmovss %xmm5, %xmm2, %xmm7 # xmm7 = xmm5[0],xmm2[1,2,3]
vrsqrt14ss %xmm7, %xmm2, %xmm2
vmulss %xmm4, %xmm2, %xmm4
vmulss %xmm6, %xmm5, %xmm5
vmulss %xmm2, %xmm5, %xmm5
vmulss %xmm2, %xmm2, %xmm2
vmulss %xmm2, %xmm5, %xmm2
vsubss %xmm2, %xmm4, %xmm2
vbroadcastss %xmm2, %xmm2
vmulps %xmm3, %xmm2, %xmm2
jmp 0x1ea4f53
addl %edi, %ecx
movl %ecx, %edi
shrl $0x1f, %edi
addl %ecx, %edi
sarl %edi
movslq %edi, %rcx
imulq 0x68(%rsi), %rdx
movq 0x58(%rsi), %rdi
movq 0x188(%rsi), %r8
movl (%rdi,%rdx), %edi
imulq $0x38, %rcx, %rdx
movq (%r8,%rdx), %rcx
movq 0x10(%r8,%rdx), %r8
leal 0x1(%rdi), %r9d
leal 0x2(%rdi), %r10d
leal 0x3(%rdi), %edx
imulq %r8, %r9
vmovaps (%rcx,%r9), %xmm0
imulq %r8, %r10
vmovaps (%rcx,%r10), %xmm2
imulq %r8, %rdi
imulq %r8, %rdx
vmovss 0x24c(%rsi), %xmm4
vmulss 0xc(%rcx,%r9), %xmm4, %xmm1
vinsertps $0x30, %xmm1, %xmm0, %xmm1 # xmm1 = xmm0[0,1,2],xmm1[0]
vmulss 0xc(%rcx,%r10), %xmm4, %xmm0
vinsertps $0x30, %xmm0, %xmm2, %xmm2 # xmm2 = xmm2[0,1,2],xmm0[0]
vxorps %xmm3, %xmm3, %xmm3
vsubps %xmm1, %xmm2, %xmm0
vdpps $0x7f, %xmm0, %xmm0, %xmm5
vmovss %xmm5, %xmm3, %xmm6 # xmm6 = xmm5[0],xmm3[1,2,3]
vrsqrt14ss %xmm6, %xmm3, %xmm6
vmulss 0x479f0(%rip), %xmm6, %xmm7 # 0x1eec718
vmulss 0x479ec(%rip), %xmm5, %xmm8 # 0x1eec71c
vmulss %xmm6, %xmm8, %xmm8
vmulss %xmm6, %xmm6, %xmm6
vmulss %xmm6, %xmm8, %xmm6
vaddss %xmm6, %xmm7, %xmm6
vbroadcastss %xmm6, %xmm6
vmulps %xmm6, %xmm0, %xmm0
vucomiss 0x4c297(%rip), %xmm5 # 0x1ef0fe8
ja 0x1ea4d5f
vmovsd 0x47995(%rip), %xmm1 # 0x1eec6f0
jbe 0x1ea4db7
jmp 0x1ea4dbf
vmovaps (%rcx,%rdi), %xmm5
vmovaps (%rcx,%rdx), %xmm6
vmulss 0xc(%rcx,%rdi), %xmm4, %xmm7
vinsertps $0x30, %xmm7, %xmm5, %xmm5 # xmm5 = xmm5[0,1,2],xmm7[0]
vmulss 0xc(%rcx,%rdx), %xmm4, %xmm4
vinsertps $0x30, %xmm4, %xmm6, %xmm4 # xmm4 = xmm6[0,1,2],xmm4[0]
vmulps %xmm3, %xmm4, %xmm4
vbroadcastss 0x4798e(%rip), %xmm6 # 0x1eec71c
vfnmadd213ps %xmm4, %xmm6, %xmm2 # xmm2 = -(xmm6 * xmm2) + xmm4
vfmadd213ps %xmm2, %xmm3, %xmm1 # xmm1 = (xmm3 * xmm1) + xmm2
vfmadd231ps %xmm5, %xmm6, %xmm1 # xmm1 = (xmm6 * xmm5) + xmm1
vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3]
vmulps %xmm3, %xmm1, %xmm1
vfmsub231ps %xmm2, %xmm0, %xmm1 # xmm1 = (xmm0 * xmm2) - xmm1
vshufps $0xc9, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[1,2,0,3]
ja 0x1ea4dbf
vmovaps 0x47941(%rip), %xmm0 # 0x1eec700
vdpps $0x7f, %xmm1, %xmm1, %xmm2
vcvtss2sd %xmm2, %xmm2, %xmm3
vucomisd 0x4c23f(%rip), %xmm3 # 0x1ef1010
jbe 0x1ea4e64
vxorps %xmm3, %xmm3, %xmm3
vmovss %xmm2, %xmm3, %xmm4 # xmm4 = xmm2[0],xmm3[1,2,3]
vrsqrt14ss %xmm4, %xmm3, %xmm4
vmovss 0x4792b(%rip), %xmm5 # 0x1eec718
vmulss %xmm5, %xmm4, %xmm6
vmovss 0x47d87(%rip), %xmm7 # 0x1eecb80
vmulss %xmm7, %xmm2, %xmm2
vmulss %xmm4, %xmm2, %xmm2
vmulss %xmm4, %xmm4, %xmm4
vmulss %xmm4, %xmm2, %xmm2
vsubss %xmm2, %xmm6, %xmm2
vbroadcastss %xmm2, %xmm2
vmulps %xmm2, %xmm1, %xmm2
vshufps $0xc9, %xmm0, %xmm0, %xmm1 # xmm1 = xmm0[1,2,0,3]
vshufps $0xc9, %xmm2, %xmm2, %xmm4 # xmm4 = xmm2[1,2,0,3]
vmulps %xmm4, %xmm0, %xmm4
vfmsub231ps %xmm1, %xmm2, %xmm4 # xmm4 = (xmm2 * xmm1) - xmm4
vshufps $0xc9, %xmm4, %xmm4, %xmm1 # xmm1 = xmm4[1,2,0,3]
vdpps $0x7f, %xmm1, %xmm1, %xmm4
vmovss %xmm4, %xmm3, %xmm6 # xmm6 = xmm4[0],xmm3[1,2,3]
vrsqrt14ss %xmm6, %xmm3, %xmm3
vmulss %xmm5, %xmm3, %xmm5
vmulss %xmm7, %xmm4, %xmm4
vmulss %xmm3, %xmm4, %xmm4
vmulss %xmm3, %xmm3, %xmm3
vmulss %xmm3, %xmm4, %xmm3
vsubss %xmm3, %xmm5, %xmm3
vbroadcastss %xmm3, %xmm3
vmulps %xmm1, %xmm3, %xmm1
jmp 0x1ea4f53
vshufpd $0x1, %xmm0, %xmm0, %xmm1 # xmm1 = xmm0[1,0]
vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3]
vbroadcastss 0x7c04a(%rip), %xmm3 # 0x1f20ec0
vxorps %xmm3, %xmm2, %xmm2
vxorps %xmm4, %xmm4, %xmm4
vunpckhps %xmm4, %xmm0, %xmm5 # xmm5 = xmm0[2],xmm4[2],xmm0[3],xmm4[3]
vmovss %xmm2, %xmm4, %xmm2 # xmm2 = xmm2[0],xmm4[1,2,3]
vshufps $0x41, %xmm2, %xmm5, %xmm2 # xmm2 = xmm5[1,0],xmm2[0,1]
vdpps $0x7f, %xmm2, %xmm2, %xmm5
vxorpd %xmm3, %xmm1, %xmm1
vinsertps $0x2a, %xmm0, %xmm1, %xmm1 # xmm1 = xmm1[0],zero,xmm0[0],zero
vdpps $0x7f, %xmm1, %xmm1, %xmm3
vcmpltps %xmm5, %xmm3, %k0
vpmovm2d %k0, %xmm3
vpbroadcastd %xmm3, %xmm3
vpmovd2m %xmm3, %k1
vpcmpeqd %xmm3, %xmm3, %xmm3
vmovaps %xmm3, %xmm3 {%k1} {z}
vblendvps %xmm3, %xmm2, %xmm1, %xmm1
vdpps $0x7f, %xmm1, %xmm1, %xmm2
vmovss %xmm2, %xmm4, %xmm3 # xmm3 = xmm2[0],xmm4[1,2,3]
vrsqrt14ss %xmm3, %xmm4, %xmm3
vmovss 0x47837(%rip), %xmm5 # 0x1eec718
vmulss %xmm5, %xmm3, %xmm6
vmovss 0x47c93(%rip), %xmm7 # 0x1eecb80
vmulss %xmm7, %xmm2, %xmm2
vmulss %xmm3, %xmm2, %xmm2
vmulss %xmm3, %xmm3, %xmm3
vmulss %xmm3, %xmm2, %xmm2
vsubss %xmm2, %xmm6, %xmm2
vbroadcastss %xmm2, %xmm2
vmulps %xmm2, %xmm1, %xmm1
vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3]
vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3]
vmulps %xmm3, %xmm1, %xmm3
vfmsub231ps %xmm2, %xmm0, %xmm3 # xmm3 = (xmm0 * xmm2) - xmm3
vshufps $0xc9, %xmm3, %xmm3, %xmm2 # xmm2 = xmm3[1,2,0,3]
vdpps $0x7f, %xmm2, %xmm2, %xmm3
vmovss %xmm3, %xmm4, %xmm6 # xmm6 = xmm3[0],xmm4[1,2,3]
vrsqrt14ss %xmm6, %xmm4, %xmm4
vmulss %xmm5, %xmm4, %xmm5
vmulss %xmm7, %xmm3, %xmm3
vmulss %xmm4, %xmm3, %xmm3
vmulss %xmm4, %xmm4, %xmm4
vmulss %xmm4, %xmm3, %xmm3
vsubss %xmm3, %xmm5, %xmm3
vbroadcastss %xmm3, %xmm3
vmulps %xmm2, %xmm3, %xmm2
vmovaps %xmm1, (%rax)
vmovaps %xmm2, 0x10(%rax)
vmovaps %xmm0, 0x20(%rax)
retq
|
/embree[P]embree/kernels/common/scene_curves.cpp
|
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)0, embree::avx512::CurveGeometryInterface, embree::CatmullRomCurveT>::computeDirection(unsigned int) const
|
Vec3fa computeDirection(unsigned int primID) const
{
const Curve3ff c = getCurveScaledRadius(primID);
const Vec3fa p0 = c.begin();
const Vec3fa p3 = c.end();
const Vec3fa axis1 = p3 - p0;
return axis1;
}
|
movl %edx, %eax
imulq 0x68(%rsi), %rax
movq 0x58(%rsi), %rcx
movq 0x188(%rsi), %rdx
movl (%rcx,%rax), %ecx
movq (%rdx), %r8
movq 0x10(%rdx), %rax
leal 0x1(%rcx), %edx
imulq %rax, %rdx
vmovaps (%r8,%rdx), %xmm0
addl $0x2, %ecx
imulq %rax, %rcx
vmovaps (%r8,%rcx), %xmm1
movq %rdi, %rax
vmovss 0x24c(%rsi), %xmm2
vmulss 0xc(%r8,%rdx), %xmm2, %xmm3
vinsertps $0x30, %xmm3, %xmm0, %xmm0 # xmm0 = xmm0[0,1,2],xmm3[0]
vmulss 0xc(%r8,%rcx), %xmm2, %xmm2
vinsertps $0x30, %xmm2, %xmm1, %xmm1 # xmm1 = xmm1[0,1,2],xmm2[0]
vsubps %xmm0, %xmm1, %xmm0
vmovaps %xmm0, (%rdi)
retq
|
/embree[P]embree/kernels/common/scene_curves.cpp
|
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)0, embree::avx512::CurveGeometryInterface, embree::CatmullRomCurveT>::computeDirection(unsigned int, unsigned long) const
|
Vec3fa computeDirection(unsigned int primID, size_t time) const
{
const Curve3ff c = getCurveScaledRadius(primID,time);
const Vec3fa p0 = c.begin();
const Vec3fa p3 = c.end();
const Vec3fa axis1 = p3 - p0;
return axis1;
}
|
movl %edx, %eax
imulq 0x68(%rsi), %rax
movq 0x58(%rsi), %rdx
movq 0x188(%rsi), %r8
movl (%rdx,%rax), %edx
imulq $0x38, %rcx, %rax
movq (%r8,%rax), %rcx
movq 0x10(%r8,%rax), %rax
leal 0x1(%rdx), %r8d
imulq %rax, %r8
vmovaps (%rcx,%r8), %xmm0
addl $0x2, %edx
imulq %rax, %rdx
vmovaps (%rcx,%rdx), %xmm1
movq %rdi, %rax
vmovss 0x24c(%rsi), %xmm2
vmulss 0xc(%rcx,%r8), %xmm2, %xmm3
vinsertps $0x30, %xmm3, %xmm0, %xmm0 # xmm0 = xmm0[0,1,2],xmm3[0]
vmulss 0xc(%rcx,%rdx), %xmm2, %xmm2
vinsertps $0x30, %xmm2, %xmm1, %xmm1 # xmm1 = xmm1[0,1,2],xmm2[0]
vsubps %xmm0, %xmm1, %xmm0
vmovaps %xmm0, (%rdi)
retq
nop
|
/embree[P]embree/kernels/common/scene_curves.cpp
|
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)0, embree::avx512::CurveGeometryInterface, embree::CatmullRomCurveT>::vbounds(unsigned long) const
|
BBox3fa vbounds(size_t i) const {
return bounds(i);
}
|
movq %rdi, %rax
imulq 0x68(%rsi), %rdx
movq 0x58(%rsi), %rcx
movq 0x188(%rsi), %rdi
movl (%rcx,%rdx), %edx
movq (%rdi), %rcx
movq 0x10(%rdi), %rdi
leal 0x1(%rdx), %r8d
leal 0x2(%rdx), %r9d
leal 0x3(%rdx), %r10d
imulq %rdi, %rdx
vmovaps (%rcx,%rdx), %xmm3
imulq %rdi, %r8
vmovaps (%rcx,%r8), %xmm7
imulq %rdi, %r9
vmovaps (%rcx,%r9), %xmm11
imulq %rdi, %r10
vmovaps (%rcx,%r10), %xmm15
vmovss 0x24c(%rsi), %xmm0
vmulss 0xc(%rcx,%rdx), %xmm0, %xmm4
vmulss 0xc(%rcx,%r8), %xmm0, %xmm8
vmulss 0xc(%rcx,%r9), %xmm0, %xmm12
vmulss 0xc(%rcx,%r10), %xmm0, %xmm16
movl 0x248(%rsi), %ecx
cmpq $0x4, %rcx
jne 0x1ea52a5
vbroadcastss %xmm12, %xmm0
vblendps $0x8, %xmm0, %xmm11, %xmm1 # xmm1 = xmm11[0,1,2],xmm0[3]
leaq 0x28b2a6(%rip), %rcx # 0x213036c
vmovups 0x110(%rcx), %xmm2
vbroadcastss %xmm3, %xmm5
vshufps $0x55, %xmm3, %xmm3, %xmm6 # xmm6 = xmm3[1,1,1,1]
vshufps $0xaa, %xmm3, %xmm3, %xmm3 # xmm3 = xmm3[2,2,2,2]
vbroadcastss %xmm4, %xmm4
vmovups 0x594(%rcx), %xmm9
vbroadcastss %xmm7, %xmm10
vshufps $0x55, %xmm7, %xmm7, %xmm12 # xmm12 = xmm7[1,1,1,1]
vshufps $0xaa, %xmm7, %xmm7, %xmm7 # xmm7 = xmm7[2,2,2,2]
vbroadcastss %xmm8, %xmm8
vmovups 0xa18(%rcx), %xmm13
vbroadcastss %xmm11, %xmm14
vshufps $0x55, %xmm11, %xmm11, %xmm17 # xmm17 = xmm11[1,1,1,1]
vmovups 0xe9c(%rcx), %xmm18
vshufps $0xaa, %xmm11, %xmm11, %xmm11 # xmm11 = xmm11[2,2,2,2]
vbroadcastss %xmm15, %xmm19
vshufps $0x55, %xmm15, %xmm15, %xmm20 # xmm20 = xmm15[1,1,1,1]
vshufps $0xaa, %xmm15, %xmm15, %xmm15 # xmm15 = xmm15[2,2,2,2]
vbroadcastss %xmm16, %xmm16
vmulps %xmm18, %xmm19, %xmm19
vmulps %xmm18, %xmm20, %xmm20
vmulps %xmm18, %xmm15, %xmm15
vmulps %xmm18, %xmm16, %xmm16
vfmadd231ps %xmm14, %xmm13, %xmm19 # xmm19 = (xmm13 * xmm14) + xmm19
vfmadd231ps %xmm17, %xmm13, %xmm20 # xmm20 = (xmm13 * xmm17) + xmm20
vfmadd231ps %xmm11, %xmm13, %xmm15 # xmm15 = (xmm13 * xmm11) + xmm15
vfmadd231ps %xmm13, %xmm0, %xmm16 # xmm16 = (xmm0 * xmm13) + xmm16
vfmadd231ps %xmm10, %xmm9, %xmm19 # xmm19 = (xmm9 * xmm10) + xmm19
vfmadd231ps %xmm12, %xmm9, %xmm20 # xmm20 = (xmm9 * xmm12) + xmm20
vfmadd231ps %xmm7, %xmm9, %xmm15 # xmm15 = (xmm9 * xmm7) + xmm15
vfmadd231ps %xmm8, %xmm9, %xmm16 # xmm16 = (xmm9 * xmm8) + xmm16
vfmadd231ps %xmm5, %xmm2, %xmm19 # xmm19 = (xmm2 * xmm5) + xmm19
vfmadd231ps %xmm6, %xmm2, %xmm20 # xmm20 = (xmm2 * xmm6) + xmm20
vfmadd231ps %xmm3, %xmm2, %xmm15 # xmm15 = (xmm2 * xmm3) + xmm15
vfmadd231ps %xmm4, %xmm2, %xmm16 # xmm16 = (xmm2 * xmm4) + xmm16
vshufps $0xb1, %xmm19, %xmm19, %xmm2 # xmm2 = xmm19[1,0,3,2]
vminps %xmm19, %xmm2, %xmm3
vshufpd $0x1, %xmm3, %xmm3, %xmm4 # xmm4 = xmm3[1,0]
vminps %xmm3, %xmm4, %xmm3
vshufps $0xb1, %xmm20, %xmm20, %xmm4 # xmm4 = xmm20[1,0,3,2]
vminps %xmm20, %xmm4, %xmm5
vshufpd $0x1, %xmm5, %xmm5, %xmm6 # xmm6 = xmm5[1,0]
vminps %xmm5, %xmm6, %xmm5
vinsertps $0x1c, %xmm5, %xmm3, %xmm3 # xmm3 = xmm3[0],xmm5[0],zero,zero
vshufps $0xb1, %xmm15, %xmm15, %xmm5 # xmm5 = xmm15[1,0,3,2]
vminps %xmm15, %xmm5, %xmm6
vshufpd $0x1, %xmm6, %xmm6, %xmm7 # xmm7 = xmm6[1,0]
vminps %xmm6, %xmm7, %xmm6
vinsertps $0x20, %xmm6, %xmm3, %xmm3 # xmm3 = xmm3[0,1],xmm6[0],xmm3[3]
vmaxps %xmm19, %xmm2, %xmm2
vshufpd $0x1, %xmm2, %xmm2, %xmm6 # xmm6 = xmm2[1,0]
vmaxps %xmm2, %xmm6, %xmm2
vmaxps %xmm20, %xmm4, %xmm4
vshufpd $0x1, %xmm4, %xmm4, %xmm6 # xmm6 = xmm4[1,0]
vmaxps %xmm4, %xmm6, %xmm4
vinsertps $0x1c, %xmm4, %xmm2, %xmm2 # xmm2 = xmm2[0],xmm4[0],zero,zero
vmaxps %xmm15, %xmm5, %xmm4
vshufpd $0x1, %xmm4, %xmm4, %xmm5 # xmm5 = xmm4[1,0]
vmaxps %xmm4, %xmm5, %xmm4
vinsertps $0x20, %xmm4, %xmm2, %xmm2 # xmm2 = xmm2[0,1],xmm4[0],xmm2[3]
vandps 0x7bc9e(%rip){1to4}, %xmm16, %xmm4 # 0x1f20ec4
vprolq $0x20, %xmm4, %xmm5
vmaxps %xmm4, %xmm5, %xmm4
vbroadcastss %xmm4, %xmm5
vshufps $0xaa, %xmm4, %xmm4, %xmm4 # xmm4 = xmm4[2,2,2,2]
vmaxps %xmm5, %xmm4, %xmm4
vminps %xmm1, %xmm3, %xmm3
vmaxps %xmm1, %xmm2, %xmm1
vandps 0x7bc73(%rip){1to4}, %xmm0, %xmm0 # 0x1f20ec4
vmaxps %xmm0, %xmm4, %xmm2
vsubps %xmm2, %xmm3, %xmm0
vaddps %xmm2, %xmm1, %xmm1
vbroadcastss 0x7bc5e(%rip), %xmm2 # 0x1f20ec4
vandps %xmm2, %xmm0, %xmm3
vandps %xmm2, %xmm1, %xmm2
vmaxps %xmm2, %xmm3, %xmm2
vmovshdup %xmm2, %xmm3 # xmm3 = xmm2[1,1,3,3]
vmaxss %xmm2, %xmm3, %xmm3
vshufpd $0x1, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[1,0]
vmaxss %xmm3, %xmm2, %xmm2
vmulss 0x4bd59(%rip), %xmm2, %xmm2 # 0x1ef0fe4
vbroadcastss %xmm2, %xmm2
vsubps %xmm2, %xmm0, %xmm0
vaddps %xmm2, %xmm1, %xmm1
vmovaps %xmm0, (%rax)
vmovaps %xmm1, 0x10(%rax)
vzeroupper
retq
testl %ecx, %ecx
js 0x1ea54ac
vpbroadcastd %ecx, %ymm0
vmovdqu %ymm0, -0x28(%rsp)
vbroadcastss %xmm3, %ymm0
vmovups %ymm0, -0x48(%rsp)
vbroadcastss 0x6d437(%rip), %ymm14 # 0x1f12704
vpermps %ymm3, %ymm14, %ymm2
vbroadcastss 0x7bc00(%rip), %ymm17 # 0x1f20edc
vpermps %ymm3, %ymm17, %ymm3
vbroadcastss %xmm4, %ymm4
vbroadcastss %xmm7, %ymm5
vpermps %ymm7, %ymm14, %ymm6
vpermps %ymm7, %ymm17, %ymm7
vbroadcastss %xmm8, %ymm8
vbroadcastss %xmm11, %ymm9
vpermps %ymm11, %ymm14, %ymm10
vpermps %ymm11, %ymm17, %ymm11
vbroadcastss %xmm12, %ymm12
vbroadcastss %xmm15, %ymm13
vpermps %ymm15, %ymm14, %ymm14
vpermps %ymm15, %ymm17, %ymm15
vbroadcastss %xmm16, %ymm16
movq %rcx, %rdx
shlq $0x6, %rdx
leaq (%rdx,%rcx,4), %rdx
addq 0x27fb9f(%rip), %rdx # 0x2124ed8
vbroadcastss 0x47841(%rip), %ymm20 # 0x1eecb84
vbroadcastss 0x466d3(%rip), %ymm17 # 0x1eeba20
vxorps %xmm21, %xmm21, %xmm21
xorl %esi, %esi
vmovaps %ymm17, %ymm22
vmovaps %ymm17, %ymm29
vmovaps %ymm20, %ymm26
vmovaps %ymm20, %ymm28
vpbroadcastd %esi, %ymm19
vpord 0xb55a3(%rip), %ymm19, %ymm19 # 0x1f5a920
vmovups (%rdx,%rsi,4), %ymm23
vmovups 0x484(%rdx,%rsi,4), %ymm24
vmovups 0x908(%rdx,%rsi,4), %ymm25
vpcmpgtd -0x28(%rsp), %ymm19, %k1
vmovups 0xd8c(%rdx,%rsi,4), %ymm19
vmulps %ymm19, %ymm13, %ymm18
vmulps %ymm19, %ymm14, %ymm0
vmulps %ymm19, %ymm15, %ymm1
vmulps %ymm19, %ymm16, %ymm19
vfmadd231ps %ymm9, %ymm25, %ymm18 # ymm18 = (ymm25 * ymm9) + ymm18
vfmadd231ps %ymm10, %ymm25, %ymm0 # ymm0 = (ymm25 * ymm10) + ymm0
vfmadd231ps %ymm11, %ymm25, %ymm1 # ymm1 = (ymm25 * ymm11) + ymm1
vfmadd231ps %ymm25, %ymm12, %ymm19 # ymm19 = (ymm12 * ymm25) + ymm19
vfmadd231ps %ymm5, %ymm24, %ymm18 # ymm18 = (ymm24 * ymm5) + ymm18
vfmadd231ps %ymm6, %ymm24, %ymm0 # ymm0 = (ymm24 * ymm6) + ymm0
vfmadd231ps %ymm7, %ymm24, %ymm1 # ymm1 = (ymm24 * ymm7) + ymm1
vfmadd231ps %ymm24, %ymm8, %ymm19 # ymm19 = (ymm8 * ymm24) + ymm19
vfmadd231ps -0x48(%rsp), %ymm23, %ymm18 # ymm18 = (ymm23 * mem) + ymm18
vfmadd231ps %ymm2, %ymm23, %ymm0 # ymm0 = (ymm23 * ymm2) + ymm0
vfmadd231ps %ymm3, %ymm23, %ymm1 # ymm1 = (ymm23 * ymm3) + ymm1
vfmadd231ps %ymm23, %ymm4, %ymm19 # ymm19 = (ymm4 * ymm23) + ymm19
vandps 0x7baa5(%rip){1to8}, %ymm19, %ymm19 # 0x1f20ec4
vminps %ymm18, %ymm29, %ymm30
vmovaps %ymm29, %ymm30 {%k1}
vminps %ymm0, %ymm22, %ymm27
vmovaps %ymm22, %ymm27 {%k1}
vminps %ymm1, %ymm17, %ymm31
vmovaps %ymm17, %ymm31 {%k1}
vmaxps %ymm18, %ymm28, %ymm24
vmovaps %ymm28, %ymm24 {%k1}
vmaxps %ymm0, %ymm26, %ymm25
vmovaps %ymm26, %ymm25 {%k1}
vmaxps %ymm1, %ymm20, %ymm23
vmovaps %ymm20, %ymm23 {%k1}
vmaxps %ymm19, %ymm21, %ymm19
vmovaps %ymm21, %ymm19 {%k1}
addq $0x8, %rsi
vmovaps %ymm31, %ymm17
vmovaps %ymm27, %ymm22
vmovaps %ymm30, %ymm29
vmovaps %ymm23, %ymm20
vmovaps %ymm25, %ymm26
vmovaps %ymm24, %ymm28
vmovaps %ymm19, %ymm21
cmpq %rcx, %rsi
jbe 0x1ea536d
jmp 0x1ea54de
vbroadcastss 0x4656a(%rip), %ymm30 # 0x1eeba20
vbroadcastss 0x476c4(%rip), %ymm24 # 0x1eecb84
vxorps %xmm19, %xmm19, %xmm19
vmovaps %ymm24, %ymm25
vmovaps %ymm24, %ymm23
vmovaps %ymm30, %ymm27
vmovaps %ymm30, %ymm31
vshufps $0xb1, %ymm30, %ymm30, %ymm0 # ymm0 = ymm30[1,0,3,2,5,4,7,6]
vminps %ymm0, %ymm30, %ymm0
vshufpd $0x5, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2]
vminps %ymm1, %ymm0, %ymm0
vextractf128 $0x1, %ymm0, %xmm1
vminps %xmm1, %xmm0, %xmm0
vshufps $0xb1, %ymm27, %ymm27, %ymm1 # ymm1 = ymm27[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm27, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vextractf128 $0x1, %ymm1, %xmm2
vminps %xmm2, %xmm1, %xmm1
vunpcklps %xmm1, %xmm0, %xmm0 # xmm0 = xmm0[0],xmm1[0],xmm0[1],xmm1[1]
vshufps $0xb1, %ymm31, %ymm31, %ymm1 # ymm1 = ymm31[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm31, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vextractf128 $0x1, %ymm1, %xmm2
vminps %xmm2, %xmm1, %xmm1
vinsertps $0x28, %xmm1, %xmm0, %xmm0 # xmm0 = xmm0[0,1],xmm1[0],zero
vshufps $0xb1, %ymm24, %ymm24, %ymm1 # ymm1 = ymm24[1,0,3,2,5,4,7,6]
vmaxps %ymm1, %ymm24, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vmaxps %ymm2, %ymm1, %ymm1
vextractf128 $0x1, %ymm1, %xmm2
vmaxps %xmm2, %xmm1, %xmm1
vshufps $0xb1, %ymm25, %ymm25, %ymm2 # ymm2 = ymm25[1,0,3,2,5,4,7,6]
vmaxps %ymm2, %ymm25, %ymm2
vshufpd $0x5, %ymm2, %ymm2, %ymm3 # ymm3 = ymm2[1,0,3,2]
vmaxps %ymm3, %ymm2, %ymm2
vextractf128 $0x1, %ymm2, %xmm3
vmaxps %xmm3, %xmm2, %xmm2
vunpcklps %xmm2, %xmm1, %xmm1 # xmm1 = xmm1[0],xmm2[0],xmm1[1],xmm2[1]
vshufps $0xb1, %ymm23, %ymm23, %ymm2 # ymm2 = ymm23[1,0,3,2,5,4,7,6]
vmaxps %ymm2, %ymm23, %ymm2
vshufpd $0x5, %ymm2, %ymm2, %ymm3 # ymm3 = ymm2[1,0,3,2]
vmaxps %ymm3, %ymm2, %ymm2
vextractf128 $0x1, %ymm2, %xmm3
vmaxps %xmm3, %xmm2, %xmm2
vinsertps $0x28, %xmm2, %xmm1, %xmm1 # xmm1 = xmm1[0,1],xmm2[0],zero
vshufps $0xb1, %ymm19, %ymm19, %ymm2 # ymm2 = ymm19[1,0,3,2,5,4,7,6]
vmaxps %ymm2, %ymm19, %ymm2
vshufpd $0x5, %ymm2, %ymm2, %ymm3 # ymm3 = ymm2[1,0,3,2]
vmaxps %ymm3, %ymm2, %ymm2
vextractf128 $0x1, %ymm2, %xmm3
vmaxps %xmm3, %xmm2, %xmm2
vbroadcastss %xmm2, %xmm2
vsubps %xmm2, %xmm0, %xmm0
jmp 0x1ea5259
|
/embree[P]embree/kernels/common/scene_curves.cpp
|
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)0, embree::avx512::CurveGeometryInterface, embree::CatmullRomCurveT>::vbounds(embree::LinearSpace3<embree::Vec3fa> const&, unsigned long) const
|
BBox3fa vbounds(const LinearSpace3fa& space, size_t i) const {
return bounds(space,i);
}
|
movq %rdi, %rax
imulq 0x68(%rsi), %rcx
movq 0x58(%rsi), %rdi
movq 0x188(%rsi), %r8
movl (%rdi,%rcx), %r10d
movq (%r8), %rcx
movq 0x10(%r8), %r11
leal 0x1(%r10), %r9d
leal 0x2(%r10), %r8d
leal 0x3(%r10), %edi
imulq %r11, %r10
imulq %r11, %r9
imulq %r11, %r8
imulq %r11, %rdi
vmovaps (%rdx), %xmm0
vmovaps 0x10(%rdx), %xmm1
vmovaps 0x20(%rdx), %xmm2
vmulps 0x8(%rcx,%r10){1to4}, %xmm2, %xmm3
vfmadd231ps 0x4(%rcx,%r10){1to4}, %xmm1, %xmm3 # xmm3 = (xmm1 * mem) + xmm3
vfmadd231ps (%rcx,%r10){1to4}, %xmm0, %xmm3 # xmm3 = (xmm0 * mem) + xmm3
vmovss 0x24c(%rsi), %xmm5
vmulss 0xc(%rcx,%r10), %xmm5, %xmm4
vmulps 0x8(%rcx,%r9){1to4}, %xmm2, %xmm7
vfmadd231ps 0x4(%rcx,%r9){1to4}, %xmm1, %xmm7 # xmm7 = (xmm1 * mem) + xmm7
vfmadd231ps (%rcx,%r9){1to4}, %xmm0, %xmm7 # xmm7 = (xmm0 * mem) + xmm7
vmulss 0xc(%rcx,%r9), %xmm5, %xmm8
vmulps 0x8(%rcx,%r8){1to4}, %xmm2, %xmm11
vfmadd231ps 0x4(%rcx,%r8){1to4}, %xmm1, %xmm11 # xmm11 = (xmm1 * mem) + xmm11
vfmadd231ps (%rcx,%r8){1to4}, %xmm0, %xmm11 # xmm11 = (xmm0 * mem) + xmm11
vmulss 0xc(%rcx,%r8), %xmm5, %xmm12
vmulps 0x8(%rcx,%rdi){1to4}, %xmm2, %xmm15
vfmadd231ps 0x4(%rcx,%rdi){1to4}, %xmm1, %xmm15 # xmm15 = (xmm1 * mem) + xmm15
vfmadd231ps (%rcx,%rdi){1to4}, %xmm0, %xmm15 # xmm15 = (xmm0 * mem) + xmm15
vmulss 0xc(%rcx,%rdi), %xmm5, %xmm16
movl 0x248(%rsi), %ecx
cmpq $0x4, %rcx
jne 0x1ea58aa
vbroadcastss %xmm12, %xmm0
vblendps $0x8, %xmm0, %xmm11, %xmm1 # xmm1 = xmm11[0,1,2],xmm0[3]
leaq 0x28aca1(%rip), %rcx # 0x213036c
vmovups 0x110(%rcx), %xmm2
vbroadcastss %xmm3, %xmm5
vshufps $0x55, %xmm3, %xmm3, %xmm6 # xmm6 = xmm3[1,1,1,1]
vshufps $0xaa, %xmm3, %xmm3, %xmm3 # xmm3 = xmm3[2,2,2,2]
vbroadcastss %xmm4, %xmm4
vmovups 0x594(%rcx), %xmm9
vbroadcastss %xmm7, %xmm10
vshufps $0x55, %xmm7, %xmm7, %xmm12 # xmm12 = xmm7[1,1,1,1]
vshufps $0xaa, %xmm7, %xmm7, %xmm7 # xmm7 = xmm7[2,2,2,2]
vbroadcastss %xmm8, %xmm8
vmovups 0xa18(%rcx), %xmm13
vbroadcastss %xmm11, %xmm14
vshufps $0x55, %xmm11, %xmm11, %xmm17 # xmm17 = xmm11[1,1,1,1]
vmovups 0xe9c(%rcx), %xmm18
vshufps $0xaa, %xmm11, %xmm11, %xmm11 # xmm11 = xmm11[2,2,2,2]
vbroadcastss %xmm15, %xmm19
vshufps $0x55, %xmm15, %xmm15, %xmm20 # xmm20 = xmm15[1,1,1,1]
vshufps $0xaa, %xmm15, %xmm15, %xmm15 # xmm15 = xmm15[2,2,2,2]
vbroadcastss %xmm16, %xmm16
vmulps %xmm18, %xmm19, %xmm19
vmulps %xmm18, %xmm20, %xmm20
vmulps %xmm18, %xmm15, %xmm15
vmulps %xmm18, %xmm16, %xmm16
vfmadd231ps %xmm14, %xmm13, %xmm19 # xmm19 = (xmm13 * xmm14) + xmm19
vfmadd231ps %xmm17, %xmm13, %xmm20 # xmm20 = (xmm13 * xmm17) + xmm20
vfmadd231ps %xmm11, %xmm13, %xmm15 # xmm15 = (xmm13 * xmm11) + xmm15
vfmadd231ps %xmm13, %xmm0, %xmm16 # xmm16 = (xmm0 * xmm13) + xmm16
vfmadd231ps %xmm10, %xmm9, %xmm19 # xmm19 = (xmm9 * xmm10) + xmm19
vfmadd231ps %xmm12, %xmm9, %xmm20 # xmm20 = (xmm9 * xmm12) + xmm20
vfmadd231ps %xmm7, %xmm9, %xmm15 # xmm15 = (xmm9 * xmm7) + xmm15
vfmadd231ps %xmm8, %xmm9, %xmm16 # xmm16 = (xmm9 * xmm8) + xmm16
vfmadd231ps %xmm5, %xmm2, %xmm19 # xmm19 = (xmm2 * xmm5) + xmm19
vfmadd231ps %xmm6, %xmm2, %xmm20 # xmm20 = (xmm2 * xmm6) + xmm20
vfmadd231ps %xmm3, %xmm2, %xmm15 # xmm15 = (xmm2 * xmm3) + xmm15
vfmadd231ps %xmm4, %xmm2, %xmm16 # xmm16 = (xmm2 * xmm4) + xmm16
vshufps $0xb1, %xmm19, %xmm19, %xmm2 # xmm2 = xmm19[1,0,3,2]
vminps %xmm19, %xmm2, %xmm3
vshufpd $0x1, %xmm3, %xmm3, %xmm4 # xmm4 = xmm3[1,0]
vminps %xmm3, %xmm4, %xmm3
vshufps $0xb1, %xmm20, %xmm20, %xmm4 # xmm4 = xmm20[1,0,3,2]
vminps %xmm20, %xmm4, %xmm5
vshufpd $0x1, %xmm5, %xmm5, %xmm6 # xmm6 = xmm5[1,0]
vminps %xmm5, %xmm6, %xmm5
vinsertps $0x1c, %xmm5, %xmm3, %xmm3 # xmm3 = xmm3[0],xmm5[0],zero,zero
vshufps $0xb1, %xmm15, %xmm15, %xmm5 # xmm5 = xmm15[1,0,3,2]
vminps %xmm15, %xmm5, %xmm6
vshufpd $0x1, %xmm6, %xmm6, %xmm7 # xmm7 = xmm6[1,0]
vminps %xmm6, %xmm7, %xmm6
vinsertps $0x20, %xmm6, %xmm3, %xmm3 # xmm3 = xmm3[0,1],xmm6[0],xmm3[3]
vmaxps %xmm19, %xmm2, %xmm2
vshufpd $0x1, %xmm2, %xmm2, %xmm6 # xmm6 = xmm2[1,0]
vmaxps %xmm2, %xmm6, %xmm2
vmaxps %xmm20, %xmm4, %xmm4
vshufpd $0x1, %xmm4, %xmm4, %xmm6 # xmm6 = xmm4[1,0]
vmaxps %xmm4, %xmm6, %xmm4
vinsertps $0x1c, %xmm4, %xmm2, %xmm2 # xmm2 = xmm2[0],xmm4[0],zero,zero
vmaxps %xmm15, %xmm5, %xmm4
vshufpd $0x1, %xmm4, %xmm4, %xmm5 # xmm5 = xmm4[1,0]
vmaxps %xmm4, %xmm5, %xmm4
vinsertps $0x20, %xmm4, %xmm2, %xmm2 # xmm2 = xmm2[0,1],xmm4[0],xmm2[3]
vandps 0x7b699(%rip){1to4}, %xmm16, %xmm4 # 0x1f20ec4
vprolq $0x20, %xmm4, %xmm5
vmaxps %xmm4, %xmm5, %xmm4
vbroadcastss %xmm4, %xmm5
vshufps $0xaa, %xmm4, %xmm4, %xmm4 # xmm4 = xmm4[2,2,2,2]
vmaxps %xmm5, %xmm4, %xmm4
vminps %xmm1, %xmm3, %xmm3
vmaxps %xmm1, %xmm2, %xmm1
vandps 0x7b66e(%rip){1to4}, %xmm0, %xmm0 # 0x1f20ec4
vmaxps %xmm0, %xmm4, %xmm2
vsubps %xmm2, %xmm3, %xmm0
vaddps %xmm2, %xmm1, %xmm1
vbroadcastss 0x7b659(%rip), %xmm2 # 0x1f20ec4
vandps %xmm2, %xmm0, %xmm3
vandps %xmm2, %xmm1, %xmm2
vmaxps %xmm2, %xmm3, %xmm2
vmovshdup %xmm2, %xmm3 # xmm3 = xmm2[1,1,3,3]
vmaxss %xmm2, %xmm3, %xmm3
vshufpd $0x1, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[1,0]
vmaxss %xmm3, %xmm2, %xmm2
vmulss 0x4b754(%rip), %xmm2, %xmm2 # 0x1ef0fe4
vbroadcastss %xmm2, %xmm2
vsubps %xmm2, %xmm0, %xmm0
vaddps %xmm2, %xmm1, %xmm1
vmovaps %xmm0, (%rax)
vmovaps %xmm1, 0x10(%rax)
vzeroupper
retq
testl %ecx, %ecx
js 0x1ea5ab1
vpbroadcastd %ecx, %ymm0
vmovdqu %ymm0, -0x28(%rsp)
vbroadcastss %xmm3, %ymm0
vmovups %ymm0, -0x48(%rsp)
vbroadcastss 0x6ce32(%rip), %ymm14 # 0x1f12704
vpermps %ymm3, %ymm14, %ymm2
vbroadcastss 0x7b5fb(%rip), %ymm17 # 0x1f20edc
vpermps %ymm3, %ymm17, %ymm3
vbroadcastss %xmm4, %ymm4
vbroadcastss %xmm7, %ymm5
vpermps %ymm7, %ymm14, %ymm6
vpermps %ymm7, %ymm17, %ymm7
vbroadcastss %xmm8, %ymm8
vbroadcastss %xmm11, %ymm9
vpermps %ymm11, %ymm14, %ymm10
vpermps %ymm11, %ymm17, %ymm11
vbroadcastss %xmm12, %ymm12
vbroadcastss %xmm15, %ymm13
vpermps %ymm15, %ymm14, %ymm14
vpermps %ymm15, %ymm17, %ymm15
vbroadcastss %xmm16, %ymm16
movq %rcx, %rdx
shlq $0x6, %rdx
leaq (%rdx,%rcx,4), %rdx
addq 0x27f59a(%rip), %rdx # 0x2124ed8
vbroadcastss 0x4723c(%rip), %ymm20 # 0x1eecb84
vbroadcastss 0x460ce(%rip), %ymm17 # 0x1eeba20
vxorps %xmm21, %xmm21, %xmm21
xorl %esi, %esi
vmovaps %ymm17, %ymm22
vmovaps %ymm17, %ymm29
vmovaps %ymm20, %ymm26
vmovaps %ymm20, %ymm28
vpbroadcastd %esi, %ymm19
vpord 0xb4f9e(%rip), %ymm19, %ymm19 # 0x1f5a920
vmovups (%rdx,%rsi,4), %ymm23
vmovups 0x484(%rdx,%rsi,4), %ymm24
vmovups 0x908(%rdx,%rsi,4), %ymm25
vpcmpgtd -0x28(%rsp), %ymm19, %k1
vmovups 0xd8c(%rdx,%rsi,4), %ymm19
vmulps %ymm19, %ymm13, %ymm18
vmulps %ymm19, %ymm14, %ymm0
vmulps %ymm19, %ymm15, %ymm1
vmulps %ymm19, %ymm16, %ymm19
vfmadd231ps %ymm9, %ymm25, %ymm18 # ymm18 = (ymm25 * ymm9) + ymm18
vfmadd231ps %ymm10, %ymm25, %ymm0 # ymm0 = (ymm25 * ymm10) + ymm0
vfmadd231ps %ymm11, %ymm25, %ymm1 # ymm1 = (ymm25 * ymm11) + ymm1
vfmadd231ps %ymm25, %ymm12, %ymm19 # ymm19 = (ymm12 * ymm25) + ymm19
vfmadd231ps %ymm5, %ymm24, %ymm18 # ymm18 = (ymm24 * ymm5) + ymm18
vfmadd231ps %ymm6, %ymm24, %ymm0 # ymm0 = (ymm24 * ymm6) + ymm0
vfmadd231ps %ymm7, %ymm24, %ymm1 # ymm1 = (ymm24 * ymm7) + ymm1
vfmadd231ps %ymm24, %ymm8, %ymm19 # ymm19 = (ymm8 * ymm24) + ymm19
vfmadd231ps -0x48(%rsp), %ymm23, %ymm18 # ymm18 = (ymm23 * mem) + ymm18
vfmadd231ps %ymm2, %ymm23, %ymm0 # ymm0 = (ymm23 * ymm2) + ymm0
vfmadd231ps %ymm3, %ymm23, %ymm1 # ymm1 = (ymm23 * ymm3) + ymm1
vfmadd231ps %ymm23, %ymm4, %ymm19 # ymm19 = (ymm4 * ymm23) + ymm19
vandps 0x7b4a0(%rip){1to8}, %ymm19, %ymm19 # 0x1f20ec4
vminps %ymm18, %ymm29, %ymm30
vmovaps %ymm29, %ymm30 {%k1}
vminps %ymm0, %ymm22, %ymm27
vmovaps %ymm22, %ymm27 {%k1}
vminps %ymm1, %ymm17, %ymm31
vmovaps %ymm17, %ymm31 {%k1}
vmaxps %ymm18, %ymm28, %ymm24
vmovaps %ymm28, %ymm24 {%k1}
vmaxps %ymm0, %ymm26, %ymm25
vmovaps %ymm26, %ymm25 {%k1}
vmaxps %ymm1, %ymm20, %ymm23
vmovaps %ymm20, %ymm23 {%k1}
vmaxps %ymm19, %ymm21, %ymm19
vmovaps %ymm21, %ymm19 {%k1}
addq $0x8, %rsi
vmovaps %ymm31, %ymm17
vmovaps %ymm27, %ymm22
vmovaps %ymm30, %ymm29
vmovaps %ymm23, %ymm20
vmovaps %ymm25, %ymm26
vmovaps %ymm24, %ymm28
vmovaps %ymm19, %ymm21
cmpq %rcx, %rsi
jbe 0x1ea5972
jmp 0x1ea5ae3
vbroadcastss 0x45f65(%rip), %ymm30 # 0x1eeba20
vbroadcastss 0x470bf(%rip), %ymm24 # 0x1eecb84
vxorps %xmm19, %xmm19, %xmm19
vmovaps %ymm24, %ymm25
vmovaps %ymm24, %ymm23
vmovaps %ymm30, %ymm27
vmovaps %ymm30, %ymm31
vshufps $0xb1, %ymm30, %ymm30, %ymm0 # ymm0 = ymm30[1,0,3,2,5,4,7,6]
vminps %ymm0, %ymm30, %ymm0
vshufpd $0x5, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2]
vminps %ymm1, %ymm0, %ymm0
vextractf128 $0x1, %ymm0, %xmm1
vminps %xmm1, %xmm0, %xmm0
vshufps $0xb1, %ymm27, %ymm27, %ymm1 # ymm1 = ymm27[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm27, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vextractf128 $0x1, %ymm1, %xmm2
vminps %xmm2, %xmm1, %xmm1
vunpcklps %xmm1, %xmm0, %xmm0 # xmm0 = xmm0[0],xmm1[0],xmm0[1],xmm1[1]
vshufps $0xb1, %ymm31, %ymm31, %ymm1 # ymm1 = ymm31[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm31, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vextractf128 $0x1, %ymm1, %xmm2
vminps %xmm2, %xmm1, %xmm1
vinsertps $0x28, %xmm1, %xmm0, %xmm0 # xmm0 = xmm0[0,1],xmm1[0],zero
vshufps $0xb1, %ymm24, %ymm24, %ymm1 # ymm1 = ymm24[1,0,3,2,5,4,7,6]
vmaxps %ymm1, %ymm24, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vmaxps %ymm2, %ymm1, %ymm1
vextractf128 $0x1, %ymm1, %xmm2
vmaxps %xmm2, %xmm1, %xmm1
vshufps $0xb1, %ymm25, %ymm25, %ymm2 # ymm2 = ymm25[1,0,3,2,5,4,7,6]
vmaxps %ymm2, %ymm25, %ymm2
vshufpd $0x5, %ymm2, %ymm2, %ymm3 # ymm3 = ymm2[1,0,3,2]
vmaxps %ymm3, %ymm2, %ymm2
vextractf128 $0x1, %ymm2, %xmm3
vmaxps %xmm3, %xmm2, %xmm2
vunpcklps %xmm2, %xmm1, %xmm1 # xmm1 = xmm1[0],xmm2[0],xmm1[1],xmm2[1]
vshufps $0xb1, %ymm23, %ymm23, %ymm2 # ymm2 = ymm23[1,0,3,2,5,4,7,6]
vmaxps %ymm2, %ymm23, %ymm2
vshufpd $0x5, %ymm2, %ymm2, %ymm3 # ymm3 = ymm2[1,0,3,2]
vmaxps %ymm3, %ymm2, %ymm2
vextractf128 $0x1, %ymm2, %xmm3
vmaxps %xmm3, %xmm2, %xmm2
vinsertps $0x28, %xmm2, %xmm1, %xmm1 # xmm1 = xmm1[0,1],xmm2[0],zero
vshufps $0xb1, %ymm19, %ymm19, %ymm2 # ymm2 = ymm19[1,0,3,2,5,4,7,6]
vmaxps %ymm2, %ymm19, %ymm2
vshufpd $0x5, %ymm2, %ymm2, %ymm3 # ymm3 = ymm2[1,0,3,2]
vmaxps %ymm3, %ymm2, %ymm2
vextractf128 $0x1, %ymm2, %xmm3
vmaxps %xmm3, %xmm2, %xmm2
vbroadcastss %xmm2, %xmm2
vsubps %xmm2, %xmm0, %xmm0
jmp 0x1ea585e
nop
|
/embree[P]embree/kernels/common/scene_curves.cpp
|
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)0, embree::avx512::CurveGeometryInterface, embree::CatmullRomCurveT>::vbounds(embree::Vec3fa const&, float, float, embree::LinearSpace3<embree::Vec3fa> const&, unsigned long, unsigned long) const
|
BBox3fa vbounds(const Vec3fa& ofs, const float scale, const float r_scale0, const LinearSpace3fa& space, size_t i, size_t itime = 0) const {
return bounds(ofs,scale,r_scale0,space,i,itime);
}
|
pushq %rbx
movq %rdi, %rax
vmulss %xmm1, %xmm0, %xmm1
imulq 0x68(%rsi), %r8
movq 0x58(%rsi), %rdi
movq 0x188(%rsi), %r10
movl (%rdi,%r8), %r11d
imulq $0x38, %r9, %r8
movq (%r10,%r8), %rdi
movq 0x10(%r10,%r8), %rbx
leal 0x1(%r11), %r10d
leal 0x2(%r11), %r9d
leal 0x3(%r11), %r8d
imulq %rbx, %r11
vmovaps (%rdi,%r11), %xmm2
imulq %rbx, %r10
vmovaps (%rdi,%r10), %xmm5
imulq %rbx, %r9
vmovaps (%rdi,%r9), %xmm6
imulq %rbx, %r8
vmovaps (%rdi,%r8), %xmm9
vmovaps (%rdx), %xmm10
vsubps %xmm10, %xmm2, %xmm2
vbroadcastss %xmm0, %xmm0
vmulps %xmm2, %xmm0, %xmm2
vbroadcastss %xmm2, %xmm4
vshufps $0x55, %xmm2, %xmm2, %xmm7 # xmm7 = xmm2[1,1,1,1]
vmovaps (%rcx), %xmm13
vshufps $0xaa, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[2,2,2,2]
vmovaps 0x10(%rcx), %xmm14
vmovaps 0x20(%rcx), %xmm15
vmulps %xmm2, %xmm15, %xmm3
vfmadd231ps %xmm7, %xmm14, %xmm3 # xmm3 = (xmm14 * xmm7) + xmm3
vfmadd231ps %xmm4, %xmm13, %xmm3 # xmm3 = (xmm13 * xmm4) + xmm3
vmovss 0x24c(%rsi), %xmm2
vmulss 0xc(%rdi,%r11), %xmm2, %xmm4
vmulss %xmm4, %xmm1, %xmm4
vsubps %xmm10, %xmm5, %xmm5
vmulps %xmm5, %xmm0, %xmm5
vbroadcastss %xmm5, %xmm8
vshufps $0x55, %xmm5, %xmm5, %xmm11 # xmm11 = xmm5[1,1,1,1]
vshufps $0xaa, %xmm5, %xmm5, %xmm5 # xmm5 = xmm5[2,2,2,2]
vmulps %xmm5, %xmm15, %xmm7
vfmadd231ps %xmm11, %xmm14, %xmm7 # xmm7 = (xmm14 * xmm11) + xmm7
vfmadd231ps %xmm8, %xmm13, %xmm7 # xmm7 = (xmm13 * xmm8) + xmm7
vmulss 0xc(%rdi,%r10), %xmm2, %xmm5
vmulss %xmm5, %xmm1, %xmm8
vsubps %xmm10, %xmm6, %xmm5
vmulps %xmm5, %xmm0, %xmm5
vbroadcastss %xmm5, %xmm6
vshufps $0x55, %xmm5, %xmm5, %xmm12 # xmm12 = xmm5[1,1,1,1]
vshufps $0xaa, %xmm5, %xmm5, %xmm5 # xmm5 = xmm5[2,2,2,2]
vmulps %xmm5, %xmm15, %xmm11
vfmadd231ps %xmm12, %xmm14, %xmm11 # xmm11 = (xmm14 * xmm12) + xmm11
vfmadd231ps %xmm6, %xmm13, %xmm11 # xmm11 = (xmm13 * xmm6) + xmm11
vmulss 0xc(%rdi,%r9), %xmm2, %xmm5
vmulss %xmm5, %xmm1, %xmm12
vsubps %xmm10, %xmm9, %xmm5
vmulps %xmm5, %xmm0, %xmm0
vbroadcastss %xmm0, %xmm5
vshufps $0x55, %xmm0, %xmm0, %xmm6 # xmm6 = xmm0[1,1,1,1]
vshufps $0xaa, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[2,2,2,2]
vmulps %xmm0, %xmm15, %xmm15
vfmadd231ps %xmm6, %xmm14, %xmm15 # xmm15 = (xmm14 * xmm6) + xmm15
vfmadd231ps %xmm5, %xmm13, %xmm15 # xmm15 = (xmm13 * xmm5) + xmm15
vmulss 0xc(%rdi,%r8), %xmm2, %xmm0
vmulss %xmm0, %xmm1, %xmm16
movl 0x248(%rsi), %ecx
cmpq $0x4, %rcx
jne 0x1ea5f2a
vbroadcastss %xmm12, %xmm0
vblendps $0x8, %xmm0, %xmm11, %xmm1 # xmm1 = xmm11[0,1,2],xmm0[3]
leaq 0x28a622(%rip), %rcx # 0x213036c
vmovups 0x110(%rcx), %xmm2
vbroadcastss %xmm3, %xmm5
vshufps $0x55, %xmm3, %xmm3, %xmm6 # xmm6 = xmm3[1,1,1,1]
vshufps $0xaa, %xmm3, %xmm3, %xmm3 # xmm3 = xmm3[2,2,2,2]
vbroadcastss %xmm4, %xmm4
vmovups 0x594(%rcx), %xmm9
vbroadcastss %xmm7, %xmm10
vshufps $0x55, %xmm7, %xmm7, %xmm12 # xmm12 = xmm7[1,1,1,1]
vshufps $0xaa, %xmm7, %xmm7, %xmm7 # xmm7 = xmm7[2,2,2,2]
vbroadcastss %xmm8, %xmm8
vmovups 0xa18(%rcx), %xmm13
vbroadcastss %xmm11, %xmm14
vshufps $0x55, %xmm11, %xmm11, %xmm17 # xmm17 = xmm11[1,1,1,1]
vmovups 0xe9c(%rcx), %xmm18
vshufps $0xaa, %xmm11, %xmm11, %xmm11 # xmm11 = xmm11[2,2,2,2]
vbroadcastss %xmm15, %xmm19
vshufps $0x55, %xmm15, %xmm15, %xmm20 # xmm20 = xmm15[1,1,1,1]
vshufps $0xaa, %xmm15, %xmm15, %xmm15 # xmm15 = xmm15[2,2,2,2]
vbroadcastss %xmm16, %xmm16
vmulps %xmm18, %xmm19, %xmm19
vmulps %xmm18, %xmm20, %xmm20
vmulps %xmm18, %xmm15, %xmm15
vmulps %xmm18, %xmm16, %xmm16
vfmadd231ps %xmm14, %xmm13, %xmm19 # xmm19 = (xmm13 * xmm14) + xmm19
vfmadd231ps %xmm17, %xmm13, %xmm20 # xmm20 = (xmm13 * xmm17) + xmm20
vfmadd231ps %xmm11, %xmm13, %xmm15 # xmm15 = (xmm13 * xmm11) + xmm15
vfmadd231ps %xmm13, %xmm0, %xmm16 # xmm16 = (xmm0 * xmm13) + xmm16
vfmadd231ps %xmm10, %xmm9, %xmm19 # xmm19 = (xmm9 * xmm10) + xmm19
vfmadd231ps %xmm12, %xmm9, %xmm20 # xmm20 = (xmm9 * xmm12) + xmm20
vfmadd231ps %xmm7, %xmm9, %xmm15 # xmm15 = (xmm9 * xmm7) + xmm15
vfmadd231ps %xmm8, %xmm9, %xmm16 # xmm16 = (xmm9 * xmm8) + xmm16
vfmadd231ps %xmm5, %xmm2, %xmm19 # xmm19 = (xmm2 * xmm5) + xmm19
vfmadd231ps %xmm6, %xmm2, %xmm20 # xmm20 = (xmm2 * xmm6) + xmm20
vfmadd231ps %xmm3, %xmm2, %xmm15 # xmm15 = (xmm2 * xmm3) + xmm15
vfmadd231ps %xmm4, %xmm2, %xmm16 # xmm16 = (xmm2 * xmm4) + xmm16
vshufps $0xb1, %xmm19, %xmm19, %xmm2 # xmm2 = xmm19[1,0,3,2]
vminps %xmm19, %xmm2, %xmm3
vshufpd $0x1, %xmm3, %xmm3, %xmm4 # xmm4 = xmm3[1,0]
vminps %xmm3, %xmm4, %xmm3
vshufps $0xb1, %xmm20, %xmm20, %xmm4 # xmm4 = xmm20[1,0,3,2]
vminps %xmm20, %xmm4, %xmm5
vshufpd $0x1, %xmm5, %xmm5, %xmm6 # xmm6 = xmm5[1,0]
vminps %xmm5, %xmm6, %xmm5
vinsertps $0x1c, %xmm5, %xmm3, %xmm3 # xmm3 = xmm3[0],xmm5[0],zero,zero
vshufps $0xb1, %xmm15, %xmm15, %xmm5 # xmm5 = xmm15[1,0,3,2]
vminps %xmm15, %xmm5, %xmm6
vshufpd $0x1, %xmm6, %xmm6, %xmm7 # xmm7 = xmm6[1,0]
vminps %xmm6, %xmm7, %xmm6
vinsertps $0x20, %xmm6, %xmm3, %xmm3 # xmm3 = xmm3[0,1],xmm6[0],xmm3[3]
vmaxps %xmm19, %xmm2, %xmm2
vshufpd $0x1, %xmm2, %xmm2, %xmm6 # xmm6 = xmm2[1,0]
vmaxps %xmm2, %xmm6, %xmm2
vmaxps %xmm20, %xmm4, %xmm4
vshufpd $0x1, %xmm4, %xmm4, %xmm6 # xmm6 = xmm4[1,0]
vmaxps %xmm4, %xmm6, %xmm4
vinsertps $0x1c, %xmm4, %xmm2, %xmm2 # xmm2 = xmm2[0],xmm4[0],zero,zero
vmaxps %xmm15, %xmm5, %xmm4
vshufpd $0x1, %xmm4, %xmm4, %xmm5 # xmm5 = xmm4[1,0]
vmaxps %xmm4, %xmm5, %xmm4
vinsertps $0x20, %xmm4, %xmm2, %xmm2 # xmm2 = xmm2[0,1],xmm4[0],xmm2[3]
vandps 0x7b01a(%rip){1to4}, %xmm16, %xmm4 # 0x1f20ec4
vprolq $0x20, %xmm4, %xmm5
vmaxps %xmm4, %xmm5, %xmm4
vbroadcastss %xmm4, %xmm5
vshufps $0xaa, %xmm4, %xmm4, %xmm4 # xmm4 = xmm4[2,2,2,2]
vmaxps %xmm5, %xmm4, %xmm4
vminps %xmm1, %xmm3, %xmm3
vmaxps %xmm1, %xmm2, %xmm1
vandps 0x7afef(%rip){1to4}, %xmm0, %xmm0 # 0x1f20ec4
vmaxps %xmm0, %xmm4, %xmm2
vsubps %xmm2, %xmm3, %xmm0
vaddps %xmm2, %xmm1, %xmm1
vbroadcastss 0x7afda(%rip), %xmm2 # 0x1f20ec4
vandps %xmm2, %xmm0, %xmm3
vandps %xmm2, %xmm1, %xmm2
vmaxps %xmm2, %xmm3, %xmm2
vmovshdup %xmm2, %xmm3 # xmm3 = xmm2[1,1,3,3]
vmaxss %xmm2, %xmm3, %xmm3
vshufpd $0x1, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[1,0]
vmaxss %xmm3, %xmm2, %xmm2
vmulss 0x4b0d5(%rip), %xmm2, %xmm2 # 0x1ef0fe4
vbroadcastss %xmm2, %xmm2
vsubps %xmm2, %xmm0, %xmm0
vaddps %xmm2, %xmm1, %xmm1
vmovaps %xmm0, (%rax)
vmovaps %xmm1, 0x10(%rax)
popq %rbx
vzeroupper
retq
testl %ecx, %ecx
js 0x1ea612b
vpbroadcastd %ecx, %ymm0
vmovdqu %ymm0, -0x20(%rsp)
vbroadcastss %xmm3, %ymm0
vmovups %ymm0, -0x40(%rsp)
vbroadcastss 0x6c7b2(%rip), %ymm14 # 0x1f12704
vpermps %ymm3, %ymm14, %ymm2
vbroadcastss 0x7af7b(%rip), %ymm17 # 0x1f20edc
vpermps %ymm3, %ymm17, %ymm3
vbroadcastss %xmm4, %ymm4
vbroadcastss %xmm7, %ymm5
vpermps %ymm7, %ymm14, %ymm6
vpermps %ymm7, %ymm17, %ymm7
vbroadcastss %xmm8, %ymm8
vbroadcastss %xmm11, %ymm9
vpermps %ymm11, %ymm14, %ymm10
vpermps %ymm11, %ymm17, %ymm11
vbroadcastss %xmm12, %ymm12
vbroadcastss %xmm15, %ymm13
vpermps %ymm15, %ymm14, %ymm14
vpermps %ymm15, %ymm17, %ymm15
vbroadcastss %xmm16, %ymm16
movq %rcx, %rdx
shlq $0x6, %rdx
leaq (%rdx,%rcx,4), %rdx
addq 0x27ef1a(%rip), %rdx # 0x2124ed8
vbroadcastss 0x46bbc(%rip), %ymm20 # 0x1eecb84
vbroadcastss 0x45a4e(%rip), %ymm17 # 0x1eeba20
vxorps %xmm21, %xmm21, %xmm21
xorl %esi, %esi
vmovaps %ymm17, %ymm22
vmovaps %ymm17, %ymm29
vmovaps %ymm20, %ymm26
vmovaps %ymm20, %ymm28
vpbroadcastd %esi, %ymm19
vpord 0xb491e(%rip), %ymm19, %ymm19 # 0x1f5a920
vmovups (%rdx,%rsi,4), %ymm23
vmovups 0x484(%rdx,%rsi,4), %ymm24
vmovups 0x908(%rdx,%rsi,4), %ymm25
vpcmpgtd -0x20(%rsp), %ymm19, %k1
vmovups 0xd8c(%rdx,%rsi,4), %ymm19
vmulps %ymm19, %ymm13, %ymm18
vmulps %ymm19, %ymm14, %ymm0
vmulps %ymm19, %ymm15, %ymm1
vmulps %ymm19, %ymm16, %ymm19
vfmadd231ps %ymm9, %ymm25, %ymm18 # ymm18 = (ymm25 * ymm9) + ymm18
vfmadd231ps %ymm10, %ymm25, %ymm0 # ymm0 = (ymm25 * ymm10) + ymm0
vfmadd231ps %ymm11, %ymm25, %ymm1 # ymm1 = (ymm25 * ymm11) + ymm1
vfmadd231ps %ymm25, %ymm12, %ymm19 # ymm19 = (ymm12 * ymm25) + ymm19
vfmadd231ps %ymm5, %ymm24, %ymm18 # ymm18 = (ymm24 * ymm5) + ymm18
vfmadd231ps %ymm6, %ymm24, %ymm0 # ymm0 = (ymm24 * ymm6) + ymm0
vfmadd231ps %ymm7, %ymm24, %ymm1 # ymm1 = (ymm24 * ymm7) + ymm1
vfmadd231ps %ymm24, %ymm8, %ymm19 # ymm19 = (ymm8 * ymm24) + ymm19
vfmadd231ps -0x40(%rsp), %ymm23, %ymm18 # ymm18 = (ymm23 * mem) + ymm18
vfmadd231ps %ymm2, %ymm23, %ymm0 # ymm0 = (ymm23 * ymm2) + ymm0
vfmadd231ps %ymm3, %ymm23, %ymm1 # ymm1 = (ymm23 * ymm3) + ymm1
vfmadd231ps %ymm23, %ymm4, %ymm19 # ymm19 = (ymm4 * ymm23) + ymm19
vandps 0x7ae26(%rip){1to8}, %ymm19, %ymm19 # 0x1f20ec4
vminps %ymm18, %ymm29, %ymm30
vmovaps %ymm29, %ymm30 {%k1}
vminps %ymm0, %ymm22, %ymm27
vmovaps %ymm22, %ymm27 {%k1}
vminps %ymm1, %ymm17, %ymm31
vmovaps %ymm17, %ymm31 {%k1}
vmaxps %ymm18, %ymm28, %ymm24
vmovaps %ymm28, %ymm24 {%k1}
vmaxps %ymm0, %ymm26, %ymm25
vmovaps %ymm26, %ymm25 {%k1}
vmaxps %ymm1, %ymm20, %ymm23
vmovaps %ymm20, %ymm23 {%k1}
vmaxps %ymm19, %ymm21, %ymm19
vmovaps %ymm21, %ymm19 {%k1}
addq $0x8, %rsi
vmovaps %ymm31, %ymm17
vmovaps %ymm27, %ymm22
vmovaps %ymm30, %ymm29
vmovaps %ymm23, %ymm20
vmovaps %ymm25, %ymm26
vmovaps %ymm24, %ymm28
vmovaps %ymm19, %ymm21
cmpq %rcx, %rsi
jbe 0x1ea5ff2
jmp 0x1ea615d
vbroadcastss 0x458eb(%rip), %ymm30 # 0x1eeba20
vbroadcastss 0x46a45(%rip), %ymm24 # 0x1eecb84
vxorps %xmm19, %xmm19, %xmm19
vmovaps %ymm24, %ymm25
vmovaps %ymm24, %ymm23
vmovaps %ymm30, %ymm27
vmovaps %ymm30, %ymm31
vshufps $0xb1, %ymm30, %ymm30, %ymm0 # ymm0 = ymm30[1,0,3,2,5,4,7,6]
vminps %ymm0, %ymm30, %ymm0
vshufpd $0x5, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2]
vminps %ymm1, %ymm0, %ymm0
vextractf128 $0x1, %ymm0, %xmm1
vminps %xmm1, %xmm0, %xmm0
vshufps $0xb1, %ymm27, %ymm27, %ymm1 # ymm1 = ymm27[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm27, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vextractf128 $0x1, %ymm1, %xmm2
vminps %xmm2, %xmm1, %xmm1
vunpcklps %xmm1, %xmm0, %xmm0 # xmm0 = xmm0[0],xmm1[0],xmm0[1],xmm1[1]
vshufps $0xb1, %ymm31, %ymm31, %ymm1 # ymm1 = ymm31[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm31, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vextractf128 $0x1, %ymm1, %xmm2
vminps %xmm2, %xmm1, %xmm1
vinsertps $0x28, %xmm1, %xmm0, %xmm0 # xmm0 = xmm0[0,1],xmm1[0],zero
vshufps $0xb1, %ymm24, %ymm24, %ymm1 # ymm1 = ymm24[1,0,3,2,5,4,7,6]
vmaxps %ymm1, %ymm24, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vmaxps %ymm2, %ymm1, %ymm1
vextractf128 $0x1, %ymm1, %xmm2
vmaxps %xmm2, %xmm1, %xmm1
vshufps $0xb1, %ymm25, %ymm25, %ymm2 # ymm2 = ymm25[1,0,3,2,5,4,7,6]
vmaxps %ymm2, %ymm25, %ymm2
vshufpd $0x5, %ymm2, %ymm2, %ymm3 # ymm3 = ymm2[1,0,3,2]
vmaxps %ymm3, %ymm2, %ymm2
vextractf128 $0x1, %ymm2, %xmm3
vmaxps %xmm3, %xmm2, %xmm2
vunpcklps %xmm2, %xmm1, %xmm1 # xmm1 = xmm1[0],xmm2[0],xmm1[1],xmm2[1]
vshufps $0xb1, %ymm23, %ymm23, %ymm2 # ymm2 = ymm23[1,0,3,2,5,4,7,6]
vmaxps %ymm2, %ymm23, %ymm2
vshufpd $0x5, %ymm2, %ymm2, %ymm3 # ymm3 = ymm2[1,0,3,2]
vmaxps %ymm3, %ymm2, %ymm2
vextractf128 $0x1, %ymm2, %xmm3
vmaxps %xmm3, %xmm2, %xmm2
vinsertps $0x28, %xmm2, %xmm1, %xmm1 # xmm1 = xmm1[0,1],xmm2[0],zero
vshufps $0xb1, %ymm19, %ymm19, %ymm2 # ymm2 = ymm19[1,0,3,2,5,4,7,6]
vmaxps %ymm2, %ymm19, %ymm2
vshufpd $0x5, %ymm2, %ymm2, %ymm3 # ymm3 = ymm2[1,0,3,2]
vmaxps %ymm3, %ymm2, %ymm2
vextractf128 $0x1, %ymm2, %xmm3
vmaxps %xmm3, %xmm2, %xmm2
vbroadcastss %xmm2, %xmm2
vsubps %xmm2, %xmm0, %xmm0
jmp 0x1ea5edd
nop
|
/embree[P]embree/kernels/common/scene_curves.cpp
|
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)0, embree::avx512::CurveGeometryInterface, embree::CatmullRomCurveT>::vlinearBounds(embree::LinearSpace3<embree::Vec3fa> const&, unsigned long, embree::BBox<float> const&) const
|
LBBox3fa vlinearBounds(const LinearSpace3fa& space, size_t primID, const BBox1f& time_range) const {
return linearBounds(space,primID,time_range);
}
|
pushq %rbp
pushq %r15
pushq %r14
pushq %r13
pushq %r12
pushq %rbx
subq $0x138, %rsp # imm = 0x138
leaq 0xc8(%rsp), %rax
movq %rcx, (%rax)
leaq 0xb0(%rsp), %r14
movq %rdx, (%r14)
movq %rax, 0x8(%r14)
movq %rsi, 0x10(%r14)
vmovss 0x28(%rsi), %xmm4
vmovss 0x2c(%rsi), %xmm0
vmovss (%r8), %xmm1
vmovss 0x4(%r8), %xmm2
vsubss %xmm0, %xmm1, %xmm1
vmovss 0x30(%rsi), %xmm3
vsubss %xmm0, %xmm3, %xmm3
vdivss %xmm3, %xmm1, %xmm1
vsubss %xmm0, %xmm2, %xmm0
vdivss %xmm3, %xmm0, %xmm2
vmovss %xmm1, 0x4(%rsp)
vmulss %xmm1, %xmm4, %xmm0
vmovss %xmm0, 0x20(%rsp)
vroundss $0x9, %xmm0, %xmm0, %xmm0
vmovss %xmm2, 0x50(%rsp)
vmulss %xmm2, %xmm4, %xmm1
vmovss %xmm1, 0x40(%rsp)
vroundss $0xa, %xmm1, %xmm1, %xmm1
vxorps %xmm2, %xmm2, %xmm2
vmaxss %xmm2, %xmm0, %xmm3
vminss %xmm4, %xmm1, %xmm2
vmovss %xmm3, 0x10(%rsp)
vcvttss2si %xmm3, %r15d
vmovss %xmm2, 0x30(%rsp)
vcvttss2si %xmm2, %r12d
vcvttss2si %xmm0, %eax
movq %rdi, %rbx
testl %eax, %eax
movl $0xffffffff, %r13d # imm = 0xFFFFFFFF
cmovnsl %eax, %r13d
vcvttss2si %xmm1, %eax
vmovss %xmm4, 0xc(%rsp)
vcvttss2si %xmm4, %ebp
incl %ebp
cmpl %ebp, %eax
cmovll %eax, %ebp
movslq %r15d, %rdx
leaq 0x80(%rsp), %rdi
movq %r14, %rsi
callq 0x1ea731c
movslq %r12d, %rdx
leaq 0x60(%rsp), %rdi
movq %r14, %rsi
callq 0x1ea731c
movl %ebp, %eax
subl %r13d, %eax
cmpl $0x1, %eax
jne 0x1ea679d
vmovss 0x20(%rsp), %xmm0
vsubss 0x10(%rsp), %xmm0, %xmm0
vxorps %xmm8, %xmm8, %xmm8
vmaxss %xmm8, %xmm0, %xmm0
vmovss 0x45ffe(%rip), %xmm1 # 0x1eec714
vsubss %xmm0, %xmm1, %xmm2
vbroadcastss %xmm0, %xmm0
vmovaps 0x60(%rsp), %xmm3
vmovaps 0x70(%rsp), %xmm4
vmulps %xmm3, %xmm0, %xmm5
vbroadcastss %xmm2, %xmm2
vmovaps 0x80(%rsp), %xmm6
vmovaps 0x90(%rsp), %xmm7
vfmadd231ps %xmm6, %xmm2, %xmm5 # xmm5 = (xmm2 * xmm6) + xmm5
vmulps %xmm4, %xmm0, %xmm0
vfmadd231ps %xmm2, %xmm7, %xmm0 # xmm0 = (xmm7 * xmm2) + xmm0
vmovaps %xmm5, (%rbx)
vmovaps %xmm0, 0x10(%rbx)
vmovss 0x30(%rsp), %xmm0
vsubss 0x40(%rsp), %xmm0, %xmm0
vmaxss %xmm8, %xmm0, %xmm0
vsubss %xmm0, %xmm1, %xmm1
vbroadcastss %xmm0, %xmm0
vmulps %xmm6, %xmm0, %xmm2
vbroadcastss %xmm1, %xmm1
vfmadd231ps %xmm3, %xmm1, %xmm2 # xmm2 = (xmm1 * xmm3) + xmm2
vmulps %xmm7, %xmm0, %xmm0
vfmadd231ps %xmm4, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm4) + xmm0
vmovaps %xmm2, 0x20(%rbx)
vmovaps %xmm0, 0x30(%rbx)
jmp 0x1ea6980
incl %r15d
movslq %r15d, %rdx
leaq 0x110(%rsp), %r14
leaq 0xb0(%rsp), %r15
movq %r14, %rdi
movq %r15, %rsi
callq 0x1ea731c
decl %r12d
movslq %r12d, %rdx
leaq 0xf0(%rsp), %r12
movq %r12, %rdi
movq %r15, %rsi
callq 0x1ea731c
vmovss 0x20(%rsp), %xmm0
vsubss 0x10(%rsp), %xmm0, %xmm0
vxorps %xmm5, %xmm5, %xmm5
vmaxss %xmm5, %xmm0, %xmm0
vmovss 0x45f21(%rip), %xmm4 # 0x1eec714
vbroadcastss %xmm0, %xmm1
vmulps (%r14), %xmm1, %xmm2
vsubss %xmm0, %xmm4, %xmm0
vbroadcastss %xmm0, %xmm0
vfmadd231ps 0x80(%rsp), %xmm0, %xmm2 # xmm2 = (xmm0 * mem) + xmm2
vmulps 0x10(%r14), %xmm1, %xmm3
vfmadd231ps 0x90(%rsp), %xmm0, %xmm3 # xmm3 = (xmm0 * mem) + xmm3
vmovss 0x30(%rsp), %xmm0
vsubss 0x40(%rsp), %xmm0, %xmm0
vmaxss %xmm5, %xmm0, %xmm0
vsubss %xmm0, %xmm4, %xmm1
vbroadcastss %xmm0, %xmm0
vmulps (%r12), %xmm0, %xmm5
vbroadcastss %xmm1, %xmm1
vfmadd231ps 0x60(%rsp), %xmm1, %xmm5 # xmm5 = (xmm1 * mem) + xmm5
vmulps 0x10(%r12), %xmm0, %xmm6
vfmadd231ps 0x70(%rsp), %xmm1, %xmm6 # xmm6 = (xmm1 * mem) + xmm6
leal 0x1(%r13), %eax
cmpl %ebp, %eax
jge 0x1ea696d
vmovss 0x4(%rsp), %xmm1
vmovss 0x50(%rsp), %xmm0
vsubss %xmm1, %xmm0, %xmm0
vmovss %xmm0, 0x8(%rsp)
movl %eax, %r14d
notl %r13d
addl %ebp, %r13d
leaq 0xd0(%rsp), %r15
leaq 0xb0(%rsp), %r12
vmovaps %xmm6, 0x10(%rsp)
vmovaps %xmm5, 0x20(%rsp)
vmovaps %xmm3, 0x30(%rsp)
vmovaps %xmm2, 0x40(%rsp)
vcvtsi2ss %r14d, %xmm8, %xmm0
vdivss 0xc(%rsp), %xmm0, %xmm0
vsubss %xmm1, %xmm0, %xmm0
vdivss 0x8(%rsp), %xmm0, %xmm0
vsubss %xmm0, %xmm4, %xmm1
vbroadcastss %xmm0, %xmm0
vmulps %xmm0, %xmm5, %xmm4
vbroadcastss %xmm1, %xmm1
vfmadd231ps %xmm2, %xmm1, %xmm4 # xmm4 = (xmm1 * xmm2) + xmm4
vmovaps %xmm4, 0x50(%rsp)
vmulps %xmm0, %xmm6, %xmm0
vfmadd231ps %xmm1, %xmm3, %xmm0 # xmm0 = (xmm3 * xmm1) + xmm0
vmovaps %xmm0, 0xa0(%rsp)
movq %r15, %rdi
movq %r12, %rsi
movq %r14, %rdx
callq 0x1ea731c
vmovaps 0x10(%rsp), %xmm6
vmovaps 0x20(%rsp), %xmm5
vmovss 0x45e02(%rip), %xmm4 # 0x1eec714
vmovaps 0x30(%rsp), %xmm3
vmovaps 0x40(%rsp), %xmm2
vmovaps 0xd0(%rsp), %xmm0
vsubps 0x50(%rsp), %xmm0, %xmm0
vmovaps 0xe0(%rsp), %xmm1
vsubps 0xa0(%rsp), %xmm1, %xmm1
vxorps %xmm7, %xmm7, %xmm7
vminps %xmm7, %xmm0, %xmm0
vmaxps %xmm7, %xmm1, %xmm1
vaddps %xmm0, %xmm2, %xmm2
vaddps %xmm0, %xmm5, %xmm5
vaddps %xmm1, %xmm3, %xmm3
vaddps %xmm1, %xmm6, %xmm6
vmovss 0x4(%rsp), %xmm1
incq %r14
decl %r13d
jne 0x1ea6894
vmovaps %xmm2, (%rbx)
vmovaps %xmm3, 0x10(%rbx)
vmovaps %xmm5, 0x20(%rbx)
vmovaps %xmm6, 0x30(%rbx)
movq %rbx, %rax
addq $0x138, %rsp # imm = 0x138
popq %rbx
popq %r12
popq %r13
popq %r14
popq %r15
popq %rbp
retq
nop
|
/embree[P]embree/kernels/common/scene_curves.cpp
|
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)0, embree::avx512::CurveGeometryInterface, embree::CatmullRomCurveT>::vlinearBounds(embree::Vec3fa const&, float, float, embree::LinearSpace3<embree::Vec3fa> const&, unsigned long, embree::BBox<float> const&) const
|
LBBox3fa vlinearBounds(const Vec3fa& ofs, const float scale, const float r_scale0, const LinearSpace3fa& space, size_t primID, const BBox1f& time_range) const {
return linearBounds(ofs,scale,r_scale0,space,primID,time_range);
}
|
pushq %rbp
pushq %r15
pushq %r14
pushq %r13
pushq %r12
pushq %rbx
subq $0x168, %rsp # imm = 0x168
leaq 0x6c(%rsp), %rax
vmovss %xmm0, (%rax)
leaq 0x68(%rsp), %r10
vmovss %xmm1, (%r10)
leaq 0xc8(%rsp), %r11
movq %r8, (%r11)
leaq 0xf0(%rsp), %r14
movq %rdx, (%r14)
movq %rax, 0x8(%r14)
movq %r10, 0x10(%r14)
movq %rcx, 0x18(%r14)
movq %r11, 0x20(%r14)
movq %rsi, 0x28(%r14)
vmovss 0x28(%rsi), %xmm4
vmovss 0x2c(%rsi), %xmm0
vmovss (%r9), %xmm1
vmovss 0x4(%r9), %xmm2
vsubss %xmm0, %xmm1, %xmm1
vmovss 0x30(%rsi), %xmm3
vsubss %xmm0, %xmm3, %xmm3
vdivss %xmm3, %xmm1, %xmm1
vsubss %xmm0, %xmm2, %xmm0
vdivss %xmm3, %xmm0, %xmm2
vmovss %xmm1, 0x4(%rsp)
vmulss %xmm1, %xmm4, %xmm0
vmovss %xmm0, 0x20(%rsp)
vroundss $0x9, %xmm0, %xmm0, %xmm0
vmovss %xmm2, 0x50(%rsp)
vmulss %xmm2, %xmm4, %xmm1
vmovss %xmm1, 0x40(%rsp)
vroundss $0xa, %xmm1, %xmm1, %xmm1
vxorps %xmm2, %xmm2, %xmm2
vmaxss %xmm2, %xmm0, %xmm3
vminss %xmm4, %xmm1, %xmm2
vmovss %xmm3, 0x10(%rsp)
vcvttss2si %xmm3, %r15d
vmovss %xmm2, 0x30(%rsp)
vcvttss2si %xmm2, %r12d
vcvttss2si %xmm0, %eax
movq %rdi, %rbx
testl %eax, %eax
movl $0xffffffff, %r13d # imm = 0xFFFFFFFF
cmovnsl %eax, %r13d
vcvttss2si %xmm1, %eax
vmovss %xmm4, 0xc(%rsp)
vcvttss2si %xmm4, %ebp
incl %ebp
cmpl %ebp, %eax
cmovll %eax, %ebp
movslq %r15d, %rdx
leaq 0x90(%rsp), %rdi
movq %r14, %rsi
callq 0x1ea7936
movslq %r12d, %rdx
leaq 0x70(%rsp), %rdi
movq %r14, %rsi
callq 0x1ea7936
movl %ebp, %eax
subl %r13d, %eax
cmpl $0x1, %eax
jne 0x1ea6b5f
vmovss 0x20(%rsp), %xmm0
vsubss 0x10(%rsp), %xmm0, %xmm0
vxorps %xmm8, %xmm8, %xmm8
vmaxss %xmm8, %xmm0, %xmm0
vmovss 0x45c3f(%rip), %xmm1 # 0x1eec714
vsubss %xmm0, %xmm1, %xmm2
vbroadcastss %xmm0, %xmm0
vmovaps 0x70(%rsp), %xmm3
vmovaps 0x80(%rsp), %xmm4
vmulps %xmm3, %xmm0, %xmm5
vbroadcastss %xmm2, %xmm2
vmovaps 0x90(%rsp), %xmm6
vmovaps 0xa0(%rsp), %xmm7
vfmadd231ps %xmm6, %xmm2, %xmm5 # xmm5 = (xmm2 * xmm6) + xmm5
vmulps %xmm4, %xmm0, %xmm0
vfmadd231ps %xmm2, %xmm7, %xmm0 # xmm0 = (xmm7 * xmm2) + xmm0
vmovaps %xmm5, (%rbx)
vmovaps %xmm0, 0x10(%rbx)
vmovss 0x30(%rsp), %xmm0
vsubss 0x40(%rsp), %xmm0, %xmm0
vmaxss %xmm8, %xmm0, %xmm0
vsubss %xmm0, %xmm1, %xmm1
vbroadcastss %xmm0, %xmm0
vmulps %xmm6, %xmm0, %xmm2
vbroadcastss %xmm1, %xmm1
vfmadd231ps %xmm3, %xmm1, %xmm2 # xmm2 = (xmm1 * xmm3) + xmm2
vmulps %xmm7, %xmm0, %xmm0
vfmadd231ps %xmm4, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm4) + xmm0
vmovaps %xmm2, 0x20(%rbx)
vmovaps %xmm0, 0x30(%rbx)
jmp 0x1ea6d45
incl %r15d
movslq %r15d, %rdx
leaq 0x140(%rsp), %r14
leaq 0xf0(%rsp), %r15
movq %r14, %rdi
movq %r15, %rsi
callq 0x1ea7936
decl %r12d
movslq %r12d, %rdx
leaq 0x120(%rsp), %r12
movq %r12, %rdi
movq %r15, %rsi
callq 0x1ea7936
vmovss 0x20(%rsp), %xmm0
vsubss 0x10(%rsp), %xmm0, %xmm0
vxorps %xmm5, %xmm5, %xmm5
vmaxss %xmm5, %xmm0, %xmm0
vmovss 0x45b5f(%rip), %xmm4 # 0x1eec714
vbroadcastss %xmm0, %xmm1
vmulps (%r14), %xmm1, %xmm2
vsubss %xmm0, %xmm4, %xmm0
vbroadcastss %xmm0, %xmm0
vfmadd231ps 0x90(%rsp), %xmm0, %xmm2 # xmm2 = (xmm0 * mem) + xmm2
vmulps 0x10(%r14), %xmm1, %xmm3
vfmadd231ps 0xa0(%rsp), %xmm0, %xmm3 # xmm3 = (xmm0 * mem) + xmm3
vmovss 0x30(%rsp), %xmm0
vsubss 0x40(%rsp), %xmm0, %xmm0
vmaxss %xmm5, %xmm0, %xmm0
vsubss %xmm0, %xmm4, %xmm1
vbroadcastss %xmm0, %xmm0
vmulps (%r12), %xmm0, %xmm5
vbroadcastss %xmm1, %xmm1
vfmadd231ps 0x70(%rsp), %xmm1, %xmm5 # xmm5 = (xmm1 * mem) + xmm5
vmulps 0x10(%r12), %xmm0, %xmm6
vfmadd231ps 0x80(%rsp), %xmm1, %xmm6 # xmm6 = (xmm1 * mem) + xmm6
leal 0x1(%r13), %eax
cmpl %ebp, %eax
jge 0x1ea6d32
vmovss 0x4(%rsp), %xmm1
vmovss 0x50(%rsp), %xmm0
vsubss %xmm1, %xmm0, %xmm0
vmovss %xmm0, 0x8(%rsp)
movl %eax, %r14d
notl %r13d
addl %ebp, %r13d
leaq 0xd0(%rsp), %r15
leaq 0xf0(%rsp), %r12
vmovaps %xmm6, 0x10(%rsp)
vmovaps %xmm5, 0x20(%rsp)
vmovaps %xmm3, 0x30(%rsp)
vmovaps %xmm2, 0x40(%rsp)
vcvtsi2ss %r14d, %xmm8, %xmm0
vdivss 0xc(%rsp), %xmm0, %xmm0
vsubss %xmm1, %xmm0, %xmm0
vdivss 0x8(%rsp), %xmm0, %xmm0
vsubss %xmm0, %xmm4, %xmm1
vbroadcastss %xmm0, %xmm0
vmulps %xmm0, %xmm5, %xmm4
vbroadcastss %xmm1, %xmm1
vfmadd231ps %xmm2, %xmm1, %xmm4 # xmm4 = (xmm1 * xmm2) + xmm4
vmovaps %xmm4, 0x50(%rsp)
vmulps %xmm0, %xmm6, %xmm0
vfmadd231ps %xmm1, %xmm3, %xmm0 # xmm0 = (xmm3 * xmm1) + xmm0
vmovaps %xmm0, 0xb0(%rsp)
movq %r15, %rdi
movq %r12, %rsi
movq %r14, %rdx
callq 0x1ea7936
vmovaps 0x10(%rsp), %xmm6
vmovaps 0x20(%rsp), %xmm5
vmovss 0x45a3d(%rip), %xmm4 # 0x1eec714
vmovaps 0x30(%rsp), %xmm3
vmovaps 0x40(%rsp), %xmm2
vmovaps 0xd0(%rsp), %xmm0
vsubps 0x50(%rsp), %xmm0, %xmm0
vmovaps 0xe0(%rsp), %xmm1
vsubps 0xb0(%rsp), %xmm1, %xmm1
vxorps %xmm7, %xmm7, %xmm7
vminps %xmm7, %xmm0, %xmm0
vmaxps %xmm7, %xmm1, %xmm1
vaddps %xmm0, %xmm2, %xmm2
vaddps %xmm0, %xmm5, %xmm5
vaddps %xmm1, %xmm3, %xmm3
vaddps %xmm1, %xmm6, %xmm6
vmovss 0x4(%rsp), %xmm1
incq %r14
decl %r13d
jne 0x1ea6c59
vmovaps %xmm2, (%rbx)
vmovaps %xmm3, 0x10(%rbx)
vmovaps %xmm5, 0x20(%rbx)
vmovaps %xmm6, 0x30(%rbx)
movq %rbx, %rax
addq $0x168, %rsp # imm = 0x168
popq %rbx
popq %r12
popq %r13
popq %r14
popq %r15
popq %rbp
retq
|
/embree[P]embree/kernels/common/scene_curves.cpp
|
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)0, embree::avx512::CurveGeometryInterface, embree::CatmullRomCurveT>::linearBounds(unsigned long, embree::BBox<float> const&) const::'lambda'(unsigned long)::operator()(unsigned long) const
|
__forceinline LBBox3fa linearBounds(size_t primID, const BBox1f& dt) const {
return LBBox3fa([&] (size_t itime) { return bounds(primID, itime); }, dt, this->time_range, fnumTimeSegments);
}
|
movq %rdi, %rax
movq (%rsi), %rdi
movq 0x8(%rsi), %rcx
movq 0x58(%rcx), %rsi
movq 0x68(%rcx), %r8
imulq (%rdi), %r8
movl (%rsi,%r8), %esi
movq 0x188(%rcx), %rdi
imulq $0x38, %rdx, %r8
movq (%rdi,%r8), %rdx
movq 0x10(%rdi,%r8), %rdi
leal 0x1(%rsi), %r8d
leal 0x2(%rsi), %r9d
leal 0x3(%rsi), %r10d
imulq %rdi, %rsi
vmovaps (%rdx,%rsi), %xmm3
imulq %rdi, %r8
vmovaps (%rdx,%r8), %xmm7
imulq %rdi, %r9
vmovaps (%rdx,%r9), %xmm11
imulq %rdi, %r10
vmovaps (%rdx,%r10), %xmm15
vmovss 0x24c(%rcx), %xmm0
vmulss 0xc(%rdx,%rsi), %xmm0, %xmm4
vmulss 0xc(%rdx,%r8), %xmm0, %xmm8
vmulss 0xc(%rdx,%r9), %xmm0, %xmm12
vmulss 0xc(%rdx,%r10), %xmm0, %xmm16
movl 0x248(%rcx), %ecx
cmpq $0x4, %rcx
jne 0x1ea6fe0
vbroadcastss %xmm12, %xmm0
vblendps $0x8, %xmm0, %xmm11, %xmm1 # xmm1 = xmm11[0,1,2],xmm0[3]
leaq 0x28956b(%rip), %rcx # 0x213036c
vmovups 0x110(%rcx), %xmm2
vbroadcastss %xmm3, %xmm5
vshufps $0x55, %xmm3, %xmm3, %xmm6 # xmm6 = xmm3[1,1,1,1]
vshufps $0xaa, %xmm3, %xmm3, %xmm3 # xmm3 = xmm3[2,2,2,2]
vbroadcastss %xmm4, %xmm4
vmovups 0x594(%rcx), %xmm9
vbroadcastss %xmm7, %xmm10
vshufps $0x55, %xmm7, %xmm7, %xmm12 # xmm12 = xmm7[1,1,1,1]
vshufps $0xaa, %xmm7, %xmm7, %xmm7 # xmm7 = xmm7[2,2,2,2]
vbroadcastss %xmm8, %xmm8
vmovups 0xa18(%rcx), %xmm13
vbroadcastss %xmm11, %xmm14
vshufps $0x55, %xmm11, %xmm11, %xmm17 # xmm17 = xmm11[1,1,1,1]
vmovups 0xe9c(%rcx), %xmm18
vshufps $0xaa, %xmm11, %xmm11, %xmm11 # xmm11 = xmm11[2,2,2,2]
vbroadcastss %xmm15, %xmm19
vshufps $0x55, %xmm15, %xmm15, %xmm20 # xmm20 = xmm15[1,1,1,1]
vshufps $0xaa, %xmm15, %xmm15, %xmm15 # xmm15 = xmm15[2,2,2,2]
vbroadcastss %xmm16, %xmm16
vmulps %xmm18, %xmm19, %xmm19
vmulps %xmm18, %xmm20, %xmm20
vmulps %xmm18, %xmm15, %xmm15
vmulps %xmm18, %xmm16, %xmm16
vfmadd231ps %xmm14, %xmm13, %xmm19 # xmm19 = (xmm13 * xmm14) + xmm19
vfmadd231ps %xmm17, %xmm13, %xmm20 # xmm20 = (xmm13 * xmm17) + xmm20
vfmadd231ps %xmm11, %xmm13, %xmm15 # xmm15 = (xmm13 * xmm11) + xmm15
vfmadd231ps %xmm13, %xmm0, %xmm16 # xmm16 = (xmm0 * xmm13) + xmm16
vfmadd231ps %xmm10, %xmm9, %xmm19 # xmm19 = (xmm9 * xmm10) + xmm19
vfmadd231ps %xmm12, %xmm9, %xmm20 # xmm20 = (xmm9 * xmm12) + xmm20
vfmadd231ps %xmm7, %xmm9, %xmm15 # xmm15 = (xmm9 * xmm7) + xmm15
vfmadd231ps %xmm8, %xmm9, %xmm16 # xmm16 = (xmm9 * xmm8) + xmm16
vfmadd231ps %xmm5, %xmm2, %xmm19 # xmm19 = (xmm2 * xmm5) + xmm19
vfmadd231ps %xmm6, %xmm2, %xmm20 # xmm20 = (xmm2 * xmm6) + xmm20
vfmadd231ps %xmm3, %xmm2, %xmm15 # xmm15 = (xmm2 * xmm3) + xmm15
vfmadd231ps %xmm4, %xmm2, %xmm16 # xmm16 = (xmm2 * xmm4) + xmm16
vshufps $0xb1, %xmm19, %xmm19, %xmm2 # xmm2 = xmm19[1,0,3,2]
vminps %xmm19, %xmm2, %xmm3
vshufpd $0x1, %xmm3, %xmm3, %xmm4 # xmm4 = xmm3[1,0]
vminps %xmm3, %xmm4, %xmm3
vshufps $0xb1, %xmm20, %xmm20, %xmm4 # xmm4 = xmm20[1,0,3,2]
vminps %xmm20, %xmm4, %xmm5
vshufpd $0x1, %xmm5, %xmm5, %xmm6 # xmm6 = xmm5[1,0]
vminps %xmm5, %xmm6, %xmm5
vinsertps $0x1c, %xmm5, %xmm3, %xmm3 # xmm3 = xmm3[0],xmm5[0],zero,zero
vshufps $0xb1, %xmm15, %xmm15, %xmm5 # xmm5 = xmm15[1,0,3,2]
vminps %xmm15, %xmm5, %xmm6
vshufpd $0x1, %xmm6, %xmm6, %xmm7 # xmm7 = xmm6[1,0]
vminps %xmm6, %xmm7, %xmm6
vinsertps $0x20, %xmm6, %xmm3, %xmm3 # xmm3 = xmm3[0,1],xmm6[0],xmm3[3]
vmaxps %xmm19, %xmm2, %xmm2
vshufpd $0x1, %xmm2, %xmm2, %xmm6 # xmm6 = xmm2[1,0]
vmaxps %xmm2, %xmm6, %xmm2
vmaxps %xmm20, %xmm4, %xmm4
vshufpd $0x1, %xmm4, %xmm4, %xmm6 # xmm6 = xmm4[1,0]
vmaxps %xmm4, %xmm6, %xmm4
vinsertps $0x1c, %xmm4, %xmm2, %xmm2 # xmm2 = xmm2[0],xmm4[0],zero,zero
vmaxps %xmm15, %xmm5, %xmm4
vshufpd $0x1, %xmm4, %xmm4, %xmm5 # xmm5 = xmm4[1,0]
vmaxps %xmm4, %xmm5, %xmm4
vinsertps $0x20, %xmm4, %xmm2, %xmm2 # xmm2 = xmm2[0,1],xmm4[0],xmm2[3]
vandps 0x79f63(%rip){1to4}, %xmm16, %xmm4 # 0x1f20ec4
vprolq $0x20, %xmm4, %xmm5
vmaxps %xmm4, %xmm5, %xmm4
vbroadcastss %xmm4, %xmm5
vshufps $0xaa, %xmm4, %xmm4, %xmm4 # xmm4 = xmm4[2,2,2,2]
vmaxps %xmm5, %xmm4, %xmm4
vminps %xmm1, %xmm3, %xmm3
vmaxps %xmm1, %xmm2, %xmm1
vandps 0x79f38(%rip){1to4}, %xmm0, %xmm0 # 0x1f20ec4
vmaxps %xmm0, %xmm4, %xmm2
vsubps %xmm2, %xmm3, %xmm0
vaddps %xmm2, %xmm1, %xmm1
vbroadcastss 0x79f23(%rip), %xmm2 # 0x1f20ec4
vandps %xmm2, %xmm0, %xmm3
vandps %xmm2, %xmm1, %xmm2
vmaxps %xmm2, %xmm3, %xmm2
vmovshdup %xmm2, %xmm3 # xmm3 = xmm2[1,1,3,3]
vmaxss %xmm2, %xmm3, %xmm3
vshufpd $0x1, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[1,0]
vmaxss %xmm3, %xmm2, %xmm2
vmulss 0x4a01e(%rip), %xmm2, %xmm2 # 0x1ef0fe4
vbroadcastss %xmm2, %xmm2
vsubps %xmm2, %xmm0, %xmm0
vaddps %xmm2, %xmm1, %xmm1
vmovaps %xmm0, (%rax)
vmovaps %xmm1, 0x10(%rax)
vzeroupper
retq
testl %ecx, %ecx
js 0x1ea71e7
vpbroadcastd %ecx, %ymm0
vmovdqu %ymm0, -0x28(%rsp)
vbroadcastss %xmm3, %ymm0
vmovups %ymm0, -0x48(%rsp)
vbroadcastss 0x6b6fc(%rip), %ymm14 # 0x1f12704
vpermps %ymm3, %ymm14, %ymm2
vbroadcastss 0x79ec5(%rip), %ymm17 # 0x1f20edc
vpermps %ymm3, %ymm17, %ymm3
vbroadcastss %xmm4, %ymm4
vbroadcastss %xmm7, %ymm5
vpermps %ymm7, %ymm14, %ymm6
vpermps %ymm7, %ymm17, %ymm7
vbroadcastss %xmm8, %ymm8
vbroadcastss %xmm11, %ymm9
vpermps %ymm11, %ymm14, %ymm10
vpermps %ymm11, %ymm17, %ymm11
vbroadcastss %xmm12, %ymm12
vbroadcastss %xmm15, %ymm13
vpermps %ymm15, %ymm14, %ymm14
vpermps %ymm15, %ymm17, %ymm15
vbroadcastss %xmm16, %ymm16
movq %rcx, %rdx
shlq $0x6, %rdx
leaq (%rdx,%rcx,4), %rdx
addq 0x27de64(%rip), %rdx # 0x2124ed8
vbroadcastss 0x45b06(%rip), %ymm20 # 0x1eecb84
vbroadcastss 0x44998(%rip), %ymm17 # 0x1eeba20
vxorps %xmm21, %xmm21, %xmm21
xorl %esi, %esi
vmovaps %ymm17, %ymm22
vmovaps %ymm17, %ymm29
vmovaps %ymm20, %ymm26
vmovaps %ymm20, %ymm28
vpbroadcastd %esi, %ymm19
vpord 0xb3868(%rip), %ymm19, %ymm19 # 0x1f5a920
vmovups (%rdx,%rsi,4), %ymm23
vmovups 0x484(%rdx,%rsi,4), %ymm24
vmovups 0x908(%rdx,%rsi,4), %ymm25
vpcmpgtd -0x28(%rsp), %ymm19, %k1
vmovups 0xd8c(%rdx,%rsi,4), %ymm19
vmulps %ymm19, %ymm13, %ymm18
vmulps %ymm19, %ymm14, %ymm0
vmulps %ymm19, %ymm15, %ymm1
vmulps %ymm19, %ymm16, %ymm19
vfmadd231ps %ymm9, %ymm25, %ymm18 # ymm18 = (ymm25 * ymm9) + ymm18
vfmadd231ps %ymm10, %ymm25, %ymm0 # ymm0 = (ymm25 * ymm10) + ymm0
vfmadd231ps %ymm11, %ymm25, %ymm1 # ymm1 = (ymm25 * ymm11) + ymm1
vfmadd231ps %ymm25, %ymm12, %ymm19 # ymm19 = (ymm12 * ymm25) + ymm19
vfmadd231ps %ymm5, %ymm24, %ymm18 # ymm18 = (ymm24 * ymm5) + ymm18
vfmadd231ps %ymm6, %ymm24, %ymm0 # ymm0 = (ymm24 * ymm6) + ymm0
vfmadd231ps %ymm7, %ymm24, %ymm1 # ymm1 = (ymm24 * ymm7) + ymm1
vfmadd231ps %ymm24, %ymm8, %ymm19 # ymm19 = (ymm8 * ymm24) + ymm19
vfmadd231ps -0x48(%rsp), %ymm23, %ymm18 # ymm18 = (ymm23 * mem) + ymm18
vfmadd231ps %ymm2, %ymm23, %ymm0 # ymm0 = (ymm23 * ymm2) + ymm0
vfmadd231ps %ymm3, %ymm23, %ymm1 # ymm1 = (ymm23 * ymm3) + ymm1
vfmadd231ps %ymm23, %ymm4, %ymm19 # ymm19 = (ymm4 * ymm23) + ymm19
vandps 0x79d6a(%rip){1to8}, %ymm19, %ymm19 # 0x1f20ec4
vminps %ymm18, %ymm29, %ymm30
vmovaps %ymm29, %ymm30 {%k1}
vminps %ymm0, %ymm22, %ymm27
vmovaps %ymm22, %ymm27 {%k1}
vminps %ymm1, %ymm17, %ymm31
vmovaps %ymm17, %ymm31 {%k1}
vmaxps %ymm18, %ymm28, %ymm24
vmovaps %ymm28, %ymm24 {%k1}
vmaxps %ymm0, %ymm26, %ymm25
vmovaps %ymm26, %ymm25 {%k1}
vmaxps %ymm1, %ymm20, %ymm23
vmovaps %ymm20, %ymm23 {%k1}
vmaxps %ymm19, %ymm21, %ymm19
vmovaps %ymm21, %ymm19 {%k1}
addq $0x8, %rsi
vmovaps %ymm31, %ymm17
vmovaps %ymm27, %ymm22
vmovaps %ymm30, %ymm29
vmovaps %ymm23, %ymm20
vmovaps %ymm25, %ymm26
vmovaps %ymm24, %ymm28
vmovaps %ymm19, %ymm21
cmpq %rcx, %rsi
jbe 0x1ea70a8
jmp 0x1ea7219
vbroadcastss 0x4482f(%rip), %ymm30 # 0x1eeba20
vbroadcastss 0x45989(%rip), %ymm24 # 0x1eecb84
vxorps %xmm19, %xmm19, %xmm19
vmovaps %ymm24, %ymm25
vmovaps %ymm24, %ymm23
vmovaps %ymm30, %ymm27
vmovaps %ymm30, %ymm31
vshufps $0xb1, %ymm30, %ymm30, %ymm0 # ymm0 = ymm30[1,0,3,2,5,4,7,6]
vminps %ymm0, %ymm30, %ymm0
vshufpd $0x5, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2]
vminps %ymm1, %ymm0, %ymm0
vextractf128 $0x1, %ymm0, %xmm1
vminps %xmm1, %xmm0, %xmm0
vshufps $0xb1, %ymm27, %ymm27, %ymm1 # ymm1 = ymm27[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm27, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vextractf128 $0x1, %ymm1, %xmm2
vminps %xmm2, %xmm1, %xmm1
vunpcklps %xmm1, %xmm0, %xmm0 # xmm0 = xmm0[0],xmm1[0],xmm0[1],xmm1[1]
vshufps $0xb1, %ymm31, %ymm31, %ymm1 # ymm1 = ymm31[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm31, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vextractf128 $0x1, %ymm1, %xmm2
vminps %xmm2, %xmm1, %xmm1
vinsertps $0x28, %xmm1, %xmm0, %xmm0 # xmm0 = xmm0[0,1],xmm1[0],zero
vshufps $0xb1, %ymm24, %ymm24, %ymm1 # ymm1 = ymm24[1,0,3,2,5,4,7,6]
vmaxps %ymm1, %ymm24, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vmaxps %ymm2, %ymm1, %ymm1
vextractf128 $0x1, %ymm1, %xmm2
vmaxps %xmm2, %xmm1, %xmm1
vshufps $0xb1, %ymm25, %ymm25, %ymm2 # ymm2 = ymm25[1,0,3,2,5,4,7,6]
vmaxps %ymm2, %ymm25, %ymm2
vshufpd $0x5, %ymm2, %ymm2, %ymm3 # ymm3 = ymm2[1,0,3,2]
vmaxps %ymm3, %ymm2, %ymm2
vextractf128 $0x1, %ymm2, %xmm3
vmaxps %xmm3, %xmm2, %xmm2
vunpcklps %xmm2, %xmm1, %xmm1 # xmm1 = xmm1[0],xmm2[0],xmm1[1],xmm2[1]
vshufps $0xb1, %ymm23, %ymm23, %ymm2 # ymm2 = ymm23[1,0,3,2,5,4,7,6]
vmaxps %ymm2, %ymm23, %ymm2
vshufpd $0x5, %ymm2, %ymm2, %ymm3 # ymm3 = ymm2[1,0,3,2]
vmaxps %ymm3, %ymm2, %ymm2
vextractf128 $0x1, %ymm2, %xmm3
vmaxps %xmm3, %xmm2, %xmm2
vinsertps $0x28, %xmm2, %xmm1, %xmm1 # xmm1 = xmm1[0,1],xmm2[0],zero
vshufps $0xb1, %ymm19, %ymm19, %ymm2 # ymm2 = ymm19[1,0,3,2,5,4,7,6]
vmaxps %ymm2, %ymm19, %ymm2
vshufpd $0x5, %ymm2, %ymm2, %ymm3 # ymm3 = ymm2[1,0,3,2]
vmaxps %ymm3, %ymm2, %ymm2
vextractf128 $0x1, %ymm2, %xmm3
vmaxps %xmm3, %xmm2, %xmm2
vbroadcastss %xmm2, %xmm2
vsubps %xmm2, %xmm0, %xmm0
jmp 0x1ea6f94
nop
|
/embree[P]embree/kernels/common/scene_curves.cpp
|
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)0, embree::avx512::CurveGeometryInterface, embree::CatmullRomCurveT>::linearBounds(embree::LinearSpace3<embree::Vec3fa> const&, unsigned long, embree::BBox<float> const&) const::'lambda'(unsigned long)::operator()(unsigned long) const
|
__forceinline LBBox3fa linearBounds(const LinearSpace3fa& space, size_t primID, const BBox1f& dt) const {
return LBBox3fa([&] (size_t itime) { return bounds(space, primID, itime); }, dt, this->time_range, fnumTimeSegments);
}
|
movq %rdi, %rax
movq 0x10(%rsi), %rcx
movq (%rsi), %rdi
movq 0x8(%rsi), %rsi
movq 0x58(%rcx), %r8
movq 0x68(%rcx), %r9
imulq (%rsi), %r9
movl (%r8,%r9), %r10d
movq 0x188(%rcx), %rsi
imulq $0x38, %rdx, %r8
movq (%rsi,%r8), %rdx
movq 0x10(%rsi,%r8), %r11
leal 0x1(%r10), %r9d
leal 0x2(%r10), %r8d
leal 0x3(%r10), %esi
imulq %r11, %r10
imulq %r11, %r9
imulq %r11, %r8
imulq %r11, %rsi
vmovaps (%rdi), %xmm0
vmovaps 0x10(%rdi), %xmm1
vmovaps 0x20(%rdi), %xmm2
vmulps 0x8(%rdx,%r10){1to4}, %xmm2, %xmm3
vfmadd231ps 0x4(%rdx,%r10){1to4}, %xmm1, %xmm3 # xmm3 = (xmm1 * mem) + xmm3
vfmadd231ps (%rdx,%r10){1to4}, %xmm0, %xmm3 # xmm3 = (xmm0 * mem) + xmm3
vmovss 0x24c(%rcx), %xmm5
vmulss 0xc(%rdx,%r10), %xmm5, %xmm4
vmulps 0x8(%rdx,%r9){1to4}, %xmm2, %xmm7
vfmadd231ps 0x4(%rdx,%r9){1to4}, %xmm1, %xmm7 # xmm7 = (xmm1 * mem) + xmm7
vfmadd231ps (%rdx,%r9){1to4}, %xmm0, %xmm7 # xmm7 = (xmm0 * mem) + xmm7
vmulss 0xc(%rdx,%r9), %xmm5, %xmm8
vmulps 0x8(%rdx,%r8){1to4}, %xmm2, %xmm11
vfmadd231ps 0x4(%rdx,%r8){1to4}, %xmm1, %xmm11 # xmm11 = (xmm1 * mem) + xmm11
vfmadd231ps (%rdx,%r8){1to4}, %xmm0, %xmm11 # xmm11 = (xmm0 * mem) + xmm11
vmulss 0xc(%rdx,%r8), %xmm5, %xmm12
vmulps 0x8(%rdx,%rsi){1to4}, %xmm2, %xmm15
vfmadd231ps 0x4(%rdx,%rsi){1to4}, %xmm1, %xmm15 # xmm15 = (xmm1 * mem) + xmm15
vfmadd231ps (%rdx,%rsi){1to4}, %xmm0, %xmm15 # xmm15 = (xmm0 * mem) + xmm15
vmulss 0xc(%rdx,%rsi), %xmm5, %xmm16
movl 0x248(%rcx), %ecx
cmpq $0x4, %rcx
jne 0x1ea75fa
vbroadcastss %xmm12, %xmm0
vblendps $0x8, %xmm0, %xmm11, %xmm1 # xmm1 = xmm11[0,1,2],xmm0[3]
leaq 0x288f51(%rip), %rcx # 0x213036c
vmovups 0x110(%rcx), %xmm2
vbroadcastss %xmm3, %xmm5
vshufps $0x55, %xmm3, %xmm3, %xmm6 # xmm6 = xmm3[1,1,1,1]
vshufps $0xaa, %xmm3, %xmm3, %xmm3 # xmm3 = xmm3[2,2,2,2]
vbroadcastss %xmm4, %xmm4
vmovups 0x594(%rcx), %xmm9
vbroadcastss %xmm7, %xmm10
vshufps $0x55, %xmm7, %xmm7, %xmm12 # xmm12 = xmm7[1,1,1,1]
vshufps $0xaa, %xmm7, %xmm7, %xmm7 # xmm7 = xmm7[2,2,2,2]
vbroadcastss %xmm8, %xmm8
vmovups 0xa18(%rcx), %xmm13
vbroadcastss %xmm11, %xmm14
vshufps $0x55, %xmm11, %xmm11, %xmm17 # xmm17 = xmm11[1,1,1,1]
vmovups 0xe9c(%rcx), %xmm18
vshufps $0xaa, %xmm11, %xmm11, %xmm11 # xmm11 = xmm11[2,2,2,2]
vbroadcastss %xmm15, %xmm19
vshufps $0x55, %xmm15, %xmm15, %xmm20 # xmm20 = xmm15[1,1,1,1]
vshufps $0xaa, %xmm15, %xmm15, %xmm15 # xmm15 = xmm15[2,2,2,2]
vbroadcastss %xmm16, %xmm16
vmulps %xmm18, %xmm19, %xmm19
vmulps %xmm18, %xmm20, %xmm20
vmulps %xmm18, %xmm15, %xmm15
vmulps %xmm18, %xmm16, %xmm16
vfmadd231ps %xmm14, %xmm13, %xmm19 # xmm19 = (xmm13 * xmm14) + xmm19
vfmadd231ps %xmm17, %xmm13, %xmm20 # xmm20 = (xmm13 * xmm17) + xmm20
vfmadd231ps %xmm11, %xmm13, %xmm15 # xmm15 = (xmm13 * xmm11) + xmm15
vfmadd231ps %xmm13, %xmm0, %xmm16 # xmm16 = (xmm0 * xmm13) + xmm16
vfmadd231ps %xmm10, %xmm9, %xmm19 # xmm19 = (xmm9 * xmm10) + xmm19
vfmadd231ps %xmm12, %xmm9, %xmm20 # xmm20 = (xmm9 * xmm12) + xmm20
vfmadd231ps %xmm7, %xmm9, %xmm15 # xmm15 = (xmm9 * xmm7) + xmm15
vfmadd231ps %xmm8, %xmm9, %xmm16 # xmm16 = (xmm9 * xmm8) + xmm16
vfmadd231ps %xmm5, %xmm2, %xmm19 # xmm19 = (xmm2 * xmm5) + xmm19
vfmadd231ps %xmm6, %xmm2, %xmm20 # xmm20 = (xmm2 * xmm6) + xmm20
vfmadd231ps %xmm3, %xmm2, %xmm15 # xmm15 = (xmm2 * xmm3) + xmm15
vfmadd231ps %xmm4, %xmm2, %xmm16 # xmm16 = (xmm2 * xmm4) + xmm16
vshufps $0xb1, %xmm19, %xmm19, %xmm2 # xmm2 = xmm19[1,0,3,2]
vminps %xmm19, %xmm2, %xmm3
vshufpd $0x1, %xmm3, %xmm3, %xmm4 # xmm4 = xmm3[1,0]
vminps %xmm3, %xmm4, %xmm3
vshufps $0xb1, %xmm20, %xmm20, %xmm4 # xmm4 = xmm20[1,0,3,2]
vminps %xmm20, %xmm4, %xmm5
vshufpd $0x1, %xmm5, %xmm5, %xmm6 # xmm6 = xmm5[1,0]
vminps %xmm5, %xmm6, %xmm5
vinsertps $0x1c, %xmm5, %xmm3, %xmm3 # xmm3 = xmm3[0],xmm5[0],zero,zero
vshufps $0xb1, %xmm15, %xmm15, %xmm5 # xmm5 = xmm15[1,0,3,2]
vminps %xmm15, %xmm5, %xmm6
vshufpd $0x1, %xmm6, %xmm6, %xmm7 # xmm7 = xmm6[1,0]
vminps %xmm6, %xmm7, %xmm6
vinsertps $0x20, %xmm6, %xmm3, %xmm3 # xmm3 = xmm3[0,1],xmm6[0],xmm3[3]
vmaxps %xmm19, %xmm2, %xmm2
vshufpd $0x1, %xmm2, %xmm2, %xmm6 # xmm6 = xmm2[1,0]
vmaxps %xmm2, %xmm6, %xmm2
vmaxps %xmm20, %xmm4, %xmm4
vshufpd $0x1, %xmm4, %xmm4, %xmm6 # xmm6 = xmm4[1,0]
vmaxps %xmm4, %xmm6, %xmm4
vinsertps $0x1c, %xmm4, %xmm2, %xmm2 # xmm2 = xmm2[0],xmm4[0],zero,zero
vmaxps %xmm15, %xmm5, %xmm4
vshufpd $0x1, %xmm4, %xmm4, %xmm5 # xmm5 = xmm4[1,0]
vmaxps %xmm4, %xmm5, %xmm4
vinsertps $0x20, %xmm4, %xmm2, %xmm2 # xmm2 = xmm2[0,1],xmm4[0],xmm2[3]
vandps 0x79949(%rip){1to4}, %xmm16, %xmm4 # 0x1f20ec4
vprolq $0x20, %xmm4, %xmm5
vmaxps %xmm4, %xmm5, %xmm4
vbroadcastss %xmm4, %xmm5
vshufps $0xaa, %xmm4, %xmm4, %xmm4 # xmm4 = xmm4[2,2,2,2]
vmaxps %xmm5, %xmm4, %xmm4
vminps %xmm1, %xmm3, %xmm3
vmaxps %xmm1, %xmm2, %xmm1
vandps 0x7991e(%rip){1to4}, %xmm0, %xmm0 # 0x1f20ec4
vmaxps %xmm0, %xmm4, %xmm2
vsubps %xmm2, %xmm3, %xmm0
vaddps %xmm2, %xmm1, %xmm1
vbroadcastss 0x79909(%rip), %xmm2 # 0x1f20ec4
vandps %xmm2, %xmm0, %xmm3
vandps %xmm2, %xmm1, %xmm2
vmaxps %xmm2, %xmm3, %xmm2
vmovshdup %xmm2, %xmm3 # xmm3 = xmm2[1,1,3,3]
vmaxss %xmm2, %xmm3, %xmm3
vshufpd $0x1, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[1,0]
vmaxss %xmm3, %xmm2, %xmm2
vmulss 0x49a04(%rip), %xmm2, %xmm2 # 0x1ef0fe4
vbroadcastss %xmm2, %xmm2
vsubps %xmm2, %xmm0, %xmm0
vaddps %xmm2, %xmm1, %xmm1
vmovaps %xmm0, (%rax)
vmovaps %xmm1, 0x10(%rax)
vzeroupper
retq
testl %ecx, %ecx
js 0x1ea7801
vpbroadcastd %ecx, %ymm0
vmovdqu %ymm0, -0x28(%rsp)
vbroadcastss %xmm3, %ymm0
vmovups %ymm0, -0x48(%rsp)
vbroadcastss 0x6b0e2(%rip), %ymm14 # 0x1f12704
vpermps %ymm3, %ymm14, %ymm2
vbroadcastss 0x798ab(%rip), %ymm17 # 0x1f20edc
vpermps %ymm3, %ymm17, %ymm3
vbroadcastss %xmm4, %ymm4
vbroadcastss %xmm7, %ymm5
vpermps %ymm7, %ymm14, %ymm6
vpermps %ymm7, %ymm17, %ymm7
vbroadcastss %xmm8, %ymm8
vbroadcastss %xmm11, %ymm9
vpermps %ymm11, %ymm14, %ymm10
vpermps %ymm11, %ymm17, %ymm11
vbroadcastss %xmm12, %ymm12
vbroadcastss %xmm15, %ymm13
vpermps %ymm15, %ymm14, %ymm14
vpermps %ymm15, %ymm17, %ymm15
vbroadcastss %xmm16, %ymm16
movq %rcx, %rdx
shlq $0x6, %rdx
leaq (%rdx,%rcx,4), %rdx
addq 0x27d84a(%rip), %rdx # 0x2124ed8
vbroadcastss 0x454ec(%rip), %ymm20 # 0x1eecb84
vbroadcastss 0x4437e(%rip), %ymm17 # 0x1eeba20
vxorps %xmm21, %xmm21, %xmm21
xorl %esi, %esi
vmovaps %ymm17, %ymm22
vmovaps %ymm17, %ymm29
vmovaps %ymm20, %ymm26
vmovaps %ymm20, %ymm28
vpbroadcastd %esi, %ymm19
vpord 0xb324e(%rip), %ymm19, %ymm19 # 0x1f5a920
vmovups (%rdx,%rsi,4), %ymm23
vmovups 0x484(%rdx,%rsi,4), %ymm24
vmovups 0x908(%rdx,%rsi,4), %ymm25
vpcmpgtd -0x28(%rsp), %ymm19, %k1
vmovups 0xd8c(%rdx,%rsi,4), %ymm19
vmulps %ymm19, %ymm13, %ymm18
vmulps %ymm19, %ymm14, %ymm0
vmulps %ymm19, %ymm15, %ymm1
vmulps %ymm19, %ymm16, %ymm19
vfmadd231ps %ymm9, %ymm25, %ymm18 # ymm18 = (ymm25 * ymm9) + ymm18
vfmadd231ps %ymm10, %ymm25, %ymm0 # ymm0 = (ymm25 * ymm10) + ymm0
vfmadd231ps %ymm11, %ymm25, %ymm1 # ymm1 = (ymm25 * ymm11) + ymm1
vfmadd231ps %ymm25, %ymm12, %ymm19 # ymm19 = (ymm12 * ymm25) + ymm19
vfmadd231ps %ymm5, %ymm24, %ymm18 # ymm18 = (ymm24 * ymm5) + ymm18
vfmadd231ps %ymm6, %ymm24, %ymm0 # ymm0 = (ymm24 * ymm6) + ymm0
vfmadd231ps %ymm7, %ymm24, %ymm1 # ymm1 = (ymm24 * ymm7) + ymm1
vfmadd231ps %ymm24, %ymm8, %ymm19 # ymm19 = (ymm8 * ymm24) + ymm19
vfmadd231ps -0x48(%rsp), %ymm23, %ymm18 # ymm18 = (ymm23 * mem) + ymm18
vfmadd231ps %ymm2, %ymm23, %ymm0 # ymm0 = (ymm23 * ymm2) + ymm0
vfmadd231ps %ymm3, %ymm23, %ymm1 # ymm1 = (ymm23 * ymm3) + ymm1
vfmadd231ps %ymm23, %ymm4, %ymm19 # ymm19 = (ymm4 * ymm23) + ymm19
vandps 0x79750(%rip){1to8}, %ymm19, %ymm19 # 0x1f20ec4
vminps %ymm18, %ymm29, %ymm30
vmovaps %ymm29, %ymm30 {%k1}
vminps %ymm0, %ymm22, %ymm27
vmovaps %ymm22, %ymm27 {%k1}
vminps %ymm1, %ymm17, %ymm31
vmovaps %ymm17, %ymm31 {%k1}
vmaxps %ymm18, %ymm28, %ymm24
vmovaps %ymm28, %ymm24 {%k1}
vmaxps %ymm0, %ymm26, %ymm25
vmovaps %ymm26, %ymm25 {%k1}
vmaxps %ymm1, %ymm20, %ymm23
vmovaps %ymm20, %ymm23 {%k1}
vmaxps %ymm19, %ymm21, %ymm19
vmovaps %ymm21, %ymm19 {%k1}
addq $0x8, %rsi
vmovaps %ymm31, %ymm17
vmovaps %ymm27, %ymm22
vmovaps %ymm30, %ymm29
vmovaps %ymm23, %ymm20
vmovaps %ymm25, %ymm26
vmovaps %ymm24, %ymm28
vmovaps %ymm19, %ymm21
cmpq %rcx, %rsi
jbe 0x1ea76c2
jmp 0x1ea7833
vbroadcastss 0x44215(%rip), %ymm30 # 0x1eeba20
vbroadcastss 0x4536f(%rip), %ymm24 # 0x1eecb84
vxorps %xmm19, %xmm19, %xmm19
vmovaps %ymm24, %ymm25
vmovaps %ymm24, %ymm23
vmovaps %ymm30, %ymm27
vmovaps %ymm30, %ymm31
vshufps $0xb1, %ymm30, %ymm30, %ymm0 # ymm0 = ymm30[1,0,3,2,5,4,7,6]
vminps %ymm0, %ymm30, %ymm0
vshufpd $0x5, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2]
vminps %ymm1, %ymm0, %ymm0
vextractf128 $0x1, %ymm0, %xmm1
vminps %xmm1, %xmm0, %xmm0
vshufps $0xb1, %ymm27, %ymm27, %ymm1 # ymm1 = ymm27[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm27, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vextractf128 $0x1, %ymm1, %xmm2
vminps %xmm2, %xmm1, %xmm1
vunpcklps %xmm1, %xmm0, %xmm0 # xmm0 = xmm0[0],xmm1[0],xmm0[1],xmm1[1]
vshufps $0xb1, %ymm31, %ymm31, %ymm1 # ymm1 = ymm31[1,0,3,2,5,4,7,6]
vminps %ymm1, %ymm31, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vminps %ymm2, %ymm1, %ymm1
vextractf128 $0x1, %ymm1, %xmm2
vminps %xmm2, %xmm1, %xmm1
vinsertps $0x28, %xmm1, %xmm0, %xmm0 # xmm0 = xmm0[0,1],xmm1[0],zero
vshufps $0xb1, %ymm24, %ymm24, %ymm1 # ymm1 = ymm24[1,0,3,2,5,4,7,6]
vmaxps %ymm1, %ymm24, %ymm1
vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2]
vmaxps %ymm2, %ymm1, %ymm1
vextractf128 $0x1, %ymm1, %xmm2
vmaxps %xmm2, %xmm1, %xmm1
vshufps $0xb1, %ymm25, %ymm25, %ymm2 # ymm2 = ymm25[1,0,3,2,5,4,7,6]
vmaxps %ymm2, %ymm25, %ymm2
vshufpd $0x5, %ymm2, %ymm2, %ymm3 # ymm3 = ymm2[1,0,3,2]
vmaxps %ymm3, %ymm2, %ymm2
vextractf128 $0x1, %ymm2, %xmm3
vmaxps %xmm3, %xmm2, %xmm2
vunpcklps %xmm2, %xmm1, %xmm1 # xmm1 = xmm1[0],xmm2[0],xmm1[1],xmm2[1]
vshufps $0xb1, %ymm23, %ymm23, %ymm2 # ymm2 = ymm23[1,0,3,2,5,4,7,6]
vmaxps %ymm2, %ymm23, %ymm2
vshufpd $0x5, %ymm2, %ymm2, %ymm3 # ymm3 = ymm2[1,0,3,2]
vmaxps %ymm3, %ymm2, %ymm2
vextractf128 $0x1, %ymm2, %xmm3
vmaxps %xmm3, %xmm2, %xmm2
vinsertps $0x28, %xmm2, %xmm1, %xmm1 # xmm1 = xmm1[0,1],xmm2[0],zero
vshufps $0xb1, %ymm19, %ymm19, %ymm2 # ymm2 = ymm19[1,0,3,2,5,4,7,6]
vmaxps %ymm2, %ymm19, %ymm2
vshufpd $0x5, %ymm2, %ymm2, %ymm3 # ymm3 = ymm2[1,0,3,2]
vmaxps %ymm3, %ymm2, %ymm2
vextractf128 $0x1, %ymm2, %xmm3
vmaxps %xmm3, %xmm2, %xmm2
vbroadcastss %xmm2, %xmm2
vsubps %xmm2, %xmm0, %xmm0
jmp 0x1ea75ae
nop
|
/embree[P]embree/kernels/common/scene_curves.cpp
|
Subsets and Splits
SQL Console for LLM4Binary/decompile-bench
Filters out entries with file names ending in .cpp, providing a basic subset of the dataset that excludes C++ files.