name
string
code
string
asm
string
file
string
void embree::avx512::CurveNiIntersectorK<8, 16>::intersect_hn<embree::avx512::OrientedCurve1IntersectorK<embree::HermiteCurveT, 16>, embree::avx512::Intersect1KEpilog1<16, true>>(embree::avx512::CurvePrecalculationsK<16>&, embree::RayHitK<16>&, unsigned long, embree::RayQueryContext*, embree::CurveNi<8> const&)
static __forceinline void intersect_hn(Precalculations& pre, RayHitK<K>& ray, const size_t k, RayQueryContext* context, const Primitive& prim) { vfloat<M> tNear; vbool<M> valid = intersect(ray,k,prim,tNear); const size_t N = prim.N; size_t mask = movemask(valid); while (mask) { const size_t i = bscf(mask); STAT3(normal.trav_prims,1,1,1); const unsigned int geomID = prim.geomID(N); const unsigned int primID = prim.primID(N)[i]; const CurveGeometry* geom = context->scene->get<CurveGeometry>(geomID); Vec3ff p0,t0,p1,t1; Vec3fa n0,dn0,n1,dn1; geom->gather_hermite(p0,t0,n0,dn0,p1,t1,n1,dn1,geom->curve(primID)); Intersector().intersect(pre,ray,k,context,geom,primID,p0,t0,p1,t1,n0,dn0,n1,dn1,Epilog(ray,k,context,geomID,primID)); mask &= movemask(tNear <= vfloat<M>(ray.tfar[k])); } }
pushq %rbp movq %rsp, %rbp pushq %r15 pushq %r14 pushq %r13 pushq %r12 pushq %rbx andq $-0x40, %rsp subq $0x740, %rsp # imm = 0x740 movq %rcx, %r10 movq %rdx, %r11 movzbl 0x1(%r8), %ecx leaq (%rcx,%rcx,4), %rax leaq (%rax,%rax,4), %rdx vbroadcastss 0x12(%r8,%rdx), %xmm0 vmovss (%rsi,%r11,4), %xmm1 vmovss 0x100(%rsi,%r11,4), %xmm2 vinsertps $0x10, 0x40(%rsi,%r11,4), %xmm1, %xmm1 # xmm1 = xmm1[0],mem[0],xmm1[2,3] vinsertps $0x20, 0x80(%rsi,%r11,4), %xmm1, %xmm1 # xmm1 = xmm1[0,1],mem[0],xmm1[3] vinsertps $0x10, 0x140(%rsi,%r11,4), %xmm2, %xmm2 # xmm2 = xmm2[0],mem[0],xmm2[2,3] vinsertps $0x20, 0x180(%rsi,%r11,4), %xmm2, %xmm2 # xmm2 = xmm2[0,1],mem[0],xmm2[3] vsubps 0x6(%r8,%rdx), %xmm1, %xmm1 vmulps %xmm1, %xmm0, %xmm3 vmulps %xmm2, %xmm0, %xmm0 vpmovsxbd 0x6(%r8,%rcx,4), %ymm1 vpmovsxbd 0x6(%r8,%rax), %ymm2 vcvtdq2ps %ymm1, %ymm5 vcvtdq2ps %ymm2, %ymm6 leaq (%rcx,%rcx,2), %rdx vpmovsxbd 0x6(%r8,%rdx,2), %ymm1 vcvtdq2ps %ymm1, %ymm4 leaq (%rcx,%rax,2), %r9 vpmovsxbd 0x6(%r8,%r9), %ymm1 leal (,%rdx,4), %r9d vpmovsxbd 0x6(%r8,%r9), %ymm2 vcvtdq2ps %ymm1, %ymm7 vcvtdq2ps %ymm2, %ymm8 addq %rcx, %r9 vpmovsxbd 0x6(%r8,%r9), %ymm1 vcvtdq2ps %ymm1, %ymm9 leaq (%rcx,%rcx,8), %rbx leal (%rbx,%rbx), %r9d vpmovsxbd 0x6(%r8,%r9), %ymm1 vcvtdq2ps %ymm1, %ymm10 addq %rcx, %r9 vpmovsxbd 0x6(%r8,%r9), %ymm1 vcvtdq2ps %ymm1, %ymm11 shll $0x2, %eax vpmovsxbd 0x6(%r8,%rax), %ymm1 vcvtdq2ps %ymm1, %ymm12 vbroadcastss %xmm0, %ymm13 vbroadcastss 0x27252c(%rip), %ymm15 # 0x1f12704 vbroadcastss 0x280cfa(%rip), %ymm27 # 0x1f20edc vpermps %ymm0, %ymm15, %ymm14 vpermps %ymm0, %ymm27, %ymm0 vmulps %ymm4, %ymm0, %ymm2 vmulps %ymm0, %ymm9, %ymm1 vmulps %ymm0, %ymm12, %ymm0 vfmadd231ps %ymm6, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm6) + ymm2 vfmadd231ps %ymm8, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm8) + ymm1 vfmadd231ps %ymm14, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm14) + ymm0 vfmadd231ps %ymm5, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm5) + ymm2 vfmadd231ps %ymm7, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm7) + ymm1 vfmadd231ps %ymm13, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm13) + ymm0 vbroadcastss %xmm3, %ymm13 vpermps %ymm3, %ymm15, %ymm14 vpermps %ymm3, %ymm27, %ymm3 vmulps %ymm4, %ymm3, %ymm15 vmulps %ymm3, %ymm9, %ymm4 vmulps %ymm3, %ymm12, %ymm3 vfmadd231ps %ymm6, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm6) + ymm15 vfmadd231ps %ymm8, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm8) + ymm4 vfmadd231ps %ymm11, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm11) + ymm3 vfmadd231ps %ymm5, %ymm13, %ymm15 # ymm15 = (ymm13 * ymm5) + ymm15 vfmadd231ps %ymm7, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm7) + ymm4 vbroadcastss 0x280c6f(%rip), %ymm5 # 0x1f20ec4 vfmadd231ps %ymm10, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm10) + ymm3 vandps %ymm5, %ymm2, %ymm6 vbroadcastss 0x250d81(%rip), %ymm7 # 0x1ef0fe8 vcmpltps %ymm7, %ymm6, %k1 vmovaps %ymm7, %ymm2 {%k1} vandps %ymm5, %ymm1, %ymm6 vcmpltps %ymm7, %ymm6, %k1 vmovaps %ymm7, %ymm1 {%k1} vandps %ymm5, %ymm0, %ymm5 vcmpltps %ymm7, %ymm5, %k1 vmovaps %ymm7, %ymm0 {%k1} vrcp14ps %ymm2, %ymm5 vbroadcastss 0x24c46f(%rip), %ymm6 # 0x1eec714 vfnmadd213ps %ymm6, %ymm5, %ymm2 # ymm2 = -(ymm5 * ymm2) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm2 # ymm2 = (ymm2 * ymm5) + ymm5 vrcp14ps %ymm1, %ymm5 vfnmadd213ps %ymm6, %ymm5, %ymm1 # ymm1 = -(ymm5 * ymm1) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm1 # ymm1 = (ymm1 * ymm5) + ymm5 vrcp14ps %ymm0, %ymm5 vfnmadd213ps %ymm6, %ymm5, %ymm0 # ymm0 = -(ymm5 * ymm0) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm0 # ymm0 = (ymm0 * ymm5) + ymm5 leaq (,%rcx,8), %r9 subq %rcx, %r9 vpmovsxwd 0x6(%r8,%r9), %ymm5 vcvtdq2ps %ymm5, %ymm5 vsubps %ymm15, %ymm5, %ymm5 vmulps %ymm5, %ymm2, %ymm5 vpmovsxwd 0x6(%r8,%rbx), %ymm6 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm15, %ymm6, %ymm6 leaq (%rcx,%rcx), %r9 addq %rcx, %rax shlq $0x3, %rdx subq %rcx, %rdx vpbroadcastd %ecx, %ymm7 shll $0x4, %ecx vpmovsxwd 0x6(%r8,%rcx), %ymm8 vmulps %ymm6, %ymm2, %ymm2 subq %r9, %rcx vpmovsxwd 0x6(%r8,%rcx), %ymm6 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm4, %ymm6, %ymm6 vmulps %ymm6, %ymm1, %ymm6 vcvtdq2ps %ymm8, %ymm8 vsubps %ymm4, %ymm8, %ymm4 vmulps %ymm4, %ymm1, %ymm1 vpmovsxwd 0x6(%r8,%rax), %ymm4 vcvtdq2ps %ymm4, %ymm4 vsubps %ymm3, %ymm4, %ymm4 vmulps %ymm0, %ymm4, %ymm4 vpmovsxwd 0x6(%r8,%rdx), %ymm8 vcvtdq2ps %ymm8, %ymm8 vsubps %ymm3, %ymm8, %ymm3 vmulps %ymm3, %ymm0, %ymm0 vpminsd %ymm2, %ymm5, %ymm3 vpminsd %ymm1, %ymm6, %ymm8 vmaxps %ymm8, %ymm3, %ymm3 vpminsd %ymm0, %ymm4, %ymm8 vmaxps 0xc0(%rsi,%r11,4){1to8}, %ymm8, %ymm8 vmaxps %ymm8, %ymm3, %ymm3 vmulps 0x27fb7b(%rip){1to8}, %ymm3, %ymm3 # 0x1f1ff10 vpmaxsd %ymm2, %ymm5, %ymm2 vpmaxsd %ymm1, %ymm6, %ymm1 vminps %ymm1, %ymm2, %ymm1 vpmaxsd %ymm0, %ymm4, %ymm0 vminps 0x200(%rsi,%r11,4){1to8}, %ymm0, %ymm0 vminps %ymm0, %ymm1, %ymm0 vmulps 0x27fb53(%rip){1to8}, %ymm0, %ymm0 # 0x1f1ff14 vpcmpgtd 0x2ba555(%rip), %ymm7, %k0 # 0x1f5a920 vmovaps %ymm3, 0x380(%rsp) vcmpleps %ymm0, %ymm3, %k1 ktestb %k0, %k1 je 0x1ca227d kandb %k0, %k1, %k0 kmovd %k0, %eax movzbl %al, %r13d leaq (%r11,%r11,2), %rax shlq $0x4, %rax leaq (%rdi,%rax), %rbx addq $0x40, %rbx movl $0x1, %eax shlxl %r11d, %eax, %eax kmovd %eax, %k0 vpmovm2d %k0, %zmm0 vmovdqa64 %zmm0, 0x400(%rsp) vbroadcastss 0x250bc5(%rip), %xmm17 # 0x1ef0fec vbroadcastss 0x280a93(%rip), %xmm19 # 0x1f20ec4 vbroadcastss 0x280a85(%rip), %xmm20 # 0x1f20ec0 vxorps %xmm30, %xmm30, %xmm30 tzcntq %r13, %rax movl 0x2(%r8), %r15d movl 0x6(%r8,%rax,4), %r12d movq (%r10), %rax movq 0x1e8(%rax), %rax movq (%rax,%r15,8), %rax movq %r12, %rcx imulq 0x68(%rax), %rcx movq 0x58(%rax), %rdx movq 0x90(%rax), %r9 movl (%rdx,%rcx), %ecx movq 0xa0(%rax), %rdi movq %rdi, %rdx imulq %rcx, %rdx vmovaps (%r9,%rdx), %xmm5 leaq 0x1(%rcx), %rdx imulq %rdx, %rdi vmovaps (%r9,%rdi), %xmm4 movq 0xc8(%rax), %r14 movq 0xd8(%rax), %rdi movq %rdi, %r9 imulq %rcx, %r9 vmovups (%r14,%r9), %xmm6 movq 0x100(%rax), %r9 imulq %rdx, %rdi vmovups (%r14,%rdi), %xmm7 movq 0x110(%rax), %r14 movq %r14, %rdi imulq %rcx, %rdi vmovaps (%r9,%rdi), %xmm8 imulq %rdx, %r14 vmovaps (%r9,%r14), %xmm9 movq %r15, %r9 movq 0x148(%rax), %rdi imulq %rdi, %rcx imulq %rdx, %rdi movq 0x138(%rax), %rax vmovups (%rax,%rcx), %xmm10 vmovss (%rsi,%r11,4), %xmm0 vinsertps $0x1c, 0x40(%rsi,%r11,4), %xmm0, %xmm0 # xmm0 = xmm0[0],mem[0],zero,zero vinsertps $0x28, 0x80(%rsi,%r11,4), %xmm0, %xmm0 # xmm0 = xmm0[0,1],mem[0],zero vmovss 0xc0(%rsi,%r11,4), %xmm1 vmovss %xmm1, 0xac(%rsp) vbroadcastss 0x251989(%rip), %xmm22 # 0x1ef1ebc vfmadd132ps %xmm22, %xmm5, %xmm8 # xmm8 = (xmm8 * xmm22) + xmm5 vfnmadd132ps %xmm22, %xmm4, %xmm9 # xmm9 = -(xmm9 * xmm22) + xmm4 vmovups (%rax,%rdi), %xmm11 vfmadd132ps %xmm22, %xmm6, %xmm10 # xmm10 = (xmm10 * xmm22) + xmm6 vfnmadd132ps %xmm22, %xmm7, %xmm11 # xmm11 = -(xmm11 * xmm22) + xmm7 vxorps %xmm15, %xmm15, %xmm15 vmulps %xmm4, %xmm15, %xmm1 vfmadd231ps %xmm15, %xmm9, %xmm1 # xmm1 = (xmm9 * xmm15) + xmm1 vxorps %xmm2, %xmm2, %xmm2 vfmadd213ps %xmm1, %xmm8, %xmm2 # xmm2 = (xmm8 * xmm2) + xmm1 vaddps %xmm2, %xmm5, %xmm2 vfmadd231ps %xmm17, %xmm8, %xmm1 # xmm1 = (xmm8 * xmm17) + xmm1 vfnmadd231ps %xmm17, %xmm5, %xmm1 # xmm1 = -(xmm5 * xmm17) + xmm1 vmulps %xmm7, %xmm15, %xmm12 vfmadd231ps %xmm15, %xmm11, %xmm12 # xmm12 = (xmm11 * xmm15) + xmm12 vxorps %xmm3, %xmm3, %xmm3 vfmadd213ps %xmm12, %xmm10, %xmm3 # xmm3 = (xmm10 * xmm3) + xmm12 vaddps %xmm3, %xmm6, %xmm13 vfmadd231ps %xmm17, %xmm10, %xmm12 # xmm12 = (xmm10 * xmm17) + xmm12 vfnmadd231ps %xmm17, %xmm6, %xmm12 # xmm12 = -(xmm6 * xmm17) + xmm12 vxorps %xmm3, %xmm3, %xmm3 vfmadd213ps %xmm4, %xmm9, %xmm3 # xmm3 = (xmm9 * xmm3) + xmm4 vfmadd231ps %xmm15, %xmm8, %xmm3 # xmm3 = (xmm8 * xmm15) + xmm3 vfmadd231ps %xmm15, %xmm5, %xmm3 # xmm3 = (xmm5 * xmm15) + xmm3 vmulps %xmm17, %xmm4, %xmm4 vfnmadd231ps %xmm9, %xmm17, %xmm4 # xmm4 = -(xmm17 * xmm9) + xmm4 vfmadd231ps %xmm8, %xmm15, %xmm4 # xmm4 = (xmm15 * xmm8) + xmm4 vfnmadd231ps %xmm5, %xmm15, %xmm4 # xmm4 = -(xmm15 * xmm5) + xmm4 vxorps %xmm5, %xmm5, %xmm5 vfmadd213ps %xmm7, %xmm11, %xmm5 # xmm5 = (xmm11 * xmm5) + xmm7 vfmadd231ps %xmm15, %xmm10, %xmm5 # xmm5 = (xmm10 * xmm15) + xmm5 vfmadd231ps %xmm15, %xmm6, %xmm5 # xmm5 = (xmm6 * xmm15) + xmm5 vmulps %xmm17, %xmm7, %xmm8 vfnmadd231ps %xmm11, %xmm17, %xmm8 # xmm8 = -(xmm17 * xmm11) + xmm8 vfmadd231ps %xmm10, %xmm15, %xmm8 # xmm8 = (xmm15 * xmm10) + xmm8 vfnmadd231ps %xmm6, %xmm15, %xmm8 # xmm8 = -(xmm15 * xmm6) + xmm8 vshufps $0xc9, %xmm1, %xmm1, %xmm6 # xmm6 = xmm1[1,2,0,3] vshufps $0xc9, %xmm13, %xmm13, %xmm7 # xmm7 = xmm13[1,2,0,3] vmulps %xmm7, %xmm1, %xmm7 vfmsub231ps %xmm13, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm13) - xmm7 vshufps $0xc9, %xmm7, %xmm7, %xmm7 # xmm7 = xmm7[1,2,0,3] vshufps $0xc9, %xmm12, %xmm12, %xmm9 # xmm9 = xmm12[1,2,0,3] vmulps %xmm1, %xmm9, %xmm9 vfmsub231ps %xmm12, %xmm6, %xmm9 # xmm9 = (xmm6 * xmm12) - xmm9 vshufps $0xc9, %xmm9, %xmm9, %xmm9 # xmm9 = xmm9[1,2,0,3] vshufps $0xc9, %xmm4, %xmm4, %xmm6 # xmm6 = xmm4[1,2,0,3] vshufps $0xc9, %xmm5, %xmm5, %xmm10 # xmm10 = xmm5[1,2,0,3] vmulps %xmm4, %xmm10, %xmm10 vfmsub231ps %xmm5, %xmm6, %xmm10 # xmm10 = (xmm6 * xmm5) - xmm10 vshufps $0xc9, %xmm10, %xmm10, %xmm5 # xmm5 = xmm10[1,2,0,3] vshufps $0xc9, %xmm8, %xmm8, %xmm10 # xmm10 = xmm8[1,2,0,3] vmulps %xmm4, %xmm10, %xmm10 vfmsub231ps %xmm8, %xmm6, %xmm10 # xmm10 = (xmm6 * xmm8) - xmm10 vshufps $0xc9, %xmm10, %xmm10, %xmm6 # xmm6 = xmm10[1,2,0,3] vdpps $0x7f, %xmm7, %xmm7, %xmm8 vmovss %xmm8, %xmm15, %xmm10 # xmm10 = xmm8[0],xmm15[1,2,3] vrsqrt14ss %xmm10, %xmm15, %xmm11 vmovss 0x24c0b6(%rip), %xmm16 # 0x1eec718 vmulss %xmm16, %xmm11, %xmm12 vmovss 0x24c50e(%rip), %xmm17 # 0x1eecb80 vmulss %xmm17, %xmm8, %xmm13 vmulss %xmm11, %xmm13, %xmm13 vmulss %xmm11, %xmm11, %xmm11 vmulss %xmm11, %xmm13, %xmm11 vsubss %xmm11, %xmm12, %xmm11 vdpps $0x7f, %xmm9, %xmm7, %xmm12 vbroadcastss %xmm11, %xmm11 vmulps %xmm7, %xmm11, %xmm13 vbroadcastss %xmm8, %xmm14 vmulps %xmm9, %xmm14, %xmm9 vbroadcastss %xmm12, %xmm12 vmulps %xmm7, %xmm12, %xmm7 vsubps %xmm7, %xmm9, %xmm7 vrcp14ss %xmm10, %xmm15, %xmm9 vmovss 0x250936(%rip), %xmm18 # 0x1ef0ff8 vfnmadd213ss %xmm18, %xmm9, %xmm8 # xmm8 = -(xmm9 * xmm8) + xmm18 vmulss %xmm8, %xmm9, %xmm8 vbroadcastss %xmm8, %xmm8 vmulps %xmm7, %xmm8, %xmm7 vmulps %xmm7, %xmm11, %xmm7 vdpps $0x7f, %xmm5, %xmm5, %xmm8 vmovss %xmm8, %xmm15, %xmm9 # xmm9 = xmm8[0],xmm15[1,2,3] vrsqrt14ss %xmm9, %xmm15, %xmm10 vmulss %xmm16, %xmm10, %xmm11 vmulss %xmm17, %xmm8, %xmm12 vmulss %xmm10, %xmm12, %xmm12 vmulss %xmm10, %xmm10, %xmm10 vmulss %xmm10, %xmm12, %xmm10 vsubss %xmm10, %xmm11, %xmm10 vbroadcastss %xmm10, %xmm10 vdpps $0x7f, %xmm6, %xmm5, %xmm11 vmulps %xmm5, %xmm10, %xmm12 vbroadcastss %xmm8, %xmm14 vmulps %xmm6, %xmm14, %xmm6 vbroadcastss %xmm11, %xmm11 vmulps %xmm5, %xmm11, %xmm5 vsubps %xmm5, %xmm6, %xmm5 vrcp14ss %xmm9, %xmm15, %xmm6 vfnmadd213ss %xmm18, %xmm6, %xmm8 # xmm8 = -(xmm6 * xmm8) + xmm18 vmulss %xmm6, %xmm8, %xmm6 vbroadcastss %xmm6, %xmm6 vmulps %xmm6, %xmm5, %xmm5 vmulps %xmm5, %xmm10, %xmm5 vshufps $0xff, %xmm2, %xmm2, %xmm6 # xmm6 = xmm2[3,3,3,3] vmulps %xmm6, %xmm13, %xmm8 vsubps %xmm8, %xmm2, %xmm14 vshufps $0xff, %xmm1, %xmm1, %xmm9 # xmm9 = xmm1[3,3,3,3] vmulps %xmm13, %xmm9, %xmm9 vmulps %xmm7, %xmm6, %xmm6 vaddps %xmm6, %xmm9, %xmm6 vsubps %xmm6, %xmm1, %xmm7 vaddps %xmm2, %xmm8, %xmm13 vaddps %xmm6, %xmm1, %xmm1 vshufps $0xff, %xmm3, %xmm3, %xmm2 # xmm2 = xmm3[3,3,3,3] vmulps %xmm2, %xmm12, %xmm6 vsubps %xmm6, %xmm3, %xmm15 vshufps $0xff, %xmm4, %xmm4, %xmm8 # xmm8 = xmm4[3,3,3,3] vmulps %xmm12, %xmm8, %xmm8 vmulps %xmm5, %xmm2, %xmm2 vaddps %xmm2, %xmm8, %xmm2 vsubps %xmm2, %xmm4, %xmm5 vaddps %xmm6, %xmm3, %xmm16 vaddps %xmm2, %xmm4, %xmm2 vmulps %xmm22, %xmm7, %xmm3 vaddps %xmm3, %xmm14, %xmm17 vmulps %xmm22, %xmm5, %xmm3 vsubps %xmm3, %xmm15, %xmm18 vmulps %xmm22, %xmm1, %xmm1 vaddps %xmm1, %xmm13, %xmm21 vmulps %xmm22, %xmm2, %xmm1 vsubps %xmm1, %xmm16, %xmm22 vsubps %xmm0, %xmm14, %xmm1 vbroadcastss %xmm1, %xmm2 vshufps $0x55, %xmm1, %xmm1, %xmm3 # xmm3 = xmm1[1,1,1,1] vmovaps %xmm1, 0x310(%rsp) vshufps $0xaa, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,2,2,2] vmovaps (%rbx), %xmm4 vmovaps 0x10(%rbx), %xmm5 vmovaps 0x20(%rbx), %xmm7 vmulps %xmm1, %xmm7, %xmm1 vfmadd231ps %xmm3, %xmm5, %xmm1 # xmm1 = (xmm5 * xmm3) + xmm1 vfmadd231ps %xmm2, %xmm4, %xmm1 # xmm1 = (xmm4 * xmm2) + xmm1 vsubps %xmm0, %xmm17, %xmm2 vbroadcastss %xmm2, %xmm3 vshufps $0x55, %xmm2, %xmm2, %xmm6 # xmm6 = xmm2[1,1,1,1] vmovaps %xmm2, 0x300(%rsp) vshufps $0xaa, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[2,2,2,2] vmulps %xmm2, %xmm7, %xmm2 vfmadd231ps %xmm6, %xmm5, %xmm2 # xmm2 = (xmm5 * xmm6) + xmm2 vfmadd231ps %xmm3, %xmm4, %xmm2 # xmm2 = (xmm4 * xmm3) + xmm2 vsubps %xmm0, %xmm18, %xmm3 vbroadcastss %xmm3, %xmm6 vshufps $0x55, %xmm3, %xmm3, %xmm8 # xmm8 = xmm3[1,1,1,1] vmovaps %xmm3, 0x2f0(%rsp) vshufps $0xaa, %xmm3, %xmm3, %xmm3 # xmm3 = xmm3[2,2,2,2] vmulps %xmm3, %xmm7, %xmm3 vfmadd231ps %xmm8, %xmm5, %xmm3 # xmm3 = (xmm5 * xmm8) + xmm3 vfmadd231ps %xmm6, %xmm4, %xmm3 # xmm3 = (xmm4 * xmm6) + xmm3 vsubps %xmm0, %xmm15, %xmm6 vbroadcastss %xmm6, %xmm8 vshufps $0x55, %xmm6, %xmm6, %xmm9 # xmm9 = xmm6[1,1,1,1] vmovaps %xmm6, 0x2e0(%rsp) vshufps $0xaa, %xmm6, %xmm6, %xmm6 # xmm6 = xmm6[2,2,2,2] vmulps %xmm6, %xmm7, %xmm6 vfmadd231ps %xmm9, %xmm5, %xmm6 # xmm6 = (xmm5 * xmm9) + xmm6 vfmadd231ps %xmm8, %xmm4, %xmm6 # xmm6 = (xmm4 * xmm8) + xmm6 vsubps %xmm0, %xmm13, %xmm10 vbroadcastss %xmm10, %xmm8 vshufps $0x55, %xmm10, %xmm10, %xmm9 # xmm9 = xmm10[1,1,1,1] vmovaps %xmm10, 0x2d0(%rsp) vshufps $0xaa, %xmm10, %xmm10, %xmm10 # xmm10 = xmm10[2,2,2,2] vmulps %xmm7, %xmm10, %xmm10 vfmadd231ps %xmm9, %xmm5, %xmm10 # xmm10 = (xmm5 * xmm9) + xmm10 vfmadd231ps %xmm8, %xmm4, %xmm10 # xmm10 = (xmm4 * xmm8) + xmm10 vsubps %xmm0, %xmm21, %xmm11 vbroadcastss %xmm11, %xmm8 vshufps $0x55, %xmm11, %xmm11, %xmm9 # xmm9 = xmm11[1,1,1,1] vmovaps %xmm11, 0x2c0(%rsp) vshufps $0xaa, %xmm11, %xmm11, %xmm11 # xmm11 = xmm11[2,2,2,2] vmulps %xmm7, %xmm11, %xmm11 vfmadd231ps %xmm9, %xmm5, %xmm11 # xmm11 = (xmm5 * xmm9) + xmm11 vfmadd231ps %xmm8, %xmm4, %xmm11 # xmm11 = (xmm4 * xmm8) + xmm11 vsubps %xmm0, %xmm22, %xmm12 vbroadcastss %xmm12, %xmm8 vshufps $0x55, %xmm12, %xmm12, %xmm9 # xmm9 = xmm12[1,1,1,1] vmovaps %xmm12, 0x2b0(%rsp) vshufps $0xaa, %xmm12, %xmm12, %xmm12 # xmm12 = xmm12[2,2,2,2] vmulps %xmm7, %xmm12, %xmm12 vfmadd231ps %xmm9, %xmm5, %xmm12 # xmm12 = (xmm5 * xmm9) + xmm12 vfmadd231ps %xmm8, %xmm4, %xmm12 # xmm12 = (xmm4 * xmm8) + xmm12 vsubps %xmm0, %xmm16, %xmm9 vbroadcastss %xmm9, %xmm0 vshufps $0x55, %xmm9, %xmm9, %xmm8 # xmm8 = xmm9[1,1,1,1] vmovaps %xmm9, 0x2a0(%rsp) vshufps $0xaa, %xmm9, %xmm9, %xmm9 # xmm9 = xmm9[2,2,2,2] vmulps %xmm7, %xmm9, %xmm7 vfmadd231ps %xmm8, %xmm5, %xmm7 # xmm7 = (xmm5 * xmm8) + xmm7 vfmadd231ps %xmm0, %xmm4, %xmm7 # xmm7 = (xmm4 * xmm0) + xmm7 vmovlhps %xmm10, %xmm1, %xmm8 # xmm8 = xmm1[0],xmm10[0] vmovlhps %xmm11, %xmm2, %xmm9 # xmm9 = xmm2[0],xmm11[0] vmovlhps %xmm12, %xmm3, %xmm23 # xmm23 = xmm3[0],xmm12[0] vmovlhps %xmm7, %xmm6, %xmm24 # xmm24 = xmm6[0],xmm7[0] vminps %xmm9, %xmm8, %xmm0 vmaxps %xmm9, %xmm8, %xmm4 vminps %xmm24, %xmm23, %xmm5 vminps %xmm5, %xmm0, %xmm0 vmaxps %xmm24, %xmm23, %xmm5 vmaxps %xmm5, %xmm4, %xmm4 vshufpd $0x3, %xmm0, %xmm0, %xmm5 # xmm5 = xmm0[1,1] vminps %xmm5, %xmm0, %xmm0 vshufpd $0x3, %xmm4, %xmm4, %xmm5 # xmm5 = xmm4[1,1] vmaxps %xmm5, %xmm4, %xmm4 vandps %xmm19, %xmm0, %xmm0 vandps %xmm19, %xmm4, %xmm4 vmaxps %xmm4, %xmm0, %xmm0 vmovshdup %xmm0, %xmm4 # xmm4 = xmm0[1,1,3,3] vmaxss %xmm0, %xmm4, %xmm0 leaq 0xff(%r13), %r15 vmulss 0x251505(%rip), %xmm0, %xmm0 # 0x1ef1eb8 vmovddup %xmm1, %xmm19 # xmm19 = xmm1[0,0] vmovddup %xmm2, %xmm25 # xmm25 = xmm2[0,0] vmovddup %xmm3, %xmm1 # xmm1 = xmm3[0,0] vmovddup %xmm6, %xmm6 # xmm6 = xmm6[0,0] vmovddup %xmm10, %xmm10 # xmm10 = xmm10[0,0] vmovddup %xmm11, %xmm11 # xmm11 = xmm11[0,0] vmovddup %xmm12, %xmm12 # xmm12 = xmm12[0,0] vmovddup %xmm7, %xmm2 # xmm2 = xmm7[0,0] vmovaps %xmm0, 0x190(%rsp) vbroadcastss %xmm0, %ymm29 vxorps %xmm20, %xmm29, %xmm0 vbroadcastss %xmm0, %ymm28 xorl %r14d, %r14d vmovaps %xmm8, 0xd0(%rsp) vsubps %xmm8, %xmm9, %xmm0 vmovaps %xmm0, 0x120(%rsp) vmovaps %xmm9, 0xc0(%rsp) vsubps %xmm9, %xmm23, %xmm0 vmovaps %xmm0, 0x110(%rsp) vmovaps %xmm23, 0x130(%rsp) vmovaps %xmm24, 0x1a0(%rsp) vsubps %xmm23, %xmm24, %xmm0 vmovaps %xmm0, 0x100(%rsp) vmovaps %xmm14, 0x290(%rsp) vmovaps %xmm13, 0x280(%rsp) vsubps %xmm14, %xmm13, %xmm0 vmovaps %xmm0, 0x210(%rsp) vmovaps %xmm2, %xmm13 vmovaps %xmm17, 0x250(%rsp) vmovaps %xmm21, 0x230(%rsp) vsubps %xmm17, %xmm21, %xmm0 vmovaps %xmm0, 0x200(%rsp) vmovaps %xmm18, 0x240(%rsp) vmovaps %xmm22, 0x220(%rsp) vsubps %xmm18, %xmm22, %xmm0 vmovaps %xmm0, 0x1f0(%rsp) vmovaps %xmm15, 0x270(%rsp) vmovaps %xmm16, 0x260(%rsp) vsubps %xmm15, %xmm16, %xmm0 vmovaps %xmm0, 0x1e0(%rsp) vmovaps %xmm1, %xmm16 vpbroadcastd %r9d, %zmm0 vmovdqa64 %zmm0, 0x480(%rsp) movq %r12, 0x148(%rsp) vpbroadcastd %r12d, %zmm0 vmovdqa64 %zmm0, 0x440(%rsp) vmovsd 0x24bbf6(%rip), %xmm0 # 0x1eec6f0 vmovaps %xmm0, %xmm15 movq %rsi, %rdi vmovaps %xmm19, 0x1c0(%rsp) vmovaps %xmm25, 0x1b0(%rsp) vmovaps %xmm1, 0x90(%rsp) vmovaps %xmm6, 0x60(%rsp) vmovaps %xmm10, 0x50(%rsp) vmovaps %xmm11, 0x40(%rsp) vmovaps %xmm12, 0x30(%rsp) vmovaps %xmm2, 0x70(%rsp) vmovaps %ymm29, 0x3c0(%rsp) vmovaps %ymm28, 0x3a0(%rsp) vmovaps %xmm15, %xmm26 vshufps $0x50, %xmm15, %xmm15, %xmm1 # xmm1 = xmm15[0,0,1,1] vbroadcastss 0x24bbb6(%rip), %ymm31 # 0x1eec714 vsubps %xmm1, %xmm31, %xmm2 vmulps %xmm1, %xmm10, %xmm3 vmulps %xmm1, %xmm11, %xmm4 vmulps %xmm1, %xmm12, %xmm5 vmulps %xmm1, %xmm13, %xmm1 vfmadd231ps %xmm19, %xmm2, %xmm3 # xmm3 = (xmm2 * xmm19) + xmm3 vfmadd231ps %xmm25, %xmm2, %xmm4 # xmm4 = (xmm2 * xmm25) + xmm4 vfmadd231ps %xmm16, %xmm2, %xmm5 # xmm5 = (xmm2 * xmm16) + xmm5 vfmadd231ps %xmm2, %xmm6, %xmm1 # xmm1 = (xmm6 * xmm2) + xmm1 vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3] vsubss %xmm0, %xmm2, %xmm6 vmulss 0x280335(%rip), %xmm6, %xmm6 # 0x1f20ed0 vbroadcastss %xmm0, %ymm7 vbroadcastsd %xmm2, %ymm2 vsubps %ymm7, %ymm2, %ymm10 vbroadcastss %xmm3, %ymm2 vbroadcastss 0x271b4d(%rip), %ymm9 # 0x1f12704 vpermps %ymm3, %ymm9, %ymm8 vbroadcastss %xmm4, %ymm20 vpermps %ymm4, %ymm9, %ymm21 vbroadcastss %xmm5, %ymm22 vpermps %ymm5, %ymm9, %ymm23 vbroadcastss %xmm1, %ymm24 vpermps %ymm1, %ymm9, %ymm25 vbroadcastss %xmm6, %ymm9 vpermps %ymm3, %ymm27, %ymm19 vbroadcastss 0x2802e4(%rip), %ymm6 # 0x1f20ed8 vpermps %ymm3, %ymm6, %ymm18 vpermps %ymm4, %ymm27, %ymm15 vpermps %ymm4, %ymm6, %ymm14 vpermps %ymm5, %ymm27, %ymm12 vpermps %ymm5, %ymm6, %ymm11 vpermps %ymm1, %ymm27, %ymm16 vpermps %ymm1, %ymm6, %ymm17 vfmadd132ps 0x2802fb(%rip), %ymm7, %ymm10 # ymm10 = (ymm10 * mem) + ymm7 vsubps %ymm10, %ymm31, %ymm13 vmulps %ymm10, %ymm20, %ymm1 vmulps %ymm10, %ymm21, %ymm3 vfmadd231ps %ymm2, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm2) + ymm1 vfmadd231ps %ymm8, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm8) + ymm3 vmulps %ymm10, %ymm22, %ymm2 vmulps %ymm10, %ymm23, %ymm4 vfmadd231ps %ymm20, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm20) + ymm2 vfmadd231ps %ymm21, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm21) + ymm4 vmulps %ymm10, %ymm24, %ymm5 vmulps %ymm10, %ymm25, %ymm6 vfmadd231ps %ymm22, %ymm13, %ymm5 # ymm5 = (ymm13 * ymm22) + ymm5 vfmadd231ps %ymm23, %ymm13, %ymm6 # ymm6 = (ymm13 * ymm23) + ymm6 vmulps %ymm2, %ymm10, %ymm7 vmulps %ymm4, %ymm10, %ymm8 vfmadd231ps %ymm1, %ymm13, %ymm7 # ymm7 = (ymm13 * ymm1) + ymm7 vfmadd231ps %ymm3, %ymm13, %ymm8 # ymm8 = (ymm13 * ymm3) + ymm8 vmulps %ymm5, %ymm10, %ymm1 vmulps %ymm6, %ymm10, %ymm5 vfmadd231ps %ymm2, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm2) + ymm1 vfmadd231ps %ymm4, %ymm13, %ymm5 # ymm5 = (ymm13 * ymm4) + ymm5 vmulps %ymm1, %ymm10, %ymm3 vmulps %ymm5, %ymm10, %ymm4 vfmadd231ps %ymm7, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm7) + ymm3 vfmadd231ps %ymm8, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm8) + ymm4 vsubps %ymm7, %ymm1, %ymm1 vsubps %ymm8, %ymm5, %ymm2 vbroadcastss 0x250332(%rip), %ymm22 # 0x1ef0fec vmulps %ymm22, %ymm1, %ymm1 vmulps %ymm22, %ymm2, %ymm2 vmulps %ymm1, %ymm9, %ymm8 vmulps %ymm2, %ymm9, %ymm20 vmovaps %ymm3, %ymm5 vmovaps 0x2bf042(%rip), %ymm23 # 0x1f5fd20 vxorps %xmm24, %xmm24, %xmm24 vpermt2ps %ymm24, %ymm23, %ymm5 vmovaps %ymm4, %ymm6 vpermt2ps %ymm24, %ymm23, %ymm6 vaddps %ymm3, %ymm8, %ymm1 vpermt2ps %ymm24, %ymm23, %ymm8 vaddps %ymm20, %ymm4, %ymm7 vpermt2ps %ymm24, %ymm23, %ymm20 vsubps %ymm8, %ymm5, %ymm2 vsubps %ymm20, %ymm6, %ymm8 vmulps %ymm10, %ymm15, %ymm20 vmulps %ymm10, %ymm14, %ymm21 vfmadd231ps %ymm19, %ymm13, %ymm20 # ymm20 = (ymm13 * ymm19) + ymm20 vfmadd231ps %ymm18, %ymm13, %ymm21 # ymm21 = (ymm13 * ymm18) + ymm21 vmulps %ymm10, %ymm12, %ymm18 vmulps %ymm10, %ymm11, %ymm19 vfmadd231ps %ymm15, %ymm13, %ymm18 # ymm18 = (ymm13 * ymm15) + ymm18 vfmadd231ps %ymm14, %ymm13, %ymm19 # ymm19 = (ymm13 * ymm14) + ymm19 vmulps %ymm10, %ymm16, %ymm14 vmulps %ymm10, %ymm17, %ymm15 vfmadd231ps %ymm12, %ymm13, %ymm14 # ymm14 = (ymm13 * ymm12) + ymm14 vfmadd231ps %ymm11, %ymm13, %ymm15 # ymm15 = (ymm13 * ymm11) + ymm15 vmulps %ymm18, %ymm10, %ymm16 vmulps %ymm19, %ymm10, %ymm17 vfmadd231ps %ymm20, %ymm13, %ymm16 # ymm16 = (ymm13 * ymm20) + ymm16 vfmadd231ps %ymm21, %ymm13, %ymm17 # ymm17 = (ymm13 * ymm21) + ymm17 vmulps %ymm14, %ymm10, %ymm14 vmulps %ymm15, %ymm10, %ymm15 vfmadd231ps %ymm18, %ymm13, %ymm14 # ymm14 = (ymm13 * ymm18) + ymm14 vfmadd231ps %ymm19, %ymm13, %ymm15 # ymm15 = (ymm13 * ymm19) + ymm15 vmulps %ymm14, %ymm10, %ymm11 vmulps %ymm15, %ymm10, %ymm12 vfmadd231ps %ymm16, %ymm13, %ymm11 # ymm11 = (ymm13 * ymm16) + ymm11 vfmadd231ps %ymm13, %ymm17, %ymm12 # ymm12 = (ymm17 * ymm13) + ymm12 vsubps %ymm16, %ymm14, %ymm10 vsubps %ymm17, %ymm15, %ymm13 vmulps %ymm22, %ymm10, %ymm10 vmulps %ymm22, %ymm13, %ymm13 vmulps %ymm10, %ymm9, %ymm10 vmulps %ymm13, %ymm9, %ymm16 vmovaps %ymm11, %ymm13 vpermt2ps %ymm24, %ymm23, %ymm13 vmovaps %ymm12, %ymm14 vpermt2ps %ymm24, %ymm23, %ymm14 vaddps %ymm10, %ymm11, %ymm9 vpermt2ps %ymm24, %ymm23, %ymm10 vaddps %ymm16, %ymm12, %ymm15 vpermt2ps %ymm24, %ymm23, %ymm16 vsubps %ymm10, %ymm13, %ymm10 vsubps %ymm16, %ymm14, %ymm16 vsubps %ymm3, %ymm11, %ymm17 vsubps %ymm4, %ymm12, %ymm18 vsubps %ymm5, %ymm13, %ymm19 vaddps %ymm19, %ymm17, %ymm17 vsubps %ymm6, %ymm14, %ymm19 vaddps %ymm19, %ymm18, %ymm18 vmulps %ymm17, %ymm4, %ymm19 vfnmadd231ps %ymm18, %ymm3, %ymm19 # ymm19 = -(ymm3 * ymm18) + ymm19 vmulps %ymm17, %ymm7, %ymm20 vfnmadd231ps %ymm18, %ymm1, %ymm20 # ymm20 = -(ymm1 * ymm18) + ymm20 vmulps %ymm17, %ymm8, %ymm21 vfnmadd231ps %ymm18, %ymm2, %ymm21 # ymm21 = -(ymm2 * ymm18) + ymm21 vmulps %ymm17, %ymm6, %ymm22 vfnmadd231ps %ymm18, %ymm5, %ymm22 # ymm22 = -(ymm5 * ymm18) + ymm22 vmulps %ymm17, %ymm12, %ymm23 vfnmadd231ps %ymm18, %ymm11, %ymm23 # ymm23 = -(ymm11 * ymm18) + ymm23 vmulps %ymm17, %ymm15, %ymm24 vfnmadd231ps %ymm18, %ymm9, %ymm24 # ymm24 = -(ymm9 * ymm18) + ymm24 vmulps %ymm17, %ymm16, %ymm25 vfnmadd231ps %ymm18, %ymm10, %ymm25 # ymm25 = -(ymm10 * ymm18) + ymm25 vmulps %ymm17, %ymm14, %ymm17 vfnmadd231ps %ymm18, %ymm13, %ymm17 # ymm17 = -(ymm13 * ymm18) + ymm17 vminps %ymm20, %ymm19, %ymm18 vmaxps %ymm20, %ymm19, %ymm19 vminps %ymm22, %ymm21, %ymm20 vminps %ymm20, %ymm18, %ymm18 vmaxps %ymm22, %ymm21, %ymm20 vmaxps %ymm20, %ymm19, %ymm19 vminps %ymm24, %ymm23, %ymm20 vmaxps %ymm24, %ymm23, %ymm21 vminps %ymm17, %ymm25, %ymm22 vminps %ymm22, %ymm20, %ymm20 vminps %ymm20, %ymm18, %ymm18 vmaxps %ymm17, %ymm25, %ymm17 vmaxps %ymm17, %ymm21, %ymm17 vmaxps %ymm17, %ymm19, %ymm17 vcmpleps %ymm29, %ymm18, %k1 vcmpnltps %ymm28, %ymm17, %k0 {%k1} kmovd %k0, %eax movl $0x0, %ecx andb $0x7f, %al je 0x1ca0fc6 vsubps %ymm3, %ymm5, %ymm17 vsubps %ymm4, %ymm6, %ymm18 vsubps %ymm11, %ymm13, %ymm19 vaddps %ymm19, %ymm17, %ymm17 vsubps %ymm12, %ymm14, %ymm19 vaddps %ymm19, %ymm18, %ymm18 vmulps %ymm17, %ymm4, %ymm4 vfnmadd231ps %ymm3, %ymm18, %ymm4 # ymm4 = -(ymm18 * ymm3) + ymm4 vmulps %ymm17, %ymm7, %ymm3 vfnmadd213ps %ymm3, %ymm18, %ymm1 # ymm1 = -(ymm18 * ymm1) + ymm3 vmulps %ymm17, %ymm8, %ymm3 vfnmadd213ps %ymm3, %ymm18, %ymm2 # ymm2 = -(ymm18 * ymm2) + ymm3 vmulps %ymm17, %ymm6, %ymm3 vfnmadd231ps %ymm5, %ymm18, %ymm3 # ymm3 = -(ymm18 * ymm5) + ymm3 vmulps %ymm17, %ymm12, %ymm5 vfnmadd231ps %ymm11, %ymm18, %ymm5 # ymm5 = -(ymm18 * ymm11) + ymm5 vmulps %ymm17, %ymm15, %ymm6 vfnmadd213ps %ymm6, %ymm18, %ymm9 # ymm9 = -(ymm18 * ymm9) + ymm6 vmulps %ymm17, %ymm16, %ymm6 vfnmadd213ps %ymm6, %ymm18, %ymm10 # ymm10 = -(ymm18 * ymm10) + ymm6 vmulps %ymm17, %ymm14, %ymm6 vfnmadd231ps %ymm18, %ymm13, %ymm6 # ymm6 = -(ymm13 * ymm18) + ymm6 vminps %ymm1, %ymm4, %ymm7 vmaxps %ymm1, %ymm4, %ymm1 vminps %ymm3, %ymm2, %ymm4 vminps %ymm4, %ymm7, %ymm4 vmaxps %ymm3, %ymm2, %ymm2 vmaxps %ymm2, %ymm1, %ymm1 vminps %ymm9, %ymm5, %ymm2 vmaxps %ymm9, %ymm5, %ymm3 vminps %ymm6, %ymm10, %ymm5 vminps %ymm5, %ymm2, %ymm2 vminps %ymm2, %ymm4, %ymm2 vmaxps %ymm6, %ymm10, %ymm4 vmaxps %ymm4, %ymm3, %ymm3 vmaxps %ymm3, %ymm1, %ymm1 vcmpnltps %ymm28, %ymm1, %k1 vcmpleps %ymm29, %ymm2, %k0 {%k1} kmovd %k0, %ecx andb %cl, %al movzbl %al, %ecx testl %ecx, %ecx je 0x1ca0fe8 movl %r14d, %eax movl %ecx, 0x1d0(%rsp,%rax,4) vmovlps %xmm0, 0x320(%rsp,%rax,8) vmovlps %xmm26, 0x3e0(%rsp,%rax,8) incl %r14d vbroadcastss 0x24fffa(%rip), %xmm17 # 0x1ef0fec vbroadcastss 0x27fec8(%rip), %xmm19 # 0x1f20ec4 vbroadcastss 0x27feba(%rip), %xmm20 # 0x1f20ec0 vbroadcastss 0x24ffdc(%rip), %ymm18 # 0x1ef0fec vmovss 0x27fec6(%rip), %xmm21 # 0x1f20ee0 vmovss 0x24b6f0(%rip), %xmm22 # 0x1eec714 vmovss 0x24ffd2(%rip), %xmm23 # 0x1ef1000 vmovss 0x250a14(%rip), %xmm24 # 0x1ef1a4c vbroadcastss 0x24b6d2(%rip), %xmm25 # 0x1eec714 vmovaps 0x90(%rsp), %xmm16 vmovaps 0x60(%rsp), %xmm6 vmovaps 0x50(%rsp), %xmm10 vmovaps 0x40(%rsp), %xmm11 vmovaps 0x30(%rsp), %xmm12 vmovaps 0x70(%rsp), %xmm13 vmovaps 0x120(%rsp), %xmm28 vmovaps 0x110(%rsp), %xmm29 vmovaps 0x100(%rsp), %xmm31 testl %r14d, %r14d je 0x1ca2255 leal -0x1(%r14), %eax vmovss 0x320(%rsp,%rax,8), %xmm0 vmovss 0x324(%rsp,%rax,8), %xmm1 movl 0x1d0(%rsp,%rax,4), %ecx vmovsd 0x3e0(%rsp,%rax,8), %xmm15 tzcntq %rcx, %rdx blsrl %ecx, %ecx movl %ecx, 0x1d0(%rsp,%rax,4) cmovel %eax, %r14d vxorps %xmm3, %xmm3, %xmm3 vcvtsi2ss %rdx, %xmm3, %xmm2 vmulss %xmm21, %xmm2, %xmm2 incq %rdx vxorps %xmm3, %xmm3, %xmm3 vcvtsi2ss %rdx, %xmm3, %xmm3 vmulss %xmm21, %xmm3, %xmm3 vsubss %xmm2, %xmm22, %xmm4 vmulss %xmm2, %xmm1, %xmm26 vfmadd231ss %xmm4, %xmm0, %xmm26 # xmm26 = (xmm0 * xmm4) + xmm26 vsubss %xmm3, %xmm22, %xmm2 vmulss %xmm3, %xmm1, %xmm14 vfmadd231ss %xmm2, %xmm0, %xmm14 # xmm14 = (xmm0 * xmm2) + xmm14 vsubss %xmm26, %xmm14, %xmm0 vucomiss %xmm0, %xmm23 jbe 0x1ca2229 vmovaps %xmm26, %xmm7 vmovaps %xmm15, %xmm26 vshufps $0x50, %xmm15, %xmm15, %xmm1 # xmm1 = xmm15[0,0,1,1] vucomiss %xmm0, %xmm24 seta %cl cmpl $0x4, %r14d setae %al vsubps %xmm1, %xmm25, %xmm2 vmulps %xmm1, %xmm10, %xmm3 vmulps %xmm1, %xmm11, %xmm4 vmulps %xmm1, %xmm12, %xmm5 vmulps %xmm1, %xmm13, %xmm1 vfmadd231ps 0x1c0(%rsp), %xmm2, %xmm3 # xmm3 = (xmm2 * mem) + xmm3 vfmadd231ps 0x1b0(%rsp), %xmm2, %xmm4 # xmm4 = (xmm2 * mem) + xmm4 vfmadd231ps %xmm16, %xmm2, %xmm5 # xmm5 = (xmm2 * xmm16) + xmm5 vfmadd231ps %xmm2, %xmm6, %xmm1 # xmm1 = (xmm6 * xmm2) + xmm1 vinsertf128 $0x1, %xmm3, %ymm3, %ymm2 vinsertf128 $0x1, %xmm4, %ymm4, %ymm3 vinsertf128 $0x1, %xmm5, %ymm5, %ymm4 vmovaps %xmm7, 0xb0(%rsp) vbroadcastss %xmm7, %xmm6 vmovaps %xmm14, 0x80(%rsp) vbroadcastss %xmm14, %xmm7 vinsertf128 $0x1, %xmm7, %ymm6, %ymm6 vsubps %ymm2, %ymm3, %ymm7 vfmadd213ps %ymm2, %ymm6, %ymm7 # ymm7 = (ymm6 * ymm7) + ymm2 vsubps %ymm3, %ymm4, %ymm2 vfmadd213ps %ymm3, %ymm6, %ymm2 # ymm2 = (ymm6 * ymm2) + ymm3 vsubps %xmm5, %xmm1, %xmm1 vinsertf128 $0x1, %xmm1, %ymm1, %ymm3 vfmadd213ps %ymm4, %ymm6, %ymm3 # ymm3 = (ymm6 * ymm3) + ymm4 vsubps %ymm7, %ymm2, %ymm1 vfmadd213ps %ymm7, %ymm6, %ymm1 # ymm1 = (ymm6 * ymm1) + ymm7 vsubps %ymm2, %ymm3, %ymm3 vfmadd213ps %ymm2, %ymm6, %ymm3 # ymm3 = (ymm6 * ymm3) + ymm2 vsubps %ymm1, %ymm3, %ymm2 vfmadd231ps %ymm6, %ymm2, %ymm1 # ymm1 = (ymm2 * ymm6) + ymm1 vmulps %ymm18, %ymm2, %ymm3 vextractf128 $0x1, %ymm1, %xmm2 vextractf128 $0x1, %ymm3, %xmm4 vmulss 0x250cc3(%rip), %xmm0, %xmm5 # 0x1ef1ebc vbroadcastss %xmm5, %xmm6 vmulps %xmm3, %xmm6, %xmm3 vaddps %xmm3, %xmm1, %xmm5 vmulps %xmm4, %xmm6, %xmm3 vsubps %xmm3, %xmm2, %xmm6 vshufpd $0x3, %xmm1, %xmm1, %xmm4 # xmm4 = xmm1[1,1] vshufpd $0x3, %xmm2, %xmm2, %xmm3 # xmm3 = xmm2[1,1] vsubps %xmm1, %xmm4, %xmm7 vsubps %xmm2, %xmm3, %xmm8 vaddps %xmm7, %xmm8, %xmm7 vshufps $0xb1, %xmm1, %xmm1, %xmm8 # xmm8 = xmm1[1,0,3,2] vshufps $0xb1, %xmm5, %xmm5, %xmm9 # xmm9 = xmm5[1,0,3,2] vshufps $0xb1, %xmm6, %xmm6, %xmm10 # xmm10 = xmm6[1,0,3,2] vshufps $0xb1, %xmm2, %xmm2, %xmm11 # xmm11 = xmm2[1,0,3,2] vbroadcastss %xmm7, %xmm12 vshufps $0x55, %xmm7, %xmm7, %xmm7 # xmm7 = xmm7[1,1,1,1] vmulps %xmm7, %xmm8, %xmm8 vmulps %xmm7, %xmm9, %xmm9 vmulps %xmm7, %xmm10, %xmm10 vmulps %xmm7, %xmm11, %xmm7 vfmadd231ps %xmm1, %xmm12, %xmm8 # xmm8 = (xmm12 * xmm1) + xmm8 vfmadd231ps %xmm5, %xmm12, %xmm9 # xmm9 = (xmm12 * xmm5) + xmm9 vfmadd231ps %xmm6, %xmm12, %xmm10 # xmm10 = (xmm12 * xmm6) + xmm10 vfmadd231ps %xmm12, %xmm2, %xmm7 # xmm7 = (xmm2 * xmm12) + xmm7 vshufpd $0x1, %xmm8, %xmm8, %xmm11 # xmm11 = xmm8[1,0] vshufpd $0x1, %xmm9, %xmm9, %xmm12 # xmm12 = xmm9[1,0] vshufpd $0x1, %xmm10, %xmm10, %xmm14 # xmm14 = xmm10[1,0] vshufpd $0x1, %xmm7, %xmm7, %xmm15 # xmm15 = xmm7[1,0] vminss %xmm9, %xmm8, %xmm13 vmaxss %xmm8, %xmm9, %xmm8 vminss %xmm7, %xmm10, %xmm9 vmaxss %xmm10, %xmm7, %xmm7 vminss %xmm9, %xmm13, %xmm13 vmaxss %xmm8, %xmm7, %xmm9 vminss %xmm12, %xmm11, %xmm7 vmaxss %xmm11, %xmm12, %xmm8 vminss %xmm15, %xmm14, %xmm10 vmaxss %xmm14, %xmm15, %xmm11 vminss %xmm10, %xmm7, %xmm14 vmaxss %xmm8, %xmm11, %xmm10 vmovss 0x24f718(%rip), %xmm7 # 0x1ef09d8 vucomiss %xmm13, %xmm7 jbe 0x1ca12d5 vmovss 0x250bf1(%rip), %xmm7 # 0x1ef1ec0 vucomiss %xmm7, %xmm10 ja 0x1ca1336 vmovss 0x250be3(%rip), %xmm7 # 0x1ef1ec0 vucomiss %xmm7, %xmm9 seta %dl vmovss 0x24f6ec(%rip), %xmm7 # 0x1ef09d8 vcmpltps %xmm7, %xmm14, %k0 vcmpltps %xmm7, %xmm13, %k1 korw %k0, %k1, %k0 kmovd %k0, %esi testb %sil, %dl jne 0x1ca1336 vmovss 0x250bb1(%rip), %xmm7 # 0x1ef1ec0 vcmpnltps %xmm10, %xmm7, %k0 vmovss 0x24f6ba(%rip), %xmm7 # 0x1ef09d8 vcmpnltps %xmm7, %xmm14, %k1 korw %k0, %k1, %k0 kmovd %k0, %edx testb $0x1, %dl jne 0x1ca1dcb vcmpltss %xmm30, %xmm13, %k1 vmovaps %xmm22, %xmm15 vmovss 0x24f67f(%rip), %xmm16 # 0x1ef09cc vmovss %xmm16, %xmm15, %xmm15 {%k1} vcmpltss %xmm30, %xmm9, %k1 vmovaps %xmm22, %xmm12 vmovss %xmm16, %xmm12, %xmm12 {%k1} vucomiss %xmm12, %xmm15 setp %dl setne %sil orb %dl, %sil kmovd %esi, %k1 vmovss 0x24a69f(%rip), %xmm7 # 0x1eeba20 vmovss %xmm30, %xmm7, %xmm7 {%k1} vmovss 0x24b7f5(%rip), %xmm8 # 0x1eecb84 vmovss %xmm30, %xmm8, %xmm8 {%k1} vcmpltss %xmm30, %xmm14, %k1 vmovaps %xmm22, %xmm11 vmovss %xmm16, %xmm11, %xmm11 {%k1} vucomiss %xmm11, %xmm15 jne 0x1ca13b1 jnp 0x1ca13f0 vucomiss %xmm13, %xmm14 jne 0x1ca1403 jp 0x1ca1403 vucomiss %xmm30, %xmm13 setnp %dl sete %sil andb %dl, %sil kmovd %esi, %k1 vmovss 0x24a64a(%rip), %xmm13 # 0x1eeba20 vmovss %xmm30, %xmm13, %xmm13 {%k1} vmovss 0x24b7a0(%rip), %xmm14 # 0x1eecb84 vmovss 0x24b326(%rip), %xmm14 {%k1} # 0x1eec714 jmp 0x1ca1424 vmovaps 0xd0(%rsp), %xmm15 vmovaps 0xc0(%rsp), %xmm16 jmp 0x1ca143f vxorps %xmm20, %xmm13, %xmm15 vsubss %xmm13, %xmm14, %xmm13 vdivss %xmm13, %xmm15, %xmm14 vsubss %xmm14, %xmm22, %xmm13 vfmadd213ss %xmm14, %xmm30, %xmm13 # xmm13 = (xmm30 * xmm13) + xmm14 vmovaps %xmm13, %xmm14 vmovaps 0xd0(%rsp), %xmm15 vmovaps 0xc0(%rsp), %xmm16 vminss %xmm13, %xmm7, %xmm7 vmaxss %xmm8, %xmm14, %xmm8 vcmpltss %xmm30, %xmm10, %k1 vmovaps %xmm22, %xmm13 vmovss 0x24f576(%rip), %xmm13 {%k1} # 0x1ef09cc vucomiss %xmm13, %xmm12 vmovaps 0x80(%rsp), %xmm14 jne 0x1ca1468 jnp 0x1ca14d2 vucomiss %xmm9, %xmm10 jne 0x1ca14a7 jp 0x1ca14a7 vucomiss %xmm30, %xmm9 setnp %dl sete %sil andb %dl, %sil kmovd %esi, %k1 vmovss 0x24a593(%rip), %xmm9 # 0x1eeba20 vmovss %xmm30, %xmm9, %xmm9 {%k1} vmovss 0x24b6e9(%rip), %xmm10 # 0x1eecb84 vmovss 0x24b26f(%rip), %xmm10 {%k1} # 0x1eec714 jmp 0x1ca14c8 vxorps %xmm20, %xmm9, %xmm12 vsubss %xmm9, %xmm10, %xmm9 vdivss %xmm9, %xmm12, %xmm10 vsubss %xmm10, %xmm22, %xmm9 vfmadd213ss %xmm10, %xmm30, %xmm9 # xmm9 = (xmm30 * xmm9) + xmm10 vmovaps %xmm9, %xmm10 vminss %xmm9, %xmm7, %xmm7 vmaxss %xmm8, %xmm10, %xmm8 vucomiss %xmm13, %xmm11 setp %dl setne %sil orb %dl, %sil vminss %xmm22, %xmm7, %xmm9 kmovd %esi, %k1 vmovss %xmm9, %xmm7, %xmm7 {%k1} vmaxss %xmm8, %xmm22, %xmm9 vmovss %xmm9, %xmm8, %xmm8 {%k1} vmaxss %xmm7, %xmm30, %xmm7 vminss %xmm22, %xmm8, %xmm8 movb $0x1, %r12b vucomiss %xmm8, %xmm7 ja 0x1ca1d5d vaddss 0x2bbf49(%rip), %xmm7, %xmm7 # 0x1f5d468 vaddss 0x24b675(%rip), %xmm8, %xmm8 # 0x1eecb9c vmaxss %xmm7, %xmm30, %xmm7 vminss %xmm22, %xmm8, %xmm8 vmovddup %xmm1, %xmm1 # xmm1 = xmm1[0,0] vmovddup %xmm5, %xmm9 # xmm9 = xmm5[0,0] vmovddup %xmm6, %xmm10 # xmm10 = xmm6[0,0] vmovddup %xmm2, %xmm2 # xmm2 = xmm2[0,0] vshufpd $0x3, %xmm5, %xmm5, %xmm5 # xmm5 = xmm5[1,1] vshufpd $0x3, %xmm6, %xmm6, %xmm6 # xmm6 = xmm6[1,1] vshufps $0x0, %xmm8, %xmm7, %xmm11 # xmm11 = xmm7[0,0],xmm8[0,0] vsubps %xmm11, %xmm25, %xmm12 vmulps %xmm4, %xmm11, %xmm13 vmulps %xmm5, %xmm11, %xmm5 vmulps %xmm6, %xmm11, %xmm6 vmulps %xmm3, %xmm11, %xmm3 vfmadd231ps %xmm1, %xmm12, %xmm13 # xmm13 = (xmm12 * xmm1) + xmm13 vfmadd231ps %xmm9, %xmm12, %xmm5 # xmm5 = (xmm12 * xmm9) + xmm5 vfmadd231ps %xmm10, %xmm12, %xmm6 # xmm6 = (xmm12 * xmm10) + xmm6 vfmadd231ps %xmm2, %xmm12, %xmm3 # xmm3 = (xmm12 * xmm2) + xmm3 vsubss %xmm7, %xmm22, %xmm2 vmovshdup %xmm26, %xmm4 # xmm4 = xmm26[1,1,3,3] vmulss %xmm7, %xmm4, %xmm1 vfmadd231ss %xmm2, %xmm26, %xmm1 # xmm1 = (xmm26 * xmm2) + xmm1 vsubss %xmm8, %xmm22, %xmm2 vmulss %xmm4, %xmm8, %xmm4 vfmadd231ss %xmm2, %xmm26, %xmm4 # xmm4 = (xmm26 * xmm2) + xmm4 vdivss %xmm0, %xmm22, %xmm0 vsubps %xmm13, %xmm5, %xmm2 vmulps %xmm17, %xmm2, %xmm2 vsubps %xmm5, %xmm6, %xmm7 vmulps %xmm17, %xmm7, %xmm7 vsubps %xmm6, %xmm3, %xmm8 vmulps %xmm17, %xmm8, %xmm8 vminps %xmm8, %xmm7, %xmm9 vmaxps %xmm8, %xmm7, %xmm7 vminps %xmm9, %xmm2, %xmm8 vmaxps %xmm7, %xmm2, %xmm2 vshufpd $0x3, %xmm8, %xmm8, %xmm7 # xmm7 = xmm8[1,1] vshufpd $0x3, %xmm2, %xmm2, %xmm9 # xmm9 = xmm2[1,1] vminps %xmm7, %xmm8, %xmm7 vmaxps %xmm9, %xmm2, %xmm2 vbroadcastss %xmm0, %xmm0 vmulps %xmm7, %xmm0, %xmm8 vmulps %xmm2, %xmm0, %xmm7 vsubss %xmm1, %xmm4, %xmm0 vdivss %xmm0, %xmm22, %xmm0 vshufpd $0x3, %xmm13, %xmm13, %xmm2 # xmm2 = xmm13[1,1] vshufpd $0x3, %xmm5, %xmm5, %xmm9 # xmm9 = xmm5[1,1] vshufpd $0x3, %xmm6, %xmm6, %xmm10 # xmm10 = xmm6[1,1] vshufpd $0x3, %xmm3, %xmm3, %xmm11 # xmm11 = xmm3[1,1] vsubps %xmm13, %xmm2, %xmm2 vsubps %xmm5, %xmm9, %xmm5 vsubps %xmm6, %xmm10, %xmm6 vsubps %xmm3, %xmm11, %xmm3 vminps %xmm5, %xmm2, %xmm9 vmaxps %xmm5, %xmm2, %xmm2 vminps %xmm3, %xmm6, %xmm5 vminps %xmm5, %xmm9, %xmm5 vmaxps %xmm3, %xmm6, %xmm3 vmaxps %xmm3, %xmm2, %xmm2 vbroadcastss %xmm0, %xmm0 vmulps %xmm5, %xmm0, %xmm10 vmulps %xmm2, %xmm0, %xmm11 vmovaps 0xb0(%rsp), %xmm26 vinsertps $0x10, %xmm1, %xmm26, %xmm6 # xmm6 = xmm26[0],xmm1[0],xmm26[2,3] vinsertps $0x10, %xmm4, %xmm14, %xmm5 # xmm5 = xmm14[0],xmm4[0],xmm14[2,3] vaddps %xmm5, %xmm6, %xmm0 vmulps 0x24b50c(%rip){1to4}, %xmm0, %xmm9 # 0x1eecb80 vshufps $0x54, %xmm9, %xmm9, %xmm0 # xmm0 = xmm9[0,1,1,1] vbroadcastss %xmm9, %xmm2 vmovaps %xmm28, %xmm3 vfmadd213ps %xmm15, %xmm2, %xmm3 # xmm3 = (xmm2 * xmm3) + xmm15 vmovaps %xmm29, %xmm12 vfmadd213ps %xmm16, %xmm2, %xmm12 # xmm12 = (xmm2 * xmm12) + xmm16 vmovaps %xmm31, %xmm13 vfmadd213ps 0x130(%rsp), %xmm2, %xmm13 # xmm13 = (xmm2 * xmm13) + mem vsubps %xmm3, %xmm12, %xmm14 vfmadd213ps %xmm3, %xmm2, %xmm14 # xmm14 = (xmm2 * xmm14) + xmm3 vsubps %xmm12, %xmm13, %xmm3 vfmadd213ps %xmm12, %xmm2, %xmm3 # xmm3 = (xmm2 * xmm3) + xmm12 vsubps %xmm14, %xmm3, %xmm3 vfmadd231ps %xmm2, %xmm3, %xmm14 # xmm14 = (xmm3 * xmm2) + xmm14 vmulps %xmm17, %xmm3, %xmm2 vmovddup %xmm14, %xmm12 # xmm12 = xmm14[0,0] vshufpd $0x3, %xmm14, %xmm14, %xmm3 # xmm3 = xmm14[1,1] vshufps $0x55, %xmm9, %xmm9, %xmm13 # xmm13 = xmm9[1,1,1,1] vsubps %xmm12, %xmm3, %xmm3 vfmadd231ps %xmm3, %xmm13, %xmm12 # xmm12 = (xmm13 * xmm3) + xmm12 vmovddup %xmm2, %xmm14 # xmm14 = xmm2[0,0] vshufpd $0x3, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[1,1] vsubps %xmm14, %xmm2, %xmm15 vfmadd213ps %xmm14, %xmm13, %xmm15 # xmm15 = (xmm13 * xmm15) + xmm14 vbroadcastss 0x27f7c0(%rip), %xmm14 # 0x1f20ec0 vxorps %xmm3, %xmm14, %xmm2 vmovshdup %xmm15, %xmm13 # xmm13 = xmm15[1,1,3,3] vxorps %xmm14, %xmm13, %xmm14 vmovshdup %xmm3, %xmm16 # xmm16 = xmm3[1,1,3,3] vmovss 0x2be5de(%rip), %xmm30 # 0x1f5fcfc vpermt2ps %xmm3, %xmm30, %xmm14 vmulss %xmm3, %xmm13, %xmm3 vfmsub231ss %xmm16, %xmm15, %xmm3 # xmm3 = (xmm15 * xmm16) - xmm3 vmovss 0x2b923e(%rip), %xmm13 # 0x1f5a974 vpermt2ps %xmm2, %xmm13, %xmm15 vbroadcastss %xmm3, %xmm3 vdivps %xmm3, %xmm14, %xmm2 vdivps %xmm3, %xmm15, %xmm3 vbroadcastss %xmm12, %xmm13 vmulps %xmm2, %xmm13, %xmm13 vshufps $0x55, %xmm12, %xmm12, %xmm12 # xmm12 = xmm12[1,1,1,1] vmulps %xmm3, %xmm12, %xmm12 vaddps %xmm12, %xmm13, %xmm12 vsubps %xmm12, %xmm0, %xmm0 vmovshdup %xmm2, %xmm12 # xmm12 = xmm2[1,1,3,3] vinsertps $0x1c, %xmm10, %xmm8, %xmm13 # xmm13 = xmm8[0],xmm10[0],zero,zero vmulps %xmm13, %xmm12, %xmm14 vinsertps $0x1c, %xmm11, %xmm7, %xmm15 # xmm15 = xmm7[0],xmm11[0],zero,zero vmulps %xmm15, %xmm12, %xmm12 vminps %xmm12, %xmm14, %xmm16 vmaxps %xmm14, %xmm12, %xmm12 vmovshdup %xmm3, %xmm14 # xmm14 = xmm3[1,1,3,3] vinsertps $0x4c, %xmm8, %xmm10, %xmm8 # xmm8 = xmm8[1],xmm10[1],zero,zero vmulps %xmm8, %xmm14, %xmm10 vinsertps $0x4c, %xmm7, %xmm11, %xmm7 # xmm7 = xmm7[1],xmm11[1],zero,zero vmulps %xmm7, %xmm14, %xmm11 vminps %xmm11, %xmm10, %xmm14 vaddps %xmm14, %xmm16, %xmm14 vmaxps %xmm10, %xmm11, %xmm10 vaddps %xmm10, %xmm12, %xmm10 vmovddup 0x27f72f(%rip), %xmm11 # xmm11 = mem[0,0] vsubps %xmm10, %xmm11, %xmm10 vsubps %xmm14, %xmm11, %xmm11 vsubps %xmm9, %xmm6, %xmm12 vsubps %xmm9, %xmm5, %xmm9 vmulps %xmm10, %xmm12, %xmm14 vbroadcastss %xmm2, %xmm16 vmulps %xmm13, %xmm16, %xmm13 vmulps %xmm15, %xmm16, %xmm15 vminps %xmm15, %xmm13, %xmm16 vmaxps %xmm13, %xmm15, %xmm13 vbroadcastss %xmm3, %xmm15 vmulps %xmm8, %xmm15, %xmm8 vmulps %xmm7, %xmm15, %xmm7 vminps %xmm7, %xmm8, %xmm15 vaddps %xmm15, %xmm16, %xmm15 vmulps %xmm11, %xmm12, %xmm16 vmulps %xmm10, %xmm9, %xmm10 vmulps %xmm11, %xmm9, %xmm11 vmaxps %xmm8, %xmm7, %xmm7 vaddps %xmm7, %xmm13, %xmm7 vmovddup 0x27f6c8(%rip), %xmm8 # xmm8 = mem[0,0] vsubps %xmm7, %xmm8, %xmm7 vsubps %xmm15, %xmm8, %xmm8 vmulps %xmm7, %xmm12, %xmm13 vmulps %xmm8, %xmm12, %xmm12 vmulps %xmm7, %xmm9, %xmm7 vmulps %xmm8, %xmm9, %xmm8 vminps %xmm12, %xmm13, %xmm9 vminps %xmm8, %xmm7, %xmm15 vminps %xmm15, %xmm9, %xmm9 vmaxps %xmm13, %xmm12, %xmm12 vmaxps %xmm7, %xmm8, %xmm7 vmaxps %xmm12, %xmm7, %xmm7 vminps %xmm16, %xmm14, %xmm8 vminps %xmm11, %xmm10, %xmm12 vminps %xmm12, %xmm8, %xmm8 vhaddps %xmm8, %xmm9, %xmm8 vmaxps %xmm14, %xmm16, %xmm9 vmaxps %xmm10, %xmm11, %xmm10 vmaxps %xmm9, %xmm10, %xmm9 vhaddps %xmm9, %xmm7, %xmm7 vshufps $0xe8, %xmm8, %xmm8, %xmm8 # xmm8 = xmm8[0,2,2,3] vshufps $0xe8, %xmm7, %xmm7, %xmm9 # xmm9 = xmm7[0,2,2,3] vaddps %xmm0, %xmm8, %xmm7 vaddps %xmm0, %xmm9, %xmm8 vmaxps %xmm7, %xmm6, %xmm6 vminps %xmm5, %xmm8, %xmm9 vcmpltps %xmm6, %xmm9, %k0 vinsertps $0x10, %xmm4, %xmm1, %xmm15 # xmm15 = xmm1[0],xmm4[0],xmm1[2,3] kmovd %k0, %edx testb $0x3, %dl jne 0x1ca1d4d vucomiss %xmm8, %xmm5 seta %sil xorl %edx, %edx vucomiss %xmm26, %xmm7 vmovaps 0x90(%rsp), %xmm16 jbe 0x1ca1943 testb %sil, %sil vmovss 0x24f6ff(%rip), %xmm12 # 0x1ef0fec vxorps %xmm30, %xmm30, %xmm30 vmovaps 0xd0(%rsp), %xmm9 vmovaps 0xc0(%rsp), %xmm10 vmovaps 0x130(%rsp), %xmm11 vmovaps 0x1a0(%rsp), %xmm13 vmovaps 0x190(%rsp), %xmm14 je 0x1ca197e vcmpltps %xmm5, %xmm8, %k0 kshiftrb $0x1, %k0, %k0 kmovd %k0, %esi vmovshdup %xmm7, %xmm4 # xmm4 = xmm7[1,1,3,3] vucomiss %xmm1, %xmm4 seta %dl andb %sil, %dl jmp 0x1ca197e vmovss 0x24f6a1(%rip), %xmm12 # 0x1ef0fec vxorps %xmm30, %xmm30, %xmm30 vmovaps 0xd0(%rsp), %xmm9 vmovaps 0xc0(%rsp), %xmm10 vmovaps 0x130(%rsp), %xmm11 vmovaps 0x1a0(%rsp), %xmm13 vmovaps 0x190(%rsp), %xmm14 orb %cl, %al orb %dl, %al cmpb $0x1, %al jne 0x1ca1d93 movl $0xc8, %eax vsubss %xmm0, %xmm22, %xmm1 vmulss %xmm1, %xmm1, %xmm4 vmulss %xmm4, %xmm1, %xmm5 vmulss %xmm0, %xmm12, %xmm6 vmulss %xmm4, %xmm6, %xmm4 vmulss %xmm0, %xmm0, %xmm6 vmulss %xmm6, %xmm12, %xmm7 vmulss %xmm7, %xmm1, %xmm1 vbroadcastss %xmm5, %xmm5 vbroadcastss %xmm4, %xmm4 vbroadcastss %xmm1, %xmm1 vmulss %xmm6, %xmm0, %xmm6 vbroadcastss %xmm6, %xmm6 vmulps %xmm6, %xmm13, %xmm6 vfmadd231ps %xmm1, %xmm11, %xmm6 # xmm6 = (xmm11 * xmm1) + xmm6 vfmadd231ps %xmm4, %xmm10, %xmm6 # xmm6 = (xmm10 * xmm4) + xmm6 vfmadd231ps %xmm5, %xmm9, %xmm6 # xmm6 = (xmm9 * xmm5) + xmm6 vmovddup %xmm6, %xmm1 # xmm1 = xmm6[0,0] vshufpd $0x3, %xmm6, %xmm6, %xmm4 # xmm4 = xmm6[1,1] vshufps $0x55, %xmm0, %xmm0, %xmm5 # xmm5 = xmm0[1,1,1,1] vsubps %xmm1, %xmm4, %xmm4 vfmadd213ps %xmm1, %xmm5, %xmm4 # xmm4 = (xmm5 * xmm4) + xmm1 vbroadcastss %xmm4, %xmm1 vmulps %xmm1, %xmm2, %xmm1 vshufps $0x55, %xmm4, %xmm4, %xmm5 # xmm5 = xmm4[1,1,1,1] vmulps %xmm5, %xmm3, %xmm5 vaddps %xmm5, %xmm1, %xmm1 vsubps %xmm1, %xmm0, %xmm0 vandps %xmm19, %xmm4, %xmm1 vprolq $0x20, %xmm1, %xmm4 vmaxss %xmm1, %xmm4, %xmm1 vucomiss %xmm1, %xmm14 ja 0x1ca1a32 decq %rax jne 0x1ca198f jmp 0x1ca1d96 vucomiss %xmm30, %xmm0 jb 0x1ca1d96 vucomiss %xmm0, %xmm22 vmovaps 0x70(%rsp), %xmm13 vmovaps 0x80(%rsp), %xmm14 jb 0x1ca1d33 vmovshdup %xmm0, %xmm1 # xmm1 = xmm0[1,1,3,3] vucomiss %xmm30, %xmm1 jb 0x1ca1d33 vucomiss %xmm1, %xmm22 jb 0x1ca1d33 vmovss 0x8(%rbx), %xmm2 vinsertps $0x1c, 0x18(%rbx), %xmm2, %xmm2 # xmm2 = xmm2[0],mem[0],zero,zero vinsertps $0x28, 0x28(%rbx), %xmm2, %xmm2 # xmm2 = xmm2[0,1],mem[0],zero vdpps $0x7f, 0x310(%rsp), %xmm2, %xmm3 vdpps $0x7f, 0x300(%rsp), %xmm2, %xmm4 vdpps $0x7f, 0x2f0(%rsp), %xmm2, %xmm5 vdpps $0x7f, 0x2e0(%rsp), %xmm2, %xmm6 vdpps $0x7f, 0x2d0(%rsp), %xmm2, %xmm7 vdpps $0x7f, 0x2c0(%rsp), %xmm2, %xmm8 vdpps $0x7f, 0x2b0(%rsp), %xmm2, %xmm9 vdpps $0x7f, 0x2a0(%rsp), %xmm2, %xmm2 vsubss %xmm1, %xmm22, %xmm10 vmulss %xmm7, %xmm1, %xmm11 vmulss %xmm1, %xmm8, %xmm8 vmulss %xmm1, %xmm9, %xmm9 vmulss %xmm2, %xmm1, %xmm2 vfmadd231ss %xmm3, %xmm10, %xmm11 # xmm11 = (xmm10 * xmm3) + xmm11 vfmadd231ss %xmm4, %xmm10, %xmm8 # xmm8 = (xmm10 * xmm4) + xmm8 vfmadd231ss %xmm5, %xmm10, %xmm9 # xmm9 = (xmm10 * xmm5) + xmm9 vfmadd231ss %xmm6, %xmm10, %xmm2 # xmm2 = (xmm10 * xmm6) + xmm2 vsubss %xmm0, %xmm22, %xmm7 vmulss %xmm7, %xmm7, %xmm4 vmulss %xmm4, %xmm7, %xmm3 vmulss %xmm0, %xmm12, %xmm5 vmulss %xmm4, %xmm5, %xmm4 vmulps %xmm0, %xmm0, %xmm6 vmulss %xmm6, %xmm12, %xmm5 vmulss %xmm5, %xmm7, %xmm5 vmulps %xmm6, %xmm0, %xmm6 vmulss %xmm2, %xmm6, %xmm2 vfmadd231ss %xmm9, %xmm5, %xmm2 # xmm2 = (xmm5 * xmm9) + xmm2 vfmadd231ss %xmm8, %xmm4, %xmm2 # xmm2 = (xmm4 * xmm8) + xmm2 vfmadd231ss %xmm11, %xmm3, %xmm2 # xmm2 = (xmm3 * xmm11) + xmm2 vucomiss 0xac(%rsp), %xmm2 jb 0x1ca1d33 vmovss 0x200(%rdi,%r11,4), %xmm8 vucomiss %xmm2, %xmm8 jb 0x1ca1d33 vmovss %xmm8, 0xa8(%rsp) movq %r15, 0xa0(%rsp) vshufps $0x55, %xmm0, %xmm0, %xmm8 # xmm8 = xmm0[1,1,1,1] vsubps %xmm8, %xmm25, %xmm9 vmulps 0x280(%rsp), %xmm8, %xmm10 vmulps 0x230(%rsp), %xmm8, %xmm11 vmulps 0x220(%rsp), %xmm8, %xmm12 vmulps 0x260(%rsp), %xmm8, %xmm8 vfmadd231ps 0x290(%rsp), %xmm9, %xmm10 # xmm10 = (xmm9 * mem) + xmm10 vfmadd231ps 0x250(%rsp), %xmm9, %xmm11 # xmm11 = (xmm9 * mem) + xmm11 vfmadd231ps 0x240(%rsp), %xmm9, %xmm12 # xmm12 = (xmm9 * mem) + xmm12 vfmadd231ps 0x270(%rsp), %xmm9, %xmm8 # xmm8 = (xmm9 * mem) + xmm8 vsubps %xmm10, %xmm11, %xmm9 vsubps %xmm11, %xmm12, %xmm10 vsubps %xmm12, %xmm8, %xmm8 vbroadcastss %xmm0, %xmm11 vmulps %xmm10, %xmm11, %xmm12 vbroadcastss %xmm7, %xmm7 vfmadd231ps %xmm9, %xmm7, %xmm12 # xmm12 = (xmm7 * xmm9) + xmm12 vmulps %xmm8, %xmm11, %xmm8 vfmadd231ps %xmm10, %xmm7, %xmm8 # xmm8 = (xmm7 * xmm10) + xmm8 vmulps %xmm8, %xmm11, %xmm8 vfmadd231ps %xmm12, %xmm7, %xmm8 # xmm8 = (xmm7 * xmm12) + xmm8 vmulps %xmm17, %xmm8, %xmm7 movq (%r10), %rax movq 0x1e8(%rax), %rax movq (%rax,%r9,8), %r15 movl 0x240(%rdi,%r11,4), %eax testl %eax, 0x34(%r15) je 0x1ca1d2b vbroadcastss %xmm6, %xmm6 vmulps 0x1e0(%rsp), %xmm6, %xmm6 vbroadcastss %xmm5, %xmm5 vfmadd132ps 0x1f0(%rsp), %xmm6, %xmm5 # xmm5 = (xmm5 * mem) + xmm6 vbroadcastss %xmm4, %xmm4 vfmadd132ps 0x200(%rsp), %xmm5, %xmm4 # xmm4 = (xmm4 * mem) + xmm5 vbroadcastss %xmm3, %xmm3 vfmadd132ps 0x210(%rsp), %xmm4, %xmm3 # xmm3 = (xmm3 * mem) + xmm4 vshufps $0xc9, %xmm3, %xmm3, %xmm4 # xmm4 = xmm3[1,2,0,3] vshufps $0xc9, %xmm7, %xmm7, %xmm5 # xmm5 = xmm7[1,2,0,3] vmulps %xmm5, %xmm3, %xmm3 vfmsub231ps %xmm4, %xmm7, %xmm3 # xmm3 = (xmm7 * xmm4) - xmm3 movq 0x10(%r10), %rax cmpq $0x0, 0x10(%rax) vmovaps 0x60(%rsp), %xmm6 vmovaps 0x50(%rsp), %xmm10 vmovaps 0x40(%rsp), %xmm11 vmovaps 0x30(%rsp), %xmm12 jne 0x1ca1dfc cmpq $0x0, 0x40(%r15) jne 0x1ca1dfc vmovss %xmm2, 0x200(%rdi,%r11,4) vextractps $0x1, %xmm3, 0x300(%rdi,%r11,4) vextractps $0x2, %xmm3, 0x340(%rdi,%r11,4) vmovss %xmm3, 0x380(%rdi,%r11,4) vmovss %xmm0, 0x3c0(%rdi,%r11,4) vmovss %xmm1, 0x400(%rdi,%r11,4) movq 0x148(%rsp), %rax movl %eax, 0x440(%rdi,%r11,4) movl %r9d, 0x480(%rdi,%r11,4) movq 0x8(%r10), %rax movl (%rax), %eax movl %eax, 0x4c0(%rdi,%r11,4) movq 0x8(%r10), %rax movl 0x4(%rax), %eax movl %eax, 0x500(%rdi,%r11,4) movq 0xa0(%rsp), %r15 jmp 0x1ca1dbd movq 0xa0(%rsp), %r15 vmovaps 0x60(%rsp), %xmm6 vmovaps 0x50(%rsp), %xmm10 vmovaps 0x40(%rsp), %xmm11 vmovaps 0x30(%rsp), %xmm12 jmp 0x1ca1dbd vxorps %xmm30, %xmm30, %xmm30 vmovaps 0x90(%rsp), %xmm16 jmp 0x1ca1d96 vmovaps 0x90(%rsp), %xmm16 vmovaps 0x60(%rsp), %xmm6 vmovaps 0x50(%rsp), %xmm10 vmovaps 0x40(%rsp), %xmm11 vmovaps 0x30(%rsp), %xmm12 vmovaps 0x70(%rsp), %xmm13 vmovaps %xmm26, %xmm15 vmovaps 0xb0(%rsp), %xmm26 jmp 0x1ca1dbd xorl %r12d, %r12d vmovaps 0x60(%rsp), %xmm6 vmovaps 0x50(%rsp), %xmm10 vmovaps 0x40(%rsp), %xmm11 vmovaps 0x30(%rsp), %xmm12 vmovaps 0x70(%rsp), %xmm13 vmovaps 0x80(%rsp), %xmm14 testb %r12b, %r12b jne 0x1ca1080 jmp 0x1ca2229 movb $0x1, %r12b vmovaps 0x60(%rsp), %xmm6 vmovaps 0x50(%rsp), %xmm10 vmovaps 0x40(%rsp), %xmm11 vmovaps 0x30(%rsp), %xmm12 vmovaps 0x70(%rsp), %xmm13 vmovaps %xmm26, %xmm15 vmovaps 0xb0(%rsp), %xmm26 jmp 0x1ca1db4 movq 0x8(%r10), %rax vbroadcastss %xmm0, %zmm1 vbroadcastss 0x2708f4(%rip), %zmm4 # 0x1f12704 vpermps %zmm0, %zmm4, %zmm0 vpermps %zmm3, %zmm4, %zmm4 vbroadcastss 0x27f0b6(%rip), %zmm5 # 0x1f20edc vpermps %zmm3, %zmm5, %zmm5 vbroadcastss %xmm3, %zmm3 vmovaps %zmm4, 0x4c0(%rsp) vmovaps %zmm5, 0x500(%rsp) vmovaps %zmm3, 0x540(%rsp) vmovaps %zmm1, 0x580(%rsp) vmovaps %zmm0, 0x5c0(%rsp) vmovaps 0x440(%rsp), %zmm0 vmovaps %zmm0, 0x600(%rsp) vmovdqa64 0x480(%rsp), %zmm0 vmovdqa64 %zmm0, 0x640(%rsp) leaq 0x680(%rsp), %rcx vpcmpeqd %ymm0, %ymm0, %ymm0 vmovdqa %ymm0, 0x60(%rcx) vmovdqa %ymm0, 0x40(%rcx) vmovdqa %ymm0, 0x20(%rcx) vmovdqa %ymm0, (%rcx) vbroadcastss (%rax), %zmm0 vmovaps %zmm0, 0x680(%rsp) vbroadcastss 0x4(%rax), %zmm0 vmovaps %zmm0, 0x6c0(%rsp) vmovss %xmm2, 0x200(%rdi,%r11,4) vmovaps 0x400(%rsp), %zmm0 vmovaps %zmm0, 0x340(%rsp) leaq 0x340(%rsp), %rax movq %rax, 0x150(%rsp) movq 0x18(%r15), %rax movq %rax, 0x158(%rsp) movq 0x8(%r10), %rax movq %rax, 0x160(%rsp) movq %rdi, 0x168(%rsp) leaq 0x4c0(%rsp), %rax movq %rax, 0x170(%rsp) movl $0x10, 0x178(%rsp) movq 0x40(%r15), %rax testq %rax, %rax movq %r8, 0xf8(%rsp) movq %r11, 0xf0(%rsp) movq %rdi, 0xe8(%rsp) movq %r9, 0xe0(%rsp) vmovaps %xmm15, 0x180(%rsp) je 0x1ca203c leaq 0x150(%rsp), %rdi movq %r10, 0x140(%rsp) vzeroupper callq *%rax vmovaps 0x80(%rsp), %xmm14 vmovaps 0xb0(%rsp), %xmm26 vmovaps 0x180(%rsp), %xmm15 vmovaps 0x100(%rsp), %xmm31 vmovaps 0x110(%rsp), %xmm29 vmovaps 0x120(%rsp), %xmm28 vmovaps 0x70(%rsp), %xmm13 vmovaps 0x30(%rsp), %xmm12 vmovaps 0x40(%rsp), %xmm11 vmovaps 0x50(%rsp), %xmm10 vmovaps 0x60(%rsp), %xmm6 vmovaps 0x90(%rsp), %xmm16 movq 0xe0(%rsp), %r9 vxorps %xmm30, %xmm30, %xmm30 vmovss 0x24fa76(%rip), %xmm24 # 0x1ef1a4c vmovss 0x24f020(%rip), %xmm23 # 0x1ef1000 vmovss 0x24a72a(%rip), %xmm22 # 0x1eec714 vmovss 0x27eeec(%rip), %xmm21 # 0x1f20ee0 vbroadcastss 0x24efee(%rip), %ymm18 # 0x1ef0fec vbroadcastss 0x27eeb8(%rip), %xmm20 # 0x1f20ec0 vbroadcastss 0x27eeb2(%rip), %xmm19 # 0x1f20ec4 vbroadcastss 0x27eec0(%rip), %ymm27 # 0x1f20edc movq 0xe8(%rsp), %rdi movq 0xf0(%rsp), %r11 movq 0x140(%rsp), %r10 movq 0xf8(%rsp), %r8 vmovdqa64 0x340(%rsp), %zmm0 vptestmd %zmm0, %zmm0, %k0 kortestw %k0, %k0 je 0x1ca21fd movq 0x10(%r10), %rcx movq 0x10(%rcx), %rax testq %rax, %rax je 0x1ca2156 testb $0x2, (%rcx) jne 0x1ca2075 testb $0x40, 0x3e(%r15) je 0x1ca2156 leaq 0x150(%rsp), %rdi movq %r10, %r15 vzeroupper callq *%rax vmovaps 0x80(%rsp), %xmm14 vmovaps 0xb0(%rsp), %xmm26 vmovaps 0x180(%rsp), %xmm15 vmovaps 0x100(%rsp), %xmm31 vmovaps 0x110(%rsp), %xmm29 vmovaps 0x120(%rsp), %xmm28 vmovaps 0x70(%rsp), %xmm13 vmovaps 0x30(%rsp), %xmm12 vmovaps 0x40(%rsp), %xmm11 vmovaps 0x50(%rsp), %xmm10 vmovaps 0x60(%rsp), %xmm6 vmovaps 0x90(%rsp), %xmm16 movq 0xe0(%rsp), %r9 vxorps %xmm30, %xmm30, %xmm30 vmovss 0x24f957(%rip), %xmm24 # 0x1ef1a4c vmovss 0x24ef01(%rip), %xmm23 # 0x1ef1000 vmovss 0x24a60b(%rip), %xmm22 # 0x1eec714 vmovss 0x27edcd(%rip), %xmm21 # 0x1f20ee0 vbroadcastss 0x24eecf(%rip), %ymm18 # 0x1ef0fec vbroadcastss 0x27ed99(%rip), %xmm20 # 0x1f20ec0 vbroadcastss 0x27ed93(%rip), %xmm19 # 0x1f20ec4 vbroadcastss 0x27eda1(%rip), %ymm27 # 0x1f20edc movq 0xe8(%rsp), %rdi movq 0xf0(%rsp), %r11 movq %r15, %r10 movq 0xf8(%rsp), %r8 vmovdqa64 0x340(%rsp), %zmm0 vptestmd %zmm0, %zmm0, %k1 kortestw %k1, %k1 je 0x1ca21fd movq 0x168(%rsp), %rax movq 0x170(%rsp), %rcx vmovaps (%rcx), %zmm0 vmovups %zmm0, 0x300(%rax) {%k1} vmovaps 0x40(%rcx), %zmm0 vmovups %zmm0, 0x340(%rax) {%k1} vmovaps 0x80(%rcx), %zmm0 vmovups %zmm0, 0x380(%rax) {%k1} vmovaps 0xc0(%rcx), %zmm0 vmovups %zmm0, 0x3c0(%rax) {%k1} vmovaps 0x100(%rcx), %zmm0 vmovups %zmm0, 0x400(%rax) {%k1} vmovdqa64 0x140(%rcx), %zmm0 vmovdqu32 %zmm0, 0x440(%rax) {%k1} vmovdqa64 0x180(%rcx), %zmm0 vmovdqu32 %zmm0, 0x480(%rax) {%k1} vmovdqa64 0x1c0(%rcx), %zmm0 vmovdqa32 %zmm0, 0x4c0(%rax) {%k1} vmovdqa64 0x200(%rcx), %zmm0 vmovdqa32 %zmm0, 0x500(%rax) {%k1} jmp 0x1ca2210 vmovd 0xa8(%rsp), %xmm0 vmovd %xmm0, 0x200(%rdi,%r11,4) vbroadcastss 0x24edd2(%rip), %xmm17 # 0x1ef0fec vbroadcastss 0x24a4f0(%rip), %xmm25 # 0x1eec714 jmp 0x1ca1d1e vinsertps $0x10, %xmm14, %xmm26, %xmm0 # xmm0 = xmm26[0],xmm14[0],xmm26[2,3] vmovaps 0x1c0(%rsp), %xmm19 vmovaps 0x1b0(%rsp), %xmm25 vmovaps 0x3c0(%rsp), %ymm29 vmovaps 0x3a0(%rsp), %ymm28 jmp 0x1ca0b48 vmovaps 0x380(%rsp), %ymm0 vcmpleps 0x200(%rdi,%r11,4){1to8}, %ymm0, %k0 kmovb %k0, %eax andl %r15d, %r13d andl %eax, %r13d movq %rdi, %rsi jne 0x1ca0441 leaq -0x28(%rbp), %rsp popq %rbx popq %r12 popq %r13 popq %r14 popq %r15 popq %rbp vzeroupper retq nop
/embree[P]embree/kernels/geometry/curveNi_intersector.h
bool embree::avx512::CurveNiIntersectorK<8, 16>::occluded_hn<embree::avx512::OrientedCurve1IntersectorK<embree::HermiteCurveT, 16>, embree::avx512::Occluded1KEpilog1<16, true>>(embree::avx512::CurvePrecalculationsK<16>&, embree::RayK<16>&, unsigned long, embree::RayQueryContext*, embree::CurveNi<8> const&)
static __forceinline bool occluded_hn(Precalculations& pre, RayK<K>& ray, const size_t k, RayQueryContext* context, const Primitive& prim) { vfloat<M> tNear; vbool<M> valid = intersect(ray,k,prim,tNear); const size_t N = prim.N; size_t mask = movemask(valid); while (mask) { const size_t i = bscf(mask); STAT3(shadow.trav_prims,1,1,1); const unsigned int geomID = prim.geomID(N); const unsigned int primID = prim.primID(N)[i]; const CurveGeometry* geom = context->scene->get<CurveGeometry>(geomID); Vec3ff p0,t0,p1,t1; Vec3fa n0,dn0,n1,dn1; geom->gather_hermite(p0,t0,n0,dn0,p1,t1,n1,dn1,geom->curve(primID)); if (Intersector().intersect(pre,ray,k,context,geom,primID,p0,t0,p1,t1,n0,dn0,n1,dn1,Epilog(ray,k,context,geomID,primID))) return true; mask &= movemask(tNear <= vfloat<M>(ray.tfar[k])); } return false; }
pushq %rbp movq %rsp, %rbp pushq %r15 pushq %r14 pushq %r13 pushq %r12 pushq %rbx andq $-0x40, %rsp subq $0x740, %rsp # imm = 0x740 movq %r8, %r10 movq %rdx, %r11 movq %rsi, %r9 movzbl 0x1(%r8), %eax leaq (%rax,%rax,4), %rdx leaq (%rdx,%rdx,4), %rsi vbroadcastss 0x12(%r8,%rsi), %xmm0 vmovss (%r9,%r11,4), %xmm1 vmovss 0x100(%r9,%r11,4), %xmm2 vinsertps $0x10, 0x40(%r9,%r11,4), %xmm1, %xmm1 # xmm1 = xmm1[0],mem[0],xmm1[2,3] vinsertps $0x20, 0x80(%r9,%r11,4), %xmm1, %xmm1 # xmm1 = xmm1[0,1],mem[0],xmm1[3] vinsertps $0x10, 0x140(%r9,%r11,4), %xmm2, %xmm2 # xmm2 = xmm2[0],mem[0],xmm2[2,3] movq %rcx, 0x98(%rsp) vinsertps $0x20, 0x180(%r9,%r11,4), %xmm2, %xmm2 # xmm2 = xmm2[0,1],mem[0],xmm2[3] vsubps 0x6(%r8,%rsi), %xmm1, %xmm1 vmulps %xmm1, %xmm0, %xmm3 vmulps %xmm2, %xmm0, %xmm0 vpmovsxbd 0x6(%r8,%rax,4), %ymm1 vcvtdq2ps %ymm1, %ymm5 vpmovsxbd 0x6(%r8,%rdx), %ymm1 vcvtdq2ps %ymm1, %ymm6 leaq (%rax,%rax,2), %rcx vpmovsxbd 0x6(%r8,%rcx,2), %ymm1 vcvtdq2ps %ymm1, %ymm2 leaq (%rax,%rdx,2), %rsi vpmovsxbd 0x6(%r8,%rsi), %ymm1 vcvtdq2ps %ymm1, %ymm7 leal (,%rcx,4), %esi vpmovsxbd 0x6(%r8,%rsi), %ymm1 vcvtdq2ps %ymm1, %ymm8 addq %rax, %rsi vpmovsxbd 0x6(%r8,%rsi), %ymm1 vcvtdq2ps %ymm1, %ymm9 leaq (%rax,%rax,8), %rsi leal (%rsi,%rsi), %r8d vpmovsxbd 0x6(%r10,%r8), %ymm1 addq %rax, %r8 vpmovsxbd 0x6(%r10,%r8), %ymm4 vcvtdq2ps %ymm1, %ymm10 vcvtdq2ps %ymm4, %ymm11 shll $0x2, %edx vpmovsxbd 0x6(%r10,%rdx), %ymm1 vcvtdq2ps %ymm1, %ymm12 vbroadcastss %xmm0, %ymm13 vbroadcastss 0x27035e(%rip), %ymm15 # 0x1f12704 vpermps %ymm0, %ymm15, %ymm14 vbroadcastss 0x27eb27(%rip), %ymm27 # 0x1f20edc vpermps %ymm0, %ymm27, %ymm0 vmulps %ymm2, %ymm0, %ymm4 vmulps %ymm0, %ymm9, %ymm1 vmulps %ymm0, %ymm12, %ymm0 vfmadd231ps %ymm6, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm6) + ymm4 vfmadd231ps %ymm8, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm8) + ymm1 vfmadd231ps %ymm14, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm14) + ymm0 vfmadd231ps %ymm5, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm5) + ymm4 vfmadd231ps %ymm7, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm7) + ymm1 vfmadd231ps %ymm13, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm13) + ymm0 vbroadcastss %xmm3, %ymm13 vpermps %ymm3, %ymm15, %ymm14 vpermps %ymm3, %ymm27, %ymm15 vmulps %ymm2, %ymm15, %ymm16 vmulps %ymm9, %ymm15, %ymm3 vmulps %ymm12, %ymm15, %ymm2 vfmadd231ps %ymm6, %ymm14, %ymm16 # ymm16 = (ymm14 * ymm6) + ymm16 vfmadd231ps %ymm8, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm8) + ymm3 vfmadd231ps %ymm11, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm11) + ymm2 vfmadd231ps %ymm5, %ymm13, %ymm16 # ymm16 = (ymm13 * ymm5) + ymm16 vfmadd231ps %ymm7, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm7) + ymm3 vfmadd231ps %ymm10, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm10) + ymm2 vbroadcastss 0x27ea96(%rip), %ymm5 # 0x1f20ec4 vandps %ymm5, %ymm4, %ymm6 vbroadcastss 0x24ebad(%rip), %ymm7 # 0x1ef0fe8 vcmpltps %ymm7, %ymm6, %k1 vmovaps %ymm7, %ymm4 {%k1} vandps %ymm5, %ymm1, %ymm6 vcmpltps %ymm7, %ymm6, %k1 vmovaps %ymm7, %ymm1 {%k1} vandps %ymm5, %ymm0, %ymm5 vcmpltps %ymm7, %ymm5, %k1 vmovaps %ymm7, %ymm0 {%k1} vrcp14ps %ymm4, %ymm5 vbroadcastss 0x24a29b(%rip), %ymm6 # 0x1eec714 vfnmadd213ps %ymm6, %ymm5, %ymm4 # ymm4 = -(ymm5 * ymm4) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm4 # ymm4 = (ymm4 * ymm5) + ymm5 vrcp14ps %ymm1, %ymm5 vfnmadd213ps %ymm6, %ymm5, %ymm1 # ymm1 = -(ymm5 * ymm1) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm1 # ymm1 = (ymm1 * ymm5) + ymm5 vrcp14ps %ymm0, %ymm5 vfnmadd213ps %ymm6, %ymm5, %ymm0 # ymm0 = -(ymm5 * ymm0) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm0 # ymm0 = (ymm0 * ymm5) + ymm5 leaq (,%rax,8), %r8 subq %rax, %r8 vpmovsxwd 0x6(%r10,%r8), %ymm5 vcvtdq2ps %ymm5, %ymm5 vsubps %ymm16, %ymm5, %ymm5 vpmovsxwd 0x6(%r10,%rsi), %ymm6 vmulps %ymm5, %ymm4, %ymm5 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm16, %ymm6, %ymm6 vmulps %ymm6, %ymm4, %ymm4 leaq (%rax,%rax), %rsi addq %rax, %rdx shlq $0x3, %rcx subq %rax, %rcx movl %eax, %r8d shll $0x4, %r8d vpmovsxwd 0x6(%r10,%r8), %ymm6 subq %rsi, %r8 vpmovsxwd 0x6(%r10,%r8), %ymm7 vcvtdq2ps %ymm7, %ymm7 vsubps %ymm3, %ymm7, %ymm7 vmulps %ymm7, %ymm1, %ymm7 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm3, %ymm6, %ymm3 vmulps %ymm3, %ymm1, %ymm1 vpmovsxwd 0x6(%r10,%rdx), %ymm3 vcvtdq2ps %ymm3, %ymm3 vsubps %ymm2, %ymm3, %ymm3 vmulps %ymm0, %ymm3, %ymm3 vpmovsxwd 0x6(%r10,%rcx), %ymm6 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm2, %ymm6, %ymm2 vmulps %ymm2, %ymm0, %ymm0 vpminsd %ymm4, %ymm5, %ymm2 vpminsd %ymm1, %ymm7, %ymm6 vmaxps %ymm6, %ymm2, %ymm2 vpminsd %ymm0, %ymm3, %ymm6 vmaxps 0xc0(%r9,%r11,4){1to8}, %ymm6, %ymm6 vmaxps %ymm6, %ymm2, %ymm2 vmulps 0x27d9ab(%rip){1to8}, %ymm2, %ymm6 # 0x1f1ff10 vpmaxsd %ymm4, %ymm5, %ymm2 vpmaxsd %ymm1, %ymm7, %ymm1 vminps %ymm1, %ymm2, %ymm1 vpmaxsd %ymm0, %ymm3, %ymm0 vminps 0x200(%r9,%r11,4){1to8}, %ymm0, %ymm0 vminps %ymm0, %ymm1, %ymm0 vmulps 0x27d983(%rip){1to8}, %ymm0, %ymm0 # 0x1f1ff14 vpbroadcastd %eax, %ymm1 vpcmpgtd 0x2b837f(%rip), %ymm1, %k0 # 0x1f5a920 vmovaps %ymm6, 0x380(%rsp) vcmpleps %ymm0, %ymm6, %k1 ktestb %k0, %k1 setne 0x1f(%rsp) je 0x1ca43b2 kandb %k0, %k1, %k0 kmovd %k0, %eax movzbl %al, %r12d leaq (%r11,%r11,2), %rax shlq $0x4, %rax leaq (%rdi,%rax), %r13 addq $0x40, %r13 movl $0x1, %eax shlxl %r11d, %eax, %eax kmovd %eax, %k0 vpmovm2d %k0, %zmm0 vmovdqa64 %zmm0, 0x400(%rsp) vbroadcastss 0x24e9ea(%rip), %xmm17 # 0x1ef0fec vbroadcastss 0x27e8b8(%rip), %xmm19 # 0x1f20ec4 vbroadcastss 0x27e8aa(%rip), %xmm20 # 0x1f20ec0 vxorps %xmm30, %xmm30, %xmm30 movq 0x98(%rsp), %rdi movq %r9, 0xb0(%rsp) movq %r13, 0x148(%rsp) tzcntq %r12, %rax movl 0x2(%r10), %ebx movl 0x6(%r10,%rax,4), %eax movq (%rdi), %rcx movq 0x1e8(%rcx), %rcx movq (%rcx,%rbx,8), %rdx movq %rax, %rcx imulq 0x68(%rdx), %rcx movq 0x58(%rdx), %rsi movq 0x90(%rdx), %rdi movl (%rsi,%rcx), %ecx movq 0xa0(%rdx), %r8 movq %r8, %rsi imulq %rcx, %rsi vmovaps (%rdi,%rsi), %xmm0 leaq 0x1(%rcx), %rsi imulq %rsi, %r8 vmovaps (%rdi,%r8), %xmm1 movq 0xc8(%rdx), %rdi movq 0xd8(%rdx), %r8 movq %r8, %r9 imulq %rcx, %r9 vmovups (%rdi,%r9), %xmm2 movq 0x100(%rdx), %r9 imulq %rsi, %r8 vmovups (%rdi,%r8), %xmm3 movq 0x110(%rdx), %rdi movq %rdi, %r8 imulq %rcx, %r8 vmovaps (%r9,%r8), %xmm4 movq %rbx, %r8 imulq %rsi, %rdi vmovaps (%r9,%rdi), %xmm5 movq 0x98(%rsp), %rdi movq 0xb0(%rsp), %r9 vpbroadcastd %eax, %zmm6 vmovdqa64 %zmm6, 0x480(%rsp) movq 0x148(%rdx), %rax imulq %rax, %rcx imulq %rsi, %rax movq 0x138(%rdx), %rdx vmovss (%r9,%r11,4), %xmm6 vinsertps $0x1c, 0x40(%r9,%r11,4), %xmm6, %xmm6 # xmm6 = xmm6[0],mem[0],zero,zero vinsertps $0x28, 0x80(%r9,%r11,4), %xmm6, %xmm6 # xmm6 = xmm6[0,1],mem[0],zero vbroadcastss 0x24f791(%rip), %xmm22 # 0x1ef1ebc vfmadd132ps %xmm22, %xmm0, %xmm4 # xmm4 = (xmm4 * xmm22) + xmm0 vfnmadd132ps %xmm22, %xmm1, %xmm5 # xmm5 = -(xmm5 * xmm22) + xmm1 vmovups (%rdx,%rcx), %xmm10 vfmadd132ps %xmm22, %xmm2, %xmm10 # xmm10 = (xmm10 * xmm22) + xmm2 vmovups (%rdx,%rax), %xmm11 vfnmadd132ps %xmm22, %xmm3, %xmm11 # xmm11 = -(xmm11 * xmm22) + xmm3 vxorps %xmm15, %xmm15, %xmm15 vmulps %xmm1, %xmm15, %xmm7 vfmadd231ps %xmm15, %xmm5, %xmm7 # xmm7 = (xmm5 * xmm15) + xmm7 vxorps %xmm8, %xmm8, %xmm8 vfmadd213ps %xmm7, %xmm4, %xmm8 # xmm8 = (xmm4 * xmm8) + xmm7 vaddps %xmm0, %xmm8, %xmm8 vfmadd231ps %xmm17, %xmm4, %xmm7 # xmm7 = (xmm4 * xmm17) + xmm7 vfnmadd231ps %xmm17, %xmm0, %xmm7 # xmm7 = -(xmm0 * xmm17) + xmm7 vmulps %xmm3, %xmm15, %xmm12 vfmadd231ps %xmm15, %xmm11, %xmm12 # xmm12 = (xmm11 * xmm15) + xmm12 vxorps %xmm9, %xmm9, %xmm9 vfmadd213ps %xmm12, %xmm10, %xmm9 # xmm9 = (xmm10 * xmm9) + xmm12 vaddps %xmm2, %xmm9, %xmm13 vfmadd231ps %xmm17, %xmm10, %xmm12 # xmm12 = (xmm10 * xmm17) + xmm12 vfnmadd231ps %xmm17, %xmm2, %xmm12 # xmm12 = -(xmm2 * xmm17) + xmm12 vxorps %xmm9, %xmm9, %xmm9 vfmadd213ps %xmm1, %xmm5, %xmm9 # xmm9 = (xmm5 * xmm9) + xmm1 vfmadd231ps %xmm15, %xmm4, %xmm9 # xmm9 = (xmm4 * xmm15) + xmm9 vfmadd231ps %xmm15, %xmm0, %xmm9 # xmm9 = (xmm0 * xmm15) + xmm9 vmulps %xmm17, %xmm1, %xmm1 vfnmadd231ps %xmm5, %xmm17, %xmm1 # xmm1 = -(xmm17 * xmm5) + xmm1 vfmadd231ps %xmm4, %xmm15, %xmm1 # xmm1 = (xmm15 * xmm4) + xmm1 vfnmadd231ps %xmm0, %xmm15, %xmm1 # xmm1 = -(xmm15 * xmm0) + xmm1 vxorps %xmm0, %xmm0, %xmm0 vfmadd213ps %xmm3, %xmm11, %xmm0 # xmm0 = (xmm11 * xmm0) + xmm3 vfmadd231ps %xmm15, %xmm10, %xmm0 # xmm0 = (xmm10 * xmm15) + xmm0 vfmadd231ps %xmm15, %xmm2, %xmm0 # xmm0 = (xmm2 * xmm15) + xmm0 vmulps %xmm17, %xmm3, %xmm3 vfnmadd231ps %xmm11, %xmm17, %xmm3 # xmm3 = -(xmm17 * xmm11) + xmm3 vfmadd231ps %xmm10, %xmm15, %xmm3 # xmm3 = (xmm15 * xmm10) + xmm3 vfnmadd231ps %xmm2, %xmm15, %xmm3 # xmm3 = -(xmm15 * xmm2) + xmm3 vshufps $0xc9, %xmm7, %xmm7, %xmm2 # xmm2 = xmm7[1,2,0,3] vshufps $0xc9, %xmm13, %xmm13, %xmm4 # xmm4 = xmm13[1,2,0,3] vmulps %xmm4, %xmm7, %xmm4 vfmsub231ps %xmm13, %xmm2, %xmm4 # xmm4 = (xmm2 * xmm13) - xmm4 vshufps $0xc9, %xmm4, %xmm4, %xmm4 # xmm4 = xmm4[1,2,0,3] vshufps $0xc9, %xmm12, %xmm12, %xmm5 # xmm5 = xmm12[1,2,0,3] vmulps %xmm5, %xmm7, %xmm5 vfmsub231ps %xmm12, %xmm2, %xmm5 # xmm5 = (xmm2 * xmm12) - xmm5 vshufps $0xc9, %xmm5, %xmm5, %xmm5 # xmm5 = xmm5[1,2,0,3] vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3] vshufps $0xc9, %xmm0, %xmm0, %xmm10 # xmm10 = xmm0[1,2,0,3] vmulps %xmm1, %xmm10, %xmm10 vfmsub231ps %xmm0, %xmm2, %xmm10 # xmm10 = (xmm2 * xmm0) - xmm10 vshufps $0xc9, %xmm10, %xmm10, %xmm0 # xmm0 = xmm10[1,2,0,3] vshufps $0xc9, %xmm3, %xmm3, %xmm10 # xmm10 = xmm3[1,2,0,3] vmulps %xmm1, %xmm10, %xmm10 vfmsub231ps %xmm3, %xmm2, %xmm10 # xmm10 = (xmm2 * xmm3) - xmm10 vshufps $0xc9, %xmm10, %xmm10, %xmm2 # xmm2 = xmm10[1,2,0,3] vdpps $0x7f, %xmm4, %xmm4, %xmm3 vmovss %xmm3, %xmm15, %xmm10 # xmm10 = xmm3[0],xmm15[1,2,3] vrsqrt14ss %xmm10, %xmm15, %xmm11 vmovss 0x249eb9(%rip), %xmm16 # 0x1eec718 vmulss %xmm16, %xmm11, %xmm12 vmovss 0x24a311(%rip), %xmm17 # 0x1eecb80 vmulss %xmm17, %xmm3, %xmm13 vmulss %xmm11, %xmm13, %xmm13 vmulss %xmm11, %xmm11, %xmm11 vmulss %xmm11, %xmm13, %xmm11 vsubss %xmm11, %xmm12, %xmm11 vbroadcastss %xmm11, %xmm11 vmulps %xmm4, %xmm11, %xmm12 vdpps $0x7f, %xmm5, %xmm4, %xmm13 vbroadcastss %xmm3, %xmm14 vmulps %xmm5, %xmm14, %xmm5 vbroadcastss %xmm13, %xmm13 vmulps %xmm4, %xmm13, %xmm4 vsubps %xmm4, %xmm5, %xmm4 vrcp14ss %xmm10, %xmm15, %xmm5 vmovss 0x24e73a(%rip), %xmm18 # 0x1ef0ff8 vfnmadd213ss %xmm18, %xmm5, %xmm3 # xmm3 = -(xmm5 * xmm3) + xmm18 vmulss %xmm3, %xmm5, %xmm3 vdpps $0x7f, %xmm0, %xmm0, %xmm5 vbroadcastss %xmm3, %xmm3 vmulps %xmm3, %xmm4, %xmm3 vmulps %xmm3, %xmm11, %xmm3 vmovss %xmm5, %xmm15, %xmm4 # xmm4 = xmm5[0],xmm15[1,2,3] vrsqrt14ss %xmm4, %xmm15, %xmm10 vmulss %xmm16, %xmm10, %xmm11 vmulss %xmm17, %xmm5, %xmm13 vmulss %xmm10, %xmm13, %xmm13 vmulss %xmm10, %xmm10, %xmm10 vmulss %xmm10, %xmm13, %xmm10 vsubss %xmm10, %xmm11, %xmm10 vbroadcastss %xmm10, %xmm10 vmulps %xmm0, %xmm10, %xmm11 vdpps $0x7f, %xmm2, %xmm0, %xmm13 vbroadcastss %xmm5, %xmm14 vmulps %xmm2, %xmm14, %xmm2 vbroadcastss %xmm13, %xmm13 vmulps %xmm0, %xmm13, %xmm0 vsubps %xmm0, %xmm2, %xmm0 vrcp14ss %xmm4, %xmm15, %xmm2 vfnmadd213ss %xmm18, %xmm2, %xmm5 # xmm5 = -(xmm2 * xmm5) + xmm18 vmulss %xmm5, %xmm2, %xmm2 vbroadcastss %xmm2, %xmm2 vmulps %xmm2, %xmm0, %xmm0 vmulps %xmm0, %xmm10, %xmm0 vshufps $0xff, %xmm8, %xmm8, %xmm2 # xmm2 = xmm8[3,3,3,3] vmulps %xmm2, %xmm12, %xmm4 vsubps %xmm4, %xmm8, %xmm13 vshufps $0xff, %xmm7, %xmm7, %xmm5 # xmm5 = xmm7[3,3,3,3] vmulps %xmm5, %xmm12, %xmm5 vmulps %xmm3, %xmm2, %xmm2 vaddps %xmm2, %xmm5, %xmm2 vsubps %xmm2, %xmm7, %xmm3 vaddps %xmm4, %xmm8, %xmm14 vaddps %xmm2, %xmm7, %xmm2 vshufps $0xff, %xmm9, %xmm9, %xmm4 # xmm4 = xmm9[3,3,3,3] vmulps %xmm4, %xmm11, %xmm5 vsubps %xmm5, %xmm9, %xmm15 vshufps $0xff, %xmm1, %xmm1, %xmm7 # xmm7 = xmm1[3,3,3,3] vmulps %xmm7, %xmm11, %xmm7 vmulps %xmm0, %xmm4, %xmm0 vaddps %xmm0, %xmm7, %xmm0 vsubps %xmm0, %xmm1, %xmm4 vaddps %xmm5, %xmm9, %xmm16 vaddps %xmm0, %xmm1, %xmm0 vmulps %xmm22, %xmm3, %xmm1 vaddps %xmm1, %xmm13, %xmm17 vmulps %xmm22, %xmm4, %xmm1 vsubps %xmm1, %xmm15, %xmm18 vmulps %xmm22, %xmm2, %xmm1 vaddps %xmm1, %xmm14, %xmm21 vmulps %xmm22, %xmm0, %xmm0 vsubps %xmm0, %xmm16, %xmm22 vsubps %xmm6, %xmm13, %xmm0 vbroadcastss %xmm0, %xmm1 vshufps $0x55, %xmm0, %xmm0, %xmm2 # xmm2 = xmm0[1,1,1,1] vmovaps %xmm0, 0x310(%rsp) vshufps $0xaa, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[2,2,2,2] vmovaps (%r13), %xmm3 vmovaps 0x10(%r13), %xmm4 vmovaps 0x20(%r13), %xmm5 vmulps %xmm0, %xmm5, %xmm0 vfmadd231ps %xmm2, %xmm4, %xmm0 # xmm0 = (xmm4 * xmm2) + xmm0 vfmadd231ps %xmm1, %xmm3, %xmm0 # xmm0 = (xmm3 * xmm1) + xmm0 vsubps %xmm6, %xmm17, %xmm1 vbroadcastss %xmm1, %xmm2 vshufps $0x55, %xmm1, %xmm1, %xmm7 # xmm7 = xmm1[1,1,1,1] vmovaps %xmm1, 0x300(%rsp) vshufps $0xaa, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,2,2,2] vmulps %xmm1, %xmm5, %xmm1 vfmadd231ps %xmm7, %xmm4, %xmm1 # xmm1 = (xmm4 * xmm7) + xmm1 vfmadd231ps %xmm2, %xmm3, %xmm1 # xmm1 = (xmm3 * xmm2) + xmm1 vsubps %xmm6, %xmm18, %xmm8 vbroadcastss %xmm8, %xmm2 vshufps $0x55, %xmm8, %xmm8, %xmm7 # xmm7 = xmm8[1,1,1,1] vmovaps %xmm8, 0x2f0(%rsp) vshufps $0xaa, %xmm8, %xmm8, %xmm8 # xmm8 = xmm8[2,2,2,2] vmulps %xmm5, %xmm8, %xmm8 vfmadd231ps %xmm7, %xmm4, %xmm8 # xmm8 = (xmm4 * xmm7) + xmm8 vfmadd231ps %xmm2, %xmm3, %xmm8 # xmm8 = (xmm3 * xmm2) + xmm8 vsubps %xmm6, %xmm15, %xmm9 vbroadcastss %xmm9, %xmm2 vshufps $0x55, %xmm9, %xmm9, %xmm7 # xmm7 = xmm9[1,1,1,1] vmovaps %xmm9, 0x2e0(%rsp) vshufps $0xaa, %xmm9, %xmm9, %xmm9 # xmm9 = xmm9[2,2,2,2] vmulps %xmm5, %xmm9, %xmm9 vfmadd231ps %xmm7, %xmm4, %xmm9 # xmm9 = (xmm4 * xmm7) + xmm9 vfmadd231ps %xmm2, %xmm3, %xmm9 # xmm9 = (xmm3 * xmm2) + xmm9 vsubps %xmm6, %xmm14, %xmm10 vbroadcastss %xmm10, %xmm2 vshufps $0x55, %xmm10, %xmm10, %xmm7 # xmm7 = xmm10[1,1,1,1] vmovaps %xmm10, 0x2d0(%rsp) vshufps $0xaa, %xmm10, %xmm10, %xmm10 # xmm10 = xmm10[2,2,2,2] vmulps %xmm5, %xmm10, %xmm10 vfmadd231ps %xmm7, %xmm4, %xmm10 # xmm10 = (xmm4 * xmm7) + xmm10 vfmadd231ps %xmm2, %xmm3, %xmm10 # xmm10 = (xmm3 * xmm2) + xmm10 vsubps %xmm6, %xmm21, %xmm11 vbroadcastss %xmm11, %xmm2 vshufps $0x55, %xmm11, %xmm11, %xmm7 # xmm7 = xmm11[1,1,1,1] vmovaps %xmm11, 0x2c0(%rsp) vshufps $0xaa, %xmm11, %xmm11, %xmm11 # xmm11 = xmm11[2,2,2,2] vmulps %xmm5, %xmm11, %xmm11 vfmadd231ps %xmm7, %xmm4, %xmm11 # xmm11 = (xmm4 * xmm7) + xmm11 vfmadd231ps %xmm2, %xmm3, %xmm11 # xmm11 = (xmm3 * xmm2) + xmm11 vsubps %xmm6, %xmm22, %xmm12 vbroadcastss %xmm12, %xmm2 vshufps $0x55, %xmm12, %xmm12, %xmm7 # xmm7 = xmm12[1,1,1,1] vmovaps %xmm12, 0x2b0(%rsp) vshufps $0xaa, %xmm12, %xmm12, %xmm12 # xmm12 = xmm12[2,2,2,2] vmulps %xmm5, %xmm12, %xmm12 vfmadd231ps %xmm7, %xmm4, %xmm12 # xmm12 = (xmm4 * xmm7) + xmm12 vfmadd231ps %xmm2, %xmm3, %xmm12 # xmm12 = (xmm3 * xmm2) + xmm12 vsubps %xmm6, %xmm16, %xmm7 vbroadcastss %xmm7, %xmm2 vshufps $0x55, %xmm7, %xmm7, %xmm6 # xmm6 = xmm7[1,1,1,1] vmovaps %xmm7, 0x2a0(%rsp) vshufps $0xaa, %xmm7, %xmm7, %xmm7 # xmm7 = xmm7[2,2,2,2] vmulps %xmm7, %xmm5, %xmm5 vfmadd231ps %xmm6, %xmm4, %xmm5 # xmm5 = (xmm4 * xmm6) + xmm5 vfmadd231ps %xmm2, %xmm3, %xmm5 # xmm5 = (xmm3 * xmm2) + xmm5 vmovlhps %xmm10, %xmm0, %xmm6 # xmm6 = xmm0[0],xmm10[0] vmovlhps %xmm11, %xmm1, %xmm7 # xmm7 = xmm1[0],xmm11[0] vmovlhps %xmm12, %xmm8, %xmm23 # xmm23 = xmm8[0],xmm12[0] vmovlhps %xmm5, %xmm9, %xmm24 # xmm24 = xmm9[0],xmm5[0] vminps %xmm7, %xmm6, %xmm2 vmaxps %xmm7, %xmm6, %xmm3 vminps %xmm24, %xmm23, %xmm4 vminps %xmm4, %xmm2, %xmm2 vmaxps %xmm24, %xmm23, %xmm4 vmaxps %xmm4, %xmm3, %xmm3 vshufpd $0x3, %xmm2, %xmm2, %xmm4 # xmm4 = xmm2[1,1] vminps %xmm4, %xmm2, %xmm2 vshufpd $0x3, %xmm3, %xmm3, %xmm4 # xmm4 = xmm3[1,1] vmaxps %xmm4, %xmm3, %xmm3 vandps %xmm19, %xmm2, %xmm2 vandps %xmm19, %xmm3, %xmm3 vmaxps %xmm3, %xmm2, %xmm2 vmovshdup %xmm2, %xmm3 # xmm3 = xmm2[1,1,3,3] vmaxss %xmm2, %xmm3, %xmm2 leaq 0xff(%r12), %r14 vmulss 0x24f307(%rip), %xmm2, %xmm2 # 0x1ef1eb8 vmovddup %xmm0, %xmm19 # xmm19 = xmm0[0,0] vmovddup %xmm1, %xmm25 # xmm25 = xmm1[0,0] vmovddup %xmm8, %xmm1 # xmm1 = xmm8[0,0] vmovddup %xmm9, %xmm3 # xmm3 = xmm9[0,0] vmovddup %xmm10, %xmm4 # xmm4 = xmm10[0,0] vmovddup %xmm11, %xmm8 # xmm8 = xmm11[0,0] vmovddup %xmm12, %xmm9 # xmm9 = xmm12[0,0] vmovddup %xmm5, %xmm10 # xmm10 = xmm5[0,0] vmovaps %xmm2, 0x160(%rsp) vbroadcastss %xmm2, %ymm29 vxorps %xmm20, %xmm29, %xmm0 vbroadcastss %xmm0, %ymm28 movl $0x0, 0x5c(%rsp) xorl %ebx, %ebx vmovss 0xc0(%r9,%r11,4), %xmm0 vmovss %xmm0, 0xbc(%rsp) vmovaps %xmm6, 0xe0(%rsp) vsubps %xmm6, %xmm7, %xmm0 vmovaps %xmm0, 0x120(%rsp) vmovaps %xmm7, 0xd0(%rsp) vsubps %xmm7, %xmm23, %xmm0 vmovaps %xmm0, 0x110(%rsp) vmovaps %xmm23, 0x130(%rsp) vmovaps %xmm24, 0x170(%rsp) vsubps %xmm23, %xmm24, %xmm0 vmovaps %xmm0, 0x100(%rsp) vmovaps %xmm13, 0x290(%rsp) vmovaps %xmm14, 0x280(%rsp) vsubps %xmm13, %xmm14, %xmm0 vmovaps %xmm0, 0x210(%rsp) vmovaps %xmm4, %xmm13 vmovaps %xmm3, %xmm12 vmovaps %xmm17, 0x250(%rsp) vmovaps %xmm21, 0x230(%rsp) vsubps %xmm17, %xmm21, %xmm0 vmovaps %xmm0, 0x200(%rsp) vmovaps %xmm18, 0x240(%rsp) vmovaps %xmm22, 0x220(%rsp) vsubps %xmm18, %xmm22, %xmm0 vmovaps %xmm0, 0x1f0(%rsp) vmovaps %xmm15, 0x270(%rsp) vmovaps %xmm16, 0x260(%rsp) vsubps %xmm15, %xmm16, %xmm0 vmovaps %xmm0, 0x1e0(%rsp) vmovaps %xmm1, %xmm16 vpbroadcastd %r8d, %zmm0 vmovdqa64 %zmm0, 0x440(%rsp) vmovsd 0x2499ef(%rip), %xmm0 # 0x1eec6f0 vmovaps %xmm0, %xmm15 vmovaps %xmm19, 0x190(%rsp) vmovaps %xmm25, 0x180(%rsp) vmovaps %xmm1, 0xa0(%rsp) vmovaps %xmm3, 0x70(%rsp) vmovaps %xmm4, 0x60(%rsp) vmovaps %xmm8, 0x40(%rsp) vmovaps %xmm9, 0x30(%rsp) vmovaps %xmm10, 0x20(%rsp) vmovaps %ymm29, 0x3c0(%rsp) vmovaps %ymm28, 0x3a0(%rsp) vmovaps %xmm15, %xmm26 vshufps $0x50, %xmm15, %xmm15, %xmm1 # xmm1 = xmm15[0,0,1,1] vbroadcastss 0x2499b2(%rip), %ymm31 # 0x1eec714 vsubps %xmm1, %xmm31, %xmm2 vmulps %xmm1, %xmm13, %xmm3 vmulps %xmm1, %xmm8, %xmm4 vmulps %xmm1, %xmm9, %xmm5 vmulps %xmm1, %xmm10, %xmm1 vfmadd231ps %xmm19, %xmm2, %xmm3 # xmm3 = (xmm2 * xmm19) + xmm3 vfmadd231ps %xmm25, %xmm2, %xmm4 # xmm4 = (xmm2 * xmm25) + xmm4 vfmadd231ps %xmm16, %xmm2, %xmm5 # xmm5 = (xmm2 * xmm16) + xmm5 vfmadd231ps %xmm2, %xmm12, %xmm1 # xmm1 = (xmm12 * xmm2) + xmm1 vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3] vsubss %xmm0, %xmm2, %xmm6 vmulss 0x27e131(%rip), %xmm6, %xmm6 # 0x1f20ed0 vbroadcastss %xmm0, %ymm7 vbroadcastsd %xmm2, %ymm2 vsubps %ymm7, %ymm2, %ymm10 vbroadcastss %xmm3, %ymm2 vbroadcastss 0x26f949(%rip), %ymm9 # 0x1f12704 vpermps %ymm3, %ymm9, %ymm8 vbroadcastss %xmm4, %ymm20 vpermps %ymm4, %ymm9, %ymm21 vbroadcastss %xmm5, %ymm22 vpermps %ymm5, %ymm9, %ymm23 vbroadcastss %xmm1, %ymm24 vpermps %ymm1, %ymm9, %ymm25 vbroadcastss %xmm6, %ymm9 vpermps %ymm3, %ymm27, %ymm19 vbroadcastss 0x27e0e0(%rip), %ymm6 # 0x1f20ed8 vpermps %ymm3, %ymm6, %ymm18 vpermps %ymm4, %ymm27, %ymm15 vpermps %ymm4, %ymm6, %ymm14 vpermps %ymm5, %ymm27, %ymm12 vpermps %ymm5, %ymm6, %ymm11 vpermps %ymm1, %ymm27, %ymm16 vpermps %ymm1, %ymm6, %ymm17 vfmadd132ps 0x27e0f7(%rip), %ymm7, %ymm10 # ymm10 = (ymm10 * mem) + ymm7 vsubps %ymm10, %ymm31, %ymm13 vmulps %ymm10, %ymm20, %ymm1 vmulps %ymm10, %ymm21, %ymm3 vfmadd231ps %ymm2, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm2) + ymm1 vfmadd231ps %ymm8, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm8) + ymm3 vmulps %ymm10, %ymm22, %ymm2 vmulps %ymm10, %ymm23, %ymm4 vfmadd231ps %ymm20, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm20) + ymm2 vfmadd231ps %ymm21, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm21) + ymm4 vmulps %ymm10, %ymm24, %ymm5 vmulps %ymm10, %ymm25, %ymm6 vfmadd231ps %ymm22, %ymm13, %ymm5 # ymm5 = (ymm13 * ymm22) + ymm5 vfmadd231ps %ymm23, %ymm13, %ymm6 # ymm6 = (ymm13 * ymm23) + ymm6 vmulps %ymm2, %ymm10, %ymm7 vmulps %ymm4, %ymm10, %ymm8 vfmadd231ps %ymm1, %ymm13, %ymm7 # ymm7 = (ymm13 * ymm1) + ymm7 vfmadd231ps %ymm3, %ymm13, %ymm8 # ymm8 = (ymm13 * ymm3) + ymm8 vmulps %ymm5, %ymm10, %ymm1 vmulps %ymm6, %ymm10, %ymm5 vfmadd231ps %ymm2, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm2) + ymm1 vfmadd231ps %ymm4, %ymm13, %ymm5 # ymm5 = (ymm13 * ymm4) + ymm5 vmulps %ymm1, %ymm10, %ymm3 vmulps %ymm5, %ymm10, %ymm4 vfmadd231ps %ymm7, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm7) + ymm3 vfmadd231ps %ymm8, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm8) + ymm4 vsubps %ymm7, %ymm1, %ymm1 vsubps %ymm8, %ymm5, %ymm2 vbroadcastss 0x24e12e(%rip), %ymm22 # 0x1ef0fec vmulps %ymm22, %ymm1, %ymm1 vmulps %ymm22, %ymm2, %ymm2 vmulps %ymm1, %ymm9, %ymm8 vmulps %ymm2, %ymm9, %ymm20 vmovaps %ymm3, %ymm5 vmovaps 0x2bce3e(%rip), %ymm23 # 0x1f5fd20 vxorps %xmm24, %xmm24, %xmm24 vpermt2ps %ymm24, %ymm23, %ymm5 vmovaps %ymm4, %ymm6 vpermt2ps %ymm24, %ymm23, %ymm6 vaddps %ymm3, %ymm8, %ymm1 vpermt2ps %ymm24, %ymm23, %ymm8 vaddps %ymm20, %ymm4, %ymm7 vpermt2ps %ymm24, %ymm23, %ymm20 vsubps %ymm8, %ymm5, %ymm2 vsubps %ymm20, %ymm6, %ymm8 vmulps %ymm10, %ymm15, %ymm20 vmulps %ymm10, %ymm14, %ymm21 vfmadd231ps %ymm19, %ymm13, %ymm20 # ymm20 = (ymm13 * ymm19) + ymm20 vfmadd231ps %ymm18, %ymm13, %ymm21 # ymm21 = (ymm13 * ymm18) + ymm21 vmulps %ymm10, %ymm12, %ymm18 vmulps %ymm10, %ymm11, %ymm19 vfmadd231ps %ymm15, %ymm13, %ymm18 # ymm18 = (ymm13 * ymm15) + ymm18 vfmadd231ps %ymm14, %ymm13, %ymm19 # ymm19 = (ymm13 * ymm14) + ymm19 vmulps %ymm10, %ymm16, %ymm14 vmulps %ymm10, %ymm17, %ymm15 vfmadd231ps %ymm12, %ymm13, %ymm14 # ymm14 = (ymm13 * ymm12) + ymm14 vfmadd231ps %ymm11, %ymm13, %ymm15 # ymm15 = (ymm13 * ymm11) + ymm15 vmulps %ymm18, %ymm10, %ymm16 vmulps %ymm19, %ymm10, %ymm17 vfmadd231ps %ymm20, %ymm13, %ymm16 # ymm16 = (ymm13 * ymm20) + ymm16 vfmadd231ps %ymm21, %ymm13, %ymm17 # ymm17 = (ymm13 * ymm21) + ymm17 vmulps %ymm14, %ymm10, %ymm14 vmulps %ymm15, %ymm10, %ymm15 vfmadd231ps %ymm18, %ymm13, %ymm14 # ymm14 = (ymm13 * ymm18) + ymm14 vfmadd231ps %ymm19, %ymm13, %ymm15 # ymm15 = (ymm13 * ymm19) + ymm15 vmulps %ymm14, %ymm10, %ymm11 vmulps %ymm15, %ymm10, %ymm12 vfmadd231ps %ymm16, %ymm13, %ymm11 # ymm11 = (ymm13 * ymm16) + ymm11 vfmadd231ps %ymm13, %ymm17, %ymm12 # ymm12 = (ymm17 * ymm13) + ymm12 vsubps %ymm16, %ymm14, %ymm10 vsubps %ymm17, %ymm15, %ymm13 vmulps %ymm22, %ymm10, %ymm10 vmulps %ymm22, %ymm13, %ymm13 vmulps %ymm10, %ymm9, %ymm10 vmulps %ymm13, %ymm9, %ymm16 vmovaps %ymm11, %ymm13 vpermt2ps %ymm24, %ymm23, %ymm13 vmovaps %ymm12, %ymm14 vpermt2ps %ymm24, %ymm23, %ymm14 vaddps %ymm10, %ymm11, %ymm9 vpermt2ps %ymm24, %ymm23, %ymm10 vaddps %ymm16, %ymm12, %ymm15 vpermt2ps %ymm24, %ymm23, %ymm16 vsubps %ymm10, %ymm13, %ymm10 vsubps %ymm16, %ymm14, %ymm16 vsubps %ymm3, %ymm11, %ymm17 vsubps %ymm4, %ymm12, %ymm18 vsubps %ymm5, %ymm13, %ymm19 vaddps %ymm19, %ymm17, %ymm17 vsubps %ymm6, %ymm14, %ymm19 vaddps %ymm19, %ymm18, %ymm18 vmulps %ymm17, %ymm4, %ymm19 vfnmadd231ps %ymm18, %ymm3, %ymm19 # ymm19 = -(ymm3 * ymm18) + ymm19 vmulps %ymm17, %ymm7, %ymm20 vfnmadd231ps %ymm18, %ymm1, %ymm20 # ymm20 = -(ymm1 * ymm18) + ymm20 vmulps %ymm17, %ymm8, %ymm21 vfnmadd231ps %ymm18, %ymm2, %ymm21 # ymm21 = -(ymm2 * ymm18) + ymm21 vmulps %ymm17, %ymm6, %ymm22 vfnmadd231ps %ymm18, %ymm5, %ymm22 # ymm22 = -(ymm5 * ymm18) + ymm22 vmulps %ymm17, %ymm12, %ymm23 vfnmadd231ps %ymm18, %ymm11, %ymm23 # ymm23 = -(ymm11 * ymm18) + ymm23 vmulps %ymm17, %ymm15, %ymm24 vfnmadd231ps %ymm18, %ymm9, %ymm24 # ymm24 = -(ymm9 * ymm18) + ymm24 vmulps %ymm17, %ymm16, %ymm25 vfnmadd231ps %ymm18, %ymm10, %ymm25 # ymm25 = -(ymm10 * ymm18) + ymm25 vmulps %ymm17, %ymm14, %ymm17 vfnmadd231ps %ymm18, %ymm13, %ymm17 # ymm17 = -(ymm13 * ymm18) + ymm17 vminps %ymm20, %ymm19, %ymm18 vmaxps %ymm20, %ymm19, %ymm19 vminps %ymm22, %ymm21, %ymm20 vminps %ymm20, %ymm18, %ymm18 vmaxps %ymm22, %ymm21, %ymm20 vmaxps %ymm20, %ymm19, %ymm19 vminps %ymm24, %ymm23, %ymm20 vmaxps %ymm24, %ymm23, %ymm21 vminps %ymm17, %ymm25, %ymm22 vminps %ymm22, %ymm20, %ymm20 vminps %ymm20, %ymm18, %ymm18 vmaxps %ymm17, %ymm25, %ymm17 vmaxps %ymm17, %ymm21, %ymm17 vmaxps %ymm17, %ymm19, %ymm17 vcmpleps %ymm29, %ymm18, %k1 vcmpnltps %ymm28, %ymm17, %k0 {%k1} kmovd %k0, %eax movl $0x0, %ecx andb $0x7f, %al je 0x1ca31ca vsubps %ymm3, %ymm5, %ymm17 vsubps %ymm4, %ymm6, %ymm18 vsubps %ymm11, %ymm13, %ymm19 vaddps %ymm19, %ymm17, %ymm17 vsubps %ymm12, %ymm14, %ymm19 vaddps %ymm19, %ymm18, %ymm18 vmulps %ymm17, %ymm4, %ymm4 vfnmadd231ps %ymm3, %ymm18, %ymm4 # ymm4 = -(ymm18 * ymm3) + ymm4 vmulps %ymm17, %ymm7, %ymm3 vfnmadd213ps %ymm3, %ymm18, %ymm1 # ymm1 = -(ymm18 * ymm1) + ymm3 vmulps %ymm17, %ymm8, %ymm3 vfnmadd213ps %ymm3, %ymm18, %ymm2 # ymm2 = -(ymm18 * ymm2) + ymm3 vmulps %ymm17, %ymm6, %ymm3 vfnmadd231ps %ymm5, %ymm18, %ymm3 # ymm3 = -(ymm18 * ymm5) + ymm3 vmulps %ymm17, %ymm12, %ymm5 vfnmadd231ps %ymm11, %ymm18, %ymm5 # ymm5 = -(ymm18 * ymm11) + ymm5 vmulps %ymm17, %ymm15, %ymm6 vfnmadd213ps %ymm6, %ymm18, %ymm9 # ymm9 = -(ymm18 * ymm9) + ymm6 vmulps %ymm17, %ymm16, %ymm6 vfnmadd213ps %ymm6, %ymm18, %ymm10 # ymm10 = -(ymm18 * ymm10) + ymm6 vmulps %ymm17, %ymm14, %ymm6 vfnmadd231ps %ymm18, %ymm13, %ymm6 # ymm6 = -(ymm13 * ymm18) + ymm6 vminps %ymm1, %ymm4, %ymm7 vmaxps %ymm1, %ymm4, %ymm1 vminps %ymm3, %ymm2, %ymm4 vminps %ymm4, %ymm7, %ymm4 vmaxps %ymm3, %ymm2, %ymm2 vmaxps %ymm2, %ymm1, %ymm1 vminps %ymm9, %ymm5, %ymm2 vmaxps %ymm9, %ymm5, %ymm3 vminps %ymm6, %ymm10, %ymm5 vminps %ymm5, %ymm2, %ymm2 vminps %ymm2, %ymm4, %ymm2 vmaxps %ymm6, %ymm10, %ymm4 vmaxps %ymm4, %ymm3, %ymm3 vmaxps %ymm3, %ymm1, %ymm1 vcmpnltps %ymm28, %ymm1, %k1 vcmpleps %ymm29, %ymm2, %k0 {%k1} kmovd %k0, %ecx andb %cl, %al movzbl %al, %ecx testl %ecx, %ecx je 0x1ca31ea movl %ebx, %eax movl %ecx, 0x1a0(%rsp,%rax,4) vmovlps %xmm0, 0x320(%rsp,%rax,8) vmovlps %xmm26, 0x3e0(%rsp,%rax,8) incl %ebx vbroadcastss 0x24ddf8(%rip), %xmm17 # 0x1ef0fec vbroadcastss 0x27dcc6(%rip), %xmm19 # 0x1f20ec4 vbroadcastss 0x27dcb8(%rip), %xmm20 # 0x1f20ec0 vbroadcastss 0x24ddda(%rip), %ymm18 # 0x1ef0fec vmovss 0x27dcc4(%rip), %xmm21 # 0x1f20ee0 vmovss 0x2494ee(%rip), %xmm22 # 0x1eec714 vmovss 0x24ddd0(%rip), %xmm23 # 0x1ef1000 vmovss 0x24e812(%rip), %xmm24 # 0x1ef1a4c vbroadcastss 0x2494d0(%rip), %xmm25 # 0x1eec714 vmovaps 0xa0(%rsp), %xmm16 vmovaps 0x70(%rsp), %xmm12 vmovaps 0x60(%rsp), %xmm13 vmovaps 0x40(%rsp), %xmm8 vmovaps 0x30(%rsp), %xmm9 vmovaps 0x20(%rsp), %xmm10 vmovaps 0x120(%rsp), %xmm28 vmovaps 0x110(%rsp), %xmm29 vmovaps 0x100(%rsp), %xmm31 testl %ebx, %ebx je 0x1ca4381 leal -0x1(%rbx), %eax vmovss 0x320(%rsp,%rax,8), %xmm0 vmovss 0x324(%rsp,%rax,8), %xmm1 movl 0x1a0(%rsp,%rax,4), %ecx vmovsd 0x3e0(%rsp,%rax,8), %xmm15 tzcntq %rcx, %rdx blsrl %ecx, %ecx movl %ecx, 0x1a0(%rsp,%rax,4) cmovel %eax, %ebx vcvtsi2ss %rdx, %xmm27, %xmm2 vmulss %xmm21, %xmm2, %xmm2 incq %rdx vcvtsi2ss %rdx, %xmm27, %xmm3 vmulss %xmm21, %xmm3, %xmm3 vsubss %xmm2, %xmm22, %xmm4 vmulss %xmm2, %xmm1, %xmm26 vfmadd231ss %xmm4, %xmm0, %xmm26 # xmm26 = (xmm0 * xmm4) + xmm26 vsubss %xmm3, %xmm22, %xmm2 vmulss %xmm3, %xmm1, %xmm14 vfmadd231ss %xmm2, %xmm0, %xmm14 # xmm14 = (xmm0 * xmm2) + xmm14 vsubss %xmm26, %xmm14, %xmm0 vucomiss %xmm0, %xmm23 jbe 0x1ca4355 vmovaps %xmm26, %xmm6 vmovaps %xmm15, %xmm26 vshufps $0x50, %xmm15, %xmm15, %xmm1 # xmm1 = xmm15[0,0,1,1] vucomiss %xmm0, %xmm24 seta %cl cmpl $0x4, %ebx setae %al vsubps %xmm1, %xmm25, %xmm2 vmulps %xmm1, %xmm13, %xmm3 vmulps %xmm1, %xmm8, %xmm4 vmulps %xmm1, %xmm9, %xmm5 vmulps %xmm1, %xmm10, %xmm1 vfmadd231ps 0x190(%rsp), %xmm2, %xmm3 # xmm3 = (xmm2 * mem) + xmm3 vfmadd231ps 0x180(%rsp), %xmm2, %xmm4 # xmm4 = (xmm2 * mem) + xmm4 vfmadd231ps %xmm16, %xmm2, %xmm5 # xmm5 = (xmm2 * xmm16) + xmm5 vfmadd231ps %xmm2, %xmm12, %xmm1 # xmm1 = (xmm12 * xmm2) + xmm1 vinsertf128 $0x1, %xmm3, %ymm3, %ymm2 vinsertf128 $0x1, %xmm4, %ymm4, %ymm3 vinsertf128 $0x1, %xmm5, %ymm5, %ymm4 vmovaps %xmm6, 0xc0(%rsp) vbroadcastss %xmm6, %xmm6 vmovaps %xmm14, 0x80(%rsp) vbroadcastss %xmm14, %xmm7 vinsertf128 $0x1, %xmm7, %ymm6, %ymm6 vsubps %ymm2, %ymm3, %ymm7 vfmadd213ps %ymm2, %ymm6, %ymm7 # ymm7 = (ymm6 * ymm7) + ymm2 vsubps %ymm3, %ymm4, %ymm2 vfmadd213ps %ymm3, %ymm6, %ymm2 # ymm2 = (ymm6 * ymm2) + ymm3 vsubps %xmm5, %xmm1, %xmm1 vinsertf128 $0x1, %xmm1, %ymm1, %ymm3 vfmadd213ps %ymm4, %ymm6, %ymm3 # ymm3 = (ymm6 * ymm3) + ymm4 vsubps %ymm7, %ymm2, %ymm1 vfmadd213ps %ymm7, %ymm6, %ymm1 # ymm1 = (ymm6 * ymm1) + ymm7 vsubps %ymm2, %ymm3, %ymm3 vfmadd213ps %ymm2, %ymm6, %ymm3 # ymm3 = (ymm6 * ymm3) + ymm2 vsubps %ymm1, %ymm3, %ymm2 vfmadd231ps %ymm6, %ymm2, %ymm1 # ymm1 = (ymm2 * ymm6) + ymm1 vmulps %ymm18, %ymm2, %ymm3 vextractf128 $0x1, %ymm1, %xmm2 vextractf128 $0x1, %ymm3, %xmm4 vmulss 0x24eacb(%rip), %xmm0, %xmm5 # 0x1ef1ebc vbroadcastss %xmm5, %xmm6 vmulps %xmm3, %xmm6, %xmm3 vaddps %xmm3, %xmm1, %xmm5 vmulps %xmm4, %xmm6, %xmm3 vsubps %xmm3, %xmm2, %xmm6 vshufpd $0x3, %xmm1, %xmm1, %xmm4 # xmm4 = xmm1[1,1] vshufpd $0x3, %xmm2, %xmm2, %xmm3 # xmm3 = xmm2[1,1] vsubps %xmm1, %xmm4, %xmm7 vsubps %xmm2, %xmm3, %xmm8 vaddps %xmm7, %xmm8, %xmm7 vshufps $0xb1, %xmm1, %xmm1, %xmm8 # xmm8 = xmm1[1,0,3,2] vshufps $0xb1, %xmm5, %xmm5, %xmm9 # xmm9 = xmm5[1,0,3,2] vshufps $0xb1, %xmm6, %xmm6, %xmm10 # xmm10 = xmm6[1,0,3,2] vshufps $0xb1, %xmm2, %xmm2, %xmm11 # xmm11 = xmm2[1,0,3,2] vbroadcastss %xmm7, %xmm12 vshufps $0x55, %xmm7, %xmm7, %xmm7 # xmm7 = xmm7[1,1,1,1] vmulps %xmm7, %xmm8, %xmm8 vmulps %xmm7, %xmm9, %xmm9 vmulps %xmm7, %xmm10, %xmm10 vmulps %xmm7, %xmm11, %xmm7 vfmadd231ps %xmm1, %xmm12, %xmm8 # xmm8 = (xmm12 * xmm1) + xmm8 vfmadd231ps %xmm5, %xmm12, %xmm9 # xmm9 = (xmm12 * xmm5) + xmm9 vfmadd231ps %xmm6, %xmm12, %xmm10 # xmm10 = (xmm12 * xmm6) + xmm10 vfmadd231ps %xmm12, %xmm2, %xmm7 # xmm7 = (xmm2 * xmm12) + xmm7 vshufpd $0x1, %xmm8, %xmm8, %xmm11 # xmm11 = xmm8[1,0] vshufpd $0x1, %xmm9, %xmm9, %xmm12 # xmm12 = xmm9[1,0] vshufpd $0x1, %xmm10, %xmm10, %xmm14 # xmm14 = xmm10[1,0] vshufpd $0x1, %xmm7, %xmm7, %xmm15 # xmm15 = xmm7[1,0] vminss %xmm9, %xmm8, %xmm13 vmaxss %xmm8, %xmm9, %xmm8 vminss %xmm7, %xmm10, %xmm9 vmaxss %xmm10, %xmm7, %xmm7 vminss %xmm9, %xmm13, %xmm13 vmaxss %xmm8, %xmm7, %xmm9 vminss %xmm12, %xmm11, %xmm7 vmaxss %xmm11, %xmm12, %xmm8 vminss %xmm15, %xmm14, %xmm10 vmaxss %xmm14, %xmm15, %xmm11 vminss %xmm10, %xmm7, %xmm14 vmaxss %xmm8, %xmm11, %xmm10 vmovss 0x24d520(%rip), %xmm7 # 0x1ef09d8 vucomiss %xmm13, %xmm7 jbe 0x1ca34cd vmovss 0x24e9f9(%rip), %xmm7 # 0x1ef1ec0 vucomiss %xmm7, %xmm10 ja 0x1ca352e vmovss 0x24e9eb(%rip), %xmm7 # 0x1ef1ec0 vucomiss %xmm7, %xmm9 seta %dl vmovss 0x24d4f4(%rip), %xmm7 # 0x1ef09d8 vcmpltps %xmm7, %xmm14, %k0 vcmpltps %xmm7, %xmm13, %k1 korw %k0, %k1, %k0 kmovd %k0, %esi testb %sil, %dl jne 0x1ca352e vmovss 0x24e9b9(%rip), %xmm7 # 0x1ef1ec0 vcmpnltps %xmm10, %xmm7, %k0 vmovss 0x24d4c2(%rip), %xmm7 # 0x1ef09d8 vcmpnltps %xmm7, %xmm14, %k1 korw %k0, %k1, %k0 kmovd %k0, %edx testb $0x1, %dl jne 0x1ca4302 vcmpltss %xmm30, %xmm13, %k1 vmovaps %xmm22, %xmm15 vmovss 0x24d487(%rip), %xmm16 # 0x1ef09cc vmovss %xmm16, %xmm15, %xmm15 {%k1} vcmpltss %xmm30, %xmm9, %k1 vmovaps %xmm22, %xmm12 vmovss %xmm16, %xmm12, %xmm12 {%k1} vucomiss %xmm12, %xmm15 setp %dl setne %sil orb %dl, %sil kmovd %esi, %k1 vmovss 0x2484a7(%rip), %xmm7 # 0x1eeba20 vmovss %xmm30, %xmm7, %xmm7 {%k1} vmovss 0x2495fd(%rip), %xmm8 # 0x1eecb84 vmovss %xmm30, %xmm8, %xmm8 {%k1} vcmpltss %xmm30, %xmm14, %k1 vmovaps %xmm22, %xmm11 vmovss %xmm16, %xmm11, %xmm11 {%k1} vucomiss %xmm11, %xmm15 jne 0x1ca35a9 jnp 0x1ca35e8 vucomiss %xmm13, %xmm14 jne 0x1ca35fb jp 0x1ca35fb vucomiss %xmm30, %xmm13 setnp %dl sete %sil andb %dl, %sil kmovd %esi, %k1 vmovss 0x248452(%rip), %xmm13 # 0x1eeba20 vmovss %xmm30, %xmm13, %xmm13 {%k1} vmovss 0x2495a8(%rip), %xmm14 # 0x1eecb84 vmovss 0x24912e(%rip), %xmm14 {%k1} # 0x1eec714 jmp 0x1ca361c vmovaps 0xe0(%rsp), %xmm15 vmovaps 0xd0(%rsp), %xmm16 jmp 0x1ca3637 vxorps %xmm20, %xmm13, %xmm15 vsubss %xmm13, %xmm14, %xmm13 vdivss %xmm13, %xmm15, %xmm14 vsubss %xmm14, %xmm22, %xmm13 vfmadd213ss %xmm14, %xmm30, %xmm13 # xmm13 = (xmm30 * xmm13) + xmm14 vmovaps %xmm13, %xmm14 vmovaps 0xe0(%rsp), %xmm15 vmovaps 0xd0(%rsp), %xmm16 vminss %xmm13, %xmm7, %xmm7 vmaxss %xmm8, %xmm14, %xmm8 vcmpltss %xmm30, %xmm10, %k1 vmovaps %xmm22, %xmm13 vmovss 0x24d37e(%rip), %xmm13 {%k1} # 0x1ef09cc vucomiss %xmm13, %xmm12 vmovaps 0x80(%rsp), %xmm14 jne 0x1ca3660 jnp 0x1ca36ca vucomiss %xmm9, %xmm10 jne 0x1ca369f jp 0x1ca369f vucomiss %xmm30, %xmm9 setnp %dl sete %sil andb %dl, %sil kmovd %esi, %k1 vmovss 0x24839b(%rip), %xmm9 # 0x1eeba20 vmovss %xmm30, %xmm9, %xmm9 {%k1} vmovss 0x2494f1(%rip), %xmm10 # 0x1eecb84 vmovss 0x249077(%rip), %xmm10 {%k1} # 0x1eec714 jmp 0x1ca36c0 vxorps %xmm20, %xmm9, %xmm12 vsubss %xmm9, %xmm10, %xmm9 vdivss %xmm9, %xmm12, %xmm10 vsubss %xmm10, %xmm22, %xmm9 vfmadd213ss %xmm10, %xmm30, %xmm9 # xmm9 = (xmm30 * xmm9) + xmm10 vmovaps %xmm9, %xmm10 vminss %xmm9, %xmm7, %xmm7 vmaxss %xmm8, %xmm10, %xmm8 vucomiss %xmm13, %xmm11 setp %dl setne %sil orb %dl, %sil vminss %xmm22, %xmm7, %xmm9 kmovd %esi, %k1 vmovss %xmm9, %xmm7, %xmm7 {%k1} vmaxss %xmm8, %xmm22, %xmm9 vmovss %xmm9, %xmm8, %xmm8 {%k1} vmaxss %xmm7, %xmm30, %xmm7 vminss %xmm22, %xmm8, %xmm8 movb $0x1, %r15b vucomiss %xmm8, %xmm7 ja 0x1ca4297 vaddss 0x2b9d51(%rip), %xmm7, %xmm7 # 0x1f5d468 vaddss 0x24947d(%rip), %xmm8, %xmm8 # 0x1eecb9c vmaxss %xmm7, %xmm30, %xmm7 vminss %xmm22, %xmm8, %xmm8 vmovddup %xmm1, %xmm1 # xmm1 = xmm1[0,0] vmovddup %xmm5, %xmm9 # xmm9 = xmm5[0,0] vmovddup %xmm6, %xmm10 # xmm10 = xmm6[0,0] vmovddup %xmm2, %xmm2 # xmm2 = xmm2[0,0] vshufpd $0x3, %xmm5, %xmm5, %xmm5 # xmm5 = xmm5[1,1] vshufpd $0x3, %xmm6, %xmm6, %xmm6 # xmm6 = xmm6[1,1] vshufps $0x0, %xmm8, %xmm7, %xmm11 # xmm11 = xmm7[0,0],xmm8[0,0] vsubps %xmm11, %xmm25, %xmm12 vmulps %xmm4, %xmm11, %xmm13 vmulps %xmm5, %xmm11, %xmm5 vmulps %xmm6, %xmm11, %xmm6 vmulps %xmm3, %xmm11, %xmm3 vfmadd231ps %xmm1, %xmm12, %xmm13 # xmm13 = (xmm12 * xmm1) + xmm13 vfmadd231ps %xmm9, %xmm12, %xmm5 # xmm5 = (xmm12 * xmm9) + xmm5 vfmadd231ps %xmm10, %xmm12, %xmm6 # xmm6 = (xmm12 * xmm10) + xmm6 vfmadd231ps %xmm2, %xmm12, %xmm3 # xmm3 = (xmm12 * xmm2) + xmm3 vsubss %xmm7, %xmm22, %xmm2 vmovshdup %xmm26, %xmm4 # xmm4 = xmm26[1,1,3,3] vmulss %xmm7, %xmm4, %xmm1 vfmadd231ss %xmm2, %xmm26, %xmm1 # xmm1 = (xmm26 * xmm2) + xmm1 vsubss %xmm8, %xmm22, %xmm2 vmulss %xmm4, %xmm8, %xmm4 vfmadd231ss %xmm2, %xmm26, %xmm4 # xmm4 = (xmm26 * xmm2) + xmm4 vdivss %xmm0, %xmm22, %xmm0 vsubps %xmm13, %xmm5, %xmm2 vmulps %xmm17, %xmm2, %xmm2 vsubps %xmm5, %xmm6, %xmm7 vmulps %xmm17, %xmm7, %xmm7 vsubps %xmm6, %xmm3, %xmm8 vmulps %xmm17, %xmm8, %xmm8 vminps %xmm8, %xmm7, %xmm9 vmaxps %xmm8, %xmm7, %xmm7 vminps %xmm9, %xmm2, %xmm8 vmaxps %xmm7, %xmm2, %xmm2 vshufpd $0x3, %xmm8, %xmm8, %xmm7 # xmm7 = xmm8[1,1] vshufpd $0x3, %xmm2, %xmm2, %xmm9 # xmm9 = xmm2[1,1] vminps %xmm7, %xmm8, %xmm7 vmaxps %xmm9, %xmm2, %xmm2 vbroadcastss %xmm0, %xmm0 vmulps %xmm7, %xmm0, %xmm8 vmulps %xmm2, %xmm0, %xmm7 vsubss %xmm1, %xmm4, %xmm0 vdivss %xmm0, %xmm22, %xmm0 vshufpd $0x3, %xmm13, %xmm13, %xmm2 # xmm2 = xmm13[1,1] vshufpd $0x3, %xmm5, %xmm5, %xmm9 # xmm9 = xmm5[1,1] vshufpd $0x3, %xmm6, %xmm6, %xmm10 # xmm10 = xmm6[1,1] vshufpd $0x3, %xmm3, %xmm3, %xmm11 # xmm11 = xmm3[1,1] vsubps %xmm13, %xmm2, %xmm2 vsubps %xmm5, %xmm9, %xmm5 vsubps %xmm6, %xmm10, %xmm6 vsubps %xmm3, %xmm11, %xmm3 vminps %xmm5, %xmm2, %xmm9 vmaxps %xmm5, %xmm2, %xmm2 vminps %xmm3, %xmm6, %xmm5 vminps %xmm5, %xmm9, %xmm5 vmaxps %xmm3, %xmm6, %xmm3 vmaxps %xmm3, %xmm2, %xmm2 vbroadcastss %xmm0, %xmm0 vmulps %xmm5, %xmm0, %xmm10 vmulps %xmm2, %xmm0, %xmm11 vmovaps 0xc0(%rsp), %xmm26 vinsertps $0x10, %xmm1, %xmm26, %xmm6 # xmm6 = xmm26[0],xmm1[0],xmm26[2,3] vinsertps $0x10, %xmm4, %xmm14, %xmm5 # xmm5 = xmm14[0],xmm4[0],xmm14[2,3] vaddps %xmm5, %xmm6, %xmm0 vmulps 0x249314(%rip){1to4}, %xmm0, %xmm9 # 0x1eecb80 vshufps $0x54, %xmm9, %xmm9, %xmm0 # xmm0 = xmm9[0,1,1,1] vbroadcastss %xmm9, %xmm2 vmovaps %xmm28, %xmm3 vfmadd213ps %xmm15, %xmm2, %xmm3 # xmm3 = (xmm2 * xmm3) + xmm15 vmovaps %xmm29, %xmm12 vfmadd213ps %xmm16, %xmm2, %xmm12 # xmm12 = (xmm2 * xmm12) + xmm16 vmovaps %xmm31, %xmm13 vfmadd213ps 0x130(%rsp), %xmm2, %xmm13 # xmm13 = (xmm2 * xmm13) + mem vsubps %xmm3, %xmm12, %xmm14 vfmadd213ps %xmm3, %xmm2, %xmm14 # xmm14 = (xmm2 * xmm14) + xmm3 vsubps %xmm12, %xmm13, %xmm3 vfmadd213ps %xmm12, %xmm2, %xmm3 # xmm3 = (xmm2 * xmm3) + xmm12 vsubps %xmm14, %xmm3, %xmm3 vfmadd231ps %xmm2, %xmm3, %xmm14 # xmm14 = (xmm3 * xmm2) + xmm14 vmulps %xmm17, %xmm3, %xmm2 vmovddup %xmm14, %xmm12 # xmm12 = xmm14[0,0] vshufpd $0x3, %xmm14, %xmm14, %xmm3 # xmm3 = xmm14[1,1] vshufps $0x55, %xmm9, %xmm9, %xmm13 # xmm13 = xmm9[1,1,1,1] vsubps %xmm12, %xmm3, %xmm3 vfmadd231ps %xmm3, %xmm13, %xmm12 # xmm12 = (xmm13 * xmm3) + xmm12 vmovddup %xmm2, %xmm14 # xmm14 = xmm2[0,0] vshufpd $0x3, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[1,1] vsubps %xmm14, %xmm2, %xmm15 vfmadd213ps %xmm14, %xmm13, %xmm15 # xmm15 = (xmm13 * xmm15) + xmm14 vbroadcastss 0x27d5c8(%rip), %xmm14 # 0x1f20ec0 vxorps %xmm3, %xmm14, %xmm2 vmovshdup %xmm15, %xmm13 # xmm13 = xmm15[1,1,3,3] vxorps %xmm14, %xmm13, %xmm14 vmovshdup %xmm3, %xmm16 # xmm16 = xmm3[1,1,3,3] vmovss 0x2bc3e6(%rip), %xmm30 # 0x1f5fcfc vpermt2ps %xmm3, %xmm30, %xmm14 vmulss %xmm3, %xmm13, %xmm3 vfmsub231ss %xmm16, %xmm15, %xmm3 # xmm3 = (xmm15 * xmm16) - xmm3 vmovss 0x2b7046(%rip), %xmm13 # 0x1f5a974 vpermt2ps %xmm2, %xmm13, %xmm15 vbroadcastss %xmm3, %xmm3 vdivps %xmm3, %xmm14, %xmm2 vdivps %xmm3, %xmm15, %xmm3 vbroadcastss %xmm12, %xmm13 vmulps %xmm2, %xmm13, %xmm13 vshufps $0x55, %xmm12, %xmm12, %xmm12 # xmm12 = xmm12[1,1,1,1] vmulps %xmm3, %xmm12, %xmm12 vaddps %xmm12, %xmm13, %xmm12 vsubps %xmm12, %xmm0, %xmm0 vmovshdup %xmm2, %xmm12 # xmm12 = xmm2[1,1,3,3] vinsertps $0x1c, %xmm10, %xmm8, %xmm13 # xmm13 = xmm8[0],xmm10[0],zero,zero vmulps %xmm13, %xmm12, %xmm14 vinsertps $0x1c, %xmm11, %xmm7, %xmm15 # xmm15 = xmm7[0],xmm11[0],zero,zero vmulps %xmm15, %xmm12, %xmm12 vminps %xmm12, %xmm14, %xmm16 vmaxps %xmm14, %xmm12, %xmm12 vmovshdup %xmm3, %xmm14 # xmm14 = xmm3[1,1,3,3] vinsertps $0x4c, %xmm8, %xmm10, %xmm8 # xmm8 = xmm8[1],xmm10[1],zero,zero vmulps %xmm8, %xmm14, %xmm10 vinsertps $0x4c, %xmm7, %xmm11, %xmm7 # xmm7 = xmm7[1],xmm11[1],zero,zero vmulps %xmm7, %xmm14, %xmm11 vminps %xmm11, %xmm10, %xmm14 vaddps %xmm14, %xmm16, %xmm14 vmaxps %xmm10, %xmm11, %xmm10 vaddps %xmm10, %xmm12, %xmm10 vmovddup 0x27d537(%rip), %xmm11 # xmm11 = mem[0,0] vsubps %xmm10, %xmm11, %xmm10 vsubps %xmm14, %xmm11, %xmm11 vsubps %xmm9, %xmm6, %xmm12 vsubps %xmm9, %xmm5, %xmm9 vmulps %xmm10, %xmm12, %xmm14 vbroadcastss %xmm2, %xmm16 vmulps %xmm13, %xmm16, %xmm13 vmulps %xmm15, %xmm16, %xmm15 vminps %xmm15, %xmm13, %xmm16 vmaxps %xmm13, %xmm15, %xmm13 vbroadcastss %xmm3, %xmm15 vmulps %xmm8, %xmm15, %xmm8 vmulps %xmm7, %xmm15, %xmm7 vminps %xmm7, %xmm8, %xmm15 vaddps %xmm15, %xmm16, %xmm15 vmulps %xmm11, %xmm12, %xmm16 vmulps %xmm10, %xmm9, %xmm10 vmulps %xmm11, %xmm9, %xmm11 vmaxps %xmm8, %xmm7, %xmm7 vaddps %xmm7, %xmm13, %xmm7 vmovddup 0x27d4d0(%rip), %xmm8 # xmm8 = mem[0,0] vsubps %xmm7, %xmm8, %xmm7 vsubps %xmm15, %xmm8, %xmm8 vmulps %xmm7, %xmm12, %xmm13 vmulps %xmm8, %xmm12, %xmm12 vmulps %xmm7, %xmm9, %xmm7 vmulps %xmm8, %xmm9, %xmm8 vminps %xmm12, %xmm13, %xmm9 vminps %xmm8, %xmm7, %xmm15 vminps %xmm15, %xmm9, %xmm9 vmaxps %xmm13, %xmm12, %xmm12 vmaxps %xmm7, %xmm8, %xmm7 vmaxps %xmm12, %xmm7, %xmm7 vminps %xmm16, %xmm14, %xmm8 vminps %xmm11, %xmm10, %xmm12 vminps %xmm12, %xmm8, %xmm8 vhaddps %xmm8, %xmm9, %xmm8 vmaxps %xmm14, %xmm16, %xmm9 vmaxps %xmm10, %xmm11, %xmm10 vmaxps %xmm9, %xmm10, %xmm9 vhaddps %xmm9, %xmm7, %xmm7 vshufps $0xe8, %xmm8, %xmm8, %xmm8 # xmm8 = xmm8[0,2,2,3] vshufps $0xe8, %xmm7, %xmm7, %xmm9 # xmm9 = xmm7[0,2,2,3] vaddps %xmm0, %xmm8, %xmm7 vaddps %xmm0, %xmm9, %xmm8 vmaxps %xmm7, %xmm6, %xmm6 vminps %xmm5, %xmm8, %xmm9 vcmpltps %xmm6, %xmm9, %k0 vinsertps $0x10, %xmm4, %xmm1, %xmm15 # xmm15 = xmm1[0],xmm4[0],xmm1[2,3] kmovd %k0, %edx testb $0x3, %dl jne 0x1ca4287 vucomiss %xmm8, %xmm5 seta %sil xorl %edx, %edx vucomiss %xmm26, %xmm7 vmovaps 0xa0(%rsp), %xmm16 jbe 0x1ca3b3b testb %sil, %sil vmovss 0x24d507(%rip), %xmm11 # 0x1ef0fec vxorps %xmm30, %xmm30, %xmm30 vmovaps 0xe0(%rsp), %xmm9 vmovaps 0xd0(%rsp), %xmm10 vmovaps 0x130(%rsp), %xmm12 vmovaps 0x170(%rsp), %xmm13 vmovaps 0x160(%rsp), %xmm14 je 0x1ca3b76 vcmpltps %xmm5, %xmm8, %k0 kshiftrb $0x1, %k0, %k0 kmovd %k0, %esi vmovshdup %xmm7, %xmm4 # xmm4 = xmm7[1,1,3,3] vucomiss %xmm1, %xmm4 seta %dl andb %sil, %dl jmp 0x1ca3b76 vmovss 0x24d4a9(%rip), %xmm11 # 0x1ef0fec vxorps %xmm30, %xmm30, %xmm30 vmovaps 0xe0(%rsp), %xmm9 vmovaps 0xd0(%rsp), %xmm10 vmovaps 0x130(%rsp), %xmm12 vmovaps 0x170(%rsp), %xmm13 vmovaps 0x160(%rsp), %xmm14 orb %cl, %al orb %dl, %al cmpb $0x1, %al jne 0x1ca42cd movl $0xc8, %eax vsubss %xmm0, %xmm22, %xmm1 vmulss %xmm1, %xmm1, %xmm4 vmulss %xmm4, %xmm1, %xmm5 vmulss %xmm0, %xmm11, %xmm6 vmulss %xmm4, %xmm6, %xmm4 vmulss %xmm0, %xmm0, %xmm6 vmulss %xmm6, %xmm11, %xmm7 vmulss %xmm7, %xmm1, %xmm1 vbroadcastss %xmm5, %xmm5 vbroadcastss %xmm4, %xmm4 vbroadcastss %xmm1, %xmm1 vmulss %xmm6, %xmm0, %xmm6 vbroadcastss %xmm6, %xmm6 vmulps %xmm6, %xmm13, %xmm6 vfmadd231ps %xmm1, %xmm12, %xmm6 # xmm6 = (xmm12 * xmm1) + xmm6 vfmadd231ps %xmm4, %xmm10, %xmm6 # xmm6 = (xmm10 * xmm4) + xmm6 vfmadd231ps %xmm5, %xmm9, %xmm6 # xmm6 = (xmm9 * xmm5) + xmm6 vmovddup %xmm6, %xmm1 # xmm1 = xmm6[0,0] vshufpd $0x3, %xmm6, %xmm6, %xmm4 # xmm4 = xmm6[1,1] vshufps $0x55, %xmm0, %xmm0, %xmm5 # xmm5 = xmm0[1,1,1,1] vsubps %xmm1, %xmm4, %xmm4 vfmadd213ps %xmm1, %xmm5, %xmm4 # xmm4 = (xmm5 * xmm4) + xmm1 vbroadcastss %xmm4, %xmm1 vmulps %xmm1, %xmm2, %xmm1 vshufps $0x55, %xmm4, %xmm4, %xmm5 # xmm5 = xmm4[1,1,1,1] vmulps %xmm5, %xmm3, %xmm5 vaddps %xmm5, %xmm1, %xmm1 vsubps %xmm1, %xmm0, %xmm0 vandps %xmm19, %xmm4, %xmm1 vprolq $0x20, %xmm1, %xmm4 vmaxss %xmm1, %xmm4, %xmm1 vucomiss %xmm1, %xmm14 ja 0x1ca3c2a decq %rax jne 0x1ca3b87 jmp 0x1ca42d0 vucomiss %xmm30, %xmm0 jb 0x1ca42d0 vucomiss %xmm0, %xmm22 vmovaps 0x70(%rsp), %xmm12 vmovaps 0x60(%rsp), %xmm13 vmovaps 0x80(%rsp), %xmm14 jb 0x1ca3d5d vmovshdup %xmm0, %xmm1 # xmm1 = xmm0[1,1,3,3] vucomiss %xmm30, %xmm1 jb 0x1ca3d5d vucomiss %xmm1, %xmm22 jb 0x1ca3d5d vmovss 0x8(%r13), %xmm2 vinsertps $0x1c, 0x18(%r13), %xmm2, %xmm2 # xmm2 = xmm2[0],mem[0],zero,zero vinsertps $0x28, 0x28(%r13), %xmm2, %xmm2 # xmm2 = xmm2[0,1],mem[0],zero vdpps $0x7f, 0x310(%rsp), %xmm2, %xmm3 vdpps $0x7f, 0x300(%rsp), %xmm2, %xmm4 vdpps $0x7f, 0x2f0(%rsp), %xmm2, %xmm5 vdpps $0x7f, 0x2e0(%rsp), %xmm2, %xmm6 vdpps $0x7f, 0x2d0(%rsp), %xmm2, %xmm7 vdpps $0x7f, 0x2c0(%rsp), %xmm2, %xmm8 vdpps $0x7f, 0x2b0(%rsp), %xmm2, %xmm9 vdpps $0x7f, 0x2a0(%rsp), %xmm2, %xmm2 vsubss %xmm1, %xmm22, %xmm10 vmulss %xmm7, %xmm1, %xmm7 vmulss %xmm1, %xmm8, %xmm8 vmulss %xmm1, %xmm9, %xmm9 vmulss %xmm2, %xmm1, %xmm1 vfmadd231ss %xmm3, %xmm10, %xmm7 # xmm7 = (xmm10 * xmm3) + xmm7 vfmadd231ss %xmm4, %xmm10, %xmm8 # xmm8 = (xmm10 * xmm4) + xmm8 vfmadd231ss %xmm5, %xmm10, %xmm9 # xmm9 = (xmm10 * xmm5) + xmm9 vfmadd231ss %xmm6, %xmm10, %xmm1 # xmm1 = (xmm10 * xmm6) + xmm1 vsubss %xmm0, %xmm22, %xmm6 vmulss %xmm6, %xmm6, %xmm3 vmulss %xmm3, %xmm6, %xmm2 vmulss %xmm0, %xmm11, %xmm4 vmulss %xmm3, %xmm4, %xmm3 vmulps %xmm0, %xmm0, %xmm5 vmulss %xmm5, %xmm11, %xmm4 vmulss %xmm4, %xmm6, %xmm4 vmulps %xmm5, %xmm0, %xmm5 vmulss %xmm1, %xmm5, %xmm1 vfmadd231ss %xmm9, %xmm4, %xmm1 # xmm1 = (xmm4 * xmm9) + xmm1 vfmadd231ss %xmm8, %xmm3, %xmm1 # xmm1 = (xmm3 * xmm8) + xmm1 vfmadd231ss %xmm7, %xmm2, %xmm1 # xmm1 = (xmm2 * xmm7) + xmm1 vucomiss 0xbc(%rsp), %xmm1 jb 0x1ca3d5d vmovss 0x200(%r9,%r11,4), %xmm7 vucomiss %xmm1, %xmm7 jae 0x1ca3d74 vmovaps 0x40(%rsp), %xmm8 vmovaps 0x30(%rsp), %xmm9 vmovaps 0x20(%rsp), %xmm10 jmp 0x1ca42f7 vmovss %xmm7, 0xb8(%rsp) movq %r12, %r13 movq %r14, %r12 vshufps $0x55, %xmm0, %xmm0, %xmm7 # xmm7 = xmm0[1,1,1,1] vsubps %xmm7, %xmm25, %xmm8 vmulps 0x280(%rsp), %xmm7, %xmm9 vmulps 0x230(%rsp), %xmm7, %xmm10 vmulps 0x220(%rsp), %xmm7, %xmm11 vmulps 0x260(%rsp), %xmm7, %xmm7 vfmadd231ps 0x290(%rsp), %xmm8, %xmm9 # xmm9 = (xmm8 * mem) + xmm9 vfmadd231ps 0x250(%rsp), %xmm8, %xmm10 # xmm10 = (xmm8 * mem) + xmm10 vfmadd231ps 0x240(%rsp), %xmm8, %xmm11 # xmm11 = (xmm8 * mem) + xmm11 vfmadd231ps 0x270(%rsp), %xmm8, %xmm7 # xmm7 = (xmm8 * mem) + xmm7 vsubps %xmm9, %xmm10, %xmm8 vsubps %xmm10, %xmm11, %xmm9 vsubps %xmm11, %xmm7, %xmm7 vbroadcastss %xmm0, %xmm10 vmulps %xmm9, %xmm10, %xmm11 vbroadcastss %xmm6, %xmm6 vfmadd231ps %xmm8, %xmm6, %xmm11 # xmm11 = (xmm6 * xmm8) + xmm11 vmulps %xmm7, %xmm10, %xmm7 vfmadd231ps %xmm9, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm9) + xmm7 vmulps %xmm7, %xmm10, %xmm7 vfmadd231ps %xmm11, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm11) + xmm7 vmulps %xmm17, %xmm7, %xmm6 movq (%rdi), %rax movq 0x1e8(%rax), %rax movq (%rax,%r8,8), %r14 movl 0x240(%r9,%r11,4), %eax testl %eax, 0x34(%r14) je 0x1ca4259 movq 0x10(%rdi), %rax cmpq $0x0, 0x10(%rax) vmovaps 0x40(%rsp), %xmm8 vmovaps 0x30(%rsp), %xmm9 vmovaps 0x20(%rsp), %xmm10 jne 0x1ca3e5f movb $0x1, %al cmpq $0x0, 0x48(%r14) je 0x1ca426d vbroadcastss %xmm5, %xmm5 vmulps 0x1e0(%rsp), %xmm5, %xmm5 vbroadcastss %xmm4, %xmm4 vfmadd132ps 0x1f0(%rsp), %xmm5, %xmm4 # xmm4 = (xmm4 * mem) + xmm5 vbroadcastss %xmm3, %xmm3 vfmadd132ps 0x200(%rsp), %xmm4, %xmm3 # xmm3 = (xmm3 * mem) + xmm4 vbroadcastss %xmm2, %xmm2 vfmadd132ps 0x210(%rsp), %xmm3, %xmm2 # xmm2 = (xmm2 * mem) + xmm3 vshufps $0xc9, %xmm2, %xmm2, %xmm3 # xmm3 = xmm2[1,2,0,3] vshufps $0xc9, %xmm6, %xmm6, %xmm4 # xmm4 = xmm6[1,2,0,3] vmulps %xmm4, %xmm2, %xmm2 vfmsub231ps %xmm3, %xmm6, %xmm2 # xmm2 = (xmm6 * xmm3) - xmm2 movq 0x8(%rdi), %rax vbroadcastss %xmm0, %zmm3 vbroadcastss 0x26e843(%rip), %zmm4 # 0x1f12704 vpermps %zmm0, %zmm4, %zmm0 vpermps %zmm2, %zmm4, %zmm4 vbroadcastss 0x27d005(%rip), %zmm5 # 0x1f20edc vpermps %zmm2, %zmm5, %zmm5 vbroadcastss %xmm2, %zmm2 vmovaps %zmm4, 0x4c0(%rsp) vmovaps %zmm5, 0x500(%rsp) vmovaps %zmm2, 0x540(%rsp) vmovaps %zmm3, 0x580(%rsp) vmovaps %zmm0, 0x5c0(%rsp) vmovaps 0x480(%rsp), %zmm0 vmovaps %zmm0, 0x600(%rsp) vmovdqa64 0x440(%rsp), %zmm0 vmovdqa64 %zmm0, 0x640(%rsp) leaq 0x680(%rsp), %rcx vpcmpeqd %ymm0, %ymm0, %ymm0 vmovdqa %ymm0, 0x60(%rcx) vmovdqa %ymm0, 0x40(%rcx) vmovdqa %ymm0, 0x20(%rcx) vmovdqa %ymm0, (%rcx) vbroadcastss (%rax), %zmm0 vmovaps %zmm0, 0x680(%rsp) vbroadcastss 0x4(%rax), %zmm0 vmovaps %zmm0, 0x6c0(%rsp) vmovss %xmm1, 0x200(%r9,%r11,4) vmovaps 0x400(%rsp), %zmm0 vmovaps %zmm0, 0x340(%rsp) leaq 0x340(%rsp), %rax movq %rax, 0x1b0(%rsp) movq 0x18(%r14), %rax movq %rax, 0x1b8(%rsp) movq 0x8(%rdi), %rax movq %rax, 0x1c0(%rsp) movq %r9, 0x1c8(%rsp) leaq 0x4c0(%rsp), %rax movq %rax, 0x1d0(%rsp) movl $0x10, 0x1d8(%rsp) movq 0x48(%r14), %rax testq %rax, %rax movq %r10, 0xf8(%rsp) movq %r8, 0xf0(%rsp) vmovaps %xmm15, 0x150(%rsp) je 0x1ca40f1 leaq 0x1b0(%rsp), %rdi movq %r11, 0x140(%rsp) vzeroupper callq *%rax vmovaps 0x80(%rsp), %xmm14 vmovaps 0xc0(%rsp), %xmm26 vmovaps 0x150(%rsp), %xmm15 vmovaps 0x100(%rsp), %xmm31 vmovaps 0x110(%rsp), %xmm29 vmovaps 0x120(%rsp), %xmm28 vmovaps 0x20(%rsp), %xmm10 vmovaps 0x30(%rsp), %xmm9 vmovaps 0x40(%rsp), %xmm8 vmovaps 0x60(%rsp), %xmm13 vmovaps 0x70(%rsp), %xmm12 vmovaps 0xa0(%rsp), %xmm16 movq 0xf0(%rsp), %r8 vxorps %xmm30, %xmm30, %xmm30 vbroadcastss 0x24869d(%rip), %xmm25 # 0x1eec714 vmovss 0x24d9cb(%rip), %xmm24 # 0x1ef1a4c vmovss 0x24cf75(%rip), %xmm23 # 0x1ef1000 vmovss 0x24867f(%rip), %xmm22 # 0x1eec714 vmovss 0x27ce41(%rip), %xmm21 # 0x1f20ee0 vbroadcastss 0x24cf43(%rip), %ymm18 # 0x1ef0fec vbroadcastss 0x27ce0d(%rip), %xmm20 # 0x1f20ec0 vbroadcastss 0x27ce07(%rip), %xmm19 # 0x1f20ec4 vbroadcastss 0x24cf25(%rip), %xmm17 # 0x1ef0fec vbroadcastss 0x27ce0b(%rip), %ymm27 # 0x1f20edc movq 0x98(%rsp), %rdi movq 0xb0(%rsp), %r9 movq 0x140(%rsp), %r11 movq 0xf8(%rsp), %r10 vmovdqa64 0x340(%rsp), %zmm0 vptestmd %zmm0, %zmm0, %k0 kortestw %k0, %k0 je 0x1ca4333 movq 0x10(%rdi), %rcx movq 0x10(%rcx), %rax testq %rax, %rax je 0x1ca421f testb $0x2, (%rcx) jne 0x1ca412a testb $0x40, 0x3e(%r14) je 0x1ca421f leaq 0x1b0(%rsp), %rdi movq %r11, %r14 vzeroupper callq *%rax vmovaps 0x80(%rsp), %xmm14 vmovaps 0xc0(%rsp), %xmm26 vmovaps 0x150(%rsp), %xmm15 vmovaps 0x100(%rsp), %xmm31 vmovaps 0x110(%rsp), %xmm29 vmovaps 0x120(%rsp), %xmm28 vmovaps 0x20(%rsp), %xmm10 vmovaps 0x30(%rsp), %xmm9 vmovaps 0x40(%rsp), %xmm8 vmovaps 0x60(%rsp), %xmm13 vmovaps 0x70(%rsp), %xmm12 vmovaps 0xa0(%rsp), %xmm16 movq 0xf0(%rsp), %r8 vxorps %xmm30, %xmm30, %xmm30 vbroadcastss 0x24856a(%rip), %xmm25 # 0x1eec714 vmovss 0x24d898(%rip), %xmm24 # 0x1ef1a4c vmovss 0x24ce42(%rip), %xmm23 # 0x1ef1000 vmovss 0x24854c(%rip), %xmm22 # 0x1eec714 vmovss 0x27cd0e(%rip), %xmm21 # 0x1f20ee0 vbroadcastss 0x24ce10(%rip), %ymm18 # 0x1ef0fec vbroadcastss 0x27ccda(%rip), %xmm20 # 0x1f20ec0 vbroadcastss 0x27ccd4(%rip), %xmm19 # 0x1f20ec4 vbroadcastss 0x24cdf2(%rip), %xmm17 # 0x1ef0fec vbroadcastss 0x27ccd8(%rip), %ymm27 # 0x1f20edc movq 0x98(%rsp), %rdi movq 0xb0(%rsp), %r9 movq %r14, %r11 movq 0xf8(%rsp), %r10 vmovdqa64 0x340(%rsp), %zmm0 vptestmd %zmm0, %zmm0, %k1 movq 0x1c8(%rsp), %rax vmovaps 0x200(%rax), %zmm0 vbroadcastss 0x24893e(%rip), %zmm0 {%k1} # 0x1eecb84 vmovaps %zmm0, 0x200(%rax) kortestw %k1, %k1 setne %al jmp 0x1ca4335 xorl %eax, %eax vmovaps 0x40(%rsp), %xmm8 vmovaps 0x30(%rsp), %xmm9 vmovaps 0x20(%rsp), %xmm10 movl 0x5c(%rsp), %ecx orb %al, %cl movl %ecx, 0x5c(%rsp) movq %r12, %r14 movq %r13, %r12 movq 0x148(%rsp), %r13 jmp 0x1ca42f7 vxorps %xmm30, %xmm30, %xmm30 vmovaps 0xa0(%rsp), %xmm16 jmp 0x1ca42d0 vmovaps 0xa0(%rsp), %xmm16 vmovaps 0x70(%rsp), %xmm12 vmovaps 0x60(%rsp), %xmm13 vmovaps 0x40(%rsp), %xmm8 vmovaps 0x30(%rsp), %xmm9 vmovaps 0x20(%rsp), %xmm10 vmovaps %xmm26, %xmm15 vmovaps 0xc0(%rsp), %xmm26 jmp 0x1ca42f7 xorl %r15d, %r15d vmovaps 0x70(%rsp), %xmm12 vmovaps 0x60(%rsp), %xmm13 vmovaps 0x40(%rsp), %xmm8 vmovaps 0x30(%rsp), %xmm9 vmovaps 0x20(%rsp), %xmm10 vmovaps 0x80(%rsp), %xmm14 testb %r15b, %r15b jne 0x1ca3282 jmp 0x1ca4355 movb $0x1, %r15b vmovaps 0x70(%rsp), %xmm12 vmovaps 0x60(%rsp), %xmm13 vmovaps 0x40(%rsp), %xmm8 vmovaps 0x30(%rsp), %xmm9 vmovaps 0x20(%rsp), %xmm10 vmovaps %xmm26, %xmm15 vmovaps 0xc0(%rsp), %xmm26 jmp 0x1ca42ee xorl %eax, %eax testb %al, %al jne 0x1ca426d vmovss 0xb8(%rsp), %xmm0 vmovss %xmm0, 0x200(%r9,%r11,4) jmp 0x1ca426d vinsertps $0x10, %xmm14, %xmm26, %xmm0 # xmm0 = xmm26[0],xmm14[0],xmm26[2,3] vmovaps 0x190(%rsp), %xmm19 vmovaps 0x180(%rsp), %xmm25 vmovaps 0x3c0(%rsp), %ymm29 vmovaps 0x3a0(%rsp), %ymm28 jmp 0x1ca2d4c testb $0x1, 0x5c(%rsp) jne 0x1ca43b2 vmovaps 0x380(%rsp), %ymm0 vcmpleps 0x200(%r9,%r11,4){1to8}, %ymm0, %k0 kmovb %k0, %eax andl %r14d, %r12d andl %eax, %r12d setne 0x1f(%rsp) jne 0x1ca2634 movb 0x1f(%rsp), %al andb $0x1, %al leaq -0x28(%rbp), %rsp popq %rbx popq %r12 popq %r13 popq %r14 popq %r15 popq %rbp vzeroupper retq
/embree[P]embree/kernels/geometry/curveNi_intersector.h
void embree::avx512::CurveNiIntersector1<8>::intersect_t<embree::avx512::SweepCurve1Intersector1<embree::CatmullRomCurveT>, embree::avx512::Intersect1Epilog1<true>>(embree::avx512::CurvePrecalculations1 const&, embree::RayHitK<1>&, embree::RayQueryContext*, embree::CurveNi<8> const&)
static __forceinline void intersect_t(const Precalculations& pre, RayHit& ray, RayQueryContext* context, const Primitive& prim) { vfloat<M> tNear; vbool<M> valid = intersect(ray,prim,tNear); const size_t N = prim.N; size_t mask = movemask(valid); while (mask) { const size_t i = bscf(mask); STAT3(normal.trav_prims,1,1,1); const unsigned int geomID = prim.geomID(N); const unsigned int primID = prim.primID(N)[i]; const CurveGeometry* geom = context->scene->get<CurveGeometry>(geomID); Vec3ff a0,a1,a2,a3; geom->gather(a0,a1,a2,a3,geom->curve(primID)); size_t mask1 = mask; const size_t i1 = bscf(mask1); if (mask) { const unsigned int primID1 = prim.primID(N)[i1]; geom->prefetchL1_vertices(geom->curve(primID1)); if (mask1) { const size_t i2 = bsf(mask1); const unsigned int primID2 = prim.primID(N)[i2]; geom->prefetchL2_vertices(geom->curve(primID2)); } } Intersector().intersect(pre,ray,context,geom,primID,a0,a1,a2,a3,Epilog(ray,context,geomID,primID)); mask &= movemask(tNear <= vfloat<M>(ray.tfar)); } }
pushq %rbp movq %rsp, %rbp pushq %r15 pushq %r14 pushq %r13 pushq %r12 pushq %rbx andq $-0x20, %rsp subq $0x8c0, %rsp # imm = 0x8C0 movq %rcx, %r9 movzbl 0x1(%rcx), %ecx leaq (%rcx,%rcx,4), %rax leaq (%rax,%rax,4), %rdi vbroadcastss 0x12(%r9,%rdi), %xmm0 movq %rdx, %r13 movq %rsi, %r15 vmovaps (%rsi), %xmm1 vsubps 0x6(%r9,%rdi), %xmm1, %xmm1 vmulps %xmm1, %xmm0, %xmm3 vmulps 0x10(%rsi), %xmm0, %xmm0 vpmovsxbd 0x6(%r9,%rcx,4), %ymm1 vpmovsxbd 0x6(%r9,%rax), %ymm2 vcvtdq2ps %ymm1, %ymm5 vcvtdq2ps %ymm2, %ymm6 leaq (%rcx,%rcx,2), %rdx vpmovsxbd 0x6(%r9,%rdx,2), %ymm1 vcvtdq2ps %ymm1, %ymm4 leaq (%rcx,%rax,2), %rsi vpmovsxbd 0x6(%r9,%rsi), %ymm1 leal (,%rdx,4), %esi vpmovsxbd 0x6(%r9,%rsi), %ymm2 vcvtdq2ps %ymm1, %ymm7 vcvtdq2ps %ymm2, %ymm8 addq %rcx, %rsi vpmovsxbd 0x6(%r9,%rsi), %ymm1 vcvtdq2ps %ymm1, %ymm9 leaq (%rcx,%rcx,8), %rsi leal (%rsi,%rsi), %edi vpmovsxbd 0x6(%r9,%rdi), %ymm1 vcvtdq2ps %ymm1, %ymm10 addq %rcx, %rdi vpmovsxbd 0x6(%r9,%rdi), %ymm1 vcvtdq2ps %ymm1, %ymm11 shll $0x2, %eax vpmovsxbd 0x6(%r9,%rax), %ymm1 vcvtdq2ps %ymm1, %ymm12 vbroadcastss %xmm0, %ymm13 vbroadcastss 0x26e262(%rip), %ymm15 # 0x1f12704 vbroadcastss 0x27ca30(%rip), %ymm16 # 0x1f20edc vpermps %ymm0, %ymm15, %ymm14 vpermps %ymm0, %ymm16, %ymm0 vmulps %ymm4, %ymm0, %ymm2 vmulps %ymm0, %ymm9, %ymm1 vmulps %ymm0, %ymm12, %ymm0 vfmadd231ps %ymm6, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm6) + ymm2 vfmadd231ps %ymm8, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm8) + ymm1 vfmadd231ps %ymm14, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm14) + ymm0 vfmadd231ps %ymm5, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm5) + ymm2 vfmadd231ps %ymm7, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm7) + ymm1 vfmadd231ps %ymm13, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm13) + ymm0 vbroadcastss %xmm3, %ymm13 vpermps %ymm3, %ymm15, %ymm14 vpermps %ymm3, %ymm16, %ymm3 vmulps %ymm4, %ymm3, %ymm15 vmulps %ymm3, %ymm9, %ymm4 vmulps %ymm3, %ymm12, %ymm3 vfmadd231ps %ymm6, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm6) + ymm15 vfmadd231ps %ymm8, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm8) + ymm4 vfmadd231ps %ymm11, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm11) + ymm3 vfmadd231ps %ymm5, %ymm13, %ymm15 # ymm15 = (ymm13 * ymm5) + ymm15 vfmadd231ps %ymm7, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm7) + ymm4 vbroadcastss 0x27c9a5(%rip), %ymm6 # 0x1f20ec4 vfmadd231ps %ymm10, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm10) + ymm3 vandps %ymm6, %ymm2, %ymm5 vbroadcastss 0x24cab7(%rip), %ymm7 # 0x1ef0fe8 vcmpltps %ymm7, %ymm5, %k1 vmovaps %ymm7, %ymm2 {%k1} vandps %ymm6, %ymm1, %ymm5 vcmpltps %ymm7, %ymm5, %k1 vmovaps %ymm7, %ymm1 {%k1} vandps %ymm6, %ymm0, %ymm5 vcmpltps %ymm7, %ymm5, %k1 vmovaps %ymm7, %ymm0 {%k1} vrcp14ps %ymm2, %ymm5 vbroadcastss 0x2481a5(%rip), %ymm6 # 0x1eec714 vfnmadd213ps %ymm6, %ymm5, %ymm2 # ymm2 = -(ymm5 * ymm2) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm2 # ymm2 = (ymm2 * ymm5) + ymm5 vrcp14ps %ymm1, %ymm5 vfnmadd213ps %ymm6, %ymm5, %ymm1 # ymm1 = -(ymm5 * ymm1) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm1 # ymm1 = (ymm1 * ymm5) + ymm5 vrcp14ps %ymm0, %ymm5 vfnmadd213ps %ymm6, %ymm5, %ymm0 # ymm0 = -(ymm5 * ymm0) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm0 # ymm0 = (ymm0 * ymm5) + ymm5 leaq (,%rcx,8), %rdi subq %rcx, %rdi vpmovsxwd 0x6(%r9,%rdi), %ymm5 vcvtdq2ps %ymm5, %ymm5 vsubps %ymm15, %ymm5, %ymm5 vmulps %ymm5, %ymm2, %ymm5 vpmovsxwd 0x6(%r9,%rsi), %ymm6 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm15, %ymm6, %ymm6 leaq (%rcx,%rcx), %rsi addq %rcx, %rax shlq $0x3, %rdx subq %rcx, %rdx vpbroadcastd %ecx, %ymm7 shll $0x4, %ecx vpmovsxwd 0x6(%r9,%rcx), %ymm8 vmulps %ymm6, %ymm2, %ymm2 subq %rsi, %rcx vpmovsxwd 0x6(%r9,%rcx), %ymm6 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm4, %ymm6, %ymm6 vmulps %ymm6, %ymm1, %ymm6 vcvtdq2ps %ymm8, %ymm8 vsubps %ymm4, %ymm8, %ymm4 vmulps %ymm4, %ymm1, %ymm1 vpmovsxwd 0x6(%r9,%rax), %ymm4 vcvtdq2ps %ymm4, %ymm4 vsubps %ymm3, %ymm4, %ymm4 vmulps %ymm0, %ymm4, %ymm4 vpmovsxwd 0x6(%r9,%rdx), %ymm8 vcvtdq2ps %ymm8, %ymm8 vsubps %ymm3, %ymm8, %ymm3 vmulps %ymm3, %ymm0, %ymm0 vpminsd %ymm2, %ymm5, %ymm3 vpminsd %ymm1, %ymm6, %ymm8 vmaxps %ymm8, %ymm3, %ymm3 vpminsd %ymm0, %ymm4, %ymm8 vmaxps 0xc(%r15){1to8}, %ymm8, %ymm8 vmaxps %ymm8, %ymm3, %ymm3 vmulps 0x27b8b2(%rip){1to8}, %ymm3, %ymm3 # 0x1f1ff10 vpmaxsd %ymm2, %ymm5, %ymm2 vpmaxsd %ymm1, %ymm6, %ymm1 vminps %ymm1, %ymm2, %ymm1 vpmaxsd %ymm0, %ymm4, %ymm0 vminps 0x20(%r15){1to8}, %ymm0, %ymm0 vminps %ymm0, %ymm1, %ymm0 vmulps 0x27b88e(%rip){1to8}, %ymm0, %ymm0 # 0x1f1ff14 vpcmpgtd 0x2b6290(%rip), %ymm7, %k0 # 0x1f5a920 vmovaps %ymm3, 0x540(%rsp) vcmpleps %ymm0, %ymm3, %k1 ktestb %k0, %k1 je 0x1ca6e34 kandb %k0, %k1, %k0 kmovd %k0, %eax movzbl %al, %r10d vxorps %xmm12, %xmm12, %xmm12 movq %r13, 0x20(%rsp) movq %r9, 0x1e8(%rsp) tzcntq %r10, %rax movl 0x2(%r9), %ecx movl 0x6(%r9,%rax,4), %edi movq (%r13), %rax movq 0x1e8(%rax), %rax movq %rcx, 0x48(%rsp) movq (%rax,%rcx,8), %rsi movq 0x58(%rsi), %rax movq 0x68(%rsi), %rcx movq %rcx, %rdx movq %rdi, 0x98(%rsp) imulq %rdi, %rdx movl (%rax,%rdx), %edi movq 0xa0(%rsi), %rdx movq %rdx, %r8 imulq %rdi, %r8 movq 0x90(%rsi), %rsi vmovaps (%rsi,%r8), %xmm1 leaq 0x1(%rdi), %r8 imulq %rdx, %r8 vmovaps (%rsi,%r8), %xmm0 leaq 0x2(%rdi), %r8 imulq %rdx, %r8 vmovaps (%rsi,%r8), %xmm3 blsrq %r10, %r10 addq $0x3, %rdi imulq %rdx, %rdi vmovaps (%rsi,%rdi), %xmm2 movq %r10, %rdi subq $0x1, %rdi jb 0x1ca479d andq %r10, %rdi tzcntq %r10, %r8 movl 0x6(%r9,%r8,4), %r8d imulq %rcx, %r8 movl (%rax,%r8), %r8d imulq %rdx, %r8 prefetcht0 (%rsi,%r8) prefetcht0 0x40(%rsi,%r8) testq %rdi, %rdi je 0x1ca479d tzcntq %rdi, %rdi movl 0x6(%r9,%rdi,4), %edi imulq %rdi, %rcx movl (%rax,%rcx), %eax imulq %rax, %rdx prefetcht1 (%rsi,%rdx) prefetcht1 0x40(%rsi,%rdx) vaddps %xmm0, %xmm1, %xmm5 vmovaps (%r15), %xmm6 vmovaps 0x10(%r15), %xmm4 vmulps 0x2483ca(%rip){1to4}, %xmm5, %xmm5 # 0x1eecb80 vsubps %xmm6, %xmm5, %xmm5 vdpps $0x7f, %xmm4, %xmm5, %xmm5 vdpps $0x7f, %xmm4, %xmm4, %xmm7 vmovss %xmm7, %xmm12, %xmm8 # xmm8 = xmm7[0],xmm12[1,2,3] vrcp14ss %xmm8, %xmm12, %xmm8 vmovaps %xmm8, %xmm9 vfnmadd213ss 0x24c81a(%rip), %xmm7, %xmm9 # xmm9 = -(xmm7 * xmm9) + mem vmulss %xmm9, %xmm8, %xmm7 vmulss %xmm7, %xmm5, %xmm5 vmovaps %xmm5, 0x2d0(%rsp) vbroadcastss %xmm5, %ymm7 vfmadd231ps %xmm7, %xmm4, %xmm6 # xmm6 = (xmm4 * xmm7) + xmm6 vblendps $0x8, %xmm12, %xmm6, %xmm5 # xmm5 = xmm6[0,1,2],xmm12[3] vsubps %xmm5, %xmm1, %xmm6 vbroadcastss 0x10(%r15), %ymm8 vsubps %xmm5, %xmm3, %xmm3 vbroadcastss 0x14(%r15), %ymm9 vbroadcastss 0x18(%r15), %ymm1 vmovaps %ymm1, 0x3a0(%rsp) vsubps %xmm5, %xmm0, %xmm10 vsubps %xmm5, %xmm2, %xmm5 vbroadcastss %xmm6, %ymm0 vmovaps %ymm0, 0x760(%rsp) vbroadcastss 0x26dec2(%rip), %ymm0 # 0x1f12704 vpermps %ymm6, %ymm0, %ymm1 vmovaps %ymm1, 0x740(%rsp) vbroadcastss 0x27c683(%rip), %ymm1 # 0x1f20edc vpermps %ymm6, %ymm1, %ymm2 vmovaps %ymm2, 0x720(%rsp) vbroadcastss 0x27c668(%rip), %ymm2 # 0x1f20ed8 vmovaps %ymm6, 0x260(%rsp) vpermps %ymm6, %ymm2, %ymm6 vmovaps %ymm6, 0x700(%rsp) vbroadcastss %xmm10, %ymm6 vmovaps %ymm6, 0x6e0(%rsp) vpermps %ymm10, %ymm0, %ymm6 vmovaps %ymm6, 0x6c0(%rsp) vpermps %ymm10, %ymm1, %ymm6 vmovaps %ymm6, 0x6a0(%rsp) vmovaps %ymm10, 0x220(%rsp) vpermps %ymm10, %ymm2, %ymm6 vmovaps %ymm6, 0x680(%rsp) vbroadcastss %xmm3, %ymm6 vmovaps %ymm6, 0x660(%rsp) vpermps %ymm3, %ymm0, %ymm6 vmovaps %ymm6, 0x640(%rsp) vpermps %ymm3, %ymm1, %ymm6 vmovaps %ymm6, 0x620(%rsp) vmovaps %ymm3, 0x240(%rsp) vpermps %ymm3, %ymm2, %ymm3 vmovaps %ymm3, 0x600(%rsp) vbroadcastss %xmm5, %ymm3 vmovaps %ymm3, 0x5e0(%rsp) vpermps %ymm5, %ymm0, %ymm0 vmovaps %ymm0, 0x5c0(%rsp) vpermps %ymm5, %ymm1, %ymm0 vmovaps %ymm0, 0x5a0(%rsp) vmovaps %ymm5, 0x200(%rsp) vpermps %ymm5, %ymm2, %ymm0 vmovaps %ymm0, 0x580(%rsp) vmulps %xmm4, %xmm4, %xmm0 vpermps %ymm0, %ymm1, %ymm0 vmovaps %ymm9, 0x3c0(%rsp) vfmadd231ps %ymm9, %ymm9, %ymm0 # ymm0 = (ymm9 * ymm9) + ymm0 vmovaps %ymm8, 0x3e0(%rsp) vfmadd231ps %ymm8, %ymm8, %ymm0 # ymm0 = (ymm8 * ymm8) + ymm0 vmovaps %ymm0, 0x560(%rsp) vandps 0x27c542(%rip){1to8}, %ymm0, %ymm0 # 0x1f20ec4 vmovaps %ymm0, 0x480(%rsp) movl $0x1, %r11d xorl %r8d, %r8d vmovsd 0x247d54(%rip), %xmm4 # 0x1eec6f0 vbroadcastss 0x247d6e(%rip), %ymm26 # 0x1eec714 vmovaps %ymm7, 0x280(%rsp) vmovshdup %xmm4, %xmm0 # xmm0 = xmm4[1,1,3,3] vsubss %xmm4, %xmm0, %xmm0 vmulss 0x27c511(%rip), %xmm0, %xmm1 # 0x1f20ed0 vmovaps %xmm1, 0x60(%rsp) vmovaps %xmm4, 0x1a0(%rsp) vbroadcastss %xmm4, %ymm4 vbroadcastss %xmm0, %ymm0 vmovaps %ymm4, 0x160(%rsp) vmovaps %ymm0, 0xc0(%rsp) vfmadd231ps 0x27c52d(%rip), %ymm0, %ymm4 # ymm4 = (ymm0 * mem) + ymm4 vsubps %ymm4, %ymm26, %ymm7 vbroadcastss 0x27c4bd(%rip), %ymm26 # 0x1f20ec0 vxorps %ymm26, %ymm4, %ymm0 vmulps %ymm0, %ymm7, %ymm0 vmulps %ymm0, %ymm7, %ymm0 vmulps %ymm4, %ymm4, %ymm8 vbroadcastss 0x24c5ce(%rip), %ymm2 # 0x1ef0fec vmulps %ymm2, %ymm4, %ymm9 vbroadcastss 0x24c5d9(%rip), %ymm5 # 0x1ef1004 vaddps %ymm5, %ymm9, %ymm10 vmulps %ymm10, %ymm8, %ymm1 vbroadcastss 0x24c5ba(%rip), %ymm16 # 0x1ef0ff8 vaddps %ymm16, %ymm1, %ymm1 vmulps %ymm7, %ymm7, %ymm11 vmulps %ymm2, %ymm7, %ymm12 vaddps %ymm5, %ymm12, %ymm2 vmulps %ymm2, %ymm11, %ymm2 vaddps %ymm16, %ymm2, %ymm2 vxorps %ymm26, %ymm7, %ymm5 vmulps %ymm5, %ymm4, %ymm5 vmulps %ymm5, %ymm4, %ymm5 vbroadcastss 0x24810e(%rip), %ymm17 # 0x1eecb80 vmulps %ymm17, %ymm0, %ymm13 vmulps %ymm17, %ymm1, %ymm14 vmulps %ymm17, %ymm2, %ymm15 vmulps %ymm17, %ymm5, %ymm5 vmovaps 0x5e0(%rsp), %ymm31 vmulps %ymm5, %ymm31, %ymm0 vmovaps 0x5c0(%rsp), %ymm26 vmulps %ymm5, %ymm26, %ymm3 vmovaps 0x5a0(%rsp), %ymm6 vmulps %ymm5, %ymm6, %ymm2 vmovaps 0x580(%rsp), %ymm1 vmulps %ymm5, %ymm1, %ymm5 vmovaps 0x660(%rsp), %ymm27 vfmadd231ps %ymm27, %ymm15, %ymm0 # ymm0 = (ymm15 * ymm27) + ymm0 vmovaps 0x640(%rsp), %ymm28 vfmadd231ps %ymm28, %ymm15, %ymm3 # ymm3 = (ymm15 * ymm28) + ymm3 vmovaps 0x620(%rsp), %ymm29 vfmadd231ps %ymm29, %ymm15, %ymm2 # ymm2 = (ymm15 * ymm29) + ymm2 vmovaps 0x600(%rsp), %ymm30 vfmadd231ps %ymm15, %ymm30, %ymm5 # ymm5 = (ymm30 * ymm15) + ymm5 vmovaps 0x6e0(%rsp), %ymm22 vfmadd231ps %ymm22, %ymm14, %ymm0 # ymm0 = (ymm14 * ymm22) + ymm0 vmovaps 0x6c0(%rsp), %ymm23 vfmadd231ps %ymm23, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm23) + ymm3 vmovaps 0x6a0(%rsp), %ymm24 vfmadd231ps %ymm24, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm24) + ymm2 vmovaps 0x680(%rsp), %ymm25 vfmadd231ps %ymm14, %ymm25, %ymm5 # ymm5 = (ymm25 * ymm14) + ymm5 vmovaps 0x760(%rsp), %ymm18 vfmadd231ps %ymm18, %ymm13, %ymm0 # ymm0 = (ymm13 * ymm18) + ymm0 vmovaps 0x740(%rsp), %ymm19 vfmadd231ps %ymm19, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm19) + ymm3 vmovaps 0x720(%rsp), %ymm20 vfmadd231ps %ymm20, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm20) + ymm2 vmovaps 0x700(%rsp), %ymm21 vfmadd231ps %ymm13, %ymm21, %ymm5 # ymm5 = (ymm21 * ymm13) + ymm5 vaddps %ymm7, %ymm7, %ymm13 vmulps %ymm4, %ymm13, %ymm14 vsubps %ymm11, %ymm14, %ymm11 vaddps %ymm4, %ymm4, %ymm15 vmulps %ymm10, %ymm15, %ymm10 vmulps %ymm4, %ymm9, %ymm4 vaddps %ymm4, %ymm10, %ymm4 vaddps %ymm16, %ymm9, %ymm9 vmulps %ymm9, %ymm13, %ymm9 vmulps %ymm7, %ymm12, %ymm7 vsubps %ymm7, %ymm9, %ymm7 vsubps %ymm14, %ymm8, %ymm8 vmulps %ymm17, %ymm11, %ymm9 vmulps %ymm17, %ymm4, %ymm4 vmulps %ymm17, %ymm7, %ymm7 vmulps %ymm17, %ymm8, %ymm8 vmulps %ymm8, %ymm31, %ymm10 vmulps %ymm8, %ymm26, %ymm12 vbroadcastss 0x247b48(%rip), %ymm26 # 0x1eec714 vmulps %ymm6, %ymm8, %ymm13 vmulps %ymm1, %ymm8, %ymm8 vfmadd231ps %ymm27, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm27) + ymm10 vfmadd231ps %ymm28, %ymm7, %ymm12 # ymm12 = (ymm7 * ymm28) + ymm12 vfmadd231ps %ymm29, %ymm7, %ymm13 # ymm13 = (ymm7 * ymm29) + ymm13 vfmadd231ps %ymm7, %ymm30, %ymm8 # ymm8 = (ymm30 * ymm7) + ymm8 vfmadd231ps %ymm22, %ymm4, %ymm10 # ymm10 = (ymm4 * ymm22) + ymm10 vfmadd231ps %ymm23, %ymm4, %ymm12 # ymm12 = (ymm4 * ymm23) + ymm12 vfmadd231ps %ymm24, %ymm4, %ymm13 # ymm13 = (ymm4 * ymm24) + ymm13 vfmadd231ps %ymm4, %ymm25, %ymm8 # ymm8 = (ymm25 * ymm4) + ymm8 vfmadd231ps %ymm18, %ymm9, %ymm10 # ymm10 = (ymm9 * ymm18) + ymm10 vfmadd231ps %ymm19, %ymm9, %ymm12 # ymm12 = (ymm9 * ymm19) + ymm12 vfmadd231ps %ymm20, %ymm9, %ymm13 # ymm13 = (ymm9 * ymm20) + ymm13 vfmadd231ps %ymm9, %ymm21, %ymm8 # ymm8 = (ymm21 * ymm9) + ymm8 vbroadcastss 0x60(%rsp), %ymm4 vmulps %ymm4, %ymm10, %ymm11 vmulps %ymm4, %ymm12, %ymm12 vmulps %ymm4, %ymm13, %ymm13 vmulps %ymm4, %ymm8, %ymm6 vmovaps %ymm0, %ymm8 vmovaps 0x2bb0e1(%rip), %ymm7 # 0x1f5fd20 vxorps %xmm31, %xmm31, %xmm31 vpermt2ps %ymm31, %ymm7, %ymm8 vmovaps %ymm3, %ymm9 vpermt2ps %ymm31, %ymm7, %ymm9 vmovaps %ymm2, %ymm10 vpermt2ps %ymm31, %ymm7, %ymm10 vaddps %ymm6, %ymm5, %ymm4 vmaxps %ymm4, %ymm5, %ymm14 vminps %ymm4, %ymm5, %ymm4 vmovaps %ymm5, %ymm15 vpermt2ps %ymm31, %ymm7, %ymm15 vmovaps %ymm11, %ymm19 vpermt2ps %ymm31, %ymm7, %ymm19 vmovaps %ymm12, %ymm20 vpermt2ps %ymm31, %ymm7, %ymm20 vmovaps %ymm13, %ymm21 vpermt2ps %ymm31, %ymm7, %ymm21 vpermt2ps %ymm31, %ymm7, %ymm6 vsubps %ymm6, %ymm15, %ymm16 vsubps %ymm0, %ymm8, %ymm7 vsubps %ymm3, %ymm9, %ymm6 vsubps %ymm2, %ymm10, %ymm5 vmulps %ymm13, %ymm6, %ymm17 vfmsub231ps %ymm5, %ymm12, %ymm17 # ymm17 = (ymm12 * ymm5) - ymm17 vmulps %ymm11, %ymm5, %ymm18 vfmsub231ps %ymm7, %ymm13, %ymm18 # ymm18 = (ymm13 * ymm7) - ymm18 vmulps %ymm12, %ymm7, %ymm22 vfmsub231ps %ymm6, %ymm11, %ymm22 # ymm22 = (ymm11 * ymm6) - ymm22 vmulps %ymm22, %ymm22, %ymm22 vfmadd231ps %ymm18, %ymm18, %ymm22 # ymm22 = (ymm18 * ymm18) + ymm22 vfmadd231ps %ymm17, %ymm17, %ymm22 # ymm22 = (ymm17 * ymm17) + ymm22 vmulps %ymm5, %ymm5, %ymm17 vfmadd231ps %ymm6, %ymm6, %ymm17 # ymm17 = (ymm6 * ymm6) + ymm17 vfmadd231ps %ymm7, %ymm7, %ymm17 # ymm17 = (ymm7 * ymm7) + ymm17 vrcp14ps %ymm17, %ymm18 vmovaps %ymm18, %ymm23 vfnmadd213ps %ymm26, %ymm17, %ymm23 # ymm23 = -(ymm17 * ymm23) + ymm26 vfmadd132ps %ymm18, %ymm18, %ymm23 # ymm23 = (ymm23 * ymm18) + ymm18 vmulps %ymm23, %ymm22, %ymm18 vmulps %ymm21, %ymm6, %ymm22 vfmsub231ps %ymm5, %ymm20, %ymm22 # ymm22 = (ymm20 * ymm5) - ymm22 vmulps %ymm19, %ymm5, %ymm24 vfmsub231ps %ymm7, %ymm21, %ymm24 # ymm24 = (ymm21 * ymm7) - ymm24 vmulps %ymm20, %ymm7, %ymm25 vfmsub231ps %ymm6, %ymm19, %ymm25 # ymm25 = (ymm19 * ymm6) - ymm25 vmulps %ymm25, %ymm25, %ymm25 vfmadd231ps %ymm24, %ymm24, %ymm25 # ymm25 = (ymm24 * ymm24) + ymm25 vfmadd231ps %ymm22, %ymm22, %ymm25 # ymm25 = (ymm22 * ymm22) + ymm25 vmulps %ymm23, %ymm25, %ymm22 vmaxps %ymm22, %ymm18, %ymm18 vsqrtps %ymm18, %ymm18 vmaxps %ymm15, %ymm16, %ymm22 vmaxps %ymm22, %ymm14, %ymm14 vaddps %ymm14, %ymm18, %ymm14 vminps %ymm15, %ymm16, %ymm15 vminps %ymm15, %ymm4, %ymm4 vsubps %ymm18, %ymm4, %ymm4 vmulps 0x24bbb4(%rip){1to8}, %ymm14, %ymm14 # 0x1ef0940 vmulps 0x24bbae(%rip){1to8}, %ymm4, %ymm1 # 0x1ef0944 vmovaps %ymm1, 0x60(%rsp) vmulps %ymm14, %ymm14, %ymm4 vrsqrt14ps %ymm17, %ymm15 vmulps 0x24796b(%rip){1to8}, %ymm17, %ymm14 # 0x1eec71c vmulps %ymm14, %ymm15, %ymm14 vmulps %ymm15, %ymm15, %ymm16 vmulps %ymm14, %ymm16, %ymm14 vfmadd231ps 0x24794c(%rip){1to8}, %ymm15, %ymm14 # ymm14 = (ymm15 * mem) + ymm14 vmulps %ymm7, %ymm14, %ymm15 vmulps %ymm14, %ymm6, %ymm16 vmulps %ymm14, %ymm5, %ymm18 vmovaps %ymm0, 0x180(%rsp) vsubps %ymm0, %ymm31, %ymm27 vmovaps %ymm3, 0x2a0(%rsp) vsubps %ymm3, %ymm31, %ymm28 vmovaps %ymm2, 0xa0(%rsp) vsubps %ymm2, %ymm31, %ymm29 vmovaps 0x3a0(%rsp), %ymm17 vmulps %ymm29, %ymm17, %ymm22 vmovaps 0x3c0(%rsp), %ymm25 vfmadd231ps %ymm28, %ymm25, %ymm22 # ymm22 = (ymm25 * ymm28) + ymm22 vmovaps 0x3e0(%rsp), %ymm23 vfmadd231ps %ymm27, %ymm23, %ymm22 # ymm22 = (ymm23 * ymm27) + ymm22 vmulps %ymm29, %ymm29, %ymm24 vfmadd231ps %ymm28, %ymm28, %ymm24 # ymm24 = (ymm28 * ymm28) + ymm24 vfmadd231ps %ymm27, %ymm27, %ymm24 # ymm24 = (ymm27 * ymm27) + ymm24 vmulps %ymm18, %ymm17, %ymm17 vfmadd231ps %ymm25, %ymm16, %ymm17 # ymm17 = (ymm16 * ymm25) + ymm17 vfmadd231ps %ymm23, %ymm15, %ymm17 # ymm17 = (ymm15 * ymm23) + ymm17 vmulps %ymm18, %ymm29, %ymm18 vfmadd231ps %ymm16, %ymm28, %ymm18 # ymm18 = (ymm28 * ymm16) + ymm18 vfmadd231ps %ymm15, %ymm27, %ymm18 # ymm18 = (ymm27 * ymm15) + ymm18 vmulps %ymm17, %ymm17, %ymm2 vmovaps 0x560(%rsp), %ymm0 vsubps %ymm2, %ymm0, %ymm15 vmulps %ymm18, %ymm17, %ymm25 vsubps %ymm25, %ymm22, %ymm22 vaddps %ymm22, %ymm22, %ymm22 vmulps %ymm18, %ymm18, %ymm25 vsubps %ymm25, %ymm24, %ymm1 vsubps %ymm4, %ymm1, %ymm4 vmulps %ymm22, %ymm22, %ymm25 vmulps 0x247cde(%rip){1to8}, %ymm15, %ymm24 # 0x1eecb8c vmulps %ymm4, %ymm24, %ymm30 vsubps %ymm30, %ymm25, %ymm30 vcmpnltps %ymm31, %ymm30, %k1 kmovd %k1, %eax kortestb %k1, %k1 je 0x1ca4fac vsqrtps %ymm30, %ymm30 vaddps %ymm15, %ymm15, %ymm31 vrcp14ps %ymm31, %ymm3 vfnmadd213ps %ymm26, %ymm3, %ymm31 # ymm31 = -(ymm3 * ymm31) + ymm26 vfmadd132ps %ymm3, %ymm3, %ymm31 # ymm31 = (ymm31 * ymm3) + ymm3 vxorps 0x27bfc9(%rip){1to8}, %ymm22, %ymm3 # 0x1f20ec0 vsubps %ymm30, %ymm3, %ymm3 vmulps %ymm31, %ymm3, %ymm3 vsubps %ymm22, %ymm30, %ymm30 vmulps %ymm31, %ymm30, %ymm30 vmovaps %ymm17, %ymm31 vfmadd213ps %ymm18, %ymm3, %ymm31 # ymm31 = (ymm3 * ymm31) + ymm18 vmulps %ymm31, %ymm14, %ymm31 vmovaps %ymm31, 0x440(%rsp) vmovaps %ymm17, %ymm31 vfmadd213ps %ymm18, %ymm30, %ymm31 # ymm31 = (ymm30 * ymm31) + ymm18 vmulps %ymm31, %ymm14, %ymm31 vmovaps %ymm31, 0x420(%rsp) vbroadcastss 0x246ad3(%rip), %ymm16 # 0x1eeba20 vblendmps %ymm3, %ymm16, %ymm31 {%k1} vbroadcastss 0x247c28(%rip), %ymm3 # 0x1eecb84 vblendmps %ymm30, %ymm3, %ymm30 {%k1} vbroadcastss 0x27bf58(%rip), %ymm23 # 0x1f20ec4 vandps %ymm23, %ymm2, %ymm3 vmovaps 0x480(%rsp), %ymm0 vmaxps %ymm3, %ymm0, %ymm3 vmulps 0x24cf2b(%rip){1to8}, %ymm3, %ymm3 # 0x1ef1eb4 vandps %ymm23, %ymm15, %ymm23 vcmpltps %ymm3, %ymm23, %k1 {%k1} kortestb %k1, %k1 jne 0x1ca6dc9 vbroadcastss 0x24776a(%rip), %ymm26 # 0x1eec714 jmp 0x1ca4fc0 vbroadcastss 0x246a6a(%rip), %ymm31 # 0x1eeba20 vbroadcastss 0x247bc4(%rip), %ymm30 # 0x1eecb84 andb $0x7f, %al je 0x1ca53f5 vmovaps %ymm25, 0x360(%rsp) vmovaps %ymm26, %ymm16 vmovss 0xc(%r15), %xmm3 vmovss 0x20(%r15), %xmm4 vmovaps 0x2d0(%rsp), %xmm23 vsubss %xmm23, %xmm3, %xmm3 vbroadcastss %xmm3, %ymm3 vmaxps %ymm31, %ymm3, %ymm3 vsubss %xmm23, %xmm4, %xmm4 vbroadcastss %xmm4, %ymm4 vminps %ymm30, %ymm4, %ymm4 vmulps %ymm13, %ymm29, %ymm23 vfmadd213ps %ymm23, %ymm12, %ymm28 # ymm28 = (ymm12 * ymm28) + ymm23 vfmadd213ps %ymm28, %ymm11, %ymm27 # ymm27 = (ymm11 * ymm27) + ymm28 vmovaps 0x3a0(%rsp), %ymm25 vmulps %ymm13, %ymm25, %ymm13 vmovaps 0x3c0(%rsp), %ymm31 vfmadd231ps %ymm12, %ymm31, %ymm13 # ymm13 = (ymm31 * ymm12) + ymm13 vmovaps 0x3e0(%rsp), %ymm30 vfmadd231ps %ymm11, %ymm30, %ymm13 # ymm13 = (ymm30 * ymm11) + ymm13 vbroadcastss 0x27be72(%rip), %ymm28 # 0x1f20ec4 vandps %ymm28, %ymm13, %ymm11 vbroadcastss 0x24bf86(%rip), %ymm29 # 0x1ef0fe8 vcmpltps %ymm29, %ymm11, %k0 vbroadcastss 0x27be4d(%rip), %ymm26 # 0x1f20ec0 vxorps %ymm26, %ymm27, %ymm11 vrcp14ps %ymm13, %ymm12 vxorps %ymm26, %ymm13, %ymm23 vmovaps %ymm12, %ymm27 vfnmadd213ps %ymm16, %ymm13, %ymm27 # ymm27 = -(ymm13 * ymm27) + ymm16 vfmadd132ps %ymm12, %ymm12, %ymm27 # ymm27 = (ymm27 * ymm12) + ymm12 vmulps %ymm11, %ymm27, %ymm11 vcmpltps %ymm23, %ymm13, %k1 korb %k1, %k0, %k1 vbroadcastss 0x247ad2(%rip), %ymm27 # 0x1eecb84 vblendmps %ymm27, %ymm11, %ymm12 {%k1} vmaxps %ymm12, %ymm3, %ymm3 vcmpnleps %ymm23, %ymm13, %k1 korb %k1, %k0, %k1 vbroadcastss 0x24694e(%rip), %ymm23 # 0x1eeba20 vmovaps %ymm23, %ymm11 {%k1} vminps %ymm11, %ymm4, %ymm4 vxorps %xmm13, %xmm13, %xmm13 vsubps %ymm8, %ymm13, %ymm8 vsubps %ymm9, %ymm13, %ymm9 vsubps %ymm10, %ymm13, %ymm10 vmulps %ymm21, %ymm10, %ymm10 vfnmsub231ps %ymm9, %ymm20, %ymm10 # ymm10 = -(ymm20 * ymm9) - ymm10 vfnmadd231ps %ymm8, %ymm19, %ymm10 # ymm10 = -(ymm19 * ymm8) + ymm10 vmulps %ymm21, %ymm25, %ymm8 vfnmsub231ps %ymm20, %ymm31, %ymm8 # ymm8 = -(ymm31 * ymm20) - ymm8 vfnmadd231ps %ymm19, %ymm30, %ymm8 # ymm8 = -(ymm30 * ymm19) + ymm8 vandps %ymm28, %ymm8, %ymm9 vcmpltps %ymm29, %ymm9, %k0 vxorps %ymm26, %ymm10, %ymm9 vrcp14ps %ymm8, %ymm10 vxorps %ymm26, %ymm8, %ymm11 vmovaps %ymm10, %ymm12 vfnmadd213ps %ymm16, %ymm8, %ymm12 # ymm12 = -(ymm8 * ymm12) + ymm16 vfmadd132ps %ymm10, %ymm10, %ymm12 # ymm12 = (ymm12 * ymm10) + ymm10 vmulps %ymm9, %ymm12, %ymm9 vcmpltps %ymm11, %ymm8, %k1 korb %k1, %k0, %k1 vblendmps %ymm27, %ymm9, %ymm10 {%k1} vmaxps %ymm10, %ymm3, %ymm0 vcmpnleps %ymm11, %ymm8, %k1 korb %k1, %k0, %k1 vmovaps %ymm23, %ymm9 {%k1} vminps %ymm9, %ymm4, %ymm8 vmovaps %ymm0, 0x340(%rsp) vcmpleps %ymm8, %ymm0, %k0 kmovd %k0, %ecx andb %cl, %al je 0x1ca53ef vmovaps %ymm2, %ymm23 vmovaps 0x440(%rsp), %ymm3 vmaxps 0x60(%rsp), %ymm13, %ymm4 vminps %ymm16, %ymm3, %ymm3 vxorps %xmm10, %xmm10, %xmm10 vmaxps %ymm10, %ymm3, %ymm3 vmovaps 0x420(%rsp), %ymm9 vminps %ymm16, %ymm9, %ymm9 vmovaps 0x27bd73(%rip), %ymm11 # 0x1f20f40 vaddps %ymm3, %ymm11, %ymm3 vbroadcastss 0x2792de(%rip), %ymm12 # 0x1f1e4b8 vmulps %ymm3, %ymm12, %ymm3 vmovaps 0x160(%rsp), %ymm0 vmovaps 0xc0(%rsp), %ymm2 vfmadd213ps %ymm0, %ymm2, %ymm3 # ymm3 = (ymm2 * ymm3) + ymm0 vmovaps %ymm3, 0x440(%rsp) vmaxps %ymm10, %ymm9, %ymm3 vaddps %ymm3, %ymm11, %ymm3 vmulps %ymm3, %ymm12, %ymm3 vfmadd213ps %ymm0, %ymm2, %ymm3 # ymm3 = (ymm2 * ymm3) + ymm0 vmovaps %ymm3, 0x420(%rsp) vmulps %ymm4, %ymm4, %ymm3 vsubps %ymm3, %ymm1, %ymm11 vmulps %ymm11, %ymm24, %ymm3 vmovaps 0x360(%rsp), %ymm0 vsubps %ymm3, %ymm0, %ymm3 vcmpnltps %ymm10, %ymm3, %k0 kortestb %k0, %k0 vxorps %xmm4, %xmm4, %xmm4 movq %r8, 0x118(%rsp) je 0x1ca5518 vxorps %xmm20, %xmm20, %xmm20 vcmpnltps %ymm4, %ymm3, %k1 vsqrtps %ymm3, %ymm3 vaddps %ymm15, %ymm15, %ymm4 vrcp14ps %ymm4, %ymm9 vfnmadd213ps %ymm16, %ymm9, %ymm4 # ymm4 = -(ymm9 * ymm4) + ymm16 vfmadd132ps %ymm9, %ymm9, %ymm4 # ymm4 = (ymm4 * ymm9) + ymm9 vxorps 0x27bc3e(%rip){1to8}, %ymm22, %ymm9 # 0x1f20ec0 vsubps %ymm3, %ymm9, %ymm9 vmulps %ymm4, %ymm9, %ymm12 vsubps %ymm22, %ymm3, %ymm3 vmulps %ymm4, %ymm3, %ymm13 vmovaps %ymm17, %ymm3 vfmadd213ps %ymm18, %ymm12, %ymm3 # ymm3 = (ymm12 * ymm3) + ymm18 vmulps %ymm3, %ymm14, %ymm9 vmovaps 0x3e0(%rsp), %ymm16 vmulps %ymm12, %ymm16, %ymm3 vmovaps 0x3c0(%rsp), %ymm21 vmulps %ymm12, %ymm21, %ymm4 vmovaps 0x3a0(%rsp), %ymm22 vmulps %ymm12, %ymm22, %ymm10 vmovaps %ymm7, %ymm19 vmovaps 0x180(%rsp), %ymm2 vfmadd213ps %ymm2, %ymm9, %ymm19 # ymm19 = (ymm9 * ymm19) + ymm2 vsubps %ymm19, %ymm3, %ymm3 vmovaps %ymm6, %ymm19 vmovaps 0x2a0(%rsp), %ymm1 vfmadd213ps %ymm1, %ymm9, %ymm19 # ymm19 = (ymm9 * ymm19) + ymm1 vsubps %ymm19, %ymm4, %ymm4 vmovaps 0xa0(%rsp), %ymm0 vfmadd213ps %ymm0, %ymm5, %ymm9 # ymm9 = (ymm5 * ymm9) + ymm0 vsubps %ymm9, %ymm10, %ymm9 vfmadd213ps %ymm18, %ymm13, %ymm17 # ymm17 = (ymm13 * ymm17) + ymm18 vmulps %ymm17, %ymm14, %ymm14 vmulps %ymm13, %ymm16, %ymm10 vmulps %ymm13, %ymm21, %ymm17 vmulps %ymm13, %ymm22, %ymm18 vfmadd213ps %ymm2, %ymm14, %ymm7 # ymm7 = (ymm14 * ymm7) + ymm2 vsubps %ymm7, %ymm10, %ymm10 vfmadd213ps %ymm1, %ymm14, %ymm6 # ymm6 = (ymm14 * ymm6) + ymm1 vsubps %ymm6, %ymm17, %ymm1 vfmadd213ps %ymm0, %ymm14, %ymm5 # ymm5 = (ymm14 * ymm5) + ymm0 vsubps %ymm5, %ymm18, %ymm5 vbroadcastss 0x2466c3(%rip), %ymm0 # 0x1eeba20 vblendmps %ymm12, %ymm0, %ymm2 {%k1} vbroadcastss 0x247818(%rip), %ymm0 # 0x1eecb84 vblendmps %ymm13, %ymm0, %ymm0 {%k1} vbroadcastss 0x27bb49(%rip), %ymm7 # 0x1f20ec4 vandps %ymm7, %ymm23, %ymm6 vmovaps 0x480(%rsp), %ymm12 vmaxps %ymm6, %ymm12, %ymm6 vmulps 0x24cb1c(%rip){1to8}, %ymm6, %ymm6 # 0x1ef1eb4 vandps %ymm7, %ymm15, %ymm7 vcmpltps %ymm6, %ymm7, %k1 {%k1} kortestb %k1, %k1 je 0x1ca553b vcmpleps %ymm20, %ymm11, %k2 vbroadcastss 0x2477c7(%rip), %ymm7 # 0x1eecb84 vbroadcastss 0x24665a(%rip), %ymm11 # 0x1eeba20 vblendmps %ymm7, %ymm11, %ymm6 {%k2} vmovaps %ymm6, %ymm2 {%k1} vblendmps %ymm11, %ymm7, %ymm6 {%k2} vmovaps %ymm6, %ymm0 {%k1} knotb %k1, %k1 korb %k2, %k1, %k1 kandb %k0, %k1, %k0 jmp 0x1ca553b vmovaps %ymm16, %ymm26 vxorps %xmm12, %xmm12, %xmm12 vmovaps 0x280(%rsp), %ymm7 vmovaps 0x1a0(%rsp), %xmm4 vbroadcastss 0x20(%r15), %ymm0 movl %r8d, %eax testl %eax, %eax je 0x1ca6e16 leal -0x1(%rax), %r8d leaq (%r8,%r8,2), %rcx shlq $0x5, %rcx movzbl 0x780(%rsp,%rcx), %esi vmovaps 0x7a0(%rsp,%rcx), %ymm1 vaddps %ymm1, %ymm7, %ymm2 vcmpleps %ymm0, %ymm2, %k0 kmovb %k0, %edx andl %esi, %edx je 0x1ca5508 kmovd %edx, %k1 vbroadcastss 0x2465c2(%rip), %ymm2 # 0x1eeba20 vblendmps %ymm1, %ymm2, %ymm1 {%k1} vshufps $0xb1, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2,5,4,7,6] vminps %ymm2, %ymm1, %ymm2 vshufpd $0x5, %ymm2, %ymm2, %ymm3 # ymm3 = ymm2[1,0,3,2] vminps %ymm3, %ymm2, %ymm2 vpermpd $0x4e, %ymm2, %ymm3 # ymm3 = ymm2[2,3,0,1] vminps %ymm3, %ymm2, %ymm2 vcmpeqps %ymm2, %ymm1, %k0 kmovd %k0, %esi andb %dl, %sil je 0x1ca5496 movzbl %sil, %edi jmp 0x1ca5499 movzbl %dl, %edi leaq (%rsp,%rcx), %rsi addq $0x780, %rsi # imm = 0x780 vmovss 0x44(%rsi), %xmm1 tzcntl %edi, %ecx movb $0x1, %dil shlb %cl, %dil movl 0x48(%rsi), %r11d movzbl %dil, %edi kmovd %edi, %k0 kmovd %edx, %k1 kandnb %k1, %k0, %k0 kmovb %k0, (%rsi) kortestb %k0, %k0 vbroadcastss 0x24723b(%rip), %ymm26 # 0x1eec714 je 0x1ca54de movl %eax, %r8d vbroadcastss 0x40(%rsi), %ymm2 vsubss %xmm2, %xmm1, %xmm1 vbroadcastss %xmm1, %ymm1 vfmadd132ps 0x27ba2a(%rip), %ymm2, %ymm1 # ymm1 = (ymm1 * mem) + ymm2 vmovaps %ymm1, 0x4a0(%rsp) vmovsd 0x4a0(%rsp,%rcx,4), %xmm4 movl %r8d, %eax testb %dl, %dl je 0x1ca5415 jmp 0x1ca49af vxorps %xmm1, %xmm1, %xmm1 vxorps %xmm5, %xmm5, %xmm5 vxorps %xmm3, %xmm3, %xmm3 vxorps %xmm9, %xmm9, %xmm9 vbroadcastss 0x2464ee(%rip), %ymm2 # 0x1eeba20 vbroadcastss 0x247649(%rip), %ymm0 # 0x1eecb84 vxorps %xmm12, %xmm12, %xmm12 vbroadcastss 0x27b97b(%rip), %xmm13 # 0x1f20ec4 vbroadcastss 0x10(%r15), %ymm6 vbroadcastss 0x14(%r15), %ymm7 vbroadcastss 0x18(%r15), %ymm11 vmulps %ymm5, %ymm11, %ymm5 vfmadd231ps %ymm1, %ymm7, %ymm5 # ymm5 = (ymm7 * ymm1) + ymm5 vfmadd231ps %ymm10, %ymm6, %ymm5 # ymm5 = (ymm6 * ymm10) + ymm5 vmovaps 0x340(%rsp), %ymm14 vmovaps %ymm14, 0x4a0(%rsp) vminps %ymm2, %ymm8, %ymm1 vmovaps %ymm1, 0x4c0(%rsp) vbroadcastss 0x27b933(%rip), %ymm10 # 0x1f20ec4 vandps %ymm5, %ymm10, %ymm2 vmaxps %ymm0, %ymm14, %ymm5 vmovaps %ymm5, 0x4e0(%rsp) vmovaps %ymm8, 0x500(%rsp) vbroadcastss 0x27b920(%rip), %ymm0 # 0x1f20ed4 vcmpltps %ymm0, %ymm2, %k1 kmovd %k1, 0x15c(%rsp) vcmpleps %ymm1, %ymm14, %k1 kmovd %k1, %ecx andb %al, %cl vmovaps %ymm5, 0x380(%rsp) vcmpleps %ymm8, %ymm5, %k1 kmovd %k1, %edx andb %al, %dl movl %edx, %eax orb %cl, %al je 0x1ca6d7a vmovaps %ymm0, %ymm2 movl %edx, 0x28(%rsp) movq %r10, 0x1f8(%rsp) knotb %k0, %k1 vmulps %ymm11, %ymm9, %ymm0 vfmadd213ps %ymm0, %ymm7, %ymm4 # ymm4 = (ymm7 * ymm4) + ymm0 vfmadd213ps %ymm4, %ymm6, %ymm3 # ymm3 = (ymm6 * ymm3) + ymm4 vandps %ymm3, %ymm10, %ymm0 vcmpltps %ymm2, %ymm0, %k0 kmovd %k1, 0x154(%rsp) korb %k1, %k0, %k1 vpbroadcastd 0x27b8a5(%rip), %ymm0 # 0x1f20edc vpblendmd 0x27b897(%rip){1to8}, %ymm0, %ymm0 {%k1} # 0x1f20ed8 movq %r11, 0x1f0(%rsp) vpbroadcastd %r11d, %ymm1 vmovdqa %ymm0, 0x520(%rsp) vmovdqa %ymm1, 0x460(%rsp) vpcmpnltd %ymm0, %ymm1, %k0 kmovd %k0, %ebx movl %ecx, 0x158(%rsp) andb %cl, %bl je 0x1ca6154 vmovaps 0x260(%rsp), %ymm1 vmovaps 0x220(%rsp), %ymm2 vminps %xmm2, %xmm1, %xmm0 vmaxps %xmm2, %xmm1, %xmm1 vmovaps 0x240(%rsp), %ymm3 vmovaps 0x200(%rsp), %ymm4 vminps %xmm4, %xmm3, %xmm2 vminps %xmm2, %xmm0, %xmm0 vmaxps %xmm4, %xmm3, %xmm2 vmaxps %xmm2, %xmm1, %xmm1 vandps %xmm0, %xmm13, %xmm0 vandps %xmm1, %xmm13, %xmm2 vmaxps %xmm2, %xmm0, %xmm0 vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3] vmaxss %xmm0, %xmm2, %xmm2 vshufpd $0x1, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[1,0] vmaxss %xmm2, %xmm0, %xmm0 vmulss 0x24c7d8(%rip), %xmm0, %xmm0 # 0x1ef1eb4 vmovss %xmm0, 0x38(%rsp) vshufps $0xff, %xmm1, %xmm1, %xmm0 # xmm0 = xmm1[3,3,3,3] vmovaps %xmm0, 0x2c0(%rsp) vmovaps 0x340(%rsp), %ymm0 vaddps 0x280(%rsp), %ymm0, %ymm0 vmovaps %ymm0, 0x400(%rsp) kmovd %ebx, %k1 vbroadcastss 0x246308(%rip), %ymm0 # 0x1eeba20 vblendmps 0x340(%rsp), %ymm0, %ymm0 {%k1} vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm0, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1] vminps %ymm2, %ymm1, %ymm1 vcmpeqps %ymm1, %ymm0, %k0 kmovd %k0, %eax andb %bl, %al movzbl %al, %eax movzbl %bl, %ecx cmovnel %eax, %ecx tzcntl %ecx, %ecx movb $0x1, %bl shlb %cl, %bl shll $0x2, %ecx vmovss 0x440(%rsp,%rcx), %xmm9 vmovss 0x4a0(%rsp,%rcx), %xmm8 vmovaps 0x10(%r15), %xmm0 vmovaps %xmm0, 0x2a0(%rsp) vdpps $0x7f, %xmm0, %xmm0, %xmm0 vucomiss 0x246298(%rip), %xmm0 # 0x1eeba24 jb 0x1ca5794 vsqrtss %xmm0, %xmm0, %xmm0 jmp 0x1ca57d1 vmovaps %xmm9, 0x60(%rsp) vmovaps %xmm8, 0xa0(%rsp) kmovw %k1, 0x160(%rsp) vzeroupper callq 0x6aa20 kmovw 0x160(%rsp), %k1 vmovaps 0xa0(%rsp), %xmm8 vmovaps 0x60(%rsp), %xmm9 vxorps %xmm12, %xmm12, %xmm12 movzbl %bl, %eax kmovd %eax, %k0 kandnb %k1, %k0, %k0 kmovd %k0, %ebx vmulss 0x24c6cc(%rip), %xmm0, %xmm0 # 0x1ef1eb4 vmovss %xmm0, 0x3c(%rsp) movl $0x4, %r12d vmovaps %xmm8, 0xa0(%rsp) vbroadcastss %xmm8, %xmm0 vfmadd132ps 0x2a0(%rsp), %xmm12, %xmm0 # xmm0 = (xmm0 * mem) + xmm12 vmovss 0x246f00(%rip), %xmm1 # 0x1eec714 vsubss %xmm9, %xmm1, %xmm11 vbroadcastss 0x27b69e(%rip), %xmm6 # 0x1f20ec0 vxorps %xmm6, %xmm9, %xmm1 vmulss %xmm1, %xmm11, %xmm1 vmulss %xmm1, %xmm11, %xmm1 vmulss %xmm9, %xmm9, %xmm13 vmovss 0x24b7b1(%rip), %xmm8 # 0x1ef0fec vmovaps %xmm8, %xmm10 vmovss 0x24b7bc(%rip), %xmm7 # 0x1ef1004 vfmadd213ss %xmm7, %xmm9, %xmm10 # xmm10 = (xmm9 * xmm10) + xmm7 vmovaps %xmm10, %xmm2 vmovss 0x24b79f(%rip), %xmm5 # 0x1ef0ff8 vfmadd213ss %xmm5, %xmm13, %xmm2 # xmm2 = (xmm13 * xmm2) + xmm5 vmulss %xmm11, %xmm11, %xmm3 vmovaps %xmm8, %xmm4 vfmadd213ss %xmm7, %xmm11, %xmm4 # xmm4 = (xmm11 * xmm4) + xmm7 vfmadd213ss %xmm5, %xmm3, %xmm4 # xmm4 = (xmm3 * xmm4) + xmm5 vxorps %xmm6, %xmm11, %xmm3 vmulss %xmm3, %xmm9, %xmm3 vmulss %xmm3, %xmm9, %xmm3 vmovss 0x2472fb(%rip), %xmm5 # 0x1eecb80 vmulss %xmm5, %xmm1, %xmm1 vmulss %xmm5, %xmm2, %xmm2 vmulss %xmm5, %xmm4, %xmm4 vmulss %xmm5, %xmm3, %xmm3 vbroadcastss %xmm3, %xmm3 vmulps 0x200(%rsp), %xmm3, %xmm3 vbroadcastss %xmm4, %xmm4 vfmadd132ps 0x240(%rsp), %xmm3, %xmm4 # xmm4 = (xmm4 * mem) + xmm3 vbroadcastss %xmm2, %xmm2 vfmadd132ps 0x220(%rsp), %xmm4, %xmm2 # xmm2 = (xmm2 * mem) + xmm4 vbroadcastss %xmm1, %xmm3 vfmadd132ps 0x260(%rsp), %xmm2, %xmm3 # xmm3 = (xmm3 * mem) + xmm2 vmulss 0x24b104(%rip), %xmm11, %xmm6 # 0x1ef09dc vfmadd231ss 0x24b727(%rip), %xmm9, %xmm7 # xmm7 = (xmm9 * mem) + xmm7 vmovaps %xmm7, 0x330(%rsp) vmovss 0x24b71a(%rip), %xmm1 # 0x1ef100c vfmadd213ss 0x247291(%rip), %xmm9, %xmm1 # xmm1 = (xmm9 * xmm1) + mem vmovaps %xmm1, 0x320(%rsp) vfmadd213ss 0x24b0bf(%rip), %xmm9, %xmm8 # xmm8 = (xmm9 * xmm8) + mem vmovaps %xmm8, 0x310(%rsp) vmovaps %xmm3, 0x360(%rsp) vsubps %xmm3, %xmm0, %xmm0 vmovaps %xmm0, 0x160(%rsp) vdpps $0x7f, %xmm0, %xmm0, %xmm0 vucomiss 0x2460ea(%rip), %xmm0 # 0x1eeba24 vmovaps %xmm9, 0x60(%rsp) vmovaps %xmm0, 0xc0(%rsp) jb 0x1ca5951 vsqrtss %xmm0, %xmm0, %xmm7 jmp 0x1ca59aa vmovss %xmm10, 0x180(%rsp) vmovaps %xmm11, 0x80(%rsp) vmovss %xmm13, 0x50(%rsp) vmovss %xmm6, 0x100(%rsp) vzeroupper callq 0x6aa20 vmovss 0x100(%rsp), %xmm6 vmovss 0x50(%rsp), %xmm13 vmovaps 0x80(%rsp), %xmm11 vmovss 0x180(%rsp), %xmm10 vmovaps 0x60(%rsp), %xmm9 vxorps %xmm12, %xmm12, %xmm12 vmovaps %xmm0, %xmm7 vaddss %xmm11, %xmm11, %xmm0 vmulss %xmm0, %xmm9, %xmm1 vfnmadd231ss %xmm11, %xmm11, %xmm1 # xmm1 = -(xmm11 * xmm11) + xmm1 vaddss %xmm9, %xmm9, %xmm2 vmovss 0x24b627(%rip), %xmm4 # 0x1ef0fec vmulss %xmm4, %xmm9, %xmm3 vmulss %xmm3, %xmm9, %xmm3 vfmadd213ss %xmm3, %xmm2, %xmm10 # xmm10 = (xmm2 * xmm10) + xmm3 vmovaps %xmm4, %xmm2 vmovss 0x24b61a(%rip), %xmm4 # 0x1ef0ff8 vfmadd213ss %xmm4, %xmm9, %xmm2 # xmm2 = (xmm9 * xmm2) + xmm4 vmulss 0x24b605(%rip), %xmm11, %xmm3 # 0x1ef0ff0 vmulss %xmm3, %xmm11, %xmm3 vfmadd231ss %xmm2, %xmm0, %xmm3 # xmm3 = (xmm0 * xmm2) + xmm3 vfmadd213ss %xmm13, %xmm9, %xmm6 # xmm6 = (xmm9 * xmm6) + xmm13 vmovss 0x24717f(%rip), %xmm5 # 0x1eecb80 vmulss %xmm5, %xmm1, %xmm0 vmulss %xmm5, %xmm10, %xmm1 vmulss %xmm5, %xmm3, %xmm2 vmulss %xmm5, %xmm6, %xmm3 vbroadcastss %xmm3, %xmm3 vmulps 0x200(%rsp), %xmm3, %xmm3 vbroadcastss %xmm2, %xmm2 vfmadd132ps 0x240(%rsp), %xmm3, %xmm2 # xmm2 = (xmm2 * mem) + xmm3 vbroadcastss %xmm1, %xmm1 vfmadd132ps 0x220(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2 vbroadcastss %xmm0, %xmm14 vfmadd132ps 0x260(%rsp), %xmm1, %xmm14 # xmm14 = (xmm14 * mem) + xmm1 vdpps $0x7f, %xmm14, %xmm14, %xmm0 vmovss %xmm0, %xmm12, %xmm1 # xmm1 = xmm0[0],xmm12[1,2,3] vrsqrt14ss %xmm1, %xmm12, %xmm3 vmulss 0x246cb4(%rip), %xmm3, %xmm5 # 0x1eec718 vmulss 0x246cb0(%rip), %xmm0, %xmm6 # 0x1eec71c vrcp14ss %xmm1, %xmm12, %xmm2 vxorps 0x27b444(%rip){1to4}, %xmm0, %xmm1 # 0x1f20ec0 vmovaps %xmm2, 0x300(%rsp) vfnmadd213ss %xmm4, %xmm0, %xmm2 # xmm2 = -(xmm0 * xmm2) + xmm4 vmovss %xmm2, 0x40(%rsp) vucomiss %xmm1, %xmm0 vmovaps %xmm14, 0x180(%rsp) vmovss %xmm7, 0x80(%rsp) vmovaps %xmm0, 0x100(%rsp) jb 0x1ca5ab9 vsqrtss %xmm0, %xmm0, %xmm16 jmp 0x1ca5b08 vmovaps %xmm3, 0x50(%rsp) vmovss %xmm5, 0xf0(%rsp) vmovss %xmm6, 0x1c(%rsp) vzeroupper callq 0x6aa20 vmovss 0x1c(%rsp), %xmm6 vmovss 0xf0(%rsp), %xmm5 vmovaps 0x50(%rsp), %xmm3 vmovss 0x80(%rsp), %xmm7 vmovaps 0x180(%rsp), %xmm14 vxorps %xmm12, %xmm12, %xmm12 vmovaps %xmm0, %xmm16 vmovaps 0x160(%rsp), %xmm10 vmovaps 0xc0(%rsp), %xmm11 vmulss %xmm3, %xmm6, %xmm0 vmulss %xmm3, %xmm3, %xmm1 vmulss %xmm1, %xmm0, %xmm0 vaddss %xmm0, %xmm5, %xmm0 vbroadcastss %xmm0, %xmm4 vmulps %xmm4, %xmm14, %xmm0 vmovaps %xmm0, 0xf0(%rsp) vdpps $0x7f, %xmm0, %xmm10, %xmm0 vaddss 0x246bca(%rip), %xmm7, %xmm15 # 0x1eec714 vmovaps %xmm0, 0x50(%rsp) vmulps %xmm0, %xmm0, %xmm0 vsubps %xmm0, %xmm11, %xmm0 vmovss %xmm0, %xmm12, %xmm1 # xmm1 = xmm0[0],xmm12[1,2,3] vrsqrt14ss %xmm1, %xmm12, %xmm18 vmulss 0x246bac(%rip), %xmm18, %xmm17 # 0x1eec718 vmulss 0x246ba6(%rip), %xmm0, %xmm19 # 0x1eec71c vucomiss 0x245ea6(%rip), %xmm0 # 0x1eeba24 jb 0x1ca5b89 vsqrtss %xmm0, %xmm0, %xmm0 jmp 0x1ca5c13 vmovss %xmm15, 0x1c(%rsp) vmovss %xmm16, 0x34(%rsp) vmovss %xmm17, 0x30(%rsp) vmovaps %xmm18, 0x2f0(%rsp) vmovss %xmm19, 0x2c(%rsp) vmovaps %xmm4, 0x2e0(%rsp) vzeroupper callq 0x6aa20 vmovaps 0x2e0(%rsp), %xmm4 vmovss 0x2c(%rsp), %xmm19 vmovaps 0x2f0(%rsp), %xmm18 vmovss 0x30(%rsp), %xmm17 vmovss 0x34(%rsp), %xmm16 vmovss 0x1c(%rsp), %xmm15 vmovss 0x80(%rsp), %xmm7 vmovaps 0x180(%rsp), %xmm14 vmovaps 0xc0(%rsp), %xmm11 vmovaps 0x160(%rsp), %xmm10 vbroadcastss 0x27b2a8(%rip), %xmm13 # 0x1f20ec4 vmovaps 0x60(%rsp), %xmm9 vmovaps 0xa0(%rsp), %xmm8 vbroadcastss 0x310(%rsp), %xmm1 vmulps 0x200(%rsp), %xmm1, %xmm1 vbroadcastss 0x320(%rsp), %xmm2 vfmadd132ps 0x240(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1 vbroadcastss 0x330(%rsp), %xmm1 vfmadd132ps 0x220(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2 vmovss 0x24b382(%rip), %xmm2 # 0x1ef0ff0 vfmadd213ss 0x24b381(%rip), %xmm9, %xmm2 # xmm2 = (xmm9 * xmm2) + mem vbroadcastss %xmm2, %xmm2 vfmadd132ps 0x260(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1 vbroadcastss 0x100(%rsp), %xmm1 vmulps %xmm1, %xmm2, %xmm1 vdpps $0x7f, %xmm2, %xmm14, %xmm2 vbroadcastss %xmm2, %xmm2 vmulps %xmm2, %xmm14, %xmm2 vsubps %xmm2, %xmm1, %xmm1 vmovss 0x40(%rsp), %xmm2 vmulss 0x300(%rsp), %xmm2, %xmm2 vmulss 0x3c(%rsp), %xmm8, %xmm3 vbroadcastss %xmm2, %xmm2 vmulps %xmm2, %xmm1, %xmm1 vxorps 0x27b1f1(%rip){1to4}, %xmm14, %xmm2 # 0x1f20ec0 vmulps %xmm1, %xmm4, %xmm4 vmovaps 0xf0(%rsp), %xmm12 vdpps $0x7f, %xmm12, %xmm2, %xmm5 vmovss 0x38(%rsp), %xmm6 vmaxss %xmm3, %xmm6, %xmm1 vdivss %xmm16, %xmm6, %xmm3 vdpps $0x7f, %xmm4, %xmm10, %xmm4 vfmadd213ss %xmm1, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm7) + xmm1 vfmadd213ss %xmm7, %xmm3, %xmm15 # xmm15 = (xmm3 * xmm15) + xmm7 vmovaps 0x2a0(%rsp), %xmm7 vdpps $0x7f, %xmm12, %xmm7, %xmm3 vaddss %xmm4, %xmm5, %xmm4 vdpps $0x7f, %xmm2, %xmm10, %xmm5 vmulss %xmm18, %xmm19, %xmm2 vmulss %xmm18, %xmm18, %xmm6 vmulss %xmm6, %xmm2, %xmm2 vdpps $0x7f, %xmm7, %xmm10, %xmm6 vaddss %xmm2, %xmm17, %xmm7 vmovaps 0x50(%rsp), %xmm16 vfnmadd231ss %xmm4, %xmm16, %xmm5 # xmm5 = -(xmm16 * xmm4) + xmm5 vfnmadd231ss %xmm3, %xmm16, %xmm6 # xmm6 = -(xmm16 * xmm3) + xmm6 vpermilps $0xff, 0x360(%rsp), %xmm2 # xmm2 = mem[3,3,3,3] vsubss %xmm2, %xmm0, %xmm2 vshufps $0xff, %xmm14, %xmm14, %xmm0 # xmm0 = xmm14[3,3,3,3] vfmsub213ss %xmm0, %xmm7, %xmm5 # xmm5 = (xmm7 * xmm5) - xmm0 vmulss %xmm7, %xmm6, %xmm6 vmulss %xmm5, %xmm3, %xmm7 vfmsub231ss %xmm6, %xmm4, %xmm7 # xmm7 = (xmm4 * xmm6) - xmm7 vdivss %xmm7, %xmm6, %xmm6 vdivss %xmm7, %xmm5, %xmm5 vdivss %xmm7, %xmm3, %xmm3 vdivss %xmm7, %xmm4, %xmm4 vmulss %xmm6, %xmm16, %xmm6 vmulss %xmm3, %xmm2, %xmm3 vsubss %xmm3, %xmm6, %xmm3 vmulss %xmm5, %xmm16, %xmm5 vmulss %xmm4, %xmm2, %xmm4 vsubss %xmm5, %xmm4, %xmm4 vsubss %xmm3, %xmm9, %xmm9 vsubss %xmm4, %xmm8, %xmm8 vandps %xmm13, %xmm16, %xmm3 vucomiss %xmm3, %xmm15 jbe 0x1ca5f22 vaddss %xmm1, %xmm15, %xmm1 vmovaps 0x2c0(%rsp), %xmm3 vfmadd231ss 0x24c0e8(%rip), %xmm3, %xmm1 # xmm1 = (xmm3 * mem) + xmm1 vandps %xmm2, %xmm13, %xmm2 vucomiss %xmm2, %xmm1 vxorps %xmm12, %xmm12, %xmm12 jbe 0x1ca5f2c vaddss 0x2d0(%rsp), %xmm8, %xmm8 vucomiss 0xc(%r15), %xmm8 movb $0x1, %r14b jb 0x1ca5f2f vmovss 0x20(%r15), %xmm4 vucomiss %xmm8, %xmm4 jb 0x1ca5f2f vucomiss 0x245c14(%rip), %xmm9 # 0x1eeba24 jb 0x1ca5f2f vmovss 0x2468f6(%rip), %xmm1 # 0x1eec714 vucomiss %xmm9, %xmm1 jb 0x1ca5f2f vmovss %xmm11, %xmm12, %xmm1 vrsqrt14ss %xmm1, %xmm12, %xmm1 vmulss 0x2468dd(%rip), %xmm1, %xmm2 # 0x1eec718 vmulss 0x2468d9(%rip), %xmm11, %xmm3 # 0x1eec71c movq (%r13), %rax movq 0x1e8(%rax), %rax movq %r13, %rcx movq 0x48(%rsp), %rdx movq (%rax,%rdx,8), %r13 movl 0x24(%r15), %eax testl %eax, 0x34(%r13) je 0x1ca5f4c vmulss %xmm1, %xmm3, %xmm3 vmulss %xmm1, %xmm1, %xmm1 vmulss %xmm1, %xmm3, %xmm1 vaddss %xmm1, %xmm2, %xmm1 vbroadcastss %xmm1, %xmm1 vmulps %xmm1, %xmm10, %xmm1 vfmadd213ps %xmm14, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm0) + xmm14 vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3] vshufps $0xc9, %xmm14, %xmm14, %xmm3 # xmm3 = xmm14[1,2,0,3] vmulps %xmm3, %xmm1, %xmm1 vfmsub231ps %xmm2, %xmm14, %xmm1 # xmm1 = (xmm14 * xmm2) - xmm1 vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3] vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3] vshufps $0xd2, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,0,1,3] vmulps %xmm1, %xmm0, %xmm0 vfmsub231ps %xmm3, %xmm2, %xmm0 # xmm0 = (xmm2 * xmm3) - xmm0 movq 0x10(%rcx), %rax cmpq $0x0, 0x10(%rax) jne 0x1ca5f51 cmpq $0x0, 0x40(%r13) jne 0x1ca5f51 vmovss %xmm8, 0x20(%r15) vshufps $0xe9, %xmm0, %xmm0, %xmm1 # xmm1 = xmm0[1,2,2,3] vmovlps %xmm1, 0x30(%r15) vmovss %xmm0, 0x38(%r15) vmovss %xmm9, 0x3c(%r15) movl $0x0, 0x40(%r15) movq 0x98(%rsp), %rax movl %eax, 0x44(%r15) movq 0x48(%rsp), %rax movl %eax, 0x48(%r15) movq 0x20(%rsp), %r13 movq 0x8(%r13), %rax movl (%rax), %eax movl %eax, 0x4c(%r15) movq 0x8(%r13), %rax movl 0x4(%rax), %eax movl %eax, 0x50(%r15) jmp 0x1ca5f2f xorl %r14d, %r14d vxorps %xmm12, %xmm12, %xmm12 jmp 0x1ca5f2f xorl %r14d, %r14d subq $0x1, %r12 setb %al testb %r14b, %r14b jne 0x1ca6137 testb %al, %al je 0x1ca57f4 jmp 0x1ca6137 movq %rcx, %r13 jmp 0x1ca5f2f movq 0x20(%rsp), %rdx movq 0x8(%rdx), %rax vshufps $0xe9, %xmm0, %xmm0, %xmm1 # xmm1 = xmm0[1,2,2,3] vmovlps %xmm1, 0x1b0(%rsp) vmovss %xmm0, 0x1b8(%rsp) vmovss %xmm9, 0x1bc(%rsp) movl $0x0, 0x1c0(%rsp) movq 0x98(%rsp), %rcx movl %ecx, 0x1c4(%rsp) movq 0x48(%rsp), %rcx movl %ecx, 0x1c8(%rsp) movl (%rax), %ecx movl %ecx, 0x1cc(%rsp) movl 0x4(%rax), %eax movl %eax, 0x1d0(%rsp) vmovss %xmm8, 0x20(%r15) movl $0xffffffff, 0x44(%rsp) # imm = 0xFFFFFFFF leaq 0x44(%rsp), %rax movq %rax, 0x120(%rsp) movq 0x18(%r13), %rax movq %rax, 0x128(%rsp) movq 0x8(%rdx), %rax movq %rax, 0x130(%rsp) movq %r15, 0x138(%rsp) leaq 0x1b0(%rsp), %rax movq %rax, 0x140(%rsp) movl $0x1, 0x148(%rsp) movq 0x40(%r13), %rax testq %rax, %rax vmovaps %xmm9, 0x60(%rsp) vmovaps %xmm8, 0xa0(%rsp) vmovss %xmm4, 0xc0(%rsp) je 0x1ca606e leaq 0x120(%rsp), %rdi vzeroupper callq *%rax vmovss 0xc0(%rsp), %xmm4 vmovaps 0xa0(%rsp), %xmm8 vmovaps 0x60(%rsp), %xmm9 vbroadcastss 0x27ae6c(%rip), %xmm13 # 0x1f20ec4 vxorps %xmm12, %xmm12, %xmm12 movq 0x120(%rsp), %rax cmpl $0x0, (%rax) je 0x1ca6127 movq 0x20(%rsp), %rax movq 0x10(%rax), %rcx movq 0x10(%rcx), %rax testq %rax, %rax je 0x1ca60cc testb $0x2, (%rcx) jne 0x1ca608c testb $0x40, 0x3e(%r13) je 0x1ca60bf leaq 0x120(%rsp), %rdi vzeroupper callq *%rax vmovss 0xc0(%rsp), %xmm4 vmovaps 0xa0(%rsp), %xmm8 vmovaps 0x60(%rsp), %xmm9 vbroadcastss 0x27ae0a(%rip), %xmm13 # 0x1f20ec4 vxorps %xmm12, %xmm12, %xmm12 movq 0x120(%rsp), %rax cmpl $0x0, (%rax) je 0x1ca6127 movq 0x138(%rsp), %rax movq 0x140(%rsp), %rcx vmovss (%rcx), %xmm0 vmovss %xmm0, 0x30(%rax) vmovss 0x4(%rcx), %xmm0 vmovss %xmm0, 0x34(%rax) vmovss 0x8(%rcx), %xmm0 vmovss %xmm0, 0x38(%rax) vmovss 0xc(%rcx), %xmm0 vmovss %xmm0, 0x3c(%rax) vmovss 0x10(%rcx), %xmm0 vmovss %xmm0, 0x40(%rax) movl 0x14(%rcx), %edx movl %edx, 0x44(%rax) movl 0x18(%rcx), %edx movl %edx, 0x48(%rax) movl 0x1c(%rcx), %edx movl %edx, 0x4c(%rax) movl 0x20(%rcx), %ecx movl %ecx, 0x50(%rax) jmp 0x1ca612d vmovss %xmm4, 0x20(%r15) movq 0x20(%rsp), %r13 jmp 0x1ca5f2f vmovaps 0x400(%rsp), %ymm0 vcmpleps 0x20(%r15){1to8}, %ymm0, %k0 kmovd %k0, %eax andb %al, %bl jne 0x1ca570b vmovaps 0x380(%rsp), %ymm0 vaddps 0x280(%rsp), %ymm0, %ymm0 vcmpleps 0x20(%r15){1to8}, %ymm0, %k0 kmovd 0x15c(%rsp), %k1 kmovd 0x154(%rsp), %k2 korb %k2, %k1, %k1 kmovd %k0, %eax movl 0x28(%rsp), %ecx andb %al, %cl vpbroadcastd 0x27ad43(%rip), %ymm0 # 0x1f20edc vpblendmd 0x27ad35(%rip){1to8}, %ymm0, %ymm0 {%k1} # 0x1f20ed8 vmovdqa %ymm0, 0x380(%rsp) vpcmpled 0x460(%rsp), %ymm0, %k0 kmovd %k0, %ebx movl %ecx, 0x28(%rsp) andb %cl, %bl je 0x1ca6c95 vmovaps 0x4e0(%rsp), %ymm5 vmovaps 0x260(%rsp), %ymm1 vmovaps 0x220(%rsp), %ymm2 vminps %xmm2, %xmm1, %xmm0 vmaxps %xmm2, %xmm1, %xmm1 vmovaps 0x240(%rsp), %ymm3 vmovaps 0x200(%rsp), %ymm4 vminps %xmm4, %xmm3, %xmm2 vminps %xmm2, %xmm0, %xmm0 vmaxps %xmm4, %xmm3, %xmm2 vmaxps %xmm2, %xmm1, %xmm1 vandps %xmm0, %xmm13, %xmm0 vandps %xmm1, %xmm13, %xmm2 vmaxps %xmm2, %xmm0, %xmm0 vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3] vmaxss %xmm0, %xmm2, %xmm2 vshufpd $0x1, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[1,0] vmaxss %xmm2, %xmm0, %xmm0 vmulss 0x24bc85(%rip), %xmm0, %xmm0 # 0x1ef1eb4 vmovss %xmm0, 0x38(%rsp) vshufps $0xff, %xmm1, %xmm1, %xmm0 # xmm0 = xmm1[3,3,3,3] vmovaps %xmm0, 0x2c0(%rsp) vmovaps %ymm5, 0x340(%rsp) vaddps 0x280(%rsp), %ymm5, %ymm0 vmovaps %ymm0, 0x400(%rsp) kmovd %ebx, %k1 vbroadcastss 0x2457b5(%rip), %ymm0 # 0x1eeba20 vblendmps 0x340(%rsp), %ymm0, %ymm0 {%k1} vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm0, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1] vminps %ymm2, %ymm1, %ymm1 vcmpeqps %ymm1, %ymm0, %k0 kmovd %k0, %eax andb %bl, %al movzbl %al, %eax movzbl %bl, %ecx cmovnel %eax, %ecx tzcntl %ecx, %ecx movb $0x1, %bl shlb %cl, %bl shll $0x2, %ecx vmovss 0x420(%rsp,%rcx), %xmm9 vmovss 0x500(%rsp,%rcx), %xmm10 vmovaps 0x10(%r15), %xmm0 vmovaps %xmm0, 0x2a0(%rsp) vdpps $0x7f, %xmm0, %xmm0, %xmm0 vucomiss 0x245745(%rip), %xmm0 # 0x1eeba24 jb 0x1ca62e7 vsqrtss %xmm0, %xmm0, %xmm0 jmp 0x1ca6324 vmovaps %xmm9, 0x60(%rsp) vmovaps %xmm10, 0xa0(%rsp) kmovw %k1, 0x160(%rsp) vzeroupper callq 0x6aa20 kmovw 0x160(%rsp), %k1 vmovaps 0xa0(%rsp), %xmm10 vmovaps 0x60(%rsp), %xmm9 vxorps %xmm12, %xmm12, %xmm12 movzbl %bl, %eax kmovd %eax, %k0 kandnb %k1, %k0, %k0 kmovd %k0, %ebx vmulss 0x24bb79(%rip), %xmm0, %xmm0 # 0x1ef1eb4 vmovss %xmm0, 0x3c(%rsp) movl $0x4, %r12d vbroadcastss %xmm10, %xmm0 vfmadd132ps 0x2a0(%rsp), %xmm12, %xmm0 # xmm0 = (xmm0 * mem) + xmm12 vmovss 0x2463b6(%rip), %xmm1 # 0x1eec714 vsubss %xmm9, %xmm1, %xmm13 vbroadcastss 0x27ab54(%rip), %xmm6 # 0x1f20ec0 vxorps %xmm6, %xmm9, %xmm1 vmulss %xmm1, %xmm13, %xmm1 vmulss %xmm1, %xmm13, %xmm1 vmulss %xmm9, %xmm9, %xmm14 vmovss 0x24ac67(%rip), %xmm8 # 0x1ef0fec vmovaps %xmm8, %xmm11 vmovss 0x24ac72(%rip), %xmm7 # 0x1ef1004 vfmadd213ss %xmm7, %xmm9, %xmm11 # xmm11 = (xmm9 * xmm11) + xmm7 vmovaps %xmm11, %xmm2 vmovss 0x24ac55(%rip), %xmm5 # 0x1ef0ff8 vfmadd213ss %xmm5, %xmm14, %xmm2 # xmm2 = (xmm14 * xmm2) + xmm5 vmulss %xmm13, %xmm13, %xmm3 vmovaps %xmm8, %xmm4 vfmadd213ss %xmm7, %xmm13, %xmm4 # xmm4 = (xmm13 * xmm4) + xmm7 vfmadd213ss %xmm5, %xmm3, %xmm4 # xmm4 = (xmm3 * xmm4) + xmm5 vxorps %xmm6, %xmm13, %xmm3 vmulss %xmm3, %xmm9, %xmm3 vmulss %xmm3, %xmm9, %xmm3 vmovss 0x2467b1(%rip), %xmm5 # 0x1eecb80 vmulss %xmm5, %xmm1, %xmm1 vmulss %xmm5, %xmm2, %xmm2 vmulss %xmm5, %xmm4, %xmm4 vmulss %xmm5, %xmm3, %xmm3 vbroadcastss %xmm3, %xmm3 vmulps 0x200(%rsp), %xmm3, %xmm3 vbroadcastss %xmm4, %xmm4 vfmadd132ps 0x240(%rsp), %xmm3, %xmm4 # xmm4 = (xmm4 * mem) + xmm3 vbroadcastss %xmm2, %xmm2 vfmadd132ps 0x220(%rsp), %xmm4, %xmm2 # xmm2 = (xmm2 * mem) + xmm4 vbroadcastss %xmm1, %xmm3 vfmadd132ps 0x260(%rsp), %xmm2, %xmm3 # xmm3 = (xmm3 * mem) + xmm2 vmulss 0x24a5ba(%rip), %xmm13, %xmm6 # 0x1ef09dc vfmadd231ss 0x24abdd(%rip), %xmm9, %xmm7 # xmm7 = (xmm9 * mem) + xmm7 vmovaps %xmm7, 0x330(%rsp) vmovss 0x24abd0(%rip), %xmm1 # 0x1ef100c vfmadd213ss 0x246747(%rip), %xmm9, %xmm1 # xmm1 = (xmm9 * xmm1) + mem vmovaps %xmm1, 0x320(%rsp) vfmadd213ss 0x24a575(%rip), %xmm9, %xmm8 # xmm8 = (xmm9 * xmm8) + mem vmovaps %xmm8, 0x310(%rsp) vmovaps %xmm3, 0x360(%rsp) vsubps %xmm3, %xmm0, %xmm0 vmovaps %xmm0, 0x160(%rsp) vdpps $0x7f, %xmm0, %xmm0, %xmm0 vucomiss 0x2455a0(%rip), %xmm0 # 0x1eeba24 vmovaps %xmm9, 0x60(%rsp) vmovaps %xmm0, 0xc0(%rsp) vmovaps %xmm10, 0xa0(%rsp) jb 0x1ca64a4 vsqrtss %xmm0, %xmm0, %xmm7 jmp 0x1ca64fd vmovss %xmm11, 0x180(%rsp) vmovaps %xmm13, 0x80(%rsp) vmovss %xmm14, 0x50(%rsp) vmovss %xmm6, 0x100(%rsp) vzeroupper callq 0x6aa20 vmovss 0x100(%rsp), %xmm6 vmovss 0x50(%rsp), %xmm14 vmovaps 0x80(%rsp), %xmm13 vmovss 0x180(%rsp), %xmm11 vmovaps 0x60(%rsp), %xmm9 vxorps %xmm12, %xmm12, %xmm12 vmovaps %xmm0, %xmm7 vaddss %xmm13, %xmm13, %xmm0 vmulss %xmm0, %xmm9, %xmm1 vfnmadd231ss %xmm13, %xmm13, %xmm1 # xmm1 = -(xmm13 * xmm13) + xmm1 vaddss %xmm9, %xmm9, %xmm2 vmovss 0x24aad4(%rip), %xmm4 # 0x1ef0fec vmulss %xmm4, %xmm9, %xmm3 vmulss %xmm3, %xmm9, %xmm3 vfmadd213ss %xmm3, %xmm2, %xmm11 # xmm11 = (xmm2 * xmm11) + xmm3 vmovaps %xmm4, %xmm2 vmovss 0x24aac7(%rip), %xmm4 # 0x1ef0ff8 vfmadd213ss %xmm4, %xmm9, %xmm2 # xmm2 = (xmm9 * xmm2) + xmm4 vmulss 0x24aab2(%rip), %xmm13, %xmm3 # 0x1ef0ff0 vmulss %xmm3, %xmm13, %xmm3 vfmadd231ss %xmm2, %xmm0, %xmm3 # xmm3 = (xmm0 * xmm2) + xmm3 vfmadd213ss %xmm14, %xmm9, %xmm6 # xmm6 = (xmm9 * xmm6) + xmm14 vmovss 0x24662c(%rip), %xmm5 # 0x1eecb80 vmulss %xmm5, %xmm1, %xmm0 vmulss %xmm5, %xmm11, %xmm1 vmulss %xmm5, %xmm3, %xmm2 vmulss %xmm5, %xmm6, %xmm3 vbroadcastss %xmm3, %xmm3 vmulps 0x200(%rsp), %xmm3, %xmm3 vbroadcastss %xmm2, %xmm2 vfmadd132ps 0x240(%rsp), %xmm3, %xmm2 # xmm2 = (xmm2 * mem) + xmm3 vbroadcastss %xmm1, %xmm1 vfmadd132ps 0x220(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2 vbroadcastss %xmm0, %xmm14 vfmadd132ps 0x260(%rsp), %xmm1, %xmm14 # xmm14 = (xmm14 * mem) + xmm1 vdpps $0x7f, %xmm14, %xmm14, %xmm0 vmovss %xmm0, %xmm12, %xmm1 # xmm1 = xmm0[0],xmm12[1,2,3] vrsqrt14ss %xmm1, %xmm12, %xmm3 vmulss 0x246161(%rip), %xmm3, %xmm5 # 0x1eec718 vmulss 0x24615d(%rip), %xmm0, %xmm6 # 0x1eec71c vrcp14ss %xmm1, %xmm12, %xmm2 vxorps 0x27a8f1(%rip){1to4}, %xmm0, %xmm1 # 0x1f20ec0 vmovaps %xmm2, 0x300(%rsp) vfnmadd213ss %xmm4, %xmm0, %xmm2 # xmm2 = -(xmm0 * xmm2) + xmm4 vmovss %xmm2, 0x40(%rsp) vucomiss %xmm1, %xmm0 vmovaps %xmm14, 0x180(%rsp) vmovss %xmm7, 0x80(%rsp) vmovaps %xmm0, 0x100(%rsp) jb 0x1ca660c vsqrtss %xmm0, %xmm0, %xmm16 jmp 0x1ca665b vmovaps %xmm3, 0x50(%rsp) vmovss %xmm5, 0xf0(%rsp) vmovss %xmm6, 0x1c(%rsp) vzeroupper callq 0x6aa20 vmovss 0x1c(%rsp), %xmm6 vmovss 0xf0(%rsp), %xmm5 vmovaps 0x50(%rsp), %xmm3 vmovss 0x80(%rsp), %xmm7 vmovaps 0x180(%rsp), %xmm14 vxorps %xmm12, %xmm12, %xmm12 vmovaps %xmm0, %xmm16 vmovaps 0x160(%rsp), %xmm11 vmovaps 0xc0(%rsp), %xmm13 vmulss %xmm3, %xmm6, %xmm0 vmulss %xmm3, %xmm3, %xmm1 vmulss %xmm1, %xmm0, %xmm0 vaddss %xmm0, %xmm5, %xmm0 vbroadcastss %xmm0, %xmm4 vmulps %xmm4, %xmm14, %xmm0 vmovaps %xmm0, 0xf0(%rsp) vdpps $0x7f, %xmm0, %xmm11, %xmm0 vaddss 0x246077(%rip), %xmm7, %xmm15 # 0x1eec714 vmovaps %xmm0, 0x50(%rsp) vmulps %xmm0, %xmm0, %xmm0 vsubps %xmm0, %xmm13, %xmm0 vmovss %xmm0, %xmm12, %xmm1 # xmm1 = xmm0[0],xmm12[1,2,3] vrsqrt14ss %xmm1, %xmm12, %xmm18 vmulss 0x246059(%rip), %xmm18, %xmm17 # 0x1eec718 vmulss 0x246053(%rip), %xmm0, %xmm19 # 0x1eec71c vucomiss 0x245353(%rip), %xmm0 # 0x1eeba24 jb 0x1ca66dc vsqrtss %xmm0, %xmm0, %xmm0 jmp 0x1ca6766 vmovss %xmm15, 0x1c(%rsp) vmovss %xmm16, 0x34(%rsp) vmovss %xmm17, 0x30(%rsp) vmovaps %xmm18, 0x2f0(%rsp) vmovss %xmm19, 0x2c(%rsp) vmovaps %xmm4, 0x2e0(%rsp) vzeroupper callq 0x6aa20 vmovaps 0x2e0(%rsp), %xmm4 vmovss 0x2c(%rsp), %xmm19 vmovaps 0x2f0(%rsp), %xmm18 vmovss 0x30(%rsp), %xmm17 vmovss 0x34(%rsp), %xmm16 vmovss 0x1c(%rsp), %xmm15 vmovss 0x80(%rsp), %xmm7 vmovaps 0x180(%rsp), %xmm14 vmovaps 0xc0(%rsp), %xmm13 vmovaps 0x160(%rsp), %xmm11 vbroadcastss 0x27a755(%rip), %xmm8 # 0x1f20ec4 vmovaps 0x60(%rsp), %xmm9 vmovaps 0xa0(%rsp), %xmm10 vbroadcastss 0x310(%rsp), %xmm1 vmulps 0x200(%rsp), %xmm1, %xmm1 vbroadcastss 0x320(%rsp), %xmm2 vfmadd132ps 0x240(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1 vbroadcastss 0x330(%rsp), %xmm1 vfmadd132ps 0x220(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2 vmovss 0x24a82f(%rip), %xmm2 # 0x1ef0ff0 vfmadd213ss 0x24a82e(%rip), %xmm9, %xmm2 # xmm2 = (xmm9 * xmm2) + mem vbroadcastss %xmm2, %xmm2 vfmadd132ps 0x260(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1 vbroadcastss 0x100(%rsp), %xmm1 vmulps %xmm1, %xmm2, %xmm1 vdpps $0x7f, %xmm2, %xmm14, %xmm2 vbroadcastss %xmm2, %xmm2 vmulps %xmm2, %xmm14, %xmm2 vsubps %xmm2, %xmm1, %xmm1 vmovss 0x40(%rsp), %xmm2 vmulss 0x300(%rsp), %xmm2, %xmm2 vmulss 0x3c(%rsp), %xmm10, %xmm3 vbroadcastss %xmm2, %xmm2 vmulps %xmm2, %xmm1, %xmm1 vxorps 0x27a69e(%rip){1to4}, %xmm14, %xmm2 # 0x1f20ec0 vmulps %xmm1, %xmm4, %xmm4 vmovaps 0xf0(%rsp), %xmm12 vdpps $0x7f, %xmm12, %xmm2, %xmm5 vmovss 0x38(%rsp), %xmm6 vmaxss %xmm3, %xmm6, %xmm1 vdivss %xmm16, %xmm6, %xmm3 vdpps $0x7f, %xmm4, %xmm11, %xmm4 vfmadd213ss %xmm1, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm7) + xmm1 vfmadd213ss %xmm7, %xmm3, %xmm15 # xmm15 = (xmm3 * xmm15) + xmm7 vmovaps 0x2a0(%rsp), %xmm7 vdpps $0x7f, %xmm12, %xmm7, %xmm3 vaddss %xmm4, %xmm5, %xmm4 vdpps $0x7f, %xmm2, %xmm11, %xmm5 vmulss %xmm18, %xmm19, %xmm2 vmulss %xmm18, %xmm18, %xmm6 vmulss %xmm6, %xmm2, %xmm2 vdpps $0x7f, %xmm7, %xmm11, %xmm6 vaddss %xmm2, %xmm17, %xmm7 vmovaps 0x50(%rsp), %xmm16 vfnmadd231ss %xmm4, %xmm16, %xmm5 # xmm5 = -(xmm16 * xmm4) + xmm5 vfnmadd231ss %xmm3, %xmm16, %xmm6 # xmm6 = -(xmm16 * xmm3) + xmm6 vpermilps $0xff, 0x360(%rsp), %xmm2 # xmm2 = mem[3,3,3,3] vsubss %xmm2, %xmm0, %xmm2 vshufps $0xff, %xmm14, %xmm14, %xmm0 # xmm0 = xmm14[3,3,3,3] vfmsub213ss %xmm0, %xmm7, %xmm5 # xmm5 = (xmm7 * xmm5) - xmm0 vmulss %xmm7, %xmm6, %xmm6 vmulss %xmm5, %xmm3, %xmm7 vfmsub231ss %xmm6, %xmm4, %xmm7 # xmm7 = (xmm4 * xmm6) - xmm7 vdivss %xmm7, %xmm6, %xmm6 vdivss %xmm7, %xmm5, %xmm5 vdivss %xmm7, %xmm3, %xmm3 vdivss %xmm7, %xmm4, %xmm4 vmulss %xmm6, %xmm16, %xmm6 vmulss %xmm3, %xmm2, %xmm3 vsubss %xmm3, %xmm6, %xmm3 vmulss %xmm5, %xmm16, %xmm5 vmulss %xmm4, %xmm2, %xmm4 vsubss %xmm5, %xmm4, %xmm4 vsubss %xmm3, %xmm9, %xmm9 vsubss %xmm4, %xmm10, %xmm10 vandps %xmm8, %xmm16, %xmm3 vucomiss %xmm3, %xmm15 jbe 0x1ca6a75 vaddss %xmm1, %xmm15, %xmm1 vmovaps 0x2c0(%rsp), %xmm3 vfmadd231ss 0x24b595(%rip), %xmm3, %xmm1 # xmm1 = (xmm3 * mem) + xmm1 vandps %xmm2, %xmm8, %xmm2 vucomiss %xmm2, %xmm1 vxorps %xmm12, %xmm12, %xmm12 jbe 0x1ca6a7f vaddss 0x2d0(%rsp), %xmm10, %xmm10 vucomiss 0xc(%r15), %xmm10 movb $0x1, %r14b jb 0x1ca6a82 vmovss 0x20(%r15), %xmm4 vucomiss %xmm10, %xmm4 jb 0x1ca6a82 vucomiss 0x2450c1(%rip), %xmm9 # 0x1eeba24 jb 0x1ca6a82 vmovss 0x245da3(%rip), %xmm1 # 0x1eec714 vucomiss %xmm9, %xmm1 jb 0x1ca6a82 vmovss %xmm13, %xmm12, %xmm1 vrsqrt14ss %xmm1, %xmm12, %xmm1 vmulss 0x245d8a(%rip), %xmm1, %xmm2 # 0x1eec718 vmulss 0x245d86(%rip), %xmm13, %xmm3 # 0x1eec71c movq (%r13), %rax movq 0x1e8(%rax), %rax movq %r13, %rcx movq 0x48(%rsp), %rdx movq (%rax,%rdx,8), %r13 movl 0x24(%r15), %eax testl %eax, 0x34(%r13) je 0x1ca6a9f vmulss %xmm1, %xmm3, %xmm3 vmulss %xmm1, %xmm1, %xmm1 vmulss %xmm1, %xmm3, %xmm1 vaddss %xmm1, %xmm2, %xmm1 vbroadcastss %xmm1, %xmm1 vmulps %xmm1, %xmm11, %xmm1 vfmadd213ps %xmm14, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm0) + xmm14 vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3] vshufps $0xc9, %xmm14, %xmm14, %xmm3 # xmm3 = xmm14[1,2,0,3] vmulps %xmm3, %xmm1, %xmm1 vfmsub231ps %xmm2, %xmm14, %xmm1 # xmm1 = (xmm14 * xmm2) - xmm1 vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3] vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3] vshufps $0xd2, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,0,1,3] vmulps %xmm1, %xmm0, %xmm0 vfmsub231ps %xmm3, %xmm2, %xmm0 # xmm0 = (xmm2 * xmm3) - xmm0 movq 0x10(%rcx), %rax cmpq $0x0, 0x10(%rax) jne 0x1ca6aa4 cmpq $0x0, 0x40(%r13) jne 0x1ca6aa4 vmovss %xmm10, 0x20(%r15) vshufps $0xe9, %xmm0, %xmm0, %xmm1 # xmm1 = xmm0[1,2,2,3] vmovlps %xmm1, 0x30(%r15) vmovss %xmm0, 0x38(%r15) vmovss %xmm9, 0x3c(%r15) movl $0x0, 0x40(%r15) movq 0x98(%rsp), %rax movl %eax, 0x44(%r15) movq 0x48(%rsp), %rax movl %eax, 0x48(%r15) movq 0x20(%rsp), %r13 movq 0x8(%r13), %rax movl (%rax), %eax movl %eax, 0x4c(%r15) movq 0x8(%r13), %rax movl 0x4(%rax), %eax movl %eax, 0x50(%r15) jmp 0x1ca6a82 xorl %r14d, %r14d vxorps %xmm12, %xmm12, %xmm12 jmp 0x1ca6a82 xorl %r14d, %r14d subq $0x1, %r12 setb %al testb %r14b, %r14b jne 0x1ca6c78 testb %al, %al je 0x1ca6347 jmp 0x1ca6c78 movq %rcx, %r13 jmp 0x1ca6a82 movq 0x20(%rsp), %rdx movq 0x8(%rdx), %rax vshufps $0xe9, %xmm0, %xmm0, %xmm1 # xmm1 = xmm0[1,2,2,3] vmovlps %xmm1, 0x1b0(%rsp) vmovss %xmm0, 0x1b8(%rsp) vmovss %xmm9, 0x1bc(%rsp) movl $0x0, 0x1c0(%rsp) movq 0x98(%rsp), %rcx movl %ecx, 0x1c4(%rsp) movq 0x48(%rsp), %rcx movl %ecx, 0x1c8(%rsp) movl (%rax), %ecx movl %ecx, 0x1cc(%rsp) movl 0x4(%rax), %eax movl %eax, 0x1d0(%rsp) vmovss %xmm10, 0x20(%r15) movl $0xffffffff, 0x44(%rsp) # imm = 0xFFFFFFFF leaq 0x44(%rsp), %rax movq %rax, 0x120(%rsp) movq 0x18(%r13), %rax movq %rax, 0x128(%rsp) movq 0x8(%rdx), %rax movq %rax, 0x130(%rsp) movq %r15, 0x138(%rsp) leaq 0x1b0(%rsp), %rax movq %rax, 0x140(%rsp) movl $0x1, 0x148(%rsp) movq 0x40(%r13), %rax testq %rax, %rax vmovaps %xmm9, 0x60(%rsp) vmovaps %xmm10, 0xa0(%rsp) vmovss %xmm4, 0xc0(%rsp) je 0x1ca6bb8 leaq 0x120(%rsp), %rdi vzeroupper callq *%rax vmovss 0xc0(%rsp), %xmm4 vmovaps 0xa0(%rsp), %xmm10 vmovaps 0x60(%rsp), %xmm9 vxorps %xmm12, %xmm12, %xmm12 movq 0x120(%rsp), %rax cmpl $0x0, (%rax) je 0x1ca6c68 movq 0x20(%rsp), %rax movq 0x10(%rax), %rcx movq 0x10(%rcx), %rax testq %rax, %rax je 0x1ca6c0d testb $0x2, (%rcx) jne 0x1ca6bd6 testb $0x40, 0x3e(%r13) je 0x1ca6c00 leaq 0x120(%rsp), %rdi vzeroupper callq *%rax vmovss 0xc0(%rsp), %xmm4 vmovaps 0xa0(%rsp), %xmm10 vmovaps 0x60(%rsp), %xmm9 vxorps %xmm12, %xmm12, %xmm12 movq 0x120(%rsp), %rax cmpl $0x0, (%rax) je 0x1ca6c68 movq 0x138(%rsp), %rax movq 0x140(%rsp), %rcx vmovss (%rcx), %xmm0 vmovss %xmm0, 0x30(%rax) vmovss 0x4(%rcx), %xmm0 vmovss %xmm0, 0x34(%rax) vmovss 0x8(%rcx), %xmm0 vmovss %xmm0, 0x38(%rax) vmovss 0xc(%rcx), %xmm0 vmovss %xmm0, 0x3c(%rax) vmovss 0x10(%rcx), %xmm0 vmovss %xmm0, 0x40(%rax) movl 0x14(%rcx), %edx movl %edx, 0x44(%rax) movl 0x18(%rcx), %edx movl %edx, 0x48(%rax) movl 0x1c(%rcx), %edx movl %edx, 0x4c(%rax) movl 0x20(%rcx), %ecx movl %ecx, 0x50(%rax) jmp 0x1ca6c6e vmovss %xmm4, 0x20(%r15) movq 0x20(%rsp), %r13 jmp 0x1ca6a82 vmovaps 0x400(%rsp), %ymm0 vcmpleps 0x20(%r15){1to8}, %ymm0, %k0 kmovd %k0, %eax andb %al, %bl jne 0x1ca625e vmovdqa 0x460(%rsp), %ymm1 vpcmpltd 0x380(%rsp), %ymm1, %k1 vmovaps 0x4a0(%rsp), %ymm0 vpcmpltd 0x520(%rsp), %ymm1, %k2 vmovaps 0x280(%rsp), %ymm7 vaddps %ymm0, %ymm7, %ymm1 vbroadcastss 0x20(%r15), %ymm2 vcmpleps %ymm2, %ymm1, %k0 {%k2} kmovd %k0, %eax movl 0x158(%rsp), %ecx andb %al, %cl vmovaps 0x4e0(%rsp), %ymm1 vaddps %ymm1, %ymm7, %ymm3 vcmpleps %ymm2, %ymm3, %k0 {%k1} kmovd %k0, %eax movl 0x28(%rsp), %edx andb %al, %dl orb %cl, %dl je 0x1ca6d9a movq 0x118(%rsp), %r8 movl %r8d, %eax leaq (%rax,%rax,2), %rax shlq $0x5, %rax movb %dl, 0x780(%rsp,%rax) kmovd %ecx, %k1 vmovaps %ymm0, %ymm1 {%k1} vmovaps %ymm1, 0x7a0(%rsp,%rax) vmovaps 0x1a0(%rsp), %xmm4 vmovlps %xmm4, 0x7c0(%rsp,%rax) movq 0x1f0(%rsp), %r11 leal 0x1(%r11), %ecx movl %ecx, 0x7c8(%rsp,%rax) incl %r8d movq 0x1e8(%rsp), %r9 vbroadcastss 0x2459a7(%rip), %ymm26 # 0x1eec714 movq 0x1f8(%rsp), %r10 jmp 0x1ca540c vbroadcastss 0x245990(%rip), %ymm26 # 0x1eec714 vmovaps 0x280(%rsp), %ymm7 movq 0x118(%rsp), %r8 jmp 0x1ca5403 movq 0x1e8(%rsp), %r9 vbroadcastss 0x245968(%rip), %ymm26 # 0x1eec714 movq 0x1f8(%rsp), %r10 movq 0x118(%rsp), %r8 movq 0x1f0(%rsp), %r11 jmp 0x1ca5403 vcmpleps 0x27a12c(%rip), %ymm4, %k2 # 0x1f20f00 vbroadcastss 0x245da7(%rip), %ymm4 # 0x1eecb84 vbroadcastss 0x244c39(%rip), %ymm16 # 0x1eeba20 vblendmps %ymm4, %ymm16, %ymm3 {%k2} vmovaps %ymm3, %ymm31 {%k1} vblendmps %ymm16, %ymm4, %ymm3 {%k2} kmovd %k2, %ecx vmovaps %ymm3, %ymm30 {%k1} knotb %k1, %k0 kmovd %k0, %edx orb %cl, %dl andb %al, %dl movl %edx, %eax jmp 0x1ca4fa0 vmovaps 0x540(%rsp), %ymm0 vcmpleps 0x20(%r15){1to8}, %ymm0, %k0 kmovb %k0, %eax andl %eax, %r10d jne 0x1ca46c8 leaq -0x28(%rbp), %rsp popq %rbx popq %r12 popq %r13 popq %r14 popq %r15 popq %rbp vzeroupper retq
/embree[P]embree/kernels/geometry/curveNi_intersector.h
bool embree::avx512::CurveNiIntersector1<8>::occluded_t<embree::avx512::SweepCurve1Intersector1<embree::CatmullRomCurveT>, embree::avx512::Occluded1Epilog1<true>>(embree::avx512::CurvePrecalculations1 const&, embree::RayK<1>&, embree::RayQueryContext*, embree::CurveNi<8> const&)
static __forceinline bool occluded_t(const Precalculations& pre, Ray& ray, RayQueryContext* context, const Primitive& prim) { vfloat<M> tNear; vbool<M> valid = intersect(ray,prim,tNear); const size_t N = prim.N; size_t mask = movemask(valid); while (mask) { const size_t i = bscf(mask); STAT3(shadow.trav_prims,1,1,1); const unsigned int geomID = prim.geomID(N); const unsigned int primID = prim.primID(N)[i]; const CurveGeometry* geom = context->scene->get<CurveGeometry>(geomID); Vec3ff a0,a1,a2,a3; geom->gather(a0,a1,a2,a3,geom->curve(primID)); size_t mask1 = mask; const size_t i1 = bscf(mask1); if (mask) { const unsigned int primID1 = prim.primID(N)[i1]; geom->prefetchL1_vertices(geom->curve(primID1)); if (mask1) { const size_t i2 = bsf(mask1); const unsigned int primID2 = prim.primID(N)[i2]; geom->prefetchL2_vertices(geom->curve(primID2)); } } if (Intersector().intersect(pre,ray,context,geom,primID,a0,a1,a2,a3,Epilog(ray,context,geomID,primID))) return true; mask &= movemask(tNear <= vfloat<M>(ray.tfar)); } return false; }
pushq %rbp movq %rsp, %rbp pushq %r15 pushq %r14 pushq %r13 pushq %r12 pushq %rbx andq $-0x20, %rsp subq $0x900, %rsp # imm = 0x900 movq %rcx, %r9 movq %rsi, %r15 movzbl 0x1(%rcx), %eax leaq (%rax,%rax,4), %rcx leaq (%rcx,%rcx,4), %rsi vbroadcastss 0x12(%r9,%rsi), %xmm0 vmovaps (%r15), %xmm1 vsubps 0x6(%r9,%rsi), %xmm1, %xmm1 vmulps 0x10(%r15), %xmm0, %xmm2 vmulps %xmm1, %xmm0, %xmm3 vpmovsxbd 0x6(%r9,%rax,4), %ymm0 vcvtdq2ps %ymm0, %ymm5 vpmovsxbd 0x6(%r9,%rcx), %ymm0 vcvtdq2ps %ymm0, %ymm6 leaq (%rax,%rax,2), %r8 vpmovsxbd 0x6(%r9,%r8,2), %ymm0 vcvtdq2ps %ymm0, %ymm7 leaq (%rax,%rcx,2), %rsi vpmovsxbd 0x6(%r9,%rsi), %ymm0 vcvtdq2ps %ymm0, %ymm8 leal (,%r8,4), %esi vpmovsxbd 0x6(%r9,%rsi), %ymm0 vcvtdq2ps %ymm0, %ymm9 addq %rax, %rsi vpmovsxbd 0x6(%r9,%rsi), %ymm0 vcvtdq2ps %ymm0, %ymm10 leaq (%rax,%rax,8), %rsi leal (%rsi,%rsi), %edi vpmovsxbd 0x6(%r9,%rdi), %ymm0 addq %rax, %rdi vpmovsxbd 0x6(%r9,%rdi), %ymm1 vcvtdq2ps %ymm0, %ymm11 vcvtdq2ps %ymm1, %ymm12 shll $0x2, %ecx vpmovsxbd 0x6(%r9,%rcx), %ymm0 vcvtdq2ps %ymm0, %ymm13 vbroadcastss %xmm2, %ymm14 vbroadcastss 0x26b7e5(%rip), %ymm16 # 0x1f12704 vpermps %ymm2, %ymm16, %ymm15 vbroadcastss 0x279fad(%rip), %ymm17 # 0x1f20edc vpermps %ymm2, %ymm17, %ymm0 vmulps %ymm7, %ymm0, %ymm4 vmulps %ymm0, %ymm10, %ymm1 vmulps %ymm0, %ymm13, %ymm0 vfmadd231ps %ymm6, %ymm15, %ymm4 # ymm4 = (ymm15 * ymm6) + ymm4 vfmadd231ps %ymm9, %ymm15, %ymm1 # ymm1 = (ymm15 * ymm9) + ymm1 vfmadd231ps %ymm15, %ymm12, %ymm0 # ymm0 = (ymm12 * ymm15) + ymm0 vfmadd231ps %ymm5, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm5) + ymm4 vfmadd231ps %ymm8, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm8) + ymm1 vfmadd231ps %ymm14, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm14) + ymm0 vbroadcastss %xmm3, %ymm14 vpermps %ymm3, %ymm16, %ymm15 vpermps %ymm3, %ymm17, %ymm2 vmulps %ymm7, %ymm2, %ymm7 vmulps %ymm2, %ymm10, %ymm3 vmulps %ymm2, %ymm13, %ymm2 vfmadd231ps %ymm6, %ymm15, %ymm7 # ymm7 = (ymm15 * ymm6) + ymm7 vfmadd231ps %ymm9, %ymm15, %ymm3 # ymm3 = (ymm15 * ymm9) + ymm3 vfmadd231ps %ymm12, %ymm15, %ymm2 # ymm2 = (ymm15 * ymm12) + ymm2 vfmadd231ps %ymm5, %ymm14, %ymm7 # ymm7 = (ymm14 * ymm5) + ymm7 vfmadd231ps %ymm8, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm8) + ymm3 vfmadd231ps %ymm11, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm11) + ymm2 vbroadcastss 0x279f20(%rip), %ymm28 # 0x1f20ec4 vandps %ymm28, %ymm4, %ymm5 vbroadcastss 0x24a035(%rip), %ymm6 # 0x1ef0fe8 vcmpltps %ymm6, %ymm5, %k1 vmovaps %ymm6, %ymm4 {%k1} vandps %ymm28, %ymm1, %ymm5 vcmpltps %ymm6, %ymm5, %k1 vmovaps %ymm6, %ymm1 {%k1} vandps %ymm28, %ymm0, %ymm5 vcmpltps %ymm6, %ymm5, %k1 vmovaps %ymm6, %ymm0 {%k1} vrcp14ps %ymm4, %ymm5 vbroadcastss 0x24571f(%rip), %ymm6 # 0x1eec714 vfnmadd213ps %ymm6, %ymm5, %ymm4 # ymm4 = -(ymm5 * ymm4) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm4 # ymm4 = (ymm4 * ymm5) + ymm5 vrcp14ps %ymm1, %ymm5 vfnmadd213ps %ymm6, %ymm5, %ymm1 # ymm1 = -(ymm5 * ymm1) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm1 # ymm1 = (ymm1 * ymm5) + ymm5 vrcp14ps %ymm0, %ymm5 vfnmadd213ps %ymm6, %ymm5, %ymm0 # ymm0 = -(ymm5 * ymm0) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm0 # ymm0 = (ymm0 * ymm5) + ymm5 leaq (,%rax,8), %rdi subq %rax, %rdi vpmovsxwd 0x6(%r9,%rdi), %ymm5 vcvtdq2ps %ymm5, %ymm5 vsubps %ymm7, %ymm5, %ymm5 vpmovsxwd 0x6(%r9,%rsi), %ymm6 vmulps %ymm5, %ymm4, %ymm5 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm7, %ymm6, %ymm6 vmulps %ymm6, %ymm4, %ymm4 leaq (%rax,%rax), %rsi addq %rax, %rcx shlq $0x3, %r8 subq %rax, %r8 movl %eax, %edi shll $0x4, %edi vpmovsxwd 0x6(%r9,%rdi), %ymm6 subq %rsi, %rdi vpmovsxwd 0x6(%r9,%rdi), %ymm7 vcvtdq2ps %ymm7, %ymm7 vsubps %ymm3, %ymm7, %ymm7 vmulps %ymm7, %ymm1, %ymm7 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm3, %ymm6, %ymm3 vmulps %ymm3, %ymm1, %ymm1 vpmovsxwd 0x6(%r9,%rcx), %ymm3 vcvtdq2ps %ymm3, %ymm3 vsubps %ymm2, %ymm3, %ymm3 vmulps %ymm0, %ymm3, %ymm3 vpmovsxwd 0x6(%r9,%r8), %ymm6 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm2, %ymm6, %ymm2 vmulps %ymm2, %ymm0, %ymm0 vpminsd %ymm4, %ymm5, %ymm2 vpminsd %ymm1, %ymm7, %ymm6 vmaxps %ymm6, %ymm2, %ymm2 vpminsd %ymm0, %ymm3, %ymm6 vmaxps 0xc(%r15){1to8}, %ymm6, %ymm6 vmaxps %ymm6, %ymm2, %ymm2 vmulps 0x278e36(%rip){1to8}, %ymm2, %ymm6 # 0x1f1ff10 vpmaxsd %ymm4, %ymm5, %ymm2 vpmaxsd %ymm1, %ymm7, %ymm1 vminps %ymm1, %ymm2, %ymm1 vpmaxsd %ymm0, %ymm3, %ymm0 vminps 0x20(%r15){1to8}, %ymm0, %ymm0 vminps %ymm0, %ymm1, %ymm0 vmulps 0x278e12(%rip){1to8}, %ymm0, %ymm0 # 0x1f1ff14 vpbroadcastd %eax, %ymm1 vpcmpgtd 0x2b380e(%rip), %ymm1, %k0 # 0x1f5a920 vmovaps %ymm6, 0x6c0(%rsp) vcmpleps %ymm0, %ymm6, %k1 ktestb %k0, %k1 setne %al je 0x1ca9a68 kandb %k0, %k1, %k0 kmovd %k0, %ecx movzbl %cl, %r14d movq %r9, 0x388(%rsp) movq %rdx, 0x18(%rsp) tzcntq %r14, %rcx movl 0x2(%r9), %esi movl 0x6(%r9,%rcx,4), %r12d movq (%rdx), %rcx movq 0x1e8(%rcx), %rcx movq %rsi, 0x78(%rsp) movq (%rcx,%rsi,8), %rsi movq 0x58(%rsi), %r11 movq 0x68(%rsi), %rcx movq %rcx, %rdi imulq %r12, %rdi movl (%r11,%rdi), %edi movq 0xa0(%rsi), %r10 movq %r10, %r8 imulq %rdi, %r8 movq 0x90(%rsi), %rsi vmovaps (%rsi,%r8), %xmm1 leaq 0x1(%rdi), %r8 imulq %r10, %r8 vmovaps (%rsi,%r8), %xmm0 leaq 0x2(%rdi), %r8 imulq %r10, %r8 vmovaps (%rsi,%r8), %xmm3 blsrq %r14, %r14 addq $0x3, %rdi imulq %r10, %rdi vmovaps (%rsi,%rdi), %xmm2 movq %r14, %rdi subq $0x1, %rdi jb 0x1ca7218 andq %r14, %rdi tzcntq %r14, %r8 movl 0x6(%r9,%r8,4), %r8d imulq %rcx, %r8 movl (%r11,%r8), %r8d imulq %r10, %r8 prefetcht0 (%rsi,%r8) prefetcht0 0x40(%rsi,%r8) testq %rdi, %rdi je 0x1ca7218 tzcntq %rdi, %rdi movl 0x6(%r9,%rdi,4), %edi imulq %rdi, %rcx movl (%r11,%rcx), %ecx imulq %rcx, %r10 prefetcht1 (%rsi,%r10) prefetcht1 0x40(%rsi,%r10) vaddps %xmm0, %xmm1, %xmm5 vmovaps (%r15), %xmm6 vmovaps 0x10(%r15), %xmm4 vmulps 0x24594f(%rip){1to4}, %xmm5, %xmm5 # 0x1eecb80 vsubps %xmm6, %xmm5, %xmm5 vdpps $0x7f, %xmm4, %xmm5, %xmm5 vdpps $0x7f, %xmm4, %xmm4, %xmm7 vxorps %xmm10, %xmm10, %xmm10 vmovss %xmm7, %xmm10, %xmm8 # xmm8 = xmm7[0],xmm10[1,2,3] vrcp14ss %xmm8, %xmm10, %xmm8 vmovaps %xmm8, %xmm9 vfnmadd213ss 0x249d9a(%rip), %xmm7, %xmm9 # xmm9 = -(xmm7 * xmm9) + mem vmulss %xmm9, %xmm8, %xmm7 vmulss %xmm7, %xmm5, %xmm5 vmovaps %xmm5, 0x490(%rsp) vbroadcastss %xmm5, %ymm5 vmovaps %ymm5, 0x3a0(%rsp) vfmadd231ps %xmm5, %xmm4, %xmm6 # xmm6 = (xmm4 * xmm5) + xmm6 vblendps $0x8, %xmm10, %xmm6, %xmm5 # xmm5 = xmm6[0,1,2],xmm10[3] vsubps %xmm5, %xmm1, %xmm6 vsubps %xmm5, %xmm3, %xmm3 vbroadcastss 0x10(%r15), %ymm26 vbroadcastss 0x14(%r15), %ymm30 vbroadcastss 0x18(%r15), %ymm1 vmovaps %ymm1, 0x600(%rsp) vsubps %xmm5, %xmm0, %xmm7 vsubps %xmm5, %xmm2, %xmm5 vbroadcastss %xmm6, %ymm0 vmovaps %ymm0, 0x7a0(%rsp) vbroadcastss 0x26b437(%rip), %ymm0 # 0x1f12704 vpermps %ymm6, %ymm0, %ymm18 vbroadcastss 0x279c00(%rip), %ymm1 # 0x1f20edc vpermps %ymm6, %ymm1, %ymm19 vbroadcastss 0x279bed(%rip), %ymm2 # 0x1f20ed8 vmovaps %ymm6, 0x420(%rsp) vpermps %ymm6, %ymm2, %ymm20 vbroadcastss %xmm7, %ymm22 vpermps %ymm7, %ymm0, %ymm23 vpermps %ymm7, %ymm1, %ymm24 vmovaps %ymm7, 0x3e0(%rsp) vpermps %ymm7, %ymm2, %ymm25 vbroadcastss %xmm3, %ymm27 vpermps %ymm3, %ymm0, %ymm29 vpermps %ymm3, %ymm1, %ymm31 vmovaps %ymm3, 0x400(%rsp) vpermps %ymm3, %ymm2, %ymm16 vbroadcastss %xmm5, %ymm6 vpermps %ymm5, %ymm0, %ymm21 vpermps %ymm5, %ymm1, %ymm0 vmovaps %ymm0, 0x780(%rsp) vmovaps %ymm5, 0x3c0(%rsp) vpermps %ymm5, %ymm2, %ymm0 vmovaps %ymm0, 0x760(%rsp) vmulps %xmm4, %xmm4, %xmm0 vpermps %ymm0, %ymm1, %ymm4 vfmadd231ps %ymm30, %ymm30, %ymm4 # ymm4 = (ymm30 * ymm30) + ymm4 vfmadd231ps %ymm26, %ymm26, %ymm4 # ymm4 = (ymm26 * ymm26) + ymm4 vandps %ymm28, %ymm4, %ymm0 vmovaps %ymm0, 0x5e0(%rsp) movl $0x1, %ecx movq %rcx, 0x128(%rsp) xorl %r11d, %r11d xorl %ebx, %ebx vmovsd 0x245346(%rip), %xmm2 # 0x1eec6f0 vbroadcastss 0x245361(%rip), %ymm3 # 0x1eec714 vbroadcastss 0x279b04(%rip), %ymm1 # 0x1f20ec0 vmovaps %ymm4, 0x740(%rsp) vmovaps %ymm26, 0x1c0(%rsp) vmovaps %ymm30, 0x1a0(%rsp) vmovaps %ymm18, 0x180(%rsp) vmovaps %ymm19, 0x320(%rsp) vmovaps %ymm20, 0x300(%rsp) vmovaps %ymm22, 0x160(%rsp) vmovaps %ymm23, 0x2e0(%rsp) vmovaps %ymm24, 0x2c0(%rsp) vmovaps %ymm25, 0x140(%rsp) vmovaps %ymm27, 0x2a0(%rsp) vmovaps %ymm29, 0x280(%rsp) vmovaps %ymm31, 0x260(%rsp) vmovaps %ymm16, 0x720(%rsp) vmovaps %ymm6, 0x700(%rsp) vmovaps %ymm21, 0x6e0(%rsp) vmovshdup %xmm2, %xmm0 # xmm0 = xmm2[1,1,3,3] vsubss %xmm2, %xmm0, %xmm0 vmulss 0x279a82(%rip), %xmm0, %xmm4 # 0x1f20ed0 vmovaps %xmm4, 0xc0(%rsp) vmovaps %xmm2, 0x470(%rsp) vbroadcastss %xmm2, %ymm4 vbroadcastss %xmm0, %ymm0 vmovaps %ymm4, 0xa0(%rsp) vmovaps %ymm0, 0x80(%rsp) vfmadd231ps 0x279a9b(%rip), %ymm0, %ymm4 # ymm4 = (ymm0 * mem) + ymm4 vsubps %ymm4, %ymm3, %ymm7 vxorps %ymm1, %ymm4, %ymm0 vmulps %ymm0, %ymm7, %ymm0 vmulps %ymm0, %ymm7, %ymm0 vmulps %ymm4, %ymm4, %ymm8 vbroadcastss 0x249b4a(%rip), %ymm2 # 0x1ef0fec vmulps %ymm2, %ymm4, %ymm9 vbroadcastss 0x249b55(%rip), %ymm5 # 0x1ef1004 vaddps %ymm5, %ymm9, %ymm10 vmovaps %ymm1, %ymm13 vmulps %ymm10, %ymm8, %ymm1 vbroadcastss 0x249b33(%rip), %ymm3 # 0x1ef0ff8 vaddps %ymm3, %ymm1, %ymm1 vmulps %ymm7, %ymm7, %ymm11 vmulps %ymm2, %ymm7, %ymm12 vaddps %ymm5, %ymm12, %ymm2 vmulps %ymm2, %ymm11, %ymm2 vaddps %ymm3, %ymm2, %ymm2 vxorps %ymm7, %ymm13, %ymm5 vmulps %ymm5, %ymm4, %ymm5 vmulps %ymm5, %ymm4, %ymm5 vbroadcastss 0x24568d(%rip), %ymm17 # 0x1eecb80 vmulps %ymm17, %ymm0, %ymm13 vmulps %ymm17, %ymm1, %ymm14 vmulps %ymm17, %ymm2, %ymm15 vmulps %ymm17, %ymm5, %ymm5 vmulps %ymm5, %ymm6, %ymm28 vmulps %ymm5, %ymm21, %ymm2 vmovaps 0x780(%rsp), %ymm0 vmulps %ymm5, %ymm0, %ymm1 vmovaps %ymm6, %ymm3 vmovaps 0x760(%rsp), %ymm6 vmulps %ymm5, %ymm6, %ymm5 vfmadd231ps %ymm27, %ymm15, %ymm28 # ymm28 = (ymm15 * ymm27) + ymm28 vfmadd231ps %ymm29, %ymm15, %ymm2 # ymm2 = (ymm15 * ymm29) + ymm2 vfmadd231ps %ymm31, %ymm15, %ymm1 # ymm1 = (ymm15 * ymm31) + ymm1 vfmadd231ps %ymm15, %ymm16, %ymm5 # ymm5 = (ymm16 * ymm15) + ymm5 vfmadd231ps %ymm22, %ymm14, %ymm28 # ymm28 = (ymm14 * ymm22) + ymm28 vfmadd231ps %ymm23, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm23) + ymm2 vmovaps %ymm1, %ymm15 vfmadd231ps %ymm24, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm24) + ymm15 vfmadd231ps %ymm14, %ymm25, %ymm5 # ymm5 = (ymm25 * ymm14) + ymm5 vmovaps %ymm16, %ymm1 vmovaps 0x7a0(%rsp), %ymm16 vfmadd231ps %ymm16, %ymm13, %ymm28 # ymm28 = (ymm13 * ymm16) + ymm28 vfmadd231ps %ymm18, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm18) + ymm2 vfmadd231ps %ymm19, %ymm13, %ymm15 # ymm15 = (ymm13 * ymm19) + ymm15 vmovaps %ymm15, 0x40(%rsp) vfmadd231ps %ymm13, %ymm20, %ymm5 # ymm5 = (ymm20 * ymm13) + ymm5 vaddps %ymm7, %ymm7, %ymm13 vmulps %ymm4, %ymm13, %ymm14 vsubps %ymm11, %ymm14, %ymm11 vaddps %ymm4, %ymm4, %ymm15 vmulps %ymm10, %ymm15, %ymm10 vmulps %ymm4, %ymm9, %ymm4 vaddps %ymm4, %ymm10, %ymm4 vaddps 0x249a3b(%rip){1to8}, %ymm9, %ymm9 # 0x1ef0ff8 vmulps %ymm9, %ymm13, %ymm9 vmulps %ymm7, %ymm12, %ymm7 vsubps %ymm7, %ymm9, %ymm7 vsubps %ymm14, %ymm8, %ymm8 vmulps %ymm17, %ymm11, %ymm9 vmulps %ymm17, %ymm4, %ymm4 vmulps %ymm17, %ymm7, %ymm7 vmulps %ymm17, %ymm8, %ymm8 vmulps %ymm3, %ymm8, %ymm10 vbroadcastss 0x245120(%rip), %ymm11 # 0x1eec714 vmulps %ymm8, %ymm21, %ymm12 vmulps %ymm0, %ymm8, %ymm13 vmulps %ymm6, %ymm8, %ymm8 vfmadd231ps %ymm27, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm27) + ymm10 vfmadd231ps %ymm29, %ymm7, %ymm12 # ymm12 = (ymm7 * ymm29) + ymm12 vfmadd231ps %ymm31, %ymm7, %ymm13 # ymm13 = (ymm7 * ymm31) + ymm13 vfmadd231ps %ymm7, %ymm1, %ymm8 # ymm8 = (ymm1 * ymm7) + ymm8 vfmadd231ps %ymm22, %ymm4, %ymm10 # ymm10 = (ymm4 * ymm22) + ymm10 vfmadd231ps %ymm23, %ymm4, %ymm12 # ymm12 = (ymm4 * ymm23) + ymm12 vfmadd231ps %ymm24, %ymm4, %ymm13 # ymm13 = (ymm4 * ymm24) + ymm13 vfmadd231ps %ymm4, %ymm25, %ymm8 # ymm8 = (ymm25 * ymm4) + ymm8 vfmadd231ps %ymm16, %ymm9, %ymm10 # ymm10 = (ymm9 * ymm16) + ymm10 vfmadd231ps %ymm18, %ymm9, %ymm12 # ymm12 = (ymm9 * ymm18) + ymm12 vfmadd231ps %ymm19, %ymm9, %ymm13 # ymm13 = (ymm9 * ymm19) + ymm13 vfmadd231ps %ymm9, %ymm20, %ymm8 # ymm8 = (ymm20 * ymm9) + ymm8 vbroadcastss 0xc0(%rsp), %ymm4 vmulps %ymm4, %ymm10, %ymm9 vmulps %ymm4, %ymm12, %ymm12 vmulps %ymm4, %ymm13, %ymm13 vmulps %ymm4, %ymm8, %ymm6 vmovaps %ymm28, %ymm8 vmovaps 0x2b86af(%rip), %ymm7 # 0x1f5fd20 vxorps %xmm31, %xmm31, %xmm31 vpermt2ps %ymm31, %ymm7, %ymm8 vmovaps %ymm2, %ymm0 vpermt2ps %ymm31, %ymm7, %ymm0 vmovaps 0x40(%rsp), %ymm1 vmovaps %ymm1, %ymm10 vpermt2ps %ymm31, %ymm7, %ymm10 vaddps %ymm6, %ymm5, %ymm4 vmaxps %ymm4, %ymm5, %ymm14 vminps %ymm4, %ymm5, %ymm4 vmovaps %ymm5, %ymm15 vpermt2ps %ymm31, %ymm7, %ymm15 vmovaps %ymm9, %ymm19 vpermt2ps %ymm31, %ymm7, %ymm19 vmovaps %ymm12, %ymm20 vpermt2ps %ymm31, %ymm7, %ymm20 vmovaps %ymm13, %ymm5 vpermt2ps %ymm31, %ymm7, %ymm5 vpermt2ps %ymm31, %ymm7, %ymm6 vsubps %ymm6, %ymm15, %ymm16 vsubps %ymm28, %ymm8, %ymm7 vmovaps %ymm0, 0xc0(%rsp) vsubps %ymm2, %ymm0, %ymm6 vsubps %ymm1, %ymm10, %ymm21 vmulps %ymm13, %ymm6, %ymm17 vfmsub231ps %ymm21, %ymm12, %ymm17 # ymm17 = (ymm12 * ymm21) - ymm17 vmulps %ymm9, %ymm21, %ymm18 vfmsub231ps %ymm7, %ymm13, %ymm18 # ymm18 = (ymm13 * ymm7) - ymm18 vmulps %ymm12, %ymm7, %ymm22 vfmsub231ps %ymm6, %ymm9, %ymm22 # ymm22 = (ymm9 * ymm6) - ymm22 vmulps %ymm22, %ymm22, %ymm22 vfmadd231ps %ymm18, %ymm18, %ymm22 # ymm22 = (ymm18 * ymm18) + ymm22 vfmadd231ps %ymm17, %ymm17, %ymm22 # ymm22 = (ymm17 * ymm17) + ymm22 vmulps %ymm21, %ymm21, %ymm17 vfmadd231ps %ymm6, %ymm6, %ymm17 # ymm17 = (ymm6 * ymm6) + ymm17 vfmadd231ps %ymm7, %ymm7, %ymm17 # ymm17 = (ymm7 * ymm7) + ymm17 vrcp14ps %ymm17, %ymm18 vmovaps %ymm18, %ymm23 vmovaps %ymm11, %ymm3 vfnmadd213ps %ymm11, %ymm17, %ymm23 # ymm23 = -(ymm17 * ymm23) + ymm11 vfmadd132ps %ymm18, %ymm18, %ymm23 # ymm23 = (ymm23 * ymm18) + ymm18 vmulps %ymm23, %ymm22, %ymm18 vmulps %ymm5, %ymm6, %ymm22 vfmsub231ps %ymm21, %ymm20, %ymm22 # ymm22 = (ymm20 * ymm21) - ymm22 vmulps %ymm19, %ymm21, %ymm24 vfmsub231ps %ymm7, %ymm5, %ymm24 # ymm24 = (ymm5 * ymm7) - ymm24 vmulps %ymm20, %ymm7, %ymm25 vfmsub231ps %ymm6, %ymm19, %ymm25 # ymm25 = (ymm19 * ymm6) - ymm25 vmulps %ymm25, %ymm25, %ymm25 vfmadd231ps %ymm24, %ymm24, %ymm25 # ymm25 = (ymm24 * ymm24) + ymm25 vfmadd231ps %ymm22, %ymm22, %ymm25 # ymm25 = (ymm22 * ymm22) + ymm25 vmulps %ymm23, %ymm25, %ymm22 vmaxps %ymm22, %ymm18, %ymm18 vsqrtps %ymm18, %ymm18 vmaxps %ymm15, %ymm16, %ymm22 vmaxps %ymm22, %ymm14, %ymm14 vaddps %ymm14, %ymm18, %ymm14 vminps %ymm15, %ymm16, %ymm15 vminps %ymm15, %ymm4, %ymm4 vsubps %ymm18, %ymm4, %ymm4 vmulps 0x24916d(%rip){1to8}, %ymm14, %ymm14 # 0x1ef0940 vmulps 0x249167(%rip){1to8}, %ymm4, %ymm4 # 0x1ef0944 vmovaps %ymm4, 0x440(%rsp) vmulps %ymm14, %ymm14, %ymm4 vrsqrt14ps %ymm17, %ymm15 vmulps 0x244f21(%rip){1to8}, %ymm17, %ymm14 # 0x1eec71c vmulps %ymm14, %ymm15, %ymm14 vmulps %ymm15, %ymm15, %ymm16 vmulps %ymm14, %ymm16, %ymm14 vfmadd231ps 0x244f02(%rip){1to8}, %ymm15, %ymm14 # ymm14 = (ymm15 * mem) + ymm14 vmulps %ymm7, %ymm14, %ymm15 vmulps %ymm14, %ymm6, %ymm16 vmulps %ymm14, %ymm21, %ymm18 vmovaps %ymm28, 0x520(%rsp) vsubps %ymm28, %ymm31, %ymm27 vmovaps %ymm2, 0x240(%rsp) vsubps %ymm2, %ymm31, %ymm28 vsubps %ymm1, %ymm31, %ymm29 vmovaps 0x600(%rsp), %ymm0 vmulps %ymm29, %ymm0, %ymm22 vfmadd231ps %ymm28, %ymm30, %ymm22 # ymm22 = (ymm30 * ymm28) + ymm22 vfmadd231ps %ymm27, %ymm26, %ymm22 # ymm22 = (ymm26 * ymm27) + ymm22 vmulps %ymm29, %ymm29, %ymm24 vfmadd231ps %ymm28, %ymm28, %ymm24 # ymm24 = (ymm28 * ymm28) + ymm24 vfmadd231ps %ymm27, %ymm27, %ymm24 # ymm24 = (ymm27 * ymm27) + ymm24 vmulps %ymm18, %ymm0, %ymm17 vfmadd231ps %ymm30, %ymm16, %ymm17 # ymm17 = (ymm16 * ymm30) + ymm17 vfmadd231ps %ymm26, %ymm15, %ymm17 # ymm17 = (ymm15 * ymm26) + ymm17 vmulps %ymm18, %ymm29, %ymm18 vfmadd231ps %ymm16, %ymm28, %ymm18 # ymm18 = (ymm28 * ymm16) + ymm18 vfmadd231ps %ymm15, %ymm27, %ymm18 # ymm18 = (ymm27 * ymm15) + ymm18 vmulps %ymm17, %ymm17, %ymm2 vmovaps 0x740(%rsp), %ymm0 vsubps %ymm2, %ymm0, %ymm15 vmulps %ymm18, %ymm17, %ymm25 vsubps %ymm25, %ymm22, %ymm22 vaddps %ymm22, %ymm22, %ymm22 vmulps %ymm18, %ymm18, %ymm25 vsubps %ymm25, %ymm24, %ymm1 vsubps %ymm4, %ymm1, %ymm4 vmulps %ymm22, %ymm22, %ymm25 vmulps 0x2452ad(%rip){1to8}, %ymm15, %ymm26 # 0x1eecb8c vmulps %ymm4, %ymm26, %ymm30 vsubps %ymm30, %ymm25, %ymm30 vcmpnltps %ymm31, %ymm30, %k1 kmovd %k1, %edi kortestb %k1, %k1 je 0x1ca79e3 vsqrtps %ymm30, %ymm30 vaddps %ymm15, %ymm15, %ymm31 vmovaps %ymm3, %ymm16 vrcp14ps %ymm31, %ymm3 vfnmadd213ps %ymm16, %ymm3, %ymm31 # ymm31 = -(ymm3 * ymm31) + ymm16 vfmadd132ps %ymm3, %ymm3, %ymm31 # ymm31 = (ymm31 * ymm3) + ymm3 vxorps 0x279592(%rip){1to8}, %ymm22, %ymm3 # 0x1f20ec0 vsubps %ymm30, %ymm3, %ymm3 vmulps %ymm31, %ymm3, %ymm3 vsubps %ymm22, %ymm30, %ymm30 vmulps %ymm31, %ymm30, %ymm30 vmovaps %ymm17, %ymm31 vfmadd213ps %ymm18, %ymm3, %ymm31 # ymm31 = (ymm3 * ymm31) + ymm18 vmulps %ymm31, %ymm14, %ymm31 vmovaps %ymm31, 0x5a0(%rsp) vmovaps %ymm17, %ymm31 vfmadd213ps %ymm18, %ymm30, %ymm31 # ymm31 = (ymm30 * ymm31) + ymm18 vmulps %ymm31, %ymm14, %ymm31 vmovaps %ymm31, 0x580(%rsp) vbroadcastss 0x24409c(%rip), %ymm16 # 0x1eeba20 vblendmps %ymm3, %ymm16, %ymm31 {%k1} vbroadcastss 0x2451f1(%rip), %ymm3 # 0x1eecb84 vblendmps %ymm30, %ymm3, %ymm30 {%k1} vbroadcastss 0x279521(%rip), %ymm23 # 0x1f20ec4 vandps %ymm23, %ymm2, %ymm3 vmovaps 0x5e0(%rsp), %ymm16 vmaxps %ymm3, %ymm16, %ymm3 vmulps 0x24a4f3(%rip){1to8}, %ymm3, %ymm3 # 0x1ef1eb4 vandps %ymm23, %ymm15, %ymm23 vcmpltps %ymm3, %ymm23, %k1 {%k1} kortestb %k1, %k1 jne 0x1ca99f3 vbroadcastss 0x244d33(%rip), %ymm3 # 0x1eec714 jmp 0x1ca79f7 vbroadcastss 0x244033(%rip), %ymm31 # 0x1eeba20 vbroadcastss 0x24518d(%rip), %ymm30 # 0x1eecb84 andb $0x7f, %dil je 0x1ca7e3e vmovaps %ymm21, 0x220(%rsp) vmovaps %ymm3, %ymm16 vmovss 0xc(%r15), %xmm3 vmovss 0x20(%r15), %xmm4 vmovaps 0x490(%rsp), %xmm23 vsubss %xmm23, %xmm3, %xmm3 vbroadcastss %xmm3, %ymm3 vmaxps %ymm31, %ymm3, %ymm3 vsubss %xmm23, %xmm4, %xmm4 vbroadcastss %xmm4, %ymm4 vminps %ymm30, %ymm4, %ymm4 vmulps %ymm13, %ymm29, %ymm23 vfmadd213ps %ymm23, %ymm12, %ymm28 # ymm28 = (ymm12 * ymm28) + ymm23 vfmadd213ps %ymm28, %ymm9, %ymm27 # ymm27 = (ymm9 * ymm27) + ymm28 vmovaps 0x600(%rsp), %ymm21 vmulps %ymm13, %ymm21, %ymm13 vmovaps 0x1a0(%rsp), %ymm24 vfmadd231ps %ymm12, %ymm24, %ymm13 # ymm13 = (ymm24 * ymm12) + ymm13 vmovaps 0x1c0(%rsp), %ymm31 vfmadd231ps %ymm9, %ymm31, %ymm13 # ymm13 = (ymm31 * ymm9) + ymm13 vbroadcastss 0x279439(%rip), %ymm28 # 0x1f20ec4 vandps %ymm28, %ymm13, %ymm11 vbroadcastss 0x24954d(%rip), %ymm29 # 0x1ef0fe8 vcmpltps %ymm29, %ymm11, %k0 vbroadcastss 0x279414(%rip), %ymm30 # 0x1f20ec0 vxorps %ymm30, %ymm27, %ymm11 vrcp14ps %ymm13, %ymm12 vxorps %ymm30, %ymm13, %ymm23 vmovaps %ymm12, %ymm27 vfnmadd213ps %ymm16, %ymm13, %ymm27 # ymm27 = -(ymm13 * ymm27) + ymm16 vfmadd132ps %ymm12, %ymm12, %ymm27 # ymm27 = (ymm27 * ymm12) + ymm12 vmulps %ymm11, %ymm27, %ymm11 vcmpltps %ymm23, %ymm13, %k1 korb %k1, %k0, %k1 vbroadcastss 0x245099(%rip), %ymm27 # 0x1eecb84 vblendmps %ymm27, %ymm11, %ymm12 {%k1} vmaxps %ymm12, %ymm3, %ymm3 vcmpnleps %ymm23, %ymm13, %k1 korb %k1, %k0, %k1 vbroadcastss 0x243f15(%rip), %ymm23 # 0x1eeba20 vmovaps %ymm23, %ymm11 {%k1} vminps %ymm11, %ymm4, %ymm4 vxorps %xmm13, %xmm13, %xmm13 vsubps %ymm8, %ymm13, %ymm8 vsubps 0xc0(%rsp), %ymm13, %ymm9 vsubps %ymm10, %ymm13, %ymm10 vmulps %ymm5, %ymm10, %ymm10 vfnmsub231ps %ymm9, %ymm20, %ymm10 # ymm10 = -(ymm20 * ymm9) - ymm10 vfnmadd231ps %ymm8, %ymm19, %ymm10 # ymm10 = -(ymm19 * ymm8) + ymm10 vmulps %ymm5, %ymm21, %ymm8 vfnmsub231ps %ymm20, %ymm24, %ymm8 # ymm8 = -(ymm24 * ymm20) - ymm8 vfnmadd231ps %ymm19, %ymm31, %ymm8 # ymm8 = -(ymm31 * ymm19) + ymm8 vandps %ymm28, %ymm8, %ymm9 vcmpltps %ymm29, %ymm9, %k0 vxorps %ymm30, %ymm10, %ymm9 vrcp14ps %ymm8, %ymm10 vxorps %ymm30, %ymm8, %ymm11 vmovaps %ymm10, %ymm12 vfnmadd213ps %ymm16, %ymm8, %ymm12 # ymm12 = -(ymm8 * ymm12) + ymm16 vfmadd132ps %ymm10, %ymm10, %ymm12 # ymm12 = (ymm12 * ymm10) + ymm10 vmulps %ymm9, %ymm12, %ymm9 vcmpltps %ymm11, %ymm8, %k1 korb %k1, %k0, %k1 vblendmps %ymm27, %ymm9, %ymm10 {%k1} vmaxps %ymm10, %ymm3, %ymm0 vcmpnleps %ymm11, %ymm8, %k1 korb %k1, %k0, %k1 vmovaps %ymm23, %ymm9 {%k1} vminps %ymm9, %ymm4, %ymm8 vmovaps %ymm0, 0x500(%rsp) vcmpleps %ymm8, %ymm0, %k0 kmovd %k0, %ecx andb %cl, %dil je 0x1ca7e4a vmovaps 0x5a0(%rsp), %ymm3 vmaxps 0x440(%rsp), %ymm13, %ymm4 vminps %ymm16, %ymm3, %ymm3 vxorps %xmm10, %xmm10, %xmm10 vmaxps %ymm10, %ymm3, %ymm3 vmovaps 0x580(%rsp), %ymm9 vminps %ymm16, %ymm9, %ymm9 vmovaps 0x27933a(%rip), %ymm11 # 0x1f20f40 vaddps %ymm3, %ymm11, %ymm3 vbroadcastss 0x2768a5(%rip), %ymm12 # 0x1f1e4b8 vmulps %ymm3, %ymm12, %ymm3 vmovaps 0xa0(%rsp), %ymm0 vmovaps %ymm1, %ymm5 vmovaps 0x80(%rsp), %ymm1 vfmadd213ps %ymm0, %ymm1, %ymm3 # ymm3 = (ymm1 * ymm3) + ymm0 vmovaps %ymm3, 0x5a0(%rsp) vmaxps %ymm10, %ymm9, %ymm3 vaddps %ymm3, %ymm11, %ymm3 vmulps %ymm3, %ymm12, %ymm3 vfmadd213ps %ymm0, %ymm1, %ymm3 # ymm3 = (ymm1 * ymm3) + ymm0 vmovaps %ymm3, 0x580(%rsp) vmulps %ymm4, %ymm4, %ymm3 vsubps %ymm3, %ymm5, %ymm11 vmulps %ymm11, %ymm26, %ymm3 vsubps %ymm3, %ymm25, %ymm3 vcmpnltps %ymm10, %ymm3, %k0 kortestb %k0, %k0 vmovaps 0x2e0(%rsp), %ymm23 vmovaps 0x2c0(%rsp), %ymm24 vmovaps 0x2a0(%rsp), %ymm27 vmovaps 0x280(%rsp), %ymm29 vmovaps 0x260(%rsp), %ymm31 je 0x1ca7ebe vxorps %xmm20, %xmm20, %xmm20 vcmpnltps %ymm13, %ymm3, %k1 vsqrtps %ymm3, %ymm3 vaddps %ymm15, %ymm15, %ymm4 vrcp14ps %ymm4, %ymm9 vfnmadd213ps %ymm16, %ymm9, %ymm4 # ymm4 = -(ymm9 * ymm4) + ymm16 vfmadd132ps %ymm9, %ymm9, %ymm4 # ymm4 = (ymm4 * ymm9) + ymm9 vxorps 0x2791ec(%rip){1to8}, %ymm22, %ymm9 # 0x1f20ec0 vsubps %ymm3, %ymm9, %ymm9 vmulps %ymm4, %ymm9, %ymm12 vsubps %ymm22, %ymm3, %ymm3 vmulps %ymm4, %ymm3, %ymm13 vmovaps %ymm17, %ymm3 vfmadd213ps %ymm18, %ymm12, %ymm3 # ymm3 = (ymm12 * ymm3) + ymm18 vmulps %ymm3, %ymm14, %ymm9 vmovaps 0x1c0(%rsp), %ymm26 vmulps %ymm12, %ymm26, %ymm3 vmovaps 0x1a0(%rsp), %ymm30 vmulps %ymm12, %ymm30, %ymm4 vmulps %ymm12, %ymm21, %ymm10 vmovaps %ymm7, %ymm19 vmovaps %ymm2, %ymm16 vmovaps 0x520(%rsp), %ymm2 vfmadd213ps %ymm2, %ymm9, %ymm19 # ymm19 = (ymm9 * ymm19) + ymm2 vsubps %ymm19, %ymm3, %ymm3 vmovaps %ymm6, %ymm19 vmovaps 0x240(%rsp), %ymm1 vfmadd213ps %ymm1, %ymm9, %ymm19 # ymm19 = (ymm9 * ymm19) + ymm1 vsubps %ymm19, %ymm4, %ymm4 vmovaps 0x40(%rsp), %ymm0 vmovaps 0x220(%rsp), %ymm5 vfmadd213ps %ymm0, %ymm5, %ymm9 # ymm9 = (ymm5 * ymm9) + ymm0 vsubps %ymm9, %ymm10, %ymm9 vfmadd213ps %ymm18, %ymm13, %ymm17 # ymm17 = (ymm13 * ymm17) + ymm18 vmulps %ymm17, %ymm14, %ymm14 vmulps %ymm13, %ymm26, %ymm10 vmulps %ymm13, %ymm30, %ymm17 vmulps %ymm13, %ymm21, %ymm18 vfmadd213ps %ymm2, %ymm14, %ymm7 # ymm7 = (ymm14 * ymm7) + ymm2 vsubps %ymm7, %ymm10, %ymm10 vfmadd213ps %ymm1, %ymm14, %ymm6 # ymm6 = (ymm14 * ymm6) + ymm1 vsubps %ymm6, %ymm17, %ymm1 vfmadd213ps %ymm0, %ymm14, %ymm5 # ymm5 = (ymm14 * ymm5) + ymm0 vsubps %ymm5, %ymm18, %ymm5 vbroadcastss 0x243c6d(%rip), %ymm0 # 0x1eeba20 vblendmps %ymm12, %ymm0, %ymm2 {%k1} vbroadcastss 0x244dc2(%rip), %ymm0 # 0x1eecb84 vblendmps %ymm13, %ymm0, %ymm0 {%k1} vandps %ymm28, %ymm16, %ymm6 vmovaps 0x5e0(%rsp), %ymm7 vmaxps %ymm6, %ymm7, %ymm6 vmulps 0x24a0cf(%rip){1to8}, %ymm6, %ymm6 # 0x1ef1eb4 vandps %ymm28, %ymm15, %ymm7 vcmpltps %ymm6, %ymm7, %k1 {%k1} kortestb %k1, %k1 je 0x1ca7ef5 vcmpleps %ymm20, %ymm11, %k2 vbroadcastss 0x244d78(%rip), %ymm7 # 0x1eecb84 vbroadcastss 0x243c0b(%rip), %ymm11 # 0x1eeba20 vblendmps %ymm7, %ymm11, %ymm6 {%k2} vmovaps %ymm6, %ymm2 {%k1} vblendmps %ymm11, %ymm7, %ymm6 {%k2} vmovaps %ymm6, %ymm0 {%k1} knotb %k1, %k1 korb %k2, %k1, %k1 kandb %k0, %k1, %k0 jmp 0x1ca7ef5 vbroadcastss 0x27907c(%rip), %ymm28 # 0x1f20ec4 jmp 0x1ca7e50 vmovaps %ymm16, %ymm3 vmovaps 0x3a0(%rsp), %ymm4 vmovaps 0x1c0(%rsp), %ymm26 vmovaps 0x1a0(%rsp), %ymm30 vmovaps 0x180(%rsp), %ymm18 vmovaps 0x320(%rsp), %ymm19 vmovaps 0x300(%rsp), %ymm20 vmovaps 0x160(%rsp), %ymm22 vmovaps 0x2e0(%rsp), %ymm23 vmovaps 0x2c0(%rsp), %ymm24 vmovaps 0x140(%rsp), %ymm25 vmovaps 0x2a0(%rsp), %ymm27 vmovaps 0x280(%rsp), %ymm29 vmovaps 0x260(%rsp), %ymm31 jmp 0x1ca98a9 vxorps %xmm1, %xmm1, %xmm1 vxorps %xmm5, %xmm5, %xmm5 vxorps %xmm3, %xmm3, %xmm3 vxorps %xmm4, %xmm4, %xmm4 vxorps %xmm9, %xmm9, %xmm9 vbroadcastss 0x243b44(%rip), %ymm2 # 0x1eeba20 vbroadcastss 0x244c9f(%rip), %ymm0 # 0x1eecb84 vmovaps 0x1c0(%rsp), %ymm26 vmovaps 0x1a0(%rsp), %ymm30 vmovaps 0x180(%rsp), %ymm18 vmovaps 0x160(%rsp), %ymm22 vmovaps 0x140(%rsp), %ymm25 vbroadcastss 0x10(%r15), %ymm6 vbroadcastss 0x14(%r15), %ymm7 vbroadcastss 0x18(%r15), %ymm11 vmulps %ymm5, %ymm11, %ymm5 vfmadd231ps %ymm1, %ymm7, %ymm5 # ymm5 = (ymm7 * ymm1) + ymm5 vfmadd231ps %ymm10, %ymm6, %ymm5 # ymm5 = (ymm6 * ymm10) + ymm5 vmovaps 0x500(%rsp), %ymm10 vmovaps %ymm10, 0x620(%rsp) vminps %ymm2, %ymm8, %ymm1 vmovaps %ymm1, 0x640(%rsp) vandps %ymm28, %ymm5, %ymm2 vmaxps %ymm0, %ymm10, %ymm5 vmovaps %ymm5, 0x660(%rsp) vmovaps %ymm8, 0x680(%rsp) vbroadcastss 0x278f63(%rip), %ymm0 # 0x1f20ed4 vcmpltps %ymm0, %ymm2, %k1 kmovd %k1, 0x13c(%rsp) vcmpleps %ymm1, %ymm10, %k1 kmovd %k1, %esi andb %dil, %sil vmovaps %ymm5, 0x540(%rsp) vcmpleps %ymm8, %ymm5, %k1 kmovd %k1, %ecx andb %dil, %cl movl %ecx, 0x24(%rsp) orb %sil, %cl vmovaps 0x320(%rsp), %ymm19 vmovaps 0x300(%rsp), %ymm20 je 0x1ca8bc8 vmovaps %ymm0, %ymm2 movq %r12, 0x70(%rsp) movq %r14, 0x390(%rsp) movb %al, 0xf(%rsp) knotb %k0, %k1 vmulps %ymm11, %ymm9, %ymm0 vfmadd213ps %ymm0, %ymm7, %ymm4 # ymm4 = (ymm7 * ymm4) + ymm0 vfmadd213ps %ymm4, %ymm6, %ymm3 # ymm3 = (ymm6 * ymm3) + ymm4 vandps %ymm28, %ymm3, %ymm0 vcmpltps %ymm2, %ymm0, %k0 kmovd %k1, 0x134(%rsp) korb %k1, %k0, %k1 vpbroadcastd 0x278ecc(%rip), %ymm0 # 0x1f20edc vpblendmd 0x278ebe(%rip){1to8}, %ymm0, %ymm0 {%k1} # 0x1f20ed8 movq 0x128(%rsp), %rax vpbroadcastd %eax, %ymm1 vmovdqa %ymm0, 0x6a0(%rsp) vmovdqa %ymm1, 0x5c0(%rsp) vpcmpnltd %ymm0, %ymm1, %k0 kmovd %k0, %r12d movl %esi, 0x138(%rsp) andb %sil, %r12b movq %r11, 0x398(%rsp) je 0x1ca8bdf vmovaps 0x420(%rsp), %ymm1 vmovaps 0x3e0(%rsp), %ymm2 vminps %xmm2, %xmm1, %xmm0 vmaxps %xmm2, %xmm1, %xmm1 vmovaps 0x400(%rsp), %ymm3 vmovaps 0x3c0(%rsp), %ymm4 vminps %xmm4, %xmm3, %xmm2 vminps %xmm2, %xmm0, %xmm0 vmaxps %xmm4, %xmm3, %xmm2 vmaxps %xmm2, %xmm1, %xmm1 vbroadcastss 0x278e22(%rip), %xmm2 # 0x1f20ec4 vandps %xmm2, %xmm0, %xmm0 vandps %xmm2, %xmm1, %xmm2 vmaxps %xmm2, %xmm0, %xmm0 vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3] vmaxss %xmm0, %xmm2, %xmm2 vshufpd $0x1, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[1,0] vmaxss %xmm2, %xmm0, %xmm0 vmulss 0x249ded(%rip), %xmm0, %xmm0 # 0x1ef1eb4 vmovss %xmm0, 0x30(%rsp) vshufps $0xff, %xmm1, %xmm1, %xmm0 # xmm0 = xmm1[3,3,3,3] vmovaps %xmm0, 0x480(%rsp) vmovaps 0x500(%rsp), %ymm0 vaddps 0x3a0(%rsp), %ymm0, %ymm0 vmovaps %ymm0, 0x560(%rsp) kmovd %r12d, %k1 vbroadcastss 0x24391c(%rip), %ymm0 # 0x1eeba20 vblendmps 0x500(%rsp), %ymm0, %ymm0 {%k1} vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm0, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1] vminps %ymm2, %ymm1, %ymm1 vcmpeqps %ymm1, %ymm0, %k0 kmovd %k0, %eax andb %r12b, %al movzbl %al, %eax movzbl %r12b, %ecx cmovnel %eax, %ecx tzcntl %ecx, %ecx movb $0x1, %r14b shlb %cl, %r14b shll $0x2, %ecx vmovss 0x5a0(%rsp,%rcx), %xmm9 vmovss 0x620(%rsp,%rcx), %xmm8 vmovaps 0x10(%r15), %xmm0 vmovaps %xmm0, 0x440(%rsp) vdpps $0x7f, %xmm0, %xmm0, %xmm0 vucomiss 0x2438a8(%rip), %xmm0 # 0x1eeba24 jb 0x1ca8184 vsqrtss %xmm0, %xmm0, %xmm0 jmp 0x1ca81bc vmovaps %xmm9, 0x40(%rsp) vmovaps %xmm8, 0x80(%rsp) kmovw %k1, 0xc0(%rsp) vzeroupper callq 0x6aa20 kmovw 0xc0(%rsp), %k1 vmovaps 0x80(%rsp), %xmm8 vmovaps 0x40(%rsp), %xmm9 movzbl %r14b, %eax kmovd %eax, %k0 kandnb %k1, %k0, %k0 kmovd %k0, %r12d vmulss 0x249ce0(%rip), %xmm0, %xmm0 # 0x1ef1eb4 vmovss %xmm0, 0x34(%rsp) movl $0x5, %r14d vmovaps %xmm8, 0x80(%rsp) vbroadcastss %xmm8, %xmm0 vxorps %xmm1, %xmm1, %xmm1 vfmadd132ps 0x440(%rsp), %xmm1, %xmm0 # xmm0 = (xmm0 * mem) + xmm1 vmovss 0x244510(%rip), %xmm1 # 0x1eec714 vsubss %xmm9, %xmm1, %xmm11 vbroadcastss 0x278cae(%rip), %xmm6 # 0x1f20ec0 vxorps %xmm6, %xmm9, %xmm1 vmulss %xmm1, %xmm11, %xmm1 vmulss %xmm1, %xmm11, %xmm1 vmulss %xmm9, %xmm9, %xmm12 vmovss 0x248dc1(%rip), %xmm8 # 0x1ef0fec vmovaps %xmm8, %xmm10 vmovss 0x248dcc(%rip), %xmm7 # 0x1ef1004 vfmadd213ss %xmm7, %xmm9, %xmm10 # xmm10 = (xmm9 * xmm10) + xmm7 vmovaps %xmm10, %xmm2 vmovss 0x248daf(%rip), %xmm5 # 0x1ef0ff8 vfmadd213ss %xmm5, %xmm12, %xmm2 # xmm2 = (xmm12 * xmm2) + xmm5 vmulss %xmm11, %xmm11, %xmm3 vmovaps %xmm8, %xmm4 vfmadd213ss %xmm7, %xmm11, %xmm4 # xmm4 = (xmm11 * xmm4) + xmm7 vfmadd213ss %xmm5, %xmm3, %xmm4 # xmm4 = (xmm3 * xmm4) + xmm5 vxorps %xmm6, %xmm11, %xmm3 vmulss %xmm3, %xmm9, %xmm3 vmulss %xmm3, %xmm9, %xmm3 vmovss 0x24490b(%rip), %xmm5 # 0x1eecb80 vmulss %xmm5, %xmm1, %xmm1 vmulss %xmm5, %xmm2, %xmm2 vmulss %xmm5, %xmm4, %xmm4 vmulss %xmm5, %xmm3, %xmm3 vbroadcastss %xmm3, %xmm3 vmulps 0x3c0(%rsp), %xmm3, %xmm3 vbroadcastss %xmm4, %xmm4 vfmadd132ps 0x400(%rsp), %xmm3, %xmm4 # xmm4 = (xmm4 * mem) + xmm3 vbroadcastss %xmm2, %xmm2 vfmadd132ps 0x3e0(%rsp), %xmm4, %xmm2 # xmm2 = (xmm2 * mem) + xmm4 vbroadcastss %xmm1, %xmm3 vfmadd132ps 0x420(%rsp), %xmm2, %xmm3 # xmm3 = (xmm3 * mem) + xmm2 vmulss 0x248714(%rip), %xmm11, %xmm6 # 0x1ef09dc vfmadd231ss 0x248d37(%rip), %xmm9, %xmm7 # xmm7 = (xmm9 * mem) + xmm7 vmovaps %xmm7, 0x4f0(%rsp) vmovss 0x248d2a(%rip), %xmm1 # 0x1ef100c vfmadd213ss 0x2448a1(%rip), %xmm9, %xmm1 # xmm1 = (xmm9 * xmm1) + mem vmovaps %xmm1, 0x4e0(%rsp) vfmadd213ss 0x2486cf(%rip), %xmm9, %xmm8 # xmm8 = (xmm9 * xmm8) + mem vmovaps %xmm8, 0x4d0(%rsp) vmovaps %xmm3, 0x520(%rsp) vsubps %xmm3, %xmm0, %xmm0 vmovaps %xmm0, 0xc0(%rsp) vdpps $0x7f, %xmm0, %xmm0, %xmm0 vucomiss 0x2436fa(%rip), %xmm0 # 0x1eeba24 vmovaps %xmm9, 0x40(%rsp) vmovaps %xmm0, 0xa0(%rsp) jb 0x1ca8341 vsqrtss %xmm0, %xmm0, %xmm7 jmp 0x1ca839b vmovss %xmm10, 0x240(%rsp) vmovaps %xmm11, 0x220(%rsp) vmovss %xmm12, 0x110(%rsp) vmovss %xmm6, 0x100(%rsp) vzeroupper callq 0x6aa20 vmovss 0x100(%rsp), %xmm6 vmovss 0x110(%rsp), %xmm12 vmovaps 0x220(%rsp), %xmm11 vmovss 0x240(%rsp), %xmm10 vmovaps 0x40(%rsp), %xmm9 vmovaps %xmm0, %xmm7 vaddss %xmm11, %xmm11, %xmm0 vmulss %xmm0, %xmm9, %xmm1 vfnmadd231ss %xmm11, %xmm11, %xmm1 # xmm1 = -(xmm11 * xmm11) + xmm1 vaddss %xmm9, %xmm9, %xmm2 vmovss 0x248c36(%rip), %xmm4 # 0x1ef0fec vmulss %xmm4, %xmm9, %xmm3 vmulss %xmm3, %xmm9, %xmm3 vfmadd213ss %xmm3, %xmm2, %xmm10 # xmm10 = (xmm2 * xmm10) + xmm3 vmovaps %xmm4, %xmm2 vmovss 0x248c29(%rip), %xmm4 # 0x1ef0ff8 vfmadd213ss %xmm4, %xmm9, %xmm2 # xmm2 = (xmm9 * xmm2) + xmm4 vmulss 0x248c14(%rip), %xmm11, %xmm3 # 0x1ef0ff0 vmulss %xmm3, %xmm11, %xmm3 vfmadd231ss %xmm2, %xmm0, %xmm3 # xmm3 = (xmm0 * xmm2) + xmm3 vfmadd213ss %xmm12, %xmm9, %xmm6 # xmm6 = (xmm9 * xmm6) + xmm12 vmovss 0x24478e(%rip), %xmm5 # 0x1eecb80 vmulss %xmm5, %xmm1, %xmm0 vmulss %xmm5, %xmm10, %xmm1 vmulss %xmm5, %xmm3, %xmm2 vmulss %xmm5, %xmm6, %xmm3 vbroadcastss %xmm3, %xmm3 vmulps 0x3c0(%rsp), %xmm3, %xmm3 vbroadcastss %xmm2, %xmm2 vfmadd132ps 0x400(%rsp), %xmm3, %xmm2 # xmm2 = (xmm2 * mem) + xmm3 vbroadcastss %xmm1, %xmm1 vfmadd132ps 0x3e0(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2 vbroadcastss %xmm0, %xmm12 vfmadd132ps 0x420(%rsp), %xmm1, %xmm12 # xmm12 = (xmm12 * mem) + xmm1 vdpps $0x7f, %xmm12, %xmm12, %xmm0 vxorps %xmm1, %xmm1, %xmm1 vmovss %xmm0, %xmm1, %xmm2 # xmm2 = xmm0[0],xmm1[1,2,3] vrsqrt14ss %xmm2, %xmm1, %xmm3 vmulss 0x2442bf(%rip), %xmm3, %xmm6 # 0x1eec718 vmulss 0x2442bb(%rip), %xmm0, %xmm8 # 0x1eec71c vrcp14ss %xmm2, %xmm1, %xmm2 vxorps 0x278a4f(%rip){1to4}, %xmm0, %xmm1 # 0x1f20ec0 vmovaps %xmm2, 0x100(%rsp) vfnmadd213ss %xmm4, %xmm0, %xmm2 # xmm2 = -(xmm0 * xmm2) + xmm4 vmovss %xmm2, 0x38(%rsp) vucomiss %xmm1, %xmm0 vmovaps %xmm12, 0x240(%rsp) vmovss %xmm7, 0x220(%rsp) vmovaps %xmm0, 0x110(%rsp) jb 0x1ca84ac vsqrtss %xmm0, %xmm0, %xmm5 jmp 0x1ca84f4 vmovaps %xmm3, 0xf0(%rsp) vmovss %xmm6, 0x14(%rsp) vmovss %xmm8, 0x10(%rsp) vzeroupper callq 0x6aa20 vmovss 0x10(%rsp), %xmm8 vmovss 0x14(%rsp), %xmm6 vmovaps 0xf0(%rsp), %xmm3 vmovss 0x220(%rsp), %xmm7 vmovaps 0x240(%rsp), %xmm12 vmovaps %xmm0, %xmm5 vmovaps 0xc0(%rsp), %xmm10 vmovaps 0xa0(%rsp), %xmm17 vmulss %xmm3, %xmm8, %xmm0 vmulss %xmm3, %xmm3, %xmm1 vmulss %xmm1, %xmm0, %xmm0 vaddss %xmm0, %xmm6, %xmm0 vbroadcastss %xmm0, %xmm4 vmulps %xmm4, %xmm12, %xmm0 vmovaps %xmm0, 0xf0(%rsp) vdpps $0x7f, %xmm0, %xmm10, %xmm14 vaddss 0x2441df(%rip), %xmm7, %xmm13 # 0x1eec714 vmulps %xmm14, %xmm14, %xmm0 vsubps %xmm0, %xmm17, %xmm0 vxorps %xmm2, %xmm2, %xmm2 vmovss %xmm0, %xmm2, %xmm1 # xmm1 = xmm0[0],xmm2[1,2,3] vrsqrt14ss %xmm1, %xmm2, %xmm15 vmulss 0x2441c0(%rip), %xmm15, %xmm16 # 0x1eec718 vmulss 0x2441bc(%rip), %xmm0, %xmm1 # 0x1eec71c vmovss %xmm1, 0x14(%rsp) vucomiss 0x2434b6(%rip), %xmm0 # 0x1eeba24 jb 0x1ca8579 vsqrtss %xmm0, %xmm0, %xmm0 jmp 0x1ca8602 vmovss %xmm13, 0x10(%rsp) vmovaps %xmm14, 0x4c0(%rsp) vmovss %xmm5, 0x2c(%rsp) vmovaps %xmm15, 0x4b0(%rsp) vmovss %xmm16, 0x28(%rsp) vmovaps %xmm4, 0x4a0(%rsp) vzeroupper callq 0x6aa20 vmovaps 0x4a0(%rsp), %xmm4 vmovss 0x28(%rsp), %xmm16 vmovaps 0x4b0(%rsp), %xmm15 vmovss 0x2c(%rsp), %xmm5 vmovaps 0x4c0(%rsp), %xmm14 vmovss 0x10(%rsp), %xmm13 vmovss 0x220(%rsp), %xmm7 vmovaps 0x240(%rsp), %xmm12 vmovaps 0xa0(%rsp), %xmm17 vmovaps 0xc0(%rsp), %xmm10 vbroadcastss 0x2788b8(%rip), %ymm28 # 0x1f20ec4 vmovaps 0x1c0(%rsp), %ymm26 vmovaps 0x1a0(%rsp), %ymm30 vmovaps 0x180(%rsp), %ymm18 vmovaps 0x320(%rsp), %ymm19 vmovaps 0x300(%rsp), %ymm20 vmovaps 0x160(%rsp), %ymm22 vmovaps 0x2e0(%rsp), %ymm23 vmovaps 0x2c0(%rsp), %ymm24 vmovaps 0x140(%rsp), %ymm25 vmovaps 0x2a0(%rsp), %ymm27 vmovaps 0x280(%rsp), %ymm29 vmovaps 0x260(%rsp), %ymm31 vmovaps 0x40(%rsp), %xmm9 vmovaps 0x80(%rsp), %xmm8 vbroadcastss 0x4d0(%rsp), %xmm1 vmulps 0x3c0(%rsp), %xmm1, %xmm1 vbroadcastss 0x4e0(%rsp), %xmm2 vfmadd132ps 0x400(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1 vbroadcastss 0x4f0(%rsp), %xmm1 vfmadd132ps 0x3e0(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2 vmovss 0x248932(%rip), %xmm2 # 0x1ef0ff0 vfmadd213ss 0x248931(%rip), %xmm9, %xmm2 # xmm2 = (xmm9 * xmm2) + mem vbroadcastss %xmm2, %xmm2 vfmadd132ps 0x420(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1 vbroadcastss 0x110(%rsp), %xmm1 vmulps %xmm1, %xmm2, %xmm1 vdpps $0x7f, %xmm2, %xmm12, %xmm2 vbroadcastss %xmm2, %xmm2 vmulps %xmm2, %xmm12, %xmm2 vsubps %xmm2, %xmm1, %xmm2 vmovss 0x38(%rsp), %xmm1 vmulss 0x100(%rsp), %xmm1, %xmm3 vmulss 0x34(%rsp), %xmm8, %xmm1 vmovss 0x30(%rsp), %xmm6 vmaxss %xmm1, %xmm6, %xmm1 vbroadcastss %xmm3, %xmm3 vmulps %xmm3, %xmm2, %xmm2 vxorps 0x278797(%rip){1to4}, %xmm12, %xmm3 # 0x1f20ec0 vmulps %xmm2, %xmm4, %xmm2 vmovaps 0xf0(%rsp), %xmm11 vdpps $0x7f, %xmm11, %xmm3, %xmm4 vdivss %xmm5, %xmm6, %xmm5 vfmadd213ss %xmm1, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm7) + xmm1 vdpps $0x7f, %xmm2, %xmm10, %xmm2 vfmadd213ss %xmm7, %xmm5, %xmm13 # xmm13 = (xmm5 * xmm13) + xmm7 vaddss %xmm2, %xmm4, %xmm4 vmovaps 0x440(%rsp), %xmm7 vdpps $0x7f, %xmm11, %xmm7, %xmm5 vdpps $0x7f, %xmm3, %xmm10, %xmm3 vmulss 0x14(%rsp), %xmm15, %xmm2 vmulss %xmm15, %xmm15, %xmm6 vmulss %xmm6, %xmm2, %xmm2 vaddss %xmm2, %xmm16, %xmm6 vdpps $0x7f, %xmm7, %xmm10, %xmm7 vfnmadd231ss %xmm4, %xmm14, %xmm3 # xmm3 = -(xmm14 * xmm4) + xmm3 vfnmadd231ss %xmm5, %xmm14, %xmm7 # xmm7 = -(xmm14 * xmm5) + xmm7 vpermilps $0xff, 0x520(%rsp), %xmm2 # xmm2 = mem[3,3,3,3] vsubss %xmm2, %xmm0, %xmm2 vshufps $0xff, %xmm12, %xmm12, %xmm0 # xmm0 = xmm12[3,3,3,3] vfmsub213ss %xmm0, %xmm6, %xmm3 # xmm3 = (xmm6 * xmm3) - xmm0 vmulss %xmm6, %xmm7, %xmm6 vmulss %xmm3, %xmm5, %xmm7 vfmsub231ss %xmm6, %xmm4, %xmm7 # xmm7 = (xmm4 * xmm6) - xmm7 vdivss %xmm7, %xmm6, %xmm6 vdivss %xmm7, %xmm3, %xmm3 vdivss %xmm7, %xmm5, %xmm5 vdivss %xmm7, %xmm4, %xmm4 vmulss %xmm6, %xmm14, %xmm6 vmulss %xmm5, %xmm2, %xmm5 vsubss %xmm5, %xmm6, %xmm5 vmulss %xmm3, %xmm14, %xmm3 vmulss %xmm4, %xmm2, %xmm4 vsubss %xmm3, %xmm4, %xmm3 vsubss %xmm5, %xmm9, %xmm9 vsubss %xmm3, %xmm8, %xmm8 vbroadcastss 0x2786d6(%rip), %xmm4 # 0x1f20ec4 vandps %xmm4, %xmm14, %xmm3 vucomiss %xmm3, %xmm13 movb $0x1, %al jbe 0x1ca88c3 vaddss %xmm1, %xmm13, %xmm1 vmovaps 0x480(%rsp), %xmm3 vfmadd231ss 0x2496a0(%rip), %xmm3, %xmm1 # xmm1 = (xmm3 * mem) + xmm1 vandps %xmm4, %xmm2, %xmm2 vucomiss %xmm2, %xmm1 jbe 0x1ca88c3 vaddss 0x490(%rsp), %xmm8, %xmm8 xorl %eax, %eax vucomiss 0xc(%r15), %xmm8 jb 0x1ca88c0 vmovss 0x20(%r15), %xmm5 vucomiss %xmm8, %xmm5 jb 0x1ca88c0 xorl %eax, %eax vucomiss 0x2431d4(%rip), %xmm9 # 0x1eeba24 jb 0x1ca88c0 vmovss 0x243eba(%rip), %xmm1 # 0x1eec714 vucomiss %xmm9, %xmm1 jb 0x1ca88c0 vxorps %xmm2, %xmm2, %xmm2 vmovss %xmm17, %xmm2, %xmm1 # xmm1 = xmm17[0],xmm2[1,2,3] vrsqrt14ss %xmm1, %xmm2, %xmm1 vmulss 0x243e9f(%rip), %xmm1, %xmm2 # 0x1eec718 vmulss 0x243e99(%rip), %xmm17, %xmm3 # 0x1eec71c movq 0x18(%rsp), %rcx movq (%rcx), %rax movq 0x1e8(%rax), %rax movq 0x78(%rsp), %rdx movq (%rax,%rdx,8), %r13 movl 0x24(%r15), %eax testl %eax, 0x34(%r13) je 0x1ca88be movq 0x10(%rcx), %rax cmpq $0x0, 0x10(%rax) jne 0x1ca88d9 cmpq $0x0, 0x48(%r13) jne 0x1ca88d9 movb $0x1, %r13b xorl %eax, %eax jmp 0x1ca88c3 xorl %eax, %eax xorl %r13d, %r13d testb %al, %al je 0x1ca8b99 decq %r14 jne 0x1ca81e0 jmp 0x1ca8b8d vmulss %xmm1, %xmm3, %xmm3 vmulss %xmm1, %xmm1, %xmm1 vmulss %xmm1, %xmm3, %xmm1 vaddss %xmm1, %xmm2, %xmm1 vbroadcastss %xmm1, %xmm1 vmulps %xmm1, %xmm10, %xmm1 vfmadd213ps %xmm12, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm0) + xmm12 vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3] vshufps $0xc9, %xmm12, %xmm12, %xmm3 # xmm3 = xmm12[1,2,0,3] vmulps %xmm3, %xmm1, %xmm1 vfmsub231ps %xmm2, %xmm12, %xmm1 # xmm1 = (xmm12 * xmm2) - xmm1 vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3] vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3] vshufps $0xd2, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,0,1,3] vmulps %xmm1, %xmm0, %xmm0 vfmsub231ps %xmm3, %xmm2, %xmm0 # xmm0 = (xmm2 * xmm3) - xmm0 movq 0x18(%rsp), %rdx movq 0x8(%rdx), %rax vshufps $0xe9, %xmm0, %xmm0, %xmm1 # xmm1 = xmm0[1,2,2,3] vmovlps %xmm1, 0x350(%rsp) vmovss %xmm0, 0x358(%rsp) vmovss %xmm9, 0x35c(%rsp) movl $0x0, 0x360(%rsp) movq 0x70(%rsp), %rcx movl %ecx, 0x364(%rsp) movq 0x78(%rsp), %rcx movl %ecx, 0x368(%rsp) movl (%rax), %ecx movl %ecx, 0x36c(%rsp) movl 0x4(%rax), %eax movl %eax, 0x370(%rsp) vmovss %xmm8, 0x20(%r15) movl $0xffffffff, 0x3c(%rsp) # imm = 0xFFFFFFFF leaq 0x3c(%rsp), %rax movq %rax, 0x1f0(%rsp) movq 0x18(%r13), %rax movq %rax, 0x1f8(%rsp) movq 0x8(%rdx), %rax movq %rax, 0x200(%rsp) movq %r15, 0x208(%rsp) leaq 0x350(%rsp), %rax movq %rax, 0x210(%rsp) movl $0x1, 0x218(%rsp) movq 0x48(%r13), %rax testq %rax, %rax vmovaps %xmm9, 0x40(%rsp) vmovaps %xmm8, 0x80(%rsp) vmovss %xmm5, 0xa0(%rsp) je 0x1ca8aa6 leaq 0x1f0(%rsp), %rdi vzeroupper callq *%rax vmovss 0xa0(%rsp), %xmm5 vmovaps 0x80(%rsp), %xmm8 vmovaps 0x40(%rsp), %xmm9 vmovaps 0x260(%rsp), %ymm31 vmovaps 0x280(%rsp), %ymm29 vmovaps 0x2a0(%rsp), %ymm27 vmovaps 0x140(%rsp), %ymm25 vmovaps 0x2c0(%rsp), %ymm24 vmovaps 0x2e0(%rsp), %ymm23 vmovaps 0x160(%rsp), %ymm22 vmovaps 0x300(%rsp), %ymm20 vmovaps 0x320(%rsp), %ymm19 vmovaps 0x180(%rsp), %ymm18 vmovaps 0x1a0(%rsp), %ymm30 vmovaps 0x1c0(%rsp), %ymm26 vbroadcastss 0x278439(%rip), %xmm4 # 0x1f20ec4 vbroadcastss 0x27842f(%rip), %ymm28 # 0x1f20ec4 movq 0x1f0(%rsp), %rax cmpl $0x0, (%rax) je 0x1ca8b76 movq 0x18(%rsp), %rax movq 0x10(%rax), %rcx movq 0x10(%rcx), %rax testq %rax, %rax je 0x1ca8b71 testb $0x2, (%rcx) jne 0x1ca8acc testb $0x40, 0x3e(%r13) je 0x1ca8b64 leaq 0x1f0(%rsp), %rdi vzeroupper callq *%rax vmovss 0xa0(%rsp), %xmm5 vmovaps 0x80(%rsp), %xmm8 vmovaps 0x40(%rsp), %xmm9 vmovaps 0x260(%rsp), %ymm31 vmovaps 0x280(%rsp), %ymm29 vmovaps 0x2a0(%rsp), %ymm27 vmovaps 0x140(%rsp), %ymm25 vmovaps 0x2c0(%rsp), %ymm24 vmovaps 0x2e0(%rsp), %ymm23 vmovaps 0x160(%rsp), %ymm22 vmovaps 0x300(%rsp), %ymm20 vmovaps 0x320(%rsp), %ymm19 vmovaps 0x180(%rsp), %ymm18 vmovaps 0x1a0(%rsp), %ymm30 vmovaps 0x1c0(%rsp), %ymm26 vbroadcastss 0x27836a(%rip), %xmm4 # 0x1f20ec4 vbroadcastss 0x278360(%rip), %ymm28 # 0x1f20ec4 movq 0x1f0(%rsp), %rax cmpl $0x0, (%rax) je 0x1ca8b76 movb $0x1, %r13b jmp 0x1ca8b79 xorl %r13d, %r13d testb %r13b, %r13b jne 0x1ca88ba vmovss %xmm5, 0x20(%r15) jmp 0x1ca88ba xorl %r13d, %r13d vbroadcastss 0x27832b(%rip), %xmm4 # 0x1f20ec4 andb $0x1, %r13b orb %r13b, %bl vmovaps 0x560(%rsp), %ymm0 vcmpleps 0x20(%r15){1to8}, %ymm0, %k0 kmovd %k0, %eax andb %al, %r12b movq 0x398(%rsp), %r11 jne 0x1ca80f6 jmp 0x1ca8be8 vbroadcastss 0x243b43(%rip), %ymm3 # 0x1eec714 vmovaps 0x3a0(%rsp), %ymm4 jmp 0x1ca98a9 vbroadcastss 0x2782dc(%rip), %xmm4 # 0x1f20ec4 vmovaps 0x3a0(%rsp), %ymm3 vaddps 0x540(%rsp), %ymm3, %ymm0 vcmpleps 0x20(%r15){1to8}, %ymm0, %k0 kmovd 0x13c(%rsp), %k1 kmovd 0x134(%rsp), %k2 korb %k2, %k1, %k1 kmovd %k0, %eax movl 0x24(%rsp), %ecx andb %al, %cl vpbroadcastd 0x2782af(%rip), %ymm0 # 0x1f20edc vpblendmd 0x2782a1(%rip){1to8}, %ymm0, %ymm0 {%k1} # 0x1f20ed8 vmovdqa %ymm0, 0x540(%rsp) vpcmpled 0x5c0(%rsp), %ymm0, %k0 kmovd %k0, %r12d movl %ecx, 0x24(%rsp) andb %cl, %r12b je 0x1ca97cf vmovaps 0x660(%rsp), %ymm7 vmovaps 0x420(%rsp), %ymm1 vmovaps 0x3e0(%rsp), %ymm2 vminps %xmm2, %xmm1, %xmm0 vmaxps %xmm2, %xmm1, %xmm1 vmovaps 0x400(%rsp), %ymm5 vmovaps 0x3c0(%rsp), %ymm6 vminps %xmm6, %xmm5, %xmm2 vminps %xmm2, %xmm0, %xmm0 vmaxps %xmm6, %xmm5, %xmm2 vmaxps %xmm2, %xmm1, %xmm1 vandps %xmm4, %xmm0, %xmm0 vandps %xmm4, %xmm1, %xmm2 vmaxps %xmm2, %xmm0, %xmm0 vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3] vmaxss %xmm0, %xmm2, %xmm2 vshufpd $0x1, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[1,0] vmaxss %xmm2, %xmm0, %xmm0 vmulss 0x2491f0(%rip), %xmm0, %xmm0 # 0x1ef1eb4 vmovss %xmm0, 0x30(%rsp) vshufps $0xff, %xmm1, %xmm1, %xmm0 # xmm0 = xmm1[3,3,3,3] vmovaps %xmm0, 0x480(%rsp) vmovaps %ymm7, 0x500(%rsp) vaddps %ymm7, %ymm3, %ymm0 vmovaps %ymm0, 0x560(%rsp) kmovd %r12d, %k1 vbroadcastss 0x242d24(%rip), %ymm0 # 0x1eeba20 vblendmps 0x500(%rsp), %ymm0, %ymm0 {%k1} vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm0, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1] vminps %ymm2, %ymm1, %ymm1 vcmpeqps %ymm1, %ymm0, %k0 kmovd %k0, %eax andb %r12b, %al movzbl %al, %eax movzbl %r12b, %ecx cmovnel %eax, %ecx tzcntl %ecx, %ecx movb $0x1, %r14b shlb %cl, %r14b shll $0x2, %ecx vmovss 0x580(%rsp,%rcx), %xmm9 vmovss 0x680(%rsp,%rcx), %xmm8 vmovaps 0x10(%r15), %xmm0 vmovaps %xmm0, 0x440(%rsp) vdpps $0x7f, %xmm0, %xmm0, %xmm0 vucomiss 0x242cb0(%rip), %xmm0 # 0x1eeba24 jb 0x1ca8d7c vsqrtss %xmm0, %xmm0, %xmm0 jmp 0x1ca8db4 vmovaps %xmm9, 0x40(%rsp) vmovaps %xmm8, 0x80(%rsp) kmovw %k1, 0xc0(%rsp) vzeroupper callq 0x6aa20 kmovw 0xc0(%rsp), %k1 vmovaps 0x80(%rsp), %xmm8 vmovaps 0x40(%rsp), %xmm9 movzbl %r14b, %eax kmovd %eax, %k0 kandnb %k1, %k0, %k0 kmovd %k0, %r12d vmulss 0x2490e8(%rip), %xmm0, %xmm0 # 0x1ef1eb4 vmovss %xmm0, 0x34(%rsp) movl $0x5, %r14d vmovaps %xmm8, 0x80(%rsp) vbroadcastss %xmm8, %xmm0 vxorps %xmm1, %xmm1, %xmm1 vfmadd132ps 0x440(%rsp), %xmm1, %xmm0 # xmm0 = (xmm0 * mem) + xmm1 vmovss 0x243918(%rip), %xmm1 # 0x1eec714 vsubss %xmm9, %xmm1, %xmm11 vbroadcastss 0x2780b6(%rip), %xmm6 # 0x1f20ec0 vxorps %xmm6, %xmm9, %xmm1 vmulss %xmm1, %xmm11, %xmm1 vmulss %xmm1, %xmm11, %xmm1 vmulss %xmm9, %xmm9, %xmm12 vmovss 0x2481c9(%rip), %xmm8 # 0x1ef0fec vmovaps %xmm8, %xmm10 vmovss 0x2481d4(%rip), %xmm7 # 0x1ef1004 vfmadd213ss %xmm7, %xmm9, %xmm10 # xmm10 = (xmm9 * xmm10) + xmm7 vmovaps %xmm10, %xmm2 vmovss 0x2481b7(%rip), %xmm5 # 0x1ef0ff8 vfmadd213ss %xmm5, %xmm12, %xmm2 # xmm2 = (xmm12 * xmm2) + xmm5 vmulss %xmm11, %xmm11, %xmm3 vmovaps %xmm8, %xmm4 vfmadd213ss %xmm7, %xmm11, %xmm4 # xmm4 = (xmm11 * xmm4) + xmm7 vfmadd213ss %xmm5, %xmm3, %xmm4 # xmm4 = (xmm3 * xmm4) + xmm5 vxorps %xmm6, %xmm11, %xmm3 vmulss %xmm3, %xmm9, %xmm3 vmulss %xmm3, %xmm9, %xmm3 vmovss 0x243d13(%rip), %xmm5 # 0x1eecb80 vmulss %xmm5, %xmm1, %xmm1 vmulss %xmm5, %xmm2, %xmm2 vmulss %xmm5, %xmm4, %xmm4 vmulss %xmm5, %xmm3, %xmm3 vbroadcastss %xmm3, %xmm3 vmulps 0x3c0(%rsp), %xmm3, %xmm3 vbroadcastss %xmm4, %xmm4 vfmadd132ps 0x400(%rsp), %xmm3, %xmm4 # xmm4 = (xmm4 * mem) + xmm3 vbroadcastss %xmm2, %xmm2 vfmadd132ps 0x3e0(%rsp), %xmm4, %xmm2 # xmm2 = (xmm2 * mem) + xmm4 vbroadcastss %xmm1, %xmm3 vfmadd132ps 0x420(%rsp), %xmm2, %xmm3 # xmm3 = (xmm3 * mem) + xmm2 vmulss 0x247b1c(%rip), %xmm11, %xmm6 # 0x1ef09dc vfmadd231ss 0x24813f(%rip), %xmm9, %xmm7 # xmm7 = (xmm9 * mem) + xmm7 vmovaps %xmm7, 0x4f0(%rsp) vmovss 0x248132(%rip), %xmm1 # 0x1ef100c vfmadd213ss 0x243ca9(%rip), %xmm9, %xmm1 # xmm1 = (xmm9 * xmm1) + mem vmovaps %xmm1, 0x4e0(%rsp) vfmadd213ss 0x247ad7(%rip), %xmm9, %xmm8 # xmm8 = (xmm9 * xmm8) + mem vmovaps %xmm8, 0x4d0(%rsp) vmovaps %xmm3, 0x520(%rsp) vsubps %xmm3, %xmm0, %xmm0 vmovaps %xmm0, 0xc0(%rsp) vdpps $0x7f, %xmm0, %xmm0, %xmm0 vucomiss 0x242b02(%rip), %xmm0 # 0x1eeba24 vmovaps %xmm9, 0x40(%rsp) vmovaps %xmm0, 0xa0(%rsp) jb 0x1ca8f39 vsqrtss %xmm0, %xmm0, %xmm7 jmp 0x1ca8f93 vmovss %xmm10, 0x240(%rsp) vmovaps %xmm11, 0x220(%rsp) vmovss %xmm12, 0x110(%rsp) vmovss %xmm6, 0x100(%rsp) vzeroupper callq 0x6aa20 vmovss 0x100(%rsp), %xmm6 vmovss 0x110(%rsp), %xmm12 vmovaps 0x220(%rsp), %xmm11 vmovss 0x240(%rsp), %xmm10 vmovaps 0x40(%rsp), %xmm9 vmovaps %xmm0, %xmm7 vaddss %xmm11, %xmm11, %xmm0 vmulss %xmm0, %xmm9, %xmm1 vfnmadd231ss %xmm11, %xmm11, %xmm1 # xmm1 = -(xmm11 * xmm11) + xmm1 vaddss %xmm9, %xmm9, %xmm2 vmovss 0x24803e(%rip), %xmm4 # 0x1ef0fec vmulss %xmm4, %xmm9, %xmm3 vmulss %xmm3, %xmm9, %xmm3 vfmadd213ss %xmm3, %xmm2, %xmm10 # xmm10 = (xmm2 * xmm10) + xmm3 vmovaps %xmm4, %xmm2 vmovss 0x248031(%rip), %xmm4 # 0x1ef0ff8 vfmadd213ss %xmm4, %xmm9, %xmm2 # xmm2 = (xmm9 * xmm2) + xmm4 vmulss 0x24801c(%rip), %xmm11, %xmm3 # 0x1ef0ff0 vmulss %xmm3, %xmm11, %xmm3 vfmadd231ss %xmm2, %xmm0, %xmm3 # xmm3 = (xmm0 * xmm2) + xmm3 vfmadd213ss %xmm12, %xmm9, %xmm6 # xmm6 = (xmm9 * xmm6) + xmm12 vmovss 0x243b96(%rip), %xmm5 # 0x1eecb80 vmulss %xmm5, %xmm1, %xmm0 vmulss %xmm5, %xmm10, %xmm1 vmulss %xmm5, %xmm3, %xmm2 vmulss %xmm5, %xmm6, %xmm3 vbroadcastss %xmm3, %xmm3 vmulps 0x3c0(%rsp), %xmm3, %xmm3 vbroadcastss %xmm2, %xmm2 vfmadd132ps 0x400(%rsp), %xmm3, %xmm2 # xmm2 = (xmm2 * mem) + xmm3 vbroadcastss %xmm1, %xmm1 vfmadd132ps 0x3e0(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2 vbroadcastss %xmm0, %xmm12 vfmadd132ps 0x420(%rsp), %xmm1, %xmm12 # xmm12 = (xmm12 * mem) + xmm1 vdpps $0x7f, %xmm12, %xmm12, %xmm0 vxorps %xmm1, %xmm1, %xmm1 vmovss %xmm0, %xmm1, %xmm2 # xmm2 = xmm0[0],xmm1[1,2,3] vrsqrt14ss %xmm2, %xmm1, %xmm3 vmulss 0x2436c7(%rip), %xmm3, %xmm6 # 0x1eec718 vmulss 0x2436c3(%rip), %xmm0, %xmm8 # 0x1eec71c vrcp14ss %xmm2, %xmm1, %xmm2 vxorps 0x277e57(%rip){1to4}, %xmm0, %xmm1 # 0x1f20ec0 vmovaps %xmm2, 0x100(%rsp) vfnmadd213ss %xmm4, %xmm0, %xmm2 # xmm2 = -(xmm0 * xmm2) + xmm4 vmovss %xmm2, 0x38(%rsp) vucomiss %xmm1, %xmm0 vmovaps %xmm12, 0x240(%rsp) vmovss %xmm7, 0x220(%rsp) vmovaps %xmm0, 0x110(%rsp) jb 0x1ca90a4 vsqrtss %xmm0, %xmm0, %xmm5 jmp 0x1ca90ec vmovaps %xmm3, 0xf0(%rsp) vmovss %xmm6, 0x14(%rsp) vmovss %xmm8, 0x10(%rsp) vzeroupper callq 0x6aa20 vmovss 0x10(%rsp), %xmm8 vmovss 0x14(%rsp), %xmm6 vmovaps 0xf0(%rsp), %xmm3 vmovss 0x220(%rsp), %xmm7 vmovaps 0x240(%rsp), %xmm12 vmovaps %xmm0, %xmm5 vmovaps 0xc0(%rsp), %xmm10 vmovaps 0xa0(%rsp), %xmm17 vmulss %xmm3, %xmm8, %xmm0 vmulss %xmm3, %xmm3, %xmm1 vmulss %xmm1, %xmm0, %xmm0 vaddss %xmm0, %xmm6, %xmm0 vbroadcastss %xmm0, %xmm4 vmulps %xmm4, %xmm12, %xmm0 vmovaps %xmm0, 0xf0(%rsp) vdpps $0x7f, %xmm0, %xmm10, %xmm14 vaddss 0x2435e7(%rip), %xmm7, %xmm13 # 0x1eec714 vmulps %xmm14, %xmm14, %xmm0 vsubps %xmm0, %xmm17, %xmm0 vxorps %xmm2, %xmm2, %xmm2 vmovss %xmm0, %xmm2, %xmm1 # xmm1 = xmm0[0],xmm2[1,2,3] vrsqrt14ss %xmm1, %xmm2, %xmm15 vmulss 0x2435c8(%rip), %xmm15, %xmm16 # 0x1eec718 vmulss 0x2435c4(%rip), %xmm0, %xmm1 # 0x1eec71c vmovss %xmm1, 0x14(%rsp) vucomiss 0x2428be(%rip), %xmm0 # 0x1eeba24 jb 0x1ca9171 vsqrtss %xmm0, %xmm0, %xmm0 jmp 0x1ca91fa vmovss %xmm13, 0x10(%rsp) vmovaps %xmm14, 0x4c0(%rsp) vmovss %xmm5, 0x2c(%rsp) vmovaps %xmm15, 0x4b0(%rsp) vmovss %xmm16, 0x28(%rsp) vmovaps %xmm4, 0x4a0(%rsp) vzeroupper callq 0x6aa20 vmovaps 0x4a0(%rsp), %xmm4 vmovss 0x28(%rsp), %xmm16 vmovaps 0x4b0(%rsp), %xmm15 vmovss 0x2c(%rsp), %xmm5 vmovaps 0x4c0(%rsp), %xmm14 vmovss 0x10(%rsp), %xmm13 vmovss 0x220(%rsp), %xmm7 vmovaps 0x240(%rsp), %xmm12 vmovaps 0xa0(%rsp), %xmm17 vmovaps 0xc0(%rsp), %xmm10 vbroadcastss 0x277cc0(%rip), %ymm28 # 0x1f20ec4 vmovaps 0x1c0(%rsp), %ymm26 vmovaps 0x1a0(%rsp), %ymm30 vmovaps 0x180(%rsp), %ymm18 vmovaps 0x320(%rsp), %ymm19 vmovaps 0x300(%rsp), %ymm20 vmovaps 0x160(%rsp), %ymm22 vmovaps 0x2e0(%rsp), %ymm23 vmovaps 0x2c0(%rsp), %ymm24 vmovaps 0x140(%rsp), %ymm25 vmovaps 0x2a0(%rsp), %ymm27 vmovaps 0x280(%rsp), %ymm29 vmovaps 0x260(%rsp), %ymm31 vmovaps 0x40(%rsp), %xmm9 vmovaps 0x80(%rsp), %xmm8 vbroadcastss 0x4d0(%rsp), %xmm1 vmulps 0x3c0(%rsp), %xmm1, %xmm1 vbroadcastss 0x4e0(%rsp), %xmm2 vfmadd132ps 0x400(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1 vbroadcastss 0x4f0(%rsp), %xmm1 vfmadd132ps 0x3e0(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2 vmovss 0x247d3a(%rip), %xmm2 # 0x1ef0ff0 vfmadd213ss 0x247d39(%rip), %xmm9, %xmm2 # xmm2 = (xmm9 * xmm2) + mem vbroadcastss %xmm2, %xmm2 vfmadd132ps 0x420(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1 vbroadcastss 0x110(%rsp), %xmm1 vmulps %xmm1, %xmm2, %xmm1 vdpps $0x7f, %xmm2, %xmm12, %xmm2 vbroadcastss %xmm2, %xmm2 vmulps %xmm2, %xmm12, %xmm2 vsubps %xmm2, %xmm1, %xmm2 vmovss 0x38(%rsp), %xmm1 vmulss 0x100(%rsp), %xmm1, %xmm3 vmulss 0x34(%rsp), %xmm8, %xmm1 vmovss 0x30(%rsp), %xmm6 vmaxss %xmm1, %xmm6, %xmm1 vbroadcastss %xmm3, %xmm3 vmulps %xmm3, %xmm2, %xmm2 vxorps 0x277b9f(%rip){1to4}, %xmm12, %xmm3 # 0x1f20ec0 vmulps %xmm2, %xmm4, %xmm2 vmovaps 0xf0(%rsp), %xmm11 vdpps $0x7f, %xmm11, %xmm3, %xmm4 vdivss %xmm5, %xmm6, %xmm5 vfmadd213ss %xmm1, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm7) + xmm1 vdpps $0x7f, %xmm2, %xmm10, %xmm2 vfmadd213ss %xmm7, %xmm5, %xmm13 # xmm13 = (xmm5 * xmm13) + xmm7 vaddss %xmm2, %xmm4, %xmm4 vmovaps 0x440(%rsp), %xmm7 vdpps $0x7f, %xmm11, %xmm7, %xmm5 vdpps $0x7f, %xmm3, %xmm10, %xmm3 vmulss 0x14(%rsp), %xmm15, %xmm2 vmulss %xmm15, %xmm15, %xmm6 vmulss %xmm6, %xmm2, %xmm2 vaddss %xmm2, %xmm16, %xmm6 vdpps $0x7f, %xmm7, %xmm10, %xmm7 vfnmadd231ss %xmm4, %xmm14, %xmm3 # xmm3 = -(xmm14 * xmm4) + xmm3 vfnmadd231ss %xmm5, %xmm14, %xmm7 # xmm7 = -(xmm14 * xmm5) + xmm7 vpermilps $0xff, 0x520(%rsp), %xmm2 # xmm2 = mem[3,3,3,3] vsubss %xmm2, %xmm0, %xmm2 vshufps $0xff, %xmm12, %xmm12, %xmm0 # xmm0 = xmm12[3,3,3,3] vfmsub213ss %xmm0, %xmm6, %xmm3 # xmm3 = (xmm6 * xmm3) - xmm0 vmulss %xmm6, %xmm7, %xmm6 vmulss %xmm3, %xmm5, %xmm7 vfmsub231ss %xmm6, %xmm4, %xmm7 # xmm7 = (xmm4 * xmm6) - xmm7 vdivss %xmm7, %xmm6, %xmm6 vdivss %xmm7, %xmm3, %xmm3 vdivss %xmm7, %xmm5, %xmm5 vdivss %xmm7, %xmm4, %xmm4 vmulss %xmm6, %xmm14, %xmm6 vmulss %xmm5, %xmm2, %xmm5 vsubss %xmm5, %xmm6, %xmm5 vmulss %xmm3, %xmm14, %xmm3 vmulss %xmm4, %xmm2, %xmm4 vsubss %xmm3, %xmm4, %xmm3 vsubss %xmm5, %xmm9, %xmm9 vsubss %xmm3, %xmm8, %xmm8 vbroadcastss 0x277ade(%rip), %xmm4 # 0x1f20ec4 vandps %xmm4, %xmm14, %xmm3 vucomiss %xmm3, %xmm13 movb $0x1, %al jbe 0x1ca94c3 vaddss %xmm1, %xmm13, %xmm1 vmovaps 0x480(%rsp), %xmm3 vfmadd231ss 0x248aa8(%rip), %xmm3, %xmm1 # xmm1 = (xmm3 * mem) + xmm1 vandps %xmm4, %xmm2, %xmm2 vucomiss %xmm2, %xmm1 jbe 0x1ca94c3 vaddss 0x490(%rsp), %xmm8, %xmm8 xorl %eax, %eax vucomiss 0xc(%r15), %xmm8 vmovaps 0x3a0(%rsp), %ymm4 jb 0x1ca94d0 vmovss 0x20(%r15), %xmm5 vucomiss %xmm8, %xmm5 jb 0x1ca94d0 xorl %eax, %eax vucomiss 0x2425cf(%rip), %xmm9 # 0x1eeba24 jb 0x1ca94d0 vmovss 0x2432b5(%rip), %xmm1 # 0x1eec714 vucomiss %xmm9, %xmm1 jb 0x1ca94d0 vxorps %xmm2, %xmm2, %xmm2 vmovss %xmm17, %xmm2, %xmm1 # xmm1 = xmm17[0],xmm2[1,2,3] vrsqrt14ss %xmm1, %xmm2, %xmm1 vmulss 0x24329a(%rip), %xmm1, %xmm2 # 0x1eec718 vmulss 0x243294(%rip), %xmm17, %xmm3 # 0x1eec71c movq 0x18(%rsp), %rcx movq (%rcx), %rax movq 0x1e8(%rax), %rax movq 0x78(%rsp), %rdx movq (%rax,%rdx,8), %r13 movl 0x24(%r15), %eax testl %eax, 0x34(%r13) je 0x1ca94ce movq 0x10(%rcx), %rax cmpq $0x0, 0x10(%rax) jne 0x1ca94e9 cmpq $0x0, 0x48(%r13) jne 0x1ca94e9 movb $0x1, %r13b xorl %eax, %eax jmp 0x1ca94d3 vmovaps 0x3a0(%rsp), %ymm4 jmp 0x1ca94d3 xorl %eax, %eax xorl %r13d, %r13d testb %al, %al je 0x1ca97a0 decq %r14 jne 0x1ca8dd8 jmp 0x1ca979d vmulss %xmm1, %xmm3, %xmm3 vmulss %xmm1, %xmm1, %xmm1 vmulss %xmm1, %xmm3, %xmm1 vaddss %xmm1, %xmm2, %xmm1 vbroadcastss %xmm1, %xmm1 vmulps %xmm1, %xmm10, %xmm1 vfmadd213ps %xmm12, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm0) + xmm12 vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3] vshufps $0xc9, %xmm12, %xmm12, %xmm3 # xmm3 = xmm12[1,2,0,3] vmulps %xmm3, %xmm1, %xmm1 vfmsub231ps %xmm2, %xmm12, %xmm1 # xmm1 = (xmm12 * xmm2) - xmm1 vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3] vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3] vshufps $0xd2, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,0,1,3] vmulps %xmm1, %xmm0, %xmm0 vfmsub231ps %xmm3, %xmm2, %xmm0 # xmm0 = (xmm2 * xmm3) - xmm0 movq 0x18(%rsp), %rdx movq 0x8(%rdx), %rax vshufps $0xe9, %xmm0, %xmm0, %xmm1 # xmm1 = xmm0[1,2,2,3] vmovlps %xmm1, 0x350(%rsp) vmovss %xmm0, 0x358(%rsp) vmovss %xmm9, 0x35c(%rsp) movl $0x0, 0x360(%rsp) movq 0x70(%rsp), %rcx movl %ecx, 0x364(%rsp) movq 0x78(%rsp), %rcx movl %ecx, 0x368(%rsp) movl (%rax), %ecx movl %ecx, 0x36c(%rsp) movl 0x4(%rax), %eax movl %eax, 0x370(%rsp) vmovss %xmm8, 0x20(%r15) movl $0xffffffff, 0x3c(%rsp) # imm = 0xFFFFFFFF leaq 0x3c(%rsp), %rax movq %rax, 0x1f0(%rsp) movq 0x18(%r13), %rax movq %rax, 0x1f8(%rsp) movq 0x8(%rdx), %rax movq %rax, 0x200(%rsp) movq %r15, 0x208(%rsp) leaq 0x350(%rsp), %rax movq %rax, 0x210(%rsp) movl $0x1, 0x218(%rsp) movq 0x48(%r13), %rax testq %rax, %rax vmovaps %xmm9, 0x40(%rsp) vmovaps %xmm8, 0x80(%rsp) vmovss %xmm5, 0xa0(%rsp) je 0x1ca96b6 leaq 0x1f0(%rsp), %rdi vzeroupper callq *%rax vmovss 0xa0(%rsp), %xmm5 vmovaps 0x80(%rsp), %xmm8 vmovaps 0x40(%rsp), %xmm9 vmovaps 0x260(%rsp), %ymm31 vmovaps 0x280(%rsp), %ymm29 vmovaps 0x2a0(%rsp), %ymm27 vmovaps 0x140(%rsp), %ymm25 vmovaps 0x2c0(%rsp), %ymm24 vmovaps 0x2e0(%rsp), %ymm23 vmovaps 0x160(%rsp), %ymm22 vmovaps 0x300(%rsp), %ymm20 vmovaps 0x320(%rsp), %ymm19 vmovaps 0x180(%rsp), %ymm18 vmovaps 0x1a0(%rsp), %ymm30 vmovaps 0x1c0(%rsp), %ymm26 vmovaps 0x3a0(%rsp), %ymm4 vbroadcastss 0x27781f(%rip), %ymm28 # 0x1f20ec4 movq 0x1f0(%rsp), %rax cmpl $0x0, (%rax) je 0x1ca9786 movq 0x18(%rsp), %rax movq 0x10(%rax), %rcx movq 0x10(%rcx), %rax testq %rax, %rax je 0x1ca9781 testb $0x2, (%rcx) jne 0x1ca96dc testb $0x40, 0x3e(%r13) je 0x1ca9774 leaq 0x1f0(%rsp), %rdi vzeroupper callq *%rax vmovss 0xa0(%rsp), %xmm5 vmovaps 0x80(%rsp), %xmm8 vmovaps 0x40(%rsp), %xmm9 vmovaps 0x260(%rsp), %ymm31 vmovaps 0x280(%rsp), %ymm29 vmovaps 0x2a0(%rsp), %ymm27 vmovaps 0x140(%rsp), %ymm25 vmovaps 0x2c0(%rsp), %ymm24 vmovaps 0x2e0(%rsp), %ymm23 vmovaps 0x160(%rsp), %ymm22 vmovaps 0x300(%rsp), %ymm20 vmovaps 0x320(%rsp), %ymm19 vmovaps 0x180(%rsp), %ymm18 vmovaps 0x1a0(%rsp), %ymm30 vmovaps 0x1c0(%rsp), %ymm26 vmovaps 0x3a0(%rsp), %ymm4 vbroadcastss 0x277750(%rip), %ymm28 # 0x1f20ec4 movq 0x1f0(%rsp), %rax cmpl $0x0, (%rax) je 0x1ca9786 movb $0x1, %r13b jmp 0x1ca9789 xorl %r13d, %r13d testb %r13b, %r13b jne 0x1ca94bf vmovss %xmm5, 0x20(%r15) jmp 0x1ca94bf xorl %r13d, %r13d andb $0x1, %r13b orb %r13b, %bl vmovaps 0x560(%rsp), %ymm0 vcmpleps 0x20(%r15){1to8}, %ymm0, %k0 kmovd %k0, %eax andb %al, %r12b movq 0x398(%rsp), %r11 jne 0x1ca8cee jmp 0x1ca97d3 vmovaps %ymm3, %ymm4 vmovdqa 0x5c0(%rsp), %ymm1 vpcmpltd 0x540(%rsp), %ymm1, %k1 vmovaps 0x620(%rsp), %ymm0 vpcmpltd 0x6a0(%rsp), %ymm1, %k2 vaddps %ymm0, %ymm4, %ymm1 vbroadcastss 0x20(%r15), %ymm2 vcmpleps %ymm2, %ymm1, %k0 {%k2} kmovd %k0, %eax movl 0x138(%rsp), %ecx andb %al, %cl vmovaps 0x660(%rsp), %ymm1 vaddps %ymm1, %ymm4, %ymm3 vcmpleps %ymm2, %ymm3, %k0 {%k1} kmovd %k0, %eax movl 0x24(%rsp), %edx andb %al, %dl orb %cl, %dl je 0x1ca9882 movl %r11d, %eax leaq (%rax,%rax,2), %rax shlq $0x5, %rax movb %dl, 0x7c0(%rsp,%rax) kmovd %ecx, %k1 vmovaps %ymm0, %ymm1 {%k1} vmovaps %ymm1, 0x7e0(%rsp,%rax) vmovaps 0x470(%rsp), %xmm0 vmovlps %xmm0, 0x800(%rsp,%rax) movq 0x128(%rsp), %rcx incl %ecx movl %ecx, 0x808(%rsp,%rax) incl %r11d movq 0x388(%rsp), %r9 movq 0x18(%rsp), %rdx vbroadcastss 0x242e7c(%rip), %ymm3 # 0x1eec714 movb 0xf(%rsp), %al movq 0x390(%rsp), %r14 movq 0x70(%rsp), %r12 vbroadcastss 0x20(%r15), %ymm0 testl %r11d, %r11d je 0x1ca9a42 leal -0x1(%r11), %r8d leaq (%r8,%r8,2), %rcx shlq $0x5, %rcx movzbl 0x7c0(%rsp,%rcx), %esi vmovaps 0x7e0(%rsp,%rcx), %ymm1 vaddps %ymm1, %ymm4, %ymm2 vcmpleps %ymm0, %ymm2, %k0 kmovb %k0, %r10d andl %esi, %r10d je 0x1ca99b7 kmovd %r10d, %k1 vbroadcastss 0x242125(%rip), %ymm2 # 0x1eeba20 vblendmps %ymm1, %ymm2, %ymm1 {%k1} vshufps $0xb1, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2,5,4,7,6] vminps %ymm2, %ymm1, %ymm2 vshufpd $0x5, %ymm2, %ymm2, %ymm3 # ymm3 = ymm2[1,0,3,2] vminps %ymm3, %ymm2, %ymm2 vpermpd $0x4e, %ymm2, %ymm3 # ymm3 = ymm2[2,3,0,1] vminps %ymm3, %ymm2, %ymm2 vcmpeqps %ymm2, %ymm1, %k0 kmovd %k0, %esi andb %r10b, %sil je 0x1ca9933 movzbl %sil, %edi jmp 0x1ca9937 movzbl %r10b, %edi leaq (%rsp,%rcx), %rsi addq $0x7c0, %rsi # imm = 0x7C0 vmovss 0x44(%rsi), %xmm1 tzcntl %edi, %ecx movb $0x1, %dil shlb %cl, %dil movl 0x48(%rsi), %r13d movq %r13, 0x128(%rsp) movzbl %dil, %edi kmovd %edi, %k0 kmovd %r10d, %k1 kandnb %k1, %k0, %k0 kmovb %k0, (%rsi) kortestb %k0, %k0 vbroadcastss 0x242d95(%rip), %ymm3 # 0x1eec714 je 0x1ca9984 movl %r11d, %r8d vbroadcastss 0x40(%rsi), %ymm2 vsubss %xmm2, %xmm1, %xmm1 vbroadcastss %xmm1, %ymm1 vfmadd132ps 0x277584(%rip), %ymm2, %ymm1 # ymm1 = (ymm1 * mem) + ymm2 vmovaps %ymm1, 0x620(%rsp) vmovsd 0x620(%rsp,%rcx,4), %xmm1 vmovaps %xmm1, 0x470(%rsp) movl %r8d, %r11d testb %r10b, %r10b vpbroadcastd 0x2774fa(%rip), %ymm1 # 0x1f20ec0 je 0x1ca98af vmovaps 0x720(%rsp), %ymm16 vmovaps 0x700(%rsp), %ymm6 vmovaps 0x6e0(%rsp), %ymm21 vmovaps 0x470(%rsp), %xmm2 jmp 0x1ca743e vcmpleps 0x277502(%rip), %ymm4, %k2 # 0x1f20f00 vbroadcastss 0x24317d(%rip), %ymm4 # 0x1eecb84 vbroadcastss 0x24200f(%rip), %ymm16 # 0x1eeba20 vblendmps %ymm4, %ymm16, %ymm3 {%k2} vmovaps %ymm3, %ymm31 {%k1} vblendmps %ymm16, %ymm4, %ymm3 {%k2} kmovd %k2, %ecx vmovaps %ymm3, %ymm30 {%k1} knotb %k1, %k0 kmovd %k0, %esi orb %cl, %sil andb %dil, %sil movl %esi, %edi jmp 0x1ca79d8 testb $0x1, %bl jne 0x1ca9a68 vmovaps 0x6c0(%rsp), %ymm0 vcmpleps 0x20(%r15){1to8}, %ymm0, %k0 kmovb %k0, %eax andl %eax, %r14d setne %al jne 0x1ca7148 andb $0x1, %al leaq -0x28(%rbp), %rsp popq %rbx popq %r12 popq %r13 popq %r14 popq %r15 popq %rbp vzeroupper retq
/embree[P]embree/kernels/geometry/curveNi_intersector.h
void embree::avx512::CurveNiIntersectorK<8, 4>::intersect_t<embree::avx512::SweepCurve1IntersectorK<embree::CatmullRomCurveT, 4>, embree::avx512::Intersect1KEpilog1<4, true>>(embree::avx512::CurvePrecalculationsK<4>&, embree::RayHitK<4>&, unsigned long, embree::RayQueryContext*, embree::CurveNi<8> const&)
static __forceinline void intersect_t(Precalculations& pre, RayHitK<K>& ray, const size_t k, RayQueryContext* context, const Primitive& prim) { vfloat<M> tNear; vbool<M> valid = intersect(ray,k,prim,tNear); const size_t N = prim.N; size_t mask = movemask(valid); while (mask) { const size_t i = bscf(mask); STAT3(normal.trav_prims,1,1,1); const unsigned int geomID = prim.geomID(N); const unsigned int primID = prim.primID(N)[i]; const CurveGeometry* geom = context->scene->get<CurveGeometry>(geomID); Vec3ff a0,a1,a2,a3; geom->gather(a0,a1,a2,a3,geom->curve(primID)); size_t mask1 = mask; const size_t i1 = bscf(mask1); if (mask) { const unsigned int primID1 = prim.primID(N)[i1]; geom->prefetchL1_vertices(geom->curve(primID1)); if (mask1) { const size_t i2 = bsf(mask1); const unsigned int primID2 = prim.primID(N)[i2]; geom->prefetchL2_vertices(geom->curve(primID2)); } } Intersector().intersect(pre,ray,k,context,geom,primID,a0,a1,a2,a3,Epilog(ray,k,context,geomID,primID)); mask &= movemask(tNear <= vfloat<M>(ray.tfar[k])); } }
pushq %rbp movq %rsp, %rbp pushq %r15 pushq %r14 pushq %r13 pushq %r12 pushq %rbx andq $-0x20, %rsp subq $0x9e0, %rsp # imm = 0x9E0 movq %rcx, %r15 movq %rsi, %r12 movzbl 0x1(%r8), %ecx leaq (%rcx,%rcx,4), %rax leaq (%rax,%rax,4), %rsi vbroadcastss 0x12(%r8,%rsi), %xmm0 vmovss (%r12,%rdx,4), %xmm1 vmovss 0x40(%r12,%rdx,4), %xmm2 vinsertps $0x10, 0x10(%r12,%rdx,4), %xmm1, %xmm1 # xmm1 = xmm1[0],mem[0],xmm1[2,3] vinsertps $0x20, 0x20(%r12,%rdx,4), %xmm1, %xmm1 # xmm1 = xmm1[0,1],mem[0],xmm1[3] vinsertps $0x10, 0x50(%r12,%rdx,4), %xmm2, %xmm2 # xmm2 = xmm2[0],mem[0],xmm2[2,3] vinsertps $0x20, 0x60(%r12,%rdx,4), %xmm2, %xmm2 # xmm2 = xmm2[0,1],mem[0],xmm2[3] vsubps 0x6(%r8,%rsi), %xmm1, %xmm1 vmulps %xmm1, %xmm0, %xmm3 vmulps %xmm2, %xmm0, %xmm0 vpmovsxbd 0x6(%r8,%rcx,4), %ymm1 vpmovsxbd 0x6(%r8,%rax), %ymm2 vcvtdq2ps %ymm1, %ymm5 vcvtdq2ps %ymm2, %ymm6 leaq (%rcx,%rcx,2), %r9 vpmovsxbd 0x6(%r8,%r9,2), %ymm1 vcvtdq2ps %ymm1, %ymm4 leaq (%rcx,%rax,2), %rsi vpmovsxbd 0x6(%r8,%rsi), %ymm1 leal (,%r9,4), %esi vpmovsxbd 0x6(%r8,%rsi), %ymm2 vcvtdq2ps %ymm1, %ymm7 vcvtdq2ps %ymm2, %ymm8 addq %rcx, %rsi vpmovsxbd 0x6(%r8,%rsi), %ymm1 vcvtdq2ps %ymm1, %ymm9 leaq (%rcx,%rcx,8), %rsi leal (%rsi,%rsi), %edi vpmovsxbd 0x6(%r8,%rdi), %ymm1 vcvtdq2ps %ymm1, %ymm10 addq %rcx, %rdi vpmovsxbd 0x6(%r8,%rdi), %ymm1 vcvtdq2ps %ymm1, %ymm11 shll $0x2, %eax vpmovsxbd 0x6(%r8,%rax), %ymm1 vcvtdq2ps %ymm1, %ymm12 vbroadcastss %xmm0, %ymm13 vbroadcastss 0x268b89(%rip), %ymm15 # 0x1f12704 vbroadcastss 0x277357(%rip), %ymm16 # 0x1f20edc vpermps %ymm0, %ymm15, %ymm14 vpermps %ymm0, %ymm16, %ymm0 vmulps %ymm4, %ymm0, %ymm2 vmulps %ymm0, %ymm9, %ymm1 vmulps %ymm0, %ymm12, %ymm0 vfmadd231ps %ymm6, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm6) + ymm2 vfmadd231ps %ymm8, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm8) + ymm1 vfmadd231ps %ymm14, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm14) + ymm0 vfmadd231ps %ymm5, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm5) + ymm2 vfmadd231ps %ymm7, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm7) + ymm1 vfmadd231ps %ymm13, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm13) + ymm0 vbroadcastss %xmm3, %ymm13 vpermps %ymm3, %ymm15, %ymm14 vpermps %ymm3, %ymm16, %ymm3 vmulps %ymm4, %ymm3, %ymm15 vmulps %ymm3, %ymm9, %ymm4 vmulps %ymm3, %ymm12, %ymm3 vfmadd231ps %ymm6, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm6) + ymm15 vfmadd231ps %ymm8, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm8) + ymm4 vfmadd231ps %ymm11, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm11) + ymm3 vfmadd231ps %ymm5, %ymm13, %ymm15 # ymm15 = (ymm13 * ymm5) + ymm15 vfmadd231ps %ymm7, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm7) + ymm4 vbroadcastss 0x2772cc(%rip), %ymm6 # 0x1f20ec4 vfmadd231ps %ymm10, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm10) + ymm3 vandps %ymm6, %ymm2, %ymm5 vbroadcastss 0x2473de(%rip), %ymm7 # 0x1ef0fe8 vcmpltps %ymm7, %ymm5, %k1 vmovaps %ymm7, %ymm2 {%k1} vandps %ymm6, %ymm1, %ymm5 vcmpltps %ymm7, %ymm5, %k1 vmovaps %ymm7, %ymm1 {%k1} vandps %ymm6, %ymm0, %ymm5 vcmpltps %ymm7, %ymm5, %k1 vmovaps %ymm7, %ymm0 {%k1} vrcp14ps %ymm2, %ymm5 vbroadcastss 0x242acc(%rip), %ymm6 # 0x1eec714 vfnmadd213ps %ymm6, %ymm5, %ymm2 # ymm2 = -(ymm5 * ymm2) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm2 # ymm2 = (ymm2 * ymm5) + ymm5 vrcp14ps %ymm1, %ymm5 vfnmadd213ps %ymm6, %ymm5, %ymm1 # ymm1 = -(ymm5 * ymm1) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm1 # ymm1 = (ymm1 * ymm5) + ymm5 vrcp14ps %ymm0, %ymm5 vfnmadd213ps %ymm6, %ymm5, %ymm0 # ymm0 = -(ymm5 * ymm0) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm0 # ymm0 = (ymm0 * ymm5) + ymm5 leaq (,%rcx,8), %rdi subq %rcx, %rdi vpmovsxwd 0x6(%r8,%rdi), %ymm5 vcvtdq2ps %ymm5, %ymm5 vsubps %ymm15, %ymm5, %ymm5 vmulps %ymm5, %ymm2, %ymm5 vpmovsxwd 0x6(%r8,%rsi), %ymm6 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm15, %ymm6, %ymm6 leaq (%rcx,%rcx), %rsi addq %rcx, %rax shlq $0x3, %r9 subq %rcx, %r9 vpbroadcastd %ecx, %ymm7 shll $0x4, %ecx vpmovsxwd 0x6(%r8,%rcx), %ymm8 vmulps %ymm6, %ymm2, %ymm2 subq %rsi, %rcx vpmovsxwd 0x6(%r8,%rcx), %ymm6 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm4, %ymm6, %ymm6 vmulps %ymm6, %ymm1, %ymm6 vcvtdq2ps %ymm8, %ymm8 vsubps %ymm4, %ymm8, %ymm4 vmulps %ymm4, %ymm1, %ymm1 vpmovsxwd 0x6(%r8,%rax), %ymm4 vcvtdq2ps %ymm4, %ymm4 vsubps %ymm3, %ymm4, %ymm4 vmulps %ymm0, %ymm4, %ymm4 vpmovsxwd 0x6(%r8,%r9), %ymm8 vcvtdq2ps %ymm8, %ymm8 vsubps %ymm3, %ymm8, %ymm3 vmulps %ymm3, %ymm0, %ymm0 vpminsd %ymm2, %ymm5, %ymm3 vpminsd %ymm1, %ymm6, %ymm8 vmaxps %ymm8, %ymm3, %ymm3 vpminsd %ymm0, %ymm4, %ymm8 vmaxps 0x30(%r12,%rdx,4){1to8}, %ymm8, %ymm8 vmaxps %ymm8, %ymm3, %ymm3 vmulps 0x2761d8(%rip){1to8}, %ymm3, %ymm3 # 0x1f1ff10 vpmaxsd %ymm2, %ymm5, %ymm2 vpmaxsd %ymm1, %ymm6, %ymm1 vminps %ymm1, %ymm2, %ymm1 vpmaxsd %ymm0, %ymm4, %ymm0 movq %rdx, 0x18(%rsp) vminps 0x80(%r12,%rdx,4){1to8}, %ymm0, %ymm0 vminps %ymm0, %ymm1, %ymm0 vmulps 0x2761ae(%rip){1to8}, %ymm0, %ymm0 # 0x1f1ff14 vpcmpgtd 0x2b0bb0(%rip), %ymm7, %k0 # 0x1f5a920 vmovaps %ymm3, 0x620(%rsp) vcmpleps %ymm0, %ymm3, %k1 ktestb %k0, %k1 je 0x1cac7ef kandb %k0, %k1, %k0 kmovd %k0, %eax movzbl %al, %r10d movl $0x1, %eax movq 0x18(%rsp), %rcx shlxl %ecx, %eax, %eax kmovd %eax, %k0 vpmovm2d %k0, %xmm0 vmovdqa %xmm0, 0x410(%rsp) movq %r15, 0x28(%rsp) movq %r8, 0x1e0(%rsp) tzcntq %r10, %rax movl 0x2(%r8), %ecx movl 0x6(%r8,%rax,4), %edi movq (%r15), %rax movq 0x1e8(%rax), %rax movq %rcx, 0x50(%rsp) movq (%rax,%rcx,8), %rsi movq 0x58(%rsi), %rax movq 0x68(%rsi), %rcx movq %rcx, %rdx movq %rdi, 0x130(%rsp) imulq %rdi, %rdx movl (%rax,%rdx), %edi movq 0xa0(%rsi), %rdx movq %rdx, %r9 imulq %rdi, %r9 movq 0x90(%rsi), %rsi vmovaps (%rsi,%r9), %xmm1 leaq 0x1(%rdi), %r9 imulq %rdx, %r9 vmovaps (%rsi,%r9), %xmm0 leaq 0x2(%rdi), %r9 imulq %rdx, %r9 vmovaps (%rsi,%r9), %xmm2 blsrq %r10, %r10 addq $0x3, %rdi imulq %rdx, %rdi vmovaps (%rsi,%rdi), %xmm3 movq %r10, %rdi subq $0x1, %rdi jb 0x1ca9e99 andq %r10, %rdi tzcntq %r10, %r9 movl 0x6(%r8,%r9,4), %r9d imulq %rcx, %r9 movl (%rax,%r9), %r9d imulq %rdx, %r9 prefetcht0 (%rsi,%r9) prefetcht0 0x40(%rsi,%r9) testq %rdi, %rdi je 0x1ca9e99 tzcntq %rdi, %rdi movl 0x6(%r8,%rdi,4), %edi imulq %rdi, %rcx movl (%rax,%rcx), %eax imulq %rax, %rdx prefetcht1 (%rsi,%rdx) prefetcht1 0x40(%rsi,%rdx) movq 0x18(%rsp), %rax vmovss (%r12,%rax,4), %xmm4 vinsertps $0x1c, 0x10(%r12,%rax,4), %xmm4, %xmm4 # xmm4 = xmm4[0],mem[0],zero,zero vinsertps $0x28, 0x20(%r12,%rax,4), %xmm4, %xmm4 # xmm4 = xmm4[0,1],mem[0],zero vbroadcastss 0x40(%r12,%rax,4), %ymm30 vbroadcastss 0x50(%r12,%rax,4), %ymm31 vunpcklps %xmm31, %xmm30, %xmm5 # xmm5 = xmm30[0],xmm31[0],xmm30[1],xmm31[1] vbroadcastss 0x60(%r12,%rax,4), %ymm21 vinsertps $0x28, %xmm21, %xmm5, %xmm9 # xmm9 = xmm5[0,1],xmm21[0],zero vaddps %xmm0, %xmm1, %xmm5 vmulps 0x242c99(%rip){1to4}, %xmm5, %xmm5 # 0x1eecb80 vsubps %xmm4, %xmm5, %xmm5 vdpps $0x7f, %xmm9, %xmm5, %xmm5 vmovss 0x30(%r12,%rax,4), %xmm10 vdpps $0x7f, %xmm9, %xmm9, %xmm11 vxorps %xmm8, %xmm8, %xmm8 vmovss %xmm11, %xmm8, %xmm6 vrcp14ss %xmm6, %xmm8, %xmm6 vmovaps %xmm6, %xmm7 vfnmadd213ss 0x2470de(%rip), %xmm11, %xmm7 # xmm7 = -(xmm11 * xmm7) + mem vmulss %xmm7, %xmm6, %xmm6 vmulss %xmm6, %xmm5, %xmm5 vbroadcastss %xmm5, %ymm6 vmovaps %xmm9, 0x270(%rsp) vmovaps %ymm6, 0x380(%rsp) vfmadd231ps %xmm6, %xmm9, %xmm4 # xmm4 = (xmm9 * xmm6) + xmm4 vblendps $0x8, %xmm8, %xmm4, %xmm4 # xmm4 = xmm4[0,1,2],xmm8[3] vsubps %xmm4, %xmm1, %xmm6 vsubps %xmm4, %xmm2, %xmm7 vsubps %xmm4, %xmm0, %xmm8 vsubps %xmm4, %xmm3, %xmm3 vbroadcastss %xmm6, %ymm0 vmovaps %ymm0, 0x5a0(%rsp) vbroadcastss 0x268799(%rip), %ymm0 # 0x1f12704 vpermps %ymm6, %ymm0, %ymm1 vmovaps %ymm1, 0x840(%rsp) vbroadcastss 0x276f5a(%rip), %ymm1 # 0x1f20edc vpermps %ymm6, %ymm1, %ymm2 vmovaps %ymm2, 0x820(%rsp) vbroadcastss 0x276f3f(%rip), %ymm2 # 0x1f20ed8 vmovaps %ymm6, 0x2e0(%rsp) vpermps %ymm6, %ymm2, %ymm4 vmovaps %ymm4, 0x800(%rsp) vbroadcastss %xmm8, %ymm4 vmovaps %ymm4, 0x7e0(%rsp) vpermps %ymm8, %ymm0, %ymm4 vmovaps %ymm4, 0x7c0(%rsp) vpermps %ymm8, %ymm1, %ymm4 vmovaps %ymm4, 0x7a0(%rsp) vmovaps %ymm8, 0x2a0(%rsp) vpermps %ymm8, %ymm2, %ymm4 vmovaps %ymm4, 0x780(%rsp) vbroadcastss %xmm7, %ymm4 vmovaps %ymm4, 0x760(%rsp) vpermps %ymm7, %ymm0, %ymm4 vmovaps %ymm4, 0x740(%rsp) vpermps %ymm7, %ymm1, %ymm4 vmovaps %ymm4, 0x720(%rsp) vmovaps %ymm7, 0x2c0(%rsp) vpermps %ymm7, %ymm2, %ymm4 vmovaps %ymm4, 0x700(%rsp) vbroadcastss %xmm3, %ymm4 vmovaps %ymm4, 0x6e0(%rsp) vpermps %ymm3, %ymm0, %ymm0 vmovaps %ymm0, 0x6c0(%rsp) vpermps %ymm3, %ymm1, %ymm0 vmovaps %ymm0, 0x6a0(%rsp) vmovaps %ymm3, 0x280(%rsp) vpermps %ymm3, %ymm2, %ymm0 vmovaps %ymm0, 0x680(%rsp) vmulss %xmm21, %xmm21, %xmm0 vfmadd231ps %ymm31, %ymm31, %ymm0 # ymm0 = (ymm31 * ymm31) + ymm0 vfmadd231ps %ymm30, %ymm30, %ymm0 # ymm0 = (ymm30 * ymm30) + ymm0 vbroadcastss %xmm0, %ymm0 vmovaps %ymm0, 0x660(%rsp) vandps 0x276e27(%rip){1to8}, %ymm0, %ymm0 # 0x1f20ec4 vmovaps %ymm0, 0x580(%rsp) vmovss %xmm10, 0x5c(%rsp) vmovaps %xmm5, 0x320(%rsp) vsubss %xmm5, %xmm10, %xmm0 vbroadcastss %xmm0, %ymm0 vmovaps %ymm0, 0x640(%rsp) movq 0x50(%rsp), %rax vpbroadcastd %eax, %xmm0 vmovdqa %xmm0, 0x430(%rsp) movl $0x1, %r11d xorl %r9d, %r9d movq 0x130(%rsp), %rax vpbroadcastd %eax, %xmm0 vmovdqa %xmm0, 0x420(%rsp) vsqrtss %xmm11, %xmm11, %xmm0 vmovss %xmm0, 0x14c(%rsp) vmovaps %xmm11, 0x260(%rsp) vsqrtss %xmm11, %xmm11, %xmm0 vmovss %xmm0, 0x148(%rsp) vmovsd 0x2425c8(%rip), %xmm2 # 0x1eec6f0 vbroadcastss 0x2425e2(%rip), %ymm16 # 0x1eec714 vmovaps %ymm30, 0x240(%rsp) vmovaps %ymm31, 0x220(%rsp) vmovaps %ymm21, 0x200(%rsp) vmovshdup %xmm2, %xmm0 # xmm0 = xmm2[1,1,3,3] vsubss %xmm2, %xmm0, %xmm0 vmulss 0x276d76(%rip), %xmm0, %xmm1 # 0x1f20ed0 vmovaps %xmm1, 0x60(%rsp) vmovaps %xmm2, 0x1d0(%rsp) vbroadcastss %xmm2, %ymm4 vbroadcastss %xmm0, %ymm0 vmovaps %ymm4, 0xa0(%rsp) vmovaps %ymm0, 0x80(%rsp) vfmadd231ps 0x276d92(%rip), %ymm0, %ymm4 # ymm4 = (ymm0 * mem) + ymm4 vsubps %ymm4, %ymm16, %ymm7 vbroadcastss 0x276d22(%rip), %ymm26 # 0x1f20ec0 vxorps %ymm26, %ymm4, %ymm0 vmulps %ymm0, %ymm7, %ymm0 vmulps %ymm0, %ymm7, %ymm0 vmulps %ymm4, %ymm4, %ymm3 vmovaps %ymm3, 0xc0(%rsp) vbroadcastss 0x246e2a(%rip), %ymm2 # 0x1ef0fec vmulps %ymm2, %ymm4, %ymm9 vbroadcastss 0x246e35(%rip), %ymm5 # 0x1ef1004 vaddps %ymm5, %ymm9, %ymm10 vmulps %ymm3, %ymm10, %ymm1 vbroadcastss 0x246e18(%rip), %ymm3 # 0x1ef0ff8 vaddps %ymm3, %ymm1, %ymm1 vmulps %ymm7, %ymm7, %ymm11 vmulps %ymm2, %ymm7, %ymm8 vaddps %ymm5, %ymm8, %ymm2 vmulps %ymm2, %ymm11, %ymm2 vaddps %ymm3, %ymm2, %ymm2 vxorps %ymm26, %ymm7, %ymm5 vmulps %ymm5, %ymm4, %ymm5 vmulps %ymm5, %ymm4, %ymm5 vbroadcastss 0x242970(%rip), %ymm17 # 0x1eecb80 vmulps %ymm17, %ymm0, %ymm13 vmulps %ymm17, %ymm1, %ymm14 vmulps %ymm17, %ymm2, %ymm15 vmulps %ymm17, %ymm5, %ymm5 vmovaps 0x6e0(%rsp), %ymm26 vmulps %ymm5, %ymm26, %ymm1 vmovaps 0x6c0(%rsp), %ymm12 vmulps %ymm5, %ymm12, %ymm0 vmovaps 0x6a0(%rsp), %ymm16 vmulps %ymm5, %ymm16, %ymm2 vmovaps 0x680(%rsp), %ymm6 vmulps %ymm5, %ymm6, %ymm5 vmovaps 0x760(%rsp), %ymm25 vfmadd231ps %ymm25, %ymm15, %ymm1 # ymm1 = (ymm15 * ymm25) + ymm1 vmovaps 0x740(%rsp), %ymm27 vfmadd231ps %ymm27, %ymm15, %ymm0 # ymm0 = (ymm15 * ymm27) + ymm0 vmovaps 0x720(%rsp), %ymm28 vfmadd231ps %ymm28, %ymm15, %ymm2 # ymm2 = (ymm15 * ymm28) + ymm2 vmovaps 0x700(%rsp), %ymm29 vfmadd231ps %ymm15, %ymm29, %ymm5 # ymm5 = (ymm29 * ymm15) + ymm5 vmovaps 0x7e0(%rsp), %ymm20 vfmadd231ps %ymm20, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm20) + ymm1 vmovaps 0x7c0(%rsp), %ymm22 vfmadd231ps %ymm22, %ymm14, %ymm0 # ymm0 = (ymm14 * ymm22) + ymm0 vmovaps 0x7a0(%rsp), %ymm23 vfmadd231ps %ymm23, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm23) + ymm2 vmovaps 0x780(%rsp), %ymm24 vfmadd231ps %ymm14, %ymm24, %ymm5 # ymm5 = (ymm24 * ymm14) + ymm5 vfmadd231ps 0x5a0(%rsp), %ymm13, %ymm1 # ymm1 = (ymm13 * mem) + ymm1 vmovaps 0x840(%rsp), %ymm3 vfmadd231ps %ymm3, %ymm13, %ymm0 # ymm0 = (ymm13 * ymm3) + ymm0 vmovaps 0x820(%rsp), %ymm18 vfmadd231ps %ymm18, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm18) + ymm2 vmovaps 0x800(%rsp), %ymm19 vfmadd231ps %ymm13, %ymm19, %ymm5 # ymm5 = (ymm19 * ymm13) + ymm5 vaddps %ymm7, %ymm7, %ymm13 vmulps %ymm4, %ymm13, %ymm14 vsubps %ymm11, %ymm14, %ymm11 vaddps %ymm4, %ymm4, %ymm15 vmulps %ymm10, %ymm15, %ymm10 vmulps %ymm4, %ymm9, %ymm4 vaddps %ymm4, %ymm10, %ymm4 vaddps 0x246cce(%rip){1to8}, %ymm9, %ymm9 # 0x1ef0ff8 vmulps %ymm9, %ymm13, %ymm9 vmulps %ymm7, %ymm8, %ymm7 vsubps %ymm7, %ymm9, %ymm7 vmovaps 0xc0(%rsp), %ymm8 vsubps %ymm14, %ymm8, %ymm8 vmulps %ymm17, %ymm11, %ymm9 vmulps %ymm17, %ymm4, %ymm4 vmulps %ymm17, %ymm7, %ymm7 vmulps %ymm17, %ymm8, %ymm8 vmulps %ymm8, %ymm26, %ymm10 vmulps %ymm8, %ymm12, %ymm12 vmulps %ymm8, %ymm16, %ymm13 vmovaps %ymm2, %ymm26 vmulps %ymm6, %ymm8, %ymm8 vfmadd231ps %ymm25, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm25) + ymm10 vfmadd231ps %ymm27, %ymm7, %ymm12 # ymm12 = (ymm7 * ymm27) + ymm12 vfmadd231ps %ymm28, %ymm7, %ymm13 # ymm13 = (ymm7 * ymm28) + ymm13 vfmadd231ps %ymm7, %ymm29, %ymm8 # ymm8 = (ymm29 * ymm7) + ymm8 vfmadd231ps %ymm20, %ymm4, %ymm10 # ymm10 = (ymm4 * ymm20) + ymm10 vfmadd231ps %ymm22, %ymm4, %ymm12 # ymm12 = (ymm4 * ymm22) + ymm12 vfmadd231ps %ymm23, %ymm4, %ymm13 # ymm13 = (ymm4 * ymm23) + ymm13 vfmadd231ps %ymm4, %ymm24, %ymm8 # ymm8 = (ymm24 * ymm4) + ymm8 vfmadd231ps 0x5a0(%rsp), %ymm9, %ymm10 # ymm10 = (ymm9 * mem) + ymm10 vfmadd231ps %ymm3, %ymm9, %ymm12 # ymm12 = (ymm9 * ymm3) + ymm12 vfmadd231ps %ymm18, %ymm9, %ymm13 # ymm13 = (ymm9 * ymm18) + ymm13 vfmadd231ps %ymm9, %ymm19, %ymm8 # ymm8 = (ymm19 * ymm9) + ymm8 vbroadcastss 0x60(%rsp), %ymm4 vmulps %ymm4, %ymm10, %ymm11 vmulps %ymm4, %ymm12, %ymm12 vmulps %ymm4, %ymm13, %ymm13 vmulps %ymm4, %ymm8, %ymm6 vmovaps %ymm1, %ymm8 vmovaps 0x2b593a(%rip), %ymm7 # 0x1f5fd20 vmovaps %ymm31, %ymm3 vxorps %xmm31, %xmm31, %xmm31 vpermt2ps %ymm31, %ymm7, %ymm8 vmovaps %ymm0, %ymm9 vpermt2ps %ymm31, %ymm7, %ymm9 vmovaps %ymm2, %ymm10 vpermt2ps %ymm31, %ymm7, %ymm10 vaddps %ymm6, %ymm5, %ymm4 vmaxps %ymm4, %ymm5, %ymm14 vminps %ymm4, %ymm5, %ymm4 vmovaps %ymm5, %ymm15 vpermt2ps %ymm31, %ymm7, %ymm15 vmovaps %ymm11, %ymm19 vpermt2ps %ymm31, %ymm7, %ymm19 vmovaps %ymm12, %ymm20 vpermt2ps %ymm31, %ymm7, %ymm20 vmovaps %ymm13, %ymm2 vpermt2ps %ymm31, %ymm7, %ymm2 vpermt2ps %ymm31, %ymm7, %ymm6 vsubps %ymm6, %ymm15, %ymm16 vmovaps %ymm8, 0x60(%rsp) vsubps %ymm1, %ymm8, %ymm7 vsubps %ymm0, %ymm9, %ymm6 vsubps %ymm26, %ymm10, %ymm5 vmulps %ymm13, %ymm6, %ymm17 vfmsub231ps %ymm5, %ymm12, %ymm17 # ymm17 = (ymm12 * ymm5) - ymm17 vmulps %ymm11, %ymm5, %ymm18 vfmsub231ps %ymm7, %ymm13, %ymm18 # ymm18 = (ymm13 * ymm7) - ymm18 vmulps %ymm12, %ymm7, %ymm22 vfmsub231ps %ymm6, %ymm11, %ymm22 # ymm22 = (ymm11 * ymm6) - ymm22 vmulps %ymm22, %ymm22, %ymm22 vfmadd231ps %ymm18, %ymm18, %ymm22 # ymm22 = (ymm18 * ymm18) + ymm22 vfmadd231ps %ymm17, %ymm17, %ymm22 # ymm22 = (ymm17 * ymm17) + ymm22 vmulps %ymm5, %ymm5, %ymm17 vfmadd231ps %ymm6, %ymm6, %ymm17 # ymm17 = (ymm6 * ymm6) + ymm17 vfmadd231ps %ymm7, %ymm7, %ymm17 # ymm17 = (ymm7 * ymm7) + ymm17 vrcp14ps %ymm17, %ymm18 vmovaps %ymm18, %ymm23 vbroadcastss 0x242252(%rip), %ymm24 # 0x1eec714 vmovaps %ymm24, %ymm8 vfnmadd213ps %ymm24, %ymm17, %ymm23 # ymm23 = -(ymm17 * ymm23) + ymm24 vfmadd132ps %ymm18, %ymm18, %ymm23 # ymm23 = (ymm23 * ymm18) + ymm18 vmulps %ymm23, %ymm22, %ymm18 vmulps %ymm2, %ymm6, %ymm22 vfmsub231ps %ymm5, %ymm20, %ymm22 # ymm22 = (ymm20 * ymm5) - ymm22 vmulps %ymm19, %ymm5, %ymm24 vfmsub231ps %ymm7, %ymm2, %ymm24 # ymm24 = (ymm2 * ymm7) - ymm24 vmulps %ymm20, %ymm7, %ymm25 vfmsub231ps %ymm6, %ymm19, %ymm25 # ymm25 = (ymm19 * ymm6) - ymm25 vmulps %ymm25, %ymm25, %ymm25 vfmadd231ps %ymm24, %ymm24, %ymm25 # ymm25 = (ymm24 * ymm24) + ymm25 vfmadd231ps %ymm22, %ymm22, %ymm25 # ymm25 = (ymm22 * ymm22) + ymm25 vmulps %ymm23, %ymm25, %ymm22 vmaxps %ymm22, %ymm18, %ymm18 vsqrtps %ymm18, %ymm18 vmaxps %ymm15, %ymm16, %ymm22 vmaxps %ymm22, %ymm14, %ymm14 vaddps %ymm14, %ymm18, %ymm14 vminps %ymm15, %ymm16, %ymm15 vminps %ymm15, %ymm4, %ymm4 vsubps %ymm18, %ymm4, %ymm4 vmulps 0x2463f1(%rip){1to8}, %ymm14, %ymm14 # 0x1ef0940 vmulps 0x2463eb(%rip){1to8}, %ymm4, %ymm4 # 0x1ef0944 vmovaps %ymm4, 0xc0(%rsp) vmulps %ymm14, %ymm14, %ymm4 vrsqrt14ps %ymm17, %ymm15 vmulps 0x2421a5(%rip){1to8}, %ymm17, %ymm14 # 0x1eec71c vmulps %ymm14, %ymm15, %ymm14 vmulps %ymm15, %ymm15, %ymm16 vmulps %ymm14, %ymm16, %ymm14 vfmadd231ps 0x242186(%rip){1to8}, %ymm15, %ymm14 # ymm14 = (ymm15 * mem) + ymm14 vmulps %ymm7, %ymm14, %ymm15 vmulps %ymm14, %ymm6, %ymm16 vmulps %ymm14, %ymm5, %ymm18 vmovaps %ymm1, 0x180(%rsp) vsubps %ymm1, %ymm31, %ymm27 vmovaps %ymm0, 0x3e0(%rsp) vsubps %ymm0, %ymm31, %ymm28 vmovaps %ymm26, 0x1a0(%rsp) vsubps %ymm26, %ymm31, %ymm29 vmulps %ymm29, %ymm21, %ymm22 vfmadd231ps %ymm28, %ymm3, %ymm22 # ymm22 = (ymm3 * ymm28) + ymm22 vfmadd231ps %ymm27, %ymm30, %ymm22 # ymm22 = (ymm30 * ymm27) + ymm22 vmulps %ymm29, %ymm29, %ymm24 vfmadd231ps %ymm28, %ymm28, %ymm24 # ymm24 = (ymm28 * ymm28) + ymm24 vfmadd231ps %ymm27, %ymm27, %ymm24 # ymm24 = (ymm27 * ymm27) + ymm24 vmulps %ymm18, %ymm21, %ymm17 vfmadd231ps %ymm3, %ymm16, %ymm17 # ymm17 = (ymm16 * ymm3) + ymm17 vfmadd231ps %ymm30, %ymm15, %ymm17 # ymm17 = (ymm15 * ymm30) + ymm17 vmulps %ymm18, %ymm29, %ymm18 vfmadd231ps %ymm16, %ymm28, %ymm18 # ymm18 = (ymm28 * ymm16) + ymm18 vfmadd231ps %ymm15, %ymm27, %ymm18 # ymm18 = (ymm27 * ymm15) + ymm18 vmulps %ymm17, %ymm17, %ymm0 vmovaps 0x660(%rsp), %ymm1 vsubps %ymm0, %ymm1, %ymm15 vmulps %ymm18, %ymm17, %ymm25 vsubps %ymm25, %ymm22, %ymm22 vaddps %ymm22, %ymm22, %ymm22 vmulps %ymm18, %ymm18, %ymm25 vsubps %ymm25, %ymm24, %ymm21 vsubps %ymm4, %ymm21, %ymm4 vmulps %ymm22, %ymm22, %ymm25 vmulps 0x24252f(%rip){1to8}, %ymm15, %ymm24 # 0x1eecb8c vmulps %ymm4, %ymm24, %ymm30 vsubps %ymm30, %ymm25, %ymm30 vcmpnltps %ymm31, %ymm30, %k1 kmovd %k1, %eax kortestb %k1, %k1 je 0x1caa75b vsqrtps %ymm30, %ymm30 vaddps %ymm15, %ymm15, %ymm31 vrcp14ps %ymm31, %ymm3 vfnmadd213ps %ymm8, %ymm3, %ymm31 # ymm31 = -(ymm3 * ymm31) + ymm8 vfmadd132ps %ymm3, %ymm3, %ymm31 # ymm31 = (ymm31 * ymm3) + ymm3 vxorps 0x27681a(%rip){1to8}, %ymm22, %ymm3 # 0x1f20ec0 vsubps %ymm30, %ymm3, %ymm3 vmulps %ymm31, %ymm3, %ymm3 vsubps %ymm22, %ymm30, %ymm30 vmulps %ymm31, %ymm30, %ymm31 vmovaps %ymm17, %ymm30 vfmadd213ps %ymm18, %ymm3, %ymm30 # ymm30 = (ymm3 * ymm30) + ymm18 vmulps %ymm30, %ymm14, %ymm30 vmovaps %ymm30, 0x540(%rsp) vmovaps %ymm17, %ymm30 vfmadd213ps %ymm18, %ymm31, %ymm30 # ymm30 = (ymm31 * ymm30) + ymm18 vmulps %ymm30, %ymm14, %ymm30 vmovaps %ymm30, 0x520(%rsp) vbroadcastss 0x241324(%rip), %ymm16 # 0x1eeba20 vblendmps %ymm3, %ymm16, %ymm30 {%k1} vbroadcastss 0x242479(%rip), %ymm3 # 0x1eecb84 vblendmps %ymm31, %ymm3, %ymm31 {%k1} vbroadcastss 0x2767a9(%rip), %ymm23 # 0x1f20ec4 vandps %ymm23, %ymm0, %ymm3 vmovaps 0x580(%rsp), %ymm1 vmaxps %ymm3, %ymm1, %ymm3 vmulps 0x24777c(%rip){1to8}, %ymm3, %ymm3 # 0x1ef1eb4 vandps %ymm23, %ymm15, %ymm23 vcmpltps %ymm3, %ymm23, %k1 {%k1} kortestb %k1, %k1 jne 0x1cac77e vbroadcastss 0x241fbb(%rip), %ymm16 # 0x1eec714 jmp 0x1caa775 vbroadcastss 0x2412bb(%rip), %ymm30 # 0x1eeba20 vbroadcastss 0x242415(%rip), %ymm31 # 0x1eecb84 vmovaps %ymm8, %ymm16 andb $0x7f, %al je 0x1caab80 vmovaps %ymm21, 0x3c0(%rsp) vmovaps %ymm0, 0x3a0(%rsp) movq 0x18(%rsp), %rcx vmovss 0x80(%r12,%rcx,4), %xmm3 vsubss 0x320(%rsp), %xmm3, %xmm3 vbroadcastss %xmm3, %ymm3 vminps %ymm31, %ymm3, %ymm3 vmovaps 0x640(%rsp), %ymm1 vmaxps %ymm30, %ymm1, %ymm4 vmulps %ymm13, %ymm29, %ymm23 vfmadd213ps %ymm23, %ymm12, %ymm28 # ymm28 = (ymm12 * ymm28) + ymm23 vfmadd213ps %ymm28, %ymm11, %ymm27 # ymm27 = (ymm11 * ymm27) + ymm28 vmovaps 0x200(%rsp), %ymm21 vmulps %ymm13, %ymm21, %ymm13 vmovaps 0x220(%rsp), %ymm31 vfmadd231ps %ymm12, %ymm31, %ymm13 # ymm13 = (ymm31 * ymm12) + ymm13 vmovaps 0x240(%rsp), %ymm30 vfmadd231ps %ymm11, %ymm30, %ymm13 # ymm13 = (ymm30 * ymm11) + ymm13 vbroadcastss 0x2766be(%rip), %ymm28 # 0x1f20ec4 vandps %ymm28, %ymm13, %ymm11 vbroadcastss 0x2467d2(%rip), %ymm29 # 0x1ef0fe8 vcmpltps %ymm29, %ymm11, %k0 vbroadcastss 0x276699(%rip), %ymm26 # 0x1f20ec0 vxorps %ymm26, %ymm27, %ymm11 vrcp14ps %ymm13, %ymm12 vxorps %ymm26, %ymm13, %ymm23 vmovaps %ymm12, %ymm27 vfnmadd213ps %ymm16, %ymm13, %ymm27 # ymm27 = -(ymm13 * ymm27) + ymm16 vfmadd132ps %ymm12, %ymm12, %ymm27 # ymm27 = (ymm27 * ymm12) + ymm12 vmulps %ymm11, %ymm27, %ymm11 vcmpltps %ymm23, %ymm13, %k1 korb %k1, %k0, %k1 vbroadcastss 0x24231e(%rip), %ymm27 # 0x1eecb84 vblendmps %ymm27, %ymm11, %ymm12 {%k1} vmaxps %ymm12, %ymm4, %ymm4 vcmpnleps %ymm23, %ymm13, %k1 korb %k1, %k0, %k1 vbroadcastss 0x24119b(%rip), %ymm13 # 0x1eeba20 vmovaps %ymm13, %ymm11 {%k1} vminps %ymm11, %ymm3, %ymm3 vxorps %xmm23, %xmm23, %xmm23 vsubps 0x60(%rsp), %ymm23, %ymm8 vsubps %ymm9, %ymm23, %ymm9 vsubps %ymm10, %ymm23, %ymm10 vmulps %ymm2, %ymm10, %ymm10 vfnmsub231ps %ymm9, %ymm20, %ymm10 # ymm10 = -(ymm20 * ymm9) - ymm10 vfnmadd231ps %ymm8, %ymm19, %ymm10 # ymm10 = -(ymm19 * ymm8) + ymm10 vmulps %ymm2, %ymm21, %ymm8 vfnmsub231ps %ymm20, %ymm31, %ymm8 # ymm8 = -(ymm31 * ymm20) - ymm8 vfnmadd231ps %ymm19, %ymm30, %ymm8 # ymm8 = -(ymm30 * ymm19) + ymm8 vandps %ymm28, %ymm8, %ymm9 vcmpltps %ymm29, %ymm9, %k0 vxorps %ymm26, %ymm10, %ymm9 vrcp14ps %ymm8, %ymm10 vxorps %ymm26, %ymm8, %ymm11 vmovaps %ymm10, %ymm12 vfnmadd213ps %ymm16, %ymm8, %ymm12 # ymm12 = -(ymm8 * ymm12) + ymm16 vfmadd132ps %ymm10, %ymm10, %ymm12 # ymm12 = (ymm12 * ymm10) + ymm10 vmulps %ymm9, %ymm12, %ymm9 vcmpltps %ymm11, %ymm8, %k1 korb %k1, %k0, %k1 vblendmps %ymm27, %ymm9, %ymm10 {%k1} vmaxps %ymm10, %ymm4, %ymm0 vcmpnleps %ymm11, %ymm8, %k1 korb %k1, %k0, %k1 vmovaps %ymm13, %ymm9 {%k1} vminps %ymm9, %ymm3, %ymm8 vmovaps %ymm0, 0x360(%rsp) vcmpleps %ymm8, %ymm0, %k0 kmovd %k0, %ecx andb %cl, %al je 0x1cac66d vmovaps 0x540(%rsp), %ymm3 vmaxps 0xc0(%rsp), %ymm23, %ymm4 vminps %ymm16, %ymm3, %ymm3 vxorps %xmm10, %xmm10, %xmm10 vmaxps %ymm10, %ymm3, %ymm3 vmovaps 0x520(%rsp), %ymm9 vminps %ymm16, %ymm9, %ymm9 vmovaps 0x2765c0(%rip), %ymm11 # 0x1f20f40 vaddps %ymm3, %ymm11, %ymm3 vbroadcastss 0x273b2b(%rip), %ymm12 # 0x1f1e4b8 vmulps %ymm3, %ymm12, %ymm3 vmovaps 0xa0(%rsp), %ymm0 vmovaps 0x80(%rsp), %ymm1 vfmadd213ps %ymm0, %ymm1, %ymm3 # ymm3 = (ymm1 * ymm3) + ymm0 vmovaps %ymm3, 0x540(%rsp) vmaxps %ymm10, %ymm9, %ymm3 vaddps %ymm3, %ymm11, %ymm3 vmulps %ymm3, %ymm12, %ymm3 vfmadd213ps %ymm0, %ymm1, %ymm3 # ymm3 = (ymm1 * ymm3) + ymm0 vmovaps %ymm3, 0x520(%rsp) vmulps %ymm4, %ymm4, %ymm3 vmovaps 0x3c0(%rsp), %ymm0 vsubps %ymm3, %ymm0, %ymm11 vmulps %ymm11, %ymm24, %ymm3 vsubps %ymm3, %ymm25, %ymm3 vcmpnltps %ymm10, %ymm3, %k0 kortestb %k0, %k0 je 0x1caab9d vxorps %xmm20, %xmm20, %xmm20 vcmpnltps %ymm23, %ymm3, %k1 vsqrtps %ymm3, %ymm3 vaddps %ymm15, %ymm15, %ymm4 vrcp14ps %ymm4, %ymm9 vfnmadd213ps %ymm16, %ymm9, %ymm4 # ymm4 = -(ymm9 * ymm4) + ymm16 vfmadd132ps %ymm9, %ymm9, %ymm4 # ymm4 = (ymm4 * ymm9) + ymm9 vxorps 0x276495(%rip){1to8}, %ymm22, %ymm9 # 0x1f20ec0 vsubps %ymm3, %ymm9, %ymm9 vmulps %ymm4, %ymm9, %ymm12 vsubps %ymm22, %ymm3, %ymm3 vmulps %ymm4, %ymm3, %ymm13 vmovaps %ymm17, %ymm3 vfmadd213ps %ymm18, %ymm12, %ymm3 # ymm3 = (ymm12 * ymm3) + ymm18 vmulps %ymm3, %ymm14, %ymm9 vmulps %ymm12, %ymm30, %ymm3 vmulps %ymm12, %ymm31, %ymm4 vmulps %ymm12, %ymm21, %ymm10 vmovaps %ymm7, %ymm19 vmovaps 0x180(%rsp), %ymm1 vfmadd213ps %ymm1, %ymm9, %ymm19 # ymm19 = (ymm9 * ymm19) + ymm1 vsubps %ymm19, %ymm3, %ymm3 vmovaps %ymm6, %ymm19 vmovaps 0x3e0(%rsp), %ymm0 vfmadd213ps %ymm0, %ymm9, %ymm19 # ymm19 = (ymm9 * ymm19) + ymm0 vsubps %ymm19, %ymm4, %ymm4 vmovaps 0x1a0(%rsp), %ymm2 vfmadd213ps %ymm2, %ymm5, %ymm9 # ymm9 = (ymm5 * ymm9) + ymm2 vsubps %ymm9, %ymm10, %ymm9 vfmadd213ps %ymm18, %ymm13, %ymm17 # ymm17 = (ymm13 * ymm17) + ymm18 vmulps %ymm17, %ymm14, %ymm14 vmulps %ymm13, %ymm30, %ymm10 vmulps %ymm13, %ymm31, %ymm17 vmulps %ymm13, %ymm21, %ymm18 vfmadd213ps %ymm1, %ymm14, %ymm7 # ymm7 = (ymm14 * ymm7) + ymm1 vsubps %ymm7, %ymm10, %ymm10 vfmadd213ps %ymm0, %ymm14, %ymm6 # ymm6 = (ymm14 * ymm6) + ymm0 vsubps %ymm6, %ymm17, %ymm1 vfmadd213ps %ymm2, %ymm14, %ymm5 # ymm5 = (ymm14 * ymm5) + ymm2 vsubps %ymm5, %ymm18, %ymm5 vbroadcastss 0x240f32(%rip), %ymm0 # 0x1eeba20 vblendmps %ymm12, %ymm0, %ymm2 {%k1} vbroadcastss 0x242087(%rip), %ymm0 # 0x1eecb84 vblendmps %ymm13, %ymm0, %ymm0 {%k1} vbroadcastss 0x2763b8(%rip), %ymm7 # 0x1f20ec4 vandps 0x3a0(%rsp), %ymm7, %ymm6 vmovaps 0x580(%rsp), %ymm12 vmaxps %ymm6, %ymm12, %ymm6 vmulps 0x247388(%rip){1to8}, %ymm6, %ymm6 # 0x1ef1eb4 vandps %ymm7, %ymm15, %ymm7 vcmpltps %ymm6, %ymm7, %k1 {%k1} kortestb %k1, %k1 je 0x1caabc4 vcmpleps %ymm20, %ymm11, %k2 vbroadcastss 0x242033(%rip), %ymm7 # 0x1eecb84 vbroadcastss 0x240ec6(%rip), %ymm11 # 0x1eeba20 vblendmps %ymm7, %ymm11, %ymm6 {%k2} vmovaps %ymm6, %ymm2 {%k1} vblendmps %ymm11, %ymm7, %ymm6 {%k2} vmovaps %ymm6, %ymm0 {%k1} knotb %k1, %k1 korb %k2, %k1, %k1 kandb %k0, %k1, %k0 jmp 0x1caabc4 vmovaps 0x240(%rsp), %ymm30 vmovaps 0x220(%rsp), %ymm31 vmovaps 0x200(%rsp), %ymm21 jmp 0x1cac66d vxorps %xmm1, %xmm1, %xmm1 vxorps %xmm5, %xmm5, %xmm5 vxorps %xmm3, %xmm3, %xmm3 vxorps %xmm4, %xmm4, %xmm4 vxorps %xmm9, %xmm9, %xmm9 vbroadcastss 0x240e65(%rip), %ymm2 # 0x1eeba20 vbroadcastss 0x241fc0(%rip), %ymm0 # 0x1eecb84 vbroadcastss 0x2762f7(%rip), %xmm11 # 0x1f20ec4 vmulps %ymm5, %ymm21, %ymm5 vfmadd231ps %ymm1, %ymm31, %ymm5 # ymm5 = (ymm31 * ymm1) + ymm5 vfmadd231ps %ymm10, %ymm30, %ymm5 # ymm5 = (ymm30 * ymm10) + ymm5 vmovaps 0x360(%rsp), %ymm7 vmovaps %ymm7, 0x860(%rsp) vminps %ymm2, %ymm8, %ymm1 vmovaps %ymm1, 0x880(%rsp) vbroadcastss 0x2762bd(%rip), %ymm6 # 0x1f20ec4 vandps %ymm6, %ymm5, %ymm2 vmaxps %ymm0, %ymm7, %ymm5 vmovaps %ymm5, 0x5c0(%rsp) vmovaps %ymm8, 0x5e0(%rsp) vbroadcastss 0x2762aa(%rip), %ymm0 # 0x1f20ed4 vcmpltps %ymm0, %ymm2, %k1 kmovd %k1, 0x144(%rsp) vcmpleps %ymm1, %ymm7, %k1 kmovd %k1, %ecx andb %al, %cl vmovaps %ymm5, 0x4e0(%rsp) vcmpleps %ymm8, %ymm5, %k1 kmovd %k1, %edx andb %al, %dl movl %edx, %eax orb %cl, %al je 0x1cac637 vmovaps %ymm0, %ymm2 movl %edx, 0x34(%rsp) movq %r9, 0x1f0(%rsp) movq %r10, 0x1f8(%rsp) knotb %k0, %k1 vmulps %ymm9, %ymm21, %ymm0 vfmadd213ps %ymm0, %ymm31, %ymm4 # ymm4 = (ymm31 * ymm4) + ymm0 vfmadd213ps %ymm4, %ymm30, %ymm3 # ymm3 = (ymm30 * ymm3) + ymm4 vandps %ymm6, %ymm3, %ymm0 vcmpltps %ymm2, %ymm0, %k0 kmovd %k1, 0x13c(%rsp) korb %k1, %k0, %k1 vpbroadcastd 0x276224(%rip), %ymm0 # 0x1f20edc vpblendmd 0x276216(%rip){1to8}, %ymm0, %ymm0 {%k1} # 0x1f20ed8 movq %r11, 0x1e8(%rsp) vpbroadcastd %r11d, %ymm1 vmovdqa %ymm0, 0x600(%rsp) vmovdqa %ymm1, 0x560(%rsp) vpcmpnltd %ymm0, %ymm1, %k0 kmovd %k0, %ebx movl %ecx, 0x140(%rsp) andb %cl, %bl je 0x1cab8ef vmovaps 0x2e0(%rsp), %ymm1 vmovaps 0x2a0(%rsp), %ymm2 vminps %xmm2, %xmm1, %xmm0 vmaxps %xmm2, %xmm1, %xmm1 vmovaps 0x2c0(%rsp), %ymm3 vmovaps 0x280(%rsp), %ymm4 vminps %xmm4, %xmm3, %xmm2 vminps %xmm2, %xmm0, %xmm0 vmaxps %xmm4, %xmm3, %xmm2 vmaxps %xmm2, %xmm1, %xmm1 vandps %xmm0, %xmm11, %xmm0 vandps %xmm1, %xmm11, %xmm2 vmaxps %xmm2, %xmm0, %xmm0 vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3] vmaxss %xmm0, %xmm2, %xmm2 vshufpd $0x1, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[1,0] vmaxss %xmm2, %xmm0, %xmm0 vmulss 0x247157(%rip), %xmm0, %xmm0 # 0x1ef1eb4 vmovss %xmm0, 0x44(%rsp) vshufps $0xff, %xmm1, %xmm1, %xmm0 # xmm0 = xmm1[3,3,3,3] vmovaps %xmm0, 0x310(%rsp) vmovaps 0x360(%rsp), %ymm0 vaddps 0x380(%rsp), %ymm0, %ymm0 vmovaps %ymm0, 0x500(%rsp) kmovd %ebx, %k1 vbroadcastss 0x240c87(%rip), %ymm0 # 0x1eeba20 vblendmps 0x360(%rsp), %ymm0, %ymm0 {%k1} vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm0, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1] vminps %ymm2, %ymm1, %ymm1 vcmpeqps %ymm1, %ymm0, %k0 kmovd %k0, %eax andb %bl, %al movzbl %al, %eax movzbl %bl, %ecx cmovnel %eax, %ecx tzcntl %ecx, %ecx movb $0x1, %bl shlb %cl, %bl shll $0x2, %ecx vmovss 0x540(%rsp,%rcx), %xmm9 vmovss 0x860(%rsp,%rcx), %xmm8 vmovaps 0x260(%rsp), %xmm0 vucomiss 0x240c23(%rip), %xmm0 # 0x1eeba24 vmovss 0x148(%rsp), %xmm0 jae 0x1caae4d vmovaps 0x260(%rsp), %xmm0 vmovaps %xmm9, 0x60(%rsp) vmovaps %xmm8, 0x80(%rsp) kmovw %k1, 0xc0(%rsp) vzeroupper callq 0x6aa20 kmovw 0xc0(%rsp), %k1 vmovaps 0x80(%rsp), %xmm8 vmovaps 0x60(%rsp), %xmm9 movzbl %bl, %eax kmovd %eax, %k0 kandnb %k1, %k0, %k0 kmovd %k0, %ebx vmulss 0x247050(%rip), %xmm0, %xmm0 # 0x1ef1eb4 vmovss %xmm0, 0x48(%rsp) movl $0x4, %r14d vmovaps %xmm8, 0x80(%rsp) vbroadcastss %xmm8, %xmm0 vxorps %xmm1, %xmm1, %xmm1 vfmadd132ps 0x270(%rsp), %xmm1, %xmm0 # xmm0 = (xmm0 * mem) + xmm1 vmovss 0x241880(%rip), %xmm1 # 0x1eec714 vsubss %xmm9, %xmm1, %xmm11 vbroadcastss 0x27601e(%rip), %xmm6 # 0x1f20ec0 vxorps %xmm6, %xmm9, %xmm1 vmulss %xmm1, %xmm11, %xmm1 vmulss %xmm1, %xmm11, %xmm1 vmulss %xmm9, %xmm9, %xmm12 vmovss 0x246131(%rip), %xmm8 # 0x1ef0fec vmovaps %xmm8, %xmm10 vmovss 0x24613c(%rip), %xmm7 # 0x1ef1004 vfmadd213ss %xmm7, %xmm9, %xmm10 # xmm10 = (xmm9 * xmm10) + xmm7 vmovaps %xmm10, %xmm2 vmovss 0x24611f(%rip), %xmm5 # 0x1ef0ff8 vfmadd213ss %xmm5, %xmm12, %xmm2 # xmm2 = (xmm12 * xmm2) + xmm5 vmulss %xmm11, %xmm11, %xmm3 vmovaps %xmm8, %xmm4 vfmadd213ss %xmm7, %xmm11, %xmm4 # xmm4 = (xmm11 * xmm4) + xmm7 vfmadd213ss %xmm5, %xmm3, %xmm4 # xmm4 = (xmm3 * xmm4) + xmm5 vxorps %xmm6, %xmm11, %xmm3 vmulss %xmm3, %xmm9, %xmm3 vmulss %xmm3, %xmm9, %xmm3 vmovss 0x241c7b(%rip), %xmm5 # 0x1eecb80 vmulss %xmm5, %xmm1, %xmm1 vmulss %xmm5, %xmm2, %xmm2 vmulss %xmm5, %xmm4, %xmm4 vmulss %xmm5, %xmm3, %xmm3 vbroadcastss %xmm3, %xmm3 vmulps 0x280(%rsp), %xmm3, %xmm3 vbroadcastss %xmm4, %xmm4 vfmadd132ps 0x2c0(%rsp), %xmm3, %xmm4 # xmm4 = (xmm4 * mem) + xmm3 vbroadcastss %xmm2, %xmm2 vfmadd132ps 0x2a0(%rsp), %xmm4, %xmm2 # xmm2 = (xmm2 * mem) + xmm4 vbroadcastss %xmm1, %xmm3 vfmadd132ps 0x2e0(%rsp), %xmm2, %xmm3 # xmm3 = (xmm3 * mem) + xmm2 vmulss 0x245a84(%rip), %xmm11, %xmm6 # 0x1ef09dc vfmadd231ss 0x2460a7(%rip), %xmm9, %xmm7 # xmm7 = (xmm9 * mem) + xmm7 vmovaps %xmm7, 0x3c0(%rsp) vmovss 0x24609a(%rip), %xmm1 # 0x1ef100c vfmadd213ss 0x241c11(%rip), %xmm9, %xmm1 # xmm1 = (xmm9 * xmm1) + mem vmovaps %xmm1, 0x3a0(%rsp) vfmadd213ss 0x245a3f(%rip), %xmm9, %xmm8 # xmm8 = (xmm9 * xmm8) + mem vmovaps %xmm8, 0x350(%rsp) vmovaps %xmm3, 0x3e0(%rsp) vsubps %xmm3, %xmm0, %xmm0 vmovaps %xmm0, 0xc0(%rsp) vdpps $0x7f, %xmm0, %xmm0, %xmm0 vucomiss 0x240a6a(%rip), %xmm0 # 0x1eeba24 vmovaps %xmm9, 0x60(%rsp) vmovaps %xmm0, 0xa0(%rsp) jb 0x1caafd1 vsqrtss %xmm0, %xmm0, %xmm7 jmp 0x1cab02b vmovss %xmm10, 0x1a0(%rsp) vmovaps %xmm11, 0x180(%rsp) vmovss %xmm12, 0x110(%rsp) vmovss %xmm6, 0x100(%rsp) vzeroupper callq 0x6aa20 vmovss 0x100(%rsp), %xmm6 vmovss 0x110(%rsp), %xmm12 vmovaps 0x180(%rsp), %xmm11 vmovss 0x1a0(%rsp), %xmm10 vmovaps 0x60(%rsp), %xmm9 vmovaps %xmm0, %xmm7 vaddss %xmm11, %xmm11, %xmm0 vmulss %xmm0, %xmm9, %xmm1 vfnmadd231ss %xmm11, %xmm11, %xmm1 # xmm1 = -(xmm11 * xmm11) + xmm1 vaddss %xmm9, %xmm9, %xmm2 vmovss 0x245fa6(%rip), %xmm4 # 0x1ef0fec vmulss %xmm4, %xmm9, %xmm3 vmulss %xmm3, %xmm9, %xmm3 vfmadd213ss %xmm3, %xmm2, %xmm10 # xmm10 = (xmm2 * xmm10) + xmm3 vmovaps %xmm4, %xmm2 vmovss 0x245f99(%rip), %xmm4 # 0x1ef0ff8 vfmadd213ss %xmm4, %xmm9, %xmm2 # xmm2 = (xmm9 * xmm2) + xmm4 vmulss 0x245f84(%rip), %xmm11, %xmm3 # 0x1ef0ff0 vmulss %xmm3, %xmm11, %xmm3 vfmadd231ss %xmm2, %xmm0, %xmm3 # xmm3 = (xmm0 * xmm2) + xmm3 vfmadd213ss %xmm12, %xmm9, %xmm6 # xmm6 = (xmm9 * xmm6) + xmm12 vmovss 0x241afe(%rip), %xmm5 # 0x1eecb80 vmulss %xmm5, %xmm1, %xmm0 vmulss %xmm5, %xmm10, %xmm1 vmulss %xmm5, %xmm3, %xmm2 vmulss %xmm5, %xmm6, %xmm3 vbroadcastss %xmm3, %xmm3 vmulps 0x280(%rsp), %xmm3, %xmm3 vbroadcastss %xmm2, %xmm2 vfmadd132ps 0x2c0(%rsp), %xmm3, %xmm2 # xmm2 = (xmm2 * mem) + xmm3 vbroadcastss %xmm1, %xmm1 vfmadd132ps 0x2a0(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2 vbroadcastss %xmm0, %xmm13 vfmadd132ps 0x2e0(%rsp), %xmm1, %xmm13 # xmm13 = (xmm13 * mem) + xmm1 vdpps $0x7f, %xmm13, %xmm13, %xmm0 vxorps %xmm1, %xmm1, %xmm1 vmovss %xmm0, %xmm1, %xmm2 # xmm2 = xmm0[0],xmm1[1,2,3] vrsqrt14ss %xmm2, %xmm1, %xmm3 vmulss 0x24162f(%rip), %xmm3, %xmm5 # 0x1eec718 vmulss 0x24162b(%rip), %xmm0, %xmm6 # 0x1eec71c vrcp14ss %xmm2, %xmm1, %xmm2 vxorps 0x275dbf(%rip){1to4}, %xmm0, %xmm1 # 0x1f20ec0 vmovaps %xmm2, 0x100(%rsp) vfnmadd213ss %xmm4, %xmm0, %xmm2 # xmm2 = -(xmm0 * xmm2) + xmm4 vmovss %xmm2, 0x4c(%rsp) vucomiss %xmm1, %xmm0 vmovaps %xmm13, 0x1a0(%rsp) vmovss %xmm7, 0x180(%rsp) vmovaps %xmm0, 0x110(%rsp) jb 0x1cab13e vsqrtss %xmm0, %xmm0, %xmm16 jmp 0x1cab18e vmovaps %xmm3, 0xf0(%rsp) vmovss %xmm5, 0x24(%rsp) vmovss %xmm6, 0xe0(%rsp) vzeroupper callq 0x6aa20 vmovss 0xe0(%rsp), %xmm6 vmovss 0x24(%rsp), %xmm5 vmovaps 0xf0(%rsp), %xmm3 vmovss 0x180(%rsp), %xmm7 vmovaps 0x1a0(%rsp), %xmm13 vmovaps %xmm0, %xmm16 vmovaps 0xc0(%rsp), %xmm10 vmovaps 0xa0(%rsp), %xmm19 vmulss %xmm3, %xmm6, %xmm0 vmulss %xmm3, %xmm3, %xmm1 vmulss %xmm1, %xmm0, %xmm0 vaddss %xmm0, %xmm5, %xmm0 vbroadcastss %xmm0, %xmm4 vmulps %xmm4, %xmm13, %xmm0 vmovaps %xmm0, 0xf0(%rsp) vdpps $0x7f, %xmm0, %xmm10, %xmm15 vaddss 0x241545(%rip), %xmm7, %xmm14 # 0x1eec714 vmulps %xmm15, %xmm15, %xmm0 vsubps %xmm0, %xmm19, %xmm0 vxorps %xmm2, %xmm2, %xmm2 vmovss %xmm0, %xmm2, %xmm1 # xmm1 = xmm0[0],xmm2[1,2,3] vrsqrt14ss %xmm1, %xmm2, %xmm18 vmulss 0x241526(%rip), %xmm18, %xmm17 # 0x1eec718 vmulss 0x241520(%rip), %xmm0, %xmm20 # 0x1eec71c vucomiss 0x240820(%rip), %xmm0 # 0x1eeba24 jb 0x1cab20f vsqrtss %xmm0, %xmm0, %xmm0 jmp 0x1cab2aa vmovss %xmm14, 0x24(%rsp) vmovaps %xmm15, 0xe0(%rsp) vmovss %xmm16, 0x40(%rsp) vmovss %xmm17, 0x3c(%rsp) vmovaps %xmm18, 0x340(%rsp) vmovss %xmm20, 0x38(%rsp) vmovaps %xmm4, 0x330(%rsp) vzeroupper callq 0x6aa20 vmovaps 0x330(%rsp), %xmm4 vmovss 0x38(%rsp), %xmm20 vmovaps 0x340(%rsp), %xmm18 vmovss 0x3c(%rsp), %xmm17 vmovss 0x40(%rsp), %xmm16 vmovaps 0xe0(%rsp), %xmm15 vmovss 0x24(%rsp), %xmm14 vmovss 0x180(%rsp), %xmm7 vmovaps 0x1a0(%rsp), %xmm13 vmovaps 0xa0(%rsp), %xmm19 vmovaps 0xc0(%rsp), %xmm10 vbroadcastss 0x275c11(%rip), %xmm11 # 0x1f20ec4 vmovaps 0x240(%rsp), %ymm30 vmovaps 0x220(%rsp), %ymm31 vmovaps 0x200(%rsp), %ymm21 vmovaps 0x60(%rsp), %xmm9 vmovaps 0x80(%rsp), %xmm8 vbroadcastss 0x350(%rsp), %xmm1 vmulps 0x280(%rsp), %xmm1, %xmm1 vbroadcastss 0x3a0(%rsp), %xmm2 vfmadd132ps 0x2c0(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1 vbroadcastss 0x3c0(%rsp), %xmm1 vfmadd132ps 0x2a0(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2 vmovss 0x245cd3(%rip), %xmm2 # 0x1ef0ff0 vfmadd213ss 0x245cd2(%rip), %xmm9, %xmm2 # xmm2 = (xmm9 * xmm2) + mem vbroadcastss %xmm2, %xmm2 vfmadd132ps 0x2e0(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1 vbroadcastss 0x110(%rsp), %xmm1 vmulps %xmm1, %xmm2, %xmm1 vdpps $0x7f, %xmm2, %xmm13, %xmm2 vbroadcastss %xmm2, %xmm2 vmulps %xmm2, %xmm13, %xmm2 vsubps %xmm2, %xmm1, %xmm1 vmovss 0x4c(%rsp), %xmm2 vmulss 0x100(%rsp), %xmm2, %xmm2 vmulss 0x48(%rsp), %xmm8, %xmm3 vbroadcastss %xmm2, %xmm2 vmulps %xmm2, %xmm1, %xmm1 vxorps 0x275b42(%rip){1to4}, %xmm13, %xmm2 # 0x1f20ec0 vmulps %xmm1, %xmm4, %xmm4 vmovaps 0xf0(%rsp), %xmm12 vdpps $0x7f, %xmm12, %xmm2, %xmm5 vmovss 0x44(%rsp), %xmm6 vmaxss %xmm3, %xmm6, %xmm1 vdivss %xmm16, %xmm6, %xmm3 vdpps $0x7f, %xmm4, %xmm10, %xmm4 vfmadd213ss %xmm1, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm7) + xmm1 vfmadd213ss %xmm7, %xmm3, %xmm14 # xmm14 = (xmm3 * xmm14) + xmm7 vmovaps 0x270(%rsp), %xmm7 vdpps $0x7f, %xmm12, %xmm7, %xmm3 vaddss %xmm4, %xmm5, %xmm4 vdpps $0x7f, %xmm2, %xmm10, %xmm5 vmulss %xmm18, %xmm20, %xmm2 vmulss %xmm18, %xmm18, %xmm6 vmulss %xmm6, %xmm2, %xmm2 vdpps $0x7f, %xmm7, %xmm10, %xmm6 vaddss %xmm2, %xmm17, %xmm7 vfnmadd231ss %xmm4, %xmm15, %xmm5 # xmm5 = -(xmm15 * xmm4) + xmm5 vfnmadd231ss %xmm3, %xmm15, %xmm6 # xmm6 = -(xmm15 * xmm3) + xmm6 vpermilps $0xff, 0x3e0(%rsp), %xmm2 # xmm2 = mem[3,3,3,3] vsubss %xmm2, %xmm0, %xmm2 vshufps $0xff, %xmm13, %xmm13, %xmm0 # xmm0 = xmm13[3,3,3,3] vfmsub213ss %xmm0, %xmm7, %xmm5 # xmm5 = (xmm7 * xmm5) - xmm0 vmulss %xmm7, %xmm6, %xmm6 vmulss %xmm5, %xmm3, %xmm7 vfmsub231ss %xmm6, %xmm4, %xmm7 # xmm7 = (xmm4 * xmm6) - xmm7 vdivss %xmm7, %xmm6, %xmm6 vdivss %xmm7, %xmm5, %xmm5 vdivss %xmm7, %xmm3, %xmm3 vdivss %xmm7, %xmm4, %xmm4 vmulss %xmm6, %xmm15, %xmm6 vmulss %xmm3, %xmm2, %xmm3 vsubss %xmm3, %xmm6, %xmm3 vmulss %xmm5, %xmm15, %xmm5 vmulss %xmm4, %xmm2, %xmm4 vsubss %xmm5, %xmm4, %xmm4 vsubss %xmm3, %xmm9, %xmm9 vsubss %xmm4, %xmm8, %xmm8 vandps %xmm11, %xmm15, %xmm3 vucomiss %xmm3, %xmm14 jbe 0x1cab606 vaddss %xmm1, %xmm14, %xmm1 vmovaps 0x310(%rsp), %xmm3 vfmadd231ss 0x246a48(%rip), %xmm3, %xmm1 # xmm1 = (xmm3 * mem) + xmm1 vandps %xmm2, %xmm11, %xmm2 vucomiss %xmm2, %xmm1 jbe 0x1cab606 vaddss 0x320(%rsp), %xmm8, %xmm8 movb $0x1, %r13b vucomiss 0x5c(%rsp), %xmm8 jb 0x1cab609 movq 0x18(%rsp), %rax vmovss 0x80(%r12,%rax,4), %xmm4 vucomiss %xmm8, %xmm4 jb 0x1cab609 vucomiss 0x240570(%rip), %xmm9 # 0x1eeba24 jb 0x1cab609 vmovss 0x241252(%rip), %xmm1 # 0x1eec714 vucomiss %xmm9, %xmm1 jb 0x1cab609 vxorps %xmm2, %xmm2, %xmm2 vmovss %xmm19, %xmm2, %xmm1 # xmm1 = xmm19[0],xmm2[1,2,3] vrsqrt14ss %xmm1, %xmm2, %xmm1 vmulss 0x241233(%rip), %xmm1, %xmm2 # 0x1eec718 vmulss 0x24122d(%rip), %xmm19, %xmm3 # 0x1eec71c movq (%r15), %rax movq 0x1e8(%rax), %rax movq %r15, %rcx movq 0x50(%rsp), %rdx movq (%rax,%rdx,8), %r15 movq 0x18(%rsp), %rax movl 0x90(%r12,%rax,4), %eax testl %eax, 0x34(%r15) je 0x1cab626 vmulss %xmm1, %xmm3, %xmm3 vmulss %xmm1, %xmm1, %xmm1 vmulss %xmm1, %xmm3, %xmm1 vaddss %xmm1, %xmm2, %xmm1 vbroadcastss %xmm1, %xmm1 vmulps %xmm1, %xmm10, %xmm1 vfmadd213ps %xmm13, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm0) + xmm13 vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3] vshufps $0xc9, %xmm13, %xmm13, %xmm3 # xmm3 = xmm13[1,2,0,3] vmulps %xmm3, %xmm1, %xmm1 vfmsub231ps %xmm2, %xmm13, %xmm1 # xmm1 = (xmm13 * xmm2) - xmm1 vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3] vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3] vshufps $0xd2, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,0,1,3] vmulps %xmm1, %xmm0, %xmm0 vfmsub231ps %xmm3, %xmm2, %xmm0 # xmm0 = (xmm2 * xmm3) - xmm0 movq 0x10(%rcx), %rax cmpq $0x0, 0x10(%rax) jne 0x1cab62b cmpq $0x0, 0x40(%r15) jne 0x1cab62b movq 0x18(%rsp), %rcx vmovss %xmm8, 0x80(%r12,%rcx,4) vextractps $0x1, %xmm0, 0xc0(%r12,%rcx,4) vextractps $0x2, %xmm0, 0xd0(%r12,%rcx,4) vmovss %xmm0, 0xe0(%r12,%rcx,4) vmovss %xmm9, 0xf0(%r12,%rcx,4) movl $0x0, 0x100(%r12,%rcx,4) movq 0x130(%rsp), %rax movl %eax, 0x110(%r12,%rcx,4) movq 0x50(%rsp), %rax movl %eax, 0x120(%r12,%rcx,4) movq 0x28(%rsp), %r15 movq 0x8(%r15), %rax movl (%rax), %eax movl %eax, 0x130(%r12,%rcx,4) movq 0x8(%r15), %rax movl 0x4(%rax), %eax movl %eax, 0x140(%r12,%rcx,4) jmp 0x1cab609 xorl %r13d, %r13d subq $0x1, %r14 setb %al testb %r13b, %r13b jne 0x1cab8cc testb %al, %al je 0x1caae70 jmp 0x1cab8cc movq %rcx, %r15 jmp 0x1cab609 movq 0x28(%rsp), %rcx movq 0x8(%rcx), %rax vbroadcastss %xmm9, %xmm1 vshufps $0x55, %xmm0, %xmm0, %xmm2 # xmm2 = xmm0[1,1,1,1] vshufps $0xaa, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[2,2,2,2] vbroadcastss %xmm0, %xmm0 vmovaps %xmm2, 0x440(%rsp) vmovaps %xmm3, 0x450(%rsp) vmovaps %xmm0, 0x460(%rsp) vmovaps %xmm1, 0x470(%rsp) vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 0x480(%rsp) vmovaps 0x420(%rsp), %xmm0 vmovaps %xmm0, 0x490(%rsp) vmovdqa 0x430(%rsp), %xmm0 vmovdqa %xmm0, 0x4a0(%rsp) leaq 0x4b0(%rsp), %rdx vpcmpeqd %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, (%rdx) vbroadcastss (%rax), %xmm0 vmovaps %xmm0, 0x4b0(%rsp) vbroadcastss 0x4(%rax), %xmm0 vmovaps %xmm0, 0x4c0(%rsp) movq 0x18(%rsp), %rax vmovss %xmm8, 0x80(%r12,%rax,4) vmovaps 0x410(%rsp), %xmm0 vmovaps %xmm0, 0x120(%rsp) leaq 0x120(%rsp), %rax movq %rax, 0x150(%rsp) movq 0x18(%r15), %rax movq %rax, 0x158(%rsp) movq 0x8(%rcx), %rax movq %rax, 0x160(%rsp) movq %r12, 0x168(%rsp) leaq 0x440(%rsp), %rax movq %rax, 0x170(%rsp) movl $0x4, 0x178(%rsp) movq 0x40(%r15), %rax testq %rax, %rax vmovaps %xmm9, 0x60(%rsp) vmovaps %xmm8, 0x80(%rsp) vmovss %xmm4, 0xa0(%rsp) je 0x1cab79d leaq 0x150(%rsp), %rdi vzeroupper callq *%rax vmovss 0xa0(%rsp), %xmm4 vmovaps 0x80(%rsp), %xmm8 vmovaps 0x60(%rsp), %xmm9 vmovaps 0x200(%rsp), %ymm21 vmovaps 0x220(%rsp), %ymm31 vmovaps 0x240(%rsp), %ymm30 vbroadcastss 0x275727(%rip), %xmm11 # 0x1f20ec4 vmovdqa 0x120(%rsp), %xmm0 vptestmd %xmm0, %xmm0, %k0 kortestb %k0, %k0 je 0x1cab8b3 movq 0x28(%rsp), %rax movq 0x10(%rax), %rcx movq 0x10(%rcx), %rax testq %rax, %rax je 0x1cab81a testb $0x2, (%rcx) jne 0x1cab7d4 testb $0x40, 0x3e(%r15) je 0x1cab81a leaq 0x150(%rsp), %rdi vzeroupper callq *%rax vmovss 0xa0(%rsp), %xmm4 vmovaps 0x80(%rsp), %xmm8 vmovaps 0x60(%rsp), %xmm9 vmovaps 0x200(%rsp), %ymm21 vmovaps 0x220(%rsp), %ymm31 vmovaps 0x240(%rsp), %ymm30 vbroadcastss 0x2756aa(%rip), %xmm11 # 0x1f20ec4 vmovdqa 0x120(%rsp), %xmm0 vptestmd %xmm0, %xmm0, %k1 kortestb %k1, %k1 je 0x1cab8b3 movq 0x168(%rsp), %rax movq 0x170(%rsp), %rcx vmovaps (%rcx), %xmm0 vmovups %xmm0, 0xc0(%rax) {%k1} vmovaps 0x10(%rcx), %xmm0 vmovups %xmm0, 0xd0(%rax) {%k1} vmovaps 0x20(%rcx), %xmm0 vmovups %xmm0, 0xe0(%rax) {%k1} vmovaps 0x30(%rcx), %xmm0 vmovups %xmm0, 0xf0(%rax) {%k1} vmovaps 0x40(%rcx), %xmm0 vmovups %xmm0, 0x100(%rax) {%k1} vmovdqa 0x50(%rcx), %xmm0 vmovdqu32 %xmm0, 0x110(%rax) {%k1} vmovdqa 0x60(%rcx), %xmm0 vmovdqu32 %xmm0, 0x120(%rax) {%k1} vmovdqa 0x70(%rcx), %xmm0 vmovdqa32 %xmm0, 0x130(%rax) {%k1} vmovdqa 0x80(%rcx), %xmm0 vmovdqa32 %xmm0, 0x140(%rax) {%k1} jmp 0x1cab8c2 movq 0x18(%rsp), %rax vmovss %xmm4, 0x80(%r12,%rax,4) movq 0x28(%rsp), %r15 jmp 0x1cab609 movq 0x18(%rsp), %rax vmovaps 0x500(%rsp), %ymm0 vcmpleps 0x80(%r12,%rax,4){1to8}, %ymm0, %k0 kmovd %k0, %eax andb %al, %bl jne 0x1caad8c vmovaps 0x4e0(%rsp), %ymm0 vaddps 0x380(%rsp), %ymm0, %ymm0 movq 0x18(%rsp), %rax vcmpleps 0x80(%r12,%rax,4){1to8}, %ymm0, %k0 kmovd 0x144(%rsp), %k1 kmovd 0x13c(%rsp), %k2 korb %k2, %k1, %k1 kmovd %k0, %eax movl 0x34(%rsp), %ecx andb %al, %cl vpbroadcastd 0x2755a2(%rip), %ymm0 # 0x1f20edc vpblendmd 0x275594(%rip){1to8}, %ymm0, %ymm0 {%k1} # 0x1f20ed8 vmovdqa %ymm0, 0x4e0(%rsp) vpcmpled 0x560(%rsp), %ymm0, %k0 kmovd %k0, %ebx movl %ecx, 0x34(%rsp) andb %cl, %bl je 0x1cac550 vmovaps 0x5c0(%rsp), %ymm5 vmovaps 0x2e0(%rsp), %ymm1 vmovaps 0x2a0(%rsp), %ymm2 vminps %xmm2, %xmm1, %xmm0 vmaxps %xmm2, %xmm1, %xmm1 vmovaps 0x2c0(%rsp), %ymm3 vmovaps 0x280(%rsp), %ymm4 vminps %xmm4, %xmm3, %xmm2 vminps %xmm2, %xmm0, %xmm0 vmaxps %xmm4, %xmm3, %xmm2 vmaxps %xmm2, %xmm1, %xmm1 vandps %xmm0, %xmm11, %xmm0 vandps %xmm1, %xmm11, %xmm2 vmaxps %xmm2, %xmm0, %xmm0 vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3] vmaxss %xmm0, %xmm2, %xmm2 vshufpd $0x1, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[1,0] vmaxss %xmm2, %xmm0, %xmm0 vmulss 0x2464e4(%rip), %xmm0, %xmm0 # 0x1ef1eb4 vmovss %xmm0, 0x44(%rsp) vshufps $0xff, %xmm1, %xmm1, %xmm0 # xmm0 = xmm1[3,3,3,3] vmovaps %xmm0, 0x310(%rsp) vmovaps %ymm5, 0x360(%rsp) vaddps 0x380(%rsp), %ymm5, %ymm0 vmovaps %ymm0, 0x500(%rsp) kmovd %ebx, %k1 vbroadcastss 0x240014(%rip), %ymm0 # 0x1eeba20 vblendmps 0x360(%rsp), %ymm0, %ymm0 {%k1} vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm0, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1] vminps %ymm2, %ymm1, %ymm1 vcmpeqps %ymm1, %ymm0, %k0 kmovd %k0, %eax andb %bl, %al movzbl %al, %eax movzbl %bl, %ecx cmovnel %eax, %ecx tzcntl %ecx, %ecx movb $0x1, %bl shlb %cl, %bl shll $0x2, %ecx vmovss 0x520(%rsp,%rcx), %xmm9 vmovss 0x5e0(%rsp,%rcx), %xmm10 vmovaps 0x260(%rsp), %xmm0 vucomiss 0x23ffb0(%rip), %xmm0 # 0x1eeba24 vmovss 0x14c(%rsp), %xmm0 jae 0x1cabac0 vmovaps 0x260(%rsp), %xmm0 vmovaps %xmm9, 0x60(%rsp) vmovaps %xmm10, 0x80(%rsp) kmovw %k1, 0xc0(%rsp) vzeroupper callq 0x6aa20 kmovw 0xc0(%rsp), %k1 vmovaps 0x80(%rsp), %xmm10 vmovaps 0x60(%rsp), %xmm9 movzbl %bl, %eax kmovd %eax, %k0 kandnb %k1, %k0, %k0 kmovd %k0, %ebx vmulss 0x2463dd(%rip), %xmm0, %xmm0 # 0x1ef1eb4 vmovss %xmm0, 0x48(%rsp) movl $0x4, %r14d vbroadcastss %xmm10, %xmm0 vxorps %xmm1, %xmm1, %xmm1 vfmadd132ps 0x270(%rsp), %xmm1, %xmm0 # xmm0 = (xmm0 * mem) + xmm1 vmovss 0x240c16(%rip), %xmm1 # 0x1eec714 vsubss %xmm9, %xmm1, %xmm12 vbroadcastss 0x2753b4(%rip), %xmm6 # 0x1f20ec0 vxorps %xmm6, %xmm9, %xmm1 vmulss %xmm1, %xmm12, %xmm1 vmulss %xmm1, %xmm12, %xmm1 vmulss %xmm9, %xmm9, %xmm13 vmovss 0x2454c7(%rip), %xmm8 # 0x1ef0fec vmovaps %xmm8, %xmm11 vmovss 0x2454d2(%rip), %xmm7 # 0x1ef1004 vfmadd213ss %xmm7, %xmm9, %xmm11 # xmm11 = (xmm9 * xmm11) + xmm7 vmovaps %xmm11, %xmm2 vmovss 0x2454b5(%rip), %xmm5 # 0x1ef0ff8 vfmadd213ss %xmm5, %xmm13, %xmm2 # xmm2 = (xmm13 * xmm2) + xmm5 vmulss %xmm12, %xmm12, %xmm3 vmovaps %xmm8, %xmm4 vfmadd213ss %xmm7, %xmm12, %xmm4 # xmm4 = (xmm12 * xmm4) + xmm7 vfmadd213ss %xmm5, %xmm3, %xmm4 # xmm4 = (xmm3 * xmm4) + xmm5 vxorps %xmm6, %xmm12, %xmm3 vmulss %xmm3, %xmm9, %xmm3 vmulss %xmm3, %xmm9, %xmm3 vmovss 0x241011(%rip), %xmm5 # 0x1eecb80 vmulss %xmm5, %xmm1, %xmm1 vmulss %xmm5, %xmm2, %xmm2 vmulss %xmm5, %xmm4, %xmm4 vmulss %xmm5, %xmm3, %xmm3 vbroadcastss %xmm3, %xmm3 vmulps 0x280(%rsp), %xmm3, %xmm3 vbroadcastss %xmm4, %xmm4 vfmadd132ps 0x2c0(%rsp), %xmm3, %xmm4 # xmm4 = (xmm4 * mem) + xmm3 vbroadcastss %xmm2, %xmm2 vfmadd132ps 0x2a0(%rsp), %xmm4, %xmm2 # xmm2 = (xmm2 * mem) + xmm4 vbroadcastss %xmm1, %xmm3 vfmadd132ps 0x2e0(%rsp), %xmm2, %xmm3 # xmm3 = (xmm3 * mem) + xmm2 vmulss 0x244e1a(%rip), %xmm12, %xmm6 # 0x1ef09dc vfmadd231ss 0x24543d(%rip), %xmm9, %xmm7 # xmm7 = (xmm9 * mem) + xmm7 vmovaps %xmm7, 0x3c0(%rsp) vmovss 0x245430(%rip), %xmm1 # 0x1ef100c vfmadd213ss 0x240fa7(%rip), %xmm9, %xmm1 # xmm1 = (xmm9 * xmm1) + mem vmovaps %xmm1, 0x3a0(%rsp) vfmadd213ss 0x244dd5(%rip), %xmm9, %xmm8 # xmm8 = (xmm9 * xmm8) + mem vmovaps %xmm8, 0x350(%rsp) vmovaps %xmm3, 0x3e0(%rsp) vsubps %xmm3, %xmm0, %xmm0 vmovaps %xmm0, 0xc0(%rsp) vdpps $0x7f, %xmm0, %xmm0, %xmm0 vucomiss 0x23fe00(%rip), %xmm0 # 0x1eeba24 vmovaps %xmm9, 0x60(%rsp) vmovaps %xmm0, 0xa0(%rsp) vmovaps %xmm10, 0x80(%rsp) jb 0x1cabc44 vsqrtss %xmm0, %xmm0, %xmm7 jmp 0x1cabc9e vmovss %xmm11, 0x1a0(%rsp) vmovaps %xmm12, 0x180(%rsp) vmovss %xmm13, 0x110(%rsp) vmovss %xmm6, 0x100(%rsp) vzeroupper callq 0x6aa20 vmovss 0x100(%rsp), %xmm6 vmovss 0x110(%rsp), %xmm13 vmovaps 0x180(%rsp), %xmm12 vmovss 0x1a0(%rsp), %xmm11 vmovaps 0x60(%rsp), %xmm9 vmovaps %xmm0, %xmm7 vaddss %xmm12, %xmm12, %xmm0 vmulss %xmm0, %xmm9, %xmm1 vfnmadd231ss %xmm12, %xmm12, %xmm1 # xmm1 = -(xmm12 * xmm12) + xmm1 vaddss %xmm9, %xmm9, %xmm2 vmovss 0x245333(%rip), %xmm4 # 0x1ef0fec vmulss %xmm4, %xmm9, %xmm3 vmulss %xmm3, %xmm9, %xmm3 vfmadd213ss %xmm3, %xmm2, %xmm11 # xmm11 = (xmm2 * xmm11) + xmm3 vmovaps %xmm4, %xmm2 vmovss 0x245326(%rip), %xmm4 # 0x1ef0ff8 vfmadd213ss %xmm4, %xmm9, %xmm2 # xmm2 = (xmm9 * xmm2) + xmm4 vmulss 0x245311(%rip), %xmm12, %xmm3 # 0x1ef0ff0 vmulss %xmm3, %xmm12, %xmm3 vfmadd231ss %xmm2, %xmm0, %xmm3 # xmm3 = (xmm0 * xmm2) + xmm3 vfmadd213ss %xmm13, %xmm9, %xmm6 # xmm6 = (xmm9 * xmm6) + xmm13 vmovss 0x240e8b(%rip), %xmm5 # 0x1eecb80 vmulss %xmm5, %xmm1, %xmm0 vmulss %xmm5, %xmm11, %xmm1 vmulss %xmm5, %xmm3, %xmm2 vmulss %xmm5, %xmm6, %xmm3 vbroadcastss %xmm3, %xmm3 vmulps 0x280(%rsp), %xmm3, %xmm3 vbroadcastss %xmm2, %xmm2 vfmadd132ps 0x2c0(%rsp), %xmm3, %xmm2 # xmm2 = (xmm2 * mem) + xmm3 vbroadcastss %xmm1, %xmm1 vfmadd132ps 0x2a0(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2 vbroadcastss %xmm0, %xmm13 vfmadd132ps 0x2e0(%rsp), %xmm1, %xmm13 # xmm13 = (xmm13 * mem) + xmm1 vdpps $0x7f, %xmm13, %xmm13, %xmm0 vxorps %xmm1, %xmm1, %xmm1 vmovss %xmm0, %xmm1, %xmm2 # xmm2 = xmm0[0],xmm1[1,2,3] vrsqrt14ss %xmm2, %xmm1, %xmm3 vmulss 0x2409bc(%rip), %xmm3, %xmm5 # 0x1eec718 vmulss 0x2409b8(%rip), %xmm0, %xmm6 # 0x1eec71c vrcp14ss %xmm2, %xmm1, %xmm2 vxorps 0x27514c(%rip){1to4}, %xmm0, %xmm1 # 0x1f20ec0 vmovaps %xmm2, 0x100(%rsp) vfnmadd213ss %xmm4, %xmm0, %xmm2 # xmm2 = -(xmm0 * xmm2) + xmm4 vmovss %xmm2, 0x4c(%rsp) vucomiss %xmm1, %xmm0 vmovaps %xmm13, 0x1a0(%rsp) vmovss %xmm7, 0x180(%rsp) vmovaps %xmm0, 0x110(%rsp) jb 0x1cabdb1 vsqrtss %xmm0, %xmm0, %xmm16 jmp 0x1cabe01 vmovaps %xmm3, 0xf0(%rsp) vmovss %xmm5, 0x24(%rsp) vmovss %xmm6, 0xe0(%rsp) vzeroupper callq 0x6aa20 vmovss 0xe0(%rsp), %xmm6 vmovss 0x24(%rsp), %xmm5 vmovaps 0xf0(%rsp), %xmm3 vmovss 0x180(%rsp), %xmm7 vmovaps 0x1a0(%rsp), %xmm13 vmovaps %xmm0, %xmm16 vmovaps 0xc0(%rsp), %xmm11 vmovaps 0xa0(%rsp), %xmm19 vmulss %xmm3, %xmm6, %xmm0 vmulss %xmm3, %xmm3, %xmm1 vmulss %xmm1, %xmm0, %xmm0 vaddss %xmm0, %xmm5, %xmm0 vbroadcastss %xmm0, %xmm4 vmulps %xmm4, %xmm13, %xmm0 vmovaps %xmm0, 0xf0(%rsp) vdpps $0x7f, %xmm0, %xmm11, %xmm15 vaddss 0x2408d2(%rip), %xmm7, %xmm14 # 0x1eec714 vmulps %xmm15, %xmm15, %xmm0 vsubps %xmm0, %xmm19, %xmm0 vxorps %xmm2, %xmm2, %xmm2 vmovss %xmm0, %xmm2, %xmm1 # xmm1 = xmm0[0],xmm2[1,2,3] vrsqrt14ss %xmm1, %xmm2, %xmm18 vmulss 0x2408b3(%rip), %xmm18, %xmm17 # 0x1eec718 vmulss 0x2408ad(%rip), %xmm0, %xmm20 # 0x1eec71c vucomiss 0x23fbad(%rip), %xmm0 # 0x1eeba24 jb 0x1cabe82 vsqrtss %xmm0, %xmm0, %xmm0 jmp 0x1cabf1d vmovss %xmm14, 0x24(%rsp) vmovaps %xmm15, 0xe0(%rsp) vmovss %xmm16, 0x40(%rsp) vmovss %xmm17, 0x3c(%rsp) vmovaps %xmm18, 0x340(%rsp) vmovss %xmm20, 0x38(%rsp) vmovaps %xmm4, 0x330(%rsp) vzeroupper callq 0x6aa20 vmovaps 0x330(%rsp), %xmm4 vmovss 0x38(%rsp), %xmm20 vmovaps 0x340(%rsp), %xmm18 vmovss 0x3c(%rsp), %xmm17 vmovss 0x40(%rsp), %xmm16 vmovaps 0xe0(%rsp), %xmm15 vmovss 0x24(%rsp), %xmm14 vmovss 0x180(%rsp), %xmm7 vmovaps 0x1a0(%rsp), %xmm13 vmovaps 0xa0(%rsp), %xmm19 vmovaps 0xc0(%rsp), %xmm11 vbroadcastss 0x274f9e(%rip), %xmm8 # 0x1f20ec4 vmovaps 0x240(%rsp), %ymm30 vmovaps 0x220(%rsp), %ymm31 vmovaps 0x200(%rsp), %ymm21 vmovaps 0x60(%rsp), %xmm9 vmovaps 0x80(%rsp), %xmm10 vbroadcastss 0x350(%rsp), %xmm1 vmulps 0x280(%rsp), %xmm1, %xmm1 vbroadcastss 0x3a0(%rsp), %xmm2 vfmadd132ps 0x2c0(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1 vbroadcastss 0x3c0(%rsp), %xmm1 vfmadd132ps 0x2a0(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2 vmovss 0x245060(%rip), %xmm2 # 0x1ef0ff0 vfmadd213ss 0x24505f(%rip), %xmm9, %xmm2 # xmm2 = (xmm9 * xmm2) + mem vbroadcastss %xmm2, %xmm2 vfmadd132ps 0x2e0(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1 vbroadcastss 0x110(%rsp), %xmm1 vmulps %xmm1, %xmm2, %xmm1 vdpps $0x7f, %xmm2, %xmm13, %xmm2 vbroadcastss %xmm2, %xmm2 vmulps %xmm2, %xmm13, %xmm2 vsubps %xmm2, %xmm1, %xmm1 vmovss 0x4c(%rsp), %xmm2 vmulss 0x100(%rsp), %xmm2, %xmm2 vmulss 0x48(%rsp), %xmm10, %xmm3 vbroadcastss %xmm2, %xmm2 vmulps %xmm2, %xmm1, %xmm1 vxorps 0x274ecf(%rip){1to4}, %xmm13, %xmm2 # 0x1f20ec0 vmulps %xmm1, %xmm4, %xmm4 vmovaps 0xf0(%rsp), %xmm12 vdpps $0x7f, %xmm12, %xmm2, %xmm5 vmovss 0x44(%rsp), %xmm6 vmaxss %xmm3, %xmm6, %xmm1 vdivss %xmm16, %xmm6, %xmm3 vdpps $0x7f, %xmm4, %xmm11, %xmm4 vfmadd213ss %xmm1, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm7) + xmm1 vfmadd213ss %xmm7, %xmm3, %xmm14 # xmm14 = (xmm3 * xmm14) + xmm7 vmovaps 0x270(%rsp), %xmm7 vdpps $0x7f, %xmm12, %xmm7, %xmm3 vaddss %xmm4, %xmm5, %xmm4 vdpps $0x7f, %xmm2, %xmm11, %xmm5 vmulss %xmm18, %xmm20, %xmm2 vmulss %xmm18, %xmm18, %xmm6 vmulss %xmm6, %xmm2, %xmm2 vdpps $0x7f, %xmm7, %xmm11, %xmm6 vaddss %xmm2, %xmm17, %xmm7 vfnmadd231ss %xmm4, %xmm15, %xmm5 # xmm5 = -(xmm15 * xmm4) + xmm5 vfnmadd231ss %xmm3, %xmm15, %xmm6 # xmm6 = -(xmm15 * xmm3) + xmm6 vpermilps $0xff, 0x3e0(%rsp), %xmm2 # xmm2 = mem[3,3,3,3] vsubss %xmm2, %xmm0, %xmm2 vshufps $0xff, %xmm13, %xmm13, %xmm0 # xmm0 = xmm13[3,3,3,3] vfmsub213ss %xmm0, %xmm7, %xmm5 # xmm5 = (xmm7 * xmm5) - xmm0 vmulss %xmm7, %xmm6, %xmm6 vmulss %xmm5, %xmm3, %xmm7 vfmsub231ss %xmm6, %xmm4, %xmm7 # xmm7 = (xmm4 * xmm6) - xmm7 vdivss %xmm7, %xmm6, %xmm6 vdivss %xmm7, %xmm5, %xmm5 vdivss %xmm7, %xmm3, %xmm3 vdivss %xmm7, %xmm4, %xmm4 vmulss %xmm6, %xmm15, %xmm6 vmulss %xmm3, %xmm2, %xmm3 vsubss %xmm3, %xmm6, %xmm3 vmulss %xmm5, %xmm15, %xmm5 vmulss %xmm4, %xmm2, %xmm4 vsubss %xmm5, %xmm4, %xmm4 vsubss %xmm3, %xmm9, %xmm9 vsubss %xmm4, %xmm10, %xmm10 vandps %xmm8, %xmm15, %xmm3 vucomiss %xmm3, %xmm14 jbe 0x1cac279 vaddss %xmm1, %xmm14, %xmm1 vmovaps 0x310(%rsp), %xmm3 vfmadd231ss 0x245dd5(%rip), %xmm3, %xmm1 # xmm1 = (xmm3 * mem) + xmm1 vandps %xmm2, %xmm8, %xmm2 vucomiss %xmm2, %xmm1 jbe 0x1cac279 vaddss 0x320(%rsp), %xmm10, %xmm10 movb $0x1, %r13b vucomiss 0x5c(%rsp), %xmm10 jb 0x1cac27c movq 0x18(%rsp), %rax vmovss 0x80(%r12,%rax,4), %xmm4 vucomiss %xmm10, %xmm4 jb 0x1cac27c vucomiss 0x23f8fd(%rip), %xmm9 # 0x1eeba24 jb 0x1cac27c vmovss 0x2405df(%rip), %xmm1 # 0x1eec714 vucomiss %xmm9, %xmm1 jb 0x1cac27c vxorps %xmm2, %xmm2, %xmm2 vmovss %xmm19, %xmm2, %xmm1 # xmm1 = xmm19[0],xmm2[1,2,3] vrsqrt14ss %xmm1, %xmm2, %xmm1 vmulss 0x2405c0(%rip), %xmm1, %xmm2 # 0x1eec718 vmulss 0x2405ba(%rip), %xmm19, %xmm3 # 0x1eec71c movq (%r15), %rax movq 0x1e8(%rax), %rax movq %r15, %rcx movq 0x50(%rsp), %rdx movq (%rax,%rdx,8), %r15 movq 0x18(%rsp), %rax movl 0x90(%r12,%rax,4), %eax testl %eax, 0x34(%r15) je 0x1cac299 vmulss %xmm1, %xmm3, %xmm3 vmulss %xmm1, %xmm1, %xmm1 vmulss %xmm1, %xmm3, %xmm1 vaddss %xmm1, %xmm2, %xmm1 vbroadcastss %xmm1, %xmm1 vmulps %xmm1, %xmm11, %xmm1 vfmadd213ps %xmm13, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm0) + xmm13 vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3] vshufps $0xc9, %xmm13, %xmm13, %xmm3 # xmm3 = xmm13[1,2,0,3] vmulps %xmm3, %xmm1, %xmm1 vfmsub231ps %xmm2, %xmm13, %xmm1 # xmm1 = (xmm13 * xmm2) - xmm1 vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3] vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3] vshufps $0xd2, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,0,1,3] vmulps %xmm1, %xmm0, %xmm0 vfmsub231ps %xmm3, %xmm2, %xmm0 # xmm0 = (xmm2 * xmm3) - xmm0 movq 0x10(%rcx), %rax cmpq $0x0, 0x10(%rax) jne 0x1cac29e cmpq $0x0, 0x40(%r15) jne 0x1cac29e movq 0x18(%rsp), %rcx vmovss %xmm10, 0x80(%r12,%rcx,4) vextractps $0x1, %xmm0, 0xc0(%r12,%rcx,4) vextractps $0x2, %xmm0, 0xd0(%r12,%rcx,4) vmovss %xmm0, 0xe0(%r12,%rcx,4) vmovss %xmm9, 0xf0(%r12,%rcx,4) movl $0x0, 0x100(%r12,%rcx,4) movq 0x130(%rsp), %rax movl %eax, 0x110(%r12,%rcx,4) movq 0x50(%rsp), %rax movl %eax, 0x120(%r12,%rcx,4) movq 0x28(%rsp), %r15 movq 0x8(%r15), %rax movl (%rax), %eax movl %eax, 0x130(%r12,%rcx,4) movq 0x8(%r15), %rax movl 0x4(%rax), %eax movl %eax, 0x140(%r12,%rcx,4) jmp 0x1cac27c xorl %r13d, %r13d subq $0x1, %r14 setb %al testb %r13b, %r13b jne 0x1cac52d testb %al, %al je 0x1cabae3 jmp 0x1cac52d movq %rcx, %r15 jmp 0x1cac27c movq 0x28(%rsp), %rcx movq 0x8(%rcx), %rax vbroadcastss %xmm9, %xmm1 vshufps $0x55, %xmm0, %xmm0, %xmm2 # xmm2 = xmm0[1,1,1,1] vshufps $0xaa, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[2,2,2,2] vbroadcastss %xmm0, %xmm0 vmovaps %xmm2, 0x440(%rsp) vmovaps %xmm3, 0x450(%rsp) vmovaps %xmm0, 0x460(%rsp) vmovaps %xmm1, 0x470(%rsp) vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 0x480(%rsp) vmovaps 0x420(%rsp), %xmm0 vmovaps %xmm0, 0x490(%rsp) vmovdqa 0x430(%rsp), %xmm0 vmovdqa %xmm0, 0x4a0(%rsp) leaq 0x4b0(%rsp), %rdx vpcmpeqd %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, (%rdx) vbroadcastss (%rax), %xmm0 vmovaps %xmm0, 0x4b0(%rsp) vbroadcastss 0x4(%rax), %xmm0 vmovaps %xmm0, 0x4c0(%rsp) movq 0x18(%rsp), %rax vmovss %xmm10, 0x80(%r12,%rax,4) vmovaps 0x410(%rsp), %xmm0 vmovaps %xmm0, 0x120(%rsp) leaq 0x120(%rsp), %rax movq %rax, 0x150(%rsp) movq 0x18(%r15), %rax movq %rax, 0x158(%rsp) movq 0x8(%rcx), %rax movq %rax, 0x160(%rsp) movq %r12, 0x168(%rsp) leaq 0x440(%rsp), %rax movq %rax, 0x170(%rsp) movl $0x4, 0x178(%rsp) movq 0x40(%r15), %rax testq %rax, %rax vmovaps %xmm9, 0x60(%rsp) vmovaps %xmm10, 0x80(%rsp) vmovss %xmm4, 0xa0(%rsp) je 0x1cac407 leaq 0x150(%rsp), %rdi vzeroupper callq *%rax vmovss 0xa0(%rsp), %xmm4 vmovaps 0x80(%rsp), %xmm10 vmovaps 0x60(%rsp), %xmm9 vmovaps 0x200(%rsp), %ymm21 vmovaps 0x220(%rsp), %ymm31 vmovaps 0x240(%rsp), %ymm30 vmovdqa 0x120(%rsp), %xmm0 vptestmd %xmm0, %xmm0, %k0 kortestb %k0, %k0 je 0x1cac514 movq 0x28(%rsp), %rax movq 0x10(%rax), %rcx movq 0x10(%rcx), %rax testq %rax, %rax je 0x1cac47b testb $0x2, (%rcx) jne 0x1cac43e testb $0x40, 0x3e(%r15) je 0x1cac47b leaq 0x150(%rsp), %rdi vzeroupper callq *%rax vmovss 0xa0(%rsp), %xmm4 vmovaps 0x80(%rsp), %xmm10 vmovaps 0x60(%rsp), %xmm9 vmovaps 0x200(%rsp), %ymm21 vmovaps 0x220(%rsp), %ymm31 vmovaps 0x240(%rsp), %ymm30 vmovdqa 0x120(%rsp), %xmm0 vptestmd %xmm0, %xmm0, %k1 kortestb %k1, %k1 je 0x1cac514 movq 0x168(%rsp), %rax movq 0x170(%rsp), %rcx vmovaps (%rcx), %xmm0 vmovups %xmm0, 0xc0(%rax) {%k1} vmovaps 0x10(%rcx), %xmm0 vmovups %xmm0, 0xd0(%rax) {%k1} vmovaps 0x20(%rcx), %xmm0 vmovups %xmm0, 0xe0(%rax) {%k1} vmovaps 0x30(%rcx), %xmm0 vmovups %xmm0, 0xf0(%rax) {%k1} vmovaps 0x40(%rcx), %xmm0 vmovups %xmm0, 0x100(%rax) {%k1} vmovdqa 0x50(%rcx), %xmm0 vmovdqu32 %xmm0, 0x110(%rax) {%k1} vmovdqa 0x60(%rcx), %xmm0 vmovdqu32 %xmm0, 0x120(%rax) {%k1} vmovdqa 0x70(%rcx), %xmm0 vmovdqa32 %xmm0, 0x130(%rax) {%k1} vmovdqa 0x80(%rcx), %xmm0 vmovdqa32 %xmm0, 0x140(%rax) {%k1} jmp 0x1cac523 movq 0x18(%rsp), %rax vmovss %xmm4, 0x80(%r12,%rax,4) movq 0x28(%rsp), %r15 jmp 0x1cac27c movq 0x18(%rsp), %rax vmovaps 0x500(%rsp), %ymm0 vcmpleps 0x80(%r12,%rax,4){1to8}, %ymm0, %k0 kmovd %k0, %eax andb %al, %bl jne 0x1cab9ff vmovdqa 0x560(%rsp), %ymm1 vpcmpltd 0x4e0(%rsp), %ymm1, %k1 vmovaps 0x860(%rsp), %ymm0 vpcmpltd 0x600(%rsp), %ymm1, %k2 vmovaps 0x380(%rsp), %ymm3 vaddps %ymm0, %ymm3, %ymm1 movq 0x18(%rsp), %rax vbroadcastss 0x80(%r12,%rax,4), %ymm2 vcmpleps %ymm2, %ymm1, %k0 {%k2} kmovd %k0, %eax movl 0x140(%rsp), %ecx andb %al, %cl vmovaps 0x5c0(%rsp), %ymm1 vaddps %ymm1, %ymm3, %ymm3 vcmpleps %ymm2, %ymm3, %k0 {%k1} kmovd %k0, %eax movl 0x34(%rsp), %edx andb %al, %dl orb %cl, %dl je 0x1cac643 movq 0x1f0(%rsp), %r9 movl %r9d, %eax leaq (%rax,%rax,2), %rax shlq $0x5, %rax movb %dl, 0x8a0(%rsp,%rax) kmovd %ecx, %k1 vmovaps %ymm0, %ymm1 {%k1} vmovaps %ymm1, 0x8c0(%rsp,%rax) vmovaps 0x1d0(%rsp), %xmm2 vmovlps %xmm2, 0x8e0(%rsp,%rax) movq 0x1e8(%rsp), %r11 leal 0x1(%r11), %ecx movl %ecx, 0x8e8(%rsp,%rax) incl %r9d movq 0x1e0(%rsp), %r8 vbroadcastss 0x2400e7(%rip), %ymm16 # 0x1eec714 movq 0x1f8(%rsp), %r10 jmp 0x1cac676 vbroadcastss 0x2400d3(%rip), %ymm16 # 0x1eec714 jmp 0x1cac66d movq 0x1e0(%rsp), %r8 vbroadcastss 0x2400bf(%rip), %ymm16 # 0x1eec714 movq 0x1f8(%rsp), %r10 movq 0x1f0(%rsp), %r9 movq 0x1e8(%rsp), %r11 vmovaps 0x1d0(%rsp), %xmm2 movl %r9d, %eax testl %eax, %eax je 0x1cac7cb leal -0x1(%rax), %r9d leaq (%r9,%r9,2), %rcx shlq $0x5, %rcx vmovaps 0x8c0(%rsp,%rcx), %ymm0 movzbl 0x8a0(%rsp,%rcx), %esi vaddps 0x380(%rsp), %ymm0, %ymm1 movq 0x18(%rsp), %rdx vcmpleps 0x80(%r12,%rdx,4){1to8}, %ymm1, %k0 kmovb %k0, %edx andl %esi, %edx je 0x1cac76e kmovd %edx, %k1 vbroadcastss 0x23f352(%rip), %ymm1 # 0x1eeba20 vblendmps %ymm0, %ymm1, %ymm0 {%k1} vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm0, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1] vminps %ymm2, %ymm1, %ymm1 vcmpeqps %ymm1, %ymm0, %k0 kmovd %k0, %esi andb %dl, %sil je 0x1cac706 movzbl %sil, %edi jmp 0x1cac709 movzbl %dl, %edi leaq (%rsp,%rcx), %rsi addq $0x8a0, %rsi # imm = 0x8A0 vmovss 0x44(%rsi), %xmm0 tzcntl %edi, %ecx movb $0x1, %dil shlb %cl, %dil movl 0x48(%rsi), %r11d movzbl %dil, %edi kmovd %edi, %k0 kmovd %edx, %k1 kandnb %k1, %k0, %k0 kmovb %k0, (%rsi) kortestb %k0, %k0 je 0x1cac744 movl %eax, %r9d vbroadcastss 0x40(%rsi), %ymm1 vsubss %xmm1, %xmm0, %xmm0 vbroadcastss %xmm0, %ymm0 vfmadd132ps 0x2747c4(%rip), %ymm1, %ymm0 # ymm0 = (ymm0 * mem) + ymm1 vmovaps %ymm0, 0x440(%rsp) vmovsd 0x440(%rsp,%rcx,4), %xmm2 movl %r9d, %eax testb %dl, %dl je 0x1cac679 jmp 0x1caa14a vcmpleps 0x274777(%rip), %ymm4, %k2 # 0x1f20f00 vbroadcastss 0x2403f2(%rip), %ymm4 # 0x1eecb84 vbroadcastss 0x23f284(%rip), %ymm16 # 0x1eeba20 vblendmps %ymm4, %ymm16, %ymm3 {%k2} vmovaps %ymm3, %ymm30 {%k1} vblendmps %ymm16, %ymm4, %ymm3 {%k2} kmovd %k2, %ecx vmovaps %ymm3, %ymm31 {%k1} knotb %k1, %k0 kmovd %k0, %edx orb %cl, %dl andb %al, %dl movl %edx, %eax jmp 0x1caa74f movq 0x18(%rsp), %rax vmovaps 0x620(%rsp), %ymm0 vcmpleps 0x80(%r12,%rax,4){1to8}, %ymm0, %k0 kmovb %k0, %eax andl %eax, %r10d jne 0x1ca9dc5 leaq -0x28(%rbp), %rsp popq %rbx popq %r12 popq %r13 popq %r14 popq %r15 popq %rbp vzeroupper retq nop
/embree[P]embree/kernels/geometry/curveNi_intersector.h
bool embree::avx512::CurveNiIntersectorK<8, 4>::occluded_t<embree::avx512::SweepCurve1IntersectorK<embree::CatmullRomCurveT, 4>, embree::avx512::Occluded1KEpilog1<4, true>>(embree::avx512::CurvePrecalculationsK<4>&, embree::RayK<4>&, unsigned long, embree::RayQueryContext*, embree::CurveNi<8> const&)
static __forceinline bool occluded_t(Precalculations& pre, RayK<K>& ray, const size_t k, RayQueryContext* context, const Primitive& prim) { vfloat<M> tNear; vbool<M> valid = intersect(ray,k,prim,tNear); const size_t N = prim.N; size_t mask = movemask(valid); while (mask) { const size_t i = bscf(mask); STAT3(shadow.trav_prims,1,1,1); const unsigned int geomID = prim.geomID(N); const unsigned int primID = prim.primID(N)[i]; const CurveGeometry* geom = context->scene->get<CurveGeometry>(geomID); Vec3ff a0,a1,a2,a3; geom->gather(a0,a1,a2,a3,geom->curve(primID)); size_t mask1 = mask; const size_t i1 = bscf(mask1); if (mask) { const unsigned int primID1 = prim.primID(N)[i1]; geom->prefetchL1_vertices(geom->curve(primID1)); if (mask1) { const size_t i2 = bsf(mask1); const unsigned int primID2 = prim.primID(N)[i2]; geom->prefetchL2_vertices(geom->curve(primID2)); } } if (Intersector().intersect(pre,ray,k,context,geom,primID,a0,a1,a2,a3,Epilog(ray,k,context,geomID,primID))) return true; mask &= movemask(tNear <= vfloat<M>(ray.tfar[k])); } return false; }
pushq %rbp movq %rsp, %rbp pushq %r15 pushq %r14 pushq %r13 pushq %r12 pushq %rbx andq $-0x20, %rsp subq $0x9c0, %rsp # imm = 0x9C0 movzbl 0x1(%r8), %eax leaq (%rax,%rax,4), %r9 leaq (%r9,%r9,4), %rdi vbroadcastss 0x12(%r8,%rdi), %xmm0 vmovss (%rsi,%rdx,4), %xmm1 vmovss 0x40(%rsi,%rdx,4), %xmm2 vinsertps $0x10, 0x10(%rsi,%rdx,4), %xmm1, %xmm1 # xmm1 = xmm1[0],mem[0],xmm1[2,3] vinsertps $0x20, 0x20(%rsi,%rdx,4), %xmm1, %xmm1 # xmm1 = xmm1[0,1],mem[0],xmm1[3] vinsertps $0x10, 0x50(%rsi,%rdx,4), %xmm2, %xmm2 # xmm2 = xmm2[0],mem[0],xmm2[2,3] movq %rcx, %r14 vinsertps $0x20, 0x60(%rsi,%rdx,4), %xmm2, %xmm2 # xmm2 = xmm2[0,1],mem[0],xmm2[3] vsubps 0x6(%r8,%rdi), %xmm1, %xmm1 vmulps %xmm1, %xmm0, %xmm3 vmulps %xmm2, %xmm0, %xmm0 vpmovsxbd 0x6(%r8,%rax,4), %ymm1 vcvtdq2ps %ymm1, %ymm5 vpmovsxbd 0x6(%r8,%r9), %ymm1 vcvtdq2ps %ymm1, %ymm6 leaq (%rax,%rax,2), %rcx vpmovsxbd 0x6(%r8,%rcx,2), %ymm1 vcvtdq2ps %ymm1, %ymm2 leaq (%rax,%r9,2), %rdi vpmovsxbd 0x6(%r8,%rdi), %ymm1 vcvtdq2ps %ymm1, %ymm7 leal (,%rcx,4), %edi vpmovsxbd 0x6(%r8,%rdi), %ymm1 vcvtdq2ps %ymm1, %ymm8 addq %rax, %rdi vpmovsxbd 0x6(%r8,%rdi), %ymm1 vcvtdq2ps %ymm1, %ymm9 leaq (%rax,%rax,8), %r10 leal (%r10,%r10), %edi vpmovsxbd 0x6(%r8,%rdi), %ymm1 addq %rax, %rdi vpmovsxbd 0x6(%r8,%rdi), %ymm4 vcvtdq2ps %ymm1, %ymm10 vcvtdq2ps %ymm4, %ymm11 shll $0x2, %r9d vpmovsxbd 0x6(%r8,%r9), %ymm1 vcvtdq2ps %ymm1, %ymm12 vbroadcastss %xmm0, %ymm13 vbroadcastss 0x265e07(%rip), %ymm15 # 0x1f12704 vpermps %ymm0, %ymm15, %ymm14 vbroadcastss 0x2745d0(%rip), %ymm16 # 0x1f20edc vpermps %ymm0, %ymm16, %ymm0 vmulps %ymm2, %ymm0, %ymm4 vmulps %ymm0, %ymm9, %ymm1 vmulps %ymm0, %ymm12, %ymm0 vfmadd231ps %ymm6, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm6) + ymm4 vfmadd231ps %ymm8, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm8) + ymm1 vfmadd231ps %ymm14, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm14) + ymm0 vfmadd231ps %ymm5, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm5) + ymm4 vfmadd231ps %ymm7, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm7) + ymm1 vfmadd231ps %ymm13, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm13) + ymm0 vbroadcastss %xmm3, %ymm13 vpermps %ymm3, %ymm15, %ymm14 vpermps %ymm3, %ymm16, %ymm15 vmulps %ymm2, %ymm15, %ymm16 vmulps %ymm9, %ymm15, %ymm3 vmulps %ymm12, %ymm15, %ymm2 vfmadd231ps %ymm6, %ymm14, %ymm16 # ymm16 = (ymm14 * ymm6) + ymm16 vfmadd231ps %ymm8, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm8) + ymm3 vfmadd231ps %ymm11, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm11) + ymm2 vfmadd231ps %ymm5, %ymm13, %ymm16 # ymm16 = (ymm13 * ymm5) + ymm16 vfmadd231ps %ymm7, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm7) + ymm3 vfmadd231ps %ymm10, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm10) + ymm2 vbroadcastss 0x27453e(%rip), %ymm28 # 0x1f20ec4 vandps %ymm28, %ymm4, %ymm5 vbroadcastss 0x244653(%rip), %ymm6 # 0x1ef0fe8 vcmpltps %ymm6, %ymm5, %k1 vmovaps %ymm6, %ymm4 {%k1} vandps %ymm28, %ymm1, %ymm5 vcmpltps %ymm6, %ymm5, %k1 vmovaps %ymm6, %ymm1 {%k1} vandps %ymm28, %ymm0, %ymm5 vcmpltps %ymm6, %ymm5, %k1 vmovaps %ymm6, %ymm0 {%k1} vrcp14ps %ymm4, %ymm5 vbroadcastss 0x23fd3d(%rip), %ymm6 # 0x1eec714 vfnmadd213ps %ymm6, %ymm5, %ymm4 # ymm4 = -(ymm5 * ymm4) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm4 # ymm4 = (ymm4 * ymm5) + ymm5 vrcp14ps %ymm1, %ymm5 vfnmadd213ps %ymm6, %ymm5, %ymm1 # ymm1 = -(ymm5 * ymm1) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm1 # ymm1 = (ymm1 * ymm5) + ymm5 vrcp14ps %ymm0, %ymm5 vfnmadd213ps %ymm6, %ymm5, %ymm0 # ymm0 = -(ymm5 * ymm0) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm0 # ymm0 = (ymm0 * ymm5) + ymm5 leaq (,%rax,8), %rdi subq %rax, %rdi vpmovsxwd 0x6(%r8,%rdi), %ymm5 vcvtdq2ps %ymm5, %ymm5 vsubps %ymm16, %ymm5, %ymm5 vpmovsxwd 0x6(%r8,%r10), %ymm6 vmulps %ymm5, %ymm4, %ymm5 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm16, %ymm6, %ymm6 vmulps %ymm6, %ymm4, %ymm4 leaq (%rax,%rax), %r10 addq %rax, %r9 shlq $0x3, %rcx subq %rax, %rcx movl %eax, %edi shll $0x4, %edi vpmovsxwd 0x6(%r8,%rdi), %ymm6 subq %r10, %rdi vpmovsxwd 0x6(%r8,%rdi), %ymm7 vcvtdq2ps %ymm7, %ymm7 vsubps %ymm3, %ymm7, %ymm7 vmulps %ymm7, %ymm1, %ymm7 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm3, %ymm6, %ymm3 vmulps %ymm3, %ymm1, %ymm1 vpmovsxwd 0x6(%r8,%r9), %ymm3 vcvtdq2ps %ymm3, %ymm3 vsubps %ymm2, %ymm3, %ymm3 vmulps %ymm0, %ymm3, %ymm3 vpmovsxwd 0x6(%r8,%rcx), %ymm6 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm2, %ymm6, %ymm2 vmulps %ymm2, %ymm0, %ymm0 vpminsd %ymm4, %ymm5, %ymm2 vpminsd %ymm1, %ymm7, %ymm6 vmaxps %ymm6, %ymm2, %ymm2 vpminsd %ymm0, %ymm3, %ymm6 vmaxps 0x30(%rsi,%rdx,4){1to8}, %ymm6, %ymm6 vmaxps %ymm6, %ymm2, %ymm2 vmulps 0x27344f(%rip){1to8}, %ymm2, %ymm6 # 0x1f1ff10 vpmaxsd %ymm4, %ymm5, %ymm2 vpmaxsd %ymm1, %ymm7, %ymm1 vminps %ymm1, %ymm2, %ymm1 vpmaxsd %ymm0, %ymm3, %ymm0 movq %rsi, 0x20(%rsp) vminps 0x80(%rsi,%rdx,4){1to8}, %ymm0, %ymm0 vminps %ymm0, %ymm1, %ymm0 vmulps 0x273425(%rip){1to8}, %ymm0, %ymm0 # 0x1f1ff14 vpbroadcastd %eax, %ymm1 vpcmpgtd 0x2ade21(%rip), %ymm1, %k0 # 0x1f5a920 vmovaps %ymm6, 0x740(%rsp) vcmpleps %ymm0, %ymm6, %k1 ktestb %k0, %k1 setne %r15b je 0x1caf66f kandb %k0, %k1, %k0 kmovd %k0, %eax movzbl %al, %r12d movl $0x1, %eax shlxl %edx, %eax, %eax kmovd %eax, %k0 vpmovm2d %k0, %xmm0 vmovdqa %xmm0, 0x510(%rsp) movq %rdx, 0x30(%rsp) movq %r8, 0x320(%rsp) movq %r14, 0x38(%rsp) tzcntq %r12, %rax movl 0x2(%r8), %esi movl 0x6(%r8,%rax,4), %eax movq (%r14), %rcx movq 0x1e8(%rcx), %rcx movq %rsi, 0x118(%rsp) movq (%rcx,%rsi,8), %rdi movq 0x58(%rdi), %rcx movq 0x68(%rdi), %r11 movq %r11, %rsi imulq %rax, %rsi movl (%rcx,%rsi), %r10d movq 0xa0(%rdi), %rsi movq %rsi, %r9 imulq %r10, %r9 movq 0x90(%rdi), %rdi vmovaps (%rdi,%r9), %xmm1 leaq 0x1(%r10), %r9 imulq %rsi, %r9 vmovaps (%rdi,%r9), %xmm0 leaq 0x2(%r10), %r9 imulq %rsi, %r9 vmovaps (%rdi,%r9), %xmm2 blsrq %r12, %r12 addq $0x3, %r10 imulq %rsi, %r10 vmovaps (%rdi,%r10), %xmm3 movq %r12, %r10 subq $0x1, %r10 jb 0x1cacc2a andq %r12, %r10 tzcntq %r12, %r9 movl 0x6(%r8,%r9,4), %r9d imulq %r11, %r9 movl (%rcx,%r9), %r9d imulq %rsi, %r9 prefetcht0 (%rdi,%r9) prefetcht0 0x40(%rdi,%r9) testq %r10, %r10 je 0x1cacc2a tzcntq %r10, %r9 movl 0x6(%r8,%r9,4), %r9d imulq %r9, %r11 movl (%rcx,%r11), %ecx imulq %rcx, %rsi prefetcht1 (%rdi,%rsi) prefetcht1 0x40(%rdi,%rsi) movq 0x20(%rsp), %rcx vmovss (%rcx,%rdx,4), %xmm4 vinsertps $0x1c, 0x10(%rcx,%rdx,4), %xmm4, %xmm4 # xmm4 = xmm4[0],mem[0],zero,zero vinsertps $0x28, 0x20(%rcx,%rdx,4), %xmm4, %xmm4 # xmm4 = xmm4[0,1],mem[0],zero vbroadcastss 0x40(%rcx,%rdx,4), %ymm26 vbroadcastss 0x50(%rcx,%rdx,4), %ymm30 vunpcklps %xmm30, %xmm26, %xmm5 # xmm5 = xmm26[0],xmm30[0],xmm26[1],xmm30[1] vbroadcastss 0x60(%rcx,%rdx,4), %ymm12 vinsertps $0x28, %xmm12, %xmm5, %xmm9 # xmm9 = xmm5[0,1],xmm12[0],zero vaddps %xmm0, %xmm1, %xmm5 vmulps 0x23ff0b(%rip){1to4}, %xmm5, %xmm5 # 0x1eecb80 vsubps %xmm4, %xmm5, %xmm5 vdpps $0x7f, %xmm9, %xmm5, %xmm5 vmovss 0x30(%rcx,%rdx,4), %xmm10 vdpps $0x7f, %xmm9, %xmm9, %xmm11 vxorps %xmm8, %xmm8, %xmm8 vmovss %xmm11, %xmm8, %xmm6 vrcp14ss %xmm6, %xmm8, %xmm6 vmovaps %xmm6, %xmm7 vfnmadd213ss 0x244351(%rip), %xmm11, %xmm7 # xmm7 = -(xmm11 * xmm7) + mem vmulss %xmm7, %xmm6, %xmm6 vmulss %xmm6, %xmm5, %xmm5 vbroadcastss %xmm5, %ymm6 vmovaps %xmm9, 0x370(%rsp) vmovaps %ymm6, 0x5e0(%rsp) vfmadd231ps %xmm6, %xmm9, %xmm4 # xmm4 = (xmm9 * xmm6) + xmm4 vblendps $0x8, %xmm8, %xmm4, %xmm4 # xmm4 = xmm4[0,1,2],xmm8[3] vsubps %xmm4, %xmm1, %xmm6 vsubps %xmm4, %xmm2, %xmm7 vsubps %xmm4, %xmm0, %xmm8 vsubps %xmm4, %xmm3, %xmm3 vbroadcastss %xmm6, %ymm18 vbroadcastss 0x265a14(%rip), %ymm0 # 0x1f12704 vpermps %ymm6, %ymm0, %ymm19 vbroadcastss 0x2741dd(%rip), %ymm1 # 0x1f20edc vpermps %ymm6, %ymm1, %ymm20 vbroadcastss 0x2741ca(%rip), %ymm2 # 0x1f20ed8 vmovaps %ymm6, 0x3e0(%rsp) vpermps %ymm6, %ymm2, %ymm22 vbroadcastss %xmm8, %ymm24 vpermps %ymm8, %ymm0, %ymm23 vpermps %ymm8, %ymm1, %ymm25 vmovaps %ymm8, 0x3a0(%rsp) vpermps %ymm8, %ymm2, %ymm27 vbroadcastss %xmm7, %ymm29 vpermps %ymm7, %ymm0, %ymm31 vpermps %ymm7, %ymm1, %ymm6 vmovaps %ymm7, 0x3c0(%rsp) vpermps %ymm7, %ymm2, %ymm4 vmovaps %ymm4, 0x820(%rsp) vbroadcastss %xmm3, %ymm16 vpermps %ymm3, %ymm0, %ymm21 vpermps %ymm3, %ymm1, %ymm4 vmovaps %ymm3, 0x380(%rsp) vpermps %ymm3, %ymm2, %ymm0 vmovaps %ymm0, 0x800(%rsp) vmovaps %ymm12, 0x6c0(%rsp) vmulss %xmm12, %xmm12, %xmm0 vfmadd231ps %ymm30, %ymm30, %ymm0 # ymm0 = (ymm30 * ymm30) + ymm0 vfmadd231ps %ymm26, %ymm26, %ymm0 # ymm0 = (ymm26 * ymm26) + ymm0 vbroadcastss %xmm0, %ymm7 vandps %ymm28, %ymm7, %ymm0 vmovaps %ymm0, 0x6a0(%rsp) vmovss %xmm10, 0x5c(%rsp) vmovaps %xmm5, 0x430(%rsp) vsubss %xmm5, %xmm10, %xmm0 vbroadcastss %xmm0, %ymm0 vmovaps %ymm0, 0x7c0(%rsp) vpbroadcastd %eax, %xmm0 vmovdqa %xmm0, 0x530(%rsp) movl $0x1, %eax movq %rax, 0x120(%rsp) xorl %ebx, %ebx xorl %r13d, %r13d movq 0x118(%rsp), %rax vpbroadcastd %eax, %xmm0 vmovdqa %xmm0, 0x520(%rsp) vsqrtss %xmm11, %xmm11, %xmm0 vmovss %xmm0, 0x13c(%rsp) vmovaps %xmm11, 0x360(%rsp) vsqrtss %xmm11, %xmm11, %xmm0 vmovss %xmm0, 0x138(%rsp) vmovsd 0x23f8ae(%rip), %xmm1 # 0x1eec6f0 vbroadcastss 0x274075(%rip), %ymm2 # 0x1f20ec0 vmovaps %ymm4, %ymm3 vmovaps %ymm4, 0x4a0(%rsp) vmovaps %ymm7, 0x7e0(%rsp) vmovaps %ymm26, 0x1e0(%rsp) vmovaps %ymm30, 0x1c0(%rsp) vmovaps %ymm18, 0x1a0(%rsp) vmovaps %ymm19, 0x300(%rsp) vmovaps %ymm20, 0x2e0(%rsp) vmovaps %ymm22, 0x180(%rsp) vmovaps %ymm24, 0x2c0(%rsp) vmovaps %ymm23, 0x160(%rsp) vmovaps %ymm25, 0x140(%rsp) vmovaps %ymm27, 0x2a0(%rsp) vmovaps %ymm29, 0x280(%rsp) vmovaps %ymm31, 0x260(%rsp) vmovaps %ymm6, 0x7a0(%rsp) vmovaps %ymm16, 0x780(%rsp) vmovaps %ymm21, 0x760(%rsp) vmovshdup %xmm1, %xmm0 # xmm0 = xmm1[1,1,3,3] vsubss %xmm1, %xmm0, %xmm0 vmulss 0x273fe6(%rip), %xmm0, %xmm4 # 0x1f20ed0 vmovaps %xmm4, 0x60(%rsp) vmovaps %xmm1, 0x410(%rsp) vbroadcastss %xmm1, %ymm4 vbroadcastss %xmm0, %ymm0 vmovaps %ymm4, 0x200(%rsp) vmovaps %ymm0, 0xa0(%rsp) vfmadd231ps 0x274002(%rip), %ymm0, %ymm4 # ymm4 = (ymm0 * mem) + ymm4 vbroadcastss 0x23f7ed(%rip), %ymm0 # 0x1eec714 vsubps %ymm4, %ymm0, %ymm7 vxorps %ymm2, %ymm4, %ymm0 vmulps %ymm0, %ymm7, %ymm0 vmulps %ymm0, %ymm7, %ymm0 vmulps %ymm4, %ymm4, %ymm8 vbroadcastss 0x2440a8(%rip), %ymm5 # 0x1ef0fec vmulps %ymm5, %ymm4, %ymm9 vbroadcastss 0x2440b3(%rip), %ymm13 # 0x1ef1004 vaddps %ymm13, %ymm9, %ymm10 vmulps %ymm10, %ymm8, %ymm1 vbroadcastss 0x244094(%rip), %ymm14 # 0x1ef0ff8 vaddps %ymm1, %ymm14, %ymm1 vmulps %ymm7, %ymm7, %ymm11 vmulps %ymm5, %ymm7, %ymm12 vmovaps %ymm2, %ymm5 vaddps %ymm13, %ymm12, %ymm2 vmulps %ymm2, %ymm11, %ymm2 vaddps %ymm2, %ymm14, %ymm2 vxorps %ymm5, %ymm7, %ymm5 vmulps %ymm5, %ymm4, %ymm5 vmulps %ymm5, %ymm4, %ymm5 vbroadcastss 0x23fbe9(%rip), %ymm17 # 0x1eecb80 vmulps %ymm17, %ymm0, %ymm13 vmulps %ymm17, %ymm1, %ymm14 vmulps %ymm17, %ymm2, %ymm15 vmulps %ymm17, %ymm5, %ymm5 vmulps %ymm5, %ymm16, %ymm28 vmulps %ymm5, %ymm21, %ymm2 vmulps %ymm5, %ymm3, %ymm1 vmovaps 0x800(%rsp), %ymm0 vmulps %ymm5, %ymm0, %ymm5 vfmadd231ps %ymm29, %ymm15, %ymm28 # ymm28 = (ymm15 * ymm29) + ymm28 vfmadd231ps %ymm31, %ymm15, %ymm2 # ymm2 = (ymm15 * ymm31) + ymm2 vfmadd231ps %ymm6, %ymm15, %ymm1 # ymm1 = (ymm15 * ymm6) + ymm1 vmovaps %ymm6, %ymm3 vmovaps 0x820(%rsp), %ymm6 vfmadd231ps %ymm15, %ymm6, %ymm5 # ymm5 = (ymm6 * ymm15) + ymm5 vfmadd231ps %ymm24, %ymm14, %ymm28 # ymm28 = (ymm14 * ymm24) + ymm28 vfmadd231ps %ymm23, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm23) + ymm2 vfmadd231ps %ymm25, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm25) + ymm1 vfmadd231ps %ymm14, %ymm27, %ymm5 # ymm5 = (ymm27 * ymm14) + ymm5 vfmadd231ps %ymm18, %ymm13, %ymm28 # ymm28 = (ymm13 * ymm18) + ymm28 vfmadd231ps %ymm19, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm19) + ymm2 vfmadd231ps %ymm20, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm20) + ymm1 vfmadd231ps %ymm13, %ymm22, %ymm5 # ymm5 = (ymm22 * ymm13) + ymm5 vaddps %ymm7, %ymm7, %ymm13 vmulps %ymm4, %ymm13, %ymm14 vsubps %ymm11, %ymm14, %ymm11 vaddps %ymm4, %ymm4, %ymm15 vmulps %ymm10, %ymm15, %ymm10 vmulps %ymm4, %ymm9, %ymm4 vaddps %ymm4, %ymm10, %ymm4 vaddps 0x243fb1(%rip){1to8}, %ymm9, %ymm9 # 0x1ef0ff8 vmulps %ymm9, %ymm13, %ymm9 vmulps %ymm7, %ymm12, %ymm7 vsubps %ymm7, %ymm9, %ymm7 vsubps %ymm14, %ymm8, %ymm8 vmulps %ymm17, %ymm11, %ymm9 vmulps %ymm17, %ymm4, %ymm4 vmulps %ymm17, %ymm7, %ymm7 vmulps %ymm17, %ymm8, %ymm8 vmulps %ymm8, %ymm16, %ymm10 vmulps %ymm8, %ymm21, %ymm12 vmulps 0x4a0(%rsp), %ymm8, %ymm13 vmulps %ymm0, %ymm8, %ymm8 vfmadd231ps %ymm29, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm29) + ymm10 vfmadd231ps %ymm31, %ymm7, %ymm12 # ymm12 = (ymm7 * ymm31) + ymm12 vfmadd231ps %ymm3, %ymm7, %ymm13 # ymm13 = (ymm7 * ymm3) + ymm13 vfmadd231ps %ymm7, %ymm6, %ymm8 # ymm8 = (ymm6 * ymm7) + ymm8 vfmadd231ps %ymm24, %ymm4, %ymm10 # ymm10 = (ymm4 * ymm24) + ymm10 vfmadd231ps %ymm23, %ymm4, %ymm12 # ymm12 = (ymm4 * ymm23) + ymm12 vfmadd231ps %ymm25, %ymm4, %ymm13 # ymm13 = (ymm4 * ymm25) + ymm13 vfmadd231ps %ymm4, %ymm27, %ymm8 # ymm8 = (ymm27 * ymm4) + ymm8 vfmadd231ps %ymm18, %ymm9, %ymm10 # ymm10 = (ymm9 * ymm18) + ymm10 vfmadd231ps %ymm19, %ymm9, %ymm12 # ymm12 = (ymm9 * ymm19) + ymm12 vfmadd231ps %ymm20, %ymm9, %ymm13 # ymm13 = (ymm9 * ymm20) + ymm13 vfmadd231ps %ymm9, %ymm22, %ymm8 # ymm8 = (ymm22 * ymm9) + ymm8 vbroadcastss 0x60(%rsp), %ymm4 vmulps %ymm4, %ymm10, %ymm11 vmulps %ymm4, %ymm12, %ymm12 vmulps %ymm4, %ymm13, %ymm13 vmulps %ymm4, %ymm8, %ymm6 vmovaps %ymm28, %ymm8 vmovaps 0x2b2c2b(%rip), %ymm7 # 0x1f5fd20 vxorps %xmm31, %xmm31, %xmm31 vpermt2ps %ymm31, %ymm7, %ymm8 vmovaps %ymm2, %ymm9 vpermt2ps %ymm31, %ymm7, %ymm9 vmovaps %ymm1, %ymm10 vpermt2ps %ymm31, %ymm7, %ymm10 vaddps %ymm6, %ymm5, %ymm4 vmaxps %ymm4, %ymm5, %ymm14 vminps %ymm4, %ymm5, %ymm4 vmovaps %ymm5, %ymm15 vpermt2ps %ymm31, %ymm7, %ymm15 vmovaps %ymm11, %ymm19 vpermt2ps %ymm31, %ymm7, %ymm19 vmovaps %ymm12, %ymm20 vpermt2ps %ymm31, %ymm7, %ymm20 vmovaps %ymm13, %ymm5 vpermt2ps %ymm31, %ymm7, %ymm5 vpermt2ps %ymm31, %ymm7, %ymm6 vsubps %ymm6, %ymm15, %ymm16 vsubps %ymm28, %ymm8, %ymm7 vsubps %ymm2, %ymm9, %ymm6 vsubps %ymm1, %ymm10, %ymm21 vmulps %ymm13, %ymm6, %ymm17 vfmsub231ps %ymm21, %ymm12, %ymm17 # ymm17 = (ymm12 * ymm21) - ymm17 vmulps %ymm11, %ymm21, %ymm18 vfmsub231ps %ymm7, %ymm13, %ymm18 # ymm18 = (ymm13 * ymm7) - ymm18 vmulps %ymm12, %ymm7, %ymm22 vfmsub231ps %ymm6, %ymm11, %ymm22 # ymm22 = (ymm11 * ymm6) - ymm22 vmulps %ymm22, %ymm22, %ymm22 vfmadd231ps %ymm18, %ymm18, %ymm22 # ymm22 = (ymm18 * ymm18) + ymm22 vfmadd231ps %ymm17, %ymm17, %ymm22 # ymm22 = (ymm17 * ymm17) + ymm22 vmulps %ymm21, %ymm21, %ymm17 vfmadd231ps %ymm6, %ymm6, %ymm17 # ymm17 = (ymm6 * ymm6) + ymm17 vfmadd231ps %ymm7, %ymm7, %ymm17 # ymm17 = (ymm7 * ymm7) + ymm17 vrcp14ps %ymm17, %ymm18 vmovaps %ymm18, %ymm23 vfnmadd213ps 0x23f54d(%rip){1to8}, %ymm17, %ymm23 # ymm23 = -(ymm17 * ymm23) + mem vfmadd132ps %ymm18, %ymm18, %ymm23 # ymm23 = (ymm23 * ymm18) + ymm18 vmulps %ymm23, %ymm22, %ymm18 vmulps %ymm5, %ymm6, %ymm22 vfmsub231ps %ymm21, %ymm20, %ymm22 # ymm22 = (ymm20 * ymm21) - ymm22 vmulps %ymm19, %ymm21, %ymm24 vfmsub231ps %ymm7, %ymm5, %ymm24 # ymm24 = (ymm5 * ymm7) - ymm24 vmulps %ymm20, %ymm7, %ymm25 vfmsub231ps %ymm6, %ymm19, %ymm25 # ymm25 = (ymm19 * ymm6) - ymm25 vmulps %ymm25, %ymm25, %ymm25 vfmadd231ps %ymm24, %ymm24, %ymm25 # ymm25 = (ymm24 * ymm24) + ymm25 vfmadd231ps %ymm22, %ymm22, %ymm25 # ymm25 = (ymm22 * ymm22) + ymm25 vmulps %ymm23, %ymm25, %ymm22 vmaxps %ymm22, %ymm18, %ymm18 vsqrtps %ymm18, %ymm18 vmaxps %ymm15, %ymm16, %ymm22 vmaxps %ymm22, %ymm14, %ymm14 vaddps %ymm14, %ymm18, %ymm14 vminps %ymm15, %ymm16, %ymm15 vminps %ymm15, %ymm4, %ymm4 vsubps %ymm18, %ymm4, %ymm4 vmulps 0x2436f8(%rip){1to8}, %ymm14, %ymm14 # 0x1ef0940 vmulps 0x2436f2(%rip){1to8}, %ymm4, %ymm4 # 0x1ef0944 vmovaps %ymm4, 0x60(%rsp) vmulps %ymm14, %ymm14, %ymm4 vrsqrt14ps %ymm17, %ymm15 vmulps 0x23f4af(%rip){1to8}, %ymm17, %ymm14 # 0x1eec71c vmulps %ymm14, %ymm15, %ymm14 vmulps %ymm15, %ymm15, %ymm16 vmulps %ymm14, %ymm16, %ymm14 vfmadd231ps 0x23f490(%rip){1to8}, %ymm15, %ymm14 # ymm14 = (ymm15 * mem) + ymm14 vmulps %ymm7, %ymm14, %ymm15 vmulps %ymm14, %ymm6, %ymm16 vmulps %ymm14, %ymm21, %ymm18 vmovaps %ymm28, 0x4e0(%rsp) vsubps %ymm28, %ymm31, %ymm27 vmovaps %ymm2, 0x240(%rsp) vsubps %ymm2, %ymm31, %ymm28 vmovaps %ymm1, 0x80(%rsp) vsubps %ymm1, %ymm31, %ymm29 vmovaps 0x6c0(%rsp), %ymm0 vmulps %ymm29, %ymm0, %ymm22 vfmadd231ps %ymm28, %ymm30, %ymm22 # ymm22 = (ymm30 * ymm28) + ymm22 vfmadd231ps %ymm27, %ymm26, %ymm22 # ymm22 = (ymm26 * ymm27) + ymm22 vmulps %ymm29, %ymm29, %ymm24 vfmadd231ps %ymm28, %ymm28, %ymm24 # ymm24 = (ymm28 * ymm28) + ymm24 vfmadd231ps %ymm27, %ymm27, %ymm24 # ymm24 = (ymm27 * ymm27) + ymm24 vmulps %ymm18, %ymm0, %ymm17 vfmadd231ps %ymm30, %ymm16, %ymm17 # ymm17 = (ymm16 * ymm30) + ymm17 vfmadd231ps %ymm26, %ymm15, %ymm17 # ymm17 = (ymm15 * ymm26) + ymm17 vmulps %ymm18, %ymm29, %ymm18 vfmadd231ps %ymm16, %ymm28, %ymm18 # ymm18 = (ymm28 * ymm16) + ymm18 vfmadd231ps %ymm15, %ymm27, %ymm18 # ymm18 = (ymm27 * ymm15) + ymm18 vmulps %ymm17, %ymm17, %ymm1 vmovaps 0x7e0(%rsp), %ymm0 vsubps %ymm1, %ymm0, %ymm15 vmulps %ymm18, %ymm17, %ymm25 vsubps %ymm25, %ymm22, %ymm22 vaddps %ymm22, %ymm22, %ymm22 vmulps %ymm18, %ymm18, %ymm25 vsubps %ymm25, %ymm24, %ymm2 vsubps %ymm4, %ymm2, %ymm4 vmulps %ymm22, %ymm22, %ymm25 vmulps 0x23f832(%rip){1to8}, %ymm15, %ymm26 # 0x1eecb8c vmulps %ymm4, %ymm26, %ymm30 vsubps %ymm30, %ymm25, %ymm30 vcmpnltps %ymm31, %ymm30, %k1 kmovd %k1, %eax kortestb %k1, %k1 vmovaps 0x4a0(%rsp), %ymm3 je 0x1cad46e vsqrtps %ymm30, %ymm30 vaddps %ymm15, %ymm15, %ymm31 vrcp14ps %ymm31, %ymm3 vfnmadd213ps 0x23f374(%rip){1to8}, %ymm3, %ymm31 # ymm31 = -(ymm3 * ymm31) + mem vfmadd132ps %ymm3, %ymm3, %ymm31 # ymm31 = (ymm31 * ymm3) + ymm3 vxorps 0x273b10(%rip){1to8}, %ymm22, %ymm3 # 0x1f20ec0 vsubps %ymm30, %ymm3, %ymm3 vmulps %ymm31, %ymm3, %ymm3 vsubps %ymm22, %ymm30, %ymm30 vmulps %ymm31, %ymm30, %ymm31 vmovaps %ymm17, %ymm30 vfmadd213ps %ymm18, %ymm3, %ymm30 # ymm30 = (ymm3 * ymm30) + ymm18 vmulps %ymm30, %ymm14, %ymm30 vmovaps %ymm30, 0x660(%rsp) vmovaps %ymm17, %ymm30 vfmadd213ps %ymm18, %ymm31, %ymm30 # ymm30 = (ymm31 * ymm30) + ymm18 vmulps %ymm30, %ymm14, %ymm30 vmovaps %ymm30, 0x640(%rsp) vbroadcastss 0x23e61a(%rip), %ymm16 # 0x1eeba20 vblendmps %ymm3, %ymm16, %ymm30 {%k1} vbroadcastss 0x23f76f(%rip), %ymm3 # 0x1eecb84 vblendmps %ymm31, %ymm3, %ymm31 {%k1} vbroadcastss 0x273a9f(%rip), %ymm23 # 0x1f20ec4 vandps %ymm23, %ymm1, %ymm3 vmovaps 0x6a0(%rsp), %ymm16 vmaxps %ymm3, %ymm16, %ymm3 vmulps 0x244a71(%rip){1to8}, %ymm3, %ymm3 # 0x1ef1eb4 vandps %ymm23, %ymm15, %ymm23 vcmpltps %ymm3, %ymm23, %k1 {%k1} kortestb %k1, %k1 jne 0x1caf5f2 vbroadcastss 0x23f2b1(%rip), %ymm0 # 0x1eec714 vmovaps 0x4a0(%rsp), %ymm3 jmp 0x1cad48b vbroadcastss 0x23e5a8(%rip), %ymm30 # 0x1eeba20 vbroadcastss 0x23f702(%rip), %ymm31 # 0x1eecb84 vbroadcastss 0x23f289(%rip), %ymm0 # 0x1eec714 andb $0x7f, %al je 0x1cad8bf vmovaps %ymm2, %ymm16 vmovaps %ymm21, 0x220(%rsp) movq 0x20(%rsp), %rcx vmovaps %ymm0, %ymm2 vmovss 0x80(%rcx,%rdx,4), %xmm3 vsubss 0x430(%rsp), %xmm3, %xmm3 vbroadcastss %xmm3, %ymm3 vminps %ymm31, %ymm3, %ymm3 vmovaps 0x7c0(%rsp), %ymm4 vmaxps %ymm30, %ymm4, %ymm4 vmulps %ymm13, %ymm29, %ymm23 vfmadd213ps %ymm23, %ymm12, %ymm28 # ymm28 = (ymm12 * ymm28) + ymm23 vfmadd213ps %ymm28, %ymm11, %ymm27 # ymm27 = (ymm11 * ymm27) + ymm28 vmovaps 0x6c0(%rsp), %ymm21 vmulps %ymm13, %ymm21, %ymm13 vmovaps 0x1c0(%rsp), %ymm24 vfmadd231ps %ymm12, %ymm24, %ymm13 # ymm13 = (ymm24 * ymm12) + ymm13 vmovaps 0x1e0(%rsp), %ymm31 vfmadd231ps %ymm11, %ymm31, %ymm13 # ymm13 = (ymm31 * ymm11) + ymm13 vbroadcastss 0x2739a8(%rip), %ymm28 # 0x1f20ec4 vandps %ymm28, %ymm13, %ymm11 vbroadcastss 0x243abc(%rip), %ymm29 # 0x1ef0fe8 vcmpltps %ymm29, %ymm11, %k0 vbroadcastss 0x273983(%rip), %ymm30 # 0x1f20ec0 vxorps %ymm30, %ymm27, %ymm11 vrcp14ps %ymm13, %ymm12 vxorps %ymm30, %ymm13, %ymm23 vmovaps %ymm12, %ymm27 vfnmadd213ps %ymm0, %ymm13, %ymm27 # ymm27 = -(ymm13 * ymm27) + ymm0 vfmadd132ps %ymm12, %ymm12, %ymm27 # ymm27 = (ymm27 * ymm12) + ymm12 vmulps %ymm11, %ymm27, %ymm11 vcmpltps %ymm23, %ymm13, %k1 korb %k1, %k0, %k1 vbroadcastss 0x23f608(%rip), %ymm27 # 0x1eecb84 vblendmps %ymm27, %ymm11, %ymm12 {%k1} vmaxps %ymm12, %ymm4, %ymm4 vcmpnleps %ymm23, %ymm13, %k1 korb %k1, %k0, %k1 vbroadcastss 0x23e485(%rip), %ymm13 # 0x1eeba20 vmovaps %ymm13, %ymm11 {%k1} vminps %ymm11, %ymm3, %ymm3 vxorps %xmm23, %xmm23, %xmm23 vsubps %ymm8, %ymm23, %ymm8 vsubps %ymm9, %ymm23, %ymm9 vsubps %ymm10, %ymm23, %ymm10 vmulps %ymm5, %ymm10, %ymm10 vfnmsub231ps %ymm9, %ymm20, %ymm10 # ymm10 = -(ymm20 * ymm9) - ymm10 vfnmadd231ps %ymm8, %ymm19, %ymm10 # ymm10 = -(ymm19 * ymm8) + ymm10 vmulps %ymm5, %ymm21, %ymm8 vfnmsub231ps %ymm20, %ymm24, %ymm8 # ymm8 = -(ymm24 * ymm20) - ymm8 vfnmadd231ps %ymm19, %ymm31, %ymm8 # ymm8 = -(ymm31 * ymm19) + ymm8 vandps %ymm28, %ymm8, %ymm9 vcmpltps %ymm29, %ymm9, %k0 vxorps %ymm30, %ymm10, %ymm9 vrcp14ps %ymm8, %ymm10 vxorps %ymm30, %ymm8, %ymm11 vmovaps %ymm10, %ymm12 vfnmadd213ps %ymm0, %ymm8, %ymm12 # ymm12 = -(ymm8 * ymm12) + ymm0 vfmadd132ps %ymm10, %ymm10, %ymm12 # ymm12 = (ymm12 * ymm10) + ymm10 vmulps %ymm9, %ymm12, %ymm9 vcmpltps %ymm11, %ymm8, %k1 korb %k1, %k0, %k1 vblendmps %ymm27, %ymm9, %ymm10 {%k1} vmaxps %ymm10, %ymm4, %ymm0 vcmpnleps %ymm11, %ymm8, %k1 korb %k1, %k0, %k1 vmovaps %ymm13, %ymm9 {%k1} vminps %ymm9, %ymm3, %ymm8 vmovaps %ymm0, 0x4c0(%rsp) vcmpleps %ymm8, %ymm0, %k0 kmovd %k0, %ecx andb %cl, %al je 0x1cad937 vmovaps %ymm1, %ymm20 vmovaps 0x660(%rsp), %ymm3 vmaxps 0x60(%rsp), %ymm23, %ymm4 vminps %ymm2, %ymm3, %ymm3 vxorps %xmm10, %xmm10, %xmm10 vmaxps %ymm10, %ymm3, %ymm3 vmovaps 0x640(%rsp), %ymm9 vminps %ymm2, %ymm9, %ymm9 vmovaps 0x2738ab(%rip), %ymm11 # 0x1f20f40 vaddps %ymm3, %ymm11, %ymm3 vbroadcastss 0x270e16(%rip), %ymm12 # 0x1f1e4b8 vmulps %ymm3, %ymm12, %ymm3 vmovaps 0x200(%rsp), %ymm0 vmovaps 0xa0(%rsp), %ymm1 vfmadd213ps %ymm0, %ymm1, %ymm3 # ymm3 = (ymm1 * ymm3) + ymm0 vmovaps %ymm3, 0x660(%rsp) vmaxps %ymm10, %ymm9, %ymm3 vaddps %ymm3, %ymm11, %ymm3 vmulps %ymm3, %ymm12, %ymm3 vfmadd213ps %ymm0, %ymm1, %ymm3 # ymm3 = (ymm1 * ymm3) + ymm0 vmovaps %ymm3, 0x640(%rsp) vmulps %ymm4, %ymm4, %ymm3 vsubps %ymm3, %ymm16, %ymm11 vmulps %ymm11, %ymm26, %ymm3 vsubps %ymm3, %ymm25, %ymm3 vcmpnltps %ymm10, %ymm3, %k0 kortestb %k0, %k0 vmovaps 0x2c0(%rsp), %ymm24 vmovaps 0x2a0(%rsp), %ymm27 vmovaps 0x280(%rsp), %ymm29 vmovaps 0x260(%rsp), %ymm31 je 0x1cad9a5 vxorps %xmm16, %xmm16, %xmm16 vcmpnltps %ymm23, %ymm3, %k1 vsqrtps %ymm3, %ymm3 vaddps %ymm15, %ymm15, %ymm4 vrcp14ps %ymm4, %ymm9 vfnmadd213ps %ymm2, %ymm9, %ymm4 # ymm4 = -(ymm9 * ymm4) + ymm2 vfmadd132ps %ymm9, %ymm9, %ymm4 # ymm4 = (ymm4 * ymm9) + ymm9 vxorps 0x273768(%rip){1to8}, %ymm22, %ymm9 # 0x1f20ec0 vsubps %ymm3, %ymm9, %ymm9 vmulps %ymm4, %ymm9, %ymm12 vsubps %ymm22, %ymm3, %ymm3 vmulps %ymm4, %ymm3, %ymm13 vmovaps %ymm17, %ymm3 vfmadd213ps %ymm18, %ymm12, %ymm3 # ymm3 = (ymm12 * ymm3) + ymm18 vmulps %ymm3, %ymm14, %ymm9 vmovaps 0x1e0(%rsp), %ymm26 vmulps %ymm12, %ymm26, %ymm3 vmovaps 0x1c0(%rsp), %ymm30 vmulps %ymm12, %ymm30, %ymm4 vmulps %ymm12, %ymm21, %ymm10 vmovaps %ymm7, %ymm19 vmovaps 0x4e0(%rsp), %ymm2 vfmadd213ps %ymm2, %ymm9, %ymm19 # ymm19 = (ymm9 * ymm19) + ymm2 vsubps %ymm19, %ymm3, %ymm3 vmovaps %ymm6, %ymm19 vmovaps 0x240(%rsp), %ymm1 vfmadd213ps %ymm1, %ymm9, %ymm19 # ymm19 = (ymm9 * ymm19) + ymm1 vsubps %ymm19, %ymm4, %ymm4 vmovaps 0x80(%rsp), %ymm0 vmovaps 0x220(%rsp), %ymm5 vfmadd213ps %ymm0, %ymm5, %ymm9 # ymm9 = (ymm5 * ymm9) + ymm0 vsubps %ymm9, %ymm10, %ymm9 vfmadd213ps %ymm18, %ymm13, %ymm17 # ymm17 = (ymm13 * ymm17) + ymm18 vmulps %ymm17, %ymm14, %ymm14 vmulps %ymm13, %ymm26, %ymm10 vmulps %ymm13, %ymm30, %ymm17 vmulps %ymm13, %ymm21, %ymm18 vfmadd213ps %ymm2, %ymm14, %ymm7 # ymm7 = (ymm14 * ymm7) + ymm2 vsubps %ymm7, %ymm10, %ymm10 vfmadd213ps %ymm1, %ymm14, %ymm6 # ymm6 = (ymm14 * ymm6) + ymm1 vsubps %ymm6, %ymm17, %ymm1 vfmadd213ps %ymm0, %ymm14, %ymm5 # ymm5 = (ymm14 * ymm5) + ymm0 vsubps %ymm5, %ymm18, %ymm5 vbroadcastss 0x23e1ec(%rip), %ymm0 # 0x1eeba20 vblendmps %ymm12, %ymm0, %ymm2 {%k1} vbroadcastss 0x23f341(%rip), %ymm0 # 0x1eecb84 vblendmps %ymm13, %ymm0, %ymm0 {%k1} vandps %ymm28, %ymm20, %ymm6 vmovaps 0x6a0(%rsp), %ymm7 vmaxps %ymm6, %ymm7, %ymm6 vmulps 0x24464e(%rip){1to8}, %ymm6, %ymm6 # 0x1ef1eb4 vandps %ymm28, %ymm15, %ymm7 vcmpltps %ymm6, %ymm7, %k1 {%k1} kortestb %k1, %k1 je 0x1cad9dc vcmpleps %ymm16, %ymm11, %k2 vbroadcastss 0x23f2f7(%rip), %ymm7 # 0x1eecb84 vbroadcastss 0x23e18a(%rip), %ymm11 # 0x1eeba20 vblendmps %ymm7, %ymm11, %ymm6 {%k2} vmovaps %ymm6, %ymm2 {%k1} vblendmps %ymm11, %ymm7, %ymm6 {%k2} vmovaps %ymm6, %ymm0 {%k1} knotb %k1, %k1 korb %k2, %k1, %k1 kandb %k0, %k1, %k0 jmp 0x1cad9dc vbroadcastss 0x2735fb(%rip), %ymm28 # 0x1f20ec4 vbroadcastss 0x2735ee(%rip), %ymm2 # 0x1f20ec0 vmovaps 0x1e0(%rsp), %ymm26 vmovaps 0x1c0(%rsp), %ymm30 vmovaps 0x1a0(%rsp), %ymm18 vmovaps 0x300(%rsp), %ymm19 vmovaps 0x2e0(%rsp), %ymm20 vmovaps 0x180(%rsp), %ymm22 vmovaps 0x2c0(%rsp), %ymm24 vmovaps 0x160(%rsp), %ymm23 vmovaps 0x140(%rsp), %ymm25 vmovaps 0x2a0(%rsp), %ymm27 vmovaps 0x280(%rsp), %ymm29 vmovaps 0x260(%rsp), %ymm31 jmp 0x1caf4b1 vbroadcastss 0x273580(%rip), %ymm2 # 0x1f20ec0 vmovaps 0x1e0(%rsp), %ymm26 vmovaps 0x1c0(%rsp), %ymm30 vmovaps 0x1a0(%rsp), %ymm18 vmovaps 0x300(%rsp), %ymm19 vmovaps 0x2e0(%rsp), %ymm20 vmovaps 0x180(%rsp), %ymm22 vmovaps 0x2c0(%rsp), %ymm24 vmovaps 0x160(%rsp), %ymm23 vmovaps 0x140(%rsp), %ymm25 vmovaps 0x2a0(%rsp), %ymm27 vmovaps 0x280(%rsp), %ymm29 vmovaps 0x260(%rsp), %ymm31 jmp 0x1caf4a8 vxorps %xmm1, %xmm1, %xmm1 vxorps %xmm5, %xmm5, %xmm5 vxorps %xmm3, %xmm3, %xmm3 vxorps %xmm4, %xmm4, %xmm4 vxorps %xmm9, %xmm9, %xmm9 vbroadcastss 0x23e05d(%rip), %ymm2 # 0x1eeba20 vbroadcastss 0x23f1b8(%rip), %ymm0 # 0x1eecb84 vmovaps 0x1e0(%rsp), %ymm26 vmovaps 0x1c0(%rsp), %ymm30 vmovaps 0x1a0(%rsp), %ymm18 vmovaps 0x180(%rsp), %ymm22 vmovaps 0x160(%rsp), %ymm23 vmovaps 0x140(%rsp), %ymm25 vmulps %ymm5, %ymm21, %ymm5 vfmadd231ps %ymm1, %ymm30, %ymm5 # ymm5 = (ymm30 * ymm1) + ymm5 vfmadd231ps %ymm10, %ymm26, %ymm5 # ymm5 = (ymm26 * ymm10) + ymm5 vmovaps 0x4c0(%rsp), %ymm6 vmovaps %ymm6, 0x840(%rsp) vminps %ymm2, %ymm8, %ymm1 vmovaps %ymm1, 0x860(%rsp) vandps %ymm28, %ymm5, %ymm2 vmaxps %ymm0, %ymm6, %ymm5 vmovaps %ymm5, 0x6e0(%rsp) vmovaps %ymm8, 0x700(%rsp) vbroadcastss 0x273482(%rip), %ymm0 # 0x1f20ed4 vcmpltps %ymm0, %ymm2, %k1 kmovd %k1, 0x134(%rsp) vcmpleps %ymm1, %ymm6, %k1 kmovd %k1, %ecx andb %al, %cl vmovaps %ymm5, 0x600(%rsp) vcmpleps %ymm8, %ymm5, %k1 kmovd %k1, %esi andb %al, %sil movl %esi, 0x44(%rsp) movl %esi, %eax orb %cl, %al vmovaps 0x300(%rsp), %ymm19 vmovaps 0x2e0(%rsp), %ymm20 je 0x1caf49f vmovaps %ymm0, %ymm2 movq %r12, 0x328(%rsp) movb %r15b, 0x1f(%rsp) knotb %k0, %k1 vmulps %ymm9, %ymm21, %ymm0 vfmadd213ps %ymm0, %ymm30, %ymm4 # ymm4 = (ymm30 * ymm4) + ymm0 vfmadd213ps %ymm4, %ymm26, %ymm3 # ymm3 = (ymm26 * ymm3) + ymm4 vandps %ymm28, %ymm3, %ymm0 vcmpltps %ymm2, %ymm0, %k0 kmovd %k1, 0x12c(%rsp) korb %k1, %k0, %k1 vpbroadcastd 0x2733ec(%rip), %ymm0 # 0x1f20edc vpblendmd 0x2733de(%rip){1to8}, %ymm0, %ymm0 {%k1} # 0x1f20ed8 movq 0x120(%rsp), %rax vpbroadcastd %eax, %ymm1 vmovdqa %ymm0, 0x720(%rsp) vmovdqa %ymm1, 0x680(%rsp) vpcmpnltd %ymm0, %ymm1, %k0 kmovd %k0, %r12d movl %ecx, 0x130(%rsp) andb %cl, %r12b je 0x1cae748 vmovaps 0x3e0(%rsp), %ymm1 vmovaps 0x3a0(%rsp), %ymm2 vminps %xmm2, %xmm1, %xmm0 vmaxps %xmm2, %xmm1, %xmm1 vmovaps 0x3c0(%rsp), %ymm3 vmovaps 0x380(%rsp), %ymm4 vminps %xmm4, %xmm3, %xmm2 vminps %xmm2, %xmm0, %xmm0 vmaxps %xmm4, %xmm3, %xmm2 vmaxps %xmm2, %xmm1, %xmm1 vbroadcastss 0x27334a(%rip), %xmm2 # 0x1f20ec4 vandps %xmm2, %xmm0, %xmm0 vandps %xmm2, %xmm1, %xmm2 vmaxps %xmm2, %xmm0, %xmm0 vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3] vmaxss %xmm0, %xmm2, %xmm2 vshufpd $0x1, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[1,0] vmaxss %xmm2, %xmm0, %xmm0 vmulss 0x244315(%rip), %xmm0, %xmm0 # 0x1ef1eb4 vmovss %xmm0, 0x50(%rsp) vshufps $0xff, %xmm1, %xmm1, %xmm0 # xmm0 = xmm1[3,3,3,3] vmovaps %xmm0, 0x420(%rsp) vmovaps 0x4c0(%rsp), %ymm0 vaddps 0x5e0(%rsp), %ymm0, %ymm0 vmovaps %ymm0, 0x620(%rsp) kmovd %r12d, %k1 vbroadcastss 0x23de44(%rip), %ymm0 # 0x1eeba20 vblendmps 0x4c0(%rsp), %ymm0, %ymm0 {%k1} vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm0, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1] vminps %ymm2, %ymm1, %ymm1 vcmpeqps %ymm1, %ymm0, %k0 kmovd %k0, %eax andb %r12b, %al movzbl %al, %eax movzbl %r12b, %ecx cmovnel %eax, %ecx tzcntl %ecx, %ecx movb $0x1, %r14b shlb %cl, %r14b shll $0x2, %ecx vmovss 0x660(%rsp,%rcx), %xmm9 vmovss 0x840(%rsp,%rcx), %xmm8 vmovaps 0x360(%rsp), %xmm0 vucomiss 0x23dddc(%rip), %xmm0 # 0x1eeba24 vmovss 0x138(%rsp), %xmm0 jae 0x1cadc94 vmovaps 0x360(%rsp), %xmm0 vmovaps %xmm9, 0x60(%rsp) vmovaps %xmm8, 0x80(%rsp) kmovw %k1, 0x200(%rsp) vzeroupper callq 0x6aa20 kmovw 0x200(%rsp), %k1 vmovaps 0x80(%rsp), %xmm8 vmovaps 0x60(%rsp), %xmm9 movzbl %r14b, %eax kmovd %eax, %k0 kandnb %k1, %k0, %k0 kmovd %k0, %r12d vmulss 0x244208(%rip), %xmm0, %xmm0 # 0x1ef1eb4 vmovss %xmm0, 0x54(%rsp) movl $0x5, %r15d vmovaps %xmm8, 0x80(%rsp) vbroadcastss %xmm8, %xmm0 vxorps %xmm1, %xmm1, %xmm1 vfmadd132ps 0x370(%rsp), %xmm1, %xmm0 # xmm0 = (xmm0 * mem) + xmm1 vmovss 0x23ea38(%rip), %xmm1 # 0x1eec714 vsubss %xmm9, %xmm1, %xmm11 vbroadcastss 0x2731d6(%rip), %xmm6 # 0x1f20ec0 vxorps %xmm6, %xmm9, %xmm1 vmulss %xmm1, %xmm11, %xmm1 vmulss %xmm1, %xmm11, %xmm1 vmulss %xmm9, %xmm9, %xmm12 vmovss 0x2432e9(%rip), %xmm8 # 0x1ef0fec vmovaps %xmm8, %xmm10 vmovss 0x2432f4(%rip), %xmm7 # 0x1ef1004 vfmadd213ss %xmm7, %xmm9, %xmm10 # xmm10 = (xmm9 * xmm10) + xmm7 vmovaps %xmm10, %xmm2 vmovss 0x2432d7(%rip), %xmm5 # 0x1ef0ff8 vfmadd213ss %xmm5, %xmm12, %xmm2 # xmm2 = (xmm12 * xmm2) + xmm5 vmulss %xmm11, %xmm11, %xmm3 vmovaps %xmm8, %xmm4 vfmadd213ss %xmm7, %xmm11, %xmm4 # xmm4 = (xmm11 * xmm4) + xmm7 vfmadd213ss %xmm5, %xmm3, %xmm4 # xmm4 = (xmm3 * xmm4) + xmm5 vxorps %xmm6, %xmm11, %xmm3 vmulss %xmm3, %xmm9, %xmm3 vmulss %xmm3, %xmm9, %xmm3 vmovss 0x23ee33(%rip), %xmm5 # 0x1eecb80 vmulss %xmm5, %xmm1, %xmm1 vmulss %xmm5, %xmm2, %xmm2 vmulss %xmm5, %xmm4, %xmm4 vmulss %xmm5, %xmm3, %xmm3 vbroadcastss %xmm3, %xmm3 vmulps 0x380(%rsp), %xmm3, %xmm3 vbroadcastss %xmm4, %xmm4 vfmadd132ps 0x3c0(%rsp), %xmm3, %xmm4 # xmm4 = (xmm4 * mem) + xmm3 vbroadcastss %xmm2, %xmm2 vfmadd132ps 0x3a0(%rsp), %xmm4, %xmm2 # xmm2 = (xmm2 * mem) + xmm4 vbroadcastss %xmm1, %xmm3 vfmadd132ps 0x3e0(%rsp), %xmm2, %xmm3 # xmm3 = (xmm3 * mem) + xmm2 vmulss 0x242c3c(%rip), %xmm11, %xmm6 # 0x1ef09dc vfmadd231ss 0x24325f(%rip), %xmm9, %xmm7 # xmm7 = (xmm9 * mem) + xmm7 vmovaps %xmm7, 0x490(%rsp) vmovss 0x243252(%rip), %xmm1 # 0x1ef100c vfmadd213ss 0x23edc9(%rip), %xmm9, %xmm1 # xmm1 = (xmm9 * xmm1) + mem vmovaps %xmm1, 0x480(%rsp) vfmadd213ss 0x242bf7(%rip), %xmm9, %xmm8 # xmm8 = (xmm9 * xmm8) + mem vmovaps %xmm8, 0x470(%rsp) vmovaps %xmm3, 0x4e0(%rsp) vsubps %xmm3, %xmm0, %xmm0 vmovaps %xmm0, 0x200(%rsp) vdpps $0x7f, %xmm0, %xmm0, %xmm0 vucomiss 0x23dc22(%rip), %xmm0 # 0x1eeba24 vmovaps %xmm9, 0x60(%rsp) vmovaps %xmm0, 0xa0(%rsp) jb 0x1cade19 vsqrtss %xmm0, %xmm0, %xmm7 jmp 0x1cade73 vmovss %xmm10, 0x240(%rsp) vmovaps %xmm11, 0x220(%rsp) vmovss %xmm12, 0xf0(%rsp) vmovss %xmm6, 0xe0(%rsp) vzeroupper callq 0x6aa20 vmovss 0xe0(%rsp), %xmm6 vmovss 0xf0(%rsp), %xmm12 vmovaps 0x220(%rsp), %xmm11 vmovss 0x240(%rsp), %xmm10 vmovaps 0x60(%rsp), %xmm9 vmovaps %xmm0, %xmm7 vaddss %xmm11, %xmm11, %xmm0 vmulss %xmm0, %xmm9, %xmm1 vfnmadd231ss %xmm11, %xmm11, %xmm1 # xmm1 = -(xmm11 * xmm11) + xmm1 vaddss %xmm9, %xmm9, %xmm2 vmovss 0x24315e(%rip), %xmm4 # 0x1ef0fec vmulss %xmm4, %xmm9, %xmm3 vmulss %xmm3, %xmm9, %xmm3 vfmadd213ss %xmm3, %xmm2, %xmm10 # xmm10 = (xmm2 * xmm10) + xmm3 vmovaps %xmm4, %xmm2 vmovss 0x243151(%rip), %xmm4 # 0x1ef0ff8 vfmadd213ss %xmm4, %xmm9, %xmm2 # xmm2 = (xmm9 * xmm2) + xmm4 vmulss 0x24313c(%rip), %xmm11, %xmm3 # 0x1ef0ff0 vmulss %xmm3, %xmm11, %xmm3 vfmadd231ss %xmm2, %xmm0, %xmm3 # xmm3 = (xmm0 * xmm2) + xmm3 vfmadd213ss %xmm12, %xmm9, %xmm6 # xmm6 = (xmm9 * xmm6) + xmm12 vmovss 0x23ecb6(%rip), %xmm5 # 0x1eecb80 vmulss %xmm5, %xmm1, %xmm0 vmulss %xmm5, %xmm10, %xmm1 vmulss %xmm5, %xmm3, %xmm2 vmulss %xmm5, %xmm6, %xmm3 vbroadcastss %xmm3, %xmm3 vmulps 0x380(%rsp), %xmm3, %xmm3 vbroadcastss %xmm2, %xmm2 vfmadd132ps 0x3c0(%rsp), %xmm3, %xmm2 # xmm2 = (xmm2 * mem) + xmm3 vbroadcastss %xmm1, %xmm1 vfmadd132ps 0x3a0(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2 vbroadcastss %xmm0, %xmm12 vfmadd132ps 0x3e0(%rsp), %xmm1, %xmm12 # xmm12 = (xmm12 * mem) + xmm1 vdpps $0x7f, %xmm12, %xmm12, %xmm0 vxorps %xmm1, %xmm1, %xmm1 vmovss %xmm0, %xmm1, %xmm2 # xmm2 = xmm0[0],xmm1[1,2,3] vrsqrt14ss %xmm2, %xmm1, %xmm3 vmulss 0x23e7e7(%rip), %xmm3, %xmm6 # 0x1eec718 vmulss 0x23e7e3(%rip), %xmm0, %xmm8 # 0x1eec71c vrcp14ss %xmm2, %xmm1, %xmm2 vxorps 0x272f77(%rip){1to4}, %xmm0, %xmm1 # 0x1f20ec0 vmovaps %xmm2, 0xe0(%rsp) vfnmadd213ss %xmm4, %xmm0, %xmm2 # xmm2 = -(xmm0 * xmm2) + xmm4 vmovss %xmm2, 0x58(%rsp) vucomiss %xmm1, %xmm0 vmovaps %xmm12, 0x240(%rsp) vmovss %xmm7, 0x220(%rsp) vmovaps %xmm0, 0xf0(%rsp) jb 0x1cadf84 vsqrtss %xmm0, %xmm0, %xmm5 jmp 0x1cadfcc vmovaps %xmm3, 0xd0(%rsp) vmovss %xmm6, 0x2c(%rsp) vmovss %xmm8, 0x28(%rsp) vzeroupper callq 0x6aa20 vmovss 0x28(%rsp), %xmm8 vmovss 0x2c(%rsp), %xmm6 vmovaps 0xd0(%rsp), %xmm3 vmovss 0x220(%rsp), %xmm7 vmovaps 0x240(%rsp), %xmm12 vmovaps %xmm0, %xmm5 vmovaps 0x200(%rsp), %xmm10 vmovaps 0xa0(%rsp), %xmm17 vmulss %xmm3, %xmm8, %xmm0 vmulss %xmm3, %xmm3, %xmm1 vmulss %xmm1, %xmm0, %xmm0 vaddss %xmm0, %xmm6, %xmm0 vbroadcastss %xmm0, %xmm4 vmulps %xmm4, %xmm12, %xmm0 vmovaps %xmm0, 0xd0(%rsp) vdpps $0x7f, %xmm0, %xmm10, %xmm14 vaddss 0x23e707(%rip), %xmm7, %xmm13 # 0x1eec714 vmulps %xmm14, %xmm14, %xmm0 vsubps %xmm0, %xmm17, %xmm0 vxorps %xmm2, %xmm2, %xmm2 vmovss %xmm0, %xmm2, %xmm1 # xmm1 = xmm0[0],xmm2[1,2,3] vrsqrt14ss %xmm1, %xmm2, %xmm15 vmulss 0x23e6e8(%rip), %xmm15, %xmm16 # 0x1eec718 vmulss 0x23e6e4(%rip), %xmm0, %xmm1 # 0x1eec71c vmovss %xmm1, 0x2c(%rsp) vucomiss 0x23d9de(%rip), %xmm0 # 0x1eeba24 jb 0x1cae051 vsqrtss %xmm0, %xmm0, %xmm0 jmp 0x1cae0da vmovss %xmm13, 0x28(%rsp) vmovaps %xmm14, 0x460(%rsp) vmovss %xmm5, 0x4c(%rsp) vmovaps %xmm15, 0x450(%rsp) vmovss %xmm16, 0x48(%rsp) vmovaps %xmm4, 0x440(%rsp) vzeroupper callq 0x6aa20 vmovaps 0x440(%rsp), %xmm4 vmovss 0x48(%rsp), %xmm16 vmovaps 0x450(%rsp), %xmm15 vmovss 0x4c(%rsp), %xmm5 vmovaps 0x460(%rsp), %xmm14 vmovss 0x28(%rsp), %xmm13 vmovss 0x220(%rsp), %xmm7 vmovaps 0x240(%rsp), %xmm12 vmovaps 0xa0(%rsp), %xmm17 vmovaps 0x200(%rsp), %xmm10 vbroadcastss 0x272de0(%rip), %ymm28 # 0x1f20ec4 vmovaps 0x1e0(%rsp), %ymm26 vmovaps 0x1c0(%rsp), %ymm30 vmovaps 0x1a0(%rsp), %ymm18 vmovaps 0x300(%rsp), %ymm19 vmovaps 0x2e0(%rsp), %ymm20 vmovaps 0x180(%rsp), %ymm22 vmovaps 0x2c0(%rsp), %ymm24 vmovaps 0x160(%rsp), %ymm23 vmovaps 0x140(%rsp), %ymm25 vmovaps 0x2a0(%rsp), %ymm27 vmovaps 0x280(%rsp), %ymm29 vmovaps 0x260(%rsp), %ymm31 vmovaps 0x60(%rsp), %xmm9 vmovaps 0x80(%rsp), %xmm8 vbroadcastss 0x470(%rsp), %xmm1 vmulps 0x380(%rsp), %xmm1, %xmm1 vbroadcastss 0x480(%rsp), %xmm2 vfmadd132ps 0x3c0(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1 vbroadcastss 0x490(%rsp), %xmm1 vfmadd132ps 0x3a0(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2 vmovss 0x242e5a(%rip), %xmm2 # 0x1ef0ff0 vfmadd213ss 0x242e59(%rip), %xmm9, %xmm2 # xmm2 = (xmm9 * xmm2) + mem vbroadcastss %xmm2, %xmm2 vfmadd132ps 0x3e0(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1 vbroadcastss 0xf0(%rsp), %xmm1 vmulps %xmm1, %xmm2, %xmm1 vdpps $0x7f, %xmm2, %xmm12, %xmm2 vbroadcastss %xmm2, %xmm2 vmulps %xmm2, %xmm12, %xmm2 vsubps %xmm2, %xmm1, %xmm2 vmovss 0x58(%rsp), %xmm1 vmulss 0xe0(%rsp), %xmm1, %xmm3 vmulss 0x54(%rsp), %xmm8, %xmm1 vmovss 0x50(%rsp), %xmm6 vmaxss %xmm1, %xmm6, %xmm1 vbroadcastss %xmm3, %xmm3 vmulps %xmm3, %xmm2, %xmm2 vxorps 0x272cbf(%rip){1to4}, %xmm12, %xmm3 # 0x1f20ec0 vmulps %xmm2, %xmm4, %xmm2 vmovaps 0xd0(%rsp), %xmm11 vdpps $0x7f, %xmm11, %xmm3, %xmm4 vdivss %xmm5, %xmm6, %xmm5 vfmadd213ss %xmm1, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm7) + xmm1 vdpps $0x7f, %xmm2, %xmm10, %xmm2 vfmadd213ss %xmm7, %xmm5, %xmm13 # xmm13 = (xmm5 * xmm13) + xmm7 vaddss %xmm2, %xmm4, %xmm4 vmovaps 0x370(%rsp), %xmm7 vdpps $0x7f, %xmm11, %xmm7, %xmm5 vdpps $0x7f, %xmm3, %xmm10, %xmm3 vmulss 0x2c(%rsp), %xmm15, %xmm2 vmulss %xmm15, %xmm15, %xmm6 vmulss %xmm6, %xmm2, %xmm2 vaddss %xmm2, %xmm16, %xmm6 vdpps $0x7f, %xmm7, %xmm10, %xmm7 vfnmadd231ss %xmm4, %xmm14, %xmm3 # xmm3 = -(xmm14 * xmm4) + xmm3 vfnmadd231ss %xmm5, %xmm14, %xmm7 # xmm7 = -(xmm14 * xmm5) + xmm7 vpermilps $0xff, 0x4e0(%rsp), %xmm2 # xmm2 = mem[3,3,3,3] vsubss %xmm2, %xmm0, %xmm2 vshufps $0xff, %xmm12, %xmm12, %xmm0 # xmm0 = xmm12[3,3,3,3] vfmsub213ss %xmm0, %xmm6, %xmm3 # xmm3 = (xmm6 * xmm3) - xmm0 vmulss %xmm6, %xmm7, %xmm6 vmulss %xmm3, %xmm5, %xmm7 vfmsub231ss %xmm6, %xmm4, %xmm7 # xmm7 = (xmm4 * xmm6) - xmm7 vdivss %xmm7, %xmm6, %xmm6 vdivss %xmm7, %xmm3, %xmm3 vdivss %xmm7, %xmm5, %xmm5 vdivss %xmm7, %xmm4, %xmm4 vmulss %xmm6, %xmm14, %xmm6 vmulss %xmm5, %xmm2, %xmm5 vsubss %xmm5, %xmm6, %xmm5 vmulss %xmm3, %xmm14, %xmm3 vmulss %xmm4, %xmm2, %xmm4 vsubss %xmm3, %xmm4, %xmm3 vsubss %xmm5, %xmm9, %xmm9 vsubss %xmm3, %xmm8, %xmm8 vbroadcastss 0x272bfe(%rip), %xmm4 # 0x1f20ec4 vandps %xmm4, %xmm14, %xmm3 vucomiss %xmm3, %xmm13 movb $0x1, %al jbe 0x1cae322 vaddss %xmm1, %xmm13, %xmm1 vmovaps 0x420(%rsp), %xmm3 vfmadd231ss 0x243bcc(%rip), %xmm3, %xmm1 # xmm1 = (xmm3 * mem) + xmm1 vandps %xmm4, %xmm2, %xmm2 vucomiss %xmm2, %xmm1 jbe 0x1cae322 vaddss 0x430(%rsp), %xmm8, %xmm8 vucomiss 0x5c(%rsp), %xmm8 jb 0x1cae31d movq 0x30(%rsp), %rax movq 0x20(%rsp), %rcx vmovss 0x80(%rcx,%rax,4), %xmm5 vucomiss %xmm8, %xmm5 jae 0x1cae338 xorl %eax, %eax xorl %r14d, %r14d testb %al, %al je 0x1cae716 decq %r15 jne 0x1cadcb8 jmp 0x1cae713 xorl %eax, %eax vucomiss 0x23d6e2(%rip), %xmm9 # 0x1eeba24 jb 0x1cae31f vmovss 0x23e3c8(%rip), %xmm1 # 0x1eec714 vucomiss %xmm9, %xmm1 jb 0x1cae31f vxorps %xmm2, %xmm2, %xmm2 vmovss %xmm17, %xmm2, %xmm1 # xmm1 = xmm17[0],xmm2[1,2,3] vrsqrt14ss %xmm1, %xmm2, %xmm1 vmulss 0x23e3ad(%rip), %xmm1, %xmm2 # 0x1eec718 vmulss 0x23e3a7(%rip), %xmm17, %xmm3 # 0x1eec71c movq 0x38(%rsp), %rdx movq (%rdx), %rax movq 0x1e8(%rax), %rax movq 0x118(%rsp), %rcx movq (%rax,%rcx,8), %r14 movq 0x30(%rsp), %rax movq 0x20(%rsp), %rcx movl 0x90(%rcx,%rax,4), %eax testl %eax, 0x34(%r14) je 0x1cae31d movq 0x10(%rdx), %rax cmpq $0x0, 0x10(%rax) jne 0x1cae3c7 cmpq $0x0, 0x48(%r14) jne 0x1cae3c7 movb $0x1, %r14b xorl %eax, %eax jmp 0x1cae322 vmulss %xmm1, %xmm3, %xmm3 vmulss %xmm1, %xmm1, %xmm1 vmulss %xmm1, %xmm3, %xmm1 vaddss %xmm1, %xmm2, %xmm1 vbroadcastss %xmm1, %xmm1 vmulps %xmm1, %xmm10, %xmm1 vfmadd213ps %xmm12, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm0) + xmm12 vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3] vshufps $0xc9, %xmm12, %xmm12, %xmm3 # xmm3 = xmm12[1,2,0,3] vmulps %xmm3, %xmm1, %xmm1 vfmsub231ps %xmm2, %xmm12, %xmm1 # xmm1 = (xmm12 * xmm2) - xmm1 vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3] vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3] vshufps $0xd2, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,0,1,3] vmulps %xmm1, %xmm0, %xmm0 vfmsub231ps %xmm3, %xmm2, %xmm0 # xmm0 = (xmm2 * xmm3) - xmm0 movq 0x38(%rsp), %rdx movq 0x8(%rdx), %rax vbroadcastss %xmm9, %xmm1 vshufps $0x55, %xmm0, %xmm0, %xmm2 # xmm2 = xmm0[1,1,1,1] vshufps $0xaa, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[2,2,2,2] vbroadcastss %xmm0, %xmm0 vmovaps %xmm2, 0x540(%rsp) vmovaps %xmm3, 0x550(%rsp) vmovaps %xmm0, 0x560(%rsp) vmovaps %xmm1, 0x570(%rsp) vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 0x580(%rsp) vmovaps 0x530(%rsp), %xmm0 vmovaps %xmm0, 0x590(%rsp) vmovdqa 0x520(%rsp), %xmm0 vmovdqa %xmm0, 0x5a0(%rsp) leaq 0x5b0(%rsp), %rcx vpcmpeqd %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, (%rcx) vbroadcastss (%rax), %xmm0 vmovaps %xmm0, 0x5b0(%rsp) vbroadcastss 0x4(%rax), %xmm0 vmovaps %xmm0, 0x5c0(%rsp) movq 0x30(%rsp), %rax movq 0x20(%rsp), %rcx vmovss %xmm8, 0x80(%rcx,%rax,4) vmovaps 0x510(%rsp), %xmm0 vmovaps %xmm0, 0x100(%rsp) leaq 0x100(%rsp), %rax movq %rax, 0x330(%rsp) movq 0x18(%r14), %rax movq %rax, 0x338(%rsp) movq 0x8(%rdx), %rax movq %rax, 0x340(%rsp) movq %rcx, 0x348(%rsp) leaq 0x540(%rsp), %rax movq %rax, 0x350(%rsp) movl $0x4, 0x358(%rsp) movq 0x48(%r14), %rax testq %rax, %rax vmovaps %xmm9, 0x60(%rsp) vmovaps %xmm8, 0x80(%rsp) vmovss %xmm5, 0xa0(%rsp) je 0x1cae5dd leaq 0x330(%rsp), %rdi vzeroupper callq *%rax vmovss 0xa0(%rsp), %xmm5 vmovaps 0x80(%rsp), %xmm8 vmovaps 0x60(%rsp), %xmm9 vmovaps 0x260(%rsp), %ymm31 vmovaps 0x280(%rsp), %ymm29 vmovaps 0x2a0(%rsp), %ymm27 vmovaps 0x140(%rsp), %ymm25 vmovaps 0x160(%rsp), %ymm23 vmovaps 0x2c0(%rsp), %ymm24 vmovaps 0x180(%rsp), %ymm22 vmovaps 0x2e0(%rsp), %ymm20 vmovaps 0x300(%rsp), %ymm19 vmovaps 0x1a0(%rsp), %ymm18 vmovaps 0x1c0(%rsp), %ymm30 vmovaps 0x1e0(%rsp), %ymm26 vbroadcastss 0x2728f1(%rip), %xmm4 # 0x1f20ec4 vbroadcastss 0x2728e7(%rip), %ymm28 # 0x1f20ec4 vmovdqa 0x100(%rsp), %xmm0 vptestmd %xmm0, %xmm0, %k0 kortestb %k0, %k0 je 0x1cae6ef movq 0x38(%rsp), %rax movq 0x10(%rax), %rcx movq 0x10(%rcx), %rax testq %rax, %rax je 0x1cae6b4 testb $0x2, (%rcx) jne 0x1cae61c testb $0x40, 0x3e(%r14) je 0x1cae6b4 leaq 0x330(%rsp), %rdi vzeroupper callq *%rax vmovss 0xa0(%rsp), %xmm5 vmovaps 0x80(%rsp), %xmm8 vmovaps 0x60(%rsp), %xmm9 vmovaps 0x260(%rsp), %ymm31 vmovaps 0x280(%rsp), %ymm29 vmovaps 0x2a0(%rsp), %ymm27 vmovaps 0x140(%rsp), %ymm25 vmovaps 0x160(%rsp), %ymm23 vmovaps 0x2c0(%rsp), %ymm24 vmovaps 0x180(%rsp), %ymm22 vmovaps 0x2e0(%rsp), %ymm20 vmovaps 0x300(%rsp), %ymm19 vmovaps 0x1a0(%rsp), %ymm18 vmovaps 0x1c0(%rsp), %ymm30 vmovaps 0x1e0(%rsp), %ymm26 vbroadcastss 0x27281a(%rip), %xmm4 # 0x1f20ec4 vbroadcastss 0x272810(%rip), %ymm28 # 0x1f20ec4 vmovdqa 0x100(%rsp), %xmm0 vptestmd %xmm0, %xmm0, %k1 movq 0x348(%rsp), %rax vmovaps 0x80(%rax), %xmm0 vbroadcastss 0x23e4a7(%rip), %xmm0 {%k1} # 0x1eecb84 vmovaps %xmm0, 0x80(%rax) kortestb %k1, %k1 setne %r14b jmp 0x1cae6f2 xorl %r14d, %r14d testb %r14b, %r14b jne 0x1cae3c0 movq 0x30(%rsp), %rax movq 0x20(%rsp), %rcx vmovss %xmm5, 0x80(%rcx,%rax,4) jmp 0x1cae3c0 xorl %r14d, %r14d andb $0x1, %r14b orb %r14b, %r13b movq 0x30(%rsp), %rdx movq 0x20(%rsp), %rax vmovaps 0x620(%rsp), %ymm0 vcmpleps 0x80(%rax,%rdx,4){1to8}, %ymm0, %k0 kmovd %k0, %eax andb %al, %r12b jne 0x1cadbce jmp 0x1cae751 vbroadcastss 0x272773(%rip), %xmm4 # 0x1f20ec4 vmovaps 0x5e0(%rsp), %ymm3 vaddps 0x600(%rsp), %ymm3, %ymm0 movq 0x20(%rsp), %rax vcmpleps 0x80(%rax,%rdx,4){1to8}, %ymm0, %k0 kmovd 0x134(%rsp), %k1 kmovd 0x12c(%rsp), %k2 korb %k2, %k1, %k1 kmovd %k0, %eax movl 0x44(%rsp), %ecx andb %al, %cl vpbroadcastd 0x272740(%rip), %ymm0 # 0x1f20edc vpblendmd 0x272732(%rip){1to8}, %ymm0, %ymm0 {%k1} # 0x1f20ed8 vmovdqa %ymm0, 0x600(%rsp) vpcmpled 0x680(%rsp), %ymm0, %k0 kmovd %k0, %r12d movl %ecx, 0x44(%rsp) andb %cl, %r12b je 0x1caf3c3 vmovaps 0x6e0(%rsp), %ymm7 vmovaps 0x3e0(%rsp), %ymm1 vmovaps 0x3a0(%rsp), %ymm2 vminps %xmm2, %xmm1, %xmm0 vmaxps %xmm2, %xmm1, %xmm1 vmovaps 0x3c0(%rsp), %ymm5 vmovaps 0x380(%rsp), %ymm6 vminps %xmm6, %xmm5, %xmm2 vminps %xmm2, %xmm0, %xmm0 vmaxps %xmm6, %xmm5, %xmm2 vmaxps %xmm2, %xmm1, %xmm1 vandps %xmm4, %xmm0, %xmm0 vandps %xmm4, %xmm1, %xmm2 vmaxps %xmm2, %xmm0, %xmm0 vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3] vmaxss %xmm0, %xmm2, %xmm2 vshufpd $0x1, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[1,0] vmaxss %xmm2, %xmm0, %xmm0 vmulss 0x243681(%rip), %xmm0, %xmm0 # 0x1ef1eb4 vmovss %xmm0, 0x50(%rsp) vshufps $0xff, %xmm1, %xmm1, %xmm0 # xmm0 = xmm1[3,3,3,3] vmovaps %xmm0, 0x420(%rsp) vmovaps %ymm7, 0x4c0(%rsp) vaddps %ymm7, %ymm3, %ymm0 vmovaps %ymm0, 0x620(%rsp) kmovd %r12d, %k1 vbroadcastss 0x23d1b5(%rip), %ymm0 # 0x1eeba20 vblendmps 0x4c0(%rsp), %ymm0, %ymm0 {%k1} vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm0, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1] vminps %ymm2, %ymm1, %ymm1 vcmpeqps %ymm1, %ymm0, %k0 kmovd %k0, %eax andb %r12b, %al movzbl %al, %eax movzbl %r12b, %ecx cmovnel %eax, %ecx tzcntl %ecx, %ecx movb $0x1, %r14b shlb %cl, %r14b shll $0x2, %ecx vmovss 0x640(%rsp,%rcx), %xmm9 vmovss 0x700(%rsp,%rcx), %xmm8 vmovaps 0x360(%rsp), %xmm0 vucomiss 0x23d14d(%rip), %xmm0 # 0x1eeba24 vmovss 0x13c(%rsp), %xmm0 jae 0x1cae923 vmovaps 0x360(%rsp), %xmm0 vmovaps %xmm9, 0x60(%rsp) vmovaps %xmm8, 0x80(%rsp) kmovw %k1, 0x200(%rsp) vzeroupper callq 0x6aa20 kmovw 0x200(%rsp), %k1 vmovaps 0x80(%rsp), %xmm8 vmovaps 0x60(%rsp), %xmm9 movzbl %r14b, %eax kmovd %eax, %k0 kandnb %k1, %k0, %k0 kmovd %k0, %r12d vmulss 0x243579(%rip), %xmm0, %xmm0 # 0x1ef1eb4 vmovss %xmm0, 0x54(%rsp) movl $0x5, %r15d vmovaps %xmm8, 0x80(%rsp) vbroadcastss %xmm8, %xmm0 vxorps %xmm1, %xmm1, %xmm1 vfmadd132ps 0x370(%rsp), %xmm1, %xmm0 # xmm0 = (xmm0 * mem) + xmm1 vmovss 0x23dda9(%rip), %xmm1 # 0x1eec714 vsubss %xmm9, %xmm1, %xmm11 vbroadcastss 0x272547(%rip), %xmm6 # 0x1f20ec0 vxorps %xmm6, %xmm9, %xmm1 vmulss %xmm1, %xmm11, %xmm1 vmulss %xmm1, %xmm11, %xmm1 vmulss %xmm9, %xmm9, %xmm12 vmovss 0x24265a(%rip), %xmm8 # 0x1ef0fec vmovaps %xmm8, %xmm10 vmovss 0x242665(%rip), %xmm7 # 0x1ef1004 vfmadd213ss %xmm7, %xmm9, %xmm10 # xmm10 = (xmm9 * xmm10) + xmm7 vmovaps %xmm10, %xmm2 vmovss 0x242648(%rip), %xmm5 # 0x1ef0ff8 vfmadd213ss %xmm5, %xmm12, %xmm2 # xmm2 = (xmm12 * xmm2) + xmm5 vmulss %xmm11, %xmm11, %xmm3 vmovaps %xmm8, %xmm4 vfmadd213ss %xmm7, %xmm11, %xmm4 # xmm4 = (xmm11 * xmm4) + xmm7 vfmadd213ss %xmm5, %xmm3, %xmm4 # xmm4 = (xmm3 * xmm4) + xmm5 vxorps %xmm6, %xmm11, %xmm3 vmulss %xmm3, %xmm9, %xmm3 vmulss %xmm3, %xmm9, %xmm3 vmovss 0x23e1a4(%rip), %xmm5 # 0x1eecb80 vmulss %xmm5, %xmm1, %xmm1 vmulss %xmm5, %xmm2, %xmm2 vmulss %xmm5, %xmm4, %xmm4 vmulss %xmm5, %xmm3, %xmm3 vbroadcastss %xmm3, %xmm3 vmulps 0x380(%rsp), %xmm3, %xmm3 vbroadcastss %xmm4, %xmm4 vfmadd132ps 0x3c0(%rsp), %xmm3, %xmm4 # xmm4 = (xmm4 * mem) + xmm3 vbroadcastss %xmm2, %xmm2 vfmadd132ps 0x3a0(%rsp), %xmm4, %xmm2 # xmm2 = (xmm2 * mem) + xmm4 vbroadcastss %xmm1, %xmm3 vfmadd132ps 0x3e0(%rsp), %xmm2, %xmm3 # xmm3 = (xmm3 * mem) + xmm2 vmulss 0x241fad(%rip), %xmm11, %xmm6 # 0x1ef09dc vfmadd231ss 0x2425d0(%rip), %xmm9, %xmm7 # xmm7 = (xmm9 * mem) + xmm7 vmovaps %xmm7, 0x490(%rsp) vmovss 0x2425c3(%rip), %xmm1 # 0x1ef100c vfmadd213ss 0x23e13a(%rip), %xmm9, %xmm1 # xmm1 = (xmm9 * xmm1) + mem vmovaps %xmm1, 0x480(%rsp) vfmadd213ss 0x241f68(%rip), %xmm9, %xmm8 # xmm8 = (xmm9 * xmm8) + mem vmovaps %xmm8, 0x470(%rsp) vmovaps %xmm3, 0x4e0(%rsp) vsubps %xmm3, %xmm0, %xmm0 vmovaps %xmm0, 0x200(%rsp) vdpps $0x7f, %xmm0, %xmm0, %xmm0 vucomiss 0x23cf93(%rip), %xmm0 # 0x1eeba24 vmovaps %xmm9, 0x60(%rsp) vmovaps %xmm0, 0xa0(%rsp) jb 0x1caeaa8 vsqrtss %xmm0, %xmm0, %xmm7 jmp 0x1caeb02 vmovss %xmm10, 0x240(%rsp) vmovaps %xmm11, 0x220(%rsp) vmovss %xmm12, 0xf0(%rsp) vmovss %xmm6, 0xe0(%rsp) vzeroupper callq 0x6aa20 vmovss 0xe0(%rsp), %xmm6 vmovss 0xf0(%rsp), %xmm12 vmovaps 0x220(%rsp), %xmm11 vmovss 0x240(%rsp), %xmm10 vmovaps 0x60(%rsp), %xmm9 vmovaps %xmm0, %xmm7 vaddss %xmm11, %xmm11, %xmm0 vmulss %xmm0, %xmm9, %xmm1 vfnmadd231ss %xmm11, %xmm11, %xmm1 # xmm1 = -(xmm11 * xmm11) + xmm1 vaddss %xmm9, %xmm9, %xmm2 vmovss 0x2424cf(%rip), %xmm4 # 0x1ef0fec vmulss %xmm4, %xmm9, %xmm3 vmulss %xmm3, %xmm9, %xmm3 vfmadd213ss %xmm3, %xmm2, %xmm10 # xmm10 = (xmm2 * xmm10) + xmm3 vmovaps %xmm4, %xmm2 vmovss 0x2424c2(%rip), %xmm4 # 0x1ef0ff8 vfmadd213ss %xmm4, %xmm9, %xmm2 # xmm2 = (xmm9 * xmm2) + xmm4 vmulss 0x2424ad(%rip), %xmm11, %xmm3 # 0x1ef0ff0 vmulss %xmm3, %xmm11, %xmm3 vfmadd231ss %xmm2, %xmm0, %xmm3 # xmm3 = (xmm0 * xmm2) + xmm3 vfmadd213ss %xmm12, %xmm9, %xmm6 # xmm6 = (xmm9 * xmm6) + xmm12 vmovss 0x23e027(%rip), %xmm5 # 0x1eecb80 vmulss %xmm5, %xmm1, %xmm0 vmulss %xmm5, %xmm10, %xmm1 vmulss %xmm5, %xmm3, %xmm2 vmulss %xmm5, %xmm6, %xmm3 vbroadcastss %xmm3, %xmm3 vmulps 0x380(%rsp), %xmm3, %xmm3 vbroadcastss %xmm2, %xmm2 vfmadd132ps 0x3c0(%rsp), %xmm3, %xmm2 # xmm2 = (xmm2 * mem) + xmm3 vbroadcastss %xmm1, %xmm1 vfmadd132ps 0x3a0(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2 vbroadcastss %xmm0, %xmm12 vfmadd132ps 0x3e0(%rsp), %xmm1, %xmm12 # xmm12 = (xmm12 * mem) + xmm1 vdpps $0x7f, %xmm12, %xmm12, %xmm0 vxorps %xmm1, %xmm1, %xmm1 vmovss %xmm0, %xmm1, %xmm2 # xmm2 = xmm0[0],xmm1[1,2,3] vrsqrt14ss %xmm2, %xmm1, %xmm3 vmulss 0x23db58(%rip), %xmm3, %xmm6 # 0x1eec718 vmulss 0x23db54(%rip), %xmm0, %xmm8 # 0x1eec71c vrcp14ss %xmm2, %xmm1, %xmm2 vxorps 0x2722e8(%rip){1to4}, %xmm0, %xmm1 # 0x1f20ec0 vmovaps %xmm2, 0xe0(%rsp) vfnmadd213ss %xmm4, %xmm0, %xmm2 # xmm2 = -(xmm0 * xmm2) + xmm4 vmovss %xmm2, 0x58(%rsp) vucomiss %xmm1, %xmm0 vmovaps %xmm12, 0x240(%rsp) vmovss %xmm7, 0x220(%rsp) vmovaps %xmm0, 0xf0(%rsp) jb 0x1caec13 vsqrtss %xmm0, %xmm0, %xmm5 jmp 0x1caec5b vmovaps %xmm3, 0xd0(%rsp) vmovss %xmm6, 0x2c(%rsp) vmovss %xmm8, 0x28(%rsp) vzeroupper callq 0x6aa20 vmovss 0x28(%rsp), %xmm8 vmovss 0x2c(%rsp), %xmm6 vmovaps 0xd0(%rsp), %xmm3 vmovss 0x220(%rsp), %xmm7 vmovaps 0x240(%rsp), %xmm12 vmovaps %xmm0, %xmm5 vmovaps 0x200(%rsp), %xmm10 vmovaps 0xa0(%rsp), %xmm17 vmulss %xmm3, %xmm8, %xmm0 vmulss %xmm3, %xmm3, %xmm1 vmulss %xmm1, %xmm0, %xmm0 vaddss %xmm0, %xmm6, %xmm0 vbroadcastss %xmm0, %xmm4 vmulps %xmm4, %xmm12, %xmm0 vmovaps %xmm0, 0xd0(%rsp) vdpps $0x7f, %xmm0, %xmm10, %xmm14 vaddss 0x23da78(%rip), %xmm7, %xmm13 # 0x1eec714 vmulps %xmm14, %xmm14, %xmm0 vsubps %xmm0, %xmm17, %xmm0 vxorps %xmm2, %xmm2, %xmm2 vmovss %xmm0, %xmm2, %xmm1 # xmm1 = xmm0[0],xmm2[1,2,3] vrsqrt14ss %xmm1, %xmm2, %xmm15 vmulss 0x23da59(%rip), %xmm15, %xmm16 # 0x1eec718 vmulss 0x23da55(%rip), %xmm0, %xmm1 # 0x1eec71c vmovss %xmm1, 0x2c(%rsp) vucomiss 0x23cd4f(%rip), %xmm0 # 0x1eeba24 jb 0x1caece0 vsqrtss %xmm0, %xmm0, %xmm0 jmp 0x1caed69 vmovss %xmm13, 0x28(%rsp) vmovaps %xmm14, 0x460(%rsp) vmovss %xmm5, 0x4c(%rsp) vmovaps %xmm15, 0x450(%rsp) vmovss %xmm16, 0x48(%rsp) vmovaps %xmm4, 0x440(%rsp) vzeroupper callq 0x6aa20 vmovaps 0x440(%rsp), %xmm4 vmovss 0x48(%rsp), %xmm16 vmovaps 0x450(%rsp), %xmm15 vmovss 0x4c(%rsp), %xmm5 vmovaps 0x460(%rsp), %xmm14 vmovss 0x28(%rsp), %xmm13 vmovss 0x220(%rsp), %xmm7 vmovaps 0x240(%rsp), %xmm12 vmovaps 0xa0(%rsp), %xmm17 vmovaps 0x200(%rsp), %xmm10 vbroadcastss 0x272151(%rip), %ymm28 # 0x1f20ec4 vmovaps 0x1e0(%rsp), %ymm26 vmovaps 0x1c0(%rsp), %ymm30 vmovaps 0x1a0(%rsp), %ymm18 vmovaps 0x300(%rsp), %ymm19 vmovaps 0x2e0(%rsp), %ymm20 vmovaps 0x180(%rsp), %ymm22 vmovaps 0x2c0(%rsp), %ymm24 vmovaps 0x160(%rsp), %ymm23 vmovaps 0x140(%rsp), %ymm25 vmovaps 0x2a0(%rsp), %ymm27 vmovaps 0x280(%rsp), %ymm29 vmovaps 0x260(%rsp), %ymm31 vmovaps 0x60(%rsp), %xmm9 vmovaps 0x80(%rsp), %xmm8 vbroadcastss 0x470(%rsp), %xmm1 vmulps 0x380(%rsp), %xmm1, %xmm1 vbroadcastss 0x480(%rsp), %xmm2 vfmadd132ps 0x3c0(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1 vbroadcastss 0x490(%rsp), %xmm1 vfmadd132ps 0x3a0(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2 vmovss 0x2421cb(%rip), %xmm2 # 0x1ef0ff0 vfmadd213ss 0x2421ca(%rip), %xmm9, %xmm2 # xmm2 = (xmm9 * xmm2) + mem vbroadcastss %xmm2, %xmm2 vfmadd132ps 0x3e0(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1 vbroadcastss 0xf0(%rsp), %xmm1 vmulps %xmm1, %xmm2, %xmm1 vdpps $0x7f, %xmm2, %xmm12, %xmm2 vbroadcastss %xmm2, %xmm2 vmulps %xmm2, %xmm12, %xmm2 vsubps %xmm2, %xmm1, %xmm2 vmovss 0x58(%rsp), %xmm1 vmulss 0xe0(%rsp), %xmm1, %xmm3 vmulss 0x54(%rsp), %xmm8, %xmm1 vmovss 0x50(%rsp), %xmm6 vmaxss %xmm1, %xmm6, %xmm1 vbroadcastss %xmm3, %xmm3 vmulps %xmm3, %xmm2, %xmm2 vxorps 0x272030(%rip){1to4}, %xmm12, %xmm3 # 0x1f20ec0 vmulps %xmm2, %xmm4, %xmm2 vmovaps 0xd0(%rsp), %xmm11 vdpps $0x7f, %xmm11, %xmm3, %xmm4 vdivss %xmm5, %xmm6, %xmm5 vfmadd213ss %xmm1, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm7) + xmm1 vdpps $0x7f, %xmm2, %xmm10, %xmm2 vfmadd213ss %xmm7, %xmm5, %xmm13 # xmm13 = (xmm5 * xmm13) + xmm7 vaddss %xmm2, %xmm4, %xmm4 vmovaps 0x370(%rsp), %xmm7 vdpps $0x7f, %xmm11, %xmm7, %xmm5 vdpps $0x7f, %xmm3, %xmm10, %xmm3 vmulss 0x2c(%rsp), %xmm15, %xmm2 vmulss %xmm15, %xmm15, %xmm6 vmulss %xmm6, %xmm2, %xmm2 vaddss %xmm2, %xmm16, %xmm6 vdpps $0x7f, %xmm7, %xmm10, %xmm7 vfnmadd231ss %xmm4, %xmm14, %xmm3 # xmm3 = -(xmm14 * xmm4) + xmm3 vfnmadd231ss %xmm5, %xmm14, %xmm7 # xmm7 = -(xmm14 * xmm5) + xmm7 vpermilps $0xff, 0x4e0(%rsp), %xmm2 # xmm2 = mem[3,3,3,3] vsubss %xmm2, %xmm0, %xmm2 vshufps $0xff, %xmm12, %xmm12, %xmm0 # xmm0 = xmm12[3,3,3,3] vfmsub213ss %xmm0, %xmm6, %xmm3 # xmm3 = (xmm6 * xmm3) - xmm0 vmulss %xmm6, %xmm7, %xmm6 vmulss %xmm3, %xmm5, %xmm7 vfmsub231ss %xmm6, %xmm4, %xmm7 # xmm7 = (xmm4 * xmm6) - xmm7 vdivss %xmm7, %xmm6, %xmm6 vdivss %xmm7, %xmm3, %xmm3 vdivss %xmm7, %xmm5, %xmm5 vdivss %xmm7, %xmm4, %xmm4 vmulss %xmm6, %xmm14, %xmm6 vmulss %xmm5, %xmm2, %xmm5 vsubss %xmm5, %xmm6, %xmm5 vmulss %xmm3, %xmm14, %xmm3 vmulss %xmm4, %xmm2, %xmm4 vsubss %xmm3, %xmm4, %xmm3 vsubss %xmm5, %xmm9, %xmm9 vsubss %xmm3, %xmm8, %xmm8 vbroadcastss 0x271f6f(%rip), %xmm4 # 0x1f20ec4 vandps %xmm4, %xmm14, %xmm3 vucomiss %xmm3, %xmm13 movb $0x1, %al jbe 0x1caefb1 vaddss %xmm1, %xmm13, %xmm1 vmovaps 0x420(%rsp), %xmm3 vfmadd231ss 0x242f3d(%rip), %xmm3, %xmm1 # xmm1 = (xmm3 * mem) + xmm1 vandps %xmm4, %xmm2, %xmm2 vucomiss %xmm2, %xmm1 jbe 0x1caefb1 vaddss 0x430(%rsp), %xmm8, %xmm8 vucomiss 0x5c(%rsp), %xmm8 jb 0x1caefac movq 0x30(%rsp), %rax movq 0x20(%rsp), %rcx vmovss 0x80(%rcx,%rax,4), %xmm4 vucomiss %xmm8, %xmm4 jae 0x1caefc7 xorl %eax, %eax xorl %r14d, %r14d testb %al, %al je 0x1caf393 decq %r15 jne 0x1cae947 jmp 0x1caf390 xorl %eax, %eax vucomiss 0x23ca53(%rip), %xmm9 # 0x1eeba24 jb 0x1caefae vmovss 0x23d739(%rip), %xmm1 # 0x1eec714 vucomiss %xmm9, %xmm1 jb 0x1caefae vxorps %xmm2, %xmm2, %xmm2 vmovss %xmm17, %xmm2, %xmm1 # xmm1 = xmm17[0],xmm2[1,2,3] vrsqrt14ss %xmm1, %xmm2, %xmm1 vmulss 0x23d71e(%rip), %xmm1, %xmm2 # 0x1eec718 vmulss 0x23d718(%rip), %xmm17, %xmm3 # 0x1eec71c movq 0x38(%rsp), %rdx movq (%rdx), %rax movq 0x1e8(%rax), %rax movq 0x118(%rsp), %rcx movq (%rax,%rcx,8), %r14 movq 0x30(%rsp), %rax movq 0x20(%rsp), %rcx movl 0x90(%rcx,%rax,4), %eax testl %eax, 0x34(%r14) je 0x1caefac movq 0x10(%rdx), %rax cmpq $0x0, 0x10(%rax) jne 0x1caf056 cmpq $0x0, 0x48(%r14) jne 0x1caf056 movb $0x1, %r14b xorl %eax, %eax jmp 0x1caefb1 vmulss %xmm1, %xmm3, %xmm3 vmulss %xmm1, %xmm1, %xmm1 vmulss %xmm1, %xmm3, %xmm1 vaddss %xmm1, %xmm2, %xmm1 vbroadcastss %xmm1, %xmm1 vmulps %xmm1, %xmm10, %xmm1 vfmadd213ps %xmm12, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm0) + xmm12 vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3] vshufps $0xc9, %xmm12, %xmm12, %xmm3 # xmm3 = xmm12[1,2,0,3] vmulps %xmm3, %xmm1, %xmm1 vfmsub231ps %xmm2, %xmm12, %xmm1 # xmm1 = (xmm12 * xmm2) - xmm1 vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3] vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3] vshufps $0xd2, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,0,1,3] vmulps %xmm1, %xmm0, %xmm0 vfmsub231ps %xmm3, %xmm2, %xmm0 # xmm0 = (xmm2 * xmm3) - xmm0 movq 0x38(%rsp), %rdx movq 0x8(%rdx), %rax vbroadcastss %xmm9, %xmm1 vshufps $0x55, %xmm0, %xmm0, %xmm2 # xmm2 = xmm0[1,1,1,1] vshufps $0xaa, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[2,2,2,2] vbroadcastss %xmm0, %xmm0 vmovaps %xmm2, 0x540(%rsp) vmovaps %xmm3, 0x550(%rsp) vmovaps %xmm0, 0x560(%rsp) vmovaps %xmm1, 0x570(%rsp) vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 0x580(%rsp) vmovaps 0x530(%rsp), %xmm0 vmovaps %xmm0, 0x590(%rsp) vmovdqa 0x520(%rsp), %xmm0 vmovdqa %xmm0, 0x5a0(%rsp) leaq 0x5b0(%rsp), %rcx vpcmpeqd %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, (%rcx) vbroadcastss (%rax), %xmm0 vmovaps %xmm0, 0x5b0(%rsp) vbroadcastss 0x4(%rax), %xmm0 vmovaps %xmm0, 0x5c0(%rsp) movq 0x30(%rsp), %rax movq 0x20(%rsp), %rcx vmovss %xmm8, 0x80(%rcx,%rax,4) vmovaps 0x510(%rsp), %xmm0 vmovaps %xmm0, 0x100(%rsp) leaq 0x100(%rsp), %rax movq %rax, 0x330(%rsp) movq 0x18(%r14), %rax movq %rax, 0x338(%rsp) movq 0x8(%rdx), %rax movq %rax, 0x340(%rsp) movq %rcx, 0x348(%rsp) leaq 0x540(%rsp), %rax movq %rax, 0x350(%rsp) movl $0x4, 0x358(%rsp) movq 0x48(%r14), %rax testq %rax, %rax vmovaps %xmm9, 0x60(%rsp) vmovaps %xmm8, 0x80(%rsp) vmovss %xmm4, 0xa0(%rsp) je 0x1caf263 leaq 0x330(%rsp), %rdi vzeroupper callq *%rax vmovss 0xa0(%rsp), %xmm4 vmovaps 0x80(%rsp), %xmm8 vmovaps 0x60(%rsp), %xmm9 vmovaps 0x260(%rsp), %ymm31 vmovaps 0x280(%rsp), %ymm29 vmovaps 0x2a0(%rsp), %ymm27 vmovaps 0x140(%rsp), %ymm25 vmovaps 0x160(%rsp), %ymm23 vmovaps 0x2c0(%rsp), %ymm24 vmovaps 0x180(%rsp), %ymm22 vmovaps 0x2e0(%rsp), %ymm20 vmovaps 0x300(%rsp), %ymm19 vmovaps 0x1a0(%rsp), %ymm18 vmovaps 0x1c0(%rsp), %ymm30 vmovaps 0x1e0(%rsp), %ymm26 vbroadcastss 0x271c61(%rip), %ymm28 # 0x1f20ec4 vmovdqa 0x100(%rsp), %xmm0 vptestmd %xmm0, %xmm0, %k0 kortestb %k0, %k0 je 0x1caf36c movq 0x38(%rsp), %rax movq 0x10(%rax), %rcx movq 0x10(%rcx), %rax testq %rax, %rax je 0x1caf331 testb $0x2, (%rcx) jne 0x1caf2a2 testb $0x40, 0x3e(%r14) je 0x1caf331 leaq 0x330(%rsp), %rdi vzeroupper callq *%rax vmovss 0xa0(%rsp), %xmm4 vmovaps 0x80(%rsp), %xmm8 vmovaps 0x60(%rsp), %xmm9 vmovaps 0x260(%rsp), %ymm31 vmovaps 0x280(%rsp), %ymm29 vmovaps 0x2a0(%rsp), %ymm27 vmovaps 0x140(%rsp), %ymm25 vmovaps 0x160(%rsp), %ymm23 vmovaps 0x2c0(%rsp), %ymm24 vmovaps 0x180(%rsp), %ymm22 vmovaps 0x2e0(%rsp), %ymm20 vmovaps 0x300(%rsp), %ymm19 vmovaps 0x1a0(%rsp), %ymm18 vmovaps 0x1c0(%rsp), %ymm30 vmovaps 0x1e0(%rsp), %ymm26 vbroadcastss 0x271b93(%rip), %ymm28 # 0x1f20ec4 vmovdqa 0x100(%rsp), %xmm0 vptestmd %xmm0, %xmm0, %k1 movq 0x348(%rsp), %rax vmovaps 0x80(%rax), %xmm0 vbroadcastss 0x23d82a(%rip), %xmm0 {%k1} # 0x1eecb84 vmovaps %xmm0, 0x80(%rax) kortestb %k1, %k1 setne %r14b jmp 0x1caf36f xorl %r14d, %r14d testb %r14b, %r14b jne 0x1caf04f movq 0x30(%rsp), %rax movq 0x20(%rsp), %rcx vmovss %xmm4, 0x80(%rcx,%rax,4) jmp 0x1caf04f xorl %r14d, %r14d andb $0x1, %r14b orb %r14b, %r13b movq 0x30(%rsp), %rdx movq 0x20(%rsp), %rax vmovaps 0x620(%rsp), %ymm0 vcmpleps 0x80(%rax,%rdx,4){1to8}, %ymm0, %k0 kmovd %k0, %eax andb %al, %r12b jne 0x1cae85d vmovdqa 0x680(%rsp), %ymm1 vpcmpltd 0x600(%rsp), %ymm1, %k1 vmovaps 0x840(%rsp), %ymm0 vpcmpltd 0x720(%rsp), %ymm1, %k2 vmovaps 0x5e0(%rsp), %ymm3 vaddps %ymm0, %ymm3, %ymm1 movq 0x20(%rsp), %rax vbroadcastss 0x80(%rax,%rdx,4), %ymm2 vcmpleps %ymm2, %ymm1, %k0 {%k2} kmovd %k0, %eax movl 0x130(%rsp), %ecx andb %al, %cl vmovaps 0x6e0(%rsp), %ymm1 vaddps %ymm1, %ymm3, %ymm3 vcmpleps %ymm2, %ymm3, %k0 {%k1} kmovd %k0, %eax movl 0x44(%rsp), %esi andb %al, %sil orb %cl, %sil je 0x1caf485 movl %ebx, %eax leaq (%rax,%rax,2), %rax shlq $0x5, %rax movb %sil, 0x880(%rsp,%rax) kmovd %ecx, %k1 vmovaps %ymm0, %ymm1 {%k1} vmovaps %ymm1, 0x8a0(%rsp,%rax) vmovaps 0x410(%rsp), %xmm0 vmovlps %xmm0, 0x8c0(%rsp,%rax) movq 0x120(%rsp), %rcx incl %ecx movl %ecx, 0x8c8(%rsp,%rax) incl %ebx movq 0x320(%rsp), %r8 movq 0x38(%rsp), %r14 movb 0x1f(%rsp), %r15b movq 0x328(%rsp), %r12 vbroadcastss 0x271a18(%rip), %ymm2 # 0x1f20ec0 vmovaps 0x4a0(%rsp), %ymm3 testl %ebx, %ebx je 0x1caf641 leal -0x1(%rbx), %r9d leaq (%r9,%r9,2), %rcx shlq $0x5, %rcx vmovaps 0x8a0(%rsp,%rcx), %ymm0 movzbl 0x880(%rsp,%rcx), %esi vaddps 0x5e0(%rsp), %ymm0, %ymm1 movq 0x20(%rsp), %rax vcmpleps 0x80(%rax,%rdx,4){1to8}, %ymm1, %k0 kmovb %k0, %eax andl %esi, %eax je 0x1caf5c0 kmovd %eax, %k1 vbroadcastss 0x23c51a(%rip), %ymm1 # 0x1eeba20 vblendmps %ymm0, %ymm1, %ymm0 {%k1} vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm0, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1] vminps %ymm2, %ymm1, %ymm1 vcmpeqps %ymm1, %ymm0, %k0 kmovd %k0, %esi andb %al, %sil je 0x1caf53e movzbl %sil, %edi jmp 0x1caf541 movzbl %al, %edi leaq (%rsp,%rcx), %rsi addq $0x880, %rsi # imm = 0x880 vmovss 0x44(%rsi), %xmm0 tzcntl %edi, %ecx movb $0x1, %dil shlb %cl, %dil movl 0x48(%rsi), %r10d movq %r10, 0x120(%rsp) movzbl %dil, %edi kmovd %edi, %k0 kmovd %eax, %k1 kandnb %k1, %k0, %k0 kmovb %k0, (%rsi) kortestb %k0, %k0 vbroadcastss 0x271938(%rip), %ymm2 # 0x1f20ec0 je 0x1caf58d movl %ebx, %r9d vbroadcastss 0x40(%rsi), %ymm1 vsubss %xmm1, %xmm0, %xmm0 vbroadcastss %xmm0, %ymm0 vfmadd132ps 0x27197b(%rip), %ymm1, %ymm0 # ymm0 = (ymm0 * mem) + ymm1 vmovaps %ymm0, 0x540(%rsp) vmovsd 0x540(%rsp,%rcx,4), %xmm0 vmovaps %xmm0, 0x410(%rsp) movl %r9d, %ebx testb %al, %al je 0x1caf4b1 vmovaps 0x7a0(%rsp), %ymm6 vmovaps 0x780(%rsp), %ymm16 vmovaps 0x760(%rsp), %ymm21 vmovdqa 0x410(%rsp), %xmm1 jmp 0x1caceda vcmpleps 0x271903(%rip), %ymm4, %k2 # 0x1f20f00 vbroadcastss 0x23d57e(%rip), %ymm4 # 0x1eecb84 vbroadcastss 0x23c410(%rip), %ymm16 # 0x1eeba20 vblendmps %ymm4, %ymm16, %ymm3 {%k2} vmovaps %ymm3, %ymm30 {%k1} vblendmps %ymm16, %ymm4, %ymm3 {%k2} kmovd %k2, %ecx vmovaps %ymm3, %ymm31 {%k1} knotb %k1, %k0 kmovd %k0, %esi orb %cl, %sil andb %al, %sil movl %esi, %eax jmp 0x1cad45a testb $0x1, %r13b jne 0x1caf66f movq 0x20(%rsp), %rax vmovaps 0x740(%rsp), %ymm0 vcmpleps 0x80(%rax,%rdx,4){1to8}, %ymm0, %k0 kmovb %k0, %eax andl %eax, %r12d setne %r15b jne 0x1cacb58 andb $0x1, %r15b movl %r15d, %eax leaq -0x28(%rbp), %rsp popq %rbx popq %r12 popq %r13 popq %r14 popq %r15 popq %rbp vzeroupper retq
/embree[P]embree/kernels/geometry/curveNi_intersector.h
void embree::avx512::CurveNiIntersectorK<8, 8>::intersect_t<embree::avx512::SweepCurve1IntersectorK<embree::CatmullRomCurveT, 8>, embree::avx512::Intersect1KEpilog1<8, true>>(embree::avx512::CurvePrecalculationsK<8>&, embree::RayHitK<8>&, unsigned long, embree::RayQueryContext*, embree::CurveNi<8> const&)
static __forceinline void intersect_t(Precalculations& pre, RayHitK<K>& ray, const size_t k, RayQueryContext* context, const Primitive& prim) { vfloat<M> tNear; vbool<M> valid = intersect(ray,k,prim,tNear); const size_t N = prim.N; size_t mask = movemask(valid); while (mask) { const size_t i = bscf(mask); STAT3(normal.trav_prims,1,1,1); const unsigned int geomID = prim.geomID(N); const unsigned int primID = prim.primID(N)[i]; const CurveGeometry* geom = context->scene->get<CurveGeometry>(geomID); Vec3ff a0,a1,a2,a3; geom->gather(a0,a1,a2,a3,geom->curve(primID)); size_t mask1 = mask; const size_t i1 = bscf(mask1); if (mask) { const unsigned int primID1 = prim.primID(N)[i1]; geom->prefetchL1_vertices(geom->curve(primID1)); if (mask1) { const size_t i2 = bsf(mask1); const unsigned int primID2 = prim.primID(N)[i2]; geom->prefetchL2_vertices(geom->curve(primID2)); } } Intersector().intersect(pre,ray,k,context,geom,primID,a0,a1,a2,a3,Epilog(ray,k,context,geomID,primID)); mask &= movemask(tNear <= vfloat<M>(ray.tfar[k])); } }
pushq %rbp movq %rsp, %rbp pushq %r15 pushq %r14 pushq %r13 pushq %r12 pushq %rbx andq $-0x20, %rsp subq $0xaa0, %rsp # imm = 0xAA0 movq %rcx, %r15 movq %rsi, %r12 movzbl 0x1(%r8), %ecx leaq (%rcx,%rcx,4), %rax leaq (%rax,%rax,4), %rsi vbroadcastss 0x12(%r8,%rsi), %xmm0 vmovss (%r12,%rdx,4), %xmm1 vmovss 0x80(%r12,%rdx,4), %xmm2 vinsertps $0x10, 0x20(%r12,%rdx,4), %xmm1, %xmm1 # xmm1 = xmm1[0],mem[0],xmm1[2,3] vinsertps $0x20, 0x40(%r12,%rdx,4), %xmm1, %xmm1 # xmm1 = xmm1[0,1],mem[0],xmm1[3] vinsertps $0x10, 0xa0(%r12,%rdx,4), %xmm2, %xmm2 # xmm2 = xmm2[0],mem[0],xmm2[2,3] vinsertps $0x20, 0xc0(%r12,%rdx,4), %xmm2, %xmm2 # xmm2 = xmm2[0,1],mem[0],xmm2[3] vsubps 0x6(%r8,%rsi), %xmm1, %xmm1 vmulps %xmm1, %xmm0, %xmm3 vmulps %xmm2, %xmm0, %xmm0 vpmovsxbd 0x6(%r8,%rcx,4), %ymm1 vpmovsxbd 0x6(%r8,%rax), %ymm2 vcvtdq2ps %ymm1, %ymm5 vcvtdq2ps %ymm2, %ymm6 leaq (%rcx,%rcx,2), %r9 vpmovsxbd 0x6(%r8,%r9,2), %ymm1 vcvtdq2ps %ymm1, %ymm4 leaq (%rcx,%rax,2), %rsi vpmovsxbd 0x6(%r8,%rsi), %ymm1 leal (,%r9,4), %esi vpmovsxbd 0x6(%r8,%rsi), %ymm2 vcvtdq2ps %ymm1, %ymm7 vcvtdq2ps %ymm2, %ymm8 addq %rcx, %rsi vpmovsxbd 0x6(%r8,%rsi), %ymm1 vcvtdq2ps %ymm1, %ymm9 leaq (%rcx,%rcx,8), %rsi leal (%rsi,%rsi), %edi vpmovsxbd 0x6(%r8,%rdi), %ymm1 vcvtdq2ps %ymm1, %ymm10 addq %rcx, %rdi vpmovsxbd 0x6(%r8,%rdi), %ymm1 vcvtdq2ps %ymm1, %ymm11 shll $0x2, %eax vpmovsxbd 0x6(%r8,%rax), %ymm1 vcvtdq2ps %ymm1, %ymm12 vbroadcastss %xmm0, %ymm13 vbroadcastss 0x262f74(%rip), %ymm15 # 0x1f12704 vbroadcastss 0x271742(%rip), %ymm16 # 0x1f20edc vpermps %ymm0, %ymm15, %ymm14 vpermps %ymm0, %ymm16, %ymm0 vmulps %ymm4, %ymm0, %ymm2 vmulps %ymm0, %ymm9, %ymm1 vmulps %ymm0, %ymm12, %ymm0 vfmadd231ps %ymm6, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm6) + ymm2 vfmadd231ps %ymm8, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm8) + ymm1 vfmadd231ps %ymm14, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm14) + ymm0 vfmadd231ps %ymm5, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm5) + ymm2 vfmadd231ps %ymm7, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm7) + ymm1 vfmadd231ps %ymm13, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm13) + ymm0 vbroadcastss %xmm3, %ymm13 vpermps %ymm3, %ymm15, %ymm14 vpermps %ymm3, %ymm16, %ymm3 vmulps %ymm4, %ymm3, %ymm15 vmulps %ymm3, %ymm9, %ymm4 vmulps %ymm3, %ymm12, %ymm3 vfmadd231ps %ymm6, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm6) + ymm15 vfmadd231ps %ymm8, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm8) + ymm4 vfmadd231ps %ymm11, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm11) + ymm3 vfmadd231ps %ymm5, %ymm13, %ymm15 # ymm15 = (ymm13 * ymm5) + ymm15 vfmadd231ps %ymm7, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm7) + ymm4 vbroadcastss 0x2716b7(%rip), %ymm6 # 0x1f20ec4 vfmadd231ps %ymm10, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm10) + ymm3 vandps %ymm6, %ymm2, %ymm5 vbroadcastss 0x2417c9(%rip), %ymm7 # 0x1ef0fe8 vcmpltps %ymm7, %ymm5, %k1 vmovaps %ymm7, %ymm2 {%k1} vandps %ymm6, %ymm1, %ymm5 vcmpltps %ymm7, %ymm5, %k1 vmovaps %ymm7, %ymm1 {%k1} vandps %ymm6, %ymm0, %ymm5 vcmpltps %ymm7, %ymm5, %k1 vmovaps %ymm7, %ymm0 {%k1} vrcp14ps %ymm2, %ymm5 vbroadcastss 0x23ceb7(%rip), %ymm6 # 0x1eec714 vfnmadd213ps %ymm6, %ymm5, %ymm2 # ymm2 = -(ymm5 * ymm2) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm2 # ymm2 = (ymm2 * ymm5) + ymm5 vrcp14ps %ymm1, %ymm5 vfnmadd213ps %ymm6, %ymm5, %ymm1 # ymm1 = -(ymm5 * ymm1) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm1 # ymm1 = (ymm1 * ymm5) + ymm5 vrcp14ps %ymm0, %ymm5 vfnmadd213ps %ymm6, %ymm5, %ymm0 # ymm0 = -(ymm5 * ymm0) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm0 # ymm0 = (ymm0 * ymm5) + ymm5 leaq (,%rcx,8), %rdi subq %rcx, %rdi vpmovsxwd 0x6(%r8,%rdi), %ymm5 vcvtdq2ps %ymm5, %ymm5 vsubps %ymm15, %ymm5, %ymm5 vmulps %ymm5, %ymm2, %ymm5 vpmovsxwd 0x6(%r8,%rsi), %ymm6 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm15, %ymm6, %ymm6 leaq (%rcx,%rcx), %rsi addq %rcx, %rax shlq $0x3, %r9 subq %rcx, %r9 vpbroadcastd %ecx, %ymm7 shll $0x4, %ecx vpmovsxwd 0x6(%r8,%rcx), %ymm8 vmulps %ymm6, %ymm2, %ymm2 subq %rsi, %rcx vpmovsxwd 0x6(%r8,%rcx), %ymm6 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm4, %ymm6, %ymm6 vmulps %ymm6, %ymm1, %ymm6 vcvtdq2ps %ymm8, %ymm8 vsubps %ymm4, %ymm8, %ymm4 vmulps %ymm4, %ymm1, %ymm1 vpmovsxwd 0x6(%r8,%rax), %ymm4 vcvtdq2ps %ymm4, %ymm4 vsubps %ymm3, %ymm4, %ymm4 vmulps %ymm0, %ymm4, %ymm4 vpmovsxwd 0x6(%r8,%r9), %ymm8 vcvtdq2ps %ymm8, %ymm8 vsubps %ymm3, %ymm8, %ymm3 vmulps %ymm3, %ymm0, %ymm0 vpminsd %ymm2, %ymm5, %ymm3 vpminsd %ymm1, %ymm6, %ymm8 vmaxps %ymm8, %ymm3, %ymm3 vpminsd %ymm0, %ymm4, %ymm8 vmaxps 0x60(%r12,%rdx,4){1to8}, %ymm8, %ymm8 vmaxps %ymm8, %ymm3, %ymm3 vmulps 0x2705c3(%rip){1to8}, %ymm3, %ymm3 # 0x1f1ff10 vpmaxsd %ymm2, %ymm5, %ymm2 vpmaxsd %ymm1, %ymm6, %ymm1 vminps %ymm1, %ymm2, %ymm1 vpmaxsd %ymm0, %ymm4, %ymm0 movq %rdx, 0x18(%rsp) vminps 0x100(%r12,%rdx,4){1to8}, %ymm0, %ymm0 vminps %ymm0, %ymm1, %ymm0 vmulps 0x270599(%rip){1to8}, %ymm0, %ymm0 # 0x1f1ff14 vpcmpgtd 0x2aaf9b(%rip), %ymm7, %k0 # 0x1f5a920 vmovaps %ymm3, 0x6e0(%rsp) vcmpleps %ymm0, %ymm3, %k1 ktestb %k0, %k1 je 0x1cb2455 kandb %k0, %k1, %k0 kmovd %k0, %eax movzbl %al, %r10d leaq 0x560(%rsp), %rax addq $0xe0, %rax movq %rax, 0x1d8(%rsp) movl $0x1, %eax movq 0x18(%rsp), %rcx shlxl %ecx, %eax, %eax kmovd %eax, %k0 vpmovm2d %k0, %ymm0 vmovdqa %ymm0, 0x4a0(%rsp) movq %r15, 0x28(%rsp) movq %r8, 0x1e0(%rsp) tzcntq %r10, %rax movl 0x2(%r8), %ecx movl 0x6(%r8,%rax,4), %edi movq (%r15), %rax movq 0x1e8(%rax), %rax movq %rcx, 0x50(%rsp) movq (%rax,%rcx,8), %rsi movq 0x58(%rsi), %rax movq 0x68(%rsi), %rcx movq %rcx, %rdx movq %rdi, 0x130(%rsp) imulq %rdi, %rdx movl (%rax,%rdx), %edi movq 0xa0(%rsi), %rdx movq %rdx, %r9 imulq %rdi, %r9 movq 0x90(%rsi), %rsi vmovaps (%rsi,%r9), %xmm1 leaq 0x1(%rdi), %r9 imulq %rdx, %r9 vmovaps (%rsi,%r9), %xmm0 leaq 0x2(%rdi), %r9 imulq %rdx, %r9 vmovaps (%rsi,%r9), %xmm2 blsrq %r10, %r10 addq $0x3, %rdi imulq %rdx, %rdi vmovaps (%rsi,%rdi), %xmm3 movq %r10, %rdi subq $0x1, %rdi jb 0x1cafac4 andq %r10, %rdi tzcntq %r10, %r9 movl 0x6(%r8,%r9,4), %r9d imulq %rcx, %r9 movl (%rax,%r9), %r9d imulq %rdx, %r9 prefetcht0 (%rsi,%r9) prefetcht0 0x40(%rsi,%r9) testq %rdi, %rdi je 0x1cafac4 tzcntq %rdi, %rdi movl 0x6(%r8,%rdi,4), %edi imulq %rdi, %rcx movl (%rax,%rcx), %eax imulq %rax, %rdx prefetcht1 (%rsi,%rdx) prefetcht1 0x40(%rsi,%rdx) movq 0x18(%rsp), %rax vmovss (%r12,%rax,4), %xmm4 vinsertps $0x1c, 0x20(%r12,%rax,4), %xmm4, %xmm4 # xmm4 = xmm4[0],mem[0],zero,zero vinsertps $0x28, 0x40(%r12,%rax,4), %xmm4, %xmm4 # xmm4 = xmm4[0,1],mem[0],zero vbroadcastss 0x80(%r12,%rax,4), %ymm30 vbroadcastss 0xa0(%r12,%rax,4), %ymm31 vunpcklps %xmm31, %xmm30, %xmm5 # xmm5 = xmm30[0],xmm31[0],xmm30[1],xmm31[1] vbroadcastss 0xc0(%r12,%rax,4), %ymm21 vinsertps $0x28, %xmm21, %xmm5, %xmm9 # xmm9 = xmm5[0,1],xmm21[0],zero vaddps %xmm0, %xmm1, %xmm5 vmulps 0x23d06e(%rip){1to4}, %xmm5, %xmm5 # 0x1eecb80 vsubps %xmm4, %xmm5, %xmm5 vdpps $0x7f, %xmm9, %xmm5, %xmm5 vmovss 0x60(%r12,%rax,4), %xmm10 vdpps $0x7f, %xmm9, %xmm9, %xmm11 vxorps %xmm8, %xmm8, %xmm8 vmovss %xmm11, %xmm8, %xmm6 vrcp14ss %xmm6, %xmm8, %xmm6 vmovaps %xmm6, %xmm7 vfnmadd213ss 0x2414b3(%rip), %xmm11, %xmm7 # xmm7 = -(xmm11 * xmm7) + mem vmulss %xmm7, %xmm6, %xmm6 vmulss %xmm6, %xmm5, %xmm5 vbroadcastss %xmm5, %ymm6 vmovaps %xmm9, 0x270(%rsp) vmovaps %ymm6, 0x3a0(%rsp) vfmadd231ps %xmm6, %xmm9, %xmm4 # xmm4 = (xmm9 * xmm6) + xmm4 vblendps $0x8, %xmm8, %xmm4, %xmm4 # xmm4 = xmm4[0,1,2],xmm8[3] vsubps %xmm4, %xmm1, %xmm6 vsubps %xmm4, %xmm2, %xmm7 vsubps %xmm4, %xmm0, %xmm8 vsubps %xmm4, %xmm3, %xmm3 vbroadcastss %xmm6, %ymm0 vmovaps %ymm0, 0x540(%rsp) vbroadcastss 0x262b6e(%rip), %ymm0 # 0x1f12704 vpermps %ymm6, %ymm0, %ymm1 vmovaps %ymm1, 0x900(%rsp) vbroadcastss 0x27132f(%rip), %ymm1 # 0x1f20edc vpermps %ymm6, %ymm1, %ymm2 vmovaps %ymm2, 0x8e0(%rsp) vbroadcastss 0x271314(%rip), %ymm2 # 0x1f20ed8 vmovaps %ymm6, 0x2e0(%rsp) vpermps %ymm6, %ymm2, %ymm4 vmovaps %ymm4, 0x8c0(%rsp) vbroadcastss %xmm8, %ymm4 vmovaps %ymm4, 0x8a0(%rsp) vpermps %ymm8, %ymm0, %ymm4 vmovaps %ymm4, 0x880(%rsp) vpermps %ymm8, %ymm1, %ymm4 vmovaps %ymm4, 0x860(%rsp) vmovaps %ymm8, 0x2a0(%rsp) vpermps %ymm8, %ymm2, %ymm4 vmovaps %ymm4, 0x840(%rsp) vbroadcastss %xmm7, %ymm4 vmovaps %ymm4, 0x820(%rsp) vpermps %ymm7, %ymm0, %ymm4 vmovaps %ymm4, 0x800(%rsp) vpermps %ymm7, %ymm1, %ymm4 vmovaps %ymm4, 0x7e0(%rsp) vmovaps %ymm7, 0x2c0(%rsp) vpermps %ymm7, %ymm2, %ymm4 vmovaps %ymm4, 0x7c0(%rsp) vbroadcastss %xmm3, %ymm4 vmovaps %ymm4, 0x7a0(%rsp) vpermps %ymm3, %ymm0, %ymm0 vmovaps %ymm0, 0x780(%rsp) vpermps %ymm3, %ymm1, %ymm0 vmovaps %ymm0, 0x760(%rsp) vmovaps %ymm3, 0x280(%rsp) vpermps %ymm3, %ymm2, %ymm0 vmovaps %ymm0, 0x740(%rsp) vmulss %xmm21, %xmm21, %xmm0 vfmadd231ps %ymm31, %ymm31, %ymm0 # ymm0 = (ymm31 * ymm31) + ymm0 vfmadd231ps %ymm30, %ymm30, %ymm0 # ymm0 = (ymm30 * ymm30) + ymm0 vbroadcastss %xmm0, %ymm0 vmovaps %ymm0, 0x720(%rsp) vandps 0x2711fc(%rip){1to8}, %ymm0, %ymm0 # 0x1f20ec4 vmovaps %ymm0, 0x520(%rsp) vmovss %xmm10, 0x5c(%rsp) vmovaps %xmm5, 0x340(%rsp) vsubss %xmm5, %xmm10, %xmm0 vbroadcastss %xmm0, %ymm0 vmovaps %ymm0, 0x700(%rsp) movq 0x50(%rsp), %rax vpbroadcastd %eax, %ymm0 vmovdqa %ymm0, 0x4e0(%rsp) movl $0x1, %r11d xorl %r9d, %r9d movq 0x130(%rsp), %rax vpbroadcastd %eax, %ymm0 vmovdqa %ymm0, 0x4c0(%rsp) vsqrtss %xmm11, %xmm11, %xmm0 vmovss %xmm0, 0x14c(%rsp) vmovaps %xmm11, 0x260(%rsp) vsqrtss %xmm11, %xmm11, %xmm0 vmovss %xmm0, 0x148(%rsp) vmovsd 0x23c99d(%rip), %xmm2 # 0x1eec6f0 vbroadcastss 0x23c9b7(%rip), %ymm16 # 0x1eec714 vmovaps %ymm30, 0x240(%rsp) vmovaps %ymm31, 0x220(%rsp) vmovaps %ymm21, 0x200(%rsp) vmovshdup %xmm2, %xmm0 # xmm0 = xmm2[1,1,3,3] vsubss %xmm2, %xmm0, %xmm0 vmulss 0x27114b(%rip), %xmm0, %xmm1 # 0x1f20ed0 vmovaps %xmm1, 0x60(%rsp) vmovaps %xmm2, 0x1c0(%rsp) vbroadcastss %xmm2, %ymm4 vbroadcastss %xmm0, %ymm0 vmovaps %ymm4, 0xa0(%rsp) vmovaps %ymm0, 0x80(%rsp) vfmadd231ps 0x271167(%rip), %ymm0, %ymm4 # ymm4 = (ymm0 * mem) + ymm4 vsubps %ymm4, %ymm16, %ymm7 vbroadcastss 0x2710f7(%rip), %ymm26 # 0x1f20ec0 vxorps %ymm26, %ymm4, %ymm0 vmulps %ymm0, %ymm7, %ymm0 vmulps %ymm0, %ymm7, %ymm0 vmulps %ymm4, %ymm4, %ymm3 vmovaps %ymm3, 0xc0(%rsp) vbroadcastss 0x2411ff(%rip), %ymm2 # 0x1ef0fec vmulps %ymm2, %ymm4, %ymm9 vbroadcastss 0x24120a(%rip), %ymm5 # 0x1ef1004 vaddps %ymm5, %ymm9, %ymm10 vmulps %ymm3, %ymm10, %ymm1 vbroadcastss 0x2411ed(%rip), %ymm3 # 0x1ef0ff8 vaddps %ymm3, %ymm1, %ymm1 vmulps %ymm7, %ymm7, %ymm11 vmulps %ymm2, %ymm7, %ymm8 vaddps %ymm5, %ymm8, %ymm2 vmulps %ymm2, %ymm11, %ymm2 vaddps %ymm3, %ymm2, %ymm2 vxorps %ymm26, %ymm7, %ymm5 vmulps %ymm5, %ymm4, %ymm5 vmulps %ymm5, %ymm4, %ymm5 vbroadcastss 0x23cd45(%rip), %ymm17 # 0x1eecb80 vmulps %ymm17, %ymm0, %ymm13 vmulps %ymm17, %ymm1, %ymm14 vmulps %ymm17, %ymm2, %ymm15 vmulps %ymm17, %ymm5, %ymm5 vmovaps 0x7a0(%rsp), %ymm26 vmulps %ymm5, %ymm26, %ymm1 vmovaps 0x780(%rsp), %ymm12 vmulps %ymm5, %ymm12, %ymm0 vmovaps 0x760(%rsp), %ymm16 vmulps %ymm5, %ymm16, %ymm2 vmovaps 0x740(%rsp), %ymm6 vmulps %ymm5, %ymm6, %ymm5 vmovaps 0x820(%rsp), %ymm25 vfmadd231ps %ymm25, %ymm15, %ymm1 # ymm1 = (ymm15 * ymm25) + ymm1 vmovaps 0x800(%rsp), %ymm27 vfmadd231ps %ymm27, %ymm15, %ymm0 # ymm0 = (ymm15 * ymm27) + ymm0 vmovaps 0x7e0(%rsp), %ymm28 vfmadd231ps %ymm28, %ymm15, %ymm2 # ymm2 = (ymm15 * ymm28) + ymm2 vmovaps 0x7c0(%rsp), %ymm29 vfmadd231ps %ymm15, %ymm29, %ymm5 # ymm5 = (ymm29 * ymm15) + ymm5 vmovaps 0x8a0(%rsp), %ymm20 vfmadd231ps %ymm20, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm20) + ymm1 vmovaps 0x880(%rsp), %ymm22 vfmadd231ps %ymm22, %ymm14, %ymm0 # ymm0 = (ymm14 * ymm22) + ymm0 vmovaps 0x860(%rsp), %ymm23 vfmadd231ps %ymm23, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm23) + ymm2 vmovaps 0x840(%rsp), %ymm24 vfmadd231ps %ymm14, %ymm24, %ymm5 # ymm5 = (ymm24 * ymm14) + ymm5 vfmadd231ps 0x540(%rsp), %ymm13, %ymm1 # ymm1 = (ymm13 * mem) + ymm1 vmovaps 0x900(%rsp), %ymm3 vfmadd231ps %ymm3, %ymm13, %ymm0 # ymm0 = (ymm13 * ymm3) + ymm0 vmovaps 0x8e0(%rsp), %ymm18 vfmadd231ps %ymm18, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm18) + ymm2 vmovaps 0x8c0(%rsp), %ymm19 vfmadd231ps %ymm13, %ymm19, %ymm5 # ymm5 = (ymm19 * ymm13) + ymm5 vaddps %ymm7, %ymm7, %ymm13 vmulps %ymm4, %ymm13, %ymm14 vsubps %ymm11, %ymm14, %ymm11 vaddps %ymm4, %ymm4, %ymm15 vmulps %ymm10, %ymm15, %ymm10 vmulps %ymm4, %ymm9, %ymm4 vaddps %ymm4, %ymm10, %ymm4 vaddps 0x2410a3(%rip){1to8}, %ymm9, %ymm9 # 0x1ef0ff8 vmulps %ymm9, %ymm13, %ymm9 vmulps %ymm7, %ymm8, %ymm7 vsubps %ymm7, %ymm9, %ymm7 vmovaps 0xc0(%rsp), %ymm8 vsubps %ymm14, %ymm8, %ymm8 vmulps %ymm17, %ymm11, %ymm9 vmulps %ymm17, %ymm4, %ymm4 vmulps %ymm17, %ymm7, %ymm7 vmulps %ymm17, %ymm8, %ymm8 vmulps %ymm8, %ymm26, %ymm10 vmulps %ymm8, %ymm12, %ymm12 vmulps %ymm8, %ymm16, %ymm13 vmovaps %ymm2, %ymm26 vmulps %ymm6, %ymm8, %ymm8 vfmadd231ps %ymm25, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm25) + ymm10 vfmadd231ps %ymm27, %ymm7, %ymm12 # ymm12 = (ymm7 * ymm27) + ymm12 vfmadd231ps %ymm28, %ymm7, %ymm13 # ymm13 = (ymm7 * ymm28) + ymm13 vfmadd231ps %ymm7, %ymm29, %ymm8 # ymm8 = (ymm29 * ymm7) + ymm8 vfmadd231ps %ymm20, %ymm4, %ymm10 # ymm10 = (ymm4 * ymm20) + ymm10 vfmadd231ps %ymm22, %ymm4, %ymm12 # ymm12 = (ymm4 * ymm22) + ymm12 vfmadd231ps %ymm23, %ymm4, %ymm13 # ymm13 = (ymm4 * ymm23) + ymm13 vfmadd231ps %ymm4, %ymm24, %ymm8 # ymm8 = (ymm24 * ymm4) + ymm8 vfmadd231ps 0x540(%rsp), %ymm9, %ymm10 # ymm10 = (ymm9 * mem) + ymm10 vfmadd231ps %ymm3, %ymm9, %ymm12 # ymm12 = (ymm9 * ymm3) + ymm12 vfmadd231ps %ymm18, %ymm9, %ymm13 # ymm13 = (ymm9 * ymm18) + ymm13 vfmadd231ps %ymm9, %ymm19, %ymm8 # ymm8 = (ymm19 * ymm9) + ymm8 vbroadcastss 0x60(%rsp), %ymm4 vmulps %ymm4, %ymm10, %ymm11 vmulps %ymm4, %ymm12, %ymm12 vmulps %ymm4, %ymm13, %ymm13 vmulps %ymm4, %ymm8, %ymm6 vmovaps %ymm1, %ymm8 vmovaps 0x2afd0f(%rip), %ymm7 # 0x1f5fd20 vmovaps %ymm31, %ymm3 vxorps %xmm31, %xmm31, %xmm31 vpermt2ps %ymm31, %ymm7, %ymm8 vmovaps %ymm0, %ymm9 vpermt2ps %ymm31, %ymm7, %ymm9 vmovaps %ymm2, %ymm10 vpermt2ps %ymm31, %ymm7, %ymm10 vaddps %ymm6, %ymm5, %ymm4 vmaxps %ymm4, %ymm5, %ymm14 vminps %ymm4, %ymm5, %ymm4 vmovaps %ymm5, %ymm15 vpermt2ps %ymm31, %ymm7, %ymm15 vmovaps %ymm11, %ymm19 vpermt2ps %ymm31, %ymm7, %ymm19 vmovaps %ymm12, %ymm20 vpermt2ps %ymm31, %ymm7, %ymm20 vmovaps %ymm13, %ymm2 vpermt2ps %ymm31, %ymm7, %ymm2 vpermt2ps %ymm31, %ymm7, %ymm6 vsubps %ymm6, %ymm15, %ymm16 vmovaps %ymm8, 0x60(%rsp) vsubps %ymm1, %ymm8, %ymm7 vsubps %ymm0, %ymm9, %ymm6 vsubps %ymm26, %ymm10, %ymm5 vmulps %ymm13, %ymm6, %ymm17 vfmsub231ps %ymm5, %ymm12, %ymm17 # ymm17 = (ymm12 * ymm5) - ymm17 vmulps %ymm11, %ymm5, %ymm18 vfmsub231ps %ymm7, %ymm13, %ymm18 # ymm18 = (ymm13 * ymm7) - ymm18 vmulps %ymm12, %ymm7, %ymm22 vfmsub231ps %ymm6, %ymm11, %ymm22 # ymm22 = (ymm11 * ymm6) - ymm22 vmulps %ymm22, %ymm22, %ymm22 vfmadd231ps %ymm18, %ymm18, %ymm22 # ymm22 = (ymm18 * ymm18) + ymm22 vfmadd231ps %ymm17, %ymm17, %ymm22 # ymm22 = (ymm17 * ymm17) + ymm22 vmulps %ymm5, %ymm5, %ymm17 vfmadd231ps %ymm6, %ymm6, %ymm17 # ymm17 = (ymm6 * ymm6) + ymm17 vfmadd231ps %ymm7, %ymm7, %ymm17 # ymm17 = (ymm7 * ymm7) + ymm17 vrcp14ps %ymm17, %ymm18 vmovaps %ymm18, %ymm23 vbroadcastss 0x23c627(%rip), %ymm24 # 0x1eec714 vmovaps %ymm24, %ymm8 vfnmadd213ps %ymm24, %ymm17, %ymm23 # ymm23 = -(ymm17 * ymm23) + ymm24 vfmadd132ps %ymm18, %ymm18, %ymm23 # ymm23 = (ymm23 * ymm18) + ymm18 vmulps %ymm23, %ymm22, %ymm18 vmulps %ymm2, %ymm6, %ymm22 vfmsub231ps %ymm5, %ymm20, %ymm22 # ymm22 = (ymm20 * ymm5) - ymm22 vmulps %ymm19, %ymm5, %ymm24 vfmsub231ps %ymm7, %ymm2, %ymm24 # ymm24 = (ymm2 * ymm7) - ymm24 vmulps %ymm20, %ymm7, %ymm25 vfmsub231ps %ymm6, %ymm19, %ymm25 # ymm25 = (ymm19 * ymm6) - ymm25 vmulps %ymm25, %ymm25, %ymm25 vfmadd231ps %ymm24, %ymm24, %ymm25 # ymm25 = (ymm24 * ymm24) + ymm25 vfmadd231ps %ymm22, %ymm22, %ymm25 # ymm25 = (ymm22 * ymm22) + ymm25 vmulps %ymm23, %ymm25, %ymm22 vmaxps %ymm22, %ymm18, %ymm18 vsqrtps %ymm18, %ymm18 vmaxps %ymm15, %ymm16, %ymm22 vmaxps %ymm22, %ymm14, %ymm14 vaddps %ymm14, %ymm18, %ymm14 vminps %ymm15, %ymm16, %ymm15 vminps %ymm15, %ymm4, %ymm4 vsubps %ymm18, %ymm4, %ymm4 vmulps 0x2407c6(%rip){1to8}, %ymm14, %ymm14 # 0x1ef0940 vmulps 0x2407c0(%rip){1to8}, %ymm4, %ymm4 # 0x1ef0944 vmovaps %ymm4, 0xc0(%rsp) vmulps %ymm14, %ymm14, %ymm4 vrsqrt14ps %ymm17, %ymm15 vmulps 0x23c57a(%rip){1to8}, %ymm17, %ymm14 # 0x1eec71c vmulps %ymm14, %ymm15, %ymm14 vmulps %ymm15, %ymm15, %ymm16 vmulps %ymm14, %ymm16, %ymm14 vfmadd231ps 0x23c55b(%rip){1to8}, %ymm15, %ymm14 # ymm14 = (ymm15 * mem) + ymm14 vmulps %ymm7, %ymm14, %ymm15 vmulps %ymm14, %ymm6, %ymm16 vmulps %ymm14, %ymm5, %ymm18 vmovaps %ymm1, 0x180(%rsp) vsubps %ymm1, %ymm31, %ymm27 vmovaps %ymm0, 0x400(%rsp) vsubps %ymm0, %ymm31, %ymm28 vmovaps %ymm26, 0x1a0(%rsp) vsubps %ymm26, %ymm31, %ymm29 vmulps %ymm29, %ymm21, %ymm22 vfmadd231ps %ymm28, %ymm3, %ymm22 # ymm22 = (ymm3 * ymm28) + ymm22 vfmadd231ps %ymm27, %ymm30, %ymm22 # ymm22 = (ymm30 * ymm27) + ymm22 vmulps %ymm29, %ymm29, %ymm24 vfmadd231ps %ymm28, %ymm28, %ymm24 # ymm24 = (ymm28 * ymm28) + ymm24 vfmadd231ps %ymm27, %ymm27, %ymm24 # ymm24 = (ymm27 * ymm27) + ymm24 vmulps %ymm18, %ymm21, %ymm17 vfmadd231ps %ymm3, %ymm16, %ymm17 # ymm17 = (ymm16 * ymm3) + ymm17 vfmadd231ps %ymm30, %ymm15, %ymm17 # ymm17 = (ymm15 * ymm30) + ymm17 vmulps %ymm18, %ymm29, %ymm18 vfmadd231ps %ymm16, %ymm28, %ymm18 # ymm18 = (ymm28 * ymm16) + ymm18 vfmadd231ps %ymm15, %ymm27, %ymm18 # ymm18 = (ymm27 * ymm15) + ymm18 vmulps %ymm17, %ymm17, %ymm0 vmovaps 0x720(%rsp), %ymm1 vsubps %ymm0, %ymm1, %ymm15 vmulps %ymm18, %ymm17, %ymm25 vsubps %ymm25, %ymm22, %ymm22 vaddps %ymm22, %ymm22, %ymm22 vmulps %ymm18, %ymm18, %ymm25 vsubps %ymm25, %ymm24, %ymm21 vsubps %ymm4, %ymm21, %ymm4 vmulps %ymm22, %ymm22, %ymm25 vmulps 0x23c904(%rip){1to8}, %ymm15, %ymm24 # 0x1eecb8c vmulps %ymm4, %ymm24, %ymm30 vsubps %ymm30, %ymm25, %ymm30 vcmpnltps %ymm31, %ymm30, %k1 kmovd %k1, %eax kortestb %k1, %k1 je 0x1cb0386 vsqrtps %ymm30, %ymm30 vaddps %ymm15, %ymm15, %ymm31 vrcp14ps %ymm31, %ymm3 vfnmadd213ps %ymm8, %ymm3, %ymm31 # ymm31 = -(ymm3 * ymm31) + ymm8 vfmadd132ps %ymm3, %ymm3, %ymm31 # ymm31 = (ymm31 * ymm3) + ymm3 vxorps 0x270bef(%rip){1to8}, %ymm22, %ymm3 # 0x1f20ec0 vsubps %ymm30, %ymm3, %ymm3 vmulps %ymm31, %ymm3, %ymm3 vsubps %ymm22, %ymm30, %ymm30 vmulps %ymm31, %ymm30, %ymm31 vmovaps %ymm17, %ymm30 vfmadd213ps %ymm18, %ymm3, %ymm30 # ymm30 = (ymm3 * ymm30) + ymm18 vmulps %ymm30, %ymm14, %ymm30 vmovaps %ymm30, 0x480(%rsp) vmovaps %ymm17, %ymm30 vfmadd213ps %ymm18, %ymm31, %ymm30 # ymm30 = (ymm31 * ymm30) + ymm18 vmulps %ymm30, %ymm14, %ymm30 vmovaps %ymm30, 0x460(%rsp) vbroadcastss 0x23b6f9(%rip), %ymm16 # 0x1eeba20 vblendmps %ymm3, %ymm16, %ymm30 {%k1} vbroadcastss 0x23c84e(%rip), %ymm3 # 0x1eecb84 vblendmps %ymm31, %ymm3, %ymm31 {%k1} vbroadcastss 0x270b7e(%rip), %ymm23 # 0x1f20ec4 vandps %ymm23, %ymm0, %ymm3 vmovaps 0x520(%rsp), %ymm1 vmaxps %ymm3, %ymm1, %ymm3 vmulps 0x241b51(%rip){1to8}, %ymm3, %ymm3 # 0x1ef1eb4 vandps %ymm23, %ymm15, %ymm23 vcmpltps %ymm3, %ymm23, %k1 {%k1} kortestb %k1, %k1 jne 0x1cb23e4 vbroadcastss 0x23c390(%rip), %ymm16 # 0x1eec714 jmp 0x1cb03a0 vbroadcastss 0x23b690(%rip), %ymm30 # 0x1eeba20 vbroadcastss 0x23c7ea(%rip), %ymm31 # 0x1eecb84 vmovaps %ymm8, %ymm16 andb $0x7f, %al je 0x1cb07a8 vmovaps %ymm21, 0x3e0(%rsp) vmovaps %ymm0, 0x3c0(%rsp) movq 0x18(%rsp), %rcx vmovss 0x100(%r12,%rcx,4), %xmm3 vsubss 0x340(%rsp), %xmm3, %xmm3 vbroadcastss %xmm3, %ymm3 vminps %ymm31, %ymm3, %ymm3 vmovaps 0x700(%rsp), %ymm1 vmaxps %ymm30, %ymm1, %ymm4 vmulps %ymm13, %ymm29, %ymm23 vfmadd213ps %ymm23, %ymm12, %ymm28 # ymm28 = (ymm12 * ymm28) + ymm23 vfmadd213ps %ymm28, %ymm11, %ymm27 # ymm27 = (ymm11 * ymm27) + ymm28 vmovaps 0x200(%rsp), %ymm21 vmulps %ymm13, %ymm21, %ymm13 vmovaps 0x220(%rsp), %ymm31 vfmadd231ps %ymm12, %ymm31, %ymm13 # ymm13 = (ymm31 * ymm12) + ymm13 vmovaps 0x240(%rsp), %ymm30 vfmadd231ps %ymm11, %ymm30, %ymm13 # ymm13 = (ymm30 * ymm11) + ymm13 vbroadcastss 0x270a93(%rip), %ymm28 # 0x1f20ec4 vandps %ymm28, %ymm13, %ymm11 vbroadcastss 0x240ba7(%rip), %ymm29 # 0x1ef0fe8 vcmpltps %ymm29, %ymm11, %k0 vbroadcastss 0x270a6e(%rip), %ymm26 # 0x1f20ec0 vxorps %ymm26, %ymm27, %ymm11 vrcp14ps %ymm13, %ymm12 vxorps %ymm26, %ymm13, %ymm23 vmovaps %ymm12, %ymm27 vfnmadd213ps %ymm16, %ymm13, %ymm27 # ymm27 = -(ymm13 * ymm27) + ymm16 vfmadd132ps %ymm12, %ymm12, %ymm27 # ymm27 = (ymm27 * ymm12) + ymm12 vmulps %ymm11, %ymm27, %ymm11 vcmpltps %ymm23, %ymm13, %k1 korb %k1, %k0, %k1 vbroadcastss 0x23c6f3(%rip), %ymm27 # 0x1eecb84 vblendmps %ymm27, %ymm11, %ymm12 {%k1} vmaxps %ymm12, %ymm4, %ymm4 vcmpnleps %ymm23, %ymm13, %k1 korb %k1, %k0, %k1 vbroadcastss 0x23b56f(%rip), %ymm23 # 0x1eeba20 vmovaps %ymm23, %ymm11 {%k1} vminps %ymm11, %ymm3, %ymm3 vxorps %xmm13, %xmm13, %xmm13 vsubps 0x60(%rsp), %ymm13, %ymm8 vsubps %ymm9, %ymm13, %ymm9 vsubps %ymm10, %ymm13, %ymm10 vmulps %ymm2, %ymm10, %ymm10 vfnmsub231ps %ymm9, %ymm20, %ymm10 # ymm10 = -(ymm20 * ymm9) - ymm10 vfnmadd231ps %ymm8, %ymm19, %ymm10 # ymm10 = -(ymm19 * ymm8) + ymm10 vmulps %ymm2, %ymm21, %ymm8 vfnmsub231ps %ymm20, %ymm31, %ymm8 # ymm8 = -(ymm31 * ymm20) - ymm8 vfnmadd231ps %ymm19, %ymm30, %ymm8 # ymm8 = -(ymm30 * ymm19) + ymm8 vandps %ymm28, %ymm8, %ymm9 vcmpltps %ymm29, %ymm9, %k0 vxorps %ymm26, %ymm10, %ymm9 vrcp14ps %ymm8, %ymm10 vxorps %ymm26, %ymm8, %ymm11 vmovaps %ymm10, %ymm12 vfnmadd213ps %ymm16, %ymm8, %ymm12 # ymm12 = -(ymm8 * ymm12) + ymm16 vfmadd132ps %ymm10, %ymm10, %ymm12 # ymm12 = (ymm12 * ymm10) + ymm10 vmulps %ymm9, %ymm12, %ymm9 vcmpltps %ymm11, %ymm8, %k1 korb %k1, %k0, %k1 vblendmps %ymm27, %ymm9, %ymm10 {%k1} vmaxps %ymm10, %ymm4, %ymm0 vcmpnleps %ymm11, %ymm8, %k1 korb %k1, %k0, %k1 vmovaps %ymm23, %ymm9 {%k1} vminps %ymm9, %ymm3, %ymm8 vmovaps %ymm0, 0x380(%rsp) vcmpleps %ymm8, %ymm0, %k0 kmovd %k0, %ecx andb %cl, %al je 0x1cb22d3 vmovaps 0x480(%rsp), %ymm3 vmaxps 0xc0(%rsp), %ymm13, %ymm4 vminps %ymm16, %ymm3, %ymm3 vxorps %xmm10, %xmm10, %xmm10 vmaxps %ymm10, %ymm3, %ymm3 vmovaps 0x460(%rsp), %ymm9 vminps %ymm16, %ymm9, %ymm9 vmovaps 0x270998(%rip), %ymm11 # 0x1f20f40 vaddps %ymm3, %ymm11, %ymm3 vbroadcastss 0x26df03(%rip), %ymm12 # 0x1f1e4b8 vmulps %ymm3, %ymm12, %ymm3 vmovaps 0xa0(%rsp), %ymm0 vmovaps 0x80(%rsp), %ymm1 vfmadd213ps %ymm0, %ymm1, %ymm3 # ymm3 = (ymm1 * ymm3) + ymm0 vmovaps %ymm3, 0x480(%rsp) vmaxps %ymm10, %ymm9, %ymm3 vaddps %ymm3, %ymm11, %ymm3 vmulps %ymm3, %ymm12, %ymm3 vfmadd213ps %ymm0, %ymm1, %ymm3 # ymm3 = (ymm1 * ymm3) + ymm0 vmovaps %ymm3, 0x460(%rsp) vmulps %ymm4, %ymm4, %ymm3 vmovaps 0x3e0(%rsp), %ymm0 vsubps %ymm3, %ymm0, %ymm11 vmulps %ymm11, %ymm24, %ymm3 vsubps %ymm3, %ymm25, %ymm3 vcmpnltps %ymm10, %ymm3, %k0 kortestb %k0, %k0 je 0x1cb07c5 vxorps %xmm20, %xmm20, %xmm20 vcmpnltps %ymm13, %ymm3, %k1 vsqrtps %ymm3, %ymm3 vaddps %ymm15, %ymm15, %ymm4 vrcp14ps %ymm4, %ymm9 vfnmadd213ps %ymm16, %ymm9, %ymm4 # ymm4 = -(ymm9 * ymm4) + ymm16 vfmadd132ps %ymm9, %ymm9, %ymm4 # ymm4 = (ymm4 * ymm9) + ymm9 vxorps 0x27086d(%rip){1to8}, %ymm22, %ymm9 # 0x1f20ec0 vsubps %ymm3, %ymm9, %ymm9 vmulps %ymm4, %ymm9, %ymm12 vsubps %ymm22, %ymm3, %ymm3 vmulps %ymm4, %ymm3, %ymm13 vmovaps %ymm17, %ymm3 vfmadd213ps %ymm18, %ymm12, %ymm3 # ymm3 = (ymm12 * ymm3) + ymm18 vmulps %ymm3, %ymm14, %ymm9 vmulps %ymm12, %ymm30, %ymm3 vmulps %ymm12, %ymm31, %ymm4 vmulps %ymm12, %ymm21, %ymm10 vmovaps %ymm7, %ymm19 vmovaps 0x180(%rsp), %ymm1 vfmadd213ps %ymm1, %ymm9, %ymm19 # ymm19 = (ymm9 * ymm19) + ymm1 vsubps %ymm19, %ymm3, %ymm3 vmovaps %ymm6, %ymm19 vmovaps 0x400(%rsp), %ymm0 vfmadd213ps %ymm0, %ymm9, %ymm19 # ymm19 = (ymm9 * ymm19) + ymm0 vsubps %ymm19, %ymm4, %ymm4 vmovaps 0x1a0(%rsp), %ymm2 vfmadd213ps %ymm2, %ymm5, %ymm9 # ymm9 = (ymm5 * ymm9) + ymm2 vsubps %ymm9, %ymm10, %ymm9 vfmadd213ps %ymm18, %ymm13, %ymm17 # ymm17 = (ymm13 * ymm17) + ymm18 vmulps %ymm17, %ymm14, %ymm14 vmulps %ymm13, %ymm30, %ymm10 vmulps %ymm13, %ymm31, %ymm17 vmulps %ymm13, %ymm21, %ymm18 vfmadd213ps %ymm1, %ymm14, %ymm7 # ymm7 = (ymm14 * ymm7) + ymm1 vsubps %ymm7, %ymm10, %ymm10 vfmadd213ps %ymm0, %ymm14, %ymm6 # ymm6 = (ymm14 * ymm6) + ymm0 vsubps %ymm6, %ymm17, %ymm1 vfmadd213ps %ymm2, %ymm14, %ymm5 # ymm5 = (ymm14 * ymm5) + ymm2 vsubps %ymm5, %ymm18, %ymm5 vbroadcastss 0x23b30a(%rip), %ymm0 # 0x1eeba20 vblendmps %ymm12, %ymm0, %ymm2 {%k1} vbroadcastss 0x23c45f(%rip), %ymm0 # 0x1eecb84 vblendmps %ymm13, %ymm0, %ymm0 {%k1} vbroadcastss 0x270790(%rip), %ymm7 # 0x1f20ec4 vandps 0x3c0(%rsp), %ymm7, %ymm6 vmovaps 0x520(%rsp), %ymm12 vmaxps %ymm6, %ymm12, %ymm6 vmulps 0x241760(%rip){1to8}, %ymm6, %ymm6 # 0x1ef1eb4 vandps %ymm7, %ymm15, %ymm7 vcmpltps %ymm6, %ymm7, %k1 {%k1} kortestb %k1, %k1 je 0x1cb07ec vcmpleps %ymm20, %ymm11, %k2 vbroadcastss 0x23c40b(%rip), %ymm7 # 0x1eecb84 vbroadcastss 0x23b29e(%rip), %ymm11 # 0x1eeba20 vblendmps %ymm7, %ymm11, %ymm6 {%k2} vmovaps %ymm6, %ymm2 {%k1} vblendmps %ymm11, %ymm7, %ymm6 {%k2} vmovaps %ymm6, %ymm0 {%k1} knotb %k1, %k1 korb %k2, %k1, %k1 kandb %k0, %k1, %k0 jmp 0x1cb07ec vmovaps 0x240(%rsp), %ymm30 vmovaps 0x220(%rsp), %ymm31 vmovaps 0x200(%rsp), %ymm21 jmp 0x1cb22d3 vxorps %xmm1, %xmm1, %xmm1 vxorps %xmm5, %xmm5, %xmm5 vxorps %xmm3, %xmm3, %xmm3 vxorps %xmm4, %xmm4, %xmm4 vxorps %xmm9, %xmm9, %xmm9 vbroadcastss 0x23b23d(%rip), %ymm2 # 0x1eeba20 vbroadcastss 0x23c398(%rip), %ymm0 # 0x1eecb84 vbroadcastss 0x2706cf(%rip), %xmm11 # 0x1f20ec4 vmulps %ymm5, %ymm21, %ymm5 vfmadd231ps %ymm1, %ymm31, %ymm5 # ymm5 = (ymm31 * ymm1) + ymm5 vfmadd231ps %ymm10, %ymm30, %ymm5 # ymm5 = (ymm30 * ymm10) + ymm5 vmovaps 0x380(%rsp), %ymm7 vmovaps %ymm7, 0x920(%rsp) vminps %ymm2, %ymm8, %ymm1 vmovaps %ymm1, 0x940(%rsp) vbroadcastss 0x270695(%rip), %ymm6 # 0x1f20ec4 vandps %ymm6, %ymm5, %ymm2 vmaxps %ymm0, %ymm7, %ymm5 vmovaps %ymm5, 0x680(%rsp) vmovaps %ymm8, 0x6a0(%rsp) vbroadcastss 0x270682(%rip), %ymm0 # 0x1f20ed4 vcmpltps %ymm0, %ymm2, %k1 kmovd %k1, 0x144(%rsp) vcmpleps %ymm1, %ymm7, %k1 kmovd %k1, %ecx andb %al, %cl vmovaps %ymm5, 0x420(%rsp) vcmpleps %ymm8, %ymm5, %k1 kmovd %k1, %edx andb %al, %dl movl %edx, %eax orb %cl, %al je 0x1cb229d vmovaps %ymm0, %ymm2 movl %edx, 0x34(%rsp) movq %r9, 0x1f0(%rsp) movq %r10, 0x1f8(%rsp) knotb %k0, %k1 vmulps %ymm9, %ymm21, %ymm0 vfmadd213ps %ymm0, %ymm31, %ymm4 # ymm4 = (ymm31 * ymm4) + ymm0 vfmadd213ps %ymm4, %ymm30, %ymm3 # ymm3 = (ymm30 * ymm3) + ymm4 vandps %ymm6, %ymm3, %ymm0 vcmpltps %ymm2, %ymm0, %k0 kmovd %k1, 0x13c(%rsp) korb %k1, %k0, %k1 vpbroadcastd 0x2705fc(%rip), %ymm0 # 0x1f20edc vpblendmd 0x2705ee(%rip){1to8}, %ymm0, %ymm0 {%k1} # 0x1f20ed8 movq %r11, 0x1e8(%rsp) vpbroadcastd %r11d, %ymm1 vmovdqa %ymm0, 0x6c0(%rsp) vmovdqa %ymm1, 0x500(%rsp) vpcmpnltd %ymm0, %ymm1, %k0 kmovd %k0, %ebx movl %ecx, 0x140(%rsp) andb %cl, %bl je 0x1cb1536 vmovaps 0x2e0(%rsp), %ymm1 vmovaps 0x2a0(%rsp), %ymm2 vminps %xmm2, %xmm1, %xmm0 vmaxps %xmm2, %xmm1, %xmm1 vmovaps 0x2c0(%rsp), %ymm3 vmovaps 0x280(%rsp), %ymm4 vminps %xmm4, %xmm3, %xmm2 vminps %xmm2, %xmm0, %xmm0 vmaxps %xmm4, %xmm3, %xmm2 vmaxps %xmm2, %xmm1, %xmm1 vandps %xmm0, %xmm11, %xmm0 vandps %xmm1, %xmm11, %xmm2 vmaxps %xmm2, %xmm0, %xmm0 vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3] vmaxss %xmm0, %xmm2, %xmm2 vshufpd $0x1, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[1,0] vmaxss %xmm2, %xmm0, %xmm0 vmulss 0x24152f(%rip), %xmm0, %xmm0 # 0x1ef1eb4 vmovss %xmm0, 0x44(%rsp) vshufps $0xff, %xmm1, %xmm1, %xmm0 # xmm0 = xmm1[3,3,3,3] vmovaps %xmm0, 0x330(%rsp) vmovaps 0x380(%rsp), %ymm0 vaddps 0x3a0(%rsp), %ymm0, %ymm0 vmovaps %ymm0, 0x440(%rsp) kmovd %ebx, %k1 vbroadcastss 0x23b05f(%rip), %ymm0 # 0x1eeba20 vblendmps 0x380(%rsp), %ymm0, %ymm0 {%k1} vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm0, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1] vminps %ymm2, %ymm1, %ymm1 vcmpeqps %ymm1, %ymm0, %k0 kmovd %k0, %eax andb %bl, %al movzbl %al, %eax movzbl %bl, %ecx cmovnel %eax, %ecx tzcntl %ecx, %ecx movb $0x1, %bl shlb %cl, %bl shll $0x2, %ecx vmovss 0x480(%rsp,%rcx), %xmm9 vmovss 0x920(%rsp,%rcx), %xmm8 vmovaps 0x260(%rsp), %xmm0 vucomiss 0x23affb(%rip), %xmm0 # 0x1eeba24 vmovss 0x148(%rsp), %xmm0 jae 0x1cb0a75 vmovaps 0x260(%rsp), %xmm0 vmovaps %xmm9, 0x60(%rsp) vmovaps %xmm8, 0x80(%rsp) kmovw %k1, 0xc0(%rsp) vzeroupper callq 0x6aa20 kmovw 0xc0(%rsp), %k1 vmovaps 0x80(%rsp), %xmm8 vmovaps 0x60(%rsp), %xmm9 movzbl %bl, %eax kmovd %eax, %k0 kandnb %k1, %k0, %k0 kmovd %k0, %ebx vmulss 0x241428(%rip), %xmm0, %xmm0 # 0x1ef1eb4 vmovss %xmm0, 0x48(%rsp) movl $0x4, %r14d vmovaps %xmm8, 0x80(%rsp) vbroadcastss %xmm8, %xmm0 vxorps %xmm1, %xmm1, %xmm1 vfmadd132ps 0x270(%rsp), %xmm1, %xmm0 # xmm0 = (xmm0 * mem) + xmm1 vmovss 0x23bc58(%rip), %xmm1 # 0x1eec714 vsubss %xmm9, %xmm1, %xmm11 vbroadcastss 0x2703f6(%rip), %xmm6 # 0x1f20ec0 vxorps %xmm6, %xmm9, %xmm1 vmulss %xmm1, %xmm11, %xmm1 vmulss %xmm1, %xmm11, %xmm1 vmulss %xmm9, %xmm9, %xmm12 vmovss 0x240509(%rip), %xmm8 # 0x1ef0fec vmovaps %xmm8, %xmm10 vmovss 0x240514(%rip), %xmm7 # 0x1ef1004 vfmadd213ss %xmm7, %xmm9, %xmm10 # xmm10 = (xmm9 * xmm10) + xmm7 vmovaps %xmm10, %xmm2 vmovss 0x2404f7(%rip), %xmm5 # 0x1ef0ff8 vfmadd213ss %xmm5, %xmm12, %xmm2 # xmm2 = (xmm12 * xmm2) + xmm5 vmulss %xmm11, %xmm11, %xmm3 vmovaps %xmm8, %xmm4 vfmadd213ss %xmm7, %xmm11, %xmm4 # xmm4 = (xmm11 * xmm4) + xmm7 vfmadd213ss %xmm5, %xmm3, %xmm4 # xmm4 = (xmm3 * xmm4) + xmm5 vxorps %xmm6, %xmm11, %xmm3 vmulss %xmm3, %xmm9, %xmm3 vmulss %xmm3, %xmm9, %xmm3 vmovss 0x23c053(%rip), %xmm5 # 0x1eecb80 vmulss %xmm5, %xmm1, %xmm1 vmulss %xmm5, %xmm2, %xmm2 vmulss %xmm5, %xmm4, %xmm4 vmulss %xmm5, %xmm3, %xmm3 vbroadcastss %xmm3, %xmm3 vmulps 0x280(%rsp), %xmm3, %xmm3 vbroadcastss %xmm4, %xmm4 vfmadd132ps 0x2c0(%rsp), %xmm3, %xmm4 # xmm4 = (xmm4 * mem) + xmm3 vbroadcastss %xmm2, %xmm2 vfmadd132ps 0x2a0(%rsp), %xmm4, %xmm2 # xmm2 = (xmm2 * mem) + xmm4 vbroadcastss %xmm1, %xmm3 vfmadd132ps 0x2e0(%rsp), %xmm2, %xmm3 # xmm3 = (xmm3 * mem) + xmm2 vmulss 0x23fe5c(%rip), %xmm11, %xmm6 # 0x1ef09dc vfmadd231ss 0x24047f(%rip), %xmm9, %xmm7 # xmm7 = (xmm9 * mem) + xmm7 vmovaps %xmm7, 0x3e0(%rsp) vmovss 0x240472(%rip), %xmm1 # 0x1ef100c vfmadd213ss 0x23bfe9(%rip), %xmm9, %xmm1 # xmm1 = (xmm9 * xmm1) + mem vmovaps %xmm1, 0x3c0(%rsp) vfmadd213ss 0x23fe17(%rip), %xmm9, %xmm8 # xmm8 = (xmm9 * xmm8) + mem vmovaps %xmm8, 0x370(%rsp) vmovaps %xmm3, 0x400(%rsp) vsubps %xmm3, %xmm0, %xmm0 vmovaps %xmm0, 0xc0(%rsp) vdpps $0x7f, %xmm0, %xmm0, %xmm0 vucomiss 0x23ae42(%rip), %xmm0 # 0x1eeba24 vmovaps %xmm9, 0x60(%rsp) vmovaps %xmm0, 0xa0(%rsp) jb 0x1cb0bf9 vsqrtss %xmm0, %xmm0, %xmm7 jmp 0x1cb0c53 vmovss %xmm10, 0x1a0(%rsp) vmovaps %xmm11, 0x180(%rsp) vmovss %xmm12, 0x120(%rsp) vmovss %xmm6, 0x110(%rsp) vzeroupper callq 0x6aa20 vmovss 0x110(%rsp), %xmm6 vmovss 0x120(%rsp), %xmm12 vmovaps 0x180(%rsp), %xmm11 vmovss 0x1a0(%rsp), %xmm10 vmovaps 0x60(%rsp), %xmm9 vmovaps %xmm0, %xmm7 vaddss %xmm11, %xmm11, %xmm0 vmulss %xmm0, %xmm9, %xmm1 vfnmadd231ss %xmm11, %xmm11, %xmm1 # xmm1 = -(xmm11 * xmm11) + xmm1 vaddss %xmm9, %xmm9, %xmm2 vmovss 0x24037e(%rip), %xmm4 # 0x1ef0fec vmulss %xmm4, %xmm9, %xmm3 vmulss %xmm3, %xmm9, %xmm3 vfmadd213ss %xmm3, %xmm2, %xmm10 # xmm10 = (xmm2 * xmm10) + xmm3 vmovaps %xmm4, %xmm2 vmovss 0x240371(%rip), %xmm4 # 0x1ef0ff8 vfmadd213ss %xmm4, %xmm9, %xmm2 # xmm2 = (xmm9 * xmm2) + xmm4 vmulss 0x24035c(%rip), %xmm11, %xmm3 # 0x1ef0ff0 vmulss %xmm3, %xmm11, %xmm3 vfmadd231ss %xmm2, %xmm0, %xmm3 # xmm3 = (xmm0 * xmm2) + xmm3 vfmadd213ss %xmm12, %xmm9, %xmm6 # xmm6 = (xmm9 * xmm6) + xmm12 vmovss 0x23bed6(%rip), %xmm5 # 0x1eecb80 vmulss %xmm5, %xmm1, %xmm0 vmulss %xmm5, %xmm10, %xmm1 vmulss %xmm5, %xmm3, %xmm2 vmulss %xmm5, %xmm6, %xmm3 vbroadcastss %xmm3, %xmm3 vmulps 0x280(%rsp), %xmm3, %xmm3 vbroadcastss %xmm2, %xmm2 vfmadd132ps 0x2c0(%rsp), %xmm3, %xmm2 # xmm2 = (xmm2 * mem) + xmm3 vbroadcastss %xmm1, %xmm1 vfmadd132ps 0x2a0(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2 vbroadcastss %xmm0, %xmm13 vfmadd132ps 0x2e0(%rsp), %xmm1, %xmm13 # xmm13 = (xmm13 * mem) + xmm1 vdpps $0x7f, %xmm13, %xmm13, %xmm0 vxorps %xmm1, %xmm1, %xmm1 vmovss %xmm0, %xmm1, %xmm2 # xmm2 = xmm0[0],xmm1[1,2,3] vrsqrt14ss %xmm2, %xmm1, %xmm3 vmulss 0x23ba07(%rip), %xmm3, %xmm5 # 0x1eec718 vmulss 0x23ba03(%rip), %xmm0, %xmm6 # 0x1eec71c vrcp14ss %xmm2, %xmm1, %xmm2 vxorps 0x270197(%rip){1to4}, %xmm0, %xmm1 # 0x1f20ec0 vmovaps %xmm2, 0x110(%rsp) vfnmadd213ss %xmm4, %xmm0, %xmm2 # xmm2 = -(xmm0 * xmm2) + xmm4 vmovss %xmm2, 0x4c(%rsp) vucomiss %xmm1, %xmm0 vmovaps %xmm13, 0x1a0(%rsp) vmovss %xmm7, 0x180(%rsp) vmovaps %xmm0, 0x120(%rsp) jb 0x1cb0d66 vsqrtss %xmm0, %xmm0, %xmm16 jmp 0x1cb0db6 vmovaps %xmm3, 0x100(%rsp) vmovss %xmm5, 0x24(%rsp) vmovss %xmm6, 0xf0(%rsp) vzeroupper callq 0x6aa20 vmovss 0xf0(%rsp), %xmm6 vmovss 0x24(%rsp), %xmm5 vmovaps 0x100(%rsp), %xmm3 vmovss 0x180(%rsp), %xmm7 vmovaps 0x1a0(%rsp), %xmm13 vmovaps %xmm0, %xmm16 vmovaps 0xc0(%rsp), %xmm10 vmovaps 0xa0(%rsp), %xmm19 vmulss %xmm3, %xmm6, %xmm0 vmulss %xmm3, %xmm3, %xmm1 vmulss %xmm1, %xmm0, %xmm0 vaddss %xmm0, %xmm5, %xmm0 vbroadcastss %xmm0, %xmm4 vmulps %xmm4, %xmm13, %xmm0 vmovaps %xmm0, 0x100(%rsp) vdpps $0x7f, %xmm0, %xmm10, %xmm15 vaddss 0x23b91d(%rip), %xmm7, %xmm14 # 0x1eec714 vmulps %xmm15, %xmm15, %xmm0 vsubps %xmm0, %xmm19, %xmm0 vxorps %xmm2, %xmm2, %xmm2 vmovss %xmm0, %xmm2, %xmm1 # xmm1 = xmm0[0],xmm2[1,2,3] vrsqrt14ss %xmm1, %xmm2, %xmm18 vmulss 0x23b8fe(%rip), %xmm18, %xmm17 # 0x1eec718 vmulss 0x23b8f8(%rip), %xmm0, %xmm20 # 0x1eec71c vucomiss 0x23abf8(%rip), %xmm0 # 0x1eeba24 jb 0x1cb0e37 vsqrtss %xmm0, %xmm0, %xmm0 jmp 0x1cb0ed2 vmovss %xmm14, 0x24(%rsp) vmovaps %xmm15, 0xf0(%rsp) vmovss %xmm16, 0x40(%rsp) vmovss %xmm17, 0x3c(%rsp) vmovaps %xmm18, 0x360(%rsp) vmovss %xmm20, 0x38(%rsp) vmovaps %xmm4, 0x350(%rsp) vzeroupper callq 0x6aa20 vmovaps 0x350(%rsp), %xmm4 vmovss 0x38(%rsp), %xmm20 vmovaps 0x360(%rsp), %xmm18 vmovss 0x3c(%rsp), %xmm17 vmovss 0x40(%rsp), %xmm16 vmovaps 0xf0(%rsp), %xmm15 vmovss 0x24(%rsp), %xmm14 vmovss 0x180(%rsp), %xmm7 vmovaps 0x1a0(%rsp), %xmm13 vmovaps 0xa0(%rsp), %xmm19 vmovaps 0xc0(%rsp), %xmm10 vbroadcastss 0x26ffe9(%rip), %xmm11 # 0x1f20ec4 vmovaps 0x240(%rsp), %ymm30 vmovaps 0x220(%rsp), %ymm31 vmovaps 0x200(%rsp), %ymm21 vmovaps 0x60(%rsp), %xmm9 vmovaps 0x80(%rsp), %xmm8 vbroadcastss 0x370(%rsp), %xmm1 vmulps 0x280(%rsp), %xmm1, %xmm1 vbroadcastss 0x3c0(%rsp), %xmm2 vfmadd132ps 0x2c0(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1 vbroadcastss 0x3e0(%rsp), %xmm1 vfmadd132ps 0x2a0(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2 vmovss 0x2400ab(%rip), %xmm2 # 0x1ef0ff0 vfmadd213ss 0x2400aa(%rip), %xmm9, %xmm2 # xmm2 = (xmm9 * xmm2) + mem vbroadcastss %xmm2, %xmm2 vfmadd132ps 0x2e0(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1 vbroadcastss 0x120(%rsp), %xmm1 vmulps %xmm1, %xmm2, %xmm1 vdpps $0x7f, %xmm2, %xmm13, %xmm2 vbroadcastss %xmm2, %xmm2 vmulps %xmm2, %xmm13, %xmm2 vsubps %xmm2, %xmm1, %xmm1 vmovss 0x4c(%rsp), %xmm2 vmulss 0x110(%rsp), %xmm2, %xmm2 vmulss 0x48(%rsp), %xmm8, %xmm3 vbroadcastss %xmm2, %xmm2 vmulps %xmm2, %xmm1, %xmm1 vxorps 0x26ff1a(%rip){1to4}, %xmm13, %xmm2 # 0x1f20ec0 vmulps %xmm1, %xmm4, %xmm4 vmovaps 0x100(%rsp), %xmm12 vdpps $0x7f, %xmm12, %xmm2, %xmm5 vmovss 0x44(%rsp), %xmm6 vmaxss %xmm3, %xmm6, %xmm1 vdivss %xmm16, %xmm6, %xmm3 vdpps $0x7f, %xmm4, %xmm10, %xmm4 vfmadd213ss %xmm1, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm7) + xmm1 vfmadd213ss %xmm7, %xmm3, %xmm14 # xmm14 = (xmm3 * xmm14) + xmm7 vmovaps 0x270(%rsp), %xmm7 vdpps $0x7f, %xmm12, %xmm7, %xmm3 vaddss %xmm4, %xmm5, %xmm4 vdpps $0x7f, %xmm2, %xmm10, %xmm5 vmulss %xmm18, %xmm20, %xmm2 vmulss %xmm18, %xmm18, %xmm6 vmulss %xmm6, %xmm2, %xmm2 vdpps $0x7f, %xmm7, %xmm10, %xmm6 vaddss %xmm2, %xmm17, %xmm7 vfnmadd231ss %xmm4, %xmm15, %xmm5 # xmm5 = -(xmm15 * xmm4) + xmm5 vfnmadd231ss %xmm3, %xmm15, %xmm6 # xmm6 = -(xmm15 * xmm3) + xmm6 vpermilps $0xff, 0x400(%rsp), %xmm2 # xmm2 = mem[3,3,3,3] vsubss %xmm2, %xmm0, %xmm2 vshufps $0xff, %xmm13, %xmm13, %xmm0 # xmm0 = xmm13[3,3,3,3] vfmsub213ss %xmm0, %xmm7, %xmm5 # xmm5 = (xmm7 * xmm5) - xmm0 vmulss %xmm7, %xmm6, %xmm6 vmulss %xmm5, %xmm3, %xmm7 vfmsub231ss %xmm6, %xmm4, %xmm7 # xmm7 = (xmm4 * xmm6) - xmm7 vdivss %xmm7, %xmm6, %xmm6 vdivss %xmm7, %xmm5, %xmm5 vdivss %xmm7, %xmm3, %xmm3 vdivss %xmm7, %xmm4, %xmm4 vmulss %xmm6, %xmm15, %xmm6 vmulss %xmm3, %xmm2, %xmm3 vsubss %xmm3, %xmm6, %xmm3 vmulss %xmm5, %xmm15, %xmm5 vmulss %xmm4, %xmm2, %xmm4 vsubss %xmm5, %xmm4, %xmm4 vsubss %xmm3, %xmm9, %xmm9 vsubss %xmm4, %xmm8, %xmm8 vandps %xmm11, %xmm15, %xmm3 vucomiss %xmm3, %xmm14 jbe 0x1cb122e vaddss %xmm1, %xmm14, %xmm1 vmovaps 0x330(%rsp), %xmm3 vfmadd231ss 0x240e20(%rip), %xmm3, %xmm1 # xmm1 = (xmm3 * mem) + xmm1 vandps %xmm2, %xmm11, %xmm2 vucomiss %xmm2, %xmm1 jbe 0x1cb122e vaddss 0x340(%rsp), %xmm8, %xmm8 movb $0x1, %r13b vucomiss 0x5c(%rsp), %xmm8 jb 0x1cb1231 movq 0x18(%rsp), %rax vmovss 0x100(%r12,%rax,4), %xmm4 vucomiss %xmm8, %xmm4 jb 0x1cb1231 vucomiss 0x23a948(%rip), %xmm9 # 0x1eeba24 jb 0x1cb1231 vmovss 0x23b62a(%rip), %xmm1 # 0x1eec714 vucomiss %xmm9, %xmm1 jb 0x1cb1231 vxorps %xmm2, %xmm2, %xmm2 vmovss %xmm19, %xmm2, %xmm1 # xmm1 = xmm19[0],xmm2[1,2,3] vrsqrt14ss %xmm1, %xmm2, %xmm1 vmulss 0x23b60b(%rip), %xmm1, %xmm2 # 0x1eec718 vmulss 0x23b605(%rip), %xmm19, %xmm3 # 0x1eec71c movq (%r15), %rax movq 0x1e8(%rax), %rax movq %r15, %rcx movq 0x50(%rsp), %rdx movq (%rax,%rdx,8), %r15 movq 0x18(%rsp), %rax movl 0x120(%r12,%rax,4), %eax testl %eax, 0x34(%r15) je 0x1cb124e vmulss %xmm1, %xmm3, %xmm3 vmulss %xmm1, %xmm1, %xmm1 vmulss %xmm1, %xmm3, %xmm1 vaddss %xmm1, %xmm2, %xmm1 vbroadcastss %xmm1, %xmm1 vmulps %xmm1, %xmm10, %xmm1 vfmadd213ps %xmm13, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm0) + xmm13 vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3] vshufps $0xc9, %xmm13, %xmm13, %xmm3 # xmm3 = xmm13[1,2,0,3] vmulps %xmm3, %xmm1, %xmm1 vfmsub231ps %xmm2, %xmm13, %xmm1 # xmm1 = (xmm13 * xmm2) - xmm1 vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3] vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3] vshufps $0xd2, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,0,1,3] vmulps %xmm1, %xmm0, %xmm0 vfmsub231ps %xmm3, %xmm2, %xmm0 # xmm0 = (xmm2 * xmm3) - xmm0 movq 0x10(%rcx), %rax cmpq $0x0, 0x10(%rax) jne 0x1cb1253 cmpq $0x0, 0x40(%r15) jne 0x1cb1253 movq 0x18(%rsp), %rcx vmovss %xmm8, 0x100(%r12,%rcx,4) vextractps $0x1, %xmm0, 0x180(%r12,%rcx,4) vextractps $0x2, %xmm0, 0x1a0(%r12,%rcx,4) vmovss %xmm0, 0x1c0(%r12,%rcx,4) vmovss %xmm9, 0x1e0(%r12,%rcx,4) movl $0x0, 0x200(%r12,%rcx,4) movq 0x130(%rsp), %rax movl %eax, 0x220(%r12,%rcx,4) movq 0x50(%rsp), %rax movl %eax, 0x240(%r12,%rcx,4) movq 0x28(%rsp), %r15 movq 0x8(%r15), %rax movl (%rax), %eax movl %eax, 0x260(%r12,%rcx,4) movq 0x8(%r15), %rax movl 0x4(%rax), %eax movl %eax, 0x280(%r12,%rcx,4) jmp 0x1cb1231 xorl %r13d, %r13d subq $0x1, %r14 setb %al testb %r13b, %r13b jne 0x1cb1513 testb %al, %al je 0x1cb0a98 jmp 0x1cb1513 movq %rcx, %r15 jmp 0x1cb1231 movq 0x28(%rsp), %rcx movq 0x8(%rcx), %rax vbroadcastss %xmm9, %ymm1 vbroadcastss 0x26149a(%rip), %ymm2 # 0x1f12704 vpermps %ymm0, %ymm2, %ymm2 vbroadcastss 0x26fc64(%rip), %ymm3 # 0x1f20edc vpermps %ymm0, %ymm3, %ymm3 vbroadcastss %xmm0, %ymm0 vmovaps %ymm2, 0x560(%rsp) vmovaps %ymm3, 0x580(%rsp) vmovaps %ymm0, 0x5a0(%rsp) vmovaps %ymm1, 0x5c0(%rsp) vxorps %xmm0, %xmm0, %xmm0 vmovaps %ymm0, 0x5e0(%rsp) vmovaps 0x4c0(%rsp), %ymm0 vmovaps %ymm0, 0x600(%rsp) vmovdqa 0x4e0(%rsp), %ymm0 vmovdqa %ymm0, 0x620(%rsp) movq 0x1d8(%rsp), %rdx vpcmpeqd %ymm0, %ymm0, %ymm0 vmovdqa %ymm0, 0x20(%rdx) vmovdqa %ymm0, (%rdx) vbroadcastss (%rax), %ymm0 vmovaps %ymm0, 0x640(%rsp) vbroadcastss 0x4(%rax), %ymm0 vmovaps %ymm0, 0x660(%rsp) movq 0x18(%rsp), %rax vmovss %xmm8, 0x100(%r12,%rax,4) vmovaps 0x4a0(%rsp), %ymm0 vmovaps %ymm0, 0x300(%rsp) leaq 0x300(%rsp), %rax movq %rax, 0x150(%rsp) movq 0x18(%r15), %rax movq %rax, 0x158(%rsp) movq 0x8(%rcx), %rax movq %rax, 0x160(%rsp) movq %r12, 0x168(%rsp) leaq 0x560(%rsp), %rax movq %rax, 0x170(%rsp) movl $0x8, 0x178(%rsp) movq 0x40(%r15), %rax testq %rax, %rax vmovaps %xmm9, 0x60(%rsp) vmovaps %xmm8, 0x80(%rsp) vmovss %xmm4, 0xa0(%rsp) je 0x1cb13dc leaq 0x150(%rsp), %rdi vzeroupper callq *%rax vmovss 0xa0(%rsp), %xmm4 vmovaps 0x80(%rsp), %xmm8 vmovaps 0x60(%rsp), %xmm9 vmovaps 0x200(%rsp), %ymm21 vmovaps 0x220(%rsp), %ymm31 vmovaps 0x240(%rsp), %ymm30 vbroadcastss 0x26fae8(%rip), %xmm11 # 0x1f20ec4 vmovdqa 0x300(%rsp), %ymm0 vptest %ymm0, %ymm0 je 0x1cb14fa movq 0x28(%rsp), %rax movq 0x10(%rax), %rcx movq 0x10(%rcx), %rax testq %rax, %rax je 0x1cb1454 testb $0x2, (%rcx) jne 0x1cb140e testb $0x40, 0x3e(%r15) je 0x1cb1454 leaq 0x150(%rsp), %rdi vzeroupper callq *%rax vmovss 0xa0(%rsp), %xmm4 vmovaps 0x80(%rsp), %xmm8 vmovaps 0x60(%rsp), %xmm9 vmovaps 0x200(%rsp), %ymm21 vmovaps 0x220(%rsp), %ymm31 vmovaps 0x240(%rsp), %ymm30 vbroadcastss 0x26fa70(%rip), %xmm11 # 0x1f20ec4 vmovdqa 0x300(%rsp), %ymm0 vptest %ymm0, %ymm0 je 0x1cb14fa vptestmd %ymm0, %ymm0, %k1 movq 0x168(%rsp), %rax movq 0x170(%rsp), %rcx vmovaps (%rcx), %ymm0 vmovups %ymm0, 0x180(%rax) {%k1} vmovaps 0x20(%rcx), %ymm0 vmovups %ymm0, 0x1a0(%rax) {%k1} vmovaps 0x40(%rcx), %ymm0 vmovups %ymm0, 0x1c0(%rax) {%k1} vmovaps 0x60(%rcx), %ymm0 vmovups %ymm0, 0x1e0(%rax) {%k1} vmovaps 0x80(%rcx), %ymm0 vmovups %ymm0, 0x200(%rax) {%k1} vmovdqa 0xa0(%rcx), %ymm0 vmovdqu32 %ymm0, 0x220(%rax) {%k1} vmovdqa 0xc0(%rcx), %ymm0 vmovdqu32 %ymm0, 0x240(%rax) {%k1} vmovdqa 0xe0(%rcx), %ymm0 vmovdqa32 %ymm0, 0x260(%rax) {%k1} vmovdqa 0x100(%rcx), %ymm0 vmovdqa32 %ymm0, 0x280(%rax) {%k1} jmp 0x1cb1509 movq 0x18(%rsp), %rax vmovss %xmm4, 0x100(%r12,%rax,4) movq 0x28(%rsp), %r15 jmp 0x1cb1231 movq 0x18(%rsp), %rax vmovaps 0x440(%rsp), %ymm0 vcmpleps 0x100(%r12,%rax,4){1to8}, %ymm0, %k0 kmovd %k0, %eax andb %al, %bl jne 0x1cb09b4 vmovaps 0x420(%rsp), %ymm0 vaddps 0x3a0(%rsp), %ymm0, %ymm0 movq 0x18(%rsp), %rax vcmpleps 0x100(%r12,%rax,4){1to8}, %ymm0, %k0 kmovd 0x144(%rsp), %k1 kmovd 0x13c(%rsp), %k2 korb %k2, %k1, %k1 kmovd %k0, %eax movl 0x34(%rsp), %ecx andb %al, %cl vpbroadcastd 0x26f95b(%rip), %ymm0 # 0x1f20edc vpblendmd 0x26f94d(%rip){1to8}, %ymm0, %ymm0 {%k1} # 0x1f20ed8 vmovdqa %ymm0, 0x420(%rsp) vpcmpled 0x500(%rsp), %ymm0, %k0 kmovd %k0, %ebx movl %ecx, 0x34(%rsp) andb %cl, %bl je 0x1cb21b6 vmovaps 0x680(%rsp), %ymm5 vmovaps 0x2e0(%rsp), %ymm1 vmovaps 0x2a0(%rsp), %ymm2 vminps %xmm2, %xmm1, %xmm0 vmaxps %xmm2, %xmm1, %xmm1 vmovaps 0x2c0(%rsp), %ymm3 vmovaps 0x280(%rsp), %ymm4 vminps %xmm4, %xmm3, %xmm2 vminps %xmm2, %xmm0, %xmm0 vmaxps %xmm4, %xmm3, %xmm2 vmaxps %xmm2, %xmm1, %xmm1 vandps %xmm0, %xmm11, %xmm0 vandps %xmm1, %xmm11, %xmm2 vmaxps %xmm2, %xmm0, %xmm0 vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3] vmaxss %xmm0, %xmm2, %xmm2 vshufpd $0x1, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[1,0] vmaxss %xmm2, %xmm0, %xmm0 vmulss 0x24089d(%rip), %xmm0, %xmm0 # 0x1ef1eb4 vmovss %xmm0, 0x44(%rsp) vshufps $0xff, %xmm1, %xmm1, %xmm0 # xmm0 = xmm1[3,3,3,3] vmovaps %xmm0, 0x330(%rsp) vmovaps %ymm5, 0x380(%rsp) vaddps 0x3a0(%rsp), %ymm5, %ymm0 vmovaps %ymm0, 0x440(%rsp) kmovd %ebx, %k1 vbroadcastss 0x23a3cd(%rip), %ymm0 # 0x1eeba20 vblendmps 0x380(%rsp), %ymm0, %ymm0 {%k1} vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm0, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1] vminps %ymm2, %ymm1, %ymm1 vcmpeqps %ymm1, %ymm0, %k0 kmovd %k0, %eax andb %bl, %al movzbl %al, %eax movzbl %bl, %ecx cmovnel %eax, %ecx tzcntl %ecx, %ecx movb $0x1, %bl shlb %cl, %bl shll $0x2, %ecx vmovss 0x460(%rsp,%rcx), %xmm9 vmovss 0x6a0(%rsp,%rcx), %xmm10 vmovaps 0x260(%rsp), %xmm0 vucomiss 0x23a369(%rip), %xmm0 # 0x1eeba24 vmovss 0x14c(%rsp), %xmm0 jae 0x1cb1707 vmovaps 0x260(%rsp), %xmm0 vmovaps %xmm9, 0x60(%rsp) vmovaps %xmm10, 0x80(%rsp) kmovw %k1, 0xc0(%rsp) vzeroupper callq 0x6aa20 kmovw 0xc0(%rsp), %k1 vmovaps 0x80(%rsp), %xmm10 vmovaps 0x60(%rsp), %xmm9 movzbl %bl, %eax kmovd %eax, %k0 kandnb %k1, %k0, %k0 kmovd %k0, %ebx vmulss 0x240796(%rip), %xmm0, %xmm0 # 0x1ef1eb4 vmovss %xmm0, 0x48(%rsp) movl $0x4, %r14d vbroadcastss %xmm10, %xmm0 vxorps %xmm1, %xmm1, %xmm1 vfmadd132ps 0x270(%rsp), %xmm1, %xmm0 # xmm0 = (xmm0 * mem) + xmm1 vmovss 0x23afcf(%rip), %xmm1 # 0x1eec714 vsubss %xmm9, %xmm1, %xmm12 vbroadcastss 0x26f76d(%rip), %xmm6 # 0x1f20ec0 vxorps %xmm6, %xmm9, %xmm1 vmulss %xmm1, %xmm12, %xmm1 vmulss %xmm1, %xmm12, %xmm1 vmulss %xmm9, %xmm9, %xmm13 vmovss 0x23f880(%rip), %xmm8 # 0x1ef0fec vmovaps %xmm8, %xmm11 vmovss 0x23f88b(%rip), %xmm7 # 0x1ef1004 vfmadd213ss %xmm7, %xmm9, %xmm11 # xmm11 = (xmm9 * xmm11) + xmm7 vmovaps %xmm11, %xmm2 vmovss 0x23f86e(%rip), %xmm5 # 0x1ef0ff8 vfmadd213ss %xmm5, %xmm13, %xmm2 # xmm2 = (xmm13 * xmm2) + xmm5 vmulss %xmm12, %xmm12, %xmm3 vmovaps %xmm8, %xmm4 vfmadd213ss %xmm7, %xmm12, %xmm4 # xmm4 = (xmm12 * xmm4) + xmm7 vfmadd213ss %xmm5, %xmm3, %xmm4 # xmm4 = (xmm3 * xmm4) + xmm5 vxorps %xmm6, %xmm12, %xmm3 vmulss %xmm3, %xmm9, %xmm3 vmulss %xmm3, %xmm9, %xmm3 vmovss 0x23b3ca(%rip), %xmm5 # 0x1eecb80 vmulss %xmm5, %xmm1, %xmm1 vmulss %xmm5, %xmm2, %xmm2 vmulss %xmm5, %xmm4, %xmm4 vmulss %xmm5, %xmm3, %xmm3 vbroadcastss %xmm3, %xmm3 vmulps 0x280(%rsp), %xmm3, %xmm3 vbroadcastss %xmm4, %xmm4 vfmadd132ps 0x2c0(%rsp), %xmm3, %xmm4 # xmm4 = (xmm4 * mem) + xmm3 vbroadcastss %xmm2, %xmm2 vfmadd132ps 0x2a0(%rsp), %xmm4, %xmm2 # xmm2 = (xmm2 * mem) + xmm4 vbroadcastss %xmm1, %xmm3 vfmadd132ps 0x2e0(%rsp), %xmm2, %xmm3 # xmm3 = (xmm3 * mem) + xmm2 vmulss 0x23f1d3(%rip), %xmm12, %xmm6 # 0x1ef09dc vfmadd231ss 0x23f7f6(%rip), %xmm9, %xmm7 # xmm7 = (xmm9 * mem) + xmm7 vmovaps %xmm7, 0x3e0(%rsp) vmovss 0x23f7e9(%rip), %xmm1 # 0x1ef100c vfmadd213ss 0x23b360(%rip), %xmm9, %xmm1 # xmm1 = (xmm9 * xmm1) + mem vmovaps %xmm1, 0x3c0(%rsp) vfmadd213ss 0x23f18e(%rip), %xmm9, %xmm8 # xmm8 = (xmm9 * xmm8) + mem vmovaps %xmm8, 0x370(%rsp) vmovaps %xmm3, 0x400(%rsp) vsubps %xmm3, %xmm0, %xmm0 vmovaps %xmm0, 0xc0(%rsp) vdpps $0x7f, %xmm0, %xmm0, %xmm0 vucomiss 0x23a1b9(%rip), %xmm0 # 0x1eeba24 vmovaps %xmm9, 0x60(%rsp) vmovaps %xmm0, 0xa0(%rsp) vmovaps %xmm10, 0x80(%rsp) jb 0x1cb188b vsqrtss %xmm0, %xmm0, %xmm7 jmp 0x1cb18e5 vmovss %xmm11, 0x1a0(%rsp) vmovaps %xmm12, 0x180(%rsp) vmovss %xmm13, 0x120(%rsp) vmovss %xmm6, 0x110(%rsp) vzeroupper callq 0x6aa20 vmovss 0x110(%rsp), %xmm6 vmovss 0x120(%rsp), %xmm13 vmovaps 0x180(%rsp), %xmm12 vmovss 0x1a0(%rsp), %xmm11 vmovaps 0x60(%rsp), %xmm9 vmovaps %xmm0, %xmm7 vaddss %xmm12, %xmm12, %xmm0 vmulss %xmm0, %xmm9, %xmm1 vfnmadd231ss %xmm12, %xmm12, %xmm1 # xmm1 = -(xmm12 * xmm12) + xmm1 vaddss %xmm9, %xmm9, %xmm2 vmovss 0x23f6ec(%rip), %xmm4 # 0x1ef0fec vmulss %xmm4, %xmm9, %xmm3 vmulss %xmm3, %xmm9, %xmm3 vfmadd213ss %xmm3, %xmm2, %xmm11 # xmm11 = (xmm2 * xmm11) + xmm3 vmovaps %xmm4, %xmm2 vmovss 0x23f6df(%rip), %xmm4 # 0x1ef0ff8 vfmadd213ss %xmm4, %xmm9, %xmm2 # xmm2 = (xmm9 * xmm2) + xmm4 vmulss 0x23f6ca(%rip), %xmm12, %xmm3 # 0x1ef0ff0 vmulss %xmm3, %xmm12, %xmm3 vfmadd231ss %xmm2, %xmm0, %xmm3 # xmm3 = (xmm0 * xmm2) + xmm3 vfmadd213ss %xmm13, %xmm9, %xmm6 # xmm6 = (xmm9 * xmm6) + xmm13 vmovss 0x23b244(%rip), %xmm5 # 0x1eecb80 vmulss %xmm5, %xmm1, %xmm0 vmulss %xmm5, %xmm11, %xmm1 vmulss %xmm5, %xmm3, %xmm2 vmulss %xmm5, %xmm6, %xmm3 vbroadcastss %xmm3, %xmm3 vmulps 0x280(%rsp), %xmm3, %xmm3 vbroadcastss %xmm2, %xmm2 vfmadd132ps 0x2c0(%rsp), %xmm3, %xmm2 # xmm2 = (xmm2 * mem) + xmm3 vbroadcastss %xmm1, %xmm1 vfmadd132ps 0x2a0(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2 vbroadcastss %xmm0, %xmm13 vfmadd132ps 0x2e0(%rsp), %xmm1, %xmm13 # xmm13 = (xmm13 * mem) + xmm1 vdpps $0x7f, %xmm13, %xmm13, %xmm0 vxorps %xmm1, %xmm1, %xmm1 vmovss %xmm0, %xmm1, %xmm2 # xmm2 = xmm0[0],xmm1[1,2,3] vrsqrt14ss %xmm2, %xmm1, %xmm3 vmulss 0x23ad75(%rip), %xmm3, %xmm5 # 0x1eec718 vmulss 0x23ad71(%rip), %xmm0, %xmm6 # 0x1eec71c vrcp14ss %xmm2, %xmm1, %xmm2 vxorps 0x26f505(%rip){1to4}, %xmm0, %xmm1 # 0x1f20ec0 vmovaps %xmm2, 0x110(%rsp) vfnmadd213ss %xmm4, %xmm0, %xmm2 # xmm2 = -(xmm0 * xmm2) + xmm4 vmovss %xmm2, 0x4c(%rsp) vucomiss %xmm1, %xmm0 vmovaps %xmm13, 0x1a0(%rsp) vmovss %xmm7, 0x180(%rsp) vmovaps %xmm0, 0x120(%rsp) jb 0x1cb19f8 vsqrtss %xmm0, %xmm0, %xmm16 jmp 0x1cb1a48 vmovaps %xmm3, 0x100(%rsp) vmovss %xmm5, 0x24(%rsp) vmovss %xmm6, 0xf0(%rsp) vzeroupper callq 0x6aa20 vmovss 0xf0(%rsp), %xmm6 vmovss 0x24(%rsp), %xmm5 vmovaps 0x100(%rsp), %xmm3 vmovss 0x180(%rsp), %xmm7 vmovaps 0x1a0(%rsp), %xmm13 vmovaps %xmm0, %xmm16 vmovaps 0xc0(%rsp), %xmm11 vmovaps 0xa0(%rsp), %xmm19 vmulss %xmm3, %xmm6, %xmm0 vmulss %xmm3, %xmm3, %xmm1 vmulss %xmm1, %xmm0, %xmm0 vaddss %xmm0, %xmm5, %xmm0 vbroadcastss %xmm0, %xmm4 vmulps %xmm4, %xmm13, %xmm0 vmovaps %xmm0, 0x100(%rsp) vdpps $0x7f, %xmm0, %xmm11, %xmm15 vaddss 0x23ac8b(%rip), %xmm7, %xmm14 # 0x1eec714 vmulps %xmm15, %xmm15, %xmm0 vsubps %xmm0, %xmm19, %xmm0 vxorps %xmm2, %xmm2, %xmm2 vmovss %xmm0, %xmm2, %xmm1 # xmm1 = xmm0[0],xmm2[1,2,3] vrsqrt14ss %xmm1, %xmm2, %xmm18 vmulss 0x23ac6c(%rip), %xmm18, %xmm17 # 0x1eec718 vmulss 0x23ac66(%rip), %xmm0, %xmm20 # 0x1eec71c vucomiss 0x239f66(%rip), %xmm0 # 0x1eeba24 jb 0x1cb1ac9 vsqrtss %xmm0, %xmm0, %xmm0 jmp 0x1cb1b64 vmovss %xmm14, 0x24(%rsp) vmovaps %xmm15, 0xf0(%rsp) vmovss %xmm16, 0x40(%rsp) vmovss %xmm17, 0x3c(%rsp) vmovaps %xmm18, 0x360(%rsp) vmovss %xmm20, 0x38(%rsp) vmovaps %xmm4, 0x350(%rsp) vzeroupper callq 0x6aa20 vmovaps 0x350(%rsp), %xmm4 vmovss 0x38(%rsp), %xmm20 vmovaps 0x360(%rsp), %xmm18 vmovss 0x3c(%rsp), %xmm17 vmovss 0x40(%rsp), %xmm16 vmovaps 0xf0(%rsp), %xmm15 vmovss 0x24(%rsp), %xmm14 vmovss 0x180(%rsp), %xmm7 vmovaps 0x1a0(%rsp), %xmm13 vmovaps 0xa0(%rsp), %xmm19 vmovaps 0xc0(%rsp), %xmm11 vbroadcastss 0x26f357(%rip), %xmm8 # 0x1f20ec4 vmovaps 0x240(%rsp), %ymm30 vmovaps 0x220(%rsp), %ymm31 vmovaps 0x200(%rsp), %ymm21 vmovaps 0x60(%rsp), %xmm9 vmovaps 0x80(%rsp), %xmm10 vbroadcastss 0x370(%rsp), %xmm1 vmulps 0x280(%rsp), %xmm1, %xmm1 vbroadcastss 0x3c0(%rsp), %xmm2 vfmadd132ps 0x2c0(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1 vbroadcastss 0x3e0(%rsp), %xmm1 vfmadd132ps 0x2a0(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2 vmovss 0x23f419(%rip), %xmm2 # 0x1ef0ff0 vfmadd213ss 0x23f418(%rip), %xmm9, %xmm2 # xmm2 = (xmm9 * xmm2) + mem vbroadcastss %xmm2, %xmm2 vfmadd132ps 0x2e0(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1 vbroadcastss 0x120(%rsp), %xmm1 vmulps %xmm1, %xmm2, %xmm1 vdpps $0x7f, %xmm2, %xmm13, %xmm2 vbroadcastss %xmm2, %xmm2 vmulps %xmm2, %xmm13, %xmm2 vsubps %xmm2, %xmm1, %xmm1 vmovss 0x4c(%rsp), %xmm2 vmulss 0x110(%rsp), %xmm2, %xmm2 vmulss 0x48(%rsp), %xmm10, %xmm3 vbroadcastss %xmm2, %xmm2 vmulps %xmm2, %xmm1, %xmm1 vxorps 0x26f288(%rip){1to4}, %xmm13, %xmm2 # 0x1f20ec0 vmulps %xmm1, %xmm4, %xmm4 vmovaps 0x100(%rsp), %xmm12 vdpps $0x7f, %xmm12, %xmm2, %xmm5 vmovss 0x44(%rsp), %xmm6 vmaxss %xmm3, %xmm6, %xmm1 vdivss %xmm16, %xmm6, %xmm3 vdpps $0x7f, %xmm4, %xmm11, %xmm4 vfmadd213ss %xmm1, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm7) + xmm1 vfmadd213ss %xmm7, %xmm3, %xmm14 # xmm14 = (xmm3 * xmm14) + xmm7 vmovaps 0x270(%rsp), %xmm7 vdpps $0x7f, %xmm12, %xmm7, %xmm3 vaddss %xmm4, %xmm5, %xmm4 vdpps $0x7f, %xmm2, %xmm11, %xmm5 vmulss %xmm18, %xmm20, %xmm2 vmulss %xmm18, %xmm18, %xmm6 vmulss %xmm6, %xmm2, %xmm2 vdpps $0x7f, %xmm7, %xmm11, %xmm6 vaddss %xmm2, %xmm17, %xmm7 vfnmadd231ss %xmm4, %xmm15, %xmm5 # xmm5 = -(xmm15 * xmm4) + xmm5 vfnmadd231ss %xmm3, %xmm15, %xmm6 # xmm6 = -(xmm15 * xmm3) + xmm6 vpermilps $0xff, 0x400(%rsp), %xmm2 # xmm2 = mem[3,3,3,3] vsubss %xmm2, %xmm0, %xmm2 vshufps $0xff, %xmm13, %xmm13, %xmm0 # xmm0 = xmm13[3,3,3,3] vfmsub213ss %xmm0, %xmm7, %xmm5 # xmm5 = (xmm7 * xmm5) - xmm0 vmulss %xmm7, %xmm6, %xmm6 vmulss %xmm5, %xmm3, %xmm7 vfmsub231ss %xmm6, %xmm4, %xmm7 # xmm7 = (xmm4 * xmm6) - xmm7 vdivss %xmm7, %xmm6, %xmm6 vdivss %xmm7, %xmm5, %xmm5 vdivss %xmm7, %xmm3, %xmm3 vdivss %xmm7, %xmm4, %xmm4 vmulss %xmm6, %xmm15, %xmm6 vmulss %xmm3, %xmm2, %xmm3 vsubss %xmm3, %xmm6, %xmm3 vmulss %xmm5, %xmm15, %xmm5 vmulss %xmm4, %xmm2, %xmm4 vsubss %xmm5, %xmm4, %xmm4 vsubss %xmm3, %xmm9, %xmm9 vsubss %xmm4, %xmm10, %xmm10 vandps %xmm8, %xmm15, %xmm3 vucomiss %xmm3, %xmm14 jbe 0x1cb1ec0 vaddss %xmm1, %xmm14, %xmm1 vmovaps 0x330(%rsp), %xmm3 vfmadd231ss 0x24018e(%rip), %xmm3, %xmm1 # xmm1 = (xmm3 * mem) + xmm1 vandps %xmm2, %xmm8, %xmm2 vucomiss %xmm2, %xmm1 jbe 0x1cb1ec0 vaddss 0x340(%rsp), %xmm10, %xmm10 movb $0x1, %r13b vucomiss 0x5c(%rsp), %xmm10 jb 0x1cb1ec3 movq 0x18(%rsp), %rax vmovss 0x100(%r12,%rax,4), %xmm4 vucomiss %xmm10, %xmm4 jb 0x1cb1ec3 vucomiss 0x239cb6(%rip), %xmm9 # 0x1eeba24 jb 0x1cb1ec3 vmovss 0x23a998(%rip), %xmm1 # 0x1eec714 vucomiss %xmm9, %xmm1 jb 0x1cb1ec3 vxorps %xmm2, %xmm2, %xmm2 vmovss %xmm19, %xmm2, %xmm1 # xmm1 = xmm19[0],xmm2[1,2,3] vrsqrt14ss %xmm1, %xmm2, %xmm1 vmulss 0x23a979(%rip), %xmm1, %xmm2 # 0x1eec718 vmulss 0x23a973(%rip), %xmm19, %xmm3 # 0x1eec71c movq (%r15), %rax movq 0x1e8(%rax), %rax movq %r15, %rcx movq 0x50(%rsp), %rdx movq (%rax,%rdx,8), %r15 movq 0x18(%rsp), %rax movl 0x120(%r12,%rax,4), %eax testl %eax, 0x34(%r15) je 0x1cb1ee0 vmulss %xmm1, %xmm3, %xmm3 vmulss %xmm1, %xmm1, %xmm1 vmulss %xmm1, %xmm3, %xmm1 vaddss %xmm1, %xmm2, %xmm1 vbroadcastss %xmm1, %xmm1 vmulps %xmm1, %xmm11, %xmm1 vfmadd213ps %xmm13, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm0) + xmm13 vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3] vshufps $0xc9, %xmm13, %xmm13, %xmm3 # xmm3 = xmm13[1,2,0,3] vmulps %xmm3, %xmm1, %xmm1 vfmsub231ps %xmm2, %xmm13, %xmm1 # xmm1 = (xmm13 * xmm2) - xmm1 vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3] vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3] vshufps $0xd2, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,0,1,3] vmulps %xmm1, %xmm0, %xmm0 vfmsub231ps %xmm3, %xmm2, %xmm0 # xmm0 = (xmm2 * xmm3) - xmm0 movq 0x10(%rcx), %rax cmpq $0x0, 0x10(%rax) jne 0x1cb1ee5 cmpq $0x0, 0x40(%r15) jne 0x1cb1ee5 movq 0x18(%rsp), %rcx vmovss %xmm10, 0x100(%r12,%rcx,4) vextractps $0x1, %xmm0, 0x180(%r12,%rcx,4) vextractps $0x2, %xmm0, 0x1a0(%r12,%rcx,4) vmovss %xmm0, 0x1c0(%r12,%rcx,4) vmovss %xmm9, 0x1e0(%r12,%rcx,4) movl $0x0, 0x200(%r12,%rcx,4) movq 0x130(%rsp), %rax movl %eax, 0x220(%r12,%rcx,4) movq 0x50(%rsp), %rax movl %eax, 0x240(%r12,%rcx,4) movq 0x28(%rsp), %r15 movq 0x8(%r15), %rax movl (%rax), %eax movl %eax, 0x260(%r12,%rcx,4) movq 0x8(%r15), %rax movl 0x4(%rax), %eax movl %eax, 0x280(%r12,%rcx,4) jmp 0x1cb1ec3 xorl %r13d, %r13d subq $0x1, %r14 setb %al testb %r13b, %r13b jne 0x1cb2193 testb %al, %al je 0x1cb172a jmp 0x1cb2193 movq %rcx, %r15 jmp 0x1cb1ec3 movq 0x28(%rsp), %rcx movq 0x8(%rcx), %rax vbroadcastss %xmm9, %ymm1 vbroadcastss 0x260808(%rip), %ymm2 # 0x1f12704 vpermps %ymm0, %ymm2, %ymm2 vbroadcastss 0x26efd2(%rip), %ymm3 # 0x1f20edc vpermps %ymm0, %ymm3, %ymm3 vbroadcastss %xmm0, %ymm0 vmovaps %ymm2, 0x560(%rsp) vmovaps %ymm3, 0x580(%rsp) vmovaps %ymm0, 0x5a0(%rsp) vmovaps %ymm1, 0x5c0(%rsp) vxorps %xmm0, %xmm0, %xmm0 vmovaps %ymm0, 0x5e0(%rsp) vmovaps 0x4c0(%rsp), %ymm0 vmovaps %ymm0, 0x600(%rsp) vmovdqa 0x4e0(%rsp), %ymm0 vmovdqa %ymm0, 0x620(%rsp) movq 0x1d8(%rsp), %rdx vpcmpeqd %ymm0, %ymm0, %ymm0 vmovdqa %ymm0, 0x20(%rdx) vmovdqa %ymm0, (%rdx) vbroadcastss (%rax), %ymm0 vmovaps %ymm0, 0x640(%rsp) vbroadcastss 0x4(%rax), %ymm0 vmovaps %ymm0, 0x660(%rsp) movq 0x18(%rsp), %rax vmovss %xmm10, 0x100(%r12,%rax,4) vmovaps 0x4a0(%rsp), %ymm0 vmovaps %ymm0, 0x300(%rsp) leaq 0x300(%rsp), %rax movq %rax, 0x150(%rsp) movq 0x18(%r15), %rax movq %rax, 0x158(%rsp) movq 0x8(%rcx), %rax movq %rax, 0x160(%rsp) movq %r12, 0x168(%rsp) leaq 0x560(%rsp), %rax movq %rax, 0x170(%rsp) movl $0x8, 0x178(%rsp) movq 0x40(%r15), %rax testq %rax, %rax vmovaps %xmm9, 0x60(%rsp) vmovaps %xmm10, 0x80(%rsp) vmovss %xmm4, 0xa0(%rsp) je 0x1cb2065 leaq 0x150(%rsp), %rdi vzeroupper callq *%rax vmovss 0xa0(%rsp), %xmm4 vmovaps 0x80(%rsp), %xmm10 vmovaps 0x60(%rsp), %xmm9 vmovaps 0x200(%rsp), %ymm21 vmovaps 0x220(%rsp), %ymm31 vmovaps 0x240(%rsp), %ymm30 vmovdqa 0x300(%rsp), %ymm0 vptest %ymm0, %ymm0 je 0x1cb217a movq 0x28(%rsp), %rax movq 0x10(%rax), %rcx movq 0x10(%rcx), %rax testq %rax, %rax je 0x1cb20d4 testb $0x2, (%rcx) jne 0x1cb2097 testb $0x40, 0x3e(%r15) je 0x1cb20d4 leaq 0x150(%rsp), %rdi vzeroupper callq *%rax vmovss 0xa0(%rsp), %xmm4 vmovaps 0x80(%rsp), %xmm10 vmovaps 0x60(%rsp), %xmm9 vmovaps 0x200(%rsp), %ymm21 vmovaps 0x220(%rsp), %ymm31 vmovaps 0x240(%rsp), %ymm30 vmovdqa 0x300(%rsp), %ymm0 vptest %ymm0, %ymm0 je 0x1cb217a vptestmd %ymm0, %ymm0, %k1 movq 0x168(%rsp), %rax movq 0x170(%rsp), %rcx vmovaps (%rcx), %ymm0 vmovups %ymm0, 0x180(%rax) {%k1} vmovaps 0x20(%rcx), %ymm0 vmovups %ymm0, 0x1a0(%rax) {%k1} vmovaps 0x40(%rcx), %ymm0 vmovups %ymm0, 0x1c0(%rax) {%k1} vmovaps 0x60(%rcx), %ymm0 vmovups %ymm0, 0x1e0(%rax) {%k1} vmovaps 0x80(%rcx), %ymm0 vmovups %ymm0, 0x200(%rax) {%k1} vmovdqa 0xa0(%rcx), %ymm0 vmovdqu32 %ymm0, 0x220(%rax) {%k1} vmovdqa 0xc0(%rcx), %ymm0 vmovdqu32 %ymm0, 0x240(%rax) {%k1} vmovdqa 0xe0(%rcx), %ymm0 vmovdqa32 %ymm0, 0x260(%rax) {%k1} vmovdqa 0x100(%rcx), %ymm0 vmovdqa32 %ymm0, 0x280(%rax) {%k1} jmp 0x1cb2189 movq 0x18(%rsp), %rax vmovss %xmm4, 0x100(%r12,%rax,4) movq 0x28(%rsp), %r15 jmp 0x1cb1ec3 movq 0x18(%rsp), %rax vmovaps 0x440(%rsp), %ymm0 vcmpleps 0x100(%r12,%rax,4){1to8}, %ymm0, %k0 kmovd %k0, %eax andb %al, %bl jne 0x1cb1646 vmovdqa 0x500(%rsp), %ymm1 vpcmpltd 0x420(%rsp), %ymm1, %k1 vmovaps 0x920(%rsp), %ymm0 vpcmpltd 0x6c0(%rsp), %ymm1, %k2 vmovaps 0x3a0(%rsp), %ymm3 vaddps %ymm0, %ymm3, %ymm1 movq 0x18(%rsp), %rax vbroadcastss 0x100(%r12,%rax,4), %ymm2 vcmpleps %ymm2, %ymm1, %k0 {%k2} kmovd %k0, %eax movl 0x140(%rsp), %ecx andb %al, %cl vmovaps 0x680(%rsp), %ymm1 vaddps %ymm1, %ymm3, %ymm3 vcmpleps %ymm2, %ymm3, %k0 {%k1} kmovd %k0, %eax movl 0x34(%rsp), %edx andb %al, %dl orb %cl, %dl je 0x1cb22a9 movq 0x1f0(%rsp), %r9 movl %r9d, %eax leaq (%rax,%rax,2), %rax shlq $0x5, %rax movb %dl, 0x960(%rsp,%rax) kmovd %ecx, %k1 vmovaps %ymm0, %ymm1 {%k1} vmovaps %ymm1, 0x980(%rsp,%rax) vmovaps 0x1c0(%rsp), %xmm2 vmovlps %xmm2, 0x9a0(%rsp,%rax) movq 0x1e8(%rsp), %r11 leal 0x1(%r11), %ecx movl %ecx, 0x9a8(%rsp,%rax) incl %r9d movq 0x1e0(%rsp), %r8 vbroadcastss 0x23a481(%rip), %ymm16 # 0x1eec714 movq 0x1f8(%rsp), %r10 jmp 0x1cb22dc vbroadcastss 0x23a46d(%rip), %ymm16 # 0x1eec714 jmp 0x1cb22d3 movq 0x1e0(%rsp), %r8 vbroadcastss 0x23a459(%rip), %ymm16 # 0x1eec714 movq 0x1f8(%rsp), %r10 movq 0x1f0(%rsp), %r9 movq 0x1e8(%rsp), %r11 vmovaps 0x1c0(%rsp), %xmm2 movl %r9d, %eax testl %eax, %eax je 0x1cb2431 leal -0x1(%rax), %r9d leaq (%r9,%r9,2), %rcx shlq $0x5, %rcx vmovaps 0x980(%rsp,%rcx), %ymm0 movzbl 0x960(%rsp,%rcx), %esi vaddps 0x3a0(%rsp), %ymm0, %ymm1 movq 0x18(%rsp), %rdx vcmpleps 0x100(%r12,%rdx,4){1to8}, %ymm1, %k0 kmovb %k0, %edx andl %esi, %edx je 0x1cb23d4 kmovd %edx, %k1 vbroadcastss 0x2396ec(%rip), %ymm1 # 0x1eeba20 vblendmps %ymm0, %ymm1, %ymm0 {%k1} vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm0, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1] vminps %ymm2, %ymm1, %ymm1 vcmpeqps %ymm1, %ymm0, %k0 kmovd %k0, %esi andb %dl, %sil je 0x1cb236c movzbl %sil, %edi jmp 0x1cb236f movzbl %dl, %edi leaq (%rsp,%rcx), %rsi addq $0x960, %rsi # imm = 0x960 vmovss 0x44(%rsi), %xmm0 tzcntl %edi, %ecx movb $0x1, %dil shlb %cl, %dil movl 0x48(%rsi), %r11d movzbl %dil, %edi kmovd %edi, %k0 kmovd %edx, %k1 kandnb %k1, %k0, %k0 kmovb %k0, (%rsi) kortestb %k0, %k0 je 0x1cb23aa movl %eax, %r9d vbroadcastss 0x40(%rsi), %ymm1 vsubss %xmm1, %xmm0, %xmm0 vbroadcastss %xmm0, %ymm0 vfmadd132ps 0x26eb5e(%rip), %ymm1, %ymm0 # ymm0 = (ymm0 * mem) + ymm1 vmovaps %ymm0, 0x560(%rsp) vmovsd 0x560(%rsp,%rcx,4), %xmm2 movl %r9d, %eax testb %dl, %dl je 0x1cb22df jmp 0x1cafd75 vcmpleps 0x26eb11(%rip), %ymm4, %k2 # 0x1f20f00 vbroadcastss 0x23a78c(%rip), %ymm4 # 0x1eecb84 vbroadcastss 0x23961e(%rip), %ymm16 # 0x1eeba20 vblendmps %ymm4, %ymm16, %ymm3 {%k2} vmovaps %ymm3, %ymm30 {%k1} vblendmps %ymm16, %ymm4, %ymm3 {%k2} kmovd %k2, %ecx vmovaps %ymm3, %ymm31 {%k1} knotb %k1, %k0 kmovd %k0, %edx orb %cl, %dl andb %al, %dl movl %edx, %eax jmp 0x1cb037a movq 0x18(%rsp), %rax vmovaps 0x6e0(%rsp), %ymm0 vcmpleps 0x100(%r12,%rax,4){1to8}, %ymm0, %k0 kmovb %k0, %eax andl %eax, %r10d jne 0x1caf9f0 leaq -0x28(%rbp), %rsp popq %rbx popq %r12 popq %r13 popq %r14 popq %r15 popq %rbp vzeroupper retq nop
/embree[P]embree/kernels/geometry/curveNi_intersector.h
void embree::avx512::CurveNiIntersectorK<8, 16>::intersect_t<embree::avx512::SweepCurve1IntersectorK<embree::CatmullRomCurveT, 16>, embree::avx512::Intersect1KEpilog1<16, true>>(embree::avx512::CurvePrecalculationsK<16>&, embree::RayHitK<16>&, unsigned long, embree::RayQueryContext*, embree::CurveNi<8> const&)
static __forceinline void intersect_t(Precalculations& pre, RayHitK<K>& ray, const size_t k, RayQueryContext* context, const Primitive& prim) { vfloat<M> tNear; vbool<M> valid = intersect(ray,k,prim,tNear); const size_t N = prim.N; size_t mask = movemask(valid); while (mask) { const size_t i = bscf(mask); STAT3(normal.trav_prims,1,1,1); const unsigned int geomID = prim.geomID(N); const unsigned int primID = prim.primID(N)[i]; const CurveGeometry* geom = context->scene->get<CurveGeometry>(geomID); Vec3ff a0,a1,a2,a3; geom->gather(a0,a1,a2,a3,geom->curve(primID)); size_t mask1 = mask; const size_t i1 = bscf(mask1); if (mask) { const unsigned int primID1 = prim.primID(N)[i1]; geom->prefetchL1_vertices(geom->curve(primID1)); if (mask1) { const size_t i2 = bsf(mask1); const unsigned int primID2 = prim.primID(N)[i2]; geom->prefetchL2_vertices(geom->curve(primID2)); } } Intersector().intersect(pre,ray,k,context,geom,primID,a0,a1,a2,a3,Epilog(ray,k,context,geomID,primID)); mask &= movemask(tNear <= vfloat<M>(ray.tfar[k])); } }
pushq %rbp movq %rsp, %rbp pushq %r15 pushq %r14 pushq %r13 pushq %r12 pushq %rbx andq $-0x40, %rsp subq $0xc80, %rsp # imm = 0xC80 movq %rcx, %r15 movq %rsi, %r12 movzbl 0x1(%r8), %ecx leaq (%rcx,%rcx,4), %rax leaq (%rax,%rax,4), %rsi vbroadcastss 0x12(%r8,%rsi), %xmm0 vmovss (%r12,%rdx,4), %xmm1 vmovss 0x100(%r12,%rdx,4), %xmm2 vinsertps $0x10, 0x40(%r12,%rdx,4), %xmm1, %xmm1 # xmm1 = xmm1[0],mem[0],xmm1[2,3] vinsertps $0x20, 0x80(%r12,%rdx,4), %xmm1, %xmm1 # xmm1 = xmm1[0,1],mem[0],xmm1[3] vinsertps $0x10, 0x140(%r12,%rdx,4), %xmm2, %xmm2 # xmm2 = xmm2[0],mem[0],xmm2[2,3] vinsertps $0x20, 0x180(%r12,%rdx,4), %xmm2, %xmm2 # xmm2 = xmm2[0,1],mem[0],xmm2[3] vsubps 0x6(%r8,%rsi), %xmm1, %xmm1 vmulps %xmm1, %xmm0, %xmm3 vmulps %xmm2, %xmm0, %xmm0 vpmovsxbd 0x6(%r8,%rcx,4), %ymm1 vpmovsxbd 0x6(%r8,%rax), %ymm2 vcvtdq2ps %ymm1, %ymm5 vcvtdq2ps %ymm2, %ymm6 leaq (%rcx,%rcx,2), %r9 vpmovsxbd 0x6(%r8,%r9,2), %ymm1 vcvtdq2ps %ymm1, %ymm4 leaq (%rcx,%rax,2), %rsi vpmovsxbd 0x6(%r8,%rsi), %ymm1 leal (,%r9,4), %esi vpmovsxbd 0x6(%r8,%rsi), %ymm2 vcvtdq2ps %ymm1, %ymm7 vcvtdq2ps %ymm2, %ymm8 addq %rcx, %rsi vpmovsxbd 0x6(%r8,%rsi), %ymm1 vcvtdq2ps %ymm1, %ymm9 leaq (%rcx,%rcx,8), %rsi leal (%rsi,%rsi), %edi vpmovsxbd 0x6(%r8,%rdi), %ymm1 vcvtdq2ps %ymm1, %ymm10 addq %rcx, %rdi vpmovsxbd 0x6(%r8,%rdi), %ymm1 vcvtdq2ps %ymm1, %ymm11 shll $0x2, %eax vpmovsxbd 0x6(%r8,%rax), %ymm1 vcvtdq2ps %ymm1, %ymm12 vbroadcastss %xmm0, %ymm13 vbroadcastss 0x25d2c7(%rip), %ymm15 # 0x1f12704 vbroadcastss 0x26ba95(%rip), %ymm16 # 0x1f20edc vpermps %ymm0, %ymm15, %ymm14 vpermps %ymm0, %ymm16, %ymm0 vmulps %ymm4, %ymm0, %ymm2 vmulps %ymm0, %ymm9, %ymm1 vmulps %ymm0, %ymm12, %ymm0 vfmadd231ps %ymm6, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm6) + ymm2 vfmadd231ps %ymm8, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm8) + ymm1 vfmadd231ps %ymm14, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm14) + ymm0 vfmadd231ps %ymm5, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm5) + ymm2 vfmadd231ps %ymm7, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm7) + ymm1 vfmadd231ps %ymm13, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm13) + ymm0 vbroadcastss %xmm3, %ymm13 vpermps %ymm3, %ymm15, %ymm14 vpermps %ymm3, %ymm16, %ymm3 vmulps %ymm4, %ymm3, %ymm15 vmulps %ymm3, %ymm9, %ymm4 vmulps %ymm3, %ymm12, %ymm3 vfmadd231ps %ymm6, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm6) + ymm15 vfmadd231ps %ymm8, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm8) + ymm4 vfmadd231ps %ymm11, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm11) + ymm3 vfmadd231ps %ymm5, %ymm13, %ymm15 # ymm15 = (ymm13 * ymm5) + ymm15 vfmadd231ps %ymm7, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm7) + ymm4 vbroadcastss 0x26ba0a(%rip), %ymm6 # 0x1f20ec4 vfmadd231ps %ymm10, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm10) + ymm3 vandps %ymm6, %ymm2, %ymm5 vbroadcastss 0x23bb1c(%rip), %ymm7 # 0x1ef0fe8 vcmpltps %ymm7, %ymm5, %k1 vmovaps %ymm7, %ymm2 {%k1} vandps %ymm6, %ymm1, %ymm5 vcmpltps %ymm7, %ymm5, %k1 vmovaps %ymm7, %ymm1 {%k1} vandps %ymm6, %ymm0, %ymm5 vcmpltps %ymm7, %ymm5, %k1 vmovaps %ymm7, %ymm0 {%k1} vrcp14ps %ymm2, %ymm5 vbroadcastss 0x23720a(%rip), %ymm6 # 0x1eec714 vfnmadd213ps %ymm6, %ymm5, %ymm2 # ymm2 = -(ymm5 * ymm2) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm2 # ymm2 = (ymm2 * ymm5) + ymm5 vrcp14ps %ymm1, %ymm5 vfnmadd213ps %ymm6, %ymm5, %ymm1 # ymm1 = -(ymm5 * ymm1) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm1 # ymm1 = (ymm1 * ymm5) + ymm5 vrcp14ps %ymm0, %ymm5 vfnmadd213ps %ymm6, %ymm5, %ymm0 # ymm0 = -(ymm5 * ymm0) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm0 # ymm0 = (ymm0 * ymm5) + ymm5 leaq (,%rcx,8), %rdi subq %rcx, %rdi vpmovsxwd 0x6(%r8,%rdi), %ymm5 vcvtdq2ps %ymm5, %ymm5 vsubps %ymm15, %ymm5, %ymm5 vmulps %ymm5, %ymm2, %ymm5 vpmovsxwd 0x6(%r8,%rsi), %ymm6 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm15, %ymm6, %ymm6 leaq (%rcx,%rcx), %rsi addq %rcx, %rax shlq $0x3, %r9 subq %rcx, %r9 vpbroadcastd %ecx, %ymm7 shll $0x4, %ecx vpmovsxwd 0x6(%r8,%rcx), %ymm8 vmulps %ymm6, %ymm2, %ymm2 subq %rsi, %rcx vpmovsxwd 0x6(%r8,%rcx), %ymm6 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm4, %ymm6, %ymm6 vmulps %ymm6, %ymm1, %ymm6 vcvtdq2ps %ymm8, %ymm8 vsubps %ymm4, %ymm8, %ymm4 vmulps %ymm4, %ymm1, %ymm1 vpmovsxwd 0x6(%r8,%rax), %ymm4 vcvtdq2ps %ymm4, %ymm4 vsubps %ymm3, %ymm4, %ymm4 vmulps %ymm0, %ymm4, %ymm4 vpmovsxwd 0x6(%r8,%r9), %ymm8 vcvtdq2ps %ymm8, %ymm8 vsubps %ymm3, %ymm8, %ymm3 vmulps %ymm3, %ymm0, %ymm0 vpminsd %ymm2, %ymm5, %ymm3 vpminsd %ymm1, %ymm6, %ymm8 vmaxps %ymm8, %ymm3, %ymm3 vpminsd %ymm0, %ymm4, %ymm8 vmaxps 0xc0(%r12,%rdx,4){1to8}, %ymm8, %ymm8 vmaxps %ymm8, %ymm3, %ymm3 vmulps 0x26a916(%rip){1to8}, %ymm3, %ymm3 # 0x1f1ff10 vpmaxsd %ymm2, %ymm5, %ymm2 vpmaxsd %ymm1, %ymm6, %ymm1 vminps %ymm1, %ymm2, %ymm1 vpmaxsd %ymm0, %ymm4, %ymm0 movq %rdx, 0x18(%rsp) vminps 0x200(%r12,%rdx,4){1to8}, %ymm0, %ymm0 vminps %ymm0, %ymm1, %ymm0 vmulps 0x26a8e9(%rip){1to8}, %ymm0, %ymm0 # 0x1f1ff14 vpcmpgtd 0x2a52eb(%rip), %ymm7, %k0 # 0x1f5a920 vmovaps %ymm3, 0x580(%rsp) vcmpleps %ymm0, %ymm3, %k1 ktestb %k0, %k1 je 0x1cb812e kandb %k0, %k1, %k0 kmovd %k0, %eax movzbl %al, %r10d leaq 0x8c0(%rsp), %rax addq $0x1c0, %rax # imm = 0x1C0 movq %rax, 0x1d8(%rsp) movl $0x1, %eax movq 0x18(%rsp), %rcx shlxl %ecx, %eax, %eax kmovd %eax, %k0 vpmovm2d %k0, %zmm0 vmovdqa64 %zmm0, 0x800(%rsp) movq %r15, 0x28(%rsp) movq %r8, 0x1e0(%rsp) tzcntq %r10, %rax movl 0x2(%r8), %ecx movl 0x6(%r8,%rax,4), %edi movq (%r15), %rax movq 0x1e8(%rax), %rax movq %rcx, 0x50(%rsp) movq (%rax,%rcx,8), %rsi movq 0x58(%rsi), %rax movq 0x68(%rsi), %rcx movq %rcx, %rdx movq %rdi, 0x130(%rsp) imulq %rdi, %rdx movl (%rax,%rdx), %edi movq 0xa0(%rsi), %rdx movq %rdx, %r9 imulq %rdi, %r9 movq 0x90(%rsi), %rsi vmovaps (%rsi,%r9), %xmm1 leaq 0x1(%rdi), %r9 imulq %rdx, %r9 vmovaps (%rsi,%r9), %xmm0 leaq 0x2(%rdi), %r9 imulq %rdx, %r9 vmovaps (%rsi,%r9), %xmm2 blsrq %r10, %r10 addq $0x3, %rdi imulq %rdx, %rdi vmovaps (%rsi,%rdi), %xmm3 movq %r10, %rdi subq $0x1, %rdi jb 0x1cb5773 andq %r10, %rdi tzcntq %r10, %r9 movl 0x6(%r8,%r9,4), %r9d imulq %rcx, %r9 movl (%rax,%r9), %r9d imulq %rdx, %r9 prefetcht0 (%rsi,%r9) prefetcht0 0x40(%rsi,%r9) testq %rdi, %rdi je 0x1cb5773 tzcntq %rdi, %rdi movl 0x6(%r8,%rdi,4), %edi imulq %rdi, %rcx movl (%rax,%rcx), %eax imulq %rax, %rdx prefetcht1 (%rsi,%rdx) prefetcht1 0x40(%rsi,%rdx) movq 0x18(%rsp), %rax vmovss (%r12,%rax,4), %xmm4 vinsertps $0x1c, 0x40(%r12,%rax,4), %xmm4, %xmm4 # xmm4 = xmm4[0],mem[0],zero,zero vinsertps $0x28, 0x80(%r12,%rax,4), %xmm4, %xmm4 # xmm4 = xmm4[0,1],mem[0],zero vbroadcastss 0x100(%r12,%rax,4), %ymm30 vbroadcastss 0x140(%r12,%rax,4), %ymm31 vunpcklps %xmm31, %xmm30, %xmm5 # xmm5 = xmm30[0],xmm31[0],xmm30[1],xmm31[1] vbroadcastss 0x180(%r12,%rax,4), %ymm21 vinsertps $0x28, %xmm21, %xmm5, %xmm9 # xmm9 = xmm5[0,1],xmm21[0],zero vaddps %xmm0, %xmm1, %xmm5 vmulps 0x2373bc(%rip){1to4}, %xmm5, %xmm5 # 0x1eecb80 vsubps %xmm4, %xmm5, %xmm5 vdpps $0x7f, %xmm9, %xmm5, %xmm5 vmovss 0xc0(%r12,%rax,4), %xmm10 vdpps $0x7f, %xmm9, %xmm9, %xmm11 vxorps %xmm8, %xmm8, %xmm8 vmovss %xmm11, %xmm8, %xmm6 vrcp14ss %xmm6, %xmm8, %xmm6 vmovaps %xmm6, %xmm7 vfnmadd213ss 0x23b7fe(%rip), %xmm11, %xmm7 # xmm7 = -(xmm11 * xmm7) + mem vmulss %xmm7, %xmm6, %xmm6 vmulss %xmm6, %xmm5, %xmm5 vbroadcastss %xmm5, %ymm6 vmovaps %xmm9, 0x270(%rsp) vmovaps %ymm6, 0x380(%rsp) vfmadd231ps %xmm6, %xmm9, %xmm4 # xmm4 = (xmm9 * xmm6) + xmm4 vblendps $0x8, %xmm8, %xmm4, %xmm4 # xmm4 = xmm4[0,1,2],xmm8[3] vsubps %xmm4, %xmm1, %xmm6 vsubps %xmm4, %xmm2, %xmm7 vsubps %xmm4, %xmm0, %xmm8 vsubps %xmm4, %xmm3, %xmm3 vbroadcastss %xmm6, %ymm0 vmovaps %ymm0, 0x500(%rsp) vbroadcastss 0x25ceb9(%rip), %ymm0 # 0x1f12704 vpermps %ymm6, %ymm0, %ymm1 vmovaps %ymm1, 0x7a0(%rsp) vbroadcastss 0x26b67a(%rip), %ymm1 # 0x1f20edc vpermps %ymm6, %ymm1, %ymm2 vmovaps %ymm2, 0x780(%rsp) vbroadcastss 0x26b65f(%rip), %ymm2 # 0x1f20ed8 vmovaps %ymm6, 0x2e0(%rsp) vpermps %ymm6, %ymm2, %ymm4 vmovaps %ymm4, 0x760(%rsp) vbroadcastss %xmm8, %ymm4 vmovaps %ymm4, 0x740(%rsp) vpermps %ymm8, %ymm0, %ymm4 vmovaps %ymm4, 0x720(%rsp) vpermps %ymm8, %ymm1, %ymm4 vmovaps %ymm4, 0x700(%rsp) vmovaps %ymm8, 0x2a0(%rsp) vpermps %ymm8, %ymm2, %ymm4 vmovaps %ymm4, 0x6e0(%rsp) vbroadcastss %xmm7, %ymm4 vmovaps %ymm4, 0x6c0(%rsp) vpermps %ymm7, %ymm0, %ymm4 vmovaps %ymm4, 0x6a0(%rsp) vpermps %ymm7, %ymm1, %ymm4 vmovaps %ymm4, 0x680(%rsp) vmovaps %ymm7, 0x2c0(%rsp) vpermps %ymm7, %ymm2, %ymm4 vmovaps %ymm4, 0x660(%rsp) vbroadcastss %xmm3, %ymm4 vmovaps %ymm4, 0x640(%rsp) vpermps %ymm3, %ymm0, %ymm0 vmovaps %ymm0, 0x620(%rsp) vpermps %ymm3, %ymm1, %ymm0 vmovaps %ymm0, 0x600(%rsp) vmovaps %ymm3, 0x280(%rsp) vpermps %ymm3, %ymm2, %ymm0 vmovaps %ymm0, 0x5e0(%rsp) vmulss %xmm21, %xmm21, %xmm0 vfmadd231ps %ymm31, %ymm31, %ymm0 # ymm0 = (ymm31 * ymm31) + ymm0 vfmadd231ps %ymm30, %ymm30, %ymm0 # ymm0 = (ymm30 * ymm30) + ymm0 vbroadcastss %xmm0, %ymm0 vmovaps %ymm0, 0x5c0(%rsp) vandps 0x26b547(%rip){1to8}, %ymm0, %ymm0 # 0x1f20ec4 vmovaps %ymm0, 0x4e0(%rsp) vmovss %xmm10, 0x5c(%rsp) vmovaps %xmm5, 0x320(%rsp) vsubss %xmm5, %xmm10, %xmm0 vbroadcastss %xmm0, %ymm0 vmovaps %ymm0, 0x5a0(%rsp) movq 0x50(%rsp), %rax vpbroadcastd %eax, %zmm0 vmovdqa64 %zmm0, 0x880(%rsp) movl $0x1, %r11d xorl %r9d, %r9d movq 0x130(%rsp), %rax vpbroadcastd %eax, %zmm0 vmovdqa64 %zmm0, 0x840(%rsp) vsqrtss %xmm11, %xmm11, %xmm0 vmovss %xmm0, 0x14c(%rsp) vmovaps %xmm11, 0x260(%rsp) vsqrtss %xmm11, %xmm11, %xmm0 vmovss %xmm0, 0x148(%rsp) vmovsd 0x236cea(%rip), %xmm2 # 0x1eec6f0 vbroadcastss 0x236d04(%rip), %ymm16 # 0x1eec714 vmovaps %ymm30, 0x240(%rsp) vmovaps %ymm31, 0x220(%rsp) vmovaps %ymm21, 0x200(%rsp) vmovshdup %xmm2, %xmm0 # xmm0 = xmm2[1,1,3,3] vsubss %xmm2, %xmm0, %xmm0 vmulss 0x26b498(%rip), %xmm0, %xmm1 # 0x1f20ed0 vmovaps %xmm1, 0x60(%rsp) vmovaps %xmm2, 0x1c0(%rsp) vbroadcastss %xmm2, %ymm4 vbroadcastss %xmm0, %ymm0 vmovaps %ymm4, 0xa0(%rsp) vmovaps %ymm0, 0x80(%rsp) vfmadd231ps 0x26b4b4(%rip), %ymm0, %ymm4 # ymm4 = (ymm0 * mem) + ymm4 vsubps %ymm4, %ymm16, %ymm7 vbroadcastss 0x26b444(%rip), %ymm26 # 0x1f20ec0 vxorps %ymm26, %ymm4, %ymm0 vmulps %ymm0, %ymm7, %ymm0 vmulps %ymm0, %ymm7, %ymm0 vmulps %ymm4, %ymm4, %ymm3 vmovaps %ymm3, 0xc0(%rsp) vbroadcastss 0x23b54c(%rip), %ymm2 # 0x1ef0fec vmulps %ymm2, %ymm4, %ymm9 vbroadcastss 0x23b557(%rip), %ymm5 # 0x1ef1004 vaddps %ymm5, %ymm9, %ymm10 vmulps %ymm3, %ymm10, %ymm1 vbroadcastss 0x23b53a(%rip), %ymm3 # 0x1ef0ff8 vaddps %ymm3, %ymm1, %ymm1 vmulps %ymm7, %ymm7, %ymm11 vmulps %ymm2, %ymm7, %ymm8 vaddps %ymm5, %ymm8, %ymm2 vmulps %ymm2, %ymm11, %ymm2 vaddps %ymm3, %ymm2, %ymm2 vxorps %ymm26, %ymm7, %ymm5 vmulps %ymm5, %ymm4, %ymm5 vmulps %ymm5, %ymm4, %ymm5 vbroadcastss 0x237092(%rip), %ymm17 # 0x1eecb80 vmulps %ymm17, %ymm0, %ymm13 vmulps %ymm17, %ymm1, %ymm14 vmulps %ymm17, %ymm2, %ymm15 vmulps %ymm17, %ymm5, %ymm5 vmovaps 0x640(%rsp), %ymm26 vmulps %ymm5, %ymm26, %ymm1 vmovaps 0x620(%rsp), %ymm12 vmulps %ymm5, %ymm12, %ymm0 vmovaps 0x600(%rsp), %ymm16 vmulps %ymm5, %ymm16, %ymm2 vmovaps 0x5e0(%rsp), %ymm6 vmulps %ymm5, %ymm6, %ymm5 vmovaps 0x6c0(%rsp), %ymm25 vfmadd231ps %ymm25, %ymm15, %ymm1 # ymm1 = (ymm15 * ymm25) + ymm1 vmovaps 0x6a0(%rsp), %ymm27 vfmadd231ps %ymm27, %ymm15, %ymm0 # ymm0 = (ymm15 * ymm27) + ymm0 vmovaps 0x680(%rsp), %ymm28 vfmadd231ps %ymm28, %ymm15, %ymm2 # ymm2 = (ymm15 * ymm28) + ymm2 vmovaps 0x660(%rsp), %ymm29 vfmadd231ps %ymm15, %ymm29, %ymm5 # ymm5 = (ymm29 * ymm15) + ymm5 vmovaps 0x740(%rsp), %ymm20 vfmadd231ps %ymm20, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm20) + ymm1 vmovaps 0x720(%rsp), %ymm22 vfmadd231ps %ymm22, %ymm14, %ymm0 # ymm0 = (ymm14 * ymm22) + ymm0 vmovaps 0x700(%rsp), %ymm23 vfmadd231ps %ymm23, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm23) + ymm2 vmovaps 0x6e0(%rsp), %ymm24 vfmadd231ps %ymm14, %ymm24, %ymm5 # ymm5 = (ymm24 * ymm14) + ymm5 vfmadd231ps 0x500(%rsp), %ymm13, %ymm1 # ymm1 = (ymm13 * mem) + ymm1 vmovaps 0x7a0(%rsp), %ymm3 vfmadd231ps %ymm3, %ymm13, %ymm0 # ymm0 = (ymm13 * ymm3) + ymm0 vmovaps 0x780(%rsp), %ymm18 vfmadd231ps %ymm18, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm18) + ymm2 vmovaps 0x760(%rsp), %ymm19 vfmadd231ps %ymm13, %ymm19, %ymm5 # ymm5 = (ymm19 * ymm13) + ymm5 vaddps %ymm7, %ymm7, %ymm13 vmulps %ymm4, %ymm13, %ymm14 vsubps %ymm11, %ymm14, %ymm11 vaddps %ymm4, %ymm4, %ymm15 vmulps %ymm10, %ymm15, %ymm10 vmulps %ymm4, %ymm9, %ymm4 vaddps %ymm4, %ymm10, %ymm4 vaddps 0x23b3f0(%rip){1to8}, %ymm9, %ymm9 # 0x1ef0ff8 vmulps %ymm9, %ymm13, %ymm9 vmulps %ymm7, %ymm8, %ymm7 vsubps %ymm7, %ymm9, %ymm7 vmovaps 0xc0(%rsp), %ymm8 vsubps %ymm14, %ymm8, %ymm8 vmulps %ymm17, %ymm11, %ymm9 vmulps %ymm17, %ymm4, %ymm4 vmulps %ymm17, %ymm7, %ymm7 vmulps %ymm17, %ymm8, %ymm8 vmulps %ymm8, %ymm26, %ymm10 vmulps %ymm8, %ymm12, %ymm12 vmulps %ymm8, %ymm16, %ymm13 vmovaps %ymm2, %ymm26 vmulps %ymm6, %ymm8, %ymm8 vfmadd231ps %ymm25, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm25) + ymm10 vfmadd231ps %ymm27, %ymm7, %ymm12 # ymm12 = (ymm7 * ymm27) + ymm12 vfmadd231ps %ymm28, %ymm7, %ymm13 # ymm13 = (ymm7 * ymm28) + ymm13 vfmadd231ps %ymm7, %ymm29, %ymm8 # ymm8 = (ymm29 * ymm7) + ymm8 vfmadd231ps %ymm20, %ymm4, %ymm10 # ymm10 = (ymm4 * ymm20) + ymm10 vfmadd231ps %ymm22, %ymm4, %ymm12 # ymm12 = (ymm4 * ymm22) + ymm12 vfmadd231ps %ymm23, %ymm4, %ymm13 # ymm13 = (ymm4 * ymm23) + ymm13 vfmadd231ps %ymm4, %ymm24, %ymm8 # ymm8 = (ymm24 * ymm4) + ymm8 vfmadd231ps 0x500(%rsp), %ymm9, %ymm10 # ymm10 = (ymm9 * mem) + ymm10 vfmadd231ps %ymm3, %ymm9, %ymm12 # ymm12 = (ymm9 * ymm3) + ymm12 vfmadd231ps %ymm18, %ymm9, %ymm13 # ymm13 = (ymm9 * ymm18) + ymm13 vfmadd231ps %ymm9, %ymm19, %ymm8 # ymm8 = (ymm19 * ymm9) + ymm8 vbroadcastss 0x60(%rsp), %ymm4 vmulps %ymm4, %ymm10, %ymm11 vmulps %ymm4, %ymm12, %ymm12 vmulps %ymm4, %ymm13, %ymm13 vmulps %ymm4, %ymm8, %ymm6 vmovaps %ymm1, %ymm8 vmovaps 0x2aa05c(%rip), %ymm7 # 0x1f5fd20 vmovaps %ymm31, %ymm3 vxorps %xmm31, %xmm31, %xmm31 vpermt2ps %ymm31, %ymm7, %ymm8 vmovaps %ymm0, %ymm9 vpermt2ps %ymm31, %ymm7, %ymm9 vmovaps %ymm2, %ymm10 vpermt2ps %ymm31, %ymm7, %ymm10 vaddps %ymm6, %ymm5, %ymm4 vmaxps %ymm4, %ymm5, %ymm14 vminps %ymm4, %ymm5, %ymm4 vmovaps %ymm5, %ymm15 vpermt2ps %ymm31, %ymm7, %ymm15 vmovaps %ymm11, %ymm19 vpermt2ps %ymm31, %ymm7, %ymm19 vmovaps %ymm12, %ymm20 vpermt2ps %ymm31, %ymm7, %ymm20 vmovaps %ymm13, %ymm2 vpermt2ps %ymm31, %ymm7, %ymm2 vpermt2ps %ymm31, %ymm7, %ymm6 vsubps %ymm6, %ymm15, %ymm16 vmovaps %ymm8, 0x60(%rsp) vsubps %ymm1, %ymm8, %ymm7 vsubps %ymm0, %ymm9, %ymm6 vsubps %ymm26, %ymm10, %ymm5 vmulps %ymm13, %ymm6, %ymm17 vfmsub231ps %ymm5, %ymm12, %ymm17 # ymm17 = (ymm12 * ymm5) - ymm17 vmulps %ymm11, %ymm5, %ymm18 vfmsub231ps %ymm7, %ymm13, %ymm18 # ymm18 = (ymm13 * ymm7) - ymm18 vmulps %ymm12, %ymm7, %ymm22 vfmsub231ps %ymm6, %ymm11, %ymm22 # ymm22 = (ymm11 * ymm6) - ymm22 vmulps %ymm22, %ymm22, %ymm22 vfmadd231ps %ymm18, %ymm18, %ymm22 # ymm22 = (ymm18 * ymm18) + ymm22 vfmadd231ps %ymm17, %ymm17, %ymm22 # ymm22 = (ymm17 * ymm17) + ymm22 vmulps %ymm5, %ymm5, %ymm17 vfmadd231ps %ymm6, %ymm6, %ymm17 # ymm17 = (ymm6 * ymm6) + ymm17 vfmadd231ps %ymm7, %ymm7, %ymm17 # ymm17 = (ymm7 * ymm7) + ymm17 vrcp14ps %ymm17, %ymm18 vmovaps %ymm18, %ymm23 vbroadcastss 0x236974(%rip), %ymm24 # 0x1eec714 vmovaps %ymm24, %ymm8 vfnmadd213ps %ymm24, %ymm17, %ymm23 # ymm23 = -(ymm17 * ymm23) + ymm24 vfmadd132ps %ymm18, %ymm18, %ymm23 # ymm23 = (ymm23 * ymm18) + ymm18 vmulps %ymm23, %ymm22, %ymm18 vmulps %ymm2, %ymm6, %ymm22 vfmsub231ps %ymm5, %ymm20, %ymm22 # ymm22 = (ymm20 * ymm5) - ymm22 vmulps %ymm19, %ymm5, %ymm24 vfmsub231ps %ymm7, %ymm2, %ymm24 # ymm24 = (ymm2 * ymm7) - ymm24 vmulps %ymm20, %ymm7, %ymm25 vfmsub231ps %ymm6, %ymm19, %ymm25 # ymm25 = (ymm19 * ymm6) - ymm25 vmulps %ymm25, %ymm25, %ymm25 vfmadd231ps %ymm24, %ymm24, %ymm25 # ymm25 = (ymm24 * ymm24) + ymm25 vfmadd231ps %ymm22, %ymm22, %ymm25 # ymm25 = (ymm22 * ymm22) + ymm25 vmulps %ymm23, %ymm25, %ymm22 vmaxps %ymm22, %ymm18, %ymm18 vsqrtps %ymm18, %ymm18 vmaxps %ymm15, %ymm16, %ymm22 vmaxps %ymm22, %ymm14, %ymm14 vaddps %ymm14, %ymm18, %ymm14 vminps %ymm15, %ymm16, %ymm15 vminps %ymm15, %ymm4, %ymm4 vsubps %ymm18, %ymm4, %ymm4 vmulps 0x23ab13(%rip){1to8}, %ymm14, %ymm14 # 0x1ef0940 vmulps 0x23ab0d(%rip){1to8}, %ymm4, %ymm4 # 0x1ef0944 vmovaps %ymm4, 0xc0(%rsp) vmulps %ymm14, %ymm14, %ymm4 vrsqrt14ps %ymm17, %ymm15 vmulps 0x2368c7(%rip){1to8}, %ymm17, %ymm14 # 0x1eec71c vmulps %ymm14, %ymm15, %ymm14 vmulps %ymm15, %ymm15, %ymm16 vmulps %ymm14, %ymm16, %ymm14 vfmadd231ps 0x2368a8(%rip){1to8}, %ymm15, %ymm14 # ymm14 = (ymm15 * mem) + ymm14 vmulps %ymm7, %ymm14, %ymm15 vmulps %ymm14, %ymm6, %ymm16 vmulps %ymm14, %ymm5, %ymm18 vmovaps %ymm1, 0x180(%rsp) vsubps %ymm1, %ymm31, %ymm27 vmovaps %ymm0, 0x3e0(%rsp) vsubps %ymm0, %ymm31, %ymm28 vmovaps %ymm26, 0x1a0(%rsp) vsubps %ymm26, %ymm31, %ymm29 vmulps %ymm29, %ymm21, %ymm22 vfmadd231ps %ymm28, %ymm3, %ymm22 # ymm22 = (ymm3 * ymm28) + ymm22 vfmadd231ps %ymm27, %ymm30, %ymm22 # ymm22 = (ymm30 * ymm27) + ymm22 vmulps %ymm29, %ymm29, %ymm24 vfmadd231ps %ymm28, %ymm28, %ymm24 # ymm24 = (ymm28 * ymm28) + ymm24 vfmadd231ps %ymm27, %ymm27, %ymm24 # ymm24 = (ymm27 * ymm27) + ymm24 vmulps %ymm18, %ymm21, %ymm17 vfmadd231ps %ymm3, %ymm16, %ymm17 # ymm17 = (ymm16 * ymm3) + ymm17 vfmadd231ps %ymm30, %ymm15, %ymm17 # ymm17 = (ymm15 * ymm30) + ymm17 vmulps %ymm18, %ymm29, %ymm18 vfmadd231ps %ymm16, %ymm28, %ymm18 # ymm18 = (ymm28 * ymm16) + ymm18 vfmadd231ps %ymm15, %ymm27, %ymm18 # ymm18 = (ymm27 * ymm15) + ymm18 vmulps %ymm17, %ymm17, %ymm0 vmovaps 0x5c0(%rsp), %ymm1 vsubps %ymm0, %ymm1, %ymm15 vmulps %ymm18, %ymm17, %ymm25 vsubps %ymm25, %ymm22, %ymm22 vaddps %ymm22, %ymm22, %ymm22 vmulps %ymm18, %ymm18, %ymm25 vsubps %ymm25, %ymm24, %ymm21 vsubps %ymm4, %ymm21, %ymm4 vmulps %ymm22, %ymm22, %ymm25 vmulps 0x236c51(%rip){1to8}, %ymm15, %ymm24 # 0x1eecb8c vmulps %ymm4, %ymm24, %ymm30 vsubps %ymm30, %ymm25, %ymm30 vcmpnltps %ymm31, %ymm30, %k1 kmovd %k1, %eax kortestb %k1, %k1 je 0x1cb6039 vsqrtps %ymm30, %ymm30 vaddps %ymm15, %ymm15, %ymm31 vrcp14ps %ymm31, %ymm3 vfnmadd213ps %ymm8, %ymm3, %ymm31 # ymm31 = -(ymm3 * ymm31) + ymm8 vfmadd132ps %ymm3, %ymm3, %ymm31 # ymm31 = (ymm31 * ymm3) + ymm3 vxorps 0x26af3c(%rip){1to8}, %ymm22, %ymm3 # 0x1f20ec0 vsubps %ymm30, %ymm3, %ymm3 vmulps %ymm31, %ymm3, %ymm3 vsubps %ymm22, %ymm30, %ymm30 vmulps %ymm31, %ymm30, %ymm31 vmovaps %ymm17, %ymm30 vfmadd213ps %ymm18, %ymm3, %ymm30 # ymm30 = (ymm3 * ymm30) + ymm18 vmulps %ymm30, %ymm14, %ymm30 vmovaps %ymm30, 0x4a0(%rsp) vmovaps %ymm17, %ymm30 vfmadd213ps %ymm18, %ymm31, %ymm30 # ymm30 = (ymm31 * ymm30) + ymm18 vmulps %ymm30, %ymm14, %ymm30 vmovaps %ymm30, 0x480(%rsp) vbroadcastss 0x235a46(%rip), %ymm16 # 0x1eeba20 vblendmps %ymm3, %ymm16, %ymm30 {%k1} vbroadcastss 0x236b9b(%rip), %ymm3 # 0x1eecb84 vblendmps %ymm31, %ymm3, %ymm31 {%k1} vbroadcastss 0x26aecb(%rip), %ymm23 # 0x1f20ec4 vandps %ymm23, %ymm0, %ymm3 vmovaps 0x4e0(%rsp), %ymm1 vmaxps %ymm3, %ymm1, %ymm3 vmulps 0x23be9e(%rip){1to8}, %ymm3, %ymm3 # 0x1ef1eb4 vandps %ymm23, %ymm15, %ymm23 vcmpltps %ymm3, %ymm23, %k1 {%k1} kortestb %k1, %k1 jne 0x1cb80ba vbroadcastss 0x2366dd(%rip), %ymm16 # 0x1eec714 jmp 0x1cb6053 vbroadcastss 0x2359dd(%rip), %ymm30 # 0x1eeba20 vbroadcastss 0x236b37(%rip), %ymm31 # 0x1eecb84 vmovaps %ymm8, %ymm16 andb $0x7f, %al je 0x1cb645e vmovaps %ymm21, 0x3c0(%rsp) vmovaps %ymm0, 0x3a0(%rsp) movq 0x18(%rsp), %rcx vmovss 0x200(%r12,%rcx,4), %xmm3 vsubss 0x320(%rsp), %xmm3, %xmm3 vbroadcastss %xmm3, %ymm3 vminps %ymm31, %ymm3, %ymm3 vmovaps 0x5a0(%rsp), %ymm1 vmaxps %ymm30, %ymm1, %ymm4 vmulps %ymm13, %ymm29, %ymm23 vfmadd213ps %ymm23, %ymm12, %ymm28 # ymm28 = (ymm12 * ymm28) + ymm23 vfmadd213ps %ymm28, %ymm11, %ymm27 # ymm27 = (ymm11 * ymm27) + ymm28 vmovaps 0x200(%rsp), %ymm21 vmulps %ymm13, %ymm21, %ymm13 vmovaps 0x220(%rsp), %ymm31 vfmadd231ps %ymm12, %ymm31, %ymm13 # ymm13 = (ymm31 * ymm12) + ymm13 vmovaps 0x240(%rsp), %ymm30 vfmadd231ps %ymm11, %ymm30, %ymm13 # ymm13 = (ymm30 * ymm11) + ymm13 vbroadcastss 0x26ade0(%rip), %ymm28 # 0x1f20ec4 vandps %ymm28, %ymm13, %ymm11 vbroadcastss 0x23aef4(%rip), %ymm29 # 0x1ef0fe8 vcmpltps %ymm29, %ymm11, %k0 vbroadcastss 0x26adbb(%rip), %ymm26 # 0x1f20ec0 vxorps %ymm26, %ymm27, %ymm11 vrcp14ps %ymm13, %ymm12 vxorps %ymm26, %ymm13, %ymm23 vmovaps %ymm12, %ymm27 vfnmadd213ps %ymm16, %ymm13, %ymm27 # ymm27 = -(ymm13 * ymm27) + ymm16 vfmadd132ps %ymm12, %ymm12, %ymm27 # ymm27 = (ymm27 * ymm12) + ymm12 vmulps %ymm11, %ymm27, %ymm11 vcmpltps %ymm23, %ymm13, %k1 korb %k1, %k0, %k1 vbroadcastss 0x236a40(%rip), %ymm27 # 0x1eecb84 vblendmps %ymm27, %ymm11, %ymm12 {%k1} vmaxps %ymm12, %ymm4, %ymm4 vcmpnleps %ymm23, %ymm13, %k1 korb %k1, %k0, %k1 vbroadcastss 0x2358bd(%rip), %ymm13 # 0x1eeba20 vmovaps %ymm13, %ymm11 {%k1} vminps %ymm11, %ymm3, %ymm3 vxorps %xmm23, %xmm23, %xmm23 vsubps 0x60(%rsp), %ymm23, %ymm8 vsubps %ymm9, %ymm23, %ymm9 vsubps %ymm10, %ymm23, %ymm10 vmulps %ymm2, %ymm10, %ymm10 vfnmsub231ps %ymm9, %ymm20, %ymm10 # ymm10 = -(ymm20 * ymm9) - ymm10 vfnmadd231ps %ymm8, %ymm19, %ymm10 # ymm10 = -(ymm19 * ymm8) + ymm10 vmulps %ymm2, %ymm21, %ymm8 vfnmsub231ps %ymm20, %ymm31, %ymm8 # ymm8 = -(ymm31 * ymm20) - ymm8 vfnmadd231ps %ymm19, %ymm30, %ymm8 # ymm8 = -(ymm30 * ymm19) + ymm8 vandps %ymm28, %ymm8, %ymm9 vcmpltps %ymm29, %ymm9, %k0 vxorps %ymm26, %ymm10, %ymm9 vrcp14ps %ymm8, %ymm10 vxorps %ymm26, %ymm8, %ymm11 vmovaps %ymm10, %ymm12 vfnmadd213ps %ymm16, %ymm8, %ymm12 # ymm12 = -(ymm8 * ymm12) + ymm16 vfmadd132ps %ymm10, %ymm10, %ymm12 # ymm12 = (ymm12 * ymm10) + ymm10 vmulps %ymm9, %ymm12, %ymm9 vcmpltps %ymm11, %ymm8, %k1 korb %k1, %k0, %k1 vblendmps %ymm27, %ymm9, %ymm10 {%k1} vmaxps %ymm10, %ymm4, %ymm0 vcmpnleps %ymm11, %ymm8, %k1 korb %k1, %k0, %k1 vmovaps %ymm13, %ymm9 {%k1} vminps %ymm9, %ymm3, %ymm8 vmovaps %ymm0, 0x360(%rsp) vcmpleps %ymm8, %ymm0, %k0 kmovd %k0, %ecx andb %cl, %al je 0x1cb7fa6 vmovaps 0x4a0(%rsp), %ymm3 vmaxps 0xc0(%rsp), %ymm23, %ymm4 vminps %ymm16, %ymm3, %ymm3 vxorps %xmm10, %xmm10, %xmm10 vmaxps %ymm10, %ymm3, %ymm3 vmovaps 0x480(%rsp), %ymm9 vminps %ymm16, %ymm9, %ymm9 vmovaps 0x26ace2(%rip), %ymm11 # 0x1f20f40 vaddps %ymm3, %ymm11, %ymm3 vbroadcastss 0x26824d(%rip), %ymm12 # 0x1f1e4b8 vmulps %ymm3, %ymm12, %ymm3 vmovaps 0xa0(%rsp), %ymm0 vmovaps 0x80(%rsp), %ymm1 vfmadd213ps %ymm0, %ymm1, %ymm3 # ymm3 = (ymm1 * ymm3) + ymm0 vmovaps %ymm3, 0x4a0(%rsp) vmaxps %ymm10, %ymm9, %ymm3 vaddps %ymm3, %ymm11, %ymm3 vmulps %ymm3, %ymm12, %ymm3 vfmadd213ps %ymm0, %ymm1, %ymm3 # ymm3 = (ymm1 * ymm3) + ymm0 vmovaps %ymm3, 0x480(%rsp) vmulps %ymm4, %ymm4, %ymm3 vmovaps 0x3c0(%rsp), %ymm0 vsubps %ymm3, %ymm0, %ymm11 vmulps %ymm11, %ymm24, %ymm3 vsubps %ymm3, %ymm25, %ymm3 vcmpnltps %ymm10, %ymm3, %k0 kortestb %k0, %k0 je 0x1cb647b vxorps %xmm20, %xmm20, %xmm20 vcmpnltps %ymm23, %ymm3, %k1 vsqrtps %ymm3, %ymm3 vaddps %ymm15, %ymm15, %ymm4 vrcp14ps %ymm4, %ymm9 vfnmadd213ps %ymm16, %ymm9, %ymm4 # ymm4 = -(ymm9 * ymm4) + ymm16 vfmadd132ps %ymm9, %ymm9, %ymm4 # ymm4 = (ymm4 * ymm9) + ymm9 vxorps 0x26abb7(%rip){1to8}, %ymm22, %ymm9 # 0x1f20ec0 vsubps %ymm3, %ymm9, %ymm9 vmulps %ymm4, %ymm9, %ymm12 vsubps %ymm22, %ymm3, %ymm3 vmulps %ymm4, %ymm3, %ymm13 vmovaps %ymm17, %ymm3 vfmadd213ps %ymm18, %ymm12, %ymm3 # ymm3 = (ymm12 * ymm3) + ymm18 vmulps %ymm3, %ymm14, %ymm9 vmulps %ymm12, %ymm30, %ymm3 vmulps %ymm12, %ymm31, %ymm4 vmulps %ymm12, %ymm21, %ymm10 vmovaps %ymm7, %ymm19 vmovaps 0x180(%rsp), %ymm1 vfmadd213ps %ymm1, %ymm9, %ymm19 # ymm19 = (ymm9 * ymm19) + ymm1 vsubps %ymm19, %ymm3, %ymm3 vmovaps %ymm6, %ymm19 vmovaps 0x3e0(%rsp), %ymm0 vfmadd213ps %ymm0, %ymm9, %ymm19 # ymm19 = (ymm9 * ymm19) + ymm0 vsubps %ymm19, %ymm4, %ymm4 vmovaps 0x1a0(%rsp), %ymm2 vfmadd213ps %ymm2, %ymm5, %ymm9 # ymm9 = (ymm5 * ymm9) + ymm2 vsubps %ymm9, %ymm10, %ymm9 vfmadd213ps %ymm18, %ymm13, %ymm17 # ymm17 = (ymm13 * ymm17) + ymm18 vmulps %ymm17, %ymm14, %ymm14 vmulps %ymm13, %ymm30, %ymm10 vmulps %ymm13, %ymm31, %ymm17 vmulps %ymm13, %ymm21, %ymm18 vfmadd213ps %ymm1, %ymm14, %ymm7 # ymm7 = (ymm14 * ymm7) + ymm1 vsubps %ymm7, %ymm10, %ymm10 vfmadd213ps %ymm0, %ymm14, %ymm6 # ymm6 = (ymm14 * ymm6) + ymm0 vsubps %ymm6, %ymm17, %ymm1 vfmadd213ps %ymm2, %ymm14, %ymm5 # ymm5 = (ymm14 * ymm5) + ymm2 vsubps %ymm5, %ymm18, %ymm5 vbroadcastss 0x235654(%rip), %ymm0 # 0x1eeba20 vblendmps %ymm12, %ymm0, %ymm2 {%k1} vbroadcastss 0x2367a9(%rip), %ymm0 # 0x1eecb84 vblendmps %ymm13, %ymm0, %ymm0 {%k1} vbroadcastss 0x26aada(%rip), %ymm7 # 0x1f20ec4 vandps 0x3a0(%rsp), %ymm7, %ymm6 vmovaps 0x4e0(%rsp), %ymm12 vmaxps %ymm6, %ymm12, %ymm6 vmulps 0x23baaa(%rip){1to8}, %ymm6, %ymm6 # 0x1ef1eb4 vandps %ymm7, %ymm15, %ymm7 vcmpltps %ymm6, %ymm7, %k1 {%k1} kortestb %k1, %k1 je 0x1cb64a2 vcmpleps %ymm20, %ymm11, %k2 vbroadcastss 0x236755(%rip), %ymm7 # 0x1eecb84 vbroadcastss 0x2355e8(%rip), %ymm11 # 0x1eeba20 vblendmps %ymm7, %ymm11, %ymm6 {%k2} vmovaps %ymm6, %ymm2 {%k1} vblendmps %ymm11, %ymm7, %ymm6 {%k2} vmovaps %ymm6, %ymm0 {%k1} knotb %k1, %k1 korb %k2, %k1, %k1 kandb %k0, %k1, %k0 jmp 0x1cb64a2 vmovaps 0x240(%rsp), %ymm30 vmovaps 0x220(%rsp), %ymm31 vmovaps 0x200(%rsp), %ymm21 jmp 0x1cb7fa6 vxorps %xmm1, %xmm1, %xmm1 vxorps %xmm5, %xmm5, %xmm5 vxorps %xmm3, %xmm3, %xmm3 vxorps %xmm4, %xmm4, %xmm4 vxorps %xmm9, %xmm9, %xmm9 vbroadcastss 0x235587(%rip), %ymm2 # 0x1eeba20 vbroadcastss 0x2366e2(%rip), %ymm0 # 0x1eecb84 vbroadcastss 0x26aa19(%rip), %xmm11 # 0x1f20ec4 vmulps %ymm5, %ymm21, %ymm5 vfmadd231ps %ymm1, %ymm31, %ymm5 # ymm5 = (ymm31 * ymm1) + ymm5 vfmadd231ps %ymm10, %ymm30, %ymm5 # ymm5 = (ymm30 * ymm10) + ymm5 vmovaps 0x360(%rsp), %ymm7 vmovaps %ymm7, 0x7c0(%rsp) vminps %ymm2, %ymm8, %ymm1 vmovaps %ymm1, 0x7e0(%rsp) vbroadcastss 0x26a9df(%rip), %ymm6 # 0x1f20ec4 vandps %ymm6, %ymm5, %ymm2 vmaxps %ymm0, %ymm7, %ymm5 vmovaps %ymm5, 0x520(%rsp) vmovaps %ymm8, 0x540(%rsp) vbroadcastss 0x26a9cc(%rip), %ymm0 # 0x1f20ed4 vcmpltps %ymm0, %ymm2, %k1 kmovd %k1, 0x144(%rsp) vcmpleps %ymm1, %ymm7, %k1 kmovd %k1, %ecx andb %al, %cl vmovaps %ymm5, 0x440(%rsp) vcmpleps %ymm8, %ymm5, %k1 kmovd %k1, %edx andb %al, %dl movl %edx, %eax orb %cl, %al je 0x1cb7f70 vmovaps %ymm0, %ymm2 movl %edx, 0x34(%rsp) movq %r9, 0x1f0(%rsp) movq %r10, 0x1f8(%rsp) knotb %k0, %k1 vmulps %ymm9, %ymm21, %ymm0 vfmadd213ps %ymm0, %ymm31, %ymm4 # ymm4 = (ymm31 * ymm4) + ymm0 vfmadd213ps %ymm4, %ymm30, %ymm3 # ymm3 = (ymm30 * ymm3) + ymm4 vandps %ymm6, %ymm3, %ymm0 vcmpltps %ymm2, %ymm0, %k0 kmovd %k1, 0x13c(%rsp) korb %k1, %k0, %k1 vpbroadcastd 0x26a946(%rip), %ymm0 # 0x1f20edc vpblendmd 0x26a938(%rip){1to8}, %ymm0, %ymm0 {%k1} # 0x1f20ed8 movq %r11, 0x1e8(%rsp) vpbroadcastd %r11d, %ymm1 vmovdqa %ymm0, 0x560(%rsp) vmovdqa %ymm1, 0x4c0(%rsp) vpcmpnltd %ymm0, %ymm1, %k0 kmovd %k0, %ebx movl %ecx, 0x140(%rsp) andb %cl, %bl je 0x1cb71f9 vmovaps 0x2e0(%rsp), %ymm1 vmovaps 0x2a0(%rsp), %ymm2 vminps %xmm2, %xmm1, %xmm0 vmaxps %xmm2, %xmm1, %xmm1 vmovaps 0x2c0(%rsp), %ymm3 vmovaps 0x280(%rsp), %ymm4 vminps %xmm4, %xmm3, %xmm2 vminps %xmm2, %xmm0, %xmm0 vmaxps %xmm4, %xmm3, %xmm2 vmaxps %xmm2, %xmm1, %xmm1 vandps %xmm0, %xmm11, %xmm0 vandps %xmm1, %xmm11, %xmm2 vmaxps %xmm2, %xmm0, %xmm0 vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3] vmaxss %xmm0, %xmm2, %xmm2 vshufpd $0x1, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[1,0] vmaxss %xmm2, %xmm0, %xmm0 vmulss 0x23b879(%rip), %xmm0, %xmm0 # 0x1ef1eb4 vmovss %xmm0, 0x44(%rsp) vshufps $0xff, %xmm1, %xmm1, %xmm0 # xmm0 = xmm1[3,3,3,3] vmovaps %xmm0, 0x310(%rsp) vmovaps 0x360(%rsp), %ymm0 vaddps 0x380(%rsp), %ymm0, %ymm0 vmovaps %ymm0, 0x460(%rsp) kmovd %ebx, %k1 vbroadcastss 0x2353a9(%rip), %ymm0 # 0x1eeba20 vblendmps 0x360(%rsp), %ymm0, %ymm0 {%k1} vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm0, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1] vminps %ymm2, %ymm1, %ymm1 vcmpeqps %ymm1, %ymm0, %k0 kmovd %k0, %eax andb %bl, %al movzbl %al, %eax movzbl %bl, %ecx cmovnel %eax, %ecx tzcntl %ecx, %ecx movb $0x1, %bl shlb %cl, %bl shll $0x2, %ecx vmovss 0x4a0(%rsp,%rcx), %xmm9 vmovss 0x7c0(%rsp,%rcx), %xmm8 vmovaps 0x260(%rsp), %xmm0 vucomiss 0x235345(%rip), %xmm0 # 0x1eeba24 vmovss 0x148(%rsp), %xmm0 jae 0x1cb672b vmovaps 0x260(%rsp), %xmm0 vmovaps %xmm9, 0x60(%rsp) vmovaps %xmm8, 0x80(%rsp) kmovw %k1, 0xc0(%rsp) vzeroupper callq 0x6aa20 kmovw 0xc0(%rsp), %k1 vmovaps 0x80(%rsp), %xmm8 vmovaps 0x60(%rsp), %xmm9 movzbl %bl, %eax kmovd %eax, %k0 kandnb %k1, %k0, %k0 kmovd %k0, %ebx vmulss 0x23b772(%rip), %xmm0, %xmm0 # 0x1ef1eb4 vmovss %xmm0, 0x48(%rsp) movl $0x4, %r14d vmovaps %xmm8, 0x80(%rsp) vbroadcastss %xmm8, %xmm0 vxorps %xmm1, %xmm1, %xmm1 vfmadd132ps 0x270(%rsp), %xmm1, %xmm0 # xmm0 = (xmm0 * mem) + xmm1 vmovss 0x235fa2(%rip), %xmm1 # 0x1eec714 vsubss %xmm9, %xmm1, %xmm11 vbroadcastss 0x26a740(%rip), %xmm6 # 0x1f20ec0 vxorps %xmm6, %xmm9, %xmm1 vmulss %xmm1, %xmm11, %xmm1 vmulss %xmm1, %xmm11, %xmm1 vmulss %xmm9, %xmm9, %xmm12 vmovss 0x23a853(%rip), %xmm8 # 0x1ef0fec vmovaps %xmm8, %xmm10 vmovss 0x23a85e(%rip), %xmm7 # 0x1ef1004 vfmadd213ss %xmm7, %xmm9, %xmm10 # xmm10 = (xmm9 * xmm10) + xmm7 vmovaps %xmm10, %xmm2 vmovss 0x23a841(%rip), %xmm5 # 0x1ef0ff8 vfmadd213ss %xmm5, %xmm12, %xmm2 # xmm2 = (xmm12 * xmm2) + xmm5 vmulss %xmm11, %xmm11, %xmm3 vmovaps %xmm8, %xmm4 vfmadd213ss %xmm7, %xmm11, %xmm4 # xmm4 = (xmm11 * xmm4) + xmm7 vfmadd213ss %xmm5, %xmm3, %xmm4 # xmm4 = (xmm3 * xmm4) + xmm5 vxorps %xmm6, %xmm11, %xmm3 vmulss %xmm3, %xmm9, %xmm3 vmulss %xmm3, %xmm9, %xmm3 vmovss 0x23639d(%rip), %xmm5 # 0x1eecb80 vmulss %xmm5, %xmm1, %xmm1 vmulss %xmm5, %xmm2, %xmm2 vmulss %xmm5, %xmm4, %xmm4 vmulss %xmm5, %xmm3, %xmm3 vbroadcastss %xmm3, %xmm3 vmulps 0x280(%rsp), %xmm3, %xmm3 vbroadcastss %xmm4, %xmm4 vfmadd132ps 0x2c0(%rsp), %xmm3, %xmm4 # xmm4 = (xmm4 * mem) + xmm3 vbroadcastss %xmm2, %xmm2 vfmadd132ps 0x2a0(%rsp), %xmm4, %xmm2 # xmm2 = (xmm2 * mem) + xmm4 vbroadcastss %xmm1, %xmm3 vfmadd132ps 0x2e0(%rsp), %xmm2, %xmm3 # xmm3 = (xmm3 * mem) + xmm2 vmulss 0x23a1a6(%rip), %xmm11, %xmm6 # 0x1ef09dc vfmadd231ss 0x23a7c9(%rip), %xmm9, %xmm7 # xmm7 = (xmm9 * mem) + xmm7 vmovaps %xmm7, 0x3c0(%rsp) vmovss 0x23a7bc(%rip), %xmm1 # 0x1ef100c vfmadd213ss 0x236333(%rip), %xmm9, %xmm1 # xmm1 = (xmm9 * xmm1) + mem vmovaps %xmm1, 0x3a0(%rsp) vfmadd213ss 0x23a161(%rip), %xmm9, %xmm8 # xmm8 = (xmm9 * xmm8) + mem vmovaps %xmm8, 0x350(%rsp) vmovaps %xmm3, 0x3e0(%rsp) vsubps %xmm3, %xmm0, %xmm0 vmovaps %xmm0, 0xc0(%rsp) vdpps $0x7f, %xmm0, %xmm0, %xmm0 vucomiss 0x23518c(%rip), %xmm0 # 0x1eeba24 vmovaps %xmm9, 0x60(%rsp) vmovaps %xmm0, 0xa0(%rsp) jb 0x1cb68af vsqrtss %xmm0, %xmm0, %xmm7 jmp 0x1cb6909 vmovss %xmm10, 0x1a0(%rsp) vmovaps %xmm11, 0x180(%rsp) vmovss %xmm12, 0x120(%rsp) vmovss %xmm6, 0x110(%rsp) vzeroupper callq 0x6aa20 vmovss 0x110(%rsp), %xmm6 vmovss 0x120(%rsp), %xmm12 vmovaps 0x180(%rsp), %xmm11 vmovss 0x1a0(%rsp), %xmm10 vmovaps 0x60(%rsp), %xmm9 vmovaps %xmm0, %xmm7 vaddss %xmm11, %xmm11, %xmm0 vmulss %xmm0, %xmm9, %xmm1 vfnmadd231ss %xmm11, %xmm11, %xmm1 # xmm1 = -(xmm11 * xmm11) + xmm1 vaddss %xmm9, %xmm9, %xmm2 vmovss 0x23a6c8(%rip), %xmm4 # 0x1ef0fec vmulss %xmm4, %xmm9, %xmm3 vmulss %xmm3, %xmm9, %xmm3 vfmadd213ss %xmm3, %xmm2, %xmm10 # xmm10 = (xmm2 * xmm10) + xmm3 vmovaps %xmm4, %xmm2 vmovss 0x23a6bb(%rip), %xmm4 # 0x1ef0ff8 vfmadd213ss %xmm4, %xmm9, %xmm2 # xmm2 = (xmm9 * xmm2) + xmm4 vmulss 0x23a6a6(%rip), %xmm11, %xmm3 # 0x1ef0ff0 vmulss %xmm3, %xmm11, %xmm3 vfmadd231ss %xmm2, %xmm0, %xmm3 # xmm3 = (xmm0 * xmm2) + xmm3 vfmadd213ss %xmm12, %xmm9, %xmm6 # xmm6 = (xmm9 * xmm6) + xmm12 vmovss 0x236220(%rip), %xmm5 # 0x1eecb80 vmulss %xmm5, %xmm1, %xmm0 vmulss %xmm5, %xmm10, %xmm1 vmulss %xmm5, %xmm3, %xmm2 vmulss %xmm5, %xmm6, %xmm3 vbroadcastss %xmm3, %xmm3 vmulps 0x280(%rsp), %xmm3, %xmm3 vbroadcastss %xmm2, %xmm2 vfmadd132ps 0x2c0(%rsp), %xmm3, %xmm2 # xmm2 = (xmm2 * mem) + xmm3 vbroadcastss %xmm1, %xmm1 vfmadd132ps 0x2a0(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2 vbroadcastss %xmm0, %xmm13 vfmadd132ps 0x2e0(%rsp), %xmm1, %xmm13 # xmm13 = (xmm13 * mem) + xmm1 vdpps $0x7f, %xmm13, %xmm13, %xmm0 vxorps %xmm1, %xmm1, %xmm1 vmovss %xmm0, %xmm1, %xmm2 # xmm2 = xmm0[0],xmm1[1,2,3] vrsqrt14ss %xmm2, %xmm1, %xmm3 vmulss 0x235d51(%rip), %xmm3, %xmm5 # 0x1eec718 vmulss 0x235d4d(%rip), %xmm0, %xmm6 # 0x1eec71c vrcp14ss %xmm2, %xmm1, %xmm2 vxorps 0x26a4e1(%rip){1to4}, %xmm0, %xmm1 # 0x1f20ec0 vmovaps %xmm2, 0x110(%rsp) vfnmadd213ss %xmm4, %xmm0, %xmm2 # xmm2 = -(xmm0 * xmm2) + xmm4 vmovss %xmm2, 0x4c(%rsp) vucomiss %xmm1, %xmm0 vmovaps %xmm13, 0x1a0(%rsp) vmovss %xmm7, 0x180(%rsp) vmovaps %xmm0, 0x120(%rsp) jb 0x1cb6a1c vsqrtss %xmm0, %xmm0, %xmm16 jmp 0x1cb6a6c vmovaps %xmm3, 0x100(%rsp) vmovss %xmm5, 0x24(%rsp) vmovss %xmm6, 0xf0(%rsp) vzeroupper callq 0x6aa20 vmovss 0xf0(%rsp), %xmm6 vmovss 0x24(%rsp), %xmm5 vmovaps 0x100(%rsp), %xmm3 vmovss 0x180(%rsp), %xmm7 vmovaps 0x1a0(%rsp), %xmm13 vmovaps %xmm0, %xmm16 vmovaps 0xc0(%rsp), %xmm10 vmovaps 0xa0(%rsp), %xmm19 vmulss %xmm3, %xmm6, %xmm0 vmulss %xmm3, %xmm3, %xmm1 vmulss %xmm1, %xmm0, %xmm0 vaddss %xmm0, %xmm5, %xmm0 vbroadcastss %xmm0, %xmm4 vmulps %xmm4, %xmm13, %xmm0 vmovaps %xmm0, 0x100(%rsp) vdpps $0x7f, %xmm0, %xmm10, %xmm15 vaddss 0x235c67(%rip), %xmm7, %xmm14 # 0x1eec714 vmulps %xmm15, %xmm15, %xmm0 vsubps %xmm0, %xmm19, %xmm0 vxorps %xmm2, %xmm2, %xmm2 vmovss %xmm0, %xmm2, %xmm1 # xmm1 = xmm0[0],xmm2[1,2,3] vrsqrt14ss %xmm1, %xmm2, %xmm18 vmulss 0x235c48(%rip), %xmm18, %xmm17 # 0x1eec718 vmulss 0x235c42(%rip), %xmm0, %xmm20 # 0x1eec71c vucomiss 0x234f42(%rip), %xmm0 # 0x1eeba24 jb 0x1cb6aed vsqrtss %xmm0, %xmm0, %xmm0 jmp 0x1cb6b88 vmovss %xmm14, 0x24(%rsp) vmovaps %xmm15, 0xf0(%rsp) vmovss %xmm16, 0x40(%rsp) vmovss %xmm17, 0x3c(%rsp) vmovaps %xmm18, 0x340(%rsp) vmovss %xmm20, 0x38(%rsp) vmovaps %xmm4, 0x330(%rsp) vzeroupper callq 0x6aa20 vmovaps 0x330(%rsp), %xmm4 vmovss 0x38(%rsp), %xmm20 vmovaps 0x340(%rsp), %xmm18 vmovss 0x3c(%rsp), %xmm17 vmovss 0x40(%rsp), %xmm16 vmovaps 0xf0(%rsp), %xmm15 vmovss 0x24(%rsp), %xmm14 vmovss 0x180(%rsp), %xmm7 vmovaps 0x1a0(%rsp), %xmm13 vmovaps 0xa0(%rsp), %xmm19 vmovaps 0xc0(%rsp), %xmm10 vbroadcastss 0x26a333(%rip), %xmm11 # 0x1f20ec4 vmovaps 0x240(%rsp), %ymm30 vmovaps 0x220(%rsp), %ymm31 vmovaps 0x200(%rsp), %ymm21 vmovaps 0x60(%rsp), %xmm9 vmovaps 0x80(%rsp), %xmm8 vbroadcastss 0x350(%rsp), %xmm1 vmulps 0x280(%rsp), %xmm1, %xmm1 vbroadcastss 0x3a0(%rsp), %xmm2 vfmadd132ps 0x2c0(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1 vbroadcastss 0x3c0(%rsp), %xmm1 vfmadd132ps 0x2a0(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2 vmovss 0x23a3f5(%rip), %xmm2 # 0x1ef0ff0 vfmadd213ss 0x23a3f4(%rip), %xmm9, %xmm2 # xmm2 = (xmm9 * xmm2) + mem vbroadcastss %xmm2, %xmm2 vfmadd132ps 0x2e0(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1 vbroadcastss 0x120(%rsp), %xmm1 vmulps %xmm1, %xmm2, %xmm1 vdpps $0x7f, %xmm2, %xmm13, %xmm2 vbroadcastss %xmm2, %xmm2 vmulps %xmm2, %xmm13, %xmm2 vsubps %xmm2, %xmm1, %xmm1 vmovss 0x4c(%rsp), %xmm2 vmulss 0x110(%rsp), %xmm2, %xmm2 vmulss 0x48(%rsp), %xmm8, %xmm3 vbroadcastss %xmm2, %xmm2 vmulps %xmm2, %xmm1, %xmm1 vxorps 0x26a264(%rip){1to4}, %xmm13, %xmm2 # 0x1f20ec0 vmulps %xmm1, %xmm4, %xmm4 vmovaps 0x100(%rsp), %xmm12 vdpps $0x7f, %xmm12, %xmm2, %xmm5 vmovss 0x44(%rsp), %xmm6 vmaxss %xmm3, %xmm6, %xmm1 vdivss %xmm16, %xmm6, %xmm3 vdpps $0x7f, %xmm4, %xmm10, %xmm4 vfmadd213ss %xmm1, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm7) + xmm1 vfmadd213ss %xmm7, %xmm3, %xmm14 # xmm14 = (xmm3 * xmm14) + xmm7 vmovaps 0x270(%rsp), %xmm7 vdpps $0x7f, %xmm12, %xmm7, %xmm3 vaddss %xmm4, %xmm5, %xmm4 vdpps $0x7f, %xmm2, %xmm10, %xmm5 vmulss %xmm18, %xmm20, %xmm2 vmulss %xmm18, %xmm18, %xmm6 vmulss %xmm6, %xmm2, %xmm2 vdpps $0x7f, %xmm7, %xmm10, %xmm6 vaddss %xmm2, %xmm17, %xmm7 vfnmadd231ss %xmm4, %xmm15, %xmm5 # xmm5 = -(xmm15 * xmm4) + xmm5 vfnmadd231ss %xmm3, %xmm15, %xmm6 # xmm6 = -(xmm15 * xmm3) + xmm6 vpermilps $0xff, 0x3e0(%rsp), %xmm2 # xmm2 = mem[3,3,3,3] vsubss %xmm2, %xmm0, %xmm2 vshufps $0xff, %xmm13, %xmm13, %xmm0 # xmm0 = xmm13[3,3,3,3] vfmsub213ss %xmm0, %xmm7, %xmm5 # xmm5 = (xmm7 * xmm5) - xmm0 vmulss %xmm7, %xmm6, %xmm6 vmulss %xmm5, %xmm3, %xmm7 vfmsub231ss %xmm6, %xmm4, %xmm7 # xmm7 = (xmm4 * xmm6) - xmm7 vdivss %xmm7, %xmm6, %xmm6 vdivss %xmm7, %xmm5, %xmm5 vdivss %xmm7, %xmm3, %xmm3 vdivss %xmm7, %xmm4, %xmm4 vmulss %xmm6, %xmm15, %xmm6 vmulss %xmm3, %xmm2, %xmm3 vsubss %xmm3, %xmm6, %xmm3 vmulss %xmm5, %xmm15, %xmm5 vmulss %xmm4, %xmm2, %xmm4 vsubss %xmm5, %xmm4, %xmm4 vsubss %xmm3, %xmm9, %xmm9 vsubss %xmm4, %xmm8, %xmm8 vandps %xmm11, %xmm15, %xmm3 vucomiss %xmm3, %xmm14 jbe 0x1cb6ee4 vaddss %xmm1, %xmm14, %xmm1 vmovaps 0x310(%rsp), %xmm3 vfmadd231ss 0x23b16a(%rip), %xmm3, %xmm1 # xmm1 = (xmm3 * mem) + xmm1 vandps %xmm2, %xmm11, %xmm2 vucomiss %xmm2, %xmm1 jbe 0x1cb6ee4 vaddss 0x320(%rsp), %xmm8, %xmm8 movb $0x1, %r13b vucomiss 0x5c(%rsp), %xmm8 jb 0x1cb6ee7 movq 0x18(%rsp), %rax vmovss 0x200(%r12,%rax,4), %xmm4 vucomiss %xmm8, %xmm4 jb 0x1cb6ee7 vucomiss 0x234c92(%rip), %xmm9 # 0x1eeba24 jb 0x1cb6ee7 vmovss 0x235974(%rip), %xmm1 # 0x1eec714 vucomiss %xmm9, %xmm1 jb 0x1cb6ee7 vxorps %xmm2, %xmm2, %xmm2 vmovss %xmm19, %xmm2, %xmm1 # xmm1 = xmm19[0],xmm2[1,2,3] vrsqrt14ss %xmm1, %xmm2, %xmm1 vmulss 0x235955(%rip), %xmm1, %xmm2 # 0x1eec718 vmulss 0x23594f(%rip), %xmm19, %xmm3 # 0x1eec71c movq (%r15), %rax movq 0x1e8(%rax), %rax movq %r15, %rcx movq 0x50(%rsp), %rdx movq (%rax,%rdx,8), %r15 movq 0x18(%rsp), %rax movl 0x240(%r12,%rax,4), %eax testl %eax, 0x34(%r15) je 0x1cb6f04 vmulss %xmm1, %xmm3, %xmm3 vmulss %xmm1, %xmm1, %xmm1 vmulss %xmm1, %xmm3, %xmm1 vaddss %xmm1, %xmm2, %xmm1 vbroadcastss %xmm1, %xmm1 vmulps %xmm1, %xmm10, %xmm1 vfmadd213ps %xmm13, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm0) + xmm13 vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3] vshufps $0xc9, %xmm13, %xmm13, %xmm3 # xmm3 = xmm13[1,2,0,3] vmulps %xmm3, %xmm1, %xmm1 vfmsub231ps %xmm2, %xmm13, %xmm1 # xmm1 = (xmm13 * xmm2) - xmm1 vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3] vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3] vshufps $0xd2, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,0,1,3] vmulps %xmm1, %xmm0, %xmm0 vfmsub231ps %xmm3, %xmm2, %xmm0 # xmm0 = (xmm2 * xmm3) - xmm0 movq 0x10(%rcx), %rax cmpq $0x0, 0x10(%rax) jne 0x1cb6f09 cmpq $0x0, 0x40(%r15) jne 0x1cb6f09 movq 0x18(%rsp), %rcx vmovss %xmm8, 0x200(%r12,%rcx,4) vextractps $0x1, %xmm0, 0x300(%r12,%rcx,4) vextractps $0x2, %xmm0, 0x340(%r12,%rcx,4) vmovss %xmm0, 0x380(%r12,%rcx,4) vmovss %xmm9, 0x3c0(%r12,%rcx,4) movl $0x0, 0x400(%r12,%rcx,4) movq 0x130(%rsp), %rax movl %eax, 0x440(%r12,%rcx,4) movq 0x50(%rsp), %rax movl %eax, 0x480(%r12,%rcx,4) movq 0x28(%rsp), %r15 movq 0x8(%r15), %rax movl (%rax), %eax movl %eax, 0x4c0(%r12,%rcx,4) movq 0x8(%r15), %rax movl 0x4(%rax), %eax movl %eax, 0x500(%r12,%rcx,4) jmp 0x1cb6ee7 xorl %r13d, %r13d subq $0x1, %r14 setb %al testb %r13b, %r13b jne 0x1cb71d3 testb %al, %al je 0x1cb674e jmp 0x1cb71d3 movq %rcx, %r15 jmp 0x1cb6ee7 movq 0x28(%rsp), %rcx movq 0x8(%rcx), %rax vbroadcastss %xmm9, %zmm1 vbroadcastss 0x25b7e2(%rip), %zmm2 # 0x1f12704 vpermps %zmm0, %zmm2, %zmm2 vbroadcastss 0x269faa(%rip), %zmm3 # 0x1f20edc vpermps %zmm0, %zmm3, %zmm3 vbroadcastss %xmm0, %zmm0 vmovaps %zmm2, 0x8c0(%rsp) vmovaps %zmm3, 0x900(%rsp) vmovaps %zmm0, 0x940(%rsp) vmovaps %zmm1, 0x980(%rsp) vxorps %xmm0, %xmm0, %xmm0 vmovaps %zmm0, 0x9c0(%rsp) vmovaps 0x840(%rsp), %zmm0 vmovaps %zmm0, 0xa00(%rsp) vmovdqa64 0x880(%rsp), %zmm0 vmovdqa64 %zmm0, 0xa40(%rsp) movq 0x1d8(%rsp), %rdx vpcmpeqd %ymm0, %ymm0, %ymm0 vmovdqa %ymm0, 0x60(%rdx) vmovdqa %ymm0, 0x40(%rdx) vmovdqa %ymm0, 0x20(%rdx) vmovdqa %ymm0, (%rdx) vbroadcastss (%rax), %zmm0 vmovaps %zmm0, 0xa80(%rsp) vbroadcastss 0x4(%rax), %zmm0 vmovaps %zmm0, 0xac0(%rsp) movq 0x18(%rsp), %rax vmovss %xmm8, 0x200(%r12,%rax,4) vmovaps 0x800(%rsp), %zmm0 vmovaps %zmm0, 0x400(%rsp) leaq 0x400(%rsp), %rax movq %rax, 0x150(%rsp) movq 0x18(%r15), %rax movq %rax, 0x158(%rsp) movq 0x8(%rcx), %rax movq %rax, 0x160(%rsp) movq %r12, 0x168(%rsp) leaq 0x8c0(%rsp), %rax movq %rax, 0x170(%rsp) movl $0x10, 0x178(%rsp) movq 0x40(%r15), %rax testq %rax, %rax vmovaps %xmm9, 0x60(%rsp) vmovaps %xmm8, 0x80(%rsp) vmovss %xmm4, 0xa0(%rsp) je 0x1cb7097 leaq 0x150(%rsp), %rdi vzeroupper callq *%rax vmovss 0xa0(%rsp), %xmm4 vmovaps 0x80(%rsp), %xmm8 vmovaps 0x60(%rsp), %xmm9 vmovaps 0x200(%rsp), %ymm21 vmovaps 0x220(%rsp), %ymm31 vmovaps 0x240(%rsp), %ymm30 vbroadcastss 0x269e2d(%rip), %xmm11 # 0x1f20ec4 vmovdqa64 0x400(%rsp), %zmm0 vptestmd %zmm0, %zmm0, %k0 kortestw %k0, %k0 je 0x1cb71ba movq 0x28(%rsp), %rax movq 0x10(%rax), %rcx movq 0x10(%rcx), %rax testq %rax, %rax je 0x1cb7113 testb $0x2, (%rcx) jne 0x1cb70cd testb $0x40, 0x3e(%r15) je 0x1cb7113 leaq 0x150(%rsp), %rdi vzeroupper callq *%rax vmovss 0xa0(%rsp), %xmm4 vmovaps 0x80(%rsp), %xmm8 vmovaps 0x60(%rsp), %xmm9 vmovaps 0x200(%rsp), %ymm21 vmovaps 0x220(%rsp), %ymm31 vmovaps 0x240(%rsp), %ymm30 vbroadcastss 0x269db1(%rip), %xmm11 # 0x1f20ec4 vmovdqa64 0x400(%rsp), %zmm0 vptestmd %zmm0, %zmm0, %k1 kortestw %k1, %k1 je 0x1cb71ba movq 0x168(%rsp), %rax movq 0x170(%rsp), %rcx vmovaps (%rcx), %zmm0 vmovups %zmm0, 0x300(%rax) {%k1} vmovaps 0x40(%rcx), %zmm0 vmovups %zmm0, 0x340(%rax) {%k1} vmovaps 0x80(%rcx), %zmm0 vmovups %zmm0, 0x380(%rax) {%k1} vmovaps 0xc0(%rcx), %zmm0 vmovups %zmm0, 0x3c0(%rax) {%k1} vmovaps 0x100(%rcx), %zmm0 vmovups %zmm0, 0x400(%rax) {%k1} vmovdqa64 0x140(%rcx), %zmm0 vmovdqu32 %zmm0, 0x440(%rax) {%k1} vmovdqa64 0x180(%rcx), %zmm0 vmovdqu32 %zmm0, 0x480(%rax) {%k1} vmovdqa64 0x1c0(%rcx), %zmm0 vmovdqa32 %zmm0, 0x4c0(%rax) {%k1} vmovdqa64 0x200(%rcx), %zmm0 vmovdqa32 %zmm0, 0x500(%rax) {%k1} jmp 0x1cb71c9 movq 0x18(%rsp), %rax vmovss %xmm4, 0x200(%r12,%rax,4) movq 0x28(%rsp), %r15 jmp 0x1cb6ee7 movq 0x18(%rsp), %rax vmovaps 0x460(%rsp), %ymm0 vcmpleps 0x200(%r12,%rax,4){1to8}, %ymm0, %k0 kmovd %k0, %eax andb %al, %bl jne 0x1cb666a vmovaps 0x440(%rsp), %ymm0 vaddps 0x380(%rsp), %ymm0, %ymm0 movq 0x18(%rsp), %rax vcmpleps 0x200(%r12,%rax,4){1to8}, %ymm0, %k0 kmovd 0x144(%rsp), %k1 kmovd 0x13c(%rsp), %k2 korb %k2, %k1, %k1 kmovd %k0, %eax movl 0x34(%rsp), %ecx andb %al, %cl vpbroadcastd 0x269c95(%rip), %ymm0 # 0x1f20edc vpblendmd 0x269c87(%rip){1to8}, %ymm0, %ymm0 {%k1} # 0x1f20ed8 vmovdqa %ymm0, 0x440(%rsp) vpcmpled 0x4c0(%rsp), %ymm0, %k0 kmovd %k0, %ebx movl %ecx, 0x34(%rsp) andb %cl, %bl je 0x1cb7e89 vmovaps 0x520(%rsp), %ymm5 vmovaps 0x2e0(%rsp), %ymm1 vmovaps 0x2a0(%rsp), %ymm2 vminps %xmm2, %xmm1, %xmm0 vmaxps %xmm2, %xmm1, %xmm1 vmovaps 0x2c0(%rsp), %ymm3 vmovaps 0x280(%rsp), %ymm4 vminps %xmm4, %xmm3, %xmm2 vminps %xmm2, %xmm0, %xmm0 vmaxps %xmm4, %xmm3, %xmm2 vmaxps %xmm2, %xmm1, %xmm1 vandps %xmm0, %xmm11, %xmm0 vandps %xmm1, %xmm11, %xmm2 vmaxps %xmm2, %xmm0, %xmm0 vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3] vmaxss %xmm0, %xmm2, %xmm2 vshufpd $0x1, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[1,0] vmaxss %xmm2, %xmm0, %xmm0 vmulss 0x23abd7(%rip), %xmm0, %xmm0 # 0x1ef1eb4 vmovss %xmm0, 0x44(%rsp) vshufps $0xff, %xmm1, %xmm1, %xmm0 # xmm0 = xmm1[3,3,3,3] vmovaps %xmm0, 0x310(%rsp) vmovaps %ymm5, 0x360(%rsp) vaddps 0x380(%rsp), %ymm5, %ymm0 vmovaps %ymm0, 0x460(%rsp) kmovd %ebx, %k1 vbroadcastss 0x234707(%rip), %ymm0 # 0x1eeba20 vblendmps 0x360(%rsp), %ymm0, %ymm0 {%k1} vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm0, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1] vminps %ymm2, %ymm1, %ymm1 vcmpeqps %ymm1, %ymm0, %k0 kmovd %k0, %eax andb %bl, %al movzbl %al, %eax movzbl %bl, %ecx cmovnel %eax, %ecx tzcntl %ecx, %ecx movb $0x1, %bl shlb %cl, %bl shll $0x2, %ecx vmovss 0x480(%rsp,%rcx), %xmm9 vmovss 0x540(%rsp,%rcx), %xmm10 vmovaps 0x260(%rsp), %xmm0 vucomiss 0x2346a3(%rip), %xmm0 # 0x1eeba24 vmovss 0x14c(%rsp), %xmm0 jae 0x1cb73cd vmovaps 0x260(%rsp), %xmm0 vmovaps %xmm9, 0x60(%rsp) vmovaps %xmm10, 0x80(%rsp) kmovw %k1, 0xc0(%rsp) vzeroupper callq 0x6aa20 kmovw 0xc0(%rsp), %k1 vmovaps 0x80(%rsp), %xmm10 vmovaps 0x60(%rsp), %xmm9 movzbl %bl, %eax kmovd %eax, %k0 kandnb %k1, %k0, %k0 kmovd %k0, %ebx vmulss 0x23aad0(%rip), %xmm0, %xmm0 # 0x1ef1eb4 vmovss %xmm0, 0x48(%rsp) movl $0x4, %r14d vbroadcastss %xmm10, %xmm0 vxorps %xmm1, %xmm1, %xmm1 vfmadd132ps 0x270(%rsp), %xmm1, %xmm0 # xmm0 = (xmm0 * mem) + xmm1 vmovss 0x235309(%rip), %xmm1 # 0x1eec714 vsubss %xmm9, %xmm1, %xmm12 vbroadcastss 0x269aa7(%rip), %xmm6 # 0x1f20ec0 vxorps %xmm6, %xmm9, %xmm1 vmulss %xmm1, %xmm12, %xmm1 vmulss %xmm1, %xmm12, %xmm1 vmulss %xmm9, %xmm9, %xmm13 vmovss 0x239bba(%rip), %xmm8 # 0x1ef0fec vmovaps %xmm8, %xmm11 vmovss 0x239bc5(%rip), %xmm7 # 0x1ef1004 vfmadd213ss %xmm7, %xmm9, %xmm11 # xmm11 = (xmm9 * xmm11) + xmm7 vmovaps %xmm11, %xmm2 vmovss 0x239ba8(%rip), %xmm5 # 0x1ef0ff8 vfmadd213ss %xmm5, %xmm13, %xmm2 # xmm2 = (xmm13 * xmm2) + xmm5 vmulss %xmm12, %xmm12, %xmm3 vmovaps %xmm8, %xmm4 vfmadd213ss %xmm7, %xmm12, %xmm4 # xmm4 = (xmm12 * xmm4) + xmm7 vfmadd213ss %xmm5, %xmm3, %xmm4 # xmm4 = (xmm3 * xmm4) + xmm5 vxorps %xmm6, %xmm12, %xmm3 vmulss %xmm3, %xmm9, %xmm3 vmulss %xmm3, %xmm9, %xmm3 vmovss 0x235704(%rip), %xmm5 # 0x1eecb80 vmulss %xmm5, %xmm1, %xmm1 vmulss %xmm5, %xmm2, %xmm2 vmulss %xmm5, %xmm4, %xmm4 vmulss %xmm5, %xmm3, %xmm3 vbroadcastss %xmm3, %xmm3 vmulps 0x280(%rsp), %xmm3, %xmm3 vbroadcastss %xmm4, %xmm4 vfmadd132ps 0x2c0(%rsp), %xmm3, %xmm4 # xmm4 = (xmm4 * mem) + xmm3 vbroadcastss %xmm2, %xmm2 vfmadd132ps 0x2a0(%rsp), %xmm4, %xmm2 # xmm2 = (xmm2 * mem) + xmm4 vbroadcastss %xmm1, %xmm3 vfmadd132ps 0x2e0(%rsp), %xmm2, %xmm3 # xmm3 = (xmm3 * mem) + xmm2 vmulss 0x23950d(%rip), %xmm12, %xmm6 # 0x1ef09dc vfmadd231ss 0x239b30(%rip), %xmm9, %xmm7 # xmm7 = (xmm9 * mem) + xmm7 vmovaps %xmm7, 0x3c0(%rsp) vmovss 0x239b23(%rip), %xmm1 # 0x1ef100c vfmadd213ss 0x23569a(%rip), %xmm9, %xmm1 # xmm1 = (xmm9 * xmm1) + mem vmovaps %xmm1, 0x3a0(%rsp) vfmadd213ss 0x2394c8(%rip), %xmm9, %xmm8 # xmm8 = (xmm9 * xmm8) + mem vmovaps %xmm8, 0x350(%rsp) vmovaps %xmm3, 0x3e0(%rsp) vsubps %xmm3, %xmm0, %xmm0 vmovaps %xmm0, 0xc0(%rsp) vdpps $0x7f, %xmm0, %xmm0, %xmm0 vucomiss 0x2344f3(%rip), %xmm0 # 0x1eeba24 vmovaps %xmm9, 0x60(%rsp) vmovaps %xmm0, 0xa0(%rsp) vmovaps %xmm10, 0x80(%rsp) jb 0x1cb7551 vsqrtss %xmm0, %xmm0, %xmm7 jmp 0x1cb75ab vmovss %xmm11, 0x1a0(%rsp) vmovaps %xmm12, 0x180(%rsp) vmovss %xmm13, 0x120(%rsp) vmovss %xmm6, 0x110(%rsp) vzeroupper callq 0x6aa20 vmovss 0x110(%rsp), %xmm6 vmovss 0x120(%rsp), %xmm13 vmovaps 0x180(%rsp), %xmm12 vmovss 0x1a0(%rsp), %xmm11 vmovaps 0x60(%rsp), %xmm9 vmovaps %xmm0, %xmm7 vaddss %xmm12, %xmm12, %xmm0 vmulss %xmm0, %xmm9, %xmm1 vfnmadd231ss %xmm12, %xmm12, %xmm1 # xmm1 = -(xmm12 * xmm12) + xmm1 vaddss %xmm9, %xmm9, %xmm2 vmovss 0x239a26(%rip), %xmm4 # 0x1ef0fec vmulss %xmm4, %xmm9, %xmm3 vmulss %xmm3, %xmm9, %xmm3 vfmadd213ss %xmm3, %xmm2, %xmm11 # xmm11 = (xmm2 * xmm11) + xmm3 vmovaps %xmm4, %xmm2 vmovss 0x239a19(%rip), %xmm4 # 0x1ef0ff8 vfmadd213ss %xmm4, %xmm9, %xmm2 # xmm2 = (xmm9 * xmm2) + xmm4 vmulss 0x239a04(%rip), %xmm12, %xmm3 # 0x1ef0ff0 vmulss %xmm3, %xmm12, %xmm3 vfmadd231ss %xmm2, %xmm0, %xmm3 # xmm3 = (xmm0 * xmm2) + xmm3 vfmadd213ss %xmm13, %xmm9, %xmm6 # xmm6 = (xmm9 * xmm6) + xmm13 vmovss 0x23557e(%rip), %xmm5 # 0x1eecb80 vmulss %xmm5, %xmm1, %xmm0 vmulss %xmm5, %xmm11, %xmm1 vmulss %xmm5, %xmm3, %xmm2 vmulss %xmm5, %xmm6, %xmm3 vbroadcastss %xmm3, %xmm3 vmulps 0x280(%rsp), %xmm3, %xmm3 vbroadcastss %xmm2, %xmm2 vfmadd132ps 0x2c0(%rsp), %xmm3, %xmm2 # xmm2 = (xmm2 * mem) + xmm3 vbroadcastss %xmm1, %xmm1 vfmadd132ps 0x2a0(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2 vbroadcastss %xmm0, %xmm13 vfmadd132ps 0x2e0(%rsp), %xmm1, %xmm13 # xmm13 = (xmm13 * mem) + xmm1 vdpps $0x7f, %xmm13, %xmm13, %xmm0 vxorps %xmm1, %xmm1, %xmm1 vmovss %xmm0, %xmm1, %xmm2 # xmm2 = xmm0[0],xmm1[1,2,3] vrsqrt14ss %xmm2, %xmm1, %xmm3 vmulss 0x2350af(%rip), %xmm3, %xmm5 # 0x1eec718 vmulss 0x2350ab(%rip), %xmm0, %xmm6 # 0x1eec71c vrcp14ss %xmm2, %xmm1, %xmm2 vxorps 0x26983f(%rip){1to4}, %xmm0, %xmm1 # 0x1f20ec0 vmovaps %xmm2, 0x110(%rsp) vfnmadd213ss %xmm4, %xmm0, %xmm2 # xmm2 = -(xmm0 * xmm2) + xmm4 vmovss %xmm2, 0x4c(%rsp) vucomiss %xmm1, %xmm0 vmovaps %xmm13, 0x1a0(%rsp) vmovss %xmm7, 0x180(%rsp) vmovaps %xmm0, 0x120(%rsp) jb 0x1cb76be vsqrtss %xmm0, %xmm0, %xmm16 jmp 0x1cb770e vmovaps %xmm3, 0x100(%rsp) vmovss %xmm5, 0x24(%rsp) vmovss %xmm6, 0xf0(%rsp) vzeroupper callq 0x6aa20 vmovss 0xf0(%rsp), %xmm6 vmovss 0x24(%rsp), %xmm5 vmovaps 0x100(%rsp), %xmm3 vmovss 0x180(%rsp), %xmm7 vmovaps 0x1a0(%rsp), %xmm13 vmovaps %xmm0, %xmm16 vmovaps 0xc0(%rsp), %xmm11 vmovaps 0xa0(%rsp), %xmm19 vmulss %xmm3, %xmm6, %xmm0 vmulss %xmm3, %xmm3, %xmm1 vmulss %xmm1, %xmm0, %xmm0 vaddss %xmm0, %xmm5, %xmm0 vbroadcastss %xmm0, %xmm4 vmulps %xmm4, %xmm13, %xmm0 vmovaps %xmm0, 0x100(%rsp) vdpps $0x7f, %xmm0, %xmm11, %xmm15 vaddss 0x234fc5(%rip), %xmm7, %xmm14 # 0x1eec714 vmulps %xmm15, %xmm15, %xmm0 vsubps %xmm0, %xmm19, %xmm0 vxorps %xmm2, %xmm2, %xmm2 vmovss %xmm0, %xmm2, %xmm1 # xmm1 = xmm0[0],xmm2[1,2,3] vrsqrt14ss %xmm1, %xmm2, %xmm18 vmulss 0x234fa6(%rip), %xmm18, %xmm17 # 0x1eec718 vmulss 0x234fa0(%rip), %xmm0, %xmm20 # 0x1eec71c vucomiss 0x2342a0(%rip), %xmm0 # 0x1eeba24 jb 0x1cb778f vsqrtss %xmm0, %xmm0, %xmm0 jmp 0x1cb782a vmovss %xmm14, 0x24(%rsp) vmovaps %xmm15, 0xf0(%rsp) vmovss %xmm16, 0x40(%rsp) vmovss %xmm17, 0x3c(%rsp) vmovaps %xmm18, 0x340(%rsp) vmovss %xmm20, 0x38(%rsp) vmovaps %xmm4, 0x330(%rsp) vzeroupper callq 0x6aa20 vmovaps 0x330(%rsp), %xmm4 vmovss 0x38(%rsp), %xmm20 vmovaps 0x340(%rsp), %xmm18 vmovss 0x3c(%rsp), %xmm17 vmovss 0x40(%rsp), %xmm16 vmovaps 0xf0(%rsp), %xmm15 vmovss 0x24(%rsp), %xmm14 vmovss 0x180(%rsp), %xmm7 vmovaps 0x1a0(%rsp), %xmm13 vmovaps 0xa0(%rsp), %xmm19 vmovaps 0xc0(%rsp), %xmm11 vbroadcastss 0x269691(%rip), %xmm8 # 0x1f20ec4 vmovaps 0x240(%rsp), %ymm30 vmovaps 0x220(%rsp), %ymm31 vmovaps 0x200(%rsp), %ymm21 vmovaps 0x60(%rsp), %xmm9 vmovaps 0x80(%rsp), %xmm10 vbroadcastss 0x350(%rsp), %xmm1 vmulps 0x280(%rsp), %xmm1, %xmm1 vbroadcastss 0x3a0(%rsp), %xmm2 vfmadd132ps 0x2c0(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1 vbroadcastss 0x3c0(%rsp), %xmm1 vfmadd132ps 0x2a0(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2 vmovss 0x239753(%rip), %xmm2 # 0x1ef0ff0 vfmadd213ss 0x239752(%rip), %xmm9, %xmm2 # xmm2 = (xmm9 * xmm2) + mem vbroadcastss %xmm2, %xmm2 vfmadd132ps 0x2e0(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1 vbroadcastss 0x120(%rsp), %xmm1 vmulps %xmm1, %xmm2, %xmm1 vdpps $0x7f, %xmm2, %xmm13, %xmm2 vbroadcastss %xmm2, %xmm2 vmulps %xmm2, %xmm13, %xmm2 vsubps %xmm2, %xmm1, %xmm1 vmovss 0x4c(%rsp), %xmm2 vmulss 0x110(%rsp), %xmm2, %xmm2 vmulss 0x48(%rsp), %xmm10, %xmm3 vbroadcastss %xmm2, %xmm2 vmulps %xmm2, %xmm1, %xmm1 vxorps 0x2695c2(%rip){1to4}, %xmm13, %xmm2 # 0x1f20ec0 vmulps %xmm1, %xmm4, %xmm4 vmovaps 0x100(%rsp), %xmm12 vdpps $0x7f, %xmm12, %xmm2, %xmm5 vmovss 0x44(%rsp), %xmm6 vmaxss %xmm3, %xmm6, %xmm1 vdivss %xmm16, %xmm6, %xmm3 vdpps $0x7f, %xmm4, %xmm11, %xmm4 vfmadd213ss %xmm1, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm7) + xmm1 vfmadd213ss %xmm7, %xmm3, %xmm14 # xmm14 = (xmm3 * xmm14) + xmm7 vmovaps 0x270(%rsp), %xmm7 vdpps $0x7f, %xmm12, %xmm7, %xmm3 vaddss %xmm4, %xmm5, %xmm4 vdpps $0x7f, %xmm2, %xmm11, %xmm5 vmulss %xmm18, %xmm20, %xmm2 vmulss %xmm18, %xmm18, %xmm6 vmulss %xmm6, %xmm2, %xmm2 vdpps $0x7f, %xmm7, %xmm11, %xmm6 vaddss %xmm2, %xmm17, %xmm7 vfnmadd231ss %xmm4, %xmm15, %xmm5 # xmm5 = -(xmm15 * xmm4) + xmm5 vfnmadd231ss %xmm3, %xmm15, %xmm6 # xmm6 = -(xmm15 * xmm3) + xmm6 vpermilps $0xff, 0x3e0(%rsp), %xmm2 # xmm2 = mem[3,3,3,3] vsubss %xmm2, %xmm0, %xmm2 vshufps $0xff, %xmm13, %xmm13, %xmm0 # xmm0 = xmm13[3,3,3,3] vfmsub213ss %xmm0, %xmm7, %xmm5 # xmm5 = (xmm7 * xmm5) - xmm0 vmulss %xmm7, %xmm6, %xmm6 vmulss %xmm5, %xmm3, %xmm7 vfmsub231ss %xmm6, %xmm4, %xmm7 # xmm7 = (xmm4 * xmm6) - xmm7 vdivss %xmm7, %xmm6, %xmm6 vdivss %xmm7, %xmm5, %xmm5 vdivss %xmm7, %xmm3, %xmm3 vdivss %xmm7, %xmm4, %xmm4 vmulss %xmm6, %xmm15, %xmm6 vmulss %xmm3, %xmm2, %xmm3 vsubss %xmm3, %xmm6, %xmm3 vmulss %xmm5, %xmm15, %xmm5 vmulss %xmm4, %xmm2, %xmm4 vsubss %xmm5, %xmm4, %xmm4 vsubss %xmm3, %xmm9, %xmm9 vsubss %xmm4, %xmm10, %xmm10 vandps %xmm8, %xmm15, %xmm3 vucomiss %xmm3, %xmm14 jbe 0x1cb7b86 vaddss %xmm1, %xmm14, %xmm1 vmovaps 0x310(%rsp), %xmm3 vfmadd231ss 0x23a4c8(%rip), %xmm3, %xmm1 # xmm1 = (xmm3 * mem) + xmm1 vandps %xmm2, %xmm8, %xmm2 vucomiss %xmm2, %xmm1 jbe 0x1cb7b86 vaddss 0x320(%rsp), %xmm10, %xmm10 movb $0x1, %r13b vucomiss 0x5c(%rsp), %xmm10 jb 0x1cb7b89 movq 0x18(%rsp), %rax vmovss 0x200(%r12,%rax,4), %xmm4 vucomiss %xmm10, %xmm4 jb 0x1cb7b89 vucomiss 0x233ff0(%rip), %xmm9 # 0x1eeba24 jb 0x1cb7b89 vmovss 0x234cd2(%rip), %xmm1 # 0x1eec714 vucomiss %xmm9, %xmm1 jb 0x1cb7b89 vxorps %xmm2, %xmm2, %xmm2 vmovss %xmm19, %xmm2, %xmm1 # xmm1 = xmm19[0],xmm2[1,2,3] vrsqrt14ss %xmm1, %xmm2, %xmm1 vmulss 0x234cb3(%rip), %xmm1, %xmm2 # 0x1eec718 vmulss 0x234cad(%rip), %xmm19, %xmm3 # 0x1eec71c movq (%r15), %rax movq 0x1e8(%rax), %rax movq %r15, %rcx movq 0x50(%rsp), %rdx movq (%rax,%rdx,8), %r15 movq 0x18(%rsp), %rax movl 0x240(%r12,%rax,4), %eax testl %eax, 0x34(%r15) je 0x1cb7ba6 vmulss %xmm1, %xmm3, %xmm3 vmulss %xmm1, %xmm1, %xmm1 vmulss %xmm1, %xmm3, %xmm1 vaddss %xmm1, %xmm2, %xmm1 vbroadcastss %xmm1, %xmm1 vmulps %xmm1, %xmm11, %xmm1 vfmadd213ps %xmm13, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm0) + xmm13 vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3] vshufps $0xc9, %xmm13, %xmm13, %xmm3 # xmm3 = xmm13[1,2,0,3] vmulps %xmm3, %xmm1, %xmm1 vfmsub231ps %xmm2, %xmm13, %xmm1 # xmm1 = (xmm13 * xmm2) - xmm1 vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3] vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3] vshufps $0xd2, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,0,1,3] vmulps %xmm1, %xmm0, %xmm0 vfmsub231ps %xmm3, %xmm2, %xmm0 # xmm0 = (xmm2 * xmm3) - xmm0 movq 0x10(%rcx), %rax cmpq $0x0, 0x10(%rax) jne 0x1cb7bab cmpq $0x0, 0x40(%r15) jne 0x1cb7bab movq 0x18(%rsp), %rcx vmovss %xmm10, 0x200(%r12,%rcx,4) vextractps $0x1, %xmm0, 0x300(%r12,%rcx,4) vextractps $0x2, %xmm0, 0x340(%r12,%rcx,4) vmovss %xmm0, 0x380(%r12,%rcx,4) vmovss %xmm9, 0x3c0(%r12,%rcx,4) movl $0x0, 0x400(%r12,%rcx,4) movq 0x130(%rsp), %rax movl %eax, 0x440(%r12,%rcx,4) movq 0x50(%rsp), %rax movl %eax, 0x480(%r12,%rcx,4) movq 0x28(%rsp), %r15 movq 0x8(%r15), %rax movl (%rax), %eax movl %eax, 0x4c0(%r12,%rcx,4) movq 0x8(%r15), %rax movl 0x4(%rax), %eax movl %eax, 0x500(%r12,%rcx,4) jmp 0x1cb7b89 xorl %r13d, %r13d subq $0x1, %r14 setb %al testb %r13b, %r13b jne 0x1cb7e63 testb %al, %al je 0x1cb73f0 jmp 0x1cb7e63 movq %rcx, %r15 jmp 0x1cb7b89 movq 0x28(%rsp), %rcx movq 0x8(%rcx), %rax vbroadcastss %xmm9, %zmm1 vbroadcastss 0x25ab40(%rip), %zmm2 # 0x1f12704 vpermps %zmm0, %zmm2, %zmm2 vbroadcastss 0x269308(%rip), %zmm3 # 0x1f20edc vpermps %zmm0, %zmm3, %zmm3 vbroadcastss %xmm0, %zmm0 vmovaps %zmm2, 0x8c0(%rsp) vmovaps %zmm3, 0x900(%rsp) vmovaps %zmm0, 0x940(%rsp) vmovaps %zmm1, 0x980(%rsp) vxorps %xmm0, %xmm0, %xmm0 vmovaps %zmm0, 0x9c0(%rsp) vmovaps 0x840(%rsp), %zmm0 vmovaps %zmm0, 0xa00(%rsp) vmovdqa64 0x880(%rsp), %zmm0 vmovdqa64 %zmm0, 0xa40(%rsp) movq 0x1d8(%rsp), %rdx vpcmpeqd %ymm0, %ymm0, %ymm0 vmovdqa %ymm0, 0x60(%rdx) vmovdqa %ymm0, 0x40(%rdx) vmovdqa %ymm0, 0x20(%rdx) vmovdqa %ymm0, (%rdx) vbroadcastss (%rax), %zmm0 vmovaps %zmm0, 0xa80(%rsp) vbroadcastss 0x4(%rax), %zmm0 vmovaps %zmm0, 0xac0(%rsp) movq 0x18(%rsp), %rax vmovss %xmm10, 0x200(%r12,%rax,4) vmovaps 0x800(%rsp), %zmm0 vmovaps %zmm0, 0x400(%rsp) leaq 0x400(%rsp), %rax movq %rax, 0x150(%rsp) movq 0x18(%r15), %rax movq %rax, 0x158(%rsp) movq 0x8(%rcx), %rax movq %rax, 0x160(%rsp) movq %r12, 0x168(%rsp) leaq 0x8c0(%rsp), %rax movq %rax, 0x170(%rsp) movl $0x10, 0x178(%rsp) movq 0x40(%r15), %rax testq %rax, %rax vmovaps %xmm9, 0x60(%rsp) vmovaps %xmm10, 0x80(%rsp) vmovss %xmm4, 0xa0(%rsp) je 0x1cb7d30 leaq 0x150(%rsp), %rdi vzeroupper callq *%rax vmovss 0xa0(%rsp), %xmm4 vmovaps 0x80(%rsp), %xmm10 vmovaps 0x60(%rsp), %xmm9 vmovaps 0x200(%rsp), %ymm21 vmovaps 0x220(%rsp), %ymm31 vmovaps 0x240(%rsp), %ymm30 vmovdqa64 0x400(%rsp), %zmm0 vptestmd %zmm0, %zmm0, %k0 kortestw %k0, %k0 je 0x1cb7e4a movq 0x28(%rsp), %rax movq 0x10(%rax), %rcx movq 0x10(%rcx), %rax testq %rax, %rax je 0x1cb7da3 testb $0x2, (%rcx) jne 0x1cb7d66 testb $0x40, 0x3e(%r15) je 0x1cb7da3 leaq 0x150(%rsp), %rdi vzeroupper callq *%rax vmovss 0xa0(%rsp), %xmm4 vmovaps 0x80(%rsp), %xmm10 vmovaps 0x60(%rsp), %xmm9 vmovaps 0x200(%rsp), %ymm21 vmovaps 0x220(%rsp), %ymm31 vmovaps 0x240(%rsp), %ymm30 vmovdqa64 0x400(%rsp), %zmm0 vptestmd %zmm0, %zmm0, %k1 kortestw %k1, %k1 je 0x1cb7e4a movq 0x168(%rsp), %rax movq 0x170(%rsp), %rcx vmovaps (%rcx), %zmm0 vmovups %zmm0, 0x300(%rax) {%k1} vmovaps 0x40(%rcx), %zmm0 vmovups %zmm0, 0x340(%rax) {%k1} vmovaps 0x80(%rcx), %zmm0 vmovups %zmm0, 0x380(%rax) {%k1} vmovaps 0xc0(%rcx), %zmm0 vmovups %zmm0, 0x3c0(%rax) {%k1} vmovaps 0x100(%rcx), %zmm0 vmovups %zmm0, 0x400(%rax) {%k1} vmovdqa64 0x140(%rcx), %zmm0 vmovdqu32 %zmm0, 0x440(%rax) {%k1} vmovdqa64 0x180(%rcx), %zmm0 vmovdqu32 %zmm0, 0x480(%rax) {%k1} vmovdqa64 0x1c0(%rcx), %zmm0 vmovdqa32 %zmm0, 0x4c0(%rax) {%k1} vmovdqa64 0x200(%rcx), %zmm0 vmovdqa32 %zmm0, 0x500(%rax) {%k1} jmp 0x1cb7e59 movq 0x18(%rsp), %rax vmovss %xmm4, 0x200(%r12,%rax,4) movq 0x28(%rsp), %r15 jmp 0x1cb7b89 movq 0x18(%rsp), %rax vmovaps 0x460(%rsp), %ymm0 vcmpleps 0x200(%r12,%rax,4){1to8}, %ymm0, %k0 kmovd %k0, %eax andb %al, %bl jne 0x1cb730c vmovdqa 0x4c0(%rsp), %ymm1 vpcmpltd 0x440(%rsp), %ymm1, %k1 vmovaps 0x7c0(%rsp), %ymm0 vpcmpltd 0x560(%rsp), %ymm1, %k2 vmovaps 0x380(%rsp), %ymm3 vaddps %ymm0, %ymm3, %ymm1 movq 0x18(%rsp), %rax vbroadcastss 0x200(%r12,%rax,4), %ymm2 vcmpleps %ymm2, %ymm1, %k0 {%k2} kmovd %k0, %eax movl 0x140(%rsp), %ecx andb %al, %cl vmovaps 0x520(%rsp), %ymm1 vaddps %ymm1, %ymm3, %ymm3 vcmpleps %ymm2, %ymm3, %k0 {%k1} kmovd %k0, %eax movl 0x34(%rsp), %edx andb %al, %dl orb %cl, %dl je 0x1cb7f7c movq 0x1f0(%rsp), %r9 movl %r9d, %eax leaq (%rax,%rax,2), %rax shlq $0x5, %rax movb %dl, 0xb20(%rsp,%rax) kmovd %ecx, %k1 vmovaps %ymm0, %ymm1 {%k1} vmovaps %ymm1, 0xb40(%rsp,%rax) vmovaps 0x1c0(%rsp), %xmm2 vmovlps %xmm2, 0xb60(%rsp,%rax) movq 0x1e8(%rsp), %r11 leal 0x1(%r11), %ecx movl %ecx, 0xb68(%rsp,%rax) incl %r9d movq 0x1e0(%rsp), %r8 vbroadcastss 0x2347ae(%rip), %ymm16 # 0x1eec714 movq 0x1f8(%rsp), %r10 jmp 0x1cb7faf vbroadcastss 0x23479a(%rip), %ymm16 # 0x1eec714 jmp 0x1cb7fa6 movq 0x1e0(%rsp), %r8 vbroadcastss 0x234786(%rip), %ymm16 # 0x1eec714 movq 0x1f8(%rsp), %r10 movq 0x1f0(%rsp), %r9 movq 0x1e8(%rsp), %r11 vmovaps 0x1c0(%rsp), %xmm2 movl %r9d, %eax testl %eax, %eax je 0x1cb8107 leal -0x1(%rax), %r9d leaq (%r9,%r9,2), %rcx shlq $0x5, %rcx vmovaps 0xb40(%rsp,%rcx), %ymm0 movzbl 0xb20(%rsp,%rcx), %esi vaddps 0x380(%rsp), %ymm0, %ymm1 movq 0x18(%rsp), %rdx vcmpleps 0x200(%r12,%rdx,4){1to8}, %ymm1, %k0 kmovb %k0, %edx andl %esi, %edx je 0x1cb80aa kmovd %edx, %k1 vbroadcastss 0x233a16(%rip), %ymm1 # 0x1eeba20 vblendmps %ymm0, %ymm1, %ymm0 {%k1} vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm0, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1] vminps %ymm2, %ymm1, %ymm1 vcmpeqps %ymm1, %ymm0, %k0 kmovd %k0, %esi andb %dl, %sil je 0x1cb8042 movzbl %sil, %edi jmp 0x1cb8045 movzbl %dl, %edi leaq (%rsp,%rcx), %rsi addq $0xb20, %rsi # imm = 0xB20 vmovss 0x44(%rsi), %xmm0 tzcntl %edi, %ecx movb $0x1, %dil shlb %cl, %dil movl 0x48(%rsi), %r11d movzbl %dil, %edi kmovd %edi, %k0 kmovd %edx, %k1 kandnb %k1, %k0, %k0 kmovb %k0, (%rsi) kortestb %k0, %k0 je 0x1cb8080 movl %eax, %r9d vbroadcastss 0x40(%rsi), %ymm1 vsubss %xmm1, %xmm0, %xmm0 vbroadcastss %xmm0, %ymm0 vfmadd132ps 0x268e88(%rip), %ymm1, %ymm0 # ymm0 = (ymm0 * mem) + ymm1 vmovaps %ymm0, 0x8c0(%rsp) vmovsd 0x8c0(%rsp,%rcx,4), %xmm2 movl %r9d, %eax testb %dl, %dl je 0x1cb7fb2 jmp 0x1cb5a28 vcmpleps 0x268e3b(%rip), %ymm4, %k2 # 0x1f20f00 vbroadcastss 0x234ab6(%rip), %ymm4 # 0x1eecb84 vbroadcastss 0x233948(%rip), %ymm16 # 0x1eeba20 vblendmps %ymm4, %ymm16, %ymm3 {%k2} vmovaps %ymm3, %ymm30 {%k1} vblendmps %ymm16, %ymm4, %ymm3 {%k2} kmovd %k2, %ecx vmovaps %ymm3, %ymm31 {%k1} knotb %k1, %k0 kmovd %k0, %edx orb %cl, %dl andb %al, %dl movl %edx, %eax jmp 0x1cb602d movq 0x18(%rsp), %rax vmovaps 0x580(%rsp), %ymm0 vcmpleps 0x200(%r12,%rax,4){1to8}, %ymm0, %k0 kmovb %k0, %eax andl %eax, %r10d jne 0x1cb569f leaq -0x28(%rbp), %rsp popq %rbx popq %r12 popq %r13 popq %r14 popq %r15 popq %rbp vzeroupper retq
/embree[P]embree/kernels/geometry/curveNi_intersector.h
void embree::avx512::CurveNiIntersector1<8>::intersect_t<embree::avx512::RibbonCurve1Intersector1<embree::CatmullRomCurveT, 8>, embree::avx512::Intersect1EpilogMU<8, true>>(embree::avx512::CurvePrecalculations1 const&, embree::RayHitK<1>&, embree::RayQueryContext*, embree::CurveNi<8> const&)
static __forceinline void intersect_t(const Precalculations& pre, RayHit& ray, RayQueryContext* context, const Primitive& prim) { vfloat<M> tNear; vbool<M> valid = intersect(ray,prim,tNear); const size_t N = prim.N; size_t mask = movemask(valid); while (mask) { const size_t i = bscf(mask); STAT3(normal.trav_prims,1,1,1); const unsigned int geomID = prim.geomID(N); const unsigned int primID = prim.primID(N)[i]; const CurveGeometry* geom = context->scene->get<CurveGeometry>(geomID); Vec3ff a0,a1,a2,a3; geom->gather(a0,a1,a2,a3,geom->curve(primID)); size_t mask1 = mask; const size_t i1 = bscf(mask1); if (mask) { const unsigned int primID1 = prim.primID(N)[i1]; geom->prefetchL1_vertices(geom->curve(primID1)); if (mask1) { const size_t i2 = bsf(mask1); const unsigned int primID2 = prim.primID(N)[i2]; geom->prefetchL2_vertices(geom->curve(primID2)); } } Intersector().intersect(pre,ray,context,geom,primID,a0,a1,a2,a3,Epilog(ray,context,geomID,primID)); mask &= movemask(tNear <= vfloat<M>(ray.tfar)); } }
pushq %rbp movq %rsp, %rbp pushq %r15 pushq %r14 pushq %r13 pushq %r12 pushq %rbx andq $-0x20, %rsp subq $0x600, %rsp # imm = 0x600 movq %rcx, %r9 movzbl 0x1(%rcx), %ecx leaq (%rcx,%rcx,4), %rax leaq (%rax,%rax,4), %r8 vbroadcastss 0x12(%r9,%r8), %xmm0 movq %rsi, %r15 movq %rdi, %r11 vmovaps (%rsi), %xmm1 vsubps 0x6(%r9,%r8), %xmm1, %xmm1 vmulps %xmm1, %xmm0, %xmm3 vmulps 0x10(%rsi), %xmm0, %xmm0 vpmovsxbd 0x6(%r9,%rcx,4), %ymm1 vpmovsxbd 0x6(%r9,%rax), %ymm2 vcvtdq2ps %ymm1, %ymm5 vcvtdq2ps %ymm2, %ymm6 leaq (%rcx,%rcx,2), %r8 vpmovsxbd 0x6(%r9,%r8,2), %ymm1 vcvtdq2ps %ymm1, %ymm4 leaq (%rcx,%rax,2), %rsi vpmovsxbd 0x6(%r9,%rsi), %ymm1 leal (,%r8,4), %esi vpmovsxbd 0x6(%r9,%rsi), %ymm2 vcvtdq2ps %ymm1, %ymm7 vcvtdq2ps %ymm2, %ymm8 addq %rcx, %rsi vpmovsxbd 0x6(%r9,%rsi), %ymm1 vcvtdq2ps %ymm1, %ymm9 leaq (%rcx,%rcx,8), %rsi leal (%rsi,%rsi), %edi vpmovsxbd 0x6(%r9,%rdi), %ymm1 vcvtdq2ps %ymm1, %ymm10 addq %rcx, %rdi vpmovsxbd 0x6(%r9,%rdi), %ymm1 vcvtdq2ps %ymm1, %ymm11 shll $0x2, %eax vpmovsxbd 0x6(%r9,%rax), %ymm1 vcvtdq2ps %ymm1, %ymm12 vbroadcastss %xmm0, %ymm13 vbroadcastss 0x2575c1(%rip), %ymm15 # 0x1f12704 vbroadcastss 0x265d8f(%rip), %ymm16 # 0x1f20edc vpermps %ymm0, %ymm15, %ymm14 vpermps %ymm0, %ymm16, %ymm0 vmulps %ymm4, %ymm0, %ymm2 vmulps %ymm0, %ymm9, %ymm1 vmulps %ymm0, %ymm12, %ymm0 vfmadd231ps %ymm6, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm6) + ymm2 vfmadd231ps %ymm8, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm8) + ymm1 vfmadd231ps %ymm14, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm14) + ymm0 vfmadd231ps %ymm5, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm5) + ymm2 vfmadd231ps %ymm7, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm7) + ymm1 vfmadd231ps %ymm13, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm13) + ymm0 vbroadcastss %xmm3, %ymm13 vpermps %ymm3, %ymm15, %ymm14 vpermps %ymm3, %ymm16, %ymm3 vmulps %ymm4, %ymm3, %ymm15 vmulps %ymm3, %ymm9, %ymm4 vmulps %ymm3, %ymm12, %ymm3 vfmadd231ps %ymm6, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm6) + ymm15 vfmadd231ps %ymm8, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm8) + ymm4 vfmadd231ps %ymm11, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm11) + ymm3 vfmadd231ps %ymm5, %ymm13, %ymm15 # ymm15 = (ymm13 * ymm5) + ymm15 vfmadd231ps %ymm7, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm7) + ymm4 vbroadcastss 0x265d04(%rip), %ymm7 # 0x1f20ec4 vfmadd231ps %ymm10, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm10) + ymm3 vandps %ymm7, %ymm2, %ymm5 vbroadcastss 0x235e16(%rip), %ymm6 # 0x1ef0fe8 vcmpltps %ymm6, %ymm5, %k1 vmovaps %ymm6, %ymm2 {%k1} vandps %ymm7, %ymm1, %ymm5 vcmpltps %ymm6, %ymm5, %k1 vmovaps %ymm6, %ymm1 {%k1} vandps %ymm7, %ymm0, %ymm5 vcmpltps %ymm6, %ymm5, %k1 vmovaps %ymm6, %ymm0 {%k1} vrcp14ps %ymm2, %ymm5 vbroadcastss 0x231504(%rip), %ymm6 # 0x1eec714 vfnmadd213ps %ymm6, %ymm5, %ymm2 # ymm2 = -(ymm5 * ymm2) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm2 # ymm2 = (ymm2 * ymm5) + ymm5 vrcp14ps %ymm1, %ymm5 vfnmadd213ps %ymm6, %ymm5, %ymm1 # ymm1 = -(ymm5 * ymm1) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm1 # ymm1 = (ymm1 * ymm5) + ymm5 vrcp14ps %ymm0, %ymm5 vfnmadd213ps %ymm6, %ymm5, %ymm0 # ymm0 = -(ymm5 * ymm0) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm0 # ymm0 = (ymm0 * ymm5) + ymm5 leaq (,%rcx,8), %rdi subq %rcx, %rdi vpmovsxwd 0x6(%r9,%rdi), %ymm5 vcvtdq2ps %ymm5, %ymm5 vsubps %ymm15, %ymm5, %ymm5 vmulps %ymm5, %ymm2, %ymm5 vpmovsxwd 0x6(%r9,%rsi), %ymm6 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm15, %ymm6, %ymm6 leaq (%rcx,%rcx), %rsi addq %rcx, %rax shlq $0x3, %r8 subq %rcx, %r8 vpbroadcastd %ecx, %ymm7 shll $0x4, %ecx vpmovsxwd 0x6(%r9,%rcx), %ymm8 vmulps %ymm6, %ymm2, %ymm2 subq %rsi, %rcx vpmovsxwd 0x6(%r9,%rcx), %ymm6 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm4, %ymm6, %ymm6 vmulps %ymm6, %ymm1, %ymm6 vcvtdq2ps %ymm8, %ymm8 vsubps %ymm4, %ymm8, %ymm4 vmulps %ymm4, %ymm1, %ymm1 vpmovsxwd 0x6(%r9,%rax), %ymm4 vcvtdq2ps %ymm4, %ymm4 vsubps %ymm3, %ymm4, %ymm4 vmulps %ymm0, %ymm4, %ymm4 vpmovsxwd 0x6(%r9,%r8), %ymm8 vcvtdq2ps %ymm8, %ymm8 vsubps %ymm3, %ymm8, %ymm3 vmulps %ymm3, %ymm0, %ymm0 vpminsd %ymm2, %ymm5, %ymm3 vpminsd %ymm1, %ymm6, %ymm8 vmaxps %ymm8, %ymm3, %ymm3 vpminsd %ymm0, %ymm4, %ymm8 vmaxps 0xc(%r15){1to8}, %ymm8, %ymm8 vmaxps %ymm8, %ymm3, %ymm3 vmulps 0x264c11(%rip){1to8}, %ymm3, %ymm3 # 0x1f1ff10 vpmaxsd %ymm2, %ymm5, %ymm2 vpmaxsd %ymm1, %ymm6, %ymm1 vminps %ymm1, %ymm2, %ymm1 vpmaxsd %ymm0, %ymm4, %ymm0 vminps 0x20(%r15){1to8}, %ymm0, %ymm0 vminps %ymm0, %ymm1, %ymm0 vmulps 0x264bed(%rip){1to8}, %ymm0, %ymm0 # 0x1f1ff14 vpcmpgtd 0x29f5ef(%rip), %ymm7, %k0 # 0x1f5a920 vmovaps %ymm3, 0x5c0(%rsp) vcmpleps %ymm0, %ymm3, %k1 ktestb %k0, %k1 je 0x1cbd272 kandb %k0, %k1, %k0 kmovd %k0, %eax movzbl %al, %r13d leaq 0x47500e(%rip), %r14 # 0x213036c vmovaps %ymm6, 0xc0(%rsp) vmovaps %ymm3, 0x60(%rsp) vmovaps %ymm21, 0x1e0(%rsp) vmovaps %ymm20, 0x200(%rsp) tzcntq %r13, %rax movl 0x2(%r9), %ecx movl 0x6(%r9,%rax,4), %edi movq (%rdx), %rax movq 0x1e8(%rax), %rax movq %rcx, 0x38(%rsp) movq (%rax,%rcx,8), %rbx movq 0x58(%rbx), %rax movq 0x68(%rbx), %rcx movq %rcx, %rsi movq %rdi, 0x58(%rsp) imulq %rdi, %rsi movl (%rax,%rsi), %edi movq 0xa0(%rbx), %r10 movq %r10, %r8 imulq %rdi, %r8 movq 0x90(%rbx), %rsi vmovaps (%rsi,%r8), %xmm13 leaq 0x1(%rdi), %r8 imulq %r10, %r8 vmovaps (%rsi,%r8), %xmm0 vmovaps %xmm0, 0xf0(%rsp) leaq 0x2(%rdi), %r8 imulq %r10, %r8 vmovaps (%rsi,%r8), %xmm0 vmovaps %xmm0, 0xe0(%rsp) blsrq %r13, %r13 addq $0x3, %rdi imulq %r10, %rdi vmovaps (%rsi,%rdi), %xmm0 vmovaps %xmm0, 0x100(%rsp) movq %r13, %rdi subq $0x1, %rdi jb 0x1cbb46b andq %r13, %rdi tzcntq %r13, %r8 movl 0x6(%r9,%r8,4), %r8d imulq %rcx, %r8 movl (%rax,%r8), %r8d imulq %r10, %r8 prefetcht0 (%rsi,%r8) prefetcht0 0x40(%rsi,%r8) testq %rdi, %rdi je 0x1cbb46b tzcntq %rdi, %rdi movl 0x6(%r9,%rdi,4), %edi imulq %rdi, %rcx movl (%rax,%rcx), %eax imulq %rax, %r10 prefetcht1 (%rsi,%r10) prefetcht1 0x40(%rsi,%r10) movl 0x248(%rbx), %r8d vmovaps (%r15), %xmm0 vsubps %xmm0, %xmm13, %xmm1 vbroadcastss %xmm1, %xmm2 vshufps $0x55, %xmm1, %xmm1, %xmm3 # xmm3 = xmm1[1,1,1,1] vshufps $0xaa, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,2,2,2] vmovaps 0x10(%r11), %xmm4 vmovaps 0x20(%r11), %xmm5 vmovaps 0x30(%r11), %xmm6 vmulps %xmm6, %xmm1, %xmm8 vfmadd231ps %xmm3, %xmm5, %xmm8 # xmm8 = (xmm5 * xmm3) + xmm8 vfmadd231ps %xmm2, %xmm4, %xmm8 # xmm8 = (xmm4 * xmm2) + xmm8 vshufps $0xff, %xmm13, %xmm13, %xmm1 # xmm1 = xmm13[3,3,3,3] vmovaps 0xf0(%rsp), %xmm3 vsubps %xmm0, %xmm3, %xmm2 vmovaps %xmm3, %xmm10 vbroadcastss %xmm2, %xmm3 vshufps $0x55, %xmm2, %xmm2, %xmm7 # xmm7 = xmm2[1,1,1,1] vshufps $0xaa, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[2,2,2,2] vmulps %xmm6, %xmm2, %xmm9 vfmadd231ps %xmm7, %xmm5, %xmm9 # xmm9 = (xmm5 * xmm7) + xmm9 vfmadd231ps %xmm3, %xmm4, %xmm9 # xmm9 = (xmm4 * xmm3) + xmm9 vshufps $0xff, %xmm10, %xmm10, %xmm2 # xmm2 = xmm10[3,3,3,3] vmovaps 0xe0(%rsp), %xmm7 vsubps %xmm0, %xmm7, %xmm3 vmovaps %xmm7, %xmm12 vbroadcastss %xmm3, %xmm7 vshufps $0x55, %xmm3, %xmm3, %xmm11 # xmm11 = xmm3[1,1,1,1] vshufps $0xaa, %xmm3, %xmm3, %xmm3 # xmm3 = xmm3[2,2,2,2] vmulps %xmm6, %xmm3, %xmm10 vfmadd231ps %xmm11, %xmm5, %xmm10 # xmm10 = (xmm5 * xmm11) + xmm10 vfmadd231ps %xmm7, %xmm4, %xmm10 # xmm10 = (xmm4 * xmm7) + xmm10 vshufps $0xff, %xmm12, %xmm12, %xmm7 # xmm7 = xmm12[3,3,3,3] vmovaps 0x100(%rsp), %xmm27 vsubps %xmm0, %xmm27, %xmm0 vbroadcastss %xmm0, %xmm3 vshufps $0x55, %xmm0, %xmm0, %xmm12 # xmm12 = xmm0[1,1,1,1] vshufps $0xaa, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[2,2,2,2] vmulps %xmm6, %xmm0, %xmm11 vfmadd231ps %xmm12, %xmm5, %xmm11 # xmm11 = (xmm5 * xmm12) + xmm11 vfmadd231ps %xmm3, %xmm4, %xmm11 # xmm11 = (xmm4 * xmm3) + xmm11 movslq %r8d, %rax movq %rax, %rcx shlq $0x6, %rcx leaq (%rcx,%rax,4), %r12 vmovups (%r14,%r12), %ymm25 vshufps $0xff, %xmm27, %xmm27, %xmm0 # xmm0 = xmm27[3,3,3,3] vbroadcastss %xmm8, %ymm20 vbroadcastss 0x257196(%rip), %ymm3 # 0x1f12704 vpermps %ymm8, %ymm3, %ymm23 vbroadcastsd %xmm1, %ymm12 vmovups 0x484(%r14,%r12), %ymm14 vbroadcastss %xmm9, %ymm1 vpermps %ymm9, %ymm3, %ymm26 vbroadcastsd %xmm2, %ymm21 vmovups 0x908(%r14,%r12), %ymm15 vbroadcastss %xmm10, %ymm30 vpermps %ymm10, %ymm3, %ymm29 vbroadcastsd %xmm7, %ymm22 vmovups 0xd8c(%r14,%r12), %ymm16 vbroadcastss %xmm11, %ymm28 vpermps %ymm11, %ymm3, %ymm31 vbroadcastsd %xmm0, %ymm3 vmulps %ymm16, %ymm28, %ymm5 vmulps %ymm16, %ymm31, %ymm4 vfmadd231ps %ymm30, %ymm15, %ymm5 # ymm5 = (ymm15 * ymm30) + ymm5 vfmadd231ps %ymm29, %ymm15, %ymm4 # ymm4 = (ymm15 * ymm29) + ymm4 vfmadd231ps %ymm1, %ymm14, %ymm5 # ymm5 = (ymm14 * ymm1) + ymm5 vfmadd231ps %ymm26, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm26) + ymm4 vfmadd231ps %ymm20, %ymm25, %ymm5 # ymm5 = (ymm25 * ymm20) + ymm5 leaq 0x477190(%rip), %rdi # 0x213278c vmovups (%rdi,%r12), %ymm2 vmovups 0x484(%rdi,%r12), %ymm17 vfmadd231ps %ymm23, %ymm25, %ymm4 # ymm4 = (ymm25 * ymm23) + ymm4 vmovups 0x908(%rdi,%r12), %ymm18 vmovups 0xd8c(%rdi,%r12), %ymm19 vmulps %ymm19, %ymm28, %ymm7 vmulps %ymm19, %ymm31, %ymm6 vfmadd231ps %ymm30, %ymm18, %ymm7 # ymm7 = (ymm18 * ymm30) + ymm7 vfmadd231ps %ymm29, %ymm18, %ymm6 # ymm6 = (ymm18 * ymm29) + ymm6 vmovaps %ymm1, 0x140(%rsp) vfmadd231ps %ymm1, %ymm17, %ymm7 # ymm7 = (ymm17 * ymm1) + ymm7 vfmadd231ps %ymm26, %ymm17, %ymm6 # ymm6 = (ymm17 * ymm26) + ymm6 vmovaps %ymm20, 0x260(%rsp) vfmadd231ps %ymm20, %ymm2, %ymm7 # ymm7 = (ymm2 * ymm20) + ymm7 vmovaps %ymm23, 0x160(%rsp) vfmadd231ps %ymm23, %ymm2, %ymm6 # ymm6 = (ymm2 * ymm23) + ymm6 vsubps %ymm5, %ymm7, %ymm24 vsubps %ymm4, %ymm6, %ymm23 vmulps %ymm24, %ymm4, %ymm0 vmulps %ymm23, %ymm5, %ymm1 vsubps %ymm1, %ymm0, %ymm20 vmulps %ymm16, %ymm3, %ymm0 vfmadd231ps %ymm22, %ymm15, %ymm0 # ymm0 = (ymm15 * ymm22) + ymm0 vfmadd231ps %ymm21, %ymm14, %ymm0 # ymm0 = (ymm14 * ymm21) + ymm0 vfmadd231ps %ymm12, %ymm25, %ymm0 # ymm0 = (ymm25 * ymm12) + ymm0 vmovaps %ymm3, 0x500(%rsp) vmulps %ymm19, %ymm3, %ymm1 vmovaps %ymm22, 0x520(%rsp) vfmadd231ps %ymm22, %ymm18, %ymm1 # ymm1 = (ymm18 * ymm22) + ymm1 vmovaps %ymm21, 0x580(%rsp) vfmadd231ps %ymm21, %ymm17, %ymm1 # ymm1 = (ymm17 * ymm21) + ymm1 vmovaps %ymm12, 0x5a0(%rsp) vfmadd231ps %ymm12, %ymm2, %ymm1 # ymm1 = (ymm2 * ymm12) + ymm1 vmulps %ymm23, %ymm23, %ymm21 vfmadd231ps %ymm24, %ymm24, %ymm21 # ymm21 = (ymm24 * ymm24) + ymm21 vmaxps %ymm1, %ymm0, %ymm22 vmulps %ymm22, %ymm22, %ymm22 vmulps %ymm21, %ymm22, %ymm21 vmulps %ymm20, %ymm20, %ymm20 vcmpleps %ymm21, %ymm20, %k1 vmovaps %xmm13, 0x40(%rsp) vblendps $0x8, %xmm13, %xmm8, %xmm12 # xmm12 = xmm8[0,1,2],xmm13[3] vbroadcastss 0x2657a2(%rip), %xmm20 # 0x1f20ec4 vandps %xmm20, %xmm12, %xmm12 vblendps $0x8, 0xf0(%rsp), %xmm9, %xmm13 # xmm13 = xmm9[0,1,2],mem[3] vandps %xmm20, %xmm13, %xmm13 vmaxps %xmm13, %xmm12, %xmm12 vblendps $0x8, 0xe0(%rsp), %xmm10, %xmm13 # xmm13 = xmm10[0,1,2],mem[3] vandps %xmm20, %xmm13, %xmm13 vmovaps %xmm27, %xmm3 vblendps $0x8, %xmm3, %xmm11, %xmm3 # xmm3 = xmm11[0,1,2],xmm3[3] vandps %xmm20, %xmm3, %xmm3 vmaxps %xmm3, %xmm13, %xmm3 vmaxps %xmm3, %xmm12, %xmm3 vmovshdup %xmm3, %xmm12 # xmm12 = xmm3[1,1,3,3] vmaxss %xmm3, %xmm12, %xmm12 vshufpd $0x1, %xmm3, %xmm3, %xmm3 # xmm3 = xmm3[1,0] vmaxss %xmm12, %xmm3, %xmm3 vcvtsi2ss %r8d, %xmm8, %xmm12 vmovaps %xmm12, 0x2c0(%rsp) vbroadcastss %xmm12, %ymm12 vcmpgtps 0x2657a7(%rip), %ymm12, %k1 {%k1} # 0x1f20f40 vmulss 0x235841(%rip), %xmm3, %xmm27 # 0x1ef0fe4 vbroadcastss 0x265730(%rip), %ymm3 # 0x1f20edc vpermps %ymm8, %ymm3, %ymm20 vpermps %ymm9, %ymm3, %ymm21 vpermps %ymm10, %ymm3, %ymm22 vpermps %ymm11, %ymm3, %ymm3 kortestb %k1, %k1 vmovss 0xc(%r15), %xmm10 vmovaps %ymm26, 0x460(%rsp) vmovaps %ymm30, 0x560(%rsp) vmovaps %ymm29, 0x540(%rsp) vmovaps %ymm20, 0x4e0(%rsp) vmovaps %ymm21, 0x4c0(%rsp) vmovaps %ymm22, 0x4a0(%rsp) vmovaps %ymm3, 0x480(%rsp) je 0x1cbbf80 vmovaps %xmm10, 0x240(%rsp) vmovaps %xmm27, 0x280(%rsp) vmovaps %ymm3, %ymm27 vmulps %ymm19, %ymm3, %ymm3 vfmadd213ps %ymm3, %ymm22, %ymm18 # ymm18 = (ymm22 * ymm18) + ymm3 vfmadd213ps %ymm18, %ymm21, %ymm17 # ymm17 = (ymm21 * ymm17) + ymm18 vfmadd213ps %ymm17, %ymm20, %ymm2 # ymm2 = (ymm20 * ymm2) + ymm17 vmulps %ymm16, %ymm27, %ymm3 vfmadd213ps %ymm3, %ymm22, %ymm15 # ymm15 = (ymm22 * ymm15) + ymm3 vfmadd213ps %ymm15, %ymm21, %ymm14 # ymm14 = (ymm21 * ymm14) + ymm15 vmovups 0x1210(%r14,%r12), %ymm3 vmovups 0x1694(%r14,%r12), %ymm10 vmovups 0x1b18(%r14,%r12), %ymm11 vmovups 0x1f9c(%r14,%r12), %ymm12 vfmadd213ps %ymm14, %ymm20, %ymm25 # ymm25 = (ymm20 * ymm25) + ymm14 vmulps %ymm12, %ymm28, %ymm9 vmulps %ymm12, %ymm31, %ymm8 vmulps %ymm12, %ymm27, %ymm12 vfmadd231ps %ymm30, %ymm11, %ymm9 # ymm9 = (ymm11 * ymm30) + ymm9 vfmadd231ps %ymm29, %ymm11, %ymm8 # ymm8 = (ymm11 * ymm29) + ymm8 vfmadd231ps %ymm11, %ymm22, %ymm12 # ymm12 = (ymm22 * ymm11) + ymm12 vmovaps 0x140(%rsp), %ymm19 vfmadd231ps %ymm19, %ymm10, %ymm9 # ymm9 = (ymm10 * ymm19) + ymm9 vfmadd231ps %ymm26, %ymm10, %ymm8 # ymm8 = (ymm10 * ymm26) + ymm8 vfmadd231ps %ymm10, %ymm21, %ymm12 # ymm12 = (ymm21 * ymm10) + ymm12 vmovaps 0x260(%rsp), %ymm17 vfmadd231ps %ymm17, %ymm3, %ymm9 # ymm9 = (ymm3 * ymm17) + ymm9 vmovaps 0x160(%rsp), %ymm18 vfmadd231ps %ymm18, %ymm3, %ymm8 # ymm8 = (ymm3 * ymm18) + ymm8 vmovups 0x1210(%rdi,%r12), %ymm10 vmovups 0x1b18(%rdi,%r12), %ymm11 vmovups 0x1f9c(%rdi,%r12), %ymm13 vfmadd231ps %ymm3, %ymm20, %ymm12 # ymm12 = (ymm20 * ymm3) + ymm12 vmovaps %ymm28, 0x1c0(%rsp) vmulps %ymm13, %ymm28, %ymm3 vmovaps %ymm31, 0x1a0(%rsp) vmulps %ymm13, %ymm31, %ymm14 vmulps %ymm13, %ymm27, %ymm13 vmovaps 0x280(%rsp), %xmm27 vfmadd231ps %ymm30, %ymm11, %ymm3 # ymm3 = (ymm11 * ymm30) + ymm3 vfmadd231ps %ymm29, %ymm11, %ymm14 # ymm14 = (ymm11 * ymm29) + ymm14 vfmadd231ps %ymm11, %ymm22, %ymm13 # ymm13 = (ymm22 * ymm11) + ymm13 vmovups 0x1694(%rdi,%r12), %ymm11 vfmadd231ps %ymm19, %ymm11, %ymm3 # ymm3 = (ymm11 * ymm19) + ymm3 vfmadd231ps %ymm26, %ymm11, %ymm14 # ymm14 = (ymm11 * ymm26) + ymm14 vfmadd231ps %ymm11, %ymm21, %ymm13 # ymm13 = (ymm21 * ymm11) + ymm13 vfmadd231ps %ymm17, %ymm10, %ymm3 # ymm3 = (ymm10 * ymm17) + ymm3 vfmadd231ps %ymm18, %ymm10, %ymm14 # ymm14 = (ymm10 * ymm18) + ymm14 vfmadd231ps %ymm10, %ymm20, %ymm13 # ymm13 = (ymm20 * ymm10) + ymm13 vbroadcastss 0x265558(%rip), %ymm15 # 0x1f20ec4 vandps %ymm15, %ymm9, %ymm10 vandps %ymm15, %ymm8, %ymm11 vmaxps %ymm11, %ymm10, %ymm10 vandps %ymm15, %ymm12, %ymm11 vmaxps %ymm11, %ymm10, %ymm10 vbroadcastss %xmm27, %ymm11 vcmpltps %ymm11, %ymm10, %k2 vmovaps %ymm24, %ymm9 {%k2} vmovaps %ymm23, %ymm8 {%k2} vandps %ymm3, %ymm15, %ymm10 vandps %ymm15, %ymm14, %ymm12 vmaxps %ymm12, %ymm10, %ymm10 vandps %ymm15, %ymm13, %ymm12 vmaxps %ymm12, %ymm10, %ymm10 vcmpltps %ymm11, %ymm10, %k2 vmovaps %ymm24, %ymm3 {%k2} vmovaps %ymm23, %ymm14 {%k2} vbroadcastss 0x2654ee(%rip), %ymm11 # 0x1f20ec0 vxorps %ymm11, %ymm9, %ymm10 vxorps %ymm3, %ymm11, %ymm12 vxorps %xmm23, %xmm23, %xmm23 vfmadd213ps %ymm23, %ymm9, %ymm9 # ymm9 = (ymm9 * ymm9) + ymm23 vfmadd231ps %ymm8, %ymm8, %ymm9 # ymm9 = (ymm8 * ymm8) + ymm9 vrsqrt14ps %ymm9, %ymm11 vbroadcastss 0x230d21(%rip), %ymm15 # 0x1eec71c vmulps %ymm15, %ymm9, %ymm9 vmulps %ymm9, %ymm11, %ymm9 vmulps %ymm11, %ymm11, %ymm13 vmulps %ymm9, %ymm13, %ymm9 vbroadcastss 0x230cff(%rip), %ymm16 # 0x1eec718 vfmadd231ps %ymm11, %ymm16, %ymm9 # ymm9 = (ymm16 * ymm11) + ymm9 vmulps %ymm9, %ymm8, %ymm11 vmulps %ymm10, %ymm9, %ymm10 vmulps %ymm23, %ymm9, %ymm13 vfmadd213ps %ymm23, %ymm3, %ymm3 # ymm3 = (ymm3 * ymm3) + ymm23 vfmadd231ps %ymm14, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm14) + ymm3 vrsqrt14ps %ymm3, %ymm8 vmulps %ymm3, %ymm15, %ymm3 vmulps %ymm3, %ymm8, %ymm3 vmulps %ymm8, %ymm8, %ymm9 vmulps %ymm3, %ymm9, %ymm3 vfmadd231ps %ymm8, %ymm16, %ymm3 # ymm3 = (ymm16 * ymm8) + ymm3 vmulps %ymm3, %ymm14, %ymm8 vmulps %ymm3, %ymm12, %ymm9 vmulps %ymm23, %ymm3, %ymm3 vmovaps %ymm11, %ymm12 vfmadd213ps %ymm5, %ymm0, %ymm12 # ymm12 = (ymm0 * ymm12) + ymm5 vmovaps %ymm10, %ymm14 vfmadd213ps %ymm4, %ymm0, %ymm14 # ymm14 = (ymm0 * ymm14) + ymm4 vmovaps %ymm13, %ymm15 vfmadd213ps %ymm25, %ymm0, %ymm15 # ymm15 = (ymm0 * ymm15) + ymm25 vmovaps %ymm8, %ymm16 vfmadd213ps %ymm7, %ymm1, %ymm16 # ymm16 = (ymm1 * ymm16) + ymm7 vfnmadd213ps %ymm5, %ymm0, %ymm11 # ymm11 = -(ymm0 * ymm11) + ymm5 vmovaps %ymm9, %ymm5 vfmadd213ps %ymm6, %ymm1, %ymm5 # ymm5 = (ymm1 * ymm5) + ymm6 vfnmadd213ps %ymm4, %ymm0, %ymm10 # ymm10 = -(ymm0 * ymm10) + ymm4 vmovaps %ymm3, %ymm4 vfmadd213ps %ymm2, %ymm1, %ymm4 # ymm4 = (ymm1 * ymm4) + ymm2 vfnmadd231ps %ymm13, %ymm0, %ymm25 # ymm25 = -(ymm0 * ymm13) + ymm25 vfnmadd213ps %ymm7, %ymm1, %ymm8 # ymm8 = -(ymm1 * ymm8) + ymm7 vfnmadd213ps %ymm6, %ymm1, %ymm9 # ymm9 = -(ymm1 * ymm9) + ymm6 vfnmadd231ps %ymm3, %ymm1, %ymm2 # ymm2 = -(ymm1 * ymm3) + ymm2 vsubps %ymm11, %ymm16, %ymm3 vsubps %ymm10, %ymm5, %ymm6 vsubps %ymm25, %ymm4, %ymm7 vmulps %ymm25, %ymm6, %ymm13 vfmsub231ps %ymm7, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm7) - ymm13 vmulps %ymm7, %ymm11, %ymm7 vfmsub231ps %ymm3, %ymm25, %ymm7 # ymm7 = (ymm25 * ymm3) - ymm7 vmulps %ymm3, %ymm10, %ymm3 vfmsub231ps %ymm6, %ymm11, %ymm3 # ymm3 = (ymm11 * ymm6) - ymm3 vfmadd231ps %ymm7, %ymm23, %ymm3 # ymm3 = (ymm23 * ymm7) + ymm3 vfmadd231ps %ymm13, %ymm23, %ymm3 # ymm3 = (ymm23 * ymm13) + ymm3 vcmpleps %ymm23, %ymm3, %k2 vmovaps %ymm12, %ymm8 {%k2} vmovaps %ymm14, %ymm9 {%k2} vmovaps %ymm15, %ymm2 {%k2} vblendmps %ymm16, %ymm11, %ymm13 {%k2} vblendmps %ymm5, %ymm10, %ymm14 {%k2} vblendmps %ymm4, %ymm25, %ymm15 {%k2} vmovaps %ymm11, %ymm16 {%k2} vmovaps %ymm10, %ymm5 {%k2} vmovaps %ymm25, %ymm4 {%k2} vsubps %ymm8, %ymm16, %ymm6 vsubps %ymm9, %ymm5, %ymm5 vsubps %ymm2, %ymm4, %ymm11 vsubps %ymm13, %ymm8, %ymm7 vsubps %ymm14, %ymm9, %ymm10 vsubps %ymm15, %ymm2, %ymm12 vmulps %ymm8, %ymm11, %ymm4 vfmsub231ps %ymm6, %ymm2, %ymm4 # ymm4 = (ymm2 * ymm6) - ymm4 vmulps %ymm6, %ymm9, %ymm3 vfmsub231ps %ymm5, %ymm8, %ymm3 # ymm3 = (ymm8 * ymm5) - ymm3 vfmadd231ps %ymm4, %ymm23, %ymm3 # ymm3 = (ymm23 * ymm4) + ymm3 vmulps %ymm2, %ymm5, %ymm4 vfmsub231ps %ymm11, %ymm9, %ymm4 # ymm4 = (ymm9 * ymm11) - ymm4 vfmadd231ps %ymm4, %ymm23, %ymm3 # ymm3 = (ymm23 * ymm4) + ymm3 vmulps %ymm13, %ymm12, %ymm16 vfmsub231ps %ymm15, %ymm7, %ymm16 # ymm16 = (ymm7 * ymm15) - ymm16 vmulps %ymm15, %ymm10, %ymm15 vfmsub231ps %ymm12, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm12) - ymm15 vmulps %ymm7, %ymm14, %ymm4 vfmsub231ps %ymm13, %ymm10, %ymm4 # ymm4 = (ymm10 * ymm13) - ymm4 vfmadd231ps %ymm16, %ymm23, %ymm4 # ymm4 = (ymm23 * ymm16) + ymm4 vfmadd231ps %ymm15, %ymm23, %ymm4 # ymm4 = (ymm23 * ymm15) + ymm4 vmaxps %ymm4, %ymm3, %ymm13 vcmpleps %ymm23, %ymm13, %k0 {%k1} kortestb %k0, %k0 vmovaps 0x200(%rsp), %ymm20 vmovaps 0x1e0(%rsp), %ymm21 vmovaps %ymm17, %ymm22 je 0x1cbcdc4 vmulps %ymm5, %ymm12, %ymm13 vfmsub231ps %ymm11, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm11) - ymm13 vmulps %ymm7, %ymm11, %ymm11 vfmsub231ps %ymm12, %ymm6, %ymm11 # ymm11 = (ymm6 * ymm12) - ymm11 vmulps %ymm6, %ymm10, %ymm10 vfmsub231ps %ymm5, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm5) - ymm10 vxorps %xmm6, %xmm6, %xmm6 vfmadd213ps %ymm10, %ymm11, %ymm6 # ymm6 = (ymm11 * ymm6) + ymm10 vfmadd231ps %ymm23, %ymm13, %ymm6 # ymm6 = (ymm13 * ymm23) + ymm6 vrcp14ps %ymm6, %ymm7 vmovaps %ymm7, %ymm5 vfnmadd213ps 0x230b01(%rip){1to8}, %ymm6, %ymm5 # ymm5 = -(ymm6 * ymm5) + mem vfmadd132ps %ymm7, %ymm7, %ymm5 # ymm5 = (ymm5 * ymm7) + ymm7 vmulps %ymm2, %ymm10, %ymm2 vfmadd231ps %ymm11, %ymm9, %ymm2 # ymm2 = (ymm9 * ymm11) + ymm2 vfmadd231ps %ymm13, %ymm8, %ymm2 # ymm2 = (ymm8 * ymm13) + ymm2 vmulps %ymm5, %ymm2, %ymm2 vmovaps 0x240(%rsp), %xmm10 vbroadcastss %xmm10, %ymm7 vcmpleps %ymm2, %ymm7, %k1 vcmpleps 0x20(%r15){1to8}, %ymm2, %k1 {%k1} kandb %k0, %k1, %k0 kortestb %k0, %k0 vmovaps 0x1c0(%rsp), %ymm28 vmovaps 0x1a0(%rsp), %ymm31 je 0x1cbcdfa vcmpneqps %ymm23, %ymm6, %k1 ktestb %k1, %k0 vmovaps 0x40(%rsp), %xmm9 je 0x1cbce17 kandb %k1, %k0, %k0 kmovd %k0, %eax vmulps %ymm5, %ymm3, %ymm3 vmulps %ymm5, %ymm4, %ymm4 vbroadcastss 0x230a7f(%rip), %ymm5 # 0x1eec714 vsubps %ymm3, %ymm5, %ymm6 vmovaps %ymm3, %ymm6 {%k2} vsubps %ymm4, %ymm5, %ymm3 vmovaps %ymm4, %ymm3 {%k2} vmovaps %ymm3, 0x420(%rsp) movzbl %al, %r14d vmovaps %ymm2, %ymm3 testw %r14w, %r14w je 0x1cbbf77 vsubps %ymm0, %ymm1, %ymm1 vfmadd213ps %ymm0, %ymm6, %ymm1 # ymm1 = (ymm6 * ymm1) + ymm0 vaddps %ymm1, %ymm1, %ymm0 vmulps (%r11){1to8}, %ymm0, %ymm0 vcmpnleps %ymm0, %ymm3, %k0 kmovd %k0, %eax andb %al, %r14b je 0x1cbbf77 vbroadcastss 0x234cd8(%rip), %ymm0 # 0x1ef09cc vmovaps 0x420(%rsp), %ymm1 vfmadd132ps 0x2352f1(%rip){1to8}, %ymm0, %ymm1 # ymm1 = (ymm1 * mem) + ymm0 vmovaps %ymm6, 0x2e0(%rsp) vmovaps %ymm1, 0x420(%rsp) vmovaps %ymm1, 0x300(%rsp) vmovaps %ymm3, 0x320(%rsp) movl $0x0, 0x340(%rsp) movl %r8d, 0x344(%rsp) vmovaps %xmm9, 0x350(%rsp) vmovaps 0xf0(%rsp), %xmm0 vmovaps %xmm0, 0x360(%rsp) vmovaps 0xe0(%rsp), %xmm0 vmovaps %xmm0, 0x370(%rsp) vmovaps 0x100(%rsp), %xmm0 vmovaps %xmm0, 0x380(%rsp) movb %r14b, 0x390(%rsp) movl 0x24(%r15), %eax testl %eax, 0x34(%rbx) je 0x1cbbf77 vaddps 0x2651a6(%rip), %ymm6, %ymm0 # 0x1f20f40 vmovss 0x230972(%rip), %xmm1 # 0x1eec714 vdivss 0x2c0(%rsp), %xmm1, %xmm1 vbroadcastss %xmm1, %ymm1 vmulps %ymm0, %ymm1, %ymm0 vmovaps %ymm0, 0x3a0(%rsp) vmovaps 0x420(%rsp), %ymm0 vmovaps %ymm0, 0x3c0(%rsp) vmovaps %ymm3, 0x3e0(%rsp) kmovd %r14d, %k1 vbroadcastss 0x22fc3a(%rip), %ymm0 # 0x1eeba20 vblendmps %ymm3, %ymm0, %ymm0 {%k1} vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm0, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1] vminps %ymm2, %ymm1, %ymm1 vcmpeqps %ymm1, %ymm0, %k0 kmovd %k0, %eax andb %r14b, %al movzbl %al, %eax movzbl %r14b, %ecx cmovnel %eax, %ecx tzcntl %ecx, %r10d movq 0x10(%rdx), %rax cmpq $0x0, 0x10(%rax) jne 0x1cbce2e cmpq $0x0, 0x40(%rbx) jne 0x1cbce2e vmovss 0x3a0(%rsp,%r10,4), %xmm0 vmovss 0x3c0(%rsp,%r10,4), %xmm1 vmovss 0x2308b9(%rip), %xmm2 # 0x1eec714 vsubss %xmm0, %xmm2, %xmm2 vmovaps %ymm3, %ymm29 vaddss %xmm2, %xmm2, %xmm3 vmulss %xmm3, %xmm0, %xmm4 vfnmadd231ss %xmm2, %xmm2, %xmm4 # xmm4 = -(xmm2 * xmm2) + xmm4 vmovaps %ymm6, %ymm30 vaddss %xmm0, %xmm0, %xmm5 vmovss 0x235168(%rip), %xmm8 # 0x1ef0fec vmovaps %xmm8, %xmm6 vfmadd213ss 0x235173(%rip), %xmm0, %xmm6 # xmm6 = (xmm0 * xmm6) + mem vmulss %xmm0, %xmm8, %xmm7 vmulss %xmm7, %xmm0, %xmm7 vfmadd231ss %xmm6, %xmm5, %xmm7 # xmm7 = (xmm5 * xmm6) + xmm7 vmovaps %xmm8, %xmm5 vfmadd213ss 0x23514d(%rip), %xmm0, %xmm5 # xmm5 = (xmm0 * xmm5) + mem vmulss 0x23513d(%rip), %xmm2, %xmm6 # 0x1ef0ff0 vmulss %xmm6, %xmm2, %xmm6 vfmadd231ss %xmm5, %xmm3, %xmm6 # xmm6 = (xmm3 * xmm5) + xmm6 vmulss 0x234b18(%rip), %xmm2, %xmm2 # 0x1ef09dc vmulss %xmm0, %xmm0, %xmm3 vfmadd231ss %xmm2, %xmm0, %xmm3 # xmm3 = (xmm0 * xmm2) + xmm3 vmovss 0x230cab(%rip), %xmm8 # 0x1eecb80 vmulss %xmm4, %xmm8, %xmm2 vmulss %xmm7, %xmm8, %xmm4 vmulss %xmm6, %xmm8, %xmm5 vmulss %xmm3, %xmm8, %xmm3 vbroadcastss %xmm3, %xmm3 vmulps 0x100(%rsp), %xmm3, %xmm3 vbroadcastss %xmm5, %xmm5 vfmadd132ps 0xe0(%rsp), %xmm3, %xmm5 # xmm5 = (xmm5 * mem) + xmm3 vbroadcastss %xmm4, %xmm3 vfmadd132ps 0xf0(%rsp), %xmm5, %xmm3 # xmm3 = (xmm3 * mem) + xmm5 vmovaps %ymm30, %ymm6 vbroadcastss %xmm2, %xmm2 vmovss 0x3e0(%rsp,%r10,4), %xmm4 vmovss %xmm4, 0x20(%r15) vfmadd213ps %xmm3, %xmm9, %xmm2 # xmm2 = (xmm9 * xmm2) + xmm3 vmovaps %ymm29, %ymm3 vmovlps %xmm2, 0x30(%r15) vextractps $0x2, %xmm2, 0x38(%r15) vmovss %xmm0, 0x3c(%r15) vmovss %xmm1, 0x40(%r15) movq 0x58(%rsp), %rax movl %eax, 0x44(%r15) movq 0x38(%rsp), %rax movl %eax, 0x48(%r15) movq 0x8(%rdx), %rax movl (%rax), %eax movl %eax, 0x4c(%r15) movq 0x8(%rdx), %rax movl 0x4(%rax), %eax movl %eax, 0x50(%r15) leaq 0x4743ee(%rip), %r14 # 0x213036c jmp 0x1cbbfbd vxorps %xmm23, %xmm23, %xmm23 vmovaps 0xc0(%rsp), %ymm6 vmovaps 0x200(%rsp), %ymm20 vmovaps 0x60(%rsp), %ymm3 vmovaps 0x1e0(%rsp), %ymm21 vmovaps 0x260(%rsp), %ymm22 vmovaps 0x160(%rsp), %ymm18 vmovaps 0x140(%rsp), %ymm19 cmpl $0x9, %r8d jge 0x1cbbfe6 vmovaps 0x5c0(%rsp), %ymm0 vcmpleps 0x20(%r15){1to8}, %ymm0, %k0 kmovb %k0, %eax andl %eax, %r13d jne 0x1cbb35e jmp 0x1cbd272 vpbroadcastd %r8d, %ymm0 vmovdqa %ymm0, 0x280(%rsp) vbroadcastss %xmm27, %ymm0 vmovaps %ymm0, 0x240(%rsp) vbroadcastss %xmm10, %ymm0 vmovaps %ymm0, 0x2a0(%rsp) vmovss 0x2306fa(%rip), %xmm0 # 0x1eec714 vdivss 0x2c0(%rsp), %xmm0, %xmm0 vbroadcastss %xmm0, %ymm0 vmovaps %ymm0, 0x2c0(%rsp) movl $0x8, %ebx vmovaps %ymm6, 0xc0(%rsp) vmovaps %ymm3, 0x60(%rsp) vpbroadcastd %ebx, %ymm0 vpor 0x29e8cd(%rip), %ymm0, %ymm0 # 0x1f5a920 vpcmpltd 0x280(%rsp), %ymm0, %k1 leaq (%r12,%r14), %rcx vmovups (%rcx,%rbx,4), %ymm3 vmovups 0x484(%rcx,%rbx,4), %ymm10 vmovups 0x908(%rcx,%rbx,4), %ymm11 vmovups 0xd8c(%rcx,%rbx,4), %ymm12 vmulps %ymm12, %ymm28, %ymm5 vmulps %ymm12, %ymm31, %ymm4 vmovaps 0x500(%rsp), %ymm1 vmulps %ymm1, %ymm12, %ymm0 vmovaps 0x560(%rsp), %ymm26 vfmadd231ps %ymm26, %ymm11, %ymm5 # ymm5 = (ymm11 * ymm26) + ymm5 vmovaps 0x540(%rsp), %ymm27 vfmadd231ps %ymm27, %ymm11, %ymm4 # ymm4 = (ymm11 * ymm27) + ymm4 vmovaps 0x520(%rsp), %ymm16 vfmadd231ps %ymm16, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm16) + ymm0 vfmadd231ps %ymm19, %ymm10, %ymm5 # ymm5 = (ymm10 * ymm19) + ymm5 vmovaps 0x460(%rsp), %ymm25 vfmadd231ps %ymm25, %ymm10, %ymm4 # ymm4 = (ymm10 * ymm25) + ymm4 vmovaps 0x580(%rsp), %ymm9 vfmadd231ps %ymm9, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm9) + ymm0 vfmadd231ps %ymm22, %ymm3, %ymm5 # ymm5 = (ymm3 * ymm22) + ymm5 vfmadd231ps %ymm18, %ymm3, %ymm4 # ymm4 = (ymm3 * ymm18) + ymm4 leaq (%r12,%rdi), %rax vmovups (%rax,%rbx,4), %ymm2 vmovups 0x484(%rax,%rbx,4), %ymm13 vmovaps 0x5a0(%rsp), %ymm8 vfmadd231ps %ymm8, %ymm3, %ymm0 # ymm0 = (ymm3 * ymm8) + ymm0 vmovups 0x908(%rax,%rbx,4), %ymm14 vmovups 0xd8c(%rax,%rbx,4), %ymm15 vmulps %ymm15, %ymm28, %ymm7 vmulps %ymm15, %ymm31, %ymm6 vmulps %ymm1, %ymm15, %ymm1 vfmadd231ps %ymm26, %ymm14, %ymm7 # ymm7 = (ymm14 * ymm26) + ymm7 vfmadd231ps %ymm27, %ymm14, %ymm6 # ymm6 = (ymm14 * ymm27) + ymm6 vfmadd231ps %ymm16, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm16) + ymm1 vfmadd231ps %ymm19, %ymm13, %ymm7 # ymm7 = (ymm13 * ymm19) + ymm7 vfmadd231ps %ymm25, %ymm13, %ymm6 # ymm6 = (ymm13 * ymm25) + ymm6 vfmadd231ps %ymm9, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm9) + ymm1 vfmadd231ps %ymm22, %ymm2, %ymm7 # ymm7 = (ymm2 * ymm22) + ymm7 vfmadd231ps %ymm18, %ymm2, %ymm6 # ymm6 = (ymm2 * ymm18) + ymm6 vfmadd231ps %ymm8, %ymm2, %ymm1 # ymm1 = (ymm2 * ymm8) + ymm1 vmaxps %ymm1, %ymm0, %ymm16 vsubps %ymm5, %ymm7, %ymm9 vsubps %ymm4, %ymm6, %ymm8 vmovaps %ymm19, %ymm24 vmulps %ymm9, %ymm4, %ymm17 vmovaps %ymm18, %ymm19 vmulps %ymm8, %ymm5, %ymm18 vsubps %ymm18, %ymm17, %ymm17 vmulps %ymm8, %ymm8, %ymm18 vfmadd231ps %ymm9, %ymm9, %ymm18 # ymm18 = (ymm9 * ymm9) + ymm18 vmulps %ymm16, %ymm16, %ymm16 vmulps %ymm18, %ymm16, %ymm16 vmulps %ymm17, %ymm17, %ymm17 vcmpleps %ymm16, %ymm17, %k1 {%k1} kortestb %k1, %k1 je 0x1cbc91e vmovaps %ymm25, %ymm16 vmovaps %ymm27, %ymm25 vmovaps %ymm26, %ymm27 vmovaps 0x480(%rsp), %ymm26 vmulps %ymm15, %ymm26, %ymm15 vmovaps 0x4a0(%rsp), %ymm30 vfmadd213ps %ymm15, %ymm30, %ymm14 # ymm14 = (ymm30 * ymm14) + ymm15 vmovaps 0x4c0(%rsp), %ymm29 vfmadd213ps %ymm14, %ymm29, %ymm13 # ymm13 = (ymm29 * ymm13) + ymm14 vmovaps 0x4e0(%rsp), %ymm18 vfmadd213ps %ymm13, %ymm18, %ymm2 # ymm2 = (ymm18 * ymm2) + ymm13 vmulps %ymm12, %ymm26, %ymm12 vfmadd213ps %ymm12, %ymm30, %ymm11 # ymm11 = (ymm30 * ymm11) + ymm12 vfmadd213ps %ymm11, %ymm29, %ymm10 # ymm10 = (ymm29 * ymm10) + ymm11 vfmadd213ps %ymm10, %ymm18, %ymm3 # ymm3 = (ymm18 * ymm3) + ymm10 vmovups 0x1210(%rcx,%rbx,4), %ymm12 vmovups 0x1694(%rcx,%rbx,4), %ymm13 vmovups 0x1b18(%rcx,%rbx,4), %ymm14 vmovups 0x1f9c(%rcx,%rbx,4), %ymm15 vmulps %ymm15, %ymm28, %ymm11 vmulps %ymm15, %ymm31, %ymm10 vmulps %ymm15, %ymm26, %ymm15 vfmadd231ps %ymm27, %ymm14, %ymm11 # ymm11 = (ymm14 * ymm27) + ymm11 vfmadd231ps %ymm25, %ymm14, %ymm10 # ymm10 = (ymm14 * ymm25) + ymm10 vfmadd231ps %ymm14, %ymm30, %ymm15 # ymm15 = (ymm30 * ymm14) + ymm15 vfmadd231ps %ymm24, %ymm13, %ymm11 # ymm11 = (ymm13 * ymm24) + ymm11 vfmadd231ps %ymm16, %ymm13, %ymm10 # ymm10 = (ymm13 * ymm16) + ymm10 vfmadd231ps %ymm13, %ymm29, %ymm15 # ymm15 = (ymm29 * ymm13) + ymm15 vfmadd231ps %ymm22, %ymm12, %ymm11 # ymm11 = (ymm12 * ymm22) + ymm11 vfmadd231ps %ymm19, %ymm12, %ymm10 # ymm10 = (ymm12 * ymm19) + ymm10 vfmadd231ps %ymm12, %ymm18, %ymm15 # ymm15 = (ymm18 * ymm12) + ymm15 vmovups 0x1210(%rax,%rbx,4), %ymm13 vmovups 0x1b18(%rax,%rbx,4), %ymm14 vmovups 0x1f9c(%rax,%rbx,4), %ymm16 vmulps %ymm16, %ymm28, %ymm17 vmulps %ymm16, %ymm31, %ymm12 vmulps %ymm16, %ymm26, %ymm16 vfmadd231ps %ymm27, %ymm14, %ymm17 # ymm17 = (ymm14 * ymm27) + ymm17 vfmadd231ps %ymm25, %ymm14, %ymm12 # ymm12 = (ymm14 * ymm25) + ymm12 vfmadd231ps %ymm14, %ymm30, %ymm16 # ymm16 = (ymm30 * ymm14) + ymm16 vmovups 0x1694(%rax,%rbx,4), %ymm14 vfmadd231ps %ymm24, %ymm14, %ymm17 # ymm17 = (ymm14 * ymm24) + ymm17 vfmadd231ps 0x460(%rsp), %ymm14, %ymm12 # ymm12 = (ymm14 * mem) + ymm12 vfmadd231ps %ymm14, %ymm29, %ymm16 # ymm16 = (ymm29 * ymm14) + ymm16 vfmadd231ps %ymm22, %ymm13, %ymm17 # ymm17 = (ymm13 * ymm22) + ymm17 vfmadd231ps %ymm19, %ymm13, %ymm12 # ymm12 = (ymm13 * ymm19) + ymm12 vfmadd231ps %ymm13, %ymm18, %ymm16 # ymm16 = (ymm18 * ymm13) + ymm16 vbroadcastss 0x264bb8(%rip), %ymm18 # 0x1f20ec4 vandps %ymm18, %ymm11, %ymm13 vandps %ymm18, %ymm10, %ymm14 vmaxps %ymm14, %ymm13, %ymm13 vandps %ymm18, %ymm15, %ymm14 vmaxps %ymm14, %ymm13, %ymm13 vmovaps 0x240(%rsp), %ymm15 vcmpltps %ymm15, %ymm13, %k2 vmovaps %ymm9, %ymm11 {%k2} vmovaps %ymm8, %ymm10 {%k2} vandps %ymm18, %ymm17, %ymm13 vandps %ymm18, %ymm12, %ymm14 vmaxps %ymm14, %ymm13, %ymm13 vandps %ymm18, %ymm16, %ymm14 vmaxps %ymm14, %ymm13, %ymm13 vcmpltps %ymm15, %ymm13, %k2 vmovaps %ymm9, %ymm17 {%k2} vmovaps %ymm8, %ymm12 {%k2} vbroadcastss 0x264b44(%rip), %ymm9 # 0x1f20ec0 vxorps %ymm9, %ymm11, %ymm8 vxorps %ymm9, %ymm17, %ymm9 vfmadd213ps %ymm23, %ymm11, %ymm11 # ymm11 = (ymm11 * ymm11) + ymm23 vfmadd231ps %ymm10, %ymm10, %ymm11 # ymm11 = (ymm10 * ymm10) + ymm11 vrsqrt14ps %ymm11, %ymm13 vbroadcastss 0x23037b(%rip), %ymm15 # 0x1eec71c vmulps %ymm15, %ymm11, %ymm11 vmulps %ymm11, %ymm13, %ymm11 vmulps %ymm13, %ymm13, %ymm14 vmulps %ymm11, %ymm14, %ymm14 vbroadcastss 0x230359(%rip), %ymm16 # 0x1eec718 vfmadd231ps %ymm13, %ymm16, %ymm14 # ymm14 = (ymm16 * ymm13) + ymm14 vmulps %ymm14, %ymm10, %ymm11 vmulps %ymm8, %ymm14, %ymm10 vmulps %ymm23, %ymm14, %ymm13 vfmadd213ps %ymm23, %ymm17, %ymm17 # ymm17 = (ymm17 * ymm17) + ymm23 vfmadd231ps %ymm12, %ymm12, %ymm17 # ymm17 = (ymm12 * ymm12) + ymm17 vrsqrt14ps %ymm17, %ymm8 vmulps %ymm15, %ymm17, %ymm14 vmulps %ymm14, %ymm8, %ymm14 vmulps %ymm8, %ymm8, %ymm15 vmulps %ymm14, %ymm15, %ymm14 vfmadd231ps %ymm8, %ymm16, %ymm14 # ymm14 = (ymm16 * ymm8) + ymm14 vmulps %ymm14, %ymm12, %ymm8 vmulps %ymm9, %ymm14, %ymm9 vmulps %ymm23, %ymm14, %ymm12 vmovaps %ymm11, %ymm14 vfmadd213ps %ymm5, %ymm0, %ymm14 # ymm14 = (ymm0 * ymm14) + ymm5 vmovaps %ymm10, %ymm15 vfmadd213ps %ymm4, %ymm0, %ymm15 # ymm15 = (ymm0 * ymm15) + ymm4 vmovaps %ymm13, %ymm16 vfmadd213ps %ymm3, %ymm0, %ymm16 # ymm16 = (ymm0 * ymm16) + ymm3 vmovaps %ymm8, %ymm17 vfmadd213ps %ymm7, %ymm1, %ymm17 # ymm17 = (ymm1 * ymm17) + ymm7 vfnmadd213ps %ymm5, %ymm0, %ymm11 # ymm11 = -(ymm0 * ymm11) + ymm5 vmovaps %ymm9, %ymm5 vfmadd213ps %ymm6, %ymm1, %ymm5 # ymm5 = (ymm1 * ymm5) + ymm6 vfnmadd213ps %ymm4, %ymm0, %ymm10 # ymm10 = -(ymm0 * ymm10) + ymm4 vmovaps %ymm12, %ymm4 vfmadd213ps %ymm2, %ymm1, %ymm4 # ymm4 = (ymm1 * ymm4) + ymm2 vfnmadd231ps %ymm13, %ymm0, %ymm3 # ymm3 = -(ymm0 * ymm13) + ymm3 vfnmadd213ps %ymm7, %ymm1, %ymm8 # ymm8 = -(ymm1 * ymm8) + ymm7 vfnmadd213ps %ymm6, %ymm1, %ymm9 # ymm9 = -(ymm1 * ymm9) + ymm6 vfnmadd231ps %ymm12, %ymm1, %ymm2 # ymm2 = -(ymm1 * ymm12) + ymm2 vsubps %ymm11, %ymm17, %ymm6 vsubps %ymm10, %ymm5, %ymm7 vsubps %ymm3, %ymm4, %ymm12 vmulps %ymm3, %ymm7, %ymm13 vfmsub231ps %ymm12, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm12) - ymm13 vmulps %ymm11, %ymm12, %ymm12 vfmsub231ps %ymm6, %ymm3, %ymm12 # ymm12 = (ymm3 * ymm6) - ymm12 vmulps %ymm6, %ymm10, %ymm6 vfmsub231ps %ymm7, %ymm11, %ymm6 # ymm6 = (ymm11 * ymm7) - ymm6 vfmadd231ps %ymm12, %ymm23, %ymm6 # ymm6 = (ymm23 * ymm12) + ymm6 vfmadd231ps %ymm13, %ymm23, %ymm6 # ymm6 = (ymm23 * ymm13) + ymm6 vcmpleps %ymm23, %ymm6, %k2 vmovaps %ymm14, %ymm8 {%k2} vmovaps %ymm15, %ymm9 {%k2} vmovaps %ymm16, %ymm2 {%k2} vblendmps %ymm17, %ymm11, %ymm13 {%k2} vblendmps %ymm5, %ymm10, %ymm14 {%k2} vblendmps %ymm4, %ymm3, %ymm15 {%k2} vmovaps %ymm11, %ymm17 {%k2} vmovaps %ymm10, %ymm5 {%k2} vmovaps %ymm3, %ymm4 {%k2} vsubps %ymm8, %ymm17, %ymm6 vsubps %ymm9, %ymm5, %ymm5 vsubps %ymm2, %ymm4, %ymm11 vsubps %ymm13, %ymm8, %ymm7 vsubps %ymm14, %ymm9, %ymm10 vsubps %ymm15, %ymm2, %ymm12 vmulps %ymm8, %ymm11, %ymm4 vfmsub231ps %ymm6, %ymm2, %ymm4 # ymm4 = (ymm2 * ymm6) - ymm4 vmulps %ymm6, %ymm9, %ymm3 vfmsub231ps %ymm5, %ymm8, %ymm3 # ymm3 = (ymm8 * ymm5) - ymm3 vfmadd231ps %ymm4, %ymm23, %ymm3 # ymm3 = (ymm23 * ymm4) + ymm3 vmulps %ymm2, %ymm5, %ymm4 vfmsub231ps %ymm11, %ymm9, %ymm4 # ymm4 = (ymm9 * ymm11) - ymm4 vfmadd231ps %ymm4, %ymm23, %ymm3 # ymm3 = (ymm23 * ymm4) + ymm3 vmulps %ymm13, %ymm12, %ymm16 vfmsub231ps %ymm15, %ymm7, %ymm16 # ymm16 = (ymm7 * ymm15) - ymm16 vmulps %ymm15, %ymm10, %ymm15 vfmsub231ps %ymm12, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm12) - ymm15 vmulps %ymm7, %ymm14, %ymm4 vfmsub231ps %ymm13, %ymm10, %ymm4 # ymm4 = (ymm10 * ymm13) - ymm4 vfmadd231ps %ymm16, %ymm23, %ymm4 # ymm4 = (ymm23 * ymm16) + ymm4 vfmadd231ps %ymm15, %ymm23, %ymm4 # ymm4 = (ymm23 * ymm15) + ymm4 vmaxps %ymm4, %ymm3, %ymm13 vcmpleps %ymm23, %ymm13, %k0 {%k1} kortestb %k0, %k0 je 0x1cbc94b vmulps %ymm5, %ymm12, %ymm13 vfmsub231ps %ymm11, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm11) - ymm13 vmulps %ymm7, %ymm11, %ymm11 vfmsub231ps %ymm12, %ymm6, %ymm11 # ymm11 = (ymm6 * ymm12) - ymm11 vmulps %ymm6, %ymm10, %ymm10 vfmsub231ps %ymm5, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm5) - ymm10 vxorps %xmm6, %xmm6, %xmm6 vfmadd213ps %ymm10, %ymm11, %ymm6 # ymm6 = (ymm11 * ymm6) + ymm10 vfmadd231ps %ymm23, %ymm13, %ymm6 # ymm6 = (ymm13 * ymm23) + ymm6 vrcp14ps %ymm6, %ymm7 vmovaps %ymm7, %ymm5 vfnmadd213ps 0x23016e(%rip){1to8}, %ymm6, %ymm5 # ymm5 = -(ymm6 * ymm5) + mem vfmadd132ps %ymm7, %ymm7, %ymm5 # ymm5 = (ymm5 * ymm7) + ymm7 vmulps %ymm2, %ymm10, %ymm2 vfmadd231ps %ymm11, %ymm9, %ymm2 # ymm2 = (ymm9 * ymm11) + ymm2 vfmadd231ps %ymm13, %ymm8, %ymm2 # ymm2 = (ymm8 * ymm13) + ymm2 vmulps %ymm5, %ymm2, %ymm2 vcmpgeps 0x2a0(%rsp), %ymm2, %k1 vcmpleps 0x20(%r15){1to8}, %ymm2, %k1 {%k1} kandb %k0, %k1, %k0 kortestb %k0, %k0 je 0x1cbc94b vcmpneqps %ymm23, %ymm6, %k1 ktestb %k1, %k0 vmovaps 0x40(%rsp), %xmm9 vmovaps 0x160(%rsp), %ymm18 vmovaps 0x140(%rsp), %ymm19 je 0x1cbc978 kandb %k1, %k0, %k0 kmovd %k0, %eax vmulps %ymm5, %ymm3, %ymm3 vmulps %ymm5, %ymm4, %ymm4 vbroadcastss 0x2300f8(%rip), %ymm5 # 0x1eec714 vsubps %ymm3, %ymm5, %ymm20 vmovaps %ymm3, %ymm20 {%k2} vsubps %ymm4, %ymm5, %ymm3 vmovaps %ymm4, %ymm3 {%k2} vmovaps %ymm3, 0x400(%rsp) movzbl %al, %r10d vmovaps %ymm2, %ymm21 vmovaps 0xc0(%rsp), %ymm6 vmovaps 0x60(%rsp), %ymm3 testw %r10w, %r10w je 0x1cbc939 vsubps %ymm0, %ymm1, %ymm1 vfmadd213ps %ymm0, %ymm20, %ymm1 # ymm1 = (ymm20 * ymm1) + ymm0 vaddps %ymm1, %ymm1, %ymm0 vmulps (%r11){1to8}, %ymm0, %ymm0 vcmpnleps %ymm0, %ymm21, %k0 kmovd %k0, %eax andb %al, %r10b je 0x1cbc939 vbroadcastss 0x23433d(%rip), %ymm0 # 0x1ef09cc vmovaps 0x400(%rsp), %ymm1 vfmadd132ps 0x234956(%rip){1to8}, %ymm0, %ymm1 # ymm1 = (ymm1 * mem) + ymm0 vmovaps %ymm20, 0x2e0(%rsp) vmovaps %ymm1, 0x400(%rsp) vmovaps %ymm1, 0x300(%rsp) vmovaps %ymm21, 0x320(%rsp) movl %ebx, 0x340(%rsp) movl %r8d, 0x344(%rsp) vmovaps %xmm9, 0x350(%rsp) vmovaps 0xf0(%rsp), %xmm0 vmovaps %xmm0, 0x360(%rsp) vmovaps 0xe0(%rsp), %xmm0 vmovaps %xmm0, 0x370(%rsp) vmovaps 0x100(%rsp), %xmm0 vmovaps %xmm0, 0x380(%rsp) movb %r10b, 0x390(%rsp) movq (%rdx), %rax movq 0x1e8(%rax), %rax movq 0x38(%rsp), %rcx movq (%rax,%rcx,8), %rsi movl 0x24(%r15), %eax testl %eax, 0x34(%rsi) je 0x1cbc915 vaddps 0x2647fc(%rip), %ymm20, %ymm0 # 0x1f20f40 vcvtsi2ss %ebx, %xmm22, %xmm1 vbroadcastss %xmm1, %ymm1 vaddps %ymm0, %ymm1, %ymm0 vmulps 0x2c0(%rsp), %ymm0, %ymm0 vmovaps %ymm0, 0x3a0(%rsp) vmovaps 0x400(%rsp), %ymm0 vmovaps %ymm0, 0x3c0(%rsp) vmovaps %ymm21, 0x3e0(%rsp) kmovd %r10d, %k1 vbroadcastss 0x22f293(%rip), %ymm0 # 0x1eeba20 vblendmps %ymm21, %ymm0, %ymm0 {%k1} vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm0, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1] vminps %ymm2, %ymm1, %ymm1 vcmpeqps %ymm1, %ymm0, %k0 kmovd %k0, %eax andb %r10b, %al movzbl %al, %eax movzbl %r10b, %ecx cmovnel %eax, %ecx tzcntl %ecx, %r14d movq 0x10(%rdx), %rax cmpq $0x0, 0x10(%rax) jne 0x1cbc980 cmpq $0x0, 0x40(%rsi) jne 0x1cbc980 vmovss 0x3a0(%rsp,%r14,4), %xmm0 vmovss 0x3c0(%rsp,%r14,4), %xmm1 vmovss 0x22ff12(%rip), %xmm2 # 0x1eec714 vsubss %xmm0, %xmm2, %xmm2 vaddss %xmm2, %xmm2, %xmm3 vmulss %xmm3, %xmm0, %xmm4 vfnmadd231ss %xmm2, %xmm2, %xmm4 # xmm4 = -(xmm2 * xmm2) + xmm4 vaddss %xmm0, %xmm0, %xmm5 vmovss 0x2347cd(%rip), %xmm8 # 0x1ef0fec vmovaps %xmm8, %xmm6 vfmadd213ss 0x2347d8(%rip), %xmm0, %xmm6 # xmm6 = (xmm0 * xmm6) + mem vmulss %xmm0, %xmm8, %xmm7 vmulss %xmm7, %xmm0, %xmm7 vfmadd231ss %xmm6, %xmm5, %xmm7 # xmm7 = (xmm5 * xmm6) + xmm7 vmovaps %xmm8, %xmm5 vfmadd213ss 0x2347b2(%rip), %xmm0, %xmm5 # xmm5 = (xmm0 * xmm5) + mem vmulss 0x2347a2(%rip), %xmm2, %xmm6 # 0x1ef0ff0 vmulss %xmm6, %xmm2, %xmm6 vfmadd231ss %xmm5, %xmm3, %xmm6 # xmm6 = (xmm3 * xmm5) + xmm6 vmulss 0x23417d(%rip), %xmm2, %xmm2 # 0x1ef09dc vmulss %xmm0, %xmm0, %xmm3 vfmadd231ss %xmm2, %xmm0, %xmm3 # xmm3 = (xmm0 * xmm2) + xmm3 vmovss 0x230310(%rip), %xmm8 # 0x1eecb80 vmulss %xmm4, %xmm8, %xmm2 vmulss %xmm7, %xmm8, %xmm4 vmulss %xmm6, %xmm8, %xmm5 vmulss %xmm3, %xmm8, %xmm3 vbroadcastss %xmm3, %xmm3 vmulps 0x100(%rsp), %xmm3, %xmm3 vbroadcastss %xmm5, %xmm5 vfmadd132ps 0xe0(%rsp), %xmm3, %xmm5 # xmm5 = (xmm5 * mem) + xmm3 vbroadcastss %xmm4, %xmm3 vfmadd132ps 0xf0(%rsp), %xmm5, %xmm3 # xmm3 = (xmm3 * mem) + xmm5 vbroadcastss %xmm2, %xmm2 vmovss 0x3e0(%rsp,%r14,4), %xmm4 vmovss %xmm4, 0x20(%r15) vfmadd213ps %xmm3, %xmm9, %xmm2 # xmm2 = (xmm9 * xmm2) + xmm3 vmovlps %xmm2, 0x30(%r15) vextractps $0x2, %xmm2, 0x38(%r15) vmovss %xmm0, 0x3c(%r15) vmovss %xmm1, 0x40(%r15) movq 0x58(%rsp), %rax movl %eax, 0x44(%r15) movq 0x38(%rsp), %rax movl %eax, 0x48(%r15) movq 0x8(%rdx), %rax movl (%rax), %eax movl %eax, 0x4c(%r15) movq 0x8(%rdx), %rax movl 0x4(%rax), %eax movl %eax, 0x50(%r15) vmovaps 0xc0(%rsp), %ymm6 vmovaps 0x60(%rsp), %ymm3 leaq 0x473a50(%rip), %r14 # 0x213036c jmp 0x1cbc939 vmovaps 0xc0(%rsp), %ymm6 vmovaps 0x60(%rsp), %ymm3 vmovaps %ymm19, %ymm18 vmovaps %ymm24, %ymm19 addq $0x8, %rbx cmpl %ebx, %r8d jg 0x1cbc045 jmp 0x1cbbfc3 xorl %r10d, %r10d vmovaps 0xc0(%rsp), %ymm6 vmovaps 0x60(%rsp), %ymm3 vmovaps 0x40(%rsp), %xmm9 vmovaps 0x160(%rsp), %ymm18 vmovaps 0x140(%rsp), %ymm19 jmp 0x1cbc654 xorl %r10d, %r10d jmp 0x1cbc645 vmovaps 0x360(%rsp), %xmm0 vmovaps %xmm0, 0x220(%rsp) vmovaps 0x370(%rsp), %xmm0 vmovaps %xmm0, 0x450(%rsp) vmovaps 0x380(%rsp), %xmm0 vmovaps %xmm0, 0x440(%rsp) vmovaps %ymm20, 0x200(%rsp) vmovaps %ymm21, 0x1e0(%rsp) movq %r9, 0x30(%rsp) movq %rdx, 0x28(%rsp) movq %r11, 0x20(%rsp) movl %r8d, 0x14(%rsp) vmovaps %ymm28, 0x1c0(%rsp) vmovaps %ymm31, 0x1a0(%rsp) movq %rsi, 0x190(%rsp) vmovss 0x3a0(%rsp,%r14,4), %xmm0 vmovss 0x3c0(%rsp,%r14,4), %xmm1 vmovss 0x20(%r15), %xmm2 vmovss %xmm2, 0x230(%rsp) vmovss 0x3e0(%rsp,%r14,4), %xmm2 vmovss %xmm2, 0x20(%r15) movq 0x8(%rdx), %rax vmovss 0x22fce3(%rip), %xmm2 # 0x1eec714 vsubss %xmm0, %xmm2, %xmm2 vaddss %xmm2, %xmm2, %xmm3 vmulss %xmm3, %xmm0, %xmm4 vfnmadd231ss %xmm2, %xmm2, %xmm4 # xmm4 = -(xmm2 * xmm2) + xmm4 vaddss %xmm0, %xmm0, %xmm5 vmovss 0x23459e(%rip), %xmm8 # 0x1ef0fec vmovaps %xmm8, %xmm6 vfmadd213ss 0x2345a9(%rip), %xmm0, %xmm6 # xmm6 = (xmm0 * xmm6) + mem vmulss %xmm0, %xmm8, %xmm7 vmulss %xmm7, %xmm0, %xmm7 vfmadd231ss %xmm6, %xmm5, %xmm7 # xmm7 = (xmm5 * xmm6) + xmm7 vmovaps %xmm8, %xmm5 vfmadd213ss 0x234583(%rip), %xmm0, %xmm5 # xmm5 = (xmm0 * xmm5) + mem vmulss 0x234573(%rip), %xmm2, %xmm6 # 0x1ef0ff0 vmulss %xmm6, %xmm2, %xmm6 vfmadd231ss %xmm5, %xmm3, %xmm6 # xmm6 = (xmm3 * xmm5) + xmm6 vmulss 0x233f4e(%rip), %xmm2, %xmm2 # 0x1ef09dc vmulss %xmm0, %xmm0, %xmm3 vfmadd231ss %xmm2, %xmm0, %xmm3 # xmm3 = (xmm0 * xmm2) + xmm3 vmovss 0x2300e1(%rip), %xmm8 # 0x1eecb80 vmulss %xmm4, %xmm8, %xmm2 vmulss %xmm7, %xmm8, %xmm4 vmulss %xmm6, %xmm8, %xmm5 vmulss %xmm3, %xmm8, %xmm3 vbroadcastss %xmm3, %xmm3 vmulps 0x440(%rsp), %xmm3, %xmm3 vbroadcastss %xmm5, %xmm5 vfmadd132ps 0x450(%rsp), %xmm3, %xmm5 # xmm5 = (xmm5 * mem) + xmm3 vbroadcastss %xmm4, %xmm3 vfmadd132ps 0x220(%rsp), %xmm5, %xmm3 # xmm3 = (xmm3 * mem) + xmm5 vbroadcastss %xmm2, %xmm2 vfmadd213ps %xmm3, %xmm9, %xmm2 # xmm2 = (xmm9 * xmm2) + xmm3 vmovlps %xmm2, 0x110(%rsp) vextractps $0x2, %xmm2, 0x118(%rsp) vmovss %xmm0, 0x11c(%rsp) vmovss %xmm1, 0x120(%rsp) movq 0x58(%rsp), %rcx movl %ecx, 0x124(%rsp) movq 0x38(%rsp), %rcx movl %ecx, 0x128(%rsp) movl (%rax), %ecx movl %ecx, 0x12c(%rsp) movl 0x4(%rax), %ecx movl %ecx, 0x130(%rsp) movl $0xffffffff, 0x1c(%rsp) # imm = 0xFFFFFFFF leaq 0x1c(%rsp), %rcx movq %rcx, 0x90(%rsp) movq 0x18(%rsi), %rcx movq %rcx, 0x98(%rsp) movq %rax, 0xa0(%rsp) movq %r15, 0xa8(%rsp) leaq 0x110(%rsp), %rax movq %rax, 0xb0(%rsp) movl $0x1, 0xb8(%rsp) movq 0x40(%rsi), %rax testq %rax, %rax movl %r10d, 0x18(%rsp) je 0x1cbcc16 leaq 0x90(%rsp), %rdi vzeroupper callq *%rax movl 0x18(%rsp), %r10d vmovaps 0x1a0(%rsp), %ymm31 vmovaps 0x1c0(%rsp), %ymm28 vmovaps 0x140(%rsp), %ymm19 vmovaps 0x160(%rsp), %ymm18 vmovaps 0x260(%rsp), %ymm22 movl 0x14(%rsp), %r8d vmovaps 0x40(%rsp), %xmm9 vmovaps 0x1e0(%rsp), %ymm21 vmovaps 0x200(%rsp), %ymm20 vxorps %xmm23, %xmm23, %xmm23 leaq 0x475b96(%rip), %rdi # 0x213278c movq 0x20(%rsp), %r11 movq 0x28(%rsp), %rdx movq 0x30(%rsp), %r9 movq 0x90(%rsp), %rax cmpl $0x0, (%rax) je 0x1cbcd13 movq 0x10(%rdx), %rcx movq 0x10(%rcx), %rax testq %rax, %rax je 0x1cbccb8 testb $0x2, (%rcx) jne 0x1cbcc3a movq 0x190(%rsp), %rcx testb $0x40, 0x3e(%rcx) je 0x1cbccab leaq 0x90(%rsp), %rdi vzeroupper callq *%rax movl 0x18(%rsp), %r10d vmovaps 0x1a0(%rsp), %ymm31 vmovaps 0x1c0(%rsp), %ymm28 vmovaps 0x140(%rsp), %ymm19 vmovaps 0x160(%rsp), %ymm18 vmovaps 0x260(%rsp), %ymm22 movl 0x14(%rsp), %r8d vmovaps 0x40(%rsp), %xmm9 vmovaps 0x1e0(%rsp), %ymm21 vmovaps 0x200(%rsp), %ymm20 vxorps %xmm23, %xmm23, %xmm23 leaq 0x475af0(%rip), %rdi # 0x213278c movq 0x20(%rsp), %r11 movq 0x28(%rsp), %rdx movq 0x30(%rsp), %r9 movq 0x90(%rsp), %rax cmpl $0x0, (%rax) je 0x1cbcd13 movq 0xa8(%rsp), %rax movq 0xb0(%rsp), %rcx vmovss (%rcx), %xmm0 vmovss %xmm0, 0x30(%rax) vmovss 0x4(%rcx), %xmm0 vmovss %xmm0, 0x34(%rax) vmovss 0x8(%rcx), %xmm0 vmovss %xmm0, 0x38(%rax) vmovss 0xc(%rcx), %xmm0 vmovss %xmm0, 0x3c(%rax) vmovss 0x10(%rcx), %xmm0 vmovss %xmm0, 0x40(%rax) movl 0x14(%rcx), %esi movl %esi, 0x44(%rax) movl 0x18(%rcx), %esi movl %esi, 0x48(%rax) movl 0x1c(%rcx), %esi movl %esi, 0x4c(%rax) movl 0x20(%rcx), %ecx movl %ecx, 0x50(%rax) jmp 0x1cbcd22 vmovss 0x230(%rsp), %xmm0 vmovss %xmm0, 0x20(%r15) movl $0x1, %eax shlxl %r14d, %eax, %eax kmovd %eax, %k0 movzbl %r10b, %eax kmovd %eax, %k1 kandnb %k1, %k0, %k0 vcmpleps 0x20(%r15){1to8}, %ymm21, %k1 kandb %k1, %k0, %k2 kmovd %k2, %r10d ktestb %k1, %k0 vmovaps 0xc0(%rsp), %ymm6 vmovaps 0x60(%rsp), %ymm3 je 0x1cbcdae kmovd %r10d, %k1 vbroadcastss 0x22ecb1(%rip), %ymm0 # 0x1eeba20 vblendmps %ymm21, %ymm0, %ymm0 {%k1} vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm0, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1] vminps %ymm2, %ymm1, %ymm1 vcmpeqps %ymm1, %ymm0, %k0 kmovd %k0, %eax andb %r10b, %al movzbl %al, %eax movzbl %r10b, %ecx cmovnel %eax, %ecx tzcntl %ecx, %r14d testb %r10b, %r10b movq 0x190(%rsp), %rsi jne 0x1cbc9f2 jmp 0x1cbc915 xorl %r14d, %r14d vmovaps 0xc0(%rsp), %ymm6 vmovaps 0x60(%rsp), %ymm3 vmovaps 0x40(%rsp), %xmm9 vmovaps 0x1c0(%rsp), %ymm28 vmovaps 0x1a0(%rsp), %ymm31 vmovaps 0x240(%rsp), %xmm10 jmp 0x1cbbcba xorl %r14d, %r14d vmovaps 0xc0(%rsp), %ymm6 vmovaps 0x60(%rsp), %ymm3 vmovaps 0x40(%rsp), %xmm9 jmp 0x1cbbcba xorl %r14d, %r14d vmovaps 0xc0(%rsp), %ymm6 vmovaps 0x60(%rsp), %ymm3 jmp 0x1cbbcba vmovaps 0x360(%rsp), %xmm0 vmovaps %xmm0, 0x230(%rsp) vmovaps 0x370(%rsp), %xmm0 vmovaps %xmm0, 0x190(%rsp) vmovaps 0x380(%rsp), %xmm0 vmovaps %xmm0, 0x220(%rsp) movq %r9, 0x30(%rsp) movq %rdx, 0x28(%rsp) movq %r11, 0x20(%rsp) vmovaps %ymm6, 0xc0(%rsp) vmovaps %ymm3, 0x60(%rsp) movl %r8d, 0x14(%rsp) vmovss 0x3a0(%rsp,%r10,4), %xmm0 vmovss 0x3c0(%rsp,%r10,4), %xmm1 vmovss 0x20(%r15), %xmm2 vmovss %xmm2, 0x18(%rsp) vmovss 0x3e0(%rsp,%r10,4), %xmm2 vmovss %xmm2, 0x20(%r15) movq 0x8(%rdx), %rax vmovss 0x22f851(%rip), %xmm2 # 0x1eec714 vsubss %xmm0, %xmm2, %xmm2 vaddss %xmm2, %xmm2, %xmm3 vmulss %xmm3, %xmm0, %xmm4 vfnmadd231ss %xmm2, %xmm2, %xmm4 # xmm4 = -(xmm2 * xmm2) + xmm4 vaddss %xmm0, %xmm0, %xmm5 vmovss 0x23410c(%rip), %xmm8 # 0x1ef0fec vmovaps %xmm8, %xmm6 vfmadd213ss 0x234117(%rip), %xmm0, %xmm6 # xmm6 = (xmm0 * xmm6) + mem vmulss %xmm0, %xmm8, %xmm7 vmulss %xmm7, %xmm0, %xmm7 vfmadd231ss %xmm6, %xmm5, %xmm7 # xmm7 = (xmm5 * xmm6) + xmm7 vmovaps %xmm8, %xmm5 vfmadd213ss 0x2340f1(%rip), %xmm0, %xmm5 # xmm5 = (xmm0 * xmm5) + mem vmulss 0x2340e1(%rip), %xmm2, %xmm6 # 0x1ef0ff0 vmulss %xmm6, %xmm2, %xmm6 vfmadd231ss %xmm5, %xmm3, %xmm6 # xmm6 = (xmm3 * xmm5) + xmm6 vmulss 0x233abc(%rip), %xmm2, %xmm2 # 0x1ef09dc vmulss %xmm0, %xmm0, %xmm3 vfmadd231ss %xmm2, %xmm0, %xmm3 # xmm3 = (xmm0 * xmm2) + xmm3 vmovss 0x22fc4f(%rip), %xmm8 # 0x1eecb80 vmulss %xmm4, %xmm8, %xmm2 vmulss %xmm7, %xmm8, %xmm4 vmulss %xmm6, %xmm8, %xmm5 vmulss %xmm3, %xmm8, %xmm3 vbroadcastss %xmm3, %xmm3 vmulps 0x220(%rsp), %xmm3, %xmm3 vbroadcastss %xmm5, %xmm5 vfmadd132ps 0x190(%rsp), %xmm3, %xmm5 # xmm5 = (xmm5 * mem) + xmm3 vbroadcastss %xmm4, %xmm3 vfmadd132ps 0x230(%rsp), %xmm5, %xmm3 # xmm3 = (xmm3 * mem) + xmm5 vbroadcastss %xmm2, %xmm2 vfmadd213ps %xmm3, %xmm9, %xmm2 # xmm2 = (xmm9 * xmm2) + xmm3 vmovlps %xmm2, 0x110(%rsp) vextractps $0x2, %xmm2, 0x118(%rsp) vmovss %xmm0, 0x11c(%rsp) vmovss %xmm1, 0x120(%rsp) movq 0x58(%rsp), %rcx movl %ecx, 0x124(%rsp) movq 0x38(%rsp), %rcx movl %ecx, 0x128(%rsp) movl (%rax), %ecx movl %ecx, 0x12c(%rsp) movl 0x4(%rax), %ecx movl %ecx, 0x130(%rsp) movl $0xffffffff, 0x1c(%rsp) # imm = 0xFFFFFFFF leaq 0x1c(%rsp), %rcx movq %rcx, 0x90(%rsp) movq 0x18(%rbx), %rcx movq %rcx, 0x98(%rsp) movq %rax, 0xa0(%rsp) movq %r15, 0xa8(%rsp) leaq 0x110(%rsp), %rax movq %rax, 0xb0(%rsp) movl $0x1, 0xb8(%rsp) movq 0x40(%rbx), %rax testq %rax, %rax movq %r10, 0x2a0(%rsp) je 0x1cbd0bf leaq 0x90(%rsp), %rdi vzeroupper callq *%rax movq 0x2a0(%rsp), %r10 vmovaps 0x240(%rsp), %xmm10 vmovaps 0x280(%rsp), %xmm27 vmovaps 0x1a0(%rsp), %ymm31 vmovaps 0x1c0(%rsp), %ymm28 vmovaps 0x140(%rsp), %ymm19 vmovaps 0x160(%rsp), %ymm18 vmovaps 0x260(%rsp), %ymm22 movl 0x14(%rsp), %r8d vmovaps 0x40(%rsp), %xmm9 vmovaps 0x1e0(%rsp), %ymm21 vmovaps 0x200(%rsp), %ymm20 vxorps %xmm23, %xmm23, %xmm23 leaq 0x4756ed(%rip), %rdi # 0x213278c movq 0x20(%rsp), %r11 movq 0x28(%rsp), %rdx movq 0x30(%rsp), %r9 movq 0x90(%rsp), %rax cmpl $0x0, (%rax) je 0x1cbd1cc movq 0x10(%rdx), %rcx movq 0x10(%rcx), %rax testq %rax, %rax je 0x1cbd171 testb $0x2, (%rcx) jne 0x1cbd0df testb $0x40, 0x3e(%rbx) je 0x1cbd164 leaq 0x90(%rsp), %rdi vzeroupper callq *%rax movq 0x2a0(%rsp), %r10 vmovaps 0x240(%rsp), %xmm10 vmovaps 0x280(%rsp), %xmm27 vmovaps 0x1a0(%rsp), %ymm31 vmovaps 0x1c0(%rsp), %ymm28 vmovaps 0x140(%rsp), %ymm19 vmovaps 0x160(%rsp), %ymm18 vmovaps 0x260(%rsp), %ymm22 movl 0x14(%rsp), %r8d vmovaps 0x40(%rsp), %xmm9 vmovaps 0x1e0(%rsp), %ymm21 vmovaps 0x200(%rsp), %ymm20 vxorps %xmm23, %xmm23, %xmm23 leaq 0x475637(%rip), %rdi # 0x213278c movq 0x20(%rsp), %r11 movq 0x28(%rsp), %rdx movq 0x30(%rsp), %r9 movq 0x90(%rsp), %rax cmpl $0x0, (%rax) je 0x1cbd1cc movq 0xa8(%rsp), %rax movq 0xb0(%rsp), %rcx vmovss (%rcx), %xmm0 vmovss %xmm0, 0x30(%rax) vmovss 0x4(%rcx), %xmm0 vmovss %xmm0, 0x34(%rax) vmovss 0x8(%rcx), %xmm0 vmovss %xmm0, 0x38(%rax) vmovss 0xc(%rcx), %xmm0 vmovss %xmm0, 0x3c(%rax) vmovss 0x10(%rcx), %xmm0 vmovss %xmm0, 0x40(%rax) movl 0x14(%rcx), %esi movl %esi, 0x44(%rax) movl 0x18(%rcx), %esi movl %esi, 0x48(%rax) movl 0x1c(%rcx), %esi movl %esi, 0x4c(%rax) movl 0x20(%rcx), %ecx movl %ecx, 0x50(%rax) jmp 0x1cbd1d8 vmovss 0x18(%rsp), %xmm0 vmovss %xmm0, 0x20(%r15) vmovaps 0x60(%rsp), %ymm3 movl $0x1, %eax shlxl %r10d, %eax, %eax kmovd %eax, %k0 movzbl %r14b, %eax kmovd %eax, %k1 kandnb %k1, %k0, %k0 vcmpleps 0x20(%r15){1to8}, %ymm3, %k1 kandb %k1, %k0, %k2 kmovd %k2, %r14d ktestb %k1, %k0 vmovaps 0xc0(%rsp), %ymm6 je 0x1cbd264 kmovd %r14d, %k1 vbroadcastss 0x22e7fb(%rip), %ymm0 # 0x1eeba20 vblendmps %ymm3, %ymm0, %ymm0 {%k1} vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm0, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1] vminps %ymm2, %ymm1, %ymm1 vcmpeqps %ymm1, %ymm0, %k0 kmovd %k0, %eax andb %r14b, %al movzbl %al, %eax movzbl %r14b, %ecx cmovnel %eax, %ecx tzcntl %ecx, %r10d testb %r14b, %r14b jne 0x1cbce87 jmp 0x1cbbf77 leaq -0x28(%rbp), %rsp popq %rbx popq %r12 popq %r13 popq %r14 popq %r15 popq %rbp vzeroupper retq
/embree[P]embree/kernels/geometry/curveNi_intersector.h
bool embree::avx512::CurveNiIntersector1<8>::occluded_t<embree::avx512::RibbonCurve1Intersector1<embree::CatmullRomCurveT, 8>, embree::avx512::Occluded1EpilogMU<8, true>>(embree::avx512::CurvePrecalculations1 const&, embree::RayK<1>&, embree::RayQueryContext*, embree::CurveNi<8> const&)
static __forceinline bool occluded_t(const Precalculations& pre, Ray& ray, RayQueryContext* context, const Primitive& prim) { vfloat<M> tNear; vbool<M> valid = intersect(ray,prim,tNear); const size_t N = prim.N; size_t mask = movemask(valid); while (mask) { const size_t i = bscf(mask); STAT3(shadow.trav_prims,1,1,1); const unsigned int geomID = prim.geomID(N); const unsigned int primID = prim.primID(N)[i]; const CurveGeometry* geom = context->scene->get<CurveGeometry>(geomID); Vec3ff a0,a1,a2,a3; geom->gather(a0,a1,a2,a3,geom->curve(primID)); size_t mask1 = mask; const size_t i1 = bscf(mask1); if (mask) { const unsigned int primID1 = prim.primID(N)[i1]; geom->prefetchL1_vertices(geom->curve(primID1)); if (mask1) { const size_t i2 = bsf(mask1); const unsigned int primID2 = prim.primID(N)[i2]; geom->prefetchL2_vertices(geom->curve(primID2)); } } if (Intersector().intersect(pre,ray,context,geom,primID,a0,a1,a2,a3,Epilog(ray,context,geomID,primID))) return true; mask &= movemask(tNear <= vfloat<M>(ray.tfar)); } return false; }
pushq %rbp movq %rsp, %rbp pushq %r15 pushq %r14 pushq %r13 pushq %r12 pushq %rbx andq $-0x20, %rsp subq $0x620, %rsp # imm = 0x620 movq %rcx, %rbx movq %rdi, %r11 movzbl 0x1(%rcx), %eax leaq (%rax,%rax,4), %rcx leaq (%rcx,%rcx,4), %rdi vbroadcastss 0x12(%rbx,%rdi), %xmm0 vmovaps (%rsi), %xmm1 vsubps 0x6(%rbx,%rdi), %xmm1, %xmm1 vmulps 0x10(%rsi), %xmm0, %xmm2 vmulps %xmm1, %xmm0, %xmm3 vpmovsxbd 0x6(%rbx,%rax,4), %ymm0 vcvtdq2ps %ymm0, %ymm5 vpmovsxbd 0x6(%rbx,%rcx), %ymm0 vcvtdq2ps %ymm0, %ymm6 leaq (%rax,%rax,2), %r8 vpmovsxbd 0x6(%rbx,%r8,2), %ymm0 vcvtdq2ps %ymm0, %ymm7 leaq (%rax,%rcx,2), %rdi vpmovsxbd 0x6(%rbx,%rdi), %ymm0 vcvtdq2ps %ymm0, %ymm8 leal (,%r8,4), %edi vpmovsxbd 0x6(%rbx,%rdi), %ymm0 vcvtdq2ps %ymm0, %ymm9 addq %rax, %rdi vpmovsxbd 0x6(%rbx,%rdi), %ymm0 vcvtdq2ps %ymm0, %ymm10 leaq (%rax,%rax,8), %r9 leal (%r9,%r9), %edi vpmovsxbd 0x6(%rbx,%rdi), %ymm0 addq %rax, %rdi vpmovsxbd 0x6(%rbx,%rdi), %ymm1 vcvtdq2ps %ymm0, %ymm11 vcvtdq2ps %ymm1, %ymm12 shll $0x2, %ecx vpmovsxbd 0x6(%rbx,%rcx), %ymm0 vcvtdq2ps %ymm0, %ymm13 vbroadcastss %xmm2, %ymm14 vbroadcastss 0x2553a9(%rip), %ymm16 # 0x1f12704 vpermps %ymm2, %ymm16, %ymm15 vbroadcastss 0x263b71(%rip), %ymm17 # 0x1f20edc vpermps %ymm2, %ymm17, %ymm0 vmulps %ymm7, %ymm0, %ymm4 vmulps %ymm0, %ymm10, %ymm1 vmulps %ymm0, %ymm13, %ymm0 vfmadd231ps %ymm6, %ymm15, %ymm4 # ymm4 = (ymm15 * ymm6) + ymm4 vfmadd231ps %ymm9, %ymm15, %ymm1 # ymm1 = (ymm15 * ymm9) + ymm1 vfmadd231ps %ymm15, %ymm12, %ymm0 # ymm0 = (ymm12 * ymm15) + ymm0 vfmadd231ps %ymm5, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm5) + ymm4 vfmadd231ps %ymm8, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm8) + ymm1 vfmadd231ps %ymm14, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm14) + ymm0 vbroadcastss %xmm3, %ymm14 vpermps %ymm3, %ymm16, %ymm15 vpermps %ymm3, %ymm17, %ymm2 vmulps %ymm7, %ymm2, %ymm7 vmulps %ymm2, %ymm10, %ymm3 vmulps %ymm2, %ymm13, %ymm2 vfmadd231ps %ymm6, %ymm15, %ymm7 # ymm7 = (ymm15 * ymm6) + ymm7 vfmadd231ps %ymm9, %ymm15, %ymm3 # ymm3 = (ymm15 * ymm9) + ymm3 vfmadd231ps %ymm12, %ymm15, %ymm2 # ymm2 = (ymm15 * ymm12) + ymm2 vfmadd231ps %ymm5, %ymm14, %ymm7 # ymm7 = (ymm14 * ymm5) + ymm7 vfmadd231ps %ymm8, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm8) + ymm3 vfmadd231ps %ymm11, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm11) + ymm2 vbroadcastss 0x263ae5(%rip), %ymm8 # 0x1f20ec4 vandps %ymm4, %ymm8, %ymm5 vbroadcastss 0x233bfc(%rip), %ymm6 # 0x1ef0fe8 vcmpltps %ymm6, %ymm5, %k1 vmovaps %ymm6, %ymm4 {%k1} vandps %ymm1, %ymm8, %ymm5 vcmpltps %ymm6, %ymm5, %k1 vmovaps %ymm6, %ymm1 {%k1} vandps %ymm0, %ymm8, %ymm5 vcmpltps %ymm6, %ymm5, %k1 vmovaps %ymm6, %ymm0 {%k1} vrcp14ps %ymm4, %ymm5 vbroadcastss 0x22f2ea(%rip), %ymm6 # 0x1eec714 vfnmadd213ps %ymm6, %ymm5, %ymm4 # ymm4 = -(ymm5 * ymm4) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm4 # ymm4 = (ymm4 * ymm5) + ymm5 vrcp14ps %ymm1, %ymm5 vfnmadd213ps %ymm6, %ymm5, %ymm1 # ymm1 = -(ymm5 * ymm1) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm1 # ymm1 = (ymm1 * ymm5) + ymm5 vrcp14ps %ymm0, %ymm5 vfnmadd213ps %ymm6, %ymm5, %ymm0 # ymm0 = -(ymm5 * ymm0) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm0 # ymm0 = (ymm0 * ymm5) + ymm5 leaq (,%rax,8), %rdi subq %rax, %rdi vpmovsxwd 0x6(%rbx,%rdi), %ymm5 vcvtdq2ps %ymm5, %ymm5 vsubps %ymm7, %ymm5, %ymm5 vpmovsxwd 0x6(%rbx,%r9), %ymm6 vmulps %ymm5, %ymm4, %ymm5 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm7, %ymm6, %ymm6 vmulps %ymm6, %ymm4, %ymm4 leaq (%rax,%rax), %r9 addq %rax, %rcx shlq $0x3, %r8 subq %rax, %r8 movl %eax, %edi shll $0x4, %edi vpmovsxwd 0x6(%rbx,%rdi), %ymm6 subq %r9, %rdi vpmovsxwd 0x6(%rbx,%rdi), %ymm7 vcvtdq2ps %ymm7, %ymm7 vsubps %ymm3, %ymm7, %ymm7 vmulps %ymm7, %ymm1, %ymm7 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm3, %ymm6, %ymm3 vmulps %ymm3, %ymm1, %ymm1 vpmovsxwd 0x6(%rbx,%rcx), %ymm3 vcvtdq2ps %ymm3, %ymm3 vsubps %ymm2, %ymm3, %ymm3 vmulps %ymm0, %ymm3, %ymm3 vpmovsxwd 0x6(%rbx,%r8), %ymm6 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm2, %ymm6, %ymm2 vmulps %ymm2, %ymm0, %ymm0 vpminsd %ymm4, %ymm5, %ymm2 vpminsd %ymm1, %ymm7, %ymm6 vmaxps %ymm6, %ymm2, %ymm2 vpminsd %ymm0, %ymm3, %ymm6 vmaxps 0xc(%rsi){1to8}, %ymm6, %ymm6 vmaxps %ymm6, %ymm2, %ymm2 vmulps 0x262a01(%rip){1to8}, %ymm2, %ymm6 # 0x1f1ff10 vpmaxsd %ymm4, %ymm5, %ymm2 vpmaxsd %ymm1, %ymm7, %ymm1 vminps %ymm1, %ymm2, %ymm1 vpmaxsd %ymm0, %ymm3, %ymm0 vminps 0x20(%rsi){1to8}, %ymm0, %ymm0 vminps %ymm0, %ymm1, %ymm0 vmulps 0x2629dd(%rip){1to8}, %ymm0, %ymm0 # 0x1f1ff14 vpbroadcastd %eax, %ymm1 vpcmpgtd 0x29d3d9(%rip), %ymm1, %k0 # 0x1f5a920 vmovaps %ymm6, 0x5e0(%rsp) vcmpleps %ymm0, %ymm6, %k1 ktestb %k0, %k1 setne 0x17(%rsp) je 0x1cbefc2 kandb %k0, %k1, %k0 kmovd %k0, %eax movzbl %al, %r14d vmovaps %ymm6, 0x80(%rsp) vmovaps %ymm2, 0x60(%rsp) vmovaps %ymm21, 0x1c0(%rsp) vmovaps %ymm20, 0x1e0(%rsp) tzcntq %r14, %rax movl 0x2(%rbx), %ecx movl 0x6(%rbx,%rax,4), %r8d movq (%rdx), %rax movq 0x1e8(%rax), %rax movq %rcx, 0x58(%rsp) movq (%rax,%rcx,8), %r15 movq 0x58(%r15), %rax movq 0x68(%r15), %rcx movq %rcx, %rdi movq %r8, 0x108(%rsp) imulq %r8, %rdi movl (%rax,%rdi), %edi movq 0xa0(%r15), %r9 movq %r9, %r8 imulq %rdi, %r8 movq 0x90(%r15), %r10 vmovaps (%r10,%r8), %xmm13 leaq 0x1(%rdi), %r8 imulq %r9, %r8 vmovaps (%r10,%r8), %xmm0 vmovaps %xmm0, 0x150(%rsp) leaq 0x2(%rdi), %r8 imulq %r9, %r8 vmovaps (%r10,%r8), %xmm0 vmovaps %xmm0, 0x140(%rsp) blsrq %r14, %r14 addq $0x3, %rdi imulq %r9, %rdi vmovaps (%r10,%rdi), %xmm0 vmovaps %xmm0, 0x190(%rsp) movq %r14, %rdi subq $0x1, %rdi jb 0x1cbd681 andq %r14, %rdi tzcntq %r14, %r8 movl 0x6(%rbx,%r8,4), %r8d imulq %rcx, %r8 movl (%rax,%r8), %r8d imulq %r9, %r8 prefetcht0 (%r10,%r8) prefetcht0 0x40(%r10,%r8) testq %rdi, %rdi je 0x1cbd681 tzcntq %rdi, %rdi movl 0x6(%rbx,%rdi,4), %edi imulq %rdi, %rcx movl (%rax,%rcx), %eax imulq %rax, %r9 prefetcht1 (%r10,%r9) prefetcht1 0x40(%r10,%r9) movl 0x248(%r15), %r12d vmovaps (%rsi), %xmm0 vsubps %xmm0, %xmm13, %xmm1 vbroadcastss %xmm1, %xmm2 vshufps $0x55, %xmm1, %xmm1, %xmm3 # xmm3 = xmm1[1,1,1,1] vshufps $0xaa, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,2,2,2] vmovaps 0x10(%r11), %xmm4 vmovaps 0x20(%r11), %xmm5 vmovaps 0x30(%r11), %xmm6 vmulps %xmm6, %xmm1, %xmm8 vfmadd231ps %xmm3, %xmm5, %xmm8 # xmm8 = (xmm5 * xmm3) + xmm8 vfmadd231ps %xmm2, %xmm4, %xmm8 # xmm8 = (xmm4 * xmm2) + xmm8 vshufps $0xff, %xmm13, %xmm13, %xmm1 # xmm1 = xmm13[3,3,3,3] vmovaps 0x150(%rsp), %xmm3 vsubps %xmm0, %xmm3, %xmm2 vmovaps %xmm3, %xmm10 vbroadcastss %xmm2, %xmm3 vshufps $0x55, %xmm2, %xmm2, %xmm7 # xmm7 = xmm2[1,1,1,1] vshufps $0xaa, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[2,2,2,2] vmulps %xmm6, %xmm2, %xmm9 vfmadd231ps %xmm7, %xmm5, %xmm9 # xmm9 = (xmm5 * xmm7) + xmm9 vfmadd231ps %xmm3, %xmm4, %xmm9 # xmm9 = (xmm4 * xmm3) + xmm9 vshufps $0xff, %xmm10, %xmm10, %xmm2 # xmm2 = xmm10[3,3,3,3] vmovaps 0x140(%rsp), %xmm7 vsubps %xmm0, %xmm7, %xmm3 vmovaps %xmm7, %xmm12 vbroadcastss %xmm3, %xmm7 vshufps $0x55, %xmm3, %xmm3, %xmm11 # xmm11 = xmm3[1,1,1,1] vshufps $0xaa, %xmm3, %xmm3, %xmm3 # xmm3 = xmm3[2,2,2,2] vmulps %xmm6, %xmm3, %xmm10 vfmadd231ps %xmm11, %xmm5, %xmm10 # xmm10 = (xmm5 * xmm11) + xmm10 vfmadd231ps %xmm7, %xmm4, %xmm10 # xmm10 = (xmm4 * xmm7) + xmm10 vshufps $0xff, %xmm12, %xmm12, %xmm7 # xmm7 = xmm12[3,3,3,3] vmovaps 0x190(%rsp), %xmm30 vsubps %xmm0, %xmm30, %xmm0 vbroadcastss %xmm0, %xmm3 vshufps $0x55, %xmm0, %xmm0, %xmm12 # xmm12 = xmm0[1,1,1,1] vshufps $0xaa, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[2,2,2,2] vmulps %xmm6, %xmm0, %xmm11 vfmadd231ps %xmm12, %xmm5, %xmm11 # xmm11 = (xmm5 * xmm12) + xmm11 vfmadd231ps %xmm3, %xmm4, %xmm11 # xmm11 = (xmm4 * xmm3) + xmm11 movslq %r12d, %rax movq %rax, %rcx shlq $0x6, %rcx leaq (%rcx,%rax,4), %r13 leaq 0x472bff(%rip), %rdi # 0x213036c vmovups (%rdi,%r13), %ymm25 vshufps $0xff, %xmm30, %xmm30, %xmm0 # xmm0 = xmm30[3,3,3,3] vbroadcastss %xmm8, %ymm20 vbroadcastss 0x254f7a(%rip), %ymm3 # 0x1f12704 vpermps %ymm8, %ymm3, %ymm23 vbroadcastsd %xmm1, %ymm12 vmovups 0x484(%rdi,%r13), %ymm14 vbroadcastss %xmm9, %ymm1 vpermps %ymm9, %ymm3, %ymm31 vbroadcastsd %xmm2, %ymm21 vmovups 0x908(%rdi,%r13), %ymm15 vbroadcastss %xmm10, %ymm26 vpermps %ymm10, %ymm3, %ymm29 vbroadcastsd %xmm7, %ymm22 vmovups 0xd8c(%rdi,%r13), %ymm16 vbroadcastss %xmm11, %ymm27 vpermps %ymm11, %ymm3, %ymm28 vbroadcastsd %xmm0, %ymm3 vmulps %ymm16, %ymm27, %ymm5 vmulps %ymm16, %ymm28, %ymm4 vfmadd231ps %ymm26, %ymm15, %ymm5 # ymm5 = (ymm15 * ymm26) + ymm5 vfmadd231ps %ymm29, %ymm15, %ymm4 # ymm4 = (ymm15 * ymm29) + ymm4 vfmadd231ps %ymm1, %ymm14, %ymm5 # ymm5 = (ymm14 * ymm1) + ymm5 vfmadd231ps %ymm31, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm31) + ymm4 vfmadd231ps %ymm20, %ymm25, %ymm5 # ymm5 = (ymm25 * ymm20) + ymm5 leaq 0x474f74(%rip), %r8 # 0x213278c vmovups (%r8,%r13), %ymm2 vmovups 0x484(%r8,%r13), %ymm17 vfmadd231ps %ymm23, %ymm25, %ymm4 # ymm4 = (ymm25 * ymm23) + ymm4 vmovups 0x908(%r8,%r13), %ymm18 vmovups 0xd8c(%r8,%r13), %ymm19 vmulps %ymm19, %ymm27, %ymm7 vmulps %ymm19, %ymm28, %ymm6 vfmadd231ps %ymm26, %ymm18, %ymm7 # ymm7 = (ymm18 * ymm26) + ymm7 vfmadd231ps %ymm29, %ymm18, %ymm6 # ymm6 = (ymm18 * ymm29) + ymm6 vmovaps %ymm1, 0x160(%rsp) vfmadd231ps %ymm1, %ymm17, %ymm7 # ymm7 = (ymm17 * ymm1) + ymm7 vfmadd231ps %ymm31, %ymm17, %ymm6 # ymm6 = (ymm17 * ymm31) + ymm6 vmovaps %ymm20, 0x240(%rsp) vfmadd231ps %ymm20, %ymm2, %ymm7 # ymm7 = (ymm2 * ymm20) + ymm7 vmovaps %ymm23, 0x220(%rsp) vfmadd231ps %ymm23, %ymm2, %ymm6 # ymm6 = (ymm2 * ymm23) + ymm6 vsubps %ymm5, %ymm7, %ymm24 vsubps %ymm4, %ymm6, %ymm23 vmulps %ymm24, %ymm4, %ymm0 vmulps %ymm23, %ymm5, %ymm1 vsubps %ymm1, %ymm0, %ymm20 vmulps %ymm16, %ymm3, %ymm0 vfmadd231ps %ymm22, %ymm15, %ymm0 # ymm0 = (ymm15 * ymm22) + ymm0 vfmadd231ps %ymm21, %ymm14, %ymm0 # ymm0 = (ymm14 * ymm21) + ymm0 vfmadd231ps %ymm12, %ymm25, %ymm0 # ymm0 = (ymm25 * ymm12) + ymm0 vmovaps %ymm3, 0x4c0(%rsp) vmulps %ymm19, %ymm3, %ymm1 vmovaps %ymm22, 0x520(%rsp) vfmadd231ps %ymm22, %ymm18, %ymm1 # ymm1 = (ymm18 * ymm22) + ymm1 vmovaps %ymm21, 0x580(%rsp) vfmadd231ps %ymm21, %ymm17, %ymm1 # ymm1 = (ymm17 * ymm21) + ymm1 vmovaps %ymm12, 0x5c0(%rsp) vfmadd231ps %ymm12, %ymm2, %ymm1 # ymm1 = (ymm2 * ymm12) + ymm1 vmulps %ymm23, %ymm23, %ymm21 vfmadd231ps %ymm24, %ymm24, %ymm21 # ymm21 = (ymm24 * ymm24) + ymm21 vmaxps %ymm1, %ymm0, %ymm22 vmulps %ymm22, %ymm22, %ymm22 vmulps %ymm21, %ymm22, %ymm21 vmulps %ymm20, %ymm20, %ymm20 vcmpleps %ymm21, %ymm20, %k1 vmovaps %xmm13, 0x30(%rsp) vblendps $0x8, %xmm13, %xmm8, %xmm12 # xmm12 = xmm8[0,1,2],xmm13[3] vbroadcastss 0x263586(%rip), %xmm20 # 0x1f20ec4 vandps %xmm20, %xmm12, %xmm12 vblendps $0x8, 0x150(%rsp), %xmm9, %xmm13 # xmm13 = xmm9[0,1,2],mem[3] vandps %xmm20, %xmm13, %xmm13 vmaxps %xmm13, %xmm12, %xmm12 vblendps $0x8, 0x140(%rsp), %xmm10, %xmm13 # xmm13 = xmm10[0,1,2],mem[3] vandps %xmm20, %xmm13, %xmm13 vmovaps %xmm30, %xmm3 vblendps $0x8, %xmm3, %xmm11, %xmm3 # xmm3 = xmm11[0,1,2],xmm3[3] vandps %xmm20, %xmm3, %xmm3 vmaxps %xmm3, %xmm13, %xmm3 vmaxps %xmm3, %xmm12, %xmm3 vmovshdup %xmm3, %xmm12 # xmm12 = xmm3[1,1,3,3] vmaxss %xmm3, %xmm12, %xmm12 vshufpd $0x1, %xmm3, %xmm3, %xmm3 # xmm3 = xmm3[1,0] vmaxss %xmm12, %xmm3, %xmm3 vcvtsi2ss %r12d, %xmm8, %xmm12 vmovaps %xmm12, 0x280(%rsp) vbroadcastss %xmm12, %ymm12 vcmpgtps 0x26358b(%rip), %ymm12, %k1 {%k1} # 0x1f20f40 vmulss 0x233627(%rip), %xmm3, %xmm12 # 0x1ef0fe4 vbroadcastss 0x263516(%rip), %ymm3 # 0x1f20edc vpermps %ymm8, %ymm3, %ymm20 vpermps %ymm9, %ymm3, %ymm21 vpermps %ymm10, %ymm3, %ymm22 vpermps %ymm11, %ymm3, %ymm8 kortestb %k1, %k1 vmovss 0xc(%rsi), %xmm10 vmovaps %ymm31, 0x5a0(%rsp) vmovaps %ymm26, 0x560(%rsp) vmovaps %ymm29, 0x540(%rsp) vmovaps %ymm27, 0x500(%rsp) vmovaps %ymm28, 0x4e0(%rsp) vmovaps %ymm20, 0x4a0(%rsp) vmovaps %ymm21, 0x480(%rsp) vmovaps %ymm22, 0x460(%rsp) je 0x1cbe390 vmovaps %xmm10, 0x1a0(%rsp) vmulps %ymm19, %ymm8, %ymm3 vfmadd213ps %ymm3, %ymm22, %ymm18 # ymm18 = (ymm22 * ymm18) + ymm3 vfmadd213ps %ymm18, %ymm21, %ymm17 # ymm17 = (ymm21 * ymm17) + ymm18 vfmadd213ps %ymm17, %ymm20, %ymm2 # ymm2 = (ymm20 * ymm2) + ymm17 vmulps %ymm16, %ymm8, %ymm3 vfmadd213ps %ymm3, %ymm22, %ymm15 # ymm15 = (ymm22 * ymm15) + ymm3 vfmadd213ps %ymm15, %ymm21, %ymm14 # ymm14 = (ymm21 * ymm14) + ymm15 vmovups 0x1210(%rdi,%r13), %ymm3 vmovups 0x1694(%rdi,%r13), %ymm10 vmovups 0x1b18(%rdi,%r13), %ymm11 vmovaps %xmm12, %xmm16 vmovups 0x1f9c(%rdi,%r13), %ymm12 vfmadd213ps %ymm14, %ymm20, %ymm25 # ymm25 = (ymm20 * ymm25) + ymm14 vmovaps %ymm8, %ymm15 vmulps %ymm12, %ymm27, %ymm9 vmulps %ymm12, %ymm28, %ymm8 vmulps %ymm12, %ymm15, %ymm12 vfmadd231ps %ymm26, %ymm11, %ymm9 # ymm9 = (ymm11 * ymm26) + ymm9 vfmadd231ps %ymm29, %ymm11, %ymm8 # ymm8 = (ymm11 * ymm29) + ymm8 vfmadd231ps %ymm11, %ymm22, %ymm12 # ymm12 = (ymm22 * ymm11) + ymm12 vmovaps 0x160(%rsp), %ymm19 vfmadd231ps %ymm19, %ymm10, %ymm9 # ymm9 = (ymm10 * ymm19) + ymm9 vfmadd231ps %ymm31, %ymm10, %ymm8 # ymm8 = (ymm10 * ymm31) + ymm8 vfmadd231ps %ymm10, %ymm21, %ymm12 # ymm12 = (ymm21 * ymm10) + ymm12 vmovaps 0x240(%rsp), %ymm17 vfmadd231ps %ymm17, %ymm3, %ymm9 # ymm9 = (ymm3 * ymm17) + ymm9 vmovaps 0x220(%rsp), %ymm18 vfmadd231ps %ymm18, %ymm3, %ymm8 # ymm8 = (ymm3 * ymm18) + ymm8 vmovups 0x1210(%r8,%r13), %ymm10 vmovups 0x1b18(%r8,%r13), %ymm11 vmovups 0x1f9c(%r8,%r13), %ymm13 vfmadd231ps %ymm3, %ymm20, %ymm12 # ymm12 = (ymm20 * ymm3) + ymm12 vmulps %ymm13, %ymm27, %ymm3 vmulps %ymm13, %ymm28, %ymm14 vmovaps %ymm15, 0x200(%rsp) vmulps %ymm13, %ymm15, %ymm13 vfmadd231ps %ymm26, %ymm11, %ymm3 # ymm3 = (ymm11 * ymm26) + ymm3 vfmadd231ps %ymm29, %ymm11, %ymm14 # ymm14 = (ymm11 * ymm29) + ymm14 vfmadd231ps %ymm11, %ymm22, %ymm13 # ymm13 = (ymm22 * ymm11) + ymm13 vmovups 0x1694(%r8,%r13), %ymm11 vfmadd231ps %ymm19, %ymm11, %ymm3 # ymm3 = (ymm11 * ymm19) + ymm3 vfmadd231ps %ymm31, %ymm11, %ymm14 # ymm14 = (ymm11 * ymm31) + ymm14 vfmadd231ps %ymm11, %ymm21, %ymm13 # ymm13 = (ymm21 * ymm11) + ymm13 vfmadd231ps %ymm17, %ymm10, %ymm3 # ymm3 = (ymm10 * ymm17) + ymm3 vfmadd231ps %ymm18, %ymm10, %ymm14 # ymm14 = (ymm10 * ymm18) + ymm14 vfmadd231ps %ymm10, %ymm20, %ymm13 # ymm13 = (ymm20 * ymm10) + ymm13 vbroadcastss 0x26334c(%rip), %ymm15 # 0x1f20ec4 vandps %ymm15, %ymm9, %ymm10 vandps %ymm15, %ymm8, %ymm11 vmaxps %ymm11, %ymm10, %ymm10 vandps %ymm15, %ymm12, %ymm11 vmaxps %ymm11, %ymm10, %ymm10 vbroadcastss %xmm16, %ymm11 vmovaps %xmm16, %xmm26 vcmpltps %ymm11, %ymm10, %k2 vmovaps %ymm24, %ymm9 {%k2} vmovaps %ymm23, %ymm8 {%k2} vandps %ymm3, %ymm15, %ymm10 vandps %ymm15, %ymm14, %ymm12 vmaxps %ymm12, %ymm10, %ymm10 vandps %ymm15, %ymm13, %ymm12 vmaxps %ymm12, %ymm10, %ymm10 vcmpltps %ymm11, %ymm10, %k2 vmovaps %ymm24, %ymm3 {%k2} vmovaps %ymm23, %ymm14 {%k2} vbroadcastss 0x2632dc(%rip), %ymm11 # 0x1f20ec0 vxorps %ymm11, %ymm9, %ymm10 vxorps %ymm3, %ymm11, %ymm12 vxorps %xmm28, %xmm28, %xmm28 vfmadd213ps %ymm28, %ymm9, %ymm9 # ymm9 = (ymm9 * ymm9) + ymm28 vfmadd231ps %ymm8, %ymm8, %ymm9 # ymm9 = (ymm8 * ymm8) + ymm9 vrsqrt14ps %ymm9, %ymm11 vbroadcastss 0x22eb0f(%rip), %ymm15 # 0x1eec71c vmulps %ymm15, %ymm9, %ymm9 vmulps %ymm9, %ymm11, %ymm9 vmulps %ymm11, %ymm11, %ymm13 vmulps %ymm9, %ymm13, %ymm9 vbroadcastss 0x22eaed(%rip), %ymm16 # 0x1eec718 vfmadd231ps %ymm11, %ymm16, %ymm9 # ymm9 = (ymm16 * ymm11) + ymm9 vmulps %ymm9, %ymm8, %ymm11 vmulps %ymm10, %ymm9, %ymm10 vmulps %ymm28, %ymm9, %ymm13 vfmadd213ps %ymm28, %ymm3, %ymm3 # ymm3 = (ymm3 * ymm3) + ymm28 vfmadd231ps %ymm14, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm14) + ymm3 vrsqrt14ps %ymm3, %ymm8 vmulps %ymm3, %ymm15, %ymm3 vmulps %ymm3, %ymm8, %ymm3 vmulps %ymm8, %ymm8, %ymm9 vmulps %ymm3, %ymm9, %ymm3 vfmadd231ps %ymm8, %ymm16, %ymm3 # ymm3 = (ymm16 * ymm8) + ymm3 vmulps %ymm3, %ymm14, %ymm8 vmulps %ymm3, %ymm12, %ymm9 vmulps %ymm28, %ymm3, %ymm3 vmovaps %ymm11, %ymm12 vfmadd213ps %ymm5, %ymm0, %ymm12 # ymm12 = (ymm0 * ymm12) + ymm5 vmovaps %ymm10, %ymm14 vfmadd213ps %ymm4, %ymm0, %ymm14 # ymm14 = (ymm0 * ymm14) + ymm4 vmovaps %ymm13, %ymm15 vfmadd213ps %ymm25, %ymm0, %ymm15 # ymm15 = (ymm0 * ymm15) + ymm25 vmovaps %ymm8, %ymm16 vfmadd213ps %ymm7, %ymm1, %ymm16 # ymm16 = (ymm1 * ymm16) + ymm7 vfnmadd213ps %ymm5, %ymm0, %ymm11 # ymm11 = -(ymm0 * ymm11) + ymm5 vmovaps %ymm9, %ymm5 vfmadd213ps %ymm6, %ymm1, %ymm5 # ymm5 = (ymm1 * ymm5) + ymm6 vfnmadd213ps %ymm4, %ymm0, %ymm10 # ymm10 = -(ymm0 * ymm10) + ymm4 vmovaps %ymm3, %ymm4 vfmadd213ps %ymm2, %ymm1, %ymm4 # ymm4 = (ymm1 * ymm4) + ymm2 vfnmadd231ps %ymm13, %ymm0, %ymm25 # ymm25 = -(ymm0 * ymm13) + ymm25 vfnmadd213ps %ymm7, %ymm1, %ymm8 # ymm8 = -(ymm1 * ymm8) + ymm7 vfnmadd213ps %ymm6, %ymm1, %ymm9 # ymm9 = -(ymm1 * ymm9) + ymm6 vfnmadd231ps %ymm3, %ymm1, %ymm2 # ymm2 = -(ymm1 * ymm3) + ymm2 vsubps %ymm11, %ymm16, %ymm3 vsubps %ymm10, %ymm5, %ymm6 vsubps %ymm25, %ymm4, %ymm7 vmulps %ymm25, %ymm6, %ymm13 vfmsub231ps %ymm7, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm7) - ymm13 vmulps %ymm7, %ymm11, %ymm7 vfmsub231ps %ymm3, %ymm25, %ymm7 # ymm7 = (ymm25 * ymm3) - ymm7 vmulps %ymm3, %ymm10, %ymm3 vfmsub231ps %ymm6, %ymm11, %ymm3 # ymm3 = (ymm11 * ymm6) - ymm3 vfmadd231ps %ymm7, %ymm28, %ymm3 # ymm3 = (ymm28 * ymm7) + ymm3 vfmadd231ps %ymm13, %ymm28, %ymm3 # ymm3 = (ymm28 * ymm13) + ymm3 vcmpleps %ymm28, %ymm3, %k2 vmovaps %ymm12, %ymm8 {%k2} vmovaps %ymm14, %ymm9 {%k2} vmovaps %ymm15, %ymm2 {%k2} vblendmps %ymm16, %ymm11, %ymm13 {%k2} vblendmps %ymm5, %ymm10, %ymm14 {%k2} vblendmps %ymm4, %ymm25, %ymm15 {%k2} vmovaps %ymm11, %ymm16 {%k2} vmovaps %ymm10, %ymm5 {%k2} vmovaps %ymm25, %ymm4 {%k2} vsubps %ymm8, %ymm16, %ymm6 vsubps %ymm9, %ymm5, %ymm5 vsubps %ymm2, %ymm4, %ymm11 vsubps %ymm13, %ymm8, %ymm7 vsubps %ymm14, %ymm9, %ymm10 vsubps %ymm15, %ymm2, %ymm12 vmulps %ymm8, %ymm11, %ymm4 vfmsub231ps %ymm6, %ymm2, %ymm4 # ymm4 = (ymm2 * ymm6) - ymm4 vmulps %ymm6, %ymm9, %ymm3 vfmsub231ps %ymm5, %ymm8, %ymm3 # ymm3 = (ymm8 * ymm5) - ymm3 vfmadd231ps %ymm4, %ymm28, %ymm3 # ymm3 = (ymm28 * ymm4) + ymm3 vmulps %ymm2, %ymm5, %ymm4 vfmsub231ps %ymm11, %ymm9, %ymm4 # ymm4 = (ymm9 * ymm11) - ymm4 vfmadd231ps %ymm4, %ymm28, %ymm3 # ymm3 = (ymm28 * ymm4) + ymm3 vmulps %ymm13, %ymm12, %ymm16 vfmsub231ps %ymm15, %ymm7, %ymm16 # ymm16 = (ymm7 * ymm15) - ymm16 vmulps %ymm15, %ymm10, %ymm15 vfmsub231ps %ymm12, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm12) - ymm15 vmulps %ymm7, %ymm14, %ymm4 vfmsub231ps %ymm13, %ymm10, %ymm4 # ymm4 = (ymm10 * ymm13) - ymm4 vfmadd231ps %ymm16, %ymm28, %ymm4 # ymm4 = (ymm28 * ymm16) + ymm4 vfmadd231ps %ymm15, %ymm28, %ymm4 # ymm4 = (ymm28 * ymm15) + ymm4 vmaxps %ymm4, %ymm3, %ymm13 vcmpleps %ymm28, %ymm13, %k0 {%k1} kortestb %k0, %k0 vmovaps 0x1e0(%rsp), %ymm20 vmovaps 0x1c0(%rsp), %ymm21 vmovaps %ymm17, %ymm22 vmovaps %ymm19, %ymm17 vmovaps %xmm26, %xmm14 je 0x1cbef6b vmulps %ymm5, %ymm12, %ymm13 vfmsub231ps %ymm11, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm11) - ymm13 vmulps %ymm7, %ymm11, %ymm11 vfmsub231ps %ymm12, %ymm6, %ymm11 # ymm11 = (ymm6 * ymm12) - ymm11 vmulps %ymm6, %ymm10, %ymm10 vfmsub231ps %ymm5, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm5) - ymm10 vxorps %xmm6, %xmm6, %xmm6 vfmadd213ps %ymm10, %ymm11, %ymm6 # ymm6 = (ymm11 * ymm6) + ymm10 vfmadd231ps %ymm28, %ymm13, %ymm6 # ymm6 = (ymm13 * ymm28) + ymm6 vrcp14ps %ymm6, %ymm7 vmovaps %ymm7, %ymm5 vfnmadd213ps 0x22e8e3(%rip){1to8}, %ymm6, %ymm5 # ymm5 = -(ymm6 * ymm5) + mem vfmadd132ps %ymm7, %ymm7, %ymm5 # ymm5 = (ymm5 * ymm7) + ymm7 vmulps %ymm2, %ymm10, %ymm2 vfmadd231ps %ymm11, %ymm9, %ymm2 # ymm2 = (ymm9 * ymm11) + ymm2 vfmadd231ps %ymm13, %ymm8, %ymm2 # ymm2 = (ymm8 * ymm13) + ymm2 vmulps %ymm5, %ymm2, %ymm2 vmovaps 0x1a0(%rsp), %xmm10 vbroadcastss %xmm10, %ymm7 vcmpleps %ymm2, %ymm7, %k1 vcmpleps 0x20(%rsi){1to8}, %ymm2, %k1 {%k1} kandb %k0, %k1, %k0 kortestb %k0, %k0 je 0x1cbef90 vcmpneqps %ymm28, %ymm6, %k1 ktestb %k1, %k0 vmovaps 0x30(%rsp), %xmm9 je 0x1cbefac kandb %k1, %k0, %k0 kmovd %k0, %eax vmulps %ymm5, %ymm3, %ymm3 vmulps %ymm5, %ymm4, %ymm4 vbroadcastss 0x22e871(%rip), %ymm5 # 0x1eec714 vsubps %ymm3, %ymm5, %ymm6 vmovaps %ymm3, %ymm6 {%k2} vsubps %ymm4, %ymm5, %ymm3 vmovaps %ymm4, %ymm3 {%k2} vmovaps %ymm3, 0x400(%rsp) movzbl %al, %eax testw %ax, %ax je 0x1cbe382 vsubps %ymm0, %ymm1, %ymm1 vfmadd213ps %ymm0, %ymm6, %ymm1 # ymm1 = (ymm6 * ymm1) + ymm0 vaddps %ymm1, %ymm1, %ymm0 vmulps (%r11){1to8}, %ymm0, %ymm0 vcmpnleps %ymm0, %ymm2, %k0 kmovd %k0, %ecx andb %cl, %al je 0x1cbe382 vbroadcastss 0x232ad1(%rip), %ymm0 # 0x1ef09cc vmovaps 0x400(%rsp), %ymm1 vfmadd132ps 0x2330ea(%rip){1to8}, %ymm0, %ymm1 # ymm1 = (ymm1 * mem) + ymm0 vmovaps %ymm6, 0x2a0(%rsp) vmovaps %ymm1, 0x400(%rsp) vmovaps %ymm1, 0x2c0(%rsp) vmovaps %ymm2, 0x2e0(%rsp) movl $0x0, 0x300(%rsp) movl %r12d, 0x304(%rsp) vmovaps %xmm9, 0x310(%rsp) vmovaps 0x150(%rsp), %xmm0 vmovaps %xmm0, 0x320(%rsp) vmovaps 0x140(%rsp), %xmm0 vmovaps %xmm0, 0x330(%rsp) vmovaps 0x190(%rsp), %xmm0 vmovaps %xmm0, 0x340(%rsp) movb %al, 0x350(%rsp) movl 0x24(%rsi), %ecx testl %ecx, 0x34(%r15) je 0x1cbe382 movq 0x10(%rdx), %rcx cmpq $0x0, 0x10(%rcx) jne 0x1cbdfb1 movb $0x1, %r10b cmpq $0x0, 0x48(%r15) je 0x1cbe385 vmovaps %ymm6, 0x80(%rsp) vaddps 0x262f7e(%rip), %ymm6, %ymm0 # 0x1f20f40 vmovss 0x22e74a(%rip), %xmm1 # 0x1eec714 vdivss 0x280(%rsp), %xmm1, %xmm1 vbroadcastss %xmm1, %ymm1 vmulps %ymm0, %ymm1, %ymm0 vmovaps %ymm0, 0x360(%rsp) vmovaps 0x400(%rsp), %ymm0 vmovaps %ymm0, 0x380(%rsp) vmovaps %ymm2, 0x60(%rsp) vmovaps %ymm2, 0x3a0(%rsp) movzbl %al, %eax vmovaps 0x320(%rsp), %xmm0 vmovaps %xmm0, 0x180(%rsp) tzcntq %rax, %rcx vmovaps 0x330(%rsp), %xmm0 vmovaps %xmm0, 0x120(%rsp) vmovaps 0x340(%rsp), %xmm0 vmovaps %xmm0, 0x110(%rsp) movb $0x1, %r10b vmovaps %xmm14, 0x130(%rsp) movq %rdx, 0x28(%rsp) movq %rsi, 0x20(%rsp) movq %r11, 0x48(%rsp) vmovss 0x360(%rsp,%rcx,4), %xmm0 vmovss 0x380(%rsp,%rcx,4), %xmm1 vmovss 0x20(%rsi), %xmm2 vmovss %xmm2, 0x50(%rsp) movq %rcx, 0x3c0(%rsp) vmovss 0x3a0(%rsp,%rcx,4), %xmm2 vmovss %xmm2, 0x20(%rsi) movq %rax, %r9 movq 0x8(%rdx), %rax vmovss 0x22e673(%rip), %xmm2 # 0x1eec714 vsubss %xmm0, %xmm2, %xmm2 vaddss %xmm2, %xmm2, %xmm3 vmulss %xmm3, %xmm0, %xmm4 vfnmadd231ss %xmm2, %xmm2, %xmm4 # xmm4 = -(xmm2 * xmm2) + xmm4 vaddss %xmm0, %xmm0, %xmm5 vmovss 0x232f2e(%rip), %xmm8 # 0x1ef0fec vmovaps %xmm8, %xmm6 vfmadd213ss 0x232f39(%rip), %xmm0, %xmm6 # xmm6 = (xmm0 * xmm6) + mem vmulss %xmm0, %xmm8, %xmm7 vmulss %xmm7, %xmm0, %xmm7 vfmadd231ss %xmm6, %xmm5, %xmm7 # xmm7 = (xmm5 * xmm6) + xmm7 vmovaps %xmm8, %xmm5 vfmadd213ss 0x232f13(%rip), %xmm0, %xmm5 # xmm5 = (xmm0 * xmm5) + mem vmulss 0x232f03(%rip), %xmm2, %xmm6 # 0x1ef0ff0 vmulss %xmm6, %xmm2, %xmm6 vfmadd231ss %xmm5, %xmm3, %xmm6 # xmm6 = (xmm3 * xmm5) + xmm6 vmulss 0x2328de(%rip), %xmm2, %xmm2 # 0x1ef09dc vmulss %xmm0, %xmm0, %xmm3 vfmadd231ss %xmm2, %xmm0, %xmm3 # xmm3 = (xmm0 * xmm2) + xmm3 vmovss 0x22ea71(%rip), %xmm8 # 0x1eecb80 vmulss %xmm4, %xmm8, %xmm2 vmulss %xmm7, %xmm8, %xmm4 vmulss %xmm6, %xmm8, %xmm5 vmulss %xmm3, %xmm8, %xmm3 vbroadcastss %xmm3, %xmm3 vmulps 0x110(%rsp), %xmm3, %xmm3 vbroadcastss %xmm5, %xmm5 vfmadd132ps 0x120(%rsp), %xmm3, %xmm5 # xmm5 = (xmm5 * mem) + xmm3 vbroadcastss %xmm4, %xmm3 vfmadd132ps 0x180(%rsp), %xmm5, %xmm3 # xmm3 = (xmm3 * mem) + xmm5 vbroadcastss %xmm2, %xmm2 vfmadd213ps %xmm3, %xmm9, %xmm2 # xmm2 = (xmm9 * xmm2) + xmm3 vmovlps %xmm2, 0xd0(%rsp) vextractps $0x2, %xmm2, 0xd8(%rsp) vmovss %xmm0, 0xdc(%rsp) vmovss %xmm1, 0xe0(%rsp) movq 0x108(%rsp), %rcx movl %ecx, 0xe4(%rsp) movq 0x58(%rsp), %rcx movl %ecx, 0xe8(%rsp) movl (%rax), %ecx movl %ecx, 0xec(%rsp) movl 0x4(%rax), %ecx movl %ecx, 0xf0(%rsp) movl $0xffffffff, 0x1c(%rsp) # imm = 0xFFFFFFFF leaq 0x1c(%rsp), %rcx movq %rcx, 0xa0(%rsp) movq 0x18(%r15), %rcx movq %rcx, 0xa8(%rsp) movq %rax, 0xb0(%rsp) movq %rsi, 0xb8(%rsp) leaq 0xd0(%rsp), %rax movq %rax, 0xc0(%rsp) movl $0x1, 0xc8(%rsp) movq 0x48(%r15), %rax testq %rax, %rax movl %r10d, 0x18(%rsp) movq %r9, 0x260(%rsp) je 0x1cbe29d leaq 0xa0(%rsp), %rdi vzeroupper callq *%rax movq 0x260(%rsp), %r9 vmovaps 0x1a0(%rsp), %xmm10 vmovaps 0x130(%rsp), %xmm14 movl 0x18(%rsp), %r10d vmovaps 0x160(%rsp), %ymm17 vmovaps 0x220(%rsp), %ymm18 vmovaps 0x240(%rsp), %ymm22 vmovaps 0x30(%rsp), %xmm9 vmovaps 0x1c0(%rsp), %ymm21 vmovaps 0x1e0(%rsp), %ymm20 vxorps %xmm28, %xmm28, %xmm28 leaq 0x474516(%rip), %r8 # 0x213278c leaq 0x4720ef(%rip), %rdi # 0x213036c movq 0x48(%rsp), %r11 movq 0x20(%rsp), %rsi movq 0x28(%rsp), %rdx movq 0xa0(%rsp), %rax cmpl $0x0, (%rax) je 0x1cbe344 movq 0x10(%rdx), %rcx movq 0x10(%rcx), %rax testq %rax, %rax je 0x1cbe36d testb $0x2, (%rcx) jne 0x1cbe2ba testb $0x40, 0x3e(%r15) je 0x1cbe32f leaq 0xa0(%rsp), %rdi vzeroupper callq *%rax vmovaps 0x1a0(%rsp), %xmm10 vmovaps 0x130(%rsp), %xmm14 movl 0x18(%rsp), %r10d vmovaps 0x160(%rsp), %ymm17 vmovaps 0x220(%rsp), %ymm18 vmovaps 0x240(%rsp), %ymm22 vmovaps 0x30(%rsp), %xmm9 vmovaps 0x1c0(%rsp), %ymm21 vmovaps 0x1e0(%rsp), %ymm20 vxorps %xmm28, %xmm28, %xmm28 leaq 0x474473(%rip), %r8 # 0x213278c leaq 0x47204c(%rip), %rdi # 0x213036c movq 0x48(%rsp), %r11 movq 0x20(%rsp), %rsi movq 0x28(%rsp), %rdx movq 0xa0(%rsp), %rax cmpl $0x0, (%rax) movq 0x260(%rsp), %r9 jne 0x1cbe36d vmovss 0x50(%rsp), %xmm0 vmovss %xmm0, 0x20(%rsi) movq 0x3c0(%rsp), %rax btcq %rax, %r9 tzcntq %r9, %rcx setae %r10b movq %r9, %rax jae 0x1cbe05f andb $0x1, %r10b vmovaps 0x80(%rsp), %ymm6 vmovaps 0x60(%rsp), %ymm2 jmp 0x1cbe385 xorl %r10d, %r10d vmovaps 0x200(%rsp), %ymm8 jmp 0x1cbe3d5 xorl %r10d, %r10d vxorps %xmm28, %xmm28, %xmm28 vmovaps 0x80(%rsp), %ymm6 vmovaps 0x1e0(%rsp), %ymm20 vmovaps 0x60(%rsp), %ymm2 vmovaps 0x1c0(%rsp), %ymm21 vmovaps 0x240(%rsp), %ymm22 vmovaps 0x220(%rsp), %ymm18 vmovaps 0x160(%rsp), %ymm17 vmovaps %xmm12, %xmm14 cmpl $0x9, %r12d jge 0x1cbe40d testb $0x1, %r10b jne 0x1cbefc2 vmovaps 0x5e0(%rsp), %ymm0 vcmpleps 0x20(%rsi){1to8}, %ymm0, %k0 kmovb %k0, %eax andl %eax, %r14d setne 0x17(%rsp) jne 0x1cbd572 jmp 0x1cbefc2 vmovaps %ymm8, 0x200(%rsp) vpbroadcastd %r12d, %ymm0 vmovdqa %ymm0, 0x1a0(%rsp) vbroadcastss %xmm14, %ymm0 vmovaps %ymm0, 0x260(%rsp) vbroadcastss %xmm10, %ymm0 vmovaps %ymm0, 0x3c0(%rsp) vmovss 0x22e2cb(%rip), %xmm0 # 0x1eec714 vdivss 0x280(%rsp), %xmm0, %xmm0 vbroadcastss %xmm0, %ymm0 vmovaps %ymm0, 0x280(%rsp) movl $0x8, %r15d vmovaps %ymm6, 0x80(%rsp) vmovaps %ymm2, 0x60(%rsp) vpbroadcastd %r15d, %ymm0 vpor 0x29c49d(%rip), %ymm0, %ymm0 # 0x1f5a920 vpcmpltd 0x1a0(%rsp), %ymm0, %k1 leaq (%rdi,%r13), %rcx vmovups (%rcx,%r15,4), %ymm3 vmovups 0x484(%rcx,%r15,4), %ymm10 vmovups 0x908(%rcx,%r15,4), %ymm11 vmovups 0xd8c(%rcx,%r15,4), %ymm12 vmovaps 0x500(%rsp), %ymm19 vmulps %ymm12, %ymm19, %ymm5 vmovaps 0x4e0(%rsp), %ymm29 vmulps %ymm12, %ymm29, %ymm4 vmovaps 0x4c0(%rsp), %ymm1 vmulps %ymm1, %ymm12, %ymm0 vmovaps 0x560(%rsp), %ymm26 vfmadd231ps %ymm26, %ymm11, %ymm5 # ymm5 = (ymm11 * ymm26) + ymm5 vmovaps 0x540(%rsp), %ymm27 vfmadd231ps %ymm27, %ymm11, %ymm4 # ymm4 = (ymm11 * ymm27) + ymm4 vmovaps 0x520(%rsp), %ymm16 vfmadd231ps %ymm16, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm16) + ymm0 vfmadd231ps %ymm17, %ymm10, %ymm5 # ymm5 = (ymm10 * ymm17) + ymm5 vmovaps 0x5a0(%rsp), %ymm25 vfmadd231ps %ymm25, %ymm10, %ymm4 # ymm4 = (ymm10 * ymm25) + ymm4 vmovaps 0x580(%rsp), %ymm9 vfmadd231ps %ymm9, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm9) + ymm0 vfmadd231ps %ymm22, %ymm3, %ymm5 # ymm5 = (ymm3 * ymm22) + ymm5 vfmadd231ps %ymm18, %ymm3, %ymm4 # ymm4 = (ymm3 * ymm18) + ymm4 leaq (%r13,%r8), %rax vmovups (%rax,%r15,4), %ymm2 vmovups 0x484(%rax,%r15,4), %ymm13 vmovaps 0x5c0(%rsp), %ymm8 vfmadd231ps %ymm8, %ymm3, %ymm0 # ymm0 = (ymm3 * ymm8) + ymm0 vmovups 0x908(%rax,%r15,4), %ymm14 vmovups 0xd8c(%rax,%r15,4), %ymm15 vmulps %ymm15, %ymm19, %ymm7 vmulps %ymm15, %ymm29, %ymm6 vmulps %ymm1, %ymm15, %ymm1 vfmadd231ps %ymm26, %ymm14, %ymm7 # ymm7 = (ymm14 * ymm26) + ymm7 vfmadd231ps %ymm27, %ymm14, %ymm6 # ymm6 = (ymm14 * ymm27) + ymm6 vfmadd231ps %ymm16, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm16) + ymm1 vfmadd231ps %ymm17, %ymm13, %ymm7 # ymm7 = (ymm13 * ymm17) + ymm7 vfmadd231ps %ymm25, %ymm13, %ymm6 # ymm6 = (ymm13 * ymm25) + ymm6 vfmadd231ps %ymm9, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm9) + ymm1 vfmadd231ps %ymm22, %ymm2, %ymm7 # ymm7 = (ymm2 * ymm22) + ymm7 vfmadd231ps %ymm18, %ymm2, %ymm6 # ymm6 = (ymm2 * ymm18) + ymm6 vfmadd231ps %ymm8, %ymm2, %ymm1 # ymm1 = (ymm2 * ymm8) + ymm1 vmaxps %ymm1, %ymm0, %ymm16 vsubps %ymm5, %ymm7, %ymm9 vsubps %ymm4, %ymm6, %ymm8 vmovaps %ymm17, %ymm24 vmulps %ymm9, %ymm4, %ymm17 vmovaps %ymm18, %ymm23 vmulps %ymm8, %ymm5, %ymm18 vsubps %ymm18, %ymm17, %ymm17 vmulps %ymm8, %ymm8, %ymm18 vfmadd231ps %ymm9, %ymm9, %ymm18 # ymm18 = (ymm9 * ymm9) + ymm18 vmulps %ymm16, %ymm16, %ymm16 vmulps %ymm18, %ymm16, %ymm16 vmulps %ymm17, %ymm17, %ymm17 vcmpleps %ymm16, %ymm17, %k1 {%k1} kortestb %k1, %k1 je 0x1cbef0c vmovaps %ymm23, %ymm16 vmovaps 0x200(%rsp), %ymm23 vmulps %ymm15, %ymm23, %ymm15 vmovaps 0x460(%rsp), %ymm31 vfmadd213ps %ymm15, %ymm31, %ymm14 # ymm14 = (ymm31 * ymm14) + ymm15 vmovaps 0x480(%rsp), %ymm30 vfmadd213ps %ymm14, %ymm30, %ymm13 # ymm13 = (ymm30 * ymm13) + ymm14 vmovaps 0x4a0(%rsp), %ymm18 vfmadd213ps %ymm13, %ymm18, %ymm2 # ymm2 = (ymm18 * ymm2) + ymm13 vmulps %ymm12, %ymm23, %ymm12 vfmadd213ps %ymm12, %ymm31, %ymm11 # ymm11 = (ymm31 * ymm11) + ymm12 vfmadd213ps %ymm11, %ymm30, %ymm10 # ymm10 = (ymm30 * ymm10) + ymm11 vfmadd213ps %ymm10, %ymm18, %ymm3 # ymm3 = (ymm18 * ymm3) + ymm10 vmovups 0x1210(%rcx,%r15,4), %ymm12 vmovups 0x1694(%rcx,%r15,4), %ymm13 vmovups 0x1b18(%rcx,%r15,4), %ymm14 vmovups 0x1f9c(%rcx,%r15,4), %ymm15 vmulps %ymm15, %ymm19, %ymm11 vmulps %ymm15, %ymm29, %ymm10 vmulps %ymm15, %ymm23, %ymm15 vfmadd231ps %ymm26, %ymm14, %ymm11 # ymm11 = (ymm14 * ymm26) + ymm11 vfmadd231ps %ymm27, %ymm14, %ymm10 # ymm10 = (ymm14 * ymm27) + ymm10 vfmadd231ps %ymm14, %ymm31, %ymm15 # ymm15 = (ymm31 * ymm14) + ymm15 vfmadd231ps %ymm24, %ymm13, %ymm11 # ymm11 = (ymm13 * ymm24) + ymm11 vfmadd231ps %ymm25, %ymm13, %ymm10 # ymm10 = (ymm13 * ymm25) + ymm10 vfmadd231ps %ymm13, %ymm30, %ymm15 # ymm15 = (ymm30 * ymm13) + ymm15 vfmadd231ps %ymm22, %ymm12, %ymm11 # ymm11 = (ymm12 * ymm22) + ymm11 vfmadd231ps %ymm16, %ymm12, %ymm10 # ymm10 = (ymm12 * ymm16) + ymm10 vmovaps %ymm19, %ymm17 vmovaps %ymm16, %ymm19 vfmadd231ps %ymm12, %ymm18, %ymm15 # ymm15 = (ymm18 * ymm12) + ymm15 vmovups 0x1210(%rax,%r15,4), %ymm13 vmovups 0x1b18(%rax,%r15,4), %ymm14 vmovups 0x1f9c(%rax,%r15,4), %ymm16 vmulps %ymm16, %ymm17, %ymm17 vmulps %ymm16, %ymm29, %ymm12 vmulps %ymm16, %ymm23, %ymm16 vfmadd231ps %ymm26, %ymm14, %ymm17 # ymm17 = (ymm14 * ymm26) + ymm17 vfmadd231ps %ymm27, %ymm14, %ymm12 # ymm12 = (ymm14 * ymm27) + ymm12 vfmadd231ps %ymm14, %ymm31, %ymm16 # ymm16 = (ymm31 * ymm14) + ymm16 vmovups 0x1694(%rax,%r15,4), %ymm14 vfmadd231ps %ymm24, %ymm14, %ymm17 # ymm17 = (ymm14 * ymm24) + ymm17 vfmadd231ps %ymm25, %ymm14, %ymm12 # ymm12 = (ymm14 * ymm25) + ymm12 vfmadd231ps %ymm14, %ymm30, %ymm16 # ymm16 = (ymm30 * ymm14) + ymm16 vfmadd231ps %ymm22, %ymm13, %ymm17 # ymm17 = (ymm13 * ymm22) + ymm17 vfmadd231ps %ymm19, %ymm13, %ymm12 # ymm12 = (ymm13 * ymm19) + ymm12 vfmadd231ps %ymm13, %ymm18, %ymm16 # ymm16 = (ymm18 * ymm13) + ymm16 vbroadcastss 0x26276c(%rip), %ymm18 # 0x1f20ec4 vandps %ymm18, %ymm11, %ymm13 vandps %ymm18, %ymm10, %ymm14 vmaxps %ymm14, %ymm13, %ymm13 vandps %ymm18, %ymm15, %ymm14 vmaxps %ymm14, %ymm13, %ymm13 vmovaps 0x260(%rsp), %ymm15 vcmpltps %ymm15, %ymm13, %k2 vmovaps %ymm9, %ymm11 {%k2} vmovaps %ymm8, %ymm10 {%k2} vandps %ymm18, %ymm17, %ymm13 vandps %ymm18, %ymm12, %ymm14 vmaxps %ymm14, %ymm13, %ymm13 vandps %ymm18, %ymm16, %ymm14 vmaxps %ymm14, %ymm13, %ymm13 vcmpltps %ymm15, %ymm13, %k2 vmovaps %ymm9, %ymm17 {%k2} vmovaps %ymm8, %ymm12 {%k2} vbroadcastss 0x2626f8(%rip), %ymm9 # 0x1f20ec0 vxorps %ymm9, %ymm11, %ymm8 vxorps %ymm9, %ymm17, %ymm9 vfmadd213ps %ymm28, %ymm11, %ymm11 # ymm11 = (ymm11 * ymm11) + ymm28 vfmadd231ps %ymm10, %ymm10, %ymm11 # ymm11 = (ymm10 * ymm10) + ymm11 vrsqrt14ps %ymm11, %ymm13 vbroadcastss 0x22df2f(%rip), %ymm15 # 0x1eec71c vmulps %ymm15, %ymm11, %ymm11 vmulps %ymm11, %ymm13, %ymm11 vmulps %ymm13, %ymm13, %ymm14 vmulps %ymm11, %ymm14, %ymm14 vbroadcastss 0x22df0d(%rip), %ymm16 # 0x1eec718 vfmadd231ps %ymm13, %ymm16, %ymm14 # ymm14 = (ymm16 * ymm13) + ymm14 vmulps %ymm14, %ymm10, %ymm11 vmulps %ymm8, %ymm14, %ymm10 vmulps %ymm28, %ymm14, %ymm13 vfmadd213ps %ymm28, %ymm17, %ymm17 # ymm17 = (ymm17 * ymm17) + ymm28 vfmadd231ps %ymm12, %ymm12, %ymm17 # ymm17 = (ymm12 * ymm12) + ymm17 vrsqrt14ps %ymm17, %ymm8 vmulps %ymm15, %ymm17, %ymm14 vmulps %ymm14, %ymm8, %ymm14 vmulps %ymm8, %ymm8, %ymm15 vmulps %ymm14, %ymm15, %ymm14 vfmadd231ps %ymm8, %ymm16, %ymm14 # ymm14 = (ymm16 * ymm8) + ymm14 vmulps %ymm14, %ymm12, %ymm8 vmulps %ymm9, %ymm14, %ymm9 vmulps %ymm28, %ymm14, %ymm12 vmovaps %ymm11, %ymm14 vfmadd213ps %ymm5, %ymm0, %ymm14 # ymm14 = (ymm0 * ymm14) + ymm5 vmovaps %ymm10, %ymm15 vfmadd213ps %ymm4, %ymm0, %ymm15 # ymm15 = (ymm0 * ymm15) + ymm4 vmovaps %ymm13, %ymm16 vfmadd213ps %ymm3, %ymm0, %ymm16 # ymm16 = (ymm0 * ymm16) + ymm3 vmovaps %ymm8, %ymm17 vfmadd213ps %ymm7, %ymm1, %ymm17 # ymm17 = (ymm1 * ymm17) + ymm7 vfnmadd213ps %ymm5, %ymm0, %ymm11 # ymm11 = -(ymm0 * ymm11) + ymm5 vmovaps %ymm9, %ymm5 vfmadd213ps %ymm6, %ymm1, %ymm5 # ymm5 = (ymm1 * ymm5) + ymm6 vfnmadd213ps %ymm4, %ymm0, %ymm10 # ymm10 = -(ymm0 * ymm10) + ymm4 vmovaps %ymm12, %ymm4 vfmadd213ps %ymm2, %ymm1, %ymm4 # ymm4 = (ymm1 * ymm4) + ymm2 vfnmadd231ps %ymm13, %ymm0, %ymm3 # ymm3 = -(ymm0 * ymm13) + ymm3 vfnmadd213ps %ymm7, %ymm1, %ymm8 # ymm8 = -(ymm1 * ymm8) + ymm7 vfnmadd213ps %ymm6, %ymm1, %ymm9 # ymm9 = -(ymm1 * ymm9) + ymm6 vfnmadd231ps %ymm12, %ymm1, %ymm2 # ymm2 = -(ymm1 * ymm12) + ymm2 vsubps %ymm11, %ymm17, %ymm6 vsubps %ymm10, %ymm5, %ymm7 vsubps %ymm3, %ymm4, %ymm12 vmulps %ymm3, %ymm7, %ymm13 vfmsub231ps %ymm12, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm12) - ymm13 vmulps %ymm11, %ymm12, %ymm12 vfmsub231ps %ymm6, %ymm3, %ymm12 # ymm12 = (ymm3 * ymm6) - ymm12 vmulps %ymm6, %ymm10, %ymm6 vfmsub231ps %ymm7, %ymm11, %ymm6 # ymm6 = (ymm11 * ymm7) - ymm6 vfmadd231ps %ymm12, %ymm28, %ymm6 # ymm6 = (ymm28 * ymm12) + ymm6 vfmadd231ps %ymm13, %ymm28, %ymm6 # ymm6 = (ymm28 * ymm13) + ymm6 vcmpleps %ymm28, %ymm6, %k2 vmovaps %ymm14, %ymm8 {%k2} vmovaps %ymm15, %ymm9 {%k2} vmovaps %ymm16, %ymm2 {%k2} vblendmps %ymm17, %ymm11, %ymm13 {%k2} vblendmps %ymm5, %ymm10, %ymm14 {%k2} vblendmps %ymm4, %ymm3, %ymm15 {%k2} vmovaps %ymm11, %ymm17 {%k2} vmovaps %ymm10, %ymm5 {%k2} vmovaps %ymm3, %ymm4 {%k2} vsubps %ymm8, %ymm17, %ymm6 vsubps %ymm9, %ymm5, %ymm5 vsubps %ymm2, %ymm4, %ymm11 vsubps %ymm13, %ymm8, %ymm7 vsubps %ymm14, %ymm9, %ymm10 vsubps %ymm15, %ymm2, %ymm12 vmulps %ymm8, %ymm11, %ymm4 vfmsub231ps %ymm6, %ymm2, %ymm4 # ymm4 = (ymm2 * ymm6) - ymm4 vmulps %ymm6, %ymm9, %ymm3 vfmsub231ps %ymm5, %ymm8, %ymm3 # ymm3 = (ymm8 * ymm5) - ymm3 vfmadd231ps %ymm4, %ymm28, %ymm3 # ymm3 = (ymm28 * ymm4) + ymm3 vmulps %ymm2, %ymm5, %ymm4 vfmsub231ps %ymm11, %ymm9, %ymm4 # ymm4 = (ymm9 * ymm11) - ymm4 vfmadd231ps %ymm4, %ymm28, %ymm3 # ymm3 = (ymm28 * ymm4) + ymm3 vmulps %ymm13, %ymm12, %ymm16 vfmsub231ps %ymm15, %ymm7, %ymm16 # ymm16 = (ymm7 * ymm15) - ymm16 vmulps %ymm15, %ymm10, %ymm15 vfmsub231ps %ymm12, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm12) - ymm15 vmulps %ymm7, %ymm14, %ymm4 vfmsub231ps %ymm13, %ymm10, %ymm4 # ymm4 = (ymm10 * ymm13) - ymm4 vfmadd231ps %ymm16, %ymm28, %ymm4 # ymm4 = (ymm28 * ymm16) + ymm4 vfmadd231ps %ymm15, %ymm28, %ymm4 # ymm4 = (ymm28 * ymm15) + ymm4 vmaxps %ymm4, %ymm3, %ymm13 vcmpleps %ymm28, %ymm13, %k0 {%k1} kortestb %k0, %k0 vmovaps %ymm19, %ymm18 je 0x1cbef40 vmulps %ymm5, %ymm12, %ymm13 vfmsub231ps %ymm11, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm11) - ymm13 vmulps %ymm7, %ymm11, %ymm11 vfmsub231ps %ymm12, %ymm6, %ymm11 # ymm11 = (ymm6 * ymm12) - ymm11 vmulps %ymm6, %ymm10, %ymm10 vfmsub231ps %ymm5, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm5) - ymm10 vxorps %xmm6, %xmm6, %xmm6 vfmadd213ps %ymm10, %ymm11, %ymm6 # ymm6 = (ymm11 * ymm6) + ymm10 vfmadd231ps %ymm28, %ymm13, %ymm6 # ymm6 = (ymm13 * ymm28) + ymm6 vrcp14ps %ymm6, %ymm7 vmovaps %ymm7, %ymm5 vfnmadd213ps 0x22dd1c(%rip){1to8}, %ymm6, %ymm5 # ymm5 = -(ymm6 * ymm5) + mem vfmadd132ps %ymm7, %ymm7, %ymm5 # ymm5 = (ymm5 * ymm7) + ymm7 vmulps %ymm2, %ymm10, %ymm2 vfmadd231ps %ymm11, %ymm9, %ymm2 # ymm2 = (ymm9 * ymm11) + ymm2 vfmadd231ps %ymm13, %ymm8, %ymm2 # ymm2 = (ymm8 * ymm13) + ymm2 vmulps %ymm5, %ymm2, %ymm2 vcmpgeps 0x3c0(%rsp), %ymm2, %k1 vcmpleps 0x20(%rsi){1to8}, %ymm2, %k1 {%k1} kandb %k0, %k1, %k0 kortestb %k0, %k0 je 0x1cbef40 vcmpneqps %ymm28, %ymm6, %k1 ktestb %k1, %k0 vmovaps 0x30(%rsp), %xmm9 vmovaps 0x160(%rsp), %ymm17 je 0x1cbef64 kandb %k1, %k0, %k0 kmovd %k0, %eax vmulps %ymm5, %ymm3, %ymm3 vmulps %ymm5, %ymm4, %ymm4 vbroadcastss 0x22dcae(%rip), %ymm5 # 0x1eec714 vsubps %ymm3, %ymm5, %ymm20 vmovaps %ymm3, %ymm20 {%k2} vsubps %ymm4, %ymm5, %ymm3 vmovaps %ymm4, %ymm3 {%k2} vmovaps %ymm3, 0x3e0(%rsp) movzbl %al, %eax vmovaps %ymm2, %ymm21 vmovaps 0x80(%rsp), %ymm6 vmovaps 0x60(%rsp), %ymm2 testw %ax, %ax je 0x1cbef2e vsubps %ymm0, %ymm1, %ymm1 vfmadd213ps %ymm0, %ymm20, %ymm1 # ymm1 = (ymm20 * ymm1) + ymm0 vaddps %ymm1, %ymm1, %ymm0 vmulps (%r11){1to8}, %ymm0, %ymm0 vcmpnleps %ymm0, %ymm21, %k0 kmovd %k0, %ecx andb %cl, %al je 0x1cbef2e vbroadcastss 0x231ef6(%rip), %ymm0 # 0x1ef09cc vmovaps 0x3e0(%rsp), %ymm1 vfmadd132ps 0x23250f(%rip){1to8}, %ymm0, %ymm1 # ymm1 = (ymm1 * mem) + ymm0 vmovaps %ymm20, 0x2a0(%rsp) vmovaps %ymm1, 0x3e0(%rsp) vmovaps %ymm1, 0x2c0(%rsp) vmovaps %ymm21, 0x2e0(%rsp) movl %r15d, 0x300(%rsp) movl %r12d, 0x304(%rsp) vmovaps %xmm9, 0x310(%rsp) vmovaps 0x150(%rsp), %xmm0 vmovaps %xmm0, 0x320(%rsp) vmovaps 0x140(%rsp), %xmm0 vmovaps %xmm0, 0x330(%rsp) vmovaps 0x190(%rsp), %xmm0 vmovaps %xmm0, 0x340(%rsp) movb %al, 0x350(%rsp) movq (%rdx), %rcx movq 0x1e8(%rcx), %rcx movq 0x58(%rsp), %r9 movq (%rcx,%r9,8), %r9 movl 0x24(%rsi), %ecx testl %ecx, 0x34(%r9) je 0x1cbef29 movq 0x10(%rdx), %rcx cmpq $0x0, 0x10(%rcx) jne 0x1cbeb99 movb $0x1, %cl cmpq $0x0, 0x48(%r9) je 0x1cbef2b movl %r10d, 0x18(%rsp) movq %r11, 0x48(%rsp) vmovaps %ymm20, 0x1e0(%rsp) vaddps 0x26238b(%rip), %ymm20, %ymm0 # 0x1f20f40 vcvtsi2ss %r15d, %xmm19, %xmm1 vbroadcastss %xmm1, %ymm1 vaddps %ymm0, %ymm1, %ymm0 vmulps 0x280(%rsp), %ymm0, %ymm0 vmovaps %ymm0, 0x360(%rsp) vmovaps 0x3e0(%rsp), %ymm0 vmovaps %ymm0, 0x380(%rsp) vmovaps %ymm21, 0x1c0(%rsp) vmovaps %ymm21, 0x3a0(%rsp) movzbl %al, %edi vmovaps 0x320(%rsp), %xmm0 vmovaps %xmm0, 0x450(%rsp) tzcntq %rdi, %rcx vmovaps 0x330(%rsp), %xmm0 vmovaps %xmm0, 0x440(%rsp) vmovaps 0x340(%rsp), %xmm0 vmovaps %xmm0, 0x430(%rsp) movb $0x1, %al movl %eax, 0x110(%rsp) movq %r9, 0x120(%rsp) movq %rdx, 0x28(%rsp) movq %rsi, 0x20(%rsp) vmovss 0x360(%rsp,%rcx,4), %xmm0 vmovss 0x380(%rsp,%rcx,4), %xmm1 vmovss 0x20(%rsi), %xmm2 vmovss %xmm2, 0x180(%rsp) movq %rcx, 0x130(%rsp) vmovss 0x3a0(%rsp,%rcx,4), %xmm2 vmovss %xmm2, 0x20(%rsi) movq 0x8(%rdx), %rax vmovss 0x22da81(%rip), %xmm2 # 0x1eec714 vsubss %xmm0, %xmm2, %xmm2 vaddss %xmm2, %xmm2, %xmm3 vmulss %xmm3, %xmm0, %xmm4 vfnmadd231ss %xmm2, %xmm2, %xmm4 # xmm4 = -(xmm2 * xmm2) + xmm4 vaddss %xmm0, %xmm0, %xmm5 vmovss 0x23233c(%rip), %xmm8 # 0x1ef0fec vmovaps %xmm8, %xmm6 vfmadd213ss 0x232347(%rip), %xmm0, %xmm6 # xmm6 = (xmm0 * xmm6) + mem vmulss %xmm0, %xmm8, %xmm7 vmulss %xmm7, %xmm0, %xmm7 vfmadd231ss %xmm6, %xmm5, %xmm7 # xmm7 = (xmm5 * xmm6) + xmm7 vmovaps %xmm8, %xmm5 vfmadd213ss 0x232321(%rip), %xmm0, %xmm5 # xmm5 = (xmm0 * xmm5) + mem vmulss 0x232311(%rip), %xmm2, %xmm6 # 0x1ef0ff0 vmulss %xmm6, %xmm2, %xmm6 vfmadd231ss %xmm5, %xmm3, %xmm6 # xmm6 = (xmm3 * xmm5) + xmm6 vmulss 0x231cec(%rip), %xmm2, %xmm2 # 0x1ef09dc vmulss %xmm0, %xmm0, %xmm3 vfmadd231ss %xmm2, %xmm0, %xmm3 # xmm3 = (xmm0 * xmm2) + xmm3 vmovss 0x22de7f(%rip), %xmm8 # 0x1eecb80 vmulss %xmm4, %xmm8, %xmm2 vmulss %xmm7, %xmm8, %xmm4 vmulss %xmm6, %xmm8, %xmm5 vmulss %xmm3, %xmm8, %xmm3 vbroadcastss %xmm3, %xmm3 vmulps 0x430(%rsp), %xmm3, %xmm3 vbroadcastss %xmm5, %xmm5 vfmadd132ps 0x440(%rsp), %xmm3, %xmm5 # xmm5 = (xmm5 * mem) + xmm3 vbroadcastss %xmm4, %xmm3 vfmadd132ps 0x450(%rsp), %xmm5, %xmm3 # xmm3 = (xmm3 * mem) + xmm5 vbroadcastss %xmm2, %xmm2 vfmadd213ps %xmm3, %xmm9, %xmm2 # xmm2 = (xmm9 * xmm2) + xmm3 vmovlps %xmm2, 0xd0(%rsp) vextractps $0x2, %xmm2, 0xd8(%rsp) vmovss %xmm0, 0xdc(%rsp) vmovss %xmm1, 0xe0(%rsp) movq 0x108(%rsp), %rcx movl %ecx, 0xe4(%rsp) movq 0x58(%rsp), %rcx movl %ecx, 0xe8(%rsp) movl (%rax), %ecx movl %ecx, 0xec(%rsp) movl 0x4(%rax), %ecx movl %ecx, 0xf0(%rsp) movl $0xffffffff, 0x1c(%rsp) # imm = 0xFFFFFFFF leaq 0x1c(%rsp), %rcx movq %rcx, 0xa0(%rsp) movq 0x18(%r9), %rcx movq %rcx, 0xa8(%rsp) movq %rax, 0xb0(%rsp) movq %rsi, 0xb8(%rsp) leaq 0xd0(%rsp), %rax movq %rax, 0xc0(%rsp) movl $0x1, 0xc8(%rsp) movq 0x48(%r9), %rax testq %rax, %rax movq %rdi, 0x50(%rsp) je 0x1cbee2c leaq 0xa0(%rsp), %rdi vzeroupper callq *%rax movq 0x50(%rsp), %rdi movq 0x120(%rsp), %r9 vmovaps 0x30(%rsp), %xmm9 movq 0x20(%rsp), %rsi movq 0x28(%rsp), %rdx movq 0xa0(%rsp), %rax cmpl $0x0, (%rax) je 0x1cbee7c movq 0x10(%rdx), %rcx movq 0x10(%rcx), %rax testq %rax, %rax je 0x1cbeeab testb $0x2, (%rcx) jne 0x1cbee45 testb $0x40, 0x3e(%r9) je 0x1cbee5a leaq 0xa0(%rsp), %rdi vzeroupper callq *%rax movq 0x120(%rsp), %r9 movq 0xa0(%rsp), %rax cmpl $0x0, (%rax) movq 0x28(%rsp), %rdx movq 0x20(%rsp), %rsi vmovaps 0x30(%rsp), %xmm9 movq 0x50(%rsp), %rdi jne 0x1cbeeab vmovss 0x180(%rsp), %xmm0 vmovss %xmm0, 0x20(%rsi) movq 0x130(%rsp), %rax btcq %rax, %rdi tzcntq %rdi, %rcx setae %al movl %eax, 0x110(%rsp) jae 0x1cbec51 movl 0x110(%rsp), %ecx andb $0x1, %cl movq 0x48(%rsp), %r11 leaq 0x4714ab(%rip), %rdi # 0x213036c leaq 0x4738c4(%rip), %r8 # 0x213278c vxorps %xmm28, %xmm28, %xmm28 vmovaps 0x80(%rsp), %ymm6 vmovaps 0x1e0(%rsp), %ymm20 vmovaps 0x60(%rsp), %ymm2 vmovaps 0x1c0(%rsp), %ymm21 vmovaps 0x240(%rsp), %ymm22 vmovaps 0x220(%rsp), %ymm18 vmovaps 0x160(%rsp), %ymm17 movl 0x18(%rsp), %r10d jmp 0x1cbef2b vmovaps 0x80(%rsp), %ymm6 vmovaps 0x60(%rsp), %ymm2 vmovaps %ymm23, %ymm18 vmovaps %ymm24, %ymm17 jmp 0x1cbef2e xorl %ecx, %ecx orb %cl, %r10b addq $0x8, %r15 cmpl %r15d, %r12d jg 0x1cbe475 jmp 0x1cbe3db xorl %eax, %eax vmovaps 0x80(%rsp), %ymm6 vmovaps 0x60(%rsp), %ymm2 vmovaps 0x30(%rsp), %xmm9 vmovaps 0x160(%rsp), %ymm17 jmp 0x1cbea9d xorl %eax, %eax jmp 0x1cbea8e xorl %eax, %eax vmovaps 0x80(%rsp), %ymm6 vmovaps 0x60(%rsp), %ymm2 vmovaps 0x30(%rsp), %xmm9 vmovaps 0x1a0(%rsp), %xmm10 jmp 0x1cbdec3 xorl %eax, %eax vmovaps 0x80(%rsp), %ymm6 vmovaps 0x60(%rsp), %ymm2 vmovaps 0x30(%rsp), %xmm9 jmp 0x1cbdec3 xorl %eax, %eax vmovaps 0x80(%rsp), %ymm6 vmovaps 0x60(%rsp), %ymm2 jmp 0x1cbdec3 movb 0x17(%rsp), %al andb $0x1, %al leaq -0x28(%rbp), %rsp popq %rbx popq %r12 popq %r13 popq %r14 popq %r15 popq %rbp vzeroupper retq
/embree[P]embree/kernels/geometry/curveNi_intersector.h
void embree::avx512::CurveNiIntersectorK<8, 4>::intersect_t<embree::avx512::RibbonCurve1IntersectorK<embree::CatmullRomCurveT, 4, 8>, embree::avx512::Intersect1KEpilogMU<8, 4, true>>(embree::avx512::CurvePrecalculationsK<4>&, embree::RayHitK<4>&, unsigned long, embree::RayQueryContext*, embree::CurveNi<8> const&)
static __forceinline void intersect_t(Precalculations& pre, RayHitK<K>& ray, const size_t k, RayQueryContext* context, const Primitive& prim) { vfloat<M> tNear; vbool<M> valid = intersect(ray,k,prim,tNear); const size_t N = prim.N; size_t mask = movemask(valid); while (mask) { const size_t i = bscf(mask); STAT3(normal.trav_prims,1,1,1); const unsigned int geomID = prim.geomID(N); const unsigned int primID = prim.primID(N)[i]; const CurveGeometry* geom = context->scene->get<CurveGeometry>(geomID); Vec3ff a0,a1,a2,a3; geom->gather(a0,a1,a2,a3,geom->curve(primID)); size_t mask1 = mask; const size_t i1 = bscf(mask1); if (mask) { const unsigned int primID1 = prim.primID(N)[i1]; geom->prefetchL1_vertices(geom->curve(primID1)); if (mask1) { const size_t i2 = bsf(mask1); const unsigned int primID2 = prim.primID(N)[i2]; geom->prefetchL2_vertices(geom->curve(primID2)); } } Intersector().intersect(pre,ray,k,context,geom,primID,a0,a1,a2,a3,Epilog(ray,k,context,geomID,primID)); mask &= movemask(tNear <= vfloat<M>(ray.tfar[k])); } }
pushq %rbp movq %rsp, %rbp pushq %r15 pushq %r14 pushq %r13 pushq %r12 pushq %rbx andq $-0x20, %rsp subq $0x700, %rsp # imm = 0x700 movq %rcx, %r10 movq %rdx, %r15 movq %rdi, 0xc8(%rsp) movzbl 0x1(%r8), %ecx leaq (%rcx,%rcx,4), %rax leaq (%rax,%rax,4), %rdx vbroadcastss 0x12(%r8,%rdx), %xmm0 vmovss (%rsi,%r15,4), %xmm1 vmovss 0x40(%rsi,%r15,4), %xmm2 vinsertps $0x10, 0x10(%rsi,%r15,4), %xmm1, %xmm1 # xmm1 = xmm1[0],mem[0],xmm1[2,3] vinsertps $0x20, 0x20(%rsi,%r15,4), %xmm1, %xmm1 # xmm1 = xmm1[0,1],mem[0],xmm1[3] vinsertps $0x10, 0x50(%rsi,%r15,4), %xmm2, %xmm2 # xmm2 = xmm2[0],mem[0],xmm2[2,3] vinsertps $0x20, 0x60(%rsi,%r15,4), %xmm2, %xmm2 # xmm2 = xmm2[0,1],mem[0],xmm2[3] vsubps 0x6(%r8,%rdx), %xmm1, %xmm1 vmulps %xmm1, %xmm0, %xmm3 vmulps %xmm2, %xmm0, %xmm0 vpmovsxbd 0x6(%r8,%rcx,4), %ymm1 vpmovsxbd 0x6(%r8,%rax), %ymm2 vcvtdq2ps %ymm1, %ymm5 vcvtdq2ps %ymm2, %ymm6 leaq (%rcx,%rcx,2), %rdx vpmovsxbd 0x6(%r8,%rdx,2), %ymm1 vcvtdq2ps %ymm1, %ymm4 leaq (%rcx,%rax,2), %rdi vpmovsxbd 0x6(%r8,%rdi), %ymm1 leal (,%rdx,4), %edi vpmovsxbd 0x6(%r8,%rdi), %ymm2 vcvtdq2ps %ymm1, %ymm7 vcvtdq2ps %ymm2, %ymm8 addq %rcx, %rdi vpmovsxbd 0x6(%r8,%rdi), %ymm1 vcvtdq2ps %ymm1, %ymm9 leaq (%rcx,%rcx,8), %r9 leal (%r9,%r9), %edi vpmovsxbd 0x6(%r8,%rdi), %ymm1 vcvtdq2ps %ymm1, %ymm10 addq %rcx, %rdi vpmovsxbd 0x6(%r8,%rdi), %ymm1 vcvtdq2ps %ymm1, %ymm11 shll $0x2, %eax vpmovsxbd 0x6(%r8,%rax), %ymm1 vcvtdq2ps %ymm1, %ymm12 vbroadcastss %xmm0, %ymm13 vbroadcastss 0x253623(%rip), %ymm15 # 0x1f12704 vbroadcastss 0x261df1(%rip), %ymm16 # 0x1f20edc vpermps %ymm0, %ymm15, %ymm14 vpermps %ymm0, %ymm16, %ymm0 vmulps %ymm4, %ymm0, %ymm2 vmulps %ymm0, %ymm9, %ymm1 vmulps %ymm0, %ymm12, %ymm0 vfmadd231ps %ymm6, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm6) + ymm2 vfmadd231ps %ymm8, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm8) + ymm1 vfmadd231ps %ymm14, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm14) + ymm0 vfmadd231ps %ymm5, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm5) + ymm2 vfmadd231ps %ymm7, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm7) + ymm1 vfmadd231ps %ymm13, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm13) + ymm0 vbroadcastss %xmm3, %ymm13 vpermps %ymm3, %ymm15, %ymm14 vpermps %ymm3, %ymm16, %ymm3 vmulps %ymm4, %ymm3, %ymm15 vmulps %ymm3, %ymm9, %ymm4 vmulps %ymm3, %ymm12, %ymm3 vfmadd231ps %ymm6, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm6) + ymm15 vfmadd231ps %ymm8, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm8) + ymm4 vfmadd231ps %ymm11, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm11) + ymm3 vfmadd231ps %ymm5, %ymm13, %ymm15 # ymm15 = (ymm13 * ymm5) + ymm15 vfmadd231ps %ymm7, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm7) + ymm4 vbroadcastss 0x261d66(%rip), %ymm7 # 0x1f20ec4 vfmadd231ps %ymm10, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm10) + ymm3 vandps %ymm7, %ymm2, %ymm5 vbroadcastss 0x231e78(%rip), %ymm6 # 0x1ef0fe8 vcmpltps %ymm6, %ymm5, %k1 vmovaps %ymm6, %ymm2 {%k1} vandps %ymm7, %ymm1, %ymm5 vcmpltps %ymm6, %ymm5, %k1 vmovaps %ymm6, %ymm1 {%k1} vandps %ymm7, %ymm0, %ymm5 vcmpltps %ymm6, %ymm5, %k1 vmovaps %ymm6, %ymm0 {%k1} vrcp14ps %ymm2, %ymm5 vbroadcastss 0x22d566(%rip), %ymm6 # 0x1eec714 vfnmadd213ps %ymm6, %ymm5, %ymm2 # ymm2 = -(ymm5 * ymm2) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm2 # ymm2 = (ymm2 * ymm5) + ymm5 vrcp14ps %ymm1, %ymm5 vfnmadd213ps %ymm6, %ymm5, %ymm1 # ymm1 = -(ymm5 * ymm1) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm1 # ymm1 = (ymm1 * ymm5) + ymm5 vrcp14ps %ymm0, %ymm5 vfnmadd213ps %ymm6, %ymm5, %ymm0 # ymm0 = -(ymm5 * ymm0) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm0 # ymm0 = (ymm0 * ymm5) + ymm5 leaq (,%rcx,8), %rdi subq %rcx, %rdi vpmovsxwd 0x6(%r8,%rdi), %ymm5 vcvtdq2ps %ymm5, %ymm5 vsubps %ymm15, %ymm5, %ymm5 vmulps %ymm5, %ymm2, %ymm5 vpmovsxwd 0x6(%r8,%r9), %ymm6 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm15, %ymm6, %ymm6 leaq (%rcx,%rcx), %rdi addq %rcx, %rax shlq $0x3, %rdx subq %rcx, %rdx vpbroadcastd %ecx, %ymm7 shll $0x4, %ecx vpmovsxwd 0x6(%r8,%rcx), %ymm8 vmulps %ymm6, %ymm2, %ymm2 subq %rdi, %rcx vpmovsxwd 0x6(%r8,%rcx), %ymm6 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm4, %ymm6, %ymm6 vmulps %ymm6, %ymm1, %ymm6 vcvtdq2ps %ymm8, %ymm8 vsubps %ymm4, %ymm8, %ymm4 vmulps %ymm4, %ymm1, %ymm1 vpmovsxwd 0x6(%r8,%rax), %ymm4 vcvtdq2ps %ymm4, %ymm4 vsubps %ymm3, %ymm4, %ymm4 vmulps %ymm0, %ymm4, %ymm4 vpmovsxwd 0x6(%r8,%rdx), %ymm8 vcvtdq2ps %ymm8, %ymm8 vsubps %ymm3, %ymm8, %ymm3 vmulps %ymm3, %ymm0, %ymm0 vpminsd %ymm2, %ymm5, %ymm3 vpminsd %ymm1, %ymm6, %ymm8 vmaxps %ymm8, %ymm3, %ymm3 vpminsd %ymm0, %ymm4, %ymm8 vmaxps 0x30(%rsi,%r15,4){1to8}, %ymm8, %ymm8 vmaxps %ymm8, %ymm3, %ymm3 vmulps 0x260c72(%rip){1to8}, %ymm3, %ymm3 # 0x1f1ff10 vpmaxsd %ymm2, %ymm5, %ymm2 vpmaxsd %ymm1, %ymm6, %ymm1 vminps %ymm1, %ymm2, %ymm1 vpmaxsd %ymm0, %ymm4, %ymm0 vminps 0x80(%rsi,%r15,4){1to8}, %ymm0, %ymm0 vminps %ymm0, %ymm1, %ymm0 vmulps 0x260c4d(%rip){1to8}, %ymm0, %ymm0 # 0x1f1ff14 vpcmpgtd 0x29b64f(%rip), %ymm7, %k0 # 0x1f5a920 vmovaps %ymm3, 0x6c0(%rsp) vcmpleps %ymm0, %ymm3, %k1 ktestb %k0, %k1 je 0x1cc1479 kandb %k0, %k1, %k0 kmovd %k0, %eax movzbl %al, %r13d leaq (%r15,%r15,2), %rax shlq $0x4, %rax movq 0xc8(%rsp), %rcx addq %rcx, %rax addq $0x10, %rax movq %rax, 0x258(%rsp) movl $0x1, %eax shlxl %r15d, %eax, %eax kmovd %eax, %k0 vpmovm2d %k0, %xmm0 vmovdqa %xmm0, 0x2f0(%rsp) leaq 0x471032(%rip), %r12 # 0x213036c vmovaps %ymm6, 0x80(%rsp) vmovaps %ymm3, 0x60(%rsp) vmovaps %ymm21, 0x1c0(%rsp) vmovaps %ymm20, 0x1e0(%rsp) tzcntq %r13, %rax movl 0x2(%r8), %ecx movl 0x6(%r8,%rax,4), %edi movq (%r10), %rax movq 0x1e8(%rax), %rax movq %rcx, 0x38(%rsp) movq (%rax,%rcx,8), %r14 movq 0x58(%r14), %rax movq 0x68(%r14), %rcx movq %rcx, %rdx movq %rdi, 0x58(%rsp) imulq %rdi, %rdx movl (%rax,%rdx), %edi movq 0xa0(%r14), %rdx movq %rdx, %r9 imulq %rdi, %r9 movq 0x90(%r14), %r11 vmovaps (%r11,%r9), %xmm13 leaq 0x1(%rdi), %r9 imulq %rdx, %r9 vmovaps (%r11,%r9), %xmm0 vmovaps %xmm0, 0xe0(%rsp) leaq 0x2(%rdi), %r9 imulq %rdx, %r9 vmovaps (%r11,%r9), %xmm0 vmovaps %xmm0, 0xd0(%rsp) blsrq %r13, %r13 addq $0x3, %rdi imulq %rdx, %rdi vmovaps (%r11,%rdi), %xmm0 vmovaps %xmm0, 0x120(%rsp) movq %r13, %rdi subq $0x1, %rdi jb 0x1cbf448 andq %r13, %rdi tzcntq %r13, %r9 movl 0x6(%r8,%r9,4), %r9d imulq %rcx, %r9 movl (%rax,%r9), %r9d imulq %rdx, %r9 prefetcht0 (%r11,%r9) prefetcht0 0x40(%r11,%r9) testq %rdi, %rdi je 0x1cbf448 tzcntq %rdi, %rdi movl 0x6(%r8,%rdi,4), %edi imulq %rdi, %rcx movl (%rax,%rcx), %eax imulq %rax, %rdx prefetcht1 (%r11,%rdx) prefetcht1 0x40(%r11,%rdx) movl 0x248(%r14), %edi vmovss (%rsi,%r15,4), %xmm0 vinsertps $0x1c, 0x10(%rsi,%r15,4), %xmm0, %xmm0 # xmm0 = xmm0[0],mem[0],zero,zero vinsertps $0x28, 0x20(%rsi,%r15,4), %xmm0, %xmm0 # xmm0 = xmm0[0,1],mem[0],zero vsubps %xmm0, %xmm13, %xmm1 vbroadcastss %xmm1, %xmm2 vshufps $0x55, %xmm1, %xmm1, %xmm3 # xmm3 = xmm1[1,1,1,1] vshufps $0xaa, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,2,2,2] movq 0x258(%rsp), %rax vmovaps (%rax), %xmm4 vmovaps 0x10(%rax), %xmm5 vmovaps 0x20(%rax), %xmm6 vmulps %xmm1, %xmm6, %xmm8 vfmadd231ps %xmm3, %xmm5, %xmm8 # xmm8 = (xmm5 * xmm3) + xmm8 vfmadd231ps %xmm2, %xmm4, %xmm8 # xmm8 = (xmm4 * xmm2) + xmm8 vshufps $0xff, %xmm13, %xmm13, %xmm1 # xmm1 = xmm13[3,3,3,3] vmovaps 0xe0(%rsp), %xmm3 vsubps %xmm0, %xmm3, %xmm2 vmovaps %xmm3, %xmm10 vbroadcastss %xmm2, %xmm3 vshufps $0x55, %xmm2, %xmm2, %xmm7 # xmm7 = xmm2[1,1,1,1] vshufps $0xaa, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[2,2,2,2] vmulps %xmm2, %xmm6, %xmm9 vfmadd231ps %xmm7, %xmm5, %xmm9 # xmm9 = (xmm5 * xmm7) + xmm9 vfmadd231ps %xmm3, %xmm4, %xmm9 # xmm9 = (xmm4 * xmm3) + xmm9 vshufps $0xff, %xmm10, %xmm10, %xmm2 # xmm2 = xmm10[3,3,3,3] vmovaps 0xd0(%rsp), %xmm7 vsubps %xmm0, %xmm7, %xmm3 vmovaps %xmm7, %xmm12 vbroadcastss %xmm3, %xmm7 vshufps $0x55, %xmm3, %xmm3, %xmm11 # xmm11 = xmm3[1,1,1,1] vshufps $0xaa, %xmm3, %xmm3, %xmm3 # xmm3 = xmm3[2,2,2,2] vmulps %xmm3, %xmm6, %xmm10 vfmadd231ps %xmm11, %xmm5, %xmm10 # xmm10 = (xmm5 * xmm11) + xmm10 vfmadd231ps %xmm7, %xmm4, %xmm10 # xmm10 = (xmm4 * xmm7) + xmm10 vshufps $0xff, %xmm12, %xmm12, %xmm7 # xmm7 = xmm12[3,3,3,3] vmovaps 0x120(%rsp), %xmm26 vsubps %xmm0, %xmm26, %xmm0 vbroadcastss %xmm0, %xmm3 vshufps $0x55, %xmm0, %xmm0, %xmm12 # xmm12 = xmm0[1,1,1,1] vshufps $0xaa, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[2,2,2,2] vmulps %xmm0, %xmm6, %xmm11 vfmadd231ps %xmm12, %xmm5, %xmm11 # xmm11 = (xmm5 * xmm12) + xmm11 vfmadd231ps %xmm3, %xmm4, %xmm11 # xmm11 = (xmm4 * xmm3) + xmm11 movslq %edi, %rax movq %rax, %rcx shlq $0x6, %rcx leaq (%rcx,%rax,4), %rbx vmovups (%r12,%rbx), %ymm25 vshufps $0xff, %xmm26, %xmm26, %xmm0 # xmm0 = xmm26[3,3,3,3] vbroadcastss %xmm8, %ymm20 vbroadcastss 0x2531a4(%rip), %ymm4 # 0x1f12704 vpermps %ymm8, %ymm4, %ymm23 vbroadcastsd %xmm1, %ymm3 vmovups 0x484(%r12,%rbx), %ymm14 vbroadcastss %xmm9, %ymm1 vpermps %ymm9, %ymm4, %ymm27 vbroadcastsd %xmm2, %ymm12 vmovups 0x908(%r12,%rbx), %ymm15 vbroadcastss %xmm10, %ymm31 vpermps %ymm10, %ymm4, %ymm30 vbroadcastsd %xmm7, %ymm21 vmovups 0xd8c(%r12,%rbx), %ymm16 vbroadcastss %xmm11, %ymm28 vpermps %ymm11, %ymm4, %ymm29 vbroadcastsd %xmm0, %ymm22 vmulps %ymm16, %ymm28, %ymm5 vmulps %ymm16, %ymm29, %ymm4 vfmadd231ps %ymm31, %ymm15, %ymm5 # ymm5 = (ymm15 * ymm31) + ymm5 vfmadd231ps %ymm30, %ymm15, %ymm4 # ymm4 = (ymm15 * ymm30) + ymm4 vfmadd231ps %ymm1, %ymm14, %ymm5 # ymm5 = (ymm14 * ymm1) + ymm5 vfmadd231ps %ymm27, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm27) + ymm4 vfmadd231ps %ymm20, %ymm25, %ymm5 # ymm5 = (ymm25 * ymm20) + ymm5 leaq 0x47319e(%rip), %rdx # 0x213278c vmovups (%rdx,%rbx), %ymm2 vmovups 0x484(%rdx,%rbx), %ymm17 vfmadd231ps %ymm23, %ymm25, %ymm4 # ymm4 = (ymm25 * ymm23) + ymm4 vmovups 0x908(%rdx,%rbx), %ymm18 vmovups 0xd8c(%rdx,%rbx), %ymm19 vmulps %ymm19, %ymm28, %ymm7 vmulps %ymm19, %ymm29, %ymm6 vfmadd231ps %ymm31, %ymm18, %ymm7 # ymm7 = (ymm18 * ymm31) + ymm7 vfmadd231ps %ymm30, %ymm18, %ymm6 # ymm6 = (ymm18 * ymm30) + ymm6 vmovaps %ymm1, 0x140(%rsp) vfmadd231ps %ymm1, %ymm17, %ymm7 # ymm7 = (ymm17 * ymm1) + ymm7 vfmadd231ps %ymm27, %ymm17, %ymm6 # ymm6 = (ymm17 * ymm27) + ymm6 vmovaps %ymm20, 0x2a0(%rsp) vfmadd231ps %ymm20, %ymm2, %ymm7 # ymm7 = (ymm2 * ymm20) + ymm7 vmovaps %ymm23, 0x280(%rsp) vfmadd231ps %ymm23, %ymm2, %ymm6 # ymm6 = (ymm2 * ymm23) + ymm6 vsubps %ymm5, %ymm7, %ymm24 vsubps %ymm4, %ymm6, %ymm23 vmulps %ymm24, %ymm4, %ymm0 vmulps %ymm23, %ymm5, %ymm1 vsubps %ymm1, %ymm0, %ymm20 vmulps %ymm16, %ymm22, %ymm0 vfmadd231ps %ymm21, %ymm15, %ymm0 # ymm0 = (ymm15 * ymm21) + ymm0 vfmadd231ps %ymm12, %ymm14, %ymm0 # ymm0 = (ymm14 * ymm12) + ymm0 vfmadd231ps %ymm3, %ymm25, %ymm0 # ymm0 = (ymm25 * ymm3) + ymm0 vmovaps %ymm22, 0x600(%rsp) vmulps %ymm19, %ymm22, %ymm1 vmovaps %ymm21, 0x620(%rsp) vfmadd231ps %ymm21, %ymm18, %ymm1 # ymm1 = (ymm18 * ymm21) + ymm1 vmovaps %ymm12, 0x680(%rsp) vfmadd231ps %ymm12, %ymm17, %ymm1 # ymm1 = (ymm17 * ymm12) + ymm1 vmovaps %ymm3, 0x6a0(%rsp) vfmadd231ps %ymm3, %ymm2, %ymm1 # ymm1 = (ymm2 * ymm3) + ymm1 vmulps %ymm23, %ymm23, %ymm21 vfmadd231ps %ymm24, %ymm24, %ymm21 # ymm21 = (ymm24 * ymm24) + ymm21 vmaxps %ymm1, %ymm0, %ymm22 vmulps %ymm22, %ymm22, %ymm22 vmulps %ymm21, %ymm22, %ymm21 vmulps %ymm20, %ymm20, %ymm20 vcmpleps %ymm21, %ymm20, %k1 vmovaps %xmm13, 0x40(%rsp) vblendps $0x8, %xmm13, %xmm8, %xmm12 # xmm12 = xmm8[0,1,2],xmm13[3] vbroadcastss 0x2617b2(%rip), %xmm20 # 0x1f20ec4 vandps %xmm20, %xmm12, %xmm12 vblendps $0x8, 0xe0(%rsp), %xmm9, %xmm13 # xmm13 = xmm9[0,1,2],mem[3] vandps %xmm20, %xmm13, %xmm13 vmaxps %xmm13, %xmm12, %xmm12 vblendps $0x8, 0xd0(%rsp), %xmm10, %xmm13 # xmm13 = xmm10[0,1,2],mem[3] vandps %xmm20, %xmm13, %xmm13 vmovaps %xmm26, %xmm3 vblendps $0x8, %xmm3, %xmm11, %xmm3 # xmm3 = xmm11[0,1,2],xmm3[3] vandps %xmm20, %xmm3, %xmm3 vmaxps %xmm3, %xmm13, %xmm3 vmaxps %xmm3, %xmm12, %xmm3 vmovshdup %xmm3, %xmm12 # xmm12 = xmm3[1,1,3,3] vmaxss %xmm3, %xmm12, %xmm12 vshufpd $0x1, %xmm3, %xmm3, %xmm3 # xmm3 = xmm3[1,0] vmaxss %xmm12, %xmm3, %xmm3 vcvtsi2ss %edi, %xmm8, %xmm12 vmovaps %xmm12, 0x320(%rsp) vbroadcastss %xmm12, %ymm12 vcmpgtps 0x2617b8(%rip), %ymm12, %k1 {%k1} # 0x1f20f40 vmulss 0x231852(%rip), %xmm3, %xmm26 # 0x1ef0fe4 vbroadcastss 0x261741(%rip), %ymm3 # 0x1f20edc vpermps %ymm8, %ymm3, %ymm20 vpermps %ymm9, %ymm3, %ymm21 vpermps %ymm10, %ymm3, %ymm22 vpermps %ymm11, %ymm3, %ymm3 kortestb %k1, %k1 vmovss 0x30(%rsi,%r15,4), %xmm10 vmovaps %ymm27, 0x560(%rsp) vmovaps %ymm31, 0x660(%rsp) vmovaps %ymm30, 0x640(%rsp) vmovaps %ymm20, 0x5e0(%rsp) vmovaps %ymm21, 0x5c0(%rsp) vmovaps %ymm22, 0x5a0(%rsp) vmovaps %ymm3, 0x580(%rsp) je 0x1cbffb5 vmovaps %xmm10, 0x260(%rsp) vmovaps %xmm26, 0x2c0(%rsp) vmovaps %ymm3, %ymm26 vmulps %ymm19, %ymm3, %ymm3 vfmadd213ps %ymm3, %ymm22, %ymm18 # ymm18 = (ymm22 * ymm18) + ymm3 vfmadd213ps %ymm18, %ymm21, %ymm17 # ymm17 = (ymm21 * ymm17) + ymm18 vfmadd213ps %ymm17, %ymm20, %ymm2 # ymm2 = (ymm20 * ymm2) + ymm17 vmulps %ymm16, %ymm26, %ymm3 vfmadd213ps %ymm3, %ymm22, %ymm15 # ymm15 = (ymm22 * ymm15) + ymm3 vfmadd213ps %ymm15, %ymm21, %ymm14 # ymm14 = (ymm21 * ymm14) + ymm15 vmovups 0x1210(%r12,%rbx), %ymm3 vmovups 0x1694(%r12,%rbx), %ymm10 vmovups 0x1b18(%r12,%rbx), %ymm11 vmovups 0x1f9c(%r12,%rbx), %ymm12 vfmadd213ps %ymm14, %ymm20, %ymm25 # ymm25 = (ymm20 * ymm25) + ymm14 vmulps %ymm12, %ymm28, %ymm9 vmulps %ymm12, %ymm29, %ymm8 vmulps %ymm12, %ymm26, %ymm12 vfmadd231ps %ymm31, %ymm11, %ymm9 # ymm9 = (ymm11 * ymm31) + ymm9 vfmadd231ps %ymm30, %ymm11, %ymm8 # ymm8 = (ymm11 * ymm30) + ymm8 vfmadd231ps %ymm11, %ymm22, %ymm12 # ymm12 = (ymm22 * ymm11) + ymm12 vmovaps 0x140(%rsp), %ymm19 vfmadd231ps %ymm19, %ymm10, %ymm9 # ymm9 = (ymm10 * ymm19) + ymm9 vfmadd231ps %ymm27, %ymm10, %ymm8 # ymm8 = (ymm10 * ymm27) + ymm8 vfmadd231ps %ymm10, %ymm21, %ymm12 # ymm12 = (ymm21 * ymm10) + ymm12 vmovaps 0x2a0(%rsp), %ymm17 vfmadd231ps %ymm17, %ymm3, %ymm9 # ymm9 = (ymm3 * ymm17) + ymm9 vmovaps 0x280(%rsp), %ymm18 vfmadd231ps %ymm18, %ymm3, %ymm8 # ymm8 = (ymm3 * ymm18) + ymm8 vmovups 0x1210(%rdx,%rbx), %ymm10 vmovups 0x1b18(%rdx,%rbx), %ymm11 vmovups 0x1f9c(%rdx,%rbx), %ymm13 vfmadd231ps %ymm3, %ymm20, %ymm12 # ymm12 = (ymm20 * ymm3) + ymm12 vmovaps %ymm28, 0x1a0(%rsp) vmulps %ymm13, %ymm28, %ymm3 vmovaps %ymm29, 0x180(%rsp) vmulps %ymm13, %ymm29, %ymm14 vmulps %ymm13, %ymm26, %ymm13 vmovaps 0x2c0(%rsp), %xmm26 vfmadd231ps %ymm31, %ymm11, %ymm3 # ymm3 = (ymm11 * ymm31) + ymm3 vfmadd231ps %ymm30, %ymm11, %ymm14 # ymm14 = (ymm11 * ymm30) + ymm14 vfmadd231ps %ymm11, %ymm22, %ymm13 # ymm13 = (ymm22 * ymm11) + ymm13 vmovups 0x1694(%rdx,%rbx), %ymm11 vfmadd231ps %ymm19, %ymm11, %ymm3 # ymm3 = (ymm11 * ymm19) + ymm3 vfmadd231ps %ymm27, %ymm11, %ymm14 # ymm14 = (ymm11 * ymm27) + ymm14 vfmadd231ps %ymm11, %ymm21, %ymm13 # ymm13 = (ymm21 * ymm11) + ymm13 vfmadd231ps %ymm17, %ymm10, %ymm3 # ymm3 = (ymm10 * ymm17) + ymm3 vfmadd231ps %ymm18, %ymm10, %ymm14 # ymm14 = (ymm10 * ymm18) + ymm14 vfmadd231ps %ymm10, %ymm20, %ymm13 # ymm13 = (ymm20 * ymm10) + ymm13 vbroadcastss 0x26156c(%rip), %ymm15 # 0x1f20ec4 vandps %ymm15, %ymm9, %ymm10 vandps %ymm15, %ymm8, %ymm11 vmaxps %ymm11, %ymm10, %ymm10 vandps %ymm15, %ymm12, %ymm11 vmaxps %ymm11, %ymm10, %ymm10 vbroadcastss %xmm26, %ymm11 vcmpltps %ymm11, %ymm10, %k2 vmovaps %ymm24, %ymm9 {%k2} vmovaps %ymm23, %ymm8 {%k2} vandps %ymm3, %ymm15, %ymm10 vandps %ymm15, %ymm14, %ymm12 vmaxps %ymm12, %ymm10, %ymm10 vandps %ymm15, %ymm13, %ymm12 vmaxps %ymm12, %ymm10, %ymm10 vcmpltps %ymm11, %ymm10, %k2 vmovaps %ymm24, %ymm3 {%k2} vmovaps %ymm23, %ymm14 {%k2} vbroadcastss 0x261502(%rip), %ymm11 # 0x1f20ec0 vxorps %ymm11, %ymm9, %ymm10 vxorps %ymm3, %ymm11, %ymm12 vxorps %xmm27, %xmm27, %xmm27 vfmadd213ps %ymm27, %ymm9, %ymm9 # ymm9 = (ymm9 * ymm9) + ymm27 vfmadd231ps %ymm8, %ymm8, %ymm9 # ymm9 = (ymm8 * ymm8) + ymm9 vrsqrt14ps %ymm9, %ymm11 vbroadcastss 0x22cd35(%rip), %ymm15 # 0x1eec71c vmulps %ymm15, %ymm9, %ymm9 vmulps %ymm9, %ymm11, %ymm9 vmulps %ymm11, %ymm11, %ymm13 vmulps %ymm9, %ymm13, %ymm9 vbroadcastss 0x22cd13(%rip), %ymm16 # 0x1eec718 vfmadd231ps %ymm11, %ymm16, %ymm9 # ymm9 = (ymm16 * ymm11) + ymm9 vmulps %ymm9, %ymm8, %ymm11 vmulps %ymm10, %ymm9, %ymm10 vmulps %ymm27, %ymm9, %ymm13 vfmadd213ps %ymm27, %ymm3, %ymm3 # ymm3 = (ymm3 * ymm3) + ymm27 vfmadd231ps %ymm14, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm14) + ymm3 vrsqrt14ps %ymm3, %ymm8 vmulps %ymm3, %ymm15, %ymm3 vmulps %ymm3, %ymm8, %ymm3 vmulps %ymm8, %ymm8, %ymm9 vmulps %ymm3, %ymm9, %ymm3 vfmadd231ps %ymm8, %ymm16, %ymm3 # ymm3 = (ymm16 * ymm8) + ymm3 vmulps %ymm3, %ymm14, %ymm8 vmulps %ymm3, %ymm12, %ymm9 vmulps %ymm27, %ymm3, %ymm3 vmovaps %ymm11, %ymm12 vfmadd213ps %ymm5, %ymm0, %ymm12 # ymm12 = (ymm0 * ymm12) + ymm5 vmovaps %ymm10, %ymm14 vfmadd213ps %ymm4, %ymm0, %ymm14 # ymm14 = (ymm0 * ymm14) + ymm4 vmovaps %ymm13, %ymm15 vfmadd213ps %ymm25, %ymm0, %ymm15 # ymm15 = (ymm0 * ymm15) + ymm25 vmovaps %ymm8, %ymm16 vfmadd213ps %ymm7, %ymm1, %ymm16 # ymm16 = (ymm1 * ymm16) + ymm7 vfnmadd213ps %ymm5, %ymm0, %ymm11 # ymm11 = -(ymm0 * ymm11) + ymm5 vmovaps %ymm9, %ymm5 vfmadd213ps %ymm6, %ymm1, %ymm5 # ymm5 = (ymm1 * ymm5) + ymm6 vfnmadd213ps %ymm4, %ymm0, %ymm10 # ymm10 = -(ymm0 * ymm10) + ymm4 vmovaps %ymm3, %ymm4 vfmadd213ps %ymm2, %ymm1, %ymm4 # ymm4 = (ymm1 * ymm4) + ymm2 vfnmadd231ps %ymm13, %ymm0, %ymm25 # ymm25 = -(ymm0 * ymm13) + ymm25 vfnmadd213ps %ymm7, %ymm1, %ymm8 # ymm8 = -(ymm1 * ymm8) + ymm7 vfnmadd213ps %ymm6, %ymm1, %ymm9 # ymm9 = -(ymm1 * ymm9) + ymm6 vfnmadd231ps %ymm3, %ymm1, %ymm2 # ymm2 = -(ymm1 * ymm3) + ymm2 vsubps %ymm11, %ymm16, %ymm3 vsubps %ymm10, %ymm5, %ymm6 vsubps %ymm25, %ymm4, %ymm7 vmulps %ymm25, %ymm6, %ymm13 vfmsub231ps %ymm7, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm7) - ymm13 vmulps %ymm7, %ymm11, %ymm7 vfmsub231ps %ymm3, %ymm25, %ymm7 # ymm7 = (ymm25 * ymm3) - ymm7 vmulps %ymm3, %ymm10, %ymm3 vfmsub231ps %ymm6, %ymm11, %ymm3 # ymm3 = (ymm11 * ymm6) - ymm3 vfmadd231ps %ymm7, %ymm27, %ymm3 # ymm3 = (ymm27 * ymm7) + ymm3 vfmadd231ps %ymm13, %ymm27, %ymm3 # ymm3 = (ymm27 * ymm13) + ymm3 vcmpleps %ymm27, %ymm3, %k2 vmovaps %ymm12, %ymm8 {%k2} vmovaps %ymm14, %ymm9 {%k2} vmovaps %ymm15, %ymm2 {%k2} vblendmps %ymm16, %ymm11, %ymm13 {%k2} vblendmps %ymm5, %ymm10, %ymm14 {%k2} vblendmps %ymm4, %ymm25, %ymm15 {%k2} vmovaps %ymm11, %ymm16 {%k2} vmovaps %ymm10, %ymm5 {%k2} vmovaps %ymm25, %ymm4 {%k2} vsubps %ymm8, %ymm16, %ymm6 vsubps %ymm9, %ymm5, %ymm5 vsubps %ymm2, %ymm4, %ymm11 vsubps %ymm13, %ymm8, %ymm7 vsubps %ymm14, %ymm9, %ymm10 vsubps %ymm15, %ymm2, %ymm12 vmulps %ymm8, %ymm11, %ymm4 vfmsub231ps %ymm6, %ymm2, %ymm4 # ymm4 = (ymm2 * ymm6) - ymm4 vmulps %ymm6, %ymm9, %ymm3 vfmsub231ps %ymm5, %ymm8, %ymm3 # ymm3 = (ymm8 * ymm5) - ymm3 vfmadd231ps %ymm4, %ymm27, %ymm3 # ymm3 = (ymm27 * ymm4) + ymm3 vmulps %ymm2, %ymm5, %ymm4 vfmsub231ps %ymm11, %ymm9, %ymm4 # ymm4 = (ymm9 * ymm11) - ymm4 vfmadd231ps %ymm4, %ymm27, %ymm3 # ymm3 = (ymm27 * ymm4) + ymm3 vmulps %ymm13, %ymm12, %ymm16 vfmsub231ps %ymm15, %ymm7, %ymm16 # ymm16 = (ymm7 * ymm15) - ymm16 vmulps %ymm15, %ymm10, %ymm15 vfmsub231ps %ymm12, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm12) - ymm15 vmulps %ymm7, %ymm14, %ymm4 vfmsub231ps %ymm13, %ymm10, %ymm4 # ymm4 = (ymm10 * ymm13) - ymm4 vfmadd231ps %ymm16, %ymm27, %ymm4 # ymm4 = (ymm27 * ymm16) + ymm4 vfmadd231ps %ymm15, %ymm27, %ymm4 # ymm4 = (ymm27 * ymm15) + ymm4 vmaxps %ymm4, %ymm3, %ymm13 vcmpleps %ymm27, %ymm13, %k0 {%k1} kortestb %k0, %k0 vmovaps 0x1e0(%rsp), %ymm20 vmovaps 0x1c0(%rsp), %ymm21 vmovaps %ymm17, %ymm22 vmovaps %ymm19, %ymm17 je 0x1cc0f10 vmulps %ymm5, %ymm12, %ymm13 vfmsub231ps %ymm11, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm11) - ymm13 vmulps %ymm7, %ymm11, %ymm11 vfmsub231ps %ymm12, %ymm6, %ymm11 # ymm11 = (ymm6 * ymm12) - ymm11 vmulps %ymm6, %ymm10, %ymm10 vfmsub231ps %ymm5, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm5) - ymm10 vxorps %xmm6, %xmm6, %xmm6 vfmadd213ps %ymm10, %ymm11, %ymm6 # ymm6 = (ymm11 * ymm6) + ymm10 vfmadd231ps %ymm27, %ymm13, %ymm6 # ymm6 = (ymm13 * ymm27) + ymm6 vrcp14ps %ymm6, %ymm7 vmovaps %ymm7, %ymm5 vfnmadd213ps 0x22cb0f(%rip){1to8}, %ymm6, %ymm5 # ymm5 = -(ymm6 * ymm5) + mem vfmadd132ps %ymm7, %ymm7, %ymm5 # ymm5 = (ymm5 * ymm7) + ymm7 vmulps %ymm2, %ymm10, %ymm2 vfmadd231ps %ymm11, %ymm9, %ymm2 # ymm2 = (ymm9 * ymm11) + ymm2 vfmadd231ps %ymm13, %ymm8, %ymm2 # ymm2 = (ymm8 * ymm13) + ymm2 vmulps %ymm5, %ymm2, %ymm2 vmovaps 0x260(%rsp), %xmm10 vbroadcastss %xmm10, %ymm7 vcmpleps %ymm2, %ymm7, %k1 vcmpleps 0x80(%rsi,%r15,4){1to8}, %ymm2, %k1 {%k1} kandb %k0, %k1, %k0 kortestb %k0, %k0 vmovaps 0x1a0(%rsp), %ymm28 vmovaps 0x180(%rsp), %ymm29 je 0x1cc0f46 vcmpneqps %ymm27, %ymm6, %k1 ktestb %k1, %k0 vmovaps 0x40(%rsp), %xmm9 je 0x1cc0f63 kandb %k1, %k0, %k0 kmovd %k0, %eax vmulps %ymm5, %ymm3, %ymm3 vmulps %ymm5, %ymm4, %ymm4 vbroadcastss 0x22ca8c(%rip), %ymm5 # 0x1eec714 vsubps %ymm3, %ymm5, %ymm6 vmovaps %ymm3, %ymm6 {%k2} vsubps %ymm4, %ymm5, %ymm3 vmovaps %ymm4, %ymm3 {%k2} vmovaps %ymm3, 0x520(%rsp) movzbl %al, %r12d vmovaps %ymm2, %ymm3 testw %r12w, %r12w je 0x1cbffac vsubps %ymm0, %ymm1, %ymm1 vfmadd213ps %ymm0, %ymm6, %ymm1 # ymm1 = (ymm6 * ymm1) + ymm0 vaddps %ymm1, %ymm1, %ymm0 movq 0xc8(%rsp), %rax vmulps (%rax,%r15,4){1to8}, %ymm0, %ymm0 vcmpnleps %ymm0, %ymm3, %k0 kmovd %k0, %eax andb %al, %r12b je 0x1cbffac vbroadcastss 0x230cdc(%rip), %ymm0 # 0x1ef09cc vmovaps 0x520(%rsp), %ymm1 vfmadd132ps 0x2312f5(%rip){1to8}, %ymm0, %ymm1 # ymm1 = (ymm1 * mem) + ymm0 vmovaps %ymm6, 0x340(%rsp) vmovaps %ymm1, 0x520(%rsp) vmovaps %ymm1, 0x360(%rsp) vmovaps %ymm3, 0x380(%rsp) movl $0x0, 0x3a0(%rsp) movl %edi, 0x3a4(%rsp) vmovaps %xmm9, 0x3b0(%rsp) vmovaps 0xe0(%rsp), %xmm0 vmovaps %xmm0, 0x3c0(%rsp) vmovaps 0xd0(%rsp), %xmm0 vmovaps %xmm0, 0x3d0(%rsp) vmovdqa 0x120(%rsp), %xmm0 vmovdqa %xmm0, 0x3e0(%rsp) movb %r12b, 0x3f0(%rsp) movl 0x90(%rsi,%r15,4), %eax testl %eax, 0x34(%r14) je 0x1cbffac vaddps 0x2611a6(%rip), %ymm6, %ymm0 # 0x1f20f40 vmovss 0x22c972(%rip), %xmm1 # 0x1eec714 vdivss 0x320(%rsp), %xmm1, %xmm1 vbroadcastss %xmm1, %ymm1 vmulps %ymm0, %ymm1, %ymm0 vmovaps %ymm0, 0x400(%rsp) vmovaps 0x520(%rsp), %ymm0 vmovaps %ymm0, 0x420(%rsp) vmovaps %ymm3, 0x440(%rsp) kmovd %r12d, %k1 vbroadcastss 0x22bc3a(%rip), %ymm0 # 0x1eeba20 vblendmps %ymm3, %ymm0, %ymm0 {%k1} vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm0, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1] vminps %ymm2, %ymm1, %ymm1 vcmpeqps %ymm1, %ymm0, %k0 kmovd %k0, %eax andb %r12b, %al movzbl %al, %eax movzbl %r12b, %ecx cmovnel %eax, %ecx tzcntl %ecx, %r9d movq 0x10(%r10), %rax cmpq $0x0, 0x10(%rax) vmovaps %ymm6, 0x80(%rsp) vmovaps %ymm3, 0x60(%rsp) jne 0x1cc0f7a cmpq $0x0, 0x40(%r14) jne 0x1cc0f7a vmovss 0x400(%rsp,%r9,4), %xmm0 vmovss 0x420(%rsp,%r9,4), %xmm1 vmovss 0x22c8aa(%rip), %xmm2 # 0x1eec714 vsubss %xmm0, %xmm2, %xmm2 vaddss %xmm2, %xmm2, %xmm3 vmulss %xmm3, %xmm0, %xmm4 vfnmadd231ss %xmm2, %xmm2, %xmm4 # xmm4 = -(xmm2 * xmm2) + xmm4 vaddss %xmm0, %xmm0, %xmm5 vmovss 0x231165(%rip), %xmm8 # 0x1ef0fec vmovaps %xmm8, %xmm6 vfmadd213ss 0x231170(%rip), %xmm0, %xmm6 # xmm6 = (xmm0 * xmm6) + mem vmulss %xmm0, %xmm8, %xmm7 vmulss %xmm7, %xmm0, %xmm7 vfmadd231ss %xmm6, %xmm5, %xmm7 # xmm7 = (xmm5 * xmm6) + xmm7 vmovaps %xmm8, %xmm5 vfmadd213ss 0x23114a(%rip), %xmm0, %xmm5 # xmm5 = (xmm0 * xmm5) + mem vmulss 0x23113a(%rip), %xmm2, %xmm6 # 0x1ef0ff0 vmulss %xmm6, %xmm2, %xmm6 vfmadd231ss %xmm5, %xmm3, %xmm6 # xmm6 = (xmm3 * xmm5) + xmm6 vmulss 0x230b15(%rip), %xmm2, %xmm2 # 0x1ef09dc vmulss %xmm0, %xmm0, %xmm3 vfmadd231ss %xmm2, %xmm0, %xmm3 # xmm3 = (xmm0 * xmm2) + xmm3 vmovss 0x22cca8(%rip), %xmm8 # 0x1eecb80 vmulss %xmm4, %xmm8, %xmm2 vmulss %xmm7, %xmm8, %xmm4 vmulss %xmm6, %xmm8, %xmm5 vmulss %xmm3, %xmm8, %xmm3 vbroadcastss %xmm3, %xmm3 vmulps 0x120(%rsp), %xmm3, %xmm3 vbroadcastss %xmm5, %xmm5 vfmadd132ps 0xd0(%rsp), %xmm3, %xmm5 # xmm5 = (xmm5 * mem) + xmm3 vbroadcastss %xmm4, %xmm3 vfmadd132ps 0xe0(%rsp), %xmm5, %xmm3 # xmm3 = (xmm3 * mem) + xmm5 vmovaps 0x80(%rsp), %ymm6 vbroadcastss %xmm2, %xmm2 vfmadd213ps %xmm3, %xmm9, %xmm2 # xmm2 = (xmm9 * xmm2) + xmm3 vmovss 0x440(%rsp,%r9,4), %xmm3 vmovss %xmm3, 0x80(%rsi,%r15,4) vmovaps 0x60(%rsp), %ymm3 vmovss %xmm2, 0xc0(%rsi,%r15,4) vextractps $0x1, %xmm2, 0xd0(%rsi,%r15,4) vextractps $0x2, %xmm2, 0xe0(%rsi,%r15,4) vmovss %xmm0, 0xf0(%rsi,%r15,4) vmovss %xmm1, 0x100(%rsi,%r15,4) movq 0x58(%rsp), %rax movl %eax, 0x110(%rsi,%r15,4) movq 0x38(%rsp), %rax movl %eax, 0x120(%rsi,%r15,4) movq 0x8(%r10), %rax movl (%rax), %eax movl %eax, 0x130(%rsi,%r15,4) movq 0x8(%r10), %rax movl 0x4(%rax), %eax movl %eax, 0x140(%rsi,%r15,4) leaq 0x4703b9(%rip), %r12 # 0x213036c jmp 0x1cbfff2 vxorps %xmm27, %xmm27, %xmm27 vmovaps 0x80(%rsp), %ymm6 vmovaps 0x1e0(%rsp), %ymm20 vmovaps 0x60(%rsp), %ymm3 vmovaps 0x1c0(%rsp), %ymm21 vmovaps 0x2a0(%rsp), %ymm22 vmovaps 0x280(%rsp), %ymm18 vmovaps 0x140(%rsp), %ymm17 cmpl $0x9, %edi jge 0x1cc001b vmovaps 0x6c0(%rsp), %ymm0 vcmpleps 0x80(%rsi,%r15,4){1to8}, %ymm0, %k0 kmovb %k0, %eax andl %eax, %r13d jne 0x1cbf33a jmp 0x1cc1479 vpbroadcastd %edi, %ymm0 vmovdqa %ymm0, 0x2c0(%rsp) vbroadcastss %xmm26, %ymm0 vmovaps %ymm0, 0x260(%rsp) vbroadcastss %xmm10, %ymm0 vmovaps %ymm0, 0x300(%rsp) vmovss 0x22c6c5(%rip), %xmm0 # 0x1eec714 vdivss 0x320(%rsp), %xmm0, %xmm0 vbroadcastss %xmm0, %ymm0 vmovaps %ymm0, 0x320(%rsp) movq 0x38(%rsp), %rax vpbroadcastd %eax, %xmm0 vmovdqa %xmm0, 0x240(%rsp) movq 0x58(%rsp), %rax vpbroadcastd %eax, %xmm0 vmovdqa %xmm0, 0x230(%rsp) movl $0x8, %r14d vmovaps %ymm6, 0x80(%rsp) vmovaps %ymm3, 0x60(%rsp) vpbroadcastd %r14d, %ymm0 vpor 0x29a86f(%rip), %ymm0, %ymm0 # 0x1f5a920 vpcmpltd 0x2c0(%rsp), %ymm0, %k1 leaq (%rbx,%r12), %rcx vmovups (%rcx,%r14,4), %ymm3 vmovups 0x484(%rcx,%r14,4), %ymm10 vmovups 0x908(%rcx,%r14,4), %ymm11 vmovups 0xd8c(%rcx,%r14,4), %ymm12 vmulps %ymm12, %ymm28, %ymm5 vmulps %ymm12, %ymm29, %ymm4 vmovaps 0x600(%rsp), %ymm1 vmulps %ymm1, %ymm12, %ymm0 vmovaps 0x660(%rsp), %ymm19 vfmadd231ps %ymm19, %ymm11, %ymm5 # ymm5 = (ymm11 * ymm19) + ymm5 vmovaps 0x640(%rsp), %ymm26 vfmadd231ps %ymm26, %ymm11, %ymm4 # ymm4 = (ymm11 * ymm26) + ymm4 vmovaps 0x620(%rsp), %ymm16 vfmadd231ps %ymm16, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm16) + ymm0 vfmadd231ps %ymm17, %ymm10, %ymm5 # ymm5 = (ymm10 * ymm17) + ymm5 vmovaps 0x560(%rsp), %ymm25 vfmadd231ps %ymm25, %ymm10, %ymm4 # ymm4 = (ymm10 * ymm25) + ymm4 vmovaps 0x680(%rsp), %ymm9 vfmadd231ps %ymm9, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm9) + ymm0 vfmadd231ps %ymm22, %ymm3, %ymm5 # ymm5 = (ymm3 * ymm22) + ymm5 vfmadd231ps %ymm18, %ymm3, %ymm4 # ymm4 = (ymm3 * ymm18) + ymm4 leaq (%rbx,%rdx), %rax vmovups (%rax,%r14,4), %ymm2 vmovups 0x484(%rax,%r14,4), %ymm13 vmovaps 0x6a0(%rsp), %ymm8 vfmadd231ps %ymm8, %ymm3, %ymm0 # ymm0 = (ymm3 * ymm8) + ymm0 vmovups 0x908(%rax,%r14,4), %ymm14 vmovups 0xd8c(%rax,%r14,4), %ymm15 vmulps %ymm15, %ymm28, %ymm7 vmulps %ymm15, %ymm29, %ymm6 vmulps %ymm1, %ymm15, %ymm1 vfmadd231ps %ymm19, %ymm14, %ymm7 # ymm7 = (ymm14 * ymm19) + ymm7 vfmadd231ps %ymm26, %ymm14, %ymm6 # ymm6 = (ymm14 * ymm26) + ymm6 vfmadd231ps %ymm16, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm16) + ymm1 vfmadd231ps %ymm17, %ymm13, %ymm7 # ymm7 = (ymm13 * ymm17) + ymm7 vfmadd231ps %ymm25, %ymm13, %ymm6 # ymm6 = (ymm13 * ymm25) + ymm6 vfmadd231ps %ymm9, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm9) + ymm1 vfmadd231ps %ymm22, %ymm2, %ymm7 # ymm7 = (ymm2 * ymm22) + ymm7 vfmadd231ps %ymm18, %ymm2, %ymm6 # ymm6 = (ymm2 * ymm18) + ymm6 vfmadd231ps %ymm8, %ymm2, %ymm1 # ymm1 = (ymm2 * ymm8) + ymm1 vmaxps %ymm1, %ymm0, %ymm16 vsubps %ymm5, %ymm7, %ymm9 vsubps %ymm4, %ymm6, %ymm8 vmovaps %ymm17, %ymm24 vmulps %ymm9, %ymm4, %ymm17 vmovaps %ymm18, %ymm23 vmulps %ymm8, %ymm5, %ymm18 vsubps %ymm18, %ymm17, %ymm17 vmulps %ymm8, %ymm8, %ymm18 vfmadd231ps %ymm9, %ymm9, %ymm18 # ymm18 = (ymm9 * ymm9) + ymm18 vmulps %ymm16, %ymm16, %ymm16 vmulps %ymm18, %ymm16, %ymm16 vmulps %ymm17, %ymm17, %ymm17 vcmpleps %ymm16, %ymm17, %k1 {%k1} kortestb %k1, %k1 je 0x1cc09cd vmovaps %ymm23, %ymm16 vmovaps 0x580(%rsp), %ymm23 vmulps %ymm15, %ymm23, %ymm15 vmovaps 0x5a0(%rsp), %ymm31 vfmadd213ps %ymm15, %ymm31, %ymm14 # ymm14 = (ymm31 * ymm14) + ymm15 vmovaps 0x5c0(%rsp), %ymm30 vfmadd213ps %ymm14, %ymm30, %ymm13 # ymm13 = (ymm30 * ymm13) + ymm14 vmovaps 0x5e0(%rsp), %ymm18 vfmadd213ps %ymm13, %ymm18, %ymm2 # ymm2 = (ymm18 * ymm2) + ymm13 vmulps %ymm12, %ymm23, %ymm12 vfmadd213ps %ymm12, %ymm31, %ymm11 # ymm11 = (ymm31 * ymm11) + ymm12 vfmadd213ps %ymm11, %ymm30, %ymm10 # ymm10 = (ymm30 * ymm10) + ymm11 vfmadd213ps %ymm10, %ymm18, %ymm3 # ymm3 = (ymm18 * ymm3) + ymm10 vmovups 0x1210(%rcx,%r14,4), %ymm12 vmovups 0x1694(%rcx,%r14,4), %ymm13 vmovups 0x1b18(%rcx,%r14,4), %ymm14 vmovups 0x1f9c(%rcx,%r14,4), %ymm15 vmulps %ymm15, %ymm28, %ymm11 vmulps %ymm15, %ymm29, %ymm10 vmulps %ymm15, %ymm23, %ymm15 vfmadd231ps %ymm19, %ymm14, %ymm11 # ymm11 = (ymm14 * ymm19) + ymm11 vfmadd231ps %ymm26, %ymm14, %ymm10 # ymm10 = (ymm14 * ymm26) + ymm10 vfmadd231ps %ymm14, %ymm31, %ymm15 # ymm15 = (ymm31 * ymm14) + ymm15 vfmadd231ps %ymm24, %ymm13, %ymm11 # ymm11 = (ymm13 * ymm24) + ymm11 vfmadd231ps %ymm25, %ymm13, %ymm10 # ymm10 = (ymm13 * ymm25) + ymm10 vfmadd231ps %ymm13, %ymm30, %ymm15 # ymm15 = (ymm30 * ymm13) + ymm15 vfmadd231ps %ymm22, %ymm12, %ymm11 # ymm11 = (ymm12 * ymm22) + ymm11 vfmadd231ps %ymm16, %ymm12, %ymm10 # ymm10 = (ymm12 * ymm16) + ymm10 vmovaps %ymm26, %ymm25 vmovaps %ymm19, %ymm26 vmovaps %ymm16, %ymm19 vfmadd231ps %ymm12, %ymm18, %ymm15 # ymm15 = (ymm18 * ymm12) + ymm15 vmovups 0x1210(%rax,%r14,4), %ymm13 vmovups 0x1b18(%rax,%r14,4), %ymm14 vmovups 0x1f9c(%rax,%r14,4), %ymm16 vmulps %ymm16, %ymm28, %ymm17 vmulps %ymm16, %ymm29, %ymm12 vmulps %ymm16, %ymm23, %ymm16 vfmadd231ps %ymm26, %ymm14, %ymm17 # ymm17 = (ymm14 * ymm26) + ymm17 vfmadd231ps %ymm25, %ymm14, %ymm12 # ymm12 = (ymm14 * ymm25) + ymm12 vfmadd231ps %ymm14, %ymm31, %ymm16 # ymm16 = (ymm31 * ymm14) + ymm16 vmovups 0x1694(%rax,%r14,4), %ymm14 vfmadd231ps %ymm24, %ymm14, %ymm17 # ymm17 = (ymm14 * ymm24) + ymm17 vfmadd231ps 0x560(%rsp), %ymm14, %ymm12 # ymm12 = (ymm14 * mem) + ymm12 vfmadd231ps %ymm14, %ymm30, %ymm16 # ymm16 = (ymm30 * ymm14) + ymm16 vfmadd231ps %ymm22, %ymm13, %ymm17 # ymm17 = (ymm13 * ymm22) + ymm17 vfmadd231ps %ymm19, %ymm13, %ymm12 # ymm12 = (ymm13 * ymm19) + ymm12 vfmadd231ps %ymm13, %ymm18, %ymm16 # ymm16 = (ymm18 * ymm13) + ymm16 vbroadcastss 0x260b45(%rip), %ymm18 # 0x1f20ec4 vandps %ymm18, %ymm11, %ymm13 vandps %ymm18, %ymm10, %ymm14 vmaxps %ymm14, %ymm13, %ymm13 vandps %ymm18, %ymm15, %ymm14 vmaxps %ymm14, %ymm13, %ymm13 vmovaps 0x260(%rsp), %ymm15 vcmpltps %ymm15, %ymm13, %k2 vmovaps %ymm9, %ymm11 {%k2} vmovaps %ymm8, %ymm10 {%k2} vandps %ymm18, %ymm17, %ymm13 vandps %ymm18, %ymm12, %ymm14 vmaxps %ymm14, %ymm13, %ymm13 vandps %ymm18, %ymm16, %ymm14 vmaxps %ymm14, %ymm13, %ymm13 vcmpltps %ymm15, %ymm13, %k2 vmovaps %ymm9, %ymm17 {%k2} vmovaps %ymm8, %ymm12 {%k2} vbroadcastss 0x260ad1(%rip), %ymm9 # 0x1f20ec0 vxorps %ymm9, %ymm11, %ymm8 vxorps %ymm9, %ymm17, %ymm9 vfmadd213ps %ymm27, %ymm11, %ymm11 # ymm11 = (ymm11 * ymm11) + ymm27 vfmadd231ps %ymm10, %ymm10, %ymm11 # ymm11 = (ymm10 * ymm10) + ymm11 vrsqrt14ps %ymm11, %ymm13 vbroadcastss 0x22c308(%rip), %ymm15 # 0x1eec71c vmulps %ymm15, %ymm11, %ymm11 vmulps %ymm11, %ymm13, %ymm11 vmulps %ymm13, %ymm13, %ymm14 vmulps %ymm11, %ymm14, %ymm14 vbroadcastss 0x22c2e6(%rip), %ymm16 # 0x1eec718 vfmadd231ps %ymm13, %ymm16, %ymm14 # ymm14 = (ymm16 * ymm13) + ymm14 vmulps %ymm14, %ymm10, %ymm11 vmulps %ymm8, %ymm14, %ymm10 vmulps %ymm27, %ymm14, %ymm13 vfmadd213ps %ymm27, %ymm17, %ymm17 # ymm17 = (ymm17 * ymm17) + ymm27 vfmadd231ps %ymm12, %ymm12, %ymm17 # ymm17 = (ymm12 * ymm12) + ymm17 vrsqrt14ps %ymm17, %ymm8 vmulps %ymm15, %ymm17, %ymm14 vmulps %ymm14, %ymm8, %ymm14 vmulps %ymm8, %ymm8, %ymm15 vmulps %ymm14, %ymm15, %ymm14 vfmadd231ps %ymm8, %ymm16, %ymm14 # ymm14 = (ymm16 * ymm8) + ymm14 vmulps %ymm14, %ymm12, %ymm8 vmulps %ymm9, %ymm14, %ymm9 vmulps %ymm27, %ymm14, %ymm12 vmovaps %ymm11, %ymm14 vfmadd213ps %ymm5, %ymm0, %ymm14 # ymm14 = (ymm0 * ymm14) + ymm5 vmovaps %ymm10, %ymm15 vfmadd213ps %ymm4, %ymm0, %ymm15 # ymm15 = (ymm0 * ymm15) + ymm4 vmovaps %ymm13, %ymm16 vfmadd213ps %ymm3, %ymm0, %ymm16 # ymm16 = (ymm0 * ymm16) + ymm3 vmovaps %ymm8, %ymm17 vfmadd213ps %ymm7, %ymm1, %ymm17 # ymm17 = (ymm1 * ymm17) + ymm7 vfnmadd213ps %ymm5, %ymm0, %ymm11 # ymm11 = -(ymm0 * ymm11) + ymm5 vmovaps %ymm9, %ymm5 vfmadd213ps %ymm6, %ymm1, %ymm5 # ymm5 = (ymm1 * ymm5) + ymm6 vfnmadd213ps %ymm4, %ymm0, %ymm10 # ymm10 = -(ymm0 * ymm10) + ymm4 vmovaps %ymm12, %ymm4 vfmadd213ps %ymm2, %ymm1, %ymm4 # ymm4 = (ymm1 * ymm4) + ymm2 vfnmadd231ps %ymm13, %ymm0, %ymm3 # ymm3 = -(ymm0 * ymm13) + ymm3 vfnmadd213ps %ymm7, %ymm1, %ymm8 # ymm8 = -(ymm1 * ymm8) + ymm7 vfnmadd213ps %ymm6, %ymm1, %ymm9 # ymm9 = -(ymm1 * ymm9) + ymm6 vfnmadd231ps %ymm12, %ymm1, %ymm2 # ymm2 = -(ymm1 * ymm12) + ymm2 vsubps %ymm11, %ymm17, %ymm6 vsubps %ymm10, %ymm5, %ymm7 vsubps %ymm3, %ymm4, %ymm12 vmulps %ymm3, %ymm7, %ymm13 vfmsub231ps %ymm12, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm12) - ymm13 vmulps %ymm11, %ymm12, %ymm12 vfmsub231ps %ymm6, %ymm3, %ymm12 # ymm12 = (ymm3 * ymm6) - ymm12 vmulps %ymm6, %ymm10, %ymm6 vfmsub231ps %ymm7, %ymm11, %ymm6 # ymm6 = (ymm11 * ymm7) - ymm6 vfmadd231ps %ymm12, %ymm27, %ymm6 # ymm6 = (ymm27 * ymm12) + ymm6 vfmadd231ps %ymm13, %ymm27, %ymm6 # ymm6 = (ymm27 * ymm13) + ymm6 vcmpleps %ymm27, %ymm6, %k2 vmovaps %ymm14, %ymm8 {%k2} vmovaps %ymm15, %ymm9 {%k2} vmovaps %ymm16, %ymm2 {%k2} vblendmps %ymm17, %ymm11, %ymm13 {%k2} vblendmps %ymm5, %ymm10, %ymm14 {%k2} vblendmps %ymm4, %ymm3, %ymm15 {%k2} vmovaps %ymm11, %ymm17 {%k2} vmovaps %ymm10, %ymm5 {%k2} vmovaps %ymm3, %ymm4 {%k2} vsubps %ymm8, %ymm17, %ymm6 vsubps %ymm9, %ymm5, %ymm5 vsubps %ymm2, %ymm4, %ymm11 vsubps %ymm13, %ymm8, %ymm7 vsubps %ymm14, %ymm9, %ymm10 vsubps %ymm15, %ymm2, %ymm12 vmulps %ymm8, %ymm11, %ymm4 vfmsub231ps %ymm6, %ymm2, %ymm4 # ymm4 = (ymm2 * ymm6) - ymm4 vmulps %ymm6, %ymm9, %ymm3 vfmsub231ps %ymm5, %ymm8, %ymm3 # ymm3 = (ymm8 * ymm5) - ymm3 vfmadd231ps %ymm4, %ymm27, %ymm3 # ymm3 = (ymm27 * ymm4) + ymm3 vmulps %ymm2, %ymm5, %ymm4 vfmsub231ps %ymm11, %ymm9, %ymm4 # ymm4 = (ymm9 * ymm11) - ymm4 vfmadd231ps %ymm4, %ymm27, %ymm3 # ymm3 = (ymm27 * ymm4) + ymm3 vmulps %ymm13, %ymm12, %ymm16 vfmsub231ps %ymm15, %ymm7, %ymm16 # ymm16 = (ymm7 * ymm15) - ymm16 vmulps %ymm15, %ymm10, %ymm15 vfmsub231ps %ymm12, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm12) - ymm15 vmulps %ymm7, %ymm14, %ymm4 vfmsub231ps %ymm13, %ymm10, %ymm4 # ymm4 = (ymm10 * ymm13) - ymm4 vfmadd231ps %ymm16, %ymm27, %ymm4 # ymm4 = (ymm27 * ymm16) + ymm4 vfmadd231ps %ymm15, %ymm27, %ymm4 # ymm4 = (ymm27 * ymm15) + ymm4 vmaxps %ymm4, %ymm3, %ymm13 vcmpleps %ymm27, %ymm13, %k0 {%k1} kortestb %k0, %k0 vmovaps %ymm19, %ymm18 je 0x1cc09fa vmulps %ymm5, %ymm12, %ymm13 vfmsub231ps %ymm11, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm11) - ymm13 vmulps %ymm7, %ymm11, %ymm11 vfmsub231ps %ymm12, %ymm6, %ymm11 # ymm11 = (ymm6 * ymm12) - ymm11 vmulps %ymm6, %ymm10, %ymm10 vfmsub231ps %ymm5, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm5) - ymm10 vxorps %xmm6, %xmm6, %xmm6 vfmadd213ps %ymm10, %ymm11, %ymm6 # ymm6 = (ymm11 * ymm6) + ymm10 vfmadd231ps %ymm27, %ymm13, %ymm6 # ymm6 = (ymm13 * ymm27) + ymm6 vrcp14ps %ymm6, %ymm7 vmovaps %ymm7, %ymm5 vfnmadd213ps 0x22c0f5(%rip){1to8}, %ymm6, %ymm5 # ymm5 = -(ymm6 * ymm5) + mem vfmadd132ps %ymm7, %ymm7, %ymm5 # ymm5 = (ymm5 * ymm7) + ymm7 vmulps %ymm2, %ymm10, %ymm2 vfmadd231ps %ymm11, %ymm9, %ymm2 # ymm2 = (ymm9 * ymm11) + ymm2 vfmadd231ps %ymm13, %ymm8, %ymm2 # ymm2 = (ymm8 * ymm13) + ymm2 vmulps %ymm5, %ymm2, %ymm2 vcmpgeps 0x300(%rsp), %ymm2, %k1 vcmpleps 0x80(%rsi,%r15,4){1to8}, %ymm2, %k1 {%k1} kandb %k0, %k1, %k0 kortestb %k0, %k0 je 0x1cc09fa vcmpneqps %ymm27, %ymm6, %k1 ktestb %k1, %k0 vmovaps 0x40(%rsp), %xmm9 vmovaps 0x140(%rsp), %ymm17 je 0x1cc0a1f kandb %k1, %k0, %k0 kmovd %k0, %eax vmulps %ymm5, %ymm3, %ymm3 vmulps %ymm5, %ymm4, %ymm4 vbroadcastss 0x22c086(%rip), %ymm5 # 0x1eec714 vsubps %ymm3, %ymm5, %ymm20 vmovaps %ymm3, %ymm20 {%k2} vsubps %ymm4, %ymm5, %ymm3 vmovaps %ymm4, %ymm3 {%k2} vmovaps %ymm3, 0x500(%rsp) movzbl %al, %r9d vmovaps %ymm2, %ymm21 vmovaps 0x80(%rsp), %ymm6 vmovaps 0x60(%rsp), %ymm3 testw %r9w, %r9w je 0x1cc09e8 vsubps %ymm0, %ymm1, %ymm1 vfmadd213ps %ymm0, %ymm20, %ymm1 # ymm1 = (ymm20 * ymm1) + ymm0 vaddps %ymm1, %ymm1, %ymm0 movq 0xc8(%rsp), %rax vmulps (%rax,%r15,4){1to8}, %ymm0, %ymm0 vcmpnleps %ymm0, %ymm21, %k0 kmovd %k0, %eax andb %al, %r9b je 0x1cc09e8 vbroadcastss 0x2302c2(%rip), %ymm0 # 0x1ef09cc vmovaps 0x500(%rsp), %ymm1 vfmadd132ps 0x2308db(%rip){1to8}, %ymm0, %ymm1 # ymm1 = (ymm1 * mem) + ymm0 vmovaps %ymm20, 0x340(%rsp) vmovaps %ymm1, 0x500(%rsp) vmovaps %ymm1, 0x360(%rsp) vmovaps %ymm21, 0x380(%rsp) movl %r14d, 0x3a0(%rsp) movl %edi, 0x3a4(%rsp) vmovaps %xmm9, 0x3b0(%rsp) vmovaps 0xe0(%rsp), %xmm0 vmovaps %xmm0, 0x3c0(%rsp) vmovaps 0xd0(%rsp), %xmm0 vmovaps %xmm0, 0x3d0(%rsp) vmovdqa 0x120(%rsp), %xmm0 vmovdqa %xmm0, 0x3e0(%rsp) movb %r9b, 0x3f0(%rsp) movq (%r10), %rax movq 0x1e8(%rax), %rax movq 0x38(%rsp), %rcx movq (%rax,%rcx,8), %r11 movl 0x90(%rsi,%r15,4), %eax testl %eax, 0x34(%r11) je 0x1cc09c4 vaddps 0x26077c(%rip), %ymm20, %ymm0 # 0x1f20f40 vcvtsi2ss %r14d, %xmm19, %xmm1 vbroadcastss %xmm1, %ymm1 vaddps %ymm0, %ymm1, %ymm0 vmulps 0x320(%rsp), %ymm0, %ymm0 vmovaps %ymm0, 0x400(%rsp) vmovaps 0x500(%rsp), %ymm0 vmovaps %ymm0, 0x420(%rsp) vmovaps %ymm21, 0x440(%rsp) kmovd %r9d, %k1 vbroadcastss 0x22b213(%rip), %ymm0 # 0x1eeba20 vblendmps %ymm21, %ymm0, %ymm0 {%k1} vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm0, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1] vminps %ymm2, %ymm1, %ymm1 vcmpeqps %ymm1, %ymm0, %k0 kmovd %k0, %eax andb %r9b, %al movzbl %al, %eax movzbl %r9b, %ecx cmovnel %eax, %ecx tzcntl %ecx, %r12d movq 0x10(%r10), %rax cmpq $0x0, 0x10(%rax) jne 0x1cc0a27 cmpq $0x0, 0x40(%r11) jne 0x1cc0a27 vmovss 0x400(%rsp,%r12,4), %xmm0 vmovss 0x420(%rsp,%r12,4), %xmm1 vmovss 0x22be92(%rip), %xmm2 # 0x1eec714 vsubss %xmm0, %xmm2, %xmm2 vaddss %xmm2, %xmm2, %xmm3 vmulss %xmm3, %xmm0, %xmm4 vfnmadd231ss %xmm2, %xmm2, %xmm4 # xmm4 = -(xmm2 * xmm2) + xmm4 vaddss %xmm0, %xmm0, %xmm5 vmovss 0x23074d(%rip), %xmm8 # 0x1ef0fec vmovaps %xmm8, %xmm6 vfmadd213ss 0x230758(%rip), %xmm0, %xmm6 # xmm6 = (xmm0 * xmm6) + mem vmulss %xmm0, %xmm8, %xmm7 vmulss %xmm7, %xmm0, %xmm7 vfmadd231ss %xmm6, %xmm5, %xmm7 # xmm7 = (xmm5 * xmm6) + xmm7 vmovaps %xmm8, %xmm5 vfmadd213ss 0x230732(%rip), %xmm0, %xmm5 # xmm5 = (xmm0 * xmm5) + mem vmulss 0x230722(%rip), %xmm2, %xmm6 # 0x1ef0ff0 vmulss %xmm6, %xmm2, %xmm6 vfmadd231ss %xmm5, %xmm3, %xmm6 # xmm6 = (xmm3 * xmm5) + xmm6 vmulss 0x2300fd(%rip), %xmm2, %xmm2 # 0x1ef09dc vmulss %xmm0, %xmm0, %xmm3 vfmadd231ss %xmm2, %xmm0, %xmm3 # xmm3 = (xmm0 * xmm2) + xmm3 vmovss 0x22c290(%rip), %xmm8 # 0x1eecb80 vmulss %xmm4, %xmm8, %xmm2 vmulss %xmm7, %xmm8, %xmm4 vmulss %xmm6, %xmm8, %xmm5 vmulss %xmm3, %xmm8, %xmm3 vbroadcastss %xmm3, %xmm3 vmulps 0x120(%rsp), %xmm3, %xmm3 vbroadcastss %xmm5, %xmm5 vfmadd132ps 0xd0(%rsp), %xmm3, %xmm5 # xmm5 = (xmm5 * mem) + xmm3 vbroadcastss %xmm4, %xmm3 vfmadd132ps 0xe0(%rsp), %xmm5, %xmm3 # xmm3 = (xmm3 * mem) + xmm5 vbroadcastss %xmm2, %xmm2 vfmadd213ps %xmm3, %xmm9, %xmm2 # xmm2 = (xmm9 * xmm2) + xmm3 vmovss 0x440(%rsp,%r12,4), %xmm3 vmovss %xmm3, 0x80(%rsi,%r15,4) vmovss %xmm2, 0xc0(%rsi,%r15,4) vextractps $0x1, %xmm2, 0xd0(%rsi,%r15,4) vextractps $0x2, %xmm2, 0xe0(%rsi,%r15,4) vmovss %xmm0, 0xf0(%rsi,%r15,4) vmovss %xmm1, 0x100(%rsi,%r15,4) movq 0x58(%rsp), %rax movl %eax, 0x110(%rsi,%r15,4) movq 0x38(%rsp), %rax movl %eax, 0x120(%rsi,%r15,4) movq 0x8(%r10), %rax movl (%rax), %eax movl %eax, 0x130(%rsi,%r15,4) movq 0x8(%r10), %rax movl 0x4(%rax), %eax movl %eax, 0x140(%rsi,%r15,4) vmovaps 0x80(%rsp), %ymm6 vmovaps 0x60(%rsp), %ymm3 leaq 0x46f9a1(%rip), %r12 # 0x213036c jmp 0x1cc09e8 vmovaps 0x80(%rsp), %ymm6 vmovaps 0x60(%rsp), %ymm3 vmovaps %ymm23, %ymm18 vmovaps %ymm24, %ymm17 addq $0x8, %r14 cmpl %r14d, %edi jg 0x1cc00a3 jmp 0x1cbfff7 xorl %r9d, %r9d vmovaps 0x80(%rsp), %ymm6 vmovaps 0x60(%rsp), %ymm3 vmovaps 0x40(%rsp), %xmm9 vmovaps 0x140(%rsp), %ymm17 jmp 0x1cc06c6 xorl %r9d, %r9d jmp 0x1cc06b7 vmovaps 0x3c0(%rsp), %xmm0 vmovaps %xmm0, 0x210(%rsp) vmovaps 0x3d0(%rsp), %xmm0 vmovaps %xmm0, 0x200(%rsp) vmovaps 0x3e0(%rsp), %xmm0 vmovaps %xmm0, 0x550(%rsp) vmovaps %ymm20, 0x1e0(%rsp) vmovaps %ymm21, 0x1c0(%rsp) movq %r11, 0x138(%rsp) movq %r8, 0x30(%rsp) movq %r10, 0x28(%rsp) movq %rsi, 0x20(%rsp) movl %edi, 0x1c(%rsp) vmovaps %ymm28, 0x1a0(%rsp) vmovaps %ymm29, 0x180(%rsp) vmovss 0x80(%rsi,%r15,4), %xmm0 vmovss %xmm0, 0x220(%rsp) vmovss 0x440(%rsp,%r12,4), %xmm0 vbroadcastss 0x400(%rsp,%r12,4), %xmm1 vbroadcastss 0x420(%rsp,%r12,4), %xmm2 vmovss %xmm0, 0x80(%rsi,%r15,4) movq 0x8(%r10), %rax vmovss 0x22bc35(%rip), %xmm0 # 0x1eec714 vsubss %xmm1, %xmm0, %xmm0 vaddss %xmm0, %xmm0, %xmm3 vmulss %xmm3, %xmm1, %xmm4 vfnmadd231ss %xmm0, %xmm0, %xmm4 # xmm4 = -(xmm0 * xmm0) + xmm4 vaddss %xmm1, %xmm1, %xmm5 vmovss 0x2304f0(%rip), %xmm8 # 0x1ef0fec vmovaps %xmm8, %xmm6 vfmadd213ss 0x2304fb(%rip), %xmm1, %xmm6 # xmm6 = (xmm1 * xmm6) + mem vmulss %xmm1, %xmm8, %xmm7 vmulss %xmm7, %xmm1, %xmm7 vfmadd231ss %xmm6, %xmm5, %xmm7 # xmm7 = (xmm5 * xmm6) + xmm7 vmovaps %xmm8, %xmm5 vfmadd213ss 0x2304d5(%rip), %xmm1, %xmm5 # xmm5 = (xmm1 * xmm5) + mem vmulss 0x2304c5(%rip), %xmm0, %xmm6 # 0x1ef0ff0 vmulss %xmm6, %xmm0, %xmm6 vfmadd231ss %xmm5, %xmm3, %xmm6 # xmm6 = (xmm3 * xmm5) + xmm6 vmulss 0x22fea0(%rip), %xmm0, %xmm0 # 0x1ef09dc vmulss %xmm1, %xmm1, %xmm3 vfmadd231ss %xmm0, %xmm1, %xmm3 # xmm3 = (xmm1 * xmm0) + xmm3 vmovss 0x22c033(%rip), %xmm8 # 0x1eecb80 vmulss %xmm4, %xmm8, %xmm0 vmulss %xmm7, %xmm8, %xmm4 vmulss %xmm6, %xmm8, %xmm5 vmulss %xmm3, %xmm8, %xmm3 vbroadcastss %xmm3, %xmm3 vmulps 0x550(%rsp), %xmm3, %xmm3 vbroadcastss %xmm5, %xmm5 vfmadd132ps 0x200(%rsp), %xmm3, %xmm5 # xmm5 = (xmm5 * mem) + xmm3 vbroadcastss %xmm4, %xmm3 vfmadd132ps 0x210(%rsp), %xmm5, %xmm3 # xmm3 = (xmm3 * mem) + xmm5 vbroadcastss %xmm0, %xmm0 vfmadd213ps %xmm3, %xmm9, %xmm0 # xmm0 = (xmm9 * xmm0) + xmm3 vbroadcastss %xmm0, %xmm3 vshufps $0x55, %xmm0, %xmm0, %xmm4 # xmm4 = xmm0[1,1,1,1] vshufps $0xaa, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[2,2,2,2] vmovaps %xmm3, 0x470(%rsp) vmovaps %xmm4, 0x480(%rsp) vmovaps %xmm0, 0x490(%rsp) vmovaps %xmm1, 0x4a0(%rsp) vmovaps %xmm2, 0x4b0(%rsp) vmovaps 0x230(%rsp), %xmm0 vmovaps %xmm0, 0x4c0(%rsp) vmovdqa 0x240(%rsp), %xmm0 vmovdqa %xmm0, 0x4d0(%rsp) leaq 0x4e0(%rsp), %rcx vpcmpeqd %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, (%rcx) vbroadcastss (%rax), %xmm0 vmovaps %xmm0, 0x4e0(%rsp) vbroadcastss 0x4(%rax), %xmm0 vmovaps %xmm0, 0x4f0(%rsp) vmovaps 0x2f0(%rsp), %xmm0 vmovaps %xmm0, 0xb0(%rsp) leaq 0xb0(%rsp), %rcx movq %rcx, 0xf0(%rsp) movq 0x18(%r11), %rcx movq %rcx, 0xf8(%rsp) movq %rax, 0x100(%rsp) movq %rsi, 0x108(%rsp) leaq 0x470(%rsp), %rax movq %rax, 0x110(%rsp) movl $0x4, 0x118(%rsp) movq 0x40(%r11), %rax testq %rax, %rax movl %r9d, 0x170(%rsp) je 0x1cc0d05 leaq 0xf0(%rsp), %rdi vzeroupper callq *%rax movq 0x138(%rsp), %r11 movl 0x170(%rsp), %r9d vmovaps 0x180(%rsp), %ymm29 vmovaps 0x1a0(%rsp), %ymm28 vmovaps 0x140(%rsp), %ymm17 vmovaps 0x280(%rsp), %ymm18 vmovaps 0x2a0(%rsp), %ymm22 movl 0x1c(%rsp), %edi vmovaps 0x40(%rsp), %xmm9 vmovaps 0x1c0(%rsp), %ymm21 vmovaps 0x1e0(%rsp), %ymm20 vxorps %xmm27, %xmm27, %xmm27 leaq 0x471a96(%rip), %rdx # 0x213278c movq 0x20(%rsp), %rsi movq 0x28(%rsp), %r10 movq 0x30(%rsp), %r8 vmovdqa 0xb0(%rsp), %xmm0 vptestmd %xmm0, %xmm0, %k0 kortestb %k0, %k0 vmovaps 0x80(%rsp), %ymm6 vmovaps 0x60(%rsp), %ymm3 je 0x1cc0e71 movq 0x10(%r10), %rcx movq 0x10(%rcx), %rax testq %rax, %rax je 0x1cc0dd8 testb $0x2, (%rcx) jne 0x1cc0d4e testb $0x40, 0x3e(%r11) je 0x1cc0dd8 leaq 0xf0(%rsp), %rdi vzeroupper callq *%rax movq 0x138(%rsp), %r11 movl 0x170(%rsp), %r9d vmovaps 0x180(%rsp), %ymm29 vmovaps 0x1a0(%rsp), %ymm28 vmovaps 0x140(%rsp), %ymm17 vmovaps 0x280(%rsp), %ymm18 vmovaps 0x2a0(%rsp), %ymm22 movl 0x1c(%rsp), %edi vmovaps 0x40(%rsp), %xmm9 vmovaps 0x1c0(%rsp), %ymm21 vmovaps 0x60(%rsp), %ymm3 vmovaps 0x1e0(%rsp), %ymm20 vmovaps 0x80(%rsp), %ymm6 vxorps %xmm27, %xmm27, %xmm27 leaq 0x4719c3(%rip), %rdx # 0x213278c movq 0x20(%rsp), %rsi movq 0x28(%rsp), %r10 movq 0x30(%rsp), %r8 vmovdqa 0xb0(%rsp), %xmm0 vptestmd %xmm0, %xmm0, %k1 kortestb %k1, %k1 je 0x1cc0e71 movq 0x108(%rsp), %rax movq 0x110(%rsp), %rcx vmovaps (%rcx), %xmm0 vmovups %xmm0, 0xc0(%rax) {%k1} vmovaps 0x10(%rcx), %xmm0 vmovups %xmm0, 0xd0(%rax) {%k1} vmovaps 0x20(%rcx), %xmm0 vmovups %xmm0, 0xe0(%rax) {%k1} vmovaps 0x30(%rcx), %xmm0 vmovups %xmm0, 0xf0(%rax) {%k1} vmovaps 0x40(%rcx), %xmm0 vmovups %xmm0, 0x100(%rax) {%k1} vmovdqa 0x50(%rcx), %xmm0 vmovdqu32 %xmm0, 0x110(%rax) {%k1} vmovdqa 0x60(%rcx), %xmm0 vmovdqu32 %xmm0, 0x120(%rax) {%k1} vmovdqa 0x70(%rcx), %xmm0 vmovdqa32 %xmm0, 0x130(%rax) {%k1} vmovdqa 0x80(%rcx), %xmm0 vmovdqa32 %xmm0, 0x140(%rax) {%k1} jmp 0x1cc0e84 vmovd 0x220(%rsp), %xmm0 vmovd %xmm0, 0x80(%rsi,%r15,4) movl $0x1, %eax shlxl %r12d, %eax, %eax kmovd %eax, %k0 movzbl %r9b, %eax kmovd %eax, %k1 kandnb %k1, %k0, %k0 vcmpleps 0x80(%rsi,%r15,4){1to8}, %ymm21, %k1 kandb %k1, %k0, %k2 kmovd %k2, %r9d ktestb %k1, %k0 je 0x1cc0f02 kmovd %r9d, %k1 vbroadcastss 0x22ab5d(%rip), %ymm0 # 0x1eeba20 vblendmps %ymm21, %ymm0, %ymm0 {%k1} vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm0, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1] vminps %ymm2, %ymm1, %ymm1 vcmpeqps %ymm1, %ymm0, %k0 kmovd %k0, %eax andb %r9b, %al movzbl %al, %eax movzbl %r9b, %ecx cmovnel %eax, %ecx tzcntl %ecx, %r12d testb %r9b, %r9b jne 0x1cc0a98 jmp 0x1cc09c4 xorl %r12d, %r12d vmovaps 0x80(%rsp), %ymm6 vmovaps 0x60(%rsp), %ymm3 vmovaps 0x40(%rsp), %xmm9 vmovaps 0x1a0(%rsp), %ymm28 vmovaps 0x180(%rsp), %ymm29 vmovaps 0x260(%rsp), %xmm10 jmp 0x1cbfcad xorl %r12d, %r12d vmovaps 0x80(%rsp), %ymm6 vmovaps 0x60(%rsp), %ymm3 vmovaps 0x40(%rsp), %xmm9 jmp 0x1cbfcad xorl %r12d, %r12d vmovaps 0x80(%rsp), %ymm6 vmovaps 0x60(%rsp), %ymm3 jmp 0x1cbfcad movq 0x38(%rsp), %rax vpbroadcastd %eax, %xmm0 vmovdqa %xmm0, 0x230(%rsp) movq 0x58(%rsp), %rax vpbroadcastd %eax, %xmm0 vmovdqa %xmm0, 0x170(%rsp) vmovaps 0x3c0(%rsp), %xmm0 vmovaps %xmm0, 0x220(%rsp) vmovaps 0x3d0(%rsp), %xmm0 vmovaps %xmm0, 0x210(%rsp) vmovaps 0x3e0(%rsp), %xmm0 vmovaps %xmm0, 0x200(%rsp) movq %r8, 0x30(%rsp) movq %r10, 0x28(%rsp) movq %rsi, 0x20(%rsp) movl %edi, 0x1c(%rsp) vmovss 0x80(%rsi,%r15,4), %xmm0 vmovss %xmm0, 0x240(%rsp) vmovss 0x440(%rsp,%r9,4), %xmm0 vbroadcastss 0x400(%rsp,%r9,4), %xmm1 vbroadcastss 0x420(%rsp,%r9,4), %xmm2 vmovss %xmm0, 0x80(%rsi,%r15,4) movq 0x8(%r10), %rax vmovss 0x22b6e2(%rip), %xmm0 # 0x1eec714 vsubss %xmm1, %xmm0, %xmm0 vaddss %xmm0, %xmm0, %xmm3 vmulss %xmm3, %xmm1, %xmm4 vfnmadd231ss %xmm0, %xmm0, %xmm4 # xmm4 = -(xmm0 * xmm0) + xmm4 vaddss %xmm1, %xmm1, %xmm5 vmovss 0x22ff9d(%rip), %xmm8 # 0x1ef0fec vmovaps %xmm8, %xmm6 vfmadd213ss 0x22ffa8(%rip), %xmm1, %xmm6 # xmm6 = (xmm1 * xmm6) + mem vmulss %xmm1, %xmm8, %xmm7 vmulss %xmm7, %xmm1, %xmm7 vfmadd231ss %xmm6, %xmm5, %xmm7 # xmm7 = (xmm5 * xmm6) + xmm7 vmovaps %xmm8, %xmm5 vfmadd213ss 0x22ff82(%rip), %xmm1, %xmm5 # xmm5 = (xmm1 * xmm5) + mem vmulss 0x22ff72(%rip), %xmm0, %xmm6 # 0x1ef0ff0 vmulss %xmm6, %xmm0, %xmm6 vfmadd231ss %xmm5, %xmm3, %xmm6 # xmm6 = (xmm3 * xmm5) + xmm6 vmulss 0x22f94d(%rip), %xmm0, %xmm0 # 0x1ef09dc vmulss %xmm1, %xmm1, %xmm3 vfmadd231ss %xmm0, %xmm1, %xmm3 # xmm3 = (xmm1 * xmm0) + xmm3 vmovss 0x22bae0(%rip), %xmm8 # 0x1eecb80 vmulss %xmm4, %xmm8, %xmm0 vmulss %xmm7, %xmm8, %xmm4 vmulss %xmm6, %xmm8, %xmm5 vmulss %xmm3, %xmm8, %xmm3 vbroadcastss %xmm3, %xmm3 vmulps 0x200(%rsp), %xmm3, %xmm3 vbroadcastss %xmm5, %xmm5 vfmadd132ps 0x210(%rsp), %xmm3, %xmm5 # xmm5 = (xmm5 * mem) + xmm3 vbroadcastss %xmm4, %xmm3 vfmadd132ps 0x220(%rsp), %xmm5, %xmm3 # xmm3 = (xmm3 * mem) + xmm5 vbroadcastss %xmm0, %xmm0 vfmadd213ps %xmm3, %xmm9, %xmm0 # xmm0 = (xmm9 * xmm0) + xmm3 vbroadcastss %xmm0, %xmm3 vshufps $0x55, %xmm0, %xmm0, %xmm4 # xmm4 = xmm0[1,1,1,1] vshufps $0xaa, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[2,2,2,2] vmovaps %xmm3, 0x470(%rsp) vmovaps %xmm4, 0x480(%rsp) vmovaps %xmm0, 0x490(%rsp) vmovaps %xmm1, 0x4a0(%rsp) vmovaps %xmm2, 0x4b0(%rsp) vmovaps 0x170(%rsp), %xmm0 vmovaps %xmm0, 0x4c0(%rsp) vmovdqa 0x230(%rsp), %xmm0 vmovdqa %xmm0, 0x4d0(%rsp) leaq 0x4e0(%rsp), %rcx vpcmpeqd %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, (%rcx) vbroadcastss (%rax), %xmm0 vmovaps %xmm0, 0x4e0(%rsp) vbroadcastss 0x4(%rax), %xmm0 vmovaps %xmm0, 0x4f0(%rsp) vmovaps 0x2f0(%rsp), %xmm0 vmovaps %xmm0, 0xb0(%rsp) leaq 0xb0(%rsp), %rcx movq %rcx, 0xf0(%rsp) movq 0x18(%r14), %rcx movq %rcx, 0xf8(%rsp) movq %rax, 0x100(%rsp) movq %rsi, 0x108(%rsp) leaq 0x470(%rsp), %rax movq %rax, 0x110(%rsp) movl $0x4, 0x118(%rsp) movq 0x40(%r14), %rax testq %rax, %rax movq %r9, 0x300(%rsp) je 0x1cc1265 leaq 0xf0(%rsp), %rdi vzeroupper callq *%rax movq 0x300(%rsp), %r9 vmovaps 0x260(%rsp), %xmm10 vmovaps 0x2c0(%rsp), %xmm26 vmovaps 0x180(%rsp), %ymm29 vmovaps 0x1a0(%rsp), %ymm28 vmovaps 0x140(%rsp), %ymm17 vmovaps 0x280(%rsp), %ymm18 vmovaps 0x2a0(%rsp), %ymm22 movl 0x1c(%rsp), %edi vmovaps 0x40(%rsp), %xmm9 vmovaps 0x1c0(%rsp), %ymm21 vmovaps 0x1e0(%rsp), %ymm20 vxorps %xmm27, %xmm27, %xmm27 leaq 0x471536(%rip), %rdx # 0x213278c movq 0x20(%rsp), %rsi movq 0x28(%rsp), %r10 movq 0x30(%rsp), %r8 vmovdqa 0xb0(%rsp), %xmm0 vptestmd %xmm0, %xmm0, %k0 kortestb %k0, %k0 vmovaps 0x80(%rsp), %ymm6 vmovaps 0x60(%rsp), %ymm3 je 0x1cc13da movq 0x10(%r10), %rcx movq 0x10(%rcx), %rax testq %rax, %rax je 0x1cc1341 testb $0x2, (%rcx) jne 0x1cc12ae testb $0x40, 0x3e(%r14) je 0x1cc1341 leaq 0xf0(%rsp), %rdi vzeroupper callq *%rax movq 0x300(%rsp), %r9 vmovaps 0x260(%rsp), %xmm10 vmovaps 0x2c0(%rsp), %xmm26 vmovaps 0x180(%rsp), %ymm29 vmovaps 0x1a0(%rsp), %ymm28 vmovaps 0x140(%rsp), %ymm17 vmovaps 0x280(%rsp), %ymm18 vmovaps 0x2a0(%rsp), %ymm22 movl 0x1c(%rsp), %edi vmovaps 0x40(%rsp), %xmm9 vmovaps 0x1c0(%rsp), %ymm21 vmovaps 0x60(%rsp), %ymm3 vmovaps 0x1e0(%rsp), %ymm20 vmovaps 0x80(%rsp), %ymm6 vxorps %xmm27, %xmm27, %xmm27 leaq 0x47145a(%rip), %rdx # 0x213278c movq 0x20(%rsp), %rsi movq 0x28(%rsp), %r10 movq 0x30(%rsp), %r8 vmovdqa 0xb0(%rsp), %xmm0 vptestmd %xmm0, %xmm0, %k1 kortestb %k1, %k1 je 0x1cc13da movq 0x108(%rsp), %rax movq 0x110(%rsp), %rcx vmovaps (%rcx), %xmm0 vmovups %xmm0, 0xc0(%rax) {%k1} vmovaps 0x10(%rcx), %xmm0 vmovups %xmm0, 0xd0(%rax) {%k1} vmovaps 0x20(%rcx), %xmm0 vmovups %xmm0, 0xe0(%rax) {%k1} vmovaps 0x30(%rcx), %xmm0 vmovups %xmm0, 0xf0(%rax) {%k1} vmovaps 0x40(%rcx), %xmm0 vmovups %xmm0, 0x100(%rax) {%k1} vmovdqa 0x50(%rcx), %xmm0 vmovdqu32 %xmm0, 0x110(%rax) {%k1} vmovdqa 0x60(%rcx), %xmm0 vmovdqu32 %xmm0, 0x120(%rax) {%k1} vmovdqa 0x70(%rcx), %xmm0 vmovdqa32 %xmm0, 0x130(%rax) {%k1} vmovdqa 0x80(%rcx), %xmm0 vmovdqa32 %xmm0, 0x140(%rax) {%k1} jmp 0x1cc13ed vmovd 0x240(%rsp), %xmm0 vmovd %xmm0, 0x80(%rsi,%r15,4) movl $0x1, %eax shlxl %r9d, %eax, %eax kmovd %eax, %k0 movzbl %r12b, %eax kmovd %eax, %k1 kandnb %k1, %k0, %k0 vcmpleps 0x80(%rsi,%r15,4){1to8}, %ymm3, %k1 kandb %k1, %k0, %k2 kmovd %k2, %r12d ktestb %k1, %k0 je 0x1cc146b kmovd %r12d, %k1 vbroadcastss 0x22a5f4(%rip), %ymm0 # 0x1eeba20 vblendmps %ymm3, %ymm0, %ymm0 {%k1} vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm0, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1] vminps %ymm2, %ymm1, %ymm1 vcmpeqps %ymm1, %ymm0, %k0 kmovd %k0, %eax andb %r12b, %al movzbl %al, %eax movzbl %r12b, %ecx cmovnel %eax, %ecx tzcntl %ecx, %r9d testb %r12b, %r12b jne 0x1cc0feb jmp 0x1cbffac leaq -0x28(%rbp), %rsp popq %rbx popq %r12 popq %r13 popq %r14 popq %r15 popq %rbp vzeroupper retq nop
/embree[P]embree/kernels/geometry/curveNi_intersector.h
bool embree::avx512::CurveNiIntersectorK<8, 4>::occluded_t<embree::avx512::RibbonCurve1IntersectorK<embree::CatmullRomCurveT, 4, 8>, embree::avx512::Occluded1KEpilogMU<8, 4, true>>(embree::avx512::CurvePrecalculationsK<4>&, embree::RayK<4>&, unsigned long, embree::RayQueryContext*, embree::CurveNi<8> const&)
static __forceinline bool occluded_t(Precalculations& pre, RayK<K>& ray, const size_t k, RayQueryContext* context, const Primitive& prim) { vfloat<M> tNear; vbool<M> valid = intersect(ray,k,prim,tNear); const size_t N = prim.N; size_t mask = movemask(valid); while (mask) { const size_t i = bscf(mask); STAT3(shadow.trav_prims,1,1,1); const unsigned int geomID = prim.geomID(N); const unsigned int primID = prim.primID(N)[i]; const CurveGeometry* geom = context->scene->get<CurveGeometry>(geomID); Vec3ff a0,a1,a2,a3; geom->gather(a0,a1,a2,a3,geom->curve(primID)); size_t mask1 = mask; const size_t i1 = bscf(mask1); if (mask) { const unsigned int primID1 = prim.primID(N)[i1]; geom->prefetchL1_vertices(geom->curve(primID1)); if (mask1) { const size_t i2 = bsf(mask1); const unsigned int primID2 = prim.primID(N)[i2]; geom->prefetchL2_vertices(geom->curve(primID2)); } } if (Intersector().intersect(pre,ray,k,context,geom,primID,a0,a1,a2,a3,Epilog(ray,k,context,geomID,primID))) return true; mask &= movemask(tNear <= vfloat<M>(ray.tfar[k])); } return false; }
pushq %rbp movq %rsp, %rbp pushq %r15 pushq %r14 pushq %r13 pushq %r12 pushq %rbx andq $-0x20, %rsp subq $0x6c0, %rsp # imm = 0x6C0 movq %rdx, %r14 movq %rsi, %r15 movzbl 0x1(%r8), %eax leaq (%rax,%rax,4), %rdx leaq (%rdx,%rdx,4), %rsi vbroadcastss 0x12(%r8,%rsi), %xmm0 vmovss (%r15,%r14,4), %xmm1 vmovss 0x40(%r15,%r14,4), %xmm2 vinsertps $0x10, 0x10(%r15,%r14,4), %xmm1, %xmm1 # xmm1 = xmm1[0],mem[0],xmm1[2,3] vinsertps $0x20, 0x20(%r15,%r14,4), %xmm1, %xmm1 # xmm1 = xmm1[0,1],mem[0],xmm1[3] vinsertps $0x10, 0x50(%r15,%r14,4), %xmm2, %xmm2 # xmm2 = xmm2[0],mem[0],xmm2[2,3] movq %rcx, %r10 movq %rdi, %r11 vinsertps $0x20, 0x60(%r15,%r14,4), %xmm2, %xmm2 # xmm2 = xmm2[0,1],mem[0],xmm2[3] vsubps 0x6(%r8,%rsi), %xmm1, %xmm1 vmulps %xmm1, %xmm0, %xmm3 vmulps %xmm2, %xmm0, %xmm0 vpmovsxbd 0x6(%r8,%rax,4), %ymm1 vcvtdq2ps %ymm1, %ymm5 vpmovsxbd 0x6(%r8,%rdx), %ymm1 vcvtdq2ps %ymm1, %ymm6 leaq (%rax,%rax,2), %rcx vpmovsxbd 0x6(%r8,%rcx,2), %ymm1 vcvtdq2ps %ymm1, %ymm2 leaq (%rax,%rdx,2), %rsi vpmovsxbd 0x6(%r8,%rsi), %ymm1 vcvtdq2ps %ymm1, %ymm7 leal (,%rcx,4), %esi vpmovsxbd 0x6(%r8,%rsi), %ymm1 vcvtdq2ps %ymm1, %ymm8 addq %rax, %rsi vpmovsxbd 0x6(%r8,%rsi), %ymm1 vcvtdq2ps %ymm1, %ymm9 leaq (%rax,%rax,8), %rsi leal (%rsi,%rsi), %edi vpmovsxbd 0x6(%r8,%rdi), %ymm1 addq %rax, %rdi vpmovsxbd 0x6(%r8,%rdi), %ymm4 vcvtdq2ps %ymm1, %ymm10 vcvtdq2ps %ymm4, %ymm11 shll $0x2, %edx vpmovsxbd 0x6(%r8,%rdx), %ymm1 vcvtdq2ps %ymm1, %ymm12 vbroadcastss %xmm0, %ymm13 vbroadcastss 0x251174(%rip), %ymm15 # 0x1f12704 vpermps %ymm0, %ymm15, %ymm14 vbroadcastss 0x25f93d(%rip), %ymm16 # 0x1f20edc vpermps %ymm0, %ymm16, %ymm0 vmulps %ymm2, %ymm0, %ymm4 vmulps %ymm0, %ymm9, %ymm1 vmulps %ymm0, %ymm12, %ymm0 vfmadd231ps %ymm6, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm6) + ymm4 vfmadd231ps %ymm8, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm8) + ymm1 vfmadd231ps %ymm14, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm14) + ymm0 vfmadd231ps %ymm5, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm5) + ymm4 vfmadd231ps %ymm7, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm7) + ymm1 vfmadd231ps %ymm13, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm13) + ymm0 vbroadcastss %xmm3, %ymm13 vpermps %ymm3, %ymm15, %ymm14 vpermps %ymm3, %ymm16, %ymm15 vmulps %ymm2, %ymm15, %ymm16 vmulps %ymm9, %ymm15, %ymm3 vmulps %ymm12, %ymm15, %ymm2 vfmadd231ps %ymm6, %ymm14, %ymm16 # ymm16 = (ymm14 * ymm6) + ymm16 vfmadd231ps %ymm8, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm8) + ymm3 vfmadd231ps %ymm11, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm11) + ymm2 vfmadd231ps %ymm5, %ymm13, %ymm16 # ymm16 = (ymm13 * ymm5) + ymm16 vfmadd231ps %ymm7, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm7) + ymm3 vfmadd231ps %ymm10, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm10) + ymm2 vbroadcastss 0x25f8ac(%rip), %ymm7 # 0x1f20ec4 vandps %ymm7, %ymm4, %ymm5 vbroadcastss 0x22f9c3(%rip), %ymm6 # 0x1ef0fe8 vcmpltps %ymm6, %ymm5, %k1 vmovaps %ymm6, %ymm4 {%k1} vandps %ymm7, %ymm1, %ymm5 vcmpltps %ymm6, %ymm5, %k1 vmovaps %ymm6, %ymm1 {%k1} vandps %ymm7, %ymm0, %ymm5 vcmpltps %ymm6, %ymm5, %k1 vmovaps %ymm6, %ymm0 {%k1} vrcp14ps %ymm4, %ymm5 vbroadcastss 0x22b0b1(%rip), %ymm6 # 0x1eec714 vfnmadd213ps %ymm6, %ymm5, %ymm4 # ymm4 = -(ymm5 * ymm4) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm4 # ymm4 = (ymm4 * ymm5) + ymm5 vrcp14ps %ymm1, %ymm5 vfnmadd213ps %ymm6, %ymm5, %ymm1 # ymm1 = -(ymm5 * ymm1) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm1 # ymm1 = (ymm1 * ymm5) + ymm5 vrcp14ps %ymm0, %ymm5 vfnmadd213ps %ymm6, %ymm5, %ymm0 # ymm0 = -(ymm5 * ymm0) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm0 # ymm0 = (ymm0 * ymm5) + ymm5 leaq (,%rax,8), %rdi subq %rax, %rdi vpmovsxwd 0x6(%r8,%rdi), %ymm5 vcvtdq2ps %ymm5, %ymm5 vsubps %ymm16, %ymm5, %ymm5 vpmovsxwd 0x6(%r8,%rsi), %ymm6 vmulps %ymm5, %ymm4, %ymm5 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm16, %ymm6, %ymm6 vmulps %ymm6, %ymm4, %ymm4 leaq (%rax,%rax), %rsi addq %rax, %rdx shlq $0x3, %rcx subq %rax, %rcx movl %eax, %edi shll $0x4, %edi vpmovsxwd 0x6(%r8,%rdi), %ymm6 subq %rsi, %rdi vpmovsxwd 0x6(%r8,%rdi), %ymm7 vcvtdq2ps %ymm7, %ymm7 vsubps %ymm3, %ymm7, %ymm7 vmulps %ymm7, %ymm1, %ymm7 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm3, %ymm6, %ymm3 vmulps %ymm3, %ymm1, %ymm1 vpmovsxwd 0x6(%r8,%rdx), %ymm3 vcvtdq2ps %ymm3, %ymm3 vsubps %ymm2, %ymm3, %ymm3 vmulps %ymm0, %ymm3, %ymm3 vpmovsxwd 0x6(%r8,%rcx), %ymm6 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm2, %ymm6, %ymm2 vmulps %ymm2, %ymm0, %ymm0 vpminsd %ymm4, %ymm5, %ymm2 vpminsd %ymm1, %ymm7, %ymm6 vmaxps %ymm6, %ymm2, %ymm2 vpminsd %ymm0, %ymm3, %ymm6 vmaxps 0x30(%r15,%r14,4){1to8}, %ymm6, %ymm6 vmaxps %ymm6, %ymm2, %ymm2 vmulps 0x25e7c3(%rip){1to8}, %ymm2, %ymm6 # 0x1f1ff10 vpmaxsd %ymm4, %ymm5, %ymm2 vpmaxsd %ymm1, %ymm7, %ymm1 vminps %ymm1, %ymm2, %ymm1 vpmaxsd %ymm0, %ymm3, %ymm0 vminps 0x80(%r15,%r14,4){1to8}, %ymm0, %ymm0 vminps %ymm0, %ymm1, %ymm0 vmulps 0x25e79e(%rip){1to8}, %ymm0, %ymm0 # 0x1f1ff14 vpbroadcastd %eax, %ymm1 vpcmpgtd 0x29919a(%rip), %ymm1, %k0 # 0x1f5a920 vmovaps %ymm6, 0x680(%rsp) vcmpleps %ymm0, %ymm6, %k1 ktestb %k0, %k1 setne 0x7(%rsp) je 0x1cc33ee kandb %k0, %k1, %k0 kmovd %k0, %eax movzbl %al, %r12d leaq (%r14,%r14,2), %rax shlq $0x4, %rax addq %r11, %rax addq $0x10, %rax movq %rax, 0x198(%rsp) movl $0x1, %eax shlxl %r14d, %eax, %eax kmovd %eax, %k0 vpmovm2d %k0, %xmm0 vmovdqa %xmm0, 0x270(%rsp) vmovaps %ymm5, 0x60(%rsp) vmovaps %ymm2, 0x40(%rsp) vmovaps %ymm20, 0x1e0(%rsp) tzcntq %r12, %rax movl 0x2(%r8), %ecx movl 0x6(%r8,%rax,4), %esi movq (%r10), %rax movq 0x1e8(%rax), %rax movq %rcx, 0x98(%rsp) movq (%rax,%rcx,8), %r13 movq 0x58(%r13), %rax movq 0x68(%r13), %rcx movq %rcx, %rdx movq %rsi, 0x10(%rsp) imulq %rsi, %rdx movl (%rax,%rdx), %edi movq 0xa0(%r13), %rdx movq %rdx, %r9 imulq %rdi, %r9 movq 0x90(%r13), %rsi vmovaps (%rsi,%r9), %xmm13 leaq 0x1(%rdi), %r9 imulq %rdx, %r9 vmovaps (%rsi,%r9), %xmm0 vmovaps %xmm0, 0x150(%rsp) leaq 0x2(%rdi), %r9 imulq %rdx, %r9 vmovaps (%rsi,%r9), %xmm0 vmovaps %xmm0, 0x140(%rsp) blsrq %r12, %r12 addq $0x3, %rdi imulq %rdx, %rdi vmovaps (%rsi,%rdi), %xmm0 vmovaps %xmm0, 0x180(%rsp) movq %r12, %rdi subq $0x1, %rdi jb 0x1cc18e8 andq %r12, %rdi tzcntq %r12, %r9 movl 0x6(%r8,%r9,4), %r9d imulq %rcx, %r9 movl (%rax,%r9), %r9d imulq %rdx, %r9 prefetcht0 (%rsi,%r9) prefetcht0 0x40(%rsi,%r9) testq %rdi, %rdi je 0x1cc18e8 tzcntq %rdi, %rdi movl 0x6(%r8,%rdi,4), %edi imulq %rdi, %rcx movl (%rax,%rcx), %eax imulq %rax, %rdx prefetcht1 (%rsi,%rdx) prefetcht1 0x40(%rsi,%rdx) movl 0x248(%r13), %r9d vmovss (%r15,%r14,4), %xmm0 vinsertps $0x1c, 0x10(%r15,%r14,4), %xmm0, %xmm0 # xmm0 = xmm0[0],mem[0],zero,zero vinsertps $0x28, 0x20(%r15,%r14,4), %xmm0, %xmm0 # xmm0 = xmm0[0,1],mem[0],zero vsubps %xmm0, %xmm13, %xmm1 vbroadcastss %xmm1, %xmm2 vshufps $0x55, %xmm1, %xmm1, %xmm3 # xmm3 = xmm1[1,1,1,1] vshufps $0xaa, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,2,2,2] movq 0x198(%rsp), %rax vmovaps (%rax), %xmm4 vmovaps 0x10(%rax), %xmm5 vmovaps 0x20(%rax), %xmm6 vmulps %xmm1, %xmm6, %xmm8 vfmadd231ps %xmm3, %xmm5, %xmm8 # xmm8 = (xmm5 * xmm3) + xmm8 vfmadd231ps %xmm2, %xmm4, %xmm8 # xmm8 = (xmm4 * xmm2) + xmm8 vshufps $0xff, %xmm13, %xmm13, %xmm1 # xmm1 = xmm13[3,3,3,3] vmovaps 0x150(%rsp), %xmm3 vsubps %xmm0, %xmm3, %xmm2 vmovaps %xmm3, %xmm10 vbroadcastss %xmm2, %xmm3 vshufps $0x55, %xmm2, %xmm2, %xmm7 # xmm7 = xmm2[1,1,1,1] vshufps $0xaa, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[2,2,2,2] vmulps %xmm2, %xmm6, %xmm9 vfmadd231ps %xmm7, %xmm5, %xmm9 # xmm9 = (xmm5 * xmm7) + xmm9 vfmadd231ps %xmm3, %xmm4, %xmm9 # xmm9 = (xmm4 * xmm3) + xmm9 vshufps $0xff, %xmm10, %xmm10, %xmm2 # xmm2 = xmm10[3,3,3,3] vmovaps 0x140(%rsp), %xmm7 vsubps %xmm0, %xmm7, %xmm3 vmovaps %xmm7, %xmm12 vbroadcastss %xmm3, %xmm7 vshufps $0x55, %xmm3, %xmm3, %xmm11 # xmm11 = xmm3[1,1,1,1] vshufps $0xaa, %xmm3, %xmm3, %xmm3 # xmm3 = xmm3[2,2,2,2] vmulps %xmm3, %xmm6, %xmm10 vfmadd231ps %xmm11, %xmm5, %xmm10 # xmm10 = (xmm5 * xmm11) + xmm10 vfmadd231ps %xmm7, %xmm4, %xmm10 # xmm10 = (xmm4 * xmm7) + xmm10 vshufps $0xff, %xmm12, %xmm12, %xmm7 # xmm7 = xmm12[3,3,3,3] vmovaps 0x180(%rsp), %xmm27 vsubps %xmm0, %xmm27, %xmm0 vbroadcastss %xmm0, %xmm3 vshufps $0x55, %xmm0, %xmm0, %xmm12 # xmm12 = xmm0[1,1,1,1] vshufps $0xaa, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[2,2,2,2] vmulps %xmm0, %xmm6, %xmm11 vfmadd231ps %xmm12, %xmm5, %xmm11 # xmm11 = (xmm5 * xmm12) + xmm11 vfmadd231ps %xmm3, %xmm4, %xmm11 # xmm11 = (xmm4 * xmm3) + xmm11 movslq %r9d, %rax movq %rax, %rcx shlq $0x6, %rcx leaq (%rcx,%rax,4), %rbx leaq 0x46e982(%rip), %rdx # 0x213036c vmovups (%rdx,%rbx), %ymm25 vshufps $0xff, %xmm27, %xmm27, %xmm0 # xmm0 = xmm27[3,3,3,3] vbroadcastss %xmm8, %ymm20 vbroadcastss 0x250cfd(%rip), %ymm3 # 0x1f12704 vpermps %ymm8, %ymm3, %ymm23 vbroadcastsd %xmm1, %ymm12 vmovups 0x484(%rdx,%rbx), %ymm14 vbroadcastss %xmm9, %ymm1 vpermps %ymm9, %ymm3, %ymm28 vbroadcastsd %xmm2, %ymm21 vmovups 0x908(%rdx,%rbx), %ymm15 vbroadcastss %xmm10, %ymm31 vpermps %ymm10, %ymm3, %ymm29 vbroadcastsd %xmm7, %ymm22 vmovups 0xd8c(%rdx,%rbx), %ymm16 vbroadcastss %xmm11, %ymm30 vpermps %ymm11, %ymm3, %ymm26 vbroadcastsd %xmm0, %ymm3 vmulps %ymm16, %ymm30, %ymm5 vmulps %ymm16, %ymm26, %ymm4 vfmadd231ps %ymm31, %ymm15, %ymm5 # ymm5 = (ymm15 * ymm31) + ymm5 vfmadd231ps %ymm29, %ymm15, %ymm4 # ymm4 = (ymm15 * ymm29) + ymm4 vfmadd231ps %ymm1, %ymm14, %ymm5 # ymm5 = (ymm14 * ymm1) + ymm5 vfmadd231ps %ymm28, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm28) + ymm4 vfmadd231ps %ymm20, %ymm25, %ymm5 # ymm5 = (ymm25 * ymm20) + ymm5 leaq 0x470cf9(%rip), %rsi # 0x213278c vmovups (%rsi,%rbx), %ymm2 vmovups 0x484(%rsi,%rbx), %ymm17 vfmadd231ps %ymm23, %ymm25, %ymm4 # ymm4 = (ymm25 * ymm23) + ymm4 vmovups 0x908(%rsi,%rbx), %ymm18 vmovups 0xd8c(%rsi,%rbx), %ymm19 vmulps %ymm19, %ymm30, %ymm7 vmulps %ymm19, %ymm26, %ymm6 vfmadd231ps %ymm31, %ymm18, %ymm7 # ymm7 = (ymm18 * ymm31) + ymm7 vfmadd231ps %ymm29, %ymm18, %ymm6 # ymm6 = (ymm18 * ymm29) + ymm6 vmovaps %ymm1, 0x160(%rsp) vfmadd231ps %ymm1, %ymm17, %ymm7 # ymm7 = (ymm17 * ymm1) + ymm7 vfmadd231ps %ymm28, %ymm17, %ymm6 # ymm6 = (ymm17 * ymm28) + ymm6 vmovaps %ymm20, 0x240(%rsp) vfmadd231ps %ymm20, %ymm2, %ymm7 # ymm7 = (ymm2 * ymm20) + ymm7 vmovaps %ymm23, 0x220(%rsp) vfmadd231ps %ymm23, %ymm2, %ymm6 # ymm6 = (ymm2 * ymm23) + ymm6 vsubps %ymm5, %ymm7, %ymm24 vsubps %ymm4, %ymm6, %ymm23 vmulps %ymm24, %ymm4, %ymm0 vmulps %ymm23, %ymm5, %ymm1 vsubps %ymm1, %ymm0, %ymm20 vmulps %ymm16, %ymm3, %ymm0 vfmadd231ps %ymm22, %ymm15, %ymm0 # ymm0 = (ymm15 * ymm22) + ymm0 vfmadd231ps %ymm21, %ymm14, %ymm0 # ymm0 = (ymm14 * ymm21) + ymm0 vfmadd231ps %ymm12, %ymm25, %ymm0 # ymm0 = (ymm25 * ymm12) + ymm0 vmovaps %ymm3, 0x580(%rsp) vmulps %ymm19, %ymm3, %ymm1 vmovaps %ymm22, 0x5e0(%rsp) vfmadd231ps %ymm22, %ymm18, %ymm1 # ymm1 = (ymm18 * ymm22) + ymm1 vmovaps %ymm21, 0x640(%rsp) vfmadd231ps %ymm21, %ymm17, %ymm1 # ymm1 = (ymm17 * ymm21) + ymm1 vmovaps %ymm12, 0x660(%rsp) vfmadd231ps %ymm12, %ymm2, %ymm1 # ymm1 = (ymm2 * ymm12) + ymm1 vmulps %ymm23, %ymm23, %ymm21 vfmadd231ps %ymm24, %ymm24, %ymm21 # ymm21 = (ymm24 * ymm24) + ymm21 vmaxps %ymm1, %ymm0, %ymm22 vmulps %ymm22, %ymm22, %ymm22 vmulps %ymm21, %ymm22, %ymm21 vmulps %ymm20, %ymm20, %ymm20 vcmpleps %ymm21, %ymm20, %k1 vmovaps %xmm13, 0x20(%rsp) vblendps $0x8, %xmm13, %xmm8, %xmm12 # xmm12 = xmm8[0,1,2],xmm13[3] vbroadcastss 0x25f30c(%rip), %xmm20 # 0x1f20ec4 vandps %xmm20, %xmm12, %xmm12 vblendps $0x8, 0x150(%rsp), %xmm9, %xmm13 # xmm13 = xmm9[0,1,2],mem[3] vandps %xmm20, %xmm13, %xmm13 vmaxps %xmm13, %xmm12, %xmm12 vblendps $0x8, 0x140(%rsp), %xmm10, %xmm13 # xmm13 = xmm10[0,1,2],mem[3] vandps %xmm20, %xmm13, %xmm13 vmovaps %xmm27, %xmm3 vblendps $0x8, %xmm3, %xmm11, %xmm3 # xmm3 = xmm11[0,1,2],xmm3[3] vandps %xmm20, %xmm3, %xmm3 vmaxps %xmm3, %xmm13, %xmm3 vmaxps %xmm3, %xmm12, %xmm3 vmovshdup %xmm3, %xmm12 # xmm12 = xmm3[1,1,3,3] vmaxss %xmm3, %xmm12, %xmm12 vshufpd $0x1, %xmm3, %xmm3, %xmm3 # xmm3 = xmm3[1,0] vmaxss %xmm12, %xmm3, %xmm3 vcvtsi2ss %r9d, %xmm8, %xmm12 vmovaps %xmm12, 0x130(%rsp) vbroadcastss %xmm12, %ymm12 vcmpgtps 0x25f311(%rip), %ymm12, %k1 {%k1} # 0x1f20f40 vmulss 0x22f3ad(%rip), %xmm3, %xmm12 # 0x1ef0fe4 vbroadcastss 0x25f29c(%rip), %ymm3 # 0x1f20edc vpermps %ymm8, %ymm3, %ymm21 vpermps %ymm9, %ymm3, %ymm20 vpermps %ymm10, %ymm3, %ymm22 vpermps %ymm11, %ymm3, %ymm8 kortestb %k1, %k1 vmovss 0x30(%r15,%r14,4), %xmm10 vmovaps %ymm30, 0x5c0(%rsp) vmovaps %ymm26, 0x5a0(%rsp) vmovaps %ymm28, 0x500(%rsp) vmovaps %ymm31, 0x620(%rsp) vmovaps %ymm29, 0x600(%rsp) vmovaps %ymm21, 0x560(%rsp) vmovaps %ymm20, 0x540(%rsp) vmovaps %ymm22, 0x520(%rsp) je 0x1cc26e9 vmovaps %xmm10, 0x1a0(%rsp) vmulps %ymm19, %ymm8, %ymm3 vfmadd213ps %ymm3, %ymm22, %ymm18 # ymm18 = (ymm22 * ymm18) + ymm3 vfmadd213ps %ymm18, %ymm20, %ymm17 # ymm17 = (ymm20 * ymm17) + ymm18 vfmadd213ps %ymm17, %ymm21, %ymm2 # ymm2 = (ymm21 * ymm2) + ymm17 vmulps %ymm16, %ymm8, %ymm3 vfmadd213ps %ymm3, %ymm22, %ymm15 # ymm15 = (ymm22 * ymm15) + ymm3 vfmadd213ps %ymm15, %ymm20, %ymm14 # ymm14 = (ymm20 * ymm14) + ymm15 vmovups 0x1210(%rdx,%rbx), %ymm3 vmovups 0x1694(%rdx,%rbx), %ymm10 vmovups 0x1b18(%rdx,%rbx), %ymm11 vmovaps %xmm12, %xmm16 vmovups 0x1f9c(%rdx,%rbx), %ymm12 vfmadd213ps %ymm14, %ymm21, %ymm25 # ymm25 = (ymm21 * ymm25) + ymm14 vmovaps %ymm8, %ymm15 vmulps %ymm12, %ymm30, %ymm9 vmulps %ymm12, %ymm26, %ymm8 vmulps %ymm12, %ymm15, %ymm12 vfmadd231ps %ymm31, %ymm11, %ymm9 # ymm9 = (ymm11 * ymm31) + ymm9 vfmadd231ps %ymm29, %ymm11, %ymm8 # ymm8 = (ymm11 * ymm29) + ymm8 vfmadd231ps %ymm11, %ymm22, %ymm12 # ymm12 = (ymm22 * ymm11) + ymm12 vmovaps 0x160(%rsp), %ymm19 vfmadd231ps %ymm19, %ymm10, %ymm9 # ymm9 = (ymm10 * ymm19) + ymm9 vfmadd231ps %ymm28, %ymm10, %ymm8 # ymm8 = (ymm10 * ymm28) + ymm8 vfmadd231ps %ymm10, %ymm20, %ymm12 # ymm12 = (ymm20 * ymm10) + ymm12 vmovaps 0x240(%rsp), %ymm17 vfmadd231ps %ymm17, %ymm3, %ymm9 # ymm9 = (ymm3 * ymm17) + ymm9 vmovaps 0x220(%rsp), %ymm18 vfmadd231ps %ymm18, %ymm3, %ymm8 # ymm8 = (ymm3 * ymm18) + ymm8 vmovups 0x1210(%rsi,%rbx), %ymm10 vmovups 0x1b18(%rsi,%rbx), %ymm11 vmovups 0x1f9c(%rsi,%rbx), %ymm13 vfmadd231ps %ymm3, %ymm21, %ymm12 # ymm12 = (ymm21 * ymm3) + ymm12 vmulps %ymm13, %ymm30, %ymm3 vmulps %ymm13, %ymm26, %ymm14 vmovaps %ymm15, 0x200(%rsp) vmulps %ymm13, %ymm15, %ymm13 vfmadd231ps %ymm31, %ymm11, %ymm3 # ymm3 = (ymm11 * ymm31) + ymm3 vfmadd231ps %ymm29, %ymm11, %ymm14 # ymm14 = (ymm11 * ymm29) + ymm14 vfmadd231ps %ymm11, %ymm22, %ymm13 # ymm13 = (ymm22 * ymm11) + ymm13 vmovups 0x1694(%rsi,%rbx), %ymm11 vfmadd231ps %ymm19, %ymm11, %ymm3 # ymm3 = (ymm11 * ymm19) + ymm3 vfmadd231ps %ymm28, %ymm11, %ymm14 # ymm14 = (ymm11 * ymm28) + ymm14 vfmadd231ps %ymm11, %ymm20, %ymm13 # ymm13 = (ymm20 * ymm11) + ymm13 vfmadd231ps %ymm17, %ymm10, %ymm3 # ymm3 = (ymm10 * ymm17) + ymm3 vfmadd231ps %ymm18, %ymm10, %ymm14 # ymm14 = (ymm10 * ymm18) + ymm14 vfmadd231ps %ymm10, %ymm21, %ymm13 # ymm13 = (ymm21 * ymm10) + ymm13 vbroadcastss 0x25f0d8(%rip), %ymm15 # 0x1f20ec4 vandps %ymm15, %ymm9, %ymm10 vandps %ymm15, %ymm8, %ymm11 vmaxps %ymm11, %ymm10, %ymm10 vandps %ymm15, %ymm12, %ymm11 vmaxps %ymm11, %ymm10, %ymm10 vbroadcastss %xmm16, %ymm11 vmovaps %xmm16, %xmm27 vcmpltps %ymm11, %ymm10, %k2 vmovaps %ymm24, %ymm9 {%k2} vmovaps %ymm23, %ymm8 {%k2} vandps %ymm3, %ymm15, %ymm10 vandps %ymm15, %ymm14, %ymm12 vmaxps %ymm12, %ymm10, %ymm10 vandps %ymm15, %ymm13, %ymm12 vmaxps %ymm12, %ymm10, %ymm10 vcmpltps %ymm11, %ymm10, %k2 vmovaps %ymm24, %ymm3 {%k2} vmovaps %ymm23, %ymm14 {%k2} vbroadcastss 0x25f068(%rip), %ymm11 # 0x1f20ec0 vxorps %ymm11, %ymm9, %ymm10 vxorps %ymm3, %ymm11, %ymm12 vxorps %xmm26, %xmm26, %xmm26 vfmadd213ps %ymm26, %ymm9, %ymm9 # ymm9 = (ymm9 * ymm9) + ymm26 vfmadd231ps %ymm8, %ymm8, %ymm9 # ymm9 = (ymm8 * ymm8) + ymm9 vrsqrt14ps %ymm9, %ymm11 vbroadcastss 0x22a89b(%rip), %ymm15 # 0x1eec71c vmulps %ymm15, %ymm9, %ymm9 vmulps %ymm9, %ymm11, %ymm9 vmulps %ymm11, %ymm11, %ymm13 vmulps %ymm9, %ymm13, %ymm9 vbroadcastss 0x22a879(%rip), %ymm16 # 0x1eec718 vfmadd231ps %ymm11, %ymm16, %ymm9 # ymm9 = (ymm16 * ymm11) + ymm9 vmulps %ymm9, %ymm8, %ymm11 vmulps %ymm10, %ymm9, %ymm10 vmulps %ymm26, %ymm9, %ymm13 vfmadd213ps %ymm26, %ymm3, %ymm3 # ymm3 = (ymm3 * ymm3) + ymm26 vfmadd231ps %ymm14, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm14) + ymm3 vrsqrt14ps %ymm3, %ymm8 vmulps %ymm3, %ymm15, %ymm3 vmulps %ymm3, %ymm8, %ymm3 vmulps %ymm8, %ymm8, %ymm9 vmulps %ymm3, %ymm9, %ymm3 vfmadd231ps %ymm8, %ymm16, %ymm3 # ymm3 = (ymm16 * ymm8) + ymm3 vmulps %ymm3, %ymm14, %ymm8 vmulps %ymm3, %ymm12, %ymm9 vmulps %ymm26, %ymm3, %ymm3 vmovaps %ymm11, %ymm12 vfmadd213ps %ymm5, %ymm0, %ymm12 # ymm12 = (ymm0 * ymm12) + ymm5 vmovaps %ymm10, %ymm14 vfmadd213ps %ymm4, %ymm0, %ymm14 # ymm14 = (ymm0 * ymm14) + ymm4 vmovaps %ymm13, %ymm15 vfmadd213ps %ymm25, %ymm0, %ymm15 # ymm15 = (ymm0 * ymm15) + ymm25 vmovaps %ymm8, %ymm16 vfmadd213ps %ymm7, %ymm1, %ymm16 # ymm16 = (ymm1 * ymm16) + ymm7 vfnmadd213ps %ymm5, %ymm0, %ymm11 # ymm11 = -(ymm0 * ymm11) + ymm5 vmovaps %ymm9, %ymm5 vfmadd213ps %ymm6, %ymm1, %ymm5 # ymm5 = (ymm1 * ymm5) + ymm6 vfnmadd213ps %ymm4, %ymm0, %ymm10 # ymm10 = -(ymm0 * ymm10) + ymm4 vmovaps %ymm3, %ymm4 vfmadd213ps %ymm2, %ymm1, %ymm4 # ymm4 = (ymm1 * ymm4) + ymm2 vfnmadd231ps %ymm13, %ymm0, %ymm25 # ymm25 = -(ymm0 * ymm13) + ymm25 vfnmadd213ps %ymm7, %ymm1, %ymm8 # ymm8 = -(ymm1 * ymm8) + ymm7 vfnmadd213ps %ymm6, %ymm1, %ymm9 # ymm9 = -(ymm1 * ymm9) + ymm6 vfnmadd231ps %ymm3, %ymm1, %ymm2 # ymm2 = -(ymm1 * ymm3) + ymm2 vsubps %ymm11, %ymm16, %ymm3 vsubps %ymm10, %ymm5, %ymm6 vsubps %ymm25, %ymm4, %ymm7 vmulps %ymm25, %ymm6, %ymm13 vfmsub231ps %ymm7, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm7) - ymm13 vmulps %ymm7, %ymm11, %ymm7 vfmsub231ps %ymm3, %ymm25, %ymm7 # ymm7 = (ymm25 * ymm3) - ymm7 vmulps %ymm3, %ymm10, %ymm3 vfmsub231ps %ymm6, %ymm11, %ymm3 # ymm3 = (ymm11 * ymm6) - ymm3 vfmadd231ps %ymm7, %ymm26, %ymm3 # ymm3 = (ymm26 * ymm7) + ymm3 vfmadd231ps %ymm13, %ymm26, %ymm3 # ymm3 = (ymm26 * ymm13) + ymm3 vcmpleps %ymm26, %ymm3, %k2 vmovaps %ymm12, %ymm8 {%k2} vmovaps %ymm14, %ymm9 {%k2} vmovaps %ymm15, %ymm2 {%k2} vblendmps %ymm16, %ymm11, %ymm13 {%k2} vblendmps %ymm5, %ymm10, %ymm14 {%k2} vblendmps %ymm4, %ymm25, %ymm15 {%k2} vmovaps %ymm11, %ymm16 {%k2} vmovaps %ymm10, %ymm5 {%k2} vmovaps %ymm25, %ymm4 {%k2} vsubps %ymm8, %ymm16, %ymm6 vsubps %ymm9, %ymm5, %ymm5 vsubps %ymm2, %ymm4, %ymm11 vsubps %ymm13, %ymm8, %ymm7 vsubps %ymm14, %ymm9, %ymm10 vsubps %ymm15, %ymm2, %ymm12 vmulps %ymm8, %ymm11, %ymm4 vfmsub231ps %ymm6, %ymm2, %ymm4 # ymm4 = (ymm2 * ymm6) - ymm4 vmulps %ymm6, %ymm9, %ymm3 vfmsub231ps %ymm5, %ymm8, %ymm3 # ymm3 = (ymm8 * ymm5) - ymm3 vfmadd231ps %ymm4, %ymm26, %ymm3 # ymm3 = (ymm26 * ymm4) + ymm3 vmulps %ymm2, %ymm5, %ymm4 vfmsub231ps %ymm11, %ymm9, %ymm4 # ymm4 = (ymm9 * ymm11) - ymm4 vfmadd231ps %ymm4, %ymm26, %ymm3 # ymm3 = (ymm26 * ymm4) + ymm3 vmulps %ymm13, %ymm12, %ymm16 vfmsub231ps %ymm15, %ymm7, %ymm16 # ymm16 = (ymm7 * ymm15) - ymm16 vmulps %ymm15, %ymm10, %ymm15 vfmsub231ps %ymm12, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm12) - ymm15 vmulps %ymm7, %ymm14, %ymm4 vfmsub231ps %ymm13, %ymm10, %ymm4 # ymm4 = (ymm10 * ymm13) - ymm4 vfmadd231ps %ymm16, %ymm26, %ymm4 # ymm4 = (ymm26 * ymm16) + ymm4 vfmadd231ps %ymm15, %ymm26, %ymm4 # ymm4 = (ymm26 * ymm15) + ymm4 vmaxps %ymm4, %ymm3, %ymm13 vcmpleps %ymm26, %ymm13, %k0 {%k1} kortestb %k0, %k0 vmovaps 0x1e0(%rsp), %ymm20 vmovaps %ymm17, %ymm22 vmovaps %ymm19, %ymm17 vmovaps %xmm27, %xmm14 je 0x1cc33a0 vmulps %ymm5, %ymm12, %ymm13 vfmsub231ps %ymm11, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm11) - ymm13 vmulps %ymm7, %ymm11, %ymm11 vfmsub231ps %ymm12, %ymm6, %ymm11 # ymm11 = (ymm6 * ymm12) - ymm11 vmulps %ymm6, %ymm10, %ymm10 vfmsub231ps %ymm5, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm5) - ymm10 vxorps %xmm6, %xmm6, %xmm6 vfmadd213ps %ymm10, %ymm11, %ymm6 # ymm6 = (ymm11 * ymm6) + ymm10 vfmadd231ps %ymm26, %ymm13, %ymm6 # ymm6 = (ymm13 * ymm26) + ymm6 vrcp14ps %ymm6, %ymm7 vmovaps %ymm7, %ymm5 vbroadcastss 0x22a678(%rip), %ymm12 # 0x1eec714 vfnmadd213ps %ymm12, %ymm6, %ymm5 # ymm5 = -(ymm6 * ymm5) + ymm12 vfmadd132ps %ymm7, %ymm7, %ymm5 # ymm5 = (ymm5 * ymm7) + ymm7 vmulps %ymm2, %ymm10, %ymm2 vfmadd231ps %ymm11, %ymm9, %ymm2 # ymm2 = (ymm9 * ymm11) + ymm2 vfmadd231ps %ymm13, %ymm8, %ymm2 # ymm2 = (ymm8 * ymm13) + ymm2 vmulps %ymm5, %ymm2, %ymm2 vmovaps 0x1a0(%rsp), %xmm10 vbroadcastss %xmm10, %ymm7 vcmpleps %ymm2, %ymm7, %k1 vcmpleps 0x80(%r15,%r14,4){1to8}, %ymm2, %k1 {%k1} kandb %k0, %k1, %k0 kortestb %k0, %k0 je 0x1cc33c2 vcmpneqps %ymm26, %ymm6, %k1 ktestb %k1, %k0 vmovaps 0x20(%rsp), %xmm9 je 0x1cc33db kandb %k1, %k0, %k0 kmovd %k0, %eax vmulps %ymm5, %ymm3, %ymm3 vmulps %ymm5, %ymm4, %ymm4 vsubps %ymm3, %ymm12, %ymm5 vmovaps %ymm3, %ymm5 {%k2} vsubps %ymm4, %ymm12, %ymm3 vmovaps %ymm4, %ymm3 {%k2} vmovaps %ymm3, 0x4c0(%rsp) movzbl %al, %eax testw %ax, %ax vmovaps 0x1c0(%rsp), %ymm21 je 0x1cc26dc vsubps %ymm0, %ymm1, %ymm1 vfmadd213ps %ymm0, %ymm5, %ymm1 # ymm1 = (ymm5 * ymm1) + ymm0 vaddps %ymm1, %ymm1, %ymm0 vmulps (%r11,%r14,4){1to8}, %ymm0, %ymm0 vcmpnleps %ymm0, %ymm2, %k0 kmovd %k0, %ecx andb %cl, %al je 0x1cc26dc vbroadcastss 0x22e860(%rip), %ymm0 # 0x1ef09cc vmovaps 0x4c0(%rsp), %ymm1 vfmadd132ps 0x22ee79(%rip){1to8}, %ymm0, %ymm1 # ymm1 = (ymm1 * mem) + ymm0 vmovaps %ymm5, 0x340(%rsp) vmovaps %ymm1, 0x4c0(%rsp) vmovaps %ymm1, 0x360(%rsp) vmovaps %ymm2, 0x380(%rsp) movl $0x0, 0x3a0(%rsp) movl %r9d, 0x3a4(%rsp) vmovaps %xmm9, 0x3b0(%rsp) vmovaps 0x150(%rsp), %xmm0 vmovaps %xmm0, 0x3c0(%rsp) vmovaps 0x140(%rsp), %xmm0 vmovaps %xmm0, 0x3d0(%rsp) vmovaps 0x180(%rsp), %xmm0 vmovaps %xmm0, 0x3e0(%rsp) movb %al, 0x3f0(%rsp) movl 0x90(%r15,%r14,4), %ecx testl %ecx, 0x34(%r13) je 0x1cc26dc movq 0x10(%r10), %rcx cmpq $0x0, 0x10(%rcx) jne 0x1cc2227 movb $0x1, %dil cmpq $0x0, 0x48(%r13) je 0x1cc26de vaddps 0x25ed11(%rip), %ymm5, %ymm0 # 0x1f20f40 vmovss 0x22a4dd(%rip), %xmm1 # 0x1eec714 vdivss 0x130(%rsp), %xmm1, %xmm1 vbroadcastss %xmm1, %ymm1 vmulps %ymm0, %ymm1, %ymm0 vmovaps %ymm0, 0x400(%rsp) vmovaps 0x4c0(%rsp), %ymm0 vmovaps %ymm0, 0x420(%rsp) vmovaps %ymm2, 0x440(%rsp) movzbl %al, %ecx tzcntq %rcx, %rdi movq 0x98(%rsp), %rax vpbroadcastd %eax, %xmm0 vmovdqa %xmm0, 0x460(%rsp) vmovaps 0x3c0(%rsp), %xmm0 vmovaps %xmm0, 0x110(%rsp) movq 0x10(%rsp), %rax vpbroadcastd %eax, %xmm0 vmovdqa %xmm0, 0x100(%rsp) movq %rdi, %rax vmovaps 0x3d0(%rsp), %xmm0 vmovaps %xmm0, 0xf0(%rsp) vmovaps 0x3e0(%rsp), %xmm0 vmovaps %xmm0, 0xe0(%rsp) movb $0x1, %dil vmovaps %xmm14, 0xd0(%rsp) movq %r8, 0x38(%rsp) movq %r10, 0x18(%rsp) movq %r11, 0x30(%rsp) vmovaps %ymm5, 0x60(%rsp) vmovaps %ymm2, 0x40(%rsp) movl %r9d, 0xc(%rsp) movq %rcx, 0x280(%rsp) vmovss 0x80(%r15,%r14,4), %xmm11 vmovss 0x440(%rsp,%rax,4), %xmm0 vbroadcastss 0x400(%rsp,%rax,4), %xmm1 movq %rax, 0x480(%rsp) vbroadcastss 0x420(%rsp,%rax,4), %xmm2 vmovss %xmm0, 0x80(%r15,%r14,4) movq 0x8(%r10), %rax vmovss 0x22a3c2(%rip), %xmm0 # 0x1eec714 vsubss %xmm1, %xmm0, %xmm0 vaddss %xmm0, %xmm0, %xmm3 vmulss %xmm3, %xmm1, %xmm4 vfnmadd231ss %xmm0, %xmm0, %xmm4 # xmm4 = -(xmm0 * xmm0) + xmm4 vaddss %xmm1, %xmm1, %xmm5 vmovss 0x22ec7d(%rip), %xmm8 # 0x1ef0fec vmovaps %xmm8, %xmm6 vfmadd213ss 0x22ec88(%rip), %xmm1, %xmm6 # xmm6 = (xmm1 * xmm6) + mem vmulss %xmm1, %xmm8, %xmm7 vmulss %xmm7, %xmm1, %xmm7 vfmadd231ss %xmm6, %xmm5, %xmm7 # xmm7 = (xmm5 * xmm6) + xmm7 vmovaps %xmm8, %xmm5 vfmadd213ss 0x22ec62(%rip), %xmm1, %xmm5 # xmm5 = (xmm1 * xmm5) + mem vmulss 0x22ec52(%rip), %xmm0, %xmm6 # 0x1ef0ff0 vmulss %xmm6, %xmm0, %xmm6 vfmadd231ss %xmm5, %xmm3, %xmm6 # xmm6 = (xmm3 * xmm5) + xmm6 vmulss 0x22e62d(%rip), %xmm0, %xmm0 # 0x1ef09dc vmulss %xmm1, %xmm1, %xmm3 vfmadd231ss %xmm0, %xmm1, %xmm3 # xmm3 = (xmm1 * xmm0) + xmm3 vmovss 0x22a7c0(%rip), %xmm8 # 0x1eecb80 vmulss %xmm4, %xmm8, %xmm0 vmulss %xmm7, %xmm8, %xmm4 vmulss %xmm6, %xmm8, %xmm5 vmulss %xmm3, %xmm8, %xmm3 vbroadcastss %xmm3, %xmm3 vmulps 0xe0(%rsp), %xmm3, %xmm3 vbroadcastss %xmm5, %xmm5 vfmadd132ps 0xf0(%rsp), %xmm3, %xmm5 # xmm5 = (xmm5 * mem) + xmm3 vbroadcastss %xmm4, %xmm3 vfmadd132ps 0x110(%rsp), %xmm5, %xmm3 # xmm3 = (xmm3 * mem) + xmm5 vbroadcastss %xmm0, %xmm0 vfmadd213ps %xmm3, %xmm9, %xmm0 # xmm0 = (xmm9 * xmm0) + xmm3 vbroadcastss %xmm0, %xmm3 vshufps $0x55, %xmm0, %xmm0, %xmm4 # xmm4 = xmm0[1,1,1,1] vshufps $0xaa, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[2,2,2,2] vmovaps %xmm3, 0x2b0(%rsp) vmovaps %xmm4, 0x2c0(%rsp) vmovaps %xmm0, 0x2d0(%rsp) vmovaps %xmm1, 0x2e0(%rsp) vmovaps %xmm2, 0x2f0(%rsp) vmovaps 0x100(%rsp), %xmm0 vmovaps %xmm0, 0x300(%rsp) vmovdqa 0x460(%rsp), %xmm0 vmovdqa %xmm0, 0x310(%rsp) leaq 0x320(%rsp), %rcx vpcmpeqd %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, (%rcx) vbroadcastss (%rax), %xmm0 vmovaps %xmm0, 0x320(%rsp) vbroadcastss 0x4(%rax), %xmm0 vmovaps %xmm0, 0x330(%rsp) vmovaps 0x270(%rsp), %xmm0 vmovaps %xmm0, 0x80(%rsp) leaq 0x80(%rsp), %rcx movq %rcx, 0xa0(%rsp) movq 0x18(%r13), %rcx movq %rcx, 0xa8(%rsp) movq %rax, 0xb0(%rsp) movq %r15, 0xb8(%rsp) leaq 0x2b0(%rsp), %rax movq %rax, 0xc0(%rsp) movl $0x4, 0xc8(%rsp) movq 0x48(%r13), %rax testq %rax, %rax movl %edi, 0x8(%rsp) vmovss %xmm11, 0x120(%rsp) je 0x1cc2588 leaq 0xa0(%rsp), %rdi vzeroupper callq *%rax vmovss 0x120(%rsp), %xmm11 vmovaps 0x1a0(%rsp), %xmm10 vmovaps 0xd0(%rsp), %xmm14 movl 0x8(%rsp), %edi vmovaps 0x160(%rsp), %ymm17 vmovaps 0x220(%rsp), %ymm18 vmovaps 0x240(%rsp), %ymm22 movl 0xc(%rsp), %r9d vmovaps 0x20(%rsp), %xmm9 vmovaps 0x1e0(%rsp), %ymm20 vxorps %xmm26, %xmm26, %xmm26 leaq 0x470222(%rip), %rsi # 0x213278c leaq 0x46ddfb(%rip), %rdx # 0x213036c vmovaps 0x1c0(%rsp), %ymm21 movq 0x30(%rsp), %r11 movq 0x18(%rsp), %r10 movq 0x38(%rsp), %r8 vmovdqa 0x80(%rsp), %xmm0 vptestmd %xmm0, %xmm0, %k0 kortestb %k0, %k0 je 0x1cc269d movq 0x10(%r10), %rcx movq 0x10(%rcx), %rax testq %rax, %rax vmovaps 0x60(%rsp), %ymm5 vmovaps 0x40(%rsp), %ymm2 je 0x1cc265c testb $0x2, (%rcx) jne 0x1cc25ce testb $0x40, 0x3e(%r13) je 0x1cc265c leaq 0xa0(%rsp), %rdi vzeroupper callq *%rax vmovss 0x120(%rsp), %xmm11 vmovaps 0x1a0(%rsp), %xmm10 vmovaps 0xd0(%rsp), %xmm14 movl 0x8(%rsp), %edi vmovaps 0x160(%rsp), %ymm17 vmovaps 0x220(%rsp), %ymm18 vmovaps 0x240(%rsp), %ymm22 movl 0xc(%rsp), %r9d vmovaps 0x20(%rsp), %xmm9 vmovaps 0x40(%rsp), %ymm2 vmovaps 0x1e0(%rsp), %ymm20 vmovaps 0x60(%rsp), %ymm5 vxorps %xmm26, %xmm26, %xmm26 leaq 0x47014e(%rip), %rsi # 0x213278c leaq 0x46dd27(%rip), %rdx # 0x213036c vmovaps 0x1c0(%rsp), %ymm21 movq 0x30(%rsp), %r11 movq 0x18(%rsp), %r10 movq 0x38(%rsp), %r8 vmovdqa 0x80(%rsp), %xmm0 movq 0xb8(%rsp), %rax vmovaps 0x80(%rax), %xmm1 vptestmd %xmm0, %xmm0, %k1 vbroadcastss 0x22a4ff(%rip), %xmm1 {%k1} # 0x1eecb84 vmovaps %xmm1, 0x80(%rax) kortestb %k1, %k1 movq 0x280(%rsp), %rcx je 0x1cc26b1 jmp 0x1cc26d6 vmovaps 0x60(%rsp), %ymm5 vmovaps 0x40(%rsp), %ymm2 movq 0x280(%rsp), %rcx vmovss %xmm11, 0x80(%r15,%r14,4) movq 0x480(%rsp), %rax btcq %rax, %rcx tzcntq %rcx, %rax setae %dil jae 0x1cc2305 andb $0x1, %dil jmp 0x1cc26de xorl %edi, %edi vmovaps 0x200(%rsp), %ymm8 jmp 0x1cc272a xorl %edi, %edi vxorps %xmm26, %xmm26, %xmm26 vmovaps 0x60(%rsp), %ymm5 vmovaps 0x1e0(%rsp), %ymm20 vmovaps 0x40(%rsp), %ymm2 vmovaps 0x1c0(%rsp), %ymm21 vmovaps 0x240(%rsp), %ymm22 vmovaps 0x220(%rsp), %ymm18 vmovaps 0x160(%rsp), %ymm17 vmovaps %xmm12, %xmm14 cmpl $0x9, %r9d jge 0x1cc276b vmovaps %ymm21, 0x1c0(%rsp) testb $0x1, %dil jne 0x1cc33ee vmovaps 0x680(%rsp), %ymm0 vcmpleps 0x80(%r15,%r14,4){1to8}, %ymm0, %k0 kmovb %k0, %eax andl %eax, %r12d setne 0x7(%rsp) jne 0x1cc17e5 jmp 0x1cc33ee vmovaps %ymm8, 0x200(%rsp) vpbroadcastd %r9d, %ymm0 vmovdqa %ymm0, 0x1a0(%rsp) vbroadcastss %xmm14, %ymm0 vmovaps %ymm0, 0x280(%rsp) vbroadcastss %xmm10, %ymm0 vmovaps %ymm0, 0x480(%rsp) vmovss 0x229f6d(%rip), %xmm0 # 0x1eec714 vdivss 0x130(%rsp), %xmm0, %xmm0 vbroadcastss %xmm0, %ymm0 vmovaps %ymm0, 0x460(%rsp) movq 0x98(%rsp), %rax vpbroadcastd %eax, %xmm0 vmovdqa %xmm0, 0x130(%rsp) movq 0x10(%rsp), %rax vpbroadcastd %eax, %xmm0 vmovdqa %xmm0, 0x120(%rsp) movl $0x8, %r13d vmovaps %ymm5, 0x60(%rsp) vmovaps %ymm2, 0x40(%rsp) vpbroadcastd %r13d, %ymm0 vpor 0x298117(%rip), %ymm0, %ymm0 # 0x1f5a920 vpcmpltd 0x1a0(%rsp), %ymm0, %k1 leaq (%rbx,%rdx), %rcx vmovups (%rcx,%r13,4), %ymm3 vmovups 0x484(%rcx,%r13,4), %ymm10 vmovups 0x908(%rcx,%r13,4), %ymm11 vmovups 0xd8c(%rcx,%r13,4), %ymm12 vmovaps 0x5c0(%rsp), %ymm28 vmulps %ymm12, %ymm28, %ymm5 vmovaps 0x5a0(%rsp), %ymm29 vmulps %ymm12, %ymm29, %ymm4 vmovaps 0x580(%rsp), %ymm1 vmulps %ymm1, %ymm12, %ymm0 vmovaps 0x620(%rsp), %ymm19 vfmadd231ps %ymm19, %ymm11, %ymm5 # ymm5 = (ymm11 * ymm19) + ymm5 vmovaps 0x600(%rsp), %ymm27 vfmadd231ps %ymm27, %ymm11, %ymm4 # ymm4 = (ymm11 * ymm27) + ymm4 vmovaps 0x5e0(%rsp), %ymm16 vfmadd231ps %ymm16, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm16) + ymm0 vfmadd231ps %ymm17, %ymm10, %ymm5 # ymm5 = (ymm10 * ymm17) + ymm5 vmovaps 0x500(%rsp), %ymm25 vfmadd231ps %ymm25, %ymm10, %ymm4 # ymm4 = (ymm10 * ymm25) + ymm4 vmovaps 0x640(%rsp), %ymm9 vfmadd231ps %ymm9, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm9) + ymm0 vfmadd231ps %ymm22, %ymm3, %ymm5 # ymm5 = (ymm3 * ymm22) + ymm5 vfmadd231ps %ymm18, %ymm3, %ymm4 # ymm4 = (ymm3 * ymm18) + ymm4 leaq (%rbx,%rsi), %rax vmovups (%rax,%r13,4), %ymm2 vmovups 0x484(%rax,%r13,4), %ymm13 vmovaps 0x660(%rsp), %ymm8 vfmadd231ps %ymm8, %ymm3, %ymm0 # ymm0 = (ymm3 * ymm8) + ymm0 vmovups 0x908(%rax,%r13,4), %ymm14 vmovups 0xd8c(%rax,%r13,4), %ymm15 vmulps %ymm15, %ymm28, %ymm7 vmulps %ymm15, %ymm29, %ymm6 vmulps %ymm1, %ymm15, %ymm1 vfmadd231ps %ymm19, %ymm14, %ymm7 # ymm7 = (ymm14 * ymm19) + ymm7 vfmadd231ps %ymm27, %ymm14, %ymm6 # ymm6 = (ymm14 * ymm27) + ymm6 vfmadd231ps %ymm16, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm16) + ymm1 vfmadd231ps %ymm17, %ymm13, %ymm7 # ymm7 = (ymm13 * ymm17) + ymm7 vfmadd231ps %ymm25, %ymm13, %ymm6 # ymm6 = (ymm13 * ymm25) + ymm6 vfmadd231ps %ymm9, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm9) + ymm1 vfmadd231ps %ymm22, %ymm2, %ymm7 # ymm7 = (ymm2 * ymm22) + ymm7 vfmadd231ps %ymm18, %ymm2, %ymm6 # ymm6 = (ymm2 * ymm18) + ymm6 vfmadd231ps %ymm8, %ymm2, %ymm1 # ymm1 = (ymm2 * ymm8) + ymm1 vmaxps %ymm1, %ymm0, %ymm16 vsubps %ymm5, %ymm7, %ymm9 vsubps %ymm4, %ymm6, %ymm8 vmovaps %ymm17, %ymm24 vmulps %ymm9, %ymm4, %ymm17 vmovaps %ymm18, %ymm23 vmulps %ymm8, %ymm5, %ymm18 vsubps %ymm18, %ymm17, %ymm17 vmulps %ymm8, %ymm8, %ymm18 vfmadd231ps %ymm9, %ymm9, %ymm18 # ymm18 = (ymm9 * ymm9) + ymm18 vmulps %ymm16, %ymm16, %ymm16 vmulps %ymm18, %ymm16, %ymm16 vmulps %ymm17, %ymm17, %ymm17 vcmpleps %ymm16, %ymm17, %k1 {%k1} kortestb %k1, %k1 je 0x1cc3343 vmovaps %ymm23, %ymm16 vmovaps 0x200(%rsp), %ymm23 vmulps %ymm15, %ymm23, %ymm15 vmovaps 0x520(%rsp), %ymm31 vfmadd213ps %ymm15, %ymm31, %ymm14 # ymm14 = (ymm31 * ymm14) + ymm15 vmovaps 0x540(%rsp), %ymm30 vfmadd213ps %ymm14, %ymm30, %ymm13 # ymm13 = (ymm30 * ymm13) + ymm14 vmovaps 0x560(%rsp), %ymm18 vfmadd213ps %ymm13, %ymm18, %ymm2 # ymm2 = (ymm18 * ymm2) + ymm13 vmulps %ymm12, %ymm23, %ymm12 vfmadd213ps %ymm12, %ymm31, %ymm11 # ymm11 = (ymm31 * ymm11) + ymm12 vfmadd213ps %ymm11, %ymm30, %ymm10 # ymm10 = (ymm30 * ymm10) + ymm11 vfmadd213ps %ymm10, %ymm18, %ymm3 # ymm3 = (ymm18 * ymm3) + ymm10 vmovups 0x1210(%rcx,%r13,4), %ymm12 vmovups 0x1694(%rcx,%r13,4), %ymm13 vmovups 0x1b18(%rcx,%r13,4), %ymm14 vmovups 0x1f9c(%rcx,%r13,4), %ymm15 vmulps %ymm15, %ymm28, %ymm11 vmulps %ymm15, %ymm29, %ymm10 vmulps %ymm15, %ymm23, %ymm15 vfmadd231ps %ymm19, %ymm14, %ymm11 # ymm11 = (ymm14 * ymm19) + ymm11 vfmadd231ps %ymm27, %ymm14, %ymm10 # ymm10 = (ymm14 * ymm27) + ymm10 vfmadd231ps %ymm14, %ymm31, %ymm15 # ymm15 = (ymm31 * ymm14) + ymm15 vfmadd231ps %ymm24, %ymm13, %ymm11 # ymm11 = (ymm13 * ymm24) + ymm11 vfmadd231ps %ymm25, %ymm13, %ymm10 # ymm10 = (ymm13 * ymm25) + ymm10 vfmadd231ps %ymm13, %ymm30, %ymm15 # ymm15 = (ymm30 * ymm13) + ymm15 vfmadd231ps %ymm22, %ymm12, %ymm11 # ymm11 = (ymm12 * ymm22) + ymm11 vfmadd231ps %ymm16, %ymm12, %ymm10 # ymm10 = (ymm12 * ymm16) + ymm10 vmovaps %ymm27, %ymm25 vmovaps %ymm19, %ymm27 vmovaps %ymm16, %ymm19 vfmadd231ps %ymm12, %ymm18, %ymm15 # ymm15 = (ymm18 * ymm12) + ymm15 vmovups 0x1210(%rax,%r13,4), %ymm13 vmovups 0x1b18(%rax,%r13,4), %ymm14 vmovups 0x1f9c(%rax,%r13,4), %ymm16 vmulps %ymm16, %ymm28, %ymm17 vmulps %ymm16, %ymm29, %ymm12 vmulps %ymm16, %ymm23, %ymm16 vfmadd231ps %ymm27, %ymm14, %ymm17 # ymm17 = (ymm14 * ymm27) + ymm17 vfmadd231ps %ymm25, %ymm14, %ymm12 # ymm12 = (ymm14 * ymm25) + ymm12 vfmadd231ps %ymm14, %ymm31, %ymm16 # ymm16 = (ymm31 * ymm14) + ymm16 vmovups 0x1694(%rax,%r13,4), %ymm14 vfmadd231ps %ymm24, %ymm14, %ymm17 # ymm17 = (ymm14 * ymm24) + ymm17 vfmadd231ps 0x500(%rsp), %ymm14, %ymm12 # ymm12 = (ymm14 * mem) + ymm12 vfmadd231ps %ymm14, %ymm30, %ymm16 # ymm16 = (ymm30 * ymm14) + ymm16 vfmadd231ps %ymm22, %ymm13, %ymm17 # ymm17 = (ymm13 * ymm22) + ymm17 vfmadd231ps %ymm19, %ymm13, %ymm12 # ymm12 = (ymm13 * ymm19) + ymm12 vfmadd231ps %ymm13, %ymm18, %ymm16 # ymm16 = (ymm18 * ymm13) + ymm16 vbroadcastss 0x25e3dd(%rip), %ymm18 # 0x1f20ec4 vandps %ymm18, %ymm11, %ymm13 vandps %ymm18, %ymm10, %ymm14 vmaxps %ymm14, %ymm13, %ymm13 vandps %ymm18, %ymm15, %ymm14 vmaxps %ymm14, %ymm13, %ymm13 vmovaps 0x280(%rsp), %ymm15 vcmpltps %ymm15, %ymm13, %k2 vmovaps %ymm9, %ymm11 {%k2} vmovaps %ymm8, %ymm10 {%k2} vandps %ymm18, %ymm17, %ymm13 vandps %ymm18, %ymm12, %ymm14 vmaxps %ymm14, %ymm13, %ymm13 vandps %ymm18, %ymm16, %ymm14 vmaxps %ymm14, %ymm13, %ymm13 vcmpltps %ymm15, %ymm13, %k2 vmovaps %ymm9, %ymm17 {%k2} vmovaps %ymm8, %ymm12 {%k2} vbroadcastss 0x25e369(%rip), %ymm9 # 0x1f20ec0 vxorps %ymm9, %ymm11, %ymm8 vxorps %ymm9, %ymm17, %ymm9 vfmadd213ps %ymm26, %ymm11, %ymm11 # ymm11 = (ymm11 * ymm11) + ymm26 vfmadd231ps %ymm10, %ymm10, %ymm11 # ymm11 = (ymm10 * ymm10) + ymm11 vrsqrt14ps %ymm11, %ymm13 vbroadcastss 0x229ba0(%rip), %ymm15 # 0x1eec71c vmulps %ymm15, %ymm11, %ymm11 vmulps %ymm11, %ymm13, %ymm11 vmulps %ymm13, %ymm13, %ymm14 vmulps %ymm11, %ymm14, %ymm14 vbroadcastss 0x229b7e(%rip), %ymm16 # 0x1eec718 vfmadd231ps %ymm13, %ymm16, %ymm14 # ymm14 = (ymm16 * ymm13) + ymm14 vmulps %ymm14, %ymm10, %ymm11 vmulps %ymm8, %ymm14, %ymm10 vmulps %ymm26, %ymm14, %ymm13 vfmadd213ps %ymm26, %ymm17, %ymm17 # ymm17 = (ymm17 * ymm17) + ymm26 vfmadd231ps %ymm12, %ymm12, %ymm17 # ymm17 = (ymm12 * ymm12) + ymm17 vrsqrt14ps %ymm17, %ymm8 vmulps %ymm15, %ymm17, %ymm14 vmulps %ymm14, %ymm8, %ymm14 vmulps %ymm8, %ymm8, %ymm15 vmulps %ymm14, %ymm15, %ymm14 vfmadd231ps %ymm8, %ymm16, %ymm14 # ymm14 = (ymm16 * ymm8) + ymm14 vmulps %ymm14, %ymm12, %ymm8 vmulps %ymm9, %ymm14, %ymm9 vmulps %ymm26, %ymm14, %ymm12 vmovaps %ymm11, %ymm14 vfmadd213ps %ymm5, %ymm0, %ymm14 # ymm14 = (ymm0 * ymm14) + ymm5 vmovaps %ymm10, %ymm15 vfmadd213ps %ymm4, %ymm0, %ymm15 # ymm15 = (ymm0 * ymm15) + ymm4 vmovaps %ymm13, %ymm16 vfmadd213ps %ymm3, %ymm0, %ymm16 # ymm16 = (ymm0 * ymm16) + ymm3 vmovaps %ymm8, %ymm17 vfmadd213ps %ymm7, %ymm1, %ymm17 # ymm17 = (ymm1 * ymm17) + ymm7 vfnmadd213ps %ymm5, %ymm0, %ymm11 # ymm11 = -(ymm0 * ymm11) + ymm5 vmovaps %ymm9, %ymm5 vfmadd213ps %ymm6, %ymm1, %ymm5 # ymm5 = (ymm1 * ymm5) + ymm6 vfnmadd213ps %ymm4, %ymm0, %ymm10 # ymm10 = -(ymm0 * ymm10) + ymm4 vmovaps %ymm12, %ymm4 vfmadd213ps %ymm2, %ymm1, %ymm4 # ymm4 = (ymm1 * ymm4) + ymm2 vfnmadd231ps %ymm13, %ymm0, %ymm3 # ymm3 = -(ymm0 * ymm13) + ymm3 vfnmadd213ps %ymm7, %ymm1, %ymm8 # ymm8 = -(ymm1 * ymm8) + ymm7 vfnmadd213ps %ymm6, %ymm1, %ymm9 # ymm9 = -(ymm1 * ymm9) + ymm6 vfnmadd231ps %ymm12, %ymm1, %ymm2 # ymm2 = -(ymm1 * ymm12) + ymm2 vsubps %ymm11, %ymm17, %ymm6 vsubps %ymm10, %ymm5, %ymm7 vsubps %ymm3, %ymm4, %ymm12 vmulps %ymm3, %ymm7, %ymm13 vfmsub231ps %ymm12, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm12) - ymm13 vmulps %ymm11, %ymm12, %ymm12 vfmsub231ps %ymm6, %ymm3, %ymm12 # ymm12 = (ymm3 * ymm6) - ymm12 vmulps %ymm6, %ymm10, %ymm6 vfmsub231ps %ymm7, %ymm11, %ymm6 # ymm6 = (ymm11 * ymm7) - ymm6 vfmadd231ps %ymm12, %ymm26, %ymm6 # ymm6 = (ymm26 * ymm12) + ymm6 vfmadd231ps %ymm13, %ymm26, %ymm6 # ymm6 = (ymm26 * ymm13) + ymm6 vcmpleps %ymm26, %ymm6, %k2 vmovaps %ymm14, %ymm8 {%k2} vmovaps %ymm15, %ymm9 {%k2} vmovaps %ymm16, %ymm2 {%k2} vblendmps %ymm17, %ymm11, %ymm13 {%k2} vblendmps %ymm5, %ymm10, %ymm14 {%k2} vblendmps %ymm4, %ymm3, %ymm15 {%k2} vmovaps %ymm11, %ymm17 {%k2} vmovaps %ymm10, %ymm5 {%k2} vmovaps %ymm3, %ymm4 {%k2} vsubps %ymm8, %ymm17, %ymm6 vsubps %ymm9, %ymm5, %ymm5 vsubps %ymm2, %ymm4, %ymm11 vsubps %ymm13, %ymm8, %ymm7 vsubps %ymm14, %ymm9, %ymm10 vsubps %ymm15, %ymm2, %ymm12 vmulps %ymm8, %ymm11, %ymm4 vfmsub231ps %ymm6, %ymm2, %ymm4 # ymm4 = (ymm2 * ymm6) - ymm4 vmulps %ymm6, %ymm9, %ymm3 vfmsub231ps %ymm5, %ymm8, %ymm3 # ymm3 = (ymm8 * ymm5) - ymm3 vfmadd231ps %ymm4, %ymm26, %ymm3 # ymm3 = (ymm26 * ymm4) + ymm3 vmulps %ymm2, %ymm5, %ymm4 vfmsub231ps %ymm11, %ymm9, %ymm4 # ymm4 = (ymm9 * ymm11) - ymm4 vfmadd231ps %ymm4, %ymm26, %ymm3 # ymm3 = (ymm26 * ymm4) + ymm3 vmulps %ymm13, %ymm12, %ymm16 vfmsub231ps %ymm15, %ymm7, %ymm16 # ymm16 = (ymm7 * ymm15) - ymm16 vmulps %ymm15, %ymm10, %ymm15 vfmsub231ps %ymm12, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm12) - ymm15 vmulps %ymm7, %ymm14, %ymm4 vfmsub231ps %ymm13, %ymm10, %ymm4 # ymm4 = (ymm10 * ymm13) - ymm4 vfmadd231ps %ymm16, %ymm26, %ymm4 # ymm4 = (ymm26 * ymm16) + ymm4 vfmadd231ps %ymm15, %ymm26, %ymm4 # ymm4 = (ymm26 * ymm15) + ymm4 vmaxps %ymm4, %ymm3, %ymm13 vcmpleps %ymm26, %ymm13, %k0 {%k1} kortestb %k0, %k0 vmovaps %ymm19, %ymm18 je 0x1cc3378 vmulps %ymm5, %ymm12, %ymm13 vfmsub231ps %ymm11, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm11) - ymm13 vmulps %ymm7, %ymm11, %ymm11 vfmsub231ps %ymm12, %ymm6, %ymm11 # ymm11 = (ymm6 * ymm12) - ymm11 vmulps %ymm6, %ymm10, %ymm10 vfmsub231ps %ymm5, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm5) - ymm10 vxorps %xmm6, %xmm6, %xmm6 vfmadd213ps %ymm10, %ymm11, %ymm6 # ymm6 = (ymm11 * ymm6) + ymm10 vfmadd231ps %ymm26, %ymm13, %ymm6 # ymm6 = (ymm13 * ymm26) + ymm6 vrcp14ps %ymm6, %ymm7 vmovaps %ymm7, %ymm5 vfnmadd213ps 0x22998d(%rip){1to8}, %ymm6, %ymm5 # ymm5 = -(ymm6 * ymm5) + mem vfmadd132ps %ymm7, %ymm7, %ymm5 # ymm5 = (ymm5 * ymm7) + ymm7 vmulps %ymm2, %ymm10, %ymm2 vfmadd231ps %ymm11, %ymm9, %ymm2 # ymm2 = (ymm9 * ymm11) + ymm2 vfmadd231ps %ymm13, %ymm8, %ymm2 # ymm2 = (ymm8 * ymm13) + ymm2 vmulps %ymm5, %ymm2, %ymm2 vcmpgeps 0x480(%rsp), %ymm2, %k1 vcmpleps 0x80(%r15,%r14,4){1to8}, %ymm2, %k1 {%k1} kandb %k0, %k1, %k0 kortestb %k0, %k0 je 0x1cc3378 vcmpneqps %ymm26, %ymm6, %k1 ktestb %k1, %k0 vmovaps 0x20(%rsp), %xmm9 vmovaps 0x160(%rsp), %ymm17 je 0x1cc3399 kandb %k1, %k0, %k0 kmovd %k0, %eax vmulps %ymm5, %ymm3, %ymm3 vmulps %ymm5, %ymm4, %ymm4 vbroadcastss 0x22991e(%rip), %ymm5 # 0x1eec714 vsubps %ymm3, %ymm5, %ymm20 vmovaps %ymm3, %ymm20 {%k2} vsubps %ymm4, %ymm5, %ymm3 vmovaps %ymm4, %ymm3 {%k2} vmovaps %ymm3, 0x4a0(%rsp) movzbl %al, %eax vmovaps %ymm2, %ymm21 vmovaps 0x60(%rsp), %ymm5 vmovaps 0x40(%rsp), %ymm2 testw %ax, %ax je 0x1cc3366 vsubps %ymm0, %ymm1, %ymm1 vfmadd213ps %ymm0, %ymm20, %ymm1 # ymm1 = (ymm20 * ymm1) + ymm0 vaddps %ymm1, %ymm1, %ymm0 vmulps (%r11,%r14,4){1to8}, %ymm0, %ymm0 vcmpnleps %ymm0, %ymm21, %k0 kmovd %k0, %ecx andb %cl, %al je 0x1cc3366 movl %edi, 0x8(%rsp) vbroadcastss 0x22db64(%rip), %ymm0 # 0x1ef09cc vmovaps 0x4a0(%rsp), %ymm1 vfmadd132ps 0x22e17d(%rip){1to8}, %ymm0, %ymm1 # ymm1 = (ymm1 * mem) + ymm0 vmovaps %ymm20, 0x340(%rsp) vmovaps %ymm1, 0x4a0(%rsp) vmovaps %ymm1, 0x360(%rsp) vmovaps %ymm21, 0x380(%rsp) movl %r13d, 0x3a0(%rsp) movl %r9d, 0x3a4(%rsp) vmovaps %xmm9, 0x3b0(%rsp) vmovaps 0x150(%rsp), %xmm0 vmovaps %xmm0, 0x3c0(%rsp) vmovaps 0x140(%rsp), %xmm0 vmovaps %xmm0, 0x3d0(%rsp) vmovdqa 0x180(%rsp), %xmm0 vmovdqa %xmm0, 0x3e0(%rsp) movb %al, 0x3f0(%rsp) movq (%r10), %rcx movq 0x1e8(%rcx), %rcx movq 0x98(%rsp), %rdi movq (%rcx,%rdi,8), %rdi movl 0x90(%r15,%r14,4), %ecx movq %rdi, 0x10(%rsp) testl %ecx, 0x34(%rdi) je 0x1cc335d movq 0x10(%r10), %rcx cmpq $0x0, 0x10(%rcx) movl 0x8(%rsp), %edi jne 0x1cc2f40 movq 0x10(%rsp), %rcx cmpq $0x0, 0x48(%rcx) movb $0x1, %cl je 0x1cc3363 movl %r9d, 0xc(%rsp) movq %r11, 0x30(%rsp) movq %r8, 0x38(%rsp) vmovaps %ymm20, 0x1e0(%rsp) vaddps 0x25dfdf(%rip), %ymm20, %ymm0 # 0x1f20f40 vcvtsi2ss %r13d, %xmm19, %xmm1 vbroadcastss %xmm1, %ymm1 vaddps %ymm0, %ymm1, %ymm0 vmulps 0x460(%rsp), %ymm0, %ymm0 vmovaps %ymm0, 0x400(%rsp) vmovaps 0x4a0(%rsp), %ymm0 vmovaps %ymm0, 0x420(%rsp) vmovaps %ymm21, 0x1c0(%rsp) vmovaps %ymm21, 0x440(%rsp) movzbl %al, %esi vmovaps 0x3c0(%rsp), %xmm0 vmovaps %xmm0, 0xd0(%rsp) tzcntq %rsi, %rdi vmovaps 0x3d0(%rsp), %xmm0 vmovaps %xmm0, 0x4f0(%rsp) vmovaps 0x3e0(%rsp), %xmm0 vmovaps %xmm0, 0x4e0(%rsp) movb $0x1, %al movl %eax, 0xe0(%rsp) movq %r10, 0x18(%rsp) vmovss 0x80(%r15,%r14,4), %xmm10 vmovss 0x440(%rsp,%rdi,4), %xmm0 vbroadcastss 0x400(%rsp,%rdi,4), %xmm1 vbroadcastss 0x420(%rsp,%rdi,4), %xmm2 vmovss %xmm0, 0x80(%r15,%r14,4) movq 0x8(%r10), %rax vmovss 0x2296e7(%rip), %xmm0 # 0x1eec714 vsubss %xmm1, %xmm0, %xmm0 vaddss %xmm0, %xmm0, %xmm3 vmulss %xmm3, %xmm1, %xmm4 vfnmadd231ss %xmm0, %xmm0, %xmm4 # xmm4 = -(xmm0 * xmm0) + xmm4 vaddss %xmm1, %xmm1, %xmm5 vmovss 0x22dfa2(%rip), %xmm8 # 0x1ef0fec vmovaps %xmm8, %xmm6 vfmadd213ss 0x22dfad(%rip), %xmm1, %xmm6 # xmm6 = (xmm1 * xmm6) + mem vmulss %xmm1, %xmm8, %xmm7 vmulss %xmm7, %xmm1, %xmm7 vfmadd231ss %xmm6, %xmm5, %xmm7 # xmm7 = (xmm5 * xmm6) + xmm7 vmovaps %xmm8, %xmm5 vfmadd213ss 0x22df87(%rip), %xmm1, %xmm5 # xmm5 = (xmm1 * xmm5) + mem vmulss 0x22df77(%rip), %xmm0, %xmm6 # 0x1ef0ff0 vmulss %xmm6, %xmm0, %xmm6 vfmadd231ss %xmm5, %xmm3, %xmm6 # xmm6 = (xmm3 * xmm5) + xmm6 vmulss 0x22d952(%rip), %xmm0, %xmm0 # 0x1ef09dc vmulss %xmm1, %xmm1, %xmm3 vfmadd231ss %xmm0, %xmm1, %xmm3 # xmm3 = (xmm1 * xmm0) + xmm3 vmovss 0x229ae5(%rip), %xmm8 # 0x1eecb80 vmulss %xmm4, %xmm8, %xmm0 vmulss %xmm7, %xmm8, %xmm4 vmulss %xmm6, %xmm8, %xmm5 vmulss %xmm3, %xmm8, %xmm3 vbroadcastss %xmm3, %xmm3 vmulps 0x4e0(%rsp), %xmm3, %xmm3 vbroadcastss %xmm5, %xmm5 vfmadd132ps 0x4f0(%rsp), %xmm3, %xmm5 # xmm5 = (xmm5 * mem) + xmm3 vbroadcastss %xmm4, %xmm3 vfmadd132ps 0xd0(%rsp), %xmm5, %xmm3 # xmm3 = (xmm3 * mem) + xmm5 vbroadcastss %xmm0, %xmm0 vfmadd213ps %xmm3, %xmm9, %xmm0 # xmm0 = (xmm9 * xmm0) + xmm3 vbroadcastss %xmm0, %xmm3 vshufps $0x55, %xmm0, %xmm0, %xmm4 # xmm4 = xmm0[1,1,1,1] vshufps $0xaa, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[2,2,2,2] vmovaps %xmm3, 0x2b0(%rsp) vmovaps %xmm4, 0x2c0(%rsp) vmovaps %xmm0, 0x2d0(%rsp) vmovaps %xmm1, 0x2e0(%rsp) vmovaps %xmm2, 0x2f0(%rsp) vmovaps 0x120(%rsp), %xmm0 vmovaps %xmm0, 0x300(%rsp) vmovdqa 0x130(%rsp), %xmm0 vmovdqa %xmm0, 0x310(%rsp) leaq 0x320(%rsp), %rcx vpcmpeqd %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, (%rcx) vbroadcastss (%rax), %xmm0 vmovaps %xmm0, 0x320(%rsp) vbroadcastss 0x4(%rax), %xmm0 vmovaps %xmm0, 0x330(%rsp) vmovaps 0x270(%rsp), %xmm0 vmovaps %xmm0, 0x80(%rsp) leaq 0x80(%rsp), %rcx movq %rcx, 0xa0(%rsp) movq 0x10(%rsp), %rdx movq 0x18(%rdx), %rcx movq %rcx, 0xa8(%rsp) movq %rax, 0xb0(%rsp) movq %r15, 0xb8(%rsp) leaq 0x2b0(%rsp), %rax movq %rax, 0xc0(%rsp) movl $0x4, 0xc8(%rsp) movq 0x48(%rdx), %rax testq %rax, %rax movq %rsi, 0x110(%rsp) movq %rdi, 0x100(%rsp) vmovss %xmm10, 0xf0(%rsp) je 0x1cc321f leaq 0xa0(%rsp), %rdi vzeroupper callq *%rax vmovss 0xf0(%rsp), %xmm10 movq 0x100(%rsp), %rdi movq 0x110(%rsp), %rsi vmovaps 0x20(%rsp), %xmm9 movq 0x18(%rsp), %r10 vmovdqa 0x80(%rsp), %xmm0 vptestmd %xmm0, %xmm0, %k0 kortestb %k0, %k0 je 0x1cc32bd movq 0x10(%r10), %rcx movq 0x10(%rcx), %rax testq %rax, %rax je 0x1cc3286 testb $0x2, (%rcx) jne 0x1cc3255 movq 0x10(%rsp), %rcx testb $0x40, 0x3e(%rcx) je 0x1cc3286 leaq 0xa0(%rsp), %rdi vzeroupper callq *%rax vmovss 0xf0(%rsp), %xmm10 movq 0x100(%rsp), %rdi movq 0x110(%rsp), %rsi vmovaps 0x20(%rsp), %xmm9 movq 0x18(%rsp), %r10 vmovdqa 0x80(%rsp), %xmm0 movq 0xb8(%rsp), %rax vmovaps 0x80(%rax), %xmm1 vptestmd %xmm0, %xmm0, %k1 vbroadcastss 0x2298d5(%rip), %xmm1 {%k1} # 0x1eecb84 vmovaps %xmm1, 0x80(%rax) kortestb %k1, %k1 jne 0x1cc32e0 vmovss %xmm10, 0x80(%r15,%r14,4) btcq %rdi, %rsi tzcntq %rsi, %rdi setae %al movl %eax, 0xe0(%rsp) jae 0x1cc2ff0 movl 0xe0(%rsp), %ecx andb $0x1, %cl movq 0x38(%rsp), %r8 movq 0x30(%rsp), %r11 leaq 0x46d071(%rip), %rdx # 0x213036c leaq 0x46f48a(%rip), %rsi # 0x213278c vxorps %xmm26, %xmm26, %xmm26 vmovaps 0x60(%rsp), %ymm5 vmovaps 0x1e0(%rsp), %ymm20 vmovaps 0x40(%rsp), %ymm2 vmovaps 0x1c0(%rsp), %ymm21 movl 0xc(%rsp), %r9d vmovaps 0x240(%rsp), %ymm22 vmovaps 0x220(%rsp), %ymm18 vmovaps 0x160(%rsp), %ymm17 jmp 0x1cc335f vmovaps 0x60(%rsp), %ymm5 vmovaps 0x40(%rsp), %ymm2 vmovaps %ymm23, %ymm18 vmovaps %ymm24, %ymm17 jmp 0x1cc3366 xorl %ecx, %ecx movl 0x8(%rsp), %edi orb %cl, %dil addq $0x8, %r13 cmpl %r13d, %r9d jg 0x1cc27fb jmp 0x1cc2730 xorl %eax, %eax vmovaps 0x60(%rsp), %ymm5 vmovaps 0x40(%rsp), %ymm2 vmovaps 0x20(%rsp), %xmm9 vmovaps 0x160(%rsp), %ymm17 jmp 0x1cc2e2a xorl %eax, %eax jmp 0x1cc2e1e xorl %eax, %eax vmovaps 0x60(%rsp), %ymm5 vmovaps 0x40(%rsp), %ymm2 vmovaps 0x20(%rsp), %xmm9 vmovaps 0x1a0(%rsp), %xmm10 jmp 0x1cc212b xorl %eax, %eax vmovaps 0x60(%rsp), %ymm5 vmovaps 0x40(%rsp), %ymm2 vmovaps 0x20(%rsp), %xmm9 jmp 0x1cc212b xorl %eax, %eax vmovaps 0x60(%rsp), %ymm5 vmovaps 0x40(%rsp), %ymm2 jmp 0x1cc212b movb 0x7(%rsp), %al andb $0x1, %al leaq -0x28(%rbp), %rsp popq %rbx popq %r12 popq %r13 popq %r14 popq %r15 popq %rbp vzeroupper retq
/embree[P]embree/kernels/geometry/curveNi_intersector.h
void embree::avx512::CurveNiIntersectorK<8, 8>::intersect_t<embree::avx512::RibbonCurve1IntersectorK<embree::CatmullRomCurveT, 8, 8>, embree::avx512::Intersect1KEpilogMU<8, 8, true>>(embree::avx512::CurvePrecalculationsK<8>&, embree::RayHitK<8>&, unsigned long, embree::RayQueryContext*, embree::CurveNi<8> const&)
static __forceinline void intersect_t(Precalculations& pre, RayHitK<K>& ray, const size_t k, RayQueryContext* context, const Primitive& prim) { vfloat<M> tNear; vbool<M> valid = intersect(ray,k,prim,tNear); const size_t N = prim.N; size_t mask = movemask(valid); while (mask) { const size_t i = bscf(mask); STAT3(normal.trav_prims,1,1,1); const unsigned int geomID = prim.geomID(N); const unsigned int primID = prim.primID(N)[i]; const CurveGeometry* geom = context->scene->get<CurveGeometry>(geomID); Vec3ff a0,a1,a2,a3; geom->gather(a0,a1,a2,a3,geom->curve(primID)); size_t mask1 = mask; const size_t i1 = bscf(mask1); if (mask) { const unsigned int primID1 = prim.primID(N)[i1]; geom->prefetchL1_vertices(geom->curve(primID1)); if (mask1) { const size_t i2 = bsf(mask1); const unsigned int primID2 = prim.primID(N)[i2]; geom->prefetchL2_vertices(geom->curve(primID2)); } } Intersector().intersect(pre,ray,k,context,geom,primID,a0,a1,a2,a3,Epilog(ray,k,context,geomID,primID)); mask &= movemask(tNear <= vfloat<M>(ray.tfar[k])); } }
pushq %rbp movq %rsp, %rbp pushq %r15 pushq %r14 pushq %r13 pushq %r12 pushq %rbx andq $-0x20, %rsp subq $0x7a0, %rsp # imm = 0x7A0 movq %rcx, %r10 movq %rdx, %r15 movq %rdi, 0xa8(%rsp) movzbl 0x1(%r8), %ecx leaq (%rcx,%rcx,4), %rax leaq (%rax,%rax,4), %rdx vbroadcastss 0x12(%r8,%rdx), %xmm0 vmovss (%rsi,%r15,4), %xmm1 vmovss 0x80(%rsi,%r15,4), %xmm2 vinsertps $0x10, 0x20(%rsi,%r15,4), %xmm1, %xmm1 # xmm1 = xmm1[0],mem[0],xmm1[2,3] vinsertps $0x20, 0x40(%rsi,%r15,4), %xmm1, %xmm1 # xmm1 = xmm1[0,1],mem[0],xmm1[3] vinsertps $0x10, 0xa0(%rsi,%r15,4), %xmm2, %xmm2 # xmm2 = xmm2[0],mem[0],xmm2[2,3] vinsertps $0x20, 0xc0(%rsi,%r15,4), %xmm2, %xmm2 # xmm2 = xmm2[0,1],mem[0],xmm2[3] vsubps 0x6(%r8,%rdx), %xmm1, %xmm1 vmulps %xmm1, %xmm0, %xmm3 vmulps %xmm2, %xmm0, %xmm0 vpmovsxbd 0x6(%r8,%rcx,4), %ymm1 vpmovsxbd 0x6(%r8,%rax), %ymm2 vcvtdq2ps %ymm1, %ymm5 vcvtdq2ps %ymm2, %ymm6 leaq (%rcx,%rcx,2), %rdx vpmovsxbd 0x6(%r8,%rdx,2), %ymm1 vcvtdq2ps %ymm1, %ymm4 leaq (%rcx,%rax,2), %rdi vpmovsxbd 0x6(%r8,%rdi), %ymm1 leal (,%rdx,4), %edi vpmovsxbd 0x6(%r8,%rdi), %ymm2 vcvtdq2ps %ymm1, %ymm7 vcvtdq2ps %ymm2, %ymm8 addq %rcx, %rdi vpmovsxbd 0x6(%r8,%rdi), %ymm1 vcvtdq2ps %ymm1, %ymm9 leaq (%rcx,%rcx,8), %r9 leal (%r9,%r9), %edi vpmovsxbd 0x6(%r8,%rdi), %ymm1 vcvtdq2ps %ymm1, %ymm10 addq %rcx, %rdi vpmovsxbd 0x6(%r8,%rdi), %ymm1 vcvtdq2ps %ymm1, %ymm11 shll $0x2, %eax vpmovsxbd 0x6(%r8,%rax), %ymm1 vcvtdq2ps %ymm1, %ymm12 vbroadcastss %xmm0, %ymm13 vbroadcastss 0x24f1ee(%rip), %ymm15 # 0x1f12704 vbroadcastss 0x25d9bc(%rip), %ymm16 # 0x1f20edc vpermps %ymm0, %ymm15, %ymm14 vpermps %ymm0, %ymm16, %ymm0 vmulps %ymm4, %ymm0, %ymm2 vmulps %ymm0, %ymm9, %ymm1 vmulps %ymm0, %ymm12, %ymm0 vfmadd231ps %ymm6, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm6) + ymm2 vfmadd231ps %ymm8, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm8) + ymm1 vfmadd231ps %ymm14, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm14) + ymm0 vfmadd231ps %ymm5, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm5) + ymm2 vfmadd231ps %ymm7, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm7) + ymm1 vfmadd231ps %ymm13, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm13) + ymm0 vbroadcastss %xmm3, %ymm13 vpermps %ymm3, %ymm15, %ymm14 vpermps %ymm3, %ymm16, %ymm3 vmulps %ymm4, %ymm3, %ymm15 vmulps %ymm3, %ymm9, %ymm4 vmulps %ymm3, %ymm12, %ymm3 vfmadd231ps %ymm6, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm6) + ymm15 vfmadd231ps %ymm8, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm8) + ymm4 vfmadd231ps %ymm11, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm11) + ymm3 vfmadd231ps %ymm5, %ymm13, %ymm15 # ymm15 = (ymm13 * ymm5) + ymm15 vfmadd231ps %ymm7, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm7) + ymm4 vbroadcastss 0x25d931(%rip), %ymm7 # 0x1f20ec4 vfmadd231ps %ymm10, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm10) + ymm3 vandps %ymm7, %ymm2, %ymm5 vbroadcastss 0x22da43(%rip), %ymm6 # 0x1ef0fe8 vcmpltps %ymm6, %ymm5, %k1 vmovaps %ymm6, %ymm2 {%k1} vandps %ymm7, %ymm1, %ymm5 vcmpltps %ymm6, %ymm5, %k1 vmovaps %ymm6, %ymm1 {%k1} vandps %ymm7, %ymm0, %ymm5 vcmpltps %ymm6, %ymm5, %k1 vmovaps %ymm6, %ymm0 {%k1} vrcp14ps %ymm2, %ymm5 vbroadcastss 0x229131(%rip), %ymm6 # 0x1eec714 vfnmadd213ps %ymm6, %ymm5, %ymm2 # ymm2 = -(ymm5 * ymm2) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm2 # ymm2 = (ymm2 * ymm5) + ymm5 vrcp14ps %ymm1, %ymm5 vfnmadd213ps %ymm6, %ymm5, %ymm1 # ymm1 = -(ymm5 * ymm1) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm1 # ymm1 = (ymm1 * ymm5) + ymm5 vrcp14ps %ymm0, %ymm5 vfnmadd213ps %ymm6, %ymm5, %ymm0 # ymm0 = -(ymm5 * ymm0) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm0 # ymm0 = (ymm0 * ymm5) + ymm5 leaq (,%rcx,8), %rdi subq %rcx, %rdi vpmovsxwd 0x6(%r8,%rdi), %ymm5 vcvtdq2ps %ymm5, %ymm5 vsubps %ymm15, %ymm5, %ymm5 vmulps %ymm5, %ymm2, %ymm5 vpmovsxwd 0x6(%r8,%r9), %ymm6 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm15, %ymm6, %ymm6 leaq (%rcx,%rcx), %rdi addq %rcx, %rax shlq $0x3, %rdx subq %rcx, %rdx vpbroadcastd %ecx, %ymm7 shll $0x4, %ecx vpmovsxwd 0x6(%r8,%rcx), %ymm8 vmulps %ymm6, %ymm2, %ymm2 subq %rdi, %rcx vpmovsxwd 0x6(%r8,%rcx), %ymm6 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm4, %ymm6, %ymm6 vmulps %ymm6, %ymm1, %ymm6 vcvtdq2ps %ymm8, %ymm8 vsubps %ymm4, %ymm8, %ymm4 vmulps %ymm4, %ymm1, %ymm1 vpmovsxwd 0x6(%r8,%rax), %ymm4 vcvtdq2ps %ymm4, %ymm4 vsubps %ymm3, %ymm4, %ymm4 vmulps %ymm0, %ymm4, %ymm4 vpmovsxwd 0x6(%r8,%rdx), %ymm8 vcvtdq2ps %ymm8, %ymm8 vsubps %ymm3, %ymm8, %ymm3 vmulps %ymm3, %ymm0, %ymm0 vpminsd %ymm2, %ymm5, %ymm3 vpminsd %ymm1, %ymm6, %ymm8 vmaxps %ymm8, %ymm3, %ymm3 vpminsd %ymm0, %ymm4, %ymm8 vmaxps 0x60(%rsi,%r15,4){1to8}, %ymm8, %ymm8 vmaxps %ymm8, %ymm3, %ymm3 vmulps 0x25c83d(%rip){1to8}, %ymm3, %ymm3 # 0x1f1ff10 vpmaxsd %ymm2, %ymm5, %ymm2 vpmaxsd %ymm1, %ymm6, %ymm1 vminps %ymm1, %ymm2, %ymm1 vpmaxsd %ymm0, %ymm4, %ymm0 vminps 0x100(%rsi,%r15,4){1to8}, %ymm0, %ymm0 vminps %ymm0, %ymm1, %ymm0 vmulps 0x25c818(%rip){1to8}, %ymm0, %ymm0 # 0x1f1ff14 vpcmpgtd 0x29721a(%rip), %ymm7, %k0 # 0x1f5a920 vmovaps %ymm3, 0x760(%rsp) vcmpleps %ymm0, %ymm3, %k1 ktestb %k0, %k1 je 0x1cc5903 kandb %k0, %k1, %k0 kmovd %k0, %eax movzbl %al, %r13d leaq (%r15,%r15,2), %rax shlq $0x4, %rax movq 0xa8(%rsp), %rcx addq %rcx, %rax addq $0x20, %rax movq %rax, 0x218(%rsp) leaq 0x500(%rsp), %rax leaq 0xe0(%rax), %rax movq %rax, 0x118(%rsp) movl $0x1, %eax shlxl %r15d, %eax, %eax kmovd %eax, %k0 vpmovm2d %k0, %ymm0 vmovdqa %ymm0, 0x4c0(%rsp) leaq 0x46cbe6(%rip), %r12 # 0x213036c vmovaps %ymm6, 0x80(%rsp) vmovaps %ymm3, 0x60(%rsp) vmovaps %ymm21, 0x180(%rsp) vmovaps %ymm20, 0x1a0(%rsp) tzcntq %r13, %rax movl 0x2(%r8), %ecx movl 0x6(%r8,%rax,4), %edi movq (%r10), %rax movq 0x1e8(%rax), %rax movq %rcx, 0x38(%rsp) movq (%rax,%rcx,8), %r14 movq 0x58(%r14), %rax movq 0x68(%r14), %rcx movq %rcx, %rdx movq %rdi, 0x58(%rsp) imulq %rdi, %rdx movl (%rax,%rdx), %edi movq 0xa0(%r14), %rdx movq %rdx, %r9 imulq %rdi, %r9 movq 0x90(%r14), %r11 vmovaps (%r11,%r9), %xmm13 leaq 0x1(%rdi), %r9 imulq %rdx, %r9 vmovaps (%r11,%r9), %xmm0 vmovaps %xmm0, 0xc0(%rsp) leaq 0x2(%rdi), %r9 imulq %rdx, %r9 vmovaps (%r11,%r9), %xmm0 vmovaps %xmm0, 0xb0(%rsp) blsrq %r13, %r13 addq $0x3, %rdi imulq %rdx, %rdi vmovaps (%r11,%rdi), %xmm0 vmovaps %xmm0, 0x100(%rsp) movq %r13, %rdi subq $0x1, %rdi jb 0x1cc3894 andq %r13, %rdi tzcntq %r13, %r9 movl 0x6(%r8,%r9,4), %r9d imulq %rcx, %r9 movl (%rax,%r9), %r9d imulq %rdx, %r9 prefetcht0 (%r11,%r9) prefetcht0 0x40(%r11,%r9) testq %rdi, %rdi je 0x1cc3894 tzcntq %rdi, %rdi movl 0x6(%r8,%rdi,4), %edi imulq %rdi, %rcx movl (%rax,%rcx), %eax imulq %rax, %rdx prefetcht1 (%r11,%rdx) prefetcht1 0x40(%r11,%rdx) movl 0x248(%r14), %edi vmovss (%rsi,%r15,4), %xmm0 vinsertps $0x1c, 0x20(%rsi,%r15,4), %xmm0, %xmm0 # xmm0 = xmm0[0],mem[0],zero,zero vinsertps $0x28, 0x40(%rsi,%r15,4), %xmm0, %xmm0 # xmm0 = xmm0[0,1],mem[0],zero vsubps %xmm0, %xmm13, %xmm1 vbroadcastss %xmm1, %xmm2 vshufps $0x55, %xmm1, %xmm1, %xmm3 # xmm3 = xmm1[1,1,1,1] vshufps $0xaa, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,2,2,2] movq 0x218(%rsp), %rax vmovaps (%rax), %xmm4 vmovaps 0x10(%rax), %xmm5 vmovaps 0x20(%rax), %xmm6 vmulps %xmm1, %xmm6, %xmm8 vfmadd231ps %xmm3, %xmm5, %xmm8 # xmm8 = (xmm5 * xmm3) + xmm8 vfmadd231ps %xmm2, %xmm4, %xmm8 # xmm8 = (xmm4 * xmm2) + xmm8 vshufps $0xff, %xmm13, %xmm13, %xmm1 # xmm1 = xmm13[3,3,3,3] vmovaps 0xc0(%rsp), %xmm3 vsubps %xmm0, %xmm3, %xmm2 vmovaps %xmm3, %xmm10 vbroadcastss %xmm2, %xmm3 vshufps $0x55, %xmm2, %xmm2, %xmm7 # xmm7 = xmm2[1,1,1,1] vshufps $0xaa, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[2,2,2,2] vmulps %xmm2, %xmm6, %xmm9 vfmadd231ps %xmm7, %xmm5, %xmm9 # xmm9 = (xmm5 * xmm7) + xmm9 vfmadd231ps %xmm3, %xmm4, %xmm9 # xmm9 = (xmm4 * xmm3) + xmm9 vshufps $0xff, %xmm10, %xmm10, %xmm2 # xmm2 = xmm10[3,3,3,3] vmovaps 0xb0(%rsp), %xmm7 vsubps %xmm0, %xmm7, %xmm3 vmovaps %xmm7, %xmm12 vbroadcastss %xmm3, %xmm7 vshufps $0x55, %xmm3, %xmm3, %xmm11 # xmm11 = xmm3[1,1,1,1] vshufps $0xaa, %xmm3, %xmm3, %xmm3 # xmm3 = xmm3[2,2,2,2] vmulps %xmm3, %xmm6, %xmm10 vfmadd231ps %xmm11, %xmm5, %xmm10 # xmm10 = (xmm5 * xmm11) + xmm10 vfmadd231ps %xmm7, %xmm4, %xmm10 # xmm10 = (xmm4 * xmm7) + xmm10 vshufps $0xff, %xmm12, %xmm12, %xmm7 # xmm7 = xmm12[3,3,3,3] vmovaps 0x100(%rsp), %xmm26 vsubps %xmm0, %xmm26, %xmm0 vbroadcastss %xmm0, %xmm3 vshufps $0x55, %xmm0, %xmm0, %xmm12 # xmm12 = xmm0[1,1,1,1] vshufps $0xaa, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[2,2,2,2] vmulps %xmm0, %xmm6, %xmm11 vfmadd231ps %xmm12, %xmm5, %xmm11 # xmm11 = (xmm5 * xmm12) + xmm11 vfmadd231ps %xmm3, %xmm4, %xmm11 # xmm11 = (xmm4 * xmm3) + xmm11 movslq %edi, %rax movq %rax, %rcx shlq $0x6, %rcx leaq (%rcx,%rax,4), %rbx vmovups (%r12,%rbx), %ymm25 vshufps $0xff, %xmm26, %xmm26, %xmm0 # xmm0 = xmm26[3,3,3,3] vbroadcastss %xmm8, %ymm20 vbroadcastss 0x24ed58(%rip), %ymm4 # 0x1f12704 vpermps %ymm8, %ymm4, %ymm23 vbroadcastsd %xmm1, %ymm3 vmovups 0x484(%r12,%rbx), %ymm14 vbroadcastss %xmm9, %ymm1 vpermps %ymm9, %ymm4, %ymm27 vbroadcastsd %xmm2, %ymm12 vmovups 0x908(%r12,%rbx), %ymm15 vbroadcastss %xmm10, %ymm31 vpermps %ymm10, %ymm4, %ymm30 vbroadcastsd %xmm7, %ymm21 vmovups 0xd8c(%r12,%rbx), %ymm16 vbroadcastss %xmm11, %ymm28 vpermps %ymm11, %ymm4, %ymm29 vbroadcastsd %xmm0, %ymm22 vmulps %ymm16, %ymm28, %ymm5 vmulps %ymm16, %ymm29, %ymm4 vfmadd231ps %ymm31, %ymm15, %ymm5 # ymm5 = (ymm15 * ymm31) + ymm5 vfmadd231ps %ymm30, %ymm15, %ymm4 # ymm4 = (ymm15 * ymm30) + ymm4 vfmadd231ps %ymm1, %ymm14, %ymm5 # ymm5 = (ymm14 * ymm1) + ymm5 vfmadd231ps %ymm27, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm27) + ymm4 vfmadd231ps %ymm20, %ymm25, %ymm5 # ymm5 = (ymm25 * ymm20) + ymm5 leaq 0x46ed52(%rip), %rdx # 0x213278c vmovups (%rdx,%rbx), %ymm2 vmovups 0x484(%rdx,%rbx), %ymm17 vfmadd231ps %ymm23, %ymm25, %ymm4 # ymm4 = (ymm25 * ymm23) + ymm4 vmovups 0x908(%rdx,%rbx), %ymm18 vmovups 0xd8c(%rdx,%rbx), %ymm19 vmulps %ymm19, %ymm28, %ymm7 vmulps %ymm19, %ymm29, %ymm6 vfmadd231ps %ymm31, %ymm18, %ymm7 # ymm7 = (ymm18 * ymm31) + ymm7 vfmadd231ps %ymm30, %ymm18, %ymm6 # ymm6 = (ymm18 * ymm30) + ymm6 vmovaps %ymm1, 0x120(%rsp) vfmadd231ps %ymm1, %ymm17, %ymm7 # ymm7 = (ymm17 * ymm1) + ymm7 vfmadd231ps %ymm27, %ymm17, %ymm6 # ymm6 = (ymm17 * ymm27) + ymm6 vmovaps %ymm20, 0x260(%rsp) vfmadd231ps %ymm20, %ymm2, %ymm7 # ymm7 = (ymm2 * ymm20) + ymm7 vmovaps %ymm23, 0x240(%rsp) vfmadd231ps %ymm23, %ymm2, %ymm6 # ymm6 = (ymm2 * ymm23) + ymm6 vsubps %ymm5, %ymm7, %ymm24 vsubps %ymm4, %ymm6, %ymm23 vmulps %ymm24, %ymm4, %ymm0 vmulps %ymm23, %ymm5, %ymm1 vsubps %ymm1, %ymm0, %ymm20 vmulps %ymm16, %ymm22, %ymm0 vfmadd231ps %ymm21, %ymm15, %ymm0 # ymm0 = (ymm15 * ymm21) + ymm0 vfmadd231ps %ymm12, %ymm14, %ymm0 # ymm0 = (ymm14 * ymm12) + ymm0 vfmadd231ps %ymm3, %ymm25, %ymm0 # ymm0 = (ymm25 * ymm3) + ymm0 vmovaps %ymm22, 0x6a0(%rsp) vmulps %ymm19, %ymm22, %ymm1 vmovaps %ymm21, 0x6c0(%rsp) vfmadd231ps %ymm21, %ymm18, %ymm1 # ymm1 = (ymm18 * ymm21) + ymm1 vmovaps %ymm12, 0x720(%rsp) vfmadd231ps %ymm12, %ymm17, %ymm1 # ymm1 = (ymm17 * ymm12) + ymm1 vmovaps %ymm3, 0x740(%rsp) vfmadd231ps %ymm3, %ymm2, %ymm1 # ymm1 = (ymm2 * ymm3) + ymm1 vmulps %ymm23, %ymm23, %ymm21 vfmadd231ps %ymm24, %ymm24, %ymm21 # ymm21 = (ymm24 * ymm24) + ymm21 vmaxps %ymm1, %ymm0, %ymm22 vmulps %ymm22, %ymm22, %ymm22 vmulps %ymm21, %ymm22, %ymm21 vmulps %ymm20, %ymm20, %ymm20 vcmpleps %ymm21, %ymm20, %k1 vmovaps %xmm13, 0x40(%rsp) vblendps $0x8, %xmm13, %xmm8, %xmm12 # xmm12 = xmm8[0,1,2],xmm13[3] vbroadcastss 0x25d366(%rip), %xmm20 # 0x1f20ec4 vandps %xmm20, %xmm12, %xmm12 vblendps $0x8, 0xc0(%rsp), %xmm9, %xmm13 # xmm13 = xmm9[0,1,2],mem[3] vandps %xmm20, %xmm13, %xmm13 vmaxps %xmm13, %xmm12, %xmm12 vblendps $0x8, 0xb0(%rsp), %xmm10, %xmm13 # xmm13 = xmm10[0,1,2],mem[3] vandps %xmm20, %xmm13, %xmm13 vmovaps %xmm26, %xmm3 vblendps $0x8, %xmm3, %xmm11, %xmm3 # xmm3 = xmm11[0,1,2],xmm3[3] vandps %xmm20, %xmm3, %xmm3 vmaxps %xmm3, %xmm13, %xmm3 vmaxps %xmm3, %xmm12, %xmm3 vmovshdup %xmm3, %xmm12 # xmm12 = xmm3[1,1,3,3] vmaxss %xmm3, %xmm12, %xmm12 vshufpd $0x1, %xmm3, %xmm3, %xmm3 # xmm3 = xmm3[1,0] vmaxss %xmm12, %xmm3, %xmm3 vcvtsi2ss %edi, %xmm8, %xmm12 vmovaps %xmm12, 0x2e0(%rsp) vbroadcastss %xmm12, %ymm12 vcmpgtps 0x25d36c(%rip), %ymm12, %k1 {%k1} # 0x1f20f40 vmulss 0x22d406(%rip), %xmm3, %xmm26 # 0x1ef0fe4 vbroadcastss 0x25d2f5(%rip), %ymm3 # 0x1f20edc vpermps %ymm8, %ymm3, %ymm20 vpermps %ymm9, %ymm3, %ymm21 vpermps %ymm10, %ymm3, %ymm22 vpermps %ymm11, %ymm3, %ymm3 kortestb %k1, %k1 vmovss 0x60(%rsi,%r15,4), %xmm10 vmovaps %ymm27, 0x4e0(%rsp) vmovaps %ymm31, 0x700(%rsp) vmovaps %ymm30, 0x6e0(%rsp) vmovaps %ymm20, 0x680(%rsp) vmovaps %ymm21, 0x660(%rsp) vmovaps %ymm22, 0x640(%rsp) vmovaps %ymm3, 0x620(%rsp) je 0x1cc4401 vmovaps %xmm10, 0x220(%rsp) vmovaps %xmm26, 0x280(%rsp) vmovaps %ymm3, %ymm26 vmulps %ymm19, %ymm3, %ymm3 vfmadd213ps %ymm3, %ymm22, %ymm18 # ymm18 = (ymm22 * ymm18) + ymm3 vfmadd213ps %ymm18, %ymm21, %ymm17 # ymm17 = (ymm21 * ymm17) + ymm18 vfmadd213ps %ymm17, %ymm20, %ymm2 # ymm2 = (ymm20 * ymm2) + ymm17 vmulps %ymm16, %ymm26, %ymm3 vfmadd213ps %ymm3, %ymm22, %ymm15 # ymm15 = (ymm22 * ymm15) + ymm3 vfmadd213ps %ymm15, %ymm21, %ymm14 # ymm14 = (ymm21 * ymm14) + ymm15 vmovups 0x1210(%r12,%rbx), %ymm3 vmovups 0x1694(%r12,%rbx), %ymm10 vmovups 0x1b18(%r12,%rbx), %ymm11 vmovups 0x1f9c(%r12,%rbx), %ymm12 vfmadd213ps %ymm14, %ymm20, %ymm25 # ymm25 = (ymm20 * ymm25) + ymm14 vmulps %ymm12, %ymm28, %ymm9 vmulps %ymm12, %ymm29, %ymm8 vmulps %ymm12, %ymm26, %ymm12 vfmadd231ps %ymm31, %ymm11, %ymm9 # ymm9 = (ymm11 * ymm31) + ymm9 vfmadd231ps %ymm30, %ymm11, %ymm8 # ymm8 = (ymm11 * ymm30) + ymm8 vfmadd231ps %ymm11, %ymm22, %ymm12 # ymm12 = (ymm22 * ymm11) + ymm12 vmovaps 0x120(%rsp), %ymm19 vfmadd231ps %ymm19, %ymm10, %ymm9 # ymm9 = (ymm10 * ymm19) + ymm9 vfmadd231ps %ymm27, %ymm10, %ymm8 # ymm8 = (ymm10 * ymm27) + ymm8 vfmadd231ps %ymm10, %ymm21, %ymm12 # ymm12 = (ymm21 * ymm10) + ymm12 vmovaps 0x260(%rsp), %ymm17 vfmadd231ps %ymm17, %ymm3, %ymm9 # ymm9 = (ymm3 * ymm17) + ymm9 vmovaps 0x240(%rsp), %ymm18 vfmadd231ps %ymm18, %ymm3, %ymm8 # ymm8 = (ymm3 * ymm18) + ymm8 vmovups 0x1210(%rdx,%rbx), %ymm10 vmovups 0x1b18(%rdx,%rbx), %ymm11 vmovups 0x1f9c(%rdx,%rbx), %ymm13 vfmadd231ps %ymm3, %ymm20, %ymm12 # ymm12 = (ymm20 * ymm3) + ymm12 vmovaps %ymm28, 0x160(%rsp) vmulps %ymm13, %ymm28, %ymm3 vmovaps %ymm29, 0x140(%rsp) vmulps %ymm13, %ymm29, %ymm14 vmulps %ymm13, %ymm26, %ymm13 vmovaps 0x280(%rsp), %xmm26 vfmadd231ps %ymm31, %ymm11, %ymm3 # ymm3 = (ymm11 * ymm31) + ymm3 vfmadd231ps %ymm30, %ymm11, %ymm14 # ymm14 = (ymm11 * ymm30) + ymm14 vfmadd231ps %ymm11, %ymm22, %ymm13 # ymm13 = (ymm22 * ymm11) + ymm13 vmovups 0x1694(%rdx,%rbx), %ymm11 vfmadd231ps %ymm19, %ymm11, %ymm3 # ymm3 = (ymm11 * ymm19) + ymm3 vfmadd231ps %ymm27, %ymm11, %ymm14 # ymm14 = (ymm11 * ymm27) + ymm14 vfmadd231ps %ymm11, %ymm21, %ymm13 # ymm13 = (ymm21 * ymm11) + ymm13 vfmadd231ps %ymm17, %ymm10, %ymm3 # ymm3 = (ymm10 * ymm17) + ymm3 vfmadd231ps %ymm18, %ymm10, %ymm14 # ymm14 = (ymm10 * ymm18) + ymm14 vfmadd231ps %ymm10, %ymm20, %ymm13 # ymm13 = (ymm20 * ymm10) + ymm13 vbroadcastss 0x25d120(%rip), %ymm15 # 0x1f20ec4 vandps %ymm15, %ymm9, %ymm10 vandps %ymm15, %ymm8, %ymm11 vmaxps %ymm11, %ymm10, %ymm10 vandps %ymm15, %ymm12, %ymm11 vmaxps %ymm11, %ymm10, %ymm10 vbroadcastss %xmm26, %ymm11 vcmpltps %ymm11, %ymm10, %k2 vmovaps %ymm24, %ymm9 {%k2} vmovaps %ymm23, %ymm8 {%k2} vandps %ymm3, %ymm15, %ymm10 vandps %ymm15, %ymm14, %ymm12 vmaxps %ymm12, %ymm10, %ymm10 vandps %ymm15, %ymm13, %ymm12 vmaxps %ymm12, %ymm10, %ymm10 vcmpltps %ymm11, %ymm10, %k2 vmovaps %ymm24, %ymm3 {%k2} vmovaps %ymm23, %ymm14 {%k2} vbroadcastss 0x25d0b6(%rip), %ymm11 # 0x1f20ec0 vxorps %ymm11, %ymm9, %ymm10 vxorps %ymm3, %ymm11, %ymm12 vxorps %xmm27, %xmm27, %xmm27 vfmadd213ps %ymm27, %ymm9, %ymm9 # ymm9 = (ymm9 * ymm9) + ymm27 vfmadd231ps %ymm8, %ymm8, %ymm9 # ymm9 = (ymm8 * ymm8) + ymm9 vrsqrt14ps %ymm9, %ymm11 vbroadcastss 0x2288e9(%rip), %ymm15 # 0x1eec71c vmulps %ymm15, %ymm9, %ymm9 vmulps %ymm9, %ymm11, %ymm9 vmulps %ymm11, %ymm11, %ymm13 vmulps %ymm9, %ymm13, %ymm9 vbroadcastss 0x2288c7(%rip), %ymm16 # 0x1eec718 vfmadd231ps %ymm11, %ymm16, %ymm9 # ymm9 = (ymm16 * ymm11) + ymm9 vmulps %ymm9, %ymm8, %ymm11 vmulps %ymm10, %ymm9, %ymm10 vmulps %ymm27, %ymm9, %ymm13 vfmadd213ps %ymm27, %ymm3, %ymm3 # ymm3 = (ymm3 * ymm3) + ymm27 vfmadd231ps %ymm14, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm14) + ymm3 vrsqrt14ps %ymm3, %ymm8 vmulps %ymm3, %ymm15, %ymm3 vmulps %ymm3, %ymm8, %ymm3 vmulps %ymm8, %ymm8, %ymm9 vmulps %ymm3, %ymm9, %ymm3 vfmadd231ps %ymm8, %ymm16, %ymm3 # ymm3 = (ymm16 * ymm8) + ymm3 vmulps %ymm3, %ymm14, %ymm8 vmulps %ymm3, %ymm12, %ymm9 vmulps %ymm27, %ymm3, %ymm3 vmovaps %ymm11, %ymm12 vfmadd213ps %ymm5, %ymm0, %ymm12 # ymm12 = (ymm0 * ymm12) + ymm5 vmovaps %ymm10, %ymm14 vfmadd213ps %ymm4, %ymm0, %ymm14 # ymm14 = (ymm0 * ymm14) + ymm4 vmovaps %ymm13, %ymm15 vfmadd213ps %ymm25, %ymm0, %ymm15 # ymm15 = (ymm0 * ymm15) + ymm25 vmovaps %ymm8, %ymm16 vfmadd213ps %ymm7, %ymm1, %ymm16 # ymm16 = (ymm1 * ymm16) + ymm7 vfnmadd213ps %ymm5, %ymm0, %ymm11 # ymm11 = -(ymm0 * ymm11) + ymm5 vmovaps %ymm9, %ymm5 vfmadd213ps %ymm6, %ymm1, %ymm5 # ymm5 = (ymm1 * ymm5) + ymm6 vfnmadd213ps %ymm4, %ymm0, %ymm10 # ymm10 = -(ymm0 * ymm10) + ymm4 vmovaps %ymm3, %ymm4 vfmadd213ps %ymm2, %ymm1, %ymm4 # ymm4 = (ymm1 * ymm4) + ymm2 vfnmadd231ps %ymm13, %ymm0, %ymm25 # ymm25 = -(ymm0 * ymm13) + ymm25 vfnmadd213ps %ymm7, %ymm1, %ymm8 # ymm8 = -(ymm1 * ymm8) + ymm7 vfnmadd213ps %ymm6, %ymm1, %ymm9 # ymm9 = -(ymm1 * ymm9) + ymm6 vfnmadd231ps %ymm3, %ymm1, %ymm2 # ymm2 = -(ymm1 * ymm3) + ymm2 vsubps %ymm11, %ymm16, %ymm3 vsubps %ymm10, %ymm5, %ymm6 vsubps %ymm25, %ymm4, %ymm7 vmulps %ymm25, %ymm6, %ymm13 vfmsub231ps %ymm7, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm7) - ymm13 vmulps %ymm7, %ymm11, %ymm7 vfmsub231ps %ymm3, %ymm25, %ymm7 # ymm7 = (ymm25 * ymm3) - ymm7 vmulps %ymm3, %ymm10, %ymm3 vfmsub231ps %ymm6, %ymm11, %ymm3 # ymm3 = (ymm11 * ymm6) - ymm3 vfmadd231ps %ymm7, %ymm27, %ymm3 # ymm3 = (ymm27 * ymm7) + ymm3 vfmadd231ps %ymm13, %ymm27, %ymm3 # ymm3 = (ymm27 * ymm13) + ymm3 vcmpleps %ymm27, %ymm3, %k2 vmovaps %ymm12, %ymm8 {%k2} vmovaps %ymm14, %ymm9 {%k2} vmovaps %ymm15, %ymm2 {%k2} vblendmps %ymm16, %ymm11, %ymm13 {%k2} vblendmps %ymm5, %ymm10, %ymm14 {%k2} vblendmps %ymm4, %ymm25, %ymm15 {%k2} vmovaps %ymm11, %ymm16 {%k2} vmovaps %ymm10, %ymm5 {%k2} vmovaps %ymm25, %ymm4 {%k2} vsubps %ymm8, %ymm16, %ymm6 vsubps %ymm9, %ymm5, %ymm5 vsubps %ymm2, %ymm4, %ymm11 vsubps %ymm13, %ymm8, %ymm7 vsubps %ymm14, %ymm9, %ymm10 vsubps %ymm15, %ymm2, %ymm12 vmulps %ymm8, %ymm11, %ymm4 vfmsub231ps %ymm6, %ymm2, %ymm4 # ymm4 = (ymm2 * ymm6) - ymm4 vmulps %ymm6, %ymm9, %ymm3 vfmsub231ps %ymm5, %ymm8, %ymm3 # ymm3 = (ymm8 * ymm5) - ymm3 vfmadd231ps %ymm4, %ymm27, %ymm3 # ymm3 = (ymm27 * ymm4) + ymm3 vmulps %ymm2, %ymm5, %ymm4 vfmsub231ps %ymm11, %ymm9, %ymm4 # ymm4 = (ymm9 * ymm11) - ymm4 vfmadd231ps %ymm4, %ymm27, %ymm3 # ymm3 = (ymm27 * ymm4) + ymm3 vmulps %ymm13, %ymm12, %ymm16 vfmsub231ps %ymm15, %ymm7, %ymm16 # ymm16 = (ymm7 * ymm15) - ymm16 vmulps %ymm15, %ymm10, %ymm15 vfmsub231ps %ymm12, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm12) - ymm15 vmulps %ymm7, %ymm14, %ymm4 vfmsub231ps %ymm13, %ymm10, %ymm4 # ymm4 = (ymm10 * ymm13) - ymm4 vfmadd231ps %ymm16, %ymm27, %ymm4 # ymm4 = (ymm27 * ymm16) + ymm4 vfmadd231ps %ymm15, %ymm27, %ymm4 # ymm4 = (ymm27 * ymm15) + ymm4 vmaxps %ymm4, %ymm3, %ymm13 vcmpleps %ymm27, %ymm13, %k0 {%k1} kortestb %k0, %k0 vmovaps 0x1a0(%rsp), %ymm20 vmovaps 0x180(%rsp), %ymm21 vmovaps %ymm17, %ymm22 vmovaps %ymm19, %ymm17 je 0x1cc537b vmulps %ymm5, %ymm12, %ymm13 vfmsub231ps %ymm11, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm11) - ymm13 vmulps %ymm7, %ymm11, %ymm11 vfmsub231ps %ymm12, %ymm6, %ymm11 # ymm11 = (ymm6 * ymm12) - ymm11 vmulps %ymm6, %ymm10, %ymm10 vfmsub231ps %ymm5, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm5) - ymm10 vxorps %xmm6, %xmm6, %xmm6 vfmadd213ps %ymm10, %ymm11, %ymm6 # ymm6 = (ymm11 * ymm6) + ymm10 vfmadd231ps %ymm27, %ymm13, %ymm6 # ymm6 = (ymm13 * ymm27) + ymm6 vrcp14ps %ymm6, %ymm7 vmovaps %ymm7, %ymm5 vfnmadd213ps 0x2286c3(%rip){1to8}, %ymm6, %ymm5 # ymm5 = -(ymm6 * ymm5) + mem vfmadd132ps %ymm7, %ymm7, %ymm5 # ymm5 = (ymm5 * ymm7) + ymm7 vmulps %ymm2, %ymm10, %ymm2 vfmadd231ps %ymm11, %ymm9, %ymm2 # ymm2 = (ymm9 * ymm11) + ymm2 vfmadd231ps %ymm13, %ymm8, %ymm2 # ymm2 = (ymm8 * ymm13) + ymm2 vmulps %ymm5, %ymm2, %ymm2 vmovaps 0x220(%rsp), %xmm10 vbroadcastss %xmm10, %ymm7 vcmpleps %ymm2, %ymm7, %k1 vcmpleps 0x100(%rsi,%r15,4){1to8}, %ymm2, %k1 {%k1} kandb %k0, %k1, %k0 kortestb %k0, %k0 vmovaps 0x160(%rsp), %ymm28 vmovaps 0x140(%rsp), %ymm29 je 0x1cc53b1 vcmpneqps %ymm27, %ymm6, %k1 ktestb %k1, %k0 vmovaps 0x40(%rsp), %xmm9 je 0x1cc53ce kandb %k1, %k0, %k0 kmovd %k0, %eax vmulps %ymm5, %ymm3, %ymm3 vmulps %ymm5, %ymm4, %ymm4 vbroadcastss 0x228640(%rip), %ymm5 # 0x1eec714 vsubps %ymm3, %ymm5, %ymm6 vmovaps %ymm3, %ymm6 {%k2} vsubps %ymm4, %ymm5, %ymm3 vmovaps %ymm4, %ymm3 {%k2} vmovaps %ymm3, 0x480(%rsp) movzbl %al, %r12d vmovaps %ymm2, %ymm3 testw %r12w, %r12w je 0x1cc43f8 vsubps %ymm0, %ymm1, %ymm1 vfmadd213ps %ymm0, %ymm6, %ymm1 # ymm1 = (ymm6 * ymm1) + ymm0 vaddps %ymm1, %ymm1, %ymm0 movq 0xa8(%rsp), %rax vmulps (%rax,%r15,4){1to8}, %ymm0, %ymm0 vcmpnleps %ymm0, %ymm3, %k0 kmovd %k0, %eax andb %al, %r12b je 0x1cc43f8 vbroadcastss 0x22c890(%rip), %ymm0 # 0x1ef09cc vmovaps 0x480(%rsp), %ymm1 vfmadd132ps 0x22cea9(%rip){1to8}, %ymm0, %ymm1 # ymm1 = (ymm1 * mem) + ymm0 vmovaps %ymm6, 0x300(%rsp) vmovaps %ymm1, 0x480(%rsp) vmovaps %ymm1, 0x320(%rsp) vmovaps %ymm3, 0x340(%rsp) movl $0x0, 0x360(%rsp) movl %edi, 0x364(%rsp) vmovaps %xmm9, 0x370(%rsp) vmovaps 0xc0(%rsp), %xmm0 vmovaps %xmm0, 0x380(%rsp) vmovaps 0xb0(%rsp), %xmm0 vmovaps %xmm0, 0x390(%rsp) vmovdqa 0x100(%rsp), %xmm0 vmovdqa %xmm0, 0x3a0(%rsp) movb %r12b, 0x3b0(%rsp) movl 0x120(%rsi,%r15,4), %eax testl %eax, 0x34(%r14) je 0x1cc43f8 vaddps 0x25cd5a(%rip), %ymm6, %ymm0 # 0x1f20f40 vmovss 0x228526(%rip), %xmm1 # 0x1eec714 vdivss 0x2e0(%rsp), %xmm1, %xmm1 vbroadcastss %xmm1, %ymm1 vmulps %ymm0, %ymm1, %ymm0 vmovaps %ymm0, 0x3c0(%rsp) vmovaps 0x480(%rsp), %ymm0 vmovaps %ymm0, 0x3e0(%rsp) vmovaps %ymm3, 0x400(%rsp) kmovd %r12d, %k1 vbroadcastss 0x2277ee(%rip), %ymm0 # 0x1eeba20 vblendmps %ymm3, %ymm0, %ymm0 {%k1} vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm0, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1] vminps %ymm2, %ymm1, %ymm1 vcmpeqps %ymm1, %ymm0, %k0 kmovd %k0, %eax andb %r12b, %al movzbl %al, %eax movzbl %r12b, %ecx cmovnel %eax, %ecx tzcntl %ecx, %r9d movq 0x10(%r10), %rax cmpq $0x0, 0x10(%rax) vmovaps %ymm6, 0x80(%rsp) vmovaps %ymm3, 0x60(%rsp) jne 0x1cc53e5 cmpq $0x0, 0x40(%r14) jne 0x1cc53e5 vmovss 0x3c0(%rsp,%r9,4), %xmm0 vmovss 0x3e0(%rsp,%r9,4), %xmm1 vmovss 0x22845e(%rip), %xmm2 # 0x1eec714 vsubss %xmm0, %xmm2, %xmm2 vaddss %xmm2, %xmm2, %xmm3 vmulss %xmm3, %xmm0, %xmm4 vfnmadd231ss %xmm2, %xmm2, %xmm4 # xmm4 = -(xmm2 * xmm2) + xmm4 vaddss %xmm0, %xmm0, %xmm5 vmovss 0x22cd19(%rip), %xmm8 # 0x1ef0fec vmovaps %xmm8, %xmm6 vfmadd213ss 0x22cd24(%rip), %xmm0, %xmm6 # xmm6 = (xmm0 * xmm6) + mem vmulss %xmm0, %xmm8, %xmm7 vmulss %xmm7, %xmm0, %xmm7 vfmadd231ss %xmm6, %xmm5, %xmm7 # xmm7 = (xmm5 * xmm6) + xmm7 vmovaps %xmm8, %xmm5 vfmadd213ss 0x22ccfe(%rip), %xmm0, %xmm5 # xmm5 = (xmm0 * xmm5) + mem vmulss 0x22ccee(%rip), %xmm2, %xmm6 # 0x1ef0ff0 vmulss %xmm6, %xmm2, %xmm6 vfmadd231ss %xmm5, %xmm3, %xmm6 # xmm6 = (xmm3 * xmm5) + xmm6 vmulss 0x22c6c9(%rip), %xmm2, %xmm2 # 0x1ef09dc vmulss %xmm0, %xmm0, %xmm3 vfmadd231ss %xmm2, %xmm0, %xmm3 # xmm3 = (xmm0 * xmm2) + xmm3 vmovss 0x22885c(%rip), %xmm8 # 0x1eecb80 vmulss %xmm4, %xmm8, %xmm2 vmulss %xmm7, %xmm8, %xmm4 vmulss %xmm6, %xmm8, %xmm5 vmulss %xmm3, %xmm8, %xmm3 vbroadcastss %xmm3, %xmm3 vmulps 0x100(%rsp), %xmm3, %xmm3 vbroadcastss %xmm5, %xmm5 vfmadd132ps 0xb0(%rsp), %xmm3, %xmm5 # xmm5 = (xmm5 * mem) + xmm3 vbroadcastss %xmm4, %xmm3 vfmadd132ps 0xc0(%rsp), %xmm5, %xmm3 # xmm3 = (xmm3 * mem) + xmm5 vmovaps 0x80(%rsp), %ymm6 vbroadcastss %xmm2, %xmm2 vfmadd213ps %xmm3, %xmm9, %xmm2 # xmm2 = (xmm9 * xmm2) + xmm3 vmovss 0x400(%rsp,%r9,4), %xmm3 vmovss %xmm3, 0x100(%rsi,%r15,4) vmovaps 0x60(%rsp), %ymm3 vmovss %xmm2, 0x180(%rsi,%r15,4) vextractps $0x1, %xmm2, 0x1a0(%rsi,%r15,4) vextractps $0x2, %xmm2, 0x1c0(%rsi,%r15,4) vmovss %xmm0, 0x1e0(%rsi,%r15,4) vmovss %xmm1, 0x200(%rsi,%r15,4) movq 0x58(%rsp), %rax movl %eax, 0x220(%rsi,%r15,4) movq 0x38(%rsp), %rax movl %eax, 0x240(%rsi,%r15,4) movq 0x8(%r10), %rax movl (%rax), %eax movl %eax, 0x260(%rsi,%r15,4) movq 0x8(%r10), %rax movl 0x4(%rax), %eax movl %eax, 0x280(%rsi,%r15,4) leaq 0x46bf6d(%rip), %r12 # 0x213036c jmp 0x1cc443e vxorps %xmm27, %xmm27, %xmm27 vmovaps 0x80(%rsp), %ymm6 vmovaps 0x1a0(%rsp), %ymm20 vmovaps 0x60(%rsp), %ymm3 vmovaps 0x180(%rsp), %ymm21 vmovaps 0x260(%rsp), %ymm22 vmovaps 0x240(%rsp), %ymm18 vmovaps 0x120(%rsp), %ymm17 cmpl $0x9, %edi jge 0x1cc4467 vmovaps 0x760(%rsp), %ymm0 vcmpleps 0x100(%rsi,%r15,4){1to8}, %ymm0, %k0 kmovb %k0, %eax andl %eax, %r13d jne 0x1cc3786 jmp 0x1cc5903 vpbroadcastd %edi, %ymm0 vmovdqa %ymm0, 0x280(%rsp) vbroadcastss %xmm26, %ymm0 vmovaps %ymm0, 0x220(%rsp) vbroadcastss %xmm10, %ymm0 vmovaps %ymm0, 0x2c0(%rsp) vmovss 0x228279(%rip), %xmm0 # 0x1eec714 vdivss 0x2e0(%rsp), %xmm0, %xmm0 vbroadcastss %xmm0, %ymm0 vmovaps %ymm0, 0x2e0(%rsp) movq 0x38(%rsp), %rax vpbroadcastd %eax, %ymm0 vmovdqa %ymm0, 0x440(%rsp) movq 0x58(%rsp), %rax vpbroadcastd %eax, %ymm0 vmovdqa %ymm0, 0x420(%rsp) movl $0x8, %r14d vmovaps %ymm6, 0x80(%rsp) vmovaps %ymm3, 0x60(%rsp) vpbroadcastd %r14d, %ymm0 vpor 0x296423(%rip), %ymm0, %ymm0 # 0x1f5a920 vpcmpltd 0x280(%rsp), %ymm0, %k1 leaq (%rbx,%r12), %rcx vmovups (%rcx,%r14,4), %ymm3 vmovups 0x484(%rcx,%r14,4), %ymm10 vmovups 0x908(%rcx,%r14,4), %ymm11 vmovups 0xd8c(%rcx,%r14,4), %ymm12 vmulps %ymm12, %ymm28, %ymm5 vmulps %ymm12, %ymm29, %ymm4 vmovaps 0x6a0(%rsp), %ymm1 vmulps %ymm1, %ymm12, %ymm0 vmovaps 0x700(%rsp), %ymm19 vfmadd231ps %ymm19, %ymm11, %ymm5 # ymm5 = (ymm11 * ymm19) + ymm5 vmovaps 0x6e0(%rsp), %ymm26 vfmadd231ps %ymm26, %ymm11, %ymm4 # ymm4 = (ymm11 * ymm26) + ymm4 vmovaps 0x6c0(%rsp), %ymm16 vfmadd231ps %ymm16, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm16) + ymm0 vfmadd231ps %ymm17, %ymm10, %ymm5 # ymm5 = (ymm10 * ymm17) + ymm5 vmovaps 0x4e0(%rsp), %ymm25 vfmadd231ps %ymm25, %ymm10, %ymm4 # ymm4 = (ymm10 * ymm25) + ymm4 vmovaps 0x720(%rsp), %ymm9 vfmadd231ps %ymm9, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm9) + ymm0 vfmadd231ps %ymm22, %ymm3, %ymm5 # ymm5 = (ymm3 * ymm22) + ymm5 vfmadd231ps %ymm18, %ymm3, %ymm4 # ymm4 = (ymm3 * ymm18) + ymm4 leaq (%rbx,%rdx), %rax vmovups (%rax,%r14,4), %ymm2 vmovups 0x484(%rax,%r14,4), %ymm13 vmovaps 0x740(%rsp), %ymm8 vfmadd231ps %ymm8, %ymm3, %ymm0 # ymm0 = (ymm3 * ymm8) + ymm0 vmovups 0x908(%rax,%r14,4), %ymm14 vmovups 0xd8c(%rax,%r14,4), %ymm15 vmulps %ymm15, %ymm28, %ymm7 vmulps %ymm15, %ymm29, %ymm6 vmulps %ymm1, %ymm15, %ymm1 vfmadd231ps %ymm19, %ymm14, %ymm7 # ymm7 = (ymm14 * ymm19) + ymm7 vfmadd231ps %ymm26, %ymm14, %ymm6 # ymm6 = (ymm14 * ymm26) + ymm6 vfmadd231ps %ymm16, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm16) + ymm1 vfmadd231ps %ymm17, %ymm13, %ymm7 # ymm7 = (ymm13 * ymm17) + ymm7 vfmadd231ps %ymm25, %ymm13, %ymm6 # ymm6 = (ymm13 * ymm25) + ymm6 vfmadd231ps %ymm9, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm9) + ymm1 vfmadd231ps %ymm22, %ymm2, %ymm7 # ymm7 = (ymm2 * ymm22) + ymm7 vfmadd231ps %ymm18, %ymm2, %ymm6 # ymm6 = (ymm2 * ymm18) + ymm6 vfmadd231ps %ymm8, %ymm2, %ymm1 # ymm1 = (ymm2 * ymm8) + ymm1 vmaxps %ymm1, %ymm0, %ymm16 vsubps %ymm5, %ymm7, %ymm9 vsubps %ymm4, %ymm6, %ymm8 vmovaps %ymm17, %ymm24 vmulps %ymm9, %ymm4, %ymm17 vmovaps %ymm18, %ymm23 vmulps %ymm8, %ymm5, %ymm18 vsubps %ymm18, %ymm17, %ymm17 vmulps %ymm8, %ymm8, %ymm18 vfmadd231ps %ymm9, %ymm9, %ymm18 # ymm18 = (ymm9 * ymm9) + ymm18 vmulps %ymm16, %ymm16, %ymm16 vmulps %ymm18, %ymm16, %ymm16 vmulps %ymm17, %ymm17, %ymm17 vcmpleps %ymm16, %ymm17, %k1 {%k1} kortestb %k1, %k1 je 0x1cc4e19 vmovaps %ymm23, %ymm16 vmovaps 0x620(%rsp), %ymm23 vmulps %ymm15, %ymm23, %ymm15 vmovaps 0x640(%rsp), %ymm31 vfmadd213ps %ymm15, %ymm31, %ymm14 # ymm14 = (ymm31 * ymm14) + ymm15 vmovaps 0x660(%rsp), %ymm30 vfmadd213ps %ymm14, %ymm30, %ymm13 # ymm13 = (ymm30 * ymm13) + ymm14 vmovaps 0x680(%rsp), %ymm18 vfmadd213ps %ymm13, %ymm18, %ymm2 # ymm2 = (ymm18 * ymm2) + ymm13 vmulps %ymm12, %ymm23, %ymm12 vfmadd213ps %ymm12, %ymm31, %ymm11 # ymm11 = (ymm31 * ymm11) + ymm12 vfmadd213ps %ymm11, %ymm30, %ymm10 # ymm10 = (ymm30 * ymm10) + ymm11 vfmadd213ps %ymm10, %ymm18, %ymm3 # ymm3 = (ymm18 * ymm3) + ymm10 vmovups 0x1210(%rcx,%r14,4), %ymm12 vmovups 0x1694(%rcx,%r14,4), %ymm13 vmovups 0x1b18(%rcx,%r14,4), %ymm14 vmovups 0x1f9c(%rcx,%r14,4), %ymm15 vmulps %ymm15, %ymm28, %ymm11 vmulps %ymm15, %ymm29, %ymm10 vmulps %ymm15, %ymm23, %ymm15 vfmadd231ps %ymm19, %ymm14, %ymm11 # ymm11 = (ymm14 * ymm19) + ymm11 vfmadd231ps %ymm26, %ymm14, %ymm10 # ymm10 = (ymm14 * ymm26) + ymm10 vfmadd231ps %ymm14, %ymm31, %ymm15 # ymm15 = (ymm31 * ymm14) + ymm15 vfmadd231ps %ymm24, %ymm13, %ymm11 # ymm11 = (ymm13 * ymm24) + ymm11 vfmadd231ps %ymm25, %ymm13, %ymm10 # ymm10 = (ymm13 * ymm25) + ymm10 vfmadd231ps %ymm13, %ymm30, %ymm15 # ymm15 = (ymm30 * ymm13) + ymm15 vfmadd231ps %ymm22, %ymm12, %ymm11 # ymm11 = (ymm12 * ymm22) + ymm11 vfmadd231ps %ymm16, %ymm12, %ymm10 # ymm10 = (ymm12 * ymm16) + ymm10 vmovaps %ymm26, %ymm25 vmovaps %ymm19, %ymm26 vmovaps %ymm16, %ymm19 vfmadd231ps %ymm12, %ymm18, %ymm15 # ymm15 = (ymm18 * ymm12) + ymm15 vmovups 0x1210(%rax,%r14,4), %ymm13 vmovups 0x1b18(%rax,%r14,4), %ymm14 vmovups 0x1f9c(%rax,%r14,4), %ymm16 vmulps %ymm16, %ymm28, %ymm17 vmulps %ymm16, %ymm29, %ymm12 vmulps %ymm16, %ymm23, %ymm16 vfmadd231ps %ymm26, %ymm14, %ymm17 # ymm17 = (ymm14 * ymm26) + ymm17 vfmadd231ps %ymm25, %ymm14, %ymm12 # ymm12 = (ymm14 * ymm25) + ymm12 vfmadd231ps %ymm14, %ymm31, %ymm16 # ymm16 = (ymm31 * ymm14) + ymm16 vmovups 0x1694(%rax,%r14,4), %ymm14 vfmadd231ps %ymm24, %ymm14, %ymm17 # ymm17 = (ymm14 * ymm24) + ymm17 vfmadd231ps 0x4e0(%rsp), %ymm14, %ymm12 # ymm12 = (ymm14 * mem) + ymm12 vfmadd231ps %ymm14, %ymm30, %ymm16 # ymm16 = (ymm30 * ymm14) + ymm16 vfmadd231ps %ymm22, %ymm13, %ymm17 # ymm17 = (ymm13 * ymm22) + ymm17 vfmadd231ps %ymm19, %ymm13, %ymm12 # ymm12 = (ymm13 * ymm19) + ymm12 vfmadd231ps %ymm13, %ymm18, %ymm16 # ymm16 = (ymm18 * ymm13) + ymm16 vbroadcastss 0x25c6f9(%rip), %ymm18 # 0x1f20ec4 vandps %ymm18, %ymm11, %ymm13 vandps %ymm18, %ymm10, %ymm14 vmaxps %ymm14, %ymm13, %ymm13 vandps %ymm18, %ymm15, %ymm14 vmaxps %ymm14, %ymm13, %ymm13 vmovaps 0x220(%rsp), %ymm15 vcmpltps %ymm15, %ymm13, %k2 vmovaps %ymm9, %ymm11 {%k2} vmovaps %ymm8, %ymm10 {%k2} vandps %ymm18, %ymm17, %ymm13 vandps %ymm18, %ymm12, %ymm14 vmaxps %ymm14, %ymm13, %ymm13 vandps %ymm18, %ymm16, %ymm14 vmaxps %ymm14, %ymm13, %ymm13 vcmpltps %ymm15, %ymm13, %k2 vmovaps %ymm9, %ymm17 {%k2} vmovaps %ymm8, %ymm12 {%k2} vbroadcastss 0x25c685(%rip), %ymm9 # 0x1f20ec0 vxorps %ymm9, %ymm11, %ymm8 vxorps %ymm9, %ymm17, %ymm9 vfmadd213ps %ymm27, %ymm11, %ymm11 # ymm11 = (ymm11 * ymm11) + ymm27 vfmadd231ps %ymm10, %ymm10, %ymm11 # ymm11 = (ymm10 * ymm10) + ymm11 vrsqrt14ps %ymm11, %ymm13 vbroadcastss 0x227ebc(%rip), %ymm15 # 0x1eec71c vmulps %ymm15, %ymm11, %ymm11 vmulps %ymm11, %ymm13, %ymm11 vmulps %ymm13, %ymm13, %ymm14 vmulps %ymm11, %ymm14, %ymm14 vbroadcastss 0x227e9a(%rip), %ymm16 # 0x1eec718 vfmadd231ps %ymm13, %ymm16, %ymm14 # ymm14 = (ymm16 * ymm13) + ymm14 vmulps %ymm14, %ymm10, %ymm11 vmulps %ymm8, %ymm14, %ymm10 vmulps %ymm27, %ymm14, %ymm13 vfmadd213ps %ymm27, %ymm17, %ymm17 # ymm17 = (ymm17 * ymm17) + ymm27 vfmadd231ps %ymm12, %ymm12, %ymm17 # ymm17 = (ymm12 * ymm12) + ymm17 vrsqrt14ps %ymm17, %ymm8 vmulps %ymm15, %ymm17, %ymm14 vmulps %ymm14, %ymm8, %ymm14 vmulps %ymm8, %ymm8, %ymm15 vmulps %ymm14, %ymm15, %ymm14 vfmadd231ps %ymm8, %ymm16, %ymm14 # ymm14 = (ymm16 * ymm8) + ymm14 vmulps %ymm14, %ymm12, %ymm8 vmulps %ymm9, %ymm14, %ymm9 vmulps %ymm27, %ymm14, %ymm12 vmovaps %ymm11, %ymm14 vfmadd213ps %ymm5, %ymm0, %ymm14 # ymm14 = (ymm0 * ymm14) + ymm5 vmovaps %ymm10, %ymm15 vfmadd213ps %ymm4, %ymm0, %ymm15 # ymm15 = (ymm0 * ymm15) + ymm4 vmovaps %ymm13, %ymm16 vfmadd213ps %ymm3, %ymm0, %ymm16 # ymm16 = (ymm0 * ymm16) + ymm3 vmovaps %ymm8, %ymm17 vfmadd213ps %ymm7, %ymm1, %ymm17 # ymm17 = (ymm1 * ymm17) + ymm7 vfnmadd213ps %ymm5, %ymm0, %ymm11 # ymm11 = -(ymm0 * ymm11) + ymm5 vmovaps %ymm9, %ymm5 vfmadd213ps %ymm6, %ymm1, %ymm5 # ymm5 = (ymm1 * ymm5) + ymm6 vfnmadd213ps %ymm4, %ymm0, %ymm10 # ymm10 = -(ymm0 * ymm10) + ymm4 vmovaps %ymm12, %ymm4 vfmadd213ps %ymm2, %ymm1, %ymm4 # ymm4 = (ymm1 * ymm4) + ymm2 vfnmadd231ps %ymm13, %ymm0, %ymm3 # ymm3 = -(ymm0 * ymm13) + ymm3 vfnmadd213ps %ymm7, %ymm1, %ymm8 # ymm8 = -(ymm1 * ymm8) + ymm7 vfnmadd213ps %ymm6, %ymm1, %ymm9 # ymm9 = -(ymm1 * ymm9) + ymm6 vfnmadd231ps %ymm12, %ymm1, %ymm2 # ymm2 = -(ymm1 * ymm12) + ymm2 vsubps %ymm11, %ymm17, %ymm6 vsubps %ymm10, %ymm5, %ymm7 vsubps %ymm3, %ymm4, %ymm12 vmulps %ymm3, %ymm7, %ymm13 vfmsub231ps %ymm12, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm12) - ymm13 vmulps %ymm11, %ymm12, %ymm12 vfmsub231ps %ymm6, %ymm3, %ymm12 # ymm12 = (ymm3 * ymm6) - ymm12 vmulps %ymm6, %ymm10, %ymm6 vfmsub231ps %ymm7, %ymm11, %ymm6 # ymm6 = (ymm11 * ymm7) - ymm6 vfmadd231ps %ymm12, %ymm27, %ymm6 # ymm6 = (ymm27 * ymm12) + ymm6 vfmadd231ps %ymm13, %ymm27, %ymm6 # ymm6 = (ymm27 * ymm13) + ymm6 vcmpleps %ymm27, %ymm6, %k2 vmovaps %ymm14, %ymm8 {%k2} vmovaps %ymm15, %ymm9 {%k2} vmovaps %ymm16, %ymm2 {%k2} vblendmps %ymm17, %ymm11, %ymm13 {%k2} vblendmps %ymm5, %ymm10, %ymm14 {%k2} vblendmps %ymm4, %ymm3, %ymm15 {%k2} vmovaps %ymm11, %ymm17 {%k2} vmovaps %ymm10, %ymm5 {%k2} vmovaps %ymm3, %ymm4 {%k2} vsubps %ymm8, %ymm17, %ymm6 vsubps %ymm9, %ymm5, %ymm5 vsubps %ymm2, %ymm4, %ymm11 vsubps %ymm13, %ymm8, %ymm7 vsubps %ymm14, %ymm9, %ymm10 vsubps %ymm15, %ymm2, %ymm12 vmulps %ymm8, %ymm11, %ymm4 vfmsub231ps %ymm6, %ymm2, %ymm4 # ymm4 = (ymm2 * ymm6) - ymm4 vmulps %ymm6, %ymm9, %ymm3 vfmsub231ps %ymm5, %ymm8, %ymm3 # ymm3 = (ymm8 * ymm5) - ymm3 vfmadd231ps %ymm4, %ymm27, %ymm3 # ymm3 = (ymm27 * ymm4) + ymm3 vmulps %ymm2, %ymm5, %ymm4 vfmsub231ps %ymm11, %ymm9, %ymm4 # ymm4 = (ymm9 * ymm11) - ymm4 vfmadd231ps %ymm4, %ymm27, %ymm3 # ymm3 = (ymm27 * ymm4) + ymm3 vmulps %ymm13, %ymm12, %ymm16 vfmsub231ps %ymm15, %ymm7, %ymm16 # ymm16 = (ymm7 * ymm15) - ymm16 vmulps %ymm15, %ymm10, %ymm15 vfmsub231ps %ymm12, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm12) - ymm15 vmulps %ymm7, %ymm14, %ymm4 vfmsub231ps %ymm13, %ymm10, %ymm4 # ymm4 = (ymm10 * ymm13) - ymm4 vfmadd231ps %ymm16, %ymm27, %ymm4 # ymm4 = (ymm27 * ymm16) + ymm4 vfmadd231ps %ymm15, %ymm27, %ymm4 # ymm4 = (ymm27 * ymm15) + ymm4 vmaxps %ymm4, %ymm3, %ymm13 vcmpleps %ymm27, %ymm13, %k0 {%k1} kortestb %k0, %k0 vmovaps %ymm19, %ymm18 je 0x1cc4e46 vmulps %ymm5, %ymm12, %ymm13 vfmsub231ps %ymm11, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm11) - ymm13 vmulps %ymm7, %ymm11, %ymm11 vfmsub231ps %ymm12, %ymm6, %ymm11 # ymm11 = (ymm6 * ymm12) - ymm11 vmulps %ymm6, %ymm10, %ymm10 vfmsub231ps %ymm5, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm5) - ymm10 vxorps %xmm6, %xmm6, %xmm6 vfmadd213ps %ymm10, %ymm11, %ymm6 # ymm6 = (ymm11 * ymm6) + ymm10 vfmadd231ps %ymm27, %ymm13, %ymm6 # ymm6 = (ymm13 * ymm27) + ymm6 vrcp14ps %ymm6, %ymm7 vmovaps %ymm7, %ymm5 vfnmadd213ps 0x227ca9(%rip){1to8}, %ymm6, %ymm5 # ymm5 = -(ymm6 * ymm5) + mem vfmadd132ps %ymm7, %ymm7, %ymm5 # ymm5 = (ymm5 * ymm7) + ymm7 vmulps %ymm2, %ymm10, %ymm2 vfmadd231ps %ymm11, %ymm9, %ymm2 # ymm2 = (ymm9 * ymm11) + ymm2 vfmadd231ps %ymm13, %ymm8, %ymm2 # ymm2 = (ymm8 * ymm13) + ymm2 vmulps %ymm5, %ymm2, %ymm2 vcmpgeps 0x2c0(%rsp), %ymm2, %k1 vcmpleps 0x100(%rsi,%r15,4){1to8}, %ymm2, %k1 {%k1} kandb %k0, %k1, %k0 kortestb %k0, %k0 je 0x1cc4e46 vcmpneqps %ymm27, %ymm6, %k1 ktestb %k1, %k0 vmovaps 0x40(%rsp), %xmm9 vmovaps 0x120(%rsp), %ymm17 je 0x1cc4e6b kandb %k1, %k0, %k0 kmovd %k0, %eax vmulps %ymm5, %ymm3, %ymm3 vmulps %ymm5, %ymm4, %ymm4 vbroadcastss 0x227c3a(%rip), %ymm5 # 0x1eec714 vsubps %ymm3, %ymm5, %ymm20 vmovaps %ymm3, %ymm20 {%k2} vsubps %ymm4, %ymm5, %ymm3 vmovaps %ymm4, %ymm3 {%k2} vmovaps %ymm3, 0x460(%rsp) movzbl %al, %r9d vmovaps %ymm2, %ymm21 vmovaps 0x80(%rsp), %ymm6 vmovaps 0x60(%rsp), %ymm3 testw %r9w, %r9w je 0x1cc4e34 vsubps %ymm0, %ymm1, %ymm1 vfmadd213ps %ymm0, %ymm20, %ymm1 # ymm1 = (ymm20 * ymm1) + ymm0 vaddps %ymm1, %ymm1, %ymm0 movq 0xa8(%rsp), %rax vmulps (%rax,%r15,4){1to8}, %ymm0, %ymm0 vcmpnleps %ymm0, %ymm21, %k0 kmovd %k0, %eax andb %al, %r9b je 0x1cc4e34 vbroadcastss 0x22be76(%rip), %ymm0 # 0x1ef09cc vmovaps 0x460(%rsp), %ymm1 vfmadd132ps 0x22c48f(%rip){1to8}, %ymm0, %ymm1 # ymm1 = (ymm1 * mem) + ymm0 vmovaps %ymm20, 0x300(%rsp) vmovaps %ymm1, 0x460(%rsp) vmovaps %ymm1, 0x320(%rsp) vmovaps %ymm21, 0x340(%rsp) movl %r14d, 0x360(%rsp) movl %edi, 0x364(%rsp) vmovaps %xmm9, 0x370(%rsp) vmovaps 0xc0(%rsp), %xmm0 vmovaps %xmm0, 0x380(%rsp) vmovaps 0xb0(%rsp), %xmm0 vmovaps %xmm0, 0x390(%rsp) vmovdqa 0x100(%rsp), %xmm0 vmovdqa %xmm0, 0x3a0(%rsp) movb %r9b, 0x3b0(%rsp) movq (%r10), %rax movq 0x1e8(%rax), %rax movq 0x38(%rsp), %rcx movq (%rax,%rcx,8), %r11 movl 0x120(%rsi,%r15,4), %eax testl %eax, 0x34(%r11) je 0x1cc4e10 vaddps 0x25c330(%rip), %ymm20, %ymm0 # 0x1f20f40 vcvtsi2ss %r14d, %xmm19, %xmm1 vbroadcastss %xmm1, %ymm1 vaddps %ymm0, %ymm1, %ymm0 vmulps 0x2e0(%rsp), %ymm0, %ymm0 vmovaps %ymm0, 0x3c0(%rsp) vmovaps 0x460(%rsp), %ymm0 vmovaps %ymm0, 0x3e0(%rsp) vmovaps %ymm21, 0x400(%rsp) kmovd %r9d, %k1 vbroadcastss 0x226dc7(%rip), %ymm0 # 0x1eeba20 vblendmps %ymm21, %ymm0, %ymm0 {%k1} vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm0, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1] vminps %ymm2, %ymm1, %ymm1 vcmpeqps %ymm1, %ymm0, %k0 kmovd %k0, %eax andb %r9b, %al movzbl %al, %eax movzbl %r9b, %ecx cmovnel %eax, %ecx tzcntl %ecx, %r12d movq 0x10(%r10), %rax cmpq $0x0, 0x10(%rax) jne 0x1cc4e73 cmpq $0x0, 0x40(%r11) jne 0x1cc4e73 vmovss 0x3c0(%rsp,%r12,4), %xmm0 vmovss 0x3e0(%rsp,%r12,4), %xmm1 vmovss 0x227a46(%rip), %xmm2 # 0x1eec714 vsubss %xmm0, %xmm2, %xmm2 vaddss %xmm2, %xmm2, %xmm3 vmulss %xmm3, %xmm0, %xmm4 vfnmadd231ss %xmm2, %xmm2, %xmm4 # xmm4 = -(xmm2 * xmm2) + xmm4 vaddss %xmm0, %xmm0, %xmm5 vmovss 0x22c301(%rip), %xmm8 # 0x1ef0fec vmovaps %xmm8, %xmm6 vfmadd213ss 0x22c30c(%rip), %xmm0, %xmm6 # xmm6 = (xmm0 * xmm6) + mem vmulss %xmm0, %xmm8, %xmm7 vmulss %xmm7, %xmm0, %xmm7 vfmadd231ss %xmm6, %xmm5, %xmm7 # xmm7 = (xmm5 * xmm6) + xmm7 vmovaps %xmm8, %xmm5 vfmadd213ss 0x22c2e6(%rip), %xmm0, %xmm5 # xmm5 = (xmm0 * xmm5) + mem vmulss 0x22c2d6(%rip), %xmm2, %xmm6 # 0x1ef0ff0 vmulss %xmm6, %xmm2, %xmm6 vfmadd231ss %xmm5, %xmm3, %xmm6 # xmm6 = (xmm3 * xmm5) + xmm6 vmulss 0x22bcb1(%rip), %xmm2, %xmm2 # 0x1ef09dc vmulss %xmm0, %xmm0, %xmm3 vfmadd231ss %xmm2, %xmm0, %xmm3 # xmm3 = (xmm0 * xmm2) + xmm3 vmovss 0x227e44(%rip), %xmm8 # 0x1eecb80 vmulss %xmm4, %xmm8, %xmm2 vmulss %xmm7, %xmm8, %xmm4 vmulss %xmm6, %xmm8, %xmm5 vmulss %xmm3, %xmm8, %xmm3 vbroadcastss %xmm3, %xmm3 vmulps 0x100(%rsp), %xmm3, %xmm3 vbroadcastss %xmm5, %xmm5 vfmadd132ps 0xb0(%rsp), %xmm3, %xmm5 # xmm5 = (xmm5 * mem) + xmm3 vbroadcastss %xmm4, %xmm3 vfmadd132ps 0xc0(%rsp), %xmm5, %xmm3 # xmm3 = (xmm3 * mem) + xmm5 vbroadcastss %xmm2, %xmm2 vfmadd213ps %xmm3, %xmm9, %xmm2 # xmm2 = (xmm9 * xmm2) + xmm3 vmovss 0x400(%rsp,%r12,4), %xmm3 vmovss %xmm3, 0x100(%rsi,%r15,4) vmovss %xmm2, 0x180(%rsi,%r15,4) vextractps $0x1, %xmm2, 0x1a0(%rsi,%r15,4) vextractps $0x2, %xmm2, 0x1c0(%rsi,%r15,4) vmovss %xmm0, 0x1e0(%rsi,%r15,4) vmovss %xmm1, 0x200(%rsi,%r15,4) movq 0x58(%rsp), %rax movl %eax, 0x220(%rsi,%r15,4) movq 0x38(%rsp), %rax movl %eax, 0x240(%rsi,%r15,4) movq 0x8(%r10), %rax movl (%rax), %eax movl %eax, 0x260(%rsi,%r15,4) movq 0x8(%r10), %rax movl 0x4(%rax), %eax movl %eax, 0x280(%rsi,%r15,4) vmovaps 0x80(%rsp), %ymm6 vmovaps 0x60(%rsp), %ymm3 leaq 0x46b555(%rip), %r12 # 0x213036c jmp 0x1cc4e34 vmovaps 0x80(%rsp), %ymm6 vmovaps 0x60(%rsp), %ymm3 vmovaps %ymm23, %ymm18 vmovaps %ymm24, %ymm17 addq $0x8, %r14 cmpl %r14d, %edi jg 0x1cc44ef jmp 0x1cc4443 xorl %r9d, %r9d vmovaps 0x80(%rsp), %ymm6 vmovaps 0x60(%rsp), %ymm3 vmovaps 0x40(%rsp), %xmm9 vmovaps 0x120(%rsp), %ymm17 jmp 0x1cc4b12 xorl %r9d, %r9d jmp 0x1cc4b03 vmovaps 0x380(%rsp), %xmm0 vmovaps %xmm0, 0x1f0(%rsp) vmovaps 0x390(%rsp), %xmm0 vmovaps %xmm0, 0x1e0(%rsp) vmovaps 0x3a0(%rsp), %xmm0 vmovaps %xmm0, 0x4b0(%rsp) vmovaps %ymm20, 0x1a0(%rsp) vmovaps %ymm21, 0x180(%rsp) movq %r11, 0x110(%rsp) movq %r8, 0x30(%rsp) movq %r10, 0x28(%rsp) movq %rsi, 0x20(%rsp) movl %edi, 0x1c(%rsp) vmovaps %ymm28, 0x160(%rsp) vmovaps %ymm29, 0x140(%rsp) vmovss 0x100(%rsi,%r15,4), %xmm0 vmovss %xmm0, 0x200(%rsp) vmovss 0x400(%rsp,%r12,4), %xmm0 vbroadcastss 0x3c0(%rsp,%r12,4), %ymm1 vbroadcastss 0x3e0(%rsp,%r12,4), %ymm2 vmovss %xmm0, 0x100(%rsi,%r15,4) movq 0x8(%r10), %rax vmovss 0x2277e9(%rip), %xmm0 # 0x1eec714 vsubss %xmm1, %xmm0, %xmm0 vaddss %xmm0, %xmm0, %xmm3 vmulss %xmm3, %xmm1, %xmm4 vfnmadd231ss %xmm0, %xmm0, %xmm4 # xmm4 = -(xmm0 * xmm0) + xmm4 vaddss %xmm1, %xmm1, %xmm5 vmovss 0x22c0a4(%rip), %xmm8 # 0x1ef0fec vmovaps %xmm8, %xmm6 vfmadd213ss 0x22c0af(%rip), %xmm1, %xmm6 # xmm6 = (xmm1 * xmm6) + mem vmulss %xmm1, %xmm8, %xmm7 vmulss %xmm7, %xmm1, %xmm7 vfmadd231ss %xmm6, %xmm5, %xmm7 # xmm7 = (xmm5 * xmm6) + xmm7 vmovaps %xmm8, %xmm5 vfmadd213ss 0x22c089(%rip), %xmm1, %xmm5 # xmm5 = (xmm1 * xmm5) + mem vmulss 0x22c079(%rip), %xmm0, %xmm6 # 0x1ef0ff0 vmulss %xmm6, %xmm0, %xmm6 vfmadd231ss %xmm5, %xmm3, %xmm6 # xmm6 = (xmm3 * xmm5) + xmm6 vmulss 0x22ba54(%rip), %xmm0, %xmm0 # 0x1ef09dc vmulss %xmm1, %xmm1, %xmm3 vfmadd231ss %xmm0, %xmm1, %xmm3 # xmm3 = (xmm1 * xmm0) + xmm3 vmovss 0x227be7(%rip), %xmm8 # 0x1eecb80 vmulss %xmm4, %xmm8, %xmm0 vmulss %xmm7, %xmm8, %xmm4 vmulss %xmm6, %xmm8, %xmm5 vmulss %xmm3, %xmm8, %xmm3 vbroadcastss %xmm3, %xmm3 vmulps 0x4b0(%rsp), %xmm3, %xmm3 vbroadcastss %xmm5, %xmm5 vfmadd132ps 0x1e0(%rsp), %xmm3, %xmm5 # xmm5 = (xmm5 * mem) + xmm3 vbroadcastss %xmm4, %xmm3 vfmadd132ps 0x1f0(%rsp), %xmm5, %xmm3 # xmm3 = (xmm3 * mem) + xmm5 vbroadcastss %xmm0, %xmm0 vfmadd213ps %xmm3, %xmm9, %xmm0 # xmm0 = (xmm9 * xmm0) + xmm3 vbroadcastss %xmm0, %ymm3 vbroadcastss 0x24d717(%rip), %ymm4 # 0x1f12704 vpermps %ymm0, %ymm4, %ymm4 vbroadcastss 0x25bee1(%rip), %ymm5 # 0x1f20edc vpermps %ymm0, %ymm5, %ymm0 vmovaps %ymm3, 0x500(%rsp) vmovaps %ymm4, 0x520(%rsp) vmovaps %ymm0, 0x540(%rsp) vmovaps %ymm1, 0x560(%rsp) vmovaps %ymm2, 0x580(%rsp) vmovaps 0x420(%rsp), %ymm0 vmovaps %ymm0, 0x5a0(%rsp) vmovdqa 0x440(%rsp), %ymm0 vmovdqa %ymm0, 0x5c0(%rsp) movq 0x118(%rsp), %rcx vpcmpeqd %ymm0, %ymm0, %ymm0 vmovdqa %ymm0, 0x20(%rcx) vmovdqa %ymm0, (%rcx) vbroadcastss (%rax), %ymm0 vmovaps %ymm0, 0x5e0(%rsp) vbroadcastss 0x4(%rax), %ymm0 vmovaps %ymm0, 0x600(%rsp) vmovaps 0x4c0(%rsp), %ymm0 vmovaps %ymm0, 0x1c0(%rsp) leaq 0x1c0(%rsp), %rcx movq %rcx, 0xd0(%rsp) movq 0x18(%r11), %rcx movq %rcx, 0xd8(%rsp) movq %rax, 0xe0(%rsp) movq %rsi, 0xe8(%rsp) leaq 0x500(%rsp), %rax movq %rax, 0xf0(%rsp) movl $0x8, 0xf8(%rsp) movq 0x40(%r11), %rax testq %rax, %rax movl %r9d, 0x2a0(%rsp) je 0x1cc5168 leaq 0xd0(%rsp), %rdi vzeroupper callq *%rax movq 0x110(%rsp), %r11 movl 0x2a0(%rsp), %r9d vmovaps 0x140(%rsp), %ymm29 vmovaps 0x160(%rsp), %ymm28 vmovaps 0x120(%rsp), %ymm17 vmovaps 0x240(%rsp), %ymm18 vmovaps 0x260(%rsp), %ymm22 movl 0x1c(%rsp), %edi vmovaps 0x40(%rsp), %xmm9 vmovaps 0x180(%rsp), %ymm21 vmovaps 0x1a0(%rsp), %ymm20 vxorps %xmm27, %xmm27, %xmm27 leaq 0x46d633(%rip), %rdx # 0x213278c movq 0x20(%rsp), %rsi movq 0x28(%rsp), %r10 movq 0x30(%rsp), %r8 vmovdqa 0x1c0(%rsp), %ymm0 vptest %ymm0, %ymm0 vmovaps 0x80(%rsp), %ymm6 vmovaps 0x60(%rsp), %ymm3 je 0x1cc52dc movq 0x10(%r10), %rcx movq 0x10(%rcx), %rax testq %rax, %rax je 0x1cc5236 testb $0x2, (%rcx) jne 0x1cc51ac testb $0x40, 0x3e(%r11) je 0x1cc5236 leaq 0xd0(%rsp), %rdi vzeroupper callq *%rax movq 0x110(%rsp), %r11 movl 0x2a0(%rsp), %r9d vmovaps 0x140(%rsp), %ymm29 vmovaps 0x160(%rsp), %ymm28 vmovaps 0x120(%rsp), %ymm17 vmovaps 0x240(%rsp), %ymm18 vmovaps 0x260(%rsp), %ymm22 movl 0x1c(%rsp), %edi vmovaps 0x40(%rsp), %xmm9 vmovaps 0x180(%rsp), %ymm21 vmovaps 0x60(%rsp), %ymm3 vmovaps 0x1a0(%rsp), %ymm20 vmovaps 0x80(%rsp), %ymm6 vxorps %xmm27, %xmm27, %xmm27 leaq 0x46d565(%rip), %rdx # 0x213278c movq 0x20(%rsp), %rsi movq 0x28(%rsp), %r10 movq 0x30(%rsp), %r8 vmovdqa 0x1c0(%rsp), %ymm0 vptest %ymm0, %ymm0 je 0x1cc52dc vptestmd %ymm0, %ymm0, %k1 movq 0xe8(%rsp), %rax movq 0xf0(%rsp), %rcx vmovaps (%rcx), %ymm0 vmovups %ymm0, 0x180(%rax) {%k1} vmovaps 0x20(%rcx), %ymm0 vmovups %ymm0, 0x1a0(%rax) {%k1} vmovaps 0x40(%rcx), %ymm0 vmovups %ymm0, 0x1c0(%rax) {%k1} vmovaps 0x60(%rcx), %ymm0 vmovups %ymm0, 0x1e0(%rax) {%k1} vmovaps 0x80(%rcx), %ymm0 vmovups %ymm0, 0x200(%rax) {%k1} vmovdqa 0xa0(%rcx), %ymm0 vmovdqu32 %ymm0, 0x220(%rax) {%k1} vmovdqa 0xc0(%rcx), %ymm0 vmovdqu32 %ymm0, 0x240(%rax) {%k1} vmovdqa 0xe0(%rcx), %ymm0 vmovdqa32 %ymm0, 0x260(%rax) {%k1} vmovdqa 0x100(%rcx), %ymm0 vmovdqa32 %ymm0, 0x280(%rax) {%k1} jmp 0x1cc52ef vmovd 0x200(%rsp), %xmm0 vmovd %xmm0, 0x100(%rsi,%r15,4) movl $0x1, %eax shlxl %r12d, %eax, %eax kmovd %eax, %k0 movzbl %r9b, %eax kmovd %eax, %k1 kandnb %k1, %k0, %k0 vcmpleps 0x100(%rsi,%r15,4){1to8}, %ymm21, %k1 kandb %k1, %k0, %k2 kmovd %k2, %r9d ktestb %k1, %k0 je 0x1cc536d kmovd %r9d, %k1 vbroadcastss 0x2266f2(%rip), %ymm0 # 0x1eeba20 vblendmps %ymm21, %ymm0, %ymm0 {%k1} vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm0, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1] vminps %ymm2, %ymm1, %ymm1 vcmpeqps %ymm1, %ymm0, %k0 kmovd %k0, %eax andb %r9b, %al movzbl %al, %eax movzbl %r9b, %ecx cmovnel %eax, %ecx tzcntl %ecx, %r12d testb %r9b, %r9b jne 0x1cc4ee4 jmp 0x1cc4e10 xorl %r12d, %r12d vmovaps 0x80(%rsp), %ymm6 vmovaps 0x60(%rsp), %ymm3 vmovaps 0x40(%rsp), %xmm9 vmovaps 0x160(%rsp), %ymm28 vmovaps 0x140(%rsp), %ymm29 vmovaps 0x220(%rsp), %xmm10 jmp 0x1cc40f9 xorl %r12d, %r12d vmovaps 0x80(%rsp), %ymm6 vmovaps 0x60(%rsp), %ymm3 vmovaps 0x40(%rsp), %xmm9 jmp 0x1cc40f9 xorl %r12d, %r12d vmovaps 0x80(%rsp), %ymm6 vmovaps 0x60(%rsp), %ymm3 jmp 0x1cc40f9 movq 0x38(%rsp), %rax vpbroadcastd %eax, %ymm0 vmovdqa %ymm0, 0x420(%rsp) movq 0x58(%rsp), %rax vpbroadcastd %eax, %ymm0 vmovdqa %ymm0, 0x2a0(%rsp) vmovaps 0x380(%rsp), %xmm0 vmovaps %xmm0, 0x200(%rsp) vmovaps 0x390(%rsp), %xmm0 vmovaps %xmm0, 0x1f0(%rsp) vmovaps 0x3a0(%rsp), %xmm0 vmovaps %xmm0, 0x1e0(%rsp) movq %r8, 0x30(%rsp) movq %r10, 0x28(%rsp) movq %rsi, 0x20(%rsp) movl %edi, 0x1c(%rsp) vmovss 0x100(%rsi,%r15,4), %xmm0 vmovss %xmm0, 0x440(%rsp) vmovss 0x400(%rsp,%r9,4), %xmm0 vbroadcastss 0x3c0(%rsp,%r9,4), %ymm1 vbroadcastss 0x3e0(%rsp,%r9,4), %ymm2 vmovss %xmm0, 0x100(%rsi,%r15,4) movq 0x8(%r10), %rax vmovss 0x227277(%rip), %xmm0 # 0x1eec714 vsubss %xmm1, %xmm0, %xmm0 vaddss %xmm0, %xmm0, %xmm3 vmulss %xmm3, %xmm1, %xmm4 vfnmadd231ss %xmm0, %xmm0, %xmm4 # xmm4 = -(xmm0 * xmm0) + xmm4 vaddss %xmm1, %xmm1, %xmm5 vmovss 0x22bb32(%rip), %xmm8 # 0x1ef0fec vmovaps %xmm8, %xmm6 vfmadd213ss 0x22bb3d(%rip), %xmm1, %xmm6 # xmm6 = (xmm1 * xmm6) + mem vmulss %xmm1, %xmm8, %xmm7 vmulss %xmm7, %xmm1, %xmm7 vfmadd231ss %xmm6, %xmm5, %xmm7 # xmm7 = (xmm5 * xmm6) + xmm7 vmovaps %xmm8, %xmm5 vfmadd213ss 0x22bb17(%rip), %xmm1, %xmm5 # xmm5 = (xmm1 * xmm5) + mem vmulss 0x22bb07(%rip), %xmm0, %xmm6 # 0x1ef0ff0 vmulss %xmm6, %xmm0, %xmm6 vfmadd231ss %xmm5, %xmm3, %xmm6 # xmm6 = (xmm3 * xmm5) + xmm6 vmulss 0x22b4e2(%rip), %xmm0, %xmm0 # 0x1ef09dc vmulss %xmm1, %xmm1, %xmm3 vfmadd231ss %xmm0, %xmm1, %xmm3 # xmm3 = (xmm1 * xmm0) + xmm3 vmovss 0x227675(%rip), %xmm8 # 0x1eecb80 vmulss %xmm4, %xmm8, %xmm0 vmulss %xmm7, %xmm8, %xmm4 vmulss %xmm6, %xmm8, %xmm5 vmulss %xmm3, %xmm8, %xmm3 vbroadcastss %xmm3, %xmm3 vmulps 0x1e0(%rsp), %xmm3, %xmm3 vbroadcastss %xmm5, %xmm5 vfmadd132ps 0x1f0(%rsp), %xmm3, %xmm5 # xmm5 = (xmm5 * mem) + xmm3 vbroadcastss %xmm4, %xmm3 vfmadd132ps 0x200(%rsp), %xmm5, %xmm3 # xmm3 = (xmm3 * mem) + xmm5 vbroadcastss %xmm0, %xmm0 vfmadd213ps %xmm3, %xmm9, %xmm0 # xmm0 = (xmm9 * xmm0) + xmm3 vbroadcastss %xmm0, %ymm3 vbroadcastss 0x24d1a5(%rip), %ymm4 # 0x1f12704 vpermps %ymm0, %ymm4, %ymm4 vbroadcastss 0x25b96f(%rip), %ymm5 # 0x1f20edc vpermps %ymm0, %ymm5, %ymm0 vmovaps %ymm3, 0x500(%rsp) vmovaps %ymm4, 0x520(%rsp) vmovaps %ymm0, 0x540(%rsp) vmovaps %ymm1, 0x560(%rsp) vmovaps %ymm2, 0x580(%rsp) vmovaps 0x2a0(%rsp), %ymm0 vmovaps %ymm0, 0x5a0(%rsp) vmovdqa 0x420(%rsp), %ymm0 vmovdqa %ymm0, 0x5c0(%rsp) movq 0x118(%rsp), %rcx vpcmpeqd %ymm0, %ymm0, %ymm0 vmovdqa %ymm0, 0x20(%rcx) vmovdqa %ymm0, (%rcx) vbroadcastss (%rax), %ymm0 vmovaps %ymm0, 0x5e0(%rsp) vbroadcastss 0x4(%rax), %ymm0 vmovaps %ymm0, 0x600(%rsp) vmovaps 0x4c0(%rsp), %ymm0 vmovaps %ymm0, 0x1c0(%rsp) leaq 0x1c0(%rsp), %rcx movq %rcx, 0xd0(%rsp) movq 0x18(%r14), %rcx movq %rcx, 0xd8(%rsp) movq %rax, 0xe0(%rsp) movq %rsi, 0xe8(%rsp) leaq 0x500(%rsp), %rax movq %rax, 0xf0(%rsp) movl $0x8, 0xf8(%rsp) movq 0x40(%r14), %rax testq %rax, %rax movq %r9, 0x2c0(%rsp) je 0x1cc56e7 leaq 0xd0(%rsp), %rdi vzeroupper callq *%rax movq 0x2c0(%rsp), %r9 vmovaps 0x220(%rsp), %xmm10 vmovaps 0x280(%rsp), %xmm26 vmovaps 0x140(%rsp), %ymm29 vmovaps 0x160(%rsp), %ymm28 vmovaps 0x120(%rsp), %ymm17 vmovaps 0x240(%rsp), %ymm18 vmovaps 0x260(%rsp), %ymm22 movl 0x1c(%rsp), %edi vmovaps 0x40(%rsp), %xmm9 vmovaps 0x180(%rsp), %ymm21 vmovaps 0x1a0(%rsp), %ymm20 vxorps %xmm27, %xmm27, %xmm27 leaq 0x46d0b4(%rip), %rdx # 0x213278c movq 0x20(%rsp), %rsi movq 0x28(%rsp), %r10 movq 0x30(%rsp), %r8 vmovdqa 0x1c0(%rsp), %ymm0 vptest %ymm0, %ymm0 vmovaps 0x80(%rsp), %ymm6 vmovaps 0x60(%rsp), %ymm3 je 0x1cc5864 movq 0x10(%r10), %rcx movq 0x10(%rcx), %rax testq %rax, %rax je 0x1cc57be testb $0x2, (%rcx) jne 0x1cc572b testb $0x40, 0x3e(%r14) je 0x1cc57be leaq 0xd0(%rsp), %rdi vzeroupper callq *%rax movq 0x2c0(%rsp), %r9 vmovaps 0x220(%rsp), %xmm10 vmovaps 0x280(%rsp), %xmm26 vmovaps 0x140(%rsp), %ymm29 vmovaps 0x160(%rsp), %ymm28 vmovaps 0x120(%rsp), %ymm17 vmovaps 0x240(%rsp), %ymm18 vmovaps 0x260(%rsp), %ymm22 movl 0x1c(%rsp), %edi vmovaps 0x40(%rsp), %xmm9 vmovaps 0x180(%rsp), %ymm21 vmovaps 0x60(%rsp), %ymm3 vmovaps 0x1a0(%rsp), %ymm20 vmovaps 0x80(%rsp), %ymm6 vxorps %xmm27, %xmm27, %xmm27 leaq 0x46cfdd(%rip), %rdx # 0x213278c movq 0x20(%rsp), %rsi movq 0x28(%rsp), %r10 movq 0x30(%rsp), %r8 vmovdqa 0x1c0(%rsp), %ymm0 vptest %ymm0, %ymm0 je 0x1cc5864 vptestmd %ymm0, %ymm0, %k1 movq 0xe8(%rsp), %rax movq 0xf0(%rsp), %rcx vmovaps (%rcx), %ymm0 vmovups %ymm0, 0x180(%rax) {%k1} vmovaps 0x20(%rcx), %ymm0 vmovups %ymm0, 0x1a0(%rax) {%k1} vmovaps 0x40(%rcx), %ymm0 vmovups %ymm0, 0x1c0(%rax) {%k1} vmovaps 0x60(%rcx), %ymm0 vmovups %ymm0, 0x1e0(%rax) {%k1} vmovaps 0x80(%rcx), %ymm0 vmovups %ymm0, 0x200(%rax) {%k1} vmovdqa 0xa0(%rcx), %ymm0 vmovdqu32 %ymm0, 0x220(%rax) {%k1} vmovdqa 0xc0(%rcx), %ymm0 vmovdqu32 %ymm0, 0x240(%rax) {%k1} vmovdqa 0xe0(%rcx), %ymm0 vmovdqa32 %ymm0, 0x260(%rax) {%k1} vmovdqa 0x100(%rcx), %ymm0 vmovdqa32 %ymm0, 0x280(%rax) {%k1} jmp 0x1cc5877 vmovd 0x440(%rsp), %xmm0 vmovd %xmm0, 0x100(%rsi,%r15,4) movl $0x1, %eax shlxl %r9d, %eax, %eax kmovd %eax, %k0 movzbl %r12b, %eax kmovd %eax, %k1 kandnb %k1, %k0, %k0 vcmpleps 0x100(%rsi,%r15,4){1to8}, %ymm3, %k1 kandb %k1, %k0, %k2 kmovd %k2, %r12d ktestb %k1, %k0 je 0x1cc58f5 kmovd %r12d, %k1 vbroadcastss 0x22616a(%rip), %ymm0 # 0x1eeba20 vblendmps %ymm3, %ymm0, %ymm0 {%k1} vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm0, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1] vminps %ymm2, %ymm1, %ymm1 vcmpeqps %ymm1, %ymm0, %k0 kmovd %k0, %eax andb %r12b, %al movzbl %al, %eax movzbl %r12b, %ecx cmovnel %eax, %ecx tzcntl %ecx, %r9d testb %r12b, %r12b jne 0x1cc5456 jmp 0x1cc43f8 leaq -0x28(%rbp), %rsp popq %rbx popq %r12 popq %r13 popq %r14 popq %r15 popq %rbp vzeroupper retq nop
/embree[P]embree/kernels/geometry/curveNi_intersector.h
bool embree::avx512::CurveNiIntersectorK<8, 8>::occluded_t<embree::avx512::RibbonCurve1IntersectorK<embree::CatmullRomCurveT, 8, 8>, embree::avx512::Occluded1KEpilogMU<8, 8, true>>(embree::avx512::CurvePrecalculationsK<8>&, embree::RayK<8>&, unsigned long, embree::RayQueryContext*, embree::CurveNi<8> const&)
static __forceinline bool occluded_t(Precalculations& pre, RayK<K>& ray, const size_t k, RayQueryContext* context, const Primitive& prim) { vfloat<M> tNear; vbool<M> valid = intersect(ray,k,prim,tNear); const size_t N = prim.N; size_t mask = movemask(valid); while (mask) { const size_t i = bscf(mask); STAT3(shadow.trav_prims,1,1,1); const unsigned int geomID = prim.geomID(N); const unsigned int primID = prim.primID(N)[i]; const CurveGeometry* geom = context->scene->get<CurveGeometry>(geomID); Vec3ff a0,a1,a2,a3; geom->gather(a0,a1,a2,a3,geom->curve(primID)); size_t mask1 = mask; const size_t i1 = bscf(mask1); if (mask) { const unsigned int primID1 = prim.primID(N)[i1]; geom->prefetchL1_vertices(geom->curve(primID1)); if (mask1) { const size_t i2 = bsf(mask1); const unsigned int primID2 = prim.primID(N)[i2]; geom->prefetchL2_vertices(geom->curve(primID2)); } } if (Intersector().intersect(pre,ray,k,context,geom,primID,a0,a1,a2,a3,Epilog(ray,k,context,geomID,primID))) return true; mask &= movemask(tNear <= vfloat<M>(ray.tfar[k])); } return false; }
pushq %rbp movq %rsp, %rbp pushq %r15 pushq %r14 pushq %r13 pushq %r12 pushq %rbx andq $-0x20, %rsp subq $0x780, %rsp # imm = 0x780 movq %rdx, %r14 movq %rsi, %r15 movzbl 0x1(%r8), %eax leaq (%rax,%rax,4), %rdx leaq (%rdx,%rdx,4), %rsi vbroadcastss 0x12(%r8,%rsi), %xmm0 vmovss (%r15,%r14,4), %xmm1 vmovss 0x80(%r15,%r14,4), %xmm2 vinsertps $0x10, 0x20(%r15,%r14,4), %xmm1, %xmm1 # xmm1 = xmm1[0],mem[0],xmm1[2,3] vinsertps $0x20, 0x40(%r15,%r14,4), %xmm1, %xmm1 # xmm1 = xmm1[0,1],mem[0],xmm1[3] vinsertps $0x10, 0xa0(%r15,%r14,4), %xmm2, %xmm2 # xmm2 = xmm2[0],mem[0],xmm2[2,3] movq %rcx, %r10 movq %rdi, %r11 vinsertps $0x20, 0xc0(%r15,%r14,4), %xmm2, %xmm2 # xmm2 = xmm2[0,1],mem[0],xmm2[3] vsubps 0x6(%r8,%rsi), %xmm1, %xmm1 vmulps %xmm1, %xmm0, %xmm3 vmulps %xmm2, %xmm0, %xmm0 vpmovsxbd 0x6(%r8,%rax,4), %ymm1 vcvtdq2ps %ymm1, %ymm5 vpmovsxbd 0x6(%r8,%rdx), %ymm1 vcvtdq2ps %ymm1, %ymm6 leaq (%rax,%rax,2), %rcx vpmovsxbd 0x6(%r8,%rcx,2), %ymm1 vcvtdq2ps %ymm1, %ymm2 leaq (%rax,%rdx,2), %rsi vpmovsxbd 0x6(%r8,%rsi), %ymm1 vcvtdq2ps %ymm1, %ymm7 leal (,%rcx,4), %esi vpmovsxbd 0x6(%r8,%rsi), %ymm1 vcvtdq2ps %ymm1, %ymm8 addq %rax, %rsi vpmovsxbd 0x6(%r8,%rsi), %ymm1 vcvtdq2ps %ymm1, %ymm9 leaq (%rax,%rax,8), %rsi leal (%rsi,%rsi), %edi vpmovsxbd 0x6(%r8,%rdi), %ymm1 addq %rax, %rdi vpmovsxbd 0x6(%r8,%rdi), %ymm4 vcvtdq2ps %ymm1, %ymm10 vcvtdq2ps %ymm4, %ymm11 shll $0x2, %edx vpmovsxbd 0x6(%r8,%rdx), %ymm1 vcvtdq2ps %ymm1, %ymm12 vbroadcastss %xmm0, %ymm13 vbroadcastss 0x24cce1(%rip), %ymm15 # 0x1f12704 vpermps %ymm0, %ymm15, %ymm14 vbroadcastss 0x25b4aa(%rip), %ymm16 # 0x1f20edc vpermps %ymm0, %ymm16, %ymm0 vmulps %ymm2, %ymm0, %ymm4 vmulps %ymm0, %ymm9, %ymm1 vmulps %ymm0, %ymm12, %ymm0 vfmadd231ps %ymm6, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm6) + ymm4 vfmadd231ps %ymm8, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm8) + ymm1 vfmadd231ps %ymm14, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm14) + ymm0 vfmadd231ps %ymm5, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm5) + ymm4 vfmadd231ps %ymm7, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm7) + ymm1 vfmadd231ps %ymm13, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm13) + ymm0 vbroadcastss %xmm3, %ymm13 vpermps %ymm3, %ymm15, %ymm14 vpermps %ymm3, %ymm16, %ymm15 vmulps %ymm2, %ymm15, %ymm16 vmulps %ymm9, %ymm15, %ymm3 vmulps %ymm12, %ymm15, %ymm2 vfmadd231ps %ymm6, %ymm14, %ymm16 # ymm16 = (ymm14 * ymm6) + ymm16 vfmadd231ps %ymm8, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm8) + ymm3 vfmadd231ps %ymm11, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm11) + ymm2 vfmadd231ps %ymm5, %ymm13, %ymm16 # ymm16 = (ymm13 * ymm5) + ymm16 vfmadd231ps %ymm7, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm7) + ymm3 vfmadd231ps %ymm10, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm10) + ymm2 vbroadcastss 0x25b419(%rip), %ymm7 # 0x1f20ec4 vandps %ymm7, %ymm4, %ymm5 vbroadcastss 0x22b530(%rip), %ymm6 # 0x1ef0fe8 vcmpltps %ymm6, %ymm5, %k1 vmovaps %ymm6, %ymm4 {%k1} vandps %ymm7, %ymm1, %ymm5 vcmpltps %ymm6, %ymm5, %k1 vmovaps %ymm6, %ymm1 {%k1} vandps %ymm7, %ymm0, %ymm5 vcmpltps %ymm6, %ymm5, %k1 vmovaps %ymm6, %ymm0 {%k1} vrcp14ps %ymm4, %ymm5 vbroadcastss 0x226c1e(%rip), %ymm6 # 0x1eec714 vfnmadd213ps %ymm6, %ymm5, %ymm4 # ymm4 = -(ymm5 * ymm4) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm4 # ymm4 = (ymm4 * ymm5) + ymm5 vrcp14ps %ymm1, %ymm5 vfnmadd213ps %ymm6, %ymm5, %ymm1 # ymm1 = -(ymm5 * ymm1) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm1 # ymm1 = (ymm1 * ymm5) + ymm5 vrcp14ps %ymm0, %ymm5 vfnmadd213ps %ymm6, %ymm5, %ymm0 # ymm0 = -(ymm5 * ymm0) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm0 # ymm0 = (ymm0 * ymm5) + ymm5 leaq (,%rax,8), %rdi subq %rax, %rdi vpmovsxwd 0x6(%r8,%rdi), %ymm5 vcvtdq2ps %ymm5, %ymm5 vsubps %ymm16, %ymm5, %ymm5 vpmovsxwd 0x6(%r8,%rsi), %ymm6 vmulps %ymm5, %ymm4, %ymm5 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm16, %ymm6, %ymm6 vmulps %ymm6, %ymm4, %ymm4 leaq (%rax,%rax), %rsi addq %rax, %rdx shlq $0x3, %rcx subq %rax, %rcx movl %eax, %edi shll $0x4, %edi vpmovsxwd 0x6(%r8,%rdi), %ymm6 subq %rsi, %rdi vpmovsxwd 0x6(%r8,%rdi), %ymm7 vcvtdq2ps %ymm7, %ymm7 vsubps %ymm3, %ymm7, %ymm7 vmulps %ymm7, %ymm1, %ymm7 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm3, %ymm6, %ymm3 vmulps %ymm3, %ymm1, %ymm1 vpmovsxwd 0x6(%r8,%rdx), %ymm3 vcvtdq2ps %ymm3, %ymm3 vsubps %ymm2, %ymm3, %ymm3 vmulps %ymm0, %ymm3, %ymm3 vpmovsxwd 0x6(%r8,%rcx), %ymm6 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm2, %ymm6, %ymm2 vmulps %ymm2, %ymm0, %ymm0 vpminsd %ymm4, %ymm5, %ymm2 vpminsd %ymm1, %ymm7, %ymm6 vmaxps %ymm6, %ymm2, %ymm2 vpminsd %ymm0, %ymm3, %ymm6 vmaxps 0x60(%r15,%r14,4){1to8}, %ymm6, %ymm6 vmaxps %ymm6, %ymm2, %ymm2 vmulps 0x25a330(%rip){1to8}, %ymm2, %ymm6 # 0x1f1ff10 vpmaxsd %ymm4, %ymm5, %ymm2 vpmaxsd %ymm1, %ymm7, %ymm1 vminps %ymm1, %ymm2, %ymm1 vpmaxsd %ymm0, %ymm3, %ymm0 vminps 0x100(%r15,%r14,4){1to8}, %ymm0, %ymm0 vminps %ymm0, %ymm1, %ymm0 vmulps 0x25a30b(%rip){1to8}, %ymm0, %ymm0 # 0x1f1ff14 vpbroadcastd %eax, %ymm1 vpcmpgtd 0x294d07(%rip), %ymm1, %k0 # 0x1f5a920 vmovaps %ymm6, 0x740(%rsp) vcmpleps %ymm0, %ymm6, %k1 ktestb %k0, %k1 setne 0x7(%rsp) je 0x1cc7919 kandb %k0, %k1, %k0 kmovd %k0, %eax movzbl %al, %r12d leaq (%r14,%r14,2), %rax shlq $0x4, %rax addq %r11, %rax addq $0x20, %rax movq %rax, 0x178(%rsp) leaq 0x500(%rsp), %rax leaq 0xe0(%rax), %rax movq %rax, 0x88(%rsp) movl $0x1, %eax shlxl %r14d, %eax, %eax kmovd %eax, %k0 vpmovm2d %k0, %ymm0 vmovdqa %ymm0, 0x4c0(%rsp) vmovaps %ymm6, 0x60(%rsp) vmovaps %ymm2, 0x40(%rsp) vmovaps %ymm21, 0x1e0(%rsp) vmovaps %ymm20, 0x200(%rsp) tzcntq %r12, %rax movl 0x2(%r8), %ecx movl 0x6(%r8,%rax,4), %esi movq (%r10), %rax movq 0x1e8(%rax), %rax movq %rcx, 0x80(%rsp) movq (%rax,%rcx,8), %r13 movq 0x58(%r13), %rax movq 0x68(%r13), %rcx movq %rcx, %rdx movq %rsi, 0x10(%rsp) imulq %rsi, %rdx movl (%rax,%rdx), %edi movq 0xa0(%r13), %rdx movq %rdx, %r9 imulq %rdi, %r9 movq 0x90(%r13), %rsi vmovaps (%rsi,%r9), %xmm13 leaq 0x1(%rdi), %r9 imulq %rdx, %r9 vmovaps (%rsi,%r9), %xmm0 vmovaps %xmm0, 0x110(%rsp) leaq 0x2(%rdi), %r9 imulq %rdx, %r9 vmovaps (%rsi,%r9), %xmm0 vmovaps %xmm0, 0x100(%rsp) blsrq %r12, %r12 addq $0x3, %rdi imulq %rdx, %rdi vmovaps (%rsi,%rdi), %xmm0 vmovaps %xmm0, 0x160(%rsp) movq %r12, %rdi subq $0x1, %rdi jb 0x1cc5d9a andq %r12, %rdi tzcntq %r12, %r9 movl 0x6(%r8,%r9,4), %r9d imulq %rcx, %r9 movl (%rax,%r9), %r9d imulq %rdx, %r9 prefetcht0 (%rsi,%r9) prefetcht0 0x40(%rsi,%r9) testq %rdi, %rdi je 0x1cc5d9a tzcntq %rdi, %rdi movl 0x6(%r8,%rdi,4), %edi imulq %rdi, %rcx movl (%rax,%rcx), %eax imulq %rax, %rdx prefetcht1 (%rsi,%rdx) prefetcht1 0x40(%rsi,%rdx) movl 0x248(%r13), %r9d vmovss (%r15,%r14,4), %xmm0 vinsertps $0x1c, 0x20(%r15,%r14,4), %xmm0, %xmm0 # xmm0 = xmm0[0],mem[0],zero,zero vinsertps $0x28, 0x40(%r15,%r14,4), %xmm0, %xmm0 # xmm0 = xmm0[0,1],mem[0],zero vsubps %xmm0, %xmm13, %xmm1 vbroadcastss %xmm1, %xmm2 vshufps $0x55, %xmm1, %xmm1, %xmm3 # xmm3 = xmm1[1,1,1,1] vshufps $0xaa, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,2,2,2] movq 0x178(%rsp), %rax vmovaps (%rax), %xmm4 vmovaps 0x10(%rax), %xmm5 vmovaps 0x20(%rax), %xmm6 vmulps %xmm1, %xmm6, %xmm8 vfmadd231ps %xmm3, %xmm5, %xmm8 # xmm8 = (xmm5 * xmm3) + xmm8 vfmadd231ps %xmm2, %xmm4, %xmm8 # xmm8 = (xmm4 * xmm2) + xmm8 vshufps $0xff, %xmm13, %xmm13, %xmm1 # xmm1 = xmm13[3,3,3,3] vmovaps 0x110(%rsp), %xmm3 vsubps %xmm0, %xmm3, %xmm2 vmovaps %xmm3, %xmm10 vbroadcastss %xmm2, %xmm3 vshufps $0x55, %xmm2, %xmm2, %xmm7 # xmm7 = xmm2[1,1,1,1] vshufps $0xaa, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[2,2,2,2] vmulps %xmm2, %xmm6, %xmm9 vfmadd231ps %xmm7, %xmm5, %xmm9 # xmm9 = (xmm5 * xmm7) + xmm9 vfmadd231ps %xmm3, %xmm4, %xmm9 # xmm9 = (xmm4 * xmm3) + xmm9 vshufps $0xff, %xmm10, %xmm10, %xmm2 # xmm2 = xmm10[3,3,3,3] vmovaps 0x100(%rsp), %xmm7 vsubps %xmm0, %xmm7, %xmm3 vmovaps %xmm7, %xmm12 vbroadcastss %xmm3, %xmm7 vshufps $0x55, %xmm3, %xmm3, %xmm11 # xmm11 = xmm3[1,1,1,1] vshufps $0xaa, %xmm3, %xmm3, %xmm3 # xmm3 = xmm3[2,2,2,2] vmulps %xmm3, %xmm6, %xmm10 vfmadd231ps %xmm11, %xmm5, %xmm10 # xmm10 = (xmm5 * xmm11) + xmm10 vfmadd231ps %xmm7, %xmm4, %xmm10 # xmm10 = (xmm4 * xmm7) + xmm10 vshufps $0xff, %xmm12, %xmm12, %xmm7 # xmm7 = xmm12[3,3,3,3] vmovaps 0x160(%rsp), %xmm27 vsubps %xmm0, %xmm27, %xmm0 vbroadcastss %xmm0, %xmm3 vshufps $0x55, %xmm0, %xmm0, %xmm12 # xmm12 = xmm0[1,1,1,1] vshufps $0xaa, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[2,2,2,2] vmulps %xmm0, %xmm6, %xmm11 vfmadd231ps %xmm12, %xmm5, %xmm11 # xmm11 = (xmm5 * xmm12) + xmm11 vfmadd231ps %xmm3, %xmm4, %xmm11 # xmm11 = (xmm4 * xmm3) + xmm11 movslq %r9d, %rax movq %rax, %rcx shlq $0x6, %rcx leaq (%rcx,%rax,4), %rbx leaq 0x46a4d0(%rip), %rdx # 0x213036c vmovups (%rdx,%rbx), %ymm25 vshufps $0xff, %xmm27, %xmm27, %xmm0 # xmm0 = xmm27[3,3,3,3] vbroadcastss %xmm8, %ymm20 vbroadcastss 0x24c84b(%rip), %ymm3 # 0x1f12704 vpermps %ymm8, %ymm3, %ymm23 vbroadcastsd %xmm1, %ymm12 vmovups 0x484(%rdx,%rbx), %ymm14 vbroadcastss %xmm9, %ymm1 vpermps %ymm9, %ymm3, %ymm31 vbroadcastsd %xmm2, %ymm21 vmovups 0x908(%rdx,%rbx), %ymm15 vbroadcastss %xmm10, %ymm29 vpermps %ymm10, %ymm3, %ymm30 vbroadcastsd %xmm7, %ymm22 vmovups 0xd8c(%rdx,%rbx), %ymm16 vbroadcastss %xmm11, %ymm28 vpermps %ymm11, %ymm3, %ymm26 vbroadcastsd %xmm0, %ymm3 vmulps %ymm16, %ymm28, %ymm5 vmulps %ymm16, %ymm26, %ymm4 vfmadd231ps %ymm29, %ymm15, %ymm5 # ymm5 = (ymm15 * ymm29) + ymm5 vfmadd231ps %ymm30, %ymm15, %ymm4 # ymm4 = (ymm15 * ymm30) + ymm4 vfmadd231ps %ymm1, %ymm14, %ymm5 # ymm5 = (ymm14 * ymm1) + ymm5 vfmadd231ps %ymm31, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm31) + ymm4 vfmadd231ps %ymm20, %ymm25, %ymm5 # ymm5 = (ymm25 * ymm20) + ymm5 leaq 0x46c847(%rip), %rsi # 0x213278c vmovups (%rsi,%rbx), %ymm2 vmovups 0x484(%rsi,%rbx), %ymm17 vfmadd231ps %ymm23, %ymm25, %ymm4 # ymm4 = (ymm25 * ymm23) + ymm4 vmovups 0x908(%rsi,%rbx), %ymm18 vmovups 0xd8c(%rsi,%rbx), %ymm19 vmulps %ymm19, %ymm28, %ymm7 vmulps %ymm19, %ymm26, %ymm6 vfmadd231ps %ymm29, %ymm18, %ymm7 # ymm7 = (ymm18 * ymm29) + ymm7 vfmadd231ps %ymm30, %ymm18, %ymm6 # ymm6 = (ymm18 * ymm30) + ymm6 vmovaps %ymm1, 0x120(%rsp) vfmadd231ps %ymm1, %ymm17, %ymm7 # ymm7 = (ymm17 * ymm1) + ymm7 vfmadd231ps %ymm31, %ymm17, %ymm6 # ymm6 = (ymm17 * ymm31) + ymm6 vmovaps %ymm20, 0x260(%rsp) vfmadd231ps %ymm20, %ymm2, %ymm7 # ymm7 = (ymm2 * ymm20) + ymm7 vmovaps %ymm23, 0x240(%rsp) vfmadd231ps %ymm23, %ymm2, %ymm6 # ymm6 = (ymm2 * ymm23) + ymm6 vsubps %ymm5, %ymm7, %ymm24 vsubps %ymm4, %ymm6, %ymm23 vmulps %ymm24, %ymm4, %ymm0 vmulps %ymm23, %ymm5, %ymm1 vsubps %ymm1, %ymm0, %ymm20 vmulps %ymm16, %ymm3, %ymm0 vfmadd231ps %ymm22, %ymm15, %ymm0 # ymm0 = (ymm15 * ymm22) + ymm0 vfmadd231ps %ymm21, %ymm14, %ymm0 # ymm0 = (ymm14 * ymm21) + ymm0 vfmadd231ps %ymm12, %ymm25, %ymm0 # ymm0 = (ymm25 * ymm12) + ymm0 vmovaps %ymm3, 0x680(%rsp) vmulps %ymm19, %ymm3, %ymm1 vmovaps %ymm22, 0x6a0(%rsp) vfmadd231ps %ymm22, %ymm18, %ymm1 # ymm1 = (ymm18 * ymm22) + ymm1 vmovaps %ymm21, 0x700(%rsp) vfmadd231ps %ymm21, %ymm17, %ymm1 # ymm1 = (ymm17 * ymm21) + ymm1 vmovaps %ymm12, 0x720(%rsp) vfmadd231ps %ymm12, %ymm2, %ymm1 # ymm1 = (ymm2 * ymm12) + ymm1 vmulps %ymm23, %ymm23, %ymm21 vfmadd231ps %ymm24, %ymm24, %ymm21 # ymm21 = (ymm24 * ymm24) + ymm21 vmaxps %ymm1, %ymm0, %ymm22 vmulps %ymm22, %ymm22, %ymm22 vmulps %ymm21, %ymm22, %ymm21 vmulps %ymm20, %ymm20, %ymm20 vcmpleps %ymm21, %ymm20, %k1 vmovaps %xmm13, 0x20(%rsp) vblendps $0x8, %xmm13, %xmm8, %xmm12 # xmm12 = xmm8[0,1,2],xmm13[3] vbroadcastss 0x25ae5a(%rip), %xmm20 # 0x1f20ec4 vandps %xmm20, %xmm12, %xmm12 vblendps $0x8, 0x110(%rsp), %xmm9, %xmm13 # xmm13 = xmm9[0,1,2],mem[3] vandps %xmm20, %xmm13, %xmm13 vmaxps %xmm13, %xmm12, %xmm12 vblendps $0x8, 0x100(%rsp), %xmm10, %xmm13 # xmm13 = xmm10[0,1,2],mem[3] vandps %xmm20, %xmm13, %xmm13 vmovaps %xmm27, %xmm3 vblendps $0x8, %xmm3, %xmm11, %xmm3 # xmm3 = xmm11[0,1,2],xmm3[3] vandps %xmm20, %xmm3, %xmm3 vmaxps %xmm3, %xmm13, %xmm3 vmaxps %xmm3, %xmm12, %xmm3 vmovshdup %xmm3, %xmm12 # xmm12 = xmm3[1,1,3,3] vmaxss %xmm3, %xmm12, %xmm12 vshufpd $0x1, %xmm3, %xmm3, %xmm3 # xmm3 = xmm3[1,0] vmaxss %xmm12, %xmm3, %xmm3 vcvtsi2ss %r9d, %xmm8, %xmm12 vmovaps %xmm12, 0x2e0(%rsp) vbroadcastss %xmm12, %ymm12 vcmpgtps 0x25ae5f(%rip), %ymm12, %k1 {%k1} # 0x1f20f40 vmulss 0x22aefb(%rip), %xmm3, %xmm12 # 0x1ef0fe4 vbroadcastss 0x25adea(%rip), %ymm3 # 0x1f20edc vpermps %ymm8, %ymm3, %ymm20 vpermps %ymm9, %ymm3, %ymm21 vpermps %ymm10, %ymm3, %ymm22 vpermps %ymm11, %ymm3, %ymm8 kortestb %k1, %k1 vmovss 0x60(%r15,%r14,4), %xmm10 vmovaps %ymm31, 0x4e0(%rsp) vmovaps %ymm29, 0x6e0(%rsp) vmovaps %ymm30, 0x6c0(%rsp) vmovaps %ymm20, 0x660(%rsp) vmovaps %ymm21, 0x640(%rsp) vmovaps %ymm22, 0x620(%rsp) je 0x1cc6be3 vmovaps %xmm10, 0x180(%rsp) vmulps %ymm19, %ymm8, %ymm3 vfmadd213ps %ymm3, %ymm22, %ymm18 # ymm18 = (ymm22 * ymm18) + ymm3 vfmadd213ps %ymm18, %ymm21, %ymm17 # ymm17 = (ymm21 * ymm17) + ymm18 vfmadd213ps %ymm17, %ymm20, %ymm2 # ymm2 = (ymm20 * ymm2) + ymm17 vmulps %ymm16, %ymm8, %ymm3 vfmadd213ps %ymm3, %ymm22, %ymm15 # ymm15 = (ymm22 * ymm15) + ymm3 vfmadd213ps %ymm15, %ymm21, %ymm14 # ymm14 = (ymm21 * ymm14) + ymm15 vmovups 0x1210(%rdx,%rbx), %ymm3 vmovups 0x1694(%rdx,%rbx), %ymm10 vmovups 0x1b18(%rdx,%rbx), %ymm11 vmovaps %xmm12, %xmm16 vmovups 0x1f9c(%rdx,%rbx), %ymm12 vfmadd213ps %ymm14, %ymm20, %ymm25 # ymm25 = (ymm20 * ymm25) + ymm14 vmovaps %ymm8, %ymm15 vmulps %ymm12, %ymm28, %ymm9 vmulps %ymm12, %ymm26, %ymm8 vmulps %ymm12, %ymm15, %ymm12 vfmadd231ps %ymm29, %ymm11, %ymm9 # ymm9 = (ymm11 * ymm29) + ymm9 vfmadd231ps %ymm30, %ymm11, %ymm8 # ymm8 = (ymm11 * ymm30) + ymm8 vfmadd231ps %ymm11, %ymm22, %ymm12 # ymm12 = (ymm22 * ymm11) + ymm12 vmovaps 0x120(%rsp), %ymm19 vfmadd231ps %ymm19, %ymm10, %ymm9 # ymm9 = (ymm10 * ymm19) + ymm9 vfmadd231ps %ymm31, %ymm10, %ymm8 # ymm8 = (ymm10 * ymm31) + ymm8 vfmadd231ps %ymm10, %ymm21, %ymm12 # ymm12 = (ymm21 * ymm10) + ymm12 vmovaps 0x260(%rsp), %ymm17 vfmadd231ps %ymm17, %ymm3, %ymm9 # ymm9 = (ymm3 * ymm17) + ymm9 vmovaps 0x240(%rsp), %ymm18 vfmadd231ps %ymm18, %ymm3, %ymm8 # ymm8 = (ymm3 * ymm18) + ymm8 vmovups 0x1210(%rsi,%rbx), %ymm10 vmovups 0x1b18(%rsi,%rbx), %ymm11 vmovups 0x1f9c(%rsi,%rbx), %ymm13 vfmadd231ps %ymm3, %ymm20, %ymm12 # ymm12 = (ymm20 * ymm3) + ymm12 vmovaps %ymm28, 0x1c0(%rsp) vmulps %ymm13, %ymm28, %ymm3 vmovaps %ymm26, 0x1a0(%rsp) vmulps %ymm13, %ymm26, %ymm14 vmovaps %ymm15, 0x220(%rsp) vmulps %ymm13, %ymm15, %ymm13 vfmadd231ps %ymm29, %ymm11, %ymm3 # ymm3 = (ymm11 * ymm29) + ymm3 vfmadd231ps %ymm30, %ymm11, %ymm14 # ymm14 = (ymm11 * ymm30) + ymm14 vfmadd231ps %ymm11, %ymm22, %ymm13 # ymm13 = (ymm22 * ymm11) + ymm13 vmovups 0x1694(%rsi,%rbx), %ymm11 vfmadd231ps %ymm19, %ymm11, %ymm3 # ymm3 = (ymm11 * ymm19) + ymm3 vfmadd231ps %ymm31, %ymm11, %ymm14 # ymm14 = (ymm11 * ymm31) + ymm14 vfmadd231ps %ymm11, %ymm21, %ymm13 # ymm13 = (ymm21 * ymm11) + ymm13 vfmadd231ps %ymm17, %ymm10, %ymm3 # ymm3 = (ymm10 * ymm17) + ymm3 vfmadd231ps %ymm18, %ymm10, %ymm14 # ymm14 = (ymm10 * ymm18) + ymm14 vfmadd231ps %ymm10, %ymm20, %ymm13 # ymm13 = (ymm20 * ymm10) + ymm13 vbroadcastss 0x25ac26(%rip), %ymm15 # 0x1f20ec4 vandps %ymm15, %ymm9, %ymm10 vandps %ymm15, %ymm8, %ymm11 vmaxps %ymm11, %ymm10, %ymm10 vandps %ymm15, %ymm12, %ymm11 vmaxps %ymm11, %ymm10, %ymm10 vbroadcastss %xmm16, %ymm11 vmovaps %xmm16, %xmm26 vcmpltps %ymm11, %ymm10, %k2 vmovaps %ymm24, %ymm9 {%k2} vmovaps %ymm23, %ymm8 {%k2} vandps %ymm3, %ymm15, %ymm10 vandps %ymm15, %ymm14, %ymm12 vmaxps %ymm12, %ymm10, %ymm10 vandps %ymm15, %ymm13, %ymm12 vmaxps %ymm12, %ymm10, %ymm10 vcmpltps %ymm11, %ymm10, %k2 vmovaps %ymm24, %ymm3 {%k2} vmovaps %ymm23, %ymm14 {%k2} vbroadcastss 0x25abb6(%rip), %ymm11 # 0x1f20ec0 vxorps %ymm11, %ymm9, %ymm10 vxorps %ymm3, %ymm11, %ymm12 vxorps %xmm24, %xmm24, %xmm24 vfmadd213ps %ymm24, %ymm9, %ymm9 # ymm9 = (ymm9 * ymm9) + ymm24 vfmadd231ps %ymm8, %ymm8, %ymm9 # ymm9 = (ymm8 * ymm8) + ymm9 vrsqrt14ps %ymm9, %ymm11 vbroadcastss 0x2263e9(%rip), %ymm15 # 0x1eec71c vmulps %ymm15, %ymm9, %ymm9 vmulps %ymm9, %ymm11, %ymm9 vmulps %ymm11, %ymm11, %ymm13 vmulps %ymm9, %ymm13, %ymm9 vbroadcastss 0x2263c7(%rip), %ymm16 # 0x1eec718 vfmadd231ps %ymm11, %ymm16, %ymm9 # ymm9 = (ymm16 * ymm11) + ymm9 vmulps %ymm9, %ymm8, %ymm11 vmulps %ymm10, %ymm9, %ymm10 vmulps %ymm24, %ymm9, %ymm13 vfmadd213ps %ymm24, %ymm3, %ymm3 # ymm3 = (ymm3 * ymm3) + ymm24 vfmadd231ps %ymm14, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm14) + ymm3 vrsqrt14ps %ymm3, %ymm8 vmulps %ymm3, %ymm15, %ymm3 vmulps %ymm3, %ymm8, %ymm3 vmulps %ymm8, %ymm8, %ymm9 vmulps %ymm3, %ymm9, %ymm3 vfmadd231ps %ymm8, %ymm16, %ymm3 # ymm3 = (ymm16 * ymm8) + ymm3 vmulps %ymm3, %ymm14, %ymm8 vmulps %ymm3, %ymm12, %ymm9 vmulps %ymm24, %ymm3, %ymm3 vmovaps %ymm11, %ymm12 vfmadd213ps %ymm5, %ymm0, %ymm12 # ymm12 = (ymm0 * ymm12) + ymm5 vmovaps %ymm10, %ymm14 vfmadd213ps %ymm4, %ymm0, %ymm14 # ymm14 = (ymm0 * ymm14) + ymm4 vmovaps %ymm13, %ymm15 vfmadd213ps %ymm25, %ymm0, %ymm15 # ymm15 = (ymm0 * ymm15) + ymm25 vmovaps %ymm8, %ymm16 vfmadd213ps %ymm7, %ymm1, %ymm16 # ymm16 = (ymm1 * ymm16) + ymm7 vfnmadd213ps %ymm5, %ymm0, %ymm11 # ymm11 = -(ymm0 * ymm11) + ymm5 vmovaps %ymm9, %ymm5 vfmadd213ps %ymm6, %ymm1, %ymm5 # ymm5 = (ymm1 * ymm5) + ymm6 vfnmadd213ps %ymm4, %ymm0, %ymm10 # ymm10 = -(ymm0 * ymm10) + ymm4 vmovaps %ymm3, %ymm4 vfmadd213ps %ymm2, %ymm1, %ymm4 # ymm4 = (ymm1 * ymm4) + ymm2 vfnmadd231ps %ymm13, %ymm0, %ymm25 # ymm25 = -(ymm0 * ymm13) + ymm25 vfnmadd213ps %ymm7, %ymm1, %ymm8 # ymm8 = -(ymm1 * ymm8) + ymm7 vfnmadd213ps %ymm6, %ymm1, %ymm9 # ymm9 = -(ymm1 * ymm9) + ymm6 vfnmadd231ps %ymm3, %ymm1, %ymm2 # ymm2 = -(ymm1 * ymm3) + ymm2 vsubps %ymm11, %ymm16, %ymm3 vsubps %ymm10, %ymm5, %ymm6 vsubps %ymm25, %ymm4, %ymm7 vmulps %ymm25, %ymm6, %ymm13 vfmsub231ps %ymm7, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm7) - ymm13 vmulps %ymm7, %ymm11, %ymm7 vfmsub231ps %ymm3, %ymm25, %ymm7 # ymm7 = (ymm25 * ymm3) - ymm7 vmulps %ymm3, %ymm10, %ymm3 vfmsub231ps %ymm6, %ymm11, %ymm3 # ymm3 = (ymm11 * ymm6) - ymm3 vfmadd231ps %ymm7, %ymm24, %ymm3 # ymm3 = (ymm24 * ymm7) + ymm3 vfmadd231ps %ymm13, %ymm24, %ymm3 # ymm3 = (ymm24 * ymm13) + ymm3 vcmpleps %ymm24, %ymm3, %k2 vmovaps %ymm12, %ymm8 {%k2} vmovaps %ymm14, %ymm9 {%k2} vmovaps %ymm15, %ymm2 {%k2} vblendmps %ymm16, %ymm11, %ymm13 {%k2} vblendmps %ymm5, %ymm10, %ymm14 {%k2} vblendmps %ymm4, %ymm25, %ymm15 {%k2} vmovaps %ymm11, %ymm16 {%k2} vmovaps %ymm10, %ymm5 {%k2} vmovaps %ymm25, %ymm4 {%k2} vsubps %ymm8, %ymm16, %ymm6 vsubps %ymm9, %ymm5, %ymm5 vsubps %ymm2, %ymm4, %ymm11 vsubps %ymm13, %ymm8, %ymm7 vsubps %ymm14, %ymm9, %ymm10 vsubps %ymm15, %ymm2, %ymm12 vmulps %ymm8, %ymm11, %ymm4 vfmsub231ps %ymm6, %ymm2, %ymm4 # ymm4 = (ymm2 * ymm6) - ymm4 vmulps %ymm6, %ymm9, %ymm3 vfmsub231ps %ymm5, %ymm8, %ymm3 # ymm3 = (ymm8 * ymm5) - ymm3 vfmadd231ps %ymm4, %ymm24, %ymm3 # ymm3 = (ymm24 * ymm4) + ymm3 vmulps %ymm2, %ymm5, %ymm4 vfmsub231ps %ymm11, %ymm9, %ymm4 # ymm4 = (ymm9 * ymm11) - ymm4 vfmadd231ps %ymm4, %ymm24, %ymm3 # ymm3 = (ymm24 * ymm4) + ymm3 vmulps %ymm13, %ymm12, %ymm16 vfmsub231ps %ymm15, %ymm7, %ymm16 # ymm16 = (ymm7 * ymm15) - ymm16 vmulps %ymm15, %ymm10, %ymm15 vfmsub231ps %ymm12, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm12) - ymm15 vmulps %ymm7, %ymm14, %ymm4 vfmsub231ps %ymm13, %ymm10, %ymm4 # ymm4 = (ymm10 * ymm13) - ymm4 vfmadd231ps %ymm16, %ymm24, %ymm4 # ymm4 = (ymm24 * ymm16) + ymm4 vfmadd231ps %ymm15, %ymm24, %ymm4 # ymm4 = (ymm24 * ymm15) + ymm4 vmaxps %ymm4, %ymm3, %ymm13 vcmpleps %ymm24, %ymm13, %k0 {%k1} kortestb %k0, %k0 vmovaps 0x200(%rsp), %ymm20 vmovaps 0x1e0(%rsp), %ymm21 vmovaps %ymm17, %ymm22 vmovaps %ymm19, %ymm17 vmovaps %xmm26, %xmm14 je 0x1cc78bb vmulps %ymm5, %ymm12, %ymm13 vfmsub231ps %ymm11, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm11) - ymm13 vmulps %ymm7, %ymm11, %ymm11 vfmsub231ps %ymm12, %ymm6, %ymm11 # ymm11 = (ymm6 * ymm12) - ymm11 vmulps %ymm6, %ymm10, %ymm10 vfmsub231ps %ymm5, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm5) - ymm10 vxorps %xmm6, %xmm6, %xmm6 vfmadd213ps %ymm10, %ymm11, %ymm6 # ymm6 = (ymm11 * ymm6) + ymm10 vfmadd231ps %ymm24, %ymm13, %ymm6 # ymm6 = (ymm13 * ymm24) + ymm6 vrcp14ps %ymm6, %ymm7 vmovaps %ymm7, %ymm5 vfnmadd213ps 0x2261bd(%rip){1to8}, %ymm6, %ymm5 # ymm5 = -(ymm6 * ymm5) + mem vfmadd132ps %ymm7, %ymm7, %ymm5 # ymm5 = (ymm5 * ymm7) + ymm7 vmulps %ymm2, %ymm10, %ymm2 vfmadd231ps %ymm11, %ymm9, %ymm2 # ymm2 = (ymm9 * ymm11) + ymm2 vfmadd231ps %ymm13, %ymm8, %ymm2 # ymm2 = (ymm8 * ymm13) + ymm2 vmulps %ymm5, %ymm2, %ymm2 vmovaps 0x180(%rsp), %xmm10 vbroadcastss %xmm10, %ymm7 vcmpleps %ymm2, %ymm7, %k1 vcmpleps 0x100(%r15,%r14,4){1to8}, %ymm2, %k1 {%k1} kandb %k0, %k1, %k0 kortestb %k0, %k0 vmovaps 0x1c0(%rsp), %ymm28 vmovaps 0x1a0(%rsp), %ymm29 je 0x1cc78ed vcmpneqps %ymm24, %ymm6, %k1 ktestb %k1, %k0 vmovaps 0x20(%rsp), %xmm9 je 0x1cc7906 kandb %k1, %k0, %k0 kmovd %k0, %eax vmulps %ymm5, %ymm3, %ymm3 vmulps %ymm5, %ymm4, %ymm4 vbroadcastss 0x22613a(%rip), %ymm5 # 0x1eec714 vsubps %ymm3, %ymm5, %ymm6 vmovaps %ymm3, %ymm6 {%k2} vsubps %ymm4, %ymm5, %ymm3 vmovaps %ymm4, %ymm3 {%k2} vmovaps %ymm3, 0x480(%rsp) movzbl %al, %eax testw %ax, %ax je 0x1cc6bd6 vsubps %ymm0, %ymm1, %ymm1 vfmadd213ps %ymm0, %ymm6, %ymm1 # ymm1 = (ymm6 * ymm1) + ymm0 vaddps %ymm1, %ymm1, %ymm0 vmulps (%r11,%r14,4){1to8}, %ymm0, %ymm0 vcmpnleps %ymm0, %ymm2, %k0 kmovd %k0, %ecx andb %cl, %al je 0x1cc6bd6 vbroadcastss 0x22a399(%rip), %ymm0 # 0x1ef09cc vmovaps 0x480(%rsp), %ymm1 vfmadd132ps 0x22a9b2(%rip){1to8}, %ymm0, %ymm1 # ymm1 = (ymm1 * mem) + ymm0 vmovaps %ymm6, 0x300(%rsp) vmovaps %ymm1, 0x480(%rsp) vmovaps %ymm1, 0x320(%rsp) vmovaps %ymm2, 0x340(%rsp) movl $0x0, 0x360(%rsp) movl %r9d, 0x364(%rsp) vmovaps %xmm9, 0x370(%rsp) vmovaps 0x110(%rsp), %xmm0 vmovaps %xmm0, 0x380(%rsp) vmovaps 0x100(%rsp), %xmm0 vmovaps %xmm0, 0x390(%rsp) vmovaps 0x160(%rsp), %xmm0 vmovaps %xmm0, 0x3a0(%rsp) movb %al, 0x3b0(%rsp) movl 0x120(%r15,%r14,4), %ecx testl %ecx, 0x34(%r13) je 0x1cc6bd6 movq 0x10(%r10), %rcx cmpq $0x0, 0x10(%rcx) jne 0x1cc66ee movb $0x1, %dil cmpq $0x0, 0x48(%r13) je 0x1cc6bd8 vaddps 0x25a84a(%rip), %ymm6, %ymm0 # 0x1f20f40 vmovss 0x226016(%rip), %xmm1 # 0x1eec714 vdivss 0x2e0(%rsp), %xmm1, %xmm1 vbroadcastss %xmm1, %ymm1 vmulps %ymm0, %ymm1, %ymm0 vmovaps %ymm0, 0x3c0(%rsp) vmovaps 0x480(%rsp), %ymm0 vmovaps %ymm0, 0x3e0(%rsp) vmovaps %ymm2, 0x400(%rsp) movzbl %al, %ecx tzcntq %rcx, %rdi movq 0x80(%rsp), %rax vpbroadcastd %eax, %ymm0 vmovdqa %ymm0, 0x420(%rsp) vmovaps 0x380(%rsp), %xmm0 vmovaps %xmm0, 0xf0(%rsp) movq 0x10(%rsp), %rax vpbroadcastd %eax, %ymm0 vmovdqa %ymm0, 0x280(%rsp) movq %rdi, %rax vmovaps 0x390(%rsp), %xmm0 vmovaps %xmm0, 0xe0(%rsp) vmovaps 0x3a0(%rsp), %xmm0 vmovaps %xmm0, 0xd0(%rsp) movb $0x1, %dil vmovaps %xmm14, 0xc0(%rsp) movq %r8, 0x38(%rsp) movq %r10, 0x18(%rsp) movq %r11, 0x30(%rsp) vmovaps %ymm6, 0x60(%rsp) vmovaps %ymm2, 0x40(%rsp) movl %r9d, 0xc(%rsp) movq %rcx, 0x2c0(%rsp) vmovss 0x100(%r15,%r14,4), %xmm11 vmovss 0x400(%rsp,%rax,4), %xmm0 vbroadcastss 0x3c0(%rsp,%rax,4), %ymm1 movq %rax, 0x440(%rsp) vbroadcastss 0x3e0(%rsp,%rax,4), %ymm2 vmovss %xmm0, 0x100(%r15,%r14,4) movq 0x8(%r10), %rax vmovss 0x225efb(%rip), %xmm0 # 0x1eec714 vsubss %xmm1, %xmm0, %xmm0 vaddss %xmm0, %xmm0, %xmm3 vmulss %xmm3, %xmm1, %xmm4 vfnmadd231ss %xmm0, %xmm0, %xmm4 # xmm4 = -(xmm0 * xmm0) + xmm4 vaddss %xmm1, %xmm1, %xmm5 vmovss 0x22a7b6(%rip), %xmm8 # 0x1ef0fec vmovaps %xmm8, %xmm6 vfmadd213ss 0x22a7c1(%rip), %xmm1, %xmm6 # xmm6 = (xmm1 * xmm6) + mem vmulss %xmm1, %xmm8, %xmm7 vmulss %xmm7, %xmm1, %xmm7 vfmadd231ss %xmm6, %xmm5, %xmm7 # xmm7 = (xmm5 * xmm6) + xmm7 vmovaps %xmm8, %xmm5 vfmadd213ss 0x22a79b(%rip), %xmm1, %xmm5 # xmm5 = (xmm1 * xmm5) + mem vmulss 0x22a78b(%rip), %xmm0, %xmm6 # 0x1ef0ff0 vmulss %xmm6, %xmm0, %xmm6 vfmadd231ss %xmm5, %xmm3, %xmm6 # xmm6 = (xmm3 * xmm5) + xmm6 vmulss 0x22a166(%rip), %xmm0, %xmm0 # 0x1ef09dc vmulss %xmm1, %xmm1, %xmm3 vfmadd231ss %xmm0, %xmm1, %xmm3 # xmm3 = (xmm1 * xmm0) + xmm3 vmovss 0x2262f9(%rip), %xmm8 # 0x1eecb80 vmulss %xmm4, %xmm8, %xmm0 vmulss %xmm7, %xmm8, %xmm4 vmulss %xmm6, %xmm8, %xmm5 vmulss %xmm3, %xmm8, %xmm3 vbroadcastss %xmm3, %xmm3 vmulps 0xd0(%rsp), %xmm3, %xmm3 vbroadcastss %xmm5, %xmm5 vfmadd132ps 0xe0(%rsp), %xmm3, %xmm5 # xmm5 = (xmm5 * mem) + xmm3 vbroadcastss %xmm4, %xmm3 vfmadd132ps 0xf0(%rsp), %xmm5, %xmm3 # xmm3 = (xmm3 * mem) + xmm5 vbroadcastss %xmm0, %xmm0 vfmadd213ps %xmm3, %xmm9, %xmm0 # xmm0 = (xmm9 * xmm0) + xmm3 vbroadcastss %xmm0, %ymm3 vbroadcastss 0x24be29(%rip), %ymm4 # 0x1f12704 vpermps %ymm0, %ymm4, %ymm4 vbroadcastss 0x25a5f3(%rip), %ymm5 # 0x1f20edc vpermps %ymm0, %ymm5, %ymm0 vmovaps %ymm3, 0x500(%rsp) vmovaps %ymm4, 0x520(%rsp) vmovaps %ymm0, 0x540(%rsp) vmovaps %ymm1, 0x560(%rsp) vmovaps %ymm2, 0x580(%rsp) vmovaps 0x280(%rsp), %ymm0 vmovaps %ymm0, 0x5a0(%rsp) vmovdqa 0x420(%rsp), %ymm0 vmovdqa %ymm0, 0x5c0(%rsp) movq 0x88(%rsp), %rcx vpcmpeqd %ymm0, %ymm0, %ymm0 vmovdqa %ymm0, 0x20(%rcx) vmovdqa %ymm0, (%rcx) vbroadcastss (%rax), %ymm0 vmovaps %ymm0, 0x5e0(%rsp) vbroadcastss 0x4(%rax), %ymm0 vmovaps %ymm0, 0x600(%rsp) vmovaps 0x4c0(%rsp), %ymm0 vmovaps %ymm0, 0x140(%rsp) leaq 0x140(%rsp), %rcx movq %rcx, 0x90(%rsp) movq 0x18(%r13), %rcx movq %rcx, 0x98(%rsp) movq %rax, 0xa0(%rsp) movq %r15, 0xa8(%rsp) leaq 0x500(%rsp), %rax movq %rax, 0xb0(%rsp) movl $0x8, 0xb8(%rsp) movq 0x48(%r13), %rax testq %rax, %rax movl %edi, 0x8(%rsp) vmovss %xmm11, 0x2a0(%rsp) je 0x1cc6a76 leaq 0x90(%rsp), %rdi vzeroupper callq *%rax vmovss 0x2a0(%rsp), %xmm11 vmovaps 0x180(%rsp), %xmm10 vmovaps 0xc0(%rsp), %xmm14 movl 0x8(%rsp), %edi vmovaps 0x1a0(%rsp), %ymm29 vmovaps 0x1c0(%rsp), %ymm28 vmovaps 0x120(%rsp), %ymm17 vmovaps 0x240(%rsp), %ymm18 vmovaps 0x260(%rsp), %ymm22 movl 0xc(%rsp), %r9d vmovaps 0x20(%rsp), %xmm9 vmovaps 0x1e0(%rsp), %ymm21 vmovaps 0x200(%rsp), %ymm20 vxorps %xmm24, %xmm24, %xmm24 leaq 0x46bd2c(%rip), %rsi # 0x213278c leaq 0x469905(%rip), %rdx # 0x213036c movq 0x30(%rsp), %r11 movq 0x18(%rsp), %r10 movq 0x38(%rsp), %r8 vmovdqa 0x140(%rsp), %ymm0 vptest %ymm0, %ymm0 je 0x1cc6b97 movq 0x10(%r10), %rcx movq 0x10(%rcx), %rax testq %rax, %rax vmovaps 0x60(%rsp), %ymm6 vmovaps 0x40(%rsp), %ymm2 je 0x1cc6b55 testb $0x2, (%rcx) jne 0x1cc6ab7 testb $0x40, 0x3e(%r13) je 0x1cc6b55 leaq 0x90(%rsp), %rdi vzeroupper callq *%rax vmovss 0x2a0(%rsp), %xmm11 vmovaps 0x180(%rsp), %xmm10 vmovaps 0xc0(%rsp), %xmm14 movl 0x8(%rsp), %edi vmovaps 0x1a0(%rsp), %ymm29 vmovaps 0x1c0(%rsp), %ymm28 vmovaps 0x120(%rsp), %ymm17 vmovaps 0x240(%rsp), %ymm18 vmovaps 0x260(%rsp), %ymm22 movl 0xc(%rsp), %r9d vmovaps 0x20(%rsp), %xmm9 vmovaps 0x1e0(%rsp), %ymm21 vmovaps 0x40(%rsp), %ymm2 vmovaps 0x200(%rsp), %ymm20 vmovaps 0x60(%rsp), %ymm6 vxorps %xmm24, %xmm24, %xmm24 leaq 0x46bc4d(%rip), %rsi # 0x213278c leaq 0x469826(%rip), %rdx # 0x213036c movq 0x30(%rsp), %r11 movq 0x18(%rsp), %r10 movq 0x38(%rsp), %r8 vmovdqa 0x140(%rsp), %ymm0 vptestmd %ymm0, %ymm0, %k1 movq 0xa8(%rsp), %rax vmovaps 0x100(%rax), %ymm1 vbroadcastss 0x226006(%rip), %ymm1 {%k1} # 0x1eecb84 vmovaps %ymm1, 0x100(%rax) vptest %ymm0, %ymm0 movq 0x2c0(%rsp), %rcx je 0x1cc6bab jmp 0x1cc6bd0 vmovaps 0x60(%rsp), %ymm6 vmovaps 0x40(%rsp), %ymm2 movq 0x2c0(%rsp), %rcx vmovss %xmm11, 0x100(%r15,%r14,4) movq 0x440(%rsp), %rax btcq %rax, %rcx tzcntq %rcx, %rax setae %dil jae 0x1cc67cc andb $0x1, %dil jmp 0x1cc6bd8 xorl %edi, %edi vmovaps 0x220(%rsp), %ymm8 jmp 0x1cc6c2a xorl %edi, %edi vxorps %xmm24, %xmm24, %xmm24 vmovaps 0x60(%rsp), %ymm6 vmovaps 0x200(%rsp), %ymm20 vmovaps 0x40(%rsp), %ymm2 vmovaps 0x1e0(%rsp), %ymm21 vmovaps 0x260(%rsp), %ymm22 vmovaps 0x240(%rsp), %ymm18 vmovaps 0x120(%rsp), %ymm17 vmovaps %ymm26, %ymm29 vmovaps %xmm12, %xmm14 cmpl $0x9, %r9d jge 0x1cc6c63 testb $0x1, %dil jne 0x1cc7919 vmovaps 0x740(%rsp), %ymm0 vcmpleps 0x100(%r15,%r14,4){1to8}, %ymm0, %k0 kmovb %k0, %eax andl %eax, %r12d setne 0x7(%rsp) jne 0x1cc5c8f jmp 0x1cc7919 vmovaps %ymm8, 0x220(%rsp) vpbroadcastd %r9d, %ymm0 vmovdqa %ymm0, 0x180(%rsp) vbroadcastss %xmm14, %ymm0 vmovaps %ymm0, 0x2c0(%rsp) vbroadcastss %xmm10, %ymm0 vmovaps %ymm0, 0x440(%rsp) vmovss 0x225a75(%rip), %xmm0 # 0x1eec714 vdivss 0x2e0(%rsp), %xmm0, %xmm0 vbroadcastss %xmm0, %ymm0 vmovaps %ymm0, 0x420(%rsp) movq 0x80(%rsp), %rax vpbroadcastd %eax, %ymm0 vmovdqa %ymm0, 0x2e0(%rsp) movq 0x10(%rsp), %rax vpbroadcastd %eax, %ymm0 vmovdqa %ymm0, 0x2a0(%rsp) movl $0x8, %r13d vmovaps %ymm6, 0x60(%rsp) vmovaps %ymm2, 0x40(%rsp) vpbroadcastd %r13d, %ymm0 vpor 0x293c1f(%rip), %ymm0, %ymm0 # 0x1f5a920 vpcmpltd 0x180(%rsp), %ymm0, %k1 leaq (%rbx,%rdx), %rcx vmovups (%rcx,%r13,4), %ymm3 vmovups 0x484(%rcx,%r13,4), %ymm10 vmovups 0x908(%rcx,%r13,4), %ymm11 vmovups 0xd8c(%rcx,%r13,4), %ymm12 vmulps %ymm12, %ymm28, %ymm5 vmulps %ymm12, %ymm29, %ymm4 vmovaps 0x680(%rsp), %ymm1 vmulps %ymm1, %ymm12, %ymm0 vmovaps 0x6e0(%rsp), %ymm19 vfmadd231ps %ymm19, %ymm11, %ymm5 # ymm5 = (ymm11 * ymm19) + ymm5 vmovaps 0x6c0(%rsp), %ymm27 vfmadd231ps %ymm27, %ymm11, %ymm4 # ymm4 = (ymm11 * ymm27) + ymm4 vmovaps 0x6a0(%rsp), %ymm16 vfmadd231ps %ymm16, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm16) + ymm0 vfmadd231ps %ymm17, %ymm10, %ymm5 # ymm5 = (ymm10 * ymm17) + ymm5 vmovaps 0x4e0(%rsp), %ymm25 vfmadd231ps %ymm25, %ymm10, %ymm4 # ymm4 = (ymm10 * ymm25) + ymm4 vmovaps 0x700(%rsp), %ymm9 vfmadd231ps %ymm9, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm9) + ymm0 vfmadd231ps %ymm22, %ymm3, %ymm5 # ymm5 = (ymm3 * ymm22) + ymm5 vfmadd231ps %ymm18, %ymm3, %ymm4 # ymm4 = (ymm3 * ymm18) + ymm4 leaq (%rbx,%rsi), %rax vmovups (%rax,%r13,4), %ymm2 vmovups 0x484(%rax,%r13,4), %ymm13 vmovaps 0x720(%rsp), %ymm8 vfmadd231ps %ymm8, %ymm3, %ymm0 # ymm0 = (ymm3 * ymm8) + ymm0 vmovups 0x908(%rax,%r13,4), %ymm14 vmovups 0xd8c(%rax,%r13,4), %ymm15 vmulps %ymm15, %ymm28, %ymm7 vmulps %ymm15, %ymm29, %ymm6 vmulps %ymm1, %ymm15, %ymm1 vfmadd231ps %ymm19, %ymm14, %ymm7 # ymm7 = (ymm14 * ymm19) + ymm7 vfmadd231ps %ymm27, %ymm14, %ymm6 # ymm6 = (ymm14 * ymm27) + ymm6 vfmadd231ps %ymm16, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm16) + ymm1 vfmadd231ps %ymm17, %ymm13, %ymm7 # ymm7 = (ymm13 * ymm17) + ymm7 vfmadd231ps %ymm25, %ymm13, %ymm6 # ymm6 = (ymm13 * ymm25) + ymm6 vfmadd231ps %ymm9, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm9) + ymm1 vfmadd231ps %ymm22, %ymm2, %ymm7 # ymm7 = (ymm2 * ymm22) + ymm7 vfmadd231ps %ymm18, %ymm2, %ymm6 # ymm6 = (ymm2 * ymm18) + ymm6 vfmadd231ps %ymm8, %ymm2, %ymm1 # ymm1 = (ymm2 * ymm8) + ymm1 vmaxps %ymm1, %ymm0, %ymm16 vsubps %ymm5, %ymm7, %ymm9 vsubps %ymm4, %ymm6, %ymm8 vmovaps %ymm17, %ymm26 vmulps %ymm9, %ymm4, %ymm17 vmovaps %ymm18, %ymm23 vmulps %ymm8, %ymm5, %ymm18 vsubps %ymm18, %ymm17, %ymm17 vmulps %ymm8, %ymm8, %ymm18 vfmadd231ps %ymm9, %ymm9, %ymm18 # ymm18 = (ymm9 * ymm9) + ymm18 vmulps %ymm16, %ymm16, %ymm16 vmulps %ymm18, %ymm16, %ymm16 vmulps %ymm17, %ymm17, %ymm17 vcmpleps %ymm16, %ymm17, %k1 {%k1} kortestb %k1, %k1 je 0x1cc785e vmovaps %ymm23, %ymm16 vmovaps 0x220(%rsp), %ymm23 vmulps %ymm15, %ymm23, %ymm15 vmovaps 0x620(%rsp), %ymm31 vfmadd213ps %ymm15, %ymm31, %ymm14 # ymm14 = (ymm31 * ymm14) + ymm15 vmovaps 0x640(%rsp), %ymm30 vfmadd213ps %ymm14, %ymm30, %ymm13 # ymm13 = (ymm30 * ymm13) + ymm14 vmovaps 0x660(%rsp), %ymm18 vfmadd213ps %ymm13, %ymm18, %ymm2 # ymm2 = (ymm18 * ymm2) + ymm13 vmulps %ymm12, %ymm23, %ymm12 vfmadd213ps %ymm12, %ymm31, %ymm11 # ymm11 = (ymm31 * ymm11) + ymm12 vfmadd213ps %ymm11, %ymm30, %ymm10 # ymm10 = (ymm30 * ymm10) + ymm11 vfmadd213ps %ymm10, %ymm18, %ymm3 # ymm3 = (ymm18 * ymm3) + ymm10 vmovups 0x1210(%rcx,%r13,4), %ymm12 vmovups 0x1694(%rcx,%r13,4), %ymm13 vmovups 0x1b18(%rcx,%r13,4), %ymm14 vmovups 0x1f9c(%rcx,%r13,4), %ymm15 vmulps %ymm15, %ymm28, %ymm11 vmulps %ymm15, %ymm29, %ymm10 vmulps %ymm15, %ymm23, %ymm15 vfmadd231ps %ymm19, %ymm14, %ymm11 # ymm11 = (ymm14 * ymm19) + ymm11 vfmadd231ps %ymm27, %ymm14, %ymm10 # ymm10 = (ymm14 * ymm27) + ymm10 vfmadd231ps %ymm14, %ymm31, %ymm15 # ymm15 = (ymm31 * ymm14) + ymm15 vfmadd231ps %ymm26, %ymm13, %ymm11 # ymm11 = (ymm13 * ymm26) + ymm11 vfmadd231ps %ymm25, %ymm13, %ymm10 # ymm10 = (ymm13 * ymm25) + ymm10 vfmadd231ps %ymm13, %ymm30, %ymm15 # ymm15 = (ymm30 * ymm13) + ymm15 vfmadd231ps %ymm22, %ymm12, %ymm11 # ymm11 = (ymm12 * ymm22) + ymm11 vfmadd231ps %ymm16, %ymm12, %ymm10 # ymm10 = (ymm12 * ymm16) + ymm10 vmovaps %ymm27, %ymm25 vmovaps %ymm19, %ymm27 vmovaps %ymm16, %ymm19 vfmadd231ps %ymm12, %ymm18, %ymm15 # ymm15 = (ymm18 * ymm12) + ymm15 vmovups 0x1210(%rax,%r13,4), %ymm13 vmovups 0x1b18(%rax,%r13,4), %ymm14 vmovups 0x1f9c(%rax,%r13,4), %ymm16 vmulps %ymm16, %ymm28, %ymm17 vmulps %ymm16, %ymm29, %ymm12 vmulps %ymm16, %ymm23, %ymm16 vfmadd231ps %ymm27, %ymm14, %ymm17 # ymm17 = (ymm14 * ymm27) + ymm17 vfmadd231ps %ymm25, %ymm14, %ymm12 # ymm12 = (ymm14 * ymm25) + ymm12 vfmadd231ps %ymm14, %ymm31, %ymm16 # ymm16 = (ymm31 * ymm14) + ymm16 vmovups 0x1694(%rax,%r13,4), %ymm14 vfmadd231ps %ymm26, %ymm14, %ymm17 # ymm17 = (ymm14 * ymm26) + ymm17 vfmadd231ps 0x4e0(%rsp), %ymm14, %ymm12 # ymm12 = (ymm14 * mem) + ymm12 vfmadd231ps %ymm14, %ymm30, %ymm16 # ymm16 = (ymm30 * ymm14) + ymm16 vfmadd231ps %ymm22, %ymm13, %ymm17 # ymm17 = (ymm13 * ymm22) + ymm17 vfmadd231ps %ymm19, %ymm13, %ymm12 # ymm12 = (ymm13 * ymm19) + ymm12 vfmadd231ps %ymm13, %ymm18, %ymm16 # ymm16 = (ymm18 * ymm13) + ymm16 vbroadcastss 0x259ef5(%rip), %ymm18 # 0x1f20ec4 vandps %ymm18, %ymm11, %ymm13 vandps %ymm18, %ymm10, %ymm14 vmaxps %ymm14, %ymm13, %ymm13 vandps %ymm18, %ymm15, %ymm14 vmaxps %ymm14, %ymm13, %ymm13 vmovaps 0x2c0(%rsp), %ymm15 vcmpltps %ymm15, %ymm13, %k2 vmovaps %ymm9, %ymm11 {%k2} vmovaps %ymm8, %ymm10 {%k2} vandps %ymm18, %ymm17, %ymm13 vandps %ymm18, %ymm12, %ymm14 vmaxps %ymm14, %ymm13, %ymm13 vandps %ymm18, %ymm16, %ymm14 vmaxps %ymm14, %ymm13, %ymm13 vcmpltps %ymm15, %ymm13, %k2 vmovaps %ymm9, %ymm17 {%k2} vmovaps %ymm8, %ymm12 {%k2} vbroadcastss 0x259e81(%rip), %ymm9 # 0x1f20ec0 vxorps %ymm9, %ymm11, %ymm8 vxorps %ymm9, %ymm17, %ymm9 vfmadd213ps %ymm24, %ymm11, %ymm11 # ymm11 = (ymm11 * ymm11) + ymm24 vfmadd231ps %ymm10, %ymm10, %ymm11 # ymm11 = (ymm10 * ymm10) + ymm11 vrsqrt14ps %ymm11, %ymm13 vbroadcastss 0x2256b8(%rip), %ymm15 # 0x1eec71c vmulps %ymm15, %ymm11, %ymm11 vmulps %ymm11, %ymm13, %ymm11 vmulps %ymm13, %ymm13, %ymm14 vmulps %ymm11, %ymm14, %ymm14 vbroadcastss 0x225696(%rip), %ymm16 # 0x1eec718 vfmadd231ps %ymm13, %ymm16, %ymm14 # ymm14 = (ymm16 * ymm13) + ymm14 vmulps %ymm14, %ymm10, %ymm11 vmulps %ymm8, %ymm14, %ymm10 vmulps %ymm24, %ymm14, %ymm13 vfmadd213ps %ymm24, %ymm17, %ymm17 # ymm17 = (ymm17 * ymm17) + ymm24 vfmadd231ps %ymm12, %ymm12, %ymm17 # ymm17 = (ymm12 * ymm12) + ymm17 vrsqrt14ps %ymm17, %ymm8 vmulps %ymm15, %ymm17, %ymm14 vmulps %ymm14, %ymm8, %ymm14 vmulps %ymm8, %ymm8, %ymm15 vmulps %ymm14, %ymm15, %ymm14 vfmadd231ps %ymm8, %ymm16, %ymm14 # ymm14 = (ymm16 * ymm8) + ymm14 vmulps %ymm14, %ymm12, %ymm8 vmulps %ymm9, %ymm14, %ymm9 vmulps %ymm24, %ymm14, %ymm12 vmovaps %ymm11, %ymm14 vfmadd213ps %ymm5, %ymm0, %ymm14 # ymm14 = (ymm0 * ymm14) + ymm5 vmovaps %ymm10, %ymm15 vfmadd213ps %ymm4, %ymm0, %ymm15 # ymm15 = (ymm0 * ymm15) + ymm4 vmovaps %ymm13, %ymm16 vfmadd213ps %ymm3, %ymm0, %ymm16 # ymm16 = (ymm0 * ymm16) + ymm3 vmovaps %ymm8, %ymm17 vfmadd213ps %ymm7, %ymm1, %ymm17 # ymm17 = (ymm1 * ymm17) + ymm7 vfnmadd213ps %ymm5, %ymm0, %ymm11 # ymm11 = -(ymm0 * ymm11) + ymm5 vmovaps %ymm9, %ymm5 vfmadd213ps %ymm6, %ymm1, %ymm5 # ymm5 = (ymm1 * ymm5) + ymm6 vfnmadd213ps %ymm4, %ymm0, %ymm10 # ymm10 = -(ymm0 * ymm10) + ymm4 vmovaps %ymm12, %ymm4 vfmadd213ps %ymm2, %ymm1, %ymm4 # ymm4 = (ymm1 * ymm4) + ymm2 vfnmadd231ps %ymm13, %ymm0, %ymm3 # ymm3 = -(ymm0 * ymm13) + ymm3 vfnmadd213ps %ymm7, %ymm1, %ymm8 # ymm8 = -(ymm1 * ymm8) + ymm7 vfnmadd213ps %ymm6, %ymm1, %ymm9 # ymm9 = -(ymm1 * ymm9) + ymm6 vfnmadd231ps %ymm12, %ymm1, %ymm2 # ymm2 = -(ymm1 * ymm12) + ymm2 vsubps %ymm11, %ymm17, %ymm6 vsubps %ymm10, %ymm5, %ymm7 vsubps %ymm3, %ymm4, %ymm12 vmulps %ymm3, %ymm7, %ymm13 vfmsub231ps %ymm12, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm12) - ymm13 vmulps %ymm11, %ymm12, %ymm12 vfmsub231ps %ymm6, %ymm3, %ymm12 # ymm12 = (ymm3 * ymm6) - ymm12 vmulps %ymm6, %ymm10, %ymm6 vfmsub231ps %ymm7, %ymm11, %ymm6 # ymm6 = (ymm11 * ymm7) - ymm6 vfmadd231ps %ymm12, %ymm24, %ymm6 # ymm6 = (ymm24 * ymm12) + ymm6 vfmadd231ps %ymm13, %ymm24, %ymm6 # ymm6 = (ymm24 * ymm13) + ymm6 vcmpleps %ymm24, %ymm6, %k2 vmovaps %ymm14, %ymm8 {%k2} vmovaps %ymm15, %ymm9 {%k2} vmovaps %ymm16, %ymm2 {%k2} vblendmps %ymm17, %ymm11, %ymm13 {%k2} vblendmps %ymm5, %ymm10, %ymm14 {%k2} vblendmps %ymm4, %ymm3, %ymm15 {%k2} vmovaps %ymm11, %ymm17 {%k2} vmovaps %ymm10, %ymm5 {%k2} vmovaps %ymm3, %ymm4 {%k2} vsubps %ymm8, %ymm17, %ymm6 vsubps %ymm9, %ymm5, %ymm5 vsubps %ymm2, %ymm4, %ymm11 vsubps %ymm13, %ymm8, %ymm7 vsubps %ymm14, %ymm9, %ymm10 vsubps %ymm15, %ymm2, %ymm12 vmulps %ymm8, %ymm11, %ymm4 vfmsub231ps %ymm6, %ymm2, %ymm4 # ymm4 = (ymm2 * ymm6) - ymm4 vmulps %ymm6, %ymm9, %ymm3 vfmsub231ps %ymm5, %ymm8, %ymm3 # ymm3 = (ymm8 * ymm5) - ymm3 vfmadd231ps %ymm4, %ymm24, %ymm3 # ymm3 = (ymm24 * ymm4) + ymm3 vmulps %ymm2, %ymm5, %ymm4 vfmsub231ps %ymm11, %ymm9, %ymm4 # ymm4 = (ymm9 * ymm11) - ymm4 vfmadd231ps %ymm4, %ymm24, %ymm3 # ymm3 = (ymm24 * ymm4) + ymm3 vmulps %ymm13, %ymm12, %ymm16 vfmsub231ps %ymm15, %ymm7, %ymm16 # ymm16 = (ymm7 * ymm15) - ymm16 vmulps %ymm15, %ymm10, %ymm15 vfmsub231ps %ymm12, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm12) - ymm15 vmulps %ymm7, %ymm14, %ymm4 vfmsub231ps %ymm13, %ymm10, %ymm4 # ymm4 = (ymm10 * ymm13) - ymm4 vfmadd231ps %ymm16, %ymm24, %ymm4 # ymm4 = (ymm24 * ymm16) + ymm4 vfmadd231ps %ymm15, %ymm24, %ymm4 # ymm4 = (ymm24 * ymm15) + ymm4 vmaxps %ymm4, %ymm3, %ymm13 vcmpleps %ymm24, %ymm13, %k0 {%k1} kortestb %k0, %k0 vmovaps %ymm19, %ymm18 je 0x1cc7893 vmulps %ymm5, %ymm12, %ymm13 vfmsub231ps %ymm11, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm11) - ymm13 vmulps %ymm7, %ymm11, %ymm11 vfmsub231ps %ymm12, %ymm6, %ymm11 # ymm11 = (ymm6 * ymm12) - ymm11 vmulps %ymm6, %ymm10, %ymm10 vfmsub231ps %ymm5, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm5) - ymm10 vxorps %xmm6, %xmm6, %xmm6 vfmadd213ps %ymm10, %ymm11, %ymm6 # ymm6 = (ymm11 * ymm6) + ymm10 vfmadd231ps %ymm24, %ymm13, %ymm6 # ymm6 = (ymm13 * ymm24) + ymm6 vrcp14ps %ymm6, %ymm7 vmovaps %ymm7, %ymm5 vfnmadd213ps 0x2254a5(%rip){1to8}, %ymm6, %ymm5 # ymm5 = -(ymm6 * ymm5) + mem vfmadd132ps %ymm7, %ymm7, %ymm5 # ymm5 = (ymm5 * ymm7) + ymm7 vmulps %ymm2, %ymm10, %ymm2 vfmadd231ps %ymm11, %ymm9, %ymm2 # ymm2 = (ymm9 * ymm11) + ymm2 vfmadd231ps %ymm13, %ymm8, %ymm2 # ymm2 = (ymm8 * ymm13) + ymm2 vmulps %ymm5, %ymm2, %ymm2 vcmpgeps 0x440(%rsp), %ymm2, %k1 vcmpleps 0x100(%r15,%r14,4){1to8}, %ymm2, %k1 {%k1} kandb %k0, %k1, %k0 kortestb %k0, %k0 je 0x1cc7893 vcmpneqps %ymm24, %ymm6, %k1 ktestb %k1, %k0 vmovaps 0x20(%rsp), %xmm9 vmovaps 0x120(%rsp), %ymm17 je 0x1cc78b4 kandb %k1, %k0, %k0 kmovd %k0, %eax vmulps %ymm5, %ymm3, %ymm3 vmulps %ymm5, %ymm4, %ymm4 vbroadcastss 0x225436(%rip), %ymm5 # 0x1eec714 vsubps %ymm3, %ymm5, %ymm20 vmovaps %ymm3, %ymm20 {%k2} vsubps %ymm4, %ymm5, %ymm3 vmovaps %ymm4, %ymm3 {%k2} vmovaps %ymm3, 0x460(%rsp) movzbl %al, %eax vmovaps %ymm2, %ymm21 vmovaps 0x60(%rsp), %ymm6 vmovaps 0x40(%rsp), %ymm2 testw %ax, %ax je 0x1cc7881 vsubps %ymm0, %ymm1, %ymm1 vfmadd213ps %ymm0, %ymm20, %ymm1 # ymm1 = (ymm20 * ymm1) + ymm0 vaddps %ymm1, %ymm1, %ymm0 vmulps (%r11,%r14,4){1to8}, %ymm0, %ymm0 vcmpnleps %ymm0, %ymm21, %k0 kmovd %k0, %ecx andb %cl, %al je 0x1cc7881 movl %edi, 0x8(%rsp) vbroadcastss 0x22967c(%rip), %ymm0 # 0x1ef09cc vmovaps 0x460(%rsp), %ymm1 vfmadd132ps 0x229c95(%rip){1to8}, %ymm0, %ymm1 # ymm1 = (ymm1 * mem) + ymm0 vmovaps %ymm20, 0x300(%rsp) vmovaps %ymm1, 0x460(%rsp) vmovaps %ymm1, 0x320(%rsp) vmovaps %ymm21, 0x340(%rsp) movl %r13d, 0x360(%rsp) movl %r9d, 0x364(%rsp) vmovaps %xmm9, 0x370(%rsp) vmovaps 0x110(%rsp), %xmm0 vmovaps %xmm0, 0x380(%rsp) vmovaps 0x100(%rsp), %xmm0 vmovaps %xmm0, 0x390(%rsp) vmovdqa 0x160(%rsp), %xmm0 vmovdqa %xmm0, 0x3a0(%rsp) movb %al, 0x3b0(%rsp) movq (%r10), %rcx movq 0x1e8(%rcx), %rcx movq 0x80(%rsp), %rdi movq (%rcx,%rdi,8), %rdi movl 0x120(%r15,%r14,4), %ecx movq %rdi, 0x10(%rsp) testl %ecx, 0x34(%rdi) je 0x1cc7878 movq 0x10(%r10), %rcx cmpq $0x0, 0x10(%rcx) movl 0x8(%rsp), %edi jne 0x1cc7428 movq 0x10(%rsp), %rcx cmpq $0x0, 0x48(%rcx) movb $0x1, %cl je 0x1cc787e vmovaps %ymm29, 0x1a0(%rsp) vmovaps %ymm28, 0x1c0(%rsp) movl %r9d, 0xc(%rsp) movq %r11, 0x30(%rsp) movq %r8, 0x38(%rsp) vmovaps %ymm20, 0x200(%rsp) vaddps 0x259ae7(%rip), %ymm20, %ymm0 # 0x1f20f40 vcvtsi2ss %r13d, %xmm19, %xmm1 vbroadcastss %xmm1, %ymm1 vaddps %ymm0, %ymm1, %ymm0 vmulps 0x420(%rsp), %ymm0, %ymm0 vmovaps %ymm0, 0x3c0(%rsp) vmovaps 0x460(%rsp), %ymm0 vmovaps %ymm0, 0x3e0(%rsp) vmovaps %ymm21, 0x1e0(%rsp) vmovaps %ymm21, 0x400(%rsp) movzbl %al, %esi vmovaps 0x380(%rsp), %xmm0 vmovaps %xmm0, 0xc0(%rsp) tzcntq %rsi, %rdi vmovaps 0x390(%rsp), %xmm0 vmovaps %xmm0, 0x4b0(%rsp) vmovaps 0x3a0(%rsp), %xmm0 vmovaps %xmm0, 0x4a0(%rsp) movb $0x1, %al movl %eax, 0xd0(%rsp) movq %r10, 0x18(%rsp) vmovss 0x100(%r15,%r14,4), %xmm10 vmovss 0x400(%rsp,%rdi,4), %xmm0 vbroadcastss 0x3c0(%rsp,%rdi,4), %ymm1 vbroadcastss 0x3e0(%rsp,%rdi,4), %ymm2 vmovss %xmm0, 0x100(%r15,%r14,4) movq 0x8(%r10), %rax vmovss 0x2251ef(%rip), %xmm0 # 0x1eec714 vsubss %xmm1, %xmm0, %xmm0 vaddss %xmm0, %xmm0, %xmm3 vmulss %xmm3, %xmm1, %xmm4 vfnmadd231ss %xmm0, %xmm0, %xmm4 # xmm4 = -(xmm0 * xmm0) + xmm4 vaddss %xmm1, %xmm1, %xmm5 vmovss 0x229aaa(%rip), %xmm8 # 0x1ef0fec vmovaps %xmm8, %xmm6 vfmadd213ss 0x229ab5(%rip), %xmm1, %xmm6 # xmm6 = (xmm1 * xmm6) + mem vmulss %xmm1, %xmm8, %xmm7 vmulss %xmm7, %xmm1, %xmm7 vfmadd231ss %xmm6, %xmm5, %xmm7 # xmm7 = (xmm5 * xmm6) + xmm7 vmovaps %xmm8, %xmm5 vfmadd213ss 0x229a8f(%rip), %xmm1, %xmm5 # xmm5 = (xmm1 * xmm5) + mem vmulss 0x229a7f(%rip), %xmm0, %xmm6 # 0x1ef0ff0 vmulss %xmm6, %xmm0, %xmm6 vfmadd231ss %xmm5, %xmm3, %xmm6 # xmm6 = (xmm3 * xmm5) + xmm6 vmulss 0x22945a(%rip), %xmm0, %xmm0 # 0x1ef09dc vmulss %xmm1, %xmm1, %xmm3 vfmadd231ss %xmm0, %xmm1, %xmm3 # xmm3 = (xmm1 * xmm0) + xmm3 vmovss 0x2255ed(%rip), %xmm8 # 0x1eecb80 vmulss %xmm4, %xmm8, %xmm0 vmulss %xmm7, %xmm8, %xmm4 vmulss %xmm6, %xmm8, %xmm5 vmulss %xmm3, %xmm8, %xmm3 vbroadcastss %xmm3, %xmm3 vmulps 0x4a0(%rsp), %xmm3, %xmm3 vbroadcastss %xmm5, %xmm5 vfmadd132ps 0x4b0(%rsp), %xmm3, %xmm5 # xmm5 = (xmm5 * mem) + xmm3 vbroadcastss %xmm4, %xmm3 vfmadd132ps 0xc0(%rsp), %xmm5, %xmm3 # xmm3 = (xmm3 * mem) + xmm5 vbroadcastss %xmm0, %xmm0 vfmadd213ps %xmm3, %xmm9, %xmm0 # xmm0 = (xmm9 * xmm0) + xmm3 vbroadcastss %xmm0, %ymm3 vbroadcastss 0x24b11d(%rip), %ymm4 # 0x1f12704 vpermps %ymm0, %ymm4, %ymm4 vbroadcastss 0x2598e7(%rip), %ymm5 # 0x1f20edc vpermps %ymm0, %ymm5, %ymm0 vmovaps %ymm3, 0x500(%rsp) vmovaps %ymm4, 0x520(%rsp) vmovaps %ymm0, 0x540(%rsp) vmovaps %ymm1, 0x560(%rsp) vmovaps %ymm2, 0x580(%rsp) vmovaps 0x2a0(%rsp), %ymm0 vmovaps %ymm0, 0x5a0(%rsp) vmovdqa 0x2e0(%rsp), %ymm0 vmovdqa %ymm0, 0x5c0(%rsp) movq 0x88(%rsp), %rcx vpcmpeqd %ymm0, %ymm0, %ymm0 vmovdqa %ymm0, 0x20(%rcx) vmovdqa %ymm0, (%rcx) vbroadcastss (%rax), %ymm0 vmovaps %ymm0, 0x5e0(%rsp) vbroadcastss 0x4(%rax), %ymm0 vmovaps %ymm0, 0x600(%rsp) vmovaps 0x4c0(%rsp), %ymm0 vmovaps %ymm0, 0x140(%rsp) leaq 0x140(%rsp), %rcx movq %rcx, 0x90(%rsp) movq 0x10(%rsp), %rdx movq 0x18(%rdx), %rcx movq %rcx, 0x98(%rsp) movq %rax, 0xa0(%rsp) movq %r15, 0xa8(%rsp) leaq 0x500(%rsp), %rax movq %rax, 0xb0(%rsp) movl $0x8, 0xb8(%rsp) movq 0x48(%rdx), %rax testq %rax, %rax movq %rsi, 0xf0(%rsp) movq %rdi, 0x280(%rsp) vmovss %xmm10, 0xe0(%rsp) je 0x1cc772e leaq 0x90(%rsp), %rdi vzeroupper callq *%rax vmovss 0xe0(%rsp), %xmm10 movq 0x280(%rsp), %rdi movq 0xf0(%rsp), %rsi vmovaps 0x20(%rsp), %xmm9 movq 0x18(%rsp), %r10 vmovdqa 0x140(%rsp), %ymm0 vptest %ymm0, %ymm0 je 0x1cc77c8 movq 0x10(%r10), %rcx movq 0x10(%rcx), %rax testq %rax, %rax je 0x1cc7790 testb $0x2, (%rcx) jne 0x1cc775f movq 0x10(%rsp), %rcx testb $0x40, 0x3e(%rcx) je 0x1cc7790 leaq 0x90(%rsp), %rdi vzeroupper callq *%rax vmovss 0xe0(%rsp), %xmm10 movq 0x280(%rsp), %rdi movq 0xf0(%rsp), %rsi vmovaps 0x20(%rsp), %xmm9 movq 0x18(%rsp), %r10 vmovdqa 0x140(%rsp), %ymm0 vptestmd %ymm0, %ymm0, %k1 movq 0xa8(%rsp), %rax vmovaps 0x100(%rax), %ymm1 vbroadcastss 0x2253cb(%rip), %ymm1 {%k1} # 0x1eecb84 vmovaps %ymm1, 0x100(%rax) vptest %ymm0, %ymm0 jne 0x1cc77eb vmovss %xmm10, 0x100(%r15,%r14,4) btcq %rdi, %rsi tzcntq %rsi, %rdi setae %al movl %eax, 0xd0(%rsp) jae 0x1cc74e8 movl 0xd0(%rsp), %ecx andb $0x1, %cl movq 0x38(%rsp), %r8 movq 0x30(%rsp), %r11 leaq 0x468b66(%rip), %rdx # 0x213036c leaq 0x46af7f(%rip), %rsi # 0x213278c vxorps %xmm24, %xmm24, %xmm24 vmovaps 0x60(%rsp), %ymm6 vmovaps 0x200(%rsp), %ymm20 vmovaps 0x40(%rsp), %ymm2 vmovaps 0x1e0(%rsp), %ymm21 movl 0xc(%rsp), %r9d vmovaps 0x260(%rsp), %ymm22 vmovaps 0x240(%rsp), %ymm18 vmovaps 0x120(%rsp), %ymm17 vmovaps 0x1c0(%rsp), %ymm28 vmovaps 0x1a0(%rsp), %ymm29 jmp 0x1cc787a vmovaps 0x60(%rsp), %ymm6 vmovaps 0x40(%rsp), %ymm2 vmovaps %ymm23, %ymm18 vmovaps %ymm26, %ymm17 jmp 0x1cc7881 xorl %ecx, %ecx movl 0x8(%rsp), %edi orb %cl, %dil addq $0x8, %r13 cmpl %r13d, %r9d jg 0x1cc6cf3 jmp 0x1cc6c30 xorl %eax, %eax vmovaps 0x60(%rsp), %ymm6 vmovaps 0x40(%rsp), %ymm2 vmovaps 0x20(%rsp), %xmm9 vmovaps 0x120(%rsp), %ymm17 jmp 0x1cc7312 xorl %eax, %eax jmp 0x1cc7306 xorl %eax, %eax vmovaps 0x60(%rsp), %ymm6 vmovaps 0x40(%rsp), %ymm2 vmovaps 0x20(%rsp), %xmm9 vmovaps 0x1c0(%rsp), %ymm28 vmovaps 0x1a0(%rsp), %ymm29 vmovaps 0x180(%rsp), %xmm10 jmp 0x1cc65fa xorl %eax, %eax vmovaps 0x60(%rsp), %ymm6 vmovaps 0x40(%rsp), %ymm2 vmovaps 0x20(%rsp), %xmm9 jmp 0x1cc65fa xorl %eax, %eax vmovaps 0x60(%rsp), %ymm6 vmovaps 0x40(%rsp), %ymm2 jmp 0x1cc65fa movb 0x7(%rsp), %al andb $0x1, %al leaq -0x28(%rbp), %rsp popq %rbx popq %r12 popq %r13 popq %r14 popq %r15 popq %rbp vzeroupper retq nop
/embree[P]embree/kernels/geometry/curveNi_intersector.h
void embree::avx512::CurveNiIntersectorK<8, 16>::intersect_t<embree::avx512::RibbonCurve1IntersectorK<embree::CatmullRomCurveT, 16, 8>, embree::avx512::Intersect1KEpilogMU<8, 16, true>>(embree::avx512::CurvePrecalculationsK<16>&, embree::RayHitK<16>&, unsigned long, embree::RayQueryContext*, embree::CurveNi<8> const&)
static __forceinline void intersect_t(Precalculations& pre, RayHitK<K>& ray, const size_t k, RayQueryContext* context, const Primitive& prim) { vfloat<M> tNear; vbool<M> valid = intersect(ray,k,prim,tNear); const size_t N = prim.N; size_t mask = movemask(valid); while (mask) { const size_t i = bscf(mask); STAT3(normal.trav_prims,1,1,1); const unsigned int geomID = prim.geomID(N); const unsigned int primID = prim.primID(N)[i]; const CurveGeometry* geom = context->scene->get<CurveGeometry>(geomID); Vec3ff a0,a1,a2,a3; geom->gather(a0,a1,a2,a3,geom->curve(primID)); size_t mask1 = mask; const size_t i1 = bscf(mask1); if (mask) { const unsigned int primID1 = prim.primID(N)[i1]; geom->prefetchL1_vertices(geom->curve(primID1)); if (mask1) { const size_t i2 = bsf(mask1); const unsigned int primID2 = prim.primID(N)[i2]; geom->prefetchL2_vertices(geom->curve(primID2)); } } Intersector().intersect(pre,ray,k,context,geom,primID,a0,a1,a2,a3,Epilog(ray,k,context,geomID,primID)); mask &= movemask(tNear <= vfloat<M>(ray.tfar[k])); } }
pushq %rbp movq %rsp, %rbp pushq %r15 pushq %r14 pushq %r13 pushq %r12 pushq %rbx andq $-0x40, %rsp subq $0x9c0, %rsp # imm = 0x9C0 movq %rcx, %r10 movq %rdx, %r15 movq %rdi, 0xc8(%rsp) movzbl 0x1(%r8), %ecx leaq (%rcx,%rcx,4), %rax leaq (%rax,%rax,4), %rdx vbroadcastss 0x12(%r8,%rdx), %xmm0 vmovss (%rsi,%r15,4), %xmm1 vmovss 0x100(%rsi,%r15,4), %xmm2 vinsertps $0x10, 0x40(%rsi,%r15,4), %xmm1, %xmm1 # xmm1 = xmm1[0],mem[0],xmm1[2,3] vinsertps $0x20, 0x80(%rsi,%r15,4), %xmm1, %xmm1 # xmm1 = xmm1[0,1],mem[0],xmm1[3] vinsertps $0x10, 0x140(%rsi,%r15,4), %xmm2, %xmm2 # xmm2 = xmm2[0],mem[0],xmm2[2,3] vinsertps $0x20, 0x180(%rsi,%r15,4), %xmm2, %xmm2 # xmm2 = xmm2[0,1],mem[0],xmm2[3] vsubps 0x6(%r8,%rdx), %xmm1, %xmm1 vmulps %xmm1, %xmm0, %xmm3 vmulps %xmm2, %xmm0, %xmm0 vpmovsxbd 0x6(%r8,%rcx,4), %ymm1 vpmovsxbd 0x6(%r8,%rax), %ymm2 vcvtdq2ps %ymm1, %ymm5 vcvtdq2ps %ymm2, %ymm6 leaq (%rcx,%rcx,2), %rdx vpmovsxbd 0x6(%r8,%rdx,2), %ymm1 vcvtdq2ps %ymm1, %ymm4 leaq (%rcx,%rax,2), %rdi vpmovsxbd 0x6(%r8,%rdi), %ymm1 leal (,%rdx,4), %edi vpmovsxbd 0x6(%r8,%rdi), %ymm2 vcvtdq2ps %ymm1, %ymm7 vcvtdq2ps %ymm2, %ymm8 addq %rcx, %rdi vpmovsxbd 0x6(%r8,%rdi), %ymm1 vcvtdq2ps %ymm1, %ymm9 leaq (%rcx,%rcx,8), %r9 leal (%r9,%r9), %edi vpmovsxbd 0x6(%r8,%rdi), %ymm1 vcvtdq2ps %ymm1, %ymm10 addq %rcx, %rdi vpmovsxbd 0x6(%r8,%rdi), %ymm1 vcvtdq2ps %ymm1, %ymm11 shll $0x2, %eax vpmovsxbd 0x6(%r8,%rax), %ymm1 vcvtdq2ps %ymm1, %ymm12 vbroadcastss %xmm0, %ymm13 vbroadcastss 0x24acbf(%rip), %ymm15 # 0x1f12704 vbroadcastss 0x25948d(%rip), %ymm16 # 0x1f20edc vpermps %ymm0, %ymm15, %ymm14 vpermps %ymm0, %ymm16, %ymm0 vmulps %ymm4, %ymm0, %ymm2 vmulps %ymm0, %ymm9, %ymm1 vmulps %ymm0, %ymm12, %ymm0 vfmadd231ps %ymm6, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm6) + ymm2 vfmadd231ps %ymm8, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm8) + ymm1 vfmadd231ps %ymm14, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm14) + ymm0 vfmadd231ps %ymm5, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm5) + ymm2 vfmadd231ps %ymm7, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm7) + ymm1 vfmadd231ps %ymm13, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm13) + ymm0 vbroadcastss %xmm3, %ymm13 vpermps %ymm3, %ymm15, %ymm14 vpermps %ymm3, %ymm16, %ymm3 vmulps %ymm4, %ymm3, %ymm15 vmulps %ymm3, %ymm9, %ymm4 vmulps %ymm3, %ymm12, %ymm3 vfmadd231ps %ymm6, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm6) + ymm15 vfmadd231ps %ymm8, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm8) + ymm4 vfmadd231ps %ymm11, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm11) + ymm3 vfmadd231ps %ymm5, %ymm13, %ymm15 # ymm15 = (ymm13 * ymm5) + ymm15 vfmadd231ps %ymm7, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm7) + ymm4 vbroadcastss 0x259402(%rip), %ymm7 # 0x1f20ec4 vfmadd231ps %ymm10, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm10) + ymm3 vandps %ymm7, %ymm2, %ymm5 vbroadcastss 0x229514(%rip), %ymm6 # 0x1ef0fe8 vcmpltps %ymm6, %ymm5, %k1 vmovaps %ymm6, %ymm2 {%k1} vandps %ymm7, %ymm1, %ymm5 vcmpltps %ymm6, %ymm5, %k1 vmovaps %ymm6, %ymm1 {%k1} vandps %ymm7, %ymm0, %ymm5 vcmpltps %ymm6, %ymm5, %k1 vmovaps %ymm6, %ymm0 {%k1} vrcp14ps %ymm2, %ymm5 vbroadcastss 0x224c02(%rip), %ymm6 # 0x1eec714 vfnmadd213ps %ymm6, %ymm5, %ymm2 # ymm2 = -(ymm5 * ymm2) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm2 # ymm2 = (ymm2 * ymm5) + ymm5 vrcp14ps %ymm1, %ymm5 vfnmadd213ps %ymm6, %ymm5, %ymm1 # ymm1 = -(ymm5 * ymm1) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm1 # ymm1 = (ymm1 * ymm5) + ymm5 vrcp14ps %ymm0, %ymm5 vfnmadd213ps %ymm6, %ymm5, %ymm0 # ymm0 = -(ymm5 * ymm0) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm0 # ymm0 = (ymm0 * ymm5) + ymm5 leaq (,%rcx,8), %rdi subq %rcx, %rdi vpmovsxwd 0x6(%r8,%rdi), %ymm5 vcvtdq2ps %ymm5, %ymm5 vsubps %ymm15, %ymm5, %ymm5 vmulps %ymm5, %ymm2, %ymm5 vpmovsxwd 0x6(%r8,%r9), %ymm6 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm15, %ymm6, %ymm6 leaq (%rcx,%rcx), %rdi addq %rcx, %rax shlq $0x3, %rdx subq %rcx, %rdx vpbroadcastd %ecx, %ymm7 shll $0x4, %ecx vpmovsxwd 0x6(%r8,%rcx), %ymm8 vmulps %ymm6, %ymm2, %ymm2 subq %rdi, %rcx vpmovsxwd 0x6(%r8,%rcx), %ymm6 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm4, %ymm6, %ymm6 vmulps %ymm6, %ymm1, %ymm6 vcvtdq2ps %ymm8, %ymm8 vsubps %ymm4, %ymm8, %ymm4 vmulps %ymm4, %ymm1, %ymm1 vpmovsxwd 0x6(%r8,%rax), %ymm4 vcvtdq2ps %ymm4, %ymm4 vsubps %ymm3, %ymm4, %ymm4 vmulps %ymm0, %ymm4, %ymm4 vpmovsxwd 0x6(%r8,%rdx), %ymm8 vcvtdq2ps %ymm8, %ymm8 vsubps %ymm3, %ymm8, %ymm3 vmulps %ymm3, %ymm0, %ymm0 vpminsd %ymm2, %ymm5, %ymm3 vpminsd %ymm1, %ymm6, %ymm8 vmaxps %ymm8, %ymm3, %ymm3 vpminsd %ymm0, %ymm4, %ymm8 vmaxps 0xc0(%rsi,%r15,4){1to8}, %ymm8, %ymm8 vmaxps %ymm8, %ymm3, %ymm3 vmulps 0x25830e(%rip){1to8}, %ymm3, %ymm3 # 0x1f1ff10 vpmaxsd %ymm2, %ymm5, %ymm2 vpmaxsd %ymm1, %ymm6, %ymm1 vminps %ymm1, %ymm2, %ymm1 vpmaxsd %ymm0, %ymm4, %ymm0 vminps 0x200(%rsi,%r15,4){1to8}, %ymm0, %ymm0 vminps %ymm0, %ymm1, %ymm0 vmulps 0x2582e6(%rip){1to8}, %ymm0, %ymm0 # 0x1f1ff14 vpcmpgtd 0x292ce8(%rip), %ymm7, %k0 # 0x1f5a920 vmovaps %ymm3, 0x6e0(%rsp) vcmpleps %ymm0, %ymm3, %k1 ktestb %k0, %k1 je 0x1cc9e8b kandb %k0, %k1, %k0 kmovd %k0, %eax movzbl %al, %r13d leaq (%r15,%r15,2), %rax shlq $0x4, %rax movq 0xc8(%rsp), %rcx addq %rcx, %rax addq $0x40, %rax movq %rax, 0x218(%rsp) leaq 0x740(%rsp), %rax leaq 0x1c0(%rax), %rax movq %rax, 0x138(%rsp) movl $0x1, %eax shlxl %r15d, %eax, %eax kmovd %eax, %k0 vpmovm2d %k0, %zmm0 vmovdqa64 %zmm0, 0x700(%rsp) leaq 0x4686b5(%rip), %r12 # 0x213036c vmovaps %ymm6, 0xa0(%rsp) vmovaps %ymm3, 0x80(%rsp) vmovaps %ymm21, 0x1a0(%rsp) vmovaps %ymm20, 0x1c0(%rsp) tzcntq %r13, %rax movl 0x2(%r8), %ecx movl 0x6(%r8,%rax,4), %edi movq (%r10), %rax movq 0x1e8(%rax), %rax movq %rcx, 0x58(%rsp) movq (%rax,%rcx,8), %r14 movq 0x58(%r14), %rax movq 0x68(%r14), %rcx movq %rcx, %rdx movq %rdi, 0x78(%rsp) imulq %rdi, %rdx movl (%rax,%rdx), %edi movq 0xa0(%r14), %rdx movq %rdx, %r9 imulq %rdi, %r9 movq 0x90(%r14), %r11 vmovaps (%r11,%r9), %xmm13 leaq 0x1(%rdi), %r9 imulq %rdx, %r9 vmovaps (%r11,%r9), %xmm0 vmovaps %xmm0, 0xe0(%rsp) leaq 0x2(%rdi), %r9 imulq %rdx, %r9 vmovaps (%r11,%r9), %xmm0 vmovaps %xmm0, 0xd0(%rsp) blsrq %r13, %r13 addq $0x3, %rdi imulq %rdx, %rdi vmovaps (%r11,%rdi), %xmm0 vmovaps %xmm0, 0x120(%rsp) movq %r13, %rdi subq $0x1, %rdi jb 0x1cc7dc8 andq %r13, %rdi tzcntq %r13, %r9 movl 0x6(%r8,%r9,4), %r9d imulq %rcx, %r9 movl (%rax,%r9), %r9d imulq %rdx, %r9 prefetcht0 (%r11,%r9) prefetcht0 0x40(%r11,%r9) testq %rdi, %rdi je 0x1cc7dc8 tzcntq %rdi, %rdi movl 0x6(%r8,%rdi,4), %edi imulq %rdi, %rcx movl (%rax,%rcx), %eax imulq %rax, %rdx prefetcht1 (%r11,%rdx) prefetcht1 0x40(%r11,%rdx) movl 0x248(%r14), %edi vmovss (%rsi,%r15,4), %xmm0 vinsertps $0x1c, 0x40(%rsi,%r15,4), %xmm0, %xmm0 # xmm0 = xmm0[0],mem[0],zero,zero vinsertps $0x28, 0x80(%rsi,%r15,4), %xmm0, %xmm0 # xmm0 = xmm0[0,1],mem[0],zero vsubps %xmm0, %xmm13, %xmm1 vbroadcastss %xmm1, %xmm2 vshufps $0x55, %xmm1, %xmm1, %xmm3 # xmm3 = xmm1[1,1,1,1] vshufps $0xaa, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,2,2,2] movq 0x218(%rsp), %rax vmovaps (%rax), %xmm4 vmovaps 0x10(%rax), %xmm5 vmovaps 0x20(%rax), %xmm6 vmulps %xmm1, %xmm6, %xmm8 vfmadd231ps %xmm3, %xmm5, %xmm8 # xmm8 = (xmm5 * xmm3) + xmm8 vfmadd231ps %xmm2, %xmm4, %xmm8 # xmm8 = (xmm4 * xmm2) + xmm8 vshufps $0xff, %xmm13, %xmm13, %xmm1 # xmm1 = xmm13[3,3,3,3] vmovaps 0xe0(%rsp), %xmm3 vsubps %xmm0, %xmm3, %xmm2 vmovaps %xmm3, %xmm10 vbroadcastss %xmm2, %xmm3 vshufps $0x55, %xmm2, %xmm2, %xmm7 # xmm7 = xmm2[1,1,1,1] vshufps $0xaa, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[2,2,2,2] vmulps %xmm2, %xmm6, %xmm9 vfmadd231ps %xmm7, %xmm5, %xmm9 # xmm9 = (xmm5 * xmm7) + xmm9 vfmadd231ps %xmm3, %xmm4, %xmm9 # xmm9 = (xmm4 * xmm3) + xmm9 vshufps $0xff, %xmm10, %xmm10, %xmm2 # xmm2 = xmm10[3,3,3,3] vmovaps 0xd0(%rsp), %xmm7 vsubps %xmm0, %xmm7, %xmm3 vmovaps %xmm7, %xmm12 vbroadcastss %xmm3, %xmm7 vshufps $0x55, %xmm3, %xmm3, %xmm11 # xmm11 = xmm3[1,1,1,1] vshufps $0xaa, %xmm3, %xmm3, %xmm3 # xmm3 = xmm3[2,2,2,2] vmulps %xmm3, %xmm6, %xmm10 vfmadd231ps %xmm11, %xmm5, %xmm10 # xmm10 = (xmm5 * xmm11) + xmm10 vfmadd231ps %xmm7, %xmm4, %xmm10 # xmm10 = (xmm4 * xmm7) + xmm10 vshufps $0xff, %xmm12, %xmm12, %xmm7 # xmm7 = xmm12[3,3,3,3] vmovaps 0x120(%rsp), %xmm26 vsubps %xmm0, %xmm26, %xmm0 vbroadcastss %xmm0, %xmm3 vshufps $0x55, %xmm0, %xmm0, %xmm12 # xmm12 = xmm0[1,1,1,1] vshufps $0xaa, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[2,2,2,2] vmulps %xmm0, %xmm6, %xmm11 vfmadd231ps %xmm12, %xmm5, %xmm11 # xmm11 = (xmm5 * xmm12) + xmm11 vfmadd231ps %xmm3, %xmm4, %xmm11 # xmm11 = (xmm4 * xmm3) + xmm11 movslq %edi, %rax movq %rax, %rcx shlq $0x6, %rcx leaq (%rcx,%rax,4), %rbx vmovups (%r12,%rbx), %ymm25 vshufps $0xff, %xmm26, %xmm26, %xmm0 # xmm0 = xmm26[3,3,3,3] vbroadcastss %xmm8, %ymm20 vbroadcastss 0x24a821(%rip), %ymm4 # 0x1f12704 vpermps %ymm8, %ymm4, %ymm23 vbroadcastsd %xmm1, %ymm3 vmovups 0x484(%r12,%rbx), %ymm14 vbroadcastss %xmm9, %ymm1 vpermps %ymm9, %ymm4, %ymm27 vbroadcastsd %xmm2, %ymm12 vmovups 0x908(%r12,%rbx), %ymm15 vbroadcastss %xmm10, %ymm31 vpermps %ymm10, %ymm4, %ymm30 vbroadcastsd %xmm7, %ymm21 vmovups 0xd8c(%r12,%rbx), %ymm16 vbroadcastss %xmm11, %ymm28 vpermps %ymm11, %ymm4, %ymm29 vbroadcastsd %xmm0, %ymm22 vmulps %ymm16, %ymm28, %ymm5 vmulps %ymm16, %ymm29, %ymm4 vfmadd231ps %ymm31, %ymm15, %ymm5 # ymm5 = (ymm15 * ymm31) + ymm5 vfmadd231ps %ymm30, %ymm15, %ymm4 # ymm4 = (ymm15 * ymm30) + ymm4 vfmadd231ps %ymm1, %ymm14, %ymm5 # ymm5 = (ymm14 * ymm1) + ymm5 vfmadd231ps %ymm27, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm27) + ymm4 vfmadd231ps %ymm20, %ymm25, %ymm5 # ymm5 = (ymm25 * ymm20) + ymm5 leaq 0x46a81b(%rip), %rdx # 0x213278c vmovups (%rdx,%rbx), %ymm2 vmovups 0x484(%rdx,%rbx), %ymm17 vfmadd231ps %ymm23, %ymm25, %ymm4 # ymm4 = (ymm25 * ymm23) + ymm4 vmovups 0x908(%rdx,%rbx), %ymm18 vmovups 0xd8c(%rdx,%rbx), %ymm19 vmulps %ymm19, %ymm28, %ymm7 vmulps %ymm19, %ymm29, %ymm6 vfmadd231ps %ymm31, %ymm18, %ymm7 # ymm7 = (ymm18 * ymm31) + ymm7 vfmadd231ps %ymm30, %ymm18, %ymm6 # ymm6 = (ymm18 * ymm30) + ymm6 vmovaps %ymm1, 0x140(%rsp) vfmadd231ps %ymm1, %ymm17, %ymm7 # ymm7 = (ymm17 * ymm1) + ymm7 vfmadd231ps %ymm27, %ymm17, %ymm6 # ymm6 = (ymm17 * ymm27) + ymm6 vmovaps %ymm20, 0x260(%rsp) vfmadd231ps %ymm20, %ymm2, %ymm7 # ymm7 = (ymm2 * ymm20) + ymm7 vmovaps %ymm23, 0x240(%rsp) vfmadd231ps %ymm23, %ymm2, %ymm6 # ymm6 = (ymm2 * ymm23) + ymm6 vsubps %ymm5, %ymm7, %ymm24 vsubps %ymm4, %ymm6, %ymm23 vmulps %ymm24, %ymm4, %ymm0 vmulps %ymm23, %ymm5, %ymm1 vsubps %ymm1, %ymm0, %ymm20 vmulps %ymm16, %ymm22, %ymm0 vfmadd231ps %ymm21, %ymm15, %ymm0 # ymm0 = (ymm15 * ymm21) + ymm0 vfmadd231ps %ymm12, %ymm14, %ymm0 # ymm0 = (ymm14 * ymm12) + ymm0 vfmadd231ps %ymm3, %ymm25, %ymm0 # ymm0 = (ymm25 * ymm3) + ymm0 vmovaps %ymm22, 0x620(%rsp) vmulps %ymm19, %ymm22, %ymm1 vmovaps %ymm21, 0x640(%rsp) vfmadd231ps %ymm21, %ymm18, %ymm1 # ymm1 = (ymm18 * ymm21) + ymm1 vmovaps %ymm12, 0x6a0(%rsp) vfmadd231ps %ymm12, %ymm17, %ymm1 # ymm1 = (ymm17 * ymm12) + ymm1 vmovaps %ymm3, 0x6c0(%rsp) vfmadd231ps %ymm3, %ymm2, %ymm1 # ymm1 = (ymm2 * ymm3) + ymm1 vmulps %ymm23, %ymm23, %ymm21 vfmadd231ps %ymm24, %ymm24, %ymm21 # ymm21 = (ymm24 * ymm24) + ymm21 vmaxps %ymm1, %ymm0, %ymm22 vmulps %ymm22, %ymm22, %ymm22 vmulps %ymm21, %ymm22, %ymm21 vmulps %ymm20, %ymm20, %ymm20 vcmpleps %ymm21, %ymm20, %k1 vmovaps %xmm13, 0x60(%rsp) vblendps $0x8, %xmm13, %xmm8, %xmm12 # xmm12 = xmm8[0,1,2],xmm13[3] vbroadcastss 0x258e2f(%rip), %xmm20 # 0x1f20ec4 vandps %xmm20, %xmm12, %xmm12 vblendps $0x8, 0xe0(%rsp), %xmm9, %xmm13 # xmm13 = xmm9[0,1,2],mem[3] vandps %xmm20, %xmm13, %xmm13 vmaxps %xmm13, %xmm12, %xmm12 vblendps $0x8, 0xd0(%rsp), %xmm10, %xmm13 # xmm13 = xmm10[0,1,2],mem[3] vandps %xmm20, %xmm13, %xmm13 vmovaps %xmm26, %xmm3 vblendps $0x8, %xmm3, %xmm11, %xmm3 # xmm3 = xmm11[0,1,2],xmm3[3] vandps %xmm20, %xmm3, %xmm3 vmaxps %xmm3, %xmm13, %xmm3 vmaxps %xmm3, %xmm12, %xmm3 vmovshdup %xmm3, %xmm12 # xmm12 = xmm3[1,1,3,3] vmaxss %xmm3, %xmm12, %xmm12 vshufpd $0x1, %xmm3, %xmm3, %xmm3 # xmm3 = xmm3[1,0] vmaxss %xmm12, %xmm3, %xmm3 vcvtsi2ss %edi, %xmm8, %xmm12 vmovaps %xmm12, 0x2c0(%rsp) vbroadcastss %xmm12, %ymm12 vcmpgtps 0x258e35(%rip), %ymm12, %k1 {%k1} # 0x1f20f40 vmulss 0x228ecf(%rip), %xmm3, %xmm26 # 0x1ef0fe4 vbroadcastss 0x258dbe(%rip), %ymm3 # 0x1f20edc vpermps %ymm8, %ymm3, %ymm20 vpermps %ymm9, %ymm3, %ymm21 vpermps %ymm10, %ymm3, %ymm22 vpermps %ymm11, %ymm3, %ymm3 kortestb %k1, %k1 vmovss 0xc0(%rsi,%r15,4), %xmm10 vmovaps %ymm27, 0x4a0(%rsp) vmovaps %ymm31, 0x680(%rsp) vmovaps %ymm30, 0x660(%rsp) vmovaps %ymm20, 0x600(%rsp) vmovaps %ymm21, 0x5e0(%rsp) vmovaps %ymm22, 0x5c0(%rsp) vmovaps %ymm3, 0x5a0(%rsp) je 0x1cc8944 vmovaps %xmm10, 0x220(%rsp) vmovaps %xmm26, 0x280(%rsp) vmovaps %ymm3, %ymm26 vmulps %ymm19, %ymm3, %ymm3 vfmadd213ps %ymm3, %ymm22, %ymm18 # ymm18 = (ymm22 * ymm18) + ymm3 vfmadd213ps %ymm18, %ymm21, %ymm17 # ymm17 = (ymm21 * ymm17) + ymm18 vfmadd213ps %ymm17, %ymm20, %ymm2 # ymm2 = (ymm20 * ymm2) + ymm17 vmulps %ymm16, %ymm26, %ymm3 vfmadd213ps %ymm3, %ymm22, %ymm15 # ymm15 = (ymm22 * ymm15) + ymm3 vfmadd213ps %ymm15, %ymm21, %ymm14 # ymm14 = (ymm21 * ymm14) + ymm15 vmovups 0x1210(%r12,%rbx), %ymm3 vmovups 0x1694(%r12,%rbx), %ymm10 vmovups 0x1b18(%r12,%rbx), %ymm11 vmovups 0x1f9c(%r12,%rbx), %ymm12 vfmadd213ps %ymm14, %ymm20, %ymm25 # ymm25 = (ymm20 * ymm25) + ymm14 vmulps %ymm12, %ymm28, %ymm9 vmulps %ymm12, %ymm29, %ymm8 vmulps %ymm12, %ymm26, %ymm12 vfmadd231ps %ymm31, %ymm11, %ymm9 # ymm9 = (ymm11 * ymm31) + ymm9 vfmadd231ps %ymm30, %ymm11, %ymm8 # ymm8 = (ymm11 * ymm30) + ymm8 vfmadd231ps %ymm11, %ymm22, %ymm12 # ymm12 = (ymm22 * ymm11) + ymm12 vmovaps 0x140(%rsp), %ymm19 vfmadd231ps %ymm19, %ymm10, %ymm9 # ymm9 = (ymm10 * ymm19) + ymm9 vfmadd231ps %ymm27, %ymm10, %ymm8 # ymm8 = (ymm10 * ymm27) + ymm8 vfmadd231ps %ymm10, %ymm21, %ymm12 # ymm12 = (ymm21 * ymm10) + ymm12 vmovaps 0x260(%rsp), %ymm17 vfmadd231ps %ymm17, %ymm3, %ymm9 # ymm9 = (ymm3 * ymm17) + ymm9 vmovaps 0x240(%rsp), %ymm18 vfmadd231ps %ymm18, %ymm3, %ymm8 # ymm8 = (ymm3 * ymm18) + ymm8 vmovups 0x1210(%rdx,%rbx), %ymm10 vmovups 0x1b18(%rdx,%rbx), %ymm11 vmovups 0x1f9c(%rdx,%rbx), %ymm13 vfmadd231ps %ymm3, %ymm20, %ymm12 # ymm12 = (ymm20 * ymm3) + ymm12 vmovaps %ymm28, 0x180(%rsp) vmulps %ymm13, %ymm28, %ymm3 vmovaps %ymm29, 0x160(%rsp) vmulps %ymm13, %ymm29, %ymm14 vmulps %ymm13, %ymm26, %ymm13 vmovaps 0x280(%rsp), %xmm26 vfmadd231ps %ymm31, %ymm11, %ymm3 # ymm3 = (ymm11 * ymm31) + ymm3 vfmadd231ps %ymm30, %ymm11, %ymm14 # ymm14 = (ymm11 * ymm30) + ymm14 vfmadd231ps %ymm11, %ymm22, %ymm13 # ymm13 = (ymm22 * ymm11) + ymm13 vmovups 0x1694(%rdx,%rbx), %ymm11 vfmadd231ps %ymm19, %ymm11, %ymm3 # ymm3 = (ymm11 * ymm19) + ymm3 vfmadd231ps %ymm27, %ymm11, %ymm14 # ymm14 = (ymm11 * ymm27) + ymm14 vfmadd231ps %ymm11, %ymm21, %ymm13 # ymm13 = (ymm21 * ymm11) + ymm13 vfmadd231ps %ymm17, %ymm10, %ymm3 # ymm3 = (ymm10 * ymm17) + ymm3 vfmadd231ps %ymm18, %ymm10, %ymm14 # ymm14 = (ymm10 * ymm18) + ymm14 vfmadd231ps %ymm10, %ymm20, %ymm13 # ymm13 = (ymm20 * ymm10) + ymm13 vbroadcastss 0x258be6(%rip), %ymm15 # 0x1f20ec4 vandps %ymm15, %ymm9, %ymm10 vandps %ymm15, %ymm8, %ymm11 vmaxps %ymm11, %ymm10, %ymm10 vandps %ymm15, %ymm12, %ymm11 vmaxps %ymm11, %ymm10, %ymm10 vbroadcastss %xmm26, %ymm11 vcmpltps %ymm11, %ymm10, %k2 vmovaps %ymm24, %ymm9 {%k2} vmovaps %ymm23, %ymm8 {%k2} vandps %ymm3, %ymm15, %ymm10 vandps %ymm15, %ymm14, %ymm12 vmaxps %ymm12, %ymm10, %ymm10 vandps %ymm15, %ymm13, %ymm12 vmaxps %ymm12, %ymm10, %ymm10 vcmpltps %ymm11, %ymm10, %k2 vmovaps %ymm24, %ymm3 {%k2} vmovaps %ymm23, %ymm14 {%k2} vbroadcastss 0x258b7c(%rip), %ymm11 # 0x1f20ec0 vxorps %ymm11, %ymm9, %ymm10 vxorps %ymm3, %ymm11, %ymm12 vxorps %xmm27, %xmm27, %xmm27 vfmadd213ps %ymm27, %ymm9, %ymm9 # ymm9 = (ymm9 * ymm9) + ymm27 vfmadd231ps %ymm8, %ymm8, %ymm9 # ymm9 = (ymm8 * ymm8) + ymm9 vrsqrt14ps %ymm9, %ymm11 vbroadcastss 0x2243af(%rip), %ymm15 # 0x1eec71c vmulps %ymm15, %ymm9, %ymm9 vmulps %ymm9, %ymm11, %ymm9 vmulps %ymm11, %ymm11, %ymm13 vmulps %ymm9, %ymm13, %ymm9 vbroadcastss 0x22438d(%rip), %ymm16 # 0x1eec718 vfmadd231ps %ymm11, %ymm16, %ymm9 # ymm9 = (ymm16 * ymm11) + ymm9 vmulps %ymm9, %ymm8, %ymm11 vmulps %ymm10, %ymm9, %ymm10 vmulps %ymm27, %ymm9, %ymm13 vfmadd213ps %ymm27, %ymm3, %ymm3 # ymm3 = (ymm3 * ymm3) + ymm27 vfmadd231ps %ymm14, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm14) + ymm3 vrsqrt14ps %ymm3, %ymm8 vmulps %ymm3, %ymm15, %ymm3 vmulps %ymm3, %ymm8, %ymm3 vmulps %ymm8, %ymm8, %ymm9 vmulps %ymm3, %ymm9, %ymm3 vfmadd231ps %ymm8, %ymm16, %ymm3 # ymm3 = (ymm16 * ymm8) + ymm3 vmulps %ymm3, %ymm14, %ymm8 vmulps %ymm3, %ymm12, %ymm9 vmulps %ymm27, %ymm3, %ymm3 vmovaps %ymm11, %ymm12 vfmadd213ps %ymm5, %ymm0, %ymm12 # ymm12 = (ymm0 * ymm12) + ymm5 vmovaps %ymm10, %ymm14 vfmadd213ps %ymm4, %ymm0, %ymm14 # ymm14 = (ymm0 * ymm14) + ymm4 vmovaps %ymm13, %ymm15 vfmadd213ps %ymm25, %ymm0, %ymm15 # ymm15 = (ymm0 * ymm15) + ymm25 vmovaps %ymm8, %ymm16 vfmadd213ps %ymm7, %ymm1, %ymm16 # ymm16 = (ymm1 * ymm16) + ymm7 vfnmadd213ps %ymm5, %ymm0, %ymm11 # ymm11 = -(ymm0 * ymm11) + ymm5 vmovaps %ymm9, %ymm5 vfmadd213ps %ymm6, %ymm1, %ymm5 # ymm5 = (ymm1 * ymm5) + ymm6 vfnmadd213ps %ymm4, %ymm0, %ymm10 # ymm10 = -(ymm0 * ymm10) + ymm4 vmovaps %ymm3, %ymm4 vfmadd213ps %ymm2, %ymm1, %ymm4 # ymm4 = (ymm1 * ymm4) + ymm2 vfnmadd231ps %ymm13, %ymm0, %ymm25 # ymm25 = -(ymm0 * ymm13) + ymm25 vfnmadd213ps %ymm7, %ymm1, %ymm8 # ymm8 = -(ymm1 * ymm8) + ymm7 vfnmadd213ps %ymm6, %ymm1, %ymm9 # ymm9 = -(ymm1 * ymm9) + ymm6 vfnmadd231ps %ymm3, %ymm1, %ymm2 # ymm2 = -(ymm1 * ymm3) + ymm2 vsubps %ymm11, %ymm16, %ymm3 vsubps %ymm10, %ymm5, %ymm6 vsubps %ymm25, %ymm4, %ymm7 vmulps %ymm25, %ymm6, %ymm13 vfmsub231ps %ymm7, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm7) - ymm13 vmulps %ymm7, %ymm11, %ymm7 vfmsub231ps %ymm3, %ymm25, %ymm7 # ymm7 = (ymm25 * ymm3) - ymm7 vmulps %ymm3, %ymm10, %ymm3 vfmsub231ps %ymm6, %ymm11, %ymm3 # ymm3 = (ymm11 * ymm6) - ymm3 vfmadd231ps %ymm7, %ymm27, %ymm3 # ymm3 = (ymm27 * ymm7) + ymm3 vfmadd231ps %ymm13, %ymm27, %ymm3 # ymm3 = (ymm27 * ymm13) + ymm3 vcmpleps %ymm27, %ymm3, %k2 vmovaps %ymm12, %ymm8 {%k2} vmovaps %ymm14, %ymm9 {%k2} vmovaps %ymm15, %ymm2 {%k2} vblendmps %ymm16, %ymm11, %ymm13 {%k2} vblendmps %ymm5, %ymm10, %ymm14 {%k2} vblendmps %ymm4, %ymm25, %ymm15 {%k2} vmovaps %ymm11, %ymm16 {%k2} vmovaps %ymm10, %ymm5 {%k2} vmovaps %ymm25, %ymm4 {%k2} vsubps %ymm8, %ymm16, %ymm6 vsubps %ymm9, %ymm5, %ymm5 vsubps %ymm2, %ymm4, %ymm11 vsubps %ymm13, %ymm8, %ymm7 vsubps %ymm14, %ymm9, %ymm10 vsubps %ymm15, %ymm2, %ymm12 vmulps %ymm8, %ymm11, %ymm4 vfmsub231ps %ymm6, %ymm2, %ymm4 # ymm4 = (ymm2 * ymm6) - ymm4 vmulps %ymm6, %ymm9, %ymm3 vfmsub231ps %ymm5, %ymm8, %ymm3 # ymm3 = (ymm8 * ymm5) - ymm3 vfmadd231ps %ymm4, %ymm27, %ymm3 # ymm3 = (ymm27 * ymm4) + ymm3 vmulps %ymm2, %ymm5, %ymm4 vfmsub231ps %ymm11, %ymm9, %ymm4 # ymm4 = (ymm9 * ymm11) - ymm4 vfmadd231ps %ymm4, %ymm27, %ymm3 # ymm3 = (ymm27 * ymm4) + ymm3 vmulps %ymm13, %ymm12, %ymm16 vfmsub231ps %ymm15, %ymm7, %ymm16 # ymm16 = (ymm7 * ymm15) - ymm16 vmulps %ymm15, %ymm10, %ymm15 vfmsub231ps %ymm12, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm12) - ymm15 vmulps %ymm7, %ymm14, %ymm4 vfmsub231ps %ymm13, %ymm10, %ymm4 # ymm4 = (ymm10 * ymm13) - ymm4 vfmadd231ps %ymm16, %ymm27, %ymm4 # ymm4 = (ymm27 * ymm16) + ymm4 vfmadd231ps %ymm15, %ymm27, %ymm4 # ymm4 = (ymm27 * ymm15) + ymm4 vmaxps %ymm4, %ymm3, %ymm13 vcmpleps %ymm27, %ymm13, %k0 {%k1} kortestb %k0, %k0 vmovaps 0x1c0(%rsp), %ymm20 vmovaps 0x1a0(%rsp), %ymm21 vmovaps %ymm17, %ymm22 vmovaps %ymm19, %ymm17 je 0x1cc98e8 vmulps %ymm5, %ymm12, %ymm13 vfmsub231ps %ymm11, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm11) - ymm13 vmulps %ymm7, %ymm11, %ymm11 vfmsub231ps %ymm12, %ymm6, %ymm11 # ymm11 = (ymm6 * ymm12) - ymm11 vmulps %ymm6, %ymm10, %ymm10 vfmsub231ps %ymm5, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm5) - ymm10 vxorps %xmm6, %xmm6, %xmm6 vfmadd213ps %ymm10, %ymm11, %ymm6 # ymm6 = (ymm11 * ymm6) + ymm10 vfmadd231ps %ymm27, %ymm13, %ymm6 # ymm6 = (ymm13 * ymm27) + ymm6 vrcp14ps %ymm6, %ymm7 vmovaps %ymm7, %ymm5 vfnmadd213ps 0x224189(%rip){1to8}, %ymm6, %ymm5 # ymm5 = -(ymm6 * ymm5) + mem vfmadd132ps %ymm7, %ymm7, %ymm5 # ymm5 = (ymm5 * ymm7) + ymm7 vmulps %ymm2, %ymm10, %ymm2 vfmadd231ps %ymm11, %ymm9, %ymm2 # ymm2 = (ymm9 * ymm11) + ymm2 vfmadd231ps %ymm13, %ymm8, %ymm2 # ymm2 = (ymm8 * ymm13) + ymm2 vmulps %ymm5, %ymm2, %ymm2 vmovaps 0x220(%rsp), %xmm10 vbroadcastss %xmm10, %ymm7 vcmpleps %ymm2, %ymm7, %k1 vcmpleps 0x200(%rsi,%r15,4){1to8}, %ymm2, %k1 {%k1} kandb %k0, %k1, %k0 kortestb %k0, %k0 vmovaps 0x180(%rsp), %ymm28 vmovaps 0x160(%rsp), %ymm29 je 0x1cc9921 vcmpneqps %ymm27, %ymm6, %k1 ktestb %k1, %k0 vmovaps 0x60(%rsp), %xmm9 je 0x1cc9941 kandb %k1, %k0, %k0 kmovd %k0, %eax vmulps %ymm5, %ymm3, %ymm3 vmulps %ymm5, %ymm4, %ymm4 vbroadcastss 0x224103(%rip), %ymm5 # 0x1eec714 vsubps %ymm3, %ymm5, %ymm6 vmovaps %ymm3, %ymm6 {%k2} vsubps %ymm4, %ymm5, %ymm3 vmovaps %ymm4, %ymm3 {%k2} vmovaps %ymm3, 0x460(%rsp) movzbl %al, %r12d vmovaps %ymm2, %ymm3 testw %r12w, %r12w je 0x1cc893b vsubps %ymm0, %ymm1, %ymm1 vfmadd213ps %ymm0, %ymm6, %ymm1 # ymm1 = (ymm6 * ymm1) + ymm0 vaddps %ymm1, %ymm1, %ymm0 movq 0xc8(%rsp), %rax vmulps (%rax,%r15,4){1to8}, %ymm0, %ymm0 vcmpnleps %ymm0, %ymm3, %k0 kmovd %k0, %eax andb %al, %r12b je 0x1cc893b vbroadcastss 0x228353(%rip), %ymm0 # 0x1ef09cc vmovaps 0x460(%rsp), %ymm1 vfmadd132ps 0x22896c(%rip){1to8}, %ymm0, %ymm1 # ymm1 = (ymm1 * mem) + ymm0 vmovaps %ymm6, 0x2e0(%rsp) vmovaps %ymm1, 0x460(%rsp) vmovaps %ymm1, 0x300(%rsp) vmovaps %ymm3, 0x320(%rsp) movl $0x0, 0x340(%rsp) movl %edi, 0x344(%rsp) vmovaps %xmm9, 0x350(%rsp) vmovaps 0xe0(%rsp), %xmm0 vmovaps %xmm0, 0x360(%rsp) vmovaps 0xd0(%rsp), %xmm0 vmovaps %xmm0, 0x370(%rsp) vmovdqa 0x120(%rsp), %xmm0 vmovdqa %xmm0, 0x380(%rsp) movb %r12b, 0x390(%rsp) movl 0x240(%rsi,%r15,4), %eax testl %eax, 0x34(%r14) je 0x1cc893b vaddps 0x25881d(%rip), %ymm6, %ymm0 # 0x1f20f40 vmovss 0x223fe9(%rip), %xmm1 # 0x1eec714 vdivss 0x2c0(%rsp), %xmm1, %xmm1 vbroadcastss %xmm1, %ymm1 vmulps %ymm0, %ymm1, %ymm0 vmovaps %ymm0, 0x3a0(%rsp) vmovaps 0x460(%rsp), %ymm0 vmovaps %ymm0, 0x3c0(%rsp) vmovaps %ymm3, 0x3e0(%rsp) kmovd %r12d, %k1 vbroadcastss 0x2232b1(%rip), %ymm0 # 0x1eeba20 vblendmps %ymm3, %ymm0, %ymm0 {%k1} vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm0, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1] vminps %ymm2, %ymm1, %ymm1 vcmpeqps %ymm1, %ymm0, %k0 kmovd %k0, %eax andb %r12b, %al movzbl %al, %eax movzbl %r12b, %ecx cmovnel %eax, %ecx tzcntl %ecx, %r9d movq 0x10(%r10), %rax cmpq $0x0, 0x10(%rax) vmovaps %ymm6, 0xa0(%rsp) vmovaps %ymm3, 0x80(%rsp) jne 0x1cc995b cmpq $0x0, 0x40(%r14) jne 0x1cc995b vmovss 0x3a0(%rsp,%r9,4), %xmm0 vmovss 0x3c0(%rsp,%r9,4), %xmm1 vmovss 0x223f1e(%rip), %xmm2 # 0x1eec714 vsubss %xmm0, %xmm2, %xmm2 vaddss %xmm2, %xmm2, %xmm3 vmulss %xmm3, %xmm0, %xmm4 vfnmadd231ss %xmm2, %xmm2, %xmm4 # xmm4 = -(xmm2 * xmm2) + xmm4 vaddss %xmm0, %xmm0, %xmm5 vmovss 0x2287d9(%rip), %xmm8 # 0x1ef0fec vmovaps %xmm8, %xmm6 vfmadd213ss 0x2287e4(%rip), %xmm0, %xmm6 # xmm6 = (xmm0 * xmm6) + mem vmulss %xmm0, %xmm8, %xmm7 vmulss %xmm7, %xmm0, %xmm7 vfmadd231ss %xmm6, %xmm5, %xmm7 # xmm7 = (xmm5 * xmm6) + xmm7 vmovaps %xmm8, %xmm5 vfmadd213ss 0x2287be(%rip), %xmm0, %xmm5 # xmm5 = (xmm0 * xmm5) + mem vmulss 0x2287ae(%rip), %xmm2, %xmm6 # 0x1ef0ff0 vmulss %xmm6, %xmm2, %xmm6 vfmadd231ss %xmm5, %xmm3, %xmm6 # xmm6 = (xmm3 * xmm5) + xmm6 vmulss 0x228189(%rip), %xmm2, %xmm2 # 0x1ef09dc vmulss %xmm0, %xmm0, %xmm3 vfmadd231ss %xmm2, %xmm0, %xmm3 # xmm3 = (xmm0 * xmm2) + xmm3 vmovss 0x22431c(%rip), %xmm8 # 0x1eecb80 vmulss %xmm4, %xmm8, %xmm2 vmulss %xmm7, %xmm8, %xmm4 vmulss %xmm6, %xmm8, %xmm5 vmulss %xmm3, %xmm8, %xmm3 vbroadcastss %xmm3, %xmm3 vmulps 0x120(%rsp), %xmm3, %xmm3 vbroadcastss %xmm5, %xmm5 vfmadd132ps 0xd0(%rsp), %xmm3, %xmm5 # xmm5 = (xmm5 * mem) + xmm3 vbroadcastss %xmm4, %xmm3 vfmadd132ps 0xe0(%rsp), %xmm5, %xmm3 # xmm3 = (xmm3 * mem) + xmm5 vmovaps 0xa0(%rsp), %ymm6 vbroadcastss %xmm2, %xmm2 vfmadd213ps %xmm3, %xmm9, %xmm2 # xmm2 = (xmm9 * xmm2) + xmm3 vmovss 0x3e0(%rsp,%r9,4), %xmm3 vmovss %xmm3, 0x200(%rsi,%r15,4) vmovaps 0x80(%rsp), %ymm3 vmovss %xmm2, 0x300(%rsi,%r15,4) vextractps $0x1, %xmm2, 0x340(%rsi,%r15,4) vextractps $0x2, %xmm2, 0x380(%rsi,%r15,4) vmovss %xmm0, 0x3c0(%rsi,%r15,4) vmovss %xmm1, 0x400(%rsi,%r15,4) movq 0x78(%rsp), %rax movl %eax, 0x440(%rsi,%r15,4) movq 0x58(%rsp), %rax movl %eax, 0x480(%rsi,%r15,4) movq 0x8(%r10), %rax movl (%rax), %eax movl %eax, 0x4c0(%rsi,%r15,4) movq 0x8(%r10), %rax movl 0x4(%rax), %eax movl %eax, 0x500(%rsi,%r15,4) leaq 0x467a2a(%rip), %r12 # 0x213036c jmp 0x1cc8984 vxorps %xmm27, %xmm27, %xmm27 vmovaps 0xa0(%rsp), %ymm6 vmovaps 0x1c0(%rsp), %ymm20 vmovaps 0x80(%rsp), %ymm3 vmovaps 0x1a0(%rsp), %ymm21 vmovaps 0x260(%rsp), %ymm22 vmovaps 0x240(%rsp), %ymm18 vmovaps 0x140(%rsp), %ymm17 cmpl $0x9, %edi jge 0x1cc89b0 vmovaps 0x6e0(%rsp), %ymm0 vcmpleps 0x200(%rsi,%r15,4){1to8}, %ymm0, %k0 kmovb %k0, %eax andl %eax, %r13d jne 0x1cc7cb7 jmp 0x1cc9e8b vpbroadcastd %edi, %ymm0 vmovdqa %ymm0, 0x280(%rsp) vbroadcastss %xmm26, %ymm0 vmovaps %ymm0, 0x220(%rsp) vbroadcastss %xmm10, %ymm0 vmovaps %ymm0, 0x2a0(%rsp) vmovss 0x223d30(%rip), %xmm0 # 0x1eec714 vdivss 0x2c0(%rsp), %xmm0, %xmm0 vbroadcastss %xmm0, %ymm0 vmovaps %ymm0, 0x2c0(%rsp) movq 0x58(%rsp), %rax vpbroadcastd %eax, %zmm0 vmovdqa64 %zmm0, 0x540(%rsp) movq 0x78(%rsp), %rax vpbroadcastd %eax, %zmm0 vmovdqa64 %zmm0, 0x500(%rsp) movl $0x8, %r14d vmovaps %ymm6, 0xa0(%rsp) vmovaps %ymm3, 0x80(%rsp) vpbroadcastd %r14d, %ymm0 vpor 0x291ed9(%rip), %ymm0, %ymm0 # 0x1f5a920 vpcmpltd 0x280(%rsp), %ymm0, %k1 leaq (%rbx,%r12), %rcx vmovups (%rcx,%r14,4), %ymm3 vmovups 0x484(%rcx,%r14,4), %ymm10 vmovups 0x908(%rcx,%r14,4), %ymm11 vmovups 0xd8c(%rcx,%r14,4), %ymm12 vmulps %ymm12, %ymm28, %ymm5 vmulps %ymm12, %ymm29, %ymm4 vmovaps 0x620(%rsp), %ymm1 vmulps %ymm1, %ymm12, %ymm0 vmovaps 0x680(%rsp), %ymm19 vfmadd231ps %ymm19, %ymm11, %ymm5 # ymm5 = (ymm11 * ymm19) + ymm5 vmovaps 0x660(%rsp), %ymm26 vfmadd231ps %ymm26, %ymm11, %ymm4 # ymm4 = (ymm11 * ymm26) + ymm4 vmovaps 0x640(%rsp), %ymm16 vfmadd231ps %ymm16, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm16) + ymm0 vfmadd231ps %ymm17, %ymm10, %ymm5 # ymm5 = (ymm10 * ymm17) + ymm5 vmovaps 0x4a0(%rsp), %ymm25 vfmadd231ps %ymm25, %ymm10, %ymm4 # ymm4 = (ymm10 * ymm25) + ymm4 vmovaps 0x6a0(%rsp), %ymm9 vfmadd231ps %ymm9, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm9) + ymm0 vfmadd231ps %ymm22, %ymm3, %ymm5 # ymm5 = (ymm3 * ymm22) + ymm5 vfmadd231ps %ymm18, %ymm3, %ymm4 # ymm4 = (ymm3 * ymm18) + ymm4 leaq (%rbx,%rdx), %rax vmovups (%rax,%r14,4), %ymm2 vmovups 0x484(%rax,%r14,4), %ymm13 vmovaps 0x6c0(%rsp), %ymm8 vfmadd231ps %ymm8, %ymm3, %ymm0 # ymm0 = (ymm3 * ymm8) + ymm0 vmovups 0x908(%rax,%r14,4), %ymm14 vmovups 0xd8c(%rax,%r14,4), %ymm15 vmulps %ymm15, %ymm28, %ymm7 vmulps %ymm15, %ymm29, %ymm6 vmulps %ymm1, %ymm15, %ymm1 vfmadd231ps %ymm19, %ymm14, %ymm7 # ymm7 = (ymm14 * ymm19) + ymm7 vfmadd231ps %ymm26, %ymm14, %ymm6 # ymm6 = (ymm14 * ymm26) + ymm6 vfmadd231ps %ymm16, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm16) + ymm1 vfmadd231ps %ymm17, %ymm13, %ymm7 # ymm7 = (ymm13 * ymm17) + ymm7 vfmadd231ps %ymm25, %ymm13, %ymm6 # ymm6 = (ymm13 * ymm25) + ymm6 vfmadd231ps %ymm9, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm9) + ymm1 vfmadd231ps %ymm22, %ymm2, %ymm7 # ymm7 = (ymm2 * ymm22) + ymm7 vfmadd231ps %ymm18, %ymm2, %ymm6 # ymm6 = (ymm2 * ymm18) + ymm6 vfmadd231ps %ymm8, %ymm2, %ymm1 # ymm1 = (ymm2 * ymm8) + ymm1 vmaxps %ymm1, %ymm0, %ymm16 vsubps %ymm5, %ymm7, %ymm9 vsubps %ymm4, %ymm6, %ymm8 vmovaps %ymm17, %ymm24 vmulps %ymm9, %ymm4, %ymm17 vmovaps %ymm18, %ymm23 vmulps %ymm8, %ymm5, %ymm18 vsubps %ymm18, %ymm17, %ymm17 vmulps %ymm8, %ymm8, %ymm18 vfmadd231ps %ymm9, %ymm9, %ymm18 # ymm18 = (ymm9 * ymm9) + ymm18 vmulps %ymm16, %ymm16, %ymm16 vmulps %ymm18, %ymm16, %ymm16 vmulps %ymm17, %ymm17, %ymm17 vcmpleps %ymm16, %ymm17, %k1 {%k1} kortestb %k1, %k1 je 0x1cc936c vmovaps %ymm23, %ymm16 vmovaps 0x5a0(%rsp), %ymm23 vmulps %ymm15, %ymm23, %ymm15 vmovaps 0x5c0(%rsp), %ymm31 vfmadd213ps %ymm15, %ymm31, %ymm14 # ymm14 = (ymm31 * ymm14) + ymm15 vmovaps 0x5e0(%rsp), %ymm30 vfmadd213ps %ymm14, %ymm30, %ymm13 # ymm13 = (ymm30 * ymm13) + ymm14 vmovaps 0x600(%rsp), %ymm18 vfmadd213ps %ymm13, %ymm18, %ymm2 # ymm2 = (ymm18 * ymm2) + ymm13 vmulps %ymm12, %ymm23, %ymm12 vfmadd213ps %ymm12, %ymm31, %ymm11 # ymm11 = (ymm31 * ymm11) + ymm12 vfmadd213ps %ymm11, %ymm30, %ymm10 # ymm10 = (ymm30 * ymm10) + ymm11 vfmadd213ps %ymm10, %ymm18, %ymm3 # ymm3 = (ymm18 * ymm3) + ymm10 vmovups 0x1210(%rcx,%r14,4), %ymm12 vmovups 0x1694(%rcx,%r14,4), %ymm13 vmovups 0x1b18(%rcx,%r14,4), %ymm14 vmovups 0x1f9c(%rcx,%r14,4), %ymm15 vmulps %ymm15, %ymm28, %ymm11 vmulps %ymm15, %ymm29, %ymm10 vmulps %ymm15, %ymm23, %ymm15 vfmadd231ps %ymm19, %ymm14, %ymm11 # ymm11 = (ymm14 * ymm19) + ymm11 vfmadd231ps %ymm26, %ymm14, %ymm10 # ymm10 = (ymm14 * ymm26) + ymm10 vfmadd231ps %ymm14, %ymm31, %ymm15 # ymm15 = (ymm31 * ymm14) + ymm15 vfmadd231ps %ymm24, %ymm13, %ymm11 # ymm11 = (ymm13 * ymm24) + ymm11 vfmadd231ps %ymm25, %ymm13, %ymm10 # ymm10 = (ymm13 * ymm25) + ymm10 vfmadd231ps %ymm13, %ymm30, %ymm15 # ymm15 = (ymm30 * ymm13) + ymm15 vfmadd231ps %ymm22, %ymm12, %ymm11 # ymm11 = (ymm12 * ymm22) + ymm11 vfmadd231ps %ymm16, %ymm12, %ymm10 # ymm10 = (ymm12 * ymm16) + ymm10 vmovaps %ymm26, %ymm25 vmovaps %ymm19, %ymm26 vmovaps %ymm16, %ymm19 vfmadd231ps %ymm12, %ymm18, %ymm15 # ymm15 = (ymm18 * ymm12) + ymm15 vmovups 0x1210(%rax,%r14,4), %ymm13 vmovups 0x1b18(%rax,%r14,4), %ymm14 vmovups 0x1f9c(%rax,%r14,4), %ymm16 vmulps %ymm16, %ymm28, %ymm17 vmulps %ymm16, %ymm29, %ymm12 vmulps %ymm16, %ymm23, %ymm16 vfmadd231ps %ymm26, %ymm14, %ymm17 # ymm17 = (ymm14 * ymm26) + ymm17 vfmadd231ps %ymm25, %ymm14, %ymm12 # ymm12 = (ymm14 * ymm25) + ymm12 vfmadd231ps %ymm14, %ymm31, %ymm16 # ymm16 = (ymm31 * ymm14) + ymm16 vmovups 0x1694(%rax,%r14,4), %ymm14 vfmadd231ps %ymm24, %ymm14, %ymm17 # ymm17 = (ymm14 * ymm24) + ymm17 vfmadd231ps 0x4a0(%rsp), %ymm14, %ymm12 # ymm12 = (ymm14 * mem) + ymm12 vfmadd231ps %ymm14, %ymm30, %ymm16 # ymm16 = (ymm30 * ymm14) + ymm16 vfmadd231ps %ymm22, %ymm13, %ymm17 # ymm17 = (ymm13 * ymm22) + ymm17 vfmadd231ps %ymm19, %ymm13, %ymm12 # ymm12 = (ymm13 * ymm19) + ymm12 vfmadd231ps %ymm13, %ymm18, %ymm16 # ymm16 = (ymm18 * ymm13) + ymm16 vbroadcastss 0x2581af(%rip), %ymm18 # 0x1f20ec4 vandps %ymm18, %ymm11, %ymm13 vandps %ymm18, %ymm10, %ymm14 vmaxps %ymm14, %ymm13, %ymm13 vandps %ymm18, %ymm15, %ymm14 vmaxps %ymm14, %ymm13, %ymm13 vmovaps 0x220(%rsp), %ymm15 vcmpltps %ymm15, %ymm13, %k2 vmovaps %ymm9, %ymm11 {%k2} vmovaps %ymm8, %ymm10 {%k2} vandps %ymm18, %ymm17, %ymm13 vandps %ymm18, %ymm12, %ymm14 vmaxps %ymm14, %ymm13, %ymm13 vandps %ymm18, %ymm16, %ymm14 vmaxps %ymm14, %ymm13, %ymm13 vcmpltps %ymm15, %ymm13, %k2 vmovaps %ymm9, %ymm17 {%k2} vmovaps %ymm8, %ymm12 {%k2} vbroadcastss 0x25813b(%rip), %ymm9 # 0x1f20ec0 vxorps %ymm9, %ymm11, %ymm8 vxorps %ymm9, %ymm17, %ymm9 vfmadd213ps %ymm27, %ymm11, %ymm11 # ymm11 = (ymm11 * ymm11) + ymm27 vfmadd231ps %ymm10, %ymm10, %ymm11 # ymm11 = (ymm10 * ymm10) + ymm11 vrsqrt14ps %ymm11, %ymm13 vbroadcastss 0x223972(%rip), %ymm15 # 0x1eec71c vmulps %ymm15, %ymm11, %ymm11 vmulps %ymm11, %ymm13, %ymm11 vmulps %ymm13, %ymm13, %ymm14 vmulps %ymm11, %ymm14, %ymm14 vbroadcastss 0x223950(%rip), %ymm16 # 0x1eec718 vfmadd231ps %ymm13, %ymm16, %ymm14 # ymm14 = (ymm16 * ymm13) + ymm14 vmulps %ymm14, %ymm10, %ymm11 vmulps %ymm8, %ymm14, %ymm10 vmulps %ymm27, %ymm14, %ymm13 vfmadd213ps %ymm27, %ymm17, %ymm17 # ymm17 = (ymm17 * ymm17) + ymm27 vfmadd231ps %ymm12, %ymm12, %ymm17 # ymm17 = (ymm12 * ymm12) + ymm17 vrsqrt14ps %ymm17, %ymm8 vmulps %ymm15, %ymm17, %ymm14 vmulps %ymm14, %ymm8, %ymm14 vmulps %ymm8, %ymm8, %ymm15 vmulps %ymm14, %ymm15, %ymm14 vfmadd231ps %ymm8, %ymm16, %ymm14 # ymm14 = (ymm16 * ymm8) + ymm14 vmulps %ymm14, %ymm12, %ymm8 vmulps %ymm9, %ymm14, %ymm9 vmulps %ymm27, %ymm14, %ymm12 vmovaps %ymm11, %ymm14 vfmadd213ps %ymm5, %ymm0, %ymm14 # ymm14 = (ymm0 * ymm14) + ymm5 vmovaps %ymm10, %ymm15 vfmadd213ps %ymm4, %ymm0, %ymm15 # ymm15 = (ymm0 * ymm15) + ymm4 vmovaps %ymm13, %ymm16 vfmadd213ps %ymm3, %ymm0, %ymm16 # ymm16 = (ymm0 * ymm16) + ymm3 vmovaps %ymm8, %ymm17 vfmadd213ps %ymm7, %ymm1, %ymm17 # ymm17 = (ymm1 * ymm17) + ymm7 vfnmadd213ps %ymm5, %ymm0, %ymm11 # ymm11 = -(ymm0 * ymm11) + ymm5 vmovaps %ymm9, %ymm5 vfmadd213ps %ymm6, %ymm1, %ymm5 # ymm5 = (ymm1 * ymm5) + ymm6 vfnmadd213ps %ymm4, %ymm0, %ymm10 # ymm10 = -(ymm0 * ymm10) + ymm4 vmovaps %ymm12, %ymm4 vfmadd213ps %ymm2, %ymm1, %ymm4 # ymm4 = (ymm1 * ymm4) + ymm2 vfnmadd231ps %ymm13, %ymm0, %ymm3 # ymm3 = -(ymm0 * ymm13) + ymm3 vfnmadd213ps %ymm7, %ymm1, %ymm8 # ymm8 = -(ymm1 * ymm8) + ymm7 vfnmadd213ps %ymm6, %ymm1, %ymm9 # ymm9 = -(ymm1 * ymm9) + ymm6 vfnmadd231ps %ymm12, %ymm1, %ymm2 # ymm2 = -(ymm1 * ymm12) + ymm2 vsubps %ymm11, %ymm17, %ymm6 vsubps %ymm10, %ymm5, %ymm7 vsubps %ymm3, %ymm4, %ymm12 vmulps %ymm3, %ymm7, %ymm13 vfmsub231ps %ymm12, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm12) - ymm13 vmulps %ymm11, %ymm12, %ymm12 vfmsub231ps %ymm6, %ymm3, %ymm12 # ymm12 = (ymm3 * ymm6) - ymm12 vmulps %ymm6, %ymm10, %ymm6 vfmsub231ps %ymm7, %ymm11, %ymm6 # ymm6 = (ymm11 * ymm7) - ymm6 vfmadd231ps %ymm12, %ymm27, %ymm6 # ymm6 = (ymm27 * ymm12) + ymm6 vfmadd231ps %ymm13, %ymm27, %ymm6 # ymm6 = (ymm27 * ymm13) + ymm6 vcmpleps %ymm27, %ymm6, %k2 vmovaps %ymm14, %ymm8 {%k2} vmovaps %ymm15, %ymm9 {%k2} vmovaps %ymm16, %ymm2 {%k2} vblendmps %ymm17, %ymm11, %ymm13 {%k2} vblendmps %ymm5, %ymm10, %ymm14 {%k2} vblendmps %ymm4, %ymm3, %ymm15 {%k2} vmovaps %ymm11, %ymm17 {%k2} vmovaps %ymm10, %ymm5 {%k2} vmovaps %ymm3, %ymm4 {%k2} vsubps %ymm8, %ymm17, %ymm6 vsubps %ymm9, %ymm5, %ymm5 vsubps %ymm2, %ymm4, %ymm11 vsubps %ymm13, %ymm8, %ymm7 vsubps %ymm14, %ymm9, %ymm10 vsubps %ymm15, %ymm2, %ymm12 vmulps %ymm8, %ymm11, %ymm4 vfmsub231ps %ymm6, %ymm2, %ymm4 # ymm4 = (ymm2 * ymm6) - ymm4 vmulps %ymm6, %ymm9, %ymm3 vfmsub231ps %ymm5, %ymm8, %ymm3 # ymm3 = (ymm8 * ymm5) - ymm3 vfmadd231ps %ymm4, %ymm27, %ymm3 # ymm3 = (ymm27 * ymm4) + ymm3 vmulps %ymm2, %ymm5, %ymm4 vfmsub231ps %ymm11, %ymm9, %ymm4 # ymm4 = (ymm9 * ymm11) - ymm4 vfmadd231ps %ymm4, %ymm27, %ymm3 # ymm3 = (ymm27 * ymm4) + ymm3 vmulps %ymm13, %ymm12, %ymm16 vfmsub231ps %ymm15, %ymm7, %ymm16 # ymm16 = (ymm7 * ymm15) - ymm16 vmulps %ymm15, %ymm10, %ymm15 vfmsub231ps %ymm12, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm12) - ymm15 vmulps %ymm7, %ymm14, %ymm4 vfmsub231ps %ymm13, %ymm10, %ymm4 # ymm4 = (ymm10 * ymm13) - ymm4 vfmadd231ps %ymm16, %ymm27, %ymm4 # ymm4 = (ymm27 * ymm16) + ymm4 vfmadd231ps %ymm15, %ymm27, %ymm4 # ymm4 = (ymm27 * ymm15) + ymm4 vmaxps %ymm4, %ymm3, %ymm13 vcmpleps %ymm27, %ymm13, %k0 {%k1} kortestb %k0, %k0 vmovaps %ymm19, %ymm18 je 0x1cc939c vmulps %ymm5, %ymm12, %ymm13 vfmsub231ps %ymm11, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm11) - ymm13 vmulps %ymm7, %ymm11, %ymm11 vfmsub231ps %ymm12, %ymm6, %ymm11 # ymm11 = (ymm6 * ymm12) - ymm11 vmulps %ymm6, %ymm10, %ymm10 vfmsub231ps %ymm5, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm5) - ymm10 vxorps %xmm6, %xmm6, %xmm6 vfmadd213ps %ymm10, %ymm11, %ymm6 # ymm6 = (ymm11 * ymm6) + ymm10 vfmadd231ps %ymm27, %ymm13, %ymm6 # ymm6 = (ymm13 * ymm27) + ymm6 vrcp14ps %ymm6, %ymm7 vmovaps %ymm7, %ymm5 vfnmadd213ps 0x22375f(%rip){1to8}, %ymm6, %ymm5 # ymm5 = -(ymm6 * ymm5) + mem vfmadd132ps %ymm7, %ymm7, %ymm5 # ymm5 = (ymm5 * ymm7) + ymm7 vmulps %ymm2, %ymm10, %ymm2 vfmadd231ps %ymm11, %ymm9, %ymm2 # ymm2 = (ymm9 * ymm11) + ymm2 vfmadd231ps %ymm13, %ymm8, %ymm2 # ymm2 = (ymm8 * ymm13) + ymm2 vmulps %ymm5, %ymm2, %ymm2 vcmpgeps 0x2a0(%rsp), %ymm2, %k1 vcmpleps 0x200(%rsi,%r15,4){1to8}, %ymm2, %k1 {%k1} kandb %k0, %k1, %k0 kortestb %k0, %k0 je 0x1cc939c vcmpneqps %ymm27, %ymm6, %k1 ktestb %k1, %k0 vmovaps 0x60(%rsp), %xmm9 vmovaps 0x140(%rsp), %ymm17 je 0x1cc93c4 kandb %k1, %k0, %k0 kmovd %k0, %eax vmulps %ymm5, %ymm3, %ymm3 vmulps %ymm5, %ymm4, %ymm4 vbroadcastss 0x2236ed(%rip), %ymm5 # 0x1eec714 vsubps %ymm3, %ymm5, %ymm20 vmovaps %ymm3, %ymm20 {%k2} vsubps %ymm4, %ymm5, %ymm3 vmovaps %ymm4, %ymm3 {%k2} vmovaps %ymm3, 0x440(%rsp) movzbl %al, %r9d vmovaps %ymm2, %ymm21 vmovaps 0xa0(%rsp), %ymm6 vmovaps 0x80(%rsp), %ymm3 testw %r9w, %r9w je 0x1cc938a vsubps %ymm0, %ymm1, %ymm1 vfmadd213ps %ymm0, %ymm20, %ymm1 # ymm1 = (ymm20 * ymm1) + ymm0 vaddps %ymm1, %ymm1, %ymm0 movq 0xc8(%rsp), %rax vmulps (%rax,%r15,4){1to8}, %ymm0, %ymm0 vcmpnleps %ymm0, %ymm21, %k0 kmovd %k0, %eax andb %al, %r9b je 0x1cc938a vbroadcastss 0x227926(%rip), %ymm0 # 0x1ef09cc vmovaps 0x440(%rsp), %ymm1 vfmadd132ps 0x227f3f(%rip){1to8}, %ymm0, %ymm1 # ymm1 = (ymm1 * mem) + ymm0 vmovaps %ymm20, 0x2e0(%rsp) vmovaps %ymm1, 0x440(%rsp) vmovaps %ymm1, 0x300(%rsp) vmovaps %ymm21, 0x320(%rsp) movl %r14d, 0x340(%rsp) movl %edi, 0x344(%rsp) vmovaps %xmm9, 0x350(%rsp) vmovaps 0xe0(%rsp), %xmm0 vmovaps %xmm0, 0x360(%rsp) vmovaps 0xd0(%rsp), %xmm0 vmovaps %xmm0, 0x370(%rsp) vmovdqa 0x120(%rsp), %xmm0 vmovdqa %xmm0, 0x380(%rsp) movb %r9b, 0x390(%rsp) movq (%r10), %rax movq 0x1e8(%rax), %rax movq 0x58(%rsp), %rcx movq (%rax,%rcx,8), %r11 movl 0x240(%rsi,%r15,4), %eax testl %eax, 0x34(%r11) je 0x1cc9363 vaddps 0x257de0(%rip), %ymm20, %ymm0 # 0x1f20f40 vcvtsi2ss %r14d, %xmm19, %xmm1 vbroadcastss %xmm1, %ymm1 vaddps %ymm0, %ymm1, %ymm0 vmulps 0x2c0(%rsp), %ymm0, %ymm0 vmovaps %ymm0, 0x3a0(%rsp) vmovaps 0x440(%rsp), %ymm0 vmovaps %ymm0, 0x3c0(%rsp) vmovaps %ymm21, 0x3e0(%rsp) kmovd %r9d, %k1 vbroadcastss 0x222877(%rip), %ymm0 # 0x1eeba20 vblendmps %ymm21, %ymm0, %ymm0 {%k1} vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm0, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1] vminps %ymm2, %ymm1, %ymm1 vcmpeqps %ymm1, %ymm0, %k0 kmovd %k0, %eax andb %r9b, %al movzbl %al, %eax movzbl %r9b, %ecx cmovnel %eax, %ecx tzcntl %ecx, %r12d movq 0x10(%r10), %rax cmpq $0x0, 0x10(%rax) jne 0x1cc93cc cmpq $0x0, 0x40(%r11) jne 0x1cc93cc vmovss 0x3a0(%rsp,%r12,4), %xmm0 vmovss 0x3c0(%rsp,%r12,4), %xmm1 vmovss 0x2234f6(%rip), %xmm2 # 0x1eec714 vsubss %xmm0, %xmm2, %xmm2 vaddss %xmm2, %xmm2, %xmm3 vmulss %xmm3, %xmm0, %xmm4 vfnmadd231ss %xmm2, %xmm2, %xmm4 # xmm4 = -(xmm2 * xmm2) + xmm4 vaddss %xmm0, %xmm0, %xmm5 vmovss 0x227db1(%rip), %xmm8 # 0x1ef0fec vmovaps %xmm8, %xmm6 vfmadd213ss 0x227dbc(%rip), %xmm0, %xmm6 # xmm6 = (xmm0 * xmm6) + mem vmulss %xmm0, %xmm8, %xmm7 vmulss %xmm7, %xmm0, %xmm7 vfmadd231ss %xmm6, %xmm5, %xmm7 # xmm7 = (xmm5 * xmm6) + xmm7 vmovaps %xmm8, %xmm5 vfmadd213ss 0x227d96(%rip), %xmm0, %xmm5 # xmm5 = (xmm0 * xmm5) + mem vmulss 0x227d86(%rip), %xmm2, %xmm6 # 0x1ef0ff0 vmulss %xmm6, %xmm2, %xmm6 vfmadd231ss %xmm5, %xmm3, %xmm6 # xmm6 = (xmm3 * xmm5) + xmm6 vmulss 0x227761(%rip), %xmm2, %xmm2 # 0x1ef09dc vmulss %xmm0, %xmm0, %xmm3 vfmadd231ss %xmm2, %xmm0, %xmm3 # xmm3 = (xmm0 * xmm2) + xmm3 vmovss 0x2238f4(%rip), %xmm8 # 0x1eecb80 vmulss %xmm4, %xmm8, %xmm2 vmulss %xmm7, %xmm8, %xmm4 vmulss %xmm6, %xmm8, %xmm5 vmulss %xmm3, %xmm8, %xmm3 vbroadcastss %xmm3, %xmm3 vmulps 0x120(%rsp), %xmm3, %xmm3 vbroadcastss %xmm5, %xmm5 vfmadd132ps 0xd0(%rsp), %xmm3, %xmm5 # xmm5 = (xmm5 * mem) + xmm3 vbroadcastss %xmm4, %xmm3 vfmadd132ps 0xe0(%rsp), %xmm5, %xmm3 # xmm3 = (xmm3 * mem) + xmm5 vbroadcastss %xmm2, %xmm2 vfmadd213ps %xmm3, %xmm9, %xmm2 # xmm2 = (xmm9 * xmm2) + xmm3 vmovss 0x3e0(%rsp,%r12,4), %xmm3 vmovss %xmm3, 0x200(%rsi,%r15,4) vmovss %xmm2, 0x300(%rsi,%r15,4) vextractps $0x1, %xmm2, 0x340(%rsi,%r15,4) vextractps $0x2, %xmm2, 0x380(%rsi,%r15,4) vmovss %xmm0, 0x3c0(%rsi,%r15,4) vmovss %xmm1, 0x400(%rsi,%r15,4) movq 0x78(%rsp), %rax movl %eax, 0x440(%rsi,%r15,4) movq 0x58(%rsp), %rax movl %eax, 0x480(%rsi,%r15,4) movq 0x8(%r10), %rax movl (%rax), %eax movl %eax, 0x4c0(%rsi,%r15,4) movq 0x8(%r10), %rax movl 0x4(%rax), %eax movl %eax, 0x500(%rsi,%r15,4) vmovaps 0xa0(%rsp), %ymm6 vmovaps 0x80(%rsp), %ymm3 leaq 0x467002(%rip), %r12 # 0x213036c jmp 0x1cc938a vmovaps 0xa0(%rsp), %ymm6 vmovaps 0x80(%rsp), %ymm3 vmovaps %ymm23, %ymm18 vmovaps %ymm24, %ymm17 addq $0x8, %r14 cmpl %r14d, %edi jg 0x1cc8a39 jmp 0x1cc8989 xorl %r9d, %r9d vmovaps 0xa0(%rsp), %ymm6 vmovaps 0x80(%rsp), %ymm3 vmovaps 0x60(%rsp), %xmm9 vmovaps 0x140(%rsp), %ymm17 jmp 0x1cc9062 xorl %r9d, %r9d jmp 0x1cc9050 vmovaps 0x360(%rsp), %xmm0 vmovaps %xmm0, 0x1f0(%rsp) vmovaps 0x370(%rsp), %xmm0 vmovaps %xmm0, 0x1e0(%rsp) vmovaps 0x380(%rsp), %xmm0 vmovaps %xmm0, 0x490(%rsp) vmovaps %ymm20, 0x1c0(%rsp) vmovaps %ymm21, 0x1a0(%rsp) movq %r11, 0x130(%rsp) movq %r8, 0x50(%rsp) movq %r10, 0x48(%rsp) movq %rsi, 0x40(%rsp) movl %edi, 0x3c(%rsp) vmovaps %ymm28, 0x180(%rsp) vmovaps %ymm29, 0x160(%rsp) vmovss 0x200(%rsi,%r15,4), %xmm0 vmovss %xmm0, 0x200(%rsp) vmovss 0x3e0(%rsp,%r12,4), %xmm0 vbroadcastss 0x3a0(%rsp,%r12,4), %zmm1 vbroadcastss 0x3c0(%rsp,%r12,4), %zmm2 vmovss %xmm0, 0x200(%rsi,%r15,4) movq 0x8(%r10), %rax vmovss 0x22328e(%rip), %xmm0 # 0x1eec714 vsubss %xmm1, %xmm0, %xmm0 vaddss %xmm0, %xmm0, %xmm3 vmulss %xmm3, %xmm1, %xmm4 vfnmadd231ss %xmm0, %xmm0, %xmm4 # xmm4 = -(xmm0 * xmm0) + xmm4 vaddss %xmm1, %xmm1, %xmm5 vmovss 0x227b49(%rip), %xmm8 # 0x1ef0fec vmovaps %xmm8, %xmm6 vfmadd213ss 0x227b54(%rip), %xmm1, %xmm6 # xmm6 = (xmm1 * xmm6) + mem vmulss %xmm1, %xmm8, %xmm7 vmulss %xmm7, %xmm1, %xmm7 vfmadd231ss %xmm6, %xmm5, %xmm7 # xmm7 = (xmm5 * xmm6) + xmm7 vmovaps %xmm8, %xmm5 vfmadd213ss 0x227b2e(%rip), %xmm1, %xmm5 # xmm5 = (xmm1 * xmm5) + mem vmulss 0x227b1e(%rip), %xmm0, %xmm6 # 0x1ef0ff0 vmulss %xmm6, %xmm0, %xmm6 vfmadd231ss %xmm5, %xmm3, %xmm6 # xmm6 = (xmm3 * xmm5) + xmm6 vmulss 0x2274f9(%rip), %xmm0, %xmm0 # 0x1ef09dc vmulss %xmm1, %xmm1, %xmm3 vfmadd231ss %xmm0, %xmm1, %xmm3 # xmm3 = (xmm1 * xmm0) + xmm3 vmovss 0x22368c(%rip), %xmm8 # 0x1eecb80 vmulss %xmm4, %xmm8, %xmm0 vmulss %xmm7, %xmm8, %xmm4 vmulss %xmm6, %xmm8, %xmm5 vmulss %xmm3, %xmm8, %xmm3 vbroadcastss %xmm3, %xmm3 vmulps 0x490(%rsp), %xmm3, %xmm3 vbroadcastss %xmm5, %xmm5 vfmadd132ps 0x1e0(%rsp), %xmm3, %xmm5 # xmm5 = (xmm5 * mem) + xmm3 vbroadcastss %xmm4, %xmm3 vfmadd132ps 0x1f0(%rsp), %xmm5, %xmm3 # xmm3 = (xmm3 * mem) + xmm5 vbroadcastss %xmm0, %xmm0 vfmadd213ps %xmm3, %xmm9, %xmm0 # xmm0 = (xmm9 * xmm0) + xmm3 vbroadcastss %xmm0, %zmm3 vbroadcastss 0x2491ba(%rip), %zmm4 # 0x1f12704 vpermps %zmm0, %zmm4, %zmm4 vbroadcastss 0x257982(%rip), %zmm5 # 0x1f20edc vpermps %zmm0, %zmm5, %zmm0 vmovaps %zmm3, 0x740(%rsp) vmovaps %zmm4, 0x780(%rsp) vmovaps %zmm0, 0x7c0(%rsp) vmovaps %zmm1, 0x800(%rsp) vmovaps %zmm2, 0x840(%rsp) vmovaps 0x500(%rsp), %zmm0 vmovaps %zmm0, 0x880(%rsp) vmovdqa64 0x540(%rsp), %zmm0 vmovdqa64 %zmm0, 0x8c0(%rsp) movq 0x138(%rsp), %rcx vpcmpeqd %ymm0, %ymm0, %ymm0 vmovdqa %ymm0, 0x60(%rcx) vmovdqa %ymm0, 0x40(%rcx) vmovdqa %ymm0, 0x20(%rcx) vmovdqa %ymm0, (%rcx) vbroadcastss (%rax), %zmm0 vmovaps %zmm0, 0x900(%rsp) vbroadcastss 0x4(%rax), %zmm0 vmovaps %zmm0, 0x940(%rsp) vmovaps 0x700(%rsp), %zmm0 vmovaps %zmm0, 0x400(%rsp) leaq 0x400(%rsp), %rcx movq %rcx, 0xf0(%rsp) movq 0x18(%r11), %rcx movq %rcx, 0xf8(%rsp) movq %rax, 0x100(%rsp) movq %rsi, 0x108(%rsp) leaq 0x740(%rsp), %rax movq %rax, 0x110(%rsp) movl $0x10, 0x118(%rsp) movq 0x40(%r11), %rax testq %rax, %rax movl %r9d, 0x4c0(%rsp) je 0x1cc96c7 leaq 0xf0(%rsp), %rdi vzeroupper callq *%rax movq 0x130(%rsp), %r11 movl 0x4c0(%rsp), %r9d vmovaps 0x160(%rsp), %ymm29 vmovaps 0x180(%rsp), %ymm28 vmovaps 0x140(%rsp), %ymm17 vmovaps 0x240(%rsp), %ymm18 vmovaps 0x260(%rsp), %ymm22 movl 0x3c(%rsp), %edi vmovaps 0x60(%rsp), %xmm9 vmovaps 0x1a0(%rsp), %ymm21 vmovaps 0x1c0(%rsp), %ymm20 vxorps %xmm27, %xmm27, %xmm27 leaq 0x4690d4(%rip), %rdx # 0x213278c movq 0x40(%rsp), %rsi movq 0x48(%rsp), %r10 movq 0x50(%rsp), %r8 vmovdqa64 0x400(%rsp), %zmm0 vptestmd %zmm0, %zmm0, %k0 kortestw %k0, %k0 vmovaps 0xa0(%rsp), %ymm6 vmovaps 0x80(%rsp), %ymm3 je 0x1cc9846 movq 0x10(%r10), %rcx movq 0x10(%rcx), %rax testq %rax, %rax je 0x1cc979f testb $0x2, (%rcx) jne 0x1cc9712 testb $0x40, 0x3e(%r11) je 0x1cc979f leaq 0xf0(%rsp), %rdi vzeroupper callq *%rax movq 0x130(%rsp), %r11 movl 0x4c0(%rsp), %r9d vmovaps 0x160(%rsp), %ymm29 vmovaps 0x180(%rsp), %ymm28 vmovaps 0x140(%rsp), %ymm17 vmovaps 0x240(%rsp), %ymm18 vmovaps 0x260(%rsp), %ymm22 movl 0x3c(%rsp), %edi vmovaps 0x60(%rsp), %xmm9 vmovaps 0x1a0(%rsp), %ymm21 vmovaps 0x80(%rsp), %ymm3 vmovaps 0x1c0(%rsp), %ymm20 vmovaps 0xa0(%rsp), %ymm6 vxorps %xmm27, %xmm27, %xmm27 leaq 0x468ffc(%rip), %rdx # 0x213278c movq 0x40(%rsp), %rsi movq 0x48(%rsp), %r10 movq 0x50(%rsp), %r8 vmovdqa64 0x400(%rsp), %zmm0 vptestmd %zmm0, %zmm0, %k1 kortestw %k1, %k1 je 0x1cc9846 movq 0x108(%rsp), %rax movq 0x110(%rsp), %rcx vmovaps (%rcx), %zmm0 vmovups %zmm0, 0x300(%rax) {%k1} vmovaps 0x40(%rcx), %zmm0 vmovups %zmm0, 0x340(%rax) {%k1} vmovaps 0x80(%rcx), %zmm0 vmovups %zmm0, 0x380(%rax) {%k1} vmovaps 0xc0(%rcx), %zmm0 vmovups %zmm0, 0x3c0(%rax) {%k1} vmovaps 0x100(%rcx), %zmm0 vmovups %zmm0, 0x400(%rax) {%k1} vmovdqa64 0x140(%rcx), %zmm0 vmovdqu32 %zmm0, 0x440(%rax) {%k1} vmovdqa64 0x180(%rcx), %zmm0 vmovdqu32 %zmm0, 0x480(%rax) {%k1} vmovdqa64 0x1c0(%rcx), %zmm0 vmovdqa32 %zmm0, 0x4c0(%rax) {%k1} vmovdqa64 0x200(%rcx), %zmm0 vmovdqa32 %zmm0, 0x500(%rax) {%k1} jmp 0x1cc9859 vmovd 0x200(%rsp), %xmm0 vmovd %xmm0, 0x200(%rsi,%r15,4) movl $0x1, %eax shlxl %r12d, %eax, %eax kmovd %eax, %k0 movzbl %r9b, %eax kmovd %eax, %k1 kandnb %k1, %k0, %k0 vcmpleps 0x200(%rsi,%r15,4){1to8}, %ymm21, %k1 kandb %k1, %k0, %k2 kmovd %k2, %r9d ktestb %k1, %k0 je 0x1cc98da kmovd %r9d, %k1 vbroadcastss 0x222185(%rip), %ymm0 # 0x1eeba20 vblendmps %ymm21, %ymm0, %ymm0 {%k1} vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm0, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1] vminps %ymm2, %ymm1, %ymm1 vcmpeqps %ymm1, %ymm0, %k0 kmovd %k0, %eax andb %r9b, %al movzbl %al, %eax movzbl %r9b, %ecx cmovnel %eax, %ecx tzcntl %ecx, %r12d testb %r9b, %r9b jne 0x1cc943d jmp 0x1cc9363 xorl %r12d, %r12d vmovaps 0xa0(%rsp), %ymm6 vmovaps 0x80(%rsp), %ymm3 vmovaps 0x60(%rsp), %xmm9 vmovaps 0x180(%rsp), %ymm28 vmovaps 0x160(%rsp), %ymm29 vmovaps 0x220(%rsp), %xmm10 jmp 0x1cc8636 xorl %r12d, %r12d vmovaps 0xa0(%rsp), %ymm6 vmovaps 0x80(%rsp), %ymm3 vmovaps 0x60(%rsp), %xmm9 jmp 0x1cc8636 xorl %r12d, %r12d vmovaps 0xa0(%rsp), %ymm6 vmovaps 0x80(%rsp), %ymm3 jmp 0x1cc8636 movq 0x58(%rsp), %rax vpbroadcastd %eax, %zmm0 vmovdqa64 %zmm0, 0x500(%rsp) movq 0x78(%rsp), %rax vpbroadcastd %eax, %zmm0 vmovdqa64 %zmm0, 0x4c0(%rsp) vmovaps 0x360(%rsp), %xmm0 vmovaps %xmm0, 0x200(%rsp) vmovaps 0x370(%rsp), %xmm0 vmovaps %xmm0, 0x1f0(%rsp) vmovaps 0x380(%rsp), %xmm0 vmovaps %xmm0, 0x1e0(%rsp) movq %r8, 0x50(%rsp) movq %r10, 0x48(%rsp) movq %rsi, 0x40(%rsp) movl %edi, 0x3c(%rsp) vmovss 0x200(%rsi,%r15,4), %xmm0 vmovss %xmm0, 0x540(%rsp) vmovss 0x3e0(%rsp,%r9,4), %xmm0 vbroadcastss 0x3a0(%rsp,%r9,4), %zmm1 vbroadcastss 0x3c0(%rsp,%r9,4), %zmm2 vmovss %xmm0, 0x200(%rsi,%r15,4) movq 0x8(%r10), %rax vmovss 0x222d01(%rip), %xmm0 # 0x1eec714 vsubss %xmm1, %xmm0, %xmm0 vaddss %xmm0, %xmm0, %xmm3 vmulss %xmm3, %xmm1, %xmm4 vfnmadd231ss %xmm0, %xmm0, %xmm4 # xmm4 = -(xmm0 * xmm0) + xmm4 vaddss %xmm1, %xmm1, %xmm5 vmovss 0x2275bc(%rip), %xmm8 # 0x1ef0fec vmovaps %xmm8, %xmm6 vfmadd213ss 0x2275c7(%rip), %xmm1, %xmm6 # xmm6 = (xmm1 * xmm6) + mem vmulss %xmm1, %xmm8, %xmm7 vmulss %xmm7, %xmm1, %xmm7 vfmadd231ss %xmm6, %xmm5, %xmm7 # xmm7 = (xmm5 * xmm6) + xmm7 vmovaps %xmm8, %xmm5 vfmadd213ss 0x2275a1(%rip), %xmm1, %xmm5 # xmm5 = (xmm1 * xmm5) + mem vmulss 0x227591(%rip), %xmm0, %xmm6 # 0x1ef0ff0 vmulss %xmm6, %xmm0, %xmm6 vfmadd231ss %xmm5, %xmm3, %xmm6 # xmm6 = (xmm3 * xmm5) + xmm6 vmulss 0x226f6c(%rip), %xmm0, %xmm0 # 0x1ef09dc vmulss %xmm1, %xmm1, %xmm3 vfmadd231ss %xmm0, %xmm1, %xmm3 # xmm3 = (xmm1 * xmm0) + xmm3 vmovss 0x2230ff(%rip), %xmm8 # 0x1eecb80 vmulss %xmm4, %xmm8, %xmm0 vmulss %xmm7, %xmm8, %xmm4 vmulss %xmm6, %xmm8, %xmm5 vmulss %xmm3, %xmm8, %xmm3 vbroadcastss %xmm3, %xmm3 vmulps 0x1e0(%rsp), %xmm3, %xmm3 vbroadcastss %xmm5, %xmm5 vfmadd132ps 0x1f0(%rsp), %xmm3, %xmm5 # xmm5 = (xmm5 * mem) + xmm3 vbroadcastss %xmm4, %xmm3 vfmadd132ps 0x200(%rsp), %xmm5, %xmm3 # xmm3 = (xmm3 * mem) + xmm5 vbroadcastss %xmm0, %xmm0 vfmadd213ps %xmm3, %xmm9, %xmm0 # xmm0 = (xmm9 * xmm0) + xmm3 vbroadcastss %xmm0, %zmm3 vbroadcastss 0x248c2d(%rip), %zmm4 # 0x1f12704 vpermps %zmm0, %zmm4, %zmm4 vbroadcastss 0x2573f5(%rip), %zmm5 # 0x1f20edc vpermps %zmm0, %zmm5, %zmm0 vmovaps %zmm3, 0x740(%rsp) vmovaps %zmm4, 0x780(%rsp) vmovaps %zmm0, 0x7c0(%rsp) vmovaps %zmm1, 0x800(%rsp) vmovaps %zmm2, 0x840(%rsp) vmovaps 0x4c0(%rsp), %zmm0 vmovaps %zmm0, 0x880(%rsp) vmovdqa64 0x500(%rsp), %zmm0 vmovdqa64 %zmm0, 0x8c0(%rsp) movq 0x138(%rsp), %rcx vpcmpeqd %ymm0, %ymm0, %ymm0 vmovdqa %ymm0, 0x60(%rcx) vmovdqa %ymm0, 0x40(%rcx) vmovdqa %ymm0, 0x20(%rcx) vmovdqa %ymm0, (%rcx) vbroadcastss (%rax), %zmm0 vmovaps %zmm0, 0x900(%rsp) vbroadcastss 0x4(%rax), %zmm0 vmovaps %zmm0, 0x940(%rsp) vmovaps 0x700(%rsp), %zmm0 vmovaps %zmm0, 0x400(%rsp) leaq 0x400(%rsp), %rcx movq %rcx, 0xf0(%rsp) movq 0x18(%r14), %rcx movq %rcx, 0xf8(%rsp) movq %rax, 0x100(%rsp) movq %rsi, 0x108(%rsp) leaq 0x740(%rsp), %rax movq %rax, 0x110(%rsp) movl $0x10, 0x118(%rsp) movq 0x40(%r14), %rax testq %rax, %rax movq %r9, 0x2a0(%rsp) je 0x1cc9c61 leaq 0xf0(%rsp), %rdi vzeroupper callq *%rax movq 0x2a0(%rsp), %r9 vmovaps 0x220(%rsp), %xmm10 vmovaps 0x280(%rsp), %xmm26 vmovaps 0x160(%rsp), %ymm29 vmovaps 0x180(%rsp), %ymm28 vmovaps 0x140(%rsp), %ymm17 vmovaps 0x240(%rsp), %ymm18 vmovaps 0x260(%rsp), %ymm22 movl 0x3c(%rsp), %edi vmovaps 0x60(%rsp), %xmm9 vmovaps 0x1a0(%rsp), %ymm21 vmovaps 0x1c0(%rsp), %ymm20 vxorps %xmm27, %xmm27, %xmm27 leaq 0x468b3a(%rip), %rdx # 0x213278c movq 0x40(%rsp), %rsi movq 0x48(%rsp), %r10 movq 0x50(%rsp), %r8 vmovdqa64 0x400(%rsp), %zmm0 vptestmd %zmm0, %zmm0, %k0 kortestw %k0, %k0 vmovaps 0xa0(%rsp), %ymm6 vmovaps 0x80(%rsp), %ymm3 je 0x1cc9de9 movq 0x10(%r10), %rcx movq 0x10(%rcx), %rax testq %rax, %rax je 0x1cc9d42 testb $0x2, (%rcx) jne 0x1cc9cac testb $0x40, 0x3e(%r14) je 0x1cc9d42 leaq 0xf0(%rsp), %rdi vzeroupper callq *%rax movq 0x2a0(%rsp), %r9 vmovaps 0x220(%rsp), %xmm10 vmovaps 0x280(%rsp), %xmm26 vmovaps 0x160(%rsp), %ymm29 vmovaps 0x180(%rsp), %ymm28 vmovaps 0x140(%rsp), %ymm17 vmovaps 0x240(%rsp), %ymm18 vmovaps 0x260(%rsp), %ymm22 movl 0x3c(%rsp), %edi vmovaps 0x60(%rsp), %xmm9 vmovaps 0x1a0(%rsp), %ymm21 vmovaps 0x80(%rsp), %ymm3 vmovaps 0x1c0(%rsp), %ymm20 vmovaps 0xa0(%rsp), %ymm6 vxorps %xmm27, %xmm27, %xmm27 leaq 0x468a59(%rip), %rdx # 0x213278c movq 0x40(%rsp), %rsi movq 0x48(%rsp), %r10 movq 0x50(%rsp), %r8 vmovdqa64 0x400(%rsp), %zmm0 vptestmd %zmm0, %zmm0, %k1 kortestw %k1, %k1 je 0x1cc9de9 movq 0x108(%rsp), %rax movq 0x110(%rsp), %rcx vmovaps (%rcx), %zmm0 vmovups %zmm0, 0x300(%rax) {%k1} vmovaps 0x40(%rcx), %zmm0 vmovups %zmm0, 0x340(%rax) {%k1} vmovaps 0x80(%rcx), %zmm0 vmovups %zmm0, 0x380(%rax) {%k1} vmovaps 0xc0(%rcx), %zmm0 vmovups %zmm0, 0x3c0(%rax) {%k1} vmovaps 0x100(%rcx), %zmm0 vmovups %zmm0, 0x400(%rax) {%k1} vmovdqa64 0x140(%rcx), %zmm0 vmovdqu32 %zmm0, 0x440(%rax) {%k1} vmovdqa64 0x180(%rcx), %zmm0 vmovdqu32 %zmm0, 0x480(%rax) {%k1} vmovdqa64 0x1c0(%rcx), %zmm0 vmovdqa32 %zmm0, 0x4c0(%rax) {%k1} vmovdqa64 0x200(%rcx), %zmm0 vmovdqa32 %zmm0, 0x500(%rax) {%k1} jmp 0x1cc9dfc vmovd 0x540(%rsp), %xmm0 vmovd %xmm0, 0x200(%rsi,%r15,4) movl $0x1, %eax shlxl %r9d, %eax, %eax kmovd %eax, %k0 movzbl %r12b, %eax kmovd %eax, %k1 kandnb %k1, %k0, %k0 vcmpleps 0x200(%rsi,%r15,4){1to8}, %ymm3, %k1 kandb %k1, %k0, %k2 kmovd %k2, %r12d ktestb %k1, %k0 je 0x1cc9e7d kmovd %r12d, %k1 vbroadcastss 0x221be2(%rip), %ymm0 # 0x1eeba20 vblendmps %ymm3, %ymm0, %ymm0 {%k1} vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm0, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1] vminps %ymm2, %ymm1, %ymm1 vcmpeqps %ymm1, %ymm0, %k0 kmovd %k0, %eax andb %r12b, %al movzbl %al, %eax movzbl %r12b, %ecx cmovnel %eax, %ecx tzcntl %ecx, %r9d testb %r12b, %r12b jne 0x1cc99ca jmp 0x1cc893b leaq -0x28(%rbp), %rsp popq %rbx popq %r12 popq %r13 popq %r14 popq %r15 popq %rbp vzeroupper retq nop
/embree[P]embree/kernels/geometry/curveNi_intersector.h
void embree::avx512::CurveNiIntersector1<8>::intersect_n<embree::avx512::OrientedCurve1Intersector1<embree::CatmullRomCurveT, 7, 8>, embree::avx512::Intersect1Epilog1<true>>(embree::avx512::CurvePrecalculations1 const&, embree::RayHitK<1>&, embree::RayQueryContext*, embree::CurveNi<8> const&)
static __forceinline void intersect_n(const Precalculations& pre, RayHit& ray, RayQueryContext* context, const Primitive& prim) { vfloat<M> tNear; vbool<M> valid = intersect(ray,prim,tNear); const size_t N = prim.N; size_t mask = movemask(valid); while (mask) { const size_t i = bscf(mask); STAT3(normal.trav_prims,1,1,1); const unsigned int geomID = prim.geomID(N); const unsigned int primID = prim.primID(N)[i]; const CurveGeometry* geom = context->scene->get<CurveGeometry>(geomID); unsigned int vertexID = geom->curve(primID); Vec3ff a0,a1,a2,a3; Vec3fa n0,n1,n2,n3; geom->gather(a0,a1,a2,a3,n0,n1,n2,n3,vertexID); size_t mask1 = mask; const size_t i1 = bscf(mask1); if (mask) { const unsigned int primID1 = prim.primID(N)[i1]; geom->prefetchL1_vertices(geom->curve(primID1)); if (mask1) { const size_t i2 = bsf(mask1); const unsigned int primID2 = prim.primID(N)[i2]; geom->prefetchL2_vertices(geom->curve(primID2)); } } Intersector().intersect(pre,ray,context,geom,primID,a0,a1,a2,a3,n0,n1,n2,n3,Epilog(ray,context,geomID,primID)); mask &= movemask(tNear <= vfloat<M>(ray.tfar)); } }
pushq %rbp pushq %r15 pushq %r14 pushq %r13 pushq %r12 pushq %rbx subq $0x348, %rsp # imm = 0x348 movq %rcx, %r13 movzbl 0x1(%rcx), %ecx leaq (%rcx,%rcx,4), %rax leaq (%rax,%rax,4), %r8 vbroadcastss 0x12(%r13,%r8), %xmm0 movq %rdx, %r9 movq %rsi, %r10 vmovaps (%rsi), %xmm1 vsubps 0x6(%r13,%r8), %xmm1, %xmm1 vmulps %xmm1, %xmm0, %xmm3 vmulps 0x10(%rsi), %xmm0, %xmm0 vpmovsxbd 0x6(%r13,%rcx,4), %ymm1 vpmovsxbd 0x6(%r13,%rax), %ymm2 vcvtdq2ps %ymm1, %ymm5 vcvtdq2ps %ymm2, %ymm6 leaq (%rcx,%rcx,2), %rdx vpmovsxbd 0x6(%r13,%rdx,2), %ymm1 vcvtdq2ps %ymm1, %ymm4 leaq (%rcx,%rax,2), %rsi vpmovsxbd 0x6(%r13,%rsi), %ymm1 leal (,%rdx,4), %esi vpmovsxbd 0x6(%r13,%rsi), %ymm2 vcvtdq2ps %ymm1, %ymm7 vcvtdq2ps %ymm2, %ymm8 addq %rcx, %rsi vpmovsxbd 0x6(%r13,%rsi), %ymm1 vcvtdq2ps %ymm1, %ymm9 leaq (%rcx,%rcx,8), %rsi leal (%rsi,%rsi), %r8d vpmovsxbd 0x6(%r13,%r8), %ymm1 vcvtdq2ps %ymm1, %ymm10 addq %rcx, %r8 vpmovsxbd 0x6(%r13,%r8), %ymm1 vcvtdq2ps %ymm1, %ymm11 shll $0x2, %eax vpmovsxbd 0x6(%r13,%rax), %ymm1 vcvtdq2ps %ymm1, %ymm12 vbroadcastss %xmm0, %ymm13 vbroadcastss 0x246732(%rip), %ymm15 # 0x1f12704 vbroadcastss 0x254f00(%rip), %ymm16 # 0x1f20edc vpermps %ymm0, %ymm15, %ymm14 vpermps %ymm0, %ymm16, %ymm0 vmulps %ymm4, %ymm0, %ymm2 vmulps %ymm0, %ymm9, %ymm1 vmulps %ymm0, %ymm12, %ymm0 vfmadd231ps %ymm6, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm6) + ymm2 vfmadd231ps %ymm8, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm8) + ymm1 vfmadd231ps %ymm14, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm14) + ymm0 vfmadd231ps %ymm5, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm5) + ymm2 vfmadd231ps %ymm7, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm7) + ymm1 vfmadd231ps %ymm13, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm13) + ymm0 vbroadcastss %xmm3, %ymm13 vpermps %ymm3, %ymm15, %ymm14 vpermps %ymm3, %ymm16, %ymm3 vmulps %ymm4, %ymm3, %ymm15 vmulps %ymm3, %ymm9, %ymm4 vmulps %ymm3, %ymm12, %ymm3 vfmadd231ps %ymm6, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm6) + ymm15 vfmadd231ps %ymm8, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm8) + ymm4 vfmadd231ps %ymm11, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm11) + ymm3 vfmadd231ps %ymm5, %ymm13, %ymm15 # ymm15 = (ymm13 * ymm5) + ymm15 vfmadd231ps %ymm7, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm7) + ymm4 vbroadcastss 0x254e75(%rip), %ymm5 # 0x1f20ec4 vfmadd231ps %ymm10, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm10) + ymm3 vandps %ymm5, %ymm2, %ymm6 vbroadcastss 0x224f87(%rip), %ymm7 # 0x1ef0fe8 vcmpltps %ymm7, %ymm6, %k1 vmovaps %ymm7, %ymm2 {%k1} vandps %ymm5, %ymm1, %ymm6 vcmpltps %ymm7, %ymm6, %k1 vmovaps %ymm7, %ymm1 {%k1} vandps %ymm5, %ymm0, %ymm5 vcmpltps %ymm7, %ymm5, %k1 vmovaps %ymm7, %ymm0 {%k1} vrcp14ps %ymm2, %ymm5 vbroadcastss 0x220675(%rip), %ymm6 # 0x1eec714 vfnmadd213ps %ymm6, %ymm5, %ymm2 # ymm2 = -(ymm5 * ymm2) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm2 # ymm2 = (ymm2 * ymm5) + ymm5 vrcp14ps %ymm1, %ymm5 vfnmadd213ps %ymm6, %ymm5, %ymm1 # ymm1 = -(ymm5 * ymm1) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm1 # ymm1 = (ymm1 * ymm5) + ymm5 vrcp14ps %ymm0, %ymm5 vfnmadd213ps %ymm6, %ymm5, %ymm0 # ymm0 = -(ymm5 * ymm0) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm0 # ymm0 = (ymm0 * ymm5) + ymm5 leaq (,%rcx,8), %r8 subq %rcx, %r8 vpmovsxwd 0x6(%r13,%r8), %ymm5 vcvtdq2ps %ymm5, %ymm5 vsubps %ymm15, %ymm5, %ymm5 vmulps %ymm5, %ymm2, %ymm5 vpmovsxwd 0x6(%r13,%rsi), %ymm6 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm15, %ymm6, %ymm6 leaq (%rcx,%rcx), %rsi addq %rcx, %rax shlq $0x3, %rdx subq %rcx, %rdx vpbroadcastd %ecx, %ymm7 shll $0x4, %ecx vpmovsxwd 0x6(%r13,%rcx), %ymm8 vmulps %ymm6, %ymm2, %ymm2 subq %rsi, %rcx vpmovsxwd 0x6(%r13,%rcx), %ymm6 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm4, %ymm6, %ymm6 vmulps %ymm6, %ymm1, %ymm6 vcvtdq2ps %ymm8, %ymm8 vsubps %ymm4, %ymm8, %ymm4 vmulps %ymm4, %ymm1, %ymm1 vpmovsxwd 0x6(%r13,%rax), %ymm4 vcvtdq2ps %ymm4, %ymm4 vsubps %ymm3, %ymm4, %ymm4 vmulps %ymm0, %ymm4, %ymm4 vpmovsxwd 0x6(%r13,%rdx), %ymm8 vcvtdq2ps %ymm8, %ymm8 vsubps %ymm3, %ymm8, %ymm3 vmulps %ymm3, %ymm0, %ymm0 vpminsd %ymm2, %ymm5, %ymm3 vpminsd %ymm1, %ymm6, %ymm8 vmaxps %ymm8, %ymm3, %ymm3 vpminsd %ymm0, %ymm4, %ymm8 vmaxps 0xc(%r10){1to8}, %ymm8, %ymm8 vmaxps %ymm8, %ymm3, %ymm3 vmulps 0x253d82(%rip){1to8}, %ymm3, %ymm3 # 0x1f1ff10 vpmaxsd %ymm2, %ymm5, %ymm2 vpmaxsd %ymm1, %ymm6, %ymm1 vminps %ymm1, %ymm2, %ymm1 vpmaxsd %ymm0, %ymm4, %ymm0 vminps 0x20(%r10){1to8}, %ymm0, %ymm0 vminps %ymm0, %ymm1, %ymm0 vmulps 0x253d5e(%rip){1to8}, %ymm0, %ymm0 # 0x1f1ff14 vpcmpgtd 0x28e760(%rip), %ymm7, %k0 # 0x1f5a920 vmovups %ymm3, 0x2c0(%rsp) vcmpleps %ymm0, %ymm3, %k1 ktestb %k0, %k1 je 0x1ccde24 movq %rdi, %r15 kandb %k0, %k1, %k0 kmovd %k0, %eax movzbl %al, %ebp vbroadcastss 0x254cce(%rip), %xmm30 # 0x1f20ec0 vbroadcastss 0x220984(%rip), %xmm31 # 0x1eecb80 vbroadcastss 0x254cbe(%rip), %xmm17 # 0x1f20ec4 movq %r9, 0x28(%rsp) movq %r10, 0x20(%rsp) tzcntq %rbp, %rax movl 0x2(%r13), %ecx movl 0x6(%r13,%rax,4), %r8d movq (%r9), %rax movq 0x1e8(%rax), %rax movq %rcx, 0x30(%rsp) movq (%rax,%rcx,8), %rsi movq 0x58(%rsi), %rax movq 0x68(%rsi), %rcx movq %rcx, %rdx movq %r8, 0x58(%rsp) imulq %r8, %rdx movl (%rax,%rdx), %r9d movq 0xa0(%rsi), %rdx movq %rdx, %r12 imulq %r9, %r12 leaq 0x1(%r9), %r11 leaq 0x2(%r9), %r10 leaq 0x3(%r9), %r8 movq 0xd8(%rsi), %rbx imulq %rbx, %r9 movq 0xc8(%rsi), %r14 vmovups (%r14,%r9), %xmm4 movq %rdx, %r9 imulq %r11, %r9 imulq %rbx, %r11 vmovups (%r14,%r11), %xmm5 movq %rdx, %r11 imulq %r10, %r11 imulq %rbx, %r10 vmovups (%r14,%r10), %xmm6 imulq %r8, %rbx vmovups (%r14,%rbx), %xmm7 movq %rdx, %r10 imulq %r8, %r10 movq 0x90(%rsi), %rsi vmovaps (%rsi,%r12), %xmm8 vmovaps (%rsi,%r9), %xmm9 vmovaps (%rsi,%r11), %xmm10 blsrq %rbp, %rbp vmovaps (%rsi,%r10), %xmm3 movq %rbp, %r9 subq $0x1, %r9 jb 0x1ccc322 andq %rbp, %r9 tzcntq %rbp, %r8 movl 0x6(%r13,%r8,4), %r8d imulq %rcx, %r8 movl (%rax,%r8), %r8d imulq %rdx, %r8 prefetcht0 (%rsi,%r8) prefetcht0 0x40(%rsi,%r8) testq %r9, %r9 je 0x1ccc322 tzcntq %r9, %r8 movl 0x6(%r13,%r8,4), %r8d imulq %r8, %rcx movl (%rax,%rcx), %eax imulq %rax, %rdx prefetcht1 (%rsi,%rdx) prefetcht1 0x40(%rsi,%rdx) vmulps %xmm30, %xmm3, %xmm2 vxorps %xmm0, %xmm0, %xmm0 vfmadd213ps %xmm2, %xmm10, %xmm0 # xmm0 = (xmm10 * xmm0) + xmm2 vaddps %xmm0, %xmm9, %xmm0 vfmadd231ps %xmm30, %xmm8, %xmm0 # xmm0 = (xmm8 * xmm30) + xmm0 vxorps %xmm18, %xmm18, %xmm18 vmulps %xmm18, %xmm3, %xmm1 vfmadd231ps %xmm31, %xmm10, %xmm1 # xmm1 = (xmm10 * xmm31) + xmm1 vfmadd231ps %xmm18, %xmm9, %xmm1 # xmm1 = (xmm9 * xmm18) + xmm1 vfnmadd231ps %xmm31, %xmm8, %xmm1 # xmm1 = -(xmm8 * xmm31) + xmm1 vmulps %xmm30, %xmm7, %xmm11 vxorps %xmm12, %xmm12, %xmm12 vfmadd213ps %xmm11, %xmm6, %xmm12 # xmm12 = (xmm6 * xmm12) + xmm11 vaddps %xmm5, %xmm12, %xmm12 vfmadd231ps %xmm30, %xmm4, %xmm12 # xmm12 = (xmm4 * xmm30) + xmm12 vmulps %xmm18, %xmm7, %xmm13 vfmadd231ps %xmm31, %xmm6, %xmm13 # xmm13 = (xmm6 * xmm31) + xmm13 vfmadd231ps %xmm18, %xmm5, %xmm13 # xmm13 = (xmm5 * xmm18) + xmm13 vfnmadd231ps %xmm31, %xmm4, %xmm13 # xmm13 = -(xmm4 * xmm31) + xmm13 vaddps %xmm2, %xmm10, %xmm2 vfmadd231ps %xmm18, %xmm9, %xmm2 # xmm2 = (xmm9 * xmm18) + xmm2 vfmadd231ps %xmm30, %xmm8, %xmm2 # xmm2 = (xmm8 * xmm30) + xmm2 vmulps %xmm31, %xmm3, %xmm3 vfmadd231ps %xmm10, %xmm18, %xmm3 # xmm3 = (xmm18 * xmm10) + xmm3 vfnmadd231ps %xmm9, %xmm31, %xmm3 # xmm3 = -(xmm31 * xmm9) + xmm3 vfmadd231ps %xmm8, %xmm18, %xmm3 # xmm3 = (xmm18 * xmm8) + xmm3 vaddps %xmm6, %xmm11, %xmm8 vfmadd231ps %xmm18, %xmm5, %xmm8 # xmm8 = (xmm5 * xmm18) + xmm8 vfmadd231ps %xmm30, %xmm4, %xmm8 # xmm8 = (xmm4 * xmm30) + xmm8 vmulps %xmm31, %xmm7, %xmm7 vfmadd231ps %xmm6, %xmm18, %xmm7 # xmm7 = (xmm18 * xmm6) + xmm7 vfnmadd231ps %xmm5, %xmm31, %xmm7 # xmm7 = -(xmm31 * xmm5) + xmm7 vfmadd231ps %xmm4, %xmm18, %xmm7 # xmm7 = (xmm18 * xmm4) + xmm7 vshufps $0xc9, %xmm1, %xmm1, %xmm4 # xmm4 = xmm1[1,2,0,3] vshufps $0xc9, %xmm12, %xmm12, %xmm5 # xmm5 = xmm12[1,2,0,3] vmulps %xmm5, %xmm1, %xmm5 vfmsub231ps %xmm12, %xmm4, %xmm5 # xmm5 = (xmm4 * xmm12) - xmm5 vshufps $0xc9, %xmm5, %xmm5, %xmm6 # xmm6 = xmm5[1,2,0,3] vshufps $0xc9, %xmm13, %xmm13, %xmm5 # xmm5 = xmm13[1,2,0,3] vmulps %xmm5, %xmm1, %xmm5 vfmsub231ps %xmm13, %xmm4, %xmm5 # xmm5 = (xmm4 * xmm13) - xmm5 vshufps $0xc9, %xmm5, %xmm5, %xmm9 # xmm9 = xmm5[1,2,0,3] vshufps $0xc9, %xmm3, %xmm3, %xmm5 # xmm5 = xmm3[1,2,0,3] vshufps $0xc9, %xmm8, %xmm8, %xmm4 # xmm4 = xmm8[1,2,0,3] vmulps %xmm4, %xmm3, %xmm4 vfmsub231ps %xmm8, %xmm5, %xmm4 # xmm4 = (xmm5 * xmm8) - xmm4 vshufps $0xc9, %xmm4, %xmm4, %xmm4 # xmm4 = xmm4[1,2,0,3] vshufps $0xc9, %xmm7, %xmm7, %xmm8 # xmm8 = xmm7[1,2,0,3] vmulps %xmm3, %xmm8, %xmm8 vfmsub231ps %xmm7, %xmm5, %xmm8 # xmm8 = (xmm5 * xmm7) - xmm8 vdpps $0x7f, %xmm6, %xmm6, %xmm7 vshufps $0xc9, %xmm8, %xmm8, %xmm5 # xmm5 = xmm8[1,2,0,3] vmovss %xmm7, %xmm18, %xmm8 # xmm8 = xmm7[0],xmm18[1,2,3] vrsqrt14ss %xmm8, %xmm18, %xmm10 vmovss 0x2202c9(%rip), %xmm14 # 0x1eec718 vmulss %xmm14, %xmm10, %xmm11 vmovss 0x2202c0(%rip), %xmm15 # 0x1eec71c vmulss %xmm7, %xmm15, %xmm12 vmulss %xmm10, %xmm12, %xmm12 vmulss %xmm10, %xmm10, %xmm10 vmulss %xmm10, %xmm12, %xmm10 vdpps $0x7f, %xmm9, %xmm6, %xmm12 vaddss %xmm10, %xmm11, %xmm10 vbroadcastss %xmm10, %xmm10 vmulps %xmm6, %xmm10, %xmm11 vbroadcastss %xmm7, %xmm13 vmulps %xmm13, %xmm9, %xmm9 vbroadcastss %xmm12, %xmm12 vmulps %xmm6, %xmm12, %xmm6 vsubps %xmm6, %xmm9, %xmm6 vrcp14ss %xmm8, %xmm18, %xmm8 vmovss 0x224b4e(%rip), %xmm16 # 0x1ef0ff8 vfnmadd213ss %xmm16, %xmm8, %xmm7 # xmm7 = -(xmm8 * xmm7) + xmm16 vmulss %xmm7, %xmm8, %xmm7 vbroadcastss %xmm7, %xmm7 vmulps %xmm7, %xmm6, %xmm6 vmulps %xmm6, %xmm10, %xmm6 vdpps $0x7f, %xmm4, %xmm4, %xmm7 vmovss %xmm7, %xmm18, %xmm8 # xmm8 = xmm7[0],xmm18[1,2,3] vrsqrt14ss %xmm8, %xmm18, %xmm9 vmulss %xmm14, %xmm9, %xmm10 vmulss %xmm7, %xmm15, %xmm12 vmulss %xmm9, %xmm12, %xmm12 vmulss %xmm9, %xmm9, %xmm9 vmulss %xmm9, %xmm12, %xmm9 vaddss %xmm9, %xmm10, %xmm9 vdpps $0x7f, %xmm5, %xmm4, %xmm10 vbroadcastss %xmm9, %xmm9 vmulps %xmm4, %xmm9, %xmm12 vbroadcastss %xmm7, %xmm13 vmulps %xmm5, %xmm13, %xmm5 vbroadcastss %xmm10, %xmm10 vmulps %xmm4, %xmm10, %xmm4 vsubps %xmm4, %xmm5, %xmm4 vrcp14ss %xmm8, %xmm18, %xmm5 vfnmadd213ss %xmm16, %xmm5, %xmm7 # xmm7 = -(xmm5 * xmm7) + xmm16 vmulss %xmm7, %xmm5, %xmm5 vbroadcastss %xmm5, %xmm5 vmulps %xmm5, %xmm4, %xmm4 vmulps %xmm4, %xmm9, %xmm4 vshufps $0xff, %xmm0, %xmm0, %xmm5 # xmm5 = xmm0[3,3,3,3] vmulps %xmm5, %xmm11, %xmm7 vsubps %xmm7, %xmm0, %xmm13 vshufps $0xff, %xmm1, %xmm1, %xmm8 # xmm8 = xmm1[3,3,3,3] vmulps %xmm11, %xmm8, %xmm8 vmulps %xmm6, %xmm5, %xmm5 vaddps %xmm5, %xmm8, %xmm5 vsubps %xmm5, %xmm1, %xmm6 vaddps %xmm7, %xmm0, %xmm14 vaddps %xmm5, %xmm1, %xmm0 vshufps $0xff, %xmm2, %xmm2, %xmm1 # xmm1 = xmm2[3,3,3,3] vmulps %xmm1, %xmm12, %xmm5 vsubps %xmm5, %xmm2, %xmm15 vshufps $0xff, %xmm3, %xmm3, %xmm7 # xmm7 = xmm3[3,3,3,3] vmulps %xmm7, %xmm12, %xmm7 vmulps %xmm4, %xmm1, %xmm1 vaddps %xmm1, %xmm7, %xmm1 vsubps %xmm1, %xmm3, %xmm4 vaddps %xmm5, %xmm2, %xmm16 vaddps %xmm1, %xmm3, %xmm1 vbroadcastss 0x22592a(%rip), %xmm3 # 0x1ef1ebc vmulps %xmm3, %xmm6, %xmm2 vaddps %xmm2, %xmm13, %xmm18 vmulps %xmm3, %xmm4, %xmm2 vsubps %xmm2, %xmm15, %xmm19 vmulps %xmm3, %xmm0, %xmm0 vaddps %xmm0, %xmm14, %xmm20 vmulps %xmm3, %xmm1, %xmm0 movq 0x20(%rsp), %r10 vmovaps (%r10), %xmm4 vsubps %xmm0, %xmm16, %xmm21 vsubps %xmm4, %xmm13, %xmm0 vbroadcastss %xmm0, %xmm1 vshufps $0x55, %xmm0, %xmm0, %xmm2 # xmm2 = xmm0[1,1,1,1] vmovaps 0x10(%r15), %xmm3 vshufps $0xaa, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[2,2,2,2] vmovaps 0x20(%r15), %xmm5 vmovaps 0x30(%r15), %xmm6 vmulps %xmm0, %xmm6, %xmm0 vfmadd231ps %xmm2, %xmm5, %xmm0 # xmm0 = (xmm5 * xmm2) + xmm0 vfmadd231ps %xmm1, %xmm3, %xmm0 # xmm0 = (xmm3 * xmm1) + xmm0 vsubps %xmm4, %xmm18, %xmm1 vbroadcastss %xmm1, %xmm2 vshufps $0x55, %xmm1, %xmm1, %xmm7 # xmm7 = xmm1[1,1,1,1] vshufps $0xaa, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,2,2,2] vmulps %xmm1, %xmm6, %xmm1 vfmadd231ps %xmm7, %xmm5, %xmm1 # xmm1 = (xmm5 * xmm7) + xmm1 vfmadd231ps %xmm2, %xmm3, %xmm1 # xmm1 = (xmm3 * xmm2) + xmm1 vsubps %xmm4, %xmm19, %xmm2 vbroadcastss %xmm2, %xmm7 vshufps $0x55, %xmm2, %xmm2, %xmm8 # xmm8 = xmm2[1,1,1,1] vshufps $0xaa, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[2,2,2,2] vmulps %xmm2, %xmm6, %xmm2 vfmadd231ps %xmm8, %xmm5, %xmm2 # xmm2 = (xmm5 * xmm8) + xmm2 vfmadd231ps %xmm7, %xmm3, %xmm2 # xmm2 = (xmm3 * xmm7) + xmm2 vsubps %xmm4, %xmm15, %xmm7 vbroadcastss %xmm7, %xmm8 vshufps $0x55, %xmm7, %xmm7, %xmm9 # xmm9 = xmm7[1,1,1,1] vshufps $0xaa, %xmm7, %xmm7, %xmm7 # xmm7 = xmm7[2,2,2,2] vmulps %xmm7, %xmm6, %xmm7 vfmadd231ps %xmm9, %xmm5, %xmm7 # xmm7 = (xmm5 * xmm9) + xmm7 vfmadd231ps %xmm8, %xmm3, %xmm7 # xmm7 = (xmm3 * xmm8) + xmm7 vsubps %xmm4, %xmm14, %xmm8 vbroadcastss %xmm8, %xmm9 vshufps $0x55, %xmm8, %xmm8, %xmm10 # xmm10 = xmm8[1,1,1,1] vshufps $0xaa, %xmm8, %xmm8, %xmm8 # xmm8 = xmm8[2,2,2,2] vmulps %xmm6, %xmm8, %xmm8 vfmadd231ps %xmm10, %xmm5, %xmm8 # xmm8 = (xmm5 * xmm10) + xmm8 vfmadd231ps %xmm9, %xmm3, %xmm8 # xmm8 = (xmm3 * xmm9) + xmm8 vsubps %xmm4, %xmm20, %xmm9 vbroadcastss %xmm9, %xmm10 vshufps $0x55, %xmm9, %xmm9, %xmm11 # xmm11 = xmm9[1,1,1,1] vshufps $0xaa, %xmm9, %xmm9, %xmm9 # xmm9 = xmm9[2,2,2,2] vmulps %xmm6, %xmm9, %xmm9 vfmadd231ps %xmm11, %xmm5, %xmm9 # xmm9 = (xmm5 * xmm11) + xmm9 vfmadd231ps %xmm10, %xmm3, %xmm9 # xmm9 = (xmm3 * xmm10) + xmm9 vsubps %xmm4, %xmm21, %xmm10 vbroadcastss %xmm10, %xmm11 vshufps $0x55, %xmm10, %xmm10, %xmm12 # xmm12 = xmm10[1,1,1,1] vshufps $0xaa, %xmm10, %xmm10, %xmm10 # xmm10 = xmm10[2,2,2,2] vmulps %xmm6, %xmm10, %xmm10 vfmadd231ps %xmm12, %xmm5, %xmm10 # xmm10 = (xmm5 * xmm12) + xmm10 vfmadd231ps %xmm11, %xmm3, %xmm10 # xmm10 = (xmm3 * xmm11) + xmm10 vsubps %xmm4, %xmm16, %xmm4 vbroadcastss %xmm4, %xmm11 vshufps $0x55, %xmm4, %xmm4, %xmm12 # xmm12 = xmm4[1,1,1,1] vshufps $0xaa, %xmm4, %xmm4, %xmm4 # xmm4 = xmm4[2,2,2,2] vmulps %xmm4, %xmm6, %xmm4 vfmadd231ps %xmm12, %xmm5, %xmm4 # xmm4 = (xmm5 * xmm12) + xmm4 vfmadd231ps %xmm11, %xmm3, %xmm4 # xmm4 = (xmm3 * xmm11) + xmm4 vmovlhps %xmm8, %xmm0, %xmm29 # xmm29 = xmm0[0],xmm8[0] vmovlhps %xmm9, %xmm1, %xmm12 # xmm12 = xmm1[0],xmm9[0] vmovlhps %xmm10, %xmm2, %xmm22 # xmm22 = xmm2[0],xmm10[0] vmovlhps %xmm4, %xmm7, %xmm23 # xmm23 = xmm7[0],xmm4[0] vminps %xmm12, %xmm29, %xmm3 vmaxps %xmm12, %xmm29, %xmm5 vminps %xmm23, %xmm22, %xmm6 vminps %xmm6, %xmm3, %xmm3 vmaxps %xmm23, %xmm22, %xmm6 vmaxps %xmm6, %xmm5, %xmm5 vshufpd $0x3, %xmm3, %xmm3, %xmm6 # xmm6 = xmm3[1,1] vshufpd $0x3, %xmm5, %xmm5, %xmm11 # xmm11 = xmm5[1,1] vminps %xmm6, %xmm3, %xmm3 vmaxps %xmm11, %xmm5, %xmm5 vandps %xmm17, %xmm3, %xmm3 vandps %xmm17, %xmm5, %xmm5 vmaxps %xmm5, %xmm3, %xmm3 vmovshdup %xmm3, %xmm5 # xmm5 = xmm3[1,1,3,3] vmaxss %xmm3, %xmm5, %xmm3 vmulss 0x225760(%rip), %xmm3, %xmm3 # 0x1ef1eb8 vmovddup %xmm0, %xmm6 # xmm6 = xmm0[0,0] vmovddup %xmm1, %xmm11 # xmm11 = xmm1[0,0] vmovddup %xmm2, %xmm17 # xmm17 = xmm2[0,0] vmovddup %xmm7, %xmm7 # xmm7 = xmm7[0,0] vmovddup %xmm8, %xmm5 # xmm5 = xmm8[0,0] vmovddup %xmm9, %xmm8 # xmm8 = xmm9[0,0] vmovddup %xmm10, %xmm9 # xmm9 = xmm10[0,0] vmovddup %xmm4, %xmm10 # xmm10 = xmm4[0,0] vmovaps %xmm3, 0x170(%rsp) vbroadcastss %xmm3, %ymm28 vxorps %xmm30, %xmm28, %xmm0 vbroadcastss %xmm0, %ymm26 vsubps %xmm29, %xmm12, %xmm0 vmovaps %xmm0, 0x70(%rsp) vmovaps %xmm12, 0xa0(%rsp) vsubps %xmm12, %xmm22, %xmm0 vmovaps %xmm0, 0x60(%rsp) vmovaps %xmm22, 0x90(%rsp) vmovaps %xmm23, 0x180(%rsp) vsubps %xmm22, %xmm23, %xmm0 vmovaps %xmm0, 0x290(%rsp) vmovaps %xmm13, 0x160(%rsp) vmovaps %xmm14, 0x150(%rsp) vsubps %xmm13, %xmm14, %xmm0 vmovaps %xmm0, 0x280(%rsp) vmovaps %xmm18, 0x120(%rsp) vmovaps %xmm20, 0x100(%rsp) vsubps %xmm18, %xmm20, %xmm0 vmovaps %xmm0, 0x270(%rsp) vmovaps %xmm19, 0x110(%rsp) vmovaps %xmm21, 0xf0(%rsp) vsubps %xmm19, %xmm21, %xmm0 vmovaps %xmm0, 0x260(%rsp) vmovaps %xmm15, 0x140(%rsp) vmovaps %xmm16, 0x130(%rsp) vsubps %xmm15, %xmm16, %xmm0 vmovaps %xmm0, 0x250(%rsp) xorl %ebx, %ebx vmovsd 0x21fe90(%rip), %xmm0 # 0x1eec6f0 vmovaps %xmm0, %xmm15 movq 0x28(%rsp), %r9 movq 0x30(%rsp), %r8 vmovaps %xmm29, 0x40(%rsp) vmovaps %xmm6, 0x200(%rsp) vmovaps %xmm11, 0x1f0(%rsp) vmovaps %xmm17, 0x1e0(%rsp) vmovaps %xmm7, 0x1d0(%rsp) vmovaps %xmm5, 0x1c0(%rsp) vmovaps %xmm8, 0x1b0(%rsp) vmovaps %xmm9, 0x1a0(%rsp) vmovaps %xmm10, 0x190(%rsp) vmovups %ymm28, 0x300(%rsp) vmovups %ymm26, 0x2e0(%rsp) vmovaps %xmm15, %xmm27 vshufps $0x50, %xmm15, %xmm15, %xmm1 # xmm1 = xmm15[0,0,1,1] vbroadcastss 0x21fe32(%rip), %ymm13 # 0x1eec714 vsubps %xmm1, %xmm13, %xmm2 vmulps %xmm1, %xmm5, %xmm3 vmulps %xmm1, %xmm8, %xmm4 vmulps %xmm1, %xmm9, %xmm5 vmulps %xmm1, %xmm10, %xmm1 vfmadd231ps %xmm6, %xmm2, %xmm3 # xmm3 = (xmm2 * xmm6) + xmm3 vfmadd231ps %xmm11, %xmm2, %xmm4 # xmm4 = (xmm2 * xmm11) + xmm4 vfmadd231ps %xmm17, %xmm2, %xmm5 # xmm5 = (xmm2 * xmm17) + xmm5 vfmadd231ps %xmm2, %xmm7, %xmm1 # xmm1 = (xmm7 * xmm2) + xmm1 vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3] vsubss %xmm0, %xmm2, %xmm6 vmulss 0x2545b5(%rip), %xmm6, %xmm6 # 0x1f20ed0 vbroadcastss %xmm0, %ymm7 vbroadcastsd %xmm2, %ymm2 vsubps %ymm7, %ymm2, %ymm10 vbroadcastss %xmm3, %ymm2 vbroadcastss 0x245dcd(%rip), %ymm9 # 0x1f12704 vpermps %ymm3, %ymm9, %ymm8 vbroadcastss %xmm4, %ymm20 vpermps %ymm4, %ymm9, %ymm21 vbroadcastss %xmm5, %ymm22 vpermps %ymm5, %ymm9, %ymm23 vbroadcastss %xmm1, %ymm24 vpermps %ymm1, %ymm9, %ymm25 vbroadcastss %xmm6, %ymm9 vbroadcastss 0x25456d(%rip), %ymm16 # 0x1f20edc vpermps %ymm3, %ymm16, %ymm19 vbroadcastss 0x25455a(%rip), %ymm6 # 0x1f20ed8 vpermps %ymm3, %ymm6, %ymm18 vpermps %ymm4, %ymm16, %ymm15 vpermps %ymm4, %ymm6, %ymm14 vpermps %ymm5, %ymm16, %ymm12 vpermps %ymm5, %ymm6, %ymm11 vpermps %ymm1, %ymm16, %ymm16 vpermps %ymm1, %ymm6, %ymm17 vfmadd132ps 0x254571(%rip), %ymm7, %ymm10 # ymm10 = (ymm10 * mem) + ymm7 vsubps %ymm10, %ymm13, %ymm13 vmulps %ymm10, %ymm20, %ymm1 vmulps %ymm10, %ymm21, %ymm3 vfmadd231ps %ymm2, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm2) + ymm1 vfmadd231ps %ymm8, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm8) + ymm3 vmulps %ymm10, %ymm22, %ymm2 vmulps %ymm10, %ymm23, %ymm4 vfmadd231ps %ymm20, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm20) + ymm2 vfmadd231ps %ymm21, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm21) + ymm4 vmulps %ymm10, %ymm24, %ymm5 vmulps %ymm10, %ymm25, %ymm6 vfmadd231ps %ymm22, %ymm13, %ymm5 # ymm5 = (ymm13 * ymm22) + ymm5 vfmadd231ps %ymm23, %ymm13, %ymm6 # ymm6 = (ymm13 * ymm23) + ymm6 vmulps %ymm2, %ymm10, %ymm7 vmulps %ymm4, %ymm10, %ymm8 vfmadd231ps %ymm1, %ymm13, %ymm7 # ymm7 = (ymm13 * ymm1) + ymm7 vfmadd231ps %ymm3, %ymm13, %ymm8 # ymm8 = (ymm13 * ymm3) + ymm8 vmulps %ymm5, %ymm10, %ymm1 vmulps %ymm6, %ymm10, %ymm5 vfmadd231ps %ymm2, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm2) + ymm1 vfmadd231ps %ymm4, %ymm13, %ymm5 # ymm5 = (ymm13 * ymm4) + ymm5 vmulps %ymm1, %ymm10, %ymm3 vmulps %ymm5, %ymm10, %ymm4 vfmadd231ps %ymm7, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm7) + ymm3 vfmadd231ps %ymm8, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm8) + ymm4 vsubps %ymm7, %ymm1, %ymm1 vsubps %ymm8, %ymm5, %ymm2 vbroadcastss 0x2245a9(%rip), %ymm22 # 0x1ef0fec vmulps %ymm22, %ymm1, %ymm1 vmulps %ymm22, %ymm2, %ymm2 vmulps %ymm1, %ymm9, %ymm8 vmulps %ymm2, %ymm9, %ymm20 vmovaps %ymm3, %ymm5 vmovaps 0x2932b9(%rip), %ymm23 # 0x1f5fd20 vxorps %xmm24, %xmm24, %xmm24 vpermt2ps %ymm24, %ymm23, %ymm5 vmovaps %ymm4, %ymm6 vpermt2ps %ymm24, %ymm23, %ymm6 vaddps %ymm3, %ymm8, %ymm1 vpermt2ps %ymm24, %ymm23, %ymm8 vaddps %ymm20, %ymm4, %ymm7 vpermt2ps %ymm24, %ymm23, %ymm20 vsubps %ymm8, %ymm5, %ymm2 vsubps %ymm20, %ymm6, %ymm8 vmulps %ymm10, %ymm15, %ymm20 vmulps %ymm10, %ymm14, %ymm21 vfmadd231ps %ymm19, %ymm13, %ymm20 # ymm20 = (ymm13 * ymm19) + ymm20 vfmadd231ps %ymm18, %ymm13, %ymm21 # ymm21 = (ymm13 * ymm18) + ymm21 vmulps %ymm10, %ymm12, %ymm18 vmulps %ymm10, %ymm11, %ymm19 vfmadd231ps %ymm15, %ymm13, %ymm18 # ymm18 = (ymm13 * ymm15) + ymm18 vfmadd231ps %ymm14, %ymm13, %ymm19 # ymm19 = (ymm13 * ymm14) + ymm19 vmulps %ymm10, %ymm16, %ymm14 vmulps %ymm10, %ymm17, %ymm15 vfmadd231ps %ymm12, %ymm13, %ymm14 # ymm14 = (ymm13 * ymm12) + ymm14 vfmadd231ps %ymm11, %ymm13, %ymm15 # ymm15 = (ymm13 * ymm11) + ymm15 vmulps %ymm18, %ymm10, %ymm16 vmulps %ymm19, %ymm10, %ymm17 vfmadd231ps %ymm20, %ymm13, %ymm16 # ymm16 = (ymm13 * ymm20) + ymm16 vfmadd231ps %ymm21, %ymm13, %ymm17 # ymm17 = (ymm13 * ymm21) + ymm17 vmulps %ymm14, %ymm10, %ymm14 vmulps %ymm15, %ymm10, %ymm15 vfmadd231ps %ymm18, %ymm13, %ymm14 # ymm14 = (ymm13 * ymm18) + ymm14 vfmadd231ps %ymm19, %ymm13, %ymm15 # ymm15 = (ymm13 * ymm19) + ymm15 vmulps %ymm14, %ymm10, %ymm11 vmulps %ymm15, %ymm10, %ymm12 vfmadd231ps %ymm16, %ymm13, %ymm11 # ymm11 = (ymm13 * ymm16) + ymm11 vfmadd231ps %ymm13, %ymm17, %ymm12 # ymm12 = (ymm17 * ymm13) + ymm12 vsubps %ymm16, %ymm14, %ymm10 vsubps %ymm17, %ymm15, %ymm13 vmulps %ymm22, %ymm10, %ymm10 vmulps %ymm22, %ymm13, %ymm13 vmulps %ymm10, %ymm9, %ymm10 vmulps %ymm13, %ymm9, %ymm16 vmovaps %ymm11, %ymm13 vpermt2ps %ymm24, %ymm23, %ymm13 vmovaps %ymm12, %ymm14 vpermt2ps %ymm24, %ymm23, %ymm14 vaddps %ymm10, %ymm11, %ymm9 vpermt2ps %ymm24, %ymm23, %ymm10 vaddps %ymm16, %ymm12, %ymm15 vpermt2ps %ymm24, %ymm23, %ymm16 vsubps %ymm10, %ymm13, %ymm10 vsubps %ymm16, %ymm14, %ymm16 vsubps %ymm3, %ymm11, %ymm17 vsubps %ymm4, %ymm12, %ymm18 vsubps %ymm5, %ymm13, %ymm19 vaddps %ymm19, %ymm17, %ymm17 vsubps %ymm6, %ymm14, %ymm19 vaddps %ymm19, %ymm18, %ymm18 vmulps %ymm17, %ymm4, %ymm19 vfnmadd231ps %ymm18, %ymm3, %ymm19 # ymm19 = -(ymm3 * ymm18) + ymm19 vmulps %ymm17, %ymm7, %ymm20 vfnmadd231ps %ymm18, %ymm1, %ymm20 # ymm20 = -(ymm1 * ymm18) + ymm20 vmulps %ymm17, %ymm8, %ymm21 vfnmadd231ps %ymm18, %ymm2, %ymm21 # ymm21 = -(ymm2 * ymm18) + ymm21 vmulps %ymm17, %ymm6, %ymm22 vfnmadd231ps %ymm18, %ymm5, %ymm22 # ymm22 = -(ymm5 * ymm18) + ymm22 vmulps %ymm17, %ymm12, %ymm23 vfnmadd231ps %ymm18, %ymm11, %ymm23 # ymm23 = -(ymm11 * ymm18) + ymm23 vmulps %ymm17, %ymm15, %ymm24 vfnmadd231ps %ymm18, %ymm9, %ymm24 # ymm24 = -(ymm9 * ymm18) + ymm24 vmulps %ymm17, %ymm16, %ymm25 vfnmadd231ps %ymm18, %ymm10, %ymm25 # ymm25 = -(ymm10 * ymm18) + ymm25 vmulps %ymm17, %ymm14, %ymm17 vfnmadd231ps %ymm18, %ymm13, %ymm17 # ymm17 = -(ymm13 * ymm18) + ymm17 vminps %ymm20, %ymm19, %ymm18 vmaxps %ymm20, %ymm19, %ymm19 vminps %ymm22, %ymm21, %ymm20 vminps %ymm20, %ymm18, %ymm18 vmaxps %ymm22, %ymm21, %ymm20 vmaxps %ymm20, %ymm19, %ymm19 vminps %ymm24, %ymm23, %ymm20 vmaxps %ymm24, %ymm23, %ymm21 vminps %ymm17, %ymm25, %ymm22 vminps %ymm22, %ymm20, %ymm20 vminps %ymm20, %ymm18, %ymm18 vmaxps %ymm17, %ymm25, %ymm17 vmaxps %ymm17, %ymm21, %ymm17 vmaxps %ymm17, %ymm19, %ymm17 vcmpleps %ymm28, %ymm18, %k1 vcmpnltps %ymm26, %ymm17, %k0 {%k1} kmovd %k0, %eax movl $0x0, %ecx andb $0x7f, %al je 0x1cccd4f vsubps %ymm3, %ymm5, %ymm17 vsubps %ymm4, %ymm6, %ymm18 vsubps %ymm11, %ymm13, %ymm19 vaddps %ymm19, %ymm17, %ymm17 vsubps %ymm12, %ymm14, %ymm19 vaddps %ymm19, %ymm18, %ymm18 vmulps %ymm17, %ymm4, %ymm4 vfnmadd231ps %ymm3, %ymm18, %ymm4 # ymm4 = -(ymm18 * ymm3) + ymm4 vmulps %ymm17, %ymm7, %ymm3 vfnmadd213ps %ymm3, %ymm18, %ymm1 # ymm1 = -(ymm18 * ymm1) + ymm3 vmulps %ymm17, %ymm8, %ymm3 vfnmadd213ps %ymm3, %ymm18, %ymm2 # ymm2 = -(ymm18 * ymm2) + ymm3 vmulps %ymm17, %ymm6, %ymm3 vfnmadd231ps %ymm5, %ymm18, %ymm3 # ymm3 = -(ymm18 * ymm5) + ymm3 vmulps %ymm17, %ymm12, %ymm5 vfnmadd231ps %ymm11, %ymm18, %ymm5 # ymm5 = -(ymm18 * ymm11) + ymm5 vmulps %ymm17, %ymm15, %ymm6 vfnmadd213ps %ymm6, %ymm18, %ymm9 # ymm9 = -(ymm18 * ymm9) + ymm6 vmulps %ymm17, %ymm16, %ymm6 vfnmadd213ps %ymm6, %ymm18, %ymm10 # ymm10 = -(ymm18 * ymm10) + ymm6 vmulps %ymm17, %ymm14, %ymm6 vfnmadd231ps %ymm18, %ymm13, %ymm6 # ymm6 = -(ymm13 * ymm18) + ymm6 vminps %ymm1, %ymm4, %ymm7 vmaxps %ymm1, %ymm4, %ymm1 vminps %ymm3, %ymm2, %ymm4 vminps %ymm4, %ymm7, %ymm4 vmaxps %ymm3, %ymm2, %ymm2 vmaxps %ymm2, %ymm1, %ymm1 vminps %ymm9, %ymm5, %ymm2 vmaxps %ymm9, %ymm5, %ymm3 vminps %ymm6, %ymm10, %ymm5 vminps %ymm5, %ymm2, %ymm2 vminps %ymm2, %ymm4, %ymm2 vmaxps %ymm6, %ymm10, %ymm4 vmaxps %ymm4, %ymm3, %ymm3 vmaxps %ymm3, %ymm1, %ymm1 vcmpnltps %ymm26, %ymm1, %k1 vcmpleps %ymm28, %ymm2, %k0 {%k1} kmovd %k0, %ecx andb %cl, %al movzbl %al, %ecx testl %ecx, %ecx je 0x1cccd6f movl %ebx, %eax movl %ecx, 0x210(%rsp,%rax,4) vmovlps %xmm0, 0x2a0(%rsp,%rax,8) vmovlps %xmm27, 0x320(%rsp,%rax,8) incl %ebx vbroadcastss 0x25414b(%rip), %xmm17 # 0x1f20ec4 vbroadcastss 0x224269(%rip), %ymm18 # 0x1ef0fec vmovss 0x254153(%rip), %xmm19 # 0x1f20ee0 vmovss 0x21f97d(%rip), %xmm20 # 0x1eec714 vmovss 0x22425f(%rip), %xmm21 # 0x1ef1000 vmovss 0x224ca1(%rip), %xmm22 # 0x1ef1a4c vbroadcastss 0x21f95f(%rip), %xmm23 # 0x1eec714 vmovss 0x2250fd(%rip), %xmm24 # 0x1ef1ebc vmovss 0x223c0f(%rip), %xmm25 # 0x1ef09d8 vxorps %xmm16, %xmm16, %xmm16 vmovaps 0x70(%rsp), %xmm26 vmovaps 0x60(%rsp), %xmm28 testl %ebx, %ebx je 0x1ccde07 leal -0x1(%rbx), %eax vmovss 0x2a0(%rsp,%rax,8), %xmm0 vmovss 0x2a4(%rsp,%rax,8), %xmm1 movl 0x210(%rsp,%rax,4), %ecx vmovsd 0x320(%rsp,%rax,8), %xmm15 tzcntq %rcx, %rdx blsrl %ecx, %ecx movl %ecx, 0x210(%rsp,%rax,4) cmovel %eax, %ebx vpxord %xmm27, %xmm27, %xmm27 vcvtsi2ss %rdx, %xmm27, %xmm2 vmulss %xmm19, %xmm2, %xmm2 incq %rdx vpxord %xmm27, %xmm27, %xmm27 vcvtsi2ss %rdx, %xmm27, %xmm3 vmulss %xmm19, %xmm3, %xmm3 vsubss %xmm2, %xmm20, %xmm4 vmulss %xmm2, %xmm1, %xmm14 vfmadd231ss %xmm4, %xmm0, %xmm14 # xmm14 = (xmm0 * xmm4) + xmm14 vsubss %xmm3, %xmm20, %xmm2 vmulss %xmm3, %xmm1, %xmm7 vfmadd231ss %xmm2, %xmm0, %xmm7 # xmm7 = (xmm0 * xmm2) + xmm7 vsubss %xmm14, %xmm7, %xmm0 vucomiss %xmm0, %xmm21 jbe 0x1ccdda5 vmovaps %xmm15, %xmm27 vshufps $0x50, %xmm15, %xmm15, %xmm1 # xmm1 = xmm15[0,0,1,1] vucomiss %xmm0, %xmm22 seta %cl cmpl $0x4, %ebx setae %al vsubps %xmm1, %xmm23, %xmm2 vmulps 0x1c0(%rsp), %xmm1, %xmm3 vmulps 0x1b0(%rsp), %xmm1, %xmm4 vmulps 0x1a0(%rsp), %xmm1, %xmm5 vmulps 0x190(%rsp), %xmm1, %xmm1 vfmadd231ps 0x200(%rsp), %xmm2, %xmm3 # xmm3 = (xmm2 * mem) + xmm3 vfmadd231ps 0x1f0(%rsp), %xmm2, %xmm4 # xmm4 = (xmm2 * mem) + xmm4 vfmadd231ps 0x1e0(%rsp), %xmm2, %xmm5 # xmm5 = (xmm2 * mem) + xmm5 vfmadd231ps 0x1d0(%rsp), %xmm2, %xmm1 # xmm1 = (xmm2 * mem) + xmm1 vinsertf128 $0x1, %xmm3, %ymm3, %ymm2 vinsertf128 $0x1, %xmm4, %ymm4, %ymm3 vinsertf128 $0x1, %xmm5, %ymm5, %ymm4 vmovaps %xmm14, 0x80(%rsp) vbroadcastss %xmm14, %xmm6 vmovaps %xmm7, (%rsp) vbroadcastss %xmm7, %xmm7 vinsertf128 $0x1, %xmm7, %ymm6, %ymm6 vsubps %ymm2, %ymm3, %ymm7 vfmadd213ps %ymm2, %ymm6, %ymm7 # ymm7 = (ymm6 * ymm7) + ymm2 vsubps %ymm3, %ymm4, %ymm2 vfmadd213ps %ymm3, %ymm6, %ymm2 # ymm2 = (ymm6 * ymm2) + ymm3 vsubps %xmm5, %xmm1, %xmm1 vinsertf128 $0x1, %xmm1, %ymm1, %ymm3 vfmadd213ps %ymm4, %ymm6, %ymm3 # ymm3 = (ymm6 * ymm3) + ymm4 vsubps %ymm7, %ymm2, %ymm1 vfmadd213ps %ymm7, %ymm6, %ymm1 # ymm1 = (ymm6 * ymm1) + ymm7 vsubps %ymm2, %ymm3, %ymm3 vfmadd213ps %ymm2, %ymm6, %ymm3 # ymm3 = (ymm6 * ymm3) + ymm2 vsubps %ymm1, %ymm3, %ymm2 vfmadd231ps %ymm6, %ymm2, %ymm1 # ymm1 = (ymm2 * ymm6) + ymm1 vmulps %ymm18, %ymm2, %ymm3 vextractf128 $0x1, %ymm1, %xmm2 vextractf128 $0x1, %ymm3, %xmm4 vmulss %xmm24, %xmm0, %xmm5 vbroadcastss %xmm5, %xmm6 vmulps %xmm3, %xmm6, %xmm3 vaddps %xmm3, %xmm1, %xmm5 vmulps %xmm4, %xmm6, %xmm3 vsubps %xmm3, %xmm2, %xmm6 vshufpd $0x3, %xmm1, %xmm1, %xmm4 # xmm4 = xmm1[1,1] vshufpd $0x3, %xmm2, %xmm2, %xmm3 # xmm3 = xmm2[1,1] vsubps %xmm1, %xmm4, %xmm7 vsubps %xmm2, %xmm3, %xmm8 vaddps %xmm7, %xmm8, %xmm7 vshufps $0xb1, %xmm1, %xmm1, %xmm8 # xmm8 = xmm1[1,0,3,2] vshufps $0xb1, %xmm5, %xmm5, %xmm9 # xmm9 = xmm5[1,0,3,2] vshufps $0xb1, %xmm6, %xmm6, %xmm10 # xmm10 = xmm6[1,0,3,2] vshufps $0xb1, %xmm2, %xmm2, %xmm11 # xmm11 = xmm2[1,0,3,2] vbroadcastss %xmm7, %xmm12 vshufps $0x55, %xmm7, %xmm7, %xmm7 # xmm7 = xmm7[1,1,1,1] vmulps %xmm7, %xmm8, %xmm8 vmulps %xmm7, %xmm9, %xmm9 vmulps %xmm7, %xmm10, %xmm10 vmulps %xmm7, %xmm11, %xmm7 vfmadd231ps %xmm1, %xmm12, %xmm8 # xmm8 = (xmm12 * xmm1) + xmm8 vfmadd231ps %xmm5, %xmm12, %xmm9 # xmm9 = (xmm12 * xmm5) + xmm9 vfmadd231ps %xmm6, %xmm12, %xmm10 # xmm10 = (xmm12 * xmm6) + xmm10 vfmadd231ps %xmm12, %xmm2, %xmm7 # xmm7 = (xmm2 * xmm12) + xmm7 vshufpd $0x1, %xmm8, %xmm8, %xmm11 # xmm11 = xmm8[1,0] vshufpd $0x1, %xmm9, %xmm9, %xmm12 # xmm12 = xmm9[1,0] vshufpd $0x1, %xmm10, %xmm10, %xmm14 # xmm14 = xmm10[1,0] vshufpd $0x1, %xmm7, %xmm7, %xmm15 # xmm15 = xmm7[1,0] vminss %xmm9, %xmm8, %xmm13 vmaxss %xmm8, %xmm9, %xmm8 vminss %xmm7, %xmm10, %xmm9 vmaxss %xmm10, %xmm7, %xmm7 vminss %xmm9, %xmm13, %xmm13 vmaxss %xmm8, %xmm7, %xmm9 vminss %xmm12, %xmm11, %xmm7 vmaxss %xmm11, %xmm12, %xmm8 vminss %xmm15, %xmm14, %xmm10 vmaxss %xmm14, %xmm15, %xmm11 vminss %xmm10, %xmm7, %xmm14 vmaxss %xmm8, %xmm11, %xmm10 vucomiss %xmm13, %xmm25 jbe 0x1ccd03c vmovss 0x224e8a(%rip), %xmm7 # 0x1ef1ec0 vucomiss %xmm7, %xmm10 ja 0x1ccd09d vmovss 0x224e7c(%rip), %xmm7 # 0x1ef1ec0 vucomiss %xmm7, %xmm9 seta %dl vmovss 0x223985(%rip), %xmm7 # 0x1ef09d8 vcmpltps %xmm7, %xmm14, %k0 vcmpltps %xmm7, %xmm13, %k1 korw %k0, %k1, %k0 kmovd %k0, %esi testb %sil, %dl jne 0x1ccd09d vmovss 0x224e4a(%rip), %xmm7 # 0x1ef1ec0 vcmpnltps %xmm10, %xmm7, %k0 vmovss 0x223953(%rip), %xmm7 # 0x1ef09d8 vcmpnltps %xmm7, %xmm14, %k1 korw %k0, %k1, %k0 kmovd %k0, %edx testb $0x1, %dl jne 0x1ccdaa2 vcmpltss %xmm16, %xmm13, %k1 vmovaps %xmm20, %xmm15 vmovss 0x223918(%rip), %xmm16 # 0x1ef09cc vxorps %xmm11, %xmm11, %xmm11 vmovss %xmm16, %xmm15, %xmm15 {%k1} vcmpltss %xmm11, %xmm9, %k1 vmovaps %xmm20, %xmm12 vmovss %xmm16, %xmm12, %xmm12 {%k1} vucomiss %xmm12, %xmm15 setp %dl setne %sil orb %dl, %sil kmovd %esi, %k1 vmovss 0x21e933(%rip), %xmm7 # 0x1eeba20 vmovss %xmm11, %xmm7, %xmm7 {%k1} vmovss 0x21fa89(%rip), %xmm8 # 0x1eecb84 vmovss %xmm11, %xmm8, %xmm8 {%k1} vcmpltss %xmm11, %xmm14, %k1 vmovaps %xmm20, %xmm11 vmovss %xmm16, %xmm11, %xmm11 {%k1} vucomiss %xmm11, %xmm15 jne 0x1ccd11d jnp 0x1ccd162 vucomiss %xmm13, %xmm14 jne 0x1ccd170 jp 0x1ccd170 vxorps %xmm16, %xmm16, %xmm16 vucomiss %xmm16, %xmm13 setnp %dl sete %sil andb %dl, %sil kmovd %esi, %k1 vmovss 0x21e8d8(%rip), %xmm13 # 0x1eeba20 vmovss %xmm16, %xmm13, %xmm13 {%k1} vmovss 0x21fa2e(%rip), %xmm14 # 0x1eecb84 vmovss 0x21f5b4(%rip), %xmm14 {%k1} # 0x1eec714 jmp 0x1ccd19b vxorps %xmm16, %xmm16, %xmm16 vmovaps %xmm27, %xmm15 jmp 0x1ccd1ab vxorps 0x253d46(%rip){1to4}, %xmm13, %xmm15 # 0x1f20ec0 vsubss %xmm13, %xmm14, %xmm13 vdivss %xmm13, %xmm15, %xmm14 vsubss %xmm14, %xmm20, %xmm13 vxorps %xmm16, %xmm16, %xmm16 vfmadd213ss %xmm14, %xmm16, %xmm13 # xmm13 = (xmm16 * xmm13) + xmm14 vmovaps %xmm13, %xmm14 vmovaps %xmm27, %xmm15 vminss %xmm13, %xmm7, %xmm7 vmaxss %xmm8, %xmm14, %xmm8 vcmpltss %xmm16, %xmm10, %k1 vmovaps %xmm20, %xmm13 vmovss 0x22380a(%rip), %xmm13 {%k1} # 0x1ef09cc vucomiss %xmm13, %xmm12 vmovaps 0x80(%rsp), %xmm14 jne 0x1ccd1d4 jnp 0x1ccd242 vucomiss %xmm9, %xmm10 jne 0x1ccd213 jp 0x1ccd213 vucomiss %xmm16, %xmm9 setnp %dl sete %sil andb %dl, %sil kmovd %esi, %k1 vmovss 0x21e827(%rip), %xmm9 # 0x1eeba20 vmovss %xmm16, %xmm9, %xmm9 {%k1} vmovss 0x21f97d(%rip), %xmm10 # 0x1eecb84 vmovss 0x21f503(%rip), %xmm10 {%k1} # 0x1eec714 jmp 0x1ccd238 vxorps 0x253ca3(%rip){1to4}, %xmm9, %xmm12 # 0x1f20ec0 vsubss %xmm9, %xmm10, %xmm9 vdivss %xmm9, %xmm12, %xmm10 vsubss %xmm10, %xmm20, %xmm9 vfmadd213ss %xmm10, %xmm16, %xmm9 # xmm9 = (xmm16 * xmm9) + xmm10 vmovaps %xmm9, %xmm10 vminss %xmm9, %xmm7, %xmm7 vmaxss %xmm8, %xmm10, %xmm8 vucomiss %xmm13, %xmm11 setp %dl setne %sil orb %dl, %sil vminss %xmm20, %xmm7, %xmm9 kmovd %esi, %k1 vmovss %xmm9, %xmm7, %xmm7 {%k1} vmaxss %xmm8, %xmm20, %xmm9 vmovss %xmm9, %xmm8, %xmm8 {%k1} vmaxss %xmm7, %xmm16, %xmm7 vminss %xmm20, %xmm8, %xmm8 movb $0x1, %r14b vucomiss %xmm8, %xmm7 ja 0x1ccda74 vaddss 0x2901d9(%rip), %xmm7, %xmm7 # 0x1f5d468 vaddss 0x21f905(%rip), %xmm8, %xmm8 # 0x1eecb9c vmaxss %xmm7, %xmm16, %xmm7 vminss %xmm20, %xmm8, %xmm8 vmovddup %xmm1, %xmm1 # xmm1 = xmm1[0,0] vmovddup %xmm5, %xmm9 # xmm9 = xmm5[0,0] vmovddup %xmm6, %xmm10 # xmm10 = xmm6[0,0] vmovddup %xmm2, %xmm2 # xmm2 = xmm2[0,0] vshufpd $0x3, %xmm5, %xmm5, %xmm5 # xmm5 = xmm5[1,1] vshufpd $0x3, %xmm6, %xmm6, %xmm6 # xmm6 = xmm6[1,1] vshufps $0x0, %xmm8, %xmm7, %xmm11 # xmm11 = xmm7[0,0],xmm8[0,0] vsubps %xmm11, %xmm23, %xmm12 vmulps %xmm4, %xmm11, %xmm13 vmulps %xmm5, %xmm11, %xmm5 vmulps %xmm6, %xmm11, %xmm6 vmulps %xmm3, %xmm11, %xmm3 vfmadd231ps %xmm1, %xmm12, %xmm13 # xmm13 = (xmm12 * xmm1) + xmm13 vfmadd231ps %xmm9, %xmm12, %xmm5 # xmm5 = (xmm12 * xmm9) + xmm5 vfmadd231ps %xmm10, %xmm12, %xmm6 # xmm6 = (xmm12 * xmm10) + xmm6 vfmadd231ps %xmm2, %xmm12, %xmm3 # xmm3 = (xmm12 * xmm2) + xmm3 vsubss %xmm7, %xmm20, %xmm2 vmovshdup %xmm15, %xmm4 # xmm4 = xmm15[1,1,3,3] vmulss %xmm7, %xmm4, %xmm1 vfmadd231ss %xmm2, %xmm15, %xmm1 # xmm1 = (xmm15 * xmm2) + xmm1 vsubss %xmm8, %xmm20, %xmm2 vmulss %xmm4, %xmm8, %xmm4 vfmadd231ss %xmm2, %xmm15, %xmm4 # xmm4 = (xmm15 * xmm2) + xmm4 vdivss %xmm0, %xmm20, %xmm0 vsubps %xmm13, %xmm5, %xmm2 vbroadcastss 0x223cc8(%rip), %xmm15 # 0x1ef0fec vmulps %xmm2, %xmm15, %xmm2 vsubps %xmm5, %xmm6, %xmm7 vmulps %xmm7, %xmm15, %xmm7 vsubps %xmm6, %xmm3, %xmm8 vmulps %xmm15, %xmm8, %xmm8 vminps %xmm8, %xmm7, %xmm9 vmaxps %xmm8, %xmm7, %xmm7 vminps %xmm9, %xmm2, %xmm8 vmaxps %xmm7, %xmm2, %xmm2 vshufpd $0x3, %xmm8, %xmm8, %xmm7 # xmm7 = xmm8[1,1] vshufpd $0x3, %xmm2, %xmm2, %xmm9 # xmm9 = xmm2[1,1] vminps %xmm7, %xmm8, %xmm7 vmaxps %xmm9, %xmm2, %xmm2 vbroadcastss %xmm0, %xmm0 vmulps %xmm7, %xmm0, %xmm8 vmulps %xmm2, %xmm0, %xmm7 vsubss %xmm1, %xmm4, %xmm0 vdivss %xmm0, %xmm20, %xmm0 vshufpd $0x3, %xmm13, %xmm13, %xmm2 # xmm2 = xmm13[1,1] vshufpd $0x3, %xmm5, %xmm5, %xmm9 # xmm9 = xmm5[1,1] vshufpd $0x3, %xmm6, %xmm6, %xmm10 # xmm10 = xmm6[1,1] vshufpd $0x3, %xmm3, %xmm3, %xmm11 # xmm11 = xmm3[1,1] vsubps %xmm13, %xmm2, %xmm2 vsubps %xmm5, %xmm9, %xmm5 vsubps %xmm6, %xmm10, %xmm6 vsubps %xmm3, %xmm11, %xmm3 vminps %xmm5, %xmm2, %xmm9 vmaxps %xmm5, %xmm2, %xmm2 vminps %xmm3, %xmm6, %xmm5 vminps %xmm5, %xmm9, %xmm5 vmaxps %xmm3, %xmm6, %xmm3 vmaxps %xmm3, %xmm2, %xmm2 vbroadcastss %xmm0, %xmm0 vmulps %xmm5, %xmm0, %xmm10 vmulps %xmm2, %xmm0, %xmm11 vinsertps $0x10, %xmm1, %xmm14, %xmm6 # xmm6 = xmm14[0],xmm1[0],xmm14[2,3] vmovaps (%rsp), %xmm0 vinsertps $0x10, %xmm4, %xmm0, %xmm5 # xmm5 = xmm0[0],xmm4[0],xmm0[2,3] vaddps %xmm5, %xmm6, %xmm0 vmulps %xmm31, %xmm0, %xmm9 vshufps $0x54, %xmm9, %xmm9, %xmm0 # xmm0 = xmm9[0,1,1,1] vbroadcastss %xmm9, %xmm2 vmovaps %xmm26, %xmm3 vfmadd213ps %xmm29, %xmm2, %xmm3 # xmm3 = (xmm2 * xmm3) + xmm29 vmovaps %xmm28, %xmm12 vfmadd213ps 0xa0(%rsp), %xmm2, %xmm12 # xmm12 = (xmm2 * xmm12) + mem vmovaps 0x290(%rsp), %xmm13 vfmadd213ps 0x90(%rsp), %xmm2, %xmm13 # xmm13 = (xmm2 * xmm13) + mem vmovaps %xmm14, %xmm27 vsubps %xmm3, %xmm12, %xmm14 vfmadd213ps %xmm3, %xmm2, %xmm14 # xmm14 = (xmm2 * xmm14) + xmm3 vsubps %xmm12, %xmm13, %xmm3 vfmadd213ps %xmm12, %xmm2, %xmm3 # xmm3 = (xmm2 * xmm3) + xmm12 vsubps %xmm14, %xmm3, %xmm3 vfmadd231ps %xmm2, %xmm3, %xmm14 # xmm14 = (xmm3 * xmm2) + xmm14 vmulps %xmm3, %xmm15, %xmm2 vmovddup %xmm14, %xmm12 # xmm12 = xmm14[0,0] vshufpd $0x3, %xmm14, %xmm14, %xmm3 # xmm3 = xmm14[1,1] vshufps $0x55, %xmm9, %xmm9, %xmm13 # xmm13 = xmm9[1,1,1,1] vsubps %xmm12, %xmm3, %xmm3 vfmadd231ps %xmm3, %xmm13, %xmm12 # xmm12 = (xmm13 * xmm3) + xmm12 vmovddup %xmm2, %xmm14 # xmm14 = xmm2[0,0] vshufpd $0x3, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[1,1] vsubps %xmm14, %xmm2, %xmm15 vfmadd213ps %xmm14, %xmm13, %xmm15 # xmm15 = (xmm13 * xmm15) + xmm14 vxorps %xmm30, %xmm3, %xmm2 vmovshdup %xmm15, %xmm13 # xmm13 = xmm15[1,1,3,3] vxorps %xmm30, %xmm13, %xmm14 vmovshdup %xmm3, %xmm16 # xmm16 = xmm3[1,1,3,3] vmovss 0x29286f(%rip), %xmm29 # 0x1f5fcfc vpermt2ps %xmm3, %xmm29, %xmm14 vmulss %xmm3, %xmm13, %xmm3 vfmsub231ss %xmm16, %xmm15, %xmm3 # xmm3 = (xmm15 * xmm16) - xmm3 vmovss 0x28d4cf(%rip), %xmm13 # 0x1f5a974 vpermt2ps %xmm2, %xmm13, %xmm15 vbroadcastss %xmm3, %xmm3 vdivps %xmm3, %xmm14, %xmm2 vdivps %xmm3, %xmm15, %xmm3 vbroadcastss %xmm12, %xmm13 vmulps %xmm2, %xmm13, %xmm13 vshufps $0x55, %xmm12, %xmm12, %xmm12 # xmm12 = xmm12[1,1,1,1] vmulps %xmm3, %xmm12, %xmm12 vaddps %xmm12, %xmm13, %xmm12 vsubps %xmm12, %xmm0, %xmm0 vmovshdup %xmm2, %xmm12 # xmm12 = xmm2[1,1,3,3] vinsertps $0x1c, %xmm10, %xmm8, %xmm13 # xmm13 = xmm8[0],xmm10[0],zero,zero vmulps %xmm13, %xmm12, %xmm14 vinsertps $0x1c, %xmm11, %xmm7, %xmm15 # xmm15 = xmm7[0],xmm11[0],zero,zero vmulps %xmm15, %xmm12, %xmm12 vminps %xmm12, %xmm14, %xmm16 vmaxps %xmm14, %xmm12, %xmm12 vmovshdup %xmm3, %xmm14 # xmm14 = xmm3[1,1,3,3] vinsertps $0x4c, %xmm8, %xmm10, %xmm8 # xmm8 = xmm8[1],xmm10[1],zero,zero vmulps %xmm8, %xmm14, %xmm10 vinsertps $0x4c, %xmm7, %xmm11, %xmm7 # xmm7 = xmm7[1],xmm11[1],zero,zero vmulps %xmm7, %xmm14, %xmm11 vminps %xmm11, %xmm10, %xmm14 vaddps %xmm14, %xmm16, %xmm14 vmaxps %xmm10, %xmm11, %xmm10 vaddps %xmm10, %xmm12, %xmm10 vmovddup 0x2539c0(%rip), %xmm11 # xmm11 = mem[0,0] vsubps %xmm10, %xmm11, %xmm10 vsubps %xmm14, %xmm11, %xmm11 vsubps %xmm9, %xmm6, %xmm12 vsubps %xmm9, %xmm5, %xmm9 vmulps %xmm10, %xmm12, %xmm14 vbroadcastss %xmm2, %xmm16 vmulps %xmm13, %xmm16, %xmm13 vmulps %xmm15, %xmm16, %xmm15 vminps %xmm15, %xmm13, %xmm16 vmaxps %xmm13, %xmm15, %xmm13 vbroadcastss %xmm3, %xmm15 vmulps %xmm8, %xmm15, %xmm8 vmulps %xmm7, %xmm15, %xmm7 vminps %xmm7, %xmm8, %xmm15 vaddps %xmm15, %xmm16, %xmm15 vmulps %xmm11, %xmm12, %xmm16 vmulps %xmm10, %xmm9, %xmm10 vmulps %xmm11, %xmm9, %xmm11 vmaxps %xmm8, %xmm7, %xmm7 vaddps %xmm7, %xmm13, %xmm7 vmovddup 0x253959(%rip), %xmm8 # xmm8 = mem[0,0] vsubps %xmm7, %xmm8, %xmm7 vsubps %xmm15, %xmm8, %xmm8 vmulps %xmm7, %xmm12, %xmm13 vmulps %xmm8, %xmm12, %xmm12 vmulps %xmm7, %xmm9, %xmm7 vmulps %xmm8, %xmm9, %xmm8 vminps %xmm12, %xmm13, %xmm9 vminps %xmm8, %xmm7, %xmm15 vminps %xmm15, %xmm9, %xmm9 vmaxps %xmm13, %xmm12, %xmm12 vmaxps %xmm7, %xmm8, %xmm7 vmaxps %xmm12, %xmm7, %xmm7 vminps %xmm16, %xmm14, %xmm8 vminps %xmm11, %xmm10, %xmm12 vminps %xmm12, %xmm8, %xmm8 vhaddps %xmm8, %xmm9, %xmm8 vmaxps %xmm14, %xmm16, %xmm9 vmaxps %xmm10, %xmm11, %xmm10 vmaxps %xmm9, %xmm10, %xmm9 vhaddps %xmm9, %xmm7, %xmm7 vshufps $0xe8, %xmm8, %xmm8, %xmm8 # xmm8 = xmm8[0,2,2,3] vshufps $0xe8, %xmm7, %xmm7, %xmm9 # xmm9 = xmm7[0,2,2,3] vaddps %xmm0, %xmm8, %xmm7 vaddps %xmm0, %xmm9, %xmm8 vmaxps %xmm7, %xmm6, %xmm6 vminps %xmm5, %xmm8, %xmm9 vcmpltps %xmm6, %xmm9, %k0 vinsertps $0x10, %xmm4, %xmm1, %xmm15 # xmm15 = xmm1[0],xmm4[0],xmm1[2,3] kmovd %k0, %edx testb $0x3, %dl jne 0x1ccda87 vucomiss %xmm8, %xmm5 seta %sil xorl %edx, %edx vucomiss %xmm27, %xmm7 vmovaps %xmm27, %xmm14 jbe 0x1ccd6af testb %sil, %sil vxorps %xmm16, %xmm16, %xmm16 vmovss 0x22398c(%rip), %xmm11 # 0x1ef0fec vmovaps 0x40(%rsp), %xmm29 vmovaps 0xa0(%rsp), %xmm9 vmovaps 0x90(%rsp), %xmm10 vmovaps 0x180(%rsp), %xmm12 vmovaps 0x170(%rsp), %xmm13 je 0x1ccd6e9 vcmpltps %xmm5, %xmm8, %k0 kshiftrb $0x1, %k0, %k0 kmovd %k0, %esi vmovshdup %xmm7, %xmm4 # xmm4 = xmm7[1,1,3,3] vucomiss %xmm1, %xmm4 seta %dl andb %sil, %dl jmp 0x1ccd6e9 vxorps %xmm16, %xmm16, %xmm16 vmovss 0x22392f(%rip), %xmm11 # 0x1ef0fec vmovaps 0x40(%rsp), %xmm29 vmovaps 0xa0(%rsp), %xmm9 vmovaps 0x90(%rsp), %xmm10 vmovaps 0x180(%rsp), %xmm12 vmovaps 0x170(%rsp), %xmm13 orb %cl, %al orb %dl, %al cmpb $0x1, %al jne 0x1ccda9d movl $0xc8, %eax vsubss %xmm0, %xmm20, %xmm1 vmulss %xmm1, %xmm1, %xmm4 vmulss %xmm4, %xmm1, %xmm5 vmulss %xmm0, %xmm11, %xmm6 vmulss %xmm4, %xmm6, %xmm4 vmulss %xmm0, %xmm0, %xmm6 vmulss %xmm6, %xmm11, %xmm7 vmulss %xmm7, %xmm1, %xmm1 vbroadcastss %xmm5, %xmm5 vbroadcastss %xmm4, %xmm4 vbroadcastss %xmm1, %xmm1 vmulss %xmm6, %xmm0, %xmm6 vbroadcastss %xmm6, %xmm6 vmulps %xmm6, %xmm12, %xmm6 vfmadd231ps %xmm1, %xmm10, %xmm6 # xmm6 = (xmm10 * xmm1) + xmm6 vfmadd231ps %xmm4, %xmm9, %xmm6 # xmm6 = (xmm9 * xmm4) + xmm6 vfmadd231ps %xmm5, %xmm29, %xmm6 # xmm6 = (xmm29 * xmm5) + xmm6 vmovddup %xmm6, %xmm1 # xmm1 = xmm6[0,0] vshufpd $0x3, %xmm6, %xmm6, %xmm4 # xmm4 = xmm6[1,1] vshufps $0x55, %xmm0, %xmm0, %xmm5 # xmm5 = xmm0[1,1,1,1] vsubps %xmm1, %xmm4, %xmm4 vfmadd213ps %xmm1, %xmm5, %xmm4 # xmm4 = (xmm5 * xmm4) + xmm1 vbroadcastss %xmm4, %xmm1 vmulps %xmm1, %xmm2, %xmm1 vshufps $0x55, %xmm4, %xmm4, %xmm5 # xmm5 = xmm4[1,1,1,1] vmulps %xmm5, %xmm3, %xmm5 vaddps %xmm5, %xmm1, %xmm1 vsubps %xmm1, %xmm0, %xmm0 vandps %xmm17, %xmm4, %xmm1 vprolq $0x20, %xmm1, %xmm4 vmaxss %xmm1, %xmm4, %xmm1 vucomiss %xmm1, %xmm13 ja 0x1ccd79e decq %rax jne 0x1ccd6fa jmp 0x1ccda74 vucomiss %xmm16, %xmm0 jb 0x1ccda74 vucomiss %xmm0, %xmm20 jb 0x1ccda74 vmovshdup %xmm0, %xmm1 # xmm1 = xmm0[1,1,3,3] vucomiss %xmm16, %xmm1 jb 0x1ccda74 vucomiss %xmm1, %xmm20 jb 0x1ccda74 vmovss 0x18(%r15), %xmm2 vinsertps $0x1c, 0x28(%r15), %xmm2, %xmm2 # xmm2 = xmm2[0],mem[0],zero,zero vinsertps $0x28, 0x38(%r15), %xmm2, %xmm2 # xmm2 = xmm2[0,1],mem[0],zero vmovaps (%r10), %xmm3 vmovaps 0x160(%rsp), %xmm4 vsubps %xmm3, %xmm4, %xmm4 vdpps $0x7f, %xmm2, %xmm4, %xmm4 vmovaps 0x120(%rsp), %xmm5 vsubps %xmm3, %xmm5, %xmm5 vdpps $0x7f, %xmm2, %xmm5, %xmm5 vmovaps 0x110(%rsp), %xmm6 vsubps %xmm3, %xmm6, %xmm6 vdpps $0x7f, %xmm2, %xmm6, %xmm6 vmovaps 0x140(%rsp), %xmm7 vsubps %xmm3, %xmm7, %xmm7 vdpps $0x7f, %xmm2, %xmm7, %xmm7 vmovaps 0x150(%rsp), %xmm8 vsubps %xmm3, %xmm8, %xmm8 vdpps $0x7f, %xmm2, %xmm8, %xmm8 vmovaps 0x100(%rsp), %xmm9 vsubps %xmm3, %xmm9, %xmm9 vdpps $0x7f, %xmm2, %xmm9, %xmm9 vmovaps 0xf0(%rsp), %xmm10 vsubps %xmm3, %xmm10, %xmm10 vdpps $0x7f, %xmm2, %xmm10, %xmm10 vmovaps 0x130(%rsp), %xmm12 vsubps %xmm3, %xmm12, %xmm3 vdpps $0x7f, %xmm2, %xmm3, %xmm2 vsubss %xmm1, %xmm20, %xmm3 vmulss %xmm1, %xmm8, %xmm8 vmulss %xmm1, %xmm9, %xmm9 vmulss %xmm1, %xmm10, %xmm10 vmulss %xmm2, %xmm1, %xmm1 vfmadd231ss %xmm4, %xmm3, %xmm8 # xmm8 = (xmm3 * xmm4) + xmm8 vfmadd231ss %xmm5, %xmm3, %xmm9 # xmm9 = (xmm3 * xmm5) + xmm9 vfmadd231ss %xmm6, %xmm3, %xmm10 # xmm10 = (xmm3 * xmm6) + xmm10 vfmadd231ss %xmm7, %xmm3, %xmm1 # xmm1 = (xmm3 * xmm7) + xmm1 vsubss %xmm0, %xmm20, %xmm6 vmulss %xmm6, %xmm6, %xmm3 vmulss %xmm3, %xmm6, %xmm2 vmulss %xmm0, %xmm11, %xmm4 vmulss %xmm3, %xmm4, %xmm3 vmulps %xmm0, %xmm0, %xmm5 vmulss %xmm5, %xmm11, %xmm4 vmulss %xmm4, %xmm6, %xmm4 vmulps %xmm5, %xmm0, %xmm5 vmulss %xmm1, %xmm5, %xmm1 vfmadd231ss %xmm10, %xmm4, %xmm1 # xmm1 = (xmm4 * xmm10) + xmm1 vfmadd231ss %xmm9, %xmm3, %xmm1 # xmm1 = (xmm3 * xmm9) + xmm1 vfmadd231ss %xmm8, %xmm2, %xmm1 # xmm1 = (xmm2 * xmm8) + xmm1 vucomiss 0xc(%r10), %xmm1 jb 0x1ccda74 vmovss 0x20(%r10), %xmm12 vucomiss %xmm1, %xmm12 jb 0x1ccda74 movq %rbp, %r12 movq %r13, %rbp vshufps $0x55, %xmm0, %xmm0, %xmm7 # xmm7 = xmm0[1,1,1,1] vsubps %xmm7, %xmm23, %xmm8 vmulps 0x150(%rsp), %xmm7, %xmm9 vmulps 0x100(%rsp), %xmm7, %xmm10 vmulps 0xf0(%rsp), %xmm7, %xmm11 vmulps 0x130(%rsp), %xmm7, %xmm7 vfmadd231ps 0x160(%rsp), %xmm8, %xmm9 # xmm9 = (xmm8 * mem) + xmm9 vfmadd231ps 0x120(%rsp), %xmm8, %xmm10 # xmm10 = (xmm8 * mem) + xmm10 vfmadd231ps 0x110(%rsp), %xmm8, %xmm11 # xmm11 = (xmm8 * mem) + xmm11 vfmadd231ps 0x140(%rsp), %xmm8, %xmm7 # xmm7 = (xmm8 * mem) + xmm7 vsubps %xmm9, %xmm10, %xmm8 vsubps %xmm10, %xmm11, %xmm9 vsubps %xmm11, %xmm7, %xmm7 vbroadcastss %xmm0, %xmm10 vmulps %xmm9, %xmm10, %xmm11 vbroadcastss %xmm6, %xmm6 vfmadd231ps %xmm8, %xmm6, %xmm11 # xmm11 = (xmm6 * xmm8) + xmm11 vmulps %xmm7, %xmm10, %xmm7 vfmadd231ps %xmm9, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm9) + xmm7 vmulps %xmm7, %xmm10, %xmm7 vfmadd231ps %xmm11, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm11) + xmm7 vmulps 0x22364e(%rip){1to4}, %xmm7, %xmm6 # 0x1ef0fec movq (%r9), %rax movq 0x1e8(%rax), %rax movq (%rax,%r8,8), %r13 movl 0x24(%r10), %eax testl %eax, 0x34(%r13) je 0x1ccda6e vbroadcastss %xmm5, %xmm5 vmulps 0x250(%rsp), %xmm5, %xmm5 vbroadcastss %xmm4, %xmm4 vfmadd132ps 0x260(%rsp), %xmm5, %xmm4 # xmm4 = (xmm4 * mem) + xmm5 vbroadcastss %xmm3, %xmm3 vfmadd132ps 0x270(%rsp), %xmm4, %xmm3 # xmm3 = (xmm3 * mem) + xmm4 vbroadcastss %xmm2, %xmm2 vfmadd132ps 0x280(%rsp), %xmm3, %xmm2 # xmm2 = (xmm2 * mem) + xmm3 vshufps $0xc9, %xmm2, %xmm2, %xmm3 # xmm3 = xmm2[1,2,0,3] vshufps $0xc9, %xmm6, %xmm6, %xmm4 # xmm4 = xmm6[1,2,0,3] vmulps %xmm4, %xmm2, %xmm2 vfmsub231ps %xmm3, %xmm6, %xmm2 # xmm2 = (xmm6 * xmm3) - xmm2 movq 0x10(%r9), %rax cmpq $0x0, 0x10(%rax) vmovaps (%rsp), %xmm7 jne 0x1ccdab6 cmpq $0x0, 0x40(%r13) jne 0x1ccdab6 vmovss %xmm1, 0x20(%r10) vshufps $0xe9, %xmm2, %xmm2, %xmm1 # xmm1 = xmm2[1,2,2,3] vmovlps %xmm1, 0x30(%r10) vmovss %xmm2, 0x38(%r10) vmovlps %xmm0, 0x3c(%r10) movq 0x58(%rsp), %rax movl %eax, 0x44(%r10) movl %r8d, 0x48(%r10) movq 0x8(%r9), %rax movl (%rax), %eax movl %eax, 0x4c(%r10) movq 0x8(%r9), %rax movl 0x4(%rax), %eax movl %eax, 0x50(%r10) movq %rbp, %r13 movq %r12, %rbp jmp 0x1ccda79 movq %rbp, %r13 movq %r12, %rbp vmovaps (%rsp), %xmm7 testb %r14b, %r14b jne 0x1cccddf jmp 0x1ccdda5 vxorps %xmm16, %xmm16, %xmm16 vmovaps 0x40(%rsp), %xmm29 vmovaps %xmm27, %xmm14 jmp 0x1ccda74 xorl %r14d, %r14d jmp 0x1ccda74 movb $0x1, %r14b vmovaps %xmm27, %xmm15 vmovaps 0x80(%rsp), %xmm14 jmp 0x1ccda74 movq 0x8(%r9), %rax vshufps $0xe9, %xmm2, %xmm2, %xmm3 # xmm3 = xmm2[1,2,2,3] vmovlps %xmm3, 0x220(%rsp) vmovss %xmm2, 0x228(%rsp) vmovlps %xmm0, 0x22c(%rsp) movq 0x58(%rsp), %rcx movl %ecx, 0x234(%rsp) movl %r8d, 0x238(%rsp) movl (%rax), %ecx movl %ecx, 0x23c(%rsp) movl 0x4(%rax), %eax movl %eax, 0x240(%rsp) vmovss %xmm1, 0x20(%r10) movl $0xffffffff, 0x3c(%rsp) # imm = 0xFFFFFFFF leaq 0x3c(%rsp), %rax movq %rax, 0xb0(%rsp) movq 0x18(%r13), %rax movq %rax, 0xb8(%rsp) movq 0x8(%r9), %rax movq %rax, 0xc0(%rsp) movq %r10, 0xc8(%rsp) leaq 0x220(%rsp), %rax movq %rax, 0xd0(%rsp) movl $0x1, 0xd8(%rsp) movq 0x40(%r13), %rax testq %rax, %rax vmovaps %xmm15, 0xe0(%rsp) vmovss %xmm12, 0x1c(%rsp) je 0x1ccdc49 leaq 0xb0(%rsp), %rdi vzeroupper callq *%rax vmovss 0x1c(%rsp), %xmm12 vmovaps (%rsp), %xmm7 vmovaps 0x80(%rsp), %xmm14 vmovaps 0xe0(%rsp), %xmm15 vmovaps 0x60(%rsp), %xmm28 vmovaps 0x70(%rsp), %xmm26 vmovaps 0x40(%rsp), %xmm29 movq 0x30(%rsp), %r8 vxorps %xmm16, %xmm16, %xmm16 vmovss 0x222e0e(%rip), %xmm25 # 0x1ef09d8 vmovss 0x2242e8(%rip), %xmm24 # 0x1ef1ebc vbroadcastss 0x21eb36(%rip), %xmm23 # 0x1eec714 vmovss 0x223e64(%rip), %xmm22 # 0x1ef1a4c vmovss 0x22340e(%rip), %xmm21 # 0x1ef1000 vmovss 0x21eb18(%rip), %xmm20 # 0x1eec714 vmovss 0x2532da(%rip), %xmm19 # 0x1f20ee0 vbroadcastss 0x2233dc(%rip), %ymm18 # 0x1ef0fec vbroadcastss 0x2532aa(%rip), %xmm17 # 0x1f20ec4 vbroadcastss 0x21ef5c(%rip), %xmm31 # 0x1eecb80 vbroadcastss 0x253292(%rip), %xmm30 # 0x1f20ec0 movq 0x20(%rsp), %r10 movq 0x28(%rsp), %r9 movq 0xb0(%rsp), %rax cmpl $0x0, (%rax) je 0x1ccdd9a movq 0x10(%r9), %rcx movq 0x10(%rcx), %rax testq %rax, %rax je 0x1ccdd3c testb $0x2, (%rcx) jne 0x1ccdc6a testb $0x40, 0x3e(%r13) je 0x1ccdd2f leaq 0xb0(%rsp), %rdi vzeroupper callq *%rax vmovss 0x1c(%rsp), %xmm12 vmovaps (%rsp), %xmm7 vmovaps 0x80(%rsp), %xmm14 vmovaps 0xe0(%rsp), %xmm15 vmovaps 0x60(%rsp), %xmm28 vmovaps 0x70(%rsp), %xmm26 vmovaps 0x40(%rsp), %xmm29 movq 0x30(%rsp), %r8 vxorps %xmm16, %xmm16, %xmm16 vmovss 0x222d17(%rip), %xmm25 # 0x1ef09d8 vmovss 0x2241f1(%rip), %xmm24 # 0x1ef1ebc vbroadcastss 0x21ea3f(%rip), %xmm23 # 0x1eec714 vmovss 0x223d6d(%rip), %xmm22 # 0x1ef1a4c vmovss 0x223317(%rip), %xmm21 # 0x1ef1000 vmovss 0x21ea21(%rip), %xmm20 # 0x1eec714 vmovss 0x2531e3(%rip), %xmm19 # 0x1f20ee0 vbroadcastss 0x2232e5(%rip), %ymm18 # 0x1ef0fec vbroadcastss 0x2531b3(%rip), %xmm17 # 0x1f20ec4 vbroadcastss 0x21ee65(%rip), %xmm31 # 0x1eecb80 vbroadcastss 0x25319b(%rip), %xmm30 # 0x1f20ec0 movq 0x20(%rsp), %r10 movq 0x28(%rsp), %r9 movq 0xb0(%rsp), %rax cmpl $0x0, (%rax) je 0x1ccdd9a movq 0xc8(%rsp), %rax movq 0xd0(%rsp), %rcx vmovss (%rcx), %xmm0 vmovss %xmm0, 0x30(%rax) vmovss 0x4(%rcx), %xmm0 vmovss %xmm0, 0x34(%rax) vmovss 0x8(%rcx), %xmm0 vmovss %xmm0, 0x38(%rax) vmovss 0xc(%rcx), %xmm0 vmovss %xmm0, 0x3c(%rax) vmovss 0x10(%rcx), %xmm0 vmovss %xmm0, 0x40(%rax) movl 0x14(%rcx), %edx movl %edx, 0x44(%rax) movl 0x18(%rcx), %edx movl %edx, 0x48(%rax) movl 0x1c(%rcx), %edx movl %edx, 0x4c(%rax) movl 0x20(%rcx), %ecx movl %ecx, 0x50(%rax) jmp 0x1ccda66 vmovss %xmm12, 0x20(%r10) jmp 0x1ccda66 vinsertps $0x10, %xmm7, %xmm14, %xmm0 # xmm0 = xmm14[0],xmm7[0],xmm14[2,3] vmovaps 0x200(%rsp), %xmm6 vmovaps 0x1f0(%rsp), %xmm11 vmovaps 0x1e0(%rsp), %xmm17 vmovdqa 0x1d0(%rsp), %xmm7 vmovaps 0x1c0(%rsp), %xmm5 vmovaps 0x1b0(%rsp), %xmm8 vmovaps 0x1a0(%rsp), %xmm9 vmovaps 0x190(%rsp), %xmm10 vmovups 0x300(%rsp), %ymm28 vmovups 0x2e0(%rsp), %ymm26 jmp 0x1ccc8cd vmovups 0x2c0(%rsp), %ymm0 vcmpleps 0x20(%r10){1to8}, %ymm0, %k0 kmovb %k0, %eax andl %eax, %ebp jne 0x1ccc210 addq $0x348, %rsp # imm = 0x348 popq %rbx popq %r12 popq %r13 popq %r14 popq %r15 popq %rbp vzeroupper retq nop
/embree[P]embree/kernels/geometry/curveNi_intersector.h
bool embree::avx512::CurveNiIntersector1<8>::occluded_n<embree::avx512::OrientedCurve1Intersector1<embree::CatmullRomCurveT, 7, 8>, embree::avx512::Occluded1Epilog1<true>>(embree::avx512::CurvePrecalculations1 const&, embree::RayK<1>&, embree::RayQueryContext*, embree::CurveNi<8> const&)
static __forceinline bool occluded_n(const Precalculations& pre, Ray& ray, RayQueryContext* context, const Primitive& prim) { vfloat<M> tNear; vbool<M> valid = intersect(ray,prim,tNear); const size_t N = prim.N; size_t mask = movemask(valid); while (mask) { const size_t i = bscf(mask); STAT3(shadow.trav_prims,1,1,1); const unsigned int geomID = prim.geomID(N); const unsigned int primID = prim.primID(N)[i]; const CurveGeometry* geom = context->scene->get<CurveGeometry>(geomID); unsigned int vertexID = geom->curve(primID); Vec3ff a0,a1,a2,a3; Vec3fa n0,n1,n2,n3; geom->gather(a0,a1,a2,a3,n0,n1,n2,n3,vertexID); size_t mask1 = mask; const size_t i1 = bscf(mask1); if (mask) { const unsigned int primID1 = prim.primID(N)[i1]; geom->prefetchL1_vertices(geom->curve(primID1)); if (mask1) { const size_t i2 = bsf(mask1); const unsigned int primID2 = prim.primID(N)[i2]; geom->prefetchL2_vertices(geom->curve(primID2)); } } if (Intersector().intersect(pre,ray,context,geom,primID,a0,a1,a2,a3,n0,n1,n2,n3,Epilog(ray,context,geomID,primID))) return true; mask &= movemask(tNear <= vfloat<M>(ray.tfar)); } return false; }
pushq %rbp pushq %r15 pushq %r14 pushq %r13 pushq %r12 pushq %rbx subq $0x348, %rsp # imm = 0x348 movq %rdx, %r9 movq %rsi, %r15 movq %rdi, %r12 movzbl 0x1(%rcx), %eax leaq (%rax,%rax,4), %r8 leaq (%r8,%r8,4), %rdx vbroadcastss 0x12(%rcx,%rdx), %xmm0 vmovaps (%rsi), %xmm1 vsubps 0x6(%rcx,%rdx), %xmm1, %xmm1 vmulps 0x10(%rsi), %xmm0, %xmm2 vmulps %xmm1, %xmm0, %xmm3 vpmovsxbd 0x6(%rcx,%rax,4), %ymm0 vcvtdq2ps %ymm0, %ymm5 vpmovsxbd 0x6(%rcx,%r8), %ymm0 vcvtdq2ps %ymm0, %ymm6 leaq (%rax,%rax,2), %rdx vpmovsxbd 0x6(%rcx,%rdx,2), %ymm0 vcvtdq2ps %ymm0, %ymm7 leaq (%rax,%r8,2), %rsi vpmovsxbd 0x6(%rcx,%rsi), %ymm0 vcvtdq2ps %ymm0, %ymm8 leal (,%rdx,4), %esi vpmovsxbd 0x6(%rcx,%rsi), %ymm0 vcvtdq2ps %ymm0, %ymm9 addq %rax, %rsi vpmovsxbd 0x6(%rcx,%rsi), %ymm0 vcvtdq2ps %ymm0, %ymm10 leaq (%rax,%rax,8), %rsi leal (%rsi,%rsi), %edi vpmovsxbd 0x6(%rcx,%rdi), %ymm0 addq %rax, %rdi vpmovsxbd 0x6(%rcx,%rdi), %ymm1 vcvtdq2ps %ymm0, %ymm11 vcvtdq2ps %ymm1, %ymm12 shll $0x2, %r8d vpmovsxbd 0x6(%rcx,%r8), %ymm0 vcvtdq2ps %ymm0, %ymm13 vbroadcastss %xmm2, %ymm14 vbroadcastss 0x2447f8(%rip), %ymm16 # 0x1f12704 vpermps %ymm2, %ymm16, %ymm15 vbroadcastss 0x252fc0(%rip), %ymm17 # 0x1f20edc vpermps %ymm2, %ymm17, %ymm0 vmulps %ymm7, %ymm0, %ymm4 vmulps %ymm0, %ymm10, %ymm1 vmulps %ymm0, %ymm13, %ymm0 vfmadd231ps %ymm6, %ymm15, %ymm4 # ymm4 = (ymm15 * ymm6) + ymm4 vfmadd231ps %ymm9, %ymm15, %ymm1 # ymm1 = (ymm15 * ymm9) + ymm1 vfmadd231ps %ymm15, %ymm12, %ymm0 # ymm0 = (ymm12 * ymm15) + ymm0 vfmadd231ps %ymm5, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm5) + ymm4 vfmadd231ps %ymm8, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm8) + ymm1 vfmadd231ps %ymm14, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm14) + ymm0 vbroadcastss %xmm3, %ymm14 vpermps %ymm3, %ymm16, %ymm15 vpermps %ymm3, %ymm17, %ymm2 vmulps %ymm7, %ymm2, %ymm7 vmulps %ymm2, %ymm10, %ymm3 vmulps %ymm2, %ymm13, %ymm2 vfmadd231ps %ymm6, %ymm15, %ymm7 # ymm7 = (ymm15 * ymm6) + ymm7 vfmadd231ps %ymm9, %ymm15, %ymm3 # ymm3 = (ymm15 * ymm9) + ymm3 vfmadd231ps %ymm12, %ymm15, %ymm2 # ymm2 = (ymm15 * ymm12) + ymm2 vfmadd231ps %ymm5, %ymm14, %ymm7 # ymm7 = (ymm14 * ymm5) + ymm7 vfmadd231ps %ymm8, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm8) + ymm3 vfmadd231ps %ymm11, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm11) + ymm2 vbroadcastss 0x252f34(%rip), %ymm5 # 0x1f20ec4 vandps %ymm5, %ymm4, %ymm6 vbroadcastss 0x22304b(%rip), %ymm8 # 0x1ef0fe8 vcmpltps %ymm8, %ymm6, %k1 vmovaps %ymm8, %ymm4 {%k1} vandps %ymm5, %ymm1, %ymm6 vcmpltps %ymm8, %ymm6, %k1 vmovaps %ymm8, %ymm1 {%k1} vandps %ymm5, %ymm0, %ymm5 vcmpltps %ymm8, %ymm5, %k1 vmovaps %ymm8, %ymm0 {%k1} vrcp14ps %ymm4, %ymm5 vbroadcastss 0x21e739(%rip), %ymm6 # 0x1eec714 vfnmadd213ps %ymm6, %ymm5, %ymm4 # ymm4 = -(ymm5 * ymm4) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm4 # ymm4 = (ymm4 * ymm5) + ymm5 vrcp14ps %ymm1, %ymm5 vfnmadd213ps %ymm6, %ymm5, %ymm1 # ymm1 = -(ymm5 * ymm1) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm1 # ymm1 = (ymm1 * ymm5) + ymm5 vrcp14ps %ymm0, %ymm5 vfnmadd213ps %ymm6, %ymm5, %ymm0 # ymm0 = -(ymm5 * ymm0) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm0 # ymm0 = (ymm0 * ymm5) + ymm5 leaq (,%rax,8), %rdi subq %rax, %rdi vpmovsxwd 0x6(%rcx,%rdi), %ymm5 vcvtdq2ps %ymm5, %ymm5 vsubps %ymm7, %ymm5, %ymm5 vpmovsxwd 0x6(%rcx,%rsi), %ymm6 vmulps %ymm5, %ymm4, %ymm5 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm7, %ymm6, %ymm6 vmulps %ymm6, %ymm4, %ymm4 leaq (%rax,%rax), %rsi addq %rax, %r8 shlq $0x3, %rdx subq %rax, %rdx movl %eax, %edi shll $0x4, %edi vpmovsxwd 0x6(%rcx,%rdi), %ymm6 subq %rsi, %rdi vpmovsxwd 0x6(%rcx,%rdi), %ymm7 vcvtdq2ps %ymm7, %ymm7 vsubps %ymm3, %ymm7, %ymm7 vmulps %ymm7, %ymm1, %ymm7 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm3, %ymm6, %ymm3 vmulps %ymm3, %ymm1, %ymm1 vpmovsxwd 0x6(%rcx,%r8), %ymm3 vcvtdq2ps %ymm3, %ymm3 vsubps %ymm2, %ymm3, %ymm3 vmulps %ymm0, %ymm3, %ymm3 vpmovsxwd 0x6(%rcx,%rdx), %ymm6 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm2, %ymm6, %ymm2 vmulps %ymm2, %ymm0, %ymm0 vpminsd %ymm4, %ymm5, %ymm2 vpminsd %ymm1, %ymm7, %ymm6 vmaxps %ymm6, %ymm2, %ymm2 vpminsd %ymm0, %ymm3, %ymm6 vmaxps 0xc(%r15){1to8}, %ymm6, %ymm6 vmaxps %ymm6, %ymm2, %ymm2 vmulps 0x251e50(%rip){1to8}, %ymm2, %ymm6 # 0x1f1ff10 vpmaxsd %ymm4, %ymm5, %ymm2 vpmaxsd %ymm1, %ymm7, %ymm1 vminps %ymm1, %ymm2, %ymm1 vpmaxsd %ymm0, %ymm3, %ymm0 vminps 0x20(%r15){1to8}, %ymm0, %ymm0 vminps %ymm0, %ymm1, %ymm0 vmulps 0x251e2c(%rip){1to8}, %ymm0, %ymm0 # 0x1f1ff14 vpbroadcastd %eax, %ymm1 vpcmpgtd 0x28c828(%rip), %ymm1, %k0 # 0x1f5a920 vmovups %ymm6, 0x2c0(%rsp) vcmpleps %ymm0, %ymm6, %k1 ktestb %k0, %k1 setne 0xb(%rsp) je 0x1ccfcc2 kandb %k0, %k1, %k0 kmovd %k0, %eax movzbl %al, %r13d vbroadcastss 0x252d93(%rip), %xmm30 # 0x1f20ec0 vbroadcastss 0x21ea49(%rip), %xmm31 # 0x1eecb80 vbroadcastss 0x252d83(%rip), %xmm17 # 0x1f20ec4 movq %rcx, 0xa8(%rsp) movq %r9, 0x20(%rsp) tzcntq %r13, %rax movl 0x2(%rcx), %edx movl 0x6(%rcx,%rax,4), %edi movq (%r9), %rax movq 0x1e8(%rax), %rax movq %rdx, 0x48(%rsp) movq (%rax,%rdx,8), %rsi movq 0x58(%rsi), %rax movq 0x68(%rsi), %rbp movq %rbp, %rdx movq %rdi, 0xa0(%rsp) imulq %rdi, %rdx movl (%rax,%rdx), %r9d movq 0xa0(%rsi), %rdx movq %rdx, %rdi imulq %r9, %rdi leaq 0x1(%r9), %r11 leaq 0x2(%r9), %r10 leaq 0x3(%r9), %r8 movq 0xd8(%rsi), %rbx imulq %rbx, %r9 movq 0xc8(%rsi), %r14 vmovups (%r14,%r9), %xmm4 movq %rdx, %r9 imulq %r11, %r9 imulq %rbx, %r11 vmovups (%r14,%r11), %xmm5 movq %rdx, %r11 imulq %r10, %r11 imulq %rbx, %r10 vmovups (%r14,%r10), %xmm6 imulq %r8, %rbx vmovups (%r14,%rbx), %xmm7 movq %rdx, %r10 imulq %r8, %r10 movq 0x90(%rsi), %rsi vmovaps (%rsi,%rdi), %xmm8 vmovaps (%rsi,%r9), %xmm9 vmovaps (%rsi,%r11), %xmm10 blsrq %r13, %r13 vmovaps (%rsi,%r10), %xmm3 movq %r13, %rdi subq $0x1, %rdi jb 0x1cce25f andq %r13, %rdi tzcntq %r13, %r8 movl 0x6(%rcx,%r8,4), %r8d imulq %rbp, %r8 movl (%rax,%r8), %r8d imulq %rdx, %r8 prefetcht0 (%rsi,%r8) prefetcht0 0x40(%rsi,%r8) testq %rdi, %rdi je 0x1cce25f tzcntq %rdi, %rdi movl 0x6(%rcx,%rdi,4), %edi imulq %rdi, %rbp movl (%rax,%rbp), %eax imulq %rax, %rdx prefetcht1 (%rsi,%rdx) prefetcht1 0x40(%rsi,%rdx) vmulps %xmm30, %xmm3, %xmm2 vxorps %xmm0, %xmm0, %xmm0 vfmadd213ps %xmm2, %xmm10, %xmm0 # xmm0 = (xmm10 * xmm0) + xmm2 vaddps %xmm0, %xmm9, %xmm0 vfmadd231ps %xmm30, %xmm8, %xmm0 # xmm0 = (xmm8 * xmm30) + xmm0 vxorps %xmm18, %xmm18, %xmm18 vmulps %xmm18, %xmm3, %xmm1 vfmadd231ps %xmm31, %xmm10, %xmm1 # xmm1 = (xmm10 * xmm31) + xmm1 vfmadd231ps %xmm18, %xmm9, %xmm1 # xmm1 = (xmm9 * xmm18) + xmm1 vfnmadd231ps %xmm31, %xmm8, %xmm1 # xmm1 = -(xmm8 * xmm31) + xmm1 vmulps %xmm30, %xmm7, %xmm11 vxorps %xmm12, %xmm12, %xmm12 vfmadd213ps %xmm11, %xmm6, %xmm12 # xmm12 = (xmm6 * xmm12) + xmm11 vaddps %xmm5, %xmm12, %xmm12 vfmadd231ps %xmm30, %xmm4, %xmm12 # xmm12 = (xmm4 * xmm30) + xmm12 vmulps %xmm18, %xmm7, %xmm13 vfmadd231ps %xmm31, %xmm6, %xmm13 # xmm13 = (xmm6 * xmm31) + xmm13 vfmadd231ps %xmm18, %xmm5, %xmm13 # xmm13 = (xmm5 * xmm18) + xmm13 vfnmadd231ps %xmm31, %xmm4, %xmm13 # xmm13 = -(xmm4 * xmm31) + xmm13 vaddps %xmm2, %xmm10, %xmm2 vfmadd231ps %xmm18, %xmm9, %xmm2 # xmm2 = (xmm9 * xmm18) + xmm2 vfmadd231ps %xmm30, %xmm8, %xmm2 # xmm2 = (xmm8 * xmm30) + xmm2 vmulps %xmm31, %xmm3, %xmm3 vfmadd231ps %xmm10, %xmm18, %xmm3 # xmm3 = (xmm18 * xmm10) + xmm3 vfnmadd231ps %xmm9, %xmm31, %xmm3 # xmm3 = -(xmm31 * xmm9) + xmm3 vfmadd231ps %xmm8, %xmm18, %xmm3 # xmm3 = (xmm18 * xmm8) + xmm3 vaddps %xmm6, %xmm11, %xmm8 vfmadd231ps %xmm18, %xmm5, %xmm8 # xmm8 = (xmm5 * xmm18) + xmm8 vfmadd231ps %xmm30, %xmm4, %xmm8 # xmm8 = (xmm4 * xmm30) + xmm8 vmulps %xmm31, %xmm7, %xmm7 vfmadd231ps %xmm6, %xmm18, %xmm7 # xmm7 = (xmm18 * xmm6) + xmm7 vfnmadd231ps %xmm5, %xmm31, %xmm7 # xmm7 = -(xmm31 * xmm5) + xmm7 vfmadd231ps %xmm4, %xmm18, %xmm7 # xmm7 = (xmm18 * xmm4) + xmm7 vshufps $0xc9, %xmm1, %xmm1, %xmm4 # xmm4 = xmm1[1,2,0,3] vshufps $0xc9, %xmm12, %xmm12, %xmm5 # xmm5 = xmm12[1,2,0,3] vmulps %xmm5, %xmm1, %xmm5 vfmsub231ps %xmm12, %xmm4, %xmm5 # xmm5 = (xmm4 * xmm12) - xmm5 vshufps $0xc9, %xmm5, %xmm5, %xmm6 # xmm6 = xmm5[1,2,0,3] vshufps $0xc9, %xmm13, %xmm13, %xmm5 # xmm5 = xmm13[1,2,0,3] vmulps %xmm5, %xmm1, %xmm5 vfmsub231ps %xmm13, %xmm4, %xmm5 # xmm5 = (xmm4 * xmm13) - xmm5 vshufps $0xc9, %xmm5, %xmm5, %xmm9 # xmm9 = xmm5[1,2,0,3] vshufps $0xc9, %xmm3, %xmm3, %xmm5 # xmm5 = xmm3[1,2,0,3] vshufps $0xc9, %xmm8, %xmm8, %xmm4 # xmm4 = xmm8[1,2,0,3] vmulps %xmm4, %xmm3, %xmm4 vfmsub231ps %xmm8, %xmm5, %xmm4 # xmm4 = (xmm5 * xmm8) - xmm4 vshufps $0xc9, %xmm4, %xmm4, %xmm4 # xmm4 = xmm4[1,2,0,3] vshufps $0xc9, %xmm7, %xmm7, %xmm8 # xmm8 = xmm7[1,2,0,3] vmulps %xmm3, %xmm8, %xmm8 vfmsub231ps %xmm7, %xmm5, %xmm8 # xmm8 = (xmm5 * xmm7) - xmm8 vshufps $0xc9, %xmm8, %xmm8, %xmm5 # xmm5 = xmm8[1,2,0,3] vdpps $0x7f, %xmm6, %xmm6, %xmm7 vmovss %xmm7, %xmm18, %xmm8 # xmm8 = xmm7[0],xmm18[1,2,3] vrsqrt14ss %xmm8, %xmm18, %xmm10 vmovss 0x21e38c(%rip), %xmm14 # 0x1eec718 vmulss %xmm14, %xmm10, %xmm11 vmovss 0x21e383(%rip), %xmm15 # 0x1eec71c vmulss %xmm7, %xmm15, %xmm12 vmulss %xmm10, %xmm12, %xmm12 vmulss %xmm10, %xmm10, %xmm10 vmulss %xmm10, %xmm12, %xmm10 vaddss %xmm10, %xmm11, %xmm10 vdpps $0x7f, %xmm9, %xmm6, %xmm11 vbroadcastss %xmm10, %xmm10 vmulps %xmm6, %xmm10, %xmm12 vbroadcastss %xmm7, %xmm13 vmulps %xmm13, %xmm9, %xmm9 vbroadcastss %xmm11, %xmm11 vmulps %xmm6, %xmm11, %xmm6 vsubps %xmm6, %xmm9, %xmm6 vrcp14ss %xmm8, %xmm18, %xmm8 vmovss 0x222c11(%rip), %xmm16 # 0x1ef0ff8 vfnmadd213ss %xmm16, %xmm8, %xmm7 # xmm7 = -(xmm8 * xmm7) + xmm16 vmulss %xmm7, %xmm8, %xmm7 vbroadcastss %xmm7, %xmm7 vmulps %xmm7, %xmm6, %xmm6 vmulps %xmm6, %xmm10, %xmm6 vdpps $0x7f, %xmm4, %xmm4, %xmm7 vmovss %xmm7, %xmm18, %xmm8 # xmm8 = xmm7[0],xmm18[1,2,3] vrsqrt14ss %xmm8, %xmm18, %xmm9 vmulss %xmm14, %xmm9, %xmm10 vmulss %xmm7, %xmm15, %xmm11 vmulss %xmm9, %xmm11, %xmm11 vmulss %xmm9, %xmm9, %xmm9 vmulss %xmm9, %xmm11, %xmm9 vaddss %xmm9, %xmm10, %xmm9 vbroadcastss %xmm9, %xmm9 vdpps $0x7f, %xmm5, %xmm4, %xmm10 vmulps %xmm4, %xmm9, %xmm11 vbroadcastss %xmm7, %xmm13 vmulps %xmm5, %xmm13, %xmm5 vbroadcastss %xmm10, %xmm10 vmulps %xmm4, %xmm10, %xmm4 vsubps %xmm4, %xmm5, %xmm4 vrcp14ss %xmm8, %xmm18, %xmm5 vfnmadd213ss %xmm16, %xmm5, %xmm7 # xmm7 = -(xmm5 * xmm7) + xmm16 vmulss %xmm7, %xmm5, %xmm5 vbroadcastss %xmm5, %xmm5 vmulps %xmm5, %xmm4, %xmm4 vmulps %xmm4, %xmm9, %xmm4 vshufps $0xff, %xmm0, %xmm0, %xmm5 # xmm5 = xmm0[3,3,3,3] vmulps %xmm5, %xmm12, %xmm7 vsubps %xmm7, %xmm0, %xmm13 vshufps $0xff, %xmm1, %xmm1, %xmm8 # xmm8 = xmm1[3,3,3,3] vmulps %xmm12, %xmm8, %xmm8 vmulps %xmm6, %xmm5, %xmm5 vaddps %xmm5, %xmm8, %xmm5 vsubps %xmm5, %xmm1, %xmm6 vaddps %xmm7, %xmm0, %xmm14 vaddps %xmm5, %xmm1, %xmm0 vshufps $0xff, %xmm2, %xmm2, %xmm1 # xmm1 = xmm2[3,3,3,3] vmulps %xmm1, %xmm11, %xmm5 vsubps %xmm5, %xmm2, %xmm15 vshufps $0xff, %xmm3, %xmm3, %xmm7 # xmm7 = xmm3[3,3,3,3] vmulps %xmm7, %xmm11, %xmm7 vmulps %xmm4, %xmm1, %xmm1 vaddps %xmm1, %xmm7, %xmm1 vsubps %xmm1, %xmm3, %xmm4 vaddps %xmm5, %xmm2, %xmm16 vaddps %xmm1, %xmm3, %xmm1 vbroadcastss 0x2239ed(%rip), %xmm3 # 0x1ef1ebc vmulps %xmm3, %xmm6, %xmm2 vaddps %xmm2, %xmm13, %xmm18 vmulps %xmm3, %xmm4, %xmm2 vsubps %xmm2, %xmm15, %xmm19 vmulps %xmm3, %xmm0, %xmm0 vaddps %xmm0, %xmm14, %xmm20 vmulps %xmm3, %xmm1, %xmm0 vsubps %xmm0, %xmm16, %xmm21 vmovaps (%r15), %xmm4 vsubps %xmm4, %xmm13, %xmm0 vbroadcastss %xmm0, %xmm1 vshufps $0x55, %xmm0, %xmm0, %xmm2 # xmm2 = xmm0[1,1,1,1] vshufps $0xaa, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[2,2,2,2] vmovaps 0x10(%r12), %xmm3 vmovaps 0x20(%r12), %xmm5 vmovaps 0x30(%r12), %xmm6 vmulps %xmm0, %xmm6, %xmm0 vfmadd231ps %xmm2, %xmm5, %xmm0 # xmm0 = (xmm5 * xmm2) + xmm0 vfmadd231ps %xmm1, %xmm3, %xmm0 # xmm0 = (xmm3 * xmm1) + xmm0 vsubps %xmm4, %xmm18, %xmm1 vbroadcastss %xmm1, %xmm2 vshufps $0x55, %xmm1, %xmm1, %xmm7 # xmm7 = xmm1[1,1,1,1] vshufps $0xaa, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,2,2,2] vmulps %xmm1, %xmm6, %xmm1 vfmadd231ps %xmm7, %xmm5, %xmm1 # xmm1 = (xmm5 * xmm7) + xmm1 vfmadd231ps %xmm2, %xmm3, %xmm1 # xmm1 = (xmm3 * xmm2) + xmm1 vsubps %xmm4, %xmm19, %xmm2 vbroadcastss %xmm2, %xmm7 vshufps $0x55, %xmm2, %xmm2, %xmm8 # xmm8 = xmm2[1,1,1,1] vshufps $0xaa, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[2,2,2,2] vmulps %xmm2, %xmm6, %xmm2 vfmadd231ps %xmm8, %xmm5, %xmm2 # xmm2 = (xmm5 * xmm8) + xmm2 vfmadd231ps %xmm7, %xmm3, %xmm2 # xmm2 = (xmm3 * xmm7) + xmm2 vsubps %xmm4, %xmm15, %xmm7 vbroadcastss %xmm7, %xmm8 vshufps $0x55, %xmm7, %xmm7, %xmm9 # xmm9 = xmm7[1,1,1,1] vshufps $0xaa, %xmm7, %xmm7, %xmm7 # xmm7 = xmm7[2,2,2,2] vmulps %xmm7, %xmm6, %xmm7 vfmadd231ps %xmm9, %xmm5, %xmm7 # xmm7 = (xmm5 * xmm9) + xmm7 vfmadd231ps %xmm8, %xmm3, %xmm7 # xmm7 = (xmm3 * xmm8) + xmm7 vsubps %xmm4, %xmm14, %xmm8 vbroadcastss %xmm8, %xmm9 vshufps $0x55, %xmm8, %xmm8, %xmm10 # xmm10 = xmm8[1,1,1,1] vshufps $0xaa, %xmm8, %xmm8, %xmm8 # xmm8 = xmm8[2,2,2,2] vmulps %xmm6, %xmm8, %xmm8 vfmadd231ps %xmm10, %xmm5, %xmm8 # xmm8 = (xmm5 * xmm10) + xmm8 vfmadd231ps %xmm9, %xmm3, %xmm8 # xmm8 = (xmm3 * xmm9) + xmm8 vsubps %xmm4, %xmm20, %xmm9 vbroadcastss %xmm9, %xmm10 vshufps $0x55, %xmm9, %xmm9, %xmm11 # xmm11 = xmm9[1,1,1,1] vshufps $0xaa, %xmm9, %xmm9, %xmm9 # xmm9 = xmm9[2,2,2,2] vmulps %xmm6, %xmm9, %xmm9 vfmadd231ps %xmm11, %xmm5, %xmm9 # xmm9 = (xmm5 * xmm11) + xmm9 vfmadd231ps %xmm10, %xmm3, %xmm9 # xmm9 = (xmm3 * xmm10) + xmm9 vsubps %xmm4, %xmm21, %xmm10 vbroadcastss %xmm10, %xmm11 vshufps $0x55, %xmm10, %xmm10, %xmm12 # xmm12 = xmm10[1,1,1,1] vshufps $0xaa, %xmm10, %xmm10, %xmm10 # xmm10 = xmm10[2,2,2,2] vmulps %xmm6, %xmm10, %xmm10 vfmadd231ps %xmm12, %xmm5, %xmm10 # xmm10 = (xmm5 * xmm12) + xmm10 vfmadd231ps %xmm11, %xmm3, %xmm10 # xmm10 = (xmm3 * xmm11) + xmm10 vsubps %xmm4, %xmm16, %xmm4 vbroadcastss %xmm4, %xmm11 vshufps $0x55, %xmm4, %xmm4, %xmm12 # xmm12 = xmm4[1,1,1,1] vshufps $0xaa, %xmm4, %xmm4, %xmm4 # xmm4 = xmm4[2,2,2,2] vmulps %xmm4, %xmm6, %xmm4 vfmadd231ps %xmm12, %xmm5, %xmm4 # xmm4 = (xmm5 * xmm12) + xmm4 vfmadd231ps %xmm11, %xmm3, %xmm4 # xmm4 = (xmm3 * xmm11) + xmm4 vmovlhps %xmm8, %xmm0, %xmm29 # xmm29 = xmm0[0],xmm8[0] vmovlhps %xmm9, %xmm1, %xmm12 # xmm12 = xmm1[0],xmm9[0] vmovlhps %xmm10, %xmm2, %xmm22 # xmm22 = xmm2[0],xmm10[0] vmovlhps %xmm4, %xmm7, %xmm23 # xmm23 = xmm7[0],xmm4[0] vminps %xmm12, %xmm29, %xmm3 vmaxps %xmm12, %xmm29, %xmm5 vminps %xmm23, %xmm22, %xmm6 vminps %xmm6, %xmm3, %xmm3 vmaxps %xmm23, %xmm22, %xmm6 vmaxps %xmm6, %xmm5, %xmm5 vshufpd $0x3, %xmm3, %xmm3, %xmm6 # xmm6 = xmm3[1,1] vshufpd $0x3, %xmm5, %xmm5, %xmm11 # xmm11 = xmm5[1,1] vminps %xmm6, %xmm3, %xmm3 vmaxps %xmm11, %xmm5, %xmm5 vandps %xmm17, %xmm3, %xmm3 vandps %xmm17, %xmm5, %xmm5 vmaxps %xmm5, %xmm3, %xmm3 vmovshdup %xmm3, %xmm5 # xmm5 = xmm3[1,1,3,3] vmaxss %xmm3, %xmm5, %xmm3 vmulss 0x223825(%rip), %xmm3, %xmm3 # 0x1ef1eb8 vmovddup %xmm0, %xmm6 # xmm6 = xmm0[0,0] vmovddup %xmm1, %xmm11 # xmm11 = xmm1[0,0] vmovddup %xmm2, %xmm17 # xmm17 = xmm2[0,0] vmovddup %xmm7, %xmm7 # xmm7 = xmm7[0,0] vmovddup %xmm8, %xmm5 # xmm5 = xmm8[0,0] vmovddup %xmm9, %xmm8 # xmm8 = xmm9[0,0] vmovddup %xmm10, %xmm9 # xmm9 = xmm10[0,0] vmovddup %xmm4, %xmm10 # xmm10 = xmm4[0,0] vmovaps %xmm3, 0x170(%rsp) vbroadcastss %xmm3, %ymm28 vxorps %xmm30, %xmm28, %xmm0 vbroadcastss %xmm0, %ymm26 vsubps %xmm29, %xmm12, %xmm0 vmovaps %xmm0, 0x60(%rsp) vmovaps %xmm12, 0x90(%rsp) vsubps %xmm12, %xmm22, %xmm0 vmovaps %xmm0, 0x50(%rsp) vmovaps %xmm22, 0x80(%rsp) vmovaps %xmm23, 0x180(%rsp) vsubps %xmm22, %xmm23, %xmm0 vmovaps %xmm0, 0x290(%rsp) vmovaps %xmm13, 0x160(%rsp) vmovaps %xmm14, 0x150(%rsp) vsubps %xmm13, %xmm14, %xmm0 vmovaps %xmm0, 0x280(%rsp) vmovaps %xmm18, 0x120(%rsp) vmovaps %xmm20, 0x100(%rsp) vsubps %xmm18, %xmm20, %xmm0 vmovaps %xmm0, 0x270(%rsp) vmovaps %xmm19, 0x110(%rsp) vmovaps %xmm21, 0xf0(%rsp) vsubps %xmm19, %xmm21, %xmm0 vmovaps %xmm0, 0x260(%rsp) vmovaps %xmm15, 0x140(%rsp) vmovaps %xmm16, 0x130(%rsp) vsubps %xmm15, %xmm16, %xmm0 vmovaps %xmm0, 0x250(%rsp) xorl %edi, %edi vmovsd 0x21df55(%rip), %xmm0 # 0x1eec6f0 vmovaps %xmm0, %xmm15 xorl %ebp, %ebp movq 0x20(%rsp), %r9 vmovaps %xmm29, 0x30(%rsp) vmovaps %xmm6, 0x200(%rsp) vmovaps %xmm11, 0x1f0(%rsp) vmovaps %xmm17, 0x1e0(%rsp) vmovaps %xmm7, 0x1d0(%rsp) vmovaps %xmm5, 0x1c0(%rsp) vmovaps %xmm8, 0x1b0(%rsp) vmovaps %xmm9, 0x1a0(%rsp) vmovaps %xmm10, 0x190(%rsp) vmovups %ymm28, 0x300(%rsp) vmovups %ymm26, 0x2e0(%rsp) vmovaps %xmm15, %xmm27 vshufps $0x50, %xmm15, %xmm15, %xmm1 # xmm1 = xmm15[0,0,1,1] vbroadcastss 0x21defa(%rip), %ymm13 # 0x1eec714 vsubps %xmm1, %xmm13, %xmm2 vmulps %xmm1, %xmm5, %xmm3 vmulps %xmm1, %xmm8, %xmm4 vmulps %xmm1, %xmm9, %xmm5 vmulps %xmm1, %xmm10, %xmm1 vfmadd231ps %xmm6, %xmm2, %xmm3 # xmm3 = (xmm2 * xmm6) + xmm3 vfmadd231ps %xmm11, %xmm2, %xmm4 # xmm4 = (xmm2 * xmm11) + xmm4 vfmadd231ps %xmm17, %xmm2, %xmm5 # xmm5 = (xmm2 * xmm17) + xmm5 vfmadd231ps %xmm2, %xmm7, %xmm1 # xmm1 = (xmm7 * xmm2) + xmm1 vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3] vsubss %xmm0, %xmm2, %xmm6 vmulss 0x25267d(%rip), %xmm6, %xmm6 # 0x1f20ed0 vbroadcastss %xmm0, %ymm7 vbroadcastsd %xmm2, %ymm2 vsubps %ymm7, %ymm2, %ymm10 vbroadcastss %xmm3, %ymm2 vbroadcastss 0x243e95(%rip), %ymm9 # 0x1f12704 vpermps %ymm3, %ymm9, %ymm8 vbroadcastss %xmm4, %ymm20 vpermps %ymm4, %ymm9, %ymm21 vbroadcastss %xmm5, %ymm22 vpermps %ymm5, %ymm9, %ymm23 vbroadcastss %xmm1, %ymm24 vpermps %ymm1, %ymm9, %ymm25 vbroadcastss %xmm6, %ymm9 vbroadcastss 0x252635(%rip), %ymm16 # 0x1f20edc vpermps %ymm3, %ymm16, %ymm19 vbroadcastss 0x252622(%rip), %ymm6 # 0x1f20ed8 vpermps %ymm3, %ymm6, %ymm18 vpermps %ymm4, %ymm16, %ymm15 vpermps %ymm4, %ymm6, %ymm14 vpermps %ymm5, %ymm16, %ymm12 vpermps %ymm5, %ymm6, %ymm11 vpermps %ymm1, %ymm16, %ymm16 vpermps %ymm1, %ymm6, %ymm17 vfmadd132ps 0x252639(%rip), %ymm7, %ymm10 # ymm10 = (ymm10 * mem) + ymm7 vsubps %ymm10, %ymm13, %ymm13 vmulps %ymm10, %ymm20, %ymm1 vmulps %ymm10, %ymm21, %ymm3 vfmadd231ps %ymm2, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm2) + ymm1 vfmadd231ps %ymm8, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm8) + ymm3 vmulps %ymm10, %ymm22, %ymm2 vmulps %ymm10, %ymm23, %ymm4 vfmadd231ps %ymm20, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm20) + ymm2 vfmadd231ps %ymm21, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm21) + ymm4 vmulps %ymm10, %ymm24, %ymm5 vmulps %ymm10, %ymm25, %ymm6 vfmadd231ps %ymm22, %ymm13, %ymm5 # ymm5 = (ymm13 * ymm22) + ymm5 vfmadd231ps %ymm23, %ymm13, %ymm6 # ymm6 = (ymm13 * ymm23) + ymm6 vmulps %ymm2, %ymm10, %ymm7 vmulps %ymm4, %ymm10, %ymm8 vfmadd231ps %ymm1, %ymm13, %ymm7 # ymm7 = (ymm13 * ymm1) + ymm7 vfmadd231ps %ymm3, %ymm13, %ymm8 # ymm8 = (ymm13 * ymm3) + ymm8 vmulps %ymm5, %ymm10, %ymm1 vmulps %ymm6, %ymm10, %ymm5 vfmadd231ps %ymm2, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm2) + ymm1 vfmadd231ps %ymm4, %ymm13, %ymm5 # ymm5 = (ymm13 * ymm4) + ymm5 vmulps %ymm1, %ymm10, %ymm3 vmulps %ymm5, %ymm10, %ymm4 vfmadd231ps %ymm7, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm7) + ymm3 vfmadd231ps %ymm8, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm8) + ymm4 vsubps %ymm7, %ymm1, %ymm1 vsubps %ymm8, %ymm5, %ymm2 vbroadcastss 0x222671(%rip), %ymm22 # 0x1ef0fec vmulps %ymm22, %ymm1, %ymm1 vmulps %ymm22, %ymm2, %ymm2 vmulps %ymm1, %ymm9, %ymm8 vmulps %ymm2, %ymm9, %ymm20 vmovaps %ymm3, %ymm5 vmovaps 0x291381(%rip), %ymm23 # 0x1f5fd20 vxorps %xmm24, %xmm24, %xmm24 vpermt2ps %ymm24, %ymm23, %ymm5 vmovaps %ymm4, %ymm6 vpermt2ps %ymm24, %ymm23, %ymm6 vaddps %ymm3, %ymm8, %ymm1 vpermt2ps %ymm24, %ymm23, %ymm8 vaddps %ymm20, %ymm4, %ymm7 vpermt2ps %ymm24, %ymm23, %ymm20 vsubps %ymm8, %ymm5, %ymm2 vsubps %ymm20, %ymm6, %ymm8 vmulps %ymm10, %ymm15, %ymm20 vmulps %ymm10, %ymm14, %ymm21 vfmadd231ps %ymm19, %ymm13, %ymm20 # ymm20 = (ymm13 * ymm19) + ymm20 vfmadd231ps %ymm18, %ymm13, %ymm21 # ymm21 = (ymm13 * ymm18) + ymm21 vmulps %ymm10, %ymm12, %ymm18 vmulps %ymm10, %ymm11, %ymm19 vfmadd231ps %ymm15, %ymm13, %ymm18 # ymm18 = (ymm13 * ymm15) + ymm18 vfmadd231ps %ymm14, %ymm13, %ymm19 # ymm19 = (ymm13 * ymm14) + ymm19 vmulps %ymm10, %ymm16, %ymm14 vmulps %ymm10, %ymm17, %ymm15 vfmadd231ps %ymm12, %ymm13, %ymm14 # ymm14 = (ymm13 * ymm12) + ymm14 vfmadd231ps %ymm11, %ymm13, %ymm15 # ymm15 = (ymm13 * ymm11) + ymm15 vmulps %ymm18, %ymm10, %ymm16 vmulps %ymm19, %ymm10, %ymm17 vfmadd231ps %ymm20, %ymm13, %ymm16 # ymm16 = (ymm13 * ymm20) + ymm16 vfmadd231ps %ymm21, %ymm13, %ymm17 # ymm17 = (ymm13 * ymm21) + ymm17 vmulps %ymm14, %ymm10, %ymm14 vmulps %ymm15, %ymm10, %ymm15 vfmadd231ps %ymm18, %ymm13, %ymm14 # ymm14 = (ymm13 * ymm18) + ymm14 vfmadd231ps %ymm19, %ymm13, %ymm15 # ymm15 = (ymm13 * ymm19) + ymm15 vmulps %ymm14, %ymm10, %ymm11 vmulps %ymm15, %ymm10, %ymm12 vfmadd231ps %ymm16, %ymm13, %ymm11 # ymm11 = (ymm13 * ymm16) + ymm11 vfmadd231ps %ymm13, %ymm17, %ymm12 # ymm12 = (ymm17 * ymm13) + ymm12 vsubps %ymm16, %ymm14, %ymm10 vsubps %ymm17, %ymm15, %ymm13 vmulps %ymm22, %ymm10, %ymm10 vmulps %ymm22, %ymm13, %ymm13 vmulps %ymm10, %ymm9, %ymm10 vmulps %ymm13, %ymm9, %ymm16 vmovaps %ymm11, %ymm13 vpermt2ps %ymm24, %ymm23, %ymm13 vmovaps %ymm12, %ymm14 vpermt2ps %ymm24, %ymm23, %ymm14 vaddps %ymm10, %ymm11, %ymm9 vpermt2ps %ymm24, %ymm23, %ymm10 vaddps %ymm16, %ymm12, %ymm15 vpermt2ps %ymm24, %ymm23, %ymm16 vsubps %ymm10, %ymm13, %ymm10 vsubps %ymm16, %ymm14, %ymm16 vsubps %ymm3, %ymm11, %ymm17 vsubps %ymm4, %ymm12, %ymm18 vsubps %ymm5, %ymm13, %ymm19 vaddps %ymm19, %ymm17, %ymm17 vsubps %ymm6, %ymm14, %ymm19 vaddps %ymm19, %ymm18, %ymm18 vmulps %ymm17, %ymm4, %ymm19 vfnmadd231ps %ymm18, %ymm3, %ymm19 # ymm19 = -(ymm3 * ymm18) + ymm19 vmulps %ymm17, %ymm7, %ymm20 vfnmadd231ps %ymm18, %ymm1, %ymm20 # ymm20 = -(ymm1 * ymm18) + ymm20 vmulps %ymm17, %ymm8, %ymm21 vfnmadd231ps %ymm18, %ymm2, %ymm21 # ymm21 = -(ymm2 * ymm18) + ymm21 vmulps %ymm17, %ymm6, %ymm22 vfnmadd231ps %ymm18, %ymm5, %ymm22 # ymm22 = -(ymm5 * ymm18) + ymm22 vmulps %ymm17, %ymm12, %ymm23 vfnmadd231ps %ymm18, %ymm11, %ymm23 # ymm23 = -(ymm11 * ymm18) + ymm23 vmulps %ymm17, %ymm15, %ymm24 vfnmadd231ps %ymm18, %ymm9, %ymm24 # ymm24 = -(ymm9 * ymm18) + ymm24 vmulps %ymm17, %ymm16, %ymm25 vfnmadd231ps %ymm18, %ymm10, %ymm25 # ymm25 = -(ymm10 * ymm18) + ymm25 vmulps %ymm17, %ymm14, %ymm17 vfnmadd231ps %ymm18, %ymm13, %ymm17 # ymm17 = -(ymm13 * ymm18) + ymm17 vminps %ymm20, %ymm19, %ymm18 vmaxps %ymm20, %ymm19, %ymm19 vminps %ymm22, %ymm21, %ymm20 vminps %ymm20, %ymm18, %ymm18 vmaxps %ymm22, %ymm21, %ymm20 vmaxps %ymm20, %ymm19, %ymm19 vminps %ymm24, %ymm23, %ymm20 vmaxps %ymm24, %ymm23, %ymm21 vminps %ymm17, %ymm25, %ymm22 vminps %ymm22, %ymm20, %ymm20 vminps %ymm20, %ymm18, %ymm18 vmaxps %ymm17, %ymm25, %ymm17 vmaxps %ymm17, %ymm21, %ymm17 vmaxps %ymm17, %ymm19, %ymm17 vcmpleps %ymm28, %ymm18, %k1 vcmpnltps %ymm26, %ymm17, %k0 {%k1} kmovd %k0, %eax movl $0x0, %ecx andb $0x7f, %al je 0x1ccec87 vsubps %ymm3, %ymm5, %ymm17 vsubps %ymm4, %ymm6, %ymm18 vsubps %ymm11, %ymm13, %ymm19 vaddps %ymm19, %ymm17, %ymm17 vsubps %ymm12, %ymm14, %ymm19 vaddps %ymm19, %ymm18, %ymm18 vmulps %ymm17, %ymm4, %ymm4 vfnmadd231ps %ymm3, %ymm18, %ymm4 # ymm4 = -(ymm18 * ymm3) + ymm4 vmulps %ymm17, %ymm7, %ymm3 vfnmadd213ps %ymm3, %ymm18, %ymm1 # ymm1 = -(ymm18 * ymm1) + ymm3 vmulps %ymm17, %ymm8, %ymm3 vfnmadd213ps %ymm3, %ymm18, %ymm2 # ymm2 = -(ymm18 * ymm2) + ymm3 vmulps %ymm17, %ymm6, %ymm3 vfnmadd231ps %ymm5, %ymm18, %ymm3 # ymm3 = -(ymm18 * ymm5) + ymm3 vmulps %ymm17, %ymm12, %ymm5 vfnmadd231ps %ymm11, %ymm18, %ymm5 # ymm5 = -(ymm18 * ymm11) + ymm5 vmulps %ymm17, %ymm15, %ymm6 vfnmadd213ps %ymm6, %ymm18, %ymm9 # ymm9 = -(ymm18 * ymm9) + ymm6 vmulps %ymm17, %ymm16, %ymm6 vfnmadd213ps %ymm6, %ymm18, %ymm10 # ymm10 = -(ymm18 * ymm10) + ymm6 vmulps %ymm17, %ymm14, %ymm6 vfnmadd231ps %ymm18, %ymm13, %ymm6 # ymm6 = -(ymm13 * ymm18) + ymm6 vminps %ymm1, %ymm4, %ymm7 vmaxps %ymm1, %ymm4, %ymm1 vminps %ymm3, %ymm2, %ymm4 vminps %ymm4, %ymm7, %ymm4 vmaxps %ymm3, %ymm2, %ymm2 vmaxps %ymm2, %ymm1, %ymm1 vminps %ymm9, %ymm5, %ymm2 vmaxps %ymm9, %ymm5, %ymm3 vminps %ymm6, %ymm10, %ymm5 vminps %ymm5, %ymm2, %ymm2 vminps %ymm2, %ymm4, %ymm2 vmaxps %ymm6, %ymm10, %ymm4 vmaxps %ymm4, %ymm3, %ymm3 vmaxps %ymm3, %ymm1, %ymm1 vcmpnltps %ymm26, %ymm1, %k1 vcmpleps %ymm28, %ymm2, %k0 {%k1} kmovd %k0, %ecx andb %cl, %al movzbl %al, %ecx testl %ecx, %ecx je 0x1cceca7 movl %ebp, %eax movl %ecx, 0x210(%rsp,%rax,4) vmovlps %xmm0, 0x2a0(%rsp,%rax,8) vmovlps %xmm27, 0x320(%rsp,%rax,8) incl %ebp vbroadcastss 0x252213(%rip), %xmm17 # 0x1f20ec4 vbroadcastss 0x222331(%rip), %ymm18 # 0x1ef0fec vmovss 0x25221b(%rip), %xmm19 # 0x1f20ee0 vmovss 0x21da45(%rip), %xmm20 # 0x1eec714 vmovss 0x222327(%rip), %xmm21 # 0x1ef1000 vmovss 0x222d69(%rip), %xmm22 # 0x1ef1a4c vbroadcastss 0x21da27(%rip), %xmm23 # 0x1eec714 vmovss 0x2231c5(%rip), %xmm24 # 0x1ef1ebc vmovss 0x221cd7(%rip), %xmm25 # 0x1ef09d8 vxorps %xmm16, %xmm16, %xmm16 vmovaps 0x60(%rsp), %xmm26 vmovaps 0x50(%rsp), %xmm28 testl %ebp, %ebp je 0x1ccfc91 leal -0x1(%rbp), %eax vmovss 0x2a0(%rsp,%rax,8), %xmm0 vmovss 0x2a4(%rsp,%rax,8), %xmm1 movl 0x210(%rsp,%rax,4), %ecx vmovsd 0x320(%rsp,%rax,8), %xmm15 tzcntq %rcx, %rdx blsrl %ecx, %ecx movl %ecx, 0x210(%rsp,%rax,4) cmovel %eax, %ebp vpxord %xmm27, %xmm27, %xmm27 vcvtsi2ss %rdx, %xmm27, %xmm2 vmulss %xmm19, %xmm2, %xmm2 incq %rdx vpxord %xmm27, %xmm27, %xmm27 vcvtsi2ss %rdx, %xmm27, %xmm3 vmulss %xmm19, %xmm3, %xmm3 vsubss %xmm2, %xmm20, %xmm4 vmulss %xmm2, %xmm1, %xmm14 vfmadd231ss %xmm4, %xmm0, %xmm14 # xmm14 = (xmm0 * xmm4) + xmm14 vsubss %xmm3, %xmm20, %xmm2 vmulss %xmm3, %xmm1, %xmm13 vfmadd231ss %xmm2, %xmm0, %xmm13 # xmm13 = (xmm0 * xmm2) + xmm13 vsubss %xmm14, %xmm13, %xmm0 vucomiss %xmm0, %xmm21 jbe 0x1ccfc2f vmovaps %xmm15, %xmm27 vshufps $0x50, %xmm15, %xmm15, %xmm1 # xmm1 = xmm15[0,0,1,1] vucomiss %xmm0, %xmm22 seta %cl cmpl $0x4, %ebp setae %al vsubps %xmm1, %xmm23, %xmm2 vmulps 0x1c0(%rsp), %xmm1, %xmm3 vmulps 0x1b0(%rsp), %xmm1, %xmm4 vmulps 0x1a0(%rsp), %xmm1, %xmm5 vmulps 0x190(%rsp), %xmm1, %xmm1 vfmadd231ps 0x200(%rsp), %xmm2, %xmm3 # xmm3 = (xmm2 * mem) + xmm3 vfmadd231ps 0x1f0(%rsp), %xmm2, %xmm4 # xmm4 = (xmm2 * mem) + xmm4 vfmadd231ps 0x1e0(%rsp), %xmm2, %xmm5 # xmm5 = (xmm2 * mem) + xmm5 vfmadd231ps 0x1d0(%rsp), %xmm2, %xmm1 # xmm1 = (xmm2 * mem) + xmm1 vinsertf128 $0x1, %xmm3, %ymm3, %ymm2 vinsertf128 $0x1, %xmm4, %ymm4, %ymm3 vinsertf128 $0x1, %xmm5, %ymm5, %ymm4 vmovaps %xmm14, 0x70(%rsp) vbroadcastss %xmm14, %xmm6 vmovaps %xmm13, 0x10(%rsp) vbroadcastss %xmm13, %xmm7 vinsertf128 $0x1, %xmm7, %ymm6, %ymm6 vsubps %ymm2, %ymm3, %ymm7 vfmadd213ps %ymm2, %ymm6, %ymm7 # ymm7 = (ymm6 * ymm7) + ymm2 vsubps %ymm3, %ymm4, %ymm2 vfmadd213ps %ymm3, %ymm6, %ymm2 # ymm2 = (ymm6 * ymm2) + ymm3 vsubps %xmm5, %xmm1, %xmm1 vinsertf128 $0x1, %xmm1, %ymm1, %ymm3 vfmadd213ps %ymm4, %ymm6, %ymm3 # ymm3 = (ymm6 * ymm3) + ymm4 vsubps %ymm7, %ymm2, %ymm1 vfmadd213ps %ymm7, %ymm6, %ymm1 # ymm1 = (ymm6 * ymm1) + ymm7 vsubps %ymm2, %ymm3, %ymm3 vfmadd213ps %ymm2, %ymm6, %ymm3 # ymm3 = (ymm6 * ymm3) + ymm2 vsubps %ymm1, %ymm3, %ymm2 vfmadd231ps %ymm6, %ymm2, %ymm1 # ymm1 = (ymm2 * ymm6) + ymm1 vmulps %ymm18, %ymm2, %ymm3 vextractf128 $0x1, %ymm1, %xmm2 vextractf128 $0x1, %ymm3, %xmm4 vmulss %xmm24, %xmm0, %xmm5 vbroadcastss %xmm5, %xmm6 vmulps %xmm3, %xmm6, %xmm3 vaddps %xmm3, %xmm1, %xmm5 vmulps %xmm4, %xmm6, %xmm3 vsubps %xmm3, %xmm2, %xmm6 vshufpd $0x3, %xmm1, %xmm1, %xmm4 # xmm4 = xmm1[1,1] vshufpd $0x3, %xmm2, %xmm2, %xmm3 # xmm3 = xmm2[1,1] vsubps %xmm1, %xmm4, %xmm7 vsubps %xmm2, %xmm3, %xmm8 vaddps %xmm7, %xmm8, %xmm7 vshufps $0xb1, %xmm1, %xmm1, %xmm8 # xmm8 = xmm1[1,0,3,2] vshufps $0xb1, %xmm5, %xmm5, %xmm9 # xmm9 = xmm5[1,0,3,2] vshufps $0xb1, %xmm6, %xmm6, %xmm10 # xmm10 = xmm6[1,0,3,2] vshufps $0xb1, %xmm2, %xmm2, %xmm11 # xmm11 = xmm2[1,0,3,2] vbroadcastss %xmm7, %xmm12 vshufps $0x55, %xmm7, %xmm7, %xmm7 # xmm7 = xmm7[1,1,1,1] vmulps %xmm7, %xmm8, %xmm8 vmulps %xmm7, %xmm9, %xmm9 vmulps %xmm7, %xmm10, %xmm10 vmulps %xmm7, %xmm11, %xmm7 vfmadd231ps %xmm1, %xmm12, %xmm8 # xmm8 = (xmm12 * xmm1) + xmm8 vfmadd231ps %xmm5, %xmm12, %xmm9 # xmm9 = (xmm12 * xmm5) + xmm9 vfmadd231ps %xmm6, %xmm12, %xmm10 # xmm10 = (xmm12 * xmm6) + xmm10 vfmadd231ps %xmm12, %xmm2, %xmm7 # xmm7 = (xmm2 * xmm12) + xmm7 vshufpd $0x1, %xmm8, %xmm8, %xmm11 # xmm11 = xmm8[1,0] vshufpd $0x1, %xmm9, %xmm9, %xmm12 # xmm12 = xmm9[1,0] vshufpd $0x1, %xmm10, %xmm10, %xmm14 # xmm14 = xmm10[1,0] vshufpd $0x1, %xmm7, %xmm7, %xmm15 # xmm15 = xmm7[1,0] vminss %xmm9, %xmm8, %xmm13 vmaxss %xmm8, %xmm9, %xmm8 vminss %xmm7, %xmm10, %xmm9 vmaxss %xmm10, %xmm7, %xmm7 vminss %xmm9, %xmm13, %xmm13 vmaxss %xmm8, %xmm7, %xmm9 vminss %xmm12, %xmm11, %xmm7 vmaxss %xmm11, %xmm12, %xmm8 vminss %xmm15, %xmm14, %xmm10 vmaxss %xmm14, %xmm15, %xmm11 vminss %xmm10, %xmm7, %xmm14 vmaxss %xmm8, %xmm11, %xmm10 vucomiss %xmm13, %xmm25 jbe 0x1ccef72 vmovss 0x222f54(%rip), %xmm7 # 0x1ef1ec0 vucomiss %xmm7, %xmm10 ja 0x1ccefd3 vmovss 0x222f46(%rip), %xmm7 # 0x1ef1ec0 vucomiss %xmm7, %xmm9 seta %dl vmovss 0x221a4f(%rip), %xmm7 # 0x1ef09d8 vcmpltps %xmm7, %xmm14, %k0 vcmpltps %xmm7, %xmm13, %k1 korw %k0, %k1, %k0 kmovd %k0, %esi testb %sil, %dl jne 0x1ccefd3 vmovss 0x222f14(%rip), %xmm7 # 0x1ef1ec0 vcmpnltps %xmm10, %xmm7, %k0 vmovss 0x221a1d(%rip), %xmm7 # 0x1ef09d8 vcmpnltps %xmm7, %xmm14, %k1 korw %k0, %k1, %k0 kmovd %k0, %edx testb $0x1, %dl jne 0x1ccfc03 vcmpltss %xmm16, %xmm13, %k1 vmovaps %xmm20, %xmm15 vmovss 0x2219e2(%rip), %xmm16 # 0x1ef09cc vxorps %xmm11, %xmm11, %xmm11 vmovss %xmm16, %xmm15, %xmm15 {%k1} vcmpltss %xmm11, %xmm9, %k1 vmovaps %xmm20, %xmm12 vmovss %xmm16, %xmm12, %xmm12 {%k1} vucomiss %xmm12, %xmm15 setp %dl setne %sil orb %dl, %sil kmovd %esi, %k1 vmovss 0x21c9fd(%rip), %xmm7 # 0x1eeba20 vmovss %xmm11, %xmm7, %xmm7 {%k1} vmovss 0x21db53(%rip), %xmm8 # 0x1eecb84 vmovss %xmm11, %xmm8, %xmm8 {%k1} vcmpltss %xmm11, %xmm14, %k1 vmovaps %xmm20, %xmm11 vmovss %xmm16, %xmm11, %xmm11 {%k1} vucomiss %xmm11, %xmm15 jne 0x1ccf053 jnp 0x1ccf098 vucomiss %xmm13, %xmm14 jne 0x1ccf0a6 jp 0x1ccf0a6 vxorps %xmm16, %xmm16, %xmm16 vucomiss %xmm16, %xmm13 setnp %dl sete %sil andb %dl, %sil kmovd %esi, %k1 vmovss 0x21c9a2(%rip), %xmm13 # 0x1eeba20 vmovss %xmm16, %xmm13, %xmm13 {%k1} vmovss 0x21daf8(%rip), %xmm14 # 0x1eecb84 vmovss 0x21d67e(%rip), %xmm14 {%k1} # 0x1eec714 jmp 0x1ccf0d1 vxorps %xmm16, %xmm16, %xmm16 vmovaps %xmm27, %xmm15 jmp 0x1ccf0e1 vxorps 0x251e10(%rip){1to4}, %xmm13, %xmm15 # 0x1f20ec0 vsubss %xmm13, %xmm14, %xmm13 vdivss %xmm13, %xmm15, %xmm14 vsubss %xmm14, %xmm20, %xmm13 vxorps %xmm16, %xmm16, %xmm16 vfmadd213ss %xmm14, %xmm16, %xmm13 # xmm13 = (xmm16 * xmm13) + xmm14 vmovaps %xmm13, %xmm14 vmovaps %xmm27, %xmm15 vminss %xmm13, %xmm7, %xmm7 vmaxss %xmm8, %xmm14, %xmm8 vcmpltss %xmm16, %xmm10, %k1 vmovaps %xmm20, %xmm13 vmovss 0x2218d4(%rip), %xmm13 {%k1} # 0x1ef09cc vucomiss %xmm13, %xmm12 vmovaps 0x70(%rsp), %xmm14 jne 0x1ccf107 jnp 0x1ccf175 vucomiss %xmm9, %xmm10 jne 0x1ccf146 jp 0x1ccf146 vucomiss %xmm16, %xmm9 setnp %dl sete %sil andb %dl, %sil kmovd %esi, %k1 vmovss 0x21c8f4(%rip), %xmm9 # 0x1eeba20 vmovss %xmm16, %xmm9, %xmm9 {%k1} vmovss 0x21da4a(%rip), %xmm10 # 0x1eecb84 vmovss 0x21d5d0(%rip), %xmm10 {%k1} # 0x1eec714 jmp 0x1ccf16b vxorps 0x251d70(%rip){1to4}, %xmm9, %xmm12 # 0x1f20ec0 vsubss %xmm9, %xmm10, %xmm9 vdivss %xmm9, %xmm12, %xmm10 vsubss %xmm10, %xmm20, %xmm9 vfmadd213ss %xmm10, %xmm16, %xmm9 # xmm9 = (xmm16 * xmm9) + xmm10 vmovaps %xmm9, %xmm10 vminss %xmm9, %xmm7, %xmm7 vmaxss %xmm8, %xmm10, %xmm8 vucomiss %xmm13, %xmm11 setp %dl setne %sil orb %dl, %sil vminss %xmm20, %xmm7, %xmm9 kmovd %esi, %k1 vmovss %xmm9, %xmm7, %xmm7 {%k1} vmaxss %xmm8, %xmm20, %xmm9 vmovss %xmm9, %xmm8, %xmm8 {%k1} vmaxss %xmm7, %xmm16, %xmm7 vminss %xmm20, %xmm8, %xmm8 movb $0x1, %bl vucomiss %xmm8, %xmm7 ja 0x1ccfc11 vaddss 0x28e2a7(%rip), %xmm7, %xmm7 # 0x1f5d468 vaddss 0x21d9d3(%rip), %xmm8, %xmm8 # 0x1eecb9c vmaxss %xmm7, %xmm16, %xmm7 vminss %xmm20, %xmm8, %xmm8 vmovddup %xmm1, %xmm1 # xmm1 = xmm1[0,0] vmovddup %xmm5, %xmm9 # xmm9 = xmm5[0,0] vmovddup %xmm6, %xmm10 # xmm10 = xmm6[0,0] vmovddup %xmm2, %xmm2 # xmm2 = xmm2[0,0] vshufpd $0x3, %xmm5, %xmm5, %xmm5 # xmm5 = xmm5[1,1] vshufpd $0x3, %xmm6, %xmm6, %xmm6 # xmm6 = xmm6[1,1] vshufps $0x0, %xmm8, %xmm7, %xmm11 # xmm11 = xmm7[0,0],xmm8[0,0] vsubps %xmm11, %xmm23, %xmm12 vmulps %xmm4, %xmm11, %xmm13 vmulps %xmm5, %xmm11, %xmm5 vmulps %xmm6, %xmm11, %xmm6 vmulps %xmm3, %xmm11, %xmm3 vfmadd231ps %xmm1, %xmm12, %xmm13 # xmm13 = (xmm12 * xmm1) + xmm13 vfmadd231ps %xmm9, %xmm12, %xmm5 # xmm5 = (xmm12 * xmm9) + xmm5 vfmadd231ps %xmm10, %xmm12, %xmm6 # xmm6 = (xmm12 * xmm10) + xmm6 vfmadd231ps %xmm2, %xmm12, %xmm3 # xmm3 = (xmm12 * xmm2) + xmm3 vsubss %xmm7, %xmm20, %xmm2 vmovshdup %xmm15, %xmm4 # xmm4 = xmm15[1,1,3,3] vmulss %xmm7, %xmm4, %xmm1 vfmadd231ss %xmm2, %xmm15, %xmm1 # xmm1 = (xmm15 * xmm2) + xmm1 vsubss %xmm8, %xmm20, %xmm2 vmulss %xmm4, %xmm8, %xmm4 vfmadd231ss %xmm2, %xmm15, %xmm4 # xmm4 = (xmm15 * xmm2) + xmm4 vdivss %xmm0, %xmm20, %xmm0 vsubps %xmm13, %xmm5, %xmm2 vbroadcastss 0x221d96(%rip), %xmm15 # 0x1ef0fec vmulps %xmm2, %xmm15, %xmm2 vsubps %xmm5, %xmm6, %xmm7 vmulps %xmm7, %xmm15, %xmm7 vsubps %xmm6, %xmm3, %xmm8 vmulps %xmm15, %xmm8, %xmm8 vminps %xmm8, %xmm7, %xmm9 vmaxps %xmm8, %xmm7, %xmm7 vminps %xmm9, %xmm2, %xmm8 vmaxps %xmm7, %xmm2, %xmm2 vshufpd $0x3, %xmm8, %xmm8, %xmm7 # xmm7 = xmm8[1,1] vshufpd $0x3, %xmm2, %xmm2, %xmm9 # xmm9 = xmm2[1,1] vminps %xmm7, %xmm8, %xmm7 vmaxps %xmm9, %xmm2, %xmm2 vbroadcastss %xmm0, %xmm0 vmulps %xmm7, %xmm0, %xmm8 vmulps %xmm2, %xmm0, %xmm7 vsubss %xmm1, %xmm4, %xmm0 vdivss %xmm0, %xmm20, %xmm0 vshufpd $0x3, %xmm13, %xmm13, %xmm2 # xmm2 = xmm13[1,1] vshufpd $0x3, %xmm5, %xmm5, %xmm9 # xmm9 = xmm5[1,1] vshufpd $0x3, %xmm6, %xmm6, %xmm10 # xmm10 = xmm6[1,1] vshufpd $0x3, %xmm3, %xmm3, %xmm11 # xmm11 = xmm3[1,1] vsubps %xmm13, %xmm2, %xmm2 vsubps %xmm5, %xmm9, %xmm5 vsubps %xmm6, %xmm10, %xmm6 vsubps %xmm3, %xmm11, %xmm3 vminps %xmm5, %xmm2, %xmm9 vmaxps %xmm5, %xmm2, %xmm2 vminps %xmm3, %xmm6, %xmm5 vminps %xmm5, %xmm9, %xmm5 vmaxps %xmm3, %xmm6, %xmm3 vmaxps %xmm3, %xmm2, %xmm2 vbroadcastss %xmm0, %xmm0 vmulps %xmm5, %xmm0, %xmm10 vmulps %xmm2, %xmm0, %xmm11 vinsertps $0x10, %xmm1, %xmm14, %xmm6 # xmm6 = xmm14[0],xmm1[0],xmm14[2,3] vmovaps 0x10(%rsp), %xmm0 vinsertps $0x10, %xmm4, %xmm0, %xmm5 # xmm5 = xmm0[0],xmm4[0],xmm0[2,3] vaddps %xmm5, %xmm6, %xmm0 vmulps %xmm31, %xmm0, %xmm9 vshufps $0x54, %xmm9, %xmm9, %xmm0 # xmm0 = xmm9[0,1,1,1] vbroadcastss %xmm9, %xmm2 vmovaps %xmm26, %xmm3 vfmadd213ps %xmm29, %xmm2, %xmm3 # xmm3 = (xmm2 * xmm3) + xmm29 vmovaps %xmm28, %xmm12 vfmadd213ps 0x90(%rsp), %xmm2, %xmm12 # xmm12 = (xmm2 * xmm12) + mem vmovaps 0x290(%rsp), %xmm13 vfmadd213ps 0x80(%rsp), %xmm2, %xmm13 # xmm13 = (xmm2 * xmm13) + mem vmovaps %xmm14, %xmm27 vsubps %xmm3, %xmm12, %xmm14 vfmadd213ps %xmm3, %xmm2, %xmm14 # xmm14 = (xmm2 * xmm14) + xmm3 vsubps %xmm12, %xmm13, %xmm3 vfmadd213ps %xmm12, %xmm2, %xmm3 # xmm3 = (xmm2 * xmm3) + xmm12 vsubps %xmm14, %xmm3, %xmm3 vfmadd231ps %xmm2, %xmm3, %xmm14 # xmm14 = (xmm3 * xmm2) + xmm14 vmulps %xmm3, %xmm15, %xmm2 vmovddup %xmm14, %xmm12 # xmm12 = xmm14[0,0] vshufpd $0x3, %xmm14, %xmm14, %xmm3 # xmm3 = xmm14[1,1] vshufps $0x55, %xmm9, %xmm9, %xmm13 # xmm13 = xmm9[1,1,1,1] vsubps %xmm12, %xmm3, %xmm3 vfmadd231ps %xmm3, %xmm13, %xmm12 # xmm12 = (xmm13 * xmm3) + xmm12 vmovddup %xmm2, %xmm14 # xmm14 = xmm2[0,0] vshufpd $0x3, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[1,1] vsubps %xmm14, %xmm2, %xmm15 vfmadd213ps %xmm14, %xmm13, %xmm15 # xmm15 = (xmm13 * xmm15) + xmm14 vxorps %xmm30, %xmm3, %xmm2 vmovshdup %xmm15, %xmm13 # xmm13 = xmm15[1,1,3,3] vxorps %xmm30, %xmm13, %xmm14 vmovshdup %xmm3, %xmm16 # xmm16 = xmm3[1,1,3,3] vmovss 0x29093c(%rip), %xmm29 # 0x1f5fcfc vpermt2ps %xmm3, %xmm29, %xmm14 vmulss %xmm3, %xmm13, %xmm3 vfmsub231ss %xmm16, %xmm15, %xmm3 # xmm3 = (xmm15 * xmm16) - xmm3 vmovss 0x28b59c(%rip), %xmm13 # 0x1f5a974 vpermt2ps %xmm2, %xmm13, %xmm15 vbroadcastss %xmm3, %xmm3 vdivps %xmm3, %xmm14, %xmm2 vdivps %xmm3, %xmm15, %xmm3 vbroadcastss %xmm12, %xmm13 vmulps %xmm2, %xmm13, %xmm13 vshufps $0x55, %xmm12, %xmm12, %xmm12 # xmm12 = xmm12[1,1,1,1] vmulps %xmm3, %xmm12, %xmm12 vaddps %xmm12, %xmm13, %xmm12 vsubps %xmm12, %xmm0, %xmm0 vmovshdup %xmm2, %xmm12 # xmm12 = xmm2[1,1,3,3] vinsertps $0x1c, %xmm10, %xmm8, %xmm13 # xmm13 = xmm8[0],xmm10[0],zero,zero vmulps %xmm13, %xmm12, %xmm14 vinsertps $0x1c, %xmm11, %xmm7, %xmm15 # xmm15 = xmm7[0],xmm11[0],zero,zero vmulps %xmm15, %xmm12, %xmm12 vminps %xmm12, %xmm14, %xmm16 vmaxps %xmm14, %xmm12, %xmm12 vmovshdup %xmm3, %xmm14 # xmm14 = xmm3[1,1,3,3] vinsertps $0x4c, %xmm8, %xmm10, %xmm8 # xmm8 = xmm8[1],xmm10[1],zero,zero vmulps %xmm8, %xmm14, %xmm10 vinsertps $0x4c, %xmm7, %xmm11, %xmm7 # xmm7 = xmm7[1],xmm11[1],zero,zero vmulps %xmm7, %xmm14, %xmm11 vminps %xmm11, %xmm10, %xmm14 vaddps %xmm14, %xmm16, %xmm14 vmaxps %xmm10, %xmm11, %xmm10 vaddps %xmm10, %xmm12, %xmm10 vmovddup 0x251a8d(%rip), %xmm11 # xmm11 = mem[0,0] vsubps %xmm10, %xmm11, %xmm10 vsubps %xmm14, %xmm11, %xmm11 vsubps %xmm9, %xmm6, %xmm12 vsubps %xmm9, %xmm5, %xmm9 vmulps %xmm10, %xmm12, %xmm14 vbroadcastss %xmm2, %xmm16 vmulps %xmm13, %xmm16, %xmm13 vmulps %xmm15, %xmm16, %xmm15 vminps %xmm15, %xmm13, %xmm16 vmaxps %xmm13, %xmm15, %xmm13 vbroadcastss %xmm3, %xmm15 vmulps %xmm8, %xmm15, %xmm8 vmulps %xmm7, %xmm15, %xmm7 vminps %xmm7, %xmm8, %xmm15 vaddps %xmm15, %xmm16, %xmm15 vmulps %xmm11, %xmm12, %xmm16 vmulps %xmm10, %xmm9, %xmm10 vmulps %xmm11, %xmm9, %xmm11 vmaxps %xmm8, %xmm7, %xmm7 vaddps %xmm7, %xmm13, %xmm7 vmovddup 0x251a26(%rip), %xmm8 # xmm8 = mem[0,0] vsubps %xmm7, %xmm8, %xmm7 vsubps %xmm15, %xmm8, %xmm8 vmulps %xmm7, %xmm12, %xmm13 vmulps %xmm8, %xmm12, %xmm12 vmulps %xmm7, %xmm9, %xmm7 vmulps %xmm8, %xmm9, %xmm8 vminps %xmm12, %xmm13, %xmm9 vminps %xmm8, %xmm7, %xmm15 vminps %xmm15, %xmm9, %xmm9 vmaxps %xmm13, %xmm12, %xmm12 vmaxps %xmm7, %xmm8, %xmm7 vmaxps %xmm12, %xmm7, %xmm7 vminps %xmm16, %xmm14, %xmm8 vminps %xmm11, %xmm10, %xmm12 vminps %xmm12, %xmm8, %xmm8 vhaddps %xmm8, %xmm9, %xmm8 vmaxps %xmm14, %xmm16, %xmm9 vmaxps %xmm10, %xmm11, %xmm10 vmaxps %xmm9, %xmm10, %xmm9 vhaddps %xmm9, %xmm7, %xmm7 vshufps $0xe8, %xmm8, %xmm8, %xmm8 # xmm8 = xmm8[0,2,2,3] vshufps $0xe8, %xmm7, %xmm7, %xmm9 # xmm9 = xmm7[0,2,2,3] vaddps %xmm0, %xmm8, %xmm7 vaddps %xmm0, %xmm9, %xmm8 vmaxps %xmm7, %xmm6, %xmm6 vminps %xmm5, %xmm8, %xmm9 vcmpltps %xmm6, %xmm9, %k0 vinsertps $0x10, %xmm4, %xmm1, %xmm15 # xmm15 = xmm1[0],xmm4[0],xmm1[2,3] kmovd %k0, %edx testb $0x3, %dl jne 0x1ccfbe9 vucomiss %xmm8, %xmm5 seta %sil xorl %edx, %edx vucomiss %xmm27, %xmm7 vmovaps %xmm27, %xmm14 jbe 0x1ccf5e2 testb %sil, %sil vxorps %xmm16, %xmm16, %xmm16 vmovss 0x221a59(%rip), %xmm11 # 0x1ef0fec vmovaps 0x30(%rsp), %xmm29 vmovaps 0x90(%rsp), %xmm9 vmovaps 0x80(%rsp), %xmm10 vmovaps 0x180(%rsp), %xmm12 vmovaps 0x170(%rsp), %xmm13 je 0x1ccf61c vcmpltps %xmm5, %xmm8, %k0 kshiftrb $0x1, %k0, %k0 kmovd %k0, %esi vmovshdup %xmm7, %xmm4 # xmm4 = xmm7[1,1,3,3] vucomiss %xmm1, %xmm4 seta %dl andb %sil, %dl jmp 0x1ccf61c vxorps %xmm16, %xmm16, %xmm16 vmovss 0x2219fc(%rip), %xmm11 # 0x1ef0fec vmovaps 0x30(%rsp), %xmm29 vmovaps 0x90(%rsp), %xmm9 vmovaps 0x80(%rsp), %xmm10 vmovaps 0x180(%rsp), %xmm12 vmovaps 0x170(%rsp), %xmm13 orb %cl, %al orb %dl, %al cmpb $0x1, %al jne 0x1ccfbff movl $0xc8, %eax vsubss %xmm0, %xmm20, %xmm1 vmulss %xmm1, %xmm1, %xmm4 vmulss %xmm4, %xmm1, %xmm5 vmulss %xmm0, %xmm11, %xmm6 vmulss %xmm4, %xmm6, %xmm4 vmulss %xmm0, %xmm0, %xmm6 vmulss %xmm6, %xmm11, %xmm7 vmulss %xmm7, %xmm1, %xmm1 vbroadcastss %xmm5, %xmm5 vbroadcastss %xmm4, %xmm4 vbroadcastss %xmm1, %xmm1 vmulss %xmm6, %xmm0, %xmm6 vbroadcastss %xmm6, %xmm6 vmulps %xmm6, %xmm12, %xmm6 vfmadd231ps %xmm1, %xmm10, %xmm6 # xmm6 = (xmm10 * xmm1) + xmm6 vfmadd231ps %xmm4, %xmm9, %xmm6 # xmm6 = (xmm9 * xmm4) + xmm6 vfmadd231ps %xmm5, %xmm29, %xmm6 # xmm6 = (xmm29 * xmm5) + xmm6 vmovddup %xmm6, %xmm1 # xmm1 = xmm6[0,0] vshufpd $0x3, %xmm6, %xmm6, %xmm4 # xmm4 = xmm6[1,1] vshufps $0x55, %xmm0, %xmm0, %xmm5 # xmm5 = xmm0[1,1,1,1] vsubps %xmm1, %xmm4, %xmm4 vfmadd213ps %xmm1, %xmm5, %xmm4 # xmm4 = (xmm5 * xmm4) + xmm1 vbroadcastss %xmm4, %xmm1 vmulps %xmm1, %xmm2, %xmm1 vshufps $0x55, %xmm4, %xmm4, %xmm5 # xmm5 = xmm4[1,1,1,1] vmulps %xmm5, %xmm3, %xmm5 vaddps %xmm5, %xmm1, %xmm1 vsubps %xmm1, %xmm0, %xmm0 vandps %xmm17, %xmm4, %xmm1 vprolq $0x20, %xmm1, %xmm4 vmaxss %xmm1, %xmm4, %xmm1 vucomiss %xmm1, %xmm13 ja 0x1ccf6d1 decq %rax jne 0x1ccf62d jmp 0x1ccfc11 vucomiss %xmm16, %xmm0 jb 0x1ccfc11 vucomiss %xmm0, %xmm20 vmovaps 0x10(%rsp), %xmm13 jb 0x1ccfc17 vmovshdup %xmm0, %xmm1 # xmm1 = xmm0[1,1,3,3] vucomiss %xmm16, %xmm1 jb 0x1ccfc17 vucomiss %xmm1, %xmm20 jb 0x1ccfc17 vmovss 0x18(%r12), %xmm2 vinsertps $0x1c, 0x28(%r12), %xmm2, %xmm2 # xmm2 = xmm2[0],mem[0],zero,zero vinsertps $0x28, 0x38(%r12), %xmm2, %xmm2 # xmm2 = xmm2[0,1],mem[0],zero vmovaps (%r15), %xmm3 vmovaps 0x160(%rsp), %xmm4 vsubps %xmm3, %xmm4, %xmm4 vdpps $0x7f, %xmm2, %xmm4, %xmm4 vmovaps 0x120(%rsp), %xmm5 vsubps %xmm3, %xmm5, %xmm5 vdpps $0x7f, %xmm2, %xmm5, %xmm5 vmovaps 0x110(%rsp), %xmm6 vsubps %xmm3, %xmm6, %xmm6 vdpps $0x7f, %xmm2, %xmm6, %xmm6 vmovaps 0x140(%rsp), %xmm7 vsubps %xmm3, %xmm7, %xmm7 vdpps $0x7f, %xmm2, %xmm7, %xmm7 vmovaps 0x150(%rsp), %xmm8 vsubps %xmm3, %xmm8, %xmm8 vdpps $0x7f, %xmm2, %xmm8, %xmm8 vmovaps 0x100(%rsp), %xmm9 vsubps %xmm3, %xmm9, %xmm9 vdpps $0x7f, %xmm2, %xmm9, %xmm9 vmovaps 0xf0(%rsp), %xmm10 vsubps %xmm3, %xmm10, %xmm10 vdpps $0x7f, %xmm2, %xmm10, %xmm10 vmovaps 0x130(%rsp), %xmm12 vsubps %xmm3, %xmm12, %xmm3 vdpps $0x7f, %xmm2, %xmm3, %xmm2 vsubss %xmm1, %xmm20, %xmm3 vmulss %xmm1, %xmm8, %xmm8 vmulss %xmm1, %xmm9, %xmm9 vmulss %xmm1, %xmm10, %xmm10 vmulss %xmm2, %xmm1, %xmm1 vfmadd231ss %xmm4, %xmm3, %xmm8 # xmm8 = (xmm3 * xmm4) + xmm8 vfmadd231ss %xmm5, %xmm3, %xmm9 # xmm9 = (xmm3 * xmm5) + xmm9 vfmadd231ss %xmm6, %xmm3, %xmm10 # xmm10 = (xmm3 * xmm6) + xmm10 vfmadd231ss %xmm7, %xmm3, %xmm1 # xmm1 = (xmm3 * xmm7) + xmm1 vsubss %xmm0, %xmm20, %xmm6 vmulss %xmm6, %xmm6, %xmm3 vmulss %xmm3, %xmm6, %xmm2 vmulss %xmm0, %xmm11, %xmm4 vmulss %xmm3, %xmm4, %xmm3 vmulps %xmm0, %xmm0, %xmm5 vmulss %xmm5, %xmm11, %xmm4 vmulss %xmm4, %xmm6, %xmm4 vmulps %xmm5, %xmm0, %xmm5 vmulss %xmm1, %xmm5, %xmm1 vfmadd231ss %xmm10, %xmm4, %xmm1 # xmm1 = (xmm4 * xmm10) + xmm1 vfmadd231ss %xmm9, %xmm3, %xmm1 # xmm1 = (xmm3 * xmm9) + xmm1 vfmadd231ss %xmm8, %xmm2, %xmm1 # xmm1 = (xmm2 * xmm8) + xmm1 vucomiss 0xc(%r15), %xmm1 jb 0x1ccfc17 vmovss 0x20(%r15), %xmm12 vucomiss %xmm1, %xmm12 jb 0x1ccfc17 vshufps $0x55, %xmm0, %xmm0, %xmm7 # xmm7 = xmm0[1,1,1,1] vsubps %xmm7, %xmm23, %xmm8 vmulps 0x150(%rsp), %xmm7, %xmm9 vmulps 0x100(%rsp), %xmm7, %xmm10 vmulps 0xf0(%rsp), %xmm7, %xmm11 vmulps 0x130(%rsp), %xmm7, %xmm7 vfmadd231ps 0x160(%rsp), %xmm8, %xmm9 # xmm9 = (xmm8 * mem) + xmm9 vfmadd231ps 0x120(%rsp), %xmm8, %xmm10 # xmm10 = (xmm8 * mem) + xmm10 vfmadd231ps 0x110(%rsp), %xmm8, %xmm11 # xmm11 = (xmm8 * mem) + xmm11 vfmadd231ps 0x140(%rsp), %xmm8, %xmm7 # xmm7 = (xmm8 * mem) + xmm7 vsubps %xmm9, %xmm10, %xmm8 vsubps %xmm10, %xmm11, %xmm9 vsubps %xmm11, %xmm7, %xmm7 vbroadcastss %xmm0, %xmm10 vmulps %xmm9, %xmm10, %xmm11 vbroadcastss %xmm6, %xmm6 vfmadd231ps %xmm8, %xmm6, %xmm11 # xmm11 = (xmm6 * xmm8) + xmm11 vmulps %xmm7, %xmm10, %xmm7 vfmadd231ps %xmm9, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm9) + xmm7 vmulps %xmm7, %xmm10, %xmm7 vfmadd231ps %xmm11, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm11) + xmm7 vmulps 0x221718(%rip){1to4}, %xmm7, %xmm6 # 0x1ef0fec movq (%r9), %rax movq 0x1e8(%rax), %rax movq 0x48(%rsp), %rcx movq (%rax,%rcx,8), %r14 movl 0x24(%r15), %eax testl %eax, 0x34(%r14) je 0x1ccfbe2 movq 0x10(%r9), %rax cmpq $0x0, 0x10(%rax) jne 0x1ccf90d movb $0x1, %al cmpq $0x0, 0x48(%r14) je 0x1ccfbe4 vbroadcastss %xmm5, %xmm5 vmulps 0x250(%rsp), %xmm5, %xmm5 vbroadcastss %xmm4, %xmm4 vfmadd132ps 0x260(%rsp), %xmm5, %xmm4 # xmm4 = (xmm4 * mem) + xmm5 vbroadcastss %xmm3, %xmm3 vfmadd132ps 0x270(%rsp), %xmm4, %xmm3 # xmm3 = (xmm3 * mem) + xmm4 vbroadcastss %xmm2, %xmm2 vfmadd132ps 0x280(%rsp), %xmm3, %xmm2 # xmm2 = (xmm2 * mem) + xmm3 vshufps $0xc9, %xmm2, %xmm2, %xmm3 # xmm3 = xmm2[1,2,0,3] vshufps $0xc9, %xmm6, %xmm6, %xmm4 # xmm4 = xmm6[1,2,0,3] vmulps %xmm4, %xmm2, %xmm2 vfmsub231ps %xmm3, %xmm6, %xmm2 # xmm2 = (xmm6 * xmm3) - xmm2 movq 0x8(%r9), %rax vshufps $0xe9, %xmm2, %xmm2, %xmm3 # xmm3 = xmm2[1,2,2,3] vmovlps %xmm3, 0x220(%rsp) vmovss %xmm2, 0x228(%rsp) vmovlps %xmm0, 0x22c(%rsp) movq 0xa0(%rsp), %rcx movl %ecx, 0x234(%rsp) movq 0x48(%rsp), %rcx movl %ecx, 0x238(%rsp) movl (%rax), %ecx movl %ecx, 0x23c(%rsp) movl 0x4(%rax), %eax movl %eax, 0x240(%rsp) vmovss %xmm1, 0x20(%r15) movl $0xffffffff, 0x2c(%rsp) # imm = 0xFFFFFFFF leaq 0x2c(%rsp), %rax movq %rax, 0xb0(%rsp) movq 0x18(%r14), %rax movq %rax, 0xb8(%rsp) movq 0x8(%r9), %rax movq %rax, 0xc0(%rsp) movq %r15, 0xc8(%rsp) leaq 0x220(%rsp), %rax movq %rax, 0xd0(%rsp) movl $0x1, 0xd8(%rsp) movq 0x48(%r14), %rax testq %rax, %rax vmovaps %xmm15, 0xe0(%rsp) vmovss %xmm12, 0xc(%rsp) je 0x1ccfaf1 movl %edi, 0x28(%rsp) leaq 0xb0(%rsp), %rdi vzeroupper callq *%rax vmovss 0xc(%rsp), %xmm12 vmovaps 0x10(%rsp), %xmm13 vmovaps 0x70(%rsp), %xmm14 vmovaps 0xe0(%rsp), %xmm15 movl 0x28(%rsp), %edi vmovaps 0x50(%rsp), %xmm28 vmovaps 0x60(%rsp), %xmm26 vmovaps 0x30(%rsp), %xmm29 vxorps %xmm16, %xmm16, %xmm16 vmovss 0x220f61(%rip), %xmm25 # 0x1ef09d8 vmovss 0x22243b(%rip), %xmm24 # 0x1ef1ebc vbroadcastss 0x21cc89(%rip), %xmm23 # 0x1eec714 vmovss 0x221fb7(%rip), %xmm22 # 0x1ef1a4c vmovss 0x221561(%rip), %xmm21 # 0x1ef1000 vmovss 0x21cc6b(%rip), %xmm20 # 0x1eec714 vmovss 0x25142d(%rip), %xmm19 # 0x1f20ee0 vbroadcastss 0x22152f(%rip), %ymm18 # 0x1ef0fec vbroadcastss 0x2513fd(%rip), %xmm17 # 0x1f20ec4 vbroadcastss 0x21d0af(%rip), %xmm31 # 0x1eecb80 vbroadcastss 0x2513e5(%rip), %xmm30 # 0x1f20ec0 movq 0x20(%rsp), %r9 movq 0xb0(%rsp), %rax cmpl $0x0, (%rax) je 0x1ccfc21 movq 0x10(%r9), %rcx movq 0x10(%rcx), %rax testq %rax, %rax je 0x1ccfbde testb $0x2, (%rcx) jne 0x1ccfb12 testb $0x40, 0x3e(%r14) je 0x1ccfbd1 movl %edi, %r14d leaq 0xb0(%rsp), %rdi vzeroupper callq *%rax vmovss 0xc(%rsp), %xmm12 vmovaps 0x10(%rsp), %xmm13 vmovaps 0x70(%rsp), %xmm14 vmovaps 0xe0(%rsp), %xmm15 movl %r14d, %edi vmovaps 0x50(%rsp), %xmm28 vmovaps 0x60(%rsp), %xmm26 vmovaps 0x30(%rsp), %xmm29 vxorps %xmm16, %xmm16, %xmm16 vmovss 0x220e70(%rip), %xmm25 # 0x1ef09d8 vmovss 0x22234a(%rip), %xmm24 # 0x1ef1ebc vbroadcastss 0x21cb98(%rip), %xmm23 # 0x1eec714 vmovss 0x221ec6(%rip), %xmm22 # 0x1ef1a4c vmovss 0x221470(%rip), %xmm21 # 0x1ef1000 vmovss 0x21cb7a(%rip), %xmm20 # 0x1eec714 vmovss 0x25133c(%rip), %xmm19 # 0x1f20ee0 vbroadcastss 0x22143e(%rip), %ymm18 # 0x1ef0fec vbroadcastss 0x25130c(%rip), %xmm17 # 0x1f20ec4 vbroadcastss 0x21cfbe(%rip), %xmm31 # 0x1eecb80 vbroadcastss 0x2512f4(%rip), %xmm30 # 0x1f20ec0 movq 0x20(%rsp), %r9 movq 0xb0(%rsp), %rax cmpl $0x0, (%rax) je 0x1ccfc21 movb $0x1, %al jmp 0x1ccfc23 xorl %eax, %eax orb %al, %dil jmp 0x1ccfc17 vxorps %xmm16, %xmm16, %xmm16 vmovaps 0x30(%rsp), %xmm29 vmovaps %xmm27, %xmm14 jmp 0x1ccfc11 xorl %ebx, %ebx jmp 0x1ccfc11 movb $0x1, %bl vmovaps %xmm27, %xmm15 vmovaps 0x70(%rsp), %xmm14 vmovaps 0x10(%rsp), %xmm13 testb %bl, %bl jne 0x1cced17 jmp 0x1ccfc2f xorl %eax, %eax testb %al, %al jne 0x1ccfbe4 vmovss %xmm12, 0x20(%r15) jmp 0x1ccfbe4 vinsertps $0x10, %xmm13, %xmm14, %xmm0 # xmm0 = xmm14[0],xmm13[0],xmm14[2,3] vmovaps 0x200(%rsp), %xmm6 vmovaps 0x1f0(%rsp), %xmm11 vmovaps 0x1e0(%rsp), %xmm17 vmovaps 0x1d0(%rsp), %xmm7 vmovaps 0x1c0(%rsp), %xmm5 vmovaps 0x1b0(%rsp), %xmm8 vmovaps 0x1a0(%rsp), %xmm9 vmovaps 0x190(%rsp), %xmm10 vmovups 0x300(%rsp), %ymm28 vmovups 0x2e0(%rsp), %ymm26 jmp 0x1cce805 testb $0x1, %dil movq 0xa8(%rsp), %rcx jne 0x1ccfcc2 vmovups 0x2c0(%rsp), %ymm0 vcmpleps 0x20(%r15){1to8}, %ymm0, %k0 kmovb %k0, %eax andl %eax, %r13d setne 0xb(%rsp) jne 0x1cce14e movb 0xb(%rsp), %al andb $0x1, %al addq $0x348, %rsp # imm = 0x348 popq %rbx popq %r12 popq %r13 popq %r14 popq %r15 popq %rbp vzeroupper retq nop
/embree[P]embree/kernels/geometry/curveNi_intersector.h
bool embree::avx512::CurveNiIntersectorK<8, 4>::occluded_n<embree::avx512::OrientedCurve1IntersectorK<embree::CatmullRomCurveT, 4>, embree::avx512::Occluded1KEpilog1<4, true>>(embree::avx512::CurvePrecalculationsK<4>&, embree::RayK<4>&, unsigned long, embree::RayQueryContext*, embree::CurveNi<8> const&)
static __forceinline bool occluded_n(Precalculations& pre, RayK<K>& ray, const size_t k, RayQueryContext* context, const Primitive& prim) { vfloat<M> tNear; vbool<M> valid = intersect(ray,k,prim,tNear); const size_t N = prim.N; size_t mask = movemask(valid); while (mask) { const size_t i = bscf(mask); STAT3(shadow.trav_prims,1,1,1); const unsigned int geomID = prim.geomID(N); const unsigned int primID = prim.primID(N)[i]; const CurveGeometry* geom = context->scene->get<CurveGeometry>(geomID); unsigned int vertexID = geom->curve(primID); Vec3ff a0,a1,a2,a3; Vec3fa n0,n1,n2,n3; geom->gather(a0,a1,a2,a3,n0,n1,n2,n3,vertexID); size_t mask1 = mask; const size_t i1 = bscf(mask1); if (mask) { const unsigned int primID1 = prim.primID(N)[i1]; geom->prefetchL1_vertices(geom->curve(primID1)); if (mask1) { const size_t i2 = bsf(mask1); const unsigned int primID2 = prim.primID(N)[i2]; geom->prefetchL2_vertices(geom->curve(primID2)); } } if (Intersector().intersect(pre,ray,k,context,geom,primID,a0,a1,a2,a3,n0,n1,n2,n3,Epilog(ray,k,context,geomID,primID))) return true; mask &= movemask(tNear <= vfloat<M>(ray.tfar[k])); } return false; }
pushq %rbp pushq %r15 pushq %r14 pushq %r13 pushq %r12 pushq %rbx subq $0x468, %rsp # imm = 0x468 movq %r8, %r10 movq %rdx, %r14 movq %rsi, %r9 movzbl 0x1(%r8), %eax leaq (%rax,%rax,4), %rdx leaq (%rdx,%rdx,4), %rsi vbroadcastss 0x12(%r8,%rsi), %xmm0 vmovss (%r9,%r14,4), %xmm1 vmovss 0x40(%r9,%r14,4), %xmm2 vinsertps $0x10, 0x10(%r9,%r14,4), %xmm1, %xmm1 # xmm1 = xmm1[0],mem[0],xmm1[2,3] vinsertps $0x20, 0x20(%r9,%r14,4), %xmm1, %xmm1 # xmm1 = xmm1[0,1],mem[0],xmm1[3] vinsertps $0x10, 0x50(%r9,%r14,4), %xmm2, %xmm2 # xmm2 = xmm2[0],mem[0],xmm2[2,3] vinsertps $0x20, 0x60(%r9,%r14,4), %xmm2, %xmm2 # xmm2 = xmm2[0,1],mem[0],xmm2[3] vsubps 0x6(%r8,%rsi), %xmm1, %xmm1 vmulps %xmm1, %xmm0, %xmm3 vmulps %xmm2, %xmm0, %xmm0 vpmovsxbd 0x6(%r8,%rax,4), %ymm1 vcvtdq2ps %ymm1, %ymm5 vpmovsxbd 0x6(%r8,%rdx), %ymm1 vcvtdq2ps %ymm1, %ymm6 leaq (%rax,%rax,2), %r11 vpmovsxbd 0x6(%r8,%r11,2), %ymm1 vcvtdq2ps %ymm1, %ymm2 leaq (%rax,%rdx,2), %rsi vpmovsxbd 0x6(%r8,%rsi), %ymm1 vcvtdq2ps %ymm1, %ymm7 leal (,%r11,4), %esi vpmovsxbd 0x6(%r8,%rsi), %ymm1 vcvtdq2ps %ymm1, %ymm8 addq %rax, %rsi vpmovsxbd 0x6(%r8,%rsi), %ymm1 vcvtdq2ps %ymm1, %ymm9 leaq (%rax,%rax,8), %rsi leal (%rsi,%rsi), %r8d vpmovsxbd 0x6(%r10,%r8), %ymm1 addq %rax, %r8 vpmovsxbd 0x6(%r10,%r8), %ymm4 vcvtdq2ps %ymm1, %ymm10 vcvtdq2ps %ymm4, %ymm11 shll $0x2, %edx vpmovsxbd 0x6(%r10,%rdx), %ymm1 vcvtdq2ps %ymm1, %ymm12 vbroadcastss %xmm0, %ymm13 vbroadcastss 0x2407fa(%rip), %ymm15 # 0x1f12704 vpermps %ymm0, %ymm15, %ymm14 vbroadcastss 0x24efc3(%rip), %ymm16 # 0x1f20edc vpermps %ymm0, %ymm16, %ymm0 vmulps %ymm2, %ymm0, %ymm4 vmulps %ymm0, %ymm9, %ymm1 vmulps %ymm0, %ymm12, %ymm0 vfmadd231ps %ymm6, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm6) + ymm4 vfmadd231ps %ymm8, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm8) + ymm1 vfmadd231ps %ymm14, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm14) + ymm0 vfmadd231ps %ymm5, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm5) + ymm4 vfmadd231ps %ymm7, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm7) + ymm1 vfmadd231ps %ymm13, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm13) + ymm0 vbroadcastss %xmm3, %ymm13 vpermps %ymm3, %ymm15, %ymm14 vpermps %ymm3, %ymm16, %ymm15 vmulps %ymm2, %ymm15, %ymm16 vmulps %ymm9, %ymm15, %ymm3 vmulps %ymm12, %ymm15, %ymm2 vfmadd231ps %ymm6, %ymm14, %ymm16 # ymm16 = (ymm14 * ymm6) + ymm16 vfmadd231ps %ymm8, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm8) + ymm3 vfmadd231ps %ymm11, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm11) + ymm2 vfmadd231ps %ymm5, %ymm13, %ymm16 # ymm16 = (ymm13 * ymm5) + ymm16 vfmadd231ps %ymm7, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm7) + ymm3 vfmadd231ps %ymm10, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm10) + ymm2 vbroadcastss 0x24ef32(%rip), %ymm5 # 0x1f20ec4 vandps %ymm5, %ymm4, %ymm6 vbroadcastss 0x21f049(%rip), %ymm7 # 0x1ef0fe8 vcmpltps %ymm7, %ymm6, %k1 vmovaps %ymm7, %ymm4 {%k1} vandps %ymm5, %ymm1, %ymm6 vcmpltps %ymm7, %ymm6, %k1 vmovaps %ymm7, %ymm1 {%k1} vandps %ymm5, %ymm0, %ymm5 vcmpltps %ymm7, %ymm5, %k1 vmovaps %ymm7, %ymm0 {%k1} vrcp14ps %ymm4, %ymm5 vbroadcastss 0x21a737(%rip), %ymm6 # 0x1eec714 vfnmadd213ps %ymm6, %ymm5, %ymm4 # ymm4 = -(ymm5 * ymm4) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm4 # ymm4 = (ymm4 * ymm5) + ymm5 vrcp14ps %ymm1, %ymm5 vfnmadd213ps %ymm6, %ymm5, %ymm1 # ymm1 = -(ymm5 * ymm1) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm1 # ymm1 = (ymm1 * ymm5) + ymm5 vrcp14ps %ymm0, %ymm5 vfnmadd213ps %ymm6, %ymm5, %ymm0 # ymm0 = -(ymm5 * ymm0) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm0 # ymm0 = (ymm0 * ymm5) + ymm5 leaq (,%rax,8), %r8 subq %rax, %r8 vpmovsxwd 0x6(%r10,%r8), %ymm5 vcvtdq2ps %ymm5, %ymm5 vsubps %ymm16, %ymm5, %ymm5 vpmovsxwd 0x6(%r10,%rsi), %ymm6 vmulps %ymm5, %ymm4, %ymm5 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm16, %ymm6, %ymm6 vmulps %ymm6, %ymm4, %ymm4 leaq (%rax,%rax), %rsi addq %rax, %rdx shlq $0x3, %r11 subq %rax, %r11 movl %eax, %r8d shll $0x4, %r8d vpmovsxwd 0x6(%r10,%r8), %ymm6 subq %rsi, %r8 vpmovsxwd 0x6(%r10,%r8), %ymm7 vcvtdq2ps %ymm7, %ymm7 vsubps %ymm3, %ymm7, %ymm7 vmulps %ymm7, %ymm1, %ymm7 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm3, %ymm6, %ymm3 vmulps %ymm3, %ymm1, %ymm1 vpmovsxwd 0x6(%r10,%rdx), %ymm3 vcvtdq2ps %ymm3, %ymm3 vsubps %ymm2, %ymm3, %ymm3 vmulps %ymm0, %ymm3, %ymm3 vpmovsxwd 0x6(%r10,%r11), %ymm6 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm2, %ymm6, %ymm2 vmulps %ymm2, %ymm0, %ymm0 vpminsd %ymm4, %ymm5, %ymm2 vpminsd %ymm1, %ymm7, %ymm6 vmaxps %ymm6, %ymm2, %ymm2 vpminsd %ymm0, %ymm3, %ymm6 vmaxps 0x30(%r9,%r14,4){1to8}, %ymm6, %ymm6 vmaxps %ymm6, %ymm2, %ymm2 vmulps 0x24de47(%rip){1to8}, %ymm2, %ymm6 # 0x1f1ff10 vpmaxsd %ymm4, %ymm5, %ymm2 vpmaxsd %ymm1, %ymm7, %ymm1 vminps %ymm1, %ymm2, %ymm1 vpmaxsd %ymm0, %ymm3, %ymm0 vminps 0x80(%r9,%r14,4){1to8}, %ymm0, %ymm0 vminps %ymm0, %ymm1, %ymm0 vmulps 0x24de22(%rip){1to8}, %ymm0, %ymm0 # 0x1f1ff14 vpbroadcastd %eax, %ymm1 vpcmpgtd 0x28881e(%rip), %ymm1, %k0 # 0x1f5a920 vmovups %ymm6, 0x3e0(%rsp) vcmpleps %ymm0, %ymm6, %k1 ktestb %k0, %k1 setne 0xf(%rsp) je 0x1cd3eb6 kandb %k0, %k1, %k0 kmovd %k0, %eax movzbl %al, %r13d leaq (%r14,%r14,2), %rax shlq $0x4, %rax leaq (%rdi,%rax), %r12 addq $0x10, %r12 movl $0x1, %eax shlxl %r14d, %eax, %eax kmovd %eax, %k0 vbroadcastss 0x24ed6b(%rip), %xmm30 # 0x1f20ec0 vpmovm2d %k0, %xmm0 vmovdqa %xmm0, 0x1c0(%rsp) vbroadcastss 0x21aa12(%rip), %xmm17 # 0x1eecb80 vbroadcastss 0x24ed4c(%rip), %xmm19 # 0x1f20ec4 vxorps %xmm31, %xmm31, %xmm31 movq %r10, 0x80(%rsp) movq %r9, 0x78(%rsp) movq %rcx, 0x70(%rsp) tzcntq %r13, %rax movl 0x2(%r10), %edx movl 0x6(%r10,%rax,4), %eax movq (%rcx), %rcx movq 0x1e8(%rcx), %rcx movq %rdx, 0x88(%rsp) movq (%rcx,%rdx,8), %rdi movq 0x58(%rdi), %rcx movq 0x68(%rdi), %rdx movq %rdx, %rsi imulq %rax, %rsi movl (%rcx,%rsi), %r10d movq 0xa0(%rdi), %rsi movq %rsi, %r8 imulq %r10, %r8 leaq 0x1(%r10), %rbx leaq 0x2(%r10), %r11 leaq 0x3(%r10), %r9 movq 0xd8(%rdi), %r15 imulq %r15, %r10 movq 0xc8(%rdi), %rbp vmovups (%rbp,%r10), %xmm5 movq %rsi, %r10 imulq %rbx, %r10 imulq %r15, %rbx vmovups (%rbp,%rbx), %xmm6 movq %rsi, %rbx imulq %r11, %rbx imulq %r15, %r11 vmovups (%rbp,%r11), %xmm7 imulq %r9, %r15 vmovups (%rbp,%r15), %xmm8 movq %rsi, %r11 imulq %r9, %r11 movq 0x90(%rdi), %rdi vmovaps (%rdi,%r8), %xmm9 vmovaps (%rdi,%r10), %xmm10 movq 0x80(%rsp), %r10 vmovaps (%rdi,%rbx), %xmm11 blsrq %r13, %r13 vmovaps (%rdi,%r11), %xmm4 movq %r13, %r8 subq $0x1, %r8 jb 0x1cd22aa andq %r13, %r8 tzcntq %r13, %r9 movl 0x6(%r10,%r9,4), %r9d imulq %rdx, %r9 movl (%rcx,%r9), %r9d imulq %rsi, %r9 prefetcht0 (%rdi,%r9) prefetcht0 0x40(%rdi,%r9) testq %r8, %r8 je 0x1cd22aa tzcntq %r8, %r8 movl 0x6(%r10,%r8,4), %r8d imulq %r8, %rdx movl (%rcx,%rdx), %ecx imulq %rcx, %rsi prefetcht1 (%rdi,%rsi) prefetcht1 0x40(%rdi,%rsi) movq 0x78(%rsp), %r9 vmovss (%r9,%r14,4), %xmm0 vinsertps $0x1c, 0x10(%r9,%r14,4), %xmm0, %xmm0 # xmm0 = xmm0[0],mem[0],zero,zero vinsertps $0x28, 0x20(%r9,%r14,4), %xmm0, %xmm0 # xmm0 = xmm0[0,1],mem[0],zero vmulps %xmm30, %xmm4, %xmm3 vpxor %xmm1, %xmm1, %xmm1 vfmadd213ps %xmm3, %xmm11, %xmm1 # xmm1 = (xmm11 * xmm1) + xmm3 vaddps %xmm1, %xmm10, %xmm1 vfmadd231ps %xmm30, %xmm9, %xmm1 # xmm1 = (xmm9 * xmm30) + xmm1 vxorps %xmm15, %xmm15, %xmm15 vmulps %xmm4, %xmm15, %xmm2 vfmadd231ps %xmm17, %xmm11, %xmm2 # xmm2 = (xmm11 * xmm17) + xmm2 vfmadd231ps %xmm15, %xmm10, %xmm2 # xmm2 = (xmm10 * xmm15) + xmm2 vfnmadd231ps %xmm17, %xmm9, %xmm2 # xmm2 = -(xmm9 * xmm17) + xmm2 vmulps %xmm30, %xmm8, %xmm12 vxorps %xmm13, %xmm13, %xmm13 vfmadd213ps %xmm12, %xmm7, %xmm13 # xmm13 = (xmm7 * xmm13) + xmm12 vaddps %xmm6, %xmm13, %xmm13 vfmadd231ps %xmm30, %xmm5, %xmm13 # xmm13 = (xmm5 * xmm30) + xmm13 vmulps %xmm15, %xmm8, %xmm14 vfmadd231ps %xmm17, %xmm7, %xmm14 # xmm14 = (xmm7 * xmm17) + xmm14 vfmadd231ps %xmm15, %xmm6, %xmm14 # xmm14 = (xmm6 * xmm15) + xmm14 vfnmadd231ps %xmm17, %xmm5, %xmm14 # xmm14 = -(xmm5 * xmm17) + xmm14 vaddps %xmm3, %xmm11, %xmm3 vfmadd231ps %xmm15, %xmm10, %xmm3 # xmm3 = (xmm10 * xmm15) + xmm3 vfmadd231ps %xmm30, %xmm9, %xmm3 # xmm3 = (xmm9 * xmm30) + xmm3 vmulps %xmm17, %xmm4, %xmm4 vfmadd231ps %xmm11, %xmm15, %xmm4 # xmm4 = (xmm15 * xmm11) + xmm4 vfnmadd231ps %xmm10, %xmm17, %xmm4 # xmm4 = -(xmm17 * xmm10) + xmm4 vfmadd231ps %xmm9, %xmm15, %xmm4 # xmm4 = (xmm15 * xmm9) + xmm4 vaddps %xmm7, %xmm12, %xmm9 vfmadd231ps %xmm15, %xmm6, %xmm9 # xmm9 = (xmm6 * xmm15) + xmm9 vfmadd231ps %xmm30, %xmm5, %xmm9 # xmm9 = (xmm5 * xmm30) + xmm9 vmulps %xmm17, %xmm8, %xmm8 vfmadd231ps %xmm7, %xmm15, %xmm8 # xmm8 = (xmm15 * xmm7) + xmm8 vfnmadd231ps %xmm6, %xmm17, %xmm8 # xmm8 = -(xmm17 * xmm6) + xmm8 vfmadd231ps %xmm5, %xmm15, %xmm8 # xmm8 = (xmm15 * xmm5) + xmm8 vshufps $0xc9, %xmm2, %xmm2, %xmm5 # xmm5 = xmm2[1,2,0,3] vshufps $0xc9, %xmm13, %xmm13, %xmm6 # xmm6 = xmm13[1,2,0,3] vmulps %xmm6, %xmm2, %xmm6 vfmsub231ps %xmm13, %xmm5, %xmm6 # xmm6 = (xmm5 * xmm13) - xmm6 vshufps $0xc9, %xmm6, %xmm6, %xmm7 # xmm7 = xmm6[1,2,0,3] vshufps $0xc9, %xmm14, %xmm14, %xmm6 # xmm6 = xmm14[1,2,0,3] vmulps %xmm6, %xmm2, %xmm6 vfmsub231ps %xmm14, %xmm5, %xmm6 # xmm6 = (xmm5 * xmm14) - xmm6 vshufps $0xc9, %xmm6, %xmm6, %xmm10 # xmm10 = xmm6[1,2,0,3] vshufps $0xc9, %xmm4, %xmm4, %xmm6 # xmm6 = xmm4[1,2,0,3] vshufps $0xc9, %xmm9, %xmm9, %xmm5 # xmm5 = xmm9[1,2,0,3] vmulps %xmm5, %xmm4, %xmm5 vfmsub231ps %xmm9, %xmm6, %xmm5 # xmm5 = (xmm6 * xmm9) - xmm5 vshufps $0xc9, %xmm5, %xmm5, %xmm5 # xmm5 = xmm5[1,2,0,3] vshufps $0xc9, %xmm8, %xmm8, %xmm9 # xmm9 = xmm8[1,2,0,3] vmulps %xmm4, %xmm9, %xmm9 vfmsub231ps %xmm8, %xmm6, %xmm9 # xmm9 = (xmm6 * xmm8) - xmm9 vshufps $0xc9, %xmm9, %xmm9, %xmm6 # xmm6 = xmm9[1,2,0,3] vdpps $0x7f, %xmm7, %xmm7, %xmm8 vmovss %xmm8, %xmm15, %xmm9 # xmm9 = xmm8[0],xmm15[1,2,3] vrsqrt14ss %xmm9, %xmm15, %xmm11 vmovss 0x21a330(%rip), %xmm16 # 0x1eec718 vmulss %xmm16, %xmm11, %xmm12 vmovss 0x21a324(%rip), %xmm17 # 0x1eec71c vmulss %xmm17, %xmm8, %xmm13 vmulss %xmm11, %xmm13, %xmm13 vmulss %xmm11, %xmm11, %xmm11 vmulss %xmm11, %xmm13, %xmm11 vaddss %xmm11, %xmm12, %xmm11 vbroadcastss %xmm11, %xmm11 vmulps %xmm7, %xmm11, %xmm12 vdpps $0x7f, %xmm10, %xmm7, %xmm13 vbroadcastss %xmm8, %xmm14 vmulps %xmm14, %xmm10, %xmm10 vbroadcastss %xmm13, %xmm13 vmulps %xmm7, %xmm13, %xmm7 vsubps %xmm7, %xmm10, %xmm7 vrcp14ss %xmm9, %xmm15, %xmm9 vmovss 0x21ebb0(%rip), %xmm18 # 0x1ef0ff8 vfnmadd213ss %xmm18, %xmm9, %xmm8 # xmm8 = -(xmm9 * xmm8) + xmm18 vmulss %xmm8, %xmm9, %xmm8 vdpps $0x7f, %xmm5, %xmm5, %xmm9 vbroadcastss %xmm8, %xmm8 vmulps %xmm7, %xmm8, %xmm7 vmulps %xmm7, %xmm11, %xmm7 vmovss %xmm9, %xmm15, %xmm8 # xmm8 = xmm9[0],xmm15[1,2,3] vrsqrt14ss %xmm8, %xmm15, %xmm10 vmulss %xmm16, %xmm10, %xmm11 vmulss %xmm17, %xmm9, %xmm13 vmulss %xmm10, %xmm13, %xmm13 vmulss %xmm10, %xmm10, %xmm10 vmulss %xmm10, %xmm13, %xmm10 vaddss %xmm10, %xmm11, %xmm10 vbroadcastss %xmm10, %xmm10 vmulps %xmm5, %xmm10, %xmm11 vdpps $0x7f, %xmm6, %xmm5, %xmm13 vbroadcastss %xmm9, %xmm14 vmulps %xmm6, %xmm14, %xmm6 vbroadcastss %xmm13, %xmm13 vmulps %xmm5, %xmm13, %xmm5 vsubps %xmm5, %xmm6, %xmm5 vrcp14ss %xmm8, %xmm15, %xmm6 vfnmadd213ss %xmm18, %xmm6, %xmm9 # xmm9 = -(xmm6 * xmm9) + xmm18 vmulss %xmm6, %xmm9, %xmm6 vbroadcastss %xmm6, %xmm6 vmulps %xmm6, %xmm5, %xmm5 vmulps %xmm5, %xmm10, %xmm5 vshufps $0xff, %xmm1, %xmm1, %xmm6 # xmm6 = xmm1[3,3,3,3] vmulps %xmm6, %xmm12, %xmm8 vsubps %xmm8, %xmm1, %xmm13 vshufps $0xff, %xmm2, %xmm2, %xmm9 # xmm9 = xmm2[3,3,3,3] vmulps %xmm12, %xmm9, %xmm9 vmulps %xmm7, %xmm6, %xmm6 vaddps %xmm6, %xmm9, %xmm6 vsubps %xmm6, %xmm2, %xmm7 vaddps %xmm1, %xmm8, %xmm14 vaddps %xmm6, %xmm2, %xmm1 vshufps $0xff, %xmm3, %xmm3, %xmm2 # xmm2 = xmm3[3,3,3,3] vmulps %xmm2, %xmm11, %xmm6 vsubps %xmm6, %xmm3, %xmm15 vshufps $0xff, %xmm4, %xmm4, %xmm8 # xmm8 = xmm4[3,3,3,3] vmulps %xmm11, %xmm8, %xmm8 vmulps %xmm5, %xmm2, %xmm2 vaddps %xmm2, %xmm8, %xmm2 vsubps %xmm2, %xmm4, %xmm5 vaddps %xmm6, %xmm3, %xmm16 vaddps %xmm2, %xmm4, %xmm2 vbroadcastss 0x21f987(%rip), %xmm4 # 0x1ef1ebc vmulps %xmm4, %xmm7, %xmm3 vaddps %xmm3, %xmm13, %xmm17 vmulps %xmm4, %xmm5, %xmm3 vsubps %xmm3, %xmm15, %xmm18 vmulps %xmm4, %xmm1, %xmm1 vaddps %xmm1, %xmm14, %xmm20 vmulps %xmm4, %xmm2, %xmm1 vsubps %xmm1, %xmm16, %xmm21 vsubps %xmm0, %xmm13, %xmm1 vbroadcastss %xmm1, %xmm2 vshufps $0x55, %xmm1, %xmm1, %xmm3 # xmm3 = xmm1[1,1,1,1] vmovaps %xmm1, 0x320(%rsp) vshufps $0xaa, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,2,2,2] vmovaps (%r12), %xmm4 vmovaps 0x10(%r12), %xmm5 vmovaps 0x20(%r12), %xmm6 vmulps %xmm1, %xmm6, %xmm1 vfmadd231ps %xmm3, %xmm5, %xmm1 # xmm1 = (xmm5 * xmm3) + xmm1 vfmadd231ps %xmm2, %xmm4, %xmm1 # xmm1 = (xmm4 * xmm2) + xmm1 vsubps %xmm0, %xmm17, %xmm2 vbroadcastss %xmm2, %xmm3 vshufps $0x55, %xmm2, %xmm2, %xmm7 # xmm7 = xmm2[1,1,1,1] vmovaps %xmm2, 0x310(%rsp) vshufps $0xaa, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[2,2,2,2] vmulps %xmm2, %xmm6, %xmm2 vfmadd231ps %xmm7, %xmm5, %xmm2 # xmm2 = (xmm5 * xmm7) + xmm2 vfmadd231ps %xmm3, %xmm4, %xmm2 # xmm2 = (xmm4 * xmm3) + xmm2 vsubps %xmm0, %xmm18, %xmm3 vbroadcastss %xmm3, %xmm7 vshufps $0x55, %xmm3, %xmm3, %xmm8 # xmm8 = xmm3[1,1,1,1] vmovaps %xmm3, 0x300(%rsp) vshufps $0xaa, %xmm3, %xmm3, %xmm3 # xmm3 = xmm3[2,2,2,2] vmulps %xmm3, %xmm6, %xmm3 vfmadd231ps %xmm8, %xmm5, %xmm3 # xmm3 = (xmm5 * xmm8) + xmm3 vfmadd231ps %xmm7, %xmm4, %xmm3 # xmm3 = (xmm4 * xmm7) + xmm3 vsubps %xmm0, %xmm15, %xmm9 vbroadcastss %xmm9, %xmm7 vshufps $0x55, %xmm9, %xmm9, %xmm8 # xmm8 = xmm9[1,1,1,1] vmovaps %xmm9, 0x2f0(%rsp) vshufps $0xaa, %xmm9, %xmm9, %xmm9 # xmm9 = xmm9[2,2,2,2] vmulps %xmm6, %xmm9, %xmm9 vfmadd231ps %xmm8, %xmm5, %xmm9 # xmm9 = (xmm5 * xmm8) + xmm9 vfmadd231ps %xmm7, %xmm4, %xmm9 # xmm9 = (xmm4 * xmm7) + xmm9 vsubps %xmm0, %xmm14, %xmm10 vbroadcastss %xmm10, %xmm7 vshufps $0x55, %xmm10, %xmm10, %xmm8 # xmm8 = xmm10[1,1,1,1] vmovaps %xmm10, 0x2e0(%rsp) vshufps $0xaa, %xmm10, %xmm10, %xmm10 # xmm10 = xmm10[2,2,2,2] vmulps %xmm6, %xmm10, %xmm10 vfmadd231ps %xmm8, %xmm5, %xmm10 # xmm10 = (xmm5 * xmm8) + xmm10 vfmadd231ps %xmm7, %xmm4, %xmm10 # xmm10 = (xmm4 * xmm7) + xmm10 vsubps %xmm0, %xmm20, %xmm11 vbroadcastss %xmm11, %xmm7 vshufps $0x55, %xmm11, %xmm11, %xmm8 # xmm8 = xmm11[1,1,1,1] vmovaps %xmm11, 0x2d0(%rsp) vshufps $0xaa, %xmm11, %xmm11, %xmm11 # xmm11 = xmm11[2,2,2,2] vmulps %xmm6, %xmm11, %xmm11 vfmadd231ps %xmm8, %xmm5, %xmm11 # xmm11 = (xmm5 * xmm8) + xmm11 vfmadd231ps %xmm7, %xmm4, %xmm11 # xmm11 = (xmm4 * xmm7) + xmm11 vsubps %xmm0, %xmm21, %xmm12 vbroadcastss %xmm12, %xmm7 vshufps $0x55, %xmm12, %xmm12, %xmm8 # xmm8 = xmm12[1,1,1,1] vmovaps %xmm12, 0x2c0(%rsp) vshufps $0xaa, %xmm12, %xmm12, %xmm12 # xmm12 = xmm12[2,2,2,2] vmulps %xmm6, %xmm12, %xmm12 vfmadd231ps %xmm8, %xmm5, %xmm12 # xmm12 = (xmm5 * xmm8) + xmm12 vfmadd231ps %xmm7, %xmm4, %xmm12 # xmm12 = (xmm4 * xmm7) + xmm12 vsubps %xmm0, %xmm16, %xmm8 vbroadcastss %xmm8, %xmm0 vshufps $0x55, %xmm8, %xmm8, %xmm7 # xmm7 = xmm8[1,1,1,1] vmovaps %xmm8, 0x2b0(%rsp) vshufps $0xaa, %xmm8, %xmm8, %xmm8 # xmm8 = xmm8[2,2,2,2] vmulps %xmm6, %xmm8, %xmm6 vfmadd231ps %xmm7, %xmm5, %xmm6 # xmm6 = (xmm5 * xmm7) + xmm6 vfmadd231ps %xmm0, %xmm4, %xmm6 # xmm6 = (xmm4 * xmm0) + xmm6 vmovlhps %xmm10, %xmm1, %xmm8 # xmm8 = xmm1[0],xmm10[0] vmovlhps %xmm11, %xmm2, %xmm22 # xmm22 = xmm2[0],xmm11[0] vmovlhps %xmm12, %xmm3, %xmm23 # xmm23 = xmm3[0],xmm12[0] vmovlhps %xmm6, %xmm9, %xmm24 # xmm24 = xmm9[0],xmm6[0] vminps %xmm22, %xmm8, %xmm0 vmaxps %xmm22, %xmm8, %xmm4 vminps %xmm24, %xmm23, %xmm5 vminps %xmm5, %xmm0, %xmm0 vmaxps %xmm24, %xmm23, %xmm5 vmaxps %xmm5, %xmm4, %xmm4 vshufpd $0x3, %xmm0, %xmm0, %xmm5 # xmm5 = xmm0[1,1] vshufpd $0x3, %xmm4, %xmm4, %xmm7 # xmm7 = xmm4[1,1] vminps %xmm5, %xmm0, %xmm0 vmaxps %xmm7, %xmm4, %xmm4 vandps %xmm19, %xmm0, %xmm0 vandps %xmm19, %xmm4, %xmm4 vmaxps %xmm4, %xmm0, %xmm0 vmovshdup %xmm0, %xmm4 # xmm4 = xmm0[1,1,3,3] vmaxss %xmm0, %xmm4, %xmm0 vmulss 0x21f77a(%rip), %xmm0, %xmm0 # 0x1ef1eb8 vmovddup %xmm1, %xmm7 # xmm7 = xmm1[0,0] vmovddup %xmm2, %xmm19 # xmm19 = xmm2[0,0] vmovddup %xmm3, %xmm25 # xmm25 = xmm3[0,0] vmovddup %xmm9, %xmm1 # xmm1 = xmm9[0,0] vmovddup %xmm10, %xmm2 # xmm2 = xmm10[0,0] vmovddup %xmm11, %xmm9 # xmm9 = xmm11[0,0] vmovddup %xmm12, %xmm10 # xmm10 = xmm12[0,0] vmovddup %xmm6, %xmm11 # xmm11 = xmm6[0,0] vmovaps %xmm0, 0x130(%rsp) vbroadcastss %xmm0, %ymm29 vxorps %xmm30, %xmm29, %xmm0 vbroadcastss %xmm0, %ymm28 vpbroadcastd %eax, %xmm0 vmovdqa %xmm0, 0x220(%rsp) xorl %r11d, %r11d xorl %ebx, %ebx vmovss 0x30(%r9,%r14,4), %xmm0 vmovss %xmm0, 0x9c(%rsp) vmovaps %xmm8, 0xb0(%rsp) vsubps %xmm8, %xmm22, %xmm0 vmovaps %xmm0, 0xe0(%rsp) vmovaps %xmm22, 0x100(%rsp) vsubps %xmm22, %xmm23, %xmm0 vmovaps %xmm0, 0xd0(%rsp) vmovaps %xmm23, 0xf0(%rsp) vmovaps %xmm24, 0x140(%rsp) vsubps %xmm23, %xmm24, %xmm0 vmovaps %xmm0, 0xc0(%rsp) vmovaps %xmm13, 0x2a0(%rsp) vmovaps %xmm14, 0x290(%rsp) vsubps %xmm13, %xmm14, %xmm0 vmovaps %xmm0, 0x210(%rsp) vmovaps %xmm2, %xmm13 vmovaps %xmm17, 0x260(%rsp) vmovaps %xmm20, 0x240(%rsp) vsubps %xmm17, %xmm20, %xmm0 vmovaps %xmm0, 0x200(%rsp) vmovaps %xmm18, 0x250(%rsp) vmovaps %xmm21, 0x230(%rsp) vsubps %xmm18, %xmm21, %xmm0 vmovaps %xmm0, 0x1f0(%rsp) vmovaps %xmm15, 0x280(%rsp) vmovaps %xmm16, 0x270(%rsp) vsubps %xmm15, %xmm16, %xmm0 vmovaps %xmm0, 0x1e0(%rsp) vmovaps %xmm1, %xmm16 movq 0x88(%rsp), %r8 vpbroadcastd %r8d, %xmm0 vmovdqa %xmm0, 0x1d0(%rsp) vmovsd 0x219e56(%rip), %xmm0 # 0x1eec6f0 vmovaps %xmm0, %xmm15 movq 0x70(%rsp), %rcx vmovaps %xmm7, 0x170(%rsp) vmovaps %xmm19, 0x160(%rsp) vmovaps %xmm25, 0x150(%rsp) vmovaps %xmm1, 0x60(%rsp) vmovaps %xmm2, 0x40(%rsp) vmovaps %xmm9, 0x30(%rsp) vmovaps %xmm10, 0x20(%rsp) vmovaps %xmm11, 0x10(%rsp) vmovups %ymm29, 0x420(%rsp) vmovups %ymm28, 0x400(%rsp) vmovaps %xmm15, %xmm27 vshufps $0x50, %xmm15, %xmm15, %xmm1 # xmm1 = xmm15[0,0,1,1] vbroadcastss 0x219e14(%rip), %ymm26 # 0x1eec714 vsubps %xmm1, %xmm26, %xmm2 vmulps %xmm1, %xmm13, %xmm3 vmulps %xmm1, %xmm9, %xmm4 vmulps %xmm1, %xmm10, %xmm5 vmulps %xmm1, %xmm11, %xmm1 vfmadd231ps %xmm7, %xmm2, %xmm3 # xmm3 = (xmm2 * xmm7) + xmm3 vfmadd231ps %xmm19, %xmm2, %xmm4 # xmm4 = (xmm2 * xmm19) + xmm4 vfmadd231ps %xmm25, %xmm2, %xmm5 # xmm5 = (xmm2 * xmm25) + xmm5 vfmadd231ps %xmm2, %xmm16, %xmm1 # xmm1 = (xmm16 * xmm2) + xmm1 vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3] vsubss %xmm0, %xmm2, %xmm6 vmulss 0x24e593(%rip), %xmm6, %xmm6 # 0x1f20ed0 vbroadcastss %xmm0, %ymm7 vbroadcastsd %xmm2, %ymm2 vsubps %ymm7, %ymm2, %ymm10 vbroadcastss %xmm3, %ymm2 vbroadcastss 0x23fdab(%rip), %ymm9 # 0x1f12704 vpermps %ymm3, %ymm9, %ymm8 vbroadcastss %xmm4, %ymm20 vpermps %ymm4, %ymm9, %ymm21 vbroadcastss %xmm5, %ymm22 vpermps %ymm5, %ymm9, %ymm23 vbroadcastss %xmm1, %ymm24 vpermps %ymm1, %ymm9, %ymm25 vbroadcastss %xmm6, %ymm9 vbroadcastss 0x24e54c(%rip), %ymm13 # 0x1f20edc vpermps %ymm3, %ymm13, %ymm19 vbroadcastss 0x24e539(%rip), %ymm6 # 0x1f20ed8 vpermps %ymm3, %ymm6, %ymm18 vpermps %ymm4, %ymm13, %ymm15 vpermps %ymm4, %ymm6, %ymm14 vpermps %ymm5, %ymm13, %ymm12 vpermps %ymm5, %ymm6, %ymm11 vpermps %ymm1, %ymm13, %ymm16 vpermps %ymm1, %ymm6, %ymm17 vfmadd132ps 0x24e552(%rip), %ymm7, %ymm10 # ymm10 = (ymm10 * mem) + ymm7 vsubps %ymm10, %ymm26, %ymm13 vmulps %ymm10, %ymm20, %ymm1 vmulps %ymm10, %ymm21, %ymm3 vfmadd231ps %ymm2, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm2) + ymm1 vfmadd231ps %ymm8, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm8) + ymm3 vmulps %ymm10, %ymm22, %ymm2 vmulps %ymm10, %ymm23, %ymm4 vfmadd231ps %ymm20, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm20) + ymm2 vfmadd231ps %ymm21, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm21) + ymm4 vmulps %ymm10, %ymm24, %ymm5 vmulps %ymm10, %ymm25, %ymm6 vfmadd231ps %ymm22, %ymm13, %ymm5 # ymm5 = (ymm13 * ymm22) + ymm5 vfmadd231ps %ymm23, %ymm13, %ymm6 # ymm6 = (ymm13 * ymm23) + ymm6 vmulps %ymm2, %ymm10, %ymm7 vmulps %ymm4, %ymm10, %ymm8 vfmadd231ps %ymm1, %ymm13, %ymm7 # ymm7 = (ymm13 * ymm1) + ymm7 vfmadd231ps %ymm3, %ymm13, %ymm8 # ymm8 = (ymm13 * ymm3) + ymm8 vmulps %ymm5, %ymm10, %ymm1 vmulps %ymm6, %ymm10, %ymm5 vfmadd231ps %ymm2, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm2) + ymm1 vfmadd231ps %ymm4, %ymm13, %ymm5 # ymm5 = (ymm13 * ymm4) + ymm5 vmulps %ymm1, %ymm10, %ymm3 vmulps %ymm5, %ymm10, %ymm4 vfmadd231ps %ymm7, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm7) + ymm3 vfmadd231ps %ymm8, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm8) + ymm4 vsubps %ymm7, %ymm1, %ymm1 vsubps %ymm8, %ymm5, %ymm2 vbroadcastss 0x21e589(%rip), %ymm22 # 0x1ef0fec vmulps %ymm22, %ymm1, %ymm1 vmulps %ymm22, %ymm2, %ymm2 vmulps %ymm1, %ymm9, %ymm8 vmulps %ymm2, %ymm9, %ymm20 vmovaps %ymm3, %ymm5 vmovaps 0x28d299(%rip), %ymm23 # 0x1f5fd20 vxorps %xmm24, %xmm24, %xmm24 vpermt2ps %ymm24, %ymm23, %ymm5 vmovaps %ymm4, %ymm6 vpermt2ps %ymm24, %ymm23, %ymm6 vaddps %ymm3, %ymm8, %ymm1 vpermt2ps %ymm24, %ymm23, %ymm8 vaddps %ymm20, %ymm4, %ymm7 vpermt2ps %ymm24, %ymm23, %ymm20 vsubps %ymm8, %ymm5, %ymm2 vsubps %ymm20, %ymm6, %ymm8 vmulps %ymm10, %ymm15, %ymm20 vmulps %ymm10, %ymm14, %ymm21 vfmadd231ps %ymm19, %ymm13, %ymm20 # ymm20 = (ymm13 * ymm19) + ymm20 vfmadd231ps %ymm18, %ymm13, %ymm21 # ymm21 = (ymm13 * ymm18) + ymm21 vmulps %ymm10, %ymm12, %ymm18 vmulps %ymm10, %ymm11, %ymm19 vfmadd231ps %ymm15, %ymm13, %ymm18 # ymm18 = (ymm13 * ymm15) + ymm18 vfmadd231ps %ymm14, %ymm13, %ymm19 # ymm19 = (ymm13 * ymm14) + ymm19 vmulps %ymm10, %ymm16, %ymm14 vmulps %ymm10, %ymm17, %ymm15 vfmadd231ps %ymm12, %ymm13, %ymm14 # ymm14 = (ymm13 * ymm12) + ymm14 vfmadd231ps %ymm11, %ymm13, %ymm15 # ymm15 = (ymm13 * ymm11) + ymm15 vmulps %ymm18, %ymm10, %ymm16 vmulps %ymm19, %ymm10, %ymm17 vfmadd231ps %ymm20, %ymm13, %ymm16 # ymm16 = (ymm13 * ymm20) + ymm16 vfmadd231ps %ymm21, %ymm13, %ymm17 # ymm17 = (ymm13 * ymm21) + ymm17 vmulps %ymm14, %ymm10, %ymm14 vmulps %ymm15, %ymm10, %ymm15 vfmadd231ps %ymm18, %ymm13, %ymm14 # ymm14 = (ymm13 * ymm18) + ymm14 vfmadd231ps %ymm19, %ymm13, %ymm15 # ymm15 = (ymm13 * ymm19) + ymm15 vmulps %ymm14, %ymm10, %ymm11 vmulps %ymm15, %ymm10, %ymm12 vfmadd231ps %ymm16, %ymm13, %ymm11 # ymm11 = (ymm13 * ymm16) + ymm11 vfmadd231ps %ymm13, %ymm17, %ymm12 # ymm12 = (ymm17 * ymm13) + ymm12 vsubps %ymm16, %ymm14, %ymm10 vsubps %ymm17, %ymm15, %ymm13 vmulps %ymm22, %ymm10, %ymm10 vmulps %ymm22, %ymm13, %ymm13 vmulps %ymm10, %ymm9, %ymm10 vmulps %ymm13, %ymm9, %ymm16 vmovaps %ymm11, %ymm13 vpermt2ps %ymm24, %ymm23, %ymm13 vmovaps %ymm12, %ymm14 vpermt2ps %ymm24, %ymm23, %ymm14 vaddps %ymm10, %ymm11, %ymm9 vpermt2ps %ymm24, %ymm23, %ymm10 vaddps %ymm16, %ymm12, %ymm15 vpermt2ps %ymm24, %ymm23, %ymm16 vsubps %ymm10, %ymm13, %ymm10 vsubps %ymm16, %ymm14, %ymm16 vsubps %ymm3, %ymm11, %ymm17 vsubps %ymm4, %ymm12, %ymm18 vsubps %ymm5, %ymm13, %ymm19 vaddps %ymm19, %ymm17, %ymm17 vsubps %ymm6, %ymm14, %ymm19 vaddps %ymm19, %ymm18, %ymm18 vmulps %ymm17, %ymm4, %ymm19 vfnmadd231ps %ymm18, %ymm3, %ymm19 # ymm19 = -(ymm3 * ymm18) + ymm19 vmulps %ymm17, %ymm7, %ymm20 vfnmadd231ps %ymm18, %ymm1, %ymm20 # ymm20 = -(ymm1 * ymm18) + ymm20 vmulps %ymm17, %ymm8, %ymm21 vfnmadd231ps %ymm18, %ymm2, %ymm21 # ymm21 = -(ymm2 * ymm18) + ymm21 vmulps %ymm17, %ymm6, %ymm22 vfnmadd231ps %ymm18, %ymm5, %ymm22 # ymm22 = -(ymm5 * ymm18) + ymm22 vmulps %ymm17, %ymm12, %ymm23 vfnmadd231ps %ymm18, %ymm11, %ymm23 # ymm23 = -(ymm11 * ymm18) + ymm23 vmulps %ymm17, %ymm15, %ymm24 vfnmadd231ps %ymm18, %ymm9, %ymm24 # ymm24 = -(ymm9 * ymm18) + ymm24 vmulps %ymm17, %ymm16, %ymm25 vfnmadd231ps %ymm18, %ymm10, %ymm25 # ymm25 = -(ymm10 * ymm18) + ymm25 vmulps %ymm17, %ymm14, %ymm17 vfnmadd231ps %ymm18, %ymm13, %ymm17 # ymm17 = -(ymm13 * ymm18) + ymm17 vminps %ymm20, %ymm19, %ymm18 vmaxps %ymm20, %ymm19, %ymm19 vminps %ymm22, %ymm21, %ymm20 vminps %ymm20, %ymm18, %ymm18 vmaxps %ymm22, %ymm21, %ymm20 vmaxps %ymm20, %ymm19, %ymm19 vminps %ymm24, %ymm23, %ymm20 vmaxps %ymm24, %ymm23, %ymm21 vminps %ymm17, %ymm25, %ymm22 vminps %ymm22, %ymm20, %ymm20 vminps %ymm20, %ymm18, %ymm18 vmaxps %ymm17, %ymm25, %ymm17 vmaxps %ymm17, %ymm21, %ymm17 vmaxps %ymm17, %ymm19, %ymm17 vcmpleps %ymm29, %ymm18, %k1 vcmpnltps %ymm28, %ymm17, %k0 {%k1} kmovd %k0, %eax movl $0x0, %edx andb $0x7f, %al je 0x1cd2d6f vsubps %ymm3, %ymm5, %ymm17 vsubps %ymm4, %ymm6, %ymm18 vsubps %ymm11, %ymm13, %ymm19 vaddps %ymm19, %ymm17, %ymm17 vsubps %ymm12, %ymm14, %ymm19 vaddps %ymm19, %ymm18, %ymm18 vmulps %ymm17, %ymm4, %ymm4 vfnmadd231ps %ymm3, %ymm18, %ymm4 # ymm4 = -(ymm18 * ymm3) + ymm4 vmulps %ymm17, %ymm7, %ymm3 vfnmadd213ps %ymm3, %ymm18, %ymm1 # ymm1 = -(ymm18 * ymm1) + ymm3 vmulps %ymm17, %ymm8, %ymm3 vfnmadd213ps %ymm3, %ymm18, %ymm2 # ymm2 = -(ymm18 * ymm2) + ymm3 vmulps %ymm17, %ymm6, %ymm3 vfnmadd231ps %ymm5, %ymm18, %ymm3 # ymm3 = -(ymm18 * ymm5) + ymm3 vmulps %ymm17, %ymm12, %ymm5 vfnmadd231ps %ymm11, %ymm18, %ymm5 # ymm5 = -(ymm18 * ymm11) + ymm5 vmulps %ymm17, %ymm15, %ymm6 vfnmadd213ps %ymm6, %ymm18, %ymm9 # ymm9 = -(ymm18 * ymm9) + ymm6 vmulps %ymm17, %ymm16, %ymm6 vfnmadd213ps %ymm6, %ymm18, %ymm10 # ymm10 = -(ymm18 * ymm10) + ymm6 vmulps %ymm17, %ymm14, %ymm6 vfnmadd231ps %ymm18, %ymm13, %ymm6 # ymm6 = -(ymm13 * ymm18) + ymm6 vminps %ymm1, %ymm4, %ymm7 vmaxps %ymm1, %ymm4, %ymm1 vminps %ymm3, %ymm2, %ymm4 vminps %ymm4, %ymm7, %ymm4 vmaxps %ymm3, %ymm2, %ymm2 vmaxps %ymm2, %ymm1, %ymm1 vminps %ymm9, %ymm5, %ymm2 vmaxps %ymm9, %ymm5, %ymm3 vminps %ymm6, %ymm10, %ymm5 vminps %ymm5, %ymm2, %ymm2 vminps %ymm2, %ymm4, %ymm2 vmaxps %ymm6, %ymm10, %ymm4 vmaxps %ymm4, %ymm3, %ymm3 vmaxps %ymm3, %ymm1, %ymm1 vcmpnltps %ymm28, %ymm1, %k1 vcmpleps %ymm29, %ymm2, %k0 {%k1} kmovd %k0, %edx andb %dl, %al movzbl %al, %edx testl %edx, %edx je 0x1cd2d92 movl %ebx, %eax movl %edx, 0x180(%rsp,%rax,4) vmovlps %xmm0, 0x330(%rsp,%rax,8) vmovlps %xmm27, 0x440(%rsp,%rax,8) incl %ebx vbroadcastss 0x219de4(%rip), %xmm17 # 0x1eecb80 vbroadcastss 0x24e11e(%rip), %xmm19 # 0x1f20ec4 vbroadcastss 0x21e23c(%rip), %ymm18 # 0x1ef0fec vmovss 0x24e126(%rip), %xmm20 # 0x1f20ee0 vmovss 0x219950(%rip), %xmm21 # 0x1eec714 vmovss 0x21e232(%rip), %xmm22 # 0x1ef1000 vmovss 0x21ec74(%rip), %xmm23 # 0x1ef1a4c vbroadcastss 0x219932(%rip), %xmm24 # 0x1eec714 vmovss 0x21f0d0(%rip), %xmm25 # 0x1ef1ebc vmovaps 0x60(%rsp), %xmm16 vmovaps 0x40(%rsp), %xmm13 vmovaps 0x30(%rsp), %xmm9 vmovaps 0x20(%rsp), %xmm10 vmovaps 0x10(%rsp), %xmm11 vmovaps 0xe0(%rsp), %xmm26 vmovaps 0xd0(%rsp), %xmm28 vmovaps 0xc0(%rsp), %xmm29 testl %ebx, %ebx je 0x1cd3e8c leal -0x1(%rbx), %eax vmovss 0x330(%rsp,%rax,8), %xmm0 vmovss 0x334(%rsp,%rax,8), %xmm1 movl 0x180(%rsp,%rax,4), %esi vmovsd 0x440(%rsp,%rax,8), %xmm15 tzcntq %rsi, %rdx blsrl %esi, %esi movl %esi, 0x180(%rsp,%rax,4) cmovel %eax, %ebx vxorps %xmm2, %xmm2, %xmm2 vcvtsi2ss %rdx, %xmm2, %xmm2 vmulss %xmm20, %xmm2, %xmm2 incq %rdx vxorps %xmm12, %xmm12, %xmm12 vcvtsi2ss %rdx, %xmm12, %xmm3 vmulss %xmm20, %xmm3, %xmm3 vsubss %xmm2, %xmm21, %xmm4 vmulss %xmm2, %xmm1, %xmm27 vfmadd231ss %xmm4, %xmm0, %xmm27 # xmm27 = (xmm0 * xmm4) + xmm27 vsubss %xmm3, %xmm21, %xmm2 vmulss %xmm3, %xmm1, %xmm14 vfmadd231ss %xmm2, %xmm0, %xmm14 # xmm14 = (xmm0 * xmm2) + xmm14 vsubss %xmm27, %xmm14, %xmm0 vucomiss %xmm0, %xmm22 jbe 0x1cd3e57 vmovaps %xmm27, %xmm6 vmovaps %xmm15, %xmm27 vshufps $0x50, %xmm15, %xmm15, %xmm1 # xmm1 = xmm15[0,0,1,1] vucomiss %xmm0, %xmm23 seta %dil cmpl $0x4, %ebx setae %al vsubps %xmm1, %xmm24, %xmm2 vmulps %xmm1, %xmm13, %xmm3 vmulps %xmm1, %xmm9, %xmm4 vmulps %xmm1, %xmm10, %xmm5 vmulps %xmm1, %xmm11, %xmm1 vfmadd231ps 0x170(%rsp), %xmm2, %xmm3 # xmm3 = (xmm2 * mem) + xmm3 vfmadd231ps 0x160(%rsp), %xmm2, %xmm4 # xmm4 = (xmm2 * mem) + xmm4 vfmadd231ps 0x150(%rsp), %xmm2, %xmm5 # xmm5 = (xmm2 * mem) + xmm5 vfmadd231ps %xmm2, %xmm16, %xmm1 # xmm1 = (xmm16 * xmm2) + xmm1 vinsertf128 $0x1, %xmm3, %ymm3, %ymm2 vinsertf128 $0x1, %xmm4, %ymm4, %ymm3 vinsertf128 $0x1, %xmm5, %ymm5, %ymm4 vmovaps %xmm6, 0xa0(%rsp) vbroadcastss %xmm6, %xmm6 vmovaps %xmm14, 0x50(%rsp) vbroadcastss %xmm14, %xmm7 vinsertf128 $0x1, %xmm7, %ymm6, %ymm6 vsubps %ymm2, %ymm3, %ymm7 vfmadd213ps %ymm2, %ymm6, %ymm7 # ymm7 = (ymm6 * ymm7) + ymm2 vsubps %ymm3, %ymm4, %ymm2 vfmadd213ps %ymm3, %ymm6, %ymm2 # ymm2 = (ymm6 * ymm2) + ymm3 vsubps %xmm5, %xmm1, %xmm1 vinsertf128 $0x1, %xmm1, %ymm1, %ymm3 vfmadd213ps %ymm4, %ymm6, %ymm3 # ymm3 = (ymm6 * ymm3) + ymm4 vsubps %ymm7, %ymm2, %ymm1 vfmadd213ps %ymm7, %ymm6, %ymm1 # ymm1 = (ymm6 * ymm1) + ymm7 vsubps %ymm2, %ymm3, %ymm3 vfmadd213ps %ymm2, %ymm6, %ymm3 # ymm3 = (ymm6 * ymm3) + ymm2 vsubps %ymm1, %ymm3, %ymm2 vfmadd231ps %ymm6, %ymm2, %ymm1 # ymm1 = (ymm2 * ymm6) + ymm1 vmulps %ymm18, %ymm2, %ymm3 vextractf128 $0x1, %ymm1, %xmm2 vextractf128 $0x1, %ymm3, %xmm4 vmulss %xmm25, %xmm0, %xmm5 vbroadcastss %xmm5, %xmm6 vmulps %xmm3, %xmm6, %xmm3 vaddps %xmm3, %xmm1, %xmm5 vmulps %xmm4, %xmm6, %xmm3 vsubps %xmm3, %xmm2, %xmm6 vshufpd $0x3, %xmm1, %xmm1, %xmm4 # xmm4 = xmm1[1,1] vshufpd $0x3, %xmm2, %xmm2, %xmm3 # xmm3 = xmm2[1,1] vsubps %xmm1, %xmm4, %xmm7 vsubps %xmm2, %xmm3, %xmm8 vaddps %xmm7, %xmm8, %xmm7 vshufps $0xb1, %xmm1, %xmm1, %xmm8 # xmm8 = xmm1[1,0,3,2] vshufps $0xb1, %xmm5, %xmm5, %xmm9 # xmm9 = xmm5[1,0,3,2] vshufps $0xb1, %xmm6, %xmm6, %xmm10 # xmm10 = xmm6[1,0,3,2] vshufps $0xb1, %xmm2, %xmm2, %xmm11 # xmm11 = xmm2[1,0,3,2] vbroadcastss %xmm7, %xmm12 vshufps $0x55, %xmm7, %xmm7, %xmm7 # xmm7 = xmm7[1,1,1,1] vmulps %xmm7, %xmm8, %xmm8 vmulps %xmm7, %xmm9, %xmm9 vmulps %xmm7, %xmm10, %xmm10 vmulps %xmm7, %xmm11, %xmm7 vfmadd231ps %xmm1, %xmm12, %xmm8 # xmm8 = (xmm12 * xmm1) + xmm8 vfmadd231ps %xmm5, %xmm12, %xmm9 # xmm9 = (xmm12 * xmm5) + xmm9 vfmadd231ps %xmm6, %xmm12, %xmm10 # xmm10 = (xmm12 * xmm6) + xmm10 vfmadd231ps %xmm12, %xmm2, %xmm7 # xmm7 = (xmm2 * xmm12) + xmm7 vshufpd $0x1, %xmm8, %xmm8, %xmm11 # xmm11 = xmm8[1,0] vshufpd $0x1, %xmm9, %xmm9, %xmm12 # xmm12 = xmm9[1,0] vshufpd $0x1, %xmm10, %xmm10, %xmm14 # xmm14 = xmm10[1,0] vshufpd $0x1, %xmm7, %xmm7, %xmm15 # xmm15 = xmm7[1,0] vminss %xmm9, %xmm8, %xmm13 vmaxss %xmm8, %xmm9, %xmm8 vminss %xmm7, %xmm10, %xmm9 vmaxss %xmm10, %xmm7, %xmm7 vminss %xmm9, %xmm13, %xmm13 vmaxss %xmm8, %xmm7, %xmm9 vminss %xmm12, %xmm11, %xmm7 vmaxss %xmm11, %xmm12, %xmm8 vminss %xmm15, %xmm14, %xmm10 vmaxss %xmm14, %xmm15, %xmm11 vminss %xmm10, %xmm7, %xmm14 vmaxss %xmm8, %xmm11, %xmm10 vmovss 0x21d976(%rip), %xmm7 # 0x1ef09d8 vucomiss %xmm13, %xmm7 jbe 0x1cd3077 vmovss 0x21ee4f(%rip), %xmm7 # 0x1ef1ec0 vucomiss %xmm7, %xmm10 ja 0x1cd30d8 vmovss 0x21ee41(%rip), %xmm7 # 0x1ef1ec0 vucomiss %xmm7, %xmm9 seta %dl vmovss 0x21d94a(%rip), %xmm7 # 0x1ef09d8 vcmpltps %xmm7, %xmm14, %k0 vcmpltps %xmm7, %xmm13, %k1 korw %k0, %k1, %k0 kmovd %k0, %esi testb %sil, %dl jne 0x1cd30d8 vmovss 0x21ee0f(%rip), %xmm7 # 0x1ef1ec0 vcmpnltps %xmm10, %xmm7, %k0 vmovss 0x21d918(%rip), %xmm7 # 0x1ef09d8 vcmpnltps %xmm7, %xmm14, %k1 korw %k0, %k1, %k0 kmovd %k0, %edx testb $0x1, %dl jne 0x1cd3e0a vcmpltss %xmm31, %xmm13, %k1 vmovaps %xmm21, %xmm15 vmovss 0x21d8dd(%rip), %xmm16 # 0x1ef09cc vmovss %xmm16, %xmm15, %xmm15 {%k1} vcmpltss %xmm31, %xmm9, %k1 vmovaps %xmm21, %xmm12 vmovss %xmm16, %xmm12, %xmm12 {%k1} vucomiss %xmm12, %xmm15 setp %dl setne %sil orb %dl, %sil kmovd %esi, %k1 vmovss 0x2188fd(%rip), %xmm7 # 0x1eeba20 vmovss %xmm31, %xmm7, %xmm7 {%k1} vmovss 0x219a53(%rip), %xmm8 # 0x1eecb84 vmovss %xmm31, %xmm8, %xmm8 {%k1} vcmpltss %xmm31, %xmm14, %k1 vmovaps %xmm21, %xmm11 vmovss %xmm16, %xmm11, %xmm11 {%k1} vucomiss %xmm11, %xmm15 jne 0x1cd3153 jnp 0x1cd3192 vucomiss %xmm13, %xmm14 jne 0x1cd31a2 jp 0x1cd31a2 vucomiss %xmm31, %xmm13 setnp %dl sete %sil andb %dl, %sil kmovd %esi, %k1 vmovss 0x2188a8(%rip), %xmm13 # 0x1eeba20 vmovss %xmm31, %xmm13, %xmm13 {%k1} vmovss 0x2199fe(%rip), %xmm14 # 0x1eecb84 vmovss 0x219584(%rip), %xmm14 {%k1} # 0x1eec714 jmp 0x1cd31c7 vmovaps 0xb0(%rsp), %xmm16 vmovaps %xmm27, %xmm15 jmp 0x1cd31df vxorps 0x24dd14(%rip){1to4}, %xmm13, %xmm15 # 0x1f20ec0 vsubss %xmm13, %xmm14, %xmm13 vdivss %xmm13, %xmm15, %xmm14 vsubss %xmm14, %xmm21, %xmm13 vfmadd213ss %xmm14, %xmm31, %xmm13 # xmm13 = (xmm31 * xmm13) + xmm14 vmovaps %xmm13, %xmm14 vmovaps 0xb0(%rsp), %xmm16 vmovaps %xmm27, %xmm15 vminss %xmm13, %xmm7, %xmm7 vmaxss %xmm8, %xmm14, %xmm8 vmovaps 0xa0(%rsp), %xmm27 vcmpltss %xmm31, %xmm10, %k1 vmovaps %xmm21, %xmm13 vmovss 0x21d7ce(%rip), %xmm13 {%k1} # 0x1ef09cc vucomiss %xmm13, %xmm12 vmovaps 0x50(%rsp), %xmm14 jne 0x1cd320d jnp 0x1cd327b vucomiss %xmm9, %xmm10 jne 0x1cd324c jp 0x1cd324c vucomiss %xmm31, %xmm9 setnp %dl sete %sil andb %dl, %sil kmovd %esi, %k1 vmovss 0x2187ee(%rip), %xmm9 # 0x1eeba20 vmovss %xmm31, %xmm9, %xmm9 {%k1} vmovss 0x219944(%rip), %xmm10 # 0x1eecb84 vmovss 0x2194ca(%rip), %xmm10 {%k1} # 0x1eec714 jmp 0x1cd3271 vxorps 0x24dc6a(%rip){1to4}, %xmm9, %xmm12 # 0x1f20ec0 vsubss %xmm9, %xmm10, %xmm9 vdivss %xmm9, %xmm12, %xmm10 vsubss %xmm10, %xmm21, %xmm9 vfmadd213ss %xmm10, %xmm31, %xmm9 # xmm9 = (xmm31 * xmm9) + xmm10 vmovaps %xmm9, %xmm10 vminss %xmm9, %xmm7, %xmm7 vmaxss %xmm8, %xmm10, %xmm8 vucomiss %xmm13, %xmm11 setp %dl setne %sil orb %dl, %sil vminss %xmm21, %xmm7, %xmm9 kmovd %esi, %k1 vmovss %xmm9, %xmm7, %xmm7 {%k1} vmaxss %xmm8, %xmm21, %xmm9 vmovss %xmm9, %xmm8, %xmm8 {%k1} vmaxss %xmm7, %xmm31, %xmm7 vminss %xmm21, %xmm8, %xmm8 movb $0x1, %bpl vucomiss %xmm8, %xmm7 ja 0x1cd3dcc vaddss 0x28a1a0(%rip), %xmm7, %xmm7 # 0x1f5d468 vaddss 0x2198cc(%rip), %xmm8, %xmm8 # 0x1eecb9c vmaxss %xmm7, %xmm31, %xmm7 vminss %xmm21, %xmm8, %xmm8 vmovddup %xmm1, %xmm1 # xmm1 = xmm1[0,0] vmovddup %xmm5, %xmm9 # xmm9 = xmm5[0,0] vmovddup %xmm6, %xmm10 # xmm10 = xmm6[0,0] vmovddup %xmm2, %xmm2 # xmm2 = xmm2[0,0] vshufpd $0x3, %xmm5, %xmm5, %xmm5 # xmm5 = xmm5[1,1] vshufpd $0x3, %xmm6, %xmm6, %xmm6 # xmm6 = xmm6[1,1] vshufps $0x0, %xmm8, %xmm7, %xmm11 # xmm11 = xmm7[0,0],xmm8[0,0] vsubps %xmm11, %xmm24, %xmm12 vmulps %xmm4, %xmm11, %xmm13 vmulps %xmm5, %xmm11, %xmm5 vmulps %xmm6, %xmm11, %xmm6 vmulps %xmm3, %xmm11, %xmm3 vfmadd231ps %xmm1, %xmm12, %xmm13 # xmm13 = (xmm12 * xmm1) + xmm13 vfmadd231ps %xmm9, %xmm12, %xmm5 # xmm5 = (xmm12 * xmm9) + xmm5 vfmadd231ps %xmm10, %xmm12, %xmm6 # xmm6 = (xmm12 * xmm10) + xmm6 vfmadd231ps %xmm2, %xmm12, %xmm3 # xmm3 = (xmm12 * xmm2) + xmm3 vsubss %xmm7, %xmm21, %xmm2 vmovshdup %xmm15, %xmm4 # xmm4 = xmm15[1,1,3,3] vmulss %xmm7, %xmm4, %xmm1 vfmadd231ss %xmm2, %xmm15, %xmm1 # xmm1 = (xmm15 * xmm2) + xmm1 vsubss %xmm8, %xmm21, %xmm2 vmulss %xmm4, %xmm8, %xmm4 vfmadd231ss %xmm2, %xmm15, %xmm4 # xmm4 = (xmm15 * xmm2) + xmm4 vdivss %xmm0, %xmm21, %xmm0 vsubps %xmm13, %xmm5, %xmm2 vbroadcastss 0x21dc8f(%rip), %xmm15 # 0x1ef0fec vmulps %xmm2, %xmm15, %xmm2 vsubps %xmm5, %xmm6, %xmm7 vmulps %xmm7, %xmm15, %xmm7 vsubps %xmm6, %xmm3, %xmm8 vmulps %xmm15, %xmm8, %xmm8 vminps %xmm8, %xmm7, %xmm9 vmaxps %xmm8, %xmm7, %xmm7 vminps %xmm9, %xmm2, %xmm8 vmaxps %xmm7, %xmm2, %xmm2 vshufpd $0x3, %xmm8, %xmm8, %xmm7 # xmm7 = xmm8[1,1] vshufpd $0x3, %xmm2, %xmm2, %xmm9 # xmm9 = xmm2[1,1] vminps %xmm7, %xmm8, %xmm7 vmaxps %xmm9, %xmm2, %xmm2 vbroadcastss %xmm0, %xmm0 vmulps %xmm7, %xmm0, %xmm8 vmulps %xmm2, %xmm0, %xmm7 vsubss %xmm1, %xmm4, %xmm0 vdivss %xmm0, %xmm21, %xmm0 vshufpd $0x3, %xmm13, %xmm13, %xmm2 # xmm2 = xmm13[1,1] vshufpd $0x3, %xmm5, %xmm5, %xmm9 # xmm9 = xmm5[1,1] vshufpd $0x3, %xmm6, %xmm6, %xmm10 # xmm10 = xmm6[1,1] vshufpd $0x3, %xmm3, %xmm3, %xmm11 # xmm11 = xmm3[1,1] vsubps %xmm13, %xmm2, %xmm2 vsubps %xmm5, %xmm9, %xmm5 vsubps %xmm6, %xmm10, %xmm6 vsubps %xmm3, %xmm11, %xmm3 vminps %xmm5, %xmm2, %xmm9 vmaxps %xmm5, %xmm2, %xmm2 vminps %xmm3, %xmm6, %xmm5 vminps %xmm5, %xmm9, %xmm5 vmaxps %xmm3, %xmm6, %xmm3 vmaxps %xmm3, %xmm2, %xmm2 vbroadcastss %xmm0, %xmm0 vmulps %xmm5, %xmm0, %xmm10 vmulps %xmm2, %xmm0, %xmm11 vinsertps $0x10, %xmm1, %xmm27, %xmm6 # xmm6 = xmm27[0],xmm1[0],xmm27[2,3] vinsertps $0x10, %xmm4, %xmm14, %xmm5 # xmm5 = xmm14[0],xmm4[0],xmm14[2,3] vaddps %xmm5, %xmm6, %xmm0 vmulps %xmm17, %xmm0, %xmm9 vshufps $0x54, %xmm9, %xmm9, %xmm0 # xmm0 = xmm9[0,1,1,1] vbroadcastss %xmm9, %xmm2 vmovaps %xmm26, %xmm3 vfmadd213ps %xmm16, %xmm2, %xmm3 # xmm3 = (xmm2 * xmm3) + xmm16 vmovaps %xmm28, %xmm12 vfmadd213ps 0x100(%rsp), %xmm2, %xmm12 # xmm12 = (xmm2 * xmm12) + mem vmovaps %xmm29, %xmm13 vfmadd213ps 0xf0(%rsp), %xmm2, %xmm13 # xmm13 = (xmm2 * xmm13) + mem vsubps %xmm3, %xmm12, %xmm14 vfmadd213ps %xmm3, %xmm2, %xmm14 # xmm14 = (xmm2 * xmm14) + xmm3 vsubps %xmm12, %xmm13, %xmm3 vfmadd213ps %xmm12, %xmm2, %xmm3 # xmm3 = (xmm2 * xmm3) + xmm12 vsubps %xmm14, %xmm3, %xmm3 vfmadd231ps %xmm2, %xmm3, %xmm14 # xmm14 = (xmm3 * xmm2) + xmm14 vmulps %xmm3, %xmm15, %xmm2 vmovddup %xmm14, %xmm12 # xmm12 = xmm14[0,0] vshufpd $0x3, %xmm14, %xmm14, %xmm3 # xmm3 = xmm14[1,1] vshufps $0x55, %xmm9, %xmm9, %xmm13 # xmm13 = xmm9[1,1,1,1] vsubps %xmm12, %xmm3, %xmm3 vfmadd231ps %xmm3, %xmm13, %xmm12 # xmm12 = (xmm13 * xmm3) + xmm12 vmovddup %xmm2, %xmm14 # xmm14 = xmm2[0,0] vshufpd $0x3, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[1,1] vsubps %xmm14, %xmm2, %xmm15 vfmadd213ps %xmm14, %xmm13, %xmm15 # xmm15 = (xmm13 * xmm15) + xmm14 vxorps %xmm30, %xmm3, %xmm2 vmovshdup %xmm15, %xmm13 # xmm13 = xmm15[1,1,3,3] vxorps %xmm30, %xmm13, %xmm14 vmovshdup %xmm3, %xmm16 # xmm16 = xmm3[1,1,3,3] vmovss 0x28c843(%rip), %xmm31 # 0x1f5fcfc vpermt2ps %xmm3, %xmm31, %xmm14 vmulss %xmm3, %xmm13, %xmm3 vfmsub231ss %xmm16, %xmm15, %xmm3 # xmm3 = (xmm15 * xmm16) - xmm3 vmovss 0x2874a3(%rip), %xmm13 # 0x1f5a974 vpermt2ps %xmm2, %xmm13, %xmm15 vbroadcastss %xmm3, %xmm3 vdivps %xmm3, %xmm14, %xmm2 vdivps %xmm3, %xmm15, %xmm3 vbroadcastss %xmm12, %xmm13 vmulps %xmm2, %xmm13, %xmm13 vshufps $0x55, %xmm12, %xmm12, %xmm12 # xmm12 = xmm12[1,1,1,1] vmulps %xmm3, %xmm12, %xmm12 vaddps %xmm12, %xmm13, %xmm12 vsubps %xmm12, %xmm0, %xmm0 vmovshdup %xmm2, %xmm12 # xmm12 = xmm2[1,1,3,3] vinsertps $0x1c, %xmm10, %xmm8, %xmm13 # xmm13 = xmm8[0],xmm10[0],zero,zero vmulps %xmm13, %xmm12, %xmm14 vinsertps $0x1c, %xmm11, %xmm7, %xmm15 # xmm15 = xmm7[0],xmm11[0],zero,zero vmulps %xmm15, %xmm12, %xmm12 vminps %xmm12, %xmm14, %xmm16 vmaxps %xmm14, %xmm12, %xmm12 vmovshdup %xmm3, %xmm14 # xmm14 = xmm3[1,1,3,3] vinsertps $0x4c, %xmm8, %xmm10, %xmm8 # xmm8 = xmm8[1],xmm10[1],zero,zero vmulps %xmm8, %xmm14, %xmm10 vinsertps $0x4c, %xmm7, %xmm11, %xmm7 # xmm7 = xmm7[1],xmm11[1],zero,zero vmulps %xmm7, %xmm14, %xmm11 vminps %xmm11, %xmm10, %xmm14 vaddps %xmm14, %xmm16, %xmm14 vmaxps %xmm10, %xmm11, %xmm10 vaddps %xmm10, %xmm12, %xmm10 vmovddup 0x24d994(%rip), %xmm11 # xmm11 = mem[0,0] vsubps %xmm10, %xmm11, %xmm10 vsubps %xmm14, %xmm11, %xmm11 vsubps %xmm9, %xmm6, %xmm12 vsubps %xmm9, %xmm5, %xmm9 vmulps %xmm10, %xmm12, %xmm14 vbroadcastss %xmm2, %xmm16 vmulps %xmm13, %xmm16, %xmm13 vmulps %xmm15, %xmm16, %xmm15 vminps %xmm15, %xmm13, %xmm16 vmaxps %xmm13, %xmm15, %xmm13 vbroadcastss %xmm3, %xmm15 vmulps %xmm8, %xmm15, %xmm8 vmulps %xmm7, %xmm15, %xmm7 vminps %xmm7, %xmm8, %xmm15 vaddps %xmm15, %xmm16, %xmm15 vmulps %xmm11, %xmm12, %xmm16 vmulps %xmm10, %xmm9, %xmm10 vmulps %xmm11, %xmm9, %xmm11 vmaxps %xmm8, %xmm7, %xmm7 vaddps %xmm7, %xmm13, %xmm7 vmovddup 0x24d92d(%rip), %xmm8 # xmm8 = mem[0,0] vsubps %xmm7, %xmm8, %xmm7 vsubps %xmm15, %xmm8, %xmm8 vmulps %xmm7, %xmm12, %xmm13 vmulps %xmm8, %xmm12, %xmm12 vmulps %xmm7, %xmm9, %xmm7 vmulps %xmm8, %xmm9, %xmm8 vminps %xmm12, %xmm13, %xmm9 vminps %xmm8, %xmm7, %xmm15 vminps %xmm15, %xmm9, %xmm9 vmaxps %xmm13, %xmm12, %xmm12 vmaxps %xmm7, %xmm8, %xmm7 vmaxps %xmm12, %xmm7, %xmm7 vminps %xmm16, %xmm14, %xmm8 vminps %xmm11, %xmm10, %xmm12 vminps %xmm12, %xmm8, %xmm8 vhaddps %xmm8, %xmm9, %xmm8 vmaxps %xmm14, %xmm16, %xmm9 vmaxps %xmm10, %xmm11, %xmm10 vmaxps %xmm9, %xmm10, %xmm9 vhaddps %xmm9, %xmm7, %xmm7 vshufps $0xe8, %xmm8, %xmm8, %xmm8 # xmm8 = xmm8[0,2,2,3] vshufps $0xe8, %xmm7, %xmm7, %xmm9 # xmm9 = xmm7[0,2,2,3] vaddps %xmm0, %xmm8, %xmm7 vaddps %xmm0, %xmm9, %xmm8 vmaxps %xmm7, %xmm6, %xmm6 vminps %xmm5, %xmm8, %xmm9 vcmpltps %xmm6, %xmm9, %k0 vinsertps $0x10, %xmm4, %xmm1, %xmm15 # xmm15 = xmm1[0],xmm4[0],xmm1[2,3] kmovd %k0, %edx testb $0x3, %dl jne 0x1cd3dbc vucomiss %xmm8, %xmm5 seta %sil xorl %edx, %edx vucomiss %xmm27, %xmm7 vmovaps 0x60(%rsp), %xmm16 jbe 0x1cd36de testb %sil, %sil vxorps %xmm31, %xmm31, %xmm31 vmovss 0x21d95e(%rip), %xmm12 # 0x1ef0fec vmovaps 0xb0(%rsp), %xmm9 vmovaps 0x100(%rsp), %xmm10 vmovaps 0xf0(%rsp), %xmm11 vmovaps 0x140(%rsp), %xmm13 vmovaps 0x130(%rsp), %xmm14 je 0x1cd3719 vcmpltps %xmm5, %xmm8, %k0 kshiftrb $0x1, %k0, %k0 kmovd %k0, %esi vmovshdup %xmm7, %xmm4 # xmm4 = xmm7[1,1,3,3] vucomiss %xmm1, %xmm4 seta %dl andb %sil, %dl jmp 0x1cd3719 vxorps %xmm31, %xmm31, %xmm31 vmovss 0x21d900(%rip), %xmm12 # 0x1ef0fec vmovaps 0xb0(%rsp), %xmm9 vmovaps 0x100(%rsp), %xmm10 vmovaps 0xf0(%rsp), %xmm11 vmovaps 0x140(%rsp), %xmm13 vmovaps 0x130(%rsp), %xmm14 orb %dil, %al orb %dl, %al cmpb $0x1, %al jne 0x1cd3ddf movl $0xc8, %eax vsubss %xmm0, %xmm21, %xmm1 vmulss %xmm1, %xmm1, %xmm4 vmulss %xmm4, %xmm1, %xmm5 vmulss %xmm0, %xmm12, %xmm6 vmulss %xmm4, %xmm6, %xmm4 vmulss %xmm0, %xmm0, %xmm6 vmulss %xmm6, %xmm12, %xmm7 vmulss %xmm7, %xmm1, %xmm1 vbroadcastss %xmm5, %xmm5 vbroadcastss %xmm4, %xmm4 vbroadcastss %xmm1, %xmm1 vmulss %xmm6, %xmm0, %xmm6 vbroadcastss %xmm6, %xmm6 vmulps %xmm6, %xmm13, %xmm6 vfmadd231ps %xmm1, %xmm11, %xmm6 # xmm6 = (xmm11 * xmm1) + xmm6 vfmadd231ps %xmm4, %xmm10, %xmm6 # xmm6 = (xmm10 * xmm4) + xmm6 vfmadd231ps %xmm5, %xmm9, %xmm6 # xmm6 = (xmm9 * xmm5) + xmm6 vmovddup %xmm6, %xmm1 # xmm1 = xmm6[0,0] vshufpd $0x3, %xmm6, %xmm6, %xmm4 # xmm4 = xmm6[1,1] vshufps $0x55, %xmm0, %xmm0, %xmm5 # xmm5 = xmm0[1,1,1,1] vsubps %xmm1, %xmm4, %xmm4 vfmadd213ps %xmm1, %xmm5, %xmm4 # xmm4 = (xmm5 * xmm4) + xmm1 vbroadcastss %xmm4, %xmm1 vmulps %xmm1, %xmm2, %xmm1 vshufps $0x55, %xmm4, %xmm4, %xmm5 # xmm5 = xmm4[1,1,1,1] vmulps %xmm5, %xmm3, %xmm5 vaddps %xmm5, %xmm1, %xmm1 vsubps %xmm1, %xmm0, %xmm0 vandps %xmm19, %xmm4, %xmm1 vprolq $0x20, %xmm1, %xmm4 vmaxss %xmm1, %xmm4, %xmm1 vucomiss %xmm1, %xmm14 ja 0x1cd37ce decq %rax jne 0x1cd372b jmp 0x1cd3de1 vucomiss %xmm31, %xmm0 jb 0x1cd3de1 vucomiss %xmm0, %xmm21 vmovaps 0x40(%rsp), %xmm13 vmovaps 0x50(%rsp), %xmm14 jb 0x1cd38fb vmovshdup %xmm0, %xmm1 # xmm1 = xmm0[1,1,3,3] vucomiss %xmm31, %xmm1 jb 0x1cd38fb vucomiss %xmm1, %xmm21 jb 0x1cd38fb vmovss 0x8(%r12), %xmm2 vinsertps $0x1c, 0x18(%r12), %xmm2, %xmm2 # xmm2 = xmm2[0],mem[0],zero,zero vinsertps $0x28, 0x28(%r12), %xmm2, %xmm2 # xmm2 = xmm2[0,1],mem[0],zero vdpps $0x7f, 0x320(%rsp), %xmm2, %xmm3 vdpps $0x7f, 0x310(%rsp), %xmm2, %xmm4 vdpps $0x7f, 0x300(%rsp), %xmm2, %xmm5 vdpps $0x7f, 0x2f0(%rsp), %xmm2, %xmm6 vdpps $0x7f, 0x2e0(%rsp), %xmm2, %xmm7 vdpps $0x7f, 0x2d0(%rsp), %xmm2, %xmm8 vdpps $0x7f, 0x2c0(%rsp), %xmm2, %xmm9 vdpps $0x7f, 0x2b0(%rsp), %xmm2, %xmm2 vsubss %xmm1, %xmm21, %xmm10 vmulss %xmm7, %xmm1, %xmm11 vmulss %xmm1, %xmm8, %xmm8 vmulss %xmm1, %xmm9, %xmm9 vmulss %xmm2, %xmm1, %xmm1 vfmadd231ss %xmm3, %xmm10, %xmm11 # xmm11 = (xmm10 * xmm3) + xmm11 vfmadd231ss %xmm4, %xmm10, %xmm8 # xmm8 = (xmm10 * xmm4) + xmm8 vfmadd231ss %xmm5, %xmm10, %xmm9 # xmm9 = (xmm10 * xmm5) + xmm9 vfmadd231ss %xmm6, %xmm10, %xmm1 # xmm1 = (xmm10 * xmm6) + xmm1 vsubss %xmm0, %xmm21, %xmm7 vmulss %xmm7, %xmm7, %xmm3 vmulss %xmm3, %xmm7, %xmm2 vmulss %xmm0, %xmm12, %xmm4 vmulss %xmm3, %xmm4, %xmm3 vmulps %xmm0, %xmm0, %xmm4 vmulss %xmm4, %xmm12, %xmm5 vmulss %xmm5, %xmm7, %xmm5 vmulps %xmm4, %xmm0, %xmm6 vmulss %xmm1, %xmm6, %xmm1 vfmadd231ss %xmm9, %xmm5, %xmm1 # xmm1 = (xmm5 * xmm9) + xmm1 vfmadd231ss %xmm8, %xmm3, %xmm1 # xmm1 = (xmm3 * xmm8) + xmm1 vfmadd231ss %xmm11, %xmm2, %xmm1 # xmm1 = (xmm2 * xmm11) + xmm1 vucomiss 0x9c(%rsp), %xmm1 jb 0x1cd38fb vmovss 0x80(%r9,%r14,4), %xmm4 vucomiss %xmm1, %xmm4 jae 0x1cd3912 vmovaps 0x30(%rsp), %xmm9 vmovaps 0x20(%rsp), %xmm10 vmovaps 0x10(%rsp), %xmm11 jmp 0x1cd3dff vmovss %xmm4, 0x98(%rsp) vshufps $0x55, %xmm0, %xmm0, %xmm4 # xmm4 = xmm0[1,1,1,1] vsubps %xmm4, %xmm24, %xmm8 vmulps 0x290(%rsp), %xmm4, %xmm9 vmulps 0x240(%rsp), %xmm4, %xmm10 vmulps 0x230(%rsp), %xmm4, %xmm11 vmulps 0x270(%rsp), %xmm4, %xmm12 vfmadd231ps 0x2a0(%rsp), %xmm8, %xmm9 # xmm9 = (xmm8 * mem) + xmm9 vfmadd231ps 0x260(%rsp), %xmm8, %xmm10 # xmm10 = (xmm8 * mem) + xmm10 vfmadd231ps 0x250(%rsp), %xmm8, %xmm11 # xmm11 = (xmm8 * mem) + xmm11 vfmadd231ps 0x280(%rsp), %xmm8, %xmm12 # xmm12 = (xmm8 * mem) + xmm12 vsubps %xmm9, %xmm10, %xmm8 vsubps %xmm10, %xmm11, %xmm9 vsubps %xmm11, %xmm12, %xmm10 vbroadcastss %xmm0, %xmm0 vmulps %xmm0, %xmm9, %xmm11 vbroadcastss %xmm7, %xmm7 vfmadd231ps %xmm8, %xmm7, %xmm11 # xmm11 = (xmm7 * xmm8) + xmm11 vmulps %xmm0, %xmm10, %xmm8 vfmadd231ps %xmm9, %xmm7, %xmm8 # xmm8 = (xmm7 * xmm9) + xmm8 vmulps %xmm0, %xmm8, %xmm8 vfmadd231ps %xmm11, %xmm7, %xmm8 # xmm8 = (xmm7 * xmm11) + xmm8 vmulps 0x21d63c(%rip){1to4}, %xmm8, %xmm7 # 0x1ef0fec movq (%rcx), %rax movq 0x1e8(%rax), %rax movq (%rax,%r8,8), %r15 movl 0x90(%r9,%r14,4), %eax testl %eax, 0x34(%r15) je 0x1cd3da3 movq 0x10(%rcx), %rax cmpq $0x0, 0x10(%rax) vmovaps 0x30(%rsp), %xmm9 vmovaps 0x20(%rsp), %xmm10 vmovaps 0x10(%rsp), %xmm11 jne 0x1cd39fa movb $0x1, %al cmpq $0x0, 0x48(%r15) je 0x1cd3db7 vbroadcastss %xmm6, %xmm6 vmulps 0x1e0(%rsp), %xmm6, %xmm6 vbroadcastss %xmm5, %xmm5 vfmadd132ps 0x1f0(%rsp), %xmm6, %xmm5 # xmm5 = (xmm5 * mem) + xmm6 vbroadcastss %xmm3, %xmm3 vfmadd132ps 0x200(%rsp), %xmm5, %xmm3 # xmm3 = (xmm3 * mem) + xmm5 vbroadcastss %xmm2, %xmm2 vfmadd132ps 0x210(%rsp), %xmm3, %xmm2 # xmm2 = (xmm2 * mem) + xmm3 vshufps $0xc9, %xmm2, %xmm2, %xmm3 # xmm3 = xmm2[1,2,0,3] vshufps $0xc9, %xmm7, %xmm7, %xmm5 # xmm5 = xmm7[1,2,0,3] vmulps %xmm5, %xmm2, %xmm2 vfmsub231ps %xmm3, %xmm7, %xmm2 # xmm2 = (xmm7 * xmm3) - xmm2 movq 0x8(%rcx), %rax vshufps $0x55, %xmm2, %xmm2, %xmm3 # xmm3 = xmm2[1,1,1,1] vshufps $0xaa, %xmm2, %xmm2, %xmm5 # xmm5 = xmm2[2,2,2,2] vbroadcastss %xmm2, %xmm2 vmovaps %xmm3, 0x350(%rsp) vmovaps %xmm5, 0x360(%rsp) vmovaps %xmm2, 0x370(%rsp) vmovaps %xmm0, 0x380(%rsp) vmovaps %xmm4, 0x390(%rsp) vmovaps 0x220(%rsp), %xmm0 vmovaps %xmm0, 0x3a0(%rsp) vmovdqa 0x1d0(%rsp), %xmm0 vmovdqa %xmm0, 0x3b0(%rsp) leaq 0x3c0(%rsp), %rdx vpcmpeqd %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, (%rdx) vbroadcastss (%rax), %xmm0 vmovaps %xmm0, 0x3c0(%rsp) vbroadcastss 0x4(%rax), %xmm0 vmovaps %xmm0, 0x3d0(%rsp) vmovss %xmm1, 0x80(%r9,%r14,4) vmovaps 0x1c0(%rsp), %xmm0 vmovaps %xmm0, 0x110(%rsp) leaq 0x110(%rsp), %rax movq %rax, 0x190(%rsp) movq 0x18(%r15), %rax movq %rax, 0x198(%rsp) movq 0x8(%rcx), %rax movq %rax, 0x1a0(%rsp) movq %r9, 0x1a8(%rsp) leaq 0x350(%rsp), %rax movq %rax, 0x1b0(%rsp) movl $0x4, 0x1b8(%rsp) movq 0x48(%r15), %rax testq %rax, %rax vmovaps %xmm15, 0x120(%rsp) je 0x1cd3c46 leaq 0x190(%rsp), %rdi movl %r11d, 0x94(%rsp) vzeroupper callq *%rax vmovaps 0x50(%rsp), %xmm14 vmovaps 0xa0(%rsp), %xmm27 vmovaps 0x120(%rsp), %xmm15 vmovaps 0xc0(%rsp), %xmm29 vmovaps 0xd0(%rsp), %xmm28 vmovaps 0xe0(%rsp), %xmm26 movl 0x94(%rsp), %r11d vmovaps 0x10(%rsp), %xmm11 vmovaps 0x20(%rsp), %xmm10 vmovaps 0x30(%rsp), %xmm9 vmovaps 0x40(%rsp), %xmm13 vmovaps 0x60(%rsp), %xmm16 movq 0x88(%rsp), %r8 vxorps %xmm31, %xmm31, %xmm31 vmovss 0x21e2e2(%rip), %xmm25 # 0x1ef1ebc vbroadcastss 0x218b30(%rip), %xmm24 # 0x1eec714 vmovss 0x21de5e(%rip), %xmm23 # 0x1ef1a4c vmovss 0x21d408(%rip), %xmm22 # 0x1ef1000 vmovss 0x218b12(%rip), %xmm21 # 0x1eec714 vmovss 0x24d2d4(%rip), %xmm20 # 0x1f20ee0 vbroadcastss 0x21d3d6(%rip), %ymm18 # 0x1ef0fec vbroadcastss 0x24d2a4(%rip), %xmm19 # 0x1f20ec4 vbroadcastss 0x218f56(%rip), %xmm17 # 0x1eecb80 vbroadcastss 0x24d28c(%rip), %xmm30 # 0x1f20ec0 movq 0x70(%rsp), %rcx movq 0x78(%rsp), %r9 movq 0x80(%rsp), %r10 vmovdqa 0x110(%rsp), %xmm0 vptestmd %xmm0, %xmm0, %k0 kortestb %k0, %k0 je 0x1cd3e35 movq 0x10(%rcx), %rdx movq 0x10(%rdx), %rax testq %rax, %rax je 0x1cd3d66 testb $0x2, (%rdx) jne 0x1cd3c80 testb $0x40, 0x3e(%r15) je 0x1cd3d66 leaq 0x190(%rsp), %rdi movl %r11d, %r15d vzeroupper callq *%rax vmovaps 0x50(%rsp), %xmm14 vmovaps 0xa0(%rsp), %xmm27 vmovaps 0x120(%rsp), %xmm15 vmovaps 0xc0(%rsp), %xmm29 vmovaps 0xd0(%rsp), %xmm28 vmovaps 0xe0(%rsp), %xmm26 movl %r15d, %r11d vmovaps 0x10(%rsp), %xmm11 vmovaps 0x20(%rsp), %xmm10 vmovaps 0x30(%rsp), %xmm9 vmovaps 0x40(%rsp), %xmm13 vmovaps 0x60(%rsp), %xmm16 movq 0x88(%rsp), %r8 vxorps %xmm31, %xmm31, %xmm31 vmovss 0x21e1c2(%rip), %xmm25 # 0x1ef1ebc vbroadcastss 0x218a10(%rip), %xmm24 # 0x1eec714 vmovss 0x21dd3e(%rip), %xmm23 # 0x1ef1a4c vmovss 0x21d2e8(%rip), %xmm22 # 0x1ef1000 vmovss 0x2189f2(%rip), %xmm21 # 0x1eec714 vmovss 0x24d1b4(%rip), %xmm20 # 0x1f20ee0 vbroadcastss 0x21d2b6(%rip), %ymm18 # 0x1ef0fec vbroadcastss 0x24d184(%rip), %xmm19 # 0x1f20ec4 vbroadcastss 0x218e36(%rip), %xmm17 # 0x1eecb80 vbroadcastss 0x24d16c(%rip), %xmm30 # 0x1f20ec0 movq 0x70(%rsp), %rcx movq 0x78(%rsp), %r9 movq 0x80(%rsp), %r10 vmovdqa 0x110(%rsp), %xmm0 vptestmd %xmm0, %xmm0, %k1 movq 0x1a8(%rsp), %rax vmovaps 0x80(%rax), %xmm0 vbroadcastss 0x218df5(%rip), %xmm0 {%k1} # 0x1eecb84 vmovaps %xmm0, 0x80(%rax) kortestb %k1, %k1 setne %al jmp 0x1cd3e37 xorl %eax, %eax vmovaps 0x30(%rsp), %xmm9 vmovaps 0x20(%rsp), %xmm10 vmovaps 0x10(%rsp), %xmm11 orb %al, %r11b jmp 0x1cd3dff vxorps %xmm31, %xmm31, %xmm31 vmovaps 0x60(%rsp), %xmm16 jmp 0x1cd3de1 vmovaps 0x60(%rsp), %xmm16 vmovaps 0x40(%rsp), %xmm13 jmp 0x1cd38fb xorl %ebp, %ebp vmovaps 0x40(%rsp), %xmm13 vmovaps 0x30(%rsp), %xmm9 vmovaps 0x20(%rsp), %xmm10 vmovaps 0x10(%rsp), %xmm11 vmovaps 0x50(%rsp), %xmm14 testb %bpl, %bpl jne 0x1cd2e24 jmp 0x1cd3e57 movb $0x1, %bpl vmovaps 0x40(%rsp), %xmm13 vmovaps 0x30(%rsp), %xmm9 vmovaps 0x20(%rsp), %xmm10 vmovaps 0x10(%rsp), %xmm11 vmovaps %xmm27, %xmm15 vmovaps 0xa0(%rsp), %xmm27 jmp 0x1cd3df9 xorl %eax, %eax testb %al, %al jne 0x1cd3db7 vmovss 0x98(%rsp), %xmm0 vmovss %xmm0, 0x80(%r9,%r14,4) jmp 0x1cd3db7 vinsertps $0x10, %xmm14, %xmm27, %xmm0 # xmm0 = xmm27[0],xmm14[0],xmm27[2,3] vmovaps 0x170(%rsp), %xmm7 vmovaps 0x160(%rsp), %xmm19 vmovaps 0x150(%rsp), %xmm25 vmovups 0x420(%rsp), %ymm29 vmovups 0x400(%rsp), %ymm28 jmp 0x1cd28ea testb $0x1, %r11b jne 0x1cd3eb6 vmovups 0x3e0(%rsp), %ymm0 vcmpleps 0x80(%r9,%r14,4){1to8}, %ymm0, %k0 kmovb %k0, %eax andl %eax, %r13d setne 0xf(%rsp) jne 0x1cd2190 movb 0xf(%rsp), %al andb $0x1, %al addq $0x468, %rsp # imm = 0x468 popq %rbx popq %r12 popq %r13 popq %r14 popq %r15 popq %rbp vzeroupper retq nop
/embree[P]embree/kernels/geometry/curveNi_intersector.h
bool embree::avx512::CurveNiIntersectorK<8, 8>::occluded_n<embree::avx512::OrientedCurve1IntersectorK<embree::CatmullRomCurveT, 8>, embree::avx512::Occluded1KEpilog1<8, true>>(embree::avx512::CurvePrecalculationsK<8>&, embree::RayK<8>&, unsigned long, embree::RayQueryContext*, embree::CurveNi<8> const&)
static __forceinline bool occluded_n(Precalculations& pre, RayK<K>& ray, const size_t k, RayQueryContext* context, const Primitive& prim) { vfloat<M> tNear; vbool<M> valid = intersect(ray,k,prim,tNear); const size_t N = prim.N; size_t mask = movemask(valid); while (mask) { const size_t i = bscf(mask); STAT3(shadow.trav_prims,1,1,1); const unsigned int geomID = prim.geomID(N); const unsigned int primID = prim.primID(N)[i]; const CurveGeometry* geom = context->scene->get<CurveGeometry>(geomID); unsigned int vertexID = geom->curve(primID); Vec3ff a0,a1,a2,a3; Vec3fa n0,n1,n2,n3; geom->gather(a0,a1,a2,a3,n0,n1,n2,n3,vertexID); size_t mask1 = mask; const size_t i1 = bscf(mask1); if (mask) { const unsigned int primID1 = prim.primID(N)[i1]; geom->prefetchL1_vertices(geom->curve(primID1)); if (mask1) { const size_t i2 = bsf(mask1); const unsigned int primID2 = prim.primID(N)[i2]; geom->prefetchL2_vertices(geom->curve(primID2)); } } if (Intersector().intersect(pre,ray,k,context,geom,primID,a0,a1,a2,a3,n0,n1,n2,n3,Epilog(ray,k,context,geomID,primID))) return true; mask &= movemask(tNear <= vfloat<M>(ray.tfar[k])); } return false; }
pushq %rbp movq %rsp, %rbp pushq %r15 pushq %r14 pushq %r13 pushq %r12 pushq %rbx andq $-0x20, %rsp subq $0x5a0, %rsp # imm = 0x5A0 movq %r8, %r10 movq %rdx, %r9 movq %rsi, %r11 movzbl 0x1(%r8), %eax leaq (%rax,%rax,4), %rdx leaq (%rdx,%rdx,4), %rsi vbroadcastss 0x12(%r8,%rsi), %xmm0 vmovss (%r11,%r9,4), %xmm1 vmovss 0x80(%r11,%r9,4), %xmm2 vinsertps $0x10, 0x20(%r11,%r9,4), %xmm1, %xmm1 # xmm1 = xmm1[0],mem[0],xmm1[2,3] vinsertps $0x20, 0x40(%r11,%r9,4), %xmm1, %xmm1 # xmm1 = xmm1[0,1],mem[0],xmm1[3] vinsertps $0x10, 0xa0(%r11,%r9,4), %xmm2, %xmm2 # xmm2 = xmm2[0],mem[0],xmm2[2,3] movq %rcx, 0x88(%rsp) vinsertps $0x20, 0xc0(%r11,%r9,4), %xmm2, %xmm2 # xmm2 = xmm2[0,1],mem[0],xmm2[3] vsubps 0x6(%r8,%rsi), %xmm1, %xmm1 vmulps %xmm1, %xmm0, %xmm3 vmulps %xmm2, %xmm0, %xmm0 vpmovsxbd 0x6(%r8,%rax,4), %ymm1 vcvtdq2ps %ymm1, %ymm5 vpmovsxbd 0x6(%r8,%rdx), %ymm1 vcvtdq2ps %ymm1, %ymm6 leaq (%rax,%rax,2), %rcx vpmovsxbd 0x6(%r8,%rcx,2), %ymm1 vcvtdq2ps %ymm1, %ymm2 leaq (%rax,%rdx,2), %rsi vpmovsxbd 0x6(%r8,%rsi), %ymm1 vcvtdq2ps %ymm1, %ymm7 leal (,%rcx,4), %esi vpmovsxbd 0x6(%r8,%rsi), %ymm1 vcvtdq2ps %ymm1, %ymm8 addq %rax, %rsi vpmovsxbd 0x6(%r8,%rsi), %ymm1 vcvtdq2ps %ymm1, %ymm9 leaq (%rax,%rax,8), %rsi leal (%rsi,%rsi), %r8d vpmovsxbd 0x6(%r10,%r8), %ymm1 addq %rax, %r8 vpmovsxbd 0x6(%r10,%r8), %ymm4 vcvtdq2ps %ymm1, %ymm10 vcvtdq2ps %ymm4, %ymm11 shll $0x2, %edx vpmovsxbd 0x6(%r10,%rdx), %ymm1 vcvtdq2ps %ymm1, %ymm12 vbroadcastss %xmm0, %ymm13 vbroadcastss 0x23c5bf(%rip), %ymm15 # 0x1f12704 vpermps %ymm0, %ymm15, %ymm14 vbroadcastss 0x24ad88(%rip), %ymm27 # 0x1f20edc vpermps %ymm0, %ymm27, %ymm0 vmulps %ymm2, %ymm0, %ymm4 vmulps %ymm0, %ymm9, %ymm1 vmulps %ymm0, %ymm12, %ymm0 vfmadd231ps %ymm6, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm6) + ymm4 vfmadd231ps %ymm8, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm8) + ymm1 vfmadd231ps %ymm14, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm14) + ymm0 vfmadd231ps %ymm5, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm5) + ymm4 vfmadd231ps %ymm7, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm7) + ymm1 vfmadd231ps %ymm13, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm13) + ymm0 vbroadcastss %xmm3, %ymm13 vpermps %ymm3, %ymm15, %ymm14 vpermps %ymm3, %ymm27, %ymm15 vmulps %ymm2, %ymm15, %ymm16 vmulps %ymm9, %ymm15, %ymm3 vmulps %ymm12, %ymm15, %ymm2 vfmadd231ps %ymm6, %ymm14, %ymm16 # ymm16 = (ymm14 * ymm6) + ymm16 vfmadd231ps %ymm8, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm8) + ymm3 vfmadd231ps %ymm11, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm11) + ymm2 vfmadd231ps %ymm5, %ymm13, %ymm16 # ymm16 = (ymm13 * ymm5) + ymm16 vfmadd231ps %ymm7, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm7) + ymm3 vfmadd231ps %ymm10, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm10) + ymm2 vbroadcastss 0x24acf7(%rip), %ymm5 # 0x1f20ec4 vandps %ymm5, %ymm4, %ymm6 vbroadcastss 0x21ae0e(%rip), %ymm7 # 0x1ef0fe8 vcmpltps %ymm7, %ymm6, %k1 vmovaps %ymm7, %ymm4 {%k1} vandps %ymm5, %ymm1, %ymm6 vcmpltps %ymm7, %ymm6, %k1 vmovaps %ymm7, %ymm1 {%k1} vandps %ymm5, %ymm0, %ymm5 vcmpltps %ymm7, %ymm5, %k1 vmovaps %ymm7, %ymm0 {%k1} vrcp14ps %ymm4, %ymm5 vbroadcastss 0x2164fc(%rip), %ymm6 # 0x1eec714 vfnmadd213ps %ymm6, %ymm5, %ymm4 # ymm4 = -(ymm5 * ymm4) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm4 # ymm4 = (ymm4 * ymm5) + ymm5 vrcp14ps %ymm1, %ymm5 vfnmadd213ps %ymm6, %ymm5, %ymm1 # ymm1 = -(ymm5 * ymm1) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm1 # ymm1 = (ymm1 * ymm5) + ymm5 vrcp14ps %ymm0, %ymm5 vfnmadd213ps %ymm6, %ymm5, %ymm0 # ymm0 = -(ymm5 * ymm0) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm0 # ymm0 = (ymm0 * ymm5) + ymm5 leaq (,%rax,8), %r8 subq %rax, %r8 vpmovsxwd 0x6(%r10,%r8), %ymm5 vcvtdq2ps %ymm5, %ymm5 vsubps %ymm16, %ymm5, %ymm5 vpmovsxwd 0x6(%r10,%rsi), %ymm6 vmulps %ymm5, %ymm4, %ymm5 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm16, %ymm6, %ymm6 vmulps %ymm6, %ymm4, %ymm4 leaq (%rax,%rax), %rsi addq %rax, %rdx shlq $0x3, %rcx subq %rax, %rcx movl %eax, %r8d shll $0x4, %r8d vpmovsxwd 0x6(%r10,%r8), %ymm6 subq %rsi, %r8 vpmovsxwd 0x6(%r10,%r8), %ymm7 vcvtdq2ps %ymm7, %ymm7 vsubps %ymm3, %ymm7, %ymm7 vmulps %ymm7, %ymm1, %ymm7 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm3, %ymm6, %ymm3 vmulps %ymm3, %ymm1, %ymm1 vpmovsxwd 0x6(%r10,%rdx), %ymm3 vcvtdq2ps %ymm3, %ymm3 vsubps %ymm2, %ymm3, %ymm3 vmulps %ymm0, %ymm3, %ymm3 vpmovsxwd 0x6(%r10,%rcx), %ymm6 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm2, %ymm6, %ymm2 vmulps %ymm2, %ymm0, %ymm0 vpminsd %ymm4, %ymm5, %ymm2 vpminsd %ymm1, %ymm7, %ymm6 vmaxps %ymm6, %ymm2, %ymm2 vpminsd %ymm0, %ymm3, %ymm6 vmaxps 0x60(%r11,%r9,4){1to8}, %ymm6, %ymm6 vmaxps %ymm6, %ymm2, %ymm2 vmulps 0x249c0c(%rip){1to8}, %ymm2, %ymm6 # 0x1f1ff10 vpmaxsd %ymm4, %ymm5, %ymm2 vpmaxsd %ymm1, %ymm7, %ymm1 vminps %ymm1, %ymm2, %ymm1 vpmaxsd %ymm0, %ymm3, %ymm0 vminps 0x100(%r11,%r9,4){1to8}, %ymm0, %ymm0 vminps %ymm0, %ymm1, %ymm0 vmulps 0x249be7(%rip){1to8}, %ymm0, %ymm0 # 0x1f1ff14 vpbroadcastd %eax, %ymm1 vpcmpgtd 0x2845e3(%rip), %ymm1, %k0 # 0x1f5a920 vmovaps %ymm6, 0x3e0(%rsp) vcmpleps %ymm0, %ymm6, %k1 ktestb %k0, %k1 setne 0x1f(%rsp) je 0x1cd8112 kandb %k0, %k1, %k0 kmovd %k0, %eax movzbl %al, %r12d leaq (%r9,%r9,2), %rax shlq $0x4, %rax leaq (%rdi,%rax), %r13 addq $0x20, %r13 movl $0x1, %eax shlxl %r9d, %eax, %eax kmovd %eax, %k0 vbroadcastss 0x24ab30(%rip), %xmm30 # 0x1f20ec0 vpmovm2d %k0, %ymm0 vmovdqa %ymm0, 0x380(%rsp) vbroadcastss 0x2167d7(%rip), %xmm17 # 0x1eecb80 vbroadcastss 0x24ab11(%rip), %xmm19 # 0x1f20ec4 vxorps %xmm31, %xmm31, %xmm31 movq 0x88(%rsp), %rdi movq %r10, 0xb8(%rsp) movq %r9, 0xb0(%rsp) movq %r11, 0xa8(%rsp) tzcntq %r12, %rax movl 0x2(%r10), %edx movl 0x6(%r10,%rax,4), %eax movq (%rdi), %rcx movq 0x1e8(%rcx), %rcx movq %rdx, 0xc0(%rsp) movq (%rcx,%rdx,8), %rdi movq 0x58(%rdi), %rcx movq 0x68(%rdi), %rdx movq %rdx, %rsi imulq %rax, %rsi movl (%rcx,%rsi), %r10d movq 0xa0(%rdi), %rsi movq %rsi, %r8 imulq %r10, %r8 leaq 0x1(%r10), %rbx leaq 0x2(%r10), %r11 leaq 0x3(%r10), %r9 movq 0xd8(%rdi), %r14 imulq %r14, %r10 movq 0xc8(%rdi), %r15 vmovups (%r15,%r10), %xmm5 movq %rsi, %r10 imulq %rbx, %r10 imulq %r14, %rbx vmovups (%r15,%rbx), %xmm6 movq %rsi, %rbx imulq %r11, %rbx imulq %r14, %r11 vmovups (%r15,%r11), %xmm7 imulq %r9, %r14 vmovups (%r15,%r14), %xmm8 movq %rsi, %r11 imulq %r9, %r11 movq 0x90(%rdi), %rdi vmovaps (%rdi,%r8), %xmm9 vmovaps (%rdi,%r10), %xmm10 movq 0xb8(%rsp), %r10 vmovaps (%rdi,%rbx), %xmm11 blsrq %r12, %r12 vmovaps (%rdi,%r11), %xmm4 movq %r12, %r8 subq $0x1, %r8 jb 0x1cd64f0 andq %r12, %r8 tzcntq %r12, %r9 movl 0x6(%r10,%r9,4), %r9d imulq %rdx, %r9 movl (%rcx,%r9), %r9d imulq %rsi, %r9 prefetcht0 (%rdi,%r9) prefetcht0 0x40(%rdi,%r9) testq %r8, %r8 je 0x1cd64f0 tzcntq %r8, %r8 movl 0x6(%r10,%r8,4), %r8d imulq %r8, %rdx movl (%rcx,%rdx), %ecx imulq %rcx, %rsi prefetcht1 (%rdi,%rsi) prefetcht1 0x40(%rdi,%rsi) movq 0xb0(%rsp), %r9 movq 0xa8(%rsp), %r11 vmovss (%r11,%r9,4), %xmm0 vinsertps $0x1c, 0x20(%r11,%r9,4), %xmm0, %xmm0 # xmm0 = xmm0[0],mem[0],zero,zero vinsertps $0x28, 0x40(%r11,%r9,4), %xmm0, %xmm0 # xmm0 = xmm0[0,1],mem[0],zero vmulps %xmm30, %xmm4, %xmm3 vpxor %xmm1, %xmm1, %xmm1 vfmadd213ps %xmm3, %xmm11, %xmm1 # xmm1 = (xmm11 * xmm1) + xmm3 vaddps %xmm1, %xmm10, %xmm1 vfmadd231ps %xmm30, %xmm9, %xmm1 # xmm1 = (xmm9 * xmm30) + xmm1 vxorps %xmm15, %xmm15, %xmm15 vmulps %xmm4, %xmm15, %xmm2 vfmadd231ps %xmm17, %xmm11, %xmm2 # xmm2 = (xmm11 * xmm17) + xmm2 vfmadd231ps %xmm15, %xmm10, %xmm2 # xmm2 = (xmm10 * xmm15) + xmm2 vfnmadd231ps %xmm17, %xmm9, %xmm2 # xmm2 = -(xmm9 * xmm17) + xmm2 vmulps %xmm30, %xmm8, %xmm12 vxorps %xmm13, %xmm13, %xmm13 vfmadd213ps %xmm12, %xmm7, %xmm13 # xmm13 = (xmm7 * xmm13) + xmm12 vaddps %xmm6, %xmm13, %xmm13 vfmadd231ps %xmm30, %xmm5, %xmm13 # xmm13 = (xmm5 * xmm30) + xmm13 vmulps %xmm15, %xmm8, %xmm14 vfmadd231ps %xmm17, %xmm7, %xmm14 # xmm14 = (xmm7 * xmm17) + xmm14 vfmadd231ps %xmm15, %xmm6, %xmm14 # xmm14 = (xmm6 * xmm15) + xmm14 vfnmadd231ps %xmm17, %xmm5, %xmm14 # xmm14 = -(xmm5 * xmm17) + xmm14 vaddps %xmm3, %xmm11, %xmm3 vfmadd231ps %xmm15, %xmm10, %xmm3 # xmm3 = (xmm10 * xmm15) + xmm3 vfmadd231ps %xmm30, %xmm9, %xmm3 # xmm3 = (xmm9 * xmm30) + xmm3 vmulps %xmm17, %xmm4, %xmm4 vfmadd231ps %xmm11, %xmm15, %xmm4 # xmm4 = (xmm15 * xmm11) + xmm4 vfnmadd231ps %xmm10, %xmm17, %xmm4 # xmm4 = -(xmm17 * xmm10) + xmm4 vfmadd231ps %xmm9, %xmm15, %xmm4 # xmm4 = (xmm15 * xmm9) + xmm4 vaddps %xmm7, %xmm12, %xmm9 vfmadd231ps %xmm15, %xmm6, %xmm9 # xmm9 = (xmm6 * xmm15) + xmm9 vfmadd231ps %xmm30, %xmm5, %xmm9 # xmm9 = (xmm5 * xmm30) + xmm9 vmulps %xmm17, %xmm8, %xmm8 vfmadd231ps %xmm7, %xmm15, %xmm8 # xmm8 = (xmm15 * xmm7) + xmm8 vfnmadd231ps %xmm6, %xmm17, %xmm8 # xmm8 = -(xmm17 * xmm6) + xmm8 vfmadd231ps %xmm5, %xmm15, %xmm8 # xmm8 = (xmm15 * xmm5) + xmm8 vshufps $0xc9, %xmm2, %xmm2, %xmm5 # xmm5 = xmm2[1,2,0,3] vshufps $0xc9, %xmm13, %xmm13, %xmm6 # xmm6 = xmm13[1,2,0,3] vmulps %xmm6, %xmm2, %xmm6 vfmsub231ps %xmm13, %xmm5, %xmm6 # xmm6 = (xmm5 * xmm13) - xmm6 vshufps $0xc9, %xmm6, %xmm6, %xmm7 # xmm7 = xmm6[1,2,0,3] vshufps $0xc9, %xmm14, %xmm14, %xmm6 # xmm6 = xmm14[1,2,0,3] vmulps %xmm6, %xmm2, %xmm6 vfmsub231ps %xmm14, %xmm5, %xmm6 # xmm6 = (xmm5 * xmm14) - xmm6 vshufps $0xc9, %xmm6, %xmm6, %xmm10 # xmm10 = xmm6[1,2,0,3] vshufps $0xc9, %xmm4, %xmm4, %xmm6 # xmm6 = xmm4[1,2,0,3] vshufps $0xc9, %xmm9, %xmm9, %xmm5 # xmm5 = xmm9[1,2,0,3] vmulps %xmm5, %xmm4, %xmm5 vfmsub231ps %xmm9, %xmm6, %xmm5 # xmm5 = (xmm6 * xmm9) - xmm5 vshufps $0xc9, %xmm5, %xmm5, %xmm5 # xmm5 = xmm5[1,2,0,3] vshufps $0xc9, %xmm8, %xmm8, %xmm9 # xmm9 = xmm8[1,2,0,3] vmulps %xmm4, %xmm9, %xmm9 vfmsub231ps %xmm8, %xmm6, %xmm9 # xmm9 = (xmm6 * xmm8) - xmm9 vshufps $0xc9, %xmm9, %xmm9, %xmm6 # xmm6 = xmm9[1,2,0,3] vdpps $0x7f, %xmm7, %xmm7, %xmm8 vmovss %xmm8, %xmm15, %xmm9 # xmm9 = xmm8[0],xmm15[1,2,3] vrsqrt14ss %xmm9, %xmm15, %xmm11 vmovss 0x2160df(%rip), %xmm16 # 0x1eec718 vmulss %xmm16, %xmm11, %xmm12 vmovss 0x2160d3(%rip), %xmm17 # 0x1eec71c vmulss %xmm17, %xmm8, %xmm13 vmulss %xmm11, %xmm13, %xmm13 vmulss %xmm11, %xmm11, %xmm11 vmulss %xmm11, %xmm13, %xmm11 vaddss %xmm11, %xmm12, %xmm11 vbroadcastss %xmm11, %xmm11 vmulps %xmm7, %xmm11, %xmm12 vdpps $0x7f, %xmm10, %xmm7, %xmm13 vbroadcastss %xmm8, %xmm14 vmulps %xmm14, %xmm10, %xmm10 vbroadcastss %xmm13, %xmm13 vmulps %xmm7, %xmm13, %xmm7 vsubps %xmm7, %xmm10, %xmm7 vrcp14ss %xmm9, %xmm15, %xmm9 vmovss 0x21a95f(%rip), %xmm18 # 0x1ef0ff8 vfnmadd213ss %xmm18, %xmm9, %xmm8 # xmm8 = -(xmm9 * xmm8) + xmm18 vmulss %xmm8, %xmm9, %xmm8 vdpps $0x7f, %xmm5, %xmm5, %xmm9 vbroadcastss %xmm8, %xmm8 vmulps %xmm7, %xmm8, %xmm7 vmulps %xmm7, %xmm11, %xmm7 vmovss %xmm9, %xmm15, %xmm8 # xmm8 = xmm9[0],xmm15[1,2,3] vrsqrt14ss %xmm8, %xmm15, %xmm10 vmulss %xmm16, %xmm10, %xmm11 vmulss %xmm17, %xmm9, %xmm13 vmulss %xmm10, %xmm13, %xmm13 vmulss %xmm10, %xmm10, %xmm10 vmulss %xmm10, %xmm13, %xmm10 vaddss %xmm10, %xmm11, %xmm10 vbroadcastss %xmm10, %xmm10 vmulps %xmm5, %xmm10, %xmm11 vdpps $0x7f, %xmm6, %xmm5, %xmm13 vbroadcastss %xmm9, %xmm14 vmulps %xmm6, %xmm14, %xmm6 vbroadcastss %xmm13, %xmm13 vmulps %xmm5, %xmm13, %xmm5 vsubps %xmm5, %xmm6, %xmm5 vrcp14ss %xmm8, %xmm15, %xmm6 vfnmadd213ss %xmm18, %xmm6, %xmm9 # xmm9 = -(xmm6 * xmm9) + xmm18 vmulss %xmm6, %xmm9, %xmm6 vbroadcastss %xmm6, %xmm6 vmulps %xmm6, %xmm5, %xmm5 vmulps %xmm5, %xmm10, %xmm5 vshufps $0xff, %xmm1, %xmm1, %xmm6 # xmm6 = xmm1[3,3,3,3] vmulps %xmm6, %xmm12, %xmm8 vsubps %xmm8, %xmm1, %xmm13 vshufps $0xff, %xmm2, %xmm2, %xmm9 # xmm9 = xmm2[3,3,3,3] vmulps %xmm12, %xmm9, %xmm9 vmulps %xmm7, %xmm6, %xmm6 vaddps %xmm6, %xmm9, %xmm6 vsubps %xmm6, %xmm2, %xmm7 vaddps %xmm1, %xmm8, %xmm14 vaddps %xmm6, %xmm2, %xmm1 vshufps $0xff, %xmm3, %xmm3, %xmm2 # xmm2 = xmm3[3,3,3,3] vmulps %xmm2, %xmm11, %xmm6 vsubps %xmm6, %xmm3, %xmm15 vshufps $0xff, %xmm4, %xmm4, %xmm8 # xmm8 = xmm4[3,3,3,3] vmulps %xmm11, %xmm8, %xmm8 vmulps %xmm5, %xmm2, %xmm2 vaddps %xmm2, %xmm8, %xmm2 vsubps %xmm2, %xmm4, %xmm5 vaddps %xmm6, %xmm3, %xmm16 vaddps %xmm2, %xmm4, %xmm2 vbroadcastss 0x21b736(%rip), %xmm4 # 0x1ef1ebc vmulps %xmm4, %xmm7, %xmm3 vaddps %xmm3, %xmm13, %xmm17 vmulps %xmm4, %xmm5, %xmm3 vsubps %xmm3, %xmm15, %xmm18 vmulps %xmm4, %xmm1, %xmm1 vaddps %xmm1, %xmm14, %xmm20 vmulps %xmm4, %xmm2, %xmm1 vsubps %xmm1, %xmm16, %xmm21 vsubps %xmm0, %xmm13, %xmm1 vbroadcastss %xmm1, %xmm2 vshufps $0x55, %xmm1, %xmm1, %xmm3 # xmm3 = xmm1[1,1,1,1] vmovaps %xmm1, 0x340(%rsp) vshufps $0xaa, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,2,2,2] vmovaps (%r13), %xmm4 vmovaps 0x10(%r13), %xmm5 vmovaps 0x20(%r13), %xmm6 vmulps %xmm1, %xmm6, %xmm1 vfmadd231ps %xmm3, %xmm5, %xmm1 # xmm1 = (xmm5 * xmm3) + xmm1 vfmadd231ps %xmm2, %xmm4, %xmm1 # xmm1 = (xmm4 * xmm2) + xmm1 vsubps %xmm0, %xmm17, %xmm2 vbroadcastss %xmm2, %xmm3 vshufps $0x55, %xmm2, %xmm2, %xmm7 # xmm7 = xmm2[1,1,1,1] vmovaps %xmm2, 0x330(%rsp) vshufps $0xaa, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[2,2,2,2] vmulps %xmm2, %xmm6, %xmm2 vfmadd231ps %xmm7, %xmm5, %xmm2 # xmm2 = (xmm5 * xmm7) + xmm2 vfmadd231ps %xmm3, %xmm4, %xmm2 # xmm2 = (xmm4 * xmm3) + xmm2 vsubps %xmm0, %xmm18, %xmm3 vbroadcastss %xmm3, %xmm7 vshufps $0x55, %xmm3, %xmm3, %xmm8 # xmm8 = xmm3[1,1,1,1] vmovaps %xmm3, 0x320(%rsp) vshufps $0xaa, %xmm3, %xmm3, %xmm3 # xmm3 = xmm3[2,2,2,2] vmulps %xmm3, %xmm6, %xmm3 vfmadd231ps %xmm8, %xmm5, %xmm3 # xmm3 = (xmm5 * xmm8) + xmm3 vfmadd231ps %xmm7, %xmm4, %xmm3 # xmm3 = (xmm4 * xmm7) + xmm3 vsubps %xmm0, %xmm15, %xmm9 vbroadcastss %xmm9, %xmm7 vshufps $0x55, %xmm9, %xmm9, %xmm8 # xmm8 = xmm9[1,1,1,1] vmovaps %xmm9, 0x310(%rsp) vshufps $0xaa, %xmm9, %xmm9, %xmm9 # xmm9 = xmm9[2,2,2,2] vmulps %xmm6, %xmm9, %xmm9 vfmadd231ps %xmm8, %xmm5, %xmm9 # xmm9 = (xmm5 * xmm8) + xmm9 vfmadd231ps %xmm7, %xmm4, %xmm9 # xmm9 = (xmm4 * xmm7) + xmm9 vsubps %xmm0, %xmm14, %xmm10 vbroadcastss %xmm10, %xmm7 vshufps $0x55, %xmm10, %xmm10, %xmm8 # xmm8 = xmm10[1,1,1,1] vmovaps %xmm10, 0x300(%rsp) vshufps $0xaa, %xmm10, %xmm10, %xmm10 # xmm10 = xmm10[2,2,2,2] vmulps %xmm6, %xmm10, %xmm10 vfmadd231ps %xmm8, %xmm5, %xmm10 # xmm10 = (xmm5 * xmm8) + xmm10 vfmadd231ps %xmm7, %xmm4, %xmm10 # xmm10 = (xmm4 * xmm7) + xmm10 vsubps %xmm0, %xmm20, %xmm11 vbroadcastss %xmm11, %xmm7 vshufps $0x55, %xmm11, %xmm11, %xmm8 # xmm8 = xmm11[1,1,1,1] vmovaps %xmm11, 0x2f0(%rsp) vshufps $0xaa, %xmm11, %xmm11, %xmm11 # xmm11 = xmm11[2,2,2,2] vmulps %xmm6, %xmm11, %xmm11 vfmadd231ps %xmm8, %xmm5, %xmm11 # xmm11 = (xmm5 * xmm8) + xmm11 vfmadd231ps %xmm7, %xmm4, %xmm11 # xmm11 = (xmm4 * xmm7) + xmm11 vsubps %xmm0, %xmm21, %xmm12 vbroadcastss %xmm12, %xmm7 vshufps $0x55, %xmm12, %xmm12, %xmm8 # xmm8 = xmm12[1,1,1,1] vmovaps %xmm12, 0x2e0(%rsp) vshufps $0xaa, %xmm12, %xmm12, %xmm12 # xmm12 = xmm12[2,2,2,2] vmulps %xmm6, %xmm12, %xmm12 vfmadd231ps %xmm8, %xmm5, %xmm12 # xmm12 = (xmm5 * xmm8) + xmm12 vfmadd231ps %xmm7, %xmm4, %xmm12 # xmm12 = (xmm4 * xmm7) + xmm12 vsubps %xmm0, %xmm16, %xmm8 vbroadcastss %xmm8, %xmm0 vshufps $0x55, %xmm8, %xmm8, %xmm7 # xmm7 = xmm8[1,1,1,1] vmovaps %xmm8, 0x2d0(%rsp) vshufps $0xaa, %xmm8, %xmm8, %xmm8 # xmm8 = xmm8[2,2,2,2] vmulps %xmm6, %xmm8, %xmm6 vfmadd231ps %xmm7, %xmm5, %xmm6 # xmm6 = (xmm5 * xmm7) + xmm6 vfmadd231ps %xmm0, %xmm4, %xmm6 # xmm6 = (xmm4 * xmm0) + xmm6 vmovlhps %xmm10, %xmm1, %xmm8 # xmm8 = xmm1[0],xmm10[0] vmovlhps %xmm11, %xmm2, %xmm22 # xmm22 = xmm2[0],xmm11[0] vmovlhps %xmm12, %xmm3, %xmm23 # xmm23 = xmm3[0],xmm12[0] vmovlhps %xmm6, %xmm9, %xmm24 # xmm24 = xmm9[0],xmm6[0] vminps %xmm22, %xmm8, %xmm0 vmaxps %xmm22, %xmm8, %xmm4 vminps %xmm24, %xmm23, %xmm5 vminps %xmm5, %xmm0, %xmm0 vmaxps %xmm24, %xmm23, %xmm5 vmaxps %xmm5, %xmm4, %xmm4 vshufpd $0x3, %xmm0, %xmm0, %xmm5 # xmm5 = xmm0[1,1] vshufpd $0x3, %xmm4, %xmm4, %xmm7 # xmm7 = xmm4[1,1] vminps %xmm5, %xmm0, %xmm0 vmaxps %xmm7, %xmm4, %xmm4 vandps %xmm19, %xmm0, %xmm0 vandps %xmm19, %xmm4, %xmm4 vmaxps %xmm4, %xmm0, %xmm0 vmovshdup %xmm0, %xmm4 # xmm4 = xmm0[1,1,3,3] vmaxss %xmm0, %xmm4, %xmm0 vmulss 0x21b52b(%rip), %xmm0, %xmm0 # 0x1ef1eb8 vmovddup %xmm1, %xmm7 # xmm7 = xmm1[0,0] vmovddup %xmm2, %xmm19 # xmm19 = xmm2[0,0] vmovddup %xmm3, %xmm25 # xmm25 = xmm3[0,0] vmovddup %xmm9, %xmm1 # xmm1 = xmm9[0,0] vmovddup %xmm10, %xmm2 # xmm2 = xmm10[0,0] vmovddup %xmm11, %xmm9 # xmm9 = xmm11[0,0] vmovddup %xmm12, %xmm10 # xmm10 = xmm12[0,0] vmovddup %xmm6, %xmm11 # xmm11 = xmm6[0,0] vmovaps %xmm0, 0x150(%rsp) vbroadcastss %xmm0, %ymm29 vxorps %xmm30, %xmm29, %xmm0 vbroadcastss %xmm0, %ymm28 vpbroadcastd %eax, %ymm0 vmovdqa %ymm0, 0x3c0(%rsp) xorl %r14d, %r14d xorl %ebx, %ebx vmovss 0x60(%r11,%r9,4), %xmm0 vmovss %xmm0, 0xcc(%rsp) vmovaps %xmm8, 0xe0(%rsp) vsubps %xmm8, %xmm22, %xmm0 vmovaps %xmm0, 0x100(%rsp) vmovaps %xmm22, 0x120(%rsp) vsubps %xmm22, %xmm23, %xmm0 vmovaps %xmm0, 0xf0(%rsp) vmovaps %xmm23, 0x110(%rsp) vmovaps %xmm24, 0x160(%rsp) vsubps %xmm23, %xmm24, %xmm0 vmovaps %xmm0, 0x350(%rsp) vmovaps %xmm13, 0x2c0(%rsp) vmovaps %xmm14, 0x2b0(%rsp) vsubps %xmm13, %xmm14, %xmm0 vmovaps %xmm0, 0x240(%rsp) vmovaps %xmm2, %xmm12 vmovaps %xmm17, 0x280(%rsp) vmovaps %xmm20, 0x260(%rsp) vsubps %xmm17, %xmm20, %xmm0 vmovaps %xmm0, 0x230(%rsp) vmovaps %xmm18, 0x270(%rsp) vmovaps %xmm21, 0x250(%rsp) vsubps %xmm18, %xmm21, %xmm0 vmovaps %xmm0, 0x220(%rsp) vmovaps %xmm15, 0x2a0(%rsp) vmovaps %xmm16, 0x290(%rsp) vsubps %xmm15, %xmm16, %xmm0 vmovaps %xmm0, 0x210(%rsp) vmovaps %xmm1, %xmm16 movq 0xc0(%rsp), %r8 vpbroadcastd %r8d, %ymm0 vmovdqa %ymm0, 0x3a0(%rsp) vmovsd 0x215c07(%rip), %xmm0 # 0x1eec6f0 vmovaps %xmm0, %xmm15 movq 0x88(%rsp), %rdi vmovaps %xmm7, 0x190(%rsp) vmovaps %xmm19, 0x180(%rsp) vmovaps %xmm25, 0x170(%rsp) vmovaps %xmm1, 0x90(%rsp) vmovaps %xmm2, 0x50(%rsp) vmovaps %xmm9, 0x40(%rsp) vmovaps %xmm10, 0x30(%rsp) vmovaps %xmm11, 0x20(%rsp) vmovaps %ymm29, 0x420(%rsp) vmovaps %ymm28, 0x400(%rsp) vmovaps %xmm15, %xmm26 vshufps $0x50, %xmm15, %xmm15, %xmm1 # xmm1 = xmm15[0,0,1,1] vbroadcastss 0x215bc0(%rip), %ymm13 # 0x1eec714 vsubps %xmm1, %xmm13, %xmm2 vmulps %xmm1, %xmm12, %xmm3 vmulps %xmm1, %xmm9, %xmm4 vmulps %xmm1, %xmm10, %xmm5 vmulps %xmm1, %xmm11, %xmm1 vfmadd231ps %xmm7, %xmm2, %xmm3 # xmm3 = (xmm2 * xmm7) + xmm3 vfmadd231ps %xmm19, %xmm2, %xmm4 # xmm4 = (xmm2 * xmm19) + xmm4 vfmadd231ps %xmm25, %xmm2, %xmm5 # xmm5 = (xmm2 * xmm25) + xmm5 vfmadd231ps %xmm2, %xmm16, %xmm1 # xmm1 = (xmm16 * xmm2) + xmm1 vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3] vsubss %xmm0, %xmm2, %xmm6 vmulss 0x24a341(%rip), %xmm6, %xmm6 # 0x1f20ed0 vbroadcastss %xmm0, %ymm7 vbroadcastsd %xmm2, %ymm2 vsubps %ymm7, %ymm2, %ymm10 vbroadcastss %xmm3, %ymm2 vbroadcastss 0x23bb59(%rip), %ymm9 # 0x1f12704 vpermps %ymm3, %ymm9, %ymm8 vbroadcastss %xmm4, %ymm20 vpermps %ymm4, %ymm9, %ymm21 vbroadcastss %xmm5, %ymm22 vpermps %ymm5, %ymm9, %ymm23 vbroadcastss %xmm1, %ymm24 vpermps %ymm1, %ymm9, %ymm25 vbroadcastss %xmm6, %ymm9 vpermps %ymm3, %ymm27, %ymm19 vbroadcastss 0x24a2f0(%rip), %ymm6 # 0x1f20ed8 vpermps %ymm3, %ymm6, %ymm18 vpermps %ymm4, %ymm27, %ymm15 vpermps %ymm4, %ymm6, %ymm14 vpermps %ymm5, %ymm27, %ymm12 vpermps %ymm5, %ymm6, %ymm11 vpermps %ymm1, %ymm27, %ymm16 vpermps %ymm1, %ymm6, %ymm17 vfmadd132ps 0x24a307(%rip), %ymm7, %ymm10 # ymm10 = (ymm10 * mem) + ymm7 vsubps %ymm10, %ymm13, %ymm13 vmulps %ymm10, %ymm20, %ymm1 vmulps %ymm10, %ymm21, %ymm3 vfmadd231ps %ymm2, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm2) + ymm1 vfmadd231ps %ymm8, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm8) + ymm3 vmulps %ymm10, %ymm22, %ymm2 vmulps %ymm10, %ymm23, %ymm4 vfmadd231ps %ymm20, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm20) + ymm2 vfmadd231ps %ymm21, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm21) + ymm4 vmulps %ymm10, %ymm24, %ymm5 vmulps %ymm10, %ymm25, %ymm6 vfmadd231ps %ymm22, %ymm13, %ymm5 # ymm5 = (ymm13 * ymm22) + ymm5 vfmadd231ps %ymm23, %ymm13, %ymm6 # ymm6 = (ymm13 * ymm23) + ymm6 vmulps %ymm2, %ymm10, %ymm7 vmulps %ymm4, %ymm10, %ymm8 vfmadd231ps %ymm1, %ymm13, %ymm7 # ymm7 = (ymm13 * ymm1) + ymm7 vfmadd231ps %ymm3, %ymm13, %ymm8 # ymm8 = (ymm13 * ymm3) + ymm8 vmulps %ymm5, %ymm10, %ymm1 vmulps %ymm6, %ymm10, %ymm5 vfmadd231ps %ymm2, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm2) + ymm1 vfmadd231ps %ymm4, %ymm13, %ymm5 # ymm5 = (ymm13 * ymm4) + ymm5 vmulps %ymm1, %ymm10, %ymm3 vmulps %ymm5, %ymm10, %ymm4 vfmadd231ps %ymm7, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm7) + ymm3 vfmadd231ps %ymm8, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm8) + ymm4 vsubps %ymm7, %ymm1, %ymm1 vsubps %ymm8, %ymm5, %ymm2 vbroadcastss 0x21a33f(%rip), %ymm22 # 0x1ef0fec vmulps %ymm22, %ymm1, %ymm1 vmulps %ymm22, %ymm2, %ymm2 vmulps %ymm1, %ymm9, %ymm8 vmulps %ymm2, %ymm9, %ymm20 vmovaps %ymm3, %ymm5 vmovaps 0x28904f(%rip), %ymm23 # 0x1f5fd20 vxorps %xmm24, %xmm24, %xmm24 vpermt2ps %ymm24, %ymm23, %ymm5 vmovaps %ymm4, %ymm6 vpermt2ps %ymm24, %ymm23, %ymm6 vaddps %ymm3, %ymm8, %ymm1 vpermt2ps %ymm24, %ymm23, %ymm8 vaddps %ymm20, %ymm4, %ymm7 vpermt2ps %ymm24, %ymm23, %ymm20 vsubps %ymm8, %ymm5, %ymm2 vsubps %ymm20, %ymm6, %ymm8 vmulps %ymm10, %ymm15, %ymm20 vmulps %ymm10, %ymm14, %ymm21 vfmadd231ps %ymm19, %ymm13, %ymm20 # ymm20 = (ymm13 * ymm19) + ymm20 vfmadd231ps %ymm18, %ymm13, %ymm21 # ymm21 = (ymm13 * ymm18) + ymm21 vmulps %ymm10, %ymm12, %ymm18 vmulps %ymm10, %ymm11, %ymm19 vfmadd231ps %ymm15, %ymm13, %ymm18 # ymm18 = (ymm13 * ymm15) + ymm18 vfmadd231ps %ymm14, %ymm13, %ymm19 # ymm19 = (ymm13 * ymm14) + ymm19 vmulps %ymm10, %ymm16, %ymm14 vmulps %ymm10, %ymm17, %ymm15 vfmadd231ps %ymm12, %ymm13, %ymm14 # ymm14 = (ymm13 * ymm12) + ymm14 vfmadd231ps %ymm11, %ymm13, %ymm15 # ymm15 = (ymm13 * ymm11) + ymm15 vmulps %ymm18, %ymm10, %ymm16 vmulps %ymm19, %ymm10, %ymm17 vfmadd231ps %ymm20, %ymm13, %ymm16 # ymm16 = (ymm13 * ymm20) + ymm16 vfmadd231ps %ymm21, %ymm13, %ymm17 # ymm17 = (ymm13 * ymm21) + ymm17 vmulps %ymm14, %ymm10, %ymm14 vmulps %ymm15, %ymm10, %ymm15 vfmadd231ps %ymm18, %ymm13, %ymm14 # ymm14 = (ymm13 * ymm18) + ymm14 vfmadd231ps %ymm19, %ymm13, %ymm15 # ymm15 = (ymm13 * ymm19) + ymm15 vmulps %ymm14, %ymm10, %ymm11 vmulps %ymm15, %ymm10, %ymm12 vfmadd231ps %ymm16, %ymm13, %ymm11 # ymm11 = (ymm13 * ymm16) + ymm11 vfmadd231ps %ymm13, %ymm17, %ymm12 # ymm12 = (ymm17 * ymm13) + ymm12 vsubps %ymm16, %ymm14, %ymm10 vsubps %ymm17, %ymm15, %ymm13 vmulps %ymm22, %ymm10, %ymm10 vmulps %ymm22, %ymm13, %ymm13 vmulps %ymm10, %ymm9, %ymm10 vmulps %ymm13, %ymm9, %ymm16 vmovaps %ymm11, %ymm13 vpermt2ps %ymm24, %ymm23, %ymm13 vmovaps %ymm12, %ymm14 vpermt2ps %ymm24, %ymm23, %ymm14 vaddps %ymm10, %ymm11, %ymm9 vpermt2ps %ymm24, %ymm23, %ymm10 vaddps %ymm16, %ymm12, %ymm15 vpermt2ps %ymm24, %ymm23, %ymm16 vsubps %ymm10, %ymm13, %ymm10 vsubps %ymm16, %ymm14, %ymm16 vsubps %ymm3, %ymm11, %ymm17 vsubps %ymm4, %ymm12, %ymm18 vsubps %ymm5, %ymm13, %ymm19 vaddps %ymm19, %ymm17, %ymm17 vsubps %ymm6, %ymm14, %ymm19 vaddps %ymm19, %ymm18, %ymm18 vmulps %ymm17, %ymm4, %ymm19 vfnmadd231ps %ymm18, %ymm3, %ymm19 # ymm19 = -(ymm3 * ymm18) + ymm19 vmulps %ymm17, %ymm7, %ymm20 vfnmadd231ps %ymm18, %ymm1, %ymm20 # ymm20 = -(ymm1 * ymm18) + ymm20 vmulps %ymm17, %ymm8, %ymm21 vfnmadd231ps %ymm18, %ymm2, %ymm21 # ymm21 = -(ymm2 * ymm18) + ymm21 vmulps %ymm17, %ymm6, %ymm22 vfnmadd231ps %ymm18, %ymm5, %ymm22 # ymm22 = -(ymm5 * ymm18) + ymm22 vmulps %ymm17, %ymm12, %ymm23 vfnmadd231ps %ymm18, %ymm11, %ymm23 # ymm23 = -(ymm11 * ymm18) + ymm23 vmulps %ymm17, %ymm15, %ymm24 vfnmadd231ps %ymm18, %ymm9, %ymm24 # ymm24 = -(ymm9 * ymm18) + ymm24 vmulps %ymm17, %ymm16, %ymm25 vfnmadd231ps %ymm18, %ymm10, %ymm25 # ymm25 = -(ymm10 * ymm18) + ymm25 vmulps %ymm17, %ymm14, %ymm17 vfnmadd231ps %ymm18, %ymm13, %ymm17 # ymm17 = -(ymm13 * ymm18) + ymm17 vminps %ymm20, %ymm19, %ymm18 vmaxps %ymm20, %ymm19, %ymm19 vminps %ymm22, %ymm21, %ymm20 vminps %ymm20, %ymm18, %ymm18 vmaxps %ymm22, %ymm21, %ymm20 vmaxps %ymm20, %ymm19, %ymm19 vminps %ymm24, %ymm23, %ymm20 vmaxps %ymm24, %ymm23, %ymm21 vminps %ymm17, %ymm25, %ymm22 vminps %ymm22, %ymm20, %ymm20 vminps %ymm20, %ymm18, %ymm18 vmaxps %ymm17, %ymm25, %ymm17 vmaxps %ymm17, %ymm21, %ymm17 vmaxps %ymm17, %ymm19, %ymm17 vcmpleps %ymm29, %ymm18, %k1 vcmpnltps %ymm28, %ymm17, %k0 {%k1} kmovd %k0, %eax movl $0x0, %ecx andb $0x7f, %al je 0x1cd6fb9 vsubps %ymm3, %ymm5, %ymm17 vsubps %ymm4, %ymm6, %ymm18 vsubps %ymm11, %ymm13, %ymm19 vaddps %ymm19, %ymm17, %ymm17 vsubps %ymm12, %ymm14, %ymm19 vaddps %ymm19, %ymm18, %ymm18 vmulps %ymm17, %ymm4, %ymm4 vfnmadd231ps %ymm3, %ymm18, %ymm4 # ymm4 = -(ymm18 * ymm3) + ymm4 vmulps %ymm17, %ymm7, %ymm3 vfnmadd213ps %ymm3, %ymm18, %ymm1 # ymm1 = -(ymm18 * ymm1) + ymm3 vmulps %ymm17, %ymm8, %ymm3 vfnmadd213ps %ymm3, %ymm18, %ymm2 # ymm2 = -(ymm18 * ymm2) + ymm3 vmulps %ymm17, %ymm6, %ymm3 vfnmadd231ps %ymm5, %ymm18, %ymm3 # ymm3 = -(ymm18 * ymm5) + ymm3 vmulps %ymm17, %ymm12, %ymm5 vfnmadd231ps %ymm11, %ymm18, %ymm5 # ymm5 = -(ymm18 * ymm11) + ymm5 vmulps %ymm17, %ymm15, %ymm6 vfnmadd213ps %ymm6, %ymm18, %ymm9 # ymm9 = -(ymm18 * ymm9) + ymm6 vmulps %ymm17, %ymm16, %ymm6 vfnmadd213ps %ymm6, %ymm18, %ymm10 # ymm10 = -(ymm18 * ymm10) + ymm6 vmulps %ymm17, %ymm14, %ymm6 vfnmadd231ps %ymm18, %ymm13, %ymm6 # ymm6 = -(ymm13 * ymm18) + ymm6 vminps %ymm1, %ymm4, %ymm7 vmaxps %ymm1, %ymm4, %ymm1 vminps %ymm3, %ymm2, %ymm4 vminps %ymm4, %ymm7, %ymm4 vmaxps %ymm3, %ymm2, %ymm2 vmaxps %ymm2, %ymm1, %ymm1 vminps %ymm9, %ymm5, %ymm2 vmaxps %ymm9, %ymm5, %ymm3 vminps %ymm6, %ymm10, %ymm5 vminps %ymm5, %ymm2, %ymm2 vminps %ymm2, %ymm4, %ymm2 vmaxps %ymm6, %ymm10, %ymm4 vmaxps %ymm4, %ymm3, %ymm3 vmaxps %ymm3, %ymm1, %ymm1 vcmpnltps %ymm28, %ymm1, %k1 vcmpleps %ymm29, %ymm2, %k0 {%k1} kmovd %k0, %ecx andb %cl, %al movzbl %al, %ecx testl %ecx, %ecx je 0x1cd6fdc movl %ebx, %eax movl %ecx, 0x1a0(%rsp,%rax,4) vmovlps %xmm0, 0x360(%rsp,%rax,8) vmovlps %xmm26, 0x440(%rsp,%rax,8) incl %ebx vbroadcastss 0x215b9a(%rip), %xmm17 # 0x1eecb80 vbroadcastss 0x249ed4(%rip), %xmm19 # 0x1f20ec4 vbroadcastss 0x219ff2(%rip), %ymm18 # 0x1ef0fec vmovss 0x249edc(%rip), %xmm20 # 0x1f20ee0 vmovss 0x215706(%rip), %xmm21 # 0x1eec714 vmovss 0x219fe8(%rip), %xmm22 # 0x1ef1000 vmovss 0x21aa2a(%rip), %xmm23 # 0x1ef1a4c vbroadcastss 0x2156e8(%rip), %xmm24 # 0x1eec714 vmovss 0x21ae86(%rip), %xmm25 # 0x1ef1ebc vmovaps 0x90(%rsp), %xmm16 vmovaps 0x50(%rsp), %xmm12 vmovaps 0x40(%rsp), %xmm9 vmovaps 0x30(%rsp), %xmm10 vmovaps 0x20(%rsp), %xmm11 vmovaps 0x100(%rsp), %xmm28 vmovaps 0xf0(%rsp), %xmm29 testl %ebx, %ebx je 0x1cd80e8 leal -0x1(%rbx), %eax vmovss 0x360(%rsp,%rax,8), %xmm0 vmovss 0x364(%rsp,%rax,8), %xmm1 movl 0x1a0(%rsp,%rax,4), %ecx vmovsd 0x440(%rsp,%rax,8), %xmm15 tzcntq %rcx, %rdx blsrl %ecx, %ecx movl %ecx, 0x1a0(%rsp,%rax,4) cmovel %eax, %ebx vxorps %xmm2, %xmm2, %xmm2 vcvtsi2ss %rdx, %xmm2, %xmm2 vmulss %xmm20, %xmm2, %xmm2 incq %rdx vcvtsi2ss %rdx, %xmm30, %xmm3 vmulss %xmm20, %xmm3, %xmm3 vsubss %xmm2, %xmm21, %xmm4 vmulss %xmm2, %xmm1, %xmm26 vfmadd231ss %xmm4, %xmm0, %xmm26 # xmm26 = (xmm0 * xmm4) + xmm26 vsubss %xmm3, %xmm21, %xmm2 vmulss %xmm3, %xmm1, %xmm13 vfmadd231ss %xmm2, %xmm0, %xmm13 # xmm13 = (xmm0 * xmm2) + xmm13 vsubss %xmm26, %xmm13, %xmm0 vucomiss %xmm0, %xmm22 jbe 0x1cd80b3 vmovaps %xmm26, %xmm6 vmovaps %xmm15, %xmm26 vshufps $0x50, %xmm15, %xmm15, %xmm1 # xmm1 = xmm15[0,0,1,1] vucomiss %xmm0, %xmm23 seta %cl cmpl $0x4, %ebx setae %al vsubps %xmm1, %xmm24, %xmm2 vmulps %xmm1, %xmm12, %xmm3 vmulps %xmm1, %xmm9, %xmm4 vmulps %xmm1, %xmm10, %xmm5 vmulps %xmm1, %xmm11, %xmm1 vfmadd231ps 0x190(%rsp), %xmm2, %xmm3 # xmm3 = (xmm2 * mem) + xmm3 vfmadd231ps 0x180(%rsp), %xmm2, %xmm4 # xmm4 = (xmm2 * mem) + xmm4 vfmadd231ps 0x170(%rsp), %xmm2, %xmm5 # xmm5 = (xmm2 * mem) + xmm5 vfmadd231ps %xmm2, %xmm16, %xmm1 # xmm1 = (xmm16 * xmm2) + xmm1 vinsertf128 $0x1, %xmm3, %ymm3, %ymm2 vinsertf128 $0x1, %xmm4, %ymm4, %ymm3 vinsertf128 $0x1, %xmm5, %ymm5, %ymm4 vmovaps %xmm6, 0xd0(%rsp) vbroadcastss %xmm6, %xmm6 vmovaps %xmm13, 0x70(%rsp) vbroadcastss %xmm13, %xmm7 vinsertf128 $0x1, %xmm7, %ymm6, %ymm6 vsubps %ymm2, %ymm3, %ymm7 vfmadd213ps %ymm2, %ymm6, %ymm7 # ymm7 = (ymm6 * ymm7) + ymm2 vsubps %ymm3, %ymm4, %ymm2 vfmadd213ps %ymm3, %ymm6, %ymm2 # ymm2 = (ymm6 * ymm2) + ymm3 vsubps %xmm5, %xmm1, %xmm1 vinsertf128 $0x1, %xmm1, %ymm1, %ymm3 vfmadd213ps %ymm4, %ymm6, %ymm3 # ymm3 = (ymm6 * ymm3) + ymm4 vsubps %ymm7, %ymm2, %ymm1 vfmadd213ps %ymm7, %ymm6, %ymm1 # ymm1 = (ymm6 * ymm1) + ymm7 vsubps %ymm2, %ymm3, %ymm3 vfmadd213ps %ymm2, %ymm6, %ymm3 # ymm3 = (ymm6 * ymm3) + ymm2 vsubps %ymm1, %ymm3, %ymm2 vfmadd231ps %ymm6, %ymm2, %ymm1 # ymm1 = (ymm2 * ymm6) + ymm1 vmulps %ymm18, %ymm2, %ymm3 vextractf128 $0x1, %ymm1, %xmm2 vextractf128 $0x1, %ymm3, %xmm4 vmulss %xmm25, %xmm0, %xmm5 vbroadcastss %xmm5, %xmm6 vmulps %xmm3, %xmm6, %xmm3 vaddps %xmm3, %xmm1, %xmm5 vmulps %xmm4, %xmm6, %xmm3 vsubps %xmm3, %xmm2, %xmm6 vshufpd $0x3, %xmm1, %xmm1, %xmm4 # xmm4 = xmm1[1,1] vshufpd $0x3, %xmm2, %xmm2, %xmm3 # xmm3 = xmm2[1,1] vsubps %xmm1, %xmm4, %xmm7 vsubps %xmm2, %xmm3, %xmm8 vaddps %xmm7, %xmm8, %xmm7 vshufps $0xb1, %xmm1, %xmm1, %xmm8 # xmm8 = xmm1[1,0,3,2] vshufps $0xb1, %xmm5, %xmm5, %xmm9 # xmm9 = xmm5[1,0,3,2] vshufps $0xb1, %xmm6, %xmm6, %xmm10 # xmm10 = xmm6[1,0,3,2] vshufps $0xb1, %xmm2, %xmm2, %xmm11 # xmm11 = xmm2[1,0,3,2] vbroadcastss %xmm7, %xmm12 vshufps $0x55, %xmm7, %xmm7, %xmm7 # xmm7 = xmm7[1,1,1,1] vmulps %xmm7, %xmm8, %xmm8 vmulps %xmm7, %xmm9, %xmm9 vmulps %xmm7, %xmm10, %xmm10 vmulps %xmm7, %xmm11, %xmm7 vfmadd231ps %xmm1, %xmm12, %xmm8 # xmm8 = (xmm12 * xmm1) + xmm8 vfmadd231ps %xmm5, %xmm12, %xmm9 # xmm9 = (xmm12 * xmm5) + xmm9 vfmadd231ps %xmm6, %xmm12, %xmm10 # xmm10 = (xmm12 * xmm6) + xmm10 vfmadd231ps %xmm12, %xmm2, %xmm7 # xmm7 = (xmm2 * xmm12) + xmm7 vshufpd $0x1, %xmm8, %xmm8, %xmm11 # xmm11 = xmm8[1,0] vshufpd $0x1, %xmm9, %xmm9, %xmm12 # xmm12 = xmm9[1,0] vshufpd $0x1, %xmm10, %xmm10, %xmm14 # xmm14 = xmm10[1,0] vshufpd $0x1, %xmm7, %xmm7, %xmm15 # xmm15 = xmm7[1,0] vminss %xmm9, %xmm8, %xmm13 vmaxss %xmm8, %xmm9, %xmm8 vminss %xmm7, %xmm10, %xmm9 vmaxss %xmm10, %xmm7, %xmm7 vminss %xmm9, %xmm13, %xmm13 vmaxss %xmm8, %xmm7, %xmm9 vminss %xmm12, %xmm11, %xmm7 vmaxss %xmm11, %xmm12, %xmm8 vminss %xmm15, %xmm14, %xmm10 vmaxss %xmm14, %xmm15, %xmm11 vminss %xmm10, %xmm7, %xmm14 vmaxss %xmm8, %xmm11, %xmm10 vmovss 0x219739(%rip), %xmm7 # 0x1ef09d8 vucomiss %xmm13, %xmm7 jbe 0x1cd72b4 vmovss 0x21ac12(%rip), %xmm7 # 0x1ef1ec0 vucomiss %xmm7, %xmm10 ja 0x1cd7315 vmovss 0x21ac04(%rip), %xmm7 # 0x1ef1ec0 vucomiss %xmm7, %xmm9 seta %dl vmovss 0x21970d(%rip), %xmm7 # 0x1ef09d8 vcmpltps %xmm7, %xmm14, %k0 vcmpltps %xmm7, %xmm13, %k1 korw %k0, %k1, %k0 kmovd %k0, %esi testb %sil, %dl jne 0x1cd7315 vmovss 0x21abd2(%rip), %xmm7 # 0x1ef1ec0 vcmpnltps %xmm10, %xmm7, %k0 vmovss 0x2196db(%rip), %xmm7 # 0x1ef09d8 vcmpnltps %xmm7, %xmm14, %k1 korw %k0, %k1, %k0 kmovd %k0, %edx testb $0x1, %dl jne 0x1cd8073 vcmpltss %xmm31, %xmm13, %k1 vmovaps %xmm21, %xmm15 vmovss 0x2196a0(%rip), %xmm16 # 0x1ef09cc vmovss %xmm16, %xmm15, %xmm15 {%k1} vcmpltss %xmm31, %xmm9, %k1 vmovaps %xmm21, %xmm12 vmovss %xmm16, %xmm12, %xmm12 {%k1} vucomiss %xmm12, %xmm15 setp %dl setne %sil orb %dl, %sil kmovd %esi, %k1 vmovss 0x2146c0(%rip), %xmm7 # 0x1eeba20 vmovss %xmm31, %xmm7, %xmm7 {%k1} vmovss 0x215816(%rip), %xmm8 # 0x1eecb84 vmovss %xmm31, %xmm8, %xmm8 {%k1} vcmpltss %xmm31, %xmm14, %k1 vmovaps %xmm21, %xmm11 vmovss %xmm16, %xmm11, %xmm11 {%k1} vucomiss %xmm11, %xmm15 jne 0x1cd7390 jnp 0x1cd73cf vucomiss %xmm13, %xmm14 jne 0x1cd73df jp 0x1cd73df vucomiss %xmm31, %xmm13 setnp %dl sete %sil andb %dl, %sil kmovd %esi, %k1 vmovss 0x21466b(%rip), %xmm13 # 0x1eeba20 vmovss %xmm31, %xmm13, %xmm13 {%k1} vmovss 0x2157c1(%rip), %xmm14 # 0x1eecb84 vmovss 0x215347(%rip), %xmm14 {%k1} # 0x1eec714 jmp 0x1cd7404 vmovaps 0xe0(%rsp), %xmm16 vmovaps %xmm26, %xmm15 jmp 0x1cd741c vxorps 0x249ad7(%rip){1to4}, %xmm13, %xmm15 # 0x1f20ec0 vsubss %xmm13, %xmm14, %xmm13 vdivss %xmm13, %xmm15, %xmm14 vsubss %xmm14, %xmm21, %xmm13 vfmadd213ss %xmm14, %xmm31, %xmm13 # xmm13 = (xmm31 * xmm13) + xmm14 vmovaps %xmm13, %xmm14 vmovaps 0xe0(%rsp), %xmm16 vmovaps %xmm26, %xmm15 vminss %xmm13, %xmm7, %xmm7 vmaxss %xmm8, %xmm14, %xmm8 vmovaps 0xd0(%rsp), %xmm26 vcmpltss %xmm31, %xmm10, %k1 vmovaps %xmm21, %xmm13 vmovss 0x219591(%rip), %xmm13 {%k1} # 0x1ef09cc vucomiss %xmm13, %xmm12 jne 0x1cd7444 jnp 0x1cd74b2 vucomiss %xmm9, %xmm10 jne 0x1cd7483 jp 0x1cd7483 vucomiss %xmm31, %xmm9 setnp %dl sete %sil andb %dl, %sil kmovd %esi, %k1 vmovss 0x2145b7(%rip), %xmm9 # 0x1eeba20 vmovss %xmm31, %xmm9, %xmm9 {%k1} vmovss 0x21570d(%rip), %xmm10 # 0x1eecb84 vmovss 0x215293(%rip), %xmm10 {%k1} # 0x1eec714 jmp 0x1cd74a8 vxorps 0x249a33(%rip){1to4}, %xmm9, %xmm12 # 0x1f20ec0 vsubss %xmm9, %xmm10, %xmm9 vdivss %xmm9, %xmm12, %xmm10 vsubss %xmm10, %xmm21, %xmm9 vfmadd213ss %xmm10, %xmm31, %xmm9 # xmm9 = (xmm31 * xmm9) + xmm10 vmovaps %xmm9, %xmm10 vminss %xmm9, %xmm7, %xmm7 vmaxss %xmm8, %xmm10, %xmm8 vucomiss %xmm13, %xmm11 setp %dl setne %sil orb %dl, %sil vminss %xmm21, %xmm7, %xmm9 kmovd %esi, %k1 vmovss %xmm9, %xmm7, %xmm7 {%k1} vmaxss %xmm8, %xmm21, %xmm9 vmovss %xmm9, %xmm8, %xmm8 {%k1} vmaxss %xmm7, %xmm31, %xmm7 vminss %xmm21, %xmm8, %xmm8 movb $0x1, %r15b vucomiss %xmm8, %xmm7 ja 0x1cd803d vaddss 0x285f69(%rip), %xmm7, %xmm7 # 0x1f5d468 vaddss 0x215695(%rip), %xmm8, %xmm8 # 0x1eecb9c vmaxss %xmm7, %xmm31, %xmm7 vminss %xmm21, %xmm8, %xmm8 vmovddup %xmm1, %xmm1 # xmm1 = xmm1[0,0] vmovddup %xmm5, %xmm9 # xmm9 = xmm5[0,0] vmovddup %xmm6, %xmm10 # xmm10 = xmm6[0,0] vmovddup %xmm2, %xmm2 # xmm2 = xmm2[0,0] vshufpd $0x3, %xmm5, %xmm5, %xmm5 # xmm5 = xmm5[1,1] vshufpd $0x3, %xmm6, %xmm6, %xmm6 # xmm6 = xmm6[1,1] vshufps $0x0, %xmm8, %xmm7, %xmm11 # xmm11 = xmm7[0,0],xmm8[0,0] vsubps %xmm11, %xmm24, %xmm12 vmulps %xmm4, %xmm11, %xmm13 vmulps %xmm5, %xmm11, %xmm5 vmulps %xmm6, %xmm11, %xmm6 vmulps %xmm3, %xmm11, %xmm3 vfmadd231ps %xmm1, %xmm12, %xmm13 # xmm13 = (xmm12 * xmm1) + xmm13 vfmadd231ps %xmm9, %xmm12, %xmm5 # xmm5 = (xmm12 * xmm9) + xmm5 vfmadd231ps %xmm10, %xmm12, %xmm6 # xmm6 = (xmm12 * xmm10) + xmm6 vfmadd231ps %xmm2, %xmm12, %xmm3 # xmm3 = (xmm12 * xmm2) + xmm3 vsubss %xmm7, %xmm21, %xmm2 vmovshdup %xmm15, %xmm4 # xmm4 = xmm15[1,1,3,3] vmulss %xmm7, %xmm4, %xmm1 vfmadd231ss %xmm2, %xmm15, %xmm1 # xmm1 = (xmm15 * xmm2) + xmm1 vsubss %xmm8, %xmm21, %xmm2 vmulss %xmm4, %xmm8, %xmm4 vfmadd231ss %xmm2, %xmm15, %xmm4 # xmm4 = (xmm15 * xmm2) + xmm4 vdivss %xmm0, %xmm21, %xmm0 vsubps %xmm13, %xmm5, %xmm2 vbroadcastss 0x219a58(%rip), %xmm15 # 0x1ef0fec vmulps %xmm2, %xmm15, %xmm2 vsubps %xmm5, %xmm6, %xmm7 vmulps %xmm7, %xmm15, %xmm7 vsubps %xmm6, %xmm3, %xmm8 vmulps %xmm15, %xmm8, %xmm8 vminps %xmm8, %xmm7, %xmm9 vmaxps %xmm8, %xmm7, %xmm7 vminps %xmm9, %xmm2, %xmm8 vmaxps %xmm7, %xmm2, %xmm2 vshufpd $0x3, %xmm8, %xmm8, %xmm7 # xmm7 = xmm8[1,1] vshufpd $0x3, %xmm2, %xmm2, %xmm9 # xmm9 = xmm2[1,1] vminps %xmm7, %xmm8, %xmm7 vmaxps %xmm9, %xmm2, %xmm2 vbroadcastss %xmm0, %xmm0 vmulps %xmm7, %xmm0, %xmm8 vmulps %xmm2, %xmm0, %xmm7 vsubss %xmm1, %xmm4, %xmm0 vdivss %xmm0, %xmm21, %xmm0 vshufpd $0x3, %xmm13, %xmm13, %xmm2 # xmm2 = xmm13[1,1] vshufpd $0x3, %xmm5, %xmm5, %xmm9 # xmm9 = xmm5[1,1] vshufpd $0x3, %xmm6, %xmm6, %xmm10 # xmm10 = xmm6[1,1] vshufpd $0x3, %xmm3, %xmm3, %xmm11 # xmm11 = xmm3[1,1] vsubps %xmm13, %xmm2, %xmm2 vsubps %xmm5, %xmm9, %xmm5 vsubps %xmm6, %xmm10, %xmm6 vsubps %xmm3, %xmm11, %xmm3 vminps %xmm5, %xmm2, %xmm9 vmaxps %xmm5, %xmm2, %xmm2 vminps %xmm3, %xmm6, %xmm5 vminps %xmm5, %xmm9, %xmm5 vmaxps %xmm3, %xmm6, %xmm3 vmaxps %xmm3, %xmm2, %xmm2 vbroadcastss %xmm0, %xmm0 vmulps %xmm5, %xmm0, %xmm10 vmulps %xmm2, %xmm0, %xmm11 vinsertps $0x10, %xmm1, %xmm26, %xmm6 # xmm6 = xmm26[0],xmm1[0],xmm26[2,3] vmovaps 0x70(%rsp), %xmm0 vinsertps $0x10, %xmm4, %xmm0, %xmm5 # xmm5 = xmm0[0],xmm4[0],xmm0[2,3] vaddps %xmm5, %xmm6, %xmm0 vmulps %xmm17, %xmm0, %xmm9 vshufps $0x54, %xmm9, %xmm9, %xmm0 # xmm0 = xmm9[0,1,1,1] vbroadcastss %xmm9, %xmm2 vmovaps %xmm28, %xmm3 vfmadd213ps %xmm16, %xmm2, %xmm3 # xmm3 = (xmm2 * xmm3) + xmm16 vmovaps %xmm29, %xmm12 vfmadd213ps 0x120(%rsp), %xmm2, %xmm12 # xmm12 = (xmm2 * xmm12) + mem vmovaps 0x350(%rsp), %xmm13 vfmadd213ps 0x110(%rsp), %xmm2, %xmm13 # xmm13 = (xmm2 * xmm13) + mem vsubps %xmm3, %xmm12, %xmm14 vfmadd213ps %xmm3, %xmm2, %xmm14 # xmm14 = (xmm2 * xmm14) + xmm3 vsubps %xmm12, %xmm13, %xmm3 vfmadd213ps %xmm12, %xmm2, %xmm3 # xmm3 = (xmm2 * xmm3) + xmm12 vsubps %xmm14, %xmm3, %xmm3 vfmadd231ps %xmm2, %xmm3, %xmm14 # xmm14 = (xmm3 * xmm2) + xmm14 vmulps %xmm3, %xmm15, %xmm2 vmovddup %xmm14, %xmm12 # xmm12 = xmm14[0,0] vshufpd $0x3, %xmm14, %xmm14, %xmm3 # xmm3 = xmm14[1,1] vshufps $0x55, %xmm9, %xmm9, %xmm13 # xmm13 = xmm9[1,1,1,1] vsubps %xmm12, %xmm3, %xmm3 vfmadd231ps %xmm3, %xmm13, %xmm12 # xmm12 = (xmm13 * xmm3) + xmm12 vmovddup %xmm2, %xmm14 # xmm14 = xmm2[0,0] vshufpd $0x3, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[1,1] vsubps %xmm14, %xmm2, %xmm15 vfmadd213ps %xmm14, %xmm13, %xmm15 # xmm15 = (xmm13 * xmm15) + xmm14 vxorps %xmm30, %xmm3, %xmm2 vmovshdup %xmm15, %xmm13 # xmm13 = xmm15[1,1,3,3] vxorps %xmm30, %xmm13, %xmm14 vmovshdup %xmm3, %xmm16 # xmm16 = xmm3[1,1,3,3] vmovss 0x288603(%rip), %xmm31 # 0x1f5fcfc vpermt2ps %xmm3, %xmm31, %xmm14 vmulss %xmm3, %xmm13, %xmm3 vfmsub231ss %xmm16, %xmm15, %xmm3 # xmm3 = (xmm15 * xmm16) - xmm3 vmovss 0x283263(%rip), %xmm13 # 0x1f5a974 vpermt2ps %xmm2, %xmm13, %xmm15 vbroadcastss %xmm3, %xmm3 vdivps %xmm3, %xmm14, %xmm2 vdivps %xmm3, %xmm15, %xmm3 vbroadcastss %xmm12, %xmm13 vmulps %xmm2, %xmm13, %xmm13 vshufps $0x55, %xmm12, %xmm12, %xmm12 # xmm12 = xmm12[1,1,1,1] vmulps %xmm3, %xmm12, %xmm12 vaddps %xmm12, %xmm13, %xmm12 vsubps %xmm12, %xmm0, %xmm0 vmovshdup %xmm2, %xmm12 # xmm12 = xmm2[1,1,3,3] vinsertps $0x1c, %xmm10, %xmm8, %xmm13 # xmm13 = xmm8[0],xmm10[0],zero,zero vmulps %xmm13, %xmm12, %xmm14 vinsertps $0x1c, %xmm11, %xmm7, %xmm15 # xmm15 = xmm7[0],xmm11[0],zero,zero vmulps %xmm15, %xmm12, %xmm12 vminps %xmm12, %xmm14, %xmm16 vmaxps %xmm14, %xmm12, %xmm12 vmovshdup %xmm3, %xmm14 # xmm14 = xmm3[1,1,3,3] vinsertps $0x4c, %xmm8, %xmm10, %xmm8 # xmm8 = xmm8[1],xmm10[1],zero,zero vmulps %xmm8, %xmm14, %xmm10 vinsertps $0x4c, %xmm7, %xmm11, %xmm7 # xmm7 = xmm7[1],xmm11[1],zero,zero vmulps %xmm7, %xmm14, %xmm11 vminps %xmm11, %xmm10, %xmm14 vaddps %xmm14, %xmm16, %xmm14 vmaxps %xmm10, %xmm11, %xmm10 vaddps %xmm10, %xmm12, %xmm10 vmovddup 0x249754(%rip), %xmm11 # xmm11 = mem[0,0] vsubps %xmm10, %xmm11, %xmm10 vsubps %xmm14, %xmm11, %xmm11 vsubps %xmm9, %xmm6, %xmm12 vsubps %xmm9, %xmm5, %xmm9 vmulps %xmm10, %xmm12, %xmm14 vbroadcastss %xmm2, %xmm16 vmulps %xmm13, %xmm16, %xmm13 vmulps %xmm15, %xmm16, %xmm15 vminps %xmm15, %xmm13, %xmm16 vmaxps %xmm13, %xmm15, %xmm13 vbroadcastss %xmm3, %xmm15 vmulps %xmm8, %xmm15, %xmm8 vmulps %xmm7, %xmm15, %xmm7 vminps %xmm7, %xmm8, %xmm15 vaddps %xmm15, %xmm16, %xmm15 vmulps %xmm11, %xmm12, %xmm16 vmulps %xmm10, %xmm9, %xmm10 vmulps %xmm11, %xmm9, %xmm11 vmaxps %xmm8, %xmm7, %xmm7 vaddps %xmm7, %xmm13, %xmm7 vmovddup 0x2496ed(%rip), %xmm8 # xmm8 = mem[0,0] vsubps %xmm7, %xmm8, %xmm7 vsubps %xmm15, %xmm8, %xmm8 vmulps %xmm7, %xmm12, %xmm13 vmulps %xmm8, %xmm12, %xmm12 vmulps %xmm7, %xmm9, %xmm7 vmulps %xmm8, %xmm9, %xmm8 vminps %xmm12, %xmm13, %xmm9 vminps %xmm8, %xmm7, %xmm15 vminps %xmm15, %xmm9, %xmm9 vmaxps %xmm13, %xmm12, %xmm12 vmaxps %xmm7, %xmm8, %xmm7 vmaxps %xmm12, %xmm7, %xmm7 vminps %xmm16, %xmm14, %xmm8 vminps %xmm11, %xmm10, %xmm12 vminps %xmm12, %xmm8, %xmm8 vhaddps %xmm8, %xmm9, %xmm8 vmaxps %xmm14, %xmm16, %xmm9 vmaxps %xmm10, %xmm11, %xmm10 vmaxps %xmm9, %xmm10, %xmm9 vhaddps %xmm9, %xmm7, %xmm7 vshufps $0xe8, %xmm8, %xmm8, %xmm8 # xmm8 = xmm8[0,2,2,3] vshufps $0xe8, %xmm7, %xmm7, %xmm9 # xmm9 = xmm7[0,2,2,3] vaddps %xmm0, %xmm8, %xmm7 vaddps %xmm0, %xmm9, %xmm8 vmaxps %xmm7, %xmm6, %xmm6 vminps %xmm5, %xmm8, %xmm9 vcmpltps %xmm6, %xmm9, %k0 vinsertps $0x10, %xmm4, %xmm1, %xmm15 # xmm15 = xmm1[0],xmm4[0],xmm1[2,3] kmovd %k0, %edx testb $0x3, %dl jne 0x1cd8037 vucomiss %xmm8, %xmm5 seta %sil xorl %edx, %edx vucomiss %xmm26, %xmm7 vmovaps 0x90(%rsp), %xmm16 jbe 0x1cd791e testb %sil, %sil vxorps %xmm31, %xmm31, %xmm31 vmovss 0x21971e(%rip), %xmm11 # 0x1ef0fec vmovaps 0xe0(%rsp), %xmm9 vmovaps 0x120(%rsp), %xmm10 vmovaps 0x110(%rsp), %xmm12 vmovaps 0x160(%rsp), %xmm13 vmovaps 0x150(%rsp), %xmm14 je 0x1cd7959 vcmpltps %xmm5, %xmm8, %k0 kshiftrb $0x1, %k0, %k0 kmovd %k0, %esi vmovshdup %xmm7, %xmm4 # xmm4 = xmm7[1,1,3,3] vucomiss %xmm1, %xmm4 seta %dl andb %sil, %dl jmp 0x1cd7959 vxorps %xmm31, %xmm31, %xmm31 vmovss 0x2196c0(%rip), %xmm11 # 0x1ef0fec vmovaps 0xe0(%rsp), %xmm9 vmovaps 0x120(%rsp), %xmm10 vmovaps 0x110(%rsp), %xmm12 vmovaps 0x160(%rsp), %xmm13 vmovaps 0x150(%rsp), %xmm14 orb %cl, %al orb %dl, %al cmpb $0x1, %al jne 0x1cd8047 movl $0xc8, %eax vsubss %xmm0, %xmm21, %xmm1 vmulss %xmm1, %xmm1, %xmm4 vmulss %xmm4, %xmm1, %xmm5 vmulss %xmm0, %xmm11, %xmm6 vmulss %xmm4, %xmm6, %xmm4 vmulss %xmm0, %xmm0, %xmm6 vmulss %xmm6, %xmm11, %xmm7 vmulss %xmm7, %xmm1, %xmm1 vbroadcastss %xmm5, %xmm5 vbroadcastss %xmm4, %xmm4 vbroadcastss %xmm1, %xmm1 vmulss %xmm6, %xmm0, %xmm6 vbroadcastss %xmm6, %xmm6 vmulps %xmm6, %xmm13, %xmm6 vfmadd231ps %xmm1, %xmm12, %xmm6 # xmm6 = (xmm12 * xmm1) + xmm6 vfmadd231ps %xmm4, %xmm10, %xmm6 # xmm6 = (xmm10 * xmm4) + xmm6 vfmadd231ps %xmm5, %xmm9, %xmm6 # xmm6 = (xmm9 * xmm5) + xmm6 vmovddup %xmm6, %xmm1 # xmm1 = xmm6[0,0] vshufpd $0x3, %xmm6, %xmm6, %xmm4 # xmm4 = xmm6[1,1] vshufps $0x55, %xmm0, %xmm0, %xmm5 # xmm5 = xmm0[1,1,1,1] vsubps %xmm1, %xmm4, %xmm4 vfmadd213ps %xmm1, %xmm5, %xmm4 # xmm4 = (xmm5 * xmm4) + xmm1 vbroadcastss %xmm4, %xmm1 vmulps %xmm1, %xmm2, %xmm1 vshufps $0x55, %xmm4, %xmm4, %xmm5 # xmm5 = xmm4[1,1,1,1] vmulps %xmm5, %xmm3, %xmm5 vaddps %xmm5, %xmm1, %xmm1 vsubps %xmm1, %xmm0, %xmm0 vandps %xmm19, %xmm4, %xmm1 vprolq $0x20, %xmm1, %xmm4 vmaxss %xmm1, %xmm4, %xmm1 vucomiss %xmm1, %xmm14 ja 0x1cd7a0d decq %rax jne 0x1cd796a jmp 0x1cd804a vucomiss %xmm31, %xmm0 jb 0x1cd804a vucomiss %xmm0, %xmm21 vmovaps 0x50(%rsp), %xmm12 vmovaps 0x70(%rsp), %xmm13 jb 0x1cd7b37 vmovshdup %xmm0, %xmm1 # xmm1 = xmm0[1,1,3,3] vucomiss %xmm31, %xmm1 jb 0x1cd7b37 vucomiss %xmm1, %xmm21 jb 0x1cd7b37 vmovss 0x8(%r13), %xmm2 vinsertps $0x1c, 0x18(%r13), %xmm2, %xmm2 # xmm2 = xmm2[0],mem[0],zero,zero vinsertps $0x28, 0x28(%r13), %xmm2, %xmm2 # xmm2 = xmm2[0,1],mem[0],zero vdpps $0x7f, 0x340(%rsp), %xmm2, %xmm3 vdpps $0x7f, 0x330(%rsp), %xmm2, %xmm4 vdpps $0x7f, 0x320(%rsp), %xmm2, %xmm5 vdpps $0x7f, 0x310(%rsp), %xmm2, %xmm6 vdpps $0x7f, 0x300(%rsp), %xmm2, %xmm7 vdpps $0x7f, 0x2f0(%rsp), %xmm2, %xmm8 vdpps $0x7f, 0x2e0(%rsp), %xmm2, %xmm9 vdpps $0x7f, 0x2d0(%rsp), %xmm2, %xmm2 vsubss %xmm1, %xmm21, %xmm10 vmulss %xmm7, %xmm1, %xmm7 vmulss %xmm1, %xmm8, %xmm8 vmulss %xmm1, %xmm9, %xmm9 vmulss %xmm2, %xmm1, %xmm1 vfmadd231ss %xmm3, %xmm10, %xmm7 # xmm7 = (xmm10 * xmm3) + xmm7 vfmadd231ss %xmm4, %xmm10, %xmm8 # xmm8 = (xmm10 * xmm4) + xmm8 vfmadd231ss %xmm5, %xmm10, %xmm9 # xmm9 = (xmm10 * xmm5) + xmm9 vfmadd231ss %xmm6, %xmm10, %xmm1 # xmm1 = (xmm10 * xmm6) + xmm1 vsubss %xmm0, %xmm21, %xmm6 vmulss %xmm6, %xmm6, %xmm3 vmulss %xmm3, %xmm6, %xmm2 vmulss %xmm0, %xmm11, %xmm4 vmulss %xmm3, %xmm4, %xmm3 vmulps %xmm0, %xmm0, %xmm5 vmulss %xmm5, %xmm11, %xmm4 vmulss %xmm4, %xmm6, %xmm4 vmulps %xmm5, %xmm0, %xmm5 vmulss %xmm1, %xmm5, %xmm1 vfmadd231ss %xmm9, %xmm4, %xmm1 # xmm1 = (xmm4 * xmm9) + xmm1 vfmadd231ss %xmm8, %xmm3, %xmm1 # xmm1 = (xmm3 * xmm8) + xmm1 vfmadd231ss %xmm7, %xmm2, %xmm1 # xmm1 = (xmm2 * xmm7) + xmm1 vucomiss 0xcc(%rsp), %xmm1 jb 0x1cd7b37 vmovss 0x100(%r11,%r9,4), %xmm14 vucomiss %xmm1, %xmm14 jae 0x1cd7b4e vmovaps 0x40(%rsp), %xmm9 vmovaps 0x30(%rsp), %xmm10 vmovaps 0x20(%rsp), %xmm11 jmp 0x1cd8068 movq %r12, 0x138(%rsp) movl %r14d, %r12d vshufps $0x55, %xmm0, %xmm0, %xmm7 # xmm7 = xmm0[1,1,1,1] vsubps %xmm7, %xmm24, %xmm8 vmulps 0x2b0(%rsp), %xmm7, %xmm9 vmulps 0x260(%rsp), %xmm7, %xmm10 vmulps 0x250(%rsp), %xmm7, %xmm11 vmulps 0x290(%rsp), %xmm7, %xmm7 vfmadd231ps 0x2c0(%rsp), %xmm8, %xmm9 # xmm9 = (xmm8 * mem) + xmm9 vfmadd231ps 0x280(%rsp), %xmm8, %xmm10 # xmm10 = (xmm8 * mem) + xmm10 vfmadd231ps 0x270(%rsp), %xmm8, %xmm11 # xmm11 = (xmm8 * mem) + xmm11 vfmadd231ps 0x2a0(%rsp), %xmm8, %xmm7 # xmm7 = (xmm8 * mem) + xmm7 vsubps %xmm9, %xmm10, %xmm8 vsubps %xmm10, %xmm11, %xmm9 vsubps %xmm11, %xmm7, %xmm7 vbroadcastss %xmm0, %xmm10 vmulps %xmm9, %xmm10, %xmm11 vbroadcastss %xmm6, %xmm6 vfmadd231ps %xmm8, %xmm6, %xmm11 # xmm11 = (xmm6 * xmm8) + xmm11 vmulps %xmm7, %xmm10, %xmm7 vfmadd231ps %xmm9, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm9) + xmm7 vmulps %xmm7, %xmm10, %xmm7 vfmadd231ps %xmm11, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm11) + xmm7 vmulps 0x2193fd(%rip){1to4}, %xmm7, %xmm6 # 0x1ef0fec movq (%rdi), %rax movq 0x1e8(%rax), %rax movq (%rax,%r8,8), %r14 movl 0x120(%r11,%r9,4), %eax testl %eax, 0x34(%r14) je 0x1cd8013 movq 0x10(%rdi), %rax cmpq $0x0, 0x10(%rax) vmovaps 0x40(%rsp), %xmm9 vmovaps 0x30(%rsp), %xmm10 vmovaps 0x20(%rsp), %xmm11 jne 0x1cd7c39 movb $0x1, %al cmpq $0x0, 0x48(%r14) je 0x1cd8027 vbroadcastss %xmm5, %xmm5 vmulps 0x210(%rsp), %xmm5, %xmm5 vbroadcastss %xmm4, %xmm4 vfmadd132ps 0x220(%rsp), %xmm5, %xmm4 # xmm4 = (xmm4 * mem) + xmm5 vbroadcastss %xmm3, %xmm3 vfmadd132ps 0x230(%rsp), %xmm4, %xmm3 # xmm3 = (xmm3 * mem) + xmm4 vbroadcastss %xmm2, %xmm2 vfmadd132ps 0x240(%rsp), %xmm3, %xmm2 # xmm2 = (xmm2 * mem) + xmm3 vshufps $0xc9, %xmm2, %xmm2, %xmm3 # xmm3 = xmm2[1,2,0,3] vshufps $0xc9, %xmm6, %xmm6, %xmm4 # xmm4 = xmm6[1,2,0,3] vmulps %xmm4, %xmm2, %xmm2 vfmsub231ps %xmm3, %xmm6, %xmm2 # xmm2 = (xmm6 * xmm3) - xmm2 movq 0x8(%rdi), %rax vbroadcastss %xmm0, %ymm3 vbroadcastss 0x23aa6b(%rip), %ymm4 # 0x1f12704 vpermps %ymm0, %ymm4, %ymm0 vpermps %ymm2, %ymm4, %ymm4 vpermps %ymm2, %ymm27, %ymm5 vbroadcastss %xmm2, %ymm2 vmovaps %ymm4, 0x460(%rsp) vmovaps %ymm5, 0x480(%rsp) vmovaps %ymm2, 0x4a0(%rsp) vmovaps %ymm3, 0x4c0(%rsp) vmovaps %ymm0, 0x4e0(%rsp) vmovaps 0x3c0(%rsp), %ymm0 vmovaps %ymm0, 0x500(%rsp) vmovdqa 0x3a0(%rsp), %ymm0 vmovdqa %ymm0, 0x520(%rsp) leaq 0x540(%rsp), %rcx vpcmpeqd %ymm0, %ymm0, %ymm0 vmovdqa %ymm0, 0x20(%rcx) vmovdqa %ymm0, (%rcx) vbroadcastss (%rax), %ymm0 vmovaps %ymm0, 0x540(%rsp) vbroadcastss 0x4(%rax), %ymm0 vmovaps %ymm0, 0x560(%rsp) vmovss %xmm1, 0x100(%r11,%r9,4) vmovaps 0x380(%rsp), %ymm0 vmovaps %ymm0, 0x1e0(%rsp) leaq 0x1e0(%rsp), %rax movq %rax, 0x1b0(%rsp) movq 0x18(%r14), %rax movq %rax, 0x1b8(%rsp) movq 0x8(%rdi), %rax movq %rax, 0x1c0(%rsp) movq %r11, 0x1c8(%rsp) leaq 0x460(%rsp), %rax movq %rax, 0x1d0(%rsp) movl $0x8, 0x1d8(%rsp) movq 0x48(%r14), %rax testq %rax, %rax vmovaps %xmm15, 0x140(%rsp) vmovss %xmm14, 0x6c(%rsp) je 0x1cd7eaa leaq 0x1b0(%rsp), %rdi vzeroupper callq *%rax vmovss 0x6c(%rsp), %xmm14 vmovaps 0x70(%rsp), %xmm13 vmovaps 0xd0(%rsp), %xmm26 vmovaps 0x140(%rsp), %xmm15 vmovaps 0xf0(%rsp), %xmm29 vmovaps 0x100(%rsp), %xmm28 vmovaps 0x20(%rsp), %xmm11 vmovaps 0x30(%rsp), %xmm10 vmovaps 0x40(%rsp), %xmm9 vmovaps 0x50(%rsp), %xmm12 vmovaps 0x90(%rsp), %xmm16 movq 0xc0(%rsp), %r8 vxorps %xmm31, %xmm31, %xmm31 vmovss 0x21a096(%rip), %xmm25 # 0x1ef1ebc vbroadcastss 0x2148e4(%rip), %xmm24 # 0x1eec714 vmovss 0x219c12(%rip), %xmm23 # 0x1ef1a4c vmovss 0x2191bc(%rip), %xmm22 # 0x1ef1000 vmovss 0x2148c6(%rip), %xmm21 # 0x1eec714 vmovss 0x249088(%rip), %xmm20 # 0x1f20ee0 vbroadcastss 0x21918a(%rip), %ymm18 # 0x1ef0fec vbroadcastss 0x249058(%rip), %xmm19 # 0x1f20ec4 vbroadcastss 0x214d0a(%rip), %xmm17 # 0x1eecb80 vbroadcastss 0x249040(%rip), %xmm30 # 0x1f20ec0 vbroadcastss 0x249052(%rip), %ymm27 # 0x1f20edc movq 0x88(%rsp), %rdi movq 0xa8(%rsp), %r11 movq 0xb0(%rsp), %r9 movq 0xb8(%rsp), %r10 vmovdqa 0x1e0(%rsp), %ymm0 vptest %ymm0, %ymm0 je 0x1cd809e movq 0x10(%rdi), %rcx movq 0x10(%rcx), %rax testq %rax, %rax je 0x1cd7fd5 testb $0x2, (%rcx) jne 0x1cd7edf testb $0x40, 0x3e(%r14) je 0x1cd7fd5 leaq 0x1b0(%rsp), %rdi vzeroupper callq *%rax vmovss 0x6c(%rsp), %xmm14 vmovaps 0x70(%rsp), %xmm13 vmovaps 0xd0(%rsp), %xmm26 vmovaps 0x140(%rsp), %xmm15 vmovaps 0xf0(%rsp), %xmm29 vmovaps 0x100(%rsp), %xmm28 vmovaps 0x20(%rsp), %xmm11 vmovaps 0x30(%rsp), %xmm10 vmovaps 0x40(%rsp), %xmm9 vmovaps 0x50(%rsp), %xmm12 vmovaps 0x90(%rsp), %xmm16 movq 0xc0(%rsp), %r8 vxorps %xmm31, %xmm31, %xmm31 vmovss 0x219f6b(%rip), %xmm25 # 0x1ef1ebc vbroadcastss 0x2147b9(%rip), %xmm24 # 0x1eec714 vmovss 0x219ae7(%rip), %xmm23 # 0x1ef1a4c vmovss 0x219091(%rip), %xmm22 # 0x1ef1000 vmovss 0x21479b(%rip), %xmm21 # 0x1eec714 vmovss 0x248f5d(%rip), %xmm20 # 0x1f20ee0 vbroadcastss 0x21905f(%rip), %ymm18 # 0x1ef0fec vbroadcastss 0x248f2d(%rip), %xmm19 # 0x1f20ec4 vbroadcastss 0x214bdf(%rip), %xmm17 # 0x1eecb80 vbroadcastss 0x248f15(%rip), %xmm30 # 0x1f20ec0 vbroadcastss 0x248f27(%rip), %ymm27 # 0x1f20edc movq 0x88(%rsp), %rdi movq 0xa8(%rsp), %r11 movq 0xb0(%rsp), %r9 movq 0xb8(%rsp), %r10 vmovdqa 0x1e0(%rsp), %ymm0 vptestmd %ymm0, %ymm0, %k1 movq 0x1c8(%rsp), %rax vmovaps 0x100(%rax), %ymm1 vbroadcastss 0x214b86(%rip), %ymm1 {%k1} # 0x1eecb84 vmovaps %ymm1, 0x100(%rax) vptest %ymm0, %ymm0 setne %al jmp 0x1cd80a0 xorl %eax, %eax vmovaps 0x40(%rsp), %xmm9 vmovaps 0x30(%rsp), %xmm10 vmovaps 0x20(%rsp), %xmm11 movl %r12d, %r14d orb %al, %r14b movq 0x138(%rsp), %r12 jmp 0x1cd8068 vxorps %xmm31, %xmm31, %xmm31 vmovaps 0x90(%rsp), %xmm16 jmp 0x1cd804a xorl %r15d, %r15d vmovaps 0x50(%rsp), %xmm12 vmovaps 0x40(%rsp), %xmm9 vmovaps 0x30(%rsp), %xmm10 vmovaps 0x20(%rsp), %xmm11 vmovaps 0x70(%rsp), %xmm13 testb %r15b, %r15b jne 0x1cd7066 jmp 0x1cd80b3 movb $0x1, %r15b vmovaps 0x50(%rsp), %xmm12 vmovaps 0x40(%rsp), %xmm9 vmovaps 0x30(%rsp), %xmm10 vmovaps 0x20(%rsp), %xmm11 vmovaps %xmm26, %xmm15 vmovaps 0xd0(%rsp), %xmm26 jmp 0x1cd8062 xorl %eax, %eax testb %al, %al jne 0x1cd8027 vmovss %xmm14, 0x100(%r11,%r9,4) jmp 0x1cd8027 vinsertps $0x10, %xmm13, %xmm26, %xmm0 # xmm0 = xmm26[0],xmm13[0],xmm26[2,3] vmovaps 0x190(%rsp), %xmm7 vmovaps 0x180(%rsp), %xmm19 vmovaps 0x170(%rsp), %xmm25 vmovaps 0x420(%rsp), %ymm29 vmovaps 0x400(%rsp), %ymm28 jmp 0x1cd6b3f testb $0x1, %r14b jne 0x1cd8112 vmovaps 0x3e0(%rsp), %ymm0 vcmpleps 0x100(%r11,%r9,4){1to8}, %ymm0, %k0 kmovb %k0, %eax andl %eax, %r12d setne 0x1f(%rsp) jne 0x1cd63d9 movb 0x1f(%rsp), %al andb $0x1, %al leaq -0x28(%rbp), %rsp popq %rbx popq %r12 popq %r13 popq %r14 popq %r15 popq %rbp vzeroupper retq
/embree[P]embree/kernels/geometry/curveNi_intersector.h
bool embree::avx512::CurveNiIntersectorK<8, 16>::occluded_n<embree::avx512::OrientedCurve1IntersectorK<embree::CatmullRomCurveT, 16>, embree::avx512::Occluded1KEpilog1<16, true>>(embree::avx512::CurvePrecalculationsK<16>&, embree::RayK<16>&, unsigned long, embree::RayQueryContext*, embree::CurveNi<8> const&)
static __forceinline bool occluded_n(Precalculations& pre, RayK<K>& ray, const size_t k, RayQueryContext* context, const Primitive& prim) { vfloat<M> tNear; vbool<M> valid = intersect(ray,k,prim,tNear); const size_t N = prim.N; size_t mask = movemask(valid); while (mask) { const size_t i = bscf(mask); STAT3(shadow.trav_prims,1,1,1); const unsigned int geomID = prim.geomID(N); const unsigned int primID = prim.primID(N)[i]; const CurveGeometry* geom = context->scene->get<CurveGeometry>(geomID); unsigned int vertexID = geom->curve(primID); Vec3ff a0,a1,a2,a3; Vec3fa n0,n1,n2,n3; geom->gather(a0,a1,a2,a3,n0,n1,n2,n3,vertexID); size_t mask1 = mask; const size_t i1 = bscf(mask1); if (mask) { const unsigned int primID1 = prim.primID(N)[i1]; geom->prefetchL1_vertices(geom->curve(primID1)); if (mask1) { const size_t i2 = bsf(mask1); const unsigned int primID2 = prim.primID(N)[i2]; geom->prefetchL2_vertices(geom->curve(primID2)); } } if (Intersector().intersect(pre,ray,k,context,geom,primID,a0,a1,a2,a3,n0,n1,n2,n3,Epilog(ray,k,context,geomID,primID))) return true; mask &= movemask(tNear <= vfloat<M>(ray.tfar[k])); } return false; }
pushq %rbp movq %rsp, %rbp pushq %r15 pushq %r14 pushq %r13 pushq %r12 pushq %rbx andq $-0x40, %rsp subq $0x740, %rsp # imm = 0x740 movq %r8, %r10 movq %rdx, %r9 movq %rsi, %r11 movzbl 0x1(%r8), %eax leaq (%rax,%rax,4), %rdx leaq (%rdx,%rdx,4), %rsi vbroadcastss 0x12(%r8,%rsi), %xmm0 vmovss (%r11,%r9,4), %xmm1 vmovss 0x100(%r11,%r9,4), %xmm2 vinsertps $0x10, 0x40(%r11,%r9,4), %xmm1, %xmm1 # xmm1 = xmm1[0],mem[0],xmm1[2,3] vinsertps $0x20, 0x80(%r11,%r9,4), %xmm1, %xmm1 # xmm1 = xmm1[0,1],mem[0],xmm1[3] vinsertps $0x10, 0x140(%r11,%r9,4), %xmm2, %xmm2 # xmm2 = xmm2[0],mem[0],xmm2[2,3] movq %rcx, 0x78(%rsp) vinsertps $0x20, 0x180(%r11,%r9,4), %xmm2, %xmm2 # xmm2 = xmm2[0,1],mem[0],xmm2[3] vsubps 0x6(%r8,%rsi), %xmm1, %xmm1 vmulps %xmm1, %xmm0, %xmm3 vmulps %xmm2, %xmm0, %xmm0 vpmovsxbd 0x6(%r8,%rax,4), %ymm1 vcvtdq2ps %ymm1, %ymm5 vpmovsxbd 0x6(%r8,%rdx), %ymm1 vcvtdq2ps %ymm1, %ymm6 leaq (%rax,%rax,2), %rcx vpmovsxbd 0x6(%r8,%rcx,2), %ymm1 vcvtdq2ps %ymm1, %ymm2 leaq (%rax,%rdx,2), %rsi vpmovsxbd 0x6(%r8,%rsi), %ymm1 vcvtdq2ps %ymm1, %ymm7 leal (,%rcx,4), %esi vpmovsxbd 0x6(%r8,%rsi), %ymm1 vcvtdq2ps %ymm1, %ymm8 addq %rax, %rsi vpmovsxbd 0x6(%r8,%rsi), %ymm1 vcvtdq2ps %ymm1, %ymm9 leaq (%rax,%rax,8), %rsi leal (%rsi,%rsi), %r8d vpmovsxbd 0x6(%r10,%r8), %ymm1 addq %rax, %r8 vpmovsxbd 0x6(%r10,%r8), %ymm4 vcvtdq2ps %ymm1, %ymm10 vcvtdq2ps %ymm4, %ymm11 shll $0x2, %edx vpmovsxbd 0x6(%r10,%rdx), %ymm1 vcvtdq2ps %ymm1, %ymm12 vbroadcastss %xmm0, %ymm13 vbroadcastss 0x238339(%rip), %ymm15 # 0x1f12704 vpermps %ymm0, %ymm15, %ymm14 vbroadcastss 0x246b02(%rip), %ymm27 # 0x1f20edc vpermps %ymm0, %ymm27, %ymm0 vmulps %ymm2, %ymm0, %ymm4 vmulps %ymm0, %ymm9, %ymm1 vmulps %ymm0, %ymm12, %ymm0 vfmadd231ps %ymm6, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm6) + ymm4 vfmadd231ps %ymm8, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm8) + ymm1 vfmadd231ps %ymm14, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm14) + ymm0 vfmadd231ps %ymm5, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm5) + ymm4 vfmadd231ps %ymm7, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm7) + ymm1 vfmadd231ps %ymm13, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm13) + ymm0 vbroadcastss %xmm3, %ymm13 vpermps %ymm3, %ymm15, %ymm14 vpermps %ymm3, %ymm27, %ymm15 vmulps %ymm2, %ymm15, %ymm16 vmulps %ymm9, %ymm15, %ymm3 vmulps %ymm12, %ymm15, %ymm2 vfmadd231ps %ymm6, %ymm14, %ymm16 # ymm16 = (ymm14 * ymm6) + ymm16 vfmadd231ps %ymm8, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm8) + ymm3 vfmadd231ps %ymm11, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm11) + ymm2 vfmadd231ps %ymm5, %ymm13, %ymm16 # ymm16 = (ymm13 * ymm5) + ymm16 vfmadd231ps %ymm7, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm7) + ymm3 vfmadd231ps %ymm10, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm10) + ymm2 vbroadcastss 0x246a71(%rip), %ymm5 # 0x1f20ec4 vandps %ymm5, %ymm4, %ymm6 vbroadcastss 0x216b88(%rip), %ymm7 # 0x1ef0fe8 vcmpltps %ymm7, %ymm6, %k1 vmovaps %ymm7, %ymm4 {%k1} vandps %ymm5, %ymm1, %ymm6 vcmpltps %ymm7, %ymm6, %k1 vmovaps %ymm7, %ymm1 {%k1} vandps %ymm5, %ymm0, %ymm5 vcmpltps %ymm7, %ymm5, %k1 vmovaps %ymm7, %ymm0 {%k1} vrcp14ps %ymm4, %ymm5 vbroadcastss 0x212276(%rip), %ymm6 # 0x1eec714 vfnmadd213ps %ymm6, %ymm5, %ymm4 # ymm4 = -(ymm5 * ymm4) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm4 # ymm4 = (ymm4 * ymm5) + ymm5 vrcp14ps %ymm1, %ymm5 vfnmadd213ps %ymm6, %ymm5, %ymm1 # ymm1 = -(ymm5 * ymm1) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm1 # ymm1 = (ymm1 * ymm5) + ymm5 vrcp14ps %ymm0, %ymm5 vfnmadd213ps %ymm6, %ymm5, %ymm0 # ymm0 = -(ymm5 * ymm0) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm0 # ymm0 = (ymm0 * ymm5) + ymm5 leaq (,%rax,8), %r8 subq %rax, %r8 vpmovsxwd 0x6(%r10,%r8), %ymm5 vcvtdq2ps %ymm5, %ymm5 vsubps %ymm16, %ymm5, %ymm5 vpmovsxwd 0x6(%r10,%rsi), %ymm6 vmulps %ymm5, %ymm4, %ymm5 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm16, %ymm6, %ymm6 vmulps %ymm6, %ymm4, %ymm4 leaq (%rax,%rax), %rsi addq %rax, %rdx shlq $0x3, %rcx subq %rax, %rcx movl %eax, %r8d shll $0x4, %r8d vpmovsxwd 0x6(%r10,%r8), %ymm6 subq %rsi, %r8 vpmovsxwd 0x6(%r10,%r8), %ymm7 vcvtdq2ps %ymm7, %ymm7 vsubps %ymm3, %ymm7, %ymm7 vmulps %ymm7, %ymm1, %ymm7 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm3, %ymm6, %ymm3 vmulps %ymm3, %ymm1, %ymm1 vpmovsxwd 0x6(%r10,%rdx), %ymm3 vcvtdq2ps %ymm3, %ymm3 vsubps %ymm2, %ymm3, %ymm3 vmulps %ymm0, %ymm3, %ymm3 vpmovsxwd 0x6(%r10,%rcx), %ymm6 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm2, %ymm6, %ymm2 vmulps %ymm2, %ymm0, %ymm0 vpminsd %ymm4, %ymm5, %ymm2 vpminsd %ymm1, %ymm7, %ymm6 vmaxps %ymm6, %ymm2, %ymm2 vpminsd %ymm0, %ymm3, %ymm6 vmaxps 0xc0(%r11,%r9,4){1to8}, %ymm6, %ymm6 vmaxps %ymm6, %ymm2, %ymm2 vmulps 0x245986(%rip){1to8}, %ymm2, %ymm6 # 0x1f1ff10 vpmaxsd %ymm4, %ymm5, %ymm2 vpmaxsd %ymm1, %ymm7, %ymm1 vminps %ymm1, %ymm2, %ymm1 vpmaxsd %ymm0, %ymm3, %ymm0 vminps 0x200(%r11,%r9,4){1to8}, %ymm0, %ymm0 vminps %ymm0, %ymm1, %ymm0 vmulps 0x24595e(%rip){1to8}, %ymm0, %ymm0 # 0x1f1ff14 vpbroadcastd %eax, %ymm1 vpcmpgtd 0x28035a(%rip), %ymm1, %k0 # 0x1f5a920 vmovaps %ymm6, 0x380(%rsp) vcmpleps %ymm0, %ymm6, %k1 ktestb %k0, %k1 setne 0xf(%rsp) je 0x1cdc3a0 kandb %k0, %k1, %k0 kmovd %k0, %eax movzbl %al, %r12d leaq (%r9,%r9,2), %rax shlq $0x4, %rax leaq (%rdi,%rax), %r13 addq $0x40, %r13 movl $0x1, %eax shlxl %r9d, %eax, %eax kmovd %eax, %k0 vpmovm2d %k0, %zmm0 vmovdqa64 %zmm0, 0x400(%rsp) vbroadcastss 0x246899(%rip), %xmm31 # 0x1f20ec0 vbroadcastss 0x21254f(%rip), %xmm17 # 0x1eecb80 vbroadcastss 0x246889(%rip), %xmm19 # 0x1f20ec4 vxorps %xmm30, %xmm30, %xmm30 movq 0x78(%rsp), %rdi movq %r10, 0xa8(%rsp) movq %r9, 0xa0(%rsp) movq %r11, 0x98(%rsp) tzcntq %r12, %rax movl 0x2(%r10), %edx movl 0x6(%r10,%rax,4), %eax movq (%rdi), %rcx movq 0x1e8(%rcx), %rcx movq %rdx, 0xb0(%rsp) movq (%rcx,%rdx,8), %rdi movq 0x58(%rdi), %rcx movq 0x68(%rdi), %rdx movq %rdx, %rsi imulq %rax, %rsi movl (%rcx,%rsi), %r10d movq 0xa0(%rdi), %rsi movq %rsi, %r8 imulq %r10, %r8 leaq 0x1(%r10), %rbx leaq 0x2(%r10), %r11 leaq 0x3(%r10), %r9 movq 0xd8(%rdi), %r14 imulq %r14, %r10 movq 0xc8(%rdi), %r15 vmovups (%r15,%r10), %xmm5 movq %rsi, %r10 imulq %rbx, %r10 imulq %r14, %rbx vmovups (%r15,%rbx), %xmm6 movq %rsi, %rbx imulq %r11, %rbx imulq %r14, %r11 vmovups (%r15,%r11), %xmm7 imulq %r9, %r14 vmovups (%r15,%r14), %xmm8 movq %rsi, %r11 imulq %r9, %r11 movq 0x90(%rdi), %rdi vmovaps (%rdi,%r8), %xmm9 vmovaps (%rdi,%r10), %xmm10 movq 0xa8(%rsp), %r10 vmovaps (%rdi,%rbx), %xmm11 blsrq %r12, %r12 vmovaps (%rdi,%r11), %xmm4 movq %r12, %r8 subq $0x1, %r8 jb 0x1cda775 andq %r12, %r8 tzcntq %r12, %r9 movl 0x6(%r10,%r9,4), %r9d imulq %rdx, %r9 movl (%rcx,%r9), %r9d imulq %rsi, %r9 prefetcht0 (%rdi,%r9) prefetcht0 0x40(%rdi,%r9) testq %r8, %r8 je 0x1cda775 tzcntq %r8, %r8 movl 0x6(%r10,%r8,4), %r8d imulq %r8, %rdx movl (%rcx,%rdx), %ecx imulq %rcx, %rsi prefetcht1 (%rdi,%rsi) prefetcht1 0x40(%rdi,%rsi) movq 0xa0(%rsp), %r9 movq 0x98(%rsp), %r11 vmovss (%r11,%r9,4), %xmm0 vinsertps $0x1c, 0x40(%r11,%r9,4), %xmm0, %xmm0 # xmm0 = xmm0[0],mem[0],zero,zero vinsertps $0x28, 0x80(%r11,%r9,4), %xmm0, %xmm0 # xmm0 = xmm0[0,1],mem[0],zero vmulps %xmm31, %xmm4, %xmm3 vpxor %xmm1, %xmm1, %xmm1 vfmadd213ps %xmm3, %xmm11, %xmm1 # xmm1 = (xmm11 * xmm1) + xmm3 vaddps %xmm1, %xmm10, %xmm1 vfmadd231ps %xmm31, %xmm9, %xmm1 # xmm1 = (xmm9 * xmm31) + xmm1 vxorps %xmm15, %xmm15, %xmm15 vmulps %xmm4, %xmm15, %xmm2 vfmadd231ps %xmm17, %xmm11, %xmm2 # xmm2 = (xmm11 * xmm17) + xmm2 vfmadd231ps %xmm15, %xmm10, %xmm2 # xmm2 = (xmm10 * xmm15) + xmm2 vfnmadd231ps %xmm17, %xmm9, %xmm2 # xmm2 = -(xmm9 * xmm17) + xmm2 vmulps %xmm31, %xmm8, %xmm12 vxorps %xmm13, %xmm13, %xmm13 vfmadd213ps %xmm12, %xmm7, %xmm13 # xmm13 = (xmm7 * xmm13) + xmm12 vaddps %xmm6, %xmm13, %xmm13 vfmadd231ps %xmm31, %xmm5, %xmm13 # xmm13 = (xmm5 * xmm31) + xmm13 vmulps %xmm15, %xmm8, %xmm14 vfmadd231ps %xmm17, %xmm7, %xmm14 # xmm14 = (xmm7 * xmm17) + xmm14 vfmadd231ps %xmm15, %xmm6, %xmm14 # xmm14 = (xmm6 * xmm15) + xmm14 vfnmadd231ps %xmm17, %xmm5, %xmm14 # xmm14 = -(xmm5 * xmm17) + xmm14 vaddps %xmm3, %xmm11, %xmm3 vfmadd231ps %xmm15, %xmm10, %xmm3 # xmm3 = (xmm10 * xmm15) + xmm3 vfmadd231ps %xmm31, %xmm9, %xmm3 # xmm3 = (xmm9 * xmm31) + xmm3 vmulps %xmm17, %xmm4, %xmm4 vfmadd231ps %xmm11, %xmm15, %xmm4 # xmm4 = (xmm15 * xmm11) + xmm4 vfnmadd231ps %xmm10, %xmm17, %xmm4 # xmm4 = -(xmm17 * xmm10) + xmm4 vfmadd231ps %xmm9, %xmm15, %xmm4 # xmm4 = (xmm15 * xmm9) + xmm4 vaddps %xmm7, %xmm12, %xmm9 vfmadd231ps %xmm15, %xmm6, %xmm9 # xmm9 = (xmm6 * xmm15) + xmm9 vfmadd231ps %xmm31, %xmm5, %xmm9 # xmm9 = (xmm5 * xmm31) + xmm9 vmulps %xmm17, %xmm8, %xmm8 vfmadd231ps %xmm7, %xmm15, %xmm8 # xmm8 = (xmm15 * xmm7) + xmm8 vfnmadd231ps %xmm6, %xmm17, %xmm8 # xmm8 = -(xmm17 * xmm6) + xmm8 vfmadd231ps %xmm5, %xmm15, %xmm8 # xmm8 = (xmm15 * xmm5) + xmm8 vshufps $0xc9, %xmm2, %xmm2, %xmm5 # xmm5 = xmm2[1,2,0,3] vshufps $0xc9, %xmm13, %xmm13, %xmm6 # xmm6 = xmm13[1,2,0,3] vmulps %xmm6, %xmm2, %xmm6 vfmsub231ps %xmm13, %xmm5, %xmm6 # xmm6 = (xmm5 * xmm13) - xmm6 vshufps $0xc9, %xmm6, %xmm6, %xmm7 # xmm7 = xmm6[1,2,0,3] vshufps $0xc9, %xmm14, %xmm14, %xmm6 # xmm6 = xmm14[1,2,0,3] vmulps %xmm6, %xmm2, %xmm6 vfmsub231ps %xmm14, %xmm5, %xmm6 # xmm6 = (xmm5 * xmm14) - xmm6 vshufps $0xc9, %xmm6, %xmm6, %xmm10 # xmm10 = xmm6[1,2,0,3] vshufps $0xc9, %xmm4, %xmm4, %xmm6 # xmm6 = xmm4[1,2,0,3] vshufps $0xc9, %xmm9, %xmm9, %xmm5 # xmm5 = xmm9[1,2,0,3] vmulps %xmm5, %xmm4, %xmm5 vfmsub231ps %xmm9, %xmm6, %xmm5 # xmm5 = (xmm6 * xmm9) - xmm5 vshufps $0xc9, %xmm5, %xmm5, %xmm5 # xmm5 = xmm5[1,2,0,3] vshufps $0xc9, %xmm8, %xmm8, %xmm9 # xmm9 = xmm8[1,2,0,3] vmulps %xmm4, %xmm9, %xmm9 vfmsub231ps %xmm8, %xmm6, %xmm9 # xmm9 = (xmm6 * xmm8) - xmm9 vshufps $0xc9, %xmm9, %xmm9, %xmm6 # xmm6 = xmm9[1,2,0,3] vdpps $0x7f, %xmm7, %xmm7, %xmm8 vmovss %xmm8, %xmm15, %xmm9 # xmm9 = xmm8[0],xmm15[1,2,3] vrsqrt14ss %xmm9, %xmm15, %xmm11 vmovss 0x211e57(%rip), %xmm16 # 0x1eec718 vmulss %xmm16, %xmm11, %xmm12 vmovss 0x211e4b(%rip), %xmm17 # 0x1eec71c vmulss %xmm17, %xmm8, %xmm13 vmulss %xmm11, %xmm13, %xmm13 vmulss %xmm11, %xmm11, %xmm11 vmulss %xmm11, %xmm13, %xmm11 vaddss %xmm11, %xmm12, %xmm11 vbroadcastss %xmm11, %xmm11 vmulps %xmm7, %xmm11, %xmm12 vdpps $0x7f, %xmm10, %xmm7, %xmm13 vbroadcastss %xmm8, %xmm14 vmulps %xmm14, %xmm10, %xmm10 vbroadcastss %xmm13, %xmm13 vmulps %xmm7, %xmm13, %xmm7 vsubps %xmm7, %xmm10, %xmm7 vrcp14ss %xmm9, %xmm15, %xmm9 vmovss 0x2166d7(%rip), %xmm18 # 0x1ef0ff8 vfnmadd213ss %xmm18, %xmm9, %xmm8 # xmm8 = -(xmm9 * xmm8) + xmm18 vmulss %xmm8, %xmm9, %xmm8 vdpps $0x7f, %xmm5, %xmm5, %xmm9 vbroadcastss %xmm8, %xmm8 vmulps %xmm7, %xmm8, %xmm7 vmulps %xmm7, %xmm11, %xmm7 vmovss %xmm9, %xmm15, %xmm8 # xmm8 = xmm9[0],xmm15[1,2,3] vrsqrt14ss %xmm8, %xmm15, %xmm10 vmulss %xmm16, %xmm10, %xmm11 vmulss %xmm17, %xmm9, %xmm13 vmulss %xmm10, %xmm13, %xmm13 vmulss %xmm10, %xmm10, %xmm10 vmulss %xmm10, %xmm13, %xmm10 vaddss %xmm10, %xmm11, %xmm10 vbroadcastss %xmm10, %xmm10 vmulps %xmm5, %xmm10, %xmm11 vdpps $0x7f, %xmm6, %xmm5, %xmm13 vbroadcastss %xmm9, %xmm14 vmulps %xmm6, %xmm14, %xmm6 vbroadcastss %xmm13, %xmm13 vmulps %xmm5, %xmm13, %xmm5 vsubps %xmm5, %xmm6, %xmm5 vrcp14ss %xmm8, %xmm15, %xmm6 vfnmadd213ss %xmm18, %xmm6, %xmm9 # xmm9 = -(xmm6 * xmm9) + xmm18 vmulss %xmm6, %xmm9, %xmm6 vbroadcastss %xmm6, %xmm6 vmulps %xmm6, %xmm5, %xmm5 vmulps %xmm5, %xmm10, %xmm5 vshufps $0xff, %xmm1, %xmm1, %xmm6 # xmm6 = xmm1[3,3,3,3] vmulps %xmm6, %xmm12, %xmm8 vsubps %xmm8, %xmm1, %xmm13 vshufps $0xff, %xmm2, %xmm2, %xmm9 # xmm9 = xmm2[3,3,3,3] vmulps %xmm12, %xmm9, %xmm9 vmulps %xmm7, %xmm6, %xmm6 vaddps %xmm6, %xmm9, %xmm6 vsubps %xmm6, %xmm2, %xmm7 vaddps %xmm1, %xmm8, %xmm14 vaddps %xmm6, %xmm2, %xmm1 vshufps $0xff, %xmm3, %xmm3, %xmm2 # xmm2 = xmm3[3,3,3,3] vmulps %xmm2, %xmm11, %xmm6 vsubps %xmm6, %xmm3, %xmm15 vshufps $0xff, %xmm4, %xmm4, %xmm8 # xmm8 = xmm4[3,3,3,3] vmulps %xmm11, %xmm8, %xmm8 vmulps %xmm5, %xmm2, %xmm2 vaddps %xmm2, %xmm8, %xmm2 vsubps %xmm2, %xmm4, %xmm5 vaddps %xmm6, %xmm3, %xmm16 vaddps %xmm2, %xmm4, %xmm2 vbroadcastss 0x2174ae(%rip), %xmm4 # 0x1ef1ebc vmulps %xmm4, %xmm7, %xmm3 vaddps %xmm3, %xmm13, %xmm17 vmulps %xmm4, %xmm5, %xmm3 vsubps %xmm3, %xmm15, %xmm18 vmulps %xmm4, %xmm1, %xmm1 vaddps %xmm1, %xmm14, %xmm20 vmulps %xmm4, %xmm2, %xmm1 vsubps %xmm1, %xmm16, %xmm21 vsubps %xmm0, %xmm13, %xmm1 vbroadcastss %xmm1, %xmm2 vshufps $0x55, %xmm1, %xmm1, %xmm3 # xmm3 = xmm1[1,1,1,1] vmovaps %xmm1, 0x300(%rsp) vshufps $0xaa, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,2,2,2] vmovaps (%r13), %xmm4 vmovaps 0x10(%r13), %xmm5 vmovaps 0x20(%r13), %xmm6 vmulps %xmm1, %xmm6, %xmm1 vfmadd231ps %xmm3, %xmm5, %xmm1 # xmm1 = (xmm5 * xmm3) + xmm1 vfmadd231ps %xmm2, %xmm4, %xmm1 # xmm1 = (xmm4 * xmm2) + xmm1 vsubps %xmm0, %xmm17, %xmm2 vbroadcastss %xmm2, %xmm3 vshufps $0x55, %xmm2, %xmm2, %xmm7 # xmm7 = xmm2[1,1,1,1] vmovaps %xmm2, 0x2f0(%rsp) vshufps $0xaa, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[2,2,2,2] vmulps %xmm2, %xmm6, %xmm2 vfmadd231ps %xmm7, %xmm5, %xmm2 # xmm2 = (xmm5 * xmm7) + xmm2 vfmadd231ps %xmm3, %xmm4, %xmm2 # xmm2 = (xmm4 * xmm3) + xmm2 vsubps %xmm0, %xmm18, %xmm3 vbroadcastss %xmm3, %xmm7 vshufps $0x55, %xmm3, %xmm3, %xmm8 # xmm8 = xmm3[1,1,1,1] vmovaps %xmm3, 0x2e0(%rsp) vshufps $0xaa, %xmm3, %xmm3, %xmm3 # xmm3 = xmm3[2,2,2,2] vmulps %xmm3, %xmm6, %xmm3 vfmadd231ps %xmm8, %xmm5, %xmm3 # xmm3 = (xmm5 * xmm8) + xmm3 vfmadd231ps %xmm7, %xmm4, %xmm3 # xmm3 = (xmm4 * xmm7) + xmm3 vsubps %xmm0, %xmm15, %xmm9 vbroadcastss %xmm9, %xmm7 vshufps $0x55, %xmm9, %xmm9, %xmm8 # xmm8 = xmm9[1,1,1,1] vmovaps %xmm9, 0x2d0(%rsp) vshufps $0xaa, %xmm9, %xmm9, %xmm9 # xmm9 = xmm9[2,2,2,2] vmulps %xmm6, %xmm9, %xmm9 vfmadd231ps %xmm8, %xmm5, %xmm9 # xmm9 = (xmm5 * xmm8) + xmm9 vfmadd231ps %xmm7, %xmm4, %xmm9 # xmm9 = (xmm4 * xmm7) + xmm9 vsubps %xmm0, %xmm14, %xmm10 vbroadcastss %xmm10, %xmm7 vshufps $0x55, %xmm10, %xmm10, %xmm8 # xmm8 = xmm10[1,1,1,1] vmovaps %xmm10, 0x2c0(%rsp) vshufps $0xaa, %xmm10, %xmm10, %xmm10 # xmm10 = xmm10[2,2,2,2] vmulps %xmm6, %xmm10, %xmm10 vfmadd231ps %xmm8, %xmm5, %xmm10 # xmm10 = (xmm5 * xmm8) + xmm10 vfmadd231ps %xmm7, %xmm4, %xmm10 # xmm10 = (xmm4 * xmm7) + xmm10 vsubps %xmm0, %xmm20, %xmm11 vbroadcastss %xmm11, %xmm7 vshufps $0x55, %xmm11, %xmm11, %xmm8 # xmm8 = xmm11[1,1,1,1] vmovaps %xmm11, 0x2b0(%rsp) vshufps $0xaa, %xmm11, %xmm11, %xmm11 # xmm11 = xmm11[2,2,2,2] vmulps %xmm6, %xmm11, %xmm11 vfmadd231ps %xmm8, %xmm5, %xmm11 # xmm11 = (xmm5 * xmm8) + xmm11 vfmadd231ps %xmm7, %xmm4, %xmm11 # xmm11 = (xmm4 * xmm7) + xmm11 vsubps %xmm0, %xmm21, %xmm12 vbroadcastss %xmm12, %xmm7 vshufps $0x55, %xmm12, %xmm12, %xmm8 # xmm8 = xmm12[1,1,1,1] vmovaps %xmm12, 0x2a0(%rsp) vshufps $0xaa, %xmm12, %xmm12, %xmm12 # xmm12 = xmm12[2,2,2,2] vmulps %xmm6, %xmm12, %xmm12 vfmadd231ps %xmm8, %xmm5, %xmm12 # xmm12 = (xmm5 * xmm8) + xmm12 vfmadd231ps %xmm7, %xmm4, %xmm12 # xmm12 = (xmm4 * xmm7) + xmm12 vsubps %xmm0, %xmm16, %xmm8 vbroadcastss %xmm8, %xmm0 vshufps $0x55, %xmm8, %xmm8, %xmm7 # xmm7 = xmm8[1,1,1,1] vmovaps %xmm8, 0x290(%rsp) vshufps $0xaa, %xmm8, %xmm8, %xmm8 # xmm8 = xmm8[2,2,2,2] vmulps %xmm6, %xmm8, %xmm6 vfmadd231ps %xmm7, %xmm5, %xmm6 # xmm6 = (xmm5 * xmm7) + xmm6 vfmadd231ps %xmm0, %xmm4, %xmm6 # xmm6 = (xmm4 * xmm0) + xmm6 vmovlhps %xmm10, %xmm1, %xmm8 # xmm8 = xmm1[0],xmm10[0] vmovlhps %xmm11, %xmm2, %xmm22 # xmm22 = xmm2[0],xmm11[0] vmovlhps %xmm12, %xmm3, %xmm23 # xmm23 = xmm3[0],xmm12[0] vmovlhps %xmm6, %xmm9, %xmm24 # xmm24 = xmm9[0],xmm6[0] vminps %xmm22, %xmm8, %xmm0 vmaxps %xmm22, %xmm8, %xmm4 vminps %xmm24, %xmm23, %xmm5 vminps %xmm5, %xmm0, %xmm0 vmaxps %xmm24, %xmm23, %xmm5 vmaxps %xmm5, %xmm4, %xmm4 vshufpd $0x3, %xmm0, %xmm0, %xmm5 # xmm5 = xmm0[1,1] vshufpd $0x3, %xmm4, %xmm4, %xmm7 # xmm7 = xmm4[1,1] vminps %xmm5, %xmm0, %xmm0 vmaxps %xmm7, %xmm4, %xmm4 vandps %xmm19, %xmm0, %xmm0 vandps %xmm19, %xmm4, %xmm4 vmaxps %xmm4, %xmm0, %xmm0 vmovshdup %xmm0, %xmm4 # xmm4 = xmm0[1,1,3,3] vmaxss %xmm0, %xmm4, %xmm0 vmulss 0x2172a3(%rip), %xmm0, %xmm0 # 0x1ef1eb8 vmovddup %xmm1, %xmm7 # xmm7 = xmm1[0,0] vmovddup %xmm2, %xmm19 # xmm19 = xmm2[0,0] vmovddup %xmm3, %xmm25 # xmm25 = xmm3[0,0] vmovddup %xmm9, %xmm1 # xmm1 = xmm9[0,0] vmovddup %xmm10, %xmm2 # xmm2 = xmm10[0,0] vmovddup %xmm11, %xmm9 # xmm9 = xmm11[0,0] vmovddup %xmm12, %xmm10 # xmm10 = xmm12[0,0] vmovddup %xmm6, %xmm11 # xmm11 = xmm6[0,0] vmovaps %xmm0, 0x140(%rsp) vbroadcastss %xmm0, %ymm29 vxorps %xmm31, %xmm29, %xmm0 vbroadcastss %xmm0, %ymm28 vpbroadcastd %eax, %zmm0 vmovdqa64 %zmm0, 0x480(%rsp) xorl %r14d, %r14d xorl %ebx, %ebx vmovss 0xc0(%r11,%r9,4), %xmm0 vmovss %xmm0, 0xbc(%rsp) vmovaps %xmm8, 0xd0(%rsp) vsubps %xmm8, %xmm22, %xmm0 vmovaps %xmm0, 0xf0(%rsp) vmovaps %xmm22, 0x110(%rsp) vsubps %xmm22, %xmm23, %xmm0 vmovaps %xmm0, 0xe0(%rsp) vmovaps %xmm23, 0x100(%rsp) vmovaps %xmm24, 0x150(%rsp) vsubps %xmm23, %xmm24, %xmm0 vmovaps %xmm0, 0x310(%rsp) vmovaps %xmm13, 0x280(%rsp) vmovaps %xmm14, 0x270(%rsp) vsubps %xmm13, %xmm14, %xmm0 vmovaps %xmm0, 0x200(%rsp) vmovaps %xmm2, %xmm12 vmovaps %xmm17, 0x240(%rsp) vmovaps %xmm20, 0x220(%rsp) vsubps %xmm17, %xmm20, %xmm0 vmovaps %xmm0, 0x1f0(%rsp) vmovaps %xmm18, 0x230(%rsp) vmovaps %xmm21, 0x210(%rsp) vsubps %xmm18, %xmm21, %xmm0 vmovaps %xmm0, 0x1e0(%rsp) vmovaps %xmm15, 0x260(%rsp) vmovaps %xmm16, 0x250(%rsp) vsubps %xmm15, %xmm16, %xmm0 vmovaps %xmm0, 0x1d0(%rsp) vmovaps %xmm1, %xmm16 movq 0xb0(%rsp), %r8 vpbroadcastd %r8d, %zmm0 vmovdqa64 %zmm0, 0x440(%rsp) vmovsd 0x21197e(%rip), %xmm0 # 0x1eec6f0 vmovaps %xmm0, %xmm15 movq 0x78(%rsp), %rdi vmovaps %xmm7, 0x180(%rsp) vmovaps %xmm19, 0x170(%rsp) vmovaps %xmm25, 0x160(%rsp) vmovaps %xmm1, 0x80(%rsp) vmovaps %xmm2, 0x40(%rsp) vmovaps %xmm9, 0x30(%rsp) vmovaps %xmm10, 0x20(%rsp) vmovaps %xmm11, 0x10(%rsp) vmovaps %ymm29, 0x3c0(%rsp) vmovaps %ymm28, 0x3a0(%rsp) vmovaps %xmm15, %xmm26 vshufps $0x50, %xmm15, %xmm15, %xmm1 # xmm1 = xmm15[0,0,1,1] vbroadcastss 0x21193a(%rip), %ymm13 # 0x1eec714 vsubps %xmm1, %xmm13, %xmm2 vmulps %xmm1, %xmm12, %xmm3 vmulps %xmm1, %xmm9, %xmm4 vmulps %xmm1, %xmm10, %xmm5 vmulps %xmm1, %xmm11, %xmm1 vfmadd231ps %xmm7, %xmm2, %xmm3 # xmm3 = (xmm2 * xmm7) + xmm3 vfmadd231ps %xmm19, %xmm2, %xmm4 # xmm4 = (xmm2 * xmm19) + xmm4 vfmadd231ps %xmm25, %xmm2, %xmm5 # xmm5 = (xmm2 * xmm25) + xmm5 vfmadd231ps %xmm2, %xmm16, %xmm1 # xmm1 = (xmm16 * xmm2) + xmm1 vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3] vsubss %xmm0, %xmm2, %xmm6 vmulss 0x2460bb(%rip), %xmm6, %xmm6 # 0x1f20ed0 vbroadcastss %xmm0, %ymm7 vbroadcastsd %xmm2, %ymm2 vsubps %ymm7, %ymm2, %ymm10 vbroadcastss %xmm3, %ymm2 vbroadcastss 0x2378d3(%rip), %ymm9 # 0x1f12704 vpermps %ymm3, %ymm9, %ymm8 vbroadcastss %xmm4, %ymm20 vpermps %ymm4, %ymm9, %ymm21 vbroadcastss %xmm5, %ymm22 vpermps %ymm5, %ymm9, %ymm23 vbroadcastss %xmm1, %ymm24 vpermps %ymm1, %ymm9, %ymm25 vbroadcastss %xmm6, %ymm9 vpermps %ymm3, %ymm27, %ymm19 vbroadcastss 0x24606a(%rip), %ymm6 # 0x1f20ed8 vpermps %ymm3, %ymm6, %ymm18 vpermps %ymm4, %ymm27, %ymm15 vpermps %ymm4, %ymm6, %ymm14 vpermps %ymm5, %ymm27, %ymm12 vpermps %ymm5, %ymm6, %ymm11 vpermps %ymm1, %ymm27, %ymm16 vpermps %ymm1, %ymm6, %ymm17 vfmadd132ps 0x246081(%rip), %ymm7, %ymm10 # ymm10 = (ymm10 * mem) + ymm7 vsubps %ymm10, %ymm13, %ymm13 vmulps %ymm10, %ymm20, %ymm1 vmulps %ymm10, %ymm21, %ymm3 vfmadd231ps %ymm2, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm2) + ymm1 vfmadd231ps %ymm8, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm8) + ymm3 vmulps %ymm10, %ymm22, %ymm2 vmulps %ymm10, %ymm23, %ymm4 vfmadd231ps %ymm20, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm20) + ymm2 vfmadd231ps %ymm21, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm21) + ymm4 vmulps %ymm10, %ymm24, %ymm5 vmulps %ymm10, %ymm25, %ymm6 vfmadd231ps %ymm22, %ymm13, %ymm5 # ymm5 = (ymm13 * ymm22) + ymm5 vfmadd231ps %ymm23, %ymm13, %ymm6 # ymm6 = (ymm13 * ymm23) + ymm6 vmulps %ymm2, %ymm10, %ymm7 vmulps %ymm4, %ymm10, %ymm8 vfmadd231ps %ymm1, %ymm13, %ymm7 # ymm7 = (ymm13 * ymm1) + ymm7 vfmadd231ps %ymm3, %ymm13, %ymm8 # ymm8 = (ymm13 * ymm3) + ymm8 vmulps %ymm5, %ymm10, %ymm1 vmulps %ymm6, %ymm10, %ymm5 vfmadd231ps %ymm2, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm2) + ymm1 vfmadd231ps %ymm4, %ymm13, %ymm5 # ymm5 = (ymm13 * ymm4) + ymm5 vmulps %ymm1, %ymm10, %ymm3 vmulps %ymm5, %ymm10, %ymm4 vfmadd231ps %ymm7, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm7) + ymm3 vfmadd231ps %ymm8, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm8) + ymm4 vsubps %ymm7, %ymm1, %ymm1 vsubps %ymm8, %ymm5, %ymm2 vbroadcastss 0x2160b9(%rip), %ymm22 # 0x1ef0fec vmulps %ymm22, %ymm1, %ymm1 vmulps %ymm22, %ymm2, %ymm2 vmulps %ymm1, %ymm9, %ymm8 vmulps %ymm2, %ymm9, %ymm20 vmovaps %ymm3, %ymm5 vmovaps 0x284dc9(%rip), %ymm23 # 0x1f5fd20 vxorps %xmm24, %xmm24, %xmm24 vpermt2ps %ymm24, %ymm23, %ymm5 vmovaps %ymm4, %ymm6 vpermt2ps %ymm24, %ymm23, %ymm6 vaddps %ymm3, %ymm8, %ymm1 vpermt2ps %ymm24, %ymm23, %ymm8 vaddps %ymm20, %ymm4, %ymm7 vpermt2ps %ymm24, %ymm23, %ymm20 vsubps %ymm8, %ymm5, %ymm2 vsubps %ymm20, %ymm6, %ymm8 vmulps %ymm10, %ymm15, %ymm20 vmulps %ymm10, %ymm14, %ymm21 vfmadd231ps %ymm19, %ymm13, %ymm20 # ymm20 = (ymm13 * ymm19) + ymm20 vfmadd231ps %ymm18, %ymm13, %ymm21 # ymm21 = (ymm13 * ymm18) + ymm21 vmulps %ymm10, %ymm12, %ymm18 vmulps %ymm10, %ymm11, %ymm19 vfmadd231ps %ymm15, %ymm13, %ymm18 # ymm18 = (ymm13 * ymm15) + ymm18 vfmadd231ps %ymm14, %ymm13, %ymm19 # ymm19 = (ymm13 * ymm14) + ymm19 vmulps %ymm10, %ymm16, %ymm14 vmulps %ymm10, %ymm17, %ymm15 vfmadd231ps %ymm12, %ymm13, %ymm14 # ymm14 = (ymm13 * ymm12) + ymm14 vfmadd231ps %ymm11, %ymm13, %ymm15 # ymm15 = (ymm13 * ymm11) + ymm15 vmulps %ymm18, %ymm10, %ymm16 vmulps %ymm19, %ymm10, %ymm17 vfmadd231ps %ymm20, %ymm13, %ymm16 # ymm16 = (ymm13 * ymm20) + ymm16 vfmadd231ps %ymm21, %ymm13, %ymm17 # ymm17 = (ymm13 * ymm21) + ymm17 vmulps %ymm14, %ymm10, %ymm14 vmulps %ymm15, %ymm10, %ymm15 vfmadd231ps %ymm18, %ymm13, %ymm14 # ymm14 = (ymm13 * ymm18) + ymm14 vfmadd231ps %ymm19, %ymm13, %ymm15 # ymm15 = (ymm13 * ymm19) + ymm15 vmulps %ymm14, %ymm10, %ymm11 vmulps %ymm15, %ymm10, %ymm12 vfmadd231ps %ymm16, %ymm13, %ymm11 # ymm11 = (ymm13 * ymm16) + ymm11 vfmadd231ps %ymm13, %ymm17, %ymm12 # ymm12 = (ymm17 * ymm13) + ymm12 vsubps %ymm16, %ymm14, %ymm10 vsubps %ymm17, %ymm15, %ymm13 vmulps %ymm22, %ymm10, %ymm10 vmulps %ymm22, %ymm13, %ymm13 vmulps %ymm10, %ymm9, %ymm10 vmulps %ymm13, %ymm9, %ymm16 vmovaps %ymm11, %ymm13 vpermt2ps %ymm24, %ymm23, %ymm13 vmovaps %ymm12, %ymm14 vpermt2ps %ymm24, %ymm23, %ymm14 vaddps %ymm10, %ymm11, %ymm9 vpermt2ps %ymm24, %ymm23, %ymm10 vaddps %ymm16, %ymm12, %ymm15 vpermt2ps %ymm24, %ymm23, %ymm16 vsubps %ymm10, %ymm13, %ymm10 vsubps %ymm16, %ymm14, %ymm16 vsubps %ymm3, %ymm11, %ymm17 vsubps %ymm4, %ymm12, %ymm18 vsubps %ymm5, %ymm13, %ymm19 vaddps %ymm19, %ymm17, %ymm17 vsubps %ymm6, %ymm14, %ymm19 vaddps %ymm19, %ymm18, %ymm18 vmulps %ymm17, %ymm4, %ymm19 vfnmadd231ps %ymm18, %ymm3, %ymm19 # ymm19 = -(ymm3 * ymm18) + ymm19 vmulps %ymm17, %ymm7, %ymm20 vfnmadd231ps %ymm18, %ymm1, %ymm20 # ymm20 = -(ymm1 * ymm18) + ymm20 vmulps %ymm17, %ymm8, %ymm21 vfnmadd231ps %ymm18, %ymm2, %ymm21 # ymm21 = -(ymm2 * ymm18) + ymm21 vmulps %ymm17, %ymm6, %ymm22 vfnmadd231ps %ymm18, %ymm5, %ymm22 # ymm22 = -(ymm5 * ymm18) + ymm22 vmulps %ymm17, %ymm12, %ymm23 vfnmadd231ps %ymm18, %ymm11, %ymm23 # ymm23 = -(ymm11 * ymm18) + ymm23 vmulps %ymm17, %ymm15, %ymm24 vfnmadd231ps %ymm18, %ymm9, %ymm24 # ymm24 = -(ymm9 * ymm18) + ymm24 vmulps %ymm17, %ymm16, %ymm25 vfnmadd231ps %ymm18, %ymm10, %ymm25 # ymm25 = -(ymm10 * ymm18) + ymm25 vmulps %ymm17, %ymm14, %ymm17 vfnmadd231ps %ymm18, %ymm13, %ymm17 # ymm17 = -(ymm13 * ymm18) + ymm17 vminps %ymm20, %ymm19, %ymm18 vmaxps %ymm20, %ymm19, %ymm19 vminps %ymm22, %ymm21, %ymm20 vminps %ymm20, %ymm18, %ymm18 vmaxps %ymm22, %ymm21, %ymm20 vmaxps %ymm20, %ymm19, %ymm19 vminps %ymm24, %ymm23, %ymm20 vmaxps %ymm24, %ymm23, %ymm21 vminps %ymm17, %ymm25, %ymm22 vminps %ymm22, %ymm20, %ymm20 vminps %ymm20, %ymm18, %ymm18 vmaxps %ymm17, %ymm25, %ymm17 vmaxps %ymm17, %ymm21, %ymm17 vmaxps %ymm17, %ymm19, %ymm17 vcmpleps %ymm29, %ymm18, %k1 vcmpnltps %ymm28, %ymm17, %k0 {%k1} kmovd %k0, %eax movl $0x0, %ecx andb $0x7f, %al je 0x1cdb23f vsubps %ymm3, %ymm5, %ymm17 vsubps %ymm4, %ymm6, %ymm18 vsubps %ymm11, %ymm13, %ymm19 vaddps %ymm19, %ymm17, %ymm17 vsubps %ymm12, %ymm14, %ymm19 vaddps %ymm19, %ymm18, %ymm18 vmulps %ymm17, %ymm4, %ymm4 vfnmadd231ps %ymm3, %ymm18, %ymm4 # ymm4 = -(ymm18 * ymm3) + ymm4 vmulps %ymm17, %ymm7, %ymm3 vfnmadd213ps %ymm3, %ymm18, %ymm1 # ymm1 = -(ymm18 * ymm1) + ymm3 vmulps %ymm17, %ymm8, %ymm3 vfnmadd213ps %ymm3, %ymm18, %ymm2 # ymm2 = -(ymm18 * ymm2) + ymm3 vmulps %ymm17, %ymm6, %ymm3 vfnmadd231ps %ymm5, %ymm18, %ymm3 # ymm3 = -(ymm18 * ymm5) + ymm3 vmulps %ymm17, %ymm12, %ymm5 vfnmadd231ps %ymm11, %ymm18, %ymm5 # ymm5 = -(ymm18 * ymm11) + ymm5 vmulps %ymm17, %ymm15, %ymm6 vfnmadd213ps %ymm6, %ymm18, %ymm9 # ymm9 = -(ymm18 * ymm9) + ymm6 vmulps %ymm17, %ymm16, %ymm6 vfnmadd213ps %ymm6, %ymm18, %ymm10 # ymm10 = -(ymm18 * ymm10) + ymm6 vmulps %ymm17, %ymm14, %ymm6 vfnmadd231ps %ymm18, %ymm13, %ymm6 # ymm6 = -(ymm13 * ymm18) + ymm6 vminps %ymm1, %ymm4, %ymm7 vmaxps %ymm1, %ymm4, %ymm1 vminps %ymm3, %ymm2, %ymm4 vminps %ymm4, %ymm7, %ymm4 vmaxps %ymm3, %ymm2, %ymm2 vmaxps %ymm2, %ymm1, %ymm1 vminps %ymm9, %ymm5, %ymm2 vmaxps %ymm9, %ymm5, %ymm3 vminps %ymm6, %ymm10, %ymm5 vminps %ymm5, %ymm2, %ymm2 vminps %ymm2, %ymm4, %ymm2 vmaxps %ymm6, %ymm10, %ymm4 vmaxps %ymm4, %ymm3, %ymm3 vmaxps %ymm3, %ymm1, %ymm1 vcmpnltps %ymm28, %ymm1, %k1 vcmpleps %ymm29, %ymm2, %k0 {%k1} kmovd %k0, %ecx andb %cl, %al movzbl %al, %ecx testl %ecx, %ecx je 0x1cdb25f movl %ebx, %eax movl %ecx, 0x190(%rsp,%rax,4) vmovlps %xmm0, 0x320(%rsp,%rax,8) vmovlps %xmm26, 0x3e0(%rsp,%rax,8) incl %ebx vbroadcastss 0x211917(%rip), %xmm17 # 0x1eecb80 vbroadcastss 0x245c51(%rip), %xmm19 # 0x1f20ec4 vbroadcastss 0x215d6f(%rip), %ymm18 # 0x1ef0fec vmovss 0x245c59(%rip), %xmm20 # 0x1f20ee0 vmovss 0x211483(%rip), %xmm21 # 0x1eec714 vmovss 0x215d65(%rip), %xmm22 # 0x1ef1000 vmovss 0x2167a7(%rip), %xmm23 # 0x1ef1a4c vbroadcastss 0x211465(%rip), %xmm24 # 0x1eec714 vmovss 0x216c03(%rip), %xmm25 # 0x1ef1ebc vmovaps 0x80(%rsp), %xmm16 vmovaps 0x40(%rsp), %xmm12 vmovaps 0x30(%rsp), %xmm9 vmovaps 0x20(%rsp), %xmm10 vmovaps 0x10(%rsp), %xmm11 vmovaps 0xf0(%rsp), %xmm28 vmovaps 0xe0(%rsp), %xmm29 testl %ebx, %ebx je 0x1cdc373 leal -0x1(%rbx), %eax vmovss 0x320(%rsp,%rax,8), %xmm0 vmovss 0x324(%rsp,%rax,8), %xmm1 movl 0x190(%rsp,%rax,4), %ecx vmovsd 0x3e0(%rsp,%rax,8), %xmm15 tzcntq %rcx, %rdx blsrl %ecx, %ecx movl %ecx, 0x190(%rsp,%rax,4) cmovel %eax, %ebx vxorps %xmm2, %xmm2, %xmm2 vcvtsi2ss %rdx, %xmm2, %xmm2 vmulss %xmm20, %xmm2, %xmm2 incq %rdx vcvtsi2ss %rdx, %xmm31, %xmm3 vmulss %xmm20, %xmm3, %xmm3 vsubss %xmm2, %xmm21, %xmm4 vmulss %xmm2, %xmm1, %xmm26 vfmadd231ss %xmm4, %xmm0, %xmm26 # xmm26 = (xmm0 * xmm4) + xmm26 vsubss %xmm3, %xmm21, %xmm2 vmulss %xmm3, %xmm1, %xmm13 vfmadd231ss %xmm2, %xmm0, %xmm13 # xmm13 = (xmm0 * xmm2) + xmm13 vsubss %xmm26, %xmm13, %xmm0 vucomiss %xmm0, %xmm22 jbe 0x1cdc33e vmovaps %xmm26, %xmm6 vmovaps %xmm15, %xmm26 vshufps $0x50, %xmm15, %xmm15, %xmm1 # xmm1 = xmm15[0,0,1,1] vucomiss %xmm0, %xmm23 seta %cl cmpl $0x4, %ebx setae %al vsubps %xmm1, %xmm24, %xmm2 vmulps %xmm1, %xmm12, %xmm3 vmulps %xmm1, %xmm9, %xmm4 vmulps %xmm1, %xmm10, %xmm5 vmulps %xmm1, %xmm11, %xmm1 vfmadd231ps 0x180(%rsp), %xmm2, %xmm3 # xmm3 = (xmm2 * mem) + xmm3 vfmadd231ps 0x170(%rsp), %xmm2, %xmm4 # xmm4 = (xmm2 * mem) + xmm4 vfmadd231ps 0x160(%rsp), %xmm2, %xmm5 # xmm5 = (xmm2 * mem) + xmm5 vfmadd231ps %xmm2, %xmm16, %xmm1 # xmm1 = (xmm16 * xmm2) + xmm1 vinsertf128 $0x1, %xmm3, %ymm3, %ymm2 vinsertf128 $0x1, %xmm4, %ymm4, %ymm3 vinsertf128 $0x1, %xmm5, %ymm5, %ymm4 vmovaps %xmm6, 0xc0(%rsp) vbroadcastss %xmm6, %xmm6 vmovaps %xmm13, 0x60(%rsp) vbroadcastss %xmm13, %xmm7 vinsertf128 $0x1, %xmm7, %ymm6, %ymm6 vsubps %ymm2, %ymm3, %ymm7 vfmadd213ps %ymm2, %ymm6, %ymm7 # ymm7 = (ymm6 * ymm7) + ymm2 vsubps %ymm3, %ymm4, %ymm2 vfmadd213ps %ymm3, %ymm6, %ymm2 # ymm2 = (ymm6 * ymm2) + ymm3 vsubps %xmm5, %xmm1, %xmm1 vinsertf128 $0x1, %xmm1, %ymm1, %ymm3 vfmadd213ps %ymm4, %ymm6, %ymm3 # ymm3 = (ymm6 * ymm3) + ymm4 vsubps %ymm7, %ymm2, %ymm1 vfmadd213ps %ymm7, %ymm6, %ymm1 # ymm1 = (ymm6 * ymm1) + ymm7 vsubps %ymm2, %ymm3, %ymm3 vfmadd213ps %ymm2, %ymm6, %ymm3 # ymm3 = (ymm6 * ymm3) + ymm2 vsubps %ymm1, %ymm3, %ymm2 vfmadd231ps %ymm6, %ymm2, %ymm1 # ymm1 = (ymm2 * ymm6) + ymm1 vmulps %ymm18, %ymm2, %ymm3 vextractf128 $0x1, %ymm1, %xmm2 vextractf128 $0x1, %ymm3, %xmm4 vmulss %xmm25, %xmm0, %xmm5 vbroadcastss %xmm5, %xmm6 vmulps %xmm3, %xmm6, %xmm3 vaddps %xmm3, %xmm1, %xmm5 vmulps %xmm4, %xmm6, %xmm3 vsubps %xmm3, %xmm2, %xmm6 vshufpd $0x3, %xmm1, %xmm1, %xmm4 # xmm4 = xmm1[1,1] vshufpd $0x3, %xmm2, %xmm2, %xmm3 # xmm3 = xmm2[1,1] vsubps %xmm1, %xmm4, %xmm7 vsubps %xmm2, %xmm3, %xmm8 vaddps %xmm7, %xmm8, %xmm7 vshufps $0xb1, %xmm1, %xmm1, %xmm8 # xmm8 = xmm1[1,0,3,2] vshufps $0xb1, %xmm5, %xmm5, %xmm9 # xmm9 = xmm5[1,0,3,2] vshufps $0xb1, %xmm6, %xmm6, %xmm10 # xmm10 = xmm6[1,0,3,2] vshufps $0xb1, %xmm2, %xmm2, %xmm11 # xmm11 = xmm2[1,0,3,2] vbroadcastss %xmm7, %xmm12 vshufps $0x55, %xmm7, %xmm7, %xmm7 # xmm7 = xmm7[1,1,1,1] vmulps %xmm7, %xmm8, %xmm8 vmulps %xmm7, %xmm9, %xmm9 vmulps %xmm7, %xmm10, %xmm10 vmulps %xmm7, %xmm11, %xmm7 vfmadd231ps %xmm1, %xmm12, %xmm8 # xmm8 = (xmm12 * xmm1) + xmm8 vfmadd231ps %xmm5, %xmm12, %xmm9 # xmm9 = (xmm12 * xmm5) + xmm9 vfmadd231ps %xmm6, %xmm12, %xmm10 # xmm10 = (xmm12 * xmm6) + xmm10 vfmadd231ps %xmm12, %xmm2, %xmm7 # xmm7 = (xmm2 * xmm12) + xmm7 vshufpd $0x1, %xmm8, %xmm8, %xmm11 # xmm11 = xmm8[1,0] vshufpd $0x1, %xmm9, %xmm9, %xmm12 # xmm12 = xmm9[1,0] vshufpd $0x1, %xmm10, %xmm10, %xmm14 # xmm14 = xmm10[1,0] vshufpd $0x1, %xmm7, %xmm7, %xmm15 # xmm15 = xmm7[1,0] vminss %xmm9, %xmm8, %xmm13 vmaxss %xmm8, %xmm9, %xmm8 vminss %xmm7, %xmm10, %xmm9 vmaxss %xmm10, %xmm7, %xmm7 vminss %xmm9, %xmm13, %xmm13 vmaxss %xmm8, %xmm7, %xmm9 vminss %xmm12, %xmm11, %xmm7 vmaxss %xmm11, %xmm12, %xmm8 vminss %xmm15, %xmm14, %xmm10 vmaxss %xmm14, %xmm15, %xmm11 vminss %xmm10, %xmm7, %xmm14 vmaxss %xmm8, %xmm11, %xmm10 vmovss 0x2154b6(%rip), %xmm7 # 0x1ef09d8 vucomiss %xmm13, %xmm7 jbe 0x1cdb537 vmovss 0x21698f(%rip), %xmm7 # 0x1ef1ec0 vucomiss %xmm7, %xmm10 ja 0x1cdb598 vmovss 0x216981(%rip), %xmm7 # 0x1ef1ec0 vucomiss %xmm7, %xmm9 seta %dl vmovss 0x21548a(%rip), %xmm7 # 0x1ef09d8 vcmpltps %xmm7, %xmm14, %k0 vcmpltps %xmm7, %xmm13, %k1 korw %k0, %k1, %k0 kmovd %k0, %esi testb %sil, %dl jne 0x1cdb598 vmovss 0x21694f(%rip), %xmm7 # 0x1ef1ec0 vcmpnltps %xmm10, %xmm7, %k0 vmovss 0x215458(%rip), %xmm7 # 0x1ef09d8 vcmpnltps %xmm7, %xmm14, %k1 korw %k0, %k1, %k0 kmovd %k0, %edx testb $0x1, %dl jne 0x1cdc2fe vcmpltss %xmm30, %xmm13, %k1 vmovaps %xmm21, %xmm15 vmovss 0x21541d(%rip), %xmm16 # 0x1ef09cc vmovss %xmm16, %xmm15, %xmm15 {%k1} vcmpltss %xmm30, %xmm9, %k1 vmovaps %xmm21, %xmm12 vmovss %xmm16, %xmm12, %xmm12 {%k1} vucomiss %xmm12, %xmm15 setp %dl setne %sil orb %dl, %sil kmovd %esi, %k1 vmovss 0x21043d(%rip), %xmm7 # 0x1eeba20 vmovss %xmm30, %xmm7, %xmm7 {%k1} vmovss 0x211593(%rip), %xmm8 # 0x1eecb84 vmovss %xmm30, %xmm8, %xmm8 {%k1} vcmpltss %xmm30, %xmm14, %k1 vmovaps %xmm21, %xmm11 vmovss %xmm16, %xmm11, %xmm11 {%k1} vucomiss %xmm11, %xmm15 jne 0x1cdb613 jnp 0x1cdb652 vucomiss %xmm13, %xmm14 jne 0x1cdb662 jp 0x1cdb662 vucomiss %xmm30, %xmm13 setnp %dl sete %sil andb %dl, %sil kmovd %esi, %k1 vmovss 0x2103e8(%rip), %xmm13 # 0x1eeba20 vmovss %xmm30, %xmm13, %xmm13 {%k1} vmovss 0x21153e(%rip), %xmm14 # 0x1eecb84 vmovss 0x2110c4(%rip), %xmm14 {%k1} # 0x1eec714 jmp 0x1cdb687 vmovaps 0xd0(%rsp), %xmm16 vmovaps %xmm26, %xmm15 jmp 0x1cdb69f vxorps 0x245854(%rip){1to4}, %xmm13, %xmm15 # 0x1f20ec0 vsubss %xmm13, %xmm14, %xmm13 vdivss %xmm13, %xmm15, %xmm14 vsubss %xmm14, %xmm21, %xmm13 vfmadd213ss %xmm14, %xmm30, %xmm13 # xmm13 = (xmm30 * xmm13) + xmm14 vmovaps %xmm13, %xmm14 vmovaps 0xd0(%rsp), %xmm16 vmovaps %xmm26, %xmm15 vminss %xmm13, %xmm7, %xmm7 vmaxss %xmm8, %xmm14, %xmm8 vmovaps 0xc0(%rsp), %xmm26 vcmpltss %xmm30, %xmm10, %k1 vmovaps %xmm21, %xmm13 vmovss 0x21530e(%rip), %xmm13 {%k1} # 0x1ef09cc vucomiss %xmm13, %xmm12 jne 0x1cdb6c7 jnp 0x1cdb735 vucomiss %xmm9, %xmm10 jne 0x1cdb706 jp 0x1cdb706 vucomiss %xmm30, %xmm9 setnp %dl sete %sil andb %dl, %sil kmovd %esi, %k1 vmovss 0x210334(%rip), %xmm9 # 0x1eeba20 vmovss %xmm30, %xmm9, %xmm9 {%k1} vmovss 0x21148a(%rip), %xmm10 # 0x1eecb84 vmovss 0x211010(%rip), %xmm10 {%k1} # 0x1eec714 jmp 0x1cdb72b vxorps 0x2457b0(%rip){1to4}, %xmm9, %xmm12 # 0x1f20ec0 vsubss %xmm9, %xmm10, %xmm9 vdivss %xmm9, %xmm12, %xmm10 vsubss %xmm10, %xmm21, %xmm9 vfmadd213ss %xmm10, %xmm30, %xmm9 # xmm9 = (xmm30 * xmm9) + xmm10 vmovaps %xmm9, %xmm10 vminss %xmm9, %xmm7, %xmm7 vmaxss %xmm8, %xmm10, %xmm8 vucomiss %xmm13, %xmm11 setp %dl setne %sil orb %dl, %sil vminss %xmm21, %xmm7, %xmm9 kmovd %esi, %k1 vmovss %xmm9, %xmm7, %xmm7 {%k1} vmaxss %xmm8, %xmm21, %xmm9 vmovss %xmm9, %xmm8, %xmm8 {%k1} vmaxss %xmm7, %xmm30, %xmm7 vminss %xmm21, %xmm8, %xmm8 movb $0x1, %r15b vucomiss %xmm8, %xmm7 ja 0x1cdc2c8 vaddss 0x281ce6(%rip), %xmm7, %xmm7 # 0x1f5d468 vaddss 0x211412(%rip), %xmm8, %xmm8 # 0x1eecb9c vmaxss %xmm7, %xmm30, %xmm7 vminss %xmm21, %xmm8, %xmm8 vmovddup %xmm1, %xmm1 # xmm1 = xmm1[0,0] vmovddup %xmm5, %xmm9 # xmm9 = xmm5[0,0] vmovddup %xmm6, %xmm10 # xmm10 = xmm6[0,0] vmovddup %xmm2, %xmm2 # xmm2 = xmm2[0,0] vshufpd $0x3, %xmm5, %xmm5, %xmm5 # xmm5 = xmm5[1,1] vshufpd $0x3, %xmm6, %xmm6, %xmm6 # xmm6 = xmm6[1,1] vshufps $0x0, %xmm8, %xmm7, %xmm11 # xmm11 = xmm7[0,0],xmm8[0,0] vsubps %xmm11, %xmm24, %xmm12 vmulps %xmm4, %xmm11, %xmm13 vmulps %xmm5, %xmm11, %xmm5 vmulps %xmm6, %xmm11, %xmm6 vmulps %xmm3, %xmm11, %xmm3 vfmadd231ps %xmm1, %xmm12, %xmm13 # xmm13 = (xmm12 * xmm1) + xmm13 vfmadd231ps %xmm9, %xmm12, %xmm5 # xmm5 = (xmm12 * xmm9) + xmm5 vfmadd231ps %xmm10, %xmm12, %xmm6 # xmm6 = (xmm12 * xmm10) + xmm6 vfmadd231ps %xmm2, %xmm12, %xmm3 # xmm3 = (xmm12 * xmm2) + xmm3 vsubss %xmm7, %xmm21, %xmm2 vmovshdup %xmm15, %xmm4 # xmm4 = xmm15[1,1,3,3] vmulss %xmm7, %xmm4, %xmm1 vfmadd231ss %xmm2, %xmm15, %xmm1 # xmm1 = (xmm15 * xmm2) + xmm1 vsubss %xmm8, %xmm21, %xmm2 vmulss %xmm4, %xmm8, %xmm4 vfmadd231ss %xmm2, %xmm15, %xmm4 # xmm4 = (xmm15 * xmm2) + xmm4 vdivss %xmm0, %xmm21, %xmm0 vsubps %xmm13, %xmm5, %xmm2 vbroadcastss 0x2157d5(%rip), %xmm15 # 0x1ef0fec vmulps %xmm2, %xmm15, %xmm2 vsubps %xmm5, %xmm6, %xmm7 vmulps %xmm7, %xmm15, %xmm7 vsubps %xmm6, %xmm3, %xmm8 vmulps %xmm15, %xmm8, %xmm8 vminps %xmm8, %xmm7, %xmm9 vmaxps %xmm8, %xmm7, %xmm7 vminps %xmm9, %xmm2, %xmm8 vmaxps %xmm7, %xmm2, %xmm2 vshufpd $0x3, %xmm8, %xmm8, %xmm7 # xmm7 = xmm8[1,1] vshufpd $0x3, %xmm2, %xmm2, %xmm9 # xmm9 = xmm2[1,1] vminps %xmm7, %xmm8, %xmm7 vmaxps %xmm9, %xmm2, %xmm2 vbroadcastss %xmm0, %xmm0 vmulps %xmm7, %xmm0, %xmm8 vmulps %xmm2, %xmm0, %xmm7 vsubss %xmm1, %xmm4, %xmm0 vdivss %xmm0, %xmm21, %xmm0 vshufpd $0x3, %xmm13, %xmm13, %xmm2 # xmm2 = xmm13[1,1] vshufpd $0x3, %xmm5, %xmm5, %xmm9 # xmm9 = xmm5[1,1] vshufpd $0x3, %xmm6, %xmm6, %xmm10 # xmm10 = xmm6[1,1] vshufpd $0x3, %xmm3, %xmm3, %xmm11 # xmm11 = xmm3[1,1] vsubps %xmm13, %xmm2, %xmm2 vsubps %xmm5, %xmm9, %xmm5 vsubps %xmm6, %xmm10, %xmm6 vsubps %xmm3, %xmm11, %xmm3 vminps %xmm5, %xmm2, %xmm9 vmaxps %xmm5, %xmm2, %xmm2 vminps %xmm3, %xmm6, %xmm5 vminps %xmm5, %xmm9, %xmm5 vmaxps %xmm3, %xmm6, %xmm3 vmaxps %xmm3, %xmm2, %xmm2 vbroadcastss %xmm0, %xmm0 vmulps %xmm5, %xmm0, %xmm10 vmulps %xmm2, %xmm0, %xmm11 vinsertps $0x10, %xmm1, %xmm26, %xmm6 # xmm6 = xmm26[0],xmm1[0],xmm26[2,3] vmovaps 0x60(%rsp), %xmm0 vinsertps $0x10, %xmm4, %xmm0, %xmm5 # xmm5 = xmm0[0],xmm4[0],xmm0[2,3] vaddps %xmm5, %xmm6, %xmm0 vmulps %xmm17, %xmm0, %xmm9 vshufps $0x54, %xmm9, %xmm9, %xmm0 # xmm0 = xmm9[0,1,1,1] vbroadcastss %xmm9, %xmm2 vmovaps %xmm28, %xmm3 vfmadd213ps %xmm16, %xmm2, %xmm3 # xmm3 = (xmm2 * xmm3) + xmm16 vmovaps %xmm29, %xmm12 vfmadd213ps 0x110(%rsp), %xmm2, %xmm12 # xmm12 = (xmm2 * xmm12) + mem vmovaps 0x310(%rsp), %xmm13 vfmadd213ps 0x100(%rsp), %xmm2, %xmm13 # xmm13 = (xmm2 * xmm13) + mem vsubps %xmm3, %xmm12, %xmm14 vfmadd213ps %xmm3, %xmm2, %xmm14 # xmm14 = (xmm2 * xmm14) + xmm3 vsubps %xmm12, %xmm13, %xmm3 vfmadd213ps %xmm12, %xmm2, %xmm3 # xmm3 = (xmm2 * xmm3) + xmm12 vsubps %xmm14, %xmm3, %xmm3 vfmadd231ps %xmm2, %xmm3, %xmm14 # xmm14 = (xmm3 * xmm2) + xmm14 vmulps %xmm3, %xmm15, %xmm2 vmovddup %xmm14, %xmm12 # xmm12 = xmm14[0,0] vshufpd $0x3, %xmm14, %xmm14, %xmm3 # xmm3 = xmm14[1,1] vshufps $0x55, %xmm9, %xmm9, %xmm13 # xmm13 = xmm9[1,1,1,1] vsubps %xmm12, %xmm3, %xmm3 vfmadd231ps %xmm3, %xmm13, %xmm12 # xmm12 = (xmm13 * xmm3) + xmm12 vmovddup %xmm2, %xmm14 # xmm14 = xmm2[0,0] vshufpd $0x3, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[1,1] vsubps %xmm14, %xmm2, %xmm15 vfmadd213ps %xmm14, %xmm13, %xmm15 # xmm15 = (xmm13 * xmm15) + xmm14 vxorps %xmm31, %xmm3, %xmm2 vmovshdup %xmm15, %xmm13 # xmm13 = xmm15[1,1,3,3] vxorps %xmm31, %xmm13, %xmm14 vmovshdup %xmm3, %xmm16 # xmm16 = xmm3[1,1,3,3] vmovss 0x284380(%rip), %xmm30 # 0x1f5fcfc vpermt2ps %xmm3, %xmm30, %xmm14 vmulss %xmm3, %xmm13, %xmm3 vfmsub231ss %xmm16, %xmm15, %xmm3 # xmm3 = (xmm15 * xmm16) - xmm3 vmovss 0x27efe0(%rip), %xmm13 # 0x1f5a974 vpermt2ps %xmm2, %xmm13, %xmm15 vbroadcastss %xmm3, %xmm3 vdivps %xmm3, %xmm14, %xmm2 vdivps %xmm3, %xmm15, %xmm3 vbroadcastss %xmm12, %xmm13 vmulps %xmm2, %xmm13, %xmm13 vshufps $0x55, %xmm12, %xmm12, %xmm12 # xmm12 = xmm12[1,1,1,1] vmulps %xmm3, %xmm12, %xmm12 vaddps %xmm12, %xmm13, %xmm12 vsubps %xmm12, %xmm0, %xmm0 vmovshdup %xmm2, %xmm12 # xmm12 = xmm2[1,1,3,3] vinsertps $0x1c, %xmm10, %xmm8, %xmm13 # xmm13 = xmm8[0],xmm10[0],zero,zero vmulps %xmm13, %xmm12, %xmm14 vinsertps $0x1c, %xmm11, %xmm7, %xmm15 # xmm15 = xmm7[0],xmm11[0],zero,zero vmulps %xmm15, %xmm12, %xmm12 vminps %xmm12, %xmm14, %xmm16 vmaxps %xmm14, %xmm12, %xmm12 vmovshdup %xmm3, %xmm14 # xmm14 = xmm3[1,1,3,3] vinsertps $0x4c, %xmm8, %xmm10, %xmm8 # xmm8 = xmm8[1],xmm10[1],zero,zero vmulps %xmm8, %xmm14, %xmm10 vinsertps $0x4c, %xmm7, %xmm11, %xmm7 # xmm7 = xmm7[1],xmm11[1],zero,zero vmulps %xmm7, %xmm14, %xmm11 vminps %xmm11, %xmm10, %xmm14 vaddps %xmm14, %xmm16, %xmm14 vmaxps %xmm10, %xmm11, %xmm10 vaddps %xmm10, %xmm12, %xmm10 vmovddup 0x2454d1(%rip), %xmm11 # xmm11 = mem[0,0] vsubps %xmm10, %xmm11, %xmm10 vsubps %xmm14, %xmm11, %xmm11 vsubps %xmm9, %xmm6, %xmm12 vsubps %xmm9, %xmm5, %xmm9 vmulps %xmm10, %xmm12, %xmm14 vbroadcastss %xmm2, %xmm16 vmulps %xmm13, %xmm16, %xmm13 vmulps %xmm15, %xmm16, %xmm15 vminps %xmm15, %xmm13, %xmm16 vmaxps %xmm13, %xmm15, %xmm13 vbroadcastss %xmm3, %xmm15 vmulps %xmm8, %xmm15, %xmm8 vmulps %xmm7, %xmm15, %xmm7 vminps %xmm7, %xmm8, %xmm15 vaddps %xmm15, %xmm16, %xmm15 vmulps %xmm11, %xmm12, %xmm16 vmulps %xmm10, %xmm9, %xmm10 vmulps %xmm11, %xmm9, %xmm11 vmaxps %xmm8, %xmm7, %xmm7 vaddps %xmm7, %xmm13, %xmm7 vmovddup 0x24546a(%rip), %xmm8 # xmm8 = mem[0,0] vsubps %xmm7, %xmm8, %xmm7 vsubps %xmm15, %xmm8, %xmm8 vmulps %xmm7, %xmm12, %xmm13 vmulps %xmm8, %xmm12, %xmm12 vmulps %xmm7, %xmm9, %xmm7 vmulps %xmm8, %xmm9, %xmm8 vminps %xmm12, %xmm13, %xmm9 vminps %xmm8, %xmm7, %xmm15 vminps %xmm15, %xmm9, %xmm9 vmaxps %xmm13, %xmm12, %xmm12 vmaxps %xmm7, %xmm8, %xmm7 vmaxps %xmm12, %xmm7, %xmm7 vminps %xmm16, %xmm14, %xmm8 vminps %xmm11, %xmm10, %xmm12 vminps %xmm12, %xmm8, %xmm8 vhaddps %xmm8, %xmm9, %xmm8 vmaxps %xmm14, %xmm16, %xmm9 vmaxps %xmm10, %xmm11, %xmm10 vmaxps %xmm9, %xmm10, %xmm9 vhaddps %xmm9, %xmm7, %xmm7 vshufps $0xe8, %xmm8, %xmm8, %xmm8 # xmm8 = xmm8[0,2,2,3] vshufps $0xe8, %xmm7, %xmm7, %xmm9 # xmm9 = xmm7[0,2,2,3] vaddps %xmm0, %xmm8, %xmm7 vaddps %xmm0, %xmm9, %xmm8 vmaxps %xmm7, %xmm6, %xmm6 vminps %xmm5, %xmm8, %xmm9 vcmpltps %xmm6, %xmm9, %k0 vinsertps $0x10, %xmm4, %xmm1, %xmm15 # xmm15 = xmm1[0],xmm4[0],xmm1[2,3] kmovd %k0, %edx testb $0x3, %dl jne 0x1cdc2c2 vucomiss %xmm8, %xmm5 seta %sil xorl %edx, %edx vucomiss %xmm26, %xmm7 vmovaps 0x80(%rsp), %xmm16 jbe 0x1cdbba1 testb %sil, %sil vmovss 0x2154a1(%rip), %xmm11 # 0x1ef0fec vxorps %xmm30, %xmm30, %xmm30 vmovaps 0xd0(%rsp), %xmm9 vmovaps 0x110(%rsp), %xmm10 vmovaps 0x100(%rsp), %xmm12 vmovaps 0x150(%rsp), %xmm13 vmovaps 0x140(%rsp), %xmm14 je 0x1cdbbdc vcmpltps %xmm5, %xmm8, %k0 kshiftrb $0x1, %k0, %k0 kmovd %k0, %esi vmovshdup %xmm7, %xmm4 # xmm4 = xmm7[1,1,3,3] vucomiss %xmm1, %xmm4 seta %dl andb %sil, %dl jmp 0x1cdbbdc vmovss 0x215443(%rip), %xmm11 # 0x1ef0fec vxorps %xmm30, %xmm30, %xmm30 vmovaps 0xd0(%rsp), %xmm9 vmovaps 0x110(%rsp), %xmm10 vmovaps 0x100(%rsp), %xmm12 vmovaps 0x150(%rsp), %xmm13 vmovaps 0x140(%rsp), %xmm14 orb %cl, %al orb %dl, %al cmpb $0x1, %al jne 0x1cdc2d2 movl $0xc8, %eax vsubss %xmm0, %xmm21, %xmm1 vmulss %xmm1, %xmm1, %xmm4 vmulss %xmm4, %xmm1, %xmm5 vmulss %xmm0, %xmm11, %xmm6 vmulss %xmm4, %xmm6, %xmm4 vmulss %xmm0, %xmm0, %xmm6 vmulss %xmm6, %xmm11, %xmm7 vmulss %xmm7, %xmm1, %xmm1 vbroadcastss %xmm5, %xmm5 vbroadcastss %xmm4, %xmm4 vbroadcastss %xmm1, %xmm1 vmulss %xmm6, %xmm0, %xmm6 vbroadcastss %xmm6, %xmm6 vmulps %xmm6, %xmm13, %xmm6 vfmadd231ps %xmm1, %xmm12, %xmm6 # xmm6 = (xmm12 * xmm1) + xmm6 vfmadd231ps %xmm4, %xmm10, %xmm6 # xmm6 = (xmm10 * xmm4) + xmm6 vfmadd231ps %xmm5, %xmm9, %xmm6 # xmm6 = (xmm9 * xmm5) + xmm6 vmovddup %xmm6, %xmm1 # xmm1 = xmm6[0,0] vshufpd $0x3, %xmm6, %xmm6, %xmm4 # xmm4 = xmm6[1,1] vshufps $0x55, %xmm0, %xmm0, %xmm5 # xmm5 = xmm0[1,1,1,1] vsubps %xmm1, %xmm4, %xmm4 vfmadd213ps %xmm1, %xmm5, %xmm4 # xmm4 = (xmm5 * xmm4) + xmm1 vbroadcastss %xmm4, %xmm1 vmulps %xmm1, %xmm2, %xmm1 vshufps $0x55, %xmm4, %xmm4, %xmm5 # xmm5 = xmm4[1,1,1,1] vmulps %xmm5, %xmm3, %xmm5 vaddps %xmm5, %xmm1, %xmm1 vsubps %xmm1, %xmm0, %xmm0 vandps %xmm19, %xmm4, %xmm1 vprolq $0x20, %xmm1, %xmm4 vmaxss %xmm1, %xmm4, %xmm1 vucomiss %xmm1, %xmm14 ja 0x1cdbc90 decq %rax jne 0x1cdbbed jmp 0x1cdc2d5 vucomiss %xmm30, %xmm0 jb 0x1cdc2d5 vucomiss %xmm0, %xmm21 vmovaps 0x40(%rsp), %xmm12 vmovaps 0x60(%rsp), %xmm13 jb 0x1cdbdba vmovshdup %xmm0, %xmm1 # xmm1 = xmm0[1,1,3,3] vucomiss %xmm30, %xmm1 jb 0x1cdbdba vucomiss %xmm1, %xmm21 jb 0x1cdbdba vmovss 0x8(%r13), %xmm2 vinsertps $0x1c, 0x18(%r13), %xmm2, %xmm2 # xmm2 = xmm2[0],mem[0],zero,zero vinsertps $0x28, 0x28(%r13), %xmm2, %xmm2 # xmm2 = xmm2[0,1],mem[0],zero vdpps $0x7f, 0x300(%rsp), %xmm2, %xmm3 vdpps $0x7f, 0x2f0(%rsp), %xmm2, %xmm4 vdpps $0x7f, 0x2e0(%rsp), %xmm2, %xmm5 vdpps $0x7f, 0x2d0(%rsp), %xmm2, %xmm6 vdpps $0x7f, 0x2c0(%rsp), %xmm2, %xmm7 vdpps $0x7f, 0x2b0(%rsp), %xmm2, %xmm8 vdpps $0x7f, 0x2a0(%rsp), %xmm2, %xmm9 vdpps $0x7f, 0x290(%rsp), %xmm2, %xmm2 vsubss %xmm1, %xmm21, %xmm10 vmulss %xmm7, %xmm1, %xmm7 vmulss %xmm1, %xmm8, %xmm8 vmulss %xmm1, %xmm9, %xmm9 vmulss %xmm2, %xmm1, %xmm1 vfmadd231ss %xmm3, %xmm10, %xmm7 # xmm7 = (xmm10 * xmm3) + xmm7 vfmadd231ss %xmm4, %xmm10, %xmm8 # xmm8 = (xmm10 * xmm4) + xmm8 vfmadd231ss %xmm5, %xmm10, %xmm9 # xmm9 = (xmm10 * xmm5) + xmm9 vfmadd231ss %xmm6, %xmm10, %xmm1 # xmm1 = (xmm10 * xmm6) + xmm1 vsubss %xmm0, %xmm21, %xmm6 vmulss %xmm6, %xmm6, %xmm3 vmulss %xmm3, %xmm6, %xmm2 vmulss %xmm0, %xmm11, %xmm4 vmulss %xmm3, %xmm4, %xmm3 vmulps %xmm0, %xmm0, %xmm5 vmulss %xmm5, %xmm11, %xmm4 vmulss %xmm4, %xmm6, %xmm4 vmulps %xmm5, %xmm0, %xmm5 vmulss %xmm1, %xmm5, %xmm1 vfmadd231ss %xmm9, %xmm4, %xmm1 # xmm1 = (xmm4 * xmm9) + xmm1 vfmadd231ss %xmm8, %xmm3, %xmm1 # xmm1 = (xmm3 * xmm8) + xmm1 vfmadd231ss %xmm7, %xmm2, %xmm1 # xmm1 = (xmm2 * xmm7) + xmm1 vucomiss 0xbc(%rsp), %xmm1 jb 0x1cdbdba vmovss 0x200(%r11,%r9,4), %xmm14 vucomiss %xmm1, %xmm14 jae 0x1cdbdd1 vmovaps 0x30(%rsp), %xmm9 vmovaps 0x20(%rsp), %xmm10 vmovaps 0x10(%rsp), %xmm11 jmp 0x1cdc2f3 movq %r12, 0x128(%rsp) movl %r14d, %r12d vshufps $0x55, %xmm0, %xmm0, %xmm7 # xmm7 = xmm0[1,1,1,1] vsubps %xmm7, %xmm24, %xmm8 vmulps 0x270(%rsp), %xmm7, %xmm9 vmulps 0x220(%rsp), %xmm7, %xmm10 vmulps 0x210(%rsp), %xmm7, %xmm11 vmulps 0x250(%rsp), %xmm7, %xmm7 vfmadd231ps 0x280(%rsp), %xmm8, %xmm9 # xmm9 = (xmm8 * mem) + xmm9 vfmadd231ps 0x240(%rsp), %xmm8, %xmm10 # xmm10 = (xmm8 * mem) + xmm10 vfmadd231ps 0x230(%rsp), %xmm8, %xmm11 # xmm11 = (xmm8 * mem) + xmm11 vfmadd231ps 0x260(%rsp), %xmm8, %xmm7 # xmm7 = (xmm8 * mem) + xmm7 vsubps %xmm9, %xmm10, %xmm8 vsubps %xmm10, %xmm11, %xmm9 vsubps %xmm11, %xmm7, %xmm7 vbroadcastss %xmm0, %xmm10 vmulps %xmm9, %xmm10, %xmm11 vbroadcastss %xmm6, %xmm6 vfmadd231ps %xmm8, %xmm6, %xmm11 # xmm11 = (xmm6 * xmm8) + xmm11 vmulps %xmm7, %xmm10, %xmm7 vfmadd231ps %xmm9, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm9) + xmm7 vmulps %xmm7, %xmm10, %xmm7 vfmadd231ps %xmm11, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm11) + xmm7 vmulps 0x21517a(%rip){1to4}, %xmm7, %xmm6 # 0x1ef0fec movq (%rdi), %rax movq 0x1e8(%rax), %rax movq (%rax,%r8,8), %r14 movl 0x240(%r11,%r9,4), %eax testl %eax, 0x34(%r14) je 0x1cdc29e movq 0x10(%rdi), %rax cmpq $0x0, 0x10(%rax) vmovaps 0x30(%rsp), %xmm9 vmovaps 0x20(%rsp), %xmm10 vmovaps 0x10(%rsp), %xmm11 jne 0x1cdbebc movb $0x1, %al cmpq $0x0, 0x48(%r14) je 0x1cdc2b2 vbroadcastss %xmm5, %xmm5 vmulps 0x1d0(%rsp), %xmm5, %xmm5 vbroadcastss %xmm4, %xmm4 vfmadd132ps 0x1e0(%rsp), %xmm5, %xmm4 # xmm4 = (xmm4 * mem) + xmm5 vbroadcastss %xmm3, %xmm3 vfmadd132ps 0x1f0(%rsp), %xmm4, %xmm3 # xmm3 = (xmm3 * mem) + xmm4 vbroadcastss %xmm2, %xmm2 vfmadd132ps 0x200(%rsp), %xmm3, %xmm2 # xmm2 = (xmm2 * mem) + xmm3 vshufps $0xc9, %xmm2, %xmm2, %xmm3 # xmm3 = xmm2[1,2,0,3] vshufps $0xc9, %xmm6, %xmm6, %xmm4 # xmm4 = xmm6[1,2,0,3] vmulps %xmm4, %xmm2, %xmm2 vfmsub231ps %xmm3, %xmm6, %xmm2 # xmm2 = (xmm6 * xmm3) - xmm2 movq 0x8(%rdi), %rax vbroadcastss %xmm0, %zmm3 vbroadcastss 0x2367e6(%rip), %zmm4 # 0x1f12704 vpermps %zmm0, %zmm4, %zmm0 vpermps %zmm2, %zmm4, %zmm4 vbroadcastss 0x244fa8(%rip), %zmm5 # 0x1f20edc vpermps %zmm2, %zmm5, %zmm5 vbroadcastss %xmm2, %zmm2 vmovaps %zmm4, 0x4c0(%rsp) vmovaps %zmm5, 0x500(%rsp) vmovaps %zmm2, 0x540(%rsp) vmovaps %zmm3, 0x580(%rsp) vmovaps %zmm0, 0x5c0(%rsp) vmovaps 0x480(%rsp), %zmm0 vmovaps %zmm0, 0x600(%rsp) vmovdqa64 0x440(%rsp), %zmm0 vmovdqa64 %zmm0, 0x640(%rsp) leaq 0x680(%rsp), %rcx vpcmpeqd %ymm0, %ymm0, %ymm0 vmovdqa %ymm0, 0x60(%rcx) vmovdqa %ymm0, 0x40(%rcx) vmovdqa %ymm0, 0x20(%rcx) vmovdqa %ymm0, (%rcx) vbroadcastss (%rax), %zmm0 vmovaps %zmm0, 0x680(%rsp) vbroadcastss 0x4(%rax), %zmm0 vmovaps %zmm0, 0x6c0(%rsp) vmovss %xmm1, 0x200(%r11,%r9,4) vmovaps 0x400(%rsp), %zmm0 vmovaps %zmm0, 0x340(%rsp) leaq 0x340(%rsp), %rax movq %rax, 0x1a0(%rsp) movq 0x18(%r14), %rax movq %rax, 0x1a8(%rsp) movq 0x8(%rdi), %rax movq %rax, 0x1b0(%rsp) movq %r11, 0x1b8(%rsp) leaq 0x4c0(%rsp), %rax movq %rax, 0x1c0(%rsp) movl $0x10, 0x1c8(%rsp) movq 0x48(%r14), %rax testq %rax, %rax vmovaps %xmm15, 0x130(%rsp) vmovss %xmm14, 0x5c(%rsp) je 0x1cdc138 leaq 0x1a0(%rsp), %rdi vzeroupper callq *%rax vmovss 0x5c(%rsp), %xmm14 vmovaps 0x60(%rsp), %xmm13 vmovaps 0xc0(%rsp), %xmm26 vmovaps 0x130(%rsp), %xmm15 vmovaps 0xe0(%rsp), %xmm29 vmovaps 0xf0(%rsp), %xmm28 vmovaps 0x10(%rsp), %xmm11 vmovaps 0x20(%rsp), %xmm10 vmovaps 0x30(%rsp), %xmm9 vmovaps 0x40(%rsp), %xmm12 vmovaps 0x80(%rsp), %xmm16 movq 0xb0(%rsp), %r8 vxorps %xmm30, %xmm30, %xmm30 vmovss 0x215e05(%rip), %xmm25 # 0x1ef1ebc vbroadcastss 0x210653(%rip), %xmm24 # 0x1eec714 vmovss 0x215981(%rip), %xmm23 # 0x1ef1a4c vmovss 0x214f2b(%rip), %xmm22 # 0x1ef1000 vmovss 0x210635(%rip), %xmm21 # 0x1eec714 vmovss 0x244df7(%rip), %xmm20 # 0x1f20ee0 vbroadcastss 0x214ef9(%rip), %ymm18 # 0x1ef0fec vbroadcastss 0x244dc7(%rip), %xmm19 # 0x1f20ec4 vbroadcastss 0x210a79(%rip), %xmm17 # 0x1eecb80 vbroadcastss 0x244daf(%rip), %xmm31 # 0x1f20ec0 vbroadcastss 0x244dc1(%rip), %ymm27 # 0x1f20edc movq 0x78(%rsp), %rdi movq 0x98(%rsp), %r11 movq 0xa0(%rsp), %r9 movq 0xa8(%rsp), %r10 vmovdqa64 0x340(%rsp), %zmm0 vptestmd %zmm0, %zmm0, %k0 kortestw %k0, %k0 je 0x1cdc329 movq 0x10(%rdi), %rcx movq 0x10(%rcx), %rax testq %rax, %rax je 0x1cdc264 testb $0x2, (%rcx) jne 0x1cdc171 testb $0x40, 0x3e(%r14) je 0x1cdc264 leaq 0x1a0(%rsp), %rdi vzeroupper callq *%rax vmovss 0x5c(%rsp), %xmm14 vmovaps 0x60(%rsp), %xmm13 vmovaps 0xc0(%rsp), %xmm26 vmovaps 0x130(%rsp), %xmm15 vmovaps 0xe0(%rsp), %xmm29 vmovaps 0xf0(%rsp), %xmm28 vmovaps 0x10(%rsp), %xmm11 vmovaps 0x20(%rsp), %xmm10 vmovaps 0x30(%rsp), %xmm9 vmovaps 0x40(%rsp), %xmm12 vmovaps 0x80(%rsp), %xmm16 movq 0xb0(%rsp), %r8 vxorps %xmm30, %xmm30, %xmm30 vmovss 0x215cd9(%rip), %xmm25 # 0x1ef1ebc vbroadcastss 0x210527(%rip), %xmm24 # 0x1eec714 vmovss 0x215855(%rip), %xmm23 # 0x1ef1a4c vmovss 0x214dff(%rip), %xmm22 # 0x1ef1000 vmovss 0x210509(%rip), %xmm21 # 0x1eec714 vmovss 0x244ccb(%rip), %xmm20 # 0x1f20ee0 vbroadcastss 0x214dcd(%rip), %ymm18 # 0x1ef0fec vbroadcastss 0x244c9b(%rip), %xmm19 # 0x1f20ec4 vbroadcastss 0x21094d(%rip), %xmm17 # 0x1eecb80 vbroadcastss 0x244c83(%rip), %xmm31 # 0x1f20ec0 vbroadcastss 0x244c95(%rip), %ymm27 # 0x1f20edc movq 0x78(%rsp), %rdi movq 0x98(%rsp), %r11 movq 0xa0(%rsp), %r9 movq 0xa8(%rsp), %r10 vmovdqa64 0x340(%rsp), %zmm0 vptestmd %zmm0, %zmm0, %k1 movq 0x1b8(%rsp), %rax vmovaps 0x200(%rax), %zmm0 vbroadcastss 0x2108f9(%rip), %zmm0 {%k1} # 0x1eecb84 vmovaps %zmm0, 0x200(%rax) kortestw %k1, %k1 setne %al jmp 0x1cdc32b xorl %eax, %eax vmovaps 0x30(%rsp), %xmm9 vmovaps 0x20(%rsp), %xmm10 vmovaps 0x10(%rsp), %xmm11 movl %r12d, %r14d orb %al, %r14b movq 0x128(%rsp), %r12 jmp 0x1cdc2f3 vxorps %xmm30, %xmm30, %xmm30 vmovaps 0x80(%rsp), %xmm16 jmp 0x1cdc2d5 xorl %r15d, %r15d vmovaps 0x40(%rsp), %xmm12 vmovaps 0x30(%rsp), %xmm9 vmovaps 0x20(%rsp), %xmm10 vmovaps 0x10(%rsp), %xmm11 vmovaps 0x60(%rsp), %xmm13 testb %r15b, %r15b jne 0x1cdb2e9 jmp 0x1cdc33e movb $0x1, %r15b vmovaps 0x40(%rsp), %xmm12 vmovaps 0x30(%rsp), %xmm9 vmovaps 0x20(%rsp), %xmm10 vmovaps 0x10(%rsp), %xmm11 vmovaps %xmm26, %xmm15 vmovaps 0xc0(%rsp), %xmm26 jmp 0x1cdc2ed xorl %eax, %eax testb %al, %al jne 0x1cdc2b2 vmovss %xmm14, 0x200(%r11,%r9,4) jmp 0x1cdc2b2 vinsertps $0x10, %xmm13, %xmm26, %xmm0 # xmm0 = xmm26[0],xmm13[0],xmm26[2,3] vmovaps 0x180(%rsp), %xmm7 vmovaps 0x170(%rsp), %xmm19 vmovaps 0x160(%rsp), %xmm25 vmovaps 0x3c0(%rsp), %ymm29 vmovaps 0x3a0(%rsp), %ymm28 jmp 0x1cdadc5 testb $0x1, %r14b jne 0x1cdc3a0 vmovaps 0x380(%rsp), %ymm0 vcmpleps 0x200(%r11,%r9,4){1to8}, %ymm0, %k0 kmovb %k0, %eax andl %eax, %r12d setne 0xf(%rsp) jne 0x1cda65e movb 0xf(%rsp), %al andb $0x1, %al leaq -0x28(%rbp), %rsp popq %rbx popq %r12 popq %r13 popq %r14 popq %r15 popq %rbp vzeroupper retq
/embree[P]embree/kernels/geometry/curveNi_intersector.h
embree::avx512::VirtualCurveIntersector8i()
VirtualCurveIntersector* VirtualCurveIntersector8i() { static VirtualCurveIntersector function_local_static_prim = []() { VirtualCurveIntersector intersector; intersector.vtbl[Geometry::GTY_SPHERE_POINT] = SphereNiIntersectors<8>(); intersector.vtbl[Geometry::GTY_DISC_POINT] = DiscNiIntersectors<8>(); intersector.vtbl[Geometry::GTY_ORIENTED_DISC_POINT] = OrientedDiscNiIntersectors<8>(); intersector.vtbl[Geometry::GTY_CONE_LINEAR_CURVE ] = LinearConeNiIntersectors<8>(); intersector.vtbl[Geometry::GTY_ROUND_LINEAR_CURVE ] = LinearRoundConeNiIntersectors<8>(); intersector.vtbl[Geometry::GTY_FLAT_LINEAR_CURVE ] = LinearRibbonNiIntersectors<8>(); intersector.vtbl[Geometry::GTY_ROUND_BEZIER_CURVE] = CurveNiIntersectors <BezierCurveT,8>(); intersector.vtbl[Geometry::GTY_FLAT_BEZIER_CURVE ] = RibbonNiIntersectors<BezierCurveT,8>(); intersector.vtbl[Geometry::GTY_ORIENTED_BEZIER_CURVE] = OrientedCurveNiIntersectors<BezierCurveT,8>(); intersector.vtbl[Geometry::GTY_ROUND_BSPLINE_CURVE] = CurveNiIntersectors <BSplineCurveT,8>(); intersector.vtbl[Geometry::GTY_FLAT_BSPLINE_CURVE ] = RibbonNiIntersectors<BSplineCurveT,8>(); intersector.vtbl[Geometry::GTY_ORIENTED_BSPLINE_CURVE] = OrientedCurveNiIntersectors<BSplineCurveT,8>(); intersector.vtbl[Geometry::GTY_ROUND_HERMITE_CURVE] = HermiteCurveNiIntersectors <HermiteCurveT,8>(); intersector.vtbl[Geometry::GTY_FLAT_HERMITE_CURVE ] = HermiteRibbonNiIntersectors<HermiteCurveT,8>(); intersector.vtbl[Geometry::GTY_ORIENTED_HERMITE_CURVE] = HermiteOrientedCurveNiIntersectors<HermiteCurveT,8>(); intersector.vtbl[Geometry::GTY_ROUND_CATMULL_ROM_CURVE] = CurveNiIntersectors <CatmullRomCurveT,8>(); intersector.vtbl[Geometry::GTY_FLAT_CATMULL_ROM_CURVE ] = RibbonNiIntersectors<CatmullRomCurveT,8>(); intersector.vtbl[Geometry::GTY_ORIENTED_CATMULL_ROM_CURVE] = OrientedCurveNiIntersectors<CatmullRomCurveT,8>(); return intersector; }(); return &function_local_static_prim; }
movb 0x473292(%rip), %al # 0x214f650 testb %al, %al je 0x1cdc3ca leaq 0x472a87(%rip), %rax # 0x214ee50 retq pushq %rax callq 0x60bfd2 addq $0x8, %rsp jmp 0x1cdc3c2
/embree[P]embree/kernels/geometry/curve_intersector_virtual_8i.cpp
void embree::avx512::CurveNiIntersector1<8>::intersect_t<embree::avx512::SweepCurve1Intersector1<embree::BezierCurveT>, embree::avx512::Intersect1Epilog1<true>>(embree::avx512::CurvePrecalculations1 const&, embree::RayHitK<1>&, embree::RayQueryContext*, embree::CurveNi<8> const&)
static __forceinline void intersect_t(const Precalculations& pre, RayHit& ray, RayQueryContext* context, const Primitive& prim) { vfloat<M> tNear; vbool<M> valid = intersect(ray,prim,tNear); const size_t N = prim.N; size_t mask = movemask(valid); while (mask) { const size_t i = bscf(mask); STAT3(normal.trav_prims,1,1,1); const unsigned int geomID = prim.geomID(N); const unsigned int primID = prim.primID(N)[i]; const CurveGeometry* geom = context->scene->get<CurveGeometry>(geomID); Vec3ff a0,a1,a2,a3; geom->gather(a0,a1,a2,a3,geom->curve(primID)); size_t mask1 = mask; const size_t i1 = bscf(mask1); if (mask) { const unsigned int primID1 = prim.primID(N)[i1]; geom->prefetchL1_vertices(geom->curve(primID1)); if (mask1) { const size_t i2 = bsf(mask1); const unsigned int primID2 = prim.primID(N)[i2]; geom->prefetchL2_vertices(geom->curve(primID2)); } } Intersector().intersect(pre,ray,context,geom,primID,a0,a1,a2,a3,Epilog(ray,context,geomID,primID)); mask &= movemask(tNear <= vfloat<M>(ray.tfar)); } }
pushq %rbp movq %rsp, %rbp pushq %r15 pushq %r14 pushq %r13 pushq %r12 pushq %rbx andq $-0x20, %rsp subq $0x880, %rsp # imm = 0x880 movq %rcx, %r9 movzbl 0x1(%rcx), %ecx leaq (%rcx,%rcx,4), %rax leaq (%rax,%rax,4), %rdi vbroadcastss 0x12(%r9,%rdi), %xmm0 movq %rdx, %r13 movq %rsi, %r15 vmovaps (%rsi), %xmm1 vsubps 0x6(%r9,%rdi), %xmm1, %xmm1 vmulps %xmm1, %xmm0, %xmm3 vmulps 0x10(%rsi), %xmm0, %xmm0 vpmovsxbd 0x6(%r9,%rcx,4), %ymm1 vpmovsxbd 0x6(%r9,%rax), %ymm2 vcvtdq2ps %ymm1, %ymm5 vcvtdq2ps %ymm2, %ymm6 leaq (%rcx,%rcx,2), %rdx vpmovsxbd 0x6(%r9,%rdx,2), %ymm1 vcvtdq2ps %ymm1, %ymm4 leaq (%rcx,%rax,2), %rsi vpmovsxbd 0x6(%r9,%rsi), %ymm1 leal (,%rdx,4), %esi vpmovsxbd 0x6(%r9,%rsi), %ymm2 vcvtdq2ps %ymm1, %ymm7 vcvtdq2ps %ymm2, %ymm8 addq %rcx, %rsi vpmovsxbd 0x6(%r9,%rsi), %ymm1 vcvtdq2ps %ymm1, %ymm9 leaq (%rcx,%rcx,8), %rsi leal (%rsi,%rsi), %edi vpmovsxbd 0x6(%r9,%rdi), %ymm1 vcvtdq2ps %ymm1, %ymm10 addq %rcx, %rdi vpmovsxbd 0x6(%r9,%rdi), %ymm1 vcvtdq2ps %ymm1, %ymm11 shll $0x2, %eax vpmovsxbd 0x6(%r9,%rax), %ymm1 vcvtdq2ps %ymm1, %ymm12 vbroadcastss %xmm0, %ymm13 vbroadcastss 0x235a74(%rip), %ymm15 # 0x1f12704 vbroadcastss 0x244242(%rip), %ymm16 # 0x1f20edc vpermps %ymm0, %ymm15, %ymm14 vpermps %ymm0, %ymm16, %ymm0 vmulps %ymm4, %ymm0, %ymm2 vmulps %ymm0, %ymm9, %ymm1 vmulps %ymm0, %ymm12, %ymm0 vfmadd231ps %ymm6, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm6) + ymm2 vfmadd231ps %ymm8, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm8) + ymm1 vfmadd231ps %ymm14, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm14) + ymm0 vfmadd231ps %ymm5, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm5) + ymm2 vfmadd231ps %ymm7, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm7) + ymm1 vfmadd231ps %ymm13, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm13) + ymm0 vbroadcastss %xmm3, %ymm13 vpermps %ymm3, %ymm15, %ymm14 vpermps %ymm3, %ymm16, %ymm3 vmulps %ymm4, %ymm3, %ymm15 vmulps %ymm3, %ymm9, %ymm4 vmulps %ymm3, %ymm12, %ymm3 vfmadd231ps %ymm6, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm6) + ymm15 vfmadd231ps %ymm8, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm8) + ymm4 vfmadd231ps %ymm11, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm11) + ymm3 vfmadd231ps %ymm5, %ymm13, %ymm15 # ymm15 = (ymm13 * ymm5) + ymm15 vfmadd231ps %ymm7, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm7) + ymm4 vbroadcastss 0x2441b7(%rip), %ymm6 # 0x1f20ec4 vfmadd231ps %ymm10, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm10) + ymm3 vandps %ymm6, %ymm2, %ymm5 vbroadcastss 0x2142c9(%rip), %ymm7 # 0x1ef0fe8 vcmpltps %ymm7, %ymm5, %k1 vmovaps %ymm7, %ymm2 {%k1} vandps %ymm6, %ymm1, %ymm5 vcmpltps %ymm7, %ymm5, %k1 vmovaps %ymm7, %ymm1 {%k1} vandps %ymm6, %ymm0, %ymm5 vcmpltps %ymm7, %ymm5, %k1 vmovaps %ymm7, %ymm0 {%k1} vrcp14ps %ymm2, %ymm5 vbroadcastss 0x20f9b7(%rip), %ymm6 # 0x1eec714 vfnmadd213ps %ymm6, %ymm5, %ymm2 # ymm2 = -(ymm5 * ymm2) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm2 # ymm2 = (ymm2 * ymm5) + ymm5 vrcp14ps %ymm1, %ymm5 vfnmadd213ps %ymm6, %ymm5, %ymm1 # ymm1 = -(ymm5 * ymm1) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm1 # ymm1 = (ymm1 * ymm5) + ymm5 vrcp14ps %ymm0, %ymm5 vfnmadd213ps %ymm6, %ymm5, %ymm0 # ymm0 = -(ymm5 * ymm0) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm0 # ymm0 = (ymm0 * ymm5) + ymm5 leaq (,%rcx,8), %rdi subq %rcx, %rdi vpmovsxwd 0x6(%r9,%rdi), %ymm5 vcvtdq2ps %ymm5, %ymm5 vsubps %ymm15, %ymm5, %ymm5 vmulps %ymm5, %ymm2, %ymm5 vpmovsxwd 0x6(%r9,%rsi), %ymm6 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm15, %ymm6, %ymm6 leaq (%rcx,%rcx), %rsi addq %rcx, %rax shlq $0x3, %rdx subq %rcx, %rdx vpbroadcastd %ecx, %ymm7 shll $0x4, %ecx vpmovsxwd 0x6(%r9,%rcx), %ymm8 vmulps %ymm6, %ymm2, %ymm2 subq %rsi, %rcx vpmovsxwd 0x6(%r9,%rcx), %ymm6 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm4, %ymm6, %ymm6 vmulps %ymm6, %ymm1, %ymm6 vcvtdq2ps %ymm8, %ymm8 vsubps %ymm4, %ymm8, %ymm4 vmulps %ymm4, %ymm1, %ymm1 vpmovsxwd 0x6(%r9,%rax), %ymm4 vcvtdq2ps %ymm4, %ymm4 vsubps %ymm3, %ymm4, %ymm4 vmulps %ymm0, %ymm4, %ymm4 vpmovsxwd 0x6(%r9,%rdx), %ymm8 vcvtdq2ps %ymm8, %ymm8 vsubps %ymm3, %ymm8, %ymm3 vmulps %ymm3, %ymm0, %ymm0 vpminsd %ymm2, %ymm5, %ymm3 vpminsd %ymm1, %ymm6, %ymm8 vmaxps %ymm8, %ymm3, %ymm3 vpminsd %ymm0, %ymm4, %ymm8 vmaxps 0xc(%r15){1to8}, %ymm8, %ymm8 vmaxps %ymm8, %ymm3, %ymm3 vmulps 0x2430c4(%rip){1to8}, %ymm3, %ymm3 # 0x1f1ff10 vpmaxsd %ymm2, %ymm5, %ymm2 vpmaxsd %ymm1, %ymm6, %ymm1 vminps %ymm1, %ymm2, %ymm1 vpmaxsd %ymm0, %ymm4, %ymm0 vminps 0x20(%r15){1to8}, %ymm0, %ymm0 vminps %ymm0, %ymm1, %ymm0 vmulps 0x2430a0(%rip){1to8}, %ymm0, %ymm0 # 0x1f1ff14 vpcmpgtd 0x27daa2(%rip), %ymm7, %k0 # 0x1f5a920 vmovaps %ymm3, 0x500(%rsp) vcmpleps %ymm0, %ymm3, %k1 ktestb %k0, %k1 je 0x1cdf29b kandb %k0, %k1, %k0 kmovd %k0, %eax movzbl %al, %r10d vxorps %xmm12, %xmm12, %xmm12 movq %r13, 0x10(%rsp) movq %r9, 0x188(%rsp) tzcntq %r10, %rax movl 0x2(%r9), %ecx movl 0x6(%r9,%rax,4), %edi movq (%r13), %rax movq 0x1e8(%rax), %rax movq %rcx, 0x38(%rsp) movq (%rax,%rcx,8), %rsi movq 0x58(%rsi), %rax movq 0x68(%rsi), %rcx movq %rcx, %rdx movq %rdi, 0x78(%rsp) imulq %rdi, %rdx movl (%rax,%rdx), %edi movq 0xa0(%rsi), %rdx movq %rdx, %r8 imulq %rdi, %r8 movq 0x90(%rsi), %rsi vmovaps (%rsi,%r8), %xmm1 leaq 0x1(%rdi), %r8 imulq %rdx, %r8 vmovaps (%rsi,%r8), %xmm0 leaq 0x2(%rdi), %r8 imulq %rdx, %r8 vmovaps (%rsi,%r8), %xmm3 blsrq %r10, %r10 addq $0x3, %rdi imulq %rdx, %rdi vmovaps (%rsi,%rdi), %xmm2 movq %r10, %rdi subq $0x1, %rdi jb 0x1cdcf88 andq %r10, %rdi tzcntq %r10, %r8 movl 0x6(%r9,%r8,4), %r8d imulq %rcx, %r8 movl (%rax,%r8), %r8d imulq %rdx, %r8 prefetcht0 (%rsi,%r8) prefetcht0 0x40(%rsi,%r8) testq %rdi, %rdi je 0x1cdcf88 tzcntq %rdi, %rdi movl 0x6(%r9,%rdi,4), %edi imulq %rdi, %rcx movl (%rax,%rcx), %eax imulq %rax, %rdx prefetcht1 (%rsi,%rdx) prefetcht1 0x40(%rsi,%rdx) vaddps %xmm0, %xmm1, %xmm4 vaddps %xmm3, %xmm4, %xmm4 vaddps %xmm2, %xmm4, %xmm5 vmovaps (%r15), %xmm6 vmovaps 0x10(%r15), %xmm4 vmulps 0x240353(%rip){1to4}, %xmm5, %xmm5 # 0x1f1d2fc vsubps %xmm6, %xmm5, %xmm5 vdpps $0x7f, %xmm4, %xmm5, %xmm5 vdpps $0x7f, %xmm4, %xmm4, %xmm7 vmovss %xmm7, %xmm12, %xmm8 # xmm8 = xmm7[0],xmm12[1,2,3] vrcp14ss %xmm8, %xmm12, %xmm8 vmovaps %xmm8, %xmm9 vfnmadd213ss 0x214027(%rip), %xmm7, %xmm9 # xmm9 = -(xmm7 * xmm9) + mem vmulss %xmm9, %xmm8, %xmm7 vmulss %xmm7, %xmm5, %xmm5 vmovaps %xmm5, 0x230(%rsp) vbroadcastss %xmm5, %ymm7 vfmadd231ps %xmm7, %xmm4, %xmm6 # xmm6 = (xmm4 * xmm7) + xmm6 vblendps $0x8, %xmm12, %xmm6, %xmm5 # xmm5 = xmm6[0,1,2],xmm12[3] vsubps %xmm5, %xmm1, %xmm6 vbroadcastss 0x10(%r15), %ymm8 vsubps %xmm5, %xmm3, %xmm3 vbroadcastss 0x14(%r15), %ymm9 vbroadcastss 0x18(%r15), %ymm1 vmovaps %ymm1, 0x360(%rsp) vsubps %xmm5, %xmm0, %xmm10 vsubps %xmm5, %xmm2, %xmm5 vbroadcastss %xmm6, %ymm0 vmovaps %ymm0, 0x720(%rsp) vbroadcastss 0x2356cf(%rip), %ymm0 # 0x1f12704 vpermps %ymm6, %ymm0, %ymm1 vmovaps %ymm1, 0x700(%rsp) vbroadcastss 0x243e90(%rip), %ymm1 # 0x1f20edc vpermps %ymm6, %ymm1, %ymm2 vmovaps %ymm2, 0x6e0(%rsp) vbroadcastss 0x243e75(%rip), %ymm2 # 0x1f20ed8 vmovaps %ymm6, 0x300(%rsp) vpermps %ymm6, %ymm2, %ymm6 vmovaps %ymm6, 0x6c0(%rsp) vbroadcastss %xmm10, %ymm6 vmovaps %ymm6, 0x6a0(%rsp) vpermps %ymm10, %ymm0, %ymm6 vmovaps %ymm6, 0x680(%rsp) vpermps %ymm10, %ymm1, %ymm6 vmovaps %ymm6, 0x660(%rsp) vmovaps %ymm10, 0x2c0(%rsp) vpermps %ymm10, %ymm2, %ymm6 vmovaps %ymm6, 0x640(%rsp) vbroadcastss %xmm3, %ymm6 vmovaps %ymm6, 0x620(%rsp) vpermps %ymm3, %ymm0, %ymm6 vmovaps %ymm6, 0x600(%rsp) vpermps %ymm3, %ymm1, %ymm6 vmovaps %ymm6, 0x5e0(%rsp) vmovaps %ymm3, 0x2e0(%rsp) vpermps %ymm3, %ymm2, %ymm3 vmovaps %ymm3, 0x5c0(%rsp) vbroadcastss %xmm5, %ymm3 vmovaps %ymm3, 0x5a0(%rsp) vpermps %ymm5, %ymm0, %ymm0 vmovaps %ymm0, 0x580(%rsp) vpermps %ymm5, %ymm1, %ymm0 vmovaps %ymm0, 0x560(%rsp) vmovaps %ymm5, 0x2a0(%rsp) vpermps %ymm5, %ymm2, %ymm0 vmovaps %ymm0, 0x540(%rsp) vmulps %xmm4, %xmm4, %xmm0 vpermps %ymm0, %ymm1, %ymm0 vmovaps %ymm9, 0x380(%rsp) vfmadd231ps %ymm9, %ymm9, %ymm0 # ymm0 = (ymm9 * ymm9) + ymm0 vmovaps %ymm8, 0x3a0(%rsp) vfmadd231ps %ymm8, %ymm8, %ymm0 # ymm0 = (ymm8 * ymm8) + ymm0 vmovaps %ymm0, 0x520(%rsp) vandps 0x243d4f(%rip){1to8}, %ymm0, %ymm0 # 0x1f20ec4 vmovaps %ymm0, 0x440(%rsp) movl $0x1, %r11d xorl %r8d, %r8d vmovsd 0x20f561(%rip), %xmm3 # 0x1eec6f0 vmovaps %ymm7, 0x1e0(%rsp) vmovshdup %xmm3, %xmm0 # xmm0 = xmm3[1,1,3,3] vsubss %xmm3, %xmm0, %xmm1 vmulss 0x243d28(%rip), %xmm1, %xmm6 # 0x1f20ed0 vmovaps %xmm3, 0x140(%rsp) vbroadcastss %xmm3, %ymm5 vbroadcastss %xmm1, %ymm0 vmovaps %ymm5, 0x40(%rsp) vmovaps %ymm0, 0x1c0(%rsp) vfmadd231ps 0x243d4d(%rip), %ymm0, %ymm5 # ymm5 = (ymm0 * mem) + ymm5 vbroadcastss 0x20f538(%rip), %ymm0 # 0x1eec714 vsubps %ymm5, %ymm0, %ymm7 vmovaps 0x6a0(%rsp), %ymm1 vmulps %ymm5, %ymm1, %ymm2 vmovaps 0x680(%rsp), %ymm13 vmulps %ymm5, %ymm13, %ymm3 vmovaps 0x660(%rsp), %ymm14 vmulps %ymm5, %ymm14, %ymm4 vmovaps 0x640(%rsp), %ymm15 vmulps %ymm5, %ymm15, %ymm8 vfmadd231ps 0x720(%rsp), %ymm7, %ymm2 # ymm2 = (ymm7 * mem) + ymm2 vfmadd231ps 0x700(%rsp), %ymm7, %ymm3 # ymm3 = (ymm7 * mem) + ymm3 vfmadd231ps 0x6e0(%rsp), %ymm7, %ymm4 # ymm4 = (ymm7 * mem) + ymm4 vfmadd231ps 0x6c0(%rsp), %ymm7, %ymm8 # ymm8 = (ymm7 * mem) + ymm8 vmovaps 0x620(%rsp), %ymm17 vmulps %ymm5, %ymm17, %ymm9 vmovaps 0x600(%rsp), %ymm18 vmulps %ymm5, %ymm18, %ymm10 vmovaps 0x5e0(%rsp), %ymm19 vmulps %ymm5, %ymm19, %ymm11 vmovaps 0x5c0(%rsp), %ymm20 vmulps %ymm5, %ymm20, %ymm12 vfmadd231ps %ymm1, %ymm7, %ymm9 # ymm9 = (ymm7 * ymm1) + ymm9 vfmadd231ps %ymm13, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm13) + ymm10 vfmadd231ps %ymm14, %ymm7, %ymm11 # ymm11 = (ymm7 * ymm14) + ymm11 vfmadd231ps %ymm15, %ymm7, %ymm12 # ymm12 = (ymm7 * ymm15) + ymm12 vmulps 0x5a0(%rsp), %ymm5, %ymm13 vmulps 0x580(%rsp), %ymm5, %ymm14 vmulps 0x560(%rsp), %ymm5, %ymm15 vmulps 0x540(%rsp), %ymm5, %ymm16 vfmadd231ps %ymm17, %ymm7, %ymm13 # ymm13 = (ymm7 * ymm17) + ymm13 vfmadd231ps %ymm18, %ymm7, %ymm14 # ymm14 = (ymm7 * ymm18) + ymm14 vfmadd231ps %ymm19, %ymm7, %ymm15 # ymm15 = (ymm7 * ymm19) + ymm15 vfmadd231ps %ymm20, %ymm7, %ymm16 # ymm16 = (ymm7 * ymm20) + ymm16 vmulps %ymm9, %ymm5, %ymm17 vmulps %ymm10, %ymm5, %ymm18 vmulps %ymm11, %ymm5, %ymm19 vmulps %ymm12, %ymm5, %ymm20 vfmadd231ps %ymm2, %ymm7, %ymm17 # ymm17 = (ymm7 * ymm2) + ymm17 vfmadd231ps %ymm3, %ymm7, %ymm18 # ymm18 = (ymm7 * ymm3) + ymm18 vfmadd231ps %ymm4, %ymm7, %ymm19 # ymm19 = (ymm7 * ymm4) + ymm19 vfmadd231ps %ymm8, %ymm7, %ymm20 # ymm20 = (ymm7 * ymm8) + ymm20 vmulps %ymm5, %ymm13, %ymm8 vmulps %ymm5, %ymm14, %ymm13 vmulps %ymm5, %ymm15, %ymm14 vmulps %ymm16, %ymm5, %ymm15 vfmadd231ps %ymm9, %ymm7, %ymm8 # ymm8 = (ymm7 * ymm9) + ymm8 vfmadd231ps %ymm10, %ymm7, %ymm13 # ymm13 = (ymm7 * ymm10) + ymm13 vfmadd231ps %ymm11, %ymm7, %ymm14 # ymm14 = (ymm7 * ymm11) + ymm14 vfmadd231ps %ymm12, %ymm7, %ymm15 # ymm15 = (ymm7 * ymm12) + ymm15 vmulps %ymm5, %ymm8, %ymm4 vmulps %ymm5, %ymm13, %ymm3 vmulps %ymm5, %ymm14, %ymm2 vmulps %ymm5, %ymm15, %ymm5 vfmadd231ps %ymm17, %ymm7, %ymm4 # ymm4 = (ymm7 * ymm17) + ymm4 vfmadd231ps %ymm18, %ymm7, %ymm3 # ymm3 = (ymm7 * ymm18) + ymm3 vfmadd231ps %ymm19, %ymm7, %ymm2 # ymm2 = (ymm7 * ymm19) + ymm2 vfmadd231ps %ymm7, %ymm20, %ymm5 # ymm5 = (ymm20 * ymm7) + ymm5 vsubps %ymm17, %ymm8, %ymm7 vsubps %ymm18, %ymm13, %ymm8 vsubps %ymm19, %ymm14, %ymm9 vsubps %ymm20, %ymm15, %ymm10 vbroadcastss 0x213c8a(%rip), %ymm1 # 0x1ef0fec vmulps %ymm1, %ymm7, %ymm7 vmulps %ymm1, %ymm8, %ymm8 vmulps %ymm1, %ymm9, %ymm9 vmulps %ymm1, %ymm10, %ymm10 vbroadcastss %xmm6, %ymm6 vmulps %ymm7, %ymm6, %ymm11 vmulps %ymm6, %ymm8, %ymm12 vmulps %ymm6, %ymm9, %ymm13 vmulps %ymm6, %ymm10, %ymm6 vmovaps %ymm4, %ymm8 vmovaps 0x28298d(%rip), %ymm1 # 0x1f5fd20 vxorps %xmm31, %xmm31, %xmm31 vpermt2ps %ymm31, %ymm1, %ymm8 vmovaps %ymm3, %ymm9 vpermt2ps %ymm31, %ymm1, %ymm9 vmovaps %ymm2, %ymm10 vpermt2ps %ymm31, %ymm1, %ymm10 vaddps %ymm6, %ymm5, %ymm7 vmaxps %ymm7, %ymm5, %ymm14 vminps %ymm7, %ymm5, %ymm15 vmovaps %ymm5, %ymm16 vpermt2ps %ymm31, %ymm1, %ymm16 vmovaps %ymm11, %ymm19 vpermt2ps %ymm31, %ymm1, %ymm19 vmovaps %ymm12, %ymm20 vpermt2ps %ymm31, %ymm1, %ymm20 vmovaps %ymm13, %ymm21 vpermt2ps %ymm31, %ymm1, %ymm21 vpermt2ps %ymm31, %ymm1, %ymm6 vsubps %ymm6, %ymm16, %ymm17 vsubps %ymm4, %ymm8, %ymm7 vsubps %ymm3, %ymm9, %ymm6 vsubps %ymm2, %ymm10, %ymm5 vmulps %ymm13, %ymm6, %ymm18 vfmsub231ps %ymm5, %ymm12, %ymm18 # ymm18 = (ymm12 * ymm5) - ymm18 vmulps %ymm11, %ymm5, %ymm22 vfmsub231ps %ymm7, %ymm13, %ymm22 # ymm22 = (ymm13 * ymm7) - ymm22 vmulps %ymm12, %ymm7, %ymm23 vfmsub231ps %ymm6, %ymm11, %ymm23 # ymm23 = (ymm11 * ymm6) - ymm23 vmulps %ymm23, %ymm23, %ymm23 vfmadd231ps %ymm22, %ymm22, %ymm23 # ymm23 = (ymm22 * ymm22) + ymm23 vfmadd231ps %ymm18, %ymm18, %ymm23 # ymm23 = (ymm18 * ymm18) + ymm23 vmulps %ymm5, %ymm5, %ymm18 vfmadd231ps %ymm6, %ymm6, %ymm18 # ymm18 = (ymm6 * ymm6) + ymm18 vfmadd231ps %ymm7, %ymm7, %ymm18 # ymm18 = (ymm7 * ymm7) + ymm18 vrcp14ps %ymm18, %ymm22 vmovaps %ymm22, %ymm24 vfnmadd213ps %ymm0, %ymm18, %ymm24 # ymm24 = -(ymm18 * ymm24) + ymm0 vfmadd132ps %ymm22, %ymm22, %ymm24 # ymm24 = (ymm24 * ymm22) + ymm22 vmulps %ymm24, %ymm23, %ymm22 vmulps %ymm21, %ymm6, %ymm23 vfmsub231ps %ymm5, %ymm20, %ymm23 # ymm23 = (ymm20 * ymm5) - ymm23 vmulps %ymm19, %ymm5, %ymm25 vfmsub231ps %ymm7, %ymm21, %ymm25 # ymm25 = (ymm21 * ymm7) - ymm25 vmulps %ymm20, %ymm7, %ymm26 vfmsub231ps %ymm6, %ymm19, %ymm26 # ymm26 = (ymm19 * ymm6) - ymm26 vmulps %ymm26, %ymm26, %ymm26 vfmadd231ps %ymm25, %ymm25, %ymm26 # ymm26 = (ymm25 * ymm25) + ymm26 vfmadd231ps %ymm23, %ymm23, %ymm26 # ymm26 = (ymm23 * ymm23) + ymm26 vmulps %ymm24, %ymm26, %ymm23 vmaxps %ymm23, %ymm22, %ymm22 vsqrtps %ymm22, %ymm22 vmaxps %ymm16, %ymm17, %ymm23 vmaxps %ymm23, %ymm14, %ymm14 vaddps %ymm14, %ymm22, %ymm14 vminps %ymm16, %ymm17, %ymm16 vminps %ymm16, %ymm15, %ymm15 vsubps %ymm22, %ymm15, %ymm15 vmulps 0x21345d(%rip){1to8}, %ymm14, %ymm14 # 0x1ef0940 vmulps 0x213457(%rip){1to8}, %ymm15, %ymm1 # 0x1ef0944 vmovaps %ymm1, 0x1a0(%rsp) vmulps %ymm14, %ymm14, %ymm23 vrsqrt14ps %ymm18, %ymm15 vmulps 0x20f210(%rip){1to8}, %ymm18, %ymm14 # 0x1eec71c vmulps %ymm14, %ymm15, %ymm14 vmulps %ymm15, %ymm15, %ymm16 vmulps %ymm14, %ymm16, %ymm14 vfmadd231ps 0x20f1f1(%rip){1to8}, %ymm15, %ymm14 # ymm14 = (ymm15 * mem) + ymm14 vmulps %ymm7, %ymm14, %ymm15 vmulps %ymm14, %ymm6, %ymm16 vmulps %ymm14, %ymm5, %ymm18 vsubps %ymm4, %ymm31, %ymm27 vsubps %ymm3, %ymm31, %ymm28 vsubps %ymm2, %ymm31, %ymm29 vmovaps 0x360(%rsp), %ymm17 vmulps %ymm29, %ymm17, %ymm22 vmovaps 0x380(%rsp), %ymm25 vfmadd231ps %ymm28, %ymm25, %ymm22 # ymm22 = (ymm25 * ymm28) + ymm22 vmovaps 0x3a0(%rsp), %ymm1 vfmadd231ps %ymm27, %ymm1, %ymm22 # ymm22 = (ymm1 * ymm27) + ymm22 vmulps %ymm29, %ymm29, %ymm24 vfmadd231ps %ymm28, %ymm28, %ymm24 # ymm24 = (ymm28 * ymm28) + ymm24 vfmadd231ps %ymm27, %ymm27, %ymm24 # ymm24 = (ymm27 * ymm27) + ymm24 vmulps %ymm18, %ymm17, %ymm17 vfmadd231ps %ymm25, %ymm16, %ymm17 # ymm17 = (ymm16 * ymm25) + ymm17 vfmadd231ps %ymm1, %ymm15, %ymm17 # ymm17 = (ymm15 * ymm1) + ymm17 vmulps %ymm18, %ymm29, %ymm18 vfmadd231ps %ymm16, %ymm28, %ymm18 # ymm18 = (ymm28 * ymm16) + ymm18 vfmadd231ps %ymm15, %ymm27, %ymm18 # ymm18 = (ymm27 * ymm15) + ymm18 vmulps %ymm17, %ymm17, %ymm16 vmovaps 0x520(%rsp), %ymm1 vsubps %ymm16, %ymm1, %ymm15 vmulps %ymm18, %ymm17, %ymm25 vsubps %ymm25, %ymm22, %ymm22 vaddps %ymm22, %ymm22, %ymm22 vmulps %ymm18, %ymm18, %ymm25 vsubps %ymm25, %ymm24, %ymm25 vsubps %ymm23, %ymm25, %ymm23 vmulps %ymm22, %ymm22, %ymm1 vmulps 0x20f599(%rip){1to8}, %ymm15, %ymm26 # 0x1eecb8c vmulps %ymm23, %ymm26, %ymm30 vmovaps %ymm1, 0xa0(%rsp) vsubps %ymm30, %ymm1, %ymm30 vcmpnltps %ymm31, %ymm30, %k1 kmovd %k1, %eax kortestb %k1, %k1 je 0x1cdd6f9 vsqrtps %ymm30, %ymm30 vaddps %ymm15, %ymm15, %ymm31 vrcp14ps %ymm31, %ymm1 vfnmadd213ps %ymm0, %ymm1, %ymm31 # ymm31 = -(ymm1 * ymm31) + ymm0 vfmadd132ps %ymm1, %ymm1, %ymm31 # ymm31 = (ymm31 * ymm1) + ymm1 vxorps 0x24387b(%rip){1to8}, %ymm22, %ymm1 # 0x1f20ec0 vsubps %ymm30, %ymm1, %ymm1 vmulps %ymm31, %ymm1, %ymm1 vsubps %ymm22, %ymm30, %ymm30 vmulps %ymm31, %ymm30, %ymm30 vmovaps %ymm17, %ymm31 vfmadd213ps %ymm18, %ymm1, %ymm31 # ymm31 = (ymm1 * ymm31) + ymm18 vmulps %ymm31, %ymm14, %ymm31 vmovaps %ymm31, 0x400(%rsp) vmovaps %ymm17, %ymm31 vfmadd213ps %ymm18, %ymm30, %ymm31 # ymm31 = (ymm30 * ymm31) + ymm18 vmulps %ymm31, %ymm14, %ymm31 vmovaps %ymm31, 0x3e0(%rsp) vbroadcastss 0x20e386(%rip), %ymm0 # 0x1eeba20 vblendmps %ymm1, %ymm0, %ymm31 {%k1} vbroadcastss 0x20f4db(%rip), %ymm0 # 0x1eecb84 vblendmps %ymm30, %ymm0, %ymm30 {%k1} vbroadcastss 0x24380c(%rip), %ymm0 # 0x1f20ec4 vmovaps %ymm16, %ymm24 vandps %ymm0, %ymm16, %ymm1 vmovaps 0x440(%rsp), %ymm16 vmaxps %ymm1, %ymm16, %ymm1 vmulps 0x2147d8(%rip){1to8}, %ymm1, %ymm1 # 0x1ef1eb4 vandps %ymm0, %ymm15, %ymm0 vcmpltps %ymm1, %ymm0, %k1 {%k1} kortestb %k1, %k1 jne 0x1cdf230 vmovaps %ymm24, %ymm16 jmp 0x1cdd70d vbroadcastss 0x20e31d(%rip), %ymm31 # 0x1eeba20 vbroadcastss 0x20f477(%rip), %ymm30 # 0x1eecb84 andb $0x7f, %al je 0x1cddb34 vmovaps %ymm25, 0x80(%rsp) vmovaps %ymm16, 0x200(%rsp) vmovss 0xc(%r15), %xmm0 vmovss 0x20(%r15), %xmm1 vmovaps 0x230(%rsp), %xmm23 vsubss %xmm23, %xmm0, %xmm0 vbroadcastss %xmm0, %ymm0 vmaxps %ymm31, %ymm0, %ymm0 vsubss %xmm23, %xmm1, %xmm1 vbroadcastss %xmm1, %ymm1 vminps %ymm30, %ymm1, %ymm1 vmulps %ymm13, %ymm29, %ymm23 vfmadd213ps %ymm23, %ymm12, %ymm28 # ymm28 = (ymm12 * ymm28) + ymm23 vfmadd213ps %ymm28, %ymm11, %ymm27 # ymm27 = (ymm11 * ymm27) + ymm28 vmovaps 0x360(%rsp), %ymm25 vmulps %ymm13, %ymm25, %ymm13 vmovaps 0x380(%rsp), %ymm24 vfmadd231ps %ymm12, %ymm24, %ymm13 # ymm13 = (ymm24 * ymm12) + ymm13 vmovaps 0x3a0(%rsp), %ymm16 vfmadd231ps %ymm11, %ymm16, %ymm13 # ymm13 = (ymm16 * ymm11) + ymm13 vbroadcastss 0x243723(%rip), %ymm28 # 0x1f20ec4 vandps %ymm28, %ymm13, %ymm11 vbroadcastss 0x213837(%rip), %ymm29 # 0x1ef0fe8 vcmpltps %ymm29, %ymm11, %k0 vbroadcastss 0x2436fe(%rip), %ymm31 # 0x1f20ec0 vxorps %ymm31, %ymm27, %ymm11 vrcp14ps %ymm13, %ymm12 vxorps %ymm31, %ymm13, %ymm23 vmovaps %ymm12, %ymm27 vbroadcastss 0x20ef30(%rip), %ymm30 # 0x1eec714 vfnmadd213ps %ymm30, %ymm13, %ymm27 # ymm27 = -(ymm13 * ymm27) + ymm30 vfmadd132ps %ymm12, %ymm12, %ymm27 # ymm27 = (ymm27 * ymm12) + ymm12 vmulps %ymm11, %ymm27, %ymm11 vcmpltps %ymm23, %ymm13, %k1 korb %k1, %k0, %k1 vbroadcastss 0x20f379(%rip), %ymm27 # 0x1eecb84 vblendmps %ymm27, %ymm11, %ymm12 {%k1} vmaxps %ymm12, %ymm0, %ymm0 vcmpnleps %ymm23, %ymm13, %k1 korb %k1, %k0, %k1 vbroadcastss 0x20e1f5(%rip), %ymm23 # 0x1eeba20 vmovaps %ymm23, %ymm11 {%k1} vminps %ymm11, %ymm1, %ymm1 vxorps %xmm13, %xmm13, %xmm13 vsubps %ymm8, %ymm13, %ymm8 vsubps %ymm9, %ymm13, %ymm9 vsubps %ymm10, %ymm13, %ymm10 vmulps %ymm21, %ymm10, %ymm10 vfnmsub231ps %ymm9, %ymm20, %ymm10 # ymm10 = -(ymm20 * ymm9) - ymm10 vfnmadd231ps %ymm8, %ymm19, %ymm10 # ymm10 = -(ymm19 * ymm8) + ymm10 vmulps %ymm21, %ymm25, %ymm8 vfnmsub231ps %ymm20, %ymm24, %ymm8 # ymm8 = -(ymm24 * ymm20) - ymm8 vfnmadd231ps %ymm19, %ymm16, %ymm8 # ymm8 = -(ymm16 * ymm19) + ymm8 vandps %ymm28, %ymm8, %ymm9 vcmpltps %ymm29, %ymm9, %k0 vxorps %ymm31, %ymm10, %ymm9 vrcp14ps %ymm8, %ymm10 vxorps %ymm31, %ymm8, %ymm11 vmovaps %ymm10, %ymm12 vfnmadd213ps %ymm30, %ymm8, %ymm12 # ymm12 = -(ymm8 * ymm12) + ymm30 vfmadd132ps %ymm10, %ymm10, %ymm12 # ymm12 = (ymm12 * ymm10) + ymm10 vmulps %ymm9, %ymm12, %ymm9 vcmpltps %ymm11, %ymm8, %k1 korb %k1, %k0, %k1 vblendmps %ymm27, %ymm9, %ymm10 {%k1} vmaxps %ymm10, %ymm0, %ymm0 vcmpnleps %ymm11, %ymm8, %k1 korb %k1, %k0, %k1 vmovaps %ymm23, %ymm9 {%k1} vminps %ymm9, %ymm1, %ymm8 vmovaps %ymm0, 0x320(%rsp) vcmpleps %ymm8, %ymm0, %k0 kmovd %k0, %ecx andb %cl, %al je 0x1cddb34 vmovaps 0x400(%rsp), %ymm0 vmaxps 0x1a0(%rsp), %ymm13, %ymm1 vminps %ymm30, %ymm0, %ymm0 vxorps %xmm10, %xmm10, %xmm10 vmaxps %ymm10, %ymm0, %ymm0 vmovaps 0x3e0(%rsp), %ymm9 vminps %ymm30, %ymm9, %ymm9 vmovaps 0x24361d(%rip), %ymm11 # 0x1f20f40 vaddps %ymm0, %ymm11, %ymm0 vbroadcastss 0x240b88(%rip), %ymm12 # 0x1f1e4b8 vmulps %ymm0, %ymm12, %ymm0 vmovaps 0x40(%rsp), %ymm13 vmovaps 0x1c0(%rsp), %ymm16 vfmadd213ps %ymm13, %ymm16, %ymm0 # ymm0 = (ymm16 * ymm0) + ymm13 vmovaps %ymm0, 0x400(%rsp) vmaxps %ymm10, %ymm9, %ymm0 vaddps %ymm0, %ymm11, %ymm0 vmulps %ymm0, %ymm12, %ymm0 vfmadd213ps %ymm13, %ymm16, %ymm0 # ymm0 = (ymm16 * ymm0) + ymm13 vmovaps %ymm0, 0x3e0(%rsp) vmulps %ymm1, %ymm1, %ymm0 vmovaps 0x80(%rsp), %ymm1 vsubps %ymm0, %ymm1, %ymm11 vmulps %ymm11, %ymm26, %ymm0 vmovaps 0xa0(%rsp), %ymm1 vsubps %ymm0, %ymm1, %ymm0 vcmpnltps %ymm10, %ymm0, %k0 kortestb %k0, %k0 vxorps %xmm1, %xmm1, %xmm1 movq %r8, 0xf8(%rsp) je 0x1cddc4d vxorps %xmm20, %xmm20, %xmm20 vcmpnltps %ymm1, %ymm0, %k1 vsqrtps %ymm0, %ymm0 vaddps %ymm15, %ymm15, %ymm1 vrcp14ps %ymm1, %ymm9 vfnmadd213ps %ymm30, %ymm9, %ymm1 # ymm1 = -(ymm9 * ymm1) + ymm30 vfmadd132ps %ymm9, %ymm9, %ymm1 # ymm1 = (ymm1 * ymm9) + ymm9 vxorps 0x2434e1(%rip){1to8}, %ymm22, %ymm9 # 0x1f20ec0 vsubps %ymm0, %ymm9, %ymm9 vmulps %ymm1, %ymm9, %ymm12 vsubps %ymm22, %ymm0, %ymm0 vmulps %ymm1, %ymm0, %ymm13 vmovaps %ymm17, %ymm0 vfmadd213ps %ymm18, %ymm12, %ymm0 # ymm0 = (ymm12 * ymm0) + ymm18 vmulps %ymm0, %ymm14, %ymm9 vmovaps 0x3a0(%rsp), %ymm16 vmulps %ymm12, %ymm16, %ymm0 vmovaps 0x380(%rsp), %ymm21 vmulps %ymm12, %ymm21, %ymm1 vmovaps 0x360(%rsp), %ymm22 vmulps %ymm12, %ymm22, %ymm10 vmovaps %ymm7, %ymm19 vfmadd213ps %ymm4, %ymm9, %ymm19 # ymm19 = (ymm9 * ymm19) + ymm4 vsubps %ymm19, %ymm0, %ymm0 vmovaps %ymm6, %ymm19 vfmadd213ps %ymm3, %ymm9, %ymm19 # ymm19 = (ymm9 * ymm19) + ymm3 vsubps %ymm19, %ymm1, %ymm1 vfmadd213ps %ymm2, %ymm5, %ymm9 # ymm9 = (ymm5 * ymm9) + ymm2 vsubps %ymm9, %ymm10, %ymm9 vfmadd213ps %ymm18, %ymm13, %ymm17 # ymm17 = (ymm13 * ymm17) + ymm18 vmulps %ymm17, %ymm14, %ymm14 vmulps %ymm13, %ymm16, %ymm10 vmulps %ymm13, %ymm21, %ymm17 vmulps %ymm13, %ymm22, %ymm18 vfmadd213ps %ymm4, %ymm14, %ymm7 # ymm7 = (ymm14 * ymm7) + ymm4 vsubps %ymm7, %ymm10, %ymm10 vfmadd213ps %ymm3, %ymm14, %ymm6 # ymm6 = (ymm14 * ymm6) + ymm3 vsubps %ymm6, %ymm17, %ymm3 vfmadd213ps %ymm2, %ymm14, %ymm5 # ymm5 = (ymm14 * ymm5) + ymm2 vsubps %ymm5, %ymm18, %ymm5 vbroadcastss 0x20df81(%rip), %ymm2 # 0x1eeba20 vblendmps %ymm12, %ymm2, %ymm4 {%k1} vbroadcastss 0x20f0d6(%rip), %ymm2 # 0x1eecb84 vblendmps %ymm13, %ymm2, %ymm2 {%k1} vbroadcastss 0x243407(%rip), %ymm7 # 0x1f20ec4 vandps 0x200(%rsp), %ymm7, %ymm6 vmovaps 0x440(%rsp), %ymm12 vmaxps %ymm6, %ymm12, %ymm6 vmulps 0x2143d7(%rip){1to8}, %ymm6, %ymm6 # 0x1ef1eb4 vandps %ymm7, %ymm15, %ymm7 vcmpltps %ymm6, %ymm7, %k1 {%k1} kortestb %k1, %k1 je 0x1cddc70 vcmpleps %ymm20, %ymm11, %k2 vbroadcastss 0x20f082(%rip), %ymm7 # 0x1eecb84 vbroadcastss 0x20df15(%rip), %ymm11 # 0x1eeba20 vblendmps %ymm7, %ymm11, %ymm6 {%k2} vmovaps %ymm6, %ymm4 {%k1} vblendmps %ymm11, %ymm7, %ymm6 {%k2} vmovaps %ymm6, %ymm2 {%k1} knotb %k1, %k1 korb %k2, %k1, %k1 kandb %k0, %k1, %k0 jmp 0x1cddc70 vxorps %xmm12, %xmm12, %xmm12 vmovaps 0x1e0(%rsp), %ymm7 vmovaps 0x140(%rsp), %xmm3 vbroadcastss 0x20(%r15), %ymm0 movl %r8d, %eax testl %eax, %eax je 0x1cdf27d leal -0x1(%rax), %r8d leaq (%r8,%r8,2), %rcx shlq $0x5, %rcx movzbl 0x740(%rsp,%rcx), %esi vmovaps 0x760(%rsp,%rcx), %ymm1 vaddps %ymm1, %ymm7, %ymm2 vcmpleps %ymm0, %ymm2, %k0 kmovb %k0, %edx andl %esi, %edx je 0x1cddc3d kmovd %edx, %k1 vbroadcastss 0x20de83(%rip), %ymm2 # 0x1eeba20 vblendmps %ymm1, %ymm2, %ymm1 {%k1} vshufps $0xb1, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2,5,4,7,6] vminps %ymm2, %ymm1, %ymm2 vshufpd $0x5, %ymm2, %ymm2, %ymm3 # ymm3 = ymm2[1,0,3,2] vminps %ymm3, %ymm2, %ymm2 vpermpd $0x4e, %ymm2, %ymm3 # ymm3 = ymm2[2,3,0,1] vminps %ymm3, %ymm2, %ymm2 vcmpeqps %ymm2, %ymm1, %k0 kmovd %k0, %esi andb %dl, %sil je 0x1cddbd5 movzbl %sil, %edi jmp 0x1cddbd8 movzbl %dl, %edi leaq (%rsp,%rcx), %rsi addq $0x740, %rsi # imm = 0x740 vmovss 0x44(%rsi), %xmm1 tzcntl %edi, %ecx movb $0x1, %dil shlb %cl, %dil movl 0x48(%rsi), %r11d movzbl %dil, %edi kmovd %edi, %k0 kmovd %edx, %k1 kandnb %k1, %k0, %k0 kmovb %k0, (%rsi) kortestb %k0, %k0 je 0x1cddc13 movl %eax, %r8d vbroadcastss 0x40(%rsi), %ymm2 vsubss %xmm2, %xmm1, %xmm1 vbroadcastss %xmm1, %ymm1 vfmadd132ps 0x2432f5(%rip), %ymm2, %ymm1 # ymm1 = (ymm1 * mem) + ymm2 vmovaps %ymm1, 0x460(%rsp) vmovsd 0x460(%rsp,%rcx,4), %xmm3 movl %r8d, %eax testb %dl, %dl je 0x1cddb54 jmp 0x1cdd198 vxorps %xmm3, %xmm3, %xmm3 vxorps %xmm5, %xmm5, %xmm5 vxorps %xmm0, %xmm0, %xmm0 vxorps %xmm9, %xmm9, %xmm9 vbroadcastss 0x20ddb9(%rip), %ymm4 # 0x1eeba20 vbroadcastss 0x20ef14(%rip), %ymm2 # 0x1eecb84 vxorps %xmm12, %xmm12, %xmm12 vbroadcastss 0x243246(%rip), %xmm13 # 0x1f20ec4 vbroadcastss 0x10(%r15), %ymm6 vbroadcastss 0x14(%r15), %ymm7 vbroadcastss 0x18(%r15), %ymm11 vmulps %ymm5, %ymm11, %ymm5 vfmadd231ps %ymm3, %ymm7, %ymm5 # ymm5 = (ymm7 * ymm3) + ymm5 vfmadd231ps %ymm10, %ymm6, %ymm5 # ymm5 = (ymm6 * ymm10) + ymm5 vmovaps 0x320(%rsp), %ymm14 vmovaps %ymm14, 0x460(%rsp) vminps %ymm4, %ymm8, %ymm3 vmovaps %ymm3, 0x480(%rsp) vbroadcastss 0x2431fe(%rip), %ymm10 # 0x1f20ec4 vandps %ymm5, %ymm10, %ymm4 vmaxps %ymm2, %ymm14, %ymm5 vmovaps %ymm5, 0x4a0(%rsp) vmovaps %ymm8, 0x4c0(%rsp) vbroadcastss 0x2431eb(%rip), %ymm2 # 0x1f20ed4 vcmpltps %ymm2, %ymm4, %k1 kmovd %k1, 0x13c(%rsp) vcmpleps %ymm3, %ymm14, %k1 kmovd %k1, %ecx andb %al, %cl vmovaps %ymm5, 0x340(%rsp) vcmpleps %ymm8, %ymm5, %k1 kmovd %k1, %edx andb %al, %dl movl %edx, %eax orb %cl, %al je 0x1cdf1f5 movl %edx, 0x18(%rsp) movq %r10, 0x198(%rsp) knotb %k0, %k1 vmovaps %ymm2, %ymm3 vmulps %ymm11, %ymm9, %ymm2 vfmadd213ps %ymm2, %ymm7, %ymm1 # ymm1 = (ymm7 * ymm1) + ymm2 vfmadd213ps %ymm1, %ymm6, %ymm0 # ymm0 = (ymm6 * ymm0) + ymm1 vandps %ymm0, %ymm10, %ymm0 vcmpltps %ymm3, %ymm0, %k0 kmovd %k1, 0x134(%rsp) korb %k1, %k0, %k1 vpbroadcastd 0x243170(%rip), %ymm0 # 0x1f20edc vpblendmd 0x243162(%rip){1to8}, %ymm0, %ymm0 {%k1} # 0x1f20ed8 movq %r11, 0x190(%rsp) vpbroadcastd %r11d, %ymm1 vmovdqa %ymm0, 0x4e0(%rsp) vmovdqa %ymm1, 0x420(%rsp) vpcmpnltd %ymm0, %ymm1, %k0 kmovd %k0, %ebx movl %ecx, 0x138(%rsp) andb %cl, %bl je 0x1cde731 vmovaps 0x300(%rsp), %ymm1 vmovaps 0x2c0(%rsp), %ymm2 vminps %xmm2, %xmm1, %xmm0 vmaxps %xmm2, %xmm1, %xmm1 vmovaps 0x2e0(%rsp), %ymm3 vmovaps 0x2a0(%rsp), %ymm4 vminps %xmm4, %xmm3, %xmm2 vminps %xmm2, %xmm0, %xmm0 vmaxps %xmm4, %xmm3, %xmm2 vmaxps %xmm2, %xmm1, %xmm1 vandps %xmm0, %xmm13, %xmm0 vandps %xmm1, %xmm13, %xmm2 vmaxps %xmm2, %xmm0, %xmm0 vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3] vmaxss %xmm0, %xmm2, %xmm2 vshufpd $0x1, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[1,0] vmaxss %xmm2, %xmm0, %xmm0 vmulss 0x2140a3(%rip), %xmm0, %xmm0 # 0x1ef1eb4 vmovss %xmm0, 0x28(%rsp) vshufps $0xff, %xmm1, %xmm1, %xmm0 # xmm0 = xmm1[3,3,3,3] vmovaps %xmm0, 0x220(%rsp) vmovaps 0x320(%rsp), %ymm0 vaddps 0x1e0(%rsp), %ymm0, %ymm0 vmovaps %ymm0, 0x3c0(%rsp) kmovd %ebx, %k1 vbroadcastss 0x20dbd3(%rip), %ymm0 # 0x1eeba20 vblendmps 0x320(%rsp), %ymm0, %ymm0 {%k1} vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm0, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1] vminps %ymm2, %ymm1, %ymm1 vcmpeqps %ymm1, %ymm0, %k0 kmovd %k0, %eax andb %bl, %al movzbl %al, %eax movzbl %bl, %ecx cmovnel %eax, %ecx tzcntl %ecx, %ecx movb $0x1, %bl shlb %cl, %bl shll $0x2, %ecx vmovss 0x400(%rsp,%rcx), %xmm8 vmovss 0x460(%rsp,%rcx), %xmm9 vmovaps 0x10(%r15), %xmm0 vmovaps %xmm0, 0x200(%rsp) vdpps $0x7f, %xmm0, %xmm0, %xmm0 vucomiss 0x20db63(%rip), %xmm0 # 0x1eeba24 jb 0x1cddec9 vsqrtss %xmm0, %xmm0, %xmm0 jmp 0x1cddf06 vmovaps %xmm8, 0xa0(%rsp) vmovaps %xmm9, 0x80(%rsp) kmovw %k1, 0x40(%rsp) vzeroupper callq 0x6aa20 kmovw 0x40(%rsp), %k1 vmovaps 0x80(%rsp), %xmm9 vmovaps 0xa0(%rsp), %xmm8 vxorps %xmm12, %xmm12, %xmm12 movzbl %bl, %eax kmovd %eax, %k0 kandnb %k1, %k0, %k0 kmovd %k0, %ebx vmulss 0x213f97(%rip), %xmm0, %xmm0 # 0x1ef1eb4 vmovss %xmm0, 0x2c(%rsp) movl $0x4, %r12d vbroadcastss %xmm9, %xmm0 vfmadd132ps 0x200(%rsp), %xmm12, %xmm0 # xmm0 = (xmm0 * mem) + xmm12 vmovss 0x20e7d4(%rip), %xmm1 # 0x1eec714 vsubss %xmm8, %xmm1, %xmm3 vbroadcastss %xmm8, %xmm1 vmovaps 0x2c0(%rsp), %ymm5 vmulps %xmm1, %xmm5, %xmm2 vmovaps %xmm3, 0x280(%rsp) vbroadcastss %xmm3, %xmm3 vfmadd231ps 0x300(%rsp), %xmm3, %xmm2 # xmm2 = (xmm3 * mem) + xmm2 vmovaps 0x2e0(%rsp), %ymm6 vmulps %xmm1, %xmm6, %xmm4 vfmadd231ps %xmm5, %xmm3, %xmm4 # xmm4 = (xmm3 * xmm5) + xmm4 vmulps 0x2a0(%rsp), %xmm1, %xmm5 vfmadd231ps %xmm6, %xmm3, %xmm5 # xmm5 = (xmm3 * xmm6) + xmm5 vmulps %xmm4, %xmm1, %xmm6 vfmadd231ps %xmm2, %xmm3, %xmm6 # xmm6 = (xmm3 * xmm2) + xmm6 vmulps %xmm5, %xmm1, %xmm2 vfmadd231ps %xmm4, %xmm3, %xmm2 # xmm2 = (xmm3 * xmm4) + xmm2 vmulps %xmm2, %xmm1, %xmm4 vfmadd231ps %xmm3, %xmm6, %xmm4 # xmm4 = (xmm6 * xmm3) + xmm4 vsubps %xmm6, %xmm2, %xmm1 vmulps 0x213034(%rip){1to4}, %xmm1, %xmm10 # 0x1ef0fec vmovaps %xmm4, 0x290(%rsp) vsubps %xmm4, %xmm0, %xmm0 vmovaps %xmm0, 0x1c0(%rsp) vdpps $0x7f, %xmm0, %xmm0, %xmm0 vucomiss 0x20da48(%rip), %xmm0 # 0x1eeba24 vmovaps %xmm10, 0x40(%rsp) vmovaps %xmm0, 0x1a0(%rsp) vmovaps %xmm8, 0xa0(%rsp) vmovaps %xmm9, 0x80(%rsp) jb 0x1cde005 vsqrtss %xmm0, %xmm0, %xmm7 jmp 0x1cde01c vzeroupper callq 0x6aa20 vmovaps 0x40(%rsp), %xmm10 vxorps %xmm12, %xmm12, %xmm12 vmovaps %xmm0, %xmm7 vdpps $0x7f, %xmm10, %xmm10, %xmm0 vmovss %xmm0, %xmm12, %xmm1 # xmm1 = xmm0[0],xmm12[1,2,3] vrsqrt14ss %xmm1, %xmm12, %xmm3 vmulss 0x20e6e4(%rip), %xmm3, %xmm4 # 0x1eec718 vmulss 0x20e6e0(%rip), %xmm0, %xmm5 # 0x1eec71c vrcp14ss %xmm1, %xmm12, %xmm2 vxorps 0x242e74(%rip){1to4}, %xmm0, %xmm1 # 0x1f20ec0 vmovaps %xmm2, 0x260(%rsp) vfnmadd213ss 0x212f9a(%rip), %xmm0, %xmm2 # xmm2 = -(xmm0 * xmm2) + mem vmovss %xmm2, 0x30(%rsp) vucomiss %xmm1, %xmm0 vmovss %xmm7, 0xc(%rsp) vmovaps %xmm0, 0x270(%rsp) jb 0x1cde081 vsqrtss %xmm0, %xmm0, %xmm16 jmp 0x1cde0d0 vmovaps %xmm3, 0xe0(%rsp) vmovss %xmm4, 0xd0(%rsp) vmovss %xmm5, 0x8(%rsp) vzeroupper callq 0x6aa20 vmovss 0x8(%rsp), %xmm5 vmovss 0xd0(%rsp), %xmm4 vmovaps 0xe0(%rsp), %xmm3 vmovss 0xc(%rsp), %xmm7 vmovaps 0x40(%rsp), %xmm10 vxorps %xmm12, %xmm12, %xmm12 vmovaps %xmm0, %xmm16 vmovaps 0x1c0(%rsp), %xmm11 vmovaps 0x1a0(%rsp), %xmm14 vmulss %xmm3, %xmm5, %xmm0 vmulss %xmm3, %xmm3, %xmm1 vmulss %xmm1, %xmm0, %xmm0 vaddss %xmm0, %xmm4, %xmm0 vbroadcastss %xmm0, %xmm6 vmulps %xmm6, %xmm10, %xmm0 vmovaps %xmm0, 0xd0(%rsp) vdpps $0x7f, %xmm0, %xmm11, %xmm0 vaddss 0x20e602(%rip), %xmm7, %xmm15 # 0x1eec714 vmovaps %xmm0, 0xe0(%rsp) vmulps %xmm0, %xmm0, %xmm0 vsubps %xmm0, %xmm14, %xmm0 vmovss %xmm0, %xmm12, %xmm1 # xmm1 = xmm0[0],xmm12[1,2,3] vrsqrt14ss %xmm1, %xmm12, %xmm18 vmulss 0x20e5e1(%rip), %xmm18, %xmm17 # 0x1eec718 vmulss 0x20e5db(%rip), %xmm0, %xmm19 # 0x1eec71c vucomiss 0x20d8db(%rip), %xmm0 # 0x1eeba24 jb 0x1cde154 vsqrtss %xmm0, %xmm0, %xmm0 jmp 0x1cde1d8 vmovss %xmm15, 0x8(%rsp) vmovss %xmm16, 0x24(%rsp) vmovss %xmm17, 0x20(%rsp) vmovaps %xmm18, 0x250(%rsp) vmovss %xmm19, 0x1c(%rsp) vmovaps %xmm6, 0x240(%rsp) vzeroupper callq 0x6aa20 vmovaps 0x240(%rsp), %xmm6 vmovss 0x1c(%rsp), %xmm19 vmovaps 0x250(%rsp), %xmm18 vmovss 0x20(%rsp), %xmm17 vmovss 0x24(%rsp), %xmm16 vmovss 0xc(%rsp), %xmm7 vmovss 0x8(%rsp), %xmm15 vmovaps 0x1a0(%rsp), %xmm14 vmovaps 0x1c0(%rsp), %xmm11 vmovaps 0x40(%rsp), %xmm10 vbroadcastss 0x242ce3(%rip), %xmm13 # 0x1f20ec4 vmovaps 0xa0(%rsp), %xmm8 vmovaps 0x80(%rsp), %xmm9 vmovss 0x2127e1(%rip), %xmm3 # 0x1ef09dc vmovaps %xmm3, %xmm1 vmovaps 0x280(%rsp), %xmm5 vfmadd213ss %xmm5, %xmm8, %xmm1 # xmm1 = (xmm8 * xmm1) + xmm5 vmovss 0x212ddf(%rip), %xmm4 # 0x1ef0ff4 vmulss %xmm4, %xmm1, %xmm1 vmulss %xmm4, %xmm8, %xmm2 vbroadcastss %xmm2, %xmm2 vmulps 0x2a0(%rsp), %xmm2, %xmm2 vbroadcastss %xmm1, %xmm1 vfmadd132ps 0x2e0(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2 vmovaps %xmm3, %xmm2 vfmadd213ss %xmm8, %xmm5, %xmm2 # xmm2 = (xmm5 * xmm2) + xmm8 vmulss %xmm4, %xmm2, %xmm2 vbroadcastss %xmm2, %xmm2 vfmadd132ps 0x2c0(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1 vmulss %xmm4, %xmm5, %xmm1 vbroadcastss %xmm1, %xmm1 vfmadd132ps 0x300(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2 vbroadcastss 0x270(%rsp), %xmm2 vmulps %xmm2, %xmm1, %xmm2 vdpps $0x7f, %xmm1, %xmm10, %xmm1 vbroadcastss %xmm1, %xmm1 vmulps %xmm1, %xmm10, %xmm1 vsubps %xmm1, %xmm2, %xmm1 vmovss 0x30(%rsp), %xmm2 vmulss 0x260(%rsp), %xmm2, %xmm2 vmulss 0x2c(%rsp), %xmm9, %xmm3 vbroadcastss %xmm2, %xmm2 vmulps %xmm2, %xmm1, %xmm1 vxorps 0x242c0e(%rip){1to4}, %xmm10, %xmm2 # 0x1f20ec0 vmulps %xmm1, %xmm6, %xmm4 vmovaps 0xd0(%rsp), %xmm12 vdpps $0x7f, %xmm12, %xmm2, %xmm5 vmovss 0x28(%rsp), %xmm6 vmaxss %xmm3, %xmm6, %xmm1 vdivss %xmm16, %xmm6, %xmm3 vdpps $0x7f, %xmm4, %xmm11, %xmm4 vfmadd213ss %xmm1, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm7) + xmm1 vfmadd213ss %xmm7, %xmm3, %xmm15 # xmm15 = (xmm3 * xmm15) + xmm7 vmovaps 0x200(%rsp), %xmm7 vdpps $0x7f, %xmm12, %xmm7, %xmm3 vaddss %xmm4, %xmm5, %xmm4 vdpps $0x7f, %xmm2, %xmm11, %xmm5 vmulss %xmm18, %xmm19, %xmm2 vmulss %xmm18, %xmm18, %xmm6 vmulss %xmm6, %xmm2, %xmm2 vdpps $0x7f, %xmm7, %xmm11, %xmm6 vaddss %xmm2, %xmm17, %xmm7 vmovaps 0xe0(%rsp), %xmm16 vfnmadd231ss %xmm4, %xmm16, %xmm5 # xmm5 = -(xmm16 * xmm4) + xmm5 vfnmadd231ss %xmm3, %xmm16, %xmm6 # xmm6 = -(xmm16 * xmm3) + xmm6 vpermilps $0xff, 0x290(%rsp), %xmm2 # xmm2 = mem[3,3,3,3] vsubss %xmm2, %xmm0, %xmm2 vshufps $0xff, %xmm10, %xmm10, %xmm0 # xmm0 = xmm10[3,3,3,3] vfmsub213ss %xmm0, %xmm7, %xmm5 # xmm5 = (xmm7 * xmm5) - xmm0 vmulss %xmm7, %xmm6, %xmm6 vmulss %xmm5, %xmm3, %xmm7 vfmsub231ss %xmm6, %xmm4, %xmm7 # xmm7 = (xmm4 * xmm6) - xmm7 vdivss %xmm7, %xmm6, %xmm6 vdivss %xmm7, %xmm5, %xmm5 vdivss %xmm7, %xmm3, %xmm3 vdivss %xmm7, %xmm4, %xmm4 vmulss %xmm6, %xmm16, %xmm6 vmulss %xmm3, %xmm2, %xmm3 vsubss %xmm3, %xmm6, %xmm3 vmulss %xmm5, %xmm16, %xmm5 vmulss %xmm4, %xmm2, %xmm4 vsubss %xmm5, %xmm4, %xmm4 vsubss %xmm3, %xmm8, %xmm8 vsubss %xmm4, %xmm9, %xmm9 vandps %xmm13, %xmm16, %xmm3 vucomiss %xmm3, %xmm15 jbe 0x1cde502 vaddss %xmm1, %xmm15, %xmm1 vmovaps 0x220(%rsp), %xmm3 vfmadd231ss 0x213b05(%rip), %xmm3, %xmm1 # xmm1 = (xmm3 * mem) + xmm1 vandps %xmm2, %xmm13, %xmm2 vucomiss %xmm2, %xmm1 vxorps %xmm12, %xmm12, %xmm12 jbe 0x1cde50c vaddss 0x230(%rsp), %xmm9, %xmm9 vucomiss 0xc(%r15), %xmm9 movb $0x1, %r14b jb 0x1cde50f vmovss 0x20(%r15), %xmm4 vucomiss %xmm9, %xmm4 jb 0x1cde50f vucomiss 0x20d631(%rip), %xmm8 # 0x1eeba24 jb 0x1cde50f vmovss 0x20e313(%rip), %xmm1 # 0x1eec714 vucomiss %xmm8, %xmm1 jb 0x1cde50f vmovss %xmm14, %xmm12, %xmm1 vrsqrt14ss %xmm1, %xmm12, %xmm1 vmulss 0x20e2fa(%rip), %xmm1, %xmm2 # 0x1eec718 vmulss 0x20e2f6(%rip), %xmm14, %xmm3 # 0x1eec71c movq (%r13), %rax movq 0x1e8(%rax), %rax movq %r13, %rcx movq 0x38(%rsp), %rdx movq (%rax,%rdx,8), %r13 movl 0x24(%r15), %eax testl %eax, 0x34(%r13) je 0x1cde52c vmulss %xmm1, %xmm3, %xmm3 vmulss %xmm1, %xmm1, %xmm1 vmulss %xmm1, %xmm3, %xmm1 vaddss %xmm1, %xmm2, %xmm1 vbroadcastss %xmm1, %xmm1 vmulps %xmm1, %xmm11, %xmm1 vfmadd213ps %xmm10, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm0) + xmm10 vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3] vshufps $0xc9, %xmm10, %xmm10, %xmm3 # xmm3 = xmm10[1,2,0,3] vmulps %xmm3, %xmm1, %xmm1 vfmsub231ps %xmm2, %xmm10, %xmm1 # xmm1 = (xmm10 * xmm2) - xmm1 vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3] vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3] vshufps $0xd2, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,0,1,3] vmulps %xmm1, %xmm0, %xmm0 vfmsub231ps %xmm3, %xmm2, %xmm0 # xmm0 = (xmm2 * xmm3) - xmm0 movq 0x10(%rcx), %rax cmpq $0x0, 0x10(%rax) jne 0x1cde531 cmpq $0x0, 0x40(%r13) jne 0x1cde531 vmovss %xmm9, 0x20(%r15) vshufps $0xe9, %xmm0, %xmm0, %xmm1 # xmm1 = xmm0[1,2,2,3] vmovlps %xmm1, 0x30(%r15) vmovss %xmm0, 0x38(%r15) vmovss %xmm8, 0x3c(%r15) movl $0x0, 0x40(%r15) movq 0x78(%rsp), %rax movl %eax, 0x44(%r15) movq 0x38(%rsp), %rax movl %eax, 0x48(%r15) movq 0x10(%rsp), %r13 movq 0x8(%r13), %rax movl (%rax), %eax movl %eax, 0x4c(%r15) movq 0x8(%r13), %rax movl 0x4(%rax), %eax movl %eax, 0x50(%r15) jmp 0x1cde50f xorl %r14d, %r14d vxorps %xmm12, %xmm12, %xmm12 jmp 0x1cde50f xorl %r14d, %r14d subq $0x1, %r12 setb %al testb %r14b, %r14b jne 0x1cde714 testb %al, %al je 0x1cddf29 jmp 0x1cde714 movq %rcx, %r13 jmp 0x1cde50f movq 0x10(%rsp), %rdx movq 0x8(%rdx), %rax vshufps $0xe9, %xmm0, %xmm0, %xmm1 # xmm1 = xmm0[1,2,2,3] vmovlps %xmm1, 0x150(%rsp) vmovss %xmm0, 0x158(%rsp) vmovss %xmm8, 0x15c(%rsp) movl $0x0, 0x160(%rsp) movq 0x78(%rsp), %rcx movl %ecx, 0x164(%rsp) movq 0x38(%rsp), %rcx movl %ecx, 0x168(%rsp) movl (%rax), %ecx movl %ecx, 0x16c(%rsp) movl 0x4(%rax), %eax movl %eax, 0x170(%rsp) vmovss %xmm9, 0x20(%r15) movl $0xffffffff, 0x34(%rsp) # imm = 0xFFFFFFFF leaq 0x34(%rsp), %rax movq %rax, 0x100(%rsp) movq 0x18(%r13), %rax movq %rax, 0x108(%rsp) movq 0x8(%rdx), %rax movq %rax, 0x110(%rsp) movq %r15, 0x118(%rsp) leaq 0x150(%rsp), %rax movq %rax, 0x120(%rsp) movl $0x1, 0x128(%rsp) movq 0x40(%r13), %rax testq %rax, %rax vmovaps %xmm8, 0xa0(%rsp) vmovaps %xmm9, 0x80(%rsp) vmovss %xmm4, 0x40(%rsp) je 0x1cde64b leaq 0x100(%rsp), %rdi vzeroupper callq *%rax vmovss 0x40(%rsp), %xmm4 vmovaps 0x80(%rsp), %xmm9 vmovaps 0xa0(%rsp), %xmm8 vbroadcastss 0x24288f(%rip), %xmm13 # 0x1f20ec4 vxorps %xmm12, %xmm12, %xmm12 movq 0x100(%rsp), %rax cmpl $0x0, (%rax) je 0x1cde704 movq 0x10(%rsp), %rax movq 0x10(%rax), %rcx movq 0x10(%rcx), %rax testq %rax, %rax je 0x1cde6a9 testb $0x2, (%rcx) jne 0x1cde669 testb $0x40, 0x3e(%r13) je 0x1cde69c leaq 0x100(%rsp), %rdi vzeroupper callq *%rax vmovss 0x40(%rsp), %xmm4 vmovaps 0x80(%rsp), %xmm9 vmovaps 0xa0(%rsp), %xmm8 vbroadcastss 0x24282d(%rip), %xmm13 # 0x1f20ec4 vxorps %xmm12, %xmm12, %xmm12 movq 0x100(%rsp), %rax cmpl $0x0, (%rax) je 0x1cde704 movq 0x118(%rsp), %rax movq 0x120(%rsp), %rcx vmovss (%rcx), %xmm0 vmovss %xmm0, 0x30(%rax) vmovss 0x4(%rcx), %xmm0 vmovss %xmm0, 0x34(%rax) vmovss 0x8(%rcx), %xmm0 vmovss %xmm0, 0x38(%rax) vmovss 0xc(%rcx), %xmm0 vmovss %xmm0, 0x3c(%rax) vmovss 0x10(%rcx), %xmm0 vmovss %xmm0, 0x40(%rax) movl 0x14(%rcx), %edx movl %edx, 0x44(%rax) movl 0x18(%rcx), %edx movl %edx, 0x48(%rax) movl 0x1c(%rcx), %edx movl %edx, 0x4c(%rax) movl 0x20(%rcx), %ecx movl %ecx, 0x50(%rax) jmp 0x1cde70a vmovss %xmm4, 0x20(%r15) movq 0x10(%rsp), %r13 jmp 0x1cde50f vmovaps 0x3c0(%rsp), %ymm0 vcmpleps 0x20(%r15){1to8}, %ymm0, %k0 kmovd %k0, %eax andb %al, %bl jne 0x1cdde40 vmovaps 0x340(%rsp), %ymm0 vaddps 0x1e0(%rsp), %ymm0, %ymm0 vcmpleps 0x20(%r15){1to8}, %ymm0, %k0 kmovd 0x13c(%rsp), %k1 kmovd 0x134(%rsp), %k2 korb %k2, %k1, %k1 kmovd %k0, %eax movl 0x18(%rsp), %ecx andb %al, %cl vpbroadcastd 0x242766(%rip), %ymm0 # 0x1f20edc vpblendmd 0x242758(%rip){1to8}, %ymm0, %ymm0 {%k1} # 0x1f20ed8 vmovdqa %ymm0, 0x340(%rsp) vpcmpled 0x420(%rsp), %ymm0, %k0 kmovd %k0, %ebx movl %ecx, 0x18(%rsp) andb %cl, %bl je 0x1cdf11a vmovaps 0x4a0(%rsp), %ymm5 vmovaps 0x300(%rsp), %ymm1 vmovaps 0x2c0(%rsp), %ymm2 vminps %xmm2, %xmm1, %xmm0 vmaxps %xmm2, %xmm1, %xmm1 vmovaps 0x2e0(%rsp), %ymm3 vmovaps 0x2a0(%rsp), %ymm4 vminps %xmm4, %xmm3, %xmm2 vminps %xmm2, %xmm0, %xmm0 vmaxps %xmm4, %xmm3, %xmm2 vmaxps %xmm2, %xmm1, %xmm1 vandps %xmm0, %xmm13, %xmm0 vandps %xmm1, %xmm13, %xmm2 vmaxps %xmm2, %xmm0, %xmm0 vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3] vmaxss %xmm0, %xmm2, %xmm2 vshufpd $0x1, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[1,0] vmaxss %xmm2, %xmm0, %xmm0 vmulss 0x2136a8(%rip), %xmm0, %xmm0 # 0x1ef1eb4 vmovss %xmm0, 0x28(%rsp) vshufps $0xff, %xmm1, %xmm1, %xmm0 # xmm0 = xmm1[3,3,3,3] vmovaps %xmm0, 0x220(%rsp) vmovaps %ymm5, 0x320(%rsp) vaddps 0x1e0(%rsp), %ymm5, %ymm0 vmovaps %ymm0, 0x3c0(%rsp) kmovd %ebx, %k1 vbroadcastss 0x20d1d8(%rip), %ymm0 # 0x1eeba20 vblendmps 0x320(%rsp), %ymm0, %ymm0 {%k1} vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm0, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1] vminps %ymm2, %ymm1, %ymm1 vcmpeqps %ymm1, %ymm0, %k0 kmovd %k0, %eax andb %bl, %al movzbl %al, %eax movzbl %bl, %ecx cmovnel %eax, %ecx tzcntl %ecx, %ecx movb $0x1, %bl shlb %cl, %bl shll $0x2, %ecx vmovss 0x3e0(%rsp,%rcx), %xmm9 vmovss 0x4c0(%rsp,%rcx), %xmm10 vmovaps 0x10(%r15), %xmm0 vmovaps %xmm0, 0x200(%rsp) vdpps $0x7f, %xmm0, %xmm0, %xmm0 vucomiss 0x20d168(%rip), %xmm0 # 0x1eeba24 jb 0x1cde8c4 vsqrtss %xmm0, %xmm0, %xmm0 jmp 0x1cde901 vmovaps %xmm9, 0xa0(%rsp) vmovaps %xmm10, 0x80(%rsp) kmovw %k1, 0x40(%rsp) vzeroupper callq 0x6aa20 kmovw 0x40(%rsp), %k1 vmovaps 0x80(%rsp), %xmm10 vmovaps 0xa0(%rsp), %xmm9 vxorps %xmm12, %xmm12, %xmm12 movzbl %bl, %eax kmovd %eax, %k0 kandnb %k1, %k0, %k0 kmovd %k0, %ebx vmulss 0x21359c(%rip), %xmm0, %xmm0 # 0x1ef1eb4 vmovss %xmm0, 0x2c(%rsp) movl $0x4, %r12d vbroadcastss %xmm10, %xmm0 vfmadd132ps 0x200(%rsp), %xmm12, %xmm0 # xmm0 = (xmm0 * mem) + xmm12 vmovss 0x20ddd9(%rip), %xmm1 # 0x1eec714 vsubss %xmm9, %xmm1, %xmm3 vbroadcastss %xmm9, %xmm1 vmovaps 0x2c0(%rsp), %ymm5 vmulps %xmm1, %xmm5, %xmm2 vmovaps %xmm3, 0x280(%rsp) vbroadcastss %xmm3, %xmm3 vfmadd231ps 0x300(%rsp), %xmm3, %xmm2 # xmm2 = (xmm3 * mem) + xmm2 vmovaps 0x2e0(%rsp), %ymm6 vmulps %xmm1, %xmm6, %xmm4 vfmadd231ps %xmm5, %xmm3, %xmm4 # xmm4 = (xmm3 * xmm5) + xmm4 vmulps 0x2a0(%rsp), %xmm1, %xmm5 vfmadd231ps %xmm6, %xmm3, %xmm5 # xmm5 = (xmm3 * xmm6) + xmm5 vmulps %xmm4, %xmm1, %xmm6 vfmadd231ps %xmm2, %xmm3, %xmm6 # xmm6 = (xmm3 * xmm2) + xmm6 vmulps %xmm5, %xmm1, %xmm2 vfmadd231ps %xmm4, %xmm3, %xmm2 # xmm2 = (xmm3 * xmm4) + xmm2 vmulps %xmm2, %xmm1, %xmm4 vfmadd231ps %xmm3, %xmm6, %xmm4 # xmm4 = (xmm6 * xmm3) + xmm4 vsubps %xmm6, %xmm2, %xmm1 vmulps 0x212639(%rip){1to4}, %xmm1, %xmm11 # 0x1ef0fec vmovaps %xmm4, 0x290(%rsp) vsubps %xmm4, %xmm0, %xmm0 vmovaps %xmm0, 0x1c0(%rsp) vdpps $0x7f, %xmm0, %xmm0, %xmm0 vucomiss 0x20d04d(%rip), %xmm0 # 0x1eeba24 vmovaps %xmm11, 0x40(%rsp) vmovaps %xmm0, 0x1a0(%rsp) vmovaps %xmm9, 0xa0(%rsp) vmovaps %xmm10, 0x80(%rsp) jb 0x1cdea00 vsqrtss %xmm0, %xmm0, %xmm7 jmp 0x1cdea17 vzeroupper callq 0x6aa20 vmovaps 0x40(%rsp), %xmm11 vxorps %xmm12, %xmm12, %xmm12 vmovaps %xmm0, %xmm7 vdpps $0x7f, %xmm11, %xmm11, %xmm0 vmovss %xmm0, %xmm12, %xmm1 # xmm1 = xmm0[0],xmm12[1,2,3] vrsqrt14ss %xmm1, %xmm12, %xmm3 vmulss 0x20dce9(%rip), %xmm3, %xmm4 # 0x1eec718 vmulss 0x20dce5(%rip), %xmm0, %xmm5 # 0x1eec71c vrcp14ss %xmm1, %xmm12, %xmm2 vxorps 0x242479(%rip){1to4}, %xmm0, %xmm1 # 0x1f20ec0 vmovaps %xmm2, 0x260(%rsp) vfnmadd213ss 0x21259f(%rip), %xmm0, %xmm2 # xmm2 = -(xmm0 * xmm2) + mem vmovss %xmm2, 0x30(%rsp) vucomiss %xmm1, %xmm0 vmovss %xmm7, 0xc(%rsp) vmovaps %xmm0, 0x270(%rsp) jb 0x1cdea7c vsqrtss %xmm0, %xmm0, %xmm16 jmp 0x1cdeacb vmovaps %xmm3, 0xe0(%rsp) vmovss %xmm4, 0xd0(%rsp) vmovss %xmm5, 0x8(%rsp) vzeroupper callq 0x6aa20 vmovss 0x8(%rsp), %xmm5 vmovss 0xd0(%rsp), %xmm4 vmovaps 0xe0(%rsp), %xmm3 vmovss 0xc(%rsp), %xmm7 vmovaps 0x40(%rsp), %xmm11 vxorps %xmm12, %xmm12, %xmm12 vmovaps %xmm0, %xmm16 vmovaps 0x1c0(%rsp), %xmm13 vmovaps 0x1a0(%rsp), %xmm14 vmulss %xmm3, %xmm5, %xmm0 vmulss %xmm3, %xmm3, %xmm1 vmulss %xmm1, %xmm0, %xmm0 vaddss %xmm0, %xmm4, %xmm0 vbroadcastss %xmm0, %xmm6 vmulps %xmm6, %xmm11, %xmm0 vmovaps %xmm0, 0xd0(%rsp) vdpps $0x7f, %xmm0, %xmm13, %xmm0 vaddss 0x20dc07(%rip), %xmm7, %xmm15 # 0x1eec714 vmovaps %xmm0, 0xe0(%rsp) vmulps %xmm0, %xmm0, %xmm0 vsubps %xmm0, %xmm14, %xmm0 vmovss %xmm0, %xmm12, %xmm1 # xmm1 = xmm0[0],xmm12[1,2,3] vrsqrt14ss %xmm1, %xmm12, %xmm18 vmulss 0x20dbe6(%rip), %xmm18, %xmm17 # 0x1eec718 vmulss 0x20dbe0(%rip), %xmm0, %xmm19 # 0x1eec71c vucomiss 0x20cee0(%rip), %xmm0 # 0x1eeba24 jb 0x1cdeb4f vsqrtss %xmm0, %xmm0, %xmm0 jmp 0x1cdebd3 vmovss %xmm15, 0x8(%rsp) vmovss %xmm16, 0x24(%rsp) vmovss %xmm17, 0x20(%rsp) vmovaps %xmm18, 0x250(%rsp) vmovss %xmm19, 0x1c(%rsp) vmovaps %xmm6, 0x240(%rsp) vzeroupper callq 0x6aa20 vmovaps 0x240(%rsp), %xmm6 vmovss 0x1c(%rsp), %xmm19 vmovaps 0x250(%rsp), %xmm18 vmovss 0x20(%rsp), %xmm17 vmovss 0x24(%rsp), %xmm16 vmovss 0xc(%rsp), %xmm7 vmovss 0x8(%rsp), %xmm15 vmovaps 0x1a0(%rsp), %xmm14 vmovaps 0x1c0(%rsp), %xmm13 vmovaps 0x40(%rsp), %xmm11 vbroadcastss 0x2422e8(%rip), %xmm8 # 0x1f20ec4 vmovaps 0xa0(%rsp), %xmm9 vmovaps 0x80(%rsp), %xmm10 vmovss 0x211de6(%rip), %xmm3 # 0x1ef09dc vmovaps %xmm3, %xmm1 vmovaps 0x280(%rsp), %xmm5 vfmadd213ss %xmm5, %xmm9, %xmm1 # xmm1 = (xmm9 * xmm1) + xmm5 vmovss 0x2123e4(%rip), %xmm4 # 0x1ef0ff4 vmulss %xmm4, %xmm1, %xmm1 vmulss %xmm4, %xmm9, %xmm2 vbroadcastss %xmm2, %xmm2 vmulps 0x2a0(%rsp), %xmm2, %xmm2 vbroadcastss %xmm1, %xmm1 vfmadd132ps 0x2e0(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2 vmovaps %xmm3, %xmm2 vfmadd213ss %xmm9, %xmm5, %xmm2 # xmm2 = (xmm5 * xmm2) + xmm9 vmulss %xmm4, %xmm2, %xmm2 vbroadcastss %xmm2, %xmm2 vfmadd132ps 0x2c0(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1 vmulss %xmm4, %xmm5, %xmm1 vbroadcastss %xmm1, %xmm1 vfmadd132ps 0x300(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2 vbroadcastss 0x270(%rsp), %xmm2 vmulps %xmm2, %xmm1, %xmm2 vdpps $0x7f, %xmm1, %xmm11, %xmm1 vbroadcastss %xmm1, %xmm1 vmulps %xmm1, %xmm11, %xmm1 vsubps %xmm1, %xmm2, %xmm1 vmovss 0x30(%rsp), %xmm2 vmulss 0x260(%rsp), %xmm2, %xmm2 vmulss 0x2c(%rsp), %xmm10, %xmm3 vbroadcastss %xmm2, %xmm2 vmulps %xmm2, %xmm1, %xmm1 vxorps 0x242213(%rip){1to4}, %xmm11, %xmm2 # 0x1f20ec0 vmulps %xmm1, %xmm6, %xmm4 vmovaps 0xd0(%rsp), %xmm12 vdpps $0x7f, %xmm12, %xmm2, %xmm5 vmovss 0x28(%rsp), %xmm6 vmaxss %xmm3, %xmm6, %xmm1 vdivss %xmm16, %xmm6, %xmm3 vdpps $0x7f, %xmm4, %xmm13, %xmm4 vfmadd213ss %xmm1, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm7) + xmm1 vfmadd213ss %xmm7, %xmm3, %xmm15 # xmm15 = (xmm3 * xmm15) + xmm7 vmovaps 0x200(%rsp), %xmm7 vdpps $0x7f, %xmm12, %xmm7, %xmm3 vaddss %xmm4, %xmm5, %xmm4 vdpps $0x7f, %xmm2, %xmm13, %xmm5 vmulss %xmm18, %xmm19, %xmm2 vmulss %xmm18, %xmm18, %xmm6 vmulss %xmm6, %xmm2, %xmm2 vdpps $0x7f, %xmm7, %xmm13, %xmm6 vaddss %xmm2, %xmm17, %xmm7 vmovaps 0xe0(%rsp), %xmm16 vfnmadd231ss %xmm4, %xmm16, %xmm5 # xmm5 = -(xmm16 * xmm4) + xmm5 vfnmadd231ss %xmm3, %xmm16, %xmm6 # xmm6 = -(xmm16 * xmm3) + xmm6 vpermilps $0xff, 0x290(%rsp), %xmm2 # xmm2 = mem[3,3,3,3] vsubss %xmm2, %xmm0, %xmm2 vshufps $0xff, %xmm11, %xmm11, %xmm0 # xmm0 = xmm11[3,3,3,3] vfmsub213ss %xmm0, %xmm7, %xmm5 # xmm5 = (xmm7 * xmm5) - xmm0 vmulss %xmm7, %xmm6, %xmm6 vmulss %xmm5, %xmm3, %xmm7 vfmsub231ss %xmm6, %xmm4, %xmm7 # xmm7 = (xmm4 * xmm6) - xmm7 vdivss %xmm7, %xmm6, %xmm6 vdivss %xmm7, %xmm5, %xmm5 vdivss %xmm7, %xmm3, %xmm3 vdivss %xmm7, %xmm4, %xmm4 vmulss %xmm6, %xmm16, %xmm6 vmulss %xmm3, %xmm2, %xmm3 vsubss %xmm3, %xmm6, %xmm3 vmulss %xmm5, %xmm16, %xmm5 vmulss %xmm4, %xmm2, %xmm4 vsubss %xmm5, %xmm4, %xmm4 vsubss %xmm3, %xmm9, %xmm9 vsubss %xmm4, %xmm10, %xmm10 vandps %xmm8, %xmm16, %xmm3 vucomiss %xmm3, %xmm15 jbe 0x1cdeefd vaddss %xmm1, %xmm15, %xmm1 vmovaps 0x220(%rsp), %xmm3 vfmadd231ss 0x21310a(%rip), %xmm3, %xmm1 # xmm1 = (xmm3 * mem) + xmm1 vandps %xmm2, %xmm8, %xmm2 vucomiss %xmm2, %xmm1 vxorps %xmm12, %xmm12, %xmm12 jbe 0x1cdef07 vaddss 0x230(%rsp), %xmm10, %xmm10 vucomiss 0xc(%r15), %xmm10 movb $0x1, %r14b jb 0x1cdef0a vmovss 0x20(%r15), %xmm4 vucomiss %xmm10, %xmm4 jb 0x1cdef0a vucomiss 0x20cc36(%rip), %xmm9 # 0x1eeba24 jb 0x1cdef0a vmovss 0x20d918(%rip), %xmm1 # 0x1eec714 vucomiss %xmm9, %xmm1 jb 0x1cdef0a vmovss %xmm14, %xmm12, %xmm1 vrsqrt14ss %xmm1, %xmm12, %xmm1 vmulss 0x20d8ff(%rip), %xmm1, %xmm2 # 0x1eec718 vmulss 0x20d8fb(%rip), %xmm14, %xmm3 # 0x1eec71c movq (%r13), %rax movq 0x1e8(%rax), %rax movq %r13, %rcx movq 0x38(%rsp), %rdx movq (%rax,%rdx,8), %r13 movl 0x24(%r15), %eax testl %eax, 0x34(%r13) je 0x1cdef27 vmulss %xmm1, %xmm3, %xmm3 vmulss %xmm1, %xmm1, %xmm1 vmulss %xmm1, %xmm3, %xmm1 vaddss %xmm1, %xmm2, %xmm1 vbroadcastss %xmm1, %xmm1 vmulps %xmm1, %xmm13, %xmm1 vfmadd213ps %xmm11, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm0) + xmm11 vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3] vshufps $0xc9, %xmm11, %xmm11, %xmm3 # xmm3 = xmm11[1,2,0,3] vmulps %xmm3, %xmm1, %xmm1 vfmsub231ps %xmm2, %xmm11, %xmm1 # xmm1 = (xmm11 * xmm2) - xmm1 vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3] vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3] vshufps $0xd2, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,0,1,3] vmulps %xmm1, %xmm0, %xmm0 vfmsub231ps %xmm3, %xmm2, %xmm0 # xmm0 = (xmm2 * xmm3) - xmm0 movq 0x10(%rcx), %rax cmpq $0x0, 0x10(%rax) jne 0x1cdef2c cmpq $0x0, 0x40(%r13) jne 0x1cdef2c vmovss %xmm10, 0x20(%r15) vshufps $0xe9, %xmm0, %xmm0, %xmm1 # xmm1 = xmm0[1,2,2,3] vmovlps %xmm1, 0x30(%r15) vmovss %xmm0, 0x38(%r15) vmovss %xmm9, 0x3c(%r15) movl $0x0, 0x40(%r15) movq 0x78(%rsp), %rax movl %eax, 0x44(%r15) movq 0x38(%rsp), %rax movl %eax, 0x48(%r15) movq 0x10(%rsp), %r13 movq 0x8(%r13), %rax movl (%rax), %eax movl %eax, 0x4c(%r15) movq 0x8(%r13), %rax movl 0x4(%rax), %eax movl %eax, 0x50(%r15) jmp 0x1cdef0a xorl %r14d, %r14d vxorps %xmm12, %xmm12, %xmm12 jmp 0x1cdef0a xorl %r14d, %r14d subq $0x1, %r12 setb %al testb %r14b, %r14b jne 0x1cdf0fd testb %al, %al je 0x1cde924 jmp 0x1cdf0fd movq %rcx, %r13 jmp 0x1cdef0a movq 0x10(%rsp), %rdx movq 0x8(%rdx), %rax vshufps $0xe9, %xmm0, %xmm0, %xmm1 # xmm1 = xmm0[1,2,2,3] vmovlps %xmm1, 0x150(%rsp) vmovss %xmm0, 0x158(%rsp) vmovss %xmm9, 0x15c(%rsp) movl $0x0, 0x160(%rsp) movq 0x78(%rsp), %rcx movl %ecx, 0x164(%rsp) movq 0x38(%rsp), %rcx movl %ecx, 0x168(%rsp) movl (%rax), %ecx movl %ecx, 0x16c(%rsp) movl 0x4(%rax), %eax movl %eax, 0x170(%rsp) vmovss %xmm10, 0x20(%r15) movl $0xffffffff, 0x34(%rsp) # imm = 0xFFFFFFFF leaq 0x34(%rsp), %rax movq %rax, 0x100(%rsp) movq 0x18(%r13), %rax movq %rax, 0x108(%rsp) movq 0x8(%rdx), %rax movq %rax, 0x110(%rsp) movq %r15, 0x118(%rsp) leaq 0x150(%rsp), %rax movq %rax, 0x120(%rsp) movl $0x1, 0x128(%rsp) movq 0x40(%r13), %rax testq %rax, %rax vmovaps %xmm9, 0xa0(%rsp) vmovaps %xmm10, 0x80(%rsp) vmovss %xmm4, 0x40(%rsp) je 0x1cdf03d leaq 0x100(%rsp), %rdi vzeroupper callq *%rax vmovss 0x40(%rsp), %xmm4 vmovaps 0x80(%rsp), %xmm10 vmovaps 0xa0(%rsp), %xmm9 vxorps %xmm12, %xmm12, %xmm12 movq 0x100(%rsp), %rax cmpl $0x0, (%rax) je 0x1cdf0ed movq 0x10(%rsp), %rax movq 0x10(%rax), %rcx movq 0x10(%rcx), %rax testq %rax, %rax je 0x1cdf092 testb $0x2, (%rcx) jne 0x1cdf05b testb $0x40, 0x3e(%r13) je 0x1cdf085 leaq 0x100(%rsp), %rdi vzeroupper callq *%rax vmovss 0x40(%rsp), %xmm4 vmovaps 0x80(%rsp), %xmm10 vmovaps 0xa0(%rsp), %xmm9 vxorps %xmm12, %xmm12, %xmm12 movq 0x100(%rsp), %rax cmpl $0x0, (%rax) je 0x1cdf0ed movq 0x118(%rsp), %rax movq 0x120(%rsp), %rcx vmovss (%rcx), %xmm0 vmovss %xmm0, 0x30(%rax) vmovss 0x4(%rcx), %xmm0 vmovss %xmm0, 0x34(%rax) vmovss 0x8(%rcx), %xmm0 vmovss %xmm0, 0x38(%rax) vmovss 0xc(%rcx), %xmm0 vmovss %xmm0, 0x3c(%rax) vmovss 0x10(%rcx), %xmm0 vmovss %xmm0, 0x40(%rax) movl 0x14(%rcx), %edx movl %edx, 0x44(%rax) movl 0x18(%rcx), %edx movl %edx, 0x48(%rax) movl 0x1c(%rcx), %edx movl %edx, 0x4c(%rax) movl 0x20(%rcx), %ecx movl %ecx, 0x50(%rax) jmp 0x1cdf0f3 vmovss %xmm4, 0x20(%r15) movq 0x10(%rsp), %r13 jmp 0x1cdef0a vmovaps 0x3c0(%rsp), %ymm0 vcmpleps 0x20(%r15){1to8}, %ymm0, %k0 kmovd %k0, %eax andb %al, %bl jne 0x1cde83b vmovdqa 0x420(%rsp), %ymm1 vpcmpltd 0x340(%rsp), %ymm1, %k1 vmovaps 0x460(%rsp), %ymm0 vpcmpltd 0x4e0(%rsp), %ymm1, %k2 vmovaps 0x1e0(%rsp), %ymm7 vaddps %ymm0, %ymm7, %ymm1 vbroadcastss 0x20(%r15), %ymm2 vcmpleps %ymm2, %ymm1, %k0 {%k2} kmovd %k0, %eax movl 0x138(%rsp), %ecx andb %al, %cl vmovaps 0x4a0(%rsp), %ymm1 vaddps %ymm1, %ymm7, %ymm3 vcmpleps %ymm2, %ymm3, %k0 {%k1} kmovd %k0, %eax movl 0x18(%rsp), %edx andb %al, %dl orb %cl, %dl je 0x1cdf20b movq 0xf8(%rsp), %r8 movl %r8d, %eax leaq (%rax,%rax,2), %rax shlq $0x5, %rax movb %dl, 0x740(%rsp,%rax) kmovd %ecx, %k1 vmovaps %ymm0, %ymm1 {%k1} vmovaps %ymm1, 0x760(%rsp,%rax) vmovaps 0x140(%rsp), %xmm3 vmovlps %xmm3, 0x780(%rsp,%rax) movq 0x190(%rsp), %r11 leal 0x1(%r11), %ecx movl %ecx, 0x788(%rsp,%rax) incl %r8d movq 0x188(%rsp), %r9 movq 0x198(%rsp), %r10 jmp 0x1cddb4b vmovaps 0x1e0(%rsp), %ymm7 movq 0xf8(%rsp), %r8 jmp 0x1cddb42 movq 0x188(%rsp), %r9 movq 0x198(%rsp), %r10 movq 0xf8(%rsp), %r8 movq 0x190(%rsp), %r11 jmp 0x1cddb42 vcmpleps 0x241cc5(%rip), %ymm23, %k2 # 0x1f20f00 vbroadcastss 0x20d940(%rip), %ymm1 # 0x1eecb84 vbroadcastss 0x20c7d2(%rip), %ymm23 # 0x1eeba20 vblendmps %ymm1, %ymm23, %ymm0 {%k2} vmovaps %ymm0, %ymm31 {%k1} vblendmps %ymm23, %ymm1, %ymm0 {%k2} kmovd %k2, %ecx vmovaps %ymm0, %ymm30 {%k1} knotb %k1, %k0 kmovd %k0, %edx orb %cl, %dl andb %al, %dl movl %edx, %eax jmp 0x1cdd6f1 vmovaps 0x500(%rsp), %ymm0 vcmpleps 0x20(%r15){1to8}, %ymm0, %k0 kmovb %k0, %eax andl %eax, %r10d jne 0x1cdceb6 leaq -0x28(%rbp), %rsp popq %rbx popq %r12 popq %r13 popq %r14 popq %r15 popq %rbp vzeroupper retq nop
/embree[P]embree/kernels/geometry/curveNi_intersector.h
bool embree::avx512::CurveNiIntersector1<8>::occluded_t<embree::avx512::SweepCurve1Intersector1<embree::BezierCurveT>, embree::avx512::Occluded1Epilog1<true>>(embree::avx512::CurvePrecalculations1 const&, embree::RayK<1>&, embree::RayQueryContext*, embree::CurveNi<8> const&)
static __forceinline bool occluded_t(const Precalculations& pre, Ray& ray, RayQueryContext* context, const Primitive& prim) { vfloat<M> tNear; vbool<M> valid = intersect(ray,prim,tNear); const size_t N = prim.N; size_t mask = movemask(valid); while (mask) { const size_t i = bscf(mask); STAT3(shadow.trav_prims,1,1,1); const unsigned int geomID = prim.geomID(N); const unsigned int primID = prim.primID(N)[i]; const CurveGeometry* geom = context->scene->get<CurveGeometry>(geomID); Vec3ff a0,a1,a2,a3; geom->gather(a0,a1,a2,a3,geom->curve(primID)); size_t mask1 = mask; const size_t i1 = bscf(mask1); if (mask) { const unsigned int primID1 = prim.primID(N)[i1]; geom->prefetchL1_vertices(geom->curve(primID1)); if (mask1) { const size_t i2 = bsf(mask1); const unsigned int primID2 = prim.primID(N)[i2]; geom->prefetchL2_vertices(geom->curve(primID2)); } } if (Intersector().intersect(pre,ray,context,geom,primID,a0,a1,a2,a3,Epilog(ray,context,geomID,primID))) return true; mask &= movemask(tNear <= vfloat<M>(ray.tfar)); } return false; }
pushq %rbp movq %rsp, %rbp pushq %r15 pushq %r14 pushq %r13 pushq %r12 pushq %rbx andq $-0x20, %rsp subq $0x8a0, %rsp # imm = 0x8A0 movq %rcx, %r9 movq %rsi, %r15 movzbl 0x1(%rcx), %eax leaq (%rax,%rax,4), %rcx leaq (%rcx,%rcx,4), %rsi vbroadcastss 0x12(%r9,%rsi), %xmm0 vmovaps (%r15), %xmm1 vsubps 0x6(%r9,%rsi), %xmm1, %xmm1 vmulps 0x10(%r15), %xmm0, %xmm2 vmulps %xmm1, %xmm0, %xmm3 vpmovsxbd 0x6(%r9,%rax,4), %ymm0 vcvtdq2ps %ymm0, %ymm5 vpmovsxbd 0x6(%r9,%rcx), %ymm0 vcvtdq2ps %ymm0, %ymm6 leaq (%rax,%rax,2), %r8 vpmovsxbd 0x6(%r9,%r8,2), %ymm0 vcvtdq2ps %ymm0, %ymm7 leaq (%rax,%rcx,2), %rsi vpmovsxbd 0x6(%r9,%rsi), %ymm0 vcvtdq2ps %ymm0, %ymm8 leal (,%r8,4), %esi vpmovsxbd 0x6(%r9,%rsi), %ymm0 vcvtdq2ps %ymm0, %ymm9 addq %rax, %rsi vpmovsxbd 0x6(%r9,%rsi), %ymm0 vcvtdq2ps %ymm0, %ymm10 leaq (%rax,%rax,8), %rsi leal (%rsi,%rsi), %edi vpmovsxbd 0x6(%r9,%rdi), %ymm0 addq %rax, %rdi vpmovsxbd 0x6(%r9,%rdi), %ymm1 vcvtdq2ps %ymm0, %ymm11 vcvtdq2ps %ymm1, %ymm12 shll $0x2, %ecx vpmovsxbd 0x6(%r9,%rcx), %ymm0 vcvtdq2ps %ymm0, %ymm13 vbroadcastss %xmm2, %ymm14 vbroadcastss 0x23337d(%rip), %ymm16 # 0x1f12704 vpermps %ymm2, %ymm16, %ymm15 vbroadcastss 0x241b45(%rip), %ymm17 # 0x1f20edc vpermps %ymm2, %ymm17, %ymm0 vmulps %ymm7, %ymm0, %ymm4 vmulps %ymm0, %ymm10, %ymm1 vmulps %ymm0, %ymm13, %ymm0 vfmadd231ps %ymm6, %ymm15, %ymm4 # ymm4 = (ymm15 * ymm6) + ymm4 vfmadd231ps %ymm9, %ymm15, %ymm1 # ymm1 = (ymm15 * ymm9) + ymm1 vfmadd231ps %ymm15, %ymm12, %ymm0 # ymm0 = (ymm12 * ymm15) + ymm0 vfmadd231ps %ymm5, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm5) + ymm4 vfmadd231ps %ymm8, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm8) + ymm1 vfmadd231ps %ymm14, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm14) + ymm0 vbroadcastss %xmm3, %ymm14 vpermps %ymm3, %ymm16, %ymm15 vpermps %ymm3, %ymm17, %ymm2 vmulps %ymm7, %ymm2, %ymm7 vmulps %ymm2, %ymm10, %ymm3 vmulps %ymm2, %ymm13, %ymm2 vfmadd231ps %ymm6, %ymm15, %ymm7 # ymm7 = (ymm15 * ymm6) + ymm7 vfmadd231ps %ymm9, %ymm15, %ymm3 # ymm3 = (ymm15 * ymm9) + ymm3 vfmadd231ps %ymm12, %ymm15, %ymm2 # ymm2 = (ymm15 * ymm12) + ymm2 vfmadd231ps %ymm5, %ymm14, %ymm7 # ymm7 = (ymm14 * ymm5) + ymm7 vfmadd231ps %ymm8, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm8) + ymm3 vfmadd231ps %ymm11, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm11) + ymm2 vbroadcastss 0x241ab8(%rip), %ymm28 # 0x1f20ec4 vandps %ymm28, %ymm4, %ymm5 vbroadcastss 0x211bcd(%rip), %ymm6 # 0x1ef0fe8 vcmpltps %ymm6, %ymm5, %k1 vmovaps %ymm6, %ymm4 {%k1} vandps %ymm28, %ymm1, %ymm5 vcmpltps %ymm6, %ymm5, %k1 vmovaps %ymm6, %ymm1 {%k1} vandps %ymm28, %ymm0, %ymm5 vcmpltps %ymm6, %ymm5, %k1 vmovaps %ymm6, %ymm0 {%k1} vrcp14ps %ymm4, %ymm5 vbroadcastss 0x20d2b7(%rip), %ymm6 # 0x1eec714 vfnmadd213ps %ymm6, %ymm5, %ymm4 # ymm4 = -(ymm5 * ymm4) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm4 # ymm4 = (ymm4 * ymm5) + ymm5 vrcp14ps %ymm1, %ymm5 vfnmadd213ps %ymm6, %ymm5, %ymm1 # ymm1 = -(ymm5 * ymm1) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm1 # ymm1 = (ymm1 * ymm5) + ymm5 vrcp14ps %ymm0, %ymm5 vfnmadd213ps %ymm6, %ymm5, %ymm0 # ymm0 = -(ymm5 * ymm0) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm0 # ymm0 = (ymm0 * ymm5) + ymm5 leaq (,%rax,8), %rdi subq %rax, %rdi vpmovsxwd 0x6(%r9,%rdi), %ymm5 vcvtdq2ps %ymm5, %ymm5 vsubps %ymm7, %ymm5, %ymm5 vpmovsxwd 0x6(%r9,%rsi), %ymm6 vmulps %ymm5, %ymm4, %ymm5 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm7, %ymm6, %ymm6 vmulps %ymm6, %ymm4, %ymm4 leaq (%rax,%rax), %rsi addq %rax, %rcx shlq $0x3, %r8 subq %rax, %r8 movl %eax, %edi shll $0x4, %edi vpmovsxwd 0x6(%r9,%rdi), %ymm6 subq %rsi, %rdi vpmovsxwd 0x6(%r9,%rdi), %ymm7 vcvtdq2ps %ymm7, %ymm7 vsubps %ymm3, %ymm7, %ymm7 vmulps %ymm7, %ymm1, %ymm7 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm3, %ymm6, %ymm3 vmulps %ymm3, %ymm1, %ymm1 vpmovsxwd 0x6(%r9,%rcx), %ymm3 vcvtdq2ps %ymm3, %ymm3 vsubps %ymm2, %ymm3, %ymm3 vmulps %ymm0, %ymm3, %ymm3 vpmovsxwd 0x6(%r9,%r8), %ymm6 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm2, %ymm6, %ymm2 vmulps %ymm2, %ymm0, %ymm0 vpminsd %ymm4, %ymm5, %ymm2 vpminsd %ymm1, %ymm7, %ymm6 vmaxps %ymm6, %ymm2, %ymm2 vpminsd %ymm0, %ymm3, %ymm6 vmaxps 0xc(%r15){1to8}, %ymm6, %ymm6 vmaxps %ymm6, %ymm2, %ymm2 vmulps 0x2409ce(%rip){1to8}, %ymm2, %ymm6 # 0x1f1ff10 vpmaxsd %ymm4, %ymm5, %ymm2 vpmaxsd %ymm1, %ymm7, %ymm1 vminps %ymm1, %ymm2, %ymm1 vpmaxsd %ymm0, %ymm3, %ymm0 vminps 0x20(%r15){1to8}, %ymm0, %ymm0 vminps %ymm0, %ymm1, %ymm0 vmulps 0x2409aa(%rip){1to8}, %ymm0, %ymm0 # 0x1f1ff14 vpbroadcastd %eax, %ymm1 vpcmpgtd 0x27b3a6(%rip), %ymm1, %k0 # 0x1f5a920 vmovaps %ymm6, 0x6e0(%rsp) vcmpleps %ymm0, %ymm6, %k1 ktestb %k0, %k1 setne %al je 0x1ce1c3c kandb %k0, %k1, %k0 kmovd %k0, %ecx movzbl %cl, %r14d movq %r9, 0x308(%rsp) movq %rdx, 0x8(%rsp) tzcntq %r14, %rcx movl 0x2(%r9), %esi movl 0x6(%r9,%rcx,4), %r12d movq (%rdx), %rcx movq 0x1e8(%rcx), %rcx movq %rsi, 0x38(%rsp) movq (%rcx,%rsi,8), %rsi movq 0x58(%rsi), %r11 movq 0x68(%rsi), %rcx movq %rcx, %rdi imulq %r12, %rdi movl (%r11,%rdi), %edi movq 0xa0(%rsi), %r10 movq %r10, %r8 imulq %rdi, %r8 movq 0x90(%rsi), %rsi vmovaps (%rsi,%r8), %xmm1 leaq 0x1(%rdi), %r8 imulq %r10, %r8 vmovaps (%rsi,%r8), %xmm0 leaq 0x2(%rdi), %r8 imulq %r10, %r8 vmovaps (%rsi,%r8), %xmm3 blsrq %r14, %r14 addq $0x3, %rdi imulq %r10, %rdi vmovaps (%rsi,%rdi), %xmm2 movq %r14, %rdi subq $0x1, %rdi jb 0x1cdf680 andq %r14, %rdi tzcntq %r14, %r8 movl 0x6(%r9,%r8,4), %r8d imulq %rcx, %r8 movl (%r11,%r8), %r8d imulq %r10, %r8 prefetcht0 (%rsi,%r8) prefetcht0 0x40(%rsi,%r8) testq %rdi, %rdi je 0x1cdf680 tzcntq %rdi, %rdi movl 0x6(%r9,%rdi,4), %edi imulq %rdi, %rcx movl (%r11,%rcx), %ecx imulq %rcx, %r10 prefetcht1 (%rsi,%r10) prefetcht1 0x40(%rsi,%r10) vaddps %xmm0, %xmm1, %xmm4 vaddps %xmm3, %xmm4, %xmm4 vaddps %xmm2, %xmm4, %xmm5 vmovaps (%r15), %xmm6 vmovaps 0x10(%r15), %xmm4 vmulps 0x23dc5b(%rip){1to4}, %xmm5, %xmm5 # 0x1f1d2fc vsubps %xmm6, %xmm5, %xmm5 vdpps $0x7f, %xmm4, %xmm5, %xmm5 vdpps $0x7f, %xmm4, %xmm4, %xmm7 vxorps %xmm10, %xmm10, %xmm10 vmovss %xmm7, %xmm10, %xmm8 # xmm8 = xmm7[0],xmm10[1,2,3] vrcp14ss %xmm8, %xmm10, %xmm8 vmovaps %xmm8, %xmm9 vfnmadd213ss 0x21192a(%rip), %xmm7, %xmm9 # xmm9 = -(xmm7 * xmm9) + mem vmulss %xmm9, %xmm8, %xmm7 vmulss %xmm7, %xmm5, %xmm5 vmovaps %xmm5, 0x3f0(%rsp) vbroadcastss %xmm5, %ymm5 vmovaps %ymm5, 0x320(%rsp) vfmadd231ps %xmm5, %xmm4, %xmm6 # xmm6 = (xmm4 * xmm5) + xmm6 vblendps $0x8, %xmm10, %xmm6, %xmm5 # xmm5 = xmm6[0,1,2],xmm10[3] vsubps %xmm5, %xmm1, %xmm6 vsubps %xmm5, %xmm3, %xmm3 vbroadcastss 0x10(%r15), %ymm8 vbroadcastss 0x14(%r15), %ymm13 vbroadcastss 0x18(%r15), %ymm1 vmovaps %ymm1, 0x620(%rsp) vsubps %xmm5, %xmm0, %xmm7 vsubps %xmm5, %xmm2, %xmm5 vbroadcastss %xmm6, %ymm12 vbroadcastss 0x232fd2(%rip), %ymm0 # 0x1f12704 vpermps %ymm6, %ymm0, %ymm9 vbroadcastss 0x24179c(%rip), %ymm1 # 0x1f20edc vpermps %ymm6, %ymm1, %ymm10 vbroadcastss 0x24178a(%rip), %ymm2 # 0x1f20ed8 vmovaps %ymm6, 0x4e0(%rsp) vpermps %ymm6, %ymm2, %ymm11 vbroadcastss %xmm7, %ymm6 vpermps %ymm7, %ymm0, %ymm25 vpermps %ymm7, %ymm1, %ymm26 vmovaps %ymm7, 0x4a0(%rsp) vpermps %ymm7, %ymm2, %ymm14 vbroadcastss %xmm3, %ymm17 vpermps %ymm3, %ymm0, %ymm18 vpermps %ymm3, %ymm1, %ymm20 vmovaps %ymm3, 0x4c0(%rsp) vpermps %ymm3, %ymm2, %ymm22 vmovaps %ymm6, %ymm3 vbroadcastss %xmm5, %ymm30 vpermps %ymm5, %ymm0, %ymm19 vpermps %ymm5, %ymm1, %ymm23 vmovaps %ymm5, 0x480(%rsp) vpermps %ymm5, %ymm2, %ymm24 vmulps %xmm4, %xmm4, %xmm0 vpermps %ymm0, %ymm1, %ymm21 vmovaps %ymm13, 0x560(%rsp) vfmadd231ps %ymm13, %ymm13, %ymm21 # ymm21 = (ymm13 * ymm13) + ymm21 vfmadd231ps %ymm8, %ymm8, %ymm21 # ymm21 = (ymm8 * ymm8) + ymm21 vandps %ymm28, %ymm21, %ymm0 vmovaps %ymm0, 0x600(%rsp) movl $0x1, %ecx movq %rcx, 0xe8(%rsp) xorl %r11d, %r11d xorl %ebx, %ebx vmovsd 0x20cee7(%rip), %xmm2 # 0x1eec6f0 vmovaps %ymm8, 0x520(%rsp) vmovaps %ymm12, 0x740(%rsp) vmovaps %ymm9, 0x200(%rsp) vmovaps %ymm10, 0x220(%rsp) vmovaps %ymm11, 0x1e0(%rsp) vmovaps %ymm6, 0x460(%rsp) vmovaps %ymm25, 0x180(%rsp) vmovaps %ymm26, 0x160(%rsp) vmovaps %ymm14, 0x720(%rsp) vmovaps %ymm17, 0x140(%rsp) vmovaps %ymm18, 0x120(%rsp) vmovaps %ymm20, 0x2a0(%rsp) vmovaps %ymm22, 0x280(%rsp) vmovaps %ymm30, 0x360(%rsp) vmovaps %ymm19, 0x100(%rsp) vmovaps %ymm23, 0x260(%rsp) vmovaps %ymm24, 0x240(%rsp) vmovaps %ymm21, 0x700(%rsp) vmovshdup %xmm2, %xmm0 # xmm0 = xmm2[1,1,3,3] vsubss %xmm2, %xmm0, %xmm1 vmulss 0x241620(%rip), %xmm1, %xmm6 # 0x1f20ed0 vmovaps %xmm2, 0x3d0(%rsp) vbroadcastss %xmm2, %ymm5 vbroadcastss %xmm1, %ymm0 vmovaps %ymm5, 0x80(%rsp) vmovaps %ymm0, 0x340(%rsp) vfmadd231ps 0x241642(%rip), %ymm0, %ymm5 # ymm5 = (ymm0 * mem) + ymm5 vbroadcastss 0x20ce2d(%rip), %ymm0 # 0x1eec714 vsubps %ymm5, %ymm0, %ymm7 vmulps %ymm5, %ymm3, %ymm2 vmovaps %ymm3, %ymm1 vmulps %ymm5, %ymm25, %ymm3 vmulps %ymm5, %ymm26, %ymm4 vmulps %ymm5, %ymm14, %ymm8 vfmadd231ps %ymm12, %ymm7, %ymm2 # ymm2 = (ymm7 * ymm12) + ymm2 vfmadd231ps %ymm9, %ymm7, %ymm3 # ymm3 = (ymm7 * ymm9) + ymm3 vfmadd231ps %ymm10, %ymm7, %ymm4 # ymm4 = (ymm7 * ymm10) + ymm4 vfmadd231ps %ymm11, %ymm7, %ymm8 # ymm8 = (ymm7 * ymm11) + ymm8 vmulps %ymm5, %ymm17, %ymm9 vmulps %ymm5, %ymm18, %ymm10 vmulps %ymm5, %ymm20, %ymm11 vmulps %ymm5, %ymm22, %ymm12 vfmadd231ps %ymm1, %ymm7, %ymm9 # ymm9 = (ymm7 * ymm1) + ymm9 vfmadd231ps %ymm25, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm25) + ymm10 vfmadd231ps %ymm26, %ymm7, %ymm11 # ymm11 = (ymm7 * ymm26) + ymm11 vfmadd231ps %ymm14, %ymm7, %ymm12 # ymm12 = (ymm7 * ymm14) + ymm12 vmulps %ymm5, %ymm30, %ymm13 vmulps %ymm5, %ymm19, %ymm14 vmulps %ymm5, %ymm23, %ymm15 vmulps %ymm5, %ymm24, %ymm16 vfmadd231ps %ymm17, %ymm7, %ymm13 # ymm13 = (ymm7 * ymm17) + ymm13 vfmadd231ps %ymm18, %ymm7, %ymm14 # ymm14 = (ymm7 * ymm18) + ymm14 vfmadd231ps %ymm20, %ymm7, %ymm15 # ymm15 = (ymm7 * ymm20) + ymm15 vfmadd231ps %ymm22, %ymm7, %ymm16 # ymm16 = (ymm7 * ymm22) + ymm16 vmulps %ymm9, %ymm5, %ymm17 vmulps %ymm10, %ymm5, %ymm18 vmulps %ymm11, %ymm5, %ymm19 vmulps %ymm12, %ymm5, %ymm20 vfmadd231ps %ymm2, %ymm7, %ymm17 # ymm17 = (ymm7 * ymm2) + ymm17 vfmadd231ps %ymm3, %ymm7, %ymm18 # ymm18 = (ymm7 * ymm3) + ymm18 vfmadd231ps %ymm4, %ymm7, %ymm19 # ymm19 = (ymm7 * ymm4) + ymm19 vfmadd231ps %ymm8, %ymm7, %ymm20 # ymm20 = (ymm7 * ymm8) + ymm20 vmulps %ymm5, %ymm13, %ymm8 vmulps %ymm5, %ymm14, %ymm13 vmulps %ymm5, %ymm15, %ymm14 vmulps %ymm16, %ymm5, %ymm15 vfmadd231ps %ymm9, %ymm7, %ymm8 # ymm8 = (ymm7 * ymm9) + ymm8 vfmadd231ps %ymm10, %ymm7, %ymm13 # ymm13 = (ymm7 * ymm10) + ymm13 vfmadd231ps %ymm11, %ymm7, %ymm14 # ymm14 = (ymm7 * ymm11) + ymm14 vfmadd231ps %ymm12, %ymm7, %ymm15 # ymm15 = (ymm7 * ymm12) + ymm15 vmulps %ymm5, %ymm8, %ymm4 vmulps %ymm5, %ymm13, %ymm3 vmulps %ymm14, %ymm5, %ymm29 vmulps %ymm5, %ymm15, %ymm5 vfmadd231ps %ymm17, %ymm7, %ymm4 # ymm4 = (ymm7 * ymm17) + ymm4 vfmadd231ps %ymm18, %ymm7, %ymm3 # ymm3 = (ymm7 * ymm18) + ymm3 vfmadd231ps %ymm19, %ymm7, %ymm29 # ymm29 = (ymm7 * ymm19) + ymm29 vfmadd231ps %ymm7, %ymm20, %ymm5 # ymm5 = (ymm20 * ymm7) + ymm5 vsubps %ymm17, %ymm8, %ymm7 vsubps %ymm18, %ymm13, %ymm8 vsubps %ymm19, %ymm14, %ymm9 vsubps %ymm20, %ymm15, %ymm10 vbroadcastss 0x2115d6(%rip), %ymm1 # 0x1ef0fec vmulps %ymm1, %ymm7, %ymm7 vmulps %ymm1, %ymm8, %ymm8 vmulps %ymm1, %ymm9, %ymm9 vmulps %ymm1, %ymm10, %ymm10 vbroadcastss %xmm6, %ymm6 vmulps %ymm7, %ymm6, %ymm11 vmulps %ymm6, %ymm8, %ymm12 vmulps %ymm6, %ymm9, %ymm13 vmulps %ymm6, %ymm10, %ymm6 vmovaps %ymm4, %ymm8 vmovaps 0x2802d9(%rip), %ymm1 # 0x1f5fd20 vxorps %xmm31, %xmm31, %xmm31 vpermt2ps %ymm31, %ymm1, %ymm8 vmovaps %ymm3, %ymm9 vpermt2ps %ymm31, %ymm1, %ymm9 vmovaps %ymm29, %ymm10 vpermt2ps %ymm31, %ymm1, %ymm10 vaddps %ymm6, %ymm5, %ymm7 vmaxps %ymm7, %ymm5, %ymm14 vminps %ymm7, %ymm5, %ymm15 vmovaps %ymm5, %ymm16 vpermt2ps %ymm31, %ymm1, %ymm16 vmovaps %ymm11, %ymm19 vpermt2ps %ymm31, %ymm1, %ymm19 vmovaps %ymm12, %ymm20 vpermt2ps %ymm31, %ymm1, %ymm20 vmovaps %ymm13, %ymm2 vpermt2ps %ymm31, %ymm1, %ymm2 vpermt2ps %ymm31, %ymm1, %ymm6 vsubps %ymm6, %ymm16, %ymm17 vsubps %ymm4, %ymm8, %ymm7 vsubps %ymm3, %ymm9, %ymm6 vsubps %ymm29, %ymm10, %ymm5 vmulps %ymm13, %ymm6, %ymm18 vfmsub231ps %ymm5, %ymm12, %ymm18 # ymm18 = (ymm12 * ymm5) - ymm18 vmulps %ymm11, %ymm5, %ymm22 vfmsub231ps %ymm7, %ymm13, %ymm22 # ymm22 = (ymm13 * ymm7) - ymm22 vmulps %ymm12, %ymm7, %ymm23 vfmsub231ps %ymm6, %ymm11, %ymm23 # ymm23 = (ymm11 * ymm6) - ymm23 vmulps %ymm23, %ymm23, %ymm23 vfmadd231ps %ymm22, %ymm22, %ymm23 # ymm23 = (ymm22 * ymm22) + ymm23 vfmadd231ps %ymm18, %ymm18, %ymm23 # ymm23 = (ymm18 * ymm18) + ymm23 vmulps %ymm5, %ymm5, %ymm18 vfmadd231ps %ymm6, %ymm6, %ymm18 # ymm18 = (ymm6 * ymm6) + ymm18 vfmadd231ps %ymm7, %ymm7, %ymm18 # ymm18 = (ymm7 * ymm7) + ymm18 vrcp14ps %ymm18, %ymm22 vmovaps %ymm22, %ymm24 vfnmadd213ps %ymm0, %ymm18, %ymm24 # ymm24 = -(ymm18 * ymm24) + ymm0 vfmadd132ps %ymm22, %ymm22, %ymm24 # ymm24 = (ymm24 * ymm22) + ymm22 vmulps %ymm24, %ymm23, %ymm22 vmulps %ymm2, %ymm6, %ymm23 vfmsub231ps %ymm5, %ymm20, %ymm23 # ymm23 = (ymm20 * ymm5) - ymm23 vmulps %ymm19, %ymm5, %ymm25 vfmsub231ps %ymm7, %ymm2, %ymm25 # ymm25 = (ymm2 * ymm7) - ymm25 vmulps %ymm20, %ymm7, %ymm26 vfmsub231ps %ymm6, %ymm19, %ymm26 # ymm26 = (ymm19 * ymm6) - ymm26 vmulps %ymm26, %ymm26, %ymm26 vfmadd231ps %ymm25, %ymm25, %ymm26 # ymm26 = (ymm25 * ymm25) + ymm26 vfmadd231ps %ymm23, %ymm23, %ymm26 # ymm26 = (ymm23 * ymm23) + ymm26 vmulps %ymm24, %ymm26, %ymm23 vmaxps %ymm23, %ymm22, %ymm22 vsqrtps %ymm22, %ymm22 vmaxps %ymm16, %ymm17, %ymm23 vmaxps %ymm23, %ymm14, %ymm14 vaddps %ymm14, %ymm22, %ymm14 vminps %ymm16, %ymm17, %ymm16 vminps %ymm16, %ymm15, %ymm15 vsubps %ymm22, %ymm15, %ymm15 vmulps 0x210da7(%rip){1to8}, %ymm14, %ymm14 # 0x1ef0940 vmulps 0x210da1(%rip){1to8}, %ymm15, %ymm1 # 0x1ef0944 vmovaps %ymm1, 0x3a0(%rsp) vmulps %ymm14, %ymm14, %ymm23 vrsqrt14ps %ymm18, %ymm15 vmulps 0x20cb5a(%rip){1to8}, %ymm18, %ymm14 # 0x1eec71c vmulps %ymm14, %ymm15, %ymm14 vmulps %ymm15, %ymm15, %ymm16 vmulps %ymm14, %ymm16, %ymm14 vfmadd231ps 0x20cb3b(%rip){1to8}, %ymm15, %ymm14 # ymm14 = (ymm15 * mem) + ymm14 vmulps %ymm7, %ymm14, %ymm15 vmulps %ymm14, %ymm6, %ymm16 vmulps %ymm14, %ymm5, %ymm18 vsubps %ymm4, %ymm31, %ymm27 vsubps %ymm3, %ymm31, %ymm28 vmovaps %ymm29, 0x40(%rsp) vsubps %ymm29, %ymm31, %ymm29 vmovaps 0x620(%rsp), %ymm17 vmulps %ymm29, %ymm17, %ymm22 vmovaps 0x560(%rsp), %ymm25 vfmadd231ps %ymm28, %ymm25, %ymm22 # ymm22 = (ymm25 * ymm28) + ymm22 vmovaps 0x520(%rsp), %ymm1 vfmadd231ps %ymm27, %ymm1, %ymm22 # ymm22 = (ymm1 * ymm27) + ymm22 vmulps %ymm29, %ymm29, %ymm24 vfmadd231ps %ymm28, %ymm28, %ymm24 # ymm24 = (ymm28 * ymm28) + ymm24 vfmadd231ps %ymm27, %ymm27, %ymm24 # ymm24 = (ymm27 * ymm27) + ymm24 vmulps %ymm18, %ymm17, %ymm17 vfmadd231ps %ymm25, %ymm16, %ymm17 # ymm17 = (ymm16 * ymm25) + ymm17 vfmadd231ps %ymm1, %ymm15, %ymm17 # ymm17 = (ymm15 * ymm1) + ymm17 vmulps %ymm18, %ymm29, %ymm18 vfmadd231ps %ymm16, %ymm28, %ymm18 # ymm18 = (ymm28 * ymm16) + ymm18 vfmadd231ps %ymm15, %ymm27, %ymm18 # ymm18 = (ymm27 * ymm15) + ymm18 vmulps %ymm17, %ymm17, %ymm16 vsubps %ymm16, %ymm21, %ymm15 vmulps %ymm18, %ymm17, %ymm25 vsubps %ymm25, %ymm22, %ymm22 vaddps %ymm22, %ymm22, %ymm22 vmulps %ymm18, %ymm18, %ymm25 vsubps %ymm25, %ymm24, %ymm24 vmovaps %ymm24, 0x60(%rsp) vsubps %ymm23, %ymm24, %ymm23 vmulps %ymm22, %ymm22, %ymm25 vmulps 0x20cedc(%rip){1to8}, %ymm15, %ymm26 # 0x1eecb8c vmulps %ymm23, %ymm26, %ymm30 vsubps %ymm30, %ymm25, %ymm30 vcmpnltps %ymm31, %ymm30, %k1 kmovd %k1, %edi kortestb %k1, %k1 je 0x1cdfdb6 vsqrtps %ymm30, %ymm30 vaddps %ymm15, %ymm15, %ymm31 vrcp14ps %ymm31, %ymm1 vfnmadd213ps %ymm0, %ymm1, %ymm31 # ymm31 = -(ymm1 * ymm31) + ymm0 vfmadd132ps %ymm1, %ymm1, %ymm31 # ymm31 = (ymm31 * ymm1) + ymm1 vxorps 0x2411c7(%rip){1to8}, %ymm22, %ymm1 # 0x1f20ec0 vsubps %ymm30, %ymm1, %ymm1 vmulps %ymm31, %ymm1, %ymm1 vsubps %ymm22, %ymm30, %ymm30 vmulps %ymm31, %ymm30, %ymm30 vmovaps %ymm17, %ymm31 vfmadd213ps %ymm18, %ymm1, %ymm31 # ymm31 = (ymm1 * ymm31) + ymm18 vmulps %ymm31, %ymm14, %ymm31 vmovaps %ymm31, 0x5c0(%rsp) vmovaps %ymm17, %ymm31 vfmadd213ps %ymm18, %ymm30, %ymm31 # ymm31 = (ymm30 * ymm31) + ymm18 vmulps %ymm31, %ymm14, %ymm31 vmovaps %ymm31, 0x5a0(%rsp) vbroadcastss 0x20bcd2(%rip), %ymm0 # 0x1eeba20 vblendmps %ymm1, %ymm0, %ymm31 {%k1} vbroadcastss 0x20ce27(%rip), %ymm0 # 0x1eecb84 vblendmps %ymm30, %ymm0, %ymm30 {%k1} vbroadcastss 0x241158(%rip), %ymm0 # 0x1f20ec4 vmovaps %ymm16, %ymm24 vandps %ymm0, %ymm16, %ymm1 vmovaps 0x600(%rsp), %ymm16 vmaxps %ymm1, %ymm16, %ymm1 vmulps 0x212124(%rip){1to8}, %ymm1, %ymm1 # 0x1ef1eb4 vandps %ymm0, %ymm15, %ymm0 vcmpltps %ymm1, %ymm0, %k1 {%k1} kortestb %k1, %k1 jne 0x1ce1bc7 vmovaps 0x520(%rsp), %ymm1 vmovaps %ymm24, %ymm16 jmp 0x1cdfdca vbroadcastss 0x20bc60(%rip), %ymm31 # 0x1eeba20 vbroadcastss 0x20cdba(%rip), %ymm30 # 0x1eecb84 andb $0x7f, %dil je 0x1ce01db vmovaps %ymm16, 0x380(%rsp) vmovss 0xc(%r15), %xmm0 vmovaps %ymm1, %ymm16 vmovss 0x20(%r15), %xmm1 vmovaps 0x3f0(%rsp), %xmm23 vsubss %xmm23, %xmm0, %xmm0 vbroadcastss %xmm0, %ymm0 vmaxps %ymm31, %ymm0, %ymm0 vsubss %xmm23, %xmm1, %xmm1 vbroadcastss %xmm1, %ymm1 vminps %ymm30, %ymm1, %ymm1 vmulps %ymm13, %ymm29, %ymm23 vfmadd213ps %ymm23, %ymm12, %ymm28 # ymm28 = (ymm12 * ymm28) + ymm23 vfmadd213ps %ymm28, %ymm11, %ymm27 # ymm27 = (ymm11 * ymm27) + ymm28 vmovaps 0x620(%rsp), %ymm21 vmulps %ymm13, %ymm21, %ymm13 vmovaps 0x560(%rsp), %ymm24 vfmadd231ps %ymm12, %ymm24, %ymm13 # ymm13 = (ymm24 * ymm12) + ymm13 vfmadd231ps %ymm11, %ymm16, %ymm13 # ymm13 = (ymm16 * ymm11) + ymm13 vbroadcastss 0x24106e(%rip), %ymm28 # 0x1f20ec4 vandps %ymm28, %ymm13, %ymm11 vbroadcastss 0x211182(%rip), %ymm29 # 0x1ef0fe8 vcmpltps %ymm29, %ymm11, %k0 vbroadcastss 0x241049(%rip), %ymm31 # 0x1f20ec0 vxorps %ymm31, %ymm27, %ymm11 vrcp14ps %ymm13, %ymm12 vxorps %ymm31, %ymm13, %ymm23 vmovaps %ymm12, %ymm27 vbroadcastss 0x20c87b(%rip), %ymm30 # 0x1eec714 vfnmadd213ps %ymm30, %ymm13, %ymm27 # ymm27 = -(ymm13 * ymm27) + ymm30 vfmadd132ps %ymm12, %ymm12, %ymm27 # ymm27 = (ymm27 * ymm12) + ymm12 vmulps %ymm11, %ymm27, %ymm11 vcmpltps %ymm23, %ymm13, %k1 korb %k1, %k0, %k1 vbroadcastss 0x20ccc4(%rip), %ymm27 # 0x1eecb84 vblendmps %ymm27, %ymm11, %ymm12 {%k1} vmaxps %ymm12, %ymm0, %ymm0 vcmpnleps %ymm23, %ymm13, %k1 korb %k1, %k0, %k1 vbroadcastss 0x20bb40(%rip), %ymm23 # 0x1eeba20 vmovaps %ymm23, %ymm11 {%k1} vminps %ymm11, %ymm1, %ymm1 vxorps %xmm13, %xmm13, %xmm13 vsubps %ymm8, %ymm13, %ymm8 vsubps %ymm9, %ymm13, %ymm9 vsubps %ymm10, %ymm13, %ymm10 vmulps %ymm2, %ymm10, %ymm10 vfnmsub231ps %ymm9, %ymm20, %ymm10 # ymm10 = -(ymm20 * ymm9) - ymm10 vfnmadd231ps %ymm8, %ymm19, %ymm10 # ymm10 = -(ymm19 * ymm8) + ymm10 vmulps %ymm2, %ymm21, %ymm8 vfnmsub231ps %ymm20, %ymm24, %ymm8 # ymm8 = -(ymm24 * ymm20) - ymm8 vfnmadd231ps %ymm19, %ymm16, %ymm8 # ymm8 = -(ymm16 * ymm19) + ymm8 vandps %ymm28, %ymm8, %ymm9 vcmpltps %ymm29, %ymm9, %k0 vxorps %ymm31, %ymm10, %ymm9 vrcp14ps %ymm8, %ymm10 vxorps %ymm31, %ymm8, %ymm11 vmovaps %ymm10, %ymm12 vfnmadd213ps %ymm30, %ymm8, %ymm12 # ymm12 = -(ymm8 * ymm12) + ymm30 vfmadd132ps %ymm10, %ymm10, %ymm12 # ymm12 = (ymm12 * ymm10) + ymm10 vmulps %ymm9, %ymm12, %ymm9 vcmpltps %ymm11, %ymm8, %k1 korb %k1, %k0, %k1 vblendmps %ymm27, %ymm9, %ymm10 {%k1} vmaxps %ymm10, %ymm0, %ymm0 vcmpnleps %ymm11, %ymm8, %k1 korb %k1, %k0, %k1 vmovaps %ymm23, %ymm9 {%k1} vminps %ymm9, %ymm1, %ymm8 vmovaps %ymm0, 0x500(%rsp) vcmpleps %ymm8, %ymm0, %k0 kmovd %k0, %ecx andb %cl, %dil je 0x1ce01e5 vmovaps 0x5c0(%rsp), %ymm0 vmaxps 0x3a0(%rsp), %ymm13, %ymm1 vminps %ymm30, %ymm0, %ymm0 vxorps %xmm10, %xmm10, %xmm10 vmaxps %ymm10, %ymm0, %ymm0 vmovaps 0x5a0(%rsp), %ymm9 vminps %ymm30, %ymm9, %ymm9 vmovaps 0x240f69(%rip), %ymm11 # 0x1f20f40 vaddps %ymm0, %ymm11, %ymm0 vbroadcastss 0x23e4d4(%rip), %ymm12 # 0x1f1e4b8 vmulps %ymm0, %ymm12, %ymm0 vmovaps 0x80(%rsp), %ymm2 vmovaps 0x340(%rsp), %ymm16 vfmadd213ps %ymm2, %ymm16, %ymm0 # ymm0 = (ymm16 * ymm0) + ymm2 vmovaps %ymm0, 0x5c0(%rsp) vmaxps %ymm10, %ymm9, %ymm0 vaddps %ymm0, %ymm11, %ymm0 vmulps %ymm0, %ymm12, %ymm0 vfmadd213ps %ymm2, %ymm16, %ymm0 # ymm0 = (ymm16 * ymm0) + ymm2 vmovaps %ymm0, 0x5a0(%rsp) vmulps %ymm1, %ymm1, %ymm0 vmovaps 0x60(%rsp), %ymm1 vsubps %ymm0, %ymm1, %ymm11 vmulps %ymm11, %ymm26, %ymm0 vsubps %ymm0, %ymm25, %ymm0 vcmpnltps %ymm10, %ymm0, %k0 kortestb %k0, %k0 vmovaps 0x260(%rsp), %ymm23 vmovaps 0x240(%rsp), %ymm24 je 0x1ce0267 vxorps %xmm20, %xmm20, %xmm20 vcmpnltps %ymm13, %ymm0, %k1 vsqrtps %ymm0, %ymm0 vaddps %ymm15, %ymm15, %ymm1 vrcp14ps %ymm1, %ymm9 vfnmadd213ps %ymm30, %ymm9, %ymm1 # ymm1 = -(ymm9 * ymm1) + ymm30 vfmadd132ps %ymm9, %ymm9, %ymm1 # ymm1 = (ymm1 * ymm9) + ymm9 vxorps 0x240e30(%rip){1to8}, %ymm22, %ymm9 # 0x1f20ec0 vsubps %ymm0, %ymm9, %ymm9 vmulps %ymm1, %ymm9, %ymm12 vsubps %ymm22, %ymm0, %ymm0 vmulps %ymm1, %ymm0, %ymm13 vmovaps %ymm17, %ymm0 vfmadd213ps %ymm18, %ymm12, %ymm0 # ymm0 = (ymm12 * ymm0) + ymm18 vmulps %ymm0, %ymm14, %ymm9 vmovaps 0x520(%rsp), %ymm16 vmulps %ymm12, %ymm16, %ymm0 vmovaps 0x560(%rsp), %ymm22 vmulps %ymm12, %ymm22, %ymm1 vmulps %ymm12, %ymm21, %ymm10 vmovaps %ymm7, %ymm19 vfmadd213ps %ymm4, %ymm9, %ymm19 # ymm19 = (ymm9 * ymm19) + ymm4 vsubps %ymm19, %ymm0, %ymm0 vmovaps %ymm6, %ymm19 vfmadd213ps %ymm3, %ymm9, %ymm19 # ymm19 = (ymm9 * ymm19) + ymm3 vsubps %ymm19, %ymm1, %ymm1 vmovaps 0x40(%rsp), %ymm2 vfmadd213ps %ymm2, %ymm5, %ymm9 # ymm9 = (ymm5 * ymm9) + ymm2 vsubps %ymm9, %ymm10, %ymm9 vfmadd213ps %ymm18, %ymm13, %ymm17 # ymm17 = (ymm13 * ymm17) + ymm18 vmulps %ymm17, %ymm14, %ymm14 vmulps %ymm13, %ymm16, %ymm10 vmulps %ymm13, %ymm22, %ymm17 vmulps %ymm13, %ymm21, %ymm18 vfmadd213ps %ymm4, %ymm14, %ymm7 # ymm7 = (ymm14 * ymm7) + ymm4 vsubps %ymm7, %ymm10, %ymm10 vfmadd213ps %ymm3, %ymm14, %ymm6 # ymm6 = (ymm14 * ymm6) + ymm3 vsubps %ymm6, %ymm17, %ymm3 vfmadd213ps %ymm2, %ymm14, %ymm5 # ymm5 = (ymm14 * ymm5) + ymm2 vsubps %ymm5, %ymm18, %ymm5 vbroadcastss 0x20b8d2(%rip), %ymm2 # 0x1eeba20 vblendmps %ymm12, %ymm2, %ymm4 {%k1} vbroadcastss 0x20ca27(%rip), %ymm2 # 0x1eecb84 vblendmps %ymm13, %ymm2, %ymm2 {%k1} vandps 0x380(%rsp), %ymm28, %ymm6 vmovaps 0x600(%rsp), %ymm7 vmaxps %ymm6, %ymm7, %ymm6 vmulps 0x211d32(%rip){1to8}, %ymm6, %ymm6 # 0x1ef1eb4 vandps %ymm28, %ymm15, %ymm7 vcmpltps %ymm6, %ymm7, %k1 {%k1} kortestb %k1, %k1 je 0x1ce028e vcmpleps %ymm20, %ymm11, %k2 vbroadcastss 0x20c9db(%rip), %ymm7 # 0x1eecb84 vbroadcastss 0x20b86e(%rip), %ymm11 # 0x1eeba20 vblendmps %ymm7, %ymm11, %ymm6 {%k2} vmovaps %ymm6, %ymm4 {%k1} vblendmps %ymm11, %ymm7, %ymm6 {%k2} vmovaps %ymm6, %ymm2 {%k1} knotb %k1, %k1 korb %k2, %k1, %k1 kandb %k0, %k1, %k0 jmp 0x1ce028e vbroadcastss 0x240cdf(%rip), %ymm28 # 0x1f20ec4 vmovaps 0x320(%rsp), %ymm4 vmovaps 0x200(%rsp), %ymm9 vmovaps 0x220(%rsp), %ymm10 vmovaps 0x1e0(%rsp), %ymm11 vmovaps 0x460(%rsp), %ymm3 vmovaps 0x180(%rsp), %ymm25 vmovaps 0x160(%rsp), %ymm26 vmovaps 0x140(%rsp), %ymm17 vmovaps 0x120(%rsp), %ymm18 vmovaps 0x2a0(%rsp), %ymm20 vmovaps 0x280(%rsp), %ymm16 vmovaps 0x360(%rsp), %ymm30 vmovaps 0x100(%rsp), %ymm19 vmovaps 0x260(%rsp), %ymm23 vmovaps 0x240(%rsp), %ymm24 jmp 0x1ce1a7f vxorps %xmm3, %xmm3, %xmm3 vxorps %xmm5, %xmm5, %xmm5 vxorps %xmm0, %xmm0, %xmm0 vxorps %xmm1, %xmm1, %xmm1 vxorps %xmm9, %xmm9, %xmm9 vbroadcastss 0x20b79b(%rip), %ymm4 # 0x1eeba20 vbroadcastss 0x20c8f6(%rip), %ymm2 # 0x1eecb84 vmovaps 0x180(%rsp), %ymm25 vmovaps 0x160(%rsp), %ymm26 vmovaps 0x140(%rsp), %ymm17 vmovaps 0x120(%rsp), %ymm18 vmovaps 0x100(%rsp), %ymm19 vbroadcastss 0x10(%r15), %ymm6 vbroadcastss 0x14(%r15), %ymm7 vbroadcastss 0x18(%r15), %ymm11 vmulps %ymm5, %ymm11, %ymm5 vfmadd231ps %ymm3, %ymm7, %ymm5 # ymm5 = (ymm7 * ymm3) + ymm5 vfmadd231ps %ymm10, %ymm6, %ymm5 # ymm5 = (ymm6 * ymm10) + ymm5 vmovaps 0x500(%rsp), %ymm10 vmovaps %ymm10, 0x640(%rsp) vminps %ymm4, %ymm8, %ymm3 vmovaps %ymm3, 0x660(%rsp) vandps %ymm28, %ymm5, %ymm4 vmaxps %ymm2, %ymm10, %ymm5 vmovaps %ymm5, 0x680(%rsp) vmovaps %ymm8, 0x6a0(%rsp) vbroadcastss 0x240bba(%rip), %ymm2 # 0x1f20ed4 vcmpltps %ymm2, %ymm4, %k1 kmovd %k1, 0xfc(%rsp) vcmpleps %ymm3, %ymm10, %k1 kmovd %k1, %esi andb %dil, %sil vmovaps %ymm5, 0x540(%rsp) vcmpleps %ymm8, %ymm5, %k1 kmovd %k1, %ecx andb %dil, %cl movl %ecx, 0x14(%rsp) orb %sil, %cl vmovaps 0x2a0(%rsp), %ymm20 vmovaps 0x280(%rsp), %ymm16 vmovaps 0x360(%rsp), %ymm30 je 0x1ce0e93 movq %r12, 0x30(%rsp) movq %r14, 0x310(%rsp) movb %al, 0x3(%rsp) knotb %k0, %k1 vmovaps %ymm2, %ymm3 vmulps %ymm11, %ymm9, %ymm2 vfmadd213ps %ymm2, %ymm7, %ymm1 # ymm1 = (ymm7 * ymm1) + ymm2 vfmadd213ps %ymm1, %ymm6, %ymm0 # ymm0 = (ymm6 * ymm0) + ymm1 vandps %ymm28, %ymm0, %ymm0 vcmpltps %ymm3, %ymm0, %k0 kmovd %k1, 0xf4(%rsp) korb %k1, %k0, %k1 vpbroadcastd 0x240b1b(%rip), %ymm0 # 0x1f20edc vpblendmd 0x240b0d(%rip){1to8}, %ymm0, %ymm0 {%k1} # 0x1f20ed8 movq 0xe8(%rsp), %rax vpbroadcastd %eax, %ymm1 vmovdqa %ymm0, 0x6c0(%rsp) vmovdqa %ymm1, 0x5e0(%rsp) vpcmpnltd %ymm0, %ymm1, %k0 kmovd %k0, %r12d movl %esi, 0xf8(%rsp) andb %sil, %r12b vmovaps 0x320(%rsp), %ymm3 vmovaps 0x220(%rsp), %ymm10 movq %r11, 0x318(%rsp) je 0x1ce0ebc vmovaps 0x4e0(%rsp), %ymm1 vmovaps 0x4a0(%rsp), %ymm2 vminps %xmm2, %xmm1, %xmm0 vmaxps %xmm2, %xmm1, %xmm1 vmovaps 0x4c0(%rsp), %ymm4 vmovaps 0x480(%rsp), %ymm5 vminps %xmm5, %xmm4, %xmm2 vminps %xmm2, %xmm0, %xmm0 vmaxps %xmm5, %xmm4, %xmm2 vmaxps %xmm2, %xmm1, %xmm1 vbroadcastss 0x240a5f(%rip), %xmm2 # 0x1f20ec4 vandps %xmm2, %xmm0, %xmm0 vandps %xmm2, %xmm1, %xmm2 vmaxps %xmm2, %xmm0, %xmm0 vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3] vmaxss %xmm0, %xmm2, %xmm2 vshufpd $0x1, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[1,0] vmaxss %xmm2, %xmm0, %xmm0 vmulss 0x211a2a(%rip), %xmm0, %xmm0 # 0x1ef1eb4 vmovss %xmm0, 0x20(%rsp) vshufps $0xff, %xmm1, %xmm1, %xmm0 # xmm0 = xmm1[3,3,3,3] vmovaps %xmm0, 0x3e0(%rsp) vaddps 0x500(%rsp), %ymm3, %ymm0 vmovaps %ymm0, 0x580(%rsp) kmovd %r12d, %k1 vbroadcastss 0x20b562(%rip), %ymm0 # 0x1eeba20 vblendmps 0x500(%rsp), %ymm0, %ymm0 {%k1} vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm0, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1] vminps %ymm2, %ymm1, %ymm1 vcmpeqps %ymm1, %ymm0, %k0 kmovd %k0, %eax andb %r12b, %al movzbl %al, %eax movzbl %r12b, %ecx cmovnel %eax, %ecx tzcntl %ecx, %ecx movb $0x1, %r14b shlb %cl, %r14b shll $0x2, %ecx vmovss 0x5c0(%rsp,%rcx), %xmm8 vmovss 0x640(%rsp,%rcx), %xmm12 vmovaps 0x10(%r15), %xmm0 vmovaps %xmm0, 0x380(%rsp) vdpps $0x7f, %xmm0, %xmm0, %xmm0 vucomiss 0x20b4ee(%rip), %xmm0 # 0x1eeba24 jb 0x1ce053e vsqrtss %xmm0, %xmm0, %xmm0 jmp 0x1ce0570 vmovaps %xmm8, 0x60(%rsp) vmovaps %xmm12, 0x40(%rsp) kmovw %k1, 0x80(%rsp) vzeroupper callq 0x6aa20 kmovw 0x80(%rsp), %k1 vmovaps 0x40(%rsp), %xmm12 vmovaps 0x60(%rsp), %xmm8 movzbl %r14b, %eax kmovd %eax, %k0 kandnb %k1, %k0, %k0 kmovd %k0, %r12d vmulss 0x21192c(%rip), %xmm0, %xmm0 # 0x1ef1eb4 vmovss %xmm0, 0x24(%rsp) movl $0x5, %r14d vbroadcastss %xmm12, %xmm0 vxorps %xmm1, %xmm1, %xmm1 vfmadd132ps 0x380(%rsp), %xmm1, %xmm0 # xmm0 = (xmm0 * mem) + xmm1 vmovss 0x20c165(%rip), %xmm1 # 0x1eec714 vsubss %xmm8, %xmm1, %xmm3 vbroadcastss %xmm8, %xmm1 vmovaps 0x4a0(%rsp), %ymm5 vmulps %xmm1, %xmm5, %xmm2 vmovaps %xmm3, 0x450(%rsp) vbroadcastss %xmm3, %xmm3 vfmadd231ps 0x4e0(%rsp), %xmm3, %xmm2 # xmm2 = (xmm3 * mem) + xmm2 vmovaps 0x4c0(%rsp), %ymm6 vmulps %xmm1, %xmm6, %xmm4 vfmadd231ps %xmm5, %xmm3, %xmm4 # xmm4 = (xmm3 * xmm5) + xmm4 vmulps 0x480(%rsp), %xmm1, %xmm5 vfmadd231ps %xmm6, %xmm3, %xmm5 # xmm5 = (xmm3 * xmm6) + xmm5 vmulps %xmm4, %xmm1, %xmm6 vfmadd231ps %xmm2, %xmm3, %xmm6 # xmm6 = (xmm3 * xmm2) + xmm6 vmulps %xmm5, %xmm1, %xmm2 vfmadd231ps %xmm4, %xmm3, %xmm2 # xmm2 = (xmm3 * xmm4) + xmm2 vmulps %xmm2, %xmm1, %xmm4 vfmadd231ps %xmm3, %xmm6, %xmm4 # xmm4 = (xmm6 * xmm3) + xmm4 vsubps %xmm6, %xmm2, %xmm1 vmulps 0x2109c5(%rip){1to4}, %xmm1, %xmm1 # 0x1ef0fec vmovaps %xmm1, 0x80(%rsp) vmovaps %xmm4, 0x1a0(%rsp) vsubps %xmm4, %xmm0, %xmm0 vmovaps %xmm0, 0x340(%rsp) vdpps $0x7f, %xmm0, %xmm0, %xmm0 vucomiss 0x20b3d0(%rip), %xmm0 # 0x1eeba24 vmovaps %xmm0, 0x3a0(%rsp) vmovaps %xmm8, 0x60(%rsp) vmovaps %xmm12, 0x40(%rsp) jb 0x1ce0671 vsqrtss %xmm0, %xmm0, %xmm7 jmp 0x1ce067d vzeroupper callq 0x6aa20 vmovaps %xmm0, %xmm7 vmovaps 0x80(%rsp), %xmm0 vdpps $0x7f, %xmm0, %xmm0, %xmm0 vxorps %xmm1, %xmm1, %xmm1 vmovss %xmm0, %xmm1, %xmm2 # xmm2 = xmm0[0],xmm1[1,2,3] vrsqrt14ss %xmm2, %xmm1, %xmm3 vmulss 0x20c076(%rip), %xmm3, %xmm4 # 0x1eec718 vmulss 0x20c072(%rip), %xmm0, %xmm5 # 0x1eec71c vrcp14ss %xmm2, %xmm1, %xmm2 vxorps 0x240806(%rip){1to4}, %xmm0, %xmm1 # 0x1f20ec0 vmovaps %xmm2, 0x430(%rsp) vfnmadd213ss 0x21092c(%rip), %xmm0, %xmm2 # xmm2 = -(xmm0 * xmm2) + mem vmovss %xmm2, 0x28(%rsp) vucomiss %xmm1, %xmm0 vmovss %xmm7, 0x4(%rsp) vmovaps %xmm0, 0x440(%rsp) jb 0x1ce06ed vsqrtss %xmm0, %xmm0, %xmm14 jmp 0x1ce0735 vmovaps %xmm3, 0xd0(%rsp) vmovss %xmm4, 0xc0(%rsp) vmovss %xmm5, 0xb0(%rsp) vzeroupper callq 0x6aa20 vmovss 0xb0(%rsp), %xmm5 vmovss 0xc0(%rsp), %xmm4 vmovaps 0xd0(%rsp), %xmm3 vmovss 0x4(%rsp), %xmm7 vmovaps %xmm0, %xmm14 vmulss %xmm3, %xmm5, %xmm0 vmulss %xmm3, %xmm3, %xmm1 vmulss %xmm1, %xmm0, %xmm0 vaddss %xmm0, %xmm4, %xmm0 vbroadcastss %xmm0, %xmm15 vmulps 0x80(%rsp), %xmm15, %xmm0 vmovaps %xmm0, 0xc0(%rsp) vdpps $0x7f, 0x340(%rsp), %xmm0, %xmm0 vaddss 0x20bfa3(%rip), %xmm7, %xmm27 # 0x1eec714 vmovaps %xmm0, 0xd0(%rsp) vmulps %xmm0, %xmm0, %xmm0 vmovaps 0x3a0(%rsp), %xmm1 vsubps %xmm0, %xmm1, %xmm0 vxorps %xmm2, %xmm2, %xmm2 vmovss %xmm0, %xmm2, %xmm1 # xmm1 = xmm0[0],xmm2[1,2,3] vrsqrt14ss %xmm1, %xmm2, %xmm29 vmulss 0x20bf75(%rip), %xmm29, %xmm31 # 0x1eec718 vmulss 0x20bf71(%rip), %xmm0, %xmm1 # 0x1eec71c vmovss %xmm1, 0xb0(%rsp) vucomiss 0x20b268(%rip), %xmm0 # 0x1eeba24 jb 0x1ce07c4 vsqrtss %xmm0, %xmm0, %xmm0 jmp 0x1ce0826 vmovss %xmm27, 0x1c(%rsp) vmovss %xmm14, 0x18(%rsp) vmovaps %xmm29, 0x420(%rsp) vmovss %xmm31, 0x410(%rsp) vmovaps %xmm15, 0x400(%rsp) vzeroupper callq 0x6aa20 vmovaps 0x400(%rsp), %xmm15 vmovss 0x410(%rsp), %xmm31 vmovaps 0x420(%rsp), %xmm29 vmovss 0x18(%rsp), %xmm14 vmovss 0x4(%rsp), %xmm7 vmovss 0x1c(%rsp), %xmm27 vbroadcastss 0x240694(%rip), %ymm21 # 0x1f20ec4 vmovaps 0x200(%rsp), %ymm9 vmovaps 0x220(%rsp), %ymm10 vmovaps 0x1e0(%rsp), %ymm11 vmovaps 0x180(%rsp), %ymm26 vmovaps 0x160(%rsp), %ymm17 vmovaps 0x140(%rsp), %ymm18 vmovaps 0x120(%rsp), %ymm30 vmovaps 0x2a0(%rsp), %ymm20 vmovaps 0x280(%rsp), %ymm16 vmovaps 0x100(%rsp), %ymm19 vmovaps 0x260(%rsp), %ymm23 vmovaps 0x240(%rsp), %ymm24 vmovaps 0x60(%rsp), %xmm8 vmovaps 0x40(%rsp), %xmm12 vmovss 0x210135(%rip), %xmm3 # 0x1ef09dc vmovaps %xmm3, %xmm1 vmovaps 0x450(%rsp), %xmm5 vfmadd213ss %xmm5, %xmm8, %xmm1 # xmm1 = (xmm8 * xmm1) + xmm5 vmovss 0x210733(%rip), %xmm4 # 0x1ef0ff4 vmulss %xmm4, %xmm1, %xmm1 vmulss %xmm4, %xmm8, %xmm2 vbroadcastss %xmm2, %xmm2 vmulps 0x480(%rsp), %xmm2, %xmm2 vbroadcastss %xmm1, %xmm1 vfmadd132ps 0x4c0(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2 vmovaps %xmm3, %xmm2 vfmadd213ss %xmm8, %xmm5, %xmm2 # xmm2 = (xmm5 * xmm2) + xmm8 vmulss %xmm4, %xmm2, %xmm2 vbroadcastss %xmm2, %xmm2 vfmadd132ps 0x4a0(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1 vmulss %xmm4, %xmm5, %xmm1 vbroadcastss %xmm1, %xmm1 vfmadd132ps 0x4e0(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2 vbroadcastss 0x440(%rsp), %xmm2 vmulps %xmm2, %xmm1, %xmm2 vmovaps 0x80(%rsp), %xmm13 vdpps $0x7f, %xmm1, %xmm13, %xmm1 vbroadcastss %xmm1, %xmm1 vmulps %xmm1, %xmm13, %xmm1 vsubps %xmm1, %xmm2, %xmm2 vmovss 0x28(%rsp), %xmm1 vmulss 0x430(%rsp), %xmm1, %xmm3 vmulss 0x24(%rsp), %xmm12, %xmm1 vmovss 0x20(%rsp), %xmm6 vmaxss %xmm1, %xmm6, %xmm1 vbroadcastss %xmm3, %xmm3 vmulps %xmm3, %xmm2, %xmm2 vxorps 0x24054f(%rip){1to4}, %xmm13, %xmm3 # 0x1f20ec0 vmulps %xmm2, %xmm15, %xmm2 vmovaps 0xc0(%rsp), %xmm15 vdpps $0x7f, %xmm15, %xmm3, %xmm4 vdivss %xmm14, %xmm6, %xmm5 vfmadd213ss %xmm1, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm7) + xmm1 vmovaps 0x340(%rsp), %xmm14 vdpps $0x7f, %xmm2, %xmm14, %xmm2 vfmadd213ss %xmm7, %xmm5, %xmm27 # xmm27 = (xmm5 * xmm27) + xmm7 vaddss %xmm2, %xmm4, %xmm4 vmovaps 0x380(%rsp), %xmm7 vdpps $0x7f, %xmm15, %xmm7, %xmm5 vdpps $0x7f, %xmm3, %xmm14, %xmm3 vmulss 0xb0(%rsp), %xmm29, %xmm2 vmulss %xmm29, %xmm29, %xmm6 vmulss %xmm6, %xmm2, %xmm2 vaddss %xmm2, %xmm31, %xmm6 vdpps $0x7f, %xmm7, %xmm14, %xmm7 vmovaps 0xd0(%rsp), %xmm14 vfnmadd231ss %xmm4, %xmm14, %xmm3 # xmm3 = -(xmm14 * xmm4) + xmm3 vfnmadd231ss %xmm5, %xmm14, %xmm7 # xmm7 = -(xmm14 * xmm5) + xmm7 vpermilps $0xff, 0x1a0(%rsp), %xmm2 # xmm2 = mem[3,3,3,3] vsubss %xmm2, %xmm0, %xmm2 vshufps $0xff, %xmm13, %xmm13, %xmm0 # xmm0 = xmm13[3,3,3,3] vfmsub213ss %xmm0, %xmm6, %xmm3 # xmm3 = (xmm6 * xmm3) - xmm0 vmulss %xmm6, %xmm7, %xmm6 vmulss %xmm3, %xmm5, %xmm7 vfmsub231ss %xmm6, %xmm4, %xmm7 # xmm7 = (xmm4 * xmm6) - xmm7 vdivss %xmm7, %xmm6, %xmm6 vdivss %xmm7, %xmm3, %xmm3 vdivss %xmm7, %xmm5, %xmm5 vdivss %xmm7, %xmm4, %xmm4 vmulss %xmm6, %xmm14, %xmm6 vmulss %xmm5, %xmm2, %xmm5 vsubss %xmm5, %xmm6, %xmm5 vmulss %xmm3, %xmm14, %xmm3 vmulss %xmm4, %xmm2, %xmm4 vsubss %xmm3, %xmm4, %xmm3 vsubss %xmm5, %xmm8, %xmm8 vsubss %xmm3, %xmm12, %xmm12 vbroadcastss 0x240477(%rip), %xmm4 # 0x1f20ec4 vandps %xmm4, %xmm14, %xmm3 vucomiss %xmm3, %xmm27 movb $0x1, %al jbe 0x1ce0b50 vaddss %xmm27, %xmm1, %xmm1 vmovaps 0x3e0(%rsp), %xmm3 vfmadd231ss 0x21143d(%rip), %xmm3, %xmm1 # xmm1 = (xmm3 * mem) + xmm1 vandps %xmm4, %xmm2, %xmm2 vucomiss %xmm2, %xmm1 jbe 0x1ce0b50 vaddss 0x3f0(%rsp), %xmm12, %xmm12 xorl %eax, %eax vucomiss 0xc(%r15), %xmm12 vmovaps %ymm21, %ymm28 jb 0x1ce0b84 vmovss 0x20(%r15), %xmm6 vucomiss %xmm12, %xmm6 jb 0x1ce0b84 xorl %eax, %eax vucomiss 0x20af67(%rip), %xmm8 # 0x1eeba24 vmovaps %ymm26, %ymm25 jb 0x1ce0b8e vmovss 0x20bc43(%rip), %xmm1 # 0x1eec714 vucomiss %xmm8, %xmm1 vmovaps %ymm17, %ymm26 jb 0x1ce0b89 vxorps %xmm2, %xmm2, %xmm2 vmovaps 0x3a0(%rsp), %xmm3 vmovss %xmm3, %xmm2, %xmm1 # xmm1 = xmm3[0],xmm2[1,2,3] vrsqrt14ss %xmm1, %xmm2, %xmm1 vmulss 0x20bc17(%rip), %xmm1, %xmm2 # 0x1eec718 vmulss 0x20bc13(%rip), %xmm3, %xmm3 # 0x1eec71c movq 0x8(%rsp), %rcx movq (%rcx), %rax movq 0x1e8(%rax), %rax movq 0x38(%rsp), %rdx movq (%rax,%rdx,8), %r13 movl 0x24(%r15), %eax testl %eax, 0x34(%r13) vmovaps %ymm18, %ymm17 je 0x1ce0b93 movq 0x10(%rcx), %rax cmpq $0x0, 0x10(%rax) vmovaps %ymm30, %ymm18 jne 0x1ce0b9a cmpq $0x0, 0x48(%r13) jne 0x1ce0b9a movb $0x1, %r13b xorl %eax, %eax jmp 0x1ce0b6e vmovaps %ymm21, %ymm28 vmovaps %ymm26, %ymm25 vmovaps %ymm17, %ymm26 vmovaps %ymm18, %ymm17 vmovaps %ymm30, %ymm18 testb %al, %al je 0x1ce0e64 decq %r14 jne 0x1ce0594 jmp 0x1ce0e58 xorl %r13d, %r13d jmp 0x1ce0b56 xorl %r13d, %r13d jmp 0x1ce0b62 xorl %r13d, %r13d jmp 0x1ce0b5c xorl %eax, %eax xorl %r13d, %r13d jmp 0x1ce0b68 vmulss %xmm1, %xmm3, %xmm3 vmulss %xmm1, %xmm1, %xmm1 vmulss %xmm1, %xmm3, %xmm1 vaddss %xmm1, %xmm2, %xmm1 vbroadcastss %xmm1, %xmm1 vmulps 0x340(%rsp), %xmm1, %xmm1 vmovaps 0x80(%rsp), %xmm5 vfmadd213ps %xmm5, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm0) + xmm5 vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3] vshufps $0xc9, %xmm5, %xmm5, %xmm3 # xmm3 = xmm5[1,2,0,3] vmulps %xmm3, %xmm1, %xmm1 vfmsub231ps %xmm2, %xmm5, %xmm1 # xmm1 = (xmm5 * xmm2) - xmm1 vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3] vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3] vshufps $0xd2, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,0,1,3] vmulps %xmm1, %xmm0, %xmm0 vfmsub231ps %xmm3, %xmm2, %xmm0 # xmm0 = (xmm2 * xmm3) - xmm0 movq 0x8(%rsp), %rdx movq 0x8(%rdx), %rax vshufps $0xe9, %xmm0, %xmm0, %xmm1 # xmm1 = xmm0[1,2,2,3] vmovlps %xmm1, 0x2d0(%rsp) vmovss %xmm0, 0x2d8(%rsp) vmovss %xmm8, 0x2dc(%rsp) movl $0x0, 0x2e0(%rsp) movq 0x30(%rsp), %rcx movl %ecx, 0x2e4(%rsp) movq 0x38(%rsp), %rcx movl %ecx, 0x2e8(%rsp) movl (%rax), %ecx movl %ecx, 0x2ec(%rsp) movl 0x4(%rax), %eax movl %eax, 0x2f0(%rsp) vmovss %xmm12, 0x20(%r15) movl $0xffffffff, 0x2c(%rsp) # imm = 0xFFFFFFFF leaq 0x2c(%rsp), %rax movq %rax, 0x1b0(%rsp) movq 0x18(%r13), %rax movq %rax, 0x1b8(%rsp) movq 0x8(%rdx), %rax movq %rax, 0x1c0(%rsp) movq %r15, 0x1c8(%rsp) leaq 0x2d0(%rsp), %rax movq %rax, 0x1d0(%rsp) movl $0x1, 0x1d8(%rsp) movq 0x48(%r13), %rax testq %rax, %rax vmovaps %xmm8, 0x60(%rsp) vmovaps %xmm12, 0x40(%rsp) vmovss %xmm6, 0x1a0(%rsp) je 0x1ce0d71 leaq 0x1b0(%rsp), %rdi vzeroupper callq *%rax vmovss 0x1a0(%rsp), %xmm6 vmovaps 0x40(%rsp), %xmm12 vmovaps 0x60(%rsp), %xmm8 vmovaps 0x240(%rsp), %ymm24 vmovaps 0x260(%rsp), %ymm23 vmovaps 0x100(%rsp), %ymm19 vmovaps 0x280(%rsp), %ymm16 vmovaps 0x2a0(%rsp), %ymm20 vmovaps 0x120(%rsp), %ymm18 vmovaps 0x140(%rsp), %ymm17 vmovaps 0x160(%rsp), %ymm26 vmovaps 0x180(%rsp), %ymm25 vmovaps 0x1e0(%rsp), %ymm11 vmovaps 0x220(%rsp), %ymm10 vmovaps 0x200(%rsp), %ymm9 vbroadcastss 0x24016e(%rip), %xmm4 # 0x1f20ec4 vbroadcastss 0x240164(%rip), %ymm28 # 0x1f20ec4 movq 0x1b0(%rsp), %rax cmpl $0x0, (%rax) je 0x1ce0e41 movq 0x8(%rsp), %rax movq 0x10(%rax), %rcx movq 0x10(%rcx), %rax testq %rax, %rax je 0x1ce0e3c testb $0x2, (%rcx) jne 0x1ce0d97 testb $0x40, 0x3e(%r13) je 0x1ce0e2f leaq 0x1b0(%rsp), %rdi vzeroupper callq *%rax vmovss 0x1a0(%rsp), %xmm6 vmovaps 0x40(%rsp), %xmm12 vmovaps 0x60(%rsp), %xmm8 vmovaps 0x240(%rsp), %ymm24 vmovaps 0x260(%rsp), %ymm23 vmovaps 0x100(%rsp), %ymm19 vmovaps 0x280(%rsp), %ymm16 vmovaps 0x2a0(%rsp), %ymm20 vmovaps 0x120(%rsp), %ymm18 vmovaps 0x140(%rsp), %ymm17 vmovaps 0x160(%rsp), %ymm26 vmovaps 0x180(%rsp), %ymm25 vmovaps 0x1e0(%rsp), %ymm11 vmovaps 0x220(%rsp), %ymm10 vmovaps 0x200(%rsp), %ymm9 vbroadcastss 0x24009f(%rip), %xmm4 # 0x1f20ec4 vbroadcastss 0x240095(%rip), %ymm28 # 0x1f20ec4 movq 0x1b0(%rsp), %rax cmpl $0x0, (%rax) je 0x1ce0e41 movb $0x1, %r13b jmp 0x1ce0e44 xorl %r13d, %r13d testb %r13b, %r13b jne 0x1ce0b4c vmovss %xmm6, 0x20(%r15) jmp 0x1ce0b4c xorl %r13d, %r13d vbroadcastss 0x240060(%rip), %xmm4 # 0x1f20ec4 andb $0x1, %r13b orb %r13b, %bl vmovaps 0x580(%rsp), %ymm0 vcmpleps 0x20(%r15){1to8}, %ymm0, %k0 kmovd %k0, %eax andb %al, %r12b movq 0x318(%rsp), %r11 jne 0x1ce04b0 jmp 0x1ce0ed7 vmovaps 0x320(%rsp), %ymm4 vmovaps 0x200(%rsp), %ymm9 vmovaps 0x220(%rsp), %ymm10 vmovaps 0x1e0(%rsp), %ymm11 jmp 0x1ce1a76 vbroadcastss 0x23ffff(%rip), %xmm4 # 0x1f20ec4 vmovaps 0x200(%rsp), %ymm9 vmovaps 0x1e0(%rsp), %ymm11 vmovaps 0x320(%rsp), %ymm3 vaddps 0x540(%rsp), %ymm3, %ymm0 vcmpleps 0x20(%r15){1to8}, %ymm0, %k0 kmovd 0xfc(%rsp), %k1 kmovd 0xf4(%rsp), %k2 korb %k2, %k1, %k1 kmovd %k0, %eax movl 0x14(%rsp), %ecx andb %al, %cl vpbroadcastd 0x23ffc0(%rip), %ymm0 # 0x1f20edc vpblendmd 0x23ffb2(%rip){1to8}, %ymm0, %ymm0 {%k1} # 0x1f20ed8 vmovdqa %ymm0, 0x540(%rsp) vpcmpled 0x5e0(%rsp), %ymm0, %k0 kmovd %k0, %r12d movl %ecx, 0x14(%rsp) andb %cl, %r12b je 0x1ce199d vmovaps 0x680(%rsp), %ymm7 vmovaps 0x4e0(%rsp), %ymm1 vmovaps 0x4a0(%rsp), %ymm2 vminps %xmm2, %xmm1, %xmm0 vmaxps %xmm2, %xmm1, %xmm1 vmovaps 0x4c0(%rsp), %ymm5 vmovaps 0x480(%rsp), %ymm6 vminps %xmm6, %xmm5, %xmm2 vminps %xmm2, %xmm0, %xmm0 vmaxps %xmm6, %xmm5, %xmm2 vmaxps %xmm2, %xmm1, %xmm1 vandps %xmm4, %xmm0, %xmm0 vandps %xmm4, %xmm1, %xmm2 vmaxps %xmm2, %xmm0, %xmm0 vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3] vmaxss %xmm0, %xmm2, %xmm2 vshufpd $0x1, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[1,0] vmaxss %xmm2, %xmm0, %xmm0 vmulss 0x210f01(%rip), %xmm0, %xmm0 # 0x1ef1eb4 vmovss %xmm0, 0x1c(%rsp) vshufps $0xff, %xmm1, %xmm1, %xmm0 # xmm0 = xmm1[3,3,3,3] vmovaps %xmm0, 0x3e0(%rsp) vmovaps %ymm7, 0x500(%rsp) vaddps %ymm7, %ymm3, %ymm0 vmovaps %ymm0, 0x580(%rsp) kmovd %r12d, %k1 vbroadcastss 0x20aa35(%rip), %ymm0 # 0x1eeba20 vblendmps 0x500(%rsp), %ymm0, %ymm0 {%k1} vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm0, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1] vminps %ymm2, %ymm1, %ymm1 vcmpeqps %ymm1, %ymm0, %k0 kmovd %k0, %eax andb %r12b, %al movzbl %al, %eax movzbl %r12b, %ecx cmovnel %eax, %ecx tzcntl %ecx, %ecx movb $0x1, %r14b shlb %cl, %r14b shll $0x2, %ecx vmovss 0x5a0(%rsp,%rcx), %xmm8 vmovss 0x6a0(%rsp,%rcx), %xmm12 vmovaps 0x10(%r15), %xmm0 vmovaps %xmm0, 0x380(%rsp) vdpps $0x7f, %xmm0, %xmm0, %xmm0 vucomiss 0x20a9c1(%rip), %xmm0 # 0x1eeba24 jb 0x1ce106b vsqrtss %xmm0, %xmm0, %xmm0 jmp 0x1ce109d vmovaps %xmm8, 0x60(%rsp) vmovaps %xmm12, 0x40(%rsp) kmovw %k1, 0x80(%rsp) vzeroupper callq 0x6aa20 kmovw 0x80(%rsp), %k1 vmovaps 0x40(%rsp), %xmm12 vmovaps 0x60(%rsp), %xmm8 movzbl %r14b, %eax kmovd %eax, %k0 kandnb %k1, %k0, %k0 kmovd %k0, %r12d vmulss 0x210dff(%rip), %xmm0, %xmm0 # 0x1ef1eb4 vmovss %xmm0, 0x20(%rsp) movl $0x5, %r14d vbroadcastss %xmm12, %xmm0 vxorps %xmm1, %xmm1, %xmm1 vfmadd132ps 0x380(%rsp), %xmm1, %xmm0 # xmm0 = (xmm0 * mem) + xmm1 vmovss 0x20b638(%rip), %xmm1 # 0x1eec714 vsubss %xmm8, %xmm1, %xmm3 vbroadcastss %xmm8, %xmm1 vmovaps 0x4a0(%rsp), %ymm5 vmulps %xmm1, %xmm5, %xmm2 vmovaps %xmm3, 0x450(%rsp) vbroadcastss %xmm3, %xmm3 vfmadd231ps 0x4e0(%rsp), %xmm3, %xmm2 # xmm2 = (xmm3 * mem) + xmm2 vmovaps 0x4c0(%rsp), %ymm6 vmulps %xmm1, %xmm6, %xmm4 vfmadd231ps %xmm5, %xmm3, %xmm4 # xmm4 = (xmm3 * xmm5) + xmm4 vmulps 0x480(%rsp), %xmm1, %xmm5 vfmadd231ps %xmm6, %xmm3, %xmm5 # xmm5 = (xmm3 * xmm6) + xmm5 vmulps %xmm4, %xmm1, %xmm6 vfmadd231ps %xmm2, %xmm3, %xmm6 # xmm6 = (xmm3 * xmm2) + xmm6 vmulps %xmm5, %xmm1, %xmm2 vfmadd231ps %xmm4, %xmm3, %xmm2 # xmm2 = (xmm3 * xmm4) + xmm2 vmulps %xmm2, %xmm1, %xmm4 vfmadd231ps %xmm3, %xmm6, %xmm4 # xmm4 = (xmm6 * xmm3) + xmm4 vsubps %xmm6, %xmm2, %xmm1 vmulps 0x20fe98(%rip){1to4}, %xmm1, %xmm13 # 0x1ef0fec vmovaps %xmm4, 0x1a0(%rsp) vsubps %xmm4, %xmm0, %xmm0 vmovaps %xmm0, 0x340(%rsp) vdpps $0x7f, %xmm0, %xmm0, %xmm0 vucomiss 0x20a8ac(%rip), %xmm0 # 0x1eeba24 vmovaps %xmm13, 0x80(%rsp) vmovaps %xmm0, 0x3a0(%rsp) vmovaps %xmm8, 0x60(%rsp) vmovaps %xmm12, 0x40(%rsp) jb 0x1ce119e vsqrtss %xmm0, %xmm0, %xmm7 jmp 0x1ce11b3 vzeroupper callq 0x6aa20 vmovaps 0x80(%rsp), %xmm13 vmovaps %xmm0, %xmm7 vdpps $0x7f, %xmm13, %xmm13, %xmm0 vxorps %xmm1, %xmm1, %xmm1 vmovss %xmm0, %xmm1, %xmm2 # xmm2 = xmm0[0],xmm1[1,2,3] vrsqrt14ss %xmm2, %xmm1, %xmm3 vmulss 0x20b549(%rip), %xmm3, %xmm4 # 0x1eec718 vmulss 0x20b545(%rip), %xmm0, %xmm5 # 0x1eec71c vrcp14ss %xmm2, %xmm1, %xmm2 vxorps 0x23fcd9(%rip){1to4}, %xmm0, %xmm1 # 0x1f20ec0 vmovaps %xmm2, 0x430(%rsp) vfnmadd213ss 0x20fdff(%rip), %xmm0, %xmm2 # xmm2 = -(xmm0 * xmm2) + mem vmovss %xmm2, 0x28(%rsp) vucomiss %xmm1, %xmm0 vmovss %xmm7, 0x4(%rsp) vmovaps %xmm0, 0x440(%rsp) jb 0x1ce121c vsqrtss %xmm0, %xmm0, %xmm29 jmp 0x1ce126f vmovaps %xmm3, 0xd0(%rsp) vmovss %xmm4, 0xc0(%rsp) vmovss %xmm5, 0xb0(%rsp) vzeroupper callq 0x6aa20 vmovss 0xb0(%rsp), %xmm5 vmovss 0xc0(%rsp), %xmm4 vmovaps 0xd0(%rsp), %xmm3 vmovss 0x4(%rsp), %xmm7 vmovaps 0x80(%rsp), %xmm13 vmovaps %xmm0, %xmm29 vmovaps 0x340(%rsp), %xmm14 vmulss %xmm3, %xmm5, %xmm0 vmulss %xmm3, %xmm3, %xmm1 vmulss %xmm1, %xmm0, %xmm0 vaddss %xmm0, %xmm4, %xmm0 vbroadcastss %xmm0, %xmm15 vmulps %xmm15, %xmm13, %xmm0 vmovaps %xmm0, 0xb0(%rsp) vdpps $0x7f, %xmm0, %xmm14, %xmm0 vaddss 0x20b469(%rip), %xmm7, %xmm27 # 0x1eec714 vmovaps %xmm0, 0xd0(%rsp) vmulps %xmm0, %xmm0, %xmm0 vmovaps 0x3a0(%rsp), %xmm1 vsubps %xmm0, %xmm1, %xmm0 vxorps %xmm2, %xmm2, %xmm2 vmovss %xmm0, %xmm2, %xmm1 # xmm1 = xmm0[0],xmm2[1,2,3] vrsqrt14ss %xmm1, %xmm2, %xmm31 vmulss 0x20b43b(%rip), %xmm31, %xmm1 # 0x1eec718 vmovss %xmm1, 0xc0(%rsp) vmulss 0x20b42e(%rip), %xmm0, %xmm1 # 0x1eec71c vmovss %xmm1, 0x24(%rsp) vucomiss 0x20a728(%rip), %xmm0 # 0x1eeba24 jb 0x1ce1304 vsqrtss %xmm0, %xmm0, %xmm0 jmp 0x1ce136c vmovss %xmm27, 0x18(%rsp) vmovss %xmm29, 0x420(%rsp) vmovaps %xmm31, 0x410(%rsp) vmovaps %xmm15, 0x400(%rsp) vzeroupper callq 0x6aa20 vmovaps 0x400(%rsp), %xmm15 vmovaps 0x410(%rsp), %xmm31 vmovss 0x420(%rsp), %xmm29 vmovss 0x4(%rsp), %xmm7 vmovss 0x18(%rsp), %xmm27 vmovaps 0x340(%rsp), %xmm14 vmovaps 0x80(%rsp), %xmm13 vbroadcastss 0x23fb4e(%rip), %ymm22 # 0x1f20ec4 vmovaps 0x200(%rsp), %ymm9 vmovaps 0x220(%rsp), %ymm10 vmovaps 0x1e0(%rsp), %ymm11 vmovaps 0x180(%rsp), %ymm25 vmovaps 0x160(%rsp), %ymm26 vmovaps 0x140(%rsp), %ymm17 vmovaps 0x120(%rsp), %ymm18 vmovaps 0x2a0(%rsp), %ymm20 vmovaps 0x280(%rsp), %ymm16 vmovaps 0x360(%rsp), %ymm30 vmovaps 0x100(%rsp), %ymm19 vmovaps 0x260(%rsp), %ymm23 vmovaps 0x240(%rsp), %ymm24 vmovaps 0x60(%rsp), %xmm8 vmovaps 0x40(%rsp), %xmm12 vmovss 0x20f5e7(%rip), %xmm3 # 0x1ef09dc vmovaps %xmm3, %xmm1 vmovaps 0x450(%rsp), %xmm5 vfmadd213ss %xmm5, %xmm8, %xmm1 # xmm1 = (xmm8 * xmm1) + xmm5 vmovss 0x20fbe5(%rip), %xmm4 # 0x1ef0ff4 vmulss %xmm4, %xmm1, %xmm1 vmulss %xmm4, %xmm8, %xmm2 vbroadcastss %xmm2, %xmm2 vmulps 0x480(%rsp), %xmm2, %xmm2 vbroadcastss %xmm1, %xmm1 vfmadd132ps 0x4c0(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2 vmovaps %xmm3, %xmm2 vfmadd213ss %xmm8, %xmm5, %xmm2 # xmm2 = (xmm5 * xmm2) + xmm8 vmulss %xmm4, %xmm2, %xmm2 vbroadcastss %xmm2, %xmm2 vfmadd132ps 0x4a0(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1 vmulss %xmm4, %xmm5, %xmm1 vbroadcastss %xmm1, %xmm1 vfmadd132ps 0x4e0(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2 vbroadcastss 0x440(%rsp), %xmm2 vmulps %xmm2, %xmm1, %xmm2 vdpps $0x7f, %xmm1, %xmm13, %xmm1 vbroadcastss %xmm1, %xmm1 vmulps %xmm1, %xmm13, %xmm1 vsubps %xmm1, %xmm2, %xmm2 vmovss 0x28(%rsp), %xmm1 vmulss 0x430(%rsp), %xmm1, %xmm3 vmulss 0x20(%rsp), %xmm12, %xmm1 vmovss 0x1c(%rsp), %xmm6 vmaxss %xmm1, %xmm6, %xmm1 vbroadcastss %xmm3, %xmm3 vmulps %xmm3, %xmm2, %xmm2 vxorps 0x23fa0a(%rip){1to4}, %xmm13, %xmm3 # 0x1f20ec0 vmulps %xmm2, %xmm15, %xmm2 vmovaps 0xb0(%rsp), %xmm15 vdpps $0x7f, %xmm15, %xmm3, %xmm4 vdivss %xmm29, %xmm6, %xmm5 vfmadd213ss %xmm1, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm7) + xmm1 vdpps $0x7f, %xmm2, %xmm14, %xmm2 vfmadd213ss %xmm7, %xmm5, %xmm27 # xmm27 = (xmm5 * xmm27) + xmm7 vaddss %xmm2, %xmm4, %xmm4 vmovaps 0x380(%rsp), %xmm7 vdpps $0x7f, %xmm15, %xmm7, %xmm5 vdpps $0x7f, %xmm3, %xmm14, %xmm3 vmulss 0x24(%rsp), %xmm31, %xmm2 vmulss %xmm31, %xmm31, %xmm6 vmulss %xmm6, %xmm2, %xmm2 vaddss 0xc0(%rsp), %xmm2, %xmm6 vdpps $0x7f, %xmm7, %xmm14, %xmm7 vmovaps 0xd0(%rsp), %xmm29 vfnmadd231ss %xmm4, %xmm29, %xmm3 # xmm3 = -(xmm29 * xmm4) + xmm3 vfnmadd231ss %xmm5, %xmm29, %xmm7 # xmm7 = -(xmm29 * xmm5) + xmm7 vpermilps $0xff, 0x1a0(%rsp), %xmm2 # xmm2 = mem[3,3,3,3] vsubss %xmm2, %xmm0, %xmm2 vshufps $0xff, %xmm13, %xmm13, %xmm0 # xmm0 = xmm13[3,3,3,3] vfmsub213ss %xmm0, %xmm6, %xmm3 # xmm3 = (xmm6 * xmm3) - xmm0 vmulss %xmm6, %xmm7, %xmm6 vmulss %xmm3, %xmm5, %xmm7 vfmsub231ss %xmm6, %xmm4, %xmm7 # xmm7 = (xmm4 * xmm6) - xmm7 vdivss %xmm7, %xmm6, %xmm6 vdivss %xmm7, %xmm3, %xmm3 vdivss %xmm7, %xmm5, %xmm5 vdivss %xmm7, %xmm4, %xmm4 vmulss %xmm6, %xmm29, %xmm6 vmulss %xmm5, %xmm2, %xmm5 vsubss %xmm5, %xmm6, %xmm5 vmulss %xmm3, %xmm29, %xmm3 vmulss %xmm4, %xmm2, %xmm4 vsubss %xmm3, %xmm4, %xmm3 vsubss %xmm5, %xmm8, %xmm8 vsubss %xmm3, %xmm12, %xmm12 vbroadcastss 0x23f932(%rip), %xmm4 # 0x1f20ec4 vandps %xmm4, %xmm29, %xmm3 vucomiss %xmm3, %xmm27 movb $0x1, %al jbe 0x1ce167a vaddss %xmm27, %xmm1, %xmm1 vmovaps 0x3e0(%rsp), %xmm3 vfmadd231ss 0x2108f6(%rip), %xmm3, %xmm1 # xmm1 = (xmm3 * mem) + xmm1 vandps %xmm4, %xmm2, %xmm2 vucomiss %xmm2, %xmm1 jbe 0x1ce167a vaddss 0x3f0(%rsp), %xmm12, %xmm12 xorl %eax, %eax vucomiss 0xc(%r15), %xmm12 vmovaps 0x320(%rsp), %ymm4 jb 0x1ce1687 vmovss 0x20(%r15), %xmm5 vucomiss %xmm12, %xmm5 jb 0x1ce1687 xorl %eax, %eax vucomiss 0x20a41d(%rip), %xmm8 # 0x1eeba24 jb 0x1ce1687 vmovss 0x20b103(%rip), %xmm1 # 0x1eec714 vucomiss %xmm8, %xmm1 jb 0x1ce1687 vxorps %xmm2, %xmm2, %xmm2 vmovaps 0x3a0(%rsp), %xmm3 vmovss %xmm3, %xmm2, %xmm1 # xmm1 = xmm3[0],xmm2[1,2,3] vrsqrt14ss %xmm1, %xmm2, %xmm1 vmulss 0x20b0e1(%rip), %xmm1, %xmm2 # 0x1eec718 vmulss 0x20b0dd(%rip), %xmm3, %xmm3 # 0x1eec71c movq 0x8(%rsp), %rcx movq (%rcx), %rax movq 0x1e8(%rax), %rax movq 0x38(%rsp), %rdx movq (%rax,%rdx,8), %r13 movl 0x24(%r15), %eax testl %eax, 0x34(%r13) je 0x1ce1685 movq 0x10(%rcx), %rax cmpq $0x0, 0x10(%rax) jne 0x1ce16a6 cmpq $0x0, 0x48(%r13) jne 0x1ce16a6 movb $0x1, %r13b xorl %eax, %eax jmp 0x1ce168a vmovaps 0x320(%rsp), %ymm4 jmp 0x1ce168a xorl %eax, %eax xorl %r13d, %r13d vmovaps %ymm22, %ymm28 testb %al, %al je 0x1ce196e decq %r14 jne 0x1ce10c1 jmp 0x1ce196b vmulss %xmm1, %xmm3, %xmm3 vmulss %xmm1, %xmm1, %xmm1 vmulss %xmm1, %xmm3, %xmm1 vaddss %xmm1, %xmm2, %xmm1 vbroadcastss %xmm1, %xmm1 vmulps %xmm1, %xmm14, %xmm1 vfmadd213ps %xmm13, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm0) + xmm13 vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3] vshufps $0xc9, %xmm13, %xmm13, %xmm3 # xmm3 = xmm13[1,2,0,3] vmulps %xmm3, %xmm1, %xmm1 vfmsub231ps %xmm2, %xmm13, %xmm1 # xmm1 = (xmm13 * xmm2) - xmm1 vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3] vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3] vshufps $0xd2, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,0,1,3] vmulps %xmm1, %xmm0, %xmm0 vfmsub231ps %xmm3, %xmm2, %xmm0 # xmm0 = (xmm2 * xmm3) - xmm0 movq 0x8(%rsp), %rdx movq 0x8(%rdx), %rax vshufps $0xe9, %xmm0, %xmm0, %xmm1 # xmm1 = xmm0[1,2,2,3] vmovlps %xmm1, 0x2d0(%rsp) vmovss %xmm0, 0x2d8(%rsp) vmovss %xmm8, 0x2dc(%rsp) movl $0x0, 0x2e0(%rsp) movq 0x30(%rsp), %rcx movl %ecx, 0x2e4(%rsp) movq 0x38(%rsp), %rcx movl %ecx, 0x2e8(%rsp) movl (%rax), %ecx movl %ecx, 0x2ec(%rsp) movl 0x4(%rax), %eax movl %eax, 0x2f0(%rsp) vmovss %xmm12, 0x20(%r15) movl $0xffffffff, 0x2c(%rsp) # imm = 0xFFFFFFFF leaq 0x2c(%rsp), %rax movq %rax, 0x1b0(%rsp) movq 0x18(%r13), %rax movq %rax, 0x1b8(%rsp) movq 0x8(%rdx), %rax movq %rax, 0x1c0(%rsp) movq %r15, 0x1c8(%rsp) leaq 0x2d0(%rsp), %rax movq %rax, 0x1d0(%rsp) movl $0x1, 0x1d8(%rsp) movq 0x48(%r13), %rax testq %rax, %rax vmovaps %ymm22, %ymm28 vmovaps %xmm8, 0x60(%rsp) vmovaps %xmm12, 0x40(%rsp) vmovss %xmm5, 0x80(%rsp) je 0x1ce187e leaq 0x1b0(%rsp), %rdi vzeroupper callq *%rax vmovss 0x80(%rsp), %xmm5 vmovaps 0x40(%rsp), %xmm12 vmovaps 0x60(%rsp), %xmm8 vmovaps 0x240(%rsp), %ymm24 vmovaps 0x260(%rsp), %ymm23 vmovaps 0x100(%rsp), %ymm19 vmovaps 0x360(%rsp), %ymm30 vmovaps 0x280(%rsp), %ymm16 vmovaps 0x2a0(%rsp), %ymm20 vmovaps 0x120(%rsp), %ymm18 vmovaps 0x140(%rsp), %ymm17 vmovaps 0x160(%rsp), %ymm26 vmovaps 0x180(%rsp), %ymm25 vmovaps 0x1e0(%rsp), %ymm11 vmovaps 0x220(%rsp), %ymm10 vmovaps 0x200(%rsp), %ymm9 vmovaps 0x320(%rsp), %ymm4 vbroadcastss 0x23f657(%rip), %ymm28 # 0x1f20ec4 movq 0x1b0(%rsp), %rax cmpl $0x0, (%rax) je 0x1ce1956 movq 0x8(%rsp), %rax movq 0x10(%rax), %rcx movq 0x10(%rcx), %rax testq %rax, %rax je 0x1ce1951 testb $0x2, (%rcx) jne 0x1ce18a4 testb $0x40, 0x3e(%r13) je 0x1ce1944 leaq 0x1b0(%rsp), %rdi vzeroupper callq *%rax vmovss 0x80(%rsp), %xmm5 vmovaps 0x40(%rsp), %xmm12 vmovaps 0x60(%rsp), %xmm8 vmovaps 0x240(%rsp), %ymm24 vmovaps 0x260(%rsp), %ymm23 vmovaps 0x100(%rsp), %ymm19 vmovaps 0x360(%rsp), %ymm30 vmovaps 0x280(%rsp), %ymm16 vmovaps 0x2a0(%rsp), %ymm20 vmovaps 0x120(%rsp), %ymm18 vmovaps 0x140(%rsp), %ymm17 vmovaps 0x160(%rsp), %ymm26 vmovaps 0x180(%rsp), %ymm25 vmovaps 0x1e0(%rsp), %ymm11 vmovaps 0x220(%rsp), %ymm10 vmovaps 0x200(%rsp), %ymm9 vmovaps 0x320(%rsp), %ymm4 vbroadcastss 0x23f580(%rip), %ymm28 # 0x1f20ec4 movq 0x1b0(%rsp), %rax cmpl $0x0, (%rax) je 0x1ce1956 movb $0x1, %r13b jmp 0x1ce1959 xorl %r13d, %r13d testb %r13b, %r13b jne 0x1ce1964 vmovss %xmm5, 0x20(%r15) xorl %eax, %eax jmp 0x1ce1690 xorl %r13d, %r13d andb $0x1, %r13b orb %r13b, %bl vmovaps 0x580(%rsp), %ymm0 vcmpleps 0x20(%r15){1to8}, %ymm0, %k0 kmovd %k0, %eax andb %al, %r12b movq 0x318(%rsp), %r11 jne 0x1ce0fdd jmp 0x1ce19a9 vmovaps %ymm3, %ymm4 vmovaps 0x360(%rsp), %ymm30 vmovdqa 0x5e0(%rsp), %ymm1 vpcmpltd 0x540(%rsp), %ymm1, %k1 vmovaps 0x640(%rsp), %ymm0 vpcmpltd 0x6c0(%rsp), %ymm1, %k2 vaddps %ymm0, %ymm4, %ymm1 vbroadcastss 0x20(%r15), %ymm2 vcmpleps %ymm2, %ymm1, %k0 {%k2} kmovd %k0, %eax movl 0xf8(%rsp), %ecx andb %al, %cl vmovaps 0x680(%rsp), %ymm1 vaddps %ymm1, %ymm4, %ymm3 vcmpleps %ymm2, %ymm3, %k0 {%k1} kmovd %k0, %eax movl 0x14(%rsp), %edx andb %al, %dl orb %cl, %dl je 0x1ce1a58 movl %r11d, %eax leaq (%rax,%rax,2), %rax shlq $0x5, %rax movb %dl, 0x760(%rsp,%rax) kmovd %ecx, %k1 vmovaps %ymm0, %ymm1 {%k1} vmovaps %ymm1, 0x780(%rsp,%rax) vmovaps 0x3d0(%rsp), %xmm0 vmovlps %xmm0, 0x7a0(%rsp,%rax) movq 0xe8(%rsp), %rcx incl %ecx movl %ecx, 0x7a8(%rsp,%rax) incl %r11d movq 0x308(%rsp), %r9 movq 0x8(%rsp), %rdx movb 0x3(%rsp), %al movq 0x310(%rsp), %r14 movq 0x30(%rsp), %r12 vmovaps 0x460(%rsp), %ymm3 vbroadcastss 0x20(%r15), %ymm0 testl %r11d, %r11d je 0x1ce1c16 leal -0x1(%r11), %r8d leaq (%r8,%r8,2), %rcx shlq $0x5, %rcx movzbl 0x760(%rsp,%rcx), %esi vmovaps 0x780(%rsp,%rcx), %ymm1 vaddps %ymm1, %ymm4, %ymm2 vcmpleps %ymm0, %ymm2, %k0 kmovb %k0, %r10d andl %esi, %r10d je 0x1ce1b8d kmovd %r10d, %k1 vbroadcastss 0x209f4f(%rip), %ymm2 # 0x1eeba20 vblendmps %ymm1, %ymm2, %ymm1 {%k1} vshufps $0xb1, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2,5,4,7,6] vminps %ymm2, %ymm1, %ymm2 vshufpd $0x5, %ymm2, %ymm2, %ymm3 # ymm3 = ymm2[1,0,3,2] vminps %ymm3, %ymm2, %ymm2 vpermpd $0x4e, %ymm2, %ymm3 # ymm3 = ymm2[2,3,0,1] vminps %ymm3, %ymm2, %ymm2 vcmpeqps %ymm2, %ymm1, %k0 kmovd %k0, %esi andb %r10b, %sil je 0x1ce1b09 movzbl %sil, %edi jmp 0x1ce1b0d movzbl %r10b, %edi leaq (%rsp,%rcx), %rsi addq $0x760, %rsi # imm = 0x760 vmovss 0x44(%rsi), %xmm1 tzcntl %edi, %ecx movb $0x1, %dil shlb %cl, %dil movl 0x48(%rsi), %r13d movq %r13, 0xe8(%rsp) movzbl %dil, %edi kmovd %edi, %k0 kmovd %r10d, %k1 kandnb %k1, %k0, %k0 kmovb %k0, (%rsi) kortestb %k0, %k0 vmovaps 0x460(%rsp), %ymm3 je 0x1ce1b5a movl %r11d, %r8d vbroadcastss 0x40(%rsi), %ymm2 vsubss %xmm2, %xmm1, %xmm1 vbroadcastss %xmm1, %ymm1 vfmadd132ps 0x23f3ae(%rip), %ymm2, %ymm1 # ymm1 = (ymm1 * mem) + ymm2 vmovaps %ymm1, 0x640(%rsp) vmovsd 0x640(%rsp,%rcx,4), %xmm1 vmovaps %xmm1, 0x3d0(%rsp) movl %r8d, %r11d testb %r10b, %r10b je 0x1ce1a85 vmovaps 0x740(%rsp), %ymm12 vmovaps 0x700(%rsp), %ymm21 vmovaps 0x3d0(%rsp), %xmm2 vmovaps %ymm16, %ymm22 vmovaps 0x720(%rsp), %ymm14 jmp 0x1cdf8a0 vcmpleps 0x23f32e(%rip), %ymm23, %k2 # 0x1f20f00 vbroadcastss 0x20afa9(%rip), %ymm1 # 0x1eecb84 vbroadcastss 0x209e3b(%rip), %ymm23 # 0x1eeba20 vblendmps %ymm1, %ymm23, %ymm0 {%k2} vmovaps %ymm0, %ymm31 {%k1} vblendmps %ymm23, %ymm1, %ymm0 {%k2} kmovd %k2, %ecx vmovaps %ymm0, %ymm30 {%k1} knotb %k1, %k0 kmovd %k0, %esi orb %cl, %sil andb %dil, %sil movl %esi, %edi jmp 0x1cdfda5 testb $0x1, %bl jne 0x1ce1c3c vmovaps 0x6e0(%rsp), %ymm0 vcmpleps 0x20(%r15){1to8}, %ymm0, %k0 kmovb %k0, %eax andl %eax, %r14d setne %al jne 0x1cdf5b0 andb $0x1, %al leaq -0x28(%rbp), %rsp popq %rbx popq %r12 popq %r13 popq %r14 popq %r15 popq %rbp vzeroupper retq
/embree[P]embree/kernels/geometry/curveNi_intersector.h
void embree::avx512::CurveNiIntersectorK<8, 4>::intersect_t<embree::avx512::SweepCurve1IntersectorK<embree::BezierCurveT, 4>, embree::avx512::Intersect1KEpilog1<4, true>>(embree::avx512::CurvePrecalculationsK<4>&, embree::RayHitK<4>&, unsigned long, embree::RayQueryContext*, embree::CurveNi<8> const&)
static __forceinline void intersect_t(Precalculations& pre, RayHitK<K>& ray, const size_t k, RayQueryContext* context, const Primitive& prim) { vfloat<M> tNear; vbool<M> valid = intersect(ray,k,prim,tNear); const size_t N = prim.N; size_t mask = movemask(valid); while (mask) { const size_t i = bscf(mask); STAT3(normal.trav_prims,1,1,1); const unsigned int geomID = prim.geomID(N); const unsigned int primID = prim.primID(N)[i]; const CurveGeometry* geom = context->scene->get<CurveGeometry>(geomID); Vec3ff a0,a1,a2,a3; geom->gather(a0,a1,a2,a3,geom->curve(primID)); size_t mask1 = mask; const size_t i1 = bscf(mask1); if (mask) { const unsigned int primID1 = prim.primID(N)[i1]; geom->prefetchL1_vertices(geom->curve(primID1)); if (mask1) { const size_t i2 = bsf(mask1); const unsigned int primID2 = prim.primID(N)[i2]; geom->prefetchL2_vertices(geom->curve(primID2)); } } Intersector().intersect(pre,ray,k,context,geom,primID,a0,a1,a2,a3,Epilog(ray,k,context,geomID,primID)); mask &= movemask(tNear <= vfloat<M>(ray.tfar[k])); } }
pushq %rbp movq %rsp, %rbp pushq %r15 pushq %r14 pushq %r13 pushq %r12 pushq %rbx andq $-0x20, %rsp subq $0x980, %rsp # imm = 0x980 movq %rcx, %r15 movq %rsi, %r12 movzbl 0x1(%r8), %ecx leaq (%rcx,%rcx,4), %rax leaq (%rax,%rax,4), %rsi vbroadcastss 0x12(%r8,%rsi), %xmm0 vmovss (%r12,%rdx,4), %xmm1 vmovss 0x40(%r12,%rdx,4), %xmm2 vinsertps $0x10, 0x10(%r12,%rdx,4), %xmm1, %xmm1 # xmm1 = xmm1[0],mem[0],xmm1[2,3] vinsertps $0x20, 0x20(%r12,%rdx,4), %xmm1, %xmm1 # xmm1 = xmm1[0,1],mem[0],xmm1[3] vinsertps $0x10, 0x50(%r12,%rdx,4), %xmm2, %xmm2 # xmm2 = xmm2[0],mem[0],xmm2[2,3] vinsertps $0x20, 0x60(%r12,%rdx,4), %xmm2, %xmm2 # xmm2 = xmm2[0,1],mem[0],xmm2[3] vsubps 0x6(%r8,%rsi), %xmm1, %xmm1 vmulps %xmm1, %xmm0, %xmm3 vmulps %xmm2, %xmm0, %xmm0 vpmovsxbd 0x6(%r8,%rcx,4), %ymm1 vpmovsxbd 0x6(%r8,%rax), %ymm2 vcvtdq2ps %ymm1, %ymm5 vcvtdq2ps %ymm2, %ymm6 leaq (%rcx,%rcx,2), %r9 vpmovsxbd 0x6(%r8,%r9,2), %ymm1 vcvtdq2ps %ymm1, %ymm4 leaq (%rcx,%rax,2), %rsi vpmovsxbd 0x6(%r8,%rsi), %ymm1 leal (,%r9,4), %esi vpmovsxbd 0x6(%r8,%rsi), %ymm2 vcvtdq2ps %ymm1, %ymm7 vcvtdq2ps %ymm2, %ymm8 addq %rcx, %rsi vpmovsxbd 0x6(%r8,%rsi), %ymm1 vcvtdq2ps %ymm1, %ymm9 leaq (%rcx,%rcx,8), %rsi leal (%rsi,%rsi), %edi vpmovsxbd 0x6(%r8,%rdi), %ymm1 vcvtdq2ps %ymm1, %ymm10 addq %rcx, %rdi vpmovsxbd 0x6(%r8,%rdi), %ymm1 vcvtdq2ps %ymm1, %ymm11 shll $0x2, %eax vpmovsxbd 0x6(%r8,%rax), %ymm1 vcvtdq2ps %ymm1, %ymm12 vbroadcastss %xmm0, %ymm13 vbroadcastss 0x2309b5(%rip), %ymm15 # 0x1f12704 vbroadcastss 0x23f183(%rip), %ymm16 # 0x1f20edc vpermps %ymm0, %ymm15, %ymm14 vpermps %ymm0, %ymm16, %ymm0 vmulps %ymm4, %ymm0, %ymm2 vmulps %ymm0, %ymm9, %ymm1 vmulps %ymm0, %ymm12, %ymm0 vfmadd231ps %ymm6, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm6) + ymm2 vfmadd231ps %ymm8, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm8) + ymm1 vfmadd231ps %ymm14, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm14) + ymm0 vfmadd231ps %ymm5, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm5) + ymm2 vfmadd231ps %ymm7, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm7) + ymm1 vfmadd231ps %ymm13, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm13) + ymm0 vbroadcastss %xmm3, %ymm13 vpermps %ymm3, %ymm15, %ymm14 vpermps %ymm3, %ymm16, %ymm3 vmulps %ymm4, %ymm3, %ymm15 vmulps %ymm3, %ymm9, %ymm4 vmulps %ymm3, %ymm12, %ymm3 vfmadd231ps %ymm6, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm6) + ymm15 vfmadd231ps %ymm8, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm8) + ymm4 vfmadd231ps %ymm11, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm11) + ymm3 vfmadd231ps %ymm5, %ymm13, %ymm15 # ymm15 = (ymm13 * ymm5) + ymm15 vfmadd231ps %ymm7, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm7) + ymm4 vbroadcastss 0x23f0f8(%rip), %ymm6 # 0x1f20ec4 vfmadd231ps %ymm10, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm10) + ymm3 vandps %ymm6, %ymm2, %ymm5 vbroadcastss 0x20f20a(%rip), %ymm7 # 0x1ef0fe8 vcmpltps %ymm7, %ymm5, %k1 vmovaps %ymm7, %ymm2 {%k1} vandps %ymm6, %ymm1, %ymm5 vcmpltps %ymm7, %ymm5, %k1 vmovaps %ymm7, %ymm1 {%k1} vandps %ymm6, %ymm0, %ymm5 vcmpltps %ymm7, %ymm5, %k1 vmovaps %ymm7, %ymm0 {%k1} vrcp14ps %ymm2, %ymm5 vbroadcastss 0x20a8f8(%rip), %ymm6 # 0x1eec714 vfnmadd213ps %ymm6, %ymm5, %ymm2 # ymm2 = -(ymm5 * ymm2) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm2 # ymm2 = (ymm2 * ymm5) + ymm5 vrcp14ps %ymm1, %ymm5 vfnmadd213ps %ymm6, %ymm5, %ymm1 # ymm1 = -(ymm5 * ymm1) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm1 # ymm1 = (ymm1 * ymm5) + ymm5 vrcp14ps %ymm0, %ymm5 vfnmadd213ps %ymm6, %ymm5, %ymm0 # ymm0 = -(ymm5 * ymm0) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm0 # ymm0 = (ymm0 * ymm5) + ymm5 leaq (,%rcx,8), %rdi subq %rcx, %rdi vpmovsxwd 0x6(%r8,%rdi), %ymm5 vcvtdq2ps %ymm5, %ymm5 vsubps %ymm15, %ymm5, %ymm5 vmulps %ymm5, %ymm2, %ymm5 vpmovsxwd 0x6(%r8,%rsi), %ymm6 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm15, %ymm6, %ymm6 leaq (%rcx,%rcx), %rsi addq %rcx, %rax shlq $0x3, %r9 subq %rcx, %r9 vpbroadcastd %ecx, %ymm7 shll $0x4, %ecx vpmovsxwd 0x6(%r8,%rcx), %ymm8 vmulps %ymm6, %ymm2, %ymm2 subq %rsi, %rcx vpmovsxwd 0x6(%r8,%rcx), %ymm6 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm4, %ymm6, %ymm6 vmulps %ymm6, %ymm1, %ymm6 vcvtdq2ps %ymm8, %ymm8 vsubps %ymm4, %ymm8, %ymm4 vmulps %ymm4, %ymm1, %ymm1 vpmovsxwd 0x6(%r8,%rax), %ymm4 vcvtdq2ps %ymm4, %ymm4 vsubps %ymm3, %ymm4, %ymm4 vmulps %ymm0, %ymm4, %ymm4 vpmovsxwd 0x6(%r8,%r9), %ymm8 vcvtdq2ps %ymm8, %ymm8 vsubps %ymm3, %ymm8, %ymm3 vmulps %ymm3, %ymm0, %ymm0 vpminsd %ymm2, %ymm5, %ymm3 vpminsd %ymm1, %ymm6, %ymm8 vmaxps %ymm8, %ymm3, %ymm3 vpminsd %ymm0, %ymm4, %ymm8 vmaxps 0x30(%r12,%rdx,4){1to8}, %ymm8, %ymm8 vmaxps %ymm8, %ymm3, %ymm3 vmulps 0x23e004(%rip){1to8}, %ymm3, %ymm3 # 0x1f1ff10 vpmaxsd %ymm2, %ymm5, %ymm2 vpmaxsd %ymm1, %ymm6, %ymm1 vminps %ymm1, %ymm2, %ymm1 vpmaxsd %ymm0, %ymm4, %ymm0 movq %rdx, 0x18(%rsp) vminps 0x80(%r12,%rdx,4){1to8}, %ymm0, %ymm0 vminps %ymm0, %ymm1, %ymm0 vmulps 0x23dfda(%rip){1to8}, %ymm0, %ymm0 # 0x1f1ff14 vpcmpgtd 0x2789dc(%rip), %ymm7, %k0 # 0x1f5a920 vmovaps %ymm3, 0x5a0(%rsp) vcmpleps %ymm0, %ymm3, %k1 ktestb %k0, %k1 je 0x1ce4679 kandb %k0, %k1, %k0 kmovd %k0, %eax movzbl %al, %r10d movl $0x1, %eax movq 0x18(%rsp), %rcx shlxl %ecx, %eax, %eax kmovd %eax, %k0 vpmovm2d %k0, %xmm0 vmovdqa %xmm0, 0x3b0(%rsp) movq %r15, 0x28(%rsp) movq %r8, 0x1a0(%rsp) tzcntq %r10, %rax movl 0x2(%r8), %ecx movl 0x6(%r8,%rax,4), %edi movq (%r15), %rax movq 0x1e8(%rax), %rax movq %rcx, 0x50(%rsp) movq (%rax,%rcx,8), %rsi movq 0x58(%rsi), %rax movq 0x68(%rsi), %rcx movq %rcx, %rdx movq %rdi, 0x100(%rsp) imulq %rdi, %rdx movl (%rax,%rdx), %edi movq 0xa0(%rsi), %rdx movq %rdx, %r9 imulq %rdi, %r9 movq 0x90(%rsi), %rsi vmovaps (%rsi,%r9), %xmm1 leaq 0x1(%rdi), %r9 imulq %rdx, %r9 vmovaps (%rsi,%r9), %xmm0 leaq 0x2(%rdi), %r9 imulq %rdx, %r9 vmovaps (%rsi,%r9), %xmm2 blsrq %r10, %r10 addq $0x3, %rdi imulq %rdx, %rdi vmovaps (%rsi,%rdi), %xmm3 movq %r10, %rdi subq $0x1, %rdi jb 0x1ce206d andq %r10, %rdi tzcntq %r10, %r9 movl 0x6(%r8,%r9,4), %r9d imulq %rcx, %r9 movl (%rax,%r9), %r9d imulq %rdx, %r9 prefetcht0 (%rsi,%r9) prefetcht0 0x40(%rsi,%r9) testq %rdi, %rdi je 0x1ce206d tzcntq %rdi, %rdi movl 0x6(%r8,%rdi,4), %edi imulq %rdi, %rcx movl (%rax,%rcx), %eax imulq %rax, %rdx prefetcht1 (%rsi,%rdx) prefetcht1 0x40(%rsi,%rdx) movq 0x18(%rsp), %rax vmovss (%r12,%rax,4), %xmm4 vinsertps $0x1c, 0x10(%r12,%rax,4), %xmm4, %xmm4 # xmm4 = xmm4[0],mem[0],zero,zero vinsertps $0x28, 0x20(%r12,%rax,4), %xmm4, %xmm4 # xmm4 = xmm4[0,1],mem[0],zero vbroadcastss 0x40(%r12,%rax,4), %ymm26 vbroadcastss 0x50(%r12,%rax,4), %ymm30 vunpcklps %xmm30, %xmm26, %xmm5 # xmm5 = xmm26[0],xmm30[0],xmm26[1],xmm30[1] vbroadcastss 0x60(%r12,%rax,4), %ymm21 vinsertps $0x28, %xmm21, %xmm5, %xmm9 # xmm9 = xmm5[0,1],xmm21[0],zero vaddps %xmm0, %xmm1, %xmm5 vaddps %xmm2, %xmm5, %xmm5 vaddps %xmm3, %xmm5, %xmm5 vmulps 0x23b239(%rip){1to4}, %xmm5, %xmm5 # 0x1f1d2fc vsubps %xmm4, %xmm5, %xmm5 vdpps $0x7f, %xmm9, %xmm5, %xmm5 vmovss 0x30(%r12,%rax,4), %xmm10 vdpps $0x7f, %xmm9, %xmm9, %xmm11 vxorps %xmm8, %xmm8, %xmm8 vmovss %xmm11, %xmm8, %xmm6 vrcp14ss %xmm6, %xmm8, %xmm6 vmovaps %xmm6, %xmm7 vfnmadd213ss 0x20ef02(%rip), %xmm11, %xmm7 # xmm7 = -(xmm11 * xmm7) + mem vmulss %xmm7, %xmm6, %xmm6 vmulss %xmm6, %xmm5, %xmm5 vbroadcastss %xmm5, %ymm6 vmovaps %xmm9, 0x240(%rsp) vmovaps %ymm6, 0x360(%rsp) vfmadd231ps %xmm6, %xmm9, %xmm4 # xmm4 = (xmm9 * xmm6) + xmm4 vblendps $0x8, %xmm8, %xmm4, %xmm4 # xmm4 = xmm4[0,1,2],xmm8[3] vsubps %xmm4, %xmm1, %xmm6 vsubps %xmm4, %xmm2, %xmm7 vsubps %xmm4, %xmm0, %xmm8 vsubps %xmm4, %xmm3, %xmm3 vbroadcastss %xmm6, %ymm0 vmovaps %ymm0, 0x7e0(%rsp) vbroadcastss 0x2305bd(%rip), %ymm0 # 0x1f12704 vpermps %ymm6, %ymm0, %ymm1 vmovaps %ymm1, 0x7c0(%rsp) vbroadcastss 0x23ed7e(%rip), %ymm1 # 0x1f20edc vpermps %ymm6, %ymm1, %ymm2 vmovaps %ymm2, 0x7a0(%rsp) vbroadcastss 0x23ed63(%rip), %ymm2 # 0x1f20ed8 vmovaps %ymm6, 0x320(%rsp) vpermps %ymm6, %ymm2, %ymm4 vmovaps %ymm4, 0x780(%rsp) vbroadcastss %xmm8, %ymm4 vmovaps %ymm4, 0x760(%rsp) vpermps %ymm8, %ymm0, %ymm4 vmovaps %ymm4, 0x740(%rsp) vpermps %ymm8, %ymm1, %ymm4 vmovaps %ymm4, 0x720(%rsp) vmovaps %ymm8, 0x2e0(%rsp) vpermps %ymm8, %ymm2, %ymm4 vmovaps %ymm4, 0x700(%rsp) vbroadcastss %xmm7, %ymm4 vmovaps %ymm4, 0x6e0(%rsp) vpermps %ymm7, %ymm0, %ymm4 vmovaps %ymm4, 0x6c0(%rsp) vpermps %ymm7, %ymm1, %ymm4 vmovaps %ymm4, 0x6a0(%rsp) vmovaps %ymm7, 0x300(%rsp) vpermps %ymm7, %ymm2, %ymm4 vmovaps %ymm4, 0x680(%rsp) vbroadcastss %xmm3, %ymm4 vmovaps %ymm4, 0x660(%rsp) vpermps %ymm3, %ymm0, %ymm0 vmovaps %ymm0, 0x640(%rsp) vpermps %ymm3, %ymm1, %ymm0 vmovaps %ymm0, 0x620(%rsp) vmovaps %ymm3, 0x2c0(%rsp) vpermps %ymm3, %ymm2, %ymm0 vmovaps %ymm0, 0x600(%rsp) vmulss %xmm21, %xmm21, %xmm0 vfmadd231ps %ymm30, %ymm30, %ymm0 # ymm0 = (ymm30 * ymm30) + ymm0 vfmadd231ps %ymm26, %ymm26, %ymm0 # ymm0 = (ymm26 * ymm26) + ymm0 vbroadcastss %xmm0, %ymm0 vmovaps %ymm0, 0x5e0(%rsp) vandps 0x23ec4b(%rip){1to8}, %ymm0, %ymm0 # 0x1f20ec4 vmovaps %ymm0, 0x520(%rsp) vmovss %xmm10, 0x5c(%rsp) vmovaps %xmm5, 0x260(%rsp) vsubss %xmm5, %xmm10, %xmm0 vbroadcastss %xmm0, %ymm0 vmovaps %ymm0, 0x5c0(%rsp) movq 0x50(%rsp), %rax vpbroadcastd %eax, %xmm0 vmovdqa %xmm0, 0x3d0(%rsp) movl $0x1, %r11d xorl %r9d, %r9d movq 0x100(%rsp), %rax vpbroadcastd %eax, %xmm0 vmovdqa %xmm0, 0x3c0(%rsp) vsqrtss %xmm11, %xmm11, %xmm0 vmovss %xmm0, 0x11c(%rsp) vmovaps %xmm11, 0x230(%rsp) vsqrtss %xmm11, %xmm11, %xmm0 vmovss %xmm0, 0x118(%rsp) vmovsd 0x20a3ec(%rip), %xmm2 # 0x1eec6f0 vmovaps 0x23ec14(%rip), %ymm3 # 0x1f20f20 vmovaps %ymm26, 0x140(%rsp) vmovaps %ymm30, 0x120(%rsp) vmovaps %ymm21, 0x1c0(%rsp) vmovshdup %xmm2, %xmm0 # xmm0 = xmm2[1,1,3,3] vsubss %xmm2, %xmm0, %xmm1 vmulss 0x23eb9c(%rip), %xmm1, %xmm6 # 0x1f20ed0 vmovaps %xmm2, 0x190(%rsp) vbroadcastss %xmm2, %ymm5 vbroadcastss %xmm1, %ymm0 vmovaps %ymm5, 0x60(%rsp) vmovaps %ymm0, 0x200(%rsp) vfmadd231ps %ymm3, %ymm0, %ymm5 # ymm5 = (ymm0 * ymm3) + ymm5 vbroadcastss 0x20a3b0(%rip), %ymm0 # 0x1eec714 vsubps %ymm5, %ymm0, %ymm7 vmovaps 0x760(%rsp), %ymm12 vmulps %ymm5, %ymm12, %ymm1 vmovaps 0x740(%rsp), %ymm13 vmulps %ymm5, %ymm13, %ymm2 vmovaps 0x720(%rsp), %ymm14 vmulps %ymm5, %ymm14, %ymm3 vmovaps 0x700(%rsp), %ymm15 vmulps %ymm5, %ymm15, %ymm4 vfmadd231ps 0x7e0(%rsp), %ymm7, %ymm1 # ymm1 = (ymm7 * mem) + ymm1 vfmadd231ps 0x7c0(%rsp), %ymm7, %ymm2 # ymm2 = (ymm7 * mem) + ymm2 vfmadd231ps 0x7a0(%rsp), %ymm7, %ymm3 # ymm3 = (ymm7 * mem) + ymm3 vfmadd231ps 0x780(%rsp), %ymm7, %ymm4 # ymm4 = (ymm7 * mem) + ymm4 vmovaps 0x6e0(%rsp), %ymm16 vmulps %ymm5, %ymm16, %ymm8 vmovaps 0x6c0(%rsp), %ymm17 vmulps %ymm5, %ymm17, %ymm9 vmovaps 0x6a0(%rsp), %ymm18 vmulps %ymm5, %ymm18, %ymm10 vmovaps 0x680(%rsp), %ymm19 vmulps %ymm5, %ymm19, %ymm11 vfmadd231ps %ymm12, %ymm7, %ymm8 # ymm8 = (ymm7 * ymm12) + ymm8 vfmadd231ps %ymm13, %ymm7, %ymm9 # ymm9 = (ymm7 * ymm13) + ymm9 vfmadd231ps %ymm14, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm14) + ymm10 vfmadd231ps %ymm15, %ymm7, %ymm11 # ymm11 = (ymm7 * ymm15) + ymm11 vmulps 0x660(%rsp), %ymm5, %ymm12 vmulps 0x640(%rsp), %ymm5, %ymm13 vmulps 0x620(%rsp), %ymm5, %ymm14 vmulps 0x600(%rsp), %ymm5, %ymm15 vfmadd231ps %ymm16, %ymm7, %ymm12 # ymm12 = (ymm7 * ymm16) + ymm12 vfmadd231ps %ymm17, %ymm7, %ymm13 # ymm13 = (ymm7 * ymm17) + ymm13 vfmadd231ps %ymm18, %ymm7, %ymm14 # ymm14 = (ymm7 * ymm18) + ymm14 vfmadd231ps %ymm19, %ymm7, %ymm15 # ymm15 = (ymm7 * ymm19) + ymm15 vmulps %ymm8, %ymm5, %ymm16 vmulps %ymm9, %ymm5, %ymm17 vmulps %ymm10, %ymm5, %ymm18 vmulps %ymm11, %ymm5, %ymm19 vfmadd231ps %ymm1, %ymm7, %ymm16 # ymm16 = (ymm7 * ymm1) + ymm16 vfmadd231ps %ymm2, %ymm7, %ymm17 # ymm17 = (ymm7 * ymm2) + ymm17 vfmadd231ps %ymm3, %ymm7, %ymm18 # ymm18 = (ymm7 * ymm3) + ymm18 vfmadd231ps %ymm4, %ymm7, %ymm19 # ymm19 = (ymm7 * ymm4) + ymm19 vmulps %ymm5, %ymm12, %ymm1 vmulps %ymm5, %ymm13, %ymm12 vmulps %ymm5, %ymm14, %ymm13 vmulps %ymm5, %ymm15, %ymm14 vfmadd231ps %ymm8, %ymm7, %ymm1 # ymm1 = (ymm7 * ymm8) + ymm1 vfmadd231ps %ymm9, %ymm7, %ymm12 # ymm12 = (ymm7 * ymm9) + ymm12 vfmadd231ps %ymm10, %ymm7, %ymm13 # ymm13 = (ymm7 * ymm10) + ymm13 vfmadd231ps %ymm11, %ymm7, %ymm14 # ymm14 = (ymm7 * ymm11) + ymm14 vmulps %ymm1, %ymm5, %ymm4 vmulps %ymm5, %ymm12, %ymm3 vmulps %ymm13, %ymm5, %ymm29 vmulps %ymm5, %ymm14, %ymm5 vfmadd231ps %ymm16, %ymm7, %ymm4 # ymm4 = (ymm7 * ymm16) + ymm4 vfmadd231ps %ymm17, %ymm7, %ymm3 # ymm3 = (ymm7 * ymm17) + ymm3 vfmadd231ps %ymm18, %ymm7, %ymm29 # ymm29 = (ymm7 * ymm18) + ymm29 vfmadd231ps %ymm7, %ymm19, %ymm5 # ymm5 = (ymm19 * ymm7) + ymm5 vsubps %ymm16, %ymm1, %ymm1 vsubps %ymm17, %ymm12, %ymm7 vsubps %ymm18, %ymm13, %ymm8 vsubps %ymm19, %ymm14, %ymm9 vbroadcastss 0x20eb01(%rip), %ymm10 # 0x1ef0fec vmulps %ymm1, %ymm10, %ymm1 vmulps %ymm7, %ymm10, %ymm7 vmulps %ymm10, %ymm8, %ymm8 vmulps %ymm10, %ymm9, %ymm9 vbroadcastss %xmm6, %ymm6 vmulps %ymm1, %ymm6, %ymm11 vmulps %ymm7, %ymm6, %ymm12 vmulps %ymm6, %ymm8, %ymm13 vmulps %ymm6, %ymm9, %ymm6 vmovaps %ymm4, %ymm8 vmovaps 0x27d802(%rip), %ymm7 # 0x1f5fd20 vxorps %xmm31, %xmm31, %xmm31 vpermt2ps %ymm31, %ymm7, %ymm8 vmovaps %ymm3, %ymm9 vpermt2ps %ymm31, %ymm7, %ymm9 vmovaps %ymm29, %ymm10 vpermt2ps %ymm31, %ymm7, %ymm10 vaddps %ymm6, %ymm5, %ymm1 vmaxps %ymm1, %ymm5, %ymm14 vminps %ymm1, %ymm5, %ymm1 vmovaps %ymm5, %ymm15 vpermt2ps %ymm31, %ymm7, %ymm15 vmovaps %ymm11, %ymm19 vpermt2ps %ymm31, %ymm7, %ymm19 vmovaps %ymm12, %ymm20 vpermt2ps %ymm31, %ymm7, %ymm20 vmovaps %ymm13, %ymm2 vpermt2ps %ymm31, %ymm7, %ymm2 vpermt2ps %ymm31, %ymm7, %ymm6 vsubps %ymm6, %ymm15, %ymm16 vsubps %ymm4, %ymm8, %ymm7 vsubps %ymm3, %ymm9, %ymm6 vsubps %ymm29, %ymm10, %ymm5 vmulps %ymm13, %ymm6, %ymm17 vfmsub231ps %ymm5, %ymm12, %ymm17 # ymm17 = (ymm12 * ymm5) - ymm17 vmulps %ymm11, %ymm5, %ymm18 vfmsub231ps %ymm7, %ymm13, %ymm18 # ymm18 = (ymm13 * ymm7) - ymm18 vmulps %ymm12, %ymm7, %ymm22 vfmsub231ps %ymm6, %ymm11, %ymm22 # ymm22 = (ymm11 * ymm6) - ymm22 vmulps %ymm22, %ymm22, %ymm22 vfmadd231ps %ymm18, %ymm18, %ymm22 # ymm22 = (ymm18 * ymm18) + ymm22 vfmadd231ps %ymm17, %ymm17, %ymm22 # ymm22 = (ymm17 * ymm17) + ymm22 vmulps %ymm5, %ymm5, %ymm17 vfmadd231ps %ymm6, %ymm6, %ymm17 # ymm17 = (ymm6 * ymm6) + ymm17 vfmadd231ps %ymm7, %ymm7, %ymm17 # ymm17 = (ymm7 * ymm7) + ymm17 vrcp14ps %ymm17, %ymm18 vmovaps %ymm18, %ymm23 vfnmadd213ps %ymm0, %ymm17, %ymm23 # ymm23 = -(ymm17 * ymm23) + ymm0 vfmadd132ps %ymm18, %ymm18, %ymm23 # ymm23 = (ymm23 * ymm18) + ymm18 vmulps %ymm23, %ymm22, %ymm18 vmulps %ymm2, %ymm6, %ymm22 vfmsub231ps %ymm5, %ymm20, %ymm22 # ymm22 = (ymm20 * ymm5) - ymm22 vmulps %ymm19, %ymm5, %ymm24 vfmsub231ps %ymm7, %ymm2, %ymm24 # ymm24 = (ymm2 * ymm7) - ymm24 vmulps %ymm20, %ymm7, %ymm25 vfmsub231ps %ymm6, %ymm19, %ymm25 # ymm25 = (ymm19 * ymm6) - ymm25 vmulps %ymm25, %ymm25, %ymm25 vfmadd231ps %ymm24, %ymm24, %ymm25 # ymm25 = (ymm24 * ymm24) + ymm25 vfmadd231ps %ymm22, %ymm22, %ymm25 # ymm25 = (ymm22 * ymm22) + ymm25 vmulps %ymm23, %ymm25, %ymm22 vmaxps %ymm22, %ymm18, %ymm18 vsqrtps %ymm18, %ymm18 vmaxps %ymm15, %ymm16, %ymm22 vmaxps %ymm22, %ymm14, %ymm14 vaddps %ymm14, %ymm18, %ymm14 vminps %ymm15, %ymm16, %ymm15 vminps %ymm15, %ymm1, %ymm1 vsubps %ymm18, %ymm1, %ymm1 vmulps 0x20e2d3(%rip){1to8}, %ymm14, %ymm14 # 0x1ef0940 vmulps 0x20e2cd(%rip){1to8}, %ymm1, %ymm1 # 0x1ef0944 vmovaps %ymm1, 0x1e0(%rsp) vmulps %ymm14, %ymm14, %ymm1 vrsqrt14ps %ymm17, %ymm15 vmulps 0x20a087(%rip){1to8}, %ymm17, %ymm14 # 0x1eec71c vmulps %ymm14, %ymm15, %ymm14 vmulps %ymm15, %ymm15, %ymm16 vmulps %ymm14, %ymm16, %ymm14 vfmadd231ps 0x20a068(%rip){1to8}, %ymm15, %ymm14 # ymm14 = (ymm15 * mem) + ymm14 vmulps %ymm7, %ymm14, %ymm15 vmulps %ymm14, %ymm6, %ymm16 vmulps %ymm14, %ymm5, %ymm18 vsubps %ymm4, %ymm31, %ymm27 vsubps %ymm3, %ymm31, %ymm28 vmovaps %ymm29, 0x80(%rsp) vsubps %ymm29, %ymm31, %ymm29 vmulps %ymm29, %ymm21, %ymm22 vfmadd231ps %ymm28, %ymm30, %ymm22 # ymm22 = (ymm30 * ymm28) + ymm22 vfmadd231ps %ymm27, %ymm26, %ymm22 # ymm22 = (ymm26 * ymm27) + ymm22 vmulps %ymm29, %ymm29, %ymm24 vfmadd231ps %ymm28, %ymm28, %ymm24 # ymm24 = (ymm28 * ymm28) + ymm24 vfmadd231ps %ymm27, %ymm27, %ymm24 # ymm24 = (ymm27 * ymm27) + ymm24 vmulps %ymm18, %ymm21, %ymm17 vfmadd231ps %ymm30, %ymm16, %ymm17 # ymm17 = (ymm16 * ymm30) + ymm17 vfmadd231ps %ymm26, %ymm15, %ymm17 # ymm17 = (ymm15 * ymm26) + ymm17 vmulps %ymm18, %ymm29, %ymm18 vfmadd231ps %ymm16, %ymm28, %ymm18 # ymm18 = (ymm28 * ymm16) + ymm18 vfmadd231ps %ymm15, %ymm27, %ymm18 # ymm18 = (ymm27 * ymm15) + ymm18 vmulps %ymm17, %ymm17, %ymm21 vmovaps 0x5e0(%rsp), %ymm15 vsubps %ymm21, %ymm15, %ymm15 vmulps %ymm18, %ymm17, %ymm25 vsubps %ymm25, %ymm22, %ymm22 vaddps %ymm22, %ymm22, %ymm22 vmulps %ymm18, %ymm18, %ymm25 vsubps %ymm25, %ymm24, %ymm16 vmovaps %ymm16, 0xa0(%rsp) vsubps %ymm1, %ymm16, %ymm1 vmulps %ymm22, %ymm22, %ymm25 vmulps 0x20a419(%rip){1to8}, %ymm15, %ymm26 # 0x1eecb8c vmulps %ymm1, %ymm26, %ymm30 vsubps %ymm30, %ymm25, %ymm30 vxorps %xmm16, %xmm16, %xmm16 vcmpnltps %ymm31, %ymm30, %k1 kmovd %k1, %eax kortestb %k1, %k1 je 0x1ce287f vsqrtps %ymm30, %ymm30 vaddps %ymm15, %ymm15, %ymm31 vrcp14ps %ymm31, %ymm23 vfnmadd213ps %ymm0, %ymm23, %ymm31 # ymm31 = -(ymm23 * ymm31) + ymm0 vfmadd132ps %ymm23, %ymm23, %ymm31 # ymm31 = (ymm31 * ymm23) + ymm23 vxorps 0x23e6fe(%rip){1to8}, %ymm22, %ymm23 # 0x1f20ec0 vsubps %ymm30, %ymm23, %ymm23 vmulps %ymm31, %ymm23, %ymm23 vsubps %ymm22, %ymm30, %ymm30 vmulps %ymm31, %ymm30, %ymm31 vmovaps %ymm17, %ymm30 vfmadd213ps %ymm18, %ymm23, %ymm30 # ymm30 = (ymm23 * ymm30) + ymm18 vmulps %ymm30, %ymm14, %ymm30 vmovaps %ymm30, 0x4e0(%rsp) vmovaps %ymm17, %ymm30 vfmadd213ps %ymm18, %ymm31, %ymm30 # ymm30 = (ymm31 * ymm30) + ymm18 vmulps %ymm30, %ymm14, %ymm30 vmovaps %ymm30, 0x4c0(%rsp) vbroadcastss 0x209209(%rip), %ymm0 # 0x1eeba20 vblendmps %ymm23, %ymm0, %ymm30 {%k1} vbroadcastss 0x20a35e(%rip), %ymm0 # 0x1eecb84 vblendmps %ymm31, %ymm0, %ymm31 {%k1} vbroadcastss 0x23e68f(%rip), %ymm0 # 0x1f20ec4 vmovaps %ymm21, %ymm24 vandps %ymm0, %ymm21, %ymm23 vmovaps 0x520(%rsp), %ymm21 vmaxps %ymm23, %ymm21, %ymm23 vmulps 0x20f65b(%rip){1to8}, %ymm23, %ymm23 # 0x1ef1eb4 vandps %ymm0, %ymm15, %ymm0 vcmpltps %ymm23, %ymm0, %k1 {%k1} kortestb %k1, %k1 jne 0x1ce45ca vbroadcastss 0x209e9d(%rip), %ymm0 # 0x1eec714 vmovaps %ymm24, %ymm21 jmp 0x1ce2893 vbroadcastss 0x209197(%rip), %ymm30 # 0x1eeba20 vbroadcastss 0x20a2f1(%rip), %ymm31 # 0x1eecb84 andb $0x7f, %al je 0x1ce2c63 vmovaps %ymm21, 0x380(%rsp) movq 0x18(%rsp), %rcx vmovaps %ymm0, %ymm16 vmovss 0x80(%r12,%rcx,4), %xmm0 vsubss 0x260(%rsp), %xmm0, %xmm0 vbroadcastss %xmm0, %ymm0 vminps %ymm31, %ymm0, %ymm0 vmovaps 0x5c0(%rsp), %ymm1 vmaxps %ymm30, %ymm1, %ymm1 vmulps %ymm13, %ymm29, %ymm23 vfmadd213ps %ymm23, %ymm12, %ymm28 # ymm28 = (ymm12 * ymm28) + ymm23 vfmadd213ps %ymm28, %ymm11, %ymm27 # ymm27 = (ymm11 * ymm27) + ymm28 vmovaps 0x1c0(%rsp), %ymm21 vmulps %ymm13, %ymm21, %ymm13 vmovaps 0x120(%rsp), %ymm24 vfmadd231ps %ymm12, %ymm24, %ymm13 # ymm13 = (ymm24 * ymm12) + ymm13 vmovaps 0x140(%rsp), %ymm31 vfmadd231ps %ymm11, %ymm31, %ymm13 # ymm13 = (ymm31 * ymm11) + ymm13 vbroadcastss 0x23e5a3(%rip), %ymm28 # 0x1f20ec4 vandps %ymm28, %ymm13, %ymm11 vbroadcastss 0x20e6b7(%rip), %ymm29 # 0x1ef0fe8 vcmpltps %ymm29, %ymm11, %k0 vbroadcastss 0x23e57e(%rip), %ymm30 # 0x1f20ec0 vxorps %ymm30, %ymm27, %ymm11 vrcp14ps %ymm13, %ymm12 vxorps %ymm30, %ymm13, %ymm23 vmovaps %ymm12, %ymm27 vfnmadd213ps %ymm16, %ymm13, %ymm27 # ymm27 = -(ymm13 * ymm27) + ymm16 vfmadd132ps %ymm12, %ymm12, %ymm27 # ymm27 = (ymm27 * ymm12) + ymm12 vmulps %ymm11, %ymm27, %ymm11 vcmpltps %ymm23, %ymm13, %k1 korb %k1, %k0, %k1 vbroadcastss 0x20a203(%rip), %ymm27 # 0x1eecb84 vblendmps %ymm27, %ymm11, %ymm12 {%k1} vmaxps %ymm12, %ymm1, %ymm1 vcmpnleps %ymm23, %ymm13, %k1 korb %k1, %k0, %k1 vbroadcastss 0x209080(%rip), %ymm13 # 0x1eeba20 vmovaps %ymm13, %ymm11 {%k1} vminps %ymm11, %ymm0, %ymm0 vxorps %xmm23, %xmm23, %xmm23 vsubps %ymm8, %ymm23, %ymm8 vsubps %ymm9, %ymm23, %ymm9 vsubps %ymm10, %ymm23, %ymm10 vmulps %ymm2, %ymm10, %ymm10 vfnmsub231ps %ymm9, %ymm20, %ymm10 # ymm10 = -(ymm20 * ymm9) - ymm10 vfnmadd231ps %ymm8, %ymm19, %ymm10 # ymm10 = -(ymm19 * ymm8) + ymm10 vmulps %ymm2, %ymm21, %ymm8 vfnmsub231ps %ymm20, %ymm24, %ymm8 # ymm8 = -(ymm24 * ymm20) - ymm8 vfnmadd231ps %ymm19, %ymm31, %ymm8 # ymm8 = -(ymm31 * ymm19) + ymm8 vandps %ymm28, %ymm8, %ymm9 vcmpltps %ymm29, %ymm9, %k0 vxorps %ymm30, %ymm10, %ymm9 vrcp14ps %ymm8, %ymm10 vxorps %ymm30, %ymm8, %ymm11 vmovaps %ymm10, %ymm12 vfnmadd213ps %ymm16, %ymm8, %ymm12 # ymm12 = -(ymm8 * ymm12) + ymm16 vfmadd132ps %ymm10, %ymm10, %ymm12 # ymm12 = (ymm12 * ymm10) + ymm10 vmulps %ymm9, %ymm12, %ymm9 vcmpltps %ymm11, %ymm8, %k1 korb %k1, %k0, %k1 vblendmps %ymm27, %ymm9, %ymm10 {%k1} vmaxps %ymm10, %ymm1, %ymm1 vcmpnleps %ymm11, %ymm8, %k1 korb %k1, %k0, %k1 vmovaps %ymm13, %ymm9 {%k1} vminps %ymm9, %ymm0, %ymm8 vmovaps %ymm1, 0x340(%rsp) vcmpleps %ymm8, %ymm1, %k0 kmovd %k0, %ecx andb %cl, %al je 0x1ce2c88 vmovaps 0x4e0(%rsp), %ymm0 vmaxps 0x1e0(%rsp), %ymm23, %ymm1 vminps %ymm16, %ymm0, %ymm0 vxorps %xmm10, %xmm10, %xmm10 vmaxps %ymm10, %ymm0, %ymm0 vmovaps 0x4c0(%rsp), %ymm9 vminps %ymm16, %ymm9, %ymm9 vmovaps 0x23e4a7(%rip), %ymm11 # 0x1f20f40 vaddps %ymm0, %ymm11, %ymm0 vbroadcastss 0x23ba12(%rip), %ymm12 # 0x1f1e4b8 vmulps %ymm0, %ymm12, %ymm0 vmovaps 0x60(%rsp), %ymm2 vmovaps 0x200(%rsp), %ymm13 vfmadd213ps %ymm2, %ymm13, %ymm0 # ymm0 = (ymm13 * ymm0) + ymm2 vmovaps %ymm0, 0x4e0(%rsp) vmaxps %ymm10, %ymm9, %ymm0 vaddps %ymm0, %ymm11, %ymm0 vmulps %ymm0, %ymm12, %ymm0 vfmadd213ps %ymm2, %ymm13, %ymm0 # ymm0 = (ymm13 * ymm0) + ymm2 vmovaps %ymm0, 0x4c0(%rsp) vmulps %ymm1, %ymm1, %ymm0 vmovaps 0xa0(%rsp), %ymm1 vsubps %ymm0, %ymm1, %ymm11 vmulps %ymm11, %ymm26, %ymm0 vsubps %ymm0, %ymm25, %ymm0 vcmpnltps %ymm10, %ymm0, %k0 kortestb %k0, %k0 je 0x1ce2ca5 vxorps %xmm20, %xmm20, %xmm20 vcmpnltps %ymm23, %ymm0, %k1 vsqrtps %ymm0, %ymm0 vaddps %ymm15, %ymm15, %ymm1 vrcp14ps %ymm1, %ymm9 vfnmadd213ps %ymm16, %ymm9, %ymm1 # ymm1 = -(ymm9 * ymm1) + ymm16 vfmadd132ps %ymm9, %ymm9, %ymm1 # ymm1 = (ymm1 * ymm9) + ymm9 vxorps 0x23e37f(%rip){1to8}, %ymm22, %ymm9 # 0x1f20ec0 vsubps %ymm0, %ymm9, %ymm9 vmulps %ymm1, %ymm9, %ymm12 vsubps %ymm22, %ymm0, %ymm0 vmulps %ymm1, %ymm0, %ymm13 vmovaps %ymm17, %ymm0 vfmadd213ps %ymm18, %ymm12, %ymm0 # ymm0 = (ymm12 * ymm0) + ymm18 vmulps %ymm0, %ymm14, %ymm9 vmovaps 0x140(%rsp), %ymm26 vmulps %ymm12, %ymm26, %ymm0 vmovaps 0x120(%rsp), %ymm30 vmulps %ymm12, %ymm30, %ymm1 vmulps %ymm12, %ymm21, %ymm10 vmovaps %ymm7, %ymm19 vfmadd213ps %ymm4, %ymm9, %ymm19 # ymm19 = (ymm9 * ymm19) + ymm4 vsubps %ymm19, %ymm0, %ymm0 vmovaps %ymm6, %ymm19 vfmadd213ps %ymm3, %ymm9, %ymm19 # ymm19 = (ymm9 * ymm19) + ymm3 vsubps %ymm19, %ymm1, %ymm1 vmovaps 0x80(%rsp), %ymm2 vfmadd213ps %ymm2, %ymm5, %ymm9 # ymm9 = (ymm5 * ymm9) + ymm2 vsubps %ymm9, %ymm10, %ymm9 vfmadd213ps %ymm18, %ymm13, %ymm17 # ymm17 = (ymm13 * ymm17) + ymm18 vmulps %ymm17, %ymm14, %ymm14 vmulps %ymm13, %ymm26, %ymm10 vmulps %ymm13, %ymm30, %ymm17 vmulps %ymm13, %ymm21, %ymm18 vfmadd213ps %ymm4, %ymm14, %ymm7 # ymm7 = (ymm14 * ymm7) + ymm4 vsubps %ymm7, %ymm10, %ymm10 vfmadd213ps %ymm3, %ymm14, %ymm6 # ymm6 = (ymm14 * ymm6) + ymm3 vsubps %ymm6, %ymm17, %ymm3 vfmadd213ps %ymm2, %ymm14, %ymm5 # ymm5 = (ymm14 * ymm5) + ymm2 vsubps %ymm5, %ymm18, %ymm5 vbroadcastss 0x208e1e(%rip), %ymm2 # 0x1eeba20 vblendmps %ymm12, %ymm2, %ymm4 {%k1} vbroadcastss 0x209f73(%rip), %ymm2 # 0x1eecb84 vblendmps %ymm13, %ymm2, %ymm2 {%k1} vbroadcastss 0x23e2a4(%rip), %ymm7 # 0x1f20ec4 vandps 0x380(%rsp), %ymm7, %ymm6 vmovaps 0x520(%rsp), %ymm12 vmaxps %ymm6, %ymm12, %ymm6 vmulps 0x20f274(%rip){1to8}, %ymm6, %ymm6 # 0x1ef1eb4 vandps %ymm7, %ymm15, %ymm7 vcmpltps %ymm6, %ymm7, %k1 {%k1} kortestb %k1, %k1 jne 0x1ce4613 vbroadcastss 0x23e266(%rip), %xmm11 # 0x1f20ec4 jmp 0x1ce2ce5 vmovaps 0x23e2b5(%rip), %ymm3 # 0x1f20f20 vmovaps 0x140(%rsp), %ymm26 vmovaps 0x120(%rsp), %ymm30 vmovaps 0x1c0(%rsp), %ymm21 jmp 0x1ce44bd vmovaps 0x23e290(%rip), %ymm3 # 0x1f20f20 vmovaps 0x140(%rsp), %ymm26 vmovaps 0x120(%rsp), %ymm30 jmp 0x1ce44bd vxorps %xmm3, %xmm3, %xmm3 vxorps %xmm5, %xmm5, %xmm5 vxorps %xmm0, %xmm0, %xmm0 vxorps %xmm1, %xmm1, %xmm1 vxorps %xmm9, %xmm9, %xmm9 vbroadcastss 0x208d5d(%rip), %ymm4 # 0x1eeba20 vbroadcastss 0x209eb8(%rip), %ymm2 # 0x1eecb84 vbroadcastss 0x23e1ef(%rip), %xmm11 # 0x1f20ec4 vmovaps 0x140(%rsp), %ymm26 vmovaps 0x120(%rsp), %ymm30 vmulps %ymm5, %ymm21, %ymm5 vfmadd231ps %ymm3, %ymm30, %ymm5 # ymm5 = (ymm30 * ymm3) + ymm5 vfmadd231ps %ymm10, %ymm26, %ymm5 # ymm5 = (ymm26 * ymm10) + ymm5 vmovaps 0x340(%rsp), %ymm7 vmovaps %ymm7, 0x800(%rsp) vminps %ymm4, %ymm8, %ymm3 vmovaps %ymm3, 0x820(%rsp) vbroadcastss 0x23e1a5(%rip), %ymm6 # 0x1f20ec4 vandps %ymm6, %ymm5, %ymm4 vmaxps %ymm2, %ymm7, %ymm5 vmovaps %ymm5, 0x540(%rsp) vmovaps %ymm8, 0x560(%rsp) vbroadcastss 0x23e192(%rip), %ymm2 # 0x1f20ed4 vcmpltps %ymm2, %ymm4, %k1 kmovd %k1, 0x114(%rsp) vcmpleps %ymm3, %ymm7, %k1 kmovd %k1, %ecx andb %al, %cl vmovaps %ymm5, 0x480(%rsp) vcmpleps %ymm8, %ymm5, %k1 kmovd %k1, %edx andb %al, %dl movl %edx, %eax orb %cl, %al je 0x1ce448b movl %edx, 0x34(%rsp) movq %r9, 0x1b0(%rsp) movq %r10, 0x1b8(%rsp) knotb %k0, %k1 vmovaps %ymm2, %ymm3 vmulps %ymm9, %ymm21, %ymm2 vfmadd213ps %ymm2, %ymm30, %ymm1 # ymm1 = (ymm30 * ymm1) + ymm2 vfmadd213ps %ymm1, %ymm26, %ymm0 # ymm0 = (ymm26 * ymm0) + ymm1 vandps %ymm6, %ymm0, %ymm0 vcmpltps %ymm3, %ymm0, %k0 kmovd %k1, 0x10c(%rsp) korb %k1, %k0, %k1 vpbroadcastd 0x23e10c(%rip), %ymm0 # 0x1f20edc vpblendmd 0x23e0fe(%rip){1to8}, %ymm0, %ymm0 {%k1} # 0x1f20ed8 movq %r11, 0x1a8(%rsp) vpbroadcastd %r11d, %ymm1 vmovdqa %ymm0, 0x580(%rsp) vmovdqa %ymm1, 0x500(%rsp) vpcmpnltd %ymm0, %ymm1, %k0 kmovd %k0, %ebx movl %ecx, 0x110(%rsp) andb %cl, %bl je 0x1ce38a6 vmovaps 0x320(%rsp), %ymm1 vmovaps 0x2e0(%rsp), %ymm2 vminps %xmm2, %xmm1, %xmm0 vmaxps %xmm2, %xmm1, %xmm1 vmovaps 0x300(%rsp), %ymm3 vmovaps 0x2c0(%rsp), %ymm4 vminps %xmm4, %xmm3, %xmm2 vminps %xmm2, %xmm0, %xmm0 vmaxps %xmm4, %xmm3, %xmm2 vmaxps %xmm2, %xmm1, %xmm1 vandps %xmm0, %xmm11, %xmm0 vandps %xmm1, %xmm11, %xmm2 vmaxps %xmm2, %xmm0, %xmm0 vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3] vmaxss %xmm0, %xmm2, %xmm2 vshufpd $0x1, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[1,0] vmaxss %xmm2, %xmm0, %xmm0 vmulss 0x20f03f(%rip), %xmm0, %xmm0 # 0x1ef1eb4 vmovss %xmm0, 0x44(%rsp) vshufps $0xff, %xmm1, %xmm1, %xmm0 # xmm0 = xmm1[3,3,3,3] vmovaps %xmm0, 0x250(%rsp) vmovaps 0x340(%rsp), %ymm0 vaddps 0x360(%rsp), %ymm0, %ymm0 vmovaps %ymm0, 0x4a0(%rsp) kmovd %ebx, %k1 vbroadcastss 0x208b6f(%rip), %ymm0 # 0x1eeba20 vblendmps 0x340(%rsp), %ymm0, %ymm0 {%k1} vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm0, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1] vminps %ymm2, %ymm1, %ymm1 vcmpeqps %ymm1, %ymm0, %k0 kmovd %k0, %eax andb %bl, %al movzbl %al, %eax movzbl %bl, %ecx cmovnel %eax, %ecx tzcntl %ecx, %ecx movb $0x1, %bl shlb %cl, %bl shll $0x2, %ecx vmovss 0x4e0(%rsp,%rcx), %xmm8 vmovss 0x800(%rsp,%rcx), %xmm9 vmovaps 0x230(%rsp), %xmm0 vucomiss 0x208b0b(%rip), %xmm0 # 0x1eeba24 vmovss 0x118(%rsp), %xmm0 jae 0x1ce2f65 vmovaps 0x230(%rsp), %xmm0 vmovaps %xmm8, 0xa0(%rsp) vmovaps %xmm9, 0x80(%rsp) kmovw %k1, 0x60(%rsp) vzeroupper callq 0x6aa20 kmovw 0x60(%rsp), %k1 vmovaps 0x80(%rsp), %xmm9 vmovaps 0xa0(%rsp), %xmm8 movzbl %bl, %eax kmovd %eax, %k0 kandnb %k1, %k0, %k0 kmovd %k0, %ebx vmulss 0x20ef38(%rip), %xmm0, %xmm0 # 0x1ef1eb4 vmovss %xmm0, 0x48(%rsp) movl $0x4, %r14d vbroadcastss %xmm9, %xmm0 vxorps %xmm1, %xmm1, %xmm1 vfmadd132ps 0x240(%rsp), %xmm1, %xmm0 # xmm0 = (xmm0 * mem) + xmm1 vmovss 0x209771(%rip), %xmm1 # 0x1eec714 vsubss %xmm8, %xmm1, %xmm3 vbroadcastss %xmm8, %xmm1 vmovaps 0x2e0(%rsp), %ymm5 vmulps %xmm1, %xmm5, %xmm2 vmovaps %xmm3, 0x2b0(%rsp) vbroadcastss %xmm3, %xmm3 vfmadd231ps 0x320(%rsp), %xmm3, %xmm2 # xmm2 = (xmm3 * mem) + xmm2 vmovaps 0x300(%rsp), %ymm6 vmulps %xmm1, %xmm6, %xmm4 vfmadd231ps %xmm5, %xmm3, %xmm4 # xmm4 = (xmm3 * xmm5) + xmm4 vmulps 0x2c0(%rsp), %xmm1, %xmm5 vfmadd231ps %xmm6, %xmm3, %xmm5 # xmm5 = (xmm3 * xmm6) + xmm5 vmulps %xmm4, %xmm1, %xmm6 vfmadd231ps %xmm2, %xmm3, %xmm6 # xmm6 = (xmm3 * xmm2) + xmm6 vmulps %xmm5, %xmm1, %xmm2 vfmadd231ps %xmm4, %xmm3, %xmm2 # xmm2 = (xmm3 * xmm4) + xmm2 vmulps %xmm2, %xmm1, %xmm4 vfmadd231ps %xmm3, %xmm6, %xmm4 # xmm4 = (xmm6 * xmm3) + xmm4 vsubps %xmm6, %xmm2, %xmm1 vmulps 0x20dfd1(%rip){1to4}, %xmm1, %xmm10 # 0x1ef0fec vmovaps %xmm4, 0x380(%rsp) vsubps %xmm4, %xmm0, %xmm0 vmovaps %xmm0, 0x200(%rsp) vdpps $0x7f, %xmm0, %xmm0, %xmm0 vucomiss 0x2089e5(%rip), %xmm0 # 0x1eeba24 vmovaps %xmm10, 0x60(%rsp) vmovaps %xmm0, 0x1e0(%rsp) vmovaps %xmm8, 0xa0(%rsp) vmovaps %xmm9, 0x80(%rsp) jb 0x1ce3068 vsqrtss %xmm0, %xmm0, %xmm7 jmp 0x1ce307a vzeroupper callq 0x6aa20 vmovaps 0x60(%rsp), %xmm10 vmovaps %xmm0, %xmm7 vdpps $0x7f, %xmm10, %xmm10, %xmm0 vxorps %xmm1, %xmm1, %xmm1 vmovss %xmm0, %xmm1, %xmm2 # xmm2 = xmm0[0],xmm1[1,2,3] vrsqrt14ss %xmm2, %xmm1, %xmm3 vmulss 0x209682(%rip), %xmm3, %xmm4 # 0x1eec718 vmulss 0x20967e(%rip), %xmm0, %xmm5 # 0x1eec71c vrcp14ss %xmm2, %xmm1, %xmm2 vxorps 0x23de12(%rip){1to4}, %xmm0, %xmm1 # 0x1f20ec0 vmovaps %xmm2, 0x290(%rsp) vfnmadd213ss 0x20df38(%rip), %xmm0, %xmm2 # xmm2 = -(xmm0 * xmm2) + mem vmovss %xmm2, 0x4c(%rsp) vucomiss %xmm1, %xmm0 vmovss %xmm7, 0x24(%rsp) vmovaps %xmm0, 0x2a0(%rsp) jb 0x1ce30e3 vsqrtss %xmm0, %xmm0, %xmm16 jmp 0x1ce312d vmovaps %xmm3, 0xe0(%rsp) vmovss %xmm4, 0x20(%rsp) vmovss %xmm5, 0xd0(%rsp) vzeroupper callq 0x6aa20 vmovss 0xd0(%rsp), %xmm5 vmovss 0x20(%rsp), %xmm4 vmovaps 0xe0(%rsp), %xmm3 vmovss 0x24(%rsp), %xmm7 vmovaps 0x60(%rsp), %xmm10 vmovaps %xmm0, %xmm16 vmovaps 0x200(%rsp), %xmm12 vmovaps 0x1e0(%rsp), %xmm19 vmulss %xmm3, %xmm5, %xmm0 vmulss %xmm3, %xmm3, %xmm1 vmulss %xmm1, %xmm0, %xmm0 vaddss %xmm0, %xmm4, %xmm0 vbroadcastss %xmm0, %xmm6 vmulps %xmm6, %xmm10, %xmm0 vmovaps %xmm0, 0xe0(%rsp) vdpps $0x7f, %xmm0, %xmm12, %xmm15 vaddss 0x2095a6(%rip), %xmm7, %xmm14 # 0x1eec714 vmulps %xmm15, %xmm15, %xmm0 vsubps %xmm0, %xmm19, %xmm0 vxorps %xmm2, %xmm2, %xmm2 vmovss %xmm0, %xmm2, %xmm1 # xmm1 = xmm0[0],xmm2[1,2,3] vrsqrt14ss %xmm1, %xmm2, %xmm18 vmulss 0x209587(%rip), %xmm18, %xmm17 # 0x1eec718 vmulss 0x209581(%rip), %xmm0, %xmm20 # 0x1eec71c vucomiss 0x208881(%rip), %xmm0 # 0x1eeba24 jb 0x1ce31ae vsqrtss %xmm0, %xmm0, %xmm0 jmp 0x1ce3243 vmovss %xmm14, 0x20(%rsp) vmovaps %xmm15, 0xd0(%rsp) vmovss %xmm16, 0x40(%rsp) vmovss %xmm17, 0x3c(%rsp) vmovaps %xmm18, 0x280(%rsp) vmovss %xmm20, 0x38(%rsp) vmovaps %xmm6, 0x270(%rsp) vzeroupper callq 0x6aa20 vmovaps 0x270(%rsp), %xmm6 vmovss 0x38(%rsp), %xmm20 vmovaps 0x280(%rsp), %xmm18 vmovss 0x3c(%rsp), %xmm17 vmovss 0x40(%rsp), %xmm16 vmovaps 0xd0(%rsp), %xmm15 vmovss 0x24(%rsp), %xmm7 vmovss 0x20(%rsp), %xmm14 vmovaps 0x1e0(%rsp), %xmm19 vmovaps 0x200(%rsp), %xmm12 vmovaps 0x60(%rsp), %xmm10 vbroadcastss 0x23dc78(%rip), %xmm11 # 0x1f20ec4 vmovaps 0x140(%rsp), %ymm26 vmovaps 0x120(%rsp), %ymm30 vmovaps 0x1c0(%rsp), %ymm21 vmovaps 0xa0(%rsp), %xmm8 vmovaps 0x80(%rsp), %xmm9 vmovss 0x20d75e(%rip), %xmm3 # 0x1ef09dc vmovaps %xmm3, %xmm1 vmovaps 0x2b0(%rsp), %xmm5 vfmadd213ss %xmm5, %xmm8, %xmm1 # xmm1 = (xmm8 * xmm1) + xmm5 vmovss 0x20dd5c(%rip), %xmm4 # 0x1ef0ff4 vmulss %xmm4, %xmm1, %xmm1 vmulss %xmm4, %xmm8, %xmm2 vbroadcastss %xmm2, %xmm2 vmulps 0x2c0(%rsp), %xmm2, %xmm2 vbroadcastss %xmm1, %xmm1 vfmadd132ps 0x300(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2 vmovaps %xmm3, %xmm2 vfmadd213ss %xmm8, %xmm5, %xmm2 # xmm2 = (xmm5 * xmm2) + xmm8 vmulss %xmm4, %xmm2, %xmm2 vbroadcastss %xmm2, %xmm2 vfmadd132ps 0x2e0(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1 vmulss %xmm4, %xmm5, %xmm1 vbroadcastss %xmm1, %xmm1 vfmadd132ps 0x320(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2 vbroadcastss 0x2a0(%rsp), %xmm2 vmulps %xmm2, %xmm1, %xmm2 vdpps $0x7f, %xmm1, %xmm10, %xmm1 vbroadcastss %xmm1, %xmm1 vmulps %xmm1, %xmm10, %xmm1 vsubps %xmm1, %xmm2, %xmm1 vmovss 0x4c(%rsp), %xmm2 vmulss 0x290(%rsp), %xmm2, %xmm2 vmulss 0x48(%rsp), %xmm9, %xmm3 vbroadcastss %xmm2, %xmm2 vmulps %xmm2, %xmm1, %xmm1 vxorps 0x23db8b(%rip){1to4}, %xmm10, %xmm2 # 0x1f20ec0 vmulps %xmm1, %xmm6, %xmm4 vmovaps 0xe0(%rsp), %xmm13 vdpps $0x7f, %xmm13, %xmm2, %xmm5 vmovss 0x44(%rsp), %xmm6 vmaxss %xmm3, %xmm6, %xmm1 vdivss %xmm16, %xmm6, %xmm3 vdpps $0x7f, %xmm4, %xmm12, %xmm4 vfmadd213ss %xmm1, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm7) + xmm1 vfmadd213ss %xmm7, %xmm3, %xmm14 # xmm14 = (xmm3 * xmm14) + xmm7 vmovaps 0x240(%rsp), %xmm7 vdpps $0x7f, %xmm13, %xmm7, %xmm3 vaddss %xmm4, %xmm5, %xmm4 vdpps $0x7f, %xmm2, %xmm12, %xmm5 vmulss %xmm18, %xmm20, %xmm2 vmulss %xmm18, %xmm18, %xmm6 vmulss %xmm6, %xmm2, %xmm2 vdpps $0x7f, %xmm7, %xmm12, %xmm6 vaddss %xmm2, %xmm17, %xmm7 vfnmadd231ss %xmm4, %xmm15, %xmm5 # xmm5 = -(xmm15 * xmm4) + xmm5 vfnmadd231ss %xmm3, %xmm15, %xmm6 # xmm6 = -(xmm15 * xmm3) + xmm6 vpermilps $0xff, 0x380(%rsp), %xmm2 # xmm2 = mem[3,3,3,3] vsubss %xmm2, %xmm0, %xmm2 vshufps $0xff, %xmm10, %xmm10, %xmm0 # xmm0 = xmm10[3,3,3,3] vfmsub213ss %xmm0, %xmm7, %xmm5 # xmm5 = (xmm7 * xmm5) - xmm0 vmulss %xmm7, %xmm6, %xmm6 vmulss %xmm5, %xmm3, %xmm7 vfmsub231ss %xmm6, %xmm4, %xmm7 # xmm7 = (xmm4 * xmm6) - xmm7 vdivss %xmm7, %xmm6, %xmm6 vdivss %xmm7, %xmm5, %xmm5 vdivss %xmm7, %xmm3, %xmm3 vdivss %xmm7, %xmm4, %xmm4 vmulss %xmm6, %xmm15, %xmm6 vmulss %xmm3, %xmm2, %xmm3 vsubss %xmm3, %xmm6, %xmm3 vmulss %xmm5, %xmm15, %xmm5 vmulss %xmm4, %xmm2, %xmm4 vsubss %xmm5, %xmm4, %xmm4 vsubss %xmm3, %xmm8, %xmm8 vsubss %xmm4, %xmm9, %xmm9 vandps %xmm11, %xmm15, %xmm3 vucomiss %xmm3, %xmm14 jbe 0x1ce35bd vaddss %xmm1, %xmm14, %xmm1 vmovaps 0x250(%rsp), %xmm3 vfmadd231ss 0x20ea91(%rip), %xmm3, %xmm1 # xmm1 = (xmm3 * mem) + xmm1 vandps %xmm2, %xmm11, %xmm2 vucomiss %xmm2, %xmm1 jbe 0x1ce35bd vaddss 0x260(%rsp), %xmm9, %xmm9 movb $0x1, %r13b vucomiss 0x5c(%rsp), %xmm9 jb 0x1ce35c0 movq 0x18(%rsp), %rax vmovss 0x80(%r12,%rax,4), %xmm4 vucomiss %xmm9, %xmm4 jb 0x1ce35c0 vucomiss 0x2085b9(%rip), %xmm8 # 0x1eeba24 jb 0x1ce35c0 vmovss 0x20929b(%rip), %xmm1 # 0x1eec714 vucomiss %xmm8, %xmm1 jb 0x1ce35c0 vxorps %xmm2, %xmm2, %xmm2 vmovss %xmm19, %xmm2, %xmm1 # xmm1 = xmm19[0],xmm2[1,2,3] vrsqrt14ss %xmm1, %xmm2, %xmm1 vmulss 0x20927c(%rip), %xmm1, %xmm2 # 0x1eec718 vmulss 0x209276(%rip), %xmm19, %xmm3 # 0x1eec71c movq (%r15), %rax movq 0x1e8(%rax), %rax movq %r15, %rcx movq 0x50(%rsp), %rdx movq (%rax,%rdx,8), %r15 movq 0x18(%rsp), %rax movl 0x90(%r12,%rax,4), %eax testl %eax, 0x34(%r15) je 0x1ce35dd vmulss %xmm1, %xmm3, %xmm3 vmulss %xmm1, %xmm1, %xmm1 vmulss %xmm1, %xmm3, %xmm1 vaddss %xmm1, %xmm2, %xmm1 vbroadcastss %xmm1, %xmm1 vmulps %xmm1, %xmm12, %xmm1 vfmadd213ps %xmm10, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm0) + xmm10 vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3] vshufps $0xc9, %xmm10, %xmm10, %xmm3 # xmm3 = xmm10[1,2,0,3] vmulps %xmm3, %xmm1, %xmm1 vfmsub231ps %xmm2, %xmm10, %xmm1 # xmm1 = (xmm10 * xmm2) - xmm1 vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3] vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3] vshufps $0xd2, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,0,1,3] vmulps %xmm1, %xmm0, %xmm0 vfmsub231ps %xmm3, %xmm2, %xmm0 # xmm0 = (xmm2 * xmm3) - xmm0 movq 0x10(%rcx), %rax cmpq $0x0, 0x10(%rax) jne 0x1ce35e2 cmpq $0x0, 0x40(%r15) jne 0x1ce35e2 movq 0x18(%rsp), %rcx vmovss %xmm9, 0x80(%r12,%rcx,4) vextractps $0x1, %xmm0, 0xc0(%r12,%rcx,4) vextractps $0x2, %xmm0, 0xd0(%r12,%rcx,4) vmovss %xmm0, 0xe0(%r12,%rcx,4) vmovss %xmm8, 0xf0(%r12,%rcx,4) movl $0x0, 0x100(%r12,%rcx,4) movq 0x100(%rsp), %rax movl %eax, 0x110(%r12,%rcx,4) movq 0x50(%rsp), %rax movl %eax, 0x120(%r12,%rcx,4) movq 0x28(%rsp), %r15 movq 0x8(%r15), %rax movl (%rax), %eax movl %eax, 0x130(%r12,%rcx,4) movq 0x8(%r15), %rax movl 0x4(%rax), %eax movl %eax, 0x140(%r12,%rcx,4) jmp 0x1ce35c0 xorl %r13d, %r13d subq $0x1, %r14 setb %al testb %r13b, %r13b jne 0x1ce3883 testb %al, %al je 0x1ce2f88 jmp 0x1ce3883 movq %rcx, %r15 jmp 0x1ce35c0 movq 0x28(%rsp), %rcx movq 0x8(%rcx), %rax vbroadcastss %xmm8, %xmm1 vshufps $0x55, %xmm0, %xmm0, %xmm2 # xmm2 = xmm0[1,1,1,1] vshufps $0xaa, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[2,2,2,2] vbroadcastss %xmm0, %xmm0 vmovaps %xmm2, 0x3e0(%rsp) vmovaps %xmm3, 0x3f0(%rsp) vmovaps %xmm0, 0x400(%rsp) vmovaps %xmm1, 0x410(%rsp) vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 0x420(%rsp) vmovaps 0x3c0(%rsp), %xmm0 vmovaps %xmm0, 0x430(%rsp) vmovdqa 0x3d0(%rsp), %xmm0 vmovdqa %xmm0, 0x440(%rsp) leaq 0x450(%rsp), %rdx vpcmpeqd %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, (%rdx) vbroadcastss (%rax), %xmm0 vmovaps %xmm0, 0x450(%rsp) vbroadcastss 0x4(%rax), %xmm0 vmovaps %xmm0, 0x460(%rsp) movq 0x18(%rsp), %rax vmovss %xmm9, 0x80(%r12,%rax,4) vmovaps 0x3b0(%rsp), %xmm0 vmovaps %xmm0, 0xf0(%rsp) leaq 0xf0(%rsp), %rax movq %rax, 0x160(%rsp) movq 0x18(%r15), %rax movq %rax, 0x168(%rsp) movq 0x8(%rcx), %rax movq %rax, 0x170(%rsp) movq %r12, 0x178(%rsp) leaq 0x3e0(%rsp), %rax movq %rax, 0x180(%rsp) movl $0x4, 0x188(%rsp) movq 0x40(%r15), %rax testq %rax, %rax vmovaps %xmm8, 0xa0(%rsp) vmovaps %xmm9, 0x80(%rsp) vmovss %xmm4, 0x60(%rsp) je 0x1ce3754 leaq 0x160(%rsp), %rdi vzeroupper callq *%rax vmovss 0x60(%rsp), %xmm4 vmovaps 0x80(%rsp), %xmm9 vmovaps 0xa0(%rsp), %xmm8 vmovaps 0x1c0(%rsp), %ymm21 vmovaps 0x120(%rsp), %ymm30 vmovaps 0x140(%rsp), %ymm26 vbroadcastss 0x23d770(%rip), %xmm11 # 0x1f20ec4 vmovdqa 0xf0(%rsp), %xmm0 vptestmd %xmm0, %xmm0, %k0 kortestb %k0, %k0 je 0x1ce386a movq 0x28(%rsp), %rax movq 0x10(%rax), %rcx movq 0x10(%rcx), %rax testq %rax, %rax je 0x1ce37d1 testb $0x2, (%rcx) jne 0x1ce378b testb $0x40, 0x3e(%r15) je 0x1ce37d1 leaq 0x160(%rsp), %rdi vzeroupper callq *%rax vmovss 0x60(%rsp), %xmm4 vmovaps 0x80(%rsp), %xmm9 vmovaps 0xa0(%rsp), %xmm8 vmovaps 0x1c0(%rsp), %ymm21 vmovaps 0x120(%rsp), %ymm30 vmovaps 0x140(%rsp), %ymm26 vbroadcastss 0x23d6f3(%rip), %xmm11 # 0x1f20ec4 vmovdqa 0xf0(%rsp), %xmm0 vptestmd %xmm0, %xmm0, %k1 kortestb %k1, %k1 je 0x1ce386a movq 0x178(%rsp), %rax movq 0x180(%rsp), %rcx vmovaps (%rcx), %xmm0 vmovups %xmm0, 0xc0(%rax) {%k1} vmovaps 0x10(%rcx), %xmm0 vmovups %xmm0, 0xd0(%rax) {%k1} vmovaps 0x20(%rcx), %xmm0 vmovups %xmm0, 0xe0(%rax) {%k1} vmovaps 0x30(%rcx), %xmm0 vmovups %xmm0, 0xf0(%rax) {%k1} vmovaps 0x40(%rcx), %xmm0 vmovups %xmm0, 0x100(%rax) {%k1} vmovdqa 0x50(%rcx), %xmm0 vmovdqu32 %xmm0, 0x110(%rax) {%k1} vmovdqa 0x60(%rcx), %xmm0 vmovdqu32 %xmm0, 0x120(%rax) {%k1} vmovdqa 0x70(%rcx), %xmm0 vmovdqa32 %xmm0, 0x130(%rax) {%k1} vmovdqa 0x80(%rcx), %xmm0 vmovdqa32 %xmm0, 0x140(%rax) {%k1} jmp 0x1ce3879 movq 0x18(%rsp), %rax vmovss %xmm4, 0x80(%r12,%rax,4) movq 0x28(%rsp), %r15 jmp 0x1ce35c0 movq 0x18(%rsp), %rax vmovaps 0x4a0(%rsp), %ymm0 vcmpleps 0x80(%r12,%rax,4){1to8}, %ymm0, %k0 kmovd %k0, %eax andb %al, %bl jne 0x1ce2ea4 vmovaps 0x480(%rsp), %ymm0 vaddps 0x360(%rsp), %ymm0, %ymm0 movq 0x18(%rsp), %rax vcmpleps 0x80(%r12,%rax,4){1to8}, %ymm0, %k0 kmovd 0x114(%rsp), %k1 kmovd 0x10c(%rsp), %k2 korb %k2, %k1, %k1 kmovd %k0, %eax movl 0x34(%rsp), %ecx andb %al, %cl vpbroadcastd 0x23d5eb(%rip), %ymm0 # 0x1f20edc vpblendmd 0x23d5dd(%rip){1to8}, %ymm0, %ymm0 {%k1} # 0x1f20ed8 vmovdqa %ymm0, 0x480(%rsp) vpcmpled 0x500(%rsp), %ymm0, %k0 kmovd %k0, %ebx movl %ecx, 0x34(%rsp) andb %cl, %bl je 0x1ce43a6 vmovaps 0x540(%rsp), %ymm5 vmovaps 0x320(%rsp), %ymm1 vmovaps 0x2e0(%rsp), %ymm2 vminps %xmm2, %xmm1, %xmm0 vmaxps %xmm2, %xmm1, %xmm1 vmovaps 0x300(%rsp), %ymm3 vmovaps 0x2c0(%rsp), %ymm4 vminps %xmm4, %xmm3, %xmm2 vminps %xmm2, %xmm0, %xmm0 vmaxps %xmm4, %xmm3, %xmm2 vmaxps %xmm2, %xmm1, %xmm1 vandps %xmm0, %xmm11, %xmm0 vandps %xmm1, %xmm11, %xmm2 vmaxps %xmm2, %xmm0, %xmm0 vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3] vmaxss %xmm0, %xmm2, %xmm2 vshufpd $0x1, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[1,0] vmaxss %xmm2, %xmm0, %xmm0 vmulss 0x20e52d(%rip), %xmm0, %xmm0 # 0x1ef1eb4 vmovss %xmm0, 0x44(%rsp) vshufps $0xff, %xmm1, %xmm1, %xmm0 # xmm0 = xmm1[3,3,3,3] vmovaps %xmm0, 0x250(%rsp) vmovaps %ymm5, 0x340(%rsp) vaddps 0x360(%rsp), %ymm5, %ymm0 vmovaps %ymm0, 0x4a0(%rsp) kmovd %ebx, %k1 vbroadcastss 0x20805d(%rip), %ymm0 # 0x1eeba20 vblendmps 0x340(%rsp), %ymm0, %ymm0 {%k1} vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm0, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1] vminps %ymm2, %ymm1, %ymm1 vcmpeqps %ymm1, %ymm0, %k0 kmovd %k0, %eax andb %bl, %al movzbl %al, %eax movzbl %bl, %ecx cmovnel %eax, %ecx tzcntl %ecx, %ecx movb $0x1, %bl shlb %cl, %bl shll $0x2, %ecx vmovss 0x4c0(%rsp,%rcx), %xmm9 vmovss 0x560(%rsp,%rcx), %xmm10 vmovaps 0x230(%rsp), %xmm0 vucomiss 0x207ff9(%rip), %xmm0 # 0x1eeba24 vmovss 0x11c(%rsp), %xmm0 jae 0x1ce3a77 vmovaps 0x230(%rsp), %xmm0 vmovaps %xmm9, 0xa0(%rsp) vmovaps %xmm10, 0x80(%rsp) kmovw %k1, 0x60(%rsp) vzeroupper callq 0x6aa20 kmovw 0x60(%rsp), %k1 vmovaps 0x80(%rsp), %xmm10 vmovaps 0xa0(%rsp), %xmm9 movzbl %bl, %eax kmovd %eax, %k0 kandnb %k1, %k0, %k0 kmovd %k0, %ebx vmulss 0x20e426(%rip), %xmm0, %xmm0 # 0x1ef1eb4 vmovss %xmm0, 0x48(%rsp) movl $0x4, %r14d vbroadcastss %xmm10, %xmm0 vxorps %xmm1, %xmm1, %xmm1 vfmadd132ps 0x240(%rsp), %xmm1, %xmm0 # xmm0 = (xmm0 * mem) + xmm1 vmovss 0x208c5f(%rip), %xmm1 # 0x1eec714 vsubss %xmm9, %xmm1, %xmm3 vbroadcastss %xmm9, %xmm1 vmovaps 0x2e0(%rsp), %ymm5 vmulps %xmm1, %xmm5, %xmm2 vmovaps %xmm3, 0x2b0(%rsp) vbroadcastss %xmm3, %xmm3 vfmadd231ps 0x320(%rsp), %xmm3, %xmm2 # xmm2 = (xmm3 * mem) + xmm2 vmovaps 0x300(%rsp), %ymm6 vmulps %xmm1, %xmm6, %xmm4 vfmadd231ps %xmm5, %xmm3, %xmm4 # xmm4 = (xmm3 * xmm5) + xmm4 vmulps 0x2c0(%rsp), %xmm1, %xmm5 vfmadd231ps %xmm6, %xmm3, %xmm5 # xmm5 = (xmm3 * xmm6) + xmm5 vmulps %xmm4, %xmm1, %xmm6 vfmadd231ps %xmm2, %xmm3, %xmm6 # xmm6 = (xmm3 * xmm2) + xmm6 vmulps %xmm5, %xmm1, %xmm2 vfmadd231ps %xmm4, %xmm3, %xmm2 # xmm2 = (xmm3 * xmm4) + xmm2 vmulps %xmm2, %xmm1, %xmm4 vfmadd231ps %xmm3, %xmm6, %xmm4 # xmm4 = (xmm6 * xmm3) + xmm4 vsubps %xmm6, %xmm2, %xmm1 vmulps 0x20d4bf(%rip){1to4}, %xmm1, %xmm11 # 0x1ef0fec vmovaps %xmm4, 0x380(%rsp) vsubps %xmm4, %xmm0, %xmm0 vmovaps %xmm0, 0x200(%rsp) vdpps $0x7f, %xmm0, %xmm0, %xmm0 vucomiss 0x207ed3(%rip), %xmm0 # 0x1eeba24 vmovaps %xmm11, 0x60(%rsp) vmovaps %xmm0, 0x1e0(%rsp) vmovaps %xmm9, 0xa0(%rsp) vmovaps %xmm10, 0x80(%rsp) jb 0x1ce3b7a vsqrtss %xmm0, %xmm0, %xmm7 jmp 0x1ce3b8c vzeroupper callq 0x6aa20 vmovaps 0x60(%rsp), %xmm11 vmovaps %xmm0, %xmm7 vdpps $0x7f, %xmm11, %xmm11, %xmm0 vxorps %xmm1, %xmm1, %xmm1 vmovss %xmm0, %xmm1, %xmm2 # xmm2 = xmm0[0],xmm1[1,2,3] vrsqrt14ss %xmm2, %xmm1, %xmm3 vmulss 0x208b70(%rip), %xmm3, %xmm4 # 0x1eec718 vmulss 0x208b6c(%rip), %xmm0, %xmm5 # 0x1eec71c vrcp14ss %xmm2, %xmm1, %xmm2 vxorps 0x23d300(%rip){1to4}, %xmm0, %xmm1 # 0x1f20ec0 vmovaps %xmm2, 0x290(%rsp) vfnmadd213ss 0x20d426(%rip), %xmm0, %xmm2 # xmm2 = -(xmm0 * xmm2) + mem vmovss %xmm2, 0x4c(%rsp) vucomiss %xmm1, %xmm0 vmovss %xmm7, 0x24(%rsp) vmovaps %xmm0, 0x2a0(%rsp) jb 0x1ce3bf5 vsqrtss %xmm0, %xmm0, %xmm16 jmp 0x1ce3c3f vmovaps %xmm3, 0xe0(%rsp) vmovss %xmm4, 0x20(%rsp) vmovss %xmm5, 0xd0(%rsp) vzeroupper callq 0x6aa20 vmovss 0xd0(%rsp), %xmm5 vmovss 0x20(%rsp), %xmm4 vmovaps 0xe0(%rsp), %xmm3 vmovss 0x24(%rsp), %xmm7 vmovaps 0x60(%rsp), %xmm11 vmovaps %xmm0, %xmm16 vmovaps 0x200(%rsp), %xmm12 vmovaps 0x1e0(%rsp), %xmm19 vmulss %xmm3, %xmm5, %xmm0 vmulss %xmm3, %xmm3, %xmm1 vmulss %xmm1, %xmm0, %xmm0 vaddss %xmm0, %xmm4, %xmm0 vbroadcastss %xmm0, %xmm6 vmulps %xmm6, %xmm11, %xmm0 vmovaps %xmm0, 0xe0(%rsp) vdpps $0x7f, %xmm0, %xmm12, %xmm15 vaddss 0x208a94(%rip), %xmm7, %xmm14 # 0x1eec714 vmulps %xmm15, %xmm15, %xmm0 vsubps %xmm0, %xmm19, %xmm0 vxorps %xmm2, %xmm2, %xmm2 vmovss %xmm0, %xmm2, %xmm1 # xmm1 = xmm0[0],xmm2[1,2,3] vrsqrt14ss %xmm1, %xmm2, %xmm18 vmulss 0x208a75(%rip), %xmm18, %xmm17 # 0x1eec718 vmulss 0x208a6f(%rip), %xmm0, %xmm20 # 0x1eec71c vucomiss 0x207d6f(%rip), %xmm0 # 0x1eeba24 jb 0x1ce3cc0 vsqrtss %xmm0, %xmm0, %xmm0 jmp 0x1ce3d55 vmovss %xmm14, 0x20(%rsp) vmovaps %xmm15, 0xd0(%rsp) vmovss %xmm16, 0x40(%rsp) vmovss %xmm17, 0x3c(%rsp) vmovaps %xmm18, 0x280(%rsp) vmovss %xmm20, 0x38(%rsp) vmovaps %xmm6, 0x270(%rsp) vzeroupper callq 0x6aa20 vmovaps 0x270(%rsp), %xmm6 vmovss 0x38(%rsp), %xmm20 vmovaps 0x280(%rsp), %xmm18 vmovss 0x3c(%rsp), %xmm17 vmovss 0x40(%rsp), %xmm16 vmovaps 0xd0(%rsp), %xmm15 vmovss 0x24(%rsp), %xmm7 vmovss 0x20(%rsp), %xmm14 vmovaps 0x1e0(%rsp), %xmm19 vmovaps 0x200(%rsp), %xmm12 vmovaps 0x60(%rsp), %xmm11 vbroadcastss 0x23d166(%rip), %xmm8 # 0x1f20ec4 vmovaps 0x140(%rsp), %ymm26 vmovaps 0x120(%rsp), %ymm30 vmovaps 0x1c0(%rsp), %ymm21 vmovaps 0xa0(%rsp), %xmm9 vmovaps 0x80(%rsp), %xmm10 vmovss 0x20cc4c(%rip), %xmm3 # 0x1ef09dc vmovaps %xmm3, %xmm1 vmovaps 0x2b0(%rsp), %xmm5 vfmadd213ss %xmm5, %xmm9, %xmm1 # xmm1 = (xmm9 * xmm1) + xmm5 vmovss 0x20d24a(%rip), %xmm4 # 0x1ef0ff4 vmulss %xmm4, %xmm1, %xmm1 vmulss %xmm4, %xmm9, %xmm2 vbroadcastss %xmm2, %xmm2 vmulps 0x2c0(%rsp), %xmm2, %xmm2 vbroadcastss %xmm1, %xmm1 vfmadd132ps 0x300(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2 vmovaps %xmm3, %xmm2 vfmadd213ss %xmm9, %xmm5, %xmm2 # xmm2 = (xmm5 * xmm2) + xmm9 vmulss %xmm4, %xmm2, %xmm2 vbroadcastss %xmm2, %xmm2 vfmadd132ps 0x2e0(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1 vmulss %xmm4, %xmm5, %xmm1 vbroadcastss %xmm1, %xmm1 vfmadd132ps 0x320(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2 vbroadcastss 0x2a0(%rsp), %xmm2 vmulps %xmm2, %xmm1, %xmm2 vdpps $0x7f, %xmm1, %xmm11, %xmm1 vbroadcastss %xmm1, %xmm1 vmulps %xmm1, %xmm11, %xmm1 vsubps %xmm1, %xmm2, %xmm1 vmovss 0x4c(%rsp), %xmm2 vmulss 0x290(%rsp), %xmm2, %xmm2 vmulss 0x48(%rsp), %xmm10, %xmm3 vbroadcastss %xmm2, %xmm2 vmulps %xmm2, %xmm1, %xmm1 vxorps 0x23d079(%rip){1to4}, %xmm11, %xmm2 # 0x1f20ec0 vmulps %xmm1, %xmm6, %xmm4 vmovaps 0xe0(%rsp), %xmm13 vdpps $0x7f, %xmm13, %xmm2, %xmm5 vmovss 0x44(%rsp), %xmm6 vmaxss %xmm3, %xmm6, %xmm1 vdivss %xmm16, %xmm6, %xmm3 vdpps $0x7f, %xmm4, %xmm12, %xmm4 vfmadd213ss %xmm1, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm7) + xmm1 vfmadd213ss %xmm7, %xmm3, %xmm14 # xmm14 = (xmm3 * xmm14) + xmm7 vmovaps 0x240(%rsp), %xmm7 vdpps $0x7f, %xmm13, %xmm7, %xmm3 vaddss %xmm4, %xmm5, %xmm4 vdpps $0x7f, %xmm2, %xmm12, %xmm5 vmulss %xmm18, %xmm20, %xmm2 vmulss %xmm18, %xmm18, %xmm6 vmulss %xmm6, %xmm2, %xmm2 vdpps $0x7f, %xmm7, %xmm12, %xmm6 vaddss %xmm2, %xmm17, %xmm7 vfnmadd231ss %xmm4, %xmm15, %xmm5 # xmm5 = -(xmm15 * xmm4) + xmm5 vfnmadd231ss %xmm3, %xmm15, %xmm6 # xmm6 = -(xmm15 * xmm3) + xmm6 vpermilps $0xff, 0x380(%rsp), %xmm2 # xmm2 = mem[3,3,3,3] vsubss %xmm2, %xmm0, %xmm2 vshufps $0xff, %xmm11, %xmm11, %xmm0 # xmm0 = xmm11[3,3,3,3] vfmsub213ss %xmm0, %xmm7, %xmm5 # xmm5 = (xmm7 * xmm5) - xmm0 vmulss %xmm7, %xmm6, %xmm6 vmulss %xmm5, %xmm3, %xmm7 vfmsub231ss %xmm6, %xmm4, %xmm7 # xmm7 = (xmm4 * xmm6) - xmm7 vdivss %xmm7, %xmm6, %xmm6 vdivss %xmm7, %xmm5, %xmm5 vdivss %xmm7, %xmm3, %xmm3 vdivss %xmm7, %xmm4, %xmm4 vmulss %xmm6, %xmm15, %xmm6 vmulss %xmm3, %xmm2, %xmm3 vsubss %xmm3, %xmm6, %xmm3 vmulss %xmm5, %xmm15, %xmm5 vmulss %xmm4, %xmm2, %xmm4 vsubss %xmm5, %xmm4, %xmm4 vsubss %xmm3, %xmm9, %xmm9 vsubss %xmm4, %xmm10, %xmm10 vandps %xmm8, %xmm15, %xmm3 vucomiss %xmm3, %xmm14 jbe 0x1ce40cf vaddss %xmm1, %xmm14, %xmm1 vmovaps 0x250(%rsp), %xmm3 vfmadd231ss 0x20df7f(%rip), %xmm3, %xmm1 # xmm1 = (xmm3 * mem) + xmm1 vandps %xmm2, %xmm8, %xmm2 vucomiss %xmm2, %xmm1 jbe 0x1ce40cf vaddss 0x260(%rsp), %xmm10, %xmm10 movb $0x1, %r13b vucomiss 0x5c(%rsp), %xmm10 jb 0x1ce40d2 movq 0x18(%rsp), %rax vmovss 0x80(%r12,%rax,4), %xmm4 vucomiss %xmm10, %xmm4 jb 0x1ce40d2 vucomiss 0x207aa7(%rip), %xmm9 # 0x1eeba24 jb 0x1ce40d2 vmovss 0x208789(%rip), %xmm1 # 0x1eec714 vucomiss %xmm9, %xmm1 jb 0x1ce40d2 vxorps %xmm2, %xmm2, %xmm2 vmovss %xmm19, %xmm2, %xmm1 # xmm1 = xmm19[0],xmm2[1,2,3] vrsqrt14ss %xmm1, %xmm2, %xmm1 vmulss 0x20876a(%rip), %xmm1, %xmm2 # 0x1eec718 vmulss 0x208764(%rip), %xmm19, %xmm3 # 0x1eec71c movq (%r15), %rax movq 0x1e8(%rax), %rax movq %r15, %rcx movq 0x50(%rsp), %rdx movq (%rax,%rdx,8), %r15 movq 0x18(%rsp), %rax movl 0x90(%r12,%rax,4), %eax testl %eax, 0x34(%r15) je 0x1ce40ef vmulss %xmm1, %xmm3, %xmm3 vmulss %xmm1, %xmm1, %xmm1 vmulss %xmm1, %xmm3, %xmm1 vaddss %xmm1, %xmm2, %xmm1 vbroadcastss %xmm1, %xmm1 vmulps %xmm1, %xmm12, %xmm1 vfmadd213ps %xmm11, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm0) + xmm11 vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3] vshufps $0xc9, %xmm11, %xmm11, %xmm3 # xmm3 = xmm11[1,2,0,3] vmulps %xmm3, %xmm1, %xmm1 vfmsub231ps %xmm2, %xmm11, %xmm1 # xmm1 = (xmm11 * xmm2) - xmm1 vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3] vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3] vshufps $0xd2, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,0,1,3] vmulps %xmm1, %xmm0, %xmm0 vfmsub231ps %xmm3, %xmm2, %xmm0 # xmm0 = (xmm2 * xmm3) - xmm0 movq 0x10(%rcx), %rax cmpq $0x0, 0x10(%rax) jne 0x1ce40f4 cmpq $0x0, 0x40(%r15) jne 0x1ce40f4 movq 0x18(%rsp), %rcx vmovss %xmm10, 0x80(%r12,%rcx,4) vextractps $0x1, %xmm0, 0xc0(%r12,%rcx,4) vextractps $0x2, %xmm0, 0xd0(%r12,%rcx,4) vmovss %xmm0, 0xe0(%r12,%rcx,4) vmovss %xmm9, 0xf0(%r12,%rcx,4) movl $0x0, 0x100(%r12,%rcx,4) movq 0x100(%rsp), %rax movl %eax, 0x110(%r12,%rcx,4) movq 0x50(%rsp), %rax movl %eax, 0x120(%r12,%rcx,4) movq 0x28(%rsp), %r15 movq 0x8(%r15), %rax movl (%rax), %eax movl %eax, 0x130(%r12,%rcx,4) movq 0x8(%r15), %rax movl 0x4(%rax), %eax movl %eax, 0x140(%r12,%rcx,4) jmp 0x1ce40d2 xorl %r13d, %r13d subq $0x1, %r14 setb %al testb %r13b, %r13b jne 0x1ce4383 testb %al, %al je 0x1ce3a9a jmp 0x1ce4383 movq %rcx, %r15 jmp 0x1ce40d2 movq 0x28(%rsp), %rcx movq 0x8(%rcx), %rax vbroadcastss %xmm9, %xmm1 vshufps $0x55, %xmm0, %xmm0, %xmm2 # xmm2 = xmm0[1,1,1,1] vshufps $0xaa, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[2,2,2,2] vbroadcastss %xmm0, %xmm0 vmovaps %xmm2, 0x3e0(%rsp) vmovaps %xmm3, 0x3f0(%rsp) vmovaps %xmm0, 0x400(%rsp) vmovaps %xmm1, 0x410(%rsp) vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 0x420(%rsp) vmovaps 0x3c0(%rsp), %xmm0 vmovaps %xmm0, 0x430(%rsp) vmovdqa 0x3d0(%rsp), %xmm0 vmovdqa %xmm0, 0x440(%rsp) leaq 0x450(%rsp), %rdx vpcmpeqd %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, (%rdx) vbroadcastss (%rax), %xmm0 vmovaps %xmm0, 0x450(%rsp) vbroadcastss 0x4(%rax), %xmm0 vmovaps %xmm0, 0x460(%rsp) movq 0x18(%rsp), %rax vmovss %xmm10, 0x80(%r12,%rax,4) vmovaps 0x3b0(%rsp), %xmm0 vmovaps %xmm0, 0xf0(%rsp) leaq 0xf0(%rsp), %rax movq %rax, 0x160(%rsp) movq 0x18(%r15), %rax movq %rax, 0x168(%rsp) movq 0x8(%rcx), %rax movq %rax, 0x170(%rsp) movq %r12, 0x178(%rsp) leaq 0x3e0(%rsp), %rax movq %rax, 0x180(%rsp) movl $0x4, 0x188(%rsp) movq 0x40(%r15), %rax testq %rax, %rax vmovaps %xmm9, 0xa0(%rsp) vmovaps %xmm10, 0x80(%rsp) vmovss %xmm4, 0x60(%rsp) je 0x1ce425d leaq 0x160(%rsp), %rdi vzeroupper callq *%rax vmovss 0x60(%rsp), %xmm4 vmovaps 0x80(%rsp), %xmm10 vmovaps 0xa0(%rsp), %xmm9 vmovaps 0x1c0(%rsp), %ymm21 vmovaps 0x120(%rsp), %ymm30 vmovaps 0x140(%rsp), %ymm26 vmovdqa 0xf0(%rsp), %xmm0 vptestmd %xmm0, %xmm0, %k0 kortestb %k0, %k0 je 0x1ce436a movq 0x28(%rsp), %rax movq 0x10(%rax), %rcx movq 0x10(%rcx), %rax testq %rax, %rax je 0x1ce42d1 testb $0x2, (%rcx) jne 0x1ce4294 testb $0x40, 0x3e(%r15) je 0x1ce42d1 leaq 0x160(%rsp), %rdi vzeroupper callq *%rax vmovss 0x60(%rsp), %xmm4 vmovaps 0x80(%rsp), %xmm10 vmovaps 0xa0(%rsp), %xmm9 vmovaps 0x1c0(%rsp), %ymm21 vmovaps 0x120(%rsp), %ymm30 vmovaps 0x140(%rsp), %ymm26 vmovdqa 0xf0(%rsp), %xmm0 vptestmd %xmm0, %xmm0, %k1 kortestb %k1, %k1 je 0x1ce436a movq 0x178(%rsp), %rax movq 0x180(%rsp), %rcx vmovaps (%rcx), %xmm0 vmovups %xmm0, 0xc0(%rax) {%k1} vmovaps 0x10(%rcx), %xmm0 vmovups %xmm0, 0xd0(%rax) {%k1} vmovaps 0x20(%rcx), %xmm0 vmovups %xmm0, 0xe0(%rax) {%k1} vmovaps 0x30(%rcx), %xmm0 vmovups %xmm0, 0xf0(%rax) {%k1} vmovaps 0x40(%rcx), %xmm0 vmovups %xmm0, 0x100(%rax) {%k1} vmovdqa 0x50(%rcx), %xmm0 vmovdqu32 %xmm0, 0x110(%rax) {%k1} vmovdqa 0x60(%rcx), %xmm0 vmovdqu32 %xmm0, 0x120(%rax) {%k1} vmovdqa 0x70(%rcx), %xmm0 vmovdqa32 %xmm0, 0x130(%rax) {%k1} vmovdqa 0x80(%rcx), %xmm0 vmovdqa32 %xmm0, 0x140(%rax) {%k1} jmp 0x1ce4379 movq 0x18(%rsp), %rax vmovss %xmm4, 0x80(%r12,%rax,4) movq 0x28(%rsp), %r15 jmp 0x1ce40d2 movq 0x18(%rsp), %rax vmovaps 0x4a0(%rsp), %ymm0 vcmpleps 0x80(%r12,%rax,4){1to8}, %ymm0, %k0 kmovd %k0, %eax andb %al, %bl jne 0x1ce39b6 vmovdqa 0x500(%rsp), %ymm1 vpcmpltd 0x480(%rsp), %ymm1, %k1 vmovaps 0x800(%rsp), %ymm0 vpcmpltd 0x580(%rsp), %ymm1, %k2 vmovaps 0x360(%rsp), %ymm3 vaddps %ymm0, %ymm3, %ymm1 movq 0x18(%rsp), %rax vbroadcastss 0x80(%r12,%rax,4), %ymm2 vcmpleps %ymm2, %ymm1, %k0 {%k2} kmovd %k0, %eax movl 0x110(%rsp), %ecx andb %al, %cl vmovaps 0x540(%rsp), %ymm1 vaddps %ymm1, %ymm3, %ymm3 vcmpleps %ymm2, %ymm3, %k0 {%k1} kmovd %k0, %eax movl 0x34(%rsp), %edx andb %al, %dl orb %cl, %dl je 0x1ce4495 movq 0x1b0(%rsp), %r9 movl %r9d, %eax leaq (%rax,%rax,2), %rax shlq $0x5, %rax movb %dl, 0x840(%rsp,%rax) kmovd %ecx, %k1 vmovaps %ymm0, %ymm1 {%k1} vmovaps %ymm1, 0x860(%rsp,%rax) vmovaps 0x190(%rsp), %xmm2 vmovlps %xmm2, 0x880(%rsp,%rax) movq 0x1a8(%rsp), %r11 leal 0x1(%r11), %ecx movl %ecx, 0x888(%rsp,%rax) incl %r9d movq 0x1a0(%rsp), %r8 movq 0x1b8(%rsp), %r10 vmovaps 0x23ca97(%rip), %ymm3 # 0x1f20f20 jmp 0x1ce44c6 vmovaps 0x23ca8d(%rip), %ymm3 # 0x1f20f20 jmp 0x1ce44bd movq 0x1a0(%rsp), %r8 movq 0x1b8(%rsp), %r10 vmovaps 0x23ca73(%rip), %ymm3 # 0x1f20f20 movq 0x1b0(%rsp), %r9 movq 0x1a8(%rsp), %r11 vmovaps 0x190(%rsp), %xmm2 movl %r9d, %eax testl %eax, %eax je 0x1ce4655 leal -0x1(%rax), %r9d leaq (%r9,%r9,2), %rcx shlq $0x5, %rcx vmovaps 0x860(%rsp,%rcx), %ymm0 movzbl 0x840(%rsp,%rcx), %esi vaddps 0x360(%rsp), %ymm0, %ymm1 movq 0x18(%rsp), %rdx vcmpleps 0x80(%r12,%rdx,4){1to8}, %ymm1, %k0 kmovb %k0, %edx andl %esi, %edx je 0x1ce45ba kmovd %edx, %k1 vbroadcastss 0x207502(%rip), %ymm1 # 0x1eeba20 vblendmps %ymm0, %ymm1, %ymm0 {%k1} vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm0, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1] vminps %ymm2, %ymm1, %ymm1 vcmpeqps %ymm1, %ymm0, %k0 kmovd %k0, %esi andb %dl, %sil je 0x1ce4556 movzbl %sil, %edi jmp 0x1ce4559 movzbl %dl, %edi leaq (%rsp,%rcx), %rsi addq $0x840, %rsi # imm = 0x840 vmovss 0x44(%rsi), %xmm0 tzcntl %edi, %ecx movb $0x1, %dil shlb %cl, %dil movl 0x48(%rsi), %r11d movzbl %dil, %edi kmovd %edi, %k0 kmovd %edx, %k1 kandnb %k1, %k0, %k0 kmovb %k0, (%rsi) kortestb %k0, %k0 je 0x1ce4594 movl %eax, %r9d vbroadcastss 0x40(%rsi), %ymm1 vsubss %xmm1, %xmm0, %xmm0 vbroadcastss %xmm0, %ymm0 vfmadd132ps %ymm3, %ymm1, %ymm0 # ymm0 = (ymm0 * ymm3) + ymm1 vmovaps %ymm0, 0x3e0(%rsp) vmovsd 0x3e0(%rsp,%rcx,4), %xmm2 movl %r9d, %eax testb %dl, %dl je 0x1ce44c9 jmp 0x1ce2324 vcmpleps %ymm16, %ymm1, %k2 vbroadcastss 0x2085aa(%rip), %ymm1 # 0x1eecb84 vbroadcastss 0x20743c(%rip), %ymm16 # 0x1eeba20 vblendmps %ymm1, %ymm16, %ymm0 {%k2} vmovaps %ymm0, %ymm30 {%k1} vblendmps %ymm16, %ymm1, %ymm0 {%k2} kmovd %k2, %ecx vmovaps %ymm0, %ymm31 {%k1} knotb %k1, %k0 kmovd %k0, %edx orb %cl, %dl andb %al, %dl movl %edx, %eax jmp 0x1ce286e vcmpleps %ymm20, %ymm11, %k2 vbroadcastss 0x208561(%rip), %ymm7 # 0x1eecb84 vbroadcastss 0x2073f4(%rip), %ymm11 # 0x1eeba20 vblendmps %ymm7, %ymm11, %ymm6 {%k2} vmovaps %ymm6, %ymm4 {%k1} vblendmps %ymm11, %ymm7, %ymm6 {%k2} vmovaps %ymm6, %ymm2 {%k1} knotb %k1, %k1 korb %k2, %k1, %k1 kandb %k0, %k1, %k0 jmp 0x1ce2c55 movq 0x18(%rsp), %rax vmovaps 0x5a0(%rsp), %ymm0 vcmpleps 0x80(%r12,%rax,4){1to8}, %ymm0, %k0 kmovb %k0, %eax andl %eax, %r10d jne 0x1ce1f99 leaq -0x28(%rbp), %rsp popq %rbx popq %r12 popq %r13 popq %r14 popq %r15 popq %rbp vzeroupper retq nop
/embree[P]embree/kernels/geometry/curveNi_intersector.h
void embree::avx512::CurveNiIntersectorK<8, 8>::intersect_t<embree::avx512::SweepCurve1IntersectorK<embree::BezierCurveT, 8>, embree::avx512::Intersect1KEpilog1<8, true>>(embree::avx512::CurvePrecalculationsK<8>&, embree::RayHitK<8>&, unsigned long, embree::RayQueryContext*, embree::CurveNi<8> const&)
static __forceinline void intersect_t(Precalculations& pre, RayHitK<K>& ray, const size_t k, RayQueryContext* context, const Primitive& prim) { vfloat<M> tNear; vbool<M> valid = intersect(ray,k,prim,tNear); const size_t N = prim.N; size_t mask = movemask(valid); while (mask) { const size_t i = bscf(mask); STAT3(normal.trav_prims,1,1,1); const unsigned int geomID = prim.geomID(N); const unsigned int primID = prim.primID(N)[i]; const CurveGeometry* geom = context->scene->get<CurveGeometry>(geomID); Vec3ff a0,a1,a2,a3; geom->gather(a0,a1,a2,a3,geom->curve(primID)); size_t mask1 = mask; const size_t i1 = bscf(mask1); if (mask) { const unsigned int primID1 = prim.primID(N)[i1]; geom->prefetchL1_vertices(geom->curve(primID1)); if (mask1) { const size_t i2 = bsf(mask1); const unsigned int primID2 = prim.primID(N)[i2]; geom->prefetchL2_vertices(geom->curve(primID2)); } } Intersector().intersect(pre,ray,k,context,geom,primID,a0,a1,a2,a3,Epilog(ray,k,context,geomID,primID)); mask &= movemask(tNear <= vfloat<M>(ray.tfar[k])); } }
pushq %rbp movq %rsp, %rbp pushq %r15 pushq %r14 pushq %r13 pushq %r12 pushq %rbx andq $-0x20, %rsp subq $0xa40, %rsp # imm = 0xA40 movq %rcx, %r15 movq %rsi, %r12 movzbl 0x1(%r8), %ecx leaq (%rcx,%rcx,4), %rax leaq (%rax,%rax,4), %rsi vbroadcastss 0x12(%r8,%rsi), %xmm0 vmovss (%r12,%rdx,4), %xmm1 vmovss 0x80(%r12,%rdx,4), %xmm2 vinsertps $0x10, 0x20(%r12,%rdx,4), %xmm1, %xmm1 # xmm1 = xmm1[0],mem[0],xmm1[2,3] vinsertps $0x20, 0x40(%r12,%rdx,4), %xmm1, %xmm1 # xmm1 = xmm1[0,1],mem[0],xmm1[3] vinsertps $0x10, 0xa0(%r12,%rdx,4), %xmm2, %xmm2 # xmm2 = xmm2[0],mem[0],xmm2[2,3] vinsertps $0x20, 0xc0(%r12,%rdx,4), %xmm2, %xmm2 # xmm2 = xmm2[0,1],mem[0],xmm2[3] vsubps 0x6(%r8,%rsi), %xmm1, %xmm1 vmulps %xmm1, %xmm0, %xmm3 vmulps %xmm2, %xmm0, %xmm0 vpmovsxbd 0x6(%r8,%rcx,4), %ymm1 vpmovsxbd 0x6(%r8,%rax), %ymm2 vcvtdq2ps %ymm1, %ymm5 vcvtdq2ps %ymm2, %ymm6 leaq (%rcx,%rcx,2), %r9 vpmovsxbd 0x6(%r8,%r9,2), %ymm1 vcvtdq2ps %ymm1, %ymm4 leaq (%rcx,%rax,2), %rsi vpmovsxbd 0x6(%r8,%rsi), %ymm1 leal (,%r9,4), %esi vpmovsxbd 0x6(%r8,%rsi), %ymm2 vcvtdq2ps %ymm1, %ymm7 vcvtdq2ps %ymm2, %ymm8 addq %rcx, %rsi vpmovsxbd 0x6(%r8,%rsi), %ymm1 vcvtdq2ps %ymm1, %ymm9 leaq (%rcx,%rcx,8), %rsi leal (%rsi,%rsi), %edi vpmovsxbd 0x6(%r8,%rdi), %ymm1 vcvtdq2ps %ymm1, %ymm10 addq %rcx, %rdi vpmovsxbd 0x6(%r8,%rdi), %ymm1 vcvtdq2ps %ymm1, %ymm11 shll $0x2, %eax vpmovsxbd 0x6(%r8,%rax), %ymm1 vcvtdq2ps %ymm1, %ymm12 vbroadcastss %xmm0, %ymm13 vbroadcastss 0x22b2ca(%rip), %ymm15 # 0x1f12704 vbroadcastss 0x239a98(%rip), %ymm16 # 0x1f20edc vpermps %ymm0, %ymm15, %ymm14 vpermps %ymm0, %ymm16, %ymm0 vmulps %ymm4, %ymm0, %ymm2 vmulps %ymm0, %ymm9, %ymm1 vmulps %ymm0, %ymm12, %ymm0 vfmadd231ps %ymm6, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm6) + ymm2 vfmadd231ps %ymm8, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm8) + ymm1 vfmadd231ps %ymm14, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm14) + ymm0 vfmadd231ps %ymm5, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm5) + ymm2 vfmadd231ps %ymm7, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm7) + ymm1 vfmadd231ps %ymm13, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm13) + ymm0 vbroadcastss %xmm3, %ymm13 vpermps %ymm3, %ymm15, %ymm14 vpermps %ymm3, %ymm16, %ymm3 vmulps %ymm4, %ymm3, %ymm15 vmulps %ymm3, %ymm9, %ymm4 vmulps %ymm3, %ymm12, %ymm3 vfmadd231ps %ymm6, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm6) + ymm15 vfmadd231ps %ymm8, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm8) + ymm4 vfmadd231ps %ymm11, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm11) + ymm3 vfmadd231ps %ymm5, %ymm13, %ymm15 # ymm15 = (ymm13 * ymm5) + ymm15 vfmadd231ps %ymm7, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm7) + ymm4 vbroadcastss 0x239a0d(%rip), %ymm6 # 0x1f20ec4 vfmadd231ps %ymm10, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm10) + ymm3 vandps %ymm6, %ymm2, %ymm5 vbroadcastss 0x209b1f(%rip), %ymm7 # 0x1ef0fe8 vcmpltps %ymm7, %ymm5, %k1 vmovaps %ymm7, %ymm2 {%k1} vandps %ymm6, %ymm1, %ymm5 vcmpltps %ymm7, %ymm5, %k1 vmovaps %ymm7, %ymm1 {%k1} vandps %ymm6, %ymm0, %ymm5 vcmpltps %ymm7, %ymm5, %k1 vmovaps %ymm7, %ymm0 {%k1} vrcp14ps %ymm2, %ymm5 vbroadcastss 0x20520d(%rip), %ymm6 # 0x1eec714 vfnmadd213ps %ymm6, %ymm5, %ymm2 # ymm2 = -(ymm5 * ymm2) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm2 # ymm2 = (ymm2 * ymm5) + ymm5 vrcp14ps %ymm1, %ymm5 vfnmadd213ps %ymm6, %ymm5, %ymm1 # ymm1 = -(ymm5 * ymm1) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm1 # ymm1 = (ymm1 * ymm5) + ymm5 vrcp14ps %ymm0, %ymm5 vfnmadd213ps %ymm6, %ymm5, %ymm0 # ymm0 = -(ymm5 * ymm0) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm0 # ymm0 = (ymm0 * ymm5) + ymm5 leaq (,%rcx,8), %rdi subq %rcx, %rdi vpmovsxwd 0x6(%r8,%rdi), %ymm5 vcvtdq2ps %ymm5, %ymm5 vsubps %ymm15, %ymm5, %ymm5 vmulps %ymm5, %ymm2, %ymm5 vpmovsxwd 0x6(%r8,%rsi), %ymm6 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm15, %ymm6, %ymm6 leaq (%rcx,%rcx), %rsi addq %rcx, %rax shlq $0x3, %r9 subq %rcx, %r9 vpbroadcastd %ecx, %ymm7 shll $0x4, %ecx vpmovsxwd 0x6(%r8,%rcx), %ymm8 vmulps %ymm6, %ymm2, %ymm2 subq %rsi, %rcx vpmovsxwd 0x6(%r8,%rcx), %ymm6 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm4, %ymm6, %ymm6 vmulps %ymm6, %ymm1, %ymm6 vcvtdq2ps %ymm8, %ymm8 vsubps %ymm4, %ymm8, %ymm4 vmulps %ymm4, %ymm1, %ymm1 vpmovsxwd 0x6(%r8,%rax), %ymm4 vcvtdq2ps %ymm4, %ymm4 vsubps %ymm3, %ymm4, %ymm4 vmulps %ymm0, %ymm4, %ymm4 vpmovsxwd 0x6(%r8,%r9), %ymm8 vcvtdq2ps %ymm8, %ymm8 vsubps %ymm3, %ymm8, %ymm3 vmulps %ymm3, %ymm0, %ymm0 vpminsd %ymm2, %ymm5, %ymm3 vpminsd %ymm1, %ymm6, %ymm8 vmaxps %ymm8, %ymm3, %ymm3 vpminsd %ymm0, %ymm4, %ymm8 vmaxps 0x60(%r12,%rdx,4){1to8}, %ymm8, %ymm8 vmaxps %ymm8, %ymm3, %ymm3 vmulps 0x238919(%rip){1to8}, %ymm3, %ymm3 # 0x1f1ff10 vpmaxsd %ymm2, %ymm5, %ymm2 vpmaxsd %ymm1, %ymm6, %ymm1 vminps %ymm1, %ymm2, %ymm1 vpmaxsd %ymm0, %ymm4, %ymm0 movq %rdx, 0x18(%rsp) vminps 0x100(%r12,%rdx,4){1to8}, %ymm0, %ymm0 vminps %ymm0, %ymm1, %ymm0 vmulps 0x2388ef(%rip){1to8}, %ymm0, %ymm0 # 0x1f1ff14 vpcmpgtd 0x2732f1(%rip), %ymm7, %k0 # 0x1f5a920 vmovaps %ymm3, 0x660(%rsp) vcmpleps %ymm0, %ymm3, %k1 ktestb %k0, %k1 je 0x1ce9db7 kandb %k0, %k1, %k0 kmovd %k0, %eax movzbl %al, %r10d leaq 0x4e0(%rsp), %rax addq $0xe0, %rax movq %rax, 0x198(%rsp) movl $0x1, %eax movq 0x18(%rsp), %rcx shlxl %ecx, %eax, %eax kmovd %eax, %k0 vpmovm2d %k0, %ymm0 vmovdqa %ymm0, 0x440(%rsp) movq %r15, 0x28(%rsp) movq %r8, 0x1a0(%rsp) tzcntq %r10, %rax movl 0x2(%r8), %ecx movl 0x6(%r8,%rax,4), %edi movq (%r15), %rax movq 0x1e8(%rax), %rax movq %rcx, 0x50(%rsp) movq (%rax,%rcx,8), %rsi movq 0x58(%rsi), %rax movq 0x68(%rsi), %rcx movq %rcx, %rdx movq %rdi, 0xe0(%rsp) imulq %rdi, %rdx movl (%rax,%rdx), %edi movq 0xa0(%rsi), %rdx movq %rdx, %r9 imulq %rdi, %r9 movq 0x90(%rsi), %rsi vmovaps (%rsi,%r9), %xmm1 leaq 0x1(%rdi), %r9 imulq %rdx, %r9 vmovaps (%rsi,%r9), %xmm0 leaq 0x2(%rdi), %r9 imulq %rdx, %r9 vmovaps (%rsi,%r9), %xmm2 blsrq %r10, %r10 addq $0x3, %rdi imulq %rdx, %rdi vmovaps (%rsi,%rdi), %xmm3 movq %r10, %rdi subq $0x1, %rdi jb 0x1ce776e andq %r10, %rdi tzcntq %r10, %r9 movl 0x6(%r8,%r9,4), %r9d imulq %rcx, %r9 movl (%rax,%r9), %r9d imulq %rdx, %r9 prefetcht0 (%rsi,%r9) prefetcht0 0x40(%rsi,%r9) testq %rdi, %rdi je 0x1ce776e tzcntq %rdi, %rdi movl 0x6(%r8,%rdi,4), %edi imulq %rdi, %rcx movl (%rax,%rcx), %eax imulq %rax, %rdx prefetcht1 (%rsi,%rdx) prefetcht1 0x40(%rsi,%rdx) movq 0x18(%rsp), %rax vmovss (%r12,%rax,4), %xmm4 vinsertps $0x1c, 0x20(%r12,%rax,4), %xmm4, %xmm4 # xmm4 = xmm4[0],mem[0],zero,zero vinsertps $0x28, 0x40(%r12,%rax,4), %xmm4, %xmm4 # xmm4 = xmm4[0,1],mem[0],zero vbroadcastss 0x80(%r12,%rax,4), %ymm26 vbroadcastss 0xa0(%r12,%rax,4), %ymm30 vunpcklps %xmm30, %xmm26, %xmm5 # xmm5 = xmm26[0],xmm30[0],xmm26[1],xmm30[1] vbroadcastss 0xc0(%r12,%rax,4), %ymm21 vinsertps $0x28, %xmm21, %xmm5, %xmm9 # xmm9 = xmm5[0,1],xmm21[0],zero vaddps %xmm0, %xmm1, %xmm5 vaddps %xmm2, %xmm5, %xmm5 vaddps %xmm3, %xmm5, %xmm5 vmulps 0x235b38(%rip){1to4}, %xmm5, %xmm5 # 0x1f1d2fc vsubps %xmm4, %xmm5, %xmm5 vdpps $0x7f, %xmm9, %xmm5, %xmm5 vmovss 0x60(%r12,%rax,4), %xmm10 vdpps $0x7f, %xmm9, %xmm9, %xmm11 vxorps %xmm8, %xmm8, %xmm8 vmovss %xmm11, %xmm8, %xmm6 vrcp14ss %xmm6, %xmm8, %xmm6 vmovaps %xmm6, %xmm7 vfnmadd213ss 0x209801(%rip), %xmm11, %xmm7 # xmm7 = -(xmm11 * xmm7) + mem vmulss %xmm7, %xmm6, %xmm6 vmulss %xmm6, %xmm5, %xmm5 vbroadcastss %xmm5, %ymm6 vmovaps %xmm9, 0x230(%rsp) vmovaps %ymm6, 0x380(%rsp) vfmadd231ps %xmm6, %xmm9, %xmm4 # xmm4 = (xmm9 * xmm6) + xmm4 vblendps $0x8, %xmm8, %xmm4, %xmm4 # xmm4 = xmm4[0,1,2],xmm8[3] vsubps %xmm4, %xmm1, %xmm6 vsubps %xmm4, %xmm2, %xmm7 vsubps %xmm4, %xmm0, %xmm8 vsubps %xmm4, %xmm3, %xmm3 vbroadcastss %xmm6, %ymm0 vmovaps %ymm0, 0x8a0(%rsp) vbroadcastss 0x22aebc(%rip), %ymm0 # 0x1f12704 vpermps %ymm6, %ymm0, %ymm1 vmovaps %ymm1, 0x880(%rsp) vbroadcastss 0x23967d(%rip), %ymm1 # 0x1f20edc vpermps %ymm6, %ymm1, %ymm2 vmovaps %ymm2, 0x860(%rsp) vbroadcastss 0x239662(%rip), %ymm2 # 0x1f20ed8 vmovaps %ymm6, 0x340(%rsp) vpermps %ymm6, %ymm2, %ymm4 vmovaps %ymm4, 0x840(%rsp) vbroadcastss %xmm8, %ymm4 vmovaps %ymm4, 0x820(%rsp) vpermps %ymm8, %ymm0, %ymm4 vmovaps %ymm4, 0x800(%rsp) vpermps %ymm8, %ymm1, %ymm4 vmovaps %ymm4, 0x7e0(%rsp) vmovaps %ymm8, 0x300(%rsp) vpermps %ymm8, %ymm2, %ymm4 vmovaps %ymm4, 0x7c0(%rsp) vbroadcastss %xmm7, %ymm4 vmovaps %ymm4, 0x7a0(%rsp) vpermps %ymm7, %ymm0, %ymm4 vmovaps %ymm4, 0x780(%rsp) vpermps %ymm7, %ymm1, %ymm4 vmovaps %ymm4, 0x760(%rsp) vmovaps %ymm7, 0x320(%rsp) vpermps %ymm7, %ymm2, %ymm4 vmovaps %ymm4, 0x740(%rsp) vbroadcastss %xmm3, %ymm4 vmovaps %ymm4, 0x720(%rsp) vpermps %ymm3, %ymm0, %ymm0 vmovaps %ymm0, 0x700(%rsp) vpermps %ymm3, %ymm1, %ymm0 vmovaps %ymm0, 0x6e0(%rsp) vmovaps %ymm3, 0x2e0(%rsp) vpermps %ymm3, %ymm2, %ymm0 vmovaps %ymm0, 0x6c0(%rsp) vmulss %xmm21, %xmm21, %xmm0 vfmadd231ps %ymm30, %ymm30, %ymm0 # ymm0 = (ymm30 * ymm30) + ymm0 vfmadd231ps %ymm26, %ymm26, %ymm0 # ymm0 = (ymm26 * ymm26) + ymm0 vbroadcastss %xmm0, %ymm0 vmovaps %ymm0, 0x6a0(%rsp) vandps 0x23954a(%rip){1to8}, %ymm0, %ymm0 # 0x1f20ec4 vmovaps %ymm0, 0x4c0(%rsp) vmovss %xmm10, 0x5c(%rsp) vmovaps %xmm5, 0x280(%rsp) vsubss %xmm5, %xmm10, %xmm0 vbroadcastss %xmm0, %ymm0 vmovaps %ymm0, 0x680(%rsp) movq 0x50(%rsp), %rax vpbroadcastd %eax, %ymm0 vmovdqa %ymm0, 0x480(%rsp) movl $0x1, %r11d xorl %r9d, %r9d movq 0xe0(%rsp), %rax vpbroadcastd %eax, %ymm0 vmovdqa %ymm0, 0x460(%rsp) vsqrtss %xmm11, %xmm11, %xmm0 vmovss %xmm0, 0xfc(%rsp) vmovaps %xmm11, 0x220(%rsp) vsqrtss %xmm11, %xmm11, %xmm0 vmovss %xmm0, 0xf8(%rsp) vmovsd 0x204ceb(%rip), %xmm2 # 0x1eec6f0 vmovaps 0x239513(%rip), %ymm3 # 0x1f20f20 vmovaps %ymm26, 0x120(%rsp) vmovaps %ymm30, 0x100(%rsp) vmovaps %ymm21, 0x1c0(%rsp) vmovshdup %xmm2, %xmm0 # xmm0 = xmm2[1,1,3,3] vsubss %xmm2, %xmm0, %xmm1 vmulss 0x23949b(%rip), %xmm1, %xmm6 # 0x1f20ed0 vmovaps %xmm2, 0x180(%rsp) vbroadcastss %xmm2, %ymm5 vbroadcastss %xmm1, %ymm0 vmovaps %ymm5, 0x60(%rsp) vmovaps %ymm0, 0x200(%rsp) vfmadd231ps %ymm3, %ymm0, %ymm5 # ymm5 = (ymm0 * ymm3) + ymm5 vbroadcastss 0x204caf(%rip), %ymm0 # 0x1eec714 vsubps %ymm5, %ymm0, %ymm7 vmovaps 0x820(%rsp), %ymm12 vmulps %ymm5, %ymm12, %ymm1 vmovaps 0x800(%rsp), %ymm13 vmulps %ymm5, %ymm13, %ymm2 vmovaps 0x7e0(%rsp), %ymm14 vmulps %ymm5, %ymm14, %ymm3 vmovaps 0x7c0(%rsp), %ymm15 vmulps %ymm5, %ymm15, %ymm4 vfmadd231ps 0x8a0(%rsp), %ymm7, %ymm1 # ymm1 = (ymm7 * mem) + ymm1 vfmadd231ps 0x880(%rsp), %ymm7, %ymm2 # ymm2 = (ymm7 * mem) + ymm2 vfmadd231ps 0x860(%rsp), %ymm7, %ymm3 # ymm3 = (ymm7 * mem) + ymm3 vfmadd231ps 0x840(%rsp), %ymm7, %ymm4 # ymm4 = (ymm7 * mem) + ymm4 vmovaps 0x7a0(%rsp), %ymm16 vmulps %ymm5, %ymm16, %ymm8 vmovaps 0x780(%rsp), %ymm17 vmulps %ymm5, %ymm17, %ymm9 vmovaps 0x760(%rsp), %ymm18 vmulps %ymm5, %ymm18, %ymm10 vmovaps 0x740(%rsp), %ymm19 vmulps %ymm5, %ymm19, %ymm11 vfmadd231ps %ymm12, %ymm7, %ymm8 # ymm8 = (ymm7 * ymm12) + ymm8 vfmadd231ps %ymm13, %ymm7, %ymm9 # ymm9 = (ymm7 * ymm13) + ymm9 vfmadd231ps %ymm14, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm14) + ymm10 vfmadd231ps %ymm15, %ymm7, %ymm11 # ymm11 = (ymm7 * ymm15) + ymm11 vmulps 0x720(%rsp), %ymm5, %ymm12 vmulps 0x700(%rsp), %ymm5, %ymm13 vmulps 0x6e0(%rsp), %ymm5, %ymm14 vmulps 0x6c0(%rsp), %ymm5, %ymm15 vfmadd231ps %ymm16, %ymm7, %ymm12 # ymm12 = (ymm7 * ymm16) + ymm12 vfmadd231ps %ymm17, %ymm7, %ymm13 # ymm13 = (ymm7 * ymm17) + ymm13 vfmadd231ps %ymm18, %ymm7, %ymm14 # ymm14 = (ymm7 * ymm18) + ymm14 vfmadd231ps %ymm19, %ymm7, %ymm15 # ymm15 = (ymm7 * ymm19) + ymm15 vmulps %ymm8, %ymm5, %ymm16 vmulps %ymm9, %ymm5, %ymm17 vmulps %ymm10, %ymm5, %ymm18 vmulps %ymm11, %ymm5, %ymm19 vfmadd231ps %ymm1, %ymm7, %ymm16 # ymm16 = (ymm7 * ymm1) + ymm16 vfmadd231ps %ymm2, %ymm7, %ymm17 # ymm17 = (ymm7 * ymm2) + ymm17 vfmadd231ps %ymm3, %ymm7, %ymm18 # ymm18 = (ymm7 * ymm3) + ymm18 vfmadd231ps %ymm4, %ymm7, %ymm19 # ymm19 = (ymm7 * ymm4) + ymm19 vmulps %ymm5, %ymm12, %ymm1 vmulps %ymm5, %ymm13, %ymm12 vmulps %ymm5, %ymm14, %ymm13 vmulps %ymm5, %ymm15, %ymm14 vfmadd231ps %ymm8, %ymm7, %ymm1 # ymm1 = (ymm7 * ymm8) + ymm1 vfmadd231ps %ymm9, %ymm7, %ymm12 # ymm12 = (ymm7 * ymm9) + ymm12 vfmadd231ps %ymm10, %ymm7, %ymm13 # ymm13 = (ymm7 * ymm10) + ymm13 vfmadd231ps %ymm11, %ymm7, %ymm14 # ymm14 = (ymm7 * ymm11) + ymm14 vmulps %ymm1, %ymm5, %ymm4 vmulps %ymm5, %ymm12, %ymm3 vmulps %ymm13, %ymm5, %ymm29 vmulps %ymm5, %ymm14, %ymm5 vfmadd231ps %ymm16, %ymm7, %ymm4 # ymm4 = (ymm7 * ymm16) + ymm4 vfmadd231ps %ymm17, %ymm7, %ymm3 # ymm3 = (ymm7 * ymm17) + ymm3 vfmadd231ps %ymm18, %ymm7, %ymm29 # ymm29 = (ymm7 * ymm18) + ymm29 vfmadd231ps %ymm7, %ymm19, %ymm5 # ymm5 = (ymm19 * ymm7) + ymm5 vsubps %ymm16, %ymm1, %ymm1 vsubps %ymm17, %ymm12, %ymm7 vsubps %ymm18, %ymm13, %ymm8 vsubps %ymm19, %ymm14, %ymm9 vbroadcastss 0x209400(%rip), %ymm10 # 0x1ef0fec vmulps %ymm1, %ymm10, %ymm1 vmulps %ymm7, %ymm10, %ymm7 vmulps %ymm10, %ymm8, %ymm8 vmulps %ymm10, %ymm9, %ymm9 vbroadcastss %xmm6, %ymm6 vmulps %ymm1, %ymm6, %ymm11 vmulps %ymm7, %ymm6, %ymm12 vmulps %ymm6, %ymm8, %ymm13 vmulps %ymm6, %ymm9, %ymm6 vmovaps %ymm4, %ymm8 vmovaps 0x278101(%rip), %ymm7 # 0x1f5fd20 vxorps %xmm31, %xmm31, %xmm31 vpermt2ps %ymm31, %ymm7, %ymm8 vmovaps %ymm3, %ymm9 vpermt2ps %ymm31, %ymm7, %ymm9 vmovaps %ymm29, %ymm10 vpermt2ps %ymm31, %ymm7, %ymm10 vaddps %ymm6, %ymm5, %ymm1 vmaxps %ymm1, %ymm5, %ymm14 vminps %ymm1, %ymm5, %ymm1 vmovaps %ymm5, %ymm15 vpermt2ps %ymm31, %ymm7, %ymm15 vmovaps %ymm11, %ymm19 vpermt2ps %ymm31, %ymm7, %ymm19 vmovaps %ymm12, %ymm20 vpermt2ps %ymm31, %ymm7, %ymm20 vmovaps %ymm13, %ymm2 vpermt2ps %ymm31, %ymm7, %ymm2 vpermt2ps %ymm31, %ymm7, %ymm6 vsubps %ymm6, %ymm15, %ymm16 vsubps %ymm4, %ymm8, %ymm7 vsubps %ymm3, %ymm9, %ymm6 vsubps %ymm29, %ymm10, %ymm5 vmulps %ymm13, %ymm6, %ymm17 vfmsub231ps %ymm5, %ymm12, %ymm17 # ymm17 = (ymm12 * ymm5) - ymm17 vmulps %ymm11, %ymm5, %ymm18 vfmsub231ps %ymm7, %ymm13, %ymm18 # ymm18 = (ymm13 * ymm7) - ymm18 vmulps %ymm12, %ymm7, %ymm22 vfmsub231ps %ymm6, %ymm11, %ymm22 # ymm22 = (ymm11 * ymm6) - ymm22 vmulps %ymm22, %ymm22, %ymm22 vfmadd231ps %ymm18, %ymm18, %ymm22 # ymm22 = (ymm18 * ymm18) + ymm22 vfmadd231ps %ymm17, %ymm17, %ymm22 # ymm22 = (ymm17 * ymm17) + ymm22 vmulps %ymm5, %ymm5, %ymm17 vfmadd231ps %ymm6, %ymm6, %ymm17 # ymm17 = (ymm6 * ymm6) + ymm17 vfmadd231ps %ymm7, %ymm7, %ymm17 # ymm17 = (ymm7 * ymm7) + ymm17 vrcp14ps %ymm17, %ymm18 vmovaps %ymm18, %ymm23 vfnmadd213ps %ymm0, %ymm17, %ymm23 # ymm23 = -(ymm17 * ymm23) + ymm0 vfmadd132ps %ymm18, %ymm18, %ymm23 # ymm23 = (ymm23 * ymm18) + ymm18 vmulps %ymm23, %ymm22, %ymm18 vmulps %ymm2, %ymm6, %ymm22 vfmsub231ps %ymm5, %ymm20, %ymm22 # ymm22 = (ymm20 * ymm5) - ymm22 vmulps %ymm19, %ymm5, %ymm24 vfmsub231ps %ymm7, %ymm2, %ymm24 # ymm24 = (ymm2 * ymm7) - ymm24 vmulps %ymm20, %ymm7, %ymm25 vfmsub231ps %ymm6, %ymm19, %ymm25 # ymm25 = (ymm19 * ymm6) - ymm25 vmulps %ymm25, %ymm25, %ymm25 vfmadd231ps %ymm24, %ymm24, %ymm25 # ymm25 = (ymm24 * ymm24) + ymm25 vfmadd231ps %ymm22, %ymm22, %ymm25 # ymm25 = (ymm22 * ymm22) + ymm25 vmulps %ymm23, %ymm25, %ymm22 vmaxps %ymm22, %ymm18, %ymm18 vsqrtps %ymm18, %ymm18 vmaxps %ymm15, %ymm16, %ymm22 vmaxps %ymm22, %ymm14, %ymm14 vaddps %ymm14, %ymm18, %ymm14 vminps %ymm15, %ymm16, %ymm15 vminps %ymm15, %ymm1, %ymm1 vsubps %ymm18, %ymm1, %ymm1 vmulps 0x208bd2(%rip){1to8}, %ymm14, %ymm14 # 0x1ef0940 vmulps 0x208bcc(%rip){1to8}, %ymm1, %ymm1 # 0x1ef0944 vmovaps %ymm1, 0x1e0(%rsp) vmulps %ymm14, %ymm14, %ymm1 vrsqrt14ps %ymm17, %ymm15 vmulps 0x204986(%rip){1to8}, %ymm17, %ymm14 # 0x1eec71c vmulps %ymm14, %ymm15, %ymm14 vmulps %ymm15, %ymm15, %ymm16 vmulps %ymm14, %ymm16, %ymm14 vfmadd231ps 0x204967(%rip){1to8}, %ymm15, %ymm14 # ymm14 = (ymm15 * mem) + ymm14 vmulps %ymm7, %ymm14, %ymm15 vmulps %ymm14, %ymm6, %ymm16 vmulps %ymm14, %ymm5, %ymm18 vsubps %ymm4, %ymm31, %ymm27 vsubps %ymm3, %ymm31, %ymm28 vmovaps %ymm29, 0x80(%rsp) vsubps %ymm29, %ymm31, %ymm29 vmulps %ymm29, %ymm21, %ymm22 vfmadd231ps %ymm28, %ymm30, %ymm22 # ymm22 = (ymm30 * ymm28) + ymm22 vfmadd231ps %ymm27, %ymm26, %ymm22 # ymm22 = (ymm26 * ymm27) + ymm22 vmulps %ymm29, %ymm29, %ymm24 vfmadd231ps %ymm28, %ymm28, %ymm24 # ymm24 = (ymm28 * ymm28) + ymm24 vfmadd231ps %ymm27, %ymm27, %ymm24 # ymm24 = (ymm27 * ymm27) + ymm24 vmulps %ymm18, %ymm21, %ymm17 vfmadd231ps %ymm30, %ymm16, %ymm17 # ymm17 = (ymm16 * ymm30) + ymm17 vfmadd231ps %ymm26, %ymm15, %ymm17 # ymm17 = (ymm15 * ymm26) + ymm17 vmulps %ymm18, %ymm29, %ymm18 vfmadd231ps %ymm16, %ymm28, %ymm18 # ymm18 = (ymm28 * ymm16) + ymm18 vfmadd231ps %ymm15, %ymm27, %ymm18 # ymm18 = (ymm27 * ymm15) + ymm18 vmulps %ymm17, %ymm17, %ymm21 vmovaps 0x6a0(%rsp), %ymm15 vsubps %ymm21, %ymm15, %ymm15 vmulps %ymm18, %ymm17, %ymm25 vsubps %ymm25, %ymm22, %ymm22 vaddps %ymm22, %ymm22, %ymm22 vmulps %ymm18, %ymm18, %ymm25 vsubps %ymm25, %ymm24, %ymm16 vmovaps %ymm16, 0xa0(%rsp) vsubps %ymm1, %ymm16, %ymm1 vmulps %ymm22, %ymm22, %ymm25 vmulps 0x204d18(%rip){1to8}, %ymm15, %ymm26 # 0x1eecb8c vmulps %ymm1, %ymm26, %ymm30 vsubps %ymm30, %ymm25, %ymm30 vxorps %xmm16, %xmm16, %xmm16 vcmpnltps %ymm31, %ymm30, %k1 kmovd %k1, %eax kortestb %k1, %k1 je 0x1ce7f80 vsqrtps %ymm30, %ymm30 vaddps %ymm15, %ymm15, %ymm31 vrcp14ps %ymm31, %ymm23 vfnmadd213ps %ymm0, %ymm23, %ymm31 # ymm31 = -(ymm23 * ymm31) + ymm0 vfmadd132ps %ymm23, %ymm23, %ymm31 # ymm31 = (ymm31 * ymm23) + ymm23 vxorps 0x238ffd(%rip){1to8}, %ymm22, %ymm23 # 0x1f20ec0 vsubps %ymm30, %ymm23, %ymm23 vmulps %ymm31, %ymm23, %ymm23 vsubps %ymm22, %ymm30, %ymm30 vmulps %ymm31, %ymm30, %ymm31 vmovaps %ymm17, %ymm30 vfmadd213ps %ymm18, %ymm23, %ymm30 # ymm30 = (ymm23 * ymm30) + ymm18 vmulps %ymm30, %ymm14, %ymm30 vmovaps %ymm30, 0x420(%rsp) vmovaps %ymm17, %ymm30 vfmadd213ps %ymm18, %ymm31, %ymm30 # ymm30 = (ymm31 * ymm30) + ymm18 vmulps %ymm30, %ymm14, %ymm30 vmovaps %ymm30, 0x400(%rsp) vbroadcastss 0x203b08(%rip), %ymm0 # 0x1eeba20 vblendmps %ymm23, %ymm0, %ymm30 {%k1} vbroadcastss 0x204c5d(%rip), %ymm0 # 0x1eecb84 vblendmps %ymm31, %ymm0, %ymm31 {%k1} vbroadcastss 0x238f8e(%rip), %ymm0 # 0x1f20ec4 vmovaps %ymm21, %ymm24 vandps %ymm0, %ymm21, %ymm23 vmovaps 0x4c0(%rsp), %ymm21 vmaxps %ymm23, %ymm21, %ymm23 vmulps 0x209f5a(%rip){1to8}, %ymm23, %ymm23 # 0x1ef1eb4 vandps %ymm0, %ymm15, %ymm0 vcmpltps %ymm23, %ymm0, %k1 {%k1} kortestb %k1, %k1 jne 0x1ce9d08 vbroadcastss 0x20479c(%rip), %ymm0 # 0x1eec714 vmovaps %ymm24, %ymm21 jmp 0x1ce7f94 vbroadcastss 0x203a96(%rip), %ymm30 # 0x1eeba20 vbroadcastss 0x204bf0(%rip), %ymm31 # 0x1eecb84 andb $0x7f, %al je 0x1ce8363 vmovaps %ymm21, 0x3a0(%rsp) movq 0x18(%rsp), %rcx vmovaps %ymm0, %ymm16 vmovss 0x100(%r12,%rcx,4), %xmm0 vsubss 0x280(%rsp), %xmm0, %xmm0 vbroadcastss %xmm0, %ymm0 vminps %ymm31, %ymm0, %ymm0 vmovaps 0x680(%rsp), %ymm1 vmaxps %ymm30, %ymm1, %ymm1 vmulps %ymm13, %ymm29, %ymm23 vfmadd213ps %ymm23, %ymm12, %ymm28 # ymm28 = (ymm12 * ymm28) + ymm23 vfmadd213ps %ymm28, %ymm11, %ymm27 # ymm27 = (ymm11 * ymm27) + ymm28 vmovaps 0x1c0(%rsp), %ymm21 vmulps %ymm13, %ymm21, %ymm13 vmovaps 0x100(%rsp), %ymm24 vfmadd231ps %ymm12, %ymm24, %ymm13 # ymm13 = (ymm24 * ymm12) + ymm13 vmovaps 0x120(%rsp), %ymm31 vfmadd231ps %ymm11, %ymm31, %ymm13 # ymm13 = (ymm31 * ymm11) + ymm13 vbroadcastss 0x238ea2(%rip), %ymm28 # 0x1f20ec4 vandps %ymm28, %ymm13, %ymm11 vbroadcastss 0x208fb6(%rip), %ymm29 # 0x1ef0fe8 vcmpltps %ymm29, %ymm11, %k0 vbroadcastss 0x238e7d(%rip), %ymm30 # 0x1f20ec0 vxorps %ymm30, %ymm27, %ymm11 vrcp14ps %ymm13, %ymm12 vxorps %ymm30, %ymm13, %ymm23 vmovaps %ymm12, %ymm27 vfnmadd213ps %ymm16, %ymm13, %ymm27 # ymm27 = -(ymm13 * ymm27) + ymm16 vfmadd132ps %ymm12, %ymm12, %ymm27 # ymm27 = (ymm27 * ymm12) + ymm12 vmulps %ymm11, %ymm27, %ymm11 vcmpltps %ymm23, %ymm13, %k1 korb %k1, %k0, %k1 vbroadcastss 0x204b02(%rip), %ymm27 # 0x1eecb84 vblendmps %ymm27, %ymm11, %ymm12 {%k1} vmaxps %ymm12, %ymm1, %ymm1 vcmpnleps %ymm23, %ymm13, %k1 korb %k1, %k0, %k1 vbroadcastss 0x20397e(%rip), %ymm23 # 0x1eeba20 vmovaps %ymm23, %ymm11 {%k1} vminps %ymm11, %ymm0, %ymm0 vxorps %xmm13, %xmm13, %xmm13 vsubps %ymm8, %ymm13, %ymm8 vsubps %ymm9, %ymm13, %ymm9 vsubps %ymm10, %ymm13, %ymm10 vmulps %ymm2, %ymm10, %ymm10 vfnmsub231ps %ymm9, %ymm20, %ymm10 # ymm10 = -(ymm20 * ymm9) - ymm10 vfnmadd231ps %ymm8, %ymm19, %ymm10 # ymm10 = -(ymm19 * ymm8) + ymm10 vmulps %ymm2, %ymm21, %ymm8 vfnmsub231ps %ymm20, %ymm24, %ymm8 # ymm8 = -(ymm24 * ymm20) - ymm8 vfnmadd231ps %ymm19, %ymm31, %ymm8 # ymm8 = -(ymm31 * ymm19) + ymm8 vandps %ymm28, %ymm8, %ymm9 vcmpltps %ymm29, %ymm9, %k0 vxorps %ymm30, %ymm10, %ymm9 vrcp14ps %ymm8, %ymm10 vxorps %ymm30, %ymm8, %ymm11 vmovaps %ymm10, %ymm12 vfnmadd213ps %ymm16, %ymm8, %ymm12 # ymm12 = -(ymm8 * ymm12) + ymm16 vfmadd132ps %ymm10, %ymm10, %ymm12 # ymm12 = (ymm12 * ymm10) + ymm10 vmulps %ymm9, %ymm12, %ymm9 vcmpltps %ymm11, %ymm8, %k1 korb %k1, %k0, %k1 vblendmps %ymm27, %ymm9, %ymm10 {%k1} vmaxps %ymm10, %ymm1, %ymm1 vcmpnleps %ymm11, %ymm8, %k1 korb %k1, %k0, %k1 vmovaps %ymm23, %ymm9 {%k1} vminps %ymm9, %ymm0, %ymm8 vmovaps %ymm1, 0x360(%rsp) vcmpleps %ymm8, %ymm1, %k0 kmovd %k0, %ecx andb %cl, %al je 0x1ce8388 vmovaps 0x420(%rsp), %ymm0 vmaxps 0x1e0(%rsp), %ymm13, %ymm1 vminps %ymm16, %ymm0, %ymm0 vxorps %xmm10, %xmm10, %xmm10 vmaxps %ymm10, %ymm0, %ymm0 vmovaps 0x400(%rsp), %ymm9 vminps %ymm16, %ymm9, %ymm9 vmovaps 0x238da8(%rip), %ymm11 # 0x1f20f40 vaddps %ymm0, %ymm11, %ymm0 vbroadcastss 0x236313(%rip), %ymm12 # 0x1f1e4b8 vmulps %ymm0, %ymm12, %ymm0 vmovaps 0x60(%rsp), %ymm2 vmovaps 0x200(%rsp), %ymm19 vfmadd213ps %ymm2, %ymm19, %ymm0 # ymm0 = (ymm19 * ymm0) + ymm2 vmovaps %ymm0, 0x420(%rsp) vmaxps %ymm10, %ymm9, %ymm0 vaddps %ymm0, %ymm11, %ymm0 vmulps %ymm0, %ymm12, %ymm0 vfmadd213ps %ymm2, %ymm19, %ymm0 # ymm0 = (ymm19 * ymm0) + ymm2 vmovaps %ymm0, 0x400(%rsp) vmulps %ymm1, %ymm1, %ymm0 vmovaps 0xa0(%rsp), %ymm1 vsubps %ymm0, %ymm1, %ymm11 vmulps %ymm11, %ymm26, %ymm0 vsubps %ymm0, %ymm25, %ymm0 vcmpnltps %ymm10, %ymm0, %k0 kortestb %k0, %k0 je 0x1ce83a5 vxorps %xmm20, %xmm20, %xmm20 vcmpnltps %ymm13, %ymm0, %k1 vsqrtps %ymm0, %ymm0 vaddps %ymm15, %ymm15, %ymm1 vrcp14ps %ymm1, %ymm9 vfnmadd213ps %ymm16, %ymm9, %ymm1 # ymm1 = -(ymm9 * ymm1) + ymm16 vfmadd132ps %ymm9, %ymm9, %ymm1 # ymm1 = (ymm1 * ymm9) + ymm9 vxorps 0x238c7f(%rip){1to8}, %ymm22, %ymm9 # 0x1f20ec0 vsubps %ymm0, %ymm9, %ymm9 vmulps %ymm1, %ymm9, %ymm12 vsubps %ymm22, %ymm0, %ymm0 vmulps %ymm1, %ymm0, %ymm13 vmovaps %ymm17, %ymm0 vfmadd213ps %ymm18, %ymm12, %ymm0 # ymm0 = (ymm12 * ymm0) + ymm18 vmulps %ymm0, %ymm14, %ymm9 vmovaps 0x120(%rsp), %ymm26 vmulps %ymm12, %ymm26, %ymm0 vmovaps 0x100(%rsp), %ymm30 vmulps %ymm12, %ymm30, %ymm1 vmulps %ymm12, %ymm21, %ymm10 vmovaps %ymm7, %ymm19 vfmadd213ps %ymm4, %ymm9, %ymm19 # ymm19 = (ymm9 * ymm19) + ymm4 vsubps %ymm19, %ymm0, %ymm0 vmovaps %ymm6, %ymm19 vfmadd213ps %ymm3, %ymm9, %ymm19 # ymm19 = (ymm9 * ymm19) + ymm3 vsubps %ymm19, %ymm1, %ymm1 vmovaps 0x80(%rsp), %ymm2 vfmadd213ps %ymm2, %ymm5, %ymm9 # ymm9 = (ymm5 * ymm9) + ymm2 vsubps %ymm9, %ymm10, %ymm9 vfmadd213ps %ymm18, %ymm13, %ymm17 # ymm17 = (ymm13 * ymm17) + ymm18 vmulps %ymm17, %ymm14, %ymm14 vmulps %ymm13, %ymm26, %ymm10 vmulps %ymm13, %ymm30, %ymm17 vmulps %ymm13, %ymm21, %ymm18 vfmadd213ps %ymm4, %ymm14, %ymm7 # ymm7 = (ymm14 * ymm7) + ymm4 vsubps %ymm7, %ymm10, %ymm10 vfmadd213ps %ymm3, %ymm14, %ymm6 # ymm6 = (ymm14 * ymm6) + ymm3 vsubps %ymm6, %ymm17, %ymm3 vfmadd213ps %ymm2, %ymm14, %ymm5 # ymm5 = (ymm14 * ymm5) + ymm2 vsubps %ymm5, %ymm18, %ymm5 vbroadcastss 0x20371e(%rip), %ymm2 # 0x1eeba20 vblendmps %ymm12, %ymm2, %ymm4 {%k1} vbroadcastss 0x204873(%rip), %ymm2 # 0x1eecb84 vblendmps %ymm13, %ymm2, %ymm2 {%k1} vbroadcastss 0x238ba4(%rip), %ymm7 # 0x1f20ec4 vandps 0x3a0(%rsp), %ymm7, %ymm6 vmovaps 0x4c0(%rsp), %ymm12 vmaxps %ymm6, %ymm12, %ymm6 vmulps 0x209b74(%rip){1to8}, %ymm6, %ymm6 # 0x1ef1eb4 vandps %ymm7, %ymm15, %ymm7 vcmpltps %ymm6, %ymm7, %k1 {%k1} kortestb %k1, %k1 jne 0x1ce9d51 vbroadcastss 0x238b66(%rip), %xmm11 # 0x1f20ec4 jmp 0x1ce83e5 vmovaps 0x238bb5(%rip), %ymm3 # 0x1f20f20 vmovaps 0x120(%rsp), %ymm26 vmovaps 0x100(%rsp), %ymm30 vmovaps 0x1c0(%rsp), %ymm21 jmp 0x1ce9bfb vmovaps 0x238b90(%rip), %ymm3 # 0x1f20f20 vmovaps 0x120(%rsp), %ymm26 vmovaps 0x100(%rsp), %ymm30 jmp 0x1ce9bfb vxorps %xmm3, %xmm3, %xmm3 vxorps %xmm5, %xmm5, %xmm5 vxorps %xmm0, %xmm0, %xmm0 vxorps %xmm1, %xmm1, %xmm1 vxorps %xmm9, %xmm9, %xmm9 vbroadcastss 0x20365d(%rip), %ymm4 # 0x1eeba20 vbroadcastss 0x2047b8(%rip), %ymm2 # 0x1eecb84 vbroadcastss 0x238aef(%rip), %xmm11 # 0x1f20ec4 vmovaps 0x120(%rsp), %ymm26 vmovaps 0x100(%rsp), %ymm30 vmulps %ymm5, %ymm21, %ymm5 vfmadd231ps %ymm3, %ymm30, %ymm5 # ymm5 = (ymm30 * ymm3) + ymm5 vfmadd231ps %ymm10, %ymm26, %ymm5 # ymm5 = (ymm26 * ymm10) + ymm5 vmovaps 0x360(%rsp), %ymm7 vmovaps %ymm7, 0x8c0(%rsp) vminps %ymm4, %ymm8, %ymm3 vmovaps %ymm3, 0x8e0(%rsp) vbroadcastss 0x238aa5(%rip), %ymm6 # 0x1f20ec4 vandps %ymm6, %ymm5, %ymm4 vmaxps %ymm2, %ymm7, %ymm5 vmovaps %ymm5, 0x600(%rsp) vmovaps %ymm8, 0x620(%rsp) vbroadcastss 0x238a92(%rip), %ymm2 # 0x1f20ed4 vcmpltps %ymm2, %ymm4, %k1 kmovd %k1, 0xf4(%rsp) vcmpleps %ymm3, %ymm7, %k1 kmovd %k1, %ecx andb %al, %cl vmovaps %ymm5, 0x3c0(%rsp) vcmpleps %ymm8, %ymm5, %k1 kmovd %k1, %edx andb %al, %dl movl %edx, %eax orb %cl, %al je 0x1ce9bc9 movl %edx, 0x34(%rsp) movq %r9, 0x1b0(%rsp) movq %r10, 0x1b8(%rsp) knotb %k0, %k1 vmovaps %ymm2, %ymm3 vmulps %ymm9, %ymm21, %ymm2 vfmadd213ps %ymm2, %ymm30, %ymm1 # ymm1 = (ymm30 * ymm1) + ymm2 vfmadd213ps %ymm1, %ymm26, %ymm0 # ymm0 = (ymm26 * ymm0) + ymm1 vandps %ymm6, %ymm0, %ymm0 vcmpltps %ymm3, %ymm0, %k0 kmovd %k1, 0xec(%rsp) korb %k1, %k0, %k1 vpbroadcastd 0x238a0c(%rip), %ymm0 # 0x1f20edc vpblendmd 0x2389fe(%rip){1to8}, %ymm0, %ymm0 {%k1} # 0x1f20ed8 movq %r11, 0x1a8(%rsp) vpbroadcastd %r11d, %ymm1 vmovdqa %ymm0, 0x640(%rsp) vmovdqa %ymm1, 0x4a0(%rsp) vpcmpnltd %ymm0, %ymm1, %k0 kmovd %k0, %ebx movl %ecx, 0xf0(%rsp) andb %cl, %bl je 0x1ce8fc5 vmovaps 0x340(%rsp), %ymm1 vmovaps 0x300(%rsp), %ymm2 vminps %xmm2, %xmm1, %xmm0 vmaxps %xmm2, %xmm1, %xmm1 vmovaps 0x320(%rsp), %ymm3 vmovaps 0x2e0(%rsp), %ymm4 vminps %xmm4, %xmm3, %xmm2 vminps %xmm2, %xmm0, %xmm0 vmaxps %xmm4, %xmm3, %xmm2 vmaxps %xmm2, %xmm1, %xmm1 vandps %xmm0, %xmm11, %xmm0 vandps %xmm1, %xmm11, %xmm2 vmaxps %xmm2, %xmm0, %xmm0 vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3] vmaxss %xmm0, %xmm2, %xmm2 vshufpd $0x1, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[1,0] vmaxss %xmm2, %xmm0, %xmm0 vmulss 0x20993f(%rip), %xmm0, %xmm0 # 0x1ef1eb4 vmovss %xmm0, 0x44(%rsp) vshufps $0xff, %xmm1, %xmm1, %xmm0 # xmm0 = xmm1[3,3,3,3] vmovaps %xmm0, 0x270(%rsp) vmovaps 0x360(%rsp), %ymm0 vaddps 0x380(%rsp), %ymm0, %ymm0 vmovaps %ymm0, 0x3e0(%rsp) kmovd %ebx, %k1 vbroadcastss 0x20346f(%rip), %ymm0 # 0x1eeba20 vblendmps 0x360(%rsp), %ymm0, %ymm0 {%k1} vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm0, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1] vminps %ymm2, %ymm1, %ymm1 vcmpeqps %ymm1, %ymm0, %k0 kmovd %k0, %eax andb %bl, %al movzbl %al, %eax movzbl %bl, %ecx cmovnel %eax, %ecx tzcntl %ecx, %ecx movb $0x1, %bl shlb %cl, %bl shll $0x2, %ecx vmovss 0x420(%rsp,%rcx), %xmm8 vmovss 0x8c0(%rsp,%rcx), %xmm9 vmovaps 0x220(%rsp), %xmm0 vucomiss 0x20340b(%rip), %xmm0 # 0x1eeba24 vmovss 0xf8(%rsp), %xmm0 jae 0x1ce8665 vmovaps 0x220(%rsp), %xmm0 vmovaps %xmm8, 0xa0(%rsp) vmovaps %xmm9, 0x80(%rsp) kmovw %k1, 0x60(%rsp) vzeroupper callq 0x6aa20 kmovw 0x60(%rsp), %k1 vmovaps 0x80(%rsp), %xmm9 vmovaps 0xa0(%rsp), %xmm8 movzbl %bl, %eax kmovd %eax, %k0 kandnb %k1, %k0, %k0 kmovd %k0, %ebx vmulss 0x209838(%rip), %xmm0, %xmm0 # 0x1ef1eb4 vmovss %xmm0, 0x48(%rsp) movl $0x4, %r14d vbroadcastss %xmm9, %xmm0 vxorps %xmm1, %xmm1, %xmm1 vfmadd132ps 0x230(%rsp), %xmm1, %xmm0 # xmm0 = (xmm0 * mem) + xmm1 vmovss 0x204071(%rip), %xmm1 # 0x1eec714 vsubss %xmm8, %xmm1, %xmm3 vbroadcastss %xmm8, %xmm1 vmovaps 0x300(%rsp), %ymm5 vmulps %xmm1, %xmm5, %xmm2 vmovaps %xmm3, 0x2d0(%rsp) vbroadcastss %xmm3, %xmm3 vfmadd231ps 0x340(%rsp), %xmm3, %xmm2 # xmm2 = (xmm3 * mem) + xmm2 vmovaps 0x320(%rsp), %ymm6 vmulps %xmm1, %xmm6, %xmm4 vfmadd231ps %xmm5, %xmm3, %xmm4 # xmm4 = (xmm3 * xmm5) + xmm4 vmulps 0x2e0(%rsp), %xmm1, %xmm5 vfmadd231ps %xmm6, %xmm3, %xmm5 # xmm5 = (xmm3 * xmm6) + xmm5 vmulps %xmm4, %xmm1, %xmm6 vfmadd231ps %xmm2, %xmm3, %xmm6 # xmm6 = (xmm3 * xmm2) + xmm6 vmulps %xmm5, %xmm1, %xmm2 vfmadd231ps %xmm4, %xmm3, %xmm2 # xmm2 = (xmm3 * xmm4) + xmm2 vmulps %xmm2, %xmm1, %xmm4 vfmadd231ps %xmm3, %xmm6, %xmm4 # xmm4 = (xmm6 * xmm3) + xmm4 vsubps %xmm6, %xmm2, %xmm1 vmulps 0x2088d1(%rip){1to4}, %xmm1, %xmm10 # 0x1ef0fec vmovaps %xmm4, 0x3a0(%rsp) vsubps %xmm4, %xmm0, %xmm0 vmovaps %xmm0, 0x200(%rsp) vdpps $0x7f, %xmm0, %xmm0, %xmm0 vucomiss 0x2032e5(%rip), %xmm0 # 0x1eeba24 vmovaps %xmm10, 0x60(%rsp) vmovaps %xmm0, 0x1e0(%rsp) vmovaps %xmm8, 0xa0(%rsp) vmovaps %xmm9, 0x80(%rsp) jb 0x1ce8768 vsqrtss %xmm0, %xmm0, %xmm7 jmp 0x1ce877a vzeroupper callq 0x6aa20 vmovaps 0x60(%rsp), %xmm10 vmovaps %xmm0, %xmm7 vdpps $0x7f, %xmm10, %xmm10, %xmm0 vxorps %xmm1, %xmm1, %xmm1 vmovss %xmm0, %xmm1, %xmm2 # xmm2 = xmm0[0],xmm1[1,2,3] vrsqrt14ss %xmm2, %xmm1, %xmm3 vmulss 0x203f82(%rip), %xmm3, %xmm4 # 0x1eec718 vmulss 0x203f7e(%rip), %xmm0, %xmm5 # 0x1eec71c vrcp14ss %xmm2, %xmm1, %xmm2 vxorps 0x238712(%rip){1to4}, %xmm0, %xmm1 # 0x1f20ec0 vmovaps %xmm2, 0x2b0(%rsp) vfnmadd213ss 0x208838(%rip), %xmm0, %xmm2 # xmm2 = -(xmm0 * xmm2) + mem vmovss %xmm2, 0x4c(%rsp) vucomiss %xmm1, %xmm0 vmovss %xmm7, 0x24(%rsp) vmovaps %xmm0, 0x2c0(%rsp) jb 0x1ce87e3 vsqrtss %xmm0, %xmm0, %xmm16 jmp 0x1ce882d vmovaps %xmm3, 0xd0(%rsp) vmovss %xmm4, 0x20(%rsp) vmovss %xmm5, 0xc0(%rsp) vzeroupper callq 0x6aa20 vmovss 0xc0(%rsp), %xmm5 vmovss 0x20(%rsp), %xmm4 vmovaps 0xd0(%rsp), %xmm3 vmovss 0x24(%rsp), %xmm7 vmovaps 0x60(%rsp), %xmm10 vmovaps %xmm0, %xmm16 vmovaps 0x200(%rsp), %xmm12 vmovaps 0x1e0(%rsp), %xmm19 vmulss %xmm3, %xmm5, %xmm0 vmulss %xmm3, %xmm3, %xmm1 vmulss %xmm1, %xmm0, %xmm0 vaddss %xmm0, %xmm4, %xmm0 vbroadcastss %xmm0, %xmm6 vmulps %xmm6, %xmm10, %xmm0 vmovaps %xmm0, 0xd0(%rsp) vdpps $0x7f, %xmm0, %xmm12, %xmm15 vaddss 0x203ea6(%rip), %xmm7, %xmm14 # 0x1eec714 vmulps %xmm15, %xmm15, %xmm0 vsubps %xmm0, %xmm19, %xmm0 vxorps %xmm2, %xmm2, %xmm2 vmovss %xmm0, %xmm2, %xmm1 # xmm1 = xmm0[0],xmm2[1,2,3] vrsqrt14ss %xmm1, %xmm2, %xmm18 vmulss 0x203e87(%rip), %xmm18, %xmm17 # 0x1eec718 vmulss 0x203e81(%rip), %xmm0, %xmm20 # 0x1eec71c vucomiss 0x203181(%rip), %xmm0 # 0x1eeba24 jb 0x1ce88ae vsqrtss %xmm0, %xmm0, %xmm0 jmp 0x1ce8943 vmovss %xmm14, 0x20(%rsp) vmovaps %xmm15, 0xc0(%rsp) vmovss %xmm16, 0x40(%rsp) vmovss %xmm17, 0x3c(%rsp) vmovaps %xmm18, 0x2a0(%rsp) vmovss %xmm20, 0x38(%rsp) vmovaps %xmm6, 0x290(%rsp) vzeroupper callq 0x6aa20 vmovaps 0x290(%rsp), %xmm6 vmovss 0x38(%rsp), %xmm20 vmovaps 0x2a0(%rsp), %xmm18 vmovss 0x3c(%rsp), %xmm17 vmovss 0x40(%rsp), %xmm16 vmovaps 0xc0(%rsp), %xmm15 vmovss 0x24(%rsp), %xmm7 vmovss 0x20(%rsp), %xmm14 vmovaps 0x1e0(%rsp), %xmm19 vmovaps 0x200(%rsp), %xmm12 vmovaps 0x60(%rsp), %xmm10 vbroadcastss 0x238578(%rip), %xmm11 # 0x1f20ec4 vmovaps 0x120(%rsp), %ymm26 vmovaps 0x100(%rsp), %ymm30 vmovaps 0x1c0(%rsp), %ymm21 vmovaps 0xa0(%rsp), %xmm8 vmovaps 0x80(%rsp), %xmm9 vmovss 0x20805e(%rip), %xmm3 # 0x1ef09dc vmovaps %xmm3, %xmm1 vmovaps 0x2d0(%rsp), %xmm5 vfmadd213ss %xmm5, %xmm8, %xmm1 # xmm1 = (xmm8 * xmm1) + xmm5 vmovss 0x20865c(%rip), %xmm4 # 0x1ef0ff4 vmulss %xmm4, %xmm1, %xmm1 vmulss %xmm4, %xmm8, %xmm2 vbroadcastss %xmm2, %xmm2 vmulps 0x2e0(%rsp), %xmm2, %xmm2 vbroadcastss %xmm1, %xmm1 vfmadd132ps 0x320(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2 vmovaps %xmm3, %xmm2 vfmadd213ss %xmm8, %xmm5, %xmm2 # xmm2 = (xmm5 * xmm2) + xmm8 vmulss %xmm4, %xmm2, %xmm2 vbroadcastss %xmm2, %xmm2 vfmadd132ps 0x300(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1 vmulss %xmm4, %xmm5, %xmm1 vbroadcastss %xmm1, %xmm1 vfmadd132ps 0x340(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2 vbroadcastss 0x2c0(%rsp), %xmm2 vmulps %xmm2, %xmm1, %xmm2 vdpps $0x7f, %xmm1, %xmm10, %xmm1 vbroadcastss %xmm1, %xmm1 vmulps %xmm1, %xmm10, %xmm1 vsubps %xmm1, %xmm2, %xmm1 vmovss 0x4c(%rsp), %xmm2 vmulss 0x2b0(%rsp), %xmm2, %xmm2 vmulss 0x48(%rsp), %xmm9, %xmm3 vbroadcastss %xmm2, %xmm2 vmulps %xmm2, %xmm1, %xmm1 vxorps 0x23848b(%rip){1to4}, %xmm10, %xmm2 # 0x1f20ec0 vmulps %xmm1, %xmm6, %xmm4 vmovaps 0xd0(%rsp), %xmm13 vdpps $0x7f, %xmm13, %xmm2, %xmm5 vmovss 0x44(%rsp), %xmm6 vmaxss %xmm3, %xmm6, %xmm1 vdivss %xmm16, %xmm6, %xmm3 vdpps $0x7f, %xmm4, %xmm12, %xmm4 vfmadd213ss %xmm1, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm7) + xmm1 vfmadd213ss %xmm7, %xmm3, %xmm14 # xmm14 = (xmm3 * xmm14) + xmm7 vmovaps 0x230(%rsp), %xmm7 vdpps $0x7f, %xmm13, %xmm7, %xmm3 vaddss %xmm4, %xmm5, %xmm4 vdpps $0x7f, %xmm2, %xmm12, %xmm5 vmulss %xmm18, %xmm20, %xmm2 vmulss %xmm18, %xmm18, %xmm6 vmulss %xmm6, %xmm2, %xmm2 vdpps $0x7f, %xmm7, %xmm12, %xmm6 vaddss %xmm2, %xmm17, %xmm7 vfnmadd231ss %xmm4, %xmm15, %xmm5 # xmm5 = -(xmm15 * xmm4) + xmm5 vfnmadd231ss %xmm3, %xmm15, %xmm6 # xmm6 = -(xmm15 * xmm3) + xmm6 vpermilps $0xff, 0x3a0(%rsp), %xmm2 # xmm2 = mem[3,3,3,3] vsubss %xmm2, %xmm0, %xmm2 vshufps $0xff, %xmm10, %xmm10, %xmm0 # xmm0 = xmm10[3,3,3,3] vfmsub213ss %xmm0, %xmm7, %xmm5 # xmm5 = (xmm7 * xmm5) - xmm0 vmulss %xmm7, %xmm6, %xmm6 vmulss %xmm5, %xmm3, %xmm7 vfmsub231ss %xmm6, %xmm4, %xmm7 # xmm7 = (xmm4 * xmm6) - xmm7 vdivss %xmm7, %xmm6, %xmm6 vdivss %xmm7, %xmm5, %xmm5 vdivss %xmm7, %xmm3, %xmm3 vdivss %xmm7, %xmm4, %xmm4 vmulss %xmm6, %xmm15, %xmm6 vmulss %xmm3, %xmm2, %xmm3 vsubss %xmm3, %xmm6, %xmm3 vmulss %xmm5, %xmm15, %xmm5 vmulss %xmm4, %xmm2, %xmm4 vsubss %xmm5, %xmm4, %xmm4 vsubss %xmm3, %xmm8, %xmm8 vsubss %xmm4, %xmm9, %xmm9 vandps %xmm11, %xmm15, %xmm3 vucomiss %xmm3, %xmm14 jbe 0x1ce8cbd vaddss %xmm1, %xmm14, %xmm1 vmovaps 0x270(%rsp), %xmm3 vfmadd231ss 0x209391(%rip), %xmm3, %xmm1 # xmm1 = (xmm3 * mem) + xmm1 vandps %xmm2, %xmm11, %xmm2 vucomiss %xmm2, %xmm1 jbe 0x1ce8cbd vaddss 0x280(%rsp), %xmm9, %xmm9 movb $0x1, %r13b vucomiss 0x5c(%rsp), %xmm9 jb 0x1ce8cc0 movq 0x18(%rsp), %rax vmovss 0x100(%r12,%rax,4), %xmm4 vucomiss %xmm9, %xmm4 jb 0x1ce8cc0 vucomiss 0x202eb9(%rip), %xmm8 # 0x1eeba24 jb 0x1ce8cc0 vmovss 0x203b9b(%rip), %xmm1 # 0x1eec714 vucomiss %xmm8, %xmm1 jb 0x1ce8cc0 vxorps %xmm2, %xmm2, %xmm2 vmovss %xmm19, %xmm2, %xmm1 # xmm1 = xmm19[0],xmm2[1,2,3] vrsqrt14ss %xmm1, %xmm2, %xmm1 vmulss 0x203b7c(%rip), %xmm1, %xmm2 # 0x1eec718 vmulss 0x203b76(%rip), %xmm19, %xmm3 # 0x1eec71c movq (%r15), %rax movq 0x1e8(%rax), %rax movq %r15, %rcx movq 0x50(%rsp), %rdx movq (%rax,%rdx,8), %r15 movq 0x18(%rsp), %rax movl 0x120(%r12,%rax,4), %eax testl %eax, 0x34(%r15) je 0x1ce8cdd vmulss %xmm1, %xmm3, %xmm3 vmulss %xmm1, %xmm1, %xmm1 vmulss %xmm1, %xmm3, %xmm1 vaddss %xmm1, %xmm2, %xmm1 vbroadcastss %xmm1, %xmm1 vmulps %xmm1, %xmm12, %xmm1 vfmadd213ps %xmm10, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm0) + xmm10 vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3] vshufps $0xc9, %xmm10, %xmm10, %xmm3 # xmm3 = xmm10[1,2,0,3] vmulps %xmm3, %xmm1, %xmm1 vfmsub231ps %xmm2, %xmm10, %xmm1 # xmm1 = (xmm10 * xmm2) - xmm1 vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3] vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3] vshufps $0xd2, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,0,1,3] vmulps %xmm1, %xmm0, %xmm0 vfmsub231ps %xmm3, %xmm2, %xmm0 # xmm0 = (xmm2 * xmm3) - xmm0 movq 0x10(%rcx), %rax cmpq $0x0, 0x10(%rax) jne 0x1ce8ce2 cmpq $0x0, 0x40(%r15) jne 0x1ce8ce2 movq 0x18(%rsp), %rcx vmovss %xmm9, 0x100(%r12,%rcx,4) vextractps $0x1, %xmm0, 0x180(%r12,%rcx,4) vextractps $0x2, %xmm0, 0x1a0(%r12,%rcx,4) vmovss %xmm0, 0x1c0(%r12,%rcx,4) vmovss %xmm8, 0x1e0(%r12,%rcx,4) movl $0x0, 0x200(%r12,%rcx,4) movq 0xe0(%rsp), %rax movl %eax, 0x220(%r12,%rcx,4) movq 0x50(%rsp), %rax movl %eax, 0x240(%r12,%rcx,4) movq 0x28(%rsp), %r15 movq 0x8(%r15), %rax movl (%rax), %eax movl %eax, 0x260(%r12,%rcx,4) movq 0x8(%r15), %rax movl 0x4(%rax), %eax movl %eax, 0x280(%r12,%rcx,4) jmp 0x1ce8cc0 xorl %r13d, %r13d subq $0x1, %r14 setb %al testb %r13b, %r13b jne 0x1ce8fa2 testb %al, %al je 0x1ce8688 jmp 0x1ce8fa2 movq %rcx, %r15 jmp 0x1ce8cc0 movq 0x28(%rsp), %rcx movq 0x8(%rcx), %rax vbroadcastss %xmm8, %ymm1 vbroadcastss 0x229a0b(%rip), %ymm2 # 0x1f12704 vpermps %ymm0, %ymm2, %ymm2 vbroadcastss 0x2381d5(%rip), %ymm3 # 0x1f20edc vpermps %ymm0, %ymm3, %ymm3 vbroadcastss %xmm0, %ymm0 vmovaps %ymm2, 0x4e0(%rsp) vmovaps %ymm3, 0x500(%rsp) vmovaps %ymm0, 0x520(%rsp) vmovaps %ymm1, 0x540(%rsp) vxorps %xmm0, %xmm0, %xmm0 vmovaps %ymm0, 0x560(%rsp) vmovaps 0x460(%rsp), %ymm0 vmovaps %ymm0, 0x580(%rsp) vmovdqa 0x480(%rsp), %ymm0 vmovdqa %ymm0, 0x5a0(%rsp) movq 0x198(%rsp), %rdx vpcmpeqd %ymm0, %ymm0, %ymm0 vmovdqa %ymm0, 0x20(%rdx) vmovdqa %ymm0, (%rdx) vbroadcastss (%rax), %ymm0 vmovaps %ymm0, 0x5c0(%rsp) vbroadcastss 0x4(%rax), %ymm0 vmovaps %ymm0, 0x5e0(%rsp) movq 0x18(%rsp), %rax vmovss %xmm9, 0x100(%r12,%rax,4) vmovaps 0x440(%rsp), %ymm0 vmovaps %ymm0, 0x240(%rsp) leaq 0x240(%rsp), %rax movq %rax, 0x150(%rsp) movq 0x18(%r15), %rax movq %rax, 0x158(%rsp) movq 0x8(%rcx), %rax movq %rax, 0x160(%rsp) movq %r12, 0x168(%rsp) leaq 0x4e0(%rsp), %rax movq %rax, 0x170(%rsp) movl $0x8, 0x178(%rsp) movq 0x40(%r15), %rax testq %rax, %rax vmovaps %xmm8, 0xa0(%rsp) vmovaps %xmm9, 0x80(%rsp) vmovss %xmm4, 0x60(%rsp) je 0x1ce8e6b leaq 0x150(%rsp), %rdi vzeroupper callq *%rax vmovss 0x60(%rsp), %xmm4 vmovaps 0x80(%rsp), %xmm9 vmovaps 0xa0(%rsp), %xmm8 vmovaps 0x1c0(%rsp), %ymm21 vmovaps 0x100(%rsp), %ymm30 vmovaps 0x120(%rsp), %ymm26 vbroadcastss 0x238059(%rip), %xmm11 # 0x1f20ec4 vmovdqa 0x240(%rsp), %ymm0 vptest %ymm0, %ymm0 je 0x1ce8f89 movq 0x28(%rsp), %rax movq 0x10(%rax), %rcx movq 0x10(%rcx), %rax testq %rax, %rax je 0x1ce8ee3 testb $0x2, (%rcx) jne 0x1ce8e9d testb $0x40, 0x3e(%r15) je 0x1ce8ee3 leaq 0x150(%rsp), %rdi vzeroupper callq *%rax vmovss 0x60(%rsp), %xmm4 vmovaps 0x80(%rsp), %xmm9 vmovaps 0xa0(%rsp), %xmm8 vmovaps 0x1c0(%rsp), %ymm21 vmovaps 0x100(%rsp), %ymm30 vmovaps 0x120(%rsp), %ymm26 vbroadcastss 0x237fe1(%rip), %xmm11 # 0x1f20ec4 vmovdqa 0x240(%rsp), %ymm0 vptest %ymm0, %ymm0 je 0x1ce8f89 vptestmd %ymm0, %ymm0, %k1 movq 0x168(%rsp), %rax movq 0x170(%rsp), %rcx vmovaps (%rcx), %ymm0 vmovups %ymm0, 0x180(%rax) {%k1} vmovaps 0x20(%rcx), %ymm0 vmovups %ymm0, 0x1a0(%rax) {%k1} vmovaps 0x40(%rcx), %ymm0 vmovups %ymm0, 0x1c0(%rax) {%k1} vmovaps 0x60(%rcx), %ymm0 vmovups %ymm0, 0x1e0(%rax) {%k1} vmovaps 0x80(%rcx), %ymm0 vmovups %ymm0, 0x200(%rax) {%k1} vmovdqa 0xa0(%rcx), %ymm0 vmovdqu32 %ymm0, 0x220(%rax) {%k1} vmovdqa 0xc0(%rcx), %ymm0 vmovdqu32 %ymm0, 0x240(%rax) {%k1} vmovdqa 0xe0(%rcx), %ymm0 vmovdqa32 %ymm0, 0x260(%rax) {%k1} vmovdqa 0x100(%rcx), %ymm0 vmovdqa32 %ymm0, 0x280(%rax) {%k1} jmp 0x1ce8f98 movq 0x18(%rsp), %rax vmovss %xmm4, 0x100(%r12,%rax,4) movq 0x28(%rsp), %r15 jmp 0x1ce8cc0 movq 0x18(%rsp), %rax vmovaps 0x3e0(%rsp), %ymm0 vcmpleps 0x100(%r12,%rax,4){1to8}, %ymm0, %k0 kmovd %k0, %eax andb %al, %bl jne 0x1ce85a4 vmovaps 0x3c0(%rsp), %ymm0 vaddps 0x380(%rsp), %ymm0, %ymm0 movq 0x18(%rsp), %rax vcmpleps 0x100(%r12,%rax,4){1to8}, %ymm0, %k0 kmovd 0xf4(%rsp), %k1 kmovd 0xec(%rsp), %k2 korb %k2, %k1, %k1 kmovd %k0, %eax movl 0x34(%rsp), %ecx andb %al, %cl vpbroadcastd 0x237ecc(%rip), %ymm0 # 0x1f20edc vpblendmd 0x237ebe(%rip){1to8}, %ymm0, %ymm0 {%k1} # 0x1f20ed8 vmovdqa %ymm0, 0x3c0(%rsp) vpcmpled 0x4a0(%rsp), %ymm0, %k0 kmovd %k0, %ebx movl %ecx, 0x34(%rsp) andb %cl, %bl je 0x1ce9ae4 vmovaps 0x600(%rsp), %ymm5 vmovaps 0x340(%rsp), %ymm1 vmovaps 0x300(%rsp), %ymm2 vminps %xmm2, %xmm1, %xmm0 vmaxps %xmm2, %xmm1, %xmm1 vmovaps 0x320(%rsp), %ymm3 vmovaps 0x2e0(%rsp), %ymm4 vminps %xmm4, %xmm3, %xmm2 vminps %xmm2, %xmm0, %xmm0 vmaxps %xmm4, %xmm3, %xmm2 vmaxps %xmm2, %xmm1, %xmm1 vandps %xmm0, %xmm11, %xmm0 vandps %xmm1, %xmm11, %xmm2 vmaxps %xmm2, %xmm0, %xmm0 vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3] vmaxss %xmm0, %xmm2, %xmm2 vshufpd $0x1, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[1,0] vmaxss %xmm2, %xmm0, %xmm0 vmulss 0x208e0e(%rip), %xmm0, %xmm0 # 0x1ef1eb4 vmovss %xmm0, 0x44(%rsp) vshufps $0xff, %xmm1, %xmm1, %xmm0 # xmm0 = xmm1[3,3,3,3] vmovaps %xmm0, 0x270(%rsp) vmovaps %ymm5, 0x360(%rsp) vaddps 0x380(%rsp), %ymm5, %ymm0 vmovaps %ymm0, 0x3e0(%rsp) kmovd %ebx, %k1 vbroadcastss 0x20293e(%rip), %ymm0 # 0x1eeba20 vblendmps 0x360(%rsp), %ymm0, %ymm0 {%k1} vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm0, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1] vminps %ymm2, %ymm1, %ymm1 vcmpeqps %ymm1, %ymm0, %k0 kmovd %k0, %eax andb %bl, %al movzbl %al, %eax movzbl %bl, %ecx cmovnel %eax, %ecx tzcntl %ecx, %ecx movb $0x1, %bl shlb %cl, %bl shll $0x2, %ecx vmovss 0x400(%rsp,%rcx), %xmm9 vmovss 0x620(%rsp,%rcx), %xmm10 vmovaps 0x220(%rsp), %xmm0 vucomiss 0x2028da(%rip), %xmm0 # 0x1eeba24 vmovss 0xfc(%rsp), %xmm0 jae 0x1ce9196 vmovaps 0x220(%rsp), %xmm0 vmovaps %xmm9, 0xa0(%rsp) vmovaps %xmm10, 0x80(%rsp) kmovw %k1, 0x60(%rsp) vzeroupper callq 0x6aa20 kmovw 0x60(%rsp), %k1 vmovaps 0x80(%rsp), %xmm10 vmovaps 0xa0(%rsp), %xmm9 movzbl %bl, %eax kmovd %eax, %k0 kandnb %k1, %k0, %k0 kmovd %k0, %ebx vmulss 0x208d07(%rip), %xmm0, %xmm0 # 0x1ef1eb4 vmovss %xmm0, 0x48(%rsp) movl $0x4, %r14d vbroadcastss %xmm10, %xmm0 vxorps %xmm1, %xmm1, %xmm1 vfmadd132ps 0x230(%rsp), %xmm1, %xmm0 # xmm0 = (xmm0 * mem) + xmm1 vmovss 0x203540(%rip), %xmm1 # 0x1eec714 vsubss %xmm9, %xmm1, %xmm3 vbroadcastss %xmm9, %xmm1 vmovaps 0x300(%rsp), %ymm5 vmulps %xmm1, %xmm5, %xmm2 vmovaps %xmm3, 0x2d0(%rsp) vbroadcastss %xmm3, %xmm3 vfmadd231ps 0x340(%rsp), %xmm3, %xmm2 # xmm2 = (xmm3 * mem) + xmm2 vmovaps 0x320(%rsp), %ymm6 vmulps %xmm1, %xmm6, %xmm4 vfmadd231ps %xmm5, %xmm3, %xmm4 # xmm4 = (xmm3 * xmm5) + xmm4 vmulps 0x2e0(%rsp), %xmm1, %xmm5 vfmadd231ps %xmm6, %xmm3, %xmm5 # xmm5 = (xmm3 * xmm6) + xmm5 vmulps %xmm4, %xmm1, %xmm6 vfmadd231ps %xmm2, %xmm3, %xmm6 # xmm6 = (xmm3 * xmm2) + xmm6 vmulps %xmm5, %xmm1, %xmm2 vfmadd231ps %xmm4, %xmm3, %xmm2 # xmm2 = (xmm3 * xmm4) + xmm2 vmulps %xmm2, %xmm1, %xmm4 vfmadd231ps %xmm3, %xmm6, %xmm4 # xmm4 = (xmm6 * xmm3) + xmm4 vsubps %xmm6, %xmm2, %xmm1 vmulps 0x207da0(%rip){1to4}, %xmm1, %xmm11 # 0x1ef0fec vmovaps %xmm4, 0x3a0(%rsp) vsubps %xmm4, %xmm0, %xmm0 vmovaps %xmm0, 0x200(%rsp) vdpps $0x7f, %xmm0, %xmm0, %xmm0 vucomiss 0x2027b4(%rip), %xmm0 # 0x1eeba24 vmovaps %xmm11, 0x60(%rsp) vmovaps %xmm0, 0x1e0(%rsp) vmovaps %xmm9, 0xa0(%rsp) vmovaps %xmm10, 0x80(%rsp) jb 0x1ce9299 vsqrtss %xmm0, %xmm0, %xmm7 jmp 0x1ce92ab vzeroupper callq 0x6aa20 vmovaps 0x60(%rsp), %xmm11 vmovaps %xmm0, %xmm7 vdpps $0x7f, %xmm11, %xmm11, %xmm0 vxorps %xmm1, %xmm1, %xmm1 vmovss %xmm0, %xmm1, %xmm2 # xmm2 = xmm0[0],xmm1[1,2,3] vrsqrt14ss %xmm2, %xmm1, %xmm3 vmulss 0x203451(%rip), %xmm3, %xmm4 # 0x1eec718 vmulss 0x20344d(%rip), %xmm0, %xmm5 # 0x1eec71c vrcp14ss %xmm2, %xmm1, %xmm2 vxorps 0x237be1(%rip){1to4}, %xmm0, %xmm1 # 0x1f20ec0 vmovaps %xmm2, 0x2b0(%rsp) vfnmadd213ss 0x207d07(%rip), %xmm0, %xmm2 # xmm2 = -(xmm0 * xmm2) + mem vmovss %xmm2, 0x4c(%rsp) vucomiss %xmm1, %xmm0 vmovss %xmm7, 0x24(%rsp) vmovaps %xmm0, 0x2c0(%rsp) jb 0x1ce9314 vsqrtss %xmm0, %xmm0, %xmm16 jmp 0x1ce935e vmovaps %xmm3, 0xd0(%rsp) vmovss %xmm4, 0x20(%rsp) vmovss %xmm5, 0xc0(%rsp) vzeroupper callq 0x6aa20 vmovss 0xc0(%rsp), %xmm5 vmovss 0x20(%rsp), %xmm4 vmovaps 0xd0(%rsp), %xmm3 vmovss 0x24(%rsp), %xmm7 vmovaps 0x60(%rsp), %xmm11 vmovaps %xmm0, %xmm16 vmovaps 0x200(%rsp), %xmm12 vmovaps 0x1e0(%rsp), %xmm19 vmulss %xmm3, %xmm5, %xmm0 vmulss %xmm3, %xmm3, %xmm1 vmulss %xmm1, %xmm0, %xmm0 vaddss %xmm0, %xmm4, %xmm0 vbroadcastss %xmm0, %xmm6 vmulps %xmm6, %xmm11, %xmm0 vmovaps %xmm0, 0xd0(%rsp) vdpps $0x7f, %xmm0, %xmm12, %xmm15 vaddss 0x203375(%rip), %xmm7, %xmm14 # 0x1eec714 vmulps %xmm15, %xmm15, %xmm0 vsubps %xmm0, %xmm19, %xmm0 vxorps %xmm2, %xmm2, %xmm2 vmovss %xmm0, %xmm2, %xmm1 # xmm1 = xmm0[0],xmm2[1,2,3] vrsqrt14ss %xmm1, %xmm2, %xmm18 vmulss 0x203356(%rip), %xmm18, %xmm17 # 0x1eec718 vmulss 0x203350(%rip), %xmm0, %xmm20 # 0x1eec71c vucomiss 0x202650(%rip), %xmm0 # 0x1eeba24 jb 0x1ce93df vsqrtss %xmm0, %xmm0, %xmm0 jmp 0x1ce9474 vmovss %xmm14, 0x20(%rsp) vmovaps %xmm15, 0xc0(%rsp) vmovss %xmm16, 0x40(%rsp) vmovss %xmm17, 0x3c(%rsp) vmovaps %xmm18, 0x2a0(%rsp) vmovss %xmm20, 0x38(%rsp) vmovaps %xmm6, 0x290(%rsp) vzeroupper callq 0x6aa20 vmovaps 0x290(%rsp), %xmm6 vmovss 0x38(%rsp), %xmm20 vmovaps 0x2a0(%rsp), %xmm18 vmovss 0x3c(%rsp), %xmm17 vmovss 0x40(%rsp), %xmm16 vmovaps 0xc0(%rsp), %xmm15 vmovss 0x24(%rsp), %xmm7 vmovss 0x20(%rsp), %xmm14 vmovaps 0x1e0(%rsp), %xmm19 vmovaps 0x200(%rsp), %xmm12 vmovaps 0x60(%rsp), %xmm11 vbroadcastss 0x237a47(%rip), %xmm8 # 0x1f20ec4 vmovaps 0x120(%rsp), %ymm26 vmovaps 0x100(%rsp), %ymm30 vmovaps 0x1c0(%rsp), %ymm21 vmovaps 0xa0(%rsp), %xmm9 vmovaps 0x80(%rsp), %xmm10 vmovss 0x20752d(%rip), %xmm3 # 0x1ef09dc vmovaps %xmm3, %xmm1 vmovaps 0x2d0(%rsp), %xmm5 vfmadd213ss %xmm5, %xmm9, %xmm1 # xmm1 = (xmm9 * xmm1) + xmm5 vmovss 0x207b2b(%rip), %xmm4 # 0x1ef0ff4 vmulss %xmm4, %xmm1, %xmm1 vmulss %xmm4, %xmm9, %xmm2 vbroadcastss %xmm2, %xmm2 vmulps 0x2e0(%rsp), %xmm2, %xmm2 vbroadcastss %xmm1, %xmm1 vfmadd132ps 0x320(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2 vmovaps %xmm3, %xmm2 vfmadd213ss %xmm9, %xmm5, %xmm2 # xmm2 = (xmm5 * xmm2) + xmm9 vmulss %xmm4, %xmm2, %xmm2 vbroadcastss %xmm2, %xmm2 vfmadd132ps 0x300(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1 vmulss %xmm4, %xmm5, %xmm1 vbroadcastss %xmm1, %xmm1 vfmadd132ps 0x340(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2 vbroadcastss 0x2c0(%rsp), %xmm2 vmulps %xmm2, %xmm1, %xmm2 vdpps $0x7f, %xmm1, %xmm11, %xmm1 vbroadcastss %xmm1, %xmm1 vmulps %xmm1, %xmm11, %xmm1 vsubps %xmm1, %xmm2, %xmm1 vmovss 0x4c(%rsp), %xmm2 vmulss 0x2b0(%rsp), %xmm2, %xmm2 vmulss 0x48(%rsp), %xmm10, %xmm3 vbroadcastss %xmm2, %xmm2 vmulps %xmm2, %xmm1, %xmm1 vxorps 0x23795a(%rip){1to4}, %xmm11, %xmm2 # 0x1f20ec0 vmulps %xmm1, %xmm6, %xmm4 vmovaps 0xd0(%rsp), %xmm13 vdpps $0x7f, %xmm13, %xmm2, %xmm5 vmovss 0x44(%rsp), %xmm6 vmaxss %xmm3, %xmm6, %xmm1 vdivss %xmm16, %xmm6, %xmm3 vdpps $0x7f, %xmm4, %xmm12, %xmm4 vfmadd213ss %xmm1, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm7) + xmm1 vfmadd213ss %xmm7, %xmm3, %xmm14 # xmm14 = (xmm3 * xmm14) + xmm7 vmovaps 0x230(%rsp), %xmm7 vdpps $0x7f, %xmm13, %xmm7, %xmm3 vaddss %xmm4, %xmm5, %xmm4 vdpps $0x7f, %xmm2, %xmm12, %xmm5 vmulss %xmm18, %xmm20, %xmm2 vmulss %xmm18, %xmm18, %xmm6 vmulss %xmm6, %xmm2, %xmm2 vdpps $0x7f, %xmm7, %xmm12, %xmm6 vaddss %xmm2, %xmm17, %xmm7 vfnmadd231ss %xmm4, %xmm15, %xmm5 # xmm5 = -(xmm15 * xmm4) + xmm5 vfnmadd231ss %xmm3, %xmm15, %xmm6 # xmm6 = -(xmm15 * xmm3) + xmm6 vpermilps $0xff, 0x3a0(%rsp), %xmm2 # xmm2 = mem[3,3,3,3] vsubss %xmm2, %xmm0, %xmm2 vshufps $0xff, %xmm11, %xmm11, %xmm0 # xmm0 = xmm11[3,3,3,3] vfmsub213ss %xmm0, %xmm7, %xmm5 # xmm5 = (xmm7 * xmm5) - xmm0 vmulss %xmm7, %xmm6, %xmm6 vmulss %xmm5, %xmm3, %xmm7 vfmsub231ss %xmm6, %xmm4, %xmm7 # xmm7 = (xmm4 * xmm6) - xmm7 vdivss %xmm7, %xmm6, %xmm6 vdivss %xmm7, %xmm5, %xmm5 vdivss %xmm7, %xmm3, %xmm3 vdivss %xmm7, %xmm4, %xmm4 vmulss %xmm6, %xmm15, %xmm6 vmulss %xmm3, %xmm2, %xmm3 vsubss %xmm3, %xmm6, %xmm3 vmulss %xmm5, %xmm15, %xmm5 vmulss %xmm4, %xmm2, %xmm4 vsubss %xmm5, %xmm4, %xmm4 vsubss %xmm3, %xmm9, %xmm9 vsubss %xmm4, %xmm10, %xmm10 vandps %xmm8, %xmm15, %xmm3 vucomiss %xmm3, %xmm14 jbe 0x1ce97ee vaddss %xmm1, %xmm14, %xmm1 vmovaps 0x270(%rsp), %xmm3 vfmadd231ss 0x208860(%rip), %xmm3, %xmm1 # xmm1 = (xmm3 * mem) + xmm1 vandps %xmm2, %xmm8, %xmm2 vucomiss %xmm2, %xmm1 jbe 0x1ce97ee vaddss 0x280(%rsp), %xmm10, %xmm10 movb $0x1, %r13b vucomiss 0x5c(%rsp), %xmm10 jb 0x1ce97f1 movq 0x18(%rsp), %rax vmovss 0x100(%r12,%rax,4), %xmm4 vucomiss %xmm10, %xmm4 jb 0x1ce97f1 vucomiss 0x202388(%rip), %xmm9 # 0x1eeba24 jb 0x1ce97f1 vmovss 0x20306a(%rip), %xmm1 # 0x1eec714 vucomiss %xmm9, %xmm1 jb 0x1ce97f1 vxorps %xmm2, %xmm2, %xmm2 vmovss %xmm19, %xmm2, %xmm1 # xmm1 = xmm19[0],xmm2[1,2,3] vrsqrt14ss %xmm1, %xmm2, %xmm1 vmulss 0x20304b(%rip), %xmm1, %xmm2 # 0x1eec718 vmulss 0x203045(%rip), %xmm19, %xmm3 # 0x1eec71c movq (%r15), %rax movq 0x1e8(%rax), %rax movq %r15, %rcx movq 0x50(%rsp), %rdx movq (%rax,%rdx,8), %r15 movq 0x18(%rsp), %rax movl 0x120(%r12,%rax,4), %eax testl %eax, 0x34(%r15) je 0x1ce980e vmulss %xmm1, %xmm3, %xmm3 vmulss %xmm1, %xmm1, %xmm1 vmulss %xmm1, %xmm3, %xmm1 vaddss %xmm1, %xmm2, %xmm1 vbroadcastss %xmm1, %xmm1 vmulps %xmm1, %xmm12, %xmm1 vfmadd213ps %xmm11, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm0) + xmm11 vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3] vshufps $0xc9, %xmm11, %xmm11, %xmm3 # xmm3 = xmm11[1,2,0,3] vmulps %xmm3, %xmm1, %xmm1 vfmsub231ps %xmm2, %xmm11, %xmm1 # xmm1 = (xmm11 * xmm2) - xmm1 vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3] vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3] vshufps $0xd2, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,0,1,3] vmulps %xmm1, %xmm0, %xmm0 vfmsub231ps %xmm3, %xmm2, %xmm0 # xmm0 = (xmm2 * xmm3) - xmm0 movq 0x10(%rcx), %rax cmpq $0x0, 0x10(%rax) jne 0x1ce9813 cmpq $0x0, 0x40(%r15) jne 0x1ce9813 movq 0x18(%rsp), %rcx vmovss %xmm10, 0x100(%r12,%rcx,4) vextractps $0x1, %xmm0, 0x180(%r12,%rcx,4) vextractps $0x2, %xmm0, 0x1a0(%r12,%rcx,4) vmovss %xmm0, 0x1c0(%r12,%rcx,4) vmovss %xmm9, 0x1e0(%r12,%rcx,4) movl $0x0, 0x200(%r12,%rcx,4) movq 0xe0(%rsp), %rax movl %eax, 0x220(%r12,%rcx,4) movq 0x50(%rsp), %rax movl %eax, 0x240(%r12,%rcx,4) movq 0x28(%rsp), %r15 movq 0x8(%r15), %rax movl (%rax), %eax movl %eax, 0x260(%r12,%rcx,4) movq 0x8(%r15), %rax movl 0x4(%rax), %eax movl %eax, 0x280(%r12,%rcx,4) jmp 0x1ce97f1 xorl %r13d, %r13d subq $0x1, %r14 setb %al testb %r13b, %r13b jne 0x1ce9ac1 testb %al, %al je 0x1ce91b9 jmp 0x1ce9ac1 movq %rcx, %r15 jmp 0x1ce97f1 movq 0x28(%rsp), %rcx movq 0x8(%rcx), %rax vbroadcastss %xmm9, %ymm1 vbroadcastss 0x228eda(%rip), %ymm2 # 0x1f12704 vpermps %ymm0, %ymm2, %ymm2 vbroadcastss 0x2376a4(%rip), %ymm3 # 0x1f20edc vpermps %ymm0, %ymm3, %ymm3 vbroadcastss %xmm0, %ymm0 vmovaps %ymm2, 0x4e0(%rsp) vmovaps %ymm3, 0x500(%rsp) vmovaps %ymm0, 0x520(%rsp) vmovaps %ymm1, 0x540(%rsp) vxorps %xmm0, %xmm0, %xmm0 vmovaps %ymm0, 0x560(%rsp) vmovaps 0x460(%rsp), %ymm0 vmovaps %ymm0, 0x580(%rsp) vmovdqa 0x480(%rsp), %ymm0 vmovdqa %ymm0, 0x5a0(%rsp) movq 0x198(%rsp), %rdx vpcmpeqd %ymm0, %ymm0, %ymm0 vmovdqa %ymm0, 0x20(%rdx) vmovdqa %ymm0, (%rdx) vbroadcastss (%rax), %ymm0 vmovaps %ymm0, 0x5c0(%rsp) vbroadcastss 0x4(%rax), %ymm0 vmovaps %ymm0, 0x5e0(%rsp) movq 0x18(%rsp), %rax vmovss %xmm10, 0x100(%r12,%rax,4) vmovaps 0x440(%rsp), %ymm0 vmovaps %ymm0, 0x240(%rsp) leaq 0x240(%rsp), %rax movq %rax, 0x150(%rsp) movq 0x18(%r15), %rax movq %rax, 0x158(%rsp) movq 0x8(%rcx), %rax movq %rax, 0x160(%rsp) movq %r12, 0x168(%rsp) leaq 0x4e0(%rsp), %rax movq %rax, 0x170(%rsp) movl $0x8, 0x178(%rsp) movq 0x40(%r15), %rax testq %rax, %rax vmovaps %xmm9, 0xa0(%rsp) vmovaps %xmm10, 0x80(%rsp) vmovss %xmm4, 0x60(%rsp) je 0x1ce9993 leaq 0x150(%rsp), %rdi vzeroupper callq *%rax vmovss 0x60(%rsp), %xmm4 vmovaps 0x80(%rsp), %xmm10 vmovaps 0xa0(%rsp), %xmm9 vmovaps 0x1c0(%rsp), %ymm21 vmovaps 0x100(%rsp), %ymm30 vmovaps 0x120(%rsp), %ymm26 vmovdqa 0x240(%rsp), %ymm0 vptest %ymm0, %ymm0 je 0x1ce9aa8 movq 0x28(%rsp), %rax movq 0x10(%rax), %rcx movq 0x10(%rcx), %rax testq %rax, %rax je 0x1ce9a02 testb $0x2, (%rcx) jne 0x1ce99c5 testb $0x40, 0x3e(%r15) je 0x1ce9a02 leaq 0x150(%rsp), %rdi vzeroupper callq *%rax vmovss 0x60(%rsp), %xmm4 vmovaps 0x80(%rsp), %xmm10 vmovaps 0xa0(%rsp), %xmm9 vmovaps 0x1c0(%rsp), %ymm21 vmovaps 0x100(%rsp), %ymm30 vmovaps 0x120(%rsp), %ymm26 vmovdqa 0x240(%rsp), %ymm0 vptest %ymm0, %ymm0 je 0x1ce9aa8 vptestmd %ymm0, %ymm0, %k1 movq 0x168(%rsp), %rax movq 0x170(%rsp), %rcx vmovaps (%rcx), %ymm0 vmovups %ymm0, 0x180(%rax) {%k1} vmovaps 0x20(%rcx), %ymm0 vmovups %ymm0, 0x1a0(%rax) {%k1} vmovaps 0x40(%rcx), %ymm0 vmovups %ymm0, 0x1c0(%rax) {%k1} vmovaps 0x60(%rcx), %ymm0 vmovups %ymm0, 0x1e0(%rax) {%k1} vmovaps 0x80(%rcx), %ymm0 vmovups %ymm0, 0x200(%rax) {%k1} vmovdqa 0xa0(%rcx), %ymm0 vmovdqu32 %ymm0, 0x220(%rax) {%k1} vmovdqa 0xc0(%rcx), %ymm0 vmovdqu32 %ymm0, 0x240(%rax) {%k1} vmovdqa 0xe0(%rcx), %ymm0 vmovdqa32 %ymm0, 0x260(%rax) {%k1} vmovdqa 0x100(%rcx), %ymm0 vmovdqa32 %ymm0, 0x280(%rax) {%k1} jmp 0x1ce9ab7 movq 0x18(%rsp), %rax vmovss %xmm4, 0x100(%r12,%rax,4) movq 0x28(%rsp), %r15 jmp 0x1ce97f1 movq 0x18(%rsp), %rax vmovaps 0x3e0(%rsp), %ymm0 vcmpleps 0x100(%r12,%rax,4){1to8}, %ymm0, %k0 kmovd %k0, %eax andb %al, %bl jne 0x1ce90d5 vmovdqa 0x4a0(%rsp), %ymm1 vpcmpltd 0x3c0(%rsp), %ymm1, %k1 vmovaps 0x8c0(%rsp), %ymm0 vpcmpltd 0x640(%rsp), %ymm1, %k2 vmovaps 0x380(%rsp), %ymm3 vaddps %ymm0, %ymm3, %ymm1 movq 0x18(%rsp), %rax vbroadcastss 0x100(%r12,%rax,4), %ymm2 vcmpleps %ymm2, %ymm1, %k0 {%k2} kmovd %k0, %eax movl 0xf0(%rsp), %ecx andb %al, %cl vmovaps 0x600(%rsp), %ymm1 vaddps %ymm1, %ymm3, %ymm3 vcmpleps %ymm2, %ymm3, %k0 {%k1} kmovd %k0, %eax movl 0x34(%rsp), %edx andb %al, %dl orb %cl, %dl je 0x1ce9bd3 movq 0x1b0(%rsp), %r9 movl %r9d, %eax leaq (%rax,%rax,2), %rax shlq $0x5, %rax movb %dl, 0x900(%rsp,%rax) kmovd %ecx, %k1 vmovaps %ymm0, %ymm1 {%k1} vmovaps %ymm1, 0x920(%rsp,%rax) vmovaps 0x180(%rsp), %xmm2 vmovlps %xmm2, 0x940(%rsp,%rax) movq 0x1a8(%rsp), %r11 leal 0x1(%r11), %ecx movl %ecx, 0x948(%rsp,%rax) incl %r9d movq 0x1a0(%rsp), %r8 movq 0x1b8(%rsp), %r10 vmovaps 0x237359(%rip), %ymm3 # 0x1f20f20 jmp 0x1ce9c04 vmovaps 0x23734f(%rip), %ymm3 # 0x1f20f20 jmp 0x1ce9bfb movq 0x1a0(%rsp), %r8 movq 0x1b8(%rsp), %r10 vmovaps 0x237335(%rip), %ymm3 # 0x1f20f20 movq 0x1b0(%rsp), %r9 movq 0x1a8(%rsp), %r11 vmovaps 0x180(%rsp), %xmm2 movl %r9d, %eax testl %eax, %eax je 0x1ce9d93 leal -0x1(%rax), %r9d leaq (%r9,%r9,2), %rcx shlq $0x5, %rcx vmovaps 0x920(%rsp,%rcx), %ymm0 movzbl 0x900(%rsp,%rcx), %esi vaddps 0x380(%rsp), %ymm0, %ymm1 movq 0x18(%rsp), %rdx vcmpleps 0x100(%r12,%rdx,4){1to8}, %ymm1, %k0 kmovb %k0, %edx andl %esi, %edx je 0x1ce9cf8 kmovd %edx, %k1 vbroadcastss 0x201dc4(%rip), %ymm1 # 0x1eeba20 vblendmps %ymm0, %ymm1, %ymm0 {%k1} vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm0, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1] vminps %ymm2, %ymm1, %ymm1 vcmpeqps %ymm1, %ymm0, %k0 kmovd %k0, %esi andb %dl, %sil je 0x1ce9c94 movzbl %sil, %edi jmp 0x1ce9c97 movzbl %dl, %edi leaq (%rsp,%rcx), %rsi addq $0x900, %rsi # imm = 0x900 vmovss 0x44(%rsi), %xmm0 tzcntl %edi, %ecx movb $0x1, %dil shlb %cl, %dil movl 0x48(%rsi), %r11d movzbl %dil, %edi kmovd %edi, %k0 kmovd %edx, %k1 kandnb %k1, %k0, %k0 kmovb %k0, (%rsi) kortestb %k0, %k0 je 0x1ce9cd2 movl %eax, %r9d vbroadcastss 0x40(%rsi), %ymm1 vsubss %xmm1, %xmm0, %xmm0 vbroadcastss %xmm0, %ymm0 vfmadd132ps %ymm3, %ymm1, %ymm0 # ymm0 = (ymm0 * ymm3) + ymm1 vmovaps %ymm0, 0x4e0(%rsp) vmovsd 0x4e0(%rsp,%rcx,4), %xmm2 movl %r9d, %eax testb %dl, %dl je 0x1ce9c07 jmp 0x1ce7a25 vcmpleps %ymm16, %ymm1, %k2 vbroadcastss 0x202e6c(%rip), %ymm1 # 0x1eecb84 vbroadcastss 0x201cfe(%rip), %ymm16 # 0x1eeba20 vblendmps %ymm1, %ymm16, %ymm0 {%k2} vmovaps %ymm0, %ymm30 {%k1} vblendmps %ymm16, %ymm1, %ymm0 {%k2} kmovd %k2, %ecx vmovaps %ymm0, %ymm31 {%k1} knotb %k1, %k0 kmovd %k0, %edx orb %cl, %dl andb %al, %dl movl %edx, %eax jmp 0x1ce7f6f vcmpleps %ymm20, %ymm11, %k2 vbroadcastss 0x202e23(%rip), %ymm7 # 0x1eecb84 vbroadcastss 0x201cb6(%rip), %ymm11 # 0x1eeba20 vblendmps %ymm7, %ymm11, %ymm6 {%k2} vmovaps %ymm6, %ymm4 {%k1} vblendmps %ymm11, %ymm7, %ymm6 {%k2} vmovaps %ymm6, %ymm2 {%k1} knotb %k1, %k1 korb %k2, %k1, %k1 kandb %k0, %k1, %k0 jmp 0x1ce8355 movq 0x18(%rsp), %rax vmovaps 0x660(%rsp), %ymm0 vcmpleps 0x100(%r12,%rax,4){1to8}, %ymm0, %k0 kmovb %k0, %eax andl %eax, %r10d jne 0x1ce769a leaq -0x28(%rbp), %rsp popq %rbx popq %r12 popq %r13 popq %r14 popq %r15 popq %rbp vzeroupper retq nop
/embree[P]embree/kernels/geometry/curveNi_intersector.h
bool embree::avx512::CurveNiIntersectorK<8, 8>::occluded_t<embree::avx512::SweepCurve1IntersectorK<embree::BezierCurveT, 8>, embree::avx512::Occluded1KEpilog1<8, true>>(embree::avx512::CurvePrecalculationsK<8>&, embree::RayK<8>&, unsigned long, embree::RayQueryContext*, embree::CurveNi<8> const&)
static __forceinline bool occluded_t(Precalculations& pre, RayK<K>& ray, const size_t k, RayQueryContext* context, const Primitive& prim) { vfloat<M> tNear; vbool<M> valid = intersect(ray,k,prim,tNear); const size_t N = prim.N; size_t mask = movemask(valid); while (mask) { const size_t i = bscf(mask); STAT3(shadow.trav_prims,1,1,1); const unsigned int geomID = prim.geomID(N); const unsigned int primID = prim.primID(N)[i]; const CurveGeometry* geom = context->scene->get<CurveGeometry>(geomID); Vec3ff a0,a1,a2,a3; geom->gather(a0,a1,a2,a3,geom->curve(primID)); size_t mask1 = mask; const size_t i1 = bscf(mask1); if (mask) { const unsigned int primID1 = prim.primID(N)[i1]; geom->prefetchL1_vertices(geom->curve(primID1)); if (mask1) { const size_t i2 = bsf(mask1); const unsigned int primID2 = prim.primID(N)[i2]; geom->prefetchL2_vertices(geom->curve(primID2)); } } if (Intersector().intersect(pre,ray,k,context,geom,primID,a0,a1,a2,a3,Epilog(ray,k,context,geomID,primID))) return true; mask &= movemask(tNear <= vfloat<M>(ray.tfar[k])); } return false; }
pushq %rbp movq %rsp, %rbp pushq %r15 pushq %r14 pushq %r13 pushq %r12 pushq %rbx andq $-0x20, %rsp subq $0xaa0, %rsp # imm = 0xAA0 movzbl 0x1(%r8), %eax leaq (%rax,%rax,4), %r9 leaq (%r9,%r9,4), %rdi vbroadcastss 0x12(%r8,%rdi), %xmm0 vmovss (%rsi,%rdx,4), %xmm1 vmovss 0x80(%rsi,%rdx,4), %xmm2 vinsertps $0x10, 0x20(%rsi,%rdx,4), %xmm1, %xmm1 # xmm1 = xmm1[0],mem[0],xmm1[2,3] vinsertps $0x20, 0x40(%rsi,%rdx,4), %xmm1, %xmm1 # xmm1 = xmm1[0,1],mem[0],xmm1[3] vinsertps $0x10, 0xa0(%rsi,%rdx,4), %xmm2, %xmm2 # xmm2 = xmm2[0],mem[0],xmm2[2,3] movq %rcx, %r14 vinsertps $0x20, 0xc0(%rsi,%rdx,4), %xmm2, %xmm2 # xmm2 = xmm2[0,1],mem[0],xmm2[3] vsubps 0x6(%r8,%rdi), %xmm1, %xmm1 vmulps %xmm1, %xmm0, %xmm3 vmulps %xmm2, %xmm0, %xmm0 vpmovsxbd 0x6(%r8,%rax,4), %ymm1 vcvtdq2ps %ymm1, %ymm5 vpmovsxbd 0x6(%r8,%r9), %ymm1 vcvtdq2ps %ymm1, %ymm6 leaq (%rax,%rax,2), %rcx vpmovsxbd 0x6(%r8,%rcx,2), %ymm1 vcvtdq2ps %ymm1, %ymm2 leaq (%rax,%r9,2), %rdi vpmovsxbd 0x6(%r8,%rdi), %ymm1 vcvtdq2ps %ymm1, %ymm7 leal (,%rcx,4), %edi vpmovsxbd 0x6(%r8,%rdi), %ymm1 vcvtdq2ps %ymm1, %ymm8 addq %rax, %rdi vpmovsxbd 0x6(%r8,%rdi), %ymm1 vcvtdq2ps %ymm1, %ymm9 leaq (%rax,%rax,8), %r10 leal (%r10,%r10), %edi vpmovsxbd 0x6(%r8,%rdi), %ymm1 addq %rax, %rdi vpmovsxbd 0x6(%r8,%rdi), %ymm4 vcvtdq2ps %ymm1, %ymm10 vcvtdq2ps %ymm4, %ymm11 shll $0x2, %r9d vpmovsxbd 0x6(%r8,%r9), %ymm1 vcvtdq2ps %ymm1, %ymm12 vbroadcastss %xmm0, %ymm13 vbroadcastss 0x228836(%rip), %ymm15 # 0x1f12704 vpermps %ymm0, %ymm15, %ymm14 vbroadcastss 0x236fff(%rip), %ymm16 # 0x1f20edc vpermps %ymm0, %ymm16, %ymm0 vmulps %ymm2, %ymm0, %ymm4 vmulps %ymm0, %ymm9, %ymm1 vmulps %ymm0, %ymm12, %ymm0 vfmadd231ps %ymm6, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm6) + ymm4 vfmadd231ps %ymm8, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm8) + ymm1 vfmadd231ps %ymm14, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm14) + ymm0 vfmadd231ps %ymm5, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm5) + ymm4 vfmadd231ps %ymm7, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm7) + ymm1 vfmadd231ps %ymm13, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm13) + ymm0 vbroadcastss %xmm3, %ymm13 vpermps %ymm3, %ymm15, %ymm14 vpermps %ymm3, %ymm16, %ymm15 vmulps %ymm2, %ymm15, %ymm16 vmulps %ymm9, %ymm15, %ymm3 vmulps %ymm12, %ymm15, %ymm2 vfmadd231ps %ymm6, %ymm14, %ymm16 # ymm16 = (ymm14 * ymm6) + ymm16 vfmadd231ps %ymm8, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm8) + ymm3 vfmadd231ps %ymm11, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm11) + ymm2 vfmadd231ps %ymm5, %ymm13, %ymm16 # ymm16 = (ymm13 * ymm5) + ymm16 vfmadd231ps %ymm7, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm7) + ymm3 vfmadd231ps %ymm10, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm10) + ymm2 vbroadcastss 0x236f6d(%rip), %ymm28 # 0x1f20ec4 vandps %ymm28, %ymm4, %ymm5 vbroadcastss 0x207082(%rip), %ymm6 # 0x1ef0fe8 vcmpltps %ymm6, %ymm5, %k1 vmovaps %ymm6, %ymm4 {%k1} vandps %ymm28, %ymm1, %ymm5 vcmpltps %ymm6, %ymm5, %k1 vmovaps %ymm6, %ymm1 {%k1} vandps %ymm28, %ymm0, %ymm5 vcmpltps %ymm6, %ymm5, %k1 vmovaps %ymm6, %ymm0 {%k1} vrcp14ps %ymm4, %ymm5 vbroadcastss 0x20276c(%rip), %ymm6 # 0x1eec714 vfnmadd213ps %ymm6, %ymm5, %ymm4 # ymm4 = -(ymm5 * ymm4) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm4 # ymm4 = (ymm4 * ymm5) + ymm5 vrcp14ps %ymm1, %ymm5 vfnmadd213ps %ymm6, %ymm5, %ymm1 # ymm1 = -(ymm5 * ymm1) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm1 # ymm1 = (ymm1 * ymm5) + ymm5 vrcp14ps %ymm0, %ymm5 vfnmadd213ps %ymm6, %ymm5, %ymm0 # ymm0 = -(ymm5 * ymm0) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm0 # ymm0 = (ymm0 * ymm5) + ymm5 leaq (,%rax,8), %rdi subq %rax, %rdi vpmovsxwd 0x6(%r8,%rdi), %ymm5 vcvtdq2ps %ymm5, %ymm5 vsubps %ymm16, %ymm5, %ymm5 vpmovsxwd 0x6(%r8,%r10), %ymm6 vmulps %ymm5, %ymm4, %ymm5 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm16, %ymm6, %ymm6 vmulps %ymm6, %ymm4, %ymm4 leaq (%rax,%rax), %r10 addq %rax, %r9 shlq $0x3, %rcx subq %rax, %rcx movl %eax, %edi shll $0x4, %edi vpmovsxwd 0x6(%r8,%rdi), %ymm6 subq %r10, %rdi vpmovsxwd 0x6(%r8,%rdi), %ymm7 vcvtdq2ps %ymm7, %ymm7 vsubps %ymm3, %ymm7, %ymm7 vmulps %ymm7, %ymm1, %ymm7 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm3, %ymm6, %ymm3 vmulps %ymm3, %ymm1, %ymm1 vpmovsxwd 0x6(%r8,%r9), %ymm3 vcvtdq2ps %ymm3, %ymm3 vsubps %ymm2, %ymm3, %ymm3 vmulps %ymm0, %ymm3, %ymm3 vpmovsxwd 0x6(%r8,%rcx), %ymm6 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm2, %ymm6, %ymm2 vmulps %ymm2, %ymm0, %ymm0 vpminsd %ymm4, %ymm5, %ymm2 vpminsd %ymm1, %ymm7, %ymm6 vmaxps %ymm6, %ymm2, %ymm2 vpminsd %ymm0, %ymm3, %ymm6 vmaxps 0x60(%rsi,%rdx,4){1to8}, %ymm6, %ymm6 vmaxps %ymm6, %ymm2, %ymm2 vmulps 0x235e7e(%rip){1to8}, %ymm2, %ymm6 # 0x1f1ff10 vpmaxsd %ymm4, %ymm5, %ymm2 vpmaxsd %ymm1, %ymm7, %ymm1 vminps %ymm1, %ymm2, %ymm1 vpmaxsd %ymm0, %ymm3, %ymm0 movq %rsi, 0x10(%rsp) vminps 0x100(%rsi,%rdx,4){1to8}, %ymm0, %ymm0 vminps %ymm0, %ymm1, %ymm0 vmulps 0x235e54(%rip){1to8}, %ymm0, %ymm0 # 0x1f1ff14 vpbroadcastd %eax, %ymm1 vpcmpgtd 0x270850(%rip), %ymm1, %k0 # 0x1f5a920 vmovaps %ymm6, 0x8a0(%rsp) vcmpleps %ymm0, %ymm6, %k1 ktestb %k0, %k1 setne %r15b je 0x1ceca87 kandb %k0, %k1, %k0 kmovd %k0, %eax movzbl %al, %r12d leaq 0x720(%rsp), %rax addq $0xe0, %rax movq %rax, 0x2d8(%rsp) movl $0x1, %eax shlxl %edx, %eax, %eax kmovd %eax, %k0 vpmovm2d %k0, %ymm0 vmovdqa %ymm0, 0x680(%rsp) movq %rdx, 0x18(%rsp) movq %r8, 0x2e0(%rsp) movq %r14, 0x20(%rsp) tzcntq %r12, %rax movl 0x2(%r8), %esi movl 0x6(%r8,%rax,4), %eax movq (%r14), %rcx movq 0x1e8(%rcx), %rcx movq %rsi, 0xd8(%rsp) movq (%rcx,%rsi,8), %rdi movq 0x58(%rdi), %rcx movq 0x68(%rdi), %r11 movq %r11, %rsi imulq %rax, %rsi movl (%rcx,%rsi), %r10d movq 0xa0(%rdi), %rsi movq %rsi, %r9 imulq %r10, %r9 movq 0x90(%rdi), %rdi vmovaps (%rdi,%r9), %xmm1 leaq 0x1(%r10), %r9 imulq %rsi, %r9 vmovaps (%rdi,%r9), %xmm0 leaq 0x2(%r10), %r9 imulq %rsi, %r9 vmovaps (%rdi,%r9), %xmm2 blsrq %r12, %r12 addq $0x3, %r10 imulq %rsi, %r10 vmovaps (%rdi,%r10), %xmm3 movq %r12, %r10 subq $0x1, %r10 jb 0x1cea211 andq %r12, %r10 tzcntq %r12, %r9 movl 0x6(%r8,%r9,4), %r9d imulq %r11, %r9 movl (%rcx,%r9), %r9d imulq %rsi, %r9 prefetcht0 (%rdi,%r9) prefetcht0 0x40(%rdi,%r9) testq %r10, %r10 je 0x1cea211 tzcntq %r10, %r9 movl 0x6(%r8,%r9,4), %r9d imulq %r9, %r11 movl (%rcx,%r11), %ecx imulq %rcx, %rsi prefetcht1 (%rdi,%rsi) prefetcht1 0x40(%rdi,%rsi) movq 0x10(%rsp), %rcx vmovss (%rcx,%rdx,4), %xmm4 vinsertps $0x1c, 0x20(%rcx,%rdx,4), %xmm4, %xmm4 # xmm4 = xmm4[0],mem[0],zero,zero vinsertps $0x28, 0x40(%rcx,%rdx,4), %xmm4, %xmm4 # xmm4 = xmm4[0,1],mem[0],zero vbroadcastss 0x80(%rcx,%rdx,4), %ymm30 vbroadcastss 0xa0(%rcx,%rdx,4), %ymm21 vunpcklps %xmm21, %xmm30, %xmm5 # xmm5 = xmm30[0],xmm21[0],xmm30[1],xmm21[1] vbroadcastss 0xc0(%rcx,%rdx,4), %ymm15 vinsertps $0x28, %xmm15, %xmm5, %xmm9 # xmm9 = xmm5[0,1],xmm15[0],zero vaddps %xmm0, %xmm1, %xmm5 vaddps %xmm2, %xmm5, %xmm5 vaddps %xmm3, %xmm5, %xmm5 vmulps 0x233095(%rip){1to4}, %xmm5, %xmm5 # 0x1f1d2fc vsubps %xmm4, %xmm5, %xmm5 vdpps $0x7f, %xmm9, %xmm5, %xmm5 vmovss 0x60(%rcx,%rdx,4), %xmm10 vdpps $0x7f, %xmm9, %xmm9, %xmm11 vxorps %xmm8, %xmm8, %xmm8 vmovss %xmm11, %xmm8, %xmm6 vrcp14ss %xmm6, %xmm8, %xmm6 vmovaps %xmm6, %xmm7 vfnmadd213ss 0x206d5f(%rip), %xmm11, %xmm7 # xmm7 = -(xmm11 * xmm7) + mem vmulss %xmm7, %xmm6, %xmm6 vmulss %xmm6, %xmm5, %xmm5 vbroadcastss %xmm5, %ymm6 vmovaps %xmm9, 0x390(%rsp) vmovaps %ymm6, 0x5e0(%rsp) vfmadd231ps %xmm6, %xmm9, %xmm4 # xmm4 = (xmm9 * xmm6) + xmm4 vblendps $0x8, %xmm8, %xmm4, %xmm4 # xmm4 = xmm4[0,1,2],xmm8[3] vsubps %xmm4, %xmm1, %xmm6 vsubps %xmm4, %xmm2, %xmm7 vsubps %xmm4, %xmm0, %xmm8 vsubps %xmm4, %xmm3, %xmm3 vbroadcastss %xmm6, %ymm9 vbroadcastss 0x228423(%rip), %ymm0 # 0x1f12704 vpermps %ymm6, %ymm0, %ymm12 vbroadcastss 0x236bed(%rip), %ymm1 # 0x1f20edc vpermps %ymm6, %ymm1, %ymm23 vbroadcastss 0x236bda(%rip), %ymm2 # 0x1f20ed8 vmovaps %ymm6, 0x540(%rsp) vpermps %ymm6, %ymm2, %ymm14 vbroadcastss %xmm8, %ymm4 vpermps %ymm8, %ymm0, %ymm6 vpermps %ymm8, %ymm1, %ymm17 vmovaps %ymm8, 0x500(%rsp) vpermps %ymm8, %ymm2, %ymm18 vbroadcastss %xmm7, %ymm19 vpermps %ymm7, %ymm0, %ymm20 vpermps %ymm7, %ymm1, %ymm22 vmovaps %ymm7, 0x520(%rsp) vpermps %ymm7, %ymm2, %ymm24 vbroadcastss %xmm3, %ymm27 vpermps %ymm3, %ymm0, %ymm25 vpermps %ymm3, %ymm1, %ymm29 vmovaps %ymm3, 0x4e0(%rsp) vpermps %ymm3, %ymm2, %ymm26 vmovaps %ymm4, %ymm2 vmovaps %ymm6, %ymm4 vmovaps %ymm15, 0x5c0(%rsp) vmulss %xmm15, %xmm15, %xmm0 vfmadd231ps %ymm21, %ymm21, %ymm0 # ymm0 = (ymm21 * ymm21) + ymm0 vfmadd231ps %ymm30, %ymm30, %ymm0 # ymm0 = (ymm30 * ymm30) + ymm0 vbroadcastss %xmm0, %ymm0 vmovaps %ymm0, 0x900(%rsp) vandps %ymm28, %ymm0, %ymm0 vmovaps %ymm0, 0x700(%rsp) vmovss %xmm10, 0x3c(%rsp) vmovaps %xmm5, 0x470(%rsp) vsubss %xmm5, %xmm10, %xmm0 vbroadcastss %xmm0, %ymm0 vmovaps %ymm0, 0x8e0(%rsp) vpbroadcastd %eax, %ymm0 vmovdqa %ymm0, 0x6c0(%rsp) movl $0x1, %eax movq %rax, 0xe0(%rsp) xorl %ebx, %ebx xorl %r13d, %r13d movq 0xd8(%rsp), %rax vpbroadcastd %eax, %ymm0 vmovdqa %ymm0, 0x6a0(%rsp) vsqrtss %xmm11, %xmm11, %xmm0 vmovss %xmm0, 0xfc(%rsp) vmovaps %xmm11, 0x370(%rsp) vsqrtss %xmm11, %xmm11, %xmm0 vmovss %xmm0, 0xf8(%rsp) vmovsd 0x2022be(%rip), %xmm5 # 0x1eec6f0 vbroadcastss 0x2022d9(%rip), %ymm3 # 0x1eec714 vmovaps %ymm30, 0x200(%rsp) vmovaps %ymm21, 0x1e0(%rsp) vmovaps %ymm9, 0x220(%rsp) vmovaps %ymm12, 0x1c0(%rsp) vmovaps %ymm23, 0x1a0(%rsp) vmovaps %ymm14, 0x180(%rsp) vmovaps %ymm2, 0x4c0(%rsp) vmovaps %ymm6, 0x320(%rsp) vmovaps %ymm17, 0x160(%rsp) vmovaps %ymm18, 0x140(%rsp) vmovaps %ymm19, 0x3c0(%rsp) vmovaps %ymm20, 0x3a0(%rsp) vmovaps %ymm22, 0x120(%rsp) vmovaps %ymm24, 0x8c0(%rsp) vmovaps %ymm27, 0x280(%rsp) vmovaps %ymm25, 0x100(%rsp) vmovaps %ymm29, 0x260(%rsp) vmovaps %ymm26, 0x240(%rsp) vmovshdup %xmm5, %xmm0 # xmm0 = xmm5[1,1,3,3] vsubss %xmm5, %xmm0, %xmm1 vmulss 0x2369f0(%rip), %xmm1, %xmm6 # 0x1f20ed0 vmovaps %xmm5, 0x450(%rsp) vbroadcastss %xmm5, %ymm5 vbroadcastss %xmm1, %ymm0 vmovaps %ymm5, 0x40(%rsp) vmovaps %ymm0, 0x340(%rsp) vfmadd231ps 0x236a15(%rip), %ymm0, %ymm5 # ymm5 = (ymm0 * mem) + ymm5 vsubps %ymm5, %ymm3, %ymm7 vmulps %ymm5, %ymm2, %ymm1 vmovaps %ymm2, %ymm15 vmulps %ymm5, %ymm4, %ymm2 vmovaps %ymm3, %ymm0 vmulps %ymm5, %ymm17, %ymm3 vmovaps %ymm4, %ymm16 vmulps %ymm5, %ymm18, %ymm4 vfmadd231ps %ymm9, %ymm7, %ymm1 # ymm1 = (ymm7 * ymm9) + ymm1 vfmadd231ps %ymm12, %ymm7, %ymm2 # ymm2 = (ymm7 * ymm12) + ymm2 vfmadd231ps %ymm23, %ymm7, %ymm3 # ymm3 = (ymm7 * ymm23) + ymm3 vfmadd231ps %ymm14, %ymm7, %ymm4 # ymm4 = (ymm7 * ymm14) + ymm4 vmulps %ymm5, %ymm19, %ymm8 vmulps %ymm5, %ymm20, %ymm9 vmulps %ymm5, %ymm22, %ymm10 vmulps %ymm5, %ymm24, %ymm11 vfmadd231ps %ymm15, %ymm7, %ymm8 # ymm8 = (ymm7 * ymm15) + ymm8 vfmadd231ps %ymm16, %ymm7, %ymm9 # ymm9 = (ymm7 * ymm16) + ymm9 vfmadd231ps %ymm17, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm17) + ymm10 vfmadd231ps %ymm18, %ymm7, %ymm11 # ymm11 = (ymm7 * ymm18) + ymm11 vmulps %ymm5, %ymm27, %ymm12 vmulps %ymm5, %ymm25, %ymm13 vmulps %ymm5, %ymm29, %ymm14 vmulps %ymm5, %ymm26, %ymm15 vfmadd231ps %ymm19, %ymm7, %ymm12 # ymm12 = (ymm7 * ymm19) + ymm12 vfmadd231ps %ymm20, %ymm7, %ymm13 # ymm13 = (ymm7 * ymm20) + ymm13 vfmadd231ps %ymm22, %ymm7, %ymm14 # ymm14 = (ymm7 * ymm22) + ymm14 vfmadd231ps %ymm24, %ymm7, %ymm15 # ymm15 = (ymm7 * ymm24) + ymm15 vmulps %ymm8, %ymm5, %ymm16 vmulps %ymm9, %ymm5, %ymm17 vmulps %ymm10, %ymm5, %ymm18 vmulps %ymm11, %ymm5, %ymm19 vfmadd231ps %ymm1, %ymm7, %ymm16 # ymm16 = (ymm7 * ymm1) + ymm16 vfmadd231ps %ymm2, %ymm7, %ymm17 # ymm17 = (ymm7 * ymm2) + ymm17 vfmadd231ps %ymm3, %ymm7, %ymm18 # ymm18 = (ymm7 * ymm3) + ymm18 vfmadd231ps %ymm4, %ymm7, %ymm19 # ymm19 = (ymm7 * ymm4) + ymm19 vmulps %ymm5, %ymm12, %ymm1 vmulps %ymm5, %ymm13, %ymm12 vmulps %ymm5, %ymm14, %ymm13 vmulps %ymm5, %ymm15, %ymm14 vfmadd231ps %ymm8, %ymm7, %ymm1 # ymm1 = (ymm7 * ymm8) + ymm1 vfmadd231ps %ymm9, %ymm7, %ymm12 # ymm12 = (ymm7 * ymm9) + ymm12 vfmadd231ps %ymm10, %ymm7, %ymm13 # ymm13 = (ymm7 * ymm10) + ymm13 vfmadd231ps %ymm11, %ymm7, %ymm14 # ymm14 = (ymm7 * ymm11) + ymm14 vmulps %ymm1, %ymm5, %ymm4 vmulps %ymm5, %ymm12, %ymm3 vmulps %ymm13, %ymm5, %ymm29 vmulps %ymm5, %ymm14, %ymm5 vfmadd231ps %ymm16, %ymm7, %ymm4 # ymm4 = (ymm7 * ymm16) + ymm4 vfmadd231ps %ymm17, %ymm7, %ymm3 # ymm3 = (ymm7 * ymm17) + ymm3 vfmadd231ps %ymm18, %ymm7, %ymm29 # ymm29 = (ymm7 * ymm18) + ymm29 vfmadd231ps %ymm7, %ymm19, %ymm5 # ymm5 = (ymm19 * ymm7) + ymm5 vsubps %ymm16, %ymm1, %ymm1 vsubps %ymm17, %ymm12, %ymm7 vsubps %ymm18, %ymm13, %ymm8 vsubps %ymm19, %ymm14, %ymm9 vbroadcastss 0x2069a8(%rip), %ymm10 # 0x1ef0fec vmulps %ymm1, %ymm10, %ymm1 vmulps %ymm7, %ymm10, %ymm7 vmulps %ymm10, %ymm8, %ymm8 vmulps %ymm10, %ymm9, %ymm9 vbroadcastss %xmm6, %ymm6 vmulps %ymm1, %ymm6, %ymm11 vmulps %ymm7, %ymm6, %ymm12 vmulps %ymm6, %ymm8, %ymm13 vmulps %ymm6, %ymm9, %ymm6 vmovaps %ymm4, %ymm8 vmovaps 0x2756a9(%rip), %ymm7 # 0x1f5fd20 vxorps %xmm31, %xmm31, %xmm31 vpermt2ps %ymm31, %ymm7, %ymm8 vmovaps %ymm3, %ymm9 vpermt2ps %ymm31, %ymm7, %ymm9 vmovaps %ymm29, %ymm10 vpermt2ps %ymm31, %ymm7, %ymm10 vaddps %ymm6, %ymm5, %ymm1 vmaxps %ymm1, %ymm5, %ymm14 vminps %ymm1, %ymm5, %ymm1 vmovaps %ymm5, %ymm15 vpermt2ps %ymm31, %ymm7, %ymm15 vmovaps %ymm11, %ymm19 vpermt2ps %ymm31, %ymm7, %ymm19 vmovaps %ymm12, %ymm20 vpermt2ps %ymm31, %ymm7, %ymm20 vmovaps %ymm13, %ymm2 vpermt2ps %ymm31, %ymm7, %ymm2 vpermt2ps %ymm31, %ymm7, %ymm6 vsubps %ymm6, %ymm15, %ymm16 vsubps %ymm4, %ymm8, %ymm7 vsubps %ymm3, %ymm9, %ymm6 vsubps %ymm29, %ymm10, %ymm5 vmulps %ymm13, %ymm6, %ymm17 vfmsub231ps %ymm5, %ymm12, %ymm17 # ymm17 = (ymm12 * ymm5) - ymm17 vmulps %ymm11, %ymm5, %ymm18 vfmsub231ps %ymm7, %ymm13, %ymm18 # ymm18 = (ymm13 * ymm7) - ymm18 vmulps %ymm12, %ymm7, %ymm22 vfmsub231ps %ymm6, %ymm11, %ymm22 # ymm22 = (ymm11 * ymm6) - ymm22 vmulps %ymm22, %ymm22, %ymm22 vfmadd231ps %ymm18, %ymm18, %ymm22 # ymm22 = (ymm18 * ymm18) + ymm22 vfmadd231ps %ymm17, %ymm17, %ymm22 # ymm22 = (ymm17 * ymm17) + ymm22 vmulps %ymm5, %ymm5, %ymm17 vfmadd231ps %ymm6, %ymm6, %ymm17 # ymm17 = (ymm6 * ymm6) + ymm17 vfmadd231ps %ymm7, %ymm7, %ymm17 # ymm17 = (ymm7 * ymm7) + ymm17 vrcp14ps %ymm17, %ymm18 vmovaps %ymm18, %ymm23 vfnmadd213ps %ymm0, %ymm17, %ymm23 # ymm23 = -(ymm17 * ymm23) + ymm0 vfmadd132ps %ymm18, %ymm18, %ymm23 # ymm23 = (ymm23 * ymm18) + ymm18 vmulps %ymm23, %ymm22, %ymm18 vmulps %ymm2, %ymm6, %ymm22 vfmsub231ps %ymm5, %ymm20, %ymm22 # ymm22 = (ymm20 * ymm5) - ymm22 vmulps %ymm19, %ymm5, %ymm24 vfmsub231ps %ymm7, %ymm2, %ymm24 # ymm24 = (ymm2 * ymm7) - ymm24 vmulps %ymm20, %ymm7, %ymm25 vfmsub231ps %ymm6, %ymm19, %ymm25 # ymm25 = (ymm19 * ymm6) - ymm25 vmulps %ymm25, %ymm25, %ymm25 vfmadd231ps %ymm24, %ymm24, %ymm25 # ymm25 = (ymm24 * ymm24) + ymm25 vfmadd231ps %ymm22, %ymm22, %ymm25 # ymm25 = (ymm22 * ymm22) + ymm25 vmulps %ymm23, %ymm25, %ymm22 vmaxps %ymm22, %ymm18, %ymm18 vsqrtps %ymm18, %ymm18 vmaxps %ymm15, %ymm16, %ymm22 vmaxps %ymm22, %ymm14, %ymm14 vaddps %ymm14, %ymm18, %ymm14 vminps %ymm15, %ymm16, %ymm15 vminps %ymm15, %ymm1, %ymm1 vsubps %ymm18, %ymm1, %ymm1 vmulps 0x20617a(%rip){1to8}, %ymm14, %ymm14 # 0x1ef0940 vmulps 0x206174(%rip){1to8}, %ymm1, %ymm1 # 0x1ef0944 vmovaps %ymm1, 0x80(%rsp) vmulps %ymm14, %ymm14, %ymm1 vrsqrt14ps %ymm17, %ymm15 vmulps 0x201f2e(%rip){1to8}, %ymm17, %ymm14 # 0x1eec71c vmulps %ymm14, %ymm15, %ymm14 vmulps %ymm15, %ymm15, %ymm16 vmulps %ymm14, %ymm16, %ymm14 vfmadd231ps 0x201f0f(%rip){1to8}, %ymm15, %ymm14 # ymm14 = (ymm15 * mem) + ymm14 vmulps %ymm7, %ymm14, %ymm15 vmulps %ymm14, %ymm6, %ymm16 vmulps %ymm14, %ymm5, %ymm18 vsubps %ymm4, %ymm31, %ymm27 vsubps %ymm3, %ymm31, %ymm28 vmovaps %ymm29, 0x5a0(%rsp) vsubps %ymm29, %ymm31, %ymm29 vmovaps 0x5c0(%rsp), %ymm17 vmulps %ymm29, %ymm17, %ymm22 vfmadd231ps %ymm28, %ymm21, %ymm22 # ymm22 = (ymm21 * ymm28) + ymm22 vfmadd231ps %ymm27, %ymm30, %ymm22 # ymm22 = (ymm30 * ymm27) + ymm22 vmulps %ymm29, %ymm29, %ymm24 vfmadd231ps %ymm28, %ymm28, %ymm24 # ymm24 = (ymm28 * ymm28) + ymm24 vfmadd231ps %ymm27, %ymm27, %ymm24 # ymm24 = (ymm27 * ymm27) + ymm24 vmulps %ymm18, %ymm17, %ymm17 vfmadd231ps %ymm21, %ymm16, %ymm17 # ymm17 = (ymm16 * ymm21) + ymm17 vfmadd231ps %ymm30, %ymm15, %ymm17 # ymm17 = (ymm15 * ymm30) + ymm17 vmulps %ymm18, %ymm29, %ymm18 vfmadd231ps %ymm16, %ymm28, %ymm18 # ymm18 = (ymm28 * ymm16) + ymm18 vfmadd231ps %ymm15, %ymm27, %ymm18 # ymm18 = (ymm27 * ymm15) + ymm18 vmulps %ymm17, %ymm17, %ymm26 vmovaps 0x900(%rsp), %ymm21 vsubps %ymm26, %ymm21, %ymm15 vmulps %ymm18, %ymm17, %ymm25 vsubps %ymm25, %ymm22, %ymm22 vaddps %ymm22, %ymm22, %ymm22 vmulps %ymm18, %ymm18, %ymm25 vsubps %ymm25, %ymm24, %ymm25 vsubps %ymm1, %ymm25, %ymm1 vmulps %ymm22, %ymm22, %ymm16 vmulps 0x2022c1(%rip){1to8}, %ymm15, %ymm23 # 0x1eecb8c vmovaps %ymm23, 0x400(%rsp) vmulps %ymm1, %ymm23, %ymm30 vmovaps %ymm16, 0x60(%rsp) vsubps %ymm30, %ymm16, %ymm30 vcmpnltps %ymm31, %ymm30, %k1 kmovd %k1, %eax kortestb %k1, %k1 je 0x1ceaa12 vsqrtps %ymm30, %ymm30 vaddps %ymm15, %ymm15, %ymm31 vrcp14ps %ymm31, %ymm23 vfnmadd213ps %ymm0, %ymm23, %ymm31 # ymm31 = -(ymm23 * ymm31) + ymm0 vfmadd132ps %ymm23, %ymm23, %ymm31 # ymm31 = (ymm31 * ymm23) + ymm23 vxorps 0x23659c(%rip){1to8}, %ymm22, %ymm23 # 0x1f20ec0 vsubps %ymm30, %ymm23, %ymm23 vmulps %ymm31, %ymm23, %ymm23 vsubps %ymm22, %ymm30, %ymm30 vmulps %ymm31, %ymm30, %ymm31 vmovaps %ymm17, %ymm30 vfmadd213ps %ymm18, %ymm23, %ymm30 # ymm30 = (ymm23 * ymm30) + ymm18 vmulps %ymm30, %ymm14, %ymm30 vmovaps %ymm30, 0x660(%rsp) vmovaps %ymm17, %ymm30 vfmadd213ps %ymm18, %ymm31, %ymm30 # ymm30 = (ymm31 * ymm30) + ymm18 vmulps %ymm30, %ymm14, %ymm30 vmovaps %ymm30, 0x640(%rsp) vbroadcastss 0x2010a7(%rip), %ymm0 # 0x1eeba20 vblendmps %ymm23, %ymm0, %ymm30 {%k1} vbroadcastss 0x2021fc(%rip), %ymm0 # 0x1eecb84 vblendmps %ymm31, %ymm0, %ymm31 {%k1} vbroadcastss 0x23652d(%rip), %ymm0 # 0x1f20ec4 vandps %ymm0, %ymm26, %ymm23 vmovaps 0x700(%rsp), %ymm21 vmaxps %ymm23, %ymm21, %ymm23 vmulps 0x2074ff(%rip){1to8}, %ymm23, %ymm23 # 0x1ef1eb4 vandps %ymm0, %ymm15, %ymm0 vcmpltps %ymm23, %ymm0, %k1 {%k1} kortestb %k1, %k1 je 0x1ceaa26 vcmpleps 0x23652f(%rip), %ymm1, %k2 # 0x1f20f00 vbroadcastss 0x2021aa(%rip), %ymm1 # 0x1eecb84 vbroadcastss 0x20103c(%rip), %ymm23 # 0x1eeba20 vblendmps %ymm1, %ymm23, %ymm0 {%k2} vmovaps %ymm0, %ymm30 {%k1} vblendmps %ymm23, %ymm1, %ymm0 {%k2} kmovd %k2, %ecx vmovaps %ymm0, %ymm31 {%k1} knotb %k1, %k0 kmovd %k0, %esi orb %cl, %sil andb %al, %sil movl %esi, %eax jmp 0x1ceaa26 vbroadcastss 0x201004(%rip), %ymm30 # 0x1eeba20 vbroadcastss 0x20215e(%rip), %ymm31 # 0x1eecb84 andb $0x7f, %al je 0x1ceae50 vmovaps %ymm25, 0x580(%rsp) vmovaps %ymm26, 0x3e0(%rsp) movq 0x10(%rsp), %rcx vmovss 0x100(%rcx,%rdx,4), %xmm0 vsubss 0x470(%rsp), %xmm0, %xmm0 vbroadcastss %xmm0, %ymm0 vminps %ymm31, %ymm0, %ymm0 vmovaps 0x8e0(%rsp), %ymm1 vmaxps %ymm30, %ymm1, %ymm1 vmulps %ymm13, %ymm29, %ymm23 vfmadd213ps %ymm23, %ymm12, %ymm28 # ymm28 = (ymm12 * ymm28) + ymm23 vfmadd213ps %ymm28, %ymm11, %ymm27 # ymm27 = (ymm11 * ymm27) + ymm28 vmovaps 0x5c0(%rsp), %ymm21 vmulps %ymm13, %ymm21, %ymm13 vmovaps 0x1e0(%rsp), %ymm24 vfmadd231ps %ymm12, %ymm24, %ymm13 # ymm13 = (ymm24 * ymm12) + ymm13 vmovaps 0x200(%rsp), %ymm16 vfmadd231ps %ymm11, %ymm16, %ymm13 # ymm13 = (ymm16 * ymm11) + ymm13 vbroadcastss 0x23640f(%rip), %ymm28 # 0x1f20ec4 vandps %ymm28, %ymm13, %ymm11 vbroadcastss 0x206523(%rip), %ymm29 # 0x1ef0fe8 vcmpltps %ymm29, %ymm11, %k0 vbroadcastss 0x2363ea(%rip), %ymm31 # 0x1f20ec0 vxorps %ymm31, %ymm27, %ymm11 vrcp14ps %ymm13, %ymm12 vxorps %ymm31, %ymm13, %ymm23 vmovaps %ymm12, %ymm27 vbroadcastss 0x201c1c(%rip), %ymm30 # 0x1eec714 vfnmadd213ps %ymm30, %ymm13, %ymm27 # ymm27 = -(ymm13 * ymm27) + ymm30 vfmadd132ps %ymm12, %ymm12, %ymm27 # ymm27 = (ymm27 * ymm12) + ymm12 vmulps %ymm11, %ymm27, %ymm11 vcmpltps %ymm23, %ymm13, %k1 korb %k1, %k0, %k1 vbroadcastss 0x202065(%rip), %ymm27 # 0x1eecb84 vblendmps %ymm27, %ymm11, %ymm12 {%k1} vmaxps %ymm12, %ymm1, %ymm1 vcmpnleps %ymm23, %ymm13, %k1 korb %k1, %k0, %k1 vbroadcastss 0x200ee1(%rip), %ymm26 # 0x1eeba20 vmovaps %ymm26, %ymm11 {%k1} vminps %ymm11, %ymm0, %ymm0 vxorps %xmm13, %xmm13, %xmm13 vsubps %ymm8, %ymm13, %ymm8 vsubps %ymm9, %ymm13, %ymm9 vsubps %ymm10, %ymm13, %ymm10 vmulps %ymm2, %ymm10, %ymm10 vfnmsub231ps %ymm9, %ymm20, %ymm10 # ymm10 = -(ymm20 * ymm9) - ymm10 vfnmadd231ps %ymm8, %ymm19, %ymm10 # ymm10 = -(ymm19 * ymm8) + ymm10 vmulps %ymm2, %ymm21, %ymm8 vfnmsub231ps %ymm20, %ymm24, %ymm8 # ymm8 = -(ymm24 * ymm20) - ymm8 vfnmadd231ps %ymm19, %ymm16, %ymm8 # ymm8 = -(ymm16 * ymm19) + ymm8 vandps %ymm28, %ymm8, %ymm9 vcmpltps %ymm29, %ymm9, %k0 vxorps %ymm31, %ymm10, %ymm9 vrcp14ps %ymm8, %ymm10 vxorps %ymm31, %ymm8, %ymm11 vmovaps %ymm10, %ymm12 vfnmadd213ps %ymm30, %ymm8, %ymm12 # ymm12 = -(ymm8 * ymm12) + ymm30 vfmadd132ps %ymm10, %ymm10, %ymm12 # ymm12 = (ymm12 * ymm10) + ymm10 vmulps %ymm9, %ymm12, %ymm9 vcmpltps %ymm11, %ymm8, %k1 korb %k1, %k0, %k1 vblendmps %ymm27, %ymm9, %ymm10 {%k1} vmaxps %ymm10, %ymm1, %ymm1 vcmpnleps %ymm11, %ymm8, %k1 korb %k1, %k0, %k1 vmovaps %ymm26, %ymm9 {%k1} vminps %ymm9, %ymm0, %ymm8 vmovaps %ymm1, 0x560(%rsp) vcmpleps %ymm8, %ymm1, %k0 kmovd %k0, %ecx andb %cl, %al je 0x1ceae65 vmovaps 0x660(%rsp), %ymm0 vmaxps 0x80(%rsp), %ymm13, %ymm1 vminps %ymm30, %ymm0, %ymm0 vxorps %xmm10, %xmm10, %xmm10 vmaxps %ymm10, %ymm0, %ymm0 vmovaps 0x640(%rsp), %ymm9 vminps %ymm30, %ymm9, %ymm9 vmovaps 0x23630b(%rip), %ymm11 # 0x1f20f40 vaddps %ymm0, %ymm11, %ymm0 vbroadcastss 0x233876(%rip), %ymm12 # 0x1f1e4b8 vmulps %ymm0, %ymm12, %ymm0 vmovaps 0x40(%rsp), %ymm2 vmovaps 0x340(%rsp), %ymm16 vfmadd213ps %ymm2, %ymm16, %ymm0 # ymm0 = (ymm16 * ymm0) + ymm2 vmovaps %ymm0, 0x660(%rsp) vmaxps %ymm10, %ymm9, %ymm0 vaddps %ymm0, %ymm11, %ymm0 vmulps %ymm0, %ymm12, %ymm0 vfmadd213ps %ymm2, %ymm16, %ymm0 # ymm0 = (ymm16 * ymm0) + ymm2 vmovaps %ymm0, 0x640(%rsp) vmulps %ymm1, %ymm1, %ymm0 vmovaps 0x580(%rsp), %ymm1 vsubps %ymm0, %ymm1, %ymm11 vmulps 0x400(%rsp), %ymm11, %ymm0 vmovaps 0x60(%rsp), %ymm1 vsubps %ymm0, %ymm1, %ymm0 vcmpnltps %ymm10, %ymm0, %k0 kortestb %k0, %k0 vmovaps 0x280(%rsp), %ymm27 vmovaps 0x260(%rsp), %ymm29 vmovaps 0x240(%rsp), %ymm16 je 0x1ceaefd vxorps %xmm20, %xmm20, %xmm20 vcmpnltps %ymm13, %ymm0, %k1 vsqrtps %ymm0, %ymm0 vaddps %ymm15, %ymm15, %ymm1 vrcp14ps %ymm1, %ymm9 vfnmadd213ps %ymm30, %ymm9, %ymm1 # ymm1 = -(ymm9 * ymm1) + ymm30 vfmadd132ps %ymm9, %ymm9, %ymm1 # ymm1 = (ymm1 * ymm9) + ymm9 vxorps 0x2361c3(%rip){1to8}, %ymm22, %ymm9 # 0x1f20ec0 vsubps %ymm0, %ymm9, %ymm9 vmulps %ymm1, %ymm9, %ymm12 vsubps %ymm22, %ymm0, %ymm0 vmulps %ymm1, %ymm0, %ymm13 vmovaps %ymm17, %ymm0 vfmadd213ps %ymm18, %ymm12, %ymm0 # ymm0 = (ymm12 * ymm0) + ymm18 vmulps %ymm0, %ymm14, %ymm9 vmovaps 0x200(%rsp), %ymm30 vmulps %ymm12, %ymm30, %ymm0 vmovaps 0x1e0(%rsp), %ymm21 vmulps %ymm12, %ymm21, %ymm1 vmovaps 0x5c0(%rsp), %ymm26 vmulps %ymm12, %ymm26, %ymm10 vmovaps %ymm7, %ymm19 vfmadd213ps %ymm4, %ymm9, %ymm19 # ymm19 = (ymm9 * ymm19) + ymm4 vsubps %ymm19, %ymm0, %ymm0 vmovaps %ymm6, %ymm19 vfmadd213ps %ymm3, %ymm9, %ymm19 # ymm19 = (ymm9 * ymm19) + ymm3 vsubps %ymm19, %ymm1, %ymm1 vmovaps 0x5a0(%rsp), %ymm2 vfmadd213ps %ymm2, %ymm5, %ymm9 # ymm9 = (ymm5 * ymm9) + ymm2 vsubps %ymm9, %ymm10, %ymm9 vfmadd213ps %ymm18, %ymm13, %ymm17 # ymm17 = (ymm13 * ymm17) + ymm18 vmulps %ymm17, %ymm14, %ymm14 vmulps %ymm13, %ymm30, %ymm10 vmulps %ymm13, %ymm21, %ymm17 vmulps %ymm13, %ymm26, %ymm18 vfmadd213ps %ymm4, %ymm14, %ymm7 # ymm7 = (ymm14 * ymm7) + ymm4 vsubps %ymm7, %ymm10, %ymm10 vfmadd213ps %ymm3, %ymm14, %ymm6 # ymm6 = (ymm14 * ymm6) + ymm3 vsubps %ymm6, %ymm17, %ymm3 vfmadd213ps %ymm2, %ymm14, %ymm5 # ymm5 = (ymm14 * ymm5) + ymm2 vsubps %ymm5, %ymm18, %ymm5 vbroadcastss 0x200c5a(%rip), %ymm2 # 0x1eeba20 vblendmps %ymm12, %ymm2, %ymm4 {%k1} vbroadcastss 0x201daf(%rip), %ymm2 # 0x1eecb84 vblendmps %ymm13, %ymm2, %ymm2 {%k1} vandps 0x3e0(%rsp), %ymm28, %ymm6 vmovaps 0x700(%rsp), %ymm7 vmaxps %ymm6, %ymm7, %ymm6 vmulps 0x2070ba(%rip){1to8}, %ymm6, %ymm6 # 0x1ef1eb4 vandps %ymm28, %ymm15, %ymm7 vcmpltps %ymm6, %ymm7, %k1 {%k1} kortestb %k1, %k1 jne 0x1ceca17 vmovaps 0x1c0(%rsp), %ymm12 vmovaps 0x1a0(%rsp), %ymm23 vmovaps 0x180(%rsp), %ymm14 vmovaps 0x160(%rsp), %ymm17 vmovaps 0x140(%rsp), %ymm18 vmovaps 0x120(%rsp), %ymm22 vmovaps 0x100(%rsp), %ymm25 jmp 0x1ceaf76 vbroadcastss 0x23606a(%rip), %ymm28 # 0x1f20ec4 vbroadcastss 0x2018b1(%rip), %ymm3 # 0x1eec714 jmp 0x1ceae6b vmovaps %ymm30, %ymm3 vmovaps 0x200(%rsp), %ymm30 vmovaps 0x1e0(%rsp), %ymm21 vmovaps 0x220(%rsp), %ymm9 vmovaps 0x1c0(%rsp), %ymm12 vmovaps 0x1a0(%rsp), %ymm23 vmovaps 0x180(%rsp), %ymm14 vmovaps 0x4c0(%rsp), %ymm2 vmovaps 0x320(%rsp), %ymm4 vmovaps 0x160(%rsp), %ymm17 vmovaps 0x140(%rsp), %ymm18 vmovaps 0x3c0(%rsp), %ymm19 vmovaps 0x3a0(%rsp), %ymm20 vmovaps 0x120(%rsp), %ymm22 vmovaps 0x280(%rsp), %ymm27 vmovaps 0x100(%rsp), %ymm25 vmovaps 0x260(%rsp), %ymm29 vmovaps 0x240(%rsp), %ymm16 jmp 0x1cec8e1 vxorps %xmm3, %xmm3, %xmm3 vxorps %xmm5, %xmm5, %xmm5 vxorps %xmm0, %xmm0, %xmm0 vxorps %xmm1, %xmm1, %xmm1 vxorps %xmm9, %xmm9, %xmm9 vbroadcastss 0x200b05(%rip), %ymm4 # 0x1eeba20 vbroadcastss 0x201c60(%rip), %ymm2 # 0x1eecb84 vmovaps 0x200(%rsp), %ymm30 vmovaps 0x1e0(%rsp), %ymm21 vmovaps 0x1c0(%rsp), %ymm12 vmovaps 0x1a0(%rsp), %ymm23 vmovaps 0x180(%rsp), %ymm14 vmovaps 0x160(%rsp), %ymm17 vmovaps 0x140(%rsp), %ymm18 vmovaps 0x120(%rsp), %ymm22 vmovaps 0x100(%rsp), %ymm25 vmovaps 0x5c0(%rsp), %ymm26 vmulps %ymm5, %ymm26, %ymm5 vfmadd231ps %ymm3, %ymm21, %ymm5 # ymm5 = (ymm21 * ymm3) + ymm5 vfmadd231ps %ymm10, %ymm30, %ymm5 # ymm5 = (ymm30 * ymm10) + ymm5 vmovaps 0x560(%rsp), %ymm6 vmovaps %ymm6, 0x920(%rsp) vminps %ymm4, %ymm8, %ymm3 vmovaps %ymm3, 0x940(%rsp) vandps %ymm28, %ymm5, %ymm4 vmaxps %ymm2, %ymm6, %ymm5 vmovaps %ymm5, 0x840(%rsp) vmovaps %ymm8, 0x860(%rsp) vbroadcastss 0x235f08(%rip), %ymm2 # 0x1f20ed4 vcmpltps %ymm2, %ymm4, %k1 kmovd %k1, 0xf4(%rsp) vcmpleps %ymm3, %ymm6, %k1 kmovd %k1, %ecx andb %al, %cl vmovaps %ymm5, 0x600(%rsp) vcmpleps %ymm8, %ymm5, %k1 kmovd %k1, %esi andb %al, %sil movl %esi, 0x28(%rsp) movl %esi, %eax orb %cl, %al vmovaps 0x3c0(%rsp), %ymm19 vmovaps 0x3a0(%rsp), %ymm20 je 0x1cebba0 movq %r12, 0x2e8(%rsp) movb %r15b, 0xf(%rsp) knotb %k0, %k1 vmovaps %ymm2, %ymm3 vmulps %ymm9, %ymm26, %ymm2 vfmadd213ps %ymm2, %ymm21, %ymm1 # ymm1 = (ymm21 * ymm1) + ymm2 vfmadd213ps %ymm1, %ymm30, %ymm0 # ymm0 = (ymm30 * ymm0) + ymm1 vandps %ymm28, %ymm0, %ymm0 vcmpltps %ymm3, %ymm0, %k0 kmovd %k1, 0xec(%rsp) korb %k1, %k0, %k1 vpbroadcastd 0x235e72(%rip), %ymm0 # 0x1f20edc vpblendmd 0x235e64(%rip){1to8}, %ymm0, %ymm0 {%k1} # 0x1f20ed8 movq 0xe0(%rsp), %rax vpbroadcastd %eax, %ymm1 vmovdqa %ymm0, 0x880(%rsp) vmovdqa %ymm1, 0x6e0(%rsp) vpcmpnltd %ymm0, %ymm1, %k0 kmovd %k0, %r12d movl %ecx, 0xf0(%rsp) andb %cl, %r12b je 0x1cebbc9 vmovaps 0x540(%rsp), %ymm1 vmovaps 0x500(%rsp), %ymm2 vminps %xmm2, %xmm1, %xmm0 vmaxps %xmm2, %xmm1, %xmm1 vmovaps 0x520(%rsp), %ymm3 vmovaps 0x4e0(%rsp), %ymm4 vminps %xmm4, %xmm3, %xmm2 vminps %xmm2, %xmm0, %xmm0 vmaxps %xmm4, %xmm3, %xmm2 vmaxps %xmm2, %xmm1, %xmm1 vbroadcastss 0x235dd0(%rip), %xmm2 # 0x1f20ec4 vandps %xmm2, %xmm0, %xmm0 vandps %xmm2, %xmm1, %xmm2 vmaxps %xmm2, %xmm0, %xmm0 vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3] vmaxss %xmm0, %xmm2, %xmm2 vshufpd $0x1, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[1,0] vmaxss %xmm2, %xmm0, %xmm0 vmulss 0x206d9b(%rip), %xmm0, %xmm0 # 0x1ef1eb4 vmovss %xmm0, 0x30(%rsp) vshufps $0xff, %xmm1, %xmm1, %xmm0 # xmm0 = xmm1[3,3,3,3] vmovaps %xmm0, 0x460(%rsp) vmovaps 0x560(%rsp), %ymm0 vaddps 0x5e0(%rsp), %ymm0, %ymm0 vmovaps %ymm0, 0x620(%rsp) kmovd %r12d, %k1 vbroadcastss 0x2008ca(%rip), %ymm0 # 0x1eeba20 vblendmps 0x560(%rsp), %ymm0, %ymm0 {%k1} vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm0, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1] vminps %ymm2, %ymm1, %ymm1 vcmpeqps %ymm1, %ymm0, %k0 kmovd %k0, %eax andb %r12b, %al movzbl %al, %eax movzbl %r12b, %ecx cmovnel %eax, %ecx tzcntl %ecx, %ecx movb $0x1, %r14b shlb %cl, %r14b shll $0x2, %ecx vmovss 0x660(%rsp,%rcx), %xmm8 vmovss 0x920(%rsp,%rcx), %xmm10 vmovaps 0x370(%rsp), %xmm0 vucomiss 0x200862(%rip), %xmm0 # 0x1eeba24 vmovss 0xf8(%rsp), %xmm0 jae 0x1ceb208 vmovaps 0x370(%rsp), %xmm0 vmovaps %xmm8, 0x80(%rsp) vmovaps %xmm10, 0x60(%rsp) kmovw %k1, 0x40(%rsp) vzeroupper callq 0x6aa20 kmovw 0x40(%rsp), %k1 vmovaps 0x60(%rsp), %xmm10 vmovaps 0x80(%rsp), %xmm8 movzbl %r14b, %eax kmovd %eax, %k0 kandnb %k1, %k0, %k0 kmovd %k0, %r12d vmulss 0x206c94(%rip), %xmm0, %xmm0 # 0x1ef1eb4 vmovss %xmm0, 0x34(%rsp) movl $0x5, %r15d vbroadcastss %xmm10, %xmm0 vxorps %xmm1, %xmm1, %xmm1 vfmadd132ps 0x390(%rsp), %xmm1, %xmm0 # xmm0 = (xmm0 * mem) + xmm1 vmovss 0x2014cd(%rip), %xmm1 # 0x1eec714 vsubss %xmm8, %xmm1, %xmm3 vbroadcastss %xmm8, %xmm1 vmovaps 0x500(%rsp), %ymm5 vmulps %xmm1, %xmm5, %xmm2 vmovaps %xmm3, 0x580(%rsp) vbroadcastss %xmm3, %xmm3 vfmadd231ps 0x540(%rsp), %xmm3, %xmm2 # xmm2 = (xmm3 * mem) + xmm2 vmovaps 0x520(%rsp), %ymm6 vmulps %xmm1, %xmm6, %xmm4 vfmadd231ps %xmm5, %xmm3, %xmm4 # xmm4 = (xmm3 * xmm5) + xmm4 vmulps 0x4e0(%rsp), %xmm1, %xmm5 vfmadd231ps %xmm6, %xmm3, %xmm5 # xmm5 = (xmm3 * xmm6) + xmm5 vmulps %xmm4, %xmm1, %xmm6 vfmadd231ps %xmm2, %xmm3, %xmm6 # xmm6 = (xmm3 * xmm2) + xmm6 vmulps %xmm5, %xmm1, %xmm2 vfmadd231ps %xmm4, %xmm3, %xmm2 # xmm2 = (xmm3 * xmm4) + xmm2 vmulps %xmm2, %xmm1, %xmm4 vfmadd231ps %xmm3, %xmm6, %xmm4 # xmm4 = (xmm6 * xmm3) + xmm4 vsubps %xmm6, %xmm2, %xmm1 vmulps 0x205d2d(%rip){1to4}, %xmm1, %xmm11 # 0x1ef0fec vmovaps %xmm4, 0x5a0(%rsp) vsubps %xmm4, %xmm0, %xmm0 vmovaps %xmm0, 0x340(%rsp) vdpps $0x7f, %xmm0, %xmm0, %xmm0 vucomiss 0x200741(%rip), %xmm0 # 0x1eeba24 vmovaps %xmm11, 0x40(%rsp) vmovaps %xmm0, 0x400(%rsp) vmovaps %xmm8, 0x80(%rsp) vmovaps %xmm10, 0x60(%rsp) jb 0x1ceb309 vsqrtss %xmm0, %xmm0, %xmm7 jmp 0x1ceb31b vzeroupper callq 0x6aa20 vmovaps 0x40(%rsp), %xmm11 vmovaps %xmm0, %xmm7 vdpps $0x7f, %xmm11, %xmm11, %xmm0 vxorps %xmm1, %xmm1, %xmm1 vmovss %xmm0, %xmm1, %xmm2 # xmm2 = xmm0[0],xmm1[1,2,3] vrsqrt14ss %xmm2, %xmm1, %xmm3 vmulss 0x2013e1(%rip), %xmm3, %xmm4 # 0x1eec718 vmulss 0x2013dd(%rip), %xmm0, %xmm5 # 0x1eec71c vrcp14ss %xmm2, %xmm1, %xmm2 vxorps 0x235b71(%rip){1to4}, %xmm0, %xmm1 # 0x1f20ec0 vmovaps %xmm2, 0x4a0(%rsp) vfnmadd213ss 0x205c97(%rip), %xmm0, %xmm2 # xmm2 = -(xmm0 * xmm2) + mem vmovss %xmm2, 0x2c0(%rsp) vucomiss %xmm1, %xmm0 vmovss %xmm7, 0x3e0(%rsp) vmovaps %xmm0, 0x4b0(%rsp) jb 0x1ceb388 vsqrtss %xmm0, %xmm0, %xmm0 jmp 0x1ceb3d5 vmovaps %xmm3, 0xc0(%rsp) vmovss %xmm4, 0xb0(%rsp) vmovss %xmm5, 0x2b0(%rsp) vzeroupper callq 0x6aa20 vmovss 0x2b0(%rsp), %xmm5 vmovss 0xb0(%rsp), %xmm4 vmovaps 0xc0(%rsp), %xmm3 vmovss 0x3e0(%rsp), %xmm7 vmovaps 0x40(%rsp), %xmm11 vmovss %xmm0, 0x380(%rsp) vmovaps 0x340(%rsp), %xmm15 vmulss %xmm3, %xmm5, %xmm0 vmulss %xmm3, %xmm3, %xmm1 vmulss %xmm1, %xmm0, %xmm0 vaddss %xmm0, %xmm4, %xmm0 vbroadcastss %xmm0, %xmm13 vmulps %xmm13, %xmm11, %xmm0 vmovaps %xmm0, 0x490(%rsp) vdpps $0x7f, %xmm0, %xmm15, %xmm0 vaddss 0x2012fa(%rip), %xmm7, %xmm31 # 0x1eec714 vmovaps %xmm0, 0xc0(%rsp) vmulps %xmm0, %xmm0, %xmm0 vmovaps 0x400(%rsp), %xmm1 vsubps %xmm0, %xmm1, %xmm0 vxorps %xmm2, %xmm2, %xmm2 vmovss %xmm0, %xmm2, %xmm1 # xmm1 = xmm0[0],xmm2[1,2,3] vrsqrt14ss %xmm1, %xmm2, %xmm1 vmovaps %xmm1, 0xb0(%rsp) vmulss 0x2012c5(%rip), %xmm1, %xmm1 # 0x1eec718 vmovss %xmm1, 0x2b0(%rsp) vmulss 0x2012b8(%rip), %xmm0, %xmm1 # 0x1eec71c vmovss %xmm1, 0x38(%rsp) vucomiss 0x2005b2(%rip), %xmm0 # 0x1eeba24 jb 0x1ceb47a vsqrtss %xmm0, %xmm0, %xmm0 jmp 0x1ceb4bc vmovss %xmm31, 0x2c(%rsp) vmovaps %xmm13, 0x480(%rsp) vzeroupper callq 0x6aa20 vmovaps 0x480(%rsp), %xmm13 vmovss 0x3e0(%rsp), %xmm7 vmovss 0x2c(%rsp), %xmm31 vmovaps 0x340(%rsp), %xmm15 vmovaps 0x40(%rsp), %xmm11 vbroadcastss 0x2359fe(%rip), %ymm26 # 0x1f20ec4 vmovaps 0x200(%rsp), %ymm30 vmovaps 0x1e0(%rsp), %ymm21 vmovaps 0x220(%rsp), %ymm9 vmovaps 0x1c0(%rsp), %ymm12 vmovaps 0x1a0(%rsp), %ymm17 vmovaps 0x180(%rsp), %ymm20 vmovaps 0x160(%rsp), %ymm18 vmovaps 0x140(%rsp), %ymm22 vmovaps 0x120(%rsp), %ymm25 vmovaps 0x280(%rsp), %ymm27 vmovaps 0x100(%rsp), %ymm19 vmovaps 0x260(%rsp), %ymm29 vmovaps 0x240(%rsp), %ymm16 vmovaps 0x80(%rsp), %xmm8 vmovaps 0x60(%rsp), %xmm10 vmovss 0x205495(%rip), %xmm3 # 0x1ef09dc vmovaps %xmm3, %xmm1 vmovaps 0x580(%rsp), %xmm5 vfmadd213ss %xmm5, %xmm8, %xmm1 # xmm1 = (xmm8 * xmm1) + xmm5 vmovss 0x205a93(%rip), %xmm4 # 0x1ef0ff4 vmulss %xmm4, %xmm1, %xmm1 vmulss %xmm4, %xmm8, %xmm2 vbroadcastss %xmm2, %xmm2 vmulps 0x4e0(%rsp), %xmm2, %xmm2 vbroadcastss %xmm1, %xmm1 vfmadd132ps 0x520(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2 vmovaps %xmm3, %xmm2 vfmadd213ss %xmm8, %xmm5, %xmm2 # xmm2 = (xmm5 * xmm2) + xmm8 vmulss %xmm4, %xmm2, %xmm2 vbroadcastss %xmm2, %xmm2 vfmadd132ps 0x500(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1 vmulss %xmm4, %xmm5, %xmm1 vbroadcastss %xmm1, %xmm1 vfmadd132ps 0x540(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2 vbroadcastss 0x4b0(%rsp), %xmm2 vmulps %xmm2, %xmm1, %xmm2 vdpps $0x7f, %xmm1, %xmm11, %xmm1 vbroadcastss %xmm1, %xmm1 vmulps %xmm1, %xmm11, %xmm1 vsubps %xmm1, %xmm2, %xmm2 vmovss 0x2c0(%rsp), %xmm1 vmulss 0x4a0(%rsp), %xmm1, %xmm3 vmulss 0x34(%rsp), %xmm10, %xmm1 vmovss 0x30(%rsp), %xmm6 vmaxss %xmm1, %xmm6, %xmm1 vbroadcastss %xmm3, %xmm3 vmulps %xmm3, %xmm2, %xmm2 vxorps 0x2358b5(%rip){1to4}, %xmm11, %xmm3 # 0x1f20ec0 vmulps %xmm2, %xmm13, %xmm2 vmovaps 0x490(%rsp), %xmm13 vdpps $0x7f, %xmm13, %xmm3, %xmm4 vdivss 0x380(%rsp), %xmm6, %xmm5 vfmadd213ss %xmm1, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm7) + xmm1 vdpps $0x7f, %xmm2, %xmm15, %xmm2 vfmadd213ss %xmm7, %xmm5, %xmm31 # xmm31 = (xmm5 * xmm31) + xmm7 vaddss %xmm2, %xmm4, %xmm4 vmovaps 0x390(%rsp), %xmm7 vdpps $0x7f, %xmm13, %xmm7, %xmm5 vdpps $0x7f, %xmm3, %xmm15, %xmm3 vmovaps 0xb0(%rsp), %xmm6 vmulss 0x38(%rsp), %xmm6, %xmm2 vmulss %xmm6, %xmm6, %xmm6 vmulss %xmm6, %xmm2, %xmm2 vaddss 0x2b0(%rsp), %xmm2, %xmm6 vdpps $0x7f, %xmm7, %xmm15, %xmm7 vmovaps 0xc0(%rsp), %xmm28 vfnmadd231ss %xmm4, %xmm28, %xmm3 # xmm3 = -(xmm28 * xmm4) + xmm3 vfnmadd231ss %xmm5, %xmm28, %xmm7 # xmm7 = -(xmm28 * xmm5) + xmm7 vpermilps $0xff, 0x5a0(%rsp), %xmm2 # xmm2 = mem[3,3,3,3] vsubss %xmm2, %xmm0, %xmm2 vshufps $0xff, %xmm11, %xmm11, %xmm0 # xmm0 = xmm11[3,3,3,3] vfmsub213ss %xmm0, %xmm6, %xmm3 # xmm3 = (xmm6 * xmm3) - xmm0 vmulss %xmm6, %xmm7, %xmm6 vmulss %xmm3, %xmm5, %xmm7 vfmsub231ss %xmm6, %xmm4, %xmm7 # xmm7 = (xmm4 * xmm6) - xmm7 vdivss %xmm7, %xmm6, %xmm6 vdivss %xmm7, %xmm3, %xmm3 vdivss %xmm7, %xmm5, %xmm5 vdivss %xmm7, %xmm4, %xmm4 vmulss %xmm6, %xmm28, %xmm6 vmulss %xmm5, %xmm2, %xmm5 vsubss %xmm5, %xmm6, %xmm5 vmulss %xmm3, %xmm28, %xmm3 vmulss %xmm4, %xmm2, %xmm4 vsubss %xmm3, %xmm4, %xmm3 vsubss %xmm5, %xmm8, %xmm8 vsubss %xmm3, %xmm10, %xmm10 vbroadcastss 0x2357d5(%rip), %xmm4 # 0x1f20ec4 vandps %xmm4, %xmm28, %xmm3 vucomiss %xmm3, %xmm31 movb $0x1, %al jbe 0x1ceb751 vaddss %xmm31, %xmm1, %xmm1 vmovaps 0x460(%rsp), %xmm3 vfmadd231ss 0x20679d(%rip), %xmm3, %xmm1 # xmm1 = (xmm3 * mem) + xmm1 vandps %xmm4, %xmm2, %xmm2 vucomiss %xmm2, %xmm1 jbe 0x1ceb751 vaddss 0x470(%rsp), %xmm10, %xmm10 vucomiss 0x3c(%rsp), %xmm10 jb 0x1ceb74c movq 0x18(%rsp), %rax movq 0x10(%rsp), %rcx vmovss 0x100(%rcx,%rax,4), %xmm5 vucomiss %xmm10, %xmm5 jae 0x1ceb767 xorl %eax, %eax xorl %r14d, %r14d testb %al, %al je 0x1cebb68 decq %r15 jne 0x1ceb22c jmp 0x1cebb65 xorl %eax, %eax vucomiss 0x2002b3(%rip), %xmm8 # 0x1eeba24 jb 0x1ceb74e vmovss 0x200f99(%rip), %xmm1 # 0x1eec714 vucomiss %xmm8, %xmm1 jb 0x1ceb74e vxorps %xmm2, %xmm2, %xmm2 vmovaps 0x400(%rsp), %xmm3 vmovss %xmm3, %xmm2, %xmm1 # xmm1 = xmm3[0],xmm2[1,2,3] vrsqrt14ss %xmm1, %xmm2, %xmm1 vmulss 0x200f77(%rip), %xmm1, %xmm2 # 0x1eec718 vmulss 0x200f73(%rip), %xmm3, %xmm3 # 0x1eec71c movq 0x20(%rsp), %rdx movq (%rdx), %rax movq 0x1e8(%rax), %rax movq 0xd8(%rsp), %rcx movq (%rax,%rcx,8), %r14 movq 0x18(%rsp), %rax movq 0x10(%rsp), %rcx movl 0x120(%rcx,%rax,4), %eax testl %eax, 0x34(%r14) je 0x1ceb74c movq 0x10(%rdx), %rax cmpq $0x0, 0x10(%rax) jne 0x1ceb7fb cmpq $0x0, 0x48(%r14) jne 0x1ceb7fb movb $0x1, %r14b xorl %eax, %eax jmp 0x1ceb751 vmulss %xmm1, %xmm3, %xmm3 vmulss %xmm1, %xmm1, %xmm1 vmulss %xmm1, %xmm3, %xmm1 vaddss %xmm1, %xmm2, %xmm1 vbroadcastss %xmm1, %xmm1 vmulps %xmm1, %xmm15, %xmm1 vfmadd213ps %xmm11, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm0) + xmm11 vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3] vshufps $0xc9, %xmm11, %xmm11, %xmm3 # xmm3 = xmm11[1,2,0,3] vmulps %xmm3, %xmm1, %xmm1 vfmsub231ps %xmm2, %xmm11, %xmm1 # xmm1 = (xmm11 * xmm2) - xmm1 vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3] vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3] vshufps $0xd2, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,0,1,3] vmulps %xmm1, %xmm0, %xmm0 vfmsub231ps %xmm3, %xmm2, %xmm0 # xmm0 = (xmm2 * xmm3) - xmm0 movq 0x20(%rsp), %rdx movq 0x8(%rdx), %rax vbroadcastss %xmm8, %ymm1 vbroadcastss 0x226ea8(%rip), %ymm2 # 0x1f12704 vpermps %ymm0, %ymm2, %ymm2 vbroadcastss 0x235672(%rip), %ymm3 # 0x1f20edc vpermps %ymm0, %ymm3, %ymm3 vbroadcastss %xmm0, %ymm0 vmovaps %ymm2, 0x720(%rsp) vmovaps %ymm3, 0x740(%rsp) vmovaps %ymm0, 0x760(%rsp) vmovaps %ymm1, 0x780(%rsp) vxorps %xmm0, %xmm0, %xmm0 vmovaps %ymm0, 0x7a0(%rsp) vmovaps 0x6c0(%rsp), %ymm0 vmovaps %ymm0, 0x7c0(%rsp) vmovdqa 0x6a0(%rsp), %ymm0 vmovdqa %ymm0, 0x7e0(%rsp) movq 0x2d8(%rsp), %rcx vpcmpeqd %ymm0, %ymm0, %ymm0 vmovdqa %ymm0, 0x20(%rcx) vmovdqa %ymm0, (%rcx) vbroadcastss (%rax), %ymm0 vmovaps %ymm0, 0x800(%rsp) vbroadcastss 0x4(%rax), %ymm0 vmovaps %ymm0, 0x820(%rsp) movq 0x18(%rsp), %rax movq 0x10(%rsp), %rcx vmovss %xmm10, 0x100(%rcx,%rax,4) vmovaps 0x680(%rsp), %ymm0 vmovaps %ymm0, 0x420(%rsp) leaq 0x420(%rsp), %rax movq %rax, 0x2f0(%rsp) movq 0x18(%r14), %rax movq %rax, 0x2f8(%rsp) movq 0x8(%rdx), %rax movq %rax, 0x300(%rsp) movq %rcx, 0x308(%rsp) leaq 0x720(%rsp), %rax movq %rax, 0x310(%rsp) movl $0x8, 0x318(%rsp) movq 0x48(%r14), %rax testq %rax, %rax vmovaps %xmm8, 0x80(%rsp) vmovaps %xmm10, 0x60(%rsp) vmovss %xmm5, 0x40(%rsp) je 0x1ceba2c leaq 0x2f0(%rsp), %rdi vzeroupper callq *%rax vmovss 0x40(%rsp), %xmm5 vmovaps 0x60(%rsp), %xmm10 vmovaps 0x80(%rsp), %xmm8 vmovaps 0x240(%rsp), %ymm16 vmovaps 0x260(%rsp), %ymm29 vmovaps 0x100(%rsp), %ymm19 vmovaps 0x280(%rsp), %ymm27 vmovaps 0x120(%rsp), %ymm25 vmovaps 0x140(%rsp), %ymm22 vmovaps 0x160(%rsp), %ymm18 vmovaps 0x180(%rsp), %ymm20 vmovaps 0x1a0(%rsp), %ymm17 vmovaps 0x1c0(%rsp), %ymm12 vmovaps 0x220(%rsp), %ymm9 vmovaps 0x1e0(%rsp), %ymm21 vmovaps 0x200(%rsp), %ymm30 vbroadcastss 0x2354a2(%rip), %xmm4 # 0x1f20ec4 vbroadcastss 0x235498(%rip), %ymm26 # 0x1f20ec4 vmovdqa 0x420(%rsp), %ymm0 vptest %ymm0, %ymm0 je 0x1cebb41 movq 0x20(%rsp), %rax movq 0x10(%rax), %rcx movq 0x10(%rcx), %rax testq %rax, %rax je 0x1cebb05 testb $0x2, (%rcx) jne 0x1ceba66 testb $0x40, 0x3e(%r14) je 0x1cebb05 leaq 0x2f0(%rsp), %rdi vzeroupper callq *%rax vmovss 0x40(%rsp), %xmm5 vmovaps 0x60(%rsp), %xmm10 vmovaps 0x80(%rsp), %xmm8 vmovaps 0x240(%rsp), %ymm16 vmovaps 0x260(%rsp), %ymm29 vmovaps 0x100(%rsp), %ymm19 vmovaps 0x280(%rsp), %ymm27 vmovaps 0x120(%rsp), %ymm25 vmovaps 0x140(%rsp), %ymm22 vmovaps 0x160(%rsp), %ymm18 vmovaps 0x180(%rsp), %ymm20 vmovaps 0x1a0(%rsp), %ymm17 vmovaps 0x1c0(%rsp), %ymm12 vmovaps 0x220(%rsp), %ymm9 vmovaps 0x1e0(%rsp), %ymm21 vmovaps 0x200(%rsp), %ymm30 vbroadcastss 0x2353c9(%rip), %xmm4 # 0x1f20ec4 vbroadcastss 0x2353bf(%rip), %ymm26 # 0x1f20ec4 vmovdqa 0x420(%rsp), %ymm0 vptestmd %ymm0, %ymm0, %k1 movq 0x308(%rsp), %rax vmovaps 0x100(%rax), %ymm1 vbroadcastss 0x201056(%rip), %ymm1 {%k1} # 0x1eecb84 vmovaps %ymm1, 0x100(%rax) vptest %ymm0, %ymm0 setne %r14b jmp 0x1cebb44 xorl %r14d, %r14d testb %r14b, %r14b jne 0x1ceb7f4 movq 0x18(%rsp), %rax movq 0x10(%rsp), %rcx vmovss %xmm5, 0x100(%rcx,%rax,4) jmp 0x1ceb7f4 xorl %r14d, %r14d andb $0x1, %r14b orb %r14b, %r13b movq 0x18(%rsp), %rdx movq 0x10(%rsp), %rax vmovaps 0x620(%rsp), %ymm0 vcmpleps 0x100(%rax,%rdx,4){1to8}, %ymm0, %k0 kmovd %k0, %eax andb %al, %r12b vmovaps %ymm26, %ymm28 jne 0x1ceb148 jmp 0x1cebbff vbroadcastss 0x200b6b(%rip), %ymm3 # 0x1eec714 vmovaps 0x220(%rsp), %ymm9 vmovaps 0x4c0(%rsp), %ymm2 vmovaps 0x320(%rsp), %ymm4 jmp 0x1cec8e1 vmovaps %ymm25, %ymm19 vmovaps %ymm22, %ymm25 vmovaps %ymm18, %ymm22 vmovaps %ymm17, %ymm18 vmovaps %ymm23, %ymm17 vmovaps %ymm14, %ymm20 vbroadcastss 0x2352ce(%rip), %xmm4 # 0x1f20ec4 vmovaps 0x220(%rsp), %ymm9 vmovaps 0x5e0(%rsp), %ymm3 vaddps 0x600(%rsp), %ymm3, %ymm0 movq 0x10(%rsp), %rax vcmpleps 0x100(%rax,%rdx,4){1to8}, %ymm0, %k0 kmovd 0xf4(%rsp), %k1 kmovd 0xec(%rsp), %k2 korb %k2, %k1, %k1 kmovd %k0, %eax movl 0x28(%rsp), %ecx andb %al, %cl vpbroadcastd 0x235292(%rip), %ymm0 # 0x1f20edc vpblendmd 0x235284(%rip){1to8}, %ymm0, %ymm0 {%k1} # 0x1f20ed8 vmovdqa %ymm0, 0x600(%rsp) vpcmpled 0x6e0(%rsp), %ymm0, %k0 kmovd %k0, %r12d movl %ecx, 0x28(%rsp) andb %cl, %r12b je 0x1cec7b6 vmovaps 0x840(%rsp), %ymm7 vmovaps 0x540(%rsp), %ymm1 vmovaps 0x500(%rsp), %ymm2 vminps %xmm2, %xmm1, %xmm0 vmaxps %xmm2, %xmm1, %xmm1 vmovaps 0x520(%rsp), %ymm5 vmovaps 0x4e0(%rsp), %ymm6 vminps %xmm6, %xmm5, %xmm2 vminps %xmm2, %xmm0, %xmm0 vmaxps %xmm6, %xmm5, %xmm2 vmaxps %xmm2, %xmm1, %xmm1 vandps %xmm4, %xmm0, %xmm0 vandps %xmm4, %xmm1, %xmm2 vmaxps %xmm2, %xmm0, %xmm0 vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3] vmaxss %xmm0, %xmm2, %xmm2 vshufpd $0x1, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[1,0] vmaxss %xmm2, %xmm0, %xmm0 vmulss 0x2061d3(%rip), %xmm0, %xmm0 # 0x1ef1eb4 vmovss %xmm0, 0x34(%rsp) vshufps $0xff, %xmm1, %xmm1, %xmm0 # xmm0 = xmm1[3,3,3,3] vmovaps %xmm0, 0x460(%rsp) vmovaps %ymm7, 0x560(%rsp) vaddps %ymm7, %ymm3, %ymm0 vmovaps %ymm0, 0x620(%rsp) kmovd %r12d, %k1 vbroadcastss 0x1ffd07(%rip), %ymm0 # 0x1eeba20 vblendmps 0x560(%rsp), %ymm0, %ymm0 {%k1} vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm0, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1] vminps %ymm2, %ymm1, %ymm1 vcmpeqps %ymm1, %ymm0, %k0 kmovd %k0, %eax andb %r12b, %al movzbl %al, %eax movzbl %r12b, %ecx cmovnel %eax, %ecx tzcntl %ecx, %ecx movb $0x1, %r14b shlb %cl, %r14b shll $0x2, %ecx vmovss 0x640(%rsp,%rcx), %xmm8 vmovss 0x860(%rsp,%rcx), %xmm10 vmovaps 0x370(%rsp), %xmm0 vucomiss 0x1ffc9f(%rip), %xmm0 # 0x1eeba24 vmovss 0xfc(%rsp), %xmm0 jae 0x1cebdcb vmovaps 0x370(%rsp), %xmm0 vmovaps %xmm8, 0x80(%rsp) vmovaps %xmm10, 0x60(%rsp) kmovw %k1, 0x40(%rsp) vzeroupper callq 0x6aa20 kmovw 0x40(%rsp), %k1 vmovaps 0x60(%rsp), %xmm10 vmovaps 0x80(%rsp), %xmm8 movzbl %r14b, %eax kmovd %eax, %k0 kandnb %k1, %k0, %k0 kmovd %k0, %r12d vmulss 0x2060d1(%rip), %xmm0, %xmm0 # 0x1ef1eb4 vmovss %xmm0, 0x38(%rsp) movl $0x5, %r15d vbroadcastss %xmm10, %xmm0 vxorps %xmm1, %xmm1, %xmm1 vfmadd132ps 0x390(%rsp), %xmm1, %xmm0 # xmm0 = (xmm0 * mem) + xmm1 vmovss 0x20090a(%rip), %xmm1 # 0x1eec714 vsubss %xmm8, %xmm1, %xmm3 vbroadcastss %xmm8, %xmm1 vmovaps 0x500(%rsp), %ymm5 vmulps %xmm1, %xmm5, %xmm2 vmovaps %xmm3, 0x580(%rsp) vbroadcastss %xmm3, %xmm3 vfmadd231ps 0x540(%rsp), %xmm3, %xmm2 # xmm2 = (xmm3 * mem) + xmm2 vmovaps 0x520(%rsp), %ymm6 vmulps %xmm1, %xmm6, %xmm4 vfmadd231ps %xmm5, %xmm3, %xmm4 # xmm4 = (xmm3 * xmm5) + xmm4 vmulps 0x4e0(%rsp), %xmm1, %xmm5 vfmadd231ps %xmm6, %xmm3, %xmm5 # xmm5 = (xmm3 * xmm6) + xmm5 vmulps %xmm4, %xmm1, %xmm6 vfmadd231ps %xmm2, %xmm3, %xmm6 # xmm6 = (xmm3 * xmm2) + xmm6 vmulps %xmm5, %xmm1, %xmm2 vfmadd231ps %xmm4, %xmm3, %xmm2 # xmm2 = (xmm3 * xmm4) + xmm2 vmulps %xmm2, %xmm1, %xmm4 vfmadd231ps %xmm3, %xmm6, %xmm4 # xmm4 = (xmm6 * xmm3) + xmm4 vsubps %xmm6, %xmm2, %xmm1 vmulps 0x20516a(%rip){1to4}, %xmm1, %xmm11 # 0x1ef0fec vmovaps %xmm4, 0x5a0(%rsp) vsubps %xmm4, %xmm0, %xmm0 vmovaps %xmm0, 0x340(%rsp) vdpps $0x7f, %xmm0, %xmm0, %xmm0 vucomiss 0x1ffb7e(%rip), %xmm0 # 0x1eeba24 vmovaps %xmm11, 0x40(%rsp) vmovaps %xmm0, 0x400(%rsp) vmovaps %xmm8, 0x80(%rsp) vmovaps %xmm10, 0x60(%rsp) jb 0x1cebecc vsqrtss %xmm0, %xmm0, %xmm7 jmp 0x1cebede vzeroupper callq 0x6aa20 vmovaps 0x40(%rsp), %xmm11 vmovaps %xmm0, %xmm7 vdpps $0x7f, %xmm11, %xmm11, %xmm0 vxorps %xmm1, %xmm1, %xmm1 vmovss %xmm0, %xmm1, %xmm2 # xmm2 = xmm0[0],xmm1[1,2,3] vrsqrt14ss %xmm2, %xmm1, %xmm3 vmulss 0x20081e(%rip), %xmm3, %xmm4 # 0x1eec718 vmulss 0x20081a(%rip), %xmm0, %xmm5 # 0x1eec71c vrcp14ss %xmm2, %xmm1, %xmm2 vxorps 0x234fae(%rip){1to4}, %xmm0, %xmm1 # 0x1f20ec0 vmovaps %xmm2, 0x380(%rsp) vfnmadd213ss 0x2050d4(%rip), %xmm0, %xmm2 # xmm2 = -(xmm0 * xmm2) + mem vmovss %xmm2, 0x4a0(%rsp) vucomiss %xmm1, %xmm0 vmovss %xmm7, 0x3e0(%rsp) vmovaps %xmm0, 0x4b0(%rsp) jb 0x1cebf4d vsqrtss %xmm0, %xmm0, %xmm26 jmp 0x1cebfa0 vmovaps %xmm3, 0xc0(%rsp) vmovss %xmm4, 0x2c0(%rsp) vmovss %xmm5, 0xb0(%rsp) vzeroupper callq 0x6aa20 vmovss 0xb0(%rsp), %xmm5 vmovss 0x2c0(%rsp), %xmm4 vmovaps 0xc0(%rsp), %xmm3 vmovss 0x3e0(%rsp), %xmm7 vmovaps 0x40(%rsp), %xmm11 vmovaps %xmm0, %xmm26 vmovaps 0x340(%rsp), %xmm15 vmulss %xmm3, %xmm5, %xmm0 vmulss %xmm3, %xmm3, %xmm1 vmulss %xmm1, %xmm0, %xmm0 vaddss %xmm0, %xmm4, %xmm0 vbroadcastss %xmm0, %xmm13 vmulps %xmm13, %xmm11, %xmm0 vmovaps %xmm0, 0x2b0(%rsp) vdpps $0x7f, %xmm0, %xmm15, %xmm0 vaddss 0x200738(%rip), %xmm7, %xmm31 # 0x1eec714 vmovaps %xmm0, 0xc0(%rsp) vmulps %xmm0, %xmm0, %xmm0 vmovaps 0x400(%rsp), %xmm1 vsubps %xmm0, %xmm1, %xmm0 vxorps %xmm2, %xmm2, %xmm2 vmovss %xmm0, %xmm2, %xmm1 # xmm1 = xmm0[0],xmm2[1,2,3] vrsqrt14ss %xmm1, %xmm2, %xmm1 vmovaps %xmm1, 0x2c0(%rsp) vmulss 0x200703(%rip), %xmm1, %xmm1 # 0x1eec718 vmovss %xmm1, 0xb0(%rsp) vmulss 0x2006f6(%rip), %xmm0, %xmm1 # 0x1eec71c vmovss %xmm1, 0x490(%rsp) vucomiss 0x1ff9ed(%rip), %xmm0 # 0x1eeba24 jb 0x1cec03f vsqrtss %xmm0, %xmm0, %xmm0 jmp 0x1cec091 vmovss %xmm31, 0x30(%rsp) vmovss %xmm26, 0x2c(%rsp) vmovaps %xmm13, 0x480(%rsp) vzeroupper callq 0x6aa20 vmovaps 0x480(%rsp), %xmm13 vmovss 0x2c(%rsp), %xmm26 vmovss 0x3e0(%rsp), %xmm7 vmovss 0x30(%rsp), %xmm31 vmovaps 0x340(%rsp), %xmm15 vmovaps 0x40(%rsp), %xmm11 vbroadcastss 0x234e29(%rip), %ymm28 # 0x1f20ec4 vmovaps 0x200(%rsp), %ymm30 vmovaps 0x1e0(%rsp), %ymm21 vmovaps 0x220(%rsp), %ymm9 vmovaps 0x1c0(%rsp), %ymm12 vmovaps 0x1a0(%rsp), %ymm23 vmovaps 0x180(%rsp), %ymm14 vmovaps 0x160(%rsp), %ymm17 vmovaps 0x140(%rsp), %ymm18 vmovaps 0x3c0(%rsp), %ymm19 vmovaps 0x3a0(%rsp), %ymm20 vmovaps 0x120(%rsp), %ymm22 vmovaps 0x280(%rsp), %ymm27 vmovaps 0x100(%rsp), %ymm25 vmovaps 0x260(%rsp), %ymm29 vmovaps 0x240(%rsp), %ymm16 vmovaps 0x80(%rsp), %xmm8 vmovaps 0x60(%rsp), %xmm10 vmovss 0x2048af(%rip), %xmm3 # 0x1ef09dc vmovaps %xmm3, %xmm1 vmovaps 0x580(%rsp), %xmm5 vfmadd213ss %xmm5, %xmm8, %xmm1 # xmm1 = (xmm8 * xmm1) + xmm5 vmovss 0x204ead(%rip), %xmm4 # 0x1ef0ff4 vmulss %xmm4, %xmm1, %xmm1 vmulss %xmm4, %xmm8, %xmm2 vbroadcastss %xmm2, %xmm2 vmulps 0x4e0(%rsp), %xmm2, %xmm2 vbroadcastss %xmm1, %xmm1 vfmadd132ps 0x520(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2 vmovaps %xmm3, %xmm2 vfmadd213ss %xmm8, %xmm5, %xmm2 # xmm2 = (xmm5 * xmm2) + xmm8 vmulss %xmm4, %xmm2, %xmm2 vbroadcastss %xmm2, %xmm2 vfmadd132ps 0x500(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1 vmulss %xmm4, %xmm5, %xmm1 vbroadcastss %xmm1, %xmm1 vfmadd132ps 0x540(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2 vbroadcastss 0x4b0(%rsp), %xmm2 vmulps %xmm2, %xmm1, %xmm2 vdpps $0x7f, %xmm1, %xmm11, %xmm1 vbroadcastss %xmm1, %xmm1 vmulps %xmm1, %xmm11, %xmm1 vsubps %xmm1, %xmm2, %xmm2 vmovss 0x4a0(%rsp), %xmm1 vmulss 0x380(%rsp), %xmm1, %xmm3 vmulss 0x38(%rsp), %xmm10, %xmm1 vmovss 0x34(%rsp), %xmm6 vmaxss %xmm1, %xmm6, %xmm1 vbroadcastss %xmm3, %xmm3 vmulps %xmm3, %xmm2, %xmm2 vxorps 0x234ccf(%rip){1to4}, %xmm11, %xmm3 # 0x1f20ec0 vmulps %xmm2, %xmm13, %xmm2 vmovaps 0x2b0(%rsp), %xmm13 vdpps $0x7f, %xmm13, %xmm3, %xmm4 vdivss %xmm26, %xmm6, %xmm5 vfmadd213ss %xmm1, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm7) + xmm1 vdpps $0x7f, %xmm2, %xmm15, %xmm2 vfmadd213ss %xmm7, %xmm5, %xmm31 # xmm31 = (xmm5 * xmm31) + xmm7 vaddss %xmm2, %xmm4, %xmm4 vmovaps 0x390(%rsp), %xmm7 vdpps $0x7f, %xmm13, %xmm7, %xmm5 vdpps $0x7f, %xmm3, %xmm15, %xmm3 vmovaps 0x2c0(%rsp), %xmm6 vmulss 0x490(%rsp), %xmm6, %xmm2 vmulss %xmm6, %xmm6, %xmm6 vmulss %xmm6, %xmm2, %xmm2 vaddss 0xb0(%rsp), %xmm2, %xmm6 vdpps $0x7f, %xmm7, %xmm15, %xmm7 vmovaps 0xc0(%rsp), %xmm26 vfnmadd231ss %xmm4, %xmm26, %xmm3 # xmm3 = -(xmm26 * xmm4) + xmm3 vfnmadd231ss %xmm5, %xmm26, %xmm7 # xmm7 = -(xmm26 * xmm5) + xmm7 vpermilps $0xff, 0x5a0(%rsp), %xmm2 # xmm2 = mem[3,3,3,3] vsubss %xmm2, %xmm0, %xmm2 vshufps $0xff, %xmm11, %xmm11, %xmm0 # xmm0 = xmm11[3,3,3,3] vfmsub213ss %xmm0, %xmm6, %xmm3 # xmm3 = (xmm6 * xmm3) - xmm0 vmulss %xmm6, %xmm7, %xmm6 vmulss %xmm3, %xmm5, %xmm7 vfmsub231ss %xmm6, %xmm4, %xmm7 # xmm7 = (xmm4 * xmm6) - xmm7 vdivss %xmm7, %xmm6, %xmm6 vdivss %xmm7, %xmm3, %xmm3 vdivss %xmm7, %xmm5, %xmm5 vdivss %xmm7, %xmm4, %xmm4 vmulss %xmm6, %xmm26, %xmm6 vmulss %xmm5, %xmm2, %xmm5 vsubss %xmm5, %xmm6, %xmm5 vmulss %xmm3, %xmm26, %xmm3 vmulss %xmm4, %xmm2, %xmm4 vsubss %xmm3, %xmm4, %xmm3 vsubss %xmm5, %xmm8, %xmm8 vsubss %xmm3, %xmm10, %xmm10 vbroadcastss 0x234bef(%rip), %xmm4 # 0x1f20ec4 vandps %xmm4, %xmm26, %xmm3 vucomiss %xmm3, %xmm31 movb $0x1, %al jbe 0x1cec342 vaddss %xmm31, %xmm1, %xmm1 vmovaps 0x460(%rsp), %xmm3 vfmadd231ss 0x205bb7(%rip), %xmm3, %xmm1 # xmm1 = (xmm3 * mem) + xmm1 vandps %xmm4, %xmm2, %xmm2 vucomiss %xmm2, %xmm1 jbe 0x1cec342 vaddss 0x470(%rsp), %xmm10, %xmm10 vucomiss 0x3c(%rsp), %xmm10 vmovaps 0x320(%rsp), %ymm4 jb 0x1cec33b movq 0x18(%rsp), %rax movq 0x10(%rsp), %rcx vmovss 0x100(%rcx,%rax,4), %xmm5 vucomiss %xmm10, %xmm5 jae 0x1cec361 xorl %eax, %eax xorl %r14d, %r14d jmp 0x1cec34b vmovaps 0x320(%rsp), %ymm4 testb %al, %al je 0x1cec784 decq %r15 jne 0x1cebdef jmp 0x1cec781 xorl %eax, %eax vucomiss 0x1ff6b9(%rip), %xmm8 # 0x1eeba24 jb 0x1cec33d vmovss 0x20039f(%rip), %xmm1 # 0x1eec714 vucomiss %xmm8, %xmm1 jb 0x1cec33d vxorps %xmm2, %xmm2, %xmm2 vmovaps 0x400(%rsp), %xmm3 vmovss %xmm3, %xmm2, %xmm1 # xmm1 = xmm3[0],xmm2[1,2,3] vrsqrt14ss %xmm1, %xmm2, %xmm1 vmulss 0x20037d(%rip), %xmm1, %xmm2 # 0x1eec718 vmulss 0x200379(%rip), %xmm3, %xmm3 # 0x1eec71c movq 0x20(%rsp), %rdx movq (%rdx), %rax movq 0x1e8(%rax), %rax movq 0xd8(%rsp), %rcx movq (%rax,%rcx,8), %r14 movq 0x18(%rsp), %rax movq 0x10(%rsp), %rcx movl 0x120(%rcx,%rax,4), %eax testl %eax, 0x34(%r14) je 0x1cec33b movq 0x10(%rdx), %rax cmpq $0x0, 0x10(%rax) jne 0x1cec3f5 cmpq $0x0, 0x48(%r14) jne 0x1cec3f5 movb $0x1, %r14b xorl %eax, %eax jmp 0x1cec34b vmulss %xmm1, %xmm3, %xmm3 vmulss %xmm1, %xmm1, %xmm1 vmulss %xmm1, %xmm3, %xmm1 vaddss %xmm1, %xmm2, %xmm1 vbroadcastss %xmm1, %xmm1 vmulps %xmm1, %xmm15, %xmm1 vfmadd213ps %xmm11, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm0) + xmm11 vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3] vshufps $0xc9, %xmm11, %xmm11, %xmm3 # xmm3 = xmm11[1,2,0,3] vmulps %xmm3, %xmm1, %xmm1 vfmsub231ps %xmm2, %xmm11, %xmm1 # xmm1 = (xmm11 * xmm2) - xmm1 vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3] vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3] vshufps $0xd2, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,0,1,3] vmulps %xmm1, %xmm0, %xmm0 vfmsub231ps %xmm3, %xmm2, %xmm0 # xmm0 = (xmm2 * xmm3) - xmm0 movq 0x20(%rsp), %rdx movq 0x8(%rdx), %rax vbroadcastss %xmm8, %ymm1 vbroadcastss 0x2262ae(%rip), %ymm2 # 0x1f12704 vpermps %ymm0, %ymm2, %ymm2 vbroadcastss 0x234a78(%rip), %ymm3 # 0x1f20edc vpermps %ymm0, %ymm3, %ymm3 vbroadcastss %xmm0, %ymm0 vmovaps %ymm2, 0x720(%rsp) vmovaps %ymm3, 0x740(%rsp) vmovaps %ymm0, 0x760(%rsp) vmovaps %ymm1, 0x780(%rsp) vxorps %xmm0, %xmm0, %xmm0 vmovaps %ymm0, 0x7a0(%rsp) vmovaps 0x6c0(%rsp), %ymm0 vmovaps %ymm0, 0x7c0(%rsp) vmovdqa 0x6a0(%rsp), %ymm0 vmovdqa %ymm0, 0x7e0(%rsp) movq 0x2d8(%rsp), %rcx vpcmpeqd %ymm0, %ymm0, %ymm0 vmovdqa %ymm0, 0x20(%rcx) vmovdqa %ymm0, (%rcx) vbroadcastss (%rax), %ymm0 vmovaps %ymm0, 0x800(%rsp) vbroadcastss 0x4(%rax), %ymm0 vmovaps %ymm0, 0x820(%rsp) movq 0x18(%rsp), %rax movq 0x10(%rsp), %rcx vmovss %xmm10, 0x100(%rcx,%rax,4) vmovaps 0x680(%rsp), %ymm0 vmovaps %ymm0, 0x420(%rsp) leaq 0x420(%rsp), %rax movq %rax, 0x2f0(%rsp) movq 0x18(%r14), %rax movq %rax, 0x2f8(%rsp) movq 0x8(%rdx), %rax movq %rax, 0x300(%rsp) movq %rcx, 0x308(%rsp) leaq 0x720(%rsp), %rax movq %rax, 0x310(%rsp) movl $0x8, 0x318(%rsp) movq 0x48(%r14), %rax testq %rax, %rax vmovaps %xmm8, 0x80(%rsp) vmovaps %xmm10, 0x60(%rsp) vmovss %xmm5, 0x40(%rsp) je 0x1cec637 leaq 0x2f0(%rsp), %rdi vzeroupper callq *%rax vmovss 0x40(%rsp), %xmm5 vmovaps 0x60(%rsp), %xmm10 vmovaps 0x80(%rsp), %xmm8 vmovaps 0x240(%rsp), %ymm16 vmovaps 0x260(%rsp), %ymm29 vmovaps 0x100(%rsp), %ymm25 vmovaps 0x280(%rsp), %ymm27 vmovaps 0x120(%rsp), %ymm22 vmovaps 0x3a0(%rsp), %ymm20 vmovaps 0x3c0(%rsp), %ymm19 vmovaps 0x140(%rsp), %ymm18 vmovaps 0x160(%rsp), %ymm17 vmovaps 0x320(%rsp), %ymm4 vmovaps 0x180(%rsp), %ymm14 vmovaps 0x1a0(%rsp), %ymm23 vmovaps 0x1c0(%rsp), %ymm12 vmovaps 0x220(%rsp), %ymm9 vmovaps 0x1e0(%rsp), %ymm21 vmovaps 0x200(%rsp), %ymm30 vbroadcastss 0x23488d(%rip), %ymm28 # 0x1f20ec4 vmovdqa 0x420(%rsp), %ymm0 vptest %ymm0, %ymm0 je 0x1cec75d movq 0x20(%rsp), %rax movq 0x10(%rax), %rcx movq 0x10(%rcx), %rax testq %rax, %rax je 0x1cec721 testb $0x2, (%rcx) jne 0x1cec671 testb $0x40, 0x3e(%r14) je 0x1cec721 leaq 0x2f0(%rsp), %rdi vzeroupper callq *%rax vmovss 0x40(%rsp), %xmm5 vmovaps 0x60(%rsp), %xmm10 vmovaps 0x80(%rsp), %xmm8 vmovaps 0x240(%rsp), %ymm16 vmovaps 0x260(%rsp), %ymm29 vmovaps 0x100(%rsp), %ymm25 vmovaps 0x280(%rsp), %ymm27 vmovaps 0x120(%rsp), %ymm22 vmovaps 0x3a0(%rsp), %ymm20 vmovaps 0x3c0(%rsp), %ymm19 vmovaps 0x140(%rsp), %ymm18 vmovaps 0x160(%rsp), %ymm17 vmovaps 0x320(%rsp), %ymm4 vmovaps 0x180(%rsp), %ymm14 vmovaps 0x1a0(%rsp), %ymm23 vmovaps 0x1c0(%rsp), %ymm12 vmovaps 0x220(%rsp), %ymm9 vmovaps 0x1e0(%rsp), %ymm21 vmovaps 0x200(%rsp), %ymm30 vbroadcastss 0x2347a3(%rip), %ymm28 # 0x1f20ec4 vmovdqa 0x420(%rsp), %ymm0 vptestmd %ymm0, %ymm0, %k1 movq 0x308(%rsp), %rax vmovaps 0x100(%rax), %ymm1 vbroadcastss 0x20043a(%rip), %ymm1 {%k1} # 0x1eecb84 vmovaps %ymm1, 0x100(%rax) vptest %ymm0, %ymm0 setne %r14b jmp 0x1cec760 xorl %r14d, %r14d testb %r14b, %r14b jne 0x1cec3ee movq 0x18(%rsp), %rax movq 0x10(%rsp), %rcx vmovss %xmm5, 0x100(%rcx,%rax,4) jmp 0x1cec3ee xorl %r14d, %r14d andb $0x1, %r14b orb %r14b, %r13b movq 0x18(%rsp), %rdx movq 0x10(%rsp), %rax vmovaps 0x620(%rsp), %ymm0 vcmpleps 0x100(%rax,%rdx,4){1to8}, %ymm0, %k0 kmovd %k0, %eax andb %al, %r12b jne 0x1cebd0b jmp 0x1cec7f3 vmovaps 0x320(%rsp), %ymm4 vmovaps %ymm20, %ymm14 vmovaps %ymm17, %ymm23 vmovaps %ymm18, %ymm17 vmovaps %ymm22, %ymm18 vmovaps %ymm25, %ymm22 vmovaps %ymm19, %ymm25 vmovaps 0x3c0(%rsp), %ymm19 vmovaps 0x3a0(%rsp), %ymm20 vmovdqa 0x6e0(%rsp), %ymm1 vpcmpltd 0x600(%rsp), %ymm1, %k1 vmovaps 0x920(%rsp), %ymm0 vpcmpltd 0x880(%rsp), %ymm1, %k2 vmovaps 0x5e0(%rsp), %ymm3 vaddps %ymm0, %ymm3, %ymm1 movq 0x10(%rsp), %rax vbroadcastss 0x100(%rax,%rdx,4), %ymm2 vcmpleps %ymm2, %ymm1, %k0 {%k2} kmovd %k0, %eax movl 0xf0(%rsp), %ecx andb %al, %cl vmovaps 0x840(%rsp), %ymm1 vaddps %ymm1, %ymm3, %ymm3 vcmpleps %ymm2, %ymm3, %k0 {%k1} kmovd %k0, %eax movl 0x28(%rsp), %esi andb %al, %sil orb %cl, %sil je 0x1cec8b5 movl %ebx, %eax leaq (%rax,%rax,2), %rax shlq $0x5, %rax movb %sil, 0x960(%rsp,%rax) kmovd %ecx, %k1 vmovaps %ymm0, %ymm1 {%k1} vmovaps %ymm1, 0x980(%rsp,%rax) vmovaps 0x450(%rsp), %xmm0 vmovlps %xmm0, 0x9a0(%rsp,%rax) movq 0xe0(%rsp), %rcx incl %ecx movl %ecx, 0x9a8(%rsp,%rax) incl %ebx movq 0x2e0(%rsp), %r8 movq 0x20(%rsp), %r14 vbroadcastss 0x1ffe49(%rip), %ymm3 # 0x1eec714 movb 0xf(%rsp), %r15b movq 0x2e8(%rsp), %r12 vmovaps 0x4c0(%rsp), %ymm2 testl %ebx, %ebx je 0x1ceca59 leal -0x1(%rbx), %r9d leaq (%r9,%r9,2), %rcx shlq $0x5, %rcx vmovaps 0x980(%rsp,%rcx), %ymm0 movzbl 0x960(%rsp,%rcx), %esi vaddps 0x5e0(%rsp), %ymm0, %ymm1 movq 0x10(%rsp), %rax vcmpleps 0x100(%rax,%rdx,4){1to8}, %ymm1, %k0 kmovb %k0, %eax andl %esi, %eax je 0x1cec9f0 kmovd %eax, %k1 vbroadcastss 0x1ff0ea(%rip), %ymm1 # 0x1eeba20 vblendmps %ymm0, %ymm1, %ymm0 {%k1} vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm0, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1] vminps %ymm2, %ymm1, %ymm1 vcmpeqps %ymm1, %ymm0, %k0 kmovd %k0, %esi andb %al, %sil je 0x1cec96e movzbl %sil, %edi jmp 0x1cec971 movzbl %al, %edi leaq (%rsp,%rcx), %rsi addq $0x960, %rsi # imm = 0x960 vmovss 0x44(%rsi), %xmm0 tzcntl %edi, %ecx movb $0x1, %dil shlb %cl, %dil movl 0x48(%rsi), %r10d movq %r10, 0xe0(%rsp) movzbl %dil, %edi kmovd %edi, %k0 kmovd %eax, %k1 kandnb %k1, %k0, %k0 kmovb %k0, (%rsi) kortestb %k0, %k0 vmovaps 0x4c0(%rsp), %ymm2 je 0x1cec9bd movl %ebx, %r9d vbroadcastss 0x40(%rsi), %ymm1 vsubss %xmm1, %xmm0, %xmm0 vbroadcastss %xmm0, %ymm0 vfmadd132ps 0x23454b(%rip), %ymm1, %ymm0 # ymm0 = (ymm0 * mem) + ymm1 vmovaps %ymm0, 0x720(%rsp) vmovsd 0x720(%rsp,%rcx,4), %xmm0 vmovaps %xmm0, 0x450(%rsp) movl %r9d, %ebx testb %al, %al je 0x1cec8e1 vmovaps 0x450(%rsp), %xmm5 vmovaps 0x8c0(%rsp), %ymm24 vmovaps %ymm16, %ymm26 jmp 0x1cea4d0 vcmpleps %ymm20, %ymm11, %k2 vbroadcastss 0x20015d(%rip), %ymm7 # 0x1eecb84 vbroadcastss 0x1feff0(%rip), %ymm11 # 0x1eeba20 vblendmps %ymm7, %ymm11, %ymm6 {%k2} vmovaps %ymm6, %ymm4 {%k1} vblendmps %ymm11, %ymm7, %ymm6 {%k2} vmovaps %ymm6, %ymm2 {%k1} knotb %k1, %k1 korb %k2, %k1, %k1 kandb %k0, %k1, %k0 jmp 0x1ceae11 testb $0x1, %r13b jne 0x1ceca87 movq 0x10(%rsp), %rax vmovaps 0x8a0(%rsp), %ymm0 vcmpleps 0x100(%rax,%rdx,4){1to8}, %ymm0, %k0 kmovb %k0, %eax andl %eax, %r12d setne %r15b jne 0x1cea13f andb $0x1, %r15b movl %r15d, %eax leaq -0x28(%rbp), %rsp popq %rbx popq %r12 popq %r13 popq %r14 popq %r15 popq %rbp vzeroupper retq
/embree[P]embree/kernels/geometry/curveNi_intersector.h
void embree::avx512::CurveNiIntersectorK<8, 16>::intersect_t<embree::avx512::SweepCurve1IntersectorK<embree::BezierCurveT, 16>, embree::avx512::Intersect1KEpilog1<16, true>>(embree::avx512::CurvePrecalculationsK<16>&, embree::RayHitK<16>&, unsigned long, embree::RayQueryContext*, embree::CurveNi<8> const&)
static __forceinline void intersect_t(Precalculations& pre, RayHitK<K>& ray, const size_t k, RayQueryContext* context, const Primitive& prim) { vfloat<M> tNear; vbool<M> valid = intersect(ray,k,prim,tNear); const size_t N = prim.N; size_t mask = movemask(valid); while (mask) { const size_t i = bscf(mask); STAT3(normal.trav_prims,1,1,1); const unsigned int geomID = prim.geomID(N); const unsigned int primID = prim.primID(N)[i]; const CurveGeometry* geom = context->scene->get<CurveGeometry>(geomID); Vec3ff a0,a1,a2,a3; geom->gather(a0,a1,a2,a3,geom->curve(primID)); size_t mask1 = mask; const size_t i1 = bscf(mask1); if (mask) { const unsigned int primID1 = prim.primID(N)[i1]; geom->prefetchL1_vertices(geom->curve(primID1)); if (mask1) { const size_t i2 = bsf(mask1); const unsigned int primID2 = prim.primID(N)[i2]; geom->prefetchL2_vertices(geom->curve(primID2)); } } Intersector().intersect(pre,ray,k,context,geom,primID,a0,a1,a2,a3,Epilog(ray,k,context,geomID,primID)); mask &= movemask(tNear <= vfloat<M>(ray.tfar[k])); } }
pushq %rbp movq %rsp, %rbp pushq %r15 pushq %r14 pushq %r13 pushq %r12 pushq %rbx andq $-0x40, %rsp subq $0xc40, %rsp # imm = 0xC40 movq %rcx, %r15 movq %rsi, %r12 movzbl 0x1(%r8), %ecx leaq (%rcx,%rcx,4), %rax leaq (%rax,%rax,4), %rsi vbroadcastss 0x12(%r8,%rsi), %xmm0 vmovss (%r12,%rdx,4), %xmm1 vmovss 0x100(%r12,%rdx,4), %xmm2 vinsertps $0x10, 0x40(%r12,%rdx,4), %xmm1, %xmm1 # xmm1 = xmm1[0],mem[0],xmm1[2,3] vinsertps $0x20, 0x80(%r12,%rdx,4), %xmm1, %xmm1 # xmm1 = xmm1[0,1],mem[0],xmm1[3] vinsertps $0x10, 0x140(%r12,%rdx,4), %xmm2, %xmm2 # xmm2 = xmm2[0],mem[0],xmm2[2,3] vinsertps $0x20, 0x180(%r12,%rdx,4), %xmm2, %xmm2 # xmm2 = xmm2[0,1],mem[0],xmm2[3] vsubps 0x6(%r8,%rsi), %xmm1, %xmm1 vmulps %xmm1, %xmm0, %xmm3 vmulps %xmm2, %xmm0, %xmm0 vpmovsxbd 0x6(%r8,%rcx,4), %ymm1 vpmovsxbd 0x6(%r8,%rax), %ymm2 vcvtdq2ps %ymm1, %ymm5 vcvtdq2ps %ymm2, %ymm6 leaq (%rcx,%rcx,2), %r9 vpmovsxbd 0x6(%r8,%r9,2), %ymm1 vcvtdq2ps %ymm1, %ymm4 leaq (%rcx,%rax,2), %rsi vpmovsxbd 0x6(%r8,%rsi), %ymm1 leal (,%r9,4), %esi vpmovsxbd 0x6(%r8,%rsi), %ymm2 vcvtdq2ps %ymm1, %ymm7 vcvtdq2ps %ymm2, %ymm8 addq %rcx, %rsi vpmovsxbd 0x6(%r8,%rsi), %ymm1 vcvtdq2ps %ymm1, %ymm9 leaq (%rcx,%rcx,8), %rsi leal (%rsi,%rsi), %edi vpmovsxbd 0x6(%r8,%rdi), %ymm1 vcvtdq2ps %ymm1, %ymm10 addq %rcx, %rdi vpmovsxbd 0x6(%r8,%rdi), %ymm1 vcvtdq2ps %ymm1, %ymm11 shll $0x2, %eax vpmovsxbd 0x6(%r8,%rax), %ymm1 vcvtdq2ps %ymm1, %ymm12 vbroadcastss %xmm0, %ymm13 vbroadcastss 0x225b59(%rip), %ymm15 # 0x1f12704 vbroadcastss 0x234327(%rip), %ymm16 # 0x1f20edc vpermps %ymm0, %ymm15, %ymm14 vpermps %ymm0, %ymm16, %ymm0 vmulps %ymm4, %ymm0, %ymm2 vmulps %ymm0, %ymm9, %ymm1 vmulps %ymm0, %ymm12, %ymm0 vfmadd231ps %ymm6, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm6) + ymm2 vfmadd231ps %ymm8, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm8) + ymm1 vfmadd231ps %ymm14, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm14) + ymm0 vfmadd231ps %ymm5, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm5) + ymm2 vfmadd231ps %ymm7, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm7) + ymm1 vfmadd231ps %ymm13, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm13) + ymm0 vbroadcastss %xmm3, %ymm13 vpermps %ymm3, %ymm15, %ymm14 vpermps %ymm3, %ymm16, %ymm3 vmulps %ymm4, %ymm3, %ymm15 vmulps %ymm3, %ymm9, %ymm4 vmulps %ymm3, %ymm12, %ymm3 vfmadd231ps %ymm6, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm6) + ymm15 vfmadd231ps %ymm8, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm8) + ymm4 vfmadd231ps %ymm11, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm11) + ymm3 vfmadd231ps %ymm5, %ymm13, %ymm15 # ymm15 = (ymm13 * ymm5) + ymm15 vfmadd231ps %ymm7, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm7) + ymm4 vbroadcastss 0x23429c(%rip), %ymm6 # 0x1f20ec4 vfmadd231ps %ymm10, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm10) + ymm3 vandps %ymm6, %ymm2, %ymm5 vbroadcastss 0x2043ae(%rip), %ymm7 # 0x1ef0fe8 vcmpltps %ymm7, %ymm5, %k1 vmovaps %ymm7, %ymm2 {%k1} vandps %ymm6, %ymm1, %ymm5 vcmpltps %ymm7, %ymm5, %k1 vmovaps %ymm7, %ymm1 {%k1} vandps %ymm6, %ymm0, %ymm5 vcmpltps %ymm7, %ymm5, %k1 vmovaps %ymm7, %ymm0 {%k1} vrcp14ps %ymm2, %ymm5 vbroadcastss 0x1ffa9c(%rip), %ymm6 # 0x1eec714 vfnmadd213ps %ymm6, %ymm5, %ymm2 # ymm2 = -(ymm5 * ymm2) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm2 # ymm2 = (ymm2 * ymm5) + ymm5 vrcp14ps %ymm1, %ymm5 vfnmadd213ps %ymm6, %ymm5, %ymm1 # ymm1 = -(ymm5 * ymm1) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm1 # ymm1 = (ymm1 * ymm5) + ymm5 vrcp14ps %ymm0, %ymm5 vfnmadd213ps %ymm6, %ymm5, %ymm0 # ymm0 = -(ymm5 * ymm0) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm0 # ymm0 = (ymm0 * ymm5) + ymm5 leaq (,%rcx,8), %rdi subq %rcx, %rdi vpmovsxwd 0x6(%r8,%rdi), %ymm5 vcvtdq2ps %ymm5, %ymm5 vsubps %ymm15, %ymm5, %ymm5 vmulps %ymm5, %ymm2, %ymm5 vpmovsxwd 0x6(%r8,%rsi), %ymm6 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm15, %ymm6, %ymm6 leaq (%rcx,%rcx), %rsi addq %rcx, %rax shlq $0x3, %r9 subq %rcx, %r9 vpbroadcastd %ecx, %ymm7 shll $0x4, %ecx vpmovsxwd 0x6(%r8,%rcx), %ymm8 vmulps %ymm6, %ymm2, %ymm2 subq %rsi, %rcx vpmovsxwd 0x6(%r8,%rcx), %ymm6 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm4, %ymm6, %ymm6 vmulps %ymm6, %ymm1, %ymm6 vcvtdq2ps %ymm8, %ymm8 vsubps %ymm4, %ymm8, %ymm4 vmulps %ymm4, %ymm1, %ymm1 vpmovsxwd 0x6(%r8,%rax), %ymm4 vcvtdq2ps %ymm4, %ymm4 vsubps %ymm3, %ymm4, %ymm4 vmulps %ymm0, %ymm4, %ymm4 vpmovsxwd 0x6(%r8,%r9), %ymm8 vcvtdq2ps %ymm8, %ymm8 vsubps %ymm3, %ymm8, %ymm3 vmulps %ymm3, %ymm0, %ymm0 vpminsd %ymm2, %ymm5, %ymm3 vpminsd %ymm1, %ymm6, %ymm8 vmaxps %ymm8, %ymm3, %ymm3 vpminsd %ymm0, %ymm4, %ymm8 vmaxps 0xc0(%r12,%rdx,4){1to8}, %ymm8, %ymm8 vmaxps %ymm8, %ymm3, %ymm3 vmulps 0x2331a8(%rip){1to8}, %ymm3, %ymm3 # 0x1f1ff10 vpmaxsd %ymm2, %ymm5, %ymm2 vpmaxsd %ymm1, %ymm6, %ymm1 vminps %ymm1, %ymm2, %ymm1 vpmaxsd %ymm0, %ymm4, %ymm0 movq %rdx, 0x38(%rsp) vminps 0x200(%r12,%rdx,4){1to8}, %ymm0, %ymm0 vminps %ymm0, %ymm1, %ymm0 vmulps 0x23317b(%rip){1to8}, %ymm0, %ymm0 # 0x1f1ff14 vpcmpgtd 0x26db7d(%rip), %ymm7, %k0 # 0x1f5a920 vmovaps %ymm3, 0x520(%rsp) vcmpleps %ymm0, %ymm3, %k1 ktestb %k0, %k1 je 0x1cef58e kandb %k0, %k1, %k0 kmovd %k0, %eax movzbl %al, %r10d leaq 0x880(%rsp), %rax addq $0x1c0, %rax # imm = 0x1C0 movq %rax, 0x1b8(%rsp) movl $0x1, %eax movq 0x38(%rsp), %rcx shlxl %ecx, %eax, %eax kmovd %eax, %k0 vpmovm2d %k0, %zmm0 vmovdqa64 %zmm0, 0x7c0(%rsp) movq %r15, 0x48(%rsp) movq %r8, 0x1c0(%rsp) tzcntq %r10, %rax movl 0x2(%r8), %ecx movl 0x6(%r8,%rax,4), %edi movq (%r15), %rax movq 0x1e8(%rax), %rax movq %rcx, 0x70(%rsp) movq (%rax,%rcx,8), %rsi movq 0x58(%rsi), %rax movq 0x68(%rsi), %rcx movq %rcx, %rdx movq %rdi, 0x100(%rsp) imulq %rdi, %rdx movl (%rax,%rdx), %edi movq 0xa0(%rsi), %rdx movq %rdx, %r9 imulq %rdi, %r9 movq 0x90(%rsi), %rsi vmovaps (%rsi,%r9), %xmm1 leaq 0x1(%rdi), %r9 imulq %rdx, %r9 vmovaps (%rsi,%r9), %xmm0 leaq 0x2(%rdi), %r9 imulq %rdx, %r9 vmovaps (%rsi,%r9), %xmm2 blsrq %r10, %r10 addq $0x3, %rdi imulq %rdx, %rdi vmovaps (%rsi,%rdi), %xmm3 movq %r10, %rdi subq $0x1, %rdi jb 0x1cecee1 andq %r10, %rdi tzcntq %r10, %r9 movl 0x6(%r8,%r9,4), %r9d imulq %rcx, %r9 movl (%rax,%r9), %r9d imulq %rdx, %r9 prefetcht0 (%rsi,%r9) prefetcht0 0x40(%rsi,%r9) testq %rdi, %rdi je 0x1cecee1 tzcntq %rdi, %rdi movl 0x6(%r8,%rdi,4), %edi imulq %rdi, %rcx movl (%rax,%rcx), %eax imulq %rax, %rdx prefetcht1 (%rsi,%rdx) prefetcht1 0x40(%rsi,%rdx) movq 0x38(%rsp), %rax vmovss (%r12,%rax,4), %xmm4 vinsertps $0x1c, 0x40(%r12,%rax,4), %xmm4, %xmm4 # xmm4 = xmm4[0],mem[0],zero,zero vinsertps $0x28, 0x80(%r12,%rax,4), %xmm4, %xmm4 # xmm4 = xmm4[0,1],mem[0],zero vbroadcastss 0x100(%r12,%rax,4), %ymm26 vbroadcastss 0x140(%r12,%rax,4), %ymm30 vunpcklps %xmm30, %xmm26, %xmm5 # xmm5 = xmm26[0],xmm30[0],xmm26[1],xmm30[1] vbroadcastss 0x180(%r12,%rax,4), %ymm21 vinsertps $0x28, %xmm21, %xmm5, %xmm9 # xmm9 = xmm5[0,1],xmm21[0],zero vaddps %xmm0, %xmm1, %xmm5 vaddps %xmm2, %xmm5, %xmm5 vaddps %xmm3, %xmm5, %xmm5 vmulps 0x2303c2(%rip){1to4}, %xmm5, %xmm5 # 0x1f1d2fc vsubps %xmm4, %xmm5, %xmm5 vdpps $0x7f, %xmm9, %xmm5, %xmm5 vmovss 0xc0(%r12,%rax,4), %xmm10 vdpps $0x7f, %xmm9, %xmm9, %xmm11 vxorps %xmm8, %xmm8, %xmm8 vmovss %xmm11, %xmm8, %xmm6 vrcp14ss %xmm6, %xmm8, %xmm6 vmovaps %xmm6, %xmm7 vfnmadd213ss 0x204088(%rip), %xmm11, %xmm7 # xmm7 = -(xmm11 * xmm7) + mem vmulss %xmm7, %xmm6, %xmm6 vmulss %xmm6, %xmm5, %xmm5 vbroadcastss %xmm5, %ymm6 vmovaps %xmm9, 0x260(%rsp) vmovaps %ymm6, 0x380(%rsp) vfmadd231ps %xmm6, %xmm9, %xmm4 # xmm4 = (xmm9 * xmm6) + xmm4 vblendps $0x8, %xmm8, %xmm4, %xmm4 # xmm4 = xmm4[0,1,2],xmm8[3] vsubps %xmm4, %xmm1, %xmm6 vsubps %xmm4, %xmm2, %xmm7 vsubps %xmm4, %xmm0, %xmm8 vsubps %xmm4, %xmm3, %xmm3 vbroadcastss %xmm6, %ymm0 vmovaps %ymm0, 0x760(%rsp) vbroadcastss 0x225743(%rip), %ymm0 # 0x1f12704 vpermps %ymm6, %ymm0, %ymm1 vmovaps %ymm1, 0x740(%rsp) vbroadcastss 0x233f04(%rip), %ymm1 # 0x1f20edc vpermps %ymm6, %ymm1, %ymm2 vmovaps %ymm2, 0x720(%rsp) vbroadcastss 0x233ee9(%rip), %ymm2 # 0x1f20ed8 vmovaps %ymm6, 0x340(%rsp) vpermps %ymm6, %ymm2, %ymm4 vmovaps %ymm4, 0x700(%rsp) vbroadcastss %xmm8, %ymm4 vmovaps %ymm4, 0x6e0(%rsp) vpermps %ymm8, %ymm0, %ymm4 vmovaps %ymm4, 0x6c0(%rsp) vpermps %ymm8, %ymm1, %ymm4 vmovaps %ymm4, 0x6a0(%rsp) vmovaps %ymm8, 0x300(%rsp) vpermps %ymm8, %ymm2, %ymm4 vmovaps %ymm4, 0x680(%rsp) vbroadcastss %xmm7, %ymm4 vmovaps %ymm4, 0x660(%rsp) vpermps %ymm7, %ymm0, %ymm4 vmovaps %ymm4, 0x640(%rsp) vpermps %ymm7, %ymm1, %ymm4 vmovaps %ymm4, 0x620(%rsp) vmovaps %ymm7, 0x320(%rsp) vpermps %ymm7, %ymm2, %ymm4 vmovaps %ymm4, 0x600(%rsp) vbroadcastss %xmm3, %ymm4 vmovaps %ymm4, 0x5e0(%rsp) vpermps %ymm3, %ymm0, %ymm0 vmovaps %ymm0, 0x5c0(%rsp) vpermps %ymm3, %ymm1, %ymm0 vmovaps %ymm0, 0x5a0(%rsp) vmovaps %ymm3, 0x2e0(%rsp) vpermps %ymm3, %ymm2, %ymm0 vmovaps %ymm0, 0x580(%rsp) vmulss %xmm21, %xmm21, %xmm0 vfmadd231ps %ymm30, %ymm30, %ymm0 # ymm0 = (ymm30 * ymm30) + ymm0 vfmadd231ps %ymm26, %ymm26, %ymm0 # ymm0 = (ymm26 * ymm26) + ymm0 vbroadcastss %xmm0, %ymm0 vmovaps %ymm0, 0x560(%rsp) vandps 0x233dd1(%rip){1to8}, %ymm0, %ymm0 # 0x1f20ec4 vmovaps %ymm0, 0x4a0(%rsp) vmovss %xmm10, 0x7c(%rsp) vmovaps %xmm5, 0x280(%rsp) vsubss %xmm5, %xmm10, %xmm0 vbroadcastss %xmm0, %ymm0 vmovaps %ymm0, 0x540(%rsp) movq 0x70(%rsp), %rax vpbroadcastd %eax, %zmm0 vmovdqa64 %zmm0, 0x840(%rsp) movl $0x1, %r11d xorl %r9d, %r9d movq 0x100(%rsp), %rax vpbroadcastd %eax, %zmm0 vmovdqa64 %zmm0, 0x800(%rsp) vsqrtss %xmm11, %xmm11, %xmm0 vmovss %xmm0, 0x11c(%rsp) vmovaps %xmm11, 0x250(%rsp) vsqrtss %xmm11, %xmm11, %xmm0 vmovss %xmm0, 0x118(%rsp) vmovsd 0x1ff574(%rip), %xmm2 # 0x1eec6f0 vmovaps 0x233d9c(%rip), %ymm3 # 0x1f20f20 vmovaps %ymm26, 0x140(%rsp) vmovaps %ymm30, 0x120(%rsp) vmovaps %ymm21, 0x1e0(%rsp) vmovshdup %xmm2, %xmm0 # xmm0 = xmm2[1,1,3,3] vsubss %xmm2, %xmm0, %xmm1 vmulss 0x233d24(%rip), %xmm1, %xmm6 # 0x1f20ed0 vmovaps %xmm2, 0x1a0(%rsp) vbroadcastss %xmm2, %ymm5 vbroadcastss %xmm1, %ymm0 vmovaps %ymm5, 0x80(%rsp) vmovaps %ymm0, 0x220(%rsp) vfmadd231ps %ymm3, %ymm0, %ymm5 # ymm5 = (ymm0 * ymm3) + ymm5 vbroadcastss 0x1ff535(%rip), %ymm0 # 0x1eec714 vsubps %ymm5, %ymm0, %ymm7 vmovaps 0x6e0(%rsp), %ymm12 vmulps %ymm5, %ymm12, %ymm1 vmovaps 0x6c0(%rsp), %ymm13 vmulps %ymm5, %ymm13, %ymm2 vmovaps 0x6a0(%rsp), %ymm14 vmulps %ymm5, %ymm14, %ymm3 vmovaps 0x680(%rsp), %ymm15 vmulps %ymm5, %ymm15, %ymm4 vfmadd231ps 0x760(%rsp), %ymm7, %ymm1 # ymm1 = (ymm7 * mem) + ymm1 vfmadd231ps 0x740(%rsp), %ymm7, %ymm2 # ymm2 = (ymm7 * mem) + ymm2 vfmadd231ps 0x720(%rsp), %ymm7, %ymm3 # ymm3 = (ymm7 * mem) + ymm3 vfmadd231ps 0x700(%rsp), %ymm7, %ymm4 # ymm4 = (ymm7 * mem) + ymm4 vmovaps 0x660(%rsp), %ymm16 vmulps %ymm5, %ymm16, %ymm8 vmovaps 0x640(%rsp), %ymm17 vmulps %ymm5, %ymm17, %ymm9 vmovaps 0x620(%rsp), %ymm18 vmulps %ymm5, %ymm18, %ymm10 vmovaps 0x600(%rsp), %ymm19 vmulps %ymm5, %ymm19, %ymm11 vfmadd231ps %ymm12, %ymm7, %ymm8 # ymm8 = (ymm7 * ymm12) + ymm8 vfmadd231ps %ymm13, %ymm7, %ymm9 # ymm9 = (ymm7 * ymm13) + ymm9 vfmadd231ps %ymm14, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm14) + ymm10 vfmadd231ps %ymm15, %ymm7, %ymm11 # ymm11 = (ymm7 * ymm15) + ymm11 vmulps 0x5e0(%rsp), %ymm5, %ymm12 vmulps 0x5c0(%rsp), %ymm5, %ymm13 vmulps 0x5a0(%rsp), %ymm5, %ymm14 vmulps 0x580(%rsp), %ymm5, %ymm15 vfmadd231ps %ymm16, %ymm7, %ymm12 # ymm12 = (ymm7 * ymm16) + ymm12 vfmadd231ps %ymm17, %ymm7, %ymm13 # ymm13 = (ymm7 * ymm17) + ymm13 vfmadd231ps %ymm18, %ymm7, %ymm14 # ymm14 = (ymm7 * ymm18) + ymm14 vfmadd231ps %ymm19, %ymm7, %ymm15 # ymm15 = (ymm7 * ymm19) + ymm15 vmulps %ymm8, %ymm5, %ymm16 vmulps %ymm9, %ymm5, %ymm17 vmulps %ymm10, %ymm5, %ymm18 vmulps %ymm11, %ymm5, %ymm19 vfmadd231ps %ymm1, %ymm7, %ymm16 # ymm16 = (ymm7 * ymm1) + ymm16 vfmadd231ps %ymm2, %ymm7, %ymm17 # ymm17 = (ymm7 * ymm2) + ymm17 vfmadd231ps %ymm3, %ymm7, %ymm18 # ymm18 = (ymm7 * ymm3) + ymm18 vfmadd231ps %ymm4, %ymm7, %ymm19 # ymm19 = (ymm7 * ymm4) + ymm19 vmulps %ymm5, %ymm12, %ymm1 vmulps %ymm5, %ymm13, %ymm12 vmulps %ymm5, %ymm14, %ymm13 vmulps %ymm5, %ymm15, %ymm14 vfmadd231ps %ymm8, %ymm7, %ymm1 # ymm1 = (ymm7 * ymm8) + ymm1 vfmadd231ps %ymm9, %ymm7, %ymm12 # ymm12 = (ymm7 * ymm9) + ymm12 vfmadd231ps %ymm10, %ymm7, %ymm13 # ymm13 = (ymm7 * ymm10) + ymm13 vfmadd231ps %ymm11, %ymm7, %ymm14 # ymm14 = (ymm7 * ymm11) + ymm14 vmulps %ymm1, %ymm5, %ymm4 vmulps %ymm5, %ymm12, %ymm3 vmulps %ymm13, %ymm5, %ymm29 vmulps %ymm5, %ymm14, %ymm5 vfmadd231ps %ymm16, %ymm7, %ymm4 # ymm4 = (ymm7 * ymm16) + ymm4 vfmadd231ps %ymm17, %ymm7, %ymm3 # ymm3 = (ymm7 * ymm17) + ymm3 vfmadd231ps %ymm18, %ymm7, %ymm29 # ymm29 = (ymm7 * ymm18) + ymm29 vfmadd231ps %ymm7, %ymm19, %ymm5 # ymm5 = (ymm19 * ymm7) + ymm5 vsubps %ymm16, %ymm1, %ymm1 vsubps %ymm17, %ymm12, %ymm7 vsubps %ymm18, %ymm13, %ymm8 vsubps %ymm19, %ymm14, %ymm9 vbroadcastss 0x203c86(%rip), %ymm10 # 0x1ef0fec vmulps %ymm1, %ymm10, %ymm1 vmulps %ymm7, %ymm10, %ymm7 vmulps %ymm10, %ymm8, %ymm8 vmulps %ymm10, %ymm9, %ymm9 vbroadcastss %xmm6, %ymm6 vmulps %ymm1, %ymm6, %ymm11 vmulps %ymm7, %ymm6, %ymm12 vmulps %ymm6, %ymm8, %ymm13 vmulps %ymm6, %ymm9, %ymm6 vmovaps %ymm4, %ymm8 vmovaps 0x272987(%rip), %ymm7 # 0x1f5fd20 vxorps %xmm31, %xmm31, %xmm31 vpermt2ps %ymm31, %ymm7, %ymm8 vmovaps %ymm3, %ymm9 vpermt2ps %ymm31, %ymm7, %ymm9 vmovaps %ymm29, %ymm10 vpermt2ps %ymm31, %ymm7, %ymm10 vaddps %ymm6, %ymm5, %ymm1 vmaxps %ymm1, %ymm5, %ymm14 vminps %ymm1, %ymm5, %ymm1 vmovaps %ymm5, %ymm15 vpermt2ps %ymm31, %ymm7, %ymm15 vmovaps %ymm11, %ymm19 vpermt2ps %ymm31, %ymm7, %ymm19 vmovaps %ymm12, %ymm20 vpermt2ps %ymm31, %ymm7, %ymm20 vmovaps %ymm13, %ymm2 vpermt2ps %ymm31, %ymm7, %ymm2 vpermt2ps %ymm31, %ymm7, %ymm6 vsubps %ymm6, %ymm15, %ymm16 vsubps %ymm4, %ymm8, %ymm7 vsubps %ymm3, %ymm9, %ymm6 vsubps %ymm29, %ymm10, %ymm5 vmulps %ymm13, %ymm6, %ymm17 vfmsub231ps %ymm5, %ymm12, %ymm17 # ymm17 = (ymm12 * ymm5) - ymm17 vmulps %ymm11, %ymm5, %ymm18 vfmsub231ps %ymm7, %ymm13, %ymm18 # ymm18 = (ymm13 * ymm7) - ymm18 vmulps %ymm12, %ymm7, %ymm22 vfmsub231ps %ymm6, %ymm11, %ymm22 # ymm22 = (ymm11 * ymm6) - ymm22 vmulps %ymm22, %ymm22, %ymm22 vfmadd231ps %ymm18, %ymm18, %ymm22 # ymm22 = (ymm18 * ymm18) + ymm22 vfmadd231ps %ymm17, %ymm17, %ymm22 # ymm22 = (ymm17 * ymm17) + ymm22 vmulps %ymm5, %ymm5, %ymm17 vfmadd231ps %ymm6, %ymm6, %ymm17 # ymm17 = (ymm6 * ymm6) + ymm17 vfmadd231ps %ymm7, %ymm7, %ymm17 # ymm17 = (ymm7 * ymm7) + ymm17 vrcp14ps %ymm17, %ymm18 vmovaps %ymm18, %ymm23 vfnmadd213ps %ymm0, %ymm17, %ymm23 # ymm23 = -(ymm17 * ymm23) + ymm0 vfmadd132ps %ymm18, %ymm18, %ymm23 # ymm23 = (ymm23 * ymm18) + ymm18 vmulps %ymm23, %ymm22, %ymm18 vmulps %ymm2, %ymm6, %ymm22 vfmsub231ps %ymm5, %ymm20, %ymm22 # ymm22 = (ymm20 * ymm5) - ymm22 vmulps %ymm19, %ymm5, %ymm24 vfmsub231ps %ymm7, %ymm2, %ymm24 # ymm24 = (ymm2 * ymm7) - ymm24 vmulps %ymm20, %ymm7, %ymm25 vfmsub231ps %ymm6, %ymm19, %ymm25 # ymm25 = (ymm19 * ymm6) - ymm25 vmulps %ymm25, %ymm25, %ymm25 vfmadd231ps %ymm24, %ymm24, %ymm25 # ymm25 = (ymm24 * ymm24) + ymm25 vfmadd231ps %ymm22, %ymm22, %ymm25 # ymm25 = (ymm22 * ymm22) + ymm25 vmulps %ymm23, %ymm25, %ymm22 vmaxps %ymm22, %ymm18, %ymm18 vsqrtps %ymm18, %ymm18 vmaxps %ymm15, %ymm16, %ymm22 vmaxps %ymm22, %ymm14, %ymm14 vaddps %ymm14, %ymm18, %ymm14 vminps %ymm15, %ymm16, %ymm15 vminps %ymm15, %ymm1, %ymm1 vsubps %ymm18, %ymm1, %ymm1 vmulps 0x203458(%rip){1to8}, %ymm14, %ymm14 # 0x1ef0940 vmulps 0x203452(%rip){1to8}, %ymm1, %ymm1 # 0x1ef0944 vmovaps %ymm1, 0x200(%rsp) vmulps %ymm14, %ymm14, %ymm1 vrsqrt14ps %ymm17, %ymm15 vmulps 0x1ff20c(%rip){1to8}, %ymm17, %ymm14 # 0x1eec71c vmulps %ymm14, %ymm15, %ymm14 vmulps %ymm15, %ymm15, %ymm16 vmulps %ymm14, %ymm16, %ymm14 vfmadd231ps 0x1ff1ed(%rip){1to8}, %ymm15, %ymm14 # ymm14 = (ymm15 * mem) + ymm14 vmulps %ymm7, %ymm14, %ymm15 vmulps %ymm14, %ymm6, %ymm16 vmulps %ymm14, %ymm5, %ymm18 vsubps %ymm4, %ymm31, %ymm27 vsubps %ymm3, %ymm31, %ymm28 vmovaps %ymm29, 0xa0(%rsp) vsubps %ymm29, %ymm31, %ymm29 vmulps %ymm29, %ymm21, %ymm22 vfmadd231ps %ymm28, %ymm30, %ymm22 # ymm22 = (ymm30 * ymm28) + ymm22 vfmadd231ps %ymm27, %ymm26, %ymm22 # ymm22 = (ymm26 * ymm27) + ymm22 vmulps %ymm29, %ymm29, %ymm24 vfmadd231ps %ymm28, %ymm28, %ymm24 # ymm24 = (ymm28 * ymm28) + ymm24 vfmadd231ps %ymm27, %ymm27, %ymm24 # ymm24 = (ymm27 * ymm27) + ymm24 vmulps %ymm18, %ymm21, %ymm17 vfmadd231ps %ymm30, %ymm16, %ymm17 # ymm17 = (ymm16 * ymm30) + ymm17 vfmadd231ps %ymm26, %ymm15, %ymm17 # ymm17 = (ymm15 * ymm26) + ymm17 vmulps %ymm18, %ymm29, %ymm18 vfmadd231ps %ymm16, %ymm28, %ymm18 # ymm18 = (ymm28 * ymm16) + ymm18 vfmadd231ps %ymm15, %ymm27, %ymm18 # ymm18 = (ymm27 * ymm15) + ymm18 vmulps %ymm17, %ymm17, %ymm21 vmovaps 0x560(%rsp), %ymm15 vsubps %ymm21, %ymm15, %ymm15 vmulps %ymm18, %ymm17, %ymm25 vsubps %ymm25, %ymm22, %ymm22 vaddps %ymm22, %ymm22, %ymm22 vmulps %ymm18, %ymm18, %ymm25 vsubps %ymm25, %ymm24, %ymm16 vmovaps %ymm16, 0xc0(%rsp) vsubps %ymm1, %ymm16, %ymm1 vmulps %ymm22, %ymm22, %ymm25 vmulps 0x1ff59e(%rip){1to8}, %ymm15, %ymm26 # 0x1eecb8c vmulps %ymm1, %ymm26, %ymm30 vsubps %ymm30, %ymm25, %ymm30 vxorps %xmm16, %xmm16, %xmm16 vcmpnltps %ymm31, %ymm30, %k1 kmovd %k1, %eax kortestb %k1, %k1 je 0x1ced6fa vsqrtps %ymm30, %ymm30 vaddps %ymm15, %ymm15, %ymm31 vrcp14ps %ymm31, %ymm23 vfnmadd213ps %ymm0, %ymm23, %ymm31 # ymm31 = -(ymm23 * ymm31) + ymm0 vfmadd132ps %ymm23, %ymm23, %ymm31 # ymm31 = (ymm31 * ymm23) + ymm23 vxorps 0x233883(%rip){1to8}, %ymm22, %ymm23 # 0x1f20ec0 vsubps %ymm30, %ymm23, %ymm23 vmulps %ymm31, %ymm23, %ymm23 vsubps %ymm22, %ymm30, %ymm30 vmulps %ymm31, %ymm30, %ymm31 vmovaps %ymm17, %ymm30 vfmadd213ps %ymm18, %ymm23, %ymm30 # ymm30 = (ymm23 * ymm30) + ymm18 vmulps %ymm30, %ymm14, %ymm30 vmovaps %ymm30, 0x460(%rsp) vmovaps %ymm17, %ymm30 vfmadd213ps %ymm18, %ymm31, %ymm30 # ymm30 = (ymm31 * ymm30) + ymm18 vmulps %ymm30, %ymm14, %ymm30 vmovaps %ymm30, 0x440(%rsp) vbroadcastss 0x1fe38e(%rip), %ymm0 # 0x1eeba20 vblendmps %ymm23, %ymm0, %ymm30 {%k1} vbroadcastss 0x1ff4e3(%rip), %ymm0 # 0x1eecb84 vblendmps %ymm31, %ymm0, %ymm31 {%k1} vbroadcastss 0x233814(%rip), %ymm0 # 0x1f20ec4 vmovaps %ymm21, %ymm24 vandps %ymm0, %ymm21, %ymm23 vmovaps 0x4a0(%rsp), %ymm21 vmaxps %ymm23, %ymm21, %ymm23 vmulps 0x2047e0(%rip){1to8}, %ymm23, %ymm23 # 0x1ef1eb4 vandps %ymm0, %ymm15, %ymm0 vcmpltps %ymm23, %ymm0, %k1 {%k1} kortestb %k1, %k1 jne 0x1cef4dc vbroadcastss 0x1ff022(%rip), %ymm0 # 0x1eec714 vmovaps %ymm24, %ymm21 jmp 0x1ced70e vbroadcastss 0x1fe31c(%rip), %ymm30 # 0x1eeba20 vbroadcastss 0x1ff476(%rip), %ymm31 # 0x1eecb84 andb $0x7f, %al je 0x1cedae1 vmovaps %ymm21, 0x3a0(%rsp) movq 0x38(%rsp), %rcx vmovaps %ymm0, %ymm16 vmovss 0x200(%r12,%rcx,4), %xmm0 vsubss 0x280(%rsp), %xmm0, %xmm0 vbroadcastss %xmm0, %ymm0 vminps %ymm31, %ymm0, %ymm0 vmovaps 0x540(%rsp), %ymm1 vmaxps %ymm30, %ymm1, %ymm1 vmulps %ymm13, %ymm29, %ymm23 vfmadd213ps %ymm23, %ymm12, %ymm28 # ymm28 = (ymm12 * ymm28) + ymm23 vfmadd213ps %ymm28, %ymm11, %ymm27 # ymm27 = (ymm11 * ymm27) + ymm28 vmovaps 0x1e0(%rsp), %ymm21 vmulps %ymm13, %ymm21, %ymm13 vmovaps 0x120(%rsp), %ymm24 vfmadd231ps %ymm12, %ymm24, %ymm13 # ymm13 = (ymm24 * ymm12) + ymm13 vmovaps 0x140(%rsp), %ymm31 vfmadd231ps %ymm11, %ymm31, %ymm13 # ymm13 = (ymm31 * ymm11) + ymm13 vbroadcastss 0x233728(%rip), %ymm28 # 0x1f20ec4 vandps %ymm28, %ymm13, %ymm11 vbroadcastss 0x20383c(%rip), %ymm29 # 0x1ef0fe8 vcmpltps %ymm29, %ymm11, %k0 vbroadcastss 0x233703(%rip), %ymm30 # 0x1f20ec0 vxorps %ymm30, %ymm27, %ymm11 vrcp14ps %ymm13, %ymm12 vxorps %ymm30, %ymm13, %ymm23 vmovaps %ymm12, %ymm27 vfnmadd213ps %ymm16, %ymm13, %ymm27 # ymm27 = -(ymm13 * ymm27) + ymm16 vfmadd132ps %ymm12, %ymm12, %ymm27 # ymm27 = (ymm27 * ymm12) + ymm12 vmulps %ymm11, %ymm27, %ymm11 vcmpltps %ymm23, %ymm13, %k1 korb %k1, %k0, %k1 vbroadcastss 0x1ff388(%rip), %ymm27 # 0x1eecb84 vblendmps %ymm27, %ymm11, %ymm12 {%k1} vmaxps %ymm12, %ymm1, %ymm1 vcmpnleps %ymm23, %ymm13, %k1 korb %k1, %k0, %k1 vbroadcastss 0x1fe205(%rip), %ymm13 # 0x1eeba20 vmovaps %ymm13, %ymm11 {%k1} vminps %ymm11, %ymm0, %ymm0 vxorps %xmm23, %xmm23, %xmm23 vsubps %ymm8, %ymm23, %ymm8 vsubps %ymm9, %ymm23, %ymm9 vsubps %ymm10, %ymm23, %ymm10 vmulps %ymm2, %ymm10, %ymm10 vfnmsub231ps %ymm9, %ymm20, %ymm10 # ymm10 = -(ymm20 * ymm9) - ymm10 vfnmadd231ps %ymm8, %ymm19, %ymm10 # ymm10 = -(ymm19 * ymm8) + ymm10 vmulps %ymm2, %ymm21, %ymm8 vfnmsub231ps %ymm20, %ymm24, %ymm8 # ymm8 = -(ymm24 * ymm20) - ymm8 vfnmadd231ps %ymm19, %ymm31, %ymm8 # ymm8 = -(ymm31 * ymm19) + ymm8 vandps %ymm28, %ymm8, %ymm9 vcmpltps %ymm29, %ymm9, %k0 vxorps %ymm30, %ymm10, %ymm9 vrcp14ps %ymm8, %ymm10 vxorps %ymm30, %ymm8, %ymm11 vmovaps %ymm10, %ymm12 vfnmadd213ps %ymm16, %ymm8, %ymm12 # ymm12 = -(ymm8 * ymm12) + ymm16 vfmadd132ps %ymm10, %ymm10, %ymm12 # ymm12 = (ymm12 * ymm10) + ymm10 vmulps %ymm9, %ymm12, %ymm9 vcmpltps %ymm11, %ymm8, %k1 korb %k1, %k0, %k1 vblendmps %ymm27, %ymm9, %ymm10 {%k1} vmaxps %ymm10, %ymm1, %ymm1 vcmpnleps %ymm11, %ymm8, %k1 korb %k1, %k0, %k1 vmovaps %ymm13, %ymm9 {%k1} vminps %ymm9, %ymm0, %ymm8 vmovaps %ymm1, 0x360(%rsp) vcmpleps %ymm8, %ymm1, %k0 kmovd %k0, %ecx andb %cl, %al je 0x1cedb06 vmovaps 0x460(%rsp), %ymm0 vmaxps 0x200(%rsp), %ymm23, %ymm1 vminps %ymm16, %ymm0, %ymm0 vxorps %xmm10, %xmm10, %xmm10 vmaxps %ymm10, %ymm0, %ymm0 vmovaps 0x440(%rsp), %ymm9 vminps %ymm16, %ymm9, %ymm9 vmovaps 0x23362c(%rip), %ymm11 # 0x1f20f40 vaddps %ymm0, %ymm11, %ymm0 vbroadcastss 0x230b97(%rip), %ymm12 # 0x1f1e4b8 vmulps %ymm0, %ymm12, %ymm0 vmovaps 0x80(%rsp), %ymm2 vmovaps 0x220(%rsp), %ymm13 vfmadd213ps %ymm2, %ymm13, %ymm0 # ymm0 = (ymm13 * ymm0) + ymm2 vmovaps %ymm0, 0x460(%rsp) vmaxps %ymm10, %ymm9, %ymm0 vaddps %ymm0, %ymm11, %ymm0 vmulps %ymm0, %ymm12, %ymm0 vfmadd213ps %ymm2, %ymm13, %ymm0 # ymm0 = (ymm13 * ymm0) + ymm2 vmovaps %ymm0, 0x440(%rsp) vmulps %ymm1, %ymm1, %ymm0 vmovaps 0xc0(%rsp), %ymm1 vsubps %ymm0, %ymm1, %ymm11 vmulps %ymm11, %ymm26, %ymm0 vsubps %ymm0, %ymm25, %ymm0 vcmpnltps %ymm10, %ymm0, %k0 kortestb %k0, %k0 je 0x1cedb23 vxorps %xmm20, %xmm20, %xmm20 vcmpnltps %ymm23, %ymm0, %k1 vsqrtps %ymm0, %ymm0 vaddps %ymm15, %ymm15, %ymm1 vrcp14ps %ymm1, %ymm9 vfnmadd213ps %ymm16, %ymm9, %ymm1 # ymm1 = -(ymm9 * ymm1) + ymm16 vfmadd132ps %ymm9, %ymm9, %ymm1 # ymm1 = (ymm1 * ymm9) + ymm9 vxorps 0x233501(%rip){1to8}, %ymm22, %ymm9 # 0x1f20ec0 vsubps %ymm0, %ymm9, %ymm9 vmulps %ymm1, %ymm9, %ymm12 vsubps %ymm22, %ymm0, %ymm0 vmulps %ymm1, %ymm0, %ymm13 vmovaps %ymm17, %ymm0 vfmadd213ps %ymm18, %ymm12, %ymm0 # ymm0 = (ymm12 * ymm0) + ymm18 vmulps %ymm0, %ymm14, %ymm9 vmovaps 0x140(%rsp), %ymm26 vmulps %ymm12, %ymm26, %ymm0 vmovaps 0x120(%rsp), %ymm30 vmulps %ymm12, %ymm30, %ymm1 vmulps %ymm12, %ymm21, %ymm10 vmovaps %ymm7, %ymm19 vfmadd213ps %ymm4, %ymm9, %ymm19 # ymm19 = (ymm9 * ymm19) + ymm4 vsubps %ymm19, %ymm0, %ymm0 vmovaps %ymm6, %ymm19 vfmadd213ps %ymm3, %ymm9, %ymm19 # ymm19 = (ymm9 * ymm19) + ymm3 vsubps %ymm19, %ymm1, %ymm1 vmovaps 0xa0(%rsp), %ymm2 vfmadd213ps %ymm2, %ymm5, %ymm9 # ymm9 = (ymm5 * ymm9) + ymm2 vsubps %ymm9, %ymm10, %ymm9 vfmadd213ps %ymm18, %ymm13, %ymm17 # ymm17 = (ymm13 * ymm17) + ymm18 vmulps %ymm17, %ymm14, %ymm14 vmulps %ymm13, %ymm26, %ymm10 vmulps %ymm13, %ymm30, %ymm17 vmulps %ymm13, %ymm21, %ymm18 vfmadd213ps %ymm4, %ymm14, %ymm7 # ymm7 = (ymm14 * ymm7) + ymm4 vsubps %ymm7, %ymm10, %ymm10 vfmadd213ps %ymm3, %ymm14, %ymm6 # ymm6 = (ymm14 * ymm6) + ymm3 vsubps %ymm6, %ymm17, %ymm3 vfmadd213ps %ymm2, %ymm14, %ymm5 # ymm5 = (ymm14 * ymm5) + ymm2 vsubps %ymm5, %ymm18, %ymm5 vbroadcastss 0x1fdfa0(%rip), %ymm2 # 0x1eeba20 vblendmps %ymm12, %ymm2, %ymm4 {%k1} vbroadcastss 0x1ff0f5(%rip), %ymm2 # 0x1eecb84 vblendmps %ymm13, %ymm2, %ymm2 {%k1} vbroadcastss 0x233426(%rip), %ymm7 # 0x1f20ec4 vandps 0x3a0(%rsp), %ymm7, %ymm6 vmovaps 0x4a0(%rsp), %ymm12 vmaxps %ymm6, %ymm12, %ymm6 vmulps 0x2043f6(%rip){1to8}, %ymm6, %ymm6 # 0x1ef1eb4 vandps %ymm7, %ymm15, %ymm7 vcmpltps %ymm6, %ymm7, %k1 {%k1} kortestb %k1, %k1 jne 0x1cef525 vbroadcastss 0x2333e8(%rip), %xmm11 # 0x1f20ec4 jmp 0x1cedb63 vmovaps 0x233437(%rip), %ymm3 # 0x1f20f20 vmovaps 0x140(%rsp), %ymm26 vmovaps 0x120(%rsp), %ymm30 vmovaps 0x1e0(%rsp), %ymm21 jmp 0x1cef3cc vmovaps 0x233412(%rip), %ymm3 # 0x1f20f20 vmovaps 0x140(%rsp), %ymm26 vmovaps 0x120(%rsp), %ymm30 jmp 0x1cef3cc vxorps %xmm3, %xmm3, %xmm3 vxorps %xmm5, %xmm5, %xmm5 vxorps %xmm0, %xmm0, %xmm0 vxorps %xmm1, %xmm1, %xmm1 vxorps %xmm9, %xmm9, %xmm9 vbroadcastss 0x1fdedf(%rip), %ymm4 # 0x1eeba20 vbroadcastss 0x1ff03a(%rip), %ymm2 # 0x1eecb84 vbroadcastss 0x233371(%rip), %xmm11 # 0x1f20ec4 vmovaps 0x140(%rsp), %ymm26 vmovaps 0x120(%rsp), %ymm30 vmulps %ymm5, %ymm21, %ymm5 vfmadd231ps %ymm3, %ymm30, %ymm5 # ymm5 = (ymm30 * ymm3) + ymm5 vfmadd231ps %ymm10, %ymm26, %ymm5 # ymm5 = (ymm26 * ymm10) + ymm5 vmovaps 0x360(%rsp), %ymm7 vmovaps %ymm7, 0x780(%rsp) vminps %ymm4, %ymm8, %ymm3 vmovaps %ymm3, 0x7a0(%rsp) vbroadcastss 0x233327(%rip), %ymm6 # 0x1f20ec4 vandps %ymm6, %ymm5, %ymm4 vmaxps %ymm2, %ymm7, %ymm5 vmovaps %ymm5, 0x4c0(%rsp) vmovaps %ymm8, 0x4e0(%rsp) vbroadcastss 0x233314(%rip), %ymm2 # 0x1f20ed4 vcmpltps %ymm2, %ymm4, %k1 kmovd %k1, 0x114(%rsp) vcmpleps %ymm3, %ymm7, %k1 kmovd %k1, %ecx andb %al, %cl vmovaps %ymm5, 0x400(%rsp) vcmpleps %ymm8, %ymm5, %k1 kmovd %k1, %edx andb %al, %dl movl %edx, %eax orb %cl, %al je 0x1cef39a movl %edx, 0x54(%rsp) movq %r9, 0x1d0(%rsp) movq %r10, 0x1d8(%rsp) knotb %k0, %k1 vmovaps %ymm2, %ymm3 vmulps %ymm9, %ymm21, %ymm2 vfmadd213ps %ymm2, %ymm30, %ymm1 # ymm1 = (ymm30 * ymm1) + ymm2 vfmadd213ps %ymm1, %ymm26, %ymm0 # ymm0 = (ymm26 * ymm0) + ymm1 vandps %ymm6, %ymm0, %ymm0 vcmpltps %ymm3, %ymm0, %k0 kmovd %k1, 0x10c(%rsp) korb %k1, %k0, %k1 vpbroadcastd 0x23328e(%rip), %ymm0 # 0x1f20edc vpblendmd 0x233280(%rip){1to8}, %ymm0, %ymm0 {%k1} # 0x1f20ed8 movq %r11, 0x1c8(%rsp) vpbroadcastd %r11d, %ymm1 vmovdqa %ymm0, 0x500(%rsp) vmovdqa %ymm1, 0x480(%rsp) vpcmpnltd %ymm0, %ymm1, %k0 kmovd %k0, %ebx movl %ecx, 0x110(%rsp) andb %cl, %bl je 0x1cee76b vmovaps 0x340(%rsp), %ymm1 vmovaps 0x300(%rsp), %ymm2 vminps %xmm2, %xmm1, %xmm0 vmaxps %xmm2, %xmm1, %xmm1 vmovaps 0x320(%rsp), %ymm3 vmovaps 0x2e0(%rsp), %ymm4 vminps %xmm4, %xmm3, %xmm2 vminps %xmm2, %xmm0, %xmm0 vmaxps %xmm4, %xmm3, %xmm2 vmaxps %xmm2, %xmm1, %xmm1 vandps %xmm0, %xmm11, %xmm0 vandps %xmm1, %xmm11, %xmm2 vmaxps %xmm2, %xmm0, %xmm0 vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3] vmaxss %xmm0, %xmm2, %xmm2 vshufpd $0x1, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[1,0] vmaxss %xmm2, %xmm0, %xmm0 vmulss 0x2041c1(%rip), %xmm0, %xmm0 # 0x1ef1eb4 vmovss %xmm0, 0x64(%rsp) vshufps $0xff, %xmm1, %xmm1, %xmm0 # xmm0 = xmm1[3,3,3,3] vmovaps %xmm0, 0x270(%rsp) vmovaps 0x360(%rsp), %ymm0 vaddps 0x380(%rsp), %ymm0, %ymm0 vmovaps %ymm0, 0x420(%rsp) kmovd %ebx, %k1 vbroadcastss 0x1fdcf1(%rip), %ymm0 # 0x1eeba20 vblendmps 0x360(%rsp), %ymm0, %ymm0 {%k1} vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm0, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1] vminps %ymm2, %ymm1, %ymm1 vcmpeqps %ymm1, %ymm0, %k0 kmovd %k0, %eax andb %bl, %al movzbl %al, %eax movzbl %bl, %ecx cmovnel %eax, %ecx tzcntl %ecx, %ecx movb $0x1, %bl shlb %cl, %bl shll $0x2, %ecx vmovss 0x460(%rsp,%rcx), %xmm8 vmovss 0x780(%rsp,%rcx), %xmm9 vmovaps 0x250(%rsp), %xmm0 vucomiss 0x1fdc8d(%rip), %xmm0 # 0x1eeba24 vmovss 0x118(%rsp), %xmm0 jae 0x1cedde9 vmovaps 0x250(%rsp), %xmm0 vmovaps %xmm8, 0xc0(%rsp) vmovaps %xmm9, 0xa0(%rsp) kmovw %k1, 0x80(%rsp) vzeroupper callq 0x6aa20 kmovw 0x80(%rsp), %k1 vmovaps 0xa0(%rsp), %xmm9 vmovaps 0xc0(%rsp), %xmm8 movzbl %bl, %eax kmovd %eax, %k0 kandnb %k1, %k0, %k0 kmovd %k0, %ebx vmulss 0x2040b4(%rip), %xmm0, %xmm0 # 0x1ef1eb4 vmovss %xmm0, 0x68(%rsp) movl $0x4, %r14d vbroadcastss %xmm9, %xmm0 vxorps %xmm1, %xmm1, %xmm1 vfmadd132ps 0x260(%rsp), %xmm1, %xmm0 # xmm0 = (xmm0 * mem) + xmm1 vmovss 0x1fe8ed(%rip), %xmm1 # 0x1eec714 vsubss %xmm8, %xmm1, %xmm3 vbroadcastss %xmm8, %xmm1 vmovaps 0x300(%rsp), %ymm5 vmulps %xmm1, %xmm5, %xmm2 vmovaps %xmm3, 0x2d0(%rsp) vbroadcastss %xmm3, %xmm3 vfmadd231ps 0x340(%rsp), %xmm3, %xmm2 # xmm2 = (xmm3 * mem) + xmm2 vmovaps 0x320(%rsp), %ymm6 vmulps %xmm1, %xmm6, %xmm4 vfmadd231ps %xmm5, %xmm3, %xmm4 # xmm4 = (xmm3 * xmm5) + xmm4 vmulps 0x2e0(%rsp), %xmm1, %xmm5 vfmadd231ps %xmm6, %xmm3, %xmm5 # xmm5 = (xmm3 * xmm6) + xmm5 vmulps %xmm4, %xmm1, %xmm6 vfmadd231ps %xmm2, %xmm3, %xmm6 # xmm6 = (xmm3 * xmm2) + xmm6 vmulps %xmm5, %xmm1, %xmm2 vfmadd231ps %xmm4, %xmm3, %xmm2 # xmm2 = (xmm3 * xmm4) + xmm2 vmulps %xmm2, %xmm1, %xmm4 vfmadd231ps %xmm3, %xmm6, %xmm4 # xmm4 = (xmm6 * xmm3) + xmm4 vsubps %xmm6, %xmm2, %xmm1 vmulps 0x20314d(%rip){1to4}, %xmm1, %xmm10 # 0x1ef0fec vmovaps %xmm4, 0x3a0(%rsp) vsubps %xmm4, %xmm0, %xmm0 vmovaps %xmm0, 0x220(%rsp) vdpps $0x7f, %xmm0, %xmm0, %xmm0 vucomiss 0x1fdb61(%rip), %xmm0 # 0x1eeba24 vmovaps %xmm10, 0x80(%rsp) vmovaps %xmm0, 0x200(%rsp) vmovaps %xmm8, 0xc0(%rsp) vmovaps %xmm9, 0xa0(%rsp) jb 0x1cedeef vsqrtss %xmm0, %xmm0, %xmm7 jmp 0x1cedf04 vzeroupper callq 0x6aa20 vmovaps 0x80(%rsp), %xmm10 vmovaps %xmm0, %xmm7 vdpps $0x7f, %xmm10, %xmm10, %xmm0 vxorps %xmm1, %xmm1, %xmm1 vmovss %xmm0, %xmm1, %xmm2 # xmm2 = xmm0[0],xmm1[1,2,3] vrsqrt14ss %xmm2, %xmm1, %xmm3 vmulss 0x1fe7f8(%rip), %xmm3, %xmm4 # 0x1eec718 vmulss 0x1fe7f4(%rip), %xmm0, %xmm5 # 0x1eec71c vrcp14ss %xmm2, %xmm1, %xmm2 vxorps 0x232f88(%rip){1to4}, %xmm0, %xmm1 # 0x1f20ec0 vmovaps %xmm2, 0x2b0(%rsp) vfnmadd213ss 0x2030ae(%rip), %xmm0, %xmm2 # xmm2 = -(xmm0 * xmm2) + mem vmovss %xmm2, 0x6c(%rsp) vucomiss %xmm1, %xmm0 vmovss %xmm7, 0x44(%rsp) vmovaps %xmm0, 0x2c0(%rsp) jb 0x1cedf6d vsqrtss %xmm0, %xmm0, %xmm16 jmp 0x1cedfba vmovaps %xmm3, 0xf0(%rsp) vmovss %xmm4, 0x40(%rsp) vmovss %xmm5, 0xe0(%rsp) vzeroupper callq 0x6aa20 vmovss 0xe0(%rsp), %xmm5 vmovss 0x40(%rsp), %xmm4 vmovaps 0xf0(%rsp), %xmm3 vmovss 0x44(%rsp), %xmm7 vmovaps 0x80(%rsp), %xmm10 vmovaps %xmm0, %xmm16 vmovaps 0x220(%rsp), %xmm12 vmovaps 0x200(%rsp), %xmm19 vmulss %xmm3, %xmm5, %xmm0 vmulss %xmm3, %xmm3, %xmm1 vmulss %xmm1, %xmm0, %xmm0 vaddss %xmm0, %xmm4, %xmm0 vbroadcastss %xmm0, %xmm6 vmulps %xmm6, %xmm10, %xmm0 vmovaps %xmm0, 0xf0(%rsp) vdpps $0x7f, %xmm0, %xmm12, %xmm15 vaddss 0x1fe719(%rip), %xmm7, %xmm14 # 0x1eec714 vmulps %xmm15, %xmm15, %xmm0 vsubps %xmm0, %xmm19, %xmm0 vxorps %xmm2, %xmm2, %xmm2 vmovss %xmm0, %xmm2, %xmm1 # xmm1 = xmm0[0],xmm2[1,2,3] vrsqrt14ss %xmm1, %xmm2, %xmm18 vmulss 0x1fe6fa(%rip), %xmm18, %xmm17 # 0x1eec718 vmulss 0x1fe6f4(%rip), %xmm0, %xmm20 # 0x1eec71c vucomiss 0x1fd9f4(%rip), %xmm0 # 0x1eeba24 jb 0x1cee03b vsqrtss %xmm0, %xmm0, %xmm0 jmp 0x1cee0d3 vmovss %xmm14, 0x40(%rsp) vmovaps %xmm15, 0xe0(%rsp) vmovss %xmm16, 0x60(%rsp) vmovss %xmm17, 0x5c(%rsp) vmovaps %xmm18, 0x2a0(%rsp) vmovss %xmm20, 0x58(%rsp) vmovaps %xmm6, 0x290(%rsp) vzeroupper callq 0x6aa20 vmovaps 0x290(%rsp), %xmm6 vmovss 0x58(%rsp), %xmm20 vmovaps 0x2a0(%rsp), %xmm18 vmovss 0x5c(%rsp), %xmm17 vmovss 0x60(%rsp), %xmm16 vmovaps 0xe0(%rsp), %xmm15 vmovss 0x44(%rsp), %xmm7 vmovss 0x40(%rsp), %xmm14 vmovaps 0x200(%rsp), %xmm19 vmovaps 0x220(%rsp), %xmm12 vmovaps 0x80(%rsp), %xmm10 vbroadcastss 0x232de8(%rip), %xmm11 # 0x1f20ec4 vmovaps 0x140(%rsp), %ymm26 vmovaps 0x120(%rsp), %ymm30 vmovaps 0x1e0(%rsp), %ymm21 vmovaps 0xc0(%rsp), %xmm8 vmovaps 0xa0(%rsp), %xmm9 vmovss 0x2028ce(%rip), %xmm3 # 0x1ef09dc vmovaps %xmm3, %xmm1 vmovaps 0x2d0(%rsp), %xmm5 vfmadd213ss %xmm5, %xmm8, %xmm1 # xmm1 = (xmm8 * xmm1) + xmm5 vmovss 0x202ecc(%rip), %xmm4 # 0x1ef0ff4 vmulss %xmm4, %xmm1, %xmm1 vmulss %xmm4, %xmm8, %xmm2 vbroadcastss %xmm2, %xmm2 vmulps 0x2e0(%rsp), %xmm2, %xmm2 vbroadcastss %xmm1, %xmm1 vfmadd132ps 0x320(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2 vmovaps %xmm3, %xmm2 vfmadd213ss %xmm8, %xmm5, %xmm2 # xmm2 = (xmm5 * xmm2) + xmm8 vmulss %xmm4, %xmm2, %xmm2 vbroadcastss %xmm2, %xmm2 vfmadd132ps 0x300(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1 vmulss %xmm4, %xmm5, %xmm1 vbroadcastss %xmm1, %xmm1 vfmadd132ps 0x340(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2 vbroadcastss 0x2c0(%rsp), %xmm2 vmulps %xmm2, %xmm1, %xmm2 vdpps $0x7f, %xmm1, %xmm10, %xmm1 vbroadcastss %xmm1, %xmm1 vmulps %xmm1, %xmm10, %xmm1 vsubps %xmm1, %xmm2, %xmm1 vmovss 0x6c(%rsp), %xmm2 vmulss 0x2b0(%rsp), %xmm2, %xmm2 vmulss 0x68(%rsp), %xmm9, %xmm3 vbroadcastss %xmm2, %xmm2 vmulps %xmm2, %xmm1, %xmm1 vxorps 0x232cfb(%rip){1to4}, %xmm10, %xmm2 # 0x1f20ec0 vmulps %xmm1, %xmm6, %xmm4 vmovaps 0xf0(%rsp), %xmm13 vdpps $0x7f, %xmm13, %xmm2, %xmm5 vmovss 0x64(%rsp), %xmm6 vmaxss %xmm3, %xmm6, %xmm1 vdivss %xmm16, %xmm6, %xmm3 vdpps $0x7f, %xmm4, %xmm12, %xmm4 vfmadd213ss %xmm1, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm7) + xmm1 vfmadd213ss %xmm7, %xmm3, %xmm14 # xmm14 = (xmm3 * xmm14) + xmm7 vmovaps 0x260(%rsp), %xmm7 vdpps $0x7f, %xmm13, %xmm7, %xmm3 vaddss %xmm4, %xmm5, %xmm4 vdpps $0x7f, %xmm2, %xmm12, %xmm5 vmulss %xmm18, %xmm20, %xmm2 vmulss %xmm18, %xmm18, %xmm6 vmulss %xmm6, %xmm2, %xmm2 vdpps $0x7f, %xmm7, %xmm12, %xmm6 vaddss %xmm2, %xmm17, %xmm7 vfnmadd231ss %xmm4, %xmm15, %xmm5 # xmm5 = -(xmm15 * xmm4) + xmm5 vfnmadd231ss %xmm3, %xmm15, %xmm6 # xmm6 = -(xmm15 * xmm3) + xmm6 vpermilps $0xff, 0x3a0(%rsp), %xmm2 # xmm2 = mem[3,3,3,3] vsubss %xmm2, %xmm0, %xmm2 vshufps $0xff, %xmm10, %xmm10, %xmm0 # xmm0 = xmm10[3,3,3,3] vfmsub213ss %xmm0, %xmm7, %xmm5 # xmm5 = (xmm7 * xmm5) - xmm0 vmulss %xmm7, %xmm6, %xmm6 vmulss %xmm5, %xmm3, %xmm7 vfmsub231ss %xmm6, %xmm4, %xmm7 # xmm7 = (xmm4 * xmm6) - xmm7 vdivss %xmm7, %xmm6, %xmm6 vdivss %xmm7, %xmm5, %xmm5 vdivss %xmm7, %xmm3, %xmm3 vdivss %xmm7, %xmm4, %xmm4 vmulss %xmm6, %xmm15, %xmm6 vmulss %xmm3, %xmm2, %xmm3 vsubss %xmm3, %xmm6, %xmm3 vmulss %xmm5, %xmm15, %xmm5 vmulss %xmm4, %xmm2, %xmm4 vsubss %xmm5, %xmm4, %xmm4 vsubss %xmm3, %xmm8, %xmm8 vsubss %xmm4, %xmm9, %xmm9 vandps %xmm11, %xmm15, %xmm3 vucomiss %xmm3, %xmm14 jbe 0x1cee44d vaddss %xmm1, %xmm14, %xmm1 vmovaps 0x270(%rsp), %xmm3 vfmadd231ss 0x203c01(%rip), %xmm3, %xmm1 # xmm1 = (xmm3 * mem) + xmm1 vandps %xmm2, %xmm11, %xmm2 vucomiss %xmm2, %xmm1 jbe 0x1cee44d vaddss 0x280(%rsp), %xmm9, %xmm9 movb $0x1, %r13b vucomiss 0x7c(%rsp), %xmm9 jb 0x1cee450 movq 0x38(%rsp), %rax vmovss 0x200(%r12,%rax,4), %xmm4 vucomiss %xmm9, %xmm4 jb 0x1cee450 vucomiss 0x1fd729(%rip), %xmm8 # 0x1eeba24 jb 0x1cee450 vmovss 0x1fe40b(%rip), %xmm1 # 0x1eec714 vucomiss %xmm8, %xmm1 jb 0x1cee450 vxorps %xmm2, %xmm2, %xmm2 vmovss %xmm19, %xmm2, %xmm1 # xmm1 = xmm19[0],xmm2[1,2,3] vrsqrt14ss %xmm1, %xmm2, %xmm1 vmulss 0x1fe3ec(%rip), %xmm1, %xmm2 # 0x1eec718 vmulss 0x1fe3e6(%rip), %xmm19, %xmm3 # 0x1eec71c movq (%r15), %rax movq 0x1e8(%rax), %rax movq %r15, %rcx movq 0x70(%rsp), %rdx movq (%rax,%rdx,8), %r15 movq 0x38(%rsp), %rax movl 0x240(%r12,%rax,4), %eax testl %eax, 0x34(%r15) je 0x1cee46d vmulss %xmm1, %xmm3, %xmm3 vmulss %xmm1, %xmm1, %xmm1 vmulss %xmm1, %xmm3, %xmm1 vaddss %xmm1, %xmm2, %xmm1 vbroadcastss %xmm1, %xmm1 vmulps %xmm1, %xmm12, %xmm1 vfmadd213ps %xmm10, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm0) + xmm10 vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3] vshufps $0xc9, %xmm10, %xmm10, %xmm3 # xmm3 = xmm10[1,2,0,3] vmulps %xmm3, %xmm1, %xmm1 vfmsub231ps %xmm2, %xmm10, %xmm1 # xmm1 = (xmm10 * xmm2) - xmm1 vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3] vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3] vshufps $0xd2, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,0,1,3] vmulps %xmm1, %xmm0, %xmm0 vfmsub231ps %xmm3, %xmm2, %xmm0 # xmm0 = (xmm2 * xmm3) - xmm0 movq 0x10(%rcx), %rax cmpq $0x0, 0x10(%rax) jne 0x1cee472 cmpq $0x0, 0x40(%r15) jne 0x1cee472 movq 0x38(%rsp), %rcx vmovss %xmm9, 0x200(%r12,%rcx,4) vextractps $0x1, %xmm0, 0x300(%r12,%rcx,4) vextractps $0x2, %xmm0, 0x340(%r12,%rcx,4) vmovss %xmm0, 0x380(%r12,%rcx,4) vmovss %xmm8, 0x3c0(%r12,%rcx,4) movl $0x0, 0x400(%r12,%rcx,4) movq 0x100(%rsp), %rax movl %eax, 0x440(%r12,%rcx,4) movq 0x70(%rsp), %rax movl %eax, 0x480(%r12,%rcx,4) movq 0x48(%rsp), %r15 movq 0x8(%r15), %rax movl (%rax), %eax movl %eax, 0x4c0(%r12,%rcx,4) movq 0x8(%r15), %rax movl 0x4(%rax), %eax movl %eax, 0x500(%r12,%rcx,4) jmp 0x1cee450 xorl %r13d, %r13d subq $0x1, %r14 setb %al testb %r13b, %r13b jne 0x1cee745 testb %al, %al je 0x1cede0c jmp 0x1cee745 movq %rcx, %r15 jmp 0x1cee450 movq 0x48(%rsp), %rcx movq 0x8(%rcx), %rax vbroadcastss %xmm8, %zmm1 vbroadcastss 0x224279(%rip), %zmm2 # 0x1f12704 vpermps %zmm0, %zmm2, %zmm2 vbroadcastss 0x232a41(%rip), %zmm3 # 0x1f20edc vpermps %zmm0, %zmm3, %zmm3 vbroadcastss %xmm0, %zmm0 vmovaps %zmm2, 0x880(%rsp) vmovaps %zmm3, 0x8c0(%rsp) vmovaps %zmm0, 0x900(%rsp) vmovaps %zmm1, 0x940(%rsp) vxorps %xmm0, %xmm0, %xmm0 vmovaps %zmm0, 0x980(%rsp) vmovaps 0x800(%rsp), %zmm0 vmovaps %zmm0, 0x9c0(%rsp) vmovdqa64 0x840(%rsp), %zmm0 vmovdqa64 %zmm0, 0xa00(%rsp) movq 0x1b8(%rsp), %rdx vpcmpeqd %ymm0, %ymm0, %ymm0 vmovdqa %ymm0, 0x60(%rdx) vmovdqa %ymm0, 0x40(%rdx) vmovdqa %ymm0, 0x20(%rdx) vmovdqa %ymm0, (%rdx) vbroadcastss (%rax), %zmm0 vmovaps %zmm0, 0xa40(%rsp) vbroadcastss 0x4(%rax), %zmm0 vmovaps %zmm0, 0xa80(%rsp) movq 0x38(%rsp), %rax vmovss %xmm9, 0x200(%r12,%rax,4) vmovaps 0x7c0(%rsp), %zmm0 vmovaps %zmm0, 0x3c0(%rsp) leaq 0x3c0(%rsp), %rax movq %rax, 0x170(%rsp) movq 0x18(%r15), %rax movq %rax, 0x178(%rsp) movq 0x8(%rcx), %rax movq %rax, 0x180(%rsp) movq %r12, 0x188(%rsp) leaq 0x880(%rsp), %rax movq %rax, 0x190(%rsp) movl $0x10, 0x198(%rsp) movq 0x40(%r15), %rax testq %rax, %rax vmovaps %xmm8, 0xc0(%rsp) vmovaps %xmm9, 0xa0(%rsp) vmovss %xmm4, 0x80(%rsp) je 0x1cee606 leaq 0x170(%rsp), %rdi vzeroupper callq *%rax vmovss 0x80(%rsp), %xmm4 vmovaps 0xa0(%rsp), %xmm9 vmovaps 0xc0(%rsp), %xmm8 vmovaps 0x1e0(%rsp), %ymm21 vmovaps 0x120(%rsp), %ymm30 vmovaps 0x140(%rsp), %ymm26 vbroadcastss 0x2328be(%rip), %xmm11 # 0x1f20ec4 vmovdqa64 0x3c0(%rsp), %zmm0 vptestmd %zmm0, %zmm0, %k0 kortestw %k0, %k0 je 0x1cee72c movq 0x48(%rsp), %rax movq 0x10(%rax), %rcx movq 0x10(%rcx), %rax testq %rax, %rax je 0x1cee685 testb $0x2, (%rcx) jne 0x1cee63c testb $0x40, 0x3e(%r15) je 0x1cee685 leaq 0x170(%rsp), %rdi vzeroupper callq *%rax vmovss 0x80(%rsp), %xmm4 vmovaps 0xa0(%rsp), %xmm9 vmovaps 0xc0(%rsp), %xmm8 vmovaps 0x1e0(%rsp), %ymm21 vmovaps 0x120(%rsp), %ymm30 vmovaps 0x140(%rsp), %ymm26 vbroadcastss 0x23283f(%rip), %xmm11 # 0x1f20ec4 vmovdqa64 0x3c0(%rsp), %zmm0 vptestmd %zmm0, %zmm0, %k1 kortestw %k1, %k1 je 0x1cee72c movq 0x188(%rsp), %rax movq 0x190(%rsp), %rcx vmovaps (%rcx), %zmm0 vmovups %zmm0, 0x300(%rax) {%k1} vmovaps 0x40(%rcx), %zmm0 vmovups %zmm0, 0x340(%rax) {%k1} vmovaps 0x80(%rcx), %zmm0 vmovups %zmm0, 0x380(%rax) {%k1} vmovaps 0xc0(%rcx), %zmm0 vmovups %zmm0, 0x3c0(%rax) {%k1} vmovaps 0x100(%rcx), %zmm0 vmovups %zmm0, 0x400(%rax) {%k1} vmovdqa64 0x140(%rcx), %zmm0 vmovdqu32 %zmm0, 0x440(%rax) {%k1} vmovdqa64 0x180(%rcx), %zmm0 vmovdqu32 %zmm0, 0x480(%rax) {%k1} vmovdqa64 0x1c0(%rcx), %zmm0 vmovdqa32 %zmm0, 0x4c0(%rax) {%k1} vmovdqa64 0x200(%rcx), %zmm0 vmovdqa32 %zmm0, 0x500(%rax) {%k1} jmp 0x1cee73b movq 0x38(%rsp), %rax vmovss %xmm4, 0x200(%r12,%rax,4) movq 0x48(%rsp), %r15 jmp 0x1cee450 movq 0x38(%rsp), %rax vmovaps 0x420(%rsp), %ymm0 vcmpleps 0x200(%r12,%rax,4){1to8}, %ymm0, %k0 kmovd %k0, %eax andb %al, %bl jne 0x1cedd22 vmovaps 0x400(%rsp), %ymm0 vaddps 0x380(%rsp), %ymm0, %ymm0 movq 0x38(%rsp), %rax vcmpleps 0x200(%r12,%rax,4){1to8}, %ymm0, %k0 kmovd 0x114(%rsp), %k1 kmovd 0x10c(%rsp), %k2 korb %k2, %k1, %k1 kmovd %k0, %eax movl 0x54(%rsp), %ecx andb %al, %cl vpbroadcastd 0x232723(%rip), %ymm0 # 0x1f20edc vpblendmd 0x232715(%rip){1to8}, %ymm0, %ymm0 {%k1} # 0x1f20ed8 vmovdqa %ymm0, 0x400(%rsp) vpcmpled 0x480(%rsp), %ymm0, %k0 kmovd %k0, %ebx movl %ecx, 0x54(%rsp) andb %cl, %bl je 0x1cef2b5 vmovaps 0x4c0(%rsp), %ymm5 vmovaps 0x340(%rsp), %ymm1 vmovaps 0x300(%rsp), %ymm2 vminps %xmm2, %xmm1, %xmm0 vmaxps %xmm2, %xmm1, %xmm1 vmovaps 0x320(%rsp), %ymm3 vmovaps 0x2e0(%rsp), %ymm4 vminps %xmm4, %xmm3, %xmm2 vminps %xmm2, %xmm0, %xmm0 vmaxps %xmm4, %xmm3, %xmm2 vmaxps %xmm2, %xmm1, %xmm1 vandps %xmm0, %xmm11, %xmm0 vandps %xmm1, %xmm11, %xmm2 vmaxps %xmm2, %xmm0, %xmm0 vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3] vmaxss %xmm0, %xmm2, %xmm2 vshufpd $0x1, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[1,0] vmaxss %xmm2, %xmm0, %xmm0 vmulss 0x203665(%rip), %xmm0, %xmm0 # 0x1ef1eb4 vmovss %xmm0, 0x64(%rsp) vshufps $0xff, %xmm1, %xmm1, %xmm0 # xmm0 = xmm1[3,3,3,3] vmovaps %xmm0, 0x270(%rsp) vmovaps %ymm5, 0x360(%rsp) vaddps 0x380(%rsp), %ymm5, %ymm0 vmovaps %ymm0, 0x420(%rsp) kmovd %ebx, %k1 vbroadcastss 0x1fd195(%rip), %ymm0 # 0x1eeba20 vblendmps 0x360(%rsp), %ymm0, %ymm0 {%k1} vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm0, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1] vminps %ymm2, %ymm1, %ymm1 vcmpeqps %ymm1, %ymm0, %k0 kmovd %k0, %eax andb %bl, %al movzbl %al, %eax movzbl %bl, %ecx cmovnel %eax, %ecx tzcntl %ecx, %ecx movb $0x1, %bl shlb %cl, %bl shll $0x2, %ecx vmovss 0x440(%rsp,%rcx), %xmm9 vmovss 0x4e0(%rsp,%rcx), %xmm10 vmovaps 0x250(%rsp), %xmm0 vucomiss 0x1fd131(%rip), %xmm0 # 0x1eeba24 vmovss 0x11c(%rsp), %xmm0 jae 0x1cee945 vmovaps 0x250(%rsp), %xmm0 vmovaps %xmm9, 0xc0(%rsp) vmovaps %xmm10, 0xa0(%rsp) kmovw %k1, 0x80(%rsp) vzeroupper callq 0x6aa20 kmovw 0x80(%rsp), %k1 vmovaps 0xa0(%rsp), %xmm10 vmovaps 0xc0(%rsp), %xmm9 movzbl %bl, %eax kmovd %eax, %k0 kandnb %k1, %k0, %k0 kmovd %k0, %ebx vmulss 0x203558(%rip), %xmm0, %xmm0 # 0x1ef1eb4 vmovss %xmm0, 0x68(%rsp) movl $0x4, %r14d vbroadcastss %xmm10, %xmm0 vxorps %xmm1, %xmm1, %xmm1 vfmadd132ps 0x260(%rsp), %xmm1, %xmm0 # xmm0 = (xmm0 * mem) + xmm1 vmovss 0x1fdd91(%rip), %xmm1 # 0x1eec714 vsubss %xmm9, %xmm1, %xmm3 vbroadcastss %xmm9, %xmm1 vmovaps 0x300(%rsp), %ymm5 vmulps %xmm1, %xmm5, %xmm2 vmovaps %xmm3, 0x2d0(%rsp) vbroadcastss %xmm3, %xmm3 vfmadd231ps 0x340(%rsp), %xmm3, %xmm2 # xmm2 = (xmm3 * mem) + xmm2 vmovaps 0x320(%rsp), %ymm6 vmulps %xmm1, %xmm6, %xmm4 vfmadd231ps %xmm5, %xmm3, %xmm4 # xmm4 = (xmm3 * xmm5) + xmm4 vmulps 0x2e0(%rsp), %xmm1, %xmm5 vfmadd231ps %xmm6, %xmm3, %xmm5 # xmm5 = (xmm3 * xmm6) + xmm5 vmulps %xmm4, %xmm1, %xmm6 vfmadd231ps %xmm2, %xmm3, %xmm6 # xmm6 = (xmm3 * xmm2) + xmm6 vmulps %xmm5, %xmm1, %xmm2 vfmadd231ps %xmm4, %xmm3, %xmm2 # xmm2 = (xmm3 * xmm4) + xmm2 vmulps %xmm2, %xmm1, %xmm4 vfmadd231ps %xmm3, %xmm6, %xmm4 # xmm4 = (xmm6 * xmm3) + xmm4 vsubps %xmm6, %xmm2, %xmm1 vmulps 0x2025f1(%rip){1to4}, %xmm1, %xmm11 # 0x1ef0fec vmovaps %xmm4, 0x3a0(%rsp) vsubps %xmm4, %xmm0, %xmm0 vmovaps %xmm0, 0x220(%rsp) vdpps $0x7f, %xmm0, %xmm0, %xmm0 vucomiss 0x1fd005(%rip), %xmm0 # 0x1eeba24 vmovaps %xmm11, 0x80(%rsp) vmovaps %xmm0, 0x200(%rsp) vmovaps %xmm9, 0xc0(%rsp) vmovaps %xmm10, 0xa0(%rsp) jb 0x1ceea4b vsqrtss %xmm0, %xmm0, %xmm7 jmp 0x1ceea60 vzeroupper callq 0x6aa20 vmovaps 0x80(%rsp), %xmm11 vmovaps %xmm0, %xmm7 vdpps $0x7f, %xmm11, %xmm11, %xmm0 vxorps %xmm1, %xmm1, %xmm1 vmovss %xmm0, %xmm1, %xmm2 # xmm2 = xmm0[0],xmm1[1,2,3] vrsqrt14ss %xmm2, %xmm1, %xmm3 vmulss 0x1fdc9c(%rip), %xmm3, %xmm4 # 0x1eec718 vmulss 0x1fdc98(%rip), %xmm0, %xmm5 # 0x1eec71c vrcp14ss %xmm2, %xmm1, %xmm2 vxorps 0x23242c(%rip){1to4}, %xmm0, %xmm1 # 0x1f20ec0 vmovaps %xmm2, 0x2b0(%rsp) vfnmadd213ss 0x202552(%rip), %xmm0, %xmm2 # xmm2 = -(xmm0 * xmm2) + mem vmovss %xmm2, 0x6c(%rsp) vucomiss %xmm1, %xmm0 vmovss %xmm7, 0x44(%rsp) vmovaps %xmm0, 0x2c0(%rsp) jb 0x1ceeac9 vsqrtss %xmm0, %xmm0, %xmm16 jmp 0x1ceeb16 vmovaps %xmm3, 0xf0(%rsp) vmovss %xmm4, 0x40(%rsp) vmovss %xmm5, 0xe0(%rsp) vzeroupper callq 0x6aa20 vmovss 0xe0(%rsp), %xmm5 vmovss 0x40(%rsp), %xmm4 vmovaps 0xf0(%rsp), %xmm3 vmovss 0x44(%rsp), %xmm7 vmovaps 0x80(%rsp), %xmm11 vmovaps %xmm0, %xmm16 vmovaps 0x220(%rsp), %xmm12 vmovaps 0x200(%rsp), %xmm19 vmulss %xmm3, %xmm5, %xmm0 vmulss %xmm3, %xmm3, %xmm1 vmulss %xmm1, %xmm0, %xmm0 vaddss %xmm0, %xmm4, %xmm0 vbroadcastss %xmm0, %xmm6 vmulps %xmm6, %xmm11, %xmm0 vmovaps %xmm0, 0xf0(%rsp) vdpps $0x7f, %xmm0, %xmm12, %xmm15 vaddss 0x1fdbbd(%rip), %xmm7, %xmm14 # 0x1eec714 vmulps %xmm15, %xmm15, %xmm0 vsubps %xmm0, %xmm19, %xmm0 vxorps %xmm2, %xmm2, %xmm2 vmovss %xmm0, %xmm2, %xmm1 # xmm1 = xmm0[0],xmm2[1,2,3] vrsqrt14ss %xmm1, %xmm2, %xmm18 vmulss 0x1fdb9e(%rip), %xmm18, %xmm17 # 0x1eec718 vmulss 0x1fdb98(%rip), %xmm0, %xmm20 # 0x1eec71c vucomiss 0x1fce98(%rip), %xmm0 # 0x1eeba24 jb 0x1ceeb97 vsqrtss %xmm0, %xmm0, %xmm0 jmp 0x1ceec2f vmovss %xmm14, 0x40(%rsp) vmovaps %xmm15, 0xe0(%rsp) vmovss %xmm16, 0x60(%rsp) vmovss %xmm17, 0x5c(%rsp) vmovaps %xmm18, 0x2a0(%rsp) vmovss %xmm20, 0x58(%rsp) vmovaps %xmm6, 0x290(%rsp) vzeroupper callq 0x6aa20 vmovaps 0x290(%rsp), %xmm6 vmovss 0x58(%rsp), %xmm20 vmovaps 0x2a0(%rsp), %xmm18 vmovss 0x5c(%rsp), %xmm17 vmovss 0x60(%rsp), %xmm16 vmovaps 0xe0(%rsp), %xmm15 vmovss 0x44(%rsp), %xmm7 vmovss 0x40(%rsp), %xmm14 vmovaps 0x200(%rsp), %xmm19 vmovaps 0x220(%rsp), %xmm12 vmovaps 0x80(%rsp), %xmm11 vbroadcastss 0x23228c(%rip), %xmm8 # 0x1f20ec4 vmovaps 0x140(%rsp), %ymm26 vmovaps 0x120(%rsp), %ymm30 vmovaps 0x1e0(%rsp), %ymm21 vmovaps 0xc0(%rsp), %xmm9 vmovaps 0xa0(%rsp), %xmm10 vmovss 0x201d72(%rip), %xmm3 # 0x1ef09dc vmovaps %xmm3, %xmm1 vmovaps 0x2d0(%rsp), %xmm5 vfmadd213ss %xmm5, %xmm9, %xmm1 # xmm1 = (xmm9 * xmm1) + xmm5 vmovss 0x202370(%rip), %xmm4 # 0x1ef0ff4 vmulss %xmm4, %xmm1, %xmm1 vmulss %xmm4, %xmm9, %xmm2 vbroadcastss %xmm2, %xmm2 vmulps 0x2e0(%rsp), %xmm2, %xmm2 vbroadcastss %xmm1, %xmm1 vfmadd132ps 0x320(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2 vmovaps %xmm3, %xmm2 vfmadd213ss %xmm9, %xmm5, %xmm2 # xmm2 = (xmm5 * xmm2) + xmm9 vmulss %xmm4, %xmm2, %xmm2 vbroadcastss %xmm2, %xmm2 vfmadd132ps 0x300(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1 vmulss %xmm4, %xmm5, %xmm1 vbroadcastss %xmm1, %xmm1 vfmadd132ps 0x340(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2 vbroadcastss 0x2c0(%rsp), %xmm2 vmulps %xmm2, %xmm1, %xmm2 vdpps $0x7f, %xmm1, %xmm11, %xmm1 vbroadcastss %xmm1, %xmm1 vmulps %xmm1, %xmm11, %xmm1 vsubps %xmm1, %xmm2, %xmm1 vmovss 0x6c(%rsp), %xmm2 vmulss 0x2b0(%rsp), %xmm2, %xmm2 vmulss 0x68(%rsp), %xmm10, %xmm3 vbroadcastss %xmm2, %xmm2 vmulps %xmm2, %xmm1, %xmm1 vxorps 0x23219f(%rip){1to4}, %xmm11, %xmm2 # 0x1f20ec0 vmulps %xmm1, %xmm6, %xmm4 vmovaps 0xf0(%rsp), %xmm13 vdpps $0x7f, %xmm13, %xmm2, %xmm5 vmovss 0x64(%rsp), %xmm6 vmaxss %xmm3, %xmm6, %xmm1 vdivss %xmm16, %xmm6, %xmm3 vdpps $0x7f, %xmm4, %xmm12, %xmm4 vfmadd213ss %xmm1, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm7) + xmm1 vfmadd213ss %xmm7, %xmm3, %xmm14 # xmm14 = (xmm3 * xmm14) + xmm7 vmovaps 0x260(%rsp), %xmm7 vdpps $0x7f, %xmm13, %xmm7, %xmm3 vaddss %xmm4, %xmm5, %xmm4 vdpps $0x7f, %xmm2, %xmm12, %xmm5 vmulss %xmm18, %xmm20, %xmm2 vmulss %xmm18, %xmm18, %xmm6 vmulss %xmm6, %xmm2, %xmm2 vdpps $0x7f, %xmm7, %xmm12, %xmm6 vaddss %xmm2, %xmm17, %xmm7 vfnmadd231ss %xmm4, %xmm15, %xmm5 # xmm5 = -(xmm15 * xmm4) + xmm5 vfnmadd231ss %xmm3, %xmm15, %xmm6 # xmm6 = -(xmm15 * xmm3) + xmm6 vpermilps $0xff, 0x3a0(%rsp), %xmm2 # xmm2 = mem[3,3,3,3] vsubss %xmm2, %xmm0, %xmm2 vshufps $0xff, %xmm11, %xmm11, %xmm0 # xmm0 = xmm11[3,3,3,3] vfmsub213ss %xmm0, %xmm7, %xmm5 # xmm5 = (xmm7 * xmm5) - xmm0 vmulss %xmm7, %xmm6, %xmm6 vmulss %xmm5, %xmm3, %xmm7 vfmsub231ss %xmm6, %xmm4, %xmm7 # xmm7 = (xmm4 * xmm6) - xmm7 vdivss %xmm7, %xmm6, %xmm6 vdivss %xmm7, %xmm5, %xmm5 vdivss %xmm7, %xmm3, %xmm3 vdivss %xmm7, %xmm4, %xmm4 vmulss %xmm6, %xmm15, %xmm6 vmulss %xmm3, %xmm2, %xmm3 vsubss %xmm3, %xmm6, %xmm3 vmulss %xmm5, %xmm15, %xmm5 vmulss %xmm4, %xmm2, %xmm4 vsubss %xmm5, %xmm4, %xmm4 vsubss %xmm3, %xmm9, %xmm9 vsubss %xmm4, %xmm10, %xmm10 vandps %xmm8, %xmm15, %xmm3 vucomiss %xmm3, %xmm14 jbe 0x1ceefa9 vaddss %xmm1, %xmm14, %xmm1 vmovaps 0x270(%rsp), %xmm3 vfmadd231ss 0x2030a5(%rip), %xmm3, %xmm1 # xmm1 = (xmm3 * mem) + xmm1 vandps %xmm2, %xmm8, %xmm2 vucomiss %xmm2, %xmm1 jbe 0x1ceefa9 vaddss 0x280(%rsp), %xmm10, %xmm10 movb $0x1, %r13b vucomiss 0x7c(%rsp), %xmm10 jb 0x1ceefac movq 0x38(%rsp), %rax vmovss 0x200(%r12,%rax,4), %xmm4 vucomiss %xmm10, %xmm4 jb 0x1ceefac vucomiss 0x1fcbcd(%rip), %xmm9 # 0x1eeba24 jb 0x1ceefac vmovss 0x1fd8af(%rip), %xmm1 # 0x1eec714 vucomiss %xmm9, %xmm1 jb 0x1ceefac vxorps %xmm2, %xmm2, %xmm2 vmovss %xmm19, %xmm2, %xmm1 # xmm1 = xmm19[0],xmm2[1,2,3] vrsqrt14ss %xmm1, %xmm2, %xmm1 vmulss 0x1fd890(%rip), %xmm1, %xmm2 # 0x1eec718 vmulss 0x1fd88a(%rip), %xmm19, %xmm3 # 0x1eec71c movq (%r15), %rax movq 0x1e8(%rax), %rax movq %r15, %rcx movq 0x70(%rsp), %rdx movq (%rax,%rdx,8), %r15 movq 0x38(%rsp), %rax movl 0x240(%r12,%rax,4), %eax testl %eax, 0x34(%r15) je 0x1ceefc9 vmulss %xmm1, %xmm3, %xmm3 vmulss %xmm1, %xmm1, %xmm1 vmulss %xmm1, %xmm3, %xmm1 vaddss %xmm1, %xmm2, %xmm1 vbroadcastss %xmm1, %xmm1 vmulps %xmm1, %xmm12, %xmm1 vfmadd213ps %xmm11, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm0) + xmm11 vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3] vshufps $0xc9, %xmm11, %xmm11, %xmm3 # xmm3 = xmm11[1,2,0,3] vmulps %xmm3, %xmm1, %xmm1 vfmsub231ps %xmm2, %xmm11, %xmm1 # xmm1 = (xmm11 * xmm2) - xmm1 vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3] vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3] vshufps $0xd2, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,0,1,3] vmulps %xmm1, %xmm0, %xmm0 vfmsub231ps %xmm3, %xmm2, %xmm0 # xmm0 = (xmm2 * xmm3) - xmm0 movq 0x10(%rcx), %rax cmpq $0x0, 0x10(%rax) jne 0x1ceefce cmpq $0x0, 0x40(%r15) jne 0x1ceefce movq 0x38(%rsp), %rcx vmovss %xmm10, 0x200(%r12,%rcx,4) vextractps $0x1, %xmm0, 0x300(%r12,%rcx,4) vextractps $0x2, %xmm0, 0x340(%r12,%rcx,4) vmovss %xmm0, 0x380(%r12,%rcx,4) vmovss %xmm9, 0x3c0(%r12,%rcx,4) movl $0x0, 0x400(%r12,%rcx,4) movq 0x100(%rsp), %rax movl %eax, 0x440(%r12,%rcx,4) movq 0x70(%rsp), %rax movl %eax, 0x480(%r12,%rcx,4) movq 0x48(%rsp), %r15 movq 0x8(%r15), %rax movl (%rax), %eax movl %eax, 0x4c0(%r12,%rcx,4) movq 0x8(%r15), %rax movl 0x4(%rax), %eax movl %eax, 0x500(%r12,%rcx,4) jmp 0x1ceefac xorl %r13d, %r13d subq $0x1, %r14 setb %al testb %r13b, %r13b jne 0x1cef28f testb %al, %al je 0x1cee968 jmp 0x1cef28f movq %rcx, %r15 jmp 0x1ceefac movq 0x48(%rsp), %rcx movq 0x8(%rcx), %rax vbroadcastss %xmm9, %zmm1 vbroadcastss 0x22371d(%rip), %zmm2 # 0x1f12704 vpermps %zmm0, %zmm2, %zmm2 vbroadcastss 0x231ee5(%rip), %zmm3 # 0x1f20edc vpermps %zmm0, %zmm3, %zmm3 vbroadcastss %xmm0, %zmm0 vmovaps %zmm2, 0x880(%rsp) vmovaps %zmm3, 0x8c0(%rsp) vmovaps %zmm0, 0x900(%rsp) vmovaps %zmm1, 0x940(%rsp) vxorps %xmm0, %xmm0, %xmm0 vmovaps %zmm0, 0x980(%rsp) vmovaps 0x800(%rsp), %zmm0 vmovaps %zmm0, 0x9c0(%rsp) vmovdqa64 0x840(%rsp), %zmm0 vmovdqa64 %zmm0, 0xa00(%rsp) movq 0x1b8(%rsp), %rdx vpcmpeqd %ymm0, %ymm0, %ymm0 vmovdqa %ymm0, 0x60(%rdx) vmovdqa %ymm0, 0x40(%rdx) vmovdqa %ymm0, 0x20(%rdx) vmovdqa %ymm0, (%rdx) vbroadcastss (%rax), %zmm0 vmovaps %zmm0, 0xa40(%rsp) vbroadcastss 0x4(%rax), %zmm0 vmovaps %zmm0, 0xa80(%rsp) movq 0x38(%rsp), %rax vmovss %xmm10, 0x200(%r12,%rax,4) vmovaps 0x7c0(%rsp), %zmm0 vmovaps %zmm0, 0x3c0(%rsp) leaq 0x3c0(%rsp), %rax movq %rax, 0x170(%rsp) movq 0x18(%r15), %rax movq %rax, 0x178(%rsp) movq 0x8(%rcx), %rax movq %rax, 0x180(%rsp) movq %r12, 0x188(%rsp) leaq 0x880(%rsp), %rax movq %rax, 0x190(%rsp) movl $0x10, 0x198(%rsp) movq 0x40(%r15), %rax testq %rax, %rax vmovaps %xmm9, 0xc0(%rsp) vmovaps %xmm10, 0xa0(%rsp) vmovss %xmm4, 0x80(%rsp) je 0x1cef159 leaq 0x170(%rsp), %rdi vzeroupper callq *%rax vmovss 0x80(%rsp), %xmm4 vmovaps 0xa0(%rsp), %xmm10 vmovaps 0xc0(%rsp), %xmm9 vmovaps 0x1e0(%rsp), %ymm21 vmovaps 0x120(%rsp), %ymm30 vmovaps 0x140(%rsp), %ymm26 vmovdqa64 0x3c0(%rsp), %zmm0 vptestmd %zmm0, %zmm0, %k0 kortestw %k0, %k0 je 0x1cef276 movq 0x48(%rsp), %rax movq 0x10(%rax), %rcx movq 0x10(%rcx), %rax testq %rax, %rax je 0x1cef1cf testb $0x2, (%rcx) jne 0x1cef18f testb $0x40, 0x3e(%r15) je 0x1cef1cf leaq 0x170(%rsp), %rdi vzeroupper callq *%rax vmovss 0x80(%rsp), %xmm4 vmovaps 0xa0(%rsp), %xmm10 vmovaps 0xc0(%rsp), %xmm9 vmovaps 0x1e0(%rsp), %ymm21 vmovaps 0x120(%rsp), %ymm30 vmovaps 0x140(%rsp), %ymm26 vmovdqa64 0x3c0(%rsp), %zmm0 vptestmd %zmm0, %zmm0, %k1 kortestw %k1, %k1 je 0x1cef276 movq 0x188(%rsp), %rax movq 0x190(%rsp), %rcx vmovaps (%rcx), %zmm0 vmovups %zmm0, 0x300(%rax) {%k1} vmovaps 0x40(%rcx), %zmm0 vmovups %zmm0, 0x340(%rax) {%k1} vmovaps 0x80(%rcx), %zmm0 vmovups %zmm0, 0x380(%rax) {%k1} vmovaps 0xc0(%rcx), %zmm0 vmovups %zmm0, 0x3c0(%rax) {%k1} vmovaps 0x100(%rcx), %zmm0 vmovups %zmm0, 0x400(%rax) {%k1} vmovdqa64 0x140(%rcx), %zmm0 vmovdqu32 %zmm0, 0x440(%rax) {%k1} vmovdqa64 0x180(%rcx), %zmm0 vmovdqu32 %zmm0, 0x480(%rax) {%k1} vmovdqa64 0x1c0(%rcx), %zmm0 vmovdqa32 %zmm0, 0x4c0(%rax) {%k1} vmovdqa64 0x200(%rcx), %zmm0 vmovdqa32 %zmm0, 0x500(%rax) {%k1} jmp 0x1cef285 movq 0x38(%rsp), %rax vmovss %xmm4, 0x200(%r12,%rax,4) movq 0x48(%rsp), %r15 jmp 0x1ceefac movq 0x38(%rsp), %rax vmovaps 0x420(%rsp), %ymm0 vcmpleps 0x200(%r12,%rax,4){1to8}, %ymm0, %k0 kmovd %k0, %eax andb %al, %bl jne 0x1cee87e vmovdqa 0x480(%rsp), %ymm1 vpcmpltd 0x400(%rsp), %ymm1, %k1 vmovaps 0x780(%rsp), %ymm0 vpcmpltd 0x500(%rsp), %ymm1, %k2 vmovaps 0x380(%rsp), %ymm3 vaddps %ymm0, %ymm3, %ymm1 movq 0x38(%rsp), %rax vbroadcastss 0x200(%r12,%rax,4), %ymm2 vcmpleps %ymm2, %ymm1, %k0 {%k2} kmovd %k0, %eax movl 0x110(%rsp), %ecx andb %al, %cl vmovaps 0x4c0(%rsp), %ymm1 vaddps %ymm1, %ymm3, %ymm3 vcmpleps %ymm2, %ymm3, %k0 {%k1} kmovd %k0, %eax movl 0x54(%rsp), %edx andb %al, %dl orb %cl, %dl je 0x1cef3a4 movq 0x1d0(%rsp), %r9 movl %r9d, %eax leaq (%rax,%rax,2), %rax shlq $0x5, %rax movb %dl, 0xae0(%rsp,%rax) kmovd %ecx, %k1 vmovaps %ymm0, %ymm1 {%k1} vmovaps %ymm1, 0xb00(%rsp,%rax) vmovaps 0x1a0(%rsp), %xmm2 vmovlps %xmm2, 0xb20(%rsp,%rax) movq 0x1c8(%rsp), %r11 leal 0x1(%r11), %ecx movl %ecx, 0xb28(%rsp,%rax) incl %r9d movq 0x1c0(%rsp), %r8 movq 0x1d8(%rsp), %r10 vmovaps 0x231b88(%rip), %ymm3 # 0x1f20f20 jmp 0x1cef3d5 vmovaps 0x231b7e(%rip), %ymm3 # 0x1f20f20 jmp 0x1cef3cc movq 0x1c0(%rsp), %r8 movq 0x1d8(%rsp), %r10 vmovaps 0x231b64(%rip), %ymm3 # 0x1f20f20 movq 0x1d0(%rsp), %r9 movq 0x1c8(%rsp), %r11 vmovaps 0x1a0(%rsp), %xmm2 movl %r9d, %eax testl %eax, %eax je 0x1cef567 leal -0x1(%rax), %r9d leaq (%r9,%r9,2), %rcx shlq $0x5, %rcx vmovaps 0xb00(%rsp,%rcx), %ymm0 movzbl 0xae0(%rsp,%rcx), %esi vaddps 0x380(%rsp), %ymm0, %ymm1 movq 0x38(%rsp), %rdx vcmpleps 0x200(%r12,%rdx,4){1to8}, %ymm1, %k0 kmovb %k0, %edx andl %esi, %edx je 0x1cef4cc kmovd %edx, %k1 vbroadcastss 0x1fc5f0(%rip), %ymm1 # 0x1eeba20 vblendmps %ymm0, %ymm1, %ymm0 {%k1} vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm0, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1] vminps %ymm2, %ymm1, %ymm1 vcmpeqps %ymm1, %ymm0, %k0 kmovd %k0, %esi andb %dl, %sil je 0x1cef468 movzbl %sil, %edi jmp 0x1cef46b movzbl %dl, %edi leaq (%rsp,%rcx), %rsi addq $0xae0, %rsi # imm = 0xAE0 vmovss 0x44(%rsi), %xmm0 tzcntl %edi, %ecx movb $0x1, %dil shlb %cl, %dil movl 0x48(%rsi), %r11d movzbl %dil, %edi kmovd %edi, %k0 kmovd %edx, %k1 kandnb %k1, %k0, %k0 kmovb %k0, (%rsi) kortestb %k0, %k0 je 0x1cef4a6 movl %eax, %r9d vbroadcastss 0x40(%rsi), %ymm1 vsubss %xmm1, %xmm0, %xmm0 vbroadcastss %xmm0, %ymm0 vfmadd132ps %ymm3, %ymm1, %ymm0 # ymm0 = (ymm0 * ymm3) + ymm1 vmovaps %ymm0, 0x880(%rsp) vmovsd 0x880(%rsp,%rcx,4), %xmm2 movl %r9d, %eax testb %dl, %dl je 0x1cef3d8 jmp 0x1ced19c vcmpleps %ymm16, %ymm1, %k2 vbroadcastss 0x1fd698(%rip), %ymm1 # 0x1eecb84 vbroadcastss 0x1fc52a(%rip), %ymm16 # 0x1eeba20 vblendmps %ymm1, %ymm16, %ymm0 {%k2} vmovaps %ymm0, %ymm30 {%k1} vblendmps %ymm16, %ymm1, %ymm0 {%k2} kmovd %k2, %ecx vmovaps %ymm0, %ymm31 {%k1} knotb %k1, %k0 kmovd %k0, %edx orb %cl, %dl andb %al, %dl movl %edx, %eax jmp 0x1ced6e9 vcmpleps %ymm20, %ymm11, %k2 vbroadcastss 0x1fd64f(%rip), %ymm7 # 0x1eecb84 vbroadcastss 0x1fc4e2(%rip), %ymm11 # 0x1eeba20 vblendmps %ymm7, %ymm11, %ymm6 {%k2} vmovaps %ymm6, %ymm4 {%k1} vblendmps %ymm11, %ymm7, %ymm6 {%k2} vmovaps %ymm6, %ymm2 {%k1} knotb %k1, %k1 korb %k2, %k1, %k1 kandb %k0, %k1, %k0 jmp 0x1cedad3 movq 0x38(%rsp), %rax vmovaps 0x520(%rsp), %ymm0 vcmpleps 0x200(%r12,%rax,4){1to8}, %ymm0, %k0 kmovb %k0, %eax andl %eax, %r10d jne 0x1cece0d leaq -0x28(%rbp), %rsp popq %rbx popq %r12 popq %r13 popq %r14 popq %r15 popq %rbp vzeroupper retq
/embree[P]embree/kernels/geometry/curveNi_intersector.h
bool embree::avx512::CurveNiIntersectorK<8, 16>::occluded_t<embree::avx512::SweepCurve1IntersectorK<embree::BezierCurveT, 16>, embree::avx512::Occluded1KEpilog1<16, true>>(embree::avx512::CurvePrecalculationsK<16>&, embree::RayK<16>&, unsigned long, embree::RayQueryContext*, embree::CurveNi<8> const&)
static __forceinline bool occluded_t(Precalculations& pre, RayK<K>& ray, const size_t k, RayQueryContext* context, const Primitive& prim) { vfloat<M> tNear; vbool<M> valid = intersect(ray,k,prim,tNear); const size_t N = prim.N; size_t mask = movemask(valid); while (mask) { const size_t i = bscf(mask); STAT3(shadow.trav_prims,1,1,1); const unsigned int geomID = prim.geomID(N); const unsigned int primID = prim.primID(N)[i]; const CurveGeometry* geom = context->scene->get<CurveGeometry>(geomID); Vec3ff a0,a1,a2,a3; geom->gather(a0,a1,a2,a3,geom->curve(primID)); size_t mask1 = mask; const size_t i1 = bscf(mask1); if (mask) { const unsigned int primID1 = prim.primID(N)[i1]; geom->prefetchL1_vertices(geom->curve(primID1)); if (mask1) { const size_t i2 = bsf(mask1); const unsigned int primID2 = prim.primID(N)[i2]; geom->prefetchL2_vertices(geom->curve(primID2)); } } if (Intersector().intersect(pre,ray,k,context,geom,primID,a0,a1,a2,a3,Epilog(ray,k,context,geomID,primID))) return true; mask &= movemask(tNear <= vfloat<M>(ray.tfar[k])); } return false; }
pushq %rbp movq %rsp, %rbp pushq %r15 pushq %r14 pushq %r13 pushq %r12 pushq %rbx andq $-0x40, %rsp subq $0xcc0, %rsp # imm = 0xCC0 movzbl 0x1(%r8), %eax leaq (%rax,%rax,4), %r9 leaq (%r9,%r9,4), %rdi vbroadcastss 0x12(%r8,%rdi), %xmm0 vmovss (%rsi,%rdx,4), %xmm1 vmovss 0x100(%rsi,%rdx,4), %xmm2 vinsertps $0x10, 0x40(%rsi,%rdx,4), %xmm1, %xmm1 # xmm1 = xmm1[0],mem[0],xmm1[2,3] vinsertps $0x20, 0x80(%rsi,%rdx,4), %xmm1, %xmm1 # xmm1 = xmm1[0,1],mem[0],xmm1[3] vinsertps $0x10, 0x140(%rsi,%rdx,4), %xmm2, %xmm2 # xmm2 = xmm2[0],mem[0],xmm2[2,3] movq %rcx, %r14 vinsertps $0x20, 0x180(%rsi,%rdx,4), %xmm2, %xmm2 # xmm2 = xmm2[0,1],mem[0],xmm2[3] vsubps 0x6(%r8,%rdi), %xmm1, %xmm1 vmulps %xmm1, %xmm0, %xmm3 vmulps %xmm2, %xmm0, %xmm0 vpmovsxbd 0x6(%r8,%rax,4), %ymm1 vcvtdq2ps %ymm1, %ymm5 vpmovsxbd 0x6(%r8,%r9), %ymm1 vcvtdq2ps %ymm1, %ymm6 leaq (%rax,%rax,2), %rcx vpmovsxbd 0x6(%r8,%rcx,2), %ymm1 vcvtdq2ps %ymm1, %ymm2 leaq (%rax,%r9,2), %rdi vpmovsxbd 0x6(%r8,%rdi), %ymm1 vcvtdq2ps %ymm1, %ymm7 leal (,%rcx,4), %edi vpmovsxbd 0x6(%r8,%rdi), %ymm1 vcvtdq2ps %ymm1, %ymm8 addq %rax, %rdi vpmovsxbd 0x6(%r8,%rdi), %ymm1 vcvtdq2ps %ymm1, %ymm9 leaq (%rax,%rax,8), %r10 leal (%r10,%r10), %edi vpmovsxbd 0x6(%r8,%rdi), %ymm1 addq %rax, %rdi vpmovsxbd 0x6(%r8,%rdi), %ymm4 vcvtdq2ps %ymm1, %ymm10 vcvtdq2ps %ymm4, %ymm11 shll $0x2, %r9d vpmovsxbd 0x6(%r8,%r9), %ymm1 vcvtdq2ps %ymm1, %ymm12 vbroadcastss %xmm0, %ymm13 vbroadcastss 0x22305d(%rip), %ymm15 # 0x1f12704 vpermps %ymm0, %ymm15, %ymm14 vbroadcastss 0x231826(%rip), %ymm16 # 0x1f20edc vpermps %ymm0, %ymm16, %ymm0 vmulps %ymm2, %ymm0, %ymm4 vmulps %ymm0, %ymm9, %ymm1 vmulps %ymm0, %ymm12, %ymm0 vfmadd231ps %ymm6, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm6) + ymm4 vfmadd231ps %ymm8, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm8) + ymm1 vfmadd231ps %ymm14, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm14) + ymm0 vfmadd231ps %ymm5, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm5) + ymm4 vfmadd231ps %ymm7, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm7) + ymm1 vfmadd231ps %ymm13, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm13) + ymm0 vbroadcastss %xmm3, %ymm13 vpermps %ymm3, %ymm15, %ymm14 vpermps %ymm3, %ymm16, %ymm15 vmulps %ymm2, %ymm15, %ymm16 vmulps %ymm9, %ymm15, %ymm3 vmulps %ymm12, %ymm15, %ymm2 vfmadd231ps %ymm6, %ymm14, %ymm16 # ymm16 = (ymm14 * ymm6) + ymm16 vfmadd231ps %ymm8, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm8) + ymm3 vfmadd231ps %ymm11, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm11) + ymm2 vfmadd231ps %ymm5, %ymm13, %ymm16 # ymm16 = (ymm13 * ymm5) + ymm16 vfmadd231ps %ymm7, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm7) + ymm3 vfmadd231ps %ymm10, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm10) + ymm2 vbroadcastss 0x231794(%rip), %ymm28 # 0x1f20ec4 vandps %ymm28, %ymm4, %ymm5 vbroadcastss 0x2018a9(%rip), %ymm6 # 0x1ef0fe8 vcmpltps %ymm6, %ymm5, %k1 vmovaps %ymm6, %ymm4 {%k1} vandps %ymm28, %ymm1, %ymm5 vcmpltps %ymm6, %ymm5, %k1 vmovaps %ymm6, %ymm1 {%k1} vandps %ymm28, %ymm0, %ymm5 vcmpltps %ymm6, %ymm5, %k1 vmovaps %ymm6, %ymm0 {%k1} vrcp14ps %ymm4, %ymm5 vbroadcastss 0x1fcf93(%rip), %ymm6 # 0x1eec714 vfnmadd213ps %ymm6, %ymm5, %ymm4 # ymm4 = -(ymm5 * ymm4) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm4 # ymm4 = (ymm4 * ymm5) + ymm5 vrcp14ps %ymm1, %ymm5 vfnmadd213ps %ymm6, %ymm5, %ymm1 # ymm1 = -(ymm5 * ymm1) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm1 # ymm1 = (ymm1 * ymm5) + ymm5 vrcp14ps %ymm0, %ymm5 vfnmadd213ps %ymm6, %ymm5, %ymm0 # ymm0 = -(ymm5 * ymm0) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm0 # ymm0 = (ymm0 * ymm5) + ymm5 leaq (,%rax,8), %rdi subq %rax, %rdi vpmovsxwd 0x6(%r8,%rdi), %ymm5 vcvtdq2ps %ymm5, %ymm5 vsubps %ymm16, %ymm5, %ymm5 vpmovsxwd 0x6(%r8,%r10), %ymm6 vmulps %ymm5, %ymm4, %ymm5 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm16, %ymm6, %ymm6 vmulps %ymm6, %ymm4, %ymm4 leaq (%rax,%rax), %r10 addq %rax, %r9 shlq $0x3, %rcx subq %rax, %rcx movl %eax, %edi shll $0x4, %edi vpmovsxwd 0x6(%r8,%rdi), %ymm6 subq %r10, %rdi vpmovsxwd 0x6(%r8,%rdi), %ymm7 vcvtdq2ps %ymm7, %ymm7 vsubps %ymm3, %ymm7, %ymm7 vmulps %ymm7, %ymm1, %ymm7 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm3, %ymm6, %ymm3 vmulps %ymm3, %ymm1, %ymm1 vpmovsxwd 0x6(%r8,%r9), %ymm3 vcvtdq2ps %ymm3, %ymm3 vsubps %ymm2, %ymm3, %ymm3 vmulps %ymm0, %ymm3, %ymm3 vpmovsxwd 0x6(%r8,%rcx), %ymm6 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm2, %ymm6, %ymm2 vmulps %ymm2, %ymm0, %ymm0 vpminsd %ymm4, %ymm5, %ymm2 vpminsd %ymm1, %ymm7, %ymm6 vmaxps %ymm6, %ymm2, %ymm2 vpminsd %ymm0, %ymm3, %ymm6 vmaxps 0xc0(%rsi,%rdx,4){1to8}, %ymm6, %ymm6 vmaxps %ymm6, %ymm2, %ymm2 vmulps 0x2306a5(%rip){1to8}, %ymm2, %ymm6 # 0x1f1ff10 vpmaxsd %ymm4, %ymm5, %ymm2 vpmaxsd %ymm1, %ymm7, %ymm1 vminps %ymm1, %ymm2, %ymm1 vpmaxsd %ymm0, %ymm3, %ymm0 movq %rsi, 0x30(%rsp) vminps 0x200(%rsi,%rdx,4){1to8}, %ymm0, %ymm0 vminps %ymm0, %ymm1, %ymm0 vmulps 0x230678(%rip){1to8}, %ymm0, %ymm0 # 0x1f1ff14 vpbroadcastd %eax, %ymm1 vpcmpgtd 0x26b074(%rip), %ymm1, %k0 # 0x1f5a920 vmovaps %ymm6, 0x780(%rsp) vcmpleps %ymm0, %ymm6, %k1 ktestb %k0, %k1 setne %r15b je 0x1cf22c4 kandb %k0, %k1, %k0 kmovd %k0, %eax movzbl %al, %r12d leaq 0x900(%rsp), %rax addq $0x1c0, %rax # imm = 0x1C0 movq %rax, 0x2f8(%rsp) movl $0x1, %eax shlxl %edx, %eax, %eax kmovd %eax, %k0 vpmovm2d %k0, %zmm0 vmovdqa64 %zmm0, 0x840(%rsp) movq %rdx, 0x38(%rsp) movq %r8, 0x300(%rsp) movq %r14, 0x40(%rsp) tzcntq %r12, %rax movl 0x2(%r8), %esi movl 0x6(%r8,%rax,4), %eax movq (%r14), %rcx movq 0x1e8(%rcx), %rcx movq %rsi, 0xf8(%rsp) movq (%rcx,%rsi,8), %rdi movq 0x58(%rdi), %rcx movq 0x68(%rdi), %r11 movq %r11, %rsi imulq %rax, %rsi movl (%rcx,%rsi), %r10d movq 0xa0(%rdi), %rsi movq %rsi, %r9 imulq %r10, %r9 movq 0x90(%rdi), %rdi vmovaps (%rdi,%r9), %xmm1 leaq 0x1(%r10), %r9 imulq %rsi, %r9 vmovaps (%rdi,%r9), %xmm0 leaq 0x2(%r10), %r9 imulq %rsi, %r9 vmovaps (%rdi,%r9), %xmm2 blsrq %r12, %r12 addq $0x3, %r10 imulq %rsi, %r10 vmovaps (%rdi,%r10), %xmm3 movq %r12, %r10 subq $0x1, %r10 jb 0x1cef9ec andq %r12, %r10 tzcntq %r12, %r9 movl 0x6(%r8,%r9,4), %r9d imulq %r11, %r9 movl (%rcx,%r9), %r9d imulq %rsi, %r9 prefetcht0 (%rdi,%r9) prefetcht0 0x40(%rdi,%r9) testq %r10, %r10 je 0x1cef9ec tzcntq %r10, %r9 movl 0x6(%r8,%r9,4), %r9d imulq %r9, %r11 movl (%rcx,%r11), %ecx imulq %rcx, %rsi prefetcht1 (%rdi,%rsi) prefetcht1 0x40(%rdi,%rsi) movq 0x30(%rsp), %rcx vmovss (%rcx,%rdx,4), %xmm4 vinsertps $0x1c, 0x40(%rcx,%rdx,4), %xmm4, %xmm4 # xmm4 = xmm4[0],mem[0],zero,zero vinsertps $0x28, 0x80(%rcx,%rdx,4), %xmm4, %xmm4 # xmm4 = xmm4[0,1],mem[0],zero vbroadcastss 0x100(%rcx,%rdx,4), %ymm30 vbroadcastss 0x140(%rcx,%rdx,4), %ymm21 vunpcklps %xmm21, %xmm30, %xmm5 # xmm5 = xmm30[0],xmm21[0],xmm30[1],xmm21[1] vbroadcastss 0x180(%rcx,%rdx,4), %ymm15 vinsertps $0x28, %xmm15, %xmm5, %xmm9 # xmm9 = xmm5[0,1],xmm15[0],zero vaddps %xmm0, %xmm1, %xmm5 vaddps %xmm2, %xmm5, %xmm5 vaddps %xmm3, %xmm5, %xmm5 vmulps 0x22d8b7(%rip){1to4}, %xmm5, %xmm5 # 0x1f1d2fc vsubps %xmm4, %xmm5, %xmm5 vdpps $0x7f, %xmm9, %xmm5, %xmm5 vmovss 0xc0(%rcx,%rdx,4), %xmm10 vdpps $0x7f, %xmm9, %xmm9, %xmm11 vxorps %xmm8, %xmm8, %xmm8 vmovss %xmm11, %xmm8, %xmm6 vrcp14ss %xmm6, %xmm8, %xmm6 vmovaps %xmm6, %xmm7 vfnmadd213ss 0x20157e(%rip), %xmm11, %xmm7 # xmm7 = -(xmm11 * xmm7) + mem vmulss %xmm7, %xmm6, %xmm6 vmulss %xmm6, %xmm5, %xmm5 vbroadcastss %xmm5, %ymm6 vmovaps %xmm9, 0x3b0(%rsp) vmovaps %ymm6, 0x5e0(%rsp) vfmadd231ps %xmm6, %xmm9, %xmm4 # xmm4 = (xmm9 * xmm6) + xmm4 vblendps $0x8, %xmm8, %xmm4, %xmm4 # xmm4 = xmm4[0,1,2],xmm8[3] vsubps %xmm4, %xmm1, %xmm6 vsubps %xmm4, %xmm2, %xmm7 vsubps %xmm4, %xmm0, %xmm8 vsubps %xmm4, %xmm3, %xmm3 vbroadcastss %xmm6, %ymm9 vbroadcastss 0x222c42(%rip), %ymm0 # 0x1f12704 vpermps %ymm6, %ymm0, %ymm12 vbroadcastss 0x23140c(%rip), %ymm1 # 0x1f20edc vpermps %ymm6, %ymm1, %ymm13 vbroadcastss 0x2313fa(%rip), %ymm2 # 0x1f20ed8 vmovaps %ymm6, 0x540(%rsp) vpermps %ymm6, %ymm2, %ymm24 vbroadcastss %xmm8, %ymm4 vpermps %ymm8, %ymm0, %ymm6 vpermps %ymm8, %ymm1, %ymm17 vmovaps %ymm8, 0x500(%rsp) vpermps %ymm8, %ymm2, %ymm18 vbroadcastss %xmm7, %ymm19 vpermps %ymm7, %ymm0, %ymm20 vpermps %ymm7, %ymm1, %ymm22 vmovaps %ymm7, 0x520(%rsp) vpermps %ymm7, %ymm2, %ymm23 vbroadcastss %xmm3, %ymm27 vpermps %ymm3, %ymm0, %ymm25 vpermps %ymm3, %ymm1, %ymm29 vmovaps %ymm3, 0x4e0(%rsp) vpermps %ymm3, %ymm2, %ymm26 vmovaps %ymm4, %ymm2 vmovaps %ymm6, %ymm4 vmovaps %ymm15, 0x5c0(%rsp) vmulss %xmm15, %xmm15, %xmm0 vfmadd231ps %ymm21, %ymm21, %ymm0 # ymm0 = (ymm21 * ymm21) + ymm0 vfmadd231ps %ymm30, %ymm30, %ymm0 # ymm0 = (ymm30 * ymm30) + ymm0 vbroadcastss %xmm0, %ymm0 vmovaps %ymm0, 0x7e0(%rsp) vandps %ymm28, %ymm0, %ymm0 vmovaps %ymm0, 0x700(%rsp) vmovss %xmm10, 0x5c(%rsp) vmovaps %xmm5, 0x470(%rsp) vsubss %xmm5, %xmm10, %xmm0 vbroadcastss %xmm0, %ymm0 vmovaps %ymm0, 0x7c0(%rsp) vpbroadcastd %eax, %zmm0 vmovdqa64 %zmm0, 0x8c0(%rsp) movl $0x1, %eax movq %rax, 0x100(%rsp) xorl %ebx, %ebx xorl %r13d, %r13d movq 0xf8(%rsp), %rax vpbroadcastd %eax, %zmm0 vmovdqa64 %zmm0, 0x880(%rsp) vsqrtss %xmm11, %xmm11, %xmm0 vmovss %xmm0, 0x11c(%rsp) vmovaps %xmm11, 0x390(%rsp) vsqrtss %xmm11, %xmm11, %xmm0 vmovss %xmm0, 0x118(%rsp) vmovsd 0x1fcadf(%rip), %xmm5 # 0x1eec6f0 vbroadcastss 0x1fcafa(%rip), %ymm3 # 0x1eec714 vmovaps %ymm30, 0x220(%rsp) vmovaps %ymm21, 0x200(%rsp) vmovaps %ymm9, 0x240(%rsp) vmovaps %ymm12, 0x1e0(%rsp) vmovaps %ymm13, 0x2a0(%rsp) vmovaps %ymm24, 0x1c0(%rsp) vmovaps %ymm2, 0x4c0(%rsp) vmovaps %ymm6, 0x340(%rsp) vmovaps %ymm17, 0x1a0(%rsp) vmovaps %ymm18, 0x180(%rsp) vmovaps %ymm19, 0x3e0(%rsp) vmovaps %ymm20, 0x3c0(%rsp) vmovaps %ymm22, 0x160(%rsp) vmovaps %ymm23, 0x140(%rsp) vmovaps %ymm27, 0x7a0(%rsp) vmovaps %ymm25, 0x120(%rsp) vmovaps %ymm29, 0x280(%rsp) vmovaps %ymm26, 0x260(%rsp) vmovshdup %xmm5, %xmm0 # xmm0 = xmm5[1,1,3,3] vsubss %xmm5, %xmm0, %xmm1 vmulss 0x231211(%rip), %xmm1, %xmm6 # 0x1f20ed0 vmovaps %xmm5, 0x450(%rsp) vbroadcastss %xmm5, %ymm5 vbroadcastss %xmm1, %ymm0 vmovaps %ymm5, 0x60(%rsp) vmovaps %ymm0, 0x360(%rsp) vfmadd231ps 0x231236(%rip), %ymm0, %ymm5 # ymm5 = (ymm0 * mem) + ymm5 vsubps %ymm5, %ymm3, %ymm7 vmulps %ymm5, %ymm2, %ymm1 vmovaps %ymm2, %ymm15 vmulps %ymm5, %ymm4, %ymm2 vmovaps %ymm3, %ymm0 vmulps %ymm5, %ymm17, %ymm3 vmovaps %ymm4, %ymm16 vmulps %ymm5, %ymm18, %ymm4 vfmadd231ps %ymm9, %ymm7, %ymm1 # ymm1 = (ymm7 * ymm9) + ymm1 vfmadd231ps %ymm12, %ymm7, %ymm2 # ymm2 = (ymm7 * ymm12) + ymm2 vfmadd231ps %ymm13, %ymm7, %ymm3 # ymm3 = (ymm7 * ymm13) + ymm3 vfmadd231ps %ymm24, %ymm7, %ymm4 # ymm4 = (ymm7 * ymm24) + ymm4 vmulps %ymm5, %ymm19, %ymm8 vmulps %ymm5, %ymm20, %ymm9 vmulps %ymm5, %ymm22, %ymm10 vmulps %ymm5, %ymm23, %ymm11 vfmadd231ps %ymm15, %ymm7, %ymm8 # ymm8 = (ymm7 * ymm15) + ymm8 vfmadd231ps %ymm16, %ymm7, %ymm9 # ymm9 = (ymm7 * ymm16) + ymm9 vfmadd231ps %ymm17, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm17) + ymm10 vfmadd231ps %ymm18, %ymm7, %ymm11 # ymm11 = (ymm7 * ymm18) + ymm11 vmulps %ymm5, %ymm27, %ymm12 vmulps %ymm5, %ymm25, %ymm13 vmulps %ymm5, %ymm29, %ymm14 vmulps %ymm5, %ymm26, %ymm15 vfmadd231ps %ymm19, %ymm7, %ymm12 # ymm12 = (ymm7 * ymm19) + ymm12 vfmadd231ps %ymm20, %ymm7, %ymm13 # ymm13 = (ymm7 * ymm20) + ymm13 vfmadd231ps %ymm22, %ymm7, %ymm14 # ymm14 = (ymm7 * ymm22) + ymm14 vfmadd231ps %ymm23, %ymm7, %ymm15 # ymm15 = (ymm7 * ymm23) + ymm15 vmulps %ymm8, %ymm5, %ymm16 vmulps %ymm9, %ymm5, %ymm17 vmulps %ymm10, %ymm5, %ymm18 vmulps %ymm11, %ymm5, %ymm19 vfmadd231ps %ymm1, %ymm7, %ymm16 # ymm16 = (ymm7 * ymm1) + ymm16 vfmadd231ps %ymm2, %ymm7, %ymm17 # ymm17 = (ymm7 * ymm2) + ymm17 vfmadd231ps %ymm3, %ymm7, %ymm18 # ymm18 = (ymm7 * ymm3) + ymm18 vfmadd231ps %ymm4, %ymm7, %ymm19 # ymm19 = (ymm7 * ymm4) + ymm19 vmulps %ymm5, %ymm12, %ymm1 vmulps %ymm5, %ymm13, %ymm12 vmulps %ymm5, %ymm14, %ymm13 vmulps %ymm5, %ymm15, %ymm14 vfmadd231ps %ymm8, %ymm7, %ymm1 # ymm1 = (ymm7 * ymm8) + ymm1 vfmadd231ps %ymm9, %ymm7, %ymm12 # ymm12 = (ymm7 * ymm9) + ymm12 vfmadd231ps %ymm10, %ymm7, %ymm13 # ymm13 = (ymm7 * ymm10) + ymm13 vfmadd231ps %ymm11, %ymm7, %ymm14 # ymm14 = (ymm7 * ymm11) + ymm14 vmulps %ymm1, %ymm5, %ymm4 vmulps %ymm12, %ymm5, %ymm26 vmulps %ymm13, %ymm5, %ymm29 vmulps %ymm5, %ymm14, %ymm5 vfmadd231ps %ymm16, %ymm7, %ymm4 # ymm4 = (ymm7 * ymm16) + ymm4 vfmadd231ps %ymm17, %ymm7, %ymm26 # ymm26 = (ymm7 * ymm17) + ymm26 vfmadd231ps %ymm18, %ymm7, %ymm29 # ymm29 = (ymm7 * ymm18) + ymm29 vfmadd231ps %ymm7, %ymm19, %ymm5 # ymm5 = (ymm19 * ymm7) + ymm5 vsubps %ymm16, %ymm1, %ymm1 vsubps %ymm17, %ymm12, %ymm7 vsubps %ymm18, %ymm13, %ymm8 vsubps %ymm19, %ymm14, %ymm9 vbroadcastss 0x2011c7(%rip), %ymm10 # 0x1ef0fec vmulps %ymm1, %ymm10, %ymm1 vmulps %ymm7, %ymm10, %ymm7 vmulps %ymm10, %ymm8, %ymm8 vmulps %ymm10, %ymm9, %ymm9 vbroadcastss %xmm6, %ymm6 vmulps %ymm1, %ymm6, %ymm11 vmulps %ymm7, %ymm6, %ymm12 vmulps %ymm6, %ymm8, %ymm13 vmulps %ymm6, %ymm9, %ymm6 vmovaps %ymm4, %ymm8 vmovaps 0x26fec8(%rip), %ymm7 # 0x1f5fd20 vxorps %xmm31, %xmm31, %xmm31 vpermt2ps %ymm31, %ymm7, %ymm8 vmovaps %ymm26, %ymm9 vpermt2ps %ymm31, %ymm7, %ymm9 vmovaps %ymm29, %ymm10 vpermt2ps %ymm31, %ymm7, %ymm10 vaddps %ymm6, %ymm5, %ymm1 vmaxps %ymm1, %ymm5, %ymm14 vminps %ymm1, %ymm5, %ymm1 vmovaps %ymm5, %ymm15 vpermt2ps %ymm31, %ymm7, %ymm15 vmovaps %ymm11, %ymm19 vpermt2ps %ymm31, %ymm7, %ymm19 vmovaps %ymm12, %ymm20 vpermt2ps %ymm31, %ymm7, %ymm20 vmovaps %ymm13, %ymm2 vpermt2ps %ymm31, %ymm7, %ymm2 vpermt2ps %ymm31, %ymm7, %ymm6 vsubps %ymm6, %ymm15, %ymm16 vsubps %ymm4, %ymm8, %ymm7 vsubps %ymm26, %ymm9, %ymm6 vsubps %ymm29, %ymm10, %ymm5 vmulps %ymm13, %ymm6, %ymm17 vfmsub231ps %ymm5, %ymm12, %ymm17 # ymm17 = (ymm12 * ymm5) - ymm17 vmulps %ymm11, %ymm5, %ymm18 vfmsub231ps %ymm7, %ymm13, %ymm18 # ymm18 = (ymm13 * ymm7) - ymm18 vmulps %ymm12, %ymm7, %ymm22 vfmsub231ps %ymm6, %ymm11, %ymm22 # ymm22 = (ymm11 * ymm6) - ymm22 vmulps %ymm22, %ymm22, %ymm22 vfmadd231ps %ymm18, %ymm18, %ymm22 # ymm22 = (ymm18 * ymm18) + ymm22 vfmadd231ps %ymm17, %ymm17, %ymm22 # ymm22 = (ymm17 * ymm17) + ymm22 vmulps %ymm5, %ymm5, %ymm17 vfmadd231ps %ymm6, %ymm6, %ymm17 # ymm17 = (ymm6 * ymm6) + ymm17 vfmadd231ps %ymm7, %ymm7, %ymm17 # ymm17 = (ymm7 * ymm7) + ymm17 vrcp14ps %ymm17, %ymm18 vmovaps %ymm18, %ymm23 vfnmadd213ps %ymm0, %ymm17, %ymm23 # ymm23 = -(ymm17 * ymm23) + ymm0 vfmadd132ps %ymm18, %ymm18, %ymm23 # ymm23 = (ymm23 * ymm18) + ymm18 vmulps %ymm23, %ymm22, %ymm18 vmulps %ymm2, %ymm6, %ymm22 vfmsub231ps %ymm5, %ymm20, %ymm22 # ymm22 = (ymm20 * ymm5) - ymm22 vmulps %ymm19, %ymm5, %ymm24 vfmsub231ps %ymm7, %ymm2, %ymm24 # ymm24 = (ymm2 * ymm7) - ymm24 vmulps %ymm20, %ymm7, %ymm25 vfmsub231ps %ymm6, %ymm19, %ymm25 # ymm25 = (ymm19 * ymm6) - ymm25 vmulps %ymm25, %ymm25, %ymm25 vfmadd231ps %ymm24, %ymm24, %ymm25 # ymm25 = (ymm24 * ymm24) + ymm25 vfmadd231ps %ymm22, %ymm22, %ymm25 # ymm25 = (ymm22 * ymm22) + ymm25 vmulps %ymm23, %ymm25, %ymm22 vmaxps %ymm22, %ymm18, %ymm18 vsqrtps %ymm18, %ymm18 vmaxps %ymm15, %ymm16, %ymm22 vmaxps %ymm22, %ymm14, %ymm14 vaddps %ymm14, %ymm18, %ymm14 vminps %ymm15, %ymm16, %ymm15 vminps %ymm15, %ymm1, %ymm1 vsubps %ymm18, %ymm1, %ymm1 vmulps 0x200995(%rip){1to8}, %ymm14, %ymm14 # 0x1ef0940 vmulps 0x20098f(%rip){1to8}, %ymm1, %ymm1 # 0x1ef0944 vmovaps %ymm1, 0xa0(%rsp) vmulps %ymm14, %ymm14, %ymm1 vrsqrt14ps %ymm17, %ymm15 vmulps 0x1fc749(%rip){1to8}, %ymm17, %ymm14 # 0x1eec71c vmulps %ymm14, %ymm15, %ymm14 vmulps %ymm15, %ymm15, %ymm16 vmulps %ymm14, %ymm16, %ymm14 vfmadd231ps 0x1fc72a(%rip){1to8}, %ymm15, %ymm14 # ymm14 = (ymm15 * mem) + ymm14 vmulps %ymm7, %ymm14, %ymm15 vmulps %ymm14, %ymm6, %ymm16 vmulps %ymm14, %ymm5, %ymm18 vsubps %ymm4, %ymm31, %ymm3 vmovaps %ymm26, 0x5a0(%rsp) vsubps %ymm26, %ymm31, %ymm28 vmovaps %ymm29, 0x420(%rsp) vsubps %ymm29, %ymm31, %ymm29 vmovaps 0x5c0(%rsp), %ymm17 vmulps %ymm29, %ymm17, %ymm22 vfmadd231ps %ymm28, %ymm21, %ymm22 # ymm22 = (ymm21 * ymm28) + ymm22 vfmadd231ps %ymm3, %ymm30, %ymm22 # ymm22 = (ymm30 * ymm3) + ymm22 vmulps %ymm29, %ymm29, %ymm24 vfmadd231ps %ymm28, %ymm28, %ymm24 # ymm24 = (ymm28 * ymm28) + ymm24 vfmadd231ps %ymm3, %ymm3, %ymm24 # ymm24 = (ymm3 * ymm3) + ymm24 vmulps %ymm18, %ymm17, %ymm17 vfmadd231ps %ymm21, %ymm16, %ymm17 # ymm17 = (ymm16 * ymm21) + ymm17 vfmadd231ps %ymm30, %ymm15, %ymm17 # ymm17 = (ymm15 * ymm30) + ymm17 vmulps %ymm18, %ymm29, %ymm18 vfmadd231ps %ymm16, %ymm28, %ymm18 # ymm18 = (ymm28 * ymm16) + ymm18 vfmadd231ps %ymm15, %ymm3, %ymm18 # ymm18 = (ymm3 * ymm15) + ymm18 vmulps %ymm17, %ymm17, %ymm26 vmovaps 0x7e0(%rsp), %ymm27 vsubps %ymm26, %ymm27, %ymm15 vmulps %ymm18, %ymm17, %ymm25 vsubps %ymm25, %ymm22, %ymm22 vaddps %ymm22, %ymm22, %ymm22 vmulps %ymm18, %ymm18, %ymm25 vsubps %ymm25, %ymm24, %ymm24 vsubps %ymm1, %ymm24, %ymm1 vmulps %ymm22, %ymm22, %ymm16 vmulps 0x1fcad4(%rip){1to8}, %ymm15, %ymm25 # 0x1eecb8c vmulps %ymm1, %ymm25, %ymm30 vmovaps %ymm16, 0x80(%rsp) vsubps %ymm30, %ymm16, %ymm30 vcmpnltps %ymm31, %ymm30, %k1 kmovd %k1, %eax kortestb %k1, %k1 je 0x1cf01f7 vsqrtps %ymm30, %ymm30 vaddps %ymm15, %ymm15, %ymm31 vrcp14ps %ymm31, %ymm23 vfnmadd213ps %ymm0, %ymm23, %ymm31 # ymm31 = -(ymm23 * ymm31) + ymm0 vfmadd132ps %ymm23, %ymm23, %ymm31 # ymm31 = (ymm31 * ymm23) + ymm23 vxorps 0x230db7(%rip){1to8}, %ymm22, %ymm23 # 0x1f20ec0 vsubps %ymm30, %ymm23, %ymm23 vmulps %ymm31, %ymm23, %ymm23 vsubps %ymm22, %ymm30, %ymm30 vmulps %ymm31, %ymm30, %ymm31 vmovaps %ymm17, %ymm30 vfmadd213ps %ymm18, %ymm23, %ymm30 # ymm30 = (ymm23 * ymm30) + ymm18 vmulps %ymm30, %ymm14, %ymm30 vmovaps %ymm30, 0x6c0(%rsp) vmovaps %ymm17, %ymm30 vfmadd213ps %ymm18, %ymm31, %ymm30 # ymm30 = (ymm31 * ymm30) + ymm18 vmulps %ymm30, %ymm14, %ymm30 vmovaps %ymm30, 0x6a0(%rsp) vbroadcastss 0x1fb8c2(%rip), %ymm0 # 0x1eeba20 vblendmps %ymm23, %ymm0, %ymm30 {%k1} vbroadcastss 0x1fca17(%rip), %ymm0 # 0x1eecb84 vblendmps %ymm31, %ymm0, %ymm31 {%k1} vbroadcastss 0x230d48(%rip), %ymm0 # 0x1f20ec4 vandps %ymm0, %ymm26, %ymm23 vmovaps 0x700(%rsp), %ymm21 vmaxps %ymm23, %ymm21, %ymm23 vmulps 0x201d1a(%rip){1to8}, %ymm23, %ymm23 # 0x1ef1eb4 vandps %ymm0, %ymm15, %ymm0 vcmpltps %ymm23, %ymm0, %k1 {%k1} kortestb %k1, %k1 je 0x1cf020b vcmpleps 0x230d4a(%rip), %ymm1, %k2 # 0x1f20f00 vbroadcastss 0x1fc9c5(%rip), %ymm1 # 0x1eecb84 vbroadcastss 0x1fb857(%rip), %ymm23 # 0x1eeba20 vblendmps %ymm1, %ymm23, %ymm0 {%k2} vmovaps %ymm0, %ymm30 {%k1} vblendmps %ymm23, %ymm1, %ymm0 {%k2} kmovd %k2, %ecx vmovaps %ymm0, %ymm31 {%k1} knotb %k1, %k0 kmovd %k0, %esi orb %cl, %sil andb %al, %sil movl %esi, %eax jmp 0x1cf020b vbroadcastss 0x1fb81f(%rip), %ymm30 # 0x1eeba20 vbroadcastss 0x1fc979(%rip), %ymm31 # 0x1eecb84 andb $0x7f, %al je 0x1cf0636 vmovaps %ymm24, 0x580(%rsp) vmovaps %ymm26, 0x400(%rsp) movq 0x30(%rsp), %rcx vmovss 0x200(%rcx,%rdx,4), %xmm0 vsubss 0x470(%rsp), %xmm0, %xmm0 vbroadcastss %xmm0, %ymm0 vminps %ymm31, %ymm0, %ymm0 vmovaps 0x7c0(%rsp), %ymm1 vmaxps %ymm30, %ymm1, %ymm1 vmulps %ymm13, %ymm29, %ymm23 vfmadd213ps %ymm23, %ymm12, %ymm28 # ymm28 = (ymm12 * ymm28) + ymm23 vfmadd213ps %ymm28, %ymm11, %ymm3 # ymm3 = (ymm11 * ymm3) + ymm28 vmovaps 0x5c0(%rsp), %ymm21 vmulps %ymm13, %ymm21, %ymm13 vmovaps 0x200(%rsp), %ymm26 vfmadd231ps %ymm12, %ymm26, %ymm13 # ymm13 = (ymm26 * ymm12) + ymm13 vmovaps 0x220(%rsp), %ymm16 vfmadd231ps %ymm11, %ymm16, %ymm13 # ymm13 = (ymm16 * ymm11) + ymm13 vbroadcastss 0x230c2a(%rip), %ymm28 # 0x1f20ec4 vandps %ymm28, %ymm13, %ymm11 vbroadcastss 0x200d3e(%rip), %ymm29 # 0x1ef0fe8 vcmpltps %ymm29, %ymm11, %k0 vbroadcastss 0x230c05(%rip), %ymm31 # 0x1f20ec0 vxorps %ymm31, %ymm3, %ymm11 vrcp14ps %ymm13, %ymm12 vxorps %ymm31, %ymm13, %ymm23 vmovaps %ymm12, %ymm27 vbroadcastss 0x1fc437(%rip), %ymm30 # 0x1eec714 vfnmadd213ps %ymm30, %ymm13, %ymm27 # ymm27 = -(ymm13 * ymm27) + ymm30 vfmadd132ps %ymm12, %ymm12, %ymm27 # ymm27 = (ymm27 * ymm12) + ymm12 vmulps %ymm11, %ymm27, %ymm11 vcmpltps %ymm23, %ymm13, %k1 korb %k1, %k0, %k1 vbroadcastss 0x1fc880(%rip), %ymm27 # 0x1eecb84 vblendmps %ymm27, %ymm11, %ymm12 {%k1} vmaxps %ymm12, %ymm1, %ymm1 vcmpnleps %ymm23, %ymm13, %k1 korb %k1, %k0, %k1 vbroadcastss 0x1fb6fd(%rip), %ymm13 # 0x1eeba20 vmovaps %ymm13, %ymm11 {%k1} vminps %ymm11, %ymm0, %ymm0 vxorps %xmm23, %xmm23, %xmm23 vsubps %ymm8, %ymm23, %ymm8 vsubps %ymm9, %ymm23, %ymm9 vsubps %ymm10, %ymm23, %ymm10 vmulps %ymm2, %ymm10, %ymm10 vfnmsub231ps %ymm9, %ymm20, %ymm10 # ymm10 = -(ymm20 * ymm9) - ymm10 vfnmadd231ps %ymm8, %ymm19, %ymm10 # ymm10 = -(ymm19 * ymm8) + ymm10 vmulps %ymm2, %ymm21, %ymm8 vfnmsub231ps %ymm20, %ymm26, %ymm8 # ymm8 = -(ymm26 * ymm20) - ymm8 vfnmadd231ps %ymm19, %ymm16, %ymm8 # ymm8 = -(ymm16 * ymm19) + ymm8 vandps %ymm28, %ymm8, %ymm9 vcmpltps %ymm29, %ymm9, %k0 vxorps %ymm31, %ymm10, %ymm9 vrcp14ps %ymm8, %ymm10 vxorps %ymm31, %ymm8, %ymm11 vmovaps %ymm10, %ymm12 vfnmadd213ps %ymm30, %ymm8, %ymm12 # ymm12 = -(ymm8 * ymm12) + ymm30 vfmadd132ps %ymm10, %ymm10, %ymm12 # ymm12 = (ymm12 * ymm10) + ymm10 vmulps %ymm9, %ymm12, %ymm9 vcmpltps %ymm11, %ymm8, %k1 korb %k1, %k0, %k1 vblendmps %ymm27, %ymm9, %ymm10 {%k1} vmaxps %ymm10, %ymm1, %ymm1 vcmpnleps %ymm11, %ymm8, %k1 korb %k1, %k0, %k1 vmovaps %ymm13, %ymm9 {%k1} vminps %ymm9, %ymm0, %ymm8 vmovaps %ymm1, 0x560(%rsp) vcmpleps %ymm8, %ymm1, %k0 kmovd %k0, %ecx andb %cl, %al je 0x1cf064b vmovaps 0x6c0(%rsp), %ymm0 vmaxps 0xa0(%rsp), %ymm23, %ymm1 vminps %ymm30, %ymm0, %ymm0 vxorps %xmm10, %xmm10, %xmm10 vmaxps %ymm10, %ymm0, %ymm0 vmovaps 0x6a0(%rsp), %ymm9 vminps %ymm30, %ymm9, %ymm9 vmovaps 0x230b24(%rip), %ymm11 # 0x1f20f40 vaddps %ymm0, %ymm11, %ymm0 vbroadcastss 0x22e08f(%rip), %ymm12 # 0x1f1e4b8 vmulps %ymm0, %ymm12, %ymm0 vmovaps 0x60(%rsp), %ymm2 vmovaps 0x360(%rsp), %ymm13 vfmadd213ps %ymm2, %ymm13, %ymm0 # ymm0 = (ymm13 * ymm0) + ymm2 vmovaps %ymm0, 0x6c0(%rsp) vmaxps %ymm10, %ymm9, %ymm0 vaddps %ymm0, %ymm11, %ymm0 vmulps %ymm0, %ymm12, %ymm0 vfmadd213ps %ymm2, %ymm13, %ymm0 # ymm0 = (ymm13 * ymm0) + ymm2 vmovaps %ymm0, 0x6a0(%rsp) vmulps %ymm1, %ymm1, %ymm0 vmovaps 0x580(%rsp), %ymm1 vsubps %ymm0, %ymm1, %ymm11 vmulps %ymm11, %ymm25, %ymm0 vmovaps 0x80(%rsp), %ymm1 vsubps %ymm0, %ymm1, %ymm0 vcmpnltps %ymm10, %ymm0, %k0 kortestb %k0, %k0 vmovaps 0x280(%rsp), %ymm29 vmovaps 0x260(%rsp), %ymm16 je 0x1cf06e3 vxorps %xmm20, %xmm20, %xmm20 vcmpnltps %ymm23, %ymm0, %k1 vsqrtps %ymm0, %ymm0 vaddps %ymm15, %ymm15, %ymm1 vrcp14ps %ymm1, %ymm9 vfnmadd213ps %ymm30, %ymm9, %ymm1 # ymm1 = -(ymm9 * ymm1) + ymm30 vfmadd132ps %ymm9, %ymm9, %ymm1 # ymm1 = (ymm1 * ymm9) + ymm9 vxorps 0x2309e5(%rip){1to8}, %ymm22, %ymm9 # 0x1f20ec0 vsubps %ymm0, %ymm9, %ymm9 vmulps %ymm1, %ymm9, %ymm12 vsubps %ymm22, %ymm0, %ymm0 vmulps %ymm1, %ymm0, %ymm13 vmovaps %ymm17, %ymm0 vfmadd213ps %ymm18, %ymm12, %ymm0 # ymm0 = (ymm12 * ymm0) + ymm18 vmulps %ymm0, %ymm14, %ymm9 vmovaps 0x220(%rsp), %ymm30 vmulps %ymm12, %ymm30, %ymm0 vmovaps 0x200(%rsp), %ymm21 vmulps %ymm12, %ymm21, %ymm1 vmovaps 0x5c0(%rsp), %ymm26 vmulps %ymm12, %ymm26, %ymm10 vmovaps %ymm7, %ymm19 vfmadd213ps %ymm4, %ymm9, %ymm19 # ymm19 = (ymm9 * ymm19) + ymm4 vsubps %ymm19, %ymm0, %ymm0 vmovaps %ymm6, %ymm19 vmovaps 0x5a0(%rsp), %ymm3 vfmadd213ps %ymm3, %ymm9, %ymm19 # ymm19 = (ymm9 * ymm19) + ymm3 vsubps %ymm19, %ymm1, %ymm1 vmovaps 0x420(%rsp), %ymm2 vfmadd213ps %ymm2, %ymm5, %ymm9 # ymm9 = (ymm5 * ymm9) + ymm2 vsubps %ymm9, %ymm10, %ymm9 vfmadd213ps %ymm18, %ymm13, %ymm17 # ymm17 = (ymm13 * ymm17) + ymm18 vmulps %ymm17, %ymm14, %ymm14 vmulps %ymm13, %ymm30, %ymm10 vmulps %ymm13, %ymm21, %ymm17 vmulps %ymm13, %ymm26, %ymm18 vfmadd213ps %ymm4, %ymm14, %ymm7 # ymm7 = (ymm14 * ymm7) + ymm4 vsubps %ymm7, %ymm10, %ymm10 vfmadd213ps %ymm3, %ymm14, %ymm6 # ymm6 = (ymm14 * ymm6) + ymm3 vsubps %ymm6, %ymm17, %ymm3 vfmadd213ps %ymm2, %ymm14, %ymm5 # ymm5 = (ymm14 * ymm5) + ymm2 vsubps %ymm5, %ymm18, %ymm5 vbroadcastss 0x1fb473(%rip), %ymm2 # 0x1eeba20 vblendmps %ymm12, %ymm2, %ymm4 {%k1} vbroadcastss 0x1fc5c8(%rip), %ymm2 # 0x1eecb84 vblendmps %ymm13, %ymm2, %ymm2 {%k1} vandps 0x400(%rsp), %ymm28, %ymm6 vmovaps 0x700(%rsp), %ymm7 vmaxps %ymm6, %ymm7, %ymm6 vmulps 0x2018d3(%rip){1to8}, %ymm6, %ymm6 # 0x1ef1eb4 vandps %ymm28, %ymm15, %ymm7 vcmpltps %ymm6, %ymm7, %k1 {%k1} kortestb %k1, %k1 jne 0x1cf2251 vmovaps 0x1e0(%rsp), %ymm12 vmovaps 0x1c0(%rsp), %ymm24 vmovaps 0x1a0(%rsp), %ymm17 vmovaps 0x180(%rsp), %ymm18 vmovaps 0x160(%rsp), %ymm22 vmovaps 0x140(%rsp), %ymm23 vmovaps 0x120(%rsp), %ymm25 jmp 0x1cf075b vbroadcastss 0x230884(%rip), %ymm28 # 0x1f20ec4 vbroadcastss 0x1fc0cb(%rip), %ymm3 # 0x1eec714 jmp 0x1cf0651 vmovaps %ymm30, %ymm3 vmovaps 0x220(%rsp), %ymm30 vmovaps 0x200(%rsp), %ymm21 vmovaps 0x240(%rsp), %ymm9 vmovaps 0x1e0(%rsp), %ymm12 vmovaps 0x2a0(%rsp), %ymm13 vmovaps 0x1c0(%rsp), %ymm24 vmovaps 0x4c0(%rsp), %ymm2 vmovaps 0x340(%rsp), %ymm4 vmovaps 0x1a0(%rsp), %ymm17 vmovaps 0x180(%rsp), %ymm18 vmovaps 0x3e0(%rsp), %ymm19 vmovaps 0x3c0(%rsp), %ymm20 vmovaps 0x160(%rsp), %ymm22 vmovaps 0x140(%rsp), %ymm23 vmovaps 0x120(%rsp), %ymm25 vmovaps 0x280(%rsp), %ymm29 vmovaps 0x260(%rsp), %ymm16 jmp 0x1cf2118 vxorps %xmm3, %xmm3, %xmm3 vxorps %xmm5, %xmm5, %xmm5 vxorps %xmm0, %xmm0, %xmm0 vxorps %xmm1, %xmm1, %xmm1 vxorps %xmm9, %xmm9, %xmm9 vbroadcastss 0x1fb31f(%rip), %ymm4 # 0x1eeba20 vbroadcastss 0x1fc47a(%rip), %ymm2 # 0x1eecb84 vmovaps 0x220(%rsp), %ymm30 vmovaps 0x200(%rsp), %ymm21 vmovaps 0x1e0(%rsp), %ymm12 vmovaps 0x1c0(%rsp), %ymm24 vmovaps 0x1a0(%rsp), %ymm17 vmovaps 0x180(%rsp), %ymm18 vmovaps 0x160(%rsp), %ymm22 vmovaps 0x140(%rsp), %ymm23 vmovaps 0x120(%rsp), %ymm25 vmovaps 0x5c0(%rsp), %ymm26 vmulps %ymm5, %ymm26, %ymm5 vfmadd231ps %ymm3, %ymm21, %ymm5 # ymm5 = (ymm21 * ymm3) + ymm5 vfmadd231ps %ymm10, %ymm30, %ymm5 # ymm5 = (ymm30 * ymm10) + ymm5 vmovaps 0x560(%rsp), %ymm6 vmovaps %ymm6, 0x800(%rsp) vminps %ymm4, %ymm8, %ymm3 vmovaps %ymm3, 0x820(%rsp) vandps %ymm28, %ymm5, %ymm4 vmaxps %ymm2, %ymm6, %ymm5 vmovaps %ymm5, 0x720(%rsp) vmovaps %ymm8, 0x740(%rsp) vbroadcastss 0x230723(%rip), %ymm2 # 0x1f20ed4 vcmpltps %ymm2, %ymm4, %k1 kmovd %k1, 0x114(%rsp) vcmpleps %ymm3, %ymm6, %k1 kmovd %k1, %ecx andb %al, %cl vmovaps %ymm5, 0x660(%rsp) vcmpleps %ymm8, %ymm5, %k1 kmovd %k1, %esi andb %al, %sil movl %esi, 0x48(%rsp) movl %esi, %eax orb %cl, %al vmovaps 0x2a0(%rsp), %ymm13 vmovaps 0x3e0(%rsp), %ymm19 vmovaps 0x3c0(%rsp), %ymm20 je 0x1cf13ab movq %r12, 0x308(%rsp) movb %r15b, 0x2f(%rsp) knotb %k0, %k1 vmovaps %ymm2, %ymm3 vmulps %ymm9, %ymm26, %ymm2 vfmadd213ps %ymm2, %ymm21, %ymm1 # ymm1 = (ymm21 * ymm1) + ymm2 vfmadd213ps %ymm1, %ymm30, %ymm0 # ymm0 = (ymm30 * ymm0) + ymm1 vandps %ymm28, %ymm0, %ymm0 vcmpltps %ymm3, %ymm0, %k0 kmovd %k1, 0x10c(%rsp) korb %k1, %k0, %k1 vpbroadcastd 0x230684(%rip), %ymm0 # 0x1f20edc vpblendmd 0x230676(%rip){1to8}, %ymm0, %ymm0 {%k1} # 0x1f20ed8 movq 0x100(%rsp), %rax vpbroadcastd %eax, %ymm1 vmovdqa %ymm0, 0x760(%rsp) vmovdqa %ymm1, 0x6e0(%rsp) vpcmpnltd %ymm0, %ymm1, %k0 kmovd %k0, %r12d movl %ecx, 0x110(%rsp) andb %cl, %r12b je 0x1cf13d4 vmovaps 0x540(%rsp), %ymm1 vmovaps 0x500(%rsp), %ymm2 vminps %xmm2, %xmm1, %xmm0 vmaxps %xmm2, %xmm1, %xmm1 vmovaps 0x520(%rsp), %ymm3 vmovaps 0x4e0(%rsp), %ymm4 vminps %xmm4, %xmm3, %xmm2 vminps %xmm2, %xmm0, %xmm0 vmaxps %xmm4, %xmm3, %xmm2 vmaxps %xmm2, %xmm1, %xmm1 vbroadcastss 0x2305e2(%rip), %xmm2 # 0x1f20ec4 vandps %xmm2, %xmm0, %xmm0 vandps %xmm2, %xmm1, %xmm2 vmaxps %xmm2, %xmm0, %xmm0 vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3] vmaxss %xmm0, %xmm2, %xmm2 vshufpd $0x1, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[1,0] vmaxss %xmm2, %xmm0, %xmm0 vmulss 0x2015ad(%rip), %xmm0, %xmm0 # 0x1ef1eb4 vmovss %xmm0, 0x50(%rsp) vshufps $0xff, %xmm1, %xmm1, %xmm0 # xmm0 = xmm1[3,3,3,3] vmovaps %xmm0, 0x460(%rsp) vmovaps 0x560(%rsp), %ymm0 vaddps 0x5e0(%rsp), %ymm0, %ymm0 vmovaps %ymm0, 0x680(%rsp) kmovd %r12d, %k1 vbroadcastss 0x1fb0dc(%rip), %ymm0 # 0x1eeba20 vblendmps 0x560(%rsp), %ymm0, %ymm0 {%k1} vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm0, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1] vminps %ymm2, %ymm1, %ymm1 vcmpeqps %ymm1, %ymm0, %k0 kmovd %k0, %eax andb %r12b, %al movzbl %al, %eax movzbl %r12b, %ecx cmovnel %eax, %ecx tzcntl %ecx, %ecx movb $0x1, %r14b shlb %cl, %r14b shll $0x2, %ecx vmovss 0x6c0(%rsp,%rcx), %xmm8 vmovss 0x800(%rsp,%rcx), %xmm10 vmovaps 0x390(%rsp), %xmm0 vucomiss 0x1fb074(%rip), %xmm0 # 0x1eeba24 vmovss 0x118(%rsp), %xmm0 jae 0x1cf09fc vmovaps 0x390(%rsp), %xmm0 vmovaps %xmm8, 0xa0(%rsp) vmovaps %xmm10, 0x80(%rsp) kmovw %k1, 0x60(%rsp) vzeroupper callq 0x6aa20 kmovw 0x60(%rsp), %k1 vmovaps 0x80(%rsp), %xmm10 vmovaps 0xa0(%rsp), %xmm8 movzbl %r14b, %eax kmovd %eax, %k0 kandnb %k1, %k0, %k0 kmovd %k0, %r12d vmulss 0x2014a0(%rip), %xmm0, %xmm0 # 0x1ef1eb4 vmovss %xmm0, 0x54(%rsp) movl $0x5, %r15d vbroadcastss %xmm10, %xmm0 vxorps %xmm1, %xmm1, %xmm1 vfmadd132ps 0x3b0(%rsp), %xmm1, %xmm0 # xmm0 = (xmm0 * mem) + xmm1 vmovss 0x1fbcd9(%rip), %xmm1 # 0x1eec714 vsubss %xmm8, %xmm1, %xmm3 vbroadcastss %xmm8, %xmm1 vmovaps 0x500(%rsp), %ymm5 vmulps %xmm1, %xmm5, %xmm2 vmovaps %xmm3, 0x580(%rsp) vbroadcastss %xmm3, %xmm3 vfmadd231ps 0x540(%rsp), %xmm3, %xmm2 # xmm2 = (xmm3 * mem) + xmm2 vmovaps 0x520(%rsp), %ymm6 vmulps %xmm1, %xmm6, %xmm4 vfmadd231ps %xmm5, %xmm3, %xmm4 # xmm4 = (xmm3 * xmm5) + xmm4 vmulps 0x4e0(%rsp), %xmm1, %xmm5 vfmadd231ps %xmm6, %xmm3, %xmm5 # xmm5 = (xmm3 * xmm6) + xmm5 vmulps %xmm4, %xmm1, %xmm6 vfmadd231ps %xmm2, %xmm3, %xmm6 # xmm6 = (xmm3 * xmm2) + xmm6 vmulps %xmm5, %xmm1, %xmm2 vfmadd231ps %xmm4, %xmm3, %xmm2 # xmm2 = (xmm3 * xmm4) + xmm2 vmulps %xmm2, %xmm1, %xmm4 vfmadd231ps %xmm3, %xmm6, %xmm4 # xmm4 = (xmm6 * xmm3) + xmm4 vsubps %xmm6, %xmm2, %xmm1 vmulps 0x200539(%rip){1to4}, %xmm1, %xmm11 # 0x1ef0fec vmovaps %xmm4, 0x5a0(%rsp) vsubps %xmm4, %xmm0, %xmm0 vmovaps %xmm0, 0x360(%rsp) vdpps $0x7f, %xmm0, %xmm0, %xmm0 vucomiss 0x1faf4d(%rip), %xmm0 # 0x1eeba24 vmovaps %xmm11, 0x60(%rsp) vmovaps %xmm0, 0x420(%rsp) vmovaps %xmm8, 0xa0(%rsp) vmovaps %xmm10, 0x80(%rsp) jb 0x1cf0b00 vsqrtss %xmm0, %xmm0, %xmm7 jmp 0x1cf0b12 vzeroupper callq 0x6aa20 vmovaps 0x60(%rsp), %xmm11 vmovaps %xmm0, %xmm7 vdpps $0x7f, %xmm11, %xmm11, %xmm0 vxorps %xmm1, %xmm1, %xmm1 vmovss %xmm0, %xmm1, %xmm2 # xmm2 = xmm0[0],xmm1[1,2,3] vrsqrt14ss %xmm2, %xmm1, %xmm3 vmulss 0x1fbbea(%rip), %xmm3, %xmm4 # 0x1eec718 vmulss 0x1fbbe6(%rip), %xmm0, %xmm5 # 0x1eec71c vrcp14ss %xmm2, %xmm1, %xmm2 vxorps 0x23037a(%rip){1to4}, %xmm0, %xmm1 # 0x1f20ec0 vmovaps %xmm2, 0x4a0(%rsp) vfnmadd213ss 0x2004a0(%rip), %xmm0, %xmm2 # xmm2 = -(xmm0 * xmm2) + mem vmovss %xmm2, 0x2e0(%rsp) vucomiss %xmm1, %xmm0 vmovss %xmm7, 0x400(%rsp) vmovaps %xmm0, 0x4b0(%rsp) jb 0x1cf0b7f vsqrtss %xmm0, %xmm0, %xmm0 jmp 0x1cf0bcc vmovaps %xmm3, 0xe0(%rsp) vmovss %xmm4, 0xd0(%rsp) vmovss %xmm5, 0x2d0(%rsp) vzeroupper callq 0x6aa20 vmovss 0x2d0(%rsp), %xmm5 vmovss 0xd0(%rsp), %xmm4 vmovaps 0xe0(%rsp), %xmm3 vmovss 0x400(%rsp), %xmm7 vmovaps 0x60(%rsp), %xmm11 vmovss %xmm0, 0x3a0(%rsp) vmovaps 0x360(%rsp), %xmm15 vmulss %xmm3, %xmm5, %xmm0 vmulss %xmm3, %xmm3, %xmm1 vmulss %xmm1, %xmm0, %xmm0 vaddss %xmm0, %xmm4, %xmm0 vbroadcastss %xmm0, %xmm13 vmulps %xmm13, %xmm11, %xmm0 vmovaps %xmm0, 0x490(%rsp) vdpps $0x7f, %xmm0, %xmm15, %xmm0 vaddss 0x1fbb03(%rip), %xmm7, %xmm31 # 0x1eec714 vmovaps %xmm0, 0xe0(%rsp) vmulps %xmm0, %xmm0, %xmm0 vmovaps 0x420(%rsp), %xmm1 vsubps %xmm0, %xmm1, %xmm0 vxorps %xmm2, %xmm2, %xmm2 vmovss %xmm0, %xmm2, %xmm1 # xmm1 = xmm0[0],xmm2[1,2,3] vrsqrt14ss %xmm1, %xmm2, %xmm1 vmovaps %xmm1, 0xd0(%rsp) vmulss 0x1fbace(%rip), %xmm1, %xmm1 # 0x1eec718 vmovss %xmm1, 0x2d0(%rsp) vmulss 0x1fbac1(%rip), %xmm0, %xmm1 # 0x1eec71c vmovss %xmm1, 0x58(%rsp) vucomiss 0x1fadbb(%rip), %xmm0 # 0x1eeba24 jb 0x1cf0c71 vsqrtss %xmm0, %xmm0, %xmm0 jmp 0x1cf0cb3 vmovss %xmm31, 0x4c(%rsp) vmovaps %xmm13, 0x480(%rsp) vzeroupper callq 0x6aa20 vmovaps 0x480(%rsp), %xmm13 vmovss 0x400(%rsp), %xmm7 vmovss 0x4c(%rsp), %xmm31 vmovaps 0x360(%rsp), %xmm15 vmovaps 0x60(%rsp), %xmm11 vbroadcastss 0x230207(%rip), %ymm26 # 0x1f20ec4 vmovaps 0x220(%rsp), %ymm30 vmovaps 0x200(%rsp), %ymm21 vmovaps 0x240(%rsp), %ymm9 vmovaps 0x1e0(%rsp), %ymm12 vmovaps 0x2a0(%rsp), %ymm25 vmovaps 0x1c0(%rsp), %ymm17 vmovaps 0x1a0(%rsp), %ymm18 vmovaps 0x180(%rsp), %ymm22 vmovaps 0x160(%rsp), %ymm23 vmovaps 0x140(%rsp), %ymm20 vmovaps 0x120(%rsp), %ymm19 vmovaps 0x280(%rsp), %ymm29 vmovaps 0x260(%rsp), %ymm16 vmovaps 0xa0(%rsp), %xmm8 vmovaps 0x80(%rsp), %xmm10 vmovss 0x1ffc9b(%rip), %xmm3 # 0x1ef09dc vmovaps %xmm3, %xmm1 vmovaps 0x580(%rsp), %xmm5 vfmadd213ss %xmm5, %xmm8, %xmm1 # xmm1 = (xmm8 * xmm1) + xmm5 vmovss 0x200299(%rip), %xmm4 # 0x1ef0ff4 vmulss %xmm4, %xmm1, %xmm1 vmulss %xmm4, %xmm8, %xmm2 vbroadcastss %xmm2, %xmm2 vmulps 0x4e0(%rsp), %xmm2, %xmm2 vbroadcastss %xmm1, %xmm1 vfmadd132ps 0x520(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2 vmovaps %xmm3, %xmm2 vfmadd213ss %xmm8, %xmm5, %xmm2 # xmm2 = (xmm5 * xmm2) + xmm8 vmulss %xmm4, %xmm2, %xmm2 vbroadcastss %xmm2, %xmm2 vfmadd132ps 0x500(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1 vmulss %xmm4, %xmm5, %xmm1 vbroadcastss %xmm1, %xmm1 vfmadd132ps 0x540(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2 vbroadcastss 0x4b0(%rsp), %xmm2 vmulps %xmm2, %xmm1, %xmm2 vdpps $0x7f, %xmm1, %xmm11, %xmm1 vbroadcastss %xmm1, %xmm1 vmulps %xmm1, %xmm11, %xmm1 vsubps %xmm1, %xmm2, %xmm2 vmovss 0x2e0(%rsp), %xmm1 vmulss 0x4a0(%rsp), %xmm1, %xmm3 vmulss 0x54(%rsp), %xmm10, %xmm1 vmovss 0x50(%rsp), %xmm6 vmaxss %xmm1, %xmm6, %xmm1 vbroadcastss %xmm3, %xmm3 vmulps %xmm3, %xmm2, %xmm2 vxorps 0x2300bb(%rip){1to4}, %xmm11, %xmm3 # 0x1f20ec0 vmulps %xmm2, %xmm13, %xmm2 vmovaps 0x490(%rsp), %xmm13 vdpps $0x7f, %xmm13, %xmm3, %xmm4 vdivss 0x3a0(%rsp), %xmm6, %xmm5 vfmadd213ss %xmm1, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm7) + xmm1 vdpps $0x7f, %xmm2, %xmm15, %xmm2 vfmadd213ss %xmm7, %xmm5, %xmm31 # xmm31 = (xmm5 * xmm31) + xmm7 vaddss %xmm2, %xmm4, %xmm4 vmovaps 0x3b0(%rsp), %xmm7 vdpps $0x7f, %xmm13, %xmm7, %xmm5 vdpps $0x7f, %xmm3, %xmm15, %xmm3 vmovaps 0xd0(%rsp), %xmm6 vmulss 0x58(%rsp), %xmm6, %xmm2 vmulss %xmm6, %xmm6, %xmm6 vmulss %xmm6, %xmm2, %xmm2 vaddss 0x2d0(%rsp), %xmm2, %xmm6 vdpps $0x7f, %xmm7, %xmm15, %xmm7 vmovaps 0xe0(%rsp), %xmm28 vfnmadd231ss %xmm4, %xmm28, %xmm3 # xmm3 = -(xmm28 * xmm4) + xmm3 vfnmadd231ss %xmm5, %xmm28, %xmm7 # xmm7 = -(xmm28 * xmm5) + xmm7 vpermilps $0xff, 0x5a0(%rsp), %xmm2 # xmm2 = mem[3,3,3,3] vsubss %xmm2, %xmm0, %xmm2 vshufps $0xff, %xmm11, %xmm11, %xmm0 # xmm0 = xmm11[3,3,3,3] vfmsub213ss %xmm0, %xmm6, %xmm3 # xmm3 = (xmm6 * xmm3) - xmm0 vmulss %xmm6, %xmm7, %xmm6 vmulss %xmm3, %xmm5, %xmm7 vfmsub231ss %xmm6, %xmm4, %xmm7 # xmm7 = (xmm4 * xmm6) - xmm7 vdivss %xmm7, %xmm6, %xmm6 vdivss %xmm7, %xmm3, %xmm3 vdivss %xmm7, %xmm5, %xmm5 vdivss %xmm7, %xmm4, %xmm4 vmulss %xmm6, %xmm28, %xmm6 vmulss %xmm5, %xmm2, %xmm5 vsubss %xmm5, %xmm6, %xmm5 vmulss %xmm3, %xmm28, %xmm3 vmulss %xmm4, %xmm2, %xmm4 vsubss %xmm3, %xmm4, %xmm3 vsubss %xmm5, %xmm8, %xmm8 vsubss %xmm3, %xmm10, %xmm10 vbroadcastss 0x22ffdb(%rip), %xmm4 # 0x1f20ec4 vandps %xmm4, %xmm28, %xmm3 vucomiss %xmm3, %xmm31 movb $0x1, %al jbe 0x1cf0f4b vaddss %xmm31, %xmm1, %xmm1 vmovaps 0x460(%rsp), %xmm3 vfmadd231ss 0x200fa3(%rip), %xmm3, %xmm1 # xmm1 = (xmm3 * mem) + xmm1 vandps %xmm4, %xmm2, %xmm2 vucomiss %xmm2, %xmm1 jbe 0x1cf0f4b vaddss 0x470(%rsp), %xmm10, %xmm10 vucomiss 0x5c(%rsp), %xmm10 jb 0x1cf0f46 movq 0x38(%rsp), %rax movq 0x30(%rsp), %rcx vmovss 0x200(%rcx,%rax,4), %xmm5 vucomiss %xmm10, %xmm5 jae 0x1cf0f61 xorl %eax, %eax xorl %r14d, %r14d testb %al, %al je 0x1cf1370 decq %r15 jne 0x1cf0a20 jmp 0x1cf136d xorl %eax, %eax vucomiss 0x1faab9(%rip), %xmm8 # 0x1eeba24 jb 0x1cf0f48 vmovss 0x1fb79f(%rip), %xmm1 # 0x1eec714 vucomiss %xmm8, %xmm1 jb 0x1cf0f48 vxorps %xmm2, %xmm2, %xmm2 vmovaps 0x420(%rsp), %xmm3 vmovss %xmm3, %xmm2, %xmm1 # xmm1 = xmm3[0],xmm2[1,2,3] vrsqrt14ss %xmm1, %xmm2, %xmm1 vmulss 0x1fb77d(%rip), %xmm1, %xmm2 # 0x1eec718 vmulss 0x1fb779(%rip), %xmm3, %xmm3 # 0x1eec71c movq 0x40(%rsp), %rdx movq (%rdx), %rax movq 0x1e8(%rax), %rax movq 0xf8(%rsp), %rcx movq (%rax,%rcx,8), %r14 movq 0x38(%rsp), %rax movq 0x30(%rsp), %rcx movl 0x240(%rcx,%rax,4), %eax testl %eax, 0x34(%r14) je 0x1cf0f46 movq 0x10(%rdx), %rax cmpq $0x0, 0x10(%rax) jne 0x1cf0ff5 cmpq $0x0, 0x48(%r14) jne 0x1cf0ff5 movb $0x1, %r14b xorl %eax, %eax jmp 0x1cf0f4b vmulss %xmm1, %xmm3, %xmm3 vmulss %xmm1, %xmm1, %xmm1 vmulss %xmm1, %xmm3, %xmm1 vaddss %xmm1, %xmm2, %xmm1 vbroadcastss %xmm1, %xmm1 vmulps %xmm1, %xmm15, %xmm1 vfmadd213ps %xmm11, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm0) + xmm11 vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3] vshufps $0xc9, %xmm11, %xmm11, %xmm3 # xmm3 = xmm11[1,2,0,3] vmulps %xmm3, %xmm1, %xmm1 vfmsub231ps %xmm2, %xmm11, %xmm1 # xmm1 = (xmm11 * xmm2) - xmm1 vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3] vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3] vshufps $0xd2, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,0,1,3] vmulps %xmm1, %xmm0, %xmm0 vfmsub231ps %xmm3, %xmm2, %xmm0 # xmm0 = (xmm2 * xmm3) - xmm0 movq 0x40(%rsp), %rdx movq 0x8(%rdx), %rax vbroadcastss %xmm8, %zmm1 vbroadcastss 0x2216ac(%rip), %zmm2 # 0x1f12704 vpermps %zmm0, %zmm2, %zmm2 vbroadcastss 0x22fe74(%rip), %zmm3 # 0x1f20edc vpermps %zmm0, %zmm3, %zmm3 vbroadcastss %xmm0, %zmm0 vmovaps %zmm2, 0x900(%rsp) vmovaps %zmm3, 0x940(%rsp) vmovaps %zmm0, 0x980(%rsp) vmovaps %zmm1, 0x9c0(%rsp) vxorps %xmm0, %xmm0, %xmm0 vmovaps %zmm0, 0xa00(%rsp) vmovaps 0x8c0(%rsp), %zmm0 vmovaps %zmm0, 0xa40(%rsp) vmovdqa64 0x880(%rsp), %zmm0 vmovdqa64 %zmm0, 0xa80(%rsp) movq 0x2f8(%rsp), %rcx vpcmpeqd %ymm0, %ymm0, %ymm0 vmovdqa %ymm0, 0x60(%rcx) vmovdqa %ymm0, 0x40(%rcx) vmovdqa %ymm0, 0x20(%rcx) vmovdqa %ymm0, (%rcx) vbroadcastss (%rax), %zmm0 vmovaps %zmm0, 0xac0(%rsp) vbroadcastss 0x4(%rax), %zmm0 vmovaps %zmm0, 0xb00(%rsp) movq 0x38(%rsp), %rax movq 0x30(%rsp), %rcx vmovss %xmm10, 0x200(%rcx,%rax,4) vmovaps 0x840(%rsp), %zmm0 vmovaps %zmm0, 0x600(%rsp) leaq 0x600(%rsp), %rax movq %rax, 0x310(%rsp) movq 0x18(%r14), %rax movq %rax, 0x318(%rsp) movq 0x8(%rdx), %rax movq %rax, 0x320(%rsp) movq %rcx, 0x328(%rsp) leaq 0x900(%rsp), %rax movq %rax, 0x330(%rsp) movl $0x10, 0x338(%rsp) movq 0x48(%r14), %rax testq %rax, %rax vmovaps %xmm8, 0xa0(%rsp) vmovaps %xmm10, 0x80(%rsp) vmovss %xmm5, 0x60(%rsp) je 0x1cf1231 leaq 0x310(%rsp), %rdi vzeroupper callq *%rax vmovss 0x60(%rsp), %xmm5 vmovaps 0x80(%rsp), %xmm10 vmovaps 0xa0(%rsp), %xmm8 vmovaps 0x260(%rsp), %ymm16 vmovaps 0x280(%rsp), %ymm29 vmovaps 0x120(%rsp), %ymm19 vmovaps 0x140(%rsp), %ymm20 vmovaps 0x160(%rsp), %ymm23 vmovaps 0x180(%rsp), %ymm22 vmovaps 0x1a0(%rsp), %ymm18 vmovaps 0x1c0(%rsp), %ymm17 vmovaps 0x2a0(%rsp), %ymm25 vmovaps 0x1e0(%rsp), %ymm12 vmovaps 0x240(%rsp), %ymm9 vmovaps 0x200(%rsp), %ymm21 vmovaps 0x220(%rsp), %ymm30 vbroadcastss 0x22fc9d(%rip), %xmm4 # 0x1f20ec4 vbroadcastss 0x22fc93(%rip), %ymm26 # 0x1f20ec4 vmovdqa64 0x600(%rsp), %zmm0 vptestmd %zmm0, %zmm0, %k0 kortestw %k0, %k0 je 0x1cf1349 movq 0x40(%rsp), %rax movq 0x10(%rax), %rcx movq 0x10(%rcx), %rax testq %rax, %rax je 0x1cf1311 testb $0x2, (%rcx) jne 0x1cf126f testb $0x40, 0x3e(%r14) je 0x1cf1311 leaq 0x310(%rsp), %rdi vzeroupper callq *%rax vmovss 0x60(%rsp), %xmm5 vmovaps 0x80(%rsp), %xmm10 vmovaps 0xa0(%rsp), %xmm8 vmovaps 0x260(%rsp), %ymm16 vmovaps 0x280(%rsp), %ymm29 vmovaps 0x120(%rsp), %ymm19 vmovaps 0x140(%rsp), %ymm20 vmovaps 0x160(%rsp), %ymm23 vmovaps 0x180(%rsp), %ymm22 vmovaps 0x1a0(%rsp), %ymm18 vmovaps 0x1c0(%rsp), %ymm17 vmovaps 0x2a0(%rsp), %ymm25 vmovaps 0x1e0(%rsp), %ymm12 vmovaps 0x240(%rsp), %ymm9 vmovaps 0x200(%rsp), %ymm21 vmovaps 0x220(%rsp), %ymm30 vbroadcastss 0x22fbbd(%rip), %xmm4 # 0x1f20ec4 vbroadcastss 0x22fbb3(%rip), %ymm26 # 0x1f20ec4 vmovdqa64 0x600(%rsp), %zmm0 vptestmd %zmm0, %zmm0, %k1 movq 0x328(%rsp), %rax vmovaps 0x200(%rax), %zmm0 vbroadcastss 0x1fb84c(%rip), %zmm0 {%k1} # 0x1eecb84 vmovaps %zmm0, 0x200(%rax) kortestw %k1, %k1 setne %r14b jmp 0x1cf134c xorl %r14d, %r14d testb %r14b, %r14b jne 0x1cf0fee movq 0x38(%rsp), %rax movq 0x30(%rsp), %rcx vmovss %xmm5, 0x200(%rcx,%rax,4) jmp 0x1cf0fee xorl %r14d, %r14d andb $0x1, %r14b orb %r14b, %r13b movq 0x38(%rsp), %rdx movq 0x30(%rsp), %rax vmovaps 0x680(%rsp), %ymm0 vcmpleps 0x200(%rax,%rdx,4){1to8}, %ymm0, %k0 kmovd %k0, %eax andb %al, %r12b vmovaps %ymm26, %ymm28 jne 0x1cf0936 jmp 0x1cf1410 vbroadcastss 0x1fb360(%rip), %ymm3 # 0x1eec714 vmovaps 0x240(%rsp), %ymm9 vmovaps 0x4c0(%rsp), %ymm2 vmovaps 0x340(%rsp), %ymm4 jmp 0x1cf2118 vmovaps %ymm25, %ymm19 vmovaps %ymm13, %ymm25 vmovaps %ymm23, %ymm20 vmovaps %ymm22, %ymm23 vmovaps %ymm18, %ymm22 vmovaps %ymm17, %ymm18 vmovaps %ymm24, %ymm17 vbroadcastss 0x22fabd(%rip), %xmm4 # 0x1f20ec4 vmovaps 0x240(%rsp), %ymm9 vmovaps 0x5e0(%rsp), %ymm3 vaddps 0x660(%rsp), %ymm3, %ymm0 movq 0x30(%rsp), %rax vcmpleps 0x200(%rax,%rdx,4){1to8}, %ymm0, %k0 kmovd 0x114(%rsp), %k1 kmovd 0x10c(%rsp), %k2 korb %k2, %k1, %k1 kmovd %k0, %eax movl 0x48(%rsp), %ecx andb %al, %cl vpbroadcastd 0x22fa7e(%rip), %ymm0 # 0x1f20edc vpblendmd 0x22fa70(%rip){1to8}, %ymm0, %ymm0 {%k1} # 0x1f20ed8 vmovdqa %ymm0, 0x660(%rsp) vpcmpled 0x6e0(%rsp), %ymm0, %k0 kmovd %k0, %r12d movl %ecx, 0x48(%rsp) andb %cl, %r12b je 0x1cf1fe7 vmovaps 0x720(%rsp), %ymm7 vmovaps 0x540(%rsp), %ymm1 vmovaps 0x500(%rsp), %ymm2 vminps %xmm2, %xmm1, %xmm0 vmaxps %xmm2, %xmm1, %xmm1 vmovaps 0x520(%rsp), %ymm5 vmovaps 0x4e0(%rsp), %ymm6 vminps %xmm6, %xmm5, %xmm2 vminps %xmm2, %xmm0, %xmm0 vmaxps %xmm6, %xmm5, %xmm2 vmaxps %xmm2, %xmm1, %xmm1 vandps %xmm4, %xmm0, %xmm0 vandps %xmm4, %xmm1, %xmm2 vmaxps %xmm2, %xmm0, %xmm0 vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3] vmaxss %xmm0, %xmm2, %xmm2 vshufpd $0x1, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[1,0] vmaxss %xmm2, %xmm0, %xmm0 vmulss 0x2009bf(%rip), %xmm0, %xmm0 # 0x1ef1eb4 vmovss %xmm0, 0x54(%rsp) vshufps $0xff, %xmm1, %xmm1, %xmm0 # xmm0 = xmm1[3,3,3,3] vmovaps %xmm0, 0x460(%rsp) vmovaps %ymm7, 0x560(%rsp) vaddps %ymm7, %ymm3, %ymm0 vmovaps %ymm0, 0x680(%rsp) kmovd %r12d, %k1 vbroadcastss 0x1fa4f3(%rip), %ymm0 # 0x1eeba20 vblendmps 0x560(%rsp), %ymm0, %ymm0 {%k1} vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm0, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1] vminps %ymm2, %ymm1, %ymm1 vcmpeqps %ymm1, %ymm0, %k0 kmovd %k0, %eax andb %r12b, %al movzbl %al, %eax movzbl %r12b, %ecx cmovnel %eax, %ecx tzcntl %ecx, %ecx movb $0x1, %r14b shlb %cl, %r14b shll $0x2, %ecx vmovss 0x6a0(%rsp,%rcx), %xmm8 vmovss 0x740(%rsp,%rcx), %xmm10 vmovaps 0x390(%rsp), %xmm0 vucomiss 0x1fa48b(%rip), %xmm0 # 0x1eeba24 vmovss 0x11c(%rsp), %xmm0 jae 0x1cf15e5 vmovaps 0x390(%rsp), %xmm0 vmovaps %xmm8, 0xa0(%rsp) vmovaps %xmm10, 0x80(%rsp) kmovw %k1, 0x60(%rsp) vzeroupper callq 0x6aa20 kmovw 0x60(%rsp), %k1 vmovaps 0x80(%rsp), %xmm10 vmovaps 0xa0(%rsp), %xmm8 movzbl %r14b, %eax kmovd %eax, %k0 kandnb %k1, %k0, %k0 kmovd %k0, %r12d vmulss 0x2008b7(%rip), %xmm0, %xmm0 # 0x1ef1eb4 vmovss %xmm0, 0x58(%rsp) movl $0x5, %r15d vbroadcastss %xmm10, %xmm0 vxorps %xmm1, %xmm1, %xmm1 vfmadd132ps 0x3b0(%rsp), %xmm1, %xmm0 # xmm0 = (xmm0 * mem) + xmm1 vmovss 0x1fb0f0(%rip), %xmm1 # 0x1eec714 vsubss %xmm8, %xmm1, %xmm3 vbroadcastss %xmm8, %xmm1 vmovaps 0x500(%rsp), %ymm5 vmulps %xmm1, %xmm5, %xmm2 vmovaps %xmm3, 0x580(%rsp) vbroadcastss %xmm3, %xmm3 vfmadd231ps 0x540(%rsp), %xmm3, %xmm2 # xmm2 = (xmm3 * mem) + xmm2 vmovaps 0x520(%rsp), %ymm6 vmulps %xmm1, %xmm6, %xmm4 vfmadd231ps %xmm5, %xmm3, %xmm4 # xmm4 = (xmm3 * xmm5) + xmm4 vmulps 0x4e0(%rsp), %xmm1, %xmm5 vfmadd231ps %xmm6, %xmm3, %xmm5 # xmm5 = (xmm3 * xmm6) + xmm5 vmulps %xmm4, %xmm1, %xmm6 vfmadd231ps %xmm2, %xmm3, %xmm6 # xmm6 = (xmm3 * xmm2) + xmm6 vmulps %xmm5, %xmm1, %xmm2 vfmadd231ps %xmm4, %xmm3, %xmm2 # xmm2 = (xmm3 * xmm4) + xmm2 vmulps %xmm2, %xmm1, %xmm4 vfmadd231ps %xmm3, %xmm6, %xmm4 # xmm4 = (xmm6 * xmm3) + xmm4 vsubps %xmm6, %xmm2, %xmm1 vmulps 0x1ff950(%rip){1to4}, %xmm1, %xmm11 # 0x1ef0fec vmovaps %xmm4, 0x5a0(%rsp) vsubps %xmm4, %xmm0, %xmm0 vmovaps %xmm0, 0x360(%rsp) vdpps $0x7f, %xmm0, %xmm0, %xmm0 vucomiss 0x1fa364(%rip), %xmm0 # 0x1eeba24 vmovaps %xmm11, 0x60(%rsp) vmovaps %xmm0, 0x420(%rsp) vmovaps %xmm8, 0xa0(%rsp) vmovaps %xmm10, 0x80(%rsp) jb 0x1cf16e9 vsqrtss %xmm0, %xmm0, %xmm7 jmp 0x1cf16fb vzeroupper callq 0x6aa20 vmovaps 0x60(%rsp), %xmm11 vmovaps %xmm0, %xmm7 vdpps $0x7f, %xmm11, %xmm11, %xmm0 vxorps %xmm1, %xmm1, %xmm1 vmovss %xmm0, %xmm1, %xmm2 # xmm2 = xmm0[0],xmm1[1,2,3] vrsqrt14ss %xmm2, %xmm1, %xmm3 vmulss 0x1fb001(%rip), %xmm3, %xmm4 # 0x1eec718 vmulss 0x1faffd(%rip), %xmm0, %xmm5 # 0x1eec71c vrcp14ss %xmm2, %xmm1, %xmm2 vxorps 0x22f791(%rip){1to4}, %xmm0, %xmm1 # 0x1f20ec0 vmovaps %xmm2, 0x3a0(%rsp) vfnmadd213ss 0x1ff8b7(%rip), %xmm0, %xmm2 # xmm2 = -(xmm0 * xmm2) + mem vmovss %xmm2, 0x4a0(%rsp) vucomiss %xmm1, %xmm0 vmovss %xmm7, 0x400(%rsp) vmovaps %xmm0, 0x4b0(%rsp) jb 0x1cf176a vsqrtss %xmm0, %xmm0, %xmm26 jmp 0x1cf17bd vmovaps %xmm3, 0xe0(%rsp) vmovss %xmm4, 0x2e0(%rsp) vmovss %xmm5, 0xd0(%rsp) vzeroupper callq 0x6aa20 vmovss 0xd0(%rsp), %xmm5 vmovss 0x2e0(%rsp), %xmm4 vmovaps 0xe0(%rsp), %xmm3 vmovss 0x400(%rsp), %xmm7 vmovaps 0x60(%rsp), %xmm11 vmovaps %xmm0, %xmm26 vmovaps 0x360(%rsp), %xmm15 vmulss %xmm3, %xmm5, %xmm0 vmulss %xmm3, %xmm3, %xmm1 vmulss %xmm1, %xmm0, %xmm0 vaddss %xmm0, %xmm4, %xmm0 vbroadcastss %xmm0, %xmm14 vmulps %xmm14, %xmm11, %xmm0 vmovaps %xmm0, 0x2d0(%rsp) vdpps $0x7f, %xmm0, %xmm15, %xmm0 vaddss 0x1faf1b(%rip), %xmm7, %xmm31 # 0x1eec714 vmovaps %xmm0, 0xe0(%rsp) vmulps %xmm0, %xmm0, %xmm0 vmovaps 0x420(%rsp), %xmm1 vsubps %xmm0, %xmm1, %xmm0 vxorps %xmm2, %xmm2, %xmm2 vmovss %xmm0, %xmm2, %xmm1 # xmm1 = xmm0[0],xmm2[1,2,3] vrsqrt14ss %xmm1, %xmm2, %xmm1 vmovaps %xmm1, 0x2e0(%rsp) vmulss 0x1faee6(%rip), %xmm1, %xmm1 # 0x1eec718 vmovss %xmm1, 0xd0(%rsp) vmulss 0x1faed9(%rip), %xmm0, %xmm1 # 0x1eec71c vmovss %xmm1, 0x490(%rsp) vucomiss 0x1fa1d0(%rip), %xmm0 # 0x1eeba24 jb 0x1cf185c vsqrtss %xmm0, %xmm0, %xmm0 jmp 0x1cf18ae vmovss %xmm31, 0x50(%rsp) vmovss %xmm26, 0x4c(%rsp) vmovaps %xmm14, 0x480(%rsp) vzeroupper callq 0x6aa20 vmovaps 0x480(%rsp), %xmm14 vmovss 0x4c(%rsp), %xmm26 vmovss 0x400(%rsp), %xmm7 vmovss 0x50(%rsp), %xmm31 vmovaps 0x360(%rsp), %xmm15 vmovaps 0x60(%rsp), %xmm11 vbroadcastss 0x22f60c(%rip), %ymm28 # 0x1f20ec4 vmovaps 0x220(%rsp), %ymm30 vmovaps 0x200(%rsp), %ymm21 vmovaps 0x240(%rsp), %ymm9 vmovaps 0x1e0(%rsp), %ymm12 vmovaps 0x2a0(%rsp), %ymm13 vmovaps 0x1c0(%rsp), %ymm24 vmovaps 0x1a0(%rsp), %ymm17 vmovaps 0x180(%rsp), %ymm18 vmovaps 0x3e0(%rsp), %ymm19 vmovaps 0x3c0(%rsp), %ymm20 vmovaps 0x160(%rsp), %ymm22 vmovaps 0x140(%rsp), %ymm23 vmovaps 0x120(%rsp), %ymm25 vmovaps 0x280(%rsp), %ymm29 vmovaps 0x260(%rsp), %ymm16 vmovaps 0xa0(%rsp), %xmm8 vmovaps 0x80(%rsp), %xmm10 vmovss 0x1ff08f(%rip), %xmm3 # 0x1ef09dc vmovaps %xmm3, %xmm1 vmovaps 0x580(%rsp), %xmm5 vfmadd213ss %xmm5, %xmm8, %xmm1 # xmm1 = (xmm8 * xmm1) + xmm5 vmovss 0x1ff68d(%rip), %xmm4 # 0x1ef0ff4 vmulss %xmm4, %xmm1, %xmm1 vmulss %xmm4, %xmm8, %xmm2 vbroadcastss %xmm2, %xmm2 vmulps 0x4e0(%rsp), %xmm2, %xmm2 vbroadcastss %xmm1, %xmm1 vfmadd132ps 0x520(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2 vmovaps %xmm3, %xmm2 vfmadd213ss %xmm8, %xmm5, %xmm2 # xmm2 = (xmm5 * xmm2) + xmm8 vmulss %xmm4, %xmm2, %xmm2 vbroadcastss %xmm2, %xmm2 vfmadd132ps 0x500(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1 vmulss %xmm4, %xmm5, %xmm1 vbroadcastss %xmm1, %xmm1 vfmadd132ps 0x540(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2 vbroadcastss 0x4b0(%rsp), %xmm2 vmulps %xmm2, %xmm1, %xmm2 vdpps $0x7f, %xmm1, %xmm11, %xmm1 vbroadcastss %xmm1, %xmm1 vmulps %xmm1, %xmm11, %xmm1 vsubps %xmm1, %xmm2, %xmm2 vmovss 0x4a0(%rsp), %xmm1 vmulss 0x3a0(%rsp), %xmm1, %xmm3 vmulss 0x58(%rsp), %xmm10, %xmm1 vmovss 0x54(%rsp), %xmm6 vmaxss %xmm1, %xmm6, %xmm1 vbroadcastss %xmm3, %xmm3 vmulps %xmm3, %xmm2, %xmm2 vxorps 0x22f4af(%rip){1to4}, %xmm11, %xmm3 # 0x1f20ec0 vmulps %xmm2, %xmm14, %xmm2 vmovaps 0x2d0(%rsp), %xmm14 vdpps $0x7f, %xmm14, %xmm3, %xmm4 vdivss %xmm26, %xmm6, %xmm5 vfmadd213ss %xmm1, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm7) + xmm1 vdpps $0x7f, %xmm2, %xmm15, %xmm2 vfmadd213ss %xmm7, %xmm5, %xmm31 # xmm31 = (xmm5 * xmm31) + xmm7 vaddss %xmm2, %xmm4, %xmm4 vmovaps 0x3b0(%rsp), %xmm7 vdpps $0x7f, %xmm14, %xmm7, %xmm5 vdpps $0x7f, %xmm3, %xmm15, %xmm3 vmovaps 0x2e0(%rsp), %xmm6 vmulss 0x490(%rsp), %xmm6, %xmm2 vmulss %xmm6, %xmm6, %xmm6 vmulss %xmm6, %xmm2, %xmm2 vaddss 0xd0(%rsp), %xmm2, %xmm6 vdpps $0x7f, %xmm7, %xmm15, %xmm7 vmovaps 0xe0(%rsp), %xmm26 vfnmadd231ss %xmm4, %xmm26, %xmm3 # xmm3 = -(xmm26 * xmm4) + xmm3 vfnmadd231ss %xmm5, %xmm26, %xmm7 # xmm7 = -(xmm26 * xmm5) + xmm7 vpermilps $0xff, 0x5a0(%rsp), %xmm2 # xmm2 = mem[3,3,3,3] vsubss %xmm2, %xmm0, %xmm2 vshufps $0xff, %xmm11, %xmm11, %xmm0 # xmm0 = xmm11[3,3,3,3] vfmsub213ss %xmm0, %xmm6, %xmm3 # xmm3 = (xmm6 * xmm3) - xmm0 vmulss %xmm6, %xmm7, %xmm6 vmulss %xmm3, %xmm5, %xmm7 vfmsub231ss %xmm6, %xmm4, %xmm7 # xmm7 = (xmm4 * xmm6) - xmm7 vdivss %xmm7, %xmm6, %xmm6 vdivss %xmm7, %xmm3, %xmm3 vdivss %xmm7, %xmm5, %xmm5 vdivss %xmm7, %xmm4, %xmm4 vmulss %xmm6, %xmm26, %xmm6 vmulss %xmm5, %xmm2, %xmm5 vsubss %xmm5, %xmm6, %xmm5 vmulss %xmm3, %xmm26, %xmm3 vmulss %xmm4, %xmm2, %xmm4 vsubss %xmm3, %xmm4, %xmm3 vsubss %xmm5, %xmm8, %xmm8 vsubss %xmm3, %xmm10, %xmm10 vbroadcastss 0x22f3cf(%rip), %xmm4 # 0x1f20ec4 vandps %xmm4, %xmm26, %xmm3 vucomiss %xmm3, %xmm31 movb $0x1, %al jbe 0x1cf1b62 vaddss %xmm31, %xmm1, %xmm1 vmovaps 0x460(%rsp), %xmm3 vfmadd231ss 0x200397(%rip), %xmm3, %xmm1 # xmm1 = (xmm3 * mem) + xmm1 vandps %xmm4, %xmm2, %xmm2 vucomiss %xmm2, %xmm1 jbe 0x1cf1b62 vaddss 0x470(%rsp), %xmm10, %xmm10 vucomiss 0x5c(%rsp), %xmm10 vmovaps 0x340(%rsp), %ymm4 jb 0x1cf1b5b movq 0x38(%rsp), %rax movq 0x30(%rsp), %rcx vmovss 0x200(%rcx,%rax,4), %xmm5 vucomiss %xmm10, %xmm5 jae 0x1cf1b81 xorl %eax, %eax xorl %r14d, %r14d jmp 0x1cf1b6b vmovaps 0x340(%rsp), %ymm4 testb %al, %al je 0x1cf1fb2 decq %r15 jne 0x1cf1609 jmp 0x1cf1faf xorl %eax, %eax vucomiss 0x1f9e99(%rip), %xmm8 # 0x1eeba24 jb 0x1cf1b5d vmovss 0x1fab7f(%rip), %xmm1 # 0x1eec714 vucomiss %xmm8, %xmm1 jb 0x1cf1b5d vxorps %xmm2, %xmm2, %xmm2 vmovaps 0x420(%rsp), %xmm3 vmovss %xmm3, %xmm2, %xmm1 # xmm1 = xmm3[0],xmm2[1,2,3] vrsqrt14ss %xmm1, %xmm2, %xmm1 vmulss 0x1fab5d(%rip), %xmm1, %xmm2 # 0x1eec718 vmulss 0x1fab59(%rip), %xmm3, %xmm3 # 0x1eec71c movq 0x40(%rsp), %rdx movq (%rdx), %rax movq 0x1e8(%rax), %rax movq 0xf8(%rsp), %rcx movq (%rax,%rcx,8), %r14 movq 0x38(%rsp), %rax movq 0x30(%rsp), %rcx movl 0x240(%rcx,%rax,4), %eax testl %eax, 0x34(%r14) je 0x1cf1b5b movq 0x10(%rdx), %rax cmpq $0x0, 0x10(%rax) jne 0x1cf1c15 cmpq $0x0, 0x48(%r14) jne 0x1cf1c15 movb $0x1, %r14b xorl %eax, %eax jmp 0x1cf1b6b vmulss %xmm1, %xmm3, %xmm3 vmulss %xmm1, %xmm1, %xmm1 vmulss %xmm1, %xmm3, %xmm1 vaddss %xmm1, %xmm2, %xmm1 vbroadcastss %xmm1, %xmm1 vmulps %xmm1, %xmm15, %xmm1 vfmadd213ps %xmm11, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm0) + xmm11 vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3] vshufps $0xc9, %xmm11, %xmm11, %xmm3 # xmm3 = xmm11[1,2,0,3] vmulps %xmm3, %xmm1, %xmm1 vfmsub231ps %xmm2, %xmm11, %xmm1 # xmm1 = (xmm11 * xmm2) - xmm1 vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3] vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3] vshufps $0xd2, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,0,1,3] vmulps %xmm1, %xmm0, %xmm0 vfmsub231ps %xmm3, %xmm2, %xmm0 # xmm0 = (xmm2 * xmm3) - xmm0 movq 0x40(%rsp), %rdx movq 0x8(%rdx), %rax vbroadcastss %xmm8, %zmm1 vbroadcastss 0x220a8c(%rip), %zmm2 # 0x1f12704 vpermps %zmm0, %zmm2, %zmm2 vbroadcastss 0x22f254(%rip), %zmm3 # 0x1f20edc vpermps %zmm0, %zmm3, %zmm3 vbroadcastss %xmm0, %zmm0 vmovaps %zmm2, 0x900(%rsp) vmovaps %zmm3, 0x940(%rsp) vmovaps %zmm0, 0x980(%rsp) vmovaps %zmm1, 0x9c0(%rsp) vxorps %xmm0, %xmm0, %xmm0 vmovaps %zmm0, 0xa00(%rsp) vmovaps 0x8c0(%rsp), %zmm0 vmovaps %zmm0, 0xa40(%rsp) vmovdqa64 0x880(%rsp), %zmm0 vmovdqa64 %zmm0, 0xa80(%rsp) movq 0x2f8(%rsp), %rcx vpcmpeqd %ymm0, %ymm0, %ymm0 vmovdqa %ymm0, 0x60(%rcx) vmovdqa %ymm0, 0x40(%rcx) vmovdqa %ymm0, 0x20(%rcx) vmovdqa %ymm0, (%rcx) vbroadcastss (%rax), %zmm0 vmovaps %zmm0, 0xac0(%rsp) vbroadcastss 0x4(%rax), %zmm0 vmovaps %zmm0, 0xb00(%rsp) movq 0x38(%rsp), %rax movq 0x30(%rsp), %rcx vmovss %xmm10, 0x200(%rcx,%rax,4) vmovaps 0x840(%rsp), %zmm0 vmovaps %zmm0, 0x600(%rsp) leaq 0x600(%rsp), %rax movq %rax, 0x310(%rsp) movq 0x18(%r14), %rax movq %rax, 0x318(%rsp) movq 0x8(%rdx), %rax movq %rax, 0x320(%rsp) movq %rcx, 0x328(%rsp) leaq 0x900(%rsp), %rax movq %rax, 0x330(%rsp) movl $0x10, 0x338(%rsp) movq 0x48(%r14), %rax testq %rax, %rax vmovaps %xmm8, 0xa0(%rsp) vmovaps %xmm10, 0x80(%rsp) vmovss %xmm5, 0x60(%rsp) je 0x1cf1e62 leaq 0x310(%rsp), %rdi vzeroupper callq *%rax vmovss 0x60(%rsp), %xmm5 vmovaps 0x80(%rsp), %xmm10 vmovaps 0xa0(%rsp), %xmm8 vmovaps 0x260(%rsp), %ymm16 vmovaps 0x280(%rsp), %ymm29 vmovaps 0x120(%rsp), %ymm25 vmovaps 0x140(%rsp), %ymm23 vmovaps 0x160(%rsp), %ymm22 vmovaps 0x3c0(%rsp), %ymm20 vmovaps 0x3e0(%rsp), %ymm19 vmovaps 0x180(%rsp), %ymm18 vmovaps 0x1a0(%rsp), %ymm17 vmovaps 0x340(%rsp), %ymm4 vmovaps 0x1c0(%rsp), %ymm24 vmovaps 0x2a0(%rsp), %ymm13 vmovaps 0x1e0(%rsp), %ymm12 vmovaps 0x240(%rsp), %ymm9 vmovaps 0x200(%rsp), %ymm21 vmovaps 0x220(%rsp), %ymm30 vbroadcastss 0x22f062(%rip), %ymm28 # 0x1f20ec4 vmovdqa64 0x600(%rsp), %zmm0 vptestmd %zmm0, %zmm0, %k0 kortestw %k0, %k0 je 0x1cf1f8b movq 0x40(%rsp), %rax movq 0x10(%rax), %rcx movq 0x10(%rcx), %rax testq %rax, %rax je 0x1cf1f53 testb $0x2, (%rcx) jne 0x1cf1ea0 testb $0x40, 0x3e(%r14) je 0x1cf1f53 leaq 0x310(%rsp), %rdi vzeroupper callq *%rax vmovss 0x60(%rsp), %xmm5 vmovaps 0x80(%rsp), %xmm10 vmovaps 0xa0(%rsp), %xmm8 vmovaps 0x260(%rsp), %ymm16 vmovaps 0x280(%rsp), %ymm29 vmovaps 0x120(%rsp), %ymm25 vmovaps 0x140(%rsp), %ymm23 vmovaps 0x160(%rsp), %ymm22 vmovaps 0x3c0(%rsp), %ymm20 vmovaps 0x3e0(%rsp), %ymm19 vmovaps 0x180(%rsp), %ymm18 vmovaps 0x1a0(%rsp), %ymm17 vmovaps 0x340(%rsp), %ymm4 vmovaps 0x1c0(%rsp), %ymm24 vmovaps 0x2a0(%rsp), %ymm13 vmovaps 0x1e0(%rsp), %ymm12 vmovaps 0x240(%rsp), %ymm9 vmovaps 0x200(%rsp), %ymm21 vmovaps 0x220(%rsp), %ymm30 vbroadcastss 0x22ef71(%rip), %ymm28 # 0x1f20ec4 vmovdqa64 0x600(%rsp), %zmm0 vptestmd %zmm0, %zmm0, %k1 movq 0x328(%rsp), %rax vmovaps 0x200(%rax), %zmm0 vbroadcastss 0x1fac0a(%rip), %zmm0 {%k1} # 0x1eecb84 vmovaps %zmm0, 0x200(%rax) kortestw %k1, %k1 setne %r14b jmp 0x1cf1f8e xorl %r14d, %r14d testb %r14b, %r14b jne 0x1cf1c0e movq 0x38(%rsp), %rax movq 0x30(%rsp), %rcx vmovss %xmm5, 0x200(%rcx,%rax,4) jmp 0x1cf1c0e xorl %r14d, %r14d andb $0x1, %r14b orb %r14b, %r13b movq 0x38(%rsp), %rdx movq 0x30(%rsp), %rax vmovaps 0x680(%rsp), %ymm0 vcmpleps 0x200(%rax,%rdx,4){1to8}, %ymm0, %k0 kmovd %k0, %eax andb %al, %r12b jne 0x1cf151f jmp 0x1cf202a vmovaps 0x340(%rsp), %ymm4 vmovaps %ymm17, %ymm24 vmovaps %ymm18, %ymm17 vmovaps %ymm22, %ymm18 vmovaps %ymm23, %ymm22 vmovaps %ymm20, %ymm23 vmovaps %ymm25, %ymm13 vmovaps %ymm19, %ymm25 vmovaps 0x3e0(%rsp), %ymm19 vmovaps 0x3c0(%rsp), %ymm20 vmovdqa 0x6e0(%rsp), %ymm1 vpcmpltd 0x660(%rsp), %ymm1, %k1 vmovaps 0x800(%rsp), %ymm0 vpcmpltd 0x760(%rsp), %ymm1, %k2 vmovaps 0x5e0(%rsp), %ymm3 vaddps %ymm0, %ymm3, %ymm1 movq 0x30(%rsp), %rax vbroadcastss 0x200(%rax,%rdx,4), %ymm2 vcmpleps %ymm2, %ymm1, %k0 {%k2} kmovd %k0, %eax movl 0x110(%rsp), %ecx andb %al, %cl vmovaps 0x720(%rsp), %ymm1 vaddps %ymm1, %ymm3, %ymm3 vcmpleps %ymm2, %ymm3, %k0 {%k1} kmovd %k0, %eax movl 0x48(%rsp), %esi andb %al, %sil orb %cl, %sil je 0x1cf20ec movl %ebx, %eax leaq (%rax,%rax,2), %rax shlq $0x5, %rax movb %sil, 0xb60(%rsp,%rax) kmovd %ecx, %k1 vmovaps %ymm0, %ymm1 {%k1} vmovaps %ymm1, 0xb80(%rsp,%rax) vmovaps 0x450(%rsp), %xmm0 vmovlps %xmm0, 0xba0(%rsp,%rax) movq 0x100(%rsp), %rcx incl %ecx movl %ecx, 0xba8(%rsp,%rax) incl %ebx movq 0x300(%rsp), %r8 movq 0x40(%rsp), %r14 vbroadcastss 0x1fa612(%rip), %ymm3 # 0x1eec714 movb 0x2f(%rsp), %r15b movq 0x308(%rsp), %r12 vmovaps 0x4c0(%rsp), %ymm2 testl %ebx, %ebx je 0x1cf2293 leal -0x1(%rbx), %r9d leaq (%r9,%r9,2), %rcx shlq $0x5, %rcx vmovaps 0xb80(%rsp,%rcx), %ymm0 movzbl 0xb60(%rsp,%rcx), %esi vaddps 0x5e0(%rsp), %ymm0, %ymm1 movq 0x30(%rsp), %rax vcmpleps 0x200(%rax,%rdx,4){1to8}, %ymm1, %k0 kmovb %k0, %eax andl %esi, %eax je 0x1cf222a kmovd %eax, %k1 vbroadcastss 0x1f98b0(%rip), %ymm1 # 0x1eeba20 vblendmps %ymm0, %ymm1, %ymm0 {%k1} vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm0, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1] vminps %ymm2, %ymm1, %ymm1 vcmpeqps %ymm1, %ymm0, %k0 kmovd %k0, %esi andb %al, %sil je 0x1cf21a8 movzbl %sil, %edi jmp 0x1cf21ab movzbl %al, %edi leaq (%rsp,%rcx), %rsi addq $0xb60, %rsi # imm = 0xB60 vmovss 0x44(%rsi), %xmm0 tzcntl %edi, %ecx movb $0x1, %dil shlb %cl, %dil movl 0x48(%rsi), %r10d movq %r10, 0x100(%rsp) movzbl %dil, %edi kmovd %edi, %k0 kmovd %eax, %k1 kandnb %k1, %k0, %k0 kmovb %k0, (%rsi) kortestb %k0, %k0 vmovaps 0x4c0(%rsp), %ymm2 je 0x1cf21f7 movl %ebx, %r9d vbroadcastss 0x40(%rsi), %ymm1 vsubss %xmm1, %xmm0, %xmm0 vbroadcastss %xmm0, %ymm0 vfmadd132ps 0x22ed11(%rip), %ymm1, %ymm0 # ymm0 = (ymm0 * mem) + ymm1 vmovaps %ymm0, 0x900(%rsp) vmovsd 0x900(%rsp,%rcx,4), %xmm0 vmovaps %xmm0, 0x450(%rsp) movl %r9d, %ebx testb %al, %al je 0x1cf2118 vmovaps 0x450(%rsp), %xmm5 vmovaps 0x7a0(%rsp), %ymm27 vmovaps %ymm16, %ymm26 jmp 0x1cefcaf vcmpleps %ymm20, %ymm11, %k2 vbroadcastss 0x1fa923(%rip), %ymm7 # 0x1eecb84 vbroadcastss 0x1f97b6(%rip), %ymm11 # 0x1eeba20 vblendmps %ymm7, %ymm11, %ymm6 {%k2} vmovaps %ymm6, %ymm4 {%k1} vblendmps %ymm11, %ymm7, %ymm6 {%k2} vmovaps %ymm6, %ymm2 {%k1} knotb %k1, %k1 korb %k2, %k1, %k1 kandb %k0, %k1, %k0 jmp 0x1cf05f8 testb $0x1, %r13b jne 0x1cf22c4 movq 0x30(%rsp), %rax vmovaps 0x780(%rsp), %ymm0 vcmpleps 0x200(%rax,%rdx,4){1to8}, %ymm0, %k0 kmovb %k0, %eax andl %eax, %r12d setne %r15b jne 0x1cef91a andb $0x1, %r15b movl %r15d, %eax leaq -0x28(%rbp), %rsp popq %rbx popq %r12 popq %r13 popq %r14 popq %r15 popq %rbp vzeroupper retq nop
/embree[P]embree/kernels/geometry/curveNi_intersector.h
bool embree::avx512::CurveNiIntersector1<8>::occluded_t<embree::avx512::RibbonCurve1Intersector1<embree::BezierCurveT, 8>, embree::avx512::Occluded1EpilogMU<8, true>>(embree::avx512::CurvePrecalculations1 const&, embree::RayK<1>&, embree::RayQueryContext*, embree::CurveNi<8> const&)
static __forceinline bool occluded_t(const Precalculations& pre, Ray& ray, RayQueryContext* context, const Primitive& prim) { vfloat<M> tNear; vbool<M> valid = intersect(ray,prim,tNear); const size_t N = prim.N; size_t mask = movemask(valid); while (mask) { const size_t i = bscf(mask); STAT3(shadow.trav_prims,1,1,1); const unsigned int geomID = prim.geomID(N); const unsigned int primID = prim.primID(N)[i]; const CurveGeometry* geom = context->scene->get<CurveGeometry>(geomID); Vec3ff a0,a1,a2,a3; geom->gather(a0,a1,a2,a3,geom->curve(primID)); size_t mask1 = mask; const size_t i1 = bscf(mask1); if (mask) { const unsigned int primID1 = prim.primID(N)[i1]; geom->prefetchL1_vertices(geom->curve(primID1)); if (mask1) { const size_t i2 = bsf(mask1); const unsigned int primID2 = prim.primID(N)[i2]; geom->prefetchL2_vertices(geom->curve(primID2)); } } if (Intersector().intersect(pre,ray,context,geom,primID,a0,a1,a2,a3,Epilog(ray,context,geomID,primID))) return true; mask &= movemask(tNear <= vfloat<M>(ray.tfar)); } return false; }
pushq %rbp movq %rsp, %rbp pushq %r15 pushq %r14 pushq %r13 pushq %r12 pushq %rbx andq $-0x20, %rsp subq $0x620, %rsp # imm = 0x620 movq %rcx, %rbx movq %rdi, %r11 movzbl 0x1(%rcx), %eax leaq (%rax,%rax,4), %rcx leaq (%rcx,%rcx,4), %rdi vbroadcastss 0x12(%rbx,%rdi), %xmm0 vmovaps (%rsi), %xmm1 vsubps 0x6(%rbx,%rdi), %xmm1, %xmm1 vmulps 0x10(%rsi), %xmm0, %xmm2 vmulps %xmm1, %xmm0, %xmm3 vpmovsxbd 0x6(%rbx,%rax,4), %ymm0 vcvtdq2ps %ymm0, %ymm5 vpmovsxbd 0x6(%rbx,%rcx), %ymm0 vcvtdq2ps %ymm0, %ymm6 leaq (%rax,%rax,2), %r8 vpmovsxbd 0x6(%rbx,%r8,2), %ymm0 vcvtdq2ps %ymm0, %ymm7 leaq (%rax,%rcx,2), %rdi vpmovsxbd 0x6(%rbx,%rdi), %ymm0 vcvtdq2ps %ymm0, %ymm8 leal (,%r8,4), %edi vpmovsxbd 0x6(%rbx,%rdi), %ymm0 vcvtdq2ps %ymm0, %ymm9 addq %rax, %rdi vpmovsxbd 0x6(%rbx,%rdi), %ymm0 vcvtdq2ps %ymm0, %ymm10 leaq (%rax,%rax,8), %r9 leal (%r9,%r9), %edi vpmovsxbd 0x6(%rbx,%rdi), %ymm0 addq %rax, %rdi vpmovsxbd 0x6(%rbx,%rdi), %ymm1 vcvtdq2ps %ymm0, %ymm11 vcvtdq2ps %ymm1, %ymm12 shll $0x2, %ecx vpmovsxbd 0x6(%rbx,%rcx), %ymm0 vcvtdq2ps %ymm0, %ymm13 vbroadcastss %xmm2, %ymm14 vbroadcastss 0x21e235(%rip), %ymm16 # 0x1f12704 vpermps %ymm2, %ymm16, %ymm15 vbroadcastss 0x22c9fd(%rip), %ymm17 # 0x1f20edc vpermps %ymm2, %ymm17, %ymm0 vmulps %ymm7, %ymm0, %ymm4 vmulps %ymm0, %ymm10, %ymm1 vmulps %ymm0, %ymm13, %ymm0 vfmadd231ps %ymm6, %ymm15, %ymm4 # ymm4 = (ymm15 * ymm6) + ymm4 vfmadd231ps %ymm9, %ymm15, %ymm1 # ymm1 = (ymm15 * ymm9) + ymm1 vfmadd231ps %ymm15, %ymm12, %ymm0 # ymm0 = (ymm12 * ymm15) + ymm0 vfmadd231ps %ymm5, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm5) + ymm4 vfmadd231ps %ymm8, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm8) + ymm1 vfmadd231ps %ymm14, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm14) + ymm0 vbroadcastss %xmm3, %ymm14 vpermps %ymm3, %ymm16, %ymm15 vpermps %ymm3, %ymm17, %ymm2 vmulps %ymm7, %ymm2, %ymm7 vmulps %ymm2, %ymm10, %ymm3 vmulps %ymm2, %ymm13, %ymm2 vfmadd231ps %ymm6, %ymm15, %ymm7 # ymm7 = (ymm15 * ymm6) + ymm7 vfmadd231ps %ymm9, %ymm15, %ymm3 # ymm3 = (ymm15 * ymm9) + ymm3 vfmadd231ps %ymm12, %ymm15, %ymm2 # ymm2 = (ymm15 * ymm12) + ymm2 vfmadd231ps %ymm5, %ymm14, %ymm7 # ymm7 = (ymm14 * ymm5) + ymm7 vfmadd231ps %ymm8, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm8) + ymm3 vfmadd231ps %ymm11, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm11) + ymm2 vbroadcastss 0x22c971(%rip), %ymm8 # 0x1f20ec4 vandps %ymm4, %ymm8, %ymm5 vbroadcastss 0x1fca88(%rip), %ymm6 # 0x1ef0fe8 vcmpltps %ymm6, %ymm5, %k1 vmovaps %ymm6, %ymm4 {%k1} vandps %ymm1, %ymm8, %ymm5 vcmpltps %ymm6, %ymm5, %k1 vmovaps %ymm6, %ymm1 {%k1} vandps %ymm0, %ymm8, %ymm5 vcmpltps %ymm6, %ymm5, %k1 vmovaps %ymm6, %ymm0 {%k1} vrcp14ps %ymm4, %ymm5 vbroadcastss 0x1f8176(%rip), %ymm6 # 0x1eec714 vfnmadd213ps %ymm6, %ymm5, %ymm4 # ymm4 = -(ymm5 * ymm4) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm4 # ymm4 = (ymm4 * ymm5) + ymm5 vrcp14ps %ymm1, %ymm5 vfnmadd213ps %ymm6, %ymm5, %ymm1 # ymm1 = -(ymm5 * ymm1) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm1 # ymm1 = (ymm1 * ymm5) + ymm5 vrcp14ps %ymm0, %ymm5 vfnmadd213ps %ymm6, %ymm5, %ymm0 # ymm0 = -(ymm5 * ymm0) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm0 # ymm0 = (ymm0 * ymm5) + ymm5 leaq (,%rax,8), %rdi subq %rax, %rdi vpmovsxwd 0x6(%rbx,%rdi), %ymm5 vcvtdq2ps %ymm5, %ymm5 vsubps %ymm7, %ymm5, %ymm5 vpmovsxwd 0x6(%rbx,%r9), %ymm6 vmulps %ymm5, %ymm4, %ymm5 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm7, %ymm6, %ymm6 vmulps %ymm6, %ymm4, %ymm4 leaq (%rax,%rax), %r9 addq %rax, %rcx shlq $0x3, %r8 subq %rax, %r8 movl %eax, %edi shll $0x4, %edi vpmovsxwd 0x6(%rbx,%rdi), %ymm6 subq %r9, %rdi vpmovsxwd 0x6(%rbx,%rdi), %ymm7 vcvtdq2ps %ymm7, %ymm7 vsubps %ymm3, %ymm7, %ymm7 vmulps %ymm7, %ymm1, %ymm7 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm3, %ymm6, %ymm3 vmulps %ymm3, %ymm1, %ymm1 vpmovsxwd 0x6(%rbx,%rcx), %ymm3 vcvtdq2ps %ymm3, %ymm3 vsubps %ymm2, %ymm3, %ymm3 vmulps %ymm0, %ymm3, %ymm3 vpmovsxwd 0x6(%rbx,%r8), %ymm6 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm2, %ymm6, %ymm2 vmulps %ymm2, %ymm0, %ymm0 vpminsd %ymm4, %ymm5, %ymm2 vpminsd %ymm1, %ymm7, %ymm6 vmaxps %ymm6, %ymm2, %ymm2 vpminsd %ymm0, %ymm3, %ymm6 vmaxps 0xc(%rsi){1to8}, %ymm6, %ymm6 vmaxps %ymm6, %ymm2, %ymm2 vmulps 0x22b88d(%rip){1to8}, %ymm2, %ymm6 # 0x1f1ff10 vpmaxsd %ymm4, %ymm5, %ymm2 vpmaxsd %ymm1, %ymm7, %ymm1 vminps %ymm1, %ymm2, %ymm1 vpmaxsd %ymm0, %ymm3, %ymm0 vminps 0x20(%rsi){1to8}, %ymm0, %ymm0 vminps %ymm0, %ymm1, %ymm0 vmulps 0x22b869(%rip){1to8}, %ymm0, %ymm0 # 0x1f1ff14 vpbroadcastd %eax, %ymm1 vpcmpgtd 0x266265(%rip), %ymm1, %k0 # 0x1f5a920 vmovaps %ymm6, 0x5e0(%rsp) vcmpleps %ymm0, %ymm6, %k1 ktestb %k0, %k1 setne 0x17(%rsp) je 0x1cf60da kandb %k0, %k1, %k0 kmovd %k0, %eax movzbl %al, %r14d vmovaps %ymm6, 0x80(%rsp) vmovaps %ymm2, 0x60(%rsp) vmovaps %ymm21, 0x1e0(%rsp) vmovaps %ymm20, 0x200(%rsp) tzcntq %r14, %rax movl 0x2(%rbx), %ecx movl 0x6(%rbx,%rax,4), %r8d movq (%rdx), %rax movq 0x1e8(%rax), %rax movq %rcx, 0x58(%rsp) movq (%rax,%rcx,8), %r15 movq 0x58(%r15), %rax movq 0x68(%r15), %rcx movq %rcx, %rdi movq %r8, 0x108(%rsp) imulq %r8, %rdi movl (%rax,%rdi), %edi movq 0xa0(%r15), %r9 movq %r9, %r8 imulq %rdi, %r8 movq 0x90(%r15), %r10 vmovaps (%r10,%r8), %xmm13 leaq 0x1(%rdi), %r8 imulq %r9, %r8 vmovaps (%r10,%r8), %xmm0 vmovaps %xmm0, 0x150(%rsp) leaq 0x2(%rdi), %r8 imulq %r9, %r8 vmovaps (%r10,%r8), %xmm0 vmovaps %xmm0, 0x140(%rsp) blsrq %r14, %r14 addq $0x3, %rdi imulq %r9, %rdi vmovaps (%r10,%rdi), %xmm0 vmovaps %xmm0, 0x1b0(%rsp) movq %r14, %rdi subq $0x1, %rdi jb 0x1cf47f5 andq %r14, %rdi tzcntq %r14, %r8 movl 0x6(%rbx,%r8,4), %r8d imulq %rcx, %r8 movl (%rax,%r8), %r8d imulq %r9, %r8 prefetcht0 (%r10,%r8) prefetcht0 0x40(%r10,%r8) testq %rdi, %rdi je 0x1cf47f5 tzcntq %rdi, %rdi movl 0x6(%rbx,%rdi,4), %edi imulq %rdi, %rcx movl (%rax,%rcx), %eax imulq %rax, %r9 prefetcht1 (%r10,%r9) prefetcht1 0x40(%r10,%r9) movl 0x248(%r15), %r12d vmovaps (%rsi), %xmm0 vsubps %xmm0, %xmm13, %xmm1 vbroadcastss %xmm1, %xmm2 vshufps $0x55, %xmm1, %xmm1, %xmm3 # xmm3 = xmm1[1,1,1,1] vshufps $0xaa, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,2,2,2] vmovaps 0x10(%r11), %xmm4 vmovaps 0x20(%r11), %xmm5 vmovaps 0x30(%r11), %xmm6 vmulps %xmm6, %xmm1, %xmm8 vfmadd231ps %xmm3, %xmm5, %xmm8 # xmm8 = (xmm5 * xmm3) + xmm8 vfmadd231ps %xmm2, %xmm4, %xmm8 # xmm8 = (xmm4 * xmm2) + xmm8 vshufps $0xff, %xmm13, %xmm13, %xmm1 # xmm1 = xmm13[3,3,3,3] vmovaps 0x150(%rsp), %xmm3 vsubps %xmm0, %xmm3, %xmm2 vmovaps %xmm3, %xmm10 vbroadcastss %xmm2, %xmm3 vshufps $0x55, %xmm2, %xmm2, %xmm7 # xmm7 = xmm2[1,1,1,1] vshufps $0xaa, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[2,2,2,2] vmulps %xmm6, %xmm2, %xmm9 vfmadd231ps %xmm7, %xmm5, %xmm9 # xmm9 = (xmm5 * xmm7) + xmm9 vfmadd231ps %xmm3, %xmm4, %xmm9 # xmm9 = (xmm4 * xmm3) + xmm9 vshufps $0xff, %xmm10, %xmm10, %xmm2 # xmm2 = xmm10[3,3,3,3] vmovaps 0x140(%rsp), %xmm7 vsubps %xmm0, %xmm7, %xmm3 vmovaps %xmm7, %xmm12 vbroadcastss %xmm3, %xmm7 vshufps $0x55, %xmm3, %xmm3, %xmm11 # xmm11 = xmm3[1,1,1,1] vshufps $0xaa, %xmm3, %xmm3, %xmm3 # xmm3 = xmm3[2,2,2,2] vmulps %xmm6, %xmm3, %xmm10 vfmadd231ps %xmm11, %xmm5, %xmm10 # xmm10 = (xmm5 * xmm11) + xmm10 vfmadd231ps %xmm7, %xmm4, %xmm10 # xmm10 = (xmm4 * xmm7) + xmm10 vshufps $0xff, %xmm12, %xmm12, %xmm7 # xmm7 = xmm12[3,3,3,3] vmovaps 0x1b0(%rsp), %xmm30 vsubps %xmm0, %xmm30, %xmm0 vbroadcastss %xmm0, %xmm3 vshufps $0x55, %xmm0, %xmm0, %xmm12 # xmm12 = xmm0[1,1,1,1] vshufps $0xaa, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[2,2,2,2] vmulps %xmm6, %xmm0, %xmm11 vfmadd231ps %xmm12, %xmm5, %xmm11 # xmm11 = (xmm5 * xmm12) + xmm11 vfmadd231ps %xmm3, %xmm4, %xmm11 # xmm11 = (xmm4 * xmm3) + xmm11 movslq %r12d, %rax movq %rax, %rcx shlq $0x6, %rcx leaq (%rcx,%rax,4), %r13 leaq 0x432a03(%rip), %rdi # 0x21272e4 vmovups (%rdi,%r13), %ymm25 vshufps $0xff, %xmm30, %xmm30, %xmm0 # xmm0 = xmm30[3,3,3,3] vbroadcastss %xmm8, %ymm20 vbroadcastss 0x21de06(%rip), %ymm3 # 0x1f12704 vpermps %ymm8, %ymm3, %ymm23 vbroadcastsd %xmm1, %ymm12 vmovups 0x484(%rdi,%r13), %ymm14 vbroadcastss %xmm9, %ymm1 vpermps %ymm9, %ymm3, %ymm31 vbroadcastsd %xmm2, %ymm21 vmovups 0x908(%rdi,%r13), %ymm15 vbroadcastss %xmm10, %ymm26 vpermps %ymm10, %ymm3, %ymm29 vbroadcastsd %xmm7, %ymm22 vmovups 0xd8c(%rdi,%r13), %ymm16 vbroadcastss %xmm11, %ymm27 vpermps %ymm11, %ymm3, %ymm28 vbroadcastsd %xmm0, %ymm3 vmulps %ymm16, %ymm27, %ymm5 vmulps %ymm16, %ymm28, %ymm4 vfmadd231ps %ymm26, %ymm15, %ymm5 # ymm5 = (ymm15 * ymm26) + ymm5 vfmadd231ps %ymm29, %ymm15, %ymm4 # ymm4 = (ymm15 * ymm29) + ymm4 vfmadd231ps %ymm1, %ymm14, %ymm5 # ymm5 = (ymm14 * ymm1) + ymm5 vfmadd231ps %ymm31, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm31) + ymm4 vfmadd231ps %ymm20, %ymm25, %ymm5 # ymm5 = (ymm25 * ymm20) + ymm5 leaq 0x434d78(%rip), %r8 # 0x2129704 vmovups (%r8,%r13), %ymm2 vmovups 0x484(%r8,%r13), %ymm17 vfmadd231ps %ymm23, %ymm25, %ymm4 # ymm4 = (ymm25 * ymm23) + ymm4 vmovups 0x908(%r8,%r13), %ymm18 vmovups 0xd8c(%r8,%r13), %ymm19 vmulps %ymm19, %ymm27, %ymm7 vmulps %ymm19, %ymm28, %ymm6 vfmadd231ps %ymm26, %ymm18, %ymm7 # ymm7 = (ymm18 * ymm26) + ymm7 vfmadd231ps %ymm29, %ymm18, %ymm6 # ymm6 = (ymm18 * ymm29) + ymm6 vmovaps %ymm1, 0x160(%rsp) vfmadd231ps %ymm1, %ymm17, %ymm7 # ymm7 = (ymm17 * ymm1) + ymm7 vfmadd231ps %ymm31, %ymm17, %ymm6 # ymm6 = (ymm17 * ymm31) + ymm6 vmovaps %ymm20, 0x240(%rsp) vfmadd231ps %ymm20, %ymm2, %ymm7 # ymm7 = (ymm2 * ymm20) + ymm7 vmovaps %ymm23, 0x220(%rsp) vfmadd231ps %ymm23, %ymm2, %ymm6 # ymm6 = (ymm2 * ymm23) + ymm6 vsubps %ymm5, %ymm7, %ymm24 vsubps %ymm4, %ymm6, %ymm23 vmulps %ymm24, %ymm4, %ymm0 vmulps %ymm23, %ymm5, %ymm1 vsubps %ymm1, %ymm0, %ymm20 vmulps %ymm16, %ymm3, %ymm0 vfmadd231ps %ymm22, %ymm15, %ymm0 # ymm0 = (ymm15 * ymm22) + ymm0 vfmadd231ps %ymm21, %ymm14, %ymm0 # ymm0 = (ymm14 * ymm21) + ymm0 vfmadd231ps %ymm12, %ymm25, %ymm0 # ymm0 = (ymm25 * ymm12) + ymm0 vmovaps %ymm3, 0x4c0(%rsp) vmulps %ymm19, %ymm3, %ymm1 vmovaps %ymm22, 0x520(%rsp) vfmadd231ps %ymm22, %ymm18, %ymm1 # ymm1 = (ymm18 * ymm22) + ymm1 vmovaps %ymm21, 0x580(%rsp) vfmadd231ps %ymm21, %ymm17, %ymm1 # ymm1 = (ymm17 * ymm21) + ymm1 vmovaps %ymm12, 0x5c0(%rsp) vfmadd231ps %ymm12, %ymm2, %ymm1 # ymm1 = (ymm2 * ymm12) + ymm1 vmulps %ymm23, %ymm23, %ymm21 vfmadd231ps %ymm24, %ymm24, %ymm21 # ymm21 = (ymm24 * ymm24) + ymm21 vmaxps %ymm1, %ymm0, %ymm22 vmulps %ymm22, %ymm22, %ymm22 vmulps %ymm21, %ymm22, %ymm21 vmulps %ymm20, %ymm20, %ymm20 vcmpleps %ymm21, %ymm20, %k1 vmovaps %xmm13, 0x30(%rsp) vblendps $0x8, %xmm13, %xmm8, %xmm12 # xmm12 = xmm8[0,1,2],xmm13[3] vbroadcastss 0x22c412(%rip), %xmm20 # 0x1f20ec4 vandps %xmm20, %xmm12, %xmm12 vblendps $0x8, 0x150(%rsp), %xmm9, %xmm13 # xmm13 = xmm9[0,1,2],mem[3] vandps %xmm20, %xmm13, %xmm13 vmaxps %xmm13, %xmm12, %xmm12 vblendps $0x8, 0x140(%rsp), %xmm10, %xmm13 # xmm13 = xmm10[0,1,2],mem[3] vandps %xmm20, %xmm13, %xmm13 vmovaps %xmm30, %xmm3 vblendps $0x8, %xmm3, %xmm11, %xmm3 # xmm3 = xmm11[0,1,2],xmm3[3] vandps %xmm20, %xmm3, %xmm3 vmaxps %xmm3, %xmm13, %xmm3 vmaxps %xmm3, %xmm12, %xmm3 vmovshdup %xmm3, %xmm12 # xmm12 = xmm3[1,1,3,3] vmaxss %xmm3, %xmm12, %xmm12 vshufpd $0x1, %xmm3, %xmm3, %xmm3 # xmm3 = xmm3[1,0] vmaxss %xmm12, %xmm3, %xmm3 vcvtsi2ss %r12d, %xmm8, %xmm12 vmovaps %xmm12, 0x280(%rsp) vbroadcastss %xmm12, %ymm12 vcmpgtps 0x22c417(%rip), %ymm12, %k1 {%k1} # 0x1f20f40 vmulss 0x1fc4b3(%rip), %xmm3, %xmm12 # 0x1ef0fe4 vbroadcastss 0x22c3a2(%rip), %ymm3 # 0x1f20edc vpermps %ymm8, %ymm3, %ymm20 vpermps %ymm9, %ymm3, %ymm21 vpermps %ymm10, %ymm3, %ymm22 vpermps %ymm11, %ymm3, %ymm8 kortestb %k1, %k1 vmovss 0xc(%rsi), %xmm9 vmovaps %ymm31, 0x5a0(%rsp) vmovaps %ymm26, 0x560(%rsp) vmovaps %ymm29, 0x540(%rsp) vmovaps %ymm27, 0x500(%rsp) vmovaps %ymm28, 0x4e0(%rsp) vmovaps %ymm20, 0x4a0(%rsp) vmovaps %ymm21, 0x480(%rsp) vmovaps %ymm22, 0x460(%rsp) je 0x1cf54d6 vmovaps %xmm9, 0x1c0(%rsp) vmulps %ymm19, %ymm8, %ymm3 vfmadd213ps %ymm3, %ymm22, %ymm18 # ymm18 = (ymm22 * ymm18) + ymm3 vfmadd213ps %ymm18, %ymm21, %ymm17 # ymm17 = (ymm21 * ymm17) + ymm18 vfmadd213ps %ymm17, %ymm20, %ymm2 # ymm2 = (ymm20 * ymm2) + ymm17 vmulps %ymm16, %ymm8, %ymm3 vfmadd213ps %ymm3, %ymm22, %ymm15 # ymm15 = (ymm22 * ymm15) + ymm3 vfmadd213ps %ymm15, %ymm21, %ymm14 # ymm14 = (ymm21 * ymm14) + ymm15 vmovups 0x1210(%rdi,%r13), %ymm3 vmovups 0x1694(%rdi,%r13), %ymm10 vmovups 0x1b18(%rdi,%r13), %ymm11 vmovaps %xmm12, %xmm16 vmovups 0x1f9c(%rdi,%r13), %ymm12 vfmadd213ps %ymm14, %ymm20, %ymm25 # ymm25 = (ymm20 * ymm25) + ymm14 vmulps %ymm12, %ymm27, %ymm9 vmovaps %ymm8, %ymm15 vmulps %ymm12, %ymm28, %ymm8 vmulps %ymm12, %ymm15, %ymm12 vfmadd231ps %ymm26, %ymm11, %ymm9 # ymm9 = (ymm11 * ymm26) + ymm9 vfmadd231ps %ymm29, %ymm11, %ymm8 # ymm8 = (ymm11 * ymm29) + ymm8 vfmadd231ps %ymm11, %ymm22, %ymm12 # ymm12 = (ymm22 * ymm11) + ymm12 vmovaps 0x160(%rsp), %ymm19 vfmadd231ps %ymm19, %ymm10, %ymm9 # ymm9 = (ymm10 * ymm19) + ymm9 vfmadd231ps %ymm31, %ymm10, %ymm8 # ymm8 = (ymm10 * ymm31) + ymm8 vfmadd231ps %ymm10, %ymm21, %ymm12 # ymm12 = (ymm21 * ymm10) + ymm12 vmovaps 0x240(%rsp), %ymm17 vfmadd231ps %ymm17, %ymm3, %ymm9 # ymm9 = (ymm3 * ymm17) + ymm9 vmovaps 0x220(%rsp), %ymm18 vfmadd231ps %ymm18, %ymm3, %ymm8 # ymm8 = (ymm3 * ymm18) + ymm8 vmovups 0x1210(%r8,%r13), %ymm10 vmovups 0x1b18(%r8,%r13), %ymm11 vmovups 0x1f9c(%r8,%r13), %ymm13 vfmadd231ps %ymm3, %ymm20, %ymm12 # ymm12 = (ymm20 * ymm3) + ymm12 vmulps %ymm13, %ymm27, %ymm3 vmulps %ymm13, %ymm28, %ymm14 vmovaps %ymm15, 0x180(%rsp) vmulps %ymm13, %ymm15, %ymm13 vfmadd231ps %ymm26, %ymm11, %ymm3 # ymm3 = (ymm11 * ymm26) + ymm3 vfmadd231ps %ymm29, %ymm11, %ymm14 # ymm14 = (ymm11 * ymm29) + ymm14 vfmadd231ps %ymm11, %ymm22, %ymm13 # ymm13 = (ymm22 * ymm11) + ymm13 vmovups 0x1694(%r8,%r13), %ymm11 vfmadd231ps %ymm19, %ymm11, %ymm3 # ymm3 = (ymm11 * ymm19) + ymm3 vfmadd231ps %ymm31, %ymm11, %ymm14 # ymm14 = (ymm11 * ymm31) + ymm14 vfmadd231ps %ymm11, %ymm21, %ymm13 # ymm13 = (ymm21 * ymm11) + ymm13 vfmadd231ps %ymm17, %ymm10, %ymm3 # ymm3 = (ymm10 * ymm17) + ymm3 vfmadd231ps %ymm18, %ymm10, %ymm14 # ymm14 = (ymm10 * ymm18) + ymm14 vfmadd231ps %ymm10, %ymm20, %ymm13 # ymm13 = (ymm20 * ymm10) + ymm13 vbroadcastss 0x22c1d8(%rip), %ymm15 # 0x1f20ec4 vandps %ymm15, %ymm9, %ymm10 vandps %ymm15, %ymm8, %ymm11 vmaxps %ymm11, %ymm10, %ymm10 vandps %ymm15, %ymm12, %ymm11 vmaxps %ymm11, %ymm10, %ymm10 vbroadcastss %xmm16, %ymm11 vmovaps %xmm16, %xmm26 vcmpltps %ymm11, %ymm10, %k2 vmovaps %ymm24, %ymm9 {%k2} vmovaps %ymm23, %ymm8 {%k2} vandps %ymm3, %ymm15, %ymm10 vandps %ymm15, %ymm14, %ymm12 vmaxps %ymm12, %ymm10, %ymm10 vandps %ymm15, %ymm13, %ymm12 vmaxps %ymm12, %ymm10, %ymm10 vcmpltps %ymm11, %ymm10, %k2 vmovaps %ymm24, %ymm3 {%k2} vmovaps %ymm23, %ymm14 {%k2} vbroadcastss 0x22c168(%rip), %ymm11 # 0x1f20ec0 vxorps %ymm11, %ymm9, %ymm10 vxorps %ymm3, %ymm11, %ymm12 vxorps %xmm28, %xmm28, %xmm28 vfmadd213ps %ymm28, %ymm9, %ymm9 # ymm9 = (ymm9 * ymm9) + ymm28 vfmadd231ps %ymm8, %ymm8, %ymm9 # ymm9 = (ymm8 * ymm8) + ymm9 vrsqrt14ps %ymm9, %ymm11 vbroadcastss 0x1f799b(%rip), %ymm15 # 0x1eec71c vmulps %ymm15, %ymm9, %ymm9 vmulps %ymm9, %ymm11, %ymm9 vmulps %ymm11, %ymm11, %ymm13 vmulps %ymm9, %ymm13, %ymm9 vbroadcastss 0x1f7979(%rip), %ymm16 # 0x1eec718 vfmadd231ps %ymm11, %ymm16, %ymm9 # ymm9 = (ymm16 * ymm11) + ymm9 vmulps %ymm9, %ymm8, %ymm11 vmulps %ymm10, %ymm9, %ymm10 vmulps %ymm28, %ymm9, %ymm13 vfmadd213ps %ymm28, %ymm3, %ymm3 # ymm3 = (ymm3 * ymm3) + ymm28 vfmadd231ps %ymm14, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm14) + ymm3 vrsqrt14ps %ymm3, %ymm8 vmulps %ymm3, %ymm15, %ymm3 vmulps %ymm3, %ymm8, %ymm3 vmulps %ymm8, %ymm8, %ymm9 vmulps %ymm3, %ymm9, %ymm3 vfmadd231ps %ymm8, %ymm16, %ymm3 # ymm3 = (ymm16 * ymm8) + ymm3 vmulps %ymm3, %ymm14, %ymm8 vmulps %ymm3, %ymm12, %ymm9 vmulps %ymm28, %ymm3, %ymm3 vmovaps %ymm11, %ymm12 vfmadd213ps %ymm5, %ymm0, %ymm12 # ymm12 = (ymm0 * ymm12) + ymm5 vmovaps %ymm10, %ymm14 vfmadd213ps %ymm4, %ymm0, %ymm14 # ymm14 = (ymm0 * ymm14) + ymm4 vmovaps %ymm13, %ymm15 vfmadd213ps %ymm25, %ymm0, %ymm15 # ymm15 = (ymm0 * ymm15) + ymm25 vmovaps %ymm8, %ymm16 vfmadd213ps %ymm7, %ymm1, %ymm16 # ymm16 = (ymm1 * ymm16) + ymm7 vfnmadd213ps %ymm5, %ymm0, %ymm11 # ymm11 = -(ymm0 * ymm11) + ymm5 vmovaps %ymm9, %ymm5 vfmadd213ps %ymm6, %ymm1, %ymm5 # ymm5 = (ymm1 * ymm5) + ymm6 vfnmadd213ps %ymm4, %ymm0, %ymm10 # ymm10 = -(ymm0 * ymm10) + ymm4 vmovaps %ymm3, %ymm4 vfmadd213ps %ymm2, %ymm1, %ymm4 # ymm4 = (ymm1 * ymm4) + ymm2 vfnmadd231ps %ymm13, %ymm0, %ymm25 # ymm25 = -(ymm0 * ymm13) + ymm25 vfnmadd213ps %ymm7, %ymm1, %ymm8 # ymm8 = -(ymm1 * ymm8) + ymm7 vfnmadd213ps %ymm6, %ymm1, %ymm9 # ymm9 = -(ymm1 * ymm9) + ymm6 vfnmadd231ps %ymm3, %ymm1, %ymm2 # ymm2 = -(ymm1 * ymm3) + ymm2 vsubps %ymm11, %ymm16, %ymm3 vsubps %ymm10, %ymm5, %ymm6 vsubps %ymm25, %ymm4, %ymm7 vmulps %ymm25, %ymm6, %ymm13 vfmsub231ps %ymm7, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm7) - ymm13 vmulps %ymm7, %ymm11, %ymm7 vfmsub231ps %ymm3, %ymm25, %ymm7 # ymm7 = (ymm25 * ymm3) - ymm7 vmulps %ymm3, %ymm10, %ymm3 vfmsub231ps %ymm6, %ymm11, %ymm3 # ymm3 = (ymm11 * ymm6) - ymm3 vfmadd231ps %ymm7, %ymm28, %ymm3 # ymm3 = (ymm28 * ymm7) + ymm3 vfmadd231ps %ymm13, %ymm28, %ymm3 # ymm3 = (ymm28 * ymm13) + ymm3 vcmpleps %ymm28, %ymm3, %k2 vmovaps %ymm12, %ymm8 {%k2} vmovaps %ymm14, %ymm9 {%k2} vmovaps %ymm15, %ymm2 {%k2} vblendmps %ymm16, %ymm11, %ymm13 {%k2} vblendmps %ymm5, %ymm10, %ymm14 {%k2} vblendmps %ymm4, %ymm25, %ymm15 {%k2} vmovaps %ymm11, %ymm16 {%k2} vmovaps %ymm10, %ymm5 {%k2} vmovaps %ymm25, %ymm4 {%k2} vsubps %ymm8, %ymm16, %ymm6 vsubps %ymm9, %ymm5, %ymm5 vsubps %ymm2, %ymm4, %ymm11 vsubps %ymm13, %ymm8, %ymm7 vsubps %ymm14, %ymm9, %ymm10 vsubps %ymm15, %ymm2, %ymm12 vmulps %ymm8, %ymm11, %ymm4 vfmsub231ps %ymm6, %ymm2, %ymm4 # ymm4 = (ymm2 * ymm6) - ymm4 vmulps %ymm6, %ymm9, %ymm3 vfmsub231ps %ymm5, %ymm8, %ymm3 # ymm3 = (ymm8 * ymm5) - ymm3 vfmadd231ps %ymm4, %ymm28, %ymm3 # ymm3 = (ymm28 * ymm4) + ymm3 vmulps %ymm2, %ymm5, %ymm4 vfmsub231ps %ymm11, %ymm9, %ymm4 # ymm4 = (ymm9 * ymm11) - ymm4 vfmadd231ps %ymm4, %ymm28, %ymm3 # ymm3 = (ymm28 * ymm4) + ymm3 vmulps %ymm13, %ymm12, %ymm16 vfmsub231ps %ymm15, %ymm7, %ymm16 # ymm16 = (ymm7 * ymm15) - ymm16 vmulps %ymm15, %ymm10, %ymm15 vfmsub231ps %ymm12, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm12) - ymm15 vmulps %ymm7, %ymm14, %ymm4 vfmsub231ps %ymm13, %ymm10, %ymm4 # ymm4 = (ymm10 * ymm13) - ymm4 vfmadd231ps %ymm16, %ymm28, %ymm4 # ymm4 = (ymm28 * ymm16) + ymm4 vfmadd231ps %ymm15, %ymm28, %ymm4 # ymm4 = (ymm28 * ymm15) + ymm4 vmaxps %ymm4, %ymm3, %ymm13 vcmpleps %ymm28, %ymm13, %k0 {%k1} kortestb %k0, %k0 vmovaps 0x200(%rsp), %ymm20 vmovaps 0x1e0(%rsp), %ymm21 vmovaps %ymm17, %ymm22 vmovaps %ymm19, %ymm17 vmovaps %xmm26, %xmm14 je 0x1cf6071 vmulps %ymm5, %ymm12, %ymm13 vfmsub231ps %ymm11, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm11) - ymm13 vmulps %ymm7, %ymm11, %ymm11 vfmsub231ps %ymm12, %ymm6, %ymm11 # ymm11 = (ymm6 * ymm12) - ymm11 vmulps %ymm6, %ymm10, %ymm10 vfmsub231ps %ymm5, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm5) - ymm10 vxorps %xmm6, %xmm6, %xmm6 vfmadd213ps %ymm10, %ymm11, %ymm6 # ymm6 = (ymm11 * ymm6) + ymm10 vfmadd231ps %ymm28, %ymm13, %ymm6 # ymm6 = (ymm13 * ymm28) + ymm6 vrcp14ps %ymm6, %ymm7 vmovaps %ymm7, %ymm5 vfnmadd213ps 0x1f776f(%rip){1to8}, %ymm6, %ymm5 # ymm5 = -(ymm6 * ymm5) + mem vfmadd132ps %ymm7, %ymm7, %ymm5 # ymm5 = (ymm5 * ymm7) + ymm7 vmulps %ymm2, %ymm10, %ymm2 vfmadd231ps %ymm11, %ymm9, %ymm2 # ymm2 = (ymm9 * ymm11) + ymm2 vfmadd231ps %ymm13, %ymm8, %ymm2 # ymm2 = (ymm8 * ymm13) + ymm2 vmulps %ymm5, %ymm2, %ymm2 vmovaps 0x1c0(%rsp), %xmm9 vbroadcastss %xmm9, %ymm7 vcmpleps %ymm2, %ymm7, %k1 vcmpleps 0x20(%rsi){1to8}, %ymm2, %k1 {%k1} kandb %k0, %k1, %k0 kortestb %k0, %k0 je 0x1cf609f vcmpneqps %ymm28, %ymm6, %k1 ktestb %k1, %k0 vmovaps 0x30(%rsp), %xmm7 vmovaps 0x180(%rsp), %ymm8 je 0x1cf60c4 kandb %k1, %k0, %k0 kmovd %k0, %eax vmulps %ymm5, %ymm3, %ymm3 vmulps %ymm5, %ymm4, %ymm4 vbroadcastss 0x1f76f4(%rip), %ymm5 # 0x1eec714 vsubps %ymm3, %ymm5, %ymm6 vmovaps %ymm3, %ymm6 {%k2} vsubps %ymm4, %ymm5, %ymm3 vmovaps %ymm4, %ymm3 {%k2} vmovaps %ymm3, 0x400(%rsp) movzbl %al, %eax testw %ax, %ax je 0x1cf54d1 vsubps %ymm0, %ymm1, %ymm1 vfmadd213ps %ymm0, %ymm6, %ymm1 # ymm1 = (ymm6 * ymm1) + ymm0 vaddps %ymm1, %ymm1, %ymm0 vmulps (%r11){1to8}, %ymm0, %ymm0 vcmpnleps %ymm0, %ymm2, %k0 kmovd %k0, %ecx andb %cl, %al je 0x1cf54d1 vbroadcastss 0x1fb954(%rip), %ymm0 # 0x1ef09cc vmovaps 0x400(%rsp), %ymm1 vfmadd132ps 0x1fbf6d(%rip){1to8}, %ymm0, %ymm1 # ymm1 = (ymm1 * mem) + ymm0 vmovaps %ymm6, 0x2a0(%rsp) vmovaps %ymm1, 0x400(%rsp) vmovaps %ymm1, 0x2c0(%rsp) vmovaps %ymm2, 0x2e0(%rsp) movl $0x0, 0x300(%rsp) movl %r12d, 0x304(%rsp) vmovaps %xmm7, 0x310(%rsp) vmovaps 0x150(%rsp), %xmm0 vmovaps %xmm0, 0x320(%rsp) vmovaps 0x140(%rsp), %xmm0 vmovaps %xmm0, 0x330(%rsp) vmovaps 0x1b0(%rsp), %xmm0 vmovaps %xmm0, 0x340(%rsp) movb %al, 0x350(%rsp) movl 0x24(%rsi), %ecx testl %ecx, 0x34(%r15) je 0x1cf54d1 movq 0x10(%rdx), %rcx cmpq $0x0, 0x10(%rcx) jne 0x1cf512e movb $0x1, %r10b cmpq $0x0, 0x48(%r15) je 0x1cf551b vmovaps %ymm6, 0x80(%rsp) vaddps 0x22be01(%rip), %ymm6, %ymm0 # 0x1f20f40 vmovss 0x1f75cd(%rip), %xmm1 # 0x1eec714 vdivss 0x280(%rsp), %xmm1, %xmm1 vbroadcastss %xmm1, %ymm1 vmulps %ymm0, %ymm1, %ymm0 vmovaps %ymm0, 0x360(%rsp) vmovaps 0x400(%rsp), %ymm0 vmovaps %ymm0, 0x380(%rsp) vmovaps %ymm2, 0x60(%rsp) vmovaps %ymm2, 0x3a0(%rsp) movzbl %al, %eax vmovaps 0x320(%rsp), %xmm0 vmovaps %xmm0, 0x1a0(%rsp) tzcntq %rax, %rcx vmovaps 0x330(%rsp), %xmm0 vmovaps %xmm0, 0x120(%rsp) vmovaps 0x340(%rsp), %xmm0 vmovaps %xmm0, 0x110(%rsp) movb $0x1, %r10b vmovaps %xmm14, 0x130(%rsp) movq %rdx, 0x28(%rsp) movq %rsi, 0x20(%rsp) movq %r11, 0x48(%rsp) vmovss 0x360(%rsp,%rcx,4), %xmm0 vmovss 0x380(%rsp,%rcx,4), %xmm1 vmovss 0x20(%rsi), %xmm2 vmovss %xmm2, 0x50(%rsp) movq %rcx, 0x3c0(%rsp) vmovss 0x3a0(%rsp,%rcx,4), %xmm2 vmovss %xmm2, 0x20(%rsi) movq %rax, %r9 movq 0x8(%rdx), %rax vmovss 0x1f74f6(%rip), %xmm2 # 0x1eec714 vsubss %xmm0, %xmm2, %xmm2 vmulss %xmm2, %xmm2, %xmm3 vmulss %xmm2, %xmm0, %xmm2 vmulss 0x1fbdbe(%rip), %xmm3, %xmm4 # 0x1ef0ff0 vfmadd231ss 0x1fb7a1(%rip), %xmm2, %xmm3 # xmm3 = (xmm2 * mem) + xmm3 vmulss %xmm0, %xmm0, %xmm5 vfmsub132ss 0x1fbdb0(%rip), %xmm5, %xmm2 # xmm2 = (xmm2 * mem) - xmm5 vmovss 0x1fbd9c(%rip), %xmm6 # 0x1ef0fec vmulss %xmm6, %xmm3, %xmm3 vmulss %xmm6, %xmm2, %xmm2 vmulss %xmm6, %xmm5, %xmm5 vbroadcastss %xmm5, %xmm5 vmulps 0x110(%rsp), %xmm5, %xmm5 vbroadcastss %xmm2, %xmm2 vfmadd132ps 0x120(%rsp), %xmm5, %xmm2 # xmm2 = (xmm2 * mem) + xmm5 vbroadcastss %xmm3, %xmm3 vfmadd132ps 0x1a0(%rsp), %xmm2, %xmm3 # xmm3 = (xmm3 * mem) + xmm2 vbroadcastss %xmm4, %xmm2 vfmadd213ps %xmm3, %xmm7, %xmm2 # xmm2 = (xmm7 * xmm2) + xmm3 vmovlps %xmm2, 0xd0(%rsp) vextractps $0x2, %xmm2, 0xd8(%rsp) vmovss %xmm0, 0xdc(%rsp) vmovss %xmm1, 0xe0(%rsp) movq 0x108(%rsp), %rcx movl %ecx, 0xe4(%rsp) movq 0x58(%rsp), %rcx movl %ecx, 0xe8(%rsp) movl (%rax), %ecx movl %ecx, 0xec(%rsp) movl 0x4(%rax), %ecx movl %ecx, 0xf0(%rsp) movl $0xffffffff, 0x1c(%rsp) # imm = 0xFFFFFFFF leaq 0x1c(%rsp), %rcx movq %rcx, 0xa0(%rsp) movq 0x18(%r15), %rcx movq %rcx, 0xa8(%rsp) movq %rax, 0xb0(%rsp) movq %rsi, 0xb8(%rsp) leaq 0xd0(%rsp), %rax movq %rax, 0xc0(%rsp) movl $0x1, 0xc8(%rsp) movq 0x48(%r15), %rax testq %rax, %rax movl %r10d, 0x18(%rsp) movq %r9, 0x260(%rsp) je 0x1cf53e3 leaq 0xa0(%rsp), %rdi vzeroupper callq *%rax movq 0x260(%rsp), %r9 vmovaps 0x1c0(%rsp), %xmm9 vmovaps 0x130(%rsp), %xmm14 movl 0x18(%rsp), %r10d vmovaps 0x180(%rsp), %ymm8 vmovaps 0x160(%rsp), %ymm17 vmovaps 0x220(%rsp), %ymm18 vmovaps 0x240(%rsp), %ymm22 vmovaps 0x30(%rsp), %xmm7 vmovaps 0x1e0(%rsp), %ymm21 vmovaps 0x200(%rsp), %ymm20 vxorps %xmm28, %xmm28, %xmm28 leaq 0x434348(%rip), %r8 # 0x2129704 leaq 0x431f21(%rip), %rdi # 0x21272e4 movq 0x48(%rsp), %r11 movq 0x20(%rsp), %rsi movq 0x28(%rsp), %rdx movq 0xa0(%rsp), %rax cmpl $0x0, (%rax) je 0x1cf5493 movq 0x10(%rdx), %rcx movq 0x10(%rcx), %rax testq %rax, %rax je 0x1cf54bc testb $0x2, (%rcx) jne 0x1cf5400 testb $0x40, 0x3e(%r15) je 0x1cf547e leaq 0xa0(%rsp), %rdi vzeroupper callq *%rax vmovaps 0x1c0(%rsp), %xmm9 vmovaps 0x130(%rsp), %xmm14 movl 0x18(%rsp), %r10d vmovaps 0x180(%rsp), %ymm8 vmovaps 0x160(%rsp), %ymm17 vmovaps 0x220(%rsp), %ymm18 vmovaps 0x240(%rsp), %ymm22 vmovaps 0x30(%rsp), %xmm7 vmovaps 0x1e0(%rsp), %ymm21 vmovaps 0x200(%rsp), %ymm20 vxorps %xmm28, %xmm28, %xmm28 leaq 0x43429c(%rip), %r8 # 0x2129704 leaq 0x431e75(%rip), %rdi # 0x21272e4 movq 0x48(%rsp), %r11 movq 0x20(%rsp), %rsi movq 0x28(%rsp), %rdx movq 0xa0(%rsp), %rax cmpl $0x0, (%rax) movq 0x260(%rsp), %r9 jne 0x1cf54bc vmovss 0x50(%rsp), %xmm0 vmovss %xmm0, 0x20(%rsi) movq 0x3c0(%rsp), %rax btcq %rax, %r9 tzcntq %r9, %rcx setae %r10b movq %r9, %rax jae 0x1cf51dc andb $0x1, %r10b vmovaps 0x80(%rsp), %ymm6 vmovaps 0x60(%rsp), %ymm2 jmp 0x1cf551b xorl %r10d, %r10d jmp 0x1cf551b xorl %r10d, %r10d vxorps %xmm28, %xmm28, %xmm28 vmovaps 0x80(%rsp), %ymm6 vmovaps 0x200(%rsp), %ymm20 vmovaps 0x60(%rsp), %ymm2 vmovaps 0x1e0(%rsp), %ymm21 vmovaps 0x240(%rsp), %ymm22 vmovaps 0x220(%rsp), %ymm18 vmovaps 0x160(%rsp), %ymm17 vmovaps %xmm12, %xmm14 cmpl $0x9, %r12d jge 0x1cf5553 testb $0x1, %r10b jne 0x1cf60da vmovaps 0x5e0(%rsp), %ymm0 vcmpleps 0x20(%rsi){1to8}, %ymm0, %k0 kmovb %k0, %eax andl %eax, %r14d setne 0x17(%rsp) jne 0x1cf46e6 jmp 0x1cf60da vmovaps %ymm8, 0x180(%rsp) vpbroadcastd %r12d, %ymm0 vmovdqa %ymm0, 0x1c0(%rsp) vbroadcastss %xmm14, %ymm0 vmovaps %ymm0, 0x260(%rsp) vbroadcastss %xmm9, %ymm0 vmovaps %ymm0, 0x3c0(%rsp) vmovss 0x1f7185(%rip), %xmm0 # 0x1eec714 vdivss 0x280(%rsp), %xmm0, %xmm0 vbroadcastss %xmm0, %ymm0 vmovaps %ymm0, 0x280(%rsp) movl $0x8, %r15d vmovaps %ymm6, 0x80(%rsp) vmovaps %ymm2, 0x60(%rsp) vpbroadcastd %r15d, %ymm0 vpor 0x265357(%rip), %ymm0, %ymm0 # 0x1f5a920 vpcmpltd 0x1c0(%rsp), %ymm0, %k1 leaq (%rdi,%r13), %rcx vmovups (%rcx,%r15,4), %ymm3 vmovups 0x484(%rcx,%r15,4), %ymm10 vmovups 0x908(%rcx,%r15,4), %ymm11 vmovups 0xd8c(%rcx,%r15,4), %ymm12 vmovaps 0x500(%rsp), %ymm19 vmulps %ymm12, %ymm19, %ymm5 vmovaps 0x4e0(%rsp), %ymm29 vmulps %ymm12, %ymm29, %ymm4 vmovaps 0x4c0(%rsp), %ymm1 vmulps %ymm1, %ymm12, %ymm0 vmovaps 0x560(%rsp), %ymm26 vfmadd231ps %ymm26, %ymm11, %ymm5 # ymm5 = (ymm11 * ymm26) + ymm5 vmovaps 0x540(%rsp), %ymm27 vfmadd231ps %ymm27, %ymm11, %ymm4 # ymm4 = (ymm11 * ymm27) + ymm4 vmovaps 0x520(%rsp), %ymm16 vfmadd231ps %ymm16, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm16) + ymm0 vfmadd231ps %ymm17, %ymm10, %ymm5 # ymm5 = (ymm10 * ymm17) + ymm5 vmovaps 0x5a0(%rsp), %ymm25 vfmadd231ps %ymm25, %ymm10, %ymm4 # ymm4 = (ymm10 * ymm25) + ymm4 vmovaps 0x580(%rsp), %ymm9 vfmadd231ps %ymm9, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm9) + ymm0 vfmadd231ps %ymm22, %ymm3, %ymm5 # ymm5 = (ymm3 * ymm22) + ymm5 vfmadd231ps %ymm18, %ymm3, %ymm4 # ymm4 = (ymm3 * ymm18) + ymm4 leaq (%r13,%r8), %rax vmovups (%rax,%r15,4), %ymm2 vmovups 0x484(%rax,%r15,4), %ymm13 vmovaps 0x5c0(%rsp), %ymm8 vfmadd231ps %ymm8, %ymm3, %ymm0 # ymm0 = (ymm3 * ymm8) + ymm0 vmovups 0x908(%rax,%r15,4), %ymm14 vmovups 0xd8c(%rax,%r15,4), %ymm15 vmulps %ymm15, %ymm19, %ymm7 vmulps %ymm15, %ymm29, %ymm6 vmulps %ymm1, %ymm15, %ymm1 vfmadd231ps %ymm26, %ymm14, %ymm7 # ymm7 = (ymm14 * ymm26) + ymm7 vfmadd231ps %ymm27, %ymm14, %ymm6 # ymm6 = (ymm14 * ymm27) + ymm6 vfmadd231ps %ymm16, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm16) + ymm1 vfmadd231ps %ymm17, %ymm13, %ymm7 # ymm7 = (ymm13 * ymm17) + ymm7 vfmadd231ps %ymm25, %ymm13, %ymm6 # ymm6 = (ymm13 * ymm25) + ymm6 vfmadd231ps %ymm9, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm9) + ymm1 vfmadd231ps %ymm22, %ymm2, %ymm7 # ymm7 = (ymm2 * ymm22) + ymm7 vfmadd231ps %ymm18, %ymm2, %ymm6 # ymm6 = (ymm2 * ymm18) + ymm6 vfmadd231ps %ymm8, %ymm2, %ymm1 # ymm1 = (ymm2 * ymm8) + ymm1 vmaxps %ymm1, %ymm0, %ymm16 vsubps %ymm5, %ymm7, %ymm9 vsubps %ymm4, %ymm6, %ymm8 vmovaps %ymm17, %ymm24 vmulps %ymm9, %ymm4, %ymm17 vmovaps %ymm18, %ymm23 vmulps %ymm8, %ymm5, %ymm18 vsubps %ymm18, %ymm17, %ymm17 vmulps %ymm8, %ymm8, %ymm18 vfmadd231ps %ymm9, %ymm9, %ymm18 # ymm18 = (ymm9 * ymm9) + ymm18 vmulps %ymm16, %ymm16, %ymm16 vmulps %ymm18, %ymm16, %ymm16 vmulps %ymm17, %ymm17, %ymm17 vcmpleps %ymm16, %ymm17, %k1 {%k1} kortestb %k1, %k1 je 0x1cf6012 vmovaps %ymm23, %ymm16 vmovaps 0x180(%rsp), %ymm23 vmulps %ymm15, %ymm23, %ymm15 vmovaps 0x460(%rsp), %ymm31 vfmadd213ps %ymm15, %ymm31, %ymm14 # ymm14 = (ymm31 * ymm14) + ymm15 vmovaps 0x480(%rsp), %ymm30 vfmadd213ps %ymm14, %ymm30, %ymm13 # ymm13 = (ymm30 * ymm13) + ymm14 vmovaps 0x4a0(%rsp), %ymm18 vfmadd213ps %ymm13, %ymm18, %ymm2 # ymm2 = (ymm18 * ymm2) + ymm13 vmulps %ymm12, %ymm23, %ymm12 vfmadd213ps %ymm12, %ymm31, %ymm11 # ymm11 = (ymm31 * ymm11) + ymm12 vfmadd213ps %ymm11, %ymm30, %ymm10 # ymm10 = (ymm30 * ymm10) + ymm11 vfmadd213ps %ymm10, %ymm18, %ymm3 # ymm3 = (ymm18 * ymm3) + ymm10 vmovups 0x1210(%rcx,%r15,4), %ymm12 vmovups 0x1694(%rcx,%r15,4), %ymm13 vmovups 0x1b18(%rcx,%r15,4), %ymm14 vmovups 0x1f9c(%rcx,%r15,4), %ymm15 vmulps %ymm15, %ymm19, %ymm11 vmulps %ymm15, %ymm29, %ymm10 vmulps %ymm15, %ymm23, %ymm15 vfmadd231ps %ymm26, %ymm14, %ymm11 # ymm11 = (ymm14 * ymm26) + ymm11 vfmadd231ps %ymm27, %ymm14, %ymm10 # ymm10 = (ymm14 * ymm27) + ymm10 vfmadd231ps %ymm14, %ymm31, %ymm15 # ymm15 = (ymm31 * ymm14) + ymm15 vfmadd231ps %ymm24, %ymm13, %ymm11 # ymm11 = (ymm13 * ymm24) + ymm11 vfmadd231ps %ymm25, %ymm13, %ymm10 # ymm10 = (ymm13 * ymm25) + ymm10 vfmadd231ps %ymm13, %ymm30, %ymm15 # ymm15 = (ymm30 * ymm13) + ymm15 vfmadd231ps %ymm22, %ymm12, %ymm11 # ymm11 = (ymm12 * ymm22) + ymm11 vfmadd231ps %ymm16, %ymm12, %ymm10 # ymm10 = (ymm12 * ymm16) + ymm10 vmovaps %ymm19, %ymm17 vmovaps %ymm16, %ymm19 vfmadd231ps %ymm12, %ymm18, %ymm15 # ymm15 = (ymm18 * ymm12) + ymm15 vmovups 0x1210(%rax,%r15,4), %ymm13 vmovups 0x1b18(%rax,%r15,4), %ymm14 vmovups 0x1f9c(%rax,%r15,4), %ymm16 vmulps %ymm16, %ymm17, %ymm17 vmulps %ymm16, %ymm29, %ymm12 vmulps %ymm16, %ymm23, %ymm16 vfmadd231ps %ymm26, %ymm14, %ymm17 # ymm17 = (ymm14 * ymm26) + ymm17 vfmadd231ps %ymm27, %ymm14, %ymm12 # ymm12 = (ymm14 * ymm27) + ymm12 vfmadd231ps %ymm14, %ymm31, %ymm16 # ymm16 = (ymm31 * ymm14) + ymm16 vmovups 0x1694(%rax,%r15,4), %ymm14 vfmadd231ps %ymm24, %ymm14, %ymm17 # ymm17 = (ymm14 * ymm24) + ymm17 vfmadd231ps %ymm25, %ymm14, %ymm12 # ymm12 = (ymm14 * ymm25) + ymm12 vfmadd231ps %ymm14, %ymm30, %ymm16 # ymm16 = (ymm30 * ymm14) + ymm16 vfmadd231ps %ymm22, %ymm13, %ymm17 # ymm17 = (ymm13 * ymm22) + ymm17 vfmadd231ps %ymm19, %ymm13, %ymm12 # ymm12 = (ymm13 * ymm19) + ymm12 vfmadd231ps %ymm13, %ymm18, %ymm16 # ymm16 = (ymm18 * ymm13) + ymm16 vbroadcastss 0x22b626(%rip), %ymm18 # 0x1f20ec4 vandps %ymm18, %ymm11, %ymm13 vandps %ymm18, %ymm10, %ymm14 vmaxps %ymm14, %ymm13, %ymm13 vandps %ymm18, %ymm15, %ymm14 vmaxps %ymm14, %ymm13, %ymm13 vmovaps 0x260(%rsp), %ymm15 vcmpltps %ymm15, %ymm13, %k2 vmovaps %ymm9, %ymm11 {%k2} vmovaps %ymm8, %ymm10 {%k2} vandps %ymm18, %ymm17, %ymm13 vandps %ymm18, %ymm12, %ymm14 vmaxps %ymm14, %ymm13, %ymm13 vandps %ymm18, %ymm16, %ymm14 vmaxps %ymm14, %ymm13, %ymm13 vcmpltps %ymm15, %ymm13, %k2 vmovaps %ymm9, %ymm17 {%k2} vmovaps %ymm8, %ymm12 {%k2} vbroadcastss 0x22b5b2(%rip), %ymm9 # 0x1f20ec0 vxorps %ymm9, %ymm11, %ymm8 vxorps %ymm9, %ymm17, %ymm9 vfmadd213ps %ymm28, %ymm11, %ymm11 # ymm11 = (ymm11 * ymm11) + ymm28 vfmadd231ps %ymm10, %ymm10, %ymm11 # ymm11 = (ymm10 * ymm10) + ymm11 vrsqrt14ps %ymm11, %ymm13 vbroadcastss 0x1f6de9(%rip), %ymm15 # 0x1eec71c vmulps %ymm15, %ymm11, %ymm11 vmulps %ymm11, %ymm13, %ymm11 vmulps %ymm13, %ymm13, %ymm14 vmulps %ymm11, %ymm14, %ymm14 vbroadcastss 0x1f6dc7(%rip), %ymm16 # 0x1eec718 vfmadd231ps %ymm13, %ymm16, %ymm14 # ymm14 = (ymm16 * ymm13) + ymm14 vmulps %ymm14, %ymm10, %ymm11 vmulps %ymm8, %ymm14, %ymm10 vmulps %ymm28, %ymm14, %ymm13 vfmadd213ps %ymm28, %ymm17, %ymm17 # ymm17 = (ymm17 * ymm17) + ymm28 vfmadd231ps %ymm12, %ymm12, %ymm17 # ymm17 = (ymm12 * ymm12) + ymm17 vrsqrt14ps %ymm17, %ymm8 vmulps %ymm15, %ymm17, %ymm14 vmulps %ymm14, %ymm8, %ymm14 vmulps %ymm8, %ymm8, %ymm15 vmulps %ymm14, %ymm15, %ymm14 vfmadd231ps %ymm8, %ymm16, %ymm14 # ymm14 = (ymm16 * ymm8) + ymm14 vmulps %ymm14, %ymm12, %ymm8 vmulps %ymm9, %ymm14, %ymm9 vmulps %ymm28, %ymm14, %ymm12 vmovaps %ymm11, %ymm14 vfmadd213ps %ymm5, %ymm0, %ymm14 # ymm14 = (ymm0 * ymm14) + ymm5 vmovaps %ymm10, %ymm15 vfmadd213ps %ymm4, %ymm0, %ymm15 # ymm15 = (ymm0 * ymm15) + ymm4 vmovaps %ymm13, %ymm16 vfmadd213ps %ymm3, %ymm0, %ymm16 # ymm16 = (ymm0 * ymm16) + ymm3 vmovaps %ymm8, %ymm17 vfmadd213ps %ymm7, %ymm1, %ymm17 # ymm17 = (ymm1 * ymm17) + ymm7 vfnmadd213ps %ymm5, %ymm0, %ymm11 # ymm11 = -(ymm0 * ymm11) + ymm5 vmovaps %ymm9, %ymm5 vfmadd213ps %ymm6, %ymm1, %ymm5 # ymm5 = (ymm1 * ymm5) + ymm6 vfnmadd213ps %ymm4, %ymm0, %ymm10 # ymm10 = -(ymm0 * ymm10) + ymm4 vmovaps %ymm12, %ymm4 vfmadd213ps %ymm2, %ymm1, %ymm4 # ymm4 = (ymm1 * ymm4) + ymm2 vfnmadd231ps %ymm13, %ymm0, %ymm3 # ymm3 = -(ymm0 * ymm13) + ymm3 vfnmadd213ps %ymm7, %ymm1, %ymm8 # ymm8 = -(ymm1 * ymm8) + ymm7 vfnmadd213ps %ymm6, %ymm1, %ymm9 # ymm9 = -(ymm1 * ymm9) + ymm6 vfnmadd231ps %ymm12, %ymm1, %ymm2 # ymm2 = -(ymm1 * ymm12) + ymm2 vsubps %ymm11, %ymm17, %ymm6 vsubps %ymm10, %ymm5, %ymm7 vsubps %ymm3, %ymm4, %ymm12 vmulps %ymm3, %ymm7, %ymm13 vfmsub231ps %ymm12, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm12) - ymm13 vmulps %ymm11, %ymm12, %ymm12 vfmsub231ps %ymm6, %ymm3, %ymm12 # ymm12 = (ymm3 * ymm6) - ymm12 vmulps %ymm6, %ymm10, %ymm6 vfmsub231ps %ymm7, %ymm11, %ymm6 # ymm6 = (ymm11 * ymm7) - ymm6 vfmadd231ps %ymm12, %ymm28, %ymm6 # ymm6 = (ymm28 * ymm12) + ymm6 vfmadd231ps %ymm13, %ymm28, %ymm6 # ymm6 = (ymm28 * ymm13) + ymm6 vcmpleps %ymm28, %ymm6, %k2 vmovaps %ymm14, %ymm8 {%k2} vmovaps %ymm15, %ymm9 {%k2} vmovaps %ymm16, %ymm2 {%k2} vblendmps %ymm17, %ymm11, %ymm13 {%k2} vblendmps %ymm5, %ymm10, %ymm14 {%k2} vblendmps %ymm4, %ymm3, %ymm15 {%k2} vmovaps %ymm11, %ymm17 {%k2} vmovaps %ymm10, %ymm5 {%k2} vmovaps %ymm3, %ymm4 {%k2} vsubps %ymm8, %ymm17, %ymm6 vsubps %ymm9, %ymm5, %ymm5 vsubps %ymm2, %ymm4, %ymm11 vsubps %ymm13, %ymm8, %ymm7 vsubps %ymm14, %ymm9, %ymm10 vsubps %ymm15, %ymm2, %ymm12 vmulps %ymm8, %ymm11, %ymm4 vfmsub231ps %ymm6, %ymm2, %ymm4 # ymm4 = (ymm2 * ymm6) - ymm4 vmulps %ymm6, %ymm9, %ymm3 vfmsub231ps %ymm5, %ymm8, %ymm3 # ymm3 = (ymm8 * ymm5) - ymm3 vfmadd231ps %ymm4, %ymm28, %ymm3 # ymm3 = (ymm28 * ymm4) + ymm3 vmulps %ymm2, %ymm5, %ymm4 vfmsub231ps %ymm11, %ymm9, %ymm4 # ymm4 = (ymm9 * ymm11) - ymm4 vfmadd231ps %ymm4, %ymm28, %ymm3 # ymm3 = (ymm28 * ymm4) + ymm3 vmulps %ymm13, %ymm12, %ymm16 vfmsub231ps %ymm15, %ymm7, %ymm16 # ymm16 = (ymm7 * ymm15) - ymm16 vmulps %ymm15, %ymm10, %ymm15 vfmsub231ps %ymm12, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm12) - ymm15 vmulps %ymm7, %ymm14, %ymm4 vfmsub231ps %ymm13, %ymm10, %ymm4 # ymm4 = (ymm10 * ymm13) - ymm4 vfmadd231ps %ymm16, %ymm28, %ymm4 # ymm4 = (ymm28 * ymm16) + ymm4 vfmadd231ps %ymm15, %ymm28, %ymm4 # ymm4 = (ymm28 * ymm15) + ymm4 vmaxps %ymm4, %ymm3, %ymm13 vcmpleps %ymm28, %ymm13, %k0 {%k1} kortestb %k0, %k0 vmovaps %ymm19, %ymm18 je 0x1cf6046 vmulps %ymm5, %ymm12, %ymm13 vfmsub231ps %ymm11, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm11) - ymm13 vmulps %ymm7, %ymm11, %ymm11 vfmsub231ps %ymm12, %ymm6, %ymm11 # ymm11 = (ymm6 * ymm12) - ymm11 vmulps %ymm6, %ymm10, %ymm10 vfmsub231ps %ymm5, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm5) - ymm10 vxorps %xmm6, %xmm6, %xmm6 vfmadd213ps %ymm10, %ymm11, %ymm6 # ymm6 = (ymm11 * ymm6) + ymm10 vfmadd231ps %ymm28, %ymm13, %ymm6 # ymm6 = (ymm13 * ymm28) + ymm6 vrcp14ps %ymm6, %ymm7 vmovaps %ymm7, %ymm5 vfnmadd213ps 0x1f6bd6(%rip){1to8}, %ymm6, %ymm5 # ymm5 = -(ymm6 * ymm5) + mem vfmadd132ps %ymm7, %ymm7, %ymm5 # ymm5 = (ymm5 * ymm7) + ymm7 vmulps %ymm2, %ymm10, %ymm2 vfmadd231ps %ymm11, %ymm9, %ymm2 # ymm2 = (ymm9 * ymm11) + ymm2 vfmadd231ps %ymm13, %ymm8, %ymm2 # ymm2 = (ymm8 * ymm13) + ymm2 vmulps %ymm5, %ymm2, %ymm2 vcmpgeps 0x3c0(%rsp), %ymm2, %k1 vcmpleps 0x20(%rsi){1to8}, %ymm2, %k1 {%k1} kandb %k0, %k1, %k0 kortestb %k0, %k0 je 0x1cf6046 vcmpneqps %ymm28, %ymm6, %k1 ktestb %k1, %k0 vmovaps 0x30(%rsp), %xmm7 vmovaps 0x160(%rsp), %ymm17 je 0x1cf606a kandb %k1, %k0, %k0 kmovd %k0, %eax vmulps %ymm5, %ymm3, %ymm3 vmulps %ymm5, %ymm4, %ymm4 vbroadcastss 0x1f6b68(%rip), %ymm5 # 0x1eec714 vsubps %ymm3, %ymm5, %ymm20 vmovaps %ymm3, %ymm20 {%k2} vsubps %ymm4, %ymm5, %ymm3 vmovaps %ymm4, %ymm3 {%k2} vmovaps %ymm3, 0x3e0(%rsp) movzbl %al, %eax vmovaps %ymm2, %ymm21 vmovaps 0x80(%rsp), %ymm6 vmovaps 0x60(%rsp), %ymm2 testw %ax, %ax je 0x1cf6034 vsubps %ymm0, %ymm1, %ymm1 vfmadd213ps %ymm0, %ymm20, %ymm1 # ymm1 = (ymm20 * ymm1) + ymm0 vaddps %ymm1, %ymm1, %ymm0 vmulps (%r11){1to8}, %ymm0, %ymm0 vcmpnleps %ymm0, %ymm21, %k0 kmovd %k0, %ecx andb %cl, %al je 0x1cf6034 vbroadcastss 0x1fadb0(%rip), %ymm0 # 0x1ef09cc vmovaps 0x3e0(%rsp), %ymm1 vfmadd132ps 0x1fb3c9(%rip){1to8}, %ymm0, %ymm1 # ymm1 = (ymm1 * mem) + ymm0 vmovaps %ymm20, 0x2a0(%rsp) vmovaps %ymm1, 0x3e0(%rsp) vmovaps %ymm1, 0x2c0(%rsp) vmovaps %ymm21, 0x2e0(%rsp) movl %r15d, 0x300(%rsp) movl %r12d, 0x304(%rsp) vmovaps %xmm7, 0x310(%rsp) vmovaps 0x150(%rsp), %xmm0 vmovaps %xmm0, 0x320(%rsp) vmovaps 0x140(%rsp), %xmm0 vmovaps %xmm0, 0x330(%rsp) vmovaps 0x1b0(%rsp), %xmm0 vmovaps %xmm0, 0x340(%rsp) movb %al, 0x350(%rsp) movq (%rdx), %rcx movq 0x1e8(%rcx), %rcx movq 0x58(%rsp), %r9 movq (%rcx,%r9,8), %r9 movl 0x24(%rsi), %ecx testl %ecx, 0x34(%r9) je 0x1cf602f movq 0x10(%rdx), %rcx cmpq $0x0, 0x10(%rcx) jne 0x1cf5cdf movb $0x1, %cl cmpq $0x0, 0x48(%r9) je 0x1cf6031 movl %r10d, 0x18(%rsp) movq %r11, 0x48(%rsp) vmovaps %ymm20, 0x200(%rsp) vaddps 0x22b245(%rip), %ymm20, %ymm0 # 0x1f20f40 vcvtsi2ss %r15d, %xmm19, %xmm1 vbroadcastss %xmm1, %ymm1 vaddps %ymm0, %ymm1, %ymm0 vmulps 0x280(%rsp), %ymm0, %ymm0 vmovaps %ymm0, 0x360(%rsp) vmovaps 0x3e0(%rsp), %ymm0 vmovaps %ymm0, 0x380(%rsp) vmovaps %ymm21, 0x1e0(%rsp) vmovaps %ymm21, 0x3a0(%rsp) movzbl %al, %edi vmovaps 0x320(%rsp), %xmm0 vmovaps %xmm0, 0x450(%rsp) tzcntq %rdi, %rcx vmovaps 0x330(%rsp), %xmm0 vmovaps %xmm0, 0x440(%rsp) vmovaps 0x340(%rsp), %xmm0 vmovaps %xmm0, 0x430(%rsp) movb $0x1, %al movl %eax, 0x110(%rsp) movq %r9, 0x120(%rsp) movq %rdx, 0x28(%rsp) movq %rsi, 0x20(%rsp) vmovss 0x360(%rsp,%rcx,4), %xmm0 vmovss 0x380(%rsp,%rcx,4), %xmm1 vmovss 0x20(%rsi), %xmm2 vmovss %xmm2, 0x1a0(%rsp) movq %rcx, 0x130(%rsp) vmovss 0x3a0(%rsp,%rcx,4), %xmm2 vmovss %xmm2, 0x20(%rsi) movq 0x8(%rdx), %rax vmovss 0x1f693b(%rip), %xmm2 # 0x1eec714 vsubss %xmm0, %xmm2, %xmm2 vmulss %xmm2, %xmm2, %xmm3 vmulss %xmm2, %xmm0, %xmm2 vmulss 0x1fb203(%rip), %xmm3, %xmm4 # 0x1ef0ff0 vfmadd231ss 0x1fabe6(%rip), %xmm2, %xmm3 # xmm3 = (xmm2 * mem) + xmm3 vmulss %xmm0, %xmm0, %xmm5 vfmsub132ss 0x1fb1f5(%rip), %xmm5, %xmm2 # xmm2 = (xmm2 * mem) - xmm5 vmovss 0x1fb1e1(%rip), %xmm6 # 0x1ef0fec vmulss %xmm6, %xmm3, %xmm3 vmulss %xmm6, %xmm2, %xmm2 vmulss %xmm6, %xmm5, %xmm5 vbroadcastss %xmm5, %xmm5 vmulps 0x430(%rsp), %xmm5, %xmm5 vbroadcastss %xmm2, %xmm2 vfmadd132ps 0x440(%rsp), %xmm5, %xmm2 # xmm2 = (xmm2 * mem) + xmm5 vbroadcastss %xmm3, %xmm3 vfmadd132ps 0x450(%rsp), %xmm2, %xmm3 # xmm3 = (xmm3 * mem) + xmm2 vbroadcastss %xmm4, %xmm2 vfmadd213ps %xmm3, %xmm7, %xmm2 # xmm2 = (xmm7 * xmm2) + xmm3 vmovlps %xmm2, 0xd0(%rsp) vextractps $0x2, %xmm2, 0xd8(%rsp) vmovss %xmm0, 0xdc(%rsp) vmovss %xmm1, 0xe0(%rsp) movq 0x108(%rsp), %rcx movl %ecx, 0xe4(%rsp) movq 0x58(%rsp), %rcx movl %ecx, 0xe8(%rsp) movl (%rax), %ecx movl %ecx, 0xec(%rsp) movl 0x4(%rax), %ecx movl %ecx, 0xf0(%rsp) movl $0xffffffff, 0x1c(%rsp) # imm = 0xFFFFFFFF leaq 0x1c(%rsp), %rcx movq %rcx, 0xa0(%rsp) movq 0x18(%r9), %rcx movq %rcx, 0xa8(%rsp) movq %rax, 0xb0(%rsp) movq %rsi, 0xb8(%rsp) leaq 0xd0(%rsp), %rax movq %rax, 0xc0(%rsp) movl $0x1, 0xc8(%rsp) movq 0x48(%r9), %rax testq %rax, %rax movq %rdi, 0x50(%rsp) je 0x1cf5f32 leaq 0xa0(%rsp), %rdi vzeroupper callq *%rax movq 0x50(%rsp), %rdi movq 0x120(%rsp), %r9 vmovaps 0x30(%rsp), %xmm7 movq 0x20(%rsp), %rsi movq 0x28(%rsp), %rdx movq 0xa0(%rsp), %rax cmpl $0x0, (%rax) je 0x1cf5f82 movq 0x10(%rdx), %rcx movq 0x10(%rcx), %rax testq %rax, %rax je 0x1cf5fb1 testb $0x2, (%rcx) jne 0x1cf5f4b testb $0x40, 0x3e(%r9) je 0x1cf5f60 leaq 0xa0(%rsp), %rdi vzeroupper callq *%rax movq 0x120(%rsp), %r9 movq 0xa0(%rsp), %rax cmpl $0x0, (%rax) movq 0x28(%rsp), %rdx movq 0x20(%rsp), %rsi vmovaps 0x30(%rsp), %xmm7 movq 0x50(%rsp), %rdi jne 0x1cf5fb1 vmovss 0x1a0(%rsp), %xmm0 vmovss %xmm0, 0x20(%rsi) movq 0x130(%rsp), %rax btcq %rax, %rdi tzcntq %rdi, %rcx setae %al movl %eax, 0x110(%rsp) jae 0x1cf5d97 movl 0x110(%rsp), %ecx andb $0x1, %cl movq 0x48(%rsp), %r11 leaq 0x43131d(%rip), %rdi # 0x21272e4 leaq 0x433736(%rip), %r8 # 0x2129704 vxorps %xmm28, %xmm28, %xmm28 vmovaps 0x80(%rsp), %ymm6 vmovaps 0x200(%rsp), %ymm20 vmovaps 0x60(%rsp), %ymm2 vmovaps 0x1e0(%rsp), %ymm21 vmovaps 0x240(%rsp), %ymm22 vmovaps 0x220(%rsp), %ymm18 vmovaps 0x160(%rsp), %ymm17 movl 0x18(%rsp), %r10d jmp 0x1cf6031 vmovaps 0x80(%rsp), %ymm6 vmovaps 0x60(%rsp), %ymm2 vmovaps %ymm23, %ymm18 vmovaps %ymm24, %ymm17 jmp 0x1cf6034 xorl %ecx, %ecx orb %cl, %r10b addq $0x8, %r15 cmpl %r15d, %r12d jg 0x1cf55bb jmp 0x1cf5521 xorl %eax, %eax vmovaps 0x80(%rsp), %ymm6 vmovaps 0x60(%rsp), %ymm2 vmovaps 0x30(%rsp), %xmm7 vmovaps 0x160(%rsp), %ymm17 jmp 0x1cf5be3 xorl %eax, %eax jmp 0x1cf5bd4 xorl %eax, %eax vmovaps 0x80(%rsp), %ymm6 vmovaps 0x60(%rsp), %ymm2 vmovaps 0x30(%rsp), %xmm7 vmovaps 0x180(%rsp), %ymm8 vmovaps 0x1c0(%rsp), %xmm9 jmp 0x1cf5040 xorl %eax, %eax vmovaps 0x80(%rsp), %ymm6 vmovaps 0x60(%rsp), %ymm2 vmovaps 0x30(%rsp), %xmm7 vmovaps 0x180(%rsp), %ymm8 jmp 0x1cf5040 xorl %eax, %eax vmovaps 0x80(%rsp), %ymm6 vmovaps 0x60(%rsp), %ymm2 jmp 0x1cf5040 movb 0x17(%rsp), %al andb $0x1, %al leaq -0x28(%rbp), %rsp popq %rbx popq %r12 popq %r13 popq %r14 popq %r15 popq %rbp vzeroupper retq
/embree[P]embree/kernels/geometry/curveNi_intersector.h
void embree::avx512::CurveNiIntersectorK<8, 4>::intersect_t<embree::avx512::RibbonCurve1IntersectorK<embree::BezierCurveT, 4, 8>, embree::avx512::Intersect1KEpilogMU<8, 4, true>>(embree::avx512::CurvePrecalculationsK<4>&, embree::RayHitK<4>&, unsigned long, embree::RayQueryContext*, embree::CurveNi<8> const&)
static __forceinline void intersect_t(Precalculations& pre, RayHitK<K>& ray, const size_t k, RayQueryContext* context, const Primitive& prim) { vfloat<M> tNear; vbool<M> valid = intersect(ray,k,prim,tNear); const size_t N = prim.N; size_t mask = movemask(valid); while (mask) { const size_t i = bscf(mask); STAT3(normal.trav_prims,1,1,1); const unsigned int geomID = prim.geomID(N); const unsigned int primID = prim.primID(N)[i]; const CurveGeometry* geom = context->scene->get<CurveGeometry>(geomID); Vec3ff a0,a1,a2,a3; geom->gather(a0,a1,a2,a3,geom->curve(primID)); size_t mask1 = mask; const size_t i1 = bscf(mask1); if (mask) { const unsigned int primID1 = prim.primID(N)[i1]; geom->prefetchL1_vertices(geom->curve(primID1)); if (mask1) { const size_t i2 = bsf(mask1); const unsigned int primID2 = prim.primID(N)[i2]; geom->prefetchL2_vertices(geom->curve(primID2)); } } Intersector().intersect(pre,ray,k,context,geom,primID,a0,a1,a2,a3,Epilog(ray,k,context,geomID,primID)); mask &= movemask(tNear <= vfloat<M>(ray.tfar[k])); } }
pushq %rbp movq %rsp, %rbp pushq %r15 pushq %r14 pushq %r13 pushq %r12 pushq %rbx andq $-0x20, %rsp subq $0x700, %rsp # imm = 0x700 movq %rcx, %r10 movq %rdx, %r15 movq %rdi, 0xc8(%rsp) movzbl 0x1(%r8), %ecx leaq (%rcx,%rcx,4), %rax leaq (%rax,%rax,4), %rdx vbroadcastss 0x12(%r8,%rdx), %xmm0 vmovss (%rsi,%r15,4), %xmm1 vmovss 0x40(%rsi,%r15,4), %xmm2 vinsertps $0x10, 0x10(%rsi,%r15,4), %xmm1, %xmm1 # xmm1 = xmm1[0],mem[0],xmm1[2,3] vinsertps $0x20, 0x20(%rsi,%r15,4), %xmm1, %xmm1 # xmm1 = xmm1[0,1],mem[0],xmm1[3] vinsertps $0x10, 0x50(%rsi,%r15,4), %xmm2, %xmm2 # xmm2 = xmm2[0],mem[0],xmm2[2,3] vinsertps $0x20, 0x60(%rsi,%r15,4), %xmm2, %xmm2 # xmm2 = xmm2[0,1],mem[0],xmm2[3] vsubps 0x6(%r8,%rdx), %xmm1, %xmm1 vmulps %xmm1, %xmm0, %xmm3 vmulps %xmm2, %xmm0, %xmm0 vpmovsxbd 0x6(%r8,%rcx,4), %ymm1 vpmovsxbd 0x6(%r8,%rax), %ymm2 vcvtdq2ps %ymm1, %ymm5 vcvtdq2ps %ymm2, %ymm6 leaq (%rcx,%rcx,2), %rdx vpmovsxbd 0x6(%r8,%rdx,2), %ymm1 vcvtdq2ps %ymm1, %ymm4 leaq (%rcx,%rax,2), %rdi vpmovsxbd 0x6(%r8,%rdi), %ymm1 leal (,%rdx,4), %edi vpmovsxbd 0x6(%r8,%rdi), %ymm2 vcvtdq2ps %ymm1, %ymm7 vcvtdq2ps %ymm2, %ymm8 addq %rcx, %rdi vpmovsxbd 0x6(%r8,%rdi), %ymm1 vcvtdq2ps %ymm1, %ymm9 leaq (%rcx,%rcx,8), %r9 leal (%r9,%r9), %edi vpmovsxbd 0x6(%r8,%rdi), %ymm1 vcvtdq2ps %ymm1, %ymm10 addq %rcx, %rdi vpmovsxbd 0x6(%r8,%rdi), %ymm1 vcvtdq2ps %ymm1, %ymm11 shll $0x2, %eax vpmovsxbd 0x6(%r8,%rax), %ymm1 vcvtdq2ps %ymm1, %ymm12 vbroadcastss %xmm0, %ymm13 vbroadcastss 0x21c50b(%rip), %ymm15 # 0x1f12704 vbroadcastss 0x22acd9(%rip), %ymm16 # 0x1f20edc vpermps %ymm0, %ymm15, %ymm14 vpermps %ymm0, %ymm16, %ymm0 vmulps %ymm4, %ymm0, %ymm2 vmulps %ymm0, %ymm9, %ymm1 vmulps %ymm0, %ymm12, %ymm0 vfmadd231ps %ymm6, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm6) + ymm2 vfmadd231ps %ymm8, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm8) + ymm1 vfmadd231ps %ymm14, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm14) + ymm0 vfmadd231ps %ymm5, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm5) + ymm2 vfmadd231ps %ymm7, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm7) + ymm1 vfmadd231ps %ymm13, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm13) + ymm0 vbroadcastss %xmm3, %ymm13 vpermps %ymm3, %ymm15, %ymm14 vpermps %ymm3, %ymm16, %ymm3 vmulps %ymm4, %ymm3, %ymm15 vmulps %ymm3, %ymm9, %ymm4 vmulps %ymm3, %ymm12, %ymm3 vfmadd231ps %ymm6, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm6) + ymm15 vfmadd231ps %ymm8, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm8) + ymm4 vfmadd231ps %ymm11, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm11) + ymm3 vfmadd231ps %ymm5, %ymm13, %ymm15 # ymm15 = (ymm13 * ymm5) + ymm15 vfmadd231ps %ymm7, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm7) + ymm4 vbroadcastss 0x22ac4e(%rip), %ymm7 # 0x1f20ec4 vfmadd231ps %ymm10, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm10) + ymm3 vandps %ymm7, %ymm2, %ymm5 vbroadcastss 0x1fad60(%rip), %ymm6 # 0x1ef0fe8 vcmpltps %ymm6, %ymm5, %k1 vmovaps %ymm6, %ymm2 {%k1} vandps %ymm7, %ymm1, %ymm5 vcmpltps %ymm6, %ymm5, %k1 vmovaps %ymm6, %ymm1 {%k1} vandps %ymm7, %ymm0, %ymm5 vcmpltps %ymm6, %ymm5, %k1 vmovaps %ymm6, %ymm0 {%k1} vrcp14ps %ymm2, %ymm5 vbroadcastss 0x1f644e(%rip), %ymm6 # 0x1eec714 vfnmadd213ps %ymm6, %ymm5, %ymm2 # ymm2 = -(ymm5 * ymm2) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm2 # ymm2 = (ymm2 * ymm5) + ymm5 vrcp14ps %ymm1, %ymm5 vfnmadd213ps %ymm6, %ymm5, %ymm1 # ymm1 = -(ymm5 * ymm1) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm1 # ymm1 = (ymm1 * ymm5) + ymm5 vrcp14ps %ymm0, %ymm5 vfnmadd213ps %ymm6, %ymm5, %ymm0 # ymm0 = -(ymm5 * ymm0) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm0 # ymm0 = (ymm0 * ymm5) + ymm5 leaq (,%rcx,8), %rdi subq %rcx, %rdi vpmovsxwd 0x6(%r8,%rdi), %ymm5 vcvtdq2ps %ymm5, %ymm5 vsubps %ymm15, %ymm5, %ymm5 vmulps %ymm5, %ymm2, %ymm5 vpmovsxwd 0x6(%r8,%r9), %ymm6 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm15, %ymm6, %ymm6 leaq (%rcx,%rcx), %rdi addq %rcx, %rax shlq $0x3, %rdx subq %rcx, %rdx vpbroadcastd %ecx, %ymm7 shll $0x4, %ecx vpmovsxwd 0x6(%r8,%rcx), %ymm8 vmulps %ymm6, %ymm2, %ymm2 subq %rdi, %rcx vpmovsxwd 0x6(%r8,%rcx), %ymm6 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm4, %ymm6, %ymm6 vmulps %ymm6, %ymm1, %ymm6 vcvtdq2ps %ymm8, %ymm8 vsubps %ymm4, %ymm8, %ymm4 vmulps %ymm4, %ymm1, %ymm1 vpmovsxwd 0x6(%r8,%rax), %ymm4 vcvtdq2ps %ymm4, %ymm4 vsubps %ymm3, %ymm4, %ymm4 vmulps %ymm0, %ymm4, %ymm4 vpmovsxwd 0x6(%r8,%rdx), %ymm8 vcvtdq2ps %ymm8, %ymm8 vsubps %ymm3, %ymm8, %ymm3 vmulps %ymm3, %ymm0, %ymm0 vpminsd %ymm2, %ymm5, %ymm3 vpminsd %ymm1, %ymm6, %ymm8 vmaxps %ymm8, %ymm3, %ymm3 vpminsd %ymm0, %ymm4, %ymm8 vmaxps 0x30(%rsi,%r15,4){1to8}, %ymm8, %ymm8 vmaxps %ymm8, %ymm3, %ymm3 vmulps 0x229b5a(%rip){1to8}, %ymm3, %ymm3 # 0x1f1ff10 vpmaxsd %ymm2, %ymm5, %ymm2 vpmaxsd %ymm1, %ymm6, %ymm1 vminps %ymm1, %ymm2, %ymm1 vpmaxsd %ymm0, %ymm4, %ymm0 vminps 0x80(%rsi,%r15,4){1to8}, %ymm0, %ymm0 vminps %ymm0, %ymm1, %ymm0 vmulps 0x229b35(%rip){1to8}, %ymm0, %ymm0 # 0x1f1ff14 vpcmpgtd 0x264537(%rip), %ymm7, %k0 # 0x1f5a920 vmovaps %ymm3, 0x6c0(%rsp) vcmpleps %ymm0, %ymm3, %k1 ktestb %k0, %k1 je 0x1cf8490 kandb %k0, %k1, %k0 kmovd %k0, %eax movzbl %al, %r13d leaq (%r15,%r15,2), %rax shlq $0x4, %rax movq 0xc8(%rsp), %rcx addq %rcx, %rax addq $0x10, %rax movq %rax, 0x278(%rsp) movl $0x1, %eax shlxl %r15d, %eax, %eax kmovd %eax, %k0 vpmovm2d %k0, %xmm0 vmovdqa %xmm0, 0x2f0(%rsp) leaq 0x430e92(%rip), %r12 # 0x21272e4 vmovaps %ymm6, 0x80(%rsp) vmovaps %ymm3, 0x60(%rsp) vmovaps %ymm21, 0x1e0(%rsp) vmovaps %ymm20, 0x200(%rsp) tzcntq %r13, %rax movl 0x2(%r8), %ecx movl 0x6(%r8,%rax,4), %edi movq (%r10), %rax movq 0x1e8(%rax), %rax movq %rcx, 0x38(%rsp) movq (%rax,%rcx,8), %r14 movq 0x58(%r14), %rax movq 0x68(%r14), %rcx movq %rcx, %rdx movq %rdi, 0x58(%rsp) imulq %rdi, %rdx movl (%rax,%rdx), %edi movq 0xa0(%r14), %rdx movq %rdx, %r9 imulq %rdi, %r9 movq 0x90(%r14), %r11 vmovaps (%r11,%r9), %xmm13 leaq 0x1(%rdi), %r9 imulq %rdx, %r9 vmovaps (%r11,%r9), %xmm0 vmovaps %xmm0, 0xe0(%rsp) leaq 0x2(%rdi), %r9 imulq %rdx, %r9 vmovaps (%r11,%r9), %xmm0 vmovaps %xmm0, 0xd0(%rsp) blsrq %r13, %r13 addq $0x3, %rdi imulq %rdx, %rdi vmovaps (%r11,%rdi), %xmm0 vmovaps %xmm0, 0x120(%rsp) movq %r13, %rdi subq $0x1, %rdi jb 0x1cf6560 andq %r13, %rdi tzcntq %r13, %r9 movl 0x6(%r8,%r9,4), %r9d imulq %rcx, %r9 movl (%rax,%r9), %r9d imulq %rdx, %r9 prefetcht0 (%r11,%r9) prefetcht0 0x40(%r11,%r9) testq %rdi, %rdi je 0x1cf6560 tzcntq %rdi, %rdi movl 0x6(%r8,%rdi,4), %edi imulq %rdi, %rcx movl (%rax,%rcx), %eax imulq %rax, %rdx prefetcht1 (%r11,%rdx) prefetcht1 0x40(%r11,%rdx) movl 0x248(%r14), %edi vmovss (%rsi,%r15,4), %xmm0 vinsertps $0x1c, 0x10(%rsi,%r15,4), %xmm0, %xmm0 # xmm0 = xmm0[0],mem[0],zero,zero vinsertps $0x28, 0x20(%rsi,%r15,4), %xmm0, %xmm0 # xmm0 = xmm0[0,1],mem[0],zero vsubps %xmm0, %xmm13, %xmm1 vbroadcastss %xmm1, %xmm2 vshufps $0x55, %xmm1, %xmm1, %xmm3 # xmm3 = xmm1[1,1,1,1] vshufps $0xaa, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,2,2,2] movq 0x278(%rsp), %rax vmovaps (%rax), %xmm4 vmovaps 0x10(%rax), %xmm5 vmovaps 0x20(%rax), %xmm6 vmulps %xmm1, %xmm6, %xmm8 vfmadd231ps %xmm3, %xmm5, %xmm8 # xmm8 = (xmm5 * xmm3) + xmm8 vfmadd231ps %xmm2, %xmm4, %xmm8 # xmm8 = (xmm4 * xmm2) + xmm8 vshufps $0xff, %xmm13, %xmm13, %xmm1 # xmm1 = xmm13[3,3,3,3] vmovaps 0xe0(%rsp), %xmm3 vsubps %xmm0, %xmm3, %xmm2 vmovaps %xmm3, %xmm10 vbroadcastss %xmm2, %xmm3 vshufps $0x55, %xmm2, %xmm2, %xmm7 # xmm7 = xmm2[1,1,1,1] vshufps $0xaa, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[2,2,2,2] vmulps %xmm2, %xmm6, %xmm9 vfmadd231ps %xmm7, %xmm5, %xmm9 # xmm9 = (xmm5 * xmm7) + xmm9 vfmadd231ps %xmm3, %xmm4, %xmm9 # xmm9 = (xmm4 * xmm3) + xmm9 vshufps $0xff, %xmm10, %xmm10, %xmm2 # xmm2 = xmm10[3,3,3,3] vmovaps 0xd0(%rsp), %xmm7 vsubps %xmm0, %xmm7, %xmm3 vmovaps %xmm7, %xmm12 vbroadcastss %xmm3, %xmm7 vshufps $0x55, %xmm3, %xmm3, %xmm11 # xmm11 = xmm3[1,1,1,1] vshufps $0xaa, %xmm3, %xmm3, %xmm3 # xmm3 = xmm3[2,2,2,2] vmulps %xmm3, %xmm6, %xmm10 vfmadd231ps %xmm11, %xmm5, %xmm10 # xmm10 = (xmm5 * xmm11) + xmm10 vfmadd231ps %xmm7, %xmm4, %xmm10 # xmm10 = (xmm4 * xmm7) + xmm10 vshufps $0xff, %xmm12, %xmm12, %xmm7 # xmm7 = xmm12[3,3,3,3] vmovaps 0x120(%rsp), %xmm27 vsubps %xmm0, %xmm27, %xmm0 vbroadcastss %xmm0, %xmm3 vshufps $0x55, %xmm0, %xmm0, %xmm12 # xmm12 = xmm0[1,1,1,1] vshufps $0xaa, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[2,2,2,2] vmulps %xmm0, %xmm6, %xmm11 vfmadd231ps %xmm12, %xmm5, %xmm11 # xmm11 = (xmm5 * xmm12) + xmm11 vfmadd231ps %xmm3, %xmm4, %xmm11 # xmm11 = (xmm4 * xmm3) + xmm11 movslq %edi, %rax movq %rax, %rcx shlq $0x6, %rcx leaq (%rcx,%rax,4), %rbx vmovups (%r12,%rbx), %ymm25 vshufps $0xff, %xmm27, %xmm27, %xmm0 # xmm0 = xmm27[3,3,3,3] vbroadcastss %xmm8, %ymm20 vbroadcastss 0x21c08c(%rip), %ymm3 # 0x1f12704 vpermps %ymm8, %ymm3, %ymm23 vbroadcastsd %xmm1, %ymm12 vmovups 0x484(%r12,%rbx), %ymm14 vbroadcastss %xmm9, %ymm1 vpermps %ymm9, %ymm3, %ymm31 vbroadcastsd %xmm2, %ymm21 vmovups 0x908(%r12,%rbx), %ymm15 vbroadcastss %xmm10, %ymm30 vpermps %ymm10, %ymm3, %ymm26 vbroadcastsd %xmm7, %ymm22 vmovups 0xd8c(%r12,%rbx), %ymm16 vbroadcastss %xmm11, %ymm28 vpermps %ymm11, %ymm3, %ymm29 vbroadcastsd %xmm0, %ymm3 vmulps %ymm16, %ymm28, %ymm5 vmulps %ymm16, %ymm29, %ymm4 vfmadd231ps %ymm30, %ymm15, %ymm5 # ymm5 = (ymm15 * ymm30) + ymm5 vfmadd231ps %ymm26, %ymm15, %ymm4 # ymm4 = (ymm15 * ymm26) + ymm4 vfmadd231ps %ymm1, %ymm14, %ymm5 # ymm5 = (ymm14 * ymm1) + ymm5 vfmadd231ps %ymm31, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm31) + ymm4 vfmadd231ps %ymm20, %ymm25, %ymm5 # ymm5 = (ymm25 * ymm20) + ymm5 leaq 0x432ffe(%rip), %rdx # 0x2129704 vmovups (%rdx,%rbx), %ymm2 vmovups 0x484(%rdx,%rbx), %ymm17 vfmadd231ps %ymm23, %ymm25, %ymm4 # ymm4 = (ymm25 * ymm23) + ymm4 vmovups 0x908(%rdx,%rbx), %ymm18 vmovups 0xd8c(%rdx,%rbx), %ymm19 vmulps %ymm19, %ymm28, %ymm7 vmulps %ymm19, %ymm29, %ymm6 vfmadd231ps %ymm30, %ymm18, %ymm7 # ymm7 = (ymm18 * ymm30) + ymm7 vfmadd231ps %ymm26, %ymm18, %ymm6 # ymm6 = (ymm18 * ymm26) + ymm6 vmovaps %ymm1, 0x140(%rsp) vfmadd231ps %ymm1, %ymm17, %ymm7 # ymm7 = (ymm17 * ymm1) + ymm7 vfmadd231ps %ymm31, %ymm17, %ymm6 # ymm6 = (ymm17 * ymm31) + ymm6 vmovaps %ymm20, 0x2a0(%rsp) vfmadd231ps %ymm20, %ymm2, %ymm7 # ymm7 = (ymm2 * ymm20) + ymm7 vmovaps %ymm23, 0x160(%rsp) vfmadd231ps %ymm23, %ymm2, %ymm6 # ymm6 = (ymm2 * ymm23) + ymm6 vsubps %ymm5, %ymm7, %ymm24 vsubps %ymm4, %ymm6, %ymm23 vmulps %ymm24, %ymm4, %ymm0 vmulps %ymm23, %ymm5, %ymm1 vsubps %ymm1, %ymm0, %ymm20 vmulps %ymm16, %ymm3, %ymm0 vfmadd231ps %ymm22, %ymm15, %ymm0 # ymm0 = (ymm15 * ymm22) + ymm0 vfmadd231ps %ymm21, %ymm14, %ymm0 # ymm0 = (ymm14 * ymm21) + ymm0 vfmadd231ps %ymm12, %ymm25, %ymm0 # ymm0 = (ymm25 * ymm12) + ymm0 vmovaps %ymm3, 0x600(%rsp) vmulps %ymm19, %ymm3, %ymm1 vmovaps %ymm22, 0x620(%rsp) vfmadd231ps %ymm22, %ymm18, %ymm1 # ymm1 = (ymm18 * ymm22) + ymm1 vmovaps %ymm21, 0x680(%rsp) vfmadd231ps %ymm21, %ymm17, %ymm1 # ymm1 = (ymm17 * ymm21) + ymm1 vmovaps %ymm12, 0x6a0(%rsp) vfmadd231ps %ymm12, %ymm2, %ymm1 # ymm1 = (ymm2 * ymm12) + ymm1 vmulps %ymm23, %ymm23, %ymm21 vfmadd231ps %ymm24, %ymm24, %ymm21 # ymm21 = (ymm24 * ymm24) + ymm21 vmaxps %ymm1, %ymm0, %ymm22 vmulps %ymm22, %ymm22, %ymm22 vmulps %ymm21, %ymm22, %ymm21 vmulps %ymm20, %ymm20, %ymm20 vcmpleps %ymm21, %ymm20, %k1 vmovaps %xmm13, 0x40(%rsp) vblendps $0x8, %xmm13, %xmm8, %xmm12 # xmm12 = xmm8[0,1,2],xmm13[3] vbroadcastss 0x22a699(%rip), %xmm20 # 0x1f20ec4 vandps %xmm20, %xmm12, %xmm12 vblendps $0x8, 0xe0(%rsp), %xmm9, %xmm13 # xmm13 = xmm9[0,1,2],mem[3] vandps %xmm20, %xmm13, %xmm13 vmaxps %xmm13, %xmm12, %xmm12 vblendps $0x8, 0xd0(%rsp), %xmm10, %xmm13 # xmm13 = xmm10[0,1,2],mem[3] vandps %xmm20, %xmm13, %xmm13 vmovaps %xmm27, %xmm3 vblendps $0x8, %xmm3, %xmm11, %xmm3 # xmm3 = xmm11[0,1,2],xmm3[3] vandps %xmm20, %xmm3, %xmm3 vmaxps %xmm3, %xmm13, %xmm3 vmaxps %xmm3, %xmm12, %xmm3 vmovshdup %xmm3, %xmm12 # xmm12 = xmm3[1,1,3,3] vmaxss %xmm3, %xmm12, %xmm12 vshufpd $0x1, %xmm3, %xmm3, %xmm3 # xmm3 = xmm3[1,0] vmaxss %xmm12, %xmm3, %xmm3 vcvtsi2ss %edi, %xmm8, %xmm12 vmovaps %xmm12, 0x320(%rsp) vbroadcastss %xmm12, %ymm12 vcmpgtps 0x22a69f(%rip), %ymm12, %k1 {%k1} # 0x1f20f40 vmulss 0x1fa739(%rip), %xmm3, %xmm27 # 0x1ef0fe4 vbroadcastss 0x22a628(%rip), %ymm3 # 0x1f20edc vpermps %ymm8, %ymm3, %ymm20 vpermps %ymm9, %ymm3, %ymm21 vpermps %ymm10, %ymm3, %ymm22 vpermps %ymm11, %ymm3, %ymm3 kortestb %k1, %k1 vmovss 0x30(%rsi,%r15,4), %xmm8 vmovaps %ymm31, 0x560(%rsp) vmovaps %ymm30, 0x660(%rsp) vmovaps %ymm26, 0x640(%rsp) vmovaps %ymm20, 0x5e0(%rsp) vmovaps %ymm21, 0x5c0(%rsp) vmovaps %ymm22, 0x5a0(%rsp) vmovaps %ymm3, 0x580(%rsp) je 0x1cf7088 vmovaps %xmm8, 0x280(%rsp) vmovaps %xmm27, 0x2c0(%rsp) vmovaps %ymm3, %ymm27 vmulps %ymm19, %ymm3, %ymm3 vfmadd213ps %ymm3, %ymm22, %ymm18 # ymm18 = (ymm22 * ymm18) + ymm3 vfmadd213ps %ymm18, %ymm21, %ymm17 # ymm17 = (ymm21 * ymm17) + ymm18 vfmadd213ps %ymm17, %ymm20, %ymm2 # ymm2 = (ymm20 * ymm2) + ymm17 vmulps %ymm16, %ymm27, %ymm3 vfmadd213ps %ymm3, %ymm22, %ymm15 # ymm15 = (ymm22 * ymm15) + ymm3 vfmadd213ps %ymm15, %ymm21, %ymm14 # ymm14 = (ymm21 * ymm14) + ymm15 vmovups 0x1210(%r12,%rbx), %ymm3 vmovups 0x1694(%r12,%rbx), %ymm10 vmovups 0x1b18(%r12,%rbx), %ymm11 vmovups 0x1f9c(%r12,%rbx), %ymm12 vfmadd213ps %ymm14, %ymm20, %ymm25 # ymm25 = (ymm20 * ymm25) + ymm14 vmulps %ymm12, %ymm28, %ymm9 vmulps %ymm12, %ymm29, %ymm8 vmulps %ymm12, %ymm27, %ymm12 vfmadd231ps %ymm30, %ymm11, %ymm9 # ymm9 = (ymm11 * ymm30) + ymm9 vfmadd231ps %ymm26, %ymm11, %ymm8 # ymm8 = (ymm11 * ymm26) + ymm8 vfmadd231ps %ymm11, %ymm22, %ymm12 # ymm12 = (ymm22 * ymm11) + ymm12 vmovaps 0x140(%rsp), %ymm19 vfmadd231ps %ymm19, %ymm10, %ymm9 # ymm9 = (ymm10 * ymm19) + ymm9 vfmadd231ps %ymm31, %ymm10, %ymm8 # ymm8 = (ymm10 * ymm31) + ymm8 vfmadd231ps %ymm10, %ymm21, %ymm12 # ymm12 = (ymm21 * ymm10) + ymm12 vmovaps 0x2a0(%rsp), %ymm17 vfmadd231ps %ymm17, %ymm3, %ymm9 # ymm9 = (ymm3 * ymm17) + ymm9 vmovaps 0x160(%rsp), %ymm18 vfmadd231ps %ymm18, %ymm3, %ymm8 # ymm8 = (ymm3 * ymm18) + ymm8 vmovups 0x1210(%rdx,%rbx), %ymm10 vmovups 0x1b18(%rdx,%rbx), %ymm11 vmovups 0x1f9c(%rdx,%rbx), %ymm13 vfmadd231ps %ymm3, %ymm20, %ymm12 # ymm12 = (ymm20 * ymm3) + ymm12 vmovaps %ymm28, 0x1c0(%rsp) vmulps %ymm13, %ymm28, %ymm3 vmovaps %ymm29, 0x1a0(%rsp) vmulps %ymm13, %ymm29, %ymm14 vmulps %ymm13, %ymm27, %ymm13 vmovaps 0x2c0(%rsp), %xmm27 vfmadd231ps %ymm30, %ymm11, %ymm3 # ymm3 = (ymm11 * ymm30) + ymm3 vfmadd231ps %ymm26, %ymm11, %ymm14 # ymm14 = (ymm11 * ymm26) + ymm14 vfmadd231ps %ymm11, %ymm22, %ymm13 # ymm13 = (ymm22 * ymm11) + ymm13 vmovups 0x1694(%rdx,%rbx), %ymm11 vfmadd231ps %ymm19, %ymm11, %ymm3 # ymm3 = (ymm11 * ymm19) + ymm3 vfmadd231ps %ymm31, %ymm11, %ymm14 # ymm14 = (ymm11 * ymm31) + ymm14 vfmadd231ps %ymm11, %ymm21, %ymm13 # ymm13 = (ymm21 * ymm11) + ymm13 vfmadd231ps %ymm17, %ymm10, %ymm3 # ymm3 = (ymm10 * ymm17) + ymm3 vfmadd231ps %ymm18, %ymm10, %ymm14 # ymm14 = (ymm10 * ymm18) + ymm14 vfmadd231ps %ymm10, %ymm20, %ymm13 # ymm13 = (ymm20 * ymm10) + ymm13 vbroadcastss 0x22a453(%rip), %ymm15 # 0x1f20ec4 vandps %ymm15, %ymm9, %ymm10 vandps %ymm15, %ymm8, %ymm11 vmaxps %ymm11, %ymm10, %ymm10 vandps %ymm15, %ymm12, %ymm11 vmaxps %ymm11, %ymm10, %ymm10 vbroadcastss %xmm27, %ymm11 vcmpltps %ymm11, %ymm10, %k2 vmovaps %ymm24, %ymm9 {%k2} vmovaps %ymm23, %ymm8 {%k2} vandps %ymm3, %ymm15, %ymm10 vandps %ymm15, %ymm14, %ymm12 vmaxps %ymm12, %ymm10, %ymm10 vandps %ymm15, %ymm13, %ymm12 vmaxps %ymm12, %ymm10, %ymm10 vcmpltps %ymm11, %ymm10, %k2 vmovaps %ymm24, %ymm3 {%k2} vmovaps %ymm23, %ymm14 {%k2} vbroadcastss 0x22a3e9(%rip), %ymm11 # 0x1f20ec0 vxorps %ymm11, %ymm9, %ymm10 vxorps %ymm3, %ymm11, %ymm12 vxorps %xmm23, %xmm23, %xmm23 vfmadd213ps %ymm23, %ymm9, %ymm9 # ymm9 = (ymm9 * ymm9) + ymm23 vfmadd231ps %ymm8, %ymm8, %ymm9 # ymm9 = (ymm8 * ymm8) + ymm9 vrsqrt14ps %ymm9, %ymm11 vbroadcastss 0x1f5c1c(%rip), %ymm15 # 0x1eec71c vmulps %ymm15, %ymm9, %ymm9 vmulps %ymm9, %ymm11, %ymm9 vmulps %ymm11, %ymm11, %ymm13 vmulps %ymm9, %ymm13, %ymm9 vbroadcastss 0x1f5bfa(%rip), %ymm16 # 0x1eec718 vfmadd231ps %ymm11, %ymm16, %ymm9 # ymm9 = (ymm16 * ymm11) + ymm9 vmulps %ymm9, %ymm8, %ymm11 vmulps %ymm10, %ymm9, %ymm10 vmulps %ymm23, %ymm9, %ymm13 vfmadd213ps %ymm23, %ymm3, %ymm3 # ymm3 = (ymm3 * ymm3) + ymm23 vfmadd231ps %ymm14, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm14) + ymm3 vrsqrt14ps %ymm3, %ymm8 vmulps %ymm3, %ymm15, %ymm3 vmulps %ymm3, %ymm8, %ymm3 vmulps %ymm8, %ymm8, %ymm9 vmulps %ymm3, %ymm9, %ymm3 vfmadd231ps %ymm8, %ymm16, %ymm3 # ymm3 = (ymm16 * ymm8) + ymm3 vmulps %ymm3, %ymm14, %ymm8 vmulps %ymm3, %ymm12, %ymm9 vmulps %ymm23, %ymm3, %ymm3 vmovaps %ymm11, %ymm12 vfmadd213ps %ymm5, %ymm0, %ymm12 # ymm12 = (ymm0 * ymm12) + ymm5 vmovaps %ymm10, %ymm14 vfmadd213ps %ymm4, %ymm0, %ymm14 # ymm14 = (ymm0 * ymm14) + ymm4 vmovaps %ymm13, %ymm15 vfmadd213ps %ymm25, %ymm0, %ymm15 # ymm15 = (ymm0 * ymm15) + ymm25 vmovaps %ymm8, %ymm16 vfmadd213ps %ymm7, %ymm1, %ymm16 # ymm16 = (ymm1 * ymm16) + ymm7 vfnmadd213ps %ymm5, %ymm0, %ymm11 # ymm11 = -(ymm0 * ymm11) + ymm5 vmovaps %ymm9, %ymm5 vfmadd213ps %ymm6, %ymm1, %ymm5 # ymm5 = (ymm1 * ymm5) + ymm6 vfnmadd213ps %ymm4, %ymm0, %ymm10 # ymm10 = -(ymm0 * ymm10) + ymm4 vmovaps %ymm3, %ymm4 vfmadd213ps %ymm2, %ymm1, %ymm4 # ymm4 = (ymm1 * ymm4) + ymm2 vfnmadd231ps %ymm13, %ymm0, %ymm25 # ymm25 = -(ymm0 * ymm13) + ymm25 vfnmadd213ps %ymm7, %ymm1, %ymm8 # ymm8 = -(ymm1 * ymm8) + ymm7 vfnmadd213ps %ymm6, %ymm1, %ymm9 # ymm9 = -(ymm1 * ymm9) + ymm6 vfnmadd231ps %ymm3, %ymm1, %ymm2 # ymm2 = -(ymm1 * ymm3) + ymm2 vsubps %ymm11, %ymm16, %ymm3 vsubps %ymm10, %ymm5, %ymm6 vsubps %ymm25, %ymm4, %ymm7 vmulps %ymm25, %ymm6, %ymm13 vfmsub231ps %ymm7, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm7) - ymm13 vmulps %ymm7, %ymm11, %ymm7 vfmsub231ps %ymm3, %ymm25, %ymm7 # ymm7 = (ymm25 * ymm3) - ymm7 vmulps %ymm3, %ymm10, %ymm3 vfmsub231ps %ymm6, %ymm11, %ymm3 # ymm3 = (ymm11 * ymm6) - ymm3 vfmadd231ps %ymm7, %ymm23, %ymm3 # ymm3 = (ymm23 * ymm7) + ymm3 vfmadd231ps %ymm13, %ymm23, %ymm3 # ymm3 = (ymm23 * ymm13) + ymm3 vcmpleps %ymm23, %ymm3, %k2 vmovaps %ymm12, %ymm8 {%k2} vmovaps %ymm14, %ymm9 {%k2} vmovaps %ymm15, %ymm2 {%k2} vblendmps %ymm16, %ymm11, %ymm13 {%k2} vblendmps %ymm5, %ymm10, %ymm14 {%k2} vblendmps %ymm4, %ymm25, %ymm15 {%k2} vmovaps %ymm11, %ymm16 {%k2} vmovaps %ymm10, %ymm5 {%k2} vmovaps %ymm25, %ymm4 {%k2} vsubps %ymm8, %ymm16, %ymm6 vsubps %ymm9, %ymm5, %ymm5 vsubps %ymm2, %ymm4, %ymm11 vsubps %ymm13, %ymm8, %ymm7 vsubps %ymm14, %ymm9, %ymm10 vsubps %ymm15, %ymm2, %ymm12 vmulps %ymm8, %ymm11, %ymm4 vfmsub231ps %ymm6, %ymm2, %ymm4 # ymm4 = (ymm2 * ymm6) - ymm4 vmulps %ymm6, %ymm9, %ymm3 vfmsub231ps %ymm5, %ymm8, %ymm3 # ymm3 = (ymm8 * ymm5) - ymm3 vfmadd231ps %ymm4, %ymm23, %ymm3 # ymm3 = (ymm23 * ymm4) + ymm3 vmulps %ymm2, %ymm5, %ymm4 vfmsub231ps %ymm11, %ymm9, %ymm4 # ymm4 = (ymm9 * ymm11) - ymm4 vfmadd231ps %ymm4, %ymm23, %ymm3 # ymm3 = (ymm23 * ymm4) + ymm3 vmulps %ymm13, %ymm12, %ymm16 vfmsub231ps %ymm15, %ymm7, %ymm16 # ymm16 = (ymm7 * ymm15) - ymm16 vmulps %ymm15, %ymm10, %ymm15 vfmsub231ps %ymm12, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm12) - ymm15 vmulps %ymm7, %ymm14, %ymm4 vfmsub231ps %ymm13, %ymm10, %ymm4 # ymm4 = (ymm10 * ymm13) - ymm4 vfmadd231ps %ymm16, %ymm23, %ymm4 # ymm4 = (ymm23 * ymm16) + ymm4 vfmadd231ps %ymm15, %ymm23, %ymm4 # ymm4 = (ymm23 * ymm15) + ymm4 vmaxps %ymm4, %ymm3, %ymm13 vcmpleps %ymm23, %ymm13, %k0 {%k1} kortestb %k0, %k0 vmovaps 0x200(%rsp), %ymm20 vmovaps 0x1e0(%rsp), %ymm21 vmovaps %ymm17, %ymm22 je 0x1cf7f67 vmulps %ymm5, %ymm12, %ymm13 vfmsub231ps %ymm11, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm11) - ymm13 vmulps %ymm7, %ymm11, %ymm11 vfmsub231ps %ymm12, %ymm6, %ymm11 # ymm11 = (ymm6 * ymm12) - ymm11 vmulps %ymm6, %ymm10, %ymm10 vfmsub231ps %ymm5, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm5) - ymm10 vxorps %xmm6, %xmm6, %xmm6 vfmadd213ps %ymm10, %ymm11, %ymm6 # ymm6 = (ymm11 * ymm6) + ymm10 vfmadd231ps %ymm23, %ymm13, %ymm6 # ymm6 = (ymm13 * ymm23) + ymm6 vrcp14ps %ymm6, %ymm7 vmovaps %ymm7, %ymm5 vfnmadd213ps 0x1f59fc(%rip){1to8}, %ymm6, %ymm5 # ymm5 = -(ymm6 * ymm5) + mem vfmadd132ps %ymm7, %ymm7, %ymm5 # ymm5 = (ymm5 * ymm7) + ymm7 vmulps %ymm2, %ymm10, %ymm2 vfmadd231ps %ymm11, %ymm9, %ymm2 # ymm2 = (ymm9 * ymm11) + ymm2 vfmadd231ps %ymm13, %ymm8, %ymm2 # ymm2 = (ymm8 * ymm13) + ymm2 vmulps %ymm5, %ymm2, %ymm2 vmovaps 0x280(%rsp), %xmm8 vbroadcastss %xmm8, %ymm7 vcmpleps %ymm2, %ymm7, %k1 vcmpleps 0x80(%rsi,%r15,4){1to8}, %ymm2, %k1 {%k1} kandb %k0, %k1, %k0 kortestb %k0, %k0 vmovaps 0x1c0(%rsp), %ymm28 vmovaps 0x1a0(%rsp), %ymm29 je 0x1cf7f9d vcmpneqps %ymm23, %ymm6, %k1 ktestb %k1, %k0 vmovaps 0x40(%rsp), %xmm7 je 0x1cf7fba kandb %k1, %k0, %k0 kmovd %k0, %eax vmulps %ymm5, %ymm3, %ymm3 vmulps %ymm5, %ymm4, %ymm4 vbroadcastss 0x1f5979(%rip), %ymm5 # 0x1eec714 vsubps %ymm3, %ymm5, %ymm6 vmovaps %ymm3, %ymm6 {%k2} vsubps %ymm4, %ymm5, %ymm3 vmovaps %ymm4, %ymm3 {%k2} vmovaps %ymm3, 0x520(%rsp) movzbl %al, %r12d vmovaps %ymm2, %ymm3 testw %r12w, %r12w je 0x1cf707f vsubps %ymm0, %ymm1, %ymm1 vfmadd213ps %ymm0, %ymm6, %ymm1 # ymm1 = (ymm6 * ymm1) + ymm0 vaddps %ymm1, %ymm1, %ymm0 movq 0xc8(%rsp), %rax vmulps (%rax,%r15,4){1to8}, %ymm0, %ymm0 vcmpnleps %ymm0, %ymm3, %k0 kmovd %k0, %eax andb %al, %r12b je 0x1cf707f vbroadcastss 0x1f9bc9(%rip), %ymm0 # 0x1ef09cc vmovaps 0x520(%rsp), %ymm1 vfmadd132ps 0x1fa1e2(%rip){1to8}, %ymm0, %ymm1 # ymm1 = (ymm1 * mem) + ymm0 vmovaps %ymm6, 0x340(%rsp) vmovaps %ymm1, 0x520(%rsp) vmovaps %ymm1, 0x360(%rsp) vmovaps %ymm3, 0x380(%rsp) movl $0x0, 0x3a0(%rsp) movl %edi, 0x3a4(%rsp) vmovaps %xmm7, 0x3b0(%rsp) vmovaps 0xe0(%rsp), %xmm0 vmovaps %xmm0, 0x3c0(%rsp) vmovaps 0xd0(%rsp), %xmm0 vmovaps %xmm0, 0x3d0(%rsp) vmovdqa 0x120(%rsp), %xmm0 vmovdqa %xmm0, 0x3e0(%rsp) movb %r12b, 0x3f0(%rsp) movl 0x90(%rsi,%r15,4), %eax testl %eax, 0x34(%r14) je 0x1cf707f vaddps 0x22a093(%rip), %ymm6, %ymm0 # 0x1f20f40 vmovss 0x1f585f(%rip), %xmm1 # 0x1eec714 vdivss 0x320(%rsp), %xmm1, %xmm1 vbroadcastss %xmm1, %ymm1 vmulps %ymm0, %ymm1, %ymm0 vmovaps %ymm0, 0x400(%rsp) vmovaps 0x520(%rsp), %ymm0 vmovaps %ymm0, 0x420(%rsp) vmovaps %ymm3, 0x440(%rsp) kmovd %r12d, %k1 vbroadcastss 0x1f4b27(%rip), %ymm0 # 0x1eeba20 vblendmps %ymm3, %ymm0, %ymm0 {%k1} vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm0, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1] vminps %ymm2, %ymm1, %ymm1 vcmpeqps %ymm1, %ymm0, %k0 kmovd %k0, %eax andb %r12b, %al movzbl %al, %eax movzbl %r12b, %ecx cmovnel %eax, %ecx tzcntl %ecx, %r9d movq 0x10(%r10), %rax cmpq $0x0, 0x10(%rax) vmovaps %ymm6, 0x80(%rsp) vmovaps %ymm3, 0x60(%rsp) jne 0x1cf7fd1 cmpq $0x0, 0x40(%r14) jne 0x1cf7fd1 vmovss 0x400(%rsp,%r9,4), %xmm0 vmovss 0x420(%rsp,%r9,4), %xmm1 vmovss 0x1f5797(%rip), %xmm2 # 0x1eec714 vsubss %xmm0, %xmm2, %xmm2 vmulss %xmm2, %xmm2, %xmm3 vmulss %xmm2, %xmm0, %xmm2 vmulss 0x1fa05f(%rip), %xmm3, %xmm4 # 0x1ef0ff0 vfmadd231ss 0x1f9a42(%rip), %xmm2, %xmm3 # xmm3 = (xmm2 * mem) + xmm3 vmulss %xmm0, %xmm0, %xmm5 vfmsub132ss 0x1fa051(%rip), %xmm5, %xmm2 # xmm2 = (xmm2 * mem) - xmm5 vmovss 0x1fa03d(%rip), %xmm6 # 0x1ef0fec vmulss %xmm6, %xmm3, %xmm3 vmulss %xmm6, %xmm2, %xmm2 vmulss %xmm6, %xmm5, %xmm5 vbroadcastss %xmm5, %xmm5 vmulps 0x120(%rsp), %xmm5, %xmm5 vbroadcastss %xmm2, %xmm2 vfmadd132ps 0xd0(%rsp), %xmm5, %xmm2 # xmm2 = (xmm2 * mem) + xmm5 vmovaps 0x80(%rsp), %ymm6 vbroadcastss %xmm3, %xmm3 vfmadd132ps 0xe0(%rsp), %xmm2, %xmm3 # xmm3 = (xmm3 * mem) + xmm2 vbroadcastss %xmm4, %xmm2 vfmadd213ps %xmm3, %xmm7, %xmm2 # xmm2 = (xmm7 * xmm2) + xmm3 vmovss 0x440(%rsp,%r9,4), %xmm3 vmovss %xmm3, 0x80(%rsi,%r15,4) vmovaps 0x60(%rsp), %ymm3 vmovss %xmm2, 0xc0(%rsi,%r15,4) vextractps $0x1, %xmm2, 0xd0(%rsi,%r15,4) vextractps $0x2, %xmm2, 0xe0(%rsi,%r15,4) vmovss %xmm0, 0xf0(%rsi,%r15,4) vmovss %xmm1, 0x100(%rsi,%r15,4) movq 0x58(%rsp), %rax movl %eax, 0x110(%rsi,%r15,4) movq 0x38(%rsp), %rax movl %eax, 0x120(%rsi,%r15,4) movq 0x8(%r10), %rax movl (%rax), %eax movl %eax, 0x130(%rsi,%r15,4) movq 0x8(%r10), %rax movl 0x4(%rax), %eax movl %eax, 0x140(%rsi,%r15,4) leaq 0x43025e(%rip), %r12 # 0x21272e4 jmp 0x1cf70c5 vxorps %xmm23, %xmm23, %xmm23 vmovaps 0x80(%rsp), %ymm6 vmovaps 0x200(%rsp), %ymm20 vmovaps 0x60(%rsp), %ymm3 vmovaps 0x1e0(%rsp), %ymm21 vmovaps 0x2a0(%rsp), %ymm22 vmovaps 0x160(%rsp), %ymm18 vmovaps 0x140(%rsp), %ymm19 cmpl $0x9, %edi jge 0x1cf70ee vmovaps 0x6c0(%rsp), %ymm0 vcmpleps 0x80(%rsi,%r15,4){1to8}, %ymm0, %k0 kmovb %k0, %eax andl %eax, %r13d jne 0x1cf6452 jmp 0x1cf8490 vpbroadcastd %edi, %ymm0 vmovdqa %ymm0, 0x2c0(%rsp) vbroadcastss %xmm27, %ymm0 vmovaps %ymm0, 0x280(%rsp) vbroadcastss %xmm8, %ymm0 vmovaps %ymm0, 0x300(%rsp) vmovss 0x1f55f2(%rip), %xmm0 # 0x1eec714 vdivss 0x320(%rsp), %xmm0, %xmm0 vbroadcastss %xmm0, %ymm0 vmovaps %ymm0, 0x320(%rsp) movq 0x38(%rsp), %rax vpbroadcastd %eax, %xmm0 vmovdqa %xmm0, 0x260(%rsp) movq 0x58(%rsp), %rax vpbroadcastd %eax, %xmm0 vmovdqa %xmm0, 0x250(%rsp) movl $0x8, %r14d vmovaps %ymm6, 0x80(%rsp) vmovaps %ymm3, 0x60(%rsp) vpbroadcastd %r14d, %ymm0 vpor 0x26379c(%rip), %ymm0, %ymm0 # 0x1f5a920 vpcmpltd 0x2c0(%rsp), %ymm0, %k1 leaq (%rbx,%r12), %rcx vmovups (%rcx,%r14,4), %ymm3 vmovups 0x484(%rcx,%r14,4), %ymm10 vmovups 0x908(%rcx,%r14,4), %ymm11 vmovups 0xd8c(%rcx,%r14,4), %ymm12 vmulps %ymm12, %ymm28, %ymm5 vmulps %ymm12, %ymm29, %ymm4 vmovaps 0x600(%rsp), %ymm1 vmulps %ymm1, %ymm12, %ymm0 vmovaps 0x660(%rsp), %ymm26 vfmadd231ps %ymm26, %ymm11, %ymm5 # ymm5 = (ymm11 * ymm26) + ymm5 vmovaps 0x640(%rsp), %ymm27 vfmadd231ps %ymm27, %ymm11, %ymm4 # ymm4 = (ymm11 * ymm27) + ymm4 vmovaps 0x620(%rsp), %ymm16 vfmadd231ps %ymm16, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm16) + ymm0 vfmadd231ps %ymm19, %ymm10, %ymm5 # ymm5 = (ymm10 * ymm19) + ymm5 vmovaps 0x560(%rsp), %ymm25 vfmadd231ps %ymm25, %ymm10, %ymm4 # ymm4 = (ymm10 * ymm25) + ymm4 vmovaps 0x680(%rsp), %ymm9 vfmadd231ps %ymm9, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm9) + ymm0 vfmadd231ps %ymm22, %ymm3, %ymm5 # ymm5 = (ymm3 * ymm22) + ymm5 vfmadd231ps %ymm18, %ymm3, %ymm4 # ymm4 = (ymm3 * ymm18) + ymm4 leaq (%rbx,%rdx), %rax vmovups (%rax,%r14,4), %ymm2 vmovups 0x484(%rax,%r14,4), %ymm13 vmovaps 0x6a0(%rsp), %ymm8 vfmadd231ps %ymm8, %ymm3, %ymm0 # ymm0 = (ymm3 * ymm8) + ymm0 vmovups 0x908(%rax,%r14,4), %ymm14 vmovups 0xd8c(%rax,%r14,4), %ymm15 vmulps %ymm15, %ymm28, %ymm7 vmulps %ymm15, %ymm29, %ymm6 vmulps %ymm1, %ymm15, %ymm1 vfmadd231ps %ymm26, %ymm14, %ymm7 # ymm7 = (ymm14 * ymm26) + ymm7 vfmadd231ps %ymm27, %ymm14, %ymm6 # ymm6 = (ymm14 * ymm27) + ymm6 vfmadd231ps %ymm16, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm16) + ymm1 vfmadd231ps %ymm19, %ymm13, %ymm7 # ymm7 = (ymm13 * ymm19) + ymm7 vfmadd231ps %ymm25, %ymm13, %ymm6 # ymm6 = (ymm13 * ymm25) + ymm6 vfmadd231ps %ymm9, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm9) + ymm1 vfmadd231ps %ymm22, %ymm2, %ymm7 # ymm7 = (ymm2 * ymm22) + ymm7 vfmadd231ps %ymm18, %ymm2, %ymm6 # ymm6 = (ymm2 * ymm18) + ymm6 vfmadd231ps %ymm8, %ymm2, %ymm1 # ymm1 = (ymm2 * ymm8) + ymm1 vmaxps %ymm1, %ymm0, %ymm16 vsubps %ymm5, %ymm7, %ymm9 vsubps %ymm4, %ymm6, %ymm8 vmovaps %ymm19, %ymm24 vmulps %ymm9, %ymm4, %ymm17 vmovaps %ymm18, %ymm19 vmulps %ymm8, %ymm5, %ymm18 vsubps %ymm18, %ymm17, %ymm17 vmulps %ymm8, %ymm8, %ymm18 vfmadd231ps %ymm9, %ymm9, %ymm18 # ymm18 = (ymm9 * ymm9) + ymm18 vmulps %ymm16, %ymm16, %ymm16 vmulps %ymm18, %ymm16, %ymm16 vmulps %ymm17, %ymm17, %ymm17 vcmpleps %ymm16, %ymm17, %k1 {%k1} kortestb %k1, %k1 je 0x1cf7a5c vmovaps %ymm25, %ymm16 vmovaps %ymm27, %ymm25 vmovaps %ymm26, %ymm27 vmovaps 0x580(%rsp), %ymm26 vmulps %ymm15, %ymm26, %ymm15 vmovaps 0x5a0(%rsp), %ymm31 vfmadd213ps %ymm15, %ymm31, %ymm14 # ymm14 = (ymm31 * ymm14) + ymm15 vmovaps 0x5c0(%rsp), %ymm30 vfmadd213ps %ymm14, %ymm30, %ymm13 # ymm13 = (ymm30 * ymm13) + ymm14 vmovaps 0x5e0(%rsp), %ymm18 vfmadd213ps %ymm13, %ymm18, %ymm2 # ymm2 = (ymm18 * ymm2) + ymm13 vmulps %ymm12, %ymm26, %ymm12 vfmadd213ps %ymm12, %ymm31, %ymm11 # ymm11 = (ymm31 * ymm11) + ymm12 vfmadd213ps %ymm11, %ymm30, %ymm10 # ymm10 = (ymm30 * ymm10) + ymm11 vfmadd213ps %ymm10, %ymm18, %ymm3 # ymm3 = (ymm18 * ymm3) + ymm10 vmovups 0x1210(%rcx,%r14,4), %ymm12 vmovups 0x1694(%rcx,%r14,4), %ymm13 vmovups 0x1b18(%rcx,%r14,4), %ymm14 vmovups 0x1f9c(%rcx,%r14,4), %ymm15 vmulps %ymm15, %ymm28, %ymm11 vmulps %ymm15, %ymm29, %ymm10 vmulps %ymm15, %ymm26, %ymm15 vfmadd231ps %ymm27, %ymm14, %ymm11 # ymm11 = (ymm14 * ymm27) + ymm11 vfmadd231ps %ymm25, %ymm14, %ymm10 # ymm10 = (ymm14 * ymm25) + ymm10 vfmadd231ps %ymm14, %ymm31, %ymm15 # ymm15 = (ymm31 * ymm14) + ymm15 vfmadd231ps %ymm24, %ymm13, %ymm11 # ymm11 = (ymm13 * ymm24) + ymm11 vfmadd231ps %ymm16, %ymm13, %ymm10 # ymm10 = (ymm13 * ymm16) + ymm10 vfmadd231ps %ymm13, %ymm30, %ymm15 # ymm15 = (ymm30 * ymm13) + ymm15 vfmadd231ps %ymm22, %ymm12, %ymm11 # ymm11 = (ymm12 * ymm22) + ymm11 vfmadd231ps %ymm19, %ymm12, %ymm10 # ymm10 = (ymm12 * ymm19) + ymm10 vfmadd231ps %ymm12, %ymm18, %ymm15 # ymm15 = (ymm18 * ymm12) + ymm15 vmovups 0x1210(%rax,%r14,4), %ymm13 vmovups 0x1b18(%rax,%r14,4), %ymm14 vmovups 0x1f9c(%rax,%r14,4), %ymm16 vmulps %ymm16, %ymm28, %ymm17 vmulps %ymm16, %ymm29, %ymm12 vmulps %ymm16, %ymm26, %ymm16 vfmadd231ps %ymm27, %ymm14, %ymm17 # ymm17 = (ymm14 * ymm27) + ymm17 vfmadd231ps %ymm25, %ymm14, %ymm12 # ymm12 = (ymm14 * ymm25) + ymm12 vfmadd231ps %ymm14, %ymm31, %ymm16 # ymm16 = (ymm31 * ymm14) + ymm16 vmovups 0x1694(%rax,%r14,4), %ymm14 vfmadd231ps %ymm24, %ymm14, %ymm17 # ymm17 = (ymm14 * ymm24) + ymm17 vfmadd231ps 0x560(%rsp), %ymm14, %ymm12 # ymm12 = (ymm14 * mem) + ymm12 vfmadd231ps %ymm14, %ymm30, %ymm16 # ymm16 = (ymm30 * ymm14) + ymm16 vfmadd231ps %ymm22, %ymm13, %ymm17 # ymm17 = (ymm13 * ymm22) + ymm17 vfmadd231ps %ymm19, %ymm13, %ymm12 # ymm12 = (ymm13 * ymm19) + ymm12 vfmadd231ps %ymm13, %ymm18, %ymm16 # ymm16 = (ymm18 * ymm13) + ymm16 vbroadcastss 0x229a78(%rip), %ymm18 # 0x1f20ec4 vandps %ymm18, %ymm11, %ymm13 vandps %ymm18, %ymm10, %ymm14 vmaxps %ymm14, %ymm13, %ymm13 vandps %ymm18, %ymm15, %ymm14 vmaxps %ymm14, %ymm13, %ymm13 vmovaps 0x280(%rsp), %ymm15 vcmpltps %ymm15, %ymm13, %k2 vmovaps %ymm9, %ymm11 {%k2} vmovaps %ymm8, %ymm10 {%k2} vandps %ymm18, %ymm17, %ymm13 vandps %ymm18, %ymm12, %ymm14 vmaxps %ymm14, %ymm13, %ymm13 vandps %ymm18, %ymm16, %ymm14 vmaxps %ymm14, %ymm13, %ymm13 vcmpltps %ymm15, %ymm13, %k2 vmovaps %ymm9, %ymm17 {%k2} vmovaps %ymm8, %ymm12 {%k2} vbroadcastss 0x229a04(%rip), %ymm9 # 0x1f20ec0 vxorps %ymm9, %ymm11, %ymm8 vxorps %ymm9, %ymm17, %ymm9 vfmadd213ps %ymm23, %ymm11, %ymm11 # ymm11 = (ymm11 * ymm11) + ymm23 vfmadd231ps %ymm10, %ymm10, %ymm11 # ymm11 = (ymm10 * ymm10) + ymm11 vrsqrt14ps %ymm11, %ymm13 vbroadcastss 0x1f523b(%rip), %ymm15 # 0x1eec71c vmulps %ymm15, %ymm11, %ymm11 vmulps %ymm11, %ymm13, %ymm11 vmulps %ymm13, %ymm13, %ymm14 vmulps %ymm11, %ymm14, %ymm14 vbroadcastss 0x1f5219(%rip), %ymm16 # 0x1eec718 vfmadd231ps %ymm13, %ymm16, %ymm14 # ymm14 = (ymm16 * ymm13) + ymm14 vmulps %ymm14, %ymm10, %ymm11 vmulps %ymm8, %ymm14, %ymm10 vmulps %ymm23, %ymm14, %ymm13 vfmadd213ps %ymm23, %ymm17, %ymm17 # ymm17 = (ymm17 * ymm17) + ymm23 vfmadd231ps %ymm12, %ymm12, %ymm17 # ymm17 = (ymm12 * ymm12) + ymm17 vrsqrt14ps %ymm17, %ymm8 vmulps %ymm15, %ymm17, %ymm14 vmulps %ymm14, %ymm8, %ymm14 vmulps %ymm8, %ymm8, %ymm15 vmulps %ymm14, %ymm15, %ymm14 vfmadd231ps %ymm8, %ymm16, %ymm14 # ymm14 = (ymm16 * ymm8) + ymm14 vmulps %ymm14, %ymm12, %ymm8 vmulps %ymm9, %ymm14, %ymm9 vmulps %ymm23, %ymm14, %ymm12 vmovaps %ymm11, %ymm14 vfmadd213ps %ymm5, %ymm0, %ymm14 # ymm14 = (ymm0 * ymm14) + ymm5 vmovaps %ymm10, %ymm15 vfmadd213ps %ymm4, %ymm0, %ymm15 # ymm15 = (ymm0 * ymm15) + ymm4 vmovaps %ymm13, %ymm16 vfmadd213ps %ymm3, %ymm0, %ymm16 # ymm16 = (ymm0 * ymm16) + ymm3 vmovaps %ymm8, %ymm17 vfmadd213ps %ymm7, %ymm1, %ymm17 # ymm17 = (ymm1 * ymm17) + ymm7 vfnmadd213ps %ymm5, %ymm0, %ymm11 # ymm11 = -(ymm0 * ymm11) + ymm5 vmovaps %ymm9, %ymm5 vfmadd213ps %ymm6, %ymm1, %ymm5 # ymm5 = (ymm1 * ymm5) + ymm6 vfnmadd213ps %ymm4, %ymm0, %ymm10 # ymm10 = -(ymm0 * ymm10) + ymm4 vmovaps %ymm12, %ymm4 vfmadd213ps %ymm2, %ymm1, %ymm4 # ymm4 = (ymm1 * ymm4) + ymm2 vfnmadd231ps %ymm13, %ymm0, %ymm3 # ymm3 = -(ymm0 * ymm13) + ymm3 vfnmadd213ps %ymm7, %ymm1, %ymm8 # ymm8 = -(ymm1 * ymm8) + ymm7 vfnmadd213ps %ymm6, %ymm1, %ymm9 # ymm9 = -(ymm1 * ymm9) + ymm6 vfnmadd231ps %ymm12, %ymm1, %ymm2 # ymm2 = -(ymm1 * ymm12) + ymm2 vsubps %ymm11, %ymm17, %ymm6 vsubps %ymm10, %ymm5, %ymm7 vsubps %ymm3, %ymm4, %ymm12 vmulps %ymm3, %ymm7, %ymm13 vfmsub231ps %ymm12, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm12) - ymm13 vmulps %ymm11, %ymm12, %ymm12 vfmsub231ps %ymm6, %ymm3, %ymm12 # ymm12 = (ymm3 * ymm6) - ymm12 vmulps %ymm6, %ymm10, %ymm6 vfmsub231ps %ymm7, %ymm11, %ymm6 # ymm6 = (ymm11 * ymm7) - ymm6 vfmadd231ps %ymm12, %ymm23, %ymm6 # ymm6 = (ymm23 * ymm12) + ymm6 vfmadd231ps %ymm13, %ymm23, %ymm6 # ymm6 = (ymm23 * ymm13) + ymm6 vcmpleps %ymm23, %ymm6, %k2 vmovaps %ymm14, %ymm8 {%k2} vmovaps %ymm15, %ymm9 {%k2} vmovaps %ymm16, %ymm2 {%k2} vblendmps %ymm17, %ymm11, %ymm13 {%k2} vblendmps %ymm5, %ymm10, %ymm14 {%k2} vblendmps %ymm4, %ymm3, %ymm15 {%k2} vmovaps %ymm11, %ymm17 {%k2} vmovaps %ymm10, %ymm5 {%k2} vmovaps %ymm3, %ymm4 {%k2} vsubps %ymm8, %ymm17, %ymm6 vsubps %ymm9, %ymm5, %ymm5 vsubps %ymm2, %ymm4, %ymm11 vsubps %ymm13, %ymm8, %ymm7 vsubps %ymm14, %ymm9, %ymm10 vsubps %ymm15, %ymm2, %ymm12 vmulps %ymm8, %ymm11, %ymm4 vfmsub231ps %ymm6, %ymm2, %ymm4 # ymm4 = (ymm2 * ymm6) - ymm4 vmulps %ymm6, %ymm9, %ymm3 vfmsub231ps %ymm5, %ymm8, %ymm3 # ymm3 = (ymm8 * ymm5) - ymm3 vfmadd231ps %ymm4, %ymm23, %ymm3 # ymm3 = (ymm23 * ymm4) + ymm3 vmulps %ymm2, %ymm5, %ymm4 vfmsub231ps %ymm11, %ymm9, %ymm4 # ymm4 = (ymm9 * ymm11) - ymm4 vfmadd231ps %ymm4, %ymm23, %ymm3 # ymm3 = (ymm23 * ymm4) + ymm3 vmulps %ymm13, %ymm12, %ymm16 vfmsub231ps %ymm15, %ymm7, %ymm16 # ymm16 = (ymm7 * ymm15) - ymm16 vmulps %ymm15, %ymm10, %ymm15 vfmsub231ps %ymm12, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm12) - ymm15 vmulps %ymm7, %ymm14, %ymm4 vfmsub231ps %ymm13, %ymm10, %ymm4 # ymm4 = (ymm10 * ymm13) - ymm4 vfmadd231ps %ymm16, %ymm23, %ymm4 # ymm4 = (ymm23 * ymm16) + ymm4 vfmadd231ps %ymm15, %ymm23, %ymm4 # ymm4 = (ymm23 * ymm15) + ymm4 vmaxps %ymm4, %ymm3, %ymm13 vcmpleps %ymm23, %ymm13, %k0 {%k1} kortestb %k0, %k0 je 0x1cf7a89 vmulps %ymm5, %ymm12, %ymm13 vfmsub231ps %ymm11, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm11) - ymm13 vmulps %ymm7, %ymm11, %ymm11 vfmsub231ps %ymm12, %ymm6, %ymm11 # ymm11 = (ymm6 * ymm12) - ymm11 vmulps %ymm6, %ymm10, %ymm10 vfmsub231ps %ymm5, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm5) - ymm10 vxorps %xmm6, %xmm6, %xmm6 vfmadd213ps %ymm10, %ymm11, %ymm6 # ymm6 = (ymm11 * ymm6) + ymm10 vfmadd231ps %ymm23, %ymm13, %ymm6 # ymm6 = (ymm13 * ymm23) + ymm6 vrcp14ps %ymm6, %ymm7 vmovaps %ymm7, %ymm5 vfnmadd213ps 0x1f502e(%rip){1to8}, %ymm6, %ymm5 # ymm5 = -(ymm6 * ymm5) + mem vfmadd132ps %ymm7, %ymm7, %ymm5 # ymm5 = (ymm5 * ymm7) + ymm7 vmulps %ymm2, %ymm10, %ymm2 vfmadd231ps %ymm11, %ymm9, %ymm2 # ymm2 = (ymm9 * ymm11) + ymm2 vfmadd231ps %ymm13, %ymm8, %ymm2 # ymm2 = (ymm8 * ymm13) + ymm2 vmulps %ymm5, %ymm2, %ymm2 vcmpgeps 0x300(%rsp), %ymm2, %k1 vcmpleps 0x80(%rsi,%r15,4){1to8}, %ymm2, %k1 {%k1} kandb %k0, %k1, %k0 kortestb %k0, %k0 je 0x1cf7a89 vcmpneqps %ymm23, %ymm6, %k1 ktestb %k1, %k0 vmovaps 0x40(%rsp), %xmm7 vmovaps 0x160(%rsp), %ymm18 vmovaps 0x140(%rsp), %ymm19 je 0x1cf7ab6 kandb %k1, %k0, %k0 kmovd %k0, %eax vmulps %ymm5, %ymm3, %ymm3 vmulps %ymm5, %ymm4, %ymm4 vbroadcastss 0x1f4fb7(%rip), %ymm5 # 0x1eec714 vsubps %ymm3, %ymm5, %ymm20 vmovaps %ymm3, %ymm20 {%k2} vsubps %ymm4, %ymm5, %ymm3 vmovaps %ymm4, %ymm3 {%k2} vmovaps %ymm3, 0x500(%rsp) movzbl %al, %r9d vmovaps %ymm2, %ymm21 vmovaps 0x80(%rsp), %ymm6 vmovaps 0x60(%rsp), %ymm3 testw %r9w, %r9w je 0x1cf7a77 vsubps %ymm0, %ymm1, %ymm1 vfmadd213ps %ymm0, %ymm20, %ymm1 # ymm1 = (ymm20 * ymm1) + ymm0 vaddps %ymm1, %ymm1, %ymm0 movq 0xc8(%rsp), %rax vmulps (%rax,%r15,4){1to8}, %ymm0, %ymm0 vcmpnleps %ymm0, %ymm21, %k0 kmovd %k0, %eax andb %al, %r9b je 0x1cf7a77 vbroadcastss 0x1f91f3(%rip), %ymm0 # 0x1ef09cc vmovaps 0x500(%rsp), %ymm1 vfmadd132ps 0x1f980c(%rip){1to8}, %ymm0, %ymm1 # ymm1 = (ymm1 * mem) + ymm0 vmovaps %ymm20, 0x340(%rsp) vmovaps %ymm1, 0x500(%rsp) vmovaps %ymm1, 0x360(%rsp) vmovaps %ymm21, 0x380(%rsp) movl %r14d, 0x3a0(%rsp) movl %edi, 0x3a4(%rsp) vmovaps %xmm7, 0x3b0(%rsp) vmovaps 0xe0(%rsp), %xmm0 vmovaps %xmm0, 0x3c0(%rsp) vmovaps 0xd0(%rsp), %xmm0 vmovaps %xmm0, 0x3d0(%rsp) vmovdqa 0x120(%rsp), %xmm0 vmovdqa %xmm0, 0x3e0(%rsp) movb %r9b, 0x3f0(%rsp) movq (%r10), %rax movq 0x1e8(%rax), %rax movq 0x38(%rsp), %rcx movq (%rax,%rcx,8), %r11 movl 0x90(%rsi,%r15,4), %eax testl %eax, 0x34(%r11) je 0x1cf7a53 vaddps 0x2296ad(%rip), %ymm20, %ymm0 # 0x1f20f40 vcvtsi2ss %r14d, %xmm22, %xmm1 vbroadcastss %xmm1, %ymm1 vaddps %ymm0, %ymm1, %ymm0 vmulps 0x320(%rsp), %ymm0, %ymm0 vmovaps %ymm0, 0x400(%rsp) vmovaps 0x500(%rsp), %ymm0 vmovaps %ymm0, 0x420(%rsp) vmovaps %ymm21, 0x440(%rsp) kmovd %r9d, %k1 vbroadcastss 0x1f4144(%rip), %ymm0 # 0x1eeba20 vblendmps %ymm21, %ymm0, %ymm0 {%k1} vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm0, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1] vminps %ymm2, %ymm1, %ymm1 vcmpeqps %ymm1, %ymm0, %k0 kmovd %k0, %eax andb %r9b, %al movzbl %al, %eax movzbl %r9b, %ecx cmovnel %eax, %ecx tzcntl %ecx, %r12d movq 0x10(%r10), %rax cmpq $0x0, 0x10(%rax) jne 0x1cf7abe cmpq $0x0, 0x40(%r11) jne 0x1cf7abe vmovss 0x400(%rsp,%r12,4), %xmm0 vmovss 0x420(%rsp,%r12,4), %xmm1 vmovss 0x1f4dc3(%rip), %xmm2 # 0x1eec714 vsubss %xmm0, %xmm2, %xmm2 vmulss %xmm2, %xmm2, %xmm3 vmulss %xmm2, %xmm0, %xmm2 vmulss 0x1f968b(%rip), %xmm3, %xmm4 # 0x1ef0ff0 vfmadd231ss 0x1f906e(%rip), %xmm2, %xmm3 # xmm3 = (xmm2 * mem) + xmm3 vmulss %xmm0, %xmm0, %xmm5 vfmsub132ss 0x1f967d(%rip), %xmm5, %xmm2 # xmm2 = (xmm2 * mem) - xmm5 vmovss 0x1f9669(%rip), %xmm6 # 0x1ef0fec vmulss %xmm6, %xmm3, %xmm3 vmulss %xmm6, %xmm2, %xmm2 vmulss %xmm6, %xmm5, %xmm5 vbroadcastss %xmm5, %xmm5 vmulps 0x120(%rsp), %xmm5, %xmm5 vbroadcastss %xmm2, %xmm2 vfmadd132ps 0xd0(%rsp), %xmm5, %xmm2 # xmm2 = (xmm2 * mem) + xmm5 vbroadcastss %xmm3, %xmm3 vfmadd132ps 0xe0(%rsp), %xmm2, %xmm3 # xmm3 = (xmm3 * mem) + xmm2 vbroadcastss %xmm4, %xmm2 vfmadd213ps %xmm3, %xmm7, %xmm2 # xmm2 = (xmm7 * xmm2) + xmm3 vmovss 0x440(%rsp,%r12,4), %xmm3 vmovss %xmm3, 0x80(%rsi,%r15,4) vmovss %xmm2, 0xc0(%rsi,%r15,4) vextractps $0x1, %xmm2, 0xd0(%rsi,%r15,4) vextractps $0x2, %xmm2, 0xe0(%rsi,%r15,4) vmovss %xmm0, 0xf0(%rsi,%r15,4) vmovss %xmm1, 0x100(%rsi,%r15,4) movq 0x58(%rsp), %rax movl %eax, 0x110(%rsi,%r15,4) movq 0x38(%rsp), %rax movl %eax, 0x120(%rsi,%r15,4) movq 0x8(%r10), %rax movl (%rax), %eax movl %eax, 0x130(%rsi,%r15,4) movq 0x8(%r10), %rax movl 0x4(%rax), %eax movl %eax, 0x140(%rsi,%r15,4) vmovaps 0x80(%rsp), %ymm6 vmovaps 0x60(%rsp), %ymm3 leaq 0x42f88a(%rip), %r12 # 0x21272e4 jmp 0x1cf7a77 vmovaps 0x80(%rsp), %ymm6 vmovaps 0x60(%rsp), %ymm3 vmovaps %ymm19, %ymm18 vmovaps %ymm24, %ymm19 addq $0x8, %r14 cmpl %r14d, %edi jg 0x1cf7176 jmp 0x1cf70ca xorl %r9d, %r9d vmovaps 0x80(%rsp), %ymm6 vmovaps 0x60(%rsp), %ymm3 vmovaps 0x40(%rsp), %xmm7 vmovaps 0x160(%rsp), %ymm18 vmovaps 0x140(%rsp), %ymm19 jmp 0x1cf7795 xorl %r9d, %r9d jmp 0x1cf7786 vmovaps 0x3c0(%rsp), %xmm0 vmovaps %xmm0, 0x230(%rsp) vmovaps 0x3d0(%rsp), %xmm0 vmovaps %xmm0, 0x220(%rsp) vmovaps 0x3e0(%rsp), %xmm0 vmovaps %xmm0, 0x550(%rsp) vmovaps %ymm20, 0x200(%rsp) vmovaps %ymm21, 0x1e0(%rsp) movq %r11, 0x138(%rsp) movq %r8, 0x30(%rsp) movq %r10, 0x28(%rsp) movq %rsi, 0x20(%rsp) movl %edi, 0x1c(%rsp) vmovaps %ymm28, 0x1c0(%rsp) vmovaps %ymm29, 0x1a0(%rsp) vmovss 0x80(%rsi,%r15,4), %xmm0 vmovss %xmm0, 0x240(%rsp) vmovss 0x440(%rsp,%r12,4), %xmm0 vbroadcastss 0x400(%rsp,%r12,4), %xmm1 vbroadcastss 0x420(%rsp,%r12,4), %xmm2 vmovss %xmm0, 0x80(%rsi,%r15,4) movq 0x8(%r10), %rax vmovss 0x1f4b9e(%rip), %xmm0 # 0x1eec714 vsubss %xmm1, %xmm0, %xmm0 vmulss %xmm0, %xmm0, %xmm3 vmulss %xmm0, %xmm1, %xmm0 vmulss 0x1f9466(%rip), %xmm3, %xmm4 # 0x1ef0ff0 vfmadd231ss 0x1f8e49(%rip), %xmm0, %xmm3 # xmm3 = (xmm0 * mem) + xmm3 vmulss %xmm1, %xmm1, %xmm5 vfmsub132ss 0x1f9458(%rip), %xmm5, %xmm0 # xmm0 = (xmm0 * mem) - xmm5 vmovss 0x1f9444(%rip), %xmm6 # 0x1ef0fec vmulss %xmm6, %xmm3, %xmm3 vmulss %xmm6, %xmm0, %xmm0 vmulss %xmm6, %xmm5, %xmm5 vbroadcastss %xmm5, %xmm5 vmulps 0x550(%rsp), %xmm5, %xmm5 vbroadcastss %xmm0, %xmm0 vfmadd132ps 0x220(%rsp), %xmm5, %xmm0 # xmm0 = (xmm0 * mem) + xmm5 vbroadcastss %xmm3, %xmm3 vfmadd132ps 0x230(%rsp), %xmm0, %xmm3 # xmm3 = (xmm3 * mem) + xmm0 vbroadcastss %xmm4, %xmm0 vfmadd213ps %xmm3, %xmm7, %xmm0 # xmm0 = (xmm7 * xmm0) + xmm3 vbroadcastss %xmm0, %xmm3 vshufps $0x55, %xmm0, %xmm0, %xmm4 # xmm4 = xmm0[1,1,1,1] vshufps $0xaa, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[2,2,2,2] vmovaps %xmm3, 0x470(%rsp) vmovaps %xmm4, 0x480(%rsp) vmovaps %xmm0, 0x490(%rsp) vmovaps %xmm1, 0x4a0(%rsp) vmovaps %xmm2, 0x4b0(%rsp) vmovaps 0x250(%rsp), %xmm0 vmovaps %xmm0, 0x4c0(%rsp) vmovdqa 0x260(%rsp), %xmm0 vmovdqa %xmm0, 0x4d0(%rsp) leaq 0x4e0(%rsp), %rcx vpcmpeqd %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, (%rcx) vbroadcastss (%rax), %xmm0 vmovaps %xmm0, 0x4e0(%rsp) vbroadcastss 0x4(%rax), %xmm0 vmovaps %xmm0, 0x4f0(%rsp) vmovaps 0x2f0(%rsp), %xmm0 vmovaps %xmm0, 0xb0(%rsp) leaq 0xb0(%rsp), %rcx movq %rcx, 0xf0(%rsp) movq 0x18(%r11), %rcx movq %rcx, 0xf8(%rsp) movq %rax, 0x100(%rsp) movq %rsi, 0x108(%rsp) leaq 0x470(%rsp), %rax movq %rax, 0x110(%rsp) movl $0x4, 0x118(%rsp) movq 0x40(%r11), %rax testq %rax, %rax movl %r9d, 0x190(%rsp) je 0x1cf7d5c leaq 0xf0(%rsp), %rdi vzeroupper callq *%rax movq 0x138(%rsp), %r11 movl 0x190(%rsp), %r9d vmovaps 0x1a0(%rsp), %ymm29 vmovaps 0x1c0(%rsp), %ymm28 vmovaps 0x140(%rsp), %ymm19 vmovaps 0x160(%rsp), %ymm18 vmovaps 0x2a0(%rsp), %ymm22 movl 0x1c(%rsp), %edi vmovaps 0x40(%rsp), %xmm7 vmovaps 0x1e0(%rsp), %ymm21 vmovaps 0x200(%rsp), %ymm20 vxorps %xmm23, %xmm23, %xmm23 leaq 0x4319b7(%rip), %rdx # 0x2129704 movq 0x20(%rsp), %rsi movq 0x28(%rsp), %r10 movq 0x30(%rsp), %r8 vmovdqa 0xb0(%rsp), %xmm0 vptestmd %xmm0, %xmm0, %k0 kortestb %k0, %k0 vmovaps 0x80(%rsp), %ymm6 vmovaps 0x60(%rsp), %ymm3 je 0x1cf7ec8 movq 0x10(%r10), %rcx movq 0x10(%rcx), %rax testq %rax, %rax je 0x1cf7e2f testb $0x2, (%rcx) jne 0x1cf7da5 testb $0x40, 0x3e(%r11) je 0x1cf7e2f leaq 0xf0(%rsp), %rdi vzeroupper callq *%rax movq 0x138(%rsp), %r11 movl 0x190(%rsp), %r9d vmovaps 0x1a0(%rsp), %ymm29 vmovaps 0x1c0(%rsp), %ymm28 vmovaps 0x140(%rsp), %ymm19 vmovaps 0x160(%rsp), %ymm18 vmovaps 0x2a0(%rsp), %ymm22 movl 0x1c(%rsp), %edi vmovaps 0x40(%rsp), %xmm7 vmovaps 0x1e0(%rsp), %ymm21 vmovaps 0x60(%rsp), %ymm3 vmovaps 0x200(%rsp), %ymm20 vmovaps 0x80(%rsp), %ymm6 vxorps %xmm23, %xmm23, %xmm23 leaq 0x4318e4(%rip), %rdx # 0x2129704 movq 0x20(%rsp), %rsi movq 0x28(%rsp), %r10 movq 0x30(%rsp), %r8 vmovdqa 0xb0(%rsp), %xmm0 vptestmd %xmm0, %xmm0, %k1 kortestb %k1, %k1 je 0x1cf7ec8 movq 0x108(%rsp), %rax movq 0x110(%rsp), %rcx vmovaps (%rcx), %xmm0 vmovups %xmm0, 0xc0(%rax) {%k1} vmovaps 0x10(%rcx), %xmm0 vmovups %xmm0, 0xd0(%rax) {%k1} vmovaps 0x20(%rcx), %xmm0 vmovups %xmm0, 0xe0(%rax) {%k1} vmovaps 0x30(%rcx), %xmm0 vmovups %xmm0, 0xf0(%rax) {%k1} vmovaps 0x40(%rcx), %xmm0 vmovups %xmm0, 0x100(%rax) {%k1} vmovdqa 0x50(%rcx), %xmm0 vmovdqu32 %xmm0, 0x110(%rax) {%k1} vmovdqa 0x60(%rcx), %xmm0 vmovdqu32 %xmm0, 0x120(%rax) {%k1} vmovdqa 0x70(%rcx), %xmm0 vmovdqa32 %xmm0, 0x130(%rax) {%k1} vmovdqa 0x80(%rcx), %xmm0 vmovdqa32 %xmm0, 0x140(%rax) {%k1} jmp 0x1cf7edb vmovd 0x240(%rsp), %xmm0 vmovd %xmm0, 0x80(%rsi,%r15,4) movl $0x1, %eax shlxl %r12d, %eax, %eax kmovd %eax, %k0 movzbl %r9b, %eax kmovd %eax, %k1 kandnb %k1, %k0, %k0 vcmpleps 0x80(%rsi,%r15,4){1to8}, %ymm21, %k1 kandb %k1, %k0, %k2 kmovd %k2, %r9d ktestb %k1, %k0 je 0x1cf7f59 kmovd %r9d, %k1 vbroadcastss 0x1f3b06(%rip), %ymm0 # 0x1eeba20 vblendmps %ymm21, %ymm0, %ymm0 {%k1} vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm0, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1] vminps %ymm2, %ymm1, %ymm1 vcmpeqps %ymm1, %ymm0, %k0 kmovd %k0, %eax andb %r9b, %al movzbl %al, %eax movzbl %r9b, %ecx cmovnel %eax, %ecx tzcntl %ecx, %r12d testb %r9b, %r9b jne 0x1cf7b2f jmp 0x1cf7a53 xorl %r12d, %r12d vmovaps 0x80(%rsp), %ymm6 vmovaps 0x60(%rsp), %ymm3 vmovaps 0x40(%rsp), %xmm7 vmovaps 0x1c0(%rsp), %ymm28 vmovaps 0x1a0(%rsp), %ymm29 vmovaps 0x280(%rsp), %xmm8 jmp 0x1cf6dc0 xorl %r12d, %r12d vmovaps 0x80(%rsp), %ymm6 vmovaps 0x60(%rsp), %ymm3 vmovaps 0x40(%rsp), %xmm7 jmp 0x1cf6dc0 xorl %r12d, %r12d vmovaps 0x80(%rsp), %ymm6 vmovaps 0x60(%rsp), %ymm3 jmp 0x1cf6dc0 movq 0x38(%rsp), %rax vpbroadcastd %eax, %xmm0 vmovdqa %xmm0, 0x250(%rsp) movq 0x58(%rsp), %rax vpbroadcastd %eax, %xmm0 vmovdqa %xmm0, 0x190(%rsp) vmovaps 0x3c0(%rsp), %xmm0 vmovaps %xmm0, 0x240(%rsp) vmovaps 0x3d0(%rsp), %xmm0 vmovaps %xmm0, 0x230(%rsp) vmovaps 0x3e0(%rsp), %xmm0 vmovaps %xmm0, 0x220(%rsp) movq %r8, 0x30(%rsp) movq %r10, 0x28(%rsp) movq %rsi, 0x20(%rsp) movl %edi, 0x1c(%rsp) vmovss 0x80(%rsi,%r15,4), %xmm0 vmovss %xmm0, 0x260(%rsp) vmovss 0x440(%rsp,%r9,4), %xmm0 vbroadcastss 0x400(%rsp,%r9,4), %xmm1 vbroadcastss 0x420(%rsp,%r9,4), %xmm2 vmovss %xmm0, 0x80(%rsi,%r15,4) movq 0x8(%r10), %rax vmovss 0x1f468b(%rip), %xmm0 # 0x1eec714 vsubss %xmm1, %xmm0, %xmm0 vmulss %xmm0, %xmm0, %xmm3 vmulss %xmm0, %xmm1, %xmm0 vmulss 0x1f8f53(%rip), %xmm3, %xmm4 # 0x1ef0ff0 vfmadd231ss 0x1f8936(%rip), %xmm0, %xmm3 # xmm3 = (xmm0 * mem) + xmm3 vmulss %xmm1, %xmm1, %xmm5 vfmsub132ss 0x1f8f45(%rip), %xmm5, %xmm0 # xmm0 = (xmm0 * mem) - xmm5 vmovss 0x1f8f31(%rip), %xmm6 # 0x1ef0fec vmulss %xmm6, %xmm3, %xmm3 vmulss %xmm6, %xmm0, %xmm0 vmulss %xmm6, %xmm5, %xmm5 vbroadcastss %xmm5, %xmm5 vmulps 0x220(%rsp), %xmm5, %xmm5 vbroadcastss %xmm0, %xmm0 vfmadd132ps 0x230(%rsp), %xmm5, %xmm0 # xmm0 = (xmm0 * mem) + xmm5 vbroadcastss %xmm3, %xmm3 vfmadd132ps 0x240(%rsp), %xmm0, %xmm3 # xmm3 = (xmm3 * mem) + xmm0 vbroadcastss %xmm4, %xmm0 vfmadd213ps %xmm3, %xmm7, %xmm0 # xmm0 = (xmm7 * xmm0) + xmm3 vbroadcastss %xmm0, %xmm3 vshufps $0x55, %xmm0, %xmm0, %xmm4 # xmm4 = xmm0[1,1,1,1] vshufps $0xaa, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[2,2,2,2] vmovaps %xmm3, 0x470(%rsp) vmovaps %xmm4, 0x480(%rsp) vmovaps %xmm0, 0x490(%rsp) vmovaps %xmm1, 0x4a0(%rsp) vmovaps %xmm2, 0x4b0(%rsp) vmovaps 0x190(%rsp), %xmm0 vmovaps %xmm0, 0x4c0(%rsp) vmovdqa 0x250(%rsp), %xmm0 vmovdqa %xmm0, 0x4d0(%rsp) leaq 0x4e0(%rsp), %rcx vpcmpeqd %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, (%rcx) vbroadcastss (%rax), %xmm0 vmovaps %xmm0, 0x4e0(%rsp) vbroadcastss 0x4(%rax), %xmm0 vmovaps %xmm0, 0x4f0(%rsp) vmovaps 0x2f0(%rsp), %xmm0 vmovaps %xmm0, 0xb0(%rsp) leaq 0xb0(%rsp), %rcx movq %rcx, 0xf0(%rsp) movq 0x18(%r14), %rcx movq %rcx, 0xf8(%rsp) movq %rax, 0x100(%rsp) movq %rsi, 0x108(%rsp) leaq 0x470(%rsp), %rax movq %rax, 0x110(%rsp) movl $0x4, 0x118(%rsp) movq 0x40(%r14), %rax testq %rax, %rax movq %r9, 0x300(%rsp) je 0x1cf827c leaq 0xf0(%rsp), %rdi vzeroupper callq *%rax movq 0x300(%rsp), %r9 vmovaps 0x280(%rsp), %xmm8 vmovaps 0x2c0(%rsp), %xmm27 vmovaps 0x1a0(%rsp), %ymm29 vmovaps 0x1c0(%rsp), %ymm28 vmovaps 0x140(%rsp), %ymm19 vmovaps 0x160(%rsp), %ymm18 vmovaps 0x2a0(%rsp), %ymm22 movl 0x1c(%rsp), %edi vmovaps 0x40(%rsp), %xmm7 vmovaps 0x1e0(%rsp), %ymm21 vmovaps 0x200(%rsp), %ymm20 vxorps %xmm23, %xmm23, %xmm23 leaq 0x431497(%rip), %rdx # 0x2129704 movq 0x20(%rsp), %rsi movq 0x28(%rsp), %r10 movq 0x30(%rsp), %r8 vmovdqa 0xb0(%rsp), %xmm0 vptestmd %xmm0, %xmm0, %k0 kortestb %k0, %k0 vmovaps 0x80(%rsp), %ymm6 vmovaps 0x60(%rsp), %ymm3 je 0x1cf83f1 movq 0x10(%r10), %rcx movq 0x10(%rcx), %rax testq %rax, %rax je 0x1cf8358 testb $0x2, (%rcx) jne 0x1cf82c5 testb $0x40, 0x3e(%r14) je 0x1cf8358 leaq 0xf0(%rsp), %rdi vzeroupper callq *%rax movq 0x300(%rsp), %r9 vmovaps 0x280(%rsp), %xmm8 vmovaps 0x2c0(%rsp), %xmm27 vmovaps 0x1a0(%rsp), %ymm29 vmovaps 0x1c0(%rsp), %ymm28 vmovaps 0x140(%rsp), %ymm19 vmovaps 0x160(%rsp), %ymm18 vmovaps 0x2a0(%rsp), %ymm22 movl 0x1c(%rsp), %edi vmovaps 0x40(%rsp), %xmm7 vmovaps 0x1e0(%rsp), %ymm21 vmovaps 0x60(%rsp), %ymm3 vmovaps 0x200(%rsp), %ymm20 vmovaps 0x80(%rsp), %ymm6 vxorps %xmm23, %xmm23, %xmm23 leaq 0x4313bb(%rip), %rdx # 0x2129704 movq 0x20(%rsp), %rsi movq 0x28(%rsp), %r10 movq 0x30(%rsp), %r8 vmovdqa 0xb0(%rsp), %xmm0 vptestmd %xmm0, %xmm0, %k1 kortestb %k1, %k1 je 0x1cf83f1 movq 0x108(%rsp), %rax movq 0x110(%rsp), %rcx vmovaps (%rcx), %xmm0 vmovups %xmm0, 0xc0(%rax) {%k1} vmovaps 0x10(%rcx), %xmm0 vmovups %xmm0, 0xd0(%rax) {%k1} vmovaps 0x20(%rcx), %xmm0 vmovups %xmm0, 0xe0(%rax) {%k1} vmovaps 0x30(%rcx), %xmm0 vmovups %xmm0, 0xf0(%rax) {%k1} vmovaps 0x40(%rcx), %xmm0 vmovups %xmm0, 0x100(%rax) {%k1} vmovdqa 0x50(%rcx), %xmm0 vmovdqu32 %xmm0, 0x110(%rax) {%k1} vmovdqa 0x60(%rcx), %xmm0 vmovdqu32 %xmm0, 0x120(%rax) {%k1} vmovdqa 0x70(%rcx), %xmm0 vmovdqa32 %xmm0, 0x130(%rax) {%k1} vmovdqa 0x80(%rcx), %xmm0 vmovdqa32 %xmm0, 0x140(%rax) {%k1} jmp 0x1cf8404 vmovd 0x260(%rsp), %xmm0 vmovd %xmm0, 0x80(%rsi,%r15,4) movl $0x1, %eax shlxl %r9d, %eax, %eax kmovd %eax, %k0 movzbl %r12b, %eax kmovd %eax, %k1 kandnb %k1, %k0, %k0 vcmpleps 0x80(%rsi,%r15,4){1to8}, %ymm3, %k1 kandb %k1, %k0, %k2 kmovd %k2, %r12d ktestb %k1, %k0 je 0x1cf8482 kmovd %r12d, %k1 vbroadcastss 0x1f35dd(%rip), %ymm0 # 0x1eeba20 vblendmps %ymm3, %ymm0, %ymm0 {%k1} vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm0, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1] vminps %ymm2, %ymm1, %ymm1 vcmpeqps %ymm1, %ymm0, %k0 kmovd %k0, %eax andb %r12b, %al movzbl %al, %eax movzbl %r12b, %ecx cmovnel %eax, %ecx tzcntl %ecx, %r9d testb %r12b, %r12b jne 0x1cf8042 jmp 0x1cf707f leaq -0x28(%rbp), %rsp popq %rbx popq %r12 popq %r13 popq %r14 popq %r15 popq %rbp vzeroupper retq
/embree[P]embree/kernels/geometry/curveNi_intersector.h
bool embree::avx512::CurveNiIntersectorK<8, 4>::occluded_t<embree::avx512::RibbonCurve1IntersectorK<embree::BezierCurveT, 4, 8>, embree::avx512::Occluded1KEpilogMU<8, 4, true>>(embree::avx512::CurvePrecalculationsK<4>&, embree::RayK<4>&, unsigned long, embree::RayQueryContext*, embree::CurveNi<8> const&)
static __forceinline bool occluded_t(Precalculations& pre, RayK<K>& ray, const size_t k, RayQueryContext* context, const Primitive& prim) { vfloat<M> tNear; vbool<M> valid = intersect(ray,k,prim,tNear); const size_t N = prim.N; size_t mask = movemask(valid); while (mask) { const size_t i = bscf(mask); STAT3(shadow.trav_prims,1,1,1); const unsigned int geomID = prim.geomID(N); const unsigned int primID = prim.primID(N)[i]; const CurveGeometry* geom = context->scene->get<CurveGeometry>(geomID); Vec3ff a0,a1,a2,a3; geom->gather(a0,a1,a2,a3,geom->curve(primID)); size_t mask1 = mask; const size_t i1 = bscf(mask1); if (mask) { const unsigned int primID1 = prim.primID(N)[i1]; geom->prefetchL1_vertices(geom->curve(primID1)); if (mask1) { const size_t i2 = bsf(mask1); const unsigned int primID2 = prim.primID(N)[i2]; geom->prefetchL2_vertices(geom->curve(primID2)); } } if (Intersector().intersect(pre,ray,k,context,geom,primID,a0,a1,a2,a3,Epilog(ray,k,context,geomID,primID))) return true; mask &= movemask(tNear <= vfloat<M>(ray.tfar[k])); } return false; }
pushq %rbp movq %rsp, %rbp pushq %r15 pushq %r14 pushq %r13 pushq %r12 pushq %rbx andq $-0x20, %rsp subq $0x6c0, %rsp # imm = 0x6C0 movq %rdx, %r14 movq %rsi, %r15 movzbl 0x1(%r8), %eax leaq (%rax,%rax,4), %rdx leaq (%rdx,%rdx,4), %rsi vbroadcastss 0x12(%r8,%rsi), %xmm0 vmovss (%r15,%r14,4), %xmm1 vmovss 0x40(%r15,%r14,4), %xmm2 vinsertps $0x10, 0x10(%r15,%r14,4), %xmm1, %xmm1 # xmm1 = xmm1[0],mem[0],xmm1[2,3] vinsertps $0x20, 0x20(%r15,%r14,4), %xmm1, %xmm1 # xmm1 = xmm1[0,1],mem[0],xmm1[3] vinsertps $0x10, 0x50(%r15,%r14,4), %xmm2, %xmm2 # xmm2 = xmm2[0],mem[0],xmm2[2,3] movq %rcx, %r10 movq %rdi, %r11 vinsertps $0x20, 0x60(%r15,%r14,4), %xmm2, %xmm2 # xmm2 = xmm2[0,1],mem[0],xmm2[3] vsubps 0x6(%r8,%rsi), %xmm1, %xmm1 vmulps %xmm1, %xmm0, %xmm3 vmulps %xmm2, %xmm0, %xmm0 vpmovsxbd 0x6(%r8,%rax,4), %ymm1 vcvtdq2ps %ymm1, %ymm5 vpmovsxbd 0x6(%r8,%rdx), %ymm1 vcvtdq2ps %ymm1, %ymm6 leaq (%rax,%rax,2), %rcx vpmovsxbd 0x6(%r8,%rcx,2), %ymm1 vcvtdq2ps %ymm1, %ymm2 leaq (%rax,%rdx,2), %rsi vpmovsxbd 0x6(%r8,%rsi), %ymm1 vcvtdq2ps %ymm1, %ymm7 leal (,%rcx,4), %esi vpmovsxbd 0x6(%r8,%rsi), %ymm1 vcvtdq2ps %ymm1, %ymm8 addq %rax, %rsi vpmovsxbd 0x6(%r8,%rsi), %ymm1 vcvtdq2ps %ymm1, %ymm9 leaq (%rax,%rax,8), %rsi leal (%rsi,%rsi), %edi vpmovsxbd 0x6(%r8,%rdi), %ymm1 addq %rax, %rdi vpmovsxbd 0x6(%r8,%rdi), %ymm4 vcvtdq2ps %ymm1, %ymm10 vcvtdq2ps %ymm4, %ymm11 shll $0x2, %edx vpmovsxbd 0x6(%r8,%rdx), %ymm1 vcvtdq2ps %ymm1, %ymm12 vbroadcastss %xmm0, %ymm13 vbroadcastss 0x21a15e(%rip), %ymm15 # 0x1f12704 vpermps %ymm0, %ymm15, %ymm14 vbroadcastss 0x228927(%rip), %ymm16 # 0x1f20edc vpermps %ymm0, %ymm16, %ymm0 vmulps %ymm2, %ymm0, %ymm4 vmulps %ymm0, %ymm9, %ymm1 vmulps %ymm0, %ymm12, %ymm0 vfmadd231ps %ymm6, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm6) + ymm4 vfmadd231ps %ymm8, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm8) + ymm1 vfmadd231ps %ymm14, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm14) + ymm0 vfmadd231ps %ymm5, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm5) + ymm4 vfmadd231ps %ymm7, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm7) + ymm1 vfmadd231ps %ymm13, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm13) + ymm0 vbroadcastss %xmm3, %ymm13 vpermps %ymm3, %ymm15, %ymm14 vpermps %ymm3, %ymm16, %ymm15 vmulps %ymm2, %ymm15, %ymm16 vmulps %ymm9, %ymm15, %ymm3 vmulps %ymm12, %ymm15, %ymm2 vfmadd231ps %ymm6, %ymm14, %ymm16 # ymm16 = (ymm14 * ymm6) + ymm16 vfmadd231ps %ymm8, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm8) + ymm3 vfmadd231ps %ymm11, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm11) + ymm2 vfmadd231ps %ymm5, %ymm13, %ymm16 # ymm16 = (ymm13 * ymm5) + ymm16 vfmadd231ps %ymm7, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm7) + ymm3 vfmadd231ps %ymm10, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm10) + ymm2 vbroadcastss 0x228896(%rip), %ymm7 # 0x1f20ec4 vandps %ymm7, %ymm4, %ymm5 vbroadcastss 0x1f89ad(%rip), %ymm6 # 0x1ef0fe8 vcmpltps %ymm6, %ymm5, %k1 vmovaps %ymm6, %ymm4 {%k1} vandps %ymm7, %ymm1, %ymm5 vcmpltps %ymm6, %ymm5, %k1 vmovaps %ymm6, %ymm1 {%k1} vandps %ymm7, %ymm0, %ymm5 vcmpltps %ymm6, %ymm5, %k1 vmovaps %ymm6, %ymm0 {%k1} vrcp14ps %ymm4, %ymm5 vbroadcastss 0x1f409b(%rip), %ymm6 # 0x1eec714 vfnmadd213ps %ymm6, %ymm5, %ymm4 # ymm4 = -(ymm5 * ymm4) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm4 # ymm4 = (ymm4 * ymm5) + ymm5 vrcp14ps %ymm1, %ymm5 vfnmadd213ps %ymm6, %ymm5, %ymm1 # ymm1 = -(ymm5 * ymm1) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm1 # ymm1 = (ymm1 * ymm5) + ymm5 vrcp14ps %ymm0, %ymm5 vfnmadd213ps %ymm6, %ymm5, %ymm0 # ymm0 = -(ymm5 * ymm0) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm0 # ymm0 = (ymm0 * ymm5) + ymm5 leaq (,%rax,8), %rdi subq %rax, %rdi vpmovsxwd 0x6(%r8,%rdi), %ymm5 vcvtdq2ps %ymm5, %ymm5 vsubps %ymm16, %ymm5, %ymm5 vpmovsxwd 0x6(%r8,%rsi), %ymm6 vmulps %ymm5, %ymm4, %ymm5 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm16, %ymm6, %ymm6 vmulps %ymm6, %ymm4, %ymm4 leaq (%rax,%rax), %rsi addq %rax, %rdx shlq $0x3, %rcx subq %rax, %rcx movl %eax, %edi shll $0x4, %edi vpmovsxwd 0x6(%r8,%rdi), %ymm6 subq %rsi, %rdi vpmovsxwd 0x6(%r8,%rdi), %ymm7 vcvtdq2ps %ymm7, %ymm7 vsubps %ymm3, %ymm7, %ymm7 vmulps %ymm7, %ymm1, %ymm7 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm3, %ymm6, %ymm3 vmulps %ymm3, %ymm1, %ymm1 vpmovsxwd 0x6(%r8,%rdx), %ymm3 vcvtdq2ps %ymm3, %ymm3 vsubps %ymm2, %ymm3, %ymm3 vmulps %ymm0, %ymm3, %ymm3 vpmovsxwd 0x6(%r8,%rcx), %ymm6 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm2, %ymm6, %ymm2 vmulps %ymm2, %ymm0, %ymm0 vpminsd %ymm4, %ymm5, %ymm2 vpminsd %ymm1, %ymm7, %ymm6 vmaxps %ymm6, %ymm2, %ymm2 vpminsd %ymm0, %ymm3, %ymm6 vmaxps 0x30(%r15,%r14,4){1to8}, %ymm6, %ymm6 vmaxps %ymm6, %ymm2, %ymm2 vmulps 0x2277ad(%rip){1to8}, %ymm2, %ymm6 # 0x1f1ff10 vpmaxsd %ymm4, %ymm5, %ymm2 vpmaxsd %ymm1, %ymm7, %ymm1 vminps %ymm1, %ymm2, %ymm1 vpmaxsd %ymm0, %ymm3, %ymm0 vminps 0x80(%r15,%r14,4){1to8}, %ymm0, %ymm0 vminps %ymm0, %ymm1, %ymm0 vmulps 0x227788(%rip){1to8}, %ymm0, %ymm0 # 0x1f1ff14 vpbroadcastd %eax, %ymm1 vpcmpgtd 0x262184(%rip), %ymm1, %k0 # 0x1f5a920 vmovaps %ymm6, 0x680(%rsp) vcmpleps %ymm0, %ymm6, %k1 ktestb %k0, %k1 setne 0x7(%rsp) je 0x1cfa403 kandb %k0, %k1, %k0 kmovd %k0, %eax movzbl %al, %r12d leaq (%r14,%r14,2), %rax shlq $0x4, %rax addq %r11, %rax addq $0x10, %rax movq %rax, 0x1b8(%rsp) movl $0x1, %eax shlxl %r14d, %eax, %eax kmovd %eax, %k0 vpmovm2d %k0, %xmm0 vmovdqa %xmm0, 0x2b0(%rsp) vmovaps %ymm6, 0x60(%rsp) vmovaps %ymm2, 0x40(%rsp) vmovaps %ymm21, 0x220(%rsp) vmovaps %ymm20, 0x240(%rsp) tzcntq %r12, %rax movl 0x2(%r8), %ecx movl 0x6(%r8,%rax,4), %esi movq (%r10), %rax movq 0x1e8(%rax), %rax movq %rcx, 0x98(%rsp) movq (%rax,%rcx,8), %r13 movq 0x58(%r13), %rax movq 0x68(%r13), %rcx movq %rcx, %rdx movq %rsi, 0x10(%rsp) imulq %rsi, %rdx movl (%rax,%rdx), %edi movq 0xa0(%r13), %rdx movq %rdx, %r9 imulq %rdi, %r9 movq 0x90(%r13), %rsi vmovaps (%rsi,%r9), %xmm13 leaq 0x1(%rdi), %r9 imulq %rdx, %r9 vmovaps (%rsi,%r9), %xmm0 vmovaps %xmm0, 0x150(%rsp) leaq 0x2(%rdi), %r9 imulq %rdx, %r9 vmovaps (%rsi,%r9), %xmm0 vmovaps %xmm0, 0x140(%rsp) blsrq %r12, %r12 addq $0x3, %rdi imulq %rdx, %rdi vmovaps (%rsi,%rdi), %xmm0 vmovaps %xmm0, 0x1a0(%rsp) movq %r12, %rdi subq $0x1, %rdi jb 0x1cf8906 andq %r12, %rdi tzcntq %r12, %r9 movl 0x6(%r8,%r9,4), %r9d imulq %rcx, %r9 movl (%rax,%r9), %r9d imulq %rdx, %r9 prefetcht0 (%rsi,%r9) prefetcht0 0x40(%rsi,%r9) testq %rdi, %rdi je 0x1cf8906 tzcntq %rdi, %rdi movl 0x6(%r8,%rdi,4), %edi imulq %rdi, %rcx movl (%rax,%rcx), %eax imulq %rax, %rdx prefetcht1 (%rsi,%rdx) prefetcht1 0x40(%rsi,%rdx) movl 0x248(%r13), %r9d vmovss (%r15,%r14,4), %xmm0 vinsertps $0x1c, 0x10(%r15,%r14,4), %xmm0, %xmm0 # xmm0 = xmm0[0],mem[0],zero,zero vinsertps $0x28, 0x20(%r15,%r14,4), %xmm0, %xmm0 # xmm0 = xmm0[0,1],mem[0],zero vsubps %xmm0, %xmm13, %xmm1 vbroadcastss %xmm1, %xmm2 vshufps $0x55, %xmm1, %xmm1, %xmm3 # xmm3 = xmm1[1,1,1,1] vshufps $0xaa, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,2,2,2] movq 0x1b8(%rsp), %rax vmovaps (%rax), %xmm4 vmovaps 0x10(%rax), %xmm5 vmovaps 0x20(%rax), %xmm6 vmulps %xmm1, %xmm6, %xmm8 vfmadd231ps %xmm3, %xmm5, %xmm8 # xmm8 = (xmm5 * xmm3) + xmm8 vfmadd231ps %xmm2, %xmm4, %xmm8 # xmm8 = (xmm4 * xmm2) + xmm8 vshufps $0xff, %xmm13, %xmm13, %xmm1 # xmm1 = xmm13[3,3,3,3] vmovaps 0x150(%rsp), %xmm3 vsubps %xmm0, %xmm3, %xmm2 vmovaps %xmm3, %xmm10 vbroadcastss %xmm2, %xmm3 vshufps $0x55, %xmm2, %xmm2, %xmm7 # xmm7 = xmm2[1,1,1,1] vshufps $0xaa, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[2,2,2,2] vmulps %xmm2, %xmm6, %xmm9 vfmadd231ps %xmm7, %xmm5, %xmm9 # xmm9 = (xmm5 * xmm7) + xmm9 vfmadd231ps %xmm3, %xmm4, %xmm9 # xmm9 = (xmm4 * xmm3) + xmm9 vshufps $0xff, %xmm10, %xmm10, %xmm2 # xmm2 = xmm10[3,3,3,3] vmovaps 0x140(%rsp), %xmm7 vsubps %xmm0, %xmm7, %xmm3 vmovaps %xmm7, %xmm12 vbroadcastss %xmm3, %xmm7 vshufps $0x55, %xmm3, %xmm3, %xmm11 # xmm11 = xmm3[1,1,1,1] vshufps $0xaa, %xmm3, %xmm3, %xmm3 # xmm3 = xmm3[2,2,2,2] vmulps %xmm3, %xmm6, %xmm10 vfmadd231ps %xmm11, %xmm5, %xmm10 # xmm10 = (xmm5 * xmm11) + xmm10 vfmadd231ps %xmm7, %xmm4, %xmm10 # xmm10 = (xmm4 * xmm7) + xmm10 vshufps $0xff, %xmm12, %xmm12, %xmm7 # xmm7 = xmm12[3,3,3,3] vmovaps 0x1a0(%rsp), %xmm27 vsubps %xmm0, %xmm27, %xmm0 vbroadcastss %xmm0, %xmm3 vshufps $0x55, %xmm0, %xmm0, %xmm12 # xmm12 = xmm0[1,1,1,1] vshufps $0xaa, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[2,2,2,2] vmulps %xmm0, %xmm6, %xmm11 vfmadd231ps %xmm12, %xmm5, %xmm11 # xmm11 = (xmm5 * xmm12) + xmm11 vfmadd231ps %xmm3, %xmm4, %xmm11 # xmm11 = (xmm4 * xmm3) + xmm11 movslq %r9d, %rax movq %rax, %rcx shlq $0x6, %rcx leaq (%rcx,%rax,4), %rbx leaq 0x42e8dc(%rip), %rdx # 0x21272e4 vmovups (%rdx,%rbx), %ymm25 vshufps $0xff, %xmm27, %xmm27, %xmm0 # xmm0 = xmm27[3,3,3,3] vbroadcastss %xmm8, %ymm20 vbroadcastss 0x219cdf(%rip), %ymm3 # 0x1f12704 vpermps %ymm8, %ymm3, %ymm23 vbroadcastsd %xmm1, %ymm12 vmovups 0x484(%rdx,%rbx), %ymm14 vbroadcastss %xmm9, %ymm1 vpermps %ymm9, %ymm3, %ymm31 vbroadcastsd %xmm2, %ymm21 vmovups 0x908(%rdx,%rbx), %ymm15 vbroadcastss %xmm10, %ymm29 vpermps %ymm10, %ymm3, %ymm30 vbroadcastsd %xmm7, %ymm22 vmovups 0xd8c(%rdx,%rbx), %ymm16 vbroadcastss %xmm11, %ymm28 vpermps %ymm11, %ymm3, %ymm26 vbroadcastsd %xmm0, %ymm3 vmulps %ymm16, %ymm28, %ymm5 vmulps %ymm16, %ymm26, %ymm4 vfmadd231ps %ymm29, %ymm15, %ymm5 # ymm5 = (ymm15 * ymm29) + ymm5 vfmadd231ps %ymm30, %ymm15, %ymm4 # ymm4 = (ymm15 * ymm30) + ymm4 vfmadd231ps %ymm1, %ymm14, %ymm5 # ymm5 = (ymm14 * ymm1) + ymm5 vfmadd231ps %ymm31, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm31) + ymm4 vfmadd231ps %ymm20, %ymm25, %ymm5 # ymm5 = (ymm25 * ymm20) + ymm5 leaq 0x430c53(%rip), %rsi # 0x2129704 vmovups (%rsi,%rbx), %ymm2 vmovups 0x484(%rsi,%rbx), %ymm17 vfmadd231ps %ymm23, %ymm25, %ymm4 # ymm4 = (ymm25 * ymm23) + ymm4 vmovups 0x908(%rsi,%rbx), %ymm18 vmovups 0xd8c(%rsi,%rbx), %ymm19 vmulps %ymm19, %ymm28, %ymm7 vmulps %ymm19, %ymm26, %ymm6 vfmadd231ps %ymm29, %ymm18, %ymm7 # ymm7 = (ymm18 * ymm29) + ymm7 vfmadd231ps %ymm30, %ymm18, %ymm6 # ymm6 = (ymm18 * ymm30) + ymm6 vmovaps %ymm1, 0x160(%rsp) vfmadd231ps %ymm1, %ymm17, %ymm7 # ymm7 = (ymm17 * ymm1) + ymm7 vfmadd231ps %ymm31, %ymm17, %ymm6 # ymm6 = (ymm17 * ymm31) + ymm6 vmovaps %ymm20, 0x280(%rsp) vfmadd231ps %ymm20, %ymm2, %ymm7 # ymm7 = (ymm2 * ymm20) + ymm7 vmovaps %ymm23, 0x260(%rsp) vfmadd231ps %ymm23, %ymm2, %ymm6 # ymm6 = (ymm2 * ymm23) + ymm6 vsubps %ymm5, %ymm7, %ymm24 vsubps %ymm4, %ymm6, %ymm23 vmulps %ymm24, %ymm4, %ymm0 vmulps %ymm23, %ymm5, %ymm1 vsubps %ymm1, %ymm0, %ymm20 vmulps %ymm16, %ymm3, %ymm0 vfmadd231ps %ymm22, %ymm15, %ymm0 # ymm0 = (ymm15 * ymm22) + ymm0 vfmadd231ps %ymm21, %ymm14, %ymm0 # ymm0 = (ymm14 * ymm21) + ymm0 vfmadd231ps %ymm12, %ymm25, %ymm0 # ymm0 = (ymm25 * ymm12) + ymm0 vmovaps %ymm3, 0x5c0(%rsp) vmulps %ymm19, %ymm3, %ymm1 vmovaps %ymm22, 0x5e0(%rsp) vfmadd231ps %ymm22, %ymm18, %ymm1 # ymm1 = (ymm18 * ymm22) + ymm1 vmovaps %ymm21, 0x640(%rsp) vfmadd231ps %ymm21, %ymm17, %ymm1 # ymm1 = (ymm17 * ymm21) + ymm1 vmovaps %ymm12, 0x660(%rsp) vfmadd231ps %ymm12, %ymm2, %ymm1 # ymm1 = (ymm2 * ymm12) + ymm1 vmulps %ymm23, %ymm23, %ymm21 vfmadd231ps %ymm24, %ymm24, %ymm21 # ymm21 = (ymm24 * ymm24) + ymm21 vmaxps %ymm1, %ymm0, %ymm22 vmulps %ymm22, %ymm22, %ymm22 vmulps %ymm21, %ymm22, %ymm21 vmulps %ymm20, %ymm20, %ymm20 vcmpleps %ymm21, %ymm20, %k1 vmovaps %xmm13, 0x20(%rsp) vblendps $0x8, %xmm13, %xmm8, %xmm12 # xmm12 = xmm8[0,1,2],xmm13[3] vbroadcastss 0x2282ee(%rip), %xmm20 # 0x1f20ec4 vandps %xmm20, %xmm12, %xmm12 vblendps $0x8, 0x150(%rsp), %xmm9, %xmm13 # xmm13 = xmm9[0,1,2],mem[3] vandps %xmm20, %xmm13, %xmm13 vmaxps %xmm13, %xmm12, %xmm12 vblendps $0x8, 0x140(%rsp), %xmm10, %xmm13 # xmm13 = xmm10[0,1,2],mem[3] vandps %xmm20, %xmm13, %xmm13 vmovaps %xmm27, %xmm3 vblendps $0x8, %xmm3, %xmm11, %xmm3 # xmm3 = xmm11[0,1,2],xmm3[3] vandps %xmm20, %xmm3, %xmm3 vmaxps %xmm3, %xmm13, %xmm3 vmaxps %xmm3, %xmm12, %xmm3 vmovshdup %xmm3, %xmm12 # xmm12 = xmm3[1,1,3,3] vmaxss %xmm3, %xmm12, %xmm12 vshufpd $0x1, %xmm3, %xmm3, %xmm3 # xmm3 = xmm3[1,0] vmaxss %xmm12, %xmm3, %xmm3 vcvtsi2ss %r9d, %xmm8, %xmm12 vmovaps %xmm12, 0x130(%rsp) vbroadcastss %xmm12, %ymm12 vcmpgtps 0x2282f3(%rip), %ymm12, %k1 {%k1} # 0x1f20f40 vmulss 0x1f838f(%rip), %xmm3, %xmm12 # 0x1ef0fe4 vbroadcastss 0x22827e(%rip), %ymm3 # 0x1f20edc vpermps %ymm8, %ymm3, %ymm20 vpermps %ymm9, %ymm3, %ymm21 vpermps %ymm10, %ymm3, %ymm22 vpermps %ymm11, %ymm3, %ymm8 kortestb %k1, %k1 vmovss 0x30(%r15,%r14,4), %xmm9 vmovaps %ymm31, 0x540(%rsp) vmovaps %ymm29, 0x620(%rsp) vmovaps %ymm30, 0x600(%rsp) vmovaps %ymm20, 0x5a0(%rsp) vmovaps %ymm21, 0x580(%rsp) vmovaps %ymm22, 0x560(%rsp) je 0x1cf970e vmovaps %xmm9, 0x1c0(%rsp) vmulps %ymm19, %ymm8, %ymm3 vfmadd213ps %ymm3, %ymm22, %ymm18 # ymm18 = (ymm22 * ymm18) + ymm3 vfmadd213ps %ymm18, %ymm21, %ymm17 # ymm17 = (ymm21 * ymm17) + ymm18 vfmadd213ps %ymm17, %ymm20, %ymm2 # ymm2 = (ymm20 * ymm2) + ymm17 vmulps %ymm16, %ymm8, %ymm3 vfmadd213ps %ymm3, %ymm22, %ymm15 # ymm15 = (ymm22 * ymm15) + ymm3 vfmadd213ps %ymm15, %ymm21, %ymm14 # ymm14 = (ymm21 * ymm14) + ymm15 vmovups 0x1210(%rdx,%rbx), %ymm3 vmovups 0x1694(%rdx,%rbx), %ymm10 vmovups 0x1b18(%rdx,%rbx), %ymm11 vmovaps %xmm12, %xmm16 vmovups 0x1f9c(%rdx,%rbx), %ymm12 vfmadd213ps %ymm14, %ymm20, %ymm25 # ymm25 = (ymm20 * ymm25) + ymm14 vmulps %ymm12, %ymm28, %ymm9 vmovaps %ymm8, %ymm15 vmulps %ymm12, %ymm26, %ymm8 vmulps %ymm12, %ymm15, %ymm12 vfmadd231ps %ymm29, %ymm11, %ymm9 # ymm9 = (ymm11 * ymm29) + ymm9 vfmadd231ps %ymm30, %ymm11, %ymm8 # ymm8 = (ymm11 * ymm30) + ymm8 vfmadd231ps %ymm11, %ymm22, %ymm12 # ymm12 = (ymm22 * ymm11) + ymm12 vmovaps 0x160(%rsp), %ymm19 vfmadd231ps %ymm19, %ymm10, %ymm9 # ymm9 = (ymm10 * ymm19) + ymm9 vfmadd231ps %ymm31, %ymm10, %ymm8 # ymm8 = (ymm10 * ymm31) + ymm8 vfmadd231ps %ymm10, %ymm21, %ymm12 # ymm12 = (ymm21 * ymm10) + ymm12 vmovaps 0x280(%rsp), %ymm17 vfmadd231ps %ymm17, %ymm3, %ymm9 # ymm9 = (ymm3 * ymm17) + ymm9 vmovaps 0x260(%rsp), %ymm18 vfmadd231ps %ymm18, %ymm3, %ymm8 # ymm8 = (ymm3 * ymm18) + ymm8 vmovups 0x1210(%rsi,%rbx), %ymm10 vmovups 0x1b18(%rsi,%rbx), %ymm11 vmovups 0x1f9c(%rsi,%rbx), %ymm13 vfmadd231ps %ymm3, %ymm20, %ymm12 # ymm12 = (ymm20 * ymm3) + ymm12 vmovaps %ymm28, 0x200(%rsp) vmulps %ymm13, %ymm28, %ymm3 vmovaps %ymm26, 0x1e0(%rsp) vmulps %ymm13, %ymm26, %ymm14 vmovaps %ymm15, 0x180(%rsp) vmulps %ymm13, %ymm15, %ymm13 vfmadd231ps %ymm29, %ymm11, %ymm3 # ymm3 = (ymm11 * ymm29) + ymm3 vfmadd231ps %ymm30, %ymm11, %ymm14 # ymm14 = (ymm11 * ymm30) + ymm14 vfmadd231ps %ymm11, %ymm22, %ymm13 # ymm13 = (ymm22 * ymm11) + ymm13 vmovups 0x1694(%rsi,%rbx), %ymm11 vfmadd231ps %ymm19, %ymm11, %ymm3 # ymm3 = (ymm11 * ymm19) + ymm3 vfmadd231ps %ymm31, %ymm11, %ymm14 # ymm14 = (ymm11 * ymm31) + ymm14 vfmadd231ps %ymm11, %ymm21, %ymm13 # ymm13 = (ymm21 * ymm11) + ymm13 vfmadd231ps %ymm17, %ymm10, %ymm3 # ymm3 = (ymm10 * ymm17) + ymm3 vfmadd231ps %ymm18, %ymm10, %ymm14 # ymm14 = (ymm10 * ymm18) + ymm14 vfmadd231ps %ymm10, %ymm20, %ymm13 # ymm13 = (ymm20 * ymm10) + ymm13 vbroadcastss 0x2280ba(%rip), %ymm15 # 0x1f20ec4 vandps %ymm15, %ymm9, %ymm10 vandps %ymm15, %ymm8, %ymm11 vmaxps %ymm11, %ymm10, %ymm10 vandps %ymm15, %ymm12, %ymm11 vmaxps %ymm11, %ymm10, %ymm10 vbroadcastss %xmm16, %ymm11 vmovaps %xmm16, %xmm26 vcmpltps %ymm11, %ymm10, %k2 vmovaps %ymm24, %ymm9 {%k2} vmovaps %ymm23, %ymm8 {%k2} vandps %ymm3, %ymm15, %ymm10 vandps %ymm15, %ymm14, %ymm12 vmaxps %ymm12, %ymm10, %ymm10 vandps %ymm15, %ymm13, %ymm12 vmaxps %ymm12, %ymm10, %ymm10 vcmpltps %ymm11, %ymm10, %k2 vmovaps %ymm24, %ymm3 {%k2} vmovaps %ymm23, %ymm14 {%k2} vbroadcastss 0x22804a(%rip), %ymm11 # 0x1f20ec0 vxorps %ymm11, %ymm9, %ymm10 vxorps %ymm3, %ymm11, %ymm12 vxorps %xmm24, %xmm24, %xmm24 vfmadd213ps %ymm24, %ymm9, %ymm9 # ymm9 = (ymm9 * ymm9) + ymm24 vfmadd231ps %ymm8, %ymm8, %ymm9 # ymm9 = (ymm8 * ymm8) + ymm9 vrsqrt14ps %ymm9, %ymm11 vbroadcastss 0x1f387d(%rip), %ymm15 # 0x1eec71c vmulps %ymm15, %ymm9, %ymm9 vmulps %ymm9, %ymm11, %ymm9 vmulps %ymm11, %ymm11, %ymm13 vmulps %ymm9, %ymm13, %ymm9 vbroadcastss 0x1f385b(%rip), %ymm16 # 0x1eec718 vfmadd231ps %ymm11, %ymm16, %ymm9 # ymm9 = (ymm16 * ymm11) + ymm9 vmulps %ymm9, %ymm8, %ymm11 vmulps %ymm10, %ymm9, %ymm10 vmulps %ymm24, %ymm9, %ymm13 vfmadd213ps %ymm24, %ymm3, %ymm3 # ymm3 = (ymm3 * ymm3) + ymm24 vfmadd231ps %ymm14, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm14) + ymm3 vrsqrt14ps %ymm3, %ymm8 vmulps %ymm3, %ymm15, %ymm3 vmulps %ymm3, %ymm8, %ymm3 vmulps %ymm8, %ymm8, %ymm9 vmulps %ymm3, %ymm9, %ymm3 vfmadd231ps %ymm8, %ymm16, %ymm3 # ymm3 = (ymm16 * ymm8) + ymm3 vmulps %ymm3, %ymm14, %ymm8 vmulps %ymm3, %ymm12, %ymm9 vmulps %ymm24, %ymm3, %ymm3 vmovaps %ymm11, %ymm12 vfmadd213ps %ymm5, %ymm0, %ymm12 # ymm12 = (ymm0 * ymm12) + ymm5 vmovaps %ymm10, %ymm14 vfmadd213ps %ymm4, %ymm0, %ymm14 # ymm14 = (ymm0 * ymm14) + ymm4 vmovaps %ymm13, %ymm15 vfmadd213ps %ymm25, %ymm0, %ymm15 # ymm15 = (ymm0 * ymm15) + ymm25 vmovaps %ymm8, %ymm16 vfmadd213ps %ymm7, %ymm1, %ymm16 # ymm16 = (ymm1 * ymm16) + ymm7 vfnmadd213ps %ymm5, %ymm0, %ymm11 # ymm11 = -(ymm0 * ymm11) + ymm5 vmovaps %ymm9, %ymm5 vfmadd213ps %ymm6, %ymm1, %ymm5 # ymm5 = (ymm1 * ymm5) + ymm6 vfnmadd213ps %ymm4, %ymm0, %ymm10 # ymm10 = -(ymm0 * ymm10) + ymm4 vmovaps %ymm3, %ymm4 vfmadd213ps %ymm2, %ymm1, %ymm4 # ymm4 = (ymm1 * ymm4) + ymm2 vfnmadd231ps %ymm13, %ymm0, %ymm25 # ymm25 = -(ymm0 * ymm13) + ymm25 vfnmadd213ps %ymm7, %ymm1, %ymm8 # ymm8 = -(ymm1 * ymm8) + ymm7 vfnmadd213ps %ymm6, %ymm1, %ymm9 # ymm9 = -(ymm1 * ymm9) + ymm6 vfnmadd231ps %ymm3, %ymm1, %ymm2 # ymm2 = -(ymm1 * ymm3) + ymm2 vsubps %ymm11, %ymm16, %ymm3 vsubps %ymm10, %ymm5, %ymm6 vsubps %ymm25, %ymm4, %ymm7 vmulps %ymm25, %ymm6, %ymm13 vfmsub231ps %ymm7, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm7) - ymm13 vmulps %ymm7, %ymm11, %ymm7 vfmsub231ps %ymm3, %ymm25, %ymm7 # ymm7 = (ymm25 * ymm3) - ymm7 vmulps %ymm3, %ymm10, %ymm3 vfmsub231ps %ymm6, %ymm11, %ymm3 # ymm3 = (ymm11 * ymm6) - ymm3 vfmadd231ps %ymm7, %ymm24, %ymm3 # ymm3 = (ymm24 * ymm7) + ymm3 vfmadd231ps %ymm13, %ymm24, %ymm3 # ymm3 = (ymm24 * ymm13) + ymm3 vcmpleps %ymm24, %ymm3, %k2 vmovaps %ymm12, %ymm8 {%k2} vmovaps %ymm14, %ymm9 {%k2} vmovaps %ymm15, %ymm2 {%k2} vblendmps %ymm16, %ymm11, %ymm13 {%k2} vblendmps %ymm5, %ymm10, %ymm14 {%k2} vblendmps %ymm4, %ymm25, %ymm15 {%k2} vmovaps %ymm11, %ymm16 {%k2} vmovaps %ymm10, %ymm5 {%k2} vmovaps %ymm25, %ymm4 {%k2} vsubps %ymm8, %ymm16, %ymm6 vsubps %ymm9, %ymm5, %ymm5 vsubps %ymm2, %ymm4, %ymm11 vsubps %ymm13, %ymm8, %ymm7 vsubps %ymm14, %ymm9, %ymm10 vsubps %ymm15, %ymm2, %ymm12 vmulps %ymm8, %ymm11, %ymm4 vfmsub231ps %ymm6, %ymm2, %ymm4 # ymm4 = (ymm2 * ymm6) - ymm4 vmulps %ymm6, %ymm9, %ymm3 vfmsub231ps %ymm5, %ymm8, %ymm3 # ymm3 = (ymm8 * ymm5) - ymm3 vfmadd231ps %ymm4, %ymm24, %ymm3 # ymm3 = (ymm24 * ymm4) + ymm3 vmulps %ymm2, %ymm5, %ymm4 vfmsub231ps %ymm11, %ymm9, %ymm4 # ymm4 = (ymm9 * ymm11) - ymm4 vfmadd231ps %ymm4, %ymm24, %ymm3 # ymm3 = (ymm24 * ymm4) + ymm3 vmulps %ymm13, %ymm12, %ymm16 vfmsub231ps %ymm15, %ymm7, %ymm16 # ymm16 = (ymm7 * ymm15) - ymm16 vmulps %ymm15, %ymm10, %ymm15 vfmsub231ps %ymm12, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm12) - ymm15 vmulps %ymm7, %ymm14, %ymm4 vfmsub231ps %ymm13, %ymm10, %ymm4 # ymm4 = (ymm10 * ymm13) - ymm4 vfmadd231ps %ymm16, %ymm24, %ymm4 # ymm4 = (ymm24 * ymm16) + ymm4 vfmadd231ps %ymm15, %ymm24, %ymm4 # ymm4 = (ymm24 * ymm15) + ymm4 vmaxps %ymm4, %ymm3, %ymm13 vcmpleps %ymm24, %ymm13, %k0 {%k1} kortestb %k0, %k0 vmovaps 0x240(%rsp), %ymm20 vmovaps 0x220(%rsp), %ymm21 vmovaps %ymm17, %ymm22 vmovaps %ymm19, %ymm17 vmovaps %xmm26, %xmm14 je 0x1cfa393 vmulps %ymm5, %ymm12, %ymm13 vfmsub231ps %ymm11, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm11) - ymm13 vmulps %ymm7, %ymm11, %ymm11 vfmsub231ps %ymm12, %ymm6, %ymm11 # ymm11 = (ymm6 * ymm12) - ymm11 vmulps %ymm6, %ymm10, %ymm10 vfmsub231ps %ymm5, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm5) - ymm10 vxorps %xmm6, %xmm6, %xmm6 vfmadd213ps %ymm10, %ymm11, %ymm6 # ymm6 = (ymm11 * ymm6) + ymm10 vfmadd231ps %ymm24, %ymm13, %ymm6 # ymm6 = (ymm13 * ymm24) + ymm6 vrcp14ps %ymm6, %ymm7 vmovaps %ymm7, %ymm5 vfnmadd213ps 0x1f3651(%rip){1to8}, %ymm6, %ymm5 # ymm5 = -(ymm6 * ymm5) + mem vfmadd132ps %ymm7, %ymm7, %ymm5 # ymm5 = (ymm5 * ymm7) + ymm7 vmulps %ymm2, %ymm10, %ymm2 vfmadd231ps %ymm11, %ymm9, %ymm2 # ymm2 = (ymm9 * ymm11) + ymm2 vfmadd231ps %ymm13, %ymm8, %ymm2 # ymm2 = (ymm8 * ymm13) + ymm2 vmulps %ymm5, %ymm2, %ymm2 vmovaps 0x1c0(%rsp), %xmm9 vbroadcastss %xmm9, %ymm7 vcmpleps %ymm2, %ymm7, %k1 vcmpleps 0x80(%r15,%r14,4){1to8}, %ymm2, %k1 {%k1} kandb %k0, %k1, %k0 kortestb %k0, %k0 vmovaps 0x200(%rsp), %ymm28 vmovaps 0x1e0(%rsp), %ymm29 je 0x1cfa3ce vcmpneqps %ymm24, %ymm6, %k1 ktestb %k1, %k0 vmovaps 0x20(%rsp), %xmm7 vmovaps 0x180(%rsp), %ymm8 je 0x1cfa3f0 kandb %k1, %k0, %k0 kmovd %k0, %eax vmulps %ymm5, %ymm3, %ymm3 vmulps %ymm5, %ymm4, %ymm4 vbroadcastss 0x1f35c5(%rip), %ymm5 # 0x1eec714 vsubps %ymm3, %ymm5, %ymm6 vmovaps %ymm3, %ymm6 {%k2} vsubps %ymm4, %ymm5, %ymm3 vmovaps %ymm4, %ymm3 {%k2} vmovaps %ymm3, 0x500(%rsp) movzbl %al, %eax testw %ax, %ax je 0x1cf970a vsubps %ymm0, %ymm1, %ymm1 vfmadd213ps %ymm0, %ymm6, %ymm1 # ymm1 = (ymm6 * ymm1) + ymm0 vaddps %ymm1, %ymm1, %ymm0 vmulps (%r11,%r14,4){1to8}, %ymm0, %ymm0 vcmpnleps %ymm0, %ymm2, %k0 kmovd %k0, %ecx andb %cl, %al je 0x1cf970a vbroadcastss 0x1f7824(%rip), %ymm0 # 0x1ef09cc vmovaps 0x500(%rsp), %ymm1 vfmadd132ps 0x1f7e3d(%rip){1to8}, %ymm0, %ymm1 # ymm1 = (ymm1 * mem) + ymm0 vmovaps %ymm6, 0x380(%rsp) vmovaps %ymm1, 0x500(%rsp) vmovaps %ymm1, 0x3a0(%rsp) vmovaps %ymm2, 0x3c0(%rsp) movl $0x0, 0x3e0(%rsp) movl %r9d, 0x3e4(%rsp) vmovaps %xmm7, 0x3f0(%rsp) vmovaps 0x150(%rsp), %xmm0 vmovaps %xmm0, 0x400(%rsp) vmovaps 0x140(%rsp), %xmm0 vmovaps %xmm0, 0x410(%rsp) vmovaps 0x1a0(%rsp), %xmm0 vmovaps %xmm0, 0x420(%rsp) movb %al, 0x430(%rsp) movl 0x90(%r15,%r14,4), %ecx testl %ecx, 0x34(%r13) je 0x1cf970a movq 0x10(%r10), %rcx cmpq $0x0, 0x10(%rcx) jne 0x1cf9263 movb $0x1, %dil cmpq $0x0, 0x48(%r13) je 0x1cf9755 vaddps 0x227cd5(%rip), %ymm6, %ymm0 # 0x1f20f40 vmovss 0x1f34a1(%rip), %xmm1 # 0x1eec714 vdivss 0x130(%rsp), %xmm1, %xmm1 vbroadcastss %xmm1, %ymm1 vmulps %ymm0, %ymm1, %ymm0 vmovaps %ymm0, 0x440(%rsp) vmovaps 0x500(%rsp), %ymm0 vmovaps %ymm0, 0x460(%rsp) vmovaps %ymm2, 0x480(%rsp) movzbl %al, %ecx tzcntq %rcx, %rdi movq 0x98(%rsp), %rax vpbroadcastd %eax, %xmm0 vmovdqa %xmm0, 0x4a0(%rsp) vmovaps 0x400(%rsp), %xmm0 vmovaps %xmm0, 0x110(%rsp) movq 0x10(%rsp), %rax vpbroadcastd %eax, %xmm0 vmovdqa %xmm0, 0x100(%rsp) movq %rdi, %rax vmovaps 0x410(%rsp), %xmm0 vmovaps %xmm0, 0xf0(%rsp) vmovaps 0x420(%rsp), %xmm0 vmovaps %xmm0, 0xe0(%rsp) movb $0x1, %dil vmovaps %xmm14, 0xd0(%rsp) movq %r8, 0x38(%rsp) movq %r10, 0x18(%rsp) movq %r11, 0x30(%rsp) vmovaps %ymm6, 0x60(%rsp) vmovaps %ymm2, 0x40(%rsp) movl %r9d, 0xc(%rsp) movq %rcx, 0x2c0(%rsp) vmovss 0x80(%r15,%r14,4), %xmm10 vmovss 0x480(%rsp,%rax,4), %xmm0 vbroadcastss 0x440(%rsp,%rax,4), %xmm1 movq %rax, 0x4c0(%rsp) vbroadcastss 0x460(%rsp,%rax,4), %xmm2 vmovss %xmm0, 0x80(%r15,%r14,4) movq 0x8(%r10), %rax vmovss 0x1f3386(%rip), %xmm0 # 0x1eec714 vsubss %xmm1, %xmm0, %xmm0 vmulss %xmm0, %xmm0, %xmm3 vmulss %xmm0, %xmm1, %xmm0 vmulss 0x1f7c4e(%rip), %xmm3, %xmm4 # 0x1ef0ff0 vfmadd231ss 0x1f7631(%rip), %xmm0, %xmm3 # xmm3 = (xmm0 * mem) + xmm3 vmulss %xmm1, %xmm1, %xmm5 vfmsub132ss 0x1f7c40(%rip), %xmm5, %xmm0 # xmm0 = (xmm0 * mem) - xmm5 vmovss 0x1f7c2c(%rip), %xmm6 # 0x1ef0fec vmulss %xmm6, %xmm3, %xmm3 vmulss %xmm6, %xmm0, %xmm0 vmulss %xmm6, %xmm5, %xmm5 vbroadcastss %xmm5, %xmm5 vmulps 0xe0(%rsp), %xmm5, %xmm5 vbroadcastss %xmm0, %xmm0 vfmadd132ps 0xf0(%rsp), %xmm5, %xmm0 # xmm0 = (xmm0 * mem) + xmm5 vbroadcastss %xmm3, %xmm3 vfmadd132ps 0x110(%rsp), %xmm0, %xmm3 # xmm3 = (xmm3 * mem) + xmm0 vbroadcastss %xmm4, %xmm0 vfmadd213ps %xmm3, %xmm7, %xmm0 # xmm0 = (xmm7 * xmm0) + xmm3 vbroadcastss %xmm0, %xmm3 vshufps $0x55, %xmm0, %xmm0, %xmm4 # xmm4 = xmm0[1,1,1,1] vshufps $0xaa, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[2,2,2,2] vmovaps %xmm3, 0x2f0(%rsp) vmovaps %xmm4, 0x300(%rsp) vmovaps %xmm0, 0x310(%rsp) vmovaps %xmm1, 0x320(%rsp) vmovaps %xmm2, 0x330(%rsp) vmovaps 0x100(%rsp), %xmm0 vmovaps %xmm0, 0x340(%rsp) vmovdqa 0x4a0(%rsp), %xmm0 vmovdqa %xmm0, 0x350(%rsp) leaq 0x360(%rsp), %rcx vpcmpeqd %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, (%rcx) vbroadcastss (%rax), %xmm0 vmovaps %xmm0, 0x360(%rsp) vbroadcastss 0x4(%rax), %xmm0 vmovaps %xmm0, 0x370(%rsp) vmovaps 0x2b0(%rsp), %xmm0 vmovaps %xmm0, 0x80(%rsp) leaq 0x80(%rsp), %rcx movq %rcx, 0xa0(%rsp) movq 0x18(%r13), %rcx movq %rcx, 0xa8(%rsp) movq %rax, 0xb0(%rsp) movq %r15, 0xb8(%rsp) leaq 0x2f0(%rsp), %rax movq %rax, 0xc0(%rsp) movl $0x4, 0xc8(%rsp) movq 0x48(%r13), %rax testq %rax, %rax movl %edi, 0x8(%rsp) vmovss %xmm10, 0x120(%rsp) je 0x1cf959d leaq 0xa0(%rsp), %rdi vzeroupper callq *%rax vmovss 0x120(%rsp), %xmm10 vmovaps 0x1c0(%rsp), %xmm9 vmovaps 0xd0(%rsp), %xmm14 movl 0x8(%rsp), %edi vmovaps 0x180(%rsp), %ymm8 vmovaps 0x1e0(%rsp), %ymm29 vmovaps 0x200(%rsp), %ymm28 vmovaps 0x160(%rsp), %ymm17 vmovaps 0x260(%rsp), %ymm18 vmovaps 0x280(%rsp), %ymm22 movl 0xc(%rsp), %r9d vmovaps 0x20(%rsp), %xmm7 vmovaps 0x220(%rsp), %ymm21 vmovaps 0x240(%rsp), %ymm20 vxorps %xmm24, %xmm24, %xmm24 leaq 0x43017d(%rip), %rsi # 0x2129704 leaq 0x42dd56(%rip), %rdx # 0x21272e4 movq 0x30(%rsp), %r11 movq 0x18(%rsp), %r10 movq 0x38(%rsp), %r8 vmovdqa 0x80(%rsp), %xmm0 vptestmd %xmm0, %xmm0, %k0 kortestb %k0, %k0 je 0x1cf96cb movq 0x10(%r10), %rcx movq 0x10(%rcx), %rax testq %rax, %rax vmovaps 0x60(%rsp), %ymm6 vmovaps 0x40(%rsp), %ymm2 je 0x1cf968a testb $0x2, (%rcx) jne 0x1cf95e3 testb $0x40, 0x3e(%r13) je 0x1cf968a leaq 0xa0(%rsp), %rdi vzeroupper callq *%rax vmovss 0x120(%rsp), %xmm10 vmovaps 0x1c0(%rsp), %xmm9 vmovaps 0xd0(%rsp), %xmm14 movl 0x8(%rsp), %edi vmovaps 0x180(%rsp), %ymm8 vmovaps 0x1e0(%rsp), %ymm29 vmovaps 0x200(%rsp), %ymm28 vmovaps 0x160(%rsp), %ymm17 vmovaps 0x260(%rsp), %ymm18 vmovaps 0x280(%rsp), %ymm22 movl 0xc(%rsp), %r9d vmovaps 0x20(%rsp), %xmm7 vmovaps 0x220(%rsp), %ymm21 vmovaps 0x40(%rsp), %ymm2 vmovaps 0x240(%rsp), %ymm20 vmovaps 0x60(%rsp), %ymm6 vxorps %xmm24, %xmm24, %xmm24 leaq 0x430090(%rip), %rsi # 0x2129704 leaq 0x42dc69(%rip), %rdx # 0x21272e4 movq 0x30(%rsp), %r11 movq 0x18(%rsp), %r10 movq 0x38(%rsp), %r8 vmovdqa 0x80(%rsp), %xmm0 movq 0xb8(%rsp), %rax vmovaps 0x80(%rax), %xmm1 vptestmd %xmm0, %xmm0, %k1 vbroadcastss 0x1f34d1(%rip), %xmm1 {%k1} # 0x1eecb84 vmovaps %xmm1, 0x80(%rax) kortestb %k1, %k1 movq 0x2c0(%rsp), %rcx je 0x1cf96df jmp 0x1cf9704 vmovaps 0x60(%rsp), %ymm6 vmovaps 0x40(%rsp), %ymm2 movq 0x2c0(%rsp), %rcx vmovss %xmm10, 0x80(%r15,%r14,4) movq 0x4c0(%rsp), %rax btcq %rax, %rcx tzcntq %rcx, %rax setae %dil jae 0x1cf9341 andb $0x1, %dil jmp 0x1cf9755 xorl %edi, %edi jmp 0x1cf9755 xorl %edi, %edi vxorps %xmm24, %xmm24, %xmm24 vmovaps 0x60(%rsp), %ymm6 vmovaps 0x240(%rsp), %ymm20 vmovaps 0x40(%rsp), %ymm2 vmovaps 0x220(%rsp), %ymm21 vmovaps 0x280(%rsp), %ymm22 vmovaps 0x260(%rsp), %ymm18 vmovaps 0x160(%rsp), %ymm17 vmovaps %ymm26, %ymm29 vmovaps %xmm12, %xmm14 cmpl $0x9, %r9d jge 0x1cf978e testb $0x1, %dil jne 0x1cfa403 vmovaps 0x680(%rsp), %ymm0 vcmpleps 0x80(%r15,%r14,4){1to8}, %ymm0, %k0 kmovb %k0, %eax andl %eax, %r12d setne 0x7(%rsp) jne 0x1cf87fb jmp 0x1cfa403 vmovaps %ymm8, 0x180(%rsp) vpbroadcastd %r9d, %ymm0 vmovdqa %ymm0, 0x1c0(%rsp) vbroadcastss %xmm14, %ymm0 vmovaps %ymm0, 0x2c0(%rsp) vbroadcastss %xmm9, %ymm0 vmovaps %ymm0, 0x4c0(%rsp) vmovss 0x1f2f4a(%rip), %xmm0 # 0x1eec714 vdivss 0x130(%rsp), %xmm0, %xmm0 vbroadcastss %xmm0, %ymm0 vmovaps %ymm0, 0x4a0(%rsp) movq 0x98(%rsp), %rax vpbroadcastd %eax, %xmm0 vmovdqa %xmm0, 0x130(%rsp) movq 0x10(%rsp), %rax vpbroadcastd %eax, %xmm0 vmovdqa %xmm0, 0x120(%rsp) movl $0x8, %r13d vmovaps %ymm6, 0x60(%rsp) vmovaps %ymm2, 0x40(%rsp) vpbroadcastd %r13d, %ymm0 vpor 0x2610f4(%rip), %ymm0, %ymm0 # 0x1f5a920 vpcmpltd 0x1c0(%rsp), %ymm0, %k1 leaq (%rbx,%rdx), %rcx vmovups (%rcx,%r13,4), %ymm3 vmovups 0x484(%rcx,%r13,4), %ymm10 vmovups 0x908(%rcx,%r13,4), %ymm11 vmovups 0xd8c(%rcx,%r13,4), %ymm12 vmulps %ymm12, %ymm28, %ymm5 vmulps %ymm12, %ymm29, %ymm4 vmovaps 0x5c0(%rsp), %ymm1 vmulps %ymm1, %ymm12, %ymm0 vmovaps 0x620(%rsp), %ymm19 vfmadd231ps %ymm19, %ymm11, %ymm5 # ymm5 = (ymm11 * ymm19) + ymm5 vmovaps 0x600(%rsp), %ymm27 vfmadd231ps %ymm27, %ymm11, %ymm4 # ymm4 = (ymm11 * ymm27) + ymm4 vmovaps 0x5e0(%rsp), %ymm16 vfmadd231ps %ymm16, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm16) + ymm0 vfmadd231ps %ymm17, %ymm10, %ymm5 # ymm5 = (ymm10 * ymm17) + ymm5 vmovaps 0x540(%rsp), %ymm25 vfmadd231ps %ymm25, %ymm10, %ymm4 # ymm4 = (ymm10 * ymm25) + ymm4 vmovaps 0x640(%rsp), %ymm9 vfmadd231ps %ymm9, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm9) + ymm0 vfmadd231ps %ymm22, %ymm3, %ymm5 # ymm5 = (ymm3 * ymm22) + ymm5 vfmadd231ps %ymm18, %ymm3, %ymm4 # ymm4 = (ymm3 * ymm18) + ymm4 leaq (%rbx,%rsi), %rax vmovups (%rax,%r13,4), %ymm2 vmovups 0x484(%rax,%r13,4), %ymm13 vmovaps 0x660(%rsp), %ymm8 vfmadd231ps %ymm8, %ymm3, %ymm0 # ymm0 = (ymm3 * ymm8) + ymm0 vmovups 0x908(%rax,%r13,4), %ymm14 vmovups 0xd8c(%rax,%r13,4), %ymm15 vmulps %ymm15, %ymm28, %ymm7 vmulps %ymm15, %ymm29, %ymm6 vmulps %ymm1, %ymm15, %ymm1 vfmadd231ps %ymm19, %ymm14, %ymm7 # ymm7 = (ymm14 * ymm19) + ymm7 vfmadd231ps %ymm27, %ymm14, %ymm6 # ymm6 = (ymm14 * ymm27) + ymm6 vfmadd231ps %ymm16, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm16) + ymm1 vfmadd231ps %ymm17, %ymm13, %ymm7 # ymm7 = (ymm13 * ymm17) + ymm7 vfmadd231ps %ymm25, %ymm13, %ymm6 # ymm6 = (ymm13 * ymm25) + ymm6 vfmadd231ps %ymm9, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm9) + ymm1 vfmadd231ps %ymm22, %ymm2, %ymm7 # ymm7 = (ymm2 * ymm22) + ymm7 vfmadd231ps %ymm18, %ymm2, %ymm6 # ymm6 = (ymm2 * ymm18) + ymm6 vfmadd231ps %ymm8, %ymm2, %ymm1 # ymm1 = (ymm2 * ymm8) + ymm1 vmaxps %ymm1, %ymm0, %ymm16 vsubps %ymm5, %ymm7, %ymm9 vsubps %ymm4, %ymm6, %ymm8 vmovaps %ymm17, %ymm26 vmulps %ymm9, %ymm4, %ymm17 vmovaps %ymm18, %ymm23 vmulps %ymm8, %ymm5, %ymm18 vsubps %ymm18, %ymm17, %ymm17 vmulps %ymm8, %ymm8, %ymm18 vfmadd231ps %ymm9, %ymm9, %ymm18 # ymm18 = (ymm9 * ymm9) + ymm18 vmulps %ymm16, %ymm16, %ymm16 vmulps %ymm18, %ymm16, %ymm16 vmulps %ymm17, %ymm17, %ymm17 vcmpleps %ymm16, %ymm17, %k1 {%k1} kortestb %k1, %k1 je 0x1cfa336 vmovaps %ymm23, %ymm16 vmovaps 0x180(%rsp), %ymm23 vmulps %ymm15, %ymm23, %ymm15 vmovaps 0x560(%rsp), %ymm31 vfmadd213ps %ymm15, %ymm31, %ymm14 # ymm14 = (ymm31 * ymm14) + ymm15 vmovaps 0x580(%rsp), %ymm30 vfmadd213ps %ymm14, %ymm30, %ymm13 # ymm13 = (ymm30 * ymm13) + ymm14 vmovaps 0x5a0(%rsp), %ymm18 vfmadd213ps %ymm13, %ymm18, %ymm2 # ymm2 = (ymm18 * ymm2) + ymm13 vmulps %ymm12, %ymm23, %ymm12 vfmadd213ps %ymm12, %ymm31, %ymm11 # ymm11 = (ymm31 * ymm11) + ymm12 vfmadd213ps %ymm11, %ymm30, %ymm10 # ymm10 = (ymm30 * ymm10) + ymm11 vfmadd213ps %ymm10, %ymm18, %ymm3 # ymm3 = (ymm18 * ymm3) + ymm10 vmovups 0x1210(%rcx,%r13,4), %ymm12 vmovups 0x1694(%rcx,%r13,4), %ymm13 vmovups 0x1b18(%rcx,%r13,4), %ymm14 vmovups 0x1f9c(%rcx,%r13,4), %ymm15 vmulps %ymm15, %ymm28, %ymm11 vmulps %ymm15, %ymm29, %ymm10 vmulps %ymm15, %ymm23, %ymm15 vfmadd231ps %ymm19, %ymm14, %ymm11 # ymm11 = (ymm14 * ymm19) + ymm11 vfmadd231ps %ymm27, %ymm14, %ymm10 # ymm10 = (ymm14 * ymm27) + ymm10 vfmadd231ps %ymm14, %ymm31, %ymm15 # ymm15 = (ymm31 * ymm14) + ymm15 vfmadd231ps %ymm26, %ymm13, %ymm11 # ymm11 = (ymm13 * ymm26) + ymm11 vfmadd231ps %ymm25, %ymm13, %ymm10 # ymm10 = (ymm13 * ymm25) + ymm10 vfmadd231ps %ymm13, %ymm30, %ymm15 # ymm15 = (ymm30 * ymm13) + ymm15 vfmadd231ps %ymm22, %ymm12, %ymm11 # ymm11 = (ymm12 * ymm22) + ymm11 vfmadd231ps %ymm16, %ymm12, %ymm10 # ymm10 = (ymm12 * ymm16) + ymm10 vmovaps %ymm27, %ymm25 vmovaps %ymm19, %ymm27 vmovaps %ymm16, %ymm19 vfmadd231ps %ymm12, %ymm18, %ymm15 # ymm15 = (ymm18 * ymm12) + ymm15 vmovups 0x1210(%rax,%r13,4), %ymm13 vmovups 0x1b18(%rax,%r13,4), %ymm14 vmovups 0x1f9c(%rax,%r13,4), %ymm16 vmulps %ymm16, %ymm28, %ymm17 vmulps %ymm16, %ymm29, %ymm12 vmulps %ymm16, %ymm23, %ymm16 vfmadd231ps %ymm27, %ymm14, %ymm17 # ymm17 = (ymm14 * ymm27) + ymm17 vfmadd231ps %ymm25, %ymm14, %ymm12 # ymm12 = (ymm14 * ymm25) + ymm12 vfmadd231ps %ymm14, %ymm31, %ymm16 # ymm16 = (ymm31 * ymm14) + ymm16 vmovups 0x1694(%rax,%r13,4), %ymm14 vfmadd231ps %ymm26, %ymm14, %ymm17 # ymm17 = (ymm14 * ymm26) + ymm17 vfmadd231ps 0x540(%rsp), %ymm14, %ymm12 # ymm12 = (ymm14 * mem) + ymm12 vfmadd231ps %ymm14, %ymm30, %ymm16 # ymm16 = (ymm30 * ymm14) + ymm16 vfmadd231ps %ymm22, %ymm13, %ymm17 # ymm17 = (ymm13 * ymm22) + ymm17 vfmadd231ps %ymm19, %ymm13, %ymm12 # ymm12 = (ymm13 * ymm19) + ymm12 vfmadd231ps %ymm13, %ymm18, %ymm16 # ymm16 = (ymm18 * ymm13) + ymm16 vbroadcastss 0x2273ca(%rip), %ymm18 # 0x1f20ec4 vandps %ymm18, %ymm11, %ymm13 vandps %ymm18, %ymm10, %ymm14 vmaxps %ymm14, %ymm13, %ymm13 vandps %ymm18, %ymm15, %ymm14 vmaxps %ymm14, %ymm13, %ymm13 vmovaps 0x2c0(%rsp), %ymm15 vcmpltps %ymm15, %ymm13, %k2 vmovaps %ymm9, %ymm11 {%k2} vmovaps %ymm8, %ymm10 {%k2} vandps %ymm18, %ymm17, %ymm13 vandps %ymm18, %ymm12, %ymm14 vmaxps %ymm14, %ymm13, %ymm13 vandps %ymm18, %ymm16, %ymm14 vmaxps %ymm14, %ymm13, %ymm13 vcmpltps %ymm15, %ymm13, %k2 vmovaps %ymm9, %ymm17 {%k2} vmovaps %ymm8, %ymm12 {%k2} vbroadcastss 0x227356(%rip), %ymm9 # 0x1f20ec0 vxorps %ymm9, %ymm11, %ymm8 vxorps %ymm9, %ymm17, %ymm9 vfmadd213ps %ymm24, %ymm11, %ymm11 # ymm11 = (ymm11 * ymm11) + ymm24 vfmadd231ps %ymm10, %ymm10, %ymm11 # ymm11 = (ymm10 * ymm10) + ymm11 vrsqrt14ps %ymm11, %ymm13 vbroadcastss 0x1f2b8d(%rip), %ymm15 # 0x1eec71c vmulps %ymm15, %ymm11, %ymm11 vmulps %ymm11, %ymm13, %ymm11 vmulps %ymm13, %ymm13, %ymm14 vmulps %ymm11, %ymm14, %ymm14 vbroadcastss 0x1f2b6b(%rip), %ymm16 # 0x1eec718 vfmadd231ps %ymm13, %ymm16, %ymm14 # ymm14 = (ymm16 * ymm13) + ymm14 vmulps %ymm14, %ymm10, %ymm11 vmulps %ymm8, %ymm14, %ymm10 vmulps %ymm24, %ymm14, %ymm13 vfmadd213ps %ymm24, %ymm17, %ymm17 # ymm17 = (ymm17 * ymm17) + ymm24 vfmadd231ps %ymm12, %ymm12, %ymm17 # ymm17 = (ymm12 * ymm12) + ymm17 vrsqrt14ps %ymm17, %ymm8 vmulps %ymm15, %ymm17, %ymm14 vmulps %ymm14, %ymm8, %ymm14 vmulps %ymm8, %ymm8, %ymm15 vmulps %ymm14, %ymm15, %ymm14 vfmadd231ps %ymm8, %ymm16, %ymm14 # ymm14 = (ymm16 * ymm8) + ymm14 vmulps %ymm14, %ymm12, %ymm8 vmulps %ymm9, %ymm14, %ymm9 vmulps %ymm24, %ymm14, %ymm12 vmovaps %ymm11, %ymm14 vfmadd213ps %ymm5, %ymm0, %ymm14 # ymm14 = (ymm0 * ymm14) + ymm5 vmovaps %ymm10, %ymm15 vfmadd213ps %ymm4, %ymm0, %ymm15 # ymm15 = (ymm0 * ymm15) + ymm4 vmovaps %ymm13, %ymm16 vfmadd213ps %ymm3, %ymm0, %ymm16 # ymm16 = (ymm0 * ymm16) + ymm3 vmovaps %ymm8, %ymm17 vfmadd213ps %ymm7, %ymm1, %ymm17 # ymm17 = (ymm1 * ymm17) + ymm7 vfnmadd213ps %ymm5, %ymm0, %ymm11 # ymm11 = -(ymm0 * ymm11) + ymm5 vmovaps %ymm9, %ymm5 vfmadd213ps %ymm6, %ymm1, %ymm5 # ymm5 = (ymm1 * ymm5) + ymm6 vfnmadd213ps %ymm4, %ymm0, %ymm10 # ymm10 = -(ymm0 * ymm10) + ymm4 vmovaps %ymm12, %ymm4 vfmadd213ps %ymm2, %ymm1, %ymm4 # ymm4 = (ymm1 * ymm4) + ymm2 vfnmadd231ps %ymm13, %ymm0, %ymm3 # ymm3 = -(ymm0 * ymm13) + ymm3 vfnmadd213ps %ymm7, %ymm1, %ymm8 # ymm8 = -(ymm1 * ymm8) + ymm7 vfnmadd213ps %ymm6, %ymm1, %ymm9 # ymm9 = -(ymm1 * ymm9) + ymm6 vfnmadd231ps %ymm12, %ymm1, %ymm2 # ymm2 = -(ymm1 * ymm12) + ymm2 vsubps %ymm11, %ymm17, %ymm6 vsubps %ymm10, %ymm5, %ymm7 vsubps %ymm3, %ymm4, %ymm12 vmulps %ymm3, %ymm7, %ymm13 vfmsub231ps %ymm12, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm12) - ymm13 vmulps %ymm11, %ymm12, %ymm12 vfmsub231ps %ymm6, %ymm3, %ymm12 # ymm12 = (ymm3 * ymm6) - ymm12 vmulps %ymm6, %ymm10, %ymm6 vfmsub231ps %ymm7, %ymm11, %ymm6 # ymm6 = (ymm11 * ymm7) - ymm6 vfmadd231ps %ymm12, %ymm24, %ymm6 # ymm6 = (ymm24 * ymm12) + ymm6 vfmadd231ps %ymm13, %ymm24, %ymm6 # ymm6 = (ymm24 * ymm13) + ymm6 vcmpleps %ymm24, %ymm6, %k2 vmovaps %ymm14, %ymm8 {%k2} vmovaps %ymm15, %ymm9 {%k2} vmovaps %ymm16, %ymm2 {%k2} vblendmps %ymm17, %ymm11, %ymm13 {%k2} vblendmps %ymm5, %ymm10, %ymm14 {%k2} vblendmps %ymm4, %ymm3, %ymm15 {%k2} vmovaps %ymm11, %ymm17 {%k2} vmovaps %ymm10, %ymm5 {%k2} vmovaps %ymm3, %ymm4 {%k2} vsubps %ymm8, %ymm17, %ymm6 vsubps %ymm9, %ymm5, %ymm5 vsubps %ymm2, %ymm4, %ymm11 vsubps %ymm13, %ymm8, %ymm7 vsubps %ymm14, %ymm9, %ymm10 vsubps %ymm15, %ymm2, %ymm12 vmulps %ymm8, %ymm11, %ymm4 vfmsub231ps %ymm6, %ymm2, %ymm4 # ymm4 = (ymm2 * ymm6) - ymm4 vmulps %ymm6, %ymm9, %ymm3 vfmsub231ps %ymm5, %ymm8, %ymm3 # ymm3 = (ymm8 * ymm5) - ymm3 vfmadd231ps %ymm4, %ymm24, %ymm3 # ymm3 = (ymm24 * ymm4) + ymm3 vmulps %ymm2, %ymm5, %ymm4 vfmsub231ps %ymm11, %ymm9, %ymm4 # ymm4 = (ymm9 * ymm11) - ymm4 vfmadd231ps %ymm4, %ymm24, %ymm3 # ymm3 = (ymm24 * ymm4) + ymm3 vmulps %ymm13, %ymm12, %ymm16 vfmsub231ps %ymm15, %ymm7, %ymm16 # ymm16 = (ymm7 * ymm15) - ymm16 vmulps %ymm15, %ymm10, %ymm15 vfmsub231ps %ymm12, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm12) - ymm15 vmulps %ymm7, %ymm14, %ymm4 vfmsub231ps %ymm13, %ymm10, %ymm4 # ymm4 = (ymm10 * ymm13) - ymm4 vfmadd231ps %ymm16, %ymm24, %ymm4 # ymm4 = (ymm24 * ymm16) + ymm4 vfmadd231ps %ymm15, %ymm24, %ymm4 # ymm4 = (ymm24 * ymm15) + ymm4 vmaxps %ymm4, %ymm3, %ymm13 vcmpleps %ymm24, %ymm13, %k0 {%k1} kortestb %k0, %k0 vmovaps %ymm19, %ymm18 je 0x1cfa36b vmulps %ymm5, %ymm12, %ymm13 vfmsub231ps %ymm11, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm11) - ymm13 vmulps %ymm7, %ymm11, %ymm11 vfmsub231ps %ymm12, %ymm6, %ymm11 # ymm11 = (ymm6 * ymm12) - ymm11 vmulps %ymm6, %ymm10, %ymm10 vfmsub231ps %ymm5, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm5) - ymm10 vxorps %xmm6, %xmm6, %xmm6 vfmadd213ps %ymm10, %ymm11, %ymm6 # ymm6 = (ymm11 * ymm6) + ymm10 vfmadd231ps %ymm24, %ymm13, %ymm6 # ymm6 = (ymm13 * ymm24) + ymm6 vrcp14ps %ymm6, %ymm7 vmovaps %ymm7, %ymm5 vfnmadd213ps 0x1f297a(%rip){1to8}, %ymm6, %ymm5 # ymm5 = -(ymm6 * ymm5) + mem vfmadd132ps %ymm7, %ymm7, %ymm5 # ymm5 = (ymm5 * ymm7) + ymm7 vmulps %ymm2, %ymm10, %ymm2 vfmadd231ps %ymm11, %ymm9, %ymm2 # ymm2 = (ymm9 * ymm11) + ymm2 vfmadd231ps %ymm13, %ymm8, %ymm2 # ymm2 = (ymm8 * ymm13) + ymm2 vmulps %ymm5, %ymm2, %ymm2 vcmpgeps 0x4c0(%rsp), %ymm2, %k1 vcmpleps 0x80(%r15,%r14,4){1to8}, %ymm2, %k1 {%k1} kandb %k0, %k1, %k0 kortestb %k0, %k0 je 0x1cfa36b vcmpneqps %ymm24, %ymm6, %k1 ktestb %k1, %k0 vmovaps 0x20(%rsp), %xmm7 vmovaps 0x160(%rsp), %ymm17 je 0x1cfa38c kandb %k1, %k0, %k0 kmovd %k0, %eax vmulps %ymm5, %ymm3, %ymm3 vmulps %ymm5, %ymm4, %ymm4 vbroadcastss 0x1f290b(%rip), %ymm5 # 0x1eec714 vsubps %ymm3, %ymm5, %ymm20 vmovaps %ymm3, %ymm20 {%k2} vsubps %ymm4, %ymm5, %ymm3 vmovaps %ymm4, %ymm3 {%k2} vmovaps %ymm3, 0x4e0(%rsp) movzbl %al, %eax vmovaps %ymm2, %ymm21 vmovaps 0x60(%rsp), %ymm6 vmovaps 0x40(%rsp), %ymm2 testw %ax, %ax je 0x1cfa359 vsubps %ymm0, %ymm1, %ymm1 vfmadd213ps %ymm0, %ymm20, %ymm1 # ymm1 = (ymm20 * ymm1) + ymm0 vaddps %ymm1, %ymm1, %ymm0 vmulps (%r11,%r14,4){1to8}, %ymm0, %ymm0 vcmpnleps %ymm0, %ymm21, %k0 kmovd %k0, %ecx andb %cl, %al je 0x1cfa359 movl %edi, 0x8(%rsp) vbroadcastss 0x1f6b51(%rip), %ymm0 # 0x1ef09cc vmovaps 0x4e0(%rsp), %ymm1 vfmadd132ps 0x1f716a(%rip){1to8}, %ymm0, %ymm1 # ymm1 = (ymm1 * mem) + ymm0 vmovaps %ymm20, 0x380(%rsp) vmovaps %ymm1, 0x4e0(%rsp) vmovaps %ymm1, 0x3a0(%rsp) vmovaps %ymm21, 0x3c0(%rsp) movl %r13d, 0x3e0(%rsp) movl %r9d, 0x3e4(%rsp) vmovaps %xmm7, 0x3f0(%rsp) vmovaps 0x150(%rsp), %xmm0 vmovaps %xmm0, 0x400(%rsp) vmovaps 0x140(%rsp), %xmm0 vmovaps %xmm0, 0x410(%rsp) vmovdqa 0x1a0(%rsp), %xmm0 vmovdqa %xmm0, 0x420(%rsp) movb %al, 0x430(%rsp) movq (%r10), %rcx movq 0x1e8(%rcx), %rcx movq 0x98(%rsp), %rdi movq (%rcx,%rdi,8), %rdi movl 0x90(%r15,%r14,4), %ecx movq %rdi, 0x10(%rsp) testl %ecx, 0x34(%rdi) je 0x1cfa350 movq 0x10(%r10), %rcx cmpq $0x0, 0x10(%rcx) movl 0x8(%rsp), %edi jne 0x1cf9f53 movq 0x10(%rsp), %rcx cmpq $0x0, 0x48(%rcx) movb $0x1, %cl je 0x1cfa356 vmovaps %ymm29, 0x1e0(%rsp) vmovaps %ymm28, 0x200(%rsp) movl %r9d, 0xc(%rsp) movq %r11, 0x30(%rsp) movq %r8, 0x38(%rsp) vmovaps %ymm20, 0x240(%rsp) vaddps 0x226fbc(%rip), %ymm20, %ymm0 # 0x1f20f40 vcvtsi2ss %r13d, %xmm19, %xmm1 vbroadcastss %xmm1, %ymm1 vaddps %ymm0, %ymm1, %ymm0 vmulps 0x4a0(%rsp), %ymm0, %ymm0 vmovaps %ymm0, 0x440(%rsp) vmovaps 0x4e0(%rsp), %ymm0 vmovaps %ymm0, 0x460(%rsp) vmovaps %ymm21, 0x220(%rsp) vmovaps %ymm21, 0x480(%rsp) movzbl %al, %esi vmovaps 0x400(%rsp), %xmm0 vmovaps %xmm0, 0xd0(%rsp) tzcntq %rsi, %rdi vmovaps 0x410(%rsp), %xmm0 vmovaps %xmm0, 0x530(%rsp) vmovaps 0x420(%rsp), %xmm0 vmovaps %xmm0, 0x520(%rsp) movb $0x1, %al movl %eax, 0xe0(%rsp) movq %r10, 0x18(%rsp) vmovss 0x80(%r15,%r14,4), %xmm8 vmovss 0x480(%rsp,%rdi,4), %xmm0 vbroadcastss 0x440(%rsp,%rdi,4), %xmm1 vbroadcastss 0x460(%rsp,%rdi,4), %xmm2 vmovss %xmm0, 0x80(%r15,%r14,4) movq 0x8(%r10), %rax vmovss 0x1f26c4(%rip), %xmm0 # 0x1eec714 vsubss %xmm1, %xmm0, %xmm0 vmulss %xmm0, %xmm0, %xmm3 vmulss %xmm0, %xmm1, %xmm0 vmulss 0x1f6f8c(%rip), %xmm3, %xmm4 # 0x1ef0ff0 vfmadd231ss 0x1f696f(%rip), %xmm0, %xmm3 # xmm3 = (xmm0 * mem) + xmm3 vmulss %xmm1, %xmm1, %xmm5 vfmsub132ss 0x1f6f7e(%rip), %xmm5, %xmm0 # xmm0 = (xmm0 * mem) - xmm5 vmovss 0x1f6f6a(%rip), %xmm6 # 0x1ef0fec vmulss %xmm6, %xmm3, %xmm3 vmulss %xmm6, %xmm0, %xmm0 vmulss %xmm6, %xmm5, %xmm5 vbroadcastss %xmm5, %xmm5 vmulps 0x520(%rsp), %xmm5, %xmm5 vbroadcastss %xmm0, %xmm0 vfmadd132ps 0x530(%rsp), %xmm5, %xmm0 # xmm0 = (xmm0 * mem) + xmm5 vbroadcastss %xmm3, %xmm3 vfmadd132ps 0xd0(%rsp), %xmm0, %xmm3 # xmm3 = (xmm3 * mem) + xmm0 vbroadcastss %xmm4, %xmm0 vfmadd213ps %xmm3, %xmm7, %xmm0 # xmm0 = (xmm7 * xmm0) + xmm3 vbroadcastss %xmm0, %xmm3 vshufps $0x55, %xmm0, %xmm0, %xmm4 # xmm4 = xmm0[1,1,1,1] vshufps $0xaa, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[2,2,2,2] vmovaps %xmm3, 0x2f0(%rsp) vmovaps %xmm4, 0x300(%rsp) vmovaps %xmm0, 0x310(%rsp) vmovaps %xmm1, 0x320(%rsp) vmovaps %xmm2, 0x330(%rsp) vmovaps 0x120(%rsp), %xmm0 vmovaps %xmm0, 0x340(%rsp) vmovdqa 0x130(%rsp), %xmm0 vmovdqa %xmm0, 0x350(%rsp) leaq 0x360(%rsp), %rcx vpcmpeqd %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, (%rcx) vbroadcastss (%rax), %xmm0 vmovaps %xmm0, 0x360(%rsp) vbroadcastss 0x4(%rax), %xmm0 vmovaps %xmm0, 0x370(%rsp) vmovaps 0x2b0(%rsp), %xmm0 vmovaps %xmm0, 0x80(%rsp) leaq 0x80(%rsp), %rcx movq %rcx, 0xa0(%rsp) movq 0x10(%rsp), %rdx movq 0x18(%rdx), %rcx movq %rcx, 0xa8(%rsp) movq %rax, 0xb0(%rsp) movq %r15, 0xb8(%rsp) leaq 0x2f0(%rsp), %rax movq %rax, 0xc0(%rsp) movl $0x4, 0xc8(%rsp) movq 0x48(%rdx), %rax testq %rax, %rax movq %rsi, 0x110(%rsp) movq %rdi, 0x100(%rsp) vmovss %xmm8, 0xf0(%rsp) je 0x1cfa202 leaq 0xa0(%rsp), %rdi vzeroupper callq *%rax vmovss 0xf0(%rsp), %xmm8 movq 0x100(%rsp), %rdi movq 0x110(%rsp), %rsi vmovaps 0x20(%rsp), %xmm7 movq 0x18(%rsp), %r10 vmovdqa 0x80(%rsp), %xmm0 vptestmd %xmm0, %xmm0, %k0 kortestb %k0, %k0 je 0x1cfa2a0 movq 0x10(%r10), %rcx movq 0x10(%rcx), %rax testq %rax, %rax je 0x1cfa269 testb $0x2, (%rcx) jne 0x1cfa238 movq 0x10(%rsp), %rcx testb $0x40, 0x3e(%rcx) je 0x1cfa269 leaq 0xa0(%rsp), %rdi vzeroupper callq *%rax vmovss 0xf0(%rsp), %xmm8 movq 0x100(%rsp), %rdi movq 0x110(%rsp), %rsi vmovaps 0x20(%rsp), %xmm7 movq 0x18(%rsp), %r10 vmovdqa 0x80(%rsp), %xmm0 movq 0xb8(%rsp), %rax vmovaps 0x80(%rax), %xmm1 vptestmd %xmm0, %xmm0, %k1 vbroadcastss 0x1f28f2(%rip), %xmm1 {%k1} # 0x1eecb84 vmovaps %xmm1, 0x80(%rax) kortestb %k1, %k1 jne 0x1cfa2c3 vmovss %xmm8, 0x80(%r15,%r14,4) btcq %rdi, %rsi tzcntq %rsi, %rdi setae %al movl %eax, 0xe0(%rsp) jae 0x1cfa013 movl 0xe0(%rsp), %ecx andb $0x1, %cl movq 0x38(%rsp), %r8 movq 0x30(%rsp), %r11 leaq 0x42d006(%rip), %rdx # 0x21272e4 leaq 0x42f41f(%rip), %rsi # 0x2129704 vxorps %xmm24, %xmm24, %xmm24 vmovaps 0x60(%rsp), %ymm6 vmovaps 0x240(%rsp), %ymm20 vmovaps 0x40(%rsp), %ymm2 vmovaps 0x220(%rsp), %ymm21 movl 0xc(%rsp), %r9d vmovaps 0x280(%rsp), %ymm22 vmovaps 0x260(%rsp), %ymm18 vmovaps 0x160(%rsp), %ymm17 vmovaps 0x200(%rsp), %ymm28 vmovaps 0x1e0(%rsp), %ymm29 jmp 0x1cfa352 vmovaps 0x60(%rsp), %ymm6 vmovaps 0x40(%rsp), %ymm2 vmovaps %ymm23, %ymm18 vmovaps %ymm26, %ymm17 jmp 0x1cfa359 xorl %ecx, %ecx movl 0x8(%rsp), %edi orb %cl, %dil addq $0x8, %r13 cmpl %r13d, %r9d jg 0x1cf981e jmp 0x1cf975b xorl %eax, %eax vmovaps 0x60(%rsp), %ymm6 vmovaps 0x40(%rsp), %ymm2 vmovaps 0x20(%rsp), %xmm7 vmovaps 0x160(%rsp), %ymm17 jmp 0x1cf9e3d xorl %eax, %eax jmp 0x1cf9e31 xorl %eax, %eax vmovaps 0x60(%rsp), %ymm6 vmovaps 0x40(%rsp), %ymm2 vmovaps 0x20(%rsp), %xmm7 vmovaps 0x200(%rsp), %ymm28 vmovaps 0x1e0(%rsp), %ymm29 vmovaps 0x180(%rsp), %ymm8 vmovaps 0x1c0(%rsp), %xmm9 jmp 0x1cf916f xorl %eax, %eax vmovaps 0x60(%rsp), %ymm6 vmovaps 0x40(%rsp), %ymm2 vmovaps 0x20(%rsp), %xmm7 vmovaps 0x180(%rsp), %ymm8 jmp 0x1cf916f xorl %eax, %eax vmovaps 0x60(%rsp), %ymm6 vmovaps 0x40(%rsp), %ymm2 jmp 0x1cf916f movb 0x7(%rsp), %al andb $0x1, %al leaq -0x28(%rbp), %rsp popq %rbx popq %r12 popq %r13 popq %r14 popq %r15 popq %rbp vzeroupper retq nop
/embree[P]embree/kernels/geometry/curveNi_intersector.h
bool embree::avx512::CurveNiIntersectorK<8, 8>::occluded_t<embree::avx512::RibbonCurve1IntersectorK<embree::BezierCurveT, 8, 8>, embree::avx512::Occluded1KEpilogMU<8, 8, true>>(embree::avx512::CurvePrecalculationsK<8>&, embree::RayK<8>&, unsigned long, embree::RayQueryContext*, embree::CurveNi<8> const&)
static __forceinline bool occluded_t(Precalculations& pre, RayK<K>& ray, const size_t k, RayQueryContext* context, const Primitive& prim) { vfloat<M> tNear; vbool<M> valid = intersect(ray,k,prim,tNear); const size_t N = prim.N; size_t mask = movemask(valid); while (mask) { const size_t i = bscf(mask); STAT3(shadow.trav_prims,1,1,1); const unsigned int geomID = prim.geomID(N); const unsigned int primID = prim.primID(N)[i]; const CurveGeometry* geom = context->scene->get<CurveGeometry>(geomID); Vec3ff a0,a1,a2,a3; geom->gather(a0,a1,a2,a3,geom->curve(primID)); size_t mask1 = mask; const size_t i1 = bscf(mask1); if (mask) { const unsigned int primID1 = prim.primID(N)[i1]; geom->prefetchL1_vertices(geom->curve(primID1)); if (mask1) { const size_t i2 = bsf(mask1); const unsigned int primID2 = prim.primID(N)[i2]; geom->prefetchL2_vertices(geom->curve(primID2)); } } if (Intersector().intersect(pre,ray,k,context,geom,primID,a0,a1,a2,a3,Epilog(ray,k,context,geomID,primID))) return true; mask &= movemask(tNear <= vfloat<M>(ray.tfar[k])); } return false; }
pushq %rbp movq %rsp, %rbp pushq %r15 pushq %r14 pushq %r13 pushq %r12 pushq %rbx andq $-0x20, %rsp subq $0x780, %rsp # imm = 0x780 movq %rdx, %r14 movq %rsi, %r15 movzbl 0x1(%r8), %eax leaq (%rax,%rax,4), %rdx leaq (%rdx,%rdx,4), %rsi vbroadcastss 0x12(%r8,%rsi), %xmm0 vmovss (%r15,%r14,4), %xmm1 vmovss 0x80(%r15,%r14,4), %xmm2 vinsertps $0x10, 0x20(%r15,%r14,4), %xmm1, %xmm1 # xmm1 = xmm1[0],mem[0],xmm1[2,3] vinsertps $0x20, 0x40(%r15,%r14,4), %xmm1, %xmm1 # xmm1 = xmm1[0,1],mem[0],xmm1[3] vinsertps $0x10, 0xa0(%r15,%r14,4), %xmm2, %xmm2 # xmm2 = xmm2[0],mem[0],xmm2[2,3] movq %rcx, %r10 movq %rdi, %r11 vinsertps $0x20, 0xc0(%r15,%r14,4), %xmm2, %xmm2 # xmm2 = xmm2[0,1],mem[0],xmm2[3] vsubps 0x6(%r8,%rsi), %xmm1, %xmm1 vmulps %xmm1, %xmm0, %xmm3 vmulps %xmm2, %xmm0, %xmm0 vpmovsxbd 0x6(%r8,%rax,4), %ymm1 vcvtdq2ps %ymm1, %ymm5 vpmovsxbd 0x6(%r8,%rdx), %ymm1 vcvtdq2ps %ymm1, %ymm6 leaq (%rax,%rax,2), %rcx vpmovsxbd 0x6(%r8,%rcx,2), %ymm1 vcvtdq2ps %ymm1, %ymm2 leaq (%rax,%rdx,2), %rsi vpmovsxbd 0x6(%r8,%rsi), %ymm1 vcvtdq2ps %ymm1, %ymm7 leal (,%rcx,4), %esi vpmovsxbd 0x6(%r8,%rsi), %ymm1 vcvtdq2ps %ymm1, %ymm8 addq %rax, %rsi vpmovsxbd 0x6(%r8,%rsi), %ymm1 vcvtdq2ps %ymm1, %ymm9 leaq (%rax,%rax,8), %rsi leal (%rsi,%rsi), %edi vpmovsxbd 0x6(%r8,%rdi), %ymm1 addq %rax, %rdi vpmovsxbd 0x6(%r8,%rdi), %ymm4 vcvtdq2ps %ymm1, %ymm10 vcvtdq2ps %ymm4, %ymm11 shll $0x2, %edx vpmovsxbd 0x6(%r8,%rdx), %ymm1 vcvtdq2ps %ymm1, %ymm12 vbroadcastss %xmm0, %ymm13 vbroadcastss 0x215dcb(%rip), %ymm15 # 0x1f12704 vpermps %ymm0, %ymm15, %ymm14 vbroadcastss 0x224594(%rip), %ymm16 # 0x1f20edc vpermps %ymm0, %ymm16, %ymm0 vmulps %ymm2, %ymm0, %ymm4 vmulps %ymm0, %ymm9, %ymm1 vmulps %ymm0, %ymm12, %ymm0 vfmadd231ps %ymm6, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm6) + ymm4 vfmadd231ps %ymm8, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm8) + ymm1 vfmadd231ps %ymm14, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm14) + ymm0 vfmadd231ps %ymm5, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm5) + ymm4 vfmadd231ps %ymm7, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm7) + ymm1 vfmadd231ps %ymm13, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm13) + ymm0 vbroadcastss %xmm3, %ymm13 vpermps %ymm3, %ymm15, %ymm14 vpermps %ymm3, %ymm16, %ymm15 vmulps %ymm2, %ymm15, %ymm16 vmulps %ymm9, %ymm15, %ymm3 vmulps %ymm12, %ymm15, %ymm2 vfmadd231ps %ymm6, %ymm14, %ymm16 # ymm16 = (ymm14 * ymm6) + ymm16 vfmadd231ps %ymm8, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm8) + ymm3 vfmadd231ps %ymm11, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm11) + ymm2 vfmadd231ps %ymm5, %ymm13, %ymm16 # ymm16 = (ymm13 * ymm5) + ymm16 vfmadd231ps %ymm7, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm7) + ymm3 vfmadd231ps %ymm10, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm10) + ymm2 vbroadcastss 0x224503(%rip), %ymm7 # 0x1f20ec4 vandps %ymm7, %ymm4, %ymm5 vbroadcastss 0x1f461a(%rip), %ymm6 # 0x1ef0fe8 vcmpltps %ymm6, %ymm5, %k1 vmovaps %ymm6, %ymm4 {%k1} vandps %ymm7, %ymm1, %ymm5 vcmpltps %ymm6, %ymm5, %k1 vmovaps %ymm6, %ymm1 {%k1} vandps %ymm7, %ymm0, %ymm5 vcmpltps %ymm6, %ymm5, %k1 vmovaps %ymm6, %ymm0 {%k1} vrcp14ps %ymm4, %ymm5 vbroadcastss 0x1efd08(%rip), %ymm6 # 0x1eec714 vfnmadd213ps %ymm6, %ymm5, %ymm4 # ymm4 = -(ymm5 * ymm4) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm4 # ymm4 = (ymm4 * ymm5) + ymm5 vrcp14ps %ymm1, %ymm5 vfnmadd213ps %ymm6, %ymm5, %ymm1 # ymm1 = -(ymm5 * ymm1) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm1 # ymm1 = (ymm1 * ymm5) + ymm5 vrcp14ps %ymm0, %ymm5 vfnmadd213ps %ymm6, %ymm5, %ymm0 # ymm0 = -(ymm5 * ymm0) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm0 # ymm0 = (ymm0 * ymm5) + ymm5 leaq (,%rax,8), %rdi subq %rax, %rdi vpmovsxwd 0x6(%r8,%rdi), %ymm5 vcvtdq2ps %ymm5, %ymm5 vsubps %ymm16, %ymm5, %ymm5 vpmovsxwd 0x6(%r8,%rsi), %ymm6 vmulps %ymm5, %ymm4, %ymm5 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm16, %ymm6, %ymm6 vmulps %ymm6, %ymm4, %ymm4 leaq (%rax,%rax), %rsi addq %rax, %rdx shlq $0x3, %rcx subq %rax, %rcx movl %eax, %edi shll $0x4, %edi vpmovsxwd 0x6(%r8,%rdi), %ymm6 subq %rsi, %rdi vpmovsxwd 0x6(%r8,%rdi), %ymm7 vcvtdq2ps %ymm7, %ymm7 vsubps %ymm3, %ymm7, %ymm7 vmulps %ymm7, %ymm1, %ymm7 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm3, %ymm6, %ymm3 vmulps %ymm3, %ymm1, %ymm1 vpmovsxwd 0x6(%r8,%rdx), %ymm3 vcvtdq2ps %ymm3, %ymm3 vsubps %ymm2, %ymm3, %ymm3 vmulps %ymm0, %ymm3, %ymm3 vpmovsxwd 0x6(%r8,%rcx), %ymm6 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm2, %ymm6, %ymm2 vmulps %ymm2, %ymm0, %ymm0 vpminsd %ymm4, %ymm5, %ymm2 vpminsd %ymm1, %ymm7, %ymm6 vmaxps %ymm6, %ymm2, %ymm2 vpminsd %ymm0, %ymm3, %ymm6 vmaxps 0x60(%r15,%r14,4){1to8}, %ymm6, %ymm6 vmaxps %ymm6, %ymm2, %ymm2 vmulps 0x22341a(%rip){1to8}, %ymm2, %ymm6 # 0x1f1ff10 vpmaxsd %ymm4, %ymm5, %ymm2 vpmaxsd %ymm1, %ymm7, %ymm1 vminps %ymm1, %ymm2, %ymm1 vpmaxsd %ymm0, %ymm3, %ymm0 vminps 0x100(%r15,%r14,4){1to8}, %ymm0, %ymm0 vminps %ymm0, %ymm1, %ymm0 vmulps 0x2233f5(%rip){1to8}, %ymm0, %ymm0 # 0x1f1ff14 vpbroadcastd %eax, %ymm1 vpcmpgtd 0x25ddf1(%rip), %ymm1, %k0 # 0x1f5a920 vmovaps %ymm6, 0x740(%rsp) vcmpleps %ymm0, %ymm6, %k1 ktestb %k0, %k1 setne 0x7(%rsp) je 0x1cfe7d3 kandb %k0, %k1, %k0 kmovd %k0, %eax movzbl %al, %r12d leaq (%r14,%r14,2), %rax shlq $0x4, %rax addq %r11, %rax addq $0x20, %rax movq %rax, 0x198(%rsp) leaq 0x500(%rsp), %rax leaq 0xe0(%rax), %rax movq %rax, 0x88(%rsp) movl $0x1, %eax shlxl %r14d, %eax, %eax kmovd %eax, %k0 vpmovm2d %k0, %ymm0 vmovdqa %ymm0, 0x4c0(%rsp) vmovaps %ymm6, 0x60(%rsp) vmovaps %ymm2, 0x40(%rsp) vmovaps %ymm21, 0x200(%rsp) vmovaps %ymm20, 0x220(%rsp) tzcntq %r12, %rax movl 0x2(%r8), %ecx movl 0x6(%r8,%rax,4), %esi movq (%r10), %rax movq 0x1e8(%rax), %rax movq %rcx, 0x80(%rsp) movq (%rax,%rcx,8), %r13 movq 0x58(%r13), %rax movq 0x68(%r13), %rcx movq %rcx, %rdx movq %rsi, 0x10(%rsp) imulq %rsi, %rdx movl (%rax,%rdx), %edi movq 0xa0(%r13), %rdx movq %rdx, %r9 imulq %rdi, %r9 movq 0x90(%r13), %rsi vmovaps (%rsi,%r9), %xmm13 leaq 0x1(%rdi), %r9 imulq %rdx, %r9 vmovaps (%rsi,%r9), %xmm0 vmovaps %xmm0, 0x110(%rsp) leaq 0x2(%rdi), %r9 imulq %rdx, %r9 vmovaps (%rsi,%r9), %xmm0 vmovaps %xmm0, 0x100(%rsp) blsrq %r12, %r12 addq $0x3, %rdi imulq %rdx, %rdi vmovaps (%rsi,%rdi), %xmm0 vmovaps %xmm0, 0x180(%rsp) movq %r12, %rdi subq $0x1, %rdi jb 0x1cfccb0 andq %r12, %rdi tzcntq %r12, %r9 movl 0x6(%r8,%r9,4), %r9d imulq %rcx, %r9 movl (%rax,%r9), %r9d imulq %rdx, %r9 prefetcht0 (%rsi,%r9) prefetcht0 0x40(%rsi,%r9) testq %rdi, %rdi je 0x1cfccb0 tzcntq %rdi, %rdi movl 0x6(%r8,%rdi,4), %edi imulq %rdi, %rcx movl (%rax,%rcx), %eax imulq %rax, %rdx prefetcht1 (%rsi,%rdx) prefetcht1 0x40(%rsi,%rdx) movl 0x248(%r13), %r9d vmovss (%r15,%r14,4), %xmm0 vinsertps $0x1c, 0x20(%r15,%r14,4), %xmm0, %xmm0 # xmm0 = xmm0[0],mem[0],zero,zero vinsertps $0x28, 0x40(%r15,%r14,4), %xmm0, %xmm0 # xmm0 = xmm0[0,1],mem[0],zero vsubps %xmm0, %xmm13, %xmm1 vbroadcastss %xmm1, %xmm2 vshufps $0x55, %xmm1, %xmm1, %xmm3 # xmm3 = xmm1[1,1,1,1] vshufps $0xaa, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,2,2,2] movq 0x198(%rsp), %rax vmovaps (%rax), %xmm4 vmovaps 0x10(%rax), %xmm5 vmovaps 0x20(%rax), %xmm6 vmulps %xmm1, %xmm6, %xmm8 vfmadd231ps %xmm3, %xmm5, %xmm8 # xmm8 = (xmm5 * xmm3) + xmm8 vfmadd231ps %xmm2, %xmm4, %xmm8 # xmm8 = (xmm4 * xmm2) + xmm8 vshufps $0xff, %xmm13, %xmm13, %xmm1 # xmm1 = xmm13[3,3,3,3] vmovaps 0x110(%rsp), %xmm3 vsubps %xmm0, %xmm3, %xmm2 vmovaps %xmm3, %xmm10 vbroadcastss %xmm2, %xmm3 vshufps $0x55, %xmm2, %xmm2, %xmm7 # xmm7 = xmm2[1,1,1,1] vshufps $0xaa, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[2,2,2,2] vmulps %xmm2, %xmm6, %xmm9 vfmadd231ps %xmm7, %xmm5, %xmm9 # xmm9 = (xmm5 * xmm7) + xmm9 vfmadd231ps %xmm3, %xmm4, %xmm9 # xmm9 = (xmm4 * xmm3) + xmm9 vshufps $0xff, %xmm10, %xmm10, %xmm2 # xmm2 = xmm10[3,3,3,3] vmovaps 0x100(%rsp), %xmm7 vsubps %xmm0, %xmm7, %xmm3 vmovaps %xmm7, %xmm12 vbroadcastss %xmm3, %xmm7 vshufps $0x55, %xmm3, %xmm3, %xmm11 # xmm11 = xmm3[1,1,1,1] vshufps $0xaa, %xmm3, %xmm3, %xmm3 # xmm3 = xmm3[2,2,2,2] vmulps %xmm3, %xmm6, %xmm10 vfmadd231ps %xmm11, %xmm5, %xmm10 # xmm10 = (xmm5 * xmm11) + xmm10 vfmadd231ps %xmm7, %xmm4, %xmm10 # xmm10 = (xmm4 * xmm7) + xmm10 vshufps $0xff, %xmm12, %xmm12, %xmm7 # xmm7 = xmm12[3,3,3,3] vmovaps 0x180(%rsp), %xmm27 vsubps %xmm0, %xmm27, %xmm0 vbroadcastss %xmm0, %xmm3 vshufps $0x55, %xmm0, %xmm0, %xmm12 # xmm12 = xmm0[1,1,1,1] vshufps $0xaa, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[2,2,2,2] vmulps %xmm0, %xmm6, %xmm11 vfmadd231ps %xmm12, %xmm5, %xmm11 # xmm11 = (xmm5 * xmm12) + xmm11 vfmadd231ps %xmm3, %xmm4, %xmm11 # xmm11 = (xmm4 * xmm3) + xmm11 movslq %r9d, %rax movq %rax, %rcx shlq $0x6, %rcx leaq (%rcx,%rax,4), %rbx leaq 0x42a532(%rip), %rdx # 0x21272e4 vmovups (%rdx,%rbx), %ymm25 vshufps $0xff, %xmm27, %xmm27, %xmm0 # xmm0 = xmm27[3,3,3,3] vbroadcastss %xmm8, %ymm20 vbroadcastss 0x215935(%rip), %ymm3 # 0x1f12704 vpermps %ymm8, %ymm3, %ymm23 vbroadcastsd %xmm1, %ymm12 vmovups 0x484(%rdx,%rbx), %ymm14 vbroadcastss %xmm9, %ymm1 vpermps %ymm9, %ymm3, %ymm31 vbroadcastsd %xmm2, %ymm21 vmovups 0x908(%rdx,%rbx), %ymm15 vbroadcastss %xmm10, %ymm29 vpermps %ymm10, %ymm3, %ymm30 vbroadcastsd %xmm7, %ymm22 vmovups 0xd8c(%rdx,%rbx), %ymm16 vbroadcastss %xmm11, %ymm28 vpermps %ymm11, %ymm3, %ymm26 vbroadcastsd %xmm0, %ymm3 vmulps %ymm16, %ymm28, %ymm5 vmulps %ymm16, %ymm26, %ymm4 vfmadd231ps %ymm29, %ymm15, %ymm5 # ymm5 = (ymm15 * ymm29) + ymm5 vfmadd231ps %ymm30, %ymm15, %ymm4 # ymm4 = (ymm15 * ymm30) + ymm4 vfmadd231ps %ymm1, %ymm14, %ymm5 # ymm5 = (ymm14 * ymm1) + ymm5 vfmadd231ps %ymm31, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm31) + ymm4 vfmadd231ps %ymm20, %ymm25, %ymm5 # ymm5 = (ymm25 * ymm20) + ymm5 leaq 0x42c8a9(%rip), %rsi # 0x2129704 vmovups (%rsi,%rbx), %ymm2 vmovups 0x484(%rsi,%rbx), %ymm17 vfmadd231ps %ymm23, %ymm25, %ymm4 # ymm4 = (ymm25 * ymm23) + ymm4 vmovups 0x908(%rsi,%rbx), %ymm18 vmovups 0xd8c(%rsi,%rbx), %ymm19 vmulps %ymm19, %ymm28, %ymm7 vmulps %ymm19, %ymm26, %ymm6 vfmadd231ps %ymm29, %ymm18, %ymm7 # ymm7 = (ymm18 * ymm29) + ymm7 vfmadd231ps %ymm30, %ymm18, %ymm6 # ymm6 = (ymm18 * ymm30) + ymm6 vmovaps %ymm1, 0x120(%rsp) vfmadd231ps %ymm1, %ymm17, %ymm7 # ymm7 = (ymm17 * ymm1) + ymm7 vfmadd231ps %ymm31, %ymm17, %ymm6 # ymm6 = (ymm17 * ymm31) + ymm6 vmovaps %ymm20, 0x260(%rsp) vfmadd231ps %ymm20, %ymm2, %ymm7 # ymm7 = (ymm2 * ymm20) + ymm7 vmovaps %ymm23, 0x240(%rsp) vfmadd231ps %ymm23, %ymm2, %ymm6 # ymm6 = (ymm2 * ymm23) + ymm6 vsubps %ymm5, %ymm7, %ymm24 vsubps %ymm4, %ymm6, %ymm23 vmulps %ymm24, %ymm4, %ymm0 vmulps %ymm23, %ymm5, %ymm1 vsubps %ymm1, %ymm0, %ymm20 vmulps %ymm16, %ymm3, %ymm0 vfmadd231ps %ymm22, %ymm15, %ymm0 # ymm0 = (ymm15 * ymm22) + ymm0 vfmadd231ps %ymm21, %ymm14, %ymm0 # ymm0 = (ymm14 * ymm21) + ymm0 vfmadd231ps %ymm12, %ymm25, %ymm0 # ymm0 = (ymm25 * ymm12) + ymm0 vmovaps %ymm3, 0x680(%rsp) vmulps %ymm19, %ymm3, %ymm1 vmovaps %ymm22, 0x6a0(%rsp) vfmadd231ps %ymm22, %ymm18, %ymm1 # ymm1 = (ymm18 * ymm22) + ymm1 vmovaps %ymm21, 0x700(%rsp) vfmadd231ps %ymm21, %ymm17, %ymm1 # ymm1 = (ymm17 * ymm21) + ymm1 vmovaps %ymm12, 0x720(%rsp) vfmadd231ps %ymm12, %ymm2, %ymm1 # ymm1 = (ymm2 * ymm12) + ymm1 vmulps %ymm23, %ymm23, %ymm21 vfmadd231ps %ymm24, %ymm24, %ymm21 # ymm21 = (ymm24 * ymm24) + ymm21 vmaxps %ymm1, %ymm0, %ymm22 vmulps %ymm22, %ymm22, %ymm22 vmulps %ymm21, %ymm22, %ymm21 vmulps %ymm20, %ymm20, %ymm20 vcmpleps %ymm21, %ymm20, %k1 vmovaps %xmm13, 0x20(%rsp) vblendps $0x8, %xmm13, %xmm8, %xmm12 # xmm12 = xmm8[0,1,2],xmm13[3] vbroadcastss 0x223f44(%rip), %xmm20 # 0x1f20ec4 vandps %xmm20, %xmm12, %xmm12 vblendps $0x8, 0x110(%rsp), %xmm9, %xmm13 # xmm13 = xmm9[0,1,2],mem[3] vandps %xmm20, %xmm13, %xmm13 vmaxps %xmm13, %xmm12, %xmm12 vblendps $0x8, 0x100(%rsp), %xmm10, %xmm13 # xmm13 = xmm10[0,1,2],mem[3] vandps %xmm20, %xmm13, %xmm13 vmovaps %xmm27, %xmm3 vblendps $0x8, %xmm3, %xmm11, %xmm3 # xmm3 = xmm11[0,1,2],xmm3[3] vandps %xmm20, %xmm3, %xmm3 vmaxps %xmm3, %xmm13, %xmm3 vmaxps %xmm3, %xmm12, %xmm3 vmovshdup %xmm3, %xmm12 # xmm12 = xmm3[1,1,3,3] vmaxss %xmm3, %xmm12, %xmm12 vshufpd $0x1, %xmm3, %xmm3, %xmm3 # xmm3 = xmm3[1,0] vmaxss %xmm12, %xmm3, %xmm3 vcvtsi2ss %r9d, %xmm8, %xmm12 vmovaps %xmm12, 0x2e0(%rsp) vbroadcastss %xmm12, %ymm12 vcmpgtps 0x223f49(%rip), %ymm12, %k1 {%k1} # 0x1f20f40 vmulss 0x1f3fe5(%rip), %xmm3, %xmm12 # 0x1ef0fe4 vbroadcastss 0x223ed4(%rip), %ymm3 # 0x1f20edc vpermps %ymm8, %ymm3, %ymm20 vpermps %ymm9, %ymm3, %ymm21 vpermps %ymm10, %ymm3, %ymm22 vpermps %ymm11, %ymm3, %ymm8 kortestb %k1, %k1 vmovss 0x60(%r15,%r14,4), %xmm9 vmovaps %ymm31, 0x4e0(%rsp) vmovaps %ymm29, 0x6e0(%rsp) vmovaps %ymm30, 0x6c0(%rsp) vmovaps %ymm20, 0x660(%rsp) vmovaps %ymm21, 0x640(%rsp) vmovaps %ymm22, 0x620(%rsp) je 0x1cfdacb vmovaps %xmm9, 0x1a0(%rsp) vmulps %ymm19, %ymm8, %ymm3 vfmadd213ps %ymm3, %ymm22, %ymm18 # ymm18 = (ymm22 * ymm18) + ymm3 vfmadd213ps %ymm18, %ymm21, %ymm17 # ymm17 = (ymm21 * ymm17) + ymm18 vfmadd213ps %ymm17, %ymm20, %ymm2 # ymm2 = (ymm20 * ymm2) + ymm17 vmulps %ymm16, %ymm8, %ymm3 vfmadd213ps %ymm3, %ymm22, %ymm15 # ymm15 = (ymm22 * ymm15) + ymm3 vfmadd213ps %ymm15, %ymm21, %ymm14 # ymm14 = (ymm21 * ymm14) + ymm15 vmovups 0x1210(%rdx,%rbx), %ymm3 vmovups 0x1694(%rdx,%rbx), %ymm10 vmovups 0x1b18(%rdx,%rbx), %ymm11 vmovaps %xmm12, %xmm16 vmovups 0x1f9c(%rdx,%rbx), %ymm12 vfmadd213ps %ymm14, %ymm20, %ymm25 # ymm25 = (ymm20 * ymm25) + ymm14 vmulps %ymm12, %ymm28, %ymm9 vmovaps %ymm8, %ymm15 vmulps %ymm12, %ymm26, %ymm8 vmulps %ymm12, %ymm15, %ymm12 vfmadd231ps %ymm29, %ymm11, %ymm9 # ymm9 = (ymm11 * ymm29) + ymm9 vfmadd231ps %ymm30, %ymm11, %ymm8 # ymm8 = (ymm11 * ymm30) + ymm8 vfmadd231ps %ymm11, %ymm22, %ymm12 # ymm12 = (ymm22 * ymm11) + ymm12 vmovaps 0x120(%rsp), %ymm19 vfmadd231ps %ymm19, %ymm10, %ymm9 # ymm9 = (ymm10 * ymm19) + ymm9 vfmadd231ps %ymm31, %ymm10, %ymm8 # ymm8 = (ymm10 * ymm31) + ymm8 vfmadd231ps %ymm10, %ymm21, %ymm12 # ymm12 = (ymm21 * ymm10) + ymm12 vmovaps 0x260(%rsp), %ymm17 vfmadd231ps %ymm17, %ymm3, %ymm9 # ymm9 = (ymm3 * ymm17) + ymm9 vmovaps 0x240(%rsp), %ymm18 vfmadd231ps %ymm18, %ymm3, %ymm8 # ymm8 = (ymm3 * ymm18) + ymm8 vmovups 0x1210(%rsi,%rbx), %ymm10 vmovups 0x1b18(%rsi,%rbx), %ymm11 vmovups 0x1f9c(%rsi,%rbx), %ymm13 vfmadd231ps %ymm3, %ymm20, %ymm12 # ymm12 = (ymm20 * ymm3) + ymm12 vmovaps %ymm28, 0x1e0(%rsp) vmulps %ymm13, %ymm28, %ymm3 vmovaps %ymm26, 0x1c0(%rsp) vmulps %ymm13, %ymm26, %ymm14 vmovaps %ymm15, 0x140(%rsp) vmulps %ymm13, %ymm15, %ymm13 vfmadd231ps %ymm29, %ymm11, %ymm3 # ymm3 = (ymm11 * ymm29) + ymm3 vfmadd231ps %ymm30, %ymm11, %ymm14 # ymm14 = (ymm11 * ymm30) + ymm14 vfmadd231ps %ymm11, %ymm22, %ymm13 # ymm13 = (ymm22 * ymm11) + ymm13 vmovups 0x1694(%rsi,%rbx), %ymm11 vfmadd231ps %ymm19, %ymm11, %ymm3 # ymm3 = (ymm11 * ymm19) + ymm3 vfmadd231ps %ymm31, %ymm11, %ymm14 # ymm14 = (ymm11 * ymm31) + ymm14 vfmadd231ps %ymm11, %ymm21, %ymm13 # ymm13 = (ymm21 * ymm11) + ymm13 vfmadd231ps %ymm17, %ymm10, %ymm3 # ymm3 = (ymm10 * ymm17) + ymm3 vfmadd231ps %ymm18, %ymm10, %ymm14 # ymm14 = (ymm10 * ymm18) + ymm14 vfmadd231ps %ymm10, %ymm20, %ymm13 # ymm13 = (ymm20 * ymm10) + ymm13 vbroadcastss 0x223d10(%rip), %ymm15 # 0x1f20ec4 vandps %ymm15, %ymm9, %ymm10 vandps %ymm15, %ymm8, %ymm11 vmaxps %ymm11, %ymm10, %ymm10 vandps %ymm15, %ymm12, %ymm11 vmaxps %ymm11, %ymm10, %ymm10 vbroadcastss %xmm16, %ymm11 vmovaps %xmm16, %xmm26 vcmpltps %ymm11, %ymm10, %k2 vmovaps %ymm24, %ymm9 {%k2} vmovaps %ymm23, %ymm8 {%k2} vandps %ymm3, %ymm15, %ymm10 vandps %ymm15, %ymm14, %ymm12 vmaxps %ymm12, %ymm10, %ymm10 vandps %ymm15, %ymm13, %ymm12 vmaxps %ymm12, %ymm10, %ymm10 vcmpltps %ymm11, %ymm10, %k2 vmovaps %ymm24, %ymm3 {%k2} vmovaps %ymm23, %ymm14 {%k2} vbroadcastss 0x223ca0(%rip), %ymm11 # 0x1f20ec0 vxorps %ymm11, %ymm9, %ymm10 vxorps %ymm3, %ymm11, %ymm12 vxorps %xmm24, %xmm24, %xmm24 vfmadd213ps %ymm24, %ymm9, %ymm9 # ymm9 = (ymm9 * ymm9) + ymm24 vfmadd231ps %ymm8, %ymm8, %ymm9 # ymm9 = (ymm8 * ymm8) + ymm9 vrsqrt14ps %ymm9, %ymm11 vbroadcastss 0x1ef4d3(%rip), %ymm15 # 0x1eec71c vmulps %ymm15, %ymm9, %ymm9 vmulps %ymm9, %ymm11, %ymm9 vmulps %ymm11, %ymm11, %ymm13 vmulps %ymm9, %ymm13, %ymm9 vbroadcastss 0x1ef4b1(%rip), %ymm16 # 0x1eec718 vfmadd231ps %ymm11, %ymm16, %ymm9 # ymm9 = (ymm16 * ymm11) + ymm9 vmulps %ymm9, %ymm8, %ymm11 vmulps %ymm10, %ymm9, %ymm10 vmulps %ymm24, %ymm9, %ymm13 vfmadd213ps %ymm24, %ymm3, %ymm3 # ymm3 = (ymm3 * ymm3) + ymm24 vfmadd231ps %ymm14, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm14) + ymm3 vrsqrt14ps %ymm3, %ymm8 vmulps %ymm3, %ymm15, %ymm3 vmulps %ymm3, %ymm8, %ymm3 vmulps %ymm8, %ymm8, %ymm9 vmulps %ymm3, %ymm9, %ymm3 vfmadd231ps %ymm8, %ymm16, %ymm3 # ymm3 = (ymm16 * ymm8) + ymm3 vmulps %ymm3, %ymm14, %ymm8 vmulps %ymm3, %ymm12, %ymm9 vmulps %ymm24, %ymm3, %ymm3 vmovaps %ymm11, %ymm12 vfmadd213ps %ymm5, %ymm0, %ymm12 # ymm12 = (ymm0 * ymm12) + ymm5 vmovaps %ymm10, %ymm14 vfmadd213ps %ymm4, %ymm0, %ymm14 # ymm14 = (ymm0 * ymm14) + ymm4 vmovaps %ymm13, %ymm15 vfmadd213ps %ymm25, %ymm0, %ymm15 # ymm15 = (ymm0 * ymm15) + ymm25 vmovaps %ymm8, %ymm16 vfmadd213ps %ymm7, %ymm1, %ymm16 # ymm16 = (ymm1 * ymm16) + ymm7 vfnmadd213ps %ymm5, %ymm0, %ymm11 # ymm11 = -(ymm0 * ymm11) + ymm5 vmovaps %ymm9, %ymm5 vfmadd213ps %ymm6, %ymm1, %ymm5 # ymm5 = (ymm1 * ymm5) + ymm6 vfnmadd213ps %ymm4, %ymm0, %ymm10 # ymm10 = -(ymm0 * ymm10) + ymm4 vmovaps %ymm3, %ymm4 vfmadd213ps %ymm2, %ymm1, %ymm4 # ymm4 = (ymm1 * ymm4) + ymm2 vfnmadd231ps %ymm13, %ymm0, %ymm25 # ymm25 = -(ymm0 * ymm13) + ymm25 vfnmadd213ps %ymm7, %ymm1, %ymm8 # ymm8 = -(ymm1 * ymm8) + ymm7 vfnmadd213ps %ymm6, %ymm1, %ymm9 # ymm9 = -(ymm1 * ymm9) + ymm6 vfnmadd231ps %ymm3, %ymm1, %ymm2 # ymm2 = -(ymm1 * ymm3) + ymm2 vsubps %ymm11, %ymm16, %ymm3 vsubps %ymm10, %ymm5, %ymm6 vsubps %ymm25, %ymm4, %ymm7 vmulps %ymm25, %ymm6, %ymm13 vfmsub231ps %ymm7, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm7) - ymm13 vmulps %ymm7, %ymm11, %ymm7 vfmsub231ps %ymm3, %ymm25, %ymm7 # ymm7 = (ymm25 * ymm3) - ymm7 vmulps %ymm3, %ymm10, %ymm3 vfmsub231ps %ymm6, %ymm11, %ymm3 # ymm3 = (ymm11 * ymm6) - ymm3 vfmadd231ps %ymm7, %ymm24, %ymm3 # ymm3 = (ymm24 * ymm7) + ymm3 vfmadd231ps %ymm13, %ymm24, %ymm3 # ymm3 = (ymm24 * ymm13) + ymm3 vcmpleps %ymm24, %ymm3, %k2 vmovaps %ymm12, %ymm8 {%k2} vmovaps %ymm14, %ymm9 {%k2} vmovaps %ymm15, %ymm2 {%k2} vblendmps %ymm16, %ymm11, %ymm13 {%k2} vblendmps %ymm5, %ymm10, %ymm14 {%k2} vblendmps %ymm4, %ymm25, %ymm15 {%k2} vmovaps %ymm11, %ymm16 {%k2} vmovaps %ymm10, %ymm5 {%k2} vmovaps %ymm25, %ymm4 {%k2} vsubps %ymm8, %ymm16, %ymm6 vsubps %ymm9, %ymm5, %ymm5 vsubps %ymm2, %ymm4, %ymm11 vsubps %ymm13, %ymm8, %ymm7 vsubps %ymm14, %ymm9, %ymm10 vsubps %ymm15, %ymm2, %ymm12 vmulps %ymm8, %ymm11, %ymm4 vfmsub231ps %ymm6, %ymm2, %ymm4 # ymm4 = (ymm2 * ymm6) - ymm4 vmulps %ymm6, %ymm9, %ymm3 vfmsub231ps %ymm5, %ymm8, %ymm3 # ymm3 = (ymm8 * ymm5) - ymm3 vfmadd231ps %ymm4, %ymm24, %ymm3 # ymm3 = (ymm24 * ymm4) + ymm3 vmulps %ymm2, %ymm5, %ymm4 vfmsub231ps %ymm11, %ymm9, %ymm4 # ymm4 = (ymm9 * ymm11) - ymm4 vfmadd231ps %ymm4, %ymm24, %ymm3 # ymm3 = (ymm24 * ymm4) + ymm3 vmulps %ymm13, %ymm12, %ymm16 vfmsub231ps %ymm15, %ymm7, %ymm16 # ymm16 = (ymm7 * ymm15) - ymm16 vmulps %ymm15, %ymm10, %ymm15 vfmsub231ps %ymm12, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm12) - ymm15 vmulps %ymm7, %ymm14, %ymm4 vfmsub231ps %ymm13, %ymm10, %ymm4 # ymm4 = (ymm10 * ymm13) - ymm4 vfmadd231ps %ymm16, %ymm24, %ymm4 # ymm4 = (ymm24 * ymm16) + ymm4 vfmadd231ps %ymm15, %ymm24, %ymm4 # ymm4 = (ymm24 * ymm15) + ymm4 vmaxps %ymm4, %ymm3, %ymm13 vcmpleps %ymm24, %ymm13, %k0 {%k1} kortestb %k0, %k0 vmovaps 0x220(%rsp), %ymm20 vmovaps 0x200(%rsp), %ymm21 vmovaps %ymm17, %ymm22 vmovaps %ymm19, %ymm17 vmovaps %xmm26, %xmm14 je 0x1cfe763 vmulps %ymm5, %ymm12, %ymm13 vfmsub231ps %ymm11, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm11) - ymm13 vmulps %ymm7, %ymm11, %ymm11 vfmsub231ps %ymm12, %ymm6, %ymm11 # ymm11 = (ymm6 * ymm12) - ymm11 vmulps %ymm6, %ymm10, %ymm10 vfmsub231ps %ymm5, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm5) - ymm10 vxorps %xmm6, %xmm6, %xmm6 vfmadd213ps %ymm10, %ymm11, %ymm6 # ymm6 = (ymm11 * ymm6) + ymm10 vfmadd231ps %ymm24, %ymm13, %ymm6 # ymm6 = (ymm13 * ymm24) + ymm6 vrcp14ps %ymm6, %ymm7 vmovaps %ymm7, %ymm5 vfnmadd213ps 0x1ef2a7(%rip){1to8}, %ymm6, %ymm5 # ymm5 = -(ymm6 * ymm5) + mem vfmadd132ps %ymm7, %ymm7, %ymm5 # ymm5 = (ymm5 * ymm7) + ymm7 vmulps %ymm2, %ymm10, %ymm2 vfmadd231ps %ymm11, %ymm9, %ymm2 # ymm2 = (ymm9 * ymm11) + ymm2 vfmadd231ps %ymm13, %ymm8, %ymm2 # ymm2 = (ymm8 * ymm13) + ymm2 vmulps %ymm5, %ymm2, %ymm2 vmovaps 0x1a0(%rsp), %xmm9 vbroadcastss %xmm9, %ymm7 vcmpleps %ymm2, %ymm7, %k1 vcmpleps 0x100(%r15,%r14,4){1to8}, %ymm2, %k1 {%k1} kandb %k0, %k1, %k0 kortestb %k0, %k0 vmovaps 0x1e0(%rsp), %ymm28 vmovaps 0x1c0(%rsp), %ymm29 je 0x1cfe79e vcmpneqps %ymm24, %ymm6, %k1 ktestb %k1, %k0 vmovaps 0x20(%rsp), %xmm7 vmovaps 0x140(%rsp), %ymm8 je 0x1cfe7c0 kandb %k1, %k0, %k0 kmovd %k0, %eax vmulps %ymm5, %ymm3, %ymm3 vmulps %ymm5, %ymm4, %ymm4 vbroadcastss 0x1ef21b(%rip), %ymm5 # 0x1eec714 vsubps %ymm3, %ymm5, %ymm6 vmovaps %ymm3, %ymm6 {%k2} vsubps %ymm4, %ymm5, %ymm3 vmovaps %ymm4, %ymm3 {%k2} vmovaps %ymm3, 0x480(%rsp) movzbl %al, %eax testw %ax, %ax je 0x1cfdac7 vsubps %ymm0, %ymm1, %ymm1 vfmadd213ps %ymm0, %ymm6, %ymm1 # ymm1 = (ymm6 * ymm1) + ymm0 vaddps %ymm1, %ymm1, %ymm0 vmulps (%r11,%r14,4){1to8}, %ymm0, %ymm0 vcmpnleps %ymm0, %ymm2, %k0 kmovd %k0, %ecx andb %cl, %al je 0x1cfdac7 vbroadcastss 0x1f347a(%rip), %ymm0 # 0x1ef09cc vmovaps 0x480(%rsp), %ymm1 vfmadd132ps 0x1f3a93(%rip){1to8}, %ymm0, %ymm1 # ymm1 = (ymm1 * mem) + ymm0 vmovaps %ymm6, 0x300(%rsp) vmovaps %ymm1, 0x480(%rsp) vmovaps %ymm1, 0x320(%rsp) vmovaps %ymm2, 0x340(%rsp) movl $0x0, 0x360(%rsp) movl %r9d, 0x364(%rsp) vmovaps %xmm7, 0x370(%rsp) vmovaps 0x110(%rsp), %xmm0 vmovaps %xmm0, 0x380(%rsp) vmovaps 0x100(%rsp), %xmm0 vmovaps %xmm0, 0x390(%rsp) vmovaps 0x180(%rsp), %xmm0 vmovaps %xmm0, 0x3a0(%rsp) movb %al, 0x3b0(%rsp) movl 0x120(%r15,%r14,4), %ecx testl %ecx, 0x34(%r13) je 0x1cfdac7 movq 0x10(%r10), %rcx cmpq $0x0, 0x10(%rcx) jne 0x1cfd60d movb $0x1, %dil cmpq $0x0, 0x48(%r13) je 0x1cfdb12 vaddps 0x22392b(%rip), %ymm6, %ymm0 # 0x1f20f40 vmovss 0x1ef0f7(%rip), %xmm1 # 0x1eec714 vdivss 0x2e0(%rsp), %xmm1, %xmm1 vbroadcastss %xmm1, %ymm1 vmulps %ymm0, %ymm1, %ymm0 vmovaps %ymm0, 0x3c0(%rsp) vmovaps 0x480(%rsp), %ymm0 vmovaps %ymm0, 0x3e0(%rsp) vmovaps %ymm2, 0x400(%rsp) movzbl %al, %ecx tzcntq %rcx, %rdi movq 0x80(%rsp), %rax vpbroadcastd %eax, %ymm0 vmovdqa %ymm0, 0x420(%rsp) vmovaps 0x380(%rsp), %xmm0 vmovaps %xmm0, 0xf0(%rsp) movq 0x10(%rsp), %rax vpbroadcastd %eax, %ymm0 vmovdqa %ymm0, 0x280(%rsp) movq %rdi, %rax vmovaps 0x390(%rsp), %xmm0 vmovaps %xmm0, 0xe0(%rsp) vmovaps 0x3a0(%rsp), %xmm0 vmovaps %xmm0, 0xd0(%rsp) movb $0x1, %dil vmovaps %xmm14, 0xc0(%rsp) movq %r8, 0x38(%rsp) movq %r10, 0x18(%rsp) movq %r11, 0x30(%rsp) vmovaps %ymm6, 0x60(%rsp) vmovaps %ymm2, 0x40(%rsp) movl %r9d, 0xc(%rsp) movq %rcx, 0x2c0(%rsp) vmovss 0x100(%r15,%r14,4), %xmm10 vmovss 0x400(%rsp,%rax,4), %xmm0 vbroadcastss 0x3c0(%rsp,%rax,4), %ymm1 movq %rax, 0x440(%rsp) vbroadcastss 0x3e0(%rsp,%rax,4), %ymm2 vmovss %xmm0, 0x100(%r15,%r14,4) movq 0x8(%r10), %rax vmovss 0x1eefdc(%rip), %xmm0 # 0x1eec714 vsubss %xmm1, %xmm0, %xmm0 vmulss %xmm0, %xmm0, %xmm3 vmulss %xmm0, %xmm1, %xmm0 vmulss 0x1f38a4(%rip), %xmm3, %xmm4 # 0x1ef0ff0 vfmadd231ss 0x1f3287(%rip), %xmm0, %xmm3 # xmm3 = (xmm0 * mem) + xmm3 vmulss %xmm1, %xmm1, %xmm5 vfmsub132ss 0x1f3896(%rip), %xmm5, %xmm0 # xmm0 = (xmm0 * mem) - xmm5 vmovss 0x1f3882(%rip), %xmm6 # 0x1ef0fec vmulss %xmm6, %xmm3, %xmm3 vmulss %xmm6, %xmm0, %xmm0 vmulss %xmm6, %xmm5, %xmm5 vbroadcastss %xmm5, %xmm5 vmulps 0xd0(%rsp), %xmm5, %xmm5 vbroadcastss %xmm0, %xmm0 vfmadd132ps 0xe0(%rsp), %xmm5, %xmm0 # xmm0 = (xmm0 * mem) + xmm5 vbroadcastss %xmm3, %xmm3 vfmadd132ps 0xf0(%rsp), %xmm0, %xmm3 # xmm3 = (xmm3 * mem) + xmm0 vbroadcastss %xmm4, %xmm0 vfmadd213ps %xmm3, %xmm7, %xmm0 # xmm0 = (xmm7 * xmm0) + xmm3 vbroadcastss %xmm0, %ymm3 vbroadcastss 0x214f4a(%rip), %ymm4 # 0x1f12704 vpermps %ymm0, %ymm4, %ymm4 vbroadcastss 0x223714(%rip), %ymm5 # 0x1f20edc vpermps %ymm0, %ymm5, %ymm0 vmovaps %ymm3, 0x500(%rsp) vmovaps %ymm4, 0x520(%rsp) vmovaps %ymm0, 0x540(%rsp) vmovaps %ymm1, 0x560(%rsp) vmovaps %ymm2, 0x580(%rsp) vmovaps 0x280(%rsp), %ymm0 vmovaps %ymm0, 0x5a0(%rsp) vmovdqa 0x420(%rsp), %ymm0 vmovdqa %ymm0, 0x5c0(%rsp) movq 0x88(%rsp), %rcx vpcmpeqd %ymm0, %ymm0, %ymm0 vmovdqa %ymm0, 0x20(%rcx) vmovdqa %ymm0, (%rcx) vbroadcastss (%rax), %ymm0 vmovaps %ymm0, 0x5e0(%rsp) vbroadcastss 0x4(%rax), %ymm0 vmovaps %ymm0, 0x600(%rsp) vmovaps 0x4c0(%rsp), %ymm0 vmovaps %ymm0, 0x160(%rsp) leaq 0x160(%rsp), %rcx movq %rcx, 0x90(%rsp) movq 0x18(%r13), %rcx movq %rcx, 0x98(%rsp) movq %rax, 0xa0(%rsp) movq %r15, 0xa8(%rsp) leaq 0x500(%rsp), %rax movq %rax, 0xb0(%rsp) movl $0x8, 0xb8(%rsp) movq 0x48(%r13), %rax testq %rax, %rax movl %edi, 0x8(%rsp) vmovss %xmm10, 0x2a0(%rsp) je 0x1cfd95e leaq 0x90(%rsp), %rdi vzeroupper callq *%rax vmovss 0x2a0(%rsp), %xmm10 vmovaps 0x1a0(%rsp), %xmm9 vmovaps 0xc0(%rsp), %xmm14 movl 0x8(%rsp), %edi vmovaps 0x140(%rsp), %ymm8 vmovaps 0x1c0(%rsp), %ymm29 vmovaps 0x1e0(%rsp), %ymm28 vmovaps 0x120(%rsp), %ymm17 vmovaps 0x240(%rsp), %ymm18 vmovaps 0x260(%rsp), %ymm22 movl 0xc(%rsp), %r9d vmovaps 0x20(%rsp), %xmm7 vmovaps 0x200(%rsp), %ymm21 vmovaps 0x220(%rsp), %ymm20 vxorps %xmm24, %xmm24, %xmm24 leaq 0x42bdbc(%rip), %rsi # 0x2129704 leaq 0x429995(%rip), %rdx # 0x21272e4 movq 0x30(%rsp), %r11 movq 0x18(%rsp), %r10 movq 0x38(%rsp), %r8 vmovdqa 0x160(%rsp), %ymm0 vptest %ymm0, %ymm0 je 0x1cfda88 movq 0x10(%r10), %rcx movq 0x10(%rcx), %rax testq %rax, %rax vmovaps 0x60(%rsp), %ymm6 vmovaps 0x40(%rsp), %ymm2 je 0x1cfda46 testb $0x2, (%rcx) jne 0x1cfd99f testb $0x40, 0x3e(%r13) je 0x1cfda46 leaq 0x90(%rsp), %rdi vzeroupper callq *%rax vmovss 0x2a0(%rsp), %xmm10 vmovaps 0x1a0(%rsp), %xmm9 vmovaps 0xc0(%rsp), %xmm14 movl 0x8(%rsp), %edi vmovaps 0x140(%rsp), %ymm8 vmovaps 0x1c0(%rsp), %ymm29 vmovaps 0x1e0(%rsp), %ymm28 vmovaps 0x120(%rsp), %ymm17 vmovaps 0x240(%rsp), %ymm18 vmovaps 0x260(%rsp), %ymm22 movl 0xc(%rsp), %r9d vmovaps 0x20(%rsp), %xmm7 vmovaps 0x200(%rsp), %ymm21 vmovaps 0x40(%rsp), %ymm2 vmovaps 0x220(%rsp), %ymm20 vmovaps 0x60(%rsp), %ymm6 vxorps %xmm24, %xmm24, %xmm24 leaq 0x42bcd4(%rip), %rsi # 0x2129704 leaq 0x4298ad(%rip), %rdx # 0x21272e4 movq 0x30(%rsp), %r11 movq 0x18(%rsp), %r10 movq 0x38(%rsp), %r8 vmovdqa 0x160(%rsp), %ymm0 vptestmd %ymm0, %ymm0, %k1 movq 0xa8(%rsp), %rax vmovaps 0x100(%rax), %ymm1 vbroadcastss 0x1ef115(%rip), %ymm1 {%k1} # 0x1eecb84 vmovaps %ymm1, 0x100(%rax) vptest %ymm0, %ymm0 movq 0x2c0(%rsp), %rcx je 0x1cfda9c jmp 0x1cfdac1 vmovaps 0x60(%rsp), %ymm6 vmovaps 0x40(%rsp), %ymm2 movq 0x2c0(%rsp), %rcx vmovss %xmm10, 0x100(%r15,%r14,4) movq 0x440(%rsp), %rax btcq %rax, %rcx tzcntq %rcx, %rax setae %dil jae 0x1cfd6eb andb $0x1, %dil jmp 0x1cfdb12 xorl %edi, %edi jmp 0x1cfdb12 xorl %edi, %edi vxorps %xmm24, %xmm24, %xmm24 vmovaps 0x60(%rsp), %ymm6 vmovaps 0x220(%rsp), %ymm20 vmovaps 0x40(%rsp), %ymm2 vmovaps 0x200(%rsp), %ymm21 vmovaps 0x260(%rsp), %ymm22 vmovaps 0x240(%rsp), %ymm18 vmovaps 0x120(%rsp), %ymm17 vmovaps %ymm26, %ymm29 vmovaps %xmm12, %xmm14 cmpl $0x9, %r9d jge 0x1cfdb4b testb $0x1, %dil jne 0x1cfe7d3 vmovaps 0x740(%rsp), %ymm0 vcmpleps 0x100(%r15,%r14,4){1to8}, %ymm0, %k0 kmovb %k0, %eax andl %eax, %r12d setne 0x7(%rsp) jne 0x1cfcba5 jmp 0x1cfe7d3 vmovaps %ymm8, 0x140(%rsp) vpbroadcastd %r9d, %ymm0 vmovdqa %ymm0, 0x1a0(%rsp) vbroadcastss %xmm14, %ymm0 vmovaps %ymm0, 0x2c0(%rsp) vbroadcastss %xmm9, %ymm0 vmovaps %ymm0, 0x440(%rsp) vmovss 0x1eeb8d(%rip), %xmm0 # 0x1eec714 vdivss 0x2e0(%rsp), %xmm0, %xmm0 vbroadcastss %xmm0, %ymm0 vmovaps %ymm0, 0x420(%rsp) movq 0x80(%rsp), %rax vpbroadcastd %eax, %ymm0 vmovdqa %ymm0, 0x2e0(%rsp) movq 0x10(%rsp), %rax vpbroadcastd %eax, %ymm0 vmovdqa %ymm0, 0x2a0(%rsp) movl $0x8, %r13d vmovaps %ymm6, 0x60(%rsp) vmovaps %ymm2, 0x40(%rsp) vpbroadcastd %r13d, %ymm0 vpor 0x25cd37(%rip), %ymm0, %ymm0 # 0x1f5a920 vpcmpltd 0x1a0(%rsp), %ymm0, %k1 leaq (%rbx,%rdx), %rcx vmovups (%rcx,%r13,4), %ymm3 vmovups 0x484(%rcx,%r13,4), %ymm10 vmovups 0x908(%rcx,%r13,4), %ymm11 vmovups 0xd8c(%rcx,%r13,4), %ymm12 vmulps %ymm12, %ymm28, %ymm5 vmulps %ymm12, %ymm29, %ymm4 vmovaps 0x680(%rsp), %ymm1 vmulps %ymm1, %ymm12, %ymm0 vmovaps 0x6e0(%rsp), %ymm19 vfmadd231ps %ymm19, %ymm11, %ymm5 # ymm5 = (ymm11 * ymm19) + ymm5 vmovaps 0x6c0(%rsp), %ymm27 vfmadd231ps %ymm27, %ymm11, %ymm4 # ymm4 = (ymm11 * ymm27) + ymm4 vmovaps 0x6a0(%rsp), %ymm16 vfmadd231ps %ymm16, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm16) + ymm0 vfmadd231ps %ymm17, %ymm10, %ymm5 # ymm5 = (ymm10 * ymm17) + ymm5 vmovaps 0x4e0(%rsp), %ymm25 vfmadd231ps %ymm25, %ymm10, %ymm4 # ymm4 = (ymm10 * ymm25) + ymm4 vmovaps 0x700(%rsp), %ymm9 vfmadd231ps %ymm9, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm9) + ymm0 vfmadd231ps %ymm22, %ymm3, %ymm5 # ymm5 = (ymm3 * ymm22) + ymm5 vfmadd231ps %ymm18, %ymm3, %ymm4 # ymm4 = (ymm3 * ymm18) + ymm4 leaq (%rbx,%rsi), %rax vmovups (%rax,%r13,4), %ymm2 vmovups 0x484(%rax,%r13,4), %ymm13 vmovaps 0x720(%rsp), %ymm8 vfmadd231ps %ymm8, %ymm3, %ymm0 # ymm0 = (ymm3 * ymm8) + ymm0 vmovups 0x908(%rax,%r13,4), %ymm14 vmovups 0xd8c(%rax,%r13,4), %ymm15 vmulps %ymm15, %ymm28, %ymm7 vmulps %ymm15, %ymm29, %ymm6 vmulps %ymm1, %ymm15, %ymm1 vfmadd231ps %ymm19, %ymm14, %ymm7 # ymm7 = (ymm14 * ymm19) + ymm7 vfmadd231ps %ymm27, %ymm14, %ymm6 # ymm6 = (ymm14 * ymm27) + ymm6 vfmadd231ps %ymm16, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm16) + ymm1 vfmadd231ps %ymm17, %ymm13, %ymm7 # ymm7 = (ymm13 * ymm17) + ymm7 vfmadd231ps %ymm25, %ymm13, %ymm6 # ymm6 = (ymm13 * ymm25) + ymm6 vfmadd231ps %ymm9, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm9) + ymm1 vfmadd231ps %ymm22, %ymm2, %ymm7 # ymm7 = (ymm2 * ymm22) + ymm7 vfmadd231ps %ymm18, %ymm2, %ymm6 # ymm6 = (ymm2 * ymm18) + ymm6 vfmadd231ps %ymm8, %ymm2, %ymm1 # ymm1 = (ymm2 * ymm8) + ymm1 vmaxps %ymm1, %ymm0, %ymm16 vsubps %ymm5, %ymm7, %ymm9 vsubps %ymm4, %ymm6, %ymm8 vmovaps %ymm17, %ymm26 vmulps %ymm9, %ymm4, %ymm17 vmovaps %ymm18, %ymm23 vmulps %ymm8, %ymm5, %ymm18 vsubps %ymm18, %ymm17, %ymm17 vmulps %ymm8, %ymm8, %ymm18 vfmadd231ps %ymm9, %ymm9, %ymm18 # ymm18 = (ymm9 * ymm9) + ymm18 vmulps %ymm16, %ymm16, %ymm16 vmulps %ymm18, %ymm16, %ymm16 vmulps %ymm17, %ymm17, %ymm17 vcmpleps %ymm16, %ymm17, %k1 {%k1} kortestb %k1, %k1 je 0x1cfe706 vmovaps %ymm23, %ymm16 vmovaps 0x140(%rsp), %ymm23 vmulps %ymm15, %ymm23, %ymm15 vmovaps 0x620(%rsp), %ymm31 vfmadd213ps %ymm15, %ymm31, %ymm14 # ymm14 = (ymm31 * ymm14) + ymm15 vmovaps 0x640(%rsp), %ymm30 vfmadd213ps %ymm14, %ymm30, %ymm13 # ymm13 = (ymm30 * ymm13) + ymm14 vmovaps 0x660(%rsp), %ymm18 vfmadd213ps %ymm13, %ymm18, %ymm2 # ymm2 = (ymm18 * ymm2) + ymm13 vmulps %ymm12, %ymm23, %ymm12 vfmadd213ps %ymm12, %ymm31, %ymm11 # ymm11 = (ymm31 * ymm11) + ymm12 vfmadd213ps %ymm11, %ymm30, %ymm10 # ymm10 = (ymm30 * ymm10) + ymm11 vfmadd213ps %ymm10, %ymm18, %ymm3 # ymm3 = (ymm18 * ymm3) + ymm10 vmovups 0x1210(%rcx,%r13,4), %ymm12 vmovups 0x1694(%rcx,%r13,4), %ymm13 vmovups 0x1b18(%rcx,%r13,4), %ymm14 vmovups 0x1f9c(%rcx,%r13,4), %ymm15 vmulps %ymm15, %ymm28, %ymm11 vmulps %ymm15, %ymm29, %ymm10 vmulps %ymm15, %ymm23, %ymm15 vfmadd231ps %ymm19, %ymm14, %ymm11 # ymm11 = (ymm14 * ymm19) + ymm11 vfmadd231ps %ymm27, %ymm14, %ymm10 # ymm10 = (ymm14 * ymm27) + ymm10 vfmadd231ps %ymm14, %ymm31, %ymm15 # ymm15 = (ymm31 * ymm14) + ymm15 vfmadd231ps %ymm26, %ymm13, %ymm11 # ymm11 = (ymm13 * ymm26) + ymm11 vfmadd231ps %ymm25, %ymm13, %ymm10 # ymm10 = (ymm13 * ymm25) + ymm10 vfmadd231ps %ymm13, %ymm30, %ymm15 # ymm15 = (ymm30 * ymm13) + ymm15 vfmadd231ps %ymm22, %ymm12, %ymm11 # ymm11 = (ymm12 * ymm22) + ymm11 vfmadd231ps %ymm16, %ymm12, %ymm10 # ymm10 = (ymm12 * ymm16) + ymm10 vmovaps %ymm27, %ymm25 vmovaps %ymm19, %ymm27 vmovaps %ymm16, %ymm19 vfmadd231ps %ymm12, %ymm18, %ymm15 # ymm15 = (ymm18 * ymm12) + ymm15 vmovups 0x1210(%rax,%r13,4), %ymm13 vmovups 0x1b18(%rax,%r13,4), %ymm14 vmovups 0x1f9c(%rax,%r13,4), %ymm16 vmulps %ymm16, %ymm28, %ymm17 vmulps %ymm16, %ymm29, %ymm12 vmulps %ymm16, %ymm23, %ymm16 vfmadd231ps %ymm27, %ymm14, %ymm17 # ymm17 = (ymm14 * ymm27) + ymm17 vfmadd231ps %ymm25, %ymm14, %ymm12 # ymm12 = (ymm14 * ymm25) + ymm12 vfmadd231ps %ymm14, %ymm31, %ymm16 # ymm16 = (ymm31 * ymm14) + ymm16 vmovups 0x1694(%rax,%r13,4), %ymm14 vfmadd231ps %ymm26, %ymm14, %ymm17 # ymm17 = (ymm14 * ymm26) + ymm17 vfmadd231ps 0x4e0(%rsp), %ymm14, %ymm12 # ymm12 = (ymm14 * mem) + ymm12 vfmadd231ps %ymm14, %ymm30, %ymm16 # ymm16 = (ymm30 * ymm14) + ymm16 vfmadd231ps %ymm22, %ymm13, %ymm17 # ymm17 = (ymm13 * ymm22) + ymm17 vfmadd231ps %ymm19, %ymm13, %ymm12 # ymm12 = (ymm13 * ymm19) + ymm12 vfmadd231ps %ymm13, %ymm18, %ymm16 # ymm16 = (ymm18 * ymm13) + ymm16 vbroadcastss 0x22300d(%rip), %ymm18 # 0x1f20ec4 vandps %ymm18, %ymm11, %ymm13 vandps %ymm18, %ymm10, %ymm14 vmaxps %ymm14, %ymm13, %ymm13 vandps %ymm18, %ymm15, %ymm14 vmaxps %ymm14, %ymm13, %ymm13 vmovaps 0x2c0(%rsp), %ymm15 vcmpltps %ymm15, %ymm13, %k2 vmovaps %ymm9, %ymm11 {%k2} vmovaps %ymm8, %ymm10 {%k2} vandps %ymm18, %ymm17, %ymm13 vandps %ymm18, %ymm12, %ymm14 vmaxps %ymm14, %ymm13, %ymm13 vandps %ymm18, %ymm16, %ymm14 vmaxps %ymm14, %ymm13, %ymm13 vcmpltps %ymm15, %ymm13, %k2 vmovaps %ymm9, %ymm17 {%k2} vmovaps %ymm8, %ymm12 {%k2} vbroadcastss 0x222f99(%rip), %ymm9 # 0x1f20ec0 vxorps %ymm9, %ymm11, %ymm8 vxorps %ymm9, %ymm17, %ymm9 vfmadd213ps %ymm24, %ymm11, %ymm11 # ymm11 = (ymm11 * ymm11) + ymm24 vfmadd231ps %ymm10, %ymm10, %ymm11 # ymm11 = (ymm10 * ymm10) + ymm11 vrsqrt14ps %ymm11, %ymm13 vbroadcastss 0x1ee7d0(%rip), %ymm15 # 0x1eec71c vmulps %ymm15, %ymm11, %ymm11 vmulps %ymm11, %ymm13, %ymm11 vmulps %ymm13, %ymm13, %ymm14 vmulps %ymm11, %ymm14, %ymm14 vbroadcastss 0x1ee7ae(%rip), %ymm16 # 0x1eec718 vfmadd231ps %ymm13, %ymm16, %ymm14 # ymm14 = (ymm16 * ymm13) + ymm14 vmulps %ymm14, %ymm10, %ymm11 vmulps %ymm8, %ymm14, %ymm10 vmulps %ymm24, %ymm14, %ymm13 vfmadd213ps %ymm24, %ymm17, %ymm17 # ymm17 = (ymm17 * ymm17) + ymm24 vfmadd231ps %ymm12, %ymm12, %ymm17 # ymm17 = (ymm12 * ymm12) + ymm17 vrsqrt14ps %ymm17, %ymm8 vmulps %ymm15, %ymm17, %ymm14 vmulps %ymm14, %ymm8, %ymm14 vmulps %ymm8, %ymm8, %ymm15 vmulps %ymm14, %ymm15, %ymm14 vfmadd231ps %ymm8, %ymm16, %ymm14 # ymm14 = (ymm16 * ymm8) + ymm14 vmulps %ymm14, %ymm12, %ymm8 vmulps %ymm9, %ymm14, %ymm9 vmulps %ymm24, %ymm14, %ymm12 vmovaps %ymm11, %ymm14 vfmadd213ps %ymm5, %ymm0, %ymm14 # ymm14 = (ymm0 * ymm14) + ymm5 vmovaps %ymm10, %ymm15 vfmadd213ps %ymm4, %ymm0, %ymm15 # ymm15 = (ymm0 * ymm15) + ymm4 vmovaps %ymm13, %ymm16 vfmadd213ps %ymm3, %ymm0, %ymm16 # ymm16 = (ymm0 * ymm16) + ymm3 vmovaps %ymm8, %ymm17 vfmadd213ps %ymm7, %ymm1, %ymm17 # ymm17 = (ymm1 * ymm17) + ymm7 vfnmadd213ps %ymm5, %ymm0, %ymm11 # ymm11 = -(ymm0 * ymm11) + ymm5 vmovaps %ymm9, %ymm5 vfmadd213ps %ymm6, %ymm1, %ymm5 # ymm5 = (ymm1 * ymm5) + ymm6 vfnmadd213ps %ymm4, %ymm0, %ymm10 # ymm10 = -(ymm0 * ymm10) + ymm4 vmovaps %ymm12, %ymm4 vfmadd213ps %ymm2, %ymm1, %ymm4 # ymm4 = (ymm1 * ymm4) + ymm2 vfnmadd231ps %ymm13, %ymm0, %ymm3 # ymm3 = -(ymm0 * ymm13) + ymm3 vfnmadd213ps %ymm7, %ymm1, %ymm8 # ymm8 = -(ymm1 * ymm8) + ymm7 vfnmadd213ps %ymm6, %ymm1, %ymm9 # ymm9 = -(ymm1 * ymm9) + ymm6 vfnmadd231ps %ymm12, %ymm1, %ymm2 # ymm2 = -(ymm1 * ymm12) + ymm2 vsubps %ymm11, %ymm17, %ymm6 vsubps %ymm10, %ymm5, %ymm7 vsubps %ymm3, %ymm4, %ymm12 vmulps %ymm3, %ymm7, %ymm13 vfmsub231ps %ymm12, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm12) - ymm13 vmulps %ymm11, %ymm12, %ymm12 vfmsub231ps %ymm6, %ymm3, %ymm12 # ymm12 = (ymm3 * ymm6) - ymm12 vmulps %ymm6, %ymm10, %ymm6 vfmsub231ps %ymm7, %ymm11, %ymm6 # ymm6 = (ymm11 * ymm7) - ymm6 vfmadd231ps %ymm12, %ymm24, %ymm6 # ymm6 = (ymm24 * ymm12) + ymm6 vfmadd231ps %ymm13, %ymm24, %ymm6 # ymm6 = (ymm24 * ymm13) + ymm6 vcmpleps %ymm24, %ymm6, %k2 vmovaps %ymm14, %ymm8 {%k2} vmovaps %ymm15, %ymm9 {%k2} vmovaps %ymm16, %ymm2 {%k2} vblendmps %ymm17, %ymm11, %ymm13 {%k2} vblendmps %ymm5, %ymm10, %ymm14 {%k2} vblendmps %ymm4, %ymm3, %ymm15 {%k2} vmovaps %ymm11, %ymm17 {%k2} vmovaps %ymm10, %ymm5 {%k2} vmovaps %ymm3, %ymm4 {%k2} vsubps %ymm8, %ymm17, %ymm6 vsubps %ymm9, %ymm5, %ymm5 vsubps %ymm2, %ymm4, %ymm11 vsubps %ymm13, %ymm8, %ymm7 vsubps %ymm14, %ymm9, %ymm10 vsubps %ymm15, %ymm2, %ymm12 vmulps %ymm8, %ymm11, %ymm4 vfmsub231ps %ymm6, %ymm2, %ymm4 # ymm4 = (ymm2 * ymm6) - ymm4 vmulps %ymm6, %ymm9, %ymm3 vfmsub231ps %ymm5, %ymm8, %ymm3 # ymm3 = (ymm8 * ymm5) - ymm3 vfmadd231ps %ymm4, %ymm24, %ymm3 # ymm3 = (ymm24 * ymm4) + ymm3 vmulps %ymm2, %ymm5, %ymm4 vfmsub231ps %ymm11, %ymm9, %ymm4 # ymm4 = (ymm9 * ymm11) - ymm4 vfmadd231ps %ymm4, %ymm24, %ymm3 # ymm3 = (ymm24 * ymm4) + ymm3 vmulps %ymm13, %ymm12, %ymm16 vfmsub231ps %ymm15, %ymm7, %ymm16 # ymm16 = (ymm7 * ymm15) - ymm16 vmulps %ymm15, %ymm10, %ymm15 vfmsub231ps %ymm12, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm12) - ymm15 vmulps %ymm7, %ymm14, %ymm4 vfmsub231ps %ymm13, %ymm10, %ymm4 # ymm4 = (ymm10 * ymm13) - ymm4 vfmadd231ps %ymm16, %ymm24, %ymm4 # ymm4 = (ymm24 * ymm16) + ymm4 vfmadd231ps %ymm15, %ymm24, %ymm4 # ymm4 = (ymm24 * ymm15) + ymm4 vmaxps %ymm4, %ymm3, %ymm13 vcmpleps %ymm24, %ymm13, %k0 {%k1} kortestb %k0, %k0 vmovaps %ymm19, %ymm18 je 0x1cfe73b vmulps %ymm5, %ymm12, %ymm13 vfmsub231ps %ymm11, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm11) - ymm13 vmulps %ymm7, %ymm11, %ymm11 vfmsub231ps %ymm12, %ymm6, %ymm11 # ymm11 = (ymm6 * ymm12) - ymm11 vmulps %ymm6, %ymm10, %ymm10 vfmsub231ps %ymm5, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm5) - ymm10 vxorps %xmm6, %xmm6, %xmm6 vfmadd213ps %ymm10, %ymm11, %ymm6 # ymm6 = (ymm11 * ymm6) + ymm10 vfmadd231ps %ymm24, %ymm13, %ymm6 # ymm6 = (ymm13 * ymm24) + ymm6 vrcp14ps %ymm6, %ymm7 vmovaps %ymm7, %ymm5 vfnmadd213ps 0x1ee5bd(%rip){1to8}, %ymm6, %ymm5 # ymm5 = -(ymm6 * ymm5) + mem vfmadd132ps %ymm7, %ymm7, %ymm5 # ymm5 = (ymm5 * ymm7) + ymm7 vmulps %ymm2, %ymm10, %ymm2 vfmadd231ps %ymm11, %ymm9, %ymm2 # ymm2 = (ymm9 * ymm11) + ymm2 vfmadd231ps %ymm13, %ymm8, %ymm2 # ymm2 = (ymm8 * ymm13) + ymm2 vmulps %ymm5, %ymm2, %ymm2 vcmpgeps 0x440(%rsp), %ymm2, %k1 vcmpleps 0x100(%r15,%r14,4){1to8}, %ymm2, %k1 {%k1} kandb %k0, %k1, %k0 kortestb %k0, %k0 je 0x1cfe73b vcmpneqps %ymm24, %ymm6, %k1 ktestb %k1, %k0 vmovaps 0x20(%rsp), %xmm7 vmovaps 0x120(%rsp), %ymm17 je 0x1cfe75c kandb %k1, %k0, %k0 kmovd %k0, %eax vmulps %ymm5, %ymm3, %ymm3 vmulps %ymm5, %ymm4, %ymm4 vbroadcastss 0x1ee54e(%rip), %ymm5 # 0x1eec714 vsubps %ymm3, %ymm5, %ymm20 vmovaps %ymm3, %ymm20 {%k2} vsubps %ymm4, %ymm5, %ymm3 vmovaps %ymm4, %ymm3 {%k2} vmovaps %ymm3, 0x460(%rsp) movzbl %al, %eax vmovaps %ymm2, %ymm21 vmovaps 0x60(%rsp), %ymm6 vmovaps 0x40(%rsp), %ymm2 testw %ax, %ax je 0x1cfe729 vsubps %ymm0, %ymm1, %ymm1 vfmadd213ps %ymm0, %ymm20, %ymm1 # ymm1 = (ymm20 * ymm1) + ymm0 vaddps %ymm1, %ymm1, %ymm0 vmulps (%r11,%r14,4){1to8}, %ymm0, %ymm0 vcmpnleps %ymm0, %ymm21, %k0 kmovd %k0, %ecx andb %cl, %al je 0x1cfe729 movl %edi, 0x8(%rsp) vbroadcastss 0x1f2794(%rip), %ymm0 # 0x1ef09cc vmovaps 0x460(%rsp), %ymm1 vfmadd132ps 0x1f2dad(%rip){1to8}, %ymm0, %ymm1 # ymm1 = (ymm1 * mem) + ymm0 vmovaps %ymm20, 0x300(%rsp) vmovaps %ymm1, 0x460(%rsp) vmovaps %ymm1, 0x320(%rsp) vmovaps %ymm21, 0x340(%rsp) movl %r13d, 0x360(%rsp) movl %r9d, 0x364(%rsp) vmovaps %xmm7, 0x370(%rsp) vmovaps 0x110(%rsp), %xmm0 vmovaps %xmm0, 0x380(%rsp) vmovaps 0x100(%rsp), %xmm0 vmovaps %xmm0, 0x390(%rsp) vmovdqa 0x180(%rsp), %xmm0 vmovdqa %xmm0, 0x3a0(%rsp) movb %al, 0x3b0(%rsp) movq (%r10), %rcx movq 0x1e8(%rcx), %rcx movq 0x80(%rsp), %rdi movq (%rcx,%rdi,8), %rdi movl 0x120(%r15,%r14,4), %ecx movq %rdi, 0x10(%rsp) testl %ecx, 0x34(%rdi) je 0x1cfe720 movq 0x10(%r10), %rcx cmpq $0x0, 0x10(%rcx) movl 0x8(%rsp), %edi jne 0x1cfe310 movq 0x10(%rsp), %rcx cmpq $0x0, 0x48(%rcx) movb $0x1, %cl je 0x1cfe726 vmovaps %ymm29, 0x1c0(%rsp) vmovaps %ymm28, 0x1e0(%rsp) movl %r9d, 0xc(%rsp) movq %r11, 0x30(%rsp) movq %r8, 0x38(%rsp) vmovaps %ymm20, 0x220(%rsp) vaddps 0x222bff(%rip), %ymm20, %ymm0 # 0x1f20f40 vcvtsi2ss %r13d, %xmm19, %xmm1 vbroadcastss %xmm1, %ymm1 vaddps %ymm0, %ymm1, %ymm0 vmulps 0x420(%rsp), %ymm0, %ymm0 vmovaps %ymm0, 0x3c0(%rsp) vmovaps 0x460(%rsp), %ymm0 vmovaps %ymm0, 0x3e0(%rsp) vmovaps %ymm21, 0x200(%rsp) vmovaps %ymm21, 0x400(%rsp) movzbl %al, %esi vmovaps 0x380(%rsp), %xmm0 vmovaps %xmm0, 0xc0(%rsp) tzcntq %rsi, %rdi vmovaps 0x390(%rsp), %xmm0 vmovaps %xmm0, 0x4b0(%rsp) vmovaps 0x3a0(%rsp), %xmm0 vmovaps %xmm0, 0x4a0(%rsp) movb $0x1, %al movl %eax, 0xd0(%rsp) movq %r10, 0x18(%rsp) vmovss 0x100(%r15,%r14,4), %xmm8 vmovss 0x400(%rsp,%rdi,4), %xmm0 vbroadcastss 0x3c0(%rsp,%rdi,4), %ymm1 vbroadcastss 0x3e0(%rsp,%rdi,4), %ymm2 vmovss %xmm0, 0x100(%r15,%r14,4) movq 0x8(%r10), %rax vmovss 0x1ee307(%rip), %xmm0 # 0x1eec714 vsubss %xmm1, %xmm0, %xmm0 vmulss %xmm0, %xmm0, %xmm3 vmulss %xmm0, %xmm1, %xmm0 vmulss 0x1f2bcf(%rip), %xmm3, %xmm4 # 0x1ef0ff0 vfmadd231ss 0x1f25b2(%rip), %xmm0, %xmm3 # xmm3 = (xmm0 * mem) + xmm3 vmulss %xmm1, %xmm1, %xmm5 vfmsub132ss 0x1f2bc1(%rip), %xmm5, %xmm0 # xmm0 = (xmm0 * mem) - xmm5 vmovss 0x1f2bad(%rip), %xmm6 # 0x1ef0fec vmulss %xmm6, %xmm3, %xmm3 vmulss %xmm6, %xmm0, %xmm0 vmulss %xmm6, %xmm5, %xmm5 vbroadcastss %xmm5, %xmm5 vmulps 0x4a0(%rsp), %xmm5, %xmm5 vbroadcastss %xmm0, %xmm0 vfmadd132ps 0x4b0(%rsp), %xmm5, %xmm0 # xmm0 = (xmm0 * mem) + xmm5 vbroadcastss %xmm3, %xmm3 vfmadd132ps 0xc0(%rsp), %xmm0, %xmm3 # xmm3 = (xmm3 * mem) + xmm0 vbroadcastss %xmm4, %xmm0 vfmadd213ps %xmm3, %xmm7, %xmm0 # xmm0 = (xmm7 * xmm0) + xmm3 vbroadcastss %xmm0, %ymm3 vbroadcastss 0x214275(%rip), %ymm4 # 0x1f12704 vpermps %ymm0, %ymm4, %ymm4 vbroadcastss 0x222a3f(%rip), %ymm5 # 0x1f20edc vpermps %ymm0, %ymm5, %ymm0 vmovaps %ymm3, 0x500(%rsp) vmovaps %ymm4, 0x520(%rsp) vmovaps %ymm0, 0x540(%rsp) vmovaps %ymm1, 0x560(%rsp) vmovaps %ymm2, 0x580(%rsp) vmovaps 0x2a0(%rsp), %ymm0 vmovaps %ymm0, 0x5a0(%rsp) vmovdqa 0x2e0(%rsp), %ymm0 vmovdqa %ymm0, 0x5c0(%rsp) movq 0x88(%rsp), %rcx vpcmpeqd %ymm0, %ymm0, %ymm0 vmovdqa %ymm0, 0x20(%rcx) vmovdqa %ymm0, (%rcx) vbroadcastss (%rax), %ymm0 vmovaps %ymm0, 0x5e0(%rsp) vbroadcastss 0x4(%rax), %ymm0 vmovaps %ymm0, 0x600(%rsp) vmovaps 0x4c0(%rsp), %ymm0 vmovaps %ymm0, 0x160(%rsp) leaq 0x160(%rsp), %rcx movq %rcx, 0x90(%rsp) movq 0x10(%rsp), %rdx movq 0x18(%rdx), %rcx movq %rcx, 0x98(%rsp) movq %rax, 0xa0(%rsp) movq %r15, 0xa8(%rsp) leaq 0x500(%rsp), %rax movq %rax, 0xb0(%rsp) movl $0x8, 0xb8(%rsp) movq 0x48(%rdx), %rax testq %rax, %rax movq %rsi, 0xf0(%rsp) movq %rdi, 0x280(%rsp) vmovss %xmm8, 0xe0(%rsp) je 0x1cfe5d6 leaq 0x90(%rsp), %rdi vzeroupper callq *%rax vmovss 0xe0(%rsp), %xmm8 movq 0x280(%rsp), %rdi movq 0xf0(%rsp), %rsi vmovaps 0x20(%rsp), %xmm7 movq 0x18(%rsp), %r10 vmovdqa 0x160(%rsp), %ymm0 vptest %ymm0, %ymm0 je 0x1cfe670 movq 0x10(%r10), %rcx movq 0x10(%rcx), %rax testq %rax, %rax je 0x1cfe638 testb $0x2, (%rcx) jne 0x1cfe607 movq 0x10(%rsp), %rcx testb $0x40, 0x3e(%rcx) je 0x1cfe638 leaq 0x90(%rsp), %rdi vzeroupper callq *%rax vmovss 0xe0(%rsp), %xmm8 movq 0x280(%rsp), %rdi movq 0xf0(%rsp), %rsi vmovaps 0x20(%rsp), %xmm7 movq 0x18(%rsp), %r10 vmovdqa 0x160(%rsp), %ymm0 vptestmd %ymm0, %ymm0, %k1 movq 0xa8(%rsp), %rax vmovaps 0x100(%rax), %ymm1 vbroadcastss 0x1ee523(%rip), %ymm1 {%k1} # 0x1eecb84 vmovaps %ymm1, 0x100(%rax) vptest %ymm0, %ymm0 jne 0x1cfe693 vmovss %xmm8, 0x100(%r15,%r14,4) btcq %rdi, %rsi tzcntq %rsi, %rdi setae %al movl %eax, 0xd0(%rsp) jae 0x1cfe3d0 movl 0xd0(%rsp), %ecx andb $0x1, %cl movq 0x38(%rsp), %r8 movq 0x30(%rsp), %r11 leaq 0x428c36(%rip), %rdx # 0x21272e4 leaq 0x42b04f(%rip), %rsi # 0x2129704 vxorps %xmm24, %xmm24, %xmm24 vmovaps 0x60(%rsp), %ymm6 vmovaps 0x220(%rsp), %ymm20 vmovaps 0x40(%rsp), %ymm2 vmovaps 0x200(%rsp), %ymm21 movl 0xc(%rsp), %r9d vmovaps 0x260(%rsp), %ymm22 vmovaps 0x240(%rsp), %ymm18 vmovaps 0x120(%rsp), %ymm17 vmovaps 0x1e0(%rsp), %ymm28 vmovaps 0x1c0(%rsp), %ymm29 jmp 0x1cfe722 vmovaps 0x60(%rsp), %ymm6 vmovaps 0x40(%rsp), %ymm2 vmovaps %ymm23, %ymm18 vmovaps %ymm26, %ymm17 jmp 0x1cfe729 xorl %ecx, %ecx movl 0x8(%rsp), %edi orb %cl, %dil addq $0x8, %r13 cmpl %r13d, %r9d jg 0x1cfdbdb jmp 0x1cfdb18 xorl %eax, %eax vmovaps 0x60(%rsp), %ymm6 vmovaps 0x40(%rsp), %ymm2 vmovaps 0x20(%rsp), %xmm7 vmovaps 0x120(%rsp), %ymm17 jmp 0x1cfe1fa xorl %eax, %eax jmp 0x1cfe1ee xorl %eax, %eax vmovaps 0x60(%rsp), %ymm6 vmovaps 0x40(%rsp), %ymm2 vmovaps 0x20(%rsp), %xmm7 vmovaps 0x1e0(%rsp), %ymm28 vmovaps 0x1c0(%rsp), %ymm29 vmovaps 0x140(%rsp), %ymm8 vmovaps 0x1a0(%rsp), %xmm9 jmp 0x1cfd519 xorl %eax, %eax vmovaps 0x60(%rsp), %ymm6 vmovaps 0x40(%rsp), %ymm2 vmovaps 0x20(%rsp), %xmm7 vmovaps 0x140(%rsp), %ymm8 jmp 0x1cfd519 xorl %eax, %eax vmovaps 0x60(%rsp), %ymm6 vmovaps 0x40(%rsp), %ymm2 jmp 0x1cfd519 movb 0x7(%rsp), %al andb $0x1, %al leaq -0x28(%rbp), %rsp popq %rbx popq %r12 popq %r13 popq %r14 popq %r15 popq %rbp vzeroupper retq nop
/embree[P]embree/kernels/geometry/curveNi_intersector.h
void embree::avx512::CurveNiIntersectorK<8, 16>::intersect_t<embree::avx512::RibbonCurve1IntersectorK<embree::BezierCurveT, 16, 8>, embree::avx512::Intersect1KEpilogMU<8, 16, true>>(embree::avx512::CurvePrecalculationsK<16>&, embree::RayHitK<16>&, unsigned long, embree::RayQueryContext*, embree::CurveNi<8> const&)
static __forceinline void intersect_t(Precalculations& pre, RayHitK<K>& ray, const size_t k, RayQueryContext* context, const Primitive& prim) { vfloat<M> tNear; vbool<M> valid = intersect(ray,k,prim,tNear); const size_t N = prim.N; size_t mask = movemask(valid); while (mask) { const size_t i = bscf(mask); STAT3(normal.trav_prims,1,1,1); const unsigned int geomID = prim.geomID(N); const unsigned int primID = prim.primID(N)[i]; const CurveGeometry* geom = context->scene->get<CurveGeometry>(geomID); Vec3ff a0,a1,a2,a3; geom->gather(a0,a1,a2,a3,geom->curve(primID)); size_t mask1 = mask; const size_t i1 = bscf(mask1); if (mask) { const unsigned int primID1 = prim.primID(N)[i1]; geom->prefetchL1_vertices(geom->curve(primID1)); if (mask1) { const size_t i2 = bsf(mask1); const unsigned int primID2 = prim.primID(N)[i2]; geom->prefetchL2_vertices(geom->curve(primID2)); } } Intersector().intersect(pre,ray,k,context,geom,primID,a0,a1,a2,a3,Epilog(ray,k,context,geomID,primID)); mask &= movemask(tNear <= vfloat<M>(ray.tfar[k])); } }
pushq %rbp movq %rsp, %rbp pushq %r15 pushq %r14 pushq %r13 pushq %r12 pushq %rbx andq $-0x40, %rsp subq $0x9c0, %rsp # imm = 0x9C0 movq %rcx, %r10 movq %rdx, %r15 movq %rdi, 0xc8(%rsp) movzbl 0x1(%r8), %ecx leaq (%rcx,%rcx,4), %rax leaq (%rax,%rax,4), %rdx vbroadcastss 0x12(%r8,%rdx), %xmm0 vmovss (%rsi,%r15,4), %xmm1 vmovss 0x100(%rsi,%r15,4), %xmm2 vinsertps $0x10, 0x40(%rsi,%r15,4), %xmm1, %xmm1 # xmm1 = xmm1[0],mem[0],xmm1[2,3] vinsertps $0x20, 0x80(%rsi,%r15,4), %xmm1, %xmm1 # xmm1 = xmm1[0,1],mem[0],xmm1[3] vinsertps $0x10, 0x140(%rsi,%r15,4), %xmm2, %xmm2 # xmm2 = xmm2[0],mem[0],xmm2[2,3] vinsertps $0x20, 0x180(%rsi,%r15,4), %xmm2, %xmm2 # xmm2 = xmm2[0,1],mem[0],xmm2[3] vsubps 0x6(%r8,%rdx), %xmm1, %xmm1 vmulps %xmm1, %xmm0, %xmm3 vmulps %xmm2, %xmm0, %xmm0 vpmovsxbd 0x6(%r8,%rcx,4), %ymm1 vpmovsxbd 0x6(%r8,%rax), %ymm2 vcvtdq2ps %ymm1, %ymm5 vcvtdq2ps %ymm2, %ymm6 leaq (%rcx,%rcx,2), %rdx vpmovsxbd 0x6(%r8,%rdx,2), %ymm1 vcvtdq2ps %ymm1, %ymm4 leaq (%rcx,%rax,2), %rdi vpmovsxbd 0x6(%r8,%rdi), %ymm1 leal (,%rdx,4), %edi vpmovsxbd 0x6(%r8,%rdi), %ymm2 vcvtdq2ps %ymm1, %ymm7 vcvtdq2ps %ymm2, %ymm8 addq %rcx, %rdi vpmovsxbd 0x6(%r8,%rdi), %ymm1 vcvtdq2ps %ymm1, %ymm9 leaq (%rcx,%rcx,8), %r9 leal (%r9,%r9), %edi vpmovsxbd 0x6(%r8,%rdi), %ymm1 vcvtdq2ps %ymm1, %ymm10 addq %rcx, %rdi vpmovsxbd 0x6(%r8,%rdi), %ymm1 vcvtdq2ps %ymm1, %ymm11 shll $0x2, %eax vpmovsxbd 0x6(%r8,%rax), %ymm1 vcvtdq2ps %ymm1, %ymm12 vbroadcastss %xmm0, %ymm13 vbroadcastss 0x213e05(%rip), %ymm15 # 0x1f12704 vbroadcastss 0x2225d3(%rip), %ymm16 # 0x1f20edc vpermps %ymm0, %ymm15, %ymm14 vpermps %ymm0, %ymm16, %ymm0 vmulps %ymm4, %ymm0, %ymm2 vmulps %ymm0, %ymm9, %ymm1 vmulps %ymm0, %ymm12, %ymm0 vfmadd231ps %ymm6, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm6) + ymm2 vfmadd231ps %ymm8, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm8) + ymm1 vfmadd231ps %ymm14, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm14) + ymm0 vfmadd231ps %ymm5, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm5) + ymm2 vfmadd231ps %ymm7, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm7) + ymm1 vfmadd231ps %ymm13, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm13) + ymm0 vbroadcastss %xmm3, %ymm13 vpermps %ymm3, %ymm15, %ymm14 vpermps %ymm3, %ymm16, %ymm3 vmulps %ymm4, %ymm3, %ymm15 vmulps %ymm3, %ymm9, %ymm4 vmulps %ymm3, %ymm12, %ymm3 vfmadd231ps %ymm6, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm6) + ymm15 vfmadd231ps %ymm8, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm8) + ymm4 vfmadd231ps %ymm11, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm11) + ymm3 vfmadd231ps %ymm5, %ymm13, %ymm15 # ymm15 = (ymm13 * ymm5) + ymm15 vfmadd231ps %ymm7, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm7) + ymm4 vbroadcastss 0x222548(%rip), %ymm7 # 0x1f20ec4 vfmadd231ps %ymm10, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm10) + ymm3 vandps %ymm7, %ymm2, %ymm5 vbroadcastss 0x1f265a(%rip), %ymm6 # 0x1ef0fe8 vcmpltps %ymm6, %ymm5, %k1 vmovaps %ymm6, %ymm2 {%k1} vandps %ymm7, %ymm1, %ymm5 vcmpltps %ymm6, %ymm5, %k1 vmovaps %ymm6, %ymm1 {%k1} vandps %ymm7, %ymm0, %ymm5 vcmpltps %ymm6, %ymm5, %k1 vmovaps %ymm6, %ymm0 {%k1} vrcp14ps %ymm2, %ymm5 vbroadcastss 0x1edd48(%rip), %ymm6 # 0x1eec714 vfnmadd213ps %ymm6, %ymm5, %ymm2 # ymm2 = -(ymm5 * ymm2) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm2 # ymm2 = (ymm2 * ymm5) + ymm5 vrcp14ps %ymm1, %ymm5 vfnmadd213ps %ymm6, %ymm5, %ymm1 # ymm1 = -(ymm5 * ymm1) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm1 # ymm1 = (ymm1 * ymm5) + ymm5 vrcp14ps %ymm0, %ymm5 vfnmadd213ps %ymm6, %ymm5, %ymm0 # ymm0 = -(ymm5 * ymm0) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm0 # ymm0 = (ymm0 * ymm5) + ymm5 leaq (,%rcx,8), %rdi subq %rcx, %rdi vpmovsxwd 0x6(%r8,%rdi), %ymm5 vcvtdq2ps %ymm5, %ymm5 vsubps %ymm15, %ymm5, %ymm5 vmulps %ymm5, %ymm2, %ymm5 vpmovsxwd 0x6(%r8,%r9), %ymm6 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm15, %ymm6, %ymm6 leaq (%rcx,%rcx), %rdi addq %rcx, %rax shlq $0x3, %rdx subq %rcx, %rdx vpbroadcastd %ecx, %ymm7 shll $0x4, %ecx vpmovsxwd 0x6(%r8,%rcx), %ymm8 vmulps %ymm6, %ymm2, %ymm2 subq %rdi, %rcx vpmovsxwd 0x6(%r8,%rcx), %ymm6 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm4, %ymm6, %ymm6 vmulps %ymm6, %ymm1, %ymm6 vcvtdq2ps %ymm8, %ymm8 vsubps %ymm4, %ymm8, %ymm4 vmulps %ymm4, %ymm1, %ymm1 vpmovsxwd 0x6(%r8,%rax), %ymm4 vcvtdq2ps %ymm4, %ymm4 vsubps %ymm3, %ymm4, %ymm4 vmulps %ymm0, %ymm4, %ymm4 vpmovsxwd 0x6(%r8,%rdx), %ymm8 vcvtdq2ps %ymm8, %ymm8 vsubps %ymm3, %ymm8, %ymm3 vmulps %ymm3, %ymm0, %ymm0 vpminsd %ymm2, %ymm5, %ymm3 vpminsd %ymm1, %ymm6, %ymm8 vmaxps %ymm8, %ymm3, %ymm3 vpminsd %ymm0, %ymm4, %ymm8 vmaxps 0xc0(%rsi,%r15,4){1to8}, %ymm8, %ymm8 vmaxps %ymm8, %ymm3, %ymm3 vmulps 0x221454(%rip){1to8}, %ymm3, %ymm3 # 0x1f1ff10 vpmaxsd %ymm2, %ymm5, %ymm2 vpmaxsd %ymm1, %ymm6, %ymm1 vminps %ymm1, %ymm2, %ymm1 vpmaxsd %ymm0, %ymm4, %ymm0 vminps 0x200(%rsi,%r15,4){1to8}, %ymm0, %ymm0 vminps %ymm0, %ymm1, %ymm0 vmulps 0x22142c(%rip){1to8}, %ymm0, %ymm0 # 0x1f1ff14 vpcmpgtd 0x25be2e(%rip), %ymm7, %k0 # 0x1f5a920 vmovaps %ymm3, 0x6e0(%rsp) vcmpleps %ymm0, %ymm3, %k1 ktestb %k0, %k1 je 0x1d00c45 kandb %k0, %k1, %k0 kmovd %k0, %eax movzbl %al, %r13d leaq (%r15,%r15,2), %rax shlq $0x4, %rax movq 0xc8(%rsp), %rcx addq %rcx, %rax addq $0x40, %rax movq %rax, 0x218(%rsp) leaq 0x740(%rsp), %rax leaq 0x1c0(%rax), %rax movq %rax, 0x138(%rsp) movl $0x1, %eax shlxl %r15d, %eax, %eax kmovd %eax, %k0 vpmovm2d %k0, %zmm0 vmovdqa64 %zmm0, 0x700(%rsp) leaq 0x428773(%rip), %r12 # 0x21272e4 vmovaps %ymm6, 0xa0(%rsp) vmovaps %ymm3, 0x80(%rsp) vmovaps %ymm21, 0x1a0(%rsp) vmovaps %ymm20, 0x1c0(%rsp) tzcntq %r13, %rax movl 0x2(%r8), %ecx movl 0x6(%r8,%rax,4), %edi movq (%r10), %rax movq 0x1e8(%rax), %rax movq %rcx, 0x58(%rsp) movq (%rax,%rcx,8), %r14 movq 0x58(%r14), %rax movq 0x68(%r14), %rcx movq %rcx, %rdx movq %rdi, 0x78(%rsp) imulq %rdi, %rdx movl (%rax,%rdx), %edi movq 0xa0(%r14), %rdx movq %rdx, %r9 imulq %rdi, %r9 movq 0x90(%r14), %r11 vmovaps (%r11,%r9), %xmm13 leaq 0x1(%rdi), %r9 imulq %rdx, %r9 vmovaps (%r11,%r9), %xmm0 vmovaps %xmm0, 0xe0(%rsp) leaq 0x2(%rdi), %r9 imulq %rdx, %r9 vmovaps (%r11,%r9), %xmm0 vmovaps %xmm0, 0xd0(%rsp) blsrq %r13, %r13 addq $0x3, %rdi imulq %rdx, %rdi vmovaps (%r11,%rdi), %xmm0 vmovaps %xmm0, 0x120(%rsp) movq %r13, %rdi subq $0x1, %rdi jb 0x1cfec82 andq %r13, %rdi tzcntq %r13, %r9 movl 0x6(%r8,%r9,4), %r9d imulq %rcx, %r9 movl (%rax,%r9), %r9d imulq %rdx, %r9 prefetcht0 (%r11,%r9) prefetcht0 0x40(%r11,%r9) testq %rdi, %rdi je 0x1cfec82 tzcntq %rdi, %rdi movl 0x6(%r8,%rdi,4), %edi imulq %rdi, %rcx movl (%rax,%rcx), %eax imulq %rax, %rdx prefetcht1 (%r11,%rdx) prefetcht1 0x40(%r11,%rdx) movl 0x248(%r14), %edi vmovss (%rsi,%r15,4), %xmm0 vinsertps $0x1c, 0x40(%rsi,%r15,4), %xmm0, %xmm0 # xmm0 = xmm0[0],mem[0],zero,zero vinsertps $0x28, 0x80(%rsi,%r15,4), %xmm0, %xmm0 # xmm0 = xmm0[0,1],mem[0],zero vsubps %xmm0, %xmm13, %xmm1 vbroadcastss %xmm1, %xmm2 vshufps $0x55, %xmm1, %xmm1, %xmm3 # xmm3 = xmm1[1,1,1,1] vshufps $0xaa, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,2,2,2] movq 0x218(%rsp), %rax vmovaps (%rax), %xmm4 vmovaps 0x10(%rax), %xmm5 vmovaps 0x20(%rax), %xmm6 vmulps %xmm1, %xmm6, %xmm8 vfmadd231ps %xmm3, %xmm5, %xmm8 # xmm8 = (xmm5 * xmm3) + xmm8 vfmadd231ps %xmm2, %xmm4, %xmm8 # xmm8 = (xmm4 * xmm2) + xmm8 vshufps $0xff, %xmm13, %xmm13, %xmm1 # xmm1 = xmm13[3,3,3,3] vmovaps 0xe0(%rsp), %xmm3 vsubps %xmm0, %xmm3, %xmm2 vmovaps %xmm3, %xmm10 vbroadcastss %xmm2, %xmm3 vshufps $0x55, %xmm2, %xmm2, %xmm7 # xmm7 = xmm2[1,1,1,1] vshufps $0xaa, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[2,2,2,2] vmulps %xmm2, %xmm6, %xmm9 vfmadd231ps %xmm7, %xmm5, %xmm9 # xmm9 = (xmm5 * xmm7) + xmm9 vfmadd231ps %xmm3, %xmm4, %xmm9 # xmm9 = (xmm4 * xmm3) + xmm9 vshufps $0xff, %xmm10, %xmm10, %xmm2 # xmm2 = xmm10[3,3,3,3] vmovaps 0xd0(%rsp), %xmm7 vsubps %xmm0, %xmm7, %xmm3 vmovaps %xmm7, %xmm12 vbroadcastss %xmm3, %xmm7 vshufps $0x55, %xmm3, %xmm3, %xmm11 # xmm11 = xmm3[1,1,1,1] vshufps $0xaa, %xmm3, %xmm3, %xmm3 # xmm3 = xmm3[2,2,2,2] vmulps %xmm3, %xmm6, %xmm10 vfmadd231ps %xmm11, %xmm5, %xmm10 # xmm10 = (xmm5 * xmm11) + xmm10 vfmadd231ps %xmm7, %xmm4, %xmm10 # xmm10 = (xmm4 * xmm7) + xmm10 vshufps $0xff, %xmm12, %xmm12, %xmm7 # xmm7 = xmm12[3,3,3,3] vmovaps 0x120(%rsp), %xmm26 vsubps %xmm0, %xmm26, %xmm0 vbroadcastss %xmm0, %xmm3 vshufps $0x55, %xmm0, %xmm0, %xmm12 # xmm12 = xmm0[1,1,1,1] vshufps $0xaa, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[2,2,2,2] vmulps %xmm0, %xmm6, %xmm11 vfmadd231ps %xmm12, %xmm5, %xmm11 # xmm11 = (xmm5 * xmm12) + xmm11 vfmadd231ps %xmm3, %xmm4, %xmm11 # xmm11 = (xmm4 * xmm3) + xmm11 movslq %edi, %rax movq %rax, %rcx shlq $0x6, %rcx leaq (%rcx,%rax,4), %rbx vmovups (%r12,%rbx), %ymm25 vshufps $0xff, %xmm26, %xmm26, %xmm0 # xmm0 = xmm26[3,3,3,3] vbroadcastss %xmm8, %ymm20 vbroadcastss 0x213967(%rip), %ymm4 # 0x1f12704 vpermps %ymm8, %ymm4, %ymm23 vbroadcastsd %xmm1, %ymm3 vmovups 0x484(%r12,%rbx), %ymm14 vbroadcastss %xmm9, %ymm1 vpermps %ymm9, %ymm4, %ymm27 vbroadcastsd %xmm2, %ymm12 vmovups 0x908(%r12,%rbx), %ymm15 vbroadcastss %xmm10, %ymm31 vpermps %ymm10, %ymm4, %ymm30 vbroadcastsd %xmm7, %ymm21 vmovups 0xd8c(%r12,%rbx), %ymm16 vbroadcastss %xmm11, %ymm28 vpermps %ymm11, %ymm4, %ymm29 vbroadcastsd %xmm0, %ymm22 vmulps %ymm16, %ymm28, %ymm5 vmulps %ymm16, %ymm29, %ymm4 vfmadd231ps %ymm31, %ymm15, %ymm5 # ymm5 = (ymm15 * ymm31) + ymm5 vfmadd231ps %ymm30, %ymm15, %ymm4 # ymm4 = (ymm15 * ymm30) + ymm4 vfmadd231ps %ymm1, %ymm14, %ymm5 # ymm5 = (ymm14 * ymm1) + ymm5 vfmadd231ps %ymm27, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm27) + ymm4 vfmadd231ps %ymm20, %ymm25, %ymm5 # ymm5 = (ymm25 * ymm20) + ymm5 leaq 0x42a8d9(%rip), %rdx # 0x2129704 vmovups (%rdx,%rbx), %ymm2 vmovups 0x484(%rdx,%rbx), %ymm17 vfmadd231ps %ymm23, %ymm25, %ymm4 # ymm4 = (ymm25 * ymm23) + ymm4 vmovups 0x908(%rdx,%rbx), %ymm18 vmovups 0xd8c(%rdx,%rbx), %ymm19 vmulps %ymm19, %ymm28, %ymm7 vmulps %ymm19, %ymm29, %ymm6 vfmadd231ps %ymm31, %ymm18, %ymm7 # ymm7 = (ymm18 * ymm31) + ymm7 vfmadd231ps %ymm30, %ymm18, %ymm6 # ymm6 = (ymm18 * ymm30) + ymm6 vmovaps %ymm1, 0x140(%rsp) vfmadd231ps %ymm1, %ymm17, %ymm7 # ymm7 = (ymm17 * ymm1) + ymm7 vfmadd231ps %ymm27, %ymm17, %ymm6 # ymm6 = (ymm17 * ymm27) + ymm6 vmovaps %ymm20, 0x260(%rsp) vfmadd231ps %ymm20, %ymm2, %ymm7 # ymm7 = (ymm2 * ymm20) + ymm7 vmovaps %ymm23, 0x240(%rsp) vfmadd231ps %ymm23, %ymm2, %ymm6 # ymm6 = (ymm2 * ymm23) + ymm6 vsubps %ymm5, %ymm7, %ymm24 vsubps %ymm4, %ymm6, %ymm23 vmulps %ymm24, %ymm4, %ymm0 vmulps %ymm23, %ymm5, %ymm1 vsubps %ymm1, %ymm0, %ymm20 vmulps %ymm16, %ymm22, %ymm0 vfmadd231ps %ymm21, %ymm15, %ymm0 # ymm0 = (ymm15 * ymm21) + ymm0 vfmadd231ps %ymm12, %ymm14, %ymm0 # ymm0 = (ymm14 * ymm12) + ymm0 vfmadd231ps %ymm3, %ymm25, %ymm0 # ymm0 = (ymm25 * ymm3) + ymm0 vmovaps %ymm22, 0x620(%rsp) vmulps %ymm19, %ymm22, %ymm1 vmovaps %ymm21, 0x640(%rsp) vfmadd231ps %ymm21, %ymm18, %ymm1 # ymm1 = (ymm18 * ymm21) + ymm1 vmovaps %ymm12, 0x6a0(%rsp) vfmadd231ps %ymm12, %ymm17, %ymm1 # ymm1 = (ymm17 * ymm12) + ymm1 vmovaps %ymm3, 0x6c0(%rsp) vfmadd231ps %ymm3, %ymm2, %ymm1 # ymm1 = (ymm2 * ymm3) + ymm1 vmulps %ymm23, %ymm23, %ymm21 vfmadd231ps %ymm24, %ymm24, %ymm21 # ymm21 = (ymm24 * ymm24) + ymm21 vmaxps %ymm1, %ymm0, %ymm22 vmulps %ymm22, %ymm22, %ymm22 vmulps %ymm21, %ymm22, %ymm21 vmulps %ymm20, %ymm20, %ymm20 vcmpleps %ymm21, %ymm20, %k1 vmovaps %xmm13, 0x60(%rsp) vblendps $0x8, %xmm13, %xmm8, %xmm12 # xmm12 = xmm8[0,1,2],xmm13[3] vbroadcastss 0x221f75(%rip), %xmm20 # 0x1f20ec4 vandps %xmm20, %xmm12, %xmm12 vblendps $0x8, 0xe0(%rsp), %xmm9, %xmm13 # xmm13 = xmm9[0,1,2],mem[3] vandps %xmm20, %xmm13, %xmm13 vmaxps %xmm13, %xmm12, %xmm12 vblendps $0x8, 0xd0(%rsp), %xmm10, %xmm13 # xmm13 = xmm10[0,1,2],mem[3] vandps %xmm20, %xmm13, %xmm13 vmovaps %xmm26, %xmm3 vblendps $0x8, %xmm3, %xmm11, %xmm3 # xmm3 = xmm11[0,1,2],xmm3[3] vandps %xmm20, %xmm3, %xmm3 vmaxps %xmm3, %xmm13, %xmm3 vmaxps %xmm3, %xmm12, %xmm3 vmovshdup %xmm3, %xmm12 # xmm12 = xmm3[1,1,3,3] vmaxss %xmm3, %xmm12, %xmm12 vshufpd $0x1, %xmm3, %xmm3, %xmm3 # xmm3 = xmm3[1,0] vmaxss %xmm12, %xmm3, %xmm3 vcvtsi2ss %edi, %xmm8, %xmm12 vmovaps %xmm12, 0x2c0(%rsp) vbroadcastss %xmm12, %ymm12 vcmpgtps 0x221f7b(%rip), %ymm12, %k1 {%k1} # 0x1f20f40 vmulss 0x1f2015(%rip), %xmm3, %xmm26 # 0x1ef0fe4 vbroadcastss 0x221f04(%rip), %ymm3 # 0x1f20edc vpermps %ymm8, %ymm3, %ymm20 vpermps %ymm9, %ymm3, %ymm21 vpermps %ymm10, %ymm3, %ymm22 vpermps %ymm11, %ymm3, %ymm3 kortestb %k1, %k1 vmovss 0xc0(%rsi,%r15,4), %xmm8 vmovaps %ymm27, 0x4a0(%rsp) vmovaps %ymm31, 0x680(%rsp) vmovaps %ymm30, 0x660(%rsp) vmovaps %ymm20, 0x600(%rsp) vmovaps %ymm21, 0x5e0(%rsp) vmovaps %ymm22, 0x5c0(%rsp) vmovaps %ymm3, 0x5a0(%rsp) je 0x1cff7be vmovaps %xmm8, 0x220(%rsp) vmovaps %xmm26, 0x280(%rsp) vmovaps %ymm3, %ymm26 vmulps %ymm19, %ymm3, %ymm3 vfmadd213ps %ymm3, %ymm22, %ymm18 # ymm18 = (ymm22 * ymm18) + ymm3 vfmadd213ps %ymm18, %ymm21, %ymm17 # ymm17 = (ymm21 * ymm17) + ymm18 vfmadd213ps %ymm17, %ymm20, %ymm2 # ymm2 = (ymm20 * ymm2) + ymm17 vmulps %ymm16, %ymm26, %ymm3 vfmadd213ps %ymm3, %ymm22, %ymm15 # ymm15 = (ymm22 * ymm15) + ymm3 vfmadd213ps %ymm15, %ymm21, %ymm14 # ymm14 = (ymm21 * ymm14) + ymm15 vmovups 0x1210(%r12,%rbx), %ymm3 vmovups 0x1694(%r12,%rbx), %ymm10 vmovups 0x1b18(%r12,%rbx), %ymm11 vmovups 0x1f9c(%r12,%rbx), %ymm12 vfmadd213ps %ymm14, %ymm20, %ymm25 # ymm25 = (ymm20 * ymm25) + ymm14 vmulps %ymm12, %ymm28, %ymm9 vmulps %ymm12, %ymm29, %ymm8 vmulps %ymm12, %ymm26, %ymm12 vfmadd231ps %ymm31, %ymm11, %ymm9 # ymm9 = (ymm11 * ymm31) + ymm9 vfmadd231ps %ymm30, %ymm11, %ymm8 # ymm8 = (ymm11 * ymm30) + ymm8 vfmadd231ps %ymm11, %ymm22, %ymm12 # ymm12 = (ymm22 * ymm11) + ymm12 vmovaps 0x140(%rsp), %ymm19 vfmadd231ps %ymm19, %ymm10, %ymm9 # ymm9 = (ymm10 * ymm19) + ymm9 vfmadd231ps %ymm27, %ymm10, %ymm8 # ymm8 = (ymm10 * ymm27) + ymm8 vfmadd231ps %ymm10, %ymm21, %ymm12 # ymm12 = (ymm21 * ymm10) + ymm12 vmovaps 0x260(%rsp), %ymm17 vfmadd231ps %ymm17, %ymm3, %ymm9 # ymm9 = (ymm3 * ymm17) + ymm9 vmovaps 0x240(%rsp), %ymm18 vfmadd231ps %ymm18, %ymm3, %ymm8 # ymm8 = (ymm3 * ymm18) + ymm8 vmovups 0x1210(%rdx,%rbx), %ymm10 vmovups 0x1b18(%rdx,%rbx), %ymm11 vmovups 0x1f9c(%rdx,%rbx), %ymm13 vfmadd231ps %ymm3, %ymm20, %ymm12 # ymm12 = (ymm20 * ymm3) + ymm12 vmovaps %ymm28, 0x180(%rsp) vmulps %ymm13, %ymm28, %ymm3 vmovaps %ymm29, 0x160(%rsp) vmulps %ymm13, %ymm29, %ymm14 vmulps %ymm13, %ymm26, %ymm13 vmovaps 0x280(%rsp), %xmm26 vfmadd231ps %ymm31, %ymm11, %ymm3 # ymm3 = (ymm11 * ymm31) + ymm3 vfmadd231ps %ymm30, %ymm11, %ymm14 # ymm14 = (ymm11 * ymm30) + ymm14 vfmadd231ps %ymm11, %ymm22, %ymm13 # ymm13 = (ymm22 * ymm11) + ymm13 vmovups 0x1694(%rdx,%rbx), %ymm11 vfmadd231ps %ymm19, %ymm11, %ymm3 # ymm3 = (ymm11 * ymm19) + ymm3 vfmadd231ps %ymm27, %ymm11, %ymm14 # ymm14 = (ymm11 * ymm27) + ymm14 vfmadd231ps %ymm11, %ymm21, %ymm13 # ymm13 = (ymm21 * ymm11) + ymm13 vfmadd231ps %ymm17, %ymm10, %ymm3 # ymm3 = (ymm10 * ymm17) + ymm3 vfmadd231ps %ymm18, %ymm10, %ymm14 # ymm14 = (ymm10 * ymm18) + ymm14 vfmadd231ps %ymm10, %ymm20, %ymm13 # ymm13 = (ymm20 * ymm10) + ymm13 vbroadcastss 0x221d2c(%rip), %ymm15 # 0x1f20ec4 vandps %ymm15, %ymm9, %ymm10 vandps %ymm15, %ymm8, %ymm11 vmaxps %ymm11, %ymm10, %ymm10 vandps %ymm15, %ymm12, %ymm11 vmaxps %ymm11, %ymm10, %ymm10 vbroadcastss %xmm26, %ymm11 vcmpltps %ymm11, %ymm10, %k2 vmovaps %ymm24, %ymm9 {%k2} vmovaps %ymm23, %ymm8 {%k2} vandps %ymm3, %ymm15, %ymm10 vandps %ymm15, %ymm14, %ymm12 vmaxps %ymm12, %ymm10, %ymm10 vandps %ymm15, %ymm13, %ymm12 vmaxps %ymm12, %ymm10, %ymm10 vcmpltps %ymm11, %ymm10, %k2 vmovaps %ymm24, %ymm3 {%k2} vmovaps %ymm23, %ymm14 {%k2} vbroadcastss 0x221cc2(%rip), %ymm11 # 0x1f20ec0 vxorps %ymm11, %ymm9, %ymm10 vxorps %ymm3, %ymm11, %ymm12 vxorps %xmm27, %xmm27, %xmm27 vfmadd213ps %ymm27, %ymm9, %ymm9 # ymm9 = (ymm9 * ymm9) + ymm27 vfmadd231ps %ymm8, %ymm8, %ymm9 # ymm9 = (ymm8 * ymm8) + ymm9 vrsqrt14ps %ymm9, %ymm11 vbroadcastss 0x1ed4f5(%rip), %ymm15 # 0x1eec71c vmulps %ymm15, %ymm9, %ymm9 vmulps %ymm9, %ymm11, %ymm9 vmulps %ymm11, %ymm11, %ymm13 vmulps %ymm9, %ymm13, %ymm9 vbroadcastss 0x1ed4d3(%rip), %ymm16 # 0x1eec718 vfmadd231ps %ymm11, %ymm16, %ymm9 # ymm9 = (ymm16 * ymm11) + ymm9 vmulps %ymm9, %ymm8, %ymm11 vmulps %ymm10, %ymm9, %ymm10 vmulps %ymm27, %ymm9, %ymm13 vfmadd213ps %ymm27, %ymm3, %ymm3 # ymm3 = (ymm3 * ymm3) + ymm27 vfmadd231ps %ymm14, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm14) + ymm3 vrsqrt14ps %ymm3, %ymm8 vmulps %ymm3, %ymm15, %ymm3 vmulps %ymm3, %ymm8, %ymm3 vmulps %ymm8, %ymm8, %ymm9 vmulps %ymm3, %ymm9, %ymm3 vfmadd231ps %ymm8, %ymm16, %ymm3 # ymm3 = (ymm16 * ymm8) + ymm3 vmulps %ymm3, %ymm14, %ymm8 vmulps %ymm3, %ymm12, %ymm9 vmulps %ymm27, %ymm3, %ymm3 vmovaps %ymm11, %ymm12 vfmadd213ps %ymm5, %ymm0, %ymm12 # ymm12 = (ymm0 * ymm12) + ymm5 vmovaps %ymm10, %ymm14 vfmadd213ps %ymm4, %ymm0, %ymm14 # ymm14 = (ymm0 * ymm14) + ymm4 vmovaps %ymm13, %ymm15 vfmadd213ps %ymm25, %ymm0, %ymm15 # ymm15 = (ymm0 * ymm15) + ymm25 vmovaps %ymm8, %ymm16 vfmadd213ps %ymm7, %ymm1, %ymm16 # ymm16 = (ymm1 * ymm16) + ymm7 vfnmadd213ps %ymm5, %ymm0, %ymm11 # ymm11 = -(ymm0 * ymm11) + ymm5 vmovaps %ymm9, %ymm5 vfmadd213ps %ymm6, %ymm1, %ymm5 # ymm5 = (ymm1 * ymm5) + ymm6 vfnmadd213ps %ymm4, %ymm0, %ymm10 # ymm10 = -(ymm0 * ymm10) + ymm4 vmovaps %ymm3, %ymm4 vfmadd213ps %ymm2, %ymm1, %ymm4 # ymm4 = (ymm1 * ymm4) + ymm2 vfnmadd231ps %ymm13, %ymm0, %ymm25 # ymm25 = -(ymm0 * ymm13) + ymm25 vfnmadd213ps %ymm7, %ymm1, %ymm8 # ymm8 = -(ymm1 * ymm8) + ymm7 vfnmadd213ps %ymm6, %ymm1, %ymm9 # ymm9 = -(ymm1 * ymm9) + ymm6 vfnmadd231ps %ymm3, %ymm1, %ymm2 # ymm2 = -(ymm1 * ymm3) + ymm2 vsubps %ymm11, %ymm16, %ymm3 vsubps %ymm10, %ymm5, %ymm6 vsubps %ymm25, %ymm4, %ymm7 vmulps %ymm25, %ymm6, %ymm13 vfmsub231ps %ymm7, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm7) - ymm13 vmulps %ymm7, %ymm11, %ymm7 vfmsub231ps %ymm3, %ymm25, %ymm7 # ymm7 = (ymm25 * ymm3) - ymm7 vmulps %ymm3, %ymm10, %ymm3 vfmsub231ps %ymm6, %ymm11, %ymm3 # ymm3 = (ymm11 * ymm6) - ymm3 vfmadd231ps %ymm7, %ymm27, %ymm3 # ymm3 = (ymm27 * ymm7) + ymm3 vfmadd231ps %ymm13, %ymm27, %ymm3 # ymm3 = (ymm27 * ymm13) + ymm3 vcmpleps %ymm27, %ymm3, %k2 vmovaps %ymm12, %ymm8 {%k2} vmovaps %ymm14, %ymm9 {%k2} vmovaps %ymm15, %ymm2 {%k2} vblendmps %ymm16, %ymm11, %ymm13 {%k2} vblendmps %ymm5, %ymm10, %ymm14 {%k2} vblendmps %ymm4, %ymm25, %ymm15 {%k2} vmovaps %ymm11, %ymm16 {%k2} vmovaps %ymm10, %ymm5 {%k2} vmovaps %ymm25, %ymm4 {%k2} vsubps %ymm8, %ymm16, %ymm6 vsubps %ymm9, %ymm5, %ymm5 vsubps %ymm2, %ymm4, %ymm11 vsubps %ymm13, %ymm8, %ymm7 vsubps %ymm14, %ymm9, %ymm10 vsubps %ymm15, %ymm2, %ymm12 vmulps %ymm8, %ymm11, %ymm4 vfmsub231ps %ymm6, %ymm2, %ymm4 # ymm4 = (ymm2 * ymm6) - ymm4 vmulps %ymm6, %ymm9, %ymm3 vfmsub231ps %ymm5, %ymm8, %ymm3 # ymm3 = (ymm8 * ymm5) - ymm3 vfmadd231ps %ymm4, %ymm27, %ymm3 # ymm3 = (ymm27 * ymm4) + ymm3 vmulps %ymm2, %ymm5, %ymm4 vfmsub231ps %ymm11, %ymm9, %ymm4 # ymm4 = (ymm9 * ymm11) - ymm4 vfmadd231ps %ymm4, %ymm27, %ymm3 # ymm3 = (ymm27 * ymm4) + ymm3 vmulps %ymm13, %ymm12, %ymm16 vfmsub231ps %ymm15, %ymm7, %ymm16 # ymm16 = (ymm7 * ymm15) - ymm16 vmulps %ymm15, %ymm10, %ymm15 vfmsub231ps %ymm12, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm12) - ymm15 vmulps %ymm7, %ymm14, %ymm4 vfmsub231ps %ymm13, %ymm10, %ymm4 # ymm4 = (ymm10 * ymm13) - ymm4 vfmadd231ps %ymm16, %ymm27, %ymm4 # ymm4 = (ymm27 * ymm16) + ymm4 vfmadd231ps %ymm15, %ymm27, %ymm4 # ymm4 = (ymm27 * ymm15) + ymm4 vmaxps %ymm4, %ymm3, %ymm13 vcmpleps %ymm27, %ymm13, %k0 {%k1} kortestb %k0, %k0 vmovaps 0x1c0(%rsp), %ymm20 vmovaps 0x1a0(%rsp), %ymm21 vmovaps %ymm17, %ymm22 vmovaps %ymm19, %ymm17 je 0x1d006e2 vmulps %ymm5, %ymm12, %ymm13 vfmsub231ps %ymm11, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm11) - ymm13 vmulps %ymm7, %ymm11, %ymm11 vfmsub231ps %ymm12, %ymm6, %ymm11 # ymm11 = (ymm6 * ymm12) - ymm11 vmulps %ymm6, %ymm10, %ymm10 vfmsub231ps %ymm5, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm5) - ymm10 vxorps %xmm6, %xmm6, %xmm6 vfmadd213ps %ymm10, %ymm11, %ymm6 # ymm6 = (ymm11 * ymm6) + ymm10 vfmadd231ps %ymm27, %ymm13, %ymm6 # ymm6 = (ymm13 * ymm27) + ymm6 vrcp14ps %ymm6, %ymm7 vmovaps %ymm7, %ymm5 vfnmadd213ps 0x1ed2cf(%rip){1to8}, %ymm6, %ymm5 # ymm5 = -(ymm6 * ymm5) + mem vfmadd132ps %ymm7, %ymm7, %ymm5 # ymm5 = (ymm5 * ymm7) + ymm7 vmulps %ymm2, %ymm10, %ymm2 vfmadd231ps %ymm11, %ymm9, %ymm2 # ymm2 = (ymm9 * ymm11) + ymm2 vfmadd231ps %ymm13, %ymm8, %ymm2 # ymm2 = (ymm8 * ymm13) + ymm2 vmulps %ymm5, %ymm2, %ymm2 vmovaps 0x220(%rsp), %xmm8 vbroadcastss %xmm8, %ymm7 vcmpleps %ymm2, %ymm7, %k1 vcmpleps 0x200(%rsi,%r15,4){1to8}, %ymm2, %k1 {%k1} kandb %k0, %k1, %k0 kortestb %k0, %k0 vmovaps 0x180(%rsp), %ymm28 vmovaps 0x160(%rsp), %ymm29 je 0x1d0071b vcmpneqps %ymm27, %ymm6, %k1 ktestb %k1, %k0 vmovaps 0x60(%rsp), %xmm7 je 0x1d0073b kandb %k1, %k0, %k0 kmovd %k0, %eax vmulps %ymm5, %ymm3, %ymm3 vmulps %ymm5, %ymm4, %ymm4 vbroadcastss 0x1ed249(%rip), %ymm5 # 0x1eec714 vsubps %ymm3, %ymm5, %ymm6 vmovaps %ymm3, %ymm6 {%k2} vsubps %ymm4, %ymm5, %ymm3 vmovaps %ymm4, %ymm3 {%k2} vmovaps %ymm3, 0x460(%rsp) movzbl %al, %r12d vmovaps %ymm2, %ymm3 testw %r12w, %r12w je 0x1cff7b5 vsubps %ymm0, %ymm1, %ymm1 vfmadd213ps %ymm0, %ymm6, %ymm1 # ymm1 = (ymm6 * ymm1) + ymm0 vaddps %ymm1, %ymm1, %ymm0 movq 0xc8(%rsp), %rax vmulps (%rax,%r15,4){1to8}, %ymm0, %ymm0 vcmpnleps %ymm0, %ymm3, %k0 kmovd %k0, %eax andb %al, %r12b je 0x1cff7b5 vbroadcastss 0x1f1499(%rip), %ymm0 # 0x1ef09cc vmovaps 0x460(%rsp), %ymm1 vfmadd132ps 0x1f1ab2(%rip){1to8}, %ymm0, %ymm1 # ymm1 = (ymm1 * mem) + ymm0 vmovaps %ymm6, 0x2e0(%rsp) vmovaps %ymm1, 0x460(%rsp) vmovaps %ymm1, 0x300(%rsp) vmovaps %ymm3, 0x320(%rsp) movl $0x0, 0x340(%rsp) movl %edi, 0x344(%rsp) vmovaps %xmm7, 0x350(%rsp) vmovaps 0xe0(%rsp), %xmm0 vmovaps %xmm0, 0x360(%rsp) vmovaps 0xd0(%rsp), %xmm0 vmovaps %xmm0, 0x370(%rsp) vmovdqa 0x120(%rsp), %xmm0 vmovdqa %xmm0, 0x380(%rsp) movb %r12b, 0x390(%rsp) movl 0x240(%rsi,%r15,4), %eax testl %eax, 0x34(%r14) je 0x1cff7b5 vaddps 0x221963(%rip), %ymm6, %ymm0 # 0x1f20f40 vmovss 0x1ed12f(%rip), %xmm1 # 0x1eec714 vdivss 0x2c0(%rsp), %xmm1, %xmm1 vbroadcastss %xmm1, %ymm1 vmulps %ymm0, %ymm1, %ymm0 vmovaps %ymm0, 0x3a0(%rsp) vmovaps 0x460(%rsp), %ymm0 vmovaps %ymm0, 0x3c0(%rsp) vmovaps %ymm3, 0x3e0(%rsp) kmovd %r12d, %k1 vbroadcastss 0x1ec3f7(%rip), %ymm0 # 0x1eeba20 vblendmps %ymm3, %ymm0, %ymm0 {%k1} vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm0, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1] vminps %ymm2, %ymm1, %ymm1 vcmpeqps %ymm1, %ymm0, %k0 kmovd %k0, %eax andb %r12b, %al movzbl %al, %eax movzbl %r12b, %ecx cmovnel %eax, %ecx tzcntl %ecx, %r9d movq 0x10(%r10), %rax cmpq $0x0, 0x10(%rax) vmovaps %ymm6, 0xa0(%rsp) vmovaps %ymm3, 0x80(%rsp) jne 0x1d00755 cmpq $0x0, 0x40(%r14) jne 0x1d00755 vmovss 0x3a0(%rsp,%r9,4), %xmm0 vmovss 0x3c0(%rsp,%r9,4), %xmm1 vmovss 0x1ed064(%rip), %xmm2 # 0x1eec714 vsubss %xmm0, %xmm2, %xmm2 vmulss %xmm2, %xmm2, %xmm3 vmulss %xmm2, %xmm0, %xmm2 vmulss 0x1f192c(%rip), %xmm3, %xmm4 # 0x1ef0ff0 vfmadd231ss 0x1f130f(%rip), %xmm2, %xmm3 # xmm3 = (xmm2 * mem) + xmm3 vmulss %xmm0, %xmm0, %xmm5 vfmsub132ss 0x1f191e(%rip), %xmm5, %xmm2 # xmm2 = (xmm2 * mem) - xmm5 vmovss 0x1f190a(%rip), %xmm6 # 0x1ef0fec vmulss %xmm6, %xmm3, %xmm3 vmulss %xmm6, %xmm2, %xmm2 vmulss %xmm6, %xmm5, %xmm5 vbroadcastss %xmm5, %xmm5 vmulps 0x120(%rsp), %xmm5, %xmm5 vbroadcastss %xmm2, %xmm2 vfmadd132ps 0xd0(%rsp), %xmm5, %xmm2 # xmm2 = (xmm2 * mem) + xmm5 vmovaps 0xa0(%rsp), %ymm6 vbroadcastss %xmm3, %xmm3 vfmadd132ps 0xe0(%rsp), %xmm2, %xmm3 # xmm3 = (xmm3 * mem) + xmm2 vbroadcastss %xmm4, %xmm2 vfmadd213ps %xmm3, %xmm7, %xmm2 # xmm2 = (xmm7 * xmm2) + xmm3 vmovss 0x3e0(%rsp,%r9,4), %xmm3 vmovss %xmm3, 0x200(%rsi,%r15,4) vmovaps 0x80(%rsp), %ymm3 vmovss %xmm2, 0x300(%rsi,%r15,4) vextractps $0x1, %xmm2, 0x340(%rsi,%r15,4) vextractps $0x2, %xmm2, 0x380(%rsi,%r15,4) vmovss %xmm0, 0x3c0(%rsi,%r15,4) vmovss %xmm1, 0x400(%rsi,%r15,4) movq 0x78(%rsp), %rax movl %eax, 0x440(%rsi,%r15,4) movq 0x58(%rsp), %rax movl %eax, 0x480(%rsi,%r15,4) movq 0x8(%r10), %rax movl (%rax), %eax movl %eax, 0x4c0(%rsi,%r15,4) movq 0x8(%r10), %rax movl 0x4(%rax), %eax movl %eax, 0x500(%rsi,%r15,4) leaq 0x427b28(%rip), %r12 # 0x21272e4 jmp 0x1cff7fe vxorps %xmm27, %xmm27, %xmm27 vmovaps 0xa0(%rsp), %ymm6 vmovaps 0x1c0(%rsp), %ymm20 vmovaps 0x80(%rsp), %ymm3 vmovaps 0x1a0(%rsp), %ymm21 vmovaps 0x260(%rsp), %ymm22 vmovaps 0x240(%rsp), %ymm18 vmovaps 0x140(%rsp), %ymm17 cmpl $0x9, %edi jge 0x1cff82a vmovaps 0x6e0(%rsp), %ymm0 vcmpleps 0x200(%rsi,%r15,4){1to8}, %ymm0, %k0 kmovb %k0, %eax andl %eax, %r13d jne 0x1cfeb71 jmp 0x1d00c45 vpbroadcastd %edi, %ymm0 vmovdqa %ymm0, 0x280(%rsp) vbroadcastss %xmm26, %ymm0 vmovaps %ymm0, 0x220(%rsp) vbroadcastss %xmm8, %ymm0 vmovaps %ymm0, 0x2a0(%rsp) vmovss 0x1eceb6(%rip), %xmm0 # 0x1eec714 vdivss 0x2c0(%rsp), %xmm0, %xmm0 vbroadcastss %xmm0, %ymm0 vmovaps %ymm0, 0x2c0(%rsp) movq 0x58(%rsp), %rax vpbroadcastd %eax, %zmm0 vmovdqa64 %zmm0, 0x540(%rsp) movq 0x78(%rsp), %rax vpbroadcastd %eax, %zmm0 vmovdqa64 %zmm0, 0x500(%rsp) movl $0x8, %r14d vmovaps %ymm6, 0xa0(%rsp) vmovaps %ymm3, 0x80(%rsp) vpbroadcastd %r14d, %ymm0 vpor 0x25b05f(%rip), %ymm0, %ymm0 # 0x1f5a920 vpcmpltd 0x280(%rsp), %ymm0, %k1 leaq (%rbx,%r12), %rcx vmovups (%rcx,%r14,4), %ymm3 vmovups 0x484(%rcx,%r14,4), %ymm10 vmovups 0x908(%rcx,%r14,4), %ymm11 vmovups 0xd8c(%rcx,%r14,4), %ymm12 vmulps %ymm12, %ymm28, %ymm5 vmulps %ymm12, %ymm29, %ymm4 vmovaps 0x620(%rsp), %ymm1 vmulps %ymm1, %ymm12, %ymm0 vmovaps 0x680(%rsp), %ymm19 vfmadd231ps %ymm19, %ymm11, %ymm5 # ymm5 = (ymm11 * ymm19) + ymm5 vmovaps 0x660(%rsp), %ymm26 vfmadd231ps %ymm26, %ymm11, %ymm4 # ymm4 = (ymm11 * ymm26) + ymm4 vmovaps 0x640(%rsp), %ymm16 vfmadd231ps %ymm16, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm16) + ymm0 vfmadd231ps %ymm17, %ymm10, %ymm5 # ymm5 = (ymm10 * ymm17) + ymm5 vmovaps 0x4a0(%rsp), %ymm25 vfmadd231ps %ymm25, %ymm10, %ymm4 # ymm4 = (ymm10 * ymm25) + ymm4 vmovaps 0x6a0(%rsp), %ymm9 vfmadd231ps %ymm9, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm9) + ymm0 vfmadd231ps %ymm22, %ymm3, %ymm5 # ymm5 = (ymm3 * ymm22) + ymm5 vfmadd231ps %ymm18, %ymm3, %ymm4 # ymm4 = (ymm3 * ymm18) + ymm4 leaq (%rbx,%rdx), %rax vmovups (%rax,%r14,4), %ymm2 vmovups 0x484(%rax,%r14,4), %ymm13 vmovaps 0x6c0(%rsp), %ymm8 vfmadd231ps %ymm8, %ymm3, %ymm0 # ymm0 = (ymm3 * ymm8) + ymm0 vmovups 0x908(%rax,%r14,4), %ymm14 vmovups 0xd8c(%rax,%r14,4), %ymm15 vmulps %ymm15, %ymm28, %ymm7 vmulps %ymm15, %ymm29, %ymm6 vmulps %ymm1, %ymm15, %ymm1 vfmadd231ps %ymm19, %ymm14, %ymm7 # ymm7 = (ymm14 * ymm19) + ymm7 vfmadd231ps %ymm26, %ymm14, %ymm6 # ymm6 = (ymm14 * ymm26) + ymm6 vfmadd231ps %ymm16, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm16) + ymm1 vfmadd231ps %ymm17, %ymm13, %ymm7 # ymm7 = (ymm13 * ymm17) + ymm7 vfmadd231ps %ymm25, %ymm13, %ymm6 # ymm6 = (ymm13 * ymm25) + ymm6 vfmadd231ps %ymm9, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm9) + ymm1 vfmadd231ps %ymm22, %ymm2, %ymm7 # ymm7 = (ymm2 * ymm22) + ymm7 vfmadd231ps %ymm18, %ymm2, %ymm6 # ymm6 = (ymm2 * ymm18) + ymm6 vfmadd231ps %ymm8, %ymm2, %ymm1 # ymm1 = (ymm2 * ymm8) + ymm1 vmaxps %ymm1, %ymm0, %ymm16 vsubps %ymm5, %ymm7, %ymm9 vsubps %ymm4, %ymm6, %ymm8 vmovaps %ymm17, %ymm24 vmulps %ymm9, %ymm4, %ymm17 vmovaps %ymm18, %ymm23 vmulps %ymm8, %ymm5, %ymm18 vsubps %ymm18, %ymm17, %ymm17 vmulps %ymm8, %ymm8, %ymm18 vfmadd231ps %ymm9, %ymm9, %ymm18 # ymm18 = (ymm9 * ymm9) + ymm18 vmulps %ymm16, %ymm16, %ymm16 vmulps %ymm18, %ymm16, %ymm16 vmulps %ymm17, %ymm17, %ymm17 vcmpleps %ymm16, %ymm17, %k1 {%k1} kortestb %k1, %k1 je 0x1d001a6 vmovaps %ymm23, %ymm16 vmovaps 0x5a0(%rsp), %ymm23 vmulps %ymm15, %ymm23, %ymm15 vmovaps 0x5c0(%rsp), %ymm31 vfmadd213ps %ymm15, %ymm31, %ymm14 # ymm14 = (ymm31 * ymm14) + ymm15 vmovaps 0x5e0(%rsp), %ymm30 vfmadd213ps %ymm14, %ymm30, %ymm13 # ymm13 = (ymm30 * ymm13) + ymm14 vmovaps 0x600(%rsp), %ymm18 vfmadd213ps %ymm13, %ymm18, %ymm2 # ymm2 = (ymm18 * ymm2) + ymm13 vmulps %ymm12, %ymm23, %ymm12 vfmadd213ps %ymm12, %ymm31, %ymm11 # ymm11 = (ymm31 * ymm11) + ymm12 vfmadd213ps %ymm11, %ymm30, %ymm10 # ymm10 = (ymm30 * ymm10) + ymm11 vfmadd213ps %ymm10, %ymm18, %ymm3 # ymm3 = (ymm18 * ymm3) + ymm10 vmovups 0x1210(%rcx,%r14,4), %ymm12 vmovups 0x1694(%rcx,%r14,4), %ymm13 vmovups 0x1b18(%rcx,%r14,4), %ymm14 vmovups 0x1f9c(%rcx,%r14,4), %ymm15 vmulps %ymm15, %ymm28, %ymm11 vmulps %ymm15, %ymm29, %ymm10 vmulps %ymm15, %ymm23, %ymm15 vfmadd231ps %ymm19, %ymm14, %ymm11 # ymm11 = (ymm14 * ymm19) + ymm11 vfmadd231ps %ymm26, %ymm14, %ymm10 # ymm10 = (ymm14 * ymm26) + ymm10 vfmadd231ps %ymm14, %ymm31, %ymm15 # ymm15 = (ymm31 * ymm14) + ymm15 vfmadd231ps %ymm24, %ymm13, %ymm11 # ymm11 = (ymm13 * ymm24) + ymm11 vfmadd231ps %ymm25, %ymm13, %ymm10 # ymm10 = (ymm13 * ymm25) + ymm10 vfmadd231ps %ymm13, %ymm30, %ymm15 # ymm15 = (ymm30 * ymm13) + ymm15 vfmadd231ps %ymm22, %ymm12, %ymm11 # ymm11 = (ymm12 * ymm22) + ymm11 vfmadd231ps %ymm16, %ymm12, %ymm10 # ymm10 = (ymm12 * ymm16) + ymm10 vmovaps %ymm26, %ymm25 vmovaps %ymm19, %ymm26 vmovaps %ymm16, %ymm19 vfmadd231ps %ymm12, %ymm18, %ymm15 # ymm15 = (ymm18 * ymm12) + ymm15 vmovups 0x1210(%rax,%r14,4), %ymm13 vmovups 0x1b18(%rax,%r14,4), %ymm14 vmovups 0x1f9c(%rax,%r14,4), %ymm16 vmulps %ymm16, %ymm28, %ymm17 vmulps %ymm16, %ymm29, %ymm12 vmulps %ymm16, %ymm23, %ymm16 vfmadd231ps %ymm26, %ymm14, %ymm17 # ymm17 = (ymm14 * ymm26) + ymm17 vfmadd231ps %ymm25, %ymm14, %ymm12 # ymm12 = (ymm14 * ymm25) + ymm12 vfmadd231ps %ymm14, %ymm31, %ymm16 # ymm16 = (ymm31 * ymm14) + ymm16 vmovups 0x1694(%rax,%r14,4), %ymm14 vfmadd231ps %ymm24, %ymm14, %ymm17 # ymm17 = (ymm14 * ymm24) + ymm17 vfmadd231ps 0x4a0(%rsp), %ymm14, %ymm12 # ymm12 = (ymm14 * mem) + ymm12 vfmadd231ps %ymm14, %ymm30, %ymm16 # ymm16 = (ymm30 * ymm14) + ymm16 vfmadd231ps %ymm22, %ymm13, %ymm17 # ymm17 = (ymm13 * ymm22) + ymm17 vfmadd231ps %ymm19, %ymm13, %ymm12 # ymm12 = (ymm13 * ymm19) + ymm12 vfmadd231ps %ymm13, %ymm18, %ymm16 # ymm16 = (ymm18 * ymm13) + ymm16 vbroadcastss 0x221335(%rip), %ymm18 # 0x1f20ec4 vandps %ymm18, %ymm11, %ymm13 vandps %ymm18, %ymm10, %ymm14 vmaxps %ymm14, %ymm13, %ymm13 vandps %ymm18, %ymm15, %ymm14 vmaxps %ymm14, %ymm13, %ymm13 vmovaps 0x220(%rsp), %ymm15 vcmpltps %ymm15, %ymm13, %k2 vmovaps %ymm9, %ymm11 {%k2} vmovaps %ymm8, %ymm10 {%k2} vandps %ymm18, %ymm17, %ymm13 vandps %ymm18, %ymm12, %ymm14 vmaxps %ymm14, %ymm13, %ymm13 vandps %ymm18, %ymm16, %ymm14 vmaxps %ymm14, %ymm13, %ymm13 vcmpltps %ymm15, %ymm13, %k2 vmovaps %ymm9, %ymm17 {%k2} vmovaps %ymm8, %ymm12 {%k2} vbroadcastss 0x2212c1(%rip), %ymm9 # 0x1f20ec0 vxorps %ymm9, %ymm11, %ymm8 vxorps %ymm9, %ymm17, %ymm9 vfmadd213ps %ymm27, %ymm11, %ymm11 # ymm11 = (ymm11 * ymm11) + ymm27 vfmadd231ps %ymm10, %ymm10, %ymm11 # ymm11 = (ymm10 * ymm10) + ymm11 vrsqrt14ps %ymm11, %ymm13 vbroadcastss 0x1ecaf8(%rip), %ymm15 # 0x1eec71c vmulps %ymm15, %ymm11, %ymm11 vmulps %ymm11, %ymm13, %ymm11 vmulps %ymm13, %ymm13, %ymm14 vmulps %ymm11, %ymm14, %ymm14 vbroadcastss 0x1ecad6(%rip), %ymm16 # 0x1eec718 vfmadd231ps %ymm13, %ymm16, %ymm14 # ymm14 = (ymm16 * ymm13) + ymm14 vmulps %ymm14, %ymm10, %ymm11 vmulps %ymm8, %ymm14, %ymm10 vmulps %ymm27, %ymm14, %ymm13 vfmadd213ps %ymm27, %ymm17, %ymm17 # ymm17 = (ymm17 * ymm17) + ymm27 vfmadd231ps %ymm12, %ymm12, %ymm17 # ymm17 = (ymm12 * ymm12) + ymm17 vrsqrt14ps %ymm17, %ymm8 vmulps %ymm15, %ymm17, %ymm14 vmulps %ymm14, %ymm8, %ymm14 vmulps %ymm8, %ymm8, %ymm15 vmulps %ymm14, %ymm15, %ymm14 vfmadd231ps %ymm8, %ymm16, %ymm14 # ymm14 = (ymm16 * ymm8) + ymm14 vmulps %ymm14, %ymm12, %ymm8 vmulps %ymm9, %ymm14, %ymm9 vmulps %ymm27, %ymm14, %ymm12 vmovaps %ymm11, %ymm14 vfmadd213ps %ymm5, %ymm0, %ymm14 # ymm14 = (ymm0 * ymm14) + ymm5 vmovaps %ymm10, %ymm15 vfmadd213ps %ymm4, %ymm0, %ymm15 # ymm15 = (ymm0 * ymm15) + ymm4 vmovaps %ymm13, %ymm16 vfmadd213ps %ymm3, %ymm0, %ymm16 # ymm16 = (ymm0 * ymm16) + ymm3 vmovaps %ymm8, %ymm17 vfmadd213ps %ymm7, %ymm1, %ymm17 # ymm17 = (ymm1 * ymm17) + ymm7 vfnmadd213ps %ymm5, %ymm0, %ymm11 # ymm11 = -(ymm0 * ymm11) + ymm5 vmovaps %ymm9, %ymm5 vfmadd213ps %ymm6, %ymm1, %ymm5 # ymm5 = (ymm1 * ymm5) + ymm6 vfnmadd213ps %ymm4, %ymm0, %ymm10 # ymm10 = -(ymm0 * ymm10) + ymm4 vmovaps %ymm12, %ymm4 vfmadd213ps %ymm2, %ymm1, %ymm4 # ymm4 = (ymm1 * ymm4) + ymm2 vfnmadd231ps %ymm13, %ymm0, %ymm3 # ymm3 = -(ymm0 * ymm13) + ymm3 vfnmadd213ps %ymm7, %ymm1, %ymm8 # ymm8 = -(ymm1 * ymm8) + ymm7 vfnmadd213ps %ymm6, %ymm1, %ymm9 # ymm9 = -(ymm1 * ymm9) + ymm6 vfnmadd231ps %ymm12, %ymm1, %ymm2 # ymm2 = -(ymm1 * ymm12) + ymm2 vsubps %ymm11, %ymm17, %ymm6 vsubps %ymm10, %ymm5, %ymm7 vsubps %ymm3, %ymm4, %ymm12 vmulps %ymm3, %ymm7, %ymm13 vfmsub231ps %ymm12, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm12) - ymm13 vmulps %ymm11, %ymm12, %ymm12 vfmsub231ps %ymm6, %ymm3, %ymm12 # ymm12 = (ymm3 * ymm6) - ymm12 vmulps %ymm6, %ymm10, %ymm6 vfmsub231ps %ymm7, %ymm11, %ymm6 # ymm6 = (ymm11 * ymm7) - ymm6 vfmadd231ps %ymm12, %ymm27, %ymm6 # ymm6 = (ymm27 * ymm12) + ymm6 vfmadd231ps %ymm13, %ymm27, %ymm6 # ymm6 = (ymm27 * ymm13) + ymm6 vcmpleps %ymm27, %ymm6, %k2 vmovaps %ymm14, %ymm8 {%k2} vmovaps %ymm15, %ymm9 {%k2} vmovaps %ymm16, %ymm2 {%k2} vblendmps %ymm17, %ymm11, %ymm13 {%k2} vblendmps %ymm5, %ymm10, %ymm14 {%k2} vblendmps %ymm4, %ymm3, %ymm15 {%k2} vmovaps %ymm11, %ymm17 {%k2} vmovaps %ymm10, %ymm5 {%k2} vmovaps %ymm3, %ymm4 {%k2} vsubps %ymm8, %ymm17, %ymm6 vsubps %ymm9, %ymm5, %ymm5 vsubps %ymm2, %ymm4, %ymm11 vsubps %ymm13, %ymm8, %ymm7 vsubps %ymm14, %ymm9, %ymm10 vsubps %ymm15, %ymm2, %ymm12 vmulps %ymm8, %ymm11, %ymm4 vfmsub231ps %ymm6, %ymm2, %ymm4 # ymm4 = (ymm2 * ymm6) - ymm4 vmulps %ymm6, %ymm9, %ymm3 vfmsub231ps %ymm5, %ymm8, %ymm3 # ymm3 = (ymm8 * ymm5) - ymm3 vfmadd231ps %ymm4, %ymm27, %ymm3 # ymm3 = (ymm27 * ymm4) + ymm3 vmulps %ymm2, %ymm5, %ymm4 vfmsub231ps %ymm11, %ymm9, %ymm4 # ymm4 = (ymm9 * ymm11) - ymm4 vfmadd231ps %ymm4, %ymm27, %ymm3 # ymm3 = (ymm27 * ymm4) + ymm3 vmulps %ymm13, %ymm12, %ymm16 vfmsub231ps %ymm15, %ymm7, %ymm16 # ymm16 = (ymm7 * ymm15) - ymm16 vmulps %ymm15, %ymm10, %ymm15 vfmsub231ps %ymm12, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm12) - ymm15 vmulps %ymm7, %ymm14, %ymm4 vfmsub231ps %ymm13, %ymm10, %ymm4 # ymm4 = (ymm10 * ymm13) - ymm4 vfmadd231ps %ymm16, %ymm27, %ymm4 # ymm4 = (ymm27 * ymm16) + ymm4 vfmadd231ps %ymm15, %ymm27, %ymm4 # ymm4 = (ymm27 * ymm15) + ymm4 vmaxps %ymm4, %ymm3, %ymm13 vcmpleps %ymm27, %ymm13, %k0 {%k1} kortestb %k0, %k0 vmovaps %ymm19, %ymm18 je 0x1d001d6 vmulps %ymm5, %ymm12, %ymm13 vfmsub231ps %ymm11, %ymm10, %ymm13 # ymm13 = (ymm10 * ymm11) - ymm13 vmulps %ymm7, %ymm11, %ymm11 vfmsub231ps %ymm12, %ymm6, %ymm11 # ymm11 = (ymm6 * ymm12) - ymm11 vmulps %ymm6, %ymm10, %ymm10 vfmsub231ps %ymm5, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm5) - ymm10 vxorps %xmm6, %xmm6, %xmm6 vfmadd213ps %ymm10, %ymm11, %ymm6 # ymm6 = (ymm11 * ymm6) + ymm10 vfmadd231ps %ymm27, %ymm13, %ymm6 # ymm6 = (ymm13 * ymm27) + ymm6 vrcp14ps %ymm6, %ymm7 vmovaps %ymm7, %ymm5 vfnmadd213ps 0x1ec8e5(%rip){1to8}, %ymm6, %ymm5 # ymm5 = -(ymm6 * ymm5) + mem vfmadd132ps %ymm7, %ymm7, %ymm5 # ymm5 = (ymm5 * ymm7) + ymm7 vmulps %ymm2, %ymm10, %ymm2 vfmadd231ps %ymm11, %ymm9, %ymm2 # ymm2 = (ymm9 * ymm11) + ymm2 vfmadd231ps %ymm13, %ymm8, %ymm2 # ymm2 = (ymm8 * ymm13) + ymm2 vmulps %ymm5, %ymm2, %ymm2 vcmpgeps 0x2a0(%rsp), %ymm2, %k1 vcmpleps 0x200(%rsi,%r15,4){1to8}, %ymm2, %k1 {%k1} kandb %k0, %k1, %k0 kortestb %k0, %k0 je 0x1d001d6 vcmpneqps %ymm27, %ymm6, %k1 ktestb %k1, %k0 vmovaps 0x60(%rsp), %xmm7 vmovaps 0x140(%rsp), %ymm17 je 0x1d001fe kandb %k1, %k0, %k0 kmovd %k0, %eax vmulps %ymm5, %ymm3, %ymm3 vmulps %ymm5, %ymm4, %ymm4 vbroadcastss 0x1ec873(%rip), %ymm5 # 0x1eec714 vsubps %ymm3, %ymm5, %ymm20 vmovaps %ymm3, %ymm20 {%k2} vsubps %ymm4, %ymm5, %ymm3 vmovaps %ymm4, %ymm3 {%k2} vmovaps %ymm3, 0x440(%rsp) movzbl %al, %r9d vmovaps %ymm2, %ymm21 vmovaps 0xa0(%rsp), %ymm6 vmovaps 0x80(%rsp), %ymm3 testw %r9w, %r9w je 0x1d001c4 vsubps %ymm0, %ymm1, %ymm1 vfmadd213ps %ymm0, %ymm20, %ymm1 # ymm1 = (ymm20 * ymm1) + ymm0 vaddps %ymm1, %ymm1, %ymm0 movq 0xc8(%rsp), %rax vmulps (%rax,%r15,4){1to8}, %ymm0, %ymm0 vcmpnleps %ymm0, %ymm21, %k0 kmovd %k0, %eax andb %al, %r9b je 0x1d001c4 vbroadcastss 0x1f0aac(%rip), %ymm0 # 0x1ef09cc vmovaps 0x440(%rsp), %ymm1 vfmadd132ps 0x1f10c5(%rip){1to8}, %ymm0, %ymm1 # ymm1 = (ymm1 * mem) + ymm0 vmovaps %ymm20, 0x2e0(%rsp) vmovaps %ymm1, 0x440(%rsp) vmovaps %ymm1, 0x300(%rsp) vmovaps %ymm21, 0x320(%rsp) movl %r14d, 0x340(%rsp) movl %edi, 0x344(%rsp) vmovaps %xmm7, 0x350(%rsp) vmovaps 0xe0(%rsp), %xmm0 vmovaps %xmm0, 0x360(%rsp) vmovaps 0xd0(%rsp), %xmm0 vmovaps %xmm0, 0x370(%rsp) vmovdqa 0x120(%rsp), %xmm0 vmovdqa %xmm0, 0x380(%rsp) movb %r9b, 0x390(%rsp) movq (%r10), %rax movq 0x1e8(%rax), %rax movq 0x58(%rsp), %rcx movq (%rax,%rcx,8), %r11 movl 0x240(%rsi,%r15,4), %eax testl %eax, 0x34(%r11) je 0x1d0019d vaddps 0x220f66(%rip), %ymm20, %ymm0 # 0x1f20f40 vcvtsi2ss %r14d, %xmm19, %xmm1 vbroadcastss %xmm1, %ymm1 vaddps %ymm0, %ymm1, %ymm0 vmulps 0x2c0(%rsp), %ymm0, %ymm0 vmovaps %ymm0, 0x3a0(%rsp) vmovaps 0x440(%rsp), %ymm0 vmovaps %ymm0, 0x3c0(%rsp) vmovaps %ymm21, 0x3e0(%rsp) kmovd %r9d, %k1 vbroadcastss 0x1eb9fd(%rip), %ymm0 # 0x1eeba20 vblendmps %ymm21, %ymm0, %ymm0 {%k1} vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm0, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1] vminps %ymm2, %ymm1, %ymm1 vcmpeqps %ymm1, %ymm0, %k0 kmovd %k0, %eax andb %r9b, %al movzbl %al, %eax movzbl %r9b, %ecx cmovnel %eax, %ecx tzcntl %ecx, %r12d movq 0x10(%r10), %rax cmpq $0x0, 0x10(%rax) jne 0x1d00206 cmpq $0x0, 0x40(%r11) jne 0x1d00206 vmovss 0x3a0(%rsp,%r12,4), %xmm0 vmovss 0x3c0(%rsp,%r12,4), %xmm1 vmovss 0x1ec67c(%rip), %xmm2 # 0x1eec714 vsubss %xmm0, %xmm2, %xmm2 vmulss %xmm2, %xmm2, %xmm3 vmulss %xmm2, %xmm0, %xmm2 vmulss 0x1f0f44(%rip), %xmm3, %xmm4 # 0x1ef0ff0 vfmadd231ss 0x1f0927(%rip), %xmm2, %xmm3 # xmm3 = (xmm2 * mem) + xmm3 vmulss %xmm0, %xmm0, %xmm5 vfmsub132ss 0x1f0f36(%rip), %xmm5, %xmm2 # xmm2 = (xmm2 * mem) - xmm5 vmovss 0x1f0f22(%rip), %xmm6 # 0x1ef0fec vmulss %xmm6, %xmm3, %xmm3 vmulss %xmm6, %xmm2, %xmm2 vmulss %xmm6, %xmm5, %xmm5 vbroadcastss %xmm5, %xmm5 vmulps 0x120(%rsp), %xmm5, %xmm5 vbroadcastss %xmm2, %xmm2 vfmadd132ps 0xd0(%rsp), %xmm5, %xmm2 # xmm2 = (xmm2 * mem) + xmm5 vbroadcastss %xmm3, %xmm3 vfmadd132ps 0xe0(%rsp), %xmm2, %xmm3 # xmm3 = (xmm3 * mem) + xmm2 vbroadcastss %xmm4, %xmm2 vfmadd213ps %xmm3, %xmm7, %xmm2 # xmm2 = (xmm7 * xmm2) + xmm3 vmovss 0x3e0(%rsp,%r12,4), %xmm3 vmovss %xmm3, 0x200(%rsi,%r15,4) vmovss %xmm2, 0x300(%rsi,%r15,4) vextractps $0x1, %xmm2, 0x340(%rsi,%r15,4) vextractps $0x2, %xmm2, 0x380(%rsi,%r15,4) vmovss %xmm0, 0x3c0(%rsi,%r15,4) vmovss %xmm1, 0x400(%rsi,%r15,4) movq 0x78(%rsp), %rax movl %eax, 0x440(%rsi,%r15,4) movq 0x58(%rsp), %rax movl %eax, 0x480(%rsi,%r15,4) movq 0x8(%r10), %rax movl (%rax), %eax movl %eax, 0x4c0(%rsi,%r15,4) movq 0x8(%r10), %rax movl 0x4(%rax), %eax movl %eax, 0x500(%rsi,%r15,4) vmovaps 0xa0(%rsp), %ymm6 vmovaps 0x80(%rsp), %ymm3 leaq 0x427140(%rip), %r12 # 0x21272e4 jmp 0x1d001c4 vmovaps 0xa0(%rsp), %ymm6 vmovaps 0x80(%rsp), %ymm3 vmovaps %ymm23, %ymm18 vmovaps %ymm24, %ymm17 addq $0x8, %r14 cmpl %r14d, %edi jg 0x1cff8b3 jmp 0x1cff803 xorl %r9d, %r9d vmovaps 0xa0(%rsp), %ymm6 vmovaps 0x80(%rsp), %ymm3 vmovaps 0x60(%rsp), %xmm7 vmovaps 0x140(%rsp), %ymm17 jmp 0x1cffedc xorl %r9d, %r9d jmp 0x1cffeca vmovaps 0x360(%rsp), %xmm0 vmovaps %xmm0, 0x1f0(%rsp) vmovaps 0x370(%rsp), %xmm0 vmovaps %xmm0, 0x1e0(%rsp) vmovaps 0x380(%rsp), %xmm0 vmovaps %xmm0, 0x490(%rsp) vmovaps %ymm20, 0x1c0(%rsp) vmovaps %ymm21, 0x1a0(%rsp) movq %r11, 0x130(%rsp) movq %r8, 0x50(%rsp) movq %r10, 0x48(%rsp) movq %rsi, 0x40(%rsp) movl %edi, 0x3c(%rsp) vmovaps %ymm28, 0x180(%rsp) vmovaps %ymm29, 0x160(%rsp) vmovss 0x200(%rsi,%r15,4), %xmm0 vmovss %xmm0, 0x200(%rsp) vmovss 0x3e0(%rsp,%r12,4), %xmm0 vbroadcastss 0x3a0(%rsp,%r12,4), %zmm1 vbroadcastss 0x3c0(%rsp,%r12,4), %zmm2 vmovss %xmm0, 0x200(%rsi,%r15,4) movq 0x8(%r10), %rax vmovss 0x1ec454(%rip), %xmm0 # 0x1eec714 vsubss %xmm1, %xmm0, %xmm0 vmulss %xmm0, %xmm0, %xmm3 vmulss %xmm0, %xmm1, %xmm0 vmulss 0x1f0d1c(%rip), %xmm3, %xmm4 # 0x1ef0ff0 vfmadd231ss 0x1f06ff(%rip), %xmm0, %xmm3 # xmm3 = (xmm0 * mem) + xmm3 vmulss %xmm1, %xmm1, %xmm5 vfmsub132ss 0x1f0d0e(%rip), %xmm5, %xmm0 # xmm0 = (xmm0 * mem) - xmm5 vmovss 0x1f0cfa(%rip), %xmm6 # 0x1ef0fec vmulss %xmm6, %xmm3, %xmm3 vmulss %xmm6, %xmm0, %xmm0 vmulss %xmm6, %xmm5, %xmm5 vbroadcastss %xmm5, %xmm5 vmulps 0x490(%rsp), %xmm5, %xmm5 vbroadcastss %xmm0, %xmm0 vfmadd132ps 0x1e0(%rsp), %xmm5, %xmm0 # xmm0 = (xmm0 * mem) + xmm5 vbroadcastss %xmm3, %xmm3 vfmadd132ps 0x1f0(%rsp), %xmm0, %xmm3 # xmm3 = (xmm3 * mem) + xmm0 vbroadcastss %xmm4, %xmm0 vfmadd213ps %xmm3, %xmm7, %xmm0 # xmm0 = (xmm7 * xmm0) + xmm3 vbroadcastss %xmm0, %zmm3 vbroadcastss 0x2123c0(%rip), %zmm4 # 0x1f12704 vpermps %zmm0, %zmm4, %zmm4 vbroadcastss 0x220b88(%rip), %zmm5 # 0x1f20edc vpermps %zmm0, %zmm5, %zmm0 vmovaps %zmm3, 0x740(%rsp) vmovaps %zmm4, 0x780(%rsp) vmovaps %zmm0, 0x7c0(%rsp) vmovaps %zmm1, 0x800(%rsp) vmovaps %zmm2, 0x840(%rsp) vmovaps 0x500(%rsp), %zmm0 vmovaps %zmm0, 0x880(%rsp) vmovdqa64 0x540(%rsp), %zmm0 vmovdqa64 %zmm0, 0x8c0(%rsp) movq 0x138(%rsp), %rcx vpcmpeqd %ymm0, %ymm0, %ymm0 vmovdqa %ymm0, 0x60(%rcx) vmovdqa %ymm0, 0x40(%rcx) vmovdqa %ymm0, 0x20(%rcx) vmovdqa %ymm0, (%rcx) vbroadcastss (%rax), %zmm0 vmovaps %zmm0, 0x900(%rsp) vbroadcastss 0x4(%rax), %zmm0 vmovaps %zmm0, 0x940(%rsp) vmovaps 0x700(%rsp), %zmm0 vmovaps %zmm0, 0x400(%rsp) leaq 0x400(%rsp), %rcx movq %rcx, 0xf0(%rsp) movq 0x18(%r11), %rcx movq %rcx, 0xf8(%rsp) movq %rax, 0x100(%rsp) movq %rsi, 0x108(%rsp) leaq 0x740(%rsp), %rax movq %rax, 0x110(%rsp) movl $0x10, 0x118(%rsp) movq 0x40(%r11), %rax testq %rax, %rax movl %r9d, 0x4c0(%rsp) je 0x1d004c1 leaq 0xf0(%rsp), %rdi vzeroupper callq *%rax movq 0x130(%rsp), %r11 movl 0x4c0(%rsp), %r9d vmovaps 0x160(%rsp), %ymm29 vmovaps 0x180(%rsp), %ymm28 vmovaps 0x140(%rsp), %ymm17 vmovaps 0x240(%rsp), %ymm18 vmovaps 0x260(%rsp), %ymm22 movl 0x3c(%rsp), %edi vmovaps 0x60(%rsp), %xmm7 vmovaps 0x1a0(%rsp), %ymm21 vmovaps 0x1c0(%rsp), %ymm20 vxorps %xmm27, %xmm27, %xmm27 leaq 0x429252(%rip), %rdx # 0x2129704 movq 0x40(%rsp), %rsi movq 0x48(%rsp), %r10 movq 0x50(%rsp), %r8 vmovdqa64 0x400(%rsp), %zmm0 vptestmd %zmm0, %zmm0, %k0 kortestw %k0, %k0 vmovaps 0xa0(%rsp), %ymm6 vmovaps 0x80(%rsp), %ymm3 je 0x1d00640 movq 0x10(%r10), %rcx movq 0x10(%rcx), %rax testq %rax, %rax je 0x1d00599 testb $0x2, (%rcx) jne 0x1d0050c testb $0x40, 0x3e(%r11) je 0x1d00599 leaq 0xf0(%rsp), %rdi vzeroupper callq *%rax movq 0x130(%rsp), %r11 movl 0x4c0(%rsp), %r9d vmovaps 0x160(%rsp), %ymm29 vmovaps 0x180(%rsp), %ymm28 vmovaps 0x140(%rsp), %ymm17 vmovaps 0x240(%rsp), %ymm18 vmovaps 0x260(%rsp), %ymm22 movl 0x3c(%rsp), %edi vmovaps 0x60(%rsp), %xmm7 vmovaps 0x1a0(%rsp), %ymm21 vmovaps 0x80(%rsp), %ymm3 vmovaps 0x1c0(%rsp), %ymm20 vmovaps 0xa0(%rsp), %ymm6 vxorps %xmm27, %xmm27, %xmm27 leaq 0x42917a(%rip), %rdx # 0x2129704 movq 0x40(%rsp), %rsi movq 0x48(%rsp), %r10 movq 0x50(%rsp), %r8 vmovdqa64 0x400(%rsp), %zmm0 vptestmd %zmm0, %zmm0, %k1 kortestw %k1, %k1 je 0x1d00640 movq 0x108(%rsp), %rax movq 0x110(%rsp), %rcx vmovaps (%rcx), %zmm0 vmovups %zmm0, 0x300(%rax) {%k1} vmovaps 0x40(%rcx), %zmm0 vmovups %zmm0, 0x340(%rax) {%k1} vmovaps 0x80(%rcx), %zmm0 vmovups %zmm0, 0x380(%rax) {%k1} vmovaps 0xc0(%rcx), %zmm0 vmovups %zmm0, 0x3c0(%rax) {%k1} vmovaps 0x100(%rcx), %zmm0 vmovups %zmm0, 0x400(%rax) {%k1} vmovdqa64 0x140(%rcx), %zmm0 vmovdqu32 %zmm0, 0x440(%rax) {%k1} vmovdqa64 0x180(%rcx), %zmm0 vmovdqu32 %zmm0, 0x480(%rax) {%k1} vmovdqa64 0x1c0(%rcx), %zmm0 vmovdqa32 %zmm0, 0x4c0(%rax) {%k1} vmovdqa64 0x200(%rcx), %zmm0 vmovdqa32 %zmm0, 0x500(%rax) {%k1} jmp 0x1d00653 vmovd 0x200(%rsp), %xmm0 vmovd %xmm0, 0x200(%rsi,%r15,4) movl $0x1, %eax shlxl %r12d, %eax, %eax kmovd %eax, %k0 movzbl %r9b, %eax kmovd %eax, %k1 kandnb %k1, %k0, %k0 vcmpleps 0x200(%rsi,%r15,4){1to8}, %ymm21, %k1 kandb %k1, %k0, %k2 kmovd %k2, %r9d ktestb %k1, %k0 je 0x1d006d4 kmovd %r9d, %k1 vbroadcastss 0x1eb38b(%rip), %ymm0 # 0x1eeba20 vblendmps %ymm21, %ymm0, %ymm0 {%k1} vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm0, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1] vminps %ymm2, %ymm1, %ymm1 vcmpeqps %ymm1, %ymm0, %k0 kmovd %k0, %eax andb %r9b, %al movzbl %al, %eax movzbl %r9b, %ecx cmovnel %eax, %ecx tzcntl %ecx, %r12d testb %r9b, %r9b jne 0x1d00277 jmp 0x1d0019d xorl %r12d, %r12d vmovaps 0xa0(%rsp), %ymm6 vmovaps 0x80(%rsp), %ymm3 vmovaps 0x60(%rsp), %xmm7 vmovaps 0x180(%rsp), %ymm28 vmovaps 0x160(%rsp), %ymm29 vmovaps 0x220(%rsp), %xmm8 jmp 0x1cff4f0 xorl %r12d, %r12d vmovaps 0xa0(%rsp), %ymm6 vmovaps 0x80(%rsp), %ymm3 vmovaps 0x60(%rsp), %xmm7 jmp 0x1cff4f0 xorl %r12d, %r12d vmovaps 0xa0(%rsp), %ymm6 vmovaps 0x80(%rsp), %ymm3 jmp 0x1cff4f0 movq 0x58(%rsp), %rax vpbroadcastd %eax, %zmm0 vmovdqa64 %zmm0, 0x500(%rsp) movq 0x78(%rsp), %rax vpbroadcastd %eax, %zmm0 vmovdqa64 %zmm0, 0x4c0(%rsp) vmovaps 0x360(%rsp), %xmm0 vmovaps %xmm0, 0x200(%rsp) vmovaps 0x370(%rsp), %xmm0 vmovaps %xmm0, 0x1f0(%rsp) vmovaps 0x380(%rsp), %xmm0 vmovaps %xmm0, 0x1e0(%rsp) movq %r8, 0x50(%rsp) movq %r10, 0x48(%rsp) movq %rsi, 0x40(%rsp) movl %edi, 0x3c(%rsp) vmovss 0x200(%rsi,%r15,4), %xmm0 vmovss %xmm0, 0x540(%rsp) vmovss 0x3e0(%rsp,%r9,4), %xmm0 vbroadcastss 0x3a0(%rsp,%r9,4), %zmm1 vbroadcastss 0x3c0(%rsp,%r9,4), %zmm2 vmovss %xmm0, 0x200(%rsi,%r15,4) movq 0x8(%r10), %rax vmovss 0x1ebf07(%rip), %xmm0 # 0x1eec714 vsubss %xmm1, %xmm0, %xmm0 vmulss %xmm0, %xmm0, %xmm3 vmulss %xmm0, %xmm1, %xmm0 vmulss 0x1f07cf(%rip), %xmm3, %xmm4 # 0x1ef0ff0 vfmadd231ss 0x1f01b2(%rip), %xmm0, %xmm3 # xmm3 = (xmm0 * mem) + xmm3 vmulss %xmm1, %xmm1, %xmm5 vfmsub132ss 0x1f07c1(%rip), %xmm5, %xmm0 # xmm0 = (xmm0 * mem) - xmm5 vmovss 0x1f07ad(%rip), %xmm6 # 0x1ef0fec vmulss %xmm6, %xmm3, %xmm3 vmulss %xmm6, %xmm0, %xmm0 vmulss %xmm6, %xmm5, %xmm5 vbroadcastss %xmm5, %xmm5 vmulps 0x1e0(%rsp), %xmm5, %xmm5 vbroadcastss %xmm0, %xmm0 vfmadd132ps 0x1f0(%rsp), %xmm5, %xmm0 # xmm0 = (xmm0 * mem) + xmm5 vbroadcastss %xmm3, %xmm3 vfmadd132ps 0x200(%rsp), %xmm0, %xmm3 # xmm3 = (xmm3 * mem) + xmm0 vbroadcastss %xmm4, %xmm0 vfmadd213ps %xmm3, %xmm7, %xmm0 # xmm0 = (xmm7 * xmm0) + xmm3 vbroadcastss %xmm0, %zmm3 vbroadcastss 0x211e73(%rip), %zmm4 # 0x1f12704 vpermps %zmm0, %zmm4, %zmm4 vbroadcastss 0x22063b(%rip), %zmm5 # 0x1f20edc vpermps %zmm0, %zmm5, %zmm0 vmovaps %zmm3, 0x740(%rsp) vmovaps %zmm4, 0x780(%rsp) vmovaps %zmm0, 0x7c0(%rsp) vmovaps %zmm1, 0x800(%rsp) vmovaps %zmm2, 0x840(%rsp) vmovaps 0x4c0(%rsp), %zmm0 vmovaps %zmm0, 0x880(%rsp) vmovdqa64 0x500(%rsp), %zmm0 vmovdqa64 %zmm0, 0x8c0(%rsp) movq 0x138(%rsp), %rcx vpcmpeqd %ymm0, %ymm0, %ymm0 vmovdqa %ymm0, 0x60(%rcx) vmovdqa %ymm0, 0x40(%rcx) vmovdqa %ymm0, 0x20(%rcx) vmovdqa %ymm0, (%rcx) vbroadcastss (%rax), %zmm0 vmovaps %zmm0, 0x900(%rsp) vbroadcastss 0x4(%rax), %zmm0 vmovaps %zmm0, 0x940(%rsp) vmovaps 0x700(%rsp), %zmm0 vmovaps %zmm0, 0x400(%rsp) leaq 0x400(%rsp), %rcx movq %rcx, 0xf0(%rsp) movq 0x18(%r14), %rcx movq %rcx, 0xf8(%rsp) movq %rax, 0x100(%rsp) movq %rsi, 0x108(%rsp) leaq 0x740(%rsp), %rax movq %rax, 0x110(%rsp) movl $0x10, 0x118(%rsp) movq 0x40(%r14), %rax testq %rax, %rax movq %r9, 0x2a0(%rsp) je 0x1d00a1b leaq 0xf0(%rsp), %rdi vzeroupper callq *%rax movq 0x2a0(%rsp), %r9 vmovaps 0x220(%rsp), %xmm8 vmovaps 0x280(%rsp), %xmm26 vmovaps 0x160(%rsp), %ymm29 vmovaps 0x180(%rsp), %ymm28 vmovaps 0x140(%rsp), %ymm17 vmovaps 0x240(%rsp), %ymm18 vmovaps 0x260(%rsp), %ymm22 movl 0x3c(%rsp), %edi vmovaps 0x60(%rsp), %xmm7 vmovaps 0x1a0(%rsp), %ymm21 vmovaps 0x1c0(%rsp), %ymm20 vxorps %xmm27, %xmm27, %xmm27 leaq 0x428cf8(%rip), %rdx # 0x2129704 movq 0x40(%rsp), %rsi movq 0x48(%rsp), %r10 movq 0x50(%rsp), %r8 vmovdqa64 0x400(%rsp), %zmm0 vptestmd %zmm0, %zmm0, %k0 kortestw %k0, %k0 vmovaps 0xa0(%rsp), %ymm6 vmovaps 0x80(%rsp), %ymm3 je 0x1d00ba3 movq 0x10(%r10), %rcx movq 0x10(%rcx), %rax testq %rax, %rax je 0x1d00afc testb $0x2, (%rcx) jne 0x1d00a66 testb $0x40, 0x3e(%r14) je 0x1d00afc leaq 0xf0(%rsp), %rdi vzeroupper callq *%rax movq 0x2a0(%rsp), %r9 vmovaps 0x220(%rsp), %xmm8 vmovaps 0x280(%rsp), %xmm26 vmovaps 0x160(%rsp), %ymm29 vmovaps 0x180(%rsp), %ymm28 vmovaps 0x140(%rsp), %ymm17 vmovaps 0x240(%rsp), %ymm18 vmovaps 0x260(%rsp), %ymm22 movl 0x3c(%rsp), %edi vmovaps 0x60(%rsp), %xmm7 vmovaps 0x1a0(%rsp), %ymm21 vmovaps 0x80(%rsp), %ymm3 vmovaps 0x1c0(%rsp), %ymm20 vmovaps 0xa0(%rsp), %ymm6 vxorps %xmm27, %xmm27, %xmm27 leaq 0x428c17(%rip), %rdx # 0x2129704 movq 0x40(%rsp), %rsi movq 0x48(%rsp), %r10 movq 0x50(%rsp), %r8 vmovdqa64 0x400(%rsp), %zmm0 vptestmd %zmm0, %zmm0, %k1 kortestw %k1, %k1 je 0x1d00ba3 movq 0x108(%rsp), %rax movq 0x110(%rsp), %rcx vmovaps (%rcx), %zmm0 vmovups %zmm0, 0x300(%rax) {%k1} vmovaps 0x40(%rcx), %zmm0 vmovups %zmm0, 0x340(%rax) {%k1} vmovaps 0x80(%rcx), %zmm0 vmovups %zmm0, 0x380(%rax) {%k1} vmovaps 0xc0(%rcx), %zmm0 vmovups %zmm0, 0x3c0(%rax) {%k1} vmovaps 0x100(%rcx), %zmm0 vmovups %zmm0, 0x400(%rax) {%k1} vmovdqa64 0x140(%rcx), %zmm0 vmovdqu32 %zmm0, 0x440(%rax) {%k1} vmovdqa64 0x180(%rcx), %zmm0 vmovdqu32 %zmm0, 0x480(%rax) {%k1} vmovdqa64 0x1c0(%rcx), %zmm0 vmovdqa32 %zmm0, 0x4c0(%rax) {%k1} vmovdqa64 0x200(%rcx), %zmm0 vmovdqa32 %zmm0, 0x500(%rax) {%k1} jmp 0x1d00bb6 vmovd 0x540(%rsp), %xmm0 vmovd %xmm0, 0x200(%rsi,%r15,4) movl $0x1, %eax shlxl %r9d, %eax, %eax kmovd %eax, %k0 movzbl %r12b, %eax kmovd %eax, %k1 kandnb %k1, %k0, %k0 vcmpleps 0x200(%rsi,%r15,4){1to8}, %ymm3, %k1 kandb %k1, %k0, %k2 kmovd %k2, %r12d ktestb %k1, %k0 je 0x1d00c37 kmovd %r12d, %k1 vbroadcastss 0x1eae28(%rip), %ymm0 # 0x1eeba20 vblendmps %ymm3, %ymm0, %ymm0 {%k1} vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm0, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1] vminps %ymm2, %ymm1, %ymm1 vcmpeqps %ymm1, %ymm0, %k0 kmovd %k0, %eax andb %r12b, %al movzbl %al, %eax movzbl %r12b, %ecx cmovnel %eax, %ecx tzcntl %ecx, %r9d testb %r12b, %r12b jne 0x1d007c4 jmp 0x1cff7b5 leaq -0x28(%rbp), %rsp popq %rbx popq %r12 popq %r13 popq %r14 popq %r15 popq %rbp vzeroupper retq nop
/embree[P]embree/kernels/geometry/curveNi_intersector.h
void embree::avx512::CurveNiIntersector1<8>::intersect_t<embree::avx512::SweepCurve1Intersector1<embree::BSplineCurveT>, embree::avx512::Intersect1Epilog1<true>>(embree::avx512::CurvePrecalculations1 const&, embree::RayHitK<1>&, embree::RayQueryContext*, embree::CurveNi<8> const&)
static __forceinline void intersect_t(const Precalculations& pre, RayHit& ray, RayQueryContext* context, const Primitive& prim) { vfloat<M> tNear; vbool<M> valid = intersect(ray,prim,tNear); const size_t N = prim.N; size_t mask = movemask(valid); while (mask) { const size_t i = bscf(mask); STAT3(normal.trav_prims,1,1,1); const unsigned int geomID = prim.geomID(N); const unsigned int primID = prim.primID(N)[i]; const CurveGeometry* geom = context->scene->get<CurveGeometry>(geomID); Vec3ff a0,a1,a2,a3; geom->gather(a0,a1,a2,a3,geom->curve(primID)); size_t mask1 = mask; const size_t i1 = bscf(mask1); if (mask) { const unsigned int primID1 = prim.primID(N)[i1]; geom->prefetchL1_vertices(geom->curve(primID1)); if (mask1) { const size_t i2 = bsf(mask1); const unsigned int primID2 = prim.primID(N)[i2]; geom->prefetchL2_vertices(geom->curve(primID2)); } } Intersector().intersect(pre,ray,context,geom,primID,a0,a1,a2,a3,Epilog(ray,context,geomID,primID)); mask &= movemask(tNear <= vfloat<M>(ray.tfar)); } }
pushq %rbp movq %rsp, %rbp pushq %r15 pushq %r14 pushq %r13 pushq %r12 pushq %rbx andq $-0x20, %rsp subq $0x880, %rsp # imm = 0x880 movq %rcx, %r9 movzbl 0x1(%rcx), %ecx leaq (%rcx,%rcx,4), %rax leaq (%rax,%rax,4), %rdi vbroadcastss 0x12(%r9,%rdi), %xmm0 movq %rdx, %r13 movq %rsi, %r15 vmovaps (%rsi), %xmm1 vsubps 0x6(%r9,%rdi), %xmm1, %xmm1 vmulps %xmm1, %xmm0, %xmm3 vmulps 0x10(%rsi), %xmm0, %xmm0 vpmovsxbd 0x6(%r9,%rcx,4), %ymm1 vpmovsxbd 0x6(%r9,%rax), %ymm2 vcvtdq2ps %ymm1, %ymm5 vcvtdq2ps %ymm2, %ymm6 leaq (%rcx,%rcx,2), %rdx vpmovsxbd 0x6(%r9,%rdx,2), %ymm1 vcvtdq2ps %ymm1, %ymm4 leaq (%rcx,%rax,2), %rsi vpmovsxbd 0x6(%r9,%rsi), %ymm1 leal (,%rdx,4), %esi vpmovsxbd 0x6(%r9,%rsi), %ymm2 vcvtdq2ps %ymm1, %ymm7 vcvtdq2ps %ymm2, %ymm8 addq %rcx, %rsi vpmovsxbd 0x6(%r9,%rsi), %ymm1 vcvtdq2ps %ymm1, %ymm9 leaq (%rcx,%rcx,8), %rsi leal (%rsi,%rsi), %edi vpmovsxbd 0x6(%r9,%rdi), %ymm1 vcvtdq2ps %ymm1, %ymm10 addq %rcx, %rdi vpmovsxbd 0x6(%r9,%rdi), %ymm1 vcvtdq2ps %ymm1, %ymm11 shll $0x2, %eax vpmovsxbd 0x6(%r9,%rax), %ymm1 vcvtdq2ps %ymm1, %ymm12 vbroadcastss %xmm0, %ymm13 vbroadcastss 0x20f9ce(%rip), %ymm15 # 0x1f12704 vbroadcastss 0x21e19c(%rip), %ymm16 # 0x1f20edc vpermps %ymm0, %ymm15, %ymm14 vpermps %ymm0, %ymm16, %ymm0 vmulps %ymm4, %ymm0, %ymm2 vmulps %ymm0, %ymm9, %ymm1 vmulps %ymm0, %ymm12, %ymm0 vfmadd231ps %ymm6, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm6) + ymm2 vfmadd231ps %ymm8, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm8) + ymm1 vfmadd231ps %ymm14, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm14) + ymm0 vfmadd231ps %ymm5, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm5) + ymm2 vfmadd231ps %ymm7, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm7) + ymm1 vfmadd231ps %ymm13, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm13) + ymm0 vbroadcastss %xmm3, %ymm13 vpermps %ymm3, %ymm15, %ymm14 vpermps %ymm3, %ymm16, %ymm3 vmulps %ymm4, %ymm3, %ymm15 vmulps %ymm3, %ymm9, %ymm4 vmulps %ymm3, %ymm12, %ymm3 vfmadd231ps %ymm6, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm6) + ymm15 vfmadd231ps %ymm8, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm8) + ymm4 vfmadd231ps %ymm11, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm11) + ymm3 vfmadd231ps %ymm5, %ymm13, %ymm15 # ymm15 = (ymm13 * ymm5) + ymm15 vfmadd231ps %ymm7, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm7) + ymm4 vbroadcastss 0x21e111(%rip), %ymm6 # 0x1f20ec4 vfmadd231ps %ymm10, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm10) + ymm3 vandps %ymm6, %ymm2, %ymm5 vbroadcastss 0x1ee223(%rip), %ymm7 # 0x1ef0fe8 vcmpltps %ymm7, %ymm5, %k1 vmovaps %ymm7, %ymm2 {%k1} vandps %ymm6, %ymm1, %ymm5 vcmpltps %ymm7, %ymm5, %k1 vmovaps %ymm7, %ymm1 {%k1} vandps %ymm6, %ymm0, %ymm5 vcmpltps %ymm7, %ymm5, %k1 vmovaps %ymm7, %ymm0 {%k1} vrcp14ps %ymm2, %ymm5 vbroadcastss 0x1e9911(%rip), %ymm6 # 0x1eec714 vfnmadd213ps %ymm6, %ymm5, %ymm2 # ymm2 = -(ymm5 * ymm2) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm2 # ymm2 = (ymm2 * ymm5) + ymm5 vrcp14ps %ymm1, %ymm5 vfnmadd213ps %ymm6, %ymm5, %ymm1 # ymm1 = -(ymm5 * ymm1) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm1 # ymm1 = (ymm1 * ymm5) + ymm5 vrcp14ps %ymm0, %ymm5 vfnmadd213ps %ymm6, %ymm5, %ymm0 # ymm0 = -(ymm5 * ymm0) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm0 # ymm0 = (ymm0 * ymm5) + ymm5 leaq (,%rcx,8), %rdi subq %rcx, %rdi vpmovsxwd 0x6(%r9,%rdi), %ymm5 vcvtdq2ps %ymm5, %ymm5 vsubps %ymm15, %ymm5, %ymm5 vmulps %ymm5, %ymm2, %ymm5 vpmovsxwd 0x6(%r9,%rsi), %ymm6 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm15, %ymm6, %ymm6 leaq (%rcx,%rcx), %rsi addq %rcx, %rax shlq $0x3, %rdx subq %rcx, %rdx vpbroadcastd %ecx, %ymm7 shll $0x4, %ecx vpmovsxwd 0x6(%r9,%rcx), %ymm8 vmulps %ymm6, %ymm2, %ymm2 subq %rsi, %rcx vpmovsxwd 0x6(%r9,%rcx), %ymm6 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm4, %ymm6, %ymm6 vmulps %ymm6, %ymm1, %ymm6 vcvtdq2ps %ymm8, %ymm8 vsubps %ymm4, %ymm8, %ymm4 vmulps %ymm4, %ymm1, %ymm1 vpmovsxwd 0x6(%r9,%rax), %ymm4 vcvtdq2ps %ymm4, %ymm4 vsubps %ymm3, %ymm4, %ymm4 vmulps %ymm0, %ymm4, %ymm4 vpmovsxwd 0x6(%r9,%rdx), %ymm8 vcvtdq2ps %ymm8, %ymm8 vsubps %ymm3, %ymm8, %ymm3 vmulps %ymm3, %ymm0, %ymm0 vpminsd %ymm2, %ymm5, %ymm3 vpminsd %ymm1, %ymm6, %ymm8 vmaxps %ymm8, %ymm3, %ymm3 vpminsd %ymm0, %ymm4, %ymm8 vmaxps 0xc(%r15){1to8}, %ymm8, %ymm8 vmaxps %ymm8, %ymm3, %ymm3 vmulps 0x21d01e(%rip){1to8}, %ymm3, %ymm3 # 0x1f1ff10 vpmaxsd %ymm2, %ymm5, %ymm2 vpmaxsd %ymm1, %ymm6, %ymm1 vminps %ymm1, %ymm2, %ymm1 vpmaxsd %ymm0, %ymm4, %ymm0 vminps 0x20(%r15){1to8}, %ymm0, %ymm0 vminps %ymm0, %ymm1, %ymm0 vmulps 0x21cffa(%rip){1to8}, %ymm0, %ymm0 # 0x1f1ff14 vpcmpgtd 0x2579fc(%rip), %ymm7, %k0 # 0x1f5a920 vmovaps %ymm3, 0x500(%rsp) vcmpleps %ymm0, %ymm3, %k1 ktestb %k0, %k1 je 0x1d05586 kandb %k0, %k1, %k0 kmovd %k0, %eax movzbl %al, %r10d vxorps %xmm12, %xmm12, %xmm12 movq %r13, 0x10(%rsp) movq %r9, 0x188(%rsp) tzcntq %r10, %rax movl 0x2(%r9), %ecx movl 0x6(%r9,%rax,4), %edi movq (%r13), %rax movq 0x1e8(%rax), %rax movq %rcx, 0x38(%rsp) movq (%rax,%rcx,8), %rsi movq 0x58(%rsi), %rax movq 0x68(%rsi), %rcx movq %rcx, %rdx movq %rdi, 0x78(%rsp) imulq %rdi, %rdx movl (%rax,%rdx), %edi movq 0xa0(%rsi), %rdx movq %rdx, %r8 imulq %rdi, %r8 movq 0x90(%rsi), %rsi vmovaps (%rsi,%r8), %xmm1 leaq 0x1(%rdi), %r8 imulq %rdx, %r8 vmovaps (%rsi,%r8), %xmm0 leaq 0x2(%rdi), %r8 imulq %rdx, %r8 vmovaps (%rsi,%r8), %xmm3 blsrq %r10, %r10 addq $0x3, %rdi imulq %rdx, %rdi vmovaps (%rsi,%rdi), %xmm2 movq %r10, %rdi subq $0x1, %rdi jb 0x1d0302e andq %r10, %rdi tzcntq %r10, %r8 movl 0x6(%r9,%r8,4), %r8d imulq %rcx, %r8 movl (%rax,%r8), %r8d imulq %rdx, %r8 prefetcht0 (%rsi,%r8) prefetcht0 0x40(%rsi,%r8) testq %rdi, %rdi je 0x1d0302e tzcntq %rdi, %rdi movl 0x6(%r9,%rdi,4), %edi imulq %rdi, %rcx movl (%rax,%rcx), %eax imulq %rax, %rdx prefetcht1 (%rsi,%rdx) prefetcht1 0x40(%rsi,%rdx) vaddps %xmm0, %xmm1, %xmm4 vaddps %xmm3, %xmm4, %xmm4 vaddps %xmm2, %xmm4, %xmm5 vmovaps (%r15), %xmm6 vmovaps 0x10(%r15), %xmm4 vmulps 0x21a2ad(%rip){1to4}, %xmm5, %xmm5 # 0x1f1d2fc vsubps %xmm6, %xmm5, %xmm5 vdpps $0x7f, %xmm4, %xmm5, %xmm5 vdpps $0x7f, %xmm4, %xmm4, %xmm7 vmovss %xmm7, %xmm12, %xmm8 # xmm8 = xmm7[0],xmm12[1,2,3] vrcp14ss %xmm8, %xmm12, %xmm8 vmovaps %xmm8, %xmm9 vfnmadd213ss 0x1edf81(%rip), %xmm7, %xmm9 # xmm9 = -(xmm7 * xmm9) + mem vmulss %xmm9, %xmm8, %xmm7 vmulss %xmm7, %xmm5, %xmm5 vmovaps %xmm5, 0x2b0(%rsp) vbroadcastss %xmm5, %ymm7 vfmadd231ps %xmm7, %xmm4, %xmm6 # xmm6 = (xmm4 * xmm7) + xmm6 vblendps $0x8, %xmm12, %xmm6, %xmm5 # xmm5 = xmm6[0,1,2],xmm12[3] vsubps %xmm5, %xmm1, %xmm6 vbroadcastss 0x10(%r15), %ymm8 vsubps %xmm5, %xmm3, %xmm3 vbroadcastss 0x14(%r15), %ymm9 vbroadcastss 0x18(%r15), %ymm1 vmovaps %ymm1, 0x360(%rsp) vsubps %xmm5, %xmm0, %xmm10 vsubps %xmm5, %xmm2, %xmm5 vbroadcastss %xmm6, %ymm0 vmovaps %ymm0, 0x720(%rsp) vbroadcastss 0x20f629(%rip), %ymm0 # 0x1f12704 vpermps %ymm6, %ymm0, %ymm1 vmovaps %ymm1, 0x700(%rsp) vbroadcastss 0x21ddea(%rip), %ymm1 # 0x1f20edc vpermps %ymm6, %ymm1, %ymm2 vmovaps %ymm2, 0x6e0(%rsp) vbroadcastss 0x21ddcf(%rip), %ymm2 # 0x1f20ed8 vmovaps %ymm6, 0x240(%rsp) vpermps %ymm6, %ymm2, %ymm6 vmovaps %ymm6, 0x6c0(%rsp) vbroadcastss %xmm10, %ymm6 vmovaps %ymm6, 0x6a0(%rsp) vpermps %ymm10, %ymm0, %ymm6 vmovaps %ymm6, 0x680(%rsp) vpermps %ymm10, %ymm1, %ymm6 vmovaps %ymm6, 0x660(%rsp) vmovaps %ymm10, 0x200(%rsp) vpermps %ymm10, %ymm2, %ymm6 vmovaps %ymm6, 0x640(%rsp) vbroadcastss %xmm3, %ymm6 vmovaps %ymm6, 0x620(%rsp) vpermps %ymm3, %ymm0, %ymm6 vmovaps %ymm6, 0x600(%rsp) vpermps %ymm3, %ymm1, %ymm6 vmovaps %ymm6, 0x5e0(%rsp) vmovaps %ymm3, 0x220(%rsp) vpermps %ymm3, %ymm2, %ymm3 vmovaps %ymm3, 0x5c0(%rsp) vbroadcastss %xmm5, %ymm3 vmovaps %ymm3, 0x5a0(%rsp) vpermps %ymm5, %ymm0, %ymm0 vmovaps %ymm0, 0x580(%rsp) vpermps %ymm5, %ymm1, %ymm0 vmovaps %ymm0, 0x560(%rsp) vmovaps %ymm5, 0x1e0(%rsp) vpermps %ymm5, %ymm2, %ymm0 vmovaps %ymm0, 0x540(%rsp) vmulps %xmm4, %xmm4, %xmm0 vpermps %ymm0, %ymm1, %ymm0 vmovaps %ymm9, 0x380(%rsp) vfmadd231ps %ymm9, %ymm9, %ymm0 # ymm0 = (ymm9 * ymm9) + ymm0 vmovaps %ymm8, 0x3a0(%rsp) vfmadd231ps %ymm8, %ymm8, %ymm0 # ymm0 = (ymm8 * ymm8) + ymm0 vmovaps %ymm0, 0x520(%rsp) vandps 0x21dca9(%rip){1to8}, %ymm0, %ymm0 # 0x1f20ec4 vmovaps %ymm0, 0x440(%rsp) movl $0x1, %r11d xorl %r8d, %r8d vmovsd 0x1e94bb(%rip), %xmm4 # 0x1eec6f0 vbroadcastss 0x1e94d6(%rip), %ymm3 # 0x1eec714 vmovaps %ymm7, 0x260(%rsp) vmovshdup %xmm4, %xmm0 # xmm0 = xmm4[1,1,3,3] vsubss %xmm4, %xmm0, %xmm0 vmulss 0x21dc79(%rip), %xmm0, %xmm6 # 0x1f20ed0 vmovaps %xmm4, 0x140(%rsp) vbroadcastss %xmm4, %ymm4 vbroadcastss %xmm0, %ymm0 vmovaps %ymm4, 0xa0(%rsp) vmovaps %ymm0, 0x40(%rsp) vfmadd231ps 0x21dc9e(%rip), %ymm0, %ymm4 # ymm4 = (ymm0 * mem) + ymm4 vsubps %ymm4, %ymm3, %ymm7 vmulps %ymm7, %ymm7, %ymm8 vmulps %ymm7, %ymm8, %ymm0 vbroadcastss 0x1e98f4(%rip), %ymm30 # 0x1eecb8c vmulps %ymm30, %ymm0, %ymm1 vmulps %ymm4, %ymm4, %ymm9 vmulps %ymm4, %ymm9, %ymm2 vaddps %ymm1, %ymm2, %ymm1 vmulps %ymm7, %ymm4, %ymm10 vmulps %ymm7, %ymm10, %ymm5 vbroadcastss 0x1edd41(%rip), %ymm14 # 0x1ef0ffc vmulps %ymm5, %ymm14, %ymm11 vmulps %ymm4, %ymm10, %ymm12 vbroadcastss 0x1edd28(%rip), %ymm15 # 0x1ef0ff4 vmulps %ymm15, %ymm12, %ymm13 vaddps %ymm13, %ymm11, %ymm11 vaddps %ymm1, %ymm11, %ymm1 vmulps %ymm30, %ymm2, %ymm11 vaddps %ymm0, %ymm11, %ymm11 vmulps %ymm14, %ymm12, %ymm12 vmulps %ymm5, %ymm15, %ymm5 vaddps %ymm5, %ymm12, %ymm5 vaddps %ymm5, %ymm11, %ymm5 vbroadcastss 0x1edd02(%rip), %ymm14 # 0x1ef1000 vmulps %ymm0, %ymm14, %ymm11 vmulps %ymm1, %ymm14, %ymm12 vmulps %ymm5, %ymm14, %ymm13 vmulps %ymm2, %ymm14, %ymm5 vmovaps 0x5a0(%rsp), %ymm27 vmulps %ymm5, %ymm27, %ymm2 vmovaps 0x580(%rsp), %ymm28 vmulps %ymm5, %ymm28, %ymm1 vmovaps 0x560(%rsp), %ymm29 vmulps %ymm5, %ymm29, %ymm0 vmovaps 0x540(%rsp), %ymm31 vmulps %ymm5, %ymm31, %ymm5 vmovaps 0x620(%rsp), %ymm22 vfmadd231ps %ymm22, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm22) + ymm2 vmovaps 0x600(%rsp), %ymm23 vfmadd231ps %ymm23, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm23) + ymm1 vmovaps 0x5e0(%rsp), %ymm24 vfmadd231ps %ymm24, %ymm13, %ymm0 # ymm0 = (ymm13 * ymm24) + ymm0 vmovaps 0x5c0(%rsp), %ymm25 vfmadd231ps %ymm13, %ymm25, %ymm5 # ymm5 = (ymm25 * ymm13) + ymm5 vmovaps 0x6a0(%rsp), %ymm18 vfmadd231ps %ymm18, %ymm12, %ymm2 # ymm2 = (ymm12 * ymm18) + ymm2 vmovaps 0x680(%rsp), %ymm19 vfmadd231ps %ymm19, %ymm12, %ymm1 # ymm1 = (ymm12 * ymm19) + ymm1 vmovaps 0x660(%rsp), %ymm20 vfmadd231ps %ymm20, %ymm12, %ymm0 # ymm0 = (ymm12 * ymm20) + ymm0 vmovaps 0x640(%rsp), %ymm21 vfmadd231ps %ymm12, %ymm21, %ymm5 # ymm5 = (ymm21 * ymm12) + ymm5 vmovaps 0x720(%rsp), %ymm14 vfmadd231ps %ymm14, %ymm11, %ymm2 # ymm2 = (ymm11 * ymm14) + ymm2 vmovaps 0x700(%rsp), %ymm15 vfmadd231ps %ymm15, %ymm11, %ymm1 # ymm1 = (ymm11 * ymm15) + ymm1 vmovaps 0x6e0(%rsp), %ymm16 vfmadd231ps %ymm16, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm16) + ymm0 vmovaps 0x6c0(%rsp), %ymm17 vfmadd231ps %ymm11, %ymm17, %ymm5 # ymm5 = (ymm17 * ymm11) + ymm5 vbroadcastss 0x21dac8(%rip), %ymm26 # 0x1f20ec0 vxorps %ymm26, %ymm7, %ymm11 vmulps %ymm7, %ymm11, %ymm7 vxorps %ymm26, %ymm4, %ymm11 vmulps %ymm4, %ymm11, %ymm4 vmulps %ymm30, %ymm10, %ymm10 vsubps %ymm10, %ymm4, %ymm4 vaddps %ymm10, %ymm8, %ymm8 vbroadcastss 0x1e975b(%rip), %ymm10 # 0x1eecb80 vmulps %ymm7, %ymm10, %ymm7 vmulps %ymm4, %ymm10, %ymm4 vmulps %ymm10, %ymm8, %ymm8 vmulps %ymm10, %ymm9, %ymm9 vmulps %ymm9, %ymm27, %ymm10 vmulps %ymm9, %ymm28, %ymm12 vmulps %ymm9, %ymm29, %ymm13 vmulps %ymm9, %ymm31, %ymm9 vfmadd231ps %ymm22, %ymm8, %ymm10 # ymm10 = (ymm8 * ymm22) + ymm10 vfmadd231ps %ymm23, %ymm8, %ymm12 # ymm12 = (ymm8 * ymm23) + ymm12 vfmadd231ps %ymm24, %ymm8, %ymm13 # ymm13 = (ymm8 * ymm24) + ymm13 vfmadd231ps %ymm8, %ymm25, %ymm9 # ymm9 = (ymm25 * ymm8) + ymm9 vfmadd231ps %ymm18, %ymm4, %ymm10 # ymm10 = (ymm4 * ymm18) + ymm10 vfmadd231ps %ymm19, %ymm4, %ymm12 # ymm12 = (ymm4 * ymm19) + ymm12 vfmadd231ps %ymm20, %ymm4, %ymm13 # ymm13 = (ymm4 * ymm20) + ymm13 vfmadd231ps %ymm4, %ymm21, %ymm9 # ymm9 = (ymm21 * ymm4) + ymm9 vfmadd231ps %ymm14, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm14) + ymm10 vfmadd231ps %ymm15, %ymm7, %ymm12 # ymm12 = (ymm7 * ymm15) + ymm12 vfmadd231ps %ymm16, %ymm7, %ymm13 # ymm13 = (ymm7 * ymm16) + ymm13 vfmadd231ps %ymm7, %ymm17, %ymm9 # ymm9 = (ymm17 * ymm7) + ymm9 vbroadcastss %xmm6, %ymm4 vmulps %ymm4, %ymm10, %ymm11 vmulps %ymm4, %ymm12, %ymm12 vmulps %ymm4, %ymm13, %ymm13 vmulps %ymm4, %ymm9, %ymm6 vmovaps %ymm2, %ymm8 vmovaps 0x25c86a(%rip), %ymm7 # 0x1f5fd20 vxorps %xmm31, %xmm31, %xmm31 vpermt2ps %ymm31, %ymm7, %ymm8 vmovaps %ymm1, %ymm9 vpermt2ps %ymm31, %ymm7, %ymm9 vmovaps %ymm0, %ymm10 vpermt2ps %ymm31, %ymm7, %ymm10 vaddps %ymm5, %ymm6, %ymm4 vmaxps %ymm4, %ymm5, %ymm14 vminps %ymm4, %ymm5, %ymm4 vmovaps %ymm5, %ymm15 vpermt2ps %ymm31, %ymm7, %ymm15 vmovaps %ymm11, %ymm19 vpermt2ps %ymm31, %ymm7, %ymm19 vmovaps %ymm12, %ymm20 vpermt2ps %ymm31, %ymm7, %ymm20 vmovaps %ymm13, %ymm21 vpermt2ps %ymm31, %ymm7, %ymm21 vpermt2ps %ymm31, %ymm7, %ymm6 vsubps %ymm6, %ymm15, %ymm16 vsubps %ymm2, %ymm8, %ymm7 vsubps %ymm1, %ymm9, %ymm6 vsubps %ymm0, %ymm10, %ymm5 vmulps %ymm13, %ymm6, %ymm17 vfmsub231ps %ymm5, %ymm12, %ymm17 # ymm17 = (ymm12 * ymm5) - ymm17 vmulps %ymm11, %ymm5, %ymm18 vfmsub231ps %ymm7, %ymm13, %ymm18 # ymm18 = (ymm13 * ymm7) - ymm18 vmulps %ymm12, %ymm7, %ymm22 vfmsub231ps %ymm6, %ymm11, %ymm22 # ymm22 = (ymm11 * ymm6) - ymm22 vmulps %ymm22, %ymm22, %ymm22 vfmadd231ps %ymm18, %ymm18, %ymm22 # ymm22 = (ymm18 * ymm18) + ymm22 vfmadd231ps %ymm17, %ymm17, %ymm22 # ymm22 = (ymm17 * ymm17) + ymm22 vmulps %ymm5, %ymm5, %ymm17 vfmadd231ps %ymm6, %ymm6, %ymm17 # ymm17 = (ymm6 * ymm6) + ymm17 vfmadd231ps %ymm7, %ymm7, %ymm17 # ymm17 = (ymm7 * ymm7) + ymm17 vrcp14ps %ymm17, %ymm18 vmovaps %ymm18, %ymm23 vfnmadd213ps %ymm3, %ymm17, %ymm23 # ymm23 = -(ymm17 * ymm23) + ymm3 vfmadd132ps %ymm18, %ymm18, %ymm23 # ymm23 = (ymm23 * ymm18) + ymm18 vmulps %ymm23, %ymm22, %ymm18 vmulps %ymm21, %ymm6, %ymm22 vfmsub231ps %ymm5, %ymm20, %ymm22 # ymm22 = (ymm20 * ymm5) - ymm22 vmulps %ymm19, %ymm5, %ymm24 vfmsub231ps %ymm7, %ymm21, %ymm24 # ymm24 = (ymm21 * ymm7) - ymm24 vmulps %ymm20, %ymm7, %ymm25 vfmsub231ps %ymm6, %ymm19, %ymm25 # ymm25 = (ymm19 * ymm6) - ymm25 vmulps %ymm25, %ymm25, %ymm25 vfmadd231ps %ymm24, %ymm24, %ymm25 # ymm25 = (ymm24 * ymm24) + ymm25 vfmadd231ps %ymm22, %ymm22, %ymm25 # ymm25 = (ymm22 * ymm22) + ymm25 vmulps %ymm23, %ymm25, %ymm22 vmaxps %ymm22, %ymm18, %ymm18 vsqrtps %ymm18, %ymm18 vmaxps %ymm15, %ymm16, %ymm22 vmaxps %ymm22, %ymm14, %ymm14 vaddps %ymm14, %ymm18, %ymm14 vminps %ymm15, %ymm16, %ymm15 vminps %ymm15, %ymm4, %ymm4 vsubps %ymm18, %ymm4, %ymm4 vmulps 0x1ed33d(%rip){1to8}, %ymm14, %ymm14 # 0x1ef0940 vmulps 0x1ed337(%rip){1to8}, %ymm4, %ymm4 # 0x1ef0944 vmovaps %ymm4, 0x1c0(%rsp) vmulps %ymm14, %ymm14, %ymm4 vrsqrt14ps %ymm17, %ymm15 vmulps 0x1e90f1(%rip){1to8}, %ymm17, %ymm14 # 0x1eec71c vmulps %ymm14, %ymm15, %ymm14 vmulps %ymm15, %ymm15, %ymm16 vmulps %ymm14, %ymm16, %ymm14 vfmadd231ps 0x1e90d2(%rip){1to8}, %ymm15, %ymm14 # ymm14 = (ymm15 * mem) + ymm14 vmulps %ymm7, %ymm14, %ymm15 vmulps %ymm14, %ymm6, %ymm16 vmulps %ymm14, %ymm5, %ymm18 vsubps %ymm2, %ymm31, %ymm27 vsubps %ymm1, %ymm31, %ymm28 vsubps %ymm0, %ymm31, %ymm29 vmovaps 0x360(%rsp), %ymm17 vmulps %ymm29, %ymm17, %ymm22 vmovaps 0x380(%rsp), %ymm25 vfmadd231ps %ymm28, %ymm25, %ymm22 # ymm22 = (ymm25 * ymm28) + ymm22 vmovaps 0x3a0(%rsp), %ymm23 vfmadd231ps %ymm27, %ymm23, %ymm22 # ymm22 = (ymm23 * ymm27) + ymm22 vmulps %ymm29, %ymm29, %ymm24 vfmadd231ps %ymm28, %ymm28, %ymm24 # ymm24 = (ymm28 * ymm28) + ymm24 vfmadd231ps %ymm27, %ymm27, %ymm24 # ymm24 = (ymm27 * ymm27) + ymm24 vmulps %ymm18, %ymm17, %ymm17 vfmadd231ps %ymm25, %ymm16, %ymm17 # ymm17 = (ymm16 * ymm25) + ymm17 vfmadd231ps %ymm23, %ymm15, %ymm17 # ymm17 = (ymm15 * ymm23) + ymm17 vmulps %ymm18, %ymm29, %ymm18 vfmadd231ps %ymm16, %ymm28, %ymm18 # ymm18 = (ymm28 * ymm16) + ymm18 vfmadd231ps %ymm15, %ymm27, %ymm18 # ymm18 = (ymm27 * ymm15) + ymm18 vmulps %ymm17, %ymm17, %ymm26 vmovaps 0x520(%rsp), %ymm15 vsubps %ymm26, %ymm15, %ymm15 vmulps %ymm18, %ymm17, %ymm25 vsubps %ymm25, %ymm22, %ymm22 vaddps %ymm22, %ymm22, %ymm22 vmulps %ymm18, %ymm18, %ymm25 vsubps %ymm25, %ymm24, %ymm25 vsubps %ymm4, %ymm25, %ymm4 vmulps %ymm22, %ymm22, %ymm16 vmulps %ymm30, %ymm15, %ymm24 vmulps %ymm4, %ymm24, %ymm30 vmovaps %ymm16, 0x1a0(%rsp) vsubps %ymm30, %ymm16, %ymm30 vcmpnltps %ymm31, %ymm30, %k1 kmovd %k1, %eax kortestb %k1, %k1 je 0x1d03819 vsqrtps %ymm30, %ymm30 vaddps %ymm15, %ymm15, %ymm31 vmovaps %ymm3, %ymm16 vrcp14ps %ymm31, %ymm3 vfnmadd213ps %ymm16, %ymm3, %ymm31 # ymm31 = -(ymm3 * ymm31) + ymm16 vfmadd132ps %ymm3, %ymm3, %ymm31 # ymm31 = (ymm31 * ymm3) + ymm3 vxorps 0x21d75c(%rip){1to8}, %ymm22, %ymm3 # 0x1f20ec0 vsubps %ymm30, %ymm3, %ymm3 vmulps %ymm31, %ymm3, %ymm3 vsubps %ymm22, %ymm30, %ymm30 vmulps %ymm31, %ymm30, %ymm30 vmovaps %ymm17, %ymm31 vfmadd213ps %ymm18, %ymm3, %ymm31 # ymm31 = (ymm3 * ymm31) + ymm18 vmulps %ymm31, %ymm14, %ymm31 vmovaps %ymm31, 0x400(%rsp) vmovaps %ymm17, %ymm31 vfmadd213ps %ymm18, %ymm30, %ymm31 # ymm31 = (ymm30 * ymm31) + ymm18 vmulps %ymm31, %ymm14, %ymm31 vmovaps %ymm31, 0x3e0(%rsp) vbroadcastss 0x1e8266(%rip), %ymm16 # 0x1eeba20 vblendmps %ymm3, %ymm16, %ymm31 {%k1} vbroadcastss 0x1e93bb(%rip), %ymm3 # 0x1eecb84 vblendmps %ymm30, %ymm3, %ymm30 {%k1} vbroadcastss 0x21d6eb(%rip), %ymm23 # 0x1f20ec4 vandps %ymm23, %ymm26, %ymm3 vmovaps 0x440(%rsp), %ymm16 vmaxps %ymm3, %ymm16, %ymm3 vmulps 0x1ee6bd(%rip){1to8}, %ymm3, %ymm3 # 0x1ef1eb4 vandps %ymm23, %ymm15, %ymm23 vcmpltps %ymm3, %ymm23, %k1 {%k1} kortestb %k1, %k1 jne 0x1d0551b vbroadcastss 0x1e8efd(%rip), %ymm3 # 0x1eec714 jmp 0x1d0382d vbroadcastss 0x1e81fd(%rip), %ymm31 # 0x1eeba20 vbroadcastss 0x1e9357(%rip), %ymm30 # 0x1eecb84 andb $0x7f, %al je 0x1d03c59 vmovaps %ymm25, 0x80(%rsp) vmovaps %ymm26, 0x280(%rsp) vmovaps %ymm3, %ymm16 vmovss 0xc(%r15), %xmm3 vmovss 0x20(%r15), %xmm4 vmovaps 0x2b0(%rsp), %xmm23 vsubss %xmm23, %xmm3, %xmm3 vbroadcastss %xmm3, %ymm3 vmaxps %ymm31, %ymm3, %ymm3 vsubss %xmm23, %xmm4, %xmm4 vbroadcastss %xmm4, %ymm4 vminps %ymm30, %ymm4, %ymm4 vmulps %ymm29, %ymm13, %ymm23 vfmadd213ps %ymm23, %ymm12, %ymm28 # ymm28 = (ymm12 * ymm28) + ymm23 vfmadd213ps %ymm28, %ymm11, %ymm27 # ymm27 = (ymm11 * ymm27) + ymm28 vmovaps 0x360(%rsp), %ymm25 vmulps %ymm13, %ymm25, %ymm13 vmovaps 0x380(%rsp), %ymm31 vfmadd231ps %ymm12, %ymm31, %ymm13 # ymm13 = (ymm31 * ymm12) + ymm13 vmovaps 0x3a0(%rsp), %ymm30 vfmadd231ps %ymm11, %ymm30, %ymm13 # ymm13 = (ymm30 * ymm11) + ymm13 vbroadcastss 0x21d5fd(%rip), %ymm28 # 0x1f20ec4 vandps %ymm28, %ymm13, %ymm11 vbroadcastss 0x1ed711(%rip), %ymm29 # 0x1ef0fe8 vcmpltps %ymm29, %ymm11, %k0 vbroadcastss 0x21d5d8(%rip), %ymm26 # 0x1f20ec0 vxorps %ymm26, %ymm27, %ymm11 vrcp14ps %ymm13, %ymm12 vxorps %ymm26, %ymm13, %ymm23 vmovaps %ymm12, %ymm27 vfnmadd213ps %ymm16, %ymm13, %ymm27 # ymm27 = -(ymm13 * ymm27) + ymm16 vfmadd132ps %ymm12, %ymm12, %ymm27 # ymm27 = (ymm27 * ymm12) + ymm12 vmulps %ymm11, %ymm27, %ymm11 vcmpltps %ymm23, %ymm13, %k1 korb %k1, %k0, %k1 vbroadcastss 0x1e925d(%rip), %ymm27 # 0x1eecb84 vblendmps %ymm27, %ymm11, %ymm12 {%k1} vmaxps %ymm12, %ymm3, %ymm3 vcmpnleps %ymm23, %ymm13, %k1 korb %k1, %k0, %k1 vbroadcastss 0x1e80d9(%rip), %ymm23 # 0x1eeba20 vmovaps %ymm23, %ymm11 {%k1} vminps %ymm11, %ymm4, %ymm4 vxorps %xmm13, %xmm13, %xmm13 vsubps %ymm8, %ymm13, %ymm8 vsubps %ymm9, %ymm13, %ymm9 vsubps %ymm10, %ymm13, %ymm10 vmulps %ymm21, %ymm10, %ymm10 vfnmsub231ps %ymm9, %ymm20, %ymm10 # ymm10 = -(ymm20 * ymm9) - ymm10 vfnmadd231ps %ymm8, %ymm19, %ymm10 # ymm10 = -(ymm19 * ymm8) + ymm10 vmulps %ymm21, %ymm25, %ymm8 vfnmsub231ps %ymm20, %ymm31, %ymm8 # ymm8 = -(ymm31 * ymm20) - ymm8 vfnmadd231ps %ymm19, %ymm30, %ymm8 # ymm8 = -(ymm30 * ymm19) + ymm8 vandps %ymm28, %ymm8, %ymm9 vcmpltps %ymm29, %ymm9, %k0 vxorps %ymm26, %ymm10, %ymm9 vrcp14ps %ymm8, %ymm10 vxorps %ymm26, %ymm8, %ymm11 vmovaps %ymm10, %ymm12 vfnmadd213ps %ymm16, %ymm8, %ymm12 # ymm12 = -(ymm8 * ymm12) + ymm16 vfmadd132ps %ymm10, %ymm10, %ymm12 # ymm12 = (ymm12 * ymm10) + ymm10 vmulps %ymm9, %ymm12, %ymm9 vcmpltps %ymm11, %ymm8, %k1 korb %k1, %k0, %k1 vblendmps %ymm27, %ymm9, %ymm10 {%k1} vmaxps %ymm10, %ymm3, %ymm3 vcmpnleps %ymm11, %ymm8, %k1 korb %k1, %k0, %k1 vmovaps %ymm23, %ymm9 {%k1} vminps %ymm9, %ymm4, %ymm8 vmovaps %ymm3, 0x320(%rsp) vcmpleps %ymm8, %ymm3, %k0 kmovd %k0, %ecx andb %cl, %al je 0x1d03c53 vmovaps 0x400(%rsp), %ymm3 vmaxps 0x1c0(%rsp), %ymm13, %ymm4 vminps %ymm16, %ymm3, %ymm3 vxorps %xmm10, %xmm10, %xmm10 vmaxps %ymm10, %ymm3, %ymm3 vmovaps 0x3e0(%rsp), %ymm9 vminps %ymm16, %ymm9, %ymm9 vmovaps 0x21d501(%rip), %ymm11 # 0x1f20f40 vaddps %ymm3, %ymm11, %ymm3 vbroadcastss 0x21aa6c(%rip), %ymm12 # 0x1f1e4b8 vmulps %ymm3, %ymm12, %ymm3 vmovaps 0xa0(%rsp), %ymm13 vmovaps 0x40(%rsp), %ymm19 vfmadd213ps %ymm13, %ymm19, %ymm3 # ymm3 = (ymm19 * ymm3) + ymm13 vmovaps %ymm3, 0x400(%rsp) vmaxps %ymm10, %ymm9, %ymm3 vaddps %ymm3, %ymm11, %ymm3 vmulps %ymm3, %ymm12, %ymm3 vfmadd213ps %ymm13, %ymm19, %ymm3 # ymm3 = (ymm19 * ymm3) + ymm13 vmovaps %ymm3, 0x3e0(%rsp) vmulps %ymm4, %ymm4, %ymm3 vmovaps 0x80(%rsp), %ymm4 vsubps %ymm3, %ymm4, %ymm11 vmulps %ymm11, %ymm24, %ymm3 vmovaps 0x1a0(%rsp), %ymm4 vsubps %ymm3, %ymm4, %ymm3 vcmpnltps %ymm10, %ymm3, %k0 kortestb %k0, %k0 vxorps %xmm4, %xmm4, %xmm4 movq %r8, 0xf8(%rsp) je 0x1d03d7b vxorps %xmm20, %xmm20, %xmm20 vcmpnltps %ymm4, %ymm3, %k1 vsqrtps %ymm3, %ymm3 vaddps %ymm15, %ymm15, %ymm4 vrcp14ps %ymm4, %ymm9 vfnmadd213ps %ymm16, %ymm9, %ymm4 # ymm4 = -(ymm9 * ymm4) + ymm16 vfmadd132ps %ymm9, %ymm9, %ymm4 # ymm4 = (ymm4 * ymm9) + ymm9 vxorps 0x21d3c2(%rip){1to8}, %ymm22, %ymm9 # 0x1f20ec0 vsubps %ymm3, %ymm9, %ymm9 vmulps %ymm4, %ymm9, %ymm12 vsubps %ymm22, %ymm3, %ymm3 vmulps %ymm4, %ymm3, %ymm13 vmovaps %ymm17, %ymm3 vfmadd213ps %ymm18, %ymm12, %ymm3 # ymm3 = (ymm12 * ymm3) + ymm18 vmulps %ymm3, %ymm14, %ymm9 vmovaps 0x3a0(%rsp), %ymm16 vmulps %ymm12, %ymm16, %ymm3 vmovaps 0x380(%rsp), %ymm21 vmulps %ymm12, %ymm21, %ymm4 vmovaps 0x360(%rsp), %ymm22 vmulps %ymm12, %ymm22, %ymm10 vmovaps %ymm7, %ymm19 vfmadd213ps %ymm2, %ymm9, %ymm19 # ymm19 = (ymm9 * ymm19) + ymm2 vsubps %ymm19, %ymm3, %ymm3 vmovaps %ymm6, %ymm19 vfmadd213ps %ymm1, %ymm9, %ymm19 # ymm19 = (ymm9 * ymm19) + ymm1 vsubps %ymm19, %ymm4, %ymm4 vfmadd213ps %ymm0, %ymm5, %ymm9 # ymm9 = (ymm5 * ymm9) + ymm0 vsubps %ymm9, %ymm10, %ymm9 vfmadd213ps %ymm18, %ymm13, %ymm17 # ymm17 = (ymm13 * ymm17) + ymm18 vmulps %ymm17, %ymm14, %ymm14 vmulps %ymm13, %ymm16, %ymm10 vmulps %ymm13, %ymm21, %ymm17 vmulps %ymm13, %ymm22, %ymm18 vfmadd213ps %ymm2, %ymm14, %ymm7 # ymm7 = (ymm14 * ymm7) + ymm2 vsubps %ymm7, %ymm10, %ymm10 vfmadd213ps %ymm1, %ymm14, %ymm6 # ymm6 = (ymm14 * ymm6) + ymm1 vsubps %ymm6, %ymm17, %ymm1 vfmadd213ps %ymm0, %ymm14, %ymm5 # ymm5 = (ymm14 * ymm5) + ymm0 vsubps %ymm5, %ymm18, %ymm5 vbroadcastss 0x1e7e62(%rip), %ymm0 # 0x1eeba20 vblendmps %ymm12, %ymm0, %ymm2 {%k1} vbroadcastss 0x1e8fb7(%rip), %ymm0 # 0x1eecb84 vblendmps %ymm13, %ymm0, %ymm0 {%k1} vbroadcastss 0x21d2e8(%rip), %ymm7 # 0x1f20ec4 vandps 0x280(%rsp), %ymm7, %ymm6 vmovaps 0x440(%rsp), %ymm12 vmaxps %ymm6, %ymm12, %ymm6 vmulps 0x1ee2b8(%rip){1to8}, %ymm6, %ymm6 # 0x1ef1eb4 vandps %ymm7, %ymm15, %ymm7 vcmpltps %ymm6, %ymm7, %k1 {%k1} kortestb %k1, %k1 je 0x1d03d9e vcmpleps %ymm20, %ymm11, %k2 vbroadcastss 0x1e8f63(%rip), %ymm7 # 0x1eecb84 vbroadcastss 0x1e7df6(%rip), %ymm11 # 0x1eeba20 vblendmps %ymm7, %ymm11, %ymm6 {%k2} vmovaps %ymm6, %ymm2 {%k1} vblendmps %ymm11, %ymm7, %ymm6 {%k2} vmovaps %ymm6, %ymm0 {%k1} knotb %k1, %k1 korb %k2, %k1, %k1 kandb %k0, %k1, %k0 jmp 0x1d03d9e vmovaps %ymm16, %ymm3 vxorps %xmm12, %xmm12, %xmm12 vmovaps 0x260(%rsp), %ymm7 vmovaps 0x140(%rsp), %xmm4 vbroadcastss 0x20(%r15), %ymm0 movl %r8d, %eax testl %eax, %eax je 0x1d05568 leal -0x1(%rax), %r8d leaq (%r8,%r8,2), %rcx shlq $0x5, %rcx movzbl 0x740(%rsp,%rcx), %esi vmovaps 0x760(%rsp,%rcx), %ymm1 vaddps %ymm1, %ymm7, %ymm2 vcmpleps %ymm0, %ymm2, %k0 kmovb %k0, %edx andl %esi, %edx je 0x1d03d6b kmovd %edx, %k1 vbroadcastss 0x1e7d5e(%rip), %ymm2 # 0x1eeba20 vblendmps %ymm1, %ymm2, %ymm1 {%k1} vshufps $0xb1, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2,5,4,7,6] vminps %ymm2, %ymm1, %ymm2 vshufpd $0x5, %ymm2, %ymm2, %ymm3 # ymm3 = ymm2[1,0,3,2] vminps %ymm3, %ymm2, %ymm2 vpermpd $0x4e, %ymm2, %ymm3 # ymm3 = ymm2[2,3,0,1] vminps %ymm3, %ymm2, %ymm2 vcmpeqps %ymm2, %ymm1, %k0 kmovd %k0, %esi andb %dl, %sil je 0x1d03cfa movzbl %sil, %edi jmp 0x1d03cfd movzbl %dl, %edi leaq (%rsp,%rcx), %rsi addq $0x740, %rsi # imm = 0x740 vmovss 0x44(%rsi), %xmm1 tzcntl %edi, %ecx movb $0x1, %dil shlb %cl, %dil movl 0x48(%rsi), %r11d movzbl %dil, %edi kmovd %edi, %k0 kmovd %edx, %k1 kandnb %k1, %k0, %k0 kmovb %k0, (%rsi) kortestb %k0, %k0 vbroadcastss 0x1e89d8(%rip), %ymm3 # 0x1eec714 je 0x1d03d41 movl %eax, %r8d vbroadcastss 0x40(%rsi), %ymm2 vsubss %xmm2, %xmm1, %xmm1 vbroadcastss %xmm1, %ymm1 vfmadd132ps 0x21d1c7(%rip), %ymm2, %ymm1 # ymm1 = (ymm1 * mem) + ymm2 vmovaps %ymm1, 0x460(%rsp) vmovsd 0x460(%rsp,%rcx,4), %xmm4 movl %r8d, %eax testb %dl, %dl je 0x1d03c79 jmp 0x1d03247 vxorps %xmm1, %xmm1, %xmm1 vxorps %xmm5, %xmm5, %xmm5 vxorps %xmm3, %xmm3, %xmm3 vxorps %xmm9, %xmm9, %xmm9 vbroadcastss 0x1e7c8b(%rip), %ymm2 # 0x1eeba20 vbroadcastss 0x1e8de6(%rip), %ymm0 # 0x1eecb84 vxorps %xmm12, %xmm12, %xmm12 vbroadcastss 0x21d118(%rip), %xmm13 # 0x1f20ec4 vbroadcastss 0x10(%r15), %ymm6 vbroadcastss 0x14(%r15), %ymm7 vbroadcastss 0x18(%r15), %ymm11 vmulps %ymm5, %ymm11, %ymm5 vfmadd231ps %ymm1, %ymm7, %ymm5 # ymm5 = (ymm7 * ymm1) + ymm5 vfmadd231ps %ymm10, %ymm6, %ymm5 # ymm5 = (ymm6 * ymm10) + ymm5 vmovaps 0x320(%rsp), %ymm14 vmovaps %ymm14, 0x460(%rsp) vminps %ymm2, %ymm8, %ymm1 vmovaps %ymm1, 0x480(%rsp) vbroadcastss 0x21d0d0(%rip), %ymm10 # 0x1f20ec4 vandps %ymm5, %ymm10, %ymm2 vmaxps %ymm0, %ymm14, %ymm5 vmovaps %ymm5, 0x4a0(%rsp) vmovaps %ymm8, 0x4c0(%rsp) vbroadcastss 0x21d0bd(%rip), %ymm0 # 0x1f20ed4 vcmpltps %ymm0, %ymm2, %k1 kmovd %k1, 0x13c(%rsp) vcmpleps %ymm1, %ymm14, %k1 kmovd %k1, %ecx andb %al, %cl vmovaps %ymm5, 0x340(%rsp) vcmpleps %ymm8, %ymm5, %k1 kmovd %k1, %edx andb %al, %dl movl %edx, %eax orb %cl, %al je 0x1d054ce vmovaps %ymm0, %ymm2 movl %edx, 0x18(%rsp) movq %r10, 0x198(%rsp) knotb %k0, %k1 vmulps %ymm11, %ymm9, %ymm0 vfmadd213ps %ymm0, %ymm7, %ymm4 # ymm4 = (ymm7 * ymm4) + ymm0 vfmadd213ps %ymm4, %ymm6, %ymm3 # ymm3 = (ymm6 * ymm3) + ymm4 vandps %ymm3, %ymm10, %ymm0 vcmpltps %ymm2, %ymm0, %k0 kmovd %k1, 0x134(%rsp) korb %k1, %k0, %k1 vpbroadcastd 0x21d042(%rip), %ymm0 # 0x1f20edc vpblendmd 0x21d034(%rip){1to8}, %ymm0, %ymm0 {%k1} # 0x1f20ed8 movq %r11, 0x190(%rsp) vpbroadcastd %r11d, %ymm1 vmovdqa %ymm0, 0x4e0(%rsp) vmovdqa %ymm1, 0x420(%rsp) vpcmpnltd %ymm0, %ymm1, %k0 kmovd %k0, %ebx movl %ecx, 0x138(%rsp) andb %cl, %bl je 0x1d04930 vmovaps 0x240(%rsp), %ymm1 vmovaps 0x200(%rsp), %ymm2 vminps %xmm2, %xmm1, %xmm0 vmaxps %xmm2, %xmm1, %xmm1 vmovaps 0x220(%rsp), %ymm3 vmovaps 0x1e0(%rsp), %ymm4 vminps %xmm4, %xmm3, %xmm2 vminps %xmm2, %xmm0, %xmm0 vmaxps %xmm4, %xmm3, %xmm2 vmaxps %xmm2, %xmm1, %xmm1 vandps %xmm0, %xmm13, %xmm0 vandps %xmm1, %xmm13, %xmm2 vmaxps %xmm2, %xmm0, %xmm0 vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3] vmaxss %xmm0, %xmm2, %xmm2 vshufpd $0x1, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[1,0] vmaxss %xmm2, %xmm0, %xmm0 vmulss 0x1edf75(%rip), %xmm0, %xmm0 # 0x1ef1eb4 vmovss %xmm0, 0x28(%rsp) vshufps $0xff, %xmm1, %xmm1, %xmm0 # xmm0 = xmm1[3,3,3,3] vmovaps %xmm0, 0x2a0(%rsp) vmovaps 0x320(%rsp), %ymm0 vaddps 0x260(%rsp), %ymm0, %ymm0 vmovaps %ymm0, 0x3c0(%rsp) kmovd %ebx, %k1 vbroadcastss 0x1e7aa5(%rip), %ymm0 # 0x1eeba20 vblendmps 0x320(%rsp), %ymm0, %ymm0 {%k1} vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm0, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1] vminps %ymm2, %ymm1, %ymm1 vcmpeqps %ymm1, %ymm0, %k0 kmovd %k0, %eax andb %bl, %al movzbl %al, %eax movzbl %bl, %ecx cmovnel %eax, %ecx tzcntl %ecx, %ecx movb $0x1, %bl shlb %cl, %bl shll $0x2, %ecx vmovss 0x400(%rsp,%rcx), %xmm10 vmovss 0x460(%rsp,%rcx), %xmm8 vmovaps 0x10(%r15), %xmm0 vmovaps %xmm0, 0x280(%rsp) vdpps $0x7f, %xmm0, %xmm0, %xmm0 vucomiss 0x1e7a35(%rip), %xmm0 # 0x1eeba24 jb 0x1d03ff7 vsqrtss %xmm0, %xmm0, %xmm0 jmp 0x1d04034 vmovaps %xmm10, 0x40(%rsp) vmovaps %xmm8, 0x80(%rsp) kmovw %k1, 0xa0(%rsp) vzeroupper callq 0x6aa20 kmovw 0xa0(%rsp), %k1 vmovaps 0x80(%rsp), %xmm8 vmovaps 0x40(%rsp), %xmm10 vxorps %xmm12, %xmm12, %xmm12 movzbl %bl, %eax kmovd %eax, %k0 kandnb %k1, %k0, %k0 kmovd %k0, %ebx vmulss 0x1ede69(%rip), %xmm0, %xmm0 # 0x1ef1eb4 vmovss %xmm0, 0x2c(%rsp) movl $0x4, %r12d vmovaps %xmm8, 0x80(%rsp) vbroadcastss %xmm8, %xmm0 vfmadd132ps 0x280(%rsp), %xmm12, %xmm0 # xmm0 = (xmm0 * mem) + xmm12 vmovss 0x1e869d(%rip), %xmm1 # 0x1eec714 vsubss %xmm10, %xmm1, %xmm4 vmulss %xmm4, %xmm4, %xmm1 vmulss %xmm1, %xmm4, %xmm1 vmulss %xmm10, %xmm10, %xmm11 vmulss %xmm11, %xmm10, %xmm2 vmovss 0x1e8af6(%rip), %xmm7 # 0x1eecb8c vmovaps %xmm7, %xmm3 vfmadd213ss %xmm2, %xmm1, %xmm3 # xmm3 = (xmm1 * xmm3) + xmm2 vmulss %xmm4, %xmm10, %xmm13 vmovaps %xmm4, 0xa0(%rsp) vmulss %xmm4, %xmm13, %xmm4 vmulss %xmm13, %xmm10, %xmm5 vmovss 0x1ecf37(%rip), %xmm8 # 0x1ef0ff4 vmulss %xmm5, %xmm8, %xmm6 vmovss 0x1ecf33(%rip), %xmm9 # 0x1ef0ffc vfmadd231ss %xmm9, %xmm4, %xmm6 # xmm6 = (xmm4 * xmm9) + xmm6 vaddss %xmm6, %xmm3, %xmm3 vmovaps %xmm7, %xmm6 vfmadd213ss %xmm1, %xmm2, %xmm6 # xmm6 = (xmm2 * xmm6) + xmm1 vmulss %xmm4, %xmm8, %xmm4 vfmadd231ss %xmm5, %xmm9, %xmm4 # xmm4 = (xmm9 * xmm5) + xmm4 vaddss %xmm4, %xmm6, %xmm4 vmovss 0x1ecf10(%rip), %xmm5 # 0x1ef1000 vmulss %xmm5, %xmm1, %xmm1 vmulss %xmm5, %xmm3, %xmm3 vmulss %xmm5, %xmm4, %xmm4 vmulss %xmm5, %xmm2, %xmm2 vbroadcastss %xmm2, %xmm2 vmulps 0x1e0(%rsp), %xmm2, %xmm2 vbroadcastss %xmm4, %xmm4 vfmadd132ps 0x220(%rsp), %xmm2, %xmm4 # xmm4 = (xmm4 * mem) + xmm2 vbroadcastss %xmm3, %xmm2 vfmadd132ps 0x200(%rsp), %xmm4, %xmm2 # xmm2 = (xmm2 * mem) + xmm4 vbroadcastss %xmm1, %xmm1 vfmadd132ps 0x240(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2 vmovaps %xmm1, 0x310(%rsp) vsubps %xmm1, %xmm0, %xmm0 vmovaps %xmm0, 0x1c0(%rsp) vdpps $0x7f, %xmm0, %xmm0, %xmm0 vucomiss 0x1e78c5(%rip), %xmm0 # 0x1eeba24 vmovaps %xmm10, 0x40(%rsp) vmovaps %xmm0, 0x1a0(%rsp) jb 0x1d04176 vsqrtss %xmm0, %xmm0, %xmm7 jmp 0x1d041a5 vmovss %xmm11, 0x60(%rsp) vmovss %xmm13, 0x8(%rsp) vzeroupper callq 0x6aa20 vmovss 0x8(%rsp), %xmm13 vmovss 0x60(%rsp), %xmm11 vmovaps 0x40(%rsp), %xmm10 vxorps %xmm12, %xmm12, %xmm12 vmovaps %xmm0, %xmm7 vmovaps 0xa0(%rsp), %xmm3 vbroadcastss %xmm3, %xmm1 vbroadcastss 0x21cd04(%rip), %xmm4 # 0x1f20ec0 vmovaps %xmm1, 0x300(%rsp) vxorps %xmm4, %xmm1, %xmm0 vmulss %xmm0, %xmm3, %xmm0 vmulss 0x1e89b7(%rip), %xmm13, %xmm1 # 0x1eecb8c vmovaps %xmm10, %xmm2 vfnmsub213ss %xmm1, %xmm10, %xmm2 # xmm2 = -(xmm10 * xmm2) - xmm1 vfmadd231ss %xmm3, %xmm3, %xmm1 # xmm1 = (xmm3 * xmm3) + xmm1 vmovss 0x1e8995(%rip), %xmm3 # 0x1eecb80 vmulss %xmm3, %xmm0, %xmm0 vmulss %xmm3, %xmm2, %xmm2 vmulss %xmm3, %xmm1, %xmm1 vmulss %xmm3, %xmm11, %xmm3 vbroadcastss %xmm3, %xmm3 vmulps 0x1e0(%rsp), %xmm3, %xmm3 vbroadcastss %xmm1, %xmm1 vfmadd132ps 0x220(%rsp), %xmm3, %xmm1 # xmm1 = (xmm1 * mem) + xmm3 vbroadcastss %xmm2, %xmm2 vfmadd132ps 0x200(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1 vbroadcastss %xmm0, %xmm14 vfmadd132ps 0x240(%rsp), %xmm2, %xmm14 # xmm14 = (xmm14 * mem) + xmm2 vdpps $0x7f, %xmm14, %xmm14, %xmm0 vmovss %xmm0, %xmm12, %xmm1 # xmm1 = xmm0[0],xmm12[1,2,3] vrsqrt14ss %xmm1, %xmm12, %xmm3 vmulss 0x1e84ca(%rip), %xmm3, %xmm5 # 0x1eec718 vmulss 0x1e84c6(%rip), %xmm0, %xmm6 # 0x1eec71c vrcp14ss %xmm1, %xmm12, %xmm2 vxorps %xmm4, %xmm0, %xmm1 vmovaps %xmm2, 0x2e0(%rsp) vfnmadd213ss 0x1ecd86(%rip), %xmm0, %xmm2 # xmm2 = -(xmm0 * xmm2) + mem vmovss %xmm2, 0x30(%rsp) vucomiss %xmm1, %xmm0 vmovaps %xmm14, 0x60(%rsp) vmovss %xmm7, 0x8(%rsp) vmovaps %xmm0, 0x2f0(%rsp) jb 0x1d0429b vsqrtss %xmm0, %xmm0, %xmm16 jmp 0x1d042ea vmovaps %xmm3, 0xe0(%rsp) vmovss %xmm5, 0xd0(%rsp) vmovss %xmm6, 0xc(%rsp) vzeroupper callq 0x6aa20 vmovss 0xc(%rsp), %xmm6 vmovss 0xd0(%rsp), %xmm5 vmovaps 0xe0(%rsp), %xmm3 vmovss 0x8(%rsp), %xmm7 vmovaps 0x60(%rsp), %xmm14 vxorps %xmm12, %xmm12, %xmm12 vmovaps %xmm0, %xmm16 vmovaps 0x1c0(%rsp), %xmm9 vmovaps 0x1a0(%rsp), %xmm11 vmulss %xmm3, %xmm6, %xmm0 vmulss %xmm3, %xmm3, %xmm1 vmulss %xmm1, %xmm0, %xmm0 vaddss %xmm0, %xmm5, %xmm0 vbroadcastss %xmm0, %xmm4 vmulps %xmm4, %xmm14, %xmm0 vmovaps %xmm0, 0xd0(%rsp) vdpps $0x7f, %xmm0, %xmm9, %xmm0 vaddss 0x1e83e8(%rip), %xmm7, %xmm15 # 0x1eec714 vmovaps %xmm0, 0xe0(%rsp) vmulps %xmm0, %xmm0, %xmm0 vsubps %xmm0, %xmm11, %xmm0 vmovss %xmm0, %xmm12, %xmm1 # xmm1 = xmm0[0],xmm12[1,2,3] vrsqrt14ss %xmm1, %xmm12, %xmm18 vmulss 0x1e83c7(%rip), %xmm18, %xmm17 # 0x1eec718 vmulss 0x1e83c1(%rip), %xmm0, %xmm19 # 0x1eec71c vucomiss 0x1e76c1(%rip), %xmm0 # 0x1eeba24 jb 0x1d0436e vsqrtss %xmm0, %xmm0, %xmm0 jmp 0x1d043f2 vmovss %xmm15, 0xc(%rsp) vmovss %xmm16, 0x24(%rsp) vmovss %xmm17, 0x20(%rsp) vmovaps %xmm18, 0x2d0(%rsp) vmovss %xmm19, 0x1c(%rsp) vmovaps %xmm4, 0x2c0(%rsp) vzeroupper callq 0x6aa20 vmovaps 0x2c0(%rsp), %xmm4 vmovss 0x1c(%rsp), %xmm19 vmovaps 0x2d0(%rsp), %xmm18 vmovss 0x20(%rsp), %xmm17 vmovss 0x24(%rsp), %xmm16 vmovss 0xc(%rsp), %xmm15 vmovss 0x8(%rsp), %xmm7 vmovaps 0x60(%rsp), %xmm14 vmovaps 0x1a0(%rsp), %xmm11 vmovaps 0x1c0(%rsp), %xmm9 vbroadcastss 0x21cac9(%rip), %xmm13 # 0x1f20ec4 vmovaps 0x40(%rsp), %xmm10 vmovaps 0x80(%rsp), %xmm8 vmovss 0x1ec5ca(%rip), %xmm2 # 0x1ef09dc vmovaps %xmm2, %xmm1 vmovaps 0xa0(%rsp), %xmm3 vfmadd213ss %xmm10, %xmm3, %xmm1 # xmm1 = (xmm3 * xmm1) + xmm10 vfmadd231ss %xmm2, %xmm10, %xmm3 # xmm3 = (xmm10 * xmm2) + xmm3 vbroadcastss %xmm10, %xmm2 vmulps 0x1e0(%rsp), %xmm2, %xmm2 vbroadcastss %xmm3, %xmm3 vfmadd132ps 0x220(%rsp), %xmm2, %xmm3 # xmm3 = (xmm3 * mem) + xmm2 vbroadcastss %xmm1, %xmm1 vfmadd132ps 0x200(%rsp), %xmm3, %xmm1 # xmm1 = (xmm1 * mem) + xmm3 vmovaps 0x300(%rsp), %xmm2 vfmadd132ps 0x240(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1 vbroadcastss 0x2f0(%rsp), %xmm1 vmulps %xmm1, %xmm2, %xmm1 vdpps $0x7f, %xmm2, %xmm14, %xmm2 vbroadcastss %xmm2, %xmm2 vmulps %xmm2, %xmm14, %xmm2 vsubps %xmm2, %xmm1, %xmm1 vmovss 0x30(%rsp), %xmm2 vmulss 0x2e0(%rsp), %xmm2, %xmm2 vmulss 0x2c(%rsp), %xmm8, %xmm3 vbroadcastss %xmm2, %xmm2 vmulps %xmm2, %xmm1, %xmm1 vxorps 0x21ca0f(%rip){1to4}, %xmm14, %xmm2 # 0x1f20ec0 vmulps %xmm1, %xmm4, %xmm4 vmovaps 0xd0(%rsp), %xmm12 vdpps $0x7f, %xmm12, %xmm2, %xmm5 vmovss 0x28(%rsp), %xmm6 vmaxss %xmm3, %xmm6, %xmm1 vdivss %xmm16, %xmm6, %xmm3 vdpps $0x7f, %xmm4, %xmm9, %xmm4 vfmadd213ss %xmm1, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm7) + xmm1 vfmadd213ss %xmm7, %xmm3, %xmm15 # xmm15 = (xmm3 * xmm15) + xmm7 vmovaps 0x280(%rsp), %xmm7 vdpps $0x7f, %xmm12, %xmm7, %xmm3 vaddss %xmm4, %xmm5, %xmm4 vdpps $0x7f, %xmm2, %xmm9, %xmm5 vmulss %xmm18, %xmm19, %xmm2 vmulss %xmm18, %xmm18, %xmm6 vmulss %xmm6, %xmm2, %xmm2 vdpps $0x7f, %xmm7, %xmm9, %xmm6 vaddss %xmm2, %xmm17, %xmm7 vmovaps 0xe0(%rsp), %xmm16 vfnmadd231ss %xmm4, %xmm16, %xmm5 # xmm5 = -(xmm16 * xmm4) + xmm5 vfnmadd231ss %xmm3, %xmm16, %xmm6 # xmm6 = -(xmm16 * xmm3) + xmm6 vpermilps $0xff, 0x310(%rsp), %xmm2 # xmm2 = mem[3,3,3,3] vsubss %xmm2, %xmm0, %xmm2 vshufps $0xff, %xmm14, %xmm14, %xmm0 # xmm0 = xmm14[3,3,3,3] vfmsub213ss %xmm0, %xmm7, %xmm5 # xmm5 = (xmm7 * xmm5) - xmm0 vmulss %xmm7, %xmm6, %xmm6 vmulss %xmm5, %xmm3, %xmm7 vfmsub231ss %xmm6, %xmm4, %xmm7 # xmm7 = (xmm4 * xmm6) - xmm7 vdivss %xmm7, %xmm6, %xmm6 vdivss %xmm7, %xmm5, %xmm5 vdivss %xmm7, %xmm3, %xmm3 vdivss %xmm7, %xmm4, %xmm4 vmulss %xmm6, %xmm16, %xmm6 vmulss %xmm3, %xmm2, %xmm3 vsubss %xmm3, %xmm6, %xmm3 vmulss %xmm5, %xmm16, %xmm5 vmulss %xmm4, %xmm2, %xmm4 vsubss %xmm5, %xmm4, %xmm4 vsubss %xmm3, %xmm10, %xmm10 vsubss %xmm4, %xmm8, %xmm8 vandps %xmm13, %xmm16, %xmm3 vucomiss %xmm3, %xmm15 jbe 0x1d04701 vaddss %xmm1, %xmm15, %xmm1 vmovaps 0x2a0(%rsp), %xmm3 vfmadd231ss 0x1ed906(%rip), %xmm3, %xmm1 # xmm1 = (xmm3 * mem) + xmm1 vandps %xmm2, %xmm13, %xmm2 vucomiss %xmm2, %xmm1 vxorps %xmm12, %xmm12, %xmm12 jbe 0x1d0470b vaddss 0x2b0(%rsp), %xmm8, %xmm8 vucomiss 0xc(%r15), %xmm8 movb $0x1, %r14b jb 0x1d0470e vmovss 0x20(%r15), %xmm4 vucomiss %xmm8, %xmm4 jb 0x1d0470e vucomiss 0x1e7432(%rip), %xmm10 # 0x1eeba24 jb 0x1d0470e vmovss 0x1e8114(%rip), %xmm1 # 0x1eec714 vucomiss %xmm10, %xmm1 jb 0x1d0470e vmovss %xmm11, %xmm12, %xmm1 vrsqrt14ss %xmm1, %xmm12, %xmm1 vmulss 0x1e80fb(%rip), %xmm1, %xmm2 # 0x1eec718 vmulss 0x1e80f7(%rip), %xmm11, %xmm3 # 0x1eec71c movq (%r13), %rax movq 0x1e8(%rax), %rax movq %r13, %rcx movq 0x38(%rsp), %rdx movq (%rax,%rdx,8), %r13 movl 0x24(%r15), %eax testl %eax, 0x34(%r13) je 0x1d0472b vmulss %xmm1, %xmm3, %xmm3 vmulss %xmm1, %xmm1, %xmm1 vmulss %xmm1, %xmm3, %xmm1 vaddss %xmm1, %xmm2, %xmm1 vbroadcastss %xmm1, %xmm1 vmulps %xmm1, %xmm9, %xmm1 vfmadd213ps %xmm14, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm0) + xmm14 vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3] vshufps $0xc9, %xmm14, %xmm14, %xmm3 # xmm3 = xmm14[1,2,0,3] vmulps %xmm3, %xmm1, %xmm1 vfmsub231ps %xmm2, %xmm14, %xmm1 # xmm1 = (xmm14 * xmm2) - xmm1 vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3] vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3] vshufps $0xd2, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,0,1,3] vmulps %xmm1, %xmm0, %xmm0 vfmsub231ps %xmm3, %xmm2, %xmm0 # xmm0 = (xmm2 * xmm3) - xmm0 movq 0x10(%rcx), %rax cmpq $0x0, 0x10(%rax) jne 0x1d04730 cmpq $0x0, 0x40(%r13) jne 0x1d04730 vmovss %xmm8, 0x20(%r15) vshufps $0xe9, %xmm0, %xmm0, %xmm1 # xmm1 = xmm0[1,2,2,3] vmovlps %xmm1, 0x30(%r15) vmovss %xmm0, 0x38(%r15) vmovss %xmm10, 0x3c(%r15) movl $0x0, 0x40(%r15) movq 0x78(%rsp), %rax movl %eax, 0x44(%r15) movq 0x38(%rsp), %rax movl %eax, 0x48(%r15) movq 0x10(%rsp), %r13 movq 0x8(%r13), %rax movl (%rax), %eax movl %eax, 0x4c(%r15) movq 0x8(%r13), %rax movl 0x4(%rax), %eax movl %eax, 0x50(%r15) jmp 0x1d0470e xorl %r14d, %r14d vxorps %xmm12, %xmm12, %xmm12 jmp 0x1d0470e xorl %r14d, %r14d subq $0x1, %r12 setb %al testb %r14b, %r14b jne 0x1d04913 testb %al, %al je 0x1d04057 jmp 0x1d04913 movq %rcx, %r13 jmp 0x1d0470e movq 0x10(%rsp), %rdx movq 0x8(%rdx), %rax vshufps $0xe9, %xmm0, %xmm0, %xmm1 # xmm1 = xmm0[1,2,2,3] vmovlps %xmm1, 0x150(%rsp) vmovss %xmm0, 0x158(%rsp) vmovss %xmm10, 0x15c(%rsp) movl $0x0, 0x160(%rsp) movq 0x78(%rsp), %rcx movl %ecx, 0x164(%rsp) movq 0x38(%rsp), %rcx movl %ecx, 0x168(%rsp) movl (%rax), %ecx movl %ecx, 0x16c(%rsp) movl 0x4(%rax), %eax movl %eax, 0x170(%rsp) vmovss %xmm8, 0x20(%r15) movl $0xffffffff, 0x34(%rsp) # imm = 0xFFFFFFFF leaq 0x34(%rsp), %rax movq %rax, 0x100(%rsp) movq 0x18(%r13), %rax movq %rax, 0x108(%rsp) movq 0x8(%rdx), %rax movq %rax, 0x110(%rsp) movq %r15, 0x118(%rsp) leaq 0x150(%rsp), %rax movq %rax, 0x120(%rsp) movl $0x1, 0x128(%rsp) movq 0x40(%r13), %rax testq %rax, %rax vmovaps %xmm10, 0x40(%rsp) vmovaps %xmm8, 0x80(%rsp) vmovss %xmm4, 0xa0(%rsp) je 0x1d0484a leaq 0x100(%rsp), %rdi vzeroupper callq *%rax vmovss 0xa0(%rsp), %xmm4 vmovaps 0x80(%rsp), %xmm8 vmovaps 0x40(%rsp), %xmm10 vbroadcastss 0x21c690(%rip), %xmm13 # 0x1f20ec4 vxorps %xmm12, %xmm12, %xmm12 movq 0x100(%rsp), %rax cmpl $0x0, (%rax) je 0x1d04903 movq 0x10(%rsp), %rax movq 0x10(%rax), %rcx movq 0x10(%rcx), %rax testq %rax, %rax je 0x1d048a8 testb $0x2, (%rcx) jne 0x1d04868 testb $0x40, 0x3e(%r13) je 0x1d0489b leaq 0x100(%rsp), %rdi vzeroupper callq *%rax vmovss 0xa0(%rsp), %xmm4 vmovaps 0x80(%rsp), %xmm8 vmovaps 0x40(%rsp), %xmm10 vbroadcastss 0x21c62e(%rip), %xmm13 # 0x1f20ec4 vxorps %xmm12, %xmm12, %xmm12 movq 0x100(%rsp), %rax cmpl $0x0, (%rax) je 0x1d04903 movq 0x118(%rsp), %rax movq 0x120(%rsp), %rcx vmovss (%rcx), %xmm0 vmovss %xmm0, 0x30(%rax) vmovss 0x4(%rcx), %xmm0 vmovss %xmm0, 0x34(%rax) vmovss 0x8(%rcx), %xmm0 vmovss %xmm0, 0x38(%rax) vmovss 0xc(%rcx), %xmm0 vmovss %xmm0, 0x3c(%rax) vmovss 0x10(%rcx), %xmm0 vmovss %xmm0, 0x40(%rax) movl 0x14(%rcx), %edx movl %edx, 0x44(%rax) movl 0x18(%rcx), %edx movl %edx, 0x48(%rax) movl 0x1c(%rcx), %edx movl %edx, 0x4c(%rax) movl 0x20(%rcx), %ecx movl %ecx, 0x50(%rax) jmp 0x1d04909 vmovss %xmm4, 0x20(%r15) movq 0x10(%rsp), %r13 jmp 0x1d0470e vmovaps 0x3c0(%rsp), %ymm0 vcmpleps 0x20(%r15){1to8}, %ymm0, %k0 kmovd %k0, %eax andb %al, %bl jne 0x1d03f6e vmovaps 0x340(%rsp), %ymm0 vaddps 0x260(%rsp), %ymm0, %ymm0 vcmpleps 0x20(%r15){1to8}, %ymm0, %k0 kmovd 0x13c(%rsp), %k1 kmovd 0x134(%rsp), %k2 korb %k2, %k1, %k1 kmovd %k0, %eax movl 0x18(%rsp), %ecx andb %al, %cl vpbroadcastd 0x21c567(%rip), %ymm0 # 0x1f20edc vpblendmd 0x21c559(%rip){1to8}, %ymm0, %ymm0 {%k1} # 0x1f20ed8 vmovdqa %ymm0, 0x340(%rsp) vpcmpled 0x420(%rsp), %ymm0, %k0 kmovd %k0, %ebx movl %ecx, 0x18(%rsp) andb %cl, %bl je 0x1d053ea vmovaps 0x4a0(%rsp), %ymm5 vmovaps 0x240(%rsp), %ymm1 vmovaps 0x200(%rsp), %ymm2 vminps %xmm2, %xmm1, %xmm0 vmaxps %xmm2, %xmm1, %xmm1 vmovaps 0x220(%rsp), %ymm3 vmovaps 0x1e0(%rsp), %ymm4 vminps %xmm4, %xmm3, %xmm2 vminps %xmm2, %xmm0, %xmm0 vmaxps %xmm4, %xmm3, %xmm2 vmaxps %xmm2, %xmm1, %xmm1 vandps %xmm0, %xmm13, %xmm0 vandps %xmm1, %xmm13, %xmm2 vmaxps %xmm2, %xmm0, %xmm0 vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3] vmaxss %xmm0, %xmm2, %xmm2 vshufpd $0x1, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[1,0] vmaxss %xmm2, %xmm0, %xmm0 vmulss 0x1ed4a9(%rip), %xmm0, %xmm0 # 0x1ef1eb4 vmovss %xmm0, 0x28(%rsp) vshufps $0xff, %xmm1, %xmm1, %xmm0 # xmm0 = xmm1[3,3,3,3] vmovaps %xmm0, 0x2a0(%rsp) vmovaps %ymm5, 0x320(%rsp) vaddps 0x260(%rsp), %ymm5, %ymm0 vmovaps %ymm0, 0x3c0(%rsp) kmovd %ebx, %k1 vbroadcastss 0x1e6fd9(%rip), %ymm0 # 0x1eeba20 vblendmps 0x320(%rsp), %ymm0, %ymm0 {%k1} vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm0, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1] vminps %ymm2, %ymm1, %ymm1 vcmpeqps %ymm1, %ymm0, %k0 kmovd %k0, %eax andb %bl, %al movzbl %al, %eax movzbl %bl, %ecx cmovnel %eax, %ecx tzcntl %ecx, %ecx movb $0x1, %bl shlb %cl, %bl shll $0x2, %ecx vmovss 0x3e0(%rsp,%rcx), %xmm10 vmovss 0x4c0(%rsp,%rcx), %xmm9 vmovaps 0x10(%r15), %xmm0 vmovaps %xmm0, 0x280(%rsp) vdpps $0x7f, %xmm0, %xmm0, %xmm0 vucomiss 0x1e6f69(%rip), %xmm0 # 0x1eeba24 jb 0x1d04ac3 vsqrtss %xmm0, %xmm0, %xmm0 jmp 0x1d04b00 vmovaps %xmm10, 0x40(%rsp) vmovaps %xmm9, 0x80(%rsp) kmovw %k1, 0xa0(%rsp) vzeroupper callq 0x6aa20 kmovw 0xa0(%rsp), %k1 vmovaps 0x80(%rsp), %xmm9 vmovaps 0x40(%rsp), %xmm10 vxorps %xmm12, %xmm12, %xmm12 movzbl %bl, %eax kmovd %eax, %k0 kandnb %k1, %k0, %k0 kmovd %k0, %ebx vmulss 0x1ed39d(%rip), %xmm0, %xmm0 # 0x1ef1eb4 vmovss %xmm0, 0x2c(%rsp) movl $0x4, %r12d vmovaps %xmm9, 0x80(%rsp) vbroadcastss %xmm9, %xmm0 vfmadd132ps 0x280(%rsp), %xmm12, %xmm0 # xmm0 = (xmm0 * mem) + xmm12 vmovss 0x1e7bd1(%rip), %xmm1 # 0x1eec714 vsubss %xmm10, %xmm1, %xmm4 vmulss %xmm4, %xmm4, %xmm1 vmulss %xmm1, %xmm4, %xmm1 vmulss %xmm10, %xmm10, %xmm11 vmulss %xmm11, %xmm10, %xmm2 vmovss 0x1e802a(%rip), %xmm7 # 0x1eecb8c vmovaps %xmm7, %xmm3 vfmadd213ss %xmm2, %xmm1, %xmm3 # xmm3 = (xmm1 * xmm3) + xmm2 vmulss %xmm4, %xmm10, %xmm13 vmovaps %xmm4, 0xa0(%rsp) vmulss %xmm4, %xmm13, %xmm4 vmulss %xmm13, %xmm10, %xmm5 vmovss 0x1ec46b(%rip), %xmm8 # 0x1ef0ff4 vmulss %xmm5, %xmm8, %xmm6 vmovss 0x1ec467(%rip), %xmm9 # 0x1ef0ffc vfmadd231ss %xmm9, %xmm4, %xmm6 # xmm6 = (xmm4 * xmm9) + xmm6 vaddss %xmm6, %xmm3, %xmm3 vmovaps %xmm7, %xmm6 vfmadd213ss %xmm1, %xmm2, %xmm6 # xmm6 = (xmm2 * xmm6) + xmm1 vmulss %xmm4, %xmm8, %xmm4 vfmadd231ss %xmm5, %xmm9, %xmm4 # xmm4 = (xmm9 * xmm5) + xmm4 vaddss %xmm4, %xmm6, %xmm4 vmovss 0x1ec444(%rip), %xmm5 # 0x1ef1000 vmulss %xmm5, %xmm1, %xmm1 vmulss %xmm5, %xmm3, %xmm3 vmulss %xmm5, %xmm4, %xmm4 vmulss %xmm5, %xmm2, %xmm2 vbroadcastss %xmm2, %xmm2 vmulps 0x1e0(%rsp), %xmm2, %xmm2 vbroadcastss %xmm4, %xmm4 vfmadd132ps 0x220(%rsp), %xmm2, %xmm4 # xmm4 = (xmm4 * mem) + xmm2 vbroadcastss %xmm3, %xmm2 vfmadd132ps 0x200(%rsp), %xmm4, %xmm2 # xmm2 = (xmm2 * mem) + xmm4 vbroadcastss %xmm1, %xmm1 vfmadd132ps 0x240(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2 vmovaps %xmm1, 0x310(%rsp) vsubps %xmm1, %xmm0, %xmm0 vmovaps %xmm0, 0x1c0(%rsp) vdpps $0x7f, %xmm0, %xmm0, %xmm0 vucomiss 0x1e6df9(%rip), %xmm0 # 0x1eeba24 vmovaps %xmm10, 0x40(%rsp) vmovaps %xmm0, 0x1a0(%rsp) jb 0x1d04c42 vsqrtss %xmm0, %xmm0, %xmm7 jmp 0x1d04c71 vmovss %xmm11, 0x60(%rsp) vmovss %xmm13, 0x8(%rsp) vzeroupper callq 0x6aa20 vmovss 0x8(%rsp), %xmm13 vmovss 0x60(%rsp), %xmm11 vmovaps 0x40(%rsp), %xmm10 vxorps %xmm12, %xmm12, %xmm12 vmovaps %xmm0, %xmm7 vmovaps 0xa0(%rsp), %xmm3 vbroadcastss %xmm3, %xmm1 vbroadcastss 0x21c238(%rip), %xmm4 # 0x1f20ec0 vmovaps %xmm1, 0x300(%rsp) vxorps %xmm4, %xmm1, %xmm0 vmulss %xmm0, %xmm3, %xmm0 vmulss 0x1e7eeb(%rip), %xmm13, %xmm1 # 0x1eecb8c vmovaps %xmm10, %xmm2 vfnmsub213ss %xmm1, %xmm10, %xmm2 # xmm2 = -(xmm10 * xmm2) - xmm1 vfmadd231ss %xmm3, %xmm3, %xmm1 # xmm1 = (xmm3 * xmm3) + xmm1 vmovss 0x1e7ec9(%rip), %xmm3 # 0x1eecb80 vmulss %xmm3, %xmm0, %xmm0 vmulss %xmm3, %xmm2, %xmm2 vmulss %xmm3, %xmm1, %xmm1 vmulss %xmm3, %xmm11, %xmm3 vbroadcastss %xmm3, %xmm3 vmulps 0x1e0(%rsp), %xmm3, %xmm3 vbroadcastss %xmm1, %xmm1 vfmadd132ps 0x220(%rsp), %xmm3, %xmm1 # xmm1 = (xmm1 * mem) + xmm3 vbroadcastss %xmm2, %xmm2 vfmadd132ps 0x200(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1 vbroadcastss %xmm0, %xmm14 vfmadd132ps 0x240(%rsp), %xmm2, %xmm14 # xmm14 = (xmm14 * mem) + xmm2 vdpps $0x7f, %xmm14, %xmm14, %xmm0 vmovss %xmm0, %xmm12, %xmm1 # xmm1 = xmm0[0],xmm12[1,2,3] vrsqrt14ss %xmm1, %xmm12, %xmm3 vmulss 0x1e79fe(%rip), %xmm3, %xmm5 # 0x1eec718 vmulss 0x1e79fa(%rip), %xmm0, %xmm6 # 0x1eec71c vrcp14ss %xmm1, %xmm12, %xmm2 vxorps %xmm4, %xmm0, %xmm1 vmovaps %xmm2, 0x2e0(%rsp) vfnmadd213ss 0x1ec2ba(%rip), %xmm0, %xmm2 # xmm2 = -(xmm0 * xmm2) + mem vmovss %xmm2, 0x30(%rsp) vucomiss %xmm1, %xmm0 vmovaps %xmm14, 0x60(%rsp) vmovss %xmm7, 0x8(%rsp) vmovaps %xmm0, 0x2f0(%rsp) jb 0x1d04d67 vsqrtss %xmm0, %xmm0, %xmm16 jmp 0x1d04db6 vmovaps %xmm3, 0xe0(%rsp) vmovss %xmm5, 0xd0(%rsp) vmovss %xmm6, 0xc(%rsp) vzeroupper callq 0x6aa20 vmovss 0xc(%rsp), %xmm6 vmovss 0xd0(%rsp), %xmm5 vmovaps 0xe0(%rsp), %xmm3 vmovss 0x8(%rsp), %xmm7 vmovaps 0x60(%rsp), %xmm14 vxorps %xmm12, %xmm12, %xmm12 vmovaps %xmm0, %xmm16 vmovaps 0x1c0(%rsp), %xmm11 vmovaps 0x1a0(%rsp), %xmm13 vmulss %xmm3, %xmm6, %xmm0 vmulss %xmm3, %xmm3, %xmm1 vmulss %xmm1, %xmm0, %xmm0 vaddss %xmm0, %xmm5, %xmm0 vbroadcastss %xmm0, %xmm4 vmulps %xmm4, %xmm14, %xmm0 vmovaps %xmm0, 0xd0(%rsp) vdpps $0x7f, %xmm0, %xmm11, %xmm0 vaddss 0x1e791c(%rip), %xmm7, %xmm15 # 0x1eec714 vmovaps %xmm0, 0xe0(%rsp) vmulps %xmm0, %xmm0, %xmm0 vsubps %xmm0, %xmm13, %xmm0 vmovss %xmm0, %xmm12, %xmm1 # xmm1 = xmm0[0],xmm12[1,2,3] vrsqrt14ss %xmm1, %xmm12, %xmm18 vmulss 0x1e78fb(%rip), %xmm18, %xmm17 # 0x1eec718 vmulss 0x1e78f5(%rip), %xmm0, %xmm19 # 0x1eec71c vucomiss 0x1e6bf5(%rip), %xmm0 # 0x1eeba24 jb 0x1d04e3a vsqrtss %xmm0, %xmm0, %xmm0 jmp 0x1d04ebe vmovss %xmm15, 0xc(%rsp) vmovss %xmm16, 0x24(%rsp) vmovss %xmm17, 0x20(%rsp) vmovaps %xmm18, 0x2d0(%rsp) vmovss %xmm19, 0x1c(%rsp) vmovaps %xmm4, 0x2c0(%rsp) vzeroupper callq 0x6aa20 vmovaps 0x2c0(%rsp), %xmm4 vmovss 0x1c(%rsp), %xmm19 vmovaps 0x2d0(%rsp), %xmm18 vmovss 0x20(%rsp), %xmm17 vmovss 0x24(%rsp), %xmm16 vmovss 0xc(%rsp), %xmm15 vmovss 0x8(%rsp), %xmm7 vmovaps 0x60(%rsp), %xmm14 vmovaps 0x1a0(%rsp), %xmm13 vmovaps 0x1c0(%rsp), %xmm11 vbroadcastss 0x21bffd(%rip), %xmm8 # 0x1f20ec4 vmovaps 0x40(%rsp), %xmm10 vmovaps 0x80(%rsp), %xmm9 vmovss 0x1ebafe(%rip), %xmm2 # 0x1ef09dc vmovaps %xmm2, %xmm1 vmovaps 0xa0(%rsp), %xmm3 vfmadd213ss %xmm10, %xmm3, %xmm1 # xmm1 = (xmm3 * xmm1) + xmm10 vfmadd231ss %xmm2, %xmm10, %xmm3 # xmm3 = (xmm10 * xmm2) + xmm3 vbroadcastss %xmm10, %xmm2 vmulps 0x1e0(%rsp), %xmm2, %xmm2 vbroadcastss %xmm3, %xmm3 vfmadd132ps 0x220(%rsp), %xmm2, %xmm3 # xmm3 = (xmm3 * mem) + xmm2 vbroadcastss %xmm1, %xmm1 vfmadd132ps 0x200(%rsp), %xmm3, %xmm1 # xmm1 = (xmm1 * mem) + xmm3 vmovaps 0x300(%rsp), %xmm2 vfmadd132ps 0x240(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1 vbroadcastss 0x2f0(%rsp), %xmm1 vmulps %xmm1, %xmm2, %xmm1 vdpps $0x7f, %xmm2, %xmm14, %xmm2 vbroadcastss %xmm2, %xmm2 vmulps %xmm2, %xmm14, %xmm2 vsubps %xmm2, %xmm1, %xmm1 vmovss 0x30(%rsp), %xmm2 vmulss 0x2e0(%rsp), %xmm2, %xmm2 vmulss 0x2c(%rsp), %xmm9, %xmm3 vbroadcastss %xmm2, %xmm2 vmulps %xmm2, %xmm1, %xmm1 vxorps 0x21bf43(%rip){1to4}, %xmm14, %xmm2 # 0x1f20ec0 vmulps %xmm1, %xmm4, %xmm4 vmovaps 0xd0(%rsp), %xmm12 vdpps $0x7f, %xmm12, %xmm2, %xmm5 vmovss 0x28(%rsp), %xmm6 vmaxss %xmm3, %xmm6, %xmm1 vdivss %xmm16, %xmm6, %xmm3 vdpps $0x7f, %xmm4, %xmm11, %xmm4 vfmadd213ss %xmm1, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm7) + xmm1 vfmadd213ss %xmm7, %xmm3, %xmm15 # xmm15 = (xmm3 * xmm15) + xmm7 vmovaps 0x280(%rsp), %xmm7 vdpps $0x7f, %xmm12, %xmm7, %xmm3 vaddss %xmm4, %xmm5, %xmm4 vdpps $0x7f, %xmm2, %xmm11, %xmm5 vmulss %xmm18, %xmm19, %xmm2 vmulss %xmm18, %xmm18, %xmm6 vmulss %xmm6, %xmm2, %xmm2 vdpps $0x7f, %xmm7, %xmm11, %xmm6 vaddss %xmm2, %xmm17, %xmm7 vmovaps 0xe0(%rsp), %xmm16 vfnmadd231ss %xmm4, %xmm16, %xmm5 # xmm5 = -(xmm16 * xmm4) + xmm5 vfnmadd231ss %xmm3, %xmm16, %xmm6 # xmm6 = -(xmm16 * xmm3) + xmm6 vpermilps $0xff, 0x310(%rsp), %xmm2 # xmm2 = mem[3,3,3,3] vsubss %xmm2, %xmm0, %xmm2 vshufps $0xff, %xmm14, %xmm14, %xmm0 # xmm0 = xmm14[3,3,3,3] vfmsub213ss %xmm0, %xmm7, %xmm5 # xmm5 = (xmm7 * xmm5) - xmm0 vmulss %xmm7, %xmm6, %xmm6 vmulss %xmm5, %xmm3, %xmm7 vfmsub231ss %xmm6, %xmm4, %xmm7 # xmm7 = (xmm4 * xmm6) - xmm7 vdivss %xmm7, %xmm6, %xmm6 vdivss %xmm7, %xmm5, %xmm5 vdivss %xmm7, %xmm3, %xmm3 vdivss %xmm7, %xmm4, %xmm4 vmulss %xmm6, %xmm16, %xmm6 vmulss %xmm3, %xmm2, %xmm3 vsubss %xmm3, %xmm6, %xmm3 vmulss %xmm5, %xmm16, %xmm5 vmulss %xmm4, %xmm2, %xmm4 vsubss %xmm5, %xmm4, %xmm4 vsubss %xmm3, %xmm10, %xmm10 vsubss %xmm4, %xmm9, %xmm9 vandps %xmm8, %xmm16, %xmm3 vucomiss %xmm3, %xmm15 jbe 0x1d051cd vaddss %xmm1, %xmm15, %xmm1 vmovaps 0x2a0(%rsp), %xmm3 vfmadd231ss 0x1ece3a(%rip), %xmm3, %xmm1 # xmm1 = (xmm3 * mem) + xmm1 vandps %xmm2, %xmm8, %xmm2 vucomiss %xmm2, %xmm1 vxorps %xmm12, %xmm12, %xmm12 jbe 0x1d051d7 vaddss 0x2b0(%rsp), %xmm9, %xmm9 vucomiss 0xc(%r15), %xmm9 movb $0x1, %r14b jb 0x1d051da vmovss 0x20(%r15), %xmm4 vucomiss %xmm9, %xmm4 jb 0x1d051da vucomiss 0x1e6966(%rip), %xmm10 # 0x1eeba24 jb 0x1d051da vmovss 0x1e7648(%rip), %xmm1 # 0x1eec714 vucomiss %xmm10, %xmm1 jb 0x1d051da vmovss %xmm13, %xmm12, %xmm1 vrsqrt14ss %xmm1, %xmm12, %xmm1 vmulss 0x1e762f(%rip), %xmm1, %xmm2 # 0x1eec718 vmulss 0x1e762b(%rip), %xmm13, %xmm3 # 0x1eec71c movq (%r13), %rax movq 0x1e8(%rax), %rax movq %r13, %rcx movq 0x38(%rsp), %rdx movq (%rax,%rdx,8), %r13 movl 0x24(%r15), %eax testl %eax, 0x34(%r13) je 0x1d051f7 vmulss %xmm1, %xmm3, %xmm3 vmulss %xmm1, %xmm1, %xmm1 vmulss %xmm1, %xmm3, %xmm1 vaddss %xmm1, %xmm2, %xmm1 vbroadcastss %xmm1, %xmm1 vmulps %xmm1, %xmm11, %xmm1 vfmadd213ps %xmm14, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm0) + xmm14 vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3] vshufps $0xc9, %xmm14, %xmm14, %xmm3 # xmm3 = xmm14[1,2,0,3] vmulps %xmm3, %xmm1, %xmm1 vfmsub231ps %xmm2, %xmm14, %xmm1 # xmm1 = (xmm14 * xmm2) - xmm1 vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3] vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3] vshufps $0xd2, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,0,1,3] vmulps %xmm1, %xmm0, %xmm0 vfmsub231ps %xmm3, %xmm2, %xmm0 # xmm0 = (xmm2 * xmm3) - xmm0 movq 0x10(%rcx), %rax cmpq $0x0, 0x10(%rax) jne 0x1d051fc cmpq $0x0, 0x40(%r13) jne 0x1d051fc vmovss %xmm9, 0x20(%r15) vshufps $0xe9, %xmm0, %xmm0, %xmm1 # xmm1 = xmm0[1,2,2,3] vmovlps %xmm1, 0x30(%r15) vmovss %xmm0, 0x38(%r15) vmovss %xmm10, 0x3c(%r15) movl $0x0, 0x40(%r15) movq 0x78(%rsp), %rax movl %eax, 0x44(%r15) movq 0x38(%rsp), %rax movl %eax, 0x48(%r15) movq 0x10(%rsp), %r13 movq 0x8(%r13), %rax movl (%rax), %eax movl %eax, 0x4c(%r15) movq 0x8(%r13), %rax movl 0x4(%rax), %eax movl %eax, 0x50(%r15) jmp 0x1d051da xorl %r14d, %r14d vxorps %xmm12, %xmm12, %xmm12 jmp 0x1d051da xorl %r14d, %r14d subq $0x1, %r12 setb %al testb %r14b, %r14b jne 0x1d053cd testb %al, %al je 0x1d04b23 jmp 0x1d053cd movq %rcx, %r13 jmp 0x1d051da movq 0x10(%rsp), %rdx movq 0x8(%rdx), %rax vshufps $0xe9, %xmm0, %xmm0, %xmm1 # xmm1 = xmm0[1,2,2,3] vmovlps %xmm1, 0x150(%rsp) vmovss %xmm0, 0x158(%rsp) vmovss %xmm10, 0x15c(%rsp) movl $0x0, 0x160(%rsp) movq 0x78(%rsp), %rcx movl %ecx, 0x164(%rsp) movq 0x38(%rsp), %rcx movl %ecx, 0x168(%rsp) movl (%rax), %ecx movl %ecx, 0x16c(%rsp) movl 0x4(%rax), %eax movl %eax, 0x170(%rsp) vmovss %xmm9, 0x20(%r15) movl $0xffffffff, 0x34(%rsp) # imm = 0xFFFFFFFF leaq 0x34(%rsp), %rax movq %rax, 0x100(%rsp) movq 0x18(%r13), %rax movq %rax, 0x108(%rsp) movq 0x8(%rdx), %rax movq %rax, 0x110(%rsp) movq %r15, 0x118(%rsp) leaq 0x150(%rsp), %rax movq %rax, 0x120(%rsp) movl $0x1, 0x128(%rsp) movq 0x40(%r13), %rax testq %rax, %rax vmovaps %xmm10, 0x40(%rsp) vmovaps %xmm9, 0x80(%rsp) vmovss %xmm4, 0xa0(%rsp) je 0x1d0530d leaq 0x100(%rsp), %rdi vzeroupper callq *%rax vmovss 0xa0(%rsp), %xmm4 vmovaps 0x80(%rsp), %xmm9 vmovaps 0x40(%rsp), %xmm10 vxorps %xmm12, %xmm12, %xmm12 movq 0x100(%rsp), %rax cmpl $0x0, (%rax) je 0x1d053bd movq 0x10(%rsp), %rax movq 0x10(%rax), %rcx movq 0x10(%rcx), %rax testq %rax, %rax je 0x1d05362 testb $0x2, (%rcx) jne 0x1d0532b testb $0x40, 0x3e(%r13) je 0x1d05355 leaq 0x100(%rsp), %rdi vzeroupper callq *%rax vmovss 0xa0(%rsp), %xmm4 vmovaps 0x80(%rsp), %xmm9 vmovaps 0x40(%rsp), %xmm10 vxorps %xmm12, %xmm12, %xmm12 movq 0x100(%rsp), %rax cmpl $0x0, (%rax) je 0x1d053bd movq 0x118(%rsp), %rax movq 0x120(%rsp), %rcx vmovss (%rcx), %xmm0 vmovss %xmm0, 0x30(%rax) vmovss 0x4(%rcx), %xmm0 vmovss %xmm0, 0x34(%rax) vmovss 0x8(%rcx), %xmm0 vmovss %xmm0, 0x38(%rax) vmovss 0xc(%rcx), %xmm0 vmovss %xmm0, 0x3c(%rax) vmovss 0x10(%rcx), %xmm0 vmovss %xmm0, 0x40(%rax) movl 0x14(%rcx), %edx movl %edx, 0x44(%rax) movl 0x18(%rcx), %edx movl %edx, 0x48(%rax) movl 0x1c(%rcx), %edx movl %edx, 0x4c(%rax) movl 0x20(%rcx), %ecx movl %ecx, 0x50(%rax) jmp 0x1d053c3 vmovss %xmm4, 0x20(%r15) movq 0x10(%rsp), %r13 jmp 0x1d051da vmovaps 0x3c0(%rsp), %ymm0 vcmpleps 0x20(%r15){1to8}, %ymm0, %k0 kmovd %k0, %eax andb %al, %bl jne 0x1d04a3a vmovdqa 0x420(%rsp), %ymm1 vpcmpltd 0x340(%rsp), %ymm1, %k1 vmovaps 0x460(%rsp), %ymm0 vpcmpltd 0x4e0(%rsp), %ymm1, %k2 vmovaps 0x260(%rsp), %ymm7 vaddps %ymm0, %ymm7, %ymm1 vbroadcastss 0x20(%r15), %ymm2 vcmpleps %ymm2, %ymm1, %k0 {%k2} kmovd %k0, %eax movl 0x138(%rsp), %ecx andb %al, %cl vmovaps 0x4a0(%rsp), %ymm1 vaddps %ymm1, %ymm7, %ymm3 vcmpleps %ymm2, %ymm3, %k0 {%k1} kmovd %k0, %eax movl 0x18(%rsp), %edx andb %al, %dl orb %cl, %dl je 0x1d054ed movq 0xf8(%rsp), %r8 movl %r8d, %eax leaq (%rax,%rax,2), %rax shlq $0x5, %rax movb %dl, 0x740(%rsp,%rax) kmovd %ecx, %k1 vmovaps %ymm0, %ymm1 {%k1} vmovaps %ymm1, 0x760(%rsp,%rax) vmovaps 0x140(%rsp), %xmm4 vmovlps %xmm4, 0x780(%rsp,%rax) movq 0x190(%rsp), %r11 leal 0x1(%r11), %ecx movl %ecx, 0x788(%rsp,%rax) incl %r8d movq 0x188(%rsp), %r9 vbroadcastss 0x1e7253(%rip), %ymm3 # 0x1eec714 movq 0x198(%rsp), %r10 jmp 0x1d03c70 vbroadcastss 0x1e723d(%rip), %ymm3 # 0x1eec714 vmovaps 0x260(%rsp), %ymm7 movq 0xf8(%rsp), %r8 jmp 0x1d03c67 movq 0x188(%rsp), %r9 vbroadcastss 0x1e7216(%rip), %ymm3 # 0x1eec714 movq 0x198(%rsp), %r10 movq 0xf8(%rsp), %r8 movq 0x190(%rsp), %r11 jmp 0x1d03c67 vcmpleps 0x21b9da(%rip), %ymm4, %k2 # 0x1f20f00 vbroadcastss 0x1e7655(%rip), %ymm4 # 0x1eecb84 vbroadcastss 0x1e64e7(%rip), %ymm16 # 0x1eeba20 vblendmps %ymm4, %ymm16, %ymm3 {%k2} vmovaps %ymm3, %ymm31 {%k1} vblendmps %ymm16, %ymm4, %ymm3 {%k2} kmovd %k2, %ecx vmovaps %ymm3, %ymm30 {%k1} knotb %k1, %k0 kmovd %k0, %edx orb %cl, %dl andb %al, %dl movl %edx, %eax jmp 0x1d0380e vmovaps 0x500(%rsp), %ymm0 vcmpleps 0x20(%r15){1to8}, %ymm0, %k0 kmovb %k0, %eax andl %eax, %r10d jne 0x1d02f5c leaq -0x28(%rbp), %rsp popq %rbx popq %r12 popq %r13 popq %r14 popq %r15 popq %rbp vzeroupper retq
/embree[P]embree/kernels/geometry/curveNi_intersector.h
bool embree::avx512::CurveNiIntersector1<8>::occluded_t<embree::avx512::SweepCurve1Intersector1<embree::BSplineCurveT>, embree::avx512::Occluded1Epilog1<true>>(embree::avx512::CurvePrecalculations1 const&, embree::RayK<1>&, embree::RayQueryContext*, embree::CurveNi<8> const&)
static __forceinline bool occluded_t(const Precalculations& pre, Ray& ray, RayQueryContext* context, const Primitive& prim) { vfloat<M> tNear; vbool<M> valid = intersect(ray,prim,tNear); const size_t N = prim.N; size_t mask = movemask(valid); while (mask) { const size_t i = bscf(mask); STAT3(shadow.trav_prims,1,1,1); const unsigned int geomID = prim.geomID(N); const unsigned int primID = prim.primID(N)[i]; const CurveGeometry* geom = context->scene->get<CurveGeometry>(geomID); Vec3ff a0,a1,a2,a3; geom->gather(a0,a1,a2,a3,geom->curve(primID)); size_t mask1 = mask; const size_t i1 = bscf(mask1); if (mask) { const unsigned int primID1 = prim.primID(N)[i1]; geom->prefetchL1_vertices(geom->curve(primID1)); if (mask1) { const size_t i2 = bsf(mask1); const unsigned int primID2 = prim.primID(N)[i2]; geom->prefetchL2_vertices(geom->curve(primID2)); } } if (Intersector().intersect(pre,ray,context,geom,primID,a0,a1,a2,a3,Epilog(ray,context,geomID,primID))) return true; mask &= movemask(tNear <= vfloat<M>(ray.tfar)); } return false; }
pushq %rbp movq %rsp, %rbp pushq %r15 pushq %r14 pushq %r13 pushq %r12 pushq %rbx andq $-0x20, %rsp subq $0x8c0, %rsp # imm = 0x8C0 movq %rcx, %r9 movq %rsi, %r15 movzbl 0x1(%rcx), %eax leaq (%rax,%rax,4), %rcx leaq (%rcx,%rcx,4), %rsi vbroadcastss 0x12(%r9,%rsi), %xmm0 vmovaps (%r15), %xmm1 vsubps 0x6(%r9,%rsi), %xmm1, %xmm1 vmulps 0x10(%r15), %xmm0, %xmm2 vmulps %xmm1, %xmm0, %xmm3 vpmovsxbd 0x6(%r9,%rax,4), %ymm0 vcvtdq2ps %ymm0, %ymm5 vpmovsxbd 0x6(%r9,%rcx), %ymm0 vcvtdq2ps %ymm0, %ymm6 leaq (%rax,%rax,2), %r8 vpmovsxbd 0x6(%r9,%r8,2), %ymm0 vcvtdq2ps %ymm0, %ymm7 leaq (%rax,%rcx,2), %rsi vpmovsxbd 0x6(%r9,%rsi), %ymm0 vcvtdq2ps %ymm0, %ymm8 leal (,%r8,4), %esi vpmovsxbd 0x6(%r9,%rsi), %ymm0 vcvtdq2ps %ymm0, %ymm9 addq %rax, %rsi vpmovsxbd 0x6(%r9,%rsi), %ymm0 vcvtdq2ps %ymm0, %ymm10 leaq (%rax,%rax,8), %rsi leal (%rsi,%rsi), %edi vpmovsxbd 0x6(%r9,%rdi), %ymm0 addq %rax, %rdi vpmovsxbd 0x6(%r9,%rdi), %ymm1 vcvtdq2ps %ymm0, %ymm11 vcvtdq2ps %ymm1, %ymm12 shll $0x2, %ecx vpmovsxbd 0x6(%r9,%rcx), %ymm0 vcvtdq2ps %ymm0, %ymm13 vbroadcastss %xmm2, %ymm14 vbroadcastss 0x20d093(%rip), %ymm16 # 0x1f12704 vpermps %ymm2, %ymm16, %ymm15 vbroadcastss 0x21b85b(%rip), %ymm17 # 0x1f20edc vpermps %ymm2, %ymm17, %ymm0 vmulps %ymm7, %ymm0, %ymm4 vmulps %ymm0, %ymm10, %ymm1 vmulps %ymm0, %ymm13, %ymm0 vfmadd231ps %ymm6, %ymm15, %ymm4 # ymm4 = (ymm15 * ymm6) + ymm4 vfmadd231ps %ymm9, %ymm15, %ymm1 # ymm1 = (ymm15 * ymm9) + ymm1 vfmadd231ps %ymm15, %ymm12, %ymm0 # ymm0 = (ymm12 * ymm15) + ymm0 vfmadd231ps %ymm5, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm5) + ymm4 vfmadd231ps %ymm8, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm8) + ymm1 vfmadd231ps %ymm14, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm14) + ymm0 vbroadcastss %xmm3, %ymm14 vpermps %ymm3, %ymm16, %ymm15 vpermps %ymm3, %ymm17, %ymm2 vmulps %ymm7, %ymm2, %ymm7 vmulps %ymm2, %ymm10, %ymm3 vmulps %ymm2, %ymm13, %ymm2 vfmadd231ps %ymm6, %ymm15, %ymm7 # ymm7 = (ymm15 * ymm6) + ymm7 vfmadd231ps %ymm9, %ymm15, %ymm3 # ymm3 = (ymm15 * ymm9) + ymm3 vfmadd231ps %ymm12, %ymm15, %ymm2 # ymm2 = (ymm15 * ymm12) + ymm2 vfmadd231ps %ymm5, %ymm14, %ymm7 # ymm7 = (ymm14 * ymm5) + ymm7 vfmadd231ps %ymm8, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm8) + ymm3 vfmadd231ps %ymm11, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm11) + ymm2 vbroadcastss 0x21b7ce(%rip), %ymm28 # 0x1f20ec4 vandps %ymm28, %ymm4, %ymm5 vbroadcastss 0x1eb8e3(%rip), %ymm6 # 0x1ef0fe8 vcmpltps %ymm6, %ymm5, %k1 vmovaps %ymm6, %ymm4 {%k1} vandps %ymm28, %ymm1, %ymm5 vcmpltps %ymm6, %ymm5, %k1 vmovaps %ymm6, %ymm1 {%k1} vandps %ymm28, %ymm0, %ymm5 vcmpltps %ymm6, %ymm5, %k1 vmovaps %ymm6, %ymm0 {%k1} vrcp14ps %ymm4, %ymm5 vbroadcastss 0x1e6fcd(%rip), %ymm6 # 0x1eec714 vfnmadd213ps %ymm6, %ymm5, %ymm4 # ymm4 = -(ymm5 * ymm4) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm4 # ymm4 = (ymm4 * ymm5) + ymm5 vrcp14ps %ymm1, %ymm5 vfnmadd213ps %ymm6, %ymm5, %ymm1 # ymm1 = -(ymm5 * ymm1) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm1 # ymm1 = (ymm1 * ymm5) + ymm5 vrcp14ps %ymm0, %ymm5 vfnmadd213ps %ymm6, %ymm5, %ymm0 # ymm0 = -(ymm5 * ymm0) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm0 # ymm0 = (ymm0 * ymm5) + ymm5 leaq (,%rax,8), %rdi subq %rax, %rdi vpmovsxwd 0x6(%r9,%rdi), %ymm5 vcvtdq2ps %ymm5, %ymm5 vsubps %ymm7, %ymm5, %ymm5 vpmovsxwd 0x6(%r9,%rsi), %ymm6 vmulps %ymm5, %ymm4, %ymm5 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm7, %ymm6, %ymm6 vmulps %ymm6, %ymm4, %ymm4 leaq (%rax,%rax), %rsi addq %rax, %rcx shlq $0x3, %r8 subq %rax, %r8 movl %eax, %edi shll $0x4, %edi vpmovsxwd 0x6(%r9,%rdi), %ymm6 subq %rsi, %rdi vpmovsxwd 0x6(%r9,%rdi), %ymm7 vcvtdq2ps %ymm7, %ymm7 vsubps %ymm3, %ymm7, %ymm7 vmulps %ymm7, %ymm1, %ymm7 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm3, %ymm6, %ymm3 vmulps %ymm3, %ymm1, %ymm1 vpmovsxwd 0x6(%r9,%rcx), %ymm3 vcvtdq2ps %ymm3, %ymm3 vsubps %ymm2, %ymm3, %ymm3 vmulps %ymm0, %ymm3, %ymm3 vpmovsxwd 0x6(%r9,%r8), %ymm6 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm2, %ymm6, %ymm2 vmulps %ymm2, %ymm0, %ymm0 vpminsd %ymm4, %ymm5, %ymm2 vpminsd %ymm1, %ymm7, %ymm6 vmaxps %ymm6, %ymm2, %ymm2 vpminsd %ymm0, %ymm3, %ymm6 vmaxps 0xc(%r15){1to8}, %ymm6, %ymm6 vmaxps %ymm6, %ymm2, %ymm2 vmulps 0x21a6e4(%rip){1to8}, %ymm2, %ymm6 # 0x1f1ff10 vpmaxsd %ymm4, %ymm5, %ymm2 vpmaxsd %ymm1, %ymm7, %ymm1 vminps %ymm1, %ymm2, %ymm1 vpmaxsd %ymm0, %ymm3, %ymm0 vminps 0x20(%r15){1to8}, %ymm0, %ymm0 vminps %ymm0, %ymm1, %ymm0 vmulps 0x21a6c0(%rip){1to8}, %ymm0, %ymm0 # 0x1f1ff14 vpbroadcastd %eax, %ymm1 vpcmpgtd 0x2550bc(%rip), %ymm1, %k0 # 0x1f5a920 vmovaps %ymm6, 0x540(%rsp) vcmpleps %ymm0, %ymm6, %k1 ktestb %k0, %k1 setne %al je 0x1d07d99 kandb %k0, %k1, %k0 kmovd %k0, %ecx movzbl %cl, %r14d movq %r9, 0x1a8(%rsp) movq %rdx, 0x18(%rsp) tzcntq %r14, %rcx movl 0x2(%r9), %esi movl 0x6(%r9,%rcx,4), %r12d movq (%rdx), %rcx movq 0x1e8(%rcx), %rcx movq %rsi, 0x98(%rsp) movq (%rcx,%rsi,8), %rsi movq 0x58(%rsi), %r11 movq 0x68(%rsi), %rcx movq %rcx, %rdi imulq %r12, %rdi movl (%r11,%rdi), %edi movq 0xa0(%rsi), %r10 movq %r10, %r8 imulq %rdi, %r8 movq 0x90(%rsi), %rsi vmovaps (%rsi,%r8), %xmm1 leaq 0x1(%rdi), %r8 imulq %r10, %r8 vmovaps (%rsi,%r8), %xmm0 leaq 0x2(%rdi), %r8 imulq %r10, %r8 vmovaps (%rsi,%r8), %xmm3 blsrq %r14, %r14 addq $0x3, %rdi imulq %r10, %rdi vmovaps (%rsi,%rdi), %xmm2 movq %r14, %rdi subq $0x1, %rdi jb 0x1d0596d andq %r14, %rdi tzcntq %r14, %r8 movl 0x6(%r9,%r8,4), %r8d imulq %rcx, %r8 movl (%r11,%r8), %r8d imulq %r10, %r8 prefetcht0 (%rsi,%r8) prefetcht0 0x40(%rsi,%r8) testq %rdi, %rdi je 0x1d0596d tzcntq %rdi, %rdi movl 0x6(%r9,%rdi,4), %edi imulq %rdi, %rcx movl (%r11,%rcx), %ecx imulq %rcx, %r10 prefetcht1 (%rsi,%r10) prefetcht1 0x40(%rsi,%r10) vaddps %xmm0, %xmm1, %xmm4 vaddps %xmm3, %xmm4, %xmm4 vaddps %xmm2, %xmm4, %xmm5 vmovaps (%r15), %xmm6 vmovaps 0x10(%r15), %xmm4 vmulps 0x21796e(%rip){1to4}, %xmm5, %xmm5 # 0x1f1d2fc vsubps %xmm6, %xmm5, %xmm5 vdpps $0x7f, %xmm4, %xmm5, %xmm5 vdpps $0x7f, %xmm4, %xmm4, %xmm7 vxorps %xmm10, %xmm10, %xmm10 vmovss %xmm7, %xmm10, %xmm8 # xmm8 = xmm7[0],xmm10[1,2,3] vrcp14ss %xmm8, %xmm10, %xmm8 vmovaps %xmm8, %xmm9 vfnmadd213ss 0x1eb63d(%rip), %xmm7, %xmm9 # xmm9 = -(xmm7 * xmm9) + mem vmulss %xmm9, %xmm8, %xmm7 vmulss %xmm7, %xmm5, %xmm5 vmovaps %xmm5, 0x2f0(%rsp) vbroadcastss %xmm5, %ymm5 vmovaps %ymm5, 0x1c0(%rsp) vfmadd231ps %xmm5, %xmm4, %xmm6 # xmm6 = (xmm4 * xmm5) + xmm6 vblendps $0x8, %xmm10, %xmm6, %xmm5 # xmm5 = xmm6[0,1,2],xmm10[3] vsubps %xmm5, %xmm1, %xmm6 vsubps %xmm5, %xmm3, %xmm3 vbroadcastss 0x10(%r15), %ymm8 vbroadcastss 0x14(%r15), %ymm9 vbroadcastss 0x18(%r15), %ymm1 vmovaps %ymm1, 0x440(%rsp) vsubps %xmm5, %xmm0, %xmm7 vsubps %xmm5, %xmm2, %xmm5 vbroadcastss %xmm6, %ymm18 vbroadcastss 0x20cce4(%rip), %ymm0 # 0x1f12704 vpermps %ymm6, %ymm0, %ymm16 vbroadcastss 0x21b4ad(%rip), %ymm1 # 0x1f20edc vpermps %ymm6, %ymm1, %ymm17 vbroadcastss 0x21b49a(%rip), %ymm2 # 0x1f20ed8 vmovaps %ymm6, 0x280(%rsp) vpermps %ymm6, %ymm2, %ymm6 vmovaps %ymm6, 0x760(%rsp) vbroadcastss %xmm7, %ymm19 vpermps %ymm7, %ymm0, %ymm20 vpermps %ymm7, %ymm1, %ymm22 vmovaps %ymm7, 0x240(%rsp) vpermps %ymm7, %ymm2, %ymm23 vbroadcastss %xmm3, %ymm24 vpermps %ymm3, %ymm0, %ymm25 vpermps %ymm3, %ymm1, %ymm27 vmovaps %ymm3, 0x260(%rsp) vpermps %ymm3, %ymm2, %ymm29 vbroadcastss %xmm5, %ymm31 vpermps %ymm5, %ymm0, %ymm21 vpermps %ymm5, %ymm1, %ymm6 vmovaps %ymm5, 0x220(%rsp) vpermps %ymm5, %ymm2, %ymm30 vmulps %xmm4, %xmm4, %xmm0 vpermps %ymm0, %ymm1, %ymm2 vmovaps %ymm9, 0x460(%rsp) vfmadd231ps %ymm9, %ymm9, %ymm2 # ymm2 = (ymm9 * ymm9) + ymm2 vmovaps %ymm8, 0x480(%rsp) vfmadd231ps %ymm8, %ymm8, %ymm2 # ymm2 = (ymm8 * ymm8) + ymm2 vandps %ymm28, %ymm2, %ymm0 vmovaps %ymm0, 0x420(%rsp) movl $0x1, %ecx movq %rcx, 0xf8(%rsp) xorl %r11d, %r11d xorl %ebx, %ebx vmovsd 0x1e6beb(%rip), %xmm1 # 0x1eec6f0 vbroadcastss 0x1e6c06(%rip), %ymm3 # 0x1eec714 vmovaps %ymm2, 0x740(%rsp) vmovaps %ymm18, 0x720(%rsp) vmovaps %ymm16, 0x700(%rsp) vmovaps %ymm17, 0x6e0(%rsp) vmovaps %ymm19, 0x6c0(%rsp) vmovaps %ymm20, 0x6a0(%rsp) vmovaps %ymm22, 0x680(%rsp) vmovaps %ymm23, 0x660(%rsp) vmovaps %ymm24, 0x640(%rsp) vmovaps %ymm25, 0x620(%rsp) vmovaps %ymm27, 0x600(%rsp) vmovaps %ymm29, 0x5e0(%rsp) vmovaps %ymm31, 0x5c0(%rsp) vmovaps %ymm21, 0x5a0(%rsp) vmovaps %ymm6, 0x580(%rsp) vmovaps %ymm30, 0x560(%rsp) vmovshdup %xmm1, %xmm0 # xmm0 = xmm1[1,1,3,3] vsubss %xmm1, %xmm0, %xmm0 vmulss 0x21b330(%rip), %xmm0, %xmm2 # 0x1f20ed0 vmovaps %xmm2, 0x60(%rsp) vmovaps %xmm1, 0x2d0(%rsp) vbroadcastss %xmm1, %ymm4 vbroadcastss %xmm0, %ymm0 vmovaps %ymm4, 0x40(%rsp) vmovaps %ymm0, 0x200(%rsp) vfmadd231ps 0x21b34f(%rip), %ymm0, %ymm4 # ymm4 = (ymm0 * mem) + ymm4 vsubps %ymm4, %ymm3, %ymm7 vmulps %ymm7, %ymm7, %ymm8 vmulps %ymm7, %ymm8, %ymm0 vbroadcastss 0x1e6fa5(%rip), %ymm26 # 0x1eecb8c vmulps %ymm26, %ymm0, %ymm1 vmulps %ymm4, %ymm4, %ymm9 vmulps %ymm4, %ymm9, %ymm2 vaddps %ymm1, %ymm2, %ymm1 vmulps %ymm7, %ymm4, %ymm10 vmulps %ymm7, %ymm10, %ymm5 vbroadcastss 0x1eb3f2(%rip), %ymm14 # 0x1ef0ffc vmulps %ymm5, %ymm14, %ymm11 vmulps %ymm4, %ymm10, %ymm12 vbroadcastss 0x1eb3d9(%rip), %ymm15 # 0x1ef0ff4 vmulps %ymm15, %ymm12, %ymm13 vaddps %ymm13, %ymm11, %ymm11 vaddps %ymm1, %ymm11, %ymm1 vmulps %ymm26, %ymm2, %ymm11 vaddps %ymm0, %ymm11, %ymm11 vmulps %ymm14, %ymm12, %ymm12 vmulps %ymm5, %ymm15, %ymm5 vaddps %ymm5, %ymm12, %ymm5 vaddps %ymm5, %ymm11, %ymm5 vbroadcastss 0x1eb3b3(%rip), %ymm14 # 0x1ef1000 vmulps %ymm0, %ymm14, %ymm11 vmulps %ymm1, %ymm14, %ymm12 vmulps %ymm5, %ymm14, %ymm13 vmulps %ymm2, %ymm14, %ymm5 vmulps %ymm5, %ymm31, %ymm2 vmulps %ymm5, %ymm21, %ymm28 vmulps %ymm5, %ymm6, %ymm1 vmulps %ymm5, %ymm30, %ymm5 vfmadd231ps %ymm24, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm24) + ymm2 vfmadd231ps %ymm25, %ymm13, %ymm28 # ymm28 = (ymm13 * ymm25) + ymm28 vfmadd231ps %ymm27, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm27) + ymm1 vfmadd231ps %ymm13, %ymm29, %ymm5 # ymm5 = (ymm29 * ymm13) + ymm5 vfmadd231ps %ymm19, %ymm12, %ymm2 # ymm2 = (ymm12 * ymm19) + ymm2 vfmadd231ps %ymm20, %ymm12, %ymm28 # ymm28 = (ymm12 * ymm20) + ymm28 vfmadd231ps %ymm22, %ymm12, %ymm1 # ymm1 = (ymm12 * ymm22) + ymm1 vfmadd231ps %ymm12, %ymm23, %ymm5 # ymm5 = (ymm23 * ymm12) + ymm5 vfmadd231ps %ymm18, %ymm11, %ymm2 # ymm2 = (ymm11 * ymm18) + ymm2 vfmadd231ps %ymm16, %ymm11, %ymm28 # ymm28 = (ymm11 * ymm16) + ymm28 vfmadd231ps %ymm17, %ymm11, %ymm1 # ymm1 = (ymm11 * ymm17) + ymm1 vmovaps 0x760(%rsp), %ymm0 vfmadd231ps %ymm11, %ymm0, %ymm5 # ymm5 = (ymm0 * ymm11) + ymm5 vbroadcastss 0x21b1f3(%rip), %ymm26 # 0x1f20ec0 vxorps %ymm26, %ymm7, %ymm11 vmulps %ymm7, %ymm11, %ymm7 vxorps %ymm26, %ymm4, %ymm11 vmulps %ymm4, %ymm11, %ymm4 vmulps 0x1e6ea1(%rip){1to8}, %ymm10, %ymm10 # 0x1eecb8c vsubps %ymm10, %ymm4, %ymm4 vaddps %ymm10, %ymm8, %ymm8 vbroadcastss 0x1e6e82(%rip), %ymm10 # 0x1eecb80 vmulps %ymm7, %ymm10, %ymm7 vmulps %ymm4, %ymm10, %ymm4 vmulps %ymm10, %ymm8, %ymm8 vmulps %ymm10, %ymm9, %ymm9 vmulps %ymm9, %ymm31, %ymm10 vmulps %ymm9, %ymm21, %ymm12 vmulps %ymm6, %ymm9, %ymm13 vmulps %ymm9, %ymm30, %ymm9 vfmadd231ps %ymm24, %ymm8, %ymm10 # ymm10 = (ymm8 * ymm24) + ymm10 vfmadd231ps %ymm25, %ymm8, %ymm12 # ymm12 = (ymm8 * ymm25) + ymm12 vfmadd231ps %ymm27, %ymm8, %ymm13 # ymm13 = (ymm8 * ymm27) + ymm13 vfmadd231ps %ymm8, %ymm29, %ymm9 # ymm9 = (ymm29 * ymm8) + ymm9 vfmadd231ps %ymm19, %ymm4, %ymm10 # ymm10 = (ymm4 * ymm19) + ymm10 vfmadd231ps %ymm20, %ymm4, %ymm12 # ymm12 = (ymm4 * ymm20) + ymm12 vfmadd231ps %ymm22, %ymm4, %ymm13 # ymm13 = (ymm4 * ymm22) + ymm13 vfmadd231ps %ymm4, %ymm23, %ymm9 # ymm9 = (ymm23 * ymm4) + ymm9 vfmadd231ps %ymm18, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm18) + ymm10 vfmadd231ps %ymm16, %ymm7, %ymm12 # ymm12 = (ymm7 * ymm16) + ymm12 vfmadd231ps %ymm17, %ymm7, %ymm13 # ymm13 = (ymm7 * ymm17) + ymm13 vfmadd231ps %ymm7, %ymm0, %ymm9 # ymm9 = (ymm0 * ymm7) + ymm9 vbroadcastss 0x60(%rsp), %ymm4 vmulps %ymm4, %ymm10, %ymm11 vmulps %ymm4, %ymm12, %ymm12 vmulps %ymm4, %ymm13, %ymm13 vmulps %ymm4, %ymm9, %ymm6 vmovaps %ymm2, %ymm8 vmovaps 0x259f90(%rip), %ymm7 # 0x1f5fd20 vxorps %xmm31, %xmm31, %xmm31 vpermt2ps %ymm31, %ymm7, %ymm8 vmovaps %ymm28, %ymm9 vpermt2ps %ymm31, %ymm7, %ymm9 vmovaps %ymm1, %ymm10 vpermt2ps %ymm31, %ymm7, %ymm10 vaddps %ymm5, %ymm6, %ymm4 vmaxps %ymm4, %ymm5, %ymm14 vminps %ymm4, %ymm5, %ymm4 vmovaps %ymm5, %ymm15 vpermt2ps %ymm31, %ymm7, %ymm15 vmovaps %ymm11, %ymm19 vpermt2ps %ymm31, %ymm7, %ymm19 vmovaps %ymm12, %ymm20 vpermt2ps %ymm31, %ymm7, %ymm20 vmovaps %ymm13, %ymm0 vpermt2ps %ymm31, %ymm7, %ymm0 vpermt2ps %ymm31, %ymm7, %ymm6 vsubps %ymm6, %ymm15, %ymm16 vsubps %ymm2, %ymm8, %ymm7 vsubps %ymm28, %ymm9, %ymm6 vsubps %ymm1, %ymm10, %ymm5 vmulps %ymm13, %ymm6, %ymm17 vfmsub231ps %ymm5, %ymm12, %ymm17 # ymm17 = (ymm12 * ymm5) - ymm17 vmulps %ymm11, %ymm5, %ymm18 vfmsub231ps %ymm7, %ymm13, %ymm18 # ymm18 = (ymm13 * ymm7) - ymm18 vmulps %ymm12, %ymm7, %ymm22 vfmsub231ps %ymm6, %ymm11, %ymm22 # ymm22 = (ymm11 * ymm6) - ymm22 vmulps %ymm22, %ymm22, %ymm22 vfmadd231ps %ymm18, %ymm18, %ymm22 # ymm22 = (ymm18 * ymm18) + ymm22 vfmadd231ps %ymm17, %ymm17, %ymm22 # ymm22 = (ymm17 * ymm17) + ymm22 vmulps %ymm5, %ymm5, %ymm17 vfmadd231ps %ymm6, %ymm6, %ymm17 # ymm17 = (ymm6 * ymm6) + ymm17 vfmadd231ps %ymm7, %ymm7, %ymm17 # ymm17 = (ymm7 * ymm7) + ymm17 vrcp14ps %ymm17, %ymm18 vmovaps %ymm18, %ymm23 vfnmadd213ps %ymm3, %ymm17, %ymm23 # ymm23 = -(ymm17 * ymm23) + ymm3 vfmadd132ps %ymm18, %ymm18, %ymm23 # ymm23 = (ymm23 * ymm18) + ymm18 vmulps %ymm23, %ymm22, %ymm18 vmulps %ymm0, %ymm6, %ymm22 vfmsub231ps %ymm5, %ymm20, %ymm22 # ymm22 = (ymm20 * ymm5) - ymm22 vmulps %ymm19, %ymm5, %ymm24 vfmsub231ps %ymm7, %ymm0, %ymm24 # ymm24 = (ymm0 * ymm7) - ymm24 vmulps %ymm20, %ymm7, %ymm25 vfmsub231ps %ymm6, %ymm19, %ymm25 # ymm25 = (ymm19 * ymm6) - ymm25 vmulps %ymm25, %ymm25, %ymm25 vfmadd231ps %ymm24, %ymm24, %ymm25 # ymm25 = (ymm24 * ymm24) + ymm25 vfmadd231ps %ymm22, %ymm22, %ymm25 # ymm25 = (ymm22 * ymm22) + ymm25 vmulps %ymm23, %ymm25, %ymm22 vmaxps %ymm22, %ymm18, %ymm18 vsqrtps %ymm18, %ymm18 vmaxps %ymm15, %ymm16, %ymm22 vmaxps %ymm22, %ymm14, %ymm14 vaddps %ymm14, %ymm18, %ymm14 vminps %ymm15, %ymm16, %ymm15 vminps %ymm15, %ymm4, %ymm4 vsubps %ymm18, %ymm4, %ymm4 vmulps 0x1eaa61(%rip){1to8}, %ymm14, %ymm14 # 0x1ef0940 vmulps 0x1eaa5b(%rip){1to8}, %ymm4, %ymm4 # 0x1ef0944 vmovaps %ymm4, 0x60(%rsp) vmulps %ymm14, %ymm14, %ymm4 vrsqrt14ps %ymm17, %ymm15 vmulps 0x1e6818(%rip){1to8}, %ymm17, %ymm14 # 0x1eec71c vmulps %ymm14, %ymm15, %ymm14 vmulps %ymm15, %ymm15, %ymm16 vmulps %ymm14, %ymm16, %ymm14 vfmadd231ps 0x1e67f9(%rip){1to8}, %ymm15, %ymm14 # ymm14 = (ymm15 * mem) + ymm14 vmulps %ymm7, %ymm14, %ymm15 vmulps %ymm14, %ymm6, %ymm16 vmulps %ymm14, %ymm5, %ymm18 vsubps %ymm2, %ymm31, %ymm27 vmovaps %ymm28, 0xa0(%rsp) vsubps %ymm28, %ymm31, %ymm28 vmovaps %ymm1, 0x1e0(%rsp) vsubps %ymm1, %ymm31, %ymm29 vmovaps 0x440(%rsp), %ymm17 vmulps %ymm29, %ymm17, %ymm22 vmovaps 0x460(%rsp), %ymm21 vfmadd231ps %ymm28, %ymm21, %ymm22 # ymm22 = (ymm21 * ymm28) + ymm22 vmovaps 0x480(%rsp), %ymm1 vfmadd231ps %ymm27, %ymm1, %ymm22 # ymm22 = (ymm1 * ymm27) + ymm22 vmulps %ymm29, %ymm29, %ymm24 vfmadd231ps %ymm28, %ymm28, %ymm24 # ymm24 = (ymm28 * ymm28) + ymm24 vfmadd231ps %ymm27, %ymm27, %ymm24 # ymm24 = (ymm27 * ymm27) + ymm24 vmulps %ymm18, %ymm17, %ymm17 vfmadd231ps %ymm21, %ymm16, %ymm17 # ymm17 = (ymm16 * ymm21) + ymm17 vfmadd231ps %ymm1, %ymm15, %ymm17 # ymm17 = (ymm15 * ymm1) + ymm17 vmulps %ymm18, %ymm29, %ymm18 vfmadd231ps %ymm16, %ymm28, %ymm18 # ymm18 = (ymm28 * ymm16) + ymm18 vfmadd231ps %ymm15, %ymm27, %ymm18 # ymm18 = (ymm27 * ymm15) + ymm18 vmulps %ymm17, %ymm17, %ymm1 vmovaps 0x740(%rsp), %ymm16 vsubps %ymm1, %ymm16, %ymm15 vmulps %ymm18, %ymm17, %ymm25 vsubps %ymm25, %ymm22, %ymm22 vaddps %ymm22, %ymm22, %ymm22 vmulps %ymm18, %ymm18, %ymm25 vsubps %ymm25, %ymm24, %ymm21 vsubps %ymm4, %ymm21, %ymm4 vmulps %ymm22, %ymm22, %ymm25 vmulps 0x1e6b91(%rip){1to8}, %ymm15, %ymm24 # 0x1eecb8c vmulps %ymm4, %ymm24, %ymm30 vsubps %ymm30, %ymm25, %ymm30 vcmpnltps %ymm31, %ymm30, %k1 kmovd %k1, %edi kortestb %k1, %k1 vmovaps %ymm1, 0x2a0(%rsp) je 0x1d06104 vsqrtps %ymm30, %ymm30 vaddps %ymm15, %ymm15, %ymm31 vmovaps %ymm3, %ymm16 vrcp14ps %ymm31, %ymm3 vfnmadd213ps %ymm16, %ymm3, %ymm31 # ymm31 = -(ymm3 * ymm31) + ymm16 vfmadd132ps %ymm3, %ymm3, %ymm31 # ymm31 = (ymm31 * ymm3) + ymm3 vxorps %ymm26, %ymm22, %ymm3 vsubps %ymm30, %ymm3, %ymm3 vmulps %ymm31, %ymm3, %ymm3 vsubps %ymm22, %ymm30, %ymm30 vmulps %ymm31, %ymm30, %ymm30 vmovaps %ymm17, %ymm31 vfmadd213ps %ymm18, %ymm3, %ymm31 # ymm31 = (ymm3 * ymm31) + ymm18 vmulps %ymm31, %ymm14, %ymm31 vmovaps %ymm31, 0x3e0(%rsp) vmovaps %ymm17, %ymm31 vfmadd213ps %ymm18, %ymm30, %ymm31 # ymm31 = (ymm30 * ymm31) + ymm18 vmulps %ymm31, %ymm14, %ymm31 vmovaps %ymm31, 0x3c0(%rsp) vbroadcastss 0x1e597b(%rip), %ymm16 # 0x1eeba20 vblendmps %ymm3, %ymm16, %ymm31 {%k1} vbroadcastss 0x1e6ad0(%rip), %ymm3 # 0x1eecb84 vblendmps %ymm30, %ymm3, %ymm30 {%k1} vbroadcastss 0x21ae00(%rip), %ymm23 # 0x1f20ec4 vandps %ymm23, %ymm1, %ymm3 vmovaps 0x420(%rsp), %ymm16 vmaxps %ymm3, %ymm16, %ymm3 vmulps 0x1ebdd2(%rip){1to8}, %ymm3, %ymm3 # 0x1ef1eb4 vandps %ymm23, %ymm15, %ymm23 vcmpltps %ymm3, %ymm23, %k1 {%k1} kortestb %k1, %k1 jne 0x1d07d24 vbroadcastss 0x1e6612(%rip), %ymm3 # 0x1eec714 jmp 0x1d06118 vbroadcastss 0x1e5912(%rip), %ymm31 # 0x1eeba20 vbroadcastss 0x1e6a6c(%rip), %ymm30 # 0x1eecb84 andb $0x7f, %dil je 0x1d0650c vmovaps %ymm21, 0x140(%rsp) vmovaps %ymm3, %ymm16 vmovss 0xc(%r15), %xmm3 vmovss 0x20(%r15), %xmm4 vmovaps 0x2f0(%rsp), %xmm23 vsubss %xmm23, %xmm3, %xmm3 vbroadcastss %xmm3, %ymm3 vmaxps %ymm31, %ymm3, %ymm3 vsubss %xmm23, %xmm4, %xmm4 vbroadcastss %xmm4, %ymm4 vminps %ymm30, %ymm4, %ymm4 vmulps %ymm29, %ymm13, %ymm23 vfmadd213ps %ymm23, %ymm12, %ymm28 # ymm28 = (ymm12 * ymm28) + ymm23 vfmadd213ps %ymm28, %ymm11, %ymm27 # ymm27 = (ymm11 * ymm27) + ymm28 vmovaps 0x440(%rsp), %ymm21 vmulps %ymm13, %ymm21, %ymm13 vmovaps 0x460(%rsp), %ymm31 vfmadd231ps %ymm12, %ymm31, %ymm13 # ymm13 = (ymm31 * ymm12) + ymm13 vmovaps 0x480(%rsp), %ymm30 vfmadd231ps %ymm11, %ymm30, %ymm13 # ymm13 = (ymm30 * ymm11) + ymm13 vbroadcastss 0x21ad18(%rip), %ymm28 # 0x1f20ec4 vandps %ymm28, %ymm13, %ymm11 vbroadcastss 0x1eae2c(%rip), %ymm29 # 0x1ef0fe8 vcmpltps %ymm29, %ymm11, %k0 vbroadcastss 0x21acf3(%rip), %ymm26 # 0x1f20ec0 vxorps %ymm26, %ymm27, %ymm11 vrcp14ps %ymm13, %ymm12 vxorps %ymm26, %ymm13, %ymm23 vmovaps %ymm12, %ymm27 vfnmadd213ps %ymm16, %ymm13, %ymm27 # ymm27 = -(ymm13 * ymm27) + ymm16 vfmadd132ps %ymm12, %ymm12, %ymm27 # ymm27 = (ymm27 * ymm12) + ymm12 vmulps %ymm11, %ymm27, %ymm11 vcmpltps %ymm23, %ymm13, %k1 korb %k1, %k0, %k1 vbroadcastss 0x1e6978(%rip), %ymm27 # 0x1eecb84 vblendmps %ymm27, %ymm11, %ymm12 {%k1} vmaxps %ymm12, %ymm3, %ymm3 vcmpnleps %ymm23, %ymm13, %k1 korb %k1, %k0, %k1 vbroadcastss 0x1e57f4(%rip), %ymm23 # 0x1eeba20 vmovaps %ymm23, %ymm11 {%k1} vminps %ymm11, %ymm4, %ymm4 vxorps %xmm13, %xmm13, %xmm13 vsubps %ymm8, %ymm13, %ymm8 vsubps %ymm9, %ymm13, %ymm9 vsubps %ymm10, %ymm13, %ymm10 vmulps %ymm0, %ymm10, %ymm10 vfnmsub231ps %ymm9, %ymm20, %ymm10 # ymm10 = -(ymm20 * ymm9) - ymm10 vfnmadd231ps %ymm8, %ymm19, %ymm10 # ymm10 = -(ymm19 * ymm8) + ymm10 vmulps %ymm0, %ymm21, %ymm8 vfnmsub231ps %ymm20, %ymm31, %ymm8 # ymm8 = -(ymm31 * ymm20) - ymm8 vfnmadd231ps %ymm19, %ymm30, %ymm8 # ymm8 = -(ymm30 * ymm19) + ymm8 vandps %ymm28, %ymm8, %ymm9 vcmpltps %ymm29, %ymm9, %k0 vxorps %ymm26, %ymm10, %ymm9 vrcp14ps %ymm8, %ymm10 vxorps %ymm26, %ymm8, %ymm11 vmovaps %ymm10, %ymm12 vfnmadd213ps %ymm16, %ymm8, %ymm12 # ymm12 = -(ymm8 * ymm12) + ymm16 vfmadd132ps %ymm10, %ymm10, %ymm12 # ymm12 = (ymm12 * ymm10) + ymm10 vmulps %ymm9, %ymm12, %ymm9 vcmpltps %ymm11, %ymm8, %k1 korb %k1, %k0, %k1 vblendmps %ymm27, %ymm9, %ymm10 {%k1} vmaxps %ymm10, %ymm3, %ymm0 vcmpnleps %ymm11, %ymm8, %k1 korb %k1, %k0, %k1 vmovaps %ymm23, %ymm9 {%k1} vminps %ymm9, %ymm4, %ymm8 vmovaps %ymm0, 0x360(%rsp) vcmpleps %ymm8, %ymm0, %k0 kmovd %k0, %ecx andb %cl, %dil je 0x1d0651b vmovaps 0x3e0(%rsp), %ymm3 vmaxps 0x60(%rsp), %ymm13, %ymm4 vminps %ymm16, %ymm3, %ymm3 vxorps %xmm10, %xmm10, %xmm10 vmaxps %ymm10, %ymm3, %ymm3 vmovaps 0x3c0(%rsp), %ymm9 vminps %ymm16, %ymm9, %ymm9 vmovaps 0x21ac20(%rip), %ymm11 # 0x1f20f40 vaddps %ymm3, %ymm11, %ymm3 vbroadcastss 0x21818b(%rip), %ymm12 # 0x1f1e4b8 vmulps %ymm3, %ymm12, %ymm3 vmovaps 0x40(%rsp), %ymm0 vmovaps 0x200(%rsp), %ymm1 vfmadd213ps %ymm0, %ymm1, %ymm3 # ymm3 = (ymm1 * ymm3) + ymm0 vmovaps %ymm3, 0x3e0(%rsp) vmaxps %ymm10, %ymm9, %ymm3 vaddps %ymm3, %ymm11, %ymm3 vmulps %ymm3, %ymm12, %ymm3 vfmadd213ps %ymm0, %ymm1, %ymm3 # ymm3 = (ymm1 * ymm3) + ymm0 vmovaps %ymm3, 0x3c0(%rsp) vmulps %ymm4, %ymm4, %ymm3 vmovaps 0x140(%rsp), %ymm0 vsubps %ymm3, %ymm0, %ymm11 vmulps %ymm11, %ymm24, %ymm3 vsubps %ymm3, %ymm25, %ymm3 vcmpnltps %ymm10, %ymm3, %k0 kortestb %k0, %k0 je 0x1d06526 vxorps %xmm20, %xmm20, %xmm20 vcmpnltps %ymm13, %ymm3, %k1 vsqrtps %ymm3, %ymm3 vaddps %ymm15, %ymm15, %ymm4 vrcp14ps %ymm4, %ymm9 vfnmadd213ps %ymm16, %ymm9, %ymm4 # ymm4 = -(ymm9 * ymm4) + ymm16 vfmadd132ps %ymm9, %ymm9, %ymm4 # ymm4 = (ymm4 * ymm9) + ymm9 vxorps 0x21aaf8(%rip){1to8}, %ymm22, %ymm9 # 0x1f20ec0 vsubps %ymm3, %ymm9, %ymm9 vmulps %ymm4, %ymm9, %ymm12 vsubps %ymm22, %ymm3, %ymm3 vmulps %ymm4, %ymm3, %ymm13 vmovaps %ymm17, %ymm3 vfmadd213ps %ymm18, %ymm12, %ymm3 # ymm3 = (ymm12 * ymm3) + ymm18 vmulps %ymm3, %ymm14, %ymm9 vmulps %ymm12, %ymm30, %ymm3 vmulps %ymm12, %ymm31, %ymm4 vmulps %ymm12, %ymm21, %ymm10 vmovaps %ymm7, %ymm19 vfmadd213ps %ymm2, %ymm9, %ymm19 # ymm19 = (ymm9 * ymm19) + ymm2 vsubps %ymm19, %ymm3, %ymm3 vmovaps %ymm6, %ymm19 vmovaps 0xa0(%rsp), %ymm1 vfmadd213ps %ymm1, %ymm9, %ymm19 # ymm19 = (ymm9 * ymm19) + ymm1 vsubps %ymm19, %ymm4, %ymm4 vmovaps 0x1e0(%rsp), %ymm0 vfmadd213ps %ymm0, %ymm5, %ymm9 # ymm9 = (ymm5 * ymm9) + ymm0 vsubps %ymm9, %ymm10, %ymm9 vfmadd213ps %ymm18, %ymm13, %ymm17 # ymm17 = (ymm13 * ymm17) + ymm18 vmulps %ymm17, %ymm14, %ymm14 vmulps %ymm13, %ymm30, %ymm10 vmulps %ymm13, %ymm31, %ymm17 vmulps %ymm13, %ymm21, %ymm18 vfmadd213ps %ymm2, %ymm14, %ymm7 # ymm7 = (ymm14 * ymm7) + ymm2 vsubps %ymm7, %ymm10, %ymm10 vfmadd213ps %ymm1, %ymm14, %ymm6 # ymm6 = (ymm14 * ymm6) + ymm1 vsubps %ymm6, %ymm17, %ymm1 vfmadd213ps %ymm0, %ymm14, %ymm5 # ymm5 = (ymm14 * ymm5) + ymm0 vsubps %ymm5, %ymm18, %ymm5 vbroadcastss 0x1e559e(%rip), %ymm0 # 0x1eeba20 vblendmps %ymm12, %ymm0, %ymm2 {%k1} vbroadcastss 0x1e66f3(%rip), %ymm0 # 0x1eecb84 vblendmps %ymm13, %ymm0, %ymm0 {%k1} vandps 0x2a0(%rsp), %ymm28, %ymm6 vmovaps 0x420(%rsp), %ymm7 vmaxps %ymm6, %ymm7, %ymm6 vmulps 0x1eb9fe(%rip){1to8}, %ymm6, %ymm6 # 0x1ef1eb4 vandps %ymm28, %ymm15, %ymm7 vcmpltps %ymm6, %ymm7, %k1 {%k1} kortestb %k1, %k1 je 0x1d0654d vcmpleps %ymm20, %ymm11, %k2 vbroadcastss 0x1e66a7(%rip), %ymm7 # 0x1eecb84 vbroadcastss 0x1e553a(%rip), %ymm11 # 0x1eeba20 vblendmps %ymm7, %ymm11, %ymm6 {%k2} vmovaps %ymm6, %ymm2 {%k1} vblendmps %ymm11, %ymm7, %ymm6 {%k2} vmovaps %ymm6, %ymm0 {%k1} knotb %k1, %k1 korb %k2, %k1, %k1 kandb %k0, %k1, %k0 jmp 0x1d0654d vbroadcastss 0x21a9ae(%rip), %ymm28 # 0x1f20ec4 jmp 0x1d07056 vmovaps %ymm16, %ymm3 jmp 0x1d07056 vxorps %xmm1, %xmm1, %xmm1 vxorps %xmm5, %xmm5, %xmm5 vxorps %xmm3, %xmm3, %xmm3 vxorps %xmm4, %xmm4, %xmm4 vxorps %xmm9, %xmm9, %xmm9 vbroadcastss 0x1e54dc(%rip), %ymm2 # 0x1eeba20 vbroadcastss 0x1e6637(%rip), %ymm0 # 0x1eecb84 vbroadcastss 0x10(%r15), %ymm6 vbroadcastss 0x14(%r15), %ymm7 vbroadcastss 0x18(%r15), %ymm11 vmulps %ymm5, %ymm11, %ymm5 vfmadd231ps %ymm1, %ymm7, %ymm5 # ymm5 = (ymm7 * ymm1) + ymm5 vfmadd231ps %ymm10, %ymm6, %ymm5 # ymm5 = (ymm6 * ymm10) + ymm5 vmovaps 0x360(%rsp), %ymm10 vmovaps %ymm10, 0x4a0(%rsp) vminps %ymm2, %ymm8, %ymm1 vmovaps %ymm1, 0x4c0(%rsp) vandps %ymm28, %ymm5, %ymm2 vmaxps %ymm0, %ymm10, %ymm5 vmovaps %ymm5, 0x4e0(%rsp) vmovaps %ymm8, 0x500(%rsp) vbroadcastss 0x21a923(%rip), %ymm0 # 0x1f20ed4 vcmpltps %ymm0, %ymm2, %k1 kmovd %k1, 0x10c(%rsp) vcmpleps %ymm1, %ymm10, %k1 kmovd %k1, %esi andb %dil, %sil vmovaps %ymm5, 0x380(%rsp) vcmpleps %ymm8, %ymm5, %k1 kmovd %k1, %ecx andb %dil, %cl movl %ecx, 0x20(%rsp) orb %sil, %cl je 0x1d0704d vmovaps %ymm0, %ymm2 movq %r12, 0x90(%rsp) movq %r14, 0x1b0(%rsp) movb %al, 0xf(%rsp) knotb %k0, %k1 vmulps %ymm11, %ymm9, %ymm0 vfmadd213ps %ymm0, %ymm7, %ymm4 # ymm4 = (ymm7 * ymm4) + ymm0 vfmadd213ps %ymm4, %ymm6, %ymm3 # ymm3 = (ymm6 * ymm3) + ymm4 vandps %ymm28, %ymm3, %ymm0 vcmpltps %ymm2, %ymm0, %k0 kmovd %k1, 0x104(%rsp) korb %k1, %k0, %k1 vpbroadcastd 0x21a899(%rip), %ymm0 # 0x1f20edc vpblendmd 0x21a88b(%rip){1to8}, %ymm0, %ymm0 {%k1} # 0x1f20ed8 movq 0xf8(%rsp), %rax vpbroadcastd %eax, %ymm1 vmovdqa %ymm0, 0x520(%rsp) vmovdqa %ymm1, 0x400(%rsp) vpcmpnltd %ymm0, %ymm1, %k0 kmovd %k0, %r12d movl %esi, 0x108(%rsp) andb %sil, %r12b movq %r11, 0x1b8(%rsp) je 0x1d07064 vmovaps 0x280(%rsp), %ymm1 vmovaps 0x240(%rsp), %ymm2 vminps %xmm2, %xmm1, %xmm0 vmaxps %xmm2, %xmm1, %xmm1 vmovaps 0x260(%rsp), %ymm3 vmovaps 0x220(%rsp), %ymm4 vminps %xmm4, %xmm3, %xmm2 vminps %xmm2, %xmm0, %xmm0 vmaxps %xmm4, %xmm3, %xmm2 vmaxps %xmm2, %xmm1, %xmm1 vbroadcastss 0x21a7ef(%rip), %xmm2 # 0x1f20ec4 vandps %xmm2, %xmm0, %xmm0 vandps %xmm2, %xmm1, %xmm2 vmaxps %xmm2, %xmm0, %xmm0 vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3] vmaxss %xmm0, %xmm2, %xmm2 vshufpd $0x1, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[1,0] vmaxss %xmm2, %xmm0, %xmm0 vmulss 0x1eb7ba(%rip), %xmm0, %xmm0 # 0x1ef1eb4 vmovss %xmm0, 0x30(%rsp) vshufps $0xff, %xmm1, %xmm1, %xmm0 # xmm0 = xmm1[3,3,3,3] vmovaps %xmm0, 0x2e0(%rsp) vmovaps 0x360(%rsp), %ymm0 vaddps 0x1c0(%rsp), %ymm0, %ymm0 vmovaps %ymm0, 0x3a0(%rsp) kmovd %r12d, %k1 vbroadcastss 0x1e52e9(%rip), %ymm0 # 0x1eeba20 vblendmps 0x360(%rsp), %ymm0, %ymm0 {%k1} vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm0, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1] vminps %ymm2, %ymm1, %ymm1 vcmpeqps %ymm1, %ymm0, %k0 kmovd %k0, %eax andb %r12b, %al movzbl %al, %eax movzbl %r12b, %ecx cmovnel %eax, %ecx tzcntl %ecx, %ecx movb $0x1, %r14b shlb %cl, %r14b shll $0x2, %ecx vmovss 0x3e0(%rsp,%rcx), %xmm10 vmovss 0x4a0(%rsp,%rcx), %xmm8 vmovaps 0x10(%r15), %xmm0 vmovaps %xmm0, 0x2a0(%rsp) vdpps $0x7f, %xmm0, %xmm0, %xmm0 vucomiss 0x1e5275(%rip), %xmm0 # 0x1eeba24 jb 0x1d067b7 vsqrtss %xmm0, %xmm0, %xmm0 jmp 0x1d067e9 vmovaps %xmm10, 0x40(%rsp) vmovaps %xmm8, 0xa0(%rsp) kmovw %k1, 0x60(%rsp) vzeroupper callq 0x6aa20 kmovw 0x60(%rsp), %k1 vmovaps 0xa0(%rsp), %xmm8 vmovaps 0x40(%rsp), %xmm10 movzbl %r14b, %eax kmovd %eax, %k0 kandnb %k1, %k0, %k0 kmovd %k0, %r12d vmulss 0x1eb6b3(%rip), %xmm0, %xmm0 # 0x1ef1eb4 vmovss %xmm0, 0x34(%rsp) movl $0x5, %r14d vmovaps %xmm8, 0xa0(%rsp) vbroadcastss %xmm8, %xmm0 vxorps %xmm1, %xmm1, %xmm1 vfmadd132ps 0x2a0(%rsp), %xmm1, %xmm0 # xmm0 = (xmm0 * mem) + xmm1 vmovss 0x1e5ee3(%rip), %xmm1 # 0x1eec714 vsubss %xmm10, %xmm1, %xmm4 vmulss %xmm4, %xmm4, %xmm1 vmulss %xmm1, %xmm4, %xmm1 vmulss %xmm10, %xmm10, %xmm11 vmulss %xmm11, %xmm10, %xmm2 vmovss 0x1e633c(%rip), %xmm7 # 0x1eecb8c vmovaps %xmm7, %xmm3 vfmadd213ss %xmm2, %xmm1, %xmm3 # xmm3 = (xmm1 * xmm3) + xmm2 vmulss %xmm4, %xmm10, %xmm12 vmovaps %xmm4, 0x60(%rsp) vmulss %xmm4, %xmm12, %xmm4 vmulss %xmm12, %xmm10, %xmm5 vmovss 0x1ea780(%rip), %xmm8 # 0x1ef0ff4 vmulss %xmm5, %xmm8, %xmm6 vmovss 0x1ea77c(%rip), %xmm9 # 0x1ef0ffc vfmadd231ss %xmm9, %xmm4, %xmm6 # xmm6 = (xmm4 * xmm9) + xmm6 vaddss %xmm6, %xmm3, %xmm3 vmovaps %xmm7, %xmm6 vfmadd213ss %xmm1, %xmm2, %xmm6 # xmm6 = (xmm2 * xmm6) + xmm1 vmulss %xmm4, %xmm8, %xmm4 vfmadd231ss %xmm5, %xmm9, %xmm4 # xmm4 = (xmm9 * xmm5) + xmm4 vaddss %xmm4, %xmm6, %xmm4 vmovss 0x1ea759(%rip), %xmm5 # 0x1ef1000 vmulss %xmm5, %xmm1, %xmm1 vmulss %xmm5, %xmm3, %xmm3 vmulss %xmm5, %xmm4, %xmm4 vmulss %xmm5, %xmm2, %xmm2 vbroadcastss %xmm2, %xmm2 vmulps 0x220(%rsp), %xmm2, %xmm2 vbroadcastss %xmm4, %xmm4 vfmadd132ps 0x260(%rsp), %xmm2, %xmm4 # xmm4 = (xmm4 * mem) + xmm2 vbroadcastss %xmm3, %xmm2 vfmadd132ps 0x240(%rsp), %xmm4, %xmm2 # xmm2 = (xmm2 * mem) + xmm4 vbroadcastss %xmm1, %xmm1 vfmadd132ps 0x280(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2 vmovaps %xmm1, 0x350(%rsp) vsubps %xmm1, %xmm0, %xmm0 vmovaps %xmm0, 0x200(%rsp) vdpps $0x7f, %xmm0, %xmm0, %xmm0 vucomiss 0x1e510e(%rip), %xmm0 # 0x1eeba24 vmovaps %xmm10, 0x40(%rsp) vmovaps %xmm0, 0x1e0(%rsp) jb 0x1d0692d vsqrtss %xmm0, %xmm0, %xmm7 jmp 0x1d0695d vmovss %xmm11, 0x140(%rsp) vmovss %xmm12, 0x10(%rsp) vzeroupper callq 0x6aa20 vmovss 0x10(%rsp), %xmm12 vmovss 0x140(%rsp), %xmm11 vmovaps 0x40(%rsp), %xmm10 vmovaps %xmm0, %xmm7 vmovaps 0x60(%rsp), %xmm3 vbroadcastss %xmm3, %xmm1 vbroadcastss 0x21a54f(%rip), %xmm4 # 0x1f20ec0 vmovaps %xmm1, 0x340(%rsp) vxorps %xmm4, %xmm1, %xmm0 vmulss %xmm0, %xmm3, %xmm0 vmulss 0x1e6202(%rip), %xmm12, %xmm1 # 0x1eecb8c vmovaps %xmm10, %xmm2 vfnmsub213ss %xmm1, %xmm10, %xmm2 # xmm2 = -(xmm10 * xmm2) - xmm1 vfmadd231ss %xmm3, %xmm3, %xmm1 # xmm1 = (xmm3 * xmm3) + xmm1 vmovss 0x1e61e0(%rip), %xmm3 # 0x1eecb80 vmulss %xmm3, %xmm0, %xmm0 vmulss %xmm3, %xmm2, %xmm2 vmulss %xmm3, %xmm1, %xmm1 vmulss %xmm3, %xmm11, %xmm3 vbroadcastss %xmm3, %xmm3 vmulps 0x220(%rsp), %xmm3, %xmm3 vbroadcastss %xmm1, %xmm1 vfmadd132ps 0x260(%rsp), %xmm3, %xmm1 # xmm1 = (xmm1 * mem) + xmm3 vbroadcastss %xmm2, %xmm2 vfmadd132ps 0x240(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1 vbroadcastss %xmm0, %xmm12 vfmadd132ps 0x280(%rsp), %xmm2, %xmm12 # xmm12 = (xmm12 * mem) + xmm2 vdpps $0x7f, %xmm12, %xmm12, %xmm0 vxorps %xmm1, %xmm1, %xmm1 vmovss %xmm0, %xmm1, %xmm2 # xmm2 = xmm0[0],xmm1[1,2,3] vrsqrt14ss %xmm2, %xmm1, %xmm3 vmulss 0x1e5d11(%rip), %xmm3, %xmm6 # 0x1eec718 vmulss 0x1e5d0d(%rip), %xmm0, %xmm8 # 0x1eec71c vrcp14ss %xmm2, %xmm1, %xmm2 vxorps %xmm4, %xmm0, %xmm1 vmovaps %xmm2, 0x320(%rsp) vfnmadd213ss 0x1ea5cd(%rip), %xmm0, %xmm2 # xmm2 = -(xmm0 * xmm2) + mem vmovss %xmm2, 0x38(%rsp) vucomiss %xmm1, %xmm0 vmovaps %xmm12, 0x140(%rsp) vmovss %xmm7, 0x10(%rsp) vmovaps %xmm0, 0x330(%rsp) jb 0x1d06a55 vsqrtss %xmm0, %xmm0, %xmm5 jmp 0x1d06aa0 vmovaps %xmm3, 0xe0(%rsp) vmovss %xmm6, 0x14(%rsp) vmovss %xmm8, 0xd0(%rsp) vzeroupper callq 0x6aa20 vmovss 0xd0(%rsp), %xmm8 vmovss 0x14(%rsp), %xmm6 vmovaps 0xe0(%rsp), %xmm3 vmovss 0x10(%rsp), %xmm7 vmovaps 0x140(%rsp), %xmm12 vmovaps %xmm0, %xmm5 vmovaps 0x200(%rsp), %xmm9 vmovaps 0x1e0(%rsp), %xmm18 vmulss %xmm3, %xmm8, %xmm0 vmulss %xmm3, %xmm3, %xmm1 vmulss %xmm1, %xmm0, %xmm0 vaddss %xmm0, %xmm6, %xmm0 vbroadcastss %xmm0, %xmm4 vmulps %xmm4, %xmm12, %xmm0 vmovaps %xmm0, 0xe0(%rsp) vdpps $0x7f, %xmm0, %xmm9, %xmm14 vaddss 0x1e5c33(%rip), %xmm7, %xmm13 # 0x1eec714 vmulps %xmm14, %xmm14, %xmm0 vsubps %xmm0, %xmm18, %xmm0 vxorps %xmm2, %xmm2, %xmm2 vmovss %xmm0, %xmm2, %xmm1 # xmm1 = xmm0[0],xmm2[1,2,3] vrsqrt14ss %xmm1, %xmm2, %xmm15 vmulss 0x1e5c14(%rip), %xmm15, %xmm17 # 0x1eec718 vmulss 0x1e5c0e(%rip), %xmm0, %xmm19 # 0x1eec71c vucomiss 0x1e4f0e(%rip), %xmm0 # 0x1eeba24 jb 0x1d06b21 vsqrtss %xmm0, %xmm0, %xmm0 jmp 0x1d06bb7 vmovss %xmm13, 0x14(%rsp) vmovaps %xmm14, 0xd0(%rsp) vmovss %xmm5, 0x2c(%rsp) vmovaps %xmm15, 0x310(%rsp) vmovss %xmm17, 0x28(%rsp) vmovss %xmm19, 0x24(%rsp) vmovaps %xmm4, 0x300(%rsp) vzeroupper callq 0x6aa20 vmovaps 0x300(%rsp), %xmm4 vmovss 0x24(%rsp), %xmm19 vmovss 0x28(%rsp), %xmm17 vmovaps 0x310(%rsp), %xmm15 vmovss 0x2c(%rsp), %xmm5 vmovaps 0xd0(%rsp), %xmm14 vmovss 0x14(%rsp), %xmm13 vmovss 0x10(%rsp), %xmm7 vmovaps 0x140(%rsp), %xmm12 vmovaps 0x1e0(%rsp), %xmm18 vmovaps 0x200(%rsp), %xmm9 vbroadcastss 0x21a303(%rip), %ymm28 # 0x1f20ec4 vmovaps 0x40(%rsp), %xmm10 vmovaps 0xa0(%rsp), %xmm8 vmovss 0x1e9e04(%rip), %xmm2 # 0x1ef09dc vmovaps %xmm2, %xmm1 vmovaps 0x60(%rsp), %xmm3 vfmadd213ss %xmm10, %xmm3, %xmm1 # xmm1 = (xmm3 * xmm1) + xmm10 vfmadd231ss %xmm2, %xmm10, %xmm3 # xmm3 = (xmm10 * xmm2) + xmm3 vbroadcastss %xmm10, %xmm2 vmulps 0x220(%rsp), %xmm2, %xmm2 vbroadcastss %xmm3, %xmm3 vfmadd132ps 0x260(%rsp), %xmm2, %xmm3 # xmm3 = (xmm3 * mem) + xmm2 vbroadcastss %xmm1, %xmm1 vfmadd132ps 0x240(%rsp), %xmm3, %xmm1 # xmm1 = (xmm1 * mem) + xmm3 vmovaps 0x340(%rsp), %xmm2 vfmadd132ps 0x280(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1 vbroadcastss 0x330(%rsp), %xmm1 vmulps %xmm1, %xmm2, %xmm1 vdpps $0x7f, %xmm2, %xmm12, %xmm2 vbroadcastss %xmm2, %xmm2 vmulps %xmm2, %xmm12, %xmm2 vsubps %xmm2, %xmm1, %xmm2 vmovss 0x38(%rsp), %xmm1 vmulss 0x320(%rsp), %xmm1, %xmm3 vmulss 0x34(%rsp), %xmm8, %xmm1 vmovss 0x30(%rsp), %xmm6 vmaxss %xmm1, %xmm6, %xmm1 vbroadcastss %xmm3, %xmm3 vmulps %xmm3, %xmm2, %xmm2 vxorps 0x21a242(%rip){1to4}, %xmm12, %xmm3 # 0x1f20ec0 vmulps %xmm2, %xmm4, %xmm2 vmovaps 0xe0(%rsp), %xmm11 vdpps $0x7f, %xmm11, %xmm3, %xmm4 vdivss %xmm5, %xmm6, %xmm5 vfmadd213ss %xmm1, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm7) + xmm1 vdpps $0x7f, %xmm2, %xmm9, %xmm2 vfmadd213ss %xmm7, %xmm5, %xmm13 # xmm13 = (xmm5 * xmm13) + xmm7 vaddss %xmm2, %xmm4, %xmm4 vmovaps 0x2a0(%rsp), %xmm7 vdpps $0x7f, %xmm11, %xmm7, %xmm5 vdpps $0x7f, %xmm3, %xmm9, %xmm3 vmulss %xmm15, %xmm19, %xmm2 vmulss %xmm15, %xmm15, %xmm6 vmulss %xmm6, %xmm2, %xmm2 vaddss %xmm2, %xmm17, %xmm6 vdpps $0x7f, %xmm7, %xmm9, %xmm7 vfnmadd231ss %xmm4, %xmm14, %xmm3 # xmm3 = -(xmm14 * xmm4) + xmm3 vfnmadd231ss %xmm5, %xmm14, %xmm7 # xmm7 = -(xmm14 * xmm5) + xmm7 vpermilps $0xff, 0x350(%rsp), %xmm2 # xmm2 = mem[3,3,3,3] vsubss %xmm2, %xmm0, %xmm2 vshufps $0xff, %xmm12, %xmm12, %xmm0 # xmm0 = xmm12[3,3,3,3] vfmsub213ss %xmm0, %xmm6, %xmm3 # xmm3 = (xmm6 * xmm3) - xmm0 vmulss %xmm6, %xmm7, %xmm6 vmulss %xmm3, %xmm5, %xmm7 vfmsub231ss %xmm6, %xmm4, %xmm7 # xmm7 = (xmm4 * xmm6) - xmm7 vdivss %xmm7, %xmm6, %xmm6 vdivss %xmm7, %xmm3, %xmm3 vdivss %xmm7, %xmm5, %xmm5 vdivss %xmm7, %xmm4, %xmm4 vmulss %xmm6, %xmm14, %xmm6 vmulss %xmm5, %xmm2, %xmm5 vsubss %xmm5, %xmm6, %xmm5 vmulss %xmm3, %xmm14, %xmm3 vmulss %xmm4, %xmm2, %xmm4 vsubss %xmm3, %xmm4, %xmm3 vsubss %xmm5, %xmm10, %xmm10 vsubss %xmm3, %xmm8, %xmm8 vbroadcastss 0x21a181(%rip), %xmm4 # 0x1f20ec4 vandps %xmm4, %xmm14, %xmm3 vucomiss %xmm3, %xmm13 movb $0x1, %al jbe 0x1d06e1b vaddss %xmm1, %xmm13, %xmm1 vmovaps 0x2e0(%rsp), %xmm3 vfmadd231ss 0x1eb14b(%rip), %xmm3, %xmm1 # xmm1 = (xmm3 * mem) + xmm1 vandps %xmm4, %xmm2, %xmm2 vucomiss %xmm2, %xmm1 jbe 0x1d06e1b vaddss 0x2f0(%rsp), %xmm8, %xmm8 xorl %eax, %eax vucomiss 0xc(%r15), %xmm8 jb 0x1d06e18 vmovss 0x20(%r15), %xmm5 vucomiss %xmm8, %xmm5 jb 0x1d06e18 xorl %eax, %eax vucomiss 0x1e4c7f(%rip), %xmm10 # 0x1eeba24 jb 0x1d06e18 vmovss 0x1e5965(%rip), %xmm1 # 0x1eec714 vucomiss %xmm10, %xmm1 jb 0x1d06e18 vxorps %xmm2, %xmm2, %xmm2 vmovss %xmm18, %xmm2, %xmm1 # xmm1 = xmm18[0],xmm2[1,2,3] vrsqrt14ss %xmm1, %xmm2, %xmm1 vmulss 0x1e594a(%rip), %xmm1, %xmm2 # 0x1eec718 vmulss 0x1e5944(%rip), %xmm18, %xmm3 # 0x1eec71c movq 0x18(%rsp), %rcx movq (%rcx), %rax movq 0x1e8(%rax), %rax movq 0x98(%rsp), %rdx movq (%rax,%rdx,8), %r13 movl 0x24(%r15), %eax testl %eax, 0x34(%r13) je 0x1d06e16 movq 0x10(%rcx), %rax cmpq $0x0, 0x10(%rax) jne 0x1d06e31 cmpq $0x0, 0x48(%r13) jne 0x1d06e31 movb $0x1, %r13b xorl %eax, %eax jmp 0x1d06e1b xorl %eax, %eax xorl %r13d, %r13d testb %al, %al je 0x1d0701e decq %r14 jne 0x1d0680d jmp 0x1d07012 vmulss %xmm1, %xmm3, %xmm3 vmulss %xmm1, %xmm1, %xmm1 vmulss %xmm1, %xmm3, %xmm1 vaddss %xmm1, %xmm2, %xmm1 vbroadcastss %xmm1, %xmm1 vmulps %xmm1, %xmm9, %xmm1 vfmadd213ps %xmm12, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm0) + xmm12 vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3] vshufps $0xc9, %xmm12, %xmm12, %xmm3 # xmm3 = xmm12[1,2,0,3] vmulps %xmm3, %xmm1, %xmm1 vfmsub231ps %xmm2, %xmm12, %xmm1 # xmm1 = (xmm12 * xmm2) - xmm1 vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3] vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3] vshufps $0xd2, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,0,1,3] vmulps %xmm1, %xmm0, %xmm0 vfmsub231ps %xmm3, %xmm2, %xmm0 # xmm0 = (xmm2 * xmm3) - xmm0 movq 0x18(%rsp), %rdx movq 0x8(%rdx), %rax vshufps $0xe9, %xmm0, %xmm0, %xmm1 # xmm1 = xmm0[1,2,2,3] vmovlps %xmm1, 0x170(%rsp) vmovss %xmm0, 0x178(%rsp) vmovss %xmm10, 0x17c(%rsp) movl $0x0, 0x180(%rsp) movq 0x90(%rsp), %rcx movl %ecx, 0x184(%rsp) movq 0x98(%rsp), %rcx movl %ecx, 0x188(%rsp) movl (%rax), %ecx movl %ecx, 0x18c(%rsp) movl 0x4(%rax), %eax movl %eax, 0x190(%rsp) vmovss %xmm8, 0x20(%r15) movl $0xffffffff, 0x3c(%rsp) # imm = 0xFFFFFFFF leaq 0x3c(%rsp), %rax movq %rax, 0x110(%rsp) movq 0x18(%r13), %rax movq %rax, 0x118(%rsp) movq 0x8(%rdx), %rax movq %rax, 0x120(%rsp) movq %r15, 0x128(%rsp) leaq 0x170(%rsp), %rax movq %rax, 0x130(%rsp) movl $0x1, 0x138(%rsp) movq 0x48(%r13), %rax testq %rax, %rax vmovaps %xmm10, 0x40(%rsp) vmovaps %xmm8, 0xa0(%rsp) vmovss %xmm5, 0x60(%rsp) je 0x1d06f96 leaq 0x110(%rsp), %rdi vzeroupper callq *%rax vmovss 0x60(%rsp), %xmm5 vmovaps 0xa0(%rsp), %xmm8 vmovaps 0x40(%rsp), %xmm10 vbroadcastss 0x219f45(%rip), %xmm4 # 0x1f20ec4 vbroadcastss 0x219f3b(%rip), %ymm28 # 0x1f20ec4 movq 0x110(%rsp), %rax cmpl $0x0, (%rax) je 0x1d06ffb movq 0x18(%rsp), %rax movq 0x10(%rax), %rcx movq 0x10(%rcx), %rax testq %rax, %rax je 0x1d06ff6 testb $0x2, (%rcx) jne 0x1d06fb4 testb $0x40, 0x3e(%r13) je 0x1d06fe9 leaq 0x110(%rsp), %rdi vzeroupper callq *%rax vmovss 0x60(%rsp), %xmm5 vmovaps 0xa0(%rsp), %xmm8 vmovaps 0x40(%rsp), %xmm10 vbroadcastss 0x219ee5(%rip), %xmm4 # 0x1f20ec4 vbroadcastss 0x219edb(%rip), %ymm28 # 0x1f20ec4 movq 0x110(%rsp), %rax cmpl $0x0, (%rax) je 0x1d06ffb movb $0x1, %r13b jmp 0x1d06ffe xorl %r13d, %r13d testb %r13b, %r13b jne 0x1d06e12 vmovss %xmm5, 0x20(%r15) jmp 0x1d06e12 xorl %r13d, %r13d vbroadcastss 0x219ea6(%rip), %xmm4 # 0x1f20ec4 andb $0x1, %r13b orb %r13b, %bl vmovaps 0x3a0(%rsp), %ymm0 vcmpleps 0x20(%r15){1to8}, %ymm0, %k0 kmovd %k0, %eax andb %al, %r12b movq 0x1b8(%rsp), %r11 jne 0x1d06729 jmp 0x1d0706d vbroadcastss 0x1e56be(%rip), %ymm3 # 0x1eec714 vmovaps 0x1c0(%rsp), %ymm4 jmp 0x1d07b83 vbroadcastss 0x219e57(%rip), %xmm4 # 0x1f20ec4 vmovaps 0x1c0(%rsp), %ymm3 vaddps 0x380(%rsp), %ymm3, %ymm0 vcmpleps 0x20(%r15){1to8}, %ymm0, %k0 kmovd 0x10c(%rsp), %k1 kmovd 0x104(%rsp), %k2 korb %k2, %k1, %k1 kmovd %k0, %eax movl 0x20(%rsp), %ecx andb %al, %cl vpbroadcastd 0x219e2a(%rip), %ymm0 # 0x1f20edc vpblendmd 0x219e1c(%rip){1to8}, %ymm0, %ymm0 {%k1} # 0x1f20ed8 vmovdqa %ymm0, 0x380(%rsp) vpcmpled 0x400(%rsp), %ymm0, %k0 kmovd %k0, %r12d movl %ecx, 0x20(%rsp) andb %cl, %r12b je 0x1d07aa6 vmovaps 0x4e0(%rsp), %ymm7 vmovaps 0x280(%rsp), %ymm1 vmovaps 0x240(%rsp), %ymm2 vminps %xmm2, %xmm1, %xmm0 vmaxps %xmm2, %xmm1, %xmm1 vmovaps 0x260(%rsp), %ymm5 vmovaps 0x220(%rsp), %ymm6 vminps %xmm6, %xmm5, %xmm2 vminps %xmm2, %xmm0, %xmm0 vmaxps %xmm6, %xmm5, %xmm2 vmaxps %xmm2, %xmm1, %xmm1 vandps %xmm4, %xmm0, %xmm0 vandps %xmm4, %xmm1, %xmm2 vmaxps %xmm2, %xmm0, %xmm0 vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3] vmaxss %xmm0, %xmm2, %xmm2 vshufpd $0x1, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[1,0] vmaxss %xmm2, %xmm0, %xmm0 vmulss 0x1ead6b(%rip), %xmm0, %xmm0 # 0x1ef1eb4 vmovss %xmm0, 0x30(%rsp) vshufps $0xff, %xmm1, %xmm1, %xmm0 # xmm0 = xmm1[3,3,3,3] vmovaps %xmm0, 0x2e0(%rsp) vmovaps %ymm7, 0x360(%rsp) vaddps %ymm7, %ymm3, %ymm0 vmovaps %ymm0, 0x3a0(%rsp) kmovd %r12d, %k1 vbroadcastss 0x1e489f(%rip), %ymm0 # 0x1eeba20 vblendmps 0x360(%rsp), %ymm0, %ymm0 {%k1} vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm0, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1] vminps %ymm2, %ymm1, %ymm1 vcmpeqps %ymm1, %ymm0, %k0 kmovd %k0, %eax andb %r12b, %al movzbl %al, %eax movzbl %r12b, %ecx cmovnel %eax, %ecx tzcntl %ecx, %ecx movb $0x1, %r14b shlb %cl, %r14b shll $0x2, %ecx vmovss 0x3c0(%rsp,%rcx), %xmm10 vmovss 0x500(%rsp,%rcx), %xmm8 vmovaps 0x10(%r15), %xmm0 vmovaps %xmm0, 0x2a0(%rsp) vdpps $0x7f, %xmm0, %xmm0, %xmm0 vucomiss 0x1e482b(%rip), %xmm0 # 0x1eeba24 jb 0x1d07201 vsqrtss %xmm0, %xmm0, %xmm0 jmp 0x1d07233 vmovaps %xmm10, 0x40(%rsp) vmovaps %xmm8, 0xa0(%rsp) kmovw %k1, 0x60(%rsp) vzeroupper callq 0x6aa20 kmovw 0x60(%rsp), %k1 vmovaps 0xa0(%rsp), %xmm8 vmovaps 0x40(%rsp), %xmm10 movzbl %r14b, %eax kmovd %eax, %k0 kandnb %k1, %k0, %k0 kmovd %k0, %r12d vmulss 0x1eac69(%rip), %xmm0, %xmm0 # 0x1ef1eb4 vmovss %xmm0, 0x34(%rsp) movl $0x5, %r14d vmovaps %xmm8, 0xa0(%rsp) vbroadcastss %xmm8, %xmm0 vxorps %xmm1, %xmm1, %xmm1 vfmadd132ps 0x2a0(%rsp), %xmm1, %xmm0 # xmm0 = (xmm0 * mem) + xmm1 vmovss 0x1e5499(%rip), %xmm1 # 0x1eec714 vsubss %xmm10, %xmm1, %xmm4 vmulss %xmm4, %xmm4, %xmm1 vmulss %xmm1, %xmm4, %xmm1 vmulss %xmm10, %xmm10, %xmm11 vmulss %xmm11, %xmm10, %xmm2 vmovss 0x1e58f2(%rip), %xmm7 # 0x1eecb8c vmovaps %xmm7, %xmm3 vfmadd213ss %xmm2, %xmm1, %xmm3 # xmm3 = (xmm1 * xmm3) + xmm2 vmulss %xmm4, %xmm10, %xmm12 vmovaps %xmm4, 0x60(%rsp) vmulss %xmm4, %xmm12, %xmm4 vmulss %xmm12, %xmm10, %xmm5 vmovss 0x1e9d36(%rip), %xmm8 # 0x1ef0ff4 vmulss %xmm5, %xmm8, %xmm6 vmovss 0x1e9d32(%rip), %xmm9 # 0x1ef0ffc vfmadd231ss %xmm9, %xmm4, %xmm6 # xmm6 = (xmm4 * xmm9) + xmm6 vaddss %xmm6, %xmm3, %xmm3 vmovaps %xmm7, %xmm6 vfmadd213ss %xmm1, %xmm2, %xmm6 # xmm6 = (xmm2 * xmm6) + xmm1 vmulss %xmm4, %xmm8, %xmm4 vfmadd231ss %xmm5, %xmm9, %xmm4 # xmm4 = (xmm9 * xmm5) + xmm4 vaddss %xmm4, %xmm6, %xmm4 vmovss 0x1e9d0f(%rip), %xmm5 # 0x1ef1000 vmulss %xmm5, %xmm1, %xmm1 vmulss %xmm5, %xmm3, %xmm3 vmulss %xmm5, %xmm4, %xmm4 vmulss %xmm5, %xmm2, %xmm2 vbroadcastss %xmm2, %xmm2 vmulps 0x220(%rsp), %xmm2, %xmm2 vbroadcastss %xmm4, %xmm4 vfmadd132ps 0x260(%rsp), %xmm2, %xmm4 # xmm4 = (xmm4 * mem) + xmm2 vbroadcastss %xmm3, %xmm2 vfmadd132ps 0x240(%rsp), %xmm4, %xmm2 # xmm2 = (xmm2 * mem) + xmm4 vbroadcastss %xmm1, %xmm1 vfmadd132ps 0x280(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2 vmovaps %xmm1, 0x350(%rsp) vsubps %xmm1, %xmm0, %xmm0 vmovaps %xmm0, 0x200(%rsp) vdpps $0x7f, %xmm0, %xmm0, %xmm0 vucomiss 0x1e46c4(%rip), %xmm0 # 0x1eeba24 vmovaps %xmm10, 0x40(%rsp) vmovaps %xmm0, 0x1e0(%rsp) jb 0x1d07377 vsqrtss %xmm0, %xmm0, %xmm7 jmp 0x1d073a7 vmovss %xmm11, 0x140(%rsp) vmovss %xmm12, 0x10(%rsp) vzeroupper callq 0x6aa20 vmovss 0x10(%rsp), %xmm12 vmovss 0x140(%rsp), %xmm11 vmovaps 0x40(%rsp), %xmm10 vmovaps %xmm0, %xmm7 vmovaps 0x60(%rsp), %xmm3 vbroadcastss %xmm3, %xmm1 vbroadcastss 0x219b05(%rip), %xmm4 # 0x1f20ec0 vmovaps %xmm1, 0x340(%rsp) vxorps %xmm4, %xmm1, %xmm0 vmulss %xmm0, %xmm3, %xmm0 vmulss 0x1e57b8(%rip), %xmm12, %xmm1 # 0x1eecb8c vmovaps %xmm10, %xmm2 vfnmsub213ss %xmm1, %xmm10, %xmm2 # xmm2 = -(xmm10 * xmm2) - xmm1 vfmadd231ss %xmm3, %xmm3, %xmm1 # xmm1 = (xmm3 * xmm3) + xmm1 vmovss 0x1e5796(%rip), %xmm3 # 0x1eecb80 vmulss %xmm3, %xmm0, %xmm0 vmulss %xmm3, %xmm2, %xmm2 vmulss %xmm3, %xmm1, %xmm1 vmulss %xmm3, %xmm11, %xmm3 vbroadcastss %xmm3, %xmm3 vmulps 0x220(%rsp), %xmm3, %xmm3 vbroadcastss %xmm1, %xmm1 vfmadd132ps 0x260(%rsp), %xmm3, %xmm1 # xmm1 = (xmm1 * mem) + xmm3 vbroadcastss %xmm2, %xmm2 vfmadd132ps 0x240(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1 vbroadcastss %xmm0, %xmm12 vfmadd132ps 0x280(%rsp), %xmm2, %xmm12 # xmm12 = (xmm12 * mem) + xmm2 vdpps $0x7f, %xmm12, %xmm12, %xmm0 vxorps %xmm1, %xmm1, %xmm1 vmovss %xmm0, %xmm1, %xmm2 # xmm2 = xmm0[0],xmm1[1,2,3] vrsqrt14ss %xmm2, %xmm1, %xmm3 vmulss 0x1e52c7(%rip), %xmm3, %xmm6 # 0x1eec718 vmulss 0x1e52c3(%rip), %xmm0, %xmm8 # 0x1eec71c vrcp14ss %xmm2, %xmm1, %xmm2 vxorps %xmm4, %xmm0, %xmm1 vmovaps %xmm2, 0x320(%rsp) vfnmadd213ss 0x1e9b83(%rip), %xmm0, %xmm2 # xmm2 = -(xmm0 * xmm2) + mem vmovss %xmm2, 0x38(%rsp) vucomiss %xmm1, %xmm0 vmovaps %xmm12, 0x140(%rsp) vmovss %xmm7, 0x10(%rsp) vmovaps %xmm0, 0x330(%rsp) jb 0x1d0749f vsqrtss %xmm0, %xmm0, %xmm5 jmp 0x1d074ea vmovaps %xmm3, 0xe0(%rsp) vmovss %xmm6, 0x14(%rsp) vmovss %xmm8, 0xd0(%rsp) vzeroupper callq 0x6aa20 vmovss 0xd0(%rsp), %xmm8 vmovss 0x14(%rsp), %xmm6 vmovaps 0xe0(%rsp), %xmm3 vmovss 0x10(%rsp), %xmm7 vmovaps 0x140(%rsp), %xmm12 vmovaps %xmm0, %xmm5 vmovaps 0x200(%rsp), %xmm9 vmovaps 0x1e0(%rsp), %xmm18 vmulss %xmm3, %xmm8, %xmm0 vmulss %xmm3, %xmm3, %xmm1 vmulss %xmm1, %xmm0, %xmm0 vaddss %xmm0, %xmm6, %xmm0 vbroadcastss %xmm0, %xmm4 vmulps %xmm4, %xmm12, %xmm0 vmovaps %xmm0, 0xe0(%rsp) vdpps $0x7f, %xmm0, %xmm9, %xmm14 vaddss 0x1e51e9(%rip), %xmm7, %xmm13 # 0x1eec714 vmulps %xmm14, %xmm14, %xmm0 vsubps %xmm0, %xmm18, %xmm0 vxorps %xmm2, %xmm2, %xmm2 vmovss %xmm0, %xmm2, %xmm1 # xmm1 = xmm0[0],xmm2[1,2,3] vrsqrt14ss %xmm1, %xmm2, %xmm15 vmulss 0x1e51ca(%rip), %xmm15, %xmm17 # 0x1eec718 vmulss 0x1e51c4(%rip), %xmm0, %xmm19 # 0x1eec71c vucomiss 0x1e44c4(%rip), %xmm0 # 0x1eeba24 jb 0x1d0756b vsqrtss %xmm0, %xmm0, %xmm0 jmp 0x1d07601 vmovss %xmm13, 0x14(%rsp) vmovaps %xmm14, 0xd0(%rsp) vmovss %xmm5, 0x2c(%rsp) vmovaps %xmm15, 0x310(%rsp) vmovss %xmm17, 0x28(%rsp) vmovss %xmm19, 0x24(%rsp) vmovaps %xmm4, 0x300(%rsp) vzeroupper callq 0x6aa20 vmovaps 0x300(%rsp), %xmm4 vmovss 0x24(%rsp), %xmm19 vmovss 0x28(%rsp), %xmm17 vmovaps 0x310(%rsp), %xmm15 vmovss 0x2c(%rsp), %xmm5 vmovaps 0xd0(%rsp), %xmm14 vmovss 0x14(%rsp), %xmm13 vmovss 0x10(%rsp), %xmm7 vmovaps 0x140(%rsp), %xmm12 vmovaps 0x1e0(%rsp), %xmm18 vmovaps 0x200(%rsp), %xmm9 vbroadcastss 0x2198b9(%rip), %ymm28 # 0x1f20ec4 vmovaps 0x40(%rsp), %xmm10 vmovaps 0xa0(%rsp), %xmm8 vmovss 0x1e93ba(%rip), %xmm2 # 0x1ef09dc vmovaps %xmm2, %xmm1 vmovaps 0x60(%rsp), %xmm3 vfmadd213ss %xmm10, %xmm3, %xmm1 # xmm1 = (xmm3 * xmm1) + xmm10 vfmadd231ss %xmm2, %xmm10, %xmm3 # xmm3 = (xmm10 * xmm2) + xmm3 vbroadcastss %xmm10, %xmm2 vmulps 0x220(%rsp), %xmm2, %xmm2 vbroadcastss %xmm3, %xmm3 vfmadd132ps 0x260(%rsp), %xmm2, %xmm3 # xmm3 = (xmm3 * mem) + xmm2 vbroadcastss %xmm1, %xmm1 vfmadd132ps 0x240(%rsp), %xmm3, %xmm1 # xmm1 = (xmm1 * mem) + xmm3 vmovaps 0x340(%rsp), %xmm2 vfmadd132ps 0x280(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1 vbroadcastss 0x330(%rsp), %xmm1 vmulps %xmm1, %xmm2, %xmm1 vdpps $0x7f, %xmm2, %xmm12, %xmm2 vbroadcastss %xmm2, %xmm2 vmulps %xmm2, %xmm12, %xmm2 vsubps %xmm2, %xmm1, %xmm2 vmovss 0x38(%rsp), %xmm1 vmulss 0x320(%rsp), %xmm1, %xmm3 vmulss 0x34(%rsp), %xmm8, %xmm1 vmovss 0x30(%rsp), %xmm6 vmaxss %xmm1, %xmm6, %xmm1 vbroadcastss %xmm3, %xmm3 vmulps %xmm3, %xmm2, %xmm2 vxorps 0x2197f8(%rip){1to4}, %xmm12, %xmm3 # 0x1f20ec0 vmulps %xmm2, %xmm4, %xmm2 vmovaps 0xe0(%rsp), %xmm11 vdpps $0x7f, %xmm11, %xmm3, %xmm4 vdivss %xmm5, %xmm6, %xmm5 vfmadd213ss %xmm1, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm7) + xmm1 vdpps $0x7f, %xmm2, %xmm9, %xmm2 vfmadd213ss %xmm7, %xmm5, %xmm13 # xmm13 = (xmm5 * xmm13) + xmm7 vaddss %xmm2, %xmm4, %xmm4 vmovaps 0x2a0(%rsp), %xmm7 vdpps $0x7f, %xmm11, %xmm7, %xmm5 vdpps $0x7f, %xmm3, %xmm9, %xmm3 vmulss %xmm15, %xmm19, %xmm2 vmulss %xmm15, %xmm15, %xmm6 vmulss %xmm6, %xmm2, %xmm2 vaddss %xmm2, %xmm17, %xmm6 vdpps $0x7f, %xmm7, %xmm9, %xmm7 vfnmadd231ss %xmm4, %xmm14, %xmm3 # xmm3 = -(xmm14 * xmm4) + xmm3 vfnmadd231ss %xmm5, %xmm14, %xmm7 # xmm7 = -(xmm14 * xmm5) + xmm7 vpermilps $0xff, 0x350(%rsp), %xmm2 # xmm2 = mem[3,3,3,3] vsubss %xmm2, %xmm0, %xmm2 vshufps $0xff, %xmm12, %xmm12, %xmm0 # xmm0 = xmm12[3,3,3,3] vfmsub213ss %xmm0, %xmm6, %xmm3 # xmm3 = (xmm6 * xmm3) - xmm0 vmulss %xmm6, %xmm7, %xmm6 vmulss %xmm3, %xmm5, %xmm7 vfmsub231ss %xmm6, %xmm4, %xmm7 # xmm7 = (xmm4 * xmm6) - xmm7 vdivss %xmm7, %xmm6, %xmm6 vdivss %xmm7, %xmm3, %xmm3 vdivss %xmm7, %xmm5, %xmm5 vdivss %xmm7, %xmm4, %xmm4 vmulss %xmm6, %xmm14, %xmm6 vmulss %xmm5, %xmm2, %xmm5 vsubss %xmm5, %xmm6, %xmm5 vmulss %xmm3, %xmm14, %xmm3 vmulss %xmm4, %xmm2, %xmm4 vsubss %xmm3, %xmm4, %xmm3 vsubss %xmm5, %xmm10, %xmm10 vsubss %xmm3, %xmm8, %xmm8 vbroadcastss 0x219737(%rip), %xmm4 # 0x1f20ec4 vandps %xmm4, %xmm14, %xmm3 vucomiss %xmm3, %xmm13 movb $0x1, %al jbe 0x1d0786d vaddss %xmm1, %xmm13, %xmm1 vmovaps 0x2e0(%rsp), %xmm3 vfmadd231ss 0x1ea701(%rip), %xmm3, %xmm1 # xmm1 = (xmm3 * mem) + xmm1 vandps %xmm4, %xmm2, %xmm2 vucomiss %xmm2, %xmm1 jbe 0x1d0786d vaddss 0x2f0(%rsp), %xmm8, %xmm8 xorl %eax, %eax vucomiss 0xc(%r15), %xmm8 vmovaps 0x1c0(%rsp), %ymm4 jb 0x1d0787a vmovss 0x20(%r15), %xmm5 vucomiss %xmm8, %xmm5 jb 0x1d0787a xorl %eax, %eax vucomiss 0x1e4228(%rip), %xmm10 # 0x1eeba24 jb 0x1d0787a vmovss 0x1e4f0e(%rip), %xmm1 # 0x1eec714 vucomiss %xmm10, %xmm1 jb 0x1d0787a vxorps %xmm2, %xmm2, %xmm2 vmovss %xmm18, %xmm2, %xmm1 # xmm1 = xmm18[0],xmm2[1,2,3] vrsqrt14ss %xmm1, %xmm2, %xmm1 vmulss 0x1e4ef3(%rip), %xmm1, %xmm2 # 0x1eec718 vmulss 0x1e4eed(%rip), %xmm18, %xmm3 # 0x1eec71c movq 0x18(%rsp), %rcx movq (%rcx), %rax movq 0x1e8(%rax), %rax movq 0x98(%rsp), %rdx movq (%rax,%rdx,8), %r13 movl 0x24(%r15), %eax testl %eax, 0x34(%r13) je 0x1d07878 movq 0x10(%rcx), %rax cmpq $0x0, 0x10(%rax) jne 0x1d07893 cmpq $0x0, 0x48(%r13) jne 0x1d07893 movb $0x1, %r13b xorl %eax, %eax jmp 0x1d0787d vmovaps 0x1c0(%rsp), %ymm4 jmp 0x1d0787d xorl %eax, %eax xorl %r13d, %r13d testb %al, %al je 0x1d07a77 decq %r14 jne 0x1d07257 jmp 0x1d07a74 vmulss %xmm1, %xmm3, %xmm3 vmulss %xmm1, %xmm1, %xmm1 vmulss %xmm1, %xmm3, %xmm1 vaddss %xmm1, %xmm2, %xmm1 vbroadcastss %xmm1, %xmm1 vmulps %xmm1, %xmm9, %xmm1 vfmadd213ps %xmm12, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm0) + xmm12 vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3] vshufps $0xc9, %xmm12, %xmm12, %xmm3 # xmm3 = xmm12[1,2,0,3] vmulps %xmm3, %xmm1, %xmm1 vfmsub231ps %xmm2, %xmm12, %xmm1 # xmm1 = (xmm12 * xmm2) - xmm1 vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3] vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3] vshufps $0xd2, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,0,1,3] vmulps %xmm1, %xmm0, %xmm0 vfmsub231ps %xmm3, %xmm2, %xmm0 # xmm0 = (xmm2 * xmm3) - xmm0 movq 0x18(%rsp), %rdx movq 0x8(%rdx), %rax vshufps $0xe9, %xmm0, %xmm0, %xmm1 # xmm1 = xmm0[1,2,2,3] vmovlps %xmm1, 0x170(%rsp) vmovss %xmm0, 0x178(%rsp) vmovss %xmm10, 0x17c(%rsp) movl $0x0, 0x180(%rsp) movq 0x90(%rsp), %rcx movl %ecx, 0x184(%rsp) movq 0x98(%rsp), %rcx movl %ecx, 0x188(%rsp) movl (%rax), %ecx movl %ecx, 0x18c(%rsp) movl 0x4(%rax), %eax movl %eax, 0x190(%rsp) vmovss %xmm8, 0x20(%r15) movl $0xffffffff, 0x3c(%rsp) # imm = 0xFFFFFFFF leaq 0x3c(%rsp), %rax movq %rax, 0x110(%rsp) movq 0x18(%r13), %rax movq %rax, 0x118(%rsp) movq 0x8(%rdx), %rax movq %rax, 0x120(%rsp) movq %r15, 0x128(%rsp) leaq 0x170(%rsp), %rax movq %rax, 0x130(%rsp) movl $0x1, 0x138(%rsp) movq 0x48(%r13), %rax testq %rax, %rax vmovaps %xmm10, 0x40(%rsp) vmovaps %xmm8, 0xa0(%rsp) vmovss %xmm5, 0x60(%rsp) je 0x1d079f8 leaq 0x110(%rsp), %rdi vzeroupper callq *%rax vmovss 0x60(%rsp), %xmm5 vmovaps 0xa0(%rsp), %xmm8 vmovaps 0x40(%rsp), %xmm10 vmovaps 0x1c0(%rsp), %ymm4 vbroadcastss 0x2194d9(%rip), %ymm28 # 0x1f20ec4 movq 0x110(%rsp), %rax cmpl $0x0, (%rax) je 0x1d07a5d movq 0x18(%rsp), %rax movq 0x10(%rax), %rcx movq 0x10(%rcx), %rax testq %rax, %rax je 0x1d07a58 testb $0x2, (%rcx) jne 0x1d07a16 testb $0x40, 0x3e(%r13) je 0x1d07a4b leaq 0x110(%rsp), %rdi vzeroupper callq *%rax vmovss 0x60(%rsp), %xmm5 vmovaps 0xa0(%rsp), %xmm8 vmovaps 0x40(%rsp), %xmm10 vmovaps 0x1c0(%rsp), %ymm4 vbroadcastss 0x219479(%rip), %ymm28 # 0x1f20ec4 movq 0x110(%rsp), %rax cmpl $0x0, (%rax) je 0x1d07a5d movb $0x1, %r13b jmp 0x1d07a60 xorl %r13d, %r13d testb %r13b, %r13b jne 0x1d07869 vmovss %xmm5, 0x20(%r15) jmp 0x1d07869 xorl %r13d, %r13d andb $0x1, %r13b orb %r13b, %bl vmovaps 0x3a0(%rsp), %ymm0 vcmpleps 0x20(%r15){1to8}, %ymm0, %k0 kmovd %k0, %eax andb %al, %r12b movq 0x1b8(%rsp), %r11 jne 0x1d07173 jmp 0x1d07aaa vmovaps %ymm3, %ymm4 vmovdqa 0x400(%rsp), %ymm1 vpcmpltd 0x380(%rsp), %ymm1, %k1 vmovaps 0x4a0(%rsp), %ymm0 vpcmpltd 0x520(%rsp), %ymm1, %k2 vaddps %ymm0, %ymm4, %ymm1 vbroadcastss 0x20(%r15), %ymm2 vcmpleps %ymm2, %ymm1, %k0 {%k2} kmovd %k0, %eax movl 0x108(%rsp), %ecx andb %al, %cl vmovaps 0x4e0(%rsp), %ymm1 vaddps %ymm1, %ymm4, %ymm3 vcmpleps %ymm2, %ymm3, %k0 {%k1} kmovd %k0, %eax movl 0x20(%rsp), %edx andb %al, %dl orb %cl, %dl je 0x1d07b59 movl %r11d, %eax leaq (%rax,%rax,2), %rax shlq $0x5, %rax movb %dl, 0x780(%rsp,%rax) kmovd %ecx, %k1 vmovaps %ymm0, %ymm1 {%k1} vmovaps %ymm1, 0x7a0(%rsp,%rax) vmovaps 0x2d0(%rsp), %xmm0 vmovlps %xmm0, 0x7c0(%rsp,%rax) movq 0xf8(%rsp), %rcx incl %ecx movl %ecx, 0x7c8(%rsp,%rax) incl %r11d movq 0x1a8(%rsp), %r9 movq 0x18(%rsp), %rdx vbroadcastss 0x1e4ba5(%rip), %ymm3 # 0x1eec714 movb 0xf(%rsp), %al movq 0x1b0(%rsp), %r14 movq 0x90(%rsp), %r12 vbroadcastss 0x20(%r15), %ymm0 testl %r11d, %r11d je 0x1d07d73 leal -0x1(%r11), %r8d leaq (%r8,%r8,2), %rcx shlq $0x5, %rcx movzbl 0x780(%rsp,%rcx), %esi vmovaps 0x7a0(%rsp,%rcx), %ymm1 vaddps %ymm1, %ymm4, %ymm2 vcmpleps %ymm0, %ymm2, %k0 kmovb %k0, %r10d andl %esi, %r10d je 0x1d07c91 kmovd %r10d, %k1 vbroadcastss 0x1e3e4b(%rip), %ymm2 # 0x1eeba20 vblendmps %ymm1, %ymm2, %ymm1 {%k1} vshufps $0xb1, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2,5,4,7,6] vminps %ymm2, %ymm1, %ymm2 vshufpd $0x5, %ymm2, %ymm2, %ymm3 # ymm3 = ymm2[1,0,3,2] vminps %ymm3, %ymm2, %ymm2 vpermpd $0x4e, %ymm2, %ymm3 # ymm3 = ymm2[2,3,0,1] vminps %ymm3, %ymm2, %ymm2 vcmpeqps %ymm2, %ymm1, %k0 kmovd %k0, %esi andb %r10b, %sil je 0x1d07c0d movzbl %sil, %edi jmp 0x1d07c11 movzbl %r10b, %edi leaq (%rsp,%rcx), %rsi addq $0x780, %rsi # imm = 0x780 vmovss 0x44(%rsi), %xmm1 tzcntl %edi, %ecx movb $0x1, %dil shlb %cl, %dil movl 0x48(%rsi), %r13d movq %r13, 0xf8(%rsp) movzbl %dil, %edi kmovd %edi, %k0 kmovd %r10d, %k1 kandnb %k1, %k0, %k0 kmovb %k0, (%rsi) kortestb %k0, %k0 vbroadcastss 0x1e4abb(%rip), %ymm3 # 0x1eec714 je 0x1d07c5e movl %r11d, %r8d vbroadcastss 0x40(%rsi), %ymm2 vsubss %xmm2, %xmm1, %xmm1 vbroadcastss %xmm1, %ymm1 vfmadd132ps 0x2192aa(%rip), %ymm2, %ymm1 # ymm1 = (ymm1 * mem) + ymm2 vmovaps %ymm1, 0x4a0(%rsp) vmovsd 0x4a0(%rsp,%rcx,4), %xmm1 vmovaps %xmm1, 0x2d0(%rsp) movl %r8d, %r11d testb %r10b, %r10b je 0x1d07b89 vmovaps 0x720(%rsp), %ymm18 vmovaps 0x700(%rsp), %ymm16 vmovaps 0x6e0(%rsp), %ymm17 vmovaps 0x6c0(%rsp), %ymm19 vmovaps 0x6a0(%rsp), %ymm20 vmovaps 0x680(%rsp), %ymm22 vmovaps 0x660(%rsp), %ymm23 vmovaps 0x640(%rsp), %ymm24 vmovaps 0x620(%rsp), %ymm25 vmovaps 0x600(%rsp), %ymm27 vmovaps 0x5e0(%rsp), %ymm29 vmovaps 0x5c0(%rsp), %ymm31 vmovaps 0x5a0(%rsp), %ymm21 vmovaps 0x580(%rsp), %ymm6 vmovaps 0x560(%rsp), %ymm30 vmovdqa 0x2d0(%rsp), %xmm1 jmp 0x1d05b90 vcmpleps 0x2191d1(%rip), %ymm4, %k2 # 0x1f20f00 vbroadcastss 0x1e4e4c(%rip), %ymm4 # 0x1eecb84 vbroadcastss 0x1e3cde(%rip), %ymm16 # 0x1eeba20 vblendmps %ymm4, %ymm16, %ymm3 {%k2} vmovaps %ymm3, %ymm31 {%k1} vblendmps %ymm16, %ymm4, %ymm3 {%k2} kmovd %k2, %ecx vmovaps %ymm3, %ymm30 {%k1} knotb %k1, %k0 kmovd %k0, %esi orb %cl, %sil andb %dil, %sil movl %esi, %edi jmp 0x1d060f9 testb $0x1, %bl jne 0x1d07d99 vmovaps 0x540(%rsp), %ymm0 vcmpleps 0x20(%r15){1to8}, %ymm0, %k0 kmovb %k0, %eax andl %eax, %r14d setne %al jne 0x1d0589a andb $0x1, %al leaq -0x28(%rbp), %rsp popq %rbx popq %r12 popq %r13 popq %r14 popq %r15 popq %rbp vzeroupper retq nop
/embree[P]embree/kernels/geometry/curveNi_intersector.h
void embree::avx512::CurveNiIntersectorK<8, 4>::intersect_t<embree::avx512::SweepCurve1IntersectorK<embree::BSplineCurveT, 4>, embree::avx512::Intersect1KEpilog1<4, true>>(embree::avx512::CurvePrecalculationsK<4>&, embree::RayHitK<4>&, unsigned long, embree::RayQueryContext*, embree::CurveNi<8> const&)
static __forceinline void intersect_t(Precalculations& pre, RayHitK<K>& ray, const size_t k, RayQueryContext* context, const Primitive& prim) { vfloat<M> tNear; vbool<M> valid = intersect(ray,k,prim,tNear); const size_t N = prim.N; size_t mask = movemask(valid); while (mask) { const size_t i = bscf(mask); STAT3(normal.trav_prims,1,1,1); const unsigned int geomID = prim.geomID(N); const unsigned int primID = prim.primID(N)[i]; const CurveGeometry* geom = context->scene->get<CurveGeometry>(geomID); Vec3ff a0,a1,a2,a3; geom->gather(a0,a1,a2,a3,geom->curve(primID)); size_t mask1 = mask; const size_t i1 = bscf(mask1); if (mask) { const unsigned int primID1 = prim.primID(N)[i1]; geom->prefetchL1_vertices(geom->curve(primID1)); if (mask1) { const size_t i2 = bsf(mask1); const unsigned int primID2 = prim.primID(N)[i2]; geom->prefetchL2_vertices(geom->curve(primID2)); } } Intersector().intersect(pre,ray,k,context,geom,primID,a0,a1,a2,a3,Epilog(ray,k,context,geomID,primID)); mask &= movemask(tNear <= vfloat<M>(ray.tfar[k])); } }
pushq %rbp movq %rsp, %rbp pushq %r15 pushq %r14 pushq %r13 pushq %r12 pushq %rbx andq $-0x20, %rsp subq $0x9a0, %rsp # imm = 0x9A0 movq %rcx, %r15 movq %rsi, %r12 movzbl 0x1(%r8), %ecx leaq (%rcx,%rcx,4), %rax leaq (%rax,%rax,4), %rsi vbroadcastss 0x12(%r8,%rsi), %xmm0 vmovss (%r12,%rdx,4), %xmm1 vmovss 0x40(%r12,%rdx,4), %xmm2 vinsertps $0x10, 0x10(%r12,%rdx,4), %xmm1, %xmm1 # xmm1 = xmm1[0],mem[0],xmm1[2,3] vinsertps $0x20, 0x20(%r12,%rdx,4), %xmm1, %xmm1 # xmm1 = xmm1[0,1],mem[0],xmm1[3] vinsertps $0x10, 0x50(%r12,%rdx,4), %xmm2, %xmm2 # xmm2 = xmm2[0],mem[0],xmm2[2,3] vinsertps $0x20, 0x60(%r12,%rdx,4), %xmm2, %xmm2 # xmm2 = xmm2[0,1],mem[0],xmm2[3] vsubps 0x6(%r8,%rsi), %xmm1, %xmm1 vmulps %xmm1, %xmm0, %xmm3 vmulps %xmm2, %xmm0, %xmm0 vpmovsxbd 0x6(%r8,%rcx,4), %ymm1 vpmovsxbd 0x6(%r8,%rax), %ymm2 vcvtdq2ps %ymm1, %ymm5 vcvtdq2ps %ymm2, %ymm6 leaq (%rcx,%rcx,2), %r9 vpmovsxbd 0x6(%r8,%r9,2), %ymm1 vcvtdq2ps %ymm1, %ymm4 leaq (%rcx,%rax,2), %rsi vpmovsxbd 0x6(%r8,%rsi), %ymm1 leal (,%r9,4), %esi vpmovsxbd 0x6(%r8,%rsi), %ymm2 vcvtdq2ps %ymm1, %ymm7 vcvtdq2ps %ymm2, %ymm8 addq %rcx, %rsi vpmovsxbd 0x6(%r8,%rsi), %ymm1 vcvtdq2ps %ymm1, %ymm9 leaq (%rcx,%rcx,8), %rsi leal (%rsi,%rsi), %edi vpmovsxbd 0x6(%r8,%rdi), %ymm1 vcvtdq2ps %ymm1, %ymm10 addq %rcx, %rdi vpmovsxbd 0x6(%r8,%rdi), %ymm1 vcvtdq2ps %ymm1, %ymm11 shll $0x2, %eax vpmovsxbd 0x6(%r8,%rax), %ymm1 vcvtdq2ps %ymm1, %ymm12 vbroadcastss %xmm0, %ymm13 vbroadcastss 0x20a857(%rip), %ymm15 # 0x1f12704 vbroadcastss 0x219025(%rip), %ymm16 # 0x1f20edc vpermps %ymm0, %ymm15, %ymm14 vpermps %ymm0, %ymm16, %ymm0 vmulps %ymm4, %ymm0, %ymm2 vmulps %ymm0, %ymm9, %ymm1 vmulps %ymm0, %ymm12, %ymm0 vfmadd231ps %ymm6, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm6) + ymm2 vfmadd231ps %ymm8, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm8) + ymm1 vfmadd231ps %ymm14, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm14) + ymm0 vfmadd231ps %ymm5, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm5) + ymm2 vfmadd231ps %ymm7, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm7) + ymm1 vfmadd231ps %ymm13, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm13) + ymm0 vbroadcastss %xmm3, %ymm13 vpermps %ymm3, %ymm15, %ymm14 vpermps %ymm3, %ymm16, %ymm3 vmulps %ymm4, %ymm3, %ymm15 vmulps %ymm3, %ymm9, %ymm4 vmulps %ymm3, %ymm12, %ymm3 vfmadd231ps %ymm6, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm6) + ymm15 vfmadd231ps %ymm8, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm8) + ymm4 vfmadd231ps %ymm11, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm11) + ymm3 vfmadd231ps %ymm5, %ymm13, %ymm15 # ymm15 = (ymm13 * ymm5) + ymm15 vfmadd231ps %ymm7, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm7) + ymm4 vbroadcastss 0x218f9a(%rip), %ymm6 # 0x1f20ec4 vfmadd231ps %ymm10, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm10) + ymm3 vandps %ymm6, %ymm2, %ymm5 vbroadcastss 0x1e90ac(%rip), %ymm7 # 0x1ef0fe8 vcmpltps %ymm7, %ymm5, %k1 vmovaps %ymm7, %ymm2 {%k1} vandps %ymm6, %ymm1, %ymm5 vcmpltps %ymm7, %ymm5, %k1 vmovaps %ymm7, %ymm1 {%k1} vandps %ymm6, %ymm0, %ymm5 vcmpltps %ymm7, %ymm5, %k1 vmovaps %ymm7, %ymm0 {%k1} vrcp14ps %ymm2, %ymm5 vbroadcastss 0x1e479a(%rip), %ymm6 # 0x1eec714 vfnmadd213ps %ymm6, %ymm5, %ymm2 # ymm2 = -(ymm5 * ymm2) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm2 # ymm2 = (ymm2 * ymm5) + ymm5 vrcp14ps %ymm1, %ymm5 vfnmadd213ps %ymm6, %ymm5, %ymm1 # ymm1 = -(ymm5 * ymm1) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm1 # ymm1 = (ymm1 * ymm5) + ymm5 vrcp14ps %ymm0, %ymm5 vfnmadd213ps %ymm6, %ymm5, %ymm0 # ymm0 = -(ymm5 * ymm0) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm0 # ymm0 = (ymm0 * ymm5) + ymm5 leaq (,%rcx,8), %rdi subq %rcx, %rdi vpmovsxwd 0x6(%r8,%rdi), %ymm5 vcvtdq2ps %ymm5, %ymm5 vsubps %ymm15, %ymm5, %ymm5 vmulps %ymm5, %ymm2, %ymm5 vpmovsxwd 0x6(%r8,%rsi), %ymm6 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm15, %ymm6, %ymm6 leaq (%rcx,%rcx), %rsi addq %rcx, %rax shlq $0x3, %r9 subq %rcx, %r9 vpbroadcastd %ecx, %ymm7 shll $0x4, %ecx vpmovsxwd 0x6(%r8,%rcx), %ymm8 vmulps %ymm6, %ymm2, %ymm2 subq %rsi, %rcx vpmovsxwd 0x6(%r8,%rcx), %ymm6 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm4, %ymm6, %ymm6 vmulps %ymm6, %ymm1, %ymm6 vcvtdq2ps %ymm8, %ymm8 vsubps %ymm4, %ymm8, %ymm4 vmulps %ymm4, %ymm1, %ymm1 vpmovsxwd 0x6(%r8,%rax), %ymm4 vcvtdq2ps %ymm4, %ymm4 vsubps %ymm3, %ymm4, %ymm4 vmulps %ymm0, %ymm4, %ymm4 vpmovsxwd 0x6(%r8,%r9), %ymm8 vcvtdq2ps %ymm8, %ymm8 vsubps %ymm3, %ymm8, %ymm3 vmulps %ymm3, %ymm0, %ymm0 vpminsd %ymm2, %ymm5, %ymm3 vpminsd %ymm1, %ymm6, %ymm8 vmaxps %ymm8, %ymm3, %ymm3 vpminsd %ymm0, %ymm4, %ymm8 vmaxps 0x30(%r12,%rdx,4){1to8}, %ymm8, %ymm8 vmaxps %ymm8, %ymm3, %ymm3 vmulps 0x217ea6(%rip){1to8}, %ymm3, %ymm3 # 0x1f1ff10 vpmaxsd %ymm2, %ymm5, %ymm2 vpmaxsd %ymm1, %ymm6, %ymm1 vminps %ymm1, %ymm2, %ymm1 vpmaxsd %ymm0, %ymm4, %ymm0 movq %rdx, 0x18(%rsp) vminps 0x80(%r12,%rdx,4){1to8}, %ymm0, %ymm0 vminps %ymm0, %ymm1, %ymm0 vmulps 0x217e7c(%rip){1to8}, %ymm0, %ymm0 # 0x1f1ff14 vpcmpgtd 0x25287e(%rip), %ymm7, %k0 # 0x1f5a920 vmovaps %ymm3, 0x5c0(%rsp) vcmpleps %ymm0, %ymm3, %k1 ktestb %k0, %k1 je 0x1d0a9c4 kandb %k0, %k1, %k0 kmovd %k0, %eax movzbl %al, %r10d movl $0x1, %eax movq 0x18(%rsp), %rcx shlxl %ecx, %eax, %eax kmovd %eax, %k0 vpmovm2d %k0, %xmm0 vmovdqa %xmm0, 0x3b0(%rsp) movq %r15, 0x28(%rsp) movq %r8, 0x180(%rsp) tzcntq %r10, %rax movl 0x2(%r8), %ecx movl 0x6(%r8,%rax,4), %edi movq (%r15), %rax movq 0x1e8(%rax), %rax movq %rcx, 0x50(%rsp) movq (%rax,%rcx,8), %rsi movq 0x58(%rsi), %rax movq 0x68(%rsi), %rcx movq %rcx, %rdx movq %rdi, 0xf0(%rsp) imulq %rdi, %rdx movl (%rax,%rdx), %edi movq 0xa0(%rsi), %rdx movq %rdx, %r9 imulq %rdi, %r9 movq 0x90(%rsi), %rsi vmovaps (%rsi,%r9), %xmm1 leaq 0x1(%rdi), %r9 imulq %rdx, %r9 vmovaps (%rsi,%r9), %xmm0 leaq 0x2(%rdi), %r9 imulq %rdx, %r9 vmovaps (%rsi,%r9), %xmm2 blsrq %r10, %r10 addq $0x3, %rdi imulq %rdx, %rdi vmovaps (%rsi,%rdi), %xmm3 movq %r10, %rdi subq $0x1, %rdi jb 0x1d081cb andq %r10, %rdi tzcntq %r10, %r9 movl 0x6(%r8,%r9,4), %r9d imulq %rcx, %r9 movl (%rax,%r9), %r9d imulq %rdx, %r9 prefetcht0 (%rsi,%r9) prefetcht0 0x40(%rsi,%r9) testq %rdi, %rdi je 0x1d081cb tzcntq %rdi, %rdi movl 0x6(%r8,%rdi,4), %edi imulq %rdi, %rcx movl (%rax,%rcx), %eax imulq %rax, %rdx prefetcht1 (%rsi,%rdx) prefetcht1 0x40(%rsi,%rdx) movq 0x18(%rsp), %rax vmovss (%r12,%rax,4), %xmm4 vinsertps $0x1c, 0x10(%r12,%rax,4), %xmm4, %xmm4 # xmm4 = xmm4[0],mem[0],zero,zero vinsertps $0x28, 0x20(%r12,%rax,4), %xmm4, %xmm4 # xmm4 = xmm4[0,1],mem[0],zero vbroadcastss 0x40(%r12,%rax,4), %ymm30 vbroadcastss 0x50(%r12,%rax,4), %ymm31 vunpcklps %xmm31, %xmm30, %xmm5 # xmm5 = xmm30[0],xmm31[0],xmm30[1],xmm31[1] vbroadcastss 0x60(%r12,%rax,4), %ymm21 vinsertps $0x28, %xmm21, %xmm5, %xmm9 # xmm9 = xmm5[0,1],xmm21[0],zero vaddps %xmm0, %xmm1, %xmm5 vaddps %xmm2, %xmm5, %xmm5 vaddps %xmm3, %xmm5, %xmm5 vmulps 0x2150db(%rip){1to4}, %xmm5, %xmm5 # 0x1f1d2fc vsubps %xmm4, %xmm5, %xmm5 vdpps $0x7f, %xmm9, %xmm5, %xmm5 vmovss 0x30(%r12,%rax,4), %xmm10 vdpps $0x7f, %xmm9, %xmm9, %xmm11 vxorps %xmm8, %xmm8, %xmm8 vmovss %xmm11, %xmm8, %xmm6 vrcp14ss %xmm6, %xmm8, %xmm6 vmovaps %xmm6, %xmm7 vfnmadd213ss 0x1e8da4(%rip), %xmm11, %xmm7 # xmm7 = -(xmm11 * xmm7) + mem vmulss %xmm7, %xmm6, %xmm6 vmulss %xmm6, %xmm5, %xmm5 vbroadcastss %xmm5, %ymm6 vmovaps %xmm9, 0x230(%rsp) vmovaps %ymm6, 0x360(%rsp) vfmadd231ps %xmm6, %xmm9, %xmm4 # xmm4 = (xmm9 * xmm6) + xmm4 vblendps $0x8, %xmm8, %xmm4, %xmm4 # xmm4 = xmm4[0,1,2],xmm8[3] vsubps %xmm4, %xmm1, %xmm6 vsubps %xmm4, %xmm2, %xmm7 vsubps %xmm4, %xmm0, %xmm8 vsubps %xmm4, %xmm3, %xmm3 vbroadcastss %xmm6, %ymm0 vmovaps %ymm0, 0x800(%rsp) vbroadcastss 0x20a45f(%rip), %ymm0 # 0x1f12704 vpermps %ymm6, %ymm0, %ymm1 vmovaps %ymm1, 0x7e0(%rsp) vbroadcastss 0x218c20(%rip), %ymm1 # 0x1f20edc vpermps %ymm6, %ymm1, %ymm2 vmovaps %ymm2, 0x7c0(%rsp) vbroadcastss 0x218c05(%rip), %ymm2 # 0x1f20ed8 vmovaps %ymm6, 0x2a0(%rsp) vpermps %ymm6, %ymm2, %ymm4 vmovaps %ymm4, 0x7a0(%rsp) vbroadcastss %xmm8, %ymm4 vmovaps %ymm4, 0x780(%rsp) vpermps %ymm8, %ymm0, %ymm4 vmovaps %ymm4, 0x760(%rsp) vpermps %ymm8, %ymm1, %ymm4 vmovaps %ymm4, 0x740(%rsp) vmovaps %ymm8, 0x260(%rsp) vpermps %ymm8, %ymm2, %ymm4 vmovaps %ymm4, 0x720(%rsp) vbroadcastss %xmm7, %ymm4 vmovaps %ymm4, 0x700(%rsp) vpermps %ymm7, %ymm0, %ymm4 vmovaps %ymm4, 0x6e0(%rsp) vpermps %ymm7, %ymm1, %ymm4 vmovaps %ymm4, 0x6c0(%rsp) vmovaps %ymm7, 0x280(%rsp) vpermps %ymm7, %ymm2, %ymm4 vmovaps %ymm4, 0x6a0(%rsp) vbroadcastss %xmm3, %ymm4 vmovaps %ymm4, 0x680(%rsp) vpermps %ymm3, %ymm0, %ymm0 vmovaps %ymm0, 0x660(%rsp) vpermps %ymm3, %ymm1, %ymm0 vmovaps %ymm0, 0x640(%rsp) vmovaps %ymm3, 0x240(%rsp) vpermps %ymm3, %ymm2, %ymm0 vmovaps %ymm0, 0x620(%rsp) vmulss %xmm21, %xmm21, %xmm0 vfmadd231ps %ymm31, %ymm31, %ymm0 # ymm0 = (ymm31 * ymm31) + ymm0 vfmadd231ps %ymm30, %ymm30, %ymm0 # ymm0 = (ymm30 * ymm30) + ymm0 vbroadcastss %xmm0, %ymm0 vmovaps %ymm0, 0x600(%rsp) vandps 0x218aed(%rip){1to8}, %ymm0, %ymm0 # 0x1f20ec4 vmovaps %ymm0, 0x520(%rsp) vmovss %xmm10, 0x5c(%rsp) vmovaps %xmm5, 0x2e0(%rsp) vsubss %xmm5, %xmm10, %xmm0 vbroadcastss %xmm0, %ymm0 vmovaps %ymm0, 0x5e0(%rsp) movq 0x50(%rsp), %rax vpbroadcastd %eax, %xmm0 vmovdqa %xmm0, 0x3d0(%rsp) movl $0x1, %r11d xorl %r9d, %r9d movq 0xf0(%rsp), %rax vpbroadcastd %eax, %xmm0 vmovdqa %xmm0, 0x3c0(%rsp) vsqrtss %xmm11, %xmm11, %xmm0 vmovss %xmm0, 0x10c(%rsp) vmovaps %xmm11, 0x220(%rsp) vsqrtss %xmm11, %xmm11, %xmm0 vmovss %xmm0, 0x108(%rsp) vmovsd 0x1e428e(%rip), %xmm2 # 0x1eec6f0 vbroadcastss 0x1e42a8(%rip), %ymm16 # 0x1eec714 vmovaps %ymm30, 0x540(%rsp) vmovaps %ymm31, 0x1c0(%rsp) vmovaps %ymm21, 0x1a0(%rsp) vmovshdup %xmm2, %xmm0 # xmm0 = xmm2[1,1,3,3] vsubss %xmm2, %xmm0, %xmm0 vmulss 0x218a3c(%rip), %xmm0, %xmm1 # 0x1f20ed0 vmovaps %xmm1, 0x80(%rsp) vmovaps %xmm2, 0x170(%rsp) vbroadcastss %xmm2, %ymm4 vbroadcastss %xmm0, %ymm0 vmovaps %ymm4, 0x60(%rsp) vmovaps %ymm0, 0x200(%rsp) vfmadd231ps 0x218a58(%rip), %ymm0, %ymm4 # ymm4 = (ymm0 * mem) + ymm4 vsubps %ymm4, %ymm16, %ymm7 vmulps %ymm7, %ymm7, %ymm8 vmulps %ymm7, %ymm8, %ymm0 vbroadcastss 0x1e46ac(%rip), %ymm30 # 0x1eecb8c vmulps %ymm30, %ymm0, %ymm1 vmulps %ymm4, %ymm4, %ymm9 vmulps %ymm4, %ymm9, %ymm2 vaddps %ymm1, %ymm2, %ymm1 vmulps %ymm7, %ymm4, %ymm10 vmulps %ymm7, %ymm10, %ymm5 vbroadcastss 0x1e8af9(%rip), %ymm14 # 0x1ef0ffc vmulps %ymm5, %ymm14, %ymm11 vmulps %ymm4, %ymm10, %ymm12 vbroadcastss 0x1e8ae0(%rip), %ymm15 # 0x1ef0ff4 vmulps %ymm15, %ymm12, %ymm13 vaddps %ymm13, %ymm11, %ymm11 vaddps %ymm1, %ymm11, %ymm1 vmulps %ymm30, %ymm2, %ymm11 vaddps %ymm0, %ymm11, %ymm11 vmulps %ymm14, %ymm12, %ymm12 vmulps %ymm5, %ymm15, %ymm5 vaddps %ymm5, %ymm12, %ymm5 vaddps %ymm5, %ymm11, %ymm5 vbroadcastss 0x1e8aba(%rip), %ymm14 # 0x1ef1000 vmulps %ymm0, %ymm14, %ymm11 vmulps %ymm1, %ymm14, %ymm12 vmulps %ymm5, %ymm14, %ymm13 vmulps %ymm2, %ymm14, %ymm5 vmovaps 0x680(%rsp), %ymm25 vmulps %ymm5, %ymm25, %ymm0 vmovaps 0x660(%rsp), %ymm27 vmulps %ymm5, %ymm27, %ymm2 vmovaps 0x640(%rsp), %ymm28 vmulps %ymm5, %ymm28, %ymm1 vmovaps 0x620(%rsp), %ymm29 vmulps %ymm5, %ymm29, %ymm5 vmovaps 0x700(%rsp), %ymm20 vfmadd231ps %ymm20, %ymm13, %ymm0 # ymm0 = (ymm13 * ymm20) + ymm0 vmovaps 0x6e0(%rsp), %ymm22 vfmadd231ps %ymm22, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm22) + ymm2 vmovaps 0x6c0(%rsp), %ymm23 vfmadd231ps %ymm23, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm23) + ymm1 vmovaps 0x6a0(%rsp), %ymm24 vfmadd231ps %ymm13, %ymm24, %ymm5 # ymm5 = (ymm24 * ymm13) + ymm5 vmovaps 0x780(%rsp), %ymm16 vfmadd231ps %ymm16, %ymm12, %ymm0 # ymm0 = (ymm12 * ymm16) + ymm0 vmovaps 0x760(%rsp), %ymm17 vfmadd231ps %ymm17, %ymm12, %ymm2 # ymm2 = (ymm12 * ymm17) + ymm2 vmovaps 0x740(%rsp), %ymm18 vfmadd231ps %ymm18, %ymm12, %ymm1 # ymm1 = (ymm12 * ymm18) + ymm1 vmovaps 0x720(%rsp), %ymm19 vfmadd231ps %ymm12, %ymm19, %ymm5 # ymm5 = (ymm19 * ymm12) + ymm5 vmovaps 0x800(%rsp), %ymm6 vfmadd231ps %ymm6, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm6) + ymm0 vmovaps 0x7e0(%rsp), %ymm3 vfmadd231ps %ymm3, %ymm11, %ymm2 # ymm2 = (ymm11 * ymm3) + ymm2 vmovaps 0x7c0(%rsp), %ymm14 vfmadd231ps %ymm14, %ymm11, %ymm1 # ymm1 = (ymm11 * ymm14) + ymm1 vmovaps 0x7a0(%rsp), %ymm15 vfmadd231ps %ymm11, %ymm15, %ymm5 # ymm5 = (ymm15 * ymm11) + ymm5 vbroadcastss 0x218880(%rip), %ymm26 # 0x1f20ec0 vxorps %ymm26, %ymm7, %ymm11 vmulps %ymm7, %ymm11, %ymm7 vxorps %ymm26, %ymm4, %ymm11 vmulps %ymm4, %ymm11, %ymm4 vmulps %ymm30, %ymm10, %ymm10 vsubps %ymm10, %ymm4, %ymm4 vaddps %ymm10, %ymm8, %ymm8 vbroadcastss 0x1e4513(%rip), %ymm10 # 0x1eecb80 vmulps %ymm7, %ymm10, %ymm7 vmulps %ymm4, %ymm10, %ymm4 vmulps %ymm10, %ymm8, %ymm8 vmulps %ymm10, %ymm9, %ymm9 vmulps %ymm9, %ymm25, %ymm10 vmulps %ymm9, %ymm27, %ymm12 vmulps %ymm9, %ymm28, %ymm13 vmulps %ymm9, %ymm29, %ymm9 vfmadd231ps %ymm20, %ymm8, %ymm10 # ymm10 = (ymm8 * ymm20) + ymm10 vfmadd231ps %ymm22, %ymm8, %ymm12 # ymm12 = (ymm8 * ymm22) + ymm12 vfmadd231ps %ymm23, %ymm8, %ymm13 # ymm13 = (ymm8 * ymm23) + ymm13 vfmadd231ps %ymm8, %ymm24, %ymm9 # ymm9 = (ymm24 * ymm8) + ymm9 vfmadd231ps %ymm16, %ymm4, %ymm10 # ymm10 = (ymm4 * ymm16) + ymm10 vfmadd231ps %ymm17, %ymm4, %ymm12 # ymm12 = (ymm4 * ymm17) + ymm12 vfmadd231ps %ymm18, %ymm4, %ymm13 # ymm13 = (ymm4 * ymm18) + ymm13 vfmadd231ps %ymm4, %ymm19, %ymm9 # ymm9 = (ymm19 * ymm4) + ymm9 vfmadd231ps %ymm6, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm6) + ymm10 vfmadd231ps %ymm3, %ymm7, %ymm12 # ymm12 = (ymm7 * ymm3) + ymm12 vfmadd231ps %ymm14, %ymm7, %ymm13 # ymm13 = (ymm7 * ymm14) + ymm13 vfmadd231ps %ymm7, %ymm15, %ymm9 # ymm9 = (ymm15 * ymm7) + ymm9 vbroadcastss 0x80(%rsp), %ymm4 vmulps %ymm4, %ymm10, %ymm11 vmulps %ymm4, %ymm12, %ymm12 vmulps %ymm4, %ymm13, %ymm13 vmulps %ymm4, %ymm9, %ymm6 vmovaps %ymm0, %ymm8 vmovaps 0x25761f(%rip), %ymm7 # 0x1f5fd20 vmovaps %ymm31, %ymm3 vxorps %xmm31, %xmm31, %xmm31 vpermt2ps %ymm31, %ymm7, %ymm8 vmovaps %ymm2, %ymm9 vpermt2ps %ymm31, %ymm7, %ymm9 vmovaps %ymm1, %ymm10 vpermt2ps %ymm31, %ymm7, %ymm10 vaddps %ymm5, %ymm6, %ymm4 vmaxps %ymm4, %ymm5, %ymm14 vminps %ymm4, %ymm5, %ymm4 vmovaps %ymm5, %ymm15 vpermt2ps %ymm31, %ymm7, %ymm15 vmovaps %ymm11, %ymm19 vpermt2ps %ymm31, %ymm7, %ymm19 vmovaps %ymm12, %ymm20 vpermt2ps %ymm31, %ymm7, %ymm20 vmovaps %ymm13, %ymm5 vpermt2ps %ymm31, %ymm7, %ymm5 vpermt2ps %ymm31, %ymm7, %ymm6 vsubps %ymm6, %ymm15, %ymm16 vsubps %ymm0, %ymm8, %ymm7 vsubps %ymm2, %ymm9, %ymm6 vsubps %ymm1, %ymm10, %ymm27 vmulps %ymm13, %ymm6, %ymm17 vfmsub231ps %ymm27, %ymm12, %ymm17 # ymm17 = (ymm12 * ymm27) - ymm17 vmulps %ymm11, %ymm27, %ymm18 vfmsub231ps %ymm7, %ymm13, %ymm18 # ymm18 = (ymm13 * ymm7) - ymm18 vmulps %ymm12, %ymm7, %ymm22 vfmsub231ps %ymm6, %ymm11, %ymm22 # ymm22 = (ymm11 * ymm6) - ymm22 vmulps %ymm22, %ymm22, %ymm22 vfmadd231ps %ymm18, %ymm18, %ymm22 # ymm22 = (ymm18 * ymm18) + ymm22 vfmadd231ps %ymm17, %ymm17, %ymm22 # ymm22 = (ymm17 * ymm17) + ymm22 vmulps %ymm27, %ymm27, %ymm17 vfmadd231ps %ymm6, %ymm6, %ymm17 # ymm17 = (ymm6 * ymm6) + ymm17 vfmadd231ps %ymm7, %ymm7, %ymm17 # ymm17 = (ymm7 * ymm7) + ymm17 vrcp14ps %ymm17, %ymm18 vmovaps %ymm18, %ymm23 vbroadcastss 0x1e3f3d(%rip), %ymm24 # 0x1eec714 vmovaps %ymm24, %ymm26 vfnmadd213ps %ymm24, %ymm17, %ymm23 # ymm23 = -(ymm17 * ymm23) + ymm24 vfmadd132ps %ymm18, %ymm18, %ymm23 # ymm23 = (ymm23 * ymm18) + ymm18 vmulps %ymm23, %ymm22, %ymm18 vmulps %ymm5, %ymm6, %ymm22 vfmsub231ps %ymm27, %ymm20, %ymm22 # ymm22 = (ymm20 * ymm27) - ymm22 vmulps %ymm19, %ymm27, %ymm24 vfmsub231ps %ymm7, %ymm5, %ymm24 # ymm24 = (ymm5 * ymm7) - ymm24 vmulps %ymm20, %ymm7, %ymm25 vfmsub231ps %ymm6, %ymm19, %ymm25 # ymm25 = (ymm19 * ymm6) - ymm25 vmulps %ymm25, %ymm25, %ymm25 vfmadd231ps %ymm24, %ymm24, %ymm25 # ymm25 = (ymm24 * ymm24) + ymm25 vfmadd231ps %ymm22, %ymm22, %ymm25 # ymm25 = (ymm22 * ymm22) + ymm25 vmulps %ymm23, %ymm25, %ymm22 vmaxps %ymm22, %ymm18, %ymm18 vsqrtps %ymm18, %ymm18 vmaxps %ymm15, %ymm16, %ymm22 vmaxps %ymm22, %ymm14, %ymm14 vaddps %ymm14, %ymm18, %ymm14 vminps %ymm15, %ymm16, %ymm15 vminps %ymm15, %ymm4, %ymm4 vsubps %ymm18, %ymm4, %ymm4 vmulps 0x1e80dc(%rip){1to8}, %ymm14, %ymm14 # 0x1ef0940 vmulps 0x1e80d6(%rip){1to8}, %ymm4, %ymm4 # 0x1ef0944 vmovaps %ymm4, 0x80(%rsp) vmulps %ymm14, %ymm14, %ymm4 vrsqrt14ps %ymm17, %ymm15 vmulps 0x1e3e90(%rip){1to8}, %ymm17, %ymm14 # 0x1eec71c vmulps %ymm14, %ymm15, %ymm14 vmulps %ymm15, %ymm15, %ymm16 vmulps %ymm14, %ymm16, %ymm14 vfmadd231ps 0x1e3e71(%rip){1to8}, %ymm15, %ymm14 # ymm14 = (ymm15 * mem) + ymm14 vmulps %ymm7, %ymm14, %ymm15 vmulps %ymm14, %ymm6, %ymm16 vmovaps %ymm27, 0x380(%rsp) vmulps %ymm14, %ymm27, %ymm18 vmovaps %ymm0, 0x140(%rsp) vsubps %ymm0, %ymm31, %ymm27 vmovaps %ymm2, 0xa0(%rsp) vsubps %ymm2, %ymm31, %ymm28 vmovaps %ymm1, 0x1e0(%rsp) vsubps %ymm1, %ymm31, %ymm29 vmulps %ymm29, %ymm21, %ymm22 vfmadd231ps %ymm28, %ymm3, %ymm22 # ymm22 = (ymm3 * ymm28) + ymm22 vmovaps 0x540(%rsp), %ymm0 vfmadd231ps %ymm27, %ymm0, %ymm22 # ymm22 = (ymm0 * ymm27) + ymm22 vmulps %ymm29, %ymm29, %ymm24 vfmadd231ps %ymm28, %ymm28, %ymm24 # ymm24 = (ymm28 * ymm28) + ymm24 vfmadd231ps %ymm27, %ymm27, %ymm24 # ymm24 = (ymm27 * ymm27) + ymm24 vmulps %ymm18, %ymm21, %ymm17 vfmadd231ps %ymm3, %ymm16, %ymm17 # ymm17 = (ymm16 * ymm3) + ymm17 vfmadd231ps %ymm0, %ymm15, %ymm17 # ymm17 = (ymm15 * ymm0) + ymm17 vmulps %ymm18, %ymm29, %ymm18 vfmadd231ps %ymm16, %ymm28, %ymm18 # ymm18 = (ymm28 * ymm16) + ymm18 vfmadd231ps %ymm15, %ymm27, %ymm18 # ymm18 = (ymm27 * ymm15) + ymm18 vmulps %ymm17, %ymm17, %ymm2 vmovaps 0x600(%rsp), %ymm3 vsubps %ymm2, %ymm3, %ymm15 vmulps %ymm18, %ymm17, %ymm25 vsubps %ymm25, %ymm22, %ymm22 vaddps %ymm22, %ymm22, %ymm22 vmulps %ymm18, %ymm18, %ymm25 vsubps %ymm25, %ymm24, %ymm1 vsubps %ymm4, %ymm1, %ymm4 vmulps %ymm22, %ymm22, %ymm25 vmulps %ymm30, %ymm15, %ymm24 vmulps %ymm4, %ymm24, %ymm30 vsubps %ymm30, %ymm25, %ymm30 vcmpnltps %ymm31, %ymm30, %k1 kmovd %k1, %eax kortestb %k1, %k1 je 0x1d08a7d vsqrtps %ymm30, %ymm30 vaddps %ymm15, %ymm15, %ymm31 vrcp14ps %ymm31, %ymm3 vfnmadd213ps %ymm26, %ymm3, %ymm31 # ymm31 = -(ymm3 * ymm31) + ymm26 vfmadd132ps %ymm3, %ymm3, %ymm31 # ymm31 = (ymm31 * ymm3) + ymm3 vxorps 0x2184f9(%rip){1to8}, %ymm22, %ymm3 # 0x1f20ec0 vsubps %ymm30, %ymm3, %ymm3 vmulps %ymm31, %ymm3, %ymm3 vsubps %ymm22, %ymm30, %ymm30 vmulps %ymm31, %ymm30, %ymm31 vmovaps %ymm17, %ymm30 vfmadd213ps %ymm18, %ymm3, %ymm30 # ymm30 = (ymm3 * ymm30) + ymm18 vmulps %ymm30, %ymm14, %ymm30 vmovaps %ymm30, 0x4e0(%rsp) vmovaps %ymm17, %ymm30 vfmadd213ps %ymm18, %ymm31, %ymm30 # ymm30 = (ymm31 * ymm30) + ymm18 vmulps %ymm30, %ymm14, %ymm30 vmovaps %ymm30, 0x4c0(%rsp) vbroadcastss 0x1e3003(%rip), %ymm16 # 0x1eeba20 vblendmps %ymm3, %ymm16, %ymm30 {%k1} vbroadcastss 0x1e4158(%rip), %ymm3 # 0x1eecb84 vblendmps %ymm31, %ymm3, %ymm31 {%k1} vbroadcastss 0x218488(%rip), %ymm23 # 0x1f20ec4 vandps %ymm23, %ymm2, %ymm3 vmovaps 0x520(%rsp), %ymm16 vmaxps %ymm3, %ymm16, %ymm3 vmulps 0x1e945a(%rip){1to8}, %ymm3, %ymm3 # 0x1ef1eb4 vandps %ymm23, %ymm15, %ymm23 vcmpltps %ymm3, %ymm23, %k1 {%k1} kortestb %k1, %k1 jne 0x1d0a953 vbroadcastss 0x1e3c99(%rip), %ymm16 # 0x1eec714 jmp 0x1d08a97 vbroadcastss 0x1e2f99(%rip), %ymm30 # 0x1eeba20 vbroadcastss 0x1e40f3(%rip), %ymm31 # 0x1eecb84 vmovaps %ymm26, %ymm16 andb $0x7f, %al je 0x1d08e8f movq 0x18(%rsp), %rcx vmovss 0x80(%r12,%rcx,4), %xmm3 vsubss 0x2e0(%rsp), %xmm3, %xmm3 vbroadcastss %xmm3, %ymm3 vminps %ymm31, %ymm3, %ymm3 vmovaps 0x5e0(%rsp), %ymm4 vmaxps %ymm30, %ymm4, %ymm4 vmulps %ymm29, %ymm13, %ymm23 vfmadd213ps %ymm23, %ymm12, %ymm28 # ymm28 = (ymm12 * ymm28) + ymm23 vfmadd213ps %ymm28, %ymm11, %ymm27 # ymm27 = (ymm11 * ymm27) + ymm28 vmovaps 0x1a0(%rsp), %ymm21 vmulps %ymm13, %ymm21, %ymm13 vmovaps 0x1c0(%rsp), %ymm31 vfmadd231ps %ymm12, %ymm31, %ymm13 # ymm13 = (ymm31 * ymm12) + ymm13 vmovaps 0x540(%rsp), %ymm30 vfmadd231ps %ymm11, %ymm30, %ymm13 # ymm13 = (ymm30 * ymm11) + ymm13 vbroadcastss 0x2183ad(%rip), %ymm28 # 0x1f20ec4 vandps %ymm28, %ymm13, %ymm11 vbroadcastss 0x1e84c1(%rip), %ymm29 # 0x1ef0fe8 vcmpltps %ymm29, %ymm11, %k0 vbroadcastss 0x218388(%rip), %ymm26 # 0x1f20ec0 vxorps %ymm26, %ymm27, %ymm11 vrcp14ps %ymm13, %ymm12 vxorps %ymm26, %ymm13, %ymm23 vmovaps %ymm12, %ymm27 vfnmadd213ps %ymm16, %ymm13, %ymm27 # ymm27 = -(ymm13 * ymm27) + ymm16 vfmadd132ps %ymm12, %ymm12, %ymm27 # ymm27 = (ymm27 * ymm12) + ymm12 vmulps %ymm11, %ymm27, %ymm11 vcmpltps %ymm23, %ymm13, %k1 korb %k1, %k0, %k1 vbroadcastss 0x1e400d(%rip), %ymm27 # 0x1eecb84 vblendmps %ymm27, %ymm11, %ymm12 {%k1} vmaxps %ymm12, %ymm4, %ymm4 vcmpnleps %ymm23, %ymm13, %k1 korb %k1, %k0, %k1 vbroadcastss 0x1e2e8a(%rip), %ymm13 # 0x1eeba20 vmovaps %ymm13, %ymm11 {%k1} vminps %ymm11, %ymm3, %ymm3 vxorps %xmm23, %xmm23, %xmm23 vsubps %ymm8, %ymm23, %ymm8 vsubps %ymm9, %ymm23, %ymm9 vsubps %ymm10, %ymm23, %ymm10 vmulps %ymm5, %ymm10, %ymm10 vfnmsub231ps %ymm9, %ymm20, %ymm10 # ymm10 = -(ymm20 * ymm9) - ymm10 vfnmadd231ps %ymm8, %ymm19, %ymm10 # ymm10 = -(ymm19 * ymm8) + ymm10 vmulps %ymm5, %ymm21, %ymm8 vfnmsub231ps %ymm20, %ymm31, %ymm8 # ymm8 = -(ymm31 * ymm20) - ymm8 vfnmadd231ps %ymm19, %ymm30, %ymm8 # ymm8 = -(ymm30 * ymm19) + ymm8 vandps %ymm28, %ymm8, %ymm9 vcmpltps %ymm29, %ymm9, %k0 vxorps %ymm26, %ymm10, %ymm9 vrcp14ps %ymm8, %ymm10 vxorps %ymm26, %ymm8, %ymm11 vmovaps %ymm10, %ymm12 vfnmadd213ps %ymm16, %ymm8, %ymm12 # ymm12 = -(ymm8 * ymm12) + ymm16 vfmadd132ps %ymm10, %ymm10, %ymm12 # ymm12 = (ymm12 * ymm10) + ymm10 vmulps %ymm9, %ymm12, %ymm9 vcmpltps %ymm11, %ymm8, %k1 korb %k1, %k0, %k1 vblendmps %ymm27, %ymm9, %ymm10 {%k1} vmaxps %ymm10, %ymm4, %ymm0 vcmpnleps %ymm11, %ymm8, %k1 korb %k1, %k0, %k1 vmovaps %ymm13, %ymm9 {%k1} vminps %ymm9, %ymm3, %ymm8 vmovaps %ymm0, 0x340(%rsp) vcmpleps %ymm8, %ymm0, %k0 kmovd %k0, %ecx andb %cl, %al je 0x1d0a842 vmovaps 0x4e0(%rsp), %ymm3 vmaxps 0x80(%rsp), %ymm23, %ymm4 vminps %ymm16, %ymm3, %ymm3 vxorps %xmm10, %xmm10, %xmm10 vmaxps %ymm10, %ymm3, %ymm3 vmovaps 0x4c0(%rsp), %ymm9 vminps %ymm16, %ymm9, %ymm9 vmovaps 0x2182b1(%rip), %ymm11 # 0x1f20f40 vaddps %ymm3, %ymm11, %ymm3 vbroadcastss 0x21581c(%rip), %ymm12 # 0x1f1e4b8 vmulps %ymm3, %ymm12, %ymm3 vmovaps 0x60(%rsp), %ymm0 vmovaps %ymm1, %ymm5 vmovaps 0x200(%rsp), %ymm1 vfmadd213ps %ymm0, %ymm1, %ymm3 # ymm3 = (ymm1 * ymm3) + ymm0 vmovaps %ymm3, 0x4e0(%rsp) vmaxps %ymm10, %ymm9, %ymm3 vaddps %ymm3, %ymm11, %ymm3 vmulps %ymm3, %ymm12, %ymm3 vfmadd213ps %ymm0, %ymm1, %ymm3 # ymm3 = (ymm1 * ymm3) + ymm0 vmovaps %ymm3, 0x4c0(%rsp) vmulps %ymm4, %ymm4, %ymm3 vsubps %ymm3, %ymm5, %ymm11 vmulps %ymm11, %ymm24, %ymm3 vsubps %ymm3, %ymm25, %ymm3 vcmpnltps %ymm10, %ymm3, %k0 kortestb %k0, %k0 je 0x1d08ea4 vxorps %xmm20, %xmm20, %xmm20 vcmpnltps %ymm23, %ymm3, %k1 vsqrtps %ymm3, %ymm3 vaddps %ymm15, %ymm15, %ymm4 vrcp14ps %ymm4, %ymm9 vfnmadd213ps %ymm16, %ymm9, %ymm4 # ymm4 = -(ymm9 * ymm4) + ymm16 vfmadd132ps %ymm9, %ymm9, %ymm4 # ymm4 = (ymm4 * ymm9) + ymm9 vxorps 0x21818e(%rip){1to8}, %ymm22, %ymm9 # 0x1f20ec0 vsubps %ymm3, %ymm9, %ymm9 vmulps %ymm4, %ymm9, %ymm12 vsubps %ymm22, %ymm3, %ymm3 vmulps %ymm4, %ymm3, %ymm13 vmovaps %ymm17, %ymm3 vfmadd213ps %ymm18, %ymm12, %ymm3 # ymm3 = (ymm12 * ymm3) + ymm18 vmulps %ymm3, %ymm14, %ymm9 vmulps %ymm12, %ymm30, %ymm3 vmulps %ymm12, %ymm31, %ymm4 vmulps %ymm12, %ymm21, %ymm10 vmovaps %ymm7, %ymm19 vmovaps %ymm2, %ymm16 vmovaps 0x140(%rsp), %ymm2 vfmadd213ps %ymm2, %ymm9, %ymm19 # ymm19 = (ymm9 * ymm19) + ymm2 vsubps %ymm19, %ymm3, %ymm3 vmovaps %ymm6, %ymm19 vmovaps 0xa0(%rsp), %ymm1 vfmadd213ps %ymm1, %ymm9, %ymm19 # ymm19 = (ymm9 * ymm19) + ymm1 vsubps %ymm19, %ymm4, %ymm4 vmovaps 0x1e0(%rsp), %ymm0 vmovaps 0x380(%rsp), %ymm5 vfmadd213ps %ymm0, %ymm5, %ymm9 # ymm9 = (ymm5 * ymm9) + ymm0 vsubps %ymm9, %ymm10, %ymm9 vfmadd213ps %ymm18, %ymm13, %ymm17 # ymm17 = (ymm13 * ymm17) + ymm18 vmulps %ymm17, %ymm14, %ymm14 vmulps %ymm13, %ymm30, %ymm10 vmulps %ymm13, %ymm31, %ymm17 vmulps %ymm13, %ymm21, %ymm18 vfmadd213ps %ymm2, %ymm14, %ymm7 # ymm7 = (ymm14 * ymm7) + ymm2 vsubps %ymm7, %ymm10, %ymm10 vfmadd213ps %ymm1, %ymm14, %ymm6 # ymm6 = (ymm14 * ymm6) + ymm1 vsubps %ymm6, %ymm17, %ymm1 vfmadd213ps %ymm0, %ymm14, %ymm5 # ymm5 = (ymm14 * ymm5) + ymm0 vsubps %ymm5, %ymm18, %ymm5 vbroadcastss 0x1e2c1c(%rip), %ymm0 # 0x1eeba20 vblendmps %ymm12, %ymm0, %ymm2 {%k1} vbroadcastss 0x1e3d71(%rip), %ymm0 # 0x1eecb84 vblendmps %ymm13, %ymm0, %ymm0 {%k1} vbroadcastss 0x2180a2(%rip), %ymm7 # 0x1f20ec4 vandps %ymm7, %ymm16, %ymm6 vmovaps 0x520(%rsp), %ymm12 vmaxps %ymm6, %ymm12, %ymm6 vmulps 0x1e9075(%rip){1to8}, %ymm6, %ymm6 # 0x1ef1eb4 vandps %ymm7, %ymm15, %ymm7 vcmpltps %ymm6, %ymm7, %k1 {%k1} kortestb %k1, %k1 je 0x1d08ecb vcmpleps %ymm20, %ymm11, %k2 vbroadcastss 0x1e3d24(%rip), %ymm7 # 0x1eecb84 vbroadcastss 0x1e2bb7(%rip), %ymm11 # 0x1eeba20 vblendmps %ymm7, %ymm11, %ymm6 {%k2} vmovaps %ymm6, %ymm2 {%k1} vblendmps %ymm11, %ymm7, %ymm6 {%k2} vmovaps %ymm6, %ymm0 {%k1} knotb %k1, %k1 korb %k2, %k1, %k1 kandb %k0, %k1, %k0 jmp 0x1d08ecb vmovaps 0x1c0(%rsp), %ymm31 vmovaps 0x1a0(%rsp), %ymm21 jmp 0x1d0a842 vxorps %xmm1, %xmm1, %xmm1 vxorps %xmm5, %xmm5, %xmm5 vxorps %xmm3, %xmm3, %xmm3 vxorps %xmm4, %xmm4, %xmm4 vxorps %xmm9, %xmm9, %xmm9 vbroadcastss 0x1e2b5e(%rip), %ymm2 # 0x1eeba20 vbroadcastss 0x1e3cb9(%rip), %ymm0 # 0x1eecb84 vbroadcastss 0x217ff0(%rip), %xmm11 # 0x1f20ec4 vmulps %ymm5, %ymm21, %ymm5 vfmadd231ps %ymm1, %ymm31, %ymm5 # ymm5 = (ymm31 * ymm1) + ymm5 vfmadd231ps %ymm10, %ymm30, %ymm5 # ymm5 = (ymm30 * ymm10) + ymm5 vmovaps 0x340(%rsp), %ymm7 vmovaps %ymm7, 0x820(%rsp) vminps %ymm2, %ymm8, %ymm1 vmovaps %ymm1, 0x840(%rsp) vbroadcastss 0x217fb6(%rip), %ymm6 # 0x1f20ec4 vandps %ymm6, %ymm5, %ymm2 vmaxps %ymm0, %ymm7, %ymm5 vmovaps %ymm5, 0x560(%rsp) vmovaps %ymm8, 0x580(%rsp) vbroadcastss 0x217fa3(%rip), %ymm0 # 0x1f20ed4 vcmpltps %ymm0, %ymm2, %k1 kmovd %k1, 0x104(%rsp) vcmpleps %ymm1, %ymm7, %k1 kmovd %k1, %ecx andb %al, %cl vmovaps %ymm5, 0x480(%rsp) vcmpleps %ymm8, %ymm5, %k1 kmovd %k1, %edx andb %al, %dl movl %edx, %eax orb %cl, %al je 0x1d0a80c vmovaps %ymm0, %ymm2 movl %edx, 0x34(%rsp) movq %r9, 0x190(%rsp) movq %r10, 0x198(%rsp) knotb %k0, %k1 vmulps %ymm9, %ymm21, %ymm0 vfmadd213ps %ymm0, %ymm31, %ymm4 # ymm4 = (ymm31 * ymm4) + ymm0 vfmadd213ps %ymm4, %ymm30, %ymm3 # ymm3 = (ymm30 * ymm3) + ymm4 vandps %ymm6, %ymm3, %ymm0 vcmpltps %ymm2, %ymm0, %k0 kmovd %k1, 0xfc(%rsp) korb %k1, %k0, %k1 vpbroadcastd 0x217f1d(%rip), %ymm0 # 0x1f20edc vpblendmd 0x217f0f(%rip){1to8}, %ymm0, %ymm0 {%k1} # 0x1f20ed8 movq %r11, 0x188(%rsp) vpbroadcastd %r11d, %ymm1 vmovdqa %ymm0, 0x5a0(%rsp) vmovdqa %ymm1, 0x500(%rsp) vpcmpnltd %ymm0, %ymm1, %k0 kmovd %k0, %ebx movl %ecx, 0x100(%rsp) andb %cl, %bl je 0x1d09b5d vmovaps 0x2a0(%rsp), %ymm1 vmovaps 0x260(%rsp), %ymm2 vminps %xmm2, %xmm1, %xmm0 vmaxps %xmm2, %xmm1, %xmm1 vmovaps 0x280(%rsp), %ymm3 vmovaps 0x240(%rsp), %ymm4 vminps %xmm4, %xmm3, %xmm2 vminps %xmm2, %xmm0, %xmm0 vmaxps %xmm4, %xmm3, %xmm2 vmaxps %xmm2, %xmm1, %xmm1 vandps %xmm0, %xmm11, %xmm0 vandps %xmm1, %xmm11, %xmm2 vmaxps %xmm2, %xmm0, %xmm0 vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3] vmaxss %xmm0, %xmm2, %xmm2 vshufpd $0x1, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[1,0] vmaxss %xmm2, %xmm0, %xmm0 vmulss 0x1e8e50(%rip), %xmm0, %xmm0 # 0x1ef1eb4 vmovss %xmm0, 0x44(%rsp) vshufps $0xff, %xmm1, %xmm1, %xmm0 # xmm0 = xmm1[3,3,3,3] vmovaps %xmm0, 0x2d0(%rsp) vmovaps 0x340(%rsp), %ymm0 vaddps 0x360(%rsp), %ymm0, %ymm0 vmovaps %ymm0, 0x4a0(%rsp) kmovd %ebx, %k1 vbroadcastss 0x1e2980(%rip), %ymm0 # 0x1eeba20 vblendmps 0x340(%rsp), %ymm0, %ymm0 {%k1} vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm0, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1] vminps %ymm2, %ymm1, %ymm1 vcmpeqps %ymm1, %ymm0, %k0 kmovd %k0, %eax andb %bl, %al movzbl %al, %eax movzbl %bl, %ecx cmovnel %eax, %ecx tzcntl %ecx, %ecx movb $0x1, %bl shlb %cl, %bl shll $0x2, %ecx vmovss 0x4e0(%rsp,%rcx), %xmm10 vmovss 0x820(%rsp,%rcx), %xmm8 vmovaps 0x220(%rsp), %xmm0 vucomiss 0x1e291c(%rip), %xmm0 # 0x1eeba24 vmovss 0x108(%rsp), %xmm0 jae 0x1d09154 vmovaps 0x220(%rsp), %xmm0 vmovaps %xmm10, 0x60(%rsp) vmovaps %xmm8, 0xa0(%rsp) kmovw %k1, 0x80(%rsp) vzeroupper callq 0x6aa20 kmovw 0x80(%rsp), %k1 vmovaps 0xa0(%rsp), %xmm8 vmovaps 0x60(%rsp), %xmm10 movzbl %bl, %eax kmovd %eax, %k0 kandnb %k1, %k0, %k0 kmovd %k0, %ebx vmulss 0x1e8d49(%rip), %xmm0, %xmm0 # 0x1ef1eb4 vmovss %xmm0, 0x48(%rsp) movl $0x4, %r14d vmovaps %xmm8, 0xa0(%rsp) vbroadcastss %xmm8, %xmm0 vxorps %xmm1, %xmm1, %xmm1 vfmadd132ps 0x230(%rsp), %xmm1, %xmm0 # xmm0 = (xmm0 * mem) + xmm1 vmovss 0x1e3579(%rip), %xmm1 # 0x1eec714 vsubss %xmm10, %xmm1, %xmm4 vmulss %xmm4, %xmm4, %xmm1 vmulss %xmm1, %xmm4, %xmm1 vmulss %xmm10, %xmm10, %xmm11 vmulss %xmm11, %xmm10, %xmm2 vmovss 0x1e39d2(%rip), %xmm7 # 0x1eecb8c vmovaps %xmm7, %xmm3 vfmadd213ss %xmm2, %xmm1, %xmm3 # xmm3 = (xmm1 * xmm3) + xmm2 vmulss %xmm4, %xmm10, %xmm12 vmovaps %xmm4, 0x80(%rsp) vmulss %xmm4, %xmm12, %xmm4 vmulss %xmm12, %xmm10, %xmm5 vmovss 0x1e7e13(%rip), %xmm8 # 0x1ef0ff4 vmulss %xmm5, %xmm8, %xmm6 vmovss 0x1e7e0f(%rip), %xmm9 # 0x1ef0ffc vfmadd231ss %xmm9, %xmm4, %xmm6 # xmm6 = (xmm4 * xmm9) + xmm6 vaddss %xmm6, %xmm3, %xmm3 vmovaps %xmm7, %xmm6 vfmadd213ss %xmm1, %xmm2, %xmm6 # xmm6 = (xmm2 * xmm6) + xmm1 vmulss %xmm4, %xmm8, %xmm4 vfmadd231ss %xmm5, %xmm9, %xmm4 # xmm4 = (xmm9 * xmm5) + xmm4 vaddss %xmm4, %xmm6, %xmm4 vmovss 0x1e7dec(%rip), %xmm5 # 0x1ef1000 vmulss %xmm5, %xmm1, %xmm1 vmulss %xmm5, %xmm3, %xmm3 vmulss %xmm5, %xmm4, %xmm4 vmulss %xmm5, %xmm2, %xmm2 vbroadcastss %xmm2, %xmm2 vmulps 0x240(%rsp), %xmm2, %xmm2 vbroadcastss %xmm4, %xmm4 vfmadd132ps 0x280(%rsp), %xmm2, %xmm4 # xmm4 = (xmm4 * mem) + xmm2 vbroadcastss %xmm3, %xmm2 vfmadd132ps 0x260(%rsp), %xmm4, %xmm2 # xmm2 = (xmm2 * mem) + xmm4 vbroadcastss %xmm1, %xmm1 vfmadd132ps 0x2a0(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2 vmovaps %xmm1, 0x380(%rsp) vsubps %xmm1, %xmm0, %xmm0 vmovaps %xmm0, 0x200(%rsp) vdpps $0x7f, %xmm0, %xmm0, %xmm0 vucomiss 0x1e27a1(%rip), %xmm0 # 0x1eeba24 vmovaps %xmm10, 0x60(%rsp) vmovaps %xmm0, 0x1e0(%rsp) jb 0x1d0929a vsqrtss %xmm0, %xmm0, %xmm7 jmp 0x1d092ca vmovss %xmm11, 0x140(%rsp) vmovss %xmm12, 0x20(%rsp) vzeroupper callq 0x6aa20 vmovss 0x20(%rsp), %xmm12 vmovss 0x140(%rsp), %xmm11 vmovaps 0x60(%rsp), %xmm10 vmovaps %xmm0, %xmm7 vmovaps 0x80(%rsp), %xmm3 vbroadcastss %xmm3, %xmm1 vbroadcastss 0x217bdf(%rip), %xmm4 # 0x1f20ec0 vmovaps %xmm1, 0x330(%rsp) vxorps %xmm4, %xmm1, %xmm0 vmulss %xmm0, %xmm3, %xmm0 vmulss 0x1e3892(%rip), %xmm12, %xmm1 # 0x1eecb8c vmovaps %xmm10, %xmm2 vfnmsub213ss %xmm1, %xmm10, %xmm2 # xmm2 = -(xmm10 * xmm2) - xmm1 vfmadd231ss %xmm3, %xmm3, %xmm1 # xmm1 = (xmm3 * xmm3) + xmm1 vmovss 0x1e3870(%rip), %xmm3 # 0x1eecb80 vmulss %xmm3, %xmm0, %xmm0 vmulss %xmm3, %xmm2, %xmm2 vmulss %xmm3, %xmm1, %xmm1 vmulss %xmm3, %xmm11, %xmm3 vbroadcastss %xmm3, %xmm3 vmulps 0x240(%rsp), %xmm3, %xmm3 vbroadcastss %xmm1, %xmm1 vfmadd132ps 0x280(%rsp), %xmm3, %xmm1 # xmm1 = (xmm1 * mem) + xmm3 vbroadcastss %xmm2, %xmm2 vfmadd132ps 0x260(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1 vbroadcastss %xmm0, %xmm13 vfmadd132ps 0x2a0(%rsp), %xmm2, %xmm13 # xmm13 = (xmm13 * mem) + xmm2 vdpps $0x7f, %xmm13, %xmm13, %xmm0 vxorps %xmm1, %xmm1, %xmm1 vmovss %xmm0, %xmm1, %xmm2 # xmm2 = xmm0[0],xmm1[1,2,3] vrsqrt14ss %xmm2, %xmm1, %xmm3 vmulss 0x1e33a1(%rip), %xmm3, %xmm5 # 0x1eec718 vmulss 0x1e339d(%rip), %xmm0, %xmm6 # 0x1eec71c vrcp14ss %xmm2, %xmm1, %xmm2 vxorps %xmm4, %xmm0, %xmm1 vmovaps %xmm2, 0x310(%rsp) vfnmadd213ss 0x1e7c5d(%rip), %xmm0, %xmm2 # xmm2 = -(xmm0 * xmm2) + mem vmovss %xmm2, 0x4c(%rsp) vucomiss %xmm1, %xmm0 vmovaps %xmm13, 0x140(%rsp) vmovss %xmm7, 0x20(%rsp) vmovaps %xmm0, 0x320(%rsp) jb 0x1d093c7 vsqrtss %xmm0, %xmm0, %xmm16 jmp 0x1d09414 vmovaps %xmm3, 0xd0(%rsp) vmovss %xmm5, 0x24(%rsp) vmovss %xmm6, 0xc0(%rsp) vzeroupper callq 0x6aa20 vmovss 0xc0(%rsp), %xmm6 vmovss 0x24(%rsp), %xmm5 vmovaps 0xd0(%rsp), %xmm3 vmovss 0x20(%rsp), %xmm7 vmovaps 0x140(%rsp), %xmm13 vmovaps %xmm0, %xmm16 vmovaps 0x200(%rsp), %xmm9 vmovaps 0x1e0(%rsp), %xmm19 vmulss %xmm3, %xmm6, %xmm0 vmulss %xmm3, %xmm3, %xmm1 vmulss %xmm1, %xmm0, %xmm0 vaddss %xmm0, %xmm5, %xmm0 vbroadcastss %xmm0, %xmm4 vmulps %xmm4, %xmm13, %xmm0 vmovaps %xmm0, 0xd0(%rsp) vdpps $0x7f, %xmm0, %xmm9, %xmm15 vaddss 0x1e32bf(%rip), %xmm7, %xmm14 # 0x1eec714 vmulps %xmm15, %xmm15, %xmm0 vsubps %xmm0, %xmm19, %xmm0 vxorps %xmm2, %xmm2, %xmm2 vmovss %xmm0, %xmm2, %xmm1 # xmm1 = xmm0[0],xmm2[1,2,3] vrsqrt14ss %xmm1, %xmm2, %xmm18 vmulss 0x1e32a0(%rip), %xmm18, %xmm17 # 0x1eec718 vmulss 0x1e329a(%rip), %xmm0, %xmm20 # 0x1eec71c vucomiss 0x1e259a(%rip), %xmm0 # 0x1eeba24 jb 0x1d09495 vsqrtss %xmm0, %xmm0, %xmm0 jmp 0x1d0952d vmovss %xmm14, 0x24(%rsp) vmovaps %xmm15, 0xc0(%rsp) vmovss %xmm16, 0x40(%rsp) vmovss %xmm17, 0x3c(%rsp) vmovaps %xmm18, 0x300(%rsp) vmovss %xmm20, 0x38(%rsp) vmovaps %xmm4, 0x2f0(%rsp) vzeroupper callq 0x6aa20 vmovaps 0x2f0(%rsp), %xmm4 vmovss 0x38(%rsp), %xmm20 vmovaps 0x300(%rsp), %xmm18 vmovss 0x3c(%rsp), %xmm17 vmovss 0x40(%rsp), %xmm16 vmovaps 0xc0(%rsp), %xmm15 vmovss 0x24(%rsp), %xmm14 vmovss 0x20(%rsp), %xmm7 vmovaps 0x140(%rsp), %xmm13 vmovaps 0x1e0(%rsp), %xmm19 vmovaps 0x200(%rsp), %xmm9 vbroadcastss 0x21798e(%rip), %xmm11 # 0x1f20ec4 vmovaps 0x1c0(%rsp), %ymm31 vmovaps 0x1a0(%rsp), %ymm21 vmovaps 0x60(%rsp), %xmm10 vmovaps 0xa0(%rsp), %xmm8 vmovss 0x1e747f(%rip), %xmm2 # 0x1ef09dc vmovaps %xmm2, %xmm1 vmovaps 0x80(%rsp), %xmm3 vfmadd213ss %xmm10, %xmm3, %xmm1 # xmm1 = (xmm3 * xmm1) + xmm10 vfmadd231ss %xmm2, %xmm10, %xmm3 # xmm3 = (xmm10 * xmm2) + xmm3 vbroadcastss %xmm10, %xmm2 vmulps 0x240(%rsp), %xmm2, %xmm2 vbroadcastss %xmm3, %xmm3 vfmadd132ps 0x280(%rsp), %xmm2, %xmm3 # xmm3 = (xmm3 * mem) + xmm2 vbroadcastss %xmm1, %xmm1 vfmadd132ps 0x260(%rsp), %xmm3, %xmm1 # xmm1 = (xmm1 * mem) + xmm3 vmovaps 0x330(%rsp), %xmm2 vfmadd132ps 0x2a0(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1 vbroadcastss 0x320(%rsp), %xmm1 vmulps %xmm1, %xmm2, %xmm1 vdpps $0x7f, %xmm2, %xmm13, %xmm2 vbroadcastss %xmm2, %xmm2 vmulps %xmm2, %xmm13, %xmm2 vsubps %xmm2, %xmm1, %xmm1 vmovss 0x4c(%rsp), %xmm2 vmulss 0x310(%rsp), %xmm2, %xmm2 vmulss 0x48(%rsp), %xmm8, %xmm3 vbroadcastss %xmm2, %xmm2 vmulps %xmm2, %xmm1, %xmm1 vxorps 0x2178c4(%rip){1to4}, %xmm13, %xmm2 # 0x1f20ec0 vmulps %xmm1, %xmm4, %xmm4 vmovaps 0xd0(%rsp), %xmm12 vdpps $0x7f, %xmm12, %xmm2, %xmm5 vmovss 0x44(%rsp), %xmm6 vmaxss %xmm3, %xmm6, %xmm1 vdivss %xmm16, %xmm6, %xmm3 vdpps $0x7f, %xmm4, %xmm9, %xmm4 vfmadd213ss %xmm1, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm7) + xmm1 vfmadd213ss %xmm7, %xmm3, %xmm14 # xmm14 = (xmm3 * xmm14) + xmm7 vmovaps 0x230(%rsp), %xmm7 vdpps $0x7f, %xmm12, %xmm7, %xmm3 vaddss %xmm4, %xmm5, %xmm4 vdpps $0x7f, %xmm2, %xmm9, %xmm5 vmulss %xmm18, %xmm20, %xmm2 vmulss %xmm18, %xmm18, %xmm6 vmulss %xmm6, %xmm2, %xmm2 vdpps $0x7f, %xmm7, %xmm9, %xmm6 vaddss %xmm2, %xmm17, %xmm7 vfnmadd231ss %xmm4, %xmm15, %xmm5 # xmm5 = -(xmm15 * xmm4) + xmm5 vfnmadd231ss %xmm3, %xmm15, %xmm6 # xmm6 = -(xmm15 * xmm3) + xmm6 vpermilps $0xff, 0x380(%rsp), %xmm2 # xmm2 = mem[3,3,3,3] vsubss %xmm2, %xmm0, %xmm2 vshufps $0xff, %xmm13, %xmm13, %xmm0 # xmm0 = xmm13[3,3,3,3] vfmsub213ss %xmm0, %xmm7, %xmm5 # xmm5 = (xmm7 * xmm5) - xmm0 vmulss %xmm7, %xmm6, %xmm6 vmulss %xmm5, %xmm3, %xmm7 vfmsub231ss %xmm6, %xmm4, %xmm7 # xmm7 = (xmm4 * xmm6) - xmm7 vdivss %xmm7, %xmm6, %xmm6 vdivss %xmm7, %xmm5, %xmm5 vdivss %xmm7, %xmm3, %xmm3 vdivss %xmm7, %xmm4, %xmm4 vmulss %xmm6, %xmm15, %xmm6 vmulss %xmm3, %xmm2, %xmm3 vsubss %xmm3, %xmm6, %xmm3 vmulss %xmm5, %xmm15, %xmm5 vmulss %xmm4, %xmm2, %xmm4 vsubss %xmm5, %xmm4, %xmm4 vsubss %xmm3, %xmm10, %xmm10 vsubss %xmm4, %xmm8, %xmm8 vandps %xmm11, %xmm15, %xmm3 vucomiss %xmm3, %xmm14 jbe 0x1d09884 vaddss %xmm1, %xmm14, %xmm1 vmovaps 0x2d0(%rsp), %xmm3 vfmadd231ss 0x1e87ca(%rip), %xmm3, %xmm1 # xmm1 = (xmm3 * mem) + xmm1 vandps %xmm2, %xmm11, %xmm2 vucomiss %xmm2, %xmm1 jbe 0x1d09884 vaddss 0x2e0(%rsp), %xmm8, %xmm8 movb $0x1, %r13b vucomiss 0x5c(%rsp), %xmm8 jb 0x1d09887 movq 0x18(%rsp), %rax vmovss 0x80(%r12,%rax,4), %xmm4 vucomiss %xmm8, %xmm4 jb 0x1d09887 vucomiss 0x1e22f2(%rip), %xmm10 # 0x1eeba24 jb 0x1d09887 vmovss 0x1e2fd4(%rip), %xmm1 # 0x1eec714 vucomiss %xmm10, %xmm1 jb 0x1d09887 vxorps %xmm2, %xmm2, %xmm2 vmovss %xmm19, %xmm2, %xmm1 # xmm1 = xmm19[0],xmm2[1,2,3] vrsqrt14ss %xmm1, %xmm2, %xmm1 vmulss 0x1e2fb5(%rip), %xmm1, %xmm2 # 0x1eec718 vmulss 0x1e2faf(%rip), %xmm19, %xmm3 # 0x1eec71c movq (%r15), %rax movq 0x1e8(%rax), %rax movq %r15, %rcx movq 0x50(%rsp), %rdx movq (%rax,%rdx,8), %r15 movq 0x18(%rsp), %rax movl 0x90(%r12,%rax,4), %eax testl %eax, 0x34(%r15) je 0x1d098a4 vmulss %xmm1, %xmm3, %xmm3 vmulss %xmm1, %xmm1, %xmm1 vmulss %xmm1, %xmm3, %xmm1 vaddss %xmm1, %xmm2, %xmm1 vbroadcastss %xmm1, %xmm1 vmulps %xmm1, %xmm9, %xmm1 vfmadd213ps %xmm13, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm0) + xmm13 vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3] vshufps $0xc9, %xmm13, %xmm13, %xmm3 # xmm3 = xmm13[1,2,0,3] vmulps %xmm3, %xmm1, %xmm1 vfmsub231ps %xmm2, %xmm13, %xmm1 # xmm1 = (xmm13 * xmm2) - xmm1 vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3] vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3] vshufps $0xd2, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,0,1,3] vmulps %xmm1, %xmm0, %xmm0 vfmsub231ps %xmm3, %xmm2, %xmm0 # xmm0 = (xmm2 * xmm3) - xmm0 movq 0x10(%rcx), %rax cmpq $0x0, 0x10(%rax) jne 0x1d098a9 cmpq $0x0, 0x40(%r15) jne 0x1d098a9 movq 0x18(%rsp), %rcx vmovss %xmm8, 0x80(%r12,%rcx,4) vextractps $0x1, %xmm0, 0xc0(%r12,%rcx,4) vextractps $0x2, %xmm0, 0xd0(%r12,%rcx,4) vmovss %xmm0, 0xe0(%r12,%rcx,4) vmovss %xmm10, 0xf0(%r12,%rcx,4) movl $0x0, 0x100(%r12,%rcx,4) movq 0xf0(%rsp), %rax movl %eax, 0x110(%r12,%rcx,4) movq 0x50(%rsp), %rax movl %eax, 0x120(%r12,%rcx,4) movq 0x28(%rsp), %r15 movq 0x8(%r15), %rax movl (%rax), %eax movl %eax, 0x130(%r12,%rcx,4) movq 0x8(%r15), %rax movl 0x4(%rax), %eax movl %eax, 0x140(%r12,%rcx,4) jmp 0x1d09887 xorl %r13d, %r13d subq $0x1, %r14 setb %al testb %r13b, %r13b jne 0x1d09b3a testb %al, %al je 0x1d09177 jmp 0x1d09b3a movq %rcx, %r15 jmp 0x1d09887 movq 0x28(%rsp), %rcx movq 0x8(%rcx), %rax vbroadcastss %xmm10, %xmm1 vshufps $0x55, %xmm0, %xmm0, %xmm2 # xmm2 = xmm0[1,1,1,1] vshufps $0xaa, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[2,2,2,2] vbroadcastss %xmm0, %xmm0 vmovaps %xmm2, 0x3e0(%rsp) vmovaps %xmm3, 0x3f0(%rsp) vmovaps %xmm0, 0x400(%rsp) vmovaps %xmm1, 0x410(%rsp) vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 0x420(%rsp) vmovaps 0x3c0(%rsp), %xmm0 vmovaps %xmm0, 0x430(%rsp) vmovdqa 0x3d0(%rsp), %xmm0 vmovdqa %xmm0, 0x440(%rsp) leaq 0x450(%rsp), %rdx vpcmpeqd %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, (%rdx) vbroadcastss (%rax), %xmm0 vmovaps %xmm0, 0x450(%rsp) vbroadcastss 0x4(%rax), %xmm0 vmovaps %xmm0, 0x460(%rsp) movq 0x18(%rsp), %rax vmovss %xmm8, 0x80(%r12,%rax,4) vmovaps 0x3b0(%rsp), %xmm0 vmovaps %xmm0, 0xe0(%rsp) leaq 0xe0(%rsp), %rax movq %rax, 0x110(%rsp) movq 0x18(%r15), %rax movq %rax, 0x118(%rsp) movq 0x8(%rcx), %rax movq %rax, 0x120(%rsp) movq %r12, 0x128(%rsp) leaq 0x3e0(%rsp), %rax movq %rax, 0x130(%rsp) movl $0x4, 0x138(%rsp) movq 0x40(%r15), %rax testq %rax, %rax vmovaps %xmm10, 0x60(%rsp) vmovaps %xmm8, 0xa0(%rsp) vmovss %xmm4, 0x80(%rsp) je 0x1d09a13 leaq 0x110(%rsp), %rdi vzeroupper callq *%rax vmovss 0x80(%rsp), %xmm4 vmovaps 0xa0(%rsp), %xmm8 vmovaps 0x60(%rsp), %xmm10 vmovaps 0x1a0(%rsp), %ymm21 vmovaps 0x1c0(%rsp), %ymm31 vbroadcastss 0x2174b1(%rip), %xmm11 # 0x1f20ec4 vmovdqa 0xe0(%rsp), %xmm0 vptestmd %xmm0, %xmm0, %k0 kortestb %k0, %k0 je 0x1d09b21 movq 0x28(%rsp), %rax movq 0x10(%rax), %rcx movq 0x10(%rcx), %rax testq %rax, %rax je 0x1d09a88 testb $0x2, (%rcx) jne 0x1d09a4a testb $0x40, 0x3e(%r15) je 0x1d09a88 leaq 0x110(%rsp), %rdi vzeroupper callq *%rax vmovss 0x80(%rsp), %xmm4 vmovaps 0xa0(%rsp), %xmm8 vmovaps 0x60(%rsp), %xmm10 vmovaps 0x1a0(%rsp), %ymm21 vmovaps 0x1c0(%rsp), %ymm31 vbroadcastss 0x21743c(%rip), %xmm11 # 0x1f20ec4 vmovdqa 0xe0(%rsp), %xmm0 vptestmd %xmm0, %xmm0, %k1 kortestb %k1, %k1 je 0x1d09b21 movq 0x128(%rsp), %rax movq 0x130(%rsp), %rcx vmovaps (%rcx), %xmm0 vmovups %xmm0, 0xc0(%rax) {%k1} vmovaps 0x10(%rcx), %xmm0 vmovups %xmm0, 0xd0(%rax) {%k1} vmovaps 0x20(%rcx), %xmm0 vmovups %xmm0, 0xe0(%rax) {%k1} vmovaps 0x30(%rcx), %xmm0 vmovups %xmm0, 0xf0(%rax) {%k1} vmovaps 0x40(%rcx), %xmm0 vmovups %xmm0, 0x100(%rax) {%k1} vmovdqa 0x50(%rcx), %xmm0 vmovdqu32 %xmm0, 0x110(%rax) {%k1} vmovdqa 0x60(%rcx), %xmm0 vmovdqu32 %xmm0, 0x120(%rax) {%k1} vmovdqa 0x70(%rcx), %xmm0 vmovdqa32 %xmm0, 0x130(%rax) {%k1} vmovdqa 0x80(%rcx), %xmm0 vmovdqa32 %xmm0, 0x140(%rax) {%k1} jmp 0x1d09b30 movq 0x18(%rsp), %rax vmovss %xmm4, 0x80(%r12,%rax,4) movq 0x28(%rsp), %r15 jmp 0x1d09887 movq 0x18(%rsp), %rax vmovaps 0x4a0(%rsp), %ymm0 vcmpleps 0x80(%r12,%rax,4){1to8}, %ymm0, %k0 kmovd %k0, %eax andb %al, %bl jne 0x1d09093 vmovaps 0x480(%rsp), %ymm0 vaddps 0x360(%rsp), %ymm0, %ymm0 movq 0x18(%rsp), %rax vcmpleps 0x80(%r12,%rax,4){1to8}, %ymm0, %k0 kmovd 0x104(%rsp), %k1 kmovd 0xfc(%rsp), %k2 korb %k2, %k1, %k1 kmovd %k0, %eax movl 0x34(%rsp), %ecx andb %al, %cl vpbroadcastd 0x217334(%rip), %ymm0 # 0x1f20edc vpblendmd 0x217326(%rip){1to8}, %ymm0, %ymm0 {%k1} # 0x1f20ed8 vmovdqa %ymm0, 0x480(%rsp) vpcmpled 0x500(%rsp), %ymm0, %k0 kmovd %k0, %ebx movl %ecx, 0x34(%rsp) andb %cl, %bl je 0x1d0a725 vmovaps 0x560(%rsp), %ymm5 vmovaps 0x2a0(%rsp), %ymm1 vmovaps 0x260(%rsp), %ymm2 vminps %xmm2, %xmm1, %xmm0 vmaxps %xmm2, %xmm1, %xmm1 vmovaps 0x280(%rsp), %ymm3 vmovaps 0x240(%rsp), %ymm4 vminps %xmm4, %xmm3, %xmm2 vminps %xmm2, %xmm0, %xmm0 vmaxps %xmm4, %xmm3, %xmm2 vmaxps %xmm2, %xmm1, %xmm1 vandps %xmm0, %xmm11, %xmm0 vandps %xmm1, %xmm11, %xmm2 vmaxps %xmm2, %xmm0, %xmm0 vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3] vmaxss %xmm0, %xmm2, %xmm2 vshufpd $0x1, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[1,0] vmaxss %xmm2, %xmm0, %xmm0 vmulss 0x1e8276(%rip), %xmm0, %xmm0 # 0x1ef1eb4 vmovss %xmm0, 0x44(%rsp) vshufps $0xff, %xmm1, %xmm1, %xmm0 # xmm0 = xmm1[3,3,3,3] vmovaps %xmm0, 0x2d0(%rsp) vmovaps %ymm5, 0x340(%rsp) vaddps 0x360(%rsp), %ymm5, %ymm0 vmovaps %ymm0, 0x4a0(%rsp) kmovd %ebx, %k1 vbroadcastss 0x1e1da6(%rip), %ymm0 # 0x1eeba20 vblendmps 0x340(%rsp), %ymm0, %ymm0 {%k1} vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm0, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1] vminps %ymm2, %ymm1, %ymm1 vcmpeqps %ymm1, %ymm0, %k0 kmovd %k0, %eax andb %bl, %al movzbl %al, %eax movzbl %bl, %ecx cmovnel %eax, %ecx tzcntl %ecx, %ecx movb $0x1, %bl shlb %cl, %bl shll $0x2, %ecx vmovss 0x4c0(%rsp,%rcx), %xmm10 vmovss 0x580(%rsp,%rcx), %xmm9 vmovaps 0x220(%rsp), %xmm0 vucomiss 0x1e1d42(%rip), %xmm0 # 0x1eeba24 vmovss 0x10c(%rsp), %xmm0 jae 0x1d09d2e vmovaps 0x220(%rsp), %xmm0 vmovaps %xmm10, 0x60(%rsp) vmovaps %xmm9, 0xa0(%rsp) kmovw %k1, 0x80(%rsp) vzeroupper callq 0x6aa20 kmovw 0x80(%rsp), %k1 vmovaps 0xa0(%rsp), %xmm9 vmovaps 0x60(%rsp), %xmm10 movzbl %bl, %eax kmovd %eax, %k0 kandnb %k1, %k0, %k0 kmovd %k0, %ebx vmulss 0x1e816f(%rip), %xmm0, %xmm0 # 0x1ef1eb4 vmovss %xmm0, 0x48(%rsp) movl $0x4, %r14d vmovaps %xmm9, 0xa0(%rsp) vbroadcastss %xmm9, %xmm0 vxorps %xmm1, %xmm1, %xmm1 vfmadd132ps 0x230(%rsp), %xmm1, %xmm0 # xmm0 = (xmm0 * mem) + xmm1 vmovss 0x1e299f(%rip), %xmm1 # 0x1eec714 vsubss %xmm10, %xmm1, %xmm4 vmulss %xmm4, %xmm4, %xmm1 vmulss %xmm1, %xmm4, %xmm1 vmulss %xmm10, %xmm10, %xmm11 vmulss %xmm11, %xmm10, %xmm2 vmovss 0x1e2df8(%rip), %xmm7 # 0x1eecb8c vmovaps %xmm7, %xmm3 vfmadd213ss %xmm2, %xmm1, %xmm3 # xmm3 = (xmm1 * xmm3) + xmm2 vmulss %xmm4, %xmm10, %xmm12 vmovaps %xmm4, 0x80(%rsp) vmulss %xmm4, %xmm12, %xmm4 vmulss %xmm12, %xmm10, %xmm5 vmovss 0x1e7239(%rip), %xmm8 # 0x1ef0ff4 vmulss %xmm5, %xmm8, %xmm6 vmovss 0x1e7235(%rip), %xmm9 # 0x1ef0ffc vfmadd231ss %xmm9, %xmm4, %xmm6 # xmm6 = (xmm4 * xmm9) + xmm6 vaddss %xmm6, %xmm3, %xmm3 vmovaps %xmm7, %xmm6 vfmadd213ss %xmm1, %xmm2, %xmm6 # xmm6 = (xmm2 * xmm6) + xmm1 vmulss %xmm4, %xmm8, %xmm4 vfmadd231ss %xmm5, %xmm9, %xmm4 # xmm4 = (xmm9 * xmm5) + xmm4 vaddss %xmm4, %xmm6, %xmm4 vmovss 0x1e7212(%rip), %xmm5 # 0x1ef1000 vmulss %xmm5, %xmm1, %xmm1 vmulss %xmm5, %xmm3, %xmm3 vmulss %xmm5, %xmm4, %xmm4 vmulss %xmm5, %xmm2, %xmm2 vbroadcastss %xmm2, %xmm2 vmulps 0x240(%rsp), %xmm2, %xmm2 vbroadcastss %xmm4, %xmm4 vfmadd132ps 0x280(%rsp), %xmm2, %xmm4 # xmm4 = (xmm4 * mem) + xmm2 vbroadcastss %xmm3, %xmm2 vfmadd132ps 0x260(%rsp), %xmm4, %xmm2 # xmm2 = (xmm2 * mem) + xmm4 vbroadcastss %xmm1, %xmm1 vfmadd132ps 0x2a0(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2 vmovaps %xmm1, 0x380(%rsp) vsubps %xmm1, %xmm0, %xmm0 vmovaps %xmm0, 0x200(%rsp) vdpps $0x7f, %xmm0, %xmm0, %xmm0 vucomiss 0x1e1bc7(%rip), %xmm0 # 0x1eeba24 vmovaps %xmm10, 0x60(%rsp) vmovaps %xmm0, 0x1e0(%rsp) jb 0x1d09e74 vsqrtss %xmm0, %xmm0, %xmm7 jmp 0x1d09ea4 vmovss %xmm11, 0x140(%rsp) vmovss %xmm12, 0x20(%rsp) vzeroupper callq 0x6aa20 vmovss 0x20(%rsp), %xmm12 vmovss 0x140(%rsp), %xmm11 vmovaps 0x60(%rsp), %xmm10 vmovaps %xmm0, %xmm7 vmovaps 0x80(%rsp), %xmm3 vbroadcastss %xmm3, %xmm1 vbroadcastss 0x217005(%rip), %xmm4 # 0x1f20ec0 vmovaps %xmm1, 0x330(%rsp) vxorps %xmm4, %xmm1, %xmm0 vmulss %xmm0, %xmm3, %xmm0 vmulss 0x1e2cb8(%rip), %xmm12, %xmm1 # 0x1eecb8c vmovaps %xmm10, %xmm2 vfnmsub213ss %xmm1, %xmm10, %xmm2 # xmm2 = -(xmm10 * xmm2) - xmm1 vfmadd231ss %xmm3, %xmm3, %xmm1 # xmm1 = (xmm3 * xmm3) + xmm1 vmovss 0x1e2c96(%rip), %xmm3 # 0x1eecb80 vmulss %xmm3, %xmm0, %xmm0 vmulss %xmm3, %xmm2, %xmm2 vmulss %xmm3, %xmm1, %xmm1 vmulss %xmm3, %xmm11, %xmm3 vbroadcastss %xmm3, %xmm3 vmulps 0x240(%rsp), %xmm3, %xmm3 vbroadcastss %xmm1, %xmm1 vfmadd132ps 0x280(%rsp), %xmm3, %xmm1 # xmm1 = (xmm1 * mem) + xmm3 vbroadcastss %xmm2, %xmm2 vfmadd132ps 0x260(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1 vbroadcastss %xmm0, %xmm13 vfmadd132ps 0x2a0(%rsp), %xmm2, %xmm13 # xmm13 = (xmm13 * mem) + xmm2 vdpps $0x7f, %xmm13, %xmm13, %xmm0 vxorps %xmm1, %xmm1, %xmm1 vmovss %xmm0, %xmm1, %xmm2 # xmm2 = xmm0[0],xmm1[1,2,3] vrsqrt14ss %xmm2, %xmm1, %xmm3 vmulss 0x1e27c7(%rip), %xmm3, %xmm5 # 0x1eec718 vmulss 0x1e27c3(%rip), %xmm0, %xmm6 # 0x1eec71c vrcp14ss %xmm2, %xmm1, %xmm2 vxorps %xmm4, %xmm0, %xmm1 vmovaps %xmm2, 0x310(%rsp) vfnmadd213ss 0x1e7083(%rip), %xmm0, %xmm2 # xmm2 = -(xmm0 * xmm2) + mem vmovss %xmm2, 0x4c(%rsp) vucomiss %xmm1, %xmm0 vmovaps %xmm13, 0x140(%rsp) vmovss %xmm7, 0x20(%rsp) vmovaps %xmm0, 0x320(%rsp) jb 0x1d09fa1 vsqrtss %xmm0, %xmm0, %xmm16 jmp 0x1d09fee vmovaps %xmm3, 0xd0(%rsp) vmovss %xmm5, 0x24(%rsp) vmovss %xmm6, 0xc0(%rsp) vzeroupper callq 0x6aa20 vmovss 0xc0(%rsp), %xmm6 vmovss 0x24(%rsp), %xmm5 vmovaps 0xd0(%rsp), %xmm3 vmovss 0x20(%rsp), %xmm7 vmovaps 0x140(%rsp), %xmm13 vmovaps %xmm0, %xmm16 vmovaps 0x200(%rsp), %xmm11 vmovaps 0x1e0(%rsp), %xmm19 vmulss %xmm3, %xmm6, %xmm0 vmulss %xmm3, %xmm3, %xmm1 vmulss %xmm1, %xmm0, %xmm0 vaddss %xmm0, %xmm5, %xmm0 vbroadcastss %xmm0, %xmm4 vmulps %xmm4, %xmm13, %xmm0 vmovaps %xmm0, 0xd0(%rsp) vdpps $0x7f, %xmm0, %xmm11, %xmm15 vaddss 0x1e26e5(%rip), %xmm7, %xmm14 # 0x1eec714 vmulps %xmm15, %xmm15, %xmm0 vsubps %xmm0, %xmm19, %xmm0 vxorps %xmm2, %xmm2, %xmm2 vmovss %xmm0, %xmm2, %xmm1 # xmm1 = xmm0[0],xmm2[1,2,3] vrsqrt14ss %xmm1, %xmm2, %xmm18 vmulss 0x1e26c6(%rip), %xmm18, %xmm17 # 0x1eec718 vmulss 0x1e26c0(%rip), %xmm0, %xmm20 # 0x1eec71c vucomiss 0x1e19c0(%rip), %xmm0 # 0x1eeba24 jb 0x1d0a06f vsqrtss %xmm0, %xmm0, %xmm0 jmp 0x1d0a107 vmovss %xmm14, 0x24(%rsp) vmovaps %xmm15, 0xc0(%rsp) vmovss %xmm16, 0x40(%rsp) vmovss %xmm17, 0x3c(%rsp) vmovaps %xmm18, 0x300(%rsp) vmovss %xmm20, 0x38(%rsp) vmovaps %xmm4, 0x2f0(%rsp) vzeroupper callq 0x6aa20 vmovaps 0x2f0(%rsp), %xmm4 vmovss 0x38(%rsp), %xmm20 vmovaps 0x300(%rsp), %xmm18 vmovss 0x3c(%rsp), %xmm17 vmovss 0x40(%rsp), %xmm16 vmovaps 0xc0(%rsp), %xmm15 vmovss 0x24(%rsp), %xmm14 vmovss 0x20(%rsp), %xmm7 vmovaps 0x140(%rsp), %xmm13 vmovaps 0x1e0(%rsp), %xmm19 vmovaps 0x200(%rsp), %xmm11 vbroadcastss 0x216db4(%rip), %xmm8 # 0x1f20ec4 vmovaps 0x1c0(%rsp), %ymm31 vmovaps 0x1a0(%rsp), %ymm21 vmovaps 0x60(%rsp), %xmm10 vmovaps 0xa0(%rsp), %xmm9 vmovss 0x1e68a5(%rip), %xmm2 # 0x1ef09dc vmovaps %xmm2, %xmm1 vmovaps 0x80(%rsp), %xmm3 vfmadd213ss %xmm10, %xmm3, %xmm1 # xmm1 = (xmm3 * xmm1) + xmm10 vfmadd231ss %xmm2, %xmm10, %xmm3 # xmm3 = (xmm10 * xmm2) + xmm3 vbroadcastss %xmm10, %xmm2 vmulps 0x240(%rsp), %xmm2, %xmm2 vbroadcastss %xmm3, %xmm3 vfmadd132ps 0x280(%rsp), %xmm2, %xmm3 # xmm3 = (xmm3 * mem) + xmm2 vbroadcastss %xmm1, %xmm1 vfmadd132ps 0x260(%rsp), %xmm3, %xmm1 # xmm1 = (xmm1 * mem) + xmm3 vmovaps 0x330(%rsp), %xmm2 vfmadd132ps 0x2a0(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1 vbroadcastss 0x320(%rsp), %xmm1 vmulps %xmm1, %xmm2, %xmm1 vdpps $0x7f, %xmm2, %xmm13, %xmm2 vbroadcastss %xmm2, %xmm2 vmulps %xmm2, %xmm13, %xmm2 vsubps %xmm2, %xmm1, %xmm1 vmovss 0x4c(%rsp), %xmm2 vmulss 0x310(%rsp), %xmm2, %xmm2 vmulss 0x48(%rsp), %xmm9, %xmm3 vbroadcastss %xmm2, %xmm2 vmulps %xmm2, %xmm1, %xmm1 vxorps 0x216cea(%rip){1to4}, %xmm13, %xmm2 # 0x1f20ec0 vmulps %xmm1, %xmm4, %xmm4 vmovaps 0xd0(%rsp), %xmm12 vdpps $0x7f, %xmm12, %xmm2, %xmm5 vmovss 0x44(%rsp), %xmm6 vmaxss %xmm3, %xmm6, %xmm1 vdivss %xmm16, %xmm6, %xmm3 vdpps $0x7f, %xmm4, %xmm11, %xmm4 vfmadd213ss %xmm1, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm7) + xmm1 vfmadd213ss %xmm7, %xmm3, %xmm14 # xmm14 = (xmm3 * xmm14) + xmm7 vmovaps 0x230(%rsp), %xmm7 vdpps $0x7f, %xmm12, %xmm7, %xmm3 vaddss %xmm4, %xmm5, %xmm4 vdpps $0x7f, %xmm2, %xmm11, %xmm5 vmulss %xmm18, %xmm20, %xmm2 vmulss %xmm18, %xmm18, %xmm6 vmulss %xmm6, %xmm2, %xmm2 vdpps $0x7f, %xmm7, %xmm11, %xmm6 vaddss %xmm2, %xmm17, %xmm7 vfnmadd231ss %xmm4, %xmm15, %xmm5 # xmm5 = -(xmm15 * xmm4) + xmm5 vfnmadd231ss %xmm3, %xmm15, %xmm6 # xmm6 = -(xmm15 * xmm3) + xmm6 vpermilps $0xff, 0x380(%rsp), %xmm2 # xmm2 = mem[3,3,3,3] vsubss %xmm2, %xmm0, %xmm2 vshufps $0xff, %xmm13, %xmm13, %xmm0 # xmm0 = xmm13[3,3,3,3] vfmsub213ss %xmm0, %xmm7, %xmm5 # xmm5 = (xmm7 * xmm5) - xmm0 vmulss %xmm7, %xmm6, %xmm6 vmulss %xmm5, %xmm3, %xmm7 vfmsub231ss %xmm6, %xmm4, %xmm7 # xmm7 = (xmm4 * xmm6) - xmm7 vdivss %xmm7, %xmm6, %xmm6 vdivss %xmm7, %xmm5, %xmm5 vdivss %xmm7, %xmm3, %xmm3 vdivss %xmm7, %xmm4, %xmm4 vmulss %xmm6, %xmm15, %xmm6 vmulss %xmm3, %xmm2, %xmm3 vsubss %xmm3, %xmm6, %xmm3 vmulss %xmm5, %xmm15, %xmm5 vmulss %xmm4, %xmm2, %xmm4 vsubss %xmm5, %xmm4, %xmm4 vsubss %xmm3, %xmm10, %xmm10 vsubss %xmm4, %xmm9, %xmm9 vandps %xmm8, %xmm15, %xmm3 vucomiss %xmm3, %xmm14 jbe 0x1d0a45e vaddss %xmm1, %xmm14, %xmm1 vmovaps 0x2d0(%rsp), %xmm3 vfmadd231ss 0x1e7bf0(%rip), %xmm3, %xmm1 # xmm1 = (xmm3 * mem) + xmm1 vandps %xmm2, %xmm8, %xmm2 vucomiss %xmm2, %xmm1 jbe 0x1d0a45e vaddss 0x2e0(%rsp), %xmm9, %xmm9 movb $0x1, %r13b vucomiss 0x5c(%rsp), %xmm9 jb 0x1d0a461 movq 0x18(%rsp), %rax vmovss 0x80(%r12,%rax,4), %xmm4 vucomiss %xmm9, %xmm4 jb 0x1d0a461 vucomiss 0x1e1718(%rip), %xmm10 # 0x1eeba24 jb 0x1d0a461 vmovss 0x1e23fa(%rip), %xmm1 # 0x1eec714 vucomiss %xmm10, %xmm1 jb 0x1d0a461 vxorps %xmm2, %xmm2, %xmm2 vmovss %xmm19, %xmm2, %xmm1 # xmm1 = xmm19[0],xmm2[1,2,3] vrsqrt14ss %xmm1, %xmm2, %xmm1 vmulss 0x1e23db(%rip), %xmm1, %xmm2 # 0x1eec718 vmulss 0x1e23d5(%rip), %xmm19, %xmm3 # 0x1eec71c movq (%r15), %rax movq 0x1e8(%rax), %rax movq %r15, %rcx movq 0x50(%rsp), %rdx movq (%rax,%rdx,8), %r15 movq 0x18(%rsp), %rax movl 0x90(%r12,%rax,4), %eax testl %eax, 0x34(%r15) je 0x1d0a47e vmulss %xmm1, %xmm3, %xmm3 vmulss %xmm1, %xmm1, %xmm1 vmulss %xmm1, %xmm3, %xmm1 vaddss %xmm1, %xmm2, %xmm1 vbroadcastss %xmm1, %xmm1 vmulps %xmm1, %xmm11, %xmm1 vfmadd213ps %xmm13, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm0) + xmm13 vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3] vshufps $0xc9, %xmm13, %xmm13, %xmm3 # xmm3 = xmm13[1,2,0,3] vmulps %xmm3, %xmm1, %xmm1 vfmsub231ps %xmm2, %xmm13, %xmm1 # xmm1 = (xmm13 * xmm2) - xmm1 vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3] vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3] vshufps $0xd2, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,0,1,3] vmulps %xmm1, %xmm0, %xmm0 vfmsub231ps %xmm3, %xmm2, %xmm0 # xmm0 = (xmm2 * xmm3) - xmm0 movq 0x10(%rcx), %rax cmpq $0x0, 0x10(%rax) jne 0x1d0a483 cmpq $0x0, 0x40(%r15) jne 0x1d0a483 movq 0x18(%rsp), %rcx vmovss %xmm9, 0x80(%r12,%rcx,4) vextractps $0x1, %xmm0, 0xc0(%r12,%rcx,4) vextractps $0x2, %xmm0, 0xd0(%r12,%rcx,4) vmovss %xmm0, 0xe0(%r12,%rcx,4) vmovss %xmm10, 0xf0(%r12,%rcx,4) movl $0x0, 0x100(%r12,%rcx,4) movq 0xf0(%rsp), %rax movl %eax, 0x110(%r12,%rcx,4) movq 0x50(%rsp), %rax movl %eax, 0x120(%r12,%rcx,4) movq 0x28(%rsp), %r15 movq 0x8(%r15), %rax movl (%rax), %eax movl %eax, 0x130(%r12,%rcx,4) movq 0x8(%r15), %rax movl 0x4(%rax), %eax movl %eax, 0x140(%r12,%rcx,4) jmp 0x1d0a461 xorl %r13d, %r13d subq $0x1, %r14 setb %al testb %r13b, %r13b jne 0x1d0a702 testb %al, %al je 0x1d09d51 jmp 0x1d0a702 movq %rcx, %r15 jmp 0x1d0a461 movq 0x28(%rsp), %rcx movq 0x8(%rcx), %rax vbroadcastss %xmm10, %xmm1 vshufps $0x55, %xmm0, %xmm0, %xmm2 # xmm2 = xmm0[1,1,1,1] vshufps $0xaa, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[2,2,2,2] vbroadcastss %xmm0, %xmm0 vmovaps %xmm2, 0x3e0(%rsp) vmovaps %xmm3, 0x3f0(%rsp) vmovaps %xmm0, 0x400(%rsp) vmovaps %xmm1, 0x410(%rsp) vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 0x420(%rsp) vmovaps 0x3c0(%rsp), %xmm0 vmovaps %xmm0, 0x430(%rsp) vmovdqa 0x3d0(%rsp), %xmm0 vmovdqa %xmm0, 0x440(%rsp) leaq 0x450(%rsp), %rdx vpcmpeqd %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, (%rdx) vbroadcastss (%rax), %xmm0 vmovaps %xmm0, 0x450(%rsp) vbroadcastss 0x4(%rax), %xmm0 vmovaps %xmm0, 0x460(%rsp) movq 0x18(%rsp), %rax vmovss %xmm9, 0x80(%r12,%rax,4) vmovaps 0x3b0(%rsp), %xmm0 vmovaps %xmm0, 0xe0(%rsp) leaq 0xe0(%rsp), %rax movq %rax, 0x110(%rsp) movq 0x18(%r15), %rax movq %rax, 0x118(%rsp) movq 0x8(%rcx), %rax movq %rax, 0x120(%rsp) movq %r12, 0x128(%rsp) leaq 0x3e0(%rsp), %rax movq %rax, 0x130(%rsp) movl $0x4, 0x138(%rsp) movq 0x40(%r15), %rax testq %rax, %rax vmovaps %xmm10, 0x60(%rsp) vmovaps %xmm9, 0xa0(%rsp) vmovss %xmm4, 0x80(%rsp) je 0x1d0a5e4 leaq 0x110(%rsp), %rdi vzeroupper callq *%rax vmovss 0x80(%rsp), %xmm4 vmovaps 0xa0(%rsp), %xmm9 vmovaps 0x60(%rsp), %xmm10 vmovaps 0x1a0(%rsp), %ymm21 vmovaps 0x1c0(%rsp), %ymm31 vmovdqa 0xe0(%rsp), %xmm0 vptestmd %xmm0, %xmm0, %k0 kortestb %k0, %k0 je 0x1d0a6e9 movq 0x28(%rsp), %rax movq 0x10(%rax), %rcx movq 0x10(%rcx), %rax testq %rax, %rax je 0x1d0a650 testb $0x2, (%rcx) jne 0x1d0a61b testb $0x40, 0x3e(%r15) je 0x1d0a650 leaq 0x110(%rsp), %rdi vzeroupper callq *%rax vmovss 0x80(%rsp), %xmm4 vmovaps 0xa0(%rsp), %xmm9 vmovaps 0x60(%rsp), %xmm10 vmovaps 0x1a0(%rsp), %ymm21 vmovaps 0x1c0(%rsp), %ymm31 vmovdqa 0xe0(%rsp), %xmm0 vptestmd %xmm0, %xmm0, %k1 kortestb %k1, %k1 je 0x1d0a6e9 movq 0x128(%rsp), %rax movq 0x130(%rsp), %rcx vmovaps (%rcx), %xmm0 vmovups %xmm0, 0xc0(%rax) {%k1} vmovaps 0x10(%rcx), %xmm0 vmovups %xmm0, 0xd0(%rax) {%k1} vmovaps 0x20(%rcx), %xmm0 vmovups %xmm0, 0xe0(%rax) {%k1} vmovaps 0x30(%rcx), %xmm0 vmovups %xmm0, 0xf0(%rax) {%k1} vmovaps 0x40(%rcx), %xmm0 vmovups %xmm0, 0x100(%rax) {%k1} vmovdqa 0x50(%rcx), %xmm0 vmovdqu32 %xmm0, 0x110(%rax) {%k1} vmovdqa 0x60(%rcx), %xmm0 vmovdqu32 %xmm0, 0x120(%rax) {%k1} vmovdqa 0x70(%rcx), %xmm0 vmovdqa32 %xmm0, 0x130(%rax) {%k1} vmovdqa 0x80(%rcx), %xmm0 vmovdqa32 %xmm0, 0x140(%rax) {%k1} jmp 0x1d0a6f8 movq 0x18(%rsp), %rax vmovss %xmm4, 0x80(%r12,%rax,4) movq 0x28(%rsp), %r15 jmp 0x1d0a461 movq 0x18(%rsp), %rax vmovaps 0x4a0(%rsp), %ymm0 vcmpleps 0x80(%r12,%rax,4){1to8}, %ymm0, %k0 kmovd %k0, %eax andb %al, %bl jne 0x1d09c6d vmovdqa 0x500(%rsp), %ymm1 vpcmpltd 0x480(%rsp), %ymm1, %k1 vmovaps 0x820(%rsp), %ymm0 vpcmpltd 0x5a0(%rsp), %ymm1, %k2 vmovaps 0x360(%rsp), %ymm3 vaddps %ymm0, %ymm3, %ymm1 movq 0x18(%rsp), %rax vbroadcastss 0x80(%r12,%rax,4), %ymm2 vcmpleps %ymm2, %ymm1, %k0 {%k2} kmovd %k0, %eax movl 0x100(%rsp), %ecx andb %al, %cl vmovaps 0x560(%rsp), %ymm1 vaddps %ymm1, %ymm3, %ymm3 vcmpleps %ymm2, %ymm3, %k0 {%k1} kmovd %k0, %eax movl 0x34(%rsp), %edx andb %al, %dl orb %cl, %dl je 0x1d0a818 movq 0x190(%rsp), %r9 movl %r9d, %eax leaq (%rax,%rax,2), %rax shlq $0x5, %rax movb %dl, 0x860(%rsp,%rax) kmovd %ecx, %k1 vmovaps %ymm0, %ymm1 {%k1} vmovaps %ymm1, 0x880(%rsp,%rax) vmovaps 0x170(%rsp), %xmm2 vmovlps %xmm2, 0x8a0(%rsp,%rax) movq 0x188(%rsp), %r11 leal 0x1(%r11), %ecx movl %ecx, 0x8a8(%rsp,%rax) incl %r9d movq 0x180(%rsp), %r8 vbroadcastss 0x1e1f12(%rip), %ymm16 # 0x1eec714 movq 0x198(%rsp), %r10 jmp 0x1d0a84b vbroadcastss 0x1e1efe(%rip), %ymm16 # 0x1eec714 jmp 0x1d0a842 movq 0x180(%rsp), %r8 vbroadcastss 0x1e1eea(%rip), %ymm16 # 0x1eec714 movq 0x198(%rsp), %r10 movq 0x190(%rsp), %r9 movq 0x188(%rsp), %r11 vmovaps 0x170(%rsp), %xmm2 movl %r9d, %eax testl %eax, %eax je 0x1d0a9a0 leal -0x1(%rax), %r9d leaq (%r9,%r9,2), %rcx shlq $0x5, %rcx vmovaps 0x880(%rsp,%rcx), %ymm0 movzbl 0x860(%rsp,%rcx), %esi vaddps 0x360(%rsp), %ymm0, %ymm1 movq 0x18(%rsp), %rdx vcmpleps 0x80(%r12,%rdx,4){1to8}, %ymm1, %k0 kmovb %k0, %edx andl %esi, %edx je 0x1d0a943 kmovd %edx, %k1 vbroadcastss 0x1e117d(%rip), %ymm1 # 0x1eeba20 vblendmps %ymm0, %ymm1, %ymm0 {%k1} vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm0, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1] vminps %ymm2, %ymm1, %ymm1 vcmpeqps %ymm1, %ymm0, %k0 kmovd %k0, %esi andb %dl, %sil je 0x1d0a8db movzbl %sil, %edi jmp 0x1d0a8de movzbl %dl, %edi leaq (%rsp,%rcx), %rsi addq $0x860, %rsi # imm = 0x860 vmovss 0x44(%rsi), %xmm0 tzcntl %edi, %ecx movb $0x1, %dil shlb %cl, %dil movl 0x48(%rsi), %r11d movzbl %dil, %edi kmovd %edi, %k0 kmovd %edx, %k1 kandnb %k1, %k0, %k0 kmovb %k0, (%rsi) kortestb %k0, %k0 je 0x1d0a919 movl %eax, %r9d vbroadcastss 0x40(%rsi), %ymm1 vsubss %xmm1, %xmm0, %xmm0 vbroadcastss %xmm0, %ymm0 vfmadd132ps 0x2165ef(%rip), %ymm1, %ymm0 # ymm0 = (ymm0 * mem) + ymm1 vmovaps %ymm0, 0x3e0(%rsp) vmovsd 0x3e0(%rsp,%rcx,4), %xmm2 movl %r9d, %eax testb %dl, %dl je 0x1d0a84e jmp 0x1d08484 vcmpleps 0x2165a2(%rip), %ymm4, %k2 # 0x1f20f00 vbroadcastss 0x1e221d(%rip), %ymm4 # 0x1eecb84 vbroadcastss 0x1e10af(%rip), %ymm16 # 0x1eeba20 vblendmps %ymm4, %ymm16, %ymm3 {%k2} vmovaps %ymm3, %ymm30 {%k1} vblendmps %ymm16, %ymm4, %ymm3 {%k2} kmovd %k2, %ecx vmovaps %ymm3, %ymm31 {%k1} knotb %k1, %k0 kmovd %k0, %edx orb %cl, %dl andb %al, %dl movl %edx, %eax jmp 0x1d08a71 movq 0x18(%rsp), %rax vmovaps 0x5c0(%rsp), %ymm0 vcmpleps 0x80(%r12,%rax,4){1to8}, %ymm0, %k0 kmovb %k0, %eax andl %eax, %r10d jne 0x1d080f7 leaq -0x28(%rbp), %rsp popq %rbx popq %r12 popq %r13 popq %r14 popq %r15 popq %rbp vzeroupper retq
/embree[P]embree/kernels/geometry/curveNi_intersector.h
bool embree::avx512::CurveNiIntersectorK<8, 4>::occluded_t<embree::avx512::SweepCurve1IntersectorK<embree::BSplineCurveT, 4>, embree::avx512::Occluded1KEpilog1<4, true>>(embree::avx512::CurvePrecalculationsK<4>&, embree::RayK<4>&, unsigned long, embree::RayQueryContext*, embree::CurveNi<8> const&)
static __forceinline bool occluded_t(Precalculations& pre, RayK<K>& ray, const size_t k, RayQueryContext* context, const Primitive& prim) { vfloat<M> tNear; vbool<M> valid = intersect(ray,k,prim,tNear); const size_t N = prim.N; size_t mask = movemask(valid); while (mask) { const size_t i = bscf(mask); STAT3(shadow.trav_prims,1,1,1); const unsigned int geomID = prim.geomID(N); const unsigned int primID = prim.primID(N)[i]; const CurveGeometry* geom = context->scene->get<CurveGeometry>(geomID); Vec3ff a0,a1,a2,a3; geom->gather(a0,a1,a2,a3,geom->curve(primID)); size_t mask1 = mask; const size_t i1 = bscf(mask1); if (mask) { const unsigned int primID1 = prim.primID(N)[i1]; geom->prefetchL1_vertices(geom->curve(primID1)); if (mask1) { const size_t i2 = bsf(mask1); const unsigned int primID2 = prim.primID(N)[i2]; geom->prefetchL2_vertices(geom->curve(primID2)); } } if (Intersector().intersect(pre,ray,k,context,geom,primID,a0,a1,a2,a3,Epilog(ray,k,context,geomID,primID))) return true; mask &= movemask(tNear <= vfloat<M>(ray.tfar[k])); } return false; }
pushq %rbp movq %rsp, %rbp pushq %r15 pushq %r14 pushq %r13 pushq %r12 pushq %rbx andq $-0x20, %rsp subq $0x980, %rsp # imm = 0x980 movzbl 0x1(%r8), %eax leaq (%rax,%rax,4), %r9 leaq (%r9,%r9,4), %rdi vbroadcastss 0x12(%r8,%rdi), %xmm0 vmovss (%rsi,%rdx,4), %xmm1 vmovss 0x40(%rsi,%rdx,4), %xmm2 vinsertps $0x10, 0x10(%rsi,%rdx,4), %xmm1, %xmm1 # xmm1 = xmm1[0],mem[0],xmm1[2,3] vinsertps $0x20, 0x20(%rsi,%rdx,4), %xmm1, %xmm1 # xmm1 = xmm1[0,1],mem[0],xmm1[3] vinsertps $0x10, 0x50(%rsi,%rdx,4), %xmm2, %xmm2 # xmm2 = xmm2[0],mem[0],xmm2[2,3] movq %rcx, %r14 vinsertps $0x20, 0x60(%rsi,%rdx,4), %xmm2, %xmm2 # xmm2 = xmm2[0,1],mem[0],xmm2[3] vsubps 0x6(%r8,%rdi), %xmm1, %xmm1 vmulps %xmm1, %xmm0, %xmm3 vmulps %xmm2, %xmm0, %xmm0 vpmovsxbd 0x6(%r8,%rax,4), %ymm1 vcvtdq2ps %ymm1, %ymm5 vpmovsxbd 0x6(%r8,%r9), %ymm1 vcvtdq2ps %ymm1, %ymm6 leaq (%rax,%rax,2), %rcx vpmovsxbd 0x6(%r8,%rcx,2), %ymm1 vcvtdq2ps %ymm1, %ymm2 leaq (%rax,%r9,2), %rdi vpmovsxbd 0x6(%r8,%rdi), %ymm1 vcvtdq2ps %ymm1, %ymm7 leal (,%rcx,4), %edi vpmovsxbd 0x6(%r8,%rdi), %ymm1 vcvtdq2ps %ymm1, %ymm8 addq %rax, %rdi vpmovsxbd 0x6(%r8,%rdi), %ymm1 vcvtdq2ps %ymm1, %ymm9 leaq (%rax,%rax,8), %r10 leal (%r10,%r10), %edi vpmovsxbd 0x6(%r8,%rdi), %ymm1 addq %rax, %rdi vpmovsxbd 0x6(%r8,%rdi), %ymm4 vcvtdq2ps %ymm1, %ymm10 vcvtdq2ps %ymm4, %ymm11 shll $0x2, %r9d vpmovsxbd 0x6(%r8,%r9), %ymm1 vcvtdq2ps %ymm1, %ymm12 vbroadcastss %xmm0, %ymm13 vbroadcastss 0x207c33(%rip), %ymm15 # 0x1f12704 vpermps %ymm0, %ymm15, %ymm14 vbroadcastss 0x2163fc(%rip), %ymm16 # 0x1f20edc vpermps %ymm0, %ymm16, %ymm0 vmulps %ymm2, %ymm0, %ymm4 vmulps %ymm0, %ymm9, %ymm1 vmulps %ymm0, %ymm12, %ymm0 vfmadd231ps %ymm6, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm6) + ymm4 vfmadd231ps %ymm8, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm8) + ymm1 vfmadd231ps %ymm14, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm14) + ymm0 vfmadd231ps %ymm5, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm5) + ymm4 vfmadd231ps %ymm7, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm7) + ymm1 vfmadd231ps %ymm13, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm13) + ymm0 vbroadcastss %xmm3, %ymm13 vpermps %ymm3, %ymm15, %ymm14 vpermps %ymm3, %ymm16, %ymm15 vmulps %ymm2, %ymm15, %ymm16 vmulps %ymm9, %ymm15, %ymm3 vmulps %ymm12, %ymm15, %ymm2 vfmadd231ps %ymm6, %ymm14, %ymm16 # ymm16 = (ymm14 * ymm6) + ymm16 vfmadd231ps %ymm8, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm8) + ymm3 vfmadd231ps %ymm11, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm11) + ymm2 vfmadd231ps %ymm5, %ymm13, %ymm16 # ymm16 = (ymm13 * ymm5) + ymm16 vfmadd231ps %ymm7, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm7) + ymm3 vfmadd231ps %ymm10, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm10) + ymm2 vbroadcastss 0x21636a(%rip), %ymm28 # 0x1f20ec4 vandps %ymm28, %ymm4, %ymm5 vbroadcastss 0x1e647f(%rip), %ymm6 # 0x1ef0fe8 vcmpltps %ymm6, %ymm5, %k1 vmovaps %ymm6, %ymm4 {%k1} vandps %ymm28, %ymm1, %ymm5 vcmpltps %ymm6, %ymm5, %k1 vmovaps %ymm6, %ymm1 {%k1} vandps %ymm28, %ymm0, %ymm5 vcmpltps %ymm6, %ymm5, %k1 vmovaps %ymm6, %ymm0 {%k1} vrcp14ps %ymm4, %ymm5 vbroadcastss 0x1e1b69(%rip), %ymm6 # 0x1eec714 vfnmadd213ps %ymm6, %ymm5, %ymm4 # ymm4 = -(ymm5 * ymm4) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm4 # ymm4 = (ymm4 * ymm5) + ymm5 vrcp14ps %ymm1, %ymm5 vfnmadd213ps %ymm6, %ymm5, %ymm1 # ymm1 = -(ymm5 * ymm1) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm1 # ymm1 = (ymm1 * ymm5) + ymm5 vrcp14ps %ymm0, %ymm5 vfnmadd213ps %ymm6, %ymm5, %ymm0 # ymm0 = -(ymm5 * ymm0) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm0 # ymm0 = (ymm0 * ymm5) + ymm5 leaq (,%rax,8), %rdi subq %rax, %rdi vpmovsxwd 0x6(%r8,%rdi), %ymm5 vcvtdq2ps %ymm5, %ymm5 vsubps %ymm16, %ymm5, %ymm5 vpmovsxwd 0x6(%r8,%r10), %ymm6 vmulps %ymm5, %ymm4, %ymm5 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm16, %ymm6, %ymm6 vmulps %ymm6, %ymm4, %ymm4 leaq (%rax,%rax), %r10 addq %rax, %r9 shlq $0x3, %rcx subq %rax, %rcx movl %eax, %edi shll $0x4, %edi vpmovsxwd 0x6(%r8,%rdi), %ymm6 subq %r10, %rdi vpmovsxwd 0x6(%r8,%rdi), %ymm7 vcvtdq2ps %ymm7, %ymm7 vsubps %ymm3, %ymm7, %ymm7 vmulps %ymm7, %ymm1, %ymm7 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm3, %ymm6, %ymm3 vmulps %ymm3, %ymm1, %ymm1 vpmovsxwd 0x6(%r8,%r9), %ymm3 vcvtdq2ps %ymm3, %ymm3 vsubps %ymm2, %ymm3, %ymm3 vmulps %ymm0, %ymm3, %ymm3 vpmovsxwd 0x6(%r8,%rcx), %ymm6 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm2, %ymm6, %ymm2 vmulps %ymm2, %ymm0, %ymm0 vpminsd %ymm4, %ymm5, %ymm2 vpminsd %ymm1, %ymm7, %ymm6 vmaxps %ymm6, %ymm2, %ymm2 vpminsd %ymm0, %ymm3, %ymm6 vmaxps 0x30(%rsi,%rdx,4){1to8}, %ymm6, %ymm6 vmaxps %ymm6, %ymm2, %ymm2 vmulps 0x21527b(%rip){1to8}, %ymm2, %ymm6 # 0x1f1ff10 vpmaxsd %ymm4, %ymm5, %ymm2 vpmaxsd %ymm1, %ymm7, %ymm1 vminps %ymm1, %ymm2, %ymm1 vpmaxsd %ymm0, %ymm3, %ymm0 movq %rsi, 0x20(%rsp) vminps 0x80(%rsi,%rdx,4){1to8}, %ymm0, %ymm0 vminps %ymm0, %ymm1, %ymm0 vmulps 0x215251(%rip){1to8}, %ymm0, %ymm0 # 0x1f1ff14 vpbroadcastd %eax, %ymm1 vpcmpgtd 0x24fc4d(%rip), %ymm1, %k0 # 0x1f5a920 vmovaps %ymm6, 0x5a0(%rsp) vcmpleps %ymm0, %ymm6, %k1 ktestb %k0, %k1 setne %r15b je 0x1d0d429 kandb %k0, %k1, %k0 kmovd %k0, %eax movzbl %al, %r12d movl $0x1, %eax shlxl %edx, %eax, %eax kmovd %eax, %k0 vpmovm2d %k0, %xmm0 vmovdqa %xmm0, 0x330(%rsp) movq %rdx, 0x30(%rsp) movq %r8, 0x160(%rsp) movq %r14, 0x38(%rsp) tzcntq %r12, %rax movl 0x2(%r8), %esi movl 0x6(%r8,%rax,4), %eax movq (%r14), %rcx movq 0x1e8(%rcx), %rcx movq %rsi, 0xf8(%rsp) movq (%rcx,%rsi,8), %rdi movq 0x58(%rdi), %rcx movq 0x68(%rdi), %r11 movq %r11, %rsi imulq %rax, %rsi movl (%rcx,%rsi), %r10d movq 0xa0(%rdi), %rsi movq %rsi, %r9 imulq %r10, %r9 movq 0x90(%rdi), %rdi vmovaps (%rdi,%r9), %xmm1 leaq 0x1(%r10), %r9 imulq %rsi, %r9 vmovaps (%rdi,%r9), %xmm0 leaq 0x2(%r10), %r9 imulq %rsi, %r9 vmovaps (%rdi,%r9), %xmm2 blsrq %r12, %r12 addq $0x3, %r10 imulq %rsi, %r10 vmovaps (%rdi,%r10), %xmm3 movq %r12, %r10 subq $0x1, %r10 jb 0x1d0adfe andq %r12, %r10 tzcntq %r12, %r9 movl 0x6(%r8,%r9,4), %r9d imulq %r11, %r9 movl (%rcx,%r9), %r9d imulq %rsi, %r9 prefetcht0 (%rdi,%r9) prefetcht0 0x40(%rdi,%r9) testq %r10, %r10 je 0x1d0adfe tzcntq %r10, %r9 movl 0x6(%r8,%r9,4), %r9d imulq %r9, %r11 movl (%rcx,%r11), %ecx imulq %rcx, %rsi prefetcht1 (%rdi,%rsi) prefetcht1 0x40(%rdi,%rsi) movq 0x20(%rsp), %rcx vmovss (%rcx,%rdx,4), %xmm4 vinsertps $0x1c, 0x10(%rcx,%rdx,4), %xmm4, %xmm4 # xmm4 = xmm4[0],mem[0],zero,zero vinsertps $0x28, 0x20(%rcx,%rdx,4), %xmm4, %xmm4 # xmm4 = xmm4[0,1],mem[0],zero vbroadcastss 0x40(%rcx,%rdx,4), %ymm12 vbroadcastss 0x50(%rcx,%rdx,4), %ymm13 vunpcklps %xmm13, %xmm12, %xmm5 # xmm5 = xmm12[0],xmm13[0],xmm12[1],xmm13[1] vbroadcastss 0x60(%rcx,%rdx,4), %ymm14 vinsertps $0x28, %xmm14, %xmm5, %xmm9 # xmm9 = xmm5[0,1],xmm14[0],zero vaddps %xmm0, %xmm1, %xmm5 vaddps %xmm2, %xmm5, %xmm5 vaddps %xmm3, %xmm5, %xmm5 vmulps 0x2124ae(%rip){1to4}, %xmm5, %xmm5 # 0x1f1d2fc vsubps %xmm4, %xmm5, %xmm5 vdpps $0x7f, %xmm9, %xmm5, %xmm5 vmovss 0x30(%rcx,%rdx,4), %xmm10 vdpps $0x7f, %xmm9, %xmm9, %xmm11 vxorps %xmm8, %xmm8, %xmm8 vmovss %xmm11, %xmm8, %xmm6 vrcp14ss %xmm6, %xmm8, %xmm6 vmovaps %xmm6, %xmm7 vfnmadd213ss 0x1e6178(%rip), %xmm11, %xmm7 # xmm7 = -(xmm11 * xmm7) + mem vmulss %xmm7, %xmm6, %xmm6 vmulss %xmm6, %xmm5, %xmm5 vbroadcastss %xmm5, %ymm6 vmovaps %xmm9, 0x1f0(%rsp) vmovaps %ymm6, 0x400(%rsp) vfmadd231ps %xmm6, %xmm9, %xmm4 # xmm4 = (xmm9 * xmm6) + xmm4 vblendps $0x8, %xmm8, %xmm4, %xmm4 # xmm4 = xmm4[0,1,2],xmm8[3] vsubps %xmm4, %xmm1, %xmm6 vsubps %xmm4, %xmm2, %xmm7 vsubps %xmm4, %xmm0, %xmm8 vsubps %xmm4, %xmm3, %xmm3 vbroadcastss %xmm6, %ymm16 vbroadcastss 0x20783b(%rip), %ymm0 # 0x1f12704 vpermps %ymm6, %ymm0, %ymm17 vbroadcastss 0x216004(%rip), %ymm1 # 0x1f20edc vpermps %ymm6, %ymm1, %ymm18 vbroadcastss 0x215ff1(%rip), %ymm2 # 0x1f20ed8 vmovaps %ymm6, 0x260(%rsp) vpermps %ymm6, %ymm2, %ymm19 vbroadcastss %xmm8, %ymm20 vpermps %ymm8, %ymm0, %ymm22 vpermps %ymm8, %ymm1, %ymm23 vmovaps %ymm8, 0x220(%rsp) vpermps %ymm8, %ymm2, %ymm24 vbroadcastss %xmm7, %ymm25 vpermps %ymm7, %ymm0, %ymm27 vpermps %ymm7, %ymm1, %ymm29 vmovaps %ymm7, 0x240(%rsp) vpermps %ymm7, %ymm2, %ymm31 vbroadcastss %xmm3, %ymm21 vpermps %ymm3, %ymm0, %ymm0 vmovaps %ymm0, 0x7e0(%rsp) vpermps %ymm3, %ymm1, %ymm30 vmovaps %ymm3, 0x200(%rsp) vpermps %ymm3, %ymm2, %ymm6 vmovaps %ymm14, 0x4e0(%rsp) vmulss %xmm14, %xmm14, %xmm0 vmovaps %ymm13, 0x500(%rsp) vfmadd231ps %ymm13, %ymm13, %ymm0 # ymm0 = (ymm13 * ymm13) + ymm0 vmovaps %ymm12, 0x520(%rsp) vfmadd231ps %ymm12, %ymm12, %ymm0 # ymm0 = (ymm12 * ymm12) + ymm0 vbroadcastss %xmm0, %ymm1 vandps %ymm28, %ymm1, %ymm0 vmovaps %ymm0, 0x4c0(%rsp) vmovss %xmm10, 0x5c(%rsp) vmovaps %xmm5, 0x290(%rsp) vsubss %xmm5, %xmm10, %xmm0 vbroadcastss %xmm0, %ymm0 vmovaps %ymm0, 0x7a0(%rsp) vpbroadcastd %eax, %xmm0 vmovdqa %xmm0, 0x350(%rsp) movl $0x1, %eax movq %rax, 0x100(%rsp) xorl %ebx, %ebx xorl %r13d, %r13d movq 0xf8(%rsp), %rax vpbroadcastd %eax, %xmm0 vmovdqa %xmm0, 0x340(%rsp) vsqrtss %xmm11, %xmm11, %xmm0 vmovss %xmm0, 0x11c(%rsp) vmovaps %xmm11, 0x1e0(%rsp) vsqrtss %xmm11, %xmm11, %xmm0 vmovss %xmm0, 0x118(%rsp) vmovsd 0x1e16cc(%rip), %xmm2 # 0x1eec6f0 vbroadcastss 0x1e16e7(%rip), %ymm3 # 0x1eec714 vmovaps %ymm1, 0x7c0(%rsp) vmovaps %ymm16, 0x780(%rsp) vmovaps %ymm17, 0x760(%rsp) vmovaps %ymm18, 0x740(%rsp) vmovaps %ymm19, 0x720(%rsp) vmovaps %ymm20, 0x700(%rsp) vmovaps %ymm22, 0x6e0(%rsp) vmovaps %ymm23, 0x6c0(%rsp) vmovaps %ymm24, 0x6a0(%rsp) vmovaps %ymm25, 0x680(%rsp) vmovaps %ymm27, 0x660(%rsp) vmovaps %ymm29, 0x640(%rsp) vmovaps %ymm31, 0x620(%rsp) vmovaps %ymm21, 0x600(%rsp) vmovaps %ymm30, 0x5e0(%rsp) vmovaps %ymm6, 0x5c0(%rsp) vmovshdup %xmm2, %xmm0 # xmm0 = xmm2[1,1,3,3] vsubss %xmm2, %xmm0, %xmm0 vmulss 0x215e11(%rip), %xmm0, %xmm1 # 0x1f20ed0 vmovaps %xmm1, 0x80(%rsp) vmovaps %xmm2, 0x150(%rsp) vbroadcastss %xmm2, %ymm4 vbroadcastss %xmm0, %ymm0 vmovaps %ymm4, 0x60(%rsp) vmovaps %ymm0, 0x1c0(%rsp) vfmadd231ps 0x215e2d(%rip), %ymm0, %ymm4 # ymm4 = (ymm0 * mem) + ymm4 vsubps %ymm4, %ymm3, %ymm7 vmulps %ymm7, %ymm7, %ymm8 vmulps %ymm7, %ymm8, %ymm0 vbroadcastss 0x1e1a83(%rip), %ymm28 # 0x1eecb8c vmulps %ymm28, %ymm0, %ymm1 vmulps %ymm4, %ymm4, %ymm9 vmulps %ymm4, %ymm9, %ymm2 vaddps %ymm1, %ymm2, %ymm1 vmulps %ymm7, %ymm4, %ymm10 vmulps %ymm7, %ymm10, %ymm5 vbroadcastss 0x1e5ed0(%rip), %ymm14 # 0x1ef0ffc vmulps %ymm5, %ymm14, %ymm11 vmulps %ymm4, %ymm10, %ymm12 vbroadcastss 0x1e5eb7(%rip), %ymm15 # 0x1ef0ff4 vmulps %ymm15, %ymm12, %ymm13 vaddps %ymm13, %ymm11, %ymm11 vaddps %ymm1, %ymm11, %ymm1 vmulps %ymm28, %ymm2, %ymm11 vaddps %ymm0, %ymm11, %ymm11 vmulps %ymm14, %ymm12, %ymm12 vmulps %ymm5, %ymm15, %ymm5 vaddps %ymm5, %ymm12, %ymm5 vaddps %ymm5, %ymm11, %ymm5 vbroadcastss 0x1e5e91(%rip), %ymm14 # 0x1ef1000 vmulps %ymm0, %ymm14, %ymm11 vmulps %ymm1, %ymm14, %ymm12 vmulps %ymm5, %ymm14, %ymm13 vmulps %ymm2, %ymm14, %ymm5 vmulps %ymm5, %ymm21, %ymm2 vmovaps 0x7e0(%rsp), %ymm0 vmulps %ymm5, %ymm0, %ymm1 vmulps %ymm5, %ymm30, %ymm3 vmulps %ymm5, %ymm6, %ymm5 vfmadd231ps %ymm25, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm25) + ymm2 vfmadd231ps %ymm27, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm27) + ymm1 vfmadd231ps %ymm29, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm29) + ymm3 vfmadd231ps %ymm13, %ymm31, %ymm5 # ymm5 = (ymm31 * ymm13) + ymm5 vfmadd231ps %ymm20, %ymm12, %ymm2 # ymm2 = (ymm12 * ymm20) + ymm2 vfmadd231ps %ymm22, %ymm12, %ymm1 # ymm1 = (ymm12 * ymm22) + ymm1 vfmadd231ps %ymm23, %ymm12, %ymm3 # ymm3 = (ymm12 * ymm23) + ymm3 vfmadd231ps %ymm12, %ymm24, %ymm5 # ymm5 = (ymm24 * ymm12) + ymm5 vfmadd231ps %ymm16, %ymm11, %ymm2 # ymm2 = (ymm11 * ymm16) + ymm2 vfmadd231ps %ymm17, %ymm11, %ymm1 # ymm1 = (ymm11 * ymm17) + ymm1 vfmadd231ps %ymm18, %ymm11, %ymm3 # ymm3 = (ymm11 * ymm18) + ymm3 vfmadd231ps %ymm11, %ymm19, %ymm5 # ymm5 = (ymm19 * ymm11) + ymm5 vbroadcastss 0x215cd2(%rip), %ymm26 # 0x1f20ec0 vxorps %ymm26, %ymm7, %ymm11 vmulps %ymm7, %ymm11, %ymm7 vxorps %ymm26, %ymm4, %ymm11 vmulps %ymm4, %ymm11, %ymm4 vmulps %ymm28, %ymm10, %ymm10 vsubps %ymm10, %ymm4, %ymm4 vaddps %ymm10, %ymm8, %ymm8 vbroadcastss 0x1e1965(%rip), %ymm10 # 0x1eecb80 vmulps %ymm7, %ymm10, %ymm7 vmulps %ymm4, %ymm10, %ymm4 vmulps %ymm10, %ymm8, %ymm8 vmulps %ymm10, %ymm9, %ymm9 vmulps %ymm9, %ymm21, %ymm10 vmulps %ymm0, %ymm9, %ymm12 vmulps %ymm9, %ymm30, %ymm13 vmulps %ymm6, %ymm9, %ymm9 vfmadd231ps %ymm25, %ymm8, %ymm10 # ymm10 = (ymm8 * ymm25) + ymm10 vfmadd231ps %ymm27, %ymm8, %ymm12 # ymm12 = (ymm8 * ymm27) + ymm12 vfmadd231ps %ymm29, %ymm8, %ymm13 # ymm13 = (ymm8 * ymm29) + ymm13 vfmadd231ps %ymm8, %ymm31, %ymm9 # ymm9 = (ymm31 * ymm8) + ymm9 vfmadd231ps %ymm20, %ymm4, %ymm10 # ymm10 = (ymm4 * ymm20) + ymm10 vfmadd231ps %ymm22, %ymm4, %ymm12 # ymm12 = (ymm4 * ymm22) + ymm12 vfmadd231ps %ymm23, %ymm4, %ymm13 # ymm13 = (ymm4 * ymm23) + ymm13 vfmadd231ps %ymm4, %ymm24, %ymm9 # ymm9 = (ymm24 * ymm4) + ymm9 vfmadd231ps %ymm16, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm16) + ymm10 vfmadd231ps %ymm17, %ymm7, %ymm12 # ymm12 = (ymm7 * ymm17) + ymm12 vfmadd231ps %ymm18, %ymm7, %ymm13 # ymm13 = (ymm7 * ymm18) + ymm13 vfmadd231ps %ymm7, %ymm19, %ymm9 # ymm9 = (ymm19 * ymm7) + ymm9 vbroadcastss 0x80(%rsp), %ymm4 vmulps %ymm4, %ymm10, %ymm11 vmulps %ymm4, %ymm12, %ymm12 vmulps %ymm4, %ymm13, %ymm13 vmulps %ymm4, %ymm9, %ymm6 vmovaps %ymm2, %ymm8 vmovaps 0x254a71(%rip), %ymm7 # 0x1f5fd20 vxorps %xmm31, %xmm31, %xmm31 vpermt2ps %ymm31, %ymm7, %ymm8 vmovaps %ymm1, %ymm9 vpermt2ps %ymm31, %ymm7, %ymm9 vmovaps %ymm3, %ymm10 vpermt2ps %ymm31, %ymm7, %ymm10 vaddps %ymm5, %ymm6, %ymm4 vmaxps %ymm4, %ymm5, %ymm14 vminps %ymm4, %ymm5, %ymm4 vmovaps %ymm5, %ymm15 vpermt2ps %ymm31, %ymm7, %ymm15 vmovaps %ymm11, %ymm19 vpermt2ps %ymm31, %ymm7, %ymm19 vmovaps %ymm12, %ymm20 vpermt2ps %ymm31, %ymm7, %ymm20 vmovaps %ymm13, %ymm0 vpermt2ps %ymm31, %ymm7, %ymm0 vpermt2ps %ymm31, %ymm7, %ymm6 vsubps %ymm6, %ymm15, %ymm16 vsubps %ymm2, %ymm8, %ymm7 vsubps %ymm1, %ymm9, %ymm6 vsubps %ymm3, %ymm10, %ymm5 vmulps %ymm13, %ymm6, %ymm17 vfmsub231ps %ymm5, %ymm12, %ymm17 # ymm17 = (ymm12 * ymm5) - ymm17 vmulps %ymm11, %ymm5, %ymm18 vfmsub231ps %ymm7, %ymm13, %ymm18 # ymm18 = (ymm13 * ymm7) - ymm18 vmulps %ymm12, %ymm7, %ymm22 vfmsub231ps %ymm6, %ymm11, %ymm22 # ymm22 = (ymm11 * ymm6) - ymm22 vmulps %ymm22, %ymm22, %ymm22 vfmadd231ps %ymm18, %ymm18, %ymm22 # ymm22 = (ymm18 * ymm18) + ymm22 vfmadd231ps %ymm17, %ymm17, %ymm22 # ymm22 = (ymm17 * ymm17) + ymm22 vmulps %ymm5, %ymm5, %ymm17 vfmadd231ps %ymm6, %ymm6, %ymm17 # ymm17 = (ymm6 * ymm6) + ymm17 vfmadd231ps %ymm7, %ymm7, %ymm17 # ymm17 = (ymm7 * ymm7) + ymm17 vrcp14ps %ymm17, %ymm18 vmovaps %ymm18, %ymm23 vbroadcastss 0x1e1397(%rip), %ymm21 # 0x1eec714 vmovaps %ymm21, %ymm26 vfnmadd213ps %ymm21, %ymm17, %ymm23 # ymm23 = -(ymm17 * ymm23) + ymm21 vfmadd132ps %ymm18, %ymm18, %ymm23 # ymm23 = (ymm23 * ymm18) + ymm18 vmulps %ymm23, %ymm22, %ymm18 vmulps %ymm0, %ymm6, %ymm22 vfmsub231ps %ymm5, %ymm20, %ymm22 # ymm22 = (ymm20 * ymm5) - ymm22 vmulps %ymm19, %ymm5, %ymm24 vfmsub231ps %ymm7, %ymm0, %ymm24 # ymm24 = (ymm0 * ymm7) - ymm24 vmulps %ymm20, %ymm7, %ymm25 vfmsub231ps %ymm6, %ymm19, %ymm25 # ymm25 = (ymm19 * ymm6) - ymm25 vmulps %ymm25, %ymm25, %ymm25 vfmadd231ps %ymm24, %ymm24, %ymm25 # ymm25 = (ymm24 * ymm24) + ymm25 vfmadd231ps %ymm22, %ymm22, %ymm25 # ymm25 = (ymm22 * ymm22) + ymm25 vmulps %ymm23, %ymm25, %ymm22 vmaxps %ymm22, %ymm18, %ymm18 vsqrtps %ymm18, %ymm18 vmaxps %ymm15, %ymm16, %ymm22 vmaxps %ymm22, %ymm14, %ymm14 vaddps %ymm14, %ymm18, %ymm14 vminps %ymm15, %ymm16, %ymm15 vminps %ymm15, %ymm4, %ymm4 vsubps %ymm18, %ymm4, %ymm4 vmulps 0x1e5536(%rip){1to8}, %ymm14, %ymm14 # 0x1ef0940 vmulps 0x1e5530(%rip){1to8}, %ymm4, %ymm4 # 0x1ef0944 vmovaps %ymm4, 0x80(%rsp) vmulps %ymm14, %ymm14, %ymm4 vrsqrt14ps %ymm17, %ymm15 vmulps 0x1e12ea(%rip){1to8}, %ymm17, %ymm14 # 0x1eec71c vmulps %ymm14, %ymm15, %ymm14 vmulps %ymm15, %ymm15, %ymm16 vmulps %ymm14, %ymm16, %ymm14 vfmadd231ps 0x1e12cb(%rip){1to8}, %ymm15, %ymm14 # ymm14 = (ymm15 * mem) + ymm14 vmulps %ymm7, %ymm14, %ymm15 vmulps %ymm14, %ymm6, %ymm16 vmulps %ymm14, %ymm5, %ymm18 vsubps %ymm2, %ymm31, %ymm27 vsubps %ymm1, %ymm31, %ymm28 vmovaps %ymm3, 0xa0(%rsp) vsubps %ymm3, %ymm31, %ymm29 vmovaps 0x4e0(%rsp), %ymm17 vmulps %ymm29, %ymm17, %ymm22 vmovaps 0x500(%rsp), %ymm21 vfmadd231ps %ymm28, %ymm21, %ymm22 # ymm22 = (ymm21 * ymm28) + ymm22 vmovaps 0x520(%rsp), %ymm3 vfmadd231ps %ymm27, %ymm3, %ymm22 # ymm22 = (ymm3 * ymm27) + ymm22 vmulps %ymm29, %ymm29, %ymm24 vfmadd231ps %ymm28, %ymm28, %ymm24 # ymm24 = (ymm28 * ymm28) + ymm24 vfmadd231ps %ymm27, %ymm27, %ymm24 # ymm24 = (ymm27 * ymm27) + ymm24 vmulps %ymm18, %ymm17, %ymm17 vfmadd231ps %ymm21, %ymm16, %ymm17 # ymm17 = (ymm16 * ymm21) + ymm17 vfmadd231ps %ymm3, %ymm15, %ymm17 # ymm17 = (ymm15 * ymm3) + ymm17 vmulps %ymm18, %ymm29, %ymm18 vfmadd231ps %ymm16, %ymm28, %ymm18 # ymm18 = (ymm28 * ymm16) + ymm18 vfmadd231ps %ymm15, %ymm27, %ymm18 # ymm18 = (ymm27 * ymm15) + ymm18 vmulps %ymm17, %ymm17, %ymm21 vmovaps 0x7c0(%rsp), %ymm16 vsubps %ymm21, %ymm16, %ymm15 vmulps %ymm18, %ymm17, %ymm25 vsubps %ymm25, %ymm22, %ymm22 vaddps %ymm22, %ymm22, %ymm22 vmulps %ymm18, %ymm18, %ymm25 vsubps %ymm25, %ymm24, %ymm3 vmovaps %ymm3, 0x1a0(%rsp) vsubps %ymm4, %ymm3, %ymm4 vmulps %ymm22, %ymm22, %ymm25 vmulps 0x1e1664(%rip){1to8}, %ymm15, %ymm24 # 0x1eecb8c vmulps %ymm4, %ymm24, %ymm30 vsubps %ymm30, %ymm25, %ymm30 vcmpnltps %ymm31, %ymm30, %k1 kmovd %k1, %eax kortestb %k1, %k1 je 0x1d0b626 vsqrtps %ymm30, %ymm30 vaddps %ymm15, %ymm15, %ymm31 vrcp14ps %ymm31, %ymm3 vfnmadd213ps %ymm26, %ymm3, %ymm31 # ymm31 = -(ymm3 * ymm31) + ymm26 vfmadd132ps %ymm3, %ymm3, %ymm31 # ymm31 = (ymm31 * ymm3) + ymm3 vxorps 0x21594f(%rip){1to8}, %ymm22, %ymm3 # 0x1f20ec0 vsubps %ymm30, %ymm3, %ymm3 vmulps %ymm31, %ymm3, %ymm3 vsubps %ymm22, %ymm30, %ymm30 vmulps %ymm31, %ymm30, %ymm31 vmovaps %ymm17, %ymm30 vfmadd213ps %ymm18, %ymm3, %ymm30 # ymm30 = (ymm3 * ymm30) + ymm18 vmulps %ymm30, %ymm14, %ymm30 vmovaps %ymm30, 0x480(%rsp) vmovaps %ymm17, %ymm30 vfmadd213ps %ymm18, %ymm31, %ymm30 # ymm30 = (ymm31 * ymm30) + ymm18 vmulps %ymm30, %ymm14, %ymm30 vmovaps %ymm30, 0x460(%rsp) vbroadcastss 0x1e0459(%rip), %ymm16 # 0x1eeba20 vblendmps %ymm3, %ymm16, %ymm30 {%k1} vbroadcastss 0x1e15ae(%rip), %ymm3 # 0x1eecb84 vblendmps %ymm31, %ymm3, %ymm31 {%k1} vbroadcastss 0x2158de(%rip), %ymm23 # 0x1f20ec4 vandps %ymm23, %ymm21, %ymm3 vmovaps 0x4c0(%rsp), %ymm16 vmaxps %ymm3, %ymm16, %ymm3 vmulps 0x1e68b0(%rip){1to8}, %ymm3, %ymm3 # 0x1ef1eb4 vandps %ymm23, %ymm15, %ymm23 vcmpltps %ymm3, %ymm23, %k1 {%k1} kortestb %k1, %k1 jne 0x1d0d3ac vbroadcastss 0x1e10f0(%rip), %ymm3 # 0x1eec714 jmp 0x1d0b640 vbroadcastss 0x1e03f0(%rip), %ymm30 # 0x1eeba20 vbroadcastss 0x1e154a(%rip), %ymm31 # 0x1eecb84 vmovaps %ymm26, %ymm3 andb $0x7f, %al je 0x1d0ba28 vmovaps %ymm21, 0x120(%rsp) movq 0x20(%rsp), %rcx vmovaps %ymm3, %ymm16 vmovss 0x80(%rcx,%rdx,4), %xmm3 vsubss 0x290(%rsp), %xmm3, %xmm3 vbroadcastss %xmm3, %ymm3 vminps %ymm31, %ymm3, %ymm3 vmovaps 0x7a0(%rsp), %ymm4 vmaxps %ymm30, %ymm4, %ymm4 vmulps %ymm29, %ymm13, %ymm23 vfmadd213ps %ymm23, %ymm12, %ymm28 # ymm28 = (ymm12 * ymm28) + ymm23 vfmadd213ps %ymm28, %ymm11, %ymm27 # ymm27 = (ymm11 * ymm27) + ymm28 vmovaps 0x4e0(%rsp), %ymm21 vmulps %ymm13, %ymm21, %ymm13 vmovaps 0x500(%rsp), %ymm31 vfmadd231ps %ymm12, %ymm31, %ymm13 # ymm13 = (ymm31 * ymm12) + ymm13 vmovaps 0x520(%rsp), %ymm30 vfmadd231ps %ymm11, %ymm30, %ymm13 # ymm13 = (ymm30 * ymm11) + ymm13 vbroadcastss 0x2157f7(%rip), %ymm28 # 0x1f20ec4 vandps %ymm28, %ymm13, %ymm11 vbroadcastss 0x1e590b(%rip), %ymm29 # 0x1ef0fe8 vcmpltps %ymm29, %ymm11, %k0 vbroadcastss 0x2157d2(%rip), %ymm26 # 0x1f20ec0 vxorps %ymm26, %ymm27, %ymm11 vrcp14ps %ymm13, %ymm12 vxorps %ymm26, %ymm13, %ymm23 vmovaps %ymm12, %ymm27 vfnmadd213ps %ymm16, %ymm13, %ymm27 # ymm27 = -(ymm13 * ymm27) + ymm16 vfmadd132ps %ymm12, %ymm12, %ymm27 # ymm27 = (ymm27 * ymm12) + ymm12 vmulps %ymm11, %ymm27, %ymm11 vcmpltps %ymm23, %ymm13, %k1 korb %k1, %k0, %k1 vbroadcastss 0x1e1457(%rip), %ymm27 # 0x1eecb84 vblendmps %ymm27, %ymm11, %ymm12 {%k1} vmaxps %ymm12, %ymm4, %ymm4 vcmpnleps %ymm23, %ymm13, %k1 korb %k1, %k0, %k1 vbroadcastss 0x1e02d4(%rip), %ymm13 # 0x1eeba20 vmovaps %ymm13, %ymm11 {%k1} vminps %ymm11, %ymm3, %ymm3 vxorps %xmm23, %xmm23, %xmm23 vsubps %ymm8, %ymm23, %ymm8 vsubps %ymm9, %ymm23, %ymm9 vsubps %ymm10, %ymm23, %ymm10 vmulps %ymm0, %ymm10, %ymm10 vfnmsub231ps %ymm9, %ymm20, %ymm10 # ymm10 = -(ymm20 * ymm9) - ymm10 vfnmadd231ps %ymm8, %ymm19, %ymm10 # ymm10 = -(ymm19 * ymm8) + ymm10 vmulps %ymm0, %ymm21, %ymm8 vfnmsub231ps %ymm20, %ymm31, %ymm8 # ymm8 = -(ymm31 * ymm20) - ymm8 vfnmadd231ps %ymm19, %ymm30, %ymm8 # ymm8 = -(ymm30 * ymm19) + ymm8 vandps %ymm28, %ymm8, %ymm9 vcmpltps %ymm29, %ymm9, %k0 vxorps %ymm26, %ymm10, %ymm9 vrcp14ps %ymm8, %ymm10 vxorps %ymm26, %ymm8, %ymm11 vmovaps %ymm10, %ymm12 vfnmadd213ps %ymm16, %ymm8, %ymm12 # ymm12 = -(ymm8 * ymm12) + ymm16 vfmadd132ps %ymm10, %ymm10, %ymm12 # ymm12 = (ymm12 * ymm10) + ymm10 vmulps %ymm9, %ymm12, %ymm9 vcmpltps %ymm11, %ymm8, %k1 korb %k1, %k0, %k1 vblendmps %ymm27, %ymm9, %ymm10 {%k1} vmaxps %ymm10, %ymm4, %ymm0 vcmpnleps %ymm11, %ymm8, %k1 korb %k1, %k0, %k1 vmovaps %ymm13, %ymm9 {%k1} vminps %ymm9, %ymm3, %ymm8 vmovaps %ymm0, 0x300(%rsp) vcmpleps %ymm8, %ymm0, %k0 kmovd %k0, %ecx andb %cl, %al je 0x1d0ba40 vmovaps 0x480(%rsp), %ymm3 vmaxps 0x80(%rsp), %ymm23, %ymm4 vminps %ymm16, %ymm3, %ymm3 vxorps %xmm10, %xmm10, %xmm10 vmaxps %ymm10, %ymm3, %ymm3 vmovaps 0x460(%rsp), %ymm9 vminps %ymm16, %ymm9, %ymm9 vmovaps 0x2156fb(%rip), %ymm11 # 0x1f20f40 vaddps %ymm3, %ymm11, %ymm3 vbroadcastss 0x212c66(%rip), %ymm12 # 0x1f1e4b8 vmulps %ymm3, %ymm12, %ymm3 vmovaps 0x60(%rsp), %ymm0 vmovaps 0x1c0(%rsp), %ymm13 vfmadd213ps %ymm0, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm3) + ymm0 vmovaps %ymm3, 0x480(%rsp) vmaxps %ymm10, %ymm9, %ymm3 vaddps %ymm3, %ymm11, %ymm3 vmulps %ymm3, %ymm12, %ymm3 vfmadd213ps %ymm0, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm3) + ymm0 vmovaps %ymm3, 0x460(%rsp) vmulps %ymm4, %ymm4, %ymm3 vmovaps 0x1a0(%rsp), %ymm0 vsubps %ymm3, %ymm0, %ymm11 vmulps %ymm11, %ymm24, %ymm3 vsubps %ymm3, %ymm25, %ymm3 vcmpnltps %ymm10, %ymm3, %k0 kortestb %k0, %k0 je 0x1d0ba54 vxorps %xmm20, %xmm20, %xmm20 vcmpnltps %ymm23, %ymm3, %k1 vsqrtps %ymm3, %ymm3 vaddps %ymm15, %ymm15, %ymm4 vrcp14ps %ymm4, %ymm9 vfnmadd213ps %ymm16, %ymm9, %ymm4 # ymm4 = -(ymm9 * ymm4) + ymm16 vfmadd132ps %ymm9, %ymm9, %ymm4 # ymm4 = (ymm4 * ymm9) + ymm9 vxorps 0x2155d3(%rip){1to8}, %ymm22, %ymm9 # 0x1f20ec0 vsubps %ymm3, %ymm9, %ymm9 vmulps %ymm4, %ymm9, %ymm12 vsubps %ymm22, %ymm3, %ymm3 vmulps %ymm4, %ymm3, %ymm13 vmovaps %ymm17, %ymm3 vfmadd213ps %ymm18, %ymm12, %ymm3 # ymm3 = (ymm12 * ymm3) + ymm18 vmulps %ymm3, %ymm14, %ymm9 vmulps %ymm12, %ymm30, %ymm3 vmulps %ymm12, %ymm31, %ymm4 vmulps %ymm12, %ymm21, %ymm10 vmovaps %ymm7, %ymm19 vfmadd213ps %ymm2, %ymm9, %ymm19 # ymm19 = (ymm9 * ymm19) + ymm2 vsubps %ymm19, %ymm3, %ymm3 vmovaps %ymm6, %ymm19 vfmadd213ps %ymm1, %ymm9, %ymm19 # ymm19 = (ymm9 * ymm19) + ymm1 vsubps %ymm19, %ymm4, %ymm4 vmovaps 0xa0(%rsp), %ymm0 vfmadd213ps %ymm0, %ymm5, %ymm9 # ymm9 = (ymm5 * ymm9) + ymm0 vsubps %ymm9, %ymm10, %ymm9 vfmadd213ps %ymm18, %ymm13, %ymm17 # ymm17 = (ymm13 * ymm17) + ymm18 vmulps %ymm17, %ymm14, %ymm14 vmulps %ymm13, %ymm30, %ymm10 vmulps %ymm13, %ymm31, %ymm17 vmulps %ymm13, %ymm21, %ymm18 vfmadd213ps %ymm2, %ymm14, %ymm7 # ymm7 = (ymm14 * ymm7) + ymm2 vsubps %ymm7, %ymm10, %ymm10 vfmadd213ps %ymm1, %ymm14, %ymm6 # ymm6 = (ymm14 * ymm6) + ymm1 vsubps %ymm6, %ymm17, %ymm1 vfmadd213ps %ymm0, %ymm14, %ymm5 # ymm5 = (ymm14 * ymm5) + ymm0 vsubps %ymm5, %ymm18, %ymm5 vbroadcastss 0x1e0082(%rip), %ymm0 # 0x1eeba20 vblendmps %ymm12, %ymm0, %ymm2 {%k1} vbroadcastss 0x1e11d7(%rip), %ymm0 # 0x1eecb84 vblendmps %ymm13, %ymm0, %ymm0 {%k1} vandps 0x120(%rsp), %ymm28, %ymm6 vmovaps 0x4c0(%rsp), %ymm7 vmaxps %ymm6, %ymm7, %ymm6 vmulps 0x1e64e2(%rip){1to8}, %ymm6, %ymm6 # 0x1ef1eb4 vandps %ymm28, %ymm15, %ymm7 vcmpltps %ymm6, %ymm7, %k1 {%k1} kortestb %k1, %k1 je 0x1d0ba7b vcmpleps %ymm20, %ymm11, %k2 vbroadcastss 0x1e118b(%rip), %ymm7 # 0x1eecb84 vbroadcastss 0x1e001e(%rip), %ymm11 # 0x1eeba20 vblendmps %ymm7, %ymm11, %ymm6 {%k2} vmovaps %ymm6, %ymm2 {%k1} vblendmps %ymm11, %ymm7, %ymm6 {%k2} vmovaps %ymm6, %ymm0 {%k1} knotb %k1, %k1 korb %k2, %k1, %k1 kandb %k0, %k1, %k0 jmp 0x1d0ba7b vbroadcastss 0x215492(%rip), %ymm28 # 0x1f20ec4 vmovaps 0x150(%rsp), %xmm2 jmp 0x1d0d226 vmovaps %ymm16, %ymm3 vmovaps 0x150(%rsp), %xmm2 jmp 0x1d0d226 vxorps %xmm1, %xmm1, %xmm1 vxorps %xmm5, %xmm5, %xmm5 vxorps %xmm3, %xmm3, %xmm3 vxorps %xmm4, %xmm4, %xmm4 vxorps %xmm9, %xmm9, %xmm9 vbroadcastss 0x1dffae(%rip), %ymm2 # 0x1eeba20 vbroadcastss 0x1e1109(%rip), %ymm0 # 0x1eecb84 vmulps %ymm5, %ymm21, %ymm5 vfmadd231ps %ymm1, %ymm31, %ymm5 # ymm5 = (ymm31 * ymm1) + ymm5 vfmadd231ps %ymm10, %ymm30, %ymm5 # ymm5 = (ymm30 * ymm10) + ymm5 vmovaps 0x300(%rsp), %ymm6 vmovaps %ymm6, 0x800(%rsp) vminps %ymm2, %ymm8, %ymm1 vmovaps %ymm1, 0x820(%rsp) vandps %ymm28, %ymm5, %ymm2 vmaxps %ymm0, %ymm6, %ymm5 vmovaps %ymm5, 0x540(%rsp) vmovaps %ymm8, 0x560(%rsp) vbroadcastss 0x215403(%rip), %ymm0 # 0x1f20ed4 vcmpltps %ymm0, %ymm2, %k1 kmovd %k1, 0x114(%rsp) vcmpleps %ymm1, %ymm6, %k1 kmovd %k1, %ecx andb %al, %cl vmovaps %ymm5, 0x420(%rsp) vcmpleps %ymm8, %ymm5, %k1 kmovd %k1, %esi andb %al, %sil movl %esi, 0x40(%rsp) movl %esi, %eax orb %cl, %al je 0x1d0c61c vmovaps %ymm0, %ymm2 movq %r12, 0x168(%rsp) movb %r15b, 0x1b(%rsp) knotb %k0, %k1 vmulps %ymm9, %ymm21, %ymm0 vfmadd213ps %ymm0, %ymm31, %ymm4 # ymm4 = (ymm31 * ymm4) + ymm0 vfmadd213ps %ymm4, %ymm30, %ymm3 # ymm3 = (ymm30 * ymm3) + ymm4 vandps %ymm28, %ymm3, %ymm0 vcmpltps %ymm2, %ymm0, %k0 kmovd %k1, 0x10c(%rsp) korb %k1, %k0, %k1 vpbroadcastd 0x21537d(%rip), %ymm0 # 0x1f20edc vpblendmd 0x21536f(%rip){1to8}, %ymm0, %ymm0 {%k1} # 0x1f20ed8 movq 0x100(%rsp), %rax vpbroadcastd %eax, %ymm1 vmovdqa %ymm0, 0x580(%rsp) vmovdqa %ymm1, 0x4a0(%rsp) vpcmpnltd %ymm0, %ymm1, %k0 kmovd %k0, %r12d movl %ecx, 0x110(%rsp) andb %cl, %r12b je 0x1d0c633 vmovaps 0x260(%rsp), %ymm1 vmovaps 0x220(%rsp), %ymm2 vminps %xmm2, %xmm1, %xmm0 vmaxps %xmm2, %xmm1, %xmm1 vmovaps 0x240(%rsp), %ymm3 vmovaps 0x200(%rsp), %ymm4 vminps %xmm4, %xmm3, %xmm2 vminps %xmm2, %xmm0, %xmm0 vmaxps %xmm4, %xmm3, %xmm2 vmaxps %xmm2, %xmm1, %xmm1 vbroadcastss 0x2152db(%rip), %xmm2 # 0x1f20ec4 vandps %xmm2, %xmm0, %xmm0 vandps %xmm2, %xmm1, %xmm2 vmaxps %xmm2, %xmm0, %xmm0 vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3] vmaxss %xmm0, %xmm2, %xmm2 vshufpd $0x1, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[1,0] vmaxss %xmm2, %xmm0, %xmm0 vmulss 0x1e62a6(%rip), %xmm0, %xmm0 # 0x1ef1eb4 vmovss %xmm0, 0x50(%rsp) vshufps $0xff, %xmm1, %xmm1, %xmm0 # xmm0 = xmm1[3,3,3,3] vmovaps %xmm0, 0x280(%rsp) vmovaps 0x300(%rsp), %ymm0 vaddps 0x400(%rsp), %ymm0, %ymm0 vmovaps %ymm0, 0x440(%rsp) kmovd %r12d, %k1 vbroadcastss 0x1dfdd5(%rip), %ymm0 # 0x1eeba20 vblendmps 0x300(%rsp), %ymm0, %ymm0 {%k1} vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm0, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1] vminps %ymm2, %ymm1, %ymm1 vcmpeqps %ymm1, %ymm0, %k0 kmovd %k0, %eax andb %r12b, %al movzbl %al, %eax movzbl %r12b, %ecx cmovnel %eax, %ecx tzcntl %ecx, %ecx movb $0x1, %r14b shlb %cl, %r14b shll $0x2, %ecx vmovss 0x480(%rsp,%rcx), %xmm10 vmovss 0x800(%rsp,%rcx), %xmm8 vmovaps 0x1e0(%rsp), %xmm0 vucomiss 0x1dfd6d(%rip), %xmm0 # 0x1eeba24 vmovss 0x118(%rsp), %xmm0 jae 0x1d0bd03 vmovaps 0x1e0(%rsp), %xmm0 vmovaps %xmm10, 0x60(%rsp) vmovaps %xmm8, 0xa0(%rsp) kmovw %k1, 0x80(%rsp) vzeroupper callq 0x6aa20 kmovw 0x80(%rsp), %k1 vmovaps 0xa0(%rsp), %xmm8 vmovaps 0x60(%rsp), %xmm10 movzbl %r14b, %eax kmovd %eax, %k0 kandnb %k1, %k0, %k0 kmovd %k0, %r12d vmulss 0x1e6199(%rip), %xmm0, %xmm0 # 0x1ef1eb4 vmovss %xmm0, 0x54(%rsp) movl $0x5, %r15d vmovaps %xmm8, 0xa0(%rsp) vbroadcastss %xmm8, %xmm0 vxorps %xmm1, %xmm1, %xmm1 vfmadd132ps 0x1f0(%rsp), %xmm1, %xmm0 # xmm0 = (xmm0 * mem) + xmm1 vmovss 0x1e09c9(%rip), %xmm1 # 0x1eec714 vsubss %xmm10, %xmm1, %xmm4 vmulss %xmm4, %xmm4, %xmm1 vmulss %xmm1, %xmm4, %xmm1 vmulss %xmm10, %xmm10, %xmm11 vmulss %xmm11, %xmm10, %xmm2 vmovss 0x1e0e22(%rip), %xmm7 # 0x1eecb8c vmovaps %xmm7, %xmm3 vfmadd213ss %xmm2, %xmm1, %xmm3 # xmm3 = (xmm1 * xmm3) + xmm2 vmulss %xmm4, %xmm10, %xmm12 vmovaps %xmm4, 0x80(%rsp) vmulss %xmm4, %xmm12, %xmm4 vmulss %xmm12, %xmm10, %xmm5 vmovss 0x1e5263(%rip), %xmm8 # 0x1ef0ff4 vmulss %xmm5, %xmm8, %xmm6 vmovss 0x1e525f(%rip), %xmm9 # 0x1ef0ffc vfmadd231ss %xmm9, %xmm4, %xmm6 # xmm6 = (xmm4 * xmm9) + xmm6 vaddss %xmm6, %xmm3, %xmm3 vmovaps %xmm7, %xmm6 vfmadd213ss %xmm1, %xmm2, %xmm6 # xmm6 = (xmm2 * xmm6) + xmm1 vmulss %xmm4, %xmm8, %xmm4 vfmadd231ss %xmm5, %xmm9, %xmm4 # xmm4 = (xmm9 * xmm5) + xmm4 vaddss %xmm4, %xmm6, %xmm4 vmovss 0x1e523c(%rip), %xmm5 # 0x1ef1000 vmulss %xmm5, %xmm1, %xmm1 vmulss %xmm5, %xmm3, %xmm3 vmulss %xmm5, %xmm4, %xmm4 vmulss %xmm5, %xmm2, %xmm2 vbroadcastss %xmm2, %xmm2 vmulps 0x200(%rsp), %xmm2, %xmm2 vbroadcastss %xmm4, %xmm4 vfmadd132ps 0x240(%rsp), %xmm2, %xmm4 # xmm4 = (xmm4 * mem) + xmm2 vbroadcastss %xmm3, %xmm2 vfmadd132ps 0x220(%rsp), %xmm4, %xmm2 # xmm2 = (xmm2 * mem) + xmm4 vbroadcastss %xmm1, %xmm1 vfmadd132ps 0x260(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2 vmovaps %xmm1, 0x2f0(%rsp) vsubps %xmm1, %xmm0, %xmm0 vmovaps %xmm0, 0x1c0(%rsp) vdpps $0x7f, %xmm0, %xmm0, %xmm0 vucomiss 0x1dfbf1(%rip), %xmm0 # 0x1eeba24 vmovaps %xmm10, 0x60(%rsp) vmovaps %xmm0, 0x1a0(%rsp) jb 0x1d0be4a vsqrtss %xmm0, %xmm0, %xmm7 jmp 0x1d0be7a vmovss %xmm11, 0x120(%rsp) vmovss %xmm12, 0x1c(%rsp) vzeroupper callq 0x6aa20 vmovss 0x1c(%rsp), %xmm12 vmovss 0x120(%rsp), %xmm11 vmovaps 0x60(%rsp), %xmm10 vmovaps %xmm0, %xmm7 vmovaps 0x80(%rsp), %xmm3 vbroadcastss %xmm3, %xmm1 vbroadcastss 0x21502f(%rip), %xmm4 # 0x1f20ec0 vmovaps %xmm1, 0x2e0(%rsp) vxorps %xmm4, %xmm1, %xmm0 vmulss %xmm0, %xmm3, %xmm0 vmulss 0x1e0ce2(%rip), %xmm12, %xmm1 # 0x1eecb8c vmovaps %xmm10, %xmm2 vfnmsub213ss %xmm1, %xmm10, %xmm2 # xmm2 = -(xmm10 * xmm2) - xmm1 vfmadd231ss %xmm3, %xmm3, %xmm1 # xmm1 = (xmm3 * xmm3) + xmm1 vmovss 0x1e0cc0(%rip), %xmm3 # 0x1eecb80 vmulss %xmm3, %xmm0, %xmm0 vmulss %xmm3, %xmm2, %xmm2 vmulss %xmm3, %xmm1, %xmm1 vmulss %xmm3, %xmm11, %xmm3 vbroadcastss %xmm3, %xmm3 vmulps 0x200(%rsp), %xmm3, %xmm3 vbroadcastss %xmm1, %xmm1 vfmadd132ps 0x240(%rsp), %xmm3, %xmm1 # xmm1 = (xmm1 * mem) + xmm3 vbroadcastss %xmm2, %xmm2 vfmadd132ps 0x220(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1 vbroadcastss %xmm0, %xmm12 vfmadd132ps 0x260(%rsp), %xmm2, %xmm12 # xmm12 = (xmm12 * mem) + xmm2 vdpps $0x7f, %xmm12, %xmm12, %xmm0 vxorps %xmm1, %xmm1, %xmm1 vmovss %xmm0, %xmm1, %xmm2 # xmm2 = xmm0[0],xmm1[1,2,3] vrsqrt14ss %xmm2, %xmm1, %xmm3 vmulss 0x1e07f1(%rip), %xmm3, %xmm6 # 0x1eec718 vmulss 0x1e07ed(%rip), %xmm0, %xmm8 # 0x1eec71c vrcp14ss %xmm2, %xmm1, %xmm2 vxorps %xmm4, %xmm0, %xmm1 vmovaps %xmm2, 0x2c0(%rsp) vfnmadd213ss 0x1e50ad(%rip), %xmm0, %xmm2 # xmm2 = -(xmm0 * xmm2) + mem vmovss %xmm2, 0x58(%rsp) vucomiss %xmm1, %xmm0 vmovaps %xmm12, 0x120(%rsp) vmovss %xmm7, 0x1c(%rsp) vmovaps %xmm0, 0x2d0(%rsp) jb 0x1d0bf75 vsqrtss %xmm0, %xmm0, %xmm5 jmp 0x1d0bfc0 vmovaps %xmm3, 0xd0(%rsp) vmovss %xmm6, 0x2c(%rsp) vmovss %xmm8, 0xc0(%rsp) vzeroupper callq 0x6aa20 vmovss 0xc0(%rsp), %xmm8 vmovss 0x2c(%rsp), %xmm6 vmovaps 0xd0(%rsp), %xmm3 vmovss 0x1c(%rsp), %xmm7 vmovaps 0x120(%rsp), %xmm12 vmovaps %xmm0, %xmm5 vmovaps 0x1c0(%rsp), %xmm9 vmovaps 0x1a0(%rsp), %xmm18 vmulss %xmm3, %xmm8, %xmm0 vmulss %xmm3, %xmm3, %xmm1 vmulss %xmm1, %xmm0, %xmm0 vaddss %xmm0, %xmm6, %xmm0 vbroadcastss %xmm0, %xmm4 vmulps %xmm4, %xmm12, %xmm0 vmovaps %xmm0, 0xd0(%rsp) vdpps $0x7f, %xmm0, %xmm9, %xmm14 vaddss 0x1e0713(%rip), %xmm7, %xmm13 # 0x1eec714 vmulps %xmm14, %xmm14, %xmm0 vsubps %xmm0, %xmm18, %xmm0 vxorps %xmm2, %xmm2, %xmm2 vmovss %xmm0, %xmm2, %xmm1 # xmm1 = xmm0[0],xmm2[1,2,3] vrsqrt14ss %xmm1, %xmm2, %xmm15 vmulss 0x1e06f4(%rip), %xmm15, %xmm17 # 0x1eec718 vmulss 0x1e06ee(%rip), %xmm0, %xmm19 # 0x1eec71c vucomiss 0x1df9ee(%rip), %xmm0 # 0x1eeba24 jb 0x1d0c041 vsqrtss %xmm0, %xmm0, %xmm0 jmp 0x1d0c0d7 vmovss %xmm13, 0x2c(%rsp) vmovaps %xmm14, 0xc0(%rsp) vmovss %xmm5, 0x4c(%rsp) vmovaps %xmm15, 0x2b0(%rsp) vmovss %xmm17, 0x48(%rsp) vmovss %xmm19, 0x44(%rsp) vmovaps %xmm4, 0x2a0(%rsp) vzeroupper callq 0x6aa20 vmovaps 0x2a0(%rsp), %xmm4 vmovss 0x44(%rsp), %xmm19 vmovss 0x48(%rsp), %xmm17 vmovaps 0x2b0(%rsp), %xmm15 vmovss 0x4c(%rsp), %xmm5 vmovaps 0xc0(%rsp), %xmm14 vmovss 0x2c(%rsp), %xmm13 vmovss 0x1c(%rsp), %xmm7 vmovaps 0x120(%rsp), %xmm12 vmovaps 0x1a0(%rsp), %xmm18 vmovaps 0x1c0(%rsp), %xmm9 vbroadcastss 0x214de3(%rip), %ymm28 # 0x1f20ec4 vmovaps 0x60(%rsp), %xmm10 vmovaps 0xa0(%rsp), %xmm8 vmovss 0x1e48e4(%rip), %xmm2 # 0x1ef09dc vmovaps %xmm2, %xmm1 vmovaps 0x80(%rsp), %xmm3 vfmadd213ss %xmm10, %xmm3, %xmm1 # xmm1 = (xmm3 * xmm1) + xmm10 vfmadd231ss %xmm2, %xmm10, %xmm3 # xmm3 = (xmm10 * xmm2) + xmm3 vbroadcastss %xmm10, %xmm2 vmulps 0x200(%rsp), %xmm2, %xmm2 vbroadcastss %xmm3, %xmm3 vfmadd132ps 0x240(%rsp), %xmm2, %xmm3 # xmm3 = (xmm3 * mem) + xmm2 vbroadcastss %xmm1, %xmm1 vfmadd132ps 0x220(%rsp), %xmm3, %xmm1 # xmm1 = (xmm1 * mem) + xmm3 vmovaps 0x2e0(%rsp), %xmm2 vfmadd132ps 0x260(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1 vbroadcastss 0x2d0(%rsp), %xmm1 vmulps %xmm1, %xmm2, %xmm1 vdpps $0x7f, %xmm2, %xmm12, %xmm2 vbroadcastss %xmm2, %xmm2 vmulps %xmm2, %xmm12, %xmm2 vsubps %xmm2, %xmm1, %xmm2 vmovss 0x58(%rsp), %xmm1 vmulss 0x2c0(%rsp), %xmm1, %xmm3 vmulss 0x54(%rsp), %xmm8, %xmm1 vmovss 0x50(%rsp), %xmm6 vmaxss %xmm1, %xmm6, %xmm1 vbroadcastss %xmm3, %xmm3 vmulps %xmm3, %xmm2, %xmm2 vxorps 0x214d1f(%rip){1to4}, %xmm12, %xmm3 # 0x1f20ec0 vmulps %xmm2, %xmm4, %xmm2 vmovaps 0xd0(%rsp), %xmm11 vdpps $0x7f, %xmm11, %xmm3, %xmm4 vdivss %xmm5, %xmm6, %xmm5 vfmadd213ss %xmm1, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm7) + xmm1 vdpps $0x7f, %xmm2, %xmm9, %xmm2 vfmadd213ss %xmm7, %xmm5, %xmm13 # xmm13 = (xmm5 * xmm13) + xmm7 vaddss %xmm2, %xmm4, %xmm4 vmovaps 0x1f0(%rsp), %xmm7 vdpps $0x7f, %xmm11, %xmm7, %xmm5 vdpps $0x7f, %xmm3, %xmm9, %xmm3 vmulss %xmm15, %xmm19, %xmm2 vmulss %xmm15, %xmm15, %xmm6 vmulss %xmm6, %xmm2, %xmm2 vaddss %xmm2, %xmm17, %xmm6 vdpps $0x7f, %xmm7, %xmm9, %xmm7 vfnmadd231ss %xmm4, %xmm14, %xmm3 # xmm3 = -(xmm14 * xmm4) + xmm3 vfnmadd231ss %xmm5, %xmm14, %xmm7 # xmm7 = -(xmm14 * xmm5) + xmm7 vpermilps $0xff, 0x2f0(%rsp), %xmm2 # xmm2 = mem[3,3,3,3] vsubss %xmm2, %xmm0, %xmm2 vshufps $0xff, %xmm12, %xmm12, %xmm0 # xmm0 = xmm12[3,3,3,3] vfmsub213ss %xmm0, %xmm6, %xmm3 # xmm3 = (xmm6 * xmm3) - xmm0 vmulss %xmm6, %xmm7, %xmm6 vmulss %xmm3, %xmm5, %xmm7 vfmsub231ss %xmm6, %xmm4, %xmm7 # xmm7 = (xmm4 * xmm6) - xmm7 vdivss %xmm7, %xmm6, %xmm6 vdivss %xmm7, %xmm3, %xmm3 vdivss %xmm7, %xmm5, %xmm5 vdivss %xmm7, %xmm4, %xmm4 vmulss %xmm6, %xmm14, %xmm6 vmulss %xmm5, %xmm2, %xmm5 vsubss %xmm5, %xmm6, %xmm5 vmulss %xmm3, %xmm14, %xmm3 vmulss %xmm4, %xmm2, %xmm4 vsubss %xmm3, %xmm4, %xmm3 vsubss %xmm5, %xmm10, %xmm10 vsubss %xmm3, %xmm8, %xmm8 vbroadcastss 0x214c5e(%rip), %xmm4 # 0x1f20ec4 vandps %xmm4, %xmm14, %xmm3 vucomiss %xmm3, %xmm13 movb $0x1, %al jbe 0x1d0c2c2 vaddss %xmm1, %xmm13, %xmm1 vmovaps 0x280(%rsp), %xmm3 vfmadd231ss 0x1e5c2c(%rip), %xmm3, %xmm1 # xmm1 = (xmm3 * mem) + xmm1 vandps %xmm4, %xmm2, %xmm2 vucomiss %xmm2, %xmm1 jbe 0x1d0c2c2 vaddss 0x290(%rsp), %xmm8, %xmm8 vucomiss 0x5c(%rsp), %xmm8 jb 0x1d0c2bd movq 0x30(%rsp), %rax movq 0x20(%rsp), %rcx vmovss 0x80(%rcx,%rax,4), %xmm5 vucomiss %xmm8, %xmm5 jae 0x1d0c2d8 xorl %eax, %eax xorl %r14d, %r14d testb %al, %al je 0x1d0c5ea decq %r15 jne 0x1d0bd27 jmp 0x1d0c5e7 xorl %eax, %eax vucomiss 0x1df742(%rip), %xmm10 # 0x1eeba24 jb 0x1d0c2bf vmovss 0x1e0428(%rip), %xmm1 # 0x1eec714 vucomiss %xmm10, %xmm1 jb 0x1d0c2bf vxorps %xmm2, %xmm2, %xmm2 vmovss %xmm18, %xmm2, %xmm1 # xmm1 = xmm18[0],xmm2[1,2,3] vrsqrt14ss %xmm1, %xmm2, %xmm1 vmulss 0x1e040d(%rip), %xmm1, %xmm2 # 0x1eec718 vmulss 0x1e0407(%rip), %xmm18, %xmm3 # 0x1eec71c movq 0x38(%rsp), %rdx movq (%rdx), %rax movq 0x1e8(%rax), %rax movq 0xf8(%rsp), %rcx movq (%rax,%rcx,8), %r14 movq 0x30(%rsp), %rax movq 0x20(%rsp), %rcx movl 0x90(%rcx,%rax,4), %eax testl %eax, 0x34(%r14) je 0x1d0c2bd movq 0x10(%rdx), %rax cmpq $0x0, 0x10(%rax) jne 0x1d0c367 cmpq $0x0, 0x48(%r14) jne 0x1d0c367 movb $0x1, %r14b xorl %eax, %eax jmp 0x1d0c2c2 vmulss %xmm1, %xmm3, %xmm3 vmulss %xmm1, %xmm1, %xmm1 vmulss %xmm1, %xmm3, %xmm1 vaddss %xmm1, %xmm2, %xmm1 vbroadcastss %xmm1, %xmm1 vmulps %xmm1, %xmm9, %xmm1 vfmadd213ps %xmm12, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm0) + xmm12 vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3] vshufps $0xc9, %xmm12, %xmm12, %xmm3 # xmm3 = xmm12[1,2,0,3] vmulps %xmm3, %xmm1, %xmm1 vfmsub231ps %xmm2, %xmm12, %xmm1 # xmm1 = (xmm12 * xmm2) - xmm1 vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3] vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3] vshufps $0xd2, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,0,1,3] vmulps %xmm1, %xmm0, %xmm0 vfmsub231ps %xmm3, %xmm2, %xmm0 # xmm0 = (xmm2 * xmm3) - xmm0 movq 0x38(%rsp), %rdx movq 0x8(%rdx), %rax vbroadcastss %xmm10, %xmm1 vshufps $0x55, %xmm0, %xmm0, %xmm2 # xmm2 = xmm0[1,1,1,1] vshufps $0xaa, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[2,2,2,2] vbroadcastss %xmm0, %xmm0 vmovaps %xmm2, 0x360(%rsp) vmovaps %xmm3, 0x370(%rsp) vmovaps %xmm0, 0x380(%rsp) vmovaps %xmm1, 0x390(%rsp) vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 0x3a0(%rsp) vmovaps 0x350(%rsp), %xmm0 vmovaps %xmm0, 0x3b0(%rsp) vmovdqa 0x340(%rsp), %xmm0 vmovdqa %xmm0, 0x3c0(%rsp) leaq 0x3d0(%rsp), %rcx vpcmpeqd %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, (%rcx) vbroadcastss (%rax), %xmm0 vmovaps %xmm0, 0x3d0(%rsp) vbroadcastss 0x4(%rax), %xmm0 vmovaps %xmm0, 0x3e0(%rsp) movq 0x30(%rsp), %rax movq 0x20(%rsp), %rcx vmovss %xmm8, 0x80(%rcx,%rax,4) vmovaps 0x330(%rsp), %xmm0 vmovaps %xmm0, 0xe0(%rsp) leaq 0xe0(%rsp), %rax movq %rax, 0x170(%rsp) movq 0x18(%r14), %rax movq %rax, 0x178(%rsp) movq 0x8(%rdx), %rax movq %rax, 0x180(%rsp) movq %rcx, 0x188(%rsp) leaq 0x360(%rsp), %rax movq %rax, 0x190(%rsp) movl $0x4, 0x198(%rsp) movq 0x48(%r14), %rax testq %rax, %rax vmovaps %xmm10, 0x60(%rsp) vmovaps %xmm8, 0xa0(%rsp) vmovss %xmm5, 0x80(%rsp) je 0x1d0c519 leaq 0x170(%rsp), %rdi vzeroupper callq *%rax vmovss 0x80(%rsp), %xmm5 vmovaps 0xa0(%rsp), %xmm8 vmovaps 0x60(%rsp), %xmm10 vbroadcastss 0x2149b5(%rip), %xmm4 # 0x1f20ec4 vbroadcastss 0x2149ab(%rip), %ymm28 # 0x1f20ec4 vmovdqa 0xe0(%rsp), %xmm0 vptestmd %xmm0, %xmm0, %k0 kortestb %k0, %k0 je 0x1d0c5c3 movq 0x38(%rsp), %rax movq 0x10(%rax), %rcx movq 0x10(%rcx), %rax testq %rax, %rax je 0x1d0c588 testb $0x2, (%rcx) jne 0x1d0c550 testb $0x40, 0x3e(%r14) je 0x1d0c588 leaq 0x170(%rsp), %rdi vzeroupper callq *%rax vmovss 0x80(%rsp), %xmm5 vmovaps 0xa0(%rsp), %xmm8 vmovaps 0x60(%rsp), %xmm10 vbroadcastss 0x214946(%rip), %xmm4 # 0x1f20ec4 vbroadcastss 0x21493c(%rip), %ymm28 # 0x1f20ec4 vmovdqa 0xe0(%rsp), %xmm0 vptestmd %xmm0, %xmm0, %k1 movq 0x188(%rsp), %rax vmovaps 0x80(%rax), %xmm0 vbroadcastss 0x1e05d3(%rip), %xmm0 {%k1} # 0x1eecb84 vmovaps %xmm0, 0x80(%rax) kortestb %k1, %k1 setne %r14b jmp 0x1d0c5c6 xorl %r14d, %r14d testb %r14b, %r14b jne 0x1d0c360 movq 0x30(%rsp), %rax movq 0x20(%rsp), %rcx vmovss %xmm5, 0x80(%rcx,%rax,4) jmp 0x1d0c360 xorl %r14d, %r14d andb $0x1, %r14b orb %r14b, %r13b movq 0x30(%rsp), %rdx movq 0x20(%rsp), %rax vmovaps 0x440(%rsp), %ymm0 vcmpleps 0x80(%rax,%rdx,4){1to8}, %ymm0, %k0 kmovd %k0, %eax andb %al, %r12b jne 0x1d0bc3d jmp 0x1d0c63c vbroadcastss 0x1e00ef(%rip), %ymm3 # 0x1eec714 vmovaps 0x150(%rsp), %xmm2 jmp 0x1d0d226 vbroadcastss 0x214888(%rip), %xmm4 # 0x1f20ec4 vmovaps 0x400(%rsp), %ymm3 vaddps 0x420(%rsp), %ymm3, %ymm0 movq 0x20(%rsp), %rax vcmpleps 0x80(%rax,%rdx,4){1to8}, %ymm0, %k0 kmovd 0x114(%rsp), %k1 kmovd 0x10c(%rsp), %k2 korb %k2, %k1, %k1 kmovd %k0, %eax movl 0x40(%rsp), %ecx andb %al, %cl vpbroadcastd 0x214855(%rip), %ymm0 # 0x1f20edc vpblendmd 0x214847(%rip){1to8}, %ymm0, %ymm0 {%k1} # 0x1f20ed8 vmovdqa %ymm0, 0x420(%rsp) vpcmpled 0x4a0(%rsp), %ymm0, %k0 kmovd %k0, %r12d movl %ecx, 0x40(%rsp) andb %cl, %r12b je 0x1d0d113 vmovaps 0x540(%rsp), %ymm7 vmovaps 0x260(%rsp), %ymm1 vmovaps 0x220(%rsp), %ymm2 vminps %xmm2, %xmm1, %xmm0 vmaxps %xmm2, %xmm1, %xmm1 vmovaps 0x240(%rsp), %ymm5 vmovaps 0x200(%rsp), %ymm6 vminps %xmm6, %xmm5, %xmm2 vminps %xmm2, %xmm0, %xmm0 vmaxps %xmm6, %xmm5, %xmm2 vmaxps %xmm2, %xmm1, %xmm1 vandps %xmm4, %xmm0, %xmm0 vandps %xmm4, %xmm1, %xmm2 vmaxps %xmm2, %xmm0, %xmm0 vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3] vmaxss %xmm0, %xmm2, %xmm2 vshufpd $0x1, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[1,0] vmaxss %xmm2, %xmm0, %xmm0 vmulss 0x1e5796(%rip), %xmm0, %xmm0 # 0x1ef1eb4 vmovss %xmm0, 0x50(%rsp) vshufps $0xff, %xmm1, %xmm1, %xmm0 # xmm0 = xmm1[3,3,3,3] vmovaps %xmm0, 0x280(%rsp) vmovaps %ymm7, 0x300(%rsp) vaddps %ymm7, %ymm3, %ymm0 vmovaps %ymm0, 0x440(%rsp) kmovd %r12d, %k1 vbroadcastss 0x1df2ca(%rip), %ymm0 # 0x1eeba20 vblendmps 0x300(%rsp), %ymm0, %ymm0 {%k1} vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm0, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1] vminps %ymm2, %ymm1, %ymm1 vcmpeqps %ymm1, %ymm0, %k0 kmovd %k0, %eax andb %r12b, %al movzbl %al, %eax movzbl %r12b, %ecx cmovnel %eax, %ecx tzcntl %ecx, %ecx movb $0x1, %r14b shlb %cl, %r14b shll $0x2, %ecx vmovss 0x460(%rsp,%rcx), %xmm10 vmovss 0x560(%rsp,%rcx), %xmm8 vmovaps 0x1e0(%rsp), %xmm0 vucomiss 0x1df262(%rip), %xmm0 # 0x1eeba24 vmovss 0x11c(%rsp), %xmm0 jae 0x1d0c80e vmovaps 0x1e0(%rsp), %xmm0 vmovaps %xmm10, 0x60(%rsp) vmovaps %xmm8, 0xa0(%rsp) kmovw %k1, 0x80(%rsp) vzeroupper callq 0x6aa20 kmovw 0x80(%rsp), %k1 vmovaps 0xa0(%rsp), %xmm8 vmovaps 0x60(%rsp), %xmm10 movzbl %r14b, %eax kmovd %eax, %k0 kandnb %k1, %k0, %k0 kmovd %k0, %r12d vmulss 0x1e568e(%rip), %xmm0, %xmm0 # 0x1ef1eb4 vmovss %xmm0, 0x54(%rsp) movl $0x5, %r15d vmovaps %xmm8, 0xa0(%rsp) vbroadcastss %xmm8, %xmm0 vxorps %xmm1, %xmm1, %xmm1 vfmadd132ps 0x1f0(%rsp), %xmm1, %xmm0 # xmm0 = (xmm0 * mem) + xmm1 vmovss 0x1dfebe(%rip), %xmm1 # 0x1eec714 vsubss %xmm10, %xmm1, %xmm4 vmulss %xmm4, %xmm4, %xmm1 vmulss %xmm1, %xmm4, %xmm1 vmulss %xmm10, %xmm10, %xmm11 vmulss %xmm11, %xmm10, %xmm2 vmovss 0x1e0317(%rip), %xmm7 # 0x1eecb8c vmovaps %xmm7, %xmm3 vfmadd213ss %xmm2, %xmm1, %xmm3 # xmm3 = (xmm1 * xmm3) + xmm2 vmulss %xmm4, %xmm10, %xmm12 vmovaps %xmm4, 0x80(%rsp) vmulss %xmm4, %xmm12, %xmm4 vmulss %xmm12, %xmm10, %xmm5 vmovss 0x1e4758(%rip), %xmm8 # 0x1ef0ff4 vmulss %xmm5, %xmm8, %xmm6 vmovss 0x1e4754(%rip), %xmm9 # 0x1ef0ffc vfmadd231ss %xmm9, %xmm4, %xmm6 # xmm6 = (xmm4 * xmm9) + xmm6 vaddss %xmm6, %xmm3, %xmm3 vmovaps %xmm7, %xmm6 vfmadd213ss %xmm1, %xmm2, %xmm6 # xmm6 = (xmm2 * xmm6) + xmm1 vmulss %xmm4, %xmm8, %xmm4 vfmadd231ss %xmm5, %xmm9, %xmm4 # xmm4 = (xmm9 * xmm5) + xmm4 vaddss %xmm4, %xmm6, %xmm4 vmovss 0x1e4731(%rip), %xmm5 # 0x1ef1000 vmulss %xmm5, %xmm1, %xmm1 vmulss %xmm5, %xmm3, %xmm3 vmulss %xmm5, %xmm4, %xmm4 vmulss %xmm5, %xmm2, %xmm2 vbroadcastss %xmm2, %xmm2 vmulps 0x200(%rsp), %xmm2, %xmm2 vbroadcastss %xmm4, %xmm4 vfmadd132ps 0x240(%rsp), %xmm2, %xmm4 # xmm4 = (xmm4 * mem) + xmm2 vbroadcastss %xmm3, %xmm2 vfmadd132ps 0x220(%rsp), %xmm4, %xmm2 # xmm2 = (xmm2 * mem) + xmm4 vbroadcastss %xmm1, %xmm1 vfmadd132ps 0x260(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2 vmovaps %xmm1, 0x2f0(%rsp) vsubps %xmm1, %xmm0, %xmm0 vmovaps %xmm0, 0x1c0(%rsp) vdpps $0x7f, %xmm0, %xmm0, %xmm0 vucomiss 0x1df0e6(%rip), %xmm0 # 0x1eeba24 vmovaps %xmm10, 0x60(%rsp) vmovaps %xmm0, 0x1a0(%rsp) jb 0x1d0c955 vsqrtss %xmm0, %xmm0, %xmm7 jmp 0x1d0c985 vmovss %xmm11, 0x120(%rsp) vmovss %xmm12, 0x1c(%rsp) vzeroupper callq 0x6aa20 vmovss 0x1c(%rsp), %xmm12 vmovss 0x120(%rsp), %xmm11 vmovaps 0x60(%rsp), %xmm10 vmovaps %xmm0, %xmm7 vmovaps 0x80(%rsp), %xmm3 vbroadcastss %xmm3, %xmm1 vbroadcastss 0x214524(%rip), %xmm4 # 0x1f20ec0 vmovaps %xmm1, 0x2e0(%rsp) vxorps %xmm4, %xmm1, %xmm0 vmulss %xmm0, %xmm3, %xmm0 vmulss 0x1e01d7(%rip), %xmm12, %xmm1 # 0x1eecb8c vmovaps %xmm10, %xmm2 vfnmsub213ss %xmm1, %xmm10, %xmm2 # xmm2 = -(xmm10 * xmm2) - xmm1 vfmadd231ss %xmm3, %xmm3, %xmm1 # xmm1 = (xmm3 * xmm3) + xmm1 vmovss 0x1e01b5(%rip), %xmm3 # 0x1eecb80 vmulss %xmm3, %xmm0, %xmm0 vmulss %xmm3, %xmm2, %xmm2 vmulss %xmm3, %xmm1, %xmm1 vmulss %xmm3, %xmm11, %xmm3 vbroadcastss %xmm3, %xmm3 vmulps 0x200(%rsp), %xmm3, %xmm3 vbroadcastss %xmm1, %xmm1 vfmadd132ps 0x240(%rsp), %xmm3, %xmm1 # xmm1 = (xmm1 * mem) + xmm3 vbroadcastss %xmm2, %xmm2 vfmadd132ps 0x220(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1 vbroadcastss %xmm0, %xmm12 vfmadd132ps 0x260(%rsp), %xmm2, %xmm12 # xmm12 = (xmm12 * mem) + xmm2 vdpps $0x7f, %xmm12, %xmm12, %xmm0 vxorps %xmm1, %xmm1, %xmm1 vmovss %xmm0, %xmm1, %xmm2 # xmm2 = xmm0[0],xmm1[1,2,3] vrsqrt14ss %xmm2, %xmm1, %xmm3 vmulss 0x1dfce6(%rip), %xmm3, %xmm6 # 0x1eec718 vmulss 0x1dfce2(%rip), %xmm0, %xmm8 # 0x1eec71c vrcp14ss %xmm2, %xmm1, %xmm2 vxorps %xmm4, %xmm0, %xmm1 vmovaps %xmm2, 0x2c0(%rsp) vfnmadd213ss 0x1e45a2(%rip), %xmm0, %xmm2 # xmm2 = -(xmm0 * xmm2) + mem vmovss %xmm2, 0x58(%rsp) vucomiss %xmm1, %xmm0 vmovaps %xmm12, 0x120(%rsp) vmovss %xmm7, 0x1c(%rsp) vmovaps %xmm0, 0x2d0(%rsp) jb 0x1d0ca80 vsqrtss %xmm0, %xmm0, %xmm5 jmp 0x1d0cacb vmovaps %xmm3, 0xd0(%rsp) vmovss %xmm6, 0x2c(%rsp) vmovss %xmm8, 0xc0(%rsp) vzeroupper callq 0x6aa20 vmovss 0xc0(%rsp), %xmm8 vmovss 0x2c(%rsp), %xmm6 vmovaps 0xd0(%rsp), %xmm3 vmovss 0x1c(%rsp), %xmm7 vmovaps 0x120(%rsp), %xmm12 vmovaps %xmm0, %xmm5 vmovaps 0x1c0(%rsp), %xmm9 vmovaps 0x1a0(%rsp), %xmm18 vmulss %xmm3, %xmm8, %xmm0 vmulss %xmm3, %xmm3, %xmm1 vmulss %xmm1, %xmm0, %xmm0 vaddss %xmm0, %xmm6, %xmm0 vbroadcastss %xmm0, %xmm4 vmulps %xmm4, %xmm12, %xmm0 vmovaps %xmm0, 0xd0(%rsp) vdpps $0x7f, %xmm0, %xmm9, %xmm14 vaddss 0x1dfc08(%rip), %xmm7, %xmm13 # 0x1eec714 vmulps %xmm14, %xmm14, %xmm0 vsubps %xmm0, %xmm18, %xmm0 vxorps %xmm2, %xmm2, %xmm2 vmovss %xmm0, %xmm2, %xmm1 # xmm1 = xmm0[0],xmm2[1,2,3] vrsqrt14ss %xmm1, %xmm2, %xmm15 vmulss 0x1dfbe9(%rip), %xmm15, %xmm17 # 0x1eec718 vmulss 0x1dfbe3(%rip), %xmm0, %xmm19 # 0x1eec71c vucomiss 0x1deee3(%rip), %xmm0 # 0x1eeba24 jb 0x1d0cb4c vsqrtss %xmm0, %xmm0, %xmm0 jmp 0x1d0cbe2 vmovss %xmm13, 0x2c(%rsp) vmovaps %xmm14, 0xc0(%rsp) vmovss %xmm5, 0x4c(%rsp) vmovaps %xmm15, 0x2b0(%rsp) vmovss %xmm17, 0x48(%rsp) vmovss %xmm19, 0x44(%rsp) vmovaps %xmm4, 0x2a0(%rsp) vzeroupper callq 0x6aa20 vmovaps 0x2a0(%rsp), %xmm4 vmovss 0x44(%rsp), %xmm19 vmovss 0x48(%rsp), %xmm17 vmovaps 0x2b0(%rsp), %xmm15 vmovss 0x4c(%rsp), %xmm5 vmovaps 0xc0(%rsp), %xmm14 vmovss 0x2c(%rsp), %xmm13 vmovss 0x1c(%rsp), %xmm7 vmovaps 0x120(%rsp), %xmm12 vmovaps 0x1a0(%rsp), %xmm18 vmovaps 0x1c0(%rsp), %xmm9 vbroadcastss 0x2142d8(%rip), %ymm28 # 0x1f20ec4 vmovaps 0x60(%rsp), %xmm10 vmovaps 0xa0(%rsp), %xmm8 vmovss 0x1e3dd9(%rip), %xmm2 # 0x1ef09dc vmovaps %xmm2, %xmm1 vmovaps 0x80(%rsp), %xmm3 vfmadd213ss %xmm10, %xmm3, %xmm1 # xmm1 = (xmm3 * xmm1) + xmm10 vfmadd231ss %xmm2, %xmm10, %xmm3 # xmm3 = (xmm10 * xmm2) + xmm3 vbroadcastss %xmm10, %xmm2 vmulps 0x200(%rsp), %xmm2, %xmm2 vbroadcastss %xmm3, %xmm3 vfmadd132ps 0x240(%rsp), %xmm2, %xmm3 # xmm3 = (xmm3 * mem) + xmm2 vbroadcastss %xmm1, %xmm1 vfmadd132ps 0x220(%rsp), %xmm3, %xmm1 # xmm1 = (xmm1 * mem) + xmm3 vmovaps 0x2e0(%rsp), %xmm2 vfmadd132ps 0x260(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1 vbroadcastss 0x2d0(%rsp), %xmm1 vmulps %xmm1, %xmm2, %xmm1 vdpps $0x7f, %xmm2, %xmm12, %xmm2 vbroadcastss %xmm2, %xmm2 vmulps %xmm2, %xmm12, %xmm2 vsubps %xmm2, %xmm1, %xmm2 vmovss 0x58(%rsp), %xmm1 vmulss 0x2c0(%rsp), %xmm1, %xmm3 vmulss 0x54(%rsp), %xmm8, %xmm1 vmovss 0x50(%rsp), %xmm6 vmaxss %xmm1, %xmm6, %xmm1 vbroadcastss %xmm3, %xmm3 vmulps %xmm3, %xmm2, %xmm2 vxorps 0x214214(%rip){1to4}, %xmm12, %xmm3 # 0x1f20ec0 vmulps %xmm2, %xmm4, %xmm2 vmovaps 0xd0(%rsp), %xmm11 vdpps $0x7f, %xmm11, %xmm3, %xmm4 vdivss %xmm5, %xmm6, %xmm5 vfmadd213ss %xmm1, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm7) + xmm1 vdpps $0x7f, %xmm2, %xmm9, %xmm2 vfmadd213ss %xmm7, %xmm5, %xmm13 # xmm13 = (xmm5 * xmm13) + xmm7 vaddss %xmm2, %xmm4, %xmm4 vmovaps 0x1f0(%rsp), %xmm7 vdpps $0x7f, %xmm11, %xmm7, %xmm5 vdpps $0x7f, %xmm3, %xmm9, %xmm3 vmulss %xmm15, %xmm19, %xmm2 vmulss %xmm15, %xmm15, %xmm6 vmulss %xmm6, %xmm2, %xmm2 vaddss %xmm2, %xmm17, %xmm6 vdpps $0x7f, %xmm7, %xmm9, %xmm7 vfnmadd231ss %xmm4, %xmm14, %xmm3 # xmm3 = -(xmm14 * xmm4) + xmm3 vfnmadd231ss %xmm5, %xmm14, %xmm7 # xmm7 = -(xmm14 * xmm5) + xmm7 vpermilps $0xff, 0x2f0(%rsp), %xmm2 # xmm2 = mem[3,3,3,3] vsubss %xmm2, %xmm0, %xmm2 vshufps $0xff, %xmm12, %xmm12, %xmm0 # xmm0 = xmm12[3,3,3,3] vfmsub213ss %xmm0, %xmm6, %xmm3 # xmm3 = (xmm6 * xmm3) - xmm0 vmulss %xmm6, %xmm7, %xmm6 vmulss %xmm3, %xmm5, %xmm7 vfmsub231ss %xmm6, %xmm4, %xmm7 # xmm7 = (xmm4 * xmm6) - xmm7 vdivss %xmm7, %xmm6, %xmm6 vdivss %xmm7, %xmm3, %xmm3 vdivss %xmm7, %xmm5, %xmm5 vdivss %xmm7, %xmm4, %xmm4 vmulss %xmm6, %xmm14, %xmm6 vmulss %xmm5, %xmm2, %xmm5 vsubss %xmm5, %xmm6, %xmm5 vmulss %xmm3, %xmm14, %xmm3 vmulss %xmm4, %xmm2, %xmm4 vsubss %xmm3, %xmm4, %xmm3 vsubss %xmm5, %xmm10, %xmm10 vsubss %xmm3, %xmm8, %xmm8 vbroadcastss 0x214153(%rip), %xmm4 # 0x1f20ec4 vandps %xmm4, %xmm14, %xmm3 vucomiss %xmm3, %xmm13 movb $0x1, %al jbe 0x1d0cdcd vaddss %xmm1, %xmm13, %xmm1 vmovaps 0x280(%rsp), %xmm3 vfmadd231ss 0x1e5121(%rip), %xmm3, %xmm1 # xmm1 = (xmm3 * mem) + xmm1 vandps %xmm4, %xmm2, %xmm2 vucomiss %xmm2, %xmm1 jbe 0x1d0cdcd vaddss 0x290(%rsp), %xmm8, %xmm8 vucomiss 0x5c(%rsp), %xmm8 jb 0x1d0cdc8 movq 0x30(%rsp), %rax movq 0x20(%rsp), %rcx vmovss 0x80(%rcx,%rax,4), %xmm4 vucomiss %xmm8, %xmm4 jae 0x1d0cde3 xorl %eax, %eax xorl %r14d, %r14d testb %al, %al je 0x1d0d0e3 decq %r15 jne 0x1d0c832 jmp 0x1d0d0e0 xorl %eax, %eax vucomiss 0x1dec37(%rip), %xmm10 # 0x1eeba24 jb 0x1d0cdca vmovss 0x1df91d(%rip), %xmm1 # 0x1eec714 vucomiss %xmm10, %xmm1 jb 0x1d0cdca vxorps %xmm2, %xmm2, %xmm2 vmovss %xmm18, %xmm2, %xmm1 # xmm1 = xmm18[0],xmm2[1,2,3] vrsqrt14ss %xmm1, %xmm2, %xmm1 vmulss 0x1df902(%rip), %xmm1, %xmm2 # 0x1eec718 vmulss 0x1df8fc(%rip), %xmm18, %xmm3 # 0x1eec71c movq 0x38(%rsp), %rdx movq (%rdx), %rax movq 0x1e8(%rax), %rax movq 0xf8(%rsp), %rcx movq (%rax,%rcx,8), %r14 movq 0x30(%rsp), %rax movq 0x20(%rsp), %rcx movl 0x90(%rcx,%rax,4), %eax testl %eax, 0x34(%r14) je 0x1d0cdc8 movq 0x10(%rdx), %rax cmpq $0x0, 0x10(%rax) jne 0x1d0ce72 cmpq $0x0, 0x48(%r14) jne 0x1d0ce72 movb $0x1, %r14b xorl %eax, %eax jmp 0x1d0cdcd vmulss %xmm1, %xmm3, %xmm3 vmulss %xmm1, %xmm1, %xmm1 vmulss %xmm1, %xmm3, %xmm1 vaddss %xmm1, %xmm2, %xmm1 vbroadcastss %xmm1, %xmm1 vmulps %xmm1, %xmm9, %xmm1 vfmadd213ps %xmm12, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm0) + xmm12 vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3] vshufps $0xc9, %xmm12, %xmm12, %xmm3 # xmm3 = xmm12[1,2,0,3] vmulps %xmm3, %xmm1, %xmm1 vfmsub231ps %xmm2, %xmm12, %xmm1 # xmm1 = (xmm12 * xmm2) - xmm1 vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3] vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3] vshufps $0xd2, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,0,1,3] vmulps %xmm1, %xmm0, %xmm0 vfmsub231ps %xmm3, %xmm2, %xmm0 # xmm0 = (xmm2 * xmm3) - xmm0 movq 0x38(%rsp), %rdx movq 0x8(%rdx), %rax vbroadcastss %xmm10, %xmm1 vshufps $0x55, %xmm0, %xmm0, %xmm2 # xmm2 = xmm0[1,1,1,1] vshufps $0xaa, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[2,2,2,2] vbroadcastss %xmm0, %xmm0 vmovaps %xmm2, 0x360(%rsp) vmovaps %xmm3, 0x370(%rsp) vmovaps %xmm0, 0x380(%rsp) vmovaps %xmm1, 0x390(%rsp) vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 0x3a0(%rsp) vmovaps 0x350(%rsp), %xmm0 vmovaps %xmm0, 0x3b0(%rsp) vmovdqa 0x340(%rsp), %xmm0 vmovdqa %xmm0, 0x3c0(%rsp) leaq 0x3d0(%rsp), %rcx vpcmpeqd %ymm0, %ymm0, %ymm0 vmovdqu %ymm0, (%rcx) vbroadcastss (%rax), %xmm0 vmovaps %xmm0, 0x3d0(%rsp) vbroadcastss 0x4(%rax), %xmm0 vmovaps %xmm0, 0x3e0(%rsp) movq 0x30(%rsp), %rax movq 0x20(%rsp), %rcx vmovss %xmm8, 0x80(%rcx,%rax,4) vmovaps 0x330(%rsp), %xmm0 vmovaps %xmm0, 0xe0(%rsp) leaq 0xe0(%rsp), %rax movq %rax, 0x170(%rsp) movq 0x18(%r14), %rax movq %rax, 0x178(%rsp) movq 0x8(%rdx), %rax movq %rax, 0x180(%rsp) movq %rcx, 0x188(%rsp) leaq 0x360(%rsp), %rax movq %rax, 0x190(%rsp) movl $0x4, 0x198(%rsp) movq 0x48(%r14), %rax testq %rax, %rax vmovaps %xmm10, 0x60(%rsp) vmovaps %xmm8, 0xa0(%rsp) vmovss %xmm4, 0x80(%rsp) je 0x1d0d01b leaq 0x170(%rsp), %rdi vzeroupper callq *%rax vmovss 0x80(%rsp), %xmm4 vmovaps 0xa0(%rsp), %xmm8 vmovaps 0x60(%rsp), %xmm10 vbroadcastss 0x213ea9(%rip), %ymm28 # 0x1f20ec4 vmovdqa 0xe0(%rsp), %xmm0 vptestmd %xmm0, %xmm0, %k0 kortestb %k0, %k0 je 0x1d0d0bc movq 0x38(%rsp), %rax movq 0x10(%rax), %rcx movq 0x10(%rcx), %rax testq %rax, %rax je 0x1d0d081 testb $0x2, (%rcx) jne 0x1d0d052 testb $0x40, 0x3e(%r14) je 0x1d0d081 leaq 0x170(%rsp), %rdi vzeroupper callq *%rax vmovss 0x80(%rsp), %xmm4 vmovaps 0xa0(%rsp), %xmm8 vmovaps 0x60(%rsp), %xmm10 vbroadcastss 0x213e43(%rip), %ymm28 # 0x1f20ec4 vmovdqa 0xe0(%rsp), %xmm0 vptestmd %xmm0, %xmm0, %k1 movq 0x188(%rsp), %rax vmovaps 0x80(%rax), %xmm0 vbroadcastss 0x1dfada(%rip), %xmm0 {%k1} # 0x1eecb84 vmovaps %xmm0, 0x80(%rax) kortestb %k1, %k1 setne %r14b jmp 0x1d0d0bf xorl %r14d, %r14d testb %r14b, %r14b jne 0x1d0ce6b movq 0x30(%rsp), %rax movq 0x20(%rsp), %rcx vmovss %xmm4, 0x80(%rcx,%rax,4) jmp 0x1d0ce6b xorl %r14d, %r14d andb $0x1, %r14b orb %r14b, %r13b movq 0x30(%rsp), %rdx movq 0x20(%rsp), %rax vmovaps 0x440(%rsp), %ymm0 vcmpleps 0x80(%rax,%rdx,4){1to8}, %ymm0, %k0 kmovd %k0, %eax andb %al, %r12b jne 0x1d0c748 vmovdqa 0x4a0(%rsp), %ymm1 vpcmpltd 0x420(%rsp), %ymm1, %k1 vmovaps 0x800(%rsp), %ymm0 vpcmpltd 0x580(%rsp), %ymm1, %k2 vmovaps 0x400(%rsp), %ymm3 vaddps %ymm0, %ymm3, %ymm1 movq 0x20(%rsp), %rax vbroadcastss 0x80(%rax,%rdx,4), %ymm2 vcmpleps %ymm2, %ymm1, %k0 {%k2} kmovd %k0, %eax movl 0x110(%rsp), %ecx andb %al, %cl vmovaps 0x540(%rsp), %ymm1 vaddps %ymm1, %ymm3, %ymm3 vcmpleps %ymm2, %ymm3, %k0 {%k1} kmovd %k0, %eax movl 0x40(%rsp), %esi andb %al, %sil orb %cl, %sil je 0x1d0d1fa movl %ebx, %eax leaq (%rax,%rax,2), %rax shlq $0x5, %rax movb %sil, 0x840(%rsp,%rax) kmovd %ecx, %k1 vmovaps %ymm0, %ymm1 {%k1} vmovaps %ymm1, 0x860(%rsp,%rax) vmovaps 0x150(%rsp), %xmm2 vmovlps %xmm2, 0x880(%rsp,%rax) movq 0x100(%rsp), %rcx incl %ecx movl %ecx, 0x888(%rsp,%rax) incl %ebx movq 0x160(%rsp), %r8 movq 0x38(%rsp), %r14 vbroadcastss 0x1df529(%rip), %ymm3 # 0x1eec714 movb 0x1b(%rsp), %r15b movq 0x168(%rsp), %r12 jmp 0x1d0d226 movq 0x160(%rsp), %r8 movq 0x38(%rsp), %r14 vbroadcastss 0x1df504(%rip), %ymm3 # 0x1eec714 movb 0x1b(%rsp), %r15b movq 0x168(%rsp), %r12 vmovaps 0x150(%rsp), %xmm2 testl %ebx, %ebx je 0x1d0d3fb leal -0x1(%rbx), %r9d leaq (%r9,%r9,2), %rcx shlq $0x5, %rcx vmovaps 0x860(%rsp,%rcx), %ymm0 movzbl 0x840(%rsp,%rcx), %esi vaddps 0x400(%rsp), %ymm0, %ymm1 movq 0x20(%rsp), %rax vcmpleps 0x80(%rax,%rdx,4){1to8}, %ymm1, %k0 kmovb %k0, %eax andl %esi, %eax je 0x1d0d323 kmovd %eax, %k1 vbroadcastss 0x1de7a5(%rip), %ymm1 # 0x1eeba20 vblendmps %ymm0, %ymm1, %ymm0 {%k1} vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm0, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1] vminps %ymm2, %ymm1, %ymm1 vcmpeqps %ymm1, %ymm0, %k0 kmovd %k0, %esi andb %al, %sil je 0x1d0d2b3 movzbl %sil, %edi jmp 0x1d0d2b6 movzbl %al, %edi leaq (%rsp,%rcx), %rsi addq $0x840, %rsi # imm = 0x840 vmovss 0x44(%rsi), %xmm0 tzcntl %edi, %ecx movb $0x1, %dil shlb %cl, %dil movl 0x48(%rsi), %r10d movq %r10, 0x100(%rsp) movzbl %dil, %edi kmovd %edi, %k0 kmovd %eax, %k1 kandnb %k1, %k0, %k0 kmovb %k0, (%rsi) kortestb %k0, %k0 je 0x1d0d2f9 movl %ebx, %r9d vbroadcastss 0x40(%rsi), %ymm1 vsubss %xmm1, %xmm0, %xmm0 vbroadcastss %xmm0, %ymm0 vfmadd132ps 0x213c0f(%rip), %ymm1, %ymm0 # ymm0 = (ymm0 * mem) + ymm1 vmovaps %ymm0, 0x360(%rsp) vmovsd 0x360(%rsp,%rcx,4), %xmm2 movl %r9d, %ebx testb %al, %al je 0x1d0d226 vmovaps 0x780(%rsp), %ymm16 vmovaps 0x760(%rsp), %ymm17 vmovaps 0x740(%rsp), %ymm18 vmovaps 0x720(%rsp), %ymm19 vmovaps 0x700(%rsp), %ymm20 vmovaps 0x6e0(%rsp), %ymm22 vmovaps 0x6c0(%rsp), %ymm23 vmovaps 0x6a0(%rsp), %ymm24 vmovaps 0x680(%rsp), %ymm25 vmovaps 0x660(%rsp), %ymm27 vmovaps 0x640(%rsp), %ymm29 vmovaps 0x620(%rsp), %ymm31 vmovaps 0x600(%rsp), %ymm21 vmovaps 0x5e0(%rsp), %ymm30 vmovaps 0x5c0(%rsp), %ymm6 jmp 0x1d0b0af vcmpleps 0x213b49(%rip), %ymm4, %k2 # 0x1f20f00 vbroadcastss 0x1df7c4(%rip), %ymm4 # 0x1eecb84 vbroadcastss 0x1de656(%rip), %ymm16 # 0x1eeba20 vblendmps %ymm4, %ymm16, %ymm3 {%k2} vmovaps %ymm3, %ymm30 {%k1} vblendmps %ymm16, %ymm4, %ymm3 {%k2} kmovd %k2, %ecx vmovaps %ymm3, %ymm31 {%k1} knotb %k1, %k0 kmovd %k0, %esi orb %cl, %sil andb %al, %sil movl %esi, %eax jmp 0x1d0b61b testb $0x1, %r13b jne 0x1d0d429 movq 0x20(%rsp), %rax vmovaps 0x5a0(%rsp), %ymm0 vcmpleps 0x80(%rax,%rdx,4){1to8}, %ymm0, %k0 kmovb %k0, %eax andl %eax, %r12d setne %r15b jne 0x1d0ad2c andb $0x1, %r15b movl %r15d, %eax leaq -0x28(%rbp), %rsp popq %rbx popq %r12 popq %r13 popq %r14 popq %r15 popq %rbp vzeroupper retq
/embree[P]embree/kernels/geometry/curveNi_intersector.h
void embree::avx512::CurveNiIntersectorK<8, 8>::intersect_t<embree::avx512::SweepCurve1IntersectorK<embree::BSplineCurveT, 8>, embree::avx512::Intersect1KEpilog1<8, true>>(embree::avx512::CurvePrecalculationsK<8>&, embree::RayHitK<8>&, unsigned long, embree::RayQueryContext*, embree::CurveNi<8> const&)
static __forceinline void intersect_t(Precalculations& pre, RayHitK<K>& ray, const size_t k, RayQueryContext* context, const Primitive& prim) { vfloat<M> tNear; vbool<M> valid = intersect(ray,k,prim,tNear); const size_t N = prim.N; size_t mask = movemask(valid); while (mask) { const size_t i = bscf(mask); STAT3(normal.trav_prims,1,1,1); const unsigned int geomID = prim.geomID(N); const unsigned int primID = prim.primID(N)[i]; const CurveGeometry* geom = context->scene->get<CurveGeometry>(geomID); Vec3ff a0,a1,a2,a3; geom->gather(a0,a1,a2,a3,geom->curve(primID)); size_t mask1 = mask; const size_t i1 = bscf(mask1); if (mask) { const unsigned int primID1 = prim.primID(N)[i1]; geom->prefetchL1_vertices(geom->curve(primID1)); if (mask1) { const size_t i2 = bsf(mask1); const unsigned int primID2 = prim.primID(N)[i2]; geom->prefetchL2_vertices(geom->curve(primID2)); } } Intersector().intersect(pre,ray,k,context,geom,primID,a0,a1,a2,a3,Epilog(ray,k,context,geomID,primID)); mask &= movemask(tNear <= vfloat<M>(ray.tfar[k])); } }
pushq %rbp movq %rsp, %rbp pushq %r15 pushq %r14 pushq %r13 pushq %r12 pushq %rbx andq $-0x20, %rsp subq $0xa60, %rsp # imm = 0xA60 movq %rcx, %r15 movq %rsi, %r12 movzbl 0x1(%r8), %ecx leaq (%rcx,%rcx,4), %rax leaq (%rax,%rax,4), %rsi vbroadcastss 0x12(%r8,%rsi), %xmm0 vmovss (%r12,%rdx,4), %xmm1 vmovss 0x80(%r12,%rdx,4), %xmm2 vinsertps $0x10, 0x20(%r12,%rdx,4), %xmm1, %xmm1 # xmm1 = xmm1[0],mem[0],xmm1[2,3] vinsertps $0x20, 0x40(%r12,%rdx,4), %xmm1, %xmm1 # xmm1 = xmm1[0,1],mem[0],xmm1[3] vinsertps $0x10, 0xa0(%r12,%rdx,4), %xmm2, %xmm2 # xmm2 = xmm2[0],mem[0],xmm2[2,3] vinsertps $0x20, 0xc0(%r12,%rdx,4), %xmm2, %xmm2 # xmm2 = xmm2[0,1],mem[0],xmm2[3] vsubps 0x6(%r8,%rsi), %xmm1, %xmm1 vmulps %xmm1, %xmm0, %xmm3 vmulps %xmm2, %xmm0, %xmm0 vpmovsxbd 0x6(%r8,%rcx,4), %ymm1 vpmovsxbd 0x6(%r8,%rax), %ymm2 vcvtdq2ps %ymm1, %ymm5 vcvtdq2ps %ymm2, %ymm6 leaq (%rcx,%rcx,2), %r9 vpmovsxbd 0x6(%r8,%r9,2), %ymm1 vcvtdq2ps %ymm1, %ymm4 leaq (%rcx,%rax,2), %rsi vpmovsxbd 0x6(%r8,%rsi), %ymm1 leal (,%r9,4), %esi vpmovsxbd 0x6(%r8,%rsi), %ymm2 vcvtdq2ps %ymm1, %ymm7 vcvtdq2ps %ymm2, %ymm8 addq %rcx, %rsi vpmovsxbd 0x6(%r8,%rsi), %ymm1 vcvtdq2ps %ymm1, %ymm9 leaq (%rcx,%rcx,8), %rsi leal (%rsi,%rsi), %edi vpmovsxbd 0x6(%r8,%rdi), %ymm1 vcvtdq2ps %ymm1, %ymm10 addq %rcx, %rdi vpmovsxbd 0x6(%r8,%rdi), %ymm1 vcvtdq2ps %ymm1, %ymm11 shll $0x2, %eax vpmovsxbd 0x6(%r8,%rax), %ymm1 vcvtdq2ps %ymm1, %ymm12 vbroadcastss %xmm0, %ymm13 vbroadcastss 0x2051ba(%rip), %ymm15 # 0x1f12704 vbroadcastss 0x213988(%rip), %ymm16 # 0x1f20edc vpermps %ymm0, %ymm15, %ymm14 vpermps %ymm0, %ymm16, %ymm0 vmulps %ymm4, %ymm0, %ymm2 vmulps %ymm0, %ymm9, %ymm1 vmulps %ymm0, %ymm12, %ymm0 vfmadd231ps %ymm6, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm6) + ymm2 vfmadd231ps %ymm8, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm8) + ymm1 vfmadd231ps %ymm14, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm14) + ymm0 vfmadd231ps %ymm5, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm5) + ymm2 vfmadd231ps %ymm7, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm7) + ymm1 vfmadd231ps %ymm13, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm13) + ymm0 vbroadcastss %xmm3, %ymm13 vpermps %ymm3, %ymm15, %ymm14 vpermps %ymm3, %ymm16, %ymm3 vmulps %ymm4, %ymm3, %ymm15 vmulps %ymm3, %ymm9, %ymm4 vmulps %ymm3, %ymm12, %ymm3 vfmadd231ps %ymm6, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm6) + ymm15 vfmadd231ps %ymm8, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm8) + ymm4 vfmadd231ps %ymm11, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm11) + ymm3 vfmadd231ps %ymm5, %ymm13, %ymm15 # ymm15 = (ymm13 * ymm5) + ymm15 vfmadd231ps %ymm7, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm7) + ymm4 vbroadcastss 0x2138fd(%rip), %ymm6 # 0x1f20ec4 vfmadd231ps %ymm10, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm10) + ymm3 vandps %ymm6, %ymm2, %ymm5 vbroadcastss 0x1e3a0f(%rip), %ymm7 # 0x1ef0fe8 vcmpltps %ymm7, %ymm5, %k1 vmovaps %ymm7, %ymm2 {%k1} vandps %ymm6, %ymm1, %ymm5 vcmpltps %ymm7, %ymm5, %k1 vmovaps %ymm7, %ymm1 {%k1} vandps %ymm6, %ymm0, %ymm5 vcmpltps %ymm7, %ymm5, %k1 vmovaps %ymm7, %ymm0 {%k1} vrcp14ps %ymm2, %ymm5 vbroadcastss 0x1df0fd(%rip), %ymm6 # 0x1eec714 vfnmadd213ps %ymm6, %ymm5, %ymm2 # ymm2 = -(ymm5 * ymm2) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm2 # ymm2 = (ymm2 * ymm5) + ymm5 vrcp14ps %ymm1, %ymm5 vfnmadd213ps %ymm6, %ymm5, %ymm1 # ymm1 = -(ymm5 * ymm1) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm1 # ymm1 = (ymm1 * ymm5) + ymm5 vrcp14ps %ymm0, %ymm5 vfnmadd213ps %ymm6, %ymm5, %ymm0 # ymm0 = -(ymm5 * ymm0) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm0 # ymm0 = (ymm0 * ymm5) + ymm5 leaq (,%rcx,8), %rdi subq %rcx, %rdi vpmovsxwd 0x6(%r8,%rdi), %ymm5 vcvtdq2ps %ymm5, %ymm5 vsubps %ymm15, %ymm5, %ymm5 vmulps %ymm5, %ymm2, %ymm5 vpmovsxwd 0x6(%r8,%rsi), %ymm6 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm15, %ymm6, %ymm6 leaq (%rcx,%rcx), %rsi addq %rcx, %rax shlq $0x3, %r9 subq %rcx, %r9 vpbroadcastd %ecx, %ymm7 shll $0x4, %ecx vpmovsxwd 0x6(%r8,%rcx), %ymm8 vmulps %ymm6, %ymm2, %ymm2 subq %rsi, %rcx vpmovsxwd 0x6(%r8,%rcx), %ymm6 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm4, %ymm6, %ymm6 vmulps %ymm6, %ymm1, %ymm6 vcvtdq2ps %ymm8, %ymm8 vsubps %ymm4, %ymm8, %ymm4 vmulps %ymm4, %ymm1, %ymm1 vpmovsxwd 0x6(%r8,%rax), %ymm4 vcvtdq2ps %ymm4, %ymm4 vsubps %ymm3, %ymm4, %ymm4 vmulps %ymm0, %ymm4, %ymm4 vpmovsxwd 0x6(%r8,%r9), %ymm8 vcvtdq2ps %ymm8, %ymm8 vsubps %ymm3, %ymm8, %ymm3 vmulps %ymm3, %ymm0, %ymm0 vpminsd %ymm2, %ymm5, %ymm3 vpminsd %ymm1, %ymm6, %ymm8 vmaxps %ymm8, %ymm3, %ymm3 vpminsd %ymm0, %ymm4, %ymm8 vmaxps 0x60(%r12,%rdx,4){1to8}, %ymm8, %ymm8 vmaxps %ymm8, %ymm3, %ymm3 vmulps 0x212809(%rip){1to8}, %ymm3, %ymm3 # 0x1f1ff10 vpmaxsd %ymm2, %ymm5, %ymm2 vpmaxsd %ymm1, %ymm6, %ymm1 vminps %ymm1, %ymm2, %ymm1 vpmaxsd %ymm0, %ymm4, %ymm0 movq %rdx, 0x18(%rsp) vminps 0x100(%r12,%rdx,4){1to8}, %ymm0, %ymm0 vminps %ymm0, %ymm1, %ymm0 vmulps 0x2127df(%rip){1to8}, %ymm0, %ymm0 # 0x1f1ff14 vpcmpgtd 0x24d1e1(%rip), %ymm7, %k0 # 0x1f5a920 vmovaps %ymm3, 0x680(%rsp) vcmpleps %ymm0, %ymm3, %k1 ktestb %k0, %k1 je 0x1d100b3 kandb %k0, %k1, %k0 kmovd %k0, %eax movzbl %al, %r10d leaq 0x500(%rsp), %rax addq $0xe0, %rax movq %rax, 0x178(%rsp) movl $0x1, %eax movq 0x18(%rsp), %rcx shlxl %ecx, %eax, %eax kmovd %eax, %k0 vpmovm2d %k0, %ymm0 vmovdqa %ymm0, 0x440(%rsp) movq %r15, 0x28(%rsp) movq %r8, 0x180(%rsp) tzcntq %r10, %rax movl 0x2(%r8), %ecx movl 0x6(%r8,%rax,4), %edi movq (%r15), %rax movq 0x1e8(%rax), %rax movq %rcx, 0x50(%rsp) movq (%rax,%rcx,8), %rsi movq 0x58(%rsi), %rax movq 0x68(%rsi), %rcx movq %rcx, %rdx movq %rdi, 0xf0(%rsp) imulq %rdi, %rdx movl (%rax,%rdx), %edi movq 0xa0(%rsi), %rdx movq %rdx, %r9 imulq %rdi, %r9 movq 0x90(%rsi), %rsi vmovaps (%rsi,%r9), %xmm1 leaq 0x1(%rdi), %r9 imulq %rdx, %r9 vmovaps (%rsi,%r9), %xmm0 leaq 0x2(%rdi), %r9 imulq %rdx, %r9 vmovaps (%rsi,%r9), %xmm2 blsrq %r10, %r10 addq $0x3, %rdi imulq %rdx, %rdi vmovaps (%rsi,%rdi), %xmm3 movq %r10, %rdi subq $0x1, %rdi jb 0x1d0d87e andq %r10, %rdi tzcntq %r10, %r9 movl 0x6(%r8,%r9,4), %r9d imulq %rcx, %r9 movl (%rax,%r9), %r9d imulq %rdx, %r9 prefetcht0 (%rsi,%r9) prefetcht0 0x40(%rsi,%r9) testq %rdi, %rdi je 0x1d0d87e tzcntq %rdi, %rdi movl 0x6(%r8,%rdi,4), %edi imulq %rdi, %rcx movl (%rax,%rcx), %eax imulq %rax, %rdx prefetcht1 (%rsi,%rdx) prefetcht1 0x40(%rsi,%rdx) movq 0x18(%rsp), %rax vmovss (%r12,%rax,4), %xmm4 vinsertps $0x1c, 0x20(%r12,%rax,4), %xmm4, %xmm4 # xmm4 = xmm4[0],mem[0],zero,zero vinsertps $0x28, 0x40(%r12,%rax,4), %xmm4, %xmm4 # xmm4 = xmm4[0,1],mem[0],zero vbroadcastss 0x80(%r12,%rax,4), %ymm30 vbroadcastss 0xa0(%r12,%rax,4), %ymm31 vunpcklps %xmm31, %xmm30, %xmm5 # xmm5 = xmm30[0],xmm31[0],xmm30[1],xmm31[1] vbroadcastss 0xc0(%r12,%rax,4), %ymm21 vinsertps $0x28, %xmm21, %xmm5, %xmm9 # xmm9 = xmm5[0,1],xmm21[0],zero vaddps %xmm0, %xmm1, %xmm5 vaddps %xmm2, %xmm5, %xmm5 vaddps %xmm3, %xmm5, %xmm5 vmulps 0x20fa28(%rip){1to4}, %xmm5, %xmm5 # 0x1f1d2fc vsubps %xmm4, %xmm5, %xmm5 vdpps $0x7f, %xmm9, %xmm5, %xmm5 vmovss 0x60(%r12,%rax,4), %xmm10 vdpps $0x7f, %xmm9, %xmm9, %xmm11 vxorps %xmm8, %xmm8, %xmm8 vmovss %xmm11, %xmm8, %xmm6 vrcp14ss %xmm6, %xmm8, %xmm6 vmovaps %xmm6, %xmm7 vfnmadd213ss 0x1e36f1(%rip), %xmm11, %xmm7 # xmm7 = -(xmm11 * xmm7) + mem vmulss %xmm7, %xmm6, %xmm6 vmulss %xmm6, %xmm5, %xmm5 vbroadcastss %xmm5, %ymm6 vmovaps %xmm9, 0x230(%rsp) vmovaps %ymm6, 0x380(%rsp) vfmadd231ps %xmm6, %xmm9, %xmm4 # xmm4 = (xmm9 * xmm6) + xmm4 vblendps $0x8, %xmm8, %xmm4, %xmm4 # xmm4 = xmm4[0,1,2],xmm8[3] vsubps %xmm4, %xmm1, %xmm6 vsubps %xmm4, %xmm2, %xmm7 vsubps %xmm4, %xmm0, %xmm8 vsubps %xmm4, %xmm3, %xmm3 vbroadcastss %xmm6, %ymm0 vmovaps %ymm0, 0x8c0(%rsp) vbroadcastss 0x204dac(%rip), %ymm0 # 0x1f12704 vpermps %ymm6, %ymm0, %ymm1 vmovaps %ymm1, 0x8a0(%rsp) vbroadcastss 0x21356d(%rip), %ymm1 # 0x1f20edc vpermps %ymm6, %ymm1, %ymm2 vmovaps %ymm2, 0x880(%rsp) vbroadcastss 0x213552(%rip), %ymm2 # 0x1f20ed8 vmovaps %ymm6, 0x2a0(%rsp) vpermps %ymm6, %ymm2, %ymm4 vmovaps %ymm4, 0x860(%rsp) vbroadcastss %xmm8, %ymm4 vmovaps %ymm4, 0x840(%rsp) vpermps %ymm8, %ymm0, %ymm4 vmovaps %ymm4, 0x820(%rsp) vpermps %ymm8, %ymm1, %ymm4 vmovaps %ymm4, 0x800(%rsp) vmovaps %ymm8, 0x260(%rsp) vpermps %ymm8, %ymm2, %ymm4 vmovaps %ymm4, 0x7e0(%rsp) vbroadcastss %xmm7, %ymm4 vmovaps %ymm4, 0x7c0(%rsp) vpermps %ymm7, %ymm0, %ymm4 vmovaps %ymm4, 0x7a0(%rsp) vpermps %ymm7, %ymm1, %ymm4 vmovaps %ymm4, 0x780(%rsp) vmovaps %ymm7, 0x280(%rsp) vpermps %ymm7, %ymm2, %ymm4 vmovaps %ymm4, 0x760(%rsp) vbroadcastss %xmm3, %ymm4 vmovaps %ymm4, 0x740(%rsp) vpermps %ymm3, %ymm0, %ymm0 vmovaps %ymm0, 0x720(%rsp) vpermps %ymm3, %ymm1, %ymm0 vmovaps %ymm0, 0x700(%rsp) vmovaps %ymm3, 0x240(%rsp) vpermps %ymm3, %ymm2, %ymm0 vmovaps %ymm0, 0x6e0(%rsp) vmulss %xmm21, %xmm21, %xmm0 vfmadd231ps %ymm31, %ymm31, %ymm0 # ymm0 = (ymm31 * ymm31) + ymm0 vfmadd231ps %ymm30, %ymm30, %ymm0 # ymm0 = (ymm30 * ymm30) + ymm0 vbroadcastss %xmm0, %ymm0 vmovaps %ymm0, 0x6c0(%rsp) vandps 0x21343a(%rip){1to8}, %ymm0, %ymm0 # 0x1f20ec4 vmovaps %ymm0, 0x4c0(%rsp) vmovss %xmm10, 0x5c(%rsp) vmovaps %xmm5, 0x300(%rsp) vsubss %xmm5, %xmm10, %xmm0 vbroadcastss %xmm0, %ymm0 vmovaps %ymm0, 0x6a0(%rsp) movq 0x50(%rsp), %rax vpbroadcastd %eax, %ymm0 vmovdqa %ymm0, 0x480(%rsp) movl $0x1, %r11d xorl %r9d, %r9d movq 0xf0(%rsp), %rax vpbroadcastd %eax, %ymm0 vmovdqa %ymm0, 0x460(%rsp) vsqrtss %xmm11, %xmm11, %xmm0 vmovss %xmm0, 0x10c(%rsp) vmovaps %xmm11, 0x220(%rsp) vsqrtss %xmm11, %xmm11, %xmm0 vmovss %xmm0, 0x108(%rsp) vmovsd 0x1debdb(%rip), %xmm2 # 0x1eec6f0 vbroadcastss 0x1debf5(%rip), %ymm16 # 0x1eec714 vmovaps %ymm30, 0x4e0(%rsp) vmovaps %ymm31, 0x1c0(%rsp) vmovaps %ymm21, 0x1a0(%rsp) vmovshdup %xmm2, %xmm0 # xmm0 = xmm2[1,1,3,3] vsubss %xmm2, %xmm0, %xmm0 vmulss 0x213389(%rip), %xmm0, %xmm1 # 0x1f20ed0 vmovaps %xmm1, 0x80(%rsp) vmovaps %xmm2, 0x160(%rsp) vbroadcastss %xmm2, %ymm4 vbroadcastss %xmm0, %ymm0 vmovaps %ymm4, 0x60(%rsp) vmovaps %ymm0, 0x200(%rsp) vfmadd231ps 0x2133a5(%rip), %ymm0, %ymm4 # ymm4 = (ymm0 * mem) + ymm4 vsubps %ymm4, %ymm16, %ymm7 vmulps %ymm7, %ymm7, %ymm8 vmulps %ymm7, %ymm8, %ymm0 vbroadcastss 0x1deff9(%rip), %ymm30 # 0x1eecb8c vmulps %ymm30, %ymm0, %ymm1 vmulps %ymm4, %ymm4, %ymm9 vmulps %ymm4, %ymm9, %ymm2 vaddps %ymm1, %ymm2, %ymm1 vmulps %ymm7, %ymm4, %ymm10 vmulps %ymm7, %ymm10, %ymm5 vbroadcastss 0x1e3446(%rip), %ymm14 # 0x1ef0ffc vmulps %ymm5, %ymm14, %ymm11 vmulps %ymm4, %ymm10, %ymm12 vbroadcastss 0x1e342d(%rip), %ymm15 # 0x1ef0ff4 vmulps %ymm15, %ymm12, %ymm13 vaddps %ymm13, %ymm11, %ymm11 vaddps %ymm1, %ymm11, %ymm1 vmulps %ymm30, %ymm2, %ymm11 vaddps %ymm0, %ymm11, %ymm11 vmulps %ymm14, %ymm12, %ymm12 vmulps %ymm5, %ymm15, %ymm5 vaddps %ymm5, %ymm12, %ymm5 vaddps %ymm5, %ymm11, %ymm5 vbroadcastss 0x1e3407(%rip), %ymm14 # 0x1ef1000 vmulps %ymm0, %ymm14, %ymm11 vmulps %ymm1, %ymm14, %ymm12 vmulps %ymm5, %ymm14, %ymm13 vmulps %ymm2, %ymm14, %ymm5 vmovaps 0x740(%rsp), %ymm25 vmulps %ymm5, %ymm25, %ymm0 vmovaps 0x720(%rsp), %ymm27 vmulps %ymm5, %ymm27, %ymm2 vmovaps 0x700(%rsp), %ymm28 vmulps %ymm5, %ymm28, %ymm1 vmovaps 0x6e0(%rsp), %ymm29 vmulps %ymm5, %ymm29, %ymm5 vmovaps 0x7c0(%rsp), %ymm20 vfmadd231ps %ymm20, %ymm13, %ymm0 # ymm0 = (ymm13 * ymm20) + ymm0 vmovaps 0x7a0(%rsp), %ymm22 vfmadd231ps %ymm22, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm22) + ymm2 vmovaps 0x780(%rsp), %ymm23 vfmadd231ps %ymm23, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm23) + ymm1 vmovaps 0x760(%rsp), %ymm24 vfmadd231ps %ymm13, %ymm24, %ymm5 # ymm5 = (ymm24 * ymm13) + ymm5 vmovaps 0x840(%rsp), %ymm16 vfmadd231ps %ymm16, %ymm12, %ymm0 # ymm0 = (ymm12 * ymm16) + ymm0 vmovaps 0x820(%rsp), %ymm17 vfmadd231ps %ymm17, %ymm12, %ymm2 # ymm2 = (ymm12 * ymm17) + ymm2 vmovaps 0x800(%rsp), %ymm18 vfmadd231ps %ymm18, %ymm12, %ymm1 # ymm1 = (ymm12 * ymm18) + ymm1 vmovaps 0x7e0(%rsp), %ymm19 vfmadd231ps %ymm12, %ymm19, %ymm5 # ymm5 = (ymm19 * ymm12) + ymm5 vmovaps 0x8c0(%rsp), %ymm6 vfmadd231ps %ymm6, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm6) + ymm0 vmovaps 0x8a0(%rsp), %ymm3 vfmadd231ps %ymm3, %ymm11, %ymm2 # ymm2 = (ymm11 * ymm3) + ymm2 vmovaps 0x880(%rsp), %ymm14 vfmadd231ps %ymm14, %ymm11, %ymm1 # ymm1 = (ymm11 * ymm14) + ymm1 vmovaps 0x860(%rsp), %ymm15 vfmadd231ps %ymm11, %ymm15, %ymm5 # ymm5 = (ymm15 * ymm11) + ymm5 vbroadcastss 0x2131cd(%rip), %ymm26 # 0x1f20ec0 vxorps %ymm26, %ymm7, %ymm11 vmulps %ymm7, %ymm11, %ymm7 vxorps %ymm26, %ymm4, %ymm11 vmulps %ymm4, %ymm11, %ymm4 vmulps %ymm30, %ymm10, %ymm10 vsubps %ymm10, %ymm4, %ymm4 vaddps %ymm10, %ymm8, %ymm8 vbroadcastss 0x1dee60(%rip), %ymm10 # 0x1eecb80 vmulps %ymm7, %ymm10, %ymm7 vmulps %ymm4, %ymm10, %ymm4 vmulps %ymm10, %ymm8, %ymm8 vmulps %ymm10, %ymm9, %ymm9 vmulps %ymm9, %ymm25, %ymm10 vmulps %ymm9, %ymm27, %ymm12 vmulps %ymm9, %ymm28, %ymm13 vmulps %ymm9, %ymm29, %ymm9 vfmadd231ps %ymm20, %ymm8, %ymm10 # ymm10 = (ymm8 * ymm20) + ymm10 vfmadd231ps %ymm22, %ymm8, %ymm12 # ymm12 = (ymm8 * ymm22) + ymm12 vfmadd231ps %ymm23, %ymm8, %ymm13 # ymm13 = (ymm8 * ymm23) + ymm13 vfmadd231ps %ymm8, %ymm24, %ymm9 # ymm9 = (ymm24 * ymm8) + ymm9 vfmadd231ps %ymm16, %ymm4, %ymm10 # ymm10 = (ymm4 * ymm16) + ymm10 vfmadd231ps %ymm17, %ymm4, %ymm12 # ymm12 = (ymm4 * ymm17) + ymm12 vfmadd231ps %ymm18, %ymm4, %ymm13 # ymm13 = (ymm4 * ymm18) + ymm13 vfmadd231ps %ymm4, %ymm19, %ymm9 # ymm9 = (ymm19 * ymm4) + ymm9 vfmadd231ps %ymm6, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm6) + ymm10 vfmadd231ps %ymm3, %ymm7, %ymm12 # ymm12 = (ymm7 * ymm3) + ymm12 vfmadd231ps %ymm14, %ymm7, %ymm13 # ymm13 = (ymm7 * ymm14) + ymm13 vfmadd231ps %ymm7, %ymm15, %ymm9 # ymm9 = (ymm15 * ymm7) + ymm9 vbroadcastss 0x80(%rsp), %ymm4 vmulps %ymm4, %ymm10, %ymm11 vmulps %ymm4, %ymm12, %ymm12 vmulps %ymm4, %ymm13, %ymm13 vmulps %ymm4, %ymm9, %ymm6 vmovaps %ymm0, %ymm8 vmovaps 0x251f6c(%rip), %ymm7 # 0x1f5fd20 vmovaps %ymm31, %ymm3 vxorps %xmm31, %xmm31, %xmm31 vpermt2ps %ymm31, %ymm7, %ymm8 vmovaps %ymm2, %ymm9 vpermt2ps %ymm31, %ymm7, %ymm9 vmovaps %ymm1, %ymm10 vpermt2ps %ymm31, %ymm7, %ymm10 vaddps %ymm5, %ymm6, %ymm4 vmaxps %ymm4, %ymm5, %ymm14 vminps %ymm4, %ymm5, %ymm4 vmovaps %ymm5, %ymm15 vpermt2ps %ymm31, %ymm7, %ymm15 vmovaps %ymm11, %ymm19 vpermt2ps %ymm31, %ymm7, %ymm19 vmovaps %ymm12, %ymm20 vpermt2ps %ymm31, %ymm7, %ymm20 vmovaps %ymm13, %ymm5 vpermt2ps %ymm31, %ymm7, %ymm5 vpermt2ps %ymm31, %ymm7, %ymm6 vsubps %ymm6, %ymm15, %ymm16 vsubps %ymm0, %ymm8, %ymm7 vsubps %ymm2, %ymm9, %ymm6 vsubps %ymm1, %ymm10, %ymm27 vmulps %ymm13, %ymm6, %ymm17 vfmsub231ps %ymm27, %ymm12, %ymm17 # ymm17 = (ymm12 * ymm27) - ymm17 vmulps %ymm11, %ymm27, %ymm18 vfmsub231ps %ymm7, %ymm13, %ymm18 # ymm18 = (ymm13 * ymm7) - ymm18 vmulps %ymm12, %ymm7, %ymm22 vfmsub231ps %ymm6, %ymm11, %ymm22 # ymm22 = (ymm11 * ymm6) - ymm22 vmulps %ymm22, %ymm22, %ymm22 vfmadd231ps %ymm18, %ymm18, %ymm22 # ymm22 = (ymm18 * ymm18) + ymm22 vfmadd231ps %ymm17, %ymm17, %ymm22 # ymm22 = (ymm17 * ymm17) + ymm22 vmulps %ymm27, %ymm27, %ymm17 vfmadd231ps %ymm6, %ymm6, %ymm17 # ymm17 = (ymm6 * ymm6) + ymm17 vfmadd231ps %ymm7, %ymm7, %ymm17 # ymm17 = (ymm7 * ymm7) + ymm17 vrcp14ps %ymm17, %ymm18 vmovaps %ymm18, %ymm23 vbroadcastss 0x1de88a(%rip), %ymm24 # 0x1eec714 vmovaps %ymm24, %ymm26 vfnmadd213ps %ymm24, %ymm17, %ymm23 # ymm23 = -(ymm17 * ymm23) + ymm24 vfmadd132ps %ymm18, %ymm18, %ymm23 # ymm23 = (ymm23 * ymm18) + ymm18 vmulps %ymm23, %ymm22, %ymm18 vmulps %ymm5, %ymm6, %ymm22 vfmsub231ps %ymm27, %ymm20, %ymm22 # ymm22 = (ymm20 * ymm27) - ymm22 vmulps %ymm19, %ymm27, %ymm24 vfmsub231ps %ymm7, %ymm5, %ymm24 # ymm24 = (ymm5 * ymm7) - ymm24 vmulps %ymm20, %ymm7, %ymm25 vfmsub231ps %ymm6, %ymm19, %ymm25 # ymm25 = (ymm19 * ymm6) - ymm25 vmulps %ymm25, %ymm25, %ymm25 vfmadd231ps %ymm24, %ymm24, %ymm25 # ymm25 = (ymm24 * ymm24) + ymm25 vfmadd231ps %ymm22, %ymm22, %ymm25 # ymm25 = (ymm22 * ymm22) + ymm25 vmulps %ymm23, %ymm25, %ymm22 vmaxps %ymm22, %ymm18, %ymm18 vsqrtps %ymm18, %ymm18 vmaxps %ymm15, %ymm16, %ymm22 vmaxps %ymm22, %ymm14, %ymm14 vaddps %ymm14, %ymm18, %ymm14 vminps %ymm15, %ymm16, %ymm15 vminps %ymm15, %ymm4, %ymm4 vsubps %ymm18, %ymm4, %ymm4 vmulps 0x1e2a29(%rip){1to8}, %ymm14, %ymm14 # 0x1ef0940 vmulps 0x1e2a23(%rip){1to8}, %ymm4, %ymm4 # 0x1ef0944 vmovaps %ymm4, 0x80(%rsp) vmulps %ymm14, %ymm14, %ymm4 vrsqrt14ps %ymm17, %ymm15 vmulps 0x1de7dd(%rip){1to8}, %ymm17, %ymm14 # 0x1eec71c vmulps %ymm14, %ymm15, %ymm14 vmulps %ymm15, %ymm15, %ymm16 vmulps %ymm14, %ymm16, %ymm14 vfmadd231ps 0x1de7be(%rip){1to8}, %ymm15, %ymm14 # ymm14 = (ymm15 * mem) + ymm14 vmulps %ymm7, %ymm14, %ymm15 vmulps %ymm14, %ymm6, %ymm16 vmovaps %ymm27, 0x3a0(%rsp) vmulps %ymm14, %ymm27, %ymm18 vmovaps %ymm0, 0x140(%rsp) vsubps %ymm0, %ymm31, %ymm27 vmovaps %ymm2, 0xa0(%rsp) vsubps %ymm2, %ymm31, %ymm28 vmovaps %ymm1, 0x1e0(%rsp) vsubps %ymm1, %ymm31, %ymm29 vmulps %ymm29, %ymm21, %ymm22 vfmadd231ps %ymm28, %ymm3, %ymm22 # ymm22 = (ymm3 * ymm28) + ymm22 vmovaps 0x4e0(%rsp), %ymm0 vfmadd231ps %ymm27, %ymm0, %ymm22 # ymm22 = (ymm0 * ymm27) + ymm22 vmulps %ymm29, %ymm29, %ymm24 vfmadd231ps %ymm28, %ymm28, %ymm24 # ymm24 = (ymm28 * ymm28) + ymm24 vfmadd231ps %ymm27, %ymm27, %ymm24 # ymm24 = (ymm27 * ymm27) + ymm24 vmulps %ymm18, %ymm21, %ymm17 vfmadd231ps %ymm3, %ymm16, %ymm17 # ymm17 = (ymm16 * ymm3) + ymm17 vfmadd231ps %ymm0, %ymm15, %ymm17 # ymm17 = (ymm15 * ymm0) + ymm17 vmulps %ymm18, %ymm29, %ymm18 vfmadd231ps %ymm16, %ymm28, %ymm18 # ymm18 = (ymm28 * ymm16) + ymm18 vfmadd231ps %ymm15, %ymm27, %ymm18 # ymm18 = (ymm27 * ymm15) + ymm18 vmulps %ymm17, %ymm17, %ymm2 vmovaps 0x6c0(%rsp), %ymm3 vsubps %ymm2, %ymm3, %ymm15 vmulps %ymm18, %ymm17, %ymm25 vsubps %ymm25, %ymm22, %ymm22 vaddps %ymm22, %ymm22, %ymm22 vmulps %ymm18, %ymm18, %ymm25 vsubps %ymm25, %ymm24, %ymm1 vsubps %ymm4, %ymm1, %ymm4 vmulps %ymm22, %ymm22, %ymm25 vmulps %ymm30, %ymm15, %ymm24 vmulps %ymm4, %ymm24, %ymm30 vsubps %ymm30, %ymm25, %ymm30 vcmpnltps %ymm31, %ymm30, %k1 kmovd %k1, %eax kortestb %k1, %k1 je 0x1d0e130 vsqrtps %ymm30, %ymm30 vaddps %ymm15, %ymm15, %ymm31 vrcp14ps %ymm31, %ymm3 vfnmadd213ps %ymm26, %ymm3, %ymm31 # ymm31 = -(ymm3 * ymm31) + ymm26 vfmadd132ps %ymm3, %ymm3, %ymm31 # ymm31 = (ymm31 * ymm3) + ymm3 vxorps 0x212e46(%rip){1to8}, %ymm22, %ymm3 # 0x1f20ec0 vsubps %ymm30, %ymm3, %ymm3 vmulps %ymm31, %ymm3, %ymm3 vsubps %ymm22, %ymm30, %ymm30 vmulps %ymm31, %ymm30, %ymm31 vmovaps %ymm17, %ymm30 vfmadd213ps %ymm18, %ymm3, %ymm30 # ymm30 = (ymm3 * ymm30) + ymm18 vmulps %ymm30, %ymm14, %ymm30 vmovaps %ymm30, 0x420(%rsp) vmovaps %ymm17, %ymm30 vfmadd213ps %ymm18, %ymm31, %ymm30 # ymm30 = (ymm31 * ymm30) + ymm18 vmulps %ymm30, %ymm14, %ymm30 vmovaps %ymm30, 0x400(%rsp) vbroadcastss 0x1dd950(%rip), %ymm16 # 0x1eeba20 vblendmps %ymm3, %ymm16, %ymm30 {%k1} vbroadcastss 0x1deaa5(%rip), %ymm3 # 0x1eecb84 vblendmps %ymm31, %ymm3, %ymm31 {%k1} vbroadcastss 0x212dd5(%rip), %ymm23 # 0x1f20ec4 vandps %ymm23, %ymm2, %ymm3 vmovaps 0x4c0(%rsp), %ymm16 vmaxps %ymm3, %ymm16, %ymm3 vmulps 0x1e3da7(%rip){1to8}, %ymm3, %ymm3 # 0x1ef1eb4 vandps %ymm23, %ymm15, %ymm23 vcmpltps %ymm3, %ymm23, %k1 {%k1} kortestb %k1, %k1 jne 0x1d10042 vbroadcastss 0x1de5e6(%rip), %ymm16 # 0x1eec714 jmp 0x1d0e14a vbroadcastss 0x1dd8e6(%rip), %ymm30 # 0x1eeba20 vbroadcastss 0x1dea40(%rip), %ymm31 # 0x1eecb84 vmovaps %ymm26, %ymm16 andb $0x7f, %al je 0x1d0e540 movq 0x18(%rsp), %rcx vmovss 0x100(%r12,%rcx,4), %xmm3 vsubss 0x300(%rsp), %xmm3, %xmm3 vbroadcastss %xmm3, %ymm3 vminps %ymm31, %ymm3, %ymm3 vmovaps 0x6a0(%rsp), %ymm4 vmaxps %ymm30, %ymm4, %ymm4 vmulps %ymm29, %ymm13, %ymm23 vfmadd213ps %ymm23, %ymm12, %ymm28 # ymm28 = (ymm12 * ymm28) + ymm23 vfmadd213ps %ymm28, %ymm11, %ymm27 # ymm27 = (ymm11 * ymm27) + ymm28 vmovaps 0x1a0(%rsp), %ymm21 vmulps %ymm13, %ymm21, %ymm13 vmovaps 0x1c0(%rsp), %ymm31 vfmadd231ps %ymm12, %ymm31, %ymm13 # ymm13 = (ymm31 * ymm12) + ymm13 vmovaps 0x4e0(%rsp), %ymm30 vfmadd231ps %ymm11, %ymm30, %ymm13 # ymm13 = (ymm30 * ymm11) + ymm13 vbroadcastss 0x212cfa(%rip), %ymm28 # 0x1f20ec4 vandps %ymm28, %ymm13, %ymm11 vbroadcastss 0x1e2e0e(%rip), %ymm29 # 0x1ef0fe8 vcmpltps %ymm29, %ymm11, %k0 vbroadcastss 0x212cd5(%rip), %ymm26 # 0x1f20ec0 vxorps %ymm26, %ymm27, %ymm11 vrcp14ps %ymm13, %ymm12 vxorps %ymm26, %ymm13, %ymm23 vmovaps %ymm12, %ymm27 vfnmadd213ps %ymm16, %ymm13, %ymm27 # ymm27 = -(ymm13 * ymm27) + ymm16 vfmadd132ps %ymm12, %ymm12, %ymm27 # ymm27 = (ymm27 * ymm12) + ymm12 vmulps %ymm11, %ymm27, %ymm11 vcmpltps %ymm23, %ymm13, %k1 korb %k1, %k0, %k1 vbroadcastss 0x1de95a(%rip), %ymm27 # 0x1eecb84 vblendmps %ymm27, %ymm11, %ymm12 {%k1} vmaxps %ymm12, %ymm4, %ymm4 vcmpnleps %ymm23, %ymm13, %k1 korb %k1, %k0, %k1 vbroadcastss 0x1dd7d6(%rip), %ymm23 # 0x1eeba20 vmovaps %ymm23, %ymm11 {%k1} vminps %ymm11, %ymm3, %ymm3 vxorps %xmm13, %xmm13, %xmm13 vsubps %ymm8, %ymm13, %ymm8 vsubps %ymm9, %ymm13, %ymm9 vsubps %ymm10, %ymm13, %ymm10 vmulps %ymm5, %ymm10, %ymm10 vfnmsub231ps %ymm9, %ymm20, %ymm10 # ymm10 = -(ymm20 * ymm9) - ymm10 vfnmadd231ps %ymm8, %ymm19, %ymm10 # ymm10 = -(ymm19 * ymm8) + ymm10 vmulps %ymm5, %ymm21, %ymm8 vfnmsub231ps %ymm20, %ymm31, %ymm8 # ymm8 = -(ymm31 * ymm20) - ymm8 vfnmadd231ps %ymm19, %ymm30, %ymm8 # ymm8 = -(ymm30 * ymm19) + ymm8 vandps %ymm28, %ymm8, %ymm9 vcmpltps %ymm29, %ymm9, %k0 vxorps %ymm26, %ymm10, %ymm9 vrcp14ps %ymm8, %ymm10 vxorps %ymm26, %ymm8, %ymm11 vmovaps %ymm10, %ymm12 vfnmadd213ps %ymm16, %ymm8, %ymm12 # ymm12 = -(ymm8 * ymm12) + ymm16 vfmadd132ps %ymm10, %ymm10, %ymm12 # ymm12 = (ymm12 * ymm10) + ymm10 vmulps %ymm9, %ymm12, %ymm9 vcmpltps %ymm11, %ymm8, %k1 korb %k1, %k0, %k1 vblendmps %ymm27, %ymm9, %ymm10 {%k1} vmaxps %ymm10, %ymm4, %ymm0 vcmpnleps %ymm11, %ymm8, %k1 korb %k1, %k0, %k1 vmovaps %ymm23, %ymm9 {%k1} vminps %ymm9, %ymm3, %ymm8 vmovaps %ymm0, 0x360(%rsp) vcmpleps %ymm8, %ymm0, %k0 kmovd %k0, %ecx andb %cl, %al je 0x1d0ff31 vmovaps 0x420(%rsp), %ymm3 vmaxps 0x80(%rsp), %ymm13, %ymm4 vminps %ymm16, %ymm3, %ymm3 vxorps %xmm10, %xmm10, %xmm10 vmaxps %ymm10, %ymm3, %ymm3 vmovaps 0x400(%rsp), %ymm9 vminps %ymm16, %ymm9, %ymm9 vmovaps 0x212c00(%rip), %ymm11 # 0x1f20f40 vaddps %ymm3, %ymm11, %ymm3 vbroadcastss 0x21016b(%rip), %ymm12 # 0x1f1e4b8 vmulps %ymm3, %ymm12, %ymm3 vmovaps 0x60(%rsp), %ymm0 vmovaps %ymm1, %ymm5 vmovaps 0x200(%rsp), %ymm1 vfmadd213ps %ymm0, %ymm1, %ymm3 # ymm3 = (ymm1 * ymm3) + ymm0 vmovaps %ymm3, 0x420(%rsp) vmaxps %ymm10, %ymm9, %ymm3 vaddps %ymm3, %ymm11, %ymm3 vmulps %ymm3, %ymm12, %ymm3 vfmadd213ps %ymm0, %ymm1, %ymm3 # ymm3 = (ymm1 * ymm3) + ymm0 vmovaps %ymm3, 0x400(%rsp) vmulps %ymm4, %ymm4, %ymm3 vsubps %ymm3, %ymm5, %ymm11 vmulps %ymm11, %ymm24, %ymm3 vsubps %ymm3, %ymm25, %ymm3 vcmpnltps %ymm10, %ymm3, %k0 kortestb %k0, %k0 je 0x1d0e555 vxorps %xmm20, %xmm20, %xmm20 vcmpnltps %ymm13, %ymm3, %k1 vsqrtps %ymm3, %ymm3 vaddps %ymm15, %ymm15, %ymm4 vrcp14ps %ymm4, %ymm9 vfnmadd213ps %ymm16, %ymm9, %ymm4 # ymm4 = -(ymm9 * ymm4) + ymm16 vfmadd132ps %ymm9, %ymm9, %ymm4 # ymm4 = (ymm4 * ymm9) + ymm9 vxorps 0x212add(%rip){1to8}, %ymm22, %ymm9 # 0x1f20ec0 vsubps %ymm3, %ymm9, %ymm9 vmulps %ymm4, %ymm9, %ymm12 vsubps %ymm22, %ymm3, %ymm3 vmulps %ymm4, %ymm3, %ymm13 vmovaps %ymm17, %ymm3 vfmadd213ps %ymm18, %ymm12, %ymm3 # ymm3 = (ymm12 * ymm3) + ymm18 vmulps %ymm3, %ymm14, %ymm9 vmulps %ymm12, %ymm30, %ymm3 vmulps %ymm12, %ymm31, %ymm4 vmulps %ymm12, %ymm21, %ymm10 vmovaps %ymm7, %ymm19 vmovaps %ymm2, %ymm16 vmovaps 0x140(%rsp), %ymm2 vfmadd213ps %ymm2, %ymm9, %ymm19 # ymm19 = (ymm9 * ymm19) + ymm2 vsubps %ymm19, %ymm3, %ymm3 vmovaps %ymm6, %ymm19 vmovaps 0xa0(%rsp), %ymm1 vfmadd213ps %ymm1, %ymm9, %ymm19 # ymm19 = (ymm9 * ymm19) + ymm1 vsubps %ymm19, %ymm4, %ymm4 vmovaps 0x1e0(%rsp), %ymm0 vmovaps 0x3a0(%rsp), %ymm5 vfmadd213ps %ymm0, %ymm5, %ymm9 # ymm9 = (ymm5 * ymm9) + ymm0 vsubps %ymm9, %ymm10, %ymm9 vfmadd213ps %ymm18, %ymm13, %ymm17 # ymm17 = (ymm13 * ymm17) + ymm18 vmulps %ymm17, %ymm14, %ymm14 vmulps %ymm13, %ymm30, %ymm10 vmulps %ymm13, %ymm31, %ymm17 vmulps %ymm13, %ymm21, %ymm18 vfmadd213ps %ymm2, %ymm14, %ymm7 # ymm7 = (ymm14 * ymm7) + ymm2 vsubps %ymm7, %ymm10, %ymm10 vfmadd213ps %ymm1, %ymm14, %ymm6 # ymm6 = (ymm14 * ymm6) + ymm1 vsubps %ymm6, %ymm17, %ymm1 vfmadd213ps %ymm0, %ymm14, %ymm5 # ymm5 = (ymm14 * ymm5) + ymm0 vsubps %ymm5, %ymm18, %ymm5 vbroadcastss 0x1dd56b(%rip), %ymm0 # 0x1eeba20 vblendmps %ymm12, %ymm0, %ymm2 {%k1} vbroadcastss 0x1de6c0(%rip), %ymm0 # 0x1eecb84 vblendmps %ymm13, %ymm0, %ymm0 {%k1} vbroadcastss 0x2129f1(%rip), %ymm7 # 0x1f20ec4 vandps %ymm7, %ymm16, %ymm6 vmovaps 0x4c0(%rsp), %ymm12 vmaxps %ymm6, %ymm12, %ymm6 vmulps 0x1e39c4(%rip){1to8}, %ymm6, %ymm6 # 0x1ef1eb4 vandps %ymm7, %ymm15, %ymm7 vcmpltps %ymm6, %ymm7, %k1 {%k1} kortestb %k1, %k1 je 0x1d0e57c vcmpleps %ymm20, %ymm11, %k2 vbroadcastss 0x1de673(%rip), %ymm7 # 0x1eecb84 vbroadcastss 0x1dd506(%rip), %ymm11 # 0x1eeba20 vblendmps %ymm7, %ymm11, %ymm6 {%k2} vmovaps %ymm6, %ymm2 {%k1} vblendmps %ymm11, %ymm7, %ymm6 {%k2} vmovaps %ymm6, %ymm0 {%k1} knotb %k1, %k1 korb %k2, %k1, %k1 kandb %k0, %k1, %k0 jmp 0x1d0e57c vmovaps 0x1c0(%rsp), %ymm31 vmovaps 0x1a0(%rsp), %ymm21 jmp 0x1d0ff31 vxorps %xmm1, %xmm1, %xmm1 vxorps %xmm5, %xmm5, %xmm5 vxorps %xmm3, %xmm3, %xmm3 vxorps %xmm4, %xmm4, %xmm4 vxorps %xmm9, %xmm9, %xmm9 vbroadcastss 0x1dd4ad(%rip), %ymm2 # 0x1eeba20 vbroadcastss 0x1de608(%rip), %ymm0 # 0x1eecb84 vbroadcastss 0x21293f(%rip), %xmm11 # 0x1f20ec4 vmulps %ymm5, %ymm21, %ymm5 vfmadd231ps %ymm1, %ymm31, %ymm5 # ymm5 = (ymm31 * ymm1) + ymm5 vfmadd231ps %ymm10, %ymm30, %ymm5 # ymm5 = (ymm30 * ymm10) + ymm5 vmovaps 0x360(%rsp), %ymm7 vmovaps %ymm7, 0x8e0(%rsp) vminps %ymm2, %ymm8, %ymm1 vmovaps %ymm1, 0x900(%rsp) vbroadcastss 0x212905(%rip), %ymm6 # 0x1f20ec4 vandps %ymm6, %ymm5, %ymm2 vmaxps %ymm0, %ymm7, %ymm5 vmovaps %ymm5, 0x620(%rsp) vmovaps %ymm8, 0x640(%rsp) vbroadcastss 0x2128f2(%rip), %ymm0 # 0x1f20ed4 vcmpltps %ymm0, %ymm2, %k1 kmovd %k1, 0x104(%rsp) vcmpleps %ymm1, %ymm7, %k1 kmovd %k1, %ecx andb %al, %cl vmovaps %ymm5, 0x3c0(%rsp) vcmpleps %ymm8, %ymm5, %k1 kmovd %k1, %edx andb %al, %dl movl %edx, %eax orb %cl, %al je 0x1d0fefb vmovaps %ymm0, %ymm2 movl %edx, 0x34(%rsp) movq %r9, 0x190(%rsp) movq %r10, 0x198(%rsp) knotb %k0, %k1 vmulps %ymm9, %ymm21, %ymm0 vfmadd213ps %ymm0, %ymm31, %ymm4 # ymm4 = (ymm31 * ymm4) + ymm0 vfmadd213ps %ymm4, %ymm30, %ymm3 # ymm3 = (ymm30 * ymm3) + ymm4 vandps %ymm6, %ymm3, %ymm0 vcmpltps %ymm2, %ymm0, %k0 kmovd %k1, 0xfc(%rsp) korb %k1, %k0, %k1 vpbroadcastd 0x21286c(%rip), %ymm0 # 0x1f20edc vpblendmd 0x21285e(%rip){1to8}, %ymm0, %ymm0 {%k1} # 0x1f20ed8 movq %r11, 0x188(%rsp) vpbroadcastd %r11d, %ymm1 vmovdqa %ymm0, 0x660(%rsp) vmovdqa %ymm1, 0x4a0(%rsp) vpcmpnltd %ymm0, %ymm1, %k0 kmovd %k0, %ebx movl %ecx, 0x100(%rsp) andb %cl, %bl je 0x1d0f22d vmovaps 0x2a0(%rsp), %ymm1 vmovaps 0x260(%rsp), %ymm2 vminps %xmm2, %xmm1, %xmm0 vmaxps %xmm2, %xmm1, %xmm1 vmovaps 0x280(%rsp), %ymm3 vmovaps 0x240(%rsp), %ymm4 vminps %xmm4, %xmm3, %xmm2 vminps %xmm2, %xmm0, %xmm0 vmaxps %xmm4, %xmm3, %xmm2 vmaxps %xmm2, %xmm1, %xmm1 vandps %xmm0, %xmm11, %xmm0 vandps %xmm1, %xmm11, %xmm2 vmaxps %xmm2, %xmm0, %xmm0 vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3] vmaxss %xmm0, %xmm2, %xmm2 vshufpd $0x1, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[1,0] vmaxss %xmm2, %xmm0, %xmm0 vmulss 0x1e379f(%rip), %xmm0, %xmm0 # 0x1ef1eb4 vmovss %xmm0, 0x44(%rsp) vshufps $0xff, %xmm1, %xmm1, %xmm0 # xmm0 = xmm1[3,3,3,3] vmovaps %xmm0, 0x2f0(%rsp) vmovaps 0x360(%rsp), %ymm0 vaddps 0x380(%rsp), %ymm0, %ymm0 vmovaps %ymm0, 0x3e0(%rsp) kmovd %ebx, %k1 vbroadcastss 0x1dd2cf(%rip), %ymm0 # 0x1eeba20 vblendmps 0x360(%rsp), %ymm0, %ymm0 {%k1} vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm0, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1] vminps %ymm2, %ymm1, %ymm1 vcmpeqps %ymm1, %ymm0, %k0 kmovd %k0, %eax andb %bl, %al movzbl %al, %eax movzbl %bl, %ecx cmovnel %eax, %ecx tzcntl %ecx, %ecx movb $0x1, %bl shlb %cl, %bl shll $0x2, %ecx vmovss 0x420(%rsp,%rcx), %xmm10 vmovss 0x8e0(%rsp,%rcx), %xmm8 vmovaps 0x220(%rsp), %xmm0 vucomiss 0x1dd26b(%rip), %xmm0 # 0x1eeba24 vmovss 0x108(%rsp), %xmm0 jae 0x1d0e805 vmovaps 0x220(%rsp), %xmm0 vmovaps %xmm10, 0x60(%rsp) vmovaps %xmm8, 0xa0(%rsp) kmovw %k1, 0x80(%rsp) vzeroupper callq 0x6aa20 kmovw 0x80(%rsp), %k1 vmovaps 0xa0(%rsp), %xmm8 vmovaps 0x60(%rsp), %xmm10 movzbl %bl, %eax kmovd %eax, %k0 kandnb %k1, %k0, %k0 kmovd %k0, %ebx vmulss 0x1e3698(%rip), %xmm0, %xmm0 # 0x1ef1eb4 vmovss %xmm0, 0x48(%rsp) movl $0x4, %r14d vmovaps %xmm8, 0xa0(%rsp) vbroadcastss %xmm8, %xmm0 vxorps %xmm1, %xmm1, %xmm1 vfmadd132ps 0x230(%rsp), %xmm1, %xmm0 # xmm0 = (xmm0 * mem) + xmm1 vmovss 0x1ddec8(%rip), %xmm1 # 0x1eec714 vsubss %xmm10, %xmm1, %xmm4 vmulss %xmm4, %xmm4, %xmm1 vmulss %xmm1, %xmm4, %xmm1 vmulss %xmm10, %xmm10, %xmm11 vmulss %xmm11, %xmm10, %xmm2 vmovss 0x1de321(%rip), %xmm7 # 0x1eecb8c vmovaps %xmm7, %xmm3 vfmadd213ss %xmm2, %xmm1, %xmm3 # xmm3 = (xmm1 * xmm3) + xmm2 vmulss %xmm4, %xmm10, %xmm12 vmovaps %xmm4, 0x80(%rsp) vmulss %xmm4, %xmm12, %xmm4 vmulss %xmm12, %xmm10, %xmm5 vmovss 0x1e2762(%rip), %xmm8 # 0x1ef0ff4 vmulss %xmm5, %xmm8, %xmm6 vmovss 0x1e275e(%rip), %xmm9 # 0x1ef0ffc vfmadd231ss %xmm9, %xmm4, %xmm6 # xmm6 = (xmm4 * xmm9) + xmm6 vaddss %xmm6, %xmm3, %xmm3 vmovaps %xmm7, %xmm6 vfmadd213ss %xmm1, %xmm2, %xmm6 # xmm6 = (xmm2 * xmm6) + xmm1 vmulss %xmm4, %xmm8, %xmm4 vfmadd231ss %xmm5, %xmm9, %xmm4 # xmm4 = (xmm9 * xmm5) + xmm4 vaddss %xmm4, %xmm6, %xmm4 vmovss 0x1e273b(%rip), %xmm5 # 0x1ef1000 vmulss %xmm5, %xmm1, %xmm1 vmulss %xmm5, %xmm3, %xmm3 vmulss %xmm5, %xmm4, %xmm4 vmulss %xmm5, %xmm2, %xmm2 vbroadcastss %xmm2, %xmm2 vmulps 0x240(%rsp), %xmm2, %xmm2 vbroadcastss %xmm4, %xmm4 vfmadd132ps 0x280(%rsp), %xmm2, %xmm4 # xmm4 = (xmm4 * mem) + xmm2 vbroadcastss %xmm3, %xmm2 vfmadd132ps 0x260(%rsp), %xmm4, %xmm2 # xmm2 = (xmm2 * mem) + xmm4 vbroadcastss %xmm1, %xmm1 vfmadd132ps 0x2a0(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2 vmovaps %xmm1, 0x3a0(%rsp) vsubps %xmm1, %xmm0, %xmm0 vmovaps %xmm0, 0x200(%rsp) vdpps $0x7f, %xmm0, %xmm0, %xmm0 vucomiss 0x1dd0f0(%rip), %xmm0 # 0x1eeba24 vmovaps %xmm10, 0x60(%rsp) vmovaps %xmm0, 0x1e0(%rsp) jb 0x1d0e94b vsqrtss %xmm0, %xmm0, %xmm7 jmp 0x1d0e97b vmovss %xmm11, 0x140(%rsp) vmovss %xmm12, 0x20(%rsp) vzeroupper callq 0x6aa20 vmovss 0x20(%rsp), %xmm12 vmovss 0x140(%rsp), %xmm11 vmovaps 0x60(%rsp), %xmm10 vmovaps %xmm0, %xmm7 vmovaps 0x80(%rsp), %xmm3 vbroadcastss %xmm3, %xmm1 vbroadcastss 0x21252e(%rip), %xmm4 # 0x1f20ec0 vmovaps %xmm1, 0x350(%rsp) vxorps %xmm4, %xmm1, %xmm0 vmulss %xmm0, %xmm3, %xmm0 vmulss 0x1de1e1(%rip), %xmm12, %xmm1 # 0x1eecb8c vmovaps %xmm10, %xmm2 vfnmsub213ss %xmm1, %xmm10, %xmm2 # xmm2 = -(xmm10 * xmm2) - xmm1 vfmadd231ss %xmm3, %xmm3, %xmm1 # xmm1 = (xmm3 * xmm3) + xmm1 vmovss 0x1de1bf(%rip), %xmm3 # 0x1eecb80 vmulss %xmm3, %xmm0, %xmm0 vmulss %xmm3, %xmm2, %xmm2 vmulss %xmm3, %xmm1, %xmm1 vmulss %xmm3, %xmm11, %xmm3 vbroadcastss %xmm3, %xmm3 vmulps 0x240(%rsp), %xmm3, %xmm3 vbroadcastss %xmm1, %xmm1 vfmadd132ps 0x280(%rsp), %xmm3, %xmm1 # xmm1 = (xmm1 * mem) + xmm3 vbroadcastss %xmm2, %xmm2 vfmadd132ps 0x260(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1 vbroadcastss %xmm0, %xmm13 vfmadd132ps 0x2a0(%rsp), %xmm2, %xmm13 # xmm13 = (xmm13 * mem) + xmm2 vdpps $0x7f, %xmm13, %xmm13, %xmm0 vxorps %xmm1, %xmm1, %xmm1 vmovss %xmm0, %xmm1, %xmm2 # xmm2 = xmm0[0],xmm1[1,2,3] vrsqrt14ss %xmm2, %xmm1, %xmm3 vmulss 0x1ddcf0(%rip), %xmm3, %xmm5 # 0x1eec718 vmulss 0x1ddcec(%rip), %xmm0, %xmm6 # 0x1eec71c vrcp14ss %xmm2, %xmm1, %xmm2 vxorps %xmm4, %xmm0, %xmm1 vmovaps %xmm2, 0x330(%rsp) vfnmadd213ss 0x1e25ac(%rip), %xmm0, %xmm2 # xmm2 = -(xmm0 * xmm2) + mem vmovss %xmm2, 0x4c(%rsp) vucomiss %xmm1, %xmm0 vmovaps %xmm13, 0x140(%rsp) vmovss %xmm7, 0x20(%rsp) vmovaps %xmm0, 0x340(%rsp) jb 0x1d0ea78 vsqrtss %xmm0, %xmm0, %xmm16 jmp 0x1d0eac5 vmovaps %xmm3, 0xe0(%rsp) vmovss %xmm5, 0x24(%rsp) vmovss %xmm6, 0xd0(%rsp) vzeroupper callq 0x6aa20 vmovss 0xd0(%rsp), %xmm6 vmovss 0x24(%rsp), %xmm5 vmovaps 0xe0(%rsp), %xmm3 vmovss 0x20(%rsp), %xmm7 vmovaps 0x140(%rsp), %xmm13 vmovaps %xmm0, %xmm16 vmovaps 0x200(%rsp), %xmm9 vmovaps 0x1e0(%rsp), %xmm19 vmulss %xmm3, %xmm6, %xmm0 vmulss %xmm3, %xmm3, %xmm1 vmulss %xmm1, %xmm0, %xmm0 vaddss %xmm0, %xmm5, %xmm0 vbroadcastss %xmm0, %xmm4 vmulps %xmm4, %xmm13, %xmm0 vmovaps %xmm0, 0xe0(%rsp) vdpps $0x7f, %xmm0, %xmm9, %xmm15 vaddss 0x1ddc0e(%rip), %xmm7, %xmm14 # 0x1eec714 vmulps %xmm15, %xmm15, %xmm0 vsubps %xmm0, %xmm19, %xmm0 vxorps %xmm2, %xmm2, %xmm2 vmovss %xmm0, %xmm2, %xmm1 # xmm1 = xmm0[0],xmm2[1,2,3] vrsqrt14ss %xmm1, %xmm2, %xmm18 vmulss 0x1ddbef(%rip), %xmm18, %xmm17 # 0x1eec718 vmulss 0x1ddbe9(%rip), %xmm0, %xmm20 # 0x1eec71c vucomiss 0x1dcee9(%rip), %xmm0 # 0x1eeba24 jb 0x1d0eb46 vsqrtss %xmm0, %xmm0, %xmm0 jmp 0x1d0ebde vmovss %xmm14, 0x24(%rsp) vmovaps %xmm15, 0xd0(%rsp) vmovss %xmm16, 0x40(%rsp) vmovss %xmm17, 0x3c(%rsp) vmovaps %xmm18, 0x320(%rsp) vmovss %xmm20, 0x38(%rsp) vmovaps %xmm4, 0x310(%rsp) vzeroupper callq 0x6aa20 vmovaps 0x310(%rsp), %xmm4 vmovss 0x38(%rsp), %xmm20 vmovaps 0x320(%rsp), %xmm18 vmovss 0x3c(%rsp), %xmm17 vmovss 0x40(%rsp), %xmm16 vmovaps 0xd0(%rsp), %xmm15 vmovss 0x24(%rsp), %xmm14 vmovss 0x20(%rsp), %xmm7 vmovaps 0x140(%rsp), %xmm13 vmovaps 0x1e0(%rsp), %xmm19 vmovaps 0x200(%rsp), %xmm9 vbroadcastss 0x2122dd(%rip), %xmm11 # 0x1f20ec4 vmovaps 0x1c0(%rsp), %ymm31 vmovaps 0x1a0(%rsp), %ymm21 vmovaps 0x60(%rsp), %xmm10 vmovaps 0xa0(%rsp), %xmm8 vmovss 0x1e1dce(%rip), %xmm2 # 0x1ef09dc vmovaps %xmm2, %xmm1 vmovaps 0x80(%rsp), %xmm3 vfmadd213ss %xmm10, %xmm3, %xmm1 # xmm1 = (xmm3 * xmm1) + xmm10 vfmadd231ss %xmm2, %xmm10, %xmm3 # xmm3 = (xmm10 * xmm2) + xmm3 vbroadcastss %xmm10, %xmm2 vmulps 0x240(%rsp), %xmm2, %xmm2 vbroadcastss %xmm3, %xmm3 vfmadd132ps 0x280(%rsp), %xmm2, %xmm3 # xmm3 = (xmm3 * mem) + xmm2 vbroadcastss %xmm1, %xmm1 vfmadd132ps 0x260(%rsp), %xmm3, %xmm1 # xmm1 = (xmm1 * mem) + xmm3 vmovaps 0x350(%rsp), %xmm2 vfmadd132ps 0x2a0(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1 vbroadcastss 0x340(%rsp), %xmm1 vmulps %xmm1, %xmm2, %xmm1 vdpps $0x7f, %xmm2, %xmm13, %xmm2 vbroadcastss %xmm2, %xmm2 vmulps %xmm2, %xmm13, %xmm2 vsubps %xmm2, %xmm1, %xmm1 vmovss 0x4c(%rsp), %xmm2 vmulss 0x330(%rsp), %xmm2, %xmm2 vmulss 0x48(%rsp), %xmm8, %xmm3 vbroadcastss %xmm2, %xmm2 vmulps %xmm2, %xmm1, %xmm1 vxorps 0x212213(%rip){1to4}, %xmm13, %xmm2 # 0x1f20ec0 vmulps %xmm1, %xmm4, %xmm4 vmovaps 0xe0(%rsp), %xmm12 vdpps $0x7f, %xmm12, %xmm2, %xmm5 vmovss 0x44(%rsp), %xmm6 vmaxss %xmm3, %xmm6, %xmm1 vdivss %xmm16, %xmm6, %xmm3 vdpps $0x7f, %xmm4, %xmm9, %xmm4 vfmadd213ss %xmm1, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm7) + xmm1 vfmadd213ss %xmm7, %xmm3, %xmm14 # xmm14 = (xmm3 * xmm14) + xmm7 vmovaps 0x230(%rsp), %xmm7 vdpps $0x7f, %xmm12, %xmm7, %xmm3 vaddss %xmm4, %xmm5, %xmm4 vdpps $0x7f, %xmm2, %xmm9, %xmm5 vmulss %xmm18, %xmm20, %xmm2 vmulss %xmm18, %xmm18, %xmm6 vmulss %xmm6, %xmm2, %xmm2 vdpps $0x7f, %xmm7, %xmm9, %xmm6 vaddss %xmm2, %xmm17, %xmm7 vfnmadd231ss %xmm4, %xmm15, %xmm5 # xmm5 = -(xmm15 * xmm4) + xmm5 vfnmadd231ss %xmm3, %xmm15, %xmm6 # xmm6 = -(xmm15 * xmm3) + xmm6 vpermilps $0xff, 0x3a0(%rsp), %xmm2 # xmm2 = mem[3,3,3,3] vsubss %xmm2, %xmm0, %xmm2 vshufps $0xff, %xmm13, %xmm13, %xmm0 # xmm0 = xmm13[3,3,3,3] vfmsub213ss %xmm0, %xmm7, %xmm5 # xmm5 = (xmm7 * xmm5) - xmm0 vmulss %xmm7, %xmm6, %xmm6 vmulss %xmm5, %xmm3, %xmm7 vfmsub231ss %xmm6, %xmm4, %xmm7 # xmm7 = (xmm4 * xmm6) - xmm7 vdivss %xmm7, %xmm6, %xmm6 vdivss %xmm7, %xmm5, %xmm5 vdivss %xmm7, %xmm3, %xmm3 vdivss %xmm7, %xmm4, %xmm4 vmulss %xmm6, %xmm15, %xmm6 vmulss %xmm3, %xmm2, %xmm3 vsubss %xmm3, %xmm6, %xmm3 vmulss %xmm5, %xmm15, %xmm5 vmulss %xmm4, %xmm2, %xmm4 vsubss %xmm5, %xmm4, %xmm4 vsubss %xmm3, %xmm10, %xmm10 vsubss %xmm4, %xmm8, %xmm8 vandps %xmm11, %xmm15, %xmm3 vucomiss %xmm3, %xmm14 jbe 0x1d0ef35 vaddss %xmm1, %xmm14, %xmm1 vmovaps 0x2f0(%rsp), %xmm3 vfmadd231ss 0x1e3119(%rip), %xmm3, %xmm1 # xmm1 = (xmm3 * mem) + xmm1 vandps %xmm2, %xmm11, %xmm2 vucomiss %xmm2, %xmm1 jbe 0x1d0ef35 vaddss 0x300(%rsp), %xmm8, %xmm8 movb $0x1, %r13b vucomiss 0x5c(%rsp), %xmm8 jb 0x1d0ef38 movq 0x18(%rsp), %rax vmovss 0x100(%r12,%rax,4), %xmm4 vucomiss %xmm8, %xmm4 jb 0x1d0ef38 vucomiss 0x1dcc41(%rip), %xmm10 # 0x1eeba24 jb 0x1d0ef38 vmovss 0x1dd923(%rip), %xmm1 # 0x1eec714 vucomiss %xmm10, %xmm1 jb 0x1d0ef38 vxorps %xmm2, %xmm2, %xmm2 vmovss %xmm19, %xmm2, %xmm1 # xmm1 = xmm19[0],xmm2[1,2,3] vrsqrt14ss %xmm1, %xmm2, %xmm1 vmulss 0x1dd904(%rip), %xmm1, %xmm2 # 0x1eec718 vmulss 0x1dd8fe(%rip), %xmm19, %xmm3 # 0x1eec71c movq (%r15), %rax movq 0x1e8(%rax), %rax movq %r15, %rcx movq 0x50(%rsp), %rdx movq (%rax,%rdx,8), %r15 movq 0x18(%rsp), %rax movl 0x120(%r12,%rax,4), %eax testl %eax, 0x34(%r15) je 0x1d0ef55 vmulss %xmm1, %xmm3, %xmm3 vmulss %xmm1, %xmm1, %xmm1 vmulss %xmm1, %xmm3, %xmm1 vaddss %xmm1, %xmm2, %xmm1 vbroadcastss %xmm1, %xmm1 vmulps %xmm1, %xmm9, %xmm1 vfmadd213ps %xmm13, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm0) + xmm13 vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3] vshufps $0xc9, %xmm13, %xmm13, %xmm3 # xmm3 = xmm13[1,2,0,3] vmulps %xmm3, %xmm1, %xmm1 vfmsub231ps %xmm2, %xmm13, %xmm1 # xmm1 = (xmm13 * xmm2) - xmm1 vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3] vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3] vshufps $0xd2, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,0,1,3] vmulps %xmm1, %xmm0, %xmm0 vfmsub231ps %xmm3, %xmm2, %xmm0 # xmm0 = (xmm2 * xmm3) - xmm0 movq 0x10(%rcx), %rax cmpq $0x0, 0x10(%rax) jne 0x1d0ef5a cmpq $0x0, 0x40(%r15) jne 0x1d0ef5a movq 0x18(%rsp), %rcx vmovss %xmm8, 0x100(%r12,%rcx,4) vextractps $0x1, %xmm0, 0x180(%r12,%rcx,4) vextractps $0x2, %xmm0, 0x1a0(%r12,%rcx,4) vmovss %xmm0, 0x1c0(%r12,%rcx,4) vmovss %xmm10, 0x1e0(%r12,%rcx,4) movl $0x0, 0x200(%r12,%rcx,4) movq 0xf0(%rsp), %rax movl %eax, 0x220(%r12,%rcx,4) movq 0x50(%rsp), %rax movl %eax, 0x240(%r12,%rcx,4) movq 0x28(%rsp), %r15 movq 0x8(%r15), %rax movl (%rax), %eax movl %eax, 0x260(%r12,%rcx,4) movq 0x8(%r15), %rax movl 0x4(%rax), %eax movl %eax, 0x280(%r12,%rcx,4) jmp 0x1d0ef38 xorl %r13d, %r13d subq $0x1, %r14 setb %al testb %r13b, %r13b jne 0x1d0f20a testb %al, %al je 0x1d0e828 jmp 0x1d0f20a movq %rcx, %r15 jmp 0x1d0ef38 movq 0x28(%rsp), %rcx movq 0x8(%rcx), %rax vbroadcastss %xmm10, %ymm1 vbroadcastss 0x203793(%rip), %ymm2 # 0x1f12704 vpermps %ymm0, %ymm2, %ymm2 vbroadcastss 0x211f5d(%rip), %ymm3 # 0x1f20edc vpermps %ymm0, %ymm3, %ymm3 vbroadcastss %xmm0, %ymm0 vmovaps %ymm2, 0x500(%rsp) vmovaps %ymm3, 0x520(%rsp) vmovaps %ymm0, 0x540(%rsp) vmovaps %ymm1, 0x560(%rsp) vxorps %xmm0, %xmm0, %xmm0 vmovaps %ymm0, 0x580(%rsp) vmovaps 0x460(%rsp), %ymm0 vmovaps %ymm0, 0x5a0(%rsp) vmovdqa 0x480(%rsp), %ymm0 vmovdqa %ymm0, 0x5c0(%rsp) movq 0x178(%rsp), %rdx vpcmpeqd %ymm0, %ymm0, %ymm0 vmovdqa %ymm0, 0x20(%rdx) vmovdqa %ymm0, (%rdx) vbroadcastss (%rax), %ymm0 vmovaps %ymm0, 0x5e0(%rsp) vbroadcastss 0x4(%rax), %ymm0 vmovaps %ymm0, 0x600(%rsp) movq 0x18(%rsp), %rax vmovss %xmm8, 0x100(%r12,%rax,4) vmovaps 0x440(%rsp), %ymm0 vmovaps %ymm0, 0x2c0(%rsp) leaq 0x2c0(%rsp), %rax movq %rax, 0x110(%rsp) movq 0x18(%r15), %rax movq %rax, 0x118(%rsp) movq 0x8(%rcx), %rax movq %rax, 0x120(%rsp) movq %r12, 0x128(%rsp) leaq 0x500(%rsp), %rax movq %rax, 0x130(%rsp) movl $0x8, 0x138(%rsp) movq 0x40(%r15), %rax testq %rax, %rax vmovaps %xmm10, 0x60(%rsp) vmovaps %xmm8, 0xa0(%rsp) vmovss %xmm4, 0x80(%rsp) je 0x1d0f0db leaq 0x110(%rsp), %rdi vzeroupper callq *%rax vmovss 0x80(%rsp), %xmm4 vmovaps 0xa0(%rsp), %xmm8 vmovaps 0x60(%rsp), %xmm10 vmovaps 0x1a0(%rsp), %ymm21 vmovaps 0x1c0(%rsp), %ymm31 vbroadcastss 0x211de9(%rip), %xmm11 # 0x1f20ec4 vmovdqa 0x2c0(%rsp), %ymm0 vptest %ymm0, %ymm0 je 0x1d0f1f1 movq 0x28(%rsp), %rax movq 0x10(%rax), %rcx movq 0x10(%rcx), %rax testq %rax, %rax je 0x1d0f14b testb $0x2, (%rcx) jne 0x1d0f10d testb $0x40, 0x3e(%r15) je 0x1d0f14b leaq 0x110(%rsp), %rdi vzeroupper callq *%rax vmovss 0x80(%rsp), %xmm4 vmovaps 0xa0(%rsp), %xmm8 vmovaps 0x60(%rsp), %xmm10 vmovaps 0x1a0(%rsp), %ymm21 vmovaps 0x1c0(%rsp), %ymm31 vbroadcastss 0x211d79(%rip), %xmm11 # 0x1f20ec4 vmovdqa 0x2c0(%rsp), %ymm0 vptest %ymm0, %ymm0 je 0x1d0f1f1 vptestmd %ymm0, %ymm0, %k1 movq 0x128(%rsp), %rax movq 0x130(%rsp), %rcx vmovaps (%rcx), %ymm0 vmovups %ymm0, 0x180(%rax) {%k1} vmovaps 0x20(%rcx), %ymm0 vmovups %ymm0, 0x1a0(%rax) {%k1} vmovaps 0x40(%rcx), %ymm0 vmovups %ymm0, 0x1c0(%rax) {%k1} vmovaps 0x60(%rcx), %ymm0 vmovups %ymm0, 0x1e0(%rax) {%k1} vmovaps 0x80(%rcx), %ymm0 vmovups %ymm0, 0x200(%rax) {%k1} vmovdqa 0xa0(%rcx), %ymm0 vmovdqu32 %ymm0, 0x220(%rax) {%k1} vmovdqa 0xc0(%rcx), %ymm0 vmovdqu32 %ymm0, 0x240(%rax) {%k1} vmovdqa 0xe0(%rcx), %ymm0 vmovdqa32 %ymm0, 0x260(%rax) {%k1} vmovdqa 0x100(%rcx), %ymm0 vmovdqa32 %ymm0, 0x280(%rax) {%k1} jmp 0x1d0f200 movq 0x18(%rsp), %rax vmovss %xmm4, 0x100(%r12,%rax,4) movq 0x28(%rsp), %r15 jmp 0x1d0ef38 movq 0x18(%rsp), %rax vmovaps 0x3e0(%rsp), %ymm0 vcmpleps 0x100(%r12,%rax,4){1to8}, %ymm0, %k0 kmovd %k0, %eax andb %al, %bl jne 0x1d0e744 vmovaps 0x3c0(%rsp), %ymm0 vaddps 0x380(%rsp), %ymm0, %ymm0 movq 0x18(%rsp), %rax vcmpleps 0x100(%r12,%rax,4){1to8}, %ymm0, %k0 kmovd 0x104(%rsp), %k1 kmovd 0xfc(%rsp), %k2 korb %k2, %k1, %k1 kmovd %k0, %eax movl 0x34(%rsp), %ecx andb %al, %cl vpbroadcastd 0x211c64(%rip), %ymm0 # 0x1f20edc vpblendmd 0x211c56(%rip){1to8}, %ymm0, %ymm0 {%k1} # 0x1f20ed8 vmovdqa %ymm0, 0x3c0(%rsp) vpcmpled 0x4a0(%rsp), %ymm0, %k0 kmovd %k0, %ebx movl %ecx, 0x34(%rsp) andb %cl, %bl je 0x1d0fe14 vmovaps 0x620(%rsp), %ymm5 vmovaps 0x2a0(%rsp), %ymm1 vmovaps 0x260(%rsp), %ymm2 vminps %xmm2, %xmm1, %xmm0 vmaxps %xmm2, %xmm1, %xmm1 vmovaps 0x280(%rsp), %ymm3 vmovaps 0x240(%rsp), %ymm4 vminps %xmm4, %xmm3, %xmm2 vminps %xmm2, %xmm0, %xmm0 vmaxps %xmm4, %xmm3, %xmm2 vmaxps %xmm2, %xmm1, %xmm1 vandps %xmm0, %xmm11, %xmm0 vandps %xmm1, %xmm11, %xmm2 vmaxps %xmm2, %xmm0, %xmm0 vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3] vmaxss %xmm0, %xmm2, %xmm2 vshufpd $0x1, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[1,0] vmaxss %xmm2, %xmm0, %xmm0 vmulss 0x1e2ba6(%rip), %xmm0, %xmm0 # 0x1ef1eb4 vmovss %xmm0, 0x44(%rsp) vshufps $0xff, %xmm1, %xmm1, %xmm0 # xmm0 = xmm1[3,3,3,3] vmovaps %xmm0, 0x2f0(%rsp) vmovaps %ymm5, 0x360(%rsp) vaddps 0x380(%rsp), %ymm5, %ymm0 vmovaps %ymm0, 0x3e0(%rsp) kmovd %ebx, %k1 vbroadcastss 0x1dc6d6(%rip), %ymm0 # 0x1eeba20 vblendmps 0x360(%rsp), %ymm0, %ymm0 {%k1} vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm0, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1] vminps %ymm2, %ymm1, %ymm1 vcmpeqps %ymm1, %ymm0, %k0 kmovd %k0, %eax andb %bl, %al movzbl %al, %eax movzbl %bl, %ecx cmovnel %eax, %ecx tzcntl %ecx, %ecx movb $0x1, %bl shlb %cl, %bl shll $0x2, %ecx vmovss 0x400(%rsp,%rcx), %xmm10 vmovss 0x640(%rsp,%rcx), %xmm9 vmovaps 0x220(%rsp), %xmm0 vucomiss 0x1dc672(%rip), %xmm0 # 0x1eeba24 vmovss 0x10c(%rsp), %xmm0 jae 0x1d0f3fe vmovaps 0x220(%rsp), %xmm0 vmovaps %xmm10, 0x60(%rsp) vmovaps %xmm9, 0xa0(%rsp) kmovw %k1, 0x80(%rsp) vzeroupper callq 0x6aa20 kmovw 0x80(%rsp), %k1 vmovaps 0xa0(%rsp), %xmm9 vmovaps 0x60(%rsp), %xmm10 movzbl %bl, %eax kmovd %eax, %k0 kandnb %k1, %k0, %k0 kmovd %k0, %ebx vmulss 0x1e2a9f(%rip), %xmm0, %xmm0 # 0x1ef1eb4 vmovss %xmm0, 0x48(%rsp) movl $0x4, %r14d vmovaps %xmm9, 0xa0(%rsp) vbroadcastss %xmm9, %xmm0 vxorps %xmm1, %xmm1, %xmm1 vfmadd132ps 0x230(%rsp), %xmm1, %xmm0 # xmm0 = (xmm0 * mem) + xmm1 vmovss 0x1dd2cf(%rip), %xmm1 # 0x1eec714 vsubss %xmm10, %xmm1, %xmm4 vmulss %xmm4, %xmm4, %xmm1 vmulss %xmm1, %xmm4, %xmm1 vmulss %xmm10, %xmm10, %xmm11 vmulss %xmm11, %xmm10, %xmm2 vmovss 0x1dd728(%rip), %xmm7 # 0x1eecb8c vmovaps %xmm7, %xmm3 vfmadd213ss %xmm2, %xmm1, %xmm3 # xmm3 = (xmm1 * xmm3) + xmm2 vmulss %xmm4, %xmm10, %xmm12 vmovaps %xmm4, 0x80(%rsp) vmulss %xmm4, %xmm12, %xmm4 vmulss %xmm12, %xmm10, %xmm5 vmovss 0x1e1b69(%rip), %xmm8 # 0x1ef0ff4 vmulss %xmm5, %xmm8, %xmm6 vmovss 0x1e1b65(%rip), %xmm9 # 0x1ef0ffc vfmadd231ss %xmm9, %xmm4, %xmm6 # xmm6 = (xmm4 * xmm9) + xmm6 vaddss %xmm6, %xmm3, %xmm3 vmovaps %xmm7, %xmm6 vfmadd213ss %xmm1, %xmm2, %xmm6 # xmm6 = (xmm2 * xmm6) + xmm1 vmulss %xmm4, %xmm8, %xmm4 vfmadd231ss %xmm5, %xmm9, %xmm4 # xmm4 = (xmm9 * xmm5) + xmm4 vaddss %xmm4, %xmm6, %xmm4 vmovss 0x1e1b42(%rip), %xmm5 # 0x1ef1000 vmulss %xmm5, %xmm1, %xmm1 vmulss %xmm5, %xmm3, %xmm3 vmulss %xmm5, %xmm4, %xmm4 vmulss %xmm5, %xmm2, %xmm2 vbroadcastss %xmm2, %xmm2 vmulps 0x240(%rsp), %xmm2, %xmm2 vbroadcastss %xmm4, %xmm4 vfmadd132ps 0x280(%rsp), %xmm2, %xmm4 # xmm4 = (xmm4 * mem) + xmm2 vbroadcastss %xmm3, %xmm2 vfmadd132ps 0x260(%rsp), %xmm4, %xmm2 # xmm2 = (xmm2 * mem) + xmm4 vbroadcastss %xmm1, %xmm1 vfmadd132ps 0x2a0(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2 vmovaps %xmm1, 0x3a0(%rsp) vsubps %xmm1, %xmm0, %xmm0 vmovaps %xmm0, 0x200(%rsp) vdpps $0x7f, %xmm0, %xmm0, %xmm0 vucomiss 0x1dc4f7(%rip), %xmm0 # 0x1eeba24 vmovaps %xmm10, 0x60(%rsp) vmovaps %xmm0, 0x1e0(%rsp) jb 0x1d0f544 vsqrtss %xmm0, %xmm0, %xmm7 jmp 0x1d0f574 vmovss %xmm11, 0x140(%rsp) vmovss %xmm12, 0x20(%rsp) vzeroupper callq 0x6aa20 vmovss 0x20(%rsp), %xmm12 vmovss 0x140(%rsp), %xmm11 vmovaps 0x60(%rsp), %xmm10 vmovaps %xmm0, %xmm7 vmovaps 0x80(%rsp), %xmm3 vbroadcastss %xmm3, %xmm1 vbroadcastss 0x211935(%rip), %xmm4 # 0x1f20ec0 vmovaps %xmm1, 0x350(%rsp) vxorps %xmm4, %xmm1, %xmm0 vmulss %xmm0, %xmm3, %xmm0 vmulss 0x1dd5e8(%rip), %xmm12, %xmm1 # 0x1eecb8c vmovaps %xmm10, %xmm2 vfnmsub213ss %xmm1, %xmm10, %xmm2 # xmm2 = -(xmm10 * xmm2) - xmm1 vfmadd231ss %xmm3, %xmm3, %xmm1 # xmm1 = (xmm3 * xmm3) + xmm1 vmovss 0x1dd5c6(%rip), %xmm3 # 0x1eecb80 vmulss %xmm3, %xmm0, %xmm0 vmulss %xmm3, %xmm2, %xmm2 vmulss %xmm3, %xmm1, %xmm1 vmulss %xmm3, %xmm11, %xmm3 vbroadcastss %xmm3, %xmm3 vmulps 0x240(%rsp), %xmm3, %xmm3 vbroadcastss %xmm1, %xmm1 vfmadd132ps 0x280(%rsp), %xmm3, %xmm1 # xmm1 = (xmm1 * mem) + xmm3 vbroadcastss %xmm2, %xmm2 vfmadd132ps 0x260(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1 vbroadcastss %xmm0, %xmm13 vfmadd132ps 0x2a0(%rsp), %xmm2, %xmm13 # xmm13 = (xmm13 * mem) + xmm2 vdpps $0x7f, %xmm13, %xmm13, %xmm0 vxorps %xmm1, %xmm1, %xmm1 vmovss %xmm0, %xmm1, %xmm2 # xmm2 = xmm0[0],xmm1[1,2,3] vrsqrt14ss %xmm2, %xmm1, %xmm3 vmulss 0x1dd0f7(%rip), %xmm3, %xmm5 # 0x1eec718 vmulss 0x1dd0f3(%rip), %xmm0, %xmm6 # 0x1eec71c vrcp14ss %xmm2, %xmm1, %xmm2 vxorps %xmm4, %xmm0, %xmm1 vmovaps %xmm2, 0x330(%rsp) vfnmadd213ss 0x1e19b3(%rip), %xmm0, %xmm2 # xmm2 = -(xmm0 * xmm2) + mem vmovss %xmm2, 0x4c(%rsp) vucomiss %xmm1, %xmm0 vmovaps %xmm13, 0x140(%rsp) vmovss %xmm7, 0x20(%rsp) vmovaps %xmm0, 0x340(%rsp) jb 0x1d0f671 vsqrtss %xmm0, %xmm0, %xmm16 jmp 0x1d0f6be vmovaps %xmm3, 0xe0(%rsp) vmovss %xmm5, 0x24(%rsp) vmovss %xmm6, 0xd0(%rsp) vzeroupper callq 0x6aa20 vmovss 0xd0(%rsp), %xmm6 vmovss 0x24(%rsp), %xmm5 vmovaps 0xe0(%rsp), %xmm3 vmovss 0x20(%rsp), %xmm7 vmovaps 0x140(%rsp), %xmm13 vmovaps %xmm0, %xmm16 vmovaps 0x200(%rsp), %xmm11 vmovaps 0x1e0(%rsp), %xmm19 vmulss %xmm3, %xmm6, %xmm0 vmulss %xmm3, %xmm3, %xmm1 vmulss %xmm1, %xmm0, %xmm0 vaddss %xmm0, %xmm5, %xmm0 vbroadcastss %xmm0, %xmm4 vmulps %xmm4, %xmm13, %xmm0 vmovaps %xmm0, 0xe0(%rsp) vdpps $0x7f, %xmm0, %xmm11, %xmm15 vaddss 0x1dd015(%rip), %xmm7, %xmm14 # 0x1eec714 vmulps %xmm15, %xmm15, %xmm0 vsubps %xmm0, %xmm19, %xmm0 vxorps %xmm2, %xmm2, %xmm2 vmovss %xmm0, %xmm2, %xmm1 # xmm1 = xmm0[0],xmm2[1,2,3] vrsqrt14ss %xmm1, %xmm2, %xmm18 vmulss 0x1dcff6(%rip), %xmm18, %xmm17 # 0x1eec718 vmulss 0x1dcff0(%rip), %xmm0, %xmm20 # 0x1eec71c vucomiss 0x1dc2f0(%rip), %xmm0 # 0x1eeba24 jb 0x1d0f73f vsqrtss %xmm0, %xmm0, %xmm0 jmp 0x1d0f7d7 vmovss %xmm14, 0x24(%rsp) vmovaps %xmm15, 0xd0(%rsp) vmovss %xmm16, 0x40(%rsp) vmovss %xmm17, 0x3c(%rsp) vmovaps %xmm18, 0x320(%rsp) vmovss %xmm20, 0x38(%rsp) vmovaps %xmm4, 0x310(%rsp) vzeroupper callq 0x6aa20 vmovaps 0x310(%rsp), %xmm4 vmovss 0x38(%rsp), %xmm20 vmovaps 0x320(%rsp), %xmm18 vmovss 0x3c(%rsp), %xmm17 vmovss 0x40(%rsp), %xmm16 vmovaps 0xd0(%rsp), %xmm15 vmovss 0x24(%rsp), %xmm14 vmovss 0x20(%rsp), %xmm7 vmovaps 0x140(%rsp), %xmm13 vmovaps 0x1e0(%rsp), %xmm19 vmovaps 0x200(%rsp), %xmm11 vbroadcastss 0x2116e4(%rip), %xmm8 # 0x1f20ec4 vmovaps 0x1c0(%rsp), %ymm31 vmovaps 0x1a0(%rsp), %ymm21 vmovaps 0x60(%rsp), %xmm10 vmovaps 0xa0(%rsp), %xmm9 vmovss 0x1e11d5(%rip), %xmm2 # 0x1ef09dc vmovaps %xmm2, %xmm1 vmovaps 0x80(%rsp), %xmm3 vfmadd213ss %xmm10, %xmm3, %xmm1 # xmm1 = (xmm3 * xmm1) + xmm10 vfmadd231ss %xmm2, %xmm10, %xmm3 # xmm3 = (xmm10 * xmm2) + xmm3 vbroadcastss %xmm10, %xmm2 vmulps 0x240(%rsp), %xmm2, %xmm2 vbroadcastss %xmm3, %xmm3 vfmadd132ps 0x280(%rsp), %xmm2, %xmm3 # xmm3 = (xmm3 * mem) + xmm2 vbroadcastss %xmm1, %xmm1 vfmadd132ps 0x260(%rsp), %xmm3, %xmm1 # xmm1 = (xmm1 * mem) + xmm3 vmovaps 0x350(%rsp), %xmm2 vfmadd132ps 0x2a0(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1 vbroadcastss 0x340(%rsp), %xmm1 vmulps %xmm1, %xmm2, %xmm1 vdpps $0x7f, %xmm2, %xmm13, %xmm2 vbroadcastss %xmm2, %xmm2 vmulps %xmm2, %xmm13, %xmm2 vsubps %xmm2, %xmm1, %xmm1 vmovss 0x4c(%rsp), %xmm2 vmulss 0x330(%rsp), %xmm2, %xmm2 vmulss 0x48(%rsp), %xmm9, %xmm3 vbroadcastss %xmm2, %xmm2 vmulps %xmm2, %xmm1, %xmm1 vxorps 0x21161a(%rip){1to4}, %xmm13, %xmm2 # 0x1f20ec0 vmulps %xmm1, %xmm4, %xmm4 vmovaps 0xe0(%rsp), %xmm12 vdpps $0x7f, %xmm12, %xmm2, %xmm5 vmovss 0x44(%rsp), %xmm6 vmaxss %xmm3, %xmm6, %xmm1 vdivss %xmm16, %xmm6, %xmm3 vdpps $0x7f, %xmm4, %xmm11, %xmm4 vfmadd213ss %xmm1, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm7) + xmm1 vfmadd213ss %xmm7, %xmm3, %xmm14 # xmm14 = (xmm3 * xmm14) + xmm7 vmovaps 0x230(%rsp), %xmm7 vdpps $0x7f, %xmm12, %xmm7, %xmm3 vaddss %xmm4, %xmm5, %xmm4 vdpps $0x7f, %xmm2, %xmm11, %xmm5 vmulss %xmm18, %xmm20, %xmm2 vmulss %xmm18, %xmm18, %xmm6 vmulss %xmm6, %xmm2, %xmm2 vdpps $0x7f, %xmm7, %xmm11, %xmm6 vaddss %xmm2, %xmm17, %xmm7 vfnmadd231ss %xmm4, %xmm15, %xmm5 # xmm5 = -(xmm15 * xmm4) + xmm5 vfnmadd231ss %xmm3, %xmm15, %xmm6 # xmm6 = -(xmm15 * xmm3) + xmm6 vpermilps $0xff, 0x3a0(%rsp), %xmm2 # xmm2 = mem[3,3,3,3] vsubss %xmm2, %xmm0, %xmm2 vshufps $0xff, %xmm13, %xmm13, %xmm0 # xmm0 = xmm13[3,3,3,3] vfmsub213ss %xmm0, %xmm7, %xmm5 # xmm5 = (xmm7 * xmm5) - xmm0 vmulss %xmm7, %xmm6, %xmm6 vmulss %xmm5, %xmm3, %xmm7 vfmsub231ss %xmm6, %xmm4, %xmm7 # xmm7 = (xmm4 * xmm6) - xmm7 vdivss %xmm7, %xmm6, %xmm6 vdivss %xmm7, %xmm5, %xmm5 vdivss %xmm7, %xmm3, %xmm3 vdivss %xmm7, %xmm4, %xmm4 vmulss %xmm6, %xmm15, %xmm6 vmulss %xmm3, %xmm2, %xmm3 vsubss %xmm3, %xmm6, %xmm3 vmulss %xmm5, %xmm15, %xmm5 vmulss %xmm4, %xmm2, %xmm4 vsubss %xmm5, %xmm4, %xmm4 vsubss %xmm3, %xmm10, %xmm10 vsubss %xmm4, %xmm9, %xmm9 vandps %xmm8, %xmm15, %xmm3 vucomiss %xmm3, %xmm14 jbe 0x1d0fb2e vaddss %xmm1, %xmm14, %xmm1 vmovaps 0x2f0(%rsp), %xmm3 vfmadd231ss 0x1e2520(%rip), %xmm3, %xmm1 # xmm1 = (xmm3 * mem) + xmm1 vandps %xmm2, %xmm8, %xmm2 vucomiss %xmm2, %xmm1 jbe 0x1d0fb2e vaddss 0x300(%rsp), %xmm9, %xmm9 movb $0x1, %r13b vucomiss 0x5c(%rsp), %xmm9 jb 0x1d0fb31 movq 0x18(%rsp), %rax vmovss 0x100(%r12,%rax,4), %xmm4 vucomiss %xmm9, %xmm4 jb 0x1d0fb31 vucomiss 0x1dc048(%rip), %xmm10 # 0x1eeba24 jb 0x1d0fb31 vmovss 0x1dcd2a(%rip), %xmm1 # 0x1eec714 vucomiss %xmm10, %xmm1 jb 0x1d0fb31 vxorps %xmm2, %xmm2, %xmm2 vmovss %xmm19, %xmm2, %xmm1 # xmm1 = xmm19[0],xmm2[1,2,3] vrsqrt14ss %xmm1, %xmm2, %xmm1 vmulss 0x1dcd0b(%rip), %xmm1, %xmm2 # 0x1eec718 vmulss 0x1dcd05(%rip), %xmm19, %xmm3 # 0x1eec71c movq (%r15), %rax movq 0x1e8(%rax), %rax movq %r15, %rcx movq 0x50(%rsp), %rdx movq (%rax,%rdx,8), %r15 movq 0x18(%rsp), %rax movl 0x120(%r12,%rax,4), %eax testl %eax, 0x34(%r15) je 0x1d0fb4e vmulss %xmm1, %xmm3, %xmm3 vmulss %xmm1, %xmm1, %xmm1 vmulss %xmm1, %xmm3, %xmm1 vaddss %xmm1, %xmm2, %xmm1 vbroadcastss %xmm1, %xmm1 vmulps %xmm1, %xmm11, %xmm1 vfmadd213ps %xmm13, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm0) + xmm13 vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3] vshufps $0xc9, %xmm13, %xmm13, %xmm3 # xmm3 = xmm13[1,2,0,3] vmulps %xmm3, %xmm1, %xmm1 vfmsub231ps %xmm2, %xmm13, %xmm1 # xmm1 = (xmm13 * xmm2) - xmm1 vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3] vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3] vshufps $0xd2, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,0,1,3] vmulps %xmm1, %xmm0, %xmm0 vfmsub231ps %xmm3, %xmm2, %xmm0 # xmm0 = (xmm2 * xmm3) - xmm0 movq 0x10(%rcx), %rax cmpq $0x0, 0x10(%rax) jne 0x1d0fb53 cmpq $0x0, 0x40(%r15) jne 0x1d0fb53 movq 0x18(%rsp), %rcx vmovss %xmm9, 0x100(%r12,%rcx,4) vextractps $0x1, %xmm0, 0x180(%r12,%rcx,4) vextractps $0x2, %xmm0, 0x1a0(%r12,%rcx,4) vmovss %xmm0, 0x1c0(%r12,%rcx,4) vmovss %xmm10, 0x1e0(%r12,%rcx,4) movl $0x0, 0x200(%r12,%rcx,4) movq 0xf0(%rsp), %rax movl %eax, 0x220(%r12,%rcx,4) movq 0x50(%rsp), %rax movl %eax, 0x240(%r12,%rcx,4) movq 0x28(%rsp), %r15 movq 0x8(%r15), %rax movl (%rax), %eax movl %eax, 0x260(%r12,%rcx,4) movq 0x8(%r15), %rax movl 0x4(%rax), %eax movl %eax, 0x280(%r12,%rcx,4) jmp 0x1d0fb31 xorl %r13d, %r13d subq $0x1, %r14 setb %al testb %r13b, %r13b jne 0x1d0fdf1 testb %al, %al je 0x1d0f421 jmp 0x1d0fdf1 movq %rcx, %r15 jmp 0x1d0fb31 movq 0x28(%rsp), %rcx movq 0x8(%rcx), %rax vbroadcastss %xmm10, %ymm1 vbroadcastss 0x202b9a(%rip), %ymm2 # 0x1f12704 vpermps %ymm0, %ymm2, %ymm2 vbroadcastss 0x211364(%rip), %ymm3 # 0x1f20edc vpermps %ymm0, %ymm3, %ymm3 vbroadcastss %xmm0, %ymm0 vmovaps %ymm2, 0x500(%rsp) vmovaps %ymm3, 0x520(%rsp) vmovaps %ymm0, 0x540(%rsp) vmovaps %ymm1, 0x560(%rsp) vxorps %xmm0, %xmm0, %xmm0 vmovaps %ymm0, 0x580(%rsp) vmovaps 0x460(%rsp), %ymm0 vmovaps %ymm0, 0x5a0(%rsp) vmovdqa 0x480(%rsp), %ymm0 vmovdqa %ymm0, 0x5c0(%rsp) movq 0x178(%rsp), %rdx vpcmpeqd %ymm0, %ymm0, %ymm0 vmovdqa %ymm0, 0x20(%rdx) vmovdqa %ymm0, (%rdx) vbroadcastss (%rax), %ymm0 vmovaps %ymm0, 0x5e0(%rsp) vbroadcastss 0x4(%rax), %ymm0 vmovaps %ymm0, 0x600(%rsp) movq 0x18(%rsp), %rax vmovss %xmm9, 0x100(%r12,%rax,4) vmovaps 0x440(%rsp), %ymm0 vmovaps %ymm0, 0x2c0(%rsp) leaq 0x2c0(%rsp), %rax movq %rax, 0x110(%rsp) movq 0x18(%r15), %rax movq %rax, 0x118(%rsp) movq 0x8(%rcx), %rax movq %rax, 0x120(%rsp) movq %r12, 0x128(%rsp) leaq 0x500(%rsp), %rax movq %rax, 0x130(%rsp) movl $0x8, 0x138(%rsp) movq 0x40(%r15), %rax testq %rax, %rax vmovaps %xmm10, 0x60(%rsp) vmovaps %xmm9, 0xa0(%rsp) vmovss %xmm4, 0x80(%rsp) je 0x1d0fccb leaq 0x110(%rsp), %rdi vzeroupper callq *%rax vmovss 0x80(%rsp), %xmm4 vmovaps 0xa0(%rsp), %xmm9 vmovaps 0x60(%rsp), %xmm10 vmovaps 0x1a0(%rsp), %ymm21 vmovaps 0x1c0(%rsp), %ymm31 vmovdqa 0x2c0(%rsp), %ymm0 vptest %ymm0, %ymm0 je 0x1d0fdd8 movq 0x28(%rsp), %rax movq 0x10(%rax), %rcx movq 0x10(%rcx), %rax testq %rax, %rax je 0x1d0fd32 testb $0x2, (%rcx) jne 0x1d0fcfd testb $0x40, 0x3e(%r15) je 0x1d0fd32 leaq 0x110(%rsp), %rdi vzeroupper callq *%rax vmovss 0x80(%rsp), %xmm4 vmovaps 0xa0(%rsp), %xmm9 vmovaps 0x60(%rsp), %xmm10 vmovaps 0x1a0(%rsp), %ymm21 vmovaps 0x1c0(%rsp), %ymm31 vmovdqa 0x2c0(%rsp), %ymm0 vptest %ymm0, %ymm0 je 0x1d0fdd8 vptestmd %ymm0, %ymm0, %k1 movq 0x128(%rsp), %rax movq 0x130(%rsp), %rcx vmovaps (%rcx), %ymm0 vmovups %ymm0, 0x180(%rax) {%k1} vmovaps 0x20(%rcx), %ymm0 vmovups %ymm0, 0x1a0(%rax) {%k1} vmovaps 0x40(%rcx), %ymm0 vmovups %ymm0, 0x1c0(%rax) {%k1} vmovaps 0x60(%rcx), %ymm0 vmovups %ymm0, 0x1e0(%rax) {%k1} vmovaps 0x80(%rcx), %ymm0 vmovups %ymm0, 0x200(%rax) {%k1} vmovdqa 0xa0(%rcx), %ymm0 vmovdqu32 %ymm0, 0x220(%rax) {%k1} vmovdqa 0xc0(%rcx), %ymm0 vmovdqu32 %ymm0, 0x240(%rax) {%k1} vmovdqa 0xe0(%rcx), %ymm0 vmovdqa32 %ymm0, 0x260(%rax) {%k1} vmovdqa 0x100(%rcx), %ymm0 vmovdqa32 %ymm0, 0x280(%rax) {%k1} jmp 0x1d0fde7 movq 0x18(%rsp), %rax vmovss %xmm4, 0x100(%r12,%rax,4) movq 0x28(%rsp), %r15 jmp 0x1d0fb31 movq 0x18(%rsp), %rax vmovaps 0x3e0(%rsp), %ymm0 vcmpleps 0x100(%r12,%rax,4){1to8}, %ymm0, %k0 kmovd %k0, %eax andb %al, %bl jne 0x1d0f33d vmovdqa 0x4a0(%rsp), %ymm1 vpcmpltd 0x3c0(%rsp), %ymm1, %k1 vmovaps 0x8e0(%rsp), %ymm0 vpcmpltd 0x660(%rsp), %ymm1, %k2 vmovaps 0x380(%rsp), %ymm3 vaddps %ymm0, %ymm3, %ymm1 movq 0x18(%rsp), %rax vbroadcastss 0x100(%r12,%rax,4), %ymm2 vcmpleps %ymm2, %ymm1, %k0 {%k2} kmovd %k0, %eax movl 0x100(%rsp), %ecx andb %al, %cl vmovaps 0x620(%rsp), %ymm1 vaddps %ymm1, %ymm3, %ymm3 vcmpleps %ymm2, %ymm3, %k0 {%k1} kmovd %k0, %eax movl 0x34(%rsp), %edx andb %al, %dl orb %cl, %dl je 0x1d0ff07 movq 0x190(%rsp), %r9 movl %r9d, %eax leaq (%rax,%rax,2), %rax shlq $0x5, %rax movb %dl, 0x920(%rsp,%rax) kmovd %ecx, %k1 vmovaps %ymm0, %ymm1 {%k1} vmovaps %ymm1, 0x940(%rsp,%rax) vmovaps 0x160(%rsp), %xmm2 vmovlps %xmm2, 0x960(%rsp,%rax) movq 0x188(%rsp), %r11 leal 0x1(%r11), %ecx movl %ecx, 0x968(%rsp,%rax) incl %r9d movq 0x180(%rsp), %r8 vbroadcastss 0x1dc823(%rip), %ymm16 # 0x1eec714 movq 0x198(%rsp), %r10 jmp 0x1d0ff3a vbroadcastss 0x1dc80f(%rip), %ymm16 # 0x1eec714 jmp 0x1d0ff31 movq 0x180(%rsp), %r8 vbroadcastss 0x1dc7fb(%rip), %ymm16 # 0x1eec714 movq 0x198(%rsp), %r10 movq 0x190(%rsp), %r9 movq 0x188(%rsp), %r11 vmovaps 0x160(%rsp), %xmm2 movl %r9d, %eax testl %eax, %eax je 0x1d1008f leal -0x1(%rax), %r9d leaq (%r9,%r9,2), %rcx shlq $0x5, %rcx vmovaps 0x940(%rsp,%rcx), %ymm0 movzbl 0x920(%rsp,%rcx), %esi vaddps 0x380(%rsp), %ymm0, %ymm1 movq 0x18(%rsp), %rdx vcmpleps 0x100(%r12,%rdx,4){1to8}, %ymm1, %k0 kmovb %k0, %edx andl %esi, %edx je 0x1d10032 kmovd %edx, %k1 vbroadcastss 0x1dba8e(%rip), %ymm1 # 0x1eeba20 vblendmps %ymm0, %ymm1, %ymm0 {%k1} vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm0, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1] vminps %ymm2, %ymm1, %ymm1 vcmpeqps %ymm1, %ymm0, %k0 kmovd %k0, %esi andb %dl, %sil je 0x1d0ffca movzbl %sil, %edi jmp 0x1d0ffcd movzbl %dl, %edi leaq (%rsp,%rcx), %rsi addq $0x920, %rsi # imm = 0x920 vmovss 0x44(%rsi), %xmm0 tzcntl %edi, %ecx movb $0x1, %dil shlb %cl, %dil movl 0x48(%rsi), %r11d movzbl %dil, %edi kmovd %edi, %k0 kmovd %edx, %k1 kandnb %k1, %k0, %k0 kmovb %k0, (%rsi) kortestb %k0, %k0 je 0x1d10008 movl %eax, %r9d vbroadcastss 0x40(%rsi), %ymm1 vsubss %xmm1, %xmm0, %xmm0 vbroadcastss %xmm0, %ymm0 vfmadd132ps 0x210f00(%rip), %ymm1, %ymm0 # ymm0 = (ymm0 * mem) + ymm1 vmovaps %ymm0, 0x500(%rsp) vmovsd 0x500(%rsp,%rcx,4), %xmm2 movl %r9d, %eax testb %dl, %dl je 0x1d0ff3d jmp 0x1d0db37 vcmpleps 0x210eb3(%rip), %ymm4, %k2 # 0x1f20f00 vbroadcastss 0x1dcb2e(%rip), %ymm4 # 0x1eecb84 vbroadcastss 0x1db9c0(%rip), %ymm16 # 0x1eeba20 vblendmps %ymm4, %ymm16, %ymm3 {%k2} vmovaps %ymm3, %ymm30 {%k1} vblendmps %ymm16, %ymm4, %ymm3 {%k2} kmovd %k2, %ecx vmovaps %ymm3, %ymm31 {%k1} knotb %k1, %k0 kmovd %k0, %edx orb %cl, %dl andb %al, %dl movl %edx, %eax jmp 0x1d0e124 movq 0x18(%rsp), %rax vmovaps 0x680(%rsp), %ymm0 vcmpleps 0x100(%r12,%rax,4){1to8}, %ymm0, %k0 kmovb %k0, %eax andl %eax, %r10d jne 0x1d0d7aa leaq -0x28(%rbp), %rsp popq %rbx popq %r12 popq %r13 popq %r14 popq %r15 popq %rbp vzeroupper retq nop
/embree[P]embree/kernels/geometry/curveNi_intersector.h
bool embree::avx512::CurveNiIntersectorK<8, 8>::occluded_t<embree::avx512::SweepCurve1IntersectorK<embree::BSplineCurveT, 8>, embree::avx512::Occluded1KEpilog1<8, true>>(embree::avx512::CurvePrecalculationsK<8>&, embree::RayK<8>&, unsigned long, embree::RayQueryContext*, embree::CurveNi<8> const&)
static __forceinline bool occluded_t(Precalculations& pre, RayK<K>& ray, const size_t k, RayQueryContext* context, const Primitive& prim) { vfloat<M> tNear; vbool<M> valid = intersect(ray,k,prim,tNear); const size_t N = prim.N; size_t mask = movemask(valid); while (mask) { const size_t i = bscf(mask); STAT3(shadow.trav_prims,1,1,1); const unsigned int geomID = prim.geomID(N); const unsigned int primID = prim.primID(N)[i]; const CurveGeometry* geom = context->scene->get<CurveGeometry>(geomID); Vec3ff a0,a1,a2,a3; geom->gather(a0,a1,a2,a3,geom->curve(primID)); size_t mask1 = mask; const size_t i1 = bscf(mask1); if (mask) { const unsigned int primID1 = prim.primID(N)[i1]; geom->prefetchL1_vertices(geom->curve(primID1)); if (mask1) { const size_t i2 = bsf(mask1); const unsigned int primID2 = prim.primID(N)[i2]; geom->prefetchL2_vertices(geom->curve(primID2)); } } if (Intersector().intersect(pre,ray,k,context,geom,primID,a0,a1,a2,a3,Epilog(ray,k,context,geomID,primID))) return true; mask &= movemask(tNear <= vfloat<M>(ray.tfar[k])); } return false; }
pushq %rbp movq %rsp, %rbp pushq %r15 pushq %r14 pushq %r13 pushq %r12 pushq %rbx andq $-0x20, %rsp subq $0xa40, %rsp # imm = 0xA40 movzbl 0x1(%r8), %eax leaq (%rax,%rax,4), %r9 leaq (%r9,%r9,4), %rdi vbroadcastss 0x12(%r8,%rdi), %xmm0 vmovss (%rsi,%rdx,4), %xmm1 vmovss 0x80(%rsi,%rdx,4), %xmm2 vinsertps $0x10, 0x20(%rsi,%rdx,4), %xmm1, %xmm1 # xmm1 = xmm1[0],mem[0],xmm1[2,3] vinsertps $0x20, 0x40(%rsi,%rdx,4), %xmm1, %xmm1 # xmm1 = xmm1[0,1],mem[0],xmm1[3] vinsertps $0x10, 0xa0(%rsi,%rdx,4), %xmm2, %xmm2 # xmm2 = xmm2[0],mem[0],xmm2[2,3] movq %rcx, %r14 vinsertps $0x20, 0xc0(%rsi,%rdx,4), %xmm2, %xmm2 # xmm2 = xmm2[0,1],mem[0],xmm2[3] vsubps 0x6(%r8,%rdi), %xmm1, %xmm1 vmulps %xmm1, %xmm0, %xmm3 vmulps %xmm2, %xmm0, %xmm0 vpmovsxbd 0x6(%r8,%rax,4), %ymm1 vcvtdq2ps %ymm1, %ymm5 vpmovsxbd 0x6(%r8,%r9), %ymm1 vcvtdq2ps %ymm1, %ymm6 leaq (%rax,%rax,2), %rcx vpmovsxbd 0x6(%r8,%rcx,2), %ymm1 vcvtdq2ps %ymm1, %ymm2 leaq (%rax,%r9,2), %rdi vpmovsxbd 0x6(%r8,%rdi), %ymm1 vcvtdq2ps %ymm1, %ymm7 leal (,%rcx,4), %edi vpmovsxbd 0x6(%r8,%rdi), %ymm1 vcvtdq2ps %ymm1, %ymm8 addq %rax, %rdi vpmovsxbd 0x6(%r8,%rdi), %ymm1 vcvtdq2ps %ymm1, %ymm9 leaq (%rax,%rax,8), %r10 leal (%r10,%r10), %edi vpmovsxbd 0x6(%r8,%rdi), %ymm1 addq %rax, %rdi vpmovsxbd 0x6(%r8,%rdi), %ymm4 vcvtdq2ps %ymm1, %ymm10 vcvtdq2ps %ymm4, %ymm11 shll $0x2, %r9d vpmovsxbd 0x6(%r8,%r9), %ymm1 vcvtdq2ps %ymm1, %ymm12 vbroadcastss %xmm0, %ymm13 vbroadcastss 0x20253a(%rip), %ymm15 # 0x1f12704 vpermps %ymm0, %ymm15, %ymm14 vbroadcastss 0x210d03(%rip), %ymm16 # 0x1f20edc vpermps %ymm0, %ymm16, %ymm0 vmulps %ymm2, %ymm0, %ymm4 vmulps %ymm0, %ymm9, %ymm1 vmulps %ymm0, %ymm12, %ymm0 vfmadd231ps %ymm6, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm6) + ymm4 vfmadd231ps %ymm8, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm8) + ymm1 vfmadd231ps %ymm14, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm14) + ymm0 vfmadd231ps %ymm5, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm5) + ymm4 vfmadd231ps %ymm7, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm7) + ymm1 vfmadd231ps %ymm13, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm13) + ymm0 vbroadcastss %xmm3, %ymm13 vpermps %ymm3, %ymm15, %ymm14 vpermps %ymm3, %ymm16, %ymm15 vmulps %ymm2, %ymm15, %ymm16 vmulps %ymm9, %ymm15, %ymm3 vmulps %ymm12, %ymm15, %ymm2 vfmadd231ps %ymm6, %ymm14, %ymm16 # ymm16 = (ymm14 * ymm6) + ymm16 vfmadd231ps %ymm8, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm8) + ymm3 vfmadd231ps %ymm11, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm11) + ymm2 vfmadd231ps %ymm5, %ymm13, %ymm16 # ymm16 = (ymm13 * ymm5) + ymm16 vfmadd231ps %ymm7, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm7) + ymm3 vfmadd231ps %ymm10, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm10) + ymm2 vbroadcastss 0x210c71(%rip), %ymm28 # 0x1f20ec4 vandps %ymm28, %ymm4, %ymm5 vbroadcastss 0x1e0d86(%rip), %ymm6 # 0x1ef0fe8 vcmpltps %ymm6, %ymm5, %k1 vmovaps %ymm6, %ymm4 {%k1} vandps %ymm28, %ymm1, %ymm5 vcmpltps %ymm6, %ymm5, %k1 vmovaps %ymm6, %ymm1 {%k1} vandps %ymm28, %ymm0, %ymm5 vcmpltps %ymm6, %ymm5, %k1 vmovaps %ymm6, %ymm0 {%k1} vrcp14ps %ymm4, %ymm5 vbroadcastss 0x1dc470(%rip), %ymm6 # 0x1eec714 vfnmadd213ps %ymm6, %ymm5, %ymm4 # ymm4 = -(ymm5 * ymm4) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm4 # ymm4 = (ymm4 * ymm5) + ymm5 vrcp14ps %ymm1, %ymm5 vfnmadd213ps %ymm6, %ymm5, %ymm1 # ymm1 = -(ymm5 * ymm1) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm1 # ymm1 = (ymm1 * ymm5) + ymm5 vrcp14ps %ymm0, %ymm5 vfnmadd213ps %ymm6, %ymm5, %ymm0 # ymm0 = -(ymm5 * ymm0) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm0 # ymm0 = (ymm0 * ymm5) + ymm5 leaq (,%rax,8), %rdi subq %rax, %rdi vpmovsxwd 0x6(%r8,%rdi), %ymm5 vcvtdq2ps %ymm5, %ymm5 vsubps %ymm16, %ymm5, %ymm5 vpmovsxwd 0x6(%r8,%r10), %ymm6 vmulps %ymm5, %ymm4, %ymm5 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm16, %ymm6, %ymm6 vmulps %ymm6, %ymm4, %ymm4 leaq (%rax,%rax), %r10 addq %rax, %r9 shlq $0x3, %rcx subq %rax, %rcx movl %eax, %edi shll $0x4, %edi vpmovsxwd 0x6(%r8,%rdi), %ymm6 subq %r10, %rdi vpmovsxwd 0x6(%r8,%rdi), %ymm7 vcvtdq2ps %ymm7, %ymm7 vsubps %ymm3, %ymm7, %ymm7 vmulps %ymm7, %ymm1, %ymm7 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm3, %ymm6, %ymm3 vmulps %ymm3, %ymm1, %ymm1 vpmovsxwd 0x6(%r8,%r9), %ymm3 vcvtdq2ps %ymm3, %ymm3 vsubps %ymm2, %ymm3, %ymm3 vmulps %ymm0, %ymm3, %ymm3 vpmovsxwd 0x6(%r8,%rcx), %ymm6 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm2, %ymm6, %ymm2 vmulps %ymm2, %ymm0, %ymm0 vpminsd %ymm4, %ymm5, %ymm2 vpminsd %ymm1, %ymm7, %ymm6 vmaxps %ymm6, %ymm2, %ymm2 vpminsd %ymm0, %ymm3, %ymm6 vmaxps 0x60(%rsi,%rdx,4){1to8}, %ymm6, %ymm6 vmaxps %ymm6, %ymm2, %ymm2 vmulps 0x20fb82(%rip){1to8}, %ymm2, %ymm6 # 0x1f1ff10 vpmaxsd %ymm4, %ymm5, %ymm2 vpmaxsd %ymm1, %ymm7, %ymm1 vminps %ymm1, %ymm2, %ymm1 vpmaxsd %ymm0, %ymm3, %ymm0 movq %rsi, 0x20(%rsp) vminps 0x100(%rsi,%rdx,4){1to8}, %ymm0, %ymm0 vminps %ymm0, %ymm1, %ymm0 vmulps 0x20fb58(%rip){1to8}, %ymm0, %ymm0 # 0x1f1ff14 vpbroadcastd %eax, %ymm1 vpcmpgtd 0x24a554(%rip), %ymm1, %k0 # 0x1f5a920 vmovaps %ymm6, 0x660(%rsp) vcmpleps %ymm0, %ymm6, %k1 ktestb %k0, %k1 setne %r15b je 0x1d12b66 kandb %k0, %k1, %k0 kmovd %k0, %eax movzbl %al, %r12d leaq 0x4e0(%rsp), %rax addq $0xe0, %rax movq %rax, 0x158(%rsp) movl $0x1, %eax shlxl %edx, %eax, %eax kmovd %eax, %k0 vpmovm2d %k0, %ymm0 vmovdqa %ymm0, 0x3e0(%rsp) movq %rdx, 0x30(%rsp) movq %r8, 0x160(%rsp) movq %r14, 0x38(%rsp) tzcntq %r12, %rax movl 0x2(%r8), %esi movl 0x6(%r8,%rax,4), %eax movq (%r14), %rcx movq 0x1e8(%rcx), %rcx movq %rsi, 0xf8(%rsp) movq (%rcx,%rsi,8), %rdi movq 0x58(%rdi), %rcx movq 0x68(%rdi), %r11 movq %r11, %rsi imulq %rax, %rsi movl (%rcx,%rsi), %r10d movq 0xa0(%rdi), %rsi movq %rsi, %r9 imulq %r10, %r9 movq 0x90(%rdi), %rdi vmovaps (%rdi,%r9), %xmm1 leaq 0x1(%r10), %r9 imulq %rsi, %r9 vmovaps (%rdi,%r9), %xmm0 leaq 0x2(%r10), %r9 imulq %rsi, %r9 vmovaps (%rdi,%r9), %xmm2 blsrq %r12, %r12 addq $0x3, %r10 imulq %rsi, %r10 vmovaps (%rdi,%r10), %xmm3 movq %r12, %r10 subq $0x1, %r10 jb 0x1d1050d andq %r12, %r10 tzcntq %r12, %r9 movl 0x6(%r8,%r9,4), %r9d imulq %r11, %r9 movl (%rcx,%r9), %r9d imulq %rsi, %r9 prefetcht0 (%rdi,%r9) prefetcht0 0x40(%rdi,%r9) testq %r10, %r10 je 0x1d1050d tzcntq %r10, %r9 movl 0x6(%r8,%r9,4), %r9d imulq %r9, %r11 movl (%rcx,%r11), %ecx imulq %rcx, %rsi prefetcht1 (%rdi,%rsi) prefetcht1 0x40(%rdi,%rsi) movq 0x20(%rsp), %rcx vmovss (%rcx,%rdx,4), %xmm4 vinsertps $0x1c, 0x20(%rcx,%rdx,4), %xmm4, %xmm4 # xmm4 = xmm4[0],mem[0],zero,zero vinsertps $0x28, 0x40(%rcx,%rdx,4), %xmm4, %xmm4 # xmm4 = xmm4[0,1],mem[0],zero vbroadcastss 0x80(%rcx,%rdx,4), %ymm12 vbroadcastss 0xa0(%rcx,%rdx,4), %ymm13 vunpcklps %xmm13, %xmm12, %xmm5 # xmm5 = xmm12[0],xmm13[0],xmm12[1],xmm13[1] vbroadcastss 0xc0(%rcx,%rdx,4), %ymm14 vinsertps $0x28, %xmm14, %xmm5, %xmm9 # xmm9 = xmm5[0,1],xmm14[0],zero vaddps %xmm0, %xmm1, %xmm5 vaddps %xmm2, %xmm5, %xmm5 vaddps %xmm3, %xmm5, %xmm5 vmulps 0x20cd96(%rip){1to4}, %xmm5, %xmm5 # 0x1f1d2fc vsubps %xmm4, %xmm5, %xmm5 vdpps $0x7f, %xmm9, %xmm5, %xmm5 vmovss 0x60(%rcx,%rdx,4), %xmm10 vdpps $0x7f, %xmm9, %xmm9, %xmm11 vxorps %xmm8, %xmm8, %xmm8 vmovss %xmm11, %xmm8, %xmm6 vrcp14ss %xmm6, %xmm8, %xmm6 vmovaps %xmm6, %xmm7 vfnmadd213ss 0x1e0a60(%rip), %xmm11, %xmm7 # xmm7 = -(xmm11 * xmm7) + mem vmulss %xmm7, %xmm6, %xmm6 vmulss %xmm6, %xmm5, %xmm5 vbroadcastss %xmm5, %ymm6 vmovaps %xmm9, 0x1f0(%rsp) vmovaps %ymm6, 0x340(%rsp) vfmadd231ps %xmm6, %xmm9, %xmm4 # xmm4 = (xmm9 * xmm6) + xmm4 vblendps $0x8, %xmm8, %xmm4, %xmm4 # xmm4 = xmm4[0,1,2],xmm8[3] vsubps %xmm4, %xmm1, %xmm6 vsubps %xmm4, %xmm2, %xmm7 vsubps %xmm4, %xmm0, %xmm8 vsubps %xmm4, %xmm3, %xmm3 vbroadcastss %xmm6, %ymm16 vbroadcastss 0x202123(%rip), %ymm0 # 0x1f12704 vpermps %ymm6, %ymm0, %ymm17 vbroadcastss 0x2108ec(%rip), %ymm1 # 0x1f20edc vpermps %ymm6, %ymm1, %ymm18 vbroadcastss 0x2108d9(%rip), %ymm2 # 0x1f20ed8 vmovaps %ymm6, 0x260(%rsp) vpermps %ymm6, %ymm2, %ymm19 vbroadcastss %xmm8, %ymm20 vpermps %ymm8, %ymm0, %ymm22 vpermps %ymm8, %ymm1, %ymm23 vmovaps %ymm8, 0x220(%rsp) vpermps %ymm8, %ymm2, %ymm24 vbroadcastss %xmm7, %ymm25 vpermps %ymm7, %ymm0, %ymm27 vpermps %ymm7, %ymm1, %ymm29 vmovaps %ymm7, 0x240(%rsp) vpermps %ymm7, %ymm2, %ymm31 vbroadcastss %xmm3, %ymm21 vpermps %ymm3, %ymm0, %ymm0 vmovaps %ymm0, 0x8a0(%rsp) vpermps %ymm3, %ymm1, %ymm30 vmovaps %ymm3, 0x200(%rsp) vpermps %ymm3, %ymm2, %ymm6 vmovaps %ymm14, 0x480(%rsp) vmulss %xmm14, %xmm14, %xmm0 vmovaps %ymm13, 0x4a0(%rsp) vfmadd231ps %ymm13, %ymm13, %ymm0 # ymm0 = (ymm13 * ymm13) + ymm0 vmovaps %ymm12, 0x4c0(%rsp) vfmadd231ps %ymm12, %ymm12, %ymm0 # ymm0 = (ymm12 * ymm12) + ymm0 vbroadcastss %xmm0, %ymm1 vandps %ymm28, %ymm1, %ymm0 vmovaps %ymm0, 0x460(%rsp) vmovss %xmm10, 0x5c(%rsp) vmovaps %xmm5, 0x2b0(%rsp) vsubss %xmm5, %xmm10, %xmm0 vbroadcastss %xmm0, %ymm0 vmovaps %ymm0, 0x860(%rsp) vpbroadcastd %eax, %ymm0 vmovdqa %ymm0, 0x420(%rsp) movl $0x1, %eax movq %rax, 0x100(%rsp) xorl %ebx, %ebx xorl %r13d, %r13d movq 0xf8(%rsp), %rax vpbroadcastd %eax, %ymm0 vmovdqa %ymm0, 0x400(%rsp) vsqrtss %xmm11, %xmm11, %xmm0 vmovss %xmm0, 0x11c(%rsp) vmovaps %xmm11, 0x1e0(%rsp) vsqrtss %xmm11, %xmm11, %xmm0 vmovss %xmm0, 0x118(%rsp) vmovsd 0x1dbfb4(%rip), %xmm2 # 0x1eec6f0 vbroadcastss 0x1dbfcf(%rip), %ymm3 # 0x1eec714 vmovaps %ymm1, 0x880(%rsp) vmovaps %ymm16, 0x840(%rsp) vmovaps %ymm17, 0x820(%rsp) vmovaps %ymm18, 0x800(%rsp) vmovaps %ymm19, 0x7e0(%rsp) vmovaps %ymm20, 0x7c0(%rsp) vmovaps %ymm22, 0x7a0(%rsp) vmovaps %ymm23, 0x780(%rsp) vmovaps %ymm24, 0x760(%rsp) vmovaps %ymm25, 0x740(%rsp) vmovaps %ymm27, 0x720(%rsp) vmovaps %ymm29, 0x700(%rsp) vmovaps %ymm31, 0x6e0(%rsp) vmovaps %ymm21, 0x6c0(%rsp) vmovaps %ymm30, 0x6a0(%rsp) vmovaps %ymm6, 0x680(%rsp) vmovshdup %xmm2, %xmm0 # xmm0 = xmm2[1,1,3,3] vsubss %xmm2, %xmm0, %xmm0 vmulss 0x2106f9(%rip), %xmm0, %xmm1 # 0x1f20ed0 vmovaps %xmm1, 0x80(%rsp) vmovaps %xmm2, 0x140(%rsp) vbroadcastss %xmm2, %ymm4 vbroadcastss %xmm0, %ymm0 vmovaps %ymm4, 0x60(%rsp) vmovaps %ymm0, 0x1c0(%rsp) vfmadd231ps 0x210715(%rip), %ymm0, %ymm4 # ymm4 = (ymm0 * mem) + ymm4 vsubps %ymm4, %ymm3, %ymm7 vmulps %ymm7, %ymm7, %ymm8 vmulps %ymm7, %ymm8, %ymm0 vbroadcastss 0x1dc36b(%rip), %ymm28 # 0x1eecb8c vmulps %ymm28, %ymm0, %ymm1 vmulps %ymm4, %ymm4, %ymm9 vmulps %ymm4, %ymm9, %ymm2 vaddps %ymm1, %ymm2, %ymm1 vmulps %ymm7, %ymm4, %ymm10 vmulps %ymm7, %ymm10, %ymm5 vbroadcastss 0x1e07b8(%rip), %ymm14 # 0x1ef0ffc vmulps %ymm5, %ymm14, %ymm11 vmulps %ymm4, %ymm10, %ymm12 vbroadcastss 0x1e079f(%rip), %ymm15 # 0x1ef0ff4 vmulps %ymm15, %ymm12, %ymm13 vaddps %ymm13, %ymm11, %ymm11 vaddps %ymm1, %ymm11, %ymm1 vmulps %ymm28, %ymm2, %ymm11 vaddps %ymm0, %ymm11, %ymm11 vmulps %ymm14, %ymm12, %ymm12 vmulps %ymm5, %ymm15, %ymm5 vaddps %ymm5, %ymm12, %ymm5 vaddps %ymm5, %ymm11, %ymm5 vbroadcastss 0x1e0779(%rip), %ymm14 # 0x1ef1000 vmulps %ymm0, %ymm14, %ymm11 vmulps %ymm1, %ymm14, %ymm12 vmulps %ymm5, %ymm14, %ymm13 vmulps %ymm2, %ymm14, %ymm5 vmulps %ymm5, %ymm21, %ymm2 vmovaps 0x8a0(%rsp), %ymm0 vmulps %ymm5, %ymm0, %ymm1 vmulps %ymm5, %ymm30, %ymm3 vmulps %ymm5, %ymm6, %ymm5 vfmadd231ps %ymm25, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm25) + ymm2 vfmadd231ps %ymm27, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm27) + ymm1 vfmadd231ps %ymm29, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm29) + ymm3 vfmadd231ps %ymm13, %ymm31, %ymm5 # ymm5 = (ymm31 * ymm13) + ymm5 vfmadd231ps %ymm20, %ymm12, %ymm2 # ymm2 = (ymm12 * ymm20) + ymm2 vfmadd231ps %ymm22, %ymm12, %ymm1 # ymm1 = (ymm12 * ymm22) + ymm1 vfmadd231ps %ymm23, %ymm12, %ymm3 # ymm3 = (ymm12 * ymm23) + ymm3 vfmadd231ps %ymm12, %ymm24, %ymm5 # ymm5 = (ymm24 * ymm12) + ymm5 vfmadd231ps %ymm16, %ymm11, %ymm2 # ymm2 = (ymm11 * ymm16) + ymm2 vfmadd231ps %ymm17, %ymm11, %ymm1 # ymm1 = (ymm11 * ymm17) + ymm1 vfmadd231ps %ymm18, %ymm11, %ymm3 # ymm3 = (ymm11 * ymm18) + ymm3 vfmadd231ps %ymm11, %ymm19, %ymm5 # ymm5 = (ymm19 * ymm11) + ymm5 vbroadcastss 0x2105ba(%rip), %ymm26 # 0x1f20ec0 vxorps %ymm26, %ymm7, %ymm11 vmulps %ymm7, %ymm11, %ymm7 vxorps %ymm26, %ymm4, %ymm11 vmulps %ymm4, %ymm11, %ymm4 vmulps %ymm28, %ymm10, %ymm10 vsubps %ymm10, %ymm4, %ymm4 vaddps %ymm10, %ymm8, %ymm8 vbroadcastss 0x1dc24d(%rip), %ymm10 # 0x1eecb80 vmulps %ymm7, %ymm10, %ymm7 vmulps %ymm4, %ymm10, %ymm4 vmulps %ymm10, %ymm8, %ymm8 vmulps %ymm10, %ymm9, %ymm9 vmulps %ymm9, %ymm21, %ymm10 vmulps %ymm0, %ymm9, %ymm12 vmulps %ymm9, %ymm30, %ymm13 vmulps %ymm6, %ymm9, %ymm9 vfmadd231ps %ymm25, %ymm8, %ymm10 # ymm10 = (ymm8 * ymm25) + ymm10 vfmadd231ps %ymm27, %ymm8, %ymm12 # ymm12 = (ymm8 * ymm27) + ymm12 vfmadd231ps %ymm29, %ymm8, %ymm13 # ymm13 = (ymm8 * ymm29) + ymm13 vfmadd231ps %ymm8, %ymm31, %ymm9 # ymm9 = (ymm31 * ymm8) + ymm9 vfmadd231ps %ymm20, %ymm4, %ymm10 # ymm10 = (ymm4 * ymm20) + ymm10 vfmadd231ps %ymm22, %ymm4, %ymm12 # ymm12 = (ymm4 * ymm22) + ymm12 vfmadd231ps %ymm23, %ymm4, %ymm13 # ymm13 = (ymm4 * ymm23) + ymm13 vfmadd231ps %ymm4, %ymm24, %ymm9 # ymm9 = (ymm24 * ymm4) + ymm9 vfmadd231ps %ymm16, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm16) + ymm10 vfmadd231ps %ymm17, %ymm7, %ymm12 # ymm12 = (ymm7 * ymm17) + ymm12 vfmadd231ps %ymm18, %ymm7, %ymm13 # ymm13 = (ymm7 * ymm18) + ymm13 vfmadd231ps %ymm7, %ymm19, %ymm9 # ymm9 = (ymm19 * ymm7) + ymm9 vbroadcastss 0x80(%rsp), %ymm4 vmulps %ymm4, %ymm10, %ymm11 vmulps %ymm4, %ymm12, %ymm12 vmulps %ymm4, %ymm13, %ymm13 vmulps %ymm4, %ymm9, %ymm6 vmovaps %ymm2, %ymm8 vmovaps 0x24f359(%rip), %ymm7 # 0x1f5fd20 vxorps %xmm31, %xmm31, %xmm31 vpermt2ps %ymm31, %ymm7, %ymm8 vmovaps %ymm1, %ymm9 vpermt2ps %ymm31, %ymm7, %ymm9 vmovaps %ymm3, %ymm10 vpermt2ps %ymm31, %ymm7, %ymm10 vaddps %ymm5, %ymm6, %ymm4 vmaxps %ymm4, %ymm5, %ymm14 vminps %ymm4, %ymm5, %ymm4 vmovaps %ymm5, %ymm15 vpermt2ps %ymm31, %ymm7, %ymm15 vmovaps %ymm11, %ymm19 vpermt2ps %ymm31, %ymm7, %ymm19 vmovaps %ymm12, %ymm20 vpermt2ps %ymm31, %ymm7, %ymm20 vmovaps %ymm13, %ymm0 vpermt2ps %ymm31, %ymm7, %ymm0 vpermt2ps %ymm31, %ymm7, %ymm6 vsubps %ymm6, %ymm15, %ymm16 vsubps %ymm2, %ymm8, %ymm7 vsubps %ymm1, %ymm9, %ymm6 vsubps %ymm3, %ymm10, %ymm5 vmulps %ymm13, %ymm6, %ymm17 vfmsub231ps %ymm5, %ymm12, %ymm17 # ymm17 = (ymm12 * ymm5) - ymm17 vmulps %ymm11, %ymm5, %ymm18 vfmsub231ps %ymm7, %ymm13, %ymm18 # ymm18 = (ymm13 * ymm7) - ymm18 vmulps %ymm12, %ymm7, %ymm22 vfmsub231ps %ymm6, %ymm11, %ymm22 # ymm22 = (ymm11 * ymm6) - ymm22 vmulps %ymm22, %ymm22, %ymm22 vfmadd231ps %ymm18, %ymm18, %ymm22 # ymm22 = (ymm18 * ymm18) + ymm22 vfmadd231ps %ymm17, %ymm17, %ymm22 # ymm22 = (ymm17 * ymm17) + ymm22 vmulps %ymm5, %ymm5, %ymm17 vfmadd231ps %ymm6, %ymm6, %ymm17 # ymm17 = (ymm6 * ymm6) + ymm17 vfmadd231ps %ymm7, %ymm7, %ymm17 # ymm17 = (ymm7 * ymm7) + ymm17 vrcp14ps %ymm17, %ymm18 vmovaps %ymm18, %ymm23 vbroadcastss 0x1dbc7f(%rip), %ymm21 # 0x1eec714 vmovaps %ymm21, %ymm26 vfnmadd213ps %ymm21, %ymm17, %ymm23 # ymm23 = -(ymm17 * ymm23) + ymm21 vfmadd132ps %ymm18, %ymm18, %ymm23 # ymm23 = (ymm23 * ymm18) + ymm18 vmulps %ymm23, %ymm22, %ymm18 vmulps %ymm0, %ymm6, %ymm22 vfmsub231ps %ymm5, %ymm20, %ymm22 # ymm22 = (ymm20 * ymm5) - ymm22 vmulps %ymm19, %ymm5, %ymm24 vfmsub231ps %ymm7, %ymm0, %ymm24 # ymm24 = (ymm0 * ymm7) - ymm24 vmulps %ymm20, %ymm7, %ymm25 vfmsub231ps %ymm6, %ymm19, %ymm25 # ymm25 = (ymm19 * ymm6) - ymm25 vmulps %ymm25, %ymm25, %ymm25 vfmadd231ps %ymm24, %ymm24, %ymm25 # ymm25 = (ymm24 * ymm24) + ymm25 vfmadd231ps %ymm22, %ymm22, %ymm25 # ymm25 = (ymm22 * ymm22) + ymm25 vmulps %ymm23, %ymm25, %ymm22 vmaxps %ymm22, %ymm18, %ymm18 vsqrtps %ymm18, %ymm18 vmaxps %ymm15, %ymm16, %ymm22 vmaxps %ymm22, %ymm14, %ymm14 vaddps %ymm14, %ymm18, %ymm14 vminps %ymm15, %ymm16, %ymm15 vminps %ymm15, %ymm4, %ymm4 vsubps %ymm18, %ymm4, %ymm4 vmulps 0x1dfe1e(%rip){1to8}, %ymm14, %ymm14 # 0x1ef0940 vmulps 0x1dfe18(%rip){1to8}, %ymm4, %ymm4 # 0x1ef0944 vmovaps %ymm4, 0x80(%rsp) vmulps %ymm14, %ymm14, %ymm4 vrsqrt14ps %ymm17, %ymm15 vmulps 0x1dbbd2(%rip){1to8}, %ymm17, %ymm14 # 0x1eec71c vmulps %ymm14, %ymm15, %ymm14 vmulps %ymm15, %ymm15, %ymm16 vmulps %ymm14, %ymm16, %ymm14 vfmadd231ps 0x1dbbb3(%rip){1to8}, %ymm15, %ymm14 # ymm14 = (ymm15 * mem) + ymm14 vmulps %ymm7, %ymm14, %ymm15 vmulps %ymm14, %ymm6, %ymm16 vmulps %ymm14, %ymm5, %ymm18 vsubps %ymm2, %ymm31, %ymm27 vsubps %ymm1, %ymm31, %ymm28 vmovaps %ymm3, 0xa0(%rsp) vsubps %ymm3, %ymm31, %ymm29 vmovaps 0x480(%rsp), %ymm17 vmulps %ymm29, %ymm17, %ymm22 vmovaps 0x4a0(%rsp), %ymm21 vfmadd231ps %ymm28, %ymm21, %ymm22 # ymm22 = (ymm21 * ymm28) + ymm22 vmovaps 0x4c0(%rsp), %ymm3 vfmadd231ps %ymm27, %ymm3, %ymm22 # ymm22 = (ymm3 * ymm27) + ymm22 vmulps %ymm29, %ymm29, %ymm24 vfmadd231ps %ymm28, %ymm28, %ymm24 # ymm24 = (ymm28 * ymm28) + ymm24 vfmadd231ps %ymm27, %ymm27, %ymm24 # ymm24 = (ymm27 * ymm27) + ymm24 vmulps %ymm18, %ymm17, %ymm17 vfmadd231ps %ymm21, %ymm16, %ymm17 # ymm17 = (ymm16 * ymm21) + ymm17 vfmadd231ps %ymm3, %ymm15, %ymm17 # ymm17 = (ymm15 * ymm3) + ymm17 vmulps %ymm18, %ymm29, %ymm18 vfmadd231ps %ymm16, %ymm28, %ymm18 # ymm18 = (ymm28 * ymm16) + ymm18 vfmadd231ps %ymm15, %ymm27, %ymm18 # ymm18 = (ymm27 * ymm15) + ymm18 vmulps %ymm17, %ymm17, %ymm21 vmovaps 0x880(%rsp), %ymm16 vsubps %ymm21, %ymm16, %ymm15 vmulps %ymm18, %ymm17, %ymm25 vsubps %ymm25, %ymm22, %ymm22 vaddps %ymm22, %ymm22, %ymm22 vmulps %ymm18, %ymm18, %ymm25 vsubps %ymm25, %ymm24, %ymm3 vmovaps %ymm3, 0x1a0(%rsp) vsubps %ymm4, %ymm3, %ymm4 vmulps %ymm22, %ymm22, %ymm25 vmulps 0x1dbf4c(%rip){1to8}, %ymm15, %ymm24 # 0x1eecb8c vmulps %ymm4, %ymm24, %ymm30 vsubps %ymm30, %ymm25, %ymm30 vcmpnltps %ymm31, %ymm30, %k1 kmovd %k1, %eax kortestb %k1, %k1 je 0x1d10d3e vsqrtps %ymm30, %ymm30 vaddps %ymm15, %ymm15, %ymm31 vrcp14ps %ymm31, %ymm3 vfnmadd213ps %ymm26, %ymm3, %ymm31 # ymm31 = -(ymm3 * ymm31) + ymm26 vfmadd132ps %ymm3, %ymm3, %ymm31 # ymm31 = (ymm31 * ymm3) + ymm3 vxorps 0x210237(%rip){1to8}, %ymm22, %ymm3 # 0x1f20ec0 vsubps %ymm30, %ymm3, %ymm3 vmulps %ymm31, %ymm3, %ymm3 vsubps %ymm22, %ymm30, %ymm30 vmulps %ymm31, %ymm30, %ymm31 vmovaps %ymm17, %ymm30 vfmadd213ps %ymm18, %ymm3, %ymm30 # ymm30 = (ymm3 * ymm30) + ymm18 vmulps %ymm30, %ymm14, %ymm30 vmovaps %ymm30, 0x3c0(%rsp) vmovaps %ymm17, %ymm30 vfmadd213ps %ymm18, %ymm31, %ymm30 # ymm30 = (ymm31 * ymm30) + ymm18 vmulps %ymm30, %ymm14, %ymm30 vmovaps %ymm30, 0x3a0(%rsp) vbroadcastss 0x1dad41(%rip), %ymm16 # 0x1eeba20 vblendmps %ymm3, %ymm16, %ymm30 {%k1} vbroadcastss 0x1dbe96(%rip), %ymm3 # 0x1eecb84 vblendmps %ymm31, %ymm3, %ymm31 {%k1} vbroadcastss 0x2101c6(%rip), %ymm23 # 0x1f20ec4 vandps %ymm23, %ymm21, %ymm3 vmovaps 0x460(%rsp), %ymm16 vmaxps %ymm3, %ymm16, %ymm3 vmulps 0x1e1198(%rip){1to8}, %ymm3, %ymm3 # 0x1ef1eb4 vandps %ymm23, %ymm15, %ymm23 vcmpltps %ymm3, %ymm23, %k1 {%k1} kortestb %k1, %k1 jne 0x1d12ae9 vbroadcastss 0x1db9d8(%rip), %ymm3 # 0x1eec714 jmp 0x1d10d58 vbroadcastss 0x1dacd8(%rip), %ymm30 # 0x1eeba20 vbroadcastss 0x1dbe32(%rip), %ymm31 # 0x1eecb84 vmovaps %ymm26, %ymm3 andb $0x7f, %al je 0x1d1113f vmovaps %ymm21, 0x120(%rsp) movq 0x20(%rsp), %rcx vmovaps %ymm3, %ymm16 vmovss 0x100(%rcx,%rdx,4), %xmm3 vsubss 0x2b0(%rsp), %xmm3, %xmm3 vbroadcastss %xmm3, %ymm3 vminps %ymm31, %ymm3, %ymm3 vmovaps 0x860(%rsp), %ymm4 vmaxps %ymm30, %ymm4, %ymm4 vmulps %ymm29, %ymm13, %ymm23 vfmadd213ps %ymm23, %ymm12, %ymm28 # ymm28 = (ymm12 * ymm28) + ymm23 vfmadd213ps %ymm28, %ymm11, %ymm27 # ymm27 = (ymm11 * ymm27) + ymm28 vmovaps 0x480(%rsp), %ymm21 vmulps %ymm13, %ymm21, %ymm13 vmovaps 0x4a0(%rsp), %ymm31 vfmadd231ps %ymm12, %ymm31, %ymm13 # ymm13 = (ymm31 * ymm12) + ymm13 vmovaps 0x4c0(%rsp), %ymm30 vfmadd231ps %ymm11, %ymm30, %ymm13 # ymm13 = (ymm30 * ymm11) + ymm13 vbroadcastss 0x2100df(%rip), %ymm28 # 0x1f20ec4 vandps %ymm28, %ymm13, %ymm11 vbroadcastss 0x1e01f3(%rip), %ymm29 # 0x1ef0fe8 vcmpltps %ymm29, %ymm11, %k0 vbroadcastss 0x2100ba(%rip), %ymm26 # 0x1f20ec0 vxorps %ymm26, %ymm27, %ymm11 vrcp14ps %ymm13, %ymm12 vxorps %ymm26, %ymm13, %ymm23 vmovaps %ymm12, %ymm27 vfnmadd213ps %ymm16, %ymm13, %ymm27 # ymm27 = -(ymm13 * ymm27) + ymm16 vfmadd132ps %ymm12, %ymm12, %ymm27 # ymm27 = (ymm27 * ymm12) + ymm12 vmulps %ymm11, %ymm27, %ymm11 vcmpltps %ymm23, %ymm13, %k1 korb %k1, %k0, %k1 vbroadcastss 0x1dbd3f(%rip), %ymm27 # 0x1eecb84 vblendmps %ymm27, %ymm11, %ymm12 {%k1} vmaxps %ymm12, %ymm4, %ymm4 vcmpnleps %ymm23, %ymm13, %k1 korb %k1, %k0, %k1 vbroadcastss 0x1dabbb(%rip), %ymm23 # 0x1eeba20 vmovaps %ymm23, %ymm11 {%k1} vminps %ymm11, %ymm3, %ymm3 vxorps %xmm13, %xmm13, %xmm13 vsubps %ymm8, %ymm13, %ymm8 vsubps %ymm9, %ymm13, %ymm9 vsubps %ymm10, %ymm13, %ymm10 vmulps %ymm0, %ymm10, %ymm10 vfnmsub231ps %ymm9, %ymm20, %ymm10 # ymm10 = -(ymm20 * ymm9) - ymm10 vfnmadd231ps %ymm8, %ymm19, %ymm10 # ymm10 = -(ymm19 * ymm8) + ymm10 vmulps %ymm0, %ymm21, %ymm8 vfnmsub231ps %ymm20, %ymm31, %ymm8 # ymm8 = -(ymm31 * ymm20) - ymm8 vfnmadd231ps %ymm19, %ymm30, %ymm8 # ymm8 = -(ymm30 * ymm19) + ymm8 vandps %ymm28, %ymm8, %ymm9 vcmpltps %ymm29, %ymm9, %k0 vxorps %ymm26, %ymm10, %ymm9 vrcp14ps %ymm8, %ymm10 vxorps %ymm26, %ymm8, %ymm11 vmovaps %ymm10, %ymm12 vfnmadd213ps %ymm16, %ymm8, %ymm12 # ymm12 = -(ymm8 * ymm12) + ymm16 vfmadd132ps %ymm10, %ymm10, %ymm12 # ymm12 = (ymm12 * ymm10) + ymm10 vmulps %ymm9, %ymm12, %ymm9 vcmpltps %ymm11, %ymm8, %k1 korb %k1, %k0, %k1 vblendmps %ymm27, %ymm9, %ymm10 {%k1} vmaxps %ymm10, %ymm4, %ymm0 vcmpnleps %ymm11, %ymm8, %k1 korb %k1, %k0, %k1 vmovaps %ymm23, %ymm9 {%k1} vminps %ymm9, %ymm3, %ymm8 vmovaps %ymm0, 0x320(%rsp) vcmpleps %ymm8, %ymm0, %k0 kmovd %k0, %ecx andb %cl, %al je 0x1d11157 vmovaps 0x3c0(%rsp), %ymm3 vmaxps 0x80(%rsp), %ymm13, %ymm4 vminps %ymm16, %ymm3, %ymm3 vxorps %xmm10, %xmm10, %xmm10 vmaxps %ymm10, %ymm3, %ymm3 vmovaps 0x3a0(%rsp), %ymm9 vminps %ymm16, %ymm9, %ymm9 vmovaps 0x20ffe5(%rip), %ymm11 # 0x1f20f40 vaddps %ymm3, %ymm11, %ymm3 vbroadcastss 0x20d550(%rip), %ymm12 # 0x1f1e4b8 vmulps %ymm3, %ymm12, %ymm3 vmovaps 0x60(%rsp), %ymm0 vmovaps 0x1c0(%rsp), %ymm19 vfmadd213ps %ymm0, %ymm19, %ymm3 # ymm3 = (ymm19 * ymm3) + ymm0 vmovaps %ymm3, 0x3c0(%rsp) vmaxps %ymm10, %ymm9, %ymm3 vaddps %ymm3, %ymm11, %ymm3 vmulps %ymm3, %ymm12, %ymm3 vfmadd213ps %ymm0, %ymm19, %ymm3 # ymm3 = (ymm19 * ymm3) + ymm0 vmovaps %ymm3, 0x3a0(%rsp) vmulps %ymm4, %ymm4, %ymm3 vmovaps 0x1a0(%rsp), %ymm0 vsubps %ymm3, %ymm0, %ymm11 vmulps %ymm11, %ymm24, %ymm3 vsubps %ymm3, %ymm25, %ymm3 vcmpnltps %ymm10, %ymm3, %k0 kortestb %k0, %k0 je 0x1d1116b vxorps %xmm20, %xmm20, %xmm20 vcmpnltps %ymm13, %ymm3, %k1 vsqrtps %ymm3, %ymm3 vaddps %ymm15, %ymm15, %ymm4 vrcp14ps %ymm4, %ymm9 vfnmadd213ps %ymm16, %ymm9, %ymm4 # ymm4 = -(ymm9 * ymm4) + ymm16 vfmadd132ps %ymm9, %ymm9, %ymm4 # ymm4 = (ymm4 * ymm9) + ymm9 vxorps 0x20febc(%rip){1to8}, %ymm22, %ymm9 # 0x1f20ec0 vsubps %ymm3, %ymm9, %ymm9 vmulps %ymm4, %ymm9, %ymm12 vsubps %ymm22, %ymm3, %ymm3 vmulps %ymm4, %ymm3, %ymm13 vmovaps %ymm17, %ymm3 vfmadd213ps %ymm18, %ymm12, %ymm3 # ymm3 = (ymm12 * ymm3) + ymm18 vmulps %ymm3, %ymm14, %ymm9 vmulps %ymm12, %ymm30, %ymm3 vmulps %ymm12, %ymm31, %ymm4 vmulps %ymm12, %ymm21, %ymm10 vmovaps %ymm7, %ymm19 vfmadd213ps %ymm2, %ymm9, %ymm19 # ymm19 = (ymm9 * ymm19) + ymm2 vsubps %ymm19, %ymm3, %ymm3 vmovaps %ymm6, %ymm19 vfmadd213ps %ymm1, %ymm9, %ymm19 # ymm19 = (ymm9 * ymm19) + ymm1 vsubps %ymm19, %ymm4, %ymm4 vmovaps 0xa0(%rsp), %ymm0 vfmadd213ps %ymm0, %ymm5, %ymm9 # ymm9 = (ymm5 * ymm9) + ymm0 vsubps %ymm9, %ymm10, %ymm9 vfmadd213ps %ymm18, %ymm13, %ymm17 # ymm17 = (ymm13 * ymm17) + ymm18 vmulps %ymm17, %ymm14, %ymm14 vmulps %ymm13, %ymm30, %ymm10 vmulps %ymm13, %ymm31, %ymm17 vmulps %ymm13, %ymm21, %ymm18 vfmadd213ps %ymm2, %ymm14, %ymm7 # ymm7 = (ymm14 * ymm7) + ymm2 vsubps %ymm7, %ymm10, %ymm10 vfmadd213ps %ymm1, %ymm14, %ymm6 # ymm6 = (ymm14 * ymm6) + ymm1 vsubps %ymm6, %ymm17, %ymm1 vfmadd213ps %ymm0, %ymm14, %ymm5 # ymm5 = (ymm14 * ymm5) + ymm0 vsubps %ymm5, %ymm18, %ymm5 vbroadcastss 0x1da96b(%rip), %ymm0 # 0x1eeba20 vblendmps %ymm12, %ymm0, %ymm2 {%k1} vbroadcastss 0x1dbac0(%rip), %ymm0 # 0x1eecb84 vblendmps %ymm13, %ymm0, %ymm0 {%k1} vandps 0x120(%rsp), %ymm28, %ymm6 vmovaps 0x460(%rsp), %ymm7 vmaxps %ymm6, %ymm7, %ymm6 vmulps 0x1e0dcb(%rip){1to8}, %ymm6, %ymm6 # 0x1ef1eb4 vandps %ymm28, %ymm15, %ymm7 vcmpltps %ymm6, %ymm7, %k1 {%k1} kortestb %k1, %k1 je 0x1d11192 vcmpleps %ymm20, %ymm11, %k2 vbroadcastss 0x1dba74(%rip), %ymm7 # 0x1eecb84 vbroadcastss 0x1da907(%rip), %ymm11 # 0x1eeba20 vblendmps %ymm7, %ymm11, %ymm6 {%k2} vmovaps %ymm6, %ymm2 {%k1} vblendmps %ymm11, %ymm7, %ymm6 {%k2} vmovaps %ymm6, %ymm0 {%k1} knotb %k1, %k1 korb %k2, %k1, %k1 kandb %k0, %k1, %k0 jmp 0x1d11192 vbroadcastss 0x20fd7b(%rip), %ymm28 # 0x1f20ec4 vmovaps 0x140(%rsp), %xmm2 jmp 0x1d12963 vmovaps %ymm16, %ymm3 vmovaps 0x140(%rsp), %xmm2 jmp 0x1d12963 vxorps %xmm1, %xmm1, %xmm1 vxorps %xmm5, %xmm5, %xmm5 vxorps %xmm3, %xmm3, %xmm3 vxorps %xmm4, %xmm4, %xmm4 vxorps %xmm9, %xmm9, %xmm9 vbroadcastss 0x1da897(%rip), %ymm2 # 0x1eeba20 vbroadcastss 0x1db9f2(%rip), %ymm0 # 0x1eecb84 vmulps %ymm5, %ymm21, %ymm5 vfmadd231ps %ymm1, %ymm31, %ymm5 # ymm5 = (ymm31 * ymm1) + ymm5 vfmadd231ps %ymm10, %ymm30, %ymm5 # ymm5 = (ymm30 * ymm10) + ymm5 vmovaps 0x320(%rsp), %ymm6 vmovaps %ymm6, 0x8c0(%rsp) vminps %ymm2, %ymm8, %ymm1 vmovaps %ymm1, 0x8e0(%rsp) vandps %ymm28, %ymm5, %ymm2 vmaxps %ymm0, %ymm6, %ymm5 vmovaps %ymm5, 0x600(%rsp) vmovaps %ymm8, 0x620(%rsp) vbroadcastss 0x20fcec(%rip), %ymm0 # 0x1f20ed4 vcmpltps %ymm0, %ymm2, %k1 kmovd %k1, 0x114(%rsp) vcmpleps %ymm1, %ymm6, %k1 kmovd %k1, %ecx andb %al, %cl vmovaps %ymm5, 0x360(%rsp) vcmpleps %ymm8, %ymm5, %k1 kmovd %k1, %esi andb %al, %sil movl %esi, 0x40(%rsp) movl %esi, %eax orb %cl, %al je 0x1d11d46 vmovaps %ymm0, %ymm2 movq %r12, 0x168(%rsp) movb %r15b, 0x1b(%rsp) knotb %k0, %k1 vmulps %ymm9, %ymm21, %ymm0 vfmadd213ps %ymm0, %ymm31, %ymm4 # ymm4 = (ymm31 * ymm4) + ymm0 vfmadd213ps %ymm4, %ymm30, %ymm3 # ymm3 = (ymm30 * ymm3) + ymm4 vandps %ymm28, %ymm3, %ymm0 vcmpltps %ymm2, %ymm0, %k0 kmovd %k1, 0x10c(%rsp) korb %k1, %k0, %k1 vpbroadcastd 0x20fc66(%rip), %ymm0 # 0x1f20edc vpblendmd 0x20fc58(%rip){1to8}, %ymm0, %ymm0 {%k1} # 0x1f20ed8 movq 0x100(%rsp), %rax vpbroadcastd %eax, %ymm1 vmovdqa %ymm0, 0x640(%rsp) vmovdqa %ymm1, 0x440(%rsp) vpcmpnltd %ymm0, %ymm1, %k0 kmovd %k0, %r12d movl %ecx, 0x110(%rsp) andb %cl, %r12b je 0x1d11d5d vmovaps 0x260(%rsp), %ymm1 vmovaps 0x220(%rsp), %ymm2 vminps %xmm2, %xmm1, %xmm0 vmaxps %xmm2, %xmm1, %xmm1 vmovaps 0x240(%rsp), %ymm3 vmovaps 0x200(%rsp), %ymm4 vminps %xmm4, %xmm3, %xmm2 vminps %xmm2, %xmm0, %xmm0 vmaxps %xmm4, %xmm3, %xmm2 vmaxps %xmm2, %xmm1, %xmm1 vbroadcastss 0x20fbc4(%rip), %xmm2 # 0x1f20ec4 vandps %xmm2, %xmm0, %xmm0 vandps %xmm2, %xmm1, %xmm2 vmaxps %xmm2, %xmm0, %xmm0 vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3] vmaxss %xmm0, %xmm2, %xmm2 vshufpd $0x1, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[1,0] vmaxss %xmm2, %xmm0, %xmm0 vmulss 0x1e0b8f(%rip), %xmm0, %xmm0 # 0x1ef1eb4 vmovss %xmm0, 0x50(%rsp) vshufps $0xff, %xmm1, %xmm1, %xmm0 # xmm0 = xmm1[3,3,3,3] vmovaps %xmm0, 0x2a0(%rsp) vmovaps 0x320(%rsp), %ymm0 vaddps 0x340(%rsp), %ymm0, %ymm0 vmovaps %ymm0, 0x380(%rsp) kmovd %r12d, %k1 vbroadcastss 0x1da6be(%rip), %ymm0 # 0x1eeba20 vblendmps 0x320(%rsp), %ymm0, %ymm0 {%k1} vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm0, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1] vminps %ymm2, %ymm1, %ymm1 vcmpeqps %ymm1, %ymm0, %k0 kmovd %k0, %eax andb %r12b, %al movzbl %al, %eax movzbl %r12b, %ecx cmovnel %eax, %ecx tzcntl %ecx, %ecx movb $0x1, %r14b shlb %cl, %r14b shll $0x2, %ecx vmovss 0x3c0(%rsp,%rcx), %xmm10 vmovss 0x8c0(%rsp,%rcx), %xmm8 vmovaps 0x1e0(%rsp), %xmm0 vucomiss 0x1da656(%rip), %xmm0 # 0x1eeba24 vmovss 0x118(%rsp), %xmm0 jae 0x1d1141a vmovaps 0x1e0(%rsp), %xmm0 vmovaps %xmm10, 0x60(%rsp) vmovaps %xmm8, 0xa0(%rsp) kmovw %k1, 0x80(%rsp) vzeroupper callq 0x6aa20 kmovw 0x80(%rsp), %k1 vmovaps 0xa0(%rsp), %xmm8 vmovaps 0x60(%rsp), %xmm10 movzbl %r14b, %eax kmovd %eax, %k0 kandnb %k1, %k0, %k0 kmovd %k0, %r12d vmulss 0x1e0a82(%rip), %xmm0, %xmm0 # 0x1ef1eb4 vmovss %xmm0, 0x54(%rsp) movl $0x5, %r15d vmovaps %xmm8, 0xa0(%rsp) vbroadcastss %xmm8, %xmm0 vxorps %xmm1, %xmm1, %xmm1 vfmadd132ps 0x1f0(%rsp), %xmm1, %xmm0 # xmm0 = (xmm0 * mem) + xmm1 vmovss 0x1db2b2(%rip), %xmm1 # 0x1eec714 vsubss %xmm10, %xmm1, %xmm4 vmulss %xmm4, %xmm4, %xmm1 vmulss %xmm1, %xmm4, %xmm1 vmulss %xmm10, %xmm10, %xmm11 vmulss %xmm11, %xmm10, %xmm2 vmovss 0x1db70b(%rip), %xmm7 # 0x1eecb8c vmovaps %xmm7, %xmm3 vfmadd213ss %xmm2, %xmm1, %xmm3 # xmm3 = (xmm1 * xmm3) + xmm2 vmulss %xmm4, %xmm10, %xmm12 vmovaps %xmm4, 0x80(%rsp) vmulss %xmm4, %xmm12, %xmm4 vmulss %xmm12, %xmm10, %xmm5 vmovss 0x1dfb4c(%rip), %xmm8 # 0x1ef0ff4 vmulss %xmm5, %xmm8, %xmm6 vmovss 0x1dfb48(%rip), %xmm9 # 0x1ef0ffc vfmadd231ss %xmm9, %xmm4, %xmm6 # xmm6 = (xmm4 * xmm9) + xmm6 vaddss %xmm6, %xmm3, %xmm3 vmovaps %xmm7, %xmm6 vfmadd213ss %xmm1, %xmm2, %xmm6 # xmm6 = (xmm2 * xmm6) + xmm1 vmulss %xmm4, %xmm8, %xmm4 vfmadd231ss %xmm5, %xmm9, %xmm4 # xmm4 = (xmm9 * xmm5) + xmm4 vaddss %xmm4, %xmm6, %xmm4 vmovss 0x1dfb25(%rip), %xmm5 # 0x1ef1000 vmulss %xmm5, %xmm1, %xmm1 vmulss %xmm5, %xmm3, %xmm3 vmulss %xmm5, %xmm4, %xmm4 vmulss %xmm5, %xmm2, %xmm2 vbroadcastss %xmm2, %xmm2 vmulps 0x200(%rsp), %xmm2, %xmm2 vbroadcastss %xmm4, %xmm4 vfmadd132ps 0x240(%rsp), %xmm2, %xmm4 # xmm4 = (xmm4 * mem) + xmm2 vbroadcastss %xmm3, %xmm2 vfmadd132ps 0x220(%rsp), %xmm4, %xmm2 # xmm2 = (xmm2 * mem) + xmm4 vbroadcastss %xmm1, %xmm1 vfmadd132ps 0x260(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2 vmovaps %xmm1, 0x310(%rsp) vsubps %xmm1, %xmm0, %xmm0 vmovaps %xmm0, 0x1c0(%rsp) vdpps $0x7f, %xmm0, %xmm0, %xmm0 vucomiss 0x1da4da(%rip), %xmm0 # 0x1eeba24 vmovaps %xmm10, 0x60(%rsp) vmovaps %xmm0, 0x1a0(%rsp) jb 0x1d11561 vsqrtss %xmm0, %xmm0, %xmm7 jmp 0x1d11591 vmovss %xmm11, 0x120(%rsp) vmovss %xmm12, 0x1c(%rsp) vzeroupper callq 0x6aa20 vmovss 0x1c(%rsp), %xmm12 vmovss 0x120(%rsp), %xmm11 vmovaps 0x60(%rsp), %xmm10 vmovaps %xmm0, %xmm7 vmovaps 0x80(%rsp), %xmm3 vbroadcastss %xmm3, %xmm1 vbroadcastss 0x20f918(%rip), %xmm4 # 0x1f20ec0 vmovaps %xmm1, 0x300(%rsp) vxorps %xmm4, %xmm1, %xmm0 vmulss %xmm0, %xmm3, %xmm0 vmulss 0x1db5cb(%rip), %xmm12, %xmm1 # 0x1eecb8c vmovaps %xmm10, %xmm2 vfnmsub213ss %xmm1, %xmm10, %xmm2 # xmm2 = -(xmm10 * xmm2) - xmm1 vfmadd231ss %xmm3, %xmm3, %xmm1 # xmm1 = (xmm3 * xmm3) + xmm1 vmovss 0x1db5a9(%rip), %xmm3 # 0x1eecb80 vmulss %xmm3, %xmm0, %xmm0 vmulss %xmm3, %xmm2, %xmm2 vmulss %xmm3, %xmm1, %xmm1 vmulss %xmm3, %xmm11, %xmm3 vbroadcastss %xmm3, %xmm3 vmulps 0x200(%rsp), %xmm3, %xmm3 vbroadcastss %xmm1, %xmm1 vfmadd132ps 0x240(%rsp), %xmm3, %xmm1 # xmm1 = (xmm1 * mem) + xmm3 vbroadcastss %xmm2, %xmm2 vfmadd132ps 0x220(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1 vbroadcastss %xmm0, %xmm12 vfmadd132ps 0x260(%rsp), %xmm2, %xmm12 # xmm12 = (xmm12 * mem) + xmm2 vdpps $0x7f, %xmm12, %xmm12, %xmm0 vxorps %xmm1, %xmm1, %xmm1 vmovss %xmm0, %xmm1, %xmm2 # xmm2 = xmm0[0],xmm1[1,2,3] vrsqrt14ss %xmm2, %xmm1, %xmm3 vmulss 0x1db0da(%rip), %xmm3, %xmm6 # 0x1eec718 vmulss 0x1db0d6(%rip), %xmm0, %xmm8 # 0x1eec71c vrcp14ss %xmm2, %xmm1, %xmm2 vxorps %xmm4, %xmm0, %xmm1 vmovaps %xmm2, 0x2e0(%rsp) vfnmadd213ss 0x1df996(%rip), %xmm0, %xmm2 # xmm2 = -(xmm0 * xmm2) + mem vmovss %xmm2, 0x58(%rsp) vucomiss %xmm1, %xmm0 vmovaps %xmm12, 0x120(%rsp) vmovss %xmm7, 0x1c(%rsp) vmovaps %xmm0, 0x2f0(%rsp) jb 0x1d1168c vsqrtss %xmm0, %xmm0, %xmm5 jmp 0x1d116d7 vmovaps %xmm3, 0xe0(%rsp) vmovss %xmm6, 0x2c(%rsp) vmovss %xmm8, 0xd0(%rsp) vzeroupper callq 0x6aa20 vmovss 0xd0(%rsp), %xmm8 vmovss 0x2c(%rsp), %xmm6 vmovaps 0xe0(%rsp), %xmm3 vmovss 0x1c(%rsp), %xmm7 vmovaps 0x120(%rsp), %xmm12 vmovaps %xmm0, %xmm5 vmovaps 0x1c0(%rsp), %xmm9 vmovaps 0x1a0(%rsp), %xmm18 vmulss %xmm3, %xmm8, %xmm0 vmulss %xmm3, %xmm3, %xmm1 vmulss %xmm1, %xmm0, %xmm0 vaddss %xmm0, %xmm6, %xmm0 vbroadcastss %xmm0, %xmm4 vmulps %xmm4, %xmm12, %xmm0 vmovaps %xmm0, 0xe0(%rsp) vdpps $0x7f, %xmm0, %xmm9, %xmm14 vaddss 0x1daffc(%rip), %xmm7, %xmm13 # 0x1eec714 vmulps %xmm14, %xmm14, %xmm0 vsubps %xmm0, %xmm18, %xmm0 vxorps %xmm2, %xmm2, %xmm2 vmovss %xmm0, %xmm2, %xmm1 # xmm1 = xmm0[0],xmm2[1,2,3] vrsqrt14ss %xmm1, %xmm2, %xmm15 vmulss 0x1dafdd(%rip), %xmm15, %xmm17 # 0x1eec718 vmulss 0x1dafd7(%rip), %xmm0, %xmm19 # 0x1eec71c vucomiss 0x1da2d7(%rip), %xmm0 # 0x1eeba24 jb 0x1d11758 vsqrtss %xmm0, %xmm0, %xmm0 jmp 0x1d117ee vmovss %xmm13, 0x2c(%rsp) vmovaps %xmm14, 0xd0(%rsp) vmovss %xmm5, 0x4c(%rsp) vmovaps %xmm15, 0x2d0(%rsp) vmovss %xmm17, 0x48(%rsp) vmovss %xmm19, 0x44(%rsp) vmovaps %xmm4, 0x2c0(%rsp) vzeroupper callq 0x6aa20 vmovaps 0x2c0(%rsp), %xmm4 vmovss 0x44(%rsp), %xmm19 vmovss 0x48(%rsp), %xmm17 vmovaps 0x2d0(%rsp), %xmm15 vmovss 0x4c(%rsp), %xmm5 vmovaps 0xd0(%rsp), %xmm14 vmovss 0x2c(%rsp), %xmm13 vmovss 0x1c(%rsp), %xmm7 vmovaps 0x120(%rsp), %xmm12 vmovaps 0x1a0(%rsp), %xmm18 vmovaps 0x1c0(%rsp), %xmm9 vbroadcastss 0x20f6cc(%rip), %ymm28 # 0x1f20ec4 vmovaps 0x60(%rsp), %xmm10 vmovaps 0xa0(%rsp), %xmm8 vmovss 0x1df1cd(%rip), %xmm2 # 0x1ef09dc vmovaps %xmm2, %xmm1 vmovaps 0x80(%rsp), %xmm3 vfmadd213ss %xmm10, %xmm3, %xmm1 # xmm1 = (xmm3 * xmm1) + xmm10 vfmadd231ss %xmm2, %xmm10, %xmm3 # xmm3 = (xmm10 * xmm2) + xmm3 vbroadcastss %xmm10, %xmm2 vmulps 0x200(%rsp), %xmm2, %xmm2 vbroadcastss %xmm3, %xmm3 vfmadd132ps 0x240(%rsp), %xmm2, %xmm3 # xmm3 = (xmm3 * mem) + xmm2 vbroadcastss %xmm1, %xmm1 vfmadd132ps 0x220(%rsp), %xmm3, %xmm1 # xmm1 = (xmm1 * mem) + xmm3 vmovaps 0x300(%rsp), %xmm2 vfmadd132ps 0x260(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1 vbroadcastss 0x2f0(%rsp), %xmm1 vmulps %xmm1, %xmm2, %xmm1 vdpps $0x7f, %xmm2, %xmm12, %xmm2 vbroadcastss %xmm2, %xmm2 vmulps %xmm2, %xmm12, %xmm2 vsubps %xmm2, %xmm1, %xmm2 vmovss 0x58(%rsp), %xmm1 vmulss 0x2e0(%rsp), %xmm1, %xmm3 vmulss 0x54(%rsp), %xmm8, %xmm1 vmovss 0x50(%rsp), %xmm6 vmaxss %xmm1, %xmm6, %xmm1 vbroadcastss %xmm3, %xmm3 vmulps %xmm3, %xmm2, %xmm2 vxorps 0x20f608(%rip){1to4}, %xmm12, %xmm3 # 0x1f20ec0 vmulps %xmm2, %xmm4, %xmm2 vmovaps 0xe0(%rsp), %xmm11 vdpps $0x7f, %xmm11, %xmm3, %xmm4 vdivss %xmm5, %xmm6, %xmm5 vfmadd213ss %xmm1, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm7) + xmm1 vdpps $0x7f, %xmm2, %xmm9, %xmm2 vfmadd213ss %xmm7, %xmm5, %xmm13 # xmm13 = (xmm5 * xmm13) + xmm7 vaddss %xmm2, %xmm4, %xmm4 vmovaps 0x1f0(%rsp), %xmm7 vdpps $0x7f, %xmm11, %xmm7, %xmm5 vdpps $0x7f, %xmm3, %xmm9, %xmm3 vmulss %xmm15, %xmm19, %xmm2 vmulss %xmm15, %xmm15, %xmm6 vmulss %xmm6, %xmm2, %xmm2 vaddss %xmm2, %xmm17, %xmm6 vdpps $0x7f, %xmm7, %xmm9, %xmm7 vfnmadd231ss %xmm4, %xmm14, %xmm3 # xmm3 = -(xmm14 * xmm4) + xmm3 vfnmadd231ss %xmm5, %xmm14, %xmm7 # xmm7 = -(xmm14 * xmm5) + xmm7 vpermilps $0xff, 0x310(%rsp), %xmm2 # xmm2 = mem[3,3,3,3] vsubss %xmm2, %xmm0, %xmm2 vshufps $0xff, %xmm12, %xmm12, %xmm0 # xmm0 = xmm12[3,3,3,3] vfmsub213ss %xmm0, %xmm6, %xmm3 # xmm3 = (xmm6 * xmm3) - xmm0 vmulss %xmm6, %xmm7, %xmm6 vmulss %xmm3, %xmm5, %xmm7 vfmsub231ss %xmm6, %xmm4, %xmm7 # xmm7 = (xmm4 * xmm6) - xmm7 vdivss %xmm7, %xmm6, %xmm6 vdivss %xmm7, %xmm3, %xmm3 vdivss %xmm7, %xmm5, %xmm5 vdivss %xmm7, %xmm4, %xmm4 vmulss %xmm6, %xmm14, %xmm6 vmulss %xmm5, %xmm2, %xmm5 vsubss %xmm5, %xmm6, %xmm5 vmulss %xmm3, %xmm14, %xmm3 vmulss %xmm4, %xmm2, %xmm4 vsubss %xmm3, %xmm4, %xmm3 vsubss %xmm5, %xmm10, %xmm10 vsubss %xmm3, %xmm8, %xmm8 vbroadcastss 0x20f547(%rip), %xmm4 # 0x1f20ec4 vandps %xmm4, %xmm14, %xmm3 vucomiss %xmm3, %xmm13 movb $0x1, %al jbe 0x1d119d9 vaddss %xmm1, %xmm13, %xmm1 vmovaps 0x2a0(%rsp), %xmm3 vfmadd231ss 0x1e0515(%rip), %xmm3, %xmm1 # xmm1 = (xmm3 * mem) + xmm1 vandps %xmm4, %xmm2, %xmm2 vucomiss %xmm2, %xmm1 jbe 0x1d119d9 vaddss 0x2b0(%rsp), %xmm8, %xmm8 vucomiss 0x5c(%rsp), %xmm8 jb 0x1d119d4 movq 0x30(%rsp), %rax movq 0x20(%rsp), %rcx vmovss 0x100(%rcx,%rax,4), %xmm5 vucomiss %xmm8, %xmm5 jae 0x1d119ef xorl %eax, %eax xorl %r14d, %r14d testb %al, %al je 0x1d11d14 decq %r15 jne 0x1d1143e jmp 0x1d11d11 xorl %eax, %eax vucomiss 0x1da02b(%rip), %xmm10 # 0x1eeba24 jb 0x1d119d6 vmovss 0x1dad11(%rip), %xmm1 # 0x1eec714 vucomiss %xmm10, %xmm1 jb 0x1d119d6 vxorps %xmm2, %xmm2, %xmm2 vmovss %xmm18, %xmm2, %xmm1 # xmm1 = xmm18[0],xmm2[1,2,3] vrsqrt14ss %xmm1, %xmm2, %xmm1 vmulss 0x1dacf6(%rip), %xmm1, %xmm2 # 0x1eec718 vmulss 0x1dacf0(%rip), %xmm18, %xmm3 # 0x1eec71c movq 0x38(%rsp), %rdx movq (%rdx), %rax movq 0x1e8(%rax), %rax movq 0xf8(%rsp), %rcx movq (%rax,%rcx,8), %r14 movq 0x30(%rsp), %rax movq 0x20(%rsp), %rcx movl 0x120(%rcx,%rax,4), %eax testl %eax, 0x34(%r14) je 0x1d119d4 movq 0x10(%rdx), %rax cmpq $0x0, 0x10(%rax) jne 0x1d11a7e cmpq $0x0, 0x48(%r14) jne 0x1d11a7e movb $0x1, %r14b xorl %eax, %eax jmp 0x1d119d9 vmulss %xmm1, %xmm3, %xmm3 vmulss %xmm1, %xmm1, %xmm1 vmulss %xmm1, %xmm3, %xmm1 vaddss %xmm1, %xmm2, %xmm1 vbroadcastss %xmm1, %xmm1 vmulps %xmm1, %xmm9, %xmm1 vfmadd213ps %xmm12, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm0) + xmm12 vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3] vshufps $0xc9, %xmm12, %xmm12, %xmm3 # xmm3 = xmm12[1,2,0,3] vmulps %xmm3, %xmm1, %xmm1 vfmsub231ps %xmm2, %xmm12, %xmm1 # xmm1 = (xmm12 * xmm2) - xmm1 vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3] vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3] vshufps $0xd2, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,0,1,3] vmulps %xmm1, %xmm0, %xmm0 vfmsub231ps %xmm3, %xmm2, %xmm0 # xmm0 = (xmm2 * xmm3) - xmm0 movq 0x38(%rsp), %rdx movq 0x8(%rdx), %rax vbroadcastss %xmm10, %ymm1 vbroadcastss 0x200c25(%rip), %ymm2 # 0x1f12704 vpermps %ymm0, %ymm2, %ymm2 vbroadcastss 0x20f3ef(%rip), %ymm3 # 0x1f20edc vpermps %ymm0, %ymm3, %ymm3 vbroadcastss %xmm0, %ymm0 vmovaps %ymm2, 0x4e0(%rsp) vmovaps %ymm3, 0x500(%rsp) vmovaps %ymm0, 0x520(%rsp) vmovaps %ymm1, 0x540(%rsp) vxorps %xmm0, %xmm0, %xmm0 vmovaps %ymm0, 0x560(%rsp) vmovaps 0x420(%rsp), %ymm0 vmovaps %ymm0, 0x580(%rsp) vmovdqa 0x400(%rsp), %ymm0 vmovdqa %ymm0, 0x5a0(%rsp) movq 0x158(%rsp), %rcx vpcmpeqd %ymm0, %ymm0, %ymm0 vmovdqa %ymm0, 0x20(%rcx) vmovdqa %ymm0, (%rcx) vbroadcastss (%rax), %ymm0 vmovaps %ymm0, 0x5c0(%rsp) vbroadcastss 0x4(%rax), %ymm0 vmovaps %ymm0, 0x5e0(%rsp) movq 0x30(%rsp), %rax movq 0x20(%rsp), %rcx vmovss %xmm8, 0x100(%rcx,%rax,4) vmovaps 0x3e0(%rsp), %ymm0 vmovaps %ymm0, 0x280(%rsp) leaq 0x280(%rsp), %rax movq %rax, 0x170(%rsp) movq 0x18(%r14), %rax movq %rax, 0x178(%rsp) movq 0x8(%rdx), %rax movq %rax, 0x180(%rsp) movq %rcx, 0x188(%rsp) leaq 0x4e0(%rsp), %rax movq %rax, 0x190(%rsp) movl $0x8, 0x198(%rsp) movq 0x48(%r14), %rax testq %rax, %rax vmovaps %xmm10, 0x60(%rsp) vmovaps %xmm8, 0xa0(%rsp) vmovss %xmm5, 0x80(%rsp) je 0x1d11c47 leaq 0x170(%rsp), %rdi vzeroupper callq *%rax vmovss 0x80(%rsp), %xmm5 vmovaps 0xa0(%rsp), %xmm8 vmovaps 0x60(%rsp), %xmm10 vbroadcastss 0x20f287(%rip), %xmm4 # 0x1f20ec4 vbroadcastss 0x20f27d(%rip), %ymm28 # 0x1f20ec4 vmovdqa 0x280(%rsp), %ymm0 vptest %ymm0, %ymm0 je 0x1d11ced movq 0x38(%rsp), %rax movq 0x10(%rax), %rcx movq 0x10(%rcx), %rax testq %rax, %rax je 0x1d11cb1 testb $0x2, (%rcx) jne 0x1d11c79 testb $0x40, 0x3e(%r14) je 0x1d11cb1 leaq 0x170(%rsp), %rdi vzeroupper callq *%rax vmovss 0x80(%rsp), %xmm5 vmovaps 0xa0(%rsp), %xmm8 vmovaps 0x60(%rsp), %xmm10 vbroadcastss 0x20f21d(%rip), %xmm4 # 0x1f20ec4 vbroadcastss 0x20f213(%rip), %ymm28 # 0x1f20ec4 vmovdqa 0x280(%rsp), %ymm0 vptestmd %ymm0, %ymm0, %k1 movq 0x188(%rsp), %rax vmovaps 0x100(%rax), %ymm1 vbroadcastss 0x1daeaa(%rip), %ymm1 {%k1} # 0x1eecb84 vmovaps %ymm1, 0x100(%rax) vptest %ymm0, %ymm0 setne %r14b jmp 0x1d11cf0 xorl %r14d, %r14d testb %r14b, %r14b jne 0x1d11a77 movq 0x30(%rsp), %rax movq 0x20(%rsp), %rcx vmovss %xmm5, 0x100(%rcx,%rax,4) jmp 0x1d11a77 xorl %r14d, %r14d andb $0x1, %r14b orb %r14b, %r13b movq 0x30(%rsp), %rdx movq 0x20(%rsp), %rax vmovaps 0x380(%rsp), %ymm0 vcmpleps 0x100(%rax,%rdx,4){1to8}, %ymm0, %k0 kmovd %k0, %eax andb %al, %r12b jne 0x1d11354 jmp 0x1d11d66 vbroadcastss 0x1da9c5(%rip), %ymm3 # 0x1eec714 vmovaps 0x140(%rsp), %xmm2 jmp 0x1d12963 vbroadcastss 0x20f15e(%rip), %xmm4 # 0x1f20ec4 vmovaps 0x340(%rsp), %ymm3 vaddps 0x360(%rsp), %ymm3, %ymm0 movq 0x20(%rsp), %rax vcmpleps 0x100(%rax,%rdx,4){1to8}, %ymm0, %k0 kmovd 0x114(%rsp), %k1 kmovd 0x10c(%rsp), %k2 korb %k2, %k1, %k1 kmovd %k0, %eax movl 0x40(%rsp), %ecx andb %al, %cl vpbroadcastd 0x20f12b(%rip), %ymm0 # 0x1f20edc vpblendmd 0x20f11d(%rip){1to8}, %ymm0, %ymm0 {%k1} # 0x1f20ed8 vmovdqa %ymm0, 0x360(%rsp) vpcmpled 0x440(%rsp), %ymm0, %k0 kmovd %k0, %r12d movl %ecx, 0x40(%rsp) andb %cl, %r12b je 0x1d12850 vmovaps 0x600(%rsp), %ymm7 vmovaps 0x260(%rsp), %ymm1 vmovaps 0x220(%rsp), %ymm2 vminps %xmm2, %xmm1, %xmm0 vmaxps %xmm2, %xmm1, %xmm1 vmovaps 0x240(%rsp), %ymm5 vmovaps 0x200(%rsp), %ymm6 vminps %xmm6, %xmm5, %xmm2 vminps %xmm2, %xmm0, %xmm0 vmaxps %xmm6, %xmm5, %xmm2 vmaxps %xmm2, %xmm1, %xmm1 vandps %xmm4, %xmm0, %xmm0 vandps %xmm4, %xmm1, %xmm2 vmaxps %xmm2, %xmm0, %xmm0 vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3] vmaxss %xmm0, %xmm2, %xmm2 vshufpd $0x1, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[1,0] vmaxss %xmm2, %xmm0, %xmm0 vmulss 0x1e006c(%rip), %xmm0, %xmm0 # 0x1ef1eb4 vmovss %xmm0, 0x50(%rsp) vshufps $0xff, %xmm1, %xmm1, %xmm0 # xmm0 = xmm1[3,3,3,3] vmovaps %xmm0, 0x2a0(%rsp) vmovaps %ymm7, 0x320(%rsp) vaddps %ymm7, %ymm3, %ymm0 vmovaps %ymm0, 0x380(%rsp) kmovd %r12d, %k1 vbroadcastss 0x1d9ba0(%rip), %ymm0 # 0x1eeba20 vblendmps 0x320(%rsp), %ymm0, %ymm0 {%k1} vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm0, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1] vminps %ymm2, %ymm1, %ymm1 vcmpeqps %ymm1, %ymm0, %k0 kmovd %k0, %eax andb %r12b, %al movzbl %al, %eax movzbl %r12b, %ecx cmovnel %eax, %ecx tzcntl %ecx, %ecx movb $0x1, %r14b shlb %cl, %r14b shll $0x2, %ecx vmovss 0x3a0(%rsp,%rcx), %xmm10 vmovss 0x620(%rsp,%rcx), %xmm8 vmovaps 0x1e0(%rsp), %xmm0 vucomiss 0x1d9b38(%rip), %xmm0 # 0x1eeba24 vmovss 0x11c(%rsp), %xmm0 jae 0x1d11f38 vmovaps 0x1e0(%rsp), %xmm0 vmovaps %xmm10, 0x60(%rsp) vmovaps %xmm8, 0xa0(%rsp) kmovw %k1, 0x80(%rsp) vzeroupper callq 0x6aa20 kmovw 0x80(%rsp), %k1 vmovaps 0xa0(%rsp), %xmm8 vmovaps 0x60(%rsp), %xmm10 movzbl %r14b, %eax kmovd %eax, %k0 kandnb %k1, %k0, %k0 kmovd %k0, %r12d vmulss 0x1dff64(%rip), %xmm0, %xmm0 # 0x1ef1eb4 vmovss %xmm0, 0x54(%rsp) movl $0x5, %r15d vmovaps %xmm8, 0xa0(%rsp) vbroadcastss %xmm8, %xmm0 vxorps %xmm1, %xmm1, %xmm1 vfmadd132ps 0x1f0(%rsp), %xmm1, %xmm0 # xmm0 = (xmm0 * mem) + xmm1 vmovss 0x1da794(%rip), %xmm1 # 0x1eec714 vsubss %xmm10, %xmm1, %xmm4 vmulss %xmm4, %xmm4, %xmm1 vmulss %xmm1, %xmm4, %xmm1 vmulss %xmm10, %xmm10, %xmm11 vmulss %xmm11, %xmm10, %xmm2 vmovss 0x1dabed(%rip), %xmm7 # 0x1eecb8c vmovaps %xmm7, %xmm3 vfmadd213ss %xmm2, %xmm1, %xmm3 # xmm3 = (xmm1 * xmm3) + xmm2 vmulss %xmm4, %xmm10, %xmm12 vmovaps %xmm4, 0x80(%rsp) vmulss %xmm4, %xmm12, %xmm4 vmulss %xmm12, %xmm10, %xmm5 vmovss 0x1df02e(%rip), %xmm8 # 0x1ef0ff4 vmulss %xmm5, %xmm8, %xmm6 vmovss 0x1df02a(%rip), %xmm9 # 0x1ef0ffc vfmadd231ss %xmm9, %xmm4, %xmm6 # xmm6 = (xmm4 * xmm9) + xmm6 vaddss %xmm6, %xmm3, %xmm3 vmovaps %xmm7, %xmm6 vfmadd213ss %xmm1, %xmm2, %xmm6 # xmm6 = (xmm2 * xmm6) + xmm1 vmulss %xmm4, %xmm8, %xmm4 vfmadd231ss %xmm5, %xmm9, %xmm4 # xmm4 = (xmm9 * xmm5) + xmm4 vaddss %xmm4, %xmm6, %xmm4 vmovss 0x1df007(%rip), %xmm5 # 0x1ef1000 vmulss %xmm5, %xmm1, %xmm1 vmulss %xmm5, %xmm3, %xmm3 vmulss %xmm5, %xmm4, %xmm4 vmulss %xmm5, %xmm2, %xmm2 vbroadcastss %xmm2, %xmm2 vmulps 0x200(%rsp), %xmm2, %xmm2 vbroadcastss %xmm4, %xmm4 vfmadd132ps 0x240(%rsp), %xmm2, %xmm4 # xmm4 = (xmm4 * mem) + xmm2 vbroadcastss %xmm3, %xmm2 vfmadd132ps 0x220(%rsp), %xmm4, %xmm2 # xmm2 = (xmm2 * mem) + xmm4 vbroadcastss %xmm1, %xmm1 vfmadd132ps 0x260(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2 vmovaps %xmm1, 0x310(%rsp) vsubps %xmm1, %xmm0, %xmm0 vmovaps %xmm0, 0x1c0(%rsp) vdpps $0x7f, %xmm0, %xmm0, %xmm0 vucomiss 0x1d99bc(%rip), %xmm0 # 0x1eeba24 vmovaps %xmm10, 0x60(%rsp) vmovaps %xmm0, 0x1a0(%rsp) jb 0x1d1207f vsqrtss %xmm0, %xmm0, %xmm7 jmp 0x1d120af vmovss %xmm11, 0x120(%rsp) vmovss %xmm12, 0x1c(%rsp) vzeroupper callq 0x6aa20 vmovss 0x1c(%rsp), %xmm12 vmovss 0x120(%rsp), %xmm11 vmovaps 0x60(%rsp), %xmm10 vmovaps %xmm0, %xmm7 vmovaps 0x80(%rsp), %xmm3 vbroadcastss %xmm3, %xmm1 vbroadcastss 0x20edfa(%rip), %xmm4 # 0x1f20ec0 vmovaps %xmm1, 0x300(%rsp) vxorps %xmm4, %xmm1, %xmm0 vmulss %xmm0, %xmm3, %xmm0 vmulss 0x1daaad(%rip), %xmm12, %xmm1 # 0x1eecb8c vmovaps %xmm10, %xmm2 vfnmsub213ss %xmm1, %xmm10, %xmm2 # xmm2 = -(xmm10 * xmm2) - xmm1 vfmadd231ss %xmm3, %xmm3, %xmm1 # xmm1 = (xmm3 * xmm3) + xmm1 vmovss 0x1daa8b(%rip), %xmm3 # 0x1eecb80 vmulss %xmm3, %xmm0, %xmm0 vmulss %xmm3, %xmm2, %xmm2 vmulss %xmm3, %xmm1, %xmm1 vmulss %xmm3, %xmm11, %xmm3 vbroadcastss %xmm3, %xmm3 vmulps 0x200(%rsp), %xmm3, %xmm3 vbroadcastss %xmm1, %xmm1 vfmadd132ps 0x240(%rsp), %xmm3, %xmm1 # xmm1 = (xmm1 * mem) + xmm3 vbroadcastss %xmm2, %xmm2 vfmadd132ps 0x220(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1 vbroadcastss %xmm0, %xmm12 vfmadd132ps 0x260(%rsp), %xmm2, %xmm12 # xmm12 = (xmm12 * mem) + xmm2 vdpps $0x7f, %xmm12, %xmm12, %xmm0 vxorps %xmm1, %xmm1, %xmm1 vmovss %xmm0, %xmm1, %xmm2 # xmm2 = xmm0[0],xmm1[1,2,3] vrsqrt14ss %xmm2, %xmm1, %xmm3 vmulss 0x1da5bc(%rip), %xmm3, %xmm6 # 0x1eec718 vmulss 0x1da5b8(%rip), %xmm0, %xmm8 # 0x1eec71c vrcp14ss %xmm2, %xmm1, %xmm2 vxorps %xmm4, %xmm0, %xmm1 vmovaps %xmm2, 0x2e0(%rsp) vfnmadd213ss 0x1dee78(%rip), %xmm0, %xmm2 # xmm2 = -(xmm0 * xmm2) + mem vmovss %xmm2, 0x58(%rsp) vucomiss %xmm1, %xmm0 vmovaps %xmm12, 0x120(%rsp) vmovss %xmm7, 0x1c(%rsp) vmovaps %xmm0, 0x2f0(%rsp) jb 0x1d121aa vsqrtss %xmm0, %xmm0, %xmm5 jmp 0x1d121f5 vmovaps %xmm3, 0xe0(%rsp) vmovss %xmm6, 0x2c(%rsp) vmovss %xmm8, 0xd0(%rsp) vzeroupper callq 0x6aa20 vmovss 0xd0(%rsp), %xmm8 vmovss 0x2c(%rsp), %xmm6 vmovaps 0xe0(%rsp), %xmm3 vmovss 0x1c(%rsp), %xmm7 vmovaps 0x120(%rsp), %xmm12 vmovaps %xmm0, %xmm5 vmovaps 0x1c0(%rsp), %xmm9 vmovaps 0x1a0(%rsp), %xmm18 vmulss %xmm3, %xmm8, %xmm0 vmulss %xmm3, %xmm3, %xmm1 vmulss %xmm1, %xmm0, %xmm0 vaddss %xmm0, %xmm6, %xmm0 vbroadcastss %xmm0, %xmm4 vmulps %xmm4, %xmm12, %xmm0 vmovaps %xmm0, 0xe0(%rsp) vdpps $0x7f, %xmm0, %xmm9, %xmm14 vaddss 0x1da4de(%rip), %xmm7, %xmm13 # 0x1eec714 vmulps %xmm14, %xmm14, %xmm0 vsubps %xmm0, %xmm18, %xmm0 vxorps %xmm2, %xmm2, %xmm2 vmovss %xmm0, %xmm2, %xmm1 # xmm1 = xmm0[0],xmm2[1,2,3] vrsqrt14ss %xmm1, %xmm2, %xmm15 vmulss 0x1da4bf(%rip), %xmm15, %xmm17 # 0x1eec718 vmulss 0x1da4b9(%rip), %xmm0, %xmm19 # 0x1eec71c vucomiss 0x1d97b9(%rip), %xmm0 # 0x1eeba24 jb 0x1d12276 vsqrtss %xmm0, %xmm0, %xmm0 jmp 0x1d1230c vmovss %xmm13, 0x2c(%rsp) vmovaps %xmm14, 0xd0(%rsp) vmovss %xmm5, 0x4c(%rsp) vmovaps %xmm15, 0x2d0(%rsp) vmovss %xmm17, 0x48(%rsp) vmovss %xmm19, 0x44(%rsp) vmovaps %xmm4, 0x2c0(%rsp) vzeroupper callq 0x6aa20 vmovaps 0x2c0(%rsp), %xmm4 vmovss 0x44(%rsp), %xmm19 vmovss 0x48(%rsp), %xmm17 vmovaps 0x2d0(%rsp), %xmm15 vmovss 0x4c(%rsp), %xmm5 vmovaps 0xd0(%rsp), %xmm14 vmovss 0x2c(%rsp), %xmm13 vmovss 0x1c(%rsp), %xmm7 vmovaps 0x120(%rsp), %xmm12 vmovaps 0x1a0(%rsp), %xmm18 vmovaps 0x1c0(%rsp), %xmm9 vbroadcastss 0x20ebae(%rip), %ymm28 # 0x1f20ec4 vmovaps 0x60(%rsp), %xmm10 vmovaps 0xa0(%rsp), %xmm8 vmovss 0x1de6af(%rip), %xmm2 # 0x1ef09dc vmovaps %xmm2, %xmm1 vmovaps 0x80(%rsp), %xmm3 vfmadd213ss %xmm10, %xmm3, %xmm1 # xmm1 = (xmm3 * xmm1) + xmm10 vfmadd231ss %xmm2, %xmm10, %xmm3 # xmm3 = (xmm10 * xmm2) + xmm3 vbroadcastss %xmm10, %xmm2 vmulps 0x200(%rsp), %xmm2, %xmm2 vbroadcastss %xmm3, %xmm3 vfmadd132ps 0x240(%rsp), %xmm2, %xmm3 # xmm3 = (xmm3 * mem) + xmm2 vbroadcastss %xmm1, %xmm1 vfmadd132ps 0x220(%rsp), %xmm3, %xmm1 # xmm1 = (xmm1 * mem) + xmm3 vmovaps 0x300(%rsp), %xmm2 vfmadd132ps 0x260(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1 vbroadcastss 0x2f0(%rsp), %xmm1 vmulps %xmm1, %xmm2, %xmm1 vdpps $0x7f, %xmm2, %xmm12, %xmm2 vbroadcastss %xmm2, %xmm2 vmulps %xmm2, %xmm12, %xmm2 vsubps %xmm2, %xmm1, %xmm2 vmovss 0x58(%rsp), %xmm1 vmulss 0x2e0(%rsp), %xmm1, %xmm3 vmulss 0x54(%rsp), %xmm8, %xmm1 vmovss 0x50(%rsp), %xmm6 vmaxss %xmm1, %xmm6, %xmm1 vbroadcastss %xmm3, %xmm3 vmulps %xmm3, %xmm2, %xmm2 vxorps 0x20eaea(%rip){1to4}, %xmm12, %xmm3 # 0x1f20ec0 vmulps %xmm2, %xmm4, %xmm2 vmovaps 0xe0(%rsp), %xmm11 vdpps $0x7f, %xmm11, %xmm3, %xmm4 vdivss %xmm5, %xmm6, %xmm5 vfmadd213ss %xmm1, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm7) + xmm1 vdpps $0x7f, %xmm2, %xmm9, %xmm2 vfmadd213ss %xmm7, %xmm5, %xmm13 # xmm13 = (xmm5 * xmm13) + xmm7 vaddss %xmm2, %xmm4, %xmm4 vmovaps 0x1f0(%rsp), %xmm7 vdpps $0x7f, %xmm11, %xmm7, %xmm5 vdpps $0x7f, %xmm3, %xmm9, %xmm3 vmulss %xmm15, %xmm19, %xmm2 vmulss %xmm15, %xmm15, %xmm6 vmulss %xmm6, %xmm2, %xmm2 vaddss %xmm2, %xmm17, %xmm6 vdpps $0x7f, %xmm7, %xmm9, %xmm7 vfnmadd231ss %xmm4, %xmm14, %xmm3 # xmm3 = -(xmm14 * xmm4) + xmm3 vfnmadd231ss %xmm5, %xmm14, %xmm7 # xmm7 = -(xmm14 * xmm5) + xmm7 vpermilps $0xff, 0x310(%rsp), %xmm2 # xmm2 = mem[3,3,3,3] vsubss %xmm2, %xmm0, %xmm2 vshufps $0xff, %xmm12, %xmm12, %xmm0 # xmm0 = xmm12[3,3,3,3] vfmsub213ss %xmm0, %xmm6, %xmm3 # xmm3 = (xmm6 * xmm3) - xmm0 vmulss %xmm6, %xmm7, %xmm6 vmulss %xmm3, %xmm5, %xmm7 vfmsub231ss %xmm6, %xmm4, %xmm7 # xmm7 = (xmm4 * xmm6) - xmm7 vdivss %xmm7, %xmm6, %xmm6 vdivss %xmm7, %xmm3, %xmm3 vdivss %xmm7, %xmm5, %xmm5 vdivss %xmm7, %xmm4, %xmm4 vmulss %xmm6, %xmm14, %xmm6 vmulss %xmm5, %xmm2, %xmm5 vsubss %xmm5, %xmm6, %xmm5 vmulss %xmm3, %xmm14, %xmm3 vmulss %xmm4, %xmm2, %xmm4 vsubss %xmm3, %xmm4, %xmm3 vsubss %xmm5, %xmm10, %xmm10 vsubss %xmm3, %xmm8, %xmm8 vbroadcastss 0x20ea29(%rip), %xmm4 # 0x1f20ec4 vandps %xmm4, %xmm14, %xmm3 vucomiss %xmm3, %xmm13 movb $0x1, %al jbe 0x1d124f7 vaddss %xmm1, %xmm13, %xmm1 vmovaps 0x2a0(%rsp), %xmm3 vfmadd231ss 0x1df9f7(%rip), %xmm3, %xmm1 # xmm1 = (xmm3 * mem) + xmm1 vandps %xmm4, %xmm2, %xmm2 vucomiss %xmm2, %xmm1 jbe 0x1d124f7 vaddss 0x2b0(%rsp), %xmm8, %xmm8 vucomiss 0x5c(%rsp), %xmm8 jb 0x1d124f2 movq 0x30(%rsp), %rax movq 0x20(%rsp), %rcx vmovss 0x100(%rcx,%rax,4), %xmm4 vucomiss %xmm8, %xmm4 jae 0x1d1250d xorl %eax, %eax xorl %r14d, %r14d testb %al, %al je 0x1d12820 decq %r15 jne 0x1d11f5c jmp 0x1d1281d xorl %eax, %eax vucomiss 0x1d950d(%rip), %xmm10 # 0x1eeba24 jb 0x1d124f4 vmovss 0x1da1f3(%rip), %xmm1 # 0x1eec714 vucomiss %xmm10, %xmm1 jb 0x1d124f4 vxorps %xmm2, %xmm2, %xmm2 vmovss %xmm18, %xmm2, %xmm1 # xmm1 = xmm18[0],xmm2[1,2,3] vrsqrt14ss %xmm1, %xmm2, %xmm1 vmulss 0x1da1d8(%rip), %xmm1, %xmm2 # 0x1eec718 vmulss 0x1da1d2(%rip), %xmm18, %xmm3 # 0x1eec71c movq 0x38(%rsp), %rdx movq (%rdx), %rax movq 0x1e8(%rax), %rax movq 0xf8(%rsp), %rcx movq (%rax,%rcx,8), %r14 movq 0x30(%rsp), %rax movq 0x20(%rsp), %rcx movl 0x120(%rcx,%rax,4), %eax testl %eax, 0x34(%r14) je 0x1d124f2 movq 0x10(%rdx), %rax cmpq $0x0, 0x10(%rax) jne 0x1d1259c cmpq $0x0, 0x48(%r14) jne 0x1d1259c movb $0x1, %r14b xorl %eax, %eax jmp 0x1d124f7 vmulss %xmm1, %xmm3, %xmm3 vmulss %xmm1, %xmm1, %xmm1 vmulss %xmm1, %xmm3, %xmm1 vaddss %xmm1, %xmm2, %xmm1 vbroadcastss %xmm1, %xmm1 vmulps %xmm1, %xmm9, %xmm1 vfmadd213ps %xmm12, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm0) + xmm12 vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3] vshufps $0xc9, %xmm12, %xmm12, %xmm3 # xmm3 = xmm12[1,2,0,3] vmulps %xmm3, %xmm1, %xmm1 vfmsub231ps %xmm2, %xmm12, %xmm1 # xmm1 = (xmm12 * xmm2) - xmm1 vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3] vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3] vshufps $0xd2, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,0,1,3] vmulps %xmm1, %xmm0, %xmm0 vfmsub231ps %xmm3, %xmm2, %xmm0 # xmm0 = (xmm2 * xmm3) - xmm0 movq 0x38(%rsp), %rdx movq 0x8(%rdx), %rax vbroadcastss %xmm10, %ymm1 vbroadcastss 0x200107(%rip), %ymm2 # 0x1f12704 vpermps %ymm0, %ymm2, %ymm2 vbroadcastss 0x20e8d1(%rip), %ymm3 # 0x1f20edc vpermps %ymm0, %ymm3, %ymm3 vbroadcastss %xmm0, %ymm0 vmovaps %ymm2, 0x4e0(%rsp) vmovaps %ymm3, 0x500(%rsp) vmovaps %ymm0, 0x520(%rsp) vmovaps %ymm1, 0x540(%rsp) vxorps %xmm0, %xmm0, %xmm0 vmovaps %ymm0, 0x560(%rsp) vmovaps 0x420(%rsp), %ymm0 vmovaps %ymm0, 0x580(%rsp) vmovdqa 0x400(%rsp), %ymm0 vmovdqa %ymm0, 0x5a0(%rsp) movq 0x158(%rsp), %rcx vpcmpeqd %ymm0, %ymm0, %ymm0 vmovdqa %ymm0, 0x20(%rcx) vmovdqa %ymm0, (%rcx) vbroadcastss (%rax), %ymm0 vmovaps %ymm0, 0x5c0(%rsp) vbroadcastss 0x4(%rax), %ymm0 vmovaps %ymm0, 0x5e0(%rsp) movq 0x30(%rsp), %rax movq 0x20(%rsp), %rcx vmovss %xmm8, 0x100(%rcx,%rax,4) vmovaps 0x3e0(%rsp), %ymm0 vmovaps %ymm0, 0x280(%rsp) leaq 0x280(%rsp), %rax movq %rax, 0x170(%rsp) movq 0x18(%r14), %rax movq %rax, 0x178(%rsp) movq 0x8(%rdx), %rax movq %rax, 0x180(%rsp) movq %rcx, 0x188(%rsp) leaq 0x4e0(%rsp), %rax movq %rax, 0x190(%rsp) movl $0x8, 0x198(%rsp) movq 0x48(%r14), %rax testq %rax, %rax vmovaps %xmm10, 0x60(%rsp) vmovaps %xmm8, 0xa0(%rsp) vmovss %xmm4, 0x80(%rsp) je 0x1d1275c leaq 0x170(%rsp), %rdi vzeroupper callq *%rax vmovss 0x80(%rsp), %xmm4 vmovaps 0xa0(%rsp), %xmm8 vmovaps 0x60(%rsp), %xmm10 vbroadcastss 0x20e768(%rip), %ymm28 # 0x1f20ec4 vmovdqa 0x280(%rsp), %ymm0 vptest %ymm0, %ymm0 je 0x1d127f9 movq 0x38(%rsp), %rax movq 0x10(%rax), %rcx movq 0x10(%rcx), %rax testq %rax, %rax je 0x1d127bd testb $0x2, (%rcx) jne 0x1d1278e testb $0x40, 0x3e(%r14) je 0x1d127bd leaq 0x170(%rsp), %rdi vzeroupper callq *%rax vmovss 0x80(%rsp), %xmm4 vmovaps 0xa0(%rsp), %xmm8 vmovaps 0x60(%rsp), %xmm10 vbroadcastss 0x20e707(%rip), %ymm28 # 0x1f20ec4 vmovdqa 0x280(%rsp), %ymm0 vptestmd %ymm0, %ymm0, %k1 movq 0x188(%rsp), %rax vmovaps 0x100(%rax), %ymm1 vbroadcastss 0x1da39e(%rip), %ymm1 {%k1} # 0x1eecb84 vmovaps %ymm1, 0x100(%rax) vptest %ymm0, %ymm0 setne %r14b jmp 0x1d127fc xorl %r14d, %r14d testb %r14b, %r14b jne 0x1d12595 movq 0x30(%rsp), %rax movq 0x20(%rsp), %rcx vmovss %xmm4, 0x100(%rcx,%rax,4) jmp 0x1d12595 xorl %r14d, %r14d andb $0x1, %r14b orb %r14b, %r13b movq 0x30(%rsp), %rdx movq 0x20(%rsp), %rax vmovaps 0x380(%rsp), %ymm0 vcmpleps 0x100(%rax,%rdx,4){1to8}, %ymm0, %k0 kmovd %k0, %eax andb %al, %r12b jne 0x1d11e72 vmovdqa 0x440(%rsp), %ymm1 vpcmpltd 0x360(%rsp), %ymm1, %k1 vmovaps 0x8c0(%rsp), %ymm0 vpcmpltd 0x640(%rsp), %ymm1, %k2 vmovaps 0x340(%rsp), %ymm3 vaddps %ymm0, %ymm3, %ymm1 movq 0x20(%rsp), %rax vbroadcastss 0x100(%rax,%rdx,4), %ymm2 vcmpleps %ymm2, %ymm1, %k0 {%k2} kmovd %k0, %eax movl 0x110(%rsp), %ecx andb %al, %cl vmovaps 0x600(%rsp), %ymm1 vaddps %ymm1, %ymm3, %ymm3 vcmpleps %ymm2, %ymm3, %k0 {%k1} kmovd %k0, %eax movl 0x40(%rsp), %esi andb %al, %sil orb %cl, %sil je 0x1d12937 movl %ebx, %eax leaq (%rax,%rax,2), %rax shlq $0x5, %rax movb %sil, 0x900(%rsp,%rax) kmovd %ecx, %k1 vmovaps %ymm0, %ymm1 {%k1} vmovaps %ymm1, 0x920(%rsp,%rax) vmovaps 0x140(%rsp), %xmm2 vmovlps %xmm2, 0x940(%rsp,%rax) movq 0x100(%rsp), %rcx incl %ecx movl %ecx, 0x948(%rsp,%rax) incl %ebx movq 0x160(%rsp), %r8 movq 0x38(%rsp), %r14 vbroadcastss 0x1d9dec(%rip), %ymm3 # 0x1eec714 movb 0x1b(%rsp), %r15b movq 0x168(%rsp), %r12 jmp 0x1d12963 movq 0x160(%rsp), %r8 movq 0x38(%rsp), %r14 vbroadcastss 0x1d9dc7(%rip), %ymm3 # 0x1eec714 movb 0x1b(%rsp), %r15b movq 0x168(%rsp), %r12 vmovaps 0x140(%rsp), %xmm2 testl %ebx, %ebx je 0x1d12b38 leal -0x1(%rbx), %r9d leaq (%r9,%r9,2), %rcx shlq $0x5, %rcx vmovaps 0x920(%rsp,%rcx), %ymm0 movzbl 0x900(%rsp,%rcx), %esi vaddps 0x340(%rsp), %ymm0, %ymm1 movq 0x20(%rsp), %rax vcmpleps 0x100(%rax,%rdx,4){1to8}, %ymm1, %k0 kmovb %k0, %eax andl %esi, %eax je 0x1d12a60 kmovd %eax, %k1 vbroadcastss 0x1d9068(%rip), %ymm1 # 0x1eeba20 vblendmps %ymm0, %ymm1, %ymm0 {%k1} vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm0, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1] vminps %ymm2, %ymm1, %ymm1 vcmpeqps %ymm1, %ymm0, %k0 kmovd %k0, %esi andb %al, %sil je 0x1d129f0 movzbl %sil, %edi jmp 0x1d129f3 movzbl %al, %edi leaq (%rsp,%rcx), %rsi addq $0x900, %rsi # imm = 0x900 vmovss 0x44(%rsi), %xmm0 tzcntl %edi, %ecx movb $0x1, %dil shlb %cl, %dil movl 0x48(%rsi), %r10d movq %r10, 0x100(%rsp) movzbl %dil, %edi kmovd %edi, %k0 kmovd %eax, %k1 kandnb %k1, %k0, %k0 kmovb %k0, (%rsi) kortestb %k0, %k0 je 0x1d12a36 movl %ebx, %r9d vbroadcastss 0x40(%rsi), %ymm1 vsubss %xmm1, %xmm0, %xmm0 vbroadcastss %xmm0, %ymm0 vfmadd132ps 0x20e4d2(%rip), %ymm1, %ymm0 # ymm0 = (ymm0 * mem) + ymm1 vmovaps %ymm0, 0x4e0(%rsp) vmovsd 0x4e0(%rsp,%rcx,4), %xmm2 movl %r9d, %ebx testb %al, %al je 0x1d12963 vmovaps 0x840(%rsp), %ymm16 vmovaps 0x820(%rsp), %ymm17 vmovaps 0x800(%rsp), %ymm18 vmovaps 0x7e0(%rsp), %ymm19 vmovaps 0x7c0(%rsp), %ymm20 vmovaps 0x7a0(%rsp), %ymm22 vmovaps 0x780(%rsp), %ymm23 vmovaps 0x760(%rsp), %ymm24 vmovaps 0x740(%rsp), %ymm25 vmovaps 0x720(%rsp), %ymm27 vmovaps 0x700(%rsp), %ymm29 vmovaps 0x6e0(%rsp), %ymm31 vmovaps 0x6c0(%rsp), %ymm21 vmovaps 0x6a0(%rsp), %ymm30 vmovaps 0x680(%rsp), %ymm6 jmp 0x1d107c7 vcmpleps 0x20e40c(%rip), %ymm4, %k2 # 0x1f20f00 vbroadcastss 0x1da087(%rip), %ymm4 # 0x1eecb84 vbroadcastss 0x1d8f19(%rip), %ymm16 # 0x1eeba20 vblendmps %ymm4, %ymm16, %ymm3 {%k2} vmovaps %ymm3, %ymm30 {%k1} vblendmps %ymm16, %ymm4, %ymm3 {%k2} kmovd %k2, %ecx vmovaps %ymm3, %ymm31 {%k1} knotb %k1, %k0 kmovd %k0, %esi orb %cl, %sil andb %al, %sil movl %esi, %eax jmp 0x1d10d33 testb $0x1, %r13b jne 0x1d12b66 movq 0x20(%rsp), %rax vmovaps 0x660(%rsp), %ymm0 vcmpleps 0x100(%rax,%rdx,4){1to8}, %ymm0, %k0 kmovb %k0, %eax andl %eax, %r12d setne %r15b jne 0x1d1043b andb $0x1, %r15b movl %r15d, %eax leaq -0x28(%rbp), %rsp popq %rbx popq %r12 popq %r13 popq %r14 popq %r15 popq %rbp vzeroupper retq nop
/embree[P]embree/kernels/geometry/curveNi_intersector.h
void embree::avx512::CurveNiIntersectorK<8, 16>::intersect_t<embree::avx512::SweepCurve1IntersectorK<embree::BSplineCurveT, 16>, embree::avx512::Intersect1KEpilog1<16, true>>(embree::avx512::CurvePrecalculationsK<16>&, embree::RayHitK<16>&, unsigned long, embree::RayQueryContext*, embree::CurveNi<8> const&)
static __forceinline void intersect_t(Precalculations& pre, RayHitK<K>& ray, const size_t k, RayQueryContext* context, const Primitive& prim) { vfloat<M> tNear; vbool<M> valid = intersect(ray,k,prim,tNear); const size_t N = prim.N; size_t mask = movemask(valid); while (mask) { const size_t i = bscf(mask); STAT3(normal.trav_prims,1,1,1); const unsigned int geomID = prim.geomID(N); const unsigned int primID = prim.primID(N)[i]; const CurveGeometry* geom = context->scene->get<CurveGeometry>(geomID); Vec3ff a0,a1,a2,a3; geom->gather(a0,a1,a2,a3,geom->curve(primID)); size_t mask1 = mask; const size_t i1 = bscf(mask1); if (mask) { const unsigned int primID1 = prim.primID(N)[i1]; geom->prefetchL1_vertices(geom->curve(primID1)); if (mask1) { const size_t i2 = bsf(mask1); const unsigned int primID2 = prim.primID(N)[i2]; geom->prefetchL2_vertices(geom->curve(primID2)); } } Intersector().intersect(pre,ray,k,context,geom,primID,a0,a1,a2,a3,Epilog(ray,k,context,geomID,primID)); mask &= movemask(tNear <= vfloat<M>(ray.tfar[k])); } }
pushq %rbp movq %rsp, %rbp pushq %r15 pushq %r14 pushq %r13 pushq %r12 pushq %rbx andq $-0x40, %rsp subq $0xc80, %rsp # imm = 0xC80 movq %rcx, %r15 movq %rsi, %r12 movzbl 0x1(%r8), %ecx leaq (%rcx,%rcx,4), %rax leaq (%rax,%rax,4), %rsi vbroadcastss 0x12(%r8,%rsi), %xmm0 vmovss (%r12,%rdx,4), %xmm1 vmovss 0x100(%r12,%rdx,4), %xmm2 vinsertps $0x10, 0x40(%r12,%rdx,4), %xmm1, %xmm1 # xmm1 = xmm1[0],mem[0],xmm1[2,3] vinsertps $0x20, 0x80(%r12,%rdx,4), %xmm1, %xmm1 # xmm1 = xmm1[0,1],mem[0],xmm1[3] vinsertps $0x10, 0x140(%r12,%rdx,4), %xmm2, %xmm2 # xmm2 = xmm2[0],mem[0],xmm2[2,3] vinsertps $0x20, 0x180(%r12,%rdx,4), %xmm2, %xmm2 # xmm2 = xmm2[0,1],mem[0],xmm2[3] vsubps 0x6(%r8,%rsi), %xmm1, %xmm1 vmulps %xmm1, %xmm0, %xmm3 vmulps %xmm2, %xmm0, %xmm0 vpmovsxbd 0x6(%r8,%rcx,4), %ymm1 vpmovsxbd 0x6(%r8,%rax), %ymm2 vcvtdq2ps %ymm1, %ymm5 vcvtdq2ps %ymm2, %ymm6 leaq (%rcx,%rcx,2), %r9 vpmovsxbd 0x6(%r8,%r9,2), %ymm1 vcvtdq2ps %ymm1, %ymm4 leaq (%rcx,%rax,2), %rsi vpmovsxbd 0x6(%r8,%rsi), %ymm1 leal (,%r9,4), %esi vpmovsxbd 0x6(%r8,%rsi), %ymm2 vcvtdq2ps %ymm1, %ymm7 vcvtdq2ps %ymm2, %ymm8 addq %rcx, %rsi vpmovsxbd 0x6(%r8,%rsi), %ymm1 vcvtdq2ps %ymm1, %ymm9 leaq (%rcx,%rcx,8), %rsi leal (%rsi,%rsi), %edi vpmovsxbd 0x6(%r8,%rdi), %ymm1 vcvtdq2ps %ymm1, %ymm10 addq %rcx, %rdi vpmovsxbd 0x6(%r8,%rdi), %ymm1 vcvtdq2ps %ymm1, %ymm11 shll $0x2, %eax vpmovsxbd 0x6(%r8,%rax), %ymm1 vcvtdq2ps %ymm1, %ymm12 vbroadcastss %xmm0, %ymm13 vbroadcastss 0x1ffa79(%rip), %ymm15 # 0x1f12704 vbroadcastss 0x20e247(%rip), %ymm16 # 0x1f20edc vpermps %ymm0, %ymm15, %ymm14 vpermps %ymm0, %ymm16, %ymm0 vmulps %ymm4, %ymm0, %ymm2 vmulps %ymm0, %ymm9, %ymm1 vmulps %ymm0, %ymm12, %ymm0 vfmadd231ps %ymm6, %ymm14, %ymm2 # ymm2 = (ymm14 * ymm6) + ymm2 vfmadd231ps %ymm8, %ymm14, %ymm1 # ymm1 = (ymm14 * ymm8) + ymm1 vfmadd231ps %ymm14, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm14) + ymm0 vfmadd231ps %ymm5, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm5) + ymm2 vfmadd231ps %ymm7, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm7) + ymm1 vfmadd231ps %ymm13, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm13) + ymm0 vbroadcastss %xmm3, %ymm13 vpermps %ymm3, %ymm15, %ymm14 vpermps %ymm3, %ymm16, %ymm3 vmulps %ymm4, %ymm3, %ymm15 vmulps %ymm3, %ymm9, %ymm4 vmulps %ymm3, %ymm12, %ymm3 vfmadd231ps %ymm6, %ymm14, %ymm15 # ymm15 = (ymm14 * ymm6) + ymm15 vfmadd231ps %ymm8, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm8) + ymm4 vfmadd231ps %ymm11, %ymm14, %ymm3 # ymm3 = (ymm14 * ymm11) + ymm3 vfmadd231ps %ymm5, %ymm13, %ymm15 # ymm15 = (ymm13 * ymm5) + ymm15 vfmadd231ps %ymm7, %ymm13, %ymm4 # ymm4 = (ymm13 * ymm7) + ymm4 vbroadcastss 0x20e1bc(%rip), %ymm6 # 0x1f20ec4 vfmadd231ps %ymm10, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm10) + ymm3 vandps %ymm6, %ymm2, %ymm5 vbroadcastss 0x1de2ce(%rip), %ymm7 # 0x1ef0fe8 vcmpltps %ymm7, %ymm5, %k1 vmovaps %ymm7, %ymm2 {%k1} vandps %ymm6, %ymm1, %ymm5 vcmpltps %ymm7, %ymm5, %k1 vmovaps %ymm7, %ymm1 {%k1} vandps %ymm6, %ymm0, %ymm5 vcmpltps %ymm7, %ymm5, %k1 vmovaps %ymm7, %ymm0 {%k1} vrcp14ps %ymm2, %ymm5 vbroadcastss 0x1d99bc(%rip), %ymm6 # 0x1eec714 vfnmadd213ps %ymm6, %ymm5, %ymm2 # ymm2 = -(ymm5 * ymm2) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm2 # ymm2 = (ymm2 * ymm5) + ymm5 vrcp14ps %ymm1, %ymm5 vfnmadd213ps %ymm6, %ymm5, %ymm1 # ymm1 = -(ymm5 * ymm1) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm1 # ymm1 = (ymm1 * ymm5) + ymm5 vrcp14ps %ymm0, %ymm5 vfnmadd213ps %ymm6, %ymm5, %ymm0 # ymm0 = -(ymm5 * ymm0) + ymm6 vfmadd132ps %ymm5, %ymm5, %ymm0 # ymm0 = (ymm0 * ymm5) + ymm5 leaq (,%rcx,8), %rdi subq %rcx, %rdi vpmovsxwd 0x6(%r8,%rdi), %ymm5 vcvtdq2ps %ymm5, %ymm5 vsubps %ymm15, %ymm5, %ymm5 vmulps %ymm5, %ymm2, %ymm5 vpmovsxwd 0x6(%r8,%rsi), %ymm6 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm15, %ymm6, %ymm6 leaq (%rcx,%rcx), %rsi addq %rcx, %rax shlq $0x3, %r9 subq %rcx, %r9 vpbroadcastd %ecx, %ymm7 shll $0x4, %ecx vpmovsxwd 0x6(%r8,%rcx), %ymm8 vmulps %ymm6, %ymm2, %ymm2 subq %rsi, %rcx vpmovsxwd 0x6(%r8,%rcx), %ymm6 vcvtdq2ps %ymm6, %ymm6 vsubps %ymm4, %ymm6, %ymm6 vmulps %ymm6, %ymm1, %ymm6 vcvtdq2ps %ymm8, %ymm8 vsubps %ymm4, %ymm8, %ymm4 vmulps %ymm4, %ymm1, %ymm1 vpmovsxwd 0x6(%r8,%rax), %ymm4 vcvtdq2ps %ymm4, %ymm4 vsubps %ymm3, %ymm4, %ymm4 vmulps %ymm0, %ymm4, %ymm4 vpmovsxwd 0x6(%r8,%r9), %ymm8 vcvtdq2ps %ymm8, %ymm8 vsubps %ymm3, %ymm8, %ymm3 vmulps %ymm3, %ymm0, %ymm0 vpminsd %ymm2, %ymm5, %ymm3 vpminsd %ymm1, %ymm6, %ymm8 vmaxps %ymm8, %ymm3, %ymm3 vpminsd %ymm0, %ymm4, %ymm8 vmaxps 0xc0(%r12,%rdx,4){1to8}, %ymm8, %ymm8 vmaxps %ymm8, %ymm3, %ymm3 vmulps 0x20d0c8(%rip){1to8}, %ymm3, %ymm3 # 0x1f1ff10 vpmaxsd %ymm2, %ymm5, %ymm2 vpmaxsd %ymm1, %ymm6, %ymm1 vminps %ymm1, %ymm2, %ymm1 vpmaxsd %ymm0, %ymm4, %ymm0 movq %rdx, 0x38(%rsp) vminps 0x200(%r12,%rdx,4){1to8}, %ymm0, %ymm0 vminps %ymm0, %ymm1, %ymm0 vmulps 0x20d09b(%rip){1to8}, %ymm0, %ymm0 # 0x1f1ff14 vpcmpgtd 0x247a9d(%rip), %ymm7, %k0 # 0x1f5a920 vmovaps %ymm3, 0x560(%rsp) vcmpleps %ymm0, %ymm3, %k1 ktestb %k0, %k1 je 0x1d15855 kandb %k0, %k1, %k0 kmovd %k0, %eax movzbl %al, %r10d leaq 0x8c0(%rsp), %rax addq $0x1c0, %rax # imm = 0x1C0 movq %rax, 0x198(%rsp) movl $0x1, %eax movq 0x38(%rsp), %rcx shlxl %ecx, %eax, %eax kmovd %eax, %k0 vpmovm2d %k0, %zmm0 vmovdqa64 %zmm0, 0x800(%rsp) movq %r15, 0x48(%rsp) movq %r8, 0x1a0(%rsp) tzcntq %r10, %rax movl 0x2(%r8), %ecx movl 0x6(%r8,%rax,4), %edi movq (%r15), %rax movq 0x1e8(%rax), %rax movq %rcx, 0x70(%rsp) movq (%rax,%rcx,8), %rsi movq 0x58(%rsi), %rax movq 0x68(%rsi), %rcx movq %rcx, %rdx movq %rdi, 0x110(%rsp) imulq %rdi, %rdx movl (%rax,%rdx), %edi movq 0xa0(%rsi), %rdx movq %rdx, %r9 imulq %rdi, %r9 movq 0x90(%rsi), %rsi vmovaps (%rsi,%r9), %xmm1 leaq 0x1(%rdi), %r9 imulq %rdx, %r9 vmovaps (%rsi,%r9), %xmm0 leaq 0x2(%rdi), %r9 imulq %rdx, %r9 vmovaps (%rsi,%r9), %xmm2 blsrq %r10, %r10 addq $0x3, %rdi imulq %rdx, %rdi vmovaps (%rsi,%rdi), %xmm3 movq %r10, %rdi subq $0x1, %rdi jb 0x1d12fc1 andq %r10, %rdi tzcntq %r10, %r9 movl 0x6(%r8,%r9,4), %r9d imulq %rcx, %r9 movl (%rax,%r9), %r9d imulq %rdx, %r9 prefetcht0 (%rsi,%r9) prefetcht0 0x40(%rsi,%r9) testq %rdi, %rdi je 0x1d12fc1 tzcntq %rdi, %rdi movl 0x6(%r8,%rdi,4), %edi imulq %rdi, %rcx movl (%rax,%rcx), %eax imulq %rax, %rdx prefetcht1 (%rsi,%rdx) prefetcht1 0x40(%rsi,%rdx) movq 0x38(%rsp), %rax vmovss (%r12,%rax,4), %xmm4 vinsertps $0x1c, 0x40(%r12,%rax,4), %xmm4, %xmm4 # xmm4 = xmm4[0],mem[0],zero,zero vinsertps $0x28, 0x80(%r12,%rax,4), %xmm4, %xmm4 # xmm4 = xmm4[0,1],mem[0],zero vbroadcastss 0x100(%r12,%rax,4), %ymm30 vbroadcastss 0x140(%r12,%rax,4), %ymm31 vunpcklps %xmm31, %xmm30, %xmm5 # xmm5 = xmm30[0],xmm31[0],xmm30[1],xmm31[1] vbroadcastss 0x180(%r12,%rax,4), %ymm21 vinsertps $0x28, %xmm21, %xmm5, %xmm9 # xmm9 = xmm5[0,1],xmm21[0],zero vaddps %xmm0, %xmm1, %xmm5 vaddps %xmm2, %xmm5, %xmm5 vaddps %xmm3, %xmm5, %xmm5 vmulps 0x20a2e2(%rip){1to4}, %xmm5, %xmm5 # 0x1f1d2fc vsubps %xmm4, %xmm5, %xmm5 vdpps $0x7f, %xmm9, %xmm5, %xmm5 vmovss 0xc0(%r12,%rax,4), %xmm10 vdpps $0x7f, %xmm9, %xmm9, %xmm11 vxorps %xmm8, %xmm8, %xmm8 vmovss %xmm11, %xmm8, %xmm6 vrcp14ss %xmm6, %xmm8, %xmm6 vmovaps %xmm6, %xmm7 vfnmadd213ss 0x1ddfa8(%rip), %xmm11, %xmm7 # xmm7 = -(xmm11 * xmm7) + mem vmulss %xmm7, %xmm6, %xmm6 vmulss %xmm6, %xmm5, %xmm5 vbroadcastss %xmm5, %ymm6 vmovaps %xmm9, 0x250(%rsp) vmovaps %ymm6, 0x380(%rsp) vfmadd231ps %xmm6, %xmm9, %xmm4 # xmm4 = (xmm9 * xmm6) + xmm4 vblendps $0x8, %xmm8, %xmm4, %xmm4 # xmm4 = xmm4[0,1,2],xmm8[3] vsubps %xmm4, %xmm1, %xmm6 vsubps %xmm4, %xmm2, %xmm7 vsubps %xmm4, %xmm0, %xmm8 vsubps %xmm4, %xmm3, %xmm3 vbroadcastss %xmm6, %ymm0 vmovaps %ymm0, 0x7a0(%rsp) vbroadcastss 0x1ff663(%rip), %ymm0 # 0x1f12704 vpermps %ymm6, %ymm0, %ymm1 vmovaps %ymm1, 0x780(%rsp) vbroadcastss 0x20de24(%rip), %ymm1 # 0x1f20edc vpermps %ymm6, %ymm1, %ymm2 vmovaps %ymm2, 0x760(%rsp) vbroadcastss 0x20de09(%rip), %ymm2 # 0x1f20ed8 vmovaps %ymm6, 0x2c0(%rsp) vpermps %ymm6, %ymm2, %ymm4 vmovaps %ymm4, 0x740(%rsp) vbroadcastss %xmm8, %ymm4 vmovaps %ymm4, 0x720(%rsp) vpermps %ymm8, %ymm0, %ymm4 vmovaps %ymm4, 0x700(%rsp) vpermps %ymm8, %ymm1, %ymm4 vmovaps %ymm4, 0x6e0(%rsp) vmovaps %ymm8, 0x280(%rsp) vpermps %ymm8, %ymm2, %ymm4 vmovaps %ymm4, 0x6c0(%rsp) vbroadcastss %xmm7, %ymm4 vmovaps %ymm4, 0x6a0(%rsp) vpermps %ymm7, %ymm0, %ymm4 vmovaps %ymm4, 0x680(%rsp) vpermps %ymm7, %ymm1, %ymm4 vmovaps %ymm4, 0x660(%rsp) vmovaps %ymm7, 0x2a0(%rsp) vpermps %ymm7, %ymm2, %ymm4 vmovaps %ymm4, 0x640(%rsp) vbroadcastss %xmm3, %ymm4 vmovaps %ymm4, 0x620(%rsp) vpermps %ymm3, %ymm0, %ymm0 vmovaps %ymm0, 0x600(%rsp) vpermps %ymm3, %ymm1, %ymm0 vmovaps %ymm0, 0x5e0(%rsp) vmovaps %ymm3, 0x260(%rsp) vpermps %ymm3, %ymm2, %ymm0 vmovaps %ymm0, 0x5c0(%rsp) vmulss %xmm21, %xmm21, %xmm0 vfmadd231ps %ymm31, %ymm31, %ymm0 # ymm0 = (ymm31 * ymm31) + ymm0 vfmadd231ps %ymm30, %ymm30, %ymm0 # ymm0 = (ymm30 * ymm30) + ymm0 vbroadcastss %xmm0, %ymm0 vmovaps %ymm0, 0x5a0(%rsp) vandps 0x20dcf1(%rip){1to8}, %ymm0, %ymm0 # 0x1f20ec4 vmovaps %ymm0, 0x4c0(%rsp) vmovss %xmm10, 0x7c(%rsp) vmovaps %xmm5, 0x300(%rsp) vsubss %xmm5, %xmm10, %xmm0 vbroadcastss %xmm0, %ymm0 vmovaps %ymm0, 0x580(%rsp) movq 0x70(%rsp), %rax vpbroadcastd %eax, %zmm0 vmovdqa64 %zmm0, 0x880(%rsp) movl $0x1, %r11d xorl %r9d, %r9d movq 0x110(%rsp), %rax vpbroadcastd %eax, %zmm0 vmovdqa64 %zmm0, 0x840(%rsp) vsqrtss %xmm11, %xmm11, %xmm0 vmovss %xmm0, 0x12c(%rsp) vmovaps %xmm11, 0x240(%rsp) vsqrtss %xmm11, %xmm11, %xmm0 vmovss %xmm0, 0x128(%rsp) vmovsd 0x1d9494(%rip), %xmm2 # 0x1eec6f0 vbroadcastss 0x1d94ae(%rip), %ymm16 # 0x1eec714 vmovaps %ymm30, 0x4e0(%rsp) vmovaps %ymm31, 0x1e0(%rsp) vmovaps %ymm21, 0x1c0(%rsp) vmovshdup %xmm2, %xmm0 # xmm0 = xmm2[1,1,3,3] vsubss %xmm2, %xmm0, %xmm0 vmulss 0x20dc42(%rip), %xmm0, %xmm1 # 0x1f20ed0 vmovaps %xmm1, 0xa0(%rsp) vmovaps %xmm2, 0x180(%rsp) vbroadcastss %xmm2, %ymm4 vbroadcastss %xmm0, %ymm0 vmovaps %ymm4, 0x80(%rsp) vmovaps %ymm0, 0x220(%rsp) vfmadd231ps 0x20dc5b(%rip), %ymm0, %ymm4 # ymm4 = (ymm0 * mem) + ymm4 vsubps %ymm4, %ymm16, %ymm7 vmulps %ymm7, %ymm7, %ymm8 vmulps %ymm7, %ymm8, %ymm0 vbroadcastss 0x1d98af(%rip), %ymm30 # 0x1eecb8c vmulps %ymm30, %ymm0, %ymm1 vmulps %ymm4, %ymm4, %ymm9 vmulps %ymm4, %ymm9, %ymm2 vaddps %ymm1, %ymm2, %ymm1 vmulps %ymm7, %ymm4, %ymm10 vmulps %ymm7, %ymm10, %ymm5 vbroadcastss 0x1ddcfc(%rip), %ymm14 # 0x1ef0ffc vmulps %ymm5, %ymm14, %ymm11 vmulps %ymm4, %ymm10, %ymm12 vbroadcastss 0x1ddce3(%rip), %ymm15 # 0x1ef0ff4 vmulps %ymm15, %ymm12, %ymm13 vaddps %ymm13, %ymm11, %ymm11 vaddps %ymm1, %ymm11, %ymm1 vmulps %ymm30, %ymm2, %ymm11 vaddps %ymm0, %ymm11, %ymm11 vmulps %ymm14, %ymm12, %ymm12 vmulps %ymm5, %ymm15, %ymm5 vaddps %ymm5, %ymm12, %ymm5 vaddps %ymm5, %ymm11, %ymm5 vbroadcastss 0x1ddcbd(%rip), %ymm14 # 0x1ef1000 vmulps %ymm0, %ymm14, %ymm11 vmulps %ymm1, %ymm14, %ymm12 vmulps %ymm5, %ymm14, %ymm13 vmulps %ymm2, %ymm14, %ymm5 vmovaps 0x620(%rsp), %ymm25 vmulps %ymm5, %ymm25, %ymm0 vmovaps 0x600(%rsp), %ymm27 vmulps %ymm5, %ymm27, %ymm2 vmovaps 0x5e0(%rsp), %ymm28 vmulps %ymm5, %ymm28, %ymm1 vmovaps 0x5c0(%rsp), %ymm29 vmulps %ymm5, %ymm29, %ymm5 vmovaps 0x6a0(%rsp), %ymm20 vfmadd231ps %ymm20, %ymm13, %ymm0 # ymm0 = (ymm13 * ymm20) + ymm0 vmovaps 0x680(%rsp), %ymm22 vfmadd231ps %ymm22, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm22) + ymm2 vmovaps 0x660(%rsp), %ymm23 vfmadd231ps %ymm23, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm23) + ymm1 vmovaps 0x640(%rsp), %ymm24 vfmadd231ps %ymm13, %ymm24, %ymm5 # ymm5 = (ymm24 * ymm13) + ymm5 vmovaps 0x720(%rsp), %ymm16 vfmadd231ps %ymm16, %ymm12, %ymm0 # ymm0 = (ymm12 * ymm16) + ymm0 vmovaps 0x700(%rsp), %ymm17 vfmadd231ps %ymm17, %ymm12, %ymm2 # ymm2 = (ymm12 * ymm17) + ymm2 vmovaps 0x6e0(%rsp), %ymm18 vfmadd231ps %ymm18, %ymm12, %ymm1 # ymm1 = (ymm12 * ymm18) + ymm1 vmovaps 0x6c0(%rsp), %ymm19 vfmadd231ps %ymm12, %ymm19, %ymm5 # ymm5 = (ymm19 * ymm12) + ymm5 vmovaps 0x7a0(%rsp), %ymm6 vfmadd231ps %ymm6, %ymm11, %ymm0 # ymm0 = (ymm11 * ymm6) + ymm0 vmovaps 0x780(%rsp), %ymm3 vfmadd231ps %ymm3, %ymm11, %ymm2 # ymm2 = (ymm11 * ymm3) + ymm2 vmovaps 0x760(%rsp), %ymm14 vfmadd231ps %ymm14, %ymm11, %ymm1 # ymm1 = (ymm11 * ymm14) + ymm1 vmovaps 0x740(%rsp), %ymm15 vfmadd231ps %ymm11, %ymm15, %ymm5 # ymm5 = (ymm15 * ymm11) + ymm5 vbroadcastss 0x20da83(%rip), %ymm26 # 0x1f20ec0 vxorps %ymm26, %ymm7, %ymm11 vmulps %ymm7, %ymm11, %ymm7 vxorps %ymm26, %ymm4, %ymm11 vmulps %ymm4, %ymm11, %ymm4 vmulps %ymm30, %ymm10, %ymm10 vsubps %ymm10, %ymm4, %ymm4 vaddps %ymm10, %ymm8, %ymm8 vbroadcastss 0x1d9716(%rip), %ymm10 # 0x1eecb80 vmulps %ymm7, %ymm10, %ymm7 vmulps %ymm4, %ymm10, %ymm4 vmulps %ymm10, %ymm8, %ymm8 vmulps %ymm10, %ymm9, %ymm9 vmulps %ymm9, %ymm25, %ymm10 vmulps %ymm9, %ymm27, %ymm12 vmulps %ymm9, %ymm28, %ymm13 vmulps %ymm9, %ymm29, %ymm9 vfmadd231ps %ymm20, %ymm8, %ymm10 # ymm10 = (ymm8 * ymm20) + ymm10 vfmadd231ps %ymm22, %ymm8, %ymm12 # ymm12 = (ymm8 * ymm22) + ymm12 vfmadd231ps %ymm23, %ymm8, %ymm13 # ymm13 = (ymm8 * ymm23) + ymm13 vfmadd231ps %ymm8, %ymm24, %ymm9 # ymm9 = (ymm24 * ymm8) + ymm9 vfmadd231ps %ymm16, %ymm4, %ymm10 # ymm10 = (ymm4 * ymm16) + ymm10 vfmadd231ps %ymm17, %ymm4, %ymm12 # ymm12 = (ymm4 * ymm17) + ymm12 vfmadd231ps %ymm18, %ymm4, %ymm13 # ymm13 = (ymm4 * ymm18) + ymm13 vfmadd231ps %ymm4, %ymm19, %ymm9 # ymm9 = (ymm19 * ymm4) + ymm9 vfmadd231ps %ymm6, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm6) + ymm10 vfmadd231ps %ymm3, %ymm7, %ymm12 # ymm12 = (ymm7 * ymm3) + ymm12 vfmadd231ps %ymm14, %ymm7, %ymm13 # ymm13 = (ymm7 * ymm14) + ymm13 vfmadd231ps %ymm7, %ymm15, %ymm9 # ymm9 = (ymm15 * ymm7) + ymm9 vbroadcastss 0xa0(%rsp), %ymm4 vmulps %ymm4, %ymm10, %ymm11 vmulps %ymm4, %ymm12, %ymm12 vmulps %ymm4, %ymm13, %ymm13 vmulps %ymm4, %ymm9, %ymm6 vmovaps %ymm0, %ymm8 vmovaps 0x24c822(%rip), %ymm7 # 0x1f5fd20 vmovaps %ymm31, %ymm3 vxorps %xmm31, %xmm31, %xmm31 vpermt2ps %ymm31, %ymm7, %ymm8 vmovaps %ymm2, %ymm9 vpermt2ps %ymm31, %ymm7, %ymm9 vmovaps %ymm1, %ymm10 vpermt2ps %ymm31, %ymm7, %ymm10 vaddps %ymm5, %ymm6, %ymm4 vmaxps %ymm4, %ymm5, %ymm14 vminps %ymm4, %ymm5, %ymm4 vmovaps %ymm5, %ymm15 vpermt2ps %ymm31, %ymm7, %ymm15 vmovaps %ymm11, %ymm19 vpermt2ps %ymm31, %ymm7, %ymm19 vmovaps %ymm12, %ymm20 vpermt2ps %ymm31, %ymm7, %ymm20 vmovaps %ymm13, %ymm5 vpermt2ps %ymm31, %ymm7, %ymm5 vpermt2ps %ymm31, %ymm7, %ymm6 vsubps %ymm6, %ymm15, %ymm16 vsubps %ymm0, %ymm8, %ymm7 vsubps %ymm2, %ymm9, %ymm6 vsubps %ymm1, %ymm10, %ymm27 vmulps %ymm13, %ymm6, %ymm17 vfmsub231ps %ymm27, %ymm12, %ymm17 # ymm17 = (ymm12 * ymm27) - ymm17 vmulps %ymm11, %ymm27, %ymm18 vfmsub231ps %ymm7, %ymm13, %ymm18 # ymm18 = (ymm13 * ymm7) - ymm18 vmulps %ymm12, %ymm7, %ymm22 vfmsub231ps %ymm6, %ymm11, %ymm22 # ymm22 = (ymm11 * ymm6) - ymm22 vmulps %ymm22, %ymm22, %ymm22 vfmadd231ps %ymm18, %ymm18, %ymm22 # ymm22 = (ymm18 * ymm18) + ymm22 vfmadd231ps %ymm17, %ymm17, %ymm22 # ymm22 = (ymm17 * ymm17) + ymm22 vmulps %ymm27, %ymm27, %ymm17 vfmadd231ps %ymm6, %ymm6, %ymm17 # ymm17 = (ymm6 * ymm6) + ymm17 vfmadd231ps %ymm7, %ymm7, %ymm17 # ymm17 = (ymm7 * ymm7) + ymm17 vrcp14ps %ymm17, %ymm18 vmovaps %ymm18, %ymm23 vbroadcastss 0x1d9140(%rip), %ymm24 # 0x1eec714 vmovaps %ymm24, %ymm26 vfnmadd213ps %ymm24, %ymm17, %ymm23 # ymm23 = -(ymm17 * ymm23) + ymm24 vfmadd132ps %ymm18, %ymm18, %ymm23 # ymm23 = (ymm23 * ymm18) + ymm18 vmulps %ymm23, %ymm22, %ymm18 vmulps %ymm5, %ymm6, %ymm22 vfmsub231ps %ymm27, %ymm20, %ymm22 # ymm22 = (ymm20 * ymm27) - ymm22 vmulps %ymm19, %ymm27, %ymm24 vfmsub231ps %ymm7, %ymm5, %ymm24 # ymm24 = (ymm5 * ymm7) - ymm24 vmulps %ymm20, %ymm7, %ymm25 vfmsub231ps %ymm6, %ymm19, %ymm25 # ymm25 = (ymm19 * ymm6) - ymm25 vmulps %ymm25, %ymm25, %ymm25 vfmadd231ps %ymm24, %ymm24, %ymm25 # ymm25 = (ymm24 * ymm24) + ymm25 vfmadd231ps %ymm22, %ymm22, %ymm25 # ymm25 = (ymm22 * ymm22) + ymm25 vmulps %ymm23, %ymm25, %ymm22 vmaxps %ymm22, %ymm18, %ymm18 vsqrtps %ymm18, %ymm18 vmaxps %ymm15, %ymm16, %ymm22 vmaxps %ymm22, %ymm14, %ymm14 vaddps %ymm14, %ymm18, %ymm14 vminps %ymm15, %ymm16, %ymm15 vminps %ymm15, %ymm4, %ymm4 vsubps %ymm18, %ymm4, %ymm4 vmulps 0x1dd2df(%rip){1to8}, %ymm14, %ymm14 # 0x1ef0940 vmulps 0x1dd2d9(%rip){1to8}, %ymm4, %ymm4 # 0x1ef0944 vmovaps %ymm4, 0xa0(%rsp) vmulps %ymm14, %ymm14, %ymm4 vrsqrt14ps %ymm17, %ymm15 vmulps 0x1d9093(%rip){1to8}, %ymm17, %ymm14 # 0x1eec71c vmulps %ymm14, %ymm15, %ymm14 vmulps %ymm15, %ymm15, %ymm16 vmulps %ymm14, %ymm16, %ymm14 vfmadd231ps 0x1d9074(%rip){1to8}, %ymm15, %ymm14 # ymm14 = (ymm15 * mem) + ymm14 vmulps %ymm7, %ymm14, %ymm15 vmulps %ymm14, %ymm6, %ymm16 vmovaps %ymm27, 0x3a0(%rsp) vmulps %ymm14, %ymm27, %ymm18 vmovaps %ymm0, 0x160(%rsp) vsubps %ymm0, %ymm31, %ymm27 vmovaps %ymm2, 0xc0(%rsp) vsubps %ymm2, %ymm31, %ymm28 vmovaps %ymm1, 0x200(%rsp) vsubps %ymm1, %ymm31, %ymm29 vmulps %ymm29, %ymm21, %ymm22 vfmadd231ps %ymm28, %ymm3, %ymm22 # ymm22 = (ymm3 * ymm28) + ymm22 vmovaps 0x4e0(%rsp), %ymm0 vfmadd231ps %ymm27, %ymm0, %ymm22 # ymm22 = (ymm0 * ymm27) + ymm22 vmulps %ymm29, %ymm29, %ymm24 vfmadd231ps %ymm28, %ymm28, %ymm24 # ymm24 = (ymm28 * ymm28) + ymm24 vfmadd231ps %ymm27, %ymm27, %ymm24 # ymm24 = (ymm27 * ymm27) + ymm24 vmulps %ymm18, %ymm21, %ymm17 vfmadd231ps %ymm3, %ymm16, %ymm17 # ymm17 = (ymm16 * ymm3) + ymm17 vfmadd231ps %ymm0, %ymm15, %ymm17 # ymm17 = (ymm15 * ymm0) + ymm17 vmulps %ymm18, %ymm29, %ymm18 vfmadd231ps %ymm16, %ymm28, %ymm18 # ymm18 = (ymm28 * ymm16) + ymm18 vfmadd231ps %ymm15, %ymm27, %ymm18 # ymm18 = (ymm27 * ymm15) + ymm18 vmulps %ymm17, %ymm17, %ymm2 vmovaps 0x5a0(%rsp), %ymm3 vsubps %ymm2, %ymm3, %ymm15 vmulps %ymm18, %ymm17, %ymm25 vsubps %ymm25, %ymm22, %ymm22 vaddps %ymm22, %ymm22, %ymm22 vmulps %ymm18, %ymm18, %ymm25 vsubps %ymm25, %ymm24, %ymm1 vsubps %ymm4, %ymm1, %ymm4 vmulps %ymm22, %ymm22, %ymm25 vmulps %ymm30, %ymm15, %ymm24 vmulps %ymm4, %ymm24, %ymm30 vsubps %ymm30, %ymm25, %ymm30 vcmpnltps %ymm31, %ymm30, %k1 kmovd %k1, %eax kortestb %k1, %k1 je 0x1d1387a vsqrtps %ymm30, %ymm30 vaddps %ymm15, %ymm15, %ymm31 vrcp14ps %ymm31, %ymm3 vfnmadd213ps %ymm26, %ymm3, %ymm31 # ymm31 = -(ymm3 * ymm31) + ymm26 vfmadd132ps %ymm3, %ymm3, %ymm31 # ymm31 = (ymm31 * ymm3) + ymm3 vxorps 0x20d6fc(%rip){1to8}, %ymm22, %ymm3 # 0x1f20ec0 vsubps %ymm30, %ymm3, %ymm3 vmulps %ymm31, %ymm3, %ymm3 vsubps %ymm22, %ymm30, %ymm30 vmulps %ymm31, %ymm30, %ymm31 vmovaps %ymm17, %ymm30 vfmadd213ps %ymm18, %ymm3, %ymm30 # ymm30 = (ymm3 * ymm30) + ymm18 vmulps %ymm30, %ymm14, %ymm30 vmovaps %ymm30, 0x480(%rsp) vmovaps %ymm17, %ymm30 vfmadd213ps %ymm18, %ymm31, %ymm30 # ymm30 = (ymm31 * ymm30) + ymm18 vmulps %ymm30, %ymm14, %ymm30 vmovaps %ymm30, 0x460(%rsp) vbroadcastss 0x1d8206(%rip), %ymm16 # 0x1eeba20 vblendmps %ymm3, %ymm16, %ymm30 {%k1} vbroadcastss 0x1d935b(%rip), %ymm3 # 0x1eecb84 vblendmps %ymm31, %ymm3, %ymm31 {%k1} vbroadcastss 0x20d68b(%rip), %ymm23 # 0x1f20ec4 vandps %ymm23, %ymm2, %ymm3 vmovaps 0x4c0(%rsp), %ymm16 vmaxps %ymm3, %ymm16, %ymm3 vmulps 0x1de65d(%rip){1to8}, %ymm3, %ymm3 # 0x1ef1eb4 vandps %ymm23, %ymm15, %ymm23 vcmpltps %ymm3, %ymm23, %k1 {%k1} kortestb %k1, %k1 jne 0x1d157e1 vbroadcastss 0x1d8e9c(%rip), %ymm16 # 0x1eec714 jmp 0x1d13894 vbroadcastss 0x1d819c(%rip), %ymm30 # 0x1eeba20 vbroadcastss 0x1d92f6(%rip), %ymm31 # 0x1eecb84 vmovaps %ymm26, %ymm16 andb $0x7f, %al je 0x1d13c8f movq 0x38(%rsp), %rcx vmovss 0x200(%r12,%rcx,4), %xmm3 vsubss 0x300(%rsp), %xmm3, %xmm3 vbroadcastss %xmm3, %ymm3 vminps %ymm31, %ymm3, %ymm3 vmovaps 0x580(%rsp), %ymm4 vmaxps %ymm30, %ymm4, %ymm4 vmulps %ymm29, %ymm13, %ymm23 vfmadd213ps %ymm23, %ymm12, %ymm28 # ymm28 = (ymm12 * ymm28) + ymm23 vfmadd213ps %ymm28, %ymm11, %ymm27 # ymm27 = (ymm11 * ymm27) + ymm28 vmovaps 0x1c0(%rsp), %ymm21 vmulps %ymm13, %ymm21, %ymm13 vmovaps 0x1e0(%rsp), %ymm31 vfmadd231ps %ymm12, %ymm31, %ymm13 # ymm13 = (ymm31 * ymm12) + ymm13 vmovaps 0x4e0(%rsp), %ymm30 vfmadd231ps %ymm11, %ymm30, %ymm13 # ymm13 = (ymm30 * ymm11) + ymm13 vbroadcastss 0x20d5b0(%rip), %ymm28 # 0x1f20ec4 vandps %ymm28, %ymm13, %ymm11 vbroadcastss 0x1dd6c4(%rip), %ymm29 # 0x1ef0fe8 vcmpltps %ymm29, %ymm11, %k0 vbroadcastss 0x20d58b(%rip), %ymm26 # 0x1f20ec0 vxorps %ymm26, %ymm27, %ymm11 vrcp14ps %ymm13, %ymm12 vxorps %ymm26, %ymm13, %ymm23 vmovaps %ymm12, %ymm27 vfnmadd213ps %ymm16, %ymm13, %ymm27 # ymm27 = -(ymm13 * ymm27) + ymm16 vfmadd132ps %ymm12, %ymm12, %ymm27 # ymm27 = (ymm27 * ymm12) + ymm12 vmulps %ymm11, %ymm27, %ymm11 vcmpltps %ymm23, %ymm13, %k1 korb %k1, %k0, %k1 vbroadcastss 0x1d9210(%rip), %ymm27 # 0x1eecb84 vblendmps %ymm27, %ymm11, %ymm12 {%k1} vmaxps %ymm12, %ymm4, %ymm4 vcmpnleps %ymm23, %ymm13, %k1 korb %k1, %k0, %k1 vbroadcastss 0x1d808d(%rip), %ymm13 # 0x1eeba20 vmovaps %ymm13, %ymm11 {%k1} vminps %ymm11, %ymm3, %ymm3 vxorps %xmm23, %xmm23, %xmm23 vsubps %ymm8, %ymm23, %ymm8 vsubps %ymm9, %ymm23, %ymm9 vsubps %ymm10, %ymm23, %ymm10 vmulps %ymm5, %ymm10, %ymm10 vfnmsub231ps %ymm9, %ymm20, %ymm10 # ymm10 = -(ymm20 * ymm9) - ymm10 vfnmadd231ps %ymm8, %ymm19, %ymm10 # ymm10 = -(ymm19 * ymm8) + ymm10 vmulps %ymm5, %ymm21, %ymm8 vfnmsub231ps %ymm20, %ymm31, %ymm8 # ymm8 = -(ymm31 * ymm20) - ymm8 vfnmadd231ps %ymm19, %ymm30, %ymm8 # ymm8 = -(ymm30 * ymm19) + ymm8 vandps %ymm28, %ymm8, %ymm9 vcmpltps %ymm29, %ymm9, %k0 vxorps %ymm26, %ymm10, %ymm9 vrcp14ps %ymm8, %ymm10 vxorps %ymm26, %ymm8, %ymm11 vmovaps %ymm10, %ymm12 vfnmadd213ps %ymm16, %ymm8, %ymm12 # ymm12 = -(ymm8 * ymm12) + ymm16 vfmadd132ps %ymm10, %ymm10, %ymm12 # ymm12 = (ymm12 * ymm10) + ymm10 vmulps %ymm9, %ymm12, %ymm9 vcmpltps %ymm11, %ymm8, %k1 korb %k1, %k0, %k1 vblendmps %ymm27, %ymm9, %ymm10 {%k1} vmaxps %ymm10, %ymm4, %ymm0 vcmpnleps %ymm11, %ymm8, %k1 korb %k1, %k0, %k1 vmovaps %ymm13, %ymm9 {%k1} vminps %ymm9, %ymm3, %ymm8 vmovaps %ymm0, 0x360(%rsp) vcmpleps %ymm8, %ymm0, %k0 kmovd %k0, %ecx andb %cl, %al je 0x1d156cd vmovaps 0x480(%rsp), %ymm3 vmaxps 0xa0(%rsp), %ymm23, %ymm4 vminps %ymm16, %ymm3, %ymm3 vxorps %xmm10, %xmm10, %xmm10 vmaxps %ymm10, %ymm3, %ymm3 vmovaps 0x460(%rsp), %ymm9 vminps %ymm16, %ymm9, %ymm9 vmovaps 0x20d4b4(%rip), %ymm11 # 0x1f20f40 vaddps %ymm3, %ymm11, %ymm3 vbroadcastss 0x20aa1f(%rip), %ymm12 # 0x1f1e4b8 vmulps %ymm3, %ymm12, %ymm3 vmovaps 0x80(%rsp), %ymm0 vmovaps %ymm1, %ymm5 vmovaps 0x220(%rsp), %ymm1 vfmadd213ps %ymm0, %ymm1, %ymm3 # ymm3 = (ymm1 * ymm3) + ymm0 vmovaps %ymm3, 0x480(%rsp) vmaxps %ymm10, %ymm9, %ymm3 vaddps %ymm3, %ymm11, %ymm3 vmulps %ymm3, %ymm12, %ymm3 vfmadd213ps %ymm0, %ymm1, %ymm3 # ymm3 = (ymm1 * ymm3) + ymm0 vmovaps %ymm3, 0x460(%rsp) vmulps %ymm4, %ymm4, %ymm3 vsubps %ymm3, %ymm5, %ymm11 vmulps %ymm11, %ymm24, %ymm3 vsubps %ymm3, %ymm25, %ymm3 vcmpnltps %ymm10, %ymm3, %k0 kortestb %k0, %k0 je 0x1d13ca4 vxorps %xmm20, %xmm20, %xmm20 vcmpnltps %ymm23, %ymm3, %k1 vsqrtps %ymm3, %ymm3 vaddps %ymm15, %ymm15, %ymm4 vrcp14ps %ymm4, %ymm9 vfnmadd213ps %ymm16, %ymm9, %ymm4 # ymm4 = -(ymm9 * ymm4) + ymm16 vfmadd132ps %ymm9, %ymm9, %ymm4 # ymm4 = (ymm4 * ymm9) + ymm9 vxorps 0x20d38e(%rip){1to8}, %ymm22, %ymm9 # 0x1f20ec0 vsubps %ymm3, %ymm9, %ymm9 vmulps %ymm4, %ymm9, %ymm12 vsubps %ymm22, %ymm3, %ymm3 vmulps %ymm4, %ymm3, %ymm13 vmovaps %ymm17, %ymm3 vfmadd213ps %ymm18, %ymm12, %ymm3 # ymm3 = (ymm12 * ymm3) + ymm18 vmulps %ymm3, %ymm14, %ymm9 vmulps %ymm12, %ymm30, %ymm3 vmulps %ymm12, %ymm31, %ymm4 vmulps %ymm12, %ymm21, %ymm10 vmovaps %ymm7, %ymm19 vmovaps %ymm2, %ymm16 vmovaps 0x160(%rsp), %ymm2 vfmadd213ps %ymm2, %ymm9, %ymm19 # ymm19 = (ymm9 * ymm19) + ymm2 vsubps %ymm19, %ymm3, %ymm3 vmovaps %ymm6, %ymm19 vmovaps 0xc0(%rsp), %ymm1 vfmadd213ps %ymm1, %ymm9, %ymm19 # ymm19 = (ymm9 * ymm19) + ymm1 vsubps %ymm19, %ymm4, %ymm4 vmovaps 0x200(%rsp), %ymm0 vmovaps 0x3a0(%rsp), %ymm5 vfmadd213ps %ymm0, %ymm5, %ymm9 # ymm9 = (ymm5 * ymm9) + ymm0 vsubps %ymm9, %ymm10, %ymm9 vfmadd213ps %ymm18, %ymm13, %ymm17 # ymm17 = (ymm13 * ymm17) + ymm18 vmulps %ymm17, %ymm14, %ymm14 vmulps %ymm13, %ymm30, %ymm10 vmulps %ymm13, %ymm31, %ymm17 vmulps %ymm13, %ymm21, %ymm18 vfmadd213ps %ymm2, %ymm14, %ymm7 # ymm7 = (ymm14 * ymm7) + ymm2 vsubps %ymm7, %ymm10, %ymm10 vfmadd213ps %ymm1, %ymm14, %ymm6 # ymm6 = (ymm14 * ymm6) + ymm1 vsubps %ymm6, %ymm17, %ymm1 vfmadd213ps %ymm0, %ymm14, %ymm5 # ymm5 = (ymm14 * ymm5) + ymm0 vsubps %ymm5, %ymm18, %ymm5 vbroadcastss 0x1d7e1c(%rip), %ymm0 # 0x1eeba20 vblendmps %ymm12, %ymm0, %ymm2 {%k1} vbroadcastss 0x1d8f71(%rip), %ymm0 # 0x1eecb84 vblendmps %ymm13, %ymm0, %ymm0 {%k1} vbroadcastss 0x20d2a2(%rip), %ymm7 # 0x1f20ec4 vandps %ymm7, %ymm16, %ymm6 vmovaps 0x4c0(%rsp), %ymm12 vmaxps %ymm6, %ymm12, %ymm6 vmulps 0x1de275(%rip){1to8}, %ymm6, %ymm6 # 0x1ef1eb4 vandps %ymm7, %ymm15, %ymm7 vcmpltps %ymm6, %ymm7, %k1 {%k1} kortestb %k1, %k1 je 0x1d13ccb vcmpleps %ymm20, %ymm11, %k2 vbroadcastss 0x1d8f24(%rip), %ymm7 # 0x1eecb84 vbroadcastss 0x1d7db7(%rip), %ymm11 # 0x1eeba20 vblendmps %ymm7, %ymm11, %ymm6 {%k2} vmovaps %ymm6, %ymm2 {%k1} vblendmps %ymm11, %ymm7, %ymm6 {%k2} vmovaps %ymm6, %ymm0 {%k1} knotb %k1, %k1 korb %k2, %k1, %k1 kandb %k0, %k1, %k0 jmp 0x1d13ccb vmovaps 0x1e0(%rsp), %ymm31 vmovaps 0x1c0(%rsp), %ymm21 jmp 0x1d156cd vxorps %xmm1, %xmm1, %xmm1 vxorps %xmm5, %xmm5, %xmm5 vxorps %xmm3, %xmm3, %xmm3 vxorps %xmm4, %xmm4, %xmm4 vxorps %xmm9, %xmm9, %xmm9 vbroadcastss 0x1d7d5e(%rip), %ymm2 # 0x1eeba20 vbroadcastss 0x1d8eb9(%rip), %ymm0 # 0x1eecb84 vbroadcastss 0x20d1f0(%rip), %xmm11 # 0x1f20ec4 vmulps %ymm5, %ymm21, %ymm5 vfmadd231ps %ymm1, %ymm31, %ymm5 # ymm5 = (ymm31 * ymm1) + ymm5 vfmadd231ps %ymm10, %ymm30, %ymm5 # ymm5 = (ymm30 * ymm10) + ymm5 vmovaps 0x360(%rsp), %ymm7 vmovaps %ymm7, 0x7c0(%rsp) vminps %ymm2, %ymm8, %ymm1 vmovaps %ymm1, 0x7e0(%rsp) vbroadcastss 0x20d1b6(%rip), %ymm6 # 0x1f20ec4 vandps %ymm6, %ymm5, %ymm2 vmaxps %ymm0, %ymm7, %ymm5 vmovaps %ymm5, 0x500(%rsp) vmovaps %ymm8, 0x520(%rsp) vbroadcastss 0x20d1a3(%rip), %ymm0 # 0x1f20ed4 vcmpltps %ymm0, %ymm2, %k1 kmovd %k1, 0x124(%rsp) vcmpleps %ymm1, %ymm7, %k1 kmovd %k1, %ecx andb %al, %cl vmovaps %ymm5, 0x420(%rsp) vcmpleps %ymm8, %ymm5, %k1 kmovd %k1, %edx andb %al, %dl movl %edx, %eax orb %cl, %al je 0x1d15697 vmovaps %ymm0, %ymm2 movl %edx, 0x54(%rsp) movq %r9, 0x1b0(%rsp) movq %r10, 0x1b8(%rsp) knotb %k0, %k1 vmulps %ymm9, %ymm21, %ymm0 vfmadd213ps %ymm0, %ymm31, %ymm4 # ymm4 = (ymm31 * ymm4) + ymm0 vfmadd213ps %ymm4, %ymm30, %ymm3 # ymm3 = (ymm30 * ymm3) + ymm4 vandps %ymm6, %ymm3, %ymm0 vcmpltps %ymm2, %ymm0, %k0 kmovd %k1, 0x11c(%rsp) korb %k1, %k0, %k1 vpbroadcastd 0x20d11d(%rip), %ymm0 # 0x1f20edc vpblendmd 0x20d10f(%rip){1to8}, %ymm0, %ymm0 {%k1} # 0x1f20ed8 movq %r11, 0x1a8(%rsp) vpbroadcastd %r11d, %ymm1 vmovdqa %ymm0, 0x540(%rsp) vmovdqa %ymm1, 0x4a0(%rsp) vpcmpnltd %ymm0, %ymm1, %k0 kmovd %k0, %ebx movl %ecx, 0x120(%rsp) andb %cl, %bl je 0x1d149a1 vmovaps 0x2c0(%rsp), %ymm1 vmovaps 0x280(%rsp), %ymm2 vminps %xmm2, %xmm1, %xmm0 vmaxps %xmm2, %xmm1, %xmm1 vmovaps 0x2a0(%rsp), %ymm3 vmovaps 0x260(%rsp), %ymm4 vminps %xmm4, %xmm3, %xmm2 vminps %xmm2, %xmm0, %xmm0 vmaxps %xmm4, %xmm3, %xmm2 vmaxps %xmm2, %xmm1, %xmm1 vandps %xmm0, %xmm11, %xmm0 vandps %xmm1, %xmm11, %xmm2 vmaxps %xmm2, %xmm0, %xmm0 vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3] vmaxss %xmm0, %xmm2, %xmm2 vshufpd $0x1, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[1,0] vmaxss %xmm2, %xmm0, %xmm0 vmulss 0x1de050(%rip), %xmm0, %xmm0 # 0x1ef1eb4 vmovss %xmm0, 0x64(%rsp) vshufps $0xff, %xmm1, %xmm1, %xmm0 # xmm0 = xmm1[3,3,3,3] vmovaps %xmm0, 0x2f0(%rsp) vmovaps 0x360(%rsp), %ymm0 vaddps 0x380(%rsp), %ymm0, %ymm0 vmovaps %ymm0, 0x440(%rsp) kmovd %ebx, %k1 vbroadcastss 0x1d7b80(%rip), %ymm0 # 0x1eeba20 vblendmps 0x360(%rsp), %ymm0, %ymm0 {%k1} vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm0, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1] vminps %ymm2, %ymm1, %ymm1 vcmpeqps %ymm1, %ymm0, %k0 kmovd %k0, %eax andb %bl, %al movzbl %al, %eax movzbl %bl, %ecx cmovnel %eax, %ecx tzcntl %ecx, %ecx movb $0x1, %bl shlb %cl, %bl shll $0x2, %ecx vmovss 0x480(%rsp,%rcx), %xmm10 vmovss 0x7c0(%rsp,%rcx), %xmm8 vmovaps 0x240(%rsp), %xmm0 vucomiss 0x1d7b1c(%rip), %xmm0 # 0x1eeba24 vmovss 0x128(%rsp), %xmm0 jae 0x1d13f5a vmovaps 0x240(%rsp), %xmm0 vmovaps %xmm10, 0x80(%rsp) vmovaps %xmm8, 0xc0(%rsp) kmovw %k1, 0xa0(%rsp) vzeroupper callq 0x6aa20 kmovw 0xa0(%rsp), %k1 vmovaps 0xc0(%rsp), %xmm8 vmovaps 0x80(%rsp), %xmm10 movzbl %bl, %eax kmovd %eax, %k0 kandnb %k1, %k0, %k0 kmovd %k0, %ebx vmulss 0x1ddf43(%rip), %xmm0, %xmm0 # 0x1ef1eb4 vmovss %xmm0, 0x68(%rsp) movl $0x4, %r14d vmovaps %xmm8, 0xc0(%rsp) vbroadcastss %xmm8, %xmm0 vxorps %xmm1, %xmm1, %xmm1 vfmadd132ps 0x250(%rsp), %xmm1, %xmm0 # xmm0 = (xmm0 * mem) + xmm1 vmovss 0x1d8773(%rip), %xmm1 # 0x1eec714 vsubss %xmm10, %xmm1, %xmm4 vmulss %xmm4, %xmm4, %xmm1 vmulss %xmm1, %xmm4, %xmm1 vmulss %xmm10, %xmm10, %xmm11 vmulss %xmm11, %xmm10, %xmm2 vmovss 0x1d8bcc(%rip), %xmm7 # 0x1eecb8c vmovaps %xmm7, %xmm3 vfmadd213ss %xmm2, %xmm1, %xmm3 # xmm3 = (xmm1 * xmm3) + xmm2 vmulss %xmm4, %xmm10, %xmm12 vmovaps %xmm4, 0xa0(%rsp) vmulss %xmm4, %xmm12, %xmm4 vmulss %xmm12, %xmm10, %xmm5 vmovss 0x1dd00d(%rip), %xmm8 # 0x1ef0ff4 vmulss %xmm5, %xmm8, %xmm6 vmovss 0x1dd009(%rip), %xmm9 # 0x1ef0ffc vfmadd231ss %xmm9, %xmm4, %xmm6 # xmm6 = (xmm4 * xmm9) + xmm6 vaddss %xmm6, %xmm3, %xmm3 vmovaps %xmm7, %xmm6 vfmadd213ss %xmm1, %xmm2, %xmm6 # xmm6 = (xmm2 * xmm6) + xmm1 vmulss %xmm4, %xmm8, %xmm4 vfmadd231ss %xmm5, %xmm9, %xmm4 # xmm4 = (xmm9 * xmm5) + xmm4 vaddss %xmm4, %xmm6, %xmm4 vmovss 0x1dcfe6(%rip), %xmm5 # 0x1ef1000 vmulss %xmm5, %xmm1, %xmm1 vmulss %xmm5, %xmm3, %xmm3 vmulss %xmm5, %xmm4, %xmm4 vmulss %xmm5, %xmm2, %xmm2 vbroadcastss %xmm2, %xmm2 vmulps 0x260(%rsp), %xmm2, %xmm2 vbroadcastss %xmm4, %xmm4 vfmadd132ps 0x2a0(%rsp), %xmm2, %xmm4 # xmm4 = (xmm4 * mem) + xmm2 vbroadcastss %xmm3, %xmm2 vfmadd132ps 0x280(%rsp), %xmm4, %xmm2 # xmm2 = (xmm2 * mem) + xmm4 vbroadcastss %xmm1, %xmm1 vfmadd132ps 0x2c0(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2 vmovaps %xmm1, 0x3a0(%rsp) vsubps %xmm1, %xmm0, %xmm0 vmovaps %xmm0, 0x220(%rsp) vdpps $0x7f, %xmm0, %xmm0, %xmm0 vucomiss 0x1d799b(%rip), %xmm0 # 0x1eeba24 vmovaps %xmm10, 0x80(%rsp) vmovaps %xmm0, 0x200(%rsp) jb 0x1d140a3 vsqrtss %xmm0, %xmm0, %xmm7 jmp 0x1d140d6 vmovss %xmm11, 0x160(%rsp) vmovss %xmm12, 0x40(%rsp) vzeroupper callq 0x6aa20 vmovss 0x40(%rsp), %xmm12 vmovss 0x160(%rsp), %xmm11 vmovaps 0x80(%rsp), %xmm10 vmovaps %xmm0, %xmm7 vmovaps 0xa0(%rsp), %xmm3 vbroadcastss %xmm3, %xmm1 vbroadcastss 0x20cdd3(%rip), %xmm4 # 0x1f20ec0 vmovaps %xmm1, 0x350(%rsp) vxorps %xmm4, %xmm1, %xmm0 vmulss %xmm0, %xmm3, %xmm0 vmulss 0x1d8a86(%rip), %xmm12, %xmm1 # 0x1eecb8c vmovaps %xmm10, %xmm2 vfnmsub213ss %xmm1, %xmm10, %xmm2 # xmm2 = -(xmm10 * xmm2) - xmm1 vfmadd231ss %xmm3, %xmm3, %xmm1 # xmm1 = (xmm3 * xmm3) + xmm1 vmovss 0x1d8a64(%rip), %xmm3 # 0x1eecb80 vmulss %xmm3, %xmm0, %xmm0 vmulss %xmm3, %xmm2, %xmm2 vmulss %xmm3, %xmm1, %xmm1 vmulss %xmm3, %xmm11, %xmm3 vbroadcastss %xmm3, %xmm3 vmulps 0x260(%rsp), %xmm3, %xmm3 vbroadcastss %xmm1, %xmm1 vfmadd132ps 0x2a0(%rsp), %xmm3, %xmm1 # xmm1 = (xmm1 * mem) + xmm3 vbroadcastss %xmm2, %xmm2 vfmadd132ps 0x280(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1 vbroadcastss %xmm0, %xmm13 vfmadd132ps 0x2c0(%rsp), %xmm2, %xmm13 # xmm13 = (xmm13 * mem) + xmm2 vdpps $0x7f, %xmm13, %xmm13, %xmm0 vxorps %xmm1, %xmm1, %xmm1 vmovss %xmm0, %xmm1, %xmm2 # xmm2 = xmm0[0],xmm1[1,2,3] vrsqrt14ss %xmm2, %xmm1, %xmm3 vmulss 0x1d8595(%rip), %xmm3, %xmm5 # 0x1eec718 vmulss 0x1d8591(%rip), %xmm0, %xmm6 # 0x1eec71c vrcp14ss %xmm2, %xmm1, %xmm2 vxorps %xmm4, %xmm0, %xmm1 vmovaps %xmm2, 0x330(%rsp) vfnmadd213ss 0x1dce51(%rip), %xmm0, %xmm2 # xmm2 = -(xmm0 * xmm2) + mem vmovss %xmm2, 0x6c(%rsp) vucomiss %xmm1, %xmm0 vmovaps %xmm13, 0x160(%rsp) vmovss %xmm7, 0x40(%rsp) vmovaps %xmm0, 0x340(%rsp) jb 0x1d141d3 vsqrtss %xmm0, %xmm0, %xmm16 jmp 0x1d14220 vmovaps %xmm3, 0x100(%rsp) vmovss %xmm5, 0x44(%rsp) vmovss %xmm6, 0xf0(%rsp) vzeroupper callq 0x6aa20 vmovss 0xf0(%rsp), %xmm6 vmovss 0x44(%rsp), %xmm5 vmovaps 0x100(%rsp), %xmm3 vmovss 0x40(%rsp), %xmm7 vmovaps 0x160(%rsp), %xmm13 vmovaps %xmm0, %xmm16 vmovaps 0x220(%rsp), %xmm9 vmovaps 0x200(%rsp), %xmm19 vmulss %xmm3, %xmm6, %xmm0 vmulss %xmm3, %xmm3, %xmm1 vmulss %xmm1, %xmm0, %xmm0 vaddss %xmm0, %xmm5, %xmm0 vbroadcastss %xmm0, %xmm4 vmulps %xmm4, %xmm13, %xmm0 vmovaps %xmm0, 0x100(%rsp) vdpps $0x7f, %xmm0, %xmm9, %xmm15 vaddss 0x1d84b3(%rip), %xmm7, %xmm14 # 0x1eec714 vmulps %xmm15, %xmm15, %xmm0 vsubps %xmm0, %xmm19, %xmm0 vxorps %xmm2, %xmm2, %xmm2 vmovss %xmm0, %xmm2, %xmm1 # xmm1 = xmm0[0],xmm2[1,2,3] vrsqrt14ss %xmm1, %xmm2, %xmm18 vmulss 0x1d8494(%rip), %xmm18, %xmm17 # 0x1eec718 vmulss 0x1d848e(%rip), %xmm0, %xmm20 # 0x1eec71c vucomiss 0x1d778e(%rip), %xmm0 # 0x1eeba24 jb 0x1d142a1 vsqrtss %xmm0, %xmm0, %xmm0 jmp 0x1d14339 vmovss %xmm14, 0x44(%rsp) vmovaps %xmm15, 0xf0(%rsp) vmovss %xmm16, 0x60(%rsp) vmovss %xmm17, 0x5c(%rsp) vmovaps %xmm18, 0x320(%rsp) vmovss %xmm20, 0x58(%rsp) vmovaps %xmm4, 0x310(%rsp) vzeroupper callq 0x6aa20 vmovaps 0x310(%rsp), %xmm4 vmovss 0x58(%rsp), %xmm20 vmovaps 0x320(%rsp), %xmm18 vmovss 0x5c(%rsp), %xmm17 vmovss 0x60(%rsp), %xmm16 vmovaps 0xf0(%rsp), %xmm15 vmovss 0x44(%rsp), %xmm14 vmovss 0x40(%rsp), %xmm7 vmovaps 0x160(%rsp), %xmm13 vmovaps 0x200(%rsp), %xmm19 vmovaps 0x220(%rsp), %xmm9 vbroadcastss 0x20cb82(%rip), %xmm11 # 0x1f20ec4 vmovaps 0x1e0(%rsp), %ymm31 vmovaps 0x1c0(%rsp), %ymm21 vmovaps 0x80(%rsp), %xmm10 vmovaps 0xc0(%rsp), %xmm8 vmovss 0x1dc670(%rip), %xmm2 # 0x1ef09dc vmovaps %xmm2, %xmm1 vmovaps 0xa0(%rsp), %xmm3 vfmadd213ss %xmm10, %xmm3, %xmm1 # xmm1 = (xmm3 * xmm1) + xmm10 vfmadd231ss %xmm2, %xmm10, %xmm3 # xmm3 = (xmm10 * xmm2) + xmm3 vbroadcastss %xmm10, %xmm2 vmulps 0x260(%rsp), %xmm2, %xmm2 vbroadcastss %xmm3, %xmm3 vfmadd132ps 0x2a0(%rsp), %xmm2, %xmm3 # xmm3 = (xmm3 * mem) + xmm2 vbroadcastss %xmm1, %xmm1 vfmadd132ps 0x280(%rsp), %xmm3, %xmm1 # xmm1 = (xmm1 * mem) + xmm3 vmovaps 0x350(%rsp), %xmm2 vfmadd132ps 0x2c0(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1 vbroadcastss 0x340(%rsp), %xmm1 vmulps %xmm1, %xmm2, %xmm1 vdpps $0x7f, %xmm2, %xmm13, %xmm2 vbroadcastss %xmm2, %xmm2 vmulps %xmm2, %xmm13, %xmm2 vsubps %xmm2, %xmm1, %xmm1 vmovss 0x6c(%rsp), %xmm2 vmulss 0x330(%rsp), %xmm2, %xmm2 vmulss 0x68(%rsp), %xmm8, %xmm3 vbroadcastss %xmm2, %xmm2 vmulps %xmm2, %xmm1, %xmm1 vxorps 0x20cab5(%rip){1to4}, %xmm13, %xmm2 # 0x1f20ec0 vmulps %xmm1, %xmm4, %xmm4 vmovaps 0x100(%rsp), %xmm12 vdpps $0x7f, %xmm12, %xmm2, %xmm5 vmovss 0x64(%rsp), %xmm6 vmaxss %xmm3, %xmm6, %xmm1 vdivss %xmm16, %xmm6, %xmm3 vdpps $0x7f, %xmm4, %xmm9, %xmm4 vfmadd213ss %xmm1, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm7) + xmm1 vfmadd213ss %xmm7, %xmm3, %xmm14 # xmm14 = (xmm3 * xmm14) + xmm7 vmovaps 0x250(%rsp), %xmm7 vdpps $0x7f, %xmm12, %xmm7, %xmm3 vaddss %xmm4, %xmm5, %xmm4 vdpps $0x7f, %xmm2, %xmm9, %xmm5 vmulss %xmm18, %xmm20, %xmm2 vmulss %xmm18, %xmm18, %xmm6 vmulss %xmm6, %xmm2, %xmm2 vdpps $0x7f, %xmm7, %xmm9, %xmm6 vaddss %xmm2, %xmm17, %xmm7 vfnmadd231ss %xmm4, %xmm15, %xmm5 # xmm5 = -(xmm15 * xmm4) + xmm5 vfnmadd231ss %xmm3, %xmm15, %xmm6 # xmm6 = -(xmm15 * xmm3) + xmm6 vpermilps $0xff, 0x3a0(%rsp), %xmm2 # xmm2 = mem[3,3,3,3] vsubss %xmm2, %xmm0, %xmm2 vshufps $0xff, %xmm13, %xmm13, %xmm0 # xmm0 = xmm13[3,3,3,3] vfmsub213ss %xmm0, %xmm7, %xmm5 # xmm5 = (xmm7 * xmm5) - xmm0 vmulss %xmm7, %xmm6, %xmm6 vmulss %xmm5, %xmm3, %xmm7 vfmsub231ss %xmm6, %xmm4, %xmm7 # xmm7 = (xmm4 * xmm6) - xmm7 vdivss %xmm7, %xmm6, %xmm6 vdivss %xmm7, %xmm5, %xmm5 vdivss %xmm7, %xmm3, %xmm3 vdivss %xmm7, %xmm4, %xmm4 vmulss %xmm6, %xmm15, %xmm6 vmulss %xmm3, %xmm2, %xmm3 vsubss %xmm3, %xmm6, %xmm3 vmulss %xmm5, %xmm15, %xmm5 vmulss %xmm4, %xmm2, %xmm4 vsubss %xmm5, %xmm4, %xmm4 vsubss %xmm3, %xmm10, %xmm10 vsubss %xmm4, %xmm8, %xmm8 vandps %xmm11, %xmm15, %xmm3 vucomiss %xmm3, %xmm14 jbe 0x1d14693 vaddss %xmm1, %xmm14, %xmm1 vmovaps 0x2f0(%rsp), %xmm3 vfmadd231ss 0x1dd9bb(%rip), %xmm3, %xmm1 # xmm1 = (xmm3 * mem) + xmm1 vandps %xmm2, %xmm11, %xmm2 vucomiss %xmm2, %xmm1 jbe 0x1d14693 vaddss 0x300(%rsp), %xmm8, %xmm8 movb $0x1, %r13b vucomiss 0x7c(%rsp), %xmm8 jb 0x1d14696 movq 0x38(%rsp), %rax vmovss 0x200(%r12,%rax,4), %xmm4 vucomiss %xmm8, %xmm4 jb 0x1d14696 vucomiss 0x1d74e3(%rip), %xmm10 # 0x1eeba24 jb 0x1d14696 vmovss 0x1d81c5(%rip), %xmm1 # 0x1eec714 vucomiss %xmm10, %xmm1 jb 0x1d14696 vxorps %xmm2, %xmm2, %xmm2 vmovss %xmm19, %xmm2, %xmm1 # xmm1 = xmm19[0],xmm2[1,2,3] vrsqrt14ss %xmm1, %xmm2, %xmm1 vmulss 0x1d81a6(%rip), %xmm1, %xmm2 # 0x1eec718 vmulss 0x1d81a0(%rip), %xmm19, %xmm3 # 0x1eec71c movq (%r15), %rax movq 0x1e8(%rax), %rax movq %r15, %rcx movq 0x70(%rsp), %rdx movq (%rax,%rdx,8), %r15 movq 0x38(%rsp), %rax movl 0x240(%r12,%rax,4), %eax testl %eax, 0x34(%r15) je 0x1d146b3 vmulss %xmm1, %xmm3, %xmm3 vmulss %xmm1, %xmm1, %xmm1 vmulss %xmm1, %xmm3, %xmm1 vaddss %xmm1, %xmm2, %xmm1 vbroadcastss %xmm1, %xmm1 vmulps %xmm1, %xmm9, %xmm1 vfmadd213ps %xmm13, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm0) + xmm13 vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3] vshufps $0xc9, %xmm13, %xmm13, %xmm3 # xmm3 = xmm13[1,2,0,3] vmulps %xmm3, %xmm1, %xmm1 vfmsub231ps %xmm2, %xmm13, %xmm1 # xmm1 = (xmm13 * xmm2) - xmm1 vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3] vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3] vshufps $0xd2, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,0,1,3] vmulps %xmm1, %xmm0, %xmm0 vfmsub231ps %xmm3, %xmm2, %xmm0 # xmm0 = (xmm2 * xmm3) - xmm0 movq 0x10(%rcx), %rax cmpq $0x0, 0x10(%rax) jne 0x1d146b8 cmpq $0x0, 0x40(%r15) jne 0x1d146b8 movq 0x38(%rsp), %rcx vmovss %xmm8, 0x200(%r12,%rcx,4) vextractps $0x1, %xmm0, 0x300(%r12,%rcx,4) vextractps $0x2, %xmm0, 0x340(%r12,%rcx,4) vmovss %xmm0, 0x380(%r12,%rcx,4) vmovss %xmm10, 0x3c0(%r12,%rcx,4) movl $0x0, 0x400(%r12,%rcx,4) movq 0x110(%rsp), %rax movl %eax, 0x440(%r12,%rcx,4) movq 0x70(%rsp), %rax movl %eax, 0x480(%r12,%rcx,4) movq 0x48(%rsp), %r15 movq 0x8(%r15), %rax movl (%rax), %eax movl %eax, 0x4c0(%r12,%rcx,4) movq 0x8(%r15), %rax movl 0x4(%rax), %eax movl %eax, 0x500(%r12,%rcx,4) jmp 0x1d14696 xorl %r13d, %r13d subq $0x1, %r14 setb %al testb %r13b, %r13b jne 0x1d1497b testb %al, %al je 0x1d13f7d jmp 0x1d1497b movq %rcx, %r15 jmp 0x1d14696 movq 0x48(%rsp), %rcx movq 0x8(%rcx), %rax vbroadcastss %xmm10, %zmm1 vbroadcastss 0x1fe033(%rip), %zmm2 # 0x1f12704 vpermps %zmm0, %zmm2, %zmm2 vbroadcastss 0x20c7fb(%rip), %zmm3 # 0x1f20edc vpermps %zmm0, %zmm3, %zmm3 vbroadcastss %xmm0, %zmm0 vmovaps %zmm2, 0x8c0(%rsp) vmovaps %zmm3, 0x900(%rsp) vmovaps %zmm0, 0x940(%rsp) vmovaps %zmm1, 0x980(%rsp) vxorps %xmm0, %xmm0, %xmm0 vmovaps %zmm0, 0x9c0(%rsp) vmovaps 0x840(%rsp), %zmm0 vmovaps %zmm0, 0xa00(%rsp) vmovdqa64 0x880(%rsp), %zmm0 vmovdqa64 %zmm0, 0xa40(%rsp) movq 0x198(%rsp), %rdx vpcmpeqd %ymm0, %ymm0, %ymm0 vmovdqa %ymm0, 0x60(%rdx) vmovdqa %ymm0, 0x40(%rdx) vmovdqa %ymm0, 0x20(%rdx) vmovdqa %ymm0, (%rdx) vbroadcastss (%rax), %zmm0 vmovaps %zmm0, 0xa80(%rsp) vbroadcastss 0x4(%rax), %zmm0 vmovaps %zmm0, 0xac0(%rsp) movq 0x38(%rsp), %rax vmovss %xmm8, 0x200(%r12,%rax,4) vmovaps 0x800(%rsp), %zmm0 vmovaps %zmm0, 0x3c0(%rsp) leaq 0x3c0(%rsp), %rax movq %rax, 0x130(%rsp) movq 0x18(%r15), %rax movq %rax, 0x138(%rsp) movq 0x8(%rcx), %rax movq %rax, 0x140(%rsp) movq %r12, 0x148(%rsp) leaq 0x8c0(%rsp), %rax movq %rax, 0x150(%rsp) movl $0x10, 0x158(%rsp) movq 0x40(%r15), %rax testq %rax, %rax vmovaps %xmm10, 0x80(%rsp) vmovaps %xmm8, 0xc0(%rsp) vmovss %xmm4, 0xa0(%rsp) je 0x1d14844 leaq 0x130(%rsp), %rdi vzeroupper callq *%rax vmovss 0xa0(%rsp), %xmm4 vmovaps 0xc0(%rsp), %xmm8 vmovaps 0x80(%rsp), %xmm10 vmovaps 0x1c0(%rsp), %ymm21 vmovaps 0x1e0(%rsp), %ymm31 vbroadcastss 0x20c680(%rip), %xmm11 # 0x1f20ec4 vmovdqa64 0x3c0(%rsp), %zmm0 vptestmd %zmm0, %zmm0, %k0 kortestw %k0, %k0 je 0x1d14962 movq 0x48(%rsp), %rax movq 0x10(%rax), %rcx movq 0x10(%rcx), %rax testq %rax, %rax je 0x1d148bb testb $0x2, (%rcx) jne 0x1d1487a testb $0x40, 0x3e(%r15) je 0x1d148bb leaq 0x130(%rsp), %rdi vzeroupper callq *%rax vmovss 0xa0(%rsp), %xmm4 vmovaps 0xc0(%rsp), %xmm8 vmovaps 0x80(%rsp), %xmm10 vmovaps 0x1c0(%rsp), %ymm21 vmovaps 0x1e0(%rsp), %ymm31 vbroadcastss 0x20c609(%rip), %xmm11 # 0x1f20ec4 vmovdqa64 0x3c0(%rsp), %zmm0 vptestmd %zmm0, %zmm0, %k1 kortestw %k1, %k1 je 0x1d14962 movq 0x148(%rsp), %rax movq 0x150(%rsp), %rcx vmovaps (%rcx), %zmm0 vmovups %zmm0, 0x300(%rax) {%k1} vmovaps 0x40(%rcx), %zmm0 vmovups %zmm0, 0x340(%rax) {%k1} vmovaps 0x80(%rcx), %zmm0 vmovups %zmm0, 0x380(%rax) {%k1} vmovaps 0xc0(%rcx), %zmm0 vmovups %zmm0, 0x3c0(%rax) {%k1} vmovaps 0x100(%rcx), %zmm0 vmovups %zmm0, 0x400(%rax) {%k1} vmovdqa64 0x140(%rcx), %zmm0 vmovdqu32 %zmm0, 0x440(%rax) {%k1} vmovdqa64 0x180(%rcx), %zmm0 vmovdqu32 %zmm0, 0x480(%rax) {%k1} vmovdqa64 0x1c0(%rcx), %zmm0 vmovdqa32 %zmm0, 0x4c0(%rax) {%k1} vmovdqa64 0x200(%rcx), %zmm0 vmovdqa32 %zmm0, 0x500(%rax) {%k1} jmp 0x1d14971 movq 0x38(%rsp), %rax vmovss %xmm4, 0x200(%r12,%rax,4) movq 0x48(%rsp), %r15 jmp 0x1d14696 movq 0x38(%rsp), %rax vmovaps 0x440(%rsp), %ymm0 vcmpleps 0x200(%r12,%rax,4){1to8}, %ymm0, %k0 kmovd %k0, %eax andb %al, %bl jne 0x1d13e93 vmovaps 0x420(%rsp), %ymm0 vaddps 0x380(%rsp), %ymm0, %ymm0 movq 0x38(%rsp), %rax vcmpleps 0x200(%r12,%rax,4){1to8}, %ymm0, %k0 kmovd 0x124(%rsp), %k1 kmovd 0x11c(%rsp), %k2 korb %k2, %k1, %k1 kmovd %k0, %eax movl 0x54(%rsp), %ecx andb %al, %cl vpbroadcastd 0x20c4ed(%rip), %ymm0 # 0x1f20edc vpblendmd 0x20c4df(%rip){1to8}, %ymm0, %ymm0 {%k1} # 0x1f20ed8 vmovdqa %ymm0, 0x420(%rsp) vpcmpled 0x4a0(%rsp), %ymm0, %k0 kmovd %k0, %ebx movl %ecx, 0x54(%rsp) andb %cl, %bl je 0x1d155b0 vmovaps 0x500(%rsp), %ymm5 vmovaps 0x2c0(%rsp), %ymm1 vmovaps 0x280(%rsp), %ymm2 vminps %xmm2, %xmm1, %xmm0 vmaxps %xmm2, %xmm1, %xmm1 vmovaps 0x2a0(%rsp), %ymm3 vmovaps 0x260(%rsp), %ymm4 vminps %xmm4, %xmm3, %xmm2 vminps %xmm2, %xmm0, %xmm0 vmaxps %xmm4, %xmm3, %xmm2 vmaxps %xmm2, %xmm1, %xmm1 vandps %xmm0, %xmm11, %xmm0 vandps %xmm1, %xmm11, %xmm2 vmaxps %xmm2, %xmm0, %xmm0 vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3] vmaxss %xmm0, %xmm2, %xmm2 vshufpd $0x1, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[1,0] vmaxss %xmm2, %xmm0, %xmm0 vmulss 0x1dd42f(%rip), %xmm0, %xmm0 # 0x1ef1eb4 vmovss %xmm0, 0x64(%rsp) vshufps $0xff, %xmm1, %xmm1, %xmm0 # xmm0 = xmm1[3,3,3,3] vmovaps %xmm0, 0x2f0(%rsp) vmovaps %ymm5, 0x360(%rsp) vaddps 0x380(%rsp), %ymm5, %ymm0 vmovaps %ymm0, 0x440(%rsp) kmovd %ebx, %k1 vbroadcastss 0x1d6f5f(%rip), %ymm0 # 0x1eeba20 vblendmps 0x360(%rsp), %ymm0, %ymm0 {%k1} vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm0, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1] vminps %ymm2, %ymm1, %ymm1 vcmpeqps %ymm1, %ymm0, %k0 kmovd %k0, %eax andb %bl, %al movzbl %al, %eax movzbl %bl, %ecx cmovnel %eax, %ecx tzcntl %ecx, %ecx movb $0x1, %bl shlb %cl, %bl shll $0x2, %ecx vmovss 0x460(%rsp,%rcx), %xmm10 vmovss 0x520(%rsp,%rcx), %xmm9 vmovaps 0x240(%rsp), %xmm0 vucomiss 0x1d6efb(%rip), %xmm0 # 0x1eeba24 vmovss 0x12c(%rsp), %xmm0 jae 0x1d14b7b vmovaps 0x240(%rsp), %xmm0 vmovaps %xmm10, 0x80(%rsp) vmovaps %xmm9, 0xc0(%rsp) kmovw %k1, 0xa0(%rsp) vzeroupper callq 0x6aa20 kmovw 0xa0(%rsp), %k1 vmovaps 0xc0(%rsp), %xmm9 vmovaps 0x80(%rsp), %xmm10 movzbl %bl, %eax kmovd %eax, %k0 kandnb %k1, %k0, %k0 kmovd %k0, %ebx vmulss 0x1dd322(%rip), %xmm0, %xmm0 # 0x1ef1eb4 vmovss %xmm0, 0x68(%rsp) movl $0x4, %r14d vmovaps %xmm9, 0xc0(%rsp) vbroadcastss %xmm9, %xmm0 vxorps %xmm1, %xmm1, %xmm1 vfmadd132ps 0x250(%rsp), %xmm1, %xmm0 # xmm0 = (xmm0 * mem) + xmm1 vmovss 0x1d7b52(%rip), %xmm1 # 0x1eec714 vsubss %xmm10, %xmm1, %xmm4 vmulss %xmm4, %xmm4, %xmm1 vmulss %xmm1, %xmm4, %xmm1 vmulss %xmm10, %xmm10, %xmm11 vmulss %xmm11, %xmm10, %xmm2 vmovss 0x1d7fab(%rip), %xmm7 # 0x1eecb8c vmovaps %xmm7, %xmm3 vfmadd213ss %xmm2, %xmm1, %xmm3 # xmm3 = (xmm1 * xmm3) + xmm2 vmulss %xmm4, %xmm10, %xmm12 vmovaps %xmm4, 0xa0(%rsp) vmulss %xmm4, %xmm12, %xmm4 vmulss %xmm12, %xmm10, %xmm5 vmovss 0x1dc3ec(%rip), %xmm8 # 0x1ef0ff4 vmulss %xmm5, %xmm8, %xmm6 vmovss 0x1dc3e8(%rip), %xmm9 # 0x1ef0ffc vfmadd231ss %xmm9, %xmm4, %xmm6 # xmm6 = (xmm4 * xmm9) + xmm6 vaddss %xmm6, %xmm3, %xmm3 vmovaps %xmm7, %xmm6 vfmadd213ss %xmm1, %xmm2, %xmm6 # xmm6 = (xmm2 * xmm6) + xmm1 vmulss %xmm4, %xmm8, %xmm4 vfmadd231ss %xmm5, %xmm9, %xmm4 # xmm4 = (xmm9 * xmm5) + xmm4 vaddss %xmm4, %xmm6, %xmm4 vmovss 0x1dc3c5(%rip), %xmm5 # 0x1ef1000 vmulss %xmm5, %xmm1, %xmm1 vmulss %xmm5, %xmm3, %xmm3 vmulss %xmm5, %xmm4, %xmm4 vmulss %xmm5, %xmm2, %xmm2 vbroadcastss %xmm2, %xmm2 vmulps 0x260(%rsp), %xmm2, %xmm2 vbroadcastss %xmm4, %xmm4 vfmadd132ps 0x2a0(%rsp), %xmm2, %xmm4 # xmm4 = (xmm4 * mem) + xmm2 vbroadcastss %xmm3, %xmm2 vfmadd132ps 0x280(%rsp), %xmm4, %xmm2 # xmm2 = (xmm2 * mem) + xmm4 vbroadcastss %xmm1, %xmm1 vfmadd132ps 0x2c0(%rsp), %xmm2, %xmm1 # xmm1 = (xmm1 * mem) + xmm2 vmovaps %xmm1, 0x3a0(%rsp) vsubps %xmm1, %xmm0, %xmm0 vmovaps %xmm0, 0x220(%rsp) vdpps $0x7f, %xmm0, %xmm0, %xmm0 vucomiss 0x1d6d7a(%rip), %xmm0 # 0x1eeba24 vmovaps %xmm10, 0x80(%rsp) vmovaps %xmm0, 0x200(%rsp) jb 0x1d14cc4 vsqrtss %xmm0, %xmm0, %xmm7 jmp 0x1d14cf7 vmovss %xmm11, 0x160(%rsp) vmovss %xmm12, 0x40(%rsp) vzeroupper callq 0x6aa20 vmovss 0x40(%rsp), %xmm12 vmovss 0x160(%rsp), %xmm11 vmovaps 0x80(%rsp), %xmm10 vmovaps %xmm0, %xmm7 vmovaps 0xa0(%rsp), %xmm3 vbroadcastss %xmm3, %xmm1 vbroadcastss 0x20c1b2(%rip), %xmm4 # 0x1f20ec0 vmovaps %xmm1, 0x350(%rsp) vxorps %xmm4, %xmm1, %xmm0 vmulss %xmm0, %xmm3, %xmm0 vmulss 0x1d7e65(%rip), %xmm12, %xmm1 # 0x1eecb8c vmovaps %xmm10, %xmm2 vfnmsub213ss %xmm1, %xmm10, %xmm2 # xmm2 = -(xmm10 * xmm2) - xmm1 vfmadd231ss %xmm3, %xmm3, %xmm1 # xmm1 = (xmm3 * xmm3) + xmm1 vmovss 0x1d7e43(%rip), %xmm3 # 0x1eecb80 vmulss %xmm3, %xmm0, %xmm0 vmulss %xmm3, %xmm2, %xmm2 vmulss %xmm3, %xmm1, %xmm1 vmulss %xmm3, %xmm11, %xmm3 vbroadcastss %xmm3, %xmm3 vmulps 0x260(%rsp), %xmm3, %xmm3 vbroadcastss %xmm1, %xmm1 vfmadd132ps 0x2a0(%rsp), %xmm3, %xmm1 # xmm1 = (xmm1 * mem) + xmm3 vbroadcastss %xmm2, %xmm2 vfmadd132ps 0x280(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1 vbroadcastss %xmm0, %xmm13 vfmadd132ps 0x2c0(%rsp), %xmm2, %xmm13 # xmm13 = (xmm13 * mem) + xmm2 vdpps $0x7f, %xmm13, %xmm13, %xmm0 vxorps %xmm1, %xmm1, %xmm1 vmovss %xmm0, %xmm1, %xmm2 # xmm2 = xmm0[0],xmm1[1,2,3] vrsqrt14ss %xmm2, %xmm1, %xmm3 vmulss 0x1d7974(%rip), %xmm3, %xmm5 # 0x1eec718 vmulss 0x1d7970(%rip), %xmm0, %xmm6 # 0x1eec71c vrcp14ss %xmm2, %xmm1, %xmm2 vxorps %xmm4, %xmm0, %xmm1 vmovaps %xmm2, 0x330(%rsp) vfnmadd213ss 0x1dc230(%rip), %xmm0, %xmm2 # xmm2 = -(xmm0 * xmm2) + mem vmovss %xmm2, 0x6c(%rsp) vucomiss %xmm1, %xmm0 vmovaps %xmm13, 0x160(%rsp) vmovss %xmm7, 0x40(%rsp) vmovaps %xmm0, 0x340(%rsp) jb 0x1d14df4 vsqrtss %xmm0, %xmm0, %xmm16 jmp 0x1d14e41 vmovaps %xmm3, 0x100(%rsp) vmovss %xmm5, 0x44(%rsp) vmovss %xmm6, 0xf0(%rsp) vzeroupper callq 0x6aa20 vmovss 0xf0(%rsp), %xmm6 vmovss 0x44(%rsp), %xmm5 vmovaps 0x100(%rsp), %xmm3 vmovss 0x40(%rsp), %xmm7 vmovaps 0x160(%rsp), %xmm13 vmovaps %xmm0, %xmm16 vmovaps 0x220(%rsp), %xmm11 vmovaps 0x200(%rsp), %xmm19 vmulss %xmm3, %xmm6, %xmm0 vmulss %xmm3, %xmm3, %xmm1 vmulss %xmm1, %xmm0, %xmm0 vaddss %xmm0, %xmm5, %xmm0 vbroadcastss %xmm0, %xmm4 vmulps %xmm4, %xmm13, %xmm0 vmovaps %xmm0, 0x100(%rsp) vdpps $0x7f, %xmm0, %xmm11, %xmm15 vaddss 0x1d7892(%rip), %xmm7, %xmm14 # 0x1eec714 vmulps %xmm15, %xmm15, %xmm0 vsubps %xmm0, %xmm19, %xmm0 vxorps %xmm2, %xmm2, %xmm2 vmovss %xmm0, %xmm2, %xmm1 # xmm1 = xmm0[0],xmm2[1,2,3] vrsqrt14ss %xmm1, %xmm2, %xmm18 vmulss 0x1d7873(%rip), %xmm18, %xmm17 # 0x1eec718 vmulss 0x1d786d(%rip), %xmm0, %xmm20 # 0x1eec71c vucomiss 0x1d6b6d(%rip), %xmm0 # 0x1eeba24 jb 0x1d14ec2 vsqrtss %xmm0, %xmm0, %xmm0 jmp 0x1d14f5a vmovss %xmm14, 0x44(%rsp) vmovaps %xmm15, 0xf0(%rsp) vmovss %xmm16, 0x60(%rsp) vmovss %xmm17, 0x5c(%rsp) vmovaps %xmm18, 0x320(%rsp) vmovss %xmm20, 0x58(%rsp) vmovaps %xmm4, 0x310(%rsp) vzeroupper callq 0x6aa20 vmovaps 0x310(%rsp), %xmm4 vmovss 0x58(%rsp), %xmm20 vmovaps 0x320(%rsp), %xmm18 vmovss 0x5c(%rsp), %xmm17 vmovss 0x60(%rsp), %xmm16 vmovaps 0xf0(%rsp), %xmm15 vmovss 0x44(%rsp), %xmm14 vmovss 0x40(%rsp), %xmm7 vmovaps 0x160(%rsp), %xmm13 vmovaps 0x200(%rsp), %xmm19 vmovaps 0x220(%rsp), %xmm11 vbroadcastss 0x20bf61(%rip), %xmm8 # 0x1f20ec4 vmovaps 0x1e0(%rsp), %ymm31 vmovaps 0x1c0(%rsp), %ymm21 vmovaps 0x80(%rsp), %xmm10 vmovaps 0xc0(%rsp), %xmm9 vmovss 0x1dba4f(%rip), %xmm2 # 0x1ef09dc vmovaps %xmm2, %xmm1 vmovaps 0xa0(%rsp), %xmm3 vfmadd213ss %xmm10, %xmm3, %xmm1 # xmm1 = (xmm3 * xmm1) + xmm10 vfmadd231ss %xmm2, %xmm10, %xmm3 # xmm3 = (xmm10 * xmm2) + xmm3 vbroadcastss %xmm10, %xmm2 vmulps 0x260(%rsp), %xmm2, %xmm2 vbroadcastss %xmm3, %xmm3 vfmadd132ps 0x2a0(%rsp), %xmm2, %xmm3 # xmm3 = (xmm3 * mem) + xmm2 vbroadcastss %xmm1, %xmm1 vfmadd132ps 0x280(%rsp), %xmm3, %xmm1 # xmm1 = (xmm1 * mem) + xmm3 vmovaps 0x350(%rsp), %xmm2 vfmadd132ps 0x2c0(%rsp), %xmm1, %xmm2 # xmm2 = (xmm2 * mem) + xmm1 vbroadcastss 0x340(%rsp), %xmm1 vmulps %xmm1, %xmm2, %xmm1 vdpps $0x7f, %xmm2, %xmm13, %xmm2 vbroadcastss %xmm2, %xmm2 vmulps %xmm2, %xmm13, %xmm2 vsubps %xmm2, %xmm1, %xmm1 vmovss 0x6c(%rsp), %xmm2 vmulss 0x330(%rsp), %xmm2, %xmm2 vmulss 0x68(%rsp), %xmm9, %xmm3 vbroadcastss %xmm2, %xmm2 vmulps %xmm2, %xmm1, %xmm1 vxorps 0x20be94(%rip){1to4}, %xmm13, %xmm2 # 0x1f20ec0 vmulps %xmm1, %xmm4, %xmm4 vmovaps 0x100(%rsp), %xmm12 vdpps $0x7f, %xmm12, %xmm2, %xmm5 vmovss 0x64(%rsp), %xmm6 vmaxss %xmm3, %xmm6, %xmm1 vdivss %xmm16, %xmm6, %xmm3 vdpps $0x7f, %xmm4, %xmm11, %xmm4 vfmadd213ss %xmm1, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm7) + xmm1 vfmadd213ss %xmm7, %xmm3, %xmm14 # xmm14 = (xmm3 * xmm14) + xmm7 vmovaps 0x250(%rsp), %xmm7 vdpps $0x7f, %xmm12, %xmm7, %xmm3 vaddss %xmm4, %xmm5, %xmm4 vdpps $0x7f, %xmm2, %xmm11, %xmm5 vmulss %xmm18, %xmm20, %xmm2 vmulss %xmm18, %xmm18, %xmm6 vmulss %xmm6, %xmm2, %xmm2 vdpps $0x7f, %xmm7, %xmm11, %xmm6 vaddss %xmm2, %xmm17, %xmm7 vfnmadd231ss %xmm4, %xmm15, %xmm5 # xmm5 = -(xmm15 * xmm4) + xmm5 vfnmadd231ss %xmm3, %xmm15, %xmm6 # xmm6 = -(xmm15 * xmm3) + xmm6 vpermilps $0xff, 0x3a0(%rsp), %xmm2 # xmm2 = mem[3,3,3,3] vsubss %xmm2, %xmm0, %xmm2 vshufps $0xff, %xmm13, %xmm13, %xmm0 # xmm0 = xmm13[3,3,3,3] vfmsub213ss %xmm0, %xmm7, %xmm5 # xmm5 = (xmm7 * xmm5) - xmm0 vmulss %xmm7, %xmm6, %xmm6 vmulss %xmm5, %xmm3, %xmm7 vfmsub231ss %xmm6, %xmm4, %xmm7 # xmm7 = (xmm4 * xmm6) - xmm7 vdivss %xmm7, %xmm6, %xmm6 vdivss %xmm7, %xmm5, %xmm5 vdivss %xmm7, %xmm3, %xmm3 vdivss %xmm7, %xmm4, %xmm4 vmulss %xmm6, %xmm15, %xmm6 vmulss %xmm3, %xmm2, %xmm3 vsubss %xmm3, %xmm6, %xmm3 vmulss %xmm5, %xmm15, %xmm5 vmulss %xmm4, %xmm2, %xmm4 vsubss %xmm5, %xmm4, %xmm4 vsubss %xmm3, %xmm10, %xmm10 vsubss %xmm4, %xmm9, %xmm9 vandps %xmm8, %xmm15, %xmm3 vucomiss %xmm3, %xmm14 jbe 0x1d152b4 vaddss %xmm1, %xmm14, %xmm1 vmovaps 0x2f0(%rsp), %xmm3 vfmadd231ss 0x1dcd9a(%rip), %xmm3, %xmm1 # xmm1 = (xmm3 * mem) + xmm1 vandps %xmm2, %xmm8, %xmm2 vucomiss %xmm2, %xmm1 jbe 0x1d152b4 vaddss 0x300(%rsp), %xmm9, %xmm9 movb $0x1, %r13b vucomiss 0x7c(%rsp), %xmm9 jb 0x1d152b7 movq 0x38(%rsp), %rax vmovss 0x200(%r12,%rax,4), %xmm4 vucomiss %xmm9, %xmm4 jb 0x1d152b7 vucomiss 0x1d68c2(%rip), %xmm10 # 0x1eeba24 jb 0x1d152b7 vmovss 0x1d75a4(%rip), %xmm1 # 0x1eec714 vucomiss %xmm10, %xmm1 jb 0x1d152b7 vxorps %xmm2, %xmm2, %xmm2 vmovss %xmm19, %xmm2, %xmm1 # xmm1 = xmm19[0],xmm2[1,2,3] vrsqrt14ss %xmm1, %xmm2, %xmm1 vmulss 0x1d7585(%rip), %xmm1, %xmm2 # 0x1eec718 vmulss 0x1d757f(%rip), %xmm19, %xmm3 # 0x1eec71c movq (%r15), %rax movq 0x1e8(%rax), %rax movq %r15, %rcx movq 0x70(%rsp), %rdx movq (%rax,%rdx,8), %r15 movq 0x38(%rsp), %rax movl 0x240(%r12,%rax,4), %eax testl %eax, 0x34(%r15) je 0x1d152d4 vmulss %xmm1, %xmm3, %xmm3 vmulss %xmm1, %xmm1, %xmm1 vmulss %xmm1, %xmm3, %xmm1 vaddss %xmm1, %xmm2, %xmm1 vbroadcastss %xmm1, %xmm1 vmulps %xmm1, %xmm11, %xmm1 vfmadd213ps %xmm13, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm0) + xmm13 vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3] vshufps $0xc9, %xmm13, %xmm13, %xmm3 # xmm3 = xmm13[1,2,0,3] vmulps %xmm3, %xmm1, %xmm1 vfmsub231ps %xmm2, %xmm13, %xmm1 # xmm1 = (xmm13 * xmm2) - xmm1 vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3] vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3] vshufps $0xd2, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,0,1,3] vmulps %xmm1, %xmm0, %xmm0 vfmsub231ps %xmm3, %xmm2, %xmm0 # xmm0 = (xmm2 * xmm3) - xmm0 movq 0x10(%rcx), %rax cmpq $0x0, 0x10(%rax) jne 0x1d152d9 cmpq $0x0, 0x40(%r15) jne 0x1d152d9 movq 0x38(%rsp), %rcx vmovss %xmm9, 0x200(%r12,%rcx,4) vextractps $0x1, %xmm0, 0x300(%r12,%rcx,4) vextractps $0x2, %xmm0, 0x340(%r12,%rcx,4) vmovss %xmm0, 0x380(%r12,%rcx,4) vmovss %xmm10, 0x3c0(%r12,%rcx,4) movl $0x0, 0x400(%r12,%rcx,4) movq 0x110(%rsp), %rax movl %eax, 0x440(%r12,%rcx,4) movq 0x70(%rsp), %rax movl %eax, 0x480(%r12,%rcx,4) movq 0x48(%rsp), %r15 movq 0x8(%r15), %rax movl (%rax), %eax movl %eax, 0x4c0(%r12,%rcx,4) movq 0x8(%r15), %rax movl 0x4(%rax), %eax movl %eax, 0x500(%r12,%rcx,4) jmp 0x1d152b7 xorl %r13d, %r13d subq $0x1, %r14 setb %al testb %r13b, %r13b jne 0x1d1558a testb %al, %al je 0x1d14b9e jmp 0x1d1558a movq %rcx, %r15 jmp 0x1d152b7 movq 0x48(%rsp), %rcx movq 0x8(%rcx), %rax vbroadcastss %xmm10, %zmm1 vbroadcastss 0x1fd412(%rip), %zmm2 # 0x1f12704 vpermps %zmm0, %zmm2, %zmm2 vbroadcastss 0x20bbda(%rip), %zmm3 # 0x1f20edc vpermps %zmm0, %zmm3, %zmm3 vbroadcastss %xmm0, %zmm0 vmovaps %zmm2, 0x8c0(%rsp) vmovaps %zmm3, 0x900(%rsp) vmovaps %zmm0, 0x940(%rsp) vmovaps %zmm1, 0x980(%rsp) vxorps %xmm0, %xmm0, %xmm0 vmovaps %zmm0, 0x9c0(%rsp) vmovaps 0x840(%rsp), %zmm0 vmovaps %zmm0, 0xa00(%rsp) vmovdqa64 0x880(%rsp), %zmm0 vmovdqa64 %zmm0, 0xa40(%rsp) movq 0x198(%rsp), %rdx vpcmpeqd %ymm0, %ymm0, %ymm0 vmovdqa %ymm0, 0x60(%rdx) vmovdqa %ymm0, 0x40(%rdx) vmovdqa %ymm0, 0x20(%rdx) vmovdqa %ymm0, (%rdx) vbroadcastss (%rax), %zmm0 vmovaps %zmm0, 0xa80(%rsp) vbroadcastss 0x4(%rax), %zmm0 vmovaps %zmm0, 0xac0(%rsp) movq 0x38(%rsp), %rax vmovss %xmm9, 0x200(%r12,%rax,4) vmovaps 0x800(%rsp), %zmm0 vmovaps %zmm0, 0x3c0(%rsp) leaq 0x3c0(%rsp), %rax movq %rax, 0x130(%rsp) movq 0x18(%r15), %rax movq %rax, 0x138(%rsp) movq 0x8(%rcx), %rax movq %rax, 0x140(%rsp) movq %r12, 0x148(%rsp) leaq 0x8c0(%rsp), %rax movq %rax, 0x150(%rsp) movl $0x10, 0x158(%rsp) movq 0x40(%r15), %rax testq %rax, %rax vmovaps %xmm10, 0x80(%rsp) vmovaps %xmm9, 0xc0(%rsp) vmovss %xmm4, 0xa0(%rsp) je 0x1d1545c leaq 0x130(%rsp), %rdi vzeroupper callq *%rax vmovss 0xa0(%rsp), %xmm4 vmovaps 0xc0(%rsp), %xmm9 vmovaps 0x80(%rsp), %xmm10 vmovaps 0x1c0(%rsp), %ymm21 vmovaps 0x1e0(%rsp), %ymm31 vmovdqa64 0x3c0(%rsp), %zmm0 vptestmd %zmm0, %zmm0, %k0 kortestw %k0, %k0 je 0x1d15571 movq 0x48(%rsp), %rax movq 0x10(%rax), %rcx movq 0x10(%rcx), %rax testq %rax, %rax je 0x1d154ca testb $0x2, (%rcx) jne 0x1d15492 testb $0x40, 0x3e(%r15) je 0x1d154ca leaq 0x130(%rsp), %rdi vzeroupper callq *%rax vmovss 0xa0(%rsp), %xmm4 vmovaps 0xc0(%rsp), %xmm9 vmovaps 0x80(%rsp), %xmm10 vmovaps 0x1c0(%rsp), %ymm21 vmovaps 0x1e0(%rsp), %ymm31 vmovdqa64 0x3c0(%rsp), %zmm0 vptestmd %zmm0, %zmm0, %k1 kortestw %k1, %k1 je 0x1d15571 movq 0x148(%rsp), %rax movq 0x150(%rsp), %rcx vmovaps (%rcx), %zmm0 vmovups %zmm0, 0x300(%rax) {%k1} vmovaps 0x40(%rcx), %zmm0 vmovups %zmm0, 0x340(%rax) {%k1} vmovaps 0x80(%rcx), %zmm0 vmovups %zmm0, 0x380(%rax) {%k1} vmovaps 0xc0(%rcx), %zmm0 vmovups %zmm0, 0x3c0(%rax) {%k1} vmovaps 0x100(%rcx), %zmm0 vmovups %zmm0, 0x400(%rax) {%k1} vmovdqa64 0x140(%rcx), %zmm0 vmovdqu32 %zmm0, 0x440(%rax) {%k1} vmovdqa64 0x180(%rcx), %zmm0 vmovdqu32 %zmm0, 0x480(%rax) {%k1} vmovdqa64 0x1c0(%rcx), %zmm0 vmovdqa32 %zmm0, 0x4c0(%rax) {%k1} vmovdqa64 0x200(%rcx), %zmm0 vmovdqa32 %zmm0, 0x500(%rax) {%k1} jmp 0x1d15580 movq 0x38(%rsp), %rax vmovss %xmm4, 0x200(%r12,%rax,4) movq 0x48(%rsp), %r15 jmp 0x1d152b7 movq 0x38(%rsp), %rax vmovaps 0x440(%rsp), %ymm0 vcmpleps 0x200(%r12,%rax,4){1to8}, %ymm0, %k0 kmovd %k0, %eax andb %al, %bl jne 0x1d14ab4 vmovdqa 0x4a0(%rsp), %ymm1 vpcmpltd 0x420(%rsp), %ymm1, %k1 vmovaps 0x7c0(%rsp), %ymm0 vpcmpltd 0x540(%rsp), %ymm1, %k2 vmovaps 0x380(%rsp), %ymm3 vaddps %ymm0, %ymm3, %ymm1 movq 0x38(%rsp), %rax vbroadcastss 0x200(%r12,%rax,4), %ymm2 vcmpleps %ymm2, %ymm1, %k0 {%k2} kmovd %k0, %eax movl 0x120(%rsp), %ecx andb %al, %cl vmovaps 0x500(%rsp), %ymm1 vaddps %ymm1, %ymm3, %ymm3 vcmpleps %ymm2, %ymm3, %k0 {%k1} kmovd %k0, %eax movl 0x54(%rsp), %edx andb %al, %dl orb %cl, %dl je 0x1d156a3 movq 0x1b0(%rsp), %r9 movl %r9d, %eax leaq (%rax,%rax,2), %rax shlq $0x5, %rax movb %dl, 0xb20(%rsp,%rax) kmovd %ecx, %k1 vmovaps %ymm0, %ymm1 {%k1} vmovaps %ymm1, 0xb40(%rsp,%rax) vmovaps 0x180(%rsp), %xmm2 vmovlps %xmm2, 0xb60(%rsp,%rax) movq 0x1a8(%rsp), %r11 leal 0x1(%r11), %ecx movl %ecx, 0xb68(%rsp,%rax) incl %r9d movq 0x1a0(%rsp), %r8 vbroadcastss 0x1d7087(%rip), %ymm16 # 0x1eec714 movq 0x1b8(%rsp), %r10 jmp 0x1d156d6 vbroadcastss 0x1d7073(%rip), %ymm16 # 0x1eec714 jmp 0x1d156cd movq 0x1a0(%rsp), %r8 vbroadcastss 0x1d705f(%rip), %ymm16 # 0x1eec714 movq 0x1b8(%rsp), %r10 movq 0x1b0(%rsp), %r9 movq 0x1a8(%rsp), %r11 vmovaps 0x180(%rsp), %xmm2 movl %r9d, %eax testl %eax, %eax je 0x1d1582e leal -0x1(%rax), %r9d leaq (%r9,%r9,2), %rcx shlq $0x5, %rcx vmovaps 0xb40(%rsp,%rcx), %ymm0 movzbl 0xb20(%rsp,%rcx), %esi vaddps 0x380(%rsp), %ymm0, %ymm1 movq 0x38(%rsp), %rdx vcmpleps 0x200(%r12,%rdx,4){1to8}, %ymm1, %k0 kmovb %k0, %edx andl %esi, %edx je 0x1d157d1 kmovd %edx, %k1 vbroadcastss 0x1d62ef(%rip), %ymm1 # 0x1eeba20 vblendmps %ymm0, %ymm1, %ymm0 {%k1} vshufps $0xb1, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm0, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vpermpd $0x4e, %ymm1, %ymm2 # ymm2 = ymm1[2,3,0,1] vminps %ymm2, %ymm1, %ymm1 vcmpeqps %ymm1, %ymm0, %k0 kmovd %k0, %esi andb %dl, %sil je 0x1d15769 movzbl %sil, %edi jmp 0x1d1576c movzbl %dl, %edi leaq (%rsp,%rcx), %rsi addq $0xb20, %rsi # imm = 0xB20 vmovss 0x44(%rsi), %xmm0 tzcntl %edi, %ecx movb $0x1, %dil shlb %cl, %dil movl 0x48(%rsi), %r11d movzbl %dil, %edi kmovd %edi, %k0 kmovd %edx, %k1 kandnb %k1, %k0, %k0 kmovb %k0, (%rsi) kortestb %k0, %k0 je 0x1d157a7 movl %eax, %r9d vbroadcastss 0x40(%rsi), %ymm1 vsubss %xmm1, %xmm0, %xmm0 vbroadcastss %xmm0, %ymm0 vfmadd132ps 0x20b761(%rip), %ymm1, %ymm0 # ymm0 = (ymm0 * mem) + ymm1 vmovaps %ymm0, 0x8c0(%rsp) vmovsd 0x8c0(%rsp,%rcx,4), %xmm2 movl %r9d, %eax testb %dl, %dl je 0x1d156d9 jmp 0x1d1327e vcmpleps 0x20b714(%rip), %ymm4, %k2 # 0x1f20f00 vbroadcastss 0x1d738f(%rip), %ymm4 # 0x1eecb84 vbroadcastss 0x1d6221(%rip), %ymm16 # 0x1eeba20 vblendmps %ymm4, %ymm16, %ymm3 {%k2} vmovaps %ymm3, %ymm30 {%k1} vblendmps %ymm16, %ymm4, %ymm3 {%k2} kmovd %k2, %ecx vmovaps %ymm3, %ymm31 {%k1} knotb %k1, %k0 kmovd %k0, %edx orb %cl, %dl andb %al, %dl movl %edx, %eax jmp 0x1d1386e movq 0x38(%rsp), %rax vmovaps 0x560(%rsp), %ymm0 vcmpleps 0x200(%r12,%rax,4){1to8}, %ymm0, %k0 kmovb %k0, %eax andl %eax, %r10d jne 0x1d12eed leaq -0x28(%rbp), %rsp popq %rbx popq %r12 popq %r13 popq %r14 popq %r15 popq %rbp vzeroupper retq nop
/embree[P]embree/kernels/geometry/curveNi_intersector.h
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)0, embree::avx512::CurveGeometryInterface, embree::BSplineCurveT>::vlinearBounds(embree::LinearSpace3<embree::Vec3fa> const&, unsigned long, embree::BBox<float> const&) const
LBBox3fa vlinearBounds(const LinearSpace3fa& space, size_t primID, const BBox1f& time_range) const { return linearBounds(space,primID,time_range); }
pushq %rbp pushq %r15 pushq %r14 pushq %r13 pushq %r12 pushq %rbx subq $0x138, %rsp # imm = 0x138 leaq 0xc8(%rsp), %rax movq %rcx, (%rax) leaq 0xb0(%rsp), %r14 movq %rdx, (%r14) movq %rax, 0x8(%r14) movq %rsi, 0x10(%r14) vmovss 0x28(%rsi), %xmm4 vmovss 0x2c(%rsi), %xmm0 vmovss (%r8), %xmm1 vmovss 0x4(%r8), %xmm2 vsubss %xmm0, %xmm1, %xmm1 vmovss 0x30(%rsi), %xmm3 vsubss %xmm0, %xmm3, %xmm3 vdivss %xmm3, %xmm1, %xmm1 vsubss %xmm0, %xmm2, %xmm0 vdivss %xmm3, %xmm0, %xmm2 vmovss %xmm1, 0x4(%rsp) vmulss %xmm1, %xmm4, %xmm0 vmovss %xmm0, 0x20(%rsp) vroundss $0x9, %xmm0, %xmm0, %xmm0 vmovss %xmm2, 0x50(%rsp) vmulss %xmm2, %xmm4, %xmm1 vmovss %xmm1, 0x40(%rsp) vroundss $0xa, %xmm1, %xmm1, %xmm1 vxorps %xmm2, %xmm2, %xmm2 vmaxss %xmm2, %xmm0, %xmm3 vminss %xmm4, %xmm1, %xmm2 vmovss %xmm3, 0x10(%rsp) vcvttss2si %xmm3, %r15d vmovss %xmm2, 0x30(%rsp) vcvttss2si %xmm2, %r12d vcvttss2si %xmm0, %eax movq %rdi, %rbx testl %eax, %eax movl $0xffffffff, %r13d # imm = 0xFFFFFFFF cmovnsl %eax, %r13d vcvttss2si %xmm1, %eax vmovss %xmm4, 0xc(%rsp) vcvttss2si %xmm4, %ebp incl %ebp cmpl %ebp, %eax cmovll %eax, %ebp movslq %r15d, %rdx leaq 0x80(%rsp), %rdi movq %r14, %rsi callq 0x1e82cf6 movslq %r12d, %rdx leaq 0x60(%rsp), %rdi movq %r14, %rsi callq 0x1e82cf6 movl %ebp, %eax subl %r13d, %eax cmpl $0x1, %eax jne 0x1e82143 vmovss 0x20(%rsp), %xmm0 vsubss 0x10(%rsp), %xmm0, %xmm0 vxorps %xmm8, %xmm8, %xmm8 vmaxss %xmm8, %xmm0, %xmm0 vmovss 0x6a658(%rip), %xmm1 # 0x1eec714 vsubss %xmm0, %xmm1, %xmm2 vbroadcastss %xmm0, %xmm0 vmovaps 0x60(%rsp), %xmm3 vmovaps 0x70(%rsp), %xmm4 vmulps %xmm3, %xmm0, %xmm5 vbroadcastss %xmm2, %xmm2 vmovaps 0x80(%rsp), %xmm6 vmovaps 0x90(%rsp), %xmm7 vfmadd231ps %xmm6, %xmm2, %xmm5 # xmm5 = (xmm2 * xmm6) + xmm5 vmulps %xmm4, %xmm0, %xmm0 vfmadd231ps %xmm2, %xmm7, %xmm0 # xmm0 = (xmm7 * xmm2) + xmm0 vmovaps %xmm5, (%rbx) vmovaps %xmm0, 0x10(%rbx) vmovss 0x30(%rsp), %xmm0 vsubss 0x40(%rsp), %xmm0, %xmm0 vmaxss %xmm8, %xmm0, %xmm0 vsubss %xmm0, %xmm1, %xmm1 vbroadcastss %xmm0, %xmm0 vmulps %xmm6, %xmm0, %xmm2 vbroadcastss %xmm1, %xmm1 vfmadd231ps %xmm3, %xmm1, %xmm2 # xmm2 = (xmm1 * xmm3) + xmm2 vmulps %xmm7, %xmm0, %xmm0 vfmadd231ps %xmm4, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm4) + xmm0 vmovaps %xmm2, 0x20(%rbx) vmovaps %xmm0, 0x30(%rbx) jmp 0x1e82326 incl %r15d movslq %r15d, %rdx leaq 0x110(%rsp), %r14 leaq 0xb0(%rsp), %r15 movq %r14, %rdi movq %r15, %rsi callq 0x1e82cf6 decl %r12d movslq %r12d, %rdx leaq 0xf0(%rsp), %r12 movq %r12, %rdi movq %r15, %rsi callq 0x1e82cf6 vmovss 0x20(%rsp), %xmm0 vsubss 0x10(%rsp), %xmm0, %xmm0 vxorps %xmm5, %xmm5, %xmm5 vmaxss %xmm5, %xmm0, %xmm0 vmovss 0x6a57b(%rip), %xmm4 # 0x1eec714 vbroadcastss %xmm0, %xmm1 vmulps (%r14), %xmm1, %xmm2 vsubss %xmm0, %xmm4, %xmm0 vbroadcastss %xmm0, %xmm0 vfmadd231ps 0x80(%rsp), %xmm0, %xmm2 # xmm2 = (xmm0 * mem) + xmm2 vmulps 0x10(%r14), %xmm1, %xmm3 vfmadd231ps 0x90(%rsp), %xmm0, %xmm3 # xmm3 = (xmm0 * mem) + xmm3 vmovss 0x30(%rsp), %xmm0 vsubss 0x40(%rsp), %xmm0, %xmm0 vmaxss %xmm5, %xmm0, %xmm0 vsubss %xmm0, %xmm4, %xmm1 vbroadcastss %xmm0, %xmm0 vmulps (%r12), %xmm0, %xmm5 vbroadcastss %xmm1, %xmm1 vfmadd231ps 0x60(%rsp), %xmm1, %xmm5 # xmm5 = (xmm1 * mem) + xmm5 vmulps 0x10(%r12), %xmm0, %xmm6 vfmadd231ps 0x70(%rsp), %xmm1, %xmm6 # xmm6 = (xmm1 * mem) + xmm6 leal 0x1(%r13), %eax cmpl %ebp, %eax jge 0x1e82313 vmovss 0x4(%rsp), %xmm1 vmovss 0x50(%rsp), %xmm0 vsubss %xmm1, %xmm0, %xmm0 vmovss %xmm0, 0x8(%rsp) movl %eax, %r14d notl %r13d addl %ebp, %r13d leaq 0xd0(%rsp), %r15 leaq 0xb0(%rsp), %r12 vmovaps %xmm6, 0x10(%rsp) vmovaps %xmm5, 0x20(%rsp) vmovaps %xmm3, 0x30(%rsp) vmovaps %xmm2, 0x40(%rsp) vcvtsi2ss %r14d, %xmm8, %xmm0 vdivss 0xc(%rsp), %xmm0, %xmm0 vsubss %xmm1, %xmm0, %xmm0 vdivss 0x8(%rsp), %xmm0, %xmm0 vsubss %xmm0, %xmm4, %xmm1 vbroadcastss %xmm0, %xmm0 vmulps %xmm0, %xmm5, %xmm4 vbroadcastss %xmm1, %xmm1 vfmadd231ps %xmm2, %xmm1, %xmm4 # xmm4 = (xmm1 * xmm2) + xmm4 vmovaps %xmm4, 0x50(%rsp) vmulps %xmm0, %xmm6, %xmm0 vfmadd231ps %xmm1, %xmm3, %xmm0 # xmm0 = (xmm3 * xmm1) + xmm0 vmovaps %xmm0, 0xa0(%rsp) movq %r15, %rdi movq %r12, %rsi movq %r14, %rdx callq 0x1e82cf6 vmovaps 0x10(%rsp), %xmm6 vmovaps 0x20(%rsp), %xmm5 vmovss 0x6a45c(%rip), %xmm4 # 0x1eec714 vmovaps 0x30(%rsp), %xmm3 vmovaps 0x40(%rsp), %xmm2 vmovaps 0xd0(%rsp), %xmm0 vsubps 0x50(%rsp), %xmm0, %xmm0 vmovaps 0xe0(%rsp), %xmm1 vsubps 0xa0(%rsp), %xmm1, %xmm1 vxorps %xmm7, %xmm7, %xmm7 vminps %xmm7, %xmm0, %xmm0 vmaxps %xmm7, %xmm1, %xmm1 vaddps %xmm0, %xmm2, %xmm2 vaddps %xmm0, %xmm5, %xmm5 vaddps %xmm1, %xmm3, %xmm3 vaddps %xmm1, %xmm6, %xmm6 vmovss 0x4(%rsp), %xmm1 incq %r14 decl %r13d jne 0x1e8223a vmovaps %xmm2, (%rbx) vmovaps %xmm3, 0x10(%rbx) vmovaps %xmm5, 0x20(%rbx) vmovaps %xmm6, 0x30(%rbx) movq %rbx, %rax addq $0x138, %rsp # imm = 0x138 popq %rbx popq %r12 popq %r13 popq %r14 popq %r15 popq %rbp retq nop
/embree[P]embree/kernels/common/scene_curves.cpp
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)0, embree::avx512::CurveGeometryInterface, embree::BSplineCurveT>::vlinearBounds(embree::Vec3fa const&, float, float, embree::LinearSpace3<embree::Vec3fa> const&, unsigned long, embree::BBox<float> const&) const
LBBox3fa vlinearBounds(const Vec3fa& ofs, const float scale, const float r_scale0, const LinearSpace3fa& space, size_t primID, const BBox1f& time_range) const { return linearBounds(ofs,scale,r_scale0,space,primID,time_range); }
pushq %rbp pushq %r15 pushq %r14 pushq %r13 pushq %r12 pushq %rbx subq $0x168, %rsp # imm = 0x168 leaq 0x6c(%rsp), %rax vmovss %xmm0, (%rax) leaq 0x68(%rsp), %r10 vmovss %xmm1, (%r10) leaq 0xc8(%rsp), %r11 movq %r8, (%r11) leaq 0xf0(%rsp), %r14 movq %rdx, (%r14) movq %rax, 0x8(%r14) movq %r10, 0x10(%r14) movq %rcx, 0x18(%r14) movq %r11, 0x20(%r14) movq %rsi, 0x28(%r14) vmovss 0x28(%rsi), %xmm4 vmovss 0x2c(%rsi), %xmm0 vmovss (%r9), %xmm1 vmovss 0x4(%r9), %xmm2 vsubss %xmm0, %xmm1, %xmm1 vmovss 0x30(%rsi), %xmm3 vsubss %xmm0, %xmm3, %xmm3 vdivss %xmm3, %xmm1, %xmm1 vsubss %xmm0, %xmm2, %xmm0 vdivss %xmm3, %xmm0, %xmm2 vmovss %xmm1, 0x4(%rsp) vmulss %xmm1, %xmm4, %xmm0 vmovss %xmm0, 0x20(%rsp) vroundss $0x9, %xmm0, %xmm0, %xmm0 vmovss %xmm2, 0x50(%rsp) vmulss %xmm2, %xmm4, %xmm1 vmovss %xmm1, 0x40(%rsp) vroundss $0xa, %xmm1, %xmm1, %xmm1 vxorps %xmm2, %xmm2, %xmm2 vmaxss %xmm2, %xmm0, %xmm3 vminss %xmm4, %xmm1, %xmm2 vmovss %xmm3, 0x10(%rsp) vcvttss2si %xmm3, %r15d vmovss %xmm2, 0x30(%rsp) vcvttss2si %xmm2, %r12d vcvttss2si %xmm0, %eax movq %rdi, %rbx testl %eax, %eax movl $0xffffffff, %r13d # imm = 0xFFFFFFFF cmovnsl %eax, %r13d vcvttss2si %xmm1, %eax vmovss %xmm4, 0xc(%rsp) vcvttss2si %xmm4, %ebp incl %ebp cmpl %ebp, %eax cmovll %eax, %ebp movslq %r15d, %rdx leaq 0x90(%rsp), %rdi movq %r14, %rsi callq 0x1e83344 movslq %r12d, %rdx leaq 0x70(%rsp), %rdi movq %r14, %rsi callq 0x1e83344 movl %ebp, %eax subl %r13d, %eax cmpl $0x1, %eax jne 0x1e82505 vmovss 0x20(%rsp), %xmm0 vsubss 0x10(%rsp), %xmm0, %xmm0 vxorps %xmm8, %xmm8, %xmm8 vmaxss %xmm8, %xmm0, %xmm0 vmovss 0x6a299(%rip), %xmm1 # 0x1eec714 vsubss %xmm0, %xmm1, %xmm2 vbroadcastss %xmm0, %xmm0 vmovaps 0x70(%rsp), %xmm3 vmovaps 0x80(%rsp), %xmm4 vmulps %xmm3, %xmm0, %xmm5 vbroadcastss %xmm2, %xmm2 vmovaps 0x90(%rsp), %xmm6 vmovaps 0xa0(%rsp), %xmm7 vfmadd231ps %xmm6, %xmm2, %xmm5 # xmm5 = (xmm2 * xmm6) + xmm5 vmulps %xmm4, %xmm0, %xmm0 vfmadd231ps %xmm2, %xmm7, %xmm0 # xmm0 = (xmm7 * xmm2) + xmm0 vmovaps %xmm5, (%rbx) vmovaps %xmm0, 0x10(%rbx) vmovss 0x30(%rsp), %xmm0 vsubss 0x40(%rsp), %xmm0, %xmm0 vmaxss %xmm8, %xmm0, %xmm0 vsubss %xmm0, %xmm1, %xmm1 vbroadcastss %xmm0, %xmm0 vmulps %xmm6, %xmm0, %xmm2 vbroadcastss %xmm1, %xmm1 vfmadd231ps %xmm3, %xmm1, %xmm2 # xmm2 = (xmm1 * xmm3) + xmm2 vmulps %xmm7, %xmm0, %xmm0 vfmadd231ps %xmm4, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm4) + xmm0 vmovaps %xmm2, 0x20(%rbx) vmovaps %xmm0, 0x30(%rbx) jmp 0x1e826eb incl %r15d movslq %r15d, %rdx leaq 0x140(%rsp), %r14 leaq 0xf0(%rsp), %r15 movq %r14, %rdi movq %r15, %rsi callq 0x1e83344 decl %r12d movslq %r12d, %rdx leaq 0x120(%rsp), %r12 movq %r12, %rdi movq %r15, %rsi callq 0x1e83344 vmovss 0x20(%rsp), %xmm0 vsubss 0x10(%rsp), %xmm0, %xmm0 vxorps %xmm5, %xmm5, %xmm5 vmaxss %xmm5, %xmm0, %xmm0 vmovss 0x6a1b9(%rip), %xmm4 # 0x1eec714 vbroadcastss %xmm0, %xmm1 vmulps (%r14), %xmm1, %xmm2 vsubss %xmm0, %xmm4, %xmm0 vbroadcastss %xmm0, %xmm0 vfmadd231ps 0x90(%rsp), %xmm0, %xmm2 # xmm2 = (xmm0 * mem) + xmm2 vmulps 0x10(%r14), %xmm1, %xmm3 vfmadd231ps 0xa0(%rsp), %xmm0, %xmm3 # xmm3 = (xmm0 * mem) + xmm3 vmovss 0x30(%rsp), %xmm0 vsubss 0x40(%rsp), %xmm0, %xmm0 vmaxss %xmm5, %xmm0, %xmm0 vsubss %xmm0, %xmm4, %xmm1 vbroadcastss %xmm0, %xmm0 vmulps (%r12), %xmm0, %xmm5 vbroadcastss %xmm1, %xmm1 vfmadd231ps 0x70(%rsp), %xmm1, %xmm5 # xmm5 = (xmm1 * mem) + xmm5 vmulps 0x10(%r12), %xmm0, %xmm6 vfmadd231ps 0x80(%rsp), %xmm1, %xmm6 # xmm6 = (xmm1 * mem) + xmm6 leal 0x1(%r13), %eax cmpl %ebp, %eax jge 0x1e826d8 vmovss 0x4(%rsp), %xmm1 vmovss 0x50(%rsp), %xmm0 vsubss %xmm1, %xmm0, %xmm0 vmovss %xmm0, 0x8(%rsp) movl %eax, %r14d notl %r13d addl %ebp, %r13d leaq 0xd0(%rsp), %r15 leaq 0xf0(%rsp), %r12 vmovaps %xmm6, 0x10(%rsp) vmovaps %xmm5, 0x20(%rsp) vmovaps %xmm3, 0x30(%rsp) vmovaps %xmm2, 0x40(%rsp) vcvtsi2ss %r14d, %xmm8, %xmm0 vdivss 0xc(%rsp), %xmm0, %xmm0 vsubss %xmm1, %xmm0, %xmm0 vdivss 0x8(%rsp), %xmm0, %xmm0 vsubss %xmm0, %xmm4, %xmm1 vbroadcastss %xmm0, %xmm0 vmulps %xmm0, %xmm5, %xmm4 vbroadcastss %xmm1, %xmm1 vfmadd231ps %xmm2, %xmm1, %xmm4 # xmm4 = (xmm1 * xmm2) + xmm4 vmovaps %xmm4, 0x50(%rsp) vmulps %xmm0, %xmm6, %xmm0 vfmadd231ps %xmm1, %xmm3, %xmm0 # xmm0 = (xmm3 * xmm1) + xmm0 vmovaps %xmm0, 0xb0(%rsp) movq %r15, %rdi movq %r12, %rsi movq %r14, %rdx callq 0x1e83344 vmovaps 0x10(%rsp), %xmm6 vmovaps 0x20(%rsp), %xmm5 vmovss 0x6a097(%rip), %xmm4 # 0x1eec714 vmovaps 0x30(%rsp), %xmm3 vmovaps 0x40(%rsp), %xmm2 vmovaps 0xd0(%rsp), %xmm0 vsubps 0x50(%rsp), %xmm0, %xmm0 vmovaps 0xe0(%rsp), %xmm1 vsubps 0xb0(%rsp), %xmm1, %xmm1 vxorps %xmm7, %xmm7, %xmm7 vminps %xmm7, %xmm0, %xmm0 vmaxps %xmm7, %xmm1, %xmm1 vaddps %xmm0, %xmm2, %xmm2 vaddps %xmm0, %xmm5, %xmm5 vaddps %xmm1, %xmm3, %xmm3 vaddps %xmm1, %xmm6, %xmm6 vmovss 0x4(%rsp), %xmm1 incq %r14 decl %r13d jne 0x1e825ff vmovaps %xmm2, (%rbx) vmovaps %xmm3, 0x10(%rbx) vmovaps %xmm5, 0x20(%rbx) vmovaps %xmm6, 0x30(%rbx) movq %rbx, %rax addq $0x168, %rsp # imm = 0x168 popq %rbx popq %r12 popq %r13 popq %r14 popq %r15 popq %rbp retq
/embree[P]embree/kernels/common/scene_curves.cpp
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)0, embree::avx512::CurveGeometryInterface, embree::BSplineCurveT>::linearBounds(unsigned long, embree::BBox<float> const&) const::'lambda'(unsigned long)::operator()(unsigned long) const
__forceinline LBBox3fa linearBounds(size_t primID, const BBox1f& dt) const { return LBBox3fa([&] (size_t itime) { return bounds(primID, itime); }, dt, this->time_range, fnumTimeSegments); }
movq %rdi, %rax movq (%rsi), %rdi movq 0x8(%rsi), %rcx movq 0x58(%rcx), %rsi movq 0x68(%rcx), %r8 imulq (%rdi), %r8 movl (%rsi,%r8), %esi movq 0x188(%rcx), %rdi imulq $0x38, %rdx, %r8 movq (%rdi,%r8), %rdx movq 0x10(%rdi,%r8), %rdi leal 0x1(%rsi), %r8d leal 0x2(%rsi), %r9d leal 0x3(%rsi), %r10d imulq %rdi, %rsi vmovaps (%rdx,%rsi), %xmm3 imulq %rdi, %r8 vmovaps (%rdx,%r8), %xmm7 imulq %rdi, %r9 vmovaps (%rdx,%r9), %xmm11 imulq %rdi, %r10 vmovaps (%rdx,%r10), %xmm15 vmovss 0x24c(%rcx), %xmm0 vmulss 0xc(%rdx,%rsi), %xmm0, %xmm5 vmulss 0xc(%rdx,%r8), %xmm0, %xmm8 vmulss 0xc(%rdx,%r9), %xmm0, %xmm12 vmulss 0xc(%rdx,%r10), %xmm0, %xmm16 movl 0x248(%rcx), %ecx cmpq $0x4, %rcx jne 0x1e829b7 vbroadcastss %xmm16, %xmm9 vblendps $0x8, %xmm9, %xmm15, %xmm0 # xmm0 = xmm15[0,1,2],xmm9[3] vbroadcastss %xmm12, %xmm6 vblendps $0x8, %xmm6, %xmm11, %xmm1 # xmm1 = xmm11[0,1,2],xmm6[3] vbroadcastss %xmm8, %xmm4 vblendps $0x8, %xmm4, %xmm7, %xmm2 # xmm2 = xmm7[0,1,2],xmm4[3] leaq 0x2a936a(%rip), %rcx # 0x212bb28 vmovups 0x110(%rcx), %xmm8 vbroadcastss %xmm3, %xmm10 vshufps $0x55, %xmm3, %xmm3, %xmm12 # xmm12 = xmm3[1,1,1,1] vshufps $0xaa, %xmm3, %xmm3, %xmm3 # xmm3 = xmm3[2,2,2,2] vbroadcastss %xmm5, %xmm5 vmovups 0x594(%rcx), %xmm13 vbroadcastss %xmm7, %xmm14 vshufps $0x55, %xmm7, %xmm7, %xmm16 # xmm16 = xmm7[1,1,1,1] vshufps $0xaa, %xmm7, %xmm7, %xmm7 # xmm7 = xmm7[2,2,2,2] vmovups 0xa18(%rcx), %xmm17 vbroadcastss %xmm11, %xmm18 vshufps $0x55, %xmm11, %xmm11, %xmm19 # xmm19 = xmm11[1,1,1,1] vmovups 0xe9c(%rcx), %xmm20 vshufps $0xaa, %xmm11, %xmm11, %xmm11 # xmm11 = xmm11[2,2,2,2] vbroadcastss %xmm15, %xmm21 vshufps $0x55, %xmm15, %xmm15, %xmm22 # xmm22 = xmm15[1,1,1,1] vshufps $0xaa, %xmm15, %xmm15, %xmm15 # xmm15 = xmm15[2,2,2,2] vmulps %xmm20, %xmm21, %xmm21 vmulps %xmm20, %xmm22, %xmm22 vmulps %xmm20, %xmm15, %xmm15 vmulps %xmm20, %xmm9, %xmm9 vfmadd231ps %xmm18, %xmm17, %xmm21 # xmm21 = (xmm17 * xmm18) + xmm21 vfmadd231ps %xmm19, %xmm17, %xmm22 # xmm22 = (xmm17 * xmm19) + xmm22 vfmadd231ps %xmm11, %xmm17, %xmm15 # xmm15 = (xmm17 * xmm11) + xmm15 vfmadd231ps %xmm6, %xmm17, %xmm9 # xmm9 = (xmm17 * xmm6) + xmm9 vfmadd231ps %xmm14, %xmm13, %xmm21 # xmm21 = (xmm13 * xmm14) + xmm21 vfmadd231ps %xmm16, %xmm13, %xmm22 # xmm22 = (xmm13 * xmm16) + xmm22 vfmadd231ps %xmm7, %xmm13, %xmm15 # xmm15 = (xmm13 * xmm7) + xmm15 vfmadd231ps %xmm4, %xmm13, %xmm9 # xmm9 = (xmm13 * xmm4) + xmm9 vfmadd231ps %xmm10, %xmm8, %xmm21 # xmm21 = (xmm8 * xmm10) + xmm21 vfmadd231ps %xmm12, %xmm8, %xmm22 # xmm22 = (xmm8 * xmm12) + xmm22 vfmadd231ps %xmm3, %xmm8, %xmm15 # xmm15 = (xmm8 * xmm3) + xmm15 vfmadd231ps %xmm5, %xmm8, %xmm9 # xmm9 = (xmm8 * xmm5) + xmm9 vshufps $0xb1, %xmm21, %xmm21, %xmm3 # xmm3 = xmm21[1,0,3,2] vminps %xmm21, %xmm3, %xmm4 vshufpd $0x1, %xmm4, %xmm4, %xmm5 # xmm5 = xmm4[1,0] vminps %xmm4, %xmm5, %xmm4 vshufps $0xb1, %xmm22, %xmm22, %xmm5 # xmm5 = xmm22[1,0,3,2] vminps %xmm22, %xmm5, %xmm6 vshufpd $0x1, %xmm6, %xmm6, %xmm7 # xmm7 = xmm6[1,0] vminps %xmm6, %xmm7, %xmm6 vinsertps $0x1c, %xmm6, %xmm4, %xmm4 # xmm4 = xmm4[0],xmm6[0],zero,zero vshufps $0xb1, %xmm15, %xmm15, %xmm6 # xmm6 = xmm15[1,0,3,2] vminps %xmm15, %xmm6, %xmm7 vshufpd $0x1, %xmm7, %xmm7, %xmm8 # xmm8 = xmm7[1,0] vminps %xmm7, %xmm8, %xmm7 vinsertps $0x20, %xmm7, %xmm4, %xmm4 # xmm4 = xmm4[0,1],xmm7[0],xmm4[3] vmaxps %xmm21, %xmm3, %xmm3 vshufpd $0x1, %xmm3, %xmm3, %xmm7 # xmm7 = xmm3[1,0] vmaxps %xmm3, %xmm7, %xmm3 vmaxps %xmm22, %xmm5, %xmm5 vshufpd $0x1, %xmm5, %xmm5, %xmm7 # xmm7 = xmm5[1,0] vmaxps %xmm5, %xmm7, %xmm5 vinsertps $0x1c, %xmm5, %xmm3, %xmm3 # xmm3 = xmm3[0],xmm5[0],zero,zero vmaxps %xmm15, %xmm6, %xmm5 vshufpd $0x1, %xmm5, %xmm5, %xmm6 # xmm6 = xmm5[1,0] vmaxps %xmm5, %xmm6, %xmm5 vinsertps $0x20, %xmm5, %xmm3, %xmm3 # xmm3 = xmm3[0,1],xmm5[0],xmm3[3] vandps 0x9e5ad(%rip){1to4}, %xmm9, %xmm5 # 0x1f20ec4 vprolq $0x20, %xmm5, %xmm6 vmaxps %xmm5, %xmm6, %xmm5 vbroadcastss %xmm5, %xmm6 vshufps $0xaa, %xmm5, %xmm5, %xmm5 # xmm5 = xmm5[2,2,2,2] vmaxps %xmm6, %xmm5, %xmm5 vbroadcastss 0x6e6c7(%rip), %xmm6 # 0x1ef1000 vmulps %xmm6, %xmm0, %xmm0 vfmadd231ps 0x9e59d(%rip){1to4}, %xmm1, %xmm0 # xmm0 = (xmm1 * mem) + xmm0 vfmadd231ps %xmm2, %xmm6, %xmm0 # xmm0 = (xmm6 * xmm2) + xmm0 vminps %xmm0, %xmm4, %xmm1 vmaxps %xmm0, %xmm3, %xmm2 vshufps $0xff, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[3,3,3,3] vandps 0x9e561(%rip){1to4}, %xmm0, %xmm0 # 0x1f20ec4 vmaxps %xmm0, %xmm5, %xmm3 vsubps %xmm3, %xmm1, %xmm0 vaddps %xmm3, %xmm2, %xmm1 vbroadcastss 0x9e54c(%rip), %xmm2 # 0x1f20ec4 vandps %xmm2, %xmm0, %xmm3 vandps %xmm2, %xmm1, %xmm2 vmaxps %xmm2, %xmm3, %xmm2 vmovshdup %xmm2, %xmm3 # xmm3 = xmm2[1,1,3,3] vmaxss %xmm2, %xmm3, %xmm3 vshufpd $0x1, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[1,0] vmaxss %xmm3, %xmm2, %xmm2 vmulss 0x6e647(%rip), %xmm2, %xmm2 # 0x1ef0fe4 vbroadcastss %xmm2, %xmm2 vsubps %xmm2, %xmm0, %xmm0 vaddps %xmm2, %xmm1, %xmm1 vmovaps %xmm0, (%rax) vmovaps %xmm1, 0x10(%rax) vzeroupper retq testl %ecx, %ecx js 0x1e82bbe vpbroadcastd %ecx, %ymm0 vmovdqu %ymm0, -0x28(%rsp) vbroadcastss %xmm3, %ymm0 vmovups %ymm0, -0x48(%rsp) vbroadcastss 0x8fd25(%rip), %ymm14 # 0x1f12704 vpermps %ymm3, %ymm14, %ymm2 vbroadcastss 0x9e4ee(%rip), %ymm17 # 0x1f20edc vpermps %ymm3, %ymm17, %ymm3 vbroadcastss %xmm5, %ymm4 vbroadcastss %xmm7, %ymm5 vpermps %ymm7, %ymm14, %ymm6 vpermps %ymm7, %ymm17, %ymm7 vbroadcastss %xmm8, %ymm8 vbroadcastss %xmm11, %ymm9 vpermps %ymm11, %ymm14, %ymm10 vpermps %ymm11, %ymm17, %ymm11 vbroadcastss %xmm12, %ymm12 vbroadcastss %xmm15, %ymm13 vpermps %ymm15, %ymm14, %ymm14 vpermps %ymm15, %ymm17, %ymm15 vbroadcastss %xmm16, %ymm16 movq %rcx, %rdx shlq $0x6, %rdx leaq (%rdx,%rcx,4), %rdx addq 0x2a1e95(%rip), %rdx # 0x21248e0 vbroadcastss 0x6a12f(%rip), %ymm20 # 0x1eecb84 vbroadcastss 0x68fc1(%rip), %ymm17 # 0x1eeba20 vxorps %xmm21, %xmm21, %xmm21 xorl %esi, %esi vmovaps %ymm17, %ymm22 vmovaps %ymm17, %ymm29 vmovaps %ymm20, %ymm26 vmovaps %ymm20, %ymm28 vpbroadcastd %esi, %ymm19 vpord 0xd7e91(%rip), %ymm19, %ymm19 # 0x1f5a920 vmovups (%rdx,%rsi,4), %ymm23 vmovups 0x484(%rdx,%rsi,4), %ymm24 vmovups 0x908(%rdx,%rsi,4), %ymm25 vpcmpgtd -0x28(%rsp), %ymm19, %k1 vmovups 0xd8c(%rdx,%rsi,4), %ymm19 vmulps %ymm19, %ymm13, %ymm18 vmulps %ymm19, %ymm14, %ymm0 vmulps %ymm19, %ymm15, %ymm1 vmulps %ymm19, %ymm16, %ymm19 vfmadd231ps %ymm9, %ymm25, %ymm18 # ymm18 = (ymm25 * ymm9) + ymm18 vfmadd231ps %ymm10, %ymm25, %ymm0 # ymm0 = (ymm25 * ymm10) + ymm0 vfmadd231ps %ymm11, %ymm25, %ymm1 # ymm1 = (ymm25 * ymm11) + ymm1 vfmadd231ps %ymm25, %ymm12, %ymm19 # ymm19 = (ymm12 * ymm25) + ymm19 vfmadd231ps %ymm5, %ymm24, %ymm18 # ymm18 = (ymm24 * ymm5) + ymm18 vfmadd231ps %ymm6, %ymm24, %ymm0 # ymm0 = (ymm24 * ymm6) + ymm0 vfmadd231ps %ymm7, %ymm24, %ymm1 # ymm1 = (ymm24 * ymm7) + ymm1 vfmadd231ps %ymm24, %ymm8, %ymm19 # ymm19 = (ymm8 * ymm24) + ymm19 vfmadd231ps -0x48(%rsp), %ymm23, %ymm18 # ymm18 = (ymm23 * mem) + ymm18 vfmadd231ps %ymm2, %ymm23, %ymm0 # ymm0 = (ymm23 * ymm2) + ymm0 vfmadd231ps %ymm3, %ymm23, %ymm1 # ymm1 = (ymm23 * ymm3) + ymm1 vfmadd231ps %ymm23, %ymm4, %ymm19 # ymm19 = (ymm4 * ymm23) + ymm19 vandps 0x9e393(%rip){1to8}, %ymm19, %ymm19 # 0x1f20ec4 vminps %ymm18, %ymm29, %ymm30 vmovaps %ymm29, %ymm30 {%k1} vminps %ymm0, %ymm22, %ymm27 vmovaps %ymm22, %ymm27 {%k1} vminps %ymm1, %ymm17, %ymm31 vmovaps %ymm17, %ymm31 {%k1} vmaxps %ymm18, %ymm28, %ymm24 vmovaps %ymm28, %ymm24 {%k1} vmaxps %ymm0, %ymm26, %ymm25 vmovaps %ymm26, %ymm25 {%k1} vmaxps %ymm1, %ymm20, %ymm23 vmovaps %ymm20, %ymm23 {%k1} vmaxps %ymm19, %ymm21, %ymm19 vmovaps %ymm21, %ymm19 {%k1} addq $0x8, %rsi vmovaps %ymm31, %ymm17 vmovaps %ymm27, %ymm22 vmovaps %ymm30, %ymm29 vmovaps %ymm23, %ymm20 vmovaps %ymm25, %ymm26 vmovaps %ymm24, %ymm28 vmovaps %ymm19, %ymm21 cmpq %rcx, %rsi jbe 0x1e82a7f jmp 0x1e82bf0 vbroadcastss 0x68e58(%rip), %ymm30 # 0x1eeba20 vbroadcastss 0x69fb2(%rip), %ymm24 # 0x1eecb84 vxorps %xmm19, %xmm19, %xmm19 vmovaps %ymm24, %ymm25 vmovaps %ymm24, %ymm23 vmovaps %ymm30, %ymm27 vmovaps %ymm30, %ymm31 vshufps $0xb1, %ymm30, %ymm30, %ymm0 # ymm0 = ymm30[1,0,3,2,5,4,7,6] vminps %ymm0, %ymm30, %ymm0 vshufpd $0x5, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2] vminps %ymm1, %ymm0, %ymm0 vextractf128 $0x1, %ymm0, %xmm1 vminps %xmm1, %xmm0, %xmm0 vshufps $0xb1, %ymm27, %ymm27, %ymm1 # ymm1 = ymm27[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm27, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vextractf128 $0x1, %ymm1, %xmm2 vminps %xmm2, %xmm1, %xmm1 vunpcklps %xmm1, %xmm0, %xmm0 # xmm0 = xmm0[0],xmm1[0],xmm0[1],xmm1[1] vshufps $0xb1, %ymm31, %ymm31, %ymm1 # ymm1 = ymm31[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm31, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vextractf128 $0x1, %ymm1, %xmm2 vminps %xmm2, %xmm1, %xmm1 vinsertps $0x28, %xmm1, %xmm0, %xmm0 # xmm0 = xmm0[0,1],xmm1[0],zero vshufps $0xb1, %ymm24, %ymm24, %ymm1 # ymm1 = ymm24[1,0,3,2,5,4,7,6] vmaxps %ymm1, %ymm24, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vmaxps %ymm2, %ymm1, %ymm1 vextractf128 $0x1, %ymm1, %xmm2 vmaxps %xmm2, %xmm1, %xmm1 vshufps $0xb1, %ymm25, %ymm25, %ymm2 # ymm2 = ymm25[1,0,3,2,5,4,7,6] vmaxps %ymm2, %ymm25, %ymm2 vshufpd $0x5, %ymm2, %ymm2, %ymm3 # ymm3 = ymm2[1,0,3,2] vmaxps %ymm3, %ymm2, %ymm2 vextractf128 $0x1, %ymm2, %xmm3 vmaxps %xmm3, %xmm2, %xmm2 vunpcklps %xmm2, %xmm1, %xmm1 # xmm1 = xmm1[0],xmm2[0],xmm1[1],xmm2[1] vshufps $0xb1, %ymm23, %ymm23, %ymm2 # ymm2 = ymm23[1,0,3,2,5,4,7,6] vmaxps %ymm2, %ymm23, %ymm2 vshufpd $0x5, %ymm2, %ymm2, %ymm3 # ymm3 = ymm2[1,0,3,2] vmaxps %ymm3, %ymm2, %ymm2 vextractf128 $0x1, %ymm2, %xmm3 vmaxps %xmm3, %xmm2, %xmm2 vinsertps $0x28, %xmm2, %xmm1, %xmm1 # xmm1 = xmm1[0,1],xmm2[0],zero vshufps $0xb1, %ymm19, %ymm19, %ymm2 # ymm2 = ymm19[1,0,3,2,5,4,7,6] vmaxps %ymm2, %ymm19, %ymm2 vshufpd $0x5, %ymm2, %ymm2, %ymm3 # ymm3 = ymm2[1,0,3,2] vmaxps %ymm3, %ymm2, %ymm2 vextractf128 $0x1, %ymm2, %xmm3 vmaxps %xmm3, %xmm2, %xmm2 vbroadcastss %xmm2, %xmm2 vsubps %xmm2, %xmm0, %xmm0 vaddps %xmm2, %xmm1, %xmm1 jmp 0x1e8296f
/embree[P]embree/kernels/common/scene_curves.cpp
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)2, embree::avx512::CurveGeometryInterface, embree::BSplineCurveT>::vbounds(embree::LinearSpace3<embree::Vec3fa> const&, unsigned long) const
BBox3fa vbounds(const LinearSpace3fa& space, size_t i) const { return bounds(space,i); }
pushq %r15 pushq %r14 pushq %rbx movq %rdi, %rax imulq 0x68(%rsi), %rcx movq 0x58(%rsi), %rdi movq 0x188(%rsi), %r8 movl (%rdi,%rcx), %ecx movq (%r8), %r9 movq 0x10(%r8), %r10 movq %r10, %r11 imulq %rcx, %r11 vmovaps (%r9,%r11), %xmm0 leal 0x1(%rcx), %edi movq %r10, %rbx imulq %rdi, %rbx vmovaps (%r9,%rbx), %xmm1 leal 0x2(%rcx), %r8d movq %r10, %r14 imulq %r8, %r14 vmovaps (%r9,%r14), %xmm2 leal 0x3(%rcx), %r15d imulq %r15, %r10 vmovaps (%r9,%r10), %xmm3 vmovss 0x24c(%rsi), %xmm4 vmulss 0xc(%r9,%r11), %xmm4, %xmm5 vmulss 0xc(%r9,%rbx), %xmm4, %xmm7 vinsertps $0x30, %xmm5, %xmm0, %xmm6 # xmm6 = xmm0[0,1,2],xmm5[0] vinsertps $0x30, %xmm7, %xmm1, %xmm7 # xmm7 = xmm1[0,1,2],xmm7[0] vmulss 0xc(%r9,%r14), %xmm4, %xmm0 vmulss 0xc(%r9,%r10), %xmm4, %xmm1 vinsertps $0x30, %xmm0, %xmm2, %xmm8 # xmm8 = xmm2[0,1,2],xmm0[0] vinsertps $0x30, %xmm1, %xmm3, %xmm4 # xmm4 = xmm3[0,1,2],xmm1[0] movq 0x1a8(%rsi), %rsi movq (%rsi), %r9 movq 0x10(%rsi), %rsi imulq %rsi, %rcx vmovups (%r9,%rcx), %xmm5 imulq %rsi, %rdi vmovups (%r9,%rdi), %xmm9 imulq %rsi, %r8 vmovups (%r9,%r8), %xmm10 imulq %r15, %rsi vmovups (%r9,%rsi), %xmm11 vxorps %xmm2, %xmm2, %xmm2 vmulps %xmm2, %xmm4, %xmm0 vbroadcastss 0x68981(%rip), %xmm12 # 0x1ef1000 vmovaps %xmm12, %xmm1 vfmadd213ps %xmm0, %xmm8, %xmm1 # xmm1 = (xmm8 * xmm1) + xmm0 vbroadcastss 0x98853(%rip), %xmm13 # 0x1f20ee4 vfmadd231ps %xmm13, %xmm7, %xmm1 # xmm1 = (xmm7 * xmm13) + xmm1 vfmadd231ps %xmm12, %xmm6, %xmm1 # xmm1 = (xmm6 * xmm12) + xmm1 vbroadcastss 0x644dc(%rip), %xmm14 # 0x1eecb80 vfmadd231ps %xmm14, %xmm8, %xmm0 # xmm0 = (xmm8 * xmm14) + xmm0 vfnmadd231ps %xmm2, %xmm7, %xmm0 # xmm0 = -(xmm7 * xmm2) + xmm0 vfnmadd231ps %xmm14, %xmm6, %xmm0 # xmm0 = -(xmm6 * xmm14) + xmm0 vmulps %xmm2, %xmm11, %xmm15 vmovaps %xmm12, %xmm16 vfmadd213ps %xmm15, %xmm10, %xmm16 # xmm16 = (xmm10 * xmm16) + xmm15 vfmadd231ps %xmm13, %xmm9, %xmm16 # xmm16 = (xmm9 * xmm13) + xmm16 vfmadd231ps %xmm12, %xmm5, %xmm16 # xmm16 = (xmm5 * xmm12) + xmm16 vfmadd231ps %xmm14, %xmm10, %xmm15 # xmm15 = (xmm10 * xmm14) + xmm15 vfnmadd231ps %xmm2, %xmm9, %xmm15 # xmm15 = -(xmm9 * xmm2) + xmm15 vfnmadd231ps %xmm14, %xmm5, %xmm15 # xmm15 = -(xmm5 * xmm14) + xmm15 vmulps %xmm4, %xmm12, %xmm3 vfmadd231ps %xmm13, %xmm8, %xmm3 # xmm3 = (xmm8 * xmm13) + xmm3 vfmadd231ps %xmm12, %xmm7, %xmm3 # xmm3 = (xmm7 * xmm12) + xmm3 vfmadd231ps %xmm2, %xmm6, %xmm3 # xmm3 = (xmm6 * xmm2) + xmm3 vmulps %xmm4, %xmm14, %xmm4 vfmadd231ps %xmm8, %xmm2, %xmm4 # xmm4 = (xmm2 * xmm8) + xmm4 vfnmadd231ps %xmm7, %xmm14, %xmm4 # xmm4 = -(xmm14 * xmm7) + xmm4 vfnmadd231ps %xmm6, %xmm2, %xmm4 # xmm4 = -(xmm2 * xmm6) + xmm4 vmulps %xmm12, %xmm11, %xmm6 vfmadd231ps %xmm13, %xmm10, %xmm6 # xmm6 = (xmm10 * xmm13) + xmm6 vfmadd231ps %xmm12, %xmm9, %xmm6 # xmm6 = (xmm9 * xmm12) + xmm6 vfmadd231ps %xmm2, %xmm5, %xmm6 # xmm6 = (xmm5 * xmm2) + xmm6 vmulps %xmm14, %xmm11, %xmm8 vfmadd231ps %xmm10, %xmm2, %xmm8 # xmm8 = (xmm2 * xmm10) + xmm8 vfnmadd231ps %xmm14, %xmm9, %xmm8 # xmm8 = -(xmm9 * xmm14) + xmm8 vfnmadd231ps %xmm5, %xmm2, %xmm8 # xmm8 = -(xmm2 * xmm5) + xmm8 vshufps $0xc9, %xmm0, %xmm0, %xmm5 # xmm5 = xmm0[1,2,0,3] vshufps $0xc9, %xmm16, %xmm16, %xmm7 # xmm7 = xmm16[1,2,0,3] vmulps %xmm7, %xmm0, %xmm7 vfmsub231ps %xmm16, %xmm5, %xmm7 # xmm7 = (xmm5 * xmm16) - xmm7 vshufps $0xc9, %xmm7, %xmm7, %xmm7 # xmm7 = xmm7[1,2,0,3] vshufps $0xc9, %xmm15, %xmm15, %xmm9 # xmm9 = xmm15[1,2,0,3] vmulps %xmm0, %xmm9, %xmm9 vfmsub231ps %xmm15, %xmm5, %xmm9 # xmm9 = (xmm5 * xmm15) - xmm9 vshufps $0xc9, %xmm9, %xmm9, %xmm9 # xmm9 = xmm9[1,2,0,3] vshufps $0xc9, %xmm4, %xmm4, %xmm10 # xmm10 = xmm4[1,2,0,3] vshufps $0xc9, %xmm6, %xmm6, %xmm5 # xmm5 = xmm6[1,2,0,3] vmulps %xmm5, %xmm4, %xmm5 vfmsub231ps %xmm6, %xmm10, %xmm5 # xmm5 = (xmm10 * xmm6) - xmm5 vshufps $0xc9, %xmm5, %xmm5, %xmm5 # xmm5 = xmm5[1,2,0,3] vshufps $0xc9, %xmm8, %xmm8, %xmm6 # xmm6 = xmm8[1,2,0,3] vmulps %xmm6, %xmm4, %xmm6 vfmsub231ps %xmm8, %xmm10, %xmm6 # xmm6 = (xmm10 * xmm8) - xmm6 vshufps $0xc9, %xmm6, %xmm6, %xmm6 # xmm6 = xmm6[1,2,0,3] vdpps $0x7f, %xmm7, %xmm7, %xmm8 vmovss %xmm8, %xmm2, %xmm10 # xmm10 = xmm8[0],xmm2[1,2,3] vrsqrt14ss %xmm10, %xmm2, %xmm11 vmovss 0x63f77(%rip), %xmm12 # 0x1eec718 vmulss %xmm12, %xmm11, %xmm13 vmovss 0x63f6e(%rip), %xmm14 # 0x1eec71c vmulss %xmm14, %xmm8, %xmm15 vmulss %xmm11, %xmm15, %xmm15 vmulss %xmm11, %xmm11, %xmm11 vmulss %xmm11, %xmm15, %xmm11 vaddss %xmm11, %xmm13, %xmm11 vbroadcastss %xmm11, %xmm11 vmulps %xmm7, %xmm11, %xmm13 vdpps $0x7f, %xmm9, %xmm7, %xmm15 vbroadcastss %xmm8, %xmm16 vmulps %xmm9, %xmm16, %xmm9 vbroadcastss %xmm15, %xmm15 vmulps %xmm7, %xmm15, %xmm7 vsubps %xmm7, %xmm9, %xmm7 vrcp14ss %xmm10, %xmm2, %xmm9 vmovss 0x687fb(%rip), %xmm10 # 0x1ef0ff8 vfnmadd213ss %xmm10, %xmm9, %xmm8 # xmm8 = -(xmm9 * xmm8) + xmm10 vmulss %xmm8, %xmm9, %xmm8 vdpps $0x7f, %xmm5, %xmm5, %xmm9 vbroadcastss %xmm8, %xmm8 vmulps %xmm7, %xmm8, %xmm7 vmulps %xmm7, %xmm11, %xmm7 vmovss %xmm9, %xmm2, %xmm8 # xmm8 = xmm9[0],xmm2[1,2,3] vrsqrt14ss %xmm8, %xmm2, %xmm11 vmulss %xmm12, %xmm11, %xmm12 vmulss %xmm14, %xmm9, %xmm14 vmulss %xmm11, %xmm14, %xmm14 vmulss %xmm11, %xmm11, %xmm11 vmulss %xmm11, %xmm14, %xmm11 vaddss %xmm11, %xmm12, %xmm11 vbroadcastss %xmm11, %xmm11 vmulps %xmm5, %xmm11, %xmm12 vdpps $0x7f, %xmm6, %xmm5, %xmm14 vbroadcastss %xmm9, %xmm15 vmulps %xmm6, %xmm15, %xmm6 vbroadcastss %xmm14, %xmm14 vmulps %xmm5, %xmm14, %xmm5 vsubps %xmm5, %xmm6, %xmm5 vrcp14ss %xmm8, %xmm2, %xmm2 vfnmadd213ss %xmm10, %xmm2, %xmm9 # xmm9 = -(xmm2 * xmm9) + xmm10 vmulss %xmm2, %xmm9, %xmm2 vbroadcastss %xmm2, %xmm2 vmulps %xmm2, %xmm5, %xmm2 vmulps %xmm2, %xmm11, %xmm2 vshufps $0xff, %xmm1, %xmm1, %xmm5 # xmm5 = xmm1[3,3,3,3] vmulps %xmm5, %xmm13, %xmm6 vsubps %xmm6, %xmm1, %xmm8 vshufps $0xff, %xmm0, %xmm0, %xmm9 # xmm9 = xmm0[3,3,3,3] vmulps %xmm13, %xmm9, %xmm9 vmulps %xmm7, %xmm5, %xmm5 vaddps %xmm5, %xmm9, %xmm5 vsubps %xmm5, %xmm0, %xmm7 vaddps %xmm6, %xmm1, %xmm9 vaddps %xmm5, %xmm0, %xmm0 vshufps $0xff, %xmm3, %xmm3, %xmm1 # xmm1 = xmm3[3,3,3,3] vmulps %xmm1, %xmm12, %xmm5 vsubps %xmm5, %xmm3, %xmm10 vshufps $0xff, %xmm4, %xmm4, %xmm6 # xmm6 = xmm4[3,3,3,3] vmulps %xmm6, %xmm12, %xmm6 vmulps %xmm2, %xmm1, %xmm1 vaddps %xmm1, %xmm6, %xmm2 vsubps %xmm2, %xmm4, %xmm6 vaddps %xmm5, %xmm3, %xmm1 vaddps %xmm2, %xmm4, %xmm2 vbroadcastss 0x695da(%rip), %xmm3 # 0x1ef1ebc vmulps %xmm3, %xmm7, %xmm4 vaddps %xmm4, %xmm8, %xmm4 vmulps %xmm3, %xmm6, %xmm5 vsubps %xmm5, %xmm10, %xmm11 vmulps %xmm3, %xmm0, %xmm0 vaddps %xmm0, %xmm9, %xmm12 vmulps %xmm3, %xmm2, %xmm0 vsubps %xmm0, %xmm1, %xmm13 vbroadcastss %xmm8, %xmm0 vshufps $0x55, %xmm8, %xmm8, %xmm2 # xmm2 = xmm8[1,1,1,1] vmovaps (%rdx), %xmm5 vmovaps 0x10(%rdx), %xmm7 vmovaps 0x20(%rdx), %xmm6 vshufps $0xaa, %xmm8, %xmm8, %xmm3 # xmm3 = xmm8[2,2,2,2] vmulps %xmm3, %xmm6, %xmm3 vfmadd231ps %xmm2, %xmm7, %xmm3 # xmm3 = (xmm7 * xmm2) + xmm3 vfmadd231ps %xmm0, %xmm5, %xmm3 # xmm3 = (xmm5 * xmm0) + xmm3 vbroadcastss %xmm4, %xmm0 vshufps $0x55, %xmm4, %xmm4, %xmm2 # xmm2 = xmm4[1,1,1,1] vshufps $0xaa, %xmm4, %xmm4, %xmm4 # xmm4 = xmm4[2,2,2,2] vmulps %xmm4, %xmm6, %xmm8 vfmadd231ps %xmm2, %xmm7, %xmm8 # xmm8 = (xmm7 * xmm2) + xmm8 vfmadd231ps %xmm0, %xmm5, %xmm8 # xmm8 = (xmm5 * xmm0) + xmm8 vbroadcastss %xmm11, %xmm0 vshufps $0x55, %xmm11, %xmm11, %xmm2 # xmm2 = xmm11[1,1,1,1] vshufps $0xaa, %xmm11, %xmm11, %xmm4 # xmm4 = xmm11[2,2,2,2] vmulps %xmm4, %xmm6, %xmm14 vfmadd231ps %xmm2, %xmm7, %xmm14 # xmm14 = (xmm7 * xmm2) + xmm14 vfmadd231ps %xmm0, %xmm5, %xmm14 # xmm14 = (xmm5 * xmm0) + xmm14 vbroadcastss %xmm10, %xmm0 vshufps $0x55, %xmm10, %xmm10, %xmm2 # xmm2 = xmm10[1,1,1,1] vshufps $0xaa, %xmm10, %xmm10, %xmm4 # xmm4 = xmm10[2,2,2,2] vmulps %xmm4, %xmm6, %xmm15 vfmadd231ps %xmm2, %xmm7, %xmm15 # xmm15 = (xmm7 * xmm2) + xmm15 vfmadd231ps %xmm0, %xmm5, %xmm15 # xmm15 = (xmm5 * xmm0) + xmm15 vbroadcastss %xmm9, %xmm2 vshufps $0x55, %xmm9, %xmm9, %xmm4 # xmm4 = xmm9[1,1,1,1] vshufps $0xaa, %xmm9, %xmm9, %xmm0 # xmm0 = xmm9[2,2,2,2] vmulps %xmm0, %xmm6, %xmm22 vfmadd231ps %xmm4, %xmm7, %xmm22 # xmm22 = (xmm7 * xmm4) + xmm22 vfmadd231ps %xmm2, %xmm5, %xmm22 # xmm22 = (xmm5 * xmm2) + xmm22 vbroadcastss %xmm12, %xmm4 vshufps $0x55, %xmm12, %xmm12, %xmm9 # xmm9 = xmm12[1,1,1,1] vshufps $0xaa, %xmm12, %xmm12, %xmm2 # xmm2 = xmm12[2,2,2,2] vmulps %xmm2, %xmm6, %xmm20 vfmadd231ps %xmm9, %xmm7, %xmm20 # xmm20 = (xmm7 * xmm9) + xmm20 vfmadd231ps %xmm4, %xmm5, %xmm20 # xmm20 = (xmm5 * xmm4) + xmm20 vbroadcastss %xmm13, %xmm9 vshufps $0x55, %xmm13, %xmm13, %xmm10 # xmm10 = xmm13[1,1,1,1] vshufps $0xaa, %xmm13, %xmm13, %xmm4 # xmm4 = xmm13[2,2,2,2] vmulps %xmm4, %xmm6, %xmm2 vfmadd231ps %xmm10, %xmm7, %xmm2 # xmm2 = (xmm7 * xmm10) + xmm2 vfmadd231ps %xmm9, %xmm5, %xmm2 # xmm2 = (xmm5 * xmm9) + xmm2 vbroadcastss %xmm1, %xmm9 vshufps $0x55, %xmm1, %xmm1, %xmm10 # xmm10 = xmm1[1,1,1,1] vshufps $0xaa, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,2,2,2] vmulps %xmm1, %xmm6, %xmm6 vfmadd231ps %xmm10, %xmm7, %xmm6 # xmm6 = (xmm7 * xmm10) + xmm6 vfmadd231ps %xmm9, %xmm5, %xmm6 # xmm6 = (xmm5 * xmm9) + xmm6 vbroadcastss 0x89cee(%rip), %ymm29 # 0x1f12704 vbroadcastss %xmm3, %ymm1 vpermps %ymm3, %ymm29, %ymm5 vbroadcastss 0x984b1(%rip), %ymm30 # 0x1f20edc vpermps %ymm3, %ymm30, %ymm3 vbroadcastss %xmm8, %ymm17 vpermps %ymm8, %ymm29, %ymm4 vpermps %ymm8, %ymm30, %ymm0 vbroadcastss %xmm14, %ymm23 vpermps %ymm14, %ymm29, %ymm24 vpermps %ymm14, %ymm30, %ymm25 vbroadcastss %xmm15, %ymm26 vpermps %ymm15, %ymm29, %ymm27 leaq 0x29e87c(%rip), %rcx # 0x21272e4 vmovups 0x1dc(%rcx), %ymm31 vmovups 0x660(%rcx), %ymm10 vpermps %ymm15, %ymm30, %ymm28 vmovups 0xae4(%rcx), %ymm13 vmovups 0xf68(%rcx), %ymm16 vmulps %ymm16, %ymm26, %ymm14 vmulps %ymm16, %ymm27, %ymm18 vmulps %ymm16, %ymm28, %ymm21 vfmadd231ps %ymm23, %ymm13, %ymm14 # ymm14 = (ymm13 * ymm23) + ymm14 vfmadd231ps %ymm24, %ymm13, %ymm18 # ymm18 = (ymm13 * ymm24) + ymm18 vfmadd231ps %ymm25, %ymm13, %ymm21 # ymm21 = (ymm13 * ymm25) + ymm21 vfmadd231ps %ymm17, %ymm10, %ymm14 # ymm14 = (ymm10 * ymm17) + ymm14 vfmadd231ps %ymm4, %ymm10, %ymm18 # ymm18 = (ymm10 * ymm4) + ymm18 vfmadd231ps %ymm0, %ymm10, %ymm21 # ymm21 = (ymm10 * ymm0) + ymm21 vfmadd231ps %ymm1, %ymm31, %ymm14 # ymm14 = (ymm31 * ymm1) + ymm14 vfmadd231ps %ymm5, %ymm31, %ymm18 # ymm18 = (ymm31 * ymm5) + ymm18 vmovups 0x13ec(%rcx), %ymm8 vmovups 0x1870(%rcx), %ymm12 vmovups 0x1cf4(%rcx), %ymm15 vmovups 0x2178(%rcx), %ymm19 vfmadd231ps %ymm3, %ymm31, %ymm21 # ymm21 = (ymm31 * ymm3) + ymm21 vmulps %ymm19, %ymm26, %ymm26 vmulps %ymm19, %ymm27, %ymm27 vmulps %ymm19, %ymm28, %ymm28 vfmadd231ps %ymm23, %ymm15, %ymm26 # ymm26 = (ymm15 * ymm23) + ymm26 vfmadd231ps %ymm24, %ymm15, %ymm27 # ymm27 = (ymm15 * ymm24) + ymm27 vfmadd231ps %ymm25, %ymm15, %ymm28 # ymm28 = (ymm15 * ymm25) + ymm28 vfmadd231ps %ymm17, %ymm12, %ymm26 # ymm26 = (ymm12 * ymm17) + ymm26 vfmadd231ps %ymm4, %ymm12, %ymm27 # ymm27 = (ymm12 * ymm4) + ymm27 vfmadd231ps %ymm0, %ymm12, %ymm28 # ymm28 = (ymm12 * ymm0) + ymm28 vfmadd231ps %ymm1, %ymm8, %ymm26 # ymm26 = (ymm8 * ymm1) + ymm26 vfmadd231ps %ymm5, %ymm8, %ymm27 # ymm27 = (ymm8 * ymm5) + ymm27 vfmadd231ps %ymm3, %ymm8, %ymm28 # ymm28 = (ymm8 * ymm3) + ymm28 vbroadcastss 0x98983(%rip), %ymm0 # 0x1f214d0 vmulps %ymm0, %ymm26, %ymm3 vmulps %ymm0, %ymm27, %ymm5 vmulps %ymm0, %ymm28, %ymm9 vxorps %xmm4, %xmm4, %xmm4 vblendps $0x1, %ymm4, %ymm3, %ymm11 # ymm11 = ymm4[0],ymm3[1,2,3,4,5,6,7] vblendps $0x1, %ymm4, %ymm5, %ymm7 # ymm7 = ymm4[0],ymm5[1,2,3,4,5,6,7] vblendps $0x1, %ymm4, %ymm9, %ymm0 # ymm0 = ymm4[0],ymm9[1,2,3,4,5,6,7] vsubps %ymm11, %ymm14, %ymm11 vsubps %ymm7, %ymm18, %ymm24 vsubps %ymm0, %ymm21, %ymm0 vblendps $0x80, %ymm4, %ymm3, %ymm3 # ymm3 = ymm3[0,1,2,3,4,5,6],ymm4[7] vblendps $0x80, %ymm4, %ymm5, %ymm5 # ymm5 = ymm5[0,1,2,3,4,5,6],ymm4[7] vblendps $0x80, %ymm4, %ymm9, %ymm7 # ymm7 = ymm9[0,1,2,3,4,5,6],ymm4[7] vaddps %ymm3, %ymm14, %ymm9 vaddps %ymm5, %ymm18, %ymm25 vaddps %ymm7, %ymm21, %ymm26 vbroadcastss 0x62e6f(%rip), %ymm7 # 0x1eeba20 vminps %ymm14, %ymm7, %ymm3 vminps %ymm18, %ymm7, %ymm17 vminps %ymm21, %ymm7, %ymm23 vminps %ymm9, %ymm11, %ymm5 vminps %ymm5, %ymm3, %ymm5 vminps %ymm25, %ymm24, %ymm3 vminps %ymm3, %ymm17, %ymm3 vminps %ymm26, %ymm0, %ymm17 vminps %ymm17, %ymm23, %ymm17 vbroadcastss 0x63f97(%rip), %ymm23 # 0x1eecb84 vmaxps %ymm14, %ymm23, %ymm14 vmaxps %ymm18, %ymm23, %ymm18 vmaxps %ymm21, %ymm23, %ymm27 vmaxps %ymm9, %ymm11, %ymm9 vmaxps %ymm9, %ymm14, %ymm21 vmaxps %ymm25, %ymm24, %ymm9 vmaxps %ymm9, %ymm18, %ymm18 vmaxps %ymm26, %ymm0, %ymm0 vmaxps %ymm0, %ymm27, %ymm14 vbroadcastss %xmm22, %ymm9 vpermps %ymm22, %ymm29, %ymm11 vpermps %ymm22, %ymm30, %ymm22 vbroadcastss %xmm20, %ymm24 vpermps %ymm20, %ymm29, %ymm25 vpermps %ymm20, %ymm30, %ymm26 vbroadcastss %xmm2, %ymm27 vpermps %ymm2, %ymm29, %ymm28 vpermps %ymm2, %ymm30, %ymm20 vbroadcastss %xmm6, %ymm1 vpermps %ymm6, %ymm29, %ymm29 vpermps %ymm6, %ymm30, %ymm30 vmulps %ymm16, %ymm1, %ymm0 vmulps %ymm16, %ymm29, %ymm2 vmulps %ymm16, %ymm30, %ymm6 vfmadd231ps %ymm27, %ymm13, %ymm0 # ymm0 = (ymm13 * ymm27) + ymm0 vfmadd231ps %ymm28, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm28) + ymm2 vfmadd231ps %ymm13, %ymm20, %ymm6 # ymm6 = (ymm20 * ymm13) + ymm6 vfmadd231ps %ymm24, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm24) + ymm0 vfmadd231ps %ymm25, %ymm10, %ymm2 # ymm2 = (ymm10 * ymm25) + ymm2 vfmadd231ps %ymm10, %ymm26, %ymm6 # ymm6 = (ymm26 * ymm10) + ymm6 vfmadd231ps %ymm9, %ymm31, %ymm0 # ymm0 = (ymm31 * ymm9) + ymm0 vfmadd231ps %ymm11, %ymm31, %ymm2 # ymm2 = (ymm31 * ymm11) + ymm2 vfmadd231ps %ymm31, %ymm22, %ymm6 # ymm6 = (ymm22 * ymm31) + ymm6 vmulps %ymm19, %ymm1, %ymm1 vmulps %ymm19, %ymm29, %ymm10 vmulps %ymm19, %ymm30, %ymm13 vfmadd231ps %ymm27, %ymm15, %ymm1 # ymm1 = (ymm15 * ymm27) + ymm1 vfmadd231ps %ymm28, %ymm15, %ymm10 # ymm10 = (ymm15 * ymm28) + ymm10 vfmadd231ps %ymm20, %ymm15, %ymm13 # ymm13 = (ymm15 * ymm20) + ymm13 vfmadd231ps %ymm24, %ymm12, %ymm1 # ymm1 = (ymm12 * ymm24) + ymm1 vfmadd231ps %ymm25, %ymm12, %ymm10 # ymm10 = (ymm12 * ymm25) + ymm10 vfmadd231ps %ymm26, %ymm12, %ymm13 # ymm13 = (ymm12 * ymm26) + ymm13 vfmadd231ps %ymm9, %ymm8, %ymm1 # ymm1 = (ymm8 * ymm9) + ymm1 vfmadd231ps %ymm11, %ymm8, %ymm10 # ymm10 = (ymm8 * ymm11) + ymm10 vfmadd231ps %ymm22, %ymm8, %ymm13 # ymm13 = (ymm8 * ymm22) + ymm13 vbroadcastss 0x987d0(%rip), %ymm9 # 0x1f214d0 vmulps %ymm1, %ymm9, %ymm1 vmulps %ymm9, %ymm10, %ymm8 vmulps %ymm9, %ymm13, %ymm9 vblendps $0x1, %ymm4, %ymm1, %ymm10 # ymm10 = ymm4[0],ymm1[1,2,3,4,5,6,7] vblendps $0x1, %ymm4, %ymm8, %ymm11 # ymm11 = ymm4[0],ymm8[1,2,3,4,5,6,7] vblendps $0x1, %ymm4, %ymm9, %ymm12 # ymm12 = ymm4[0],ymm9[1,2,3,4,5,6,7] vsubps %ymm10, %ymm0, %ymm10 vsubps %ymm11, %ymm2, %ymm11 vsubps %ymm12, %ymm6, %ymm12 vblendps $0x80, %ymm4, %ymm1, %ymm1 # ymm1 = ymm1[0,1,2,3,4,5,6],ymm4[7] vblendps $0x80, %ymm4, %ymm8, %ymm8 # ymm8 = ymm8[0,1,2,3,4,5,6],ymm4[7] vblendps $0x80, %ymm4, %ymm9, %ymm4 # ymm4 = ymm9[0,1,2,3,4,5,6],ymm4[7] vaddps %ymm1, %ymm0, %ymm1 vaddps %ymm2, %ymm8, %ymm8 vaddps %ymm4, %ymm6, %ymm9 vminps %ymm0, %ymm7, %ymm4 vminps %ymm2, %ymm7, %ymm13 vminps %ymm6, %ymm7, %ymm15 vminps %ymm1, %ymm10, %ymm7 vminps %ymm7, %ymm4, %ymm16 vminps %ymm8, %ymm11, %ymm4 vminps %ymm4, %ymm13, %ymm7 vminps %ymm9, %ymm12, %ymm4 vminps %ymm4, %ymm15, %ymm4 vmaxps %ymm0, %ymm23, %ymm0 vmaxps %ymm2, %ymm23, %ymm13 vmaxps %ymm6, %ymm23, %ymm6 vmaxps %ymm1, %ymm10, %ymm1 vmaxps %ymm1, %ymm0, %ymm2 vmaxps %ymm8, %ymm11, %ymm0 vmaxps %ymm0, %ymm13, %ymm1 vmaxps %ymm9, %ymm12, %ymm0 vmaxps %ymm0, %ymm6, %ymm0 vshufps $0xb1, %ymm21, %ymm21, %ymm6 # ymm6 = ymm21[1,0,3,2,5,4,7,6] vmaxps %ymm6, %ymm21, %ymm6 vshufpd $0x5, %ymm6, %ymm6, %ymm8 # ymm8 = ymm6[1,0,3,2] vmaxps %ymm8, %ymm6, %ymm6 vextractf128 $0x1, %ymm6, %xmm8 vmaxps %xmm8, %xmm6, %xmm6 vshufps $0xb1, %ymm18, %ymm18, %ymm8 # ymm8 = ymm18[1,0,3,2,5,4,7,6] vmaxps %ymm8, %ymm18, %ymm8 vshufpd $0x5, %ymm8, %ymm8, %ymm9 # ymm9 = ymm8[1,0,3,2] vmaxps %ymm9, %ymm8, %ymm8 vextractf128 $0x1, %ymm8, %xmm9 vmaxps %xmm9, %xmm8, %xmm8 vunpcklps %xmm8, %xmm6, %xmm6 # xmm6 = xmm6[0],xmm8[0],xmm6[1],xmm8[1] vshufps $0xb1, %ymm14, %ymm14, %ymm8 # ymm8 = ymm14[1,0,3,2,5,4,7,6] vmaxps %ymm8, %ymm14, %ymm8 vshufpd $0x5, %ymm8, %ymm8, %ymm9 # ymm9 = ymm8[1,0,3,2] vmaxps %ymm9, %ymm8, %ymm8 vextractf128 $0x1, %ymm8, %xmm9 vmaxps %xmm9, %xmm8, %xmm8 vinsertps $0x28, %xmm8, %xmm6, %xmm6 # xmm6 = xmm6[0,1],xmm8[0],zero vshufps $0xb1, %ymm5, %ymm5, %ymm8 # ymm8 = ymm5[1,0,3,2,5,4,7,6] vminps %ymm8, %ymm5, %ymm5 vshufpd $0x5, %ymm5, %ymm5, %ymm8 # ymm8 = ymm5[1,0,3,2] vminps %ymm8, %ymm5, %ymm5 vextractf128 $0x1, %ymm5, %xmm8 vminps %xmm8, %xmm5, %xmm5 vshufps $0xb1, %ymm3, %ymm3, %ymm8 # ymm8 = ymm3[1,0,3,2,5,4,7,6] vminps %ymm8, %ymm3, %ymm3 vshufpd $0x5, %ymm3, %ymm3, %ymm8 # ymm8 = ymm3[1,0,3,2] vminps %ymm8, %ymm3, %ymm3 vextractf128 $0x1, %ymm3, %xmm8 vminps %xmm8, %xmm3, %xmm3 vunpcklps %xmm3, %xmm5, %xmm3 # xmm3 = xmm5[0],xmm3[0],xmm5[1],xmm3[1] vshufps $0xb1, %ymm17, %ymm17, %ymm5 # ymm5 = ymm17[1,0,3,2,5,4,7,6] vminps %ymm5, %ymm17, %ymm5 vshufpd $0x5, %ymm5, %ymm5, %ymm8 # ymm8 = ymm5[1,0,3,2] vminps %ymm8, %ymm5, %ymm5 vextractf128 $0x1, %ymm5, %xmm8 vminps %xmm8, %xmm5, %xmm5 vinsertps $0x28, %xmm5, %xmm3, %xmm3 # xmm3 = xmm3[0,1],xmm5[0],zero vshufps $0xb1, %ymm16, %ymm16, %ymm5 # ymm5 = ymm16[1,0,3,2,5,4,7,6] vminps %ymm5, %ymm16, %ymm5 vshufpd $0x5, %ymm5, %ymm5, %ymm8 # ymm8 = ymm5[1,0,3,2] vminps %ymm8, %ymm5, %ymm5 vextractf128 $0x1, %ymm5, %xmm8 vminps %xmm8, %xmm5, %xmm5 vshufps $0xb1, %ymm7, %ymm7, %ymm8 # ymm8 = ymm7[1,0,3,2,5,4,7,6] vminps %ymm8, %ymm7, %ymm7 vshufpd $0x5, %ymm7, %ymm7, %ymm8 # ymm8 = ymm7[1,0,3,2] vminps %ymm8, %ymm7, %ymm7 vextractf128 $0x1, %ymm7, %xmm8 vminps %xmm8, %xmm7, %xmm7 vunpcklps %xmm7, %xmm5, %xmm5 # xmm5 = xmm5[0],xmm7[0],xmm5[1],xmm7[1] vshufps $0xb1, %ymm4, %ymm4, %ymm7 # ymm7 = ymm4[1,0,3,2,5,4,7,6] vminps %ymm7, %ymm4, %ymm4 vshufpd $0x5, %ymm4, %ymm4, %ymm7 # ymm7 = ymm4[1,0,3,2] vminps %ymm7, %ymm4, %ymm4 vextractf128 $0x1, %ymm4, %xmm7 vminps %xmm7, %xmm4, %xmm4 vinsertps $0x28, %xmm4, %xmm5, %xmm4 # xmm4 = xmm5[0,1],xmm4[0],zero vminps %xmm4, %xmm3, %xmm3 vshufps $0xb1, %ymm2, %ymm2, %ymm4 # ymm4 = ymm2[1,0,3,2,5,4,7,6] vmaxps %ymm4, %ymm2, %ymm2 vshufpd $0x5, %ymm2, %ymm2, %ymm4 # ymm4 = ymm2[1,0,3,2] vmaxps %ymm4, %ymm2, %ymm2 vextractf128 $0x1, %ymm2, %xmm4 vmaxps %xmm4, %xmm2, %xmm2 vshufps $0xb1, %ymm1, %ymm1, %ymm4 # ymm4 = ymm1[1,0,3,2,5,4,7,6] vmaxps %ymm4, %ymm1, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm4 # ymm4 = ymm1[1,0,3,2] vmaxps %ymm4, %ymm1, %ymm1 vextractf128 $0x1, %ymm1, %xmm4 vmaxps %xmm4, %xmm1, %xmm1 vunpcklps %xmm1, %xmm2, %xmm1 # xmm1 = xmm2[0],xmm1[0],xmm2[1],xmm1[1] vshufps $0xb1, %ymm0, %ymm0, %ymm2 # ymm2 = ymm0[1,0,3,2,5,4,7,6] vmaxps %ymm2, %ymm0, %ymm0 vshufpd $0x5, %ymm0, %ymm0, %ymm2 # ymm2 = ymm0[1,0,3,2] vmaxps %ymm2, %ymm0, %ymm0 vextractf128 $0x1, %ymm0, %xmm2 vmaxps %xmm2, %xmm0, %xmm0 vinsertps $0x28, %xmm0, %xmm1, %xmm0 # xmm0 = xmm1[0,1],xmm0[0],zero vmaxps %xmm0, %xmm6, %xmm0 vbroadcastss 0x97f72(%rip), %xmm1 # 0x1f20ec4 vandps %xmm1, %xmm3, %xmm2 vandps %xmm1, %xmm0, %xmm1 vmaxps %xmm1, %xmm2, %xmm1 vmovshdup %xmm1, %xmm2 # xmm2 = xmm1[1,1,3,3] vmaxss %xmm1, %xmm2, %xmm2 vshufpd $0x1, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[1,0] vmaxss %xmm2, %xmm1, %xmm1 vmulss 0x6806d(%rip), %xmm1, %xmm1 # 0x1ef0fe4 vbroadcastss %xmm1, %xmm1 vsubps %xmm1, %xmm3, %xmm2 vaddps %xmm1, %xmm0, %xmm0 vmovaps %xmm2, (%rax) vmovaps %xmm0, 0x10(%rax) popq %rbx popq %r14 popq %r15 vzeroupper retq
/embree[P]embree/kernels/common/scene_curves.cpp
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)2, embree::avx512::CurveGeometryInterface, embree::BSplineCurveT>::vlinearBounds(embree::LinearSpace3<embree::Vec3fa> const&, unsigned long, embree::BBox<float> const&) const
LBBox3fa vlinearBounds(const LinearSpace3fa& space, size_t primID, const BBox1f& time_range) const { return linearBounds(space,primID,time_range); }
pushq %rbp pushq %r15 pushq %r14 pushq %r13 pushq %r12 pushq %rbx subq $0x138, %rsp # imm = 0x138 leaq 0xc8(%rsp), %rax movq %rcx, (%rax) leaq 0xb0(%rsp), %r14 movq %rdx, (%r14) movq %rax, 0x8(%r14) movq %rsi, 0x10(%r14) vmovss 0x28(%rsi), %xmm4 vmovss 0x2c(%rsi), %xmm0 vmovss (%r8), %xmm1 vmovss 0x4(%r8), %xmm2 vsubss %xmm0, %xmm1, %xmm1 vmovss 0x30(%rsi), %xmm3 vsubss %xmm0, %xmm3, %xmm3 vdivss %xmm3, %xmm1, %xmm1 vsubss %xmm0, %xmm2, %xmm0 vdivss %xmm3, %xmm0, %xmm2 vmovss %xmm1, 0x4(%rsp) vmulss %xmm1, %xmm4, %xmm0 vmovss %xmm0, 0x20(%rsp) vroundss $0x9, %xmm0, %xmm0, %xmm0 vmovss %xmm2, 0x50(%rsp) vmulss %xmm2, %xmm4, %xmm1 vmovss %xmm1, 0x40(%rsp) vroundss $0xa, %xmm1, %xmm1, %xmm1 vxorps %xmm2, %xmm2, %xmm2 vmaxss %xmm2, %xmm0, %xmm3 vminss %xmm4, %xmm1, %xmm2 vmovss %xmm3, 0x10(%rsp) vcvttss2si %xmm3, %r15d vmovss %xmm2, 0x30(%rsp) vcvttss2si %xmm2, %r12d vcvttss2si %xmm0, %eax movq %rdi, %rbx testl %eax, %eax movl $0xffffffff, %r13d # imm = 0xFFFFFFFF cmovnsl %eax, %r13d vcvttss2si %xmm1, %eax vmovss %xmm4, 0xc(%rsp) vcvttss2si %xmm4, %ebp incl %ebp cmpl %ebp, %eax cmovll %eax, %ebp movslq %r15d, %rdx leaq 0x80(%rsp), %rdi movq %r14, %rsi callq 0x1e8adfe movslq %r12d, %rdx leaq 0x60(%rsp), %rdi movq %r14, %rsi callq 0x1e8adfe movl %ebp, %eax subl %r13d, %eax cmpl $0x1, %eax jne 0x1e89f31 vmovss 0x20(%rsp), %xmm0 vsubss 0x10(%rsp), %xmm0, %xmm0 vxorps %xmm8, %xmm8, %xmm8 vmaxss %xmm8, %xmm0, %xmm0 vmovss 0x6286a(%rip), %xmm1 # 0x1eec714 vsubss %xmm0, %xmm1, %xmm2 vbroadcastss %xmm0, %xmm0 vmovaps 0x60(%rsp), %xmm3 vmovaps 0x70(%rsp), %xmm4 vmulps %xmm3, %xmm0, %xmm5 vbroadcastss %xmm2, %xmm2 vmovaps 0x80(%rsp), %xmm6 vmovaps 0x90(%rsp), %xmm7 vfmadd231ps %xmm6, %xmm2, %xmm5 # xmm5 = (xmm2 * xmm6) + xmm5 vmulps %xmm4, %xmm0, %xmm0 vfmadd231ps %xmm2, %xmm7, %xmm0 # xmm0 = (xmm7 * xmm2) + xmm0 vmovaps %xmm5, (%rbx) vmovaps %xmm0, 0x10(%rbx) vmovss 0x30(%rsp), %xmm0 vsubss 0x40(%rsp), %xmm0, %xmm0 vmaxss %xmm8, %xmm0, %xmm0 vsubss %xmm0, %xmm1, %xmm1 vbroadcastss %xmm0, %xmm0 vmulps %xmm6, %xmm0, %xmm2 vbroadcastss %xmm1, %xmm1 vfmadd231ps %xmm3, %xmm1, %xmm2 # xmm2 = (xmm1 * xmm3) + xmm2 vmulps %xmm7, %xmm0, %xmm0 vfmadd231ps %xmm4, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm4) + xmm0 vmovaps %xmm2, 0x20(%rbx) vmovaps %xmm0, 0x30(%rbx) jmp 0x1e8a114 incl %r15d movslq %r15d, %rdx leaq 0x110(%rsp), %r14 leaq 0xb0(%rsp), %r15 movq %r14, %rdi movq %r15, %rsi callq 0x1e8adfe decl %r12d movslq %r12d, %rdx leaq 0xf0(%rsp), %r12 movq %r12, %rdi movq %r15, %rsi callq 0x1e8adfe vmovss 0x20(%rsp), %xmm0 vsubss 0x10(%rsp), %xmm0, %xmm0 vxorps %xmm5, %xmm5, %xmm5 vmaxss %xmm5, %xmm0, %xmm0 vmovss 0x6278d(%rip), %xmm4 # 0x1eec714 vbroadcastss %xmm0, %xmm1 vmulps (%r14), %xmm1, %xmm2 vsubss %xmm0, %xmm4, %xmm0 vbroadcastss %xmm0, %xmm0 vfmadd231ps 0x80(%rsp), %xmm0, %xmm2 # xmm2 = (xmm0 * mem) + xmm2 vmulps 0x10(%r14), %xmm1, %xmm3 vfmadd231ps 0x90(%rsp), %xmm0, %xmm3 # xmm3 = (xmm0 * mem) + xmm3 vmovss 0x30(%rsp), %xmm0 vsubss 0x40(%rsp), %xmm0, %xmm0 vmaxss %xmm5, %xmm0, %xmm0 vsubss %xmm0, %xmm4, %xmm1 vbroadcastss %xmm0, %xmm0 vmulps (%r12), %xmm0, %xmm5 vbroadcastss %xmm1, %xmm1 vfmadd231ps 0x60(%rsp), %xmm1, %xmm5 # xmm5 = (xmm1 * mem) + xmm5 vmulps 0x10(%r12), %xmm0, %xmm6 vfmadd231ps 0x70(%rsp), %xmm1, %xmm6 # xmm6 = (xmm1 * mem) + xmm6 leal 0x1(%r13), %eax cmpl %ebp, %eax jge 0x1e8a101 vmovss 0x4(%rsp), %xmm1 vmovss 0x50(%rsp), %xmm0 vsubss %xmm1, %xmm0, %xmm0 vmovss %xmm0, 0x8(%rsp) movl %eax, %r14d notl %r13d addl %ebp, %r13d leaq 0xd0(%rsp), %r15 leaq 0xb0(%rsp), %r12 vmovaps %xmm6, 0x10(%rsp) vmovaps %xmm5, 0x20(%rsp) vmovaps %xmm3, 0x30(%rsp) vmovaps %xmm2, 0x40(%rsp) vcvtsi2ss %r14d, %xmm8, %xmm0 vdivss 0xc(%rsp), %xmm0, %xmm0 vsubss %xmm1, %xmm0, %xmm0 vdivss 0x8(%rsp), %xmm0, %xmm0 vsubss %xmm0, %xmm4, %xmm1 vbroadcastss %xmm0, %xmm0 vmulps %xmm0, %xmm5, %xmm4 vbroadcastss %xmm1, %xmm1 vfmadd231ps %xmm2, %xmm1, %xmm4 # xmm4 = (xmm1 * xmm2) + xmm4 vmovaps %xmm4, 0x50(%rsp) vmulps %xmm0, %xmm6, %xmm0 vfmadd231ps %xmm1, %xmm3, %xmm0 # xmm0 = (xmm3 * xmm1) + xmm0 vmovaps %xmm0, 0xa0(%rsp) movq %r15, %rdi movq %r12, %rsi movq %r14, %rdx callq 0x1e8adfe vmovaps 0x10(%rsp), %xmm6 vmovaps 0x20(%rsp), %xmm5 vmovss 0x6266e(%rip), %xmm4 # 0x1eec714 vmovaps 0x30(%rsp), %xmm3 vmovaps 0x40(%rsp), %xmm2 vmovaps 0xd0(%rsp), %xmm0 vsubps 0x50(%rsp), %xmm0, %xmm0 vmovaps 0xe0(%rsp), %xmm1 vsubps 0xa0(%rsp), %xmm1, %xmm1 vxorps %xmm7, %xmm7, %xmm7 vminps %xmm7, %xmm0, %xmm0 vmaxps %xmm7, %xmm1, %xmm1 vaddps %xmm0, %xmm2, %xmm2 vaddps %xmm0, %xmm5, %xmm5 vaddps %xmm1, %xmm3, %xmm3 vaddps %xmm1, %xmm6, %xmm6 vmovss 0x4(%rsp), %xmm1 incq %r14 decl %r13d jne 0x1e8a028 vmovaps %xmm2, (%rbx) vmovaps %xmm3, 0x10(%rbx) vmovaps %xmm5, 0x20(%rbx) vmovaps %xmm6, 0x30(%rbx) movq %rbx, %rax addq $0x138, %rsp # imm = 0x138 popq %rbx popq %r12 popq %r13 popq %r14 popq %r15 popq %rbp retq nop
/embree[P]embree/kernels/common/scene_curves.cpp
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)2, embree::avx512::CurveGeometryInterface, embree::BSplineCurveT>::linearBounds(embree::Vec3fa const&, float, float, embree::LinearSpace3<embree::Vec3fa> const&, unsigned long, embree::BBox<float> const&) const::'lambda'(unsigned long)::operator()(unsigned long) const
PrimInfo createPrimRefArray(PrimRef* prims, const range<size_t>& r, size_t k, unsigned int geomID) const { PrimInfo pinfo(empty); for (size_t j=r.begin(); j<r.end(); j++) { if (!valid(ctype, j, make_range<size_t>(0, numTimeSegments()))) continue; const BBox3fa box = bounds(j); const PrimRef prim(box,geomID,unsigned(j)); pinfo.add_center2(prim); prims[k++] = prim; } return pinfo; }
pushq %rbp pushq %r15 pushq %r14 pushq %r13 pushq %r12 pushq %rbx movq %rdi, %rax movq 0x28(%rsi), %r9 movq (%rsi), %r8 movq 0x8(%rsi), %rdi movq 0x18(%rsi), %rcx movq 0x20(%rsi), %rsi movq 0x58(%r9), %r10 movq 0x68(%r9), %r11 imulq (%rsi), %r11 movl (%r10,%r11), %esi movq 0x188(%r9), %r10 imulq $0x38, %rdx, %rdx movq (%r10,%rdx), %rbx movq 0x10(%r10,%rdx), %r14 movq %r14, %r15 imulq %rsi, %r15 vmovaps (%rbx,%r15), %xmm0 leal 0x1(%rsi), %r10d movq %r14, %r12 imulq %r10, %r12 vmovaps (%rbx,%r12), %xmm1 leal 0x2(%rsi), %r11d movq %r14, %r13 imulq %r11, %r13 vmovaps (%rbx,%r13), %xmm2 leal 0x3(%rsi), %ebp imulq %rbp, %r14 vmovaps (%rbx,%r14), %xmm3 vmovss 0x24c(%r9), %xmm4 vmulss 0xc(%rbx,%r15), %xmm4, %xmm5 vinsertps $0x30, %xmm5, %xmm0, %xmm6 # xmm6 = xmm0[0,1,2],xmm5[0] vmulss 0xc(%rbx,%r12), %xmm4, %xmm0 vinsertps $0x30, %xmm0, %xmm1, %xmm7 # xmm7 = xmm1[0,1,2],xmm0[0] vmulss 0xc(%rbx,%r13), %xmm4, %xmm0 vinsertps $0x30, %xmm0, %xmm2, %xmm8 # xmm8 = xmm2[0,1,2],xmm0[0] vmulss 0xc(%rbx,%r14), %xmm4, %xmm0 vinsertps $0x30, %xmm0, %xmm3, %xmm4 # xmm4 = xmm3[0,1,2],xmm0[0] movq 0x1a8(%r9), %r9 movq (%r9,%rdx), %rbx movq 0x10(%r9,%rdx), %rdx imulq %rdx, %rsi vmovups (%rbx,%rsi), %xmm5 imulq %rdx, %r10 vmovups (%rbx,%r10), %xmm9 imulq %rdx, %r11 vmovups (%rbx,%r11), %xmm10 imulq %rbp, %rdx vmovups (%rbx,%rdx), %xmm11 vxorps %xmm2, %xmm2, %xmm2 vbroadcastss 0x656ee(%rip), %xmm12 # 0x1ef1000 vmulps %xmm2, %xmm4, %xmm0 vmovaps %xmm12, %xmm1 vfmadd213ps %xmm0, %xmm8, %xmm1 # xmm1 = (xmm8 * xmm1) + xmm0 vbroadcastss 0x955bc(%rip), %xmm13 # 0x1f20ee4 vfmadd231ps %xmm13, %xmm7, %xmm1 # xmm1 = (xmm7 * xmm13) + xmm1 vfmadd231ps %xmm12, %xmm6, %xmm1 # xmm1 = (xmm6 * xmm12) + xmm1 vbroadcastss 0x61245(%rip), %xmm14 # 0x1eecb80 vfmadd231ps %xmm14, %xmm8, %xmm0 # xmm0 = (xmm8 * xmm14) + xmm0 vfnmadd231ps %xmm2, %xmm7, %xmm0 # xmm0 = -(xmm7 * xmm2) + xmm0 vfnmadd231ps %xmm14, %xmm6, %xmm0 # xmm0 = -(xmm6 * xmm14) + xmm0 vmulps %xmm2, %xmm11, %xmm15 vmovaps %xmm12, %xmm16 vfmadd213ps %xmm15, %xmm10, %xmm16 # xmm16 = (xmm10 * xmm16) + xmm15 vfmadd231ps %xmm13, %xmm9, %xmm16 # xmm16 = (xmm9 * xmm13) + xmm16 vfmadd231ps %xmm12, %xmm5, %xmm16 # xmm16 = (xmm5 * xmm12) + xmm16 vfmadd231ps %xmm14, %xmm10, %xmm15 # xmm15 = (xmm10 * xmm14) + xmm15 vfnmadd231ps %xmm2, %xmm9, %xmm15 # xmm15 = -(xmm9 * xmm2) + xmm15 vfnmadd231ps %xmm14, %xmm5, %xmm15 # xmm15 = -(xmm5 * xmm14) + xmm15 vmulps %xmm4, %xmm12, %xmm3 vfmadd231ps %xmm13, %xmm8, %xmm3 # xmm3 = (xmm8 * xmm13) + xmm3 vfmadd231ps %xmm12, %xmm7, %xmm3 # xmm3 = (xmm7 * xmm12) + xmm3 vfmadd231ps %xmm2, %xmm6, %xmm3 # xmm3 = (xmm6 * xmm2) + xmm3 vmulps %xmm4, %xmm14, %xmm4 vfmadd231ps %xmm8, %xmm2, %xmm4 # xmm4 = (xmm2 * xmm8) + xmm4 vfnmadd231ps %xmm7, %xmm14, %xmm4 # xmm4 = -(xmm14 * xmm7) + xmm4 vfnmadd231ps %xmm6, %xmm2, %xmm4 # xmm4 = -(xmm2 * xmm6) + xmm4 vmulps %xmm12, %xmm11, %xmm6 vfmadd231ps %xmm13, %xmm10, %xmm6 # xmm6 = (xmm10 * xmm13) + xmm6 vfmadd231ps %xmm12, %xmm9, %xmm6 # xmm6 = (xmm9 * xmm12) + xmm6 vfmadd231ps %xmm2, %xmm5, %xmm6 # xmm6 = (xmm5 * xmm2) + xmm6 vmulps %xmm14, %xmm11, %xmm8 vfmadd231ps %xmm10, %xmm2, %xmm8 # xmm8 = (xmm2 * xmm10) + xmm8 vfnmadd231ps %xmm14, %xmm9, %xmm8 # xmm8 = -(xmm9 * xmm14) + xmm8 vfnmadd231ps %xmm5, %xmm2, %xmm8 # xmm8 = -(xmm2 * xmm5) + xmm8 vshufps $0xc9, %xmm0, %xmm0, %xmm5 # xmm5 = xmm0[1,2,0,3] vshufps $0xc9, %xmm16, %xmm16, %xmm7 # xmm7 = xmm16[1,2,0,3] vmulps %xmm7, %xmm0, %xmm7 vfmsub231ps %xmm16, %xmm5, %xmm7 # xmm7 = (xmm5 * xmm16) - xmm7 vshufps $0xc9, %xmm7, %xmm7, %xmm7 # xmm7 = xmm7[1,2,0,3] vshufps $0xc9, %xmm15, %xmm15, %xmm9 # xmm9 = xmm15[1,2,0,3] vmulps %xmm0, %xmm9, %xmm9 vfmsub231ps %xmm15, %xmm5, %xmm9 # xmm9 = (xmm5 * xmm15) - xmm9 vshufps $0xc9, %xmm9, %xmm9, %xmm9 # xmm9 = xmm9[1,2,0,3] vshufps $0xc9, %xmm4, %xmm4, %xmm10 # xmm10 = xmm4[1,2,0,3] vshufps $0xc9, %xmm6, %xmm6, %xmm5 # xmm5 = xmm6[1,2,0,3] vmulps %xmm5, %xmm4, %xmm5 vfmsub231ps %xmm6, %xmm10, %xmm5 # xmm5 = (xmm10 * xmm6) - xmm5 vshufps $0xc9, %xmm5, %xmm5, %xmm5 # xmm5 = xmm5[1,2,0,3] vshufps $0xc9, %xmm8, %xmm8, %xmm6 # xmm6 = xmm8[1,2,0,3] vmulps %xmm6, %xmm4, %xmm6 vdpps $0x7f, %xmm7, %xmm7, %xmm11 vfmsub231ps %xmm8, %xmm10, %xmm6 # xmm6 = (xmm10 * xmm8) - xmm6 vshufps $0xc9, %xmm6, %xmm6, %xmm6 # xmm6 = xmm6[1,2,0,3] vmovss %xmm11, %xmm2, %xmm8 # xmm8 = xmm11[0],xmm2[1,2,3] vrsqrt14ss %xmm8, %xmm2, %xmm10 vmovss 0x60ce0(%rip), %xmm12 # 0x1eec718 vmulss %xmm12, %xmm10, %xmm13 vmovss 0x60cd7(%rip), %xmm14 # 0x1eec71c vmulss %xmm14, %xmm11, %xmm15 vmulss %xmm10, %xmm15, %xmm15 vmulss %xmm10, %xmm10, %xmm10 vmulss %xmm10, %xmm15, %xmm10 vaddss %xmm10, %xmm13, %xmm10 vdpps $0x7f, %xmm9, %xmm7, %xmm13 vbroadcastss %xmm10, %xmm10 vmulps %xmm7, %xmm10, %xmm15 vbroadcastss %xmm11, %xmm16 vmulps %xmm9, %xmm16, %xmm9 vbroadcastss %xmm13, %xmm13 vmulps %xmm7, %xmm13, %xmm7 vsubps %xmm7, %xmm9, %xmm7 vrcp14ss %xmm8, %xmm2, %xmm8 vmovss 0x65564(%rip), %xmm9 # 0x1ef0ff8 vfnmadd213ss %xmm9, %xmm8, %xmm11 # xmm11 = -(xmm8 * xmm11) + xmm9 vmulss %xmm11, %xmm8, %xmm8 vbroadcastss %xmm8, %xmm8 vmulps %xmm7, %xmm8, %xmm7 vdpps $0x7f, %xmm5, %xmm5, %xmm8 vmulps %xmm7, %xmm10, %xmm7 vmovss %xmm8, %xmm2, %xmm10 # xmm10 = xmm8[0],xmm2[1,2,3] vrsqrt14ss %xmm10, %xmm2, %xmm11 vmulss %xmm12, %xmm11, %xmm12 vmulss %xmm14, %xmm8, %xmm13 vmulss %xmm11, %xmm13, %xmm13 vmulss %xmm11, %xmm11, %xmm11 vmulss %xmm11, %xmm13, %xmm11 vdpps $0x7f, %xmm6, %xmm5, %xmm13 vaddss %xmm11, %xmm12, %xmm11 vbroadcastss %xmm11, %xmm11 vmulps %xmm5, %xmm11, %xmm12 vbroadcastss %xmm8, %xmm14 vmulps %xmm6, %xmm14, %xmm6 vbroadcastss %xmm13, %xmm13 vmulps %xmm5, %xmm13, %xmm5 vsubps %xmm5, %xmm6, %xmm5 vrcp14ss %xmm10, %xmm2, %xmm2 vfnmadd213ss %xmm9, %xmm2, %xmm8 # xmm8 = -(xmm2 * xmm8) + xmm9 vmulss %xmm2, %xmm8, %xmm2 vbroadcastss %xmm2, %xmm2 vmulps %xmm2, %xmm5, %xmm2 vmulps %xmm2, %xmm11, %xmm2 vshufps $0xff, %xmm1, %xmm1, %xmm5 # xmm5 = xmm1[3,3,3,3] vmulps %xmm5, %xmm15, %xmm6 vsubps %xmm6, %xmm1, %xmm8 vshufps $0xff, %xmm0, %xmm0, %xmm9 # xmm9 = xmm0[3,3,3,3] vmulps %xmm15, %xmm9, %xmm9 vmulps %xmm7, %xmm5, %xmm5 vaddps %xmm5, %xmm9, %xmm5 vsubps %xmm5, %xmm0, %xmm7 vaddps %xmm6, %xmm1, %xmm1 vaddps %xmm5, %xmm0, %xmm0 vshufps $0xff, %xmm3, %xmm3, %xmm5 # xmm5 = xmm3[3,3,3,3] vmulps %xmm5, %xmm12, %xmm6 vsubps %xmm6, %xmm3, %xmm13 vshufps $0xff, %xmm4, %xmm4, %xmm9 # xmm9 = xmm4[3,3,3,3] vmulps %xmm12, %xmm9, %xmm9 vmulps %xmm2, %xmm5, %xmm2 vaddps %xmm2, %xmm9, %xmm5 vsubps %xmm5, %xmm4, %xmm9 vaddps %xmm6, %xmm3, %xmm2 vaddps %xmm5, %xmm4, %xmm3 vbroadcastss 0x66342(%rip), %xmm4 # 0x1ef1ebc vmulps %xmm4, %xmm7, %xmm5 vaddps %xmm5, %xmm8, %xmm10 vmulps %xmm4, %xmm9, %xmm5 vsubps %xmm5, %xmm13, %xmm12 vmulps %xmm4, %xmm0, %xmm0 vaddps %xmm0, %xmm1, %xmm11 vmulps %xmm4, %xmm3, %xmm0 vsubps %xmm0, %xmm2, %xmm4 vmovaps (%r8), %xmm6 vbroadcastss (%rdi), %xmm7 vsubps %xmm6, %xmm8, %xmm0 vmulps %xmm0, %xmm7, %xmm0 vbroadcastss %xmm0, %xmm14 vshufps $0x55, %xmm0, %xmm0, %xmm15 # xmm15 = xmm0[1,1,1,1] vmovaps (%rcx), %xmm5 vshufps $0xaa, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[2,2,2,2] vmovaps 0x10(%rcx), %xmm8 vmovaps 0x20(%rcx), %xmm9 vmulps %xmm0, %xmm9, %xmm3 vfmadd231ps %xmm15, %xmm8, %xmm3 # xmm3 = (xmm8 * xmm15) + xmm3 vfmadd231ps %xmm14, %xmm5, %xmm3 # xmm3 = (xmm5 * xmm14) + xmm3 vsubps %xmm6, %xmm10, %xmm0 vmulps %xmm0, %xmm7, %xmm0 vbroadcastss %xmm0, %xmm14 vshufps $0x55, %xmm0, %xmm0, %xmm15 # xmm15 = xmm0[1,1,1,1] vshufps $0xaa, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[2,2,2,2] vmulps %xmm0, %xmm9, %xmm10 vfmadd231ps %xmm15, %xmm8, %xmm10 # xmm10 = (xmm8 * xmm15) + xmm10 vfmadd231ps %xmm14, %xmm5, %xmm10 # xmm10 = (xmm5 * xmm14) + xmm10 vsubps %xmm6, %xmm12, %xmm0 vmulps %xmm0, %xmm7, %xmm0 vbroadcastss %xmm0, %xmm14 vshufps $0x55, %xmm0, %xmm0, %xmm15 # xmm15 = xmm0[1,1,1,1] vshufps $0xaa, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[2,2,2,2] vmulps %xmm0, %xmm9, %xmm12 vfmadd231ps %xmm15, %xmm8, %xmm12 # xmm12 = (xmm8 * xmm15) + xmm12 vfmadd231ps %xmm14, %xmm5, %xmm12 # xmm12 = (xmm5 * xmm14) + xmm12 vsubps %xmm6, %xmm13, %xmm0 vmulps %xmm0, %xmm7, %xmm0 vbroadcastss %xmm0, %xmm14 vshufps $0x55, %xmm0, %xmm0, %xmm15 # xmm15 = xmm0[1,1,1,1] vshufps $0xaa, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[2,2,2,2] vmulps %xmm0, %xmm9, %xmm13 vfmadd231ps %xmm15, %xmm8, %xmm13 # xmm13 = (xmm8 * xmm15) + xmm13 vfmadd231ps %xmm14, %xmm5, %xmm13 # xmm13 = (xmm5 * xmm14) + xmm13 vsubps %xmm6, %xmm1, %xmm0 vmulps %xmm0, %xmm7, %xmm0 vbroadcastss %xmm0, %xmm1 vshufps $0x55, %xmm0, %xmm0, %xmm14 # xmm14 = xmm0[1,1,1,1] vshufps $0xaa, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[2,2,2,2] vmulps %xmm0, %xmm9, %xmm31 vfmadd231ps %xmm14, %xmm8, %xmm31 # xmm31 = (xmm8 * xmm14) + xmm31 vfmadd231ps %xmm1, %xmm5, %xmm31 # xmm31 = (xmm5 * xmm1) + xmm31 vsubps %xmm6, %xmm11, %xmm1 vmulps %xmm1, %xmm7, %xmm1 vbroadcastss %xmm1, %xmm11 vshufps $0x55, %xmm1, %xmm1, %xmm14 # xmm14 = xmm1[1,1,1,1] vshufps $0xaa, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,2,2,2] vmulps %xmm1, %xmm9, %xmm22 vfmadd231ps %xmm14, %xmm8, %xmm22 # xmm22 = (xmm8 * xmm14) + xmm22 vfmadd231ps %xmm11, %xmm5, %xmm22 # xmm22 = (xmm5 * xmm11) + xmm22 vsubps %xmm6, %xmm4, %xmm4 vmulps %xmm4, %xmm7, %xmm4 vbroadcastss %xmm4, %xmm11 vshufps $0x55, %xmm4, %xmm4, %xmm14 # xmm14 = xmm4[1,1,1,1] vshufps $0xaa, %xmm4, %xmm4, %xmm4 # xmm4 = xmm4[2,2,2,2] vmulps %xmm4, %xmm9, %xmm20 vfmadd231ps %xmm14, %xmm8, %xmm20 # xmm20 = (xmm8 * xmm14) + xmm20 vfmadd231ps %xmm11, %xmm5, %xmm20 # xmm20 = (xmm5 * xmm11) + xmm20 vsubps %xmm6, %xmm2, %xmm2 vmulps %xmm2, %xmm7, %xmm2 vbroadcastss %xmm2, %xmm7 vshufps $0x55, %xmm2, %xmm2, %xmm11 # xmm11 = xmm2[1,1,1,1] vshufps $0xaa, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[2,2,2,2] vmulps %xmm2, %xmm9, %xmm6 vfmadd231ps %xmm11, %xmm8, %xmm6 # xmm6 = (xmm8 * xmm11) + xmm6 vfmadd231ps %xmm7, %xmm5, %xmm6 # xmm6 = (xmm5 * xmm7) + xmm6 vbroadcastss 0x86a14(%rip), %ymm29 # 0x1f12704 vbroadcastss %xmm3, %ymm2 vpermps %ymm3, %ymm29, %ymm5 vbroadcastss 0x951d7(%rip), %ymm30 # 0x1f20edc vpermps %ymm3, %ymm30, %ymm3 vbroadcastss %xmm10, %ymm17 vpermps %ymm10, %ymm29, %ymm1 vpermps %ymm10, %ymm30, %ymm0 vbroadcastss %xmm12, %ymm23 vpermps %ymm12, %ymm29, %ymm24 vpermps %ymm12, %ymm30, %ymm25 vbroadcastss %xmm13, %ymm26 vpermps %ymm13, %ymm29, %ymm27 leaq 0x29b5a2(%rip), %rcx # 0x21272e4 vmovups 0x1dc(%rcx), %ymm7 vmovups 0x660(%rcx), %ymm10 vpermps %ymm13, %ymm30, %ymm28 vmovups 0xae4(%rcx), %ymm13 vmovups 0xf68(%rcx), %ymm16 vmulps %ymm16, %ymm26, %ymm14 vmulps %ymm16, %ymm27, %ymm18 vmulps %ymm16, %ymm28, %ymm21 vfmadd231ps %ymm23, %ymm13, %ymm14 # ymm14 = (ymm13 * ymm23) + ymm14 vfmadd231ps %ymm24, %ymm13, %ymm18 # ymm18 = (ymm13 * ymm24) + ymm18 vfmadd231ps %ymm25, %ymm13, %ymm21 # ymm21 = (ymm13 * ymm25) + ymm21 vfmadd231ps %ymm17, %ymm10, %ymm14 # ymm14 = (ymm10 * ymm17) + ymm14 vfmadd231ps %ymm1, %ymm10, %ymm18 # ymm18 = (ymm10 * ymm1) + ymm18 vfmadd231ps %ymm0, %ymm10, %ymm21 # ymm21 = (ymm10 * ymm0) + ymm21 vfmadd231ps %ymm2, %ymm7, %ymm14 # ymm14 = (ymm7 * ymm2) + ymm14 vfmadd231ps %ymm5, %ymm7, %ymm18 # ymm18 = (ymm7 * ymm5) + ymm18 vmovups 0x13ec(%rcx), %ymm8 vmovups 0x1870(%rcx), %ymm12 vmovups 0x1cf4(%rcx), %ymm15 vmovups 0x2178(%rcx), %ymm19 vfmadd231ps %ymm3, %ymm7, %ymm21 # ymm21 = (ymm7 * ymm3) + ymm21 vmulps %ymm19, %ymm26, %ymm26 vmulps %ymm19, %ymm27, %ymm27 vmulps %ymm19, %ymm28, %ymm28 vfmadd231ps %ymm23, %ymm15, %ymm26 # ymm26 = (ymm15 * ymm23) + ymm26 vfmadd231ps %ymm24, %ymm15, %ymm27 # ymm27 = (ymm15 * ymm24) + ymm27 vfmadd231ps %ymm25, %ymm15, %ymm28 # ymm28 = (ymm15 * ymm25) + ymm28 vfmadd231ps %ymm17, %ymm12, %ymm26 # ymm26 = (ymm12 * ymm17) + ymm26 vfmadd231ps %ymm1, %ymm12, %ymm27 # ymm27 = (ymm12 * ymm1) + ymm27 vfmadd231ps %ymm0, %ymm12, %ymm28 # ymm28 = (ymm12 * ymm0) + ymm28 vfmadd231ps %ymm2, %ymm8, %ymm26 # ymm26 = (ymm8 * ymm2) + ymm26 vfmadd231ps %ymm5, %ymm8, %ymm27 # ymm27 = (ymm8 * ymm5) + ymm27 vfmadd231ps %ymm3, %ymm8, %ymm28 # ymm28 = (ymm8 * ymm3) + ymm28 vbroadcastss 0x956ac(%rip), %ymm0 # 0x1f214d0 vmulps %ymm0, %ymm26, %ymm3 vmulps %ymm0, %ymm27, %ymm5 vmulps %ymm0, %ymm28, %ymm9 vxorps %xmm4, %xmm4, %xmm4 vblendps $0x1, %ymm4, %ymm3, %ymm11 # ymm11 = ymm4[0],ymm3[1,2,3,4,5,6,7] vblendps $0x1, %ymm4, %ymm5, %ymm0 # ymm0 = ymm4[0],ymm5[1,2,3,4,5,6,7] vblendps $0x1, %ymm4, %ymm9, %ymm1 # ymm1 = ymm4[0],ymm9[1,2,3,4,5,6,7] vsubps %ymm11, %ymm14, %ymm11 vsubps %ymm0, %ymm18, %ymm0 vsubps %ymm1, %ymm21, %ymm1 vblendps $0x80, %ymm4, %ymm3, %ymm3 # ymm3 = ymm3[0,1,2,3,4,5,6],ymm4[7] vblendps $0x80, %ymm4, %ymm5, %ymm5 # ymm5 = ymm5[0,1,2,3,4,5,6],ymm4[7] vblendps $0x80, %ymm4, %ymm9, %ymm9 # ymm9 = ymm9[0,1,2,3,4,5,6],ymm4[7] vaddps %ymm3, %ymm14, %ymm24 vaddps %ymm5, %ymm18, %ymm25 vaddps %ymm9, %ymm21, %ymm26 vbroadcastss 0x5fb96(%rip), %ymm9 # 0x1eeba20 vminps %ymm14, %ymm9, %ymm3 vminps %ymm18, %ymm9, %ymm17 vminps %ymm21, %ymm9, %ymm23 vminps %ymm24, %ymm11, %ymm5 vminps %ymm5, %ymm3, %ymm5 vminps %ymm25, %ymm0, %ymm3 vminps %ymm3, %ymm17, %ymm3 vminps %ymm26, %ymm1, %ymm17 vminps %ymm17, %ymm23, %ymm17 vbroadcastss 0x60cbd(%rip), %ymm23 # 0x1eecb84 vmaxps %ymm14, %ymm23, %ymm14 vmaxps %ymm18, %ymm23, %ymm18 vmaxps %ymm21, %ymm23, %ymm27 vmaxps %ymm24, %ymm11, %ymm11 vmaxps %ymm11, %ymm14, %ymm21 vmaxps %ymm25, %ymm0, %ymm0 vmaxps %ymm0, %ymm18, %ymm18 vmaxps %ymm26, %ymm1, %ymm0 vmaxps %ymm0, %ymm27, %ymm14 vbroadcastss %xmm31, %ymm11 vpermps %ymm31, %ymm29, %ymm24 vpermps %ymm31, %ymm30, %ymm25 vbroadcastss %xmm22, %ymm26 vpermps %ymm22, %ymm29, %ymm27 vpermps %ymm22, %ymm30, %ymm22 vbroadcastss %xmm20, %ymm28 vpermps %ymm20, %ymm29, %ymm31 vpermps %ymm20, %ymm30, %ymm20 vbroadcastss %xmm6, %ymm2 vpermps %ymm6, %ymm29, %ymm29 vpermps %ymm6, %ymm30, %ymm30 vmulps %ymm16, %ymm2, %ymm0 vmulps %ymm16, %ymm29, %ymm1 vmulps %ymm16, %ymm30, %ymm6 vfmadd231ps %ymm28, %ymm13, %ymm0 # ymm0 = (ymm13 * ymm28) + ymm0 vfmadd231ps %ymm31, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm31) + ymm1 vfmadd231ps %ymm13, %ymm20, %ymm6 # ymm6 = (ymm20 * ymm13) + ymm6 vfmadd231ps %ymm26, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm26) + ymm0 vfmadd231ps %ymm27, %ymm10, %ymm1 # ymm1 = (ymm10 * ymm27) + ymm1 vfmadd231ps %ymm10, %ymm22, %ymm6 # ymm6 = (ymm22 * ymm10) + ymm6 vfmadd231ps %ymm11, %ymm7, %ymm0 # ymm0 = (ymm7 * ymm11) + ymm0 vfmadd231ps %ymm24, %ymm7, %ymm1 # ymm1 = (ymm7 * ymm24) + ymm1 vfmadd231ps %ymm7, %ymm25, %ymm6 # ymm6 = (ymm25 * ymm7) + ymm6 vmulps %ymm19, %ymm2, %ymm2 vmulps %ymm19, %ymm29, %ymm7 vmulps %ymm19, %ymm30, %ymm10 vfmadd231ps %ymm28, %ymm15, %ymm2 # ymm2 = (ymm15 * ymm28) + ymm2 vfmadd231ps %ymm31, %ymm15, %ymm7 # ymm7 = (ymm15 * ymm31) + ymm7 vfmadd231ps %ymm20, %ymm15, %ymm10 # ymm10 = (ymm15 * ymm20) + ymm10 vfmadd231ps %ymm26, %ymm12, %ymm2 # ymm2 = (ymm12 * ymm26) + ymm2 vfmadd231ps %ymm27, %ymm12, %ymm7 # ymm7 = (ymm12 * ymm27) + ymm7 vfmadd231ps %ymm22, %ymm12, %ymm10 # ymm10 = (ymm12 * ymm22) + ymm10 vfmadd231ps %ymm11, %ymm8, %ymm2 # ymm2 = (ymm8 * ymm11) + ymm2 vfmadd231ps %ymm24, %ymm8, %ymm7 # ymm7 = (ymm8 * ymm24) + ymm7 vfmadd231ps %ymm25, %ymm8, %ymm10 # ymm10 = (ymm8 * ymm25) + ymm10 vbroadcastss 0x954f5(%rip), %ymm8 # 0x1f214d0 vmulps %ymm2, %ymm8, %ymm2 vmulps %ymm7, %ymm8, %ymm7 vmulps %ymm8, %ymm10, %ymm8 vblendps $0x1, %ymm4, %ymm2, %ymm10 # ymm10 = ymm4[0],ymm2[1,2,3,4,5,6,7] vblendps $0x1, %ymm4, %ymm7, %ymm11 # ymm11 = ymm4[0],ymm7[1,2,3,4,5,6,7] vblendps $0x1, %ymm4, %ymm8, %ymm12 # ymm12 = ymm4[0],ymm8[1,2,3,4,5,6,7] vsubps %ymm10, %ymm0, %ymm10 vsubps %ymm11, %ymm1, %ymm11 vsubps %ymm12, %ymm6, %ymm12 vblendps $0x80, %ymm4, %ymm2, %ymm2 # ymm2 = ymm2[0,1,2,3,4,5,6],ymm4[7] vblendps $0x80, %ymm4, %ymm7, %ymm7 # ymm7 = ymm7[0,1,2,3,4,5,6],ymm4[7] vblendps $0x80, %ymm4, %ymm8, %ymm4 # ymm4 = ymm8[0,1,2,3,4,5,6],ymm4[7] vaddps %ymm2, %ymm0, %ymm2 vaddps %ymm7, %ymm1, %ymm8 vaddps %ymm4, %ymm6, %ymm13 vminps %ymm0, %ymm9, %ymm4 vminps %ymm1, %ymm9, %ymm7 vminps %ymm6, %ymm9, %ymm9 vminps %ymm2, %ymm10, %ymm15 vminps %ymm15, %ymm4, %ymm15 vminps %ymm8, %ymm11, %ymm4 vminps %ymm4, %ymm7, %ymm7 vminps %ymm13, %ymm12, %ymm4 vminps %ymm4, %ymm9, %ymm4 vmaxps %ymm0, %ymm23, %ymm0 vmaxps %ymm1, %ymm23, %ymm1 vmaxps %ymm6, %ymm23, %ymm6 vmaxps %ymm2, %ymm10, %ymm2 vmaxps %ymm2, %ymm0, %ymm2 vmaxps %ymm8, %ymm11, %ymm0 vmaxps %ymm0, %ymm1, %ymm1 vmaxps %ymm13, %ymm12, %ymm0 vmaxps %ymm0, %ymm6, %ymm0 vshufps $0xb1, %ymm21, %ymm21, %ymm6 # ymm6 = ymm21[1,0,3,2,5,4,7,6] vmaxps %ymm6, %ymm21, %ymm6 vshufpd $0x5, %ymm6, %ymm6, %ymm8 # ymm8 = ymm6[1,0,3,2] vmaxps %ymm8, %ymm6, %ymm6 vextractf128 $0x1, %ymm6, %xmm8 vmaxps %xmm8, %xmm6, %xmm6 vshufps $0xb1, %ymm18, %ymm18, %ymm8 # ymm8 = ymm18[1,0,3,2,5,4,7,6] vmaxps %ymm8, %ymm18, %ymm8 vshufpd $0x5, %ymm8, %ymm8, %ymm9 # ymm9 = ymm8[1,0,3,2] vmaxps %ymm9, %ymm8, %ymm8 vextractf128 $0x1, %ymm8, %xmm9 vmaxps %xmm9, %xmm8, %xmm8 vunpcklps %xmm8, %xmm6, %xmm6 # xmm6 = xmm6[0],xmm8[0],xmm6[1],xmm8[1] vshufps $0xb1, %ymm14, %ymm14, %ymm8 # ymm8 = ymm14[1,0,3,2,5,4,7,6] vmaxps %ymm8, %ymm14, %ymm8 vshufpd $0x5, %ymm8, %ymm8, %ymm9 # ymm9 = ymm8[1,0,3,2] vmaxps %ymm9, %ymm8, %ymm8 vextractf128 $0x1, %ymm8, %xmm9 vmaxps %xmm9, %xmm8, %xmm8 vinsertps $0x28, %xmm8, %xmm6, %xmm6 # xmm6 = xmm6[0,1],xmm8[0],zero vshufps $0xb1, %ymm5, %ymm5, %ymm8 # ymm8 = ymm5[1,0,3,2,5,4,7,6] vminps %ymm8, %ymm5, %ymm5 vshufpd $0x5, %ymm5, %ymm5, %ymm8 # ymm8 = ymm5[1,0,3,2] vminps %ymm8, %ymm5, %ymm5 vextractf128 $0x1, %ymm5, %xmm8 vminps %xmm8, %xmm5, %xmm5 vshufps $0xb1, %ymm3, %ymm3, %ymm8 # ymm8 = ymm3[1,0,3,2,5,4,7,6] vminps %ymm8, %ymm3, %ymm3 vshufpd $0x5, %ymm3, %ymm3, %ymm8 # ymm8 = ymm3[1,0,3,2] vminps %ymm8, %ymm3, %ymm3 vextractf128 $0x1, %ymm3, %xmm8 vminps %xmm8, %xmm3, %xmm3 vunpcklps %xmm3, %xmm5, %xmm3 # xmm3 = xmm5[0],xmm3[0],xmm5[1],xmm3[1] vshufps $0xb1, %ymm17, %ymm17, %ymm5 # ymm5 = ymm17[1,0,3,2,5,4,7,6] vminps %ymm5, %ymm17, %ymm5 vshufpd $0x5, %ymm5, %ymm5, %ymm8 # ymm8 = ymm5[1,0,3,2] vminps %ymm8, %ymm5, %ymm5 vextractf128 $0x1, %ymm5, %xmm8 vminps %xmm8, %xmm5, %xmm5 vinsertps $0x28, %xmm5, %xmm3, %xmm3 # xmm3 = xmm3[0,1],xmm5[0],zero vshufps $0xb1, %ymm15, %ymm15, %ymm5 # ymm5 = ymm15[1,0,3,2,5,4,7,6] vminps %ymm5, %ymm15, %ymm5 vshufpd $0x5, %ymm5, %ymm5, %ymm8 # ymm8 = ymm5[1,0,3,2] vminps %ymm8, %ymm5, %ymm5 vextractf128 $0x1, %ymm5, %xmm8 vminps %xmm8, %xmm5, %xmm5 vshufps $0xb1, %ymm7, %ymm7, %ymm8 # ymm8 = ymm7[1,0,3,2,5,4,7,6] vminps %ymm8, %ymm7, %ymm7 vshufpd $0x5, %ymm7, %ymm7, %ymm8 # ymm8 = ymm7[1,0,3,2] vminps %ymm8, %ymm7, %ymm7 vextractf128 $0x1, %ymm7, %xmm8 vminps %xmm8, %xmm7, %xmm7 vunpcklps %xmm7, %xmm5, %xmm5 # xmm5 = xmm5[0],xmm7[0],xmm5[1],xmm7[1] vshufps $0xb1, %ymm4, %ymm4, %ymm7 # ymm7 = ymm4[1,0,3,2,5,4,7,6] vminps %ymm7, %ymm4, %ymm4 vshufpd $0x5, %ymm4, %ymm4, %ymm7 # ymm7 = ymm4[1,0,3,2] vminps %ymm7, %ymm4, %ymm4 vextractf128 $0x1, %ymm4, %xmm7 vminps %xmm7, %xmm4, %xmm4 vinsertps $0x28, %xmm4, %xmm5, %xmm4 # xmm4 = xmm5[0,1],xmm4[0],zero vminps %xmm4, %xmm3, %xmm3 vshufps $0xb1, %ymm2, %ymm2, %ymm4 # ymm4 = ymm2[1,0,3,2,5,4,7,6] vmaxps %ymm4, %ymm2, %ymm2 vshufpd $0x5, %ymm2, %ymm2, %ymm4 # ymm4 = ymm2[1,0,3,2] vmaxps %ymm4, %ymm2, %ymm2 vextractf128 $0x1, %ymm2, %xmm4 vmaxps %xmm4, %xmm2, %xmm2 vshufps $0xb1, %ymm1, %ymm1, %ymm4 # ymm4 = ymm1[1,0,3,2,5,4,7,6] vmaxps %ymm4, %ymm1, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm4 # ymm4 = ymm1[1,0,3,2] vmaxps %ymm4, %ymm1, %ymm1 vextractf128 $0x1, %ymm1, %xmm4 vmaxps %xmm4, %xmm1, %xmm1 vunpcklps %xmm1, %xmm2, %xmm1 # xmm1 = xmm2[0],xmm1[0],xmm2[1],xmm1[1] vshufps $0xb1, %ymm0, %ymm0, %ymm2 # ymm2 = ymm0[1,0,3,2,5,4,7,6] vmaxps %ymm2, %ymm0, %ymm0 vshufpd $0x5, %ymm0, %ymm0, %ymm2 # ymm2 = ymm0[1,0,3,2] vmaxps %ymm2, %ymm0, %ymm0 vextractf128 $0x1, %ymm0, %xmm2 vmaxps %xmm2, %xmm0, %xmm0 vinsertps $0x28, %xmm0, %xmm1, %xmm0 # xmm0 = xmm1[0,1],xmm0[0],zero vmaxps %xmm0, %xmm6, %xmm0 vbroadcastss 0x94c9c(%rip), %xmm1 # 0x1f20ec4 vandps %xmm1, %xmm3, %xmm2 vandps %xmm1, %xmm0, %xmm1 vmaxps %xmm1, %xmm2, %xmm1 vmovshdup %xmm1, %xmm2 # xmm2 = xmm1[1,1,3,3] vmaxss %xmm1, %xmm2, %xmm2 vshufpd $0x1, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[1,0] vmaxss %xmm2, %xmm1, %xmm1 vmulss 0x64d97(%rip), %xmm1, %xmm1 # 0x1ef0fe4 vbroadcastss %xmm1, %xmm1 vsubps %xmm1, %xmm3, %xmm2 vaddps %xmm1, %xmm0, %xmm0 vmovaps %xmm2, (%rax) vmovaps %xmm0, 0x10(%rax) popq %rbx popq %r12 popq %r13 popq %r14 popq %r15 popq %rbp vzeroupper retq nop
/embree[P]embree/kernels/common/scene_curves.cpp
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)1, embree::avx512::HermiteCurveGeometryInterface, embree::HermiteCurveT>::computeDirection(unsigned int) const
Vec3fa computeDirection(unsigned int primID) const { const Curve3ff c = getCurveScaledRadius(primID); const Vec3fa p0 = c.begin(); const Vec3fa p3 = c.end(); const Vec3fa axis1 = p3 - p0; return axis1; }
movl %edx, %eax imulq 0x68(%rsi), %rax movq 0x58(%rsi), %rcx movq 0x188(%rsi), %rdx movl (%rcx,%rax), %eax movq (%rdx), %rcx movq 0x10(%rdx), %rdx leal 0x1(%rax), %r8d movq %rax, %r9 imulq %rdx, %r9 vmovaps (%rcx,%r9), %xmm0 imulq %rdx, %r8 vmovaps (%rcx,%r8), %xmm1 movq %rdi, %rax vmovss 0x24c(%rsi), %xmm2 vmulss 0xc(%rcx,%r9), %xmm2, %xmm3 vinsertps $0x30, %xmm3, %xmm0, %xmm0 # xmm0 = xmm0[0,1,2],xmm3[0] vmulss 0xc(%rcx,%r8), %xmm2, %xmm2 vinsertps $0x30, %xmm2, %xmm1, %xmm1 # xmm1 = xmm1[0,1,2],xmm2[0] vsubps %xmm0, %xmm1, %xmm0 vmovaps %xmm0, (%rdi) retq nop
/embree[P]embree/kernels/common/scene_curves.cpp
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)1, embree::avx512::HermiteCurveGeometryInterface, embree::HermiteCurveT>::vbounds(embree::Vec3fa const&, float, float, embree::LinearSpace3<embree::Vec3fa> const&, unsigned long, unsigned long) const
BBox3fa vbounds(const Vec3fa& ofs, const float scale, const float r_scale0, const LinearSpace3fa& space, size_t i, size_t itime = 0) const { return bounds(ofs,scale,r_scale0,space,i,itime); }
pushq %r15 pushq %r14 pushq %rbx movq %rdi, %rax vmulss %xmm1, %xmm0, %xmm1 imulq 0x68(%rsi), %r8 movq 0x58(%rsi), %rdi movq 0x188(%rsi), %r11 movl (%rdi,%r8), %edi imulq $0x38, %r9, %r9 movq (%r11,%r9), %r10 movq 0x10(%r11,%r9), %r11 movq %r11, %rbx imulq %rdi, %rbx vmovaps (%r10,%rbx), %xmm2 leal 0x1(%rdi), %r14d imulq %r14, %r11 vmovaps (%r10,%r11), %xmm3 movq 0x1c8(%rsi), %r15 movq (%r15,%r9), %r8 movq 0x10(%r15,%r9), %r9 imulq %r9, %rdi imulq %r14, %r9 vmovaps (%rdx), %xmm4 vsubps %xmm4, %xmm2, %xmm2 vbroadcastss %xmm0, %xmm6 vmulps %xmm2, %xmm6, %xmm0 vbroadcastss %xmm0, %xmm2 vshufps $0x55, %xmm0, %xmm0, %xmm5 # xmm5 = xmm0[1,1,1,1] vmovaps (%rcx), %xmm7 vshufps $0xaa, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[2,2,2,2] vmovaps 0x10(%rcx), %xmm8 vmovaps 0x20(%rcx), %xmm9 vmulps %xmm0, %xmm9, %xmm10 vfmadd231ps %xmm5, %xmm8, %xmm10 # xmm10 = (xmm8 * xmm5) + xmm10 vfmadd231ps %xmm2, %xmm7, %xmm10 # xmm10 = (xmm7 * xmm2) + xmm10 vmovss 0x24c(%rsi), %xmm11 vmulss 0xc(%r10,%rbx), %xmm11, %xmm0 vmulss %xmm0, %xmm1, %xmm0 vbroadcastss %xmm0, %ymm0 vinsertps $0x30, %xmm0, %xmm10, %xmm12 # xmm12 = xmm10[0,1,2],xmm0[0] vsubps %xmm4, %xmm3, %xmm2 vmulps %xmm2, %xmm6, %xmm2 vbroadcastss %xmm2, %xmm3 vshufps $0x55, %xmm2, %xmm2, %xmm4 # xmm4 = xmm2[1,1,1,1] vshufps $0xaa, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[2,2,2,2] vmulps %xmm2, %xmm9, %xmm2 vfmadd231ps %xmm4, %xmm8, %xmm2 # xmm2 = (xmm8 * xmm4) + xmm2 vmulss 0xc(%r10,%r11), %xmm11, %xmm4 vfmadd231ps %xmm3, %xmm7, %xmm2 # xmm2 = (xmm7 * xmm3) + xmm2 vmulss %xmm4, %xmm1, %xmm3 vbroadcastss %xmm3, %ymm5 vinsertps $0x30, %xmm5, %xmm2, %xmm3 # xmm3 = xmm2[0,1,2],xmm5[0] vmulps (%r8,%rdi), %xmm6, %xmm4 vbroadcastss %xmm4, %xmm13 vshufps $0x55, %xmm4, %xmm4, %xmm14 # xmm14 = xmm4[1,1,1,1] vshufps $0xaa, %xmm4, %xmm4, %xmm4 # xmm4 = xmm4[2,2,2,2] vmulps %xmm4, %xmm9, %xmm4 vfmadd231ps %xmm14, %xmm8, %xmm4 # xmm4 = (xmm8 * xmm14) + xmm4 vfmadd231ps %xmm13, %xmm7, %xmm4 # xmm4 = (xmm7 * xmm13) + xmm4 vmulss 0xc(%r8,%rdi), %xmm11, %xmm13 vmulss %xmm1, %xmm13, %xmm13 vinsertps $0x30, %xmm13, %xmm4, %xmm4 # xmm4 = xmm4[0,1,2],xmm13[0] vmulps (%r8,%r9), %xmm6, %xmm6 vbroadcastss %xmm6, %xmm13 vshufps $0x55, %xmm6, %xmm6, %xmm14 # xmm14 = xmm6[1,1,1,1] vshufps $0xaa, %xmm6, %xmm6, %xmm6 # xmm6 = xmm6[2,2,2,2] vmulps %xmm6, %xmm9, %xmm6 vfmadd231ps %xmm14, %xmm8, %xmm6 # xmm6 = (xmm8 * xmm14) + xmm6 vfmadd231ps %xmm13, %xmm7, %xmm6 # xmm6 = (xmm7 * xmm13) + xmm6 vmulss 0xc(%r8,%r9), %xmm11, %xmm7 vmulss %xmm7, %xmm1, %xmm1 vinsertps $0x30, %xmm1, %xmm6, %xmm1 # xmm1 = xmm6[0,1,2],xmm1[0] vbroadcastss 0xce7f8(%rip), %xmm6 # 0x1f5d46c vfnmadd213ps %xmm12, %xmm6, %xmm4 # xmm4 = -(xmm6 * xmm4) + xmm12 vfmadd213ps %xmm3, %xmm6, %xmm1 # xmm1 = (xmm6 * xmm1) + xmm3 vbroadcastss %xmm10, %ymm6 vbroadcastss 0x83a78(%rip), %ymm3 # 0x1f12704 vpermps %ymm10, %ymm3, %ymm7 vbroadcastss 0x92242(%rip), %ymm12 # 0x1f20edc vpermps %ymm10, %ymm12, %ymm8 vbroadcastss %xmm4, %ymm13 vpermps %ymm4, %ymm3, %ymm11 vpermps %ymm4, %ymm12, %ymm9 vbroadcastss 0x92221(%rip), %ymm14 # 0x1f20ed8 vpermps %ymm4, %ymm14, %ymm10 vbroadcastss %xmm1, %ymm15 vpermps %ymm1, %ymm3, %ymm16 vpermps %ymm1, %ymm12, %ymm17 vpermps %ymm1, %ymm14, %ymm14 vbroadcastss %xmm2, %ymm18 vpermps %ymm2, %ymm3, %ymm19 leaq 0x2985ff(%rip), %rcx # 0x21272e4 vmovups 0x1dc(%rcx), %ymm20 vmovups 0x660(%rcx), %ymm21 vmovups 0xae4(%rcx), %ymm22 vmovups 0xf68(%rcx), %ymm4 vpermps %ymm2, %ymm12, %ymm12 vmulps %ymm4, %ymm18, %ymm1 vmulps %ymm4, %ymm19, %ymm2 vmulps %ymm4, %ymm12, %ymm3 vmulps %ymm4, %ymm5, %ymm4 vfmadd231ps %ymm15, %ymm22, %ymm1 # ymm1 = (ymm22 * ymm15) + ymm1 vfmadd231ps %ymm16, %ymm22, %ymm2 # ymm2 = (ymm22 * ymm16) + ymm2 vfmadd231ps %ymm17, %ymm22, %ymm3 # ymm3 = (ymm22 * ymm17) + ymm3 vfmadd231ps %ymm22, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm22) + ymm4 vfmadd231ps %ymm13, %ymm21, %ymm1 # ymm1 = (ymm21 * ymm13) + ymm1 vfmadd231ps %ymm11, %ymm21, %ymm2 # ymm2 = (ymm21 * ymm11) + ymm2 vfmadd231ps %ymm9, %ymm21, %ymm3 # ymm3 = (ymm21 * ymm9) + ymm3 vfmadd231ps %ymm21, %ymm10, %ymm4 # ymm4 = (ymm10 * ymm21) + ymm4 vfmadd231ps %ymm6, %ymm20, %ymm1 # ymm1 = (ymm20 * ymm6) + ymm1 vfmadd231ps %ymm7, %ymm20, %ymm2 # ymm2 = (ymm20 * ymm7) + ymm2 vfmadd231ps %ymm8, %ymm20, %ymm3 # ymm3 = (ymm20 * ymm8) + ymm3 vmovups 0x13ec(%rcx), %ymm21 vmovups 0x1870(%rcx), %ymm22 vmovups 0x1cf4(%rcx), %ymm23 vmovups 0x2178(%rcx), %ymm24 vfmadd231ps %ymm20, %ymm0, %ymm4 # ymm4 = (ymm0 * ymm20) + ymm4 vmulps %ymm24, %ymm18, %ymm18 vmulps %ymm24, %ymm19, %ymm19 vmulps %ymm24, %ymm12, %ymm12 vmulps %ymm24, %ymm5, %ymm5 vfmadd231ps %ymm15, %ymm23, %ymm18 # ymm18 = (ymm23 * ymm15) + ymm18 vfmadd231ps %ymm16, %ymm23, %ymm19 # ymm19 = (ymm23 * ymm16) + ymm19 vfmadd231ps %ymm17, %ymm23, %ymm12 # ymm12 = (ymm23 * ymm17) + ymm12 vfmadd231ps %ymm14, %ymm23, %ymm5 # ymm5 = (ymm23 * ymm14) + ymm5 vfmadd231ps %ymm13, %ymm22, %ymm18 # ymm18 = (ymm22 * ymm13) + ymm18 vfmadd231ps %ymm11, %ymm22, %ymm19 # ymm19 = (ymm22 * ymm11) + ymm19 vfmadd231ps %ymm9, %ymm22, %ymm12 # ymm12 = (ymm22 * ymm9) + ymm12 vfmadd231ps %ymm10, %ymm22, %ymm5 # ymm5 = (ymm22 * ymm10) + ymm5 vfmadd231ps %ymm6, %ymm21, %ymm18 # ymm18 = (ymm21 * ymm6) + ymm18 vfmadd231ps %ymm7, %ymm21, %ymm19 # ymm19 = (ymm21 * ymm7) + ymm19 vfmadd231ps %ymm8, %ymm21, %ymm12 # ymm12 = (ymm21 * ymm8) + ymm12 vbroadcastss 0x926dc(%rip), %ymm6 # 0x1f214d0 vfmadd231ps %ymm0, %ymm21, %ymm5 # ymm5 = (ymm21 * ymm0) + ymm5 vmulps %ymm6, %ymm18, %ymm0 vmulps %ymm6, %ymm19, %ymm7 vmulps %ymm6, %ymm12, %ymm8 vmulps %ymm6, %ymm5, %ymm5 vxorps %xmm6, %xmm6, %xmm6 vblendps $0x1, %ymm6, %ymm0, %ymm9 # ymm9 = ymm6[0],ymm0[1,2,3,4,5,6,7] vblendps $0x1, %ymm6, %ymm7, %ymm10 # ymm10 = ymm6[0],ymm7[1,2,3,4,5,6,7] vblendps $0x1, %ymm6, %ymm8, %ymm11 # ymm11 = ymm6[0],ymm8[1,2,3,4,5,6,7] vblendps $0x1, %ymm6, %ymm5, %ymm12 # ymm12 = ymm6[0],ymm5[1,2,3,4,5,6,7] vsubps %ymm9, %ymm1, %ymm9 vsubps %ymm10, %ymm2, %ymm10 vsubps %ymm11, %ymm3, %ymm11 vsubps %ymm12, %ymm4, %ymm12 vblendps $0x80, %ymm6, %ymm0, %ymm0 # ymm0 = ymm0[0,1,2,3,4,5,6],ymm6[7] vblendps $0x80, %ymm6, %ymm7, %ymm7 # ymm7 = ymm7[0,1,2,3,4,5,6],ymm6[7] vblendps $0x80, %ymm6, %ymm8, %ymm8 # ymm8 = ymm8[0,1,2,3,4,5,6],ymm6[7] vblendps $0x80, %ymm6, %ymm5, %ymm5 # ymm5 = ymm5[0,1,2,3,4,5,6],ymm6[7] vaddps %ymm0, %ymm1, %ymm0 vaddps %ymm7, %ymm2, %ymm6 vaddps %ymm3, %ymm8, %ymm7 vaddps %ymm5, %ymm4, %ymm5 vbroadcastss 0x5cbb1(%rip), %ymm8 # 0x1eeba20 vminps %ymm1, %ymm8, %ymm13 vminps %ymm2, %ymm8, %ymm14 vminps %ymm3, %ymm8, %ymm15 vminps %ymm4, %ymm8, %ymm8 vminps %ymm0, %ymm9, %ymm16 vminps %ymm16, %ymm13, %ymm13 vminps %ymm6, %ymm10, %ymm16 vminps %ymm16, %ymm14, %ymm14 vminps %ymm7, %ymm11, %ymm16 vminps %ymm16, %ymm15, %ymm15 vminps %ymm5, %ymm12, %ymm16 vminps %ymm16, %ymm8, %ymm8 vbroadcastss 0x5dccb(%rip), %ymm16 # 0x1eecb84 vmaxps %ymm1, %ymm16, %ymm1 vmaxps %ymm2, %ymm16, %ymm2 vmaxps %ymm3, %ymm16, %ymm3 vmaxps %ymm4, %ymm16, %ymm4 vmaxps %ymm0, %ymm9, %ymm0 vmaxps %ymm0, %ymm1, %ymm0 vmaxps %ymm6, %ymm10, %ymm1 vmaxps %ymm1, %ymm2, %ymm1 vmaxps %ymm7, %ymm11, %ymm2 vmaxps %ymm2, %ymm3, %ymm2 vmaxps %ymm5, %ymm12, %ymm3 vmaxps %ymm3, %ymm4, %ymm3 vshufps $0xb1, %ymm13, %ymm13, %ymm4 # ymm4 = ymm13[1,0,3,2,5,4,7,6] vminps %ymm4, %ymm13, %ymm4 vshufpd $0x5, %ymm4, %ymm4, %ymm5 # ymm5 = ymm4[1,0,3,2] vminps %ymm5, %ymm4, %ymm4 vextractf128 $0x1, %ymm4, %xmm5 vminps %xmm5, %xmm4, %xmm4 vshufps $0xb1, %ymm14, %ymm14, %ymm5 # ymm5 = ymm14[1,0,3,2,5,4,7,6] vminps %ymm5, %ymm14, %ymm5 vshufpd $0x5, %ymm5, %ymm5, %ymm6 # ymm6 = ymm5[1,0,3,2] vminps %ymm6, %ymm5, %ymm5 vextractf128 $0x1, %ymm5, %xmm6 vminps %xmm6, %xmm5, %xmm5 vunpcklps %xmm5, %xmm4, %xmm4 # xmm4 = xmm4[0],xmm5[0],xmm4[1],xmm5[1] vshufps $0xb1, %ymm15, %ymm15, %ymm5 # ymm5 = ymm15[1,0,3,2,5,4,7,6] vminps %ymm5, %ymm15, %ymm5 vshufpd $0x5, %ymm5, %ymm5, %ymm6 # ymm6 = ymm5[1,0,3,2] vminps %ymm6, %ymm5, %ymm5 vextractf128 $0x1, %ymm5, %xmm6 vminps %xmm6, %xmm5, %xmm5 vinsertps $0x28, %xmm5, %xmm4, %xmm4 # xmm4 = xmm4[0,1],xmm5[0],zero vshufps $0xb1, %ymm0, %ymm0, %ymm5 # ymm5 = ymm0[1,0,3,2,5,4,7,6] vmaxps %ymm5, %ymm0, %ymm0 vshufpd $0x5, %ymm0, %ymm0, %ymm5 # ymm5 = ymm0[1,0,3,2] vmaxps %ymm5, %ymm0, %ymm0 vextractf128 $0x1, %ymm0, %xmm5 vmaxps %xmm5, %xmm0, %xmm0 vshufps $0xb1, %ymm1, %ymm1, %ymm5 # ymm5 = ymm1[1,0,3,2,5,4,7,6] vmaxps %ymm5, %ymm1, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm5 # ymm5 = ymm1[1,0,3,2] vmaxps %ymm5, %ymm1, %ymm1 vextractf128 $0x1, %ymm1, %xmm5 vmaxps %xmm5, %xmm1, %xmm1 vunpcklps %xmm1, %xmm0, %xmm0 # xmm0 = xmm0[0],xmm1[0],xmm0[1],xmm1[1] vshufps $0xb1, %ymm2, %ymm2, %ymm1 # ymm1 = ymm2[1,0,3,2,5,4,7,6] vmaxps %ymm1, %ymm2, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vmaxps %ymm2, %ymm1, %ymm1 vextractf128 $0x1, %ymm1, %xmm2 vmaxps %xmm2, %xmm1, %xmm1 vinsertps $0x28, %xmm1, %xmm0, %xmm0 # xmm0 = xmm0[0,1],xmm1[0],zero vshufps $0xb1, %ymm8, %ymm8, %ymm1 # ymm1 = ymm8[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm8, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vextractf128 $0x1, %ymm1, %xmm2 vminss %xmm2, %xmm1, %xmm1 vshufps $0xb1, %ymm3, %ymm3, %ymm2 # ymm2 = ymm3[1,0,3,2,5,4,7,6] vmaxps %ymm2, %ymm3, %ymm2 vshufpd $0x5, %ymm2, %ymm2, %ymm3 # ymm3 = ymm2[1,0,3,2] vmaxps %ymm3, %ymm2, %ymm2 vextractf128 $0x1, %ymm2, %xmm3 vmaxss %xmm3, %xmm2, %xmm2 vbroadcastss 0x91ed2(%rip), %xmm3 # 0x1f20ec4 vandps %xmm3, %xmm1, %xmm1 vandps %xmm3, %xmm2, %xmm2 vmaxss %xmm1, %xmm2, %xmm1 vbroadcastss %xmm1, %xmm1 vsubps %xmm1, %xmm4, %xmm2 vaddps %xmm1, %xmm0, %xmm0 vandps %xmm3, %xmm2, %xmm1 vandps %xmm3, %xmm0, %xmm3 vmaxps %xmm3, %xmm1, %xmm1 vmovshdup %xmm1, %xmm3 # xmm3 = xmm1[1,1,3,3] vmaxss %xmm1, %xmm3, %xmm3 vshufpd $0x1, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[1,0] vmaxss %xmm3, %xmm1, %xmm1 vmulss 0x61fb4(%rip), %xmm1, %xmm1 # 0x1ef0fe4 vbroadcastss %xmm1, %xmm1 vsubps %xmm1, %xmm2, %xmm2 vaddps %xmm1, %xmm0, %xmm0 vmovaps %xmm2, (%rax) vmovaps %xmm0, 0x10(%rax) popq %rbx popq %r14 popq %r15 vzeroupper retq nop
/embree[P]embree/kernels/common/scene_curves.cpp
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)1, embree::avx512::HermiteCurveGeometryInterface, embree::HermiteCurveT>::vlinearBounds(embree::LinearSpace3<embree::Vec3fa> const&, unsigned long, embree::BBox<float> const&) const
LBBox3fa vlinearBounds(const LinearSpace3fa& space, size_t primID, const BBox1f& time_range) const { return linearBounds(space,primID,time_range); }
pushq %rbp pushq %r15 pushq %r14 pushq %r13 pushq %r12 pushq %rbx subq $0x138, %rsp # imm = 0x138 leaq 0xc8(%rsp), %rax movq %rcx, (%rax) leaq 0xb0(%rsp), %r14 movq %rdx, (%r14) movq %rax, 0x8(%r14) movq %rsi, 0x10(%r14) vmovss 0x28(%rsi), %xmm4 vmovss 0x2c(%rsi), %xmm0 vmovss (%r8), %xmm1 vmovss 0x4(%r8), %xmm2 vsubss %xmm0, %xmm1, %xmm1 vmovss 0x30(%rsi), %xmm3 vsubss %xmm0, %xmm3, %xmm3 vdivss %xmm3, %xmm1, %xmm1 vsubss %xmm0, %xmm2, %xmm0 vdivss %xmm3, %xmm0, %xmm2 vmovss %xmm1, 0x4(%rsp) vmulss %xmm1, %xmm4, %xmm0 vmovss %xmm0, 0x20(%rsp) vroundss $0x9, %xmm0, %xmm0, %xmm0 vmovss %xmm2, 0x50(%rsp) vmulss %xmm2, %xmm4, %xmm1 vmovss %xmm1, 0x40(%rsp) vroundss $0xa, %xmm1, %xmm1, %xmm1 vxorps %xmm2, %xmm2, %xmm2 vmaxss %xmm2, %xmm0, %xmm3 vminss %xmm4, %xmm1, %xmm2 vmovss %xmm3, 0x10(%rsp) vcvttss2si %xmm3, %r15d vmovss %xmm2, 0x30(%rsp) vcvttss2si %xmm2, %r12d vcvttss2si %xmm0, %eax movq %rdi, %rbx testl %eax, %eax movl $0xffffffff, %r13d # imm = 0xFFFFFFFF cmovnsl %eax, %r13d vcvttss2si %xmm1, %eax vmovss %xmm4, 0xc(%rsp) vcvttss2si %xmm4, %ebp incl %ebp cmpl %ebp, %eax cmovll %eax, %ebp movslq %r15d, %rdx leaq 0x80(%rsp), %rdi movq %r14, %rsi callq 0x1e902ee movslq %r12d, %rdx leaq 0x60(%rsp), %rdi movq %r14, %rsi callq 0x1e902ee movl %ebp, %eax subl %r13d, %eax cmpl $0x1, %eax jne 0x1e8f58d vmovss 0x20(%rsp), %xmm0 vsubss 0x10(%rsp), %xmm0, %xmm0 vxorps %xmm8, %xmm8, %xmm8 vmaxss %xmm8, %xmm0, %xmm0 vmovss 0x5d20e(%rip), %xmm1 # 0x1eec714 vsubss %xmm0, %xmm1, %xmm2 vbroadcastss %xmm0, %xmm0 vmovaps 0x60(%rsp), %xmm3 vmovaps 0x70(%rsp), %xmm4 vmulps %xmm3, %xmm0, %xmm5 vbroadcastss %xmm2, %xmm2 vmovaps 0x80(%rsp), %xmm6 vmovaps 0x90(%rsp), %xmm7 vfmadd231ps %xmm6, %xmm2, %xmm5 # xmm5 = (xmm2 * xmm6) + xmm5 vmulps %xmm4, %xmm0, %xmm0 vfmadd231ps %xmm2, %xmm7, %xmm0 # xmm0 = (xmm7 * xmm2) + xmm0 vmovaps %xmm5, (%rbx) vmovaps %xmm0, 0x10(%rbx) vmovss 0x30(%rsp), %xmm0 vsubss 0x40(%rsp), %xmm0, %xmm0 vmaxss %xmm8, %xmm0, %xmm0 vsubss %xmm0, %xmm1, %xmm1 vbroadcastss %xmm0, %xmm0 vmulps %xmm6, %xmm0, %xmm2 vbroadcastss %xmm1, %xmm1 vfmadd231ps %xmm3, %xmm1, %xmm2 # xmm2 = (xmm1 * xmm3) + xmm2 vmulps %xmm7, %xmm0, %xmm0 vfmadd231ps %xmm4, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm4) + xmm0 vmovaps %xmm2, 0x20(%rbx) vmovaps %xmm0, 0x30(%rbx) jmp 0x1e8f770 incl %r15d movslq %r15d, %rdx leaq 0x110(%rsp), %r14 leaq 0xb0(%rsp), %r15 movq %r14, %rdi movq %r15, %rsi callq 0x1e902ee decl %r12d movslq %r12d, %rdx leaq 0xf0(%rsp), %r12 movq %r12, %rdi movq %r15, %rsi callq 0x1e902ee vmovss 0x20(%rsp), %xmm0 vsubss 0x10(%rsp), %xmm0, %xmm0 vxorps %xmm5, %xmm5, %xmm5 vmaxss %xmm5, %xmm0, %xmm0 vmovss 0x5d131(%rip), %xmm4 # 0x1eec714 vbroadcastss %xmm0, %xmm1 vmulps (%r14), %xmm1, %xmm2 vsubss %xmm0, %xmm4, %xmm0 vbroadcastss %xmm0, %xmm0 vfmadd231ps 0x80(%rsp), %xmm0, %xmm2 # xmm2 = (xmm0 * mem) + xmm2 vmulps 0x10(%r14), %xmm1, %xmm3 vfmadd231ps 0x90(%rsp), %xmm0, %xmm3 # xmm3 = (xmm0 * mem) + xmm3 vmovss 0x30(%rsp), %xmm0 vsubss 0x40(%rsp), %xmm0, %xmm0 vmaxss %xmm5, %xmm0, %xmm0 vsubss %xmm0, %xmm4, %xmm1 vbroadcastss %xmm0, %xmm0 vmulps (%r12), %xmm0, %xmm5 vbroadcastss %xmm1, %xmm1 vfmadd231ps 0x60(%rsp), %xmm1, %xmm5 # xmm5 = (xmm1 * mem) + xmm5 vmulps 0x10(%r12), %xmm0, %xmm6 vfmadd231ps 0x70(%rsp), %xmm1, %xmm6 # xmm6 = (xmm1 * mem) + xmm6 leal 0x1(%r13), %eax cmpl %ebp, %eax jge 0x1e8f75d vmovss 0x4(%rsp), %xmm1 vmovss 0x50(%rsp), %xmm0 vsubss %xmm1, %xmm0, %xmm0 vmovss %xmm0, 0x8(%rsp) movl %eax, %r14d notl %r13d addl %ebp, %r13d leaq 0xd0(%rsp), %r15 leaq 0xb0(%rsp), %r12 vmovaps %xmm6, 0x10(%rsp) vmovaps %xmm5, 0x20(%rsp) vmovaps %xmm3, 0x30(%rsp) vmovaps %xmm2, 0x40(%rsp) vcvtsi2ss %r14d, %xmm8, %xmm0 vdivss 0xc(%rsp), %xmm0, %xmm0 vsubss %xmm1, %xmm0, %xmm0 vdivss 0x8(%rsp), %xmm0, %xmm0 vsubss %xmm0, %xmm4, %xmm1 vbroadcastss %xmm0, %xmm0 vmulps %xmm0, %xmm5, %xmm4 vbroadcastss %xmm1, %xmm1 vfmadd231ps %xmm2, %xmm1, %xmm4 # xmm4 = (xmm1 * xmm2) + xmm4 vmovaps %xmm4, 0x50(%rsp) vmulps %xmm0, %xmm6, %xmm0 vfmadd231ps %xmm1, %xmm3, %xmm0 # xmm0 = (xmm3 * xmm1) + xmm0 vmovaps %xmm0, 0xa0(%rsp) movq %r15, %rdi movq %r12, %rsi movq %r14, %rdx callq 0x1e902ee vmovaps 0x10(%rsp), %xmm6 vmovaps 0x20(%rsp), %xmm5 vmovss 0x5d012(%rip), %xmm4 # 0x1eec714 vmovaps 0x30(%rsp), %xmm3 vmovaps 0x40(%rsp), %xmm2 vmovaps 0xd0(%rsp), %xmm0 vsubps 0x50(%rsp), %xmm0, %xmm0 vmovaps 0xe0(%rsp), %xmm1 vsubps 0xa0(%rsp), %xmm1, %xmm1 vxorps %xmm7, %xmm7, %xmm7 vminps %xmm7, %xmm0, %xmm0 vmaxps %xmm7, %xmm1, %xmm1 vaddps %xmm0, %xmm2, %xmm2 vaddps %xmm0, %xmm5, %xmm5 vaddps %xmm1, %xmm3, %xmm3 vaddps %xmm1, %xmm6, %xmm6 vmovss 0x4(%rsp), %xmm1 incq %r14 decl %r13d jne 0x1e8f684 vmovaps %xmm2, (%rbx) vmovaps %xmm3, 0x10(%rbx) vmovaps %xmm5, 0x20(%rbx) vmovaps %xmm6, 0x30(%rbx) movq %rbx, %rax addq $0x138, %rsp # imm = 0x138 popq %rbx popq %r12 popq %r13 popq %r14 popq %r15 popq %rbp retq nop
/embree[P]embree/kernels/common/scene_curves.cpp
void embree::avx512::HermiteCurveGeometryInterface<embree::HermiteCurveT>::interpolate_impl<4>(RTCInterpolateArguments const*)
void interpolate_impl(const RTCInterpolateArguments* const args) { unsigned int primID = args->primID; float u = args->u; RTCBufferType bufferType = args->bufferType; unsigned int bufferSlot = args->bufferSlot; float* P = args->P; float* dPdu = args->dPdu; float* ddPdudu = args->ddPdudu; unsigned int valueCount = args->valueCount; /* we interpolate vertex attributes linearly for hermite basis */ if (bufferType == RTC_BUFFER_TYPE_VERTEX_ATTRIBUTE) { assert(bufferSlot <= vertexAttribs.size()); const char* vsrc = vertexAttribs[bufferSlot].getPtr(); const size_t vstride = vertexAttribs[bufferSlot].getStride(); for (unsigned int i=0; i<valueCount; i+=N) { const size_t ofs = i*sizeof(float); const size_t index = curves[primID]; const vbool<N> valid = vint<N>((int)i)+vint<N>(step) < vint<N>((int)valueCount); const vfloat<N> p0 = mem<vfloat<N>>::loadu(valid,(float*)&vsrc[(index+0)*vstride+ofs]); const vfloat<N> p1 = mem<vfloat<N>>::loadu(valid,(float*)&vsrc[(index+1)*vstride+ofs]); if (P ) mem<vfloat<N>>::storeu(valid,P+i, madd(1.0f-u,p0,u*p1)); if (dPdu ) mem<vfloat<N>>::storeu(valid,dPdu+i, p1-p0); if (ddPdudu) mem<vfloat<N>>::storeu(valid,ddPdudu+i,vfloat<N>(zero)); } } /* interpolation for vertex buffers */ else { assert(bufferSlot < numTimeSteps); const char* vsrc = vertices[bufferSlot].getPtr(); const char* tsrc = tangents[bufferSlot].getPtr(); const size_t vstride = vertices[bufferSlot].getStride(); const size_t tstride = vertices[bufferSlot].getStride(); for (unsigned int i=0; i<valueCount; i+=N) { const size_t ofs = i*sizeof(float); const size_t index = curves[primID]; const vbool<N> valid = vint<N>((int)i)+vint<N>(step) < vint<N>((int)valueCount); const vfloat<N> p0 = mem<vfloat<N>>::loadu(valid,(float*)&vsrc[(index+0)*vstride+ofs]); const vfloat<N> p1 = mem<vfloat<N>>::loadu(valid,(float*)&vsrc[(index+1)*vstride+ofs]); const vfloat<N> t0 = mem<vfloat<N>>::loadu(valid,(float*)&tsrc[(index+0)*tstride+ofs]); const vfloat<N> t1 = mem<vfloat<N>>::loadu(valid,(float*)&tsrc[(index+1)*tstride+ofs]); const HermiteCurveT<vfloat<N>> curve(p0,t0,p1,t1); if (P ) mem<vfloat<N>>::storeu(valid,P+i, curve.eval(u)); if (dPdu ) mem<vfloat<N>>::storeu(valid,dPdu+i, curve.eval_du(u)); if (ddPdudu) mem<vfloat<N>>::storeu(valid,ddPdudu+i,curve.eval_dudu(u)); } } }
pushq %rbp pushq %r15 pushq %r14 pushq %r13 pushq %r12 pushq %rbx movl 0x8(%rsi), %eax vmovss 0xc(%rsi), %xmm9 movl 0x18(%rsi), %r10d movq 0x20(%rsi), %rcx movq 0x28(%rsi), %rdx movq 0x38(%rsi), %r8 movl 0x50(%rsi), %r9d cmpl $0x2, 0x14(%rsi) jne 0x1e8fc4e testl %r9d, %r9d je 0x1e8fe41 movq 0x240(%rdi), %r11 imulq $0x38, %r10, %r10 movq (%r11,%r10), %rsi movl 0x10(%r11,%r10), %r10d vpbroadcastd %r9d, %xmm0 vmovss 0x5cb6f(%rip), %xmm1 # 0x1eec714 vsubss %xmm9, %xmm1, %xmm1 vbroadcastss %xmm1, %xmm1 vbroadcastss %xmm9, %xmm2 xorl %ebx, %ebx vpmovsxbd 0x91915(%rip), %xmm3 # 0x1f214d4 vxorps %xmm4, %xmm4, %xmm4 movq 0x58(%rdi), %r11 movq 0x68(%rdi), %r14 imulq %rax, %r14 movl (%r11,%r14), %r14d movq %r10, %r15 imulq %r14, %r15 addq %rsi, %r15 incq %r14 imulq %r10, %r14 addq %rsi, %r14 movl %ebx, %r11d vpbroadcastd %ebx, %xmm5 vpor %xmm3, %xmm5, %xmm5 vpcmpgtd %xmm5, %xmm0, %k1 vmovups (%r15,%r11,4), %xmm5 {%k1} {z} vmovups (%r14,%r11,4), %xmm6 {%k1} {z} testq %rcx, %rcx je 0x1e8fc1d vmulps %xmm6, %xmm2, %xmm7 vfmadd231ps %xmm5, %xmm1, %xmm7 # xmm7 = (xmm1 * xmm5) + xmm7 vmovups %xmm7, (%rcx,%r11,4) {%k1} testq %rdx, %rdx je 0x1e8fc2d vsubps %xmm5, %xmm6, %xmm5 vmovups %xmm5, (%rdx,%r11,4) {%k1} testq %r8, %r8 je 0x1e8fc39 vmovups %xmm4, (%r8,%r11,4) {%k1} addl $0x4, %r11d movl %r11d, %ebx cmpl %r9d, %r11d jb 0x1e8fbc3 jmp 0x1e8fe41 testl %r9d, %r9d je 0x1e8fe41 imulq $0x38, %r10, %r11 movq 0x188(%rdi), %rbx movq 0x1c8(%rdi), %r10 movq (%rbx,%r11), %rsi movq (%r10,%r11), %r10 movl 0x10(%rbx,%r11), %r11d vpbroadcastd %r9d, %xmm0 vmovss 0x5ca90(%rip), %xmm1 # 0x1eec714 vsubss %xmm9, %xmm1, %xmm10 vmulss %xmm10, %xmm10, %xmm5 vmovss 0x61356(%rip), %xmm6 # 0x1ef0fec vmulss %xmm5, %xmm10, %xmm1 vmulss %xmm6, %xmm9, %xmm2 vmulss %xmm5, %xmm2, %xmm2 vmulss %xmm9, %xmm9, %xmm7 vmulss %xmm6, %xmm7, %xmm8 vmulss %xmm8, %xmm10, %xmm3 vmulss %xmm7, %xmm9, %xmm4 vbroadcastss %xmm1, %xmm1 vbroadcastss %xmm2, %xmm2 vbroadcastss %xmm3, %xmm3 vbroadcastss %xmm4, %xmm4 vmulss %xmm10, %xmm9, %xmm11 vmovss 0x60d07(%rip), %xmm12 # 0x1ef09dc vmovaps %xmm12, %xmm13 vfmsub231ss 0x61315(%rip), %xmm11, %xmm7 # xmm7 = (xmm11 * mem) - xmm7 vmulss 0x61305(%rip), %xmm5, %xmm14 # 0x1ef0ff0 vfmadd213ss %xmm5, %xmm11, %xmm13 # xmm13 = (xmm11 * xmm13) + xmm5 vmulss %xmm6, %xmm13, %xmm11 vmulss %xmm6, %xmm7, %xmm7 vbroadcastss %xmm14, %xmm5 vbroadcastss %xmm11, %xmm6 vbroadcastss %xmm7, %xmm7 vbroadcastss %xmm8, %xmm8 vmovaps %xmm12, %xmm11 vfmadd213ss %xmm9, %xmm10, %xmm11 # xmm11 = (xmm10 * xmm11) + xmm9 vfmadd213ss %xmm10, %xmm9, %xmm12 # xmm12 = (xmm9 * xmm12) + xmm10 vmovss 0x612d1(%rip), %xmm13 # 0x1ef0ff4 vmulss %xmm13, %xmm10, %xmm10 vmulss %xmm13, %xmm11, %xmm11 vmulss %xmm13, %xmm12, %xmm12 vmulss %xmm13, %xmm9, %xmm13 vbroadcastss %xmm10, %xmm9 vbroadcastss %xmm11, %xmm10 vbroadcastss %xmm12, %xmm11 vbroadcastss %xmm13, %xmm12 xorl %ebp, %ebp vpmovsxbd 0x9177e(%rip), %xmm13 # 0x1f214d4 vbroadcastss 0xcd70d(%rip), %xmm14 # 0x1f5d46c movq 0x58(%rdi), %rbx movq 0x68(%rdi), %r14 imulq %rax, %r14 movl (%rbx,%r14), %r14d movq %r11, %r15 imulq %r14, %r15 leaq (%rsi,%r15), %r12 incq %r14 imulq %r11, %r14 leaq (%rsi,%r14), %r13 addq %r10, %r15 movl %ebp, %ebx vpbroadcastd %ebp, %xmm15 vpor %xmm13, %xmm15, %xmm15 vpcmpgtd %xmm15, %xmm0, %k1 vmovups (%r12,%rbx,4), %xmm15 {%k1} {z} vmovups (%r13,%rbx,4), %xmm18 {%k1} {z} vmovups (%r15,%rbx,4), %xmm16 {%k1} {z} addq %r10, %r14 vmovups (%r14,%rbx,4), %xmm17 {%k1} {z} vfnmadd213ps %xmm15, %xmm14, %xmm16 # xmm16 = -(xmm14 * xmm16) + xmm15 vfmadd213ps %xmm18, %xmm14, %xmm17 # xmm17 = (xmm14 * xmm17) + xmm18 testq %rcx, %rcx je 0x1e8fdeb vmulps %xmm18, %xmm4, %xmm19 vfmadd231ps %xmm17, %xmm3, %xmm19 # xmm19 = (xmm3 * xmm17) + xmm19 vfmadd231ps %xmm16, %xmm2, %xmm19 # xmm19 = (xmm2 * xmm16) + xmm19 vfmadd231ps %xmm15, %xmm1, %xmm19 # xmm19 = (xmm1 * xmm15) + xmm19 vmovups %xmm19, (%rcx,%rbx,4) {%k1} testq %rdx, %rdx je 0x1e8fe0f vmulps %xmm18, %xmm8, %xmm19 vfmadd231ps %xmm17, %xmm7, %xmm19 # xmm19 = (xmm7 * xmm17) + xmm19 vfmadd231ps %xmm16, %xmm6, %xmm19 # xmm19 = (xmm6 * xmm16) + xmm19 vfmadd231ps %xmm15, %xmm5, %xmm19 # xmm19 = (xmm5 * xmm15) + xmm19 vmovups %xmm19, (%rdx,%rbx,4) {%k1} testq %r8, %r8 je 0x1e8fe33 vmulps %xmm18, %xmm12, %xmm18 vfmadd213ps %xmm18, %xmm11, %xmm17 # xmm17 = (xmm11 * xmm17) + xmm18 vfmadd213ps %xmm17, %xmm10, %xmm16 # xmm16 = (xmm10 * xmm16) + xmm17 vfmadd213ps %xmm16, %xmm9, %xmm15 # xmm15 = (xmm9 * xmm15) + xmm16 vmovups %xmm15, (%r8,%rbx,4) {%k1} addl $0x4, %ebx movl %ebx, %ebp cmpl %r9d, %ebx jb 0x1e8fd5f popq %rbx popq %r12 popq %r13 popq %r14 popq %r15 popq %rbp retq
/embree[P]embree/kernels/common/scene_curves.h
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)1, embree::avx512::HermiteCurveGeometryInterface, embree::HermiteCurveT>::linearBounds(embree::LinearSpace3<embree::Vec3fa> const&, unsigned long, embree::BBox<float> const&) const::'lambda'(unsigned long)::operator()(unsigned long) const
__forceinline LBBox3fa linearBounds(const LinearSpace3fa& space, size_t primID, const BBox1f& dt) const { return LBBox3fa([&] (size_t itime) { return bounds(space, primID, itime); }, dt, this->time_range, fnumTimeSegments); }
pushq %r14 pushq %rbx movq %rdi, %rax movq 0x10(%rsi), %rdi movq (%rsi), %r10 movq 0x8(%rsi), %rcx movq 0x58(%rdi), %rsi movq 0x68(%rdi), %r8 imulq (%rcx), %r8 movl (%rsi,%r8), %ecx movq 0x188(%rdi), %rsi imulq $0x38, %rdx, %r11 movq (%rsi,%r11), %r8 movq 0x10(%rsi,%r11), %r9 movq %r9, %rbx imulq %rcx, %rbx leal 0x1(%rcx), %r14d imulq %r14, %r9 movq 0x1c8(%rdi), %rsi movq (%rsi,%r11), %rdx movq 0x10(%rsi,%r11), %rsi imulq %rsi, %rcx imulq %r14, %rsi vmovaps (%r10), %xmm1 vmovaps 0x10(%r10), %xmm2 vmovaps 0x20(%r10), %xmm3 vmulps 0x8(%r8,%rbx){1to4}, %xmm3, %xmm4 vfmadd231ps 0x4(%r8,%rbx){1to4}, %xmm2, %xmm4 # xmm4 = (xmm2 * mem) + xmm4 vfmadd231ps (%r8,%rbx){1to4}, %xmm1, %xmm4 # xmm4 = (xmm1 * mem) + xmm4 vmovss 0x24c(%rdi), %xmm6 vmulss 0xc(%r8,%rbx), %xmm6, %xmm0 vbroadcastss %xmm0, %ymm0 vinsertps $0x30, %xmm0, %xmm4, %xmm7 # xmm7 = xmm4[0,1,2],xmm0[0] vmulps 0x8(%r8,%r9){1to4}, %xmm3, %xmm12 vfmadd231ps 0x4(%r8,%r9){1to4}, %xmm2, %xmm12 # xmm12 = (xmm2 * mem) + xmm12 vfmadd231ps (%r8,%r9){1to4}, %xmm1, %xmm12 # xmm12 = (xmm1 * mem) + xmm12 vmulss 0xc(%r8,%r9), %xmm6, %xmm5 vbroadcastss %xmm5, %ymm5 vinsertps $0x30, %xmm5, %xmm12, %xmm8 # xmm8 = xmm12[0,1,2],xmm5[0] vmulps 0x8(%rdx,%rcx){1to4}, %xmm3, %xmm9 vfmadd231ps 0x4(%rdx,%rcx){1to4}, %xmm2, %xmm9 # xmm9 = (xmm2 * mem) + xmm9 vfmadd231ps (%rdx,%rcx){1to4}, %xmm1, %xmm9 # xmm9 = (xmm1 * mem) + xmm9 vmulss 0xc(%rdx,%rcx), %xmm6, %xmm10 vmulps 0x8(%rdx,%rsi){1to4}, %xmm3, %xmm3 vfmadd231ps 0x4(%rdx,%rsi){1to4}, %xmm2, %xmm3 # xmm3 = (xmm2 * mem) + xmm3 vfmadd231ps (%rdx,%rsi){1to4}, %xmm1, %xmm3 # xmm3 = (xmm1 * mem) + xmm3 vinsertps $0x30, %xmm10, %xmm9, %xmm1 # xmm1 = xmm9[0,1,2],xmm10[0] vmulss 0xc(%rdx,%rsi), %xmm6, %xmm2 vinsertps $0x30, %xmm2, %xmm3, %xmm2 # xmm2 = xmm3[0,1,2],xmm2[0] vbroadcastss 0xcd068(%rip), %xmm3 # 0x1f5d46c vfnmadd213ps %xmm7, %xmm3, %xmm1 # xmm1 = -(xmm3 * xmm1) + xmm7 vfmadd213ps %xmm8, %xmm3, %xmm2 # xmm2 = (xmm3 * xmm2) + xmm8 vbroadcastss %xmm4, %ymm6 vbroadcastss 0x822e8(%rip), %ymm3 # 0x1f12704 vpermps %ymm4, %ymm3, %ymm7 vbroadcastss 0x90ab2(%rip), %ymm13 # 0x1f20edc vpermps %ymm4, %ymm13, %ymm8 vbroadcastss %xmm1, %ymm14 vpermps %ymm1, %ymm3, %ymm11 vpermps %ymm1, %ymm13, %ymm9 vbroadcastss 0x90a91(%rip), %ymm4 # 0x1f20ed8 vpermps %ymm1, %ymm4, %ymm10 vbroadcastss %xmm2, %ymm15 vpermps %ymm2, %ymm3, %ymm16 vpermps %ymm2, %ymm13, %ymm17 vpermps %ymm2, %ymm4, %ymm18 vbroadcastss %xmm12, %ymm19 vpermps %ymm12, %ymm3, %ymm20 leaq 0x296e6e(%rip), %rcx # 0x21272e4 vmovups 0x1dc(%rcx), %ymm21 vmovups 0x660(%rcx), %ymm22 vmovups 0xae4(%rcx), %ymm23 vmovups 0xf68(%rcx), %ymm4 vpermps %ymm12, %ymm13, %ymm12 vmulps %ymm4, %ymm19, %ymm1 vmulps %ymm4, %ymm20, %ymm2 vmulps %ymm4, %ymm12, %ymm3 vmulps %ymm4, %ymm5, %ymm4 vfmadd231ps %ymm15, %ymm23, %ymm1 # ymm1 = (ymm23 * ymm15) + ymm1 vfmadd231ps %ymm16, %ymm23, %ymm2 # ymm2 = (ymm23 * ymm16) + ymm2 vfmadd231ps %ymm17, %ymm23, %ymm3 # ymm3 = (ymm23 * ymm17) + ymm3 vfmadd231ps %ymm23, %ymm18, %ymm4 # ymm4 = (ymm18 * ymm23) + ymm4 vfmadd231ps %ymm14, %ymm22, %ymm1 # ymm1 = (ymm22 * ymm14) + ymm1 vfmadd231ps %ymm11, %ymm22, %ymm2 # ymm2 = (ymm22 * ymm11) + ymm2 vfmadd231ps %ymm9, %ymm22, %ymm3 # ymm3 = (ymm22 * ymm9) + ymm3 vfmadd231ps %ymm22, %ymm10, %ymm4 # ymm4 = (ymm10 * ymm22) + ymm4 vfmadd231ps %ymm6, %ymm21, %ymm1 # ymm1 = (ymm21 * ymm6) + ymm1 vfmadd231ps %ymm7, %ymm21, %ymm2 # ymm2 = (ymm21 * ymm7) + ymm2 vfmadd231ps %ymm8, %ymm21, %ymm3 # ymm3 = (ymm21 * ymm8) + ymm3 vmovups 0x13ec(%rcx), %ymm13 vmovups 0x1870(%rcx), %ymm22 vmovups 0x1cf4(%rcx), %ymm23 vmovups 0x2178(%rcx), %ymm24 vfmadd231ps %ymm21, %ymm0, %ymm4 # ymm4 = (ymm0 * ymm21) + ymm4 vmulps %ymm24, %ymm19, %ymm19 vmulps %ymm24, %ymm20, %ymm20 vmulps %ymm24, %ymm12, %ymm12 vmulps %ymm24, %ymm5, %ymm5 vfmadd231ps %ymm15, %ymm23, %ymm19 # ymm19 = (ymm23 * ymm15) + ymm19 vfmadd231ps %ymm16, %ymm23, %ymm20 # ymm20 = (ymm23 * ymm16) + ymm20 vfmadd231ps %ymm17, %ymm23, %ymm12 # ymm12 = (ymm23 * ymm17) + ymm12 vfmadd231ps %ymm18, %ymm23, %ymm5 # ymm5 = (ymm23 * ymm18) + ymm5 vfmadd231ps %ymm14, %ymm22, %ymm19 # ymm19 = (ymm22 * ymm14) + ymm19 vfmadd231ps %ymm11, %ymm22, %ymm20 # ymm20 = (ymm22 * ymm11) + ymm20 vfmadd231ps %ymm9, %ymm22, %ymm12 # ymm12 = (ymm22 * ymm9) + ymm12 vfmadd231ps %ymm10, %ymm22, %ymm5 # ymm5 = (ymm22 * ymm10) + ymm5 vfmadd231ps %ymm6, %ymm13, %ymm19 # ymm19 = (ymm13 * ymm6) + ymm19 vfmadd231ps %ymm7, %ymm13, %ymm20 # ymm20 = (ymm13 * ymm7) + ymm20 vfmadd231ps %ymm8, %ymm13, %ymm12 # ymm12 = (ymm13 * ymm8) + ymm12 vbroadcastss 0x90f4e(%rip), %ymm6 # 0x1f214d0 vfmadd231ps %ymm0, %ymm13, %ymm5 # ymm5 = (ymm13 * ymm0) + ymm5 vmulps %ymm6, %ymm19, %ymm0 vmulps %ymm6, %ymm20, %ymm7 vmulps %ymm6, %ymm12, %ymm8 vmulps %ymm6, %ymm5, %ymm5 vxorps %xmm6, %xmm6, %xmm6 vblendps $0x1, %ymm6, %ymm0, %ymm9 # ymm9 = ymm6[0],ymm0[1,2,3,4,5,6,7] vblendps $0x1, %ymm6, %ymm7, %ymm10 # ymm10 = ymm6[0],ymm7[1,2,3,4,5,6,7] vblendps $0x1, %ymm6, %ymm8, %ymm11 # ymm11 = ymm6[0],ymm8[1,2,3,4,5,6,7] vblendps $0x1, %ymm6, %ymm5, %ymm12 # ymm12 = ymm6[0],ymm5[1,2,3,4,5,6,7] vsubps %ymm9, %ymm1, %ymm9 vsubps %ymm10, %ymm2, %ymm10 vsubps %ymm11, %ymm3, %ymm11 vsubps %ymm12, %ymm4, %ymm12 vblendps $0x80, %ymm6, %ymm0, %ymm0 # ymm0 = ymm0[0,1,2,3,4,5,6],ymm6[7] vblendps $0x80, %ymm6, %ymm7, %ymm7 # ymm7 = ymm7[0,1,2,3,4,5,6],ymm6[7] vblendps $0x80, %ymm6, %ymm8, %ymm8 # ymm8 = ymm8[0,1,2,3,4,5,6],ymm6[7] vblendps $0x80, %ymm6, %ymm5, %ymm5 # ymm5 = ymm5[0,1,2,3,4,5,6],ymm6[7] vaddps %ymm0, %ymm1, %ymm0 vaddps %ymm7, %ymm2, %ymm6 vaddps %ymm3, %ymm8, %ymm7 vaddps %ymm5, %ymm4, %ymm5 vbroadcastss 0x5b424(%rip), %ymm8 # 0x1eeba20 vminps %ymm1, %ymm8, %ymm13 vminps %ymm2, %ymm8, %ymm14 vminps %ymm3, %ymm8, %ymm15 vminps %ymm4, %ymm8, %ymm8 vminps %ymm0, %ymm9, %ymm16 vminps %ymm16, %ymm13, %ymm13 vminps %ymm6, %ymm10, %ymm16 vminps %ymm16, %ymm14, %ymm14 vminps %ymm7, %ymm11, %ymm16 vminps %ymm16, %ymm15, %ymm15 vminps %ymm5, %ymm12, %ymm16 vminps %ymm16, %ymm8, %ymm8 vbroadcastss 0x5c53e(%rip), %ymm16 # 0x1eecb84 vmaxps %ymm1, %ymm16, %ymm1 vmaxps %ymm2, %ymm16, %ymm2 vmaxps %ymm3, %ymm16, %ymm3 vmaxps %ymm4, %ymm16, %ymm4 vmaxps %ymm0, %ymm9, %ymm0 vmaxps %ymm0, %ymm1, %ymm0 vmaxps %ymm6, %ymm10, %ymm1 vmaxps %ymm1, %ymm2, %ymm1 vmaxps %ymm7, %ymm11, %ymm2 vmaxps %ymm2, %ymm3, %ymm2 vmaxps %ymm5, %ymm12, %ymm3 vmaxps %ymm3, %ymm4, %ymm3 vshufps $0xb1, %ymm13, %ymm13, %ymm4 # ymm4 = ymm13[1,0,3,2,5,4,7,6] vminps %ymm4, %ymm13, %ymm4 vshufpd $0x5, %ymm4, %ymm4, %ymm5 # ymm5 = ymm4[1,0,3,2] vminps %ymm5, %ymm4, %ymm4 vextractf128 $0x1, %ymm4, %xmm5 vminps %xmm5, %xmm4, %xmm4 vshufps $0xb1, %ymm14, %ymm14, %ymm5 # ymm5 = ymm14[1,0,3,2,5,4,7,6] vminps %ymm5, %ymm14, %ymm5 vshufpd $0x5, %ymm5, %ymm5, %ymm6 # ymm6 = ymm5[1,0,3,2] vminps %ymm6, %ymm5, %ymm5 vextractf128 $0x1, %ymm5, %xmm6 vminps %xmm6, %xmm5, %xmm5 vunpcklps %xmm5, %xmm4, %xmm4 # xmm4 = xmm4[0],xmm5[0],xmm4[1],xmm5[1] vshufps $0xb1, %ymm15, %ymm15, %ymm5 # ymm5 = ymm15[1,0,3,2,5,4,7,6] vminps %ymm5, %ymm15, %ymm5 vshufpd $0x5, %ymm5, %ymm5, %ymm6 # ymm6 = ymm5[1,0,3,2] vminps %ymm6, %ymm5, %ymm5 vextractf128 $0x1, %ymm5, %xmm6 vminps %xmm6, %xmm5, %xmm5 vinsertps $0x28, %xmm5, %xmm4, %xmm4 # xmm4 = xmm4[0,1],xmm5[0],zero vshufps $0xb1, %ymm0, %ymm0, %ymm5 # ymm5 = ymm0[1,0,3,2,5,4,7,6] vmaxps %ymm5, %ymm0, %ymm0 vshufpd $0x5, %ymm0, %ymm0, %ymm5 # ymm5 = ymm0[1,0,3,2] vmaxps %ymm5, %ymm0, %ymm0 vextractf128 $0x1, %ymm0, %xmm5 vmaxps %xmm5, %xmm0, %xmm0 vshufps $0xb1, %ymm1, %ymm1, %ymm5 # ymm5 = ymm1[1,0,3,2,5,4,7,6] vmaxps %ymm5, %ymm1, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm5 # ymm5 = ymm1[1,0,3,2] vmaxps %ymm5, %ymm1, %ymm1 vextractf128 $0x1, %ymm1, %xmm5 vmaxps %xmm5, %xmm1, %xmm1 vunpcklps %xmm1, %xmm0, %xmm0 # xmm0 = xmm0[0],xmm1[0],xmm0[1],xmm1[1] vshufps $0xb1, %ymm2, %ymm2, %ymm1 # ymm1 = ymm2[1,0,3,2,5,4,7,6] vmaxps %ymm1, %ymm2, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vmaxps %ymm2, %ymm1, %ymm1 vextractf128 $0x1, %ymm1, %xmm2 vmaxps %xmm2, %xmm1, %xmm1 vinsertps $0x28, %xmm1, %xmm0, %xmm0 # xmm0 = xmm0[0,1],xmm1[0],zero vshufps $0xb1, %ymm8, %ymm8, %ymm1 # ymm1 = ymm8[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm8, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vextractf128 $0x1, %ymm1, %xmm2 vminss %xmm2, %xmm1, %xmm1 vshufps $0xb1, %ymm3, %ymm3, %ymm2 # ymm2 = ymm3[1,0,3,2,5,4,7,6] vmaxps %ymm2, %ymm3, %ymm2 vshufpd $0x5, %ymm2, %ymm2, %ymm3 # ymm3 = ymm2[1,0,3,2] vmaxps %ymm3, %ymm2, %ymm2 vextractf128 $0x1, %ymm2, %xmm3 vmaxss %xmm3, %xmm2, %xmm2 vbroadcastss 0x90745(%rip), %xmm3 # 0x1f20ec4 vandps %xmm3, %xmm1, %xmm1 vandps %xmm3, %xmm2, %xmm2 vmaxss %xmm1, %xmm2, %xmm1 vbroadcastss %xmm1, %xmm1 vsubps %xmm1, %xmm4, %xmm2 vaddps %xmm1, %xmm0, %xmm0 vandps %xmm3, %xmm2, %xmm1 vandps %xmm3, %xmm0, %xmm3 vmaxps %xmm3, %xmm1, %xmm1 vmovshdup %xmm1, %xmm3 # xmm3 = xmm1[1,1,3,3] vmaxss %xmm1, %xmm3, %xmm3 vshufpd $0x1, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[1,0] vmaxss %xmm3, %xmm1, %xmm1 vmulss 0x60827(%rip), %xmm1, %xmm1 # 0x1ef0fe4 vbroadcastss %xmm1, %xmm1 vsubps %xmm1, %xmm2, %xmm2 vaddps %xmm1, %xmm0, %xmm0 vmovaps %xmm2, (%rax) vmovaps %xmm0, 0x10(%rax) popq %rbx popq %r14 vzeroupper retq
/embree[P]embree/kernels/common/scene_curves.cpp
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)1, embree::avx512::HermiteCurveGeometryInterface, embree::HermiteCurveT>::linearBounds(embree::Vec3fa const&, float, float, embree::LinearSpace3<embree::Vec3fa> const&, unsigned long, embree::BBox<float> const&) const::'lambda'(unsigned long)::operator()(unsigned long) const
__forceinline LBBox3fa linearBounds(const Vec3fa& ofs, const float scale, const float r_scale0, const LinearSpace3fa& space, size_t primID, const BBox1f& dt) const { return LBBox3fa([&] (size_t itime) { return bounds(ofs, scale, r_scale0, space, primID, itime); }, dt, this->time_range, fnumTimeSegments); }
pushq %r15 pushq %r14 pushq %rbx movq %rdi, %rax movq 0x28(%rsi), %rdi movq (%rsi), %r10 movq 0x8(%rsi), %rcx movq 0x10(%rsi), %r8 movq 0x20(%rsi), %r9 vbroadcastss (%rcx), %xmm2 vmulss (%r8), %xmm2, %xmm1 movq 0x58(%rdi), %rcx movq 0x68(%rdi), %r8 imulq (%r9), %r8 movl (%rcx,%r8), %ecx movq 0x188(%rdi), %r9 imulq $0x38, %rdx, %rbx movq (%r9,%rbx), %r8 movq 0x10(%r9,%rbx), %r9 movq %r9, %r11 imulq %rcx, %r11 vmovaps (%r8,%r11), %xmm0 movq 0x18(%rsi), %r14 leal 0x1(%rcx), %r15d imulq %r15, %r9 vmovaps (%r8,%r9), %xmm3 movq 0x1c8(%rdi), %rsi movq (%rsi,%rbx), %rdx movq 0x10(%rsi,%rbx), %rsi imulq %rsi, %rcx imulq %r15, %rsi vmovaps (%r10), %xmm4 vsubps %xmm4, %xmm0, %xmm0 vmulps %xmm0, %xmm2, %xmm0 vbroadcastss %xmm0, %xmm5 vshufps $0x55, %xmm0, %xmm0, %xmm6 # xmm6 = xmm0[1,1,1,1] vmovaps (%r14), %xmm7 vshufps $0xaa, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[2,2,2,2] vmovaps 0x10(%r14), %xmm8 vmovaps 0x20(%r14), %xmm9 vmulps %xmm0, %xmm9, %xmm10 vfmadd231ps %xmm6, %xmm8, %xmm10 # xmm10 = (xmm8 * xmm6) + xmm10 vfmadd231ps %xmm5, %xmm7, %xmm10 # xmm10 = (xmm7 * xmm5) + xmm10 vmovss 0x24c(%rdi), %xmm6 vmulss 0xc(%r8,%r11), %xmm6, %xmm0 vmulss %xmm0, %xmm1, %xmm0 vbroadcastss %xmm0, %ymm0 vinsertps $0x30, %xmm0, %xmm10, %xmm11 # xmm11 = xmm10[0,1,2],xmm0[0] vsubps %xmm4, %xmm3, %xmm3 vmulps %xmm3, %xmm2, %xmm3 vbroadcastss %xmm3, %xmm4 vshufps $0x55, %xmm3, %xmm3, %xmm5 # xmm5 = xmm3[1,1,1,1] vshufps $0xaa, %xmm3, %xmm3, %xmm3 # xmm3 = xmm3[2,2,2,2] vmulps %xmm3, %xmm9, %xmm3 vfmadd231ps %xmm5, %xmm8, %xmm3 # xmm3 = (xmm8 * xmm5) + xmm3 vmulss 0xc(%r8,%r9), %xmm6, %xmm5 vfmadd231ps %xmm4, %xmm7, %xmm3 # xmm3 = (xmm7 * xmm4) + xmm3 vmulss %xmm5, %xmm1, %xmm4 vbroadcastss %xmm4, %ymm5 vinsertps $0x30, %xmm5, %xmm3, %xmm4 # xmm4 = xmm3[0,1,2],xmm5[0] vmulps (%rdx,%rcx), %xmm2, %xmm12 vbroadcastss %xmm12, %xmm13 vshufps $0x55, %xmm12, %xmm12, %xmm14 # xmm14 = xmm12[1,1,1,1] vshufps $0xaa, %xmm12, %xmm12, %xmm12 # xmm12 = xmm12[2,2,2,2] vmulps %xmm9, %xmm12, %xmm12 vfmadd231ps %xmm14, %xmm8, %xmm12 # xmm12 = (xmm8 * xmm14) + xmm12 vfmadd231ps %xmm13, %xmm7, %xmm12 # xmm12 = (xmm7 * xmm13) + xmm12 vmulss 0xc(%rdx,%rcx), %xmm6, %xmm13 vmulss %xmm1, %xmm13, %xmm13 vinsertps $0x30, %xmm13, %xmm12, %xmm12 # xmm12 = xmm12[0,1,2],xmm13[0] vmulps (%rdx,%rsi), %xmm2, %xmm2 vbroadcastss %xmm2, %xmm13 vshufps $0x55, %xmm2, %xmm2, %xmm14 # xmm14 = xmm2[1,1,1,1] vshufps $0xaa, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[2,2,2,2] vmulps %xmm2, %xmm9, %xmm2 vfmadd231ps %xmm14, %xmm8, %xmm2 # xmm2 = (xmm8 * xmm14) + xmm2 vfmadd231ps %xmm13, %xmm7, %xmm2 # xmm2 = (xmm7 * xmm13) + xmm2 vmulss 0xc(%rdx,%rsi), %xmm6, %xmm6 vmulss %xmm6, %xmm1, %xmm1 vinsertps $0x30, %xmm1, %xmm2, %xmm1 # xmm1 = xmm2[0,1,2],xmm1[0] vbroadcastss 0xccb0e(%rip), %xmm2 # 0x1f5d46c vfnmadd213ps %xmm11, %xmm2, %xmm12 # xmm12 = -(xmm2 * xmm12) + xmm11 vfmadd213ps %xmm4, %xmm2, %xmm1 # xmm1 = (xmm2 * xmm1) + xmm4 vbroadcastss %xmm10, %ymm6 vbroadcastss 0x81d8e(%rip), %ymm2 # 0x1f12704 vpermps %ymm10, %ymm2, %ymm7 vbroadcastss 0x90558(%rip), %ymm4 # 0x1f20edc vpermps %ymm10, %ymm4, %ymm8 vbroadcastss %xmm12, %ymm13 vpermps %ymm12, %ymm2, %ymm11 vpermps %ymm12, %ymm4, %ymm9 vbroadcastss 0x90537(%rip), %ymm14 # 0x1f20ed8 vpermps %ymm12, %ymm14, %ymm10 vbroadcastss %xmm1, %ymm12 vpermps %ymm1, %ymm2, %ymm15 vpermps %ymm1, %ymm4, %ymm16 vpermps %ymm1, %ymm14, %ymm14 vbroadcastss %xmm3, %ymm17 vpermps %ymm3, %ymm2, %ymm18 leaq 0x296916(%rip), %rcx # 0x21272e4 vmovups 0x1dc(%rcx), %ymm19 vmovups 0x660(%rcx), %ymm20 vmovups 0xae4(%rcx), %ymm21 vmovups 0xf68(%rcx), %ymm22 vpermps %ymm3, %ymm4, %ymm23 vmulps %ymm22, %ymm17, %ymm1 vmulps %ymm22, %ymm18, %ymm2 vmulps %ymm22, %ymm23, %ymm3 vmulps %ymm22, %ymm5, %ymm4 vfmadd231ps %ymm12, %ymm21, %ymm1 # ymm1 = (ymm21 * ymm12) + ymm1 vfmadd231ps %ymm15, %ymm21, %ymm2 # ymm2 = (ymm21 * ymm15) + ymm2 vfmadd231ps %ymm16, %ymm21, %ymm3 # ymm3 = (ymm21 * ymm16) + ymm3 vfmadd231ps %ymm21, %ymm14, %ymm4 # ymm4 = (ymm14 * ymm21) + ymm4 vfmadd231ps %ymm13, %ymm20, %ymm1 # ymm1 = (ymm20 * ymm13) + ymm1 vfmadd231ps %ymm11, %ymm20, %ymm2 # ymm2 = (ymm20 * ymm11) + ymm2 vfmadd231ps %ymm9, %ymm20, %ymm3 # ymm3 = (ymm20 * ymm9) + ymm3 vfmadd231ps %ymm20, %ymm10, %ymm4 # ymm4 = (ymm10 * ymm20) + ymm4 vfmadd231ps %ymm6, %ymm19, %ymm1 # ymm1 = (ymm19 * ymm6) + ymm1 vfmadd231ps %ymm7, %ymm19, %ymm2 # ymm2 = (ymm19 * ymm7) + ymm2 vfmadd231ps %ymm8, %ymm19, %ymm3 # ymm3 = (ymm19 * ymm8) + ymm3 vmovups 0x13ec(%rcx), %ymm20 vmovups 0x1870(%rcx), %ymm21 vmovups 0x1cf4(%rcx), %ymm22 vmovups 0x2178(%rcx), %ymm24 vfmadd231ps %ymm19, %ymm0, %ymm4 # ymm4 = (ymm0 * ymm19) + ymm4 vmulps %ymm24, %ymm17, %ymm17 vmulps %ymm24, %ymm18, %ymm18 vmulps %ymm24, %ymm23, %ymm19 vmulps %ymm24, %ymm5, %ymm5 vfmadd231ps %ymm12, %ymm22, %ymm17 # ymm17 = (ymm22 * ymm12) + ymm17 vfmadd231ps %ymm15, %ymm22, %ymm18 # ymm18 = (ymm22 * ymm15) + ymm18 vfmadd231ps %ymm16, %ymm22, %ymm19 # ymm19 = (ymm22 * ymm16) + ymm19 vfmadd231ps %ymm14, %ymm22, %ymm5 # ymm5 = (ymm22 * ymm14) + ymm5 vfmadd231ps %ymm13, %ymm21, %ymm17 # ymm17 = (ymm21 * ymm13) + ymm17 vfmadd231ps %ymm11, %ymm21, %ymm18 # ymm18 = (ymm21 * ymm11) + ymm18 vfmadd231ps %ymm9, %ymm21, %ymm19 # ymm19 = (ymm21 * ymm9) + ymm19 vfmadd231ps %ymm10, %ymm21, %ymm5 # ymm5 = (ymm21 * ymm10) + ymm5 vfmadd231ps %ymm6, %ymm20, %ymm17 # ymm17 = (ymm20 * ymm6) + ymm17 vfmadd231ps %ymm7, %ymm20, %ymm18 # ymm18 = (ymm20 * ymm7) + ymm18 vfmadd231ps %ymm8, %ymm20, %ymm19 # ymm19 = (ymm20 * ymm8) + ymm19 vbroadcastss 0x909ec(%rip), %ymm6 # 0x1f214d0 vfmadd231ps %ymm0, %ymm20, %ymm5 # ymm5 = (ymm20 * ymm0) + ymm5 vmulps %ymm6, %ymm17, %ymm0 vmulps %ymm6, %ymm18, %ymm7 vmulps %ymm6, %ymm19, %ymm8 vmulps %ymm6, %ymm5, %ymm5 vxorps %xmm6, %xmm6, %xmm6 vblendps $0x1, %ymm6, %ymm0, %ymm9 # ymm9 = ymm6[0],ymm0[1,2,3,4,5,6,7] vblendps $0x1, %ymm6, %ymm7, %ymm10 # ymm10 = ymm6[0],ymm7[1,2,3,4,5,6,7] vblendps $0x1, %ymm6, %ymm8, %ymm11 # ymm11 = ymm6[0],ymm8[1,2,3,4,5,6,7] vblendps $0x1, %ymm6, %ymm5, %ymm12 # ymm12 = ymm6[0],ymm5[1,2,3,4,5,6,7] vsubps %ymm9, %ymm1, %ymm9 vsubps %ymm10, %ymm2, %ymm10 vsubps %ymm11, %ymm3, %ymm11 vsubps %ymm12, %ymm4, %ymm12 vblendps $0x80, %ymm6, %ymm0, %ymm0 # ymm0 = ymm0[0,1,2,3,4,5,6],ymm6[7] vblendps $0x80, %ymm6, %ymm7, %ymm7 # ymm7 = ymm7[0,1,2,3,4,5,6],ymm6[7] vblendps $0x80, %ymm6, %ymm8, %ymm8 # ymm8 = ymm8[0,1,2,3,4,5,6],ymm6[7] vblendps $0x80, %ymm6, %ymm5, %ymm5 # ymm5 = ymm5[0,1,2,3,4,5,6],ymm6[7] vaddps %ymm0, %ymm1, %ymm0 vaddps %ymm7, %ymm2, %ymm6 vaddps %ymm3, %ymm8, %ymm7 vaddps %ymm5, %ymm4, %ymm5 vbroadcastss 0x5aebf(%rip), %ymm8 # 0x1eeba20 vminps %ymm1, %ymm8, %ymm13 vminps %ymm2, %ymm8, %ymm14 vminps %ymm3, %ymm8, %ymm15 vminps %ymm4, %ymm8, %ymm8 vminps %ymm0, %ymm9, %ymm16 vminps %ymm16, %ymm13, %ymm13 vminps %ymm6, %ymm10, %ymm16 vminps %ymm16, %ymm14, %ymm14 vminps %ymm7, %ymm11, %ymm16 vminps %ymm16, %ymm15, %ymm15 vminps %ymm5, %ymm12, %ymm16 vminps %ymm16, %ymm8, %ymm8 vbroadcastss 0x5bfd9(%rip), %ymm16 # 0x1eecb84 vmaxps %ymm1, %ymm16, %ymm1 vmaxps %ymm2, %ymm16, %ymm2 vmaxps %ymm3, %ymm16, %ymm3 vmaxps %ymm4, %ymm16, %ymm4 vmaxps %ymm0, %ymm9, %ymm0 vmaxps %ymm0, %ymm1, %ymm0 vmaxps %ymm6, %ymm10, %ymm1 vmaxps %ymm1, %ymm2, %ymm1 vmaxps %ymm7, %ymm11, %ymm2 vmaxps %ymm2, %ymm3, %ymm2 vmaxps %ymm5, %ymm12, %ymm3 vmaxps %ymm3, %ymm4, %ymm3 vshufps $0xb1, %ymm13, %ymm13, %ymm4 # ymm4 = ymm13[1,0,3,2,5,4,7,6] vminps %ymm4, %ymm13, %ymm4 vshufpd $0x5, %ymm4, %ymm4, %ymm5 # ymm5 = ymm4[1,0,3,2] vminps %ymm5, %ymm4, %ymm4 vextractf128 $0x1, %ymm4, %xmm5 vminps %xmm5, %xmm4, %xmm4 vshufps $0xb1, %ymm14, %ymm14, %ymm5 # ymm5 = ymm14[1,0,3,2,5,4,7,6] vminps %ymm5, %ymm14, %ymm5 vshufpd $0x5, %ymm5, %ymm5, %ymm6 # ymm6 = ymm5[1,0,3,2] vminps %ymm6, %ymm5, %ymm5 vextractf128 $0x1, %ymm5, %xmm6 vminps %xmm6, %xmm5, %xmm5 vunpcklps %xmm5, %xmm4, %xmm4 # xmm4 = xmm4[0],xmm5[0],xmm4[1],xmm5[1] vshufps $0xb1, %ymm15, %ymm15, %ymm5 # ymm5 = ymm15[1,0,3,2,5,4,7,6] vminps %ymm5, %ymm15, %ymm5 vshufpd $0x5, %ymm5, %ymm5, %ymm6 # ymm6 = ymm5[1,0,3,2] vminps %ymm6, %ymm5, %ymm5 vextractf128 $0x1, %ymm5, %xmm6 vminps %xmm6, %xmm5, %xmm5 vinsertps $0x28, %xmm5, %xmm4, %xmm4 # xmm4 = xmm4[0,1],xmm5[0],zero vshufps $0xb1, %ymm0, %ymm0, %ymm5 # ymm5 = ymm0[1,0,3,2,5,4,7,6] vmaxps %ymm5, %ymm0, %ymm0 vshufpd $0x5, %ymm0, %ymm0, %ymm5 # ymm5 = ymm0[1,0,3,2] vmaxps %ymm5, %ymm0, %ymm0 vextractf128 $0x1, %ymm0, %xmm5 vmaxps %xmm5, %xmm0, %xmm0 vshufps $0xb1, %ymm1, %ymm1, %ymm5 # ymm5 = ymm1[1,0,3,2,5,4,7,6] vmaxps %ymm5, %ymm1, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm5 # ymm5 = ymm1[1,0,3,2] vmaxps %ymm5, %ymm1, %ymm1 vextractf128 $0x1, %ymm1, %xmm5 vmaxps %xmm5, %xmm1, %xmm1 vunpcklps %xmm1, %xmm0, %xmm0 # xmm0 = xmm0[0],xmm1[0],xmm0[1],xmm1[1] vshufps $0xb1, %ymm2, %ymm2, %ymm1 # ymm1 = ymm2[1,0,3,2,5,4,7,6] vmaxps %ymm1, %ymm2, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vmaxps %ymm2, %ymm1, %ymm1 vextractf128 $0x1, %ymm1, %xmm2 vmaxps %xmm2, %xmm1, %xmm1 vinsertps $0x28, %xmm1, %xmm0, %xmm0 # xmm0 = xmm0[0,1],xmm1[0],zero vshufps $0xb1, %ymm8, %ymm8, %ymm1 # ymm1 = ymm8[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm8, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vextractf128 $0x1, %ymm1, %xmm2 vminss %xmm2, %xmm1, %xmm1 vshufps $0xb1, %ymm3, %ymm3, %ymm2 # ymm2 = ymm3[1,0,3,2,5,4,7,6] vmaxps %ymm2, %ymm3, %ymm2 vshufpd $0x5, %ymm2, %ymm2, %ymm3 # ymm3 = ymm2[1,0,3,2] vmaxps %ymm3, %ymm2, %ymm2 vextractf128 $0x1, %ymm2, %xmm3 vmaxss %xmm3, %xmm2, %xmm2 vbroadcastss 0x901e0(%rip), %xmm3 # 0x1f20ec4 vandps %xmm3, %xmm1, %xmm1 vandps %xmm3, %xmm2, %xmm2 vmaxss %xmm1, %xmm2, %xmm1 vbroadcastss %xmm1, %xmm1 vsubps %xmm1, %xmm4, %xmm2 vaddps %xmm1, %xmm0, %xmm0 vandps %xmm3, %xmm2, %xmm1 vandps %xmm3, %xmm0, %xmm3 vmaxps %xmm3, %xmm1, %xmm1 vmovshdup %xmm1, %xmm3 # xmm3 = xmm1[1,1,3,3] vmaxss %xmm1, %xmm3, %xmm3 vshufpd $0x1, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[1,0] vmaxss %xmm3, %xmm1, %xmm1 vmulss 0x602c2(%rip), %xmm1, %xmm1 # 0x1ef0fe4 vbroadcastss %xmm1, %xmm1 vsubps %xmm1, %xmm2, %xmm2 vaddps %xmm1, %xmm0, %xmm0 vmovaps %xmm2, (%rax) vmovaps %xmm0, 0x10(%rax) popq %rbx popq %r14 popq %r15 vzeroupper retq nop
/embree[P]embree/kernels/common/scene_curves.cpp
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)0, embree::avx512::HermiteCurveGeometryInterface, embree::HermiteCurveT>::createPrimRefArrayMB(embree::PrimRef*, embree::BBox<float> const&, embree::range<unsigned long> const&, unsigned long, unsigned int) const
PrimInfo createPrimRefArrayMB(PrimRef* prims, const BBox1f& time_range, const range<size_t>& r, size_t k, unsigned int geomID) const { PrimInfo pinfo(empty); const BBox1f t0t1 = BBox1f::intersect(this->time_range, time_range); if (t0t1.empty()) return pinfo; for (size_t j=r.begin(); j<r.end(); j++) { if (!valid(ctype, j, this->timeSegmentRange(t0t1))) continue; const LBBox3fa lbounds = linearBounds(j,t0t1); if (lbounds.bounds0.empty() || lbounds.bounds1.empty()) continue; // checks oriented curves with invalid normals which cause NaNs here const PrimRef prim(lbounds.bounds(),geomID,unsigned(j)); pinfo.add_primref(prim); prims[k++] = prim; } return pinfo; }
pushq %rbp pushq %r15 pushq %r14 pushq %r13 pushq %r12 pushq %rbx subq $0x1c8, %rsp # imm = 0x1C8 movq %rdi, %rax vbroadcastss 0x5a451(%rip), %xmm0 # 0x1eeba20 vmovaps %xmm0, (%rdi) vbroadcastss 0x5b5a8(%rip), %xmm1 # 0x1eecb84 vmovaps %xmm1, 0x10(%rdi) movq %rdx, 0xc8(%rsp) vmovaps %xmm0, 0x20(%rdi) vmovaps %xmm1, 0x30(%rdi) vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 0x40(%rdi) vmovsd 0x2c(%rsi), %xmm0 vmovsd (%rcx), %xmm1 vcmpltps %xmm1, %xmm0, %k1 vinsertps $0x50, %xmm0, %xmm1, %xmm2 # xmm2 = xmm1[0],xmm0[1],xmm1[2,3] vinsertps $0x50, %xmm1, %xmm0, %xmm4 # xmm4 = xmm0[0],xmm1[1],xmm0[2,3] vmovaps %xmm2, %xmm4 {%k1} vmovshdup %xmm4, %xmm5 # xmm5 = xmm4[1,1,3,3] vucomiss %xmm5, %xmm4 ja 0x1e91d32 movq %r8, %r13 movq %r9, 0x38(%rsp) vmovaps (%rax), %xmm0 vmovaps %xmm0, 0x90(%rsp) vmovaps 0x10(%rax), %xmm0 vmovaps %xmm0, 0x80(%rsp) vmovaps 0x20(%rax), %xmm0 vmovaps %xmm0, 0x70(%rsp) movq (%r8), %r14 vmovaps 0x30(%rax), %xmm0 vmovaps %xmm0, 0x60(%rsp) movq %rax, 0xc0(%rsp) movq 0x48(%rax), %rax movq %rax, 0x30(%rsp) cmpq 0x8(%r8), %r14 jae 0x1e91cf0 vmovss 0x5f2b5(%rip), %xmm6 # 0x1ef0940 vxorps %xmm7, %xmm7, %xmm7 vmovss 0x5f2ad(%rip), %xmm8 # 0x1ef0944 leaq 0xe0(%rsp), %rbp vbroadcastss 0x8fd54(%rip), %xmm9 # 0x1f213fc vbroadcastss 0x5f92f(%rip), %xmm10 # 0x1ef0fe0 movq %r13, 0xd0(%rsp) vmovaps %xmm4, 0x140(%rsp) vmovaps %xmm5, 0x130(%rsp) movq %rsi, 0x10(%rsp) vmovsd 0x2c(%rsi), %xmm0 vmovshdup %xmm0, %xmm1 # xmm1 = xmm0[1,1,3,3] vsubss %xmm0, %xmm1, %xmm1 vsubss %xmm0, %xmm4, %xmm2 vdivss %xmm1, %xmm2, %xmm2 vsubss %xmm0, %xmm5, %xmm0 vdivss %xmm1, %xmm0, %xmm0 vmulss %xmm6, %xmm2, %xmm1 vmulss %xmm0, %xmm8, %xmm0 movq 0x58(%rsi), %rax movq 0x68(%rsi), %rcx imulq %r14, %rcx movl (%rax,%rcx), %eax leal 0x1(%rax), %ecx movq 0x188(%rsi), %rdx cmpq %rcx, 0x18(%rdx) jbe 0x1e91ce3 vmovss 0x28(%rsi), %xmm3 vmulss %xmm1, %xmm3, %xmm1 vroundss $0x9, %xmm1, %xmm1, %xmm1 vmaxss %xmm1, %xmm7, %xmm1 vcvttss2si %xmm1, %edi vmulss %xmm0, %xmm3, %xmm0 vroundss $0xa, %xmm0, %xmm0, %xmm0 vminss %xmm3, %xmm0, %xmm0 vcvttss2si %xmm0, %r9d cmpl %r9d, %edi seta %sil ja 0x1e91867 movslq %edi, %rdi imulq $0x38, %rdi, %r8 movq (%rdx,%r8), %r11 movq 0x10(%rdx,%r8), %rbx movq %rbx, %r10 imulq %rax, %r10 vmovaps (%r11,%r10), %xmm0 vcmpnleps %xmm9, %xmm0, %k1 vcmpltps %xmm10, %xmm0, %k0 {%k1} kmovd %k0, %r10d cmpb $0xf, %r10b jne 0x1e9185d movslq %r9d, %r9 movq 0x10(%rsp), %r10 movq 0x1c8(%r10), %r10 imulq %rcx, %rbx vmovaps (%r11,%rbx), %xmm0 vcmpnleps %xmm9, %xmm0, %k1 vcmpltps %xmm10, %xmm0, %k0 {%k1} kmovd %k0, %r11d cmpb $0xf, %r11b jne 0x1e9185d movq %rbp, %r12 movq (%r10,%r8), %r11 movq 0x10(%r10,%r8), %rbx movq %rbx, %r15 imulq %rax, %r15 vmovaps (%r11,%r15), %xmm0 vcmpnleps %xmm9, %xmm0, %k1 vcmpltps %xmm10, %xmm0, %k0 {%k1} kmovd %k0, %ebp cmpb $0xf, %bpl jne 0x1e9185a imulq %rcx, %rbx vmovaps (%r11,%rbx), %xmm0 vcmpnleps %xmm9, %xmm0, %k1 vcmpltps %xmm10, %xmm0, %k0 {%k1} kmovd %k0, %r11d cmpb $0xf, %r11b movq %r12, %rbp jne 0x1e9185d incq %rdi cmpq %r9, %rdi seta %sil ja 0x1e91867 movq 0x38(%rdx,%r8), %r11 movq 0x48(%rdx,%r8), %rbx addq $0x38, %r8 movq %rbx, %r15 imulq %rax, %r15 vmovaps (%r11,%r15), %xmm0 vcmpnleps %xmm9, %xmm0, %k1 vcmpltps %xmm10, %xmm0, %k0 {%k1} kmovd %k0, %ebp cmpb $0xf, %bpl movq %r12, %rbp je 0x1e91796 jmp 0x1e9185d movq %r12, %rbp testb $0x1, %sil je 0x1e91cde movq %r14, 0xd8(%rsp) leaq 0xd8(%rsp), %rax movq %rax, 0xe0(%rsp) movq 0x10(%rsp), %rax movq %rax, 0xe8(%rsp) vmovss 0x2c(%rax), %xmm0 vmovss 0x30(%rax), %xmm1 vsubss %xmm0, %xmm4, %xmm2 vsubss %xmm0, %xmm1, %xmm1 vdivss %xmm1, %xmm2, %xmm2 vsubss %xmm0, %xmm5, %xmm0 vdivss %xmm1, %xmm0, %xmm0 vmovss %xmm2, 0xc(%rsp) vmulss %xmm2, %xmm3, %xmm2 vmovss %xmm2, 0x20(%rsp) vmovss %xmm0, 0xa0(%rsp) vmulss %xmm0, %xmm3, %xmm1 vroundss $0x9, %xmm2, %xmm2, %xmm0 vmovss %xmm1, 0x50(%rsp) vroundss $0xa, %xmm1, %xmm1, %xmm1 vmaxss %xmm7, %xmm0, %xmm4 vmovss %xmm4, 0xb0(%rsp) vminss %xmm3, %xmm1, %xmm2 movq %rbp, %r12 vcvttss2si %xmm4, %ebp vmovss %xmm2, 0x40(%rsp) vcvttss2si %xmm2, %r13d vcvttss2si %xmm0, %ebx testl %ebx, %ebx movl $0xffffffff, %eax # imm = 0xFFFFFFFF cmovsl %eax, %ebx vcvttss2si %xmm1, %eax vmovss %xmm3, 0x1c(%rsp) vcvttss2si %xmm3, %r15d incl %r15d cmpl %r15d, %eax cmovll %eax, %r15d movslq %ebp, %rdx leaq 0x110(%rsp), %rdi movq %r12, %rsi callq 0x1e94a32 movslq %r13d, %rdx leaq 0xf0(%rsp), %rdi movq %r12, %rsi callq 0x1e94a32 movl %r15d, %eax subl %ebx, %eax vmovss 0x20(%rsp), %xmm0 vsubss 0xb0(%rsp), %xmm0, %xmm0 cmpl $0x1, %eax jne 0x1e919f0 vxorps %xmm7, %xmm7, %xmm7 vmaxss %xmm7, %xmm0, %xmm0 vmovss 0x5ada0(%rip), %xmm6 # 0x1eec714 vsubss %xmm0, %xmm6, %xmm1 vbroadcastss %xmm0, %xmm0 vmovaps 0xf0(%rsp), %xmm2 vmovaps 0x100(%rsp), %xmm3 vmulps %xmm2, %xmm0, %xmm11 vbroadcastss %xmm1, %xmm1 vmovaps 0x110(%rsp), %xmm4 vmovaps 0x120(%rsp), %xmm5 vfmadd231ps %xmm4, %xmm1, %xmm11 # xmm11 = (xmm1 * xmm4) + xmm11 vmulps %xmm3, %xmm0, %xmm12 vfmadd231ps %xmm1, %xmm5, %xmm12 # xmm12 = (xmm5 * xmm1) + xmm12 vmovss 0x40(%rsp), %xmm0 vsubss 0x50(%rsp), %xmm0, %xmm0 vmaxss %xmm7, %xmm0, %xmm0 vsubss %xmm0, %xmm6, %xmm1 vbroadcastss %xmm0, %xmm0 vmulps %xmm4, %xmm0, %xmm13 vbroadcastss %xmm1, %xmm1 vfmadd231ps %xmm2, %xmm1, %xmm13 # xmm13 = (xmm1 * xmm2) + xmm13 vmulps %xmm5, %xmm0, %xmm14 vfmadd231ps %xmm3, %xmm1, %xmm14 # xmm14 = (xmm1 * xmm3) + xmm14 movq %r12, %rbp jmp 0x1e91bcf incl %ebp movslq %ebp, %rdx leaq 0x1a0(%rsp), %rdi movq %r12, %rsi vmovss %xmm0, 0x20(%rsp) callq 0x1e94a32 decl %r13d movslq %r13d, %rdx leaq 0x180(%rsp), %rdi movq %r12, %rsi callq 0x1e94a32 vxorps %xmm3, %xmm3, %xmm3 vmovss 0x20(%rsp), %xmm0 vmaxss %xmm3, %xmm0, %xmm0 vbroadcastss %xmm0, %xmm1 vmulps 0x1a0(%rsp), %xmm1, %xmm11 vmovss 0x5accf(%rip), %xmm2 # 0x1eec714 vsubss %xmm0, %xmm2, %xmm0 vbroadcastss %xmm0, %xmm0 vfmadd231ps 0x110(%rsp), %xmm0, %xmm11 # xmm11 = (xmm0 * mem) + xmm11 vmulps 0x1b0(%rsp), %xmm1, %xmm12 vfmadd231ps 0x120(%rsp), %xmm0, %xmm12 # xmm12 = (xmm0 * mem) + xmm12 vmovss 0x40(%rsp), %xmm0 vsubss 0x50(%rsp), %xmm0, %xmm0 vmaxss %xmm3, %xmm0, %xmm0 vsubss %xmm0, %xmm2, %xmm1 vbroadcastss %xmm0, %xmm0 vmulps 0x180(%rsp), %xmm0, %xmm13 vbroadcastss %xmm1, %xmm1 vfmadd231ps 0xf0(%rsp), %xmm1, %xmm13 # xmm13 = (xmm1 * mem) + xmm13 vmulps 0x190(%rsp), %xmm0, %xmm14 vfmadd231ps 0x100(%rsp), %xmm1, %xmm14 # xmm14 = (xmm1 * mem) + xmm14 leal 0x1(%rbx), %eax cmpl %r15d, %eax movq %r12, %rbp jge 0x1e91bcb vmovss 0xc(%rsp), %xmm1 vmovss 0xa0(%rsp), %xmm0 vsubss %xmm1, %xmm0, %xmm0 vmovss %xmm0, 0x18(%rsp) movl %eax, %r13d notl %ebx addl %r15d, %ebx leaq 0x160(%rsp), %r15 vmovaps %xmm14, 0xb0(%rsp) vmovaps %xmm13, 0x20(%rsp) vmovaps %xmm12, 0x40(%rsp) vmovaps %xmm11, 0x50(%rsp) vcvtsi2ss %r13d, %xmm5, %xmm0 vdivss 0x1c(%rsp), %xmm0, %xmm0 vsubss %xmm1, %xmm0, %xmm0 vdivss 0x18(%rsp), %xmm0, %xmm0 vsubss %xmm0, %xmm2, %xmm1 vbroadcastss %xmm0, %xmm0 vmulps %xmm0, %xmm13, %xmm2 vbroadcastss %xmm1, %xmm1 vfmadd231ps %xmm11, %xmm1, %xmm2 # xmm2 = (xmm1 * xmm11) + xmm2 vmovaps %xmm2, 0xa0(%rsp) vmulps %xmm0, %xmm14, %xmm0 vfmadd231ps %xmm1, %xmm12, %xmm0 # xmm0 = (xmm12 * xmm1) + xmm0 vmovaps %xmm0, 0x150(%rsp) movq %r15, %rdi movq %rbp, %rsi movq %r13, %rdx callq 0x1e94a32 vmovaps 0xb0(%rsp), %xmm14 vmovaps 0x20(%rsp), %xmm13 vmovaps 0x40(%rsp), %xmm12 vmovaps 0x50(%rsp), %xmm11 vxorps %xmm3, %xmm3, %xmm3 vmovss 0x5ab96(%rip), %xmm2 # 0x1eec714 vmovaps 0x160(%rsp), %xmm0 vsubps 0xa0(%rsp), %xmm0, %xmm0 vmovaps 0x170(%rsp), %xmm1 vsubps 0x150(%rsp), %xmm1, %xmm1 vminps %xmm3, %xmm0, %xmm0 vmaxps %xmm3, %xmm1, %xmm1 vaddps %xmm0, %xmm11, %xmm11 vaddps %xmm0, %xmm13, %xmm13 vaddps %xmm1, %xmm12, %xmm12 vaddps %xmm1, %xmm14, %xmm14 vmovss 0xc(%rsp), %xmm1 incq %r13 decl %ebx jne 0x1e91ae7 vxorps %xmm7, %xmm7, %xmm7 vcmpleps %xmm12, %xmm11, %k0 knotw %k0, %k0 kmovd %k0, %eax testb $0x7, %al movq 0xd0(%rsp), %r13 vmovaps 0x140(%rsp), %xmm4 vmovaps 0x130(%rsp), %xmm5 vmovss 0x5ed3e(%rip), %xmm6 # 0x1ef0940 vmovss 0x5ed3a(%rip), %xmm8 # 0x1ef0944 movq 0x10(%rsp), %rsi vbroadcastss 0x8f7e4(%rip), %xmm9 # 0x1f213fc vbroadcastss 0x5f3bf(%rip), %xmm10 # 0x1ef0fe0 jne 0x1e91ce3 vcmpleps %xmm14, %xmm13, %k0 knotw %k0, %k0 kmovd %k0, %eax testb $0x7, %al jne 0x1e91ce3 vminps %xmm13, %xmm11, %xmm0 vmovss 0x200(%rsp), %xmm1 vinsertps $0x30, %xmm1, %xmm0, %xmm0 # xmm0 = xmm0[0,1,2],xmm1[0] vmaxps %xmm14, %xmm12, %xmm1 vmovd %r14d, %xmm2 vinsertps $0x30, %xmm2, %xmm1, %xmm1 # xmm1 = xmm1[0,1,2],xmm2[0] vaddps %xmm1, %xmm0, %xmm2 vmovaps 0x90(%rsp), %xmm3 vminps %xmm0, %xmm3, %xmm3 vmovaps %xmm3, 0x90(%rsp) vmovaps 0x80(%rsp), %xmm3 vmaxps %xmm1, %xmm3, %xmm3 vmovaps %xmm3, 0x80(%rsp) vmovaps 0x70(%rsp), %xmm3 vminps %xmm2, %xmm3, %xmm3 vmovaps %xmm3, 0x70(%rsp) vmovaps 0x60(%rsp), %xmm3 vmaxps %xmm2, %xmm3, %xmm3 vmovaps %xmm3, 0x60(%rsp) incq 0x30(%rsp) movq 0x38(%rsp), %rdx leaq 0x1(%rdx), %rax shlq $0x5, %rdx movq 0xc8(%rsp), %rcx vmovaps %xmm0, (%rcx,%rdx) vmovaps %xmm1, 0x10(%rcx,%rdx) movq %rax, 0x38(%rsp) jmp 0x1e91ce3 movq 0x10(%rsp), %rsi incq %r14 cmpq 0x8(%r13), %r14 jb 0x1e916d0 movq 0xc0(%rsp), %rax vmovaps 0x90(%rsp), %xmm0 vmovaps %xmm0, (%rax) vmovaps 0x80(%rsp), %xmm0 vmovaps %xmm0, 0x10(%rax) vmovaps 0x70(%rsp), %xmm0 vmovaps %xmm0, 0x20(%rax) vmovaps 0x60(%rsp), %xmm0 vmovaps %xmm0, 0x30(%rax) movq 0x30(%rsp), %rcx movq %rcx, 0x48(%rax) addq $0x1c8, %rsp # imm = 0x1C8 popq %rbx popq %r12 popq %r13 popq %r14 popq %r15 popq %rbp retq
/embree[P]embree/kernels/common/scene_curves.cpp
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)0, embree::avx512::HermiteCurveGeometryInterface, embree::HermiteCurveT>::computeAlignedSpace(unsigned long) const
LinearSpace3fa computeAlignedSpace(const size_t primID) const { Vec3fa axisz(0,0,1); Vec3fa axisy(0,1,0); const Curve3ff curve = getCurveScaledRadius(primID); const Vec3fa p0 = curve.begin(); const Vec3fa p3 = curve.end(); const Vec3fa d0 = curve.eval_du(0.0f); //const Vec3fa d1 = curve.eval_du(1.0f); const Vec3fa axisz_ = normalize(p3 - p0); const Vec3fa axisy_ = cross(axisz_,d0); if (sqr_length(p3-p0) > 1E-18f) { axisz = axisz_; axisy = axisy_; } if (sqr_length(axisy) > 1E-18) { axisy = normalize(axisy); Vec3fa axisx = normalize(cross(axisy,axisz)); return LinearSpace3fa(axisx,axisy,axisz); } return frame(axisz); }
movq %rdi, %rax imulq 0x68(%rsi), %rdx movq 0x58(%rsi), %rcx movq 0x188(%rsi), %rdi movl (%rcx,%rdx), %ecx movq (%rdi), %r8 movq 0x10(%rdi), %r9 movq %r9, %r10 imulq %rcx, %r10 vmovaps (%r8,%r10), %xmm0 leal 0x1(%rcx), %r11d imulq %r11, %r9 vmovaps (%r8,%r9), %xmm2 movq 0x1c8(%rsi), %rdi movq 0x10(%rdi), %rdx imulq %rdx, %rcx imulq %r11, %rdx vmovss 0x24c(%rsi), %xmm4 vmulss 0xc(%r8,%r10), %xmm4, %xmm1 vinsertps $0x30, %xmm1, %xmm0, %xmm1 # xmm1 = xmm0[0,1,2],xmm1[0] vmulss 0xc(%r8,%r9), %xmm4, %xmm0 vinsertps $0x30, %xmm0, %xmm2, %xmm3 # xmm3 = xmm2[0,1,2],xmm0[0] vxorps %xmm2, %xmm2, %xmm2 vsubps %xmm1, %xmm3, %xmm0 vdpps $0x7f, %xmm0, %xmm0, %xmm5 vmovss %xmm5, %xmm2, %xmm6 # xmm6 = xmm5[0],xmm2[1,2,3] vrsqrt14ss %xmm6, %xmm2, %xmm6 vmulss 0x5a09f(%rip), %xmm6, %xmm7 # 0x1eec718 vmulss 0x5a09b(%rip), %xmm5, %xmm8 # 0x1eec71c vmulss %xmm6, %xmm8, %xmm8 vmulss %xmm6, %xmm6, %xmm6 vmulss %xmm6, %xmm8, %xmm6 vaddss %xmm6, %xmm7, %xmm6 vbroadcastss %xmm6, %xmm6 vmulps %xmm6, %xmm0, %xmm0 vucomiss 0x5e946(%rip), %xmm5 # 0x1ef0fe8 ja 0x1e926b0 vmovsd 0x5a044(%rip), %xmm1 # 0x1eec6f0 jbe 0x1e9271e jmp 0x1e92726 movq (%rdi), %rsi vmovaps (%rsi,%rcx), %xmm5 vmovaps (%rsi,%rdx), %xmm6 vmulss 0xc(%rsi,%rcx), %xmm4, %xmm7 vinsertps $0x30, %xmm7, %xmm5, %xmm5 # xmm5 = xmm5[0,1,2],xmm7[0] vmulss 0xc(%rsi,%rdx), %xmm4, %xmm4 vinsertps $0x30, %xmm4, %xmm6, %xmm4 # xmm4 = xmm6[0,1,2],xmm4[0] vbroadcastss 0xcad8e(%rip), %xmm6 # 0x1f5d46c vfnmadd213ps %xmm1, %xmm6, %xmm5 # xmm5 = -(xmm6 * xmm5) + xmm1 vfmadd213ps %xmm3, %xmm6, %xmm4 # xmm4 = (xmm6 * xmm4) + xmm3 vmulps %xmm2, %xmm3, %xmm3 vfmadd231ps %xmm4, %xmm2, %xmm3 # xmm3 = (xmm2 * xmm4) + xmm3 vbroadcastss 0x5e8f6(%rip), %xmm2 # 0x1ef0ff0 vfnmadd231ps %xmm5, %xmm2, %xmm3 # xmm3 = -(xmm2 * xmm5) + xmm3 vfmadd231ps %xmm2, %xmm1, %xmm3 # xmm3 = (xmm1 * xmm2) + xmm3 vshufps $0xc9, %xmm3, %xmm3, %xmm1 # xmm1 = xmm3[1,2,0,3] vshufps $0xc9, %xmm0, %xmm0, %xmm2 # xmm2 = xmm0[1,2,0,3] vmulps %xmm2, %xmm3, %xmm2 vfmsub231ps %xmm1, %xmm0, %xmm2 # xmm2 = (xmm0 * xmm1) - xmm2 vshufps $0xc9, %xmm2, %xmm2, %xmm1 # xmm1 = xmm2[1,2,0,3] ja 0x1e92726 vmovaps 0x59fda(%rip), %xmm0 # 0x1eec700 vdpps $0x7f, %xmm1, %xmm1, %xmm2 vcvtss2sd %xmm2, %xmm2, %xmm3 vucomisd 0x5e8d8(%rip), %xmm3 # 0x1ef1010 jbe 0x1e927cb vxorps %xmm3, %xmm3, %xmm3 vmovss %xmm2, %xmm3, %xmm4 # xmm4 = xmm2[0],xmm3[1,2,3] vrsqrt14ss %xmm4, %xmm3, %xmm4 vmovss 0x59fc4(%rip), %xmm5 # 0x1eec718 vmulss %xmm5, %xmm4, %xmm6 vmovss 0x5a420(%rip), %xmm7 # 0x1eecb80 vmulss %xmm7, %xmm2, %xmm2 vmulss %xmm4, %xmm2, %xmm2 vmulss %xmm4, %xmm4, %xmm4 vmulss %xmm4, %xmm2, %xmm2 vsubss %xmm2, %xmm6, %xmm2 vbroadcastss %xmm2, %xmm2 vmulps %xmm2, %xmm1, %xmm1 vshufps $0xc9, %xmm0, %xmm0, %xmm2 # xmm2 = xmm0[1,2,0,3] vshufps $0xc9, %xmm1, %xmm1, %xmm4 # xmm4 = xmm1[1,2,0,3] vmulps %xmm4, %xmm0, %xmm4 vfmsub231ps %xmm2, %xmm1, %xmm4 # xmm4 = (xmm1 * xmm2) - xmm4 vshufps $0xc9, %xmm4, %xmm4, %xmm2 # xmm2 = xmm4[1,2,0,3] vdpps $0x7f, %xmm2, %xmm2, %xmm4 vmovss %xmm4, %xmm3, %xmm6 # xmm6 = xmm4[0],xmm3[1,2,3] vrsqrt14ss %xmm6, %xmm3, %xmm3 vmulss %xmm5, %xmm3, %xmm5 vmulss %xmm7, %xmm4, %xmm4 vmulss %xmm3, %xmm4, %xmm4 vmulss %xmm3, %xmm3, %xmm3 vmulss %xmm3, %xmm4, %xmm3 vsubss %xmm3, %xmm5, %xmm3 vbroadcastss %xmm3, %xmm3 vmulps %xmm2, %xmm3, %xmm2 jmp 0x1e928ba vshufpd $0x1, %xmm0, %xmm0, %xmm1 # xmm1 = xmm0[1,0] vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3] vbroadcastss 0x8e6e3(%rip), %xmm3 # 0x1f20ec0 vxorps %xmm3, %xmm2, %xmm2 vxorps %xmm4, %xmm4, %xmm4 vunpckhps %xmm4, %xmm0, %xmm5 # xmm5 = xmm0[2],xmm4[2],xmm0[3],xmm4[3] vmovss %xmm2, %xmm4, %xmm2 # xmm2 = xmm2[0],xmm4[1,2,3] vshufps $0x41, %xmm2, %xmm5, %xmm2 # xmm2 = xmm5[1,0],xmm2[0,1] vdpps $0x7f, %xmm2, %xmm2, %xmm5 vxorpd %xmm3, %xmm1, %xmm1 vinsertps $0x2a, %xmm0, %xmm1, %xmm1 # xmm1 = xmm1[0],zero,xmm0[0],zero vdpps $0x7f, %xmm1, %xmm1, %xmm3 vcmpltps %xmm5, %xmm3, %k0 vpmovm2d %k0, %xmm3 vpbroadcastd %xmm3, %xmm3 vpmovd2m %xmm3, %k1 vpcmpeqd %xmm3, %xmm3, %xmm3 vmovaps %xmm3, %xmm3 {%k1} {z} vblendvps %xmm3, %xmm2, %xmm1, %xmm1 vdpps $0x7f, %xmm1, %xmm1, %xmm2 vmovss %xmm2, %xmm4, %xmm3 # xmm3 = xmm2[0],xmm4[1,2,3] vrsqrt14ss %xmm3, %xmm4, %xmm3 vmovss 0x59ed0(%rip), %xmm5 # 0x1eec718 vmulss %xmm5, %xmm3, %xmm6 vmovss 0x5a32c(%rip), %xmm7 # 0x1eecb80 vmulss %xmm7, %xmm2, %xmm2 vmulss %xmm3, %xmm2, %xmm2 vmulss %xmm3, %xmm3, %xmm3 vmulss %xmm3, %xmm2, %xmm2 vsubss %xmm2, %xmm6, %xmm2 vbroadcastss %xmm2, %xmm2 vmulps %xmm2, %xmm1, %xmm2 vshufps $0xc9, %xmm2, %xmm2, %xmm1 # xmm1 = xmm2[1,2,0,3] vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3] vmulps %xmm3, %xmm2, %xmm3 vfmsub231ps %xmm1, %xmm0, %xmm3 # xmm3 = (xmm0 * xmm1) - xmm3 vshufps $0xc9, %xmm3, %xmm3, %xmm1 # xmm1 = xmm3[1,2,0,3] vdpps $0x7f, %xmm1, %xmm1, %xmm3 vmovss %xmm3, %xmm4, %xmm6 # xmm6 = xmm3[0],xmm4[1,2,3] vrsqrt14ss %xmm6, %xmm4, %xmm4 vmulss %xmm5, %xmm4, %xmm5 vmulss %xmm7, %xmm3, %xmm3 vmulss %xmm4, %xmm3, %xmm3 vmulss %xmm4, %xmm4, %xmm4 vmulss %xmm4, %xmm3, %xmm3 vsubss %xmm3, %xmm5, %xmm3 vbroadcastss %xmm3, %xmm3 vmulps %xmm1, %xmm3, %xmm1 vmovaps %xmm2, (%rax) vmovaps %xmm1, 0x10(%rax) vmovaps %xmm0, 0x20(%rax) retq nop
/embree[P]embree/kernels/common/scene_curves.cpp
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)0, embree::avx512::HermiteCurveGeometryInterface, embree::HermiteCurveT>::computeAlignedSpaceMB(unsigned long, embree::BBox<float>) const
LinearSpace3fa computeAlignedSpaceMB(const size_t primID, const BBox1f time_range) const { Vec3fa axisz(0,0,1); Vec3fa axisy(0,1,0); const range<int> tbounds = this->timeSegmentRange(time_range); if (tbounds.size() == 0) return frame(axisz); const size_t t = (tbounds.begin()+tbounds.end())/2; const Curve3ff curve = getCurveScaledRadius(primID,t); const Vec3fa p0 = curve.begin(); const Vec3fa p3 = curve.end(); const Vec3fa d0 = curve.eval_du(0.0f); //const Vec3fa d1 = curve.eval_du(1.0f); const Vec3fa axisz_ = normalize(p3 - p0); const Vec3fa axisy_ = cross(axisz_,d0); if (sqr_length(p3-p0) > 1E-18f) { axisz = axisz_; axisy = axisy_; } if (sqr_length(axisy) > 1E-18) { axisy = normalize(axisy); Vec3fa axisx = normalize(cross(axisy,axisz)); return LinearSpace3fa(axisx,axisy,axisz); } return frame(axisz); }
pushq %rbx movq %rdi, %rax vmovsd 0x2c(%rsi), %xmm1 vmovss 0x28(%rsi), %xmm2 vsubss %xmm1, %xmm0, %xmm3 vmovshdup %xmm1, %xmm4 # xmm4 = xmm1[1,1,3,3] vsubss %xmm1, %xmm4, %xmm4 vdivss %xmm4, %xmm3, %xmm3 vmovshdup %xmm0, %xmm0 # xmm0 = xmm0[1,1,3,3] vsubss %xmm1, %xmm0, %xmm0 vdivss %xmm4, %xmm0, %xmm0 vmulss 0x5e044(%rip), %xmm3, %xmm1 # 0x1ef0940 vmulss %xmm1, %xmm2, %xmm1 vroundss $0x9, %xmm1, %xmm1, %xmm1 vxorps %xmm3, %xmm3, %xmm3 vmaxss %xmm1, %xmm3, %xmm1 vcvttss2si %xmm1, %ecx vmulss 0x5e02a(%rip), %xmm0, %xmm0 # 0x1ef0944 vmulss %xmm0, %xmm2, %xmm0 vroundss $0xa, %xmm0, %xmm0, %xmm0 vminss %xmm2, %xmm0, %xmm0 vcvttss2si %xmm0, %edi cmpl %ecx, %edi jne 0x1e92a12 vmovaps 0x8eba4(%rip), %xmm0 # 0x1f214e0 vdpps $0x7f, %xmm0, %xmm0, %xmm1 vmovss 0x5e082(%rip), %xmm2 # 0x1ef09cc vdpps $0x7f, %xmm2, %xmm2, %xmm3 vcmpltps %xmm1, %xmm3, %k0 vpmovm2d %k0, %xmm1 vpbroadcastd %xmm1, %xmm1 vpmovd2m %xmm1, %k1 vpcmpeqd %xmm1, %xmm1, %xmm1 vmovaps %xmm1, %xmm1 {%k1} {z} vblendvps %xmm1, %xmm0, %xmm2, %xmm0 vxorps %xmm2, %xmm2, %xmm2 vdpps $0x7f, %xmm0, %xmm0, %xmm1 vmovss %xmm1, %xmm2, %xmm3 # xmm3 = xmm1[0],xmm2[1,2,3] vrsqrt14ss %xmm3, %xmm2, %xmm3 vmovss 0x59d84(%rip), %xmm4 # 0x1eec718 vmulss %xmm4, %xmm3, %xmm5 vmovss 0x5a1e0(%rip), %xmm6 # 0x1eecb80 vmulss %xmm6, %xmm1, %xmm1 vmulss %xmm3, %xmm1, %xmm1 vmulss %xmm3, %xmm3, %xmm3 vmulss %xmm3, %xmm1, %xmm1 vsubss %xmm1, %xmm5, %xmm1 vbroadcastss %xmm1, %xmm1 vmulps %xmm1, %xmm0, %xmm1 vshufps $0xc9, %xmm1, %xmm1, %xmm3 # xmm3 = xmm1[1,2,0,3] vmulps 0x5e5a6(%rip), %xmm1, %xmm5 # 0x1ef0f70 vmovaps 0x59d2e(%rip), %xmm0 # 0x1eec700 vfmadd231ps %xmm3, %xmm0, %xmm5 # xmm5 = (xmm0 * xmm3) + xmm5 vshufps $0xc9, %xmm5, %xmm5, %xmm3 # xmm3 = xmm5[1,2,0,3] vdpps $0x7f, %xmm3, %xmm3, %xmm5 vmovss %xmm5, %xmm2, %xmm7 # xmm7 = xmm5[0],xmm2[1,2,3] vrsqrt14ss %xmm7, %xmm2, %xmm2 vmulss %xmm4, %xmm2, %xmm4 vmulss %xmm6, %xmm5, %xmm5 vmulss %xmm2, %xmm5, %xmm5 vmulss %xmm2, %xmm2, %xmm2 vmulss %xmm2, %xmm5, %xmm2 vsubss %xmm2, %xmm4, %xmm2 vbroadcastss %xmm2, %xmm2 vmulps %xmm3, %xmm2, %xmm2 jmp 0x1e92cf2 addl %edi, %ecx movl %ecx, %edi shrl $0x1f, %edi addl %ecx, %edi sarl %edi movslq %edi, %rdi imulq 0x68(%rsi), %rdx movq 0x58(%rsi), %rcx movq 0x188(%rsi), %r8 movl (%rcx,%rdx), %ecx imulq $0x38, %rdi, %rdx movq (%r8,%rdx), %r9 movq 0x10(%r8,%rdx), %r10 movq %r10, %r11 imulq %rcx, %r11 vmovaps (%r9,%r11), %xmm0 leal 0x1(%rcx), %ebx imulq %rbx, %r10 vmovaps (%r9,%r10), %xmm2 movq 0x1c8(%rsi), %r8 movq 0x10(%r8,%rdx), %rdi imulq %rdi, %rcx imulq %rbx, %rdi vmovss 0x24c(%rsi), %xmm4 vmulss 0xc(%r9,%r11), %xmm4, %xmm1 vinsertps $0x30, %xmm1, %xmm0, %xmm1 # xmm1 = xmm0[0,1,2],xmm1[0] vmulss 0xc(%r9,%r10), %xmm4, %xmm0 vinsertps $0x30, %xmm0, %xmm2, %xmm3 # xmm3 = xmm2[0,1,2],xmm0[0] vxorps %xmm2, %xmm2, %xmm2 vsubps %xmm1, %xmm3, %xmm0 vdpps $0x7f, %xmm0, %xmm0, %xmm5 vmovss %xmm5, %xmm2, %xmm6 # xmm6 = xmm5[0],xmm2[1,2,3] vrsqrt14ss %xmm6, %xmm2, %xmm6 vmulss 0x59c68(%rip), %xmm6, %xmm7 # 0x1eec718 vmulss 0x59c64(%rip), %xmm5, %xmm8 # 0x1eec71c vmulss %xmm6, %xmm8, %xmm8 vmulss %xmm6, %xmm6, %xmm6 vmulss %xmm6, %xmm8, %xmm6 vaddss %xmm6, %xmm7, %xmm6 vbroadcastss %xmm6, %xmm6 vmulps %xmm6, %xmm0, %xmm0 vucomiss 0x5e50f(%rip), %xmm5 # 0x1ef0fe8 ja 0x1e92ae7 vmovsd 0x59c0d(%rip), %xmm1 # 0x1eec6f0 jbe 0x1e92b56 jmp 0x1e92b5e movq (%r8,%rdx), %rdx vmovaps (%rdx,%rcx), %xmm5 vmovaps (%rdx,%rdi), %xmm6 vmulss 0xc(%rdx,%rcx), %xmm4, %xmm7 vinsertps $0x30, %xmm7, %xmm5, %xmm5 # xmm5 = xmm5[0,1,2],xmm7[0] vmulss 0xc(%rdx,%rdi), %xmm4, %xmm4 vinsertps $0x30, %xmm4, %xmm6, %xmm4 # xmm4 = xmm6[0,1,2],xmm4[0] vbroadcastss 0xca956(%rip), %xmm6 # 0x1f5d46c vfnmadd213ps %xmm1, %xmm6, %xmm5 # xmm5 = -(xmm6 * xmm5) + xmm1 vfmadd213ps %xmm3, %xmm6, %xmm4 # xmm4 = (xmm6 * xmm4) + xmm3 vmulps %xmm2, %xmm3, %xmm3 vfmadd231ps %xmm4, %xmm2, %xmm3 # xmm3 = (xmm2 * xmm4) + xmm3 vbroadcastss 0x5e4be(%rip), %xmm2 # 0x1ef0ff0 vfnmadd231ps %xmm5, %xmm2, %xmm3 # xmm3 = -(xmm2 * xmm5) + xmm3 vfmadd231ps %xmm2, %xmm1, %xmm3 # xmm3 = (xmm1 * xmm2) + xmm3 vshufps $0xc9, %xmm3, %xmm3, %xmm1 # xmm1 = xmm3[1,2,0,3] vshufps $0xc9, %xmm0, %xmm0, %xmm2 # xmm2 = xmm0[1,2,0,3] vmulps %xmm2, %xmm3, %xmm2 vfmsub231ps %xmm1, %xmm0, %xmm2 # xmm2 = (xmm0 * xmm1) - xmm2 vshufps $0xc9, %xmm2, %xmm2, %xmm1 # xmm1 = xmm2[1,2,0,3] ja 0x1e92b5e vmovaps 0x59ba2(%rip), %xmm0 # 0x1eec700 vdpps $0x7f, %xmm1, %xmm1, %xmm2 vcvtss2sd %xmm2, %xmm2, %xmm3 vucomisd 0x5e4a0(%rip), %xmm3 # 0x1ef1010 jbe 0x1e92c03 vxorps %xmm3, %xmm3, %xmm3 vmovss %xmm2, %xmm3, %xmm4 # xmm4 = xmm2[0],xmm3[1,2,3] vrsqrt14ss %xmm4, %xmm3, %xmm4 vmovss 0x59b8c(%rip), %xmm5 # 0x1eec718 vmulss %xmm5, %xmm4, %xmm6 vmovss 0x59fe8(%rip), %xmm7 # 0x1eecb80 vmulss %xmm7, %xmm2, %xmm2 vmulss %xmm4, %xmm2, %xmm2 vmulss %xmm4, %xmm4, %xmm4 vmulss %xmm4, %xmm2, %xmm2 vsubss %xmm2, %xmm6, %xmm2 vbroadcastss %xmm2, %xmm2 vmulps %xmm2, %xmm1, %xmm2 vshufps $0xc9, %xmm0, %xmm0, %xmm1 # xmm1 = xmm0[1,2,0,3] vshufps $0xc9, %xmm2, %xmm2, %xmm4 # xmm4 = xmm2[1,2,0,3] vmulps %xmm4, %xmm0, %xmm4 vfmsub231ps %xmm1, %xmm2, %xmm4 # xmm4 = (xmm2 * xmm1) - xmm4 vshufps $0xc9, %xmm4, %xmm4, %xmm1 # xmm1 = xmm4[1,2,0,3] vdpps $0x7f, %xmm1, %xmm1, %xmm4 vmovss %xmm4, %xmm3, %xmm6 # xmm6 = xmm4[0],xmm3[1,2,3] vrsqrt14ss %xmm6, %xmm3, %xmm3 vmulss %xmm5, %xmm3, %xmm5 vmulss %xmm7, %xmm4, %xmm4 vmulss %xmm3, %xmm4, %xmm4 vmulss %xmm3, %xmm3, %xmm3 vmulss %xmm3, %xmm4, %xmm3 vsubss %xmm3, %xmm5, %xmm3 vbroadcastss %xmm3, %xmm3 vmulps %xmm1, %xmm3, %xmm1 jmp 0x1e92cf2 vshufpd $0x1, %xmm0, %xmm0, %xmm1 # xmm1 = xmm0[1,0] vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3] vbroadcastss 0x8e2ab(%rip), %xmm3 # 0x1f20ec0 vxorps %xmm3, %xmm2, %xmm2 vxorps %xmm4, %xmm4, %xmm4 vunpckhps %xmm4, %xmm0, %xmm5 # xmm5 = xmm0[2],xmm4[2],xmm0[3],xmm4[3] vmovss %xmm2, %xmm4, %xmm2 # xmm2 = xmm2[0],xmm4[1,2,3] vshufps $0x41, %xmm2, %xmm5, %xmm2 # xmm2 = xmm5[1,0],xmm2[0,1] vdpps $0x7f, %xmm2, %xmm2, %xmm5 vxorpd %xmm3, %xmm1, %xmm1 vinsertps $0x2a, %xmm0, %xmm1, %xmm1 # xmm1 = xmm1[0],zero,xmm0[0],zero vdpps $0x7f, %xmm1, %xmm1, %xmm3 vcmpltps %xmm5, %xmm3, %k0 vpmovm2d %k0, %xmm3 vpbroadcastd %xmm3, %xmm3 vpmovd2m %xmm3, %k1 vpcmpeqd %xmm3, %xmm3, %xmm3 vmovaps %xmm3, %xmm3 {%k1} {z} vblendvps %xmm3, %xmm2, %xmm1, %xmm1 vdpps $0x7f, %xmm1, %xmm1, %xmm2 vmovss %xmm2, %xmm4, %xmm3 # xmm3 = xmm2[0],xmm4[1,2,3] vrsqrt14ss %xmm3, %xmm4, %xmm3 vmovss 0x59a98(%rip), %xmm5 # 0x1eec718 vmulss %xmm5, %xmm3, %xmm6 vmovss 0x59ef4(%rip), %xmm7 # 0x1eecb80 vmulss %xmm7, %xmm2, %xmm2 vmulss %xmm3, %xmm2, %xmm2 vmulss %xmm3, %xmm3, %xmm3 vmulss %xmm3, %xmm2, %xmm2 vsubss %xmm2, %xmm6, %xmm2 vbroadcastss %xmm2, %xmm2 vmulps %xmm2, %xmm1, %xmm1 vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3] vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3] vmulps %xmm3, %xmm1, %xmm3 vfmsub231ps %xmm2, %xmm0, %xmm3 # xmm3 = (xmm0 * xmm2) - xmm3 vshufps $0xc9, %xmm3, %xmm3, %xmm2 # xmm2 = xmm3[1,2,0,3] vdpps $0x7f, %xmm2, %xmm2, %xmm3 vmovss %xmm3, %xmm4, %xmm6 # xmm6 = xmm3[0],xmm4[1,2,3] vrsqrt14ss %xmm6, %xmm4, %xmm4 vmulss %xmm5, %xmm4, %xmm5 vmulss %xmm7, %xmm3, %xmm3 vmulss %xmm4, %xmm3, %xmm3 vmulss %xmm4, %xmm4, %xmm4 vmulss %xmm4, %xmm3, %xmm3 vsubss %xmm3, %xmm5, %xmm3 vbroadcastss %xmm3, %xmm3 vmulps %xmm2, %xmm3, %xmm2 vmovaps %xmm1, (%rax) vmovaps %xmm2, 0x10(%rax) vmovaps %xmm0, 0x20(%rax) popq %rbx retq
/embree[P]embree/kernels/common/scene_curves.cpp
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)0, embree::avx512::HermiteCurveGeometryInterface, embree::HermiteCurveT>::computeDirection(unsigned int, unsigned long) const
Vec3fa computeDirection(unsigned int primID, size_t time) const { const Curve3ff c = getCurveScaledRadius(primID,time); const Vec3fa p0 = c.begin(); const Vec3fa p3 = c.end(); const Vec3fa axis1 = p3 - p0; return axis1; }
movl %edx, %eax imulq 0x68(%rsi), %rax movq 0x58(%rsi), %rdx movq 0x188(%rsi), %r8 movl (%rdx,%rax), %eax imulq $0x38, %rcx, %rcx movq (%r8,%rcx), %rdx movq 0x10(%r8,%rcx), %rcx leal 0x1(%rax), %r8d movq %rax, %r9 imulq %rcx, %r9 vmovaps (%rdx,%r9), %xmm0 imulq %rcx, %r8 vmovaps (%rdx,%r8), %xmm1 movq %rdi, %rax vmovss 0x24c(%rsi), %xmm2 vmulss 0xc(%rdx,%r9), %xmm2, %xmm3 vinsertps $0x30, %xmm3, %xmm0, %xmm0 # xmm0 = xmm0[0,1,2],xmm3[0] vmulss 0xc(%rdx,%r8), %xmm2, %xmm2 vinsertps $0x30, %xmm2, %xmm1, %xmm1 # xmm1 = xmm1[0,1,2],xmm2[0] vsubps %xmm0, %xmm1, %xmm0 vmovaps %xmm0, (%rdi) retq nop
/embree[P]embree/kernels/common/scene_curves.cpp
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)0, embree::avx512::HermiteCurveGeometryInterface, embree::HermiteCurveT>::vbounds(unsigned long) const
size_t CurveGeometry::getGeometryDataDeviceByteSize() const { size_t byte_size = sizeof(CurveGeometry); if (vertices.size() > 0) byte_size += numTimeSteps * sizeof(BufferView<Vec3ff>); if (normals.size() > 0) byte_size += numTimeSteps * sizeof(BufferView<Vec3fa>); if (tangents.size() > 0) byte_size += numTimeSteps * sizeof(BufferView<Vec3ff>); if (dnormals.size() > 0) byte_size += numTimeSteps * sizeof(BufferView<Vec3fa>); return 16 * ((byte_size + 15) / 16); }
pushq %rbx imulq 0x68(%rsi), %rdx movq 0x58(%rsi), %rax movq 0x188(%rsi), %rcx movl (%rax,%rdx), %edx movq (%rcx), %r8 movq 0x10(%rcx), %rcx movq %rcx, %r9 imulq %rdx, %r9 vmovaps (%r8,%r9), %xmm3 leal 0x1(%rdx), %r10d imulq %r10, %rcx vmovaps (%r8,%rcx), %xmm2 movq 0x1c8(%rsi), %rax movq (%rax), %r11 movq 0x10(%rax), %rbx imulq %rbx, %rdx vmovaps (%r11,%rdx), %xmm4 movq %rdi, %rax imulq %r10, %rbx vmovaps (%r11,%rbx), %xmm5 vmovss 0x24c(%rsi), %xmm6 vmulss 0xc(%r8,%r9), %xmm6, %xmm10 vinsertps $0x30, %xmm10, %xmm3, %xmm8 # xmm8 = xmm3[0,1,2],xmm10[0] vmulss 0xc(%r8,%rcx), %xmm6, %xmm0 vinsertps $0x30, %xmm0, %xmm2, %xmm1 # xmm1 = xmm2[0,1,2],xmm0[0] vmulss 0xc(%r11,%rdx), %xmm6, %xmm7 vinsertps $0x30, %xmm7, %xmm4, %xmm7 # xmm7 = xmm4[0,1,2],xmm7[0] vmulss 0xc(%r11,%rbx), %xmm6, %xmm4 vinsertps $0x30, %xmm4, %xmm5, %xmm4 # xmm4 = xmm5[0,1,2],xmm4[0] vbroadcastss 0xca5f8(%rip), %xmm5 # 0x1f5d46c vfnmadd213ps %xmm8, %xmm5, %xmm7 # xmm7 = -(xmm5 * xmm7) + xmm8 vfmadd213ps %xmm1, %xmm5, %xmm4 # xmm4 = (xmm5 * xmm4) + xmm1 movl 0x248(%rsi), %ecx cmpq $0x4, %rcx jne 0x1e9307d leaq 0x29444f(%rip), %rcx # 0x21272e4 vmovups 0x110(%rcx), %xmm5 vbroadcastss %xmm3, %xmm6 vshufps $0x55, %xmm3, %xmm3, %xmm8 # xmm8 = xmm3[1,1,1,1] vshufps $0xaa, %xmm3, %xmm3, %xmm3 # xmm3 = xmm3[2,2,2,2] vbroadcastss %xmm10, %xmm9 vmovups 0x594(%rcx), %xmm10 vbroadcastss %xmm7, %xmm11 vshufps $0x55, %xmm7, %xmm7, %xmm12 # xmm12 = xmm7[1,1,1,1] vshufps $0xaa, %xmm7, %xmm7, %xmm13 # xmm13 = xmm7[2,2,2,2] vshufps $0xff, %xmm7, %xmm7, %xmm7 # xmm7 = xmm7[3,3,3,3] vmovups 0xa18(%rcx), %xmm14 vbroadcastss %xmm4, %xmm15 vshufps $0x55, %xmm4, %xmm4, %xmm16 # xmm16 = xmm4[1,1,1,1] vshufps $0xaa, %xmm4, %xmm4, %xmm17 # xmm17 = xmm4[2,2,2,2] vshufps $0xff, %xmm4, %xmm4, %xmm4 # xmm4 = xmm4[3,3,3,3] vmovups 0xe9c(%rcx), %xmm18 vbroadcastss %xmm2, %xmm19 vshufps $0x55, %xmm2, %xmm2, %xmm20 # xmm20 = xmm2[1,1,1,1] vshufps $0xaa, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[2,2,2,2] vbroadcastss %xmm0, %xmm21 vmulps %xmm18, %xmm19, %xmm19 vmulps %xmm18, %xmm20, %xmm20 vmulps %xmm18, %xmm2, %xmm2 vmulps %xmm18, %xmm21, %xmm18 vfmadd231ps %xmm15, %xmm14, %xmm19 # xmm19 = (xmm14 * xmm15) + xmm19 vfmadd231ps %xmm16, %xmm14, %xmm20 # xmm20 = (xmm14 * xmm16) + xmm20 vfmadd231ps %xmm17, %xmm14, %xmm2 # xmm2 = (xmm14 * xmm17) + xmm2 vfmadd231ps %xmm4, %xmm14, %xmm18 # xmm18 = (xmm14 * xmm4) + xmm18 vfmadd231ps %xmm11, %xmm10, %xmm19 # xmm19 = (xmm10 * xmm11) + xmm19 vfmadd231ps %xmm12, %xmm10, %xmm20 # xmm20 = (xmm10 * xmm12) + xmm20 vfmadd231ps %xmm13, %xmm10, %xmm2 # xmm2 = (xmm10 * xmm13) + xmm2 vfmadd231ps %xmm7, %xmm10, %xmm18 # xmm18 = (xmm10 * xmm7) + xmm18 vfmadd231ps %xmm6, %xmm5, %xmm19 # xmm19 = (xmm5 * xmm6) + xmm19 vfmadd231ps %xmm8, %xmm5, %xmm20 # xmm20 = (xmm5 * xmm8) + xmm20 vfmadd231ps %xmm3, %xmm5, %xmm2 # xmm2 = (xmm5 * xmm3) + xmm2 vfmadd231ps %xmm9, %xmm5, %xmm18 # xmm18 = (xmm5 * xmm9) + xmm18 vshufps $0xb1, %xmm19, %xmm19, %xmm3 # xmm3 = xmm19[1,0,3,2] vminps %xmm19, %xmm3, %xmm4 vshufpd $0x1, %xmm4, %xmm4, %xmm5 # xmm5 = xmm4[1,0] vminps %xmm4, %xmm5, %xmm4 vshufps $0xb1, %xmm20, %xmm20, %xmm6 # xmm6 = xmm20[1,0,3,2] vminps %xmm20, %xmm6, %xmm5 vshufpd $0x1, %xmm5, %xmm5, %xmm7 # xmm7 = xmm5[1,0] vminps %xmm5, %xmm7, %xmm5 vinsertps $0x1c, %xmm5, %xmm4, %xmm4 # xmm4 = xmm4[0],xmm5[0],zero,zero vshufps $0xb1, %xmm2, %xmm2, %xmm7 # xmm7 = xmm2[1,0,3,2] vminps %xmm2, %xmm7, %xmm5 vshufpd $0x1, %xmm5, %xmm5, %xmm8 # xmm8 = xmm5[1,0] vminps %xmm5, %xmm8, %xmm5 vinsertps $0x20, %xmm5, %xmm4, %xmm5 # xmm5 = xmm4[0,1],xmm5[0],xmm4[3] vmaxps %xmm19, %xmm3, %xmm3 vshufpd $0x1, %xmm3, %xmm3, %xmm4 # xmm4 = xmm3[1,0] vmaxps %xmm3, %xmm4, %xmm3 vmaxps %xmm20, %xmm6, %xmm4 vshufpd $0x1, %xmm4, %xmm4, %xmm6 # xmm6 = xmm4[1,0] vmaxps %xmm4, %xmm6, %xmm4 vinsertps $0x1c, %xmm4, %xmm3, %xmm3 # xmm3 = xmm3[0],xmm4[0],zero,zero vmaxps %xmm2, %xmm7, %xmm2 vshufpd $0x1, %xmm2, %xmm2, %xmm4 # xmm4 = xmm2[1,0] vmaxps %xmm2, %xmm4, %xmm2 vandps 0x8ded2(%rip){1to4}, %xmm18, %xmm4 # 0x1f20ec4 vinsertps $0x20, %xmm2, %xmm3, %xmm3 # xmm3 = xmm3[0,1],xmm2[0],xmm3[3] vprolq $0x20, %xmm4, %xmm2 vmaxps %xmm4, %xmm2, %xmm2 vbroadcastss %xmm2, %xmm4 vshufps $0xaa, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[2,2,2,2] vmaxps %xmm4, %xmm2, %xmm2 vminps %xmm1, %xmm5, %xmm4 vmaxps %xmm1, %xmm3, %xmm1 vbroadcastss %xmm0, %xmm0 vandps 0x8de9c(%rip){1to4}, %xmm0, %xmm0 # 0x1f20ec4 vmaxps %xmm0, %xmm2, %xmm0 vsubps %xmm0, %xmm4, %xmm2 vaddps %xmm0, %xmm1, %xmm0 vbroadcastss 0x8de87(%rip), %xmm1 # 0x1f20ec4 vandps %xmm1, %xmm2, %xmm3 vandps %xmm1, %xmm0, %xmm1 vmaxps %xmm1, %xmm3, %xmm1 vmovshdup %xmm1, %xmm3 # xmm3 = xmm1[1,1,3,3] vmaxss %xmm1, %xmm3, %xmm3 vshufpd $0x1, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[1,0] vmaxss %xmm3, %xmm1, %xmm1 vmulss 0x5df82(%rip), %xmm1, %xmm1 # 0x1ef0fe4 vbroadcastss %xmm1, %xmm1 vsubps %xmm1, %xmm2, %xmm2 vaddps %xmm1, %xmm0, %xmm0 vmovaps %xmm2, (%rax) vmovaps %xmm0, 0x10(%rax) popq %rbx vzeroupper retq testl %ecx, %ecx jle 0x1e93229 vpbroadcastd %ecx, %ymm5 vbroadcastss %xmm3, %ymm6 vbroadcastss 0x7f66a(%rip), %ymm21 # 0x1f12704 vpermps %ymm3, %ymm21, %ymm8 vbroadcastss 0x8de32(%rip), %ymm22 # 0x1f20edc vpermps %ymm3, %ymm22, %ymm9 vbroadcastss %xmm10, %ymm11 vbroadcastss %xmm7, %ymm12 vpermps %ymm7, %ymm21, %ymm13 vbroadcastss 0x8de0f(%rip), %ymm3 # 0x1f20ed8 vpermps %ymm7, %ymm22, %ymm14 vpermps %ymm7, %ymm3, %ymm15 vbroadcastss %xmm4, %ymm16 vpermps %ymm4, %ymm21, %ymm17 vpermps %ymm4, %ymm22, %ymm18 vpermps %ymm4, %ymm3, %ymm19 vbroadcastss %xmm2, %ymm20 vpermps %ymm2, %ymm21, %ymm23 vpermps %ymm2, %ymm22, %ymm24 vbroadcastss %xmm0, %ymm25 movq %rcx, %rdx shlq $0x6, %rdx leaq (%rdx,%rcx,4), %rdx addq 0x290f4a(%rip), %rdx # 0x2124060 vbroadcastss 0x59a65(%rip), %ymm3 # 0x1eecb84 vbroadcastss 0x588f8(%rip), %ymm10 # 0x1eeba20 vxorps %xmm2, %xmm2, %xmm2 xorl %esi, %esi vbroadcastss 0x8dd8c(%rip), %ymm27 # 0x1f20ec4 vmovaps %ymm10, %ymm22 vmovaps %ymm10, %ymm21 vmovaps %ymm3, %ymm4 vmovaps %ymm3, %ymm7 vpbroadcastd %esi, %ymm28 vpord 0xc77c4(%rip), %ymm28, %ymm28 # 0x1f5a920 vpcmpgtd %ymm28, %ymm5, %k1 vmovups 0x908(%rdx,%rsi,4), %ymm28 vmovups 0xd8c(%rdx,%rsi,4), %ymm29 vmulps %ymm29, %ymm20, %ymm30 vmulps %ymm29, %ymm23, %ymm31 vmulps %ymm29, %ymm24, %ymm26 vmulps %ymm29, %ymm25, %ymm29 vfmadd231ps %ymm16, %ymm28, %ymm30 # ymm30 = (ymm28 * ymm16) + ymm30 vfmadd231ps %ymm17, %ymm28, %ymm31 # ymm31 = (ymm28 * ymm17) + ymm31 vfmadd231ps %ymm18, %ymm28, %ymm26 # ymm26 = (ymm28 * ymm18) + ymm26 vfmadd231ps %ymm28, %ymm19, %ymm29 # ymm29 = (ymm19 * ymm28) + ymm29 vmovups 0x484(%rdx,%rsi,4), %ymm28 vfmadd231ps %ymm12, %ymm28, %ymm30 # ymm30 = (ymm28 * ymm12) + ymm30 vfmadd231ps %ymm13, %ymm28, %ymm31 # ymm31 = (ymm28 * ymm13) + ymm31 vfmadd231ps %ymm14, %ymm28, %ymm26 # ymm26 = (ymm28 * ymm14) + ymm26 vfmadd231ps %ymm28, %ymm15, %ymm29 # ymm29 = (ymm15 * ymm28) + ymm29 vmovups (%rdx,%rsi,4), %ymm28 vfmadd231ps %ymm6, %ymm28, %ymm30 # ymm30 = (ymm28 * ymm6) + ymm30 vfmadd231ps %ymm8, %ymm28, %ymm31 # ymm31 = (ymm28 * ymm8) + ymm31 vfmadd231ps %ymm9, %ymm28, %ymm26 # ymm26 = (ymm28 * ymm9) + ymm26 vfmadd231ps %ymm28, %ymm11, %ymm29 # ymm29 = (ymm11 * ymm28) + ymm29 vminps %ymm30, %ymm21, %ymm21 {%k1} vmaxps %ymm30, %ymm7, %ymm7 {%k1} vminps %ymm31, %ymm22, %ymm22 {%k1} vmaxps %ymm31, %ymm4, %ymm4 {%k1} vminps %ymm26, %ymm10, %ymm10 {%k1} vmaxps %ymm26, %ymm3, %ymm3 {%k1} vandps %ymm27, %ymm29, %ymm26 vmaxps %ymm26, %ymm2, %ymm2 {%k1} addq $0x8, %rsi cmpq %rcx, %rsi jb 0x1e9314c jmp 0x1e93254 vbroadcastss 0x587ed(%rip), %ymm21 # 0x1eeba20 vbroadcastss 0x59948(%rip), %ymm7 # 0x1eecb84 vxorps %xmm2, %xmm2, %xmm2 vmovaps %ymm7, %ymm4 vmovaps %ymm7, %ymm3 vmovaps %ymm21, %ymm22 vmovaps %ymm21, %ymm10 vshufps $0xb1, %ymm21, %ymm21, %ymm5 # ymm5 = ymm21[1,0,3,2,5,4,7,6] vminps %ymm5, %ymm21, %ymm5 vshufpd $0x5, %ymm5, %ymm5, %ymm6 # ymm6 = ymm5[1,0,3,2] vminps %ymm6, %ymm5, %ymm5 vextractf128 $0x1, %ymm5, %xmm6 vminps %xmm6, %xmm5, %xmm5 vshufps $0xb1, %ymm22, %ymm22, %ymm6 # ymm6 = ymm22[1,0,3,2,5,4,7,6] vminps %ymm6, %ymm22, %ymm6 vshufpd $0x5, %ymm6, %ymm6, %ymm8 # ymm8 = ymm6[1,0,3,2] vminps %ymm8, %ymm6, %ymm6 vextractf128 $0x1, %ymm6, %xmm8 vminps %xmm8, %xmm6, %xmm6 vunpcklps %xmm6, %xmm5, %xmm5 # xmm5 = xmm5[0],xmm6[0],xmm5[1],xmm6[1] vshufps $0xb1, %ymm10, %ymm10, %ymm6 # ymm6 = ymm10[1,0,3,2,5,4,7,6] vminps %ymm6, %ymm10, %ymm6 vshufpd $0x5, %ymm6, %ymm6, %ymm8 # ymm8 = ymm6[1,0,3,2] vminps %ymm8, %ymm6, %ymm6 vextractf128 $0x1, %ymm6, %xmm8 vminps %xmm8, %xmm6, %xmm6 vinsertps $0x28, %xmm6, %xmm5, %xmm5 # xmm5 = xmm5[0,1],xmm6[0],zero vshufps $0xb1, %ymm7, %ymm7, %ymm6 # ymm6 = ymm7[1,0,3,2,5,4,7,6] vmaxps %ymm6, %ymm7, %ymm6 vshufpd $0x5, %ymm6, %ymm6, %ymm7 # ymm7 = ymm6[1,0,3,2] vmaxps %ymm7, %ymm6, %ymm6 vextractf128 $0x1, %ymm6, %xmm7 vmaxps %xmm7, %xmm6, %xmm6 vshufps $0xb1, %ymm4, %ymm4, %ymm7 # ymm7 = ymm4[1,0,3,2,5,4,7,6] vmaxps %ymm7, %ymm4, %ymm4 vshufpd $0x5, %ymm4, %ymm4, %ymm7 # ymm7 = ymm4[1,0,3,2] vmaxps %ymm7, %ymm4, %ymm4 vextractf128 $0x1, %ymm4, %xmm7 vmaxps %xmm7, %xmm4, %xmm4 vunpcklps %xmm4, %xmm6, %xmm4 # xmm4 = xmm6[0],xmm4[0],xmm6[1],xmm4[1] vshufps $0xb1, %ymm3, %ymm3, %ymm6 # ymm6 = ymm3[1,0,3,2,5,4,7,6] vmaxps %ymm6, %ymm3, %ymm3 vshufpd $0x5, %ymm3, %ymm3, %ymm6 # ymm6 = ymm3[1,0,3,2] vmaxps %ymm6, %ymm3, %ymm3 vextractf128 $0x1, %ymm3, %xmm6 vmaxps %xmm6, %xmm3, %xmm3 vinsertps $0x28, %xmm3, %xmm4, %xmm3 # xmm3 = xmm4[0,1],xmm3[0],zero vshufps $0xb1, %ymm2, %ymm2, %ymm4 # ymm4 = ymm2[1,0,3,2,5,4,7,6] vmaxps %ymm4, %ymm2, %ymm2 vshufpd $0x5, %ymm2, %ymm2, %ymm4 # ymm4 = ymm2[1,0,3,2] vmaxps %ymm4, %ymm2, %ymm2 vextractf128 $0x1, %ymm2, %xmm4 vmaxps %xmm4, %xmm2, %xmm2 vbroadcastss %xmm2, %xmm2 jmp 0x1e93011 nop
/embree[P]embree/kernels/common/scene_curves.cpp
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)0, embree::avx512::HermiteCurveGeometryInterface, embree::HermiteCurveT>::vlinearBounds(unsigned long, embree::BBox<float> const&) const
LBBox3fa vlinearBounds(size_t primID, const BBox1f& time_range) const { return linearBounds(primID,time_range); }
pushq %rbp pushq %r15 pushq %r14 pushq %r13 pushq %r12 pushq %rbx subq $0x138, %rsp # imm = 0x138 leaq 0xc8(%rsp), %rax movq %rdx, (%rax) leaq 0x60(%rsp), %r14 movq %rax, (%r14) movq %rsi, 0x8(%r14) vmovss 0x28(%rsi), %xmm4 vmovss 0x2c(%rsi), %xmm0 vmovss (%rcx), %xmm1 vmovss 0x4(%rcx), %xmm2 vsubss %xmm0, %xmm1, %xmm1 vmovss 0x30(%rsi), %xmm3 vsubss %xmm0, %xmm3, %xmm3 vdivss %xmm3, %xmm1, %xmm1 vsubss %xmm0, %xmm2, %xmm0 vdivss %xmm3, %xmm0, %xmm2 vmovss %xmm1, 0x4(%rsp) vmulss %xmm1, %xmm4, %xmm0 vmovss %xmm0, 0x20(%rsp) vroundss $0x9, %xmm0, %xmm0, %xmm0 vmovss %xmm2, 0x50(%rsp) vmulss %xmm2, %xmm4, %xmm1 vmovss %xmm1, 0x40(%rsp) vroundss $0xa, %xmm1, %xmm1, %xmm1 vxorps %xmm2, %xmm2, %xmm2 vmaxss %xmm2, %xmm0, %xmm3 vminss %xmm4, %xmm1, %xmm2 vmovss %xmm3, 0x10(%rsp) vcvttss2si %xmm3, %r15d vmovss %xmm2, 0x30(%rsp) vcvttss2si %xmm2, %r12d vcvttss2si %xmm0, %eax movq %rdi, %rbx testl %eax, %eax movl $0xffffffff, %r13d # imm = 0xFFFFFFFF cmovnsl %eax, %r13d vcvttss2si %xmm1, %eax vmovss %xmm4, 0xc(%rsp) vcvttss2si %xmm4, %ebp incl %ebp cmpl %ebp, %eax cmovll %eax, %ebp movslq %r15d, %rdx leaq 0x90(%rsp), %rdi movq %r14, %rsi callq 0x1e94a32 movslq %r12d, %rdx leaq 0x70(%rsp), %rdi movq %r14, %rsi callq 0x1e94a32 movl %ebp, %eax subl %r13d, %eax cmpl $0x1, %eax jne 0x1e940d9 vmovss 0x20(%rsp), %xmm0 vsubss 0x10(%rsp), %xmm0, %xmm0 vxorps %xmm8, %xmm8, %xmm8 vmaxss %xmm8, %xmm0, %xmm0 vmovss 0x586c5(%rip), %xmm1 # 0x1eec714 vsubss %xmm0, %xmm1, %xmm2 vbroadcastss %xmm0, %xmm0 vmovaps 0x70(%rsp), %xmm3 vmovaps 0x80(%rsp), %xmm4 vmulps %xmm3, %xmm0, %xmm5 vbroadcastss %xmm2, %xmm2 vmovaps 0x90(%rsp), %xmm6 vmovaps 0xa0(%rsp), %xmm7 vfmadd231ps %xmm6, %xmm2, %xmm5 # xmm5 = (xmm2 * xmm6) + xmm5 vmulps %xmm4, %xmm0, %xmm0 vfmadd231ps %xmm2, %xmm7, %xmm0 # xmm0 = (xmm7 * xmm2) + xmm0 vmovaps %xmm5, (%rbx) vmovaps %xmm0, 0x10(%rbx) vmovss 0x30(%rsp), %xmm0 vsubss 0x40(%rsp), %xmm0, %xmm0 vmaxss %xmm8, %xmm0, %xmm0 vsubss %xmm0, %xmm1, %xmm1 vbroadcastss %xmm0, %xmm0 vmulps %xmm6, %xmm0, %xmm2 vbroadcastss %xmm1, %xmm1 vfmadd231ps %xmm3, %xmm1, %xmm2 # xmm2 = (xmm1 * xmm3) + xmm2 vmulps %xmm7, %xmm0, %xmm0 vfmadd231ps %xmm4, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm4) + xmm0 vmovaps %xmm2, 0x20(%rbx) vmovaps %xmm0, 0x30(%rbx) jmp 0x1e942b9 incl %r15d movslq %r15d, %rdx leaq 0x110(%rsp), %r14 leaq 0x60(%rsp), %r15 movq %r14, %rdi movq %r15, %rsi callq 0x1e94a32 decl %r12d movslq %r12d, %rdx leaq 0xf0(%rsp), %r12 movq %r12, %rdi movq %r15, %rsi callq 0x1e94a32 vmovss 0x20(%rsp), %xmm0 vsubss 0x10(%rsp), %xmm0, %xmm0 vxorps %xmm5, %xmm5, %xmm5 vmaxss %xmm5, %xmm0, %xmm0 vmovss 0x585e8(%rip), %xmm4 # 0x1eec714 vbroadcastss %xmm0, %xmm1 vmulps (%r14), %xmm1, %xmm2 vsubss %xmm0, %xmm4, %xmm0 vbroadcastss %xmm0, %xmm0 vfmadd231ps 0x90(%rsp), %xmm0, %xmm2 # xmm2 = (xmm0 * mem) + xmm2 vmulps 0x10(%r14), %xmm1, %xmm3 vfmadd231ps 0xa0(%rsp), %xmm0, %xmm3 # xmm3 = (xmm0 * mem) + xmm3 vmovss 0x30(%rsp), %xmm0 vsubss 0x40(%rsp), %xmm0, %xmm0 vmaxss %xmm5, %xmm0, %xmm0 vsubss %xmm0, %xmm4, %xmm1 vbroadcastss %xmm0, %xmm0 vmulps (%r12), %xmm0, %xmm5 vbroadcastss %xmm1, %xmm1 vfmadd231ps 0x70(%rsp), %xmm1, %xmm5 # xmm5 = (xmm1 * mem) + xmm5 vmulps 0x10(%r12), %xmm0, %xmm6 vfmadd231ps 0x80(%rsp), %xmm1, %xmm6 # xmm6 = (xmm1 * mem) + xmm6 leal 0x1(%r13), %eax cmpl %ebp, %eax jge 0x1e942a6 vmovss 0x4(%rsp), %xmm1 vmovss 0x50(%rsp), %xmm0 vsubss %xmm1, %xmm0, %xmm0 vmovss %xmm0, 0x8(%rsp) movl %eax, %r14d notl %r13d addl %ebp, %r13d leaq 0xd0(%rsp), %r15 leaq 0x60(%rsp), %r12 vmovaps %xmm6, 0x10(%rsp) vmovaps %xmm5, 0x20(%rsp) vmovaps %xmm3, 0x30(%rsp) vmovaps %xmm2, 0x40(%rsp) vcvtsi2ss %r14d, %xmm8, %xmm0 vdivss 0xc(%rsp), %xmm0, %xmm0 vsubss %xmm1, %xmm0, %xmm0 vdivss 0x8(%rsp), %xmm0, %xmm0 vsubss %xmm0, %xmm4, %xmm1 vbroadcastss %xmm0, %xmm0 vmulps %xmm0, %xmm5, %xmm4 vbroadcastss %xmm1, %xmm1 vfmadd231ps %xmm2, %xmm1, %xmm4 # xmm4 = (xmm1 * xmm2) + xmm4 vmovaps %xmm4, 0x50(%rsp) vmulps %xmm0, %xmm6, %xmm0 vfmadd231ps %xmm1, %xmm3, %xmm0 # xmm0 = (xmm3 * xmm1) + xmm0 vmovaps %xmm0, 0xb0(%rsp) movq %r15, %rdi movq %r12, %rsi movq %r14, %rdx callq 0x1e94a32 vmovaps 0x10(%rsp), %xmm6 vmovaps 0x20(%rsp), %xmm5 vmovss 0x584c9(%rip), %xmm4 # 0x1eec714 vmovaps 0x30(%rsp), %xmm3 vmovaps 0x40(%rsp), %xmm2 vmovaps 0xd0(%rsp), %xmm0 vsubps 0x50(%rsp), %xmm0, %xmm0 vmovaps 0xe0(%rsp), %xmm1 vsubps 0xb0(%rsp), %xmm1, %xmm1 vxorps %xmm7, %xmm7, %xmm7 vminps %xmm7, %xmm0, %xmm0 vmaxps %xmm7, %xmm1, %xmm1 vaddps %xmm0, %xmm2, %xmm2 vaddps %xmm0, %xmm5, %xmm5 vaddps %xmm1, %xmm3, %xmm3 vaddps %xmm1, %xmm6, %xmm6 vmovss 0x4(%rsp), %xmm1 incq %r14 decl %r13d jne 0x1e941cd vmovaps %xmm2, (%rbx) vmovaps %xmm3, 0x10(%rbx) vmovaps %xmm5, 0x20(%rbx) vmovaps %xmm6, 0x30(%rbx) movq %rbx, %rax addq $0x138, %rsp # imm = 0x138 popq %rbx popq %r12 popq %r13 popq %r14 popq %r15 popq %rbp retq
/embree[P]embree/kernels/common/scene_curves.cpp
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)0, embree::avx512::HermiteCurveGeometryInterface, embree::HermiteCurveT>::vlinearBounds(embree::LinearSpace3<embree::Vec3fa> const&, unsigned long, embree::BBox<float> const&) const
LBBox3fa vlinearBounds(const LinearSpace3fa& space, size_t primID, const BBox1f& time_range) const { return linearBounds(space,primID,time_range); }
pushq %rbp pushq %r15 pushq %r14 pushq %r13 pushq %r12 pushq %rbx subq $0x138, %rsp # imm = 0x138 leaq 0xc8(%rsp), %rax movq %rcx, (%rax) leaq 0xb0(%rsp), %r14 movq %rdx, (%r14) movq %rax, 0x8(%r14) movq %rsi, 0x10(%r14) vmovss 0x28(%rsi), %xmm4 vmovss 0x2c(%rsi), %xmm0 vmovss (%r8), %xmm1 vmovss 0x4(%r8), %xmm2 vsubss %xmm0, %xmm1, %xmm1 vmovss 0x30(%rsi), %xmm3 vsubss %xmm0, %xmm3, %xmm3 vdivss %xmm3, %xmm1, %xmm1 vsubss %xmm0, %xmm2, %xmm0 vdivss %xmm3, %xmm0, %xmm2 vmovss %xmm1, 0x4(%rsp) vmulss %xmm1, %xmm4, %xmm0 vmovss %xmm0, 0x20(%rsp) vroundss $0x9, %xmm0, %xmm0, %xmm0 vmovss %xmm2, 0x50(%rsp) vmulss %xmm2, %xmm4, %xmm1 vmovss %xmm1, 0x40(%rsp) vroundss $0xa, %xmm1, %xmm1, %xmm1 vxorps %xmm2, %xmm2, %xmm2 vmaxss %xmm2, %xmm0, %xmm3 vminss %xmm4, %xmm1, %xmm2 vmovss %xmm3, 0x10(%rsp) vcvttss2si %xmm3, %r15d vmovss %xmm2, 0x30(%rsp) vcvttss2si %xmm2, %r12d vcvttss2si %xmm0, %eax movq %rdi, %rbx testl %eax, %eax movl $0xffffffff, %r13d # imm = 0xFFFFFFFF cmovnsl %eax, %r13d vcvttss2si %xmm1, %eax vmovss %xmm4, 0xc(%rsp) vcvttss2si %xmm4, %ebp incl %ebp cmpl %ebp, %eax cmovll %eax, %ebp movslq %r15d, %rdx leaq 0x80(%rsp), %rdi movq %r14, %rsi callq 0x1e94fb0 movslq %r12d, %rdx leaq 0x60(%rsp), %rdi movq %r14, %rsi callq 0x1e94fb0 movl %ebp, %eax subl %r13d, %eax cmpl $0x1, %eax jne 0x1e94475 vmovss 0x20(%rsp), %xmm0 vsubss 0x10(%rsp), %xmm0, %xmm0 vxorps %xmm8, %xmm8, %xmm8 vmaxss %xmm8, %xmm0, %xmm0 vmovss 0x58326(%rip), %xmm1 # 0x1eec714 vsubss %xmm0, %xmm1, %xmm2 vbroadcastss %xmm0, %xmm0 vmovaps 0x60(%rsp), %xmm3 vmovaps 0x70(%rsp), %xmm4 vmulps %xmm3, %xmm0, %xmm5 vbroadcastss %xmm2, %xmm2 vmovaps 0x80(%rsp), %xmm6 vmovaps 0x90(%rsp), %xmm7 vfmadd231ps %xmm6, %xmm2, %xmm5 # xmm5 = (xmm2 * xmm6) + xmm5 vmulps %xmm4, %xmm0, %xmm0 vfmadd231ps %xmm2, %xmm7, %xmm0 # xmm0 = (xmm7 * xmm2) + xmm0 vmovaps %xmm5, (%rbx) vmovaps %xmm0, 0x10(%rbx) vmovss 0x30(%rsp), %xmm0 vsubss 0x40(%rsp), %xmm0, %xmm0 vmaxss %xmm8, %xmm0, %xmm0 vsubss %xmm0, %xmm1, %xmm1 vbroadcastss %xmm0, %xmm0 vmulps %xmm6, %xmm0, %xmm2 vbroadcastss %xmm1, %xmm1 vfmadd231ps %xmm3, %xmm1, %xmm2 # xmm2 = (xmm1 * xmm3) + xmm2 vmulps %xmm7, %xmm0, %xmm0 vfmadd231ps %xmm4, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm4) + xmm0 vmovaps %xmm2, 0x20(%rbx) vmovaps %xmm0, 0x30(%rbx) jmp 0x1e94658 incl %r15d movslq %r15d, %rdx leaq 0x110(%rsp), %r14 leaq 0xb0(%rsp), %r15 movq %r14, %rdi movq %r15, %rsi callq 0x1e94fb0 decl %r12d movslq %r12d, %rdx leaq 0xf0(%rsp), %r12 movq %r12, %rdi movq %r15, %rsi callq 0x1e94fb0 vmovss 0x20(%rsp), %xmm0 vsubss 0x10(%rsp), %xmm0, %xmm0 vxorps %xmm5, %xmm5, %xmm5 vmaxss %xmm5, %xmm0, %xmm0 vmovss 0x58249(%rip), %xmm4 # 0x1eec714 vbroadcastss %xmm0, %xmm1 vmulps (%r14), %xmm1, %xmm2 vsubss %xmm0, %xmm4, %xmm0 vbroadcastss %xmm0, %xmm0 vfmadd231ps 0x80(%rsp), %xmm0, %xmm2 # xmm2 = (xmm0 * mem) + xmm2 vmulps 0x10(%r14), %xmm1, %xmm3 vfmadd231ps 0x90(%rsp), %xmm0, %xmm3 # xmm3 = (xmm0 * mem) + xmm3 vmovss 0x30(%rsp), %xmm0 vsubss 0x40(%rsp), %xmm0, %xmm0 vmaxss %xmm5, %xmm0, %xmm0 vsubss %xmm0, %xmm4, %xmm1 vbroadcastss %xmm0, %xmm0 vmulps (%r12), %xmm0, %xmm5 vbroadcastss %xmm1, %xmm1 vfmadd231ps 0x60(%rsp), %xmm1, %xmm5 # xmm5 = (xmm1 * mem) + xmm5 vmulps 0x10(%r12), %xmm0, %xmm6 vfmadd231ps 0x70(%rsp), %xmm1, %xmm6 # xmm6 = (xmm1 * mem) + xmm6 leal 0x1(%r13), %eax cmpl %ebp, %eax jge 0x1e94645 vmovss 0x4(%rsp), %xmm1 vmovss 0x50(%rsp), %xmm0 vsubss %xmm1, %xmm0, %xmm0 vmovss %xmm0, 0x8(%rsp) movl %eax, %r14d notl %r13d addl %ebp, %r13d leaq 0xd0(%rsp), %r15 leaq 0xb0(%rsp), %r12 vmovaps %xmm6, 0x10(%rsp) vmovaps %xmm5, 0x20(%rsp) vmovaps %xmm3, 0x30(%rsp) vmovaps %xmm2, 0x40(%rsp) vcvtsi2ss %r14d, %xmm8, %xmm0 vdivss 0xc(%rsp), %xmm0, %xmm0 vsubss %xmm1, %xmm0, %xmm0 vdivss 0x8(%rsp), %xmm0, %xmm0 vsubss %xmm0, %xmm4, %xmm1 vbroadcastss %xmm0, %xmm0 vmulps %xmm0, %xmm5, %xmm4 vbroadcastss %xmm1, %xmm1 vfmadd231ps %xmm2, %xmm1, %xmm4 # xmm4 = (xmm1 * xmm2) + xmm4 vmovaps %xmm4, 0x50(%rsp) vmulps %xmm0, %xmm6, %xmm0 vfmadd231ps %xmm1, %xmm3, %xmm0 # xmm0 = (xmm3 * xmm1) + xmm0 vmovaps %xmm0, 0xa0(%rsp) movq %r15, %rdi movq %r12, %rsi movq %r14, %rdx callq 0x1e94fb0 vmovaps 0x10(%rsp), %xmm6 vmovaps 0x20(%rsp), %xmm5 vmovss 0x5812a(%rip), %xmm4 # 0x1eec714 vmovaps 0x30(%rsp), %xmm3 vmovaps 0x40(%rsp), %xmm2 vmovaps 0xd0(%rsp), %xmm0 vsubps 0x50(%rsp), %xmm0, %xmm0 vmovaps 0xe0(%rsp), %xmm1 vsubps 0xa0(%rsp), %xmm1, %xmm1 vxorps %xmm7, %xmm7, %xmm7 vminps %xmm7, %xmm0, %xmm0 vmaxps %xmm7, %xmm1, %xmm1 vaddps %xmm0, %xmm2, %xmm2 vaddps %xmm0, %xmm5, %xmm5 vaddps %xmm1, %xmm3, %xmm3 vaddps %xmm1, %xmm6, %xmm6 vmovss 0x4(%rsp), %xmm1 incq %r14 decl %r13d jne 0x1e9456c vmovaps %xmm2, (%rbx) vmovaps %xmm3, 0x10(%rbx) vmovaps %xmm5, 0x20(%rbx) vmovaps %xmm6, 0x30(%rbx) movq %rbx, %rax addq $0x138, %rsp # imm = 0x138 popq %rbx popq %r12 popq %r13 popq %r14 popq %r15 popq %rbp retq nop
/embree[P]embree/kernels/common/scene_curves.cpp
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)0, embree::avx512::HermiteCurveGeometryInterface, embree::HermiteCurveT>::vlinearBounds(embree::Vec3fa const&, float, float, embree::LinearSpace3<embree::Vec3fa> const&, unsigned long, embree::BBox<float> const&) const
LBBox3fa vlinearBounds(const Vec3fa& ofs, const float scale, const float r_scale0, const LinearSpace3fa& space, size_t primID, const BBox1f& time_range) const { return linearBounds(ofs,scale,r_scale0,space,primID,time_range); }
pushq %rbp pushq %r15 pushq %r14 pushq %r13 pushq %r12 pushq %rbx subq $0x168, %rsp # imm = 0x168 leaq 0x6c(%rsp), %rax vmovss %xmm0, (%rax) leaq 0x68(%rsp), %r10 vmovss %xmm1, (%r10) leaq 0xc8(%rsp), %r11 movq %r8, (%r11) leaq 0xf0(%rsp), %r14 movq %rdx, (%r14) movq %rax, 0x8(%r14) movq %r10, 0x10(%r14) movq %rcx, 0x18(%r14) movq %r11, 0x20(%r14) movq %rsi, 0x28(%r14) vmovss 0x28(%rsi), %xmm4 vmovss 0x2c(%rsi), %xmm0 vmovss (%r9), %xmm1 vmovss 0x4(%r9), %xmm2 vsubss %xmm0, %xmm1, %xmm1 vmovss 0x30(%rsi), %xmm3 vsubss %xmm0, %xmm3, %xmm3 vdivss %xmm3, %xmm1, %xmm1 vsubss %xmm0, %xmm2, %xmm0 vdivss %xmm3, %xmm0, %xmm2 vmovss %xmm1, 0x4(%rsp) vmulss %xmm1, %xmm4, %xmm0 vmovss %xmm0, 0x20(%rsp) vroundss $0x9, %xmm0, %xmm0, %xmm0 vmovss %xmm2, 0x50(%rsp) vmulss %xmm2, %xmm4, %xmm1 vmovss %xmm1, 0x40(%rsp) vroundss $0xa, %xmm1, %xmm1, %xmm1 vxorps %xmm2, %xmm2, %xmm2 vmaxss %xmm2, %xmm0, %xmm3 vminss %xmm4, %xmm1, %xmm2 vmovss %xmm3, 0x10(%rsp) vcvttss2si %xmm3, %r15d vmovss %xmm2, 0x30(%rsp) vcvttss2si %xmm2, %r12d vcvttss2si %xmm0, %eax movq %rdi, %rbx testl %eax, %eax movl $0xffffffff, %r13d # imm = 0xFFFFFFFF cmovnsl %eax, %r13d vcvttss2si %xmm1, %eax vmovss %xmm4, 0xc(%rsp) vcvttss2si %xmm4, %ebp incl %ebp cmpl %ebp, %eax cmovll %eax, %ebp movslq %r15d, %rdx leaq 0x90(%rsp), %rdi movq %r14, %rsi callq 0x1e95590 movslq %r12d, %rdx leaq 0x70(%rsp), %rdi movq %r14, %rsi callq 0x1e95590 movl %ebp, %eax subl %r13d, %eax cmpl $0x1, %eax jne 0x1e94837 vmovss 0x20(%rsp), %xmm0 vsubss 0x10(%rsp), %xmm0, %xmm0 vxorps %xmm8, %xmm8, %xmm8 vmaxss %xmm8, %xmm0, %xmm0 vmovss 0x57f67(%rip), %xmm1 # 0x1eec714 vsubss %xmm0, %xmm1, %xmm2 vbroadcastss %xmm0, %xmm0 vmovaps 0x70(%rsp), %xmm3 vmovaps 0x80(%rsp), %xmm4 vmulps %xmm3, %xmm0, %xmm5 vbroadcastss %xmm2, %xmm2 vmovaps 0x90(%rsp), %xmm6 vmovaps 0xa0(%rsp), %xmm7 vfmadd231ps %xmm6, %xmm2, %xmm5 # xmm5 = (xmm2 * xmm6) + xmm5 vmulps %xmm4, %xmm0, %xmm0 vfmadd231ps %xmm2, %xmm7, %xmm0 # xmm0 = (xmm7 * xmm2) + xmm0 vmovaps %xmm5, (%rbx) vmovaps %xmm0, 0x10(%rbx) vmovss 0x30(%rsp), %xmm0 vsubss 0x40(%rsp), %xmm0, %xmm0 vmaxss %xmm8, %xmm0, %xmm0 vsubss %xmm0, %xmm1, %xmm1 vbroadcastss %xmm0, %xmm0 vmulps %xmm6, %xmm0, %xmm2 vbroadcastss %xmm1, %xmm1 vfmadd231ps %xmm3, %xmm1, %xmm2 # xmm2 = (xmm1 * xmm3) + xmm2 vmulps %xmm7, %xmm0, %xmm0 vfmadd231ps %xmm4, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm4) + xmm0 vmovaps %xmm2, 0x20(%rbx) vmovaps %xmm0, 0x30(%rbx) jmp 0x1e94a1d incl %r15d movslq %r15d, %rdx leaq 0x140(%rsp), %r14 leaq 0xf0(%rsp), %r15 movq %r14, %rdi movq %r15, %rsi callq 0x1e95590 decl %r12d movslq %r12d, %rdx leaq 0x120(%rsp), %r12 movq %r12, %rdi movq %r15, %rsi callq 0x1e95590 vmovss 0x20(%rsp), %xmm0 vsubss 0x10(%rsp), %xmm0, %xmm0 vxorps %xmm5, %xmm5, %xmm5 vmaxss %xmm5, %xmm0, %xmm0 vmovss 0x57e87(%rip), %xmm4 # 0x1eec714 vbroadcastss %xmm0, %xmm1 vmulps (%r14), %xmm1, %xmm2 vsubss %xmm0, %xmm4, %xmm0 vbroadcastss %xmm0, %xmm0 vfmadd231ps 0x90(%rsp), %xmm0, %xmm2 # xmm2 = (xmm0 * mem) + xmm2 vmulps 0x10(%r14), %xmm1, %xmm3 vfmadd231ps 0xa0(%rsp), %xmm0, %xmm3 # xmm3 = (xmm0 * mem) + xmm3 vmovss 0x30(%rsp), %xmm0 vsubss 0x40(%rsp), %xmm0, %xmm0 vmaxss %xmm5, %xmm0, %xmm0 vsubss %xmm0, %xmm4, %xmm1 vbroadcastss %xmm0, %xmm0 vmulps (%r12), %xmm0, %xmm5 vbroadcastss %xmm1, %xmm1 vfmadd231ps 0x70(%rsp), %xmm1, %xmm5 # xmm5 = (xmm1 * mem) + xmm5 vmulps 0x10(%r12), %xmm0, %xmm6 vfmadd231ps 0x80(%rsp), %xmm1, %xmm6 # xmm6 = (xmm1 * mem) + xmm6 leal 0x1(%r13), %eax cmpl %ebp, %eax jge 0x1e94a0a vmovss 0x4(%rsp), %xmm1 vmovss 0x50(%rsp), %xmm0 vsubss %xmm1, %xmm0, %xmm0 vmovss %xmm0, 0x8(%rsp) movl %eax, %r14d notl %r13d addl %ebp, %r13d leaq 0xd0(%rsp), %r15 leaq 0xf0(%rsp), %r12 vmovaps %xmm6, 0x10(%rsp) vmovaps %xmm5, 0x20(%rsp) vmovaps %xmm3, 0x30(%rsp) vmovaps %xmm2, 0x40(%rsp) vcvtsi2ss %r14d, %xmm8, %xmm0 vdivss 0xc(%rsp), %xmm0, %xmm0 vsubss %xmm1, %xmm0, %xmm0 vdivss 0x8(%rsp), %xmm0, %xmm0 vsubss %xmm0, %xmm4, %xmm1 vbroadcastss %xmm0, %xmm0 vmulps %xmm0, %xmm5, %xmm4 vbroadcastss %xmm1, %xmm1 vfmadd231ps %xmm2, %xmm1, %xmm4 # xmm4 = (xmm1 * xmm2) + xmm4 vmovaps %xmm4, 0x50(%rsp) vmulps %xmm0, %xmm6, %xmm0 vfmadd231ps %xmm1, %xmm3, %xmm0 # xmm0 = (xmm3 * xmm1) + xmm0 vmovaps %xmm0, 0xb0(%rsp) movq %r15, %rdi movq %r12, %rsi movq %r14, %rdx callq 0x1e95590 vmovaps 0x10(%rsp), %xmm6 vmovaps 0x20(%rsp), %xmm5 vmovss 0x57d65(%rip), %xmm4 # 0x1eec714 vmovaps 0x30(%rsp), %xmm3 vmovaps 0x40(%rsp), %xmm2 vmovaps 0xd0(%rsp), %xmm0 vsubps 0x50(%rsp), %xmm0, %xmm0 vmovaps 0xe0(%rsp), %xmm1 vsubps 0xb0(%rsp), %xmm1, %xmm1 vxorps %xmm7, %xmm7, %xmm7 vminps %xmm7, %xmm0, %xmm0 vmaxps %xmm7, %xmm1, %xmm1 vaddps %xmm0, %xmm2, %xmm2 vaddps %xmm0, %xmm5, %xmm5 vaddps %xmm1, %xmm3, %xmm3 vaddps %xmm1, %xmm6, %xmm6 vmovss 0x4(%rsp), %xmm1 incq %r14 decl %r13d jne 0x1e94931 vmovaps %xmm2, (%rbx) vmovaps %xmm3, 0x10(%rbx) vmovaps %xmm5, 0x20(%rbx) vmovaps %xmm6, 0x30(%rbx) movq %rbx, %rax addq $0x168, %rsp # imm = 0x168 popq %rbx popq %r12 popq %r13 popq %r14 popq %r15 popq %rbp retq
/embree[P]embree/kernels/common/scene_curves.cpp
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)0, embree::avx512::HermiteCurveGeometryInterface, embree::HermiteCurveT>::linearBounds(unsigned long, embree::BBox<float> const&) const::'lambda'(unsigned long)::operator()(unsigned long) const
__forceinline LBBox3fa linearBounds(size_t primID, const BBox1f& dt) const { return LBBox3fa([&] (size_t itime) { return bounds(primID, itime); }, dt, this->time_range, fnumTimeSegments); }
pushq %rbx movq (%rsi), %rax movq 0x8(%rsi), %rcx movq 0x58(%rcx), %rsi movq 0x68(%rcx), %r8 imulq (%rax), %r8 movl (%rsi,%r8), %esi movq 0x188(%rcx), %rax imulq $0x38, %rdx, %rdx movq (%rax,%rdx), %r8 movq 0x10(%rax,%rdx), %r9 movq %r9, %r10 imulq %rsi, %r10 vmovaps (%r8,%r10), %xmm3 leal 0x1(%rsi), %r11d imulq %r11, %r9 vmovaps (%r8,%r9), %xmm2 movq 0x1c8(%rcx), %rax movq (%rax,%rdx), %rbx movq 0x10(%rax,%rdx), %rdx imulq %rdx, %rsi vmovaps (%rbx,%rsi), %xmm4 movq %rdi, %rax imulq %r11, %rdx vmovaps (%rbx,%rdx), %xmm5 vmovss 0x24c(%rcx), %xmm6 vmulss 0xc(%r8,%r10), %xmm6, %xmm10 vinsertps $0x30, %xmm10, %xmm3, %xmm8 # xmm8 = xmm3[0,1,2],xmm10[0] vmulss 0xc(%r8,%r9), %xmm6, %xmm0 vinsertps $0x30, %xmm0, %xmm2, %xmm1 # xmm1 = xmm2[0,1,2],xmm0[0] vmulss 0xc(%rbx,%rsi), %xmm6, %xmm7 vinsertps $0x30, %xmm7, %xmm4, %xmm7 # xmm7 = xmm4[0,1,2],xmm7[0] vmulss 0xc(%rbx,%rdx), %xmm6, %xmm4 vinsertps $0x30, %xmm4, %xmm5, %xmm4 # xmm4 = xmm5[0,1,2],xmm4[0] vbroadcastss 0xc898b(%rip), %xmm5 # 0x1f5d46c vfnmadd213ps %xmm8, %xmm5, %xmm7 # xmm7 = -(xmm5 * xmm7) + xmm8 vfmadd213ps %xmm1, %xmm5, %xmm4 # xmm4 = (xmm5 * xmm4) + xmm1 movl 0x248(%rcx), %ecx cmpq $0x4, %rcx jne 0x1e94cea leaq 0x2927e2(%rip), %rcx # 0x21272e4 vmovups 0x110(%rcx), %xmm5 vbroadcastss %xmm3, %xmm6 vshufps $0x55, %xmm3, %xmm3, %xmm8 # xmm8 = xmm3[1,1,1,1] vshufps $0xaa, %xmm3, %xmm3, %xmm3 # xmm3 = xmm3[2,2,2,2] vbroadcastss %xmm10, %xmm9 vmovups 0x594(%rcx), %xmm10 vbroadcastss %xmm7, %xmm11 vshufps $0x55, %xmm7, %xmm7, %xmm12 # xmm12 = xmm7[1,1,1,1] vshufps $0xaa, %xmm7, %xmm7, %xmm13 # xmm13 = xmm7[2,2,2,2] vshufps $0xff, %xmm7, %xmm7, %xmm7 # xmm7 = xmm7[3,3,3,3] vmovups 0xa18(%rcx), %xmm14 vbroadcastss %xmm4, %xmm15 vshufps $0x55, %xmm4, %xmm4, %xmm16 # xmm16 = xmm4[1,1,1,1] vshufps $0xaa, %xmm4, %xmm4, %xmm17 # xmm17 = xmm4[2,2,2,2] vshufps $0xff, %xmm4, %xmm4, %xmm4 # xmm4 = xmm4[3,3,3,3] vmovups 0xe9c(%rcx), %xmm18 vbroadcastss %xmm2, %xmm19 vshufps $0x55, %xmm2, %xmm2, %xmm20 # xmm20 = xmm2[1,1,1,1] vshufps $0xaa, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[2,2,2,2] vbroadcastss %xmm0, %xmm21 vmulps %xmm18, %xmm19, %xmm19 vmulps %xmm18, %xmm20, %xmm20 vmulps %xmm18, %xmm2, %xmm2 vmulps %xmm18, %xmm21, %xmm18 vfmadd231ps %xmm15, %xmm14, %xmm19 # xmm19 = (xmm14 * xmm15) + xmm19 vfmadd231ps %xmm16, %xmm14, %xmm20 # xmm20 = (xmm14 * xmm16) + xmm20 vfmadd231ps %xmm17, %xmm14, %xmm2 # xmm2 = (xmm14 * xmm17) + xmm2 vfmadd231ps %xmm4, %xmm14, %xmm18 # xmm18 = (xmm14 * xmm4) + xmm18 vfmadd231ps %xmm11, %xmm10, %xmm19 # xmm19 = (xmm10 * xmm11) + xmm19 vfmadd231ps %xmm12, %xmm10, %xmm20 # xmm20 = (xmm10 * xmm12) + xmm20 vfmadd231ps %xmm13, %xmm10, %xmm2 # xmm2 = (xmm10 * xmm13) + xmm2 vfmadd231ps %xmm7, %xmm10, %xmm18 # xmm18 = (xmm10 * xmm7) + xmm18 vfmadd231ps %xmm6, %xmm5, %xmm19 # xmm19 = (xmm5 * xmm6) + xmm19 vfmadd231ps %xmm8, %xmm5, %xmm20 # xmm20 = (xmm5 * xmm8) + xmm20 vfmadd231ps %xmm3, %xmm5, %xmm2 # xmm2 = (xmm5 * xmm3) + xmm2 vfmadd231ps %xmm9, %xmm5, %xmm18 # xmm18 = (xmm5 * xmm9) + xmm18 vshufps $0xb1, %xmm19, %xmm19, %xmm3 # xmm3 = xmm19[1,0,3,2] vminps %xmm19, %xmm3, %xmm4 vshufpd $0x1, %xmm4, %xmm4, %xmm5 # xmm5 = xmm4[1,0] vminps %xmm4, %xmm5, %xmm4 vshufps $0xb1, %xmm20, %xmm20, %xmm6 # xmm6 = xmm20[1,0,3,2] vminps %xmm20, %xmm6, %xmm5 vshufpd $0x1, %xmm5, %xmm5, %xmm7 # xmm7 = xmm5[1,0] vminps %xmm5, %xmm7, %xmm5 vinsertps $0x1c, %xmm5, %xmm4, %xmm4 # xmm4 = xmm4[0],xmm5[0],zero,zero vshufps $0xb1, %xmm2, %xmm2, %xmm7 # xmm7 = xmm2[1,0,3,2] vminps %xmm2, %xmm7, %xmm5 vshufpd $0x1, %xmm5, %xmm5, %xmm8 # xmm8 = xmm5[1,0] vminps %xmm5, %xmm8, %xmm5 vinsertps $0x20, %xmm5, %xmm4, %xmm5 # xmm5 = xmm4[0,1],xmm5[0],xmm4[3] vmaxps %xmm19, %xmm3, %xmm3 vshufpd $0x1, %xmm3, %xmm3, %xmm4 # xmm4 = xmm3[1,0] vmaxps %xmm3, %xmm4, %xmm3 vmaxps %xmm20, %xmm6, %xmm4 vshufpd $0x1, %xmm4, %xmm4, %xmm6 # xmm6 = xmm4[1,0] vmaxps %xmm4, %xmm6, %xmm4 vinsertps $0x1c, %xmm4, %xmm3, %xmm3 # xmm3 = xmm3[0],xmm4[0],zero,zero vmaxps %xmm2, %xmm7, %xmm2 vshufpd $0x1, %xmm2, %xmm2, %xmm4 # xmm4 = xmm2[1,0] vmaxps %xmm2, %xmm4, %xmm2 vandps 0x8c265(%rip){1to4}, %xmm18, %xmm4 # 0x1f20ec4 vinsertps $0x20, %xmm2, %xmm3, %xmm3 # xmm3 = xmm3[0,1],xmm2[0],xmm3[3] vprolq $0x20, %xmm4, %xmm2 vmaxps %xmm4, %xmm2, %xmm2 vbroadcastss %xmm2, %xmm4 vshufps $0xaa, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[2,2,2,2] vmaxps %xmm4, %xmm2, %xmm2 vminps %xmm1, %xmm5, %xmm4 vmaxps %xmm1, %xmm3, %xmm1 vbroadcastss %xmm0, %xmm0 vandps 0x8c22f(%rip){1to4}, %xmm0, %xmm0 # 0x1f20ec4 vmaxps %xmm0, %xmm2, %xmm0 vsubps %xmm0, %xmm4, %xmm2 vaddps %xmm0, %xmm1, %xmm0 vbroadcastss 0x8c21a(%rip), %xmm1 # 0x1f20ec4 vandps %xmm1, %xmm2, %xmm3 vandps %xmm1, %xmm0, %xmm1 vmaxps %xmm1, %xmm3, %xmm1 vmovshdup %xmm1, %xmm3 # xmm3 = xmm1[1,1,3,3] vmaxss %xmm1, %xmm3, %xmm3 vshufpd $0x1, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[1,0] vmaxss %xmm3, %xmm1, %xmm1 vmulss 0x5c315(%rip), %xmm1, %xmm1 # 0x1ef0fe4 vbroadcastss %xmm1, %xmm1 vsubps %xmm1, %xmm2, %xmm2 vaddps %xmm1, %xmm0, %xmm0 vmovaps %xmm2, (%rax) vmovaps %xmm0, 0x10(%rax) popq %rbx vzeroupper retq testl %ecx, %ecx jle 0x1e94e96 vpbroadcastd %ecx, %ymm5 vbroadcastss %xmm3, %ymm6 vbroadcastss 0x7d9fd(%rip), %ymm21 # 0x1f12704 vpermps %ymm3, %ymm21, %ymm8 vbroadcastss 0x8c1c5(%rip), %ymm22 # 0x1f20edc vpermps %ymm3, %ymm22, %ymm9 vbroadcastss %xmm10, %ymm11 vbroadcastss %xmm7, %ymm12 vpermps %ymm7, %ymm21, %ymm13 vbroadcastss 0x8c1a2(%rip), %ymm3 # 0x1f20ed8 vpermps %ymm7, %ymm22, %ymm14 vpermps %ymm7, %ymm3, %ymm15 vbroadcastss %xmm4, %ymm16 vpermps %ymm4, %ymm21, %ymm17 vpermps %ymm4, %ymm22, %ymm18 vpermps %ymm4, %ymm3, %ymm19 vbroadcastss %xmm2, %ymm20 vpermps %ymm2, %ymm21, %ymm23 vpermps %ymm2, %ymm22, %ymm24 vbroadcastss %xmm0, %ymm25 movq %rcx, %rdx shlq $0x6, %rdx leaq (%rdx,%rcx,4), %rdx addq 0x28f2dd(%rip), %rdx # 0x2124060 vbroadcastss 0x57df8(%rip), %ymm3 # 0x1eecb84 vbroadcastss 0x56c8b(%rip), %ymm10 # 0x1eeba20 vxorps %xmm2, %xmm2, %xmm2 xorl %esi, %esi vbroadcastss 0x8c11f(%rip), %ymm27 # 0x1f20ec4 vmovaps %ymm10, %ymm22 vmovaps %ymm10, %ymm21 vmovaps %ymm3, %ymm4 vmovaps %ymm3, %ymm7 vpbroadcastd %esi, %ymm28 vpord 0xc5b57(%rip), %ymm28, %ymm28 # 0x1f5a920 vpcmpgtd %ymm28, %ymm5, %k1 vmovups 0x908(%rdx,%rsi,4), %ymm28 vmovups 0xd8c(%rdx,%rsi,4), %ymm29 vmulps %ymm29, %ymm20, %ymm30 vmulps %ymm29, %ymm23, %ymm31 vmulps %ymm29, %ymm24, %ymm26 vmulps %ymm29, %ymm25, %ymm29 vfmadd231ps %ymm16, %ymm28, %ymm30 # ymm30 = (ymm28 * ymm16) + ymm30 vfmadd231ps %ymm17, %ymm28, %ymm31 # ymm31 = (ymm28 * ymm17) + ymm31 vfmadd231ps %ymm18, %ymm28, %ymm26 # ymm26 = (ymm28 * ymm18) + ymm26 vfmadd231ps %ymm28, %ymm19, %ymm29 # ymm29 = (ymm19 * ymm28) + ymm29 vmovups 0x484(%rdx,%rsi,4), %ymm28 vfmadd231ps %ymm12, %ymm28, %ymm30 # ymm30 = (ymm28 * ymm12) + ymm30 vfmadd231ps %ymm13, %ymm28, %ymm31 # ymm31 = (ymm28 * ymm13) + ymm31 vfmadd231ps %ymm14, %ymm28, %ymm26 # ymm26 = (ymm28 * ymm14) + ymm26 vfmadd231ps %ymm28, %ymm15, %ymm29 # ymm29 = (ymm15 * ymm28) + ymm29 vmovups (%rdx,%rsi,4), %ymm28 vfmadd231ps %ymm6, %ymm28, %ymm30 # ymm30 = (ymm28 * ymm6) + ymm30 vfmadd231ps %ymm8, %ymm28, %ymm31 # ymm31 = (ymm28 * ymm8) + ymm31 vfmadd231ps %ymm9, %ymm28, %ymm26 # ymm26 = (ymm28 * ymm9) + ymm26 vfmadd231ps %ymm28, %ymm11, %ymm29 # ymm29 = (ymm11 * ymm28) + ymm29 vminps %ymm30, %ymm21, %ymm21 {%k1} vmaxps %ymm30, %ymm7, %ymm7 {%k1} vminps %ymm31, %ymm22, %ymm22 {%k1} vmaxps %ymm31, %ymm4, %ymm4 {%k1} vminps %ymm26, %ymm10, %ymm10 {%k1} vmaxps %ymm26, %ymm3, %ymm3 {%k1} vandps %ymm27, %ymm29, %ymm26 vmaxps %ymm26, %ymm2, %ymm2 {%k1} addq $0x8, %rsi cmpq %rcx, %rsi jb 0x1e94db9 jmp 0x1e94ec1 vbroadcastss 0x56b80(%rip), %ymm21 # 0x1eeba20 vbroadcastss 0x57cdb(%rip), %ymm7 # 0x1eecb84 vxorps %xmm2, %xmm2, %xmm2 vmovaps %ymm7, %ymm4 vmovaps %ymm7, %ymm3 vmovaps %ymm21, %ymm22 vmovaps %ymm21, %ymm10 vshufps $0xb1, %ymm21, %ymm21, %ymm5 # ymm5 = ymm21[1,0,3,2,5,4,7,6] vminps %ymm5, %ymm21, %ymm5 vshufpd $0x5, %ymm5, %ymm5, %ymm6 # ymm6 = ymm5[1,0,3,2] vminps %ymm6, %ymm5, %ymm5 vextractf128 $0x1, %ymm5, %xmm6 vminps %xmm6, %xmm5, %xmm5 vshufps $0xb1, %ymm22, %ymm22, %ymm6 # ymm6 = ymm22[1,0,3,2,5,4,7,6] vminps %ymm6, %ymm22, %ymm6 vshufpd $0x5, %ymm6, %ymm6, %ymm8 # ymm8 = ymm6[1,0,3,2] vminps %ymm8, %ymm6, %ymm6 vextractf128 $0x1, %ymm6, %xmm8 vminps %xmm8, %xmm6, %xmm6 vunpcklps %xmm6, %xmm5, %xmm5 # xmm5 = xmm5[0],xmm6[0],xmm5[1],xmm6[1] vshufps $0xb1, %ymm10, %ymm10, %ymm6 # ymm6 = ymm10[1,0,3,2,5,4,7,6] vminps %ymm6, %ymm10, %ymm6 vshufpd $0x5, %ymm6, %ymm6, %ymm8 # ymm8 = ymm6[1,0,3,2] vminps %ymm8, %ymm6, %ymm6 vextractf128 $0x1, %ymm6, %xmm8 vminps %xmm8, %xmm6, %xmm6 vinsertps $0x28, %xmm6, %xmm5, %xmm5 # xmm5 = xmm5[0,1],xmm6[0],zero vshufps $0xb1, %ymm7, %ymm7, %ymm6 # ymm6 = ymm7[1,0,3,2,5,4,7,6] vmaxps %ymm6, %ymm7, %ymm6 vshufpd $0x5, %ymm6, %ymm6, %ymm7 # ymm7 = ymm6[1,0,3,2] vmaxps %ymm7, %ymm6, %ymm6 vextractf128 $0x1, %ymm6, %xmm7 vmaxps %xmm7, %xmm6, %xmm6 vshufps $0xb1, %ymm4, %ymm4, %ymm7 # ymm7 = ymm4[1,0,3,2,5,4,7,6] vmaxps %ymm7, %ymm4, %ymm4 vshufpd $0x5, %ymm4, %ymm4, %ymm7 # ymm7 = ymm4[1,0,3,2] vmaxps %ymm7, %ymm4, %ymm4 vextractf128 $0x1, %ymm4, %xmm7 vmaxps %xmm7, %xmm4, %xmm4 vunpcklps %xmm4, %xmm6, %xmm4 # xmm4 = xmm6[0],xmm4[0],xmm6[1],xmm4[1] vshufps $0xb1, %ymm3, %ymm3, %ymm6 # ymm6 = ymm3[1,0,3,2,5,4,7,6] vmaxps %ymm6, %ymm3, %ymm3 vshufpd $0x5, %ymm3, %ymm3, %ymm6 # ymm6 = ymm3[1,0,3,2] vmaxps %ymm6, %ymm3, %ymm3 vextractf128 $0x1, %ymm3, %xmm6 vmaxps %xmm6, %xmm3, %xmm3 vinsertps $0x28, %xmm3, %xmm4, %xmm3 # xmm3 = xmm4[0,1],xmm3[0],zero vshufps $0xb1, %ymm2, %ymm2, %ymm4 # ymm4 = ymm2[1,0,3,2,5,4,7,6] vmaxps %ymm4, %ymm2, %ymm2 vshufpd $0x5, %ymm2, %ymm2, %ymm4 # ymm4 = ymm2[1,0,3,2] vmaxps %ymm4, %ymm2, %ymm2 vextractf128 $0x1, %ymm2, %xmm4 vmaxps %xmm4, %xmm2, %xmm2 vbroadcastss %xmm2, %xmm2 jmp 0x1e94c7e
/embree[P]embree/kernels/common/scene_curves.cpp
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)0, embree::avx512::HermiteCurveGeometryInterface, embree::HermiteCurveT>::linearBounds(embree::LinearSpace3<embree::Vec3fa> const&, unsigned long, embree::BBox<float> const&) const::'lambda'(unsigned long)::operator()(unsigned long) const
__forceinline LBBox3fa linearBounds(const LinearSpace3fa& space, size_t primID, const BBox1f& dt) const { return LBBox3fa([&] (size_t itime) { return bounds(space, primID, itime); }, dt, this->time_range, fnumTimeSegments); }
pushq %r14 pushq %rbx movq %rdi, %rax movq 0x10(%rsi), %rcx movq (%rsi), %r10 movq 0x8(%rsi), %rsi movq 0x58(%rcx), %rdi movq 0x68(%rcx), %r8 imulq (%rsi), %r8 movl (%rdi,%r8), %esi movq 0x188(%rcx), %rdi imulq $0x38, %rdx, %r11 movq (%rdi,%r11), %r8 movq 0x10(%rdi,%r11), %r9 movq %r9, %rbx imulq %rsi, %rbx leal 0x1(%rsi), %r14d imulq %r14, %r9 movq 0x1c8(%rcx), %rdi movq (%rdi,%r11), %rdx movq 0x10(%rdi,%r11), %rdi imulq %rdi, %rsi imulq %r14, %rdi vmovaps (%r10), %xmm5 vmovaps 0x10(%r10), %xmm6 vmovaps 0x20(%r10), %xmm7 vmulps 0x8(%r8,%rbx){1to4}, %xmm7, %xmm3 vfmadd231ps 0x4(%r8,%rbx){1to4}, %xmm6, %xmm3 # xmm3 = (xmm6 * mem) + xmm3 vfmadd231ps (%r8,%rbx){1to4}, %xmm5, %xmm3 # xmm3 = (xmm5 * mem) + xmm3 vmovss 0x24c(%rcx), %xmm8 vmulss 0xc(%r8,%rbx), %xmm8, %xmm4 vmulps 0x8(%r8,%r9){1to4}, %xmm7, %xmm2 vfmadd231ps 0x4(%r8,%r9){1to4}, %xmm6, %xmm2 # xmm2 = (xmm6 * mem) + xmm2 vinsertps $0x30, %xmm4, %xmm3, %xmm9 # xmm9 = xmm3[0,1,2],xmm4[0] vfmadd231ps (%r8,%r9){1to4}, %xmm5, %xmm2 # xmm2 = (xmm5 * mem) + xmm2 vmulss 0xc(%r8,%r9), %xmm8, %xmm0 vinsertps $0x30, %xmm0, %xmm2, %xmm1 # xmm1 = xmm2[0,1,2],xmm0[0] vmulps 0x8(%rdx,%rsi){1to4}, %xmm7, %xmm10 vfmadd231ps 0x4(%rdx,%rsi){1to4}, %xmm6, %xmm10 # xmm10 = (xmm6 * mem) + xmm10 vfmadd231ps (%rdx,%rsi){1to4}, %xmm5, %xmm10 # xmm10 = (xmm5 * mem) + xmm10 vmulss 0xc(%rdx,%rsi), %xmm8, %xmm11 vmulps 0x8(%rdx,%rdi){1to4}, %xmm7, %xmm7 vfmadd231ps 0x4(%rdx,%rdi){1to4}, %xmm6, %xmm7 # xmm7 = (xmm6 * mem) + xmm7 vinsertps $0x30, %xmm11, %xmm10, %xmm10 # xmm10 = xmm10[0,1,2],xmm11[0] vfmadd231ps (%rdx,%rdi){1to4}, %xmm5, %xmm7 # xmm7 = (xmm5 * mem) + xmm7 vmulss 0xc(%rdx,%rdi), %xmm8, %xmm5 vinsertps $0x30, %xmm5, %xmm7, %xmm7 # xmm7 = xmm7[0,1,2],xmm5[0] vbroadcastss 0xc83b0(%rip), %xmm5 # 0x1f5d46c vfnmadd213ps %xmm9, %xmm5, %xmm10 # xmm10 = -(xmm5 * xmm10) + xmm9 vfmadd213ps %xmm1, %xmm5, %xmm7 # xmm7 = (xmm5 * xmm7) + xmm1 movl 0x248(%rcx), %ecx cmpq $0x4, %rcx jne 0x1e952ca leaq 0x292207(%rip), %rcx # 0x21272e4 vmovups 0x110(%rcx), %xmm5 vbroadcastss %xmm3, %xmm6 vshufps $0x55, %xmm3, %xmm3, %xmm8 # xmm8 = xmm3[1,1,1,1] vshufps $0xaa, %xmm3, %xmm3, %xmm3 # xmm3 = xmm3[2,2,2,2] vbroadcastss %xmm4, %xmm4 vmovups 0x594(%rcx), %xmm9 vbroadcastss %xmm10, %xmm11 vshufps $0x55, %xmm10, %xmm10, %xmm12 # xmm12 = xmm10[1,1,1,1] vshufps $0xaa, %xmm10, %xmm10, %xmm13 # xmm13 = xmm10[2,2,2,2] vshufps $0xff, %xmm10, %xmm10, %xmm10 # xmm10 = xmm10[3,3,3,3] vmovups 0xa18(%rcx), %xmm14 vbroadcastss %xmm7, %xmm15 vshufps $0x55, %xmm7, %xmm7, %xmm16 # xmm16 = xmm7[1,1,1,1] vshufps $0xaa, %xmm7, %xmm7, %xmm17 # xmm17 = xmm7[2,2,2,2] vshufps $0xff, %xmm7, %xmm7, %xmm7 # xmm7 = xmm7[3,3,3,3] vmovups 0xe9c(%rcx), %xmm18 vbroadcastss %xmm2, %xmm19 vshufps $0x55, %xmm2, %xmm2, %xmm20 # xmm20 = xmm2[1,1,1,1] vshufps $0xaa, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[2,2,2,2] vbroadcastss %xmm0, %xmm21 vmulps %xmm18, %xmm19, %xmm19 vmulps %xmm18, %xmm20, %xmm20 vmulps %xmm18, %xmm2, %xmm2 vmulps %xmm18, %xmm21, %xmm18 vfmadd231ps %xmm15, %xmm14, %xmm19 # xmm19 = (xmm14 * xmm15) + xmm19 vfmadd231ps %xmm16, %xmm14, %xmm20 # xmm20 = (xmm14 * xmm16) + xmm20 vfmadd231ps %xmm17, %xmm14, %xmm2 # xmm2 = (xmm14 * xmm17) + xmm2 vfmadd231ps %xmm7, %xmm14, %xmm18 # xmm18 = (xmm14 * xmm7) + xmm18 vfmadd231ps %xmm11, %xmm9, %xmm19 # xmm19 = (xmm9 * xmm11) + xmm19 vfmadd231ps %xmm12, %xmm9, %xmm20 # xmm20 = (xmm9 * xmm12) + xmm20 vfmadd231ps %xmm13, %xmm9, %xmm2 # xmm2 = (xmm9 * xmm13) + xmm2 vfmadd231ps %xmm10, %xmm9, %xmm18 # xmm18 = (xmm9 * xmm10) + xmm18 vfmadd231ps %xmm6, %xmm5, %xmm19 # xmm19 = (xmm5 * xmm6) + xmm19 vfmadd231ps %xmm8, %xmm5, %xmm20 # xmm20 = (xmm5 * xmm8) + xmm20 vfmadd231ps %xmm3, %xmm5, %xmm2 # xmm2 = (xmm5 * xmm3) + xmm2 vfmadd231ps %xmm4, %xmm5, %xmm18 # xmm18 = (xmm5 * xmm4) + xmm18 vshufps $0xb1, %xmm19, %xmm19, %xmm3 # xmm3 = xmm19[1,0,3,2] vminps %xmm19, %xmm3, %xmm4 vshufpd $0x1, %xmm4, %xmm4, %xmm5 # xmm5 = xmm4[1,0] vminps %xmm4, %xmm5, %xmm4 vshufps $0xb1, %xmm20, %xmm20, %xmm6 # xmm6 = xmm20[1,0,3,2] vminps %xmm20, %xmm6, %xmm5 vshufpd $0x1, %xmm5, %xmm5, %xmm7 # xmm7 = xmm5[1,0] vminps %xmm5, %xmm7, %xmm5 vinsertps $0x1c, %xmm5, %xmm4, %xmm4 # xmm4 = xmm4[0],xmm5[0],zero,zero vshufps $0xb1, %xmm2, %xmm2, %xmm7 # xmm7 = xmm2[1,0,3,2] vminps %xmm2, %xmm7, %xmm5 vshufpd $0x1, %xmm5, %xmm5, %xmm8 # xmm8 = xmm5[1,0] vminps %xmm5, %xmm8, %xmm5 vinsertps $0x20, %xmm5, %xmm4, %xmm5 # xmm5 = xmm4[0,1],xmm5[0],xmm4[3] vmaxps %xmm19, %xmm3, %xmm3 vshufpd $0x1, %xmm3, %xmm3, %xmm4 # xmm4 = xmm3[1,0] vmaxps %xmm3, %xmm4, %xmm3 vmaxps %xmm20, %xmm6, %xmm4 vshufpd $0x1, %xmm4, %xmm4, %xmm6 # xmm6 = xmm4[1,0] vmaxps %xmm4, %xmm6, %xmm4 vinsertps $0x1c, %xmm4, %xmm3, %xmm3 # xmm3 = xmm3[0],xmm4[0],zero,zero vmaxps %xmm2, %xmm7, %xmm2 vshufpd $0x1, %xmm2, %xmm2, %xmm4 # xmm4 = xmm2[1,0] vmaxps %xmm2, %xmm4, %xmm2 vandps 0x8bc87(%rip){1to4}, %xmm18, %xmm4 # 0x1f20ec4 vinsertps $0x20, %xmm2, %xmm3, %xmm3 # xmm3 = xmm3[0,1],xmm2[0],xmm3[3] vprolq $0x20, %xmm4, %xmm2 vmaxps %xmm4, %xmm2, %xmm2 vbroadcastss %xmm2, %xmm4 vshufps $0xaa, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[2,2,2,2] vmaxps %xmm4, %xmm2, %xmm2 vminps %xmm1, %xmm5, %xmm4 vmaxps %xmm1, %xmm3, %xmm1 vbroadcastss %xmm0, %xmm0 vandps 0x8bc51(%rip){1to4}, %xmm0, %xmm0 # 0x1f20ec4 vmaxps %xmm0, %xmm2, %xmm0 vsubps %xmm0, %xmm4, %xmm2 vaddps %xmm0, %xmm1, %xmm0 vbroadcastss 0x8bc3c(%rip), %xmm1 # 0x1f20ec4 vandps %xmm1, %xmm2, %xmm3 vandps %xmm1, %xmm0, %xmm1 vmaxps %xmm1, %xmm3, %xmm1 vmovshdup %xmm1, %xmm3 # xmm3 = xmm1[1,1,3,3] vmaxss %xmm1, %xmm3, %xmm3 vshufpd $0x1, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[1,0] vmaxss %xmm3, %xmm1, %xmm1 vmulss 0x5bd37(%rip), %xmm1, %xmm1 # 0x1ef0fe4 vbroadcastss %xmm1, %xmm1 vsubps %xmm1, %xmm2, %xmm2 vaddps %xmm1, %xmm0, %xmm0 vmovaps %xmm2, (%rax) vmovaps %xmm0, 0x10(%rax) popq %rbx popq %r14 vzeroupper retq testl %ecx, %ecx jle 0x1e95476 vpbroadcastd %ecx, %ymm5 vbroadcastss %xmm3, %ymm6 vbroadcastss 0x7d41d(%rip), %ymm21 # 0x1f12704 vpermps %ymm3, %ymm21, %ymm8 vbroadcastss 0x8bbe5(%rip), %ymm22 # 0x1f20edc vpermps %ymm3, %ymm22, %ymm9 vbroadcastss %xmm4, %ymm11 vbroadcastss %xmm10, %ymm12 vpermps %ymm10, %ymm21, %ymm13 vbroadcastss 0x8bbc2(%rip), %ymm3 # 0x1f20ed8 vpermps %ymm10, %ymm22, %ymm14 vpermps %ymm10, %ymm3, %ymm15 vbroadcastss %xmm7, %ymm16 vpermps %ymm7, %ymm21, %ymm17 vpermps %ymm7, %ymm22, %ymm18 vpermps %ymm7, %ymm3, %ymm19 vbroadcastss %xmm2, %ymm20 vpermps %ymm2, %ymm21, %ymm23 vpermps %ymm2, %ymm22, %ymm24 vbroadcastss %xmm0, %ymm25 movq %rcx, %rdx shlq $0x6, %rdx leaq (%rdx,%rcx,4), %rdx addq 0x28ecfd(%rip), %rdx # 0x2124060 vbroadcastss 0x57818(%rip), %ymm3 # 0x1eecb84 vbroadcastss 0x566ab(%rip), %ymm10 # 0x1eeba20 vxorps %xmm2, %xmm2, %xmm2 xorl %esi, %esi vbroadcastss 0x8bb3f(%rip), %ymm27 # 0x1f20ec4 vmovaps %ymm10, %ymm22 vmovaps %ymm10, %ymm21 vmovaps %ymm3, %ymm4 vmovaps %ymm3, %ymm7 vpbroadcastd %esi, %ymm28 vpord 0xc5577(%rip), %ymm28, %ymm28 # 0x1f5a920 vpcmpgtd %ymm28, %ymm5, %k1 vmovups 0x908(%rdx,%rsi,4), %ymm28 vmovups 0xd8c(%rdx,%rsi,4), %ymm29 vmulps %ymm29, %ymm20, %ymm30 vmulps %ymm29, %ymm23, %ymm31 vmulps %ymm29, %ymm24, %ymm26 vmulps %ymm29, %ymm25, %ymm29 vfmadd231ps %ymm16, %ymm28, %ymm30 # ymm30 = (ymm28 * ymm16) + ymm30 vfmadd231ps %ymm17, %ymm28, %ymm31 # ymm31 = (ymm28 * ymm17) + ymm31 vfmadd231ps %ymm18, %ymm28, %ymm26 # ymm26 = (ymm28 * ymm18) + ymm26 vfmadd231ps %ymm28, %ymm19, %ymm29 # ymm29 = (ymm19 * ymm28) + ymm29 vmovups 0x484(%rdx,%rsi,4), %ymm28 vfmadd231ps %ymm12, %ymm28, %ymm30 # ymm30 = (ymm28 * ymm12) + ymm30 vfmadd231ps %ymm13, %ymm28, %ymm31 # ymm31 = (ymm28 * ymm13) + ymm31 vfmadd231ps %ymm14, %ymm28, %ymm26 # ymm26 = (ymm28 * ymm14) + ymm26 vfmadd231ps %ymm28, %ymm15, %ymm29 # ymm29 = (ymm15 * ymm28) + ymm29 vmovups (%rdx,%rsi,4), %ymm28 vfmadd231ps %ymm6, %ymm28, %ymm30 # ymm30 = (ymm28 * ymm6) + ymm30 vfmadd231ps %ymm8, %ymm28, %ymm31 # ymm31 = (ymm28 * ymm8) + ymm31 vfmadd231ps %ymm9, %ymm28, %ymm26 # ymm26 = (ymm28 * ymm9) + ymm26 vfmadd231ps %ymm28, %ymm11, %ymm29 # ymm29 = (ymm11 * ymm28) + ymm29 vminps %ymm30, %ymm21, %ymm21 {%k1} vmaxps %ymm30, %ymm7, %ymm7 {%k1} vminps %ymm31, %ymm22, %ymm22 {%k1} vmaxps %ymm31, %ymm4, %ymm4 {%k1} vminps %ymm26, %ymm10, %ymm10 {%k1} vmaxps %ymm26, %ymm3, %ymm3 {%k1} vandps %ymm27, %ymm29, %ymm26 vmaxps %ymm26, %ymm2, %ymm2 {%k1} addq $0x8, %rsi cmpq %rcx, %rsi jb 0x1e95399 jmp 0x1e954a1 vbroadcastss 0x565a0(%rip), %ymm21 # 0x1eeba20 vbroadcastss 0x576fb(%rip), %ymm7 # 0x1eecb84 vxorps %xmm2, %xmm2, %xmm2 vmovaps %ymm7, %ymm4 vmovaps %ymm7, %ymm3 vmovaps %ymm21, %ymm22 vmovaps %ymm21, %ymm10 vshufps $0xb1, %ymm21, %ymm21, %ymm5 # ymm5 = ymm21[1,0,3,2,5,4,7,6] vminps %ymm5, %ymm21, %ymm5 vshufpd $0x5, %ymm5, %ymm5, %ymm6 # ymm6 = ymm5[1,0,3,2] vminps %ymm6, %ymm5, %ymm5 vextractf128 $0x1, %ymm5, %xmm6 vminps %xmm6, %xmm5, %xmm5 vshufps $0xb1, %ymm22, %ymm22, %ymm6 # ymm6 = ymm22[1,0,3,2,5,4,7,6] vminps %ymm6, %ymm22, %ymm6 vshufpd $0x5, %ymm6, %ymm6, %ymm8 # ymm8 = ymm6[1,0,3,2] vminps %ymm8, %ymm6, %ymm6 vextractf128 $0x1, %ymm6, %xmm8 vminps %xmm8, %xmm6, %xmm6 vunpcklps %xmm6, %xmm5, %xmm5 # xmm5 = xmm5[0],xmm6[0],xmm5[1],xmm6[1] vshufps $0xb1, %ymm10, %ymm10, %ymm6 # ymm6 = ymm10[1,0,3,2,5,4,7,6] vminps %ymm6, %ymm10, %ymm6 vshufpd $0x5, %ymm6, %ymm6, %ymm8 # ymm8 = ymm6[1,0,3,2] vminps %ymm8, %ymm6, %ymm6 vextractf128 $0x1, %ymm6, %xmm8 vminps %xmm8, %xmm6, %xmm6 vinsertps $0x28, %xmm6, %xmm5, %xmm5 # xmm5 = xmm5[0,1],xmm6[0],zero vshufps $0xb1, %ymm7, %ymm7, %ymm6 # ymm6 = ymm7[1,0,3,2,5,4,7,6] vmaxps %ymm6, %ymm7, %ymm6 vshufpd $0x5, %ymm6, %ymm6, %ymm7 # ymm7 = ymm6[1,0,3,2] vmaxps %ymm7, %ymm6, %ymm6 vextractf128 $0x1, %ymm6, %xmm7 vmaxps %xmm7, %xmm6, %xmm6 vshufps $0xb1, %ymm4, %ymm4, %ymm7 # ymm7 = ymm4[1,0,3,2,5,4,7,6] vmaxps %ymm7, %ymm4, %ymm4 vshufpd $0x5, %ymm4, %ymm4, %ymm7 # ymm7 = ymm4[1,0,3,2] vmaxps %ymm7, %ymm4, %ymm4 vextractf128 $0x1, %ymm4, %xmm7 vmaxps %xmm7, %xmm4, %xmm4 vunpcklps %xmm4, %xmm6, %xmm4 # xmm4 = xmm6[0],xmm4[0],xmm6[1],xmm4[1] vshufps $0xb1, %ymm3, %ymm3, %ymm6 # ymm6 = ymm3[1,0,3,2,5,4,7,6] vmaxps %ymm6, %ymm3, %ymm3 vshufpd $0x5, %ymm3, %ymm3, %ymm6 # ymm6 = ymm3[1,0,3,2] vmaxps %ymm6, %ymm3, %ymm3 vextractf128 $0x1, %ymm3, %xmm6 vmaxps %xmm6, %xmm3, %xmm3 vinsertps $0x28, %xmm3, %xmm4, %xmm3 # xmm3 = xmm4[0,1],xmm3[0],zero vshufps $0xb1, %ymm2, %ymm2, %ymm4 # ymm4 = ymm2[1,0,3,2,5,4,7,6] vmaxps %ymm4, %ymm2, %ymm2 vshufpd $0x5, %ymm2, %ymm2, %ymm4 # ymm4 = ymm2[1,0,3,2] vmaxps %ymm4, %ymm2, %ymm2 vextractf128 $0x1, %ymm2, %xmm4 vmaxps %xmm4, %xmm2, %xmm2 vbroadcastss %xmm2, %xmm2 jmp 0x1e9525c
/embree[P]embree/kernels/common/scene_curves.cpp
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)0, embree::avx512::HermiteCurveGeometryInterface, embree::HermiteCurveT>::linearBounds(embree::Vec3fa const&, float, float, embree::LinearSpace3<embree::Vec3fa> const&, unsigned long, embree::BBox<float> const&) const::'lambda'(unsigned long)::operator()(unsigned long) const
__forceinline LBBox3fa linearBounds(const Vec3fa& ofs, const float scale, const float r_scale0, const LinearSpace3fa& space, size_t primID, const BBox1f& dt) const { return LBBox3fa([&] (size_t itime) { return bounds(ofs, scale, r_scale0, space, primID, itime); }, dt, this->time_range, fnumTimeSegments); }
pushq %r15 pushq %r14 pushq %rbx movq %rdi, %rax movq 0x28(%rsi), %rcx movq (%rsi), %r11 movq 0x8(%rsi), %rdi movq 0x10(%rsi), %r8 movq 0x18(%rsi), %r10 movq 0x20(%rsi), %rsi vbroadcastss (%rdi), %xmm4 vmulss (%r8), %xmm4, %xmm3 movq 0x58(%rcx), %rdi movq 0x68(%rcx), %r8 imulq (%rsi), %r8 movl (%rdi,%r8), %esi movq 0x188(%rcx), %rdi imulq $0x38, %rdx, %r14 movq (%rdi,%r14), %r8 movq 0x10(%rdi,%r14), %r9 movq %r9, %rbx imulq %rsi, %rbx vmovaps (%r8,%rbx), %xmm0 leal 0x1(%rsi), %r15d imulq %r15, %r9 vmovaps (%r8,%r9), %xmm1 movq 0x1c8(%rcx), %rdi movq (%rdi,%r14), %rdx movq 0x10(%rdi,%r14), %rdi imulq %rdi, %rsi imulq %r15, %rdi vmovaps (%r11), %xmm2 vsubps %xmm2, %xmm0, %xmm0 vmulps %xmm0, %xmm4, %xmm0 vbroadcastss %xmm0, %xmm5 vshufps $0x55, %xmm0, %xmm0, %xmm6 # xmm6 = xmm0[1,1,1,1] vmovaps (%r10), %xmm8 vmovaps 0x10(%r10), %xmm9 vshufps $0xaa, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[2,2,2,2] vmovaps 0x20(%r10), %xmm11 vmulps %xmm0, %xmm11, %xmm7 vfmadd231ps %xmm6, %xmm9, %xmm7 # xmm7 = (xmm9 * xmm6) + xmm7 vfmadd231ps %xmm5, %xmm8, %xmm7 # xmm7 = (xmm8 * xmm5) + xmm7 vmovss 0x24c(%rcx), %xmm5 vmulss 0xc(%r8,%rbx), %xmm5, %xmm0 vmulss %xmm0, %xmm3, %xmm10 vinsertps $0x30, %xmm10, %xmm7, %xmm6 # xmm6 = xmm7[0,1,2],xmm10[0] vsubps %xmm2, %xmm1, %xmm0 vmulps %xmm0, %xmm4, %xmm0 vbroadcastss %xmm0, %xmm1 vshufps $0x55, %xmm0, %xmm0, %xmm12 # xmm12 = xmm0[1,1,1,1] vshufps $0xaa, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[2,2,2,2] vmulps %xmm0, %xmm11, %xmm2 vfmadd231ps %xmm12, %xmm9, %xmm2 # xmm2 = (xmm9 * xmm12) + xmm2 vfmadd231ps %xmm1, %xmm8, %xmm2 # xmm2 = (xmm8 * xmm1) + xmm2 vmulss 0xc(%r8,%r9), %xmm5, %xmm0 vmulss %xmm0, %xmm3, %xmm0 vinsertps $0x30, %xmm0, %xmm2, %xmm1 # xmm1 = xmm2[0,1,2],xmm0[0] vmulps (%rdx,%rsi), %xmm4, %xmm12 vbroadcastss %xmm12, %xmm13 vshufps $0x55, %xmm12, %xmm12, %xmm14 # xmm14 = xmm12[1,1,1,1] vshufps $0xaa, %xmm12, %xmm12, %xmm12 # xmm12 = xmm12[2,2,2,2] vmulps %xmm11, %xmm12, %xmm12 vfmadd231ps %xmm14, %xmm9, %xmm12 # xmm12 = (xmm9 * xmm14) + xmm12 vfmadd231ps %xmm13, %xmm8, %xmm12 # xmm12 = (xmm8 * xmm13) + xmm12 vmulss 0xc(%rdx,%rsi), %xmm5, %xmm13 vmulss %xmm3, %xmm13, %xmm13 vinsertps $0x30, %xmm13, %xmm12, %xmm15 # xmm15 = xmm12[0,1,2],xmm13[0] vmulps (%rdx,%rdi), %xmm4, %xmm4 vbroadcastss %xmm4, %xmm12 vshufps $0x55, %xmm4, %xmm4, %xmm13 # xmm13 = xmm4[1,1,1,1] vshufps $0xaa, %xmm4, %xmm4, %xmm4 # xmm4 = xmm4[2,2,2,2] vmulps %xmm4, %xmm11, %xmm4 vfmadd231ps %xmm13, %xmm9, %xmm4 # xmm4 = (xmm9 * xmm13) + xmm4 vfmadd231ps %xmm12, %xmm8, %xmm4 # xmm4 = (xmm8 * xmm12) + xmm4 vmulss 0xc(%rdx,%rdi), %xmm5, %xmm5 vmulss %xmm5, %xmm3, %xmm3 vinsertps $0x30, %xmm3, %xmm4, %xmm3 # xmm3 = xmm4[0,1,2],xmm3[0] vbroadcastss 0xc7d62(%rip), %xmm4 # 0x1f5d46c vfnmadd213ps %xmm6, %xmm4, %xmm15 # xmm15 = -(xmm4 * xmm15) + xmm6 vfmadd213ps %xmm1, %xmm4, %xmm3 # xmm3 = (xmm4 * xmm3) + xmm1 movl 0x248(%rcx), %ecx cmpq $0x4, %rcx jne 0x1e9591a leaq 0x291bb9(%rip), %rcx # 0x21272e4 vmovups 0x110(%rcx), %xmm4 vbroadcastss %xmm7, %xmm5 vshufps $0x55, %xmm7, %xmm7, %xmm6 # xmm6 = xmm7[1,1,1,1] vshufps $0xaa, %xmm7, %xmm7, %xmm7 # xmm7 = xmm7[2,2,2,2] vbroadcastss %xmm10, %xmm8 vmovups 0x594(%rcx), %xmm9 vbroadcastss %xmm15, %xmm10 vshufps $0x55, %xmm15, %xmm15, %xmm11 # xmm11 = xmm15[1,1,1,1] vshufps $0xaa, %xmm15, %xmm15, %xmm12 # xmm12 = xmm15[2,2,2,2] vshufps $0xff, %xmm15, %xmm15, %xmm13 # xmm13 = xmm15[3,3,3,3] vmovups 0xa18(%rcx), %xmm14 vbroadcastss %xmm3, %xmm15 vshufps $0x55, %xmm3, %xmm3, %xmm16 # xmm16 = xmm3[1,1,1,1] vshufps $0xaa, %xmm3, %xmm3, %xmm17 # xmm17 = xmm3[2,2,2,2] vshufps $0xff, %xmm3, %xmm3, %xmm3 # xmm3 = xmm3[3,3,3,3] vmovups 0xe9c(%rcx), %xmm18 vbroadcastss %xmm2, %xmm19 vshufps $0x55, %xmm2, %xmm2, %xmm20 # xmm20 = xmm2[1,1,1,1] vshufps $0xaa, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[2,2,2,2] vbroadcastss %xmm0, %xmm21 vmulps %xmm18, %xmm19, %xmm19 vmulps %xmm18, %xmm20, %xmm20 vmulps %xmm18, %xmm2, %xmm2 vmulps %xmm18, %xmm21, %xmm18 vfmadd231ps %xmm15, %xmm14, %xmm19 # xmm19 = (xmm14 * xmm15) + xmm19 vfmadd231ps %xmm16, %xmm14, %xmm20 # xmm20 = (xmm14 * xmm16) + xmm20 vfmadd231ps %xmm17, %xmm14, %xmm2 # xmm2 = (xmm14 * xmm17) + xmm2 vfmadd231ps %xmm3, %xmm14, %xmm18 # xmm18 = (xmm14 * xmm3) + xmm18 vfmadd231ps %xmm10, %xmm9, %xmm19 # xmm19 = (xmm9 * xmm10) + xmm19 vfmadd231ps %xmm11, %xmm9, %xmm20 # xmm20 = (xmm9 * xmm11) + xmm20 vfmadd231ps %xmm12, %xmm9, %xmm2 # xmm2 = (xmm9 * xmm12) + xmm2 vfmadd231ps %xmm13, %xmm9, %xmm18 # xmm18 = (xmm9 * xmm13) + xmm18 vfmadd231ps %xmm5, %xmm4, %xmm19 # xmm19 = (xmm4 * xmm5) + xmm19 vfmadd231ps %xmm6, %xmm4, %xmm20 # xmm20 = (xmm4 * xmm6) + xmm20 vfmadd231ps %xmm7, %xmm4, %xmm2 # xmm2 = (xmm4 * xmm7) + xmm2 vfmadd231ps %xmm8, %xmm4, %xmm18 # xmm18 = (xmm4 * xmm8) + xmm18 vshufps $0xb1, %xmm19, %xmm19, %xmm3 # xmm3 = xmm19[1,0,3,2] vminps %xmm19, %xmm3, %xmm4 vshufpd $0x1, %xmm4, %xmm4, %xmm5 # xmm5 = xmm4[1,0] vminps %xmm4, %xmm5, %xmm4 vshufps $0xb1, %xmm20, %xmm20, %xmm6 # xmm6 = xmm20[1,0,3,2] vminps %xmm20, %xmm6, %xmm5 vshufpd $0x1, %xmm5, %xmm5, %xmm7 # xmm7 = xmm5[1,0] vminps %xmm5, %xmm7, %xmm5 vinsertps $0x1c, %xmm5, %xmm4, %xmm4 # xmm4 = xmm4[0],xmm5[0],zero,zero vshufps $0xb1, %xmm2, %xmm2, %xmm7 # xmm7 = xmm2[1,0,3,2] vminps %xmm2, %xmm7, %xmm5 vshufpd $0x1, %xmm5, %xmm5, %xmm8 # xmm8 = xmm5[1,0] vminps %xmm5, %xmm8, %xmm5 vinsertps $0x20, %xmm5, %xmm4, %xmm5 # xmm5 = xmm4[0,1],xmm5[0],xmm4[3] vmaxps %xmm19, %xmm3, %xmm3 vshufpd $0x1, %xmm3, %xmm3, %xmm4 # xmm4 = xmm3[1,0] vmaxps %xmm3, %xmm4, %xmm3 vmaxps %xmm20, %xmm6, %xmm4 vshufpd $0x1, %xmm4, %xmm4, %xmm6 # xmm6 = xmm4[1,0] vmaxps %xmm4, %xmm6, %xmm4 vinsertps $0x1c, %xmm4, %xmm3, %xmm3 # xmm3 = xmm3[0],xmm4[0],zero,zero vmaxps %xmm2, %xmm7, %xmm2 vshufpd $0x1, %xmm2, %xmm2, %xmm4 # xmm4 = xmm2[1,0] vmaxps %xmm2, %xmm4, %xmm2 vandps 0x8b639(%rip){1to4}, %xmm18, %xmm4 # 0x1f20ec4 vinsertps $0x20, %xmm2, %xmm3, %xmm3 # xmm3 = xmm3[0,1],xmm2[0],xmm3[3] vprolq $0x20, %xmm4, %xmm2 vmaxps %xmm4, %xmm2, %xmm2 vbroadcastss %xmm2, %xmm4 vshufps $0xaa, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[2,2,2,2] vmaxps %xmm4, %xmm2, %xmm2 vminps %xmm1, %xmm5, %xmm4 vmaxps %xmm1, %xmm3, %xmm1 vbroadcastss %xmm0, %xmm0 vandps 0x8b603(%rip){1to4}, %xmm0, %xmm0 # 0x1f20ec4 vmaxps %xmm0, %xmm2, %xmm0 vsubps %xmm0, %xmm4, %xmm2 vaddps %xmm0, %xmm1, %xmm0 vbroadcastss 0x8b5ee(%rip), %xmm1 # 0x1f20ec4 vandps %xmm1, %xmm2, %xmm3 vandps %xmm1, %xmm0, %xmm1 vmaxps %xmm1, %xmm3, %xmm1 vmovshdup %xmm1, %xmm3 # xmm3 = xmm1[1,1,3,3] vmaxss %xmm1, %xmm3, %xmm3 vshufpd $0x1, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[1,0] vmaxss %xmm3, %xmm1, %xmm1 vmulss 0x5b6e9(%rip), %xmm1, %xmm1 # 0x1ef0fe4 vbroadcastss %xmm1, %xmm1 vsubps %xmm1, %xmm2, %xmm2 vaddps %xmm1, %xmm0, %xmm0 vmovaps %xmm2, (%rax) vmovaps %xmm0, 0x10(%rax) popq %rbx popq %r14 popq %r15 vzeroupper retq testl %ecx, %ecx jle 0x1e95ac3 vpbroadcastd %ecx, %ymm5 vbroadcastss %xmm7, %ymm6 vbroadcastss 0x7cdce(%rip), %ymm4 # 0x1f12704 vpermps %ymm7, %ymm4, %ymm8 vbroadcastss 0x8b597(%rip), %ymm21 # 0x1f20edc vpermps %ymm7, %ymm21, %ymm9 vbroadcastss %xmm10, %ymm11 vbroadcastss %xmm15, %ymm12 vpermps %ymm15, %ymm4, %ymm13 vbroadcastss 0x8b575(%rip), %ymm7 # 0x1f20ed8 vpermps %ymm15, %ymm21, %ymm14 vpermps %ymm15, %ymm7, %ymm15 vbroadcastss %xmm3, %ymm16 vpermps %ymm3, %ymm4, %ymm17 vpermps %ymm3, %ymm21, %ymm18 vpermps %ymm3, %ymm7, %ymm19 vbroadcastss %xmm2, %ymm20 vpermps %ymm2, %ymm4, %ymm23 vpermps %ymm2, %ymm21, %ymm24 vbroadcastss %xmm0, %ymm25 movq %rcx, %rdx shlq $0x6, %rdx leaq (%rdx,%rcx,4), %rdx addq 0x28e6b0(%rip), %rdx # 0x2124060 vbroadcastss 0x571cb(%rip), %ymm3 # 0x1eecb84 vbroadcastss 0x5605e(%rip), %ymm10 # 0x1eeba20 vxorps %xmm2, %xmm2, %xmm2 xorl %esi, %esi vbroadcastss 0x8b4f2(%rip), %ymm27 # 0x1f20ec4 vmovaps %ymm10, %ymm22 vmovaps %ymm10, %ymm21 vmovaps %ymm3, %ymm4 vmovaps %ymm3, %ymm7 vpbroadcastd %esi, %ymm28 vpord 0xc4f2a(%rip), %ymm28, %ymm28 # 0x1f5a920 vpcmpgtd %ymm28, %ymm5, %k1 vmovups 0x908(%rdx,%rsi,4), %ymm28 vmovups 0xd8c(%rdx,%rsi,4), %ymm29 vmulps %ymm29, %ymm20, %ymm30 vmulps %ymm29, %ymm23, %ymm31 vmulps %ymm29, %ymm24, %ymm26 vmulps %ymm29, %ymm25, %ymm29 vfmadd231ps %ymm16, %ymm28, %ymm30 # ymm30 = (ymm28 * ymm16) + ymm30 vfmadd231ps %ymm17, %ymm28, %ymm31 # ymm31 = (ymm28 * ymm17) + ymm31 vfmadd231ps %ymm18, %ymm28, %ymm26 # ymm26 = (ymm28 * ymm18) + ymm26 vfmadd231ps %ymm28, %ymm19, %ymm29 # ymm29 = (ymm19 * ymm28) + ymm29 vmovups 0x484(%rdx,%rsi,4), %ymm28 vfmadd231ps %ymm12, %ymm28, %ymm30 # ymm30 = (ymm28 * ymm12) + ymm30 vfmadd231ps %ymm13, %ymm28, %ymm31 # ymm31 = (ymm28 * ymm13) + ymm31 vfmadd231ps %ymm14, %ymm28, %ymm26 # ymm26 = (ymm28 * ymm14) + ymm26 vfmadd231ps %ymm28, %ymm15, %ymm29 # ymm29 = (ymm15 * ymm28) + ymm29 vmovups (%rdx,%rsi,4), %ymm28 vfmadd231ps %ymm6, %ymm28, %ymm30 # ymm30 = (ymm28 * ymm6) + ymm30 vfmadd231ps %ymm8, %ymm28, %ymm31 # ymm31 = (ymm28 * ymm8) + ymm31 vfmadd231ps %ymm9, %ymm28, %ymm26 # ymm26 = (ymm28 * ymm9) + ymm26 vfmadd231ps %ymm28, %ymm11, %ymm29 # ymm29 = (ymm11 * ymm28) + ymm29 vminps %ymm30, %ymm21, %ymm21 {%k1} vmaxps %ymm30, %ymm7, %ymm7 {%k1} vminps %ymm31, %ymm22, %ymm22 {%k1} vmaxps %ymm31, %ymm4, %ymm4 {%k1} vminps %ymm26, %ymm10, %ymm10 {%k1} vmaxps %ymm26, %ymm3, %ymm3 {%k1} vandps %ymm27, %ymm29, %ymm26 vmaxps %ymm26, %ymm2, %ymm2 {%k1} addq $0x8, %rsi cmpq %rcx, %rsi jb 0x1e959e6 jmp 0x1e95aee vbroadcastss 0x55f53(%rip), %ymm21 # 0x1eeba20 vbroadcastss 0x570ae(%rip), %ymm7 # 0x1eecb84 vxorps %xmm2, %xmm2, %xmm2 vmovaps %ymm7, %ymm4 vmovaps %ymm7, %ymm3 vmovaps %ymm21, %ymm22 vmovaps %ymm21, %ymm10 vshufps $0xb1, %ymm21, %ymm21, %ymm5 # ymm5 = ymm21[1,0,3,2,5,4,7,6] vminps %ymm5, %ymm21, %ymm5 vshufpd $0x5, %ymm5, %ymm5, %ymm6 # ymm6 = ymm5[1,0,3,2] vminps %ymm6, %ymm5, %ymm5 vextractf128 $0x1, %ymm5, %xmm6 vminps %xmm6, %xmm5, %xmm5 vshufps $0xb1, %ymm22, %ymm22, %ymm6 # ymm6 = ymm22[1,0,3,2,5,4,7,6] vminps %ymm6, %ymm22, %ymm6 vshufpd $0x5, %ymm6, %ymm6, %ymm8 # ymm8 = ymm6[1,0,3,2] vminps %ymm8, %ymm6, %ymm6 vextractf128 $0x1, %ymm6, %xmm8 vminps %xmm8, %xmm6, %xmm6 vunpcklps %xmm6, %xmm5, %xmm5 # xmm5 = xmm5[0],xmm6[0],xmm5[1],xmm6[1] vshufps $0xb1, %ymm10, %ymm10, %ymm6 # ymm6 = ymm10[1,0,3,2,5,4,7,6] vminps %ymm6, %ymm10, %ymm6 vshufpd $0x5, %ymm6, %ymm6, %ymm8 # ymm8 = ymm6[1,0,3,2] vminps %ymm8, %ymm6, %ymm6 vextractf128 $0x1, %ymm6, %xmm8 vminps %xmm8, %xmm6, %xmm6 vinsertps $0x28, %xmm6, %xmm5, %xmm5 # xmm5 = xmm5[0,1],xmm6[0],zero vshufps $0xb1, %ymm7, %ymm7, %ymm6 # ymm6 = ymm7[1,0,3,2,5,4,7,6] vmaxps %ymm6, %ymm7, %ymm6 vshufpd $0x5, %ymm6, %ymm6, %ymm7 # ymm7 = ymm6[1,0,3,2] vmaxps %ymm7, %ymm6, %ymm6 vextractf128 $0x1, %ymm6, %xmm7 vmaxps %xmm7, %xmm6, %xmm6 vshufps $0xb1, %ymm4, %ymm4, %ymm7 # ymm7 = ymm4[1,0,3,2,5,4,7,6] vmaxps %ymm7, %ymm4, %ymm4 vshufpd $0x5, %ymm4, %ymm4, %ymm7 # ymm7 = ymm4[1,0,3,2] vmaxps %ymm7, %ymm4, %ymm4 vextractf128 $0x1, %ymm4, %xmm7 vmaxps %xmm7, %xmm4, %xmm4 vunpcklps %xmm4, %xmm6, %xmm4 # xmm4 = xmm6[0],xmm4[0],xmm6[1],xmm4[1] vshufps $0xb1, %ymm3, %ymm3, %ymm6 # ymm6 = ymm3[1,0,3,2,5,4,7,6] vmaxps %ymm6, %ymm3, %ymm3 vshufpd $0x5, %ymm3, %ymm3, %ymm6 # ymm6 = ymm3[1,0,3,2] vmaxps %ymm6, %ymm3, %ymm3 vextractf128 $0x1, %ymm3, %xmm6 vmaxps %xmm6, %xmm3, %xmm3 vinsertps $0x28, %xmm3, %xmm4, %xmm3 # xmm3 = xmm4[0,1],xmm3[0],zero vshufps $0xb1, %ymm2, %ymm2, %ymm4 # ymm4 = ymm2[1,0,3,2,5,4,7,6] vmaxps %ymm4, %ymm2, %ymm2 vshufpd $0x5, %ymm2, %ymm2, %ymm4 # ymm4 = ymm2[1,0,3,2] vmaxps %ymm4, %ymm2, %ymm2 vextractf128 $0x1, %ymm2, %xmm4 vmaxps %xmm4, %xmm2, %xmm2 vbroadcastss %xmm2, %xmm2 jmp 0x1e958aa nop
/embree[P]embree/kernels/common/scene_curves.cpp
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)2, embree::avx512::HermiteCurveGeometryInterface, embree::HermiteCurveT>::createPrimRefArrayMB(embree::PrimRef*, embree::BBox<float> const&, embree::range<unsigned long> const&, unsigned long, unsigned int) const
PrimInfo createPrimRefArrayMB(PrimRef* prims, const BBox1f& time_range, const range<size_t>& r, size_t k, unsigned int geomID) const { PrimInfo pinfo(empty); const BBox1f t0t1 = BBox1f::intersect(this->time_range, time_range); if (t0t1.empty()) return pinfo; for (size_t j=r.begin(); j<r.end(); j++) { if (!valid(ctype, j, this->timeSegmentRange(t0t1))) continue; const LBBox3fa lbounds = linearBounds(j,t0t1); if (lbounds.bounds0.empty() || lbounds.bounds1.empty()) continue; // checks oriented curves with invalid normals which cause NaNs here const PrimRef prim(lbounds.bounds(),geomID,unsigned(j)); pinfo.add_primref(prim); prims[k++] = prim; } return pinfo; }
pushq %rbp pushq %r15 pushq %r14 pushq %r13 pushq %r12 pushq %rbx subq $0x1d8, %rsp # imm = 0x1D8 movq %rdi, %rax vbroadcastss 0x54835(%rip), %xmm0 # 0x1eeba20 vmovaps %xmm0, (%rdi) vbroadcastss 0x5598c(%rip), %xmm1 # 0x1eecb84 vmovaps %xmm1, 0x10(%rdi) movq %rdx, 0xe0(%rsp) vmovaps %xmm0, 0x20(%rdi) vmovaps %xmm1, 0x30(%rdi) vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 0x40(%rdi) vmovsd 0x2c(%rsi), %xmm0 vmovsd (%rcx), %xmm1 vcmpltps %xmm1, %xmm0, %k1 vinsertps $0x50, %xmm0, %xmm1, %xmm2 # xmm2 = xmm1[0],xmm0[1],xmm1[2,3] vinsertps $0x50, %xmm1, %xmm0, %xmm19 # xmm19 = xmm0[0],xmm1[1],xmm0[2,3] vmovaps %xmm2, %xmm19 {%k1} vmovshdup %xmm19, %xmm20 # xmm20 = xmm19[1,1,3,3] vucomiss %xmm20, %xmm19 ja 0x1e9836d movq %r9, 0x50(%rsp) vmovaps (%rax), %xmm0 vmovaps %xmm0, 0xa0(%rsp) vmovaps 0x10(%rax), %xmm0 vmovaps 0x20(%rax), %xmm1 vmovaps %xmm1, 0x80(%rsp) movq (%r8), %r14 vmovaps 0x30(%rax), %xmm1 vmovaps %xmm1, 0x70(%rsp) movq %rax, 0xd8(%rsp) movq 0x48(%rax), %rax cmpq 0x8(%r8), %r14 vmovaps %xmm0, 0x90(%rsp) movq %rax, 0x48(%rsp) jae 0x1e98328 vmovss 0x59692(%rip), %xmm29 # 0x1ef0940 vxorps %xmm4, %xmm4, %xmm4 vmovss 0x59688(%rip), %xmm31 # 0x1ef0944 leaq 0x110(%rsp), %rbp vxorps %xmm22, %xmm22, %xmm22 vbroadcastss 0x8a128(%rip), %xmm17 # 0x1f213fc vbroadcastss 0x59d02(%rip), %xmm18 # 0x1ef0fe0 movq %r8, 0x58(%rsp) vmovaps %xmm19, 0x100(%rsp) vmovaps %xmm20, 0xf0(%rsp) movq %rsi, 0x10(%rsp) vmovsd 0x2c(%rsi), %xmm0 vmovshdup %xmm0, %xmm1 # xmm1 = xmm0[1,1,3,3] vsubss %xmm0, %xmm1, %xmm1 vsubss %xmm0, %xmm19, %xmm2 vdivss %xmm1, %xmm2, %xmm2 vsubss %xmm0, %xmm20, %xmm0 vdivss %xmm1, %xmm0, %xmm0 vmulss %xmm29, %xmm2, %xmm1 vmulss %xmm31, %xmm0, %xmm0 movq 0x58(%rsi), %rax movq 0x68(%rsi), %rcx imulq %r14, %rcx movl (%rax,%rcx), %ecx leal 0x1(%rcx), %edx movq 0x188(%rsi), %r13 cmpq %rdx, 0x18(%r13) jbe 0x1e9831b vmovss 0x28(%rsi), %xmm3 vmulss %xmm1, %xmm3, %xmm1 vroundss $0x9, %xmm1, %xmm1, %xmm1 vmaxss %xmm1, %xmm4, %xmm1 vcvttss2si %xmm1, %edi vmulss %xmm0, %xmm3, %xmm0 vroundss $0xa, %xmm0, %xmm0, %xmm0 vminss %xmm3, %xmm0, %xmm0 vcvttss2si %xmm0, %r9d cmpl %r9d, %edi seta %al vmovss %xmm3, 0xc(%rsp) ja 0x1e97e61 movslq %edi, %rdi imulq $0x38, %rdi, %r8 movq (%r13,%r8), %rbx movq 0x10(%r13,%r8), %r15 movq %r15, %r10 imulq %rcx, %r10 vmovaps (%rbx,%r10), %xmm9 vcmpnleps %xmm17, %xmm9, %k1 vcmpltps %xmm18, %xmm9, %k0 {%k1} kmovd %k0, %r10d cmpb $0xf, %r10b jne 0x1e97e59 movslq %r9d, %r9 movq 0x10(%rsp), %r12 movq 0x1a8(%r12), %r10 movq 0x1c8(%r12), %r11 movq 0x1e8(%r12), %rsi vmovss 0x24c(%r12), %xmm0 vmovss %xmm0, 0x20(%rsp) imulq %rdx, %r15 addq %r15, %rbx leaq 0x28fee9(%rip), %r15 # 0x21272e4 vmovups 0x1dc(%r15), %ymm24 vmovups 0x660(%r15), %ymm25 vmovups 0xae4(%r15), %ymm26 vmovups 0xf68(%r15), %ymm28 vmovups 0x13ec(%r15), %ymm5 vmovups 0x1870(%r15), %ymm6 vmovups 0x1cf4(%r15), %ymm7 vmovups 0x2178(%r15), %ymm8 vmovaps (%rbx), %xmm10 vcmpnleps %xmm17, %xmm10, %k1 vcmpltps %xmm18, %xmm10, %k0 {%k1} kmovd %k0, %ebx cmpb $0xf, %bl jne 0x1e97e59 movq %rbp, %r12 movq (%r11,%r8), %rbx movq 0x10(%r11,%r8), %r15 movq %r15, %rbp imulq %rcx, %rbp vmovaps (%rbx,%rbp), %xmm11 vcmpnleps %xmm17, %xmm11, %k1 vcmpltps %xmm18, %xmm11, %k0 {%k1} kmovd %k0, %ebp cmpb $0xf, %bpl jne 0x1e97e56 imulq %rdx, %r15 vmovaps (%rbx,%r15), %xmm13 vcmpnleps %xmm17, %xmm13, %k1 vcmpltps %xmm18, %xmm13, %k0 {%k1} kmovd %k0, %ebx cmpb $0xf, %bl jne 0x1e97e56 movq (%r10,%r8), %rbx movq 0x10(%r10,%r8), %r15 movq %r15, %rbp imulq %rcx, %rbp vmovups (%rbx,%rbp), %xmm12 vcmpnleps %xmm17, %xmm12, %k1 vcmpltps %xmm18, %xmm12, %k0 {%k1} knotw %k0, %k0 kmovd %k0, %ebp testb $0x7, %bpl jne 0x1e97e56 imulq %rdx, %r15 vmovups (%rbx,%r15), %xmm14 vcmpnleps %xmm17, %xmm14, %k1 vcmpltps %xmm18, %xmm14, %k0 {%k1} knotw %k0, %k0 kmovd %k0, %ebx testb $0x7, %bl jne 0x1e97e56 movq (%rsi,%r8), %rbx movq 0x10(%rsi,%r8), %r15 movq %r15, %rbp imulq %rcx, %rbp vmovups (%rbx,%rbp), %xmm15 vcmpnleps %xmm17, %xmm15, %k1 vcmpltps %xmm18, %xmm15, %k0 {%k1} knotw %k0, %k0 kmovd %k0, %ebp testb $0x7, %bpl jne 0x1e97e56 imulq %rdx, %r15 vmovups (%rbx,%r15), %xmm16 vcmpnleps %xmm17, %xmm16, %k1 vcmpltps %xmm18, %xmm16, %k0 {%k1} knotw %k0, %k0 kmovd %k0, %ebx testb $0x7, %bl movq %r12, %rbp jne 0x1e97e59 vshufps $0xff, %xmm9, %xmm9, %xmm17 # xmm17 = xmm9[3,3,3,3] vmovss 0x20(%rsp), %xmm0 vmulss %xmm0, %xmm17, %xmm17 vinsertps $0x30, %xmm17, %xmm9, %xmm17 # xmm17 = xmm9[0,1,2],xmm17[0] vshufps $0xff, %xmm10, %xmm10, %xmm9 # xmm9 = xmm10[3,3,3,3] vmulss %xmm0, %xmm9, %xmm9 vinsertps $0x30, %xmm9, %xmm10, %xmm18 # xmm18 = xmm10[0,1,2],xmm9[0] vshufps $0xff, %xmm11, %xmm11, %xmm9 # xmm9 = xmm11[3,3,3,3] vmulss %xmm0, %xmm9, %xmm9 vinsertps $0x30, %xmm9, %xmm11, %xmm19 # xmm19 = xmm11[0,1,2],xmm9[0] vshufps $0xff, %xmm13, %xmm13, %xmm9 # xmm9 = xmm13[3,3,3,3] vmulss %xmm0, %xmm9, %xmm9 vinsertps $0x30, %xmm9, %xmm13, %xmm20 # xmm20 = xmm13[0,1,2],xmm9[0] vbroadcastss 0xc5e9a(%rip), %xmm0 # 0x1f5d46c vfnmadd213ps %xmm17, %xmm0, %xmm19 # xmm19 = -(xmm0 * xmm19) + xmm17 vfmadd213ps %xmm18, %xmm0, %xmm20 # xmm20 = (xmm0 * xmm20) + xmm18 vfnmadd213ps %xmm12, %xmm0, %xmm15 # xmm15 = -(xmm0 * xmm15) + xmm12 vfmadd213ps %xmm14, %xmm0, %xmm16 # xmm16 = (xmm0 * xmm16) + xmm14 vmulps %xmm22, %xmm18, %xmm10 vfmadd231ps %xmm22, %xmm20, %xmm10 # xmm10 = (xmm20 * xmm22) + xmm10 vxorps %xmm9, %xmm9, %xmm9 vfmadd213ps %xmm10, %xmm19, %xmm9 # xmm9 = (xmm19 * xmm9) + xmm10 vaddps %xmm9, %xmm17, %xmm9 vbroadcastss 0x599dd(%rip), %xmm1 # 0x1ef0fec vfmadd231ps %xmm1, %xmm19, %xmm10 # xmm10 = (xmm19 * xmm1) + xmm10 vfnmadd231ps %xmm1, %xmm17, %xmm10 # xmm10 = -(xmm17 * xmm1) + xmm10 vmulps %xmm22, %xmm14, %xmm21 vfmadd231ps %xmm22, %xmm16, %xmm21 # xmm21 = (xmm16 * xmm22) + xmm21 vxorps %xmm11, %xmm11, %xmm11 vfmadd213ps %xmm21, %xmm15, %xmm11 # xmm11 = (xmm15 * xmm11) + xmm21 vxorps %xmm0, %xmm0, %xmm0 vaddps %xmm11, %xmm12, %xmm22 vfmadd231ps %xmm1, %xmm15, %xmm21 # xmm21 = (xmm15 * xmm1) + xmm21 vfnmadd231ps %xmm1, %xmm12, %xmm21 # xmm21 = -(xmm12 * xmm1) + xmm21 vxorps %xmm11, %xmm11, %xmm11 vfmadd213ps %xmm18, %xmm20, %xmm11 # xmm11 = (xmm20 * xmm11) + xmm18 vfmadd231ps %xmm0, %xmm19, %xmm11 # xmm11 = (xmm19 * xmm0) + xmm11 vfmadd231ps %xmm0, %xmm17, %xmm11 # xmm11 = (xmm17 * xmm0) + xmm11 vmulps %xmm1, %xmm18, %xmm13 vfnmadd231ps %xmm20, %xmm1, %xmm13 # xmm13 = -(xmm1 * xmm20) + xmm13 vfmadd231ps %xmm19, %xmm0, %xmm13 # xmm13 = (xmm0 * xmm19) + xmm13 vfnmadd231ps %xmm17, %xmm0, %xmm13 # xmm13 = -(xmm0 * xmm17) + xmm13 vxorps %xmm17, %xmm17, %xmm17 vfmadd213ps %xmm14, %xmm16, %xmm17 # xmm17 = (xmm16 * xmm17) + xmm14 vfmadd231ps %xmm0, %xmm15, %xmm17 # xmm17 = (xmm15 * xmm0) + xmm17 vfmadd231ps %xmm0, %xmm12, %xmm17 # xmm17 = (xmm12 * xmm0) + xmm17 vmulps %xmm1, %xmm14, %xmm14 vfnmadd231ps %xmm16, %xmm1, %xmm14 # xmm14 = -(xmm1 * xmm16) + xmm14 vfmadd231ps %xmm15, %xmm0, %xmm14 # xmm14 = (xmm0 * xmm15) + xmm14 vfnmadd231ps %xmm12, %xmm0, %xmm14 # xmm14 = -(xmm0 * xmm12) + xmm14 vshufps $0xc9, %xmm10, %xmm10, %xmm12 # xmm12 = xmm10[1,2,0,3] vshufps $0xc9, %xmm22, %xmm22, %xmm15 # xmm15 = xmm22[1,2,0,3] vmulps %xmm15, %xmm10, %xmm15 vfmsub231ps %xmm22, %xmm12, %xmm15 # xmm15 = (xmm12 * xmm22) - xmm15 vxorps %xmm22, %xmm22, %xmm22 vshufps $0xc9, %xmm15, %xmm15, %xmm15 # xmm15 = xmm15[1,2,0,3] vshufps $0xc9, %xmm21, %xmm21, %xmm16 # xmm16 = xmm21[1,2,0,3] vmulps %xmm16, %xmm10, %xmm16 vfmsub231ps %xmm21, %xmm12, %xmm16 # xmm16 = (xmm12 * xmm21) - xmm16 vshufps $0xc9, %xmm16, %xmm16, %xmm0 # xmm0 = xmm16[1,2,0,3] vshufps $0xc9, %xmm13, %xmm13, %xmm16 # xmm16 = xmm13[1,2,0,3] vshufps $0xc9, %xmm17, %xmm17, %xmm12 # xmm12 = xmm17[1,2,0,3] vmulps %xmm12, %xmm13, %xmm12 vfmsub231ps %xmm17, %xmm16, %xmm12 # xmm12 = (xmm16 * xmm17) - xmm12 vshufps $0xc9, %xmm12, %xmm12, %xmm12 # xmm12 = xmm12[1,2,0,3] vshufps $0xc9, %xmm14, %xmm14, %xmm17 # xmm17 = xmm14[1,2,0,3] vmulps %xmm17, %xmm13, %xmm17 vfmsub231ps %xmm14, %xmm16, %xmm17 # xmm17 = (xmm16 * xmm14) - xmm17 vshufps $0xc9, %xmm17, %xmm17, %xmm14 # xmm14 = xmm17[1,2,0,3] vdpps $0x7f, %xmm15, %xmm15, %xmm1 vmovss %xmm1, %xmm22, %xmm16 # xmm16 = xmm1[0],xmm22[1,2,3] vrsqrt14ss %xmm16, %xmm22, %xmm17 vmovss 0x54fe4(%rip), %xmm3 # 0x1eec718 vmulss %xmm3, %xmm17, %xmm18 vmovss 0x5543c(%rip), %xmm20 # 0x1eecb80 vmulss %xmm20, %xmm1, %xmm19 vmulss %xmm17, %xmm19, %xmm19 vmulss %xmm17, %xmm17, %xmm17 vmulss %xmm17, %xmm19, %xmm17 vsubss %xmm17, %xmm18, %xmm17 vdpps $0x7f, %xmm0, %xmm15, %xmm2 vbroadcastss %xmm17, %xmm17 vmulps %xmm15, %xmm17, %xmm18 vbroadcastss %xmm1, %xmm19 vmulps %xmm0, %xmm19, %xmm0 vbroadcastss %xmm2, %xmm2 vmulps %xmm2, %xmm15, %xmm2 vsubps %xmm2, %xmm0, %xmm0 vrcp14ss %xmm16, %xmm22, %xmm2 vmovss 0x5985b(%rip), %xmm19 # 0x1ef0ff8 vfnmadd213ss %xmm19, %xmm2, %xmm1 # xmm1 = -(xmm2 * xmm1) + xmm19 vmulss %xmm1, %xmm2, %xmm1 vbroadcastss %xmm1, %xmm1 vmulps %xmm0, %xmm1, %xmm0 vmulps %xmm0, %xmm17, %xmm0 vdpps $0x7f, %xmm12, %xmm12, %xmm1 vmovss %xmm1, %xmm22, %xmm2 # xmm2 = xmm1[0],xmm22[1,2,3] vrsqrt14ss %xmm2, %xmm22, %xmm15 vmulss %xmm3, %xmm15, %xmm16 vmulss %xmm20, %xmm1, %xmm17 vmulss %xmm15, %xmm17, %xmm17 vmulss %xmm15, %xmm15, %xmm15 vmulss %xmm15, %xmm17, %xmm15 vsubss %xmm15, %xmm16, %xmm15 vbroadcastss %xmm15, %xmm15 vdpps $0x7f, %xmm14, %xmm12, %xmm3 vmulps %xmm15, %xmm12, %xmm16 vbroadcastss %xmm1, %xmm17 vmulps %xmm14, %xmm17, %xmm14 vbroadcastss %xmm3, %xmm3 vmulps %xmm3, %xmm12, %xmm3 vsubps %xmm3, %xmm14, %xmm3 vrcp14ss %xmm2, %xmm22, %xmm2 vfnmadd213ss %xmm19, %xmm2, %xmm1 # xmm1 = -(xmm2 * xmm1) + xmm19 vmulss %xmm1, %xmm2, %xmm1 vbroadcastss %xmm1, %xmm1 vmulps %xmm1, %xmm3, %xmm1 vmulps %xmm1, %xmm15, %xmm1 vshufps $0xff, %xmm9, %xmm9, %xmm2 # xmm2 = xmm9[3,3,3,3] vmulps %xmm18, %xmm2, %xmm3 vsubps %xmm3, %xmm9, %xmm14 vshufps $0xff, %xmm10, %xmm10, %xmm12 # xmm12 = xmm10[3,3,3,3] vmulps %xmm18, %xmm12, %xmm12 vmulps %xmm0, %xmm2, %xmm0 vaddps %xmm0, %xmm12, %xmm0 vsubps %xmm0, %xmm10, %xmm2 vaddps %xmm3, %xmm9, %xmm9 vaddps %xmm0, %xmm10, %xmm12 vshufps $0xff, %xmm11, %xmm11, %xmm0 # xmm0 = xmm11[3,3,3,3] vmulps %xmm16, %xmm0, %xmm3 vsubps %xmm3, %xmm11, %xmm15 vshufps $0xff, %xmm13, %xmm13, %xmm10 # xmm10 = xmm13[3,3,3,3] vmulps %xmm16, %xmm10, %xmm10 vmulps %xmm1, %xmm0, %xmm0 vaddps %xmm0, %xmm10, %xmm0 vsubps %xmm0, %xmm13, %xmm1 vaddps %xmm3, %xmm11, %xmm10 vaddps %xmm0, %xmm13, %xmm11 vbroadcastss 0x5a620(%rip), %xmm30 # 0x1ef1ebc vmulps %xmm30, %xmm2, %xmm0 vaddps %xmm0, %xmm14, %xmm0 vmulps %xmm30, %xmm1, %xmm1 vsubps %xmm1, %xmm15, %xmm1 vbroadcastss %xmm14, %ymm2 vbroadcastss 0x7ae45(%rip), %ymm29 # 0x1f12704 vpermps %ymm14, %ymm29, %ymm3 vbroadcastss 0x8960d(%rip), %ymm31 # 0x1f20edc vpermps %ymm14, %ymm31, %ymm14 vbroadcastss %xmm0, %ymm16 vpermps %ymm0, %ymm29, %ymm17 vpermps %ymm0, %ymm31, %ymm0 vbroadcastss %xmm1, %ymm18 vpermps %ymm1, %ymm29, %ymm19 vpermps %ymm1, %ymm31, %ymm1 vbroadcastss %xmm15, %ymm20 vpermps %ymm15, %ymm29, %ymm21 vpermps %ymm15, %ymm31, %ymm15 vmulps %ymm28, %ymm20, %ymm13 vfmadd231ps %ymm18, %ymm26, %ymm13 # ymm13 = (ymm26 * ymm18) + ymm13 vmulps %ymm8, %ymm20, %ymm20 vfmadd231ps %ymm18, %ymm7, %ymm20 # ymm20 = (ymm7 * ymm18) + ymm20 vmulps %ymm28, %ymm21, %ymm18 vfmadd231ps %ymm19, %ymm26, %ymm18 # ymm18 = (ymm26 * ymm19) + ymm18 vmulps %ymm8, %ymm21, %ymm21 vfmadd231ps %ymm19, %ymm7, %ymm21 # ymm21 = (ymm7 * ymm19) + ymm21 vmulps %ymm28, %ymm15, %ymm19 vfmadd231ps %ymm1, %ymm26, %ymm19 # ymm19 = (ymm26 * ymm1) + ymm19 vfmadd231ps %ymm16, %ymm25, %ymm13 # ymm13 = (ymm25 * ymm16) + ymm13 vfmadd231ps %ymm17, %ymm25, %ymm18 # ymm18 = (ymm25 * ymm17) + ymm18 vfmadd231ps %ymm0, %ymm25, %ymm19 # ymm19 = (ymm25 * ymm0) + ymm19 vfmadd231ps %ymm2, %ymm24, %ymm13 # ymm13 = (ymm24 * ymm2) + ymm13 vfmadd231ps %ymm3, %ymm24, %ymm18 # ymm18 = (ymm24 * ymm3) + ymm18 vfmadd231ps %ymm14, %ymm24, %ymm19 # ymm19 = (ymm24 * ymm14) + ymm19 vmulps %ymm8, %ymm15, %ymm15 vfmadd231ps %ymm1, %ymm7, %ymm15 # ymm15 = (ymm7 * ymm1) + ymm15 vfmadd231ps %ymm16, %ymm6, %ymm20 # ymm20 = (ymm6 * ymm16) + ymm20 vfmadd231ps %ymm17, %ymm6, %ymm21 # ymm21 = (ymm6 * ymm17) + ymm21 vfmadd231ps %ymm0, %ymm6, %ymm15 # ymm15 = (ymm6 * ymm0) + ymm15 vfmadd231ps %ymm2, %ymm5, %ymm20 # ymm20 = (ymm5 * ymm2) + ymm20 vfmadd231ps %ymm3, %ymm5, %ymm21 # ymm21 = (ymm5 * ymm3) + ymm21 vfmadd231ps %ymm14, %ymm5, %ymm15 # ymm15 = (ymm5 * ymm14) + ymm15 vbroadcastss 0x89b2f(%rip), %ymm23 # 0x1f214d0 vmulps %ymm23, %ymm20, %ymm0 vmulps %ymm23, %ymm21, %ymm1 vmulps %ymm23, %ymm15, %ymm2 vxorps %xmm4, %xmm4, %xmm4 vblendps $0x1, %ymm4, %ymm0, %ymm3 # ymm3 = ymm4[0],ymm0[1,2,3,4,5,6,7] vblendps $0x1, %ymm4, %ymm1, %ymm14 # ymm14 = ymm4[0],ymm1[1,2,3,4,5,6,7] vblendps $0x1, %ymm4, %ymm2, %ymm15 # ymm15 = ymm4[0],ymm2[1,2,3,4,5,6,7] vsubps %ymm3, %ymm13, %ymm3 vsubps %ymm14, %ymm18, %ymm14 vsubps %ymm15, %ymm19, %ymm15 vblendps $0x80, %ymm4, %ymm0, %ymm0 # ymm0 = ymm0[0,1,2,3,4,5,6],ymm4[7] vblendps $0x80, %ymm4, %ymm1, %ymm1 # ymm1 = ymm1[0,1,2,3,4,5,6],ymm4[7] vblendps $0x80, %ymm4, %ymm2, %ymm2 # ymm2 = ymm2[0,1,2,3,4,5,6],ymm4[7] vaddps %ymm0, %ymm13, %ymm0 vaddps %ymm1, %ymm18, %ymm1 vaddps %ymm2, %ymm19, %ymm2 vbroadcastss 0x5401b(%rip), %ymm27 # 0x1eeba20 vminps %ymm13, %ymm27, %ymm16 vminps %ymm18, %ymm27, %ymm17 vminps %ymm19, %ymm27, %ymm20 vminps %ymm0, %ymm3, %ymm21 vminps %ymm21, %ymm16, %ymm16 vminps %ymm1, %ymm14, %ymm21 vminps %ymm21, %ymm17, %ymm17 vminps %ymm2, %ymm15, %ymm21 vminps %ymm21, %ymm20, %ymm20 vmaxps %ymm0, %ymm3, %ymm0 vmulps %xmm30, %xmm12, %xmm3 vaddps %xmm3, %xmm9, %xmm3 vmulps %xmm30, %xmm11, %xmm11 vsubps %xmm11, %xmm10, %xmm21 vbroadcastss 0x55125(%rip), %ymm30 # 0x1eecb84 vmaxps %ymm13, %ymm30, %ymm11 vmaxps %ymm18, %ymm30, %ymm12 vmaxps %ymm19, %ymm30, %ymm13 vmaxps %ymm0, %ymm11, %ymm0 vmaxps %ymm1, %ymm14, %ymm1 vmaxps %ymm1, %ymm12, %ymm1 vmaxps %ymm2, %ymm15, %ymm2 vmaxps %ymm2, %ymm13, %ymm2 vshufps $0xb1, %ymm16, %ymm16, %ymm11 # ymm11 = ymm16[1,0,3,2,5,4,7,6] vminps %ymm11, %ymm16, %ymm11 vshufpd $0x5, %ymm11, %ymm11, %ymm12 # ymm12 = ymm11[1,0,3,2] vminps %ymm12, %ymm11, %ymm11 vextractf128 $0x1, %ymm11, %xmm12 vminps %xmm12, %xmm11, %xmm11 vshufps $0xb1, %ymm17, %ymm17, %ymm12 # ymm12 = ymm17[1,0,3,2,5,4,7,6] vminps %ymm12, %ymm17, %ymm12 vshufpd $0x5, %ymm12, %ymm12, %ymm13 # ymm13 = ymm12[1,0,3,2] vminps %ymm13, %ymm12, %ymm12 vextractf128 $0x1, %ymm12, %xmm13 vminps %xmm13, %xmm12, %xmm12 vunpcklps %xmm12, %xmm11, %xmm11 # xmm11 = xmm11[0],xmm12[0],xmm11[1],xmm12[1] vshufps $0xb1, %ymm20, %ymm20, %ymm12 # ymm12 = ymm20[1,0,3,2,5,4,7,6] vminps %ymm12, %ymm20, %ymm12 vmovaps 0xf0(%rsp), %xmm20 vshufpd $0x5, %ymm12, %ymm12, %ymm13 # ymm13 = ymm12[1,0,3,2] vminps %ymm13, %ymm12, %ymm12 vextractf128 $0x1, %ymm12, %xmm13 vminps %xmm13, %xmm12, %xmm12 vinsertps $0x28, %xmm12, %xmm11, %xmm12 # xmm12 = xmm11[0,1],xmm12[0],zero vshufps $0xb1, %ymm0, %ymm0, %ymm11 # ymm11 = ymm0[1,0,3,2,5,4,7,6] vmaxps %ymm11, %ymm0, %ymm0 vshufpd $0x5, %ymm0, %ymm0, %ymm11 # ymm11 = ymm0[1,0,3,2] vmaxps %ymm11, %ymm0, %ymm0 vextractf128 $0x1, %ymm0, %xmm11 vmaxps %xmm11, %xmm0, %xmm0 vshufps $0xb1, %ymm1, %ymm1, %ymm11 # ymm11 = ymm1[1,0,3,2,5,4,7,6] vmaxps %ymm11, %ymm1, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm11 # ymm11 = ymm1[1,0,3,2] vmaxps %ymm11, %ymm1, %ymm1 vextractf128 $0x1, %ymm1, %xmm11 vmaxps %xmm11, %xmm1, %xmm1 vunpcklps %xmm1, %xmm0, %xmm0 # xmm0 = xmm0[0],xmm1[0],xmm0[1],xmm1[1] vshufps $0xb1, %ymm2, %ymm2, %ymm1 # ymm1 = ymm2[1,0,3,2,5,4,7,6] vmaxps %ymm1, %ymm2, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vmaxps %ymm2, %ymm1, %ymm1 vextractf128 $0x1, %ymm1, %xmm2 vmaxps %xmm2, %xmm1, %xmm1 vinsertps $0x28, %xmm1, %xmm0, %xmm11 # xmm11 = xmm0[0,1],xmm1[0],zero vbroadcastss %xmm9, %ymm0 vpermps %ymm9, %ymm29, %ymm1 vpermps %ymm9, %ymm31, %ymm2 vbroadcastss %xmm3, %ymm13 vpermps %ymm3, %ymm29, %ymm14 vpermps %ymm3, %ymm31, %ymm3 vbroadcastss %xmm21, %ymm15 vpermps %ymm21, %ymm29, %ymm16 vpermps %ymm21, %ymm31, %ymm17 vbroadcastss %xmm10, %ymm18 vpermps %ymm10, %ymm29, %ymm19 vpermps %ymm10, %ymm31, %ymm10 vmulps %ymm28, %ymm18, %ymm9 vfmadd231ps %ymm15, %ymm26, %ymm9 # ymm9 = (ymm26 * ymm15) + ymm9 vmulps %ymm8, %ymm18, %ymm18 vfmadd231ps %ymm15, %ymm7, %ymm18 # ymm18 = (ymm7 * ymm15) + ymm18 vmulps %ymm28, %ymm19, %ymm15 vfmadd231ps %ymm16, %ymm26, %ymm15 # ymm15 = (ymm26 * ymm16) + ymm15 vmulps %ymm8, %ymm19, %ymm19 vfmadd231ps %ymm16, %ymm7, %ymm19 # ymm19 = (ymm7 * ymm16) + ymm19 vmulps %ymm28, %ymm10, %ymm16 vfmadd231ps %ymm17, %ymm26, %ymm16 # ymm16 = (ymm26 * ymm17) + ymm16 vfmadd231ps %ymm13, %ymm25, %ymm9 # ymm9 = (ymm25 * ymm13) + ymm9 vfmadd231ps %ymm14, %ymm25, %ymm15 # ymm15 = (ymm25 * ymm14) + ymm15 vfmadd231ps %ymm3, %ymm25, %ymm16 # ymm16 = (ymm25 * ymm3) + ymm16 vfmadd231ps %ymm0, %ymm24, %ymm9 # ymm9 = (ymm24 * ymm0) + ymm9 vfmadd231ps %ymm1, %ymm24, %ymm15 # ymm15 = (ymm24 * ymm1) + ymm15 vfmadd231ps %ymm2, %ymm24, %ymm16 # ymm16 = (ymm24 * ymm2) + ymm16 vmulps %ymm8, %ymm10, %ymm10 vfmadd231ps %ymm17, %ymm7, %ymm10 # ymm10 = (ymm7 * ymm17) + ymm10 vfmadd231ps %ymm13, %ymm6, %ymm18 # ymm18 = (ymm6 * ymm13) + ymm18 vfmadd231ps %ymm14, %ymm6, %ymm19 # ymm19 = (ymm6 * ymm14) + ymm19 vfmadd231ps %ymm3, %ymm6, %ymm10 # ymm10 = (ymm6 * ymm3) + ymm10 vfmadd231ps %ymm0, %ymm5, %ymm18 # ymm18 = (ymm5 * ymm0) + ymm18 vfmadd231ps %ymm1, %ymm5, %ymm19 # ymm19 = (ymm5 * ymm1) + ymm19 vfmadd231ps %ymm2, %ymm5, %ymm10 # ymm10 = (ymm5 * ymm2) + ymm10 vmulps %ymm23, %ymm18, %ymm0 vmulps %ymm23, %ymm19, %ymm1 vmulps %ymm23, %ymm10, %ymm2 vblendps $0x1, %ymm4, %ymm0, %ymm3 # ymm3 = ymm4[0],ymm0[1,2,3,4,5,6,7] vblendps $0x1, %ymm4, %ymm1, %ymm10 # ymm10 = ymm4[0],ymm1[1,2,3,4,5,6,7] vblendps $0x1, %ymm4, %ymm2, %ymm13 # ymm13 = ymm4[0],ymm2[1,2,3,4,5,6,7] vsubps %ymm3, %ymm9, %ymm3 vsubps %ymm10, %ymm15, %ymm10 vsubps %ymm13, %ymm16, %ymm13 vblendps $0x80, %ymm4, %ymm0, %ymm0 # ymm0 = ymm0[0,1,2,3,4,5,6],ymm4[7] vblendps $0x80, %ymm4, %ymm1, %ymm1 # ymm1 = ymm1[0,1,2,3,4,5,6],ymm4[7] vblendps $0x80, %ymm4, %ymm2, %ymm2 # ymm2 = ymm2[0,1,2,3,4,5,6],ymm4[7] vxorps %xmm4, %xmm4, %xmm4 vaddps %ymm0, %ymm9, %ymm0 vaddps %ymm1, %ymm15, %ymm1 vaddps %ymm2, %ymm16, %ymm2 vminps %ymm9, %ymm27, %ymm14 vminps %ymm15, %ymm27, %ymm17 vminps %ymm16, %ymm27, %ymm18 vminps %ymm0, %ymm3, %ymm19 vminps %ymm19, %ymm14, %ymm14 vminps %ymm1, %ymm10, %ymm19 vminps %ymm19, %ymm17, %ymm17 vminps %ymm2, %ymm13, %ymm19 vminps %ymm19, %ymm18, %ymm18 vmovaps 0x100(%rsp), %xmm19 vmaxps %ymm0, %ymm3, %ymm0 vmaxps %ymm9, %ymm30, %ymm3 vmaxps %ymm0, %ymm3, %ymm0 vmaxps %ymm1, %ymm10, %ymm1 vmaxps %ymm15, %ymm30, %ymm3 vmaxps %ymm1, %ymm3, %ymm1 vmaxps %ymm2, %ymm13, %ymm2 vmaxps %ymm16, %ymm30, %ymm3 vmaxps %ymm2, %ymm3, %ymm2 vshufps $0xb1, %ymm14, %ymm14, %ymm3 # ymm3 = ymm14[1,0,3,2,5,4,7,6] vminps %ymm3, %ymm14, %ymm3 vshufpd $0x5, %ymm3, %ymm3, %ymm9 # ymm9 = ymm3[1,0,3,2] vminps %ymm9, %ymm3, %ymm3 vextractf128 $0x1, %ymm3, %xmm9 vminps %xmm9, %xmm3, %xmm3 vshufps $0xb1, %ymm17, %ymm17, %ymm9 # ymm9 = ymm17[1,0,3,2,5,4,7,6] vminps %ymm9, %ymm17, %ymm9 vbroadcastss 0x896cf(%rip), %xmm17 # 0x1f213fc vshufpd $0x5, %ymm9, %ymm9, %ymm10 # ymm10 = ymm9[1,0,3,2] vminps %ymm10, %ymm9, %ymm9 vextractf128 $0x1, %ymm9, %xmm10 vminps %xmm10, %xmm9, %xmm9 vunpcklps %xmm9, %xmm3, %xmm3 # xmm3 = xmm3[0],xmm9[0],xmm3[1],xmm9[1] vshufps $0xb1, %ymm18, %ymm18, %ymm9 # ymm9 = ymm18[1,0,3,2,5,4,7,6] vminps %ymm9, %ymm18, %ymm9 vbroadcastss 0x59281(%rip), %xmm18 # 0x1ef0fe0 vshufpd $0x5, %ymm9, %ymm9, %ymm10 # ymm10 = ymm9[1,0,3,2] vminps %ymm10, %ymm9, %ymm9 vextractf128 $0x1, %ymm9, %xmm10 vminps %xmm10, %xmm9, %xmm9 vinsertps $0x28, %xmm9, %xmm3, %xmm3 # xmm3 = xmm3[0,1],xmm9[0],zero vminps %xmm3, %xmm12, %xmm3 vshufps $0xb1, %ymm0, %ymm0, %ymm9 # ymm9 = ymm0[1,0,3,2,5,4,7,6] vmaxps %ymm9, %ymm0, %ymm0 vshufpd $0x5, %ymm0, %ymm0, %ymm9 # ymm9 = ymm0[1,0,3,2] vmaxps %ymm9, %ymm0, %ymm0 vextractf128 $0x1, %ymm0, %xmm9 vmaxps %xmm9, %xmm0, %xmm0 vshufps $0xb1, %ymm1, %ymm1, %ymm9 # ymm9 = ymm1[1,0,3,2,5,4,7,6] vmaxps %ymm9, %ymm1, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm9 # ymm9 = ymm1[1,0,3,2] vmaxps %ymm9, %ymm1, %ymm1 vextractf128 $0x1, %ymm1, %xmm9 vmaxps %xmm9, %xmm1, %xmm1 vunpcklps %xmm1, %xmm0, %xmm0 # xmm0 = xmm0[0],xmm1[0],xmm0[1],xmm1[1] vshufps $0xb1, %ymm2, %ymm2, %ymm1 # ymm1 = ymm2[1,0,3,2,5,4,7,6] vmaxps %ymm1, %ymm2, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vmaxps %ymm2, %ymm1, %ymm1 vextractf128 $0x1, %ymm1, %xmm2 vmaxps %xmm2, %xmm1, %xmm1 vinsertps $0x28, %xmm1, %xmm0, %xmm0 # xmm0 = xmm0[0,1],xmm1[0],zero vmaxps %xmm0, %xmm11, %xmm0 vcmpltps %xmm18, %xmm0, %k1 vcmpnleps %xmm17, %xmm3, %k0 {%k1} vmovss 0xc(%rsp), %xmm3 knotw %k0, %k0 kmovd %k0, %ebx testb $0x7, %bl jne 0x1e97e59 incq %rdi cmpq %r9, %rdi seta %al ja 0x1e97e61 movq 0x38(%r13,%r8), %r15 movq 0x48(%r13,%r8), %rbx movq %rbx, %rbp imulq %rcx, %rbp vmovaps (%r15,%rbp), %xmm9 addq $0x38, %r8 imulq %rdx, %rbx addq %r15, %rbx vcmpnleps %xmm17, %xmm9, %k1 vcmpltps %xmm18, %xmm9, %k0 {%k1} kmovd %k0, %ebp cmpb $0xf, %bpl movq %r12, %rbp je 0x1e97444 jmp 0x1e97e59 movq %r12, %rbp testb $0x1, %al je 0x1e981dc movq %r14, 0xe8(%rsp) leaq 0xe8(%rsp), %rax movq %rax, 0x110(%rsp) movq 0x10(%rsp), %rax movq %rax, 0x118(%rsp) vmovss 0x2c(%rax), %xmm0 vmovss 0x30(%rax), %xmm1 vsubss %xmm0, %xmm19, %xmm2 vsubss %xmm0, %xmm1, %xmm1 vdivss %xmm1, %xmm2, %xmm2 vsubss %xmm0, %xmm20, %xmm0 vdivss %xmm1, %xmm0, %xmm0 vmovss %xmm2, 0x8(%rsp) vmulss %xmm2, %xmm3, %xmm2 vmovss %xmm2, 0x30(%rsp) vmovss %xmm0, 0xb0(%rsp) vmulss %xmm0, %xmm3, %xmm1 vroundss $0x9, %xmm2, %xmm2, %xmm0 vmovss %xmm1, 0x20(%rsp) vroundss $0xa, %xmm1, %xmm1, %xmm1 vmaxss %xmm4, %xmm0, %xmm4 vmovss %xmm4, 0xc0(%rsp) vminss %xmm3, %xmm1, %xmm2 movq %rbp, %r12 vcvttss2si %xmm4, %ebp vmovss %xmm2, 0x60(%rsp) vcvttss2si %xmm2, %r13d vcvttss2si %xmm0, %ebx testl %ebx, %ebx movl $0xffffffff, %eax # imm = 0xFFFFFFFF cmovsl %eax, %ebx vcvttss2si %xmm1, %eax vcvttss2si %xmm3, %r15d incl %r15d cmpl %r15d, %eax cmovll %eax, %r15d movslq %ebp, %rdx leaq 0x140(%rsp), %rdi movq %r12, %rsi vzeroupper callq 0x1e9c76c movslq %r13d, %rdx leaq 0x120(%rsp), %rdi movq %r12, %rsi callq 0x1e9c76c movl %r15d, %eax subl %ebx, %eax vmovss 0x30(%rsp), %xmm0 vsubss 0xc0(%rsp), %xmm0, %xmm0 cmpl $0x1, %eax jne 0x1e97ff8 vxorps %xmm9, %xmm9, %xmm9 vmaxss %xmm9, %xmm0, %xmm0 vmovss 0x547a3(%rip), %xmm6 # 0x1eec714 vsubss %xmm0, %xmm6, %xmm1 vbroadcastss %xmm0, %xmm0 vmovaps 0x120(%rsp), %xmm2 vmovaps 0x130(%rsp), %xmm3 vmulps %xmm2, %xmm0, %xmm7 vbroadcastss %xmm1, %xmm1 vmovaps 0x140(%rsp), %xmm4 vmovaps 0x150(%rsp), %xmm5 vfmadd231ps %xmm4, %xmm1, %xmm7 # xmm7 = (xmm1 * xmm4) + xmm7 vmulps %xmm3, %xmm0, %xmm8 vfmadd231ps %xmm1, %xmm5, %xmm8 # xmm8 = (xmm5 * xmm1) + xmm8 vmovss 0x60(%rsp), %xmm0 vsubss 0x20(%rsp), %xmm0, %xmm0 vmaxss %xmm9, %xmm0, %xmm0 vsubss %xmm0, %xmm6, %xmm1 vbroadcastss %xmm0, %xmm0 vmulps %xmm4, %xmm0, %xmm6 vbroadcastss %xmm1, %xmm1 vfmadd231ps %xmm2, %xmm1, %xmm6 # xmm6 = (xmm1 * xmm2) + xmm6 vmulps %xmm5, %xmm0, %xmm5 vfmadd231ps %xmm3, %xmm1, %xmm5 # xmm5 = (xmm1 * xmm3) + xmm5 vxorps %xmm4, %xmm4, %xmm4 movq %r12, %rbp vxorps %xmm22, %xmm22, %xmm22 jmp 0x1e98209 incl %ebp movslq %ebp, %rdx leaq 0x1b0(%rsp), %rdi movq %r12, %rsi vmovss %xmm0, 0x30(%rsp) callq 0x1e9c76c decl %r13d movslq %r13d, %rdx leaq 0x190(%rsp), %rdi movq %r12, %rsi callq 0x1e9c76c vxorps %xmm3, %xmm3, %xmm3 vmovss 0x30(%rsp), %xmm0 vmaxss %xmm3, %xmm0, %xmm0 vbroadcastss %xmm0, %xmm1 vmulps 0x1b0(%rsp), %xmm1, %xmm7 vmovss 0x546c7(%rip), %xmm2 # 0x1eec714 vsubss %xmm0, %xmm2, %xmm0 vbroadcastss %xmm0, %xmm0 vfmadd231ps 0x140(%rsp), %xmm0, %xmm7 # xmm7 = (xmm0 * mem) + xmm7 vmulps 0x1c0(%rsp), %xmm1, %xmm8 vfmadd231ps 0x150(%rsp), %xmm0, %xmm8 # xmm8 = (xmm0 * mem) + xmm8 vmovss 0x60(%rsp), %xmm0 vsubss 0x20(%rsp), %xmm0, %xmm0 vmaxss %xmm3, %xmm0, %xmm0 vsubss %xmm0, %xmm2, %xmm1 vbroadcastss %xmm0, %xmm0 vmulps 0x190(%rsp), %xmm0, %xmm6 vbroadcastss %xmm1, %xmm1 vfmadd231ps 0x120(%rsp), %xmm1, %xmm6 # xmm6 = (xmm1 * mem) + xmm6 vmulps 0x1a0(%rsp), %xmm0, %xmm5 vfmadd231ps 0x130(%rsp), %xmm1, %xmm5 # xmm5 = (xmm1 * mem) + xmm5 leal 0x1(%rbx), %eax cmpl %r15d, %eax movq %r12, %rbp jge 0x1e981ff vmovss 0x8(%rsp), %xmm1 vmovss 0xb0(%rsp), %xmm0 vsubss %xmm1, %xmm0, %xmm0 vmovss %xmm0, 0x1c(%rsp) movl %eax, %r13d notl %ebx addl %r15d, %ebx leaq 0x170(%rsp), %r15 vmovaps %xmm5, 0xc0(%rsp) vmovaps %xmm6, 0x30(%rsp) vmovaps %xmm8, 0x60(%rsp) vmovaps %xmm7, 0x20(%rsp) vcvtsi2ss %r13d, %xmm17, %xmm0 vdivss 0xc(%rsp), %xmm0, %xmm0 vsubss %xmm1, %xmm0, %xmm0 vdivss 0x1c(%rsp), %xmm0, %xmm0 vsubss %xmm0, %xmm2, %xmm1 vbroadcastss %xmm0, %xmm0 vmulps %xmm0, %xmm6, %xmm2 vbroadcastss %xmm1, %xmm1 vfmadd231ps %xmm7, %xmm1, %xmm2 # xmm2 = (xmm1 * xmm7) + xmm2 vmovaps %xmm2, 0xb0(%rsp) vmulps %xmm0, %xmm5, %xmm0 vfmadd231ps %xmm1, %xmm8, %xmm0 # xmm0 = (xmm8 * xmm1) + xmm0 vmovaps %xmm0, 0x160(%rsp) movq %r15, %rdi movq %rbp, %rsi movq %r13, %rdx callq 0x1e9c76c vmovaps 0xc0(%rsp), %xmm5 vmovaps 0x30(%rsp), %xmm6 vmovaps 0x60(%rsp), %xmm8 vmovaps 0x20(%rsp), %xmm7 vxorps %xmm22, %xmm22, %xmm22 vmovss 0x5458b(%rip), %xmm2 # 0x1eec714 vmovaps 0x170(%rsp), %xmm0 vsubps 0xb0(%rsp), %xmm0, %xmm0 vmovaps 0x180(%rsp), %xmm1 vsubps 0x160(%rsp), %xmm1, %xmm1 vminps %xmm22, %xmm0, %xmm0 vmaxps %xmm22, %xmm1, %xmm1 vaddps %xmm0, %xmm7, %xmm7 vaddps %xmm0, %xmm6, %xmm6 vaddps %xmm1, %xmm8, %xmm8 vaddps %xmm1, %xmm5, %xmm5 vmovss 0x8(%rsp), %xmm1 incq %r13 decl %ebx jne 0x1e980ef jmp 0x1e98205 movq 0x58(%rsp), %r8 movq 0x10(%rsp), %rsi vmovss 0x58750(%rip), %xmm29 # 0x1ef0940 vmovss 0x5874a(%rip), %xmm31 # 0x1ef0944 jmp 0x1e9831b vxorps %xmm22, %xmm22, %xmm22 vxorps %xmm4, %xmm4, %xmm4 vcmpleps %xmm8, %xmm7, %k0 knotw %k0, %k0 kmovd %k0, %eax testb $0x7, %al movq 0x58(%rsp), %r8 vmovaps 0x100(%rsp), %xmm19 vmovaps 0xf0(%rsp), %xmm20 vmovss 0x58707(%rip), %xmm29 # 0x1ef0940 vmovss 0x58701(%rip), %xmm31 # 0x1ef0944 movq 0x10(%rsp), %rsi vbroadcastss 0x891aa(%rip), %xmm17 # 0x1f213fc vbroadcastss 0x58d84(%rip), %xmm18 # 0x1ef0fe0 jne 0x1e9831b vcmpleps %xmm5, %xmm6, %k0 knotw %k0, %k0 kmovd %k0, %eax testb $0x7, %al jne 0x1e9831b vminps %xmm6, %xmm7, %xmm0 vmovss 0x210(%rsp), %xmm1 vinsertps $0x30, %xmm1, %xmm0, %xmm0 # xmm0 = xmm0[0,1,2],xmm1[0] vmaxps %xmm5, %xmm8, %xmm1 vmovd %r14d, %xmm2 vinsertps $0x30, %xmm2, %xmm1, %xmm1 # xmm1 = xmm1[0,1,2],xmm2[0] vaddps %xmm1, %xmm0, %xmm2 vmovaps 0xa0(%rsp), %xmm3 vminps %xmm0, %xmm3, %xmm3 vmovaps %xmm3, 0xa0(%rsp) vmovaps 0x90(%rsp), %xmm3 vmaxps %xmm1, %xmm3, %xmm3 vmovaps %xmm3, 0x90(%rsp) vmovaps 0x80(%rsp), %xmm3 vminps %xmm2, %xmm3, %xmm3 vmovaps %xmm3, 0x80(%rsp) vmovaps 0x70(%rsp), %xmm3 vmaxps %xmm2, %xmm3, %xmm3 vmovaps %xmm3, 0x70(%rsp) incq 0x48(%rsp) movq 0x50(%rsp), %rdx leaq 0x1(%rdx), %rax shlq $0x5, %rdx movq 0xe0(%rsp), %rcx vmovaps %xmm0, (%rcx,%rdx) vmovaps %xmm1, 0x10(%rcx,%rdx) movq %rax, 0x50(%rsp) incq %r14 cmpq 0x8(%r8), %r14 jb 0x1e972f8 movq 0xd8(%rsp), %rax vmovaps 0xa0(%rsp), %xmm0 vmovaps %xmm0, (%rax) vmovaps 0x90(%rsp), %xmm0 vmovaps %xmm0, 0x10(%rax) vmovaps 0x80(%rsp), %xmm0 vmovaps %xmm0, 0x20(%rax) vmovaps 0x70(%rsp), %xmm0 vmovaps %xmm0, 0x30(%rax) movq 0x48(%rsp), %rcx movq %rcx, 0x48(%rax) addq $0x1d8, %rsp # imm = 0x1D8 popq %rbx popq %r12 popq %r13 popq %r14 popq %r15 popq %rbp vzeroupper retq
/embree[P]embree/kernels/common/scene_curves.cpp
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)2, embree::avx512::HermiteCurveGeometryInterface, embree::HermiteCurveT>::computeAlignedSpace(unsigned long) const
LinearSpace3fa computeAlignedSpace(const size_t primID) const { Vec3fa axisz(0,0,1); Vec3fa axisy(0,1,0); const Curve3ff curve = getCurveScaledRadius(primID); const Vec3fa p0 = curve.begin(); const Vec3fa p3 = curve.end(); const Vec3fa d0 = curve.eval_du(0.0f); //const Vec3fa d1 = curve.eval_du(1.0f); const Vec3fa axisz_ = normalize(p3 - p0); const Vec3fa axisy_ = cross(axisz_,d0); if (sqr_length(p3-p0) > 1E-18f) { axisz = axisz_; axisy = axisy_; } if (sqr_length(axisy) > 1E-18) { axisy = normalize(axisy); Vec3fa axisx = normalize(cross(axisy,axisz)); return LinearSpace3fa(axisx,axisy,axisz); } return frame(axisz); }
movq %rdi, %rax imulq 0x68(%rsi), %rdx movq 0x58(%rsi), %rcx movq 0x188(%rsi), %rdi movl (%rcx,%rdx), %ecx movq (%rdi), %r8 movq 0x10(%rdi), %r9 movq %r9, %r10 imulq %rcx, %r10 vmovaps (%r8,%r10), %xmm0 leal 0x1(%rcx), %r11d imulq %r11, %r9 vmovaps (%r8,%r9), %xmm2 movq 0x1c8(%rsi), %rdi movq 0x10(%rdi), %rdx imulq %rdx, %rcx imulq %r11, %rdx vmovss 0x24c(%rsi), %xmm4 vmulss 0xc(%r8,%r10), %xmm4, %xmm1 vinsertps $0x30, %xmm1, %xmm0, %xmm1 # xmm1 = xmm0[0,1,2],xmm1[0] vmulss 0xc(%r8,%r9), %xmm4, %xmm0 vinsertps $0x30, %xmm0, %xmm2, %xmm3 # xmm3 = xmm2[0,1,2],xmm0[0] vxorps %xmm2, %xmm2, %xmm2 vsubps %xmm1, %xmm3, %xmm0 vdpps $0x7f, %xmm0, %xmm0, %xmm5 vmovss %xmm5, %xmm2, %xmm6 # xmm6 = xmm5[0],xmm2[1,2,3] vrsqrt14ss %xmm6, %xmm2, %xmm6 vmulss 0x52f59(%rip), %xmm6, %xmm7 # 0x1eec718 vmulss 0x52f55(%rip), %xmm5, %xmm8 # 0x1eec71c vmulss %xmm6, %xmm8, %xmm8 vmulss %xmm6, %xmm6, %xmm6 vmulss %xmm6, %xmm8, %xmm6 vaddss %xmm6, %xmm7, %xmm6 vbroadcastss %xmm6, %xmm6 vmulps %xmm6, %xmm0, %xmm0 vucomiss 0x57800(%rip), %xmm5 # 0x1ef0fe8 ja 0x1e997f6 vmovsd 0x52efe(%rip), %xmm1 # 0x1eec6f0 jbe 0x1e99864 jmp 0x1e9986c movq (%rdi), %rsi vmovaps (%rsi,%rcx), %xmm5 vmovaps (%rsi,%rdx), %xmm6 vmulss 0xc(%rsi,%rcx), %xmm4, %xmm7 vinsertps $0x30, %xmm7, %xmm5, %xmm5 # xmm5 = xmm5[0,1,2],xmm7[0] vmulss 0xc(%rsi,%rdx), %xmm4, %xmm4 vinsertps $0x30, %xmm4, %xmm6, %xmm4 # xmm4 = xmm6[0,1,2],xmm4[0] vbroadcastss 0xc3c48(%rip), %xmm6 # 0x1f5d46c vfnmadd213ps %xmm1, %xmm6, %xmm5 # xmm5 = -(xmm6 * xmm5) + xmm1 vfmadd213ps %xmm3, %xmm6, %xmm4 # xmm4 = (xmm6 * xmm4) + xmm3 vmulps %xmm2, %xmm3, %xmm3 vfmadd231ps %xmm4, %xmm2, %xmm3 # xmm3 = (xmm2 * xmm4) + xmm3 vbroadcastss 0x577b0(%rip), %xmm2 # 0x1ef0ff0 vfnmadd231ps %xmm5, %xmm2, %xmm3 # xmm3 = -(xmm2 * xmm5) + xmm3 vfmadd231ps %xmm2, %xmm1, %xmm3 # xmm3 = (xmm1 * xmm2) + xmm3 vshufps $0xc9, %xmm3, %xmm3, %xmm1 # xmm1 = xmm3[1,2,0,3] vshufps $0xc9, %xmm0, %xmm0, %xmm2 # xmm2 = xmm0[1,2,0,3] vmulps %xmm2, %xmm3, %xmm2 vfmsub231ps %xmm1, %xmm0, %xmm2 # xmm2 = (xmm0 * xmm1) - xmm2 vshufps $0xc9, %xmm2, %xmm2, %xmm1 # xmm1 = xmm2[1,2,0,3] ja 0x1e9986c vmovaps 0x52e94(%rip), %xmm0 # 0x1eec700 vdpps $0x7f, %xmm1, %xmm1, %xmm2 vcvtss2sd %xmm2, %xmm2, %xmm3 vucomisd 0x57792(%rip), %xmm3 # 0x1ef1010 jbe 0x1e99911 vxorps %xmm3, %xmm3, %xmm3 vmovss %xmm2, %xmm3, %xmm4 # xmm4 = xmm2[0],xmm3[1,2,3] vrsqrt14ss %xmm4, %xmm3, %xmm4 vmovss 0x52e7e(%rip), %xmm5 # 0x1eec718 vmulss %xmm5, %xmm4, %xmm6 vmovss 0x532da(%rip), %xmm7 # 0x1eecb80 vmulss %xmm7, %xmm2, %xmm2 vmulss %xmm4, %xmm2, %xmm2 vmulss %xmm4, %xmm4, %xmm4 vmulss %xmm4, %xmm2, %xmm2 vsubss %xmm2, %xmm6, %xmm2 vbroadcastss %xmm2, %xmm2 vmulps %xmm2, %xmm1, %xmm1 vshufps $0xc9, %xmm0, %xmm0, %xmm2 # xmm2 = xmm0[1,2,0,3] vshufps $0xc9, %xmm1, %xmm1, %xmm4 # xmm4 = xmm1[1,2,0,3] vmulps %xmm4, %xmm0, %xmm4 vfmsub231ps %xmm2, %xmm1, %xmm4 # xmm4 = (xmm1 * xmm2) - xmm4 vshufps $0xc9, %xmm4, %xmm4, %xmm2 # xmm2 = xmm4[1,2,0,3] vdpps $0x7f, %xmm2, %xmm2, %xmm4 vmovss %xmm4, %xmm3, %xmm6 # xmm6 = xmm4[0],xmm3[1,2,3] vrsqrt14ss %xmm6, %xmm3, %xmm3 vmulss %xmm5, %xmm3, %xmm5 vmulss %xmm7, %xmm4, %xmm4 vmulss %xmm3, %xmm4, %xmm4 vmulss %xmm3, %xmm3, %xmm3 vmulss %xmm3, %xmm4, %xmm3 vsubss %xmm3, %xmm5, %xmm3 vbroadcastss %xmm3, %xmm3 vmulps %xmm2, %xmm3, %xmm2 jmp 0x1e99a00 vshufpd $0x1, %xmm0, %xmm0, %xmm1 # xmm1 = xmm0[1,0] vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3] vbroadcastss 0x8759d(%rip), %xmm3 # 0x1f20ec0 vxorps %xmm3, %xmm2, %xmm2 vxorps %xmm4, %xmm4, %xmm4 vunpckhps %xmm4, %xmm0, %xmm5 # xmm5 = xmm0[2],xmm4[2],xmm0[3],xmm4[3] vmovss %xmm2, %xmm4, %xmm2 # xmm2 = xmm2[0],xmm4[1,2,3] vshufps $0x41, %xmm2, %xmm5, %xmm2 # xmm2 = xmm5[1,0],xmm2[0,1] vdpps $0x7f, %xmm2, %xmm2, %xmm5 vxorpd %xmm3, %xmm1, %xmm1 vinsertps $0x2a, %xmm0, %xmm1, %xmm1 # xmm1 = xmm1[0],zero,xmm0[0],zero vdpps $0x7f, %xmm1, %xmm1, %xmm3 vcmpltps %xmm5, %xmm3, %k0 vpmovm2d %k0, %xmm3 vpbroadcastd %xmm3, %xmm3 vpmovd2m %xmm3, %k1 vpcmpeqd %xmm3, %xmm3, %xmm3 vmovaps %xmm3, %xmm3 {%k1} {z} vblendvps %xmm3, %xmm2, %xmm1, %xmm1 vdpps $0x7f, %xmm1, %xmm1, %xmm2 vmovss %xmm2, %xmm4, %xmm3 # xmm3 = xmm2[0],xmm4[1,2,3] vrsqrt14ss %xmm3, %xmm4, %xmm3 vmovss 0x52d8a(%rip), %xmm5 # 0x1eec718 vmulss %xmm5, %xmm3, %xmm6 vmovss 0x531e6(%rip), %xmm7 # 0x1eecb80 vmulss %xmm7, %xmm2, %xmm2 vmulss %xmm3, %xmm2, %xmm2 vmulss %xmm3, %xmm3, %xmm3 vmulss %xmm3, %xmm2, %xmm2 vsubss %xmm2, %xmm6, %xmm2 vbroadcastss %xmm2, %xmm2 vmulps %xmm2, %xmm1, %xmm2 vshufps $0xc9, %xmm2, %xmm2, %xmm1 # xmm1 = xmm2[1,2,0,3] vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3] vmulps %xmm3, %xmm2, %xmm3 vfmsub231ps %xmm1, %xmm0, %xmm3 # xmm3 = (xmm0 * xmm1) - xmm3 vshufps $0xc9, %xmm3, %xmm3, %xmm1 # xmm1 = xmm3[1,2,0,3] vdpps $0x7f, %xmm1, %xmm1, %xmm3 vmovss %xmm3, %xmm4, %xmm6 # xmm6 = xmm3[0],xmm4[1,2,3] vrsqrt14ss %xmm6, %xmm4, %xmm4 vmulss %xmm5, %xmm4, %xmm5 vmulss %xmm7, %xmm3, %xmm3 vmulss %xmm4, %xmm3, %xmm3 vmulss %xmm4, %xmm4, %xmm4 vmulss %xmm4, %xmm3, %xmm3 vsubss %xmm3, %xmm5, %xmm3 vbroadcastss %xmm3, %xmm3 vmulps %xmm1, %xmm3, %xmm1 vmovaps %xmm2, (%rax) vmovaps %xmm1, 0x10(%rax) vmovaps %xmm0, 0x20(%rax) retq nop
/embree[P]embree/kernels/common/scene_curves.cpp
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)2, embree::avx512::HermiteCurveGeometryInterface, embree::HermiteCurveT>::computeAlignedSpaceMB(unsigned long, embree::BBox<float>) const
LinearSpace3fa computeAlignedSpaceMB(const size_t primID, const BBox1f time_range) const { Vec3fa axisz(0,0,1); Vec3fa axisy(0,1,0); const range<int> tbounds = this->timeSegmentRange(time_range); if (tbounds.size() == 0) return frame(axisz); const size_t t = (tbounds.begin()+tbounds.end())/2; const Curve3ff curve = getCurveScaledRadius(primID,t); const Vec3fa p0 = curve.begin(); const Vec3fa p3 = curve.end(); const Vec3fa d0 = curve.eval_du(0.0f); //const Vec3fa d1 = curve.eval_du(1.0f); const Vec3fa axisz_ = normalize(p3 - p0); const Vec3fa axisy_ = cross(axisz_,d0); if (sqr_length(p3-p0) > 1E-18f) { axisz = axisz_; axisy = axisy_; } if (sqr_length(axisy) > 1E-18) { axisy = normalize(axisy); Vec3fa axisx = normalize(cross(axisy,axisz)); return LinearSpace3fa(axisx,axisy,axisz); } return frame(axisz); }
pushq %rbx movq %rdi, %rax vmovsd 0x2c(%rsi), %xmm1 vmovss 0x28(%rsi), %xmm2 vsubss %xmm1, %xmm0, %xmm3 vmovshdup %xmm1, %xmm4 # xmm4 = xmm1[1,1,3,3] vsubss %xmm1, %xmm4, %xmm4 vdivss %xmm4, %xmm3, %xmm3 vmovshdup %xmm0, %xmm0 # xmm0 = xmm0[1,1,3,3] vsubss %xmm1, %xmm0, %xmm0 vdivss %xmm4, %xmm0, %xmm0 vmulss 0x56efe(%rip), %xmm3, %xmm1 # 0x1ef0940 vmulss %xmm1, %xmm2, %xmm1 vroundss $0x9, %xmm1, %xmm1, %xmm1 vxorps %xmm3, %xmm3, %xmm3 vmaxss %xmm1, %xmm3, %xmm1 vcvttss2si %xmm1, %ecx vmulss 0x56ee4(%rip), %xmm0, %xmm0 # 0x1ef0944 vmulss %xmm0, %xmm2, %xmm0 vroundss $0xa, %xmm0, %xmm0, %xmm0 vminss %xmm2, %xmm0, %xmm0 vcvttss2si %xmm0, %edi cmpl %ecx, %edi jne 0x1e99b58 vmovaps 0x87a5e(%rip), %xmm0 # 0x1f214e0 vdpps $0x7f, %xmm0, %xmm0, %xmm1 vmovss 0x56f3c(%rip), %xmm2 # 0x1ef09cc vdpps $0x7f, %xmm2, %xmm2, %xmm3 vcmpltps %xmm1, %xmm3, %k0 vpmovm2d %k0, %xmm1 vpbroadcastd %xmm1, %xmm1 vpmovd2m %xmm1, %k1 vpcmpeqd %xmm1, %xmm1, %xmm1 vmovaps %xmm1, %xmm1 {%k1} {z} vblendvps %xmm1, %xmm0, %xmm2, %xmm0 vxorps %xmm2, %xmm2, %xmm2 vdpps $0x7f, %xmm0, %xmm0, %xmm1 vmovss %xmm1, %xmm2, %xmm3 # xmm3 = xmm1[0],xmm2[1,2,3] vrsqrt14ss %xmm3, %xmm2, %xmm3 vmovss 0x52c3e(%rip), %xmm4 # 0x1eec718 vmulss %xmm4, %xmm3, %xmm5 vmovss 0x5309a(%rip), %xmm6 # 0x1eecb80 vmulss %xmm6, %xmm1, %xmm1 vmulss %xmm3, %xmm1, %xmm1 vmulss %xmm3, %xmm3, %xmm3 vmulss %xmm3, %xmm1, %xmm1 vsubss %xmm1, %xmm5, %xmm1 vbroadcastss %xmm1, %xmm1 vmulps %xmm1, %xmm0, %xmm1 vshufps $0xc9, %xmm1, %xmm1, %xmm3 # xmm3 = xmm1[1,2,0,3] vmulps 0x57460(%rip), %xmm1, %xmm5 # 0x1ef0f70 vmovaps 0x52be8(%rip), %xmm0 # 0x1eec700 vfmadd231ps %xmm3, %xmm0, %xmm5 # xmm5 = (xmm0 * xmm3) + xmm5 vshufps $0xc9, %xmm5, %xmm5, %xmm3 # xmm3 = xmm5[1,2,0,3] vdpps $0x7f, %xmm3, %xmm3, %xmm5 vmovss %xmm5, %xmm2, %xmm7 # xmm7 = xmm5[0],xmm2[1,2,3] vrsqrt14ss %xmm7, %xmm2, %xmm2 vmulss %xmm4, %xmm2, %xmm4 vmulss %xmm6, %xmm5, %xmm5 vmulss %xmm2, %xmm5, %xmm5 vmulss %xmm2, %xmm2, %xmm2 vmulss %xmm2, %xmm5, %xmm2 vsubss %xmm2, %xmm4, %xmm2 vbroadcastss %xmm2, %xmm2 vmulps %xmm3, %xmm2, %xmm2 jmp 0x1e99e38 addl %edi, %ecx movl %ecx, %edi shrl $0x1f, %edi addl %ecx, %edi sarl %edi movslq %edi, %rdi imulq 0x68(%rsi), %rdx movq 0x58(%rsi), %rcx movq 0x188(%rsi), %r8 movl (%rcx,%rdx), %ecx imulq $0x38, %rdi, %rdx movq (%r8,%rdx), %r9 movq 0x10(%r8,%rdx), %r10 movq %r10, %r11 imulq %rcx, %r11 vmovaps (%r9,%r11), %xmm0 leal 0x1(%rcx), %ebx imulq %rbx, %r10 vmovaps (%r9,%r10), %xmm2 movq 0x1c8(%rsi), %r8 movq 0x10(%r8,%rdx), %rdi imulq %rdi, %rcx imulq %rbx, %rdi vmovss 0x24c(%rsi), %xmm4 vmulss 0xc(%r9,%r11), %xmm4, %xmm1 vinsertps $0x30, %xmm1, %xmm0, %xmm1 # xmm1 = xmm0[0,1,2],xmm1[0] vmulss 0xc(%r9,%r10), %xmm4, %xmm0 vinsertps $0x30, %xmm0, %xmm2, %xmm3 # xmm3 = xmm2[0,1,2],xmm0[0] vxorps %xmm2, %xmm2, %xmm2 vsubps %xmm1, %xmm3, %xmm0 vdpps $0x7f, %xmm0, %xmm0, %xmm5 vmovss %xmm5, %xmm2, %xmm6 # xmm6 = xmm5[0],xmm2[1,2,3] vrsqrt14ss %xmm6, %xmm2, %xmm6 vmulss 0x52b22(%rip), %xmm6, %xmm7 # 0x1eec718 vmulss 0x52b1e(%rip), %xmm5, %xmm8 # 0x1eec71c vmulss %xmm6, %xmm8, %xmm8 vmulss %xmm6, %xmm6, %xmm6 vmulss %xmm6, %xmm8, %xmm6 vaddss %xmm6, %xmm7, %xmm6 vbroadcastss %xmm6, %xmm6 vmulps %xmm6, %xmm0, %xmm0 vucomiss 0x573c9(%rip), %xmm5 # 0x1ef0fe8 ja 0x1e99c2d vmovsd 0x52ac7(%rip), %xmm1 # 0x1eec6f0 jbe 0x1e99c9c jmp 0x1e99ca4 movq (%r8,%rdx), %rdx vmovaps (%rdx,%rcx), %xmm5 vmovaps (%rdx,%rdi), %xmm6 vmulss 0xc(%rdx,%rcx), %xmm4, %xmm7 vinsertps $0x30, %xmm7, %xmm5, %xmm5 # xmm5 = xmm5[0,1,2],xmm7[0] vmulss 0xc(%rdx,%rdi), %xmm4, %xmm4 vinsertps $0x30, %xmm4, %xmm6, %xmm4 # xmm4 = xmm6[0,1,2],xmm4[0] vbroadcastss 0xc3810(%rip), %xmm6 # 0x1f5d46c vfnmadd213ps %xmm1, %xmm6, %xmm5 # xmm5 = -(xmm6 * xmm5) + xmm1 vfmadd213ps %xmm3, %xmm6, %xmm4 # xmm4 = (xmm6 * xmm4) + xmm3 vmulps %xmm2, %xmm3, %xmm3 vfmadd231ps %xmm4, %xmm2, %xmm3 # xmm3 = (xmm2 * xmm4) + xmm3 vbroadcastss 0x57378(%rip), %xmm2 # 0x1ef0ff0 vfnmadd231ps %xmm5, %xmm2, %xmm3 # xmm3 = -(xmm2 * xmm5) + xmm3 vfmadd231ps %xmm2, %xmm1, %xmm3 # xmm3 = (xmm1 * xmm2) + xmm3 vshufps $0xc9, %xmm3, %xmm3, %xmm1 # xmm1 = xmm3[1,2,0,3] vshufps $0xc9, %xmm0, %xmm0, %xmm2 # xmm2 = xmm0[1,2,0,3] vmulps %xmm2, %xmm3, %xmm2 vfmsub231ps %xmm1, %xmm0, %xmm2 # xmm2 = (xmm0 * xmm1) - xmm2 vshufps $0xc9, %xmm2, %xmm2, %xmm1 # xmm1 = xmm2[1,2,0,3] ja 0x1e99ca4 vmovaps 0x52a5c(%rip), %xmm0 # 0x1eec700 vdpps $0x7f, %xmm1, %xmm1, %xmm2 vcvtss2sd %xmm2, %xmm2, %xmm3 vucomisd 0x5735a(%rip), %xmm3 # 0x1ef1010 jbe 0x1e99d49 vxorps %xmm3, %xmm3, %xmm3 vmovss %xmm2, %xmm3, %xmm4 # xmm4 = xmm2[0],xmm3[1,2,3] vrsqrt14ss %xmm4, %xmm3, %xmm4 vmovss 0x52a46(%rip), %xmm5 # 0x1eec718 vmulss %xmm5, %xmm4, %xmm6 vmovss 0x52ea2(%rip), %xmm7 # 0x1eecb80 vmulss %xmm7, %xmm2, %xmm2 vmulss %xmm4, %xmm2, %xmm2 vmulss %xmm4, %xmm4, %xmm4 vmulss %xmm4, %xmm2, %xmm2 vsubss %xmm2, %xmm6, %xmm2 vbroadcastss %xmm2, %xmm2 vmulps %xmm2, %xmm1, %xmm2 vshufps $0xc9, %xmm0, %xmm0, %xmm1 # xmm1 = xmm0[1,2,0,3] vshufps $0xc9, %xmm2, %xmm2, %xmm4 # xmm4 = xmm2[1,2,0,3] vmulps %xmm4, %xmm0, %xmm4 vfmsub231ps %xmm1, %xmm2, %xmm4 # xmm4 = (xmm2 * xmm1) - xmm4 vshufps $0xc9, %xmm4, %xmm4, %xmm1 # xmm1 = xmm4[1,2,0,3] vdpps $0x7f, %xmm1, %xmm1, %xmm4 vmovss %xmm4, %xmm3, %xmm6 # xmm6 = xmm4[0],xmm3[1,2,3] vrsqrt14ss %xmm6, %xmm3, %xmm3 vmulss %xmm5, %xmm3, %xmm5 vmulss %xmm7, %xmm4, %xmm4 vmulss %xmm3, %xmm4, %xmm4 vmulss %xmm3, %xmm3, %xmm3 vmulss %xmm3, %xmm4, %xmm3 vsubss %xmm3, %xmm5, %xmm3 vbroadcastss %xmm3, %xmm3 vmulps %xmm1, %xmm3, %xmm1 jmp 0x1e99e38 vshufpd $0x1, %xmm0, %xmm0, %xmm1 # xmm1 = xmm0[1,0] vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3] vbroadcastss 0x87165(%rip), %xmm3 # 0x1f20ec0 vxorps %xmm3, %xmm2, %xmm2 vxorps %xmm4, %xmm4, %xmm4 vunpckhps %xmm4, %xmm0, %xmm5 # xmm5 = xmm0[2],xmm4[2],xmm0[3],xmm4[3] vmovss %xmm2, %xmm4, %xmm2 # xmm2 = xmm2[0],xmm4[1,2,3] vshufps $0x41, %xmm2, %xmm5, %xmm2 # xmm2 = xmm5[1,0],xmm2[0,1] vdpps $0x7f, %xmm2, %xmm2, %xmm5 vxorpd %xmm3, %xmm1, %xmm1 vinsertps $0x2a, %xmm0, %xmm1, %xmm1 # xmm1 = xmm1[0],zero,xmm0[0],zero vdpps $0x7f, %xmm1, %xmm1, %xmm3 vcmpltps %xmm5, %xmm3, %k0 vpmovm2d %k0, %xmm3 vpbroadcastd %xmm3, %xmm3 vpmovd2m %xmm3, %k1 vpcmpeqd %xmm3, %xmm3, %xmm3 vmovaps %xmm3, %xmm3 {%k1} {z} vblendvps %xmm3, %xmm2, %xmm1, %xmm1 vdpps $0x7f, %xmm1, %xmm1, %xmm2 vmovss %xmm2, %xmm4, %xmm3 # xmm3 = xmm2[0],xmm4[1,2,3] vrsqrt14ss %xmm3, %xmm4, %xmm3 vmovss 0x52952(%rip), %xmm5 # 0x1eec718 vmulss %xmm5, %xmm3, %xmm6 vmovss 0x52dae(%rip), %xmm7 # 0x1eecb80 vmulss %xmm7, %xmm2, %xmm2 vmulss %xmm3, %xmm2, %xmm2 vmulss %xmm3, %xmm3, %xmm3 vmulss %xmm3, %xmm2, %xmm2 vsubss %xmm2, %xmm6, %xmm2 vbroadcastss %xmm2, %xmm2 vmulps %xmm2, %xmm1, %xmm1 vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3] vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3] vmulps %xmm3, %xmm1, %xmm3 vfmsub231ps %xmm2, %xmm0, %xmm3 # xmm3 = (xmm0 * xmm2) - xmm3 vshufps $0xc9, %xmm3, %xmm3, %xmm2 # xmm2 = xmm3[1,2,0,3] vdpps $0x7f, %xmm2, %xmm2, %xmm3 vmovss %xmm3, %xmm4, %xmm6 # xmm6 = xmm3[0],xmm4[1,2,3] vrsqrt14ss %xmm6, %xmm4, %xmm4 vmulss %xmm5, %xmm4, %xmm5 vmulss %xmm7, %xmm3, %xmm3 vmulss %xmm4, %xmm3, %xmm3 vmulss %xmm4, %xmm4, %xmm4 vmulss %xmm4, %xmm3, %xmm3 vsubss %xmm3, %xmm5, %xmm3 vbroadcastss %xmm3, %xmm3 vmulps %xmm2, %xmm3, %xmm2 vmovaps %xmm1, (%rax) vmovaps %xmm2, 0x10(%rax) vmovaps %xmm0, 0x20(%rax) popq %rbx retq
/embree[P]embree/kernels/common/scene_curves.cpp
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)2, embree::avx512::HermiteCurveGeometryInterface, embree::HermiteCurveT>::computeDirection(unsigned int) const
Vec3fa computeDirection(unsigned int primID) const { const Curve3ff c = getCurveScaledRadius(primID); const Vec3fa p0 = c.begin(); const Vec3fa p3 = c.end(); const Vec3fa axis1 = p3 - p0; return axis1; }
movl %edx, %eax imulq 0x68(%rsi), %rax movq 0x58(%rsi), %rcx movq 0x188(%rsi), %rdx movl (%rcx,%rax), %eax movq (%rdx), %rcx movq 0x10(%rdx), %rdx leal 0x1(%rax), %r8d movq %rax, %r9 imulq %rdx, %r9 vmovaps (%rcx,%r9), %xmm0 imulq %rdx, %r8 vmovaps (%rcx,%r8), %xmm1 movq %rdi, %rax vmovss 0x24c(%rsi), %xmm2 vmulss 0xc(%rcx,%r9), %xmm2, %xmm3 vinsertps $0x30, %xmm3, %xmm0, %xmm0 # xmm0 = xmm0[0,1,2],xmm3[0] vmulss 0xc(%rcx,%r8), %xmm2, %xmm2 vinsertps $0x30, %xmm2, %xmm1, %xmm1 # xmm1 = xmm1[0,1,2],xmm2[0] vsubps %xmm0, %xmm1, %xmm0 vmovaps %xmm0, (%rdi) retq nop
/embree[P]embree/kernels/common/scene_curves.cpp
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)2, embree::avx512::HermiteCurveGeometryInterface, embree::HermiteCurveT>::computeDirection(unsigned int, unsigned long) const
Vec3fa computeDirection(unsigned int primID, size_t time) const { const Curve3ff c = getCurveScaledRadius(primID,time); const Vec3fa p0 = c.begin(); const Vec3fa p3 = c.end(); const Vec3fa axis1 = p3 - p0; return axis1; }
movl %edx, %eax imulq 0x68(%rsi), %rax movq 0x58(%rsi), %rdx movq 0x188(%rsi), %r8 movl (%rdx,%rax), %eax imulq $0x38, %rcx, %rcx movq (%r8,%rcx), %rdx movq 0x10(%r8,%rcx), %rcx leal 0x1(%rax), %r8d movq %rax, %r9 imulq %rcx, %r9 vmovaps (%rdx,%r9), %xmm0 imulq %rcx, %r8 vmovaps (%rdx,%r8), %xmm1 movq %rdi, %rax vmovss 0x24c(%rsi), %xmm2 vmulss 0xc(%rdx,%r9), %xmm2, %xmm3 vinsertps $0x30, %xmm3, %xmm0, %xmm0 # xmm0 = xmm0[0,1,2],xmm3[0] vmulss 0xc(%rdx,%r8), %xmm2, %xmm2 vinsertps $0x30, %xmm2, %xmm1, %xmm1 # xmm1 = xmm1[0,1,2],xmm2[0] vsubps %xmm0, %xmm1, %xmm0 vmovaps %xmm0, (%rdi) retq nop
/embree[P]embree/kernels/common/scene_curves.cpp
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)2, embree::avx512::HermiteCurveGeometryInterface, embree::HermiteCurveT>::vbounds(unsigned long) const
size_t CurveGeometry::getGeometryDataDeviceByteSize() const { size_t byte_size = sizeof(CurveGeometry); if (vertices.size() > 0) byte_size += numTimeSteps * sizeof(BufferView<Vec3ff>); if (normals.size() > 0) byte_size += numTimeSteps * sizeof(BufferView<Vec3fa>); if (tangents.size() > 0) byte_size += numTimeSteps * sizeof(BufferView<Vec3ff>); if (dnormals.size() > 0) byte_size += numTimeSteps * sizeof(BufferView<Vec3fa>); return 16 * ((byte_size + 15) / 16); }
pushq %rbx imulq 0x68(%rsi), %rdx movq 0x58(%rsi), %rax movq 0x188(%rsi), %r8 movl (%rax,%rdx), %ecx movq (%r8), %r9 movq 0x10(%r8), %r8 movq %r8, %r10 imulq %rcx, %r10 vmovaps (%r9,%r10), %xmm0 movq %rdi, %rax leal 0x1(%rcx), %edx imulq %rdx, %r8 vmovaps (%r9,%r8), %xmm1 movq 0x1c8(%rsi), %rdi movq (%rdi), %r11 movq 0x10(%rdi), %rdi movq %rdi, %rbx imulq %rcx, %rbx vmovaps (%r11,%rbx), %xmm2 imulq %rdx, %rdi vmovaps (%r11,%rdi), %xmm3 vmovss 0x24c(%rsi), %xmm4 vmulss 0xc(%r9,%r10), %xmm4, %xmm5 vinsertps $0x30, %xmm5, %xmm0, %xmm6 # xmm6 = xmm0[0,1,2],xmm5[0] vmulss 0xc(%r9,%r8), %xmm4, %xmm0 vinsertps $0x30, %xmm0, %xmm1, %xmm7 # xmm7 = xmm1[0,1,2],xmm0[0] vmulss 0xc(%r11,%rbx), %xmm4, %xmm0 vinsertps $0x30, %xmm0, %xmm2, %xmm8 # xmm8 = xmm2[0,1,2],xmm0[0] vmulss 0xc(%r11,%rdi), %xmm4, %xmm0 vinsertps $0x30, %xmm0, %xmm3, %xmm9 # xmm9 = xmm3[0,1,2],xmm0[0] vbroadcastss 0xc34b0(%rip), %xmm5 # 0x1f5d46c vfnmadd213ps %xmm6, %xmm5, %xmm8 # xmm8 = -(xmm5 * xmm8) + xmm6 vfmadd213ps %xmm7, %xmm5, %xmm9 # xmm9 = (xmm5 * xmm9) + xmm7 movq 0x1a8(%rsi), %rdi movq (%rdi), %r8 movq 0x10(%rdi), %rdi movq %rdi, %r9 imulq %rcx, %r9 vmovups (%r8,%r9), %xmm10 imulq %rdx, %rdi vmovups (%r8,%rdi), %xmm11 movq 0x1e8(%rsi), %rsi movq (%rsi), %rdi movq 0x10(%rsi), %rsi imulq %rsi, %rcx imulq %rdx, %rsi vmovups (%rdi,%rcx), %xmm12 vfnmadd132ps %xmm5, %xmm10, %xmm12 # xmm12 = -(xmm12 * xmm5) + xmm10 vfmadd132ps (%rdi,%rsi), %xmm11, %xmm5 # xmm5 = (xmm5 * mem) + xmm11 vxorps %xmm4, %xmm4, %xmm4 vmulps %xmm4, %xmm7, %xmm0 vfmadd231ps %xmm4, %xmm9, %xmm0 # xmm0 = (xmm9 * xmm4) + xmm0 vxorps %xmm1, %xmm1, %xmm1 vfmadd213ps %xmm0, %xmm8, %xmm1 # xmm1 = (xmm8 * xmm1) + xmm0 vaddps %xmm1, %xmm6, %xmm1 vbroadcastss 0x56fb8(%rip), %xmm13 # 0x1ef0fec vfmadd231ps %xmm13, %xmm8, %xmm0 # xmm0 = (xmm8 * xmm13) + xmm0 vfnmadd231ps %xmm13, %xmm6, %xmm0 # xmm0 = -(xmm6 * xmm13) + xmm0 vmulps %xmm4, %xmm11, %xmm14 vfmadd231ps %xmm4, %xmm5, %xmm14 # xmm14 = (xmm5 * xmm4) + xmm14 vxorps %xmm2, %xmm2, %xmm2 vfmadd213ps %xmm14, %xmm12, %xmm2 # xmm2 = (xmm12 * xmm2) + xmm14 vaddps %xmm2, %xmm10, %xmm15 vfmadd231ps %xmm13, %xmm12, %xmm14 # xmm14 = (xmm12 * xmm13) + xmm14 vfnmadd231ps %xmm13, %xmm10, %xmm14 # xmm14 = -(xmm10 * xmm13) + xmm14 vxorps %xmm2, %xmm2, %xmm2 vfmadd213ps %xmm7, %xmm9, %xmm2 # xmm2 = (xmm9 * xmm2) + xmm7 vfmadd231ps %xmm4, %xmm8, %xmm2 # xmm2 = (xmm8 * xmm4) + xmm2 vfmadd231ps %xmm4, %xmm6, %xmm2 # xmm2 = (xmm6 * xmm4) + xmm2 vmulps %xmm7, %xmm13, %xmm3 vfnmadd231ps %xmm9, %xmm13, %xmm3 # xmm3 = -(xmm13 * xmm9) + xmm3 vfmadd231ps %xmm8, %xmm4, %xmm3 # xmm3 = (xmm4 * xmm8) + xmm3 vfnmadd231ps %xmm6, %xmm4, %xmm3 # xmm3 = -(xmm4 * xmm6) + xmm3 vxorps %xmm6, %xmm6, %xmm6 vfmadd213ps %xmm11, %xmm5, %xmm6 # xmm6 = (xmm5 * xmm6) + xmm11 vfmadd231ps %xmm4, %xmm12, %xmm6 # xmm6 = (xmm12 * xmm4) + xmm6 vfmadd231ps %xmm4, %xmm10, %xmm6 # xmm6 = (xmm10 * xmm4) + xmm6 vmulps %xmm13, %xmm11, %xmm8 vfnmadd231ps %xmm5, %xmm13, %xmm8 # xmm8 = -(xmm13 * xmm5) + xmm8 vfmadd231ps %xmm12, %xmm4, %xmm8 # xmm8 = (xmm4 * xmm12) + xmm8 vfnmadd231ps %xmm10, %xmm4, %xmm8 # xmm8 = -(xmm4 * xmm10) + xmm8 vshufps $0xc9, %xmm0, %xmm0, %xmm5 # xmm5 = xmm0[1,2,0,3] vshufps $0xc9, %xmm15, %xmm15, %xmm7 # xmm7 = xmm15[1,2,0,3] vmulps %xmm7, %xmm0, %xmm7 vfmsub231ps %xmm15, %xmm5, %xmm7 # xmm7 = (xmm5 * xmm15) - xmm7 vshufps $0xc9, %xmm7, %xmm7, %xmm7 # xmm7 = xmm7[1,2,0,3] vshufps $0xc9, %xmm14, %xmm14, %xmm9 # xmm9 = xmm14[1,2,0,3] vmulps %xmm0, %xmm9, %xmm9 vfmsub231ps %xmm14, %xmm5, %xmm9 # xmm9 = (xmm5 * xmm14) - xmm9 vshufps $0xc9, %xmm9, %xmm9, %xmm9 # xmm9 = xmm9[1,2,0,3] vshufps $0xc9, %xmm3, %xmm3, %xmm10 # xmm10 = xmm3[1,2,0,3] vshufps $0xc9, %xmm6, %xmm6, %xmm5 # xmm5 = xmm6[1,2,0,3] vmulps %xmm5, %xmm3, %xmm5 vfmsub231ps %xmm6, %xmm10, %xmm5 # xmm5 = (xmm10 * xmm6) - xmm5 vshufps $0xc9, %xmm5, %xmm5, %xmm5 # xmm5 = xmm5[1,2,0,3] vshufps $0xc9, %xmm8, %xmm8, %xmm6 # xmm6 = xmm8[1,2,0,3] vmulps %xmm6, %xmm3, %xmm6 vfmsub231ps %xmm8, %xmm10, %xmm6 # xmm6 = (xmm10 * xmm8) - xmm6 vshufps $0xc9, %xmm6, %xmm6, %xmm6 # xmm6 = xmm6[1,2,0,3] vdpps $0x7f, %xmm7, %xmm7, %xmm8 vmovss %xmm8, %xmm4, %xmm10 # xmm10 = xmm8[0],xmm4[1,2,3] vrsqrt14ss %xmm10, %xmm4, %xmm11 vmovss 0x525fa(%rip), %xmm12 # 0x1eec718 vmulss %xmm12, %xmm11, %xmm13 vmovss 0x52a55(%rip), %xmm14 # 0x1eecb80 vmulss %xmm14, %xmm8, %xmm15 vmulss %xmm11, %xmm15, %xmm15 vmulss %xmm11, %xmm11, %xmm11 vmulss %xmm11, %xmm15, %xmm11 vsubss %xmm11, %xmm13, %xmm11 vbroadcastss %xmm11, %xmm11 vmulps %xmm7, %xmm11, %xmm13 vdpps $0x7f, %xmm9, %xmm7, %xmm15 vbroadcastss %xmm8, %xmm16 vmulps %xmm9, %xmm16, %xmm9 vbroadcastss %xmm15, %xmm15 vmulps %xmm7, %xmm15, %xmm7 vsubps %xmm7, %xmm9, %xmm7 vrcp14ss %xmm10, %xmm4, %xmm9 vmovss 0x56e7e(%rip), %xmm10 # 0x1ef0ff8 vfnmadd213ss %xmm10, %xmm9, %xmm8 # xmm8 = -(xmm9 * xmm8) + xmm10 vmulss %xmm8, %xmm9, %xmm8 vdpps $0x7f, %xmm5, %xmm5, %xmm9 vbroadcastss %xmm8, %xmm8 vmulps %xmm7, %xmm8, %xmm7 vmulps %xmm7, %xmm11, %xmm7 vmovss %xmm9, %xmm4, %xmm8 # xmm8 = xmm9[0],xmm4[1,2,3] vrsqrt14ss %xmm8, %xmm4, %xmm11 vmulss %xmm12, %xmm11, %xmm12 vmulss %xmm14, %xmm9, %xmm14 vmulss %xmm11, %xmm14, %xmm14 vmulss %xmm11, %xmm11, %xmm11 vmulss %xmm11, %xmm14, %xmm11 vsubss %xmm11, %xmm12, %xmm11 vbroadcastss %xmm11, %xmm11 vmulps %xmm5, %xmm11, %xmm12 vdpps $0x7f, %xmm6, %xmm5, %xmm14 vbroadcastss %xmm9, %xmm15 vmulps %xmm6, %xmm15, %xmm6 vbroadcastss %xmm14, %xmm14 vmulps %xmm5, %xmm14, %xmm5 vsubps %xmm5, %xmm6, %xmm5 vrcp14ss %xmm8, %xmm4, %xmm4 vfnmadd213ss %xmm10, %xmm4, %xmm9 # xmm9 = -(xmm4 * xmm9) + xmm10 vmulss %xmm4, %xmm9, %xmm4 vbroadcastss %xmm4, %xmm4 vmulps %xmm4, %xmm5, %xmm4 vmulps %xmm4, %xmm11, %xmm4 vshufps $0xff, %xmm1, %xmm1, %xmm5 # xmm5 = xmm1[3,3,3,3] vmulps %xmm5, %xmm13, %xmm6 vsubps %xmm6, %xmm1, %xmm10 vshufps $0xff, %xmm0, %xmm0, %xmm8 # xmm8 = xmm0[3,3,3,3] vmulps %xmm13, %xmm8, %xmm8 vmulps %xmm7, %xmm5, %xmm5 vaddps %xmm5, %xmm8, %xmm5 vsubps %xmm5, %xmm0, %xmm7 vaddps %xmm6, %xmm1, %xmm31 vaddps %xmm5, %xmm0, %xmm0 vshufps $0xff, %xmm2, %xmm2, %xmm5 # xmm5 = xmm2[3,3,3,3] vmulps %xmm5, %xmm12, %xmm6 vsubps %xmm6, %xmm2, %xmm13 vshufps $0xff, %xmm3, %xmm3, %xmm8 # xmm8 = xmm3[3,3,3,3] vmulps %xmm12, %xmm8, %xmm8 vmulps %xmm4, %xmm5, %xmm4 vaddps %xmm4, %xmm8, %xmm4 vsubps %xmm4, %xmm3, %xmm5 vaddps %xmm6, %xmm2, %xmm29 vaddps %xmm4, %xmm3, %xmm3 vbroadcastss 0x57c58(%rip), %xmm4 # 0x1ef1ebc vmulps %xmm4, %xmm7, %xmm6 vaddps %xmm6, %xmm10, %xmm6 vmulps %xmm4, %xmm5, %xmm5 vsubps %xmm5, %xmm13, %xmm5 vmulps %xmm4, %xmm0, %xmm0 vaddps %xmm0, %xmm31, %xmm0 vmovups %ymm0, -0x60(%rsp) vmulps %xmm4, %xmm3, %xmm0 vsubps %xmm0, %xmm29, %xmm30 vbroadcastss 0x7846d(%rip), %ymm2 # 0x1f12704 vbroadcastss %xmm10, %ymm0 vpermps %ymm10, %ymm2, %ymm3 vbroadcastss 0x86c32(%rip), %ymm11 # 0x1f20edc vpermps %ymm10, %ymm11, %ymm4 vbroadcastss %xmm6, %ymm17 vpermps %ymm6, %ymm2, %ymm20 vpermps %ymm6, %ymm11, %ymm22 vbroadcastss %xmm5, %ymm23 vpermps %ymm5, %ymm2, %ymm24 vpermps %ymm5, %ymm11, %ymm25 vbroadcastss %xmm13, %ymm26 vpermps %ymm13, %ymm2, %ymm27 leaq 0x28cffe(%rip), %rcx # 0x21272e4 vmovups 0x1dc(%rcx), %ymm9 vmovups 0x660(%rcx), %ymm10 vpermps %ymm13, %ymm11, %ymm28 vmovups 0xae4(%rcx), %ymm13 vmovups 0xf68(%rcx), %ymm16 vmulps %ymm16, %ymm26, %ymm14 vmulps %ymm16, %ymm27, %ymm18 vmulps %ymm16, %ymm28, %ymm21 vfmadd231ps %ymm23, %ymm13, %ymm14 # ymm14 = (ymm13 * ymm23) + ymm14 vfmadd231ps %ymm24, %ymm13, %ymm18 # ymm18 = (ymm13 * ymm24) + ymm18 vfmadd231ps %ymm25, %ymm13, %ymm21 # ymm21 = (ymm13 * ymm25) + ymm21 vfmadd231ps %ymm17, %ymm10, %ymm14 # ymm14 = (ymm10 * ymm17) + ymm14 vfmadd231ps %ymm20, %ymm10, %ymm18 # ymm18 = (ymm10 * ymm20) + ymm18 vfmadd231ps %ymm22, %ymm10, %ymm21 # ymm21 = (ymm10 * ymm22) + ymm21 vfmadd231ps %ymm0, %ymm9, %ymm14 # ymm14 = (ymm9 * ymm0) + ymm14 vfmadd231ps %ymm3, %ymm9, %ymm18 # ymm18 = (ymm9 * ymm3) + ymm18 vmovups 0x13ec(%rcx), %ymm6 vmovups 0x1870(%rcx), %ymm12 vmovups 0x1cf4(%rcx), %ymm15 vmovups 0x2178(%rcx), %ymm19 vfmadd231ps %ymm4, %ymm9, %ymm21 # ymm21 = (ymm9 * ymm4) + ymm21 vmulps %ymm19, %ymm26, %ymm26 vmulps %ymm19, %ymm27, %ymm27 vmulps %ymm19, %ymm28, %ymm28 vfmadd231ps %ymm23, %ymm15, %ymm26 # ymm26 = (ymm15 * ymm23) + ymm26 vfmadd231ps %ymm24, %ymm15, %ymm27 # ymm27 = (ymm15 * ymm24) + ymm27 vfmadd231ps %ymm25, %ymm15, %ymm28 # ymm28 = (ymm15 * ymm25) + ymm28 vfmadd231ps %ymm17, %ymm12, %ymm26 # ymm26 = (ymm12 * ymm17) + ymm26 vfmadd231ps %ymm20, %ymm12, %ymm27 # ymm27 = (ymm12 * ymm20) + ymm27 vfmadd231ps %ymm22, %ymm12, %ymm28 # ymm28 = (ymm12 * ymm22) + ymm28 vfmadd231ps %ymm0, %ymm6, %ymm26 # ymm26 = (ymm6 * ymm0) + ymm26 vfmadd231ps %ymm3, %ymm6, %ymm27 # ymm27 = (ymm6 * ymm3) + ymm27 vfmadd231ps %ymm4, %ymm6, %ymm28 # ymm28 = (ymm6 * ymm4) + ymm28 vbroadcastss 0x87107(%rip), %ymm20 # 0x1f214d0 vmulps %ymm20, %ymm26, %ymm3 vmulps %ymm20, %ymm27, %ymm4 vmulps %ymm20, %ymm28, %ymm7 vxorps %xmm5, %xmm5, %xmm5 vblendps $0x1, %ymm5, %ymm3, %ymm8 # ymm8 = ymm5[0],ymm3[1,2,3,4,5,6,7] vblendps $0x1, %ymm5, %ymm4, %ymm1 # ymm1 = ymm5[0],ymm4[1,2,3,4,5,6,7] vblendps $0x1, %ymm5, %ymm7, %ymm0 # ymm0 = ymm5[0],ymm7[1,2,3,4,5,6,7] vsubps %ymm8, %ymm14, %ymm8 vsubps %ymm1, %ymm18, %ymm1 vsubps %ymm0, %ymm21, %ymm0 vblendps $0x80, %ymm5, %ymm3, %ymm3 # ymm3 = ymm3[0,1,2,3,4,5,6],ymm5[7] vblendps $0x80, %ymm5, %ymm4, %ymm4 # ymm4 = ymm4[0,1,2,3,4,5,6],ymm5[7] vblendps $0x80, %ymm5, %ymm7, %ymm7 # ymm7 = ymm7[0,1,2,3,4,5,6],ymm5[7] vaddps %ymm3, %ymm14, %ymm24 vaddps %ymm4, %ymm18, %ymm25 vaddps %ymm7, %ymm21, %ymm7 vbroadcastss 0x515f0(%rip), %ymm22 # 0x1eeba20 vminps %ymm14, %ymm22, %ymm3 vminps %ymm18, %ymm22, %ymm17 vminps %ymm21, %ymm22, %ymm23 vminps %ymm24, %ymm8, %ymm4 vminps %ymm4, %ymm3, %ymm3 vmovups %ymm3, -0x40(%rsp) vminps %ymm25, %ymm1, %ymm3 vminps %ymm3, %ymm17, %ymm3 vmovups %ymm3, -0x20(%rsp) vminps %ymm7, %ymm0, %ymm17 vminps %ymm17, %ymm23, %ymm17 vbroadcastss 0x5270a(%rip), %ymm23 # 0x1eecb84 vmaxps %ymm14, %ymm23, %ymm14 vmaxps %ymm18, %ymm23, %ymm18 vmaxps %ymm21, %ymm23, %ymm26 vmaxps %ymm24, %ymm8, %ymm8 vmaxps %ymm8, %ymm14, %ymm21 vmaxps %ymm25, %ymm1, %ymm1 vmaxps %ymm1, %ymm18, %ymm18 vmaxps %ymm7, %ymm0, %ymm0 vmaxps %ymm0, %ymm26, %ymm14 vbroadcastss %xmm31, %ymm4 vpermps %ymm31, %ymm2, %ymm8 vpermps %ymm31, %ymm11, %ymm24 vmovups -0x60(%rsp), %ymm0 vbroadcastss %xmm0, %ymm25 vpermps %ymm0, %ymm2, %ymm26 vpermps %ymm0, %ymm11, %ymm27 vbroadcastss %xmm30, %ymm28 vpermps %ymm30, %ymm2, %ymm31 vpermps %ymm30, %ymm11, %ymm30 vbroadcastss %xmm29, %ymm0 vpermps %ymm29, %ymm2, %ymm3 vpermps %ymm29, %ymm11, %ymm11 vmulps %ymm16, %ymm0, %ymm1 vmulps %ymm16, %ymm3, %ymm2 vmulps %ymm16, %ymm11, %ymm7 vfmadd231ps %ymm28, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm28) + ymm1 vfmadd231ps %ymm31, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm31) + ymm2 vfmadd231ps %ymm13, %ymm30, %ymm7 # ymm7 = (ymm30 * ymm13) + ymm7 vfmadd231ps %ymm25, %ymm10, %ymm1 # ymm1 = (ymm10 * ymm25) + ymm1 vfmadd231ps %ymm26, %ymm10, %ymm2 # ymm2 = (ymm10 * ymm26) + ymm2 vfmadd231ps %ymm10, %ymm27, %ymm7 # ymm7 = (ymm27 * ymm10) + ymm7 vfmadd231ps %ymm4, %ymm9, %ymm1 # ymm1 = (ymm9 * ymm4) + ymm1 vfmadd231ps %ymm8, %ymm9, %ymm2 # ymm2 = (ymm9 * ymm8) + ymm2 vfmadd231ps %ymm9, %ymm24, %ymm7 # ymm7 = (ymm24 * ymm9) + ymm7 vmulps %ymm19, %ymm0, %ymm0 vmulps %ymm19, %ymm3, %ymm3 vmulps %ymm19, %ymm11, %ymm9 vfmadd231ps %ymm28, %ymm15, %ymm0 # ymm0 = (ymm15 * ymm28) + ymm0 vfmadd231ps %ymm31, %ymm15, %ymm3 # ymm3 = (ymm15 * ymm31) + ymm3 vfmadd231ps %ymm30, %ymm15, %ymm9 # ymm9 = (ymm15 * ymm30) + ymm9 vfmadd231ps %ymm25, %ymm12, %ymm0 # ymm0 = (ymm12 * ymm25) + ymm0 vfmadd231ps %ymm26, %ymm12, %ymm3 # ymm3 = (ymm12 * ymm26) + ymm3 vfmadd231ps %ymm27, %ymm12, %ymm9 # ymm9 = (ymm12 * ymm27) + ymm9 vfmadd231ps %ymm4, %ymm6, %ymm0 # ymm0 = (ymm6 * ymm4) + ymm0 vfmadd231ps %ymm8, %ymm6, %ymm3 # ymm3 = (ymm6 * ymm8) + ymm3 vfmadd231ps %ymm24, %ymm6, %ymm9 # ymm9 = (ymm6 * ymm24) + ymm9 vmulps %ymm20, %ymm0, %ymm0 vmulps %ymm20, %ymm3, %ymm3 vmulps %ymm20, %ymm9, %ymm4 vblendps $0x1, %ymm5, %ymm0, %ymm6 # ymm6 = ymm5[0],ymm0[1,2,3,4,5,6,7] vblendps $0x1, %ymm5, %ymm3, %ymm8 # ymm8 = ymm5[0],ymm3[1,2,3,4,5,6,7] vblendps $0x1, %ymm5, %ymm4, %ymm9 # ymm9 = ymm5[0],ymm4[1,2,3,4,5,6,7] vsubps %ymm6, %ymm1, %ymm6 vsubps %ymm8, %ymm2, %ymm10 vsubps %ymm9, %ymm7, %ymm9 vblendps $0x80, %ymm5, %ymm0, %ymm0 # ymm0 = ymm0[0,1,2,3,4,5,6],ymm5[7] vblendps $0x80, %ymm5, %ymm3, %ymm3 # ymm3 = ymm3[0,1,2,3,4,5,6],ymm5[7] vblendps $0x80, %ymm5, %ymm4, %ymm4 # ymm4 = ymm4[0,1,2,3,4,5,6],ymm5[7] vaddps %ymm0, %ymm1, %ymm0 vaddps %ymm3, %ymm2, %ymm3 vaddps %ymm4, %ymm7, %ymm4 vminps %ymm1, %ymm22, %ymm5 vminps %ymm2, %ymm22, %ymm8 vminps %ymm7, %ymm22, %ymm11 vminps %ymm0, %ymm6, %ymm12 vminps %ymm12, %ymm5, %ymm12 vminps %ymm3, %ymm10, %ymm5 vminps %ymm5, %ymm8, %ymm8 vminps %ymm4, %ymm9, %ymm5 vminps %ymm5, %ymm11, %ymm5 vmaxps %ymm1, %ymm23, %ymm1 vmaxps %ymm2, %ymm23, %ymm11 vmaxps %ymm7, %ymm23, %ymm7 vmaxps %ymm0, %ymm6, %ymm0 vmaxps %ymm0, %ymm1, %ymm2 vmaxps %ymm3, %ymm10, %ymm0 vmaxps %ymm0, %ymm11, %ymm1 vmaxps %ymm4, %ymm9, %ymm0 vmaxps %ymm0, %ymm7, %ymm0 vshufps $0xb1, %ymm21, %ymm21, %ymm3 # ymm3 = ymm21[1,0,3,2,5,4,7,6] vmaxps %ymm3, %ymm21, %ymm3 vshufpd $0x5, %ymm3, %ymm3, %ymm4 # ymm4 = ymm3[1,0,3,2] vmaxps %ymm4, %ymm3, %ymm3 vextractf128 $0x1, %ymm3, %xmm4 vmaxps %xmm4, %xmm3, %xmm3 vshufps $0xb1, %ymm18, %ymm18, %ymm4 # ymm4 = ymm18[1,0,3,2,5,4,7,6] vmaxps %ymm4, %ymm18, %ymm4 vshufpd $0x5, %ymm4, %ymm4, %ymm6 # ymm6 = ymm4[1,0,3,2] vmaxps %ymm6, %ymm4, %ymm4 vextractf128 $0x1, %ymm4, %xmm6 vmaxps %xmm6, %xmm4, %xmm4 vunpcklps %xmm4, %xmm3, %xmm3 # xmm3 = xmm3[0],xmm4[0],xmm3[1],xmm4[1] vshufps $0xb1, %ymm14, %ymm14, %ymm4 # ymm4 = ymm14[1,0,3,2,5,4,7,6] vmaxps %ymm4, %ymm14, %ymm4 vshufpd $0x5, %ymm4, %ymm4, %ymm6 # ymm6 = ymm4[1,0,3,2] vmaxps %ymm6, %ymm4, %ymm4 vextractf128 $0x1, %ymm4, %xmm6 vmaxps %xmm6, %xmm4, %xmm4 vinsertps $0x28, %xmm4, %xmm3, %xmm6 # xmm6 = xmm3[0,1],xmm4[0],zero vmovups -0x40(%rsp), %ymm4 vshufps $0xb1, %ymm4, %ymm4, %ymm3 # ymm3 = ymm4[1,0,3,2,5,4,7,6] vminps %ymm3, %ymm4, %ymm3 vshufpd $0x5, %ymm3, %ymm3, %ymm4 # ymm4 = ymm3[1,0,3,2] vminps %ymm4, %ymm3, %ymm3 vextractf128 $0x1, %ymm3, %xmm4 vminps %xmm4, %xmm3, %xmm3 vmovups -0x20(%rsp), %ymm7 vshufps $0xb1, %ymm7, %ymm7, %ymm4 # ymm4 = ymm7[1,0,3,2,5,4,7,6] vminps %ymm4, %ymm7, %ymm4 vshufpd $0x5, %ymm4, %ymm4, %ymm7 # ymm7 = ymm4[1,0,3,2] vminps %ymm7, %ymm4, %ymm4 vextractf128 $0x1, %ymm4, %xmm7 vminps %xmm7, %xmm4, %xmm4 vunpcklps %xmm4, %xmm3, %xmm3 # xmm3 = xmm3[0],xmm4[0],xmm3[1],xmm4[1] vshufps $0xb1, %ymm17, %ymm17, %ymm4 # ymm4 = ymm17[1,0,3,2,5,4,7,6] vminps %ymm4, %ymm17, %ymm4 vshufpd $0x5, %ymm4, %ymm4, %ymm7 # ymm7 = ymm4[1,0,3,2] vminps %ymm7, %ymm4, %ymm4 vextractf128 $0x1, %ymm4, %xmm7 vminps %xmm7, %xmm4, %xmm4 vinsertps $0x28, %xmm4, %xmm3, %xmm3 # xmm3 = xmm3[0,1],xmm4[0],zero vshufps $0xb1, %ymm12, %ymm12, %ymm4 # ymm4 = ymm12[1,0,3,2,5,4,7,6] vminps %ymm4, %ymm12, %ymm4 vshufpd $0x5, %ymm4, %ymm4, %ymm7 # ymm7 = ymm4[1,0,3,2] vminps %ymm7, %ymm4, %ymm4 vextractf128 $0x1, %ymm4, %xmm7 vminps %xmm7, %xmm4, %xmm4 vshufps $0xb1, %ymm8, %ymm8, %ymm7 # ymm7 = ymm8[1,0,3,2,5,4,7,6] vminps %ymm7, %ymm8, %ymm7 vshufpd $0x5, %ymm7, %ymm7, %ymm8 # ymm8 = ymm7[1,0,3,2] vminps %ymm8, %ymm7, %ymm7 vextractf128 $0x1, %ymm7, %xmm8 vminps %xmm8, %xmm7, %xmm7 vunpcklps %xmm7, %xmm4, %xmm4 # xmm4 = xmm4[0],xmm7[0],xmm4[1],xmm7[1] vshufps $0xb1, %ymm5, %ymm5, %ymm7 # ymm7 = ymm5[1,0,3,2,5,4,7,6] vminps %ymm7, %ymm5, %ymm5 vshufpd $0x5, %ymm5, %ymm5, %ymm7 # ymm7 = ymm5[1,0,3,2] vminps %ymm7, %ymm5, %ymm5 vextractf128 $0x1, %ymm5, %xmm7 vminps %xmm7, %xmm5, %xmm5 vinsertps $0x28, %xmm5, %xmm4, %xmm4 # xmm4 = xmm4[0,1],xmm5[0],zero vminps %xmm4, %xmm3, %xmm3 vshufps $0xb1, %ymm2, %ymm2, %ymm4 # ymm4 = ymm2[1,0,3,2,5,4,7,6] vmaxps %ymm4, %ymm2, %ymm2 vshufpd $0x5, %ymm2, %ymm2, %ymm4 # ymm4 = ymm2[1,0,3,2] vmaxps %ymm4, %ymm2, %ymm2 vextractf128 $0x1, %ymm2, %xmm4 vmaxps %xmm4, %xmm2, %xmm2 vshufps $0xb1, %ymm1, %ymm1, %ymm4 # ymm4 = ymm1[1,0,3,2,5,4,7,6] vmaxps %ymm4, %ymm1, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm4 # ymm4 = ymm1[1,0,3,2] vmaxps %ymm4, %ymm1, %ymm1 vextractf128 $0x1, %ymm1, %xmm4 vmaxps %xmm4, %xmm1, %xmm1 vunpcklps %xmm1, %xmm2, %xmm1 # xmm1 = xmm2[0],xmm1[0],xmm2[1],xmm1[1] vshufps $0xb1, %ymm0, %ymm0, %ymm2 # ymm2 = ymm0[1,0,3,2,5,4,7,6] vmaxps %ymm2, %ymm0, %ymm0 vshufpd $0x5, %ymm0, %ymm0, %ymm2 # ymm2 = ymm0[1,0,3,2] vmaxps %ymm2, %ymm0, %ymm0 vextractf128 $0x1, %ymm0, %xmm2 vmaxps %xmm2, %xmm0, %xmm0 vinsertps $0x28, %xmm0, %xmm1, %xmm0 # xmm0 = xmm1[0,1],xmm0[0],zero vmaxps %xmm0, %xmm6, %xmm0 vbroadcastss 0x866f1(%rip), %xmm1 # 0x1f20ec4 vandps %xmm1, %xmm3, %xmm2 vandps %xmm1, %xmm0, %xmm1 vmaxps %xmm1, %xmm2, %xmm1 vmovshdup %xmm1, %xmm2 # xmm2 = xmm1[1,1,3,3] vmaxss %xmm1, %xmm2, %xmm2 vshufpd $0x1, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[1,0] vmaxss %xmm2, %xmm1, %xmm1 vmulss 0x567ec(%rip), %xmm1, %xmm1 # 0x1ef0fe4 vbroadcastss %xmm1, %xmm1 vsubps %xmm1, %xmm3, %xmm2 vaddps %xmm1, %xmm0, %xmm0 vmovaps %xmm2, (%rax) vmovaps %xmm0, 0x10(%rax) popq %rbx vzeroupper retq nop
/embree[P]embree/kernels/common/scene_curves.cpp
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)2, embree::avx512::HermiteCurveGeometryInterface, embree::HermiteCurveT>::vbounds(embree::LinearSpace3<embree::Vec3fa> const&, unsigned long) const
size_t CurveGeometry::getGeometryDataDeviceByteSize() const { size_t byte_size = sizeof(CurveGeometry); if (vertices.size() > 0) byte_size += numTimeSteps * sizeof(BufferView<Vec3ff>); if (normals.size() > 0) byte_size += numTimeSteps * sizeof(BufferView<Vec3fa>); if (tangents.size() > 0) byte_size += numTimeSteps * sizeof(BufferView<Vec3ff>); if (dnormals.size() > 0) byte_size += numTimeSteps * sizeof(BufferView<Vec3fa>); return 16 * ((byte_size + 15) / 16); }
pushq %r14 pushq %rbx imulq 0x68(%rsi), %rcx movq 0x58(%rsi), %rax movq 0x188(%rsi), %r8 movl (%rax,%rcx), %ecx movq (%r8), %r9 movq 0x10(%r8), %r8 movq %r8, %r10 imulq %rcx, %r10 vmovaps (%r9,%r10), %xmm0 movq %rdi, %rax leal 0x1(%rcx), %edi imulq %rdi, %r8 vmovaps (%r9,%r8), %xmm1 movq 0x1c8(%rsi), %r11 movq (%r11), %rbx movq 0x10(%r11), %r11 movq %r11, %r14 imulq %rcx, %r14 vmovaps (%rbx,%r14), %xmm2 imulq %rdi, %r11 vmovaps (%rbx,%r11), %xmm3 vmovss 0x24c(%rsi), %xmm4 vmulss 0xc(%r9,%r10), %xmm4, %xmm5 vinsertps $0x30, %xmm5, %xmm0, %xmm6 # xmm6 = xmm0[0,1,2],xmm5[0] vmulss 0xc(%r9,%r8), %xmm4, %xmm0 vinsertps $0x30, %xmm0, %xmm1, %xmm7 # xmm7 = xmm1[0,1,2],xmm0[0] vmulss 0xc(%rbx,%r14), %xmm4, %xmm0 vinsertps $0x30, %xmm0, %xmm2, %xmm8 # xmm8 = xmm2[0,1,2],xmm0[0] vmulss 0xc(%rbx,%r11), %xmm4, %xmm0 vinsertps $0x30, %xmm0, %xmm3, %xmm9 # xmm9 = xmm3[0,1,2],xmm0[0] vbroadcastss 0xc2bb4(%rip), %xmm5 # 0x1f5d46c vfnmadd213ps %xmm6, %xmm5, %xmm8 # xmm8 = -(xmm5 * xmm8) + xmm6 vfmadd213ps %xmm7, %xmm5, %xmm9 # xmm9 = (xmm5 * xmm9) + xmm7 movq 0x1a8(%rsi), %r8 movq (%r8), %r9 movq 0x10(%r8), %r8 movq %r8, %r10 imulq %rcx, %r10 vmovups (%r9,%r10), %xmm10 imulq %rdi, %r8 vmovups (%r9,%r8), %xmm11 movq 0x1e8(%rsi), %rsi movq (%rsi), %r8 movq 0x10(%rsi), %rsi imulq %rsi, %rcx imulq %rdi, %rsi vmovups (%r8,%rcx), %xmm12 vfnmadd132ps %xmm5, %xmm10, %xmm12 # xmm12 = -(xmm12 * xmm5) + xmm10 vfmadd132ps (%r8,%rsi), %xmm11, %xmm5 # xmm5 = (xmm5 * mem) + xmm11 vxorps %xmm3, %xmm3, %xmm3 vmulps %xmm3, %xmm7, %xmm0 vfmadd231ps %xmm3, %xmm9, %xmm0 # xmm0 = (xmm9 * xmm3) + xmm0 vxorps %xmm1, %xmm1, %xmm1 vfmadd213ps %xmm0, %xmm8, %xmm1 # xmm1 = (xmm8 * xmm1) + xmm0 vaddps %xmm1, %xmm6, %xmm1 vbroadcastss 0x566bb(%rip), %xmm13 # 0x1ef0fec vfmadd231ps %xmm13, %xmm8, %xmm0 # xmm0 = (xmm8 * xmm13) + xmm0 vfnmadd231ps %xmm13, %xmm6, %xmm0 # xmm0 = -(xmm6 * xmm13) + xmm0 vmulps %xmm3, %xmm11, %xmm14 vfmadd231ps %xmm3, %xmm5, %xmm14 # xmm14 = (xmm5 * xmm3) + xmm14 vxorps %xmm2, %xmm2, %xmm2 vfmadd213ps %xmm14, %xmm12, %xmm2 # xmm2 = (xmm12 * xmm2) + xmm14 vaddps %xmm2, %xmm10, %xmm15 vfmadd231ps %xmm13, %xmm12, %xmm14 # xmm14 = (xmm12 * xmm13) + xmm14 vfnmadd231ps %xmm13, %xmm10, %xmm14 # xmm14 = -(xmm10 * xmm13) + xmm14 vxorps %xmm2, %xmm2, %xmm2 vfmadd213ps %xmm7, %xmm9, %xmm2 # xmm2 = (xmm9 * xmm2) + xmm7 vfmadd231ps %xmm3, %xmm8, %xmm2 # xmm2 = (xmm8 * xmm3) + xmm2 vfmadd231ps %xmm3, %xmm6, %xmm2 # xmm2 = (xmm6 * xmm3) + xmm2 vmulps %xmm7, %xmm13, %xmm4 vfnmadd231ps %xmm9, %xmm13, %xmm4 # xmm4 = -(xmm13 * xmm9) + xmm4 vfmadd231ps %xmm8, %xmm3, %xmm4 # xmm4 = (xmm3 * xmm8) + xmm4 vfnmadd231ps %xmm6, %xmm3, %xmm4 # xmm4 = -(xmm3 * xmm6) + xmm4 vxorps %xmm6, %xmm6, %xmm6 vfmadd213ps %xmm11, %xmm5, %xmm6 # xmm6 = (xmm5 * xmm6) + xmm11 vfmadd231ps %xmm3, %xmm12, %xmm6 # xmm6 = (xmm12 * xmm3) + xmm6 vfmadd231ps %xmm3, %xmm10, %xmm6 # xmm6 = (xmm10 * xmm3) + xmm6 vmulps %xmm13, %xmm11, %xmm8 vfnmadd231ps %xmm5, %xmm13, %xmm8 # xmm8 = -(xmm13 * xmm5) + xmm8 vfmadd231ps %xmm12, %xmm3, %xmm8 # xmm8 = (xmm3 * xmm12) + xmm8 vfnmadd231ps %xmm10, %xmm3, %xmm8 # xmm8 = -(xmm3 * xmm10) + xmm8 vshufps $0xc9, %xmm0, %xmm0, %xmm5 # xmm5 = xmm0[1,2,0,3] vshufps $0xc9, %xmm15, %xmm15, %xmm7 # xmm7 = xmm15[1,2,0,3] vmulps %xmm7, %xmm0, %xmm7 vfmsub231ps %xmm15, %xmm5, %xmm7 # xmm7 = (xmm5 * xmm15) - xmm7 vshufps $0xc9, %xmm7, %xmm7, %xmm7 # xmm7 = xmm7[1,2,0,3] vshufps $0xc9, %xmm14, %xmm14, %xmm9 # xmm9 = xmm14[1,2,0,3] vmulps %xmm0, %xmm9, %xmm9 vfmsub231ps %xmm14, %xmm5, %xmm9 # xmm9 = (xmm5 * xmm14) - xmm9 vshufps $0xc9, %xmm9, %xmm9, %xmm9 # xmm9 = xmm9[1,2,0,3] vshufps $0xc9, %xmm4, %xmm4, %xmm10 # xmm10 = xmm4[1,2,0,3] vshufps $0xc9, %xmm6, %xmm6, %xmm5 # xmm5 = xmm6[1,2,0,3] vmulps %xmm5, %xmm4, %xmm5 vfmsub231ps %xmm6, %xmm10, %xmm5 # xmm5 = (xmm10 * xmm6) - xmm5 vshufps $0xc9, %xmm5, %xmm5, %xmm5 # xmm5 = xmm5[1,2,0,3] vshufps $0xc9, %xmm8, %xmm8, %xmm6 # xmm6 = xmm8[1,2,0,3] vmulps %xmm6, %xmm4, %xmm6 vfmsub231ps %xmm8, %xmm10, %xmm6 # xmm6 = (xmm10 * xmm8) - xmm6 vshufps $0xc9, %xmm6, %xmm6, %xmm6 # xmm6 = xmm6[1,2,0,3] vdpps $0x7f, %xmm7, %xmm7, %xmm8 vmovss %xmm8, %xmm3, %xmm10 # xmm10 = xmm8[0],xmm3[1,2,3] vrsqrt14ss %xmm10, %xmm3, %xmm11 vmovss 0x51cfd(%rip), %xmm12 # 0x1eec718 vmulss %xmm12, %xmm11, %xmm13 vmovss 0x52158(%rip), %xmm14 # 0x1eecb80 vmulss %xmm14, %xmm8, %xmm15 vmulss %xmm11, %xmm15, %xmm15 vmulss %xmm11, %xmm11, %xmm11 vmulss %xmm11, %xmm15, %xmm11 vsubss %xmm11, %xmm13, %xmm11 vbroadcastss %xmm11, %xmm11 vmulps %xmm7, %xmm11, %xmm13 vdpps $0x7f, %xmm9, %xmm7, %xmm15 vbroadcastss %xmm8, %xmm16 vmulps %xmm9, %xmm16, %xmm9 vbroadcastss %xmm15, %xmm15 vmulps %xmm7, %xmm15, %xmm7 vsubps %xmm7, %xmm9, %xmm7 vrcp14ss %xmm10, %xmm3, %xmm9 vmovss 0x56581(%rip), %xmm10 # 0x1ef0ff8 vfnmadd213ss %xmm10, %xmm9, %xmm8 # xmm8 = -(xmm9 * xmm8) + xmm10 vmulss %xmm8, %xmm9, %xmm8 vdpps $0x7f, %xmm5, %xmm5, %xmm9 vbroadcastss %xmm8, %xmm8 vmulps %xmm7, %xmm8, %xmm7 vmulps %xmm7, %xmm11, %xmm7 vmovss %xmm9, %xmm3, %xmm8 # xmm8 = xmm9[0],xmm3[1,2,3] vrsqrt14ss %xmm8, %xmm3, %xmm11 vmulss %xmm12, %xmm11, %xmm12 vmulss %xmm14, %xmm9, %xmm14 vmulss %xmm11, %xmm14, %xmm14 vmulss %xmm11, %xmm11, %xmm11 vmulss %xmm11, %xmm14, %xmm11 vsubss %xmm11, %xmm12, %xmm11 vbroadcastss %xmm11, %xmm11 vmulps %xmm5, %xmm11, %xmm12 vdpps $0x7f, %xmm6, %xmm5, %xmm14 vbroadcastss %xmm9, %xmm15 vmulps %xmm6, %xmm15, %xmm6 vbroadcastss %xmm14, %xmm14 vmulps %xmm5, %xmm14, %xmm5 vsubps %xmm5, %xmm6, %xmm5 vrcp14ss %xmm8, %xmm3, %xmm3 vfnmadd213ss %xmm10, %xmm3, %xmm9 # xmm9 = -(xmm3 * xmm9) + xmm10 vmulss %xmm3, %xmm9, %xmm3 vbroadcastss %xmm3, %xmm3 vmulps %xmm3, %xmm5, %xmm3 vmulps %xmm3, %xmm11, %xmm3 vshufps $0xff, %xmm1, %xmm1, %xmm5 # xmm5 = xmm1[3,3,3,3] vmulps %xmm5, %xmm13, %xmm6 vsubps %xmm6, %xmm1, %xmm8 vshufps $0xff, %xmm0, %xmm0, %xmm9 # xmm9 = xmm0[3,3,3,3] vmulps %xmm13, %xmm9, %xmm9 vmulps %xmm7, %xmm5, %xmm5 vaddps %xmm5, %xmm9, %xmm5 vsubps %xmm5, %xmm0, %xmm7 vaddps %xmm6, %xmm1, %xmm9 vaddps %xmm5, %xmm0, %xmm0 vshufps $0xff, %xmm2, %xmm2, %xmm1 # xmm1 = xmm2[3,3,3,3] vmulps %xmm1, %xmm12, %xmm5 vsubps %xmm5, %xmm2, %xmm10 vshufps $0xff, %xmm4, %xmm4, %xmm6 # xmm6 = xmm4[3,3,3,3] vmulps %xmm6, %xmm12, %xmm6 vmulps %xmm3, %xmm1, %xmm1 vaddps %xmm1, %xmm6, %xmm3 vsubps %xmm3, %xmm4, %xmm6 vaddps %xmm5, %xmm2, %xmm1 vaddps %xmm3, %xmm4, %xmm2 vbroadcastss 0x57360(%rip), %xmm3 # 0x1ef1ebc vmulps %xmm3, %xmm7, %xmm4 vaddps %xmm4, %xmm8, %xmm4 vmulps %xmm3, %xmm6, %xmm5 vsubps %xmm5, %xmm10, %xmm11 vmulps %xmm3, %xmm0, %xmm0 vaddps %xmm0, %xmm9, %xmm12 vmulps %xmm3, %xmm2, %xmm0 vsubps %xmm0, %xmm1, %xmm13 vbroadcastss %xmm8, %xmm0 vshufps $0x55, %xmm8, %xmm8, %xmm2 # xmm2 = xmm8[1,1,1,1] vmovaps (%rdx), %xmm5 vmovaps 0x10(%rdx), %xmm7 vmovaps 0x20(%rdx), %xmm6 vshufps $0xaa, %xmm8, %xmm8, %xmm3 # xmm3 = xmm8[2,2,2,2] vmulps %xmm3, %xmm6, %xmm3 vfmadd231ps %xmm2, %xmm7, %xmm3 # xmm3 = (xmm7 * xmm2) + xmm3 vfmadd231ps %xmm0, %xmm5, %xmm3 # xmm3 = (xmm5 * xmm0) + xmm3 vbroadcastss %xmm4, %xmm0 vshufps $0x55, %xmm4, %xmm4, %xmm2 # xmm2 = xmm4[1,1,1,1] vshufps $0xaa, %xmm4, %xmm4, %xmm4 # xmm4 = xmm4[2,2,2,2] vmulps %xmm4, %xmm6, %xmm8 vfmadd231ps %xmm2, %xmm7, %xmm8 # xmm8 = (xmm7 * xmm2) + xmm8 vfmadd231ps %xmm0, %xmm5, %xmm8 # xmm8 = (xmm5 * xmm0) + xmm8 vbroadcastss %xmm11, %xmm0 vshufps $0x55, %xmm11, %xmm11, %xmm2 # xmm2 = xmm11[1,1,1,1] vshufps $0xaa, %xmm11, %xmm11, %xmm4 # xmm4 = xmm11[2,2,2,2] vmulps %xmm4, %xmm6, %xmm14 vfmadd231ps %xmm2, %xmm7, %xmm14 # xmm14 = (xmm7 * xmm2) + xmm14 vfmadd231ps %xmm0, %xmm5, %xmm14 # xmm14 = (xmm5 * xmm0) + xmm14 vbroadcastss %xmm10, %xmm0 vshufps $0x55, %xmm10, %xmm10, %xmm2 # xmm2 = xmm10[1,1,1,1] vshufps $0xaa, %xmm10, %xmm10, %xmm4 # xmm4 = xmm10[2,2,2,2] vmulps %xmm4, %xmm6, %xmm15 vfmadd231ps %xmm2, %xmm7, %xmm15 # xmm15 = (xmm7 * xmm2) + xmm15 vfmadd231ps %xmm0, %xmm5, %xmm15 # xmm15 = (xmm5 * xmm0) + xmm15 vbroadcastss %xmm9, %xmm2 vshufps $0x55, %xmm9, %xmm9, %xmm4 # xmm4 = xmm9[1,1,1,1] vshufps $0xaa, %xmm9, %xmm9, %xmm0 # xmm0 = xmm9[2,2,2,2] vmulps %xmm0, %xmm6, %xmm22 vfmadd231ps %xmm4, %xmm7, %xmm22 # xmm22 = (xmm7 * xmm4) + xmm22 vfmadd231ps %xmm2, %xmm5, %xmm22 # xmm22 = (xmm5 * xmm2) + xmm22 vbroadcastss %xmm12, %xmm4 vshufps $0x55, %xmm12, %xmm12, %xmm9 # xmm9 = xmm12[1,1,1,1] vshufps $0xaa, %xmm12, %xmm12, %xmm2 # xmm2 = xmm12[2,2,2,2] vmulps %xmm2, %xmm6, %xmm20 vfmadd231ps %xmm9, %xmm7, %xmm20 # xmm20 = (xmm7 * xmm9) + xmm20 vfmadd231ps %xmm4, %xmm5, %xmm20 # xmm20 = (xmm5 * xmm4) + xmm20 vbroadcastss %xmm13, %xmm9 vshufps $0x55, %xmm13, %xmm13, %xmm10 # xmm10 = xmm13[1,1,1,1] vshufps $0xaa, %xmm13, %xmm13, %xmm4 # xmm4 = xmm13[2,2,2,2] vmulps %xmm4, %xmm6, %xmm2 vfmadd231ps %xmm10, %xmm7, %xmm2 # xmm2 = (xmm7 * xmm10) + xmm2 vfmadd231ps %xmm9, %xmm5, %xmm2 # xmm2 = (xmm5 * xmm9) + xmm2 vbroadcastss %xmm1, %xmm9 vshufps $0x55, %xmm1, %xmm1, %xmm10 # xmm10 = xmm1[1,1,1,1] vshufps $0xaa, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,2,2,2] vmulps %xmm1, %xmm6, %xmm6 vfmadd231ps %xmm10, %xmm7, %xmm6 # xmm6 = (xmm7 * xmm10) + xmm6 vfmadd231ps %xmm9, %xmm5, %xmm6 # xmm6 = (xmm5 * xmm9) + xmm6 vbroadcastss 0x77a74(%rip), %ymm29 # 0x1f12704 vbroadcastss %xmm3, %ymm1 vpermps %ymm3, %ymm29, %ymm5 vbroadcastss 0x86237(%rip), %ymm30 # 0x1f20edc vpermps %ymm3, %ymm30, %ymm3 vbroadcastss %xmm8, %ymm17 vpermps %ymm8, %ymm29, %ymm4 vpermps %ymm8, %ymm30, %ymm0 vbroadcastss %xmm14, %ymm23 vpermps %ymm14, %ymm29, %ymm24 vpermps %ymm14, %ymm30, %ymm25 vbroadcastss %xmm15, %ymm26 vpermps %ymm15, %ymm29, %ymm27 leaq 0x28c602(%rip), %rcx # 0x21272e4 vmovups 0x1dc(%rcx), %ymm31 vmovups 0x660(%rcx), %ymm10 vpermps %ymm15, %ymm30, %ymm28 vmovups 0xae4(%rcx), %ymm13 vmovups 0xf68(%rcx), %ymm16 vmulps %ymm16, %ymm26, %ymm14 vmulps %ymm16, %ymm27, %ymm18 vmulps %ymm16, %ymm28, %ymm21 vfmadd231ps %ymm23, %ymm13, %ymm14 # ymm14 = (ymm13 * ymm23) + ymm14 vfmadd231ps %ymm24, %ymm13, %ymm18 # ymm18 = (ymm13 * ymm24) + ymm18 vfmadd231ps %ymm25, %ymm13, %ymm21 # ymm21 = (ymm13 * ymm25) + ymm21 vfmadd231ps %ymm17, %ymm10, %ymm14 # ymm14 = (ymm10 * ymm17) + ymm14 vfmadd231ps %ymm4, %ymm10, %ymm18 # ymm18 = (ymm10 * ymm4) + ymm18 vfmadd231ps %ymm0, %ymm10, %ymm21 # ymm21 = (ymm10 * ymm0) + ymm21 vfmadd231ps %ymm1, %ymm31, %ymm14 # ymm14 = (ymm31 * ymm1) + ymm14 vfmadd231ps %ymm5, %ymm31, %ymm18 # ymm18 = (ymm31 * ymm5) + ymm18 vmovups 0x13ec(%rcx), %ymm8 vmovups 0x1870(%rcx), %ymm12 vmovups 0x1cf4(%rcx), %ymm15 vmovups 0x2178(%rcx), %ymm19 vfmadd231ps %ymm3, %ymm31, %ymm21 # ymm21 = (ymm31 * ymm3) + ymm21 vmulps %ymm19, %ymm26, %ymm26 vmulps %ymm19, %ymm27, %ymm27 vmulps %ymm19, %ymm28, %ymm28 vfmadd231ps %ymm23, %ymm15, %ymm26 # ymm26 = (ymm15 * ymm23) + ymm26 vfmadd231ps %ymm24, %ymm15, %ymm27 # ymm27 = (ymm15 * ymm24) + ymm27 vfmadd231ps %ymm25, %ymm15, %ymm28 # ymm28 = (ymm15 * ymm25) + ymm28 vfmadd231ps %ymm17, %ymm12, %ymm26 # ymm26 = (ymm12 * ymm17) + ymm26 vfmadd231ps %ymm4, %ymm12, %ymm27 # ymm27 = (ymm12 * ymm4) + ymm27 vfmadd231ps %ymm0, %ymm12, %ymm28 # ymm28 = (ymm12 * ymm0) + ymm28 vfmadd231ps %ymm1, %ymm8, %ymm26 # ymm26 = (ymm8 * ymm1) + ymm26 vfmadd231ps %ymm5, %ymm8, %ymm27 # ymm27 = (ymm8 * ymm5) + ymm27 vfmadd231ps %ymm3, %ymm8, %ymm28 # ymm28 = (ymm8 * ymm3) + ymm28 vbroadcastss 0x86709(%rip), %ymm0 # 0x1f214d0 vmulps %ymm0, %ymm26, %ymm3 vmulps %ymm0, %ymm27, %ymm5 vmulps %ymm0, %ymm28, %ymm9 vxorps %xmm4, %xmm4, %xmm4 vblendps $0x1, %ymm4, %ymm3, %ymm11 # ymm11 = ymm4[0],ymm3[1,2,3,4,5,6,7] vblendps $0x1, %ymm4, %ymm5, %ymm7 # ymm7 = ymm4[0],ymm5[1,2,3,4,5,6,7] vblendps $0x1, %ymm4, %ymm9, %ymm0 # ymm0 = ymm4[0],ymm9[1,2,3,4,5,6,7] vsubps %ymm11, %ymm14, %ymm11 vsubps %ymm7, %ymm18, %ymm24 vsubps %ymm0, %ymm21, %ymm0 vblendps $0x80, %ymm4, %ymm3, %ymm3 # ymm3 = ymm3[0,1,2,3,4,5,6],ymm4[7] vblendps $0x80, %ymm4, %ymm5, %ymm5 # ymm5 = ymm5[0,1,2,3,4,5,6],ymm4[7] vblendps $0x80, %ymm4, %ymm9, %ymm7 # ymm7 = ymm9[0,1,2,3,4,5,6],ymm4[7] vaddps %ymm3, %ymm14, %ymm9 vaddps %ymm5, %ymm18, %ymm25 vaddps %ymm7, %ymm21, %ymm26 vbroadcastss 0x50bf5(%rip), %ymm7 # 0x1eeba20 vminps %ymm14, %ymm7, %ymm3 vminps %ymm18, %ymm7, %ymm17 vminps %ymm21, %ymm7, %ymm23 vminps %ymm9, %ymm11, %ymm5 vminps %ymm5, %ymm3, %ymm5 vminps %ymm25, %ymm24, %ymm3 vminps %ymm3, %ymm17, %ymm3 vminps %ymm26, %ymm0, %ymm17 vminps %ymm17, %ymm23, %ymm17 vbroadcastss 0x51d1d(%rip), %ymm23 # 0x1eecb84 vmaxps %ymm14, %ymm23, %ymm14 vmaxps %ymm18, %ymm23, %ymm18 vmaxps %ymm21, %ymm23, %ymm27 vmaxps %ymm9, %ymm11, %ymm9 vmaxps %ymm9, %ymm14, %ymm21 vmaxps %ymm25, %ymm24, %ymm9 vmaxps %ymm9, %ymm18, %ymm18 vmaxps %ymm26, %ymm0, %ymm0 vmaxps %ymm0, %ymm27, %ymm14 vbroadcastss %xmm22, %ymm9 vpermps %ymm22, %ymm29, %ymm11 vpermps %ymm22, %ymm30, %ymm22 vbroadcastss %xmm20, %ymm24 vpermps %ymm20, %ymm29, %ymm25 vpermps %ymm20, %ymm30, %ymm26 vbroadcastss %xmm2, %ymm27 vpermps %ymm2, %ymm29, %ymm28 vpermps %ymm2, %ymm30, %ymm20 vbroadcastss %xmm6, %ymm1 vpermps %ymm6, %ymm29, %ymm29 vpermps %ymm6, %ymm30, %ymm30 vmulps %ymm16, %ymm1, %ymm0 vmulps %ymm16, %ymm29, %ymm2 vmulps %ymm16, %ymm30, %ymm6 vfmadd231ps %ymm27, %ymm13, %ymm0 # ymm0 = (ymm13 * ymm27) + ymm0 vfmadd231ps %ymm28, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm28) + ymm2 vfmadd231ps %ymm13, %ymm20, %ymm6 # ymm6 = (ymm20 * ymm13) + ymm6 vfmadd231ps %ymm24, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm24) + ymm0 vfmadd231ps %ymm25, %ymm10, %ymm2 # ymm2 = (ymm10 * ymm25) + ymm2 vfmadd231ps %ymm10, %ymm26, %ymm6 # ymm6 = (ymm26 * ymm10) + ymm6 vfmadd231ps %ymm9, %ymm31, %ymm0 # ymm0 = (ymm31 * ymm9) + ymm0 vfmadd231ps %ymm11, %ymm31, %ymm2 # ymm2 = (ymm31 * ymm11) + ymm2 vfmadd231ps %ymm31, %ymm22, %ymm6 # ymm6 = (ymm22 * ymm31) + ymm6 vmulps %ymm19, %ymm1, %ymm1 vmulps %ymm19, %ymm29, %ymm10 vmulps %ymm19, %ymm30, %ymm13 vfmadd231ps %ymm27, %ymm15, %ymm1 # ymm1 = (ymm15 * ymm27) + ymm1 vfmadd231ps %ymm28, %ymm15, %ymm10 # ymm10 = (ymm15 * ymm28) + ymm10 vfmadd231ps %ymm20, %ymm15, %ymm13 # ymm13 = (ymm15 * ymm20) + ymm13 vfmadd231ps %ymm24, %ymm12, %ymm1 # ymm1 = (ymm12 * ymm24) + ymm1 vfmadd231ps %ymm25, %ymm12, %ymm10 # ymm10 = (ymm12 * ymm25) + ymm10 vfmadd231ps %ymm26, %ymm12, %ymm13 # ymm13 = (ymm12 * ymm26) + ymm13 vfmadd231ps %ymm9, %ymm8, %ymm1 # ymm1 = (ymm8 * ymm9) + ymm1 vfmadd231ps %ymm11, %ymm8, %ymm10 # ymm10 = (ymm8 * ymm11) + ymm10 vfmadd231ps %ymm22, %ymm8, %ymm13 # ymm13 = (ymm8 * ymm22) + ymm13 vbroadcastss 0x86556(%rip), %ymm9 # 0x1f214d0 vmulps %ymm1, %ymm9, %ymm1 vmulps %ymm9, %ymm10, %ymm8 vmulps %ymm9, %ymm13, %ymm9 vblendps $0x1, %ymm4, %ymm1, %ymm10 # ymm10 = ymm4[0],ymm1[1,2,3,4,5,6,7] vblendps $0x1, %ymm4, %ymm8, %ymm11 # ymm11 = ymm4[0],ymm8[1,2,3,4,5,6,7] vblendps $0x1, %ymm4, %ymm9, %ymm12 # ymm12 = ymm4[0],ymm9[1,2,3,4,5,6,7] vsubps %ymm10, %ymm0, %ymm10 vsubps %ymm11, %ymm2, %ymm11 vsubps %ymm12, %ymm6, %ymm12 vblendps $0x80, %ymm4, %ymm1, %ymm1 # ymm1 = ymm1[0,1,2,3,4,5,6],ymm4[7] vblendps $0x80, %ymm4, %ymm8, %ymm8 # ymm8 = ymm8[0,1,2,3,4,5,6],ymm4[7] vblendps $0x80, %ymm4, %ymm9, %ymm4 # ymm4 = ymm9[0,1,2,3,4,5,6],ymm4[7] vaddps %ymm1, %ymm0, %ymm1 vaddps %ymm2, %ymm8, %ymm8 vaddps %ymm4, %ymm6, %ymm9 vminps %ymm0, %ymm7, %ymm4 vminps %ymm2, %ymm7, %ymm13 vminps %ymm6, %ymm7, %ymm15 vminps %ymm1, %ymm10, %ymm7 vminps %ymm7, %ymm4, %ymm16 vminps %ymm8, %ymm11, %ymm4 vminps %ymm4, %ymm13, %ymm7 vminps %ymm9, %ymm12, %ymm4 vminps %ymm4, %ymm15, %ymm4 vmaxps %ymm0, %ymm23, %ymm0 vmaxps %ymm2, %ymm23, %ymm13 vmaxps %ymm6, %ymm23, %ymm6 vmaxps %ymm1, %ymm10, %ymm1 vmaxps %ymm1, %ymm0, %ymm2 vmaxps %ymm8, %ymm11, %ymm0 vmaxps %ymm0, %ymm13, %ymm1 vmaxps %ymm9, %ymm12, %ymm0 vmaxps %ymm0, %ymm6, %ymm0 vshufps $0xb1, %ymm21, %ymm21, %ymm6 # ymm6 = ymm21[1,0,3,2,5,4,7,6] vmaxps %ymm6, %ymm21, %ymm6 vshufpd $0x5, %ymm6, %ymm6, %ymm8 # ymm8 = ymm6[1,0,3,2] vmaxps %ymm8, %ymm6, %ymm6 vextractf128 $0x1, %ymm6, %xmm8 vmaxps %xmm8, %xmm6, %xmm6 vshufps $0xb1, %ymm18, %ymm18, %ymm8 # ymm8 = ymm18[1,0,3,2,5,4,7,6] vmaxps %ymm8, %ymm18, %ymm8 vshufpd $0x5, %ymm8, %ymm8, %ymm9 # ymm9 = ymm8[1,0,3,2] vmaxps %ymm9, %ymm8, %ymm8 vextractf128 $0x1, %ymm8, %xmm9 vmaxps %xmm9, %xmm8, %xmm8 vunpcklps %xmm8, %xmm6, %xmm6 # xmm6 = xmm6[0],xmm8[0],xmm6[1],xmm8[1] vshufps $0xb1, %ymm14, %ymm14, %ymm8 # ymm8 = ymm14[1,0,3,2,5,4,7,6] vmaxps %ymm8, %ymm14, %ymm8 vshufpd $0x5, %ymm8, %ymm8, %ymm9 # ymm9 = ymm8[1,0,3,2] vmaxps %ymm9, %ymm8, %ymm8 vextractf128 $0x1, %ymm8, %xmm9 vmaxps %xmm9, %xmm8, %xmm8 vinsertps $0x28, %xmm8, %xmm6, %xmm6 # xmm6 = xmm6[0,1],xmm8[0],zero vshufps $0xb1, %ymm5, %ymm5, %ymm8 # ymm8 = ymm5[1,0,3,2,5,4,7,6] vminps %ymm8, %ymm5, %ymm5 vshufpd $0x5, %ymm5, %ymm5, %ymm8 # ymm8 = ymm5[1,0,3,2] vminps %ymm8, %ymm5, %ymm5 vextractf128 $0x1, %ymm5, %xmm8 vminps %xmm8, %xmm5, %xmm5 vshufps $0xb1, %ymm3, %ymm3, %ymm8 # ymm8 = ymm3[1,0,3,2,5,4,7,6] vminps %ymm8, %ymm3, %ymm3 vshufpd $0x5, %ymm3, %ymm3, %ymm8 # ymm8 = ymm3[1,0,3,2] vminps %ymm8, %ymm3, %ymm3 vextractf128 $0x1, %ymm3, %xmm8 vminps %xmm8, %xmm3, %xmm3 vunpcklps %xmm3, %xmm5, %xmm3 # xmm3 = xmm5[0],xmm3[0],xmm5[1],xmm3[1] vshufps $0xb1, %ymm17, %ymm17, %ymm5 # ymm5 = ymm17[1,0,3,2,5,4,7,6] vminps %ymm5, %ymm17, %ymm5 vshufpd $0x5, %ymm5, %ymm5, %ymm8 # ymm8 = ymm5[1,0,3,2] vminps %ymm8, %ymm5, %ymm5 vextractf128 $0x1, %ymm5, %xmm8 vminps %xmm8, %xmm5, %xmm5 vinsertps $0x28, %xmm5, %xmm3, %xmm3 # xmm3 = xmm3[0,1],xmm5[0],zero vshufps $0xb1, %ymm16, %ymm16, %ymm5 # ymm5 = ymm16[1,0,3,2,5,4,7,6] vminps %ymm5, %ymm16, %ymm5 vshufpd $0x5, %ymm5, %ymm5, %ymm8 # ymm8 = ymm5[1,0,3,2] vminps %ymm8, %ymm5, %ymm5 vextractf128 $0x1, %ymm5, %xmm8 vminps %xmm8, %xmm5, %xmm5 vshufps $0xb1, %ymm7, %ymm7, %ymm8 # ymm8 = ymm7[1,0,3,2,5,4,7,6] vminps %ymm8, %ymm7, %ymm7 vshufpd $0x5, %ymm7, %ymm7, %ymm8 # ymm8 = ymm7[1,0,3,2] vminps %ymm8, %ymm7, %ymm7 vextractf128 $0x1, %ymm7, %xmm8 vminps %xmm8, %xmm7, %xmm7 vunpcklps %xmm7, %xmm5, %xmm5 # xmm5 = xmm5[0],xmm7[0],xmm5[1],xmm7[1] vshufps $0xb1, %ymm4, %ymm4, %ymm7 # ymm7 = ymm4[1,0,3,2,5,4,7,6] vminps %ymm7, %ymm4, %ymm4 vshufpd $0x5, %ymm4, %ymm4, %ymm7 # ymm7 = ymm4[1,0,3,2] vminps %ymm7, %ymm4, %ymm4 vextractf128 $0x1, %ymm4, %xmm7 vminps %xmm7, %xmm4, %xmm4 vinsertps $0x28, %xmm4, %xmm5, %xmm4 # xmm4 = xmm5[0,1],xmm4[0],zero vminps %xmm4, %xmm3, %xmm3 vshufps $0xb1, %ymm2, %ymm2, %ymm4 # ymm4 = ymm2[1,0,3,2,5,4,7,6] vmaxps %ymm4, %ymm2, %ymm2 vshufpd $0x5, %ymm2, %ymm2, %ymm4 # ymm4 = ymm2[1,0,3,2] vmaxps %ymm4, %ymm2, %ymm2 vextractf128 $0x1, %ymm2, %xmm4 vmaxps %xmm4, %xmm2, %xmm2 vshufps $0xb1, %ymm1, %ymm1, %ymm4 # ymm4 = ymm1[1,0,3,2,5,4,7,6] vmaxps %ymm4, %ymm1, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm4 # ymm4 = ymm1[1,0,3,2] vmaxps %ymm4, %ymm1, %ymm1 vextractf128 $0x1, %ymm1, %xmm4 vmaxps %xmm4, %xmm1, %xmm1 vunpcklps %xmm1, %xmm2, %xmm1 # xmm1 = xmm2[0],xmm1[0],xmm2[1],xmm1[1] vshufps $0xb1, %ymm0, %ymm0, %ymm2 # ymm2 = ymm0[1,0,3,2,5,4,7,6] vmaxps %ymm2, %ymm0, %ymm0 vshufpd $0x5, %ymm0, %ymm0, %ymm2 # ymm2 = ymm0[1,0,3,2] vmaxps %ymm2, %ymm0, %ymm0 vextractf128 $0x1, %ymm0, %xmm2 vmaxps %xmm2, %xmm0, %xmm0 vinsertps $0x28, %xmm0, %xmm1, %xmm0 # xmm0 = xmm1[0,1],xmm0[0],zero vmaxps %xmm0, %xmm6, %xmm0 vbroadcastss 0x85cf8(%rip), %xmm1 # 0x1f20ec4 vandps %xmm1, %xmm3, %xmm2 vandps %xmm1, %xmm0, %xmm1 vmaxps %xmm1, %xmm2, %xmm1 vmovshdup %xmm1, %xmm2 # xmm2 = xmm1[1,1,3,3] vmaxss %xmm1, %xmm2, %xmm2 vshufpd $0x1, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[1,0] vmaxss %xmm2, %xmm1, %xmm1 vmulss 0x55df3(%rip), %xmm1, %xmm1 # 0x1ef0fe4 vbroadcastss %xmm1, %xmm1 vsubps %xmm1, %xmm3, %xmm2 vaddps %xmm1, %xmm0, %xmm0 vmovaps %xmm2, (%rax) vmovaps %xmm0, 0x10(%rax) popq %rbx popq %r14 vzeroupper retq
/embree[P]embree/kernels/common/scene_curves.cpp
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)2, embree::avx512::HermiteCurveGeometryInterface, embree::HermiteCurveT>::vbounds(embree::Vec3fa const&, float, float, embree::LinearSpace3<embree::Vec3fa> const&, unsigned long, unsigned long) const
size_t CurveGeometry::getGeometryDataDeviceByteSize() const { size_t byte_size = sizeof(CurveGeometry); if (vertices.size() > 0) byte_size += numTimeSteps * sizeof(BufferView<Vec3ff>); if (normals.size() > 0) byte_size += numTimeSteps * sizeof(BufferView<Vec3fa>); if (tangents.size() > 0) byte_size += numTimeSteps * sizeof(BufferView<Vec3ff>); if (dnormals.size() > 0) byte_size += numTimeSteps * sizeof(BufferView<Vec3fa>); return 16 * ((byte_size + 15) / 16); }
pushq %r15 pushq %r14 pushq %r13 pushq %r12 pushq %rbx imulq 0x68(%rsi), %r8 movq 0x58(%rsi), %rax movq 0x188(%rsi), %r10 movl (%rax,%r8), %r8d imulq $0x38, %r9, %r9 movq (%r10,%r9), %r11 movq 0x10(%r10,%r9), %rbx movq %rbx, %r14 imulq %r8, %r14 vmovaps (%r11,%r14), %xmm1 leal 0x1(%r8), %r10d imulq %r10, %rbx vmovaps (%r11,%rbx), %xmm2 movq 0x1c8(%rsi), %rax movq (%rax,%r9), %r15 movq 0x10(%rax,%r9), %r12 movq %r12, %r13 imulq %r8, %r13 vmovaps (%r15,%r13), %xmm3 imulq %r10, %r12 vmovaps (%r15,%r12), %xmm4 movq %rdi, %rax vmovss 0x24c(%rsi), %xmm5 vmulss 0xc(%r11,%r14), %xmm5, %xmm6 vinsertps $0x30, %xmm6, %xmm1, %xmm7 # xmm7 = xmm1[0,1,2],xmm6[0] vmulss 0xc(%r11,%rbx), %xmm5, %xmm1 vinsertps $0x30, %xmm1, %xmm2, %xmm8 # xmm8 = xmm2[0,1,2],xmm1[0] vmulss 0xc(%r15,%r13), %xmm5, %xmm1 vinsertps $0x30, %xmm1, %xmm3, %xmm9 # xmm9 = xmm3[0,1,2],xmm1[0] vmulss 0xc(%r15,%r12), %xmm5, %xmm1 vinsertps $0x30, %xmm1, %xmm4, %xmm10 # xmm10 = xmm4[0,1,2],xmm1[0] vbroadcastss 0xc21aa(%rip), %xmm6 # 0x1f5d46c vfnmadd213ps %xmm7, %xmm6, %xmm9 # xmm9 = -(xmm6 * xmm9) + xmm7 movq 0x1a8(%rsi), %rdi movq (%rdi,%r9), %r11 movq 0x10(%rdi,%r9), %rdi movq %rdi, %rbx imulq %r8, %rbx vmovups (%r11,%rbx), %xmm11 vfmadd213ps %xmm8, %xmm6, %xmm10 # xmm10 = (xmm6 * xmm10) + xmm8 imulq %r10, %rdi vmovups (%r11,%rdi), %xmm12 movq 0x1e8(%rsi), %rsi movq (%rsi,%r9), %rdi movq 0x10(%rsi,%r9), %rsi imulq %rsi, %r8 imulq %r10, %rsi vmovups (%rdi,%r8), %xmm13 vfnmadd132ps %xmm6, %xmm11, %xmm13 # xmm13 = -(xmm13 * xmm6) + xmm11 vfmadd132ps (%rdi,%rsi), %xmm12, %xmm6 # xmm6 = (xmm6 * mem) + xmm12 vxorps %xmm4, %xmm4, %xmm4 vmulps %xmm4, %xmm8, %xmm1 vfmadd231ps %xmm4, %xmm10, %xmm1 # xmm1 = (xmm10 * xmm4) + xmm1 vxorps %xmm2, %xmm2, %xmm2 vfmadd213ps %xmm1, %xmm9, %xmm2 # xmm2 = (xmm9 * xmm2) + xmm1 vaddps %xmm2, %xmm7, %xmm17 vbroadcastss 0x55cab(%rip), %xmm14 # 0x1ef0fec vfmadd231ps %xmm14, %xmm9, %xmm1 # xmm1 = (xmm9 * xmm14) + xmm1 vfnmadd231ps %xmm14, %xmm7, %xmm1 # xmm1 = -(xmm7 * xmm14) + xmm1 vmulps %xmm4, %xmm12, %xmm15 vfmadd231ps %xmm4, %xmm6, %xmm15 # xmm15 = (xmm6 * xmm4) + xmm15 vxorps %xmm3, %xmm3, %xmm3 vfmadd213ps %xmm15, %xmm13, %xmm3 # xmm3 = (xmm13 * xmm3) + xmm15 vaddps %xmm3, %xmm11, %xmm16 vfmadd231ps %xmm14, %xmm13, %xmm15 # xmm15 = (xmm13 * xmm14) + xmm15 vfnmadd231ps %xmm14, %xmm11, %xmm15 # xmm15 = -(xmm11 * xmm14) + xmm15 vxorps %xmm3, %xmm3, %xmm3 vfmadd213ps %xmm8, %xmm10, %xmm3 # xmm3 = (xmm10 * xmm3) + xmm8 vfmadd231ps %xmm4, %xmm9, %xmm3 # xmm3 = (xmm9 * xmm4) + xmm3 vfmadd231ps %xmm4, %xmm7, %xmm3 # xmm3 = (xmm7 * xmm4) + xmm3 vmulps %xmm14, %xmm8, %xmm5 vfnmadd231ps %xmm10, %xmm14, %xmm5 # xmm5 = -(xmm14 * xmm10) + xmm5 vfmadd231ps %xmm9, %xmm4, %xmm5 # xmm5 = (xmm4 * xmm9) + xmm5 vfnmadd231ps %xmm7, %xmm4, %xmm5 # xmm5 = -(xmm4 * xmm7) + xmm5 vxorps %xmm7, %xmm7, %xmm7 vfmadd213ps %xmm12, %xmm6, %xmm7 # xmm7 = (xmm6 * xmm7) + xmm12 vfmadd231ps %xmm4, %xmm13, %xmm7 # xmm7 = (xmm13 * xmm4) + xmm7 vfmadd231ps %xmm4, %xmm11, %xmm7 # xmm7 = (xmm11 * xmm4) + xmm7 vmulps %xmm14, %xmm12, %xmm10 vfnmadd231ps %xmm6, %xmm14, %xmm10 # xmm10 = -(xmm14 * xmm6) + xmm10 vfmadd231ps %xmm13, %xmm4, %xmm10 # xmm10 = (xmm4 * xmm13) + xmm10 vfnmadd231ps %xmm11, %xmm4, %xmm10 # xmm10 = -(xmm4 * xmm11) + xmm10 vshufps $0xc9, %xmm1, %xmm1, %xmm6 # xmm6 = xmm1[1,2,0,3] vshufps $0xc9, %xmm16, %xmm16, %xmm8 # xmm8 = xmm16[1,2,0,3] vmulps %xmm1, %xmm8, %xmm8 vfmsub231ps %xmm16, %xmm6, %xmm8 # xmm8 = (xmm6 * xmm16) - xmm8 vshufps $0xc9, %xmm8, %xmm8, %xmm8 # xmm8 = xmm8[1,2,0,3] vshufps $0xc9, %xmm15, %xmm15, %xmm9 # xmm9 = xmm15[1,2,0,3] vmulps %xmm1, %xmm9, %xmm9 vfmsub231ps %xmm15, %xmm6, %xmm9 # xmm9 = (xmm6 * xmm15) - xmm9 vshufps $0xc9, %xmm9, %xmm9, %xmm9 # xmm9 = xmm9[1,2,0,3] vshufps $0xc9, %xmm5, %xmm5, %xmm11 # xmm11 = xmm5[1,2,0,3] vshufps $0xc9, %xmm7, %xmm7, %xmm6 # xmm6 = xmm7[1,2,0,3] vmulps %xmm6, %xmm5, %xmm6 vfmsub231ps %xmm7, %xmm11, %xmm6 # xmm6 = (xmm11 * xmm7) - xmm6 vshufps $0xc9, %xmm6, %xmm6, %xmm6 # xmm6 = xmm6[1,2,0,3] vshufps $0xc9, %xmm10, %xmm10, %xmm7 # xmm7 = xmm10[1,2,0,3] vdpps $0x7f, %xmm8, %xmm8, %xmm12 vmulps %xmm7, %xmm5, %xmm7 vfmsub231ps %xmm10, %xmm11, %xmm7 # xmm7 = (xmm11 * xmm10) - xmm7 vshufps $0xc9, %xmm7, %xmm7, %xmm7 # xmm7 = xmm7[1,2,0,3] vmovss %xmm12, %xmm4, %xmm10 # xmm10 = xmm12[0],xmm4[1,2,3] vmovss 0x512ed(%rip), %xmm11 # 0x1eec718 vrsqrt14ss %xmm10, %xmm4, %xmm13 vmulss %xmm11, %xmm13, %xmm14 vmovss 0x51742(%rip), %xmm15 # 0x1eecb80 vmulss %xmm15, %xmm12, %xmm16 vmulss %xmm13, %xmm16, %xmm16 vmulss %xmm13, %xmm13, %xmm13 vmulss %xmm13, %xmm16, %xmm13 vdpps $0x7f, %xmm9, %xmm8, %xmm2 vsubss %xmm13, %xmm14, %xmm13 vbroadcastss %xmm13, %xmm13 vmulps %xmm13, %xmm8, %xmm14 vbroadcastss %xmm12, %xmm16 vmulps %xmm9, %xmm16, %xmm9 vbroadcastss %xmm2, %xmm2 vmulps %xmm2, %xmm8, %xmm2 vsubps %xmm2, %xmm9, %xmm2 vrcp14ss %xmm10, %xmm4, %xmm8 vmovss 0x55b67(%rip), %xmm9 # 0x1ef0ff8 vfnmadd213ss %xmm9, %xmm8, %xmm12 # xmm12 = -(xmm8 * xmm12) + xmm9 vmulss %xmm12, %xmm8, %xmm8 vbroadcastss %xmm8, %xmm8 vdpps $0x7f, %xmm6, %xmm6, %xmm10 vmulps %xmm2, %xmm8, %xmm2 vmulps %xmm2, %xmm13, %xmm2 vmovss %xmm10, %xmm4, %xmm8 # xmm8 = xmm10[0],xmm4[1,2,3] vrsqrt14ss %xmm8, %xmm4, %xmm12 vmulss %xmm11, %xmm12, %xmm11 vmulss %xmm15, %xmm10, %xmm13 vmulss %xmm12, %xmm13, %xmm13 vmulss %xmm12, %xmm12, %xmm12 vmulss %xmm12, %xmm13, %xmm12 vsubss %xmm12, %xmm11, %xmm11 vbroadcastss %xmm11, %xmm11 vmulps %xmm6, %xmm11, %xmm12 vdpps $0x7f, %xmm7, %xmm6, %xmm13 vbroadcastss %xmm10, %xmm15 vmulps %xmm7, %xmm15, %xmm7 vbroadcastss %xmm13, %xmm13 vmulps %xmm6, %xmm13, %xmm6 vsubps %xmm6, %xmm7, %xmm6 vrcp14ss %xmm8, %xmm4, %xmm4 vfnmadd213ss %xmm9, %xmm4, %xmm10 # xmm10 = -(xmm4 * xmm10) + xmm9 vmulss %xmm4, %xmm10, %xmm4 vbroadcastss %xmm4, %xmm4 vmulps %xmm4, %xmm6, %xmm4 vmulps %xmm4, %xmm11, %xmm4 vshufps $0xff, %xmm17, %xmm17, %xmm6 # xmm6 = xmm17[3,3,3,3] vmulps %xmm6, %xmm14, %xmm7 vsubps %xmm7, %xmm17, %xmm8 vshufps $0xff, %xmm1, %xmm1, %xmm9 # xmm9 = xmm1[3,3,3,3] vmulps %xmm14, %xmm9, %xmm9 vmulps %xmm2, %xmm6, %xmm2 vaddps %xmm2, %xmm9, %xmm2 vsubps %xmm2, %xmm1, %xmm6 vaddps %xmm7, %xmm17, %xmm11 vaddps %xmm2, %xmm1, %xmm1 vshufps $0xff, %xmm3, %xmm3, %xmm2 # xmm2 = xmm3[3,3,3,3] vmulps %xmm2, %xmm12, %xmm7 vsubps %xmm7, %xmm3, %xmm13 vshufps $0xff, %xmm5, %xmm5, %xmm9 # xmm9 = xmm5[3,3,3,3] vmulps %xmm12, %xmm9, %xmm9 vmulps %xmm4, %xmm2, %xmm2 vaddps %xmm2, %xmm9, %xmm4 vsubps %xmm4, %xmm5, %xmm9 vaddps %xmm7, %xmm3, %xmm2 vbroadcastss 0x56943(%rip), %xmm3 # 0x1ef1ebc vaddps %xmm4, %xmm5, %xmm4 vmulps %xmm3, %xmm6, %xmm5 vaddps %xmm5, %xmm8, %xmm10 vmulps %xmm3, %xmm9, %xmm5 vsubps %xmm5, %xmm13, %xmm12 vmulps %xmm3, %xmm1, %xmm1 vaddps %xmm1, %xmm11, %xmm1 vmulps %xmm3, %xmm4, %xmm3 vsubps %xmm3, %xmm2, %xmm4 vmovaps (%rdx), %xmm6 vsubps %xmm6, %xmm8, %xmm3 vbroadcastss %xmm0, %xmm7 vmulps %xmm3, %xmm7, %xmm0 vbroadcastss %xmm0, %xmm14 vshufps $0x55, %xmm0, %xmm0, %xmm15 # xmm15 = xmm0[1,1,1,1] vmovaps (%rcx), %xmm5 vshufps $0xaa, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[2,2,2,2] vmovaps 0x10(%rcx), %xmm8 vmovaps 0x20(%rcx), %xmm9 vmulps %xmm0, %xmm9, %xmm3 vfmadd231ps %xmm15, %xmm8, %xmm3 # xmm3 = (xmm8 * xmm15) + xmm3 vfmadd231ps %xmm14, %xmm5, %xmm3 # xmm3 = (xmm5 * xmm14) + xmm3 vsubps %xmm6, %xmm10, %xmm0 vmulps %xmm0, %xmm7, %xmm0 vbroadcastss %xmm0, %xmm14 vshufps $0x55, %xmm0, %xmm0, %xmm15 # xmm15 = xmm0[1,1,1,1] vshufps $0xaa, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[2,2,2,2] vmulps %xmm0, %xmm9, %xmm10 vfmadd231ps %xmm15, %xmm8, %xmm10 # xmm10 = (xmm8 * xmm15) + xmm10 vfmadd231ps %xmm14, %xmm5, %xmm10 # xmm10 = (xmm5 * xmm14) + xmm10 vsubps %xmm6, %xmm12, %xmm0 vmulps %xmm0, %xmm7, %xmm0 vbroadcastss %xmm0, %xmm14 vshufps $0x55, %xmm0, %xmm0, %xmm15 # xmm15 = xmm0[1,1,1,1] vshufps $0xaa, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[2,2,2,2] vmulps %xmm0, %xmm9, %xmm12 vfmadd231ps %xmm15, %xmm8, %xmm12 # xmm12 = (xmm8 * xmm15) + xmm12 vfmadd231ps %xmm14, %xmm5, %xmm12 # xmm12 = (xmm5 * xmm14) + xmm12 vsubps %xmm6, %xmm13, %xmm0 vmulps %xmm0, %xmm7, %xmm0 vbroadcastss %xmm0, %xmm14 vshufps $0x55, %xmm0, %xmm0, %xmm15 # xmm15 = xmm0[1,1,1,1] vshufps $0xaa, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[2,2,2,2] vmulps %xmm0, %xmm9, %xmm13 vfmadd231ps %xmm15, %xmm8, %xmm13 # xmm13 = (xmm8 * xmm15) + xmm13 vfmadd231ps %xmm14, %xmm5, %xmm13 # xmm13 = (xmm5 * xmm14) + xmm13 vsubps %xmm6, %xmm11, %xmm0 vmulps %xmm0, %xmm7, %xmm0 vbroadcastss %xmm0, %xmm11 vshufps $0x55, %xmm0, %xmm0, %xmm14 # xmm14 = xmm0[1,1,1,1] vshufps $0xaa, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[2,2,2,2] vmulps %xmm0, %xmm9, %xmm31 vfmadd231ps %xmm14, %xmm8, %xmm31 # xmm31 = (xmm8 * xmm14) + xmm31 vfmadd231ps %xmm11, %xmm5, %xmm31 # xmm31 = (xmm5 * xmm11) + xmm31 vsubps %xmm6, %xmm1, %xmm1 vmulps %xmm1, %xmm7, %xmm1 vbroadcastss %xmm1, %xmm11 vshufps $0x55, %xmm1, %xmm1, %xmm14 # xmm14 = xmm1[1,1,1,1] vshufps $0xaa, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,2,2,2] vmulps %xmm1, %xmm9, %xmm22 vfmadd231ps %xmm14, %xmm8, %xmm22 # xmm22 = (xmm8 * xmm14) + xmm22 vfmadd231ps %xmm11, %xmm5, %xmm22 # xmm22 = (xmm5 * xmm11) + xmm22 vsubps %xmm6, %xmm4, %xmm4 vmulps %xmm4, %xmm7, %xmm4 vbroadcastss %xmm4, %xmm11 vshufps $0x55, %xmm4, %xmm4, %xmm14 # xmm14 = xmm4[1,1,1,1] vshufps $0xaa, %xmm4, %xmm4, %xmm4 # xmm4 = xmm4[2,2,2,2] vmulps %xmm4, %xmm9, %xmm20 vfmadd231ps %xmm14, %xmm8, %xmm20 # xmm20 = (xmm8 * xmm14) + xmm20 vfmadd231ps %xmm11, %xmm5, %xmm20 # xmm20 = (xmm5 * xmm11) + xmm20 vsubps %xmm6, %xmm2, %xmm2 vmulps %xmm2, %xmm7, %xmm2 vbroadcastss %xmm2, %xmm7 vshufps $0x55, %xmm2, %xmm2, %xmm11 # xmm11 = xmm2[1,1,1,1] vshufps $0xaa, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[2,2,2,2] vmulps %xmm2, %xmm9, %xmm6 vfmadd231ps %xmm11, %xmm8, %xmm6 # xmm6 = (xmm8 * xmm11) + xmm6 vfmadd231ps %xmm7, %xmm5, %xmm6 # xmm6 = (xmm5 * xmm7) + xmm6 vbroadcastss 0x77012(%rip), %ymm29 # 0x1f12704 vbroadcastss %xmm3, %ymm2 vpermps %ymm3, %ymm29, %ymm5 vbroadcastss 0x857d5(%rip), %ymm30 # 0x1f20edc vpermps %ymm3, %ymm30, %ymm3 vbroadcastss %xmm10, %ymm17 vpermps %ymm10, %ymm29, %ymm1 vpermps %ymm10, %ymm30, %ymm0 vbroadcastss %xmm12, %ymm23 vpermps %ymm12, %ymm29, %ymm24 vpermps %ymm12, %ymm30, %ymm25 vbroadcastss %xmm13, %ymm26 vpermps %ymm13, %ymm29, %ymm27 leaq 0x28bba0(%rip), %rcx # 0x21272e4 vmovups 0x1dc(%rcx), %ymm7 vmovups 0x660(%rcx), %ymm10 vpermps %ymm13, %ymm30, %ymm28 vmovups 0xae4(%rcx), %ymm13 vmovups 0xf68(%rcx), %ymm16 vmulps %ymm16, %ymm26, %ymm14 vmulps %ymm16, %ymm27, %ymm18 vmulps %ymm16, %ymm28, %ymm21 vfmadd231ps %ymm23, %ymm13, %ymm14 # ymm14 = (ymm13 * ymm23) + ymm14 vfmadd231ps %ymm24, %ymm13, %ymm18 # ymm18 = (ymm13 * ymm24) + ymm18 vfmadd231ps %ymm25, %ymm13, %ymm21 # ymm21 = (ymm13 * ymm25) + ymm21 vfmadd231ps %ymm17, %ymm10, %ymm14 # ymm14 = (ymm10 * ymm17) + ymm14 vfmadd231ps %ymm1, %ymm10, %ymm18 # ymm18 = (ymm10 * ymm1) + ymm18 vfmadd231ps %ymm0, %ymm10, %ymm21 # ymm21 = (ymm10 * ymm0) + ymm21 vfmadd231ps %ymm2, %ymm7, %ymm14 # ymm14 = (ymm7 * ymm2) + ymm14 vfmadd231ps %ymm5, %ymm7, %ymm18 # ymm18 = (ymm7 * ymm5) + ymm18 vmovups 0x13ec(%rcx), %ymm8 vmovups 0x1870(%rcx), %ymm12 vmovups 0x1cf4(%rcx), %ymm15 vmovups 0x2178(%rcx), %ymm19 vfmadd231ps %ymm3, %ymm7, %ymm21 # ymm21 = (ymm7 * ymm3) + ymm21 vmulps %ymm19, %ymm26, %ymm26 vmulps %ymm19, %ymm27, %ymm27 vmulps %ymm19, %ymm28, %ymm28 vfmadd231ps %ymm23, %ymm15, %ymm26 # ymm26 = (ymm15 * ymm23) + ymm26 vfmadd231ps %ymm24, %ymm15, %ymm27 # ymm27 = (ymm15 * ymm24) + ymm27 vfmadd231ps %ymm25, %ymm15, %ymm28 # ymm28 = (ymm15 * ymm25) + ymm28 vfmadd231ps %ymm17, %ymm12, %ymm26 # ymm26 = (ymm12 * ymm17) + ymm26 vfmadd231ps %ymm1, %ymm12, %ymm27 # ymm27 = (ymm12 * ymm1) + ymm27 vfmadd231ps %ymm0, %ymm12, %ymm28 # ymm28 = (ymm12 * ymm0) + ymm28 vfmadd231ps %ymm2, %ymm8, %ymm26 # ymm26 = (ymm8 * ymm2) + ymm26 vfmadd231ps %ymm5, %ymm8, %ymm27 # ymm27 = (ymm8 * ymm5) + ymm27 vfmadd231ps %ymm3, %ymm8, %ymm28 # ymm28 = (ymm8 * ymm3) + ymm28 vbroadcastss 0x85caa(%rip), %ymm0 # 0x1f214d0 vmulps %ymm0, %ymm26, %ymm3 vmulps %ymm0, %ymm27, %ymm5 vmulps %ymm0, %ymm28, %ymm9 vxorps %xmm4, %xmm4, %xmm4 vblendps $0x1, %ymm4, %ymm3, %ymm11 # ymm11 = ymm4[0],ymm3[1,2,3,4,5,6,7] vblendps $0x1, %ymm4, %ymm5, %ymm0 # ymm0 = ymm4[0],ymm5[1,2,3,4,5,6,7] vblendps $0x1, %ymm4, %ymm9, %ymm1 # ymm1 = ymm4[0],ymm9[1,2,3,4,5,6,7] vsubps %ymm11, %ymm14, %ymm11 vsubps %ymm0, %ymm18, %ymm0 vsubps %ymm1, %ymm21, %ymm1 vblendps $0x80, %ymm4, %ymm3, %ymm3 # ymm3 = ymm3[0,1,2,3,4,5,6],ymm4[7] vblendps $0x80, %ymm4, %ymm5, %ymm5 # ymm5 = ymm5[0,1,2,3,4,5,6],ymm4[7] vblendps $0x80, %ymm4, %ymm9, %ymm9 # ymm9 = ymm9[0,1,2,3,4,5,6],ymm4[7] vaddps %ymm3, %ymm14, %ymm24 vaddps %ymm5, %ymm18, %ymm25 vaddps %ymm9, %ymm21, %ymm26 vbroadcastss 0x50194(%rip), %ymm9 # 0x1eeba20 vminps %ymm14, %ymm9, %ymm3 vminps %ymm18, %ymm9, %ymm17 vminps %ymm21, %ymm9, %ymm23 vminps %ymm24, %ymm11, %ymm5 vminps %ymm5, %ymm3, %ymm5 vminps %ymm25, %ymm0, %ymm3 vminps %ymm3, %ymm17, %ymm3 vminps %ymm26, %ymm1, %ymm17 vminps %ymm17, %ymm23, %ymm17 vbroadcastss 0x512bb(%rip), %ymm23 # 0x1eecb84 vmaxps %ymm14, %ymm23, %ymm14 vmaxps %ymm18, %ymm23, %ymm18 vmaxps %ymm21, %ymm23, %ymm27 vmaxps %ymm24, %ymm11, %ymm11 vmaxps %ymm11, %ymm14, %ymm21 vmaxps %ymm25, %ymm0, %ymm0 vmaxps %ymm0, %ymm18, %ymm18 vmaxps %ymm26, %ymm1, %ymm0 vmaxps %ymm0, %ymm27, %ymm14 vbroadcastss %xmm31, %ymm11 vpermps %ymm31, %ymm29, %ymm24 vpermps %ymm31, %ymm30, %ymm25 vbroadcastss %xmm22, %ymm26 vpermps %ymm22, %ymm29, %ymm27 vpermps %ymm22, %ymm30, %ymm22 vbroadcastss %xmm20, %ymm28 vpermps %ymm20, %ymm29, %ymm31 vpermps %ymm20, %ymm30, %ymm20 vbroadcastss %xmm6, %ymm2 vpermps %ymm6, %ymm29, %ymm29 vpermps %ymm6, %ymm30, %ymm30 vmulps %ymm16, %ymm2, %ymm0 vmulps %ymm16, %ymm29, %ymm1 vmulps %ymm16, %ymm30, %ymm6 vfmadd231ps %ymm28, %ymm13, %ymm0 # ymm0 = (ymm13 * ymm28) + ymm0 vfmadd231ps %ymm31, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm31) + ymm1 vfmadd231ps %ymm13, %ymm20, %ymm6 # ymm6 = (ymm20 * ymm13) + ymm6 vfmadd231ps %ymm26, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm26) + ymm0 vfmadd231ps %ymm27, %ymm10, %ymm1 # ymm1 = (ymm10 * ymm27) + ymm1 vfmadd231ps %ymm10, %ymm22, %ymm6 # ymm6 = (ymm22 * ymm10) + ymm6 vfmadd231ps %ymm11, %ymm7, %ymm0 # ymm0 = (ymm7 * ymm11) + ymm0 vfmadd231ps %ymm24, %ymm7, %ymm1 # ymm1 = (ymm7 * ymm24) + ymm1 vfmadd231ps %ymm7, %ymm25, %ymm6 # ymm6 = (ymm25 * ymm7) + ymm6 vmulps %ymm19, %ymm2, %ymm2 vmulps %ymm19, %ymm29, %ymm7 vmulps %ymm19, %ymm30, %ymm10 vfmadd231ps %ymm28, %ymm15, %ymm2 # ymm2 = (ymm15 * ymm28) + ymm2 vfmadd231ps %ymm31, %ymm15, %ymm7 # ymm7 = (ymm15 * ymm31) + ymm7 vfmadd231ps %ymm20, %ymm15, %ymm10 # ymm10 = (ymm15 * ymm20) + ymm10 vfmadd231ps %ymm26, %ymm12, %ymm2 # ymm2 = (ymm12 * ymm26) + ymm2 vfmadd231ps %ymm27, %ymm12, %ymm7 # ymm7 = (ymm12 * ymm27) + ymm7 vfmadd231ps %ymm22, %ymm12, %ymm10 # ymm10 = (ymm12 * ymm22) + ymm10 vfmadd231ps %ymm11, %ymm8, %ymm2 # ymm2 = (ymm8 * ymm11) + ymm2 vfmadd231ps %ymm24, %ymm8, %ymm7 # ymm7 = (ymm8 * ymm24) + ymm7 vfmadd231ps %ymm25, %ymm8, %ymm10 # ymm10 = (ymm8 * ymm25) + ymm10 vbroadcastss 0x85af3(%rip), %ymm8 # 0x1f214d0 vmulps %ymm2, %ymm8, %ymm2 vmulps %ymm7, %ymm8, %ymm7 vmulps %ymm8, %ymm10, %ymm8 vblendps $0x1, %ymm4, %ymm2, %ymm10 # ymm10 = ymm4[0],ymm2[1,2,3,4,5,6,7] vblendps $0x1, %ymm4, %ymm7, %ymm11 # ymm11 = ymm4[0],ymm7[1,2,3,4,5,6,7] vblendps $0x1, %ymm4, %ymm8, %ymm12 # ymm12 = ymm4[0],ymm8[1,2,3,4,5,6,7] vsubps %ymm10, %ymm0, %ymm10 vsubps %ymm11, %ymm1, %ymm11 vsubps %ymm12, %ymm6, %ymm12 vblendps $0x80, %ymm4, %ymm2, %ymm2 # ymm2 = ymm2[0,1,2,3,4,5,6],ymm4[7] vblendps $0x80, %ymm4, %ymm7, %ymm7 # ymm7 = ymm7[0,1,2,3,4,5,6],ymm4[7] vblendps $0x80, %ymm4, %ymm8, %ymm4 # ymm4 = ymm8[0,1,2,3,4,5,6],ymm4[7] vaddps %ymm2, %ymm0, %ymm2 vaddps %ymm7, %ymm1, %ymm8 vaddps %ymm4, %ymm6, %ymm13 vminps %ymm0, %ymm9, %ymm4 vminps %ymm1, %ymm9, %ymm7 vminps %ymm6, %ymm9, %ymm9 vminps %ymm2, %ymm10, %ymm15 vminps %ymm15, %ymm4, %ymm15 vminps %ymm8, %ymm11, %ymm4 vminps %ymm4, %ymm7, %ymm7 vminps %ymm13, %ymm12, %ymm4 vminps %ymm4, %ymm9, %ymm4 vmaxps %ymm0, %ymm23, %ymm0 vmaxps %ymm1, %ymm23, %ymm1 vmaxps %ymm6, %ymm23, %ymm6 vmaxps %ymm2, %ymm10, %ymm2 vmaxps %ymm2, %ymm0, %ymm2 vmaxps %ymm8, %ymm11, %ymm0 vmaxps %ymm0, %ymm1, %ymm1 vmaxps %ymm13, %ymm12, %ymm0 vmaxps %ymm0, %ymm6, %ymm0 vshufps $0xb1, %ymm21, %ymm21, %ymm6 # ymm6 = ymm21[1,0,3,2,5,4,7,6] vmaxps %ymm6, %ymm21, %ymm6 vshufpd $0x5, %ymm6, %ymm6, %ymm8 # ymm8 = ymm6[1,0,3,2] vmaxps %ymm8, %ymm6, %ymm6 vextractf128 $0x1, %ymm6, %xmm8 vmaxps %xmm8, %xmm6, %xmm6 vshufps $0xb1, %ymm18, %ymm18, %ymm8 # ymm8 = ymm18[1,0,3,2,5,4,7,6] vmaxps %ymm8, %ymm18, %ymm8 vshufpd $0x5, %ymm8, %ymm8, %ymm9 # ymm9 = ymm8[1,0,3,2] vmaxps %ymm9, %ymm8, %ymm8 vextractf128 $0x1, %ymm8, %xmm9 vmaxps %xmm9, %xmm8, %xmm8 vunpcklps %xmm8, %xmm6, %xmm6 # xmm6 = xmm6[0],xmm8[0],xmm6[1],xmm8[1] vshufps $0xb1, %ymm14, %ymm14, %ymm8 # ymm8 = ymm14[1,0,3,2,5,4,7,6] vmaxps %ymm8, %ymm14, %ymm8 vshufpd $0x5, %ymm8, %ymm8, %ymm9 # ymm9 = ymm8[1,0,3,2] vmaxps %ymm9, %ymm8, %ymm8 vextractf128 $0x1, %ymm8, %xmm9 vmaxps %xmm9, %xmm8, %xmm8 vinsertps $0x28, %xmm8, %xmm6, %xmm6 # xmm6 = xmm6[0,1],xmm8[0],zero vshufps $0xb1, %ymm5, %ymm5, %ymm8 # ymm8 = ymm5[1,0,3,2,5,4,7,6] vminps %ymm8, %ymm5, %ymm5 vshufpd $0x5, %ymm5, %ymm5, %ymm8 # ymm8 = ymm5[1,0,3,2] vminps %ymm8, %ymm5, %ymm5 vextractf128 $0x1, %ymm5, %xmm8 vminps %xmm8, %xmm5, %xmm5 vshufps $0xb1, %ymm3, %ymm3, %ymm8 # ymm8 = ymm3[1,0,3,2,5,4,7,6] vminps %ymm8, %ymm3, %ymm3 vshufpd $0x5, %ymm3, %ymm3, %ymm8 # ymm8 = ymm3[1,0,3,2] vminps %ymm8, %ymm3, %ymm3 vextractf128 $0x1, %ymm3, %xmm8 vminps %xmm8, %xmm3, %xmm3 vunpcklps %xmm3, %xmm5, %xmm3 # xmm3 = xmm5[0],xmm3[0],xmm5[1],xmm3[1] vshufps $0xb1, %ymm17, %ymm17, %ymm5 # ymm5 = ymm17[1,0,3,2,5,4,7,6] vminps %ymm5, %ymm17, %ymm5 vshufpd $0x5, %ymm5, %ymm5, %ymm8 # ymm8 = ymm5[1,0,3,2] vminps %ymm8, %ymm5, %ymm5 vextractf128 $0x1, %ymm5, %xmm8 vminps %xmm8, %xmm5, %xmm5 vinsertps $0x28, %xmm5, %xmm3, %xmm3 # xmm3 = xmm3[0,1],xmm5[0],zero vshufps $0xb1, %ymm15, %ymm15, %ymm5 # ymm5 = ymm15[1,0,3,2,5,4,7,6] vminps %ymm5, %ymm15, %ymm5 vshufpd $0x5, %ymm5, %ymm5, %ymm8 # ymm8 = ymm5[1,0,3,2] vminps %ymm8, %ymm5, %ymm5 vextractf128 $0x1, %ymm5, %xmm8 vminps %xmm8, %xmm5, %xmm5 vshufps $0xb1, %ymm7, %ymm7, %ymm8 # ymm8 = ymm7[1,0,3,2,5,4,7,6] vminps %ymm8, %ymm7, %ymm7 vshufpd $0x5, %ymm7, %ymm7, %ymm8 # ymm8 = ymm7[1,0,3,2] vminps %ymm8, %ymm7, %ymm7 vextractf128 $0x1, %ymm7, %xmm8 vminps %xmm8, %xmm7, %xmm7 vunpcklps %xmm7, %xmm5, %xmm5 # xmm5 = xmm5[0],xmm7[0],xmm5[1],xmm7[1] vshufps $0xb1, %ymm4, %ymm4, %ymm7 # ymm7 = ymm4[1,0,3,2,5,4,7,6] vminps %ymm7, %ymm4, %ymm4 vshufpd $0x5, %ymm4, %ymm4, %ymm7 # ymm7 = ymm4[1,0,3,2] vminps %ymm7, %ymm4, %ymm4 vextractf128 $0x1, %ymm4, %xmm7 vminps %xmm7, %xmm4, %xmm4 vinsertps $0x28, %xmm4, %xmm5, %xmm4 # xmm4 = xmm5[0,1],xmm4[0],zero vminps %xmm4, %xmm3, %xmm3 vshufps $0xb1, %ymm2, %ymm2, %ymm4 # ymm4 = ymm2[1,0,3,2,5,4,7,6] vmaxps %ymm4, %ymm2, %ymm2 vshufpd $0x5, %ymm2, %ymm2, %ymm4 # ymm4 = ymm2[1,0,3,2] vmaxps %ymm4, %ymm2, %ymm2 vextractf128 $0x1, %ymm2, %xmm4 vmaxps %xmm4, %xmm2, %xmm2 vshufps $0xb1, %ymm1, %ymm1, %ymm4 # ymm4 = ymm1[1,0,3,2,5,4,7,6] vmaxps %ymm4, %ymm1, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm4 # ymm4 = ymm1[1,0,3,2] vmaxps %ymm4, %ymm1, %ymm1 vextractf128 $0x1, %ymm1, %xmm4 vmaxps %xmm4, %xmm1, %xmm1 vunpcklps %xmm1, %xmm2, %xmm1 # xmm1 = xmm2[0],xmm1[0],xmm2[1],xmm1[1] vshufps $0xb1, %ymm0, %ymm0, %ymm2 # ymm2 = ymm0[1,0,3,2,5,4,7,6] vmaxps %ymm2, %ymm0, %ymm0 vshufpd $0x5, %ymm0, %ymm0, %ymm2 # ymm2 = ymm0[1,0,3,2] vmaxps %ymm2, %ymm0, %ymm0 vextractf128 $0x1, %ymm0, %xmm2 vmaxps %xmm2, %xmm0, %xmm0 vinsertps $0x28, %xmm0, %xmm1, %xmm0 # xmm0 = xmm1[0,1],xmm0[0],zero vmaxps %xmm0, %xmm6, %xmm0 vbroadcastss 0x8529a(%rip), %xmm1 # 0x1f20ec4 vandps %xmm1, %xmm3, %xmm2 vandps %xmm1, %xmm0, %xmm1 vmaxps %xmm1, %xmm2, %xmm1 vmovshdup %xmm1, %xmm2 # xmm2 = xmm1[1,1,3,3] vmaxss %xmm1, %xmm2, %xmm2 vshufpd $0x1, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[1,0] vmaxss %xmm2, %xmm1, %xmm1 vmulss 0x55395(%rip), %xmm1, %xmm1 # 0x1ef0fe4 vbroadcastss %xmm1, %xmm1 vsubps %xmm1, %xmm3, %xmm2 vaddps %xmm1, %xmm0, %xmm0 vmovaps %xmm2, (%rax) vmovaps %xmm0, 0x10(%rax) popq %rbx popq %r12 popq %r13 popq %r14 popq %r15 vzeroupper retq
/embree[P]embree/kernels/common/scene_curves.cpp
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)2, embree::avx512::HermiteCurveGeometryInterface, embree::HermiteCurveT>::vlinearBounds(unsigned long, embree::BBox<float> const&) const
LBBox3fa vlinearBounds(size_t primID, const BBox1f& time_range) const { return linearBounds(primID,time_range); }
pushq %rbp pushq %r15 pushq %r14 pushq %r13 pushq %r12 pushq %rbx subq $0x138, %rsp # imm = 0x138 leaq 0xc8(%rsp), %rax movq %rdx, (%rax) leaq 0x60(%rsp), %r14 movq %rax, (%r14) movq %rsi, 0x8(%r14) vmovss 0x28(%rsi), %xmm4 vmovss 0x2c(%rsi), %xmm0 vmovss (%rcx), %xmm1 vmovss 0x4(%rcx), %xmm2 vsubss %xmm0, %xmm1, %xmm1 vmovss 0x30(%rsi), %xmm3 vsubss %xmm0, %xmm3, %xmm3 vdivss %xmm3, %xmm1, %xmm1 vsubss %xmm0, %xmm2, %xmm0 vdivss %xmm3, %xmm0, %xmm2 vmovss %xmm1, 0x4(%rsp) vmulss %xmm1, %xmm4, %xmm0 vmovss %xmm0, 0x20(%rsp) vroundss $0x9, %xmm0, %xmm0, %xmm0 vmovss %xmm2, 0x50(%rsp) vmulss %xmm2, %xmm4, %xmm1 vmovss %xmm1, 0x40(%rsp) vroundss $0xa, %xmm1, %xmm1, %xmm1 vxorps %xmm2, %xmm2, %xmm2 vmaxss %xmm2, %xmm0, %xmm3 vminss %xmm4, %xmm1, %xmm2 vmovss %xmm3, 0x10(%rsp) vcvttss2si %xmm3, %r15d vmovss %xmm2, 0x30(%rsp) vcvttss2si %xmm2, %r12d vcvttss2si %xmm0, %eax movq %rdi, %rbx testl %eax, %eax movl $0xffffffff, %r13d # imm = 0xFFFFFFFF cmovnsl %eax, %r13d vcvttss2si %xmm1, %eax vmovss %xmm4, 0xc(%rsp) vcvttss2si %xmm4, %ebp incl %ebp cmpl %ebp, %eax cmovll %eax, %ebp movslq %r15d, %rdx leaq 0x90(%rsp), %rdi movq %r14, %rsi callq 0x1e9c76c movslq %r12d, %rdx leaq 0x70(%rsp), %rdi movq %r14, %rsi callq 0x1e9c76c movl %ebp, %eax subl %r13d, %eax cmpl $0x1, %eax jne 0x1e9be13 vmovss 0x20(%rsp), %xmm0 vsubss 0x10(%rsp), %xmm0, %xmm0 vxorps %xmm8, %xmm8, %xmm8 vmaxss %xmm8, %xmm0, %xmm0 vmovss 0x5098b(%rip), %xmm1 # 0x1eec714 vsubss %xmm0, %xmm1, %xmm2 vbroadcastss %xmm0, %xmm0 vmovaps 0x70(%rsp), %xmm3 vmovaps 0x80(%rsp), %xmm4 vmulps %xmm3, %xmm0, %xmm5 vbroadcastss %xmm2, %xmm2 vmovaps 0x90(%rsp), %xmm6 vmovaps 0xa0(%rsp), %xmm7 vfmadd231ps %xmm6, %xmm2, %xmm5 # xmm5 = (xmm2 * xmm6) + xmm5 vmulps %xmm4, %xmm0, %xmm0 vfmadd231ps %xmm2, %xmm7, %xmm0 # xmm0 = (xmm7 * xmm2) + xmm0 vmovaps %xmm5, (%rbx) vmovaps %xmm0, 0x10(%rbx) vmovss 0x30(%rsp), %xmm0 vsubss 0x40(%rsp), %xmm0, %xmm0 vmaxss %xmm8, %xmm0, %xmm0 vsubss %xmm0, %xmm1, %xmm1 vbroadcastss %xmm0, %xmm0 vmulps %xmm6, %xmm0, %xmm2 vbroadcastss %xmm1, %xmm1 vfmadd231ps %xmm3, %xmm1, %xmm2 # xmm2 = (xmm1 * xmm3) + xmm2 vmulps %xmm7, %xmm0, %xmm0 vfmadd231ps %xmm4, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm4) + xmm0 vmovaps %xmm2, 0x20(%rbx) vmovaps %xmm0, 0x30(%rbx) jmp 0x1e9bff3 incl %r15d movslq %r15d, %rdx leaq 0x110(%rsp), %r14 leaq 0x60(%rsp), %r15 movq %r14, %rdi movq %r15, %rsi callq 0x1e9c76c decl %r12d movslq %r12d, %rdx leaq 0xf0(%rsp), %r12 movq %r12, %rdi movq %r15, %rsi callq 0x1e9c76c vmovss 0x20(%rsp), %xmm0 vsubss 0x10(%rsp), %xmm0, %xmm0 vxorps %xmm5, %xmm5, %xmm5 vmaxss %xmm5, %xmm0, %xmm0 vmovss 0x508ae(%rip), %xmm4 # 0x1eec714 vbroadcastss %xmm0, %xmm1 vmulps (%r14), %xmm1, %xmm2 vsubss %xmm0, %xmm4, %xmm0 vbroadcastss %xmm0, %xmm0 vfmadd231ps 0x90(%rsp), %xmm0, %xmm2 # xmm2 = (xmm0 * mem) + xmm2 vmulps 0x10(%r14), %xmm1, %xmm3 vfmadd231ps 0xa0(%rsp), %xmm0, %xmm3 # xmm3 = (xmm0 * mem) + xmm3 vmovss 0x30(%rsp), %xmm0 vsubss 0x40(%rsp), %xmm0, %xmm0 vmaxss %xmm5, %xmm0, %xmm0 vsubss %xmm0, %xmm4, %xmm1 vbroadcastss %xmm0, %xmm0 vmulps (%r12), %xmm0, %xmm5 vbroadcastss %xmm1, %xmm1 vfmadd231ps 0x70(%rsp), %xmm1, %xmm5 # xmm5 = (xmm1 * mem) + xmm5 vmulps 0x10(%r12), %xmm0, %xmm6 vfmadd231ps 0x80(%rsp), %xmm1, %xmm6 # xmm6 = (xmm1 * mem) + xmm6 leal 0x1(%r13), %eax cmpl %ebp, %eax jge 0x1e9bfe0 vmovss 0x4(%rsp), %xmm1 vmovss 0x50(%rsp), %xmm0 vsubss %xmm1, %xmm0, %xmm0 vmovss %xmm0, 0x8(%rsp) movl %eax, %r14d notl %r13d addl %ebp, %r13d leaq 0xd0(%rsp), %r15 leaq 0x60(%rsp), %r12 vmovaps %xmm6, 0x10(%rsp) vmovaps %xmm5, 0x20(%rsp) vmovaps %xmm3, 0x30(%rsp) vmovaps %xmm2, 0x40(%rsp) vcvtsi2ss %r14d, %xmm8, %xmm0 vdivss 0xc(%rsp), %xmm0, %xmm0 vsubss %xmm1, %xmm0, %xmm0 vdivss 0x8(%rsp), %xmm0, %xmm0 vsubss %xmm0, %xmm4, %xmm1 vbroadcastss %xmm0, %xmm0 vmulps %xmm0, %xmm5, %xmm4 vbroadcastss %xmm1, %xmm1 vfmadd231ps %xmm2, %xmm1, %xmm4 # xmm4 = (xmm1 * xmm2) + xmm4 vmovaps %xmm4, 0x50(%rsp) vmulps %xmm0, %xmm6, %xmm0 vfmadd231ps %xmm1, %xmm3, %xmm0 # xmm0 = (xmm3 * xmm1) + xmm0 vmovaps %xmm0, 0xb0(%rsp) movq %r15, %rdi movq %r12, %rsi movq %r14, %rdx callq 0x1e9c76c vmovaps 0x10(%rsp), %xmm6 vmovaps 0x20(%rsp), %xmm5 vmovss 0x5078f(%rip), %xmm4 # 0x1eec714 vmovaps 0x30(%rsp), %xmm3 vmovaps 0x40(%rsp), %xmm2 vmovaps 0xd0(%rsp), %xmm0 vsubps 0x50(%rsp), %xmm0, %xmm0 vmovaps 0xe0(%rsp), %xmm1 vsubps 0xb0(%rsp), %xmm1, %xmm1 vxorps %xmm7, %xmm7, %xmm7 vminps %xmm7, %xmm0, %xmm0 vmaxps %xmm7, %xmm1, %xmm1 vaddps %xmm0, %xmm2, %xmm2 vaddps %xmm0, %xmm5, %xmm5 vaddps %xmm1, %xmm3, %xmm3 vaddps %xmm1, %xmm6, %xmm6 vmovss 0x4(%rsp), %xmm1 incq %r14 decl %r13d jne 0x1e9bf07 vmovaps %xmm2, (%rbx) vmovaps %xmm3, 0x10(%rbx) vmovaps %xmm5, 0x20(%rbx) vmovaps %xmm6, 0x30(%rbx) movq %rbx, %rax addq $0x138, %rsp # imm = 0x138 popq %rbx popq %r12 popq %r13 popq %r14 popq %r15 popq %rbp retq
/embree[P]embree/kernels/common/scene_curves.cpp
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)2, embree::avx512::HermiteCurveGeometryInterface, embree::HermiteCurveT>::vlinearBounds(embree::LinearSpace3<embree::Vec3fa> const&, unsigned long, embree::BBox<float> const&) const
LBBox3fa vlinearBounds(const LinearSpace3fa& space, size_t primID, const BBox1f& time_range) const { return linearBounds(space,primID,time_range); }
pushq %rbp pushq %r15 pushq %r14 pushq %r13 pushq %r12 pushq %rbx subq $0x138, %rsp # imm = 0x138 leaq 0xc8(%rsp), %rax movq %rcx, (%rax) leaq 0xb0(%rsp), %r14 movq %rdx, (%r14) movq %rax, 0x8(%r14) movq %rsi, 0x10(%r14) vmovss 0x28(%rsi), %xmm4 vmovss 0x2c(%rsi), %xmm0 vmovss (%r8), %xmm1 vmovss 0x4(%r8), %xmm2 vsubss %xmm0, %xmm1, %xmm1 vmovss 0x30(%rsi), %xmm3 vsubss %xmm0, %xmm3, %xmm3 vdivss %xmm3, %xmm1, %xmm1 vsubss %xmm0, %xmm2, %xmm0 vdivss %xmm3, %xmm0, %xmm2 vmovss %xmm1, 0x4(%rsp) vmulss %xmm1, %xmm4, %xmm0 vmovss %xmm0, 0x20(%rsp) vroundss $0x9, %xmm0, %xmm0, %xmm0 vmovss %xmm2, 0x50(%rsp) vmulss %xmm2, %xmm4, %xmm1 vmovss %xmm1, 0x40(%rsp) vroundss $0xa, %xmm1, %xmm1, %xmm1 vxorps %xmm2, %xmm2, %xmm2 vmaxss %xmm2, %xmm0, %xmm3 vminss %xmm4, %xmm1, %xmm2 vmovss %xmm3, 0x10(%rsp) vcvttss2si %xmm3, %r15d vmovss %xmm2, 0x30(%rsp) vcvttss2si %xmm2, %r12d vcvttss2si %xmm0, %eax movq %rdi, %rbx testl %eax, %eax movl $0xffffffff, %r13d # imm = 0xFFFFFFFF cmovnsl %eax, %r13d vcvttss2si %xmm1, %eax vmovss %xmm4, 0xc(%rsp) vcvttss2si %xmm4, %ebp incl %ebp cmpl %ebp, %eax cmovll %eax, %ebp movslq %r15d, %rdx leaq 0x80(%rsp), %rdi movq %r14, %rsi callq 0x1e9d082 movslq %r12d, %rdx leaq 0x60(%rsp), %rdi movq %r14, %rsi callq 0x1e9d082 movl %ebp, %eax subl %r13d, %eax cmpl $0x1, %eax jne 0x1e9c1af vmovss 0x20(%rsp), %xmm0 vsubss 0x10(%rsp), %xmm0, %xmm0 vxorps %xmm8, %xmm8, %xmm8 vmaxss %xmm8, %xmm0, %xmm0 vmovss 0x505ec(%rip), %xmm1 # 0x1eec714 vsubss %xmm0, %xmm1, %xmm2 vbroadcastss %xmm0, %xmm0 vmovaps 0x60(%rsp), %xmm3 vmovaps 0x70(%rsp), %xmm4 vmulps %xmm3, %xmm0, %xmm5 vbroadcastss %xmm2, %xmm2 vmovaps 0x80(%rsp), %xmm6 vmovaps 0x90(%rsp), %xmm7 vfmadd231ps %xmm6, %xmm2, %xmm5 # xmm5 = (xmm2 * xmm6) + xmm5 vmulps %xmm4, %xmm0, %xmm0 vfmadd231ps %xmm2, %xmm7, %xmm0 # xmm0 = (xmm7 * xmm2) + xmm0 vmovaps %xmm5, (%rbx) vmovaps %xmm0, 0x10(%rbx) vmovss 0x30(%rsp), %xmm0 vsubss 0x40(%rsp), %xmm0, %xmm0 vmaxss %xmm8, %xmm0, %xmm0 vsubss %xmm0, %xmm1, %xmm1 vbroadcastss %xmm0, %xmm0 vmulps %xmm6, %xmm0, %xmm2 vbroadcastss %xmm1, %xmm1 vfmadd231ps %xmm3, %xmm1, %xmm2 # xmm2 = (xmm1 * xmm3) + xmm2 vmulps %xmm7, %xmm0, %xmm0 vfmadd231ps %xmm4, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm4) + xmm0 vmovaps %xmm2, 0x20(%rbx) vmovaps %xmm0, 0x30(%rbx) jmp 0x1e9c392 incl %r15d movslq %r15d, %rdx leaq 0x110(%rsp), %r14 leaq 0xb0(%rsp), %r15 movq %r14, %rdi movq %r15, %rsi callq 0x1e9d082 decl %r12d movslq %r12d, %rdx leaq 0xf0(%rsp), %r12 movq %r12, %rdi movq %r15, %rsi callq 0x1e9d082 vmovss 0x20(%rsp), %xmm0 vsubss 0x10(%rsp), %xmm0, %xmm0 vxorps %xmm5, %xmm5, %xmm5 vmaxss %xmm5, %xmm0, %xmm0 vmovss 0x5050f(%rip), %xmm4 # 0x1eec714 vbroadcastss %xmm0, %xmm1 vmulps (%r14), %xmm1, %xmm2 vsubss %xmm0, %xmm4, %xmm0 vbroadcastss %xmm0, %xmm0 vfmadd231ps 0x80(%rsp), %xmm0, %xmm2 # xmm2 = (xmm0 * mem) + xmm2 vmulps 0x10(%r14), %xmm1, %xmm3 vfmadd231ps 0x90(%rsp), %xmm0, %xmm3 # xmm3 = (xmm0 * mem) + xmm3 vmovss 0x30(%rsp), %xmm0 vsubss 0x40(%rsp), %xmm0, %xmm0 vmaxss %xmm5, %xmm0, %xmm0 vsubss %xmm0, %xmm4, %xmm1 vbroadcastss %xmm0, %xmm0 vmulps (%r12), %xmm0, %xmm5 vbroadcastss %xmm1, %xmm1 vfmadd231ps 0x60(%rsp), %xmm1, %xmm5 # xmm5 = (xmm1 * mem) + xmm5 vmulps 0x10(%r12), %xmm0, %xmm6 vfmadd231ps 0x70(%rsp), %xmm1, %xmm6 # xmm6 = (xmm1 * mem) + xmm6 leal 0x1(%r13), %eax cmpl %ebp, %eax jge 0x1e9c37f vmovss 0x4(%rsp), %xmm1 vmovss 0x50(%rsp), %xmm0 vsubss %xmm1, %xmm0, %xmm0 vmovss %xmm0, 0x8(%rsp) movl %eax, %r14d notl %r13d addl %ebp, %r13d leaq 0xd0(%rsp), %r15 leaq 0xb0(%rsp), %r12 vmovaps %xmm6, 0x10(%rsp) vmovaps %xmm5, 0x20(%rsp) vmovaps %xmm3, 0x30(%rsp) vmovaps %xmm2, 0x40(%rsp) vcvtsi2ss %r14d, %xmm8, %xmm0 vdivss 0xc(%rsp), %xmm0, %xmm0 vsubss %xmm1, %xmm0, %xmm0 vdivss 0x8(%rsp), %xmm0, %xmm0 vsubss %xmm0, %xmm4, %xmm1 vbroadcastss %xmm0, %xmm0 vmulps %xmm0, %xmm5, %xmm4 vbroadcastss %xmm1, %xmm1 vfmadd231ps %xmm2, %xmm1, %xmm4 # xmm4 = (xmm1 * xmm2) + xmm4 vmovaps %xmm4, 0x50(%rsp) vmulps %xmm0, %xmm6, %xmm0 vfmadd231ps %xmm1, %xmm3, %xmm0 # xmm0 = (xmm3 * xmm1) + xmm0 vmovaps %xmm0, 0xa0(%rsp) movq %r15, %rdi movq %r12, %rsi movq %r14, %rdx callq 0x1e9d082 vmovaps 0x10(%rsp), %xmm6 vmovaps 0x20(%rsp), %xmm5 vmovss 0x503f0(%rip), %xmm4 # 0x1eec714 vmovaps 0x30(%rsp), %xmm3 vmovaps 0x40(%rsp), %xmm2 vmovaps 0xd0(%rsp), %xmm0 vsubps 0x50(%rsp), %xmm0, %xmm0 vmovaps 0xe0(%rsp), %xmm1 vsubps 0xa0(%rsp), %xmm1, %xmm1 vxorps %xmm7, %xmm7, %xmm7 vminps %xmm7, %xmm0, %xmm0 vmaxps %xmm7, %xmm1, %xmm1 vaddps %xmm0, %xmm2, %xmm2 vaddps %xmm0, %xmm5, %xmm5 vaddps %xmm1, %xmm3, %xmm3 vaddps %xmm1, %xmm6, %xmm6 vmovss 0x4(%rsp), %xmm1 incq %r14 decl %r13d jne 0x1e9c2a6 vmovaps %xmm2, (%rbx) vmovaps %xmm3, 0x10(%rbx) vmovaps %xmm5, 0x20(%rbx) vmovaps %xmm6, 0x30(%rbx) movq %rbx, %rax addq $0x138, %rsp # imm = 0x138 popq %rbx popq %r12 popq %r13 popq %r14 popq %r15 popq %rbp retq nop
/embree[P]embree/kernels/common/scene_curves.cpp
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)2, embree::avx512::HermiteCurveGeometryInterface, embree::HermiteCurveT>::linearBounds(unsigned long, embree::BBox<float> const&) const::'lambda'(unsigned long)::operator()(unsigned long) const
__forceinline LBBox3fa linearBounds(size_t primID, const BBox1f& dt) const { return LBBox3fa([&] (size_t itime) { return bounds(primID, itime); }, dt, this->time_range, fnumTimeSegments); }
pushq %r14 pushq %rbx movq (%rsi), %rax movq 0x8(%rsi), %rsi movq 0x58(%rsi), %rcx movq 0x68(%rsi), %r8 imulq (%rax), %r8 movl (%rcx,%r8), %ecx movq 0x188(%rsi), %rax imulq $0x38, %rdx, %rdx movq (%rax,%rdx), %r8 movq 0x10(%rax,%rdx), %r9 movq %r9, %r10 imulq %rcx, %r10 vmovaps (%r8,%r10), %xmm0 movq %rdi, %rax leal 0x1(%rcx), %edi imulq %rdi, %r9 vmovaps (%r8,%r9), %xmm1 movq 0x1c8(%rsi), %r11 movq (%r11,%rdx), %rbx movq 0x10(%r11,%rdx), %r11 movq %r11, %r14 imulq %rcx, %r14 vmovaps (%rbx,%r14), %xmm2 imulq %rdi, %r11 vmovaps (%rbx,%r11), %xmm3 vmovss 0x24c(%rsi), %xmm4 vmulss 0xc(%r8,%r10), %xmm4, %xmm5 vinsertps $0x30, %xmm5, %xmm0, %xmm6 # xmm6 = xmm0[0,1,2],xmm5[0] vmulss 0xc(%r8,%r9), %xmm4, %xmm0 vinsertps $0x30, %xmm0, %xmm1, %xmm7 # xmm7 = xmm1[0,1,2],xmm0[0] vmulss 0xc(%rbx,%r14), %xmm4, %xmm0 vinsertps $0x30, %xmm0, %xmm2, %xmm8 # xmm8 = xmm2[0,1,2],xmm0[0] vmulss 0xc(%rbx,%r11), %xmm4, %xmm0 vinsertps $0x30, %xmm0, %xmm3, %xmm9 # xmm9 = xmm3[0,1,2],xmm0[0] vbroadcastss 0xc0c49(%rip), %xmm5 # 0x1f5d46c vfnmadd213ps %xmm6, %xmm5, %xmm8 # xmm8 = -(xmm5 * xmm8) + xmm6 vfmadd213ps %xmm7, %xmm5, %xmm9 # xmm9 = (xmm5 * xmm9) + xmm7 movq 0x1a8(%rsi), %r8 movq (%r8,%rdx), %r9 movq 0x10(%r8,%rdx), %r8 movq %r8, %r10 imulq %rcx, %r10 vmovups (%r9,%r10), %xmm10 imulq %rdi, %r8 vmovups (%r9,%r8), %xmm11 movq 0x1e8(%rsi), %rsi movq (%rsi,%rdx), %r8 movq 0x10(%rsi,%rdx), %rdx imulq %rdx, %rcx imulq %rdi, %rdx vmovups (%r8,%rcx), %xmm12 vfnmadd132ps %xmm5, %xmm10, %xmm12 # xmm12 = -(xmm12 * xmm5) + xmm10 vfmadd132ps (%r8,%rdx), %xmm11, %xmm5 # xmm5 = (xmm5 * mem) + xmm11 vxorps %xmm4, %xmm4, %xmm4 vmulps %xmm4, %xmm7, %xmm0 vfmadd231ps %xmm4, %xmm9, %xmm0 # xmm0 = (xmm9 * xmm4) + xmm0 vxorps %xmm1, %xmm1, %xmm1 vfmadd213ps %xmm0, %xmm8, %xmm1 # xmm1 = (xmm8 * xmm1) + xmm0 vaddps %xmm1, %xmm6, %xmm1 vbroadcastss 0x5474c(%rip), %xmm13 # 0x1ef0fec vfmadd231ps %xmm13, %xmm8, %xmm0 # xmm0 = (xmm8 * xmm13) + xmm0 vfnmadd231ps %xmm13, %xmm6, %xmm0 # xmm0 = -(xmm6 * xmm13) + xmm0 vmulps %xmm4, %xmm11, %xmm14 vfmadd231ps %xmm4, %xmm5, %xmm14 # xmm14 = (xmm5 * xmm4) + xmm14 vxorps %xmm2, %xmm2, %xmm2 vfmadd213ps %xmm14, %xmm12, %xmm2 # xmm2 = (xmm12 * xmm2) + xmm14 vaddps %xmm2, %xmm10, %xmm15 vfmadd231ps %xmm13, %xmm12, %xmm14 # xmm14 = (xmm12 * xmm13) + xmm14 vfnmadd231ps %xmm13, %xmm10, %xmm14 # xmm14 = -(xmm10 * xmm13) + xmm14 vxorps %xmm2, %xmm2, %xmm2 vfmadd213ps %xmm7, %xmm9, %xmm2 # xmm2 = (xmm9 * xmm2) + xmm7 vfmadd231ps %xmm4, %xmm8, %xmm2 # xmm2 = (xmm8 * xmm4) + xmm2 vfmadd231ps %xmm4, %xmm6, %xmm2 # xmm2 = (xmm6 * xmm4) + xmm2 vmulps %xmm7, %xmm13, %xmm3 vfnmadd231ps %xmm9, %xmm13, %xmm3 # xmm3 = -(xmm13 * xmm9) + xmm3 vfmadd231ps %xmm8, %xmm4, %xmm3 # xmm3 = (xmm4 * xmm8) + xmm3 vfnmadd231ps %xmm6, %xmm4, %xmm3 # xmm3 = -(xmm4 * xmm6) + xmm3 vxorps %xmm6, %xmm6, %xmm6 vfmadd213ps %xmm11, %xmm5, %xmm6 # xmm6 = (xmm5 * xmm6) + xmm11 vfmadd231ps %xmm4, %xmm12, %xmm6 # xmm6 = (xmm12 * xmm4) + xmm6 vfmadd231ps %xmm4, %xmm10, %xmm6 # xmm6 = (xmm10 * xmm4) + xmm6 vmulps %xmm13, %xmm11, %xmm8 vfnmadd231ps %xmm5, %xmm13, %xmm8 # xmm8 = -(xmm13 * xmm5) + xmm8 vfmadd231ps %xmm12, %xmm4, %xmm8 # xmm8 = (xmm4 * xmm12) + xmm8 vfnmadd231ps %xmm10, %xmm4, %xmm8 # xmm8 = -(xmm4 * xmm10) + xmm8 vshufps $0xc9, %xmm0, %xmm0, %xmm5 # xmm5 = xmm0[1,2,0,3] vshufps $0xc9, %xmm15, %xmm15, %xmm7 # xmm7 = xmm15[1,2,0,3] vmulps %xmm7, %xmm0, %xmm7 vfmsub231ps %xmm15, %xmm5, %xmm7 # xmm7 = (xmm5 * xmm15) - xmm7 vshufps $0xc9, %xmm7, %xmm7, %xmm7 # xmm7 = xmm7[1,2,0,3] vshufps $0xc9, %xmm14, %xmm14, %xmm9 # xmm9 = xmm14[1,2,0,3] vmulps %xmm0, %xmm9, %xmm9 vfmsub231ps %xmm14, %xmm5, %xmm9 # xmm9 = (xmm5 * xmm14) - xmm9 vshufps $0xc9, %xmm9, %xmm9, %xmm9 # xmm9 = xmm9[1,2,0,3] vshufps $0xc9, %xmm3, %xmm3, %xmm10 # xmm10 = xmm3[1,2,0,3] vshufps $0xc9, %xmm6, %xmm6, %xmm5 # xmm5 = xmm6[1,2,0,3] vmulps %xmm5, %xmm3, %xmm5 vfmsub231ps %xmm6, %xmm10, %xmm5 # xmm5 = (xmm10 * xmm6) - xmm5 vshufps $0xc9, %xmm5, %xmm5, %xmm5 # xmm5 = xmm5[1,2,0,3] vshufps $0xc9, %xmm8, %xmm8, %xmm6 # xmm6 = xmm8[1,2,0,3] vmulps %xmm6, %xmm3, %xmm6 vfmsub231ps %xmm8, %xmm10, %xmm6 # xmm6 = (xmm10 * xmm8) - xmm6 vshufps $0xc9, %xmm6, %xmm6, %xmm6 # xmm6 = xmm6[1,2,0,3] vdpps $0x7f, %xmm7, %xmm7, %xmm8 vmovss %xmm8, %xmm4, %xmm10 # xmm10 = xmm8[0],xmm4[1,2,3] vrsqrt14ss %xmm10, %xmm4, %xmm11 vmovss 0x4fd8e(%rip), %xmm12 # 0x1eec718 vmulss %xmm12, %xmm11, %xmm13 vmovss 0x501e9(%rip), %xmm14 # 0x1eecb80 vmulss %xmm14, %xmm8, %xmm15 vmulss %xmm11, %xmm15, %xmm15 vmulss %xmm11, %xmm11, %xmm11 vmulss %xmm11, %xmm15, %xmm11 vsubss %xmm11, %xmm13, %xmm11 vbroadcastss %xmm11, %xmm11 vmulps %xmm7, %xmm11, %xmm13 vdpps $0x7f, %xmm9, %xmm7, %xmm15 vbroadcastss %xmm8, %xmm16 vmulps %xmm9, %xmm16, %xmm9 vbroadcastss %xmm15, %xmm15 vmulps %xmm7, %xmm15, %xmm7 vsubps %xmm7, %xmm9, %xmm7 vrcp14ss %xmm10, %xmm4, %xmm9 vmovss 0x54612(%rip), %xmm10 # 0x1ef0ff8 vfnmadd213ss %xmm10, %xmm9, %xmm8 # xmm8 = -(xmm9 * xmm8) + xmm10 vmulss %xmm8, %xmm9, %xmm8 vdpps $0x7f, %xmm5, %xmm5, %xmm9 vbroadcastss %xmm8, %xmm8 vmulps %xmm7, %xmm8, %xmm7 vmulps %xmm7, %xmm11, %xmm7 vmovss %xmm9, %xmm4, %xmm8 # xmm8 = xmm9[0],xmm4[1,2,3] vrsqrt14ss %xmm8, %xmm4, %xmm11 vmulss %xmm12, %xmm11, %xmm12 vmulss %xmm14, %xmm9, %xmm14 vmulss %xmm11, %xmm14, %xmm14 vmulss %xmm11, %xmm11, %xmm11 vmulss %xmm11, %xmm14, %xmm11 vsubss %xmm11, %xmm12, %xmm11 vbroadcastss %xmm11, %xmm11 vmulps %xmm5, %xmm11, %xmm12 vdpps $0x7f, %xmm6, %xmm5, %xmm14 vbroadcastss %xmm9, %xmm15 vmulps %xmm6, %xmm15, %xmm6 vbroadcastss %xmm14, %xmm14 vmulps %xmm5, %xmm14, %xmm5 vsubps %xmm5, %xmm6, %xmm5 vrcp14ss %xmm8, %xmm4, %xmm4 vfnmadd213ss %xmm10, %xmm4, %xmm9 # xmm9 = -(xmm4 * xmm9) + xmm10 vmulss %xmm4, %xmm9, %xmm4 vbroadcastss %xmm4, %xmm4 vmulps %xmm4, %xmm5, %xmm4 vmulps %xmm4, %xmm11, %xmm4 vshufps $0xff, %xmm1, %xmm1, %xmm5 # xmm5 = xmm1[3,3,3,3] vmulps %xmm5, %xmm13, %xmm6 vsubps %xmm6, %xmm1, %xmm10 vshufps $0xff, %xmm0, %xmm0, %xmm8 # xmm8 = xmm0[3,3,3,3] vmulps %xmm13, %xmm8, %xmm8 vmulps %xmm7, %xmm5, %xmm5 vaddps %xmm5, %xmm8, %xmm5 vsubps %xmm5, %xmm0, %xmm7 vaddps %xmm6, %xmm1, %xmm31 vaddps %xmm5, %xmm0, %xmm0 vshufps $0xff, %xmm2, %xmm2, %xmm5 # xmm5 = xmm2[3,3,3,3] vmulps %xmm5, %xmm12, %xmm6 vsubps %xmm6, %xmm2, %xmm13 vshufps $0xff, %xmm3, %xmm3, %xmm8 # xmm8 = xmm3[3,3,3,3] vmulps %xmm12, %xmm8, %xmm8 vmulps %xmm4, %xmm5, %xmm4 vaddps %xmm4, %xmm8, %xmm4 vsubps %xmm4, %xmm3, %xmm5 vaddps %xmm6, %xmm2, %xmm29 vaddps %xmm4, %xmm3, %xmm3 vbroadcastss 0x553ec(%rip), %xmm4 # 0x1ef1ebc vmulps %xmm4, %xmm7, %xmm6 vaddps %xmm6, %xmm10, %xmm6 vmulps %xmm4, %xmm5, %xmm5 vsubps %xmm5, %xmm13, %xmm5 vmulps %xmm4, %xmm0, %xmm0 vaddps %xmm0, %xmm31, %xmm0 vmovups %ymm0, -0x68(%rsp) vmulps %xmm4, %xmm3, %xmm0 vsubps %xmm0, %xmm29, %xmm30 vbroadcastss 0x75c01(%rip), %ymm2 # 0x1f12704 vbroadcastss %xmm10, %ymm0 vpermps %ymm10, %ymm2, %ymm3 vbroadcastss 0x843c6(%rip), %ymm11 # 0x1f20edc vpermps %ymm10, %ymm11, %ymm4 vbroadcastss %xmm6, %ymm17 vpermps %ymm6, %ymm2, %ymm20 vpermps %ymm6, %ymm11, %ymm22 vbroadcastss %xmm5, %ymm23 vpermps %ymm5, %ymm2, %ymm24 vpermps %ymm5, %ymm11, %ymm25 vbroadcastss %xmm13, %ymm26 vpermps %ymm13, %ymm2, %ymm27 leaq 0x28a792(%rip), %rcx # 0x21272e4 vmovups 0x1dc(%rcx), %ymm9 vmovups 0x660(%rcx), %ymm10 vpermps %ymm13, %ymm11, %ymm28 vmovups 0xae4(%rcx), %ymm13 vmovups 0xf68(%rcx), %ymm16 vmulps %ymm16, %ymm26, %ymm14 vmulps %ymm16, %ymm27, %ymm18 vmulps %ymm16, %ymm28, %ymm21 vfmadd231ps %ymm23, %ymm13, %ymm14 # ymm14 = (ymm13 * ymm23) + ymm14 vfmadd231ps %ymm24, %ymm13, %ymm18 # ymm18 = (ymm13 * ymm24) + ymm18 vfmadd231ps %ymm25, %ymm13, %ymm21 # ymm21 = (ymm13 * ymm25) + ymm21 vfmadd231ps %ymm17, %ymm10, %ymm14 # ymm14 = (ymm10 * ymm17) + ymm14 vfmadd231ps %ymm20, %ymm10, %ymm18 # ymm18 = (ymm10 * ymm20) + ymm18 vfmadd231ps %ymm22, %ymm10, %ymm21 # ymm21 = (ymm10 * ymm22) + ymm21 vfmadd231ps %ymm0, %ymm9, %ymm14 # ymm14 = (ymm9 * ymm0) + ymm14 vfmadd231ps %ymm3, %ymm9, %ymm18 # ymm18 = (ymm9 * ymm3) + ymm18 vmovups 0x13ec(%rcx), %ymm6 vmovups 0x1870(%rcx), %ymm12 vmovups 0x1cf4(%rcx), %ymm15 vmovups 0x2178(%rcx), %ymm19 vfmadd231ps %ymm4, %ymm9, %ymm21 # ymm21 = (ymm9 * ymm4) + ymm21 vmulps %ymm19, %ymm26, %ymm26 vmulps %ymm19, %ymm27, %ymm27 vmulps %ymm19, %ymm28, %ymm28 vfmadd231ps %ymm23, %ymm15, %ymm26 # ymm26 = (ymm15 * ymm23) + ymm26 vfmadd231ps %ymm24, %ymm15, %ymm27 # ymm27 = (ymm15 * ymm24) + ymm27 vfmadd231ps %ymm25, %ymm15, %ymm28 # ymm28 = (ymm15 * ymm25) + ymm28 vfmadd231ps %ymm17, %ymm12, %ymm26 # ymm26 = (ymm12 * ymm17) + ymm26 vfmadd231ps %ymm20, %ymm12, %ymm27 # ymm27 = (ymm12 * ymm20) + ymm27 vfmadd231ps %ymm22, %ymm12, %ymm28 # ymm28 = (ymm12 * ymm22) + ymm28 vfmadd231ps %ymm0, %ymm6, %ymm26 # ymm26 = (ymm6 * ymm0) + ymm26 vfmadd231ps %ymm3, %ymm6, %ymm27 # ymm27 = (ymm6 * ymm3) + ymm27 vfmadd231ps %ymm4, %ymm6, %ymm28 # ymm28 = (ymm6 * ymm4) + ymm28 vbroadcastss 0x8489b(%rip), %ymm20 # 0x1f214d0 vmulps %ymm20, %ymm26, %ymm3 vmulps %ymm20, %ymm27, %ymm4 vmulps %ymm20, %ymm28, %ymm7 vxorps %xmm5, %xmm5, %xmm5 vblendps $0x1, %ymm5, %ymm3, %ymm8 # ymm8 = ymm5[0],ymm3[1,2,3,4,5,6,7] vblendps $0x1, %ymm5, %ymm4, %ymm1 # ymm1 = ymm5[0],ymm4[1,2,3,4,5,6,7] vblendps $0x1, %ymm5, %ymm7, %ymm0 # ymm0 = ymm5[0],ymm7[1,2,3,4,5,6,7] vsubps %ymm8, %ymm14, %ymm8 vsubps %ymm1, %ymm18, %ymm1 vsubps %ymm0, %ymm21, %ymm0 vblendps $0x80, %ymm5, %ymm3, %ymm3 # ymm3 = ymm3[0,1,2,3,4,5,6],ymm5[7] vblendps $0x80, %ymm5, %ymm4, %ymm4 # ymm4 = ymm4[0,1,2,3,4,5,6],ymm5[7] vblendps $0x80, %ymm5, %ymm7, %ymm7 # ymm7 = ymm7[0,1,2,3,4,5,6],ymm5[7] vaddps %ymm3, %ymm14, %ymm24 vaddps %ymm4, %ymm18, %ymm25 vaddps %ymm7, %ymm21, %ymm7 vbroadcastss 0x4ed84(%rip), %ymm22 # 0x1eeba20 vminps %ymm14, %ymm22, %ymm3 vminps %ymm18, %ymm22, %ymm17 vminps %ymm21, %ymm22, %ymm23 vminps %ymm24, %ymm8, %ymm4 vminps %ymm4, %ymm3, %ymm3 vmovups %ymm3, -0x48(%rsp) vminps %ymm25, %ymm1, %ymm3 vminps %ymm3, %ymm17, %ymm3 vmovups %ymm3, -0x28(%rsp) vminps %ymm7, %ymm0, %ymm17 vminps %ymm17, %ymm23, %ymm17 vbroadcastss 0x4fe9e(%rip), %ymm23 # 0x1eecb84 vmaxps %ymm14, %ymm23, %ymm14 vmaxps %ymm18, %ymm23, %ymm18 vmaxps %ymm21, %ymm23, %ymm26 vmaxps %ymm24, %ymm8, %ymm8 vmaxps %ymm8, %ymm14, %ymm21 vmaxps %ymm25, %ymm1, %ymm1 vmaxps %ymm1, %ymm18, %ymm18 vmaxps %ymm7, %ymm0, %ymm0 vmaxps %ymm0, %ymm26, %ymm14 vbroadcastss %xmm31, %ymm4 vpermps %ymm31, %ymm2, %ymm8 vpermps %ymm31, %ymm11, %ymm24 vmovups -0x68(%rsp), %ymm0 vbroadcastss %xmm0, %ymm25 vpermps %ymm0, %ymm2, %ymm26 vpermps %ymm0, %ymm11, %ymm27 vbroadcastss %xmm30, %ymm28 vpermps %ymm30, %ymm2, %ymm31 vpermps %ymm30, %ymm11, %ymm30 vbroadcastss %xmm29, %ymm0 vpermps %ymm29, %ymm2, %ymm3 vpermps %ymm29, %ymm11, %ymm11 vmulps %ymm16, %ymm0, %ymm1 vmulps %ymm16, %ymm3, %ymm2 vmulps %ymm16, %ymm11, %ymm7 vfmadd231ps %ymm28, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm28) + ymm1 vfmadd231ps %ymm31, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm31) + ymm2 vfmadd231ps %ymm13, %ymm30, %ymm7 # ymm7 = (ymm30 * ymm13) + ymm7 vfmadd231ps %ymm25, %ymm10, %ymm1 # ymm1 = (ymm10 * ymm25) + ymm1 vfmadd231ps %ymm26, %ymm10, %ymm2 # ymm2 = (ymm10 * ymm26) + ymm2 vfmadd231ps %ymm10, %ymm27, %ymm7 # ymm7 = (ymm27 * ymm10) + ymm7 vfmadd231ps %ymm4, %ymm9, %ymm1 # ymm1 = (ymm9 * ymm4) + ymm1 vfmadd231ps %ymm8, %ymm9, %ymm2 # ymm2 = (ymm9 * ymm8) + ymm2 vfmadd231ps %ymm9, %ymm24, %ymm7 # ymm7 = (ymm24 * ymm9) + ymm7 vmulps %ymm19, %ymm0, %ymm0 vmulps %ymm19, %ymm3, %ymm3 vmulps %ymm19, %ymm11, %ymm9 vfmadd231ps %ymm28, %ymm15, %ymm0 # ymm0 = (ymm15 * ymm28) + ymm0 vfmadd231ps %ymm31, %ymm15, %ymm3 # ymm3 = (ymm15 * ymm31) + ymm3 vfmadd231ps %ymm30, %ymm15, %ymm9 # ymm9 = (ymm15 * ymm30) + ymm9 vfmadd231ps %ymm25, %ymm12, %ymm0 # ymm0 = (ymm12 * ymm25) + ymm0 vfmadd231ps %ymm26, %ymm12, %ymm3 # ymm3 = (ymm12 * ymm26) + ymm3 vfmadd231ps %ymm27, %ymm12, %ymm9 # ymm9 = (ymm12 * ymm27) + ymm9 vfmadd231ps %ymm4, %ymm6, %ymm0 # ymm0 = (ymm6 * ymm4) + ymm0 vfmadd231ps %ymm8, %ymm6, %ymm3 # ymm3 = (ymm6 * ymm8) + ymm3 vfmadd231ps %ymm24, %ymm6, %ymm9 # ymm9 = (ymm6 * ymm24) + ymm9 vmulps %ymm20, %ymm0, %ymm0 vmulps %ymm20, %ymm3, %ymm3 vmulps %ymm20, %ymm9, %ymm4 vblendps $0x1, %ymm5, %ymm0, %ymm6 # ymm6 = ymm5[0],ymm0[1,2,3,4,5,6,7] vblendps $0x1, %ymm5, %ymm3, %ymm8 # ymm8 = ymm5[0],ymm3[1,2,3,4,5,6,7] vblendps $0x1, %ymm5, %ymm4, %ymm9 # ymm9 = ymm5[0],ymm4[1,2,3,4,5,6,7] vsubps %ymm6, %ymm1, %ymm6 vsubps %ymm8, %ymm2, %ymm10 vsubps %ymm9, %ymm7, %ymm9 vblendps $0x80, %ymm5, %ymm0, %ymm0 # ymm0 = ymm0[0,1,2,3,4,5,6],ymm5[7] vblendps $0x80, %ymm5, %ymm3, %ymm3 # ymm3 = ymm3[0,1,2,3,4,5,6],ymm5[7] vblendps $0x80, %ymm5, %ymm4, %ymm4 # ymm4 = ymm4[0,1,2,3,4,5,6],ymm5[7] vaddps %ymm0, %ymm1, %ymm0 vaddps %ymm3, %ymm2, %ymm3 vaddps %ymm4, %ymm7, %ymm4 vminps %ymm1, %ymm22, %ymm5 vminps %ymm2, %ymm22, %ymm8 vminps %ymm7, %ymm22, %ymm11 vminps %ymm0, %ymm6, %ymm12 vminps %ymm12, %ymm5, %ymm12 vminps %ymm3, %ymm10, %ymm5 vminps %ymm5, %ymm8, %ymm8 vminps %ymm4, %ymm9, %ymm5 vminps %ymm5, %ymm11, %ymm5 vmaxps %ymm1, %ymm23, %ymm1 vmaxps %ymm2, %ymm23, %ymm11 vmaxps %ymm7, %ymm23, %ymm7 vmaxps %ymm0, %ymm6, %ymm0 vmaxps %ymm0, %ymm1, %ymm2 vmaxps %ymm3, %ymm10, %ymm0 vmaxps %ymm0, %ymm11, %ymm1 vmaxps %ymm4, %ymm9, %ymm0 vmaxps %ymm0, %ymm7, %ymm0 vshufps $0xb1, %ymm21, %ymm21, %ymm3 # ymm3 = ymm21[1,0,3,2,5,4,7,6] vmaxps %ymm3, %ymm21, %ymm3 vshufpd $0x5, %ymm3, %ymm3, %ymm4 # ymm4 = ymm3[1,0,3,2] vmaxps %ymm4, %ymm3, %ymm3 vextractf128 $0x1, %ymm3, %xmm4 vmaxps %xmm4, %xmm3, %xmm3 vshufps $0xb1, %ymm18, %ymm18, %ymm4 # ymm4 = ymm18[1,0,3,2,5,4,7,6] vmaxps %ymm4, %ymm18, %ymm4 vshufpd $0x5, %ymm4, %ymm4, %ymm6 # ymm6 = ymm4[1,0,3,2] vmaxps %ymm6, %ymm4, %ymm4 vextractf128 $0x1, %ymm4, %xmm6 vmaxps %xmm6, %xmm4, %xmm4 vunpcklps %xmm4, %xmm3, %xmm3 # xmm3 = xmm3[0],xmm4[0],xmm3[1],xmm4[1] vshufps $0xb1, %ymm14, %ymm14, %ymm4 # ymm4 = ymm14[1,0,3,2,5,4,7,6] vmaxps %ymm4, %ymm14, %ymm4 vshufpd $0x5, %ymm4, %ymm4, %ymm6 # ymm6 = ymm4[1,0,3,2] vmaxps %ymm6, %ymm4, %ymm4 vextractf128 $0x1, %ymm4, %xmm6 vmaxps %xmm6, %xmm4, %xmm4 vinsertps $0x28, %xmm4, %xmm3, %xmm6 # xmm6 = xmm3[0,1],xmm4[0],zero vmovups -0x48(%rsp), %ymm4 vshufps $0xb1, %ymm4, %ymm4, %ymm3 # ymm3 = ymm4[1,0,3,2,5,4,7,6] vminps %ymm3, %ymm4, %ymm3 vshufpd $0x5, %ymm3, %ymm3, %ymm4 # ymm4 = ymm3[1,0,3,2] vminps %ymm4, %ymm3, %ymm3 vextractf128 $0x1, %ymm3, %xmm4 vminps %xmm4, %xmm3, %xmm3 vmovups -0x28(%rsp), %ymm7 vshufps $0xb1, %ymm7, %ymm7, %ymm4 # ymm4 = ymm7[1,0,3,2,5,4,7,6] vminps %ymm4, %ymm7, %ymm4 vshufpd $0x5, %ymm4, %ymm4, %ymm7 # ymm7 = ymm4[1,0,3,2] vminps %ymm7, %ymm4, %ymm4 vextractf128 $0x1, %ymm4, %xmm7 vminps %xmm7, %xmm4, %xmm4 vunpcklps %xmm4, %xmm3, %xmm3 # xmm3 = xmm3[0],xmm4[0],xmm3[1],xmm4[1] vshufps $0xb1, %ymm17, %ymm17, %ymm4 # ymm4 = ymm17[1,0,3,2,5,4,7,6] vminps %ymm4, %ymm17, %ymm4 vshufpd $0x5, %ymm4, %ymm4, %ymm7 # ymm7 = ymm4[1,0,3,2] vminps %ymm7, %ymm4, %ymm4 vextractf128 $0x1, %ymm4, %xmm7 vminps %xmm7, %xmm4, %xmm4 vinsertps $0x28, %xmm4, %xmm3, %xmm3 # xmm3 = xmm3[0,1],xmm4[0],zero vshufps $0xb1, %ymm12, %ymm12, %ymm4 # ymm4 = ymm12[1,0,3,2,5,4,7,6] vminps %ymm4, %ymm12, %ymm4 vshufpd $0x5, %ymm4, %ymm4, %ymm7 # ymm7 = ymm4[1,0,3,2] vminps %ymm7, %ymm4, %ymm4 vextractf128 $0x1, %ymm4, %xmm7 vminps %xmm7, %xmm4, %xmm4 vshufps $0xb1, %ymm8, %ymm8, %ymm7 # ymm7 = ymm8[1,0,3,2,5,4,7,6] vminps %ymm7, %ymm8, %ymm7 vshufpd $0x5, %ymm7, %ymm7, %ymm8 # ymm8 = ymm7[1,0,3,2] vminps %ymm8, %ymm7, %ymm7 vextractf128 $0x1, %ymm7, %xmm8 vminps %xmm8, %xmm7, %xmm7 vunpcklps %xmm7, %xmm4, %xmm4 # xmm4 = xmm4[0],xmm7[0],xmm4[1],xmm7[1] vshufps $0xb1, %ymm5, %ymm5, %ymm7 # ymm7 = ymm5[1,0,3,2,5,4,7,6] vminps %ymm7, %ymm5, %ymm5 vshufpd $0x5, %ymm5, %ymm5, %ymm7 # ymm7 = ymm5[1,0,3,2] vminps %ymm7, %ymm5, %ymm5 vextractf128 $0x1, %ymm5, %xmm7 vminps %xmm7, %xmm5, %xmm5 vinsertps $0x28, %xmm5, %xmm4, %xmm4 # xmm4 = xmm4[0,1],xmm5[0],zero vminps %xmm4, %xmm3, %xmm3 vshufps $0xb1, %ymm2, %ymm2, %ymm4 # ymm4 = ymm2[1,0,3,2,5,4,7,6] vmaxps %ymm4, %ymm2, %ymm2 vshufpd $0x5, %ymm2, %ymm2, %ymm4 # ymm4 = ymm2[1,0,3,2] vmaxps %ymm4, %ymm2, %ymm2 vextractf128 $0x1, %ymm2, %xmm4 vmaxps %xmm4, %xmm2, %xmm2 vshufps $0xb1, %ymm1, %ymm1, %ymm4 # ymm4 = ymm1[1,0,3,2,5,4,7,6] vmaxps %ymm4, %ymm1, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm4 # ymm4 = ymm1[1,0,3,2] vmaxps %ymm4, %ymm1, %ymm1 vextractf128 $0x1, %ymm1, %xmm4 vmaxps %xmm4, %xmm1, %xmm1 vunpcklps %xmm1, %xmm2, %xmm1 # xmm1 = xmm2[0],xmm1[0],xmm2[1],xmm1[1] vshufps $0xb1, %ymm0, %ymm0, %ymm2 # ymm2 = ymm0[1,0,3,2,5,4,7,6] vmaxps %ymm2, %ymm0, %ymm0 vshufpd $0x5, %ymm0, %ymm0, %ymm2 # ymm2 = ymm0[1,0,3,2] vmaxps %ymm2, %ymm0, %ymm0 vextractf128 $0x1, %ymm0, %xmm2 vmaxps %xmm2, %xmm0, %xmm0 vinsertps $0x28, %xmm0, %xmm1, %xmm0 # xmm0 = xmm1[0,1],xmm0[0],zero vmaxps %xmm0, %xmm6, %xmm0 vbroadcastss 0x83e85(%rip), %xmm1 # 0x1f20ec4 vandps %xmm1, %xmm3, %xmm2 vandps %xmm1, %xmm0, %xmm1 vmaxps %xmm1, %xmm2, %xmm1 vmovshdup %xmm1, %xmm2 # xmm2 = xmm1[1,1,3,3] vmaxss %xmm1, %xmm2, %xmm2 vshufpd $0x1, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[1,0] vmaxss %xmm2, %xmm1, %xmm1 vmulss 0x53f80(%rip), %xmm1, %xmm1 # 0x1ef0fe4 vbroadcastss %xmm1, %xmm1 vsubps %xmm1, %xmm3, %xmm2 vaddps %xmm1, %xmm0, %xmm0 vmovaps %xmm2, (%rax) vmovaps %xmm0, 0x10(%rax) popq %rbx popq %r14 vzeroupper retq nop
/embree[P]embree/kernels/common/scene_curves.cpp
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)2, embree::avx512::HermiteCurveGeometryInterface, embree::HermiteCurveT>::linearBounds(embree::LinearSpace3<embree::Vec3fa> const&, unsigned long, embree::BBox<float> const&) const::'lambda'(unsigned long)::operator()(unsigned long) const
__forceinline LBBox3fa linearBounds(const LinearSpace3fa& space, size_t primID, const BBox1f& dt) const { return LBBox3fa([&] (size_t itime) { return bounds(space, primID, itime); }, dt, this->time_range, fnumTimeSegments); }
pushq %r15 pushq %r14 pushq %rbx movq %rdi, %rax movq 0x10(%rsi), %rdi movq 0x8(%rsi), %rcx movq 0x58(%rdi), %r8 movq 0x68(%rdi), %r9 imulq (%rcx), %r9 movl (%r8,%r9), %r8d movq 0x188(%rdi), %rcx imulq $0x38, %rdx, %rdx movq (%rcx,%rdx), %r9 movq 0x10(%rcx,%rdx), %r10 movq %r10, %r11 imulq %r8, %r11 vmovaps (%r9,%r11), %xmm0 movq (%rsi), %rcx leal 0x1(%r8), %esi imulq %rsi, %r10 vmovaps (%r9,%r10), %xmm1 movq 0x1c8(%rdi), %rbx movq (%rbx,%rdx), %r14 movq 0x10(%rbx,%rdx), %rbx movq %rbx, %r15 imulq %r8, %r15 vmovaps (%r14,%r15), %xmm2 imulq %rsi, %rbx vmovaps (%r14,%rbx), %xmm3 vmovss 0x24c(%rdi), %xmm4 vmulss 0xc(%r9,%r11), %xmm4, %xmm5 vinsertps $0x30, %xmm5, %xmm0, %xmm6 # xmm6 = xmm0[0,1,2],xmm5[0] vmulss 0xc(%r9,%r10), %xmm4, %xmm0 vinsertps $0x30, %xmm0, %xmm1, %xmm7 # xmm7 = xmm1[0,1,2],xmm0[0] vmulss 0xc(%r14,%r15), %xmm4, %xmm0 vinsertps $0x30, %xmm0, %xmm2, %xmm8 # xmm8 = xmm2[0,1,2],xmm0[0] vmulss 0xc(%r14,%rbx), %xmm4, %xmm0 vinsertps $0x30, %xmm0, %xmm3, %xmm9 # xmm9 = xmm3[0,1,2],xmm0[0] vbroadcastss 0xc032c(%rip), %xmm5 # 0x1f5d46c vfnmadd213ps %xmm6, %xmm5, %xmm8 # xmm8 = -(xmm5 * xmm8) + xmm6 vfmadd213ps %xmm7, %xmm5, %xmm9 # xmm9 = (xmm5 * xmm9) + xmm7 movq 0x1a8(%rdi), %r9 movq (%r9,%rdx), %r10 movq 0x10(%r9,%rdx), %r9 movq %r9, %r11 imulq %r8, %r11 vmovups (%r10,%r11), %xmm10 imulq %rsi, %r9 vmovups (%r10,%r9), %xmm11 movq 0x1e8(%rdi), %rdi movq (%rdi,%rdx), %r9 movq 0x10(%rdi,%rdx), %rdx imulq %rdx, %r8 imulq %rsi, %rdx vmovups (%r9,%r8), %xmm12 vfnmadd132ps %xmm5, %xmm10, %xmm12 # xmm12 = -(xmm12 * xmm5) + xmm10 vfmadd132ps (%r9,%rdx), %xmm11, %xmm5 # xmm5 = (xmm5 * mem) + xmm11 vxorps %xmm3, %xmm3, %xmm3 vmulps %xmm3, %xmm7, %xmm0 vfmadd231ps %xmm3, %xmm9, %xmm0 # xmm0 = (xmm9 * xmm3) + xmm0 vxorps %xmm1, %xmm1, %xmm1 vfmadd213ps %xmm0, %xmm8, %xmm1 # xmm1 = (xmm8 * xmm1) + xmm0 vaddps %xmm1, %xmm6, %xmm1 vbroadcastss 0x53e2f(%rip), %xmm13 # 0x1ef0fec vfmadd231ps %xmm13, %xmm8, %xmm0 # xmm0 = (xmm8 * xmm13) + xmm0 vfnmadd231ps %xmm13, %xmm6, %xmm0 # xmm0 = -(xmm6 * xmm13) + xmm0 vmulps %xmm3, %xmm11, %xmm14 vfmadd231ps %xmm3, %xmm5, %xmm14 # xmm14 = (xmm5 * xmm3) + xmm14 vxorps %xmm2, %xmm2, %xmm2 vfmadd213ps %xmm14, %xmm12, %xmm2 # xmm2 = (xmm12 * xmm2) + xmm14 vaddps %xmm2, %xmm10, %xmm15 vfmadd231ps %xmm13, %xmm12, %xmm14 # xmm14 = (xmm12 * xmm13) + xmm14 vfnmadd231ps %xmm13, %xmm10, %xmm14 # xmm14 = -(xmm10 * xmm13) + xmm14 vxorps %xmm2, %xmm2, %xmm2 vfmadd213ps %xmm7, %xmm9, %xmm2 # xmm2 = (xmm9 * xmm2) + xmm7 vfmadd231ps %xmm3, %xmm8, %xmm2 # xmm2 = (xmm8 * xmm3) + xmm2 vfmadd231ps %xmm3, %xmm6, %xmm2 # xmm2 = (xmm6 * xmm3) + xmm2 vmulps %xmm7, %xmm13, %xmm4 vfnmadd231ps %xmm9, %xmm13, %xmm4 # xmm4 = -(xmm13 * xmm9) + xmm4 vfmadd231ps %xmm8, %xmm3, %xmm4 # xmm4 = (xmm3 * xmm8) + xmm4 vfnmadd231ps %xmm6, %xmm3, %xmm4 # xmm4 = -(xmm3 * xmm6) + xmm4 vxorps %xmm6, %xmm6, %xmm6 vfmadd213ps %xmm11, %xmm5, %xmm6 # xmm6 = (xmm5 * xmm6) + xmm11 vfmadd231ps %xmm3, %xmm12, %xmm6 # xmm6 = (xmm12 * xmm3) + xmm6 vfmadd231ps %xmm3, %xmm10, %xmm6 # xmm6 = (xmm10 * xmm3) + xmm6 vmulps %xmm13, %xmm11, %xmm8 vfnmadd231ps %xmm5, %xmm13, %xmm8 # xmm8 = -(xmm13 * xmm5) + xmm8 vfmadd231ps %xmm12, %xmm3, %xmm8 # xmm8 = (xmm3 * xmm12) + xmm8 vfnmadd231ps %xmm10, %xmm3, %xmm8 # xmm8 = -(xmm3 * xmm10) + xmm8 vshufps $0xc9, %xmm0, %xmm0, %xmm5 # xmm5 = xmm0[1,2,0,3] vshufps $0xc9, %xmm15, %xmm15, %xmm7 # xmm7 = xmm15[1,2,0,3] vmulps %xmm7, %xmm0, %xmm7 vfmsub231ps %xmm15, %xmm5, %xmm7 # xmm7 = (xmm5 * xmm15) - xmm7 vshufps $0xc9, %xmm7, %xmm7, %xmm7 # xmm7 = xmm7[1,2,0,3] vshufps $0xc9, %xmm14, %xmm14, %xmm9 # xmm9 = xmm14[1,2,0,3] vmulps %xmm0, %xmm9, %xmm9 vfmsub231ps %xmm14, %xmm5, %xmm9 # xmm9 = (xmm5 * xmm14) - xmm9 vshufps $0xc9, %xmm9, %xmm9, %xmm9 # xmm9 = xmm9[1,2,0,3] vshufps $0xc9, %xmm4, %xmm4, %xmm10 # xmm10 = xmm4[1,2,0,3] vshufps $0xc9, %xmm6, %xmm6, %xmm5 # xmm5 = xmm6[1,2,0,3] vmulps %xmm5, %xmm4, %xmm5 vfmsub231ps %xmm6, %xmm10, %xmm5 # xmm5 = (xmm10 * xmm6) - xmm5 vshufps $0xc9, %xmm5, %xmm5, %xmm5 # xmm5 = xmm5[1,2,0,3] vshufps $0xc9, %xmm8, %xmm8, %xmm6 # xmm6 = xmm8[1,2,0,3] vmulps %xmm6, %xmm4, %xmm6 vfmsub231ps %xmm8, %xmm10, %xmm6 # xmm6 = (xmm10 * xmm8) - xmm6 vshufps $0xc9, %xmm6, %xmm6, %xmm6 # xmm6 = xmm6[1,2,0,3] vdpps $0x7f, %xmm7, %xmm7, %xmm8 vmovss %xmm8, %xmm3, %xmm10 # xmm10 = xmm8[0],xmm3[1,2,3] vrsqrt14ss %xmm10, %xmm3, %xmm11 vmovss 0x4f471(%rip), %xmm12 # 0x1eec718 vmulss %xmm12, %xmm11, %xmm13 vmovss 0x4f8cc(%rip), %xmm14 # 0x1eecb80 vmulss %xmm14, %xmm8, %xmm15 vmulss %xmm11, %xmm15, %xmm15 vmulss %xmm11, %xmm11, %xmm11 vmulss %xmm11, %xmm15, %xmm11 vsubss %xmm11, %xmm13, %xmm11 vbroadcastss %xmm11, %xmm11 vmulps %xmm7, %xmm11, %xmm13 vdpps $0x7f, %xmm9, %xmm7, %xmm15 vbroadcastss %xmm8, %xmm16 vmulps %xmm9, %xmm16, %xmm9 vbroadcastss %xmm15, %xmm15 vmulps %xmm7, %xmm15, %xmm7 vsubps %xmm7, %xmm9, %xmm7 vrcp14ss %xmm10, %xmm3, %xmm9 vmovss 0x53cf5(%rip), %xmm10 # 0x1ef0ff8 vfnmadd213ss %xmm10, %xmm9, %xmm8 # xmm8 = -(xmm9 * xmm8) + xmm10 vmulss %xmm8, %xmm9, %xmm8 vdpps $0x7f, %xmm5, %xmm5, %xmm9 vbroadcastss %xmm8, %xmm8 vmulps %xmm7, %xmm8, %xmm7 vmulps %xmm7, %xmm11, %xmm7 vmovss %xmm9, %xmm3, %xmm8 # xmm8 = xmm9[0],xmm3[1,2,3] vrsqrt14ss %xmm8, %xmm3, %xmm11 vmulss %xmm12, %xmm11, %xmm12 vmulss %xmm14, %xmm9, %xmm14 vmulss %xmm11, %xmm14, %xmm14 vmulss %xmm11, %xmm11, %xmm11 vmulss %xmm11, %xmm14, %xmm11 vsubss %xmm11, %xmm12, %xmm11 vbroadcastss %xmm11, %xmm11 vmulps %xmm5, %xmm11, %xmm12 vdpps $0x7f, %xmm6, %xmm5, %xmm14 vbroadcastss %xmm9, %xmm15 vmulps %xmm6, %xmm15, %xmm6 vbroadcastss %xmm14, %xmm14 vmulps %xmm5, %xmm14, %xmm5 vsubps %xmm5, %xmm6, %xmm5 vrcp14ss %xmm8, %xmm3, %xmm3 vfnmadd213ss %xmm10, %xmm3, %xmm9 # xmm9 = -(xmm3 * xmm9) + xmm10 vmulss %xmm3, %xmm9, %xmm3 vbroadcastss %xmm3, %xmm3 vmulps %xmm3, %xmm5, %xmm3 vmulps %xmm3, %xmm11, %xmm3 vshufps $0xff, %xmm1, %xmm1, %xmm5 # xmm5 = xmm1[3,3,3,3] vmulps %xmm5, %xmm13, %xmm6 vsubps %xmm6, %xmm1, %xmm8 vshufps $0xff, %xmm0, %xmm0, %xmm9 # xmm9 = xmm0[3,3,3,3] vmulps %xmm13, %xmm9, %xmm9 vmulps %xmm7, %xmm5, %xmm5 vaddps %xmm5, %xmm9, %xmm5 vsubps %xmm5, %xmm0, %xmm7 vaddps %xmm6, %xmm1, %xmm9 vaddps %xmm5, %xmm0, %xmm0 vshufps $0xff, %xmm2, %xmm2, %xmm1 # xmm1 = xmm2[3,3,3,3] vmulps %xmm1, %xmm12, %xmm5 vsubps %xmm5, %xmm2, %xmm10 vshufps $0xff, %xmm4, %xmm4, %xmm6 # xmm6 = xmm4[3,3,3,3] vmulps %xmm6, %xmm12, %xmm6 vmulps %xmm3, %xmm1, %xmm1 vaddps %xmm1, %xmm6, %xmm3 vsubps %xmm3, %xmm4, %xmm6 vaddps %xmm5, %xmm2, %xmm1 vaddps %xmm3, %xmm4, %xmm2 vbroadcastss 0x54ad4(%rip), %xmm3 # 0x1ef1ebc vmulps %xmm3, %xmm7, %xmm4 vaddps %xmm4, %xmm8, %xmm4 vmulps %xmm3, %xmm6, %xmm5 vsubps %xmm5, %xmm10, %xmm11 vmulps %xmm3, %xmm0, %xmm0 vaddps %xmm0, %xmm9, %xmm12 vmulps %xmm3, %xmm2, %xmm0 vsubps %xmm0, %xmm1, %xmm13 vbroadcastss %xmm8, %xmm0 vshufps $0x55, %xmm8, %xmm8, %xmm2 # xmm2 = xmm8[1,1,1,1] vmovaps (%rcx), %xmm5 vmovaps 0x10(%rcx), %xmm7 vmovaps 0x20(%rcx), %xmm6 vshufps $0xaa, %xmm8, %xmm8, %xmm3 # xmm3 = xmm8[2,2,2,2] vmulps %xmm3, %xmm6, %xmm3 vfmadd231ps %xmm2, %xmm7, %xmm3 # xmm3 = (xmm7 * xmm2) + xmm3 vfmadd231ps %xmm0, %xmm5, %xmm3 # xmm3 = (xmm5 * xmm0) + xmm3 vbroadcastss %xmm4, %xmm0 vshufps $0x55, %xmm4, %xmm4, %xmm2 # xmm2 = xmm4[1,1,1,1] vshufps $0xaa, %xmm4, %xmm4, %xmm4 # xmm4 = xmm4[2,2,2,2] vmulps %xmm4, %xmm6, %xmm8 vfmadd231ps %xmm2, %xmm7, %xmm8 # xmm8 = (xmm7 * xmm2) + xmm8 vfmadd231ps %xmm0, %xmm5, %xmm8 # xmm8 = (xmm5 * xmm0) + xmm8 vbroadcastss %xmm11, %xmm0 vshufps $0x55, %xmm11, %xmm11, %xmm2 # xmm2 = xmm11[1,1,1,1] vshufps $0xaa, %xmm11, %xmm11, %xmm4 # xmm4 = xmm11[2,2,2,2] vmulps %xmm4, %xmm6, %xmm14 vfmadd231ps %xmm2, %xmm7, %xmm14 # xmm14 = (xmm7 * xmm2) + xmm14 vfmadd231ps %xmm0, %xmm5, %xmm14 # xmm14 = (xmm5 * xmm0) + xmm14 vbroadcastss %xmm10, %xmm0 vshufps $0x55, %xmm10, %xmm10, %xmm2 # xmm2 = xmm10[1,1,1,1] vshufps $0xaa, %xmm10, %xmm10, %xmm4 # xmm4 = xmm10[2,2,2,2] vmulps %xmm4, %xmm6, %xmm15 vfmadd231ps %xmm2, %xmm7, %xmm15 # xmm15 = (xmm7 * xmm2) + xmm15 vfmadd231ps %xmm0, %xmm5, %xmm15 # xmm15 = (xmm5 * xmm0) + xmm15 vbroadcastss %xmm9, %xmm2 vshufps $0x55, %xmm9, %xmm9, %xmm4 # xmm4 = xmm9[1,1,1,1] vshufps $0xaa, %xmm9, %xmm9, %xmm0 # xmm0 = xmm9[2,2,2,2] vmulps %xmm0, %xmm6, %xmm22 vfmadd231ps %xmm4, %xmm7, %xmm22 # xmm22 = (xmm7 * xmm4) + xmm22 vfmadd231ps %xmm2, %xmm5, %xmm22 # xmm22 = (xmm5 * xmm2) + xmm22 vbroadcastss %xmm12, %xmm4 vshufps $0x55, %xmm12, %xmm12, %xmm9 # xmm9 = xmm12[1,1,1,1] vshufps $0xaa, %xmm12, %xmm12, %xmm2 # xmm2 = xmm12[2,2,2,2] vmulps %xmm2, %xmm6, %xmm20 vfmadd231ps %xmm9, %xmm7, %xmm20 # xmm20 = (xmm7 * xmm9) + xmm20 vfmadd231ps %xmm4, %xmm5, %xmm20 # xmm20 = (xmm5 * xmm4) + xmm20 vbroadcastss %xmm13, %xmm9 vshufps $0x55, %xmm13, %xmm13, %xmm10 # xmm10 = xmm13[1,1,1,1] vshufps $0xaa, %xmm13, %xmm13, %xmm4 # xmm4 = xmm13[2,2,2,2] vmulps %xmm4, %xmm6, %xmm2 vfmadd231ps %xmm10, %xmm7, %xmm2 # xmm2 = (xmm7 * xmm10) + xmm2 vfmadd231ps %xmm9, %xmm5, %xmm2 # xmm2 = (xmm5 * xmm9) + xmm2 vbroadcastss %xmm1, %xmm9 vshufps $0x55, %xmm1, %xmm1, %xmm10 # xmm10 = xmm1[1,1,1,1] vshufps $0xaa, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,2,2,2] vmulps %xmm1, %xmm6, %xmm6 vfmadd231ps %xmm10, %xmm7, %xmm6 # xmm6 = (xmm7 * xmm10) + xmm6 vfmadd231ps %xmm9, %xmm5, %xmm6 # xmm6 = (xmm5 * xmm9) + xmm6 vbroadcastss 0x751e8(%rip), %ymm29 # 0x1f12704 vbroadcastss %xmm3, %ymm1 vpermps %ymm3, %ymm29, %ymm5 vbroadcastss 0x839ab(%rip), %ymm30 # 0x1f20edc vpermps %ymm3, %ymm30, %ymm3 vbroadcastss %xmm8, %ymm17 vpermps %ymm8, %ymm29, %ymm4 vpermps %ymm8, %ymm30, %ymm0 vbroadcastss %xmm14, %ymm23 vpermps %ymm14, %ymm29, %ymm24 vpermps %ymm14, %ymm30, %ymm25 vbroadcastss %xmm15, %ymm26 vpermps %ymm15, %ymm29, %ymm27 leaq 0x289d76(%rip), %rcx # 0x21272e4 vmovups 0x1dc(%rcx), %ymm31 vmovups 0x660(%rcx), %ymm10 vpermps %ymm15, %ymm30, %ymm28 vmovups 0xae4(%rcx), %ymm13 vmovups 0xf68(%rcx), %ymm16 vmulps %ymm16, %ymm26, %ymm14 vmulps %ymm16, %ymm27, %ymm18 vmulps %ymm16, %ymm28, %ymm21 vfmadd231ps %ymm23, %ymm13, %ymm14 # ymm14 = (ymm13 * ymm23) + ymm14 vfmadd231ps %ymm24, %ymm13, %ymm18 # ymm18 = (ymm13 * ymm24) + ymm18 vfmadd231ps %ymm25, %ymm13, %ymm21 # ymm21 = (ymm13 * ymm25) + ymm21 vfmadd231ps %ymm17, %ymm10, %ymm14 # ymm14 = (ymm10 * ymm17) + ymm14 vfmadd231ps %ymm4, %ymm10, %ymm18 # ymm18 = (ymm10 * ymm4) + ymm18 vfmadd231ps %ymm0, %ymm10, %ymm21 # ymm21 = (ymm10 * ymm0) + ymm21 vfmadd231ps %ymm1, %ymm31, %ymm14 # ymm14 = (ymm31 * ymm1) + ymm14 vfmadd231ps %ymm5, %ymm31, %ymm18 # ymm18 = (ymm31 * ymm5) + ymm18 vmovups 0x13ec(%rcx), %ymm8 vmovups 0x1870(%rcx), %ymm12 vmovups 0x1cf4(%rcx), %ymm15 vmovups 0x2178(%rcx), %ymm19 vfmadd231ps %ymm3, %ymm31, %ymm21 # ymm21 = (ymm31 * ymm3) + ymm21 vmulps %ymm19, %ymm26, %ymm26 vmulps %ymm19, %ymm27, %ymm27 vmulps %ymm19, %ymm28, %ymm28 vfmadd231ps %ymm23, %ymm15, %ymm26 # ymm26 = (ymm15 * ymm23) + ymm26 vfmadd231ps %ymm24, %ymm15, %ymm27 # ymm27 = (ymm15 * ymm24) + ymm27 vfmadd231ps %ymm25, %ymm15, %ymm28 # ymm28 = (ymm15 * ymm25) + ymm28 vfmadd231ps %ymm17, %ymm12, %ymm26 # ymm26 = (ymm12 * ymm17) + ymm26 vfmadd231ps %ymm4, %ymm12, %ymm27 # ymm27 = (ymm12 * ymm4) + ymm27 vfmadd231ps %ymm0, %ymm12, %ymm28 # ymm28 = (ymm12 * ymm0) + ymm28 vfmadd231ps %ymm1, %ymm8, %ymm26 # ymm26 = (ymm8 * ymm1) + ymm26 vfmadd231ps %ymm5, %ymm8, %ymm27 # ymm27 = (ymm8 * ymm5) + ymm27 vfmadd231ps %ymm3, %ymm8, %ymm28 # ymm28 = (ymm8 * ymm3) + ymm28 vbroadcastss 0x83e7d(%rip), %ymm0 # 0x1f214d0 vmulps %ymm0, %ymm26, %ymm3 vmulps %ymm0, %ymm27, %ymm5 vmulps %ymm0, %ymm28, %ymm9 vxorps %xmm4, %xmm4, %xmm4 vblendps $0x1, %ymm4, %ymm3, %ymm11 # ymm11 = ymm4[0],ymm3[1,2,3,4,5,6,7] vblendps $0x1, %ymm4, %ymm5, %ymm7 # ymm7 = ymm4[0],ymm5[1,2,3,4,5,6,7] vblendps $0x1, %ymm4, %ymm9, %ymm0 # ymm0 = ymm4[0],ymm9[1,2,3,4,5,6,7] vsubps %ymm11, %ymm14, %ymm11 vsubps %ymm7, %ymm18, %ymm24 vsubps %ymm0, %ymm21, %ymm0 vblendps $0x80, %ymm4, %ymm3, %ymm3 # ymm3 = ymm3[0,1,2,3,4,5,6],ymm4[7] vblendps $0x80, %ymm4, %ymm5, %ymm5 # ymm5 = ymm5[0,1,2,3,4,5,6],ymm4[7] vblendps $0x80, %ymm4, %ymm9, %ymm7 # ymm7 = ymm9[0,1,2,3,4,5,6],ymm4[7] vaddps %ymm3, %ymm14, %ymm9 vaddps %ymm5, %ymm18, %ymm25 vaddps %ymm7, %ymm21, %ymm26 vbroadcastss 0x4e369(%rip), %ymm7 # 0x1eeba20 vminps %ymm14, %ymm7, %ymm3 vminps %ymm18, %ymm7, %ymm17 vminps %ymm21, %ymm7, %ymm23 vminps %ymm9, %ymm11, %ymm5 vminps %ymm5, %ymm3, %ymm5 vminps %ymm25, %ymm24, %ymm3 vminps %ymm3, %ymm17, %ymm3 vminps %ymm26, %ymm0, %ymm17 vminps %ymm17, %ymm23, %ymm17 vbroadcastss 0x4f491(%rip), %ymm23 # 0x1eecb84 vmaxps %ymm14, %ymm23, %ymm14 vmaxps %ymm18, %ymm23, %ymm18 vmaxps %ymm21, %ymm23, %ymm27 vmaxps %ymm9, %ymm11, %ymm9 vmaxps %ymm9, %ymm14, %ymm21 vmaxps %ymm25, %ymm24, %ymm9 vmaxps %ymm9, %ymm18, %ymm18 vmaxps %ymm26, %ymm0, %ymm0 vmaxps %ymm0, %ymm27, %ymm14 vbroadcastss %xmm22, %ymm9 vpermps %ymm22, %ymm29, %ymm11 vpermps %ymm22, %ymm30, %ymm22 vbroadcastss %xmm20, %ymm24 vpermps %ymm20, %ymm29, %ymm25 vpermps %ymm20, %ymm30, %ymm26 vbroadcastss %xmm2, %ymm27 vpermps %ymm2, %ymm29, %ymm28 vpermps %ymm2, %ymm30, %ymm20 vbroadcastss %xmm6, %ymm1 vpermps %ymm6, %ymm29, %ymm29 vpermps %ymm6, %ymm30, %ymm30 vmulps %ymm16, %ymm1, %ymm0 vmulps %ymm16, %ymm29, %ymm2 vmulps %ymm16, %ymm30, %ymm6 vfmadd231ps %ymm27, %ymm13, %ymm0 # ymm0 = (ymm13 * ymm27) + ymm0 vfmadd231ps %ymm28, %ymm13, %ymm2 # ymm2 = (ymm13 * ymm28) + ymm2 vfmadd231ps %ymm13, %ymm20, %ymm6 # ymm6 = (ymm20 * ymm13) + ymm6 vfmadd231ps %ymm24, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm24) + ymm0 vfmadd231ps %ymm25, %ymm10, %ymm2 # ymm2 = (ymm10 * ymm25) + ymm2 vfmadd231ps %ymm10, %ymm26, %ymm6 # ymm6 = (ymm26 * ymm10) + ymm6 vfmadd231ps %ymm9, %ymm31, %ymm0 # ymm0 = (ymm31 * ymm9) + ymm0 vfmadd231ps %ymm11, %ymm31, %ymm2 # ymm2 = (ymm31 * ymm11) + ymm2 vfmadd231ps %ymm31, %ymm22, %ymm6 # ymm6 = (ymm22 * ymm31) + ymm6 vmulps %ymm19, %ymm1, %ymm1 vmulps %ymm19, %ymm29, %ymm10 vmulps %ymm19, %ymm30, %ymm13 vfmadd231ps %ymm27, %ymm15, %ymm1 # ymm1 = (ymm15 * ymm27) + ymm1 vfmadd231ps %ymm28, %ymm15, %ymm10 # ymm10 = (ymm15 * ymm28) + ymm10 vfmadd231ps %ymm20, %ymm15, %ymm13 # ymm13 = (ymm15 * ymm20) + ymm13 vfmadd231ps %ymm24, %ymm12, %ymm1 # ymm1 = (ymm12 * ymm24) + ymm1 vfmadd231ps %ymm25, %ymm12, %ymm10 # ymm10 = (ymm12 * ymm25) + ymm10 vfmadd231ps %ymm26, %ymm12, %ymm13 # ymm13 = (ymm12 * ymm26) + ymm13 vfmadd231ps %ymm9, %ymm8, %ymm1 # ymm1 = (ymm8 * ymm9) + ymm1 vfmadd231ps %ymm11, %ymm8, %ymm10 # ymm10 = (ymm8 * ymm11) + ymm10 vfmadd231ps %ymm22, %ymm8, %ymm13 # ymm13 = (ymm8 * ymm22) + ymm13 vbroadcastss 0x83cca(%rip), %ymm9 # 0x1f214d0 vmulps %ymm1, %ymm9, %ymm1 vmulps %ymm9, %ymm10, %ymm8 vmulps %ymm9, %ymm13, %ymm9 vblendps $0x1, %ymm4, %ymm1, %ymm10 # ymm10 = ymm4[0],ymm1[1,2,3,4,5,6,7] vblendps $0x1, %ymm4, %ymm8, %ymm11 # ymm11 = ymm4[0],ymm8[1,2,3,4,5,6,7] vblendps $0x1, %ymm4, %ymm9, %ymm12 # ymm12 = ymm4[0],ymm9[1,2,3,4,5,6,7] vsubps %ymm10, %ymm0, %ymm10 vsubps %ymm11, %ymm2, %ymm11 vsubps %ymm12, %ymm6, %ymm12 vblendps $0x80, %ymm4, %ymm1, %ymm1 # ymm1 = ymm1[0,1,2,3,4,5,6],ymm4[7] vblendps $0x80, %ymm4, %ymm8, %ymm8 # ymm8 = ymm8[0,1,2,3,4,5,6],ymm4[7] vblendps $0x80, %ymm4, %ymm9, %ymm4 # ymm4 = ymm9[0,1,2,3,4,5,6],ymm4[7] vaddps %ymm1, %ymm0, %ymm1 vaddps %ymm2, %ymm8, %ymm8 vaddps %ymm4, %ymm6, %ymm9 vminps %ymm0, %ymm7, %ymm4 vminps %ymm2, %ymm7, %ymm13 vminps %ymm6, %ymm7, %ymm15 vminps %ymm1, %ymm10, %ymm7 vminps %ymm7, %ymm4, %ymm16 vminps %ymm8, %ymm11, %ymm4 vminps %ymm4, %ymm13, %ymm7 vminps %ymm9, %ymm12, %ymm4 vminps %ymm4, %ymm15, %ymm4 vmaxps %ymm0, %ymm23, %ymm0 vmaxps %ymm2, %ymm23, %ymm13 vmaxps %ymm6, %ymm23, %ymm6 vmaxps %ymm1, %ymm10, %ymm1 vmaxps %ymm1, %ymm0, %ymm2 vmaxps %ymm8, %ymm11, %ymm0 vmaxps %ymm0, %ymm13, %ymm1 vmaxps %ymm9, %ymm12, %ymm0 vmaxps %ymm0, %ymm6, %ymm0 vshufps $0xb1, %ymm21, %ymm21, %ymm6 # ymm6 = ymm21[1,0,3,2,5,4,7,6] vmaxps %ymm6, %ymm21, %ymm6 vshufpd $0x5, %ymm6, %ymm6, %ymm8 # ymm8 = ymm6[1,0,3,2] vmaxps %ymm8, %ymm6, %ymm6 vextractf128 $0x1, %ymm6, %xmm8 vmaxps %xmm8, %xmm6, %xmm6 vshufps $0xb1, %ymm18, %ymm18, %ymm8 # ymm8 = ymm18[1,0,3,2,5,4,7,6] vmaxps %ymm8, %ymm18, %ymm8 vshufpd $0x5, %ymm8, %ymm8, %ymm9 # ymm9 = ymm8[1,0,3,2] vmaxps %ymm9, %ymm8, %ymm8 vextractf128 $0x1, %ymm8, %xmm9 vmaxps %xmm9, %xmm8, %xmm8 vunpcklps %xmm8, %xmm6, %xmm6 # xmm6 = xmm6[0],xmm8[0],xmm6[1],xmm8[1] vshufps $0xb1, %ymm14, %ymm14, %ymm8 # ymm8 = ymm14[1,0,3,2,5,4,7,6] vmaxps %ymm8, %ymm14, %ymm8 vshufpd $0x5, %ymm8, %ymm8, %ymm9 # ymm9 = ymm8[1,0,3,2] vmaxps %ymm9, %ymm8, %ymm8 vextractf128 $0x1, %ymm8, %xmm9 vmaxps %xmm9, %xmm8, %xmm8 vinsertps $0x28, %xmm8, %xmm6, %xmm6 # xmm6 = xmm6[0,1],xmm8[0],zero vshufps $0xb1, %ymm5, %ymm5, %ymm8 # ymm8 = ymm5[1,0,3,2,5,4,7,6] vminps %ymm8, %ymm5, %ymm5 vshufpd $0x5, %ymm5, %ymm5, %ymm8 # ymm8 = ymm5[1,0,3,2] vminps %ymm8, %ymm5, %ymm5 vextractf128 $0x1, %ymm5, %xmm8 vminps %xmm8, %xmm5, %xmm5 vshufps $0xb1, %ymm3, %ymm3, %ymm8 # ymm8 = ymm3[1,0,3,2,5,4,7,6] vminps %ymm8, %ymm3, %ymm3 vshufpd $0x5, %ymm3, %ymm3, %ymm8 # ymm8 = ymm3[1,0,3,2] vminps %ymm8, %ymm3, %ymm3 vextractf128 $0x1, %ymm3, %xmm8 vminps %xmm8, %xmm3, %xmm3 vunpcklps %xmm3, %xmm5, %xmm3 # xmm3 = xmm5[0],xmm3[0],xmm5[1],xmm3[1] vshufps $0xb1, %ymm17, %ymm17, %ymm5 # ymm5 = ymm17[1,0,3,2,5,4,7,6] vminps %ymm5, %ymm17, %ymm5 vshufpd $0x5, %ymm5, %ymm5, %ymm8 # ymm8 = ymm5[1,0,3,2] vminps %ymm8, %ymm5, %ymm5 vextractf128 $0x1, %ymm5, %xmm8 vminps %xmm8, %xmm5, %xmm5 vinsertps $0x28, %xmm5, %xmm3, %xmm3 # xmm3 = xmm3[0,1],xmm5[0],zero vshufps $0xb1, %ymm16, %ymm16, %ymm5 # ymm5 = ymm16[1,0,3,2,5,4,7,6] vminps %ymm5, %ymm16, %ymm5 vshufpd $0x5, %ymm5, %ymm5, %ymm8 # ymm8 = ymm5[1,0,3,2] vminps %ymm8, %ymm5, %ymm5 vextractf128 $0x1, %ymm5, %xmm8 vminps %xmm8, %xmm5, %xmm5 vshufps $0xb1, %ymm7, %ymm7, %ymm8 # ymm8 = ymm7[1,0,3,2,5,4,7,6] vminps %ymm8, %ymm7, %ymm7 vshufpd $0x5, %ymm7, %ymm7, %ymm8 # ymm8 = ymm7[1,0,3,2] vminps %ymm8, %ymm7, %ymm7 vextractf128 $0x1, %ymm7, %xmm8 vminps %xmm8, %xmm7, %xmm7 vunpcklps %xmm7, %xmm5, %xmm5 # xmm5 = xmm5[0],xmm7[0],xmm5[1],xmm7[1] vshufps $0xb1, %ymm4, %ymm4, %ymm7 # ymm7 = ymm4[1,0,3,2,5,4,7,6] vminps %ymm7, %ymm4, %ymm4 vshufpd $0x5, %ymm4, %ymm4, %ymm7 # ymm7 = ymm4[1,0,3,2] vminps %ymm7, %ymm4, %ymm4 vextractf128 $0x1, %ymm4, %xmm7 vminps %xmm7, %xmm4, %xmm4 vinsertps $0x28, %xmm4, %xmm5, %xmm4 # xmm4 = xmm5[0,1],xmm4[0],zero vminps %xmm4, %xmm3, %xmm3 vshufps $0xb1, %ymm2, %ymm2, %ymm4 # ymm4 = ymm2[1,0,3,2,5,4,7,6] vmaxps %ymm4, %ymm2, %ymm2 vshufpd $0x5, %ymm2, %ymm2, %ymm4 # ymm4 = ymm2[1,0,3,2] vmaxps %ymm4, %ymm2, %ymm2 vextractf128 $0x1, %ymm2, %xmm4 vmaxps %xmm4, %xmm2, %xmm2 vshufps $0xb1, %ymm1, %ymm1, %ymm4 # ymm4 = ymm1[1,0,3,2,5,4,7,6] vmaxps %ymm4, %ymm1, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm4 # ymm4 = ymm1[1,0,3,2] vmaxps %ymm4, %ymm1, %ymm1 vextractf128 $0x1, %ymm1, %xmm4 vmaxps %xmm4, %xmm1, %xmm1 vunpcklps %xmm1, %xmm2, %xmm1 # xmm1 = xmm2[0],xmm1[0],xmm2[1],xmm1[1] vshufps $0xb1, %ymm0, %ymm0, %ymm2 # ymm2 = ymm0[1,0,3,2,5,4,7,6] vmaxps %ymm2, %ymm0, %ymm0 vshufpd $0x5, %ymm0, %ymm0, %ymm2 # ymm2 = ymm0[1,0,3,2] vmaxps %ymm2, %ymm0, %ymm0 vextractf128 $0x1, %ymm0, %xmm2 vmaxps %xmm2, %xmm0, %xmm0 vinsertps $0x28, %xmm0, %xmm1, %xmm0 # xmm0 = xmm1[0,1],xmm0[0],zero vmaxps %xmm0, %xmm6, %xmm0 vbroadcastss 0x8346c(%rip), %xmm1 # 0x1f20ec4 vandps %xmm1, %xmm3, %xmm2 vandps %xmm1, %xmm0, %xmm1 vmaxps %xmm1, %xmm2, %xmm1 vmovshdup %xmm1, %xmm2 # xmm2 = xmm1[1,1,3,3] vmaxss %xmm1, %xmm2, %xmm2 vshufpd $0x1, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[1,0] vmaxss %xmm2, %xmm1, %xmm1 vmulss 0x53567(%rip), %xmm1, %xmm1 # 0x1ef0fe4 vbroadcastss %xmm1, %xmm1 vsubps %xmm1, %xmm3, %xmm2 vaddps %xmm1, %xmm0, %xmm0 vmovaps %xmm2, (%rax) vmovaps %xmm0, 0x10(%rax) popq %rbx popq %r14 popq %r15 vzeroupper retq
/embree[P]embree/kernels/common/scene_curves.cpp
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)2, embree::avx512::HermiteCurveGeometryInterface, embree::HermiteCurveT>::linearBounds(embree::Vec3fa const&, float, float, embree::LinearSpace3<embree::Vec3fa> const&, unsigned long, embree::BBox<float> const&) const::'lambda'(unsigned long)::operator()(unsigned long) const
__forceinline LBBox3fa linearBounds(const Vec3fa& ofs, const float scale, const float r_scale0, const LinearSpace3fa& space, size_t primID, const BBox1f& dt) const { return LBBox3fa([&] (size_t itime) { return bounds(ofs, scale, r_scale0, space, primID, itime); }, dt, this->time_range, fnumTimeSegments); }
pushq %r15 pushq %r14 pushq %r13 pushq %r12 pushq %rbx movq %rdi, %rax movq 0x28(%rsi), %rdi movq 0x20(%rsi), %rcx movq 0x58(%rdi), %r8 movq 0x68(%rdi), %r9 imulq (%rcx), %r9 movl (%r8,%r9), %r8d movq 0x188(%rdi), %rcx imulq $0x38, %rdx, %r9 movq (%rcx,%r9), %r11 movq 0x10(%rcx,%r9), %rbx movq %rbx, %r14 imulq %r8, %r14 vmovaps (%r11,%r14), %xmm0 leal 0x1(%r8), %r10d imulq %r10, %rbx vmovaps (%r11,%rbx), %xmm1 movq 0x1c8(%rdi), %rcx movq (%rcx,%r9), %r15 movq 0x10(%rcx,%r9), %r12 movq %r12, %r13 imulq %r8, %r13 vmovaps (%r15,%r13), %xmm2 movq (%rsi), %rcx imulq %r10, %r12 vmovaps (%r15,%r12), %xmm3 vmovss 0x24c(%rdi), %xmm4 movq 0x8(%rsi), %rdx vmulss 0xc(%r11,%r14), %xmm4, %xmm5 vinsertps $0x30, %xmm5, %xmm0, %xmm6 # xmm6 = xmm0[0,1,2],xmm5[0] vmulss 0xc(%r11,%rbx), %xmm4, %xmm0 vinsertps $0x30, %xmm0, %xmm1, %xmm7 # xmm7 = xmm1[0,1,2],xmm0[0] vmulss 0xc(%r15,%r13), %xmm4, %xmm0 vinsertps $0x30, %xmm0, %xmm2, %xmm8 # xmm8 = xmm2[0,1,2],xmm0[0] vmulss 0xc(%r15,%r12), %xmm4, %xmm0 vinsertps $0x30, %xmm0, %xmm3, %xmm9 # xmm9 = xmm3[0,1,2],xmm0[0] vbroadcastss 0xbf90a(%rip), %xmm5 # 0x1f5d46c vfnmadd213ps %xmm6, %xmm5, %xmm8 # xmm8 = -(xmm5 * xmm8) + xmm6 vfmadd213ps %xmm7, %xmm5, %xmm9 # xmm9 = (xmm5 * xmm9) + xmm7 movq 0x1a8(%rdi), %r11 movq (%r11,%r9), %rbx movq 0x10(%r11,%r9), %r11 movq %r11, %r14 imulq %r8, %r14 vmovups (%rbx,%r14), %xmm10 imulq %r10, %r11 vmovups (%rbx,%r11), %xmm11 movq 0x1e8(%rdi), %rdi movq (%rdi,%r9), %r11 movq 0x10(%rdi,%r9), %rdi imulq %rdi, %r8 imulq %r10, %rdi vmovups (%r11,%r8), %xmm12 vfnmadd132ps %xmm5, %xmm10, %xmm12 # xmm12 = -(xmm12 * xmm5) + xmm10 vfmadd132ps (%r11,%rdi), %xmm11, %xmm5 # xmm5 = (xmm5 * mem) + xmm11 movq 0x18(%rsi), %rsi vxorps %xmm3, %xmm3, %xmm3 vmulps %xmm3, %xmm7, %xmm0 vfmadd231ps %xmm3, %xmm9, %xmm0 # xmm0 = (xmm9 * xmm3) + xmm0 vxorps %xmm1, %xmm1, %xmm1 vfmadd213ps %xmm0, %xmm8, %xmm1 # xmm1 = (xmm8 * xmm1) + xmm0 vaddps %xmm1, %xmm6, %xmm1 vbroadcastss 0x53409(%rip), %xmm13 # 0x1ef0fec vfmadd231ps %xmm13, %xmm8, %xmm0 # xmm0 = (xmm8 * xmm13) + xmm0 vfnmadd231ps %xmm13, %xmm6, %xmm0 # xmm0 = -(xmm6 * xmm13) + xmm0 vmulps %xmm3, %xmm11, %xmm14 vfmadd231ps %xmm3, %xmm5, %xmm14 # xmm14 = (xmm5 * xmm3) + xmm14 vxorps %xmm2, %xmm2, %xmm2 vfmadd213ps %xmm14, %xmm12, %xmm2 # xmm2 = (xmm12 * xmm2) + xmm14 vaddps %xmm2, %xmm10, %xmm15 vfmadd231ps %xmm13, %xmm12, %xmm14 # xmm14 = (xmm12 * xmm13) + xmm14 vfnmadd231ps %xmm13, %xmm10, %xmm14 # xmm14 = -(xmm10 * xmm13) + xmm14 vxorps %xmm2, %xmm2, %xmm2 vfmadd213ps %xmm7, %xmm9, %xmm2 # xmm2 = (xmm9 * xmm2) + xmm7 vfmadd231ps %xmm3, %xmm8, %xmm2 # xmm2 = (xmm8 * xmm3) + xmm2 vfmadd231ps %xmm3, %xmm6, %xmm2 # xmm2 = (xmm6 * xmm3) + xmm2 vmulps %xmm7, %xmm13, %xmm4 vfnmadd231ps %xmm9, %xmm13, %xmm4 # xmm4 = -(xmm13 * xmm9) + xmm4 vfmadd231ps %xmm8, %xmm3, %xmm4 # xmm4 = (xmm3 * xmm8) + xmm4 vfnmadd231ps %xmm6, %xmm3, %xmm4 # xmm4 = -(xmm3 * xmm6) + xmm4 vxorps %xmm6, %xmm6, %xmm6 vfmadd213ps %xmm11, %xmm5, %xmm6 # xmm6 = (xmm5 * xmm6) + xmm11 vfmadd231ps %xmm3, %xmm12, %xmm6 # xmm6 = (xmm12 * xmm3) + xmm6 vfmadd231ps %xmm3, %xmm10, %xmm6 # xmm6 = (xmm10 * xmm3) + xmm6 vmulps %xmm13, %xmm11, %xmm8 vfnmadd231ps %xmm5, %xmm13, %xmm8 # xmm8 = -(xmm13 * xmm5) + xmm8 vfmadd231ps %xmm12, %xmm3, %xmm8 # xmm8 = (xmm3 * xmm12) + xmm8 vfnmadd231ps %xmm10, %xmm3, %xmm8 # xmm8 = -(xmm3 * xmm10) + xmm8 vshufps $0xc9, %xmm0, %xmm0, %xmm5 # xmm5 = xmm0[1,2,0,3] vshufps $0xc9, %xmm15, %xmm15, %xmm7 # xmm7 = xmm15[1,2,0,3] vmulps %xmm7, %xmm0, %xmm7 vfmsub231ps %xmm15, %xmm5, %xmm7 # xmm7 = (xmm5 * xmm15) - xmm7 vshufps $0xc9, %xmm7, %xmm7, %xmm7 # xmm7 = xmm7[1,2,0,3] vshufps $0xc9, %xmm14, %xmm14, %xmm9 # xmm9 = xmm14[1,2,0,3] vmulps %xmm0, %xmm9, %xmm9 vfmsub231ps %xmm14, %xmm5, %xmm9 # xmm9 = (xmm5 * xmm14) - xmm9 vshufps $0xc9, %xmm9, %xmm9, %xmm9 # xmm9 = xmm9[1,2,0,3] vshufps $0xc9, %xmm4, %xmm4, %xmm10 # xmm10 = xmm4[1,2,0,3] vshufps $0xc9, %xmm6, %xmm6, %xmm5 # xmm5 = xmm6[1,2,0,3] vmulps %xmm5, %xmm4, %xmm5 vfmsub231ps %xmm6, %xmm10, %xmm5 # xmm5 = (xmm10 * xmm6) - xmm5 vshufps $0xc9, %xmm5, %xmm5, %xmm5 # xmm5 = xmm5[1,2,0,3] vshufps $0xc9, %xmm8, %xmm8, %xmm6 # xmm6 = xmm8[1,2,0,3] vmulps %xmm6, %xmm4, %xmm6 vdpps $0x7f, %xmm7, %xmm7, %xmm11 vfmsub231ps %xmm8, %xmm10, %xmm6 # xmm6 = (xmm10 * xmm8) - xmm6 vshufps $0xc9, %xmm6, %xmm6, %xmm6 # xmm6 = xmm6[1,2,0,3] vmovss %xmm11, %xmm3, %xmm8 # xmm8 = xmm11[0],xmm3[1,2,3] vrsqrt14ss %xmm8, %xmm3, %xmm10 vmovss 0x4ea4b(%rip), %xmm12 # 0x1eec718 vmulss %xmm12, %xmm10, %xmm13 vmovss 0x4eea6(%rip), %xmm14 # 0x1eecb80 vmulss %xmm14, %xmm11, %xmm15 vmulss %xmm10, %xmm15, %xmm15 vmulss %xmm10, %xmm10, %xmm10 vmulss %xmm10, %xmm15, %xmm10 vsubss %xmm10, %xmm13, %xmm10 vdpps $0x7f, %xmm9, %xmm7, %xmm13 vbroadcastss %xmm10, %xmm10 vmulps %xmm7, %xmm10, %xmm15 vbroadcastss %xmm11, %xmm16 vmulps %xmm9, %xmm16, %xmm9 vbroadcastss %xmm13, %xmm13 vmulps %xmm7, %xmm13, %xmm7 vsubps %xmm7, %xmm9, %xmm7 vrcp14ss %xmm8, %xmm3, %xmm8 vmovss 0x532cf(%rip), %xmm9 # 0x1ef0ff8 vfnmadd213ss %xmm9, %xmm8, %xmm11 # xmm11 = -(xmm8 * xmm11) + xmm9 vmulss %xmm11, %xmm8, %xmm8 vbroadcastss %xmm8, %xmm8 vmulps %xmm7, %xmm8, %xmm7 vdpps $0x7f, %xmm5, %xmm5, %xmm8 vmulps %xmm7, %xmm10, %xmm7 vmovss %xmm8, %xmm3, %xmm10 # xmm10 = xmm8[0],xmm3[1,2,3] vrsqrt14ss %xmm10, %xmm3, %xmm11 vmulss %xmm12, %xmm11, %xmm12 vmulss %xmm14, %xmm8, %xmm13 vmulss %xmm11, %xmm13, %xmm13 vmulss %xmm11, %xmm11, %xmm11 vmulss %xmm11, %xmm13, %xmm11 vdpps $0x7f, %xmm6, %xmm5, %xmm13 vsubss %xmm11, %xmm12, %xmm11 vbroadcastss %xmm11, %xmm11 vmulps %xmm5, %xmm11, %xmm12 vbroadcastss %xmm8, %xmm14 vmulps %xmm6, %xmm14, %xmm6 vbroadcastss %xmm13, %xmm13 vmulps %xmm5, %xmm13, %xmm5 vsubps %xmm5, %xmm6, %xmm5 vrcp14ss %xmm10, %xmm3, %xmm3 vfnmadd213ss %xmm9, %xmm3, %xmm8 # xmm8 = -(xmm3 * xmm8) + xmm9 vmulss %xmm3, %xmm8, %xmm3 vbroadcastss %xmm3, %xmm3 vmulps %xmm3, %xmm5, %xmm3 vmulps %xmm3, %xmm11, %xmm3 vshufps $0xff, %xmm1, %xmm1, %xmm5 # xmm5 = xmm1[3,3,3,3] vmulps %xmm5, %xmm15, %xmm6 vsubps %xmm6, %xmm1, %xmm8 vshufps $0xff, %xmm0, %xmm0, %xmm9 # xmm9 = xmm0[3,3,3,3] vmulps %xmm15, %xmm9, %xmm9 vmulps %xmm7, %xmm5, %xmm5 vaddps %xmm5, %xmm9, %xmm5 vsubps %xmm5, %xmm0, %xmm7 vaddps %xmm6, %xmm1, %xmm1 vaddps %xmm5, %xmm0, %xmm0 vshufps $0xff, %xmm2, %xmm2, %xmm5 # xmm5 = xmm2[3,3,3,3] vmulps %xmm5, %xmm12, %xmm6 vsubps %xmm6, %xmm2, %xmm13 vshufps $0xff, %xmm4, %xmm4, %xmm9 # xmm9 = xmm4[3,3,3,3] vmulps %xmm12, %xmm9, %xmm9 vmulps %xmm3, %xmm5, %xmm3 vaddps %xmm3, %xmm9, %xmm3 vsubps %xmm3, %xmm4, %xmm5 vaddps %xmm6, %xmm2, %xmm2 vaddps %xmm3, %xmm4, %xmm3 vbroadcastss 0x540ad(%rip), %xmm4 # 0x1ef1ebc vmulps %xmm4, %xmm7, %xmm6 vaddps %xmm6, %xmm8, %xmm10 vmulps %xmm4, %xmm5, %xmm5 vsubps %xmm5, %xmm13, %xmm12 vmulps %xmm4, %xmm0, %xmm0 vaddps %xmm0, %xmm1, %xmm11 vmulps %xmm4, %xmm3, %xmm0 vsubps %xmm0, %xmm2, %xmm4 vmovaps (%rcx), %xmm6 vbroadcastss (%rdx), %xmm7 vsubps %xmm6, %xmm8, %xmm0 vmulps %xmm0, %xmm7, %xmm0 vbroadcastss %xmm0, %xmm14 vshufps $0x55, %xmm0, %xmm0, %xmm15 # xmm15 = xmm0[1,1,1,1] vmovaps (%rsi), %xmm5 vshufps $0xaa, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[2,2,2,2] vmovaps 0x10(%rsi), %xmm8 vmovaps 0x20(%rsi), %xmm9 vmulps %xmm0, %xmm9, %xmm3 vfmadd231ps %xmm15, %xmm8, %xmm3 # xmm3 = (xmm8 * xmm15) + xmm3 vfmadd231ps %xmm14, %xmm5, %xmm3 # xmm3 = (xmm5 * xmm14) + xmm3 vsubps %xmm6, %xmm10, %xmm0 vmulps %xmm0, %xmm7, %xmm0 vbroadcastss %xmm0, %xmm14 vshufps $0x55, %xmm0, %xmm0, %xmm15 # xmm15 = xmm0[1,1,1,1] vshufps $0xaa, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[2,2,2,2] vmulps %xmm0, %xmm9, %xmm10 vfmadd231ps %xmm15, %xmm8, %xmm10 # xmm10 = (xmm8 * xmm15) + xmm10 vfmadd231ps %xmm14, %xmm5, %xmm10 # xmm10 = (xmm5 * xmm14) + xmm10 vsubps %xmm6, %xmm12, %xmm0 vmulps %xmm0, %xmm7, %xmm0 vbroadcastss %xmm0, %xmm14 vshufps $0x55, %xmm0, %xmm0, %xmm15 # xmm15 = xmm0[1,1,1,1] vshufps $0xaa, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[2,2,2,2] vmulps %xmm0, %xmm9, %xmm12 vfmadd231ps %xmm15, %xmm8, %xmm12 # xmm12 = (xmm8 * xmm15) + xmm12 vfmadd231ps %xmm14, %xmm5, %xmm12 # xmm12 = (xmm5 * xmm14) + xmm12 vsubps %xmm6, %xmm13, %xmm0 vmulps %xmm0, %xmm7, %xmm0 vbroadcastss %xmm0, %xmm14 vshufps $0x55, %xmm0, %xmm0, %xmm15 # xmm15 = xmm0[1,1,1,1] vshufps $0xaa, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[2,2,2,2] vmulps %xmm0, %xmm9, %xmm13 vfmadd231ps %xmm15, %xmm8, %xmm13 # xmm13 = (xmm8 * xmm15) + xmm13 vfmadd231ps %xmm14, %xmm5, %xmm13 # xmm13 = (xmm5 * xmm14) + xmm13 vsubps %xmm6, %xmm1, %xmm0 vmulps %xmm0, %xmm7, %xmm0 vbroadcastss %xmm0, %xmm1 vshufps $0x55, %xmm0, %xmm0, %xmm14 # xmm14 = xmm0[1,1,1,1] vshufps $0xaa, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[2,2,2,2] vmulps %xmm0, %xmm9, %xmm31 vfmadd231ps %xmm14, %xmm8, %xmm31 # xmm31 = (xmm8 * xmm14) + xmm31 vfmadd231ps %xmm1, %xmm5, %xmm31 # xmm31 = (xmm5 * xmm1) + xmm31 vsubps %xmm6, %xmm11, %xmm1 vmulps %xmm1, %xmm7, %xmm1 vbroadcastss %xmm1, %xmm11 vshufps $0x55, %xmm1, %xmm1, %xmm14 # xmm14 = xmm1[1,1,1,1] vshufps $0xaa, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,2,2,2] vmulps %xmm1, %xmm9, %xmm22 vfmadd231ps %xmm14, %xmm8, %xmm22 # xmm22 = (xmm8 * xmm14) + xmm22 vfmadd231ps %xmm11, %xmm5, %xmm22 # xmm22 = (xmm5 * xmm11) + xmm22 vsubps %xmm6, %xmm4, %xmm4 vmulps %xmm4, %xmm7, %xmm4 vbroadcastss %xmm4, %xmm11 vshufps $0x55, %xmm4, %xmm4, %xmm14 # xmm14 = xmm4[1,1,1,1] vshufps $0xaa, %xmm4, %xmm4, %xmm4 # xmm4 = xmm4[2,2,2,2] vmulps %xmm4, %xmm9, %xmm20 vfmadd231ps %xmm14, %xmm8, %xmm20 # xmm20 = (xmm8 * xmm14) + xmm20 vfmadd231ps %xmm11, %xmm5, %xmm20 # xmm20 = (xmm5 * xmm11) + xmm20 vsubps %xmm6, %xmm2, %xmm2 vmulps %xmm2, %xmm7, %xmm2 vbroadcastss %xmm2, %xmm7 vshufps $0x55, %xmm2, %xmm2, %xmm11 # xmm11 = xmm2[1,1,1,1] vshufps $0xaa, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[2,2,2,2] vmulps %xmm2, %xmm9, %xmm6 vfmadd231ps %xmm11, %xmm8, %xmm6 # xmm6 = (xmm8 * xmm11) + xmm6 vfmadd231ps %xmm7, %xmm5, %xmm6 # xmm6 = (xmm5 * xmm7) + xmm6 vbroadcastss 0x74780(%rip), %ymm29 # 0x1f12704 vbroadcastss %xmm3, %ymm2 vpermps %ymm3, %ymm29, %ymm5 vbroadcastss 0x82f43(%rip), %ymm30 # 0x1f20edc vpermps %ymm3, %ymm30, %ymm3 vbroadcastss %xmm10, %ymm17 vpermps %ymm10, %ymm29, %ymm1 vpermps %ymm10, %ymm30, %ymm0 vbroadcastss %xmm12, %ymm23 vpermps %ymm12, %ymm29, %ymm24 vpermps %ymm12, %ymm30, %ymm25 vbroadcastss %xmm13, %ymm26 vpermps %ymm13, %ymm29, %ymm27 leaq 0x28930e(%rip), %rcx # 0x21272e4 vmovups 0x1dc(%rcx), %ymm7 vmovups 0x660(%rcx), %ymm10 vpermps %ymm13, %ymm30, %ymm28 vmovups 0xae4(%rcx), %ymm13 vmovups 0xf68(%rcx), %ymm16 vmulps %ymm16, %ymm26, %ymm14 vmulps %ymm16, %ymm27, %ymm18 vmulps %ymm16, %ymm28, %ymm21 vfmadd231ps %ymm23, %ymm13, %ymm14 # ymm14 = (ymm13 * ymm23) + ymm14 vfmadd231ps %ymm24, %ymm13, %ymm18 # ymm18 = (ymm13 * ymm24) + ymm18 vfmadd231ps %ymm25, %ymm13, %ymm21 # ymm21 = (ymm13 * ymm25) + ymm21 vfmadd231ps %ymm17, %ymm10, %ymm14 # ymm14 = (ymm10 * ymm17) + ymm14 vfmadd231ps %ymm1, %ymm10, %ymm18 # ymm18 = (ymm10 * ymm1) + ymm18 vfmadd231ps %ymm0, %ymm10, %ymm21 # ymm21 = (ymm10 * ymm0) + ymm21 vfmadd231ps %ymm2, %ymm7, %ymm14 # ymm14 = (ymm7 * ymm2) + ymm14 vfmadd231ps %ymm5, %ymm7, %ymm18 # ymm18 = (ymm7 * ymm5) + ymm18 vmovups 0x13ec(%rcx), %ymm8 vmovups 0x1870(%rcx), %ymm12 vmovups 0x1cf4(%rcx), %ymm15 vmovups 0x2178(%rcx), %ymm19 vfmadd231ps %ymm3, %ymm7, %ymm21 # ymm21 = (ymm7 * ymm3) + ymm21 vmulps %ymm19, %ymm26, %ymm26 vmulps %ymm19, %ymm27, %ymm27 vmulps %ymm19, %ymm28, %ymm28 vfmadd231ps %ymm23, %ymm15, %ymm26 # ymm26 = (ymm15 * ymm23) + ymm26 vfmadd231ps %ymm24, %ymm15, %ymm27 # ymm27 = (ymm15 * ymm24) + ymm27 vfmadd231ps %ymm25, %ymm15, %ymm28 # ymm28 = (ymm15 * ymm25) + ymm28 vfmadd231ps %ymm17, %ymm12, %ymm26 # ymm26 = (ymm12 * ymm17) + ymm26 vfmadd231ps %ymm1, %ymm12, %ymm27 # ymm27 = (ymm12 * ymm1) + ymm27 vfmadd231ps %ymm0, %ymm12, %ymm28 # ymm28 = (ymm12 * ymm0) + ymm28 vfmadd231ps %ymm2, %ymm8, %ymm26 # ymm26 = (ymm8 * ymm2) + ymm26 vfmadd231ps %ymm5, %ymm8, %ymm27 # ymm27 = (ymm8 * ymm5) + ymm27 vfmadd231ps %ymm3, %ymm8, %ymm28 # ymm28 = (ymm8 * ymm3) + ymm28 vbroadcastss 0x83418(%rip), %ymm0 # 0x1f214d0 vmulps %ymm0, %ymm26, %ymm3 vmulps %ymm0, %ymm27, %ymm5 vmulps %ymm0, %ymm28, %ymm9 vxorps %xmm4, %xmm4, %xmm4 vblendps $0x1, %ymm4, %ymm3, %ymm11 # ymm11 = ymm4[0],ymm3[1,2,3,4,5,6,7] vblendps $0x1, %ymm4, %ymm5, %ymm0 # ymm0 = ymm4[0],ymm5[1,2,3,4,5,6,7] vblendps $0x1, %ymm4, %ymm9, %ymm1 # ymm1 = ymm4[0],ymm9[1,2,3,4,5,6,7] vsubps %ymm11, %ymm14, %ymm11 vsubps %ymm0, %ymm18, %ymm0 vsubps %ymm1, %ymm21, %ymm1 vblendps $0x80, %ymm4, %ymm3, %ymm3 # ymm3 = ymm3[0,1,2,3,4,5,6],ymm4[7] vblendps $0x80, %ymm4, %ymm5, %ymm5 # ymm5 = ymm5[0,1,2,3,4,5,6],ymm4[7] vblendps $0x80, %ymm4, %ymm9, %ymm9 # ymm9 = ymm9[0,1,2,3,4,5,6],ymm4[7] vaddps %ymm3, %ymm14, %ymm24 vaddps %ymm5, %ymm18, %ymm25 vaddps %ymm9, %ymm21, %ymm26 vbroadcastss 0x4d902(%rip), %ymm9 # 0x1eeba20 vminps %ymm14, %ymm9, %ymm3 vminps %ymm18, %ymm9, %ymm17 vminps %ymm21, %ymm9, %ymm23 vminps %ymm24, %ymm11, %ymm5 vminps %ymm5, %ymm3, %ymm5 vminps %ymm25, %ymm0, %ymm3 vminps %ymm3, %ymm17, %ymm3 vminps %ymm26, %ymm1, %ymm17 vminps %ymm17, %ymm23, %ymm17 vbroadcastss 0x4ea29(%rip), %ymm23 # 0x1eecb84 vmaxps %ymm14, %ymm23, %ymm14 vmaxps %ymm18, %ymm23, %ymm18 vmaxps %ymm21, %ymm23, %ymm27 vmaxps %ymm24, %ymm11, %ymm11 vmaxps %ymm11, %ymm14, %ymm21 vmaxps %ymm25, %ymm0, %ymm0 vmaxps %ymm0, %ymm18, %ymm18 vmaxps %ymm26, %ymm1, %ymm0 vmaxps %ymm0, %ymm27, %ymm14 vbroadcastss %xmm31, %ymm11 vpermps %ymm31, %ymm29, %ymm24 vpermps %ymm31, %ymm30, %ymm25 vbroadcastss %xmm22, %ymm26 vpermps %ymm22, %ymm29, %ymm27 vpermps %ymm22, %ymm30, %ymm22 vbroadcastss %xmm20, %ymm28 vpermps %ymm20, %ymm29, %ymm31 vpermps %ymm20, %ymm30, %ymm20 vbroadcastss %xmm6, %ymm2 vpermps %ymm6, %ymm29, %ymm29 vpermps %ymm6, %ymm30, %ymm30 vmulps %ymm16, %ymm2, %ymm0 vmulps %ymm16, %ymm29, %ymm1 vmulps %ymm16, %ymm30, %ymm6 vfmadd231ps %ymm28, %ymm13, %ymm0 # ymm0 = (ymm13 * ymm28) + ymm0 vfmadd231ps %ymm31, %ymm13, %ymm1 # ymm1 = (ymm13 * ymm31) + ymm1 vfmadd231ps %ymm13, %ymm20, %ymm6 # ymm6 = (ymm20 * ymm13) + ymm6 vfmadd231ps %ymm26, %ymm10, %ymm0 # ymm0 = (ymm10 * ymm26) + ymm0 vfmadd231ps %ymm27, %ymm10, %ymm1 # ymm1 = (ymm10 * ymm27) + ymm1 vfmadd231ps %ymm10, %ymm22, %ymm6 # ymm6 = (ymm22 * ymm10) + ymm6 vfmadd231ps %ymm11, %ymm7, %ymm0 # ymm0 = (ymm7 * ymm11) + ymm0 vfmadd231ps %ymm24, %ymm7, %ymm1 # ymm1 = (ymm7 * ymm24) + ymm1 vfmadd231ps %ymm7, %ymm25, %ymm6 # ymm6 = (ymm25 * ymm7) + ymm6 vmulps %ymm19, %ymm2, %ymm2 vmulps %ymm19, %ymm29, %ymm7 vmulps %ymm19, %ymm30, %ymm10 vfmadd231ps %ymm28, %ymm15, %ymm2 # ymm2 = (ymm15 * ymm28) + ymm2 vfmadd231ps %ymm31, %ymm15, %ymm7 # ymm7 = (ymm15 * ymm31) + ymm7 vfmadd231ps %ymm20, %ymm15, %ymm10 # ymm10 = (ymm15 * ymm20) + ymm10 vfmadd231ps %ymm26, %ymm12, %ymm2 # ymm2 = (ymm12 * ymm26) + ymm2 vfmadd231ps %ymm27, %ymm12, %ymm7 # ymm7 = (ymm12 * ymm27) + ymm7 vfmadd231ps %ymm22, %ymm12, %ymm10 # ymm10 = (ymm12 * ymm22) + ymm10 vfmadd231ps %ymm11, %ymm8, %ymm2 # ymm2 = (ymm8 * ymm11) + ymm2 vfmadd231ps %ymm24, %ymm8, %ymm7 # ymm7 = (ymm8 * ymm24) + ymm7 vfmadd231ps %ymm25, %ymm8, %ymm10 # ymm10 = (ymm8 * ymm25) + ymm10 vbroadcastss 0x83261(%rip), %ymm8 # 0x1f214d0 vmulps %ymm2, %ymm8, %ymm2 vmulps %ymm7, %ymm8, %ymm7 vmulps %ymm8, %ymm10, %ymm8 vblendps $0x1, %ymm4, %ymm2, %ymm10 # ymm10 = ymm4[0],ymm2[1,2,3,4,5,6,7] vblendps $0x1, %ymm4, %ymm7, %ymm11 # ymm11 = ymm4[0],ymm7[1,2,3,4,5,6,7] vblendps $0x1, %ymm4, %ymm8, %ymm12 # ymm12 = ymm4[0],ymm8[1,2,3,4,5,6,7] vsubps %ymm10, %ymm0, %ymm10 vsubps %ymm11, %ymm1, %ymm11 vsubps %ymm12, %ymm6, %ymm12 vblendps $0x80, %ymm4, %ymm2, %ymm2 # ymm2 = ymm2[0,1,2,3,4,5,6],ymm4[7] vblendps $0x80, %ymm4, %ymm7, %ymm7 # ymm7 = ymm7[0,1,2,3,4,5,6],ymm4[7] vblendps $0x80, %ymm4, %ymm8, %ymm4 # ymm4 = ymm8[0,1,2,3,4,5,6],ymm4[7] vaddps %ymm2, %ymm0, %ymm2 vaddps %ymm7, %ymm1, %ymm8 vaddps %ymm4, %ymm6, %ymm13 vminps %ymm0, %ymm9, %ymm4 vminps %ymm1, %ymm9, %ymm7 vminps %ymm6, %ymm9, %ymm9 vminps %ymm2, %ymm10, %ymm15 vminps %ymm15, %ymm4, %ymm15 vminps %ymm8, %ymm11, %ymm4 vminps %ymm4, %ymm7, %ymm7 vminps %ymm13, %ymm12, %ymm4 vminps %ymm4, %ymm9, %ymm4 vmaxps %ymm0, %ymm23, %ymm0 vmaxps %ymm1, %ymm23, %ymm1 vmaxps %ymm6, %ymm23, %ymm6 vmaxps %ymm2, %ymm10, %ymm2 vmaxps %ymm2, %ymm0, %ymm2 vmaxps %ymm8, %ymm11, %ymm0 vmaxps %ymm0, %ymm1, %ymm1 vmaxps %ymm13, %ymm12, %ymm0 vmaxps %ymm0, %ymm6, %ymm0 vshufps $0xb1, %ymm21, %ymm21, %ymm6 # ymm6 = ymm21[1,0,3,2,5,4,7,6] vmaxps %ymm6, %ymm21, %ymm6 vshufpd $0x5, %ymm6, %ymm6, %ymm8 # ymm8 = ymm6[1,0,3,2] vmaxps %ymm8, %ymm6, %ymm6 vextractf128 $0x1, %ymm6, %xmm8 vmaxps %xmm8, %xmm6, %xmm6 vshufps $0xb1, %ymm18, %ymm18, %ymm8 # ymm8 = ymm18[1,0,3,2,5,4,7,6] vmaxps %ymm8, %ymm18, %ymm8 vshufpd $0x5, %ymm8, %ymm8, %ymm9 # ymm9 = ymm8[1,0,3,2] vmaxps %ymm9, %ymm8, %ymm8 vextractf128 $0x1, %ymm8, %xmm9 vmaxps %xmm9, %xmm8, %xmm8 vunpcklps %xmm8, %xmm6, %xmm6 # xmm6 = xmm6[0],xmm8[0],xmm6[1],xmm8[1] vshufps $0xb1, %ymm14, %ymm14, %ymm8 # ymm8 = ymm14[1,0,3,2,5,4,7,6] vmaxps %ymm8, %ymm14, %ymm8 vshufpd $0x5, %ymm8, %ymm8, %ymm9 # ymm9 = ymm8[1,0,3,2] vmaxps %ymm9, %ymm8, %ymm8 vextractf128 $0x1, %ymm8, %xmm9 vmaxps %xmm9, %xmm8, %xmm8 vinsertps $0x28, %xmm8, %xmm6, %xmm6 # xmm6 = xmm6[0,1],xmm8[0],zero vshufps $0xb1, %ymm5, %ymm5, %ymm8 # ymm8 = ymm5[1,0,3,2,5,4,7,6] vminps %ymm8, %ymm5, %ymm5 vshufpd $0x5, %ymm5, %ymm5, %ymm8 # ymm8 = ymm5[1,0,3,2] vminps %ymm8, %ymm5, %ymm5 vextractf128 $0x1, %ymm5, %xmm8 vminps %xmm8, %xmm5, %xmm5 vshufps $0xb1, %ymm3, %ymm3, %ymm8 # ymm8 = ymm3[1,0,3,2,5,4,7,6] vminps %ymm8, %ymm3, %ymm3 vshufpd $0x5, %ymm3, %ymm3, %ymm8 # ymm8 = ymm3[1,0,3,2] vminps %ymm8, %ymm3, %ymm3 vextractf128 $0x1, %ymm3, %xmm8 vminps %xmm8, %xmm3, %xmm3 vunpcklps %xmm3, %xmm5, %xmm3 # xmm3 = xmm5[0],xmm3[0],xmm5[1],xmm3[1] vshufps $0xb1, %ymm17, %ymm17, %ymm5 # ymm5 = ymm17[1,0,3,2,5,4,7,6] vminps %ymm5, %ymm17, %ymm5 vshufpd $0x5, %ymm5, %ymm5, %ymm8 # ymm8 = ymm5[1,0,3,2] vminps %ymm8, %ymm5, %ymm5 vextractf128 $0x1, %ymm5, %xmm8 vminps %xmm8, %xmm5, %xmm5 vinsertps $0x28, %xmm5, %xmm3, %xmm3 # xmm3 = xmm3[0,1],xmm5[0],zero vshufps $0xb1, %ymm15, %ymm15, %ymm5 # ymm5 = ymm15[1,0,3,2,5,4,7,6] vminps %ymm5, %ymm15, %ymm5 vshufpd $0x5, %ymm5, %ymm5, %ymm8 # ymm8 = ymm5[1,0,3,2] vminps %ymm8, %ymm5, %ymm5 vextractf128 $0x1, %ymm5, %xmm8 vminps %xmm8, %xmm5, %xmm5 vshufps $0xb1, %ymm7, %ymm7, %ymm8 # ymm8 = ymm7[1,0,3,2,5,4,7,6] vminps %ymm8, %ymm7, %ymm7 vshufpd $0x5, %ymm7, %ymm7, %ymm8 # ymm8 = ymm7[1,0,3,2] vminps %ymm8, %ymm7, %ymm7 vextractf128 $0x1, %ymm7, %xmm8 vminps %xmm8, %xmm7, %xmm7 vunpcklps %xmm7, %xmm5, %xmm5 # xmm5 = xmm5[0],xmm7[0],xmm5[1],xmm7[1] vshufps $0xb1, %ymm4, %ymm4, %ymm7 # ymm7 = ymm4[1,0,3,2,5,4,7,6] vminps %ymm7, %ymm4, %ymm4 vshufpd $0x5, %ymm4, %ymm4, %ymm7 # ymm7 = ymm4[1,0,3,2] vminps %ymm7, %ymm4, %ymm4 vextractf128 $0x1, %ymm4, %xmm7 vminps %xmm7, %xmm4, %xmm4 vinsertps $0x28, %xmm4, %xmm5, %xmm4 # xmm4 = xmm5[0,1],xmm4[0],zero vminps %xmm4, %xmm3, %xmm3 vshufps $0xb1, %ymm2, %ymm2, %ymm4 # ymm4 = ymm2[1,0,3,2,5,4,7,6] vmaxps %ymm4, %ymm2, %ymm2 vshufpd $0x5, %ymm2, %ymm2, %ymm4 # ymm4 = ymm2[1,0,3,2] vmaxps %ymm4, %ymm2, %ymm2 vextractf128 $0x1, %ymm2, %xmm4 vmaxps %xmm4, %xmm2, %xmm2 vshufps $0xb1, %ymm1, %ymm1, %ymm4 # ymm4 = ymm1[1,0,3,2,5,4,7,6] vmaxps %ymm4, %ymm1, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm4 # ymm4 = ymm1[1,0,3,2] vmaxps %ymm4, %ymm1, %ymm1 vextractf128 $0x1, %ymm1, %xmm4 vmaxps %xmm4, %xmm1, %xmm1 vunpcklps %xmm1, %xmm2, %xmm1 # xmm1 = xmm2[0],xmm1[0],xmm2[1],xmm1[1] vshufps $0xb1, %ymm0, %ymm0, %ymm2 # ymm2 = ymm0[1,0,3,2,5,4,7,6] vmaxps %ymm2, %ymm0, %ymm0 vshufpd $0x5, %ymm0, %ymm0, %ymm2 # ymm2 = ymm0[1,0,3,2] vmaxps %ymm2, %ymm0, %ymm0 vextractf128 $0x1, %ymm0, %xmm2 vmaxps %xmm2, %xmm0, %xmm0 vinsertps $0x28, %xmm0, %xmm1, %xmm0 # xmm0 = xmm1[0,1],xmm0[0],zero vmaxps %xmm0, %xmm6, %xmm0 vbroadcastss 0x82a08(%rip), %xmm1 # 0x1f20ec4 vandps %xmm1, %xmm3, %xmm2 vandps %xmm1, %xmm0, %xmm1 vmaxps %xmm1, %xmm2, %xmm1 vmovshdup %xmm1, %xmm2 # xmm2 = xmm1[1,1,3,3] vmaxss %xmm1, %xmm2, %xmm2 vshufpd $0x1, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[1,0] vmaxss %xmm2, %xmm1, %xmm1 vmulss 0x52b03(%rip), %xmm1, %xmm1 # 0x1ef0fe4 vbroadcastss %xmm1, %xmm1 vsubps %xmm1, %xmm3, %xmm2 vaddps %xmm1, %xmm0, %xmm0 vmovaps %xmm2, (%rax) vmovaps %xmm0, 0x10(%rax) popq %rbx popq %r12 popq %r13 popq %r14 popq %r15 vzeroupper retq
/embree[P]embree/kernels/common/scene_curves.cpp
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)1, embree::avx512::CurveGeometryInterface, embree::CatmullRomCurveT>::createPrimRefArrayMB(embree::PrimRef*, embree::BBox<float> const&, embree::range<unsigned long> const&, unsigned long, unsigned int) const
PrimInfo createPrimRefArrayMB(PrimRef* prims, const BBox1f& time_range, const range<size_t>& r, size_t k, unsigned int geomID) const { PrimInfo pinfo(empty); const BBox1f t0t1 = BBox1f::intersect(this->time_range, time_range); if (t0t1.empty()) return pinfo; for (size_t j=r.begin(); j<r.end(); j++) { if (!valid(ctype, j, this->timeSegmentRange(t0t1))) continue; const LBBox3fa lbounds = linearBounds(j,t0t1); if (lbounds.bounds0.empty() || lbounds.bounds1.empty()) continue; // checks oriented curves with invalid normals which cause NaNs here const PrimRef prim(lbounds.bounds(),geomID,unsigned(j)); pinfo.add_primref(prim); prims[k++] = prim; } return pinfo; }
pushq %rbp pushq %r15 pushq %r14 pushq %r13 pushq %r12 pushq %rbx subq $0x1d8, %rsp # imm = 0x1D8 movq %rdi, %rax vbroadcastss 0x4cdc7(%rip), %xmm0 # 0x1eeba20 vmovaps %xmm0, (%rdi) vbroadcastss 0x4df1e(%rip), %xmm1 # 0x1eecb84 vmovaps %xmm1, 0x10(%rdi) movq %rdx, 0xe0(%rsp) vmovaps %xmm0, 0x20(%rdi) vmovaps %xmm1, 0x30(%rdi) vxorps %xmm0, %xmm0, %xmm0 vmovaps %xmm0, 0x40(%rdi) vmovsd 0x2c(%rsi), %xmm0 vmovsd (%rcx), %xmm1 vcmpltps %xmm1, %xmm0, %k1 vinsertps $0x50, %xmm0, %xmm1, %xmm2 # xmm2 = xmm1[0],xmm0[1],xmm1[2,3] vinsertps $0x50, %xmm1, %xmm0, %xmm4 # xmm4 = xmm0[0],xmm1[1],xmm0[2,3] vmovaps %xmm2, %xmm4 {%k1} vmovshdup %xmm4, %xmm5 # xmm5 = xmm4[1,1,3,3] vucomiss %xmm5, %xmm4 ja 0x1e9f3fb movq %r9, 0x40(%rsp) vmovaps (%rax), %xmm0 vmovaps %xmm0, 0xa0(%rsp) vmovaps 0x10(%rax), %xmm0 vmovaps 0x20(%rax), %xmm1 vmovaps %xmm1, 0x80(%rsp) movq (%r8), %r14 vmovaps 0x30(%rax), %xmm1 vmovaps %xmm1, 0x70(%rsp) movq %rax, 0xd8(%rsp) movq 0x48(%rax), %rax cmpq 0x8(%r8), %r14 vmovaps %xmm0, 0x90(%rsp) movq %rax, 0x38(%rsp) jae 0x1e9f3b6 vmovss 0x51c2b(%rip), %xmm6 # 0x1ef0940 vxorps %xmm7, %xmm7, %xmm7 vmovss 0x51c23(%rip), %xmm8 # 0x1ef0944 leaq 0xf0(%rsp), %r12 vbroadcastss 0x82192(%rip), %xmm9 # 0x1f20ec4 vmovss 0x522a6(%rip), %xmm10 # 0x1ef0fe0 vbroadcastss 0x826b9(%rip), %xmm11 # 0x1f213fc vbroadcastss 0x52294(%rip), %xmm12 # 0x1ef0fe0 movq %r8, 0x48(%rsp) vmovaps %xmm4, 0x150(%rsp) vmovaps %xmm5, 0x140(%rsp) movq %rsi, 0x10(%rsp) vmovsd 0x2c(%rsi), %xmm0 vmovshdup %xmm0, %xmm1 # xmm1 = xmm0[1,1,3,3] vsubss %xmm0, %xmm1, %xmm1 vsubss %xmm0, %xmm4, %xmm2 vdivss %xmm1, %xmm2, %xmm2 vsubss %xmm0, %xmm5, %xmm0 vdivss %xmm1, %xmm0, %xmm0 vmulss %xmm6, %xmm2, %xmm1 vmulss %xmm0, %xmm8, %xmm0 movq 0x58(%rsi), %rax movq 0x68(%rsi), %rcx imulq %r14, %rcx movl (%rax,%rcx), %eax leal 0x3(%rax), %ecx movq 0x188(%rsi), %r10 cmpq %rcx, 0x18(%r10) jbe 0x1e9f3a9 vmovss 0x28(%rsi), %xmm3 vmulss %xmm1, %xmm3, %xmm1 vroundss $0x9, %xmm1, %xmm1, %xmm1 vmaxss %xmm1, %xmm7, %xmm1 vcvttss2si %xmm1, %edx vmulss %xmm0, %xmm3, %xmm0 vroundss $0xa, %xmm0, %xmm0, %xmm0 vminss %xmm3, %xmm0, %xmm0 vcvttss2si %xmm0, %esi cmpl %esi, %edx seta %dil ja 0x1e9ef1a movslq %edx, %rdx movslq %esi, %rsi leal 0x1(%rax), %r8d leal 0x2(%rax), %r9d imulq $0x38, %rdx, %r11 addq %r11, %r10 addq $0x10, %r10 movq -0x10(%r10), %r11 movq (%r10), %rbx movq %rbx, %rbp imulq %rax, %rbp vmovss 0xc(%r11,%rbp), %xmm0 vandps %xmm0, %xmm9, %xmm0 vucomiss %xmm0, %xmm10 jbe 0x1e9ef10 movq %rbx, %r13 imulq %r8, %r13 vmovss 0xc(%r11,%r13), %xmm0 vandps %xmm0, %xmm9, %xmm0 vucomiss %xmm0, %xmm10 jbe 0x1e9ef10 movq %rbx, %r15 imulq %r9, %r15 vmovss 0xc(%r11,%r15), %xmm0 vandps %xmm0, %xmm9, %xmm0 vucomiss %xmm0, %xmm10 jbe 0x1e9ef10 imulq %rcx, %rbx vmovss 0xc(%r11,%rbx), %xmm0 vandps %xmm0, %xmm9, %xmm0 vucomiss %xmm0, %xmm10 jbe 0x1e9ef10 vmovaps (%r11,%rbp), %xmm0 vcmpnleps %xmm11, %xmm0, %k1 vcmpltps %xmm12, %xmm0, %k0 {%k1} knotw %k0, %k0 kmovd %k0, %ebp testb $0x7, %bpl jne 0x1e9ef10 vmovaps (%r11,%r13), %xmm0 vcmpnleps %xmm11, %xmm0, %k1 vcmpltps %xmm12, %xmm0, %k0 {%k1} knotw %k0, %k0 kmovd %k0, %ebp testb $0x7, %bpl jne 0x1e9ef10 vmovaps (%r11,%r15), %xmm0 vcmpnleps %xmm11, %xmm0, %k1 vcmpltps %xmm12, %xmm0, %k0 {%k1} knotw %k0, %k0 kmovd %k0, %ebp testb $0x7, %bpl jne 0x1e9ef10 vmovaps (%r11,%rbx), %xmm0 vcmpnleps %xmm11, %xmm0, %k1 vcmpltps %xmm12, %xmm0, %k0 {%k1} knotw %k0, %k0 kmovd %k0, %r11d testb $0x7, %r11b jne 0x1e9ef10 incq %rdx addq $0x38, %r10 cmpq %rsi, %rdx seta %dil jbe 0x1e9edfe jmp 0x1e9ef1a testb $0x1, %dil je 0x1e9f39f movq %r14, 0xe8(%rsp) leaq 0xe8(%rsp), %rax movq %rax, 0xf0(%rsp) movq 0x10(%rsp), %rax movq %rax, 0xf8(%rsp) vmovss 0x2c(%rax), %xmm0 vmovss 0x30(%rax), %xmm1 vsubss %xmm0, %xmm4, %xmm2 vsubss %xmm0, %xmm1, %xmm1 vdivss %xmm1, %xmm2, %xmm2 vsubss %xmm0, %xmm5, %xmm0 vdivss %xmm1, %xmm0, %xmm0 vmovss %xmm2, 0xc(%rsp) vmulss %xmm2, %xmm3, %xmm2 vmovss %xmm2, 0x20(%rsp) vmovss %xmm0, 0xb0(%rsp) vmulss %xmm0, %xmm3, %xmm1 vroundss $0x9, %xmm2, %xmm2, %xmm0 vmovss %xmm1, 0x60(%rsp) vroundss $0xa, %xmm1, %xmm1, %xmm1 vmaxss %xmm7, %xmm0, %xmm4 vmovss %xmm4, 0xc0(%rsp) vminss %xmm3, %xmm1, %xmm2 vcvttss2si %xmm4, %ebp vmovss %xmm2, 0x50(%rsp) vcvttss2si %xmm2, %r13d vcvttss2si %xmm0, %ebx testl %ebx, %ebx movl $0xffffffff, %eax # imm = 0xFFFFFFFF cmovsl %eax, %ebx vcvttss2si %xmm1, %eax vmovss %xmm3, 0x1c(%rsp) vcvttss2si %xmm3, %r15d incl %r15d cmpl %r15d, %eax cmovll %eax, %r15d movslq %ebp, %rdx leaq 0x120(%rsp), %rdi movq %r12, %rsi callq 0x1ea2016 movslq %r13d, %rdx leaq 0x100(%rsp), %rdi movq %r12, %rsi callq 0x1ea2016 movl %r15d, %eax subl %ebx, %eax vmovss 0x20(%rsp), %xmm0 vsubss 0xc0(%rsp), %xmm0, %xmm0 cmpl $0x1, %eax jne 0x1e9f0a0 vxorps %xmm7, %xmm7, %xmm7 vmaxss %xmm7, %xmm0, %xmm0 vmovss 0x4d6f0(%rip), %xmm6 # 0x1eec714 vsubss %xmm0, %xmm6, %xmm1 vbroadcastss %xmm0, %xmm0 vmovaps 0x100(%rsp), %xmm2 vmovaps 0x110(%rsp), %xmm3 vmulps %xmm2, %xmm0, %xmm13 vbroadcastss %xmm1, %xmm1 vmovaps 0x120(%rsp), %xmm4 vmovaps 0x130(%rsp), %xmm5 vfmadd231ps %xmm4, %xmm1, %xmm13 # xmm13 = (xmm1 * xmm4) + xmm13 vmulps %xmm3, %xmm0, %xmm14 vfmadd231ps %xmm1, %xmm5, %xmm14 # xmm14 = (xmm5 * xmm1) + xmm14 vmovss 0x50(%rsp), %xmm0 vsubss 0x60(%rsp), %xmm0, %xmm0 vmaxss %xmm7, %xmm0, %xmm0 vsubss %xmm0, %xmm6, %xmm1 vbroadcastss %xmm0, %xmm0 vmulps %xmm4, %xmm0, %xmm15 vbroadcastss %xmm1, %xmm1 vfmadd231ps %xmm2, %xmm1, %xmm15 # xmm15 = (xmm1 * xmm2) + xmm15 vmulps %xmm5, %xmm0, %xmm16 vfmadd231ps %xmm3, %xmm1, %xmm16 # xmm16 = (xmm1 * xmm3) + xmm16 jmp 0x1e9f27b incl %ebp movslq %ebp, %rdx leaq 0x1b0(%rsp), %rdi movq %r12, %rsi vmovss %xmm0, 0x20(%rsp) callq 0x1ea2016 decl %r13d movslq %r13d, %rdx leaq 0x190(%rsp), %rdi movq %r12, %rsi callq 0x1ea2016 vxorps %xmm3, %xmm3, %xmm3 vmovss 0x20(%rsp), %xmm0 vmaxss %xmm3, %xmm0, %xmm0 vbroadcastss %xmm0, %xmm1 vmulps 0x1b0(%rsp), %xmm1, %xmm13 vmovss 0x4d61f(%rip), %xmm2 # 0x1eec714 vsubss %xmm0, %xmm2, %xmm0 vbroadcastss %xmm0, %xmm0 vfmadd231ps 0x120(%rsp), %xmm0, %xmm13 # xmm13 = (xmm0 * mem) + xmm13 vmulps 0x1c0(%rsp), %xmm1, %xmm14 vfmadd231ps 0x130(%rsp), %xmm0, %xmm14 # xmm14 = (xmm0 * mem) + xmm14 vmovss 0x50(%rsp), %xmm0 vsubss 0x60(%rsp), %xmm0, %xmm0 vmaxss %xmm3, %xmm0, %xmm0 vsubss %xmm0, %xmm2, %xmm1 vbroadcastss %xmm0, %xmm0 vmulps 0x190(%rsp), %xmm0, %xmm15 vbroadcastss %xmm1, %xmm1 vfmadd231ps 0x100(%rsp), %xmm1, %xmm15 # xmm15 = (xmm1 * mem) + xmm15 vmulps 0x1a0(%rsp), %xmm0, %xmm16 vfmadd231ps 0x110(%rsp), %xmm1, %xmm16 # xmm16 = (xmm1 * mem) + xmm16 leal 0x1(%rbx), %eax cmpl %r15d, %eax jge 0x1e9f277 vmovss 0xc(%rsp), %xmm1 vmovss 0xb0(%rsp), %xmm0 vsubss %xmm1, %xmm0, %xmm0 vmovss %xmm0, 0x18(%rsp) movl %eax, %r13d notl %ebx addl %r15d, %ebx leaq 0x170(%rsp), %r15 vmovaps %xmm16, 0xc0(%rsp) vmovaps %xmm15, 0x20(%rsp) vmovaps %xmm14, 0x50(%rsp) vmovaps %xmm13, 0x60(%rsp) vcvtsi2ss %r13d, %xmm5, %xmm0 vdivss 0x1c(%rsp), %xmm0, %xmm0 vsubss %xmm1, %xmm0, %xmm0 vdivss 0x18(%rsp), %xmm0, %xmm0 vsubss %xmm0, %xmm2, %xmm1 vbroadcastss %xmm0, %xmm0 vmulps %xmm0, %xmm15, %xmm2 vbroadcastss %xmm1, %xmm1 vfmadd231ps %xmm13, %xmm1, %xmm2 # xmm2 = (xmm1 * xmm13) + xmm2 vmovaps %xmm2, 0xb0(%rsp) vmulps %xmm0, %xmm16, %xmm0 vfmadd231ps %xmm1, %xmm14, %xmm0 # xmm0 = (xmm14 * xmm1) + xmm0 vmovaps %xmm0, 0x160(%rsp) movq %r15, %rdi movq %r12, %rsi movq %r13, %rdx callq 0x1ea2016 vmovaps 0xc0(%rsp), %xmm16 vmovaps 0x20(%rsp), %xmm15 vmovaps 0x50(%rsp), %xmm14 vmovaps 0x60(%rsp), %xmm13 vxorps %xmm3, %xmm3, %xmm3 vmovss 0x4d4ec(%rip), %xmm2 # 0x1eec714 vmovaps 0x170(%rsp), %xmm0 vsubps 0xb0(%rsp), %xmm0, %xmm0 vmovaps 0x180(%rsp), %xmm1 vsubps 0x160(%rsp), %xmm1, %xmm1 vminps %xmm3, %xmm0, %xmm0 vmaxps %xmm3, %xmm1, %xmm1 vaddps %xmm0, %xmm13, %xmm13 vaddps %xmm0, %xmm15, %xmm15 vaddps %xmm1, %xmm14, %xmm14 vaddps %xmm1, %xmm16, %xmm16 vmovss 0xc(%rsp), %xmm1 incq %r13 decl %ebx jne 0x1e9f191 vxorps %xmm7, %xmm7, %xmm7 vcmpleps %xmm14, %xmm13, %k0 knotw %k0, %k0 kmovd %k0, %eax testb $0x7, %al movq 0x48(%rsp), %r8 vmovaps 0x150(%rsp), %xmm4 vmovaps 0x140(%rsp), %xmm5 vmovss 0x51695(%rip), %xmm6 # 0x1ef0940 vmovss 0x51691(%rip), %xmm8 # 0x1ef0944 movq 0x10(%rsp), %rsi vbroadcastss 0x81c03(%rip), %xmm9 # 0x1f20ec4 vmovss 0x51d17(%rip), %xmm10 # 0x1ef0fe0 vbroadcastss 0x8212a(%rip), %xmm11 # 0x1f213fc vbroadcastss 0x51d05(%rip), %xmm12 # 0x1ef0fe0 jne 0x1e9f3a9 vcmpleps %xmm16, %xmm15, %k0 knotw %k0, %k0 kmovd %k0, %eax testb $0x7, %al jne 0x1e9f3a9 vminps %xmm15, %xmm13, %xmm0 vmovss 0x210(%rsp), %xmm1 vinsertps $0x30, %xmm1, %xmm0, %xmm0 # xmm0 = xmm0[0,1,2],xmm1[0] vmaxps %xmm16, %xmm14, %xmm1 vmovd %r14d, %xmm2 vinsertps $0x30, %xmm2, %xmm1, %xmm1 # xmm1 = xmm1[0,1,2],xmm2[0] vaddps %xmm1, %xmm0, %xmm2 vmovaps 0xa0(%rsp), %xmm3 vminps %xmm0, %xmm3, %xmm3 vmovaps %xmm3, 0xa0(%rsp) vmovaps 0x90(%rsp), %xmm3 vmaxps %xmm1, %xmm3, %xmm3 vmovaps %xmm3, 0x90(%rsp) vmovaps 0x80(%rsp), %xmm3 vminps %xmm2, %xmm3, %xmm3 vmovaps %xmm3, 0x80(%rsp) vmovaps 0x70(%rsp), %xmm3 vmaxps %xmm2, %xmm3, %xmm3 vmovaps %xmm3, 0x70(%rsp) incq 0x38(%rsp) movq 0x40(%rsp), %rdx leaq 0x1(%rdx), %rax shlq $0x5, %rdx movq 0xe0(%rsp), %rcx vmovaps %xmm0, (%rcx,%rdx) vmovaps %xmm1, 0x10(%rcx,%rdx) movq %rax, 0x40(%rsp) jmp 0x1e9f3a9 movq 0x48(%rsp), %r8 movq 0x10(%rsp), %rsi incq %r14 cmpq 0x8(%r8), %r14 jb 0x1e9ed68 movq 0xd8(%rsp), %rax vmovaps 0xa0(%rsp), %xmm0 vmovaps %xmm0, (%rax) vmovaps 0x90(%rsp), %xmm0 vmovaps %xmm0, 0x10(%rax) vmovaps 0x80(%rsp), %xmm0 vmovaps %xmm0, 0x20(%rax) vmovaps 0x70(%rsp), %xmm0 vmovaps %xmm0, 0x30(%rax) movq 0x38(%rsp), %rcx movq %rcx, 0x48(%rax) addq $0x1d8, %rsp # imm = 0x1D8 popq %rbx popq %r12 popq %r13 popq %r14 popq %r15 popq %rbp retq nop
/embree[P]embree/kernels/common/scene_curves.cpp
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)1, embree::avx512::CurveGeometryInterface, embree::CatmullRomCurveT>::computeAlignedSpace(unsigned long) const
LinearSpace3fa computeAlignedSpace(const size_t primID) const { Vec3fa axisz(0,0,1); Vec3fa axisy(0,1,0); const Curve3ff curve = getCurveScaledRadius(primID); const Vec3fa p0 = curve.begin(); const Vec3fa p3 = curve.end(); const Vec3fa d0 = curve.eval_du(0.0f); //const Vec3fa d1 = curve.eval_du(1.0f); const Vec3fa axisz_ = normalize(p3 - p0); const Vec3fa axisy_ = cross(axisz_,d0); if (sqr_length(p3-p0) > 1E-18f) { axisz = axisz_; axisy = axisy_; } if (sqr_length(axisy) > 1E-18) { axisy = normalize(axisy); Vec3fa axisx = normalize(cross(axisy,axisz)); return LinearSpace3fa(axisx,axisy,axisz); } return frame(axisz); }
movq %rdi, %rax imulq 0x68(%rsi), %rdx movq 0x58(%rsi), %rcx movq 0x188(%rsi), %rdi movl (%rcx,%rdx), %r8d movq (%rdi), %rcx movq 0x10(%rdi), %r9 leal 0x1(%r8), %r10d leal 0x2(%r8), %r11d leal 0x3(%r8), %edx movq %r8, %rdi imulq %r9, %r10 vmovaps (%rcx,%r10), %xmm0 imulq %r9, %r11 vmovaps (%rcx,%r11), %xmm2 imulq %r9, %rdi imulq %r9, %rdx vmovss 0x24c(%rsi), %xmm4 vmulss 0xc(%rcx,%r10), %xmm4, %xmm1 vinsertps $0x30, %xmm1, %xmm0, %xmm1 # xmm1 = xmm0[0,1,2],xmm1[0] vmulss 0xc(%rcx,%r11), %xmm4, %xmm0 vinsertps $0x30, %xmm0, %xmm2, %xmm2 # xmm2 = xmm2[0,1,2],xmm0[0] vxorps %xmm3, %xmm3, %xmm3 vsubps %xmm1, %xmm2, %xmm0 vdpps $0x7f, %xmm0, %xmm0, %xmm5 vmovss %xmm5, %xmm3, %xmm6 # xmm6 = xmm5[0],xmm3[1,2,3] vrsqrt14ss %xmm6, %xmm3, %xmm6 vmulss 0x4c999(%rip), %xmm6, %xmm7 # 0x1eec718 vmulss 0x4c995(%rip), %xmm5, %xmm8 # 0x1eec71c vmulss %xmm6, %xmm8, %xmm8 vmulss %xmm6, %xmm6, %xmm6 vmulss %xmm6, %xmm8, %xmm6 vaddss %xmm6, %xmm7, %xmm6 vbroadcastss %xmm6, %xmm6 vmulps %xmm6, %xmm0, %xmm0 vucomiss 0x51240(%rip), %xmm5 # 0x1ef0fe8 ja 0x1e9fdb6 vmovsd 0x4c93e(%rip), %xmm1 # 0x1eec6f0 jbe 0x1e9fe0e jmp 0x1e9fe16 vmovaps (%rcx,%rdi), %xmm5 vmovaps (%rcx,%rdx), %xmm6 vmulss 0xc(%rcx,%rdi), %xmm4, %xmm7 vinsertps $0x30, %xmm7, %xmm5, %xmm5 # xmm5 = xmm5[0,1,2],xmm7[0] vmulss 0xc(%rcx,%rdx), %xmm4, %xmm4 vinsertps $0x30, %xmm4, %xmm6, %xmm4 # xmm4 = xmm6[0,1,2],xmm4[0] vmulps %xmm3, %xmm4, %xmm4 vbroadcastss 0x4c937(%rip), %xmm6 # 0x1eec71c vfnmadd213ps %xmm4, %xmm6, %xmm2 # xmm2 = -(xmm6 * xmm2) + xmm4 vfmadd213ps %xmm2, %xmm3, %xmm1 # xmm1 = (xmm3 * xmm1) + xmm2 vfmadd231ps %xmm5, %xmm6, %xmm1 # xmm1 = (xmm6 * xmm5) + xmm1 vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3] vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3] vmulps %xmm3, %xmm1, %xmm1 vfmsub231ps %xmm2, %xmm0, %xmm1 # xmm1 = (xmm0 * xmm2) - xmm1 vshufps $0xc9, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[1,2,0,3] ja 0x1e9fe16 vmovaps 0x4c8ea(%rip), %xmm0 # 0x1eec700 vdpps $0x7f, %xmm1, %xmm1, %xmm2 vcvtss2sd %xmm2, %xmm2, %xmm3 vucomisd 0x511e8(%rip), %xmm3 # 0x1ef1010 jbe 0x1e9febb vxorps %xmm3, %xmm3, %xmm3 vmovss %xmm2, %xmm3, %xmm4 # xmm4 = xmm2[0],xmm3[1,2,3] vrsqrt14ss %xmm4, %xmm3, %xmm4 vmovss 0x4c8d4(%rip), %xmm5 # 0x1eec718 vmulss %xmm5, %xmm4, %xmm6 vmovss 0x4cd30(%rip), %xmm7 # 0x1eecb80 vmulss %xmm7, %xmm2, %xmm2 vmulss %xmm4, %xmm2, %xmm2 vmulss %xmm4, %xmm4, %xmm4 vmulss %xmm4, %xmm2, %xmm2 vsubss %xmm2, %xmm6, %xmm2 vbroadcastss %xmm2, %xmm2 vmulps %xmm2, %xmm1, %xmm1 vshufps $0xc9, %xmm0, %xmm0, %xmm2 # xmm2 = xmm0[1,2,0,3] vshufps $0xc9, %xmm1, %xmm1, %xmm4 # xmm4 = xmm1[1,2,0,3] vmulps %xmm4, %xmm0, %xmm4 vfmsub231ps %xmm2, %xmm1, %xmm4 # xmm4 = (xmm1 * xmm2) - xmm4 vshufps $0xc9, %xmm4, %xmm4, %xmm2 # xmm2 = xmm4[1,2,0,3] vdpps $0x7f, %xmm2, %xmm2, %xmm4 vmovss %xmm4, %xmm3, %xmm6 # xmm6 = xmm4[0],xmm3[1,2,3] vrsqrt14ss %xmm6, %xmm3, %xmm3 vmulss %xmm5, %xmm3, %xmm5 vmulss %xmm7, %xmm4, %xmm4 vmulss %xmm3, %xmm4, %xmm4 vmulss %xmm3, %xmm3, %xmm3 vmulss %xmm3, %xmm4, %xmm3 vsubss %xmm3, %xmm5, %xmm3 vbroadcastss %xmm3, %xmm3 vmulps %xmm2, %xmm3, %xmm2 jmp 0x1e9ffaa vshufpd $0x1, %xmm0, %xmm0, %xmm1 # xmm1 = xmm0[1,0] vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3] vbroadcastss 0x80ff3(%rip), %xmm3 # 0x1f20ec0 vxorps %xmm3, %xmm2, %xmm2 vxorps %xmm4, %xmm4, %xmm4 vunpckhps %xmm4, %xmm0, %xmm5 # xmm5 = xmm0[2],xmm4[2],xmm0[3],xmm4[3] vmovss %xmm2, %xmm4, %xmm2 # xmm2 = xmm2[0],xmm4[1,2,3] vshufps $0x41, %xmm2, %xmm5, %xmm2 # xmm2 = xmm5[1,0],xmm2[0,1] vdpps $0x7f, %xmm2, %xmm2, %xmm5 vxorpd %xmm3, %xmm1, %xmm1 vinsertps $0x2a, %xmm0, %xmm1, %xmm1 # xmm1 = xmm1[0],zero,xmm0[0],zero vdpps $0x7f, %xmm1, %xmm1, %xmm3 vcmpltps %xmm5, %xmm3, %k0 vpmovm2d %k0, %xmm3 vpbroadcastd %xmm3, %xmm3 vpmovd2m %xmm3, %k1 vpcmpeqd %xmm3, %xmm3, %xmm3 vmovaps %xmm3, %xmm3 {%k1} {z} vblendvps %xmm3, %xmm2, %xmm1, %xmm1 vdpps $0x7f, %xmm1, %xmm1, %xmm2 vmovss %xmm2, %xmm4, %xmm3 # xmm3 = xmm2[0],xmm4[1,2,3] vrsqrt14ss %xmm3, %xmm4, %xmm3 vmovss 0x4c7e0(%rip), %xmm5 # 0x1eec718 vmulss %xmm5, %xmm3, %xmm6 vmovss 0x4cc3c(%rip), %xmm7 # 0x1eecb80 vmulss %xmm7, %xmm2, %xmm2 vmulss %xmm3, %xmm2, %xmm2 vmulss %xmm3, %xmm3, %xmm3 vmulss %xmm3, %xmm2, %xmm2 vsubss %xmm2, %xmm6, %xmm2 vbroadcastss %xmm2, %xmm2 vmulps %xmm2, %xmm1, %xmm2 vshufps $0xc9, %xmm2, %xmm2, %xmm1 # xmm1 = xmm2[1,2,0,3] vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3] vmulps %xmm3, %xmm2, %xmm3 vfmsub231ps %xmm1, %xmm0, %xmm3 # xmm3 = (xmm0 * xmm1) - xmm3 vshufps $0xc9, %xmm3, %xmm3, %xmm1 # xmm1 = xmm3[1,2,0,3] vdpps $0x7f, %xmm1, %xmm1, %xmm3 vmovss %xmm3, %xmm4, %xmm6 # xmm6 = xmm3[0],xmm4[1,2,3] vrsqrt14ss %xmm6, %xmm4, %xmm4 vmulss %xmm5, %xmm4, %xmm5 vmulss %xmm7, %xmm3, %xmm3 vmulss %xmm4, %xmm3, %xmm3 vmulss %xmm4, %xmm4, %xmm4 vmulss %xmm4, %xmm3, %xmm3 vsubss %xmm3, %xmm5, %xmm3 vbroadcastss %xmm3, %xmm3 vmulps %xmm1, %xmm3, %xmm1 vmovaps %xmm2, (%rax) vmovaps %xmm1, 0x10(%rax) vmovaps %xmm0, 0x20(%rax) retq nop
/embree[P]embree/kernels/common/scene_curves.cpp
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)1, embree::avx512::CurveGeometryInterface, embree::CatmullRomCurveT>::computeAlignedSpaceMB(unsigned long, embree::BBox<float>) const
LinearSpace3fa computeAlignedSpaceMB(const size_t primID, const BBox1f time_range) const { Vec3fa axisz(0,0,1); Vec3fa axisy(0,1,0); const range<int> tbounds = this->timeSegmentRange(time_range); if (tbounds.size() == 0) return frame(axisz); const size_t t = (tbounds.begin()+tbounds.end())/2; const Curve3ff curve = getCurveScaledRadius(primID,t); const Vec3fa p0 = curve.begin(); const Vec3fa p3 = curve.end(); const Vec3fa d0 = curve.eval_du(0.0f); //const Vec3fa d1 = curve.eval_du(1.0f); const Vec3fa axisz_ = normalize(p3 - p0); const Vec3fa axisy_ = cross(axisz_,d0); if (sqr_length(p3-p0) > 1E-18f) { axisz = axisz_; axisy = axisy_; } if (sqr_length(axisy) > 1E-18) { axisy = normalize(axisy); Vec3fa axisx = normalize(cross(axisy,axisz)); return LinearSpace3fa(axisx,axisy,axisz); } return frame(axisz); }
movq %rdi, %rax vmovsd 0x2c(%rsi), %xmm1 vmovss 0x28(%rsi), %xmm2 vsubss %xmm1, %xmm0, %xmm3 vmovshdup %xmm1, %xmm4 # xmm4 = xmm1[1,1,3,3] vsubss %xmm1, %xmm4, %xmm4 vdivss %xmm4, %xmm3, %xmm3 vmovshdup %xmm0, %xmm0 # xmm0 = xmm0[1,1,3,3] vsubss %xmm1, %xmm0, %xmm0 vdivss %xmm4, %xmm0, %xmm0 vmulss 0x50955(%rip), %xmm3, %xmm1 # 0x1ef0940 vmulss %xmm1, %xmm2, %xmm1 vroundss $0x9, %xmm1, %xmm1, %xmm1 vxorps %xmm3, %xmm3, %xmm3 vmaxss %xmm1, %xmm3, %xmm1 vcvttss2si %xmm1, %ecx vmulss 0x5093b(%rip), %xmm0, %xmm0 # 0x1ef0944 vmulss %xmm0, %xmm2, %xmm0 vroundss $0xa, %xmm0, %xmm0, %xmm0 vminss %xmm2, %xmm0, %xmm0 vcvttss2si %xmm0, %edi cmpl %ecx, %edi jne 0x1ea0101 vmovaps 0x814b5(%rip), %xmm0 # 0x1f214e0 vdpps $0x7f, %xmm0, %xmm0, %xmm1 vmovss 0x50993(%rip), %xmm2 # 0x1ef09cc vdpps $0x7f, %xmm2, %xmm2, %xmm3 vcmpltps %xmm1, %xmm3, %k0 vpmovm2d %k0, %xmm1 vpbroadcastd %xmm1, %xmm1 vpmovd2m %xmm1, %k1 vpcmpeqd %xmm1, %xmm1, %xmm1 vmovaps %xmm1, %xmm1 {%k1} {z} vblendvps %xmm1, %xmm0, %xmm2, %xmm0 vxorps %xmm2, %xmm2, %xmm2 vdpps $0x7f, %xmm0, %xmm0, %xmm1 vmovss %xmm1, %xmm2, %xmm3 # xmm3 = xmm1[0],xmm2[1,2,3] vrsqrt14ss %xmm3, %xmm2, %xmm3 vmovss 0x4c695(%rip), %xmm4 # 0x1eec718 vmulss %xmm4, %xmm3, %xmm5 vmovss 0x4caf1(%rip), %xmm6 # 0x1eecb80 vmulss %xmm6, %xmm1, %xmm1 vmulss %xmm3, %xmm1, %xmm1 vmulss %xmm3, %xmm3, %xmm3 vmulss %xmm3, %xmm1, %xmm1 vsubss %xmm1, %xmm5, %xmm1 vbroadcastss %xmm1, %xmm1 vmulps %xmm1, %xmm0, %xmm1 vshufps $0xc9, %xmm1, %xmm1, %xmm3 # xmm3 = xmm1[1,2,0,3] vmulps 0x50eb7(%rip), %xmm1, %xmm5 # 0x1ef0f70 vmovaps 0x4c63f(%rip), %xmm0 # 0x1eec700 vfmadd231ps %xmm3, %xmm0, %xmm5 # xmm5 = (xmm0 * xmm3) + xmm5 vshufps $0xc9, %xmm5, %xmm5, %xmm3 # xmm3 = xmm5[1,2,0,3] vdpps $0x7f, %xmm3, %xmm3, %xmm5 vmovss %xmm5, %xmm2, %xmm7 # xmm7 = xmm5[0],xmm2[1,2,3] vrsqrt14ss %xmm7, %xmm2, %xmm2 vmulss %xmm4, %xmm2, %xmm4 vmulss %xmm6, %xmm5, %xmm5 vmulss %xmm2, %xmm5, %xmm5 vmulss %xmm2, %xmm2, %xmm2 vmulss %xmm2, %xmm5, %xmm2 vsubss %xmm2, %xmm4, %xmm2 vbroadcastss %xmm2, %xmm2 vmulps %xmm3, %xmm2, %xmm2 jmp 0x1ea03c3 addl %edi, %ecx movl %ecx, %edi shrl $0x1f, %edi addl %ecx, %edi sarl %edi movslq %edi, %rcx imulq 0x68(%rsi), %rdx movq 0x58(%rsi), %rdi movq 0x188(%rsi), %r8 movl (%rdi,%rdx), %edi imulq $0x38, %rcx, %rdx movq (%r8,%rdx), %rcx movq 0x10(%r8,%rdx), %r8 leal 0x1(%rdi), %r9d leal 0x2(%rdi), %r10d leal 0x3(%rdi), %edx imulq %r8, %r9 vmovaps (%rcx,%r9), %xmm0 imulq %r8, %r10 vmovaps (%rcx,%r10), %xmm2 imulq %r8, %rdi imulq %r8, %rdx vmovss 0x24c(%rsi), %xmm4 vmulss 0xc(%rcx,%r9), %xmm4, %xmm1 vinsertps $0x30, %xmm1, %xmm0, %xmm1 # xmm1 = xmm0[0,1,2],xmm1[0] vmulss 0xc(%rcx,%r10), %xmm4, %xmm0 vinsertps $0x30, %xmm0, %xmm2, %xmm2 # xmm2 = xmm2[0,1,2],xmm0[0] vxorps %xmm3, %xmm3, %xmm3 vsubps %xmm1, %xmm2, %xmm0 vdpps $0x7f, %xmm0, %xmm0, %xmm5 vmovss %xmm5, %xmm3, %xmm6 # xmm6 = xmm5[0],xmm3[1,2,3] vrsqrt14ss %xmm6, %xmm3, %xmm6 vmulss 0x4c580(%rip), %xmm6, %xmm7 # 0x1eec718 vmulss 0x4c57c(%rip), %xmm5, %xmm8 # 0x1eec71c vmulss %xmm6, %xmm8, %xmm8 vmulss %xmm6, %xmm6, %xmm6 vmulss %xmm6, %xmm8, %xmm6 vaddss %xmm6, %xmm7, %xmm6 vbroadcastss %xmm6, %xmm6 vmulps %xmm6, %xmm0, %xmm0 vucomiss 0x50e27(%rip), %xmm5 # 0x1ef0fe8 ja 0x1ea01cf vmovsd 0x4c525(%rip), %xmm1 # 0x1eec6f0 jbe 0x1ea0227 jmp 0x1ea022f vmovaps (%rcx,%rdi), %xmm5 vmovaps (%rcx,%rdx), %xmm6 vmulss 0xc(%rcx,%rdi), %xmm4, %xmm7 vinsertps $0x30, %xmm7, %xmm5, %xmm5 # xmm5 = xmm5[0,1,2],xmm7[0] vmulss 0xc(%rcx,%rdx), %xmm4, %xmm4 vinsertps $0x30, %xmm4, %xmm6, %xmm4 # xmm4 = xmm6[0,1,2],xmm4[0] vmulps %xmm3, %xmm4, %xmm4 vbroadcastss 0x4c51e(%rip), %xmm6 # 0x1eec71c vfnmadd213ps %xmm4, %xmm6, %xmm2 # xmm2 = -(xmm6 * xmm2) + xmm4 vfmadd213ps %xmm2, %xmm3, %xmm1 # xmm1 = (xmm3 * xmm1) + xmm2 vfmadd231ps %xmm5, %xmm6, %xmm1 # xmm1 = (xmm6 * xmm5) + xmm1 vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3] vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3] vmulps %xmm3, %xmm1, %xmm1 vfmsub231ps %xmm2, %xmm0, %xmm1 # xmm1 = (xmm0 * xmm2) - xmm1 vshufps $0xc9, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[1,2,0,3] ja 0x1ea022f vmovaps 0x4c4d1(%rip), %xmm0 # 0x1eec700 vdpps $0x7f, %xmm1, %xmm1, %xmm2 vcvtss2sd %xmm2, %xmm2, %xmm3 vucomisd 0x50dcf(%rip), %xmm3 # 0x1ef1010 jbe 0x1ea02d4 vxorps %xmm3, %xmm3, %xmm3 vmovss %xmm2, %xmm3, %xmm4 # xmm4 = xmm2[0],xmm3[1,2,3] vrsqrt14ss %xmm4, %xmm3, %xmm4 vmovss 0x4c4bb(%rip), %xmm5 # 0x1eec718 vmulss %xmm5, %xmm4, %xmm6 vmovss 0x4c917(%rip), %xmm7 # 0x1eecb80 vmulss %xmm7, %xmm2, %xmm2 vmulss %xmm4, %xmm2, %xmm2 vmulss %xmm4, %xmm4, %xmm4 vmulss %xmm4, %xmm2, %xmm2 vsubss %xmm2, %xmm6, %xmm2 vbroadcastss %xmm2, %xmm2 vmulps %xmm2, %xmm1, %xmm2 vshufps $0xc9, %xmm0, %xmm0, %xmm1 # xmm1 = xmm0[1,2,0,3] vshufps $0xc9, %xmm2, %xmm2, %xmm4 # xmm4 = xmm2[1,2,0,3] vmulps %xmm4, %xmm0, %xmm4 vfmsub231ps %xmm1, %xmm2, %xmm4 # xmm4 = (xmm2 * xmm1) - xmm4 vshufps $0xc9, %xmm4, %xmm4, %xmm1 # xmm1 = xmm4[1,2,0,3] vdpps $0x7f, %xmm1, %xmm1, %xmm4 vmovss %xmm4, %xmm3, %xmm6 # xmm6 = xmm4[0],xmm3[1,2,3] vrsqrt14ss %xmm6, %xmm3, %xmm3 vmulss %xmm5, %xmm3, %xmm5 vmulss %xmm7, %xmm4, %xmm4 vmulss %xmm3, %xmm4, %xmm4 vmulss %xmm3, %xmm3, %xmm3 vmulss %xmm3, %xmm4, %xmm3 vsubss %xmm3, %xmm5, %xmm3 vbroadcastss %xmm3, %xmm3 vmulps %xmm1, %xmm3, %xmm1 jmp 0x1ea03c3 vshufpd $0x1, %xmm0, %xmm0, %xmm1 # xmm1 = xmm0[1,0] vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3] vbroadcastss 0x80bda(%rip), %xmm3 # 0x1f20ec0 vxorps %xmm3, %xmm2, %xmm2 vxorps %xmm4, %xmm4, %xmm4 vunpckhps %xmm4, %xmm0, %xmm5 # xmm5 = xmm0[2],xmm4[2],xmm0[3],xmm4[3] vmovss %xmm2, %xmm4, %xmm2 # xmm2 = xmm2[0],xmm4[1,2,3] vshufps $0x41, %xmm2, %xmm5, %xmm2 # xmm2 = xmm5[1,0],xmm2[0,1] vdpps $0x7f, %xmm2, %xmm2, %xmm5 vxorpd %xmm3, %xmm1, %xmm1 vinsertps $0x2a, %xmm0, %xmm1, %xmm1 # xmm1 = xmm1[0],zero,xmm0[0],zero vdpps $0x7f, %xmm1, %xmm1, %xmm3 vcmpltps %xmm5, %xmm3, %k0 vpmovm2d %k0, %xmm3 vpbroadcastd %xmm3, %xmm3 vpmovd2m %xmm3, %k1 vpcmpeqd %xmm3, %xmm3, %xmm3 vmovaps %xmm3, %xmm3 {%k1} {z} vblendvps %xmm3, %xmm2, %xmm1, %xmm1 vdpps $0x7f, %xmm1, %xmm1, %xmm2 vmovss %xmm2, %xmm4, %xmm3 # xmm3 = xmm2[0],xmm4[1,2,3] vrsqrt14ss %xmm3, %xmm4, %xmm3 vmovss 0x4c3c7(%rip), %xmm5 # 0x1eec718 vmulss %xmm5, %xmm3, %xmm6 vmovss 0x4c823(%rip), %xmm7 # 0x1eecb80 vmulss %xmm7, %xmm2, %xmm2 vmulss %xmm3, %xmm2, %xmm2 vmulss %xmm3, %xmm3, %xmm3 vmulss %xmm3, %xmm2, %xmm2 vsubss %xmm2, %xmm6, %xmm2 vbroadcastss %xmm2, %xmm2 vmulps %xmm2, %xmm1, %xmm1 vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3] vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3] vmulps %xmm3, %xmm1, %xmm3 vfmsub231ps %xmm2, %xmm0, %xmm3 # xmm3 = (xmm0 * xmm2) - xmm3 vshufps $0xc9, %xmm3, %xmm3, %xmm2 # xmm2 = xmm3[1,2,0,3] vdpps $0x7f, %xmm2, %xmm2, %xmm3 vmovss %xmm3, %xmm4, %xmm6 # xmm6 = xmm3[0],xmm4[1,2,3] vrsqrt14ss %xmm6, %xmm4, %xmm4 vmulss %xmm5, %xmm4, %xmm5 vmulss %xmm7, %xmm3, %xmm3 vmulss %xmm4, %xmm3, %xmm3 vmulss %xmm4, %xmm4, %xmm4 vmulss %xmm4, %xmm3, %xmm3 vsubss %xmm3, %xmm5, %xmm3 vbroadcastss %xmm3, %xmm3 vmulps %xmm2, %xmm3, %xmm2 vmovaps %xmm1, (%rax) vmovaps %xmm2, 0x10(%rax) vmovaps %xmm0, 0x20(%rax) retq
/embree[P]embree/kernels/common/scene_curves.cpp
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)1, embree::avx512::CurveGeometryInterface, embree::CatmullRomCurveT>::computeDirection(unsigned int) const
Vec3fa computeDirection(unsigned int primID) const { const Curve3ff c = getCurveScaledRadius(primID); const Vec3fa p0 = c.begin(); const Vec3fa p3 = c.end(); const Vec3fa axis1 = p3 - p0; return axis1; }
movl %edx, %eax imulq 0x68(%rsi), %rax movq 0x58(%rsi), %rcx movq 0x188(%rsi), %rdx movl (%rcx,%rax), %ecx movq (%rdx), %r8 movq 0x10(%rdx), %rax leal 0x1(%rcx), %edx imulq %rax, %rdx vmovaps (%r8,%rdx), %xmm0 addl $0x2, %ecx imulq %rax, %rcx vmovaps (%r8,%rcx), %xmm1 movq %rdi, %rax vmovss 0x24c(%rsi), %xmm2 vmulss 0xc(%r8,%rdx), %xmm2, %xmm3 vinsertps $0x30, %xmm3, %xmm0, %xmm0 # xmm0 = xmm0[0,1,2],xmm3[0] vmulss 0xc(%r8,%rcx), %xmm2, %xmm2 vinsertps $0x30, %xmm2, %xmm1, %xmm1 # xmm1 = xmm1[0,1,2],xmm2[0] vsubps %xmm0, %xmm1, %xmm0 vmovaps %xmm0, (%rdi) retq
/embree[P]embree/kernels/common/scene_curves.cpp
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)1, embree::avx512::CurveGeometryInterface, embree::CatmullRomCurveT>::computeDirection(unsigned int, unsigned long) const
Vec3fa computeDirection(unsigned int primID, size_t time) const { const Curve3ff c = getCurveScaledRadius(primID,time); const Vec3fa p0 = c.begin(); const Vec3fa p3 = c.end(); const Vec3fa axis1 = p3 - p0; return axis1; }
movl %edx, %eax imulq 0x68(%rsi), %rax movq 0x58(%rsi), %rdx movq 0x188(%rsi), %r8 movl (%rdx,%rax), %edx imulq $0x38, %rcx, %rax movq (%r8,%rax), %rcx movq 0x10(%r8,%rax), %rax leal 0x1(%rdx), %r8d imulq %rax, %r8 vmovaps (%rcx,%r8), %xmm0 addl $0x2, %edx imulq %rax, %rdx vmovaps (%rcx,%rdx), %xmm1 movq %rdi, %rax vmovss 0x24c(%rsi), %xmm2 vmulss 0xc(%rcx,%r8), %xmm2, %xmm3 vinsertps $0x30, %xmm3, %xmm0, %xmm0 # xmm0 = xmm0[0,1,2],xmm3[0] vmulss 0xc(%rcx,%rdx), %xmm2, %xmm2 vinsertps $0x30, %xmm2, %xmm1, %xmm1 # xmm1 = xmm1[0,1,2],xmm2[0] vsubps %xmm0, %xmm1, %xmm0 vmovaps %xmm0, (%rdi) retq nop
/embree[P]embree/kernels/common/scene_curves.cpp
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)1, embree::avx512::CurveGeometryInterface, embree::CatmullRomCurveT>::vbounds(unsigned long) const
BBox3fa vbounds(size_t i) const { return bounds(i); }
movq %rdi, %rax imulq 0x68(%rsi), %rdx movq 0x58(%rsi), %rcx movq 0x188(%rsi), %rdi movl (%rcx,%rdx), %edx movq (%rdi), %rcx movq 0x10(%rdi), %rdi leal 0x1(%rdx), %r8d leal 0x2(%rdx), %r9d leal 0x3(%rdx), %r10d imulq %rdi, %rdx imulq %rdi, %r8 imulq %rdi, %r9 imulq %rdi, %r10 vmovss 0x24c(%rsi), %xmm0 vmulss 0xc(%rcx,%rdx), %xmm0, %xmm1 vmulss 0xc(%rcx,%r8), %xmm0, %xmm2 vmulss 0xc(%rcx,%r9), %xmm0, %xmm3 vmulss 0xc(%rcx,%r10), %xmm0, %xmm0 vbroadcastss (%rcx,%rdx), %ymm7 vbroadcastss 0x4(%rcx,%rdx), %ymm5 vbroadcastss 0x8(%rcx,%rdx), %ymm4 vbroadcastss (%rcx,%r8), %ymm11 vbroadcastss 0x4(%rcx,%r8), %ymm10 vbroadcastss 0x8(%rcx,%r8), %ymm8 vbroadcastss %xmm1, %ymm6 vbroadcastss %xmm2, %ymm9 vbroadcastss (%rcx,%r9), %ymm12 vbroadcastss 0x4(%rcx,%r9), %ymm13 vbroadcastss 0x8(%rcx,%r9), %ymm14 vbroadcastss (%rcx,%r10), %ymm15 vbroadcastss 0x4(%rcx,%r10), %ymm16 vbroadcastss %xmm3, %ymm17 vbroadcastss 0x8(%rcx,%r10), %ymm18 leaq 0x28fe07(%rip), %rcx # 0x213036c vmovups 0x1dc(%rcx), %ymm19 vmovups 0x660(%rcx), %ymm20 vmovups 0xae4(%rcx), %ymm21 vmovups 0xf68(%rcx), %ymm3 vbroadcastss %xmm0, %ymm22 vmulps %ymm3, %ymm15, %ymm0 vmulps %ymm3, %ymm16, %ymm1 vmulps %ymm3, %ymm18, %ymm2 vmulps %ymm3, %ymm22, %ymm3 vfmadd231ps %ymm12, %ymm21, %ymm0 # ymm0 = (ymm21 * ymm12) + ymm0 vfmadd231ps %ymm13, %ymm21, %ymm1 # ymm1 = (ymm21 * ymm13) + ymm1 vfmadd231ps %ymm14, %ymm21, %ymm2 # ymm2 = (ymm21 * ymm14) + ymm2 vfmadd231ps %ymm21, %ymm17, %ymm3 # ymm3 = (ymm17 * ymm21) + ymm3 vfmadd231ps %ymm11, %ymm20, %ymm0 # ymm0 = (ymm20 * ymm11) + ymm0 vfmadd231ps %ymm10, %ymm20, %ymm1 # ymm1 = (ymm20 * ymm10) + ymm1 vfmadd231ps %ymm8, %ymm20, %ymm2 # ymm2 = (ymm20 * ymm8) + ymm2 vfmadd231ps %ymm20, %ymm9, %ymm3 # ymm3 = (ymm9 * ymm20) + ymm3 vfmadd231ps %ymm7, %ymm19, %ymm0 # ymm0 = (ymm19 * ymm7) + ymm0 vfmadd231ps %ymm5, %ymm19, %ymm1 # ymm1 = (ymm19 * ymm5) + ymm1 vfmadd231ps %ymm4, %ymm19, %ymm2 # ymm2 = (ymm19 * ymm4) + ymm2 vmovups 0x13ec(%rcx), %ymm20 vmovups 0x1870(%rcx), %ymm21 vmovups 0x1cf4(%rcx), %ymm23 vmovups 0x2178(%rcx), %ymm24 vfmadd231ps %ymm19, %ymm6, %ymm3 # ymm3 = (ymm6 * ymm19) + ymm3 vmulps %ymm24, %ymm15, %ymm15 vmulps %ymm24, %ymm16, %ymm16 vmulps %ymm24, %ymm18, %ymm18 vmulps %ymm24, %ymm22, %ymm19 vfmadd231ps %ymm12, %ymm23, %ymm15 # ymm15 = (ymm23 * ymm12) + ymm15 vfmadd231ps %ymm13, %ymm23, %ymm16 # ymm16 = (ymm23 * ymm13) + ymm16 vfmadd231ps %ymm14, %ymm23, %ymm18 # ymm18 = (ymm23 * ymm14) + ymm18 vfmadd231ps %ymm17, %ymm23, %ymm19 # ymm19 = (ymm23 * ymm17) + ymm19 vfmadd231ps %ymm11, %ymm21, %ymm15 # ymm15 = (ymm21 * ymm11) + ymm15 vfmadd231ps %ymm10, %ymm21, %ymm16 # ymm16 = (ymm21 * ymm10) + ymm16 vfmadd231ps %ymm8, %ymm21, %ymm18 # ymm18 = (ymm21 * ymm8) + ymm18 vfmadd231ps %ymm9, %ymm21, %ymm19 # ymm19 = (ymm21 * ymm9) + ymm19 vfmadd231ps %ymm7, %ymm20, %ymm15 # ymm15 = (ymm20 * ymm7) + ymm15 vfmadd231ps %ymm5, %ymm20, %ymm16 # ymm16 = (ymm20 * ymm5) + ymm16 vfmadd231ps %ymm4, %ymm20, %ymm18 # ymm18 = (ymm20 * ymm4) + ymm18 vbroadcastss 0x80e59(%rip), %ymm4 # 0x1f214d0 vfmadd231ps %ymm6, %ymm20, %ymm19 # ymm19 = (ymm20 * ymm6) + ymm19 vmulps %ymm4, %ymm15, %ymm5 vmulps %ymm4, %ymm16, %ymm6 vmulps %ymm4, %ymm18, %ymm7 vmulps %ymm4, %ymm19, %ymm4 vxorps %xmm8, %xmm8, %xmm8 vblendps $0x1, %ymm8, %ymm5, %ymm9 # ymm9 = ymm8[0],ymm5[1,2,3,4,5,6,7] vblendps $0x1, %ymm8, %ymm6, %ymm10 # ymm10 = ymm8[0],ymm6[1,2,3,4,5,6,7] vblendps $0x1, %ymm8, %ymm7, %ymm11 # ymm11 = ymm8[0],ymm7[1,2,3,4,5,6,7] vblendps $0x1, %ymm8, %ymm4, %ymm12 # ymm12 = ymm8[0],ymm4[1,2,3,4,5,6,7] vsubps %ymm9, %ymm0, %ymm9 vsubps %ymm10, %ymm1, %ymm10 vsubps %ymm11, %ymm2, %ymm11 vsubps %ymm12, %ymm3, %ymm12 vblendps $0x80, %ymm8, %ymm5, %ymm5 # ymm5 = ymm5[0,1,2,3,4,5,6],ymm8[7] vblendps $0x80, %ymm8, %ymm6, %ymm6 # ymm6 = ymm6[0,1,2,3,4,5,6],ymm8[7] vblendps $0x80, %ymm8, %ymm7, %ymm7 # ymm7 = ymm7[0,1,2,3,4,5,6],ymm8[7] vblendps $0x80, %ymm8, %ymm4, %ymm4 # ymm4 = ymm4[0,1,2,3,4,5,6],ymm8[7] vaddps %ymm5, %ymm0, %ymm5 vaddps %ymm6, %ymm1, %ymm6 vaddps %ymm7, %ymm2, %ymm7 vaddps %ymm4, %ymm3, %ymm4 vbroadcastss 0x4b32b(%rip), %ymm8 # 0x1eeba20 vminps %ymm0, %ymm8, %ymm13 vminps %ymm1, %ymm8, %ymm14 vminps %ymm2, %ymm8, %ymm15 vminps %ymm3, %ymm8, %ymm8 vminps %ymm5, %ymm9, %ymm16 vminps %ymm16, %ymm13, %ymm13 vminps %ymm6, %ymm10, %ymm16 vminps %ymm16, %ymm14, %ymm14 vminps %ymm7, %ymm11, %ymm16 vminps %ymm16, %ymm15, %ymm15 vminps %ymm4, %ymm12, %ymm16 vminps %ymm16, %ymm8, %ymm8 vbroadcastss 0x4c445(%rip), %ymm16 # 0x1eecb84 vmaxps %ymm0, %ymm16, %ymm0 vmaxps %ymm1, %ymm16, %ymm1 vmaxps %ymm2, %ymm16, %ymm2 vmaxps %ymm3, %ymm16, %ymm3 vmaxps %ymm5, %ymm9, %ymm5 vmaxps %ymm5, %ymm0, %ymm0 vmaxps %ymm6, %ymm10, %ymm5 vmaxps %ymm5, %ymm1, %ymm1 vmaxps %ymm7, %ymm11, %ymm5 vmaxps %ymm5, %ymm2, %ymm2 vmaxps %ymm4, %ymm12, %ymm4 vmaxps %ymm4, %ymm3, %ymm3 vshufps $0xb1, %ymm13, %ymm13, %ymm4 # ymm4 = ymm13[1,0,3,2,5,4,7,6] vminps %ymm4, %ymm13, %ymm4 vshufpd $0x5, %ymm4, %ymm4, %ymm5 # ymm5 = ymm4[1,0,3,2] vminps %ymm5, %ymm4, %ymm4 vextractf128 $0x1, %ymm4, %xmm5 vminps %xmm5, %xmm4, %xmm4 vshufps $0xb1, %ymm14, %ymm14, %ymm5 # ymm5 = ymm14[1,0,3,2,5,4,7,6] vminps %ymm5, %ymm14, %ymm5 vshufpd $0x5, %ymm5, %ymm5, %ymm6 # ymm6 = ymm5[1,0,3,2] vminps %ymm6, %ymm5, %ymm5 vextractf128 $0x1, %ymm5, %xmm6 vminps %xmm6, %xmm5, %xmm5 vunpcklps %xmm5, %xmm4, %xmm4 # xmm4 = xmm4[0],xmm5[0],xmm4[1],xmm5[1] vshufps $0xb1, %ymm15, %ymm15, %ymm5 # ymm5 = ymm15[1,0,3,2,5,4,7,6] vminps %ymm5, %ymm15, %ymm5 vshufpd $0x5, %ymm5, %ymm5, %ymm6 # ymm6 = ymm5[1,0,3,2] vminps %ymm6, %ymm5, %ymm5 vextractf128 $0x1, %ymm5, %xmm6 vminps %xmm6, %xmm5, %xmm5 vinsertps $0x28, %xmm5, %xmm4, %xmm4 # xmm4 = xmm4[0,1],xmm5[0],zero vshufps $0xb1, %ymm0, %ymm0, %ymm5 # ymm5 = ymm0[1,0,3,2,5,4,7,6] vmaxps %ymm5, %ymm0, %ymm0 vshufpd $0x5, %ymm0, %ymm0, %ymm5 # ymm5 = ymm0[1,0,3,2] vmaxps %ymm5, %ymm0, %ymm0 vextractf128 $0x1, %ymm0, %xmm5 vmaxps %xmm5, %xmm0, %xmm0 vshufps $0xb1, %ymm1, %ymm1, %ymm5 # ymm5 = ymm1[1,0,3,2,5,4,7,6] vmaxps %ymm5, %ymm1, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm5 # ymm5 = ymm1[1,0,3,2] vmaxps %ymm5, %ymm1, %ymm1 vextractf128 $0x1, %ymm1, %xmm5 vmaxps %xmm5, %xmm1, %xmm1 vunpcklps %xmm1, %xmm0, %xmm0 # xmm0 = xmm0[0],xmm1[0],xmm0[1],xmm1[1] vshufps $0xb1, %ymm2, %ymm2, %ymm1 # ymm1 = ymm2[1,0,3,2,5,4,7,6] vmaxps %ymm1, %ymm2, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vmaxps %ymm2, %ymm1, %ymm1 vextractf128 $0x1, %ymm1, %xmm2 vmaxps %xmm2, %xmm1, %xmm1 vinsertps $0x28, %xmm1, %xmm0, %xmm0 # xmm0 = xmm0[0,1],xmm1[0],zero vshufps $0xb1, %ymm8, %ymm8, %ymm1 # ymm1 = ymm8[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm8, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vextractf128 $0x1, %ymm1, %xmm2 vminss %xmm2, %xmm1, %xmm1 vshufps $0xb1, %ymm3, %ymm3, %ymm2 # ymm2 = ymm3[1,0,3,2,5,4,7,6] vmaxps %ymm2, %ymm3, %ymm2 vshufpd $0x5, %ymm2, %ymm2, %ymm3 # ymm3 = ymm2[1,0,3,2] vmaxps %ymm3, %ymm2, %ymm2 vextractf128 $0x1, %ymm2, %xmm3 vmaxss %xmm3, %xmm2, %xmm2 vbroadcastss 0x8064c(%rip), %xmm3 # 0x1f20ec4 vandps %xmm3, %xmm1, %xmm1 vandps %xmm3, %xmm2, %xmm2 vmaxss %xmm1, %xmm2, %xmm1 vbroadcastss %xmm1, %xmm1 vsubps %xmm1, %xmm4, %xmm2 vaddps %xmm1, %xmm0, %xmm0 vandps %xmm3, %xmm2, %xmm1 vandps %xmm3, %xmm0, %xmm3 vmaxps %xmm3, %xmm1, %xmm1 vmovshdup %xmm1, %xmm3 # xmm3 = xmm1[1,1,3,3] vmaxss %xmm1, %xmm3, %xmm3 vshufpd $0x1, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[1,0] vmaxss %xmm3, %xmm1, %xmm1 vmulss 0x5072e(%rip), %xmm1, %xmm1 # 0x1ef0fe4 vbroadcastss %xmm1, %xmm1 vsubps %xmm1, %xmm2, %xmm2 vaddps %xmm1, %xmm0, %xmm0 vmovaps %xmm2, (%rax) vmovaps %xmm0, 0x10(%rax) vzeroupper retq
/embree[P]embree/kernels/common/scene_curves.cpp
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)1, embree::avx512::CurveGeometryInterface, embree::CatmullRomCurveT>::vbounds(embree::LinearSpace3<embree::Vec3fa> const&, unsigned long) const
BBox3fa vbounds(const LinearSpace3fa& space, size_t i) const { return bounds(space,i); }
movq %rdi, %rax imulq 0x68(%rsi), %rcx movq 0x58(%rsi), %rdi movq 0x188(%rsi), %r8 movl (%rdi,%rcx), %r10d movq (%r8), %rcx movq 0x10(%r8), %r11 leal 0x1(%r10), %r9d leal 0x2(%r10), %r8d leal 0x3(%r10), %edi imulq %r11, %r10 imulq %r11, %r9 imulq %r11, %r8 imulq %r11, %rdi vmovaps (%rdx), %xmm0 vmovaps 0x10(%rdx), %xmm1 vmovaps 0x20(%rdx), %xmm2 vmulps 0x8(%rcx,%r10){1to4}, %xmm2, %xmm3 vfmadd231ps 0x4(%rcx,%r10){1to4}, %xmm1, %xmm3 # xmm3 = (xmm1 * mem) + xmm3 vfmadd231ps (%rcx,%r10){1to4}, %xmm0, %xmm3 # xmm3 = (xmm0 * mem) + xmm3 vmovss 0x24c(%rsi), %xmm4 vmulss 0xc(%rcx,%r10), %xmm4, %xmm8 vmulps 0x8(%rcx,%r9){1to4}, %xmm2, %xmm9 vfmadd231ps 0x4(%rcx,%r9){1to4}, %xmm1, %xmm9 # xmm9 = (xmm1 * mem) + xmm9 vfmadd231ps (%rcx,%r9){1to4}, %xmm0, %xmm9 # xmm9 = (xmm0 * mem) + xmm9 vmulss 0xc(%rcx,%r9), %xmm4, %xmm11 vmulps 0x8(%rcx,%r8){1to4}, %xmm2, %xmm12 vfmadd231ps 0x4(%rcx,%r8){1to4}, %xmm1, %xmm12 # xmm12 = (xmm1 * mem) + xmm12 vfmadd231ps (%rcx,%r8){1to4}, %xmm0, %xmm12 # xmm12 = (xmm0 * mem) + xmm12 vmulss 0xc(%rcx,%r8), %xmm4, %xmm13 vmulps 0x8(%rcx,%rdi){1to4}, %xmm2, %xmm2 vfmadd231ps 0x4(%rcx,%rdi){1to4}, %xmm1, %xmm2 # xmm2 = (xmm1 * mem) + xmm2 vfmadd231ps (%rcx,%rdi){1to4}, %xmm0, %xmm2 # xmm2 = (xmm0 * mem) + xmm2 vmulss 0xc(%rcx,%rdi), %xmm4, %xmm0 vbroadcastss %xmm3, %ymm5 vbroadcastss 0x71d5f(%rip), %ymm1 # 0x1f12704 vpermps %ymm3, %ymm1, %ymm6 vbroadcastss 0x80529(%rip), %ymm14 # 0x1f20edc vpermps %ymm3, %ymm14, %ymm7 vbroadcastss %xmm8, %ymm4 vbroadcastss %xmm9, %ymm15 vpermps %ymm9, %ymm1, %ymm10 vpermps %ymm9, %ymm14, %ymm9 vbroadcastss %xmm11, %ymm8 vbroadcastss %xmm12, %ymm11 vpermps %ymm12, %ymm1, %ymm16 vpermps %ymm12, %ymm14, %ymm12 vbroadcastss %xmm13, %ymm13 vbroadcastss %xmm2, %ymm17 vpermps %ymm2, %ymm1, %ymm18 vpermps %ymm2, %ymm14, %ymm14 leaq 0x28f96e(%rip), %rcx # 0x213036c vmovups 0x1dc(%rcx), %ymm19 vmovups 0x660(%rcx), %ymm20 vmovups 0xae4(%rcx), %ymm21 vmovups 0xf68(%rcx), %ymm3 vbroadcastss %xmm0, %ymm22 vmulps %ymm3, %ymm17, %ymm0 vmulps %ymm3, %ymm18, %ymm1 vmulps %ymm3, %ymm14, %ymm2 vmulps %ymm3, %ymm22, %ymm3 vfmadd231ps %ymm11, %ymm21, %ymm0 # ymm0 = (ymm21 * ymm11) + ymm0 vfmadd231ps %ymm16, %ymm21, %ymm1 # ymm1 = (ymm21 * ymm16) + ymm1 vfmadd231ps %ymm12, %ymm21, %ymm2 # ymm2 = (ymm21 * ymm12) + ymm2 vfmadd231ps %ymm21, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm21) + ymm3 vfmadd231ps %ymm15, %ymm20, %ymm0 # ymm0 = (ymm20 * ymm15) + ymm0 vfmadd231ps %ymm10, %ymm20, %ymm1 # ymm1 = (ymm20 * ymm10) + ymm1 vfmadd231ps %ymm9, %ymm20, %ymm2 # ymm2 = (ymm20 * ymm9) + ymm2 vfmadd231ps %ymm20, %ymm8, %ymm3 # ymm3 = (ymm8 * ymm20) + ymm3 vfmadd231ps %ymm5, %ymm19, %ymm0 # ymm0 = (ymm19 * ymm5) + ymm0 vfmadd231ps %ymm6, %ymm19, %ymm1 # ymm1 = (ymm19 * ymm6) + ymm1 vfmadd231ps %ymm7, %ymm19, %ymm2 # ymm2 = (ymm19 * ymm7) + ymm2 vmovups 0x13ec(%rcx), %ymm20 vmovups 0x1870(%rcx), %ymm21 vmovups 0x1cf4(%rcx), %ymm23 vmovups 0x2178(%rcx), %ymm24 vfmadd231ps %ymm19, %ymm4, %ymm3 # ymm3 = (ymm4 * ymm19) + ymm3 vmulps %ymm24, %ymm17, %ymm17 vmulps %ymm24, %ymm18, %ymm18 vmulps %ymm24, %ymm14, %ymm14 vmulps %ymm24, %ymm22, %ymm19 vfmadd231ps %ymm11, %ymm23, %ymm17 # ymm17 = (ymm23 * ymm11) + ymm17 vfmadd231ps %ymm16, %ymm23, %ymm18 # ymm18 = (ymm23 * ymm16) + ymm18 vfmadd231ps %ymm12, %ymm23, %ymm14 # ymm14 = (ymm23 * ymm12) + ymm14 vfmadd231ps %ymm13, %ymm23, %ymm19 # ymm19 = (ymm23 * ymm13) + ymm19 vfmadd231ps %ymm15, %ymm21, %ymm17 # ymm17 = (ymm21 * ymm15) + ymm17 vfmadd231ps %ymm10, %ymm21, %ymm18 # ymm18 = (ymm21 * ymm10) + ymm18 vfmadd231ps %ymm9, %ymm21, %ymm14 # ymm14 = (ymm21 * ymm9) + ymm14 vfmadd231ps %ymm8, %ymm21, %ymm19 # ymm19 = (ymm21 * ymm8) + ymm19 vfmadd231ps %ymm5, %ymm20, %ymm17 # ymm17 = (ymm20 * ymm5) + ymm17 vfmadd231ps %ymm6, %ymm20, %ymm18 # ymm18 = (ymm20 * ymm6) + ymm18 vfmadd231ps %ymm7, %ymm20, %ymm14 # ymm14 = (ymm20 * ymm7) + ymm14 vbroadcastss 0x809c0(%rip), %ymm5 # 0x1f214d0 vfmadd231ps %ymm4, %ymm20, %ymm19 # ymm19 = (ymm20 * ymm4) + ymm19 vmulps %ymm5, %ymm17, %ymm4 vmulps %ymm5, %ymm18, %ymm6 vmulps %ymm5, %ymm14, %ymm7 vmulps %ymm5, %ymm19, %ymm5 vxorps %xmm8, %xmm8, %xmm8 vblendps $0x1, %ymm8, %ymm4, %ymm9 # ymm9 = ymm8[0],ymm4[1,2,3,4,5,6,7] vblendps $0x1, %ymm8, %ymm6, %ymm10 # ymm10 = ymm8[0],ymm6[1,2,3,4,5,6,7] vblendps $0x1, %ymm8, %ymm7, %ymm11 # ymm11 = ymm8[0],ymm7[1,2,3,4,5,6,7] vblendps $0x1, %ymm8, %ymm5, %ymm12 # ymm12 = ymm8[0],ymm5[1,2,3,4,5,6,7] vsubps %ymm9, %ymm0, %ymm9 vsubps %ymm10, %ymm1, %ymm10 vsubps %ymm11, %ymm2, %ymm11 vsubps %ymm12, %ymm3, %ymm12 vblendps $0x80, %ymm8, %ymm4, %ymm4 # ymm4 = ymm4[0,1,2,3,4,5,6],ymm8[7] vblendps $0x80, %ymm8, %ymm6, %ymm6 # ymm6 = ymm6[0,1,2,3,4,5,6],ymm8[7] vblendps $0x80, %ymm8, %ymm7, %ymm7 # ymm7 = ymm7[0,1,2,3,4,5,6],ymm8[7] vblendps $0x80, %ymm8, %ymm5, %ymm5 # ymm5 = ymm5[0,1,2,3,4,5,6],ymm8[7] vaddps %ymm4, %ymm0, %ymm4 vaddps %ymm6, %ymm1, %ymm6 vaddps %ymm7, %ymm2, %ymm7 vaddps %ymm5, %ymm3, %ymm5 vbroadcastss 0x4ae92(%rip), %ymm8 # 0x1eeba20 vminps %ymm0, %ymm8, %ymm13 vminps %ymm1, %ymm8, %ymm14 vminps %ymm2, %ymm8, %ymm15 vminps %ymm3, %ymm8, %ymm8 vminps %ymm4, %ymm9, %ymm16 vminps %ymm16, %ymm13, %ymm13 vminps %ymm6, %ymm10, %ymm16 vminps %ymm16, %ymm14, %ymm14 vminps %ymm7, %ymm11, %ymm16 vminps %ymm16, %ymm15, %ymm15 vminps %ymm5, %ymm12, %ymm16 vminps %ymm16, %ymm8, %ymm8 vbroadcastss 0x4bfac(%rip), %ymm16 # 0x1eecb84 vmaxps %ymm0, %ymm16, %ymm0 vmaxps %ymm1, %ymm16, %ymm1 vmaxps %ymm2, %ymm16, %ymm2 vmaxps %ymm3, %ymm16, %ymm3 vmaxps %ymm4, %ymm9, %ymm4 vmaxps %ymm4, %ymm0, %ymm0 vmaxps %ymm6, %ymm10, %ymm4 vmaxps %ymm4, %ymm1, %ymm1 vmaxps %ymm7, %ymm11, %ymm4 vmaxps %ymm4, %ymm2, %ymm2 vmaxps %ymm5, %ymm12, %ymm4 vmaxps %ymm4, %ymm3, %ymm3 vshufps $0xb1, %ymm13, %ymm13, %ymm4 # ymm4 = ymm13[1,0,3,2,5,4,7,6] vminps %ymm4, %ymm13, %ymm4 vshufpd $0x5, %ymm4, %ymm4, %ymm5 # ymm5 = ymm4[1,0,3,2] vminps %ymm5, %ymm4, %ymm4 vextractf128 $0x1, %ymm4, %xmm5 vminps %xmm5, %xmm4, %xmm4 vshufps $0xb1, %ymm14, %ymm14, %ymm5 # ymm5 = ymm14[1,0,3,2,5,4,7,6] vminps %ymm5, %ymm14, %ymm5 vshufpd $0x5, %ymm5, %ymm5, %ymm6 # ymm6 = ymm5[1,0,3,2] vminps %ymm6, %ymm5, %ymm5 vextractf128 $0x1, %ymm5, %xmm6 vminps %xmm6, %xmm5, %xmm5 vunpcklps %xmm5, %xmm4, %xmm4 # xmm4 = xmm4[0],xmm5[0],xmm4[1],xmm5[1] vshufps $0xb1, %ymm15, %ymm15, %ymm5 # ymm5 = ymm15[1,0,3,2,5,4,7,6] vminps %ymm5, %ymm15, %ymm5 vshufpd $0x5, %ymm5, %ymm5, %ymm6 # ymm6 = ymm5[1,0,3,2] vminps %ymm6, %ymm5, %ymm5 vextractf128 $0x1, %ymm5, %xmm6 vminps %xmm6, %xmm5, %xmm5 vinsertps $0x28, %xmm5, %xmm4, %xmm4 # xmm4 = xmm4[0,1],xmm5[0],zero vshufps $0xb1, %ymm0, %ymm0, %ymm5 # ymm5 = ymm0[1,0,3,2,5,4,7,6] vmaxps %ymm5, %ymm0, %ymm0 vshufpd $0x5, %ymm0, %ymm0, %ymm5 # ymm5 = ymm0[1,0,3,2] vmaxps %ymm5, %ymm0, %ymm0 vextractf128 $0x1, %ymm0, %xmm5 vmaxps %xmm5, %xmm0, %xmm0 vshufps $0xb1, %ymm1, %ymm1, %ymm5 # ymm5 = ymm1[1,0,3,2,5,4,7,6] vmaxps %ymm5, %ymm1, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm5 # ymm5 = ymm1[1,0,3,2] vmaxps %ymm5, %ymm1, %ymm1 vextractf128 $0x1, %ymm1, %xmm5 vmaxps %xmm5, %xmm1, %xmm1 vunpcklps %xmm1, %xmm0, %xmm0 # xmm0 = xmm0[0],xmm1[0],xmm0[1],xmm1[1] vshufps $0xb1, %ymm2, %ymm2, %ymm1 # ymm1 = ymm2[1,0,3,2,5,4,7,6] vmaxps %ymm1, %ymm2, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vmaxps %ymm2, %ymm1, %ymm1 vextractf128 $0x1, %ymm1, %xmm2 vmaxps %xmm2, %xmm1, %xmm1 vinsertps $0x28, %xmm1, %xmm0, %xmm0 # xmm0 = xmm0[0,1],xmm1[0],zero vshufps $0xb1, %ymm8, %ymm8, %ymm1 # ymm1 = ymm8[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm8, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vextractf128 $0x1, %ymm1, %xmm2 vminss %xmm2, %xmm1, %xmm1 vshufps $0xb1, %ymm3, %ymm3, %ymm2 # ymm2 = ymm3[1,0,3,2,5,4,7,6] vmaxps %ymm2, %ymm3, %ymm2 vshufpd $0x5, %ymm2, %ymm2, %ymm3 # ymm3 = ymm2[1,0,3,2] vmaxps %ymm3, %ymm2, %ymm2 vextractf128 $0x1, %ymm2, %xmm3 vmaxss %xmm3, %xmm2, %xmm2 vbroadcastss 0x801b3(%rip), %xmm3 # 0x1f20ec4 vandps %xmm3, %xmm1, %xmm1 vandps %xmm3, %xmm2, %xmm2 vmaxss %xmm1, %xmm2, %xmm1 vbroadcastss %xmm1, %xmm1 vsubps %xmm1, %xmm4, %xmm2 vaddps %xmm1, %xmm0, %xmm0 vandps %xmm3, %xmm2, %xmm1 vandps %xmm3, %xmm0, %xmm3 vmaxps %xmm3, %xmm1, %xmm1 vmovshdup %xmm1, %xmm3 # xmm3 = xmm1[1,1,3,3] vmaxss %xmm1, %xmm3, %xmm3 vshufpd $0x1, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[1,0] vmaxss %xmm3, %xmm1, %xmm1 vmulss 0x50295(%rip), %xmm1, %xmm1 # 0x1ef0fe4 vbroadcastss %xmm1, %xmm1 vsubps %xmm1, %xmm2, %xmm2 vaddps %xmm1, %xmm0, %xmm0 vmovaps %xmm2, (%rax) vmovaps %xmm0, 0x10(%rax) vzeroupper retq nop
/embree[P]embree/kernels/common/scene_curves.cpp
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)1, embree::avx512::CurveGeometryInterface, embree::CatmullRomCurveT>::vlinearBounds(embree::LinearSpace3<embree::Vec3fa> const&, unsigned long, embree::BBox<float> const&) const
LBBox3fa vlinearBounds(const LinearSpace3fa& space, size_t primID, const BBox1f& time_range) const { return linearBounds(space,primID,time_range); }
pushq %rbp pushq %r15 pushq %r14 pushq %r13 pushq %r12 pushq %rbx subq $0x138, %rsp # imm = 0x138 leaq 0xc8(%rsp), %rax movq %rcx, (%rax) leaq 0xb0(%rsp), %r14 movq %rdx, (%r14) movq %rax, 0x8(%r14) movq %rsi, 0x10(%r14) vmovss 0x28(%rsi), %xmm4 vmovss 0x2c(%rsi), %xmm0 vmovss (%r8), %xmm1 vmovss 0x4(%r8), %xmm2 vsubss %xmm0, %xmm1, %xmm1 vmovss 0x30(%rsi), %xmm3 vsubss %xmm0, %xmm3, %xmm3 vdivss %xmm3, %xmm1, %xmm1 vsubss %xmm0, %xmm2, %xmm0 vdivss %xmm3, %xmm0, %xmm2 vmovss %xmm1, 0x4(%rsp) vmulss %xmm1, %xmm4, %xmm0 vmovss %xmm0, 0x20(%rsp) vroundss $0x9, %xmm0, %xmm0, %xmm0 vmovss %xmm2, 0x50(%rsp) vmulss %xmm2, %xmm4, %xmm1 vmovss %xmm1, 0x40(%rsp) vroundss $0xa, %xmm1, %xmm1, %xmm1 vxorps %xmm2, %xmm2, %xmm2 vmaxss %xmm2, %xmm0, %xmm3 vminss %xmm4, %xmm1, %xmm2 vmovss %xmm3, 0x10(%rsp) vcvttss2si %xmm3, %r15d vmovss %xmm2, 0x30(%rsp) vcvttss2si %xmm2, %r12d vcvttss2si %xmm0, %eax movq %rdi, %rbx testl %eax, %eax movl $0xffffffff, %r13d # imm = 0xFFFFFFFF cmovnsl %eax, %r13d vcvttss2si %xmm1, %eax vmovss %xmm4, 0xc(%rsp) vcvttss2si %xmm4, %ebp incl %ebp cmpl %ebp, %eax cmovll %eax, %ebp movslq %r15d, %rdx leaq 0x80(%rsp), %rdi movq %r14, %rsi callq 0x1ea2458 movslq %r12d, %rdx leaq 0x60(%rsp), %rdi movq %r14, %rsi callq 0x1ea2458 movl %ebp, %eax subl %r13d, %eax cmpl $0x1, %eax jne 0x1ea17b3 vmovss 0x20(%rsp), %xmm0 vsubss 0x10(%rsp), %xmm0, %xmm0 vxorps %xmm8, %xmm8, %xmm8 vmaxss %xmm8, %xmm0, %xmm0 vmovss 0x4afe8(%rip), %xmm1 # 0x1eec714 vsubss %xmm0, %xmm1, %xmm2 vbroadcastss %xmm0, %xmm0 vmovaps 0x60(%rsp), %xmm3 vmovaps 0x70(%rsp), %xmm4 vmulps %xmm3, %xmm0, %xmm5 vbroadcastss %xmm2, %xmm2 vmovaps 0x80(%rsp), %xmm6 vmovaps 0x90(%rsp), %xmm7 vfmadd231ps %xmm6, %xmm2, %xmm5 # xmm5 = (xmm2 * xmm6) + xmm5 vmulps %xmm4, %xmm0, %xmm0 vfmadd231ps %xmm2, %xmm7, %xmm0 # xmm0 = (xmm7 * xmm2) + xmm0 vmovaps %xmm5, (%rbx) vmovaps %xmm0, 0x10(%rbx) vmovss 0x30(%rsp), %xmm0 vsubss 0x40(%rsp), %xmm0, %xmm0 vmaxss %xmm8, %xmm0, %xmm0 vsubss %xmm0, %xmm1, %xmm1 vbroadcastss %xmm0, %xmm0 vmulps %xmm6, %xmm0, %xmm2 vbroadcastss %xmm1, %xmm1 vfmadd231ps %xmm3, %xmm1, %xmm2 # xmm2 = (xmm1 * xmm3) + xmm2 vmulps %xmm7, %xmm0, %xmm0 vfmadd231ps %xmm4, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm4) + xmm0 vmovaps %xmm2, 0x20(%rbx) vmovaps %xmm0, 0x30(%rbx) jmp 0x1ea1996 incl %r15d movslq %r15d, %rdx leaq 0x110(%rsp), %r14 leaq 0xb0(%rsp), %r15 movq %r14, %rdi movq %r15, %rsi callq 0x1ea2458 decl %r12d movslq %r12d, %rdx leaq 0xf0(%rsp), %r12 movq %r12, %rdi movq %r15, %rsi callq 0x1ea2458 vmovss 0x20(%rsp), %xmm0 vsubss 0x10(%rsp), %xmm0, %xmm0 vxorps %xmm5, %xmm5, %xmm5 vmaxss %xmm5, %xmm0, %xmm0 vmovss 0x4af0b(%rip), %xmm4 # 0x1eec714 vbroadcastss %xmm0, %xmm1 vmulps (%r14), %xmm1, %xmm2 vsubss %xmm0, %xmm4, %xmm0 vbroadcastss %xmm0, %xmm0 vfmadd231ps 0x80(%rsp), %xmm0, %xmm2 # xmm2 = (xmm0 * mem) + xmm2 vmulps 0x10(%r14), %xmm1, %xmm3 vfmadd231ps 0x90(%rsp), %xmm0, %xmm3 # xmm3 = (xmm0 * mem) + xmm3 vmovss 0x30(%rsp), %xmm0 vsubss 0x40(%rsp), %xmm0, %xmm0 vmaxss %xmm5, %xmm0, %xmm0 vsubss %xmm0, %xmm4, %xmm1 vbroadcastss %xmm0, %xmm0 vmulps (%r12), %xmm0, %xmm5 vbroadcastss %xmm1, %xmm1 vfmadd231ps 0x60(%rsp), %xmm1, %xmm5 # xmm5 = (xmm1 * mem) + xmm5 vmulps 0x10(%r12), %xmm0, %xmm6 vfmadd231ps 0x70(%rsp), %xmm1, %xmm6 # xmm6 = (xmm1 * mem) + xmm6 leal 0x1(%r13), %eax cmpl %ebp, %eax jge 0x1ea1983 vmovss 0x4(%rsp), %xmm1 vmovss 0x50(%rsp), %xmm0 vsubss %xmm1, %xmm0, %xmm0 vmovss %xmm0, 0x8(%rsp) movl %eax, %r14d notl %r13d addl %ebp, %r13d leaq 0xd0(%rsp), %r15 leaq 0xb0(%rsp), %r12 vmovaps %xmm6, 0x10(%rsp) vmovaps %xmm5, 0x20(%rsp) vmovaps %xmm3, 0x30(%rsp) vmovaps %xmm2, 0x40(%rsp) vcvtsi2ss %r14d, %xmm8, %xmm0 vdivss 0xc(%rsp), %xmm0, %xmm0 vsubss %xmm1, %xmm0, %xmm0 vdivss 0x8(%rsp), %xmm0, %xmm0 vsubss %xmm0, %xmm4, %xmm1 vbroadcastss %xmm0, %xmm0 vmulps %xmm0, %xmm5, %xmm4 vbroadcastss %xmm1, %xmm1 vfmadd231ps %xmm2, %xmm1, %xmm4 # xmm4 = (xmm1 * xmm2) + xmm4 vmovaps %xmm4, 0x50(%rsp) vmulps %xmm0, %xmm6, %xmm0 vfmadd231ps %xmm1, %xmm3, %xmm0 # xmm0 = (xmm3 * xmm1) + xmm0 vmovaps %xmm0, 0xa0(%rsp) movq %r15, %rdi movq %r12, %rsi movq %r14, %rdx callq 0x1ea2458 vmovaps 0x10(%rsp), %xmm6 vmovaps 0x20(%rsp), %xmm5 vmovss 0x4adec(%rip), %xmm4 # 0x1eec714 vmovaps 0x30(%rsp), %xmm3 vmovaps 0x40(%rsp), %xmm2 vmovaps 0xd0(%rsp), %xmm0 vsubps 0x50(%rsp), %xmm0, %xmm0 vmovaps 0xe0(%rsp), %xmm1 vsubps 0xa0(%rsp), %xmm1, %xmm1 vxorps %xmm7, %xmm7, %xmm7 vminps %xmm7, %xmm0, %xmm0 vmaxps %xmm7, %xmm1, %xmm1 vaddps %xmm0, %xmm2, %xmm2 vaddps %xmm0, %xmm5, %xmm5 vaddps %xmm1, %xmm3, %xmm3 vaddps %xmm1, %xmm6, %xmm6 vmovss 0x4(%rsp), %xmm1 incq %r14 decl %r13d jne 0x1ea18aa vmovaps %xmm2, (%rbx) vmovaps %xmm3, 0x10(%rbx) vmovaps %xmm5, 0x20(%rbx) vmovaps %xmm6, 0x30(%rbx) movq %rbx, %rax addq $0x138, %rsp # imm = 0x138 popq %rbx popq %r12 popq %r13 popq %r14 popq %r15 popq %rbp retq nop
/embree[P]embree/kernels/common/scene_curves.cpp
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)1, embree::avx512::CurveGeometryInterface, embree::CatmullRomCurveT>::vlinearBounds(embree::Vec3fa const&, float, float, embree::LinearSpace3<embree::Vec3fa> const&, unsigned long, embree::BBox<float> const&) const
LBBox3fa vlinearBounds(const Vec3fa& ofs, const float scale, const float r_scale0, const LinearSpace3fa& space, size_t primID, const BBox1f& time_range) const { return linearBounds(ofs,scale,r_scale0,space,primID,time_range); }
pushq %rbp pushq %r15 pushq %r14 pushq %r13 pushq %r12 pushq %rbx subq $0x168, %rsp # imm = 0x168 leaq 0x6c(%rsp), %rax vmovss %xmm0, (%rax) leaq 0x68(%rsp), %r10 vmovss %xmm1, (%r10) leaq 0xc8(%rsp), %r11 movq %r8, (%r11) leaq 0xf0(%rsp), %r14 movq %rdx, (%r14) movq %rax, 0x8(%r14) movq %r10, 0x10(%r14) movq %rcx, 0x18(%r14) movq %r11, 0x20(%r14) movq %rsi, 0x28(%r14) vmovss 0x28(%rsi), %xmm4 vmovss 0x2c(%rsi), %xmm0 vmovss (%r9), %xmm1 vmovss 0x4(%r9), %xmm2 vsubss %xmm0, %xmm1, %xmm1 vmovss 0x30(%rsi), %xmm3 vsubss %xmm0, %xmm3, %xmm3 vdivss %xmm3, %xmm1, %xmm1 vsubss %xmm0, %xmm2, %xmm0 vdivss %xmm3, %xmm0, %xmm2 vmovss %xmm1, 0x4(%rsp) vmulss %xmm1, %xmm4, %xmm0 vmovss %xmm0, 0x20(%rsp) vroundss $0x9, %xmm0, %xmm0, %xmm0 vmovss %xmm2, 0x50(%rsp) vmulss %xmm2, %xmm4, %xmm1 vmovss %xmm1, 0x40(%rsp) vroundss $0xa, %xmm1, %xmm1, %xmm1 vxorps %xmm2, %xmm2, %xmm2 vmaxss %xmm2, %xmm0, %xmm3 vminss %xmm4, %xmm1, %xmm2 vmovss %xmm3, 0x10(%rsp) vcvttss2si %xmm3, %r15d vmovss %xmm2, 0x30(%rsp) vcvttss2si %xmm2, %r12d vcvttss2si %xmm0, %eax movq %rdi, %rbx testl %eax, %eax movl $0xffffffff, %r13d # imm = 0xFFFFFFFF cmovnsl %eax, %r13d vcvttss2si %xmm1, %eax vmovss %xmm4, 0xc(%rsp) vcvttss2si %xmm4, %ebp incl %ebp cmpl %ebp, %eax cmovll %eax, %ebp movslq %r15d, %rdx leaq 0x90(%rsp), %rdi movq %r14, %rsi callq 0x1ea2908 movslq %r12d, %rdx leaq 0x70(%rsp), %rdi movq %r14, %rsi callq 0x1ea2908 movl %ebp, %eax subl %r13d, %eax cmpl $0x1, %eax jne 0x1ea1b75 vmovss 0x20(%rsp), %xmm0 vsubss 0x10(%rsp), %xmm0, %xmm0 vxorps %xmm8, %xmm8, %xmm8 vmaxss %xmm8, %xmm0, %xmm0 vmovss 0x4ac29(%rip), %xmm1 # 0x1eec714 vsubss %xmm0, %xmm1, %xmm2 vbroadcastss %xmm0, %xmm0 vmovaps 0x70(%rsp), %xmm3 vmovaps 0x80(%rsp), %xmm4 vmulps %xmm3, %xmm0, %xmm5 vbroadcastss %xmm2, %xmm2 vmovaps 0x90(%rsp), %xmm6 vmovaps 0xa0(%rsp), %xmm7 vfmadd231ps %xmm6, %xmm2, %xmm5 # xmm5 = (xmm2 * xmm6) + xmm5 vmulps %xmm4, %xmm0, %xmm0 vfmadd231ps %xmm2, %xmm7, %xmm0 # xmm0 = (xmm7 * xmm2) + xmm0 vmovaps %xmm5, (%rbx) vmovaps %xmm0, 0x10(%rbx) vmovss 0x30(%rsp), %xmm0 vsubss 0x40(%rsp), %xmm0, %xmm0 vmaxss %xmm8, %xmm0, %xmm0 vsubss %xmm0, %xmm1, %xmm1 vbroadcastss %xmm0, %xmm0 vmulps %xmm6, %xmm0, %xmm2 vbroadcastss %xmm1, %xmm1 vfmadd231ps %xmm3, %xmm1, %xmm2 # xmm2 = (xmm1 * xmm3) + xmm2 vmulps %xmm7, %xmm0, %xmm0 vfmadd231ps %xmm4, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm4) + xmm0 vmovaps %xmm2, 0x20(%rbx) vmovaps %xmm0, 0x30(%rbx) jmp 0x1ea1d5b incl %r15d movslq %r15d, %rdx leaq 0x140(%rsp), %r14 leaq 0xf0(%rsp), %r15 movq %r14, %rdi movq %r15, %rsi callq 0x1ea2908 decl %r12d movslq %r12d, %rdx leaq 0x120(%rsp), %r12 movq %r12, %rdi movq %r15, %rsi callq 0x1ea2908 vmovss 0x20(%rsp), %xmm0 vsubss 0x10(%rsp), %xmm0, %xmm0 vxorps %xmm5, %xmm5, %xmm5 vmaxss %xmm5, %xmm0, %xmm0 vmovss 0x4ab49(%rip), %xmm4 # 0x1eec714 vbroadcastss %xmm0, %xmm1 vmulps (%r14), %xmm1, %xmm2 vsubss %xmm0, %xmm4, %xmm0 vbroadcastss %xmm0, %xmm0 vfmadd231ps 0x90(%rsp), %xmm0, %xmm2 # xmm2 = (xmm0 * mem) + xmm2 vmulps 0x10(%r14), %xmm1, %xmm3 vfmadd231ps 0xa0(%rsp), %xmm0, %xmm3 # xmm3 = (xmm0 * mem) + xmm3 vmovss 0x30(%rsp), %xmm0 vsubss 0x40(%rsp), %xmm0, %xmm0 vmaxss %xmm5, %xmm0, %xmm0 vsubss %xmm0, %xmm4, %xmm1 vbroadcastss %xmm0, %xmm0 vmulps (%r12), %xmm0, %xmm5 vbroadcastss %xmm1, %xmm1 vfmadd231ps 0x70(%rsp), %xmm1, %xmm5 # xmm5 = (xmm1 * mem) + xmm5 vmulps 0x10(%r12), %xmm0, %xmm6 vfmadd231ps 0x80(%rsp), %xmm1, %xmm6 # xmm6 = (xmm1 * mem) + xmm6 leal 0x1(%r13), %eax cmpl %ebp, %eax jge 0x1ea1d48 vmovss 0x4(%rsp), %xmm1 vmovss 0x50(%rsp), %xmm0 vsubss %xmm1, %xmm0, %xmm0 vmovss %xmm0, 0x8(%rsp) movl %eax, %r14d notl %r13d addl %ebp, %r13d leaq 0xd0(%rsp), %r15 leaq 0xf0(%rsp), %r12 vmovaps %xmm6, 0x10(%rsp) vmovaps %xmm5, 0x20(%rsp) vmovaps %xmm3, 0x30(%rsp) vmovaps %xmm2, 0x40(%rsp) vcvtsi2ss %r14d, %xmm8, %xmm0 vdivss 0xc(%rsp), %xmm0, %xmm0 vsubss %xmm1, %xmm0, %xmm0 vdivss 0x8(%rsp), %xmm0, %xmm0 vsubss %xmm0, %xmm4, %xmm1 vbroadcastss %xmm0, %xmm0 vmulps %xmm0, %xmm5, %xmm4 vbroadcastss %xmm1, %xmm1 vfmadd231ps %xmm2, %xmm1, %xmm4 # xmm4 = (xmm1 * xmm2) + xmm4 vmovaps %xmm4, 0x50(%rsp) vmulps %xmm0, %xmm6, %xmm0 vfmadd231ps %xmm1, %xmm3, %xmm0 # xmm0 = (xmm3 * xmm1) + xmm0 vmovaps %xmm0, 0xb0(%rsp) movq %r15, %rdi movq %r12, %rsi movq %r14, %rdx callq 0x1ea2908 vmovaps 0x10(%rsp), %xmm6 vmovaps 0x20(%rsp), %xmm5 vmovss 0x4aa27(%rip), %xmm4 # 0x1eec714 vmovaps 0x30(%rsp), %xmm3 vmovaps 0x40(%rsp), %xmm2 vmovaps 0xd0(%rsp), %xmm0 vsubps 0x50(%rsp), %xmm0, %xmm0 vmovaps 0xe0(%rsp), %xmm1 vsubps 0xb0(%rsp), %xmm1, %xmm1 vxorps %xmm7, %xmm7, %xmm7 vminps %xmm7, %xmm0, %xmm0 vmaxps %xmm7, %xmm1, %xmm1 vaddps %xmm0, %xmm2, %xmm2 vaddps %xmm0, %xmm5, %xmm5 vaddps %xmm1, %xmm3, %xmm3 vaddps %xmm1, %xmm6, %xmm6 vmovss 0x4(%rsp), %xmm1 incq %r14 decl %r13d jne 0x1ea1c6f vmovaps %xmm2, (%rbx) vmovaps %xmm3, 0x10(%rbx) vmovaps %xmm5, 0x20(%rbx) vmovaps %xmm6, 0x30(%rbx) movq %rbx, %rax addq $0x168, %rsp # imm = 0x168 popq %rbx popq %r12 popq %r13 popq %r14 popq %r15 popq %rbp retq
/embree[P]embree/kernels/common/scene_curves.cpp
void embree::avx512::CurveGeometryInterface<embree::CatmullRomCurveT>::interpolate_impl<4>(RTCInterpolateArguments const*)
void interpolate_impl(const RTCInterpolateArguments* const args) { unsigned int primID = args->primID; float u = args->u; RTCBufferType bufferType = args->bufferType; unsigned int bufferSlot = args->bufferSlot; float* P = args->P; float* dPdu = args->dPdu; float* ddPdudu = args->ddPdudu; unsigned int valueCount = args->valueCount; /* calculate base pointer and stride */ assert((bufferType == RTC_BUFFER_TYPE_VERTEX && bufferSlot < numTimeSteps) || (bufferType == RTC_BUFFER_TYPE_VERTEX_ATTRIBUTE && bufferSlot <= vertexAttribs.size())); const char* src = nullptr; size_t stride = 0; if (bufferType == RTC_BUFFER_TYPE_VERTEX_ATTRIBUTE) { src = vertexAttribs[bufferSlot].getPtr(); stride = vertexAttribs[bufferSlot].getStride(); } else { src = vertices[bufferSlot].getPtr(); stride = vertices[bufferSlot].getStride(); } for (unsigned int i=0; i<valueCount; i+=N) { size_t ofs = i*sizeof(float); const size_t index = curves[primID]; const vbool<N> valid = vint<N>((int)i)+vint<N>(step) < vint<N>((int)valueCount); const vfloat<N> p0 = mem<vfloat<N>>::loadu(valid,(float*)&src[(index+0)*stride+ofs]); const vfloat<N> p1 = mem<vfloat<N>>::loadu(valid,(float*)&src[(index+1)*stride+ofs]); const vfloat<N> p2 = mem<vfloat<N>>::loadu(valid,(float*)&src[(index+2)*stride+ofs]); const vfloat<N> p3 = mem<vfloat<N>>::loadu(valid,(float*)&src[(index+3)*stride+ofs]); const Curve<vfloat<N>> curve(p0,p1,p2,p3); if (P ) mem<vfloat<N>>::storeu(valid,P+i, curve.eval(u)); if (dPdu ) mem<vfloat<N>>::storeu(valid,dPdu+i, curve.eval_du(u)); if (ddPdudu) mem<vfloat<N>>::storeu(valid,ddPdudu+i,curve.eval_dudu(u)); } }
movl 0x50(%rsi), %eax leaq 0x188(%rdi), %r9 leaq 0x240(%rdi), %rcx cmpl $0x2, 0x14(%rsi) cmoveq %rcx, %r9 testl %eax, %eax je 0x1ea2015 pushq %r15 pushq %r14 pushq %r13 pushq %r12 pushq %rbx movl 0x18(%rsi), %r10d movq 0x20(%rsi), %rcx movq 0x28(%rsi), %rdx movq 0x38(%rsi), %r8 imulq $0x38, %r10, %r10 movq (%r9), %r11 movq (%r11,%r10), %r9 movl 0x10(%r11,%r10), %r10d vmovss 0xc(%rsi), %xmm9 movl 0x8(%rsi), %esi vmovss 0x4a94a(%rip), %xmm1 # 0x1eec714 vpbroadcastd %eax, %xmm0 vsubss %xmm9, %xmm1, %xmm5 vbroadcastss 0x7f0e2(%rip), %xmm1 # 0x1f20ec0 vxorps %xmm1, %xmm9, %xmm2 vmulss %xmm2, %xmm5, %xmm2 vmulss %xmm2, %xmm5, %xmm2 vmulss %xmm9, %xmm9, %xmm6 vmovss 0x4f20d(%rip), %xmm10 # 0x1ef1004 vmovss 0x4f1ed(%rip), %xmm12 # 0x1ef0fec vmovaps %xmm12, %xmm3 vfmadd213ss %xmm10, %xmm9, %xmm3 # xmm3 = (xmm9 * xmm3) + xmm10 vmovss 0x4f1e8(%rip), %xmm11 # 0x1ef0ff8 vaddss %xmm9, %xmm9, %xmm4 vmulss %xmm12, %xmm9, %xmm7 vmulss %xmm7, %xmm9, %xmm7 vfmadd231ss %xmm4, %xmm3, %xmm7 # xmm7 = (xmm3 * xmm4) + xmm7 vfmadd213ss %xmm11, %xmm6, %xmm3 # xmm3 = (xmm6 * xmm3) + xmm11 vmulss %xmm5, %xmm5, %xmm4 vmovaps %xmm12, %xmm8 vfmadd213ss %xmm10, %xmm5, %xmm8 # xmm8 = (xmm5 * xmm8) + xmm10 vfmadd213ss %xmm11, %xmm4, %xmm8 # xmm8 = (xmm4 * xmm8) + xmm11 vxorps %xmm1, %xmm5, %xmm1 vmulss %xmm1, %xmm9, %xmm1 vmulss %xmm1, %xmm9, %xmm1 vmovss 0x4ad31(%rip), %xmm13 # 0x1eecb80 vmulss %xmm2, %xmm13, %xmm2 vmulss %xmm3, %xmm13, %xmm3 vmulss %xmm13, %xmm8, %xmm4 vmulss %xmm1, %xmm13, %xmm8 vbroadcastss %xmm2, %xmm1 vbroadcastss %xmm3, %xmm2 vbroadcastss %xmm4, %xmm3 vbroadcastss %xmm8, %xmm4 vaddss %xmm5, %xmm5, %xmm8 vmulss %xmm8, %xmm9, %xmm14 vfnmadd231ss %xmm5, %xmm5, %xmm14 # xmm14 = -(xmm5 * xmm5) + xmm14 vmovaps %xmm12, %xmm15 vfmadd213ss %xmm11, %xmm9, %xmm15 # xmm15 = (xmm9 * xmm15) + xmm11 vmovss 0x4f15a(%rip), %xmm16 # 0x1ef0ff0 vmulss %xmm16, %xmm5, %xmm17 vmulss %xmm17, %xmm5, %xmm17 vfmadd231ss %xmm15, %xmm8, %xmm17 # xmm17 = (xmm8 * xmm15) + xmm17 vmulss 0x4eb2c(%rip), %xmm5, %xmm5 # 0x1ef09dc vfmadd213ss %xmm6, %xmm9, %xmm5 # xmm5 = (xmm9 * xmm5) + xmm6 vmulss %xmm13, %xmm14, %xmm6 vmulss %xmm7, %xmm13, %xmm7 vmulss %xmm13, %xmm17, %xmm8 vmulss %xmm5, %xmm13, %xmm13 vbroadcastss %xmm6, %xmm5 vbroadcastss %xmm7, %xmm6 vbroadcastss %xmm8, %xmm7 vbroadcastss %xmm13, %xmm8 vfmadd231ss 0x4f123(%rip), %xmm9, %xmm10 # xmm10 = (xmm9 * mem) + xmm10 vmovss 0x4f11f(%rip), %xmm13 # 0x1ef100c vfmadd213ss %xmm11, %xmm9, %xmm16 # xmm16 = (xmm9 * xmm16) + xmm11 vfmadd213ss 0x4ac90(%rip), %xmm9, %xmm13 # xmm13 = (xmm9 * xmm13) + mem vfmadd213ss 0x4eac7(%rip), %xmm9, %xmm12 # xmm12 = (xmm9 * xmm12) + mem vbroadcastss %xmm16, %xmm9 vbroadcastss %xmm10, %xmm10 vbroadcastss %xmm13, %xmm11 vbroadcastss %xmm12, %xmm12 xorl %ebx, %ebx vpmovsxbd 0x7f5af(%rip), %xmm13 # 0x1f214d4 movq 0x58(%rdi), %r11 movq 0x68(%rdi), %r14 imulq %rsi, %r14 movl (%r11,%r14), %r14d movq %r10, %r15 imulq %r14, %r15 addq %r9, %r15 leaq 0x1(%r14), %r12 imulq %r10, %r12 addq %r9, %r12 leaq 0x2(%r14), %r13 imulq %r10, %r13 addq %r9, %r13 addq $0x3, %r14 imulq %r10, %r14 movl %ebx, %r11d vpbroadcastd %ebx, %xmm14 vpor %xmm13, %xmm14, %xmm14 vpcmpgtd %xmm14, %xmm0, %k1 vmovups (%r15,%r11,4), %xmm14 {%k1} {z} vmovups (%r12,%r11,4), %xmm15 {%k1} {z} addq %r9, %r14 vmovups (%r13,%r11,4), %xmm16 {%k1} {z} vmovups (%r14,%r11,4), %xmm17 {%k1} {z} testq %rcx, %rcx je 0x1ea1fb5 vmulps %xmm17, %xmm4, %xmm18 vfmadd231ps %xmm16, %xmm3, %xmm18 # xmm18 = (xmm3 * xmm16) + xmm18 vfmadd231ps %xmm15, %xmm2, %xmm18 # xmm18 = (xmm2 * xmm15) + xmm18 vfmadd231ps %xmm14, %xmm1, %xmm18 # xmm18 = (xmm1 * xmm14) + xmm18 vmovups %xmm18, (%rcx,%r11,4) {%k1} testq %rdx, %rdx je 0x1ea1fd9 vmulps %xmm17, %xmm8, %xmm18 vfmadd231ps %xmm16, %xmm7, %xmm18 # xmm18 = (xmm7 * xmm16) + xmm18 vfmadd231ps %xmm15, %xmm6, %xmm18 # xmm18 = (xmm6 * xmm15) + xmm18 vfmadd231ps %xmm14, %xmm5, %xmm18 # xmm18 = (xmm5 * xmm14) + xmm18 vmovups %xmm18, (%rdx,%r11,4) {%k1} testq %r8, %r8 je 0x1ea1ffc vmulps %xmm17, %xmm12, %xmm17 vfmadd213ps %xmm17, %xmm11, %xmm16 # xmm16 = (xmm11 * xmm16) + xmm17 vfmadd213ps %xmm16, %xmm10, %xmm15 # xmm15 = (xmm10 * xmm15) + xmm16 vfmadd213ps %xmm15, %xmm9, %xmm14 # xmm14 = (xmm9 * xmm14) + xmm15 vmovups %xmm14, (%r8,%r11,4) {%k1} addl $0x4, %r11d movl %r11d, %ebx cmpl %eax, %r11d jb 0x1ea1f25 popq %rbx popq %r12 popq %r13 popq %r14 popq %r15 retq
/embree[P]embree/kernels/common/scene_curves.h
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)1, embree::avx512::CurveGeometryInterface, embree::CatmullRomCurveT>::linearBounds(unsigned long, embree::BBox<float> const&) const::'lambda'(unsigned long)::operator()(unsigned long) const
__forceinline LBBox3fa linearBounds(size_t primID, const BBox1f& dt) const { return LBBox3fa([&] (size_t itime) { return bounds(primID, itime); }, dt, this->time_range, fnumTimeSegments); }
movq %rdi, %rax movq (%rsi), %rcx movq 0x8(%rsi), %rsi movq 0x58(%rsi), %rdi movq 0x68(%rsi), %r8 imulq (%rcx), %r8 movl (%rdi,%r8), %edi movq 0x188(%rsi), %r8 imulq $0x38, %rdx, %rdx movq (%r8,%rdx), %rcx movq 0x10(%r8,%rdx), %rdx leal 0x1(%rdi), %r8d leal 0x2(%rdi), %r9d leal 0x3(%rdi), %r10d imulq %rdx, %rdi imulq %rdx, %r8 imulq %rdx, %r9 imulq %rdx, %r10 vmovss 0x24c(%rsi), %xmm0 vmulss 0xc(%rcx,%rdi), %xmm0, %xmm1 vmulss 0xc(%rcx,%r8), %xmm0, %xmm2 vmulss 0xc(%rcx,%r9), %xmm0, %xmm3 vmulss 0xc(%rcx,%r10), %xmm0, %xmm0 vbroadcastss (%rcx,%rdi), %ymm7 vbroadcastss 0x4(%rcx,%rdi), %ymm5 vbroadcastss 0x8(%rcx,%rdi), %ymm4 vbroadcastss (%rcx,%r8), %ymm11 vbroadcastss 0x4(%rcx,%r8), %ymm10 vbroadcastss 0x8(%rcx,%r8), %ymm8 vbroadcastss %xmm1, %ymm6 vbroadcastss %xmm2, %ymm9 vbroadcastss (%rcx,%r9), %ymm12 vbroadcastss 0x4(%rcx,%r9), %ymm13 vbroadcastss 0x8(%rcx,%r9), %ymm14 vbroadcastss (%rcx,%r10), %ymm15 vbroadcastss 0x4(%rcx,%r10), %ymm16 vbroadcastss %xmm3, %ymm17 vbroadcastss 0x8(%rcx,%r10), %ymm18 leaq 0x28e280(%rip), %rcx # 0x213036c vmovups 0x1dc(%rcx), %ymm19 vmovups 0x660(%rcx), %ymm20 vmovups 0xae4(%rcx), %ymm21 vmovups 0xf68(%rcx), %ymm3 vbroadcastss %xmm0, %ymm22 vmulps %ymm3, %ymm15, %ymm0 vmulps %ymm3, %ymm16, %ymm1 vmulps %ymm3, %ymm18, %ymm2 vmulps %ymm3, %ymm22, %ymm3 vfmadd231ps %ymm12, %ymm21, %ymm0 # ymm0 = (ymm21 * ymm12) + ymm0 vfmadd231ps %ymm13, %ymm21, %ymm1 # ymm1 = (ymm21 * ymm13) + ymm1 vfmadd231ps %ymm14, %ymm21, %ymm2 # ymm2 = (ymm21 * ymm14) + ymm2 vfmadd231ps %ymm21, %ymm17, %ymm3 # ymm3 = (ymm17 * ymm21) + ymm3 vfmadd231ps %ymm11, %ymm20, %ymm0 # ymm0 = (ymm20 * ymm11) + ymm0 vfmadd231ps %ymm10, %ymm20, %ymm1 # ymm1 = (ymm20 * ymm10) + ymm1 vfmadd231ps %ymm8, %ymm20, %ymm2 # ymm2 = (ymm20 * ymm8) + ymm2 vfmadd231ps %ymm20, %ymm9, %ymm3 # ymm3 = (ymm9 * ymm20) + ymm3 vfmadd231ps %ymm7, %ymm19, %ymm0 # ymm0 = (ymm19 * ymm7) + ymm0 vfmadd231ps %ymm5, %ymm19, %ymm1 # ymm1 = (ymm19 * ymm5) + ymm1 vfmadd231ps %ymm4, %ymm19, %ymm2 # ymm2 = (ymm19 * ymm4) + ymm2 vmovups 0x13ec(%rcx), %ymm20 vmovups 0x1870(%rcx), %ymm21 vmovups 0x1cf4(%rcx), %ymm23 vmovups 0x2178(%rcx), %ymm24 vfmadd231ps %ymm19, %ymm6, %ymm3 # ymm3 = (ymm6 * ymm19) + ymm3 vmulps %ymm24, %ymm15, %ymm15 vmulps %ymm24, %ymm16, %ymm16 vmulps %ymm24, %ymm18, %ymm18 vmulps %ymm24, %ymm22, %ymm19 vfmadd231ps %ymm12, %ymm23, %ymm15 # ymm15 = (ymm23 * ymm12) + ymm15 vfmadd231ps %ymm13, %ymm23, %ymm16 # ymm16 = (ymm23 * ymm13) + ymm16 vfmadd231ps %ymm14, %ymm23, %ymm18 # ymm18 = (ymm23 * ymm14) + ymm18 vfmadd231ps %ymm17, %ymm23, %ymm19 # ymm19 = (ymm23 * ymm17) + ymm19 vfmadd231ps %ymm11, %ymm21, %ymm15 # ymm15 = (ymm21 * ymm11) + ymm15 vfmadd231ps %ymm10, %ymm21, %ymm16 # ymm16 = (ymm21 * ymm10) + ymm16 vfmadd231ps %ymm8, %ymm21, %ymm18 # ymm18 = (ymm21 * ymm8) + ymm18 vfmadd231ps %ymm9, %ymm21, %ymm19 # ymm19 = (ymm21 * ymm9) + ymm19 vfmadd231ps %ymm7, %ymm20, %ymm15 # ymm15 = (ymm20 * ymm7) + ymm15 vfmadd231ps %ymm5, %ymm20, %ymm16 # ymm16 = (ymm20 * ymm5) + ymm16 vfmadd231ps %ymm4, %ymm20, %ymm18 # ymm18 = (ymm20 * ymm4) + ymm18 vbroadcastss 0x7f2d2(%rip), %ymm4 # 0x1f214d0 vfmadd231ps %ymm6, %ymm20, %ymm19 # ymm19 = (ymm20 * ymm6) + ymm19 vmulps %ymm4, %ymm15, %ymm5 vmulps %ymm4, %ymm16, %ymm6 vmulps %ymm4, %ymm18, %ymm7 vmulps %ymm4, %ymm19, %ymm4 vxorps %xmm8, %xmm8, %xmm8 vblendps $0x1, %ymm8, %ymm5, %ymm9 # ymm9 = ymm8[0],ymm5[1,2,3,4,5,6,7] vblendps $0x1, %ymm8, %ymm6, %ymm10 # ymm10 = ymm8[0],ymm6[1,2,3,4,5,6,7] vblendps $0x1, %ymm8, %ymm7, %ymm11 # ymm11 = ymm8[0],ymm7[1,2,3,4,5,6,7] vblendps $0x1, %ymm8, %ymm4, %ymm12 # ymm12 = ymm8[0],ymm4[1,2,3,4,5,6,7] vsubps %ymm9, %ymm0, %ymm9 vsubps %ymm10, %ymm1, %ymm10 vsubps %ymm11, %ymm2, %ymm11 vsubps %ymm12, %ymm3, %ymm12 vblendps $0x80, %ymm8, %ymm5, %ymm5 # ymm5 = ymm5[0,1,2,3,4,5,6],ymm8[7] vblendps $0x80, %ymm8, %ymm6, %ymm6 # ymm6 = ymm6[0,1,2,3,4,5,6],ymm8[7] vblendps $0x80, %ymm8, %ymm7, %ymm7 # ymm7 = ymm7[0,1,2,3,4,5,6],ymm8[7] vblendps $0x80, %ymm8, %ymm4, %ymm4 # ymm4 = ymm4[0,1,2,3,4,5,6],ymm8[7] vaddps %ymm5, %ymm0, %ymm5 vaddps %ymm6, %ymm1, %ymm6 vaddps %ymm7, %ymm2, %ymm7 vaddps %ymm4, %ymm3, %ymm4 vbroadcastss 0x497a4(%rip), %ymm8 # 0x1eeba20 vminps %ymm0, %ymm8, %ymm13 vminps %ymm1, %ymm8, %ymm14 vminps %ymm2, %ymm8, %ymm15 vminps %ymm3, %ymm8, %ymm8 vminps %ymm5, %ymm9, %ymm16 vminps %ymm16, %ymm13, %ymm13 vminps %ymm6, %ymm10, %ymm16 vminps %ymm16, %ymm14, %ymm14 vminps %ymm7, %ymm11, %ymm16 vminps %ymm16, %ymm15, %ymm15 vminps %ymm4, %ymm12, %ymm16 vminps %ymm16, %ymm8, %ymm8 vbroadcastss 0x4a8be(%rip), %ymm16 # 0x1eecb84 vmaxps %ymm0, %ymm16, %ymm0 vmaxps %ymm1, %ymm16, %ymm1 vmaxps %ymm2, %ymm16, %ymm2 vmaxps %ymm3, %ymm16, %ymm3 vmaxps %ymm5, %ymm9, %ymm5 vmaxps %ymm5, %ymm0, %ymm0 vmaxps %ymm6, %ymm10, %ymm5 vmaxps %ymm5, %ymm1, %ymm1 vmaxps %ymm7, %ymm11, %ymm5 vmaxps %ymm5, %ymm2, %ymm2 vmaxps %ymm4, %ymm12, %ymm4 vmaxps %ymm4, %ymm3, %ymm3 vshufps $0xb1, %ymm13, %ymm13, %ymm4 # ymm4 = ymm13[1,0,3,2,5,4,7,6] vminps %ymm4, %ymm13, %ymm4 vshufpd $0x5, %ymm4, %ymm4, %ymm5 # ymm5 = ymm4[1,0,3,2] vminps %ymm5, %ymm4, %ymm4 vextractf128 $0x1, %ymm4, %xmm5 vminps %xmm5, %xmm4, %xmm4 vshufps $0xb1, %ymm14, %ymm14, %ymm5 # ymm5 = ymm14[1,0,3,2,5,4,7,6] vminps %ymm5, %ymm14, %ymm5 vshufpd $0x5, %ymm5, %ymm5, %ymm6 # ymm6 = ymm5[1,0,3,2] vminps %ymm6, %ymm5, %ymm5 vextractf128 $0x1, %ymm5, %xmm6 vminps %xmm6, %xmm5, %xmm5 vunpcklps %xmm5, %xmm4, %xmm4 # xmm4 = xmm4[0],xmm5[0],xmm4[1],xmm5[1] vshufps $0xb1, %ymm15, %ymm15, %ymm5 # ymm5 = ymm15[1,0,3,2,5,4,7,6] vminps %ymm5, %ymm15, %ymm5 vshufpd $0x5, %ymm5, %ymm5, %ymm6 # ymm6 = ymm5[1,0,3,2] vminps %ymm6, %ymm5, %ymm5 vextractf128 $0x1, %ymm5, %xmm6 vminps %xmm6, %xmm5, %xmm5 vinsertps $0x28, %xmm5, %xmm4, %xmm4 # xmm4 = xmm4[0,1],xmm5[0],zero vshufps $0xb1, %ymm0, %ymm0, %ymm5 # ymm5 = ymm0[1,0,3,2,5,4,7,6] vmaxps %ymm5, %ymm0, %ymm0 vshufpd $0x5, %ymm0, %ymm0, %ymm5 # ymm5 = ymm0[1,0,3,2] vmaxps %ymm5, %ymm0, %ymm0 vextractf128 $0x1, %ymm0, %xmm5 vmaxps %xmm5, %xmm0, %xmm0 vshufps $0xb1, %ymm1, %ymm1, %ymm5 # ymm5 = ymm1[1,0,3,2,5,4,7,6] vmaxps %ymm5, %ymm1, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm5 # ymm5 = ymm1[1,0,3,2] vmaxps %ymm5, %ymm1, %ymm1 vextractf128 $0x1, %ymm1, %xmm5 vmaxps %xmm5, %xmm1, %xmm1 vunpcklps %xmm1, %xmm0, %xmm0 # xmm0 = xmm0[0],xmm1[0],xmm0[1],xmm1[1] vshufps $0xb1, %ymm2, %ymm2, %ymm1 # ymm1 = ymm2[1,0,3,2,5,4,7,6] vmaxps %ymm1, %ymm2, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vmaxps %ymm2, %ymm1, %ymm1 vextractf128 $0x1, %ymm1, %xmm2 vmaxps %xmm2, %xmm1, %xmm1 vinsertps $0x28, %xmm1, %xmm0, %xmm0 # xmm0 = xmm0[0,1],xmm1[0],zero vshufps $0xb1, %ymm8, %ymm8, %ymm1 # ymm1 = ymm8[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm8, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vextractf128 $0x1, %ymm1, %xmm2 vminss %xmm2, %xmm1, %xmm1 vshufps $0xb1, %ymm3, %ymm3, %ymm2 # ymm2 = ymm3[1,0,3,2,5,4,7,6] vmaxps %ymm2, %ymm3, %ymm2 vshufpd $0x5, %ymm2, %ymm2, %ymm3 # ymm3 = ymm2[1,0,3,2] vmaxps %ymm3, %ymm2, %ymm2 vextractf128 $0x1, %ymm2, %xmm3 vmaxss %xmm3, %xmm2, %xmm2 vbroadcastss 0x7eac5(%rip), %xmm3 # 0x1f20ec4 vandps %xmm3, %xmm1, %xmm1 vandps %xmm3, %xmm2, %xmm2 vmaxss %xmm1, %xmm2, %xmm1 vbroadcastss %xmm1, %xmm1 vsubps %xmm1, %xmm4, %xmm2 vaddps %xmm1, %xmm0, %xmm0 vandps %xmm3, %xmm2, %xmm1 vandps %xmm3, %xmm0, %xmm3 vmaxps %xmm3, %xmm1, %xmm1 vmovshdup %xmm1, %xmm3 # xmm3 = xmm1[1,1,3,3] vmaxss %xmm1, %xmm3, %xmm3 vshufpd $0x1, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[1,0] vmaxss %xmm3, %xmm1, %xmm1 vmulss 0x4eba7(%rip), %xmm1, %xmm1 # 0x1ef0fe4 vbroadcastss %xmm1, %xmm1 vsubps %xmm1, %xmm2, %xmm2 vaddps %xmm1, %xmm0, %xmm0 vmovaps %xmm2, (%rax) vmovaps %xmm0, 0x10(%rax) vzeroupper retq nop
/embree[P]embree/kernels/common/scene_curves.cpp
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)1, embree::avx512::CurveGeometryInterface, embree::CatmullRomCurveT>::linearBounds(embree::LinearSpace3<embree::Vec3fa> const&, unsigned long, embree::BBox<float> const&) const::'lambda'(unsigned long)::operator()(unsigned long) const
__forceinline LBBox3fa linearBounds(const LinearSpace3fa& space, size_t primID, const BBox1f& dt) const { return LBBox3fa([&] (size_t itime) { return bounds(space, primID, itime); }, dt, this->time_range, fnumTimeSegments); }
movq %rdi, %rax movq 0x10(%rsi), %rdi movq (%rsi), %r8 movq 0x8(%rsi), %rcx movq 0x58(%rdi), %rsi movq 0x68(%rdi), %r9 imulq (%rcx), %r9 movl (%rsi,%r9), %r10d movq 0x188(%rdi), %rsi imulq $0x38, %rdx, %rdx movq (%rsi,%rdx), %rcx movq 0x10(%rsi,%rdx), %r11 leal 0x1(%r10), %r9d leal 0x2(%r10), %esi leal 0x3(%r10), %edx imulq %r11, %r10 imulq %r11, %r9 imulq %r11, %rsi imulq %r11, %rdx vmovaps (%r8), %xmm0 vmovaps 0x10(%r8), %xmm1 vmovaps 0x20(%r8), %xmm2 vmulps 0x8(%rcx,%r10){1to4}, %xmm2, %xmm3 vfmadd231ps 0x4(%rcx,%r10){1to4}, %xmm1, %xmm3 # xmm3 = (xmm1 * mem) + xmm3 vfmadd231ps (%rcx,%r10){1to4}, %xmm0, %xmm3 # xmm3 = (xmm0 * mem) + xmm3 vmovss 0x24c(%rdi), %xmm4 vmulss 0xc(%rcx,%r10), %xmm4, %xmm8 vmulps 0x8(%rcx,%r9){1to4}, %xmm2, %xmm9 vfmadd231ps 0x4(%rcx,%r9){1to4}, %xmm1, %xmm9 # xmm9 = (xmm1 * mem) + xmm9 vfmadd231ps (%rcx,%r9){1to4}, %xmm0, %xmm9 # xmm9 = (xmm0 * mem) + xmm9 vmulss 0xc(%rcx,%r9), %xmm4, %xmm11 vmulps 0x8(%rcx,%rsi){1to4}, %xmm2, %xmm12 vfmadd231ps 0x4(%rcx,%rsi){1to4}, %xmm1, %xmm12 # xmm12 = (xmm1 * mem) + xmm12 vfmadd231ps (%rcx,%rsi){1to4}, %xmm0, %xmm12 # xmm12 = (xmm0 * mem) + xmm12 vmulss 0xc(%rcx,%rsi), %xmm4, %xmm13 vmulps 0x8(%rcx,%rdx){1to4}, %xmm2, %xmm2 vfmadd231ps 0x4(%rcx,%rdx){1to4}, %xmm1, %xmm2 # xmm2 = (xmm1 * mem) + xmm2 vfmadd231ps (%rcx,%rdx){1to4}, %xmm0, %xmm2 # xmm2 = (xmm0 * mem) + xmm2 vmulss 0xc(%rcx,%rdx), %xmm4, %xmm0 vbroadcastss %xmm3, %ymm5 vbroadcastss 0x701c1(%rip), %ymm1 # 0x1f12704 vpermps %ymm3, %ymm1, %ymm6 vbroadcastss 0x7e98b(%rip), %ymm14 # 0x1f20edc vpermps %ymm3, %ymm14, %ymm7 vbroadcastss %xmm8, %ymm4 vbroadcastss %xmm9, %ymm15 vpermps %ymm9, %ymm1, %ymm10 vpermps %ymm9, %ymm14, %ymm9 vbroadcastss %xmm11, %ymm8 vbroadcastss %xmm12, %ymm11 vpermps %ymm12, %ymm1, %ymm16 vpermps %ymm12, %ymm14, %ymm12 vbroadcastss %xmm13, %ymm13 vbroadcastss %xmm2, %ymm17 vpermps %ymm2, %ymm1, %ymm18 vpermps %ymm2, %ymm14, %ymm14 leaq 0x28ddd0(%rip), %rcx # 0x213036c vmovups 0x1dc(%rcx), %ymm19 vmovups 0x660(%rcx), %ymm20 vmovups 0xae4(%rcx), %ymm21 vmovups 0xf68(%rcx), %ymm3 vbroadcastss %xmm0, %ymm22 vmulps %ymm3, %ymm17, %ymm0 vmulps %ymm3, %ymm18, %ymm1 vmulps %ymm3, %ymm14, %ymm2 vmulps %ymm3, %ymm22, %ymm3 vfmadd231ps %ymm11, %ymm21, %ymm0 # ymm0 = (ymm21 * ymm11) + ymm0 vfmadd231ps %ymm16, %ymm21, %ymm1 # ymm1 = (ymm21 * ymm16) + ymm1 vfmadd231ps %ymm12, %ymm21, %ymm2 # ymm2 = (ymm21 * ymm12) + ymm2 vfmadd231ps %ymm21, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm21) + ymm3 vfmadd231ps %ymm15, %ymm20, %ymm0 # ymm0 = (ymm20 * ymm15) + ymm0 vfmadd231ps %ymm10, %ymm20, %ymm1 # ymm1 = (ymm20 * ymm10) + ymm1 vfmadd231ps %ymm9, %ymm20, %ymm2 # ymm2 = (ymm20 * ymm9) + ymm2 vfmadd231ps %ymm20, %ymm8, %ymm3 # ymm3 = (ymm8 * ymm20) + ymm3 vfmadd231ps %ymm5, %ymm19, %ymm0 # ymm0 = (ymm19 * ymm5) + ymm0 vfmadd231ps %ymm6, %ymm19, %ymm1 # ymm1 = (ymm19 * ymm6) + ymm1 vfmadd231ps %ymm7, %ymm19, %ymm2 # ymm2 = (ymm19 * ymm7) + ymm2 vmovups 0x13ec(%rcx), %ymm20 vmovups 0x1870(%rcx), %ymm21 vmovups 0x1cf4(%rcx), %ymm23 vmovups 0x2178(%rcx), %ymm24 vfmadd231ps %ymm19, %ymm4, %ymm3 # ymm3 = (ymm4 * ymm19) + ymm3 vmulps %ymm24, %ymm17, %ymm17 vmulps %ymm24, %ymm18, %ymm18 vmulps %ymm24, %ymm14, %ymm14 vmulps %ymm24, %ymm22, %ymm19 vfmadd231ps %ymm11, %ymm23, %ymm17 # ymm17 = (ymm23 * ymm11) + ymm17 vfmadd231ps %ymm16, %ymm23, %ymm18 # ymm18 = (ymm23 * ymm16) + ymm18 vfmadd231ps %ymm12, %ymm23, %ymm14 # ymm14 = (ymm23 * ymm12) + ymm14 vfmadd231ps %ymm13, %ymm23, %ymm19 # ymm19 = (ymm23 * ymm13) + ymm19 vfmadd231ps %ymm15, %ymm21, %ymm17 # ymm17 = (ymm21 * ymm15) + ymm17 vfmadd231ps %ymm10, %ymm21, %ymm18 # ymm18 = (ymm21 * ymm10) + ymm18 vfmadd231ps %ymm9, %ymm21, %ymm14 # ymm14 = (ymm21 * ymm9) + ymm14 vfmadd231ps %ymm8, %ymm21, %ymm19 # ymm19 = (ymm21 * ymm8) + ymm19 vfmadd231ps %ymm5, %ymm20, %ymm17 # ymm17 = (ymm20 * ymm5) + ymm17 vfmadd231ps %ymm6, %ymm20, %ymm18 # ymm18 = (ymm20 * ymm6) + ymm18 vfmadd231ps %ymm7, %ymm20, %ymm14 # ymm14 = (ymm20 * ymm7) + ymm14 vbroadcastss 0x7ee22(%rip), %ymm5 # 0x1f214d0 vfmadd231ps %ymm4, %ymm20, %ymm19 # ymm19 = (ymm20 * ymm4) + ymm19 vmulps %ymm5, %ymm17, %ymm4 vmulps %ymm5, %ymm18, %ymm6 vmulps %ymm5, %ymm14, %ymm7 vmulps %ymm5, %ymm19, %ymm5 vxorps %xmm8, %xmm8, %xmm8 vblendps $0x1, %ymm8, %ymm4, %ymm9 # ymm9 = ymm8[0],ymm4[1,2,3,4,5,6,7] vblendps $0x1, %ymm8, %ymm6, %ymm10 # ymm10 = ymm8[0],ymm6[1,2,3,4,5,6,7] vblendps $0x1, %ymm8, %ymm7, %ymm11 # ymm11 = ymm8[0],ymm7[1,2,3,4,5,6,7] vblendps $0x1, %ymm8, %ymm5, %ymm12 # ymm12 = ymm8[0],ymm5[1,2,3,4,5,6,7] vsubps %ymm9, %ymm0, %ymm9 vsubps %ymm10, %ymm1, %ymm10 vsubps %ymm11, %ymm2, %ymm11 vsubps %ymm12, %ymm3, %ymm12 vblendps $0x80, %ymm8, %ymm4, %ymm4 # ymm4 = ymm4[0,1,2,3,4,5,6],ymm8[7] vblendps $0x80, %ymm8, %ymm6, %ymm6 # ymm6 = ymm6[0,1,2,3,4,5,6],ymm8[7] vblendps $0x80, %ymm8, %ymm7, %ymm7 # ymm7 = ymm7[0,1,2,3,4,5,6],ymm8[7] vblendps $0x80, %ymm8, %ymm5, %ymm5 # ymm5 = ymm5[0,1,2,3,4,5,6],ymm8[7] vaddps %ymm4, %ymm0, %ymm4 vaddps %ymm6, %ymm1, %ymm6 vaddps %ymm7, %ymm2, %ymm7 vaddps %ymm5, %ymm3, %ymm5 vbroadcastss 0x492f4(%rip), %ymm8 # 0x1eeba20 vminps %ymm0, %ymm8, %ymm13 vminps %ymm1, %ymm8, %ymm14 vminps %ymm2, %ymm8, %ymm15 vminps %ymm3, %ymm8, %ymm8 vminps %ymm4, %ymm9, %ymm16 vminps %ymm16, %ymm13, %ymm13 vminps %ymm6, %ymm10, %ymm16 vminps %ymm16, %ymm14, %ymm14 vminps %ymm7, %ymm11, %ymm16 vminps %ymm16, %ymm15, %ymm15 vminps %ymm5, %ymm12, %ymm16 vminps %ymm16, %ymm8, %ymm8 vbroadcastss 0x4a40e(%rip), %ymm16 # 0x1eecb84 vmaxps %ymm0, %ymm16, %ymm0 vmaxps %ymm1, %ymm16, %ymm1 vmaxps %ymm2, %ymm16, %ymm2 vmaxps %ymm3, %ymm16, %ymm3 vmaxps %ymm4, %ymm9, %ymm4 vmaxps %ymm4, %ymm0, %ymm0 vmaxps %ymm6, %ymm10, %ymm4 vmaxps %ymm4, %ymm1, %ymm1 vmaxps %ymm7, %ymm11, %ymm4 vmaxps %ymm4, %ymm2, %ymm2 vmaxps %ymm5, %ymm12, %ymm4 vmaxps %ymm4, %ymm3, %ymm3 vshufps $0xb1, %ymm13, %ymm13, %ymm4 # ymm4 = ymm13[1,0,3,2,5,4,7,6] vminps %ymm4, %ymm13, %ymm4 vshufpd $0x5, %ymm4, %ymm4, %ymm5 # ymm5 = ymm4[1,0,3,2] vminps %ymm5, %ymm4, %ymm4 vextractf128 $0x1, %ymm4, %xmm5 vminps %xmm5, %xmm4, %xmm4 vshufps $0xb1, %ymm14, %ymm14, %ymm5 # ymm5 = ymm14[1,0,3,2,5,4,7,6] vminps %ymm5, %ymm14, %ymm5 vshufpd $0x5, %ymm5, %ymm5, %ymm6 # ymm6 = ymm5[1,0,3,2] vminps %ymm6, %ymm5, %ymm5 vextractf128 $0x1, %ymm5, %xmm6 vminps %xmm6, %xmm5, %xmm5 vunpcklps %xmm5, %xmm4, %xmm4 # xmm4 = xmm4[0],xmm5[0],xmm4[1],xmm5[1] vshufps $0xb1, %ymm15, %ymm15, %ymm5 # ymm5 = ymm15[1,0,3,2,5,4,7,6] vminps %ymm5, %ymm15, %ymm5 vshufpd $0x5, %ymm5, %ymm5, %ymm6 # ymm6 = ymm5[1,0,3,2] vminps %ymm6, %ymm5, %ymm5 vextractf128 $0x1, %ymm5, %xmm6 vminps %xmm6, %xmm5, %xmm5 vinsertps $0x28, %xmm5, %xmm4, %xmm4 # xmm4 = xmm4[0,1],xmm5[0],zero vshufps $0xb1, %ymm0, %ymm0, %ymm5 # ymm5 = ymm0[1,0,3,2,5,4,7,6] vmaxps %ymm5, %ymm0, %ymm0 vshufpd $0x5, %ymm0, %ymm0, %ymm5 # ymm5 = ymm0[1,0,3,2] vmaxps %ymm5, %ymm0, %ymm0 vextractf128 $0x1, %ymm0, %xmm5 vmaxps %xmm5, %xmm0, %xmm0 vshufps $0xb1, %ymm1, %ymm1, %ymm5 # ymm5 = ymm1[1,0,3,2,5,4,7,6] vmaxps %ymm5, %ymm1, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm5 # ymm5 = ymm1[1,0,3,2] vmaxps %ymm5, %ymm1, %ymm1 vextractf128 $0x1, %ymm1, %xmm5 vmaxps %xmm5, %xmm1, %xmm1 vunpcklps %xmm1, %xmm0, %xmm0 # xmm0 = xmm0[0],xmm1[0],xmm0[1],xmm1[1] vshufps $0xb1, %ymm2, %ymm2, %ymm1 # ymm1 = ymm2[1,0,3,2,5,4,7,6] vmaxps %ymm1, %ymm2, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vmaxps %ymm2, %ymm1, %ymm1 vextractf128 $0x1, %ymm1, %xmm2 vmaxps %xmm2, %xmm1, %xmm1 vinsertps $0x28, %xmm1, %xmm0, %xmm0 # xmm0 = xmm0[0,1],xmm1[0],zero vshufps $0xb1, %ymm8, %ymm8, %ymm1 # ymm1 = ymm8[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm8, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vextractf128 $0x1, %ymm1, %xmm2 vminss %xmm2, %xmm1, %xmm1 vshufps $0xb1, %ymm3, %ymm3, %ymm2 # ymm2 = ymm3[1,0,3,2,5,4,7,6] vmaxps %ymm2, %ymm3, %ymm2 vshufpd $0x5, %ymm2, %ymm2, %ymm3 # ymm3 = ymm2[1,0,3,2] vmaxps %ymm3, %ymm2, %ymm2 vextractf128 $0x1, %ymm2, %xmm3 vmaxss %xmm3, %xmm2, %xmm2 vbroadcastss 0x7e615(%rip), %xmm3 # 0x1f20ec4 vandps %xmm3, %xmm1, %xmm1 vandps %xmm3, %xmm2, %xmm2 vmaxss %xmm1, %xmm2, %xmm1 vbroadcastss %xmm1, %xmm1 vsubps %xmm1, %xmm4, %xmm2 vaddps %xmm1, %xmm0, %xmm0 vandps %xmm3, %xmm2, %xmm1 vandps %xmm3, %xmm0, %xmm3 vmaxps %xmm3, %xmm1, %xmm1 vmovshdup %xmm1, %xmm3 # xmm3 = xmm1[1,1,3,3] vmaxss %xmm1, %xmm3, %xmm3 vshufpd $0x1, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[1,0] vmaxss %xmm3, %xmm1, %xmm1 vmulss 0x4e6f7(%rip), %xmm1, %xmm1 # 0x1ef0fe4 vbroadcastss %xmm1, %xmm1 vsubps %xmm1, %xmm2, %xmm2 vaddps %xmm1, %xmm0, %xmm0 vmovaps %xmm2, (%rax) vmovaps %xmm0, 0x10(%rax) vzeroupper retq nop
/embree[P]embree/kernels/common/scene_curves.cpp
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)1, embree::avx512::CurveGeometryInterface, embree::CatmullRomCurveT>::linearBounds(embree::Vec3fa const&, float, float, embree::LinearSpace3<embree::Vec3fa> const&, unsigned long, embree::BBox<float> const&) const::'lambda'(unsigned long)::operator()(unsigned long) const
__forceinline LBBox3fa linearBounds(const Vec3fa& ofs, const float scale, const float r_scale0, const LinearSpace3fa& space, size_t primID, const BBox1f& dt) const { return LBBox3fa([&] (size_t itime) { return bounds(ofs, scale, r_scale0, space, primID, itime); }, dt, this->time_range, fnumTimeSegments); }
pushq %rbx movq %rdi, %rax movq 0x28(%rsi), %rdi movq (%rsi), %r10 movq 0x8(%rsi), %rcx movq 0x10(%rsi), %r8 movq 0x18(%rsi), %r9 movq 0x20(%rsi), %rsi vbroadcastss (%rcx), %xmm1 vmulss (%r8), %xmm1, %xmm0 movq 0x58(%rdi), %rcx movq 0x68(%rdi), %r8 imulq (%rsi), %r8 movl (%rcx,%r8), %r11d movq 0x188(%rdi), %rsi imulq $0x38, %rdx, %rdx movq (%rsi,%rdx), %rcx movq 0x10(%rsi,%rdx), %rbx leal 0x1(%r11), %r8d leal 0x2(%r11), %esi leal 0x3(%r11), %edx imulq %rbx, %r11 vmovaps (%rcx,%r11), %xmm2 imulq %rbx, %r8 vmovaps (%rcx,%r8), %xmm3 imulq %rbx, %rsi vmovaps (%rcx,%rsi), %xmm4 imulq %rbx, %rdx vmovaps (%rcx,%rdx), %xmm5 vmovaps (%r10), %xmm6 vsubps %xmm6, %xmm2, %xmm2 vmulps %xmm2, %xmm1, %xmm2 vbroadcastss %xmm2, %xmm7 vshufps $0x55, %xmm2, %xmm2, %xmm8 # xmm8 = xmm2[1,1,1,1] vmovaps (%r9), %xmm9 vmovaps 0x10(%r9), %xmm10 vshufps $0xaa, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[2,2,2,2] vmovaps 0x20(%r9), %xmm11 vmulps %xmm2, %xmm11, %xmm2 vfmadd231ps %xmm8, %xmm10, %xmm2 # xmm2 = (xmm10 * xmm8) + xmm2 vfmadd231ps %xmm7, %xmm9, %xmm2 # xmm2 = (xmm9 * xmm7) + xmm2 vmovss 0x24c(%rdi), %xmm7 vmulss 0xc(%rcx,%r11), %xmm7, %xmm8 vmulss %xmm0, %xmm8, %xmm8 vsubps %xmm6, %xmm3, %xmm3 vmulps %xmm3, %xmm1, %xmm3 vbroadcastss %xmm3, %xmm12 vshufps $0x55, %xmm3, %xmm3, %xmm13 # xmm13 = xmm3[1,1,1,1] vshufps $0xaa, %xmm3, %xmm3, %xmm3 # xmm3 = xmm3[2,2,2,2] vmulps %xmm3, %xmm11, %xmm3 vfmadd231ps %xmm13, %xmm10, %xmm3 # xmm3 = (xmm10 * xmm13) + xmm3 vfmadd231ps %xmm12, %xmm9, %xmm3 # xmm3 = (xmm9 * xmm12) + xmm3 vmulss 0xc(%rcx,%r8), %xmm7, %xmm12 vmulss %xmm0, %xmm12, %xmm12 vsubps %xmm6, %xmm4, %xmm4 vmulps %xmm4, %xmm1, %xmm4 vbroadcastss %xmm4, %xmm13 vshufps $0x55, %xmm4, %xmm4, %xmm14 # xmm14 = xmm4[1,1,1,1] vshufps $0xaa, %xmm4, %xmm4, %xmm4 # xmm4 = xmm4[2,2,2,2] vmulps %xmm4, %xmm11, %xmm15 vfmadd231ps %xmm14, %xmm10, %xmm15 # xmm15 = (xmm10 * xmm14) + xmm15 vfmadd231ps %xmm13, %xmm9, %xmm15 # xmm15 = (xmm9 * xmm13) + xmm15 vmulss 0xc(%rcx,%rsi), %xmm7, %xmm4 vmulss %xmm4, %xmm0, %xmm13 vsubps %xmm6, %xmm5, %xmm4 vmulps %xmm4, %xmm1, %xmm1 vbroadcastss %xmm1, %xmm4 vshufps $0x55, %xmm1, %xmm1, %xmm5 # xmm5 = xmm1[1,1,1,1] vshufps $0xaa, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[2,2,2,2] vmulps %xmm1, %xmm11, %xmm1 vfmadd231ps %xmm5, %xmm10, %xmm1 # xmm1 = (xmm10 * xmm5) + xmm1 vmulss 0xc(%rcx,%rdx), %xmm7, %xmm5 vfmadd231ps %xmm4, %xmm9, %xmm1 # xmm1 = (xmm9 * xmm4) + xmm1 vmulss %xmm5, %xmm0, %xmm0 vbroadcastss %xmm2, %ymm5 vbroadcastss 0x6fc97(%rip), %ymm11 # 0x1f12704 vpermps %ymm2, %ymm11, %ymm6 vbroadcastss 0x7e461(%rip), %ymm14 # 0x1f20edc vpermps %ymm2, %ymm14, %ymm7 vbroadcastss %xmm8, %ymm4 vbroadcastss %xmm3, %ymm16 vpermps %ymm3, %ymm11, %ymm10 vpermps %ymm3, %ymm14, %ymm9 vbroadcastss %xmm12, %ymm8 vbroadcastss %xmm15, %ymm12 vpermps %ymm15, %ymm11, %ymm17 vpermps %ymm15, %ymm14, %ymm15 vbroadcastss %xmm13, %ymm13 vbroadcastss %xmm1, %ymm18 vpermps %ymm1, %ymm11, %ymm11 vpermps %ymm1, %ymm14, %ymm14 leaq 0x28d8a6(%rip), %rcx # 0x213036c vmovups 0x1dc(%rcx), %ymm19 vmovups 0x660(%rcx), %ymm20 vmovups 0xae4(%rcx), %ymm21 vmovups 0xf68(%rcx), %ymm3 vbroadcastss %xmm0, %ymm22 vmulps %ymm3, %ymm18, %ymm0 vmulps %ymm3, %ymm11, %ymm1 vmulps %ymm3, %ymm14, %ymm2 vmulps %ymm3, %ymm22, %ymm3 vfmadd231ps %ymm12, %ymm21, %ymm0 # ymm0 = (ymm21 * ymm12) + ymm0 vfmadd231ps %ymm17, %ymm21, %ymm1 # ymm1 = (ymm21 * ymm17) + ymm1 vfmadd231ps %ymm15, %ymm21, %ymm2 # ymm2 = (ymm21 * ymm15) + ymm2 vfmadd231ps %ymm21, %ymm13, %ymm3 # ymm3 = (ymm13 * ymm21) + ymm3 vfmadd231ps %ymm16, %ymm20, %ymm0 # ymm0 = (ymm20 * ymm16) + ymm0 vfmadd231ps %ymm10, %ymm20, %ymm1 # ymm1 = (ymm20 * ymm10) + ymm1 vfmadd231ps %ymm9, %ymm20, %ymm2 # ymm2 = (ymm20 * ymm9) + ymm2 vfmadd231ps %ymm20, %ymm8, %ymm3 # ymm3 = (ymm8 * ymm20) + ymm3 vfmadd231ps %ymm5, %ymm19, %ymm0 # ymm0 = (ymm19 * ymm5) + ymm0 vfmadd231ps %ymm6, %ymm19, %ymm1 # ymm1 = (ymm19 * ymm6) + ymm1 vfmadd231ps %ymm7, %ymm19, %ymm2 # ymm2 = (ymm19 * ymm7) + ymm2 vmovups 0x13ec(%rcx), %ymm20 vmovups 0x1870(%rcx), %ymm21 vmovups 0x1cf4(%rcx), %ymm23 vmovups 0x2178(%rcx), %ymm24 vfmadd231ps %ymm19, %ymm4, %ymm3 # ymm3 = (ymm4 * ymm19) + ymm3 vmulps %ymm24, %ymm18, %ymm18 vmulps %ymm24, %ymm11, %ymm11 vmulps %ymm24, %ymm14, %ymm14 vmulps %ymm24, %ymm22, %ymm19 vfmadd231ps %ymm12, %ymm23, %ymm18 # ymm18 = (ymm23 * ymm12) + ymm18 vfmadd231ps %ymm17, %ymm23, %ymm11 # ymm11 = (ymm23 * ymm17) + ymm11 vfmadd231ps %ymm15, %ymm23, %ymm14 # ymm14 = (ymm23 * ymm15) + ymm14 vfmadd231ps %ymm13, %ymm23, %ymm19 # ymm19 = (ymm23 * ymm13) + ymm19 vfmadd231ps %ymm16, %ymm21, %ymm18 # ymm18 = (ymm21 * ymm16) + ymm18 vfmadd231ps %ymm10, %ymm21, %ymm11 # ymm11 = (ymm21 * ymm10) + ymm11 vfmadd231ps %ymm9, %ymm21, %ymm14 # ymm14 = (ymm21 * ymm9) + ymm14 vfmadd231ps %ymm8, %ymm21, %ymm19 # ymm19 = (ymm21 * ymm8) + ymm19 vfmadd231ps %ymm5, %ymm20, %ymm18 # ymm18 = (ymm20 * ymm5) + ymm18 vfmadd231ps %ymm6, %ymm20, %ymm11 # ymm11 = (ymm20 * ymm6) + ymm11 vfmadd231ps %ymm7, %ymm20, %ymm14 # ymm14 = (ymm20 * ymm7) + ymm14 vbroadcastss 0x7e8fa(%rip), %ymm5 # 0x1f214d0 vfmadd231ps %ymm4, %ymm20, %ymm19 # ymm19 = (ymm20 * ymm4) + ymm19 vmulps %ymm5, %ymm18, %ymm4 vmulps %ymm5, %ymm11, %ymm6 vmulps %ymm5, %ymm14, %ymm7 vmulps %ymm5, %ymm19, %ymm5 vxorps %xmm8, %xmm8, %xmm8 vblendps $0x1, %ymm8, %ymm4, %ymm9 # ymm9 = ymm8[0],ymm4[1,2,3,4,5,6,7] vblendps $0x1, %ymm8, %ymm6, %ymm10 # ymm10 = ymm8[0],ymm6[1,2,3,4,5,6,7] vblendps $0x1, %ymm8, %ymm7, %ymm11 # ymm11 = ymm8[0],ymm7[1,2,3,4,5,6,7] vblendps $0x1, %ymm8, %ymm5, %ymm12 # ymm12 = ymm8[0],ymm5[1,2,3,4,5,6,7] vsubps %ymm9, %ymm0, %ymm9 vsubps %ymm10, %ymm1, %ymm10 vsubps %ymm11, %ymm2, %ymm11 vsubps %ymm12, %ymm3, %ymm12 vblendps $0x80, %ymm8, %ymm4, %ymm4 # ymm4 = ymm4[0,1,2,3,4,5,6],ymm8[7] vblendps $0x80, %ymm8, %ymm6, %ymm6 # ymm6 = ymm6[0,1,2,3,4,5,6],ymm8[7] vblendps $0x80, %ymm8, %ymm7, %ymm7 # ymm7 = ymm7[0,1,2,3,4,5,6],ymm8[7] vblendps $0x80, %ymm8, %ymm5, %ymm5 # ymm5 = ymm5[0,1,2,3,4,5,6],ymm8[7] vaddps %ymm4, %ymm0, %ymm4 vaddps %ymm6, %ymm1, %ymm6 vaddps %ymm7, %ymm2, %ymm7 vaddps %ymm5, %ymm3, %ymm5 vbroadcastss 0x48dce(%rip), %ymm8 # 0x1eeba20 vminps %ymm0, %ymm8, %ymm13 vminps %ymm1, %ymm8, %ymm14 vminps %ymm2, %ymm8, %ymm15 vminps %ymm3, %ymm8, %ymm8 vminps %ymm4, %ymm9, %ymm16 vminps %ymm16, %ymm13, %ymm13 vminps %ymm6, %ymm10, %ymm16 vminps %ymm16, %ymm14, %ymm14 vminps %ymm7, %ymm11, %ymm16 vminps %ymm16, %ymm15, %ymm15 vminps %ymm5, %ymm12, %ymm16 vminps %ymm16, %ymm8, %ymm8 vbroadcastss 0x49ee8(%rip), %ymm16 # 0x1eecb84 vmaxps %ymm0, %ymm16, %ymm0 vmaxps %ymm1, %ymm16, %ymm1 vmaxps %ymm2, %ymm16, %ymm2 vmaxps %ymm3, %ymm16, %ymm3 vmaxps %ymm4, %ymm9, %ymm4 vmaxps %ymm4, %ymm0, %ymm0 vmaxps %ymm6, %ymm10, %ymm4 vmaxps %ymm4, %ymm1, %ymm1 vmaxps %ymm7, %ymm11, %ymm4 vmaxps %ymm4, %ymm2, %ymm2 vmaxps %ymm5, %ymm12, %ymm4 vmaxps %ymm4, %ymm3, %ymm3 vshufps $0xb1, %ymm13, %ymm13, %ymm4 # ymm4 = ymm13[1,0,3,2,5,4,7,6] vminps %ymm4, %ymm13, %ymm4 vshufpd $0x5, %ymm4, %ymm4, %ymm5 # ymm5 = ymm4[1,0,3,2] vminps %ymm5, %ymm4, %ymm4 vextractf128 $0x1, %ymm4, %xmm5 vminps %xmm5, %xmm4, %xmm4 vshufps $0xb1, %ymm14, %ymm14, %ymm5 # ymm5 = ymm14[1,0,3,2,5,4,7,6] vminps %ymm5, %ymm14, %ymm5 vshufpd $0x5, %ymm5, %ymm5, %ymm6 # ymm6 = ymm5[1,0,3,2] vminps %ymm6, %ymm5, %ymm5 vextractf128 $0x1, %ymm5, %xmm6 vminps %xmm6, %xmm5, %xmm5 vunpcklps %xmm5, %xmm4, %xmm4 # xmm4 = xmm4[0],xmm5[0],xmm4[1],xmm5[1] vshufps $0xb1, %ymm15, %ymm15, %ymm5 # ymm5 = ymm15[1,0,3,2,5,4,7,6] vminps %ymm5, %ymm15, %ymm5 vshufpd $0x5, %ymm5, %ymm5, %ymm6 # ymm6 = ymm5[1,0,3,2] vminps %ymm6, %ymm5, %ymm5 vextractf128 $0x1, %ymm5, %xmm6 vminps %xmm6, %xmm5, %xmm5 vinsertps $0x28, %xmm5, %xmm4, %xmm4 # xmm4 = xmm4[0,1],xmm5[0],zero vshufps $0xb1, %ymm0, %ymm0, %ymm5 # ymm5 = ymm0[1,0,3,2,5,4,7,6] vmaxps %ymm5, %ymm0, %ymm0 vshufpd $0x5, %ymm0, %ymm0, %ymm5 # ymm5 = ymm0[1,0,3,2] vmaxps %ymm5, %ymm0, %ymm0 vextractf128 $0x1, %ymm0, %xmm5 vmaxps %xmm5, %xmm0, %xmm0 vshufps $0xb1, %ymm1, %ymm1, %ymm5 # ymm5 = ymm1[1,0,3,2,5,4,7,6] vmaxps %ymm5, %ymm1, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm5 # ymm5 = ymm1[1,0,3,2] vmaxps %ymm5, %ymm1, %ymm1 vextractf128 $0x1, %ymm1, %xmm5 vmaxps %xmm5, %xmm1, %xmm1 vunpcklps %xmm1, %xmm0, %xmm0 # xmm0 = xmm0[0],xmm1[0],xmm0[1],xmm1[1] vshufps $0xb1, %ymm2, %ymm2, %ymm1 # ymm1 = ymm2[1,0,3,2,5,4,7,6] vmaxps %ymm1, %ymm2, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vmaxps %ymm2, %ymm1, %ymm1 vextractf128 $0x1, %ymm1, %xmm2 vmaxps %xmm2, %xmm1, %xmm1 vinsertps $0x28, %xmm1, %xmm0, %xmm0 # xmm0 = xmm0[0,1],xmm1[0],zero vshufps $0xb1, %ymm8, %ymm8, %ymm1 # ymm1 = ymm8[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm8, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vextractf128 $0x1, %ymm1, %xmm2 vminss %xmm2, %xmm1, %xmm1 vshufps $0xb1, %ymm3, %ymm3, %ymm2 # ymm2 = ymm3[1,0,3,2,5,4,7,6] vmaxps %ymm2, %ymm3, %ymm2 vshufpd $0x5, %ymm2, %ymm2, %ymm3 # ymm3 = ymm2[1,0,3,2] vmaxps %ymm3, %ymm2, %ymm2 vextractf128 $0x1, %ymm2, %xmm3 vmaxss %xmm3, %xmm2, %xmm2 vbroadcastss 0x7e0ef(%rip), %xmm3 # 0x1f20ec4 vandps %xmm3, %xmm1, %xmm1 vandps %xmm3, %xmm2, %xmm2 vmaxss %xmm1, %xmm2, %xmm1 vbroadcastss %xmm1, %xmm1 vsubps %xmm1, %xmm4, %xmm2 vaddps %xmm1, %xmm0, %xmm0 vandps %xmm3, %xmm2, %xmm1 vandps %xmm3, %xmm0, %xmm3 vmaxps %xmm3, %xmm1, %xmm1 vmovshdup %xmm1, %xmm3 # xmm3 = xmm1[1,1,3,3] vmaxss %xmm1, %xmm3, %xmm3 vshufpd $0x1, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[1,0] vmaxss %xmm3, %xmm1, %xmm1 vmulss 0x4e1d1(%rip), %xmm1, %xmm1 # 0x1ef0fe4 vbroadcastss %xmm1, %xmm1 vsubps %xmm1, %xmm2, %xmm2 vaddps %xmm1, %xmm0, %xmm0 vmovaps %xmm2, (%rax) vmovaps %xmm0, 0x10(%rax) popq %rbx vzeroupper retq
/embree[P]embree/kernels/common/scene_curves.cpp
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)0, embree::avx512::CurveGeometryInterface, embree::CatmullRomCurveT>::computeAlignedSpace(unsigned long) const
LinearSpace3fa computeAlignedSpace(const size_t primID) const { Vec3fa axisz(0,0,1); Vec3fa axisy(0,1,0); const Curve3ff curve = getCurveScaledRadius(primID); const Vec3fa p0 = curve.begin(); const Vec3fa p3 = curve.end(); const Vec3fa d0 = curve.eval_du(0.0f); //const Vec3fa d1 = curve.eval_du(1.0f); const Vec3fa axisz_ = normalize(p3 - p0); const Vec3fa axisy_ = cross(axisz_,d0); if (sqr_length(p3-p0) > 1E-18f) { axisz = axisz_; axisy = axisy_; } if (sqr_length(axisy) > 1E-18) { axisy = normalize(axisy); Vec3fa axisx = normalize(cross(axisy,axisz)); return LinearSpace3fa(axisx,axisy,axisz); } return frame(axisz); }
movq %rdi, %rax imulq 0x68(%rsi), %rdx movq 0x58(%rsi), %rcx movq 0x188(%rsi), %rdi movl (%rcx,%rdx), %r8d movq (%rdi), %rcx movq 0x10(%rdi), %r9 leal 0x1(%r8), %r10d leal 0x2(%r8), %r11d leal 0x3(%r8), %edx movq %r8, %rdi imulq %r9, %r10 vmovaps (%rcx,%r10), %xmm0 imulq %r9, %r11 vmovaps (%rcx,%r11), %xmm2 imulq %r9, %rdi imulq %r9, %rdx vmovss 0x24c(%rsi), %xmm4 vmulss 0xc(%rcx,%r10), %xmm4, %xmm1 vinsertps $0x30, %xmm1, %xmm0, %xmm1 # xmm1 = xmm0[0,1,2],xmm1[0] vmulss 0xc(%rcx,%r11), %xmm4, %xmm0 vinsertps $0x30, %xmm0, %xmm2, %xmm2 # xmm2 = xmm2[0,1,2],xmm0[0] vxorps %xmm3, %xmm3, %xmm3 vsubps %xmm1, %xmm2, %xmm0 vdpps $0x7f, %xmm0, %xmm0, %xmm5 vmovss %xmm5, %xmm3, %xmm6 # xmm6 = xmm5[0],xmm3[1,2,3] vrsqrt14ss %xmm6, %xmm3, %xmm6 vmulss 0x47e09(%rip), %xmm6, %xmm7 # 0x1eec718 vmulss 0x47e05(%rip), %xmm5, %xmm8 # 0x1eec71c vmulss %xmm6, %xmm8, %xmm8 vmulss %xmm6, %xmm6, %xmm6 vmulss %xmm6, %xmm8, %xmm6 vaddss %xmm6, %xmm7, %xmm6 vbroadcastss %xmm6, %xmm6 vmulps %xmm6, %xmm0, %xmm0 vucomiss 0x4c6b0(%rip), %xmm5 # 0x1ef0fe8 ja 0x1ea4946 vmovsd 0x47dae(%rip), %xmm1 # 0x1eec6f0 jbe 0x1ea499e jmp 0x1ea49a6 vmovaps (%rcx,%rdi), %xmm5 vmovaps (%rcx,%rdx), %xmm6 vmulss 0xc(%rcx,%rdi), %xmm4, %xmm7 vinsertps $0x30, %xmm7, %xmm5, %xmm5 # xmm5 = xmm5[0,1,2],xmm7[0] vmulss 0xc(%rcx,%rdx), %xmm4, %xmm4 vinsertps $0x30, %xmm4, %xmm6, %xmm4 # xmm4 = xmm6[0,1,2],xmm4[0] vmulps %xmm3, %xmm4, %xmm4 vbroadcastss 0x47da7(%rip), %xmm6 # 0x1eec71c vfnmadd213ps %xmm4, %xmm6, %xmm2 # xmm2 = -(xmm6 * xmm2) + xmm4 vfmadd213ps %xmm2, %xmm3, %xmm1 # xmm1 = (xmm3 * xmm1) + xmm2 vfmadd231ps %xmm5, %xmm6, %xmm1 # xmm1 = (xmm6 * xmm5) + xmm1 vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3] vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3] vmulps %xmm3, %xmm1, %xmm1 vfmsub231ps %xmm2, %xmm0, %xmm1 # xmm1 = (xmm0 * xmm2) - xmm1 vshufps $0xc9, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[1,2,0,3] ja 0x1ea49a6 vmovaps 0x47d5a(%rip), %xmm0 # 0x1eec700 vdpps $0x7f, %xmm1, %xmm1, %xmm2 vcvtss2sd %xmm2, %xmm2, %xmm3 vucomisd 0x4c658(%rip), %xmm3 # 0x1ef1010 jbe 0x1ea4a4b vxorps %xmm3, %xmm3, %xmm3 vmovss %xmm2, %xmm3, %xmm4 # xmm4 = xmm2[0],xmm3[1,2,3] vrsqrt14ss %xmm4, %xmm3, %xmm4 vmovss 0x47d44(%rip), %xmm5 # 0x1eec718 vmulss %xmm5, %xmm4, %xmm6 vmovss 0x481a0(%rip), %xmm7 # 0x1eecb80 vmulss %xmm7, %xmm2, %xmm2 vmulss %xmm4, %xmm2, %xmm2 vmulss %xmm4, %xmm4, %xmm4 vmulss %xmm4, %xmm2, %xmm2 vsubss %xmm2, %xmm6, %xmm2 vbroadcastss %xmm2, %xmm2 vmulps %xmm2, %xmm1, %xmm1 vshufps $0xc9, %xmm0, %xmm0, %xmm2 # xmm2 = xmm0[1,2,0,3] vshufps $0xc9, %xmm1, %xmm1, %xmm4 # xmm4 = xmm1[1,2,0,3] vmulps %xmm4, %xmm0, %xmm4 vfmsub231ps %xmm2, %xmm1, %xmm4 # xmm4 = (xmm1 * xmm2) - xmm4 vshufps $0xc9, %xmm4, %xmm4, %xmm2 # xmm2 = xmm4[1,2,0,3] vdpps $0x7f, %xmm2, %xmm2, %xmm4 vmovss %xmm4, %xmm3, %xmm6 # xmm6 = xmm4[0],xmm3[1,2,3] vrsqrt14ss %xmm6, %xmm3, %xmm3 vmulss %xmm5, %xmm3, %xmm5 vmulss %xmm7, %xmm4, %xmm4 vmulss %xmm3, %xmm4, %xmm4 vmulss %xmm3, %xmm3, %xmm3 vmulss %xmm3, %xmm4, %xmm3 vsubss %xmm3, %xmm5, %xmm3 vbroadcastss %xmm3, %xmm3 vmulps %xmm2, %xmm3, %xmm2 jmp 0x1ea4b3a vshufpd $0x1, %xmm0, %xmm0, %xmm1 # xmm1 = xmm0[1,0] vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3] vbroadcastss 0x7c463(%rip), %xmm3 # 0x1f20ec0 vxorps %xmm3, %xmm2, %xmm2 vxorps %xmm4, %xmm4, %xmm4 vunpckhps %xmm4, %xmm0, %xmm5 # xmm5 = xmm0[2],xmm4[2],xmm0[3],xmm4[3] vmovss %xmm2, %xmm4, %xmm2 # xmm2 = xmm2[0],xmm4[1,2,3] vshufps $0x41, %xmm2, %xmm5, %xmm2 # xmm2 = xmm5[1,0],xmm2[0,1] vdpps $0x7f, %xmm2, %xmm2, %xmm5 vxorpd %xmm3, %xmm1, %xmm1 vinsertps $0x2a, %xmm0, %xmm1, %xmm1 # xmm1 = xmm1[0],zero,xmm0[0],zero vdpps $0x7f, %xmm1, %xmm1, %xmm3 vcmpltps %xmm5, %xmm3, %k0 vpmovm2d %k0, %xmm3 vpbroadcastd %xmm3, %xmm3 vpmovd2m %xmm3, %k1 vpcmpeqd %xmm3, %xmm3, %xmm3 vmovaps %xmm3, %xmm3 {%k1} {z} vblendvps %xmm3, %xmm2, %xmm1, %xmm1 vdpps $0x7f, %xmm1, %xmm1, %xmm2 vmovss %xmm2, %xmm4, %xmm3 # xmm3 = xmm2[0],xmm4[1,2,3] vrsqrt14ss %xmm3, %xmm4, %xmm3 vmovss 0x47c50(%rip), %xmm5 # 0x1eec718 vmulss %xmm5, %xmm3, %xmm6 vmovss 0x480ac(%rip), %xmm7 # 0x1eecb80 vmulss %xmm7, %xmm2, %xmm2 vmulss %xmm3, %xmm2, %xmm2 vmulss %xmm3, %xmm3, %xmm3 vmulss %xmm3, %xmm2, %xmm2 vsubss %xmm2, %xmm6, %xmm2 vbroadcastss %xmm2, %xmm2 vmulps %xmm2, %xmm1, %xmm2 vshufps $0xc9, %xmm2, %xmm2, %xmm1 # xmm1 = xmm2[1,2,0,3] vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3] vmulps %xmm3, %xmm2, %xmm3 vfmsub231ps %xmm1, %xmm0, %xmm3 # xmm3 = (xmm0 * xmm1) - xmm3 vshufps $0xc9, %xmm3, %xmm3, %xmm1 # xmm1 = xmm3[1,2,0,3] vdpps $0x7f, %xmm1, %xmm1, %xmm3 vmovss %xmm3, %xmm4, %xmm6 # xmm6 = xmm3[0],xmm4[1,2,3] vrsqrt14ss %xmm6, %xmm4, %xmm4 vmulss %xmm5, %xmm4, %xmm5 vmulss %xmm7, %xmm3, %xmm3 vmulss %xmm4, %xmm3, %xmm3 vmulss %xmm4, %xmm4, %xmm4 vmulss %xmm4, %xmm3, %xmm3 vsubss %xmm3, %xmm5, %xmm3 vbroadcastss %xmm3, %xmm3 vmulps %xmm1, %xmm3, %xmm1 vmovaps %xmm2, (%rax) vmovaps %xmm1, 0x10(%rax) vmovaps %xmm0, 0x20(%rax) retq nop
/embree[P]embree/kernels/common/scene_curves.cpp
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)0, embree::avx512::CurveGeometryInterface, embree::CatmullRomCurveT>::computeAlignedSpaceMB(unsigned long, embree::BBox<float>) const
LinearSpace3fa computeAlignedSpaceMB(const size_t primID, const BBox1f time_range) const { Vec3fa axisz(0,0,1); Vec3fa axisy(0,1,0); const range<int> tbounds = this->timeSegmentRange(time_range); if (tbounds.size() == 0) return frame(axisz); const size_t t = (tbounds.begin()+tbounds.end())/2; const Curve3ff curve = getCurveScaledRadius(primID,t); const Vec3fa p0 = curve.begin(); const Vec3fa p3 = curve.end(); const Vec3fa d0 = curve.eval_du(0.0f); //const Vec3fa d1 = curve.eval_du(1.0f); const Vec3fa axisz_ = normalize(p3 - p0); const Vec3fa axisy_ = cross(axisz_,d0); if (sqr_length(p3-p0) > 1E-18f) { axisz = axisz_; axisy = axisy_; } if (sqr_length(axisy) > 1E-18) { axisy = normalize(axisy); Vec3fa axisx = normalize(cross(axisy,axisz)); return LinearSpace3fa(axisx,axisy,axisz); } return frame(axisz); }
movq %rdi, %rax vmovsd 0x2c(%rsi), %xmm1 vmovss 0x28(%rsi), %xmm2 vsubss %xmm1, %xmm0, %xmm3 vmovshdup %xmm1, %xmm4 # xmm4 = xmm1[1,1,3,3] vsubss %xmm1, %xmm4, %xmm4 vdivss %xmm4, %xmm3, %xmm3 vmovshdup %xmm0, %xmm0 # xmm0 = xmm0[1,1,3,3] vsubss %xmm1, %xmm0, %xmm0 vdivss %xmm4, %xmm0, %xmm0 vmulss 0x4bdc5(%rip), %xmm3, %xmm1 # 0x1ef0940 vmulss %xmm1, %xmm2, %xmm1 vroundss $0x9, %xmm1, %xmm1, %xmm1 vxorps %xmm3, %xmm3, %xmm3 vmaxss %xmm1, %xmm3, %xmm1 vcvttss2si %xmm1, %ecx vmulss 0x4bdab(%rip), %xmm0, %xmm0 # 0x1ef0944 vmulss %xmm0, %xmm2, %xmm0 vroundss $0xa, %xmm0, %xmm0, %xmm0 vminss %xmm2, %xmm0, %xmm0 vcvttss2si %xmm0, %edi cmpl %ecx, %edi jne 0x1ea4c91 vmovaps 0x7c925(%rip), %xmm0 # 0x1f214e0 vdpps $0x7f, %xmm0, %xmm0, %xmm1 vmovss 0x4be03(%rip), %xmm2 # 0x1ef09cc vdpps $0x7f, %xmm2, %xmm2, %xmm3 vcmpltps %xmm1, %xmm3, %k0 vpmovm2d %k0, %xmm1 vpbroadcastd %xmm1, %xmm1 vpmovd2m %xmm1, %k1 vpcmpeqd %xmm1, %xmm1, %xmm1 vmovaps %xmm1, %xmm1 {%k1} {z} vblendvps %xmm1, %xmm0, %xmm2, %xmm0 vxorps %xmm2, %xmm2, %xmm2 vdpps $0x7f, %xmm0, %xmm0, %xmm1 vmovss %xmm1, %xmm2, %xmm3 # xmm3 = xmm1[0],xmm2[1,2,3] vrsqrt14ss %xmm3, %xmm2, %xmm3 vmovss 0x47b05(%rip), %xmm4 # 0x1eec718 vmulss %xmm4, %xmm3, %xmm5 vmovss 0x47f61(%rip), %xmm6 # 0x1eecb80 vmulss %xmm6, %xmm1, %xmm1 vmulss %xmm3, %xmm1, %xmm1 vmulss %xmm3, %xmm3, %xmm3 vmulss %xmm3, %xmm1, %xmm1 vsubss %xmm1, %xmm5, %xmm1 vbroadcastss %xmm1, %xmm1 vmulps %xmm1, %xmm0, %xmm1 vshufps $0xc9, %xmm1, %xmm1, %xmm3 # xmm3 = xmm1[1,2,0,3] vmulps 0x4c327(%rip), %xmm1, %xmm5 # 0x1ef0f70 vmovaps 0x47aaf(%rip), %xmm0 # 0x1eec700 vfmadd231ps %xmm3, %xmm0, %xmm5 # xmm5 = (xmm0 * xmm3) + xmm5 vshufps $0xc9, %xmm5, %xmm5, %xmm3 # xmm3 = xmm5[1,2,0,3] vdpps $0x7f, %xmm3, %xmm3, %xmm5 vmovss %xmm5, %xmm2, %xmm7 # xmm7 = xmm5[0],xmm2[1,2,3] vrsqrt14ss %xmm7, %xmm2, %xmm2 vmulss %xmm4, %xmm2, %xmm4 vmulss %xmm6, %xmm5, %xmm5 vmulss %xmm2, %xmm5, %xmm5 vmulss %xmm2, %xmm2, %xmm2 vmulss %xmm2, %xmm5, %xmm2 vsubss %xmm2, %xmm4, %xmm2 vbroadcastss %xmm2, %xmm2 vmulps %xmm3, %xmm2, %xmm2 jmp 0x1ea4f53 addl %edi, %ecx movl %ecx, %edi shrl $0x1f, %edi addl %ecx, %edi sarl %edi movslq %edi, %rcx imulq 0x68(%rsi), %rdx movq 0x58(%rsi), %rdi movq 0x188(%rsi), %r8 movl (%rdi,%rdx), %edi imulq $0x38, %rcx, %rdx movq (%r8,%rdx), %rcx movq 0x10(%r8,%rdx), %r8 leal 0x1(%rdi), %r9d leal 0x2(%rdi), %r10d leal 0x3(%rdi), %edx imulq %r8, %r9 vmovaps (%rcx,%r9), %xmm0 imulq %r8, %r10 vmovaps (%rcx,%r10), %xmm2 imulq %r8, %rdi imulq %r8, %rdx vmovss 0x24c(%rsi), %xmm4 vmulss 0xc(%rcx,%r9), %xmm4, %xmm1 vinsertps $0x30, %xmm1, %xmm0, %xmm1 # xmm1 = xmm0[0,1,2],xmm1[0] vmulss 0xc(%rcx,%r10), %xmm4, %xmm0 vinsertps $0x30, %xmm0, %xmm2, %xmm2 # xmm2 = xmm2[0,1,2],xmm0[0] vxorps %xmm3, %xmm3, %xmm3 vsubps %xmm1, %xmm2, %xmm0 vdpps $0x7f, %xmm0, %xmm0, %xmm5 vmovss %xmm5, %xmm3, %xmm6 # xmm6 = xmm5[0],xmm3[1,2,3] vrsqrt14ss %xmm6, %xmm3, %xmm6 vmulss 0x479f0(%rip), %xmm6, %xmm7 # 0x1eec718 vmulss 0x479ec(%rip), %xmm5, %xmm8 # 0x1eec71c vmulss %xmm6, %xmm8, %xmm8 vmulss %xmm6, %xmm6, %xmm6 vmulss %xmm6, %xmm8, %xmm6 vaddss %xmm6, %xmm7, %xmm6 vbroadcastss %xmm6, %xmm6 vmulps %xmm6, %xmm0, %xmm0 vucomiss 0x4c297(%rip), %xmm5 # 0x1ef0fe8 ja 0x1ea4d5f vmovsd 0x47995(%rip), %xmm1 # 0x1eec6f0 jbe 0x1ea4db7 jmp 0x1ea4dbf vmovaps (%rcx,%rdi), %xmm5 vmovaps (%rcx,%rdx), %xmm6 vmulss 0xc(%rcx,%rdi), %xmm4, %xmm7 vinsertps $0x30, %xmm7, %xmm5, %xmm5 # xmm5 = xmm5[0,1,2],xmm7[0] vmulss 0xc(%rcx,%rdx), %xmm4, %xmm4 vinsertps $0x30, %xmm4, %xmm6, %xmm4 # xmm4 = xmm6[0,1,2],xmm4[0] vmulps %xmm3, %xmm4, %xmm4 vbroadcastss 0x4798e(%rip), %xmm6 # 0x1eec71c vfnmadd213ps %xmm4, %xmm6, %xmm2 # xmm2 = -(xmm6 * xmm2) + xmm4 vfmadd213ps %xmm2, %xmm3, %xmm1 # xmm1 = (xmm3 * xmm1) + xmm2 vfmadd231ps %xmm5, %xmm6, %xmm1 # xmm1 = (xmm6 * xmm5) + xmm1 vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3] vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3] vmulps %xmm3, %xmm1, %xmm1 vfmsub231ps %xmm2, %xmm0, %xmm1 # xmm1 = (xmm0 * xmm2) - xmm1 vshufps $0xc9, %xmm1, %xmm1, %xmm1 # xmm1 = xmm1[1,2,0,3] ja 0x1ea4dbf vmovaps 0x47941(%rip), %xmm0 # 0x1eec700 vdpps $0x7f, %xmm1, %xmm1, %xmm2 vcvtss2sd %xmm2, %xmm2, %xmm3 vucomisd 0x4c23f(%rip), %xmm3 # 0x1ef1010 jbe 0x1ea4e64 vxorps %xmm3, %xmm3, %xmm3 vmovss %xmm2, %xmm3, %xmm4 # xmm4 = xmm2[0],xmm3[1,2,3] vrsqrt14ss %xmm4, %xmm3, %xmm4 vmovss 0x4792b(%rip), %xmm5 # 0x1eec718 vmulss %xmm5, %xmm4, %xmm6 vmovss 0x47d87(%rip), %xmm7 # 0x1eecb80 vmulss %xmm7, %xmm2, %xmm2 vmulss %xmm4, %xmm2, %xmm2 vmulss %xmm4, %xmm4, %xmm4 vmulss %xmm4, %xmm2, %xmm2 vsubss %xmm2, %xmm6, %xmm2 vbroadcastss %xmm2, %xmm2 vmulps %xmm2, %xmm1, %xmm2 vshufps $0xc9, %xmm0, %xmm0, %xmm1 # xmm1 = xmm0[1,2,0,3] vshufps $0xc9, %xmm2, %xmm2, %xmm4 # xmm4 = xmm2[1,2,0,3] vmulps %xmm4, %xmm0, %xmm4 vfmsub231ps %xmm1, %xmm2, %xmm4 # xmm4 = (xmm2 * xmm1) - xmm4 vshufps $0xc9, %xmm4, %xmm4, %xmm1 # xmm1 = xmm4[1,2,0,3] vdpps $0x7f, %xmm1, %xmm1, %xmm4 vmovss %xmm4, %xmm3, %xmm6 # xmm6 = xmm4[0],xmm3[1,2,3] vrsqrt14ss %xmm6, %xmm3, %xmm3 vmulss %xmm5, %xmm3, %xmm5 vmulss %xmm7, %xmm4, %xmm4 vmulss %xmm3, %xmm4, %xmm4 vmulss %xmm3, %xmm3, %xmm3 vmulss %xmm3, %xmm4, %xmm3 vsubss %xmm3, %xmm5, %xmm3 vbroadcastss %xmm3, %xmm3 vmulps %xmm1, %xmm3, %xmm1 jmp 0x1ea4f53 vshufpd $0x1, %xmm0, %xmm0, %xmm1 # xmm1 = xmm0[1,0] vmovshdup %xmm0, %xmm2 # xmm2 = xmm0[1,1,3,3] vbroadcastss 0x7c04a(%rip), %xmm3 # 0x1f20ec0 vxorps %xmm3, %xmm2, %xmm2 vxorps %xmm4, %xmm4, %xmm4 vunpckhps %xmm4, %xmm0, %xmm5 # xmm5 = xmm0[2],xmm4[2],xmm0[3],xmm4[3] vmovss %xmm2, %xmm4, %xmm2 # xmm2 = xmm2[0],xmm4[1,2,3] vshufps $0x41, %xmm2, %xmm5, %xmm2 # xmm2 = xmm5[1,0],xmm2[0,1] vdpps $0x7f, %xmm2, %xmm2, %xmm5 vxorpd %xmm3, %xmm1, %xmm1 vinsertps $0x2a, %xmm0, %xmm1, %xmm1 # xmm1 = xmm1[0],zero,xmm0[0],zero vdpps $0x7f, %xmm1, %xmm1, %xmm3 vcmpltps %xmm5, %xmm3, %k0 vpmovm2d %k0, %xmm3 vpbroadcastd %xmm3, %xmm3 vpmovd2m %xmm3, %k1 vpcmpeqd %xmm3, %xmm3, %xmm3 vmovaps %xmm3, %xmm3 {%k1} {z} vblendvps %xmm3, %xmm2, %xmm1, %xmm1 vdpps $0x7f, %xmm1, %xmm1, %xmm2 vmovss %xmm2, %xmm4, %xmm3 # xmm3 = xmm2[0],xmm4[1,2,3] vrsqrt14ss %xmm3, %xmm4, %xmm3 vmovss 0x47837(%rip), %xmm5 # 0x1eec718 vmulss %xmm5, %xmm3, %xmm6 vmovss 0x47c93(%rip), %xmm7 # 0x1eecb80 vmulss %xmm7, %xmm2, %xmm2 vmulss %xmm3, %xmm2, %xmm2 vmulss %xmm3, %xmm3, %xmm3 vmulss %xmm3, %xmm2, %xmm2 vsubss %xmm2, %xmm6, %xmm2 vbroadcastss %xmm2, %xmm2 vmulps %xmm2, %xmm1, %xmm1 vshufps $0xc9, %xmm1, %xmm1, %xmm2 # xmm2 = xmm1[1,2,0,3] vshufps $0xc9, %xmm0, %xmm0, %xmm3 # xmm3 = xmm0[1,2,0,3] vmulps %xmm3, %xmm1, %xmm3 vfmsub231ps %xmm2, %xmm0, %xmm3 # xmm3 = (xmm0 * xmm2) - xmm3 vshufps $0xc9, %xmm3, %xmm3, %xmm2 # xmm2 = xmm3[1,2,0,3] vdpps $0x7f, %xmm2, %xmm2, %xmm3 vmovss %xmm3, %xmm4, %xmm6 # xmm6 = xmm3[0],xmm4[1,2,3] vrsqrt14ss %xmm6, %xmm4, %xmm4 vmulss %xmm5, %xmm4, %xmm5 vmulss %xmm7, %xmm3, %xmm3 vmulss %xmm4, %xmm3, %xmm3 vmulss %xmm4, %xmm4, %xmm4 vmulss %xmm4, %xmm3, %xmm3 vsubss %xmm3, %xmm5, %xmm3 vbroadcastss %xmm3, %xmm3 vmulps %xmm2, %xmm3, %xmm2 vmovaps %xmm1, (%rax) vmovaps %xmm2, 0x10(%rax) vmovaps %xmm0, 0x20(%rax) retq
/embree[P]embree/kernels/common/scene_curves.cpp
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)0, embree::avx512::CurveGeometryInterface, embree::CatmullRomCurveT>::computeDirection(unsigned int) const
Vec3fa computeDirection(unsigned int primID) const { const Curve3ff c = getCurveScaledRadius(primID); const Vec3fa p0 = c.begin(); const Vec3fa p3 = c.end(); const Vec3fa axis1 = p3 - p0; return axis1; }
movl %edx, %eax imulq 0x68(%rsi), %rax movq 0x58(%rsi), %rcx movq 0x188(%rsi), %rdx movl (%rcx,%rax), %ecx movq (%rdx), %r8 movq 0x10(%rdx), %rax leal 0x1(%rcx), %edx imulq %rax, %rdx vmovaps (%r8,%rdx), %xmm0 addl $0x2, %ecx imulq %rax, %rcx vmovaps (%r8,%rcx), %xmm1 movq %rdi, %rax vmovss 0x24c(%rsi), %xmm2 vmulss 0xc(%r8,%rdx), %xmm2, %xmm3 vinsertps $0x30, %xmm3, %xmm0, %xmm0 # xmm0 = xmm0[0,1,2],xmm3[0] vmulss 0xc(%r8,%rcx), %xmm2, %xmm2 vinsertps $0x30, %xmm2, %xmm1, %xmm1 # xmm1 = xmm1[0,1,2],xmm2[0] vsubps %xmm0, %xmm1, %xmm0 vmovaps %xmm0, (%rdi) retq
/embree[P]embree/kernels/common/scene_curves.cpp
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)0, embree::avx512::CurveGeometryInterface, embree::CatmullRomCurveT>::computeDirection(unsigned int, unsigned long) const
Vec3fa computeDirection(unsigned int primID, size_t time) const { const Curve3ff c = getCurveScaledRadius(primID,time); const Vec3fa p0 = c.begin(); const Vec3fa p3 = c.end(); const Vec3fa axis1 = p3 - p0; return axis1; }
movl %edx, %eax imulq 0x68(%rsi), %rax movq 0x58(%rsi), %rdx movq 0x188(%rsi), %r8 movl (%rdx,%rax), %edx imulq $0x38, %rcx, %rax movq (%r8,%rax), %rcx movq 0x10(%r8,%rax), %rax leal 0x1(%rdx), %r8d imulq %rax, %r8 vmovaps (%rcx,%r8), %xmm0 addl $0x2, %edx imulq %rax, %rdx vmovaps (%rcx,%rdx), %xmm1 movq %rdi, %rax vmovss 0x24c(%rsi), %xmm2 vmulss 0xc(%rcx,%r8), %xmm2, %xmm3 vinsertps $0x30, %xmm3, %xmm0, %xmm0 # xmm0 = xmm0[0,1,2],xmm3[0] vmulss 0xc(%rcx,%rdx), %xmm2, %xmm2 vinsertps $0x30, %xmm2, %xmm1, %xmm1 # xmm1 = xmm1[0,1,2],xmm2[0] vsubps %xmm0, %xmm1, %xmm0 vmovaps %xmm0, (%rdi) retq nop
/embree[P]embree/kernels/common/scene_curves.cpp
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)0, embree::avx512::CurveGeometryInterface, embree::CatmullRomCurveT>::vbounds(unsigned long) const
BBox3fa vbounds(size_t i) const { return bounds(i); }
movq %rdi, %rax imulq 0x68(%rsi), %rdx movq 0x58(%rsi), %rcx movq 0x188(%rsi), %rdi movl (%rcx,%rdx), %edx movq (%rdi), %rcx movq 0x10(%rdi), %rdi leal 0x1(%rdx), %r8d leal 0x2(%rdx), %r9d leal 0x3(%rdx), %r10d imulq %rdi, %rdx vmovaps (%rcx,%rdx), %xmm3 imulq %rdi, %r8 vmovaps (%rcx,%r8), %xmm7 imulq %rdi, %r9 vmovaps (%rcx,%r9), %xmm11 imulq %rdi, %r10 vmovaps (%rcx,%r10), %xmm15 vmovss 0x24c(%rsi), %xmm0 vmulss 0xc(%rcx,%rdx), %xmm0, %xmm4 vmulss 0xc(%rcx,%r8), %xmm0, %xmm8 vmulss 0xc(%rcx,%r9), %xmm0, %xmm12 vmulss 0xc(%rcx,%r10), %xmm0, %xmm16 movl 0x248(%rsi), %ecx cmpq $0x4, %rcx jne 0x1ea52a5 vbroadcastss %xmm12, %xmm0 vblendps $0x8, %xmm0, %xmm11, %xmm1 # xmm1 = xmm11[0,1,2],xmm0[3] leaq 0x28b2a6(%rip), %rcx # 0x213036c vmovups 0x110(%rcx), %xmm2 vbroadcastss %xmm3, %xmm5 vshufps $0x55, %xmm3, %xmm3, %xmm6 # xmm6 = xmm3[1,1,1,1] vshufps $0xaa, %xmm3, %xmm3, %xmm3 # xmm3 = xmm3[2,2,2,2] vbroadcastss %xmm4, %xmm4 vmovups 0x594(%rcx), %xmm9 vbroadcastss %xmm7, %xmm10 vshufps $0x55, %xmm7, %xmm7, %xmm12 # xmm12 = xmm7[1,1,1,1] vshufps $0xaa, %xmm7, %xmm7, %xmm7 # xmm7 = xmm7[2,2,2,2] vbroadcastss %xmm8, %xmm8 vmovups 0xa18(%rcx), %xmm13 vbroadcastss %xmm11, %xmm14 vshufps $0x55, %xmm11, %xmm11, %xmm17 # xmm17 = xmm11[1,1,1,1] vmovups 0xe9c(%rcx), %xmm18 vshufps $0xaa, %xmm11, %xmm11, %xmm11 # xmm11 = xmm11[2,2,2,2] vbroadcastss %xmm15, %xmm19 vshufps $0x55, %xmm15, %xmm15, %xmm20 # xmm20 = xmm15[1,1,1,1] vshufps $0xaa, %xmm15, %xmm15, %xmm15 # xmm15 = xmm15[2,2,2,2] vbroadcastss %xmm16, %xmm16 vmulps %xmm18, %xmm19, %xmm19 vmulps %xmm18, %xmm20, %xmm20 vmulps %xmm18, %xmm15, %xmm15 vmulps %xmm18, %xmm16, %xmm16 vfmadd231ps %xmm14, %xmm13, %xmm19 # xmm19 = (xmm13 * xmm14) + xmm19 vfmadd231ps %xmm17, %xmm13, %xmm20 # xmm20 = (xmm13 * xmm17) + xmm20 vfmadd231ps %xmm11, %xmm13, %xmm15 # xmm15 = (xmm13 * xmm11) + xmm15 vfmadd231ps %xmm13, %xmm0, %xmm16 # xmm16 = (xmm0 * xmm13) + xmm16 vfmadd231ps %xmm10, %xmm9, %xmm19 # xmm19 = (xmm9 * xmm10) + xmm19 vfmadd231ps %xmm12, %xmm9, %xmm20 # xmm20 = (xmm9 * xmm12) + xmm20 vfmadd231ps %xmm7, %xmm9, %xmm15 # xmm15 = (xmm9 * xmm7) + xmm15 vfmadd231ps %xmm8, %xmm9, %xmm16 # xmm16 = (xmm9 * xmm8) + xmm16 vfmadd231ps %xmm5, %xmm2, %xmm19 # xmm19 = (xmm2 * xmm5) + xmm19 vfmadd231ps %xmm6, %xmm2, %xmm20 # xmm20 = (xmm2 * xmm6) + xmm20 vfmadd231ps %xmm3, %xmm2, %xmm15 # xmm15 = (xmm2 * xmm3) + xmm15 vfmadd231ps %xmm4, %xmm2, %xmm16 # xmm16 = (xmm2 * xmm4) + xmm16 vshufps $0xb1, %xmm19, %xmm19, %xmm2 # xmm2 = xmm19[1,0,3,2] vminps %xmm19, %xmm2, %xmm3 vshufpd $0x1, %xmm3, %xmm3, %xmm4 # xmm4 = xmm3[1,0] vminps %xmm3, %xmm4, %xmm3 vshufps $0xb1, %xmm20, %xmm20, %xmm4 # xmm4 = xmm20[1,0,3,2] vminps %xmm20, %xmm4, %xmm5 vshufpd $0x1, %xmm5, %xmm5, %xmm6 # xmm6 = xmm5[1,0] vminps %xmm5, %xmm6, %xmm5 vinsertps $0x1c, %xmm5, %xmm3, %xmm3 # xmm3 = xmm3[0],xmm5[0],zero,zero vshufps $0xb1, %xmm15, %xmm15, %xmm5 # xmm5 = xmm15[1,0,3,2] vminps %xmm15, %xmm5, %xmm6 vshufpd $0x1, %xmm6, %xmm6, %xmm7 # xmm7 = xmm6[1,0] vminps %xmm6, %xmm7, %xmm6 vinsertps $0x20, %xmm6, %xmm3, %xmm3 # xmm3 = xmm3[0,1],xmm6[0],xmm3[3] vmaxps %xmm19, %xmm2, %xmm2 vshufpd $0x1, %xmm2, %xmm2, %xmm6 # xmm6 = xmm2[1,0] vmaxps %xmm2, %xmm6, %xmm2 vmaxps %xmm20, %xmm4, %xmm4 vshufpd $0x1, %xmm4, %xmm4, %xmm6 # xmm6 = xmm4[1,0] vmaxps %xmm4, %xmm6, %xmm4 vinsertps $0x1c, %xmm4, %xmm2, %xmm2 # xmm2 = xmm2[0],xmm4[0],zero,zero vmaxps %xmm15, %xmm5, %xmm4 vshufpd $0x1, %xmm4, %xmm4, %xmm5 # xmm5 = xmm4[1,0] vmaxps %xmm4, %xmm5, %xmm4 vinsertps $0x20, %xmm4, %xmm2, %xmm2 # xmm2 = xmm2[0,1],xmm4[0],xmm2[3] vandps 0x7bc9e(%rip){1to4}, %xmm16, %xmm4 # 0x1f20ec4 vprolq $0x20, %xmm4, %xmm5 vmaxps %xmm4, %xmm5, %xmm4 vbroadcastss %xmm4, %xmm5 vshufps $0xaa, %xmm4, %xmm4, %xmm4 # xmm4 = xmm4[2,2,2,2] vmaxps %xmm5, %xmm4, %xmm4 vminps %xmm1, %xmm3, %xmm3 vmaxps %xmm1, %xmm2, %xmm1 vandps 0x7bc73(%rip){1to4}, %xmm0, %xmm0 # 0x1f20ec4 vmaxps %xmm0, %xmm4, %xmm2 vsubps %xmm2, %xmm3, %xmm0 vaddps %xmm2, %xmm1, %xmm1 vbroadcastss 0x7bc5e(%rip), %xmm2 # 0x1f20ec4 vandps %xmm2, %xmm0, %xmm3 vandps %xmm2, %xmm1, %xmm2 vmaxps %xmm2, %xmm3, %xmm2 vmovshdup %xmm2, %xmm3 # xmm3 = xmm2[1,1,3,3] vmaxss %xmm2, %xmm3, %xmm3 vshufpd $0x1, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[1,0] vmaxss %xmm3, %xmm2, %xmm2 vmulss 0x4bd59(%rip), %xmm2, %xmm2 # 0x1ef0fe4 vbroadcastss %xmm2, %xmm2 vsubps %xmm2, %xmm0, %xmm0 vaddps %xmm2, %xmm1, %xmm1 vmovaps %xmm0, (%rax) vmovaps %xmm1, 0x10(%rax) vzeroupper retq testl %ecx, %ecx js 0x1ea54ac vpbroadcastd %ecx, %ymm0 vmovdqu %ymm0, -0x28(%rsp) vbroadcastss %xmm3, %ymm0 vmovups %ymm0, -0x48(%rsp) vbroadcastss 0x6d437(%rip), %ymm14 # 0x1f12704 vpermps %ymm3, %ymm14, %ymm2 vbroadcastss 0x7bc00(%rip), %ymm17 # 0x1f20edc vpermps %ymm3, %ymm17, %ymm3 vbroadcastss %xmm4, %ymm4 vbroadcastss %xmm7, %ymm5 vpermps %ymm7, %ymm14, %ymm6 vpermps %ymm7, %ymm17, %ymm7 vbroadcastss %xmm8, %ymm8 vbroadcastss %xmm11, %ymm9 vpermps %ymm11, %ymm14, %ymm10 vpermps %ymm11, %ymm17, %ymm11 vbroadcastss %xmm12, %ymm12 vbroadcastss %xmm15, %ymm13 vpermps %ymm15, %ymm14, %ymm14 vpermps %ymm15, %ymm17, %ymm15 vbroadcastss %xmm16, %ymm16 movq %rcx, %rdx shlq $0x6, %rdx leaq (%rdx,%rcx,4), %rdx addq 0x27fb9f(%rip), %rdx # 0x2124ed8 vbroadcastss 0x47841(%rip), %ymm20 # 0x1eecb84 vbroadcastss 0x466d3(%rip), %ymm17 # 0x1eeba20 vxorps %xmm21, %xmm21, %xmm21 xorl %esi, %esi vmovaps %ymm17, %ymm22 vmovaps %ymm17, %ymm29 vmovaps %ymm20, %ymm26 vmovaps %ymm20, %ymm28 vpbroadcastd %esi, %ymm19 vpord 0xb55a3(%rip), %ymm19, %ymm19 # 0x1f5a920 vmovups (%rdx,%rsi,4), %ymm23 vmovups 0x484(%rdx,%rsi,4), %ymm24 vmovups 0x908(%rdx,%rsi,4), %ymm25 vpcmpgtd -0x28(%rsp), %ymm19, %k1 vmovups 0xd8c(%rdx,%rsi,4), %ymm19 vmulps %ymm19, %ymm13, %ymm18 vmulps %ymm19, %ymm14, %ymm0 vmulps %ymm19, %ymm15, %ymm1 vmulps %ymm19, %ymm16, %ymm19 vfmadd231ps %ymm9, %ymm25, %ymm18 # ymm18 = (ymm25 * ymm9) + ymm18 vfmadd231ps %ymm10, %ymm25, %ymm0 # ymm0 = (ymm25 * ymm10) + ymm0 vfmadd231ps %ymm11, %ymm25, %ymm1 # ymm1 = (ymm25 * ymm11) + ymm1 vfmadd231ps %ymm25, %ymm12, %ymm19 # ymm19 = (ymm12 * ymm25) + ymm19 vfmadd231ps %ymm5, %ymm24, %ymm18 # ymm18 = (ymm24 * ymm5) + ymm18 vfmadd231ps %ymm6, %ymm24, %ymm0 # ymm0 = (ymm24 * ymm6) + ymm0 vfmadd231ps %ymm7, %ymm24, %ymm1 # ymm1 = (ymm24 * ymm7) + ymm1 vfmadd231ps %ymm24, %ymm8, %ymm19 # ymm19 = (ymm8 * ymm24) + ymm19 vfmadd231ps -0x48(%rsp), %ymm23, %ymm18 # ymm18 = (ymm23 * mem) + ymm18 vfmadd231ps %ymm2, %ymm23, %ymm0 # ymm0 = (ymm23 * ymm2) + ymm0 vfmadd231ps %ymm3, %ymm23, %ymm1 # ymm1 = (ymm23 * ymm3) + ymm1 vfmadd231ps %ymm23, %ymm4, %ymm19 # ymm19 = (ymm4 * ymm23) + ymm19 vandps 0x7baa5(%rip){1to8}, %ymm19, %ymm19 # 0x1f20ec4 vminps %ymm18, %ymm29, %ymm30 vmovaps %ymm29, %ymm30 {%k1} vminps %ymm0, %ymm22, %ymm27 vmovaps %ymm22, %ymm27 {%k1} vminps %ymm1, %ymm17, %ymm31 vmovaps %ymm17, %ymm31 {%k1} vmaxps %ymm18, %ymm28, %ymm24 vmovaps %ymm28, %ymm24 {%k1} vmaxps %ymm0, %ymm26, %ymm25 vmovaps %ymm26, %ymm25 {%k1} vmaxps %ymm1, %ymm20, %ymm23 vmovaps %ymm20, %ymm23 {%k1} vmaxps %ymm19, %ymm21, %ymm19 vmovaps %ymm21, %ymm19 {%k1} addq $0x8, %rsi vmovaps %ymm31, %ymm17 vmovaps %ymm27, %ymm22 vmovaps %ymm30, %ymm29 vmovaps %ymm23, %ymm20 vmovaps %ymm25, %ymm26 vmovaps %ymm24, %ymm28 vmovaps %ymm19, %ymm21 cmpq %rcx, %rsi jbe 0x1ea536d jmp 0x1ea54de vbroadcastss 0x4656a(%rip), %ymm30 # 0x1eeba20 vbroadcastss 0x476c4(%rip), %ymm24 # 0x1eecb84 vxorps %xmm19, %xmm19, %xmm19 vmovaps %ymm24, %ymm25 vmovaps %ymm24, %ymm23 vmovaps %ymm30, %ymm27 vmovaps %ymm30, %ymm31 vshufps $0xb1, %ymm30, %ymm30, %ymm0 # ymm0 = ymm30[1,0,3,2,5,4,7,6] vminps %ymm0, %ymm30, %ymm0 vshufpd $0x5, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2] vminps %ymm1, %ymm0, %ymm0 vextractf128 $0x1, %ymm0, %xmm1 vminps %xmm1, %xmm0, %xmm0 vshufps $0xb1, %ymm27, %ymm27, %ymm1 # ymm1 = ymm27[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm27, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vextractf128 $0x1, %ymm1, %xmm2 vminps %xmm2, %xmm1, %xmm1 vunpcklps %xmm1, %xmm0, %xmm0 # xmm0 = xmm0[0],xmm1[0],xmm0[1],xmm1[1] vshufps $0xb1, %ymm31, %ymm31, %ymm1 # ymm1 = ymm31[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm31, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vextractf128 $0x1, %ymm1, %xmm2 vminps %xmm2, %xmm1, %xmm1 vinsertps $0x28, %xmm1, %xmm0, %xmm0 # xmm0 = xmm0[0,1],xmm1[0],zero vshufps $0xb1, %ymm24, %ymm24, %ymm1 # ymm1 = ymm24[1,0,3,2,5,4,7,6] vmaxps %ymm1, %ymm24, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vmaxps %ymm2, %ymm1, %ymm1 vextractf128 $0x1, %ymm1, %xmm2 vmaxps %xmm2, %xmm1, %xmm1 vshufps $0xb1, %ymm25, %ymm25, %ymm2 # ymm2 = ymm25[1,0,3,2,5,4,7,6] vmaxps %ymm2, %ymm25, %ymm2 vshufpd $0x5, %ymm2, %ymm2, %ymm3 # ymm3 = ymm2[1,0,3,2] vmaxps %ymm3, %ymm2, %ymm2 vextractf128 $0x1, %ymm2, %xmm3 vmaxps %xmm3, %xmm2, %xmm2 vunpcklps %xmm2, %xmm1, %xmm1 # xmm1 = xmm1[0],xmm2[0],xmm1[1],xmm2[1] vshufps $0xb1, %ymm23, %ymm23, %ymm2 # ymm2 = ymm23[1,0,3,2,5,4,7,6] vmaxps %ymm2, %ymm23, %ymm2 vshufpd $0x5, %ymm2, %ymm2, %ymm3 # ymm3 = ymm2[1,0,3,2] vmaxps %ymm3, %ymm2, %ymm2 vextractf128 $0x1, %ymm2, %xmm3 vmaxps %xmm3, %xmm2, %xmm2 vinsertps $0x28, %xmm2, %xmm1, %xmm1 # xmm1 = xmm1[0,1],xmm2[0],zero vshufps $0xb1, %ymm19, %ymm19, %ymm2 # ymm2 = ymm19[1,0,3,2,5,4,7,6] vmaxps %ymm2, %ymm19, %ymm2 vshufpd $0x5, %ymm2, %ymm2, %ymm3 # ymm3 = ymm2[1,0,3,2] vmaxps %ymm3, %ymm2, %ymm2 vextractf128 $0x1, %ymm2, %xmm3 vmaxps %xmm3, %xmm2, %xmm2 vbroadcastss %xmm2, %xmm2 vsubps %xmm2, %xmm0, %xmm0 jmp 0x1ea5259
/embree[P]embree/kernels/common/scene_curves.cpp
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)0, embree::avx512::CurveGeometryInterface, embree::CatmullRomCurveT>::vbounds(embree::LinearSpace3<embree::Vec3fa> const&, unsigned long) const
BBox3fa vbounds(const LinearSpace3fa& space, size_t i) const { return bounds(space,i); }
movq %rdi, %rax imulq 0x68(%rsi), %rcx movq 0x58(%rsi), %rdi movq 0x188(%rsi), %r8 movl (%rdi,%rcx), %r10d movq (%r8), %rcx movq 0x10(%r8), %r11 leal 0x1(%r10), %r9d leal 0x2(%r10), %r8d leal 0x3(%r10), %edi imulq %r11, %r10 imulq %r11, %r9 imulq %r11, %r8 imulq %r11, %rdi vmovaps (%rdx), %xmm0 vmovaps 0x10(%rdx), %xmm1 vmovaps 0x20(%rdx), %xmm2 vmulps 0x8(%rcx,%r10){1to4}, %xmm2, %xmm3 vfmadd231ps 0x4(%rcx,%r10){1to4}, %xmm1, %xmm3 # xmm3 = (xmm1 * mem) + xmm3 vfmadd231ps (%rcx,%r10){1to4}, %xmm0, %xmm3 # xmm3 = (xmm0 * mem) + xmm3 vmovss 0x24c(%rsi), %xmm5 vmulss 0xc(%rcx,%r10), %xmm5, %xmm4 vmulps 0x8(%rcx,%r9){1to4}, %xmm2, %xmm7 vfmadd231ps 0x4(%rcx,%r9){1to4}, %xmm1, %xmm7 # xmm7 = (xmm1 * mem) + xmm7 vfmadd231ps (%rcx,%r9){1to4}, %xmm0, %xmm7 # xmm7 = (xmm0 * mem) + xmm7 vmulss 0xc(%rcx,%r9), %xmm5, %xmm8 vmulps 0x8(%rcx,%r8){1to4}, %xmm2, %xmm11 vfmadd231ps 0x4(%rcx,%r8){1to4}, %xmm1, %xmm11 # xmm11 = (xmm1 * mem) + xmm11 vfmadd231ps (%rcx,%r8){1to4}, %xmm0, %xmm11 # xmm11 = (xmm0 * mem) + xmm11 vmulss 0xc(%rcx,%r8), %xmm5, %xmm12 vmulps 0x8(%rcx,%rdi){1to4}, %xmm2, %xmm15 vfmadd231ps 0x4(%rcx,%rdi){1to4}, %xmm1, %xmm15 # xmm15 = (xmm1 * mem) + xmm15 vfmadd231ps (%rcx,%rdi){1to4}, %xmm0, %xmm15 # xmm15 = (xmm0 * mem) + xmm15 vmulss 0xc(%rcx,%rdi), %xmm5, %xmm16 movl 0x248(%rsi), %ecx cmpq $0x4, %rcx jne 0x1ea58aa vbroadcastss %xmm12, %xmm0 vblendps $0x8, %xmm0, %xmm11, %xmm1 # xmm1 = xmm11[0,1,2],xmm0[3] leaq 0x28aca1(%rip), %rcx # 0x213036c vmovups 0x110(%rcx), %xmm2 vbroadcastss %xmm3, %xmm5 vshufps $0x55, %xmm3, %xmm3, %xmm6 # xmm6 = xmm3[1,1,1,1] vshufps $0xaa, %xmm3, %xmm3, %xmm3 # xmm3 = xmm3[2,2,2,2] vbroadcastss %xmm4, %xmm4 vmovups 0x594(%rcx), %xmm9 vbroadcastss %xmm7, %xmm10 vshufps $0x55, %xmm7, %xmm7, %xmm12 # xmm12 = xmm7[1,1,1,1] vshufps $0xaa, %xmm7, %xmm7, %xmm7 # xmm7 = xmm7[2,2,2,2] vbroadcastss %xmm8, %xmm8 vmovups 0xa18(%rcx), %xmm13 vbroadcastss %xmm11, %xmm14 vshufps $0x55, %xmm11, %xmm11, %xmm17 # xmm17 = xmm11[1,1,1,1] vmovups 0xe9c(%rcx), %xmm18 vshufps $0xaa, %xmm11, %xmm11, %xmm11 # xmm11 = xmm11[2,2,2,2] vbroadcastss %xmm15, %xmm19 vshufps $0x55, %xmm15, %xmm15, %xmm20 # xmm20 = xmm15[1,1,1,1] vshufps $0xaa, %xmm15, %xmm15, %xmm15 # xmm15 = xmm15[2,2,2,2] vbroadcastss %xmm16, %xmm16 vmulps %xmm18, %xmm19, %xmm19 vmulps %xmm18, %xmm20, %xmm20 vmulps %xmm18, %xmm15, %xmm15 vmulps %xmm18, %xmm16, %xmm16 vfmadd231ps %xmm14, %xmm13, %xmm19 # xmm19 = (xmm13 * xmm14) + xmm19 vfmadd231ps %xmm17, %xmm13, %xmm20 # xmm20 = (xmm13 * xmm17) + xmm20 vfmadd231ps %xmm11, %xmm13, %xmm15 # xmm15 = (xmm13 * xmm11) + xmm15 vfmadd231ps %xmm13, %xmm0, %xmm16 # xmm16 = (xmm0 * xmm13) + xmm16 vfmadd231ps %xmm10, %xmm9, %xmm19 # xmm19 = (xmm9 * xmm10) + xmm19 vfmadd231ps %xmm12, %xmm9, %xmm20 # xmm20 = (xmm9 * xmm12) + xmm20 vfmadd231ps %xmm7, %xmm9, %xmm15 # xmm15 = (xmm9 * xmm7) + xmm15 vfmadd231ps %xmm8, %xmm9, %xmm16 # xmm16 = (xmm9 * xmm8) + xmm16 vfmadd231ps %xmm5, %xmm2, %xmm19 # xmm19 = (xmm2 * xmm5) + xmm19 vfmadd231ps %xmm6, %xmm2, %xmm20 # xmm20 = (xmm2 * xmm6) + xmm20 vfmadd231ps %xmm3, %xmm2, %xmm15 # xmm15 = (xmm2 * xmm3) + xmm15 vfmadd231ps %xmm4, %xmm2, %xmm16 # xmm16 = (xmm2 * xmm4) + xmm16 vshufps $0xb1, %xmm19, %xmm19, %xmm2 # xmm2 = xmm19[1,0,3,2] vminps %xmm19, %xmm2, %xmm3 vshufpd $0x1, %xmm3, %xmm3, %xmm4 # xmm4 = xmm3[1,0] vminps %xmm3, %xmm4, %xmm3 vshufps $0xb1, %xmm20, %xmm20, %xmm4 # xmm4 = xmm20[1,0,3,2] vminps %xmm20, %xmm4, %xmm5 vshufpd $0x1, %xmm5, %xmm5, %xmm6 # xmm6 = xmm5[1,0] vminps %xmm5, %xmm6, %xmm5 vinsertps $0x1c, %xmm5, %xmm3, %xmm3 # xmm3 = xmm3[0],xmm5[0],zero,zero vshufps $0xb1, %xmm15, %xmm15, %xmm5 # xmm5 = xmm15[1,0,3,2] vminps %xmm15, %xmm5, %xmm6 vshufpd $0x1, %xmm6, %xmm6, %xmm7 # xmm7 = xmm6[1,0] vminps %xmm6, %xmm7, %xmm6 vinsertps $0x20, %xmm6, %xmm3, %xmm3 # xmm3 = xmm3[0,1],xmm6[0],xmm3[3] vmaxps %xmm19, %xmm2, %xmm2 vshufpd $0x1, %xmm2, %xmm2, %xmm6 # xmm6 = xmm2[1,0] vmaxps %xmm2, %xmm6, %xmm2 vmaxps %xmm20, %xmm4, %xmm4 vshufpd $0x1, %xmm4, %xmm4, %xmm6 # xmm6 = xmm4[1,0] vmaxps %xmm4, %xmm6, %xmm4 vinsertps $0x1c, %xmm4, %xmm2, %xmm2 # xmm2 = xmm2[0],xmm4[0],zero,zero vmaxps %xmm15, %xmm5, %xmm4 vshufpd $0x1, %xmm4, %xmm4, %xmm5 # xmm5 = xmm4[1,0] vmaxps %xmm4, %xmm5, %xmm4 vinsertps $0x20, %xmm4, %xmm2, %xmm2 # xmm2 = xmm2[0,1],xmm4[0],xmm2[3] vandps 0x7b699(%rip){1to4}, %xmm16, %xmm4 # 0x1f20ec4 vprolq $0x20, %xmm4, %xmm5 vmaxps %xmm4, %xmm5, %xmm4 vbroadcastss %xmm4, %xmm5 vshufps $0xaa, %xmm4, %xmm4, %xmm4 # xmm4 = xmm4[2,2,2,2] vmaxps %xmm5, %xmm4, %xmm4 vminps %xmm1, %xmm3, %xmm3 vmaxps %xmm1, %xmm2, %xmm1 vandps 0x7b66e(%rip){1to4}, %xmm0, %xmm0 # 0x1f20ec4 vmaxps %xmm0, %xmm4, %xmm2 vsubps %xmm2, %xmm3, %xmm0 vaddps %xmm2, %xmm1, %xmm1 vbroadcastss 0x7b659(%rip), %xmm2 # 0x1f20ec4 vandps %xmm2, %xmm0, %xmm3 vandps %xmm2, %xmm1, %xmm2 vmaxps %xmm2, %xmm3, %xmm2 vmovshdup %xmm2, %xmm3 # xmm3 = xmm2[1,1,3,3] vmaxss %xmm2, %xmm3, %xmm3 vshufpd $0x1, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[1,0] vmaxss %xmm3, %xmm2, %xmm2 vmulss 0x4b754(%rip), %xmm2, %xmm2 # 0x1ef0fe4 vbroadcastss %xmm2, %xmm2 vsubps %xmm2, %xmm0, %xmm0 vaddps %xmm2, %xmm1, %xmm1 vmovaps %xmm0, (%rax) vmovaps %xmm1, 0x10(%rax) vzeroupper retq testl %ecx, %ecx js 0x1ea5ab1 vpbroadcastd %ecx, %ymm0 vmovdqu %ymm0, -0x28(%rsp) vbroadcastss %xmm3, %ymm0 vmovups %ymm0, -0x48(%rsp) vbroadcastss 0x6ce32(%rip), %ymm14 # 0x1f12704 vpermps %ymm3, %ymm14, %ymm2 vbroadcastss 0x7b5fb(%rip), %ymm17 # 0x1f20edc vpermps %ymm3, %ymm17, %ymm3 vbroadcastss %xmm4, %ymm4 vbroadcastss %xmm7, %ymm5 vpermps %ymm7, %ymm14, %ymm6 vpermps %ymm7, %ymm17, %ymm7 vbroadcastss %xmm8, %ymm8 vbroadcastss %xmm11, %ymm9 vpermps %ymm11, %ymm14, %ymm10 vpermps %ymm11, %ymm17, %ymm11 vbroadcastss %xmm12, %ymm12 vbroadcastss %xmm15, %ymm13 vpermps %ymm15, %ymm14, %ymm14 vpermps %ymm15, %ymm17, %ymm15 vbroadcastss %xmm16, %ymm16 movq %rcx, %rdx shlq $0x6, %rdx leaq (%rdx,%rcx,4), %rdx addq 0x27f59a(%rip), %rdx # 0x2124ed8 vbroadcastss 0x4723c(%rip), %ymm20 # 0x1eecb84 vbroadcastss 0x460ce(%rip), %ymm17 # 0x1eeba20 vxorps %xmm21, %xmm21, %xmm21 xorl %esi, %esi vmovaps %ymm17, %ymm22 vmovaps %ymm17, %ymm29 vmovaps %ymm20, %ymm26 vmovaps %ymm20, %ymm28 vpbroadcastd %esi, %ymm19 vpord 0xb4f9e(%rip), %ymm19, %ymm19 # 0x1f5a920 vmovups (%rdx,%rsi,4), %ymm23 vmovups 0x484(%rdx,%rsi,4), %ymm24 vmovups 0x908(%rdx,%rsi,4), %ymm25 vpcmpgtd -0x28(%rsp), %ymm19, %k1 vmovups 0xd8c(%rdx,%rsi,4), %ymm19 vmulps %ymm19, %ymm13, %ymm18 vmulps %ymm19, %ymm14, %ymm0 vmulps %ymm19, %ymm15, %ymm1 vmulps %ymm19, %ymm16, %ymm19 vfmadd231ps %ymm9, %ymm25, %ymm18 # ymm18 = (ymm25 * ymm9) + ymm18 vfmadd231ps %ymm10, %ymm25, %ymm0 # ymm0 = (ymm25 * ymm10) + ymm0 vfmadd231ps %ymm11, %ymm25, %ymm1 # ymm1 = (ymm25 * ymm11) + ymm1 vfmadd231ps %ymm25, %ymm12, %ymm19 # ymm19 = (ymm12 * ymm25) + ymm19 vfmadd231ps %ymm5, %ymm24, %ymm18 # ymm18 = (ymm24 * ymm5) + ymm18 vfmadd231ps %ymm6, %ymm24, %ymm0 # ymm0 = (ymm24 * ymm6) + ymm0 vfmadd231ps %ymm7, %ymm24, %ymm1 # ymm1 = (ymm24 * ymm7) + ymm1 vfmadd231ps %ymm24, %ymm8, %ymm19 # ymm19 = (ymm8 * ymm24) + ymm19 vfmadd231ps -0x48(%rsp), %ymm23, %ymm18 # ymm18 = (ymm23 * mem) + ymm18 vfmadd231ps %ymm2, %ymm23, %ymm0 # ymm0 = (ymm23 * ymm2) + ymm0 vfmadd231ps %ymm3, %ymm23, %ymm1 # ymm1 = (ymm23 * ymm3) + ymm1 vfmadd231ps %ymm23, %ymm4, %ymm19 # ymm19 = (ymm4 * ymm23) + ymm19 vandps 0x7b4a0(%rip){1to8}, %ymm19, %ymm19 # 0x1f20ec4 vminps %ymm18, %ymm29, %ymm30 vmovaps %ymm29, %ymm30 {%k1} vminps %ymm0, %ymm22, %ymm27 vmovaps %ymm22, %ymm27 {%k1} vminps %ymm1, %ymm17, %ymm31 vmovaps %ymm17, %ymm31 {%k1} vmaxps %ymm18, %ymm28, %ymm24 vmovaps %ymm28, %ymm24 {%k1} vmaxps %ymm0, %ymm26, %ymm25 vmovaps %ymm26, %ymm25 {%k1} vmaxps %ymm1, %ymm20, %ymm23 vmovaps %ymm20, %ymm23 {%k1} vmaxps %ymm19, %ymm21, %ymm19 vmovaps %ymm21, %ymm19 {%k1} addq $0x8, %rsi vmovaps %ymm31, %ymm17 vmovaps %ymm27, %ymm22 vmovaps %ymm30, %ymm29 vmovaps %ymm23, %ymm20 vmovaps %ymm25, %ymm26 vmovaps %ymm24, %ymm28 vmovaps %ymm19, %ymm21 cmpq %rcx, %rsi jbe 0x1ea5972 jmp 0x1ea5ae3 vbroadcastss 0x45f65(%rip), %ymm30 # 0x1eeba20 vbroadcastss 0x470bf(%rip), %ymm24 # 0x1eecb84 vxorps %xmm19, %xmm19, %xmm19 vmovaps %ymm24, %ymm25 vmovaps %ymm24, %ymm23 vmovaps %ymm30, %ymm27 vmovaps %ymm30, %ymm31 vshufps $0xb1, %ymm30, %ymm30, %ymm0 # ymm0 = ymm30[1,0,3,2,5,4,7,6] vminps %ymm0, %ymm30, %ymm0 vshufpd $0x5, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2] vminps %ymm1, %ymm0, %ymm0 vextractf128 $0x1, %ymm0, %xmm1 vminps %xmm1, %xmm0, %xmm0 vshufps $0xb1, %ymm27, %ymm27, %ymm1 # ymm1 = ymm27[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm27, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vextractf128 $0x1, %ymm1, %xmm2 vminps %xmm2, %xmm1, %xmm1 vunpcklps %xmm1, %xmm0, %xmm0 # xmm0 = xmm0[0],xmm1[0],xmm0[1],xmm1[1] vshufps $0xb1, %ymm31, %ymm31, %ymm1 # ymm1 = ymm31[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm31, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vextractf128 $0x1, %ymm1, %xmm2 vminps %xmm2, %xmm1, %xmm1 vinsertps $0x28, %xmm1, %xmm0, %xmm0 # xmm0 = xmm0[0,1],xmm1[0],zero vshufps $0xb1, %ymm24, %ymm24, %ymm1 # ymm1 = ymm24[1,0,3,2,5,4,7,6] vmaxps %ymm1, %ymm24, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vmaxps %ymm2, %ymm1, %ymm1 vextractf128 $0x1, %ymm1, %xmm2 vmaxps %xmm2, %xmm1, %xmm1 vshufps $0xb1, %ymm25, %ymm25, %ymm2 # ymm2 = ymm25[1,0,3,2,5,4,7,6] vmaxps %ymm2, %ymm25, %ymm2 vshufpd $0x5, %ymm2, %ymm2, %ymm3 # ymm3 = ymm2[1,0,3,2] vmaxps %ymm3, %ymm2, %ymm2 vextractf128 $0x1, %ymm2, %xmm3 vmaxps %xmm3, %xmm2, %xmm2 vunpcklps %xmm2, %xmm1, %xmm1 # xmm1 = xmm1[0],xmm2[0],xmm1[1],xmm2[1] vshufps $0xb1, %ymm23, %ymm23, %ymm2 # ymm2 = ymm23[1,0,3,2,5,4,7,6] vmaxps %ymm2, %ymm23, %ymm2 vshufpd $0x5, %ymm2, %ymm2, %ymm3 # ymm3 = ymm2[1,0,3,2] vmaxps %ymm3, %ymm2, %ymm2 vextractf128 $0x1, %ymm2, %xmm3 vmaxps %xmm3, %xmm2, %xmm2 vinsertps $0x28, %xmm2, %xmm1, %xmm1 # xmm1 = xmm1[0,1],xmm2[0],zero vshufps $0xb1, %ymm19, %ymm19, %ymm2 # ymm2 = ymm19[1,0,3,2,5,4,7,6] vmaxps %ymm2, %ymm19, %ymm2 vshufpd $0x5, %ymm2, %ymm2, %ymm3 # ymm3 = ymm2[1,0,3,2] vmaxps %ymm3, %ymm2, %ymm2 vextractf128 $0x1, %ymm2, %xmm3 vmaxps %xmm3, %xmm2, %xmm2 vbroadcastss %xmm2, %xmm2 vsubps %xmm2, %xmm0, %xmm0 jmp 0x1ea585e nop
/embree[P]embree/kernels/common/scene_curves.cpp
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)0, embree::avx512::CurveGeometryInterface, embree::CatmullRomCurveT>::vbounds(embree::Vec3fa const&, float, float, embree::LinearSpace3<embree::Vec3fa> const&, unsigned long, unsigned long) const
BBox3fa vbounds(const Vec3fa& ofs, const float scale, const float r_scale0, const LinearSpace3fa& space, size_t i, size_t itime = 0) const { return bounds(ofs,scale,r_scale0,space,i,itime); }
pushq %rbx movq %rdi, %rax vmulss %xmm1, %xmm0, %xmm1 imulq 0x68(%rsi), %r8 movq 0x58(%rsi), %rdi movq 0x188(%rsi), %r10 movl (%rdi,%r8), %r11d imulq $0x38, %r9, %r8 movq (%r10,%r8), %rdi movq 0x10(%r10,%r8), %rbx leal 0x1(%r11), %r10d leal 0x2(%r11), %r9d leal 0x3(%r11), %r8d imulq %rbx, %r11 vmovaps (%rdi,%r11), %xmm2 imulq %rbx, %r10 vmovaps (%rdi,%r10), %xmm5 imulq %rbx, %r9 vmovaps (%rdi,%r9), %xmm6 imulq %rbx, %r8 vmovaps (%rdi,%r8), %xmm9 vmovaps (%rdx), %xmm10 vsubps %xmm10, %xmm2, %xmm2 vbroadcastss %xmm0, %xmm0 vmulps %xmm2, %xmm0, %xmm2 vbroadcastss %xmm2, %xmm4 vshufps $0x55, %xmm2, %xmm2, %xmm7 # xmm7 = xmm2[1,1,1,1] vmovaps (%rcx), %xmm13 vshufps $0xaa, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[2,2,2,2] vmovaps 0x10(%rcx), %xmm14 vmovaps 0x20(%rcx), %xmm15 vmulps %xmm2, %xmm15, %xmm3 vfmadd231ps %xmm7, %xmm14, %xmm3 # xmm3 = (xmm14 * xmm7) + xmm3 vfmadd231ps %xmm4, %xmm13, %xmm3 # xmm3 = (xmm13 * xmm4) + xmm3 vmovss 0x24c(%rsi), %xmm2 vmulss 0xc(%rdi,%r11), %xmm2, %xmm4 vmulss %xmm4, %xmm1, %xmm4 vsubps %xmm10, %xmm5, %xmm5 vmulps %xmm5, %xmm0, %xmm5 vbroadcastss %xmm5, %xmm8 vshufps $0x55, %xmm5, %xmm5, %xmm11 # xmm11 = xmm5[1,1,1,1] vshufps $0xaa, %xmm5, %xmm5, %xmm5 # xmm5 = xmm5[2,2,2,2] vmulps %xmm5, %xmm15, %xmm7 vfmadd231ps %xmm11, %xmm14, %xmm7 # xmm7 = (xmm14 * xmm11) + xmm7 vfmadd231ps %xmm8, %xmm13, %xmm7 # xmm7 = (xmm13 * xmm8) + xmm7 vmulss 0xc(%rdi,%r10), %xmm2, %xmm5 vmulss %xmm5, %xmm1, %xmm8 vsubps %xmm10, %xmm6, %xmm5 vmulps %xmm5, %xmm0, %xmm5 vbroadcastss %xmm5, %xmm6 vshufps $0x55, %xmm5, %xmm5, %xmm12 # xmm12 = xmm5[1,1,1,1] vshufps $0xaa, %xmm5, %xmm5, %xmm5 # xmm5 = xmm5[2,2,2,2] vmulps %xmm5, %xmm15, %xmm11 vfmadd231ps %xmm12, %xmm14, %xmm11 # xmm11 = (xmm14 * xmm12) + xmm11 vfmadd231ps %xmm6, %xmm13, %xmm11 # xmm11 = (xmm13 * xmm6) + xmm11 vmulss 0xc(%rdi,%r9), %xmm2, %xmm5 vmulss %xmm5, %xmm1, %xmm12 vsubps %xmm10, %xmm9, %xmm5 vmulps %xmm5, %xmm0, %xmm0 vbroadcastss %xmm0, %xmm5 vshufps $0x55, %xmm0, %xmm0, %xmm6 # xmm6 = xmm0[1,1,1,1] vshufps $0xaa, %xmm0, %xmm0, %xmm0 # xmm0 = xmm0[2,2,2,2] vmulps %xmm0, %xmm15, %xmm15 vfmadd231ps %xmm6, %xmm14, %xmm15 # xmm15 = (xmm14 * xmm6) + xmm15 vfmadd231ps %xmm5, %xmm13, %xmm15 # xmm15 = (xmm13 * xmm5) + xmm15 vmulss 0xc(%rdi,%r8), %xmm2, %xmm0 vmulss %xmm0, %xmm1, %xmm16 movl 0x248(%rsi), %ecx cmpq $0x4, %rcx jne 0x1ea5f2a vbroadcastss %xmm12, %xmm0 vblendps $0x8, %xmm0, %xmm11, %xmm1 # xmm1 = xmm11[0,1,2],xmm0[3] leaq 0x28a622(%rip), %rcx # 0x213036c vmovups 0x110(%rcx), %xmm2 vbroadcastss %xmm3, %xmm5 vshufps $0x55, %xmm3, %xmm3, %xmm6 # xmm6 = xmm3[1,1,1,1] vshufps $0xaa, %xmm3, %xmm3, %xmm3 # xmm3 = xmm3[2,2,2,2] vbroadcastss %xmm4, %xmm4 vmovups 0x594(%rcx), %xmm9 vbroadcastss %xmm7, %xmm10 vshufps $0x55, %xmm7, %xmm7, %xmm12 # xmm12 = xmm7[1,1,1,1] vshufps $0xaa, %xmm7, %xmm7, %xmm7 # xmm7 = xmm7[2,2,2,2] vbroadcastss %xmm8, %xmm8 vmovups 0xa18(%rcx), %xmm13 vbroadcastss %xmm11, %xmm14 vshufps $0x55, %xmm11, %xmm11, %xmm17 # xmm17 = xmm11[1,1,1,1] vmovups 0xe9c(%rcx), %xmm18 vshufps $0xaa, %xmm11, %xmm11, %xmm11 # xmm11 = xmm11[2,2,2,2] vbroadcastss %xmm15, %xmm19 vshufps $0x55, %xmm15, %xmm15, %xmm20 # xmm20 = xmm15[1,1,1,1] vshufps $0xaa, %xmm15, %xmm15, %xmm15 # xmm15 = xmm15[2,2,2,2] vbroadcastss %xmm16, %xmm16 vmulps %xmm18, %xmm19, %xmm19 vmulps %xmm18, %xmm20, %xmm20 vmulps %xmm18, %xmm15, %xmm15 vmulps %xmm18, %xmm16, %xmm16 vfmadd231ps %xmm14, %xmm13, %xmm19 # xmm19 = (xmm13 * xmm14) + xmm19 vfmadd231ps %xmm17, %xmm13, %xmm20 # xmm20 = (xmm13 * xmm17) + xmm20 vfmadd231ps %xmm11, %xmm13, %xmm15 # xmm15 = (xmm13 * xmm11) + xmm15 vfmadd231ps %xmm13, %xmm0, %xmm16 # xmm16 = (xmm0 * xmm13) + xmm16 vfmadd231ps %xmm10, %xmm9, %xmm19 # xmm19 = (xmm9 * xmm10) + xmm19 vfmadd231ps %xmm12, %xmm9, %xmm20 # xmm20 = (xmm9 * xmm12) + xmm20 vfmadd231ps %xmm7, %xmm9, %xmm15 # xmm15 = (xmm9 * xmm7) + xmm15 vfmadd231ps %xmm8, %xmm9, %xmm16 # xmm16 = (xmm9 * xmm8) + xmm16 vfmadd231ps %xmm5, %xmm2, %xmm19 # xmm19 = (xmm2 * xmm5) + xmm19 vfmadd231ps %xmm6, %xmm2, %xmm20 # xmm20 = (xmm2 * xmm6) + xmm20 vfmadd231ps %xmm3, %xmm2, %xmm15 # xmm15 = (xmm2 * xmm3) + xmm15 vfmadd231ps %xmm4, %xmm2, %xmm16 # xmm16 = (xmm2 * xmm4) + xmm16 vshufps $0xb1, %xmm19, %xmm19, %xmm2 # xmm2 = xmm19[1,0,3,2] vminps %xmm19, %xmm2, %xmm3 vshufpd $0x1, %xmm3, %xmm3, %xmm4 # xmm4 = xmm3[1,0] vminps %xmm3, %xmm4, %xmm3 vshufps $0xb1, %xmm20, %xmm20, %xmm4 # xmm4 = xmm20[1,0,3,2] vminps %xmm20, %xmm4, %xmm5 vshufpd $0x1, %xmm5, %xmm5, %xmm6 # xmm6 = xmm5[1,0] vminps %xmm5, %xmm6, %xmm5 vinsertps $0x1c, %xmm5, %xmm3, %xmm3 # xmm3 = xmm3[0],xmm5[0],zero,zero vshufps $0xb1, %xmm15, %xmm15, %xmm5 # xmm5 = xmm15[1,0,3,2] vminps %xmm15, %xmm5, %xmm6 vshufpd $0x1, %xmm6, %xmm6, %xmm7 # xmm7 = xmm6[1,0] vminps %xmm6, %xmm7, %xmm6 vinsertps $0x20, %xmm6, %xmm3, %xmm3 # xmm3 = xmm3[0,1],xmm6[0],xmm3[3] vmaxps %xmm19, %xmm2, %xmm2 vshufpd $0x1, %xmm2, %xmm2, %xmm6 # xmm6 = xmm2[1,0] vmaxps %xmm2, %xmm6, %xmm2 vmaxps %xmm20, %xmm4, %xmm4 vshufpd $0x1, %xmm4, %xmm4, %xmm6 # xmm6 = xmm4[1,0] vmaxps %xmm4, %xmm6, %xmm4 vinsertps $0x1c, %xmm4, %xmm2, %xmm2 # xmm2 = xmm2[0],xmm4[0],zero,zero vmaxps %xmm15, %xmm5, %xmm4 vshufpd $0x1, %xmm4, %xmm4, %xmm5 # xmm5 = xmm4[1,0] vmaxps %xmm4, %xmm5, %xmm4 vinsertps $0x20, %xmm4, %xmm2, %xmm2 # xmm2 = xmm2[0,1],xmm4[0],xmm2[3] vandps 0x7b01a(%rip){1to4}, %xmm16, %xmm4 # 0x1f20ec4 vprolq $0x20, %xmm4, %xmm5 vmaxps %xmm4, %xmm5, %xmm4 vbroadcastss %xmm4, %xmm5 vshufps $0xaa, %xmm4, %xmm4, %xmm4 # xmm4 = xmm4[2,2,2,2] vmaxps %xmm5, %xmm4, %xmm4 vminps %xmm1, %xmm3, %xmm3 vmaxps %xmm1, %xmm2, %xmm1 vandps 0x7afef(%rip){1to4}, %xmm0, %xmm0 # 0x1f20ec4 vmaxps %xmm0, %xmm4, %xmm2 vsubps %xmm2, %xmm3, %xmm0 vaddps %xmm2, %xmm1, %xmm1 vbroadcastss 0x7afda(%rip), %xmm2 # 0x1f20ec4 vandps %xmm2, %xmm0, %xmm3 vandps %xmm2, %xmm1, %xmm2 vmaxps %xmm2, %xmm3, %xmm2 vmovshdup %xmm2, %xmm3 # xmm3 = xmm2[1,1,3,3] vmaxss %xmm2, %xmm3, %xmm3 vshufpd $0x1, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[1,0] vmaxss %xmm3, %xmm2, %xmm2 vmulss 0x4b0d5(%rip), %xmm2, %xmm2 # 0x1ef0fe4 vbroadcastss %xmm2, %xmm2 vsubps %xmm2, %xmm0, %xmm0 vaddps %xmm2, %xmm1, %xmm1 vmovaps %xmm0, (%rax) vmovaps %xmm1, 0x10(%rax) popq %rbx vzeroupper retq testl %ecx, %ecx js 0x1ea612b vpbroadcastd %ecx, %ymm0 vmovdqu %ymm0, -0x20(%rsp) vbroadcastss %xmm3, %ymm0 vmovups %ymm0, -0x40(%rsp) vbroadcastss 0x6c7b2(%rip), %ymm14 # 0x1f12704 vpermps %ymm3, %ymm14, %ymm2 vbroadcastss 0x7af7b(%rip), %ymm17 # 0x1f20edc vpermps %ymm3, %ymm17, %ymm3 vbroadcastss %xmm4, %ymm4 vbroadcastss %xmm7, %ymm5 vpermps %ymm7, %ymm14, %ymm6 vpermps %ymm7, %ymm17, %ymm7 vbroadcastss %xmm8, %ymm8 vbroadcastss %xmm11, %ymm9 vpermps %ymm11, %ymm14, %ymm10 vpermps %ymm11, %ymm17, %ymm11 vbroadcastss %xmm12, %ymm12 vbroadcastss %xmm15, %ymm13 vpermps %ymm15, %ymm14, %ymm14 vpermps %ymm15, %ymm17, %ymm15 vbroadcastss %xmm16, %ymm16 movq %rcx, %rdx shlq $0x6, %rdx leaq (%rdx,%rcx,4), %rdx addq 0x27ef1a(%rip), %rdx # 0x2124ed8 vbroadcastss 0x46bbc(%rip), %ymm20 # 0x1eecb84 vbroadcastss 0x45a4e(%rip), %ymm17 # 0x1eeba20 vxorps %xmm21, %xmm21, %xmm21 xorl %esi, %esi vmovaps %ymm17, %ymm22 vmovaps %ymm17, %ymm29 vmovaps %ymm20, %ymm26 vmovaps %ymm20, %ymm28 vpbroadcastd %esi, %ymm19 vpord 0xb491e(%rip), %ymm19, %ymm19 # 0x1f5a920 vmovups (%rdx,%rsi,4), %ymm23 vmovups 0x484(%rdx,%rsi,4), %ymm24 vmovups 0x908(%rdx,%rsi,4), %ymm25 vpcmpgtd -0x20(%rsp), %ymm19, %k1 vmovups 0xd8c(%rdx,%rsi,4), %ymm19 vmulps %ymm19, %ymm13, %ymm18 vmulps %ymm19, %ymm14, %ymm0 vmulps %ymm19, %ymm15, %ymm1 vmulps %ymm19, %ymm16, %ymm19 vfmadd231ps %ymm9, %ymm25, %ymm18 # ymm18 = (ymm25 * ymm9) + ymm18 vfmadd231ps %ymm10, %ymm25, %ymm0 # ymm0 = (ymm25 * ymm10) + ymm0 vfmadd231ps %ymm11, %ymm25, %ymm1 # ymm1 = (ymm25 * ymm11) + ymm1 vfmadd231ps %ymm25, %ymm12, %ymm19 # ymm19 = (ymm12 * ymm25) + ymm19 vfmadd231ps %ymm5, %ymm24, %ymm18 # ymm18 = (ymm24 * ymm5) + ymm18 vfmadd231ps %ymm6, %ymm24, %ymm0 # ymm0 = (ymm24 * ymm6) + ymm0 vfmadd231ps %ymm7, %ymm24, %ymm1 # ymm1 = (ymm24 * ymm7) + ymm1 vfmadd231ps %ymm24, %ymm8, %ymm19 # ymm19 = (ymm8 * ymm24) + ymm19 vfmadd231ps -0x40(%rsp), %ymm23, %ymm18 # ymm18 = (ymm23 * mem) + ymm18 vfmadd231ps %ymm2, %ymm23, %ymm0 # ymm0 = (ymm23 * ymm2) + ymm0 vfmadd231ps %ymm3, %ymm23, %ymm1 # ymm1 = (ymm23 * ymm3) + ymm1 vfmadd231ps %ymm23, %ymm4, %ymm19 # ymm19 = (ymm4 * ymm23) + ymm19 vandps 0x7ae26(%rip){1to8}, %ymm19, %ymm19 # 0x1f20ec4 vminps %ymm18, %ymm29, %ymm30 vmovaps %ymm29, %ymm30 {%k1} vminps %ymm0, %ymm22, %ymm27 vmovaps %ymm22, %ymm27 {%k1} vminps %ymm1, %ymm17, %ymm31 vmovaps %ymm17, %ymm31 {%k1} vmaxps %ymm18, %ymm28, %ymm24 vmovaps %ymm28, %ymm24 {%k1} vmaxps %ymm0, %ymm26, %ymm25 vmovaps %ymm26, %ymm25 {%k1} vmaxps %ymm1, %ymm20, %ymm23 vmovaps %ymm20, %ymm23 {%k1} vmaxps %ymm19, %ymm21, %ymm19 vmovaps %ymm21, %ymm19 {%k1} addq $0x8, %rsi vmovaps %ymm31, %ymm17 vmovaps %ymm27, %ymm22 vmovaps %ymm30, %ymm29 vmovaps %ymm23, %ymm20 vmovaps %ymm25, %ymm26 vmovaps %ymm24, %ymm28 vmovaps %ymm19, %ymm21 cmpq %rcx, %rsi jbe 0x1ea5ff2 jmp 0x1ea615d vbroadcastss 0x458eb(%rip), %ymm30 # 0x1eeba20 vbroadcastss 0x46a45(%rip), %ymm24 # 0x1eecb84 vxorps %xmm19, %xmm19, %xmm19 vmovaps %ymm24, %ymm25 vmovaps %ymm24, %ymm23 vmovaps %ymm30, %ymm27 vmovaps %ymm30, %ymm31 vshufps $0xb1, %ymm30, %ymm30, %ymm0 # ymm0 = ymm30[1,0,3,2,5,4,7,6] vminps %ymm0, %ymm30, %ymm0 vshufpd $0x5, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2] vminps %ymm1, %ymm0, %ymm0 vextractf128 $0x1, %ymm0, %xmm1 vminps %xmm1, %xmm0, %xmm0 vshufps $0xb1, %ymm27, %ymm27, %ymm1 # ymm1 = ymm27[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm27, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vextractf128 $0x1, %ymm1, %xmm2 vminps %xmm2, %xmm1, %xmm1 vunpcklps %xmm1, %xmm0, %xmm0 # xmm0 = xmm0[0],xmm1[0],xmm0[1],xmm1[1] vshufps $0xb1, %ymm31, %ymm31, %ymm1 # ymm1 = ymm31[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm31, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vextractf128 $0x1, %ymm1, %xmm2 vminps %xmm2, %xmm1, %xmm1 vinsertps $0x28, %xmm1, %xmm0, %xmm0 # xmm0 = xmm0[0,1],xmm1[0],zero vshufps $0xb1, %ymm24, %ymm24, %ymm1 # ymm1 = ymm24[1,0,3,2,5,4,7,6] vmaxps %ymm1, %ymm24, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vmaxps %ymm2, %ymm1, %ymm1 vextractf128 $0x1, %ymm1, %xmm2 vmaxps %xmm2, %xmm1, %xmm1 vshufps $0xb1, %ymm25, %ymm25, %ymm2 # ymm2 = ymm25[1,0,3,2,5,4,7,6] vmaxps %ymm2, %ymm25, %ymm2 vshufpd $0x5, %ymm2, %ymm2, %ymm3 # ymm3 = ymm2[1,0,3,2] vmaxps %ymm3, %ymm2, %ymm2 vextractf128 $0x1, %ymm2, %xmm3 vmaxps %xmm3, %xmm2, %xmm2 vunpcklps %xmm2, %xmm1, %xmm1 # xmm1 = xmm1[0],xmm2[0],xmm1[1],xmm2[1] vshufps $0xb1, %ymm23, %ymm23, %ymm2 # ymm2 = ymm23[1,0,3,2,5,4,7,6] vmaxps %ymm2, %ymm23, %ymm2 vshufpd $0x5, %ymm2, %ymm2, %ymm3 # ymm3 = ymm2[1,0,3,2] vmaxps %ymm3, %ymm2, %ymm2 vextractf128 $0x1, %ymm2, %xmm3 vmaxps %xmm3, %xmm2, %xmm2 vinsertps $0x28, %xmm2, %xmm1, %xmm1 # xmm1 = xmm1[0,1],xmm2[0],zero vshufps $0xb1, %ymm19, %ymm19, %ymm2 # ymm2 = ymm19[1,0,3,2,5,4,7,6] vmaxps %ymm2, %ymm19, %ymm2 vshufpd $0x5, %ymm2, %ymm2, %ymm3 # ymm3 = ymm2[1,0,3,2] vmaxps %ymm3, %ymm2, %ymm2 vextractf128 $0x1, %ymm2, %xmm3 vmaxps %xmm3, %xmm2, %xmm2 vbroadcastss %xmm2, %xmm2 vsubps %xmm2, %xmm0, %xmm0 jmp 0x1ea5edd nop
/embree[P]embree/kernels/common/scene_curves.cpp
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)0, embree::avx512::CurveGeometryInterface, embree::CatmullRomCurveT>::vlinearBounds(embree::LinearSpace3<embree::Vec3fa> const&, unsigned long, embree::BBox<float> const&) const
LBBox3fa vlinearBounds(const LinearSpace3fa& space, size_t primID, const BBox1f& time_range) const { return linearBounds(space,primID,time_range); }
pushq %rbp pushq %r15 pushq %r14 pushq %r13 pushq %r12 pushq %rbx subq $0x138, %rsp # imm = 0x138 leaq 0xc8(%rsp), %rax movq %rcx, (%rax) leaq 0xb0(%rsp), %r14 movq %rdx, (%r14) movq %rax, 0x8(%r14) movq %rsi, 0x10(%r14) vmovss 0x28(%rsi), %xmm4 vmovss 0x2c(%rsi), %xmm0 vmovss (%r8), %xmm1 vmovss 0x4(%r8), %xmm2 vsubss %xmm0, %xmm1, %xmm1 vmovss 0x30(%rsi), %xmm3 vsubss %xmm0, %xmm3, %xmm3 vdivss %xmm3, %xmm1, %xmm1 vsubss %xmm0, %xmm2, %xmm0 vdivss %xmm3, %xmm0, %xmm2 vmovss %xmm1, 0x4(%rsp) vmulss %xmm1, %xmm4, %xmm0 vmovss %xmm0, 0x20(%rsp) vroundss $0x9, %xmm0, %xmm0, %xmm0 vmovss %xmm2, 0x50(%rsp) vmulss %xmm2, %xmm4, %xmm1 vmovss %xmm1, 0x40(%rsp) vroundss $0xa, %xmm1, %xmm1, %xmm1 vxorps %xmm2, %xmm2, %xmm2 vmaxss %xmm2, %xmm0, %xmm3 vminss %xmm4, %xmm1, %xmm2 vmovss %xmm3, 0x10(%rsp) vcvttss2si %xmm3, %r15d vmovss %xmm2, 0x30(%rsp) vcvttss2si %xmm2, %r12d vcvttss2si %xmm0, %eax movq %rdi, %rbx testl %eax, %eax movl $0xffffffff, %r13d # imm = 0xFFFFFFFF cmovnsl %eax, %r13d vcvttss2si %xmm1, %eax vmovss %xmm4, 0xc(%rsp) vcvttss2si %xmm4, %ebp incl %ebp cmpl %ebp, %eax cmovll %eax, %ebp movslq %r15d, %rdx leaq 0x80(%rsp), %rdi movq %r14, %rsi callq 0x1ea731c movslq %r12d, %rdx leaq 0x60(%rsp), %rdi movq %r14, %rsi callq 0x1ea731c movl %ebp, %eax subl %r13d, %eax cmpl $0x1, %eax jne 0x1ea679d vmovss 0x20(%rsp), %xmm0 vsubss 0x10(%rsp), %xmm0, %xmm0 vxorps %xmm8, %xmm8, %xmm8 vmaxss %xmm8, %xmm0, %xmm0 vmovss 0x45ffe(%rip), %xmm1 # 0x1eec714 vsubss %xmm0, %xmm1, %xmm2 vbroadcastss %xmm0, %xmm0 vmovaps 0x60(%rsp), %xmm3 vmovaps 0x70(%rsp), %xmm4 vmulps %xmm3, %xmm0, %xmm5 vbroadcastss %xmm2, %xmm2 vmovaps 0x80(%rsp), %xmm6 vmovaps 0x90(%rsp), %xmm7 vfmadd231ps %xmm6, %xmm2, %xmm5 # xmm5 = (xmm2 * xmm6) + xmm5 vmulps %xmm4, %xmm0, %xmm0 vfmadd231ps %xmm2, %xmm7, %xmm0 # xmm0 = (xmm7 * xmm2) + xmm0 vmovaps %xmm5, (%rbx) vmovaps %xmm0, 0x10(%rbx) vmovss 0x30(%rsp), %xmm0 vsubss 0x40(%rsp), %xmm0, %xmm0 vmaxss %xmm8, %xmm0, %xmm0 vsubss %xmm0, %xmm1, %xmm1 vbroadcastss %xmm0, %xmm0 vmulps %xmm6, %xmm0, %xmm2 vbroadcastss %xmm1, %xmm1 vfmadd231ps %xmm3, %xmm1, %xmm2 # xmm2 = (xmm1 * xmm3) + xmm2 vmulps %xmm7, %xmm0, %xmm0 vfmadd231ps %xmm4, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm4) + xmm0 vmovaps %xmm2, 0x20(%rbx) vmovaps %xmm0, 0x30(%rbx) jmp 0x1ea6980 incl %r15d movslq %r15d, %rdx leaq 0x110(%rsp), %r14 leaq 0xb0(%rsp), %r15 movq %r14, %rdi movq %r15, %rsi callq 0x1ea731c decl %r12d movslq %r12d, %rdx leaq 0xf0(%rsp), %r12 movq %r12, %rdi movq %r15, %rsi callq 0x1ea731c vmovss 0x20(%rsp), %xmm0 vsubss 0x10(%rsp), %xmm0, %xmm0 vxorps %xmm5, %xmm5, %xmm5 vmaxss %xmm5, %xmm0, %xmm0 vmovss 0x45f21(%rip), %xmm4 # 0x1eec714 vbroadcastss %xmm0, %xmm1 vmulps (%r14), %xmm1, %xmm2 vsubss %xmm0, %xmm4, %xmm0 vbroadcastss %xmm0, %xmm0 vfmadd231ps 0x80(%rsp), %xmm0, %xmm2 # xmm2 = (xmm0 * mem) + xmm2 vmulps 0x10(%r14), %xmm1, %xmm3 vfmadd231ps 0x90(%rsp), %xmm0, %xmm3 # xmm3 = (xmm0 * mem) + xmm3 vmovss 0x30(%rsp), %xmm0 vsubss 0x40(%rsp), %xmm0, %xmm0 vmaxss %xmm5, %xmm0, %xmm0 vsubss %xmm0, %xmm4, %xmm1 vbroadcastss %xmm0, %xmm0 vmulps (%r12), %xmm0, %xmm5 vbroadcastss %xmm1, %xmm1 vfmadd231ps 0x60(%rsp), %xmm1, %xmm5 # xmm5 = (xmm1 * mem) + xmm5 vmulps 0x10(%r12), %xmm0, %xmm6 vfmadd231ps 0x70(%rsp), %xmm1, %xmm6 # xmm6 = (xmm1 * mem) + xmm6 leal 0x1(%r13), %eax cmpl %ebp, %eax jge 0x1ea696d vmovss 0x4(%rsp), %xmm1 vmovss 0x50(%rsp), %xmm0 vsubss %xmm1, %xmm0, %xmm0 vmovss %xmm0, 0x8(%rsp) movl %eax, %r14d notl %r13d addl %ebp, %r13d leaq 0xd0(%rsp), %r15 leaq 0xb0(%rsp), %r12 vmovaps %xmm6, 0x10(%rsp) vmovaps %xmm5, 0x20(%rsp) vmovaps %xmm3, 0x30(%rsp) vmovaps %xmm2, 0x40(%rsp) vcvtsi2ss %r14d, %xmm8, %xmm0 vdivss 0xc(%rsp), %xmm0, %xmm0 vsubss %xmm1, %xmm0, %xmm0 vdivss 0x8(%rsp), %xmm0, %xmm0 vsubss %xmm0, %xmm4, %xmm1 vbroadcastss %xmm0, %xmm0 vmulps %xmm0, %xmm5, %xmm4 vbroadcastss %xmm1, %xmm1 vfmadd231ps %xmm2, %xmm1, %xmm4 # xmm4 = (xmm1 * xmm2) + xmm4 vmovaps %xmm4, 0x50(%rsp) vmulps %xmm0, %xmm6, %xmm0 vfmadd231ps %xmm1, %xmm3, %xmm0 # xmm0 = (xmm3 * xmm1) + xmm0 vmovaps %xmm0, 0xa0(%rsp) movq %r15, %rdi movq %r12, %rsi movq %r14, %rdx callq 0x1ea731c vmovaps 0x10(%rsp), %xmm6 vmovaps 0x20(%rsp), %xmm5 vmovss 0x45e02(%rip), %xmm4 # 0x1eec714 vmovaps 0x30(%rsp), %xmm3 vmovaps 0x40(%rsp), %xmm2 vmovaps 0xd0(%rsp), %xmm0 vsubps 0x50(%rsp), %xmm0, %xmm0 vmovaps 0xe0(%rsp), %xmm1 vsubps 0xa0(%rsp), %xmm1, %xmm1 vxorps %xmm7, %xmm7, %xmm7 vminps %xmm7, %xmm0, %xmm0 vmaxps %xmm7, %xmm1, %xmm1 vaddps %xmm0, %xmm2, %xmm2 vaddps %xmm0, %xmm5, %xmm5 vaddps %xmm1, %xmm3, %xmm3 vaddps %xmm1, %xmm6, %xmm6 vmovss 0x4(%rsp), %xmm1 incq %r14 decl %r13d jne 0x1ea6894 vmovaps %xmm2, (%rbx) vmovaps %xmm3, 0x10(%rbx) vmovaps %xmm5, 0x20(%rbx) vmovaps %xmm6, 0x30(%rbx) movq %rbx, %rax addq $0x138, %rsp # imm = 0x138 popq %rbx popq %r12 popq %r13 popq %r14 popq %r15 popq %rbp retq nop
/embree[P]embree/kernels/common/scene_curves.cpp
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)0, embree::avx512::CurveGeometryInterface, embree::CatmullRomCurveT>::vlinearBounds(embree::Vec3fa const&, float, float, embree::LinearSpace3<embree::Vec3fa> const&, unsigned long, embree::BBox<float> const&) const
LBBox3fa vlinearBounds(const Vec3fa& ofs, const float scale, const float r_scale0, const LinearSpace3fa& space, size_t primID, const BBox1f& time_range) const { return linearBounds(ofs,scale,r_scale0,space,primID,time_range); }
pushq %rbp pushq %r15 pushq %r14 pushq %r13 pushq %r12 pushq %rbx subq $0x168, %rsp # imm = 0x168 leaq 0x6c(%rsp), %rax vmovss %xmm0, (%rax) leaq 0x68(%rsp), %r10 vmovss %xmm1, (%r10) leaq 0xc8(%rsp), %r11 movq %r8, (%r11) leaq 0xf0(%rsp), %r14 movq %rdx, (%r14) movq %rax, 0x8(%r14) movq %r10, 0x10(%r14) movq %rcx, 0x18(%r14) movq %r11, 0x20(%r14) movq %rsi, 0x28(%r14) vmovss 0x28(%rsi), %xmm4 vmovss 0x2c(%rsi), %xmm0 vmovss (%r9), %xmm1 vmovss 0x4(%r9), %xmm2 vsubss %xmm0, %xmm1, %xmm1 vmovss 0x30(%rsi), %xmm3 vsubss %xmm0, %xmm3, %xmm3 vdivss %xmm3, %xmm1, %xmm1 vsubss %xmm0, %xmm2, %xmm0 vdivss %xmm3, %xmm0, %xmm2 vmovss %xmm1, 0x4(%rsp) vmulss %xmm1, %xmm4, %xmm0 vmovss %xmm0, 0x20(%rsp) vroundss $0x9, %xmm0, %xmm0, %xmm0 vmovss %xmm2, 0x50(%rsp) vmulss %xmm2, %xmm4, %xmm1 vmovss %xmm1, 0x40(%rsp) vroundss $0xa, %xmm1, %xmm1, %xmm1 vxorps %xmm2, %xmm2, %xmm2 vmaxss %xmm2, %xmm0, %xmm3 vminss %xmm4, %xmm1, %xmm2 vmovss %xmm3, 0x10(%rsp) vcvttss2si %xmm3, %r15d vmovss %xmm2, 0x30(%rsp) vcvttss2si %xmm2, %r12d vcvttss2si %xmm0, %eax movq %rdi, %rbx testl %eax, %eax movl $0xffffffff, %r13d # imm = 0xFFFFFFFF cmovnsl %eax, %r13d vcvttss2si %xmm1, %eax vmovss %xmm4, 0xc(%rsp) vcvttss2si %xmm4, %ebp incl %ebp cmpl %ebp, %eax cmovll %eax, %ebp movslq %r15d, %rdx leaq 0x90(%rsp), %rdi movq %r14, %rsi callq 0x1ea7936 movslq %r12d, %rdx leaq 0x70(%rsp), %rdi movq %r14, %rsi callq 0x1ea7936 movl %ebp, %eax subl %r13d, %eax cmpl $0x1, %eax jne 0x1ea6b5f vmovss 0x20(%rsp), %xmm0 vsubss 0x10(%rsp), %xmm0, %xmm0 vxorps %xmm8, %xmm8, %xmm8 vmaxss %xmm8, %xmm0, %xmm0 vmovss 0x45c3f(%rip), %xmm1 # 0x1eec714 vsubss %xmm0, %xmm1, %xmm2 vbroadcastss %xmm0, %xmm0 vmovaps 0x70(%rsp), %xmm3 vmovaps 0x80(%rsp), %xmm4 vmulps %xmm3, %xmm0, %xmm5 vbroadcastss %xmm2, %xmm2 vmovaps 0x90(%rsp), %xmm6 vmovaps 0xa0(%rsp), %xmm7 vfmadd231ps %xmm6, %xmm2, %xmm5 # xmm5 = (xmm2 * xmm6) + xmm5 vmulps %xmm4, %xmm0, %xmm0 vfmadd231ps %xmm2, %xmm7, %xmm0 # xmm0 = (xmm7 * xmm2) + xmm0 vmovaps %xmm5, (%rbx) vmovaps %xmm0, 0x10(%rbx) vmovss 0x30(%rsp), %xmm0 vsubss 0x40(%rsp), %xmm0, %xmm0 vmaxss %xmm8, %xmm0, %xmm0 vsubss %xmm0, %xmm1, %xmm1 vbroadcastss %xmm0, %xmm0 vmulps %xmm6, %xmm0, %xmm2 vbroadcastss %xmm1, %xmm1 vfmadd231ps %xmm3, %xmm1, %xmm2 # xmm2 = (xmm1 * xmm3) + xmm2 vmulps %xmm7, %xmm0, %xmm0 vfmadd231ps %xmm4, %xmm1, %xmm0 # xmm0 = (xmm1 * xmm4) + xmm0 vmovaps %xmm2, 0x20(%rbx) vmovaps %xmm0, 0x30(%rbx) jmp 0x1ea6d45 incl %r15d movslq %r15d, %rdx leaq 0x140(%rsp), %r14 leaq 0xf0(%rsp), %r15 movq %r14, %rdi movq %r15, %rsi callq 0x1ea7936 decl %r12d movslq %r12d, %rdx leaq 0x120(%rsp), %r12 movq %r12, %rdi movq %r15, %rsi callq 0x1ea7936 vmovss 0x20(%rsp), %xmm0 vsubss 0x10(%rsp), %xmm0, %xmm0 vxorps %xmm5, %xmm5, %xmm5 vmaxss %xmm5, %xmm0, %xmm0 vmovss 0x45b5f(%rip), %xmm4 # 0x1eec714 vbroadcastss %xmm0, %xmm1 vmulps (%r14), %xmm1, %xmm2 vsubss %xmm0, %xmm4, %xmm0 vbroadcastss %xmm0, %xmm0 vfmadd231ps 0x90(%rsp), %xmm0, %xmm2 # xmm2 = (xmm0 * mem) + xmm2 vmulps 0x10(%r14), %xmm1, %xmm3 vfmadd231ps 0xa0(%rsp), %xmm0, %xmm3 # xmm3 = (xmm0 * mem) + xmm3 vmovss 0x30(%rsp), %xmm0 vsubss 0x40(%rsp), %xmm0, %xmm0 vmaxss %xmm5, %xmm0, %xmm0 vsubss %xmm0, %xmm4, %xmm1 vbroadcastss %xmm0, %xmm0 vmulps (%r12), %xmm0, %xmm5 vbroadcastss %xmm1, %xmm1 vfmadd231ps 0x70(%rsp), %xmm1, %xmm5 # xmm5 = (xmm1 * mem) + xmm5 vmulps 0x10(%r12), %xmm0, %xmm6 vfmadd231ps 0x80(%rsp), %xmm1, %xmm6 # xmm6 = (xmm1 * mem) + xmm6 leal 0x1(%r13), %eax cmpl %ebp, %eax jge 0x1ea6d32 vmovss 0x4(%rsp), %xmm1 vmovss 0x50(%rsp), %xmm0 vsubss %xmm1, %xmm0, %xmm0 vmovss %xmm0, 0x8(%rsp) movl %eax, %r14d notl %r13d addl %ebp, %r13d leaq 0xd0(%rsp), %r15 leaq 0xf0(%rsp), %r12 vmovaps %xmm6, 0x10(%rsp) vmovaps %xmm5, 0x20(%rsp) vmovaps %xmm3, 0x30(%rsp) vmovaps %xmm2, 0x40(%rsp) vcvtsi2ss %r14d, %xmm8, %xmm0 vdivss 0xc(%rsp), %xmm0, %xmm0 vsubss %xmm1, %xmm0, %xmm0 vdivss 0x8(%rsp), %xmm0, %xmm0 vsubss %xmm0, %xmm4, %xmm1 vbroadcastss %xmm0, %xmm0 vmulps %xmm0, %xmm5, %xmm4 vbroadcastss %xmm1, %xmm1 vfmadd231ps %xmm2, %xmm1, %xmm4 # xmm4 = (xmm1 * xmm2) + xmm4 vmovaps %xmm4, 0x50(%rsp) vmulps %xmm0, %xmm6, %xmm0 vfmadd231ps %xmm1, %xmm3, %xmm0 # xmm0 = (xmm3 * xmm1) + xmm0 vmovaps %xmm0, 0xb0(%rsp) movq %r15, %rdi movq %r12, %rsi movq %r14, %rdx callq 0x1ea7936 vmovaps 0x10(%rsp), %xmm6 vmovaps 0x20(%rsp), %xmm5 vmovss 0x45a3d(%rip), %xmm4 # 0x1eec714 vmovaps 0x30(%rsp), %xmm3 vmovaps 0x40(%rsp), %xmm2 vmovaps 0xd0(%rsp), %xmm0 vsubps 0x50(%rsp), %xmm0, %xmm0 vmovaps 0xe0(%rsp), %xmm1 vsubps 0xb0(%rsp), %xmm1, %xmm1 vxorps %xmm7, %xmm7, %xmm7 vminps %xmm7, %xmm0, %xmm0 vmaxps %xmm7, %xmm1, %xmm1 vaddps %xmm0, %xmm2, %xmm2 vaddps %xmm0, %xmm5, %xmm5 vaddps %xmm1, %xmm3, %xmm3 vaddps %xmm1, %xmm6, %xmm6 vmovss 0x4(%rsp), %xmm1 incq %r14 decl %r13d jne 0x1ea6c59 vmovaps %xmm2, (%rbx) vmovaps %xmm3, 0x10(%rbx) vmovaps %xmm5, 0x20(%rbx) vmovaps %xmm6, 0x30(%rbx) movq %rbx, %rax addq $0x168, %rsp # imm = 0x168 popq %rbx popq %r12 popq %r13 popq %r14 popq %r15 popq %rbp retq
/embree[P]embree/kernels/common/scene_curves.cpp
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)0, embree::avx512::CurveGeometryInterface, embree::CatmullRomCurveT>::linearBounds(unsigned long, embree::BBox<float> const&) const::'lambda'(unsigned long)::operator()(unsigned long) const
__forceinline LBBox3fa linearBounds(size_t primID, const BBox1f& dt) const { return LBBox3fa([&] (size_t itime) { return bounds(primID, itime); }, dt, this->time_range, fnumTimeSegments); }
movq %rdi, %rax movq (%rsi), %rdi movq 0x8(%rsi), %rcx movq 0x58(%rcx), %rsi movq 0x68(%rcx), %r8 imulq (%rdi), %r8 movl (%rsi,%r8), %esi movq 0x188(%rcx), %rdi imulq $0x38, %rdx, %r8 movq (%rdi,%r8), %rdx movq 0x10(%rdi,%r8), %rdi leal 0x1(%rsi), %r8d leal 0x2(%rsi), %r9d leal 0x3(%rsi), %r10d imulq %rdi, %rsi vmovaps (%rdx,%rsi), %xmm3 imulq %rdi, %r8 vmovaps (%rdx,%r8), %xmm7 imulq %rdi, %r9 vmovaps (%rdx,%r9), %xmm11 imulq %rdi, %r10 vmovaps (%rdx,%r10), %xmm15 vmovss 0x24c(%rcx), %xmm0 vmulss 0xc(%rdx,%rsi), %xmm0, %xmm4 vmulss 0xc(%rdx,%r8), %xmm0, %xmm8 vmulss 0xc(%rdx,%r9), %xmm0, %xmm12 vmulss 0xc(%rdx,%r10), %xmm0, %xmm16 movl 0x248(%rcx), %ecx cmpq $0x4, %rcx jne 0x1ea6fe0 vbroadcastss %xmm12, %xmm0 vblendps $0x8, %xmm0, %xmm11, %xmm1 # xmm1 = xmm11[0,1,2],xmm0[3] leaq 0x28956b(%rip), %rcx # 0x213036c vmovups 0x110(%rcx), %xmm2 vbroadcastss %xmm3, %xmm5 vshufps $0x55, %xmm3, %xmm3, %xmm6 # xmm6 = xmm3[1,1,1,1] vshufps $0xaa, %xmm3, %xmm3, %xmm3 # xmm3 = xmm3[2,2,2,2] vbroadcastss %xmm4, %xmm4 vmovups 0x594(%rcx), %xmm9 vbroadcastss %xmm7, %xmm10 vshufps $0x55, %xmm7, %xmm7, %xmm12 # xmm12 = xmm7[1,1,1,1] vshufps $0xaa, %xmm7, %xmm7, %xmm7 # xmm7 = xmm7[2,2,2,2] vbroadcastss %xmm8, %xmm8 vmovups 0xa18(%rcx), %xmm13 vbroadcastss %xmm11, %xmm14 vshufps $0x55, %xmm11, %xmm11, %xmm17 # xmm17 = xmm11[1,1,1,1] vmovups 0xe9c(%rcx), %xmm18 vshufps $0xaa, %xmm11, %xmm11, %xmm11 # xmm11 = xmm11[2,2,2,2] vbroadcastss %xmm15, %xmm19 vshufps $0x55, %xmm15, %xmm15, %xmm20 # xmm20 = xmm15[1,1,1,1] vshufps $0xaa, %xmm15, %xmm15, %xmm15 # xmm15 = xmm15[2,2,2,2] vbroadcastss %xmm16, %xmm16 vmulps %xmm18, %xmm19, %xmm19 vmulps %xmm18, %xmm20, %xmm20 vmulps %xmm18, %xmm15, %xmm15 vmulps %xmm18, %xmm16, %xmm16 vfmadd231ps %xmm14, %xmm13, %xmm19 # xmm19 = (xmm13 * xmm14) + xmm19 vfmadd231ps %xmm17, %xmm13, %xmm20 # xmm20 = (xmm13 * xmm17) + xmm20 vfmadd231ps %xmm11, %xmm13, %xmm15 # xmm15 = (xmm13 * xmm11) + xmm15 vfmadd231ps %xmm13, %xmm0, %xmm16 # xmm16 = (xmm0 * xmm13) + xmm16 vfmadd231ps %xmm10, %xmm9, %xmm19 # xmm19 = (xmm9 * xmm10) + xmm19 vfmadd231ps %xmm12, %xmm9, %xmm20 # xmm20 = (xmm9 * xmm12) + xmm20 vfmadd231ps %xmm7, %xmm9, %xmm15 # xmm15 = (xmm9 * xmm7) + xmm15 vfmadd231ps %xmm8, %xmm9, %xmm16 # xmm16 = (xmm9 * xmm8) + xmm16 vfmadd231ps %xmm5, %xmm2, %xmm19 # xmm19 = (xmm2 * xmm5) + xmm19 vfmadd231ps %xmm6, %xmm2, %xmm20 # xmm20 = (xmm2 * xmm6) + xmm20 vfmadd231ps %xmm3, %xmm2, %xmm15 # xmm15 = (xmm2 * xmm3) + xmm15 vfmadd231ps %xmm4, %xmm2, %xmm16 # xmm16 = (xmm2 * xmm4) + xmm16 vshufps $0xb1, %xmm19, %xmm19, %xmm2 # xmm2 = xmm19[1,0,3,2] vminps %xmm19, %xmm2, %xmm3 vshufpd $0x1, %xmm3, %xmm3, %xmm4 # xmm4 = xmm3[1,0] vminps %xmm3, %xmm4, %xmm3 vshufps $0xb1, %xmm20, %xmm20, %xmm4 # xmm4 = xmm20[1,0,3,2] vminps %xmm20, %xmm4, %xmm5 vshufpd $0x1, %xmm5, %xmm5, %xmm6 # xmm6 = xmm5[1,0] vminps %xmm5, %xmm6, %xmm5 vinsertps $0x1c, %xmm5, %xmm3, %xmm3 # xmm3 = xmm3[0],xmm5[0],zero,zero vshufps $0xb1, %xmm15, %xmm15, %xmm5 # xmm5 = xmm15[1,0,3,2] vminps %xmm15, %xmm5, %xmm6 vshufpd $0x1, %xmm6, %xmm6, %xmm7 # xmm7 = xmm6[1,0] vminps %xmm6, %xmm7, %xmm6 vinsertps $0x20, %xmm6, %xmm3, %xmm3 # xmm3 = xmm3[0,1],xmm6[0],xmm3[3] vmaxps %xmm19, %xmm2, %xmm2 vshufpd $0x1, %xmm2, %xmm2, %xmm6 # xmm6 = xmm2[1,0] vmaxps %xmm2, %xmm6, %xmm2 vmaxps %xmm20, %xmm4, %xmm4 vshufpd $0x1, %xmm4, %xmm4, %xmm6 # xmm6 = xmm4[1,0] vmaxps %xmm4, %xmm6, %xmm4 vinsertps $0x1c, %xmm4, %xmm2, %xmm2 # xmm2 = xmm2[0],xmm4[0],zero,zero vmaxps %xmm15, %xmm5, %xmm4 vshufpd $0x1, %xmm4, %xmm4, %xmm5 # xmm5 = xmm4[1,0] vmaxps %xmm4, %xmm5, %xmm4 vinsertps $0x20, %xmm4, %xmm2, %xmm2 # xmm2 = xmm2[0,1],xmm4[0],xmm2[3] vandps 0x79f63(%rip){1to4}, %xmm16, %xmm4 # 0x1f20ec4 vprolq $0x20, %xmm4, %xmm5 vmaxps %xmm4, %xmm5, %xmm4 vbroadcastss %xmm4, %xmm5 vshufps $0xaa, %xmm4, %xmm4, %xmm4 # xmm4 = xmm4[2,2,2,2] vmaxps %xmm5, %xmm4, %xmm4 vminps %xmm1, %xmm3, %xmm3 vmaxps %xmm1, %xmm2, %xmm1 vandps 0x79f38(%rip){1to4}, %xmm0, %xmm0 # 0x1f20ec4 vmaxps %xmm0, %xmm4, %xmm2 vsubps %xmm2, %xmm3, %xmm0 vaddps %xmm2, %xmm1, %xmm1 vbroadcastss 0x79f23(%rip), %xmm2 # 0x1f20ec4 vandps %xmm2, %xmm0, %xmm3 vandps %xmm2, %xmm1, %xmm2 vmaxps %xmm2, %xmm3, %xmm2 vmovshdup %xmm2, %xmm3 # xmm3 = xmm2[1,1,3,3] vmaxss %xmm2, %xmm3, %xmm3 vshufpd $0x1, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[1,0] vmaxss %xmm3, %xmm2, %xmm2 vmulss 0x4a01e(%rip), %xmm2, %xmm2 # 0x1ef0fe4 vbroadcastss %xmm2, %xmm2 vsubps %xmm2, %xmm0, %xmm0 vaddps %xmm2, %xmm1, %xmm1 vmovaps %xmm0, (%rax) vmovaps %xmm1, 0x10(%rax) vzeroupper retq testl %ecx, %ecx js 0x1ea71e7 vpbroadcastd %ecx, %ymm0 vmovdqu %ymm0, -0x28(%rsp) vbroadcastss %xmm3, %ymm0 vmovups %ymm0, -0x48(%rsp) vbroadcastss 0x6b6fc(%rip), %ymm14 # 0x1f12704 vpermps %ymm3, %ymm14, %ymm2 vbroadcastss 0x79ec5(%rip), %ymm17 # 0x1f20edc vpermps %ymm3, %ymm17, %ymm3 vbroadcastss %xmm4, %ymm4 vbroadcastss %xmm7, %ymm5 vpermps %ymm7, %ymm14, %ymm6 vpermps %ymm7, %ymm17, %ymm7 vbroadcastss %xmm8, %ymm8 vbroadcastss %xmm11, %ymm9 vpermps %ymm11, %ymm14, %ymm10 vpermps %ymm11, %ymm17, %ymm11 vbroadcastss %xmm12, %ymm12 vbroadcastss %xmm15, %ymm13 vpermps %ymm15, %ymm14, %ymm14 vpermps %ymm15, %ymm17, %ymm15 vbroadcastss %xmm16, %ymm16 movq %rcx, %rdx shlq $0x6, %rdx leaq (%rdx,%rcx,4), %rdx addq 0x27de64(%rip), %rdx # 0x2124ed8 vbroadcastss 0x45b06(%rip), %ymm20 # 0x1eecb84 vbroadcastss 0x44998(%rip), %ymm17 # 0x1eeba20 vxorps %xmm21, %xmm21, %xmm21 xorl %esi, %esi vmovaps %ymm17, %ymm22 vmovaps %ymm17, %ymm29 vmovaps %ymm20, %ymm26 vmovaps %ymm20, %ymm28 vpbroadcastd %esi, %ymm19 vpord 0xb3868(%rip), %ymm19, %ymm19 # 0x1f5a920 vmovups (%rdx,%rsi,4), %ymm23 vmovups 0x484(%rdx,%rsi,4), %ymm24 vmovups 0x908(%rdx,%rsi,4), %ymm25 vpcmpgtd -0x28(%rsp), %ymm19, %k1 vmovups 0xd8c(%rdx,%rsi,4), %ymm19 vmulps %ymm19, %ymm13, %ymm18 vmulps %ymm19, %ymm14, %ymm0 vmulps %ymm19, %ymm15, %ymm1 vmulps %ymm19, %ymm16, %ymm19 vfmadd231ps %ymm9, %ymm25, %ymm18 # ymm18 = (ymm25 * ymm9) + ymm18 vfmadd231ps %ymm10, %ymm25, %ymm0 # ymm0 = (ymm25 * ymm10) + ymm0 vfmadd231ps %ymm11, %ymm25, %ymm1 # ymm1 = (ymm25 * ymm11) + ymm1 vfmadd231ps %ymm25, %ymm12, %ymm19 # ymm19 = (ymm12 * ymm25) + ymm19 vfmadd231ps %ymm5, %ymm24, %ymm18 # ymm18 = (ymm24 * ymm5) + ymm18 vfmadd231ps %ymm6, %ymm24, %ymm0 # ymm0 = (ymm24 * ymm6) + ymm0 vfmadd231ps %ymm7, %ymm24, %ymm1 # ymm1 = (ymm24 * ymm7) + ymm1 vfmadd231ps %ymm24, %ymm8, %ymm19 # ymm19 = (ymm8 * ymm24) + ymm19 vfmadd231ps -0x48(%rsp), %ymm23, %ymm18 # ymm18 = (ymm23 * mem) + ymm18 vfmadd231ps %ymm2, %ymm23, %ymm0 # ymm0 = (ymm23 * ymm2) + ymm0 vfmadd231ps %ymm3, %ymm23, %ymm1 # ymm1 = (ymm23 * ymm3) + ymm1 vfmadd231ps %ymm23, %ymm4, %ymm19 # ymm19 = (ymm4 * ymm23) + ymm19 vandps 0x79d6a(%rip){1to8}, %ymm19, %ymm19 # 0x1f20ec4 vminps %ymm18, %ymm29, %ymm30 vmovaps %ymm29, %ymm30 {%k1} vminps %ymm0, %ymm22, %ymm27 vmovaps %ymm22, %ymm27 {%k1} vminps %ymm1, %ymm17, %ymm31 vmovaps %ymm17, %ymm31 {%k1} vmaxps %ymm18, %ymm28, %ymm24 vmovaps %ymm28, %ymm24 {%k1} vmaxps %ymm0, %ymm26, %ymm25 vmovaps %ymm26, %ymm25 {%k1} vmaxps %ymm1, %ymm20, %ymm23 vmovaps %ymm20, %ymm23 {%k1} vmaxps %ymm19, %ymm21, %ymm19 vmovaps %ymm21, %ymm19 {%k1} addq $0x8, %rsi vmovaps %ymm31, %ymm17 vmovaps %ymm27, %ymm22 vmovaps %ymm30, %ymm29 vmovaps %ymm23, %ymm20 vmovaps %ymm25, %ymm26 vmovaps %ymm24, %ymm28 vmovaps %ymm19, %ymm21 cmpq %rcx, %rsi jbe 0x1ea70a8 jmp 0x1ea7219 vbroadcastss 0x4482f(%rip), %ymm30 # 0x1eeba20 vbroadcastss 0x45989(%rip), %ymm24 # 0x1eecb84 vxorps %xmm19, %xmm19, %xmm19 vmovaps %ymm24, %ymm25 vmovaps %ymm24, %ymm23 vmovaps %ymm30, %ymm27 vmovaps %ymm30, %ymm31 vshufps $0xb1, %ymm30, %ymm30, %ymm0 # ymm0 = ymm30[1,0,3,2,5,4,7,6] vminps %ymm0, %ymm30, %ymm0 vshufpd $0x5, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2] vminps %ymm1, %ymm0, %ymm0 vextractf128 $0x1, %ymm0, %xmm1 vminps %xmm1, %xmm0, %xmm0 vshufps $0xb1, %ymm27, %ymm27, %ymm1 # ymm1 = ymm27[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm27, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vextractf128 $0x1, %ymm1, %xmm2 vminps %xmm2, %xmm1, %xmm1 vunpcklps %xmm1, %xmm0, %xmm0 # xmm0 = xmm0[0],xmm1[0],xmm0[1],xmm1[1] vshufps $0xb1, %ymm31, %ymm31, %ymm1 # ymm1 = ymm31[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm31, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vextractf128 $0x1, %ymm1, %xmm2 vminps %xmm2, %xmm1, %xmm1 vinsertps $0x28, %xmm1, %xmm0, %xmm0 # xmm0 = xmm0[0,1],xmm1[0],zero vshufps $0xb1, %ymm24, %ymm24, %ymm1 # ymm1 = ymm24[1,0,3,2,5,4,7,6] vmaxps %ymm1, %ymm24, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vmaxps %ymm2, %ymm1, %ymm1 vextractf128 $0x1, %ymm1, %xmm2 vmaxps %xmm2, %xmm1, %xmm1 vshufps $0xb1, %ymm25, %ymm25, %ymm2 # ymm2 = ymm25[1,0,3,2,5,4,7,6] vmaxps %ymm2, %ymm25, %ymm2 vshufpd $0x5, %ymm2, %ymm2, %ymm3 # ymm3 = ymm2[1,0,3,2] vmaxps %ymm3, %ymm2, %ymm2 vextractf128 $0x1, %ymm2, %xmm3 vmaxps %xmm3, %xmm2, %xmm2 vunpcklps %xmm2, %xmm1, %xmm1 # xmm1 = xmm1[0],xmm2[0],xmm1[1],xmm2[1] vshufps $0xb1, %ymm23, %ymm23, %ymm2 # ymm2 = ymm23[1,0,3,2,5,4,7,6] vmaxps %ymm2, %ymm23, %ymm2 vshufpd $0x5, %ymm2, %ymm2, %ymm3 # ymm3 = ymm2[1,0,3,2] vmaxps %ymm3, %ymm2, %ymm2 vextractf128 $0x1, %ymm2, %xmm3 vmaxps %xmm3, %xmm2, %xmm2 vinsertps $0x28, %xmm2, %xmm1, %xmm1 # xmm1 = xmm1[0,1],xmm2[0],zero vshufps $0xb1, %ymm19, %ymm19, %ymm2 # ymm2 = ymm19[1,0,3,2,5,4,7,6] vmaxps %ymm2, %ymm19, %ymm2 vshufpd $0x5, %ymm2, %ymm2, %ymm3 # ymm3 = ymm2[1,0,3,2] vmaxps %ymm3, %ymm2, %ymm2 vextractf128 $0x1, %ymm2, %xmm3 vmaxps %xmm3, %xmm2, %xmm2 vbroadcastss %xmm2, %xmm2 vsubps %xmm2, %xmm0, %xmm0 jmp 0x1ea6f94 nop
/embree[P]embree/kernels/common/scene_curves.cpp
embree::avx512::CurveGeometryISA<(embree::Geometry::GType)0, embree::avx512::CurveGeometryInterface, embree::CatmullRomCurveT>::linearBounds(embree::LinearSpace3<embree::Vec3fa> const&, unsigned long, embree::BBox<float> const&) const::'lambda'(unsigned long)::operator()(unsigned long) const
__forceinline LBBox3fa linearBounds(const LinearSpace3fa& space, size_t primID, const BBox1f& dt) const { return LBBox3fa([&] (size_t itime) { return bounds(space, primID, itime); }, dt, this->time_range, fnumTimeSegments); }
movq %rdi, %rax movq 0x10(%rsi), %rcx movq (%rsi), %rdi movq 0x8(%rsi), %rsi movq 0x58(%rcx), %r8 movq 0x68(%rcx), %r9 imulq (%rsi), %r9 movl (%r8,%r9), %r10d movq 0x188(%rcx), %rsi imulq $0x38, %rdx, %r8 movq (%rsi,%r8), %rdx movq 0x10(%rsi,%r8), %r11 leal 0x1(%r10), %r9d leal 0x2(%r10), %r8d leal 0x3(%r10), %esi imulq %r11, %r10 imulq %r11, %r9 imulq %r11, %r8 imulq %r11, %rsi vmovaps (%rdi), %xmm0 vmovaps 0x10(%rdi), %xmm1 vmovaps 0x20(%rdi), %xmm2 vmulps 0x8(%rdx,%r10){1to4}, %xmm2, %xmm3 vfmadd231ps 0x4(%rdx,%r10){1to4}, %xmm1, %xmm3 # xmm3 = (xmm1 * mem) + xmm3 vfmadd231ps (%rdx,%r10){1to4}, %xmm0, %xmm3 # xmm3 = (xmm0 * mem) + xmm3 vmovss 0x24c(%rcx), %xmm5 vmulss 0xc(%rdx,%r10), %xmm5, %xmm4 vmulps 0x8(%rdx,%r9){1to4}, %xmm2, %xmm7 vfmadd231ps 0x4(%rdx,%r9){1to4}, %xmm1, %xmm7 # xmm7 = (xmm1 * mem) + xmm7 vfmadd231ps (%rdx,%r9){1to4}, %xmm0, %xmm7 # xmm7 = (xmm0 * mem) + xmm7 vmulss 0xc(%rdx,%r9), %xmm5, %xmm8 vmulps 0x8(%rdx,%r8){1to4}, %xmm2, %xmm11 vfmadd231ps 0x4(%rdx,%r8){1to4}, %xmm1, %xmm11 # xmm11 = (xmm1 * mem) + xmm11 vfmadd231ps (%rdx,%r8){1to4}, %xmm0, %xmm11 # xmm11 = (xmm0 * mem) + xmm11 vmulss 0xc(%rdx,%r8), %xmm5, %xmm12 vmulps 0x8(%rdx,%rsi){1to4}, %xmm2, %xmm15 vfmadd231ps 0x4(%rdx,%rsi){1to4}, %xmm1, %xmm15 # xmm15 = (xmm1 * mem) + xmm15 vfmadd231ps (%rdx,%rsi){1to4}, %xmm0, %xmm15 # xmm15 = (xmm0 * mem) + xmm15 vmulss 0xc(%rdx,%rsi), %xmm5, %xmm16 movl 0x248(%rcx), %ecx cmpq $0x4, %rcx jne 0x1ea75fa vbroadcastss %xmm12, %xmm0 vblendps $0x8, %xmm0, %xmm11, %xmm1 # xmm1 = xmm11[0,1,2],xmm0[3] leaq 0x288f51(%rip), %rcx # 0x213036c vmovups 0x110(%rcx), %xmm2 vbroadcastss %xmm3, %xmm5 vshufps $0x55, %xmm3, %xmm3, %xmm6 # xmm6 = xmm3[1,1,1,1] vshufps $0xaa, %xmm3, %xmm3, %xmm3 # xmm3 = xmm3[2,2,2,2] vbroadcastss %xmm4, %xmm4 vmovups 0x594(%rcx), %xmm9 vbroadcastss %xmm7, %xmm10 vshufps $0x55, %xmm7, %xmm7, %xmm12 # xmm12 = xmm7[1,1,1,1] vshufps $0xaa, %xmm7, %xmm7, %xmm7 # xmm7 = xmm7[2,2,2,2] vbroadcastss %xmm8, %xmm8 vmovups 0xa18(%rcx), %xmm13 vbroadcastss %xmm11, %xmm14 vshufps $0x55, %xmm11, %xmm11, %xmm17 # xmm17 = xmm11[1,1,1,1] vmovups 0xe9c(%rcx), %xmm18 vshufps $0xaa, %xmm11, %xmm11, %xmm11 # xmm11 = xmm11[2,2,2,2] vbroadcastss %xmm15, %xmm19 vshufps $0x55, %xmm15, %xmm15, %xmm20 # xmm20 = xmm15[1,1,1,1] vshufps $0xaa, %xmm15, %xmm15, %xmm15 # xmm15 = xmm15[2,2,2,2] vbroadcastss %xmm16, %xmm16 vmulps %xmm18, %xmm19, %xmm19 vmulps %xmm18, %xmm20, %xmm20 vmulps %xmm18, %xmm15, %xmm15 vmulps %xmm18, %xmm16, %xmm16 vfmadd231ps %xmm14, %xmm13, %xmm19 # xmm19 = (xmm13 * xmm14) + xmm19 vfmadd231ps %xmm17, %xmm13, %xmm20 # xmm20 = (xmm13 * xmm17) + xmm20 vfmadd231ps %xmm11, %xmm13, %xmm15 # xmm15 = (xmm13 * xmm11) + xmm15 vfmadd231ps %xmm13, %xmm0, %xmm16 # xmm16 = (xmm0 * xmm13) + xmm16 vfmadd231ps %xmm10, %xmm9, %xmm19 # xmm19 = (xmm9 * xmm10) + xmm19 vfmadd231ps %xmm12, %xmm9, %xmm20 # xmm20 = (xmm9 * xmm12) + xmm20 vfmadd231ps %xmm7, %xmm9, %xmm15 # xmm15 = (xmm9 * xmm7) + xmm15 vfmadd231ps %xmm8, %xmm9, %xmm16 # xmm16 = (xmm9 * xmm8) + xmm16 vfmadd231ps %xmm5, %xmm2, %xmm19 # xmm19 = (xmm2 * xmm5) + xmm19 vfmadd231ps %xmm6, %xmm2, %xmm20 # xmm20 = (xmm2 * xmm6) + xmm20 vfmadd231ps %xmm3, %xmm2, %xmm15 # xmm15 = (xmm2 * xmm3) + xmm15 vfmadd231ps %xmm4, %xmm2, %xmm16 # xmm16 = (xmm2 * xmm4) + xmm16 vshufps $0xb1, %xmm19, %xmm19, %xmm2 # xmm2 = xmm19[1,0,3,2] vminps %xmm19, %xmm2, %xmm3 vshufpd $0x1, %xmm3, %xmm3, %xmm4 # xmm4 = xmm3[1,0] vminps %xmm3, %xmm4, %xmm3 vshufps $0xb1, %xmm20, %xmm20, %xmm4 # xmm4 = xmm20[1,0,3,2] vminps %xmm20, %xmm4, %xmm5 vshufpd $0x1, %xmm5, %xmm5, %xmm6 # xmm6 = xmm5[1,0] vminps %xmm5, %xmm6, %xmm5 vinsertps $0x1c, %xmm5, %xmm3, %xmm3 # xmm3 = xmm3[0],xmm5[0],zero,zero vshufps $0xb1, %xmm15, %xmm15, %xmm5 # xmm5 = xmm15[1,0,3,2] vminps %xmm15, %xmm5, %xmm6 vshufpd $0x1, %xmm6, %xmm6, %xmm7 # xmm7 = xmm6[1,0] vminps %xmm6, %xmm7, %xmm6 vinsertps $0x20, %xmm6, %xmm3, %xmm3 # xmm3 = xmm3[0,1],xmm6[0],xmm3[3] vmaxps %xmm19, %xmm2, %xmm2 vshufpd $0x1, %xmm2, %xmm2, %xmm6 # xmm6 = xmm2[1,0] vmaxps %xmm2, %xmm6, %xmm2 vmaxps %xmm20, %xmm4, %xmm4 vshufpd $0x1, %xmm4, %xmm4, %xmm6 # xmm6 = xmm4[1,0] vmaxps %xmm4, %xmm6, %xmm4 vinsertps $0x1c, %xmm4, %xmm2, %xmm2 # xmm2 = xmm2[0],xmm4[0],zero,zero vmaxps %xmm15, %xmm5, %xmm4 vshufpd $0x1, %xmm4, %xmm4, %xmm5 # xmm5 = xmm4[1,0] vmaxps %xmm4, %xmm5, %xmm4 vinsertps $0x20, %xmm4, %xmm2, %xmm2 # xmm2 = xmm2[0,1],xmm4[0],xmm2[3] vandps 0x79949(%rip){1to4}, %xmm16, %xmm4 # 0x1f20ec4 vprolq $0x20, %xmm4, %xmm5 vmaxps %xmm4, %xmm5, %xmm4 vbroadcastss %xmm4, %xmm5 vshufps $0xaa, %xmm4, %xmm4, %xmm4 # xmm4 = xmm4[2,2,2,2] vmaxps %xmm5, %xmm4, %xmm4 vminps %xmm1, %xmm3, %xmm3 vmaxps %xmm1, %xmm2, %xmm1 vandps 0x7991e(%rip){1to4}, %xmm0, %xmm0 # 0x1f20ec4 vmaxps %xmm0, %xmm4, %xmm2 vsubps %xmm2, %xmm3, %xmm0 vaddps %xmm2, %xmm1, %xmm1 vbroadcastss 0x79909(%rip), %xmm2 # 0x1f20ec4 vandps %xmm2, %xmm0, %xmm3 vandps %xmm2, %xmm1, %xmm2 vmaxps %xmm2, %xmm3, %xmm2 vmovshdup %xmm2, %xmm3 # xmm3 = xmm2[1,1,3,3] vmaxss %xmm2, %xmm3, %xmm3 vshufpd $0x1, %xmm2, %xmm2, %xmm2 # xmm2 = xmm2[1,0] vmaxss %xmm3, %xmm2, %xmm2 vmulss 0x49a04(%rip), %xmm2, %xmm2 # 0x1ef0fe4 vbroadcastss %xmm2, %xmm2 vsubps %xmm2, %xmm0, %xmm0 vaddps %xmm2, %xmm1, %xmm1 vmovaps %xmm0, (%rax) vmovaps %xmm1, 0x10(%rax) vzeroupper retq testl %ecx, %ecx js 0x1ea7801 vpbroadcastd %ecx, %ymm0 vmovdqu %ymm0, -0x28(%rsp) vbroadcastss %xmm3, %ymm0 vmovups %ymm0, -0x48(%rsp) vbroadcastss 0x6b0e2(%rip), %ymm14 # 0x1f12704 vpermps %ymm3, %ymm14, %ymm2 vbroadcastss 0x798ab(%rip), %ymm17 # 0x1f20edc vpermps %ymm3, %ymm17, %ymm3 vbroadcastss %xmm4, %ymm4 vbroadcastss %xmm7, %ymm5 vpermps %ymm7, %ymm14, %ymm6 vpermps %ymm7, %ymm17, %ymm7 vbroadcastss %xmm8, %ymm8 vbroadcastss %xmm11, %ymm9 vpermps %ymm11, %ymm14, %ymm10 vpermps %ymm11, %ymm17, %ymm11 vbroadcastss %xmm12, %ymm12 vbroadcastss %xmm15, %ymm13 vpermps %ymm15, %ymm14, %ymm14 vpermps %ymm15, %ymm17, %ymm15 vbroadcastss %xmm16, %ymm16 movq %rcx, %rdx shlq $0x6, %rdx leaq (%rdx,%rcx,4), %rdx addq 0x27d84a(%rip), %rdx # 0x2124ed8 vbroadcastss 0x454ec(%rip), %ymm20 # 0x1eecb84 vbroadcastss 0x4437e(%rip), %ymm17 # 0x1eeba20 vxorps %xmm21, %xmm21, %xmm21 xorl %esi, %esi vmovaps %ymm17, %ymm22 vmovaps %ymm17, %ymm29 vmovaps %ymm20, %ymm26 vmovaps %ymm20, %ymm28 vpbroadcastd %esi, %ymm19 vpord 0xb324e(%rip), %ymm19, %ymm19 # 0x1f5a920 vmovups (%rdx,%rsi,4), %ymm23 vmovups 0x484(%rdx,%rsi,4), %ymm24 vmovups 0x908(%rdx,%rsi,4), %ymm25 vpcmpgtd -0x28(%rsp), %ymm19, %k1 vmovups 0xd8c(%rdx,%rsi,4), %ymm19 vmulps %ymm19, %ymm13, %ymm18 vmulps %ymm19, %ymm14, %ymm0 vmulps %ymm19, %ymm15, %ymm1 vmulps %ymm19, %ymm16, %ymm19 vfmadd231ps %ymm9, %ymm25, %ymm18 # ymm18 = (ymm25 * ymm9) + ymm18 vfmadd231ps %ymm10, %ymm25, %ymm0 # ymm0 = (ymm25 * ymm10) + ymm0 vfmadd231ps %ymm11, %ymm25, %ymm1 # ymm1 = (ymm25 * ymm11) + ymm1 vfmadd231ps %ymm25, %ymm12, %ymm19 # ymm19 = (ymm12 * ymm25) + ymm19 vfmadd231ps %ymm5, %ymm24, %ymm18 # ymm18 = (ymm24 * ymm5) + ymm18 vfmadd231ps %ymm6, %ymm24, %ymm0 # ymm0 = (ymm24 * ymm6) + ymm0 vfmadd231ps %ymm7, %ymm24, %ymm1 # ymm1 = (ymm24 * ymm7) + ymm1 vfmadd231ps %ymm24, %ymm8, %ymm19 # ymm19 = (ymm8 * ymm24) + ymm19 vfmadd231ps -0x48(%rsp), %ymm23, %ymm18 # ymm18 = (ymm23 * mem) + ymm18 vfmadd231ps %ymm2, %ymm23, %ymm0 # ymm0 = (ymm23 * ymm2) + ymm0 vfmadd231ps %ymm3, %ymm23, %ymm1 # ymm1 = (ymm23 * ymm3) + ymm1 vfmadd231ps %ymm23, %ymm4, %ymm19 # ymm19 = (ymm4 * ymm23) + ymm19 vandps 0x79750(%rip){1to8}, %ymm19, %ymm19 # 0x1f20ec4 vminps %ymm18, %ymm29, %ymm30 vmovaps %ymm29, %ymm30 {%k1} vminps %ymm0, %ymm22, %ymm27 vmovaps %ymm22, %ymm27 {%k1} vminps %ymm1, %ymm17, %ymm31 vmovaps %ymm17, %ymm31 {%k1} vmaxps %ymm18, %ymm28, %ymm24 vmovaps %ymm28, %ymm24 {%k1} vmaxps %ymm0, %ymm26, %ymm25 vmovaps %ymm26, %ymm25 {%k1} vmaxps %ymm1, %ymm20, %ymm23 vmovaps %ymm20, %ymm23 {%k1} vmaxps %ymm19, %ymm21, %ymm19 vmovaps %ymm21, %ymm19 {%k1} addq $0x8, %rsi vmovaps %ymm31, %ymm17 vmovaps %ymm27, %ymm22 vmovaps %ymm30, %ymm29 vmovaps %ymm23, %ymm20 vmovaps %ymm25, %ymm26 vmovaps %ymm24, %ymm28 vmovaps %ymm19, %ymm21 cmpq %rcx, %rsi jbe 0x1ea76c2 jmp 0x1ea7833 vbroadcastss 0x44215(%rip), %ymm30 # 0x1eeba20 vbroadcastss 0x4536f(%rip), %ymm24 # 0x1eecb84 vxorps %xmm19, %xmm19, %xmm19 vmovaps %ymm24, %ymm25 vmovaps %ymm24, %ymm23 vmovaps %ymm30, %ymm27 vmovaps %ymm30, %ymm31 vshufps $0xb1, %ymm30, %ymm30, %ymm0 # ymm0 = ymm30[1,0,3,2,5,4,7,6] vminps %ymm0, %ymm30, %ymm0 vshufpd $0x5, %ymm0, %ymm0, %ymm1 # ymm1 = ymm0[1,0,3,2] vminps %ymm1, %ymm0, %ymm0 vextractf128 $0x1, %ymm0, %xmm1 vminps %xmm1, %xmm0, %xmm0 vshufps $0xb1, %ymm27, %ymm27, %ymm1 # ymm1 = ymm27[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm27, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vextractf128 $0x1, %ymm1, %xmm2 vminps %xmm2, %xmm1, %xmm1 vunpcklps %xmm1, %xmm0, %xmm0 # xmm0 = xmm0[0],xmm1[0],xmm0[1],xmm1[1] vshufps $0xb1, %ymm31, %ymm31, %ymm1 # ymm1 = ymm31[1,0,3,2,5,4,7,6] vminps %ymm1, %ymm31, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vminps %ymm2, %ymm1, %ymm1 vextractf128 $0x1, %ymm1, %xmm2 vminps %xmm2, %xmm1, %xmm1 vinsertps $0x28, %xmm1, %xmm0, %xmm0 # xmm0 = xmm0[0,1],xmm1[0],zero vshufps $0xb1, %ymm24, %ymm24, %ymm1 # ymm1 = ymm24[1,0,3,2,5,4,7,6] vmaxps %ymm1, %ymm24, %ymm1 vshufpd $0x5, %ymm1, %ymm1, %ymm2 # ymm2 = ymm1[1,0,3,2] vmaxps %ymm2, %ymm1, %ymm1 vextractf128 $0x1, %ymm1, %xmm2 vmaxps %xmm2, %xmm1, %xmm1 vshufps $0xb1, %ymm25, %ymm25, %ymm2 # ymm2 = ymm25[1,0,3,2,5,4,7,6] vmaxps %ymm2, %ymm25, %ymm2 vshufpd $0x5, %ymm2, %ymm2, %ymm3 # ymm3 = ymm2[1,0,3,2] vmaxps %ymm3, %ymm2, %ymm2 vextractf128 $0x1, %ymm2, %xmm3 vmaxps %xmm3, %xmm2, %xmm2 vunpcklps %xmm2, %xmm1, %xmm1 # xmm1 = xmm1[0],xmm2[0],xmm1[1],xmm2[1] vshufps $0xb1, %ymm23, %ymm23, %ymm2 # ymm2 = ymm23[1,0,3,2,5,4,7,6] vmaxps %ymm2, %ymm23, %ymm2 vshufpd $0x5, %ymm2, %ymm2, %ymm3 # ymm3 = ymm2[1,0,3,2] vmaxps %ymm3, %ymm2, %ymm2 vextractf128 $0x1, %ymm2, %xmm3 vmaxps %xmm3, %xmm2, %xmm2 vinsertps $0x28, %xmm2, %xmm1, %xmm1 # xmm1 = xmm1[0,1],xmm2[0],zero vshufps $0xb1, %ymm19, %ymm19, %ymm2 # ymm2 = ymm19[1,0,3,2,5,4,7,6] vmaxps %ymm2, %ymm19, %ymm2 vshufpd $0x5, %ymm2, %ymm2, %ymm3 # ymm3 = ymm2[1,0,3,2] vmaxps %ymm3, %ymm2, %ymm2 vextractf128 $0x1, %ymm2, %xmm3 vmaxps %xmm3, %xmm2, %xmm2 vbroadcastss %xmm2, %xmm2 vsubps %xmm2, %xmm0, %xmm0 jmp 0x1ea75ae nop
/embree[P]embree/kernels/common/scene_curves.cpp