dataset stringclasses 3 values | file stringlengths 7 83 | fun_name stringlengths 2 83 | llvm_ir_function stringlengths 61 121k | label stringclasses 2 values |
|---|---|---|---|---|
BinRealVul | store_tabletXtilt_8551 | store_tabletXtilt | define i64 @FUNC(i64* %arg1, i64* %arg2, i64 %arg3, i64 %arg4) local_unnamed_addr {
LBL_0:
%rax.0.reg2mem = alloca i64
%storemerge4.reg2mem = alloca i32
%0 = ptrtoint i64* %arg1 to i64
%sv_0 = alloca i32, align 4
%1 = call i64 @FUNC(i64 %0)
%2 = bitcast i32* %sv_0 to i64*
%3 = call i64 @FUNC(i64 %arg3, i64 10, i64* nonnull %2)
%4 = trunc i64 %3 to i32
%5 = icmp eq i32 %4, 0
br i1 %5, label LBL_2, label LBL_1
LBL_1:
%6 = add i64 %arg4, -1
%7 = add i64 %6, %arg3
%8 = inttoptr i64 %7 to i8*
%9 = load i8, i8* %8, align 1
%10 = icmp eq i8 %9, 10
%11 = icmp eq i1 %10, false
%storemerge = select i1 %11, i64 %arg4, i64 %6
%12 = inttoptr i64 %arg3 to i8*
%13 = trunc i64 %storemerge to i32
%14 = call i32 @strncmp(i8* %12, i8* getelementptr inbounds ([8 x i8], [8 x i8]* @gv_0, i64 0, i64 0), i32 %13)
%15 = icmp eq i32 %14, 0
store i32 -1, i32* %storemerge4.reg2mem
store i64 4294967274, i64* %rax.0.reg2mem
br i1 %15, label LBL_3, label LBL_4
LBL_2:
%16 = load i32, i32* %sv_0, align 4
%.off = add i32 %16, 90
%17 = icmp ult i32 %.off, 181
store i32 %16, i32* %storemerge4.reg2mem
store i64 4294967274, i64* %rax.0.reg2mem
br i1 %17, label LBL_3, label LBL_4
LBL_3:
%18 = inttoptr i64 %1 to i32*
%storemerge4.reload = load i32, i32* %storemerge4.reg2mem
store i32 %storemerge4.reload, i32* %18, align 4
store i64 %arg4, i64* %rax.0.reg2mem
br label LBL_4
LBL_4:
%rax.0.reload = load i64, i64* %rax.0.reg2mem
ret i64 %rax.0.reload
uselistorder i64 %6, { 1, 0 }
uselistorder i64* %rax.0.reg2mem, { 0, 3, 1, 2 }
uselistorder i8 10, { 1, 0 }
uselistorder i64 %arg4, { 0, 2, 1 }
uselistorder i64 %arg3, { 1, 0, 2 }
uselistorder label LBL_4, { 2, 0, 1 }
} | 0 |
BinRealVul | ReplaceThumbnail_11981 | ReplaceThumbnail | define i64 @FUNC(i8* %arg1) local_unnamed_addr {
LBL_0:
%rax.0.reg2mem = alloca i64
%sv_0.0.reg2mem = alloca i32
%sv_1.0.reg2mem = alloca %_IO_FILE*
%0 = load i32, i32* @gv_0, align 4
%1 = icmp eq i32 %0, 0
br i1 %1, label LBL_2, label LBL_1
LBL_1:
%2 = load i32, i32* @gv_1, align 4
%3 = icmp eq i32 %2, 0
%4 = icmp eq i1 %3, false
br i1 %4, label LBL_4, label LBL_2
LBL_2:
%5 = icmp eq i8* %arg1, null
%6 = icmp eq i1 %5, false
store i64 0, i64* %rax.0.reg2mem
br i1 %6, label LBL_3, label LBL_14
LBL_3:
%7 = load %_IO_FILE*, %_IO_FILE** @gv_2, align 8
%8 = call i32 @fwrite(i64* bitcast ([62 x i8]* @gv_3 to i64*), i32 1, i32 61, %_IO_FILE* %7)
store i64 0, i64* %rax.0.reg2mem
br label LBL_14
LBL_4:
%9 = icmp eq i8* %arg1, null
br i1 %9, label LBL_9, label LBL_5
LBL_5:
%10 = call %_IO_FILE* @fopen(i8* nonnull %arg1, i8* getelementptr inbounds ([3 x i8], [3 x i8]* @gv_4, i64 0, i64 0))
%11 = icmp eq %_IO_FILE* %10, null
%12 = icmp eq i1 %11, false
br i1 %12, label LBL_7, label LBL_6
LBL_6:
%13 = call i64 @FUNC(i8* getelementptr inbounds ([30 x i8], [30 x i8]* @gv_5, i64 0, i64 0))
unreachable
LBL_7:
%14 = call i32 @fseek(%_IO_FILE* %10, i32 0, i32 2)
%15 = call i32 @ftell(%_IO_FILE* %10)
%16 = call i32 @fseek(%_IO_FILE* %10, i32 0, i32 0)
%17 = load i32, i32* @gv_0, align 4
%18 = add i32 %17, %15
%19 = icmp slt i32 %18, 65517
store %_IO_FILE* %10, %_IO_FILE** %sv_1.0.reg2mem
store i32 %15, i32* %sv_0.0.reg2mem
br i1 %19, label LBL_10, label LBL_8
LBL_8:
%20 = call i64 @FUNC(i8* getelementptr inbounds ([50 x i8], [50 x i8]* @gv_6, i64 0, i64 0))
unreachable
LBL_9:
%21 = load i32, i32* bitcast (i64* @gv_7 to i32*), align 8
%22 = icmp eq i32 %21, 0
%23 = icmp eq i1 %22, false
store %_IO_FILE* null, %_IO_FILE** %sv_1.0.reg2mem
store i32 0, i32* %sv_0.0.reg2mem
store i64 0, i64* %rax.0.reg2mem
br i1 %23, label LBL_10, label LBL_14
LBL_10:
%sv_0.0.reload = load i32, i32* %sv_0.0.reg2mem
%sv_1.0.reload = load %_IO_FILE*, %_IO_FILE** %sv_1.0.reg2mem
%24 = call i64 @FUNC(i64 0)
%25 = add i32 %sv_0.0.reload, ptrtoint (i64* @gv_7 to i32)
%26 = inttoptr i64 %24 to i64*
%27 = load i64, i64* %26, align 8
%28 = inttoptr i64 %27 to i64*
%29 = call i64* @realloc(i64* %28, i32 %25)
%30 = ptrtoint i64* %29 to i64
store i64 %30, i64* %26, align 8
%31 = icmp eq %_IO_FILE* %sv_1.0.reload, null
br i1 %31, label LBL_13, label LBL_11
LBL_11:
%32 = add i64 %30, ptrtoint (i64* @gv_7 to i64)
%33 = inttoptr i64 %32 to i64*
%34 = call i32 @fread(i64* %33, i32 1, i32 %sv_0.0.reload, %_IO_FILE* nonnull %sv_1.0.reload)
%35 = icmp eq i32 %34, %sv_0.0.reload
%36 = icmp eq i1 %35, false
br i1 %36, label LBL_6, label LBL_12
LBL_12:
%37 = call i32 @fclose(%_IO_FILE* nonnull %sv_1.0.reload)
br label LBL_13
LBL_13:
store i32 %sv_0.0.reload, i32* bitcast (i64* @gv_7 to i32*), align 8
%38 = load i64, i64* %26, align 8
%39 = load i32, i32* inttoptr (i64 4210844 to i32*), align 4
%40 = sext i32 %39 to i64
%41 = add i64 %38, 8
%42 = add i64 %41, %40
%43 = zext i32 %sv_0.0.reload to i64
%44 = call i64 @FUNC(i64 %42, i64 %43)
%45 = udiv i32 %25, 256
%46 = load i64, i64* %26, align 8
%47 = trunc i32 %45 to i8
%48 = inttoptr i64 %46 to i8*
store i8 %47, i8* %48, align 1
%49 = load i64, i64* %26, align 8
%50 = add i64 %49, 1
%51 = trunc i32 %25 to i8
%52 = inttoptr i64 %50 to i8*
store i8 %51, i8* %52, align 1
%53 = add i64 %24, 8
%54 = inttoptr i64 %53 to i32*
store i32 %25, i32* %54, align 4
store i64 1, i64* %rax.0.reg2mem
br label LBL_14
LBL_14:
%rax.0.reload = load i64, i64* %rax.0.reg2mem
ret i64 %rax.0.reload
uselistorder i32 %25, { 1, 2, 0, 3 }
uselistorder %_IO_FILE* %sv_1.0.reload, { 2, 0, 1 }
uselistorder i32 %sv_0.0.reload, { 2, 1, 3, 4, 0 }
uselistorder %_IO_FILE* %10, { 0, 3, 2, 1, 4 }
uselistorder i64* %rax.0.reg2mem, { 0, 3, 1, 4, 2 }
uselistorder i32 (%_IO_FILE*, i32, i32)* @fseek, { 1, 0 }
uselistorder i64 (i8*)* @ErrFatal, { 1, 0 }
uselistorder i8* %arg1, { 1, 2, 0 }
uselistorder label LBL_14, { 2, 0, 3, 1 }
} | 1 |
BinRealVul | ksmbd_conn_handler_loop_7842 | ksmbd_conn_handler_loop | define i64 @FUNC(i64* %arg1) local_unnamed_addr {
LBL_0:
%0 = alloca i64
%storemerge.reg2mem = alloca i32
%1 = load i64, i64* %0
%2 = ptrtoint i64* %arg1 to i64
%sv_0 = alloca i32, align 4
store i32 0, i32* %sv_0, align 4
%3 = add i64 %2, 28
%4 = call i64 @FUNC(i64 %3)
%5 = call i64 @FUNC(i64 0)
%6 = load i32, i32* @gv_0, align 4
%7 = add i64 %2, 16
%8 = inttoptr i64 %7 to i32*
store i32 %6, i32* %8, align 4
%9 = call i64 @FUNC(i64 %2)
%10 = trunc i64 %9 to i32
%11 = icmp eq i32 %10, 0
%12 = icmp eq i1 %11, false
br i1 %12, label LBL_1, label LBL_20
LBL_1:
%13 = add i64 %2, 8
%14 = inttoptr i64 %13 to i64*
%15 = trunc i64 %2 to i32
%16 = icmp eq i32 %15, 4
%17 = icmp eq i1 %16, false
%18 = add i64 %2, 32
%19 = inttoptr i64 %18 to i64*
%20 = and i64 %2, 4294967295
%21 = icmp slt i32 %15, 0
%22 = icmp eq i1 %21, false
%23 = icmp eq i32 %15, 0
br label LBL_2
LBL_2:
%24 = call i64 @FUNC()
%25 = trunc i64 %24 to i32
%26 = icmp eq i32 %25, 0
br i1 %26, label LBL_3, label LBL_15
LBL_3:
%27 = load i64, i64* %14, align 8
%28 = call i64 @FUNC(i64 %27)
store i64 0, i64* %14, align 8
br i1 %17, label LBL_20, label LBL_4
LBL_4:
%29 = add i64 %27, 8
%30 = inttoptr i64 %29 to i64*
%31 = load i64, i64* %30, align 8
%32 = call i64 @FUNC(i32* nonnull %sv_0)
%33 = and i64 %32, 4294967295
%34 = call i64 @FUNC(i64 0, i8* getelementptr inbounds ([25 x i8], [25 x i8]* @gv_1, i64 0, i64 0), i64 %33)
%35 = call i64 @FUNC(i64 %2)
%36 = trunc i64 %35 to i32
%37 = icmp eq i32 %36, 0
store i32 1048576, i32* %storemerge.reg2mem
br i1 %37, label LBL_6, label LBL_5
LBL_5:
%38 = load i64, i64* %19, align 8
%39 = inttoptr i64 %38 to i32*
%40 = load i32, i32* %39, align 4
%41 = add i32 %40, 1048576
store i32 %41, i32* %storemerge.reg2mem
br label LBL_6
LBL_6:
%42 = trunc i64 %32 to i32
%storemerge.reload = load i32, i32* %storemerge.reg2mem
%43 = icmp ult i32 %storemerge.reload, %42
br i1 %43, label LBL_7, label LBL_8
LBL_7:
%44 = add i64 %2, 20
%45 = inttoptr i64 %44 to i32*
%46 = load i32, i32* %45, align 4
%47 = zext i32 %46 to i64
%48 = call i64 @FUNC(i64 %47)
%49 = and i64 %48, 4294967295
%50 = call i64 @FUNC(i8* getelementptr inbounds ([72 x i8], [72 x i8]* @gv_2, i64 0, i64 0), i64 %33, i32 %storemerge.reload, i64 %49, i64 %31, i64 %1)
br label LBL_20
LBL_8:
%51 = icmp ult i32 %42, 65537
br i1 %51, label LBL_9, label LBL_20
LBL_9:
%52 = mul i64 %32, 4294967296
%sext = add i64 %52, 17179869184
%53 = ashr exact i64 %sext, 32
%54 = call i64 @FUNC(i64 %53, i64 0)
store i64 %54, i64* %14, align 8
%55 = icmp eq i64 %54, 0
br i1 %55, label LBL_20, label LBL_10
LBL_10:
%56 = load i32, i32* %sv_0, align 4
%57 = inttoptr i64 %54 to i32*
store i32 %56, i32* %57, align 4
%58 = call i64 @FUNC(i64 %2)
%59 = trunc i64 %58 to i32
%60 = icmp eq i32 %59, 0
br i1 %60, label LBL_20, label LBL_11
LBL_11:
%61 = load i64, i64* %14, align 8
br i1 %22, label LBL_13, label LBL_12
LBL_12:
%62 = call i64 @FUNC(i8* getelementptr inbounds ([22 x i8], [22 x i8]* @gv_3, i64 0, i64 0), i64 %20, i32 %42, i64 2, i64 %61, i64 %1)
br label LBL_20
LBL_13:
%63 = icmp eq i32 %42, %15
br i1 %63, label LBL_16, label LBL_14
LBL_14:
%64 = call i64 @FUNC(i8* getelementptr inbounds ([35 x i8], [35 x i8]* @gv_4, i64 0, i64 0), i64 %20, i32 %42, i64 2, i64 %61, i64 %1)
br label LBL_15
LBL_15:
%65 = call i64 @FUNC(i64 %2)
%66 = trunc i64 %65 to i32
%67 = icmp eq i32 %66, 0
%68 = icmp eq i1 %67, false
br i1 %68, label LBL_2, label LBL_20
LBL_16:
%69 = load i32, i32* @gv_5, align 4
%70 = icmp eq i32 %69, 0
%71 = icmp eq i1 %70, false
br i1 %71, label LBL_18, label LBL_17
LBL_17:
%72 = add i64 %61, 4
%73 = call i64 @FUNC(i8* getelementptr inbounds ([32 x i8], [32 x i8]* @gv_6, i64 0, i64 0), i64 %72, i32 %15, i64 2, i64 %61, i64 %1)
br label LBL_20
LBL_18:
br i1 %23, label LBL_15, label LBL_19
LBL_19:
%74 = add i64 %61, 4
%75 = call i64 @FUNC(i8* getelementptr inbounds ([23 x i8], [23 x i8]* @gv_7, i64 0, i64 0), i64 %74, i32 %69, i64 2, i64 %61, i64 %1)
br label LBL_20
LBL_20:
%76 = call i64 @FUNC(i64 %2)
%77 = add i64 %2, 24
%78 = call i64 @FUNC(i64 %77)
%79 = trunc i64 %78 to i32
%80 = icmp eq i32 %79, 0
%81 = add i64 %2, 56
%82 = inttoptr i64 %81 to i32*
%83 = load i32, i32* %82, align 4
%84 = zext i1 %80 to i64
%85 = zext i32 %83 to i64
%86 = call i64 @FUNC(i64 %85, i64 %84)
%87 = call i64 @FUNC(i64 1)
%88 = trunc i64 %87 to i32
%89 = icmp eq i32 %88, 0
br i1 %89, label LBL_22, label LBL_21
LBL_21:
%90 = add i64 %2, 40
%91 = inttoptr i64 %90 to i64*
%92 = load i64, i64* %91, align 8
%93 = call i64 @FUNC(i64 %92)
br label LBL_22
LBL_22:
%94 = add i64 %2, 48
%95 = inttoptr i64 %94 to i64*
%96 = load i64, i64* %95, align 8
%97 = call i64 @FUNC(i64 %96)
%98 = call i64 @FUNC(i64 0)
ret i64 0
uselistorder i64 %61, { 0, 1, 2, 3, 5, 4 }
uselistorder i64 %54, { 1, 0, 2 }
uselistorder i32 %storemerge.reload, { 1, 0 }
uselistorder i32 %42, { 3, 2, 0, 4, 1 }
uselistorder i64 %32, { 0, 2, 1 }
uselistorder i64 %20, { 1, 0 }
uselistorder i32 %15, { 0, 2, 1, 3, 4 }
uselistorder i32* %sv_0, { 1, 0, 2 }
uselistorder i64 %2, { 7, 6, 8, 9, 10, 13, 3, 4, 5, 2, 1, 11, 12, 0, 14, 15 }
uselistorder i64 %1, { 4, 3, 2, 1, 0 }
uselistorder i32* %storemerge.reg2mem, { 0, 2, 1 }
uselistorder i64 1, { 3, 0, 1, 2 }
uselistorder i64 4, { 1, 0 }
uselistorder i64 (i8*, i64, i32, i64, i64, i64)* @pr_err, { 3, 2, 1, 0 }
uselistorder i64 2, { 3, 2, 1, 0 }
uselistorder i32 1048576, { 1, 0 }
uselistorder i64 4294967295, { 2, 3, 1, 4, 5, 0 }
uselistorder i1 false, { 1, 4, 2, 3, 0 }
uselistorder i64 (i64)* @ksmbd_conn_alive, { 1, 0 }
uselistorder i32 0, { 5, 6, 1, 12, 9, 10, 11, 7, 8, 0, 4, 2, 3 }
uselistorder label LBL_20, { 6, 7, 0, 8, 4, 3, 2, 9, 1, 5 }
uselistorder label LBL_15, { 1, 0, 2 }
uselistorder label LBL_6, { 1, 0 }
uselistorder label LBL_2, { 1, 0 }
} | 1 |
BinRealVul | cpu_generic_init_14007 | cpu_generic_init | define i64 @FUNC(i8* %arg1, i8* %arg2) local_unnamed_addr {
LBL_0:
%storemerge.reg2mem = alloca i64
%0 = ptrtoint i8* %arg1 to i64
%1 = ptrtoint i8* %arg2 to i64
%2 = call i64 @FUNC(i64 %0, i64 %1)
%3 = icmp eq i64 %2, 0
store i64 0, i64* %storemerge.reg2mem
br i1 %3, label LBL_2, label LBL_1
LBL_1:
%4 = call i64 @FUNC(i64 %2)
store i64 %4, i64* %storemerge.reg2mem
br label LBL_2
LBL_2:
%storemerge.reload = load i64, i64* %storemerge.reg2mem
ret i64 %storemerge.reload
uselistorder i64* %storemerge.reg2mem, { 0, 2, 1 }
uselistorder label LBL_2, { 1, 0 }
} | 1 |
BinRealVul | ocfs2_prepare_page_for_write_11409 | ocfs2_prepare_page_for_write | define i64 @FUNC(i64* %arg1, i64* %arg2, i64* %arg3, i64* %arg4, i64 %arg5, i64 %arg6, i64 %arg7, i64 %arg8) local_unnamed_addr {
LBL_0:
%.pre-phi8.reg2mem = alloca i64
%sv_0.0.reg2mem = alloca i64
%sv_1.0.reg2mem = alloca i64
%sv_2.0.reg2mem = alloca i32
%.pre-phi.reg2mem = alloca i32
%storemerge.in.reg2mem = alloca i64
%0 = ptrtoint i64* %arg4 to i64
%1 = ptrtoint i64* %arg2 to i64
%2 = ptrtoint i64* %arg1 to i64
%sext = mul i64 %arg8, 4294967296
%3 = ashr exact i64 %sext, 32
%sv_3 = alloca i32, align 4
%sv_4 = alloca i32, align 4
%4 = trunc i64 %arg5 to i32
%5 = bitcast i32* %sv_3 to i64*
%6 = bitcast i32* %sv_4 to i64*
%7 = call i64 @FUNC(i64 %2, i32 %4, i64* nonnull %5, i64* nonnull %6)
%8 = icmp eq i64* %5, %arg4
%9 = icmp eq i1 %8, false
br i1 %9, label LBL_7, label LBL_1
LBL_1:
%10 = trunc i64 %arg6 to i32
%11 = urem i32 %10, 4096
%12 = trunc i64 %arg7 to i32
%13 = add i32 %11, %12
%14 = trunc i64 %3 to i32
%15 = icmp eq i32 %14, 0
br i1 %15, label LBL_3, label LBL_2
LBL_2:
%16 = load i32, i32* %sv_4, align 4
%17 = load i32, i32* %sv_3, align 4
%18 = zext i32 %17 to i64
%19 = and i64 %3, 4294967295
%20 = zext i32 %16 to i64
%21 = call i64 @FUNC(i64 %0, i64 %1, i64 %2, i64 %18, i64 %20, i64 %19)
store i64 %21, i64* %storemerge.in.reg2mem
br label LBL_4
LBL_3:
%22 = zext i32 %11 to i64
%23 = and i64 %3, 4294967295
%24 = zext i32 %13 to i64
%25 = call i64 @FUNC(i64 %0, i64 %1, i64 %2, i64 %22, i64 %24, i64 %23)
store i64 %25, i64* %storemerge.in.reg2mem
br label LBL_4
LBL_4:
%storemerge.in.reload = load i64, i64* %storemerge.in.reg2mem
%storemerge = trunc i64 %storemerge.in.reload to i32
%26 = icmp eq i32 %storemerge, 0
br i1 %26, label LBL_6, label LBL_5
LBL_5:
%27 = and i64 %storemerge.in.reload, 4294967295
%28 = call i64 @FUNC(i64 %27)
store i64 %27, i64* %.pre-phi8.reg2mem
br label LBL_15
LBL_6:
%phitmp = zext i32 %13 to i64
store i32 %14, i32* %.pre-phi.reg2mem
store i32 %11, i32* %sv_2.0.reg2mem
store i64 %phitmp, i64* %sv_1.0.reg2mem
store i64 %storemerge.in.reload, i64* %sv_0.0.reg2mem
br label LBL_11
LBL_7:
%29 = trunc i64 %3 to i32
%30 = icmp eq i32 %29, 0
%31 = icmp eq i1 %30, false
br i1 %31, label LBL_9, label LBL_8
LBL_8:
%32 = load %_IO_FILE*, %_IO_FILE** @gv_0, align 8
%33 = call i32 @fwrite(i64* bitcast ([23 x i8]* @gv_1 to i64*), i32 1, i32 22, %_IO_FILE* %32)
call void @exit(i32 1)
unreachable
LBL_9:
%34 = load i32, i32* %sv_4, align 4
%35 = load i32, i32* %sv_3, align 4
%36 = zext i32 %35 to i64
%37 = and i64 %3, 4294967295
%38 = zext i32 %34 to i64
%39 = call i64 @FUNC(i64 %0, i64 %1, i64 %2, i64 %36, i64 %38, i64 %37)
%40 = trunc i64 %39 to i32
%41 = icmp eq i32 %40, 0
store i32 %29, i32* %.pre-phi.reg2mem
store i32 0, i32* %sv_2.0.reg2mem
store i64 0, i64* %sv_1.0.reg2mem
store i64 %39, i64* %sv_0.0.reg2mem
br i1 %41, label LBL_11, label LBL_10
LBL_10:
%42 = and i64 %39, 4294967295
%43 = call i64 @FUNC(i64 %42)
store i64 %42, i64* %.pre-phi8.reg2mem
br label LBL_15
LBL_11:
%sv_0.0.reload = load i64, i64* %sv_0.0.reg2mem
%.pre-phi.reload = load i32, i32* %.pre-phi.reg2mem
%44 = icmp eq i32 %.pre-phi.reload, 0
br i1 %44, label LBL_14, label LBL_12
LBL_12:
%45 = call i64 @FUNC(i64 %0)
%46 = trunc i64 %45 to i32
%47 = icmp eq i32 %46, 0
%48 = icmp eq i1 %47, false
br i1 %48, label LBL_14, label LBL_13
LBL_13:
%sv_1.0.reload = load i64, i64* %sv_1.0.reg2mem
%sv_2.0.reload = load i32, i32* %sv_2.0.reg2mem
%49 = call i64 @FUNC(i64 %0, i64 %0, i32 %4, i32 %sv_2.0.reload, i64 %sv_1.0.reload)
br label LBL_14
LBL_14:
%50 = call i64 @FUNC(i64 %0)
%.pre = and i64 %sv_0.0.reload, 4294967295
store i64 %.pre, i64* %.pre-phi8.reg2mem
br label LBL_15
LBL_15:
%.pre-phi8.reload = load i64, i64* %.pre-phi8.reg2mem
ret i64 %.pre-phi8.reload
uselistorder i64 %39, { 1, 0, 2 }
uselistorder i64 %storemerge.in.reload, { 0, 2, 1 }
uselistorder i32 %11, { 0, 2, 1 }
uselistorder i32* %sv_4, { 1, 0, 2 }
uselistorder i32* %sv_3, { 1, 0, 2 }
uselistorder i64 %3, { 4, 3, 1, 2, 0 }
uselistorder i64 %2, { 2, 1, 0, 3 }
uselistorder i64 %1, { 2, 1, 0 }
uselistorder i64 %0, { 5, 3, 2, 4, 6, 1, 0 }
uselistorder i64* %storemerge.in.reg2mem, { 0, 2, 1 }
uselistorder i64* %.pre-phi8.reg2mem, { 0, 3, 2, 1 }
uselistorder %_IO_FILE** @gv_0, { 1, 0 }
uselistorder i64 (i64)* @mlog_errno, { 1, 0 }
uselistorder i64 (i64, i64, i64, i64, i64, i64)* @ocfs2_map_page_blocks, { 2, 1, 0 }
uselistorder i32 0, { 1, 2, 0, 3, 4, 5, 6 }
uselistorder label LBL_11, { 1, 0 }
} | 1 |
BinRealVul | dlt_config_file_set_section_12905 | dlt_config_file_set_section | define i64 @FUNC(i64* %arg1, i8* %arg2) local_unnamed_addr {
LBL_0:
%rax.0.reg2mem = alloca i64
%0 = ptrtoint i64* %arg1 to i64
%1 = add i64 %0, 160
%2 = inttoptr i64 %1 to i32*
%3 = load i32, i32* %2, align 4
%4 = icmp slt i32 %3, 10
br i1 %4, label LBL_2, label LBL_1
LBL_1:
%5 = call i64 @FUNC(i64 1, i8* getelementptr inbounds ([28 x i8], [28 x i8]* @gv_0, i64 0, i64 0))
store i64 4294967295, i64* %rax.0.reg2mem
br label LBL_9
LBL_2:
%6 = ptrtoint i8* %arg2 to i64
%7 = call i64 @FUNC(i64 %0, i64 %6)
%8 = trunc i64 %7 to i32
%9 = icmp eq i32 %8, 0
br i1 %9, label LBL_4, label LBL_3
LBL_3:
%10 = call i64 @FUNC(i64 1, i8* getelementptr inbounds ([33 x i8], [33 x i8]* @gv_1, i64 0, i64 0))
store i64 4294967295, i64* %rax.0.reg2mem
br label LBL_9
LBL_4:
%11 = sext i32 %3 to i64
%12 = mul i64 %11, 16
%13 = add i64 %12, %0
%14 = call i64* @calloc(i32 1, i32 256)
%15 = ptrtoint i64* %14 to i64
%16 = inttoptr i64 %13 to i64*
store i64 %15, i64* %16, align 8
%17 = icmp eq i64* %14, null
%18 = icmp eq i1 %17, false
br i1 %18, label LBL_6, label LBL_5
LBL_5:
%19 = call i64 @FUNC(i64 2, i8* getelementptr inbounds ([52 x i8], [52 x i8]* @gv_2, i64 0, i64 0))
store i64 4294967295, i64* %rax.0.reg2mem
br label LBL_9
LBL_6:
%20 = call i64* @calloc(i32 1, i32 2551)
%21 = ptrtoint i64* %20 to i64
%22 = add i64 %13, 8
%23 = inttoptr i64 %22 to i64*
store i64 %21, i64* %23, align 8
%24 = icmp eq i64* %20, null
%25 = icmp eq i1 %24, false
%26 = load i64, i64* %16, align 8
br i1 %25, label LBL_8, label LBL_7
LBL_7:
%27 = inttoptr i64 %26 to i64*
call void @free(i64* %27)
%28 = call i64 @FUNC(i64 2, i8* getelementptr inbounds ([52 x i8], [52 x i8]* @gv_2, i64 0, i64 0))
store i64 4294967295, i64* %rax.0.reg2mem
br label LBL_9
LBL_8:
%29 = inttoptr i64 %26 to i8*
%30 = call i8* @strncpy(i8* %29, i8* %arg2, i32 255)
%31 = load i32, i32* %2, align 4
%32 = add i32 %31, 1
store i32 %32, i32* %2, align 4
store i64 0, i64* %rax.0.reg2mem
br label LBL_9
LBL_9:
%rax.0.reload = load i64, i64* %rax.0.reg2mem
ret i64 %rax.0.reload
uselistorder i64 %26, { 1, 0 }
uselistorder i32* %2, { 1, 0, 2 }
uselistorder i64* %rax.0.reg2mem, { 0, 5, 4, 3, 2, 1 }
uselistorder i64* (i32, i32)* @calloc, { 1, 0 }
uselistorder i32 0, { 2, 3, 0, 1 }
uselistorder i64 4294967295, { 3, 2, 1, 0, 4, 5 }
uselistorder i64 (i64, i8*)* @dlt_log, { 3, 2, 1, 0 }
} | 1 |
BinRealVul | zynqmp_dma_chan_remove_4134 | zynqmp_dma_chan_remove | define i64 @FUNC(i64* %arg1) local_unnamed_addr {
LBL_0:
%0 = alloca i64
%rax.0.reg2mem = alloca i64
%1 = load i64, i64* %0
%2 = icmp eq i64* %arg1, null
br i1 %2, label LBL_4, label LBL_1
LBL_1:
%3 = ptrtoint i64* %arg1 to i64
%4 = trunc i64 %1 to i32
%5 = icmp eq i32 %4, 0
br i1 %5, label LBL_3, label LBL_2
LBL_2:
%6 = add i64 %3, 8
%7 = inttoptr i64 %6 to i64*
%8 = load i64, i64* %7, align 8
%9 = inttoptr i64 %8 to i64*
%10 = load i64, i64* %9, align 8
%11 = and i64 %1, 4294967295
%12 = call i64 @FUNC(i64 %10, i64 %11, i64 %3)
br label LBL_3
LBL_3:
%13 = add i64 %3, 16
%14 = call i64 @FUNC(i64 %13)
%15 = add i64 %3, 20
%16 = call i64 @FUNC(i64 %15)
store i64 %16, i64* %rax.0.reg2mem
br label LBL_4
LBL_4:
%rax.0.reload = load i64, i64* %rax.0.reg2mem
ret i64 %rax.0.reload
uselistorder i64 %3, { 1, 0, 3, 2 }
uselistorder i64 %1, { 1, 0 }
uselistorder i64* %arg1, { 1, 0 }
uselistorder label LBL_4, { 1, 0 }
} | 0 |
BinRealVul | kvm_emulate_hypercall_13085 | kvm_emulate_hypercall | define i64 @FUNC(i64* %arg1) local_unnamed_addr {
LBL_0:
%sv_0.0.reg2mem = alloca i64
%.reg2mem = alloca i64
%sv_1.0.reg2mem = alloca i64
%sv_2.0.reg2mem = alloca i64
%sv_3.0.reg2mem = alloca i64
%sv_4.0.reg2mem = alloca i64
%0 = ptrtoint i64* %arg1 to i64
%sv_5 = alloca i64, align 8
%1 = call i64 @FUNC(i64 %0, i64 0)
%2 = call i64 @FUNC(i64 %0, i64 1)
%3 = call i64 @FUNC(i64 %0, i64 2)
%4 = call i64 @FUNC(i64 %0, i64 3)
%5 = call i64 @FUNC(i64 %0, i64 4)
%6 = call i64 @FUNC(i64 %1, i64 %2, i64 %3, i64 %4, i64 %5)
%7 = call i64 @FUNC(i64 %0)
%8 = trunc i64 %7 to i32
%9 = icmp eq i32 %8, 0
%10 = icmp eq i1 %9, false
store i64 %1, i64* %sv_4.0.reg2mem
store i64 %2, i64* %sv_3.0.reg2mem
store i64 %3, i64* %sv_2.0.reg2mem
store i64 %4, i64* %sv_1.0.reg2mem
br i1 %10, label LBL_2, label LBL_1
LBL_1:
%11 = and i64 %1, 4294967295
%12 = and i64 %2, 4294967295
%13 = and i64 %3, 4294967295
%14 = and i64 %4, 4294967295
store i64 %11, i64* %sv_4.0.reg2mem
store i64 %12, i64* %sv_3.0.reg2mem
store i64 %13, i64* %sv_2.0.reg2mem
store i64 %14, i64* %sv_1.0.reg2mem
br label LBL_2
LBL_2:
%sv_4.0.reload = load i64, i64* %sv_4.0.reg2mem
switch i64 %sv_4.0.reload, label LBL_5 [
i64 1, label LBL_3
i64 2, label LBL_4
]
LBL_3:
store i64 0, i64* %sv_5, align 8
store i64 0, i64* %.reg2mem
store i64 1, i64* %sv_0.0.reg2mem
br label LBL_6
LBL_4:
%sv_1.0.reload = load i64, i64* %sv_1.0.reg2mem
%sv_2.0.reload = load i64, i64* %sv_2.0.reg2mem
%sv_3.0.reload = load i64, i64* %sv_3.0.reg2mem
%15 = call i64 @FUNC(i64 %0, i64 %sv_2.0.reload, i64 %sv_1.0.reload)
%16 = call i64 @FUNC(i64 %0, i64 %sv_3.0.reload, i64 %15, i64* nonnull %sv_5)
%phitmp = and i64 %16, 4294967295
%.pre = load i64, i64* %sv_5, align 8
store i64 %.pre, i64* %.reg2mem
store i64 %phitmp, i64* %sv_0.0.reg2mem
br label LBL_6
LBL_5:
store i64 -1, i64* %sv_5, align 8
store i64 -1, i64* %.reg2mem
store i64 1, i64* %sv_0.0.reg2mem
br label LBL_6
LBL_6:
%sv_0.0.reload = load i64, i64* %sv_0.0.reg2mem
%.reload = load i64, i64* %.reg2mem
%17 = call i64 @FUNC(i64 %0, i64 0, i64 %.reload)
%18 = add i64 %0, 1
store i64 %18, i64* %arg1, align 8
ret i64 %sv_0.0.reload
uselistorder i64 %4, { 1, 0, 2 }
uselistorder i64 %3, { 1, 0, 2 }
uselistorder i64 %2, { 1, 0, 2 }
uselistorder i64 %1, { 1, 0, 2 }
uselistorder i64* %sv_5, { 2, 0, 1, 3 }
uselistorder i64 %0, { 3, 2, 1, 0, 6, 5, 4, 7, 8, 9 }
uselistorder i64 4294967295, { 0, 4, 3, 2, 1 }
uselistorder i64 1, { 5, 0, 1, 3, 4, 2 }
uselistorder i64 (i64, i64)* @kvm_register_read, { 4, 3, 2, 1, 0 }
} | 1 |
BinRealVul | consume_encoded_name_new_19161 | consume_encoded_name_new | define i64 @FUNC(i64* %arg1, i64 %arg2, i64* %arg3, i64* %arg4) local_unnamed_addr {
LBL_0:
%rax.0.reg2mem = alloca i64
%sv_0.1.lcssa.reg2mem = alloca i64
%.pn.reg2mem = alloca i64
%sv_0.15.reg2mem = alloca i64
%storemerge6.reg2mem = alloca i64
%0 = ptrtoint i64* %arg1 to i64
%sv_1 = alloca i32, align 4
%sv_2 = alloca i64, align 8
store i64 0, i64* %sv_2, align 8
%1 = bitcast i32* %sv_1 to i64*
%2 = call i64 @FUNC(i64 %0, i64 %arg2, i64* nonnull %1, i64* nonnull %sv_2)
%3 = trunc i64 %2 to i8
%4 = icmp eq i8 %3, 1
store i64 0, i64* %rax.0.reg2mem
br i1 %4, label LBL_1, label LBL_12
LBL_1:
%5 = load i32, i32* %sv_1, align 4
%6 = mul i32 %5, 4
%7 = or i32 %6, 2
%8 = call i64* @malloc(i32 %7)
%9 = icmp eq i64* %8, null
%10 = icmp eq i1 %9, false
br i1 %10, label LBL_2, label LBL_3
LBL_2:
%11 = zext i32 %7 to i64
%12 = ptrtoint i64* %8 to i64
%13 = load i32, i32* %sv_1, align 4
%14 = icmp ne i32 %13, 0
%15 = icmp ugt i32 %7, 4
%or.cond34 = icmp eq i1 %15, %14
store i64 0, i64* %storemerge6.reg2mem
store i64 0, i64* %sv_0.15.reg2mem
store i64 0, i64* %sv_0.1.lcssa.reg2mem
br i1 %or.cond34, label LBL_4, label LBL_8
LBL_3:
%16 = load i64, i64* %sv_2, align 8
%17 = inttoptr i64 %16 to i64*
call void @free(i64* %17)
store i64 0, i64* %rax.0.reg2mem
br label LBL_12
LBL_4:
%sv_0.15.reload = load i64, i64* %sv_0.15.reg2mem
%storemerge6.reload = load i64, i64* %storemerge6.reg2mem
%18 = load i64, i64* %sv_2, align 8
%19 = add i64 %18, %storemerge6.reload
%20 = inttoptr i64 %19 to i8*
%21 = load i8, i8* %20, align 1
%22 = icmp slt i8 %21, 32
%23 = icmp eq i8 %21, 127
%or.cond = or i1 %22, %23
%24 = add i64 %sv_0.15.reload, %12
br i1 %or.cond, label LBL_6, label LBL_5
LBL_5:
%25 = inttoptr i64 %24 to i8*
store i8 %21, i8* %25, align 1
store i64 1, i64* %.pn.reg2mem
br label LBL_7
LBL_6:
%26 = sext i8 %21 to i32
%27 = inttoptr i64 %24 to i8*
%28 = trunc i64 %sv_0.15.reload to i32
%29 = sub i32 %7, %28
%30 = call i32 (i8*, i32, i8*, ...) @snprintf(i8* %27, i32 %29, i8* getelementptr inbounds ([7 x i8], [7 x i8]* @gv_0, i64 0, i64 0), i32 %26)
%31 = sext i32 %30 to i64
store i64 %31, i64* %.pn.reg2mem
br label LBL_7
LBL_7:
%.pn.reload = load i64, i64* %.pn.reg2mem
%sv_0.0 = add i64 %.pn.reload, %sv_0.15.reload
%32 = add nuw nsw i64 %storemerge6.reload, 1
%33 = load i32, i32* %sv_1, align 4
%34 = zext i32 %33 to i64
%35 = icmp ult i64 %32, %34
%36 = add i64 %sv_0.0, 4
%37 = icmp ult i64 %36, %11
%or.cond3 = icmp eq i1 %37, %35
store i64 %32, i64* %storemerge6.reg2mem
store i64 %sv_0.0, i64* %sv_0.15.reg2mem
store i64 %sv_0.0, i64* %sv_0.1.lcssa.reg2mem
br i1 %or.cond3, label LBL_4, label LBL_8
LBL_8:
%sv_0.1.lcssa.reload = load i64, i64* %sv_0.1.lcssa.reg2mem
%38 = add i64 %sv_0.1.lcssa.reload, %12
%39 = inttoptr i64 %38 to i8*
store i8 0, i8* %39, align 1
%40 = load i64, i64* %sv_2, align 8
%41 = inttoptr i64 %40 to i64*
call void @free(i64* %41)
%42 = trunc i64 %sv_0.1.lcssa.reload to i32
%43 = add i32 %42, 1
%44 = call i64* @realloc(i64* %8, i32 %43)
%45 = icmp eq i64* %44, null
%46 = icmp eq i1 %45, false
br i1 %46, label LBL_10, label LBL_9
LBL_9:
call void @free(i64* %8)
call void @free(i64* %44)
store i64 0, i64* %rax.0.reg2mem
br label LBL_12
LBL_10:
%47 = ptrtoint i64* %44 to i64
store i64 %47, i64* %arg4, align 8
%48 = icmp eq i64* %arg3, null
store i64 1, i64* %rax.0.reg2mem
br i1 %48, label LBL_12, label LBL_11
LBL_11:
%49 = load i32, i32* %sv_1, align 4
%50 = bitcast i64* %arg3 to i32*
store i32 %49, i32* %50, align 4
store i64 1, i64* %rax.0.reg2mem
br label LBL_12
LBL_12:
%rax.0.reload = load i64, i64* %rax.0.reg2mem
ret i64 %rax.0.reload
uselistorder i64* %44, { 2, 0, 1 }
uselistorder i64 %24, { 1, 0 }
uselistorder i8 %21, { 1, 0, 2, 3 }
uselistorder i64 %sv_0.15.reload, { 2, 0, 1 }
uselistorder i64* %8, { 0, 1, 3, 2 }
uselistorder i32 %7, { 1, 0, 3, 2 }
uselistorder i64* %sv_2, { 1, 2, 3, 0, 4 }
uselistorder i32* %sv_1, { 3, 2, 0, 1, 4 }
uselistorder i64* %storemerge6.reg2mem, { 2, 0, 1 }
uselistorder i64* %sv_0.15.reg2mem, { 2, 0, 1 }
uselistorder i64* %.pn.reg2mem, { 0, 2, 1 }
uselistorder i64* %rax.0.reg2mem, { 0, 2, 1, 5, 4, 3 }
uselistorder i64 1, { 1, 0, 3, 2, 4 }
uselistorder i32 4, { 1, 0 }
uselistorder label LBL_12, { 1, 0, 3, 4, 2 }
uselistorder label LBL_4, { 1, 0 }
} | 1 |
BinRealVul | hv_post_message_5282 | hv_post_message | define i64 @FUNC(i64 %arg1, i32 %arg2, i64* %arg3, i64 %arg4) local_unnamed_addr {
LBL_0:
%storemerge.reg2mem = alloca i64
%0 = icmp ult i64 %arg4, 1025
store i64 4294967206, i64* %storemerge.reg2mem
br i1 %0, label LBL_1, label LBL_2
LBL_1:
%1 = load i64, i64* @gv_0, align 8
%2 = call i64 @FUNC(i64 %1)
%3 = inttoptr i64 %2 to i64*
%4 = load i64, i64* %3, align 8
%5 = trunc i64 %arg1 to i32
%6 = inttoptr i64 %4 to i32*
store i32 %5, i32* %6, align 4
%7 = add i64 %4, 4
%8 = inttoptr i64 %7 to i32*
store i32 0, i32* %8, align 4
%9 = add i64 %4, 8
%10 = inttoptr i64 %9 to i32*
store i32 %arg2, i32* %10, align 4
%11 = add i64 %4, 16
%12 = inttoptr i64 %11 to i64*
store i64 %arg4, i64* %12, align 8
%13 = add i64 %4, 24
%14 = inttoptr i64 %13 to i64*
%15 = trunc i64 %arg4 to i32
%16 = call i64* @memcpy(i64* %14, i64* %arg3, i32 %15)
%17 = call i64 @FUNC(i64 1, i64 %4, i64 0)
%18 = call i64 @FUNC(i64 %2)
%19 = urem i64 %17, 65536
store i64 %19, i64* %storemerge.reg2mem
br label LBL_2
LBL_2:
%storemerge.reload = load i64, i64* %storemerge.reg2mem
ret i64 %storemerge.reload
uselistorder i64* %storemerge.reg2mem, { 0, 2, 1 }
uselistorder label LBL_2, { 1, 0 }
} | 0 |
BinRealVul | check_allocations_11279 | check_allocations | define i64 @FUNC(i64* %arg1, i64 %arg2) local_unnamed_addr {
LBL_0:
%storemerge.reg2mem = alloca i64
%0 = ptrtoint i64* %arg1 to i64
%1 = icmp ult i64 %0, %arg2
br i1 %1, label LBL_1, label LBL_5
LBL_1:
%2 = add i64 %0, 8
%3 = inttoptr i64 %2 to i64*
%4 = load i64, i64* %3, align 8
%5 = inttoptr i64 %4 to i64*
%6 = trunc i64 %arg2 to i32
%7 = call i64* @realloc(i64* %5, i32 %6)
%8 = icmp eq i64* %7, null
store i64 0, i64* %storemerge.reg2mem
br i1 %8, label LBL_6, label LBL_2
LBL_2:
%9 = add i64 %0, 16
%10 = inttoptr i64 %9 to i64*
%11 = load i64, i64* %10, align 8
%12 = inttoptr i64 %11 to i64*
%13 = call i64* @realloc(i64* %12, i32 %6)
%14 = icmp eq i64* %13, null
store i64 0, i64* %storemerge.reg2mem
br i1 %14, label LBL_6, label LBL_3
LBL_3:
%15 = add i64 %0, 24
%16 = inttoptr i64 %15 to i64*
%17 = load i64, i64* %16, align 8
%18 = inttoptr i64 %17 to i64*
%19 = call i64* @realloc(i64* %18, i32 %6)
%20 = icmp eq i64* %19, null
store i64 0, i64* %storemerge.reg2mem
br i1 %20, label LBL_6, label LBL_4
LBL_4:
%21 = add i64 %0, 32
%22 = inttoptr i64 %21 to i64*
%23 = load i64, i64* %22, align 8
%24 = inttoptr i64 %23 to i64*
%25 = call i64* @realloc(i64* %24, i32 %6)
%26 = icmp eq i64* %25, null
%27 = icmp eq i1 %26, false
store i64 0, i64* %storemerge.reg2mem
br i1 %27, label LBL_5, label LBL_6
LBL_5:
store i64 1, i64* %storemerge.reg2mem
br label LBL_6
LBL_6:
%storemerge.reload = load i64, i64* %storemerge.reg2mem
ret i64 %storemerge.reload
uselistorder i64* %storemerge.reg2mem, { 0, 5, 4, 3, 2, 1 }
uselistorder i64* (i64*, i32)* @realloc, { 3, 2, 1, 0 }
uselistorder label LBL_6, { 4, 3, 2, 1, 0 }
uselistorder label LBL_5, { 1, 0 }
} | 1 |
BinRealVul | dump_fd_info_11650 | dump_fd_info | define i64 @FUNC(i64 %arg1, i64* %arg2, i32 %arg3, i32 %arg4, i64 %arg5) local_unnamed_addr {
LBL_0:
%rax.0.reg2mem = alloca i64
%sv_0.05.reg2mem = alloca i32
%sv_1 = alloca i64, align 8
%0 = inttoptr i64 %arg1 to i8*
%1 = call %_IO_FILE* @fopen(i8* %0, i8* getelementptr inbounds ([2 x i8], [2 x i8]* @gv_0, i64 0, i64 0))
%2 = icmp eq %_IO_FILE* %1, null
%3 = icmp eq i1 %2, false
store i64 0, i64* %rax.0.reg2mem
br i1 %3, label LBL_1, label LBL_11
LBL_1:
%4 = ptrtoint i64* %arg2 to i64
%5 = sext i32 %arg3 to i64
%6 = add i64 %5, %4
%7 = inttoptr i64 %6 to i8*
%8 = bitcast i64* %arg2 to i8*
%9 = bitcast i64* %sv_1 to i8*
store i32 0, i32* %sv_0.05.reg2mem
br label LBL_2
LBL_2:
%sv_0.05.reload = load i32, i32* %sv_0.05.reg2mem
%10 = call i32 (i8*, i8*, ...) @sprintf(i8* %7, i8* getelementptr inbounds ([6 x i8], [6 x i8]* @gv_1, i64 0, i64 0), i32 %sv_0.05.reload)
%11 = call i64 @FUNC(i64 %4)
%12 = icmp eq i64 %11, 0
br i1 %12, label LBL_8, label LBL_3
LBL_3:
%13 = inttoptr i64 %11 to i8*
%14 = call i32 (%_IO_FILE*, i8*, ...) @fprintf(%_IO_FILE* %1, i8* getelementptr inbounds ([7 x i8], [7 x i8]* @gv_2, i64 0, i64 0), i32 %sv_0.05.reload, i8* %13)
%15 = inttoptr i64 %11 to i64*
call void @free(i64* %15)
%16 = call i32 (i8*, i8*, ...) @sprintf(i8* %7, i8* getelementptr inbounds ([10 x i8], [10 x i8]* @gv_3, i64 0, i64 0), i32 %sv_0.05.reload)
%17 = call %_IO_FILE* @fopen(i8* %8, i8* getelementptr inbounds ([2 x i8], [2 x i8]* @gv_4, i64 0, i64 0))
%18 = icmp eq %_IO_FILE* %17, null
%19 = icmp eq i1 %18, false
br i1 %19, label LBL_4, label LBL_7
LBL_4:
%20 = call i8* @fgets(i8* nonnull %9, i32 127, %_IO_FILE* %17)
%21 = icmp eq i8* %20, null
%22 = icmp eq i1 %21, false
br i1 %22, label LBL_5, label LBL_6
LBL_5:
%23 = call i64 @FUNC(i64* nonnull %sv_1, i64 10)
%24 = inttoptr i64 %23 to i8*
store i8 10, i8* %24, align 1
%25 = add i64 %23, 1
%26 = inttoptr i64 %25 to i8*
store i8 0, i8* %26, align 1
%27 = call i32 @fputs(i8* nonnull %9, %_IO_FILE* %1)
%28 = call i8* @fgets(i8* nonnull %9, i32 127, %_IO_FILE* %17)
%29 = icmp eq i8* %28, null
%30 = icmp eq i1 %29, false
br i1 %30, label LBL_5, label LBL_6
LBL_6:
%31 = call i32 @fclose(%_IO_FILE* %17)
br label LBL_7
LBL_7:
%32 = add nuw nsw i32 %sv_0.05.reload, 1
%33 = icmp ult i32 %32, 100000
store i32 %32, i32* %sv_0.05.reg2mem
br i1 %33, label LBL_2, label LBL_8
LBL_8:
%34 = call i32 @fileno(%_IO_FILE* %1)
%35 = trunc i64 %arg5 to i32
%36 = call i32 @fchown(i32 %34, i32 %arg4, i32 %35)
%37 = icmp slt i32 %36, 0
%38 = icmp eq i1 %37, false
br i1 %38, label LBL_10, label LBL_9
LBL_9:
%39 = call i64 @FUNC(i8* getelementptr inbounds ([39 x i8], [39 x i8]* @gv_5, i64 0, i64 0), i64 %arg1, i32 %arg4, i32 %35)
%40 = call i32 @fclose(%_IO_FILE* %1)
%41 = call i32 @unlink(i8* %0)
store i64 0, i64* %rax.0.reg2mem
br label LBL_11
LBL_10:
%42 = call i32 @fclose(%_IO_FILE* %1)
store i64 1, i64* %rax.0.reg2mem
br label LBL_11
LBL_11:
%rax.0.reload = load i64, i64* %rax.0.reg2mem
ret i64 %rax.0.reload
uselistorder %_IO_FILE* %17, { 1, 2, 0, 3 }
uselistorder i32 %sv_0.05.reload, { 1, 0, 2, 3 }
uselistorder i8* %9, { 2, 1, 0 }
uselistorder i64 %4, { 1, 0 }
uselistorder %_IO_FILE* %1, { 3, 2, 4, 0, 1, 5 }
uselistorder i64* %sv_1, { 1, 0 }
uselistorder i32* %sv_0.05.reg2mem, { 1, 0, 2 }
uselistorder i64* %rax.0.reg2mem, { 0, 3, 2, 1 }
uselistorder i32 (%_IO_FILE*)* @fclose, { 2, 1, 0 }
uselistorder i8* null, { 1, 0 }
uselistorder i8* (i8*, i32, %_IO_FILE*)* @fgets, { 1, 0 }
uselistorder i32 127, { 1, 0 }
uselistorder void (i64*)* @free, { 1, 0 }
uselistorder i32 (%_IO_FILE*, i8*, ...)* @fprintf, { 1, 0 }
uselistorder i32 (i8*, i8*, ...)* @sprintf, { 1, 0 }
uselistorder i1 false, { 2, 3, 0, 4, 5, 1 }
uselistorder %_IO_FILE* (i8*, i8*)* @fopen, { 1, 0 }
uselistorder label LBL_11, { 1, 2, 0 }
uselistorder label LBL_8, { 1, 0 }
uselistorder label LBL_5, { 1, 0 }
uselistorder label LBL_2, { 1, 0 }
} | 1 |
BinRealVul | cdxl_decode_rgb_17500 | cdxl_decode_rgb | define i64 @FUNC(i64* %arg1) local_unnamed_addr {
LBL_0:
%0 = ptrtoint i64* %arg1 to i64
%1 = add i64 %0, 8
%2 = inttoptr i64 %1 to i64*
%3 = load i64, i64* %2, align 8
%4 = call i64 @FUNC(i64 %0, i64 %3)
%5 = add i64 %0, 16
%6 = inttoptr i64 %5 to i32*
%7 = load i32, i32* %6, align 4
%8 = zext i32 %7 to i64
%9 = call i64 @FUNC(i64 %0, i64 %8, i64 %0)
ret i64 %9
uselistorder i64 %0, { 3, 0, 1, 2, 4 }
} | 1 |
BinRealVul | qpci_pc_config_readw_987 | qpci_pc_config_readw | define i64 @FUNC(i64* %arg1, i64 %arg2, i8 %arg3) local_unnamed_addr {
LBL_0:
%0 = mul i64 %arg2, 256
%1 = zext i8 %arg3 to i64
%.masked = and i64 %0, 2147483392
%2 = or i64 %.masked, %1
%3 = or i64 %2, 2147483648
%4 = call i64 @FUNC(i64 3320, i64 %3)
%5 = call i64 @FUNC(i64 3324)
ret i64 %5
} | 0 |
BinRealVul | flush_tlb_page_11114 | flush_tlb_page | define i64 @FUNC(i64* %arg1, i64 %arg2) local_unnamed_addr {
LBL_0:
%0 = ptrtoint i64* %arg1 to i64
%1 = call i64 @FUNC()
%2 = load i64, i64* @gv_0, align 8
%3 = inttoptr i64 %2 to i64*
%4 = load i64, i64* %3, align 8
%5 = icmp eq i64 %4, %0
%6 = icmp eq i1 %5, false
br i1 %6, label LBL_4, label LBL_1
LBL_1:
%7 = add i64 %2, 8
%8 = inttoptr i64 %7 to i64*
%9 = load i64, i64* %8, align 8
%10 = icmp eq i64 %9, 0
br i1 %10, label LBL_3, label LBL_2
LBL_2:
%11 = call i64 @FUNC(i64 %arg2)
br label LBL_4
LBL_3:
%12 = call i64 @FUNC()
%13 = and i64 %12, 4294967295
%14 = call i64 @FUNC(i64 %13)
br label LBL_4
LBL_4:
%15 = call i64 @FUNC()
%16 = call i64 @FUNC(i64 %0)
%17 = and i64 %15, 4294967295
%18 = call i64 @FUNC(i64 %16, i64 %17)
%19 = load i32, i32* inttoptr (i64 4210732 to i32*), align 4
%20 = zext i32 %19 to i64
%21 = icmp slt i64 %18, %20
br i1 %21, label LBL_5, label LBL_6
LBL_5:
%22 = call i64 @FUNC(i64 %0)
%23 = call i64 @FUNC(i64 %22, i64 %0, i64 %arg2, i64 0)
br label LBL_6
LBL_6:
%24 = call i64 @FUNC()
ret i64 %24
uselistorder i64 %0, { 1, 0, 2, 3 }
uselistorder i64 (i64)* @mm_cpumask, { 1, 0 }
uselistorder i64 4294967295, { 1, 0 }
uselistorder i64 ()* @smp_processor_id, { 1, 0 }
uselistorder i64 %arg2, { 1, 0 }
uselistorder label LBL_6, { 1, 0 }
} | 1 |
BinRealVul | orangefs_prepare_debugfs_help_string_17742 | orangefs_prepare_debugfs_help_string | define i64 @FUNC(i64 %arg1) local_unnamed_addr {
LBL_0:
%0 = alloca i64
%sv_0.0.reg2mem = alloca i64
%sv_1.0.lcssa.reg2mem = alloca i64
%storemerge5.reg2mem = alloca i64
%storemerge46.reg2mem = alloca i64
%1 = load i64, i64* %0
%2 = load i64, i64* %0
%3 = load i64, i64* %0
%4 = call i64 @FUNC(i64 0, i8* getelementptr inbounds ([11 x i8], [11 x i8]* @gv_0, i64 0, i64 0), i8* getelementptr inbounds ([37 x i8], [37 x i8]* @gv_1, i64 0, i64 0), i64 %3, i64 %2, i64 %1)
%5 = call i64 @FUNC(i64 1024, i64 0)
%6 = icmp eq i64 %5, 0
%7 = icmp eq i1 %6, false
store i64 4294967284, i64* %sv_0.0.reg2mem
br i1 %7, label LBL_1, label LBL_11
LBL_1:
%8 = trunc i64 %arg1 to i32
%9 = icmp eq i32 %8, 0
%10 = select i1 %9, i64 ptrtoint ([24 x i8]* @gv_2 to i64), i64 ptrtoint ([26 x i8]* @gv_3 to i64)
%11 = call i64 @FUNC(i64 %5, i64 %10, i64 1024)
%12 = icmp eq i1 %9, false
br i1 %12, label LBL_4, label LBL_2
LBL_2:
%13 = load i64, i64* @gv_4, align 8
%14 = call i64 @FUNC(i64 %13)
%15 = trunc i64 %14 to i32
store i32 %15, i32* @gv_5, align 4
%16 = icmp slt i32 %15, 1
store i64 0, i64* %storemerge46.reg2mem
store i64 4294967274, i64* %sv_0.0.reg2mem
br i1 %16, label LBL_11, label LBL_3
LBL_3:
%storemerge46.reload = load i64, i64* %storemerge46.reg2mem
%17 = call i64 @FUNC(i64 %5, i64 ptrtoint (i64* @gv_6 to i64), i64 1024)
%18 = mul i64 %storemerge46.reload, 8
%19 = add i64 %18, ptrtoint (i64* @gv_7 to i64)
%20 = inttoptr i64 %19 to i64*
%21 = load i64, i64* %20, align 8
%22 = call i64 @FUNC(i64 %5, i64 %21, i64 1024)
%23 = call i64 @FUNC(i64 %5, i64 ptrtoint (i64* @gv_8 to i64), i64 1024)
%24 = add nuw i64 %storemerge46.reload, 1
%25 = load i32, i32* @gv_5, align 4
%26 = sext i32 %25 to i64
%27 = icmp ult i64 %24, %26
store i64 %24, i64* %storemerge46.reg2mem
br i1 %27, label LBL_3, label LBL_4
LBL_4:
%28 = call i64 @FUNC(i64 %5, i64 ptrtoint (i64* @gv_8 to i64), i64 1024)
%29 = call i64 @FUNC(i64 %5, i64 ptrtoint ([24 x i8]* @gv_9 to i64), i64 1024)
%30 = load i32, i32* @gv_10, align 4
%31 = icmp eq i32 %30, 0
store i64 0, i64* %storemerge5.reg2mem
br i1 %31, label LBL_6, label LBL_5
LBL_5:
%storemerge5.reload = load i64, i64* %storemerge5.reg2mem
%32 = call i64 @FUNC(i64 %5, i64 ptrtoint (i64* @gv_6 to i64), i64 1024)
%33 = mul i64 %storemerge5.reload, 8
%34 = add i64 %33, ptrtoint (i64* @gv_11 to i64)
%35 = inttoptr i64 %34 to i64*
%36 = load i64, i64* %35, align 8
%37 = call i64 @FUNC(i64 %5, i64 %36, i64 1024)
%38 = call i64 @FUNC(i64 %5, i64 ptrtoint (i64* @gv_8 to i64), i64 1024)
%39 = add nuw i64 %storemerge5.reload, 1
%40 = load i32, i32* @gv_10, align 4
%41 = sext i32 %40 to i64
%42 = icmp ult i64 %39, %41
store i64 %39, i64* %storemerge5.reg2mem
store i64 %38, i64* %sv_1.0.lcssa.reg2mem
br i1 %42, label LBL_5, label LBL_6
LBL_6:
%sv_1.0.lcssa.reload = load i64, i64* %sv_1.0.lcssa.reg2mem
%43 = icmp ult i64 %sv_1.0.lcssa.reload, 1024
br i1 %43, label LBL_8, label LBL_7
LBL_7:
%44 = call i64 @FUNC(i64 %5)
store i64 4294967274, i64* %sv_0.0.reg2mem
br label LBL_11
LBL_8:
br i1 %9, label LBL_10, label LBL_9
LBL_9:
store i64 %5, i64* @gv_12, align 8
store i64 0, i64* %sv_0.0.reg2mem
br label LBL_11
LBL_10:
%45 = call i64 @FUNC(i64* nonnull @gv_13)
%46 = load i64, i64* @gv_12, align 8
%47 = inttoptr i64 %46 to i64*
%48 = call i64* @memset(i64* %47, i32 0, i32 1024)
%49 = load i64, i64* @gv_12, align 8
%50 = call i64 @FUNC(i64 %49, i64 %5, i64 1024)
%51 = call i64 @FUNC(i64* nonnull @gv_13)
store i64 0, i64* %sv_0.0.reg2mem
br label LBL_11
LBL_11:
%sv_0.0.reload = load i64, i64* %sv_0.0.reg2mem
ret i64 %sv_0.0.reload
uselistorder i1 %9, { 1, 0, 2 }
uselistorder i64 %5, { 5, 4, 3, 7, 6, 8, 10, 9, 1, 0, 2, 11, 12 }
uselistorder i64* %storemerge46.reg2mem, { 2, 0, 1 }
uselistorder i64* %storemerge5.reg2mem, { 2, 0, 1 }
uselistorder i64* %sv_0.0.reg2mem, { 0, 2, 1, 5, 4, 3 }
uselistorder i64* %0, { 2, 1, 0 }
uselistorder i32* @gv_10, { 1, 0 }
uselistorder i64 1, { 1, 2, 0, 3 }
uselistorder i64 4294967274, { 1, 0 }
uselistorder i32* @gv_5, { 1, 0 }
uselistorder i64 (i64, i64, i64)* @strlcat, { 9, 8, 7, 6, 2, 1, 5, 4, 3, 0 }
uselistorder i32 0, { 1, 0, 4, 2, 3 }
uselistorder i64 1024, { 3, 4, 6, 5, 7, 9, 8, 1, 0, 2, 10, 11 }
uselistorder i32 1, { 9, 8, 7, 6, 5, 4, 3, 2, 1, 0 }
uselistorder label LBL_11, { 1, 0, 4, 3, 2 }
uselistorder label LBL_5, { 1, 0 }
uselistorder label LBL_3, { 1, 0 }
} | 1 |
BinRealVul | ptrace_link_11106 | ptrace_link | define i64 @FUNC(i64* %arg1, i64* %arg2) local_unnamed_addr {
LBL_0:
%0 = ptrtoint i64* %arg2 to i64
%1 = ptrtoint i64* %arg1 to i64
%2 = call i64 @FUNC()
%3 = call i64 @FUNC(i64 %0)
%4 = call i64 @FUNC(i64 %1, i64 %0, i64 %3)
%5 = call i64 @FUNC()
ret i64 %5
} | 1 |
BinRealVul | RegenerateThumbnail_5998 | RegenerateThumbnail | define i64 @FUNC(i64 %arg1) local_unnamed_addr {
LBL_0:
%rax.0.reg2mem = alloca i64
%sv_0 = alloca i64, align 8
%0 = load i32, i32* @gv_0, align 4
%1 = icmp eq i32 %0, 0
store i64 0, i64* %rax.0.reg2mem
br i1 %1, label LBL_7, label LBL_1
LBL_1:
%2 = load i32, i32* @gv_1, align 4
%3 = icmp eq i32 %2, 0
%4 = icmp eq i1 %3, false
store i64 0, i64* %rax.0.reg2mem
br i1 %4, label LBL_2, label LBL_7
LBL_2:
%5 = inttoptr i64 %arg1 to i8*
%6 = call i8* @strpbrk(i8* %5, i8* getelementptr inbounds ([7 x i8], [7 x i8]* @gv_2, i64 0, i64 0))
%7 = icmp eq i8* %6, null
br i1 %7, label LBL_4, label LBL_3
LBL_3:
%8 = call i64 @FUNC(i8* getelementptr inbounds ([33 x i8], [33 x i8]* @gv_3, i64 0, i64 0), i64 0, i64 0)
store i64 0, i64* %rax.0.reg2mem
br label LBL_7
LBL_4:
%9 = load i32, i32* inttoptr (i64 4210776 to i32*), align 8
%10 = load i32, i32* @gv_4, align 4
%11 = zext i32 %9 to i64
%12 = zext i32 %10 to i64
%13 = bitcast i64* %sv_0 to i8*
%14 = call i32 (i8*, i32, i8*, ...) @snprintf(i8* nonnull %13, i32 8242, i8* getelementptr inbounds ([42 x i8], [42 x i8]* @gv_5, i64 0, i64 0), i64 %12, i64 %11, i8* %5)
%15 = call i32 @system(i8* nonnull %13)
%16 = icmp eq i32 %15, 0
%17 = icmp eq i1 %16, false
br i1 %17, label LBL_6, label LBL_5
LBL_5:
%18 = call i64 @FUNC(i64 %arg1)
store i64 %18, i64* %rax.0.reg2mem
br label LBL_7
LBL_6:
%19 = call i64 @FUNC(i8* getelementptr inbounds ([32 x i8], [32 x i8]* @gv_6, i64 0, i64 0))
unreachable
LBL_7:
%rax.0.reload = load i64, i64* %rax.0.reg2mem
ret i64 %rax.0.reload
uselistorder i64* %rax.0.reg2mem, { 0, 4, 3, 2, 1 }
uselistorder label LBL_7, { 2, 3, 1, 0 }
} | 0 |
BinRealVul | mk_utils_gmt2utime_18185 | mk_utils_gmt2utime | define i64 @FUNC(i64* %arg1) local_unnamed_addr {
LBL_0:
%storemerge.reg2mem = alloca i64
%sv_0 = alloca i64, align 8
%0 = bitcast i64* %arg1 to i8*
%1 = bitcast i64* %sv_0 to %tm*
%2 = call i8* @strptime(i8* %0, i8* getelementptr inbounds ([26 x i8], [26 x i8]* @gv_0, i64 0, i64 0), %tm* nonnull %1)
%3 = ptrtoint i8* %2 to i64
%4 = trunc i64 %3 to i32
%5 = icmp eq i32 %4, 0
%6 = icmp eq i1 %5, false
store i64 -1, i64* %storemerge.reg2mem
br i1 %6, label LBL_1, label LBL_2
LBL_1:
%7 = call i32 @mktime(%tm* nonnull %1)
%8 = sext i32 %7 to i64
store i64 %8, i64* %storemerge.reg2mem
br label LBL_2
LBL_2:
%storemerge.reload = load i64, i64* %storemerge.reg2mem
ret i64 %storemerge.reload
uselistorder i64* %storemerge.reg2mem, { 0, 2, 1 }
uselistorder label LBL_2, { 1, 0 }
} | 1 |
BinRealVul | inotify_free_group_priv_11577 | inotify_free_group_priv | define i64 @FUNC(i32* %arg1) local_unnamed_addr {
LBL_0:
%0 = ptrtoint i32* %arg1 to i64
%1 = call i64 @FUNC(i64 %0, i64 4198713, i64 %0)
%2 = call i64 @FUNC(i64 %0)
%3 = call i64 @FUNC(i64 %0)
%4 = add i64 %0, 4
%5 = inttoptr i64 %4 to i32*
%6 = load i32, i32* %5, align 4
%7 = zext i32 %6 to i64
%8 = call i64 @FUNC(i64 %7)
ret i64 %8
} | 1 |
BinRealVul | i915_handle_error_17773 | i915_handle_error | define i64 @FUNC(i64* %arg1, i64 %arg2) local_unnamed_addr {
LBL_0:
%0 = alloca i64
%1 = load i64, i64* %0
%2 = ptrtoint i64* %arg1 to i64
%3 = trunc i64 %arg2 to i8
%4 = call i64 @FUNC(i64 %2)
%5 = call i64 @FUNC(i64 %2)
%6 = icmp eq i8 %3, 0
br i1 %6, label LBL_3, label LBL_1
LBL_1:
%7 = and i64 %1, 4294967295
%8 = call i64 @FUNC(i64 %7)
%9 = add i64 %2, 4
%10 = call i64 @FUNC(i64 %9, i64 1)
%11 = add i64 %2, 8
%12 = call i64 @FUNC(i64 %11)
%13 = call i64 @FUNC(i64 %2)
%14 = trunc i64 %13 to i32
%15 = icmp eq i32 %14, 0
br i1 %15, label LBL_3, label LBL_2
LBL_2:
%16 = add i64 %2, 12
%17 = call i64 @FUNC(i64 %16)
br label LBL_3
LBL_3:
%18 = add i64 %2, 20
%19 = add i64 %2, 16
%20 = inttoptr i64 %19 to i32*
%21 = load i32, i32* %20, align 4
%22 = zext i32 %21 to i64
%23 = call i64 @FUNC(i64 %22, i64 %18)
ret i64 %23
uselistorder i64 %2, { 5, 4, 0, 1, 3, 2, 6, 7 }
uselistorder i64 (i64)* @wake_up_all, { 1, 0 }
} | 1 |
BinRealVul | avc_mp4_find_startcode_2156 | avc_mp4_find_startcode | define i64 @FUNC(i64 %arg1, i64 %arg2, i32 %arg3) local_unnamed_addr {
LBL_0:
%sv_0.0.lcssa.reg2mem = alloca i64
%sv_1.0.lcssa.reg2mem = alloca i64
%.pre-phi.reg2mem = alloca i64
%sv_1.01.reg2mem = alloca i64
%sv_2.02.reg2mem = alloca i32
%sv_0.03.reg2mem = alloca i32
%0 = sub i64 %arg2, %arg1
%1 = sext i32 %arg3 to i64
%2 = icmp slt i64 %0, %1
br i1 %2, label LBL_5, label LBL_1
LBL_1:
%3 = icmp eq i32 %arg3, 0
%4 = icmp eq i1 %3, false
store i32 0, i32* %sv_0.03.reg2mem
store i32 %arg3, i32* %sv_2.02.reg2mem
store i64 %arg1, i64* %sv_1.01.reg2mem
store i64 %0, i64* %.pre-phi.reg2mem
store i64 %arg1, i64* %sv_1.0.lcssa.reg2mem
store i64 0, i64* %sv_0.0.lcssa.reg2mem
br i1 %4, label LBL_2, label LBL_4
LBL_2:
%sv_1.01.reload = load i64, i64* %sv_1.01.reg2mem
%sv_2.02.reload = load i32, i32* %sv_2.02.reg2mem
%sv_0.03.reload = load i32, i32* %sv_0.03.reg2mem
%5 = add i32 %sv_2.02.reload, -1
%6 = mul i32 %sv_0.03.reload, 256
%7 = add i64 %sv_1.01.reload, 1
%8 = inttoptr i64 %sv_1.01.reload to i8*
%9 = load i8, i8* %8, align 1
%10 = zext i8 %9 to i32
%11 = or i32 %6, %10
%12 = icmp eq i32 %5, 0
%13 = icmp eq i1 %12, false
store i32 %11, i32* %sv_0.03.reg2mem
store i32 %5, i32* %sv_2.02.reg2mem
store i64 %7, i64* %sv_1.01.reg2mem
br i1 %13, label LBL_2, label LBL_3
LBL_3:
%phitmp = zext i32 %11 to i64
%.pre = sub i64 %arg2, %7
store i64 %.pre, i64* %.pre-phi.reg2mem
store i64 %7, i64* %sv_1.0.lcssa.reg2mem
store i64 %phitmp, i64* %sv_0.0.lcssa.reg2mem
br label LBL_4
LBL_4:
%sv_0.0.lcssa.reload = load i64, i64* %sv_0.0.lcssa.reg2mem
%sv_1.0.lcssa.reload = load i64, i64* %sv_1.0.lcssa.reg2mem
%.pre-phi.reload = load i64, i64* %.pre-phi.reg2mem
%14 = icmp slt i64 %.pre-phi.reload, %sv_0.0.lcssa.reload
%15 = add i64 %sv_0.0.lcssa.reload, %sv_1.0.lcssa.reload
%spec.select = select i1 %14, i64 0, i64 %15
ret i64 %spec.select
LBL_5:
ret i64 0
uselistorder i64 %sv_0.0.lcssa.reload, { 1, 0 }
uselistorder i32 %11, { 1, 0 }
uselistorder i64 %7, { 0, 2, 1 }
uselistorder i32* %sv_0.03.reg2mem, { 2, 0, 1 }
uselistorder i32* %sv_2.02.reg2mem, { 2, 0, 1 }
uselistorder i64* %sv_1.01.reg2mem, { 2, 0, 1 }
uselistorder i64* %.pre-phi.reg2mem, { 0, 2, 1 }
uselistorder i64* %sv_1.0.lcssa.reg2mem, { 0, 2, 1 }
uselistorder i64* %sv_0.0.lcssa.reg2mem, { 0, 2, 1 }
uselistorder i1 false, { 1, 0 }
uselistorder i32 0, { 2, 0, 1 }
uselistorder label LBL_2, { 1, 0 }
} | 0 |
BinRealVul | pci_emul_add_msicap_11028 | pci_emul_add_msicap | define i64 @FUNC(i64* %arg1, i64 %arg2) local_unnamed_addr {
LBL_0:
%0 = ptrtoint i64* %arg1 to i64
%sv_0 = alloca i64, align 8
%1 = and i64 %arg2, 4294967295
%2 = call i64 @FUNC(i64* nonnull %sv_0, i64 %1, i64 0)
%3 = call i64 @FUNC(i64 %0, i64* nonnull %sv_0, i64 0)
ret i64 %3
} | 1 |
BinRealVul | shift_12429 | shift | define i64 @FUNC(i64 %arg1) local_unnamed_addr {
LBL_0:
%sv_0.0.be.reg2mem = alloca i64
%sv_0.0.reg2mem = alloca i64
%0 = call i64 @FUNC(i64 %arg1)
store i64 %0, i64* %sv_0.0.reg2mem
br label LBL_1
LBL_1:
%sv_0.0.reload = load i64, i64* %sv_0.0.reg2mem
%1 = call i64 @FUNC(i64 %arg1, i64 1)
%2 = trunc i64 %1 to i32
%3 = icmp eq i32 %2, 0
br i1 %3, label LBL_4, label LBL_2
LBL_2:
%4 = call i64 @FUNC(i64 %arg1)
%5 = call i64 @FUNC(i64 4, i64 %sv_0.0.reload, i64 %4)
store i64 %5, i64* %sv_0.0.be.reg2mem
br label LBL_1.backedge
LBL_3:
%sv_0.0.be.reload = load i64, i64* %sv_0.0.be.reg2mem
store i64 %sv_0.0.be.reload, i64* %sv_0.0.reg2mem
br label LBL_1
LBL_4:
%6 = call i64 @FUNC(i64 %arg1, i64 2)
%7 = trunc i64 %6 to i32
%8 = icmp eq i32 %7, 0
br i1 %8, label LBL_6, label LBL_5
LBL_5:
%9 = call i64 @FUNC(i64 %arg1)
%10 = call i64 @FUNC(i64 5, i64 %sv_0.0.reload, i64 %9)
store i64 %10, i64* %sv_0.0.be.reg2mem
br label LBL_1.backedge
LBL_6:
%11 = call i64 @FUNC(i64 %arg1, i64 3)
%12 = trunc i64 %11 to i32
%13 = icmp eq i32 %12, 0
br i1 %13, label LBL_8, label LBL_7
LBL_7:
%14 = call i64 @FUNC(i64 %arg1)
%15 = call i64 @FUNC(i64 6, i64 %sv_0.0.reload, i64 %14)
store i64 %15, i64* %sv_0.0.be.reg2mem
br label LBL_1.backedge
LBL_8:
ret i64 %sv_0.0.reload
uselistorder i64 %sv_0.0.reload, { 3, 0, 1, 2 }
uselistorder i64* %sv_0.0.reg2mem, { 1, 0, 2 }
uselistorder i64* %sv_0.0.be.reg2mem, { 3, 2, 0, 1 }
uselistorder i64 (i64, i64, i64)* @EXP2, { 2, 1, 0 }
uselistorder i64 (i64, i64)* @jsP_accept, { 2, 1, 0 }
uselistorder i64 (i64)* @additive, { 3, 2, 1, 0 }
uselistorder i32 1, { 1, 0 }
uselistorder label LBL_1.backedge, { 2, 1, 0 }
} | 1 |
BinRealVul | __munlock_isolate_lru_page_8917 | __munlock_isolate_lru_page | define i64 @FUNC(i32* %arg1, i64 %arg2) local_unnamed_addr {
LBL_0:
%storemerge.reg2mem = alloca i64
%0 = ptrtoint i32* %arg1 to i64
%1 = call i64 @FUNC(i64 %0)
%2 = trunc i64 %1 to i8
%3 = icmp eq i8 %2, 0
store i64 0, i64* %storemerge.reg2mem
br i1 %3, label LBL_4, label LBL_1
LBL_1:
%4 = call i64 @FUNC(i64 %0)
%5 = call i64 @FUNC(i64 %0, i64 %4)
%6 = trunc i64 %arg2 to i8
%7 = icmp eq i8 %6, 0
br i1 %7, label LBL_3, label LBL_2
LBL_2:
%8 = call i64 @FUNC(i64 %0)
br label LBL_3
LBL_3:
%9 = call i64 @FUNC(i64 %0)
%10 = call i64 @FUNC(i64 %0)
%11 = and i64 %10, 4294967295
%12 = call i64 @FUNC(i64 %0, i64 %5, i64 %11)
store i64 1, i64* %storemerge.reg2mem
br label LBL_4
LBL_4:
%storemerge.reload = load i64, i64* %storemerge.reg2mem
ret i64 %storemerge.reload
uselistorder i64 %0, { 1, 3, 2, 0, 5, 4, 6 }
uselistorder i64* %storemerge.reg2mem, { 0, 2, 1 }
uselistorder label LBL_4, { 1, 0 }
} | 0 |
BinRealVul | read_sm_data_159 | read_sm_data | define i64 @FUNC(i64* %arg1, i64* %arg2, i64* %arg3, i32 %arg4, i64 %arg5) local_unnamed_addr {
LBL_0:
%0 = alloca i64
%rax.0.reg2mem = alloca i64
%sv_0.1.lcssa.reg2mem = alloca i32
%sv_1.1.lcssa.reg2mem = alloca i32
%sv_2.1.lcssa.reg2mem = alloca i32
%sv_3.1.lcssa.reg2mem = alloca i64
%sv_4.1.lcssa.reg2mem = alloca i32
%sv_5.1.lcssa.reg2mem = alloca i32
%sv_6.1.lcssa.reg2mem = alloca i32
%r8.0.reg2mem = alloca i64
%sv_0.0.reg2mem = alloca i32
%sv_1.0.reg2mem = alloca i32
%sv_2.0.reg2mem = alloca i32
%sv_3.0.reg2mem = alloca i64
%sv_4.0.reg2mem = alloca i32
%sv_5.0.reg2mem = alloca i32
%sv_6.0.reg2mem = alloca i32
%sv_7.0.reg2mem = alloca i64
%sv_6.135.reg2mem = alloca i32
%sv_5.136.reg2mem = alloca i32
%sv_4.137.reg2mem = alloca i32
%sv_3.138.reg2mem = alloca i64
%sv_2.139.reg2mem = alloca i32
%sv_1.140.reg2mem = alloca i32
%sv_0.141.reg2mem = alloca i32
%r8.142.reg2mem = alloca i64
%storemerge443.reg2mem = alloca i32
%1 = load i64, i64* %0
%2 = ptrtoint i64* %arg3 to i64
%3 = ptrtoint i64* %arg2 to i64
%sv_8 = alloca i64, align 8
%sv_9 = alloca i64, align 8
%sv_10 = alloca i64, align 8
%sv_11 = alloca i64, align 8
%4 = call i64 @FUNC(i64 %3)
%5 = trunc i64 %4 to i32
%6 = icmp sgt i32 %5, 0
store i32 0, i32* %sv_6.1.lcssa.reg2mem
store i32 0, i32* %sv_5.1.lcssa.reg2mem
store i32 0, i32* %sv_4.1.lcssa.reg2mem
store i64 0, i64* %sv_3.1.lcssa.reg2mem
store i32 0, i32* %sv_2.1.lcssa.reg2mem
store i32 0, i32* %sv_1.1.lcssa.reg2mem
store i32 0, i32* %sv_0.1.lcssa.reg2mem
br i1 %6, label LBL_1, label LBL_35
LBL_1:
%7 = ptrtoint i64* %arg1 to i64
%8 = ptrtoint i64* %sv_11 to i64
%9 = ptrtoint i64* %sv_10 to i64
%10 = bitcast i64* %sv_11 to i8*
store i32 0, i32* %storemerge443.reg2mem
store i64 %arg5, i64* %r8.142.reg2mem
store i32 0, i32* %sv_0.141.reg2mem
store i32 0, i32* %sv_1.140.reg2mem
store i32 0, i32* %sv_2.139.reg2mem
store i64 0, i64* %sv_3.138.reg2mem
store i32 0, i32* %sv_4.137.reg2mem
store i32 0, i32* %sv_5.136.reg2mem
store i32 0, i32* %sv_6.135.reg2mem
br label LBL_2
LBL_2:
%11 = call i64 @FUNC(i64 %3)
%12 = icmp slt i64 %11, %arg5
store i64 4294967295, i64* %rax.0.reg2mem
br i1 %12, label LBL_3, label LBL_48
LBL_3:
%r8.142.reload = load i64, i64* %r8.142.reg2mem
%13 = call i64 @FUNC(i64 %3, i64* nonnull %sv_11, i64 256)
%14 = trunc i64 %13 to i32
%15 = icmp slt i32 %14, 0
%16 = icmp eq i1 %15, false
br i1 %16, label LBL_5, label LBL_4
LBL_4:
%17 = call i64 @FUNC(i64 %7, i64 0, i8* getelementptr inbounds ([38 x i8], [38 x i8]* @gv_0, i64 0, i64 0), i64 %8, i64 %r8.142.reload, i64 %1)
%18 = and i64 %13, 4294967295
store i64 %18, i64* %rax.0.reg2mem
br label LBL_48
LBL_5:
%sv_6.135.reload = load i32, i32* %sv_6.135.reg2mem
%sv_5.136.reload = load i32, i32* %sv_5.136.reg2mem
%sv_4.137.reload = load i32, i32* %sv_4.137.reg2mem
%sv_3.138.reload = load i64, i64* %sv_3.138.reg2mem
%sv_2.139.reload = load i32, i32* %sv_2.139.reg2mem
%sv_1.140.reload = load i32, i32* %sv_1.140.reg2mem
%sv_0.141.reload = load i32, i32* %sv_0.141.reg2mem
%storemerge443.reload = load i32, i32* %storemerge443.reg2mem
%19 = call i64 @FUNC(i64 %3)
%20 = trunc i64 %19 to i32
%21 = icmp eq i32 %20, -1
%22 = icmp eq i1 %21, false
br i1 %22, label LBL_7, label LBL_6
LBL_6:
%23 = call i64 @FUNC(i64 %3, i64* nonnull %sv_10, i64 256)
%24 = call i64 @FUNC(i64 %7, i64 1, i8* getelementptr inbounds ([24 x i8], [24 x i8]* @gv_1, i64 0, i64 0), i64 %8, i64 %9, i64 %1)
store i32 %sv_6.135.reload, i32* %sv_6.0.reg2mem
store i32 %sv_5.136.reload, i32* %sv_5.0.reg2mem
store i32 %sv_4.137.reload, i32* %sv_4.0.reg2mem
store i64 %sv_3.138.reload, i64* %sv_3.0.reg2mem
store i32 %sv_2.139.reload, i32* %sv_2.0.reg2mem
store i32 %sv_1.140.reload, i32* %sv_1.0.reg2mem
store i32 %sv_0.141.reload, i32* %sv_0.0.reg2mem
store i64 %9, i64* %r8.0.reg2mem
br label LBL_34
LBL_7:
%25 = icmp eq i32 %20, -2
%26 = icmp eq i1 %25, false
br i1 %26, label LBL_21, label LBL_8
LBL_8:
%27 = call i64 @FUNC(i64 %3, i64* nonnull %sv_10, i64 256)
%28 = call i64 @FUNC(i64 %3)
%sext = mul i64 %28, 4294967296
%29 = ashr exact i64 %sext, 32
%30 = call i64 @FUNC(i64 %3)
%31 = add i64 %29, %30
%32 = icmp slt i64 %31, %arg5
store i64 4294967295, i64* %rax.0.reg2mem
br i1 %32, label LBL_9, label LBL_48
LBL_9:
%33 = call i32 @strcmp(i8* nonnull %10, i8* getelementptr inbounds ([8 x i8], [8 x i8]* @gv_2, i64 0, i64 0))
%34 = icmp eq i32 %33, 0
%35 = icmp eq i1 %34, false
br i1 %35, label LBL_11, label LBL_10
LBL_10:
%36 = and i64 %29, 4294967295
%37 = call i64 @FUNC(i64 %2, i64 1, i64 %36)
store i64 %37, i64* %sv_7.0.reg2mem
br label LBL_19
LBL_11:
%38 = call i32 @strcmp(i8* nonnull %10, i8* getelementptr inbounds ([10 x i8], [10 x i8]* @gv_3, i64 0, i64 0))
%39 = icmp eq i32 %38, 0
%40 = icmp eq i1 %39, false
br i1 %40, label LBL_13, label LBL_12
LBL_12:
%41 = and i64 %29, 4294967295
%42 = call i64 @FUNC(i64 %2, i64 2, i64 %41)
store i64 %42, i64* %sv_7.0.reg2mem
br label LBL_19
LBL_13:
%43 = call i32 (i8*, i8*, ...) @sscanf(i8* nonnull %10, i8* getelementptr inbounds ([21 x i8], [21 x i8]* @gv_4, i64 0, i64 0), i64* nonnull %sv_9)
%44 = icmp eq i32 %43, 1
%45 = icmp eq i1 %44, false
br i1 %45, label LBL_16, label LBL_14
LBL_14:
%46 = add nsw i64 %29, 8
%47 = and i64 %46, 4294967295
%48 = call i64 @FUNC(i64 %2, i64 3, i64 %47)
%49 = icmp eq i64 %48, 0
%50 = icmp eq i1 %49, false
store i64 4294967284, i64* %rax.0.reg2mem
br i1 %50, label LBL_15, label LBL_48
LBL_15:
%51 = load i64, i64* %sv_9, align 8
%52 = call i64 @FUNC(i64 %48, i64 %51)
%53 = add i64 %48, 8
store i64 %53, i64* %sv_7.0.reg2mem
br label LBL_19
LBL_16:
%54 = trunc i64 %29 to i32
%55 = call i32 @strcmp(i8* nonnull %10, i8* getelementptr inbounds ([14 x i8], [14 x i8]* @gv_5, i64 0, i64 0))
%56 = icmp eq i32 %55, 0
%57 = icmp eq i32 %54, 8
%58 = icmp eq i1 %57, %56
br i1 %58, label LBL_17, label LBL_18
LBL_17:
%59 = call i64 @FUNC(i64 %3)
store i32 %sv_6.135.reload, i32* %sv_6.0.reg2mem
store i32 %sv_5.136.reload, i32* %sv_5.0.reg2mem
store i32 %sv_4.137.reload, i32* %sv_4.0.reg2mem
store i64 %59, i64* %sv_3.0.reg2mem
store i32 %sv_2.139.reload, i32* %sv_2.0.reg2mem
store i32 %sv_1.140.reload, i32* %sv_1.0.reg2mem
store i32 %sv_0.141.reload, i32* %sv_0.0.reg2mem
store i64 %r8.142.reload, i64* %r8.0.reg2mem
br label LBL_34
LBL_18:
%60 = call i64 @FUNC(i64 %7, i64 1, i8* getelementptr inbounds ([22 x i8], [22 x i8]* @gv_6, i64 0, i64 0), i64 %8, i64 %9, i64 %1)
%61 = call i64 @FUNC(i64 %3, i64 %29)
store i32 %sv_6.135.reload, i32* %sv_6.0.reg2mem
store i32 %sv_5.136.reload, i32* %sv_5.0.reg2mem
store i32 %sv_4.137.reload, i32* %sv_4.0.reg2mem
store i64 %sv_3.138.reload, i64* %sv_3.0.reg2mem
store i32 %sv_2.139.reload, i32* %sv_2.0.reg2mem
store i32 %sv_1.140.reload, i32* %sv_1.0.reg2mem
store i32 %sv_0.141.reload, i32* %sv_0.0.reg2mem
store i64 %9, i64* %r8.0.reg2mem
br label LBL_34
LBL_19:
%sv_7.0.reload = load i64, i64* %sv_7.0.reg2mem
%62 = icmp eq i64 %sv_7.0.reload, 0
%63 = icmp eq i1 %62, false
store i64 4294967284, i64* %rax.0.reg2mem
br i1 %63, label LBL_20, label LBL_48
LBL_20:
%64 = and i64 %29, 4294967295
%65 = call i64 @FUNC(i64 %3, i64 %sv_7.0.reload, i64 %64)
store i32 %sv_6.135.reload, i32* %sv_6.0.reg2mem
store i32 %sv_5.136.reload, i32* %sv_5.0.reg2mem
store i32 %sv_4.137.reload, i32* %sv_4.0.reg2mem
store i64 %sv_3.138.reload, i64* %sv_3.0.reg2mem
store i32 %sv_2.139.reload, i32* %sv_2.0.reg2mem
store i32 %sv_1.140.reload, i32* %sv_1.0.reg2mem
store i32 %sv_0.141.reload, i32* %sv_0.0.reg2mem
store i64 %r8.142.reload, i64* %r8.0.reg2mem
br label LBL_34
LBL_21:
%66 = icmp eq i32 %20, -3
%67 = icmp eq i1 %66, false
br i1 %67, label LBL_23, label LBL_22
LBL_22:
%68 = call i64 @FUNC(i64 %3)
store i32 %sv_6.135.reload, i32* %sv_6.0.reg2mem
store i32 %sv_5.136.reload, i32* %sv_5.0.reg2mem
store i32 %sv_4.137.reload, i32* %sv_4.0.reg2mem
store i64 %sv_3.138.reload, i64* %sv_3.0.reg2mem
store i32 %sv_2.139.reload, i32* %sv_2.0.reg2mem
store i32 %sv_1.140.reload, i32* %sv_1.0.reg2mem
store i32 %sv_0.141.reload, i32* %sv_0.0.reg2mem
store i64 %r8.142.reload, i64* %r8.0.reg2mem
br label LBL_34
LBL_23:
%69 = icmp eq i32 %20, -4
%70 = icmp eq i1 %69, false
br i1 %70, label LBL_25, label LBL_24
LBL_24:
%71 = call i64 @FUNC(i64 %3)
store i32 %sv_6.135.reload, i32* %sv_6.0.reg2mem
store i32 %sv_5.136.reload, i32* %sv_5.0.reg2mem
store i32 %sv_4.137.reload, i32* %sv_4.0.reg2mem
store i64 %sv_3.138.reload, i64* %sv_3.0.reg2mem
store i32 %sv_2.139.reload, i32* %sv_2.0.reg2mem
store i32 %sv_1.140.reload, i32* %sv_1.0.reg2mem
store i32 %sv_0.141.reload, i32* %sv_0.0.reg2mem
store i64 %r8.142.reload, i64* %r8.0.reg2mem
br label LBL_34
LBL_25:
%72 = icmp sgt i32 %20, -5
br i1 %72, label LBL_27, label LBL_26
LBL_26:
%73 = call i64 @FUNC(i64 %3)
store i32 %sv_6.135.reload, i32* %sv_6.0.reg2mem
store i32 %sv_5.136.reload, i32* %sv_5.0.reg2mem
store i32 %sv_4.137.reload, i32* %sv_4.0.reg2mem
store i64 %sv_3.138.reload, i64* %sv_3.0.reg2mem
store i32 %sv_2.139.reload, i32* %sv_2.0.reg2mem
store i32 %sv_1.140.reload, i32* %sv_1.0.reg2mem
store i32 %sv_0.141.reload, i32* %sv_0.0.reg2mem
store i64 %r8.142.reload, i64* %r8.0.reg2mem
br label LBL_34
LBL_27:
%74 = call i32 @strcmp(i8* nonnull %10, i8* getelementptr inbounds ([10 x i8], [10 x i8]* @gv_7, i64 0, i64 0))
%75 = icmp eq i32 %74, 0
%76 = icmp eq i1 %75, false
store i32 %20, i32* %sv_6.0.reg2mem
store i32 %sv_5.136.reload, i32* %sv_5.0.reg2mem
store i32 %sv_4.137.reload, i32* %sv_4.0.reg2mem
store i64 %sv_3.138.reload, i64* %sv_3.0.reg2mem
store i32 %sv_2.139.reload, i32* %sv_2.0.reg2mem
store i32 %sv_1.140.reload, i32* %sv_1.0.reg2mem
store i32 %sv_0.141.reload, i32* %sv_0.0.reg2mem
store i64 %r8.142.reload, i64* %r8.0.reg2mem
br i1 %76, label LBL_28, label LBL_34
LBL_28:
%77 = call i32 @strcmp(i8* nonnull %10, i8* getelementptr inbounds ([8 x i8], [8 x i8]* @gv_8, i64 0, i64 0))
%78 = icmp eq i32 %77, 0
%79 = icmp eq i1 %78, false
store i32 %sv_6.135.reload, i32* %sv_6.0.reg2mem
store i32 %20, i32* %sv_5.0.reg2mem
store i32 %sv_4.137.reload, i32* %sv_4.0.reg2mem
store i64 %sv_3.138.reload, i64* %sv_3.0.reg2mem
store i32 %sv_2.139.reload, i32* %sv_2.0.reg2mem
store i32 %sv_1.140.reload, i32* %sv_1.0.reg2mem
store i32 %sv_0.141.reload, i32* %sv_0.0.reg2mem
store i64 %r8.142.reload, i64* %r8.0.reg2mem
br i1 %79, label LBL_29, label LBL_34
LBL_29:
%80 = call i32 @strcmp(i8* nonnull %10, i8* getelementptr inbounds ([9 x i8], [9 x i8]* @gv_9, i64 0, i64 0))
%81 = icmp eq i32 %80, 0
%82 = icmp eq i1 %81, false
store i32 %sv_6.135.reload, i32* %sv_6.0.reg2mem
store i32 %sv_5.136.reload, i32* %sv_5.0.reg2mem
store i32 %20, i32* %sv_4.0.reg2mem
store i64 %sv_3.138.reload, i64* %sv_3.0.reg2mem
store i32 %sv_2.139.reload, i32* %sv_2.0.reg2mem
store i32 %sv_1.140.reload, i32* %sv_1.0.reg2mem
store i32 %sv_0.141.reload, i32* %sv_0.0.reg2mem
store i64 %r8.142.reload, i64* %r8.0.reg2mem
br i1 %82, label LBL_30, label LBL_34
LBL_30:
%83 = call i32 @strcmp(i8* nonnull %10, i8* getelementptr inbounds ([11 x i8], [11 x i8]* @gv_10, i64 0, i64 0))
%84 = icmp eq i32 %83, 0
%85 = icmp eq i1 %84, false
store i32 %sv_6.135.reload, i32* %sv_6.0.reg2mem
store i32 %sv_5.136.reload, i32* %sv_5.0.reg2mem
store i32 %sv_4.137.reload, i32* %sv_4.0.reg2mem
store i64 %sv_3.138.reload, i64* %sv_3.0.reg2mem
store i32 %20, i32* %sv_2.0.reg2mem
store i32 %sv_1.140.reload, i32* %sv_1.0.reg2mem
store i32 %sv_0.141.reload, i32* %sv_0.0.reg2mem
store i64 %r8.142.reload, i64* %r8.0.reg2mem
br i1 %85, label LBL_31, label LBL_34
LBL_31:
%86 = call i32 @strcmp(i8* nonnull %10, i8* getelementptr inbounds ([6 x i8], [6 x i8]* @gv_11, i64 0, i64 0))
%87 = icmp eq i32 %86, 0
%88 = icmp eq i1 %87, false
store i32 %sv_6.135.reload, i32* %sv_6.0.reg2mem
store i32 %sv_5.136.reload, i32* %sv_5.0.reg2mem
store i32 %sv_4.137.reload, i32* %sv_4.0.reg2mem
store i64 %sv_3.138.reload, i64* %sv_3.0.reg2mem
store i32 %sv_2.139.reload, i32* %sv_2.0.reg2mem
store i32 %20, i32* %sv_1.0.reg2mem
store i32 %sv_0.141.reload, i32* %sv_0.0.reg2mem
store i64 %r8.142.reload, i64* %r8.0.reg2mem
br i1 %88, label LBL_32, label LBL_34
LBL_32:
%89 = call i32 @strcmp(i8* nonnull %10, i8* getelementptr inbounds ([7 x i8], [7 x i8]* @gv_12, i64 0, i64 0))
%90 = icmp eq i32 %89, 0
%91 = icmp eq i1 %90, false
store i32 %sv_6.135.reload, i32* %sv_6.0.reg2mem
store i32 %sv_5.136.reload, i32* %sv_5.0.reg2mem
store i32 %sv_4.137.reload, i32* %sv_4.0.reg2mem
store i64 %sv_3.138.reload, i64* %sv_3.0.reg2mem
store i32 %sv_2.139.reload, i32* %sv_2.0.reg2mem
store i32 %sv_1.140.reload, i32* %sv_1.0.reg2mem
store i32 %20, i32* %sv_0.0.reg2mem
store i64 %r8.142.reload, i64* %r8.0.reg2mem
br i1 %91, label LBL_33, label LBL_34
LBL_33:
%92 = call i64 @FUNC(i64 %7, i64 1, i8* getelementptr inbounds ([20 x i8], [20 x i8]* @gv_13, i64 0, i64 0), i64 %8, i64 %r8.142.reload, i64 %1)
store i32 %sv_6.135.reload, i32* %sv_6.0.reg2mem
store i32 %sv_5.136.reload, i32* %sv_5.0.reg2mem
store i32 %sv_4.137.reload, i32* %sv_4.0.reg2mem
store i64 %sv_3.138.reload, i64* %sv_3.0.reg2mem
store i32 %sv_2.139.reload, i32* %sv_2.0.reg2mem
store i32 %sv_1.140.reload, i32* %sv_1.0.reg2mem
store i32 %sv_0.141.reload, i32* %sv_0.0.reg2mem
store i64 %r8.142.reload, i64* %r8.0.reg2mem
br label LBL_34
LBL_34:
%r8.0.reload = load i64, i64* %r8.0.reg2mem
%sv_0.0.reload = load i32, i32* %sv_0.0.reg2mem
%sv_1.0.reload = load i32, i32* %sv_1.0.reg2mem
%sv_2.0.reload = load i32, i32* %sv_2.0.reg2mem
%sv_3.0.reload = load i64, i64* %sv_3.0.reg2mem
%sv_4.0.reload = load i32, i32* %sv_4.0.reg2mem
%sv_5.0.reload = load i32, i32* %sv_5.0.reg2mem
%sv_6.0.reload = load i32, i32* %sv_6.0.reg2mem
%93 = add nuw nsw i32 %storemerge443.reload, 1
%94 = icmp slt i32 %93, %5
store i32 %93, i32* %storemerge443.reg2mem
store i64 %r8.0.reload, i64* %r8.142.reg2mem
store i32 %sv_0.0.reload, i32* %sv_0.141.reg2mem
store i32 %sv_1.0.reload, i32* %sv_1.140.reg2mem
store i32 %sv_2.0.reload, i32* %sv_2.139.reg2mem
store i64 %sv_3.0.reload, i64* %sv_3.138.reg2mem
store i32 %sv_4.0.reload, i32* %sv_4.137.reg2mem
store i32 %sv_5.0.reload, i32* %sv_5.136.reg2mem
store i32 %sv_6.0.reload, i32* %sv_6.135.reg2mem
store i32 %sv_6.0.reload, i32* %sv_6.1.lcssa.reg2mem
store i32 %sv_5.0.reload, i32* %sv_5.1.lcssa.reg2mem
store i32 %sv_4.0.reload, i32* %sv_4.1.lcssa.reg2mem
store i64 %sv_3.0.reload, i64* %sv_3.1.lcssa.reg2mem
store i32 %sv_2.0.reload, i32* %sv_2.1.lcssa.reg2mem
store i32 %sv_1.0.reload, i32* %sv_1.1.lcssa.reg2mem
store i32 %sv_0.0.reload, i32* %sv_0.1.lcssa.reg2mem
br i1 %94, label LBL_2, label LBL_35
LBL_35:
%sv_0.1.lcssa.reload = load i32, i32* %sv_0.1.lcssa.reg2mem
%sv_1.1.lcssa.reload = load i32, i32* %sv_1.1.lcssa.reg2mem
%sv_2.1.lcssa.reload = load i32, i32* %sv_2.1.lcssa.reg2mem
%sv_3.1.lcssa.reload = load i64, i64* %sv_3.1.lcssa.reg2mem
%sv_4.1.lcssa.reload = load i32, i32* %sv_4.1.lcssa.reg2mem
%sv_5.1.lcssa.reload = load i32, i32* %sv_5.1.lcssa.reg2mem
%sv_6.1.lcssa.reload = load i32, i32* %sv_6.1.lcssa.reg2mem
%95 = icmp eq i64 %sv_3.1.lcssa.reload, 0
%96 = or i32 %sv_2.1.lcssa.reload, %sv_4.1.lcssa.reload
%97 = or i32 %sv_0.1.lcssa.reload, %sv_1.1.lcssa.reload
%98 = or i32 %96, %97
%99 = icmp eq i32 %98, 0
%100 = icmp eq i1 %95, %99
br i1 %100, label LBL_45, label LBL_36
LBL_36:
%101 = call i64 @FUNC(i64 %2, i64 4, i64 28)
store i64 %101, i64* %sv_8, align 8
%102 = icmp eq i64 %101, 0
%103 = icmp eq i1 %102, false
store i64 4294967284, i64* %rax.0.reg2mem
br i1 %103, label LBL_37, label LBL_48
LBL_37:
%104 = icmp eq i32 %sv_4.1.lcssa.reload, 0
%105 = icmp eq i1 %104, false
%106 = icmp eq i32 %sv_2.1.lcssa.reload, 0
%107 = icmp eq i32 %97, 0
%108 = zext i1 %105 to i64
%. = select i1 %95, i64 0, i64 2
%109 = or i64 %., %108
%storemerge2 = select i1 %106, i64 0, i64 3
%110 = add nuw nsw i64 %storemerge2, %109
%.6 = select i1 %107, i64 0, i64 4
%111 = add nuw nsw i64 %110, %.6
%112 = call i64 @FUNC(i64* nonnull %sv_8, i64 %111)
br i1 %104, label LBL_39, label LBL_38
LBL_38:
%113 = zext i32 %sv_4.1.lcssa.reload to i64
%114 = call i64 @FUNC(i64* nonnull %sv_8, i64 %113)
br label LBL_39
LBL_39:
br i1 %95, label LBL_41, label LBL_40
LBL_40:
%115 = call i64 @FUNC(i64* nonnull %sv_8, i64 %sv_3.1.lcssa.reload)
br label LBL_41
LBL_41:
br i1 %106, label LBL_43, label LBL_42
LBL_42:
%116 = zext i32 %sv_2.1.lcssa.reload to i64
%117 = call i64 @FUNC(i64* nonnull %sv_8, i64 %116)
br label LBL_43
LBL_43:
br i1 %107, label LBL_45, label LBL_44
LBL_44:
%118 = zext i32 %sv_1.1.lcssa.reload to i64
%119 = call i64 @FUNC(i64* nonnull %sv_8, i64 %118)
%120 = zext i32 %sv_0.1.lcssa.reload to i64
%121 = call i64 @FUNC(i64* nonnull %sv_8, i64 %120)
br label LBL_45
LBL_45:
%122 = or i32 %sv_5.1.lcssa.reload, %sv_6.1.lcssa.reload
%123 = icmp eq i32 %122, 0
store i64 0, i64* %rax.0.reg2mem
br i1 %123, label LBL_48, label LBL_46
LBL_46:
%124 = call i64 @FUNC(i64 %2, i64 5, i64 10)
%125 = icmp eq i64 %124, 0
%126 = icmp eq i1 %125, false
store i64 4294967284, i64* %rax.0.reg2mem
br i1 %126, label LBL_47, label LBL_48
LBL_47:
%127 = zext i32 %sv_6.1.lcssa.reload to i64
%128 = call i64 @FUNC(i64 %124, i64 %127)
%129 = add i64 %124, 4
%130 = zext i32 %sv_5.1.lcssa.reload to i64
%131 = call i64 @FUNC(i64 %129, i64 %130)
store i64 0, i64* %rax.0.reg2mem
br label LBL_48
LBL_48:
%rax.0.reload = load i64, i64* %rax.0.reg2mem
ret i64 %rax.0.reload
uselistorder i64 %124, { 1, 0, 2 }
uselistorder i32 %97, { 1, 0 }
uselistorder i1 %95, { 1, 2, 0 }
uselistorder i64 %sv_3.1.lcssa.reload, { 1, 0 }
uselistorder i32 %sv_2.1.lcssa.reload, { 1, 0, 2 }
uselistorder i64 %48, { 1, 0, 2 }
uselistorder i64 %29, { 4, 1, 6, 2, 3, 5, 0 }
uselistorder i32 %sv_0.141.reload, { 12, 0, 1, 2, 3, 4, 11, 10, 9, 6, 8, 7, 5 }
uselistorder i32 %sv_1.140.reload, { 12, 0, 1, 2, 3, 4, 11, 10, 9, 6, 8, 7, 5 }
uselistorder i32 %sv_2.139.reload, { 12, 0, 1, 2, 3, 4, 11, 10, 9, 6, 8, 7, 5 }
uselistorder i64 %sv_3.138.reload, { 12, 0, 1, 2, 3, 4, 5, 11, 10, 9, 7, 8, 6 }
uselistorder i32 %sv_4.137.reload, { 12, 0, 1, 2, 3, 4, 11, 10, 9, 6, 8, 7, 5 }
uselistorder i32 %sv_5.136.reload, { 12, 0, 1, 2, 3, 4, 11, 10, 9, 6, 8, 7, 5 }
uselistorder i32 %sv_6.135.reload, { 12, 0, 1, 2, 3, 4, 11, 10, 9, 6, 8, 7, 5 }
uselistorder i64 %r8.142.reload, { 11, 12, 0, 1, 2, 3, 4, 5, 10, 9, 8, 6, 7, 13 }
uselistorder i8* %10, { 5, 4, 3, 2, 1, 0, 6, 7, 8, 9 }
uselistorder i64 %9, { 1, 2, 0, 3 }
uselistorder i64 %8, { 3, 2, 1, 0 }
uselistorder i64 %7, { 3, 2, 1, 0 }
uselistorder i32 %5, { 1, 0 }
uselistorder i64* %sv_11, { 1, 0, 2 }
uselistorder i64* %sv_9, { 1, 0 }
uselistorder i64 %3, { 9, 8, 7, 1, 3, 2, 4, 6, 5, 0, 10, 11, 12, 13 }
uselistorder i64 %2, { 0, 1, 4, 3, 2 }
uselistorder i64 %1, { 3, 2, 1, 0 }
uselistorder i32* %storemerge443.reg2mem, { 1, 0, 2 }
uselistorder i64* %r8.142.reg2mem, { 1, 0, 2 }
uselistorder i32* %sv_0.141.reg2mem, { 1, 0, 2 }
uselistorder i32* %sv_1.140.reg2mem, { 1, 0, 2 }
uselistorder i32* %sv_2.139.reg2mem, { 1, 0, 2 }
uselistorder i64* %sv_3.138.reg2mem, { 1, 0, 2 }
uselistorder i32* %sv_4.137.reg2mem, { 1, 0, 2 }
uselistorder i32* %sv_5.136.reg2mem, { 1, 0, 2 }
uselistorder i32* %sv_6.135.reg2mem, { 1, 0, 2 }
uselistorder i64* %sv_7.0.reg2mem, { 0, 3, 2, 1 }
uselistorder i32* %sv_6.0.reg2mem, { 0, 14, 1, 2, 3, 4, 5, 6, 13, 12, 11, 8, 10, 9, 7 }
uselistorder i32* %sv_5.0.reg2mem, { 0, 14, 1, 2, 3, 4, 5, 6, 13, 12, 11, 8, 10, 9, 7 }
uselistorder i32* %sv_4.0.reg2mem, { 0, 14, 1, 2, 3, 4, 5, 6, 13, 12, 11, 8, 10, 9, 7 }
uselistorder i64* %sv_3.0.reg2mem, { 0, 14, 1, 2, 3, 4, 5, 6, 13, 12, 11, 8, 10, 9, 7 }
uselistorder i32* %sv_2.0.reg2mem, { 0, 14, 1, 2, 3, 4, 5, 6, 13, 12, 11, 8, 10, 9, 7 }
uselistorder i32* %sv_1.0.reg2mem, { 0, 14, 1, 2, 3, 4, 5, 6, 13, 12, 11, 8, 10, 9, 7 }
uselistorder i32* %sv_0.0.reg2mem, { 0, 14, 1, 2, 3, 4, 5, 6, 13, 12, 11, 8, 10, 9, 7 }
uselistorder i64* %r8.0.reg2mem, { 0, 14, 1, 2, 3, 4, 5, 6, 13, 12, 11, 8, 10, 9, 7 }
uselistorder i64* %rax.0.reg2mem, { 0, 5, 7, 6, 8, 2, 1, 3, 9, 4 }
uselistorder i64 (i64, i64)* @AV_WL32, { 1, 0 }
uselistorder i64 (i64*, i64)* @bytestream_put_le32, { 4, 3, 2, 1, 0 }
uselistorder i64 4, { 2, 0, 1 }
uselistorder i64 4294967284, { 2, 3, 1, 0 }
uselistorder i64 8, { 1, 0 }
uselistorder i64 (i64, i64, i64)* @av_packet_new_side_data, { 4, 0, 3, 2, 1 }
uselistorder i32 (i8*, i8*)* @strcmp, { 8, 3, 2, 5, 4, 1, 0, 7, 6 }
uselistorder i64 (i64)* @get_s, { 2, 1, 0 }
uselistorder i64 (i64, i64, i8*, i64, i64, i64)* @av_log, { 3, 2, 1, 0 }
uselistorder i1 false, { 0, 18, 17, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15, 16 }
uselistorder i64 (i64, i64*, i64)* @get_str, { 2, 1, 0 }
uselistorder i64 (i64)* @avio_tell, { 1, 0 }
uselistorder i64 (i64)* @ffio_read_varlen, { 2, 1, 0 }
uselistorder i64 %arg5, { 1, 2, 0 }
uselistorder label LBL_48, { 4, 6, 5, 7, 1, 0, 2, 8, 3 }
uselistorder label LBL_45, { 2, 1, 0 }
uselistorder label LBL_34, { 6, 0, 1, 2, 3, 4, 5, 7, 8, 9, 10, 11, 12, 13 }
uselistorder label LBL_2, { 1, 0 }
} | 1 |
BinRealVul | kvm_mmu_free_page_8855 | kvm_mmu_free_page | define i64 @FUNC(i64 %arg1) local_unnamed_addr {
LBL_0:
%0 = call i64 @FUNC(i64 %arg1)
%1 = and i64 %0, 4294967295
%2 = call i64 @FUNC(i64 %1)
%3 = add i64 %arg1, 24
%4 = call i64 @FUNC(i64 %3)
%5 = add i64 %arg1, 32
%6 = call i64 @FUNC(i64 %5)
%7 = call i64 @FUNC(i64 %5)
%8 = add i64 %arg1, 16
%9 = inttoptr i64 %8 to i32*
%10 = load i32, i32* %9, align 4
%11 = icmp eq i32 %10, 0
%12 = icmp eq i1 %11, false
br i1 %12, label LBL_2, label LBL_1
LBL_1:
%13 = add i64 %arg1, 8
%14 = inttoptr i64 %13 to i64*
%15 = load i64, i64* %14, align 8
%16 = call i64 @FUNC(i64 %15)
br label LBL_2
LBL_2:
%17 = load i64, i64* @gv_0, align 8
%18 = call i64 @FUNC(i64 %17, i64 %arg1)
ret i64 %18
uselistorder i64 (i64)* @free_page, { 1, 0 }
uselistorder i64 %arg1, { 1, 0, 2, 3, 4, 5 }
} | 0 |
BinRealVul | __remove_section_9456 | __remove_section | define i64 @FUNC(i64* %arg1, i64* %arg2) local_unnamed_addr {
LBL_0:
%rax.0.reg2mem = alloca i64
%0 = ptrtoint i64* %arg2 to i64
%sv_0 = alloca i64, align 8
%1 = call i64 @FUNC(i64 %0)
%2 = trunc i64 %1 to i32
%3 = icmp eq i32 %2, 0
%4 = icmp eq i1 %3, false
store i64 4294967274, i64* %rax.0.reg2mem
br i1 %4, label LBL_1, label LBL_4
LBL_1:
%5 = call i64 @FUNC(i64 %0)
%6 = trunc i64 %5 to i32
%7 = icmp eq i32 %6, 0
br i1 %7, label LBL_3, label LBL_2
LBL_2:
%8 = and i64 %5, 4294967295
store i64 %8, i64* %rax.0.reg2mem
br label LBL_4
LBL_3:
%9 = ptrtoint i64* %arg1 to i64
%10 = call i64 @FUNC(i64 %9, i64* nonnull %sv_0)
%11 = call i64 @FUNC(i64 %9, i64 %0)
%12 = call i64 @FUNC(i64 %9, i64* nonnull %sv_0)
store i64 0, i64* %rax.0.reg2mem
br label LBL_4
LBL_4:
%rax.0.reload = load i64, i64* %rax.0.reg2mem
ret i64 %rax.0.reload
uselistorder i64 %9, { 2, 0, 1 }
uselistorder i64* %rax.0.reg2mem, { 0, 3, 2, 1 }
uselistorder label LBL_4, { 1, 2, 0 }
} | 0 |
BinRealVul | dbFree_7255 | dbFree | define i64 @FUNC(i64* %arg1, i64 %arg2, i64 %arg3) local_unnamed_addr {
LBL_0:
%rax.0.reg2mem = alloca i64
%0 = icmp eq i64 %arg2, 0
%1 = icmp eq i1 %0, false
%2 = icmp eq i1 %1, false
br i1 %2, label LBL_2, label LBL_1
LBL_1:
%3 = ptrtoint i64* %arg1 to i64
%4 = add i64 %3, 8
%5 = inttoptr i64 %4 to i64*
%6 = load i64, i64* %5, align 8
%7 = inttoptr i64 %6 to i32*
%8 = add i64 %arg3, %arg2
%9 = load i32, i32* %7, align 4
%10 = sext i32 %9 to i64
%11 = sub i64 %8, %10
%12 = xor i64 %8, %10
%13 = xor i64 %11, %8
%14 = and i64 %13, %12
%15 = icmp slt i64 %14, 0
%16 = icmp eq i64 %11, 0
%17 = icmp slt i64 %11, 0
%18 = icmp eq i1 %17, %15
%19 = icmp eq i1 %16, false
%20 = icmp eq i1 %18, %19
%21 = icmp eq i1 %20, false
br i1 %21, label LBL_3, label LBL_2
LBL_2:
%22 = call i32 (i8*, ...) @printf(i8* getelementptr inbounds ([35 x i8], [35 x i8]* @gv_0, i64 0, i64 0), i64 %arg2, i64 %arg3)
%23 = load %_IO_FILE*, %_IO_FILE** @gv_1, align 8
%24 = call i32 (%_IO_FILE*, i8*, ...) @fprintf(%_IO_FILE* %23, i8* getelementptr inbounds ([4 x i8], [4 x i8]* @gv_2, i64 0, i64 0), i8* getelementptr inbounds ([38 x i8], [38 x i8]* @gv_3, i64 0, i64 0))
store i64 4294967291, i64* %rax.0.reg2mem
br label LBL_4
LBL_3:
%25 = icmp eq i64 %arg3, 0
%26 = icmp slt i64 %arg3, 0
%27 = icmp eq i1 %26, false
%28 = icmp eq i1 %25, false
%29 = icmp eq i1 %27, %28
%. = select i1 %29, i64 4294967291, i64 0
store i64 %., i64* %rax.0.reg2mem
br label LBL_4
LBL_4:
%rax.0.reload = load i64, i64* %rax.0.reg2mem
ret i64 %rax.0.reload
uselistorder i64 %11, { 1, 2, 0 }
uselistorder i64 %8, { 1, 0, 2 }
uselistorder i64 4294967291, { 1, 0 }
uselistorder i1 false, { 3, 0, 1, 4, 5, 2 }
uselistorder i64 %arg3, { 1, 2, 3, 0 }
uselistorder i64 %arg2, { 1, 0, 2 }
} | 0 |
BinRealVul | url_connect_14600 | url_connect | define i64 @FUNC(i64* %arg1, i64* %arg2, i64* %arg3) local_unnamed_addr {
LBL_0:
%0 = ptrtoint i64* %arg3 to i64
%1 = ptrtoint i64* %arg2 to i64
%sv_0 = alloca i64, align 8
store i64 0, i64* %sv_0, align 8
%2 = call i64 @FUNC(i64* nonnull %sv_0, i64 %1, i64 0)
%3 = ptrtoint i64* %sv_0 to i64
%4 = call i64 @FUNC(i64* nonnull %sv_0, i64 %0, i64 0)
%5 = call i64 @FUNC(i64 %3, i64* nonnull %sv_0)
%6 = call i64 @FUNC(i64 %3, i64 0)
%7 = trunc i64 %6 to i32
%8 = icmp slt i32 %7, 0
%9 = icmp eq i1 %8, false
br i1 %9, label LBL_2, label LBL_1
LBL_1:
%10 = call i64 @FUNC(i64 %3)
store i64 0, i64* %arg1, align 8
br label LBL_2
LBL_2:
%11 = call i64 @FUNC(i64* nonnull %sv_0)
%12 = and i64 %6, 4294967295
ret i64 %12
uselistorder i64* %sv_0, { 0, 1, 2, 4, 3, 5 }
uselistorder i64 (i64*, i64, i64)* @av_dict_copy, { 1, 0 }
uselistorder i64 0, { 6, 1, 2, 3, 5, 0, 4 }
} | 1 |
BinRealVul | handle_sigp_1439 | handle_sigp | define i64 @FUNC(i64* %arg1, i64* %arg2, i8 %arg3) local_unnamed_addr {
LBL_0:
%storemerge.reg2mem = alloca i64
%storemerge4.reg2mem = alloca i64
%sv_0.07.reg2mem = alloca i32
%0 = ptrtoint i64* %arg2 to i64
%1 = ptrtoint i64* %arg1 to i64
%2 = udiv i8 %arg3, 16
%3 = call i64 @FUNC(i64 %1)
%4 = call i64 @FUNC(i64 %1, i64 %0, i64 0)
%5 = trunc i64 %4 to i32
%6 = urem i32 %5, 16
%7 = mul i8 %2, 8
%8 = and i8 %arg3, 16
%9 = icmp eq i8 %8, 0
%narrow = add nuw i8 %7, 8
%.pn.in = select i1 %9, i8 %narrow, i8 %7
%.pn = zext i8 %.pn.in to i64
%storemerge6.in.in = add i64 %.pn, %1
%storemerge6.in = inttoptr i64 %storemerge6.in.in to i64*
%storemerge6 = load i64, i64* %storemerge6.in, align 8
%10 = call i64 @FUNC(i64* nonnull @gv_0)
%11 = trunc i64 %10 to i32
%12 = icmp eq i32 %11, 0
store i32 -1, i32* %sv_0.07.reg2mem
store i64 4294967295, i64* %storemerge4.reg2mem
br i1 %12, label LBL_1, label LBL_5
LBL_1:
%13 = zext i8 %7 to i64
%14 = add i64 %13, %1
%15 = icmp eq i32 %6, 0
%16 = icmp eq i1 %15, false
br i1 %16, label LBL_3, label LBL_2
LBL_2:
%17 = call i64 @FUNC(i64 %1, i64 %storemerge6, i64 %14)
%storemerge59 = trunc i64 %17 to i32
%18 = call i64 @FUNC(i64* nonnull @gv_0)
store i32 %storemerge59, i32* %sv_0.07.reg2mem
store i64 4294967295, i64* %storemerge4.reg2mem
br label LBL_5
LBL_3:
%19 = mul i8 %arg3, 8
%20 = and i8 %19, 120
%21 = zext i8 %20 to i64
%22 = add i64 %21, %1
%23 = inttoptr i64 %22 to i64*
%24 = load i64, i64* %23, align 8
%25 = call i64 @FUNC(i64 %24)
%26 = trunc i32 %6 to i8
%27 = call i64 @FUNC(i64 %25, i8 %26, i64 %storemerge6, i64 %14)
%storemerge5 = trunc i64 %27 to i32
%28 = call i64 @FUNC(i64* nonnull @gv_0)
%29 = icmp eq i64 %25, 0
store i32 %storemerge5, i32* %sv_0.07.reg2mem
store i64 4294967295, i64* %storemerge4.reg2mem
br i1 %29, label LBL_5, label LBL_4
LBL_4:
%30 = add i64 %25, 128
%31 = inttoptr i64 %30 to i32*
%32 = load i32, i32* %31, align 4
%33 = zext i32 %32 to i64
store i32 %storemerge5, i32* %sv_0.07.reg2mem
store i64 %33, i64* %storemerge4.reg2mem
br label LBL_5
LBL_5:
%storemerge4.reload = load i64, i64* %storemerge4.reg2mem
%sv_0.07.reload = load i32, i32* %sv_0.07.reg2mem
%34 = add i64 %1, 128
%35 = inttoptr i64 %34 to i32*
%36 = load i32, i32* %35, align 4
%37 = trunc i32 %6 to i8
%38 = zext i32 %sv_0.07.reload to i64
%39 = call i64 @FUNC(i8 %37, i32 %36, i64 %storemerge4.reload, i64 %38)
%40 = icmp slt i32 %sv_0.07.reload, 0
store i64 %38, i64* %storemerge.reg2mem
br i1 %40, label LBL_7, label LBL_6
LBL_6:
%41 = call i64 @FUNC(i64 %1, i64 %38)
store i64 0, i64* %storemerge.reg2mem
br label LBL_7
LBL_7:
%storemerge.reload = load i64, i64* %storemerge.reg2mem
ret i64 %storemerge.reload
uselistorder i64 %38, { 1, 0, 2 }
uselistorder i32 %storemerge5, { 1, 0 }
uselistorder i64 %25, { 1, 0, 2 }
uselistorder i64 %14, { 1, 0 }
uselistorder i64 %storemerge6, { 1, 0 }
uselistorder i32 %6, { 1, 0, 2 }
uselistorder i64 %1, { 4, 5, 0, 3, 2, 1, 6, 7 }
uselistorder i32* %sv_0.07.reg2mem, { 0, 4, 3, 2, 1 }
uselistorder i64* %storemerge4.reg2mem, { 0, 4, 3, 2, 1 }
uselistorder i64* %storemerge.reg2mem, { 0, 2, 1 }
uselistorder i64 (i64*)* @qemu_mutex_unlock, { 1, 0 }
uselistorder i64* @gv_0, { 1, 0, 2 }
uselistorder i8 8, { 0, 2, 1 }
uselistorder i8 16, { 1, 0 }
uselistorder i8 %arg3, { 0, 2, 1 }
uselistorder label LBL_7, { 1, 0 }
uselistorder label LBL_5, { 3, 2, 1, 0 }
} | 0 |
BinRealVul | qdev_init_nofail_15855 | qdev_init_nofail | define i64 @FUNC(i32* %arg1) local_unnamed_addr {
LBL_0:
%0 = alloca i64
%1 = load i64, i64* %0
%sv_0 = alloca i64, align 8
store i64 0, i64* %sv_0, align 8
%2 = trunc i64 %1 to i32
%3 = icmp eq i32 %2, 0
br i1 %3, label LBL_2, label LBL_1
LBL_1:
call void @__assert_fail(i8* getelementptr inbounds ([15 x i8], [15 x i8]* @gv_0, i64 0, i64 0), i8* getelementptr inbounds ([50 x i8], [50 x i8]* @gv_1, i64 0, i64 0), i32 33, i8* getelementptr inbounds ([17 x i8], [17 x i8]* @gv_2, i64 0, i64 0))
br label LBL_2
LBL_2:
%4 = ptrtoint i32* %arg1 to i64
%5 = call i64 @FUNC(i64 %4, i64 1, i8* getelementptr inbounds ([9 x i8], [9 x i8]* @gv_3, i64 0, i64 0), i64* nonnull %sv_0)
%6 = load i64, i64* %sv_0, align 8
%7 = icmp eq i64 %6, 0
br i1 %7, label LBL_4, label LBL_3
LBL_3:
%8 = call i64 @FUNC(i64 %4)
%9 = load i64, i64* %sv_0, align 8
%10 = call i64 @FUNC(i64 %9, i8* getelementptr inbounds ([37 x i8], [37 x i8]* @gv_4, i64 0, i64 0), i64 %8)
call void @exit(i32 1)
unreachable
LBL_4:
ret i64 0
uselistorder i64* %sv_0, { 1, 2, 0, 3 }
} | 1 |
BinRealVul | dec_sexth_2639 | dec_sexth | define i64 @FUNC(i64* %arg1) local_unnamed_addr {
LBL_0:
%0 = alloca i64
%storemerge.reg2mem = alloca i64
%1 = load i64, i64* %0
%2 = ptrtoint i64* %arg1 to i64
%3 = and i64 %1, 4294967295
%4 = add i64 %2, 4
%5 = inttoptr i64 %4 to i32*
%6 = load i32, i32* %5, align 4
%7 = zext i32 %6 to i64
%8 = call i32 (i8*, ...) @printf(i8* getelementptr inbounds ([16 x i8], [16 x i8]* @gv_0, i64 0, i64 0), i64 %7, i64 %3)
%9 = add i64 %2, 8
%10 = inttoptr i64 %9 to i64*
%11 = load i64, i64* %10, align 8
%12 = inttoptr i64 %11 to i32*
%13 = load i32, i32* %12, align 4
%14 = urem i32 %13, 2
%15 = icmp eq i32 %14, 0
%16 = icmp eq i1 %15, false
br i1 %16, label LBL_2, label LBL_1
LBL_1:
%17 = call i64 @FUNC(i64 2, i8* getelementptr inbounds ([41 x i8], [41 x i8]* @gv_1, i64 0, i64 0))
store i64 %17, i64* %storemerge.reg2mem
br label LBL_3
LBL_2:
%sext = mul i64 %1, 4294967296
%18 = ashr exact i64 %sext, 30
%19 = add i64 %18, ptrtoint (i32** @gv_2 to i64)
%20 = inttoptr i64 %19 to i32*
%21 = load i32, i32* %20, align 4
%22 = load i32, i32* %5, align 4
%23 = sext i32 %22 to i64
%24 = mul i64 %23, 4
%25 = add i64 %24, ptrtoint (i32** @gv_2 to i64)
%26 = inttoptr i64 %25 to i32*
%27 = load i32, i32* %26, align 4
%28 = zext i32 %21 to i64
%29 = zext i32 %27 to i64
%30 = call i64 @FUNC(i64 %29, i64 %28)
store i64 %30, i64* %storemerge.reg2mem
br label LBL_3
LBL_3:
%storemerge.reload = load i64, i64* %storemerge.reg2mem
ret i64 %storemerge.reload
uselistorder i64 %1, { 1, 0 }
uselistorder i64* %storemerge.reg2mem, { 0, 2, 1 }
} | 0 |
BinRealVul | spapr_populate_pa_features_14269 | spapr_populate_pa_features | define i64 @FUNC(i32* %arg1, i64 %arg2, i32 %arg3) local_unnamed_addr {
LBL_0:
%0 = alloca i64
%rax.0.reg2mem = alloca i64
%sv_0.0.reg2mem = alloca i64
%sv_1.0.in.reg2mem = alloca i64*
%1 = load i64, i64* %0
%sv_2 = alloca i64, align 8
%sv_3 = alloca i64, align 8
%sv_4 = alloca i64, align 8
store i64 -4575656366173716474, i64* %sv_4, align 8
store i64 -1116680746120642536, i64* %sv_3, align 8
store i64 -1116680746120642494, i64* %sv_2, align 8
%2 = trunc i64 %1 to i32
%3 = icmp eq i32 %2, 300
store i64* %sv_2, i64** %sv_1.0.in.reg2mem
store i64 68, i64* %sv_0.0.reg2mem
br i1 %3, label LBL_4, label LBL_1
LBL_1:
%4 = and i64 %1, 4294967295
%5 = icmp sgt i32 %2, 300
store i64 %4, i64* %rax.0.reg2mem
br i1 %5, label LBL_9, label LBL_2
LBL_2:
store i64* %sv_4, i64** %sv_1.0.in.reg2mem
store i64 8, i64* %sv_0.0.reg2mem
store i64 %4, i64* %rax.0.reg2mem
switch i32 %2, label LBL_9 [
i32 206, label LBL_4
i32 207, label LBL_3
]
LBL_3:
store i64* %sv_3, i64** %sv_1.0.in.reg2mem
store i64 26, i64* %sv_0.0.reg2mem
br label LBL_4
LBL_4:
%sv_0.0.reload = load i64, i64* %sv_0.0.reg2mem
%sv_1.0.in.reload = load i64*, i64** %sv_1.0.in.reg2mem
%sv_1.0 = ptrtoint i64* %sv_1.0.in.reload to i64
%6 = ptrtoint i32* %arg1 to i64
%7 = add i64 %6, 4
%8 = inttoptr i64 %7 to i32*
%9 = load i32, i32* %8, align 4
%10 = icmp eq i32 %9, 0
br i1 %10, label LBL_6, label LBL_5
LBL_5:
%11 = or i64 %sv_1.0, 3
%12 = inttoptr i64 %11 to i8*
%13 = load i8, i8* %12, align 1
%14 = or i8 %13, 32
store i8 %14, i8* %12, align 1
br label LBL_6
LBL_6:
%15 = call i64 @FUNC()
%16 = trunc i64 %15 to i32
%17 = icmp eq i32 %16, 0
%18 = icmp ult i64 %sv_0.0.reload, 25
%or.cond = or i1 %18, %17
br i1 %or.cond, label LBL_8, label LBL_7
LBL_7:
%19 = add i64 %sv_1.0, 24
%20 = inttoptr i64 %19 to i8*
%21 = load i8, i8* %20, align 8
%22 = or i8 %21, -128
store i8 %22, i8* %20, align 8
br label LBL_8
LBL_8:
%23 = call i64 @FUNC(i64 %arg2, i32 %arg3, i8* getelementptr inbounds ([16 x i8], [16 x i8]* @gv_0, i64 0, i64 0), i64 %sv_1.0, i64 %sv_0.0.reload)
store i64 %23, i64* %rax.0.reg2mem
br label LBL_9
LBL_9:
%rax.0.reload = load i64, i64* %rax.0.reg2mem
ret i64 %rax.0.reload
uselistorder i64 %sv_1.0, { 1, 2, 0 }
uselistorder i64 %sv_0.0.reload, { 1, 0 }
uselistorder i32 %2, { 2, 1, 0 }
uselistorder i64 %1, { 1, 0 }
uselistorder i64** %sv_1.0.in.reg2mem, { 0, 3, 2, 1 }
uselistorder i64* %sv_0.0.reg2mem, { 0, 3, 2, 1 }
uselistorder i64* %rax.0.reg2mem, { 0, 3, 1, 2 }
uselistorder i32 300, { 1, 0 }
uselistorder label LBL_9, { 2, 0, 1 }
uselistorder label LBL_4, { 2, 1, 0 }
} | 1 |
BinRealVul | pt_save_timer_13236 | pt_save_timer | define i64 @FUNC(i64* %arg1) local_unnamed_addr {
LBL_0:
%0 = alloca i64
%rax.0.reg2mem = alloca i64
%storemerge.in4.reg2mem = alloca i64
%1 = load i64, i64* %0
%2 = trunc i64 %1 to i32
%3 = urem i32 %2, 2
%4 = zext i32 %3 to i64
%5 = icmp eq i32 %3, 0
%6 = icmp eq i1 %5, false
store i64 %4, i64* %rax.0.reg2mem
br i1 %6, label LBL_6, label LBL_1
LBL_1:
%7 = ptrtoint i64* %arg1 to i64
%8 = add i64 %7, 8
%9 = add i64 %7, 24
%10 = call i64 @FUNC(i64 %9)
%storemerge.in.in2 = inttoptr i64 %8 to i64*
%storemerge.in3 = load i64, i64* %storemerge.in.in2, align 8
%11 = icmp eq i64 %8, %storemerge.in3
%12 = icmp eq i1 %11, false
store i64 %storemerge.in3, i64* %storemerge.in4.reg2mem
br i1 %12, label LBL_2, label LBL_5
LBL_2:
%storemerge.in4.reload = load i64, i64* %storemerge.in4.reg2mem
%storemerge = inttoptr i64 %storemerge.in4.reload to i32*
%13 = load i32, i32* %storemerge, align 4
%14 = icmp eq i32 %13, 0
%15 = icmp eq i1 %14, false
br i1 %15, label LBL_4, label LBL_3
LBL_3:
%16 = add i64 %storemerge.in4.reload, 4
%17 = call i64 @FUNC(i64 %16)
br label LBL_4
LBL_4:
%18 = add i64 %storemerge.in4.reload, 8
%storemerge.in.in = inttoptr i64 %18 to i64*
%storemerge.in = load i64, i64* %storemerge.in.in, align 8
%19 = icmp eq i64 %8, %storemerge.in
%20 = icmp eq i1 %19, false
store i64 %storemerge.in, i64* %storemerge.in4.reg2mem
br i1 %20, label LBL_2, label LBL_5
LBL_5:
%21 = call i64 @FUNC(i64 %7)
%22 = call i64 @FUNC(i64 %9)
store i64 %22, i64* %rax.0.reg2mem
br label LBL_6
LBL_6:
%rax.0.reload = load i64, i64* %rax.0.reg2mem
ret i64 %rax.0.reload
uselistorder i64 %8, { 2, 0, 1 }
uselistorder i32 %3, { 1, 0 }
uselistorder i64* %storemerge.in4.reg2mem, { 2, 0, 1 }
uselistorder i1 false, { 2, 1, 0, 3 }
uselistorder label LBL_6, { 1, 0 }
uselistorder label LBL_2, { 1, 0 }
} | 1 |
BinRealVul | con_install_13360 | con_install | define i64 @FUNC(i64* %arg1, i64* %arg2) local_unnamed_addr {
LBL_0:
%0 = alloca i64
%sv_0.0.reg2mem = alloca i64
%1 = load i64, i64* %0
%2 = call i64 @FUNC()
%3 = and i64 %1, 4294967295
%4 = call i64 @FUNC(i64 %3)
%5 = trunc i64 %4 to i32
%6 = icmp eq i32 %5, 0
%7 = icmp eq i1 %6, false
store i64 %4, i64* %sv_0.0.reg2mem
br i1 %7, label LBL_9, label LBL_1
LBL_1:
%8 = mul i64 %3, 8
%9 = add i64 %8, ptrtoint (i64* @gv_0 to i64)
%10 = inttoptr i64 %9 to i64*
%11 = load i64, i64* %10, align 8
%12 = inttoptr i64 %11 to i64*
%13 = load i64, i64* %12, align 8
%14 = icmp eq i64 %13, 0
store i64 4294966784, i64* %sv_0.0.reg2mem
br i1 %14, label LBL_2, label LBL_9
LBL_2:
%15 = ptrtoint i64* %arg2 to i64
%16 = ptrtoint i64* %arg1 to i64
%17 = call i64 @FUNC(i64 %11, i64 %16, i64 %15)
%18 = trunc i64 %17 to i32
%19 = icmp eq i32 %18, 0
%20 = icmp eq i1 %19, false
store i64 %17, i64* %sv_0.0.reg2mem
br i1 %20, label LBL_9, label LBL_3
LBL_3:
%21 = add i64 %15, 16
%22 = inttoptr i64 %21 to i64*
store i64 %11, i64* %22, align 8
store i64 %15, i64* %12, align 8
%23 = add i64 %15, 4
%24 = inttoptr i64 %23 to i32*
%25 = load i32, i32* %24, align 4
%26 = icmp eq i32 %25, 0
%27 = icmp eq i1 %26, false
br i1 %27, label LBL_6, label LBL_4
LBL_4:
%28 = add i64 %15, 8
%29 = inttoptr i64 %28 to i32*
%30 = load i32, i32* %29, align 4
%31 = icmp eq i32 %30, 0
%32 = icmp eq i1 %31, false
br i1 %32, label LBL_6, label LBL_5
LBL_5:
%33 = load i64, i64* %10, align 8
%34 = add i64 %33, 8
%35 = inttoptr i64 %34 to i32*
%36 = load i32, i32* %35, align 4
store i32 %36, i32* %24, align 4
%37 = load i64, i64* %10, align 8
%38 = add i64 %37, 12
%39 = inttoptr i64 %38 to i32*
%40 = load i32, i32* %39, align 4
store i32 %40, i32* %29, align 4
br label LBL_6
LBL_6:
%41 = add i64 %11, 16
%42 = inttoptr i64 %41 to i32*
%43 = load i32, i32* %42, align 4
%44 = icmp eq i32 %43, 0
%45 = add i64 %15, 12
%46 = inttoptr i64 %45 to i32*
%47 = load i32, i32* %46, align 4
br i1 %44, label LBL_8, label LBL_7
LBL_7:
%48 = or i32 %47, 2048
store i32 %48, i32* %46, align 4
store i64 %17, i64* %sv_0.0.reg2mem
br label LBL_9
LBL_8:
%49 = and i32 %47, -2049
store i32 %49, i32* %46, align 4
store i64 %17, i64* %sv_0.0.reg2mem
br label LBL_9
LBL_9:
%sv_0.0.reload = load i64, i64* %sv_0.0.reg2mem
%50 = call i64 @FUNC()
%51 = and i64 %sv_0.0.reload, 4294967295
ret i64 %51
uselistorder i32 %47, { 1, 0 }
uselistorder i32* %46, { 1, 0, 2 }
uselistorder i64 %17, { 1, 0, 2, 3 }
uselistorder i64 %15, { 0, 2, 1, 3, 4, 5 }
uselistorder i64* %sv_0.0.reg2mem, { 0, 3, 2, 4, 1, 5 }
uselistorder i64 8, { 1, 2, 0 }
uselistorder label LBL_9, { 3, 4, 1, 0, 2 }
} | 1 |
BinRealVul | gen_mulldo_568 | gen_mulldo | define i64 @FUNC(i32* %arg1) local_unnamed_addr {
LBL_0:
%0 = alloca i64
%rax.0.reg2mem = alloca i64
%1 = load i64, i64* %0
%2 = call i64 @FUNC()
%3 = call i64 @FUNC()
%4 = udiv i64 %1, 4
%5 = and i64 %4, 248
%6 = add i64 %5, ptrtoint (i64* @gv_0 to i64)
%7 = inttoptr i64 %6 to i64*
%8 = load i64, i64* %7, align 8
%9 = mul i64 %1, 8
%10 = and i64 %9, 248
%11 = add i64 %10, ptrtoint (i64* @gv_0 to i64)
%12 = inttoptr i64 %11 to i64*
%13 = load i64, i64* %12, align 8
%14 = call i64 @FUNC(i64 %2, i64 %3, i64 %13, i64 %8)
%15 = udiv i64 %1, 128
%16 = and i64 %15, 248
%17 = add i64 %16, ptrtoint (i64* @gv_0 to i64)
%18 = inttoptr i64 %17 to i64*
%19 = load i64, i64* %18, align 8
%20 = call i64 @FUNC(i64 %19, i64 %2)
%21 = call i64 @FUNC(i64 %2, i64 %2, i64 63)
%22 = load i64, i64* @gv_1, align 8
%23 = call i64 @FUNC(i64 1, i64 %22, i64 %2, i64 %3)
%24 = ptrtoint i32* %arg1 to i64
%25 = call i64 @FUNC(i64 %24)
%26 = trunc i64 %25 to i32
%27 = icmp eq i32 %26, 0
br i1 %27, label LBL_2, label LBL_1
LBL_1:
%28 = load i64, i64* @gv_1, align 8
%29 = load i64, i64* @gv_2, align 8
%30 = call i64 @FUNC(i64 %29, i64 %28)
br label LBL_2
LBL_2:
%31 = load i64, i64* @gv_1, align 8
%32 = load i64, i64* @gv_3, align 8
%33 = call i64 @FUNC(i64 %32, i64 %32, i64 %31)
%34 = call i64 @FUNC(i64 %2)
%35 = call i64 @FUNC(i64 %3)
%36 = trunc i64 %1 to i16
%37 = icmp sgt i16 %36, -1
%38 = icmp eq i1 %37, false
%39 = icmp eq i1 %38, false
store i64 0, i64* %rax.0.reg2mem
br i1 %39, label LBL_4, label LBL_3
LBL_3:
%40 = load i64, i64* %18, align 8
%41 = call i64 @FUNC(i64 %24, i64 %40)
store i64 %41, i64* %rax.0.reg2mem
br label LBL_4
LBL_4:
%rax.0.reload = load i64, i64* %rax.0.reg2mem
ret i64 %rax.0.reload
uselistorder i64 %32, { 1, 0 }
uselistorder i64 %2, { 0, 1, 3, 2, 4, 5 }
uselistorder i64 %1, { 0, 2, 3, 1 }
uselistorder i64 (i64)* @tcg_temp_free_i64, { 1, 0 }
uselistorder i64 ()* @tcg_temp_new_i64, { 1, 0 }
} | 0 |
BinRealVul | ftp_getresp_8788 | ftp_getresp | define i64 @FUNC(i64* %arg1, i64 %arg2, i64 %arg3, i64 %arg4) local_unnamed_addr {
LBL_0:
%rax.0.reg2mem = alloca i64
%rdi = alloca i64, align 8
%0 = icmp eq i64* %arg1, null
%1 = icmp eq i1 %0, false
store i64 0, i64* %rax.0.reg2mem
br i1 %1, label LBL_1, label LBL_13
LBL_1:
%2 = ptrtoint i64* %arg1 to i64
%3 = add i64 %2, 1024
%4 = inttoptr i64 %3 to i32*
store i32 0, i32* %4, align 4
%5 = call i64 @FUNC(i64 %2)
%6 = trunc i64 %5 to i32
%7 = icmp eq i32 %6, 0
%8 = icmp eq i1 %7, false
store i64 0, i64* %rax.0.reg2mem
br i1 %8, label LBL_2, label LBL_13
LBL_2:
%9 = bitcast i64* %rdi to i8*
%10 = add i64 %2, 1
%11 = inttoptr i64 %10 to i8*
%12 = add i64 %2, 2
%13 = inttoptr i64 %12 to i8*
%14 = add i64 %2, 3
%15 = inttoptr i64 %14 to i8*
%.pre = load i8, i8* %9, align 8
%16 = sext i8 %.pre to i64
%17 = mul i64 %16, 2
br label LBL_3
LBL_3:
%18 = call i16** @__ctype_b_loc()
%19 = load i16*, i16** %18, align 8
%20 = ptrtoint i16* %19 to i64
%21 = add i64 %17, %20
%22 = inttoptr i64 %21 to i16*
%23 = load i16, i16* %22, align 2
%24 = and i16 %23, 2048
%25 = icmp eq i16 %24, 0
br i1 %25, label LBL_4, label LBL_5
LBL_4:
%26 = call i64 @FUNC(i64 %2)
%27 = trunc i64 %26 to i32
%28 = icmp eq i32 %27, 0
%29 = icmp eq i1 %28, false
store i64 0, i64* %rax.0.reg2mem
br i1 %29, label LBL_3, label LBL_13
LBL_5:
%30 = call i16** @__ctype_b_loc()
%31 = load i16*, i16** %30, align 8
%32 = ptrtoint i16* %31 to i64
%33 = load i8, i8* %11, align 1
%34 = sext i8 %33 to i64
%35 = mul i64 %34, 2
%36 = add i64 %35, %32
%37 = inttoptr i64 %36 to i16*
%38 = load i16, i16* %37, align 2
%39 = and i16 %38, 2048
%40 = icmp eq i16 %39, 0
br i1 %40, label LBL_4, label LBL_6
LBL_6:
%41 = call i16** @__ctype_b_loc()
%42 = load i16*, i16** %41, align 8
%43 = ptrtoint i16* %42 to i64
%44 = load i8, i8* %13, align 1
%45 = sext i8 %44 to i64
%46 = mul i64 %45, 2
%47 = add i64 %46, %43
%48 = inttoptr i64 %47 to i16*
%49 = load i16, i16* %48, align 2
%50 = and i16 %49, 2048
%51 = icmp eq i16 %50, 0
br i1 %51, label LBL_4, label LBL_7
LBL_7:
%52 = load i8, i8* %15, align 1
%53 = icmp eq i8 %52, 32
br i1 %53, label LBL_8, label LBL_4
LBL_8:
%54 = call i16** @__ctype_b_loc()
%55 = load i16*, i16** %54, align 8
%56 = ptrtoint i16* %55 to i64
%57 = add i64 %17, %56
%58 = inttoptr i64 %57 to i16*
%59 = load i16, i16* %58, align 2
%60 = and i16 %59, 2048
%61 = icmp eq i16 %60, 0
store i64 0, i64* %rax.0.reg2mem
br i1 %61, label LBL_13, label LBL_9
LBL_9:
%62 = call i16** @__ctype_b_loc()
%63 = load i16*, i16** %62, align 8
%64 = ptrtoint i16* %63 to i64
%65 = load i8, i8* %11, align 1
%66 = sext i8 %65 to i64
%67 = mul i64 %66, 2
%68 = add i64 %67, %64
%69 = inttoptr i64 %68 to i16*
%70 = load i16, i16* %69, align 2
%71 = and i16 %70, 2048
%72 = icmp eq i16 %71, 0
store i64 0, i64* %rax.0.reg2mem
br i1 %72, label LBL_13, label LBL_10
LBL_10:
%73 = call i16** @__ctype_b_loc()
%74 = load i16*, i16** %73, align 8
%75 = ptrtoint i16* %74 to i64
%76 = load i8, i8* %13, align 1
%77 = sext i8 %76 to i64
%78 = mul i64 %77, 2
%79 = add i64 %78, %75
%80 = inttoptr i64 %79 to i16*
%81 = load i16, i16* %80, align 2
%82 = and i16 %81, 2048
%83 = icmp eq i16 %82, 0
%84 = icmp eq i1 %83, false
store i64 0, i64* %rax.0.reg2mem
br i1 %84, label LBL_11, label LBL_13
LBL_11:
%85 = sext i8 %.pre to i32
%86 = mul nsw i32 %85, 100
%87 = load i8, i8* %11, align 1
%88 = sext i8 %87 to i32
%89 = mul nsw i32 %88, 10
%90 = sext i8 %76 to i32
%91 = add nsw i32 %86, -5328
%92 = add nsw i32 %91, %90
%93 = add nsw i32 %92, %89
store i32 %93, i32* %4, align 4
%94 = add i64 %2, 4
%95 = inttoptr i64 %94 to i64*
%96 = call i64* @memmove(i64* %arg1, i64* %95, i32 1020)
%97 = add i64 %2, 1028
%98 = inttoptr i64 %97 to i32*
%99 = load i32, i32* %98, align 4
%100 = icmp eq i32 %99, 0
store i64 1, i64* %rax.0.reg2mem
br i1 %100, label LBL_13, label LBL_12
LBL_12:
%101 = add i32 %99, -4
store i32 %101, i32* %98, align 4
store i64 1, i64* %rax.0.reg2mem
br label LBL_13
LBL_13:
%rax.0.reload = load i64, i64* %rax.0.reg2mem
ret i64 %rax.0.reload
uselistorder i64 %17, { 1, 0 }
uselistorder i8* %11, { 1, 0, 2 }
uselistorder i64 %2, { 2, 1, 6, 4, 3, 5, 0, 7 }
uselistorder i64* %rax.0.reg2mem, { 0, 4, 3, 7, 6, 5, 1, 2, 8 }
uselistorder i16** ()* @__ctype_b_loc, { 5, 2, 3, 4, 0, 1 }
uselistorder i64 1, { 1, 0, 3, 2 }
uselistorder i64 (i64)* @ftp_readline, { 1, 0 }
uselistorder i1 false, { 1, 2, 0, 3 }
uselistorder i64* %arg1, { 0, 2, 1 }
uselistorder label LBL_13, { 3, 2, 6, 5, 4, 0, 1, 7 }
uselistorder label LBL_4, { 3, 2, 1, 0 }
uselistorder label LBL_3, { 1, 0 }
} | 0 |
BinRealVul | php_network_get_sock_name_18833 | php_network_get_sock_name | define i64 @FUNC(i64 %arg1, i64* %arg2, i64* %arg3, i64* %arg4, i64* %arg5) local_unnamed_addr {
LBL_0:
%storemerge.reg2mem = alloca i64
%sv_0 = alloca i64, align 8
%sv_1 = alloca i32, align 4
%0 = trunc i64 %arg1 to i32
store i32 128, i32* %sv_1, align 4
%1 = bitcast i64* %sv_0 to %sockaddr*
%2 = call i32 @getsockname(i32 %0, %sockaddr* nonnull %1, i32* nonnull %sv_1)
%3 = icmp eq i32 %2, 0
%4 = icmp eq i1 %3, false
store i64 4294967295, i64* %storemerge.reg2mem
br i1 %4, label LBL_2, label LBL_1
LBL_1:
%5 = ptrtoint i64* %arg2 to i64
%6 = ptrtoint i64* %arg3 to i64
%7 = ptrtoint i64* %arg4 to i64
%8 = ptrtoint i64* %arg5 to i64
%9 = load i32, i32* %sv_1, align 4
%10 = call i64 @FUNC(i64* nonnull %sv_0, i32 %9, i64 %5, i64 %6, i64 %7, i64 %8)
store i64 0, i64* %storemerge.reg2mem
br label LBL_2
LBL_2:
%storemerge.reload = load i64, i64* %storemerge.reg2mem
ret i64 %storemerge.reload
uselistorder i32* %sv_1, { 1, 0, 2 }
uselistorder i64* %storemerge.reg2mem, { 0, 2, 1 }
uselistorder label LBL_2, { 1, 0 }
} | 1 |
BinRealVul | ati_remote2_complete_key_8130 | ati_remote2_complete_key | define i64 @FUNC(i32* %arg1) local_unnamed_addr {
LBL_0:
%0 = alloca i64
%rax.0.reg2mem = alloca i64
%1 = load i64, i64* %0
%2 = load i64, i64* %0
%3 = load i64, i64* %0
%4 = ptrtoint i32* %arg1 to i64
%5 = add i64 %4, 8
%6 = inttoptr i64 %5 to i64*
%7 = load i64, i64* %6, align 8
%8 = trunc i64 %3 to i32
%9 = icmp slt i32 %8, 0
%10 = icmp eq i1 %9, false
br i1 %10, label LBL_2, label LBL_1
LBL_1:
%11 = icmp sgt i32 %8, -5
br i1 %11, label LBL_4, label LBL_5
LBL_2:
%12 = icmp eq i32 %8, 0
%13 = icmp eq i1 %12, false
br i1 %13, label LBL_5, label LBL_3
LBL_3:
%14 = inttoptr i64 %7 to i64*
%15 = load i64, i64* %14, align 8
%16 = call i64 @FUNC(i64 %15)
%17 = call i64 @FUNC(i64 %7)
br label LBL_6
LBL_4:
%18 = add i64 %7, 16
%19 = inttoptr i64 %18 to i64*
%20 = load i64, i64* %19, align 8
%21 = and i64 %3, 4294967295
%22 = call i64 @FUNC(i64 %20, i8* getelementptr inbounds ([23 x i8], [23 x i8]* @gv_0, i64 0, i64 0), i8* getelementptr inbounds ([25 x i8], [25 x i8]* @gv_1, i64 0, i64 0), i64 %21, i64 %2, i64 %1)
store i64 %22, i64* %rax.0.reg2mem
br label LBL_8
LBL_5:
%23 = inttoptr i64 %7 to i64*
%24 = load i64, i64* %23, align 8
%25 = call i64 @FUNC(i64 %24)
%26 = add i64 %7, 16
%27 = inttoptr i64 %26 to i64*
%28 = load i64, i64* %27, align 8
%29 = and i64 %3, 4294967295
%30 = call i64 @FUNC(i64 %28, i8* getelementptr inbounds ([23 x i8], [23 x i8]* @gv_0, i64 0, i64 0), i8* getelementptr inbounds ([25 x i8], [25 x i8]* @gv_1, i64 0, i64 0), i64 %29, i64 %2, i64 %1)
br label LBL_6
LBL_6:
%31 = call i64 @FUNC(i64 %4, i64 0)
%32 = trunc i64 %31 to i32
%33 = icmp eq i32 %32, 0
store i64 %31, i64* %rax.0.reg2mem
br i1 %33, label LBL_8, label LBL_7
LBL_7:
%34 = add i64 %7, 16
%35 = inttoptr i64 %34 to i64*
%36 = load i64, i64* %35, align 8
%37 = and i64 %31, 4294967295
%38 = call i64 @FUNC(i64 %36, i8* getelementptr inbounds ([29 x i8], [29 x i8]* @gv_2, i64 0, i64 0), i8* getelementptr inbounds ([25 x i8], [25 x i8]* @gv_1, i64 0, i64 0), i64 %37, i64 %2, i64 %1)
store i64 %38, i64* %rax.0.reg2mem
br label LBL_8
LBL_8:
%rax.0.reload = load i64, i64* %rax.0.reg2mem
ret i64 %rax.0.reload
uselistorder i64 %31, { 1, 0, 2 }
uselistorder i32 %8, { 2, 1, 0 }
uselistorder i64 %7, { 3, 5, 4, 0, 2, 1 }
uselistorder i64 %3, { 1, 2, 0 }
uselistorder i64 %2, { 1, 0, 2 }
uselistorder i64 %1, { 1, 0, 2 }
uselistorder i64* %rax.0.reg2mem, { 0, 2, 3, 1 }
uselistorder i64* %0, { 2, 1, 0 }
uselistorder i64 (i64, i8*, i8*, i64, i64, i64)* @dev_err, { 1, 0 }
uselistorder i8* getelementptr inbounds ([25 x i8], [25 x i8]* @gv_1, i64 0, i64 0), { 1, 2, 0 }
uselistorder i8* getelementptr inbounds ([23 x i8], [23 x i8]* @gv_0, i64 0, i64 0), { 1, 0 }
uselistorder i64 4294967295, { 2, 1, 0 }
uselistorder i64 (i64)* @usb_mark_last_busy, { 1, 0 }
uselistorder label LBL_5, { 1, 0 }
} | 0 |
BinRealVul | md5_transform_7782 | md5_transform | define i64 @FUNC(i32* %arg1, i64* %arg2) local_unnamed_addr {
LBL_0:
%0 = alloca i64
%1 = load i64, i64* %0
%2 = load i64, i64* %0
%3 = ptrtoint i64* %arg2 to i64
%4 = ptrtoint i32* %arg1 to i64
%5 = trunc i64 %1 to i32
%6 = add i64 %4, 4
%7 = inttoptr i64 %6 to i32*
%8 = load i32, i32* %7, align 4
%9 = add i64 %4, 8
%10 = inttoptr i64 %9 to i32*
%11 = load i32, i32* %10, align 4
%12 = add i64 %4, 12
%13 = inttoptr i64 %12 to i32*
%14 = load i32, i32* %13, align 4
%15 = and i32 %11, %8
%16 = sub i32 0, %8
%17 = sub i32 %16, 1
%18 = and i32 %14, %17
%19 = or i32 %18, %15
%20 = trunc i64 %2 to i32
%21 = add i32 %5, -680876936
%22 = add i32 %21, %20
%23 = add i32 %22, %19
%24 = mul i32 %23, 128
%25 = udiv i32 %23, 33554432
%26 = or i32 %25, %24
%27 = add i32 %26, %8
%28 = and i32 %27, %8
%29 = sub i32 0, %27
%30 = sub i32 %29, 1
%31 = and i32 %11, %30
%32 = or i32 %28, %31
%33 = add i64 %3, 4
%34 = inttoptr i64 %33 to i32*
%35 = load i32, i32* %34, align 4
%36 = add i32 %14, -389564586
%37 = add i32 %36, %35
%38 = add i32 %37, %32
%39 = mul i32 %38, 4096
%40 = udiv i32 %38, 1048576
%41 = or i32 %40, %39
%42 = add i32 %41, %27
%43 = and i32 %42, %27
%44 = sub i32 0, %42
%45 = sub i32 %44, 1
%46 = and i32 %8, %45
%47 = or i32 %43, %46
%48 = add i64 %3, 8
%49 = inttoptr i64 %48 to i32*
%50 = load i32, i32* %49, align 4
%51 = add i32 %11, 606105819
%52 = add i32 %51, %50
%53 = add i32 %52, %47
%54 = udiv i32 %53, 32768
%55 = mul i32 %53, 131072
%56 = or i32 %54, %55
%57 = add i32 %56, %42
%58 = and i32 %57, %42
%59 = sub i32 0, %57
%60 = sub i32 %59, 1
%61 = and i32 %27, %60
%62 = or i32 %58, %61
%63 = add i64 %3, 12
%64 = inttoptr i64 %63 to i32*
%65 = load i32, i32* %64, align 4
%66 = add i32 %8, -1044525330
%67 = add i32 %66, %65
%68 = add i32 %67, %62
%69 = udiv i32 %68, 1024
%70 = mul i32 %68, 4194304
%71 = or i32 %69, %70
%72 = add i32 %71, %57
%73 = and i32 %72, %57
%74 = sub i32 0, %72
%75 = sub i32 %74, 1
%76 = and i32 %42, %75
%77 = or i32 %73, %76
%78 = add i64 %3, 16
%79 = inttoptr i64 %78 to i32*
%80 = load i32, i32* %79, align 4
%81 = add i32 %80, -176418897
%82 = add i32 %81, %27
%83 = add i32 %82, %77
%84 = mul i32 %83, 128
%85 = udiv i32 %83, 33554432
%86 = or i32 %85, %84
%87 = add i32 %86, %72
%88 = and i32 %87, %72
%89 = sub i32 0, %87
%90 = sub i32 %89, 1
%91 = and i32 %57, %90
%92 = or i32 %88, %91
%93 = add i64 %3, 20
%94 = inttoptr i64 %93 to i32*
%95 = load i32, i32* %94, align 4
%96 = add i32 %95, 1200080426
%97 = add i32 %96, %42
%98 = add i32 %97, %92
%99 = mul i32 %98, 4096
%100 = udiv i32 %98, 1048576
%101 = or i32 %100, %99
%102 = add i32 %101, %87
%103 = and i32 %102, %87
%104 = sub i32 0, %102
%105 = sub i32 %104, 1
%106 = and i32 %72, %105
%107 = or i32 %103, %106
%108 = add i64 %3, 24
%109 = inttoptr i64 %108 to i32*
%110 = load i32, i32* %109, align 4
%111 = add i32 %110, -1473231341
%112 = add i32 %111, %57
%113 = add i32 %112, %107
%114 = udiv i32 %113, 32768
%115 = mul i32 %113, 131072
%116 = or i32 %114, %115
%117 = add i32 %116, %102
%118 = and i32 %117, %102
%119 = sub i32 0, %117
%120 = sub i32 %119, 1
%121 = and i32 %87, %120
%122 = or i32 %118, %121
%123 = add i64 %3, 28
%124 = inttoptr i64 %123 to i32*
%125 = load i32, i32* %124, align 4
%126 = add i32 %125, -45705983
%127 = add i32 %126, %72
%128 = add i32 %127, %122
%129 = udiv i32 %128, 1024
%130 = mul i32 %128, 4194304
%131 = or i32 %129, %130
%132 = add i32 %131, %117
%133 = and i32 %132, %117
%134 = sub i32 0, %132
%135 = sub i32 %134, 1
%136 = and i32 %102, %135
%137 = or i32 %133, %136
%138 = add i64 %3, 32
%139 = inttoptr i64 %138 to i32*
%140 = load i32, i32* %139, align 4
%141 = add i32 %140, 1770035416
%142 = add i32 %141, %87
%143 = add i32 %142, %137
%144 = mul i32 %143, 128
%145 = udiv i32 %143, 33554432
%146 = or i32 %145, %144
%147 = add i32 %146, %132
%148 = and i32 %147, %132
%149 = sub i32 0, %147
%150 = sub i32 %149, 1
%151 = and i32 %117, %150
%152 = or i32 %148, %151
%153 = add i64 %3, 36
%154 = inttoptr i64 %153 to i32*
%155 = load i32, i32* %154, align 4
%156 = add i32 %155, -1958414417
%157 = add i32 %156, %102
%158 = add i32 %157, %152
%159 = mul i32 %158, 4096
%160 = udiv i32 %158, 1048576
%161 = or i32 %160, %159
%162 = add i32 %161, %147
%163 = and i32 %162, %147
%164 = sub i32 0, %162
%165 = sub i32 %164, 1
%166 = and i32 %132, %165
%167 = or i32 %163, %166
%168 = add i64 %3, 40
%169 = inttoptr i64 %168 to i32*
%170 = load i32, i32* %169, align 4
%171 = add i32 %170, -42063
%172 = add i32 %171, %117
%173 = add i32 %172, %167
%174 = udiv i32 %173, 32768
%175 = mul i32 %173, 131072
%176 = or i32 %174, %175
%177 = add i32 %176, %162
%178 = and i32 %177, %162
%179 = sub i32 0, %177
%180 = sub i32 %179, 1
%181 = and i32 %147, %180
%182 = or i32 %178, %181
%183 = add i64 %3, 44
%184 = inttoptr i64 %183 to i32*
%185 = load i32, i32* %184, align 4
%186 = add i32 %185, -1990404162
%187 = add i32 %186, %132
%188 = add i32 %187, %182
%189 = udiv i32 %188, 1024
%190 = mul i32 %188, 4194304
%191 = or i32 %189, %190
%192 = add i32 %191, %177
%193 = and i32 %192, %177
%194 = sub i32 0, %192
%195 = sub i32 %194, 1
%196 = and i32 %162, %195
%197 = or i32 %193, %196
%198 = add i64 %3, 48
%199 = inttoptr i64 %198 to i32*
%200 = load i32, i32* %199, align 4
%201 = add i32 %200, 1804603682
%202 = add i32 %201, %147
%203 = add i32 %202, %197
%204 = mul i32 %203, 128
%205 = udiv i32 %203, 33554432
%206 = or i32 %205, %204
%207 = add i32 %206, %192
%208 = and i32 %207, %192
%209 = sub i32 0, %207
%210 = sub i32 %209, 1
%211 = and i32 %177, %210
%212 = or i32 %208, %211
%213 = add i64 %3, 52
%214 = inttoptr i64 %213 to i32*
%215 = load i32, i32* %214, align 4
%216 = add i32 %215, -40341101
%217 = add i32 %216, %162
%218 = add i32 %217, %212
%219 = mul i32 %218, 4096
%220 = udiv i32 %218, 1048576
%221 = or i32 %220, %219
%222 = add i32 %221, %207
%223 = and i32 %222, %207
%224 = sub i32 0, %222
%225 = sub i32 %224, 1
%226 = and i32 %192, %225
%227 = or i32 %223, %226
%228 = add i64 %3, 56
%229 = inttoptr i64 %228 to i32*
%230 = load i32, i32* %229, align 4
%231 = add i32 %230, -1502002290
%232 = add i32 %231, %177
%233 = add i32 %232, %227
%234 = udiv i32 %233, 32768
%235 = mul i32 %233, 131072
%236 = or i32 %234, %235
%237 = add i32 %236, %222
%238 = and i32 %237, %222
%239 = sub i32 0, %237
%240 = sub i32 %239, 1
%241 = and i32 %207, %240
%242 = or i32 %238, %241
%243 = add i64 %3, 60
%244 = inttoptr i64 %243 to i32*
%245 = load i32, i32* %244, align 4
%246 = add i32 %245, 1236535329
%247 = add i32 %246, %192
%248 = add i32 %247, %242
%249 = udiv i32 %248, 1024
%250 = mul i32 %248, 4194304
%251 = or i32 %249, %250
%252 = add i32 %251, %237
%253 = and i32 %252, %222
%254 = and i32 %237, %225
%255 = or i32 %253, %254
%256 = add i32 %35, -165796510
%257 = add i32 %256, %207
%258 = add i32 %257, %255
%259 = mul i32 %258, 32
%260 = udiv i32 %258, 134217728
%261 = or i32 %260, %259
%262 = add i32 %261, %252
%263 = and i32 %262, %237
%264 = and i32 %252, %240
%265 = or i32 %263, %264
%266 = add i32 %110, -1069501632
%267 = add i32 %266, %222
%268 = add i32 %267, %265
%269 = mul i32 %268, 512
%270 = udiv i32 %268, 8388608
%271 = or i32 %270, %269
%272 = add i32 %271, %262
%273 = and i32 %272, %252
%274 = sub i32 0, %252
%275 = sub i32 %274, 1
%276 = and i32 %262, %275
%277 = or i32 %273, %276
%278 = add i32 %185, 643717713
%279 = add i32 %278, %237
%280 = add i32 %279, %277
%281 = mul i32 %280, 16384
%282 = udiv i32 %280, 262144
%283 = or i32 %282, %281
%284 = add i32 %283, %272
%285 = and i32 %284, %262
%286 = sub i32 0, %262
%287 = sub i32 %286, 1
%288 = and i32 %272, %287
%289 = or i32 %285, %288
%290 = add i32 %20, -373897302
%291 = add i32 %290, %252
%292 = add i32 %291, %289
%293 = udiv i32 %292, 4096
%294 = mul i32 %292, 1048576
%295 = or i32 %293, %294
%296 = add i32 %295, %284
%297 = and i32 %296, %272
%298 = sub i32 0, %272
%299 = sub i32 %298, 1
%300 = and i32 %284, %299
%301 = or i32 %297, %300
%302 = add i32 %95, -701558691
%303 = add i32 %302, %262
%304 = add i32 %303, %301
%305 = mul i32 %304, 32
%306 = udiv i32 %304, 134217728
%307 = or i32 %306, %305
%308 = add i32 %307, %296
%309 = and i32 %308, %284
%310 = sub i32 0, %284
%311 = sub i32 %310, 1
%312 = and i32 %296, %311
%313 = or i32 %309, %312
%314 = add i32 %170, 38016083
%315 = add i32 %314, %272
%316 = add i32 %315, %313
%317 = mul i32 %316, 512
%318 = udiv i32 %316, 8388608
%319 = or i32 %318, %317
%320 = add i32 %319, %308
%321 = and i32 %320, %296
%322 = sub i32 0, %296
%323 = sub i32 %322, 1
%324 = and i32 %308, %323
%325 = or i32 %321, %324
%326 = add i32 %245, -660478335
%327 = add i32 %326, %284
%328 = add i32 %327, %325
%329 = mul i32 %328, 16384
%330 = udiv i32 %328, 262144
%331 = or i32 %330, %329
%332 = add i32 %331, %320
%333 = and i32 %332, %308
%334 = sub i32 0, %308
%335 = sub i32 %334, 1
%336 = and i32 %320, %335
%337 = or i32 %333, %336
%338 = add i32 %80, -405537848
%339 = add i32 %338, %296
%340 = add i32 %339, %337
%341 = udiv i32 %340, 4096
%342 = mul i32 %340, 1048576
%343 = or i32 %341, %342
%344 = add i32 %343, %332
%345 = and i32 %344, %320
%346 = sub i32 0, %320
%347 = sub i32 %346, 1
%348 = and i32 %332, %347
%349 = or i32 %345, %348
%350 = add i32 %155, 568446438
%351 = add i32 %350, %308
%352 = add i32 %351, %349
%353 = mul i32 %352, 32
%354 = udiv i32 %352, 134217728
%355 = or i32 %354, %353
%356 = add i32 %355, %344
%357 = and i32 %356, %332
%358 = sub i32 0, %332
%359 = sub i32 %358, 1
%360 = and i32 %344, %359
%361 = or i32 %357, %360
%362 = add i32 %230, -1019803690
%363 = add i32 %362, %320
%364 = add i32 %363, %361
%365 = mul i32 %364, 512
%366 = udiv i32 %364, 8388608
%367 = or i32 %366, %365
%368 = add i32 %367, %356
%369 = and i32 %368, %344
%370 = sub i32 0, %344
%371 = sub i32 %370, 1
%372 = and i32 %356, %371
%373 = or i32 %369, %372
%374 = add i32 %65, -187363961
%375 = add i32 %374, %332
%376 = add i32 %375, %373
%377 = mul i32 %376, 16384
%378 = udiv i32 %376, 262144
%379 = or i32 %378, %377
%380 = add i32 %379, %368
%381 = and i32 %380, %356
%382 = sub i32 0, %356
%383 = sub i32 %382, 1
%384 = and i32 %368, %383
%385 = or i32 %381, %384
%386 = add i32 %140, 1163531501
%387 = add i32 %386, %344
%388 = add i32 %387, %385
%389 = udiv i32 %388, 4096
%390 = mul i32 %388, 1048576
%391 = or i32 %389, %390
%392 = add i32 %391, %380
%393 = and i32 %392, %368
%394 = sub i32 0, %368
%395 = sub i32 %394, 1
%396 = and i32 %380, %395
%397 = or i32 %393, %396
%398 = add i32 %215, -1444681467
%399 = add i32 %398, %356
%400 = add i32 %399, %397
%401 = mul i32 %400, 32
%402 = udiv i32 %400, 134217728
%403 = or i32 %402, %401
%404 = add i32 %403, %392
%405 = and i32 %404, %380
%406 = sub i32 0, %380
%407 = sub i32 %406, 1
%408 = and i32 %392, %407
%409 = or i32 %405, %408
%410 = add i32 %50, -51403784
%411 = add i32 %410, %368
%412 = add i32 %411, %409
%413 = mul i32 %412, 512
%414 = udiv i32 %412, 8388608
%415 = or i32 %414, %413
%416 = add i32 %415, %404
%417 = and i32 %416, %392
%418 = sub i32 0, %392
%419 = sub i32 %418, 1
%420 = and i32 %404, %419
%421 = or i32 %417, %420
%422 = add i32 %125, 1735328473
%423 = add i32 %422, %380
%424 = add i32 %423, %421
%425 = mul i32 %424, 16384
%426 = udiv i32 %424, 262144
%427 = or i32 %426, %425
%428 = add i32 %427, %416
%429 = and i32 %428, %404
%430 = sub i32 0, %404
%431 = sub i32 %430, 1
%432 = and i32 %416, %431
%433 = or i32 %429, %432
%434 = add i32 %200, -1926607734
%435 = add i32 %434, %392
%436 = add i32 %435, %433
%437 = udiv i32 %436, 4096
%438 = mul i32 %436, 1048576
%439 = or i32 %437, %438
%440 = add i32 %439, %428
%441 = xor i32 %440, %428
%442 = xor i32 %441, %416
%443 = add i32 %95, -378558
%444 = add i32 %443, %404
%445 = add i32 %444, %442
%446 = mul i32 %445, 16
%447 = udiv i32 %445, 268435456
%448 = or i32 %447, %446
%449 = add i32 %448, %440
%450 = xor i32 %449, %441
%451 = add i32 %140, -2022574463
%452 = add i32 %451, %416
%453 = add i32 %452, %450
%454 = mul i32 %453, 2048
%455 = udiv i32 %453, 2097152
%456 = or i32 %455, %454
%457 = add i32 %456, %449
%458 = xor i32 %457, %449
%459 = xor i32 %458, %440
%460 = add i32 %185, 1839030562
%461 = add i32 %460, %428
%462 = add i32 %461, %459
%463 = mul i32 %462, 65536
%464 = udiv i32 %462, 65536
%465 = or i32 %464, %463
%466 = add i32 %465, %457
%467 = xor i32 %458, %466
%468 = add i32 %230, -35309556
%469 = add i32 %468, %440
%470 = add i32 %469, %467
%471 = udiv i32 %470, 512
%472 = mul i32 %470, 8388608
%473 = or i32 %471, %472
%474 = add i32 %473, %466
%475 = xor i32 %466, %457
%476 = xor i32 %475, %474
%477 = add i32 %35, -1530992060
%478 = add i32 %477, %449
%479 = add i32 %478, %476
%480 = mul i32 %479, 16
%481 = udiv i32 %479, 268435456
%482 = or i32 %481, %480
%483 = add i32 %482, %474
%484 = xor i32 %474, %466
%485 = xor i32 %484, %483
%486 = add i32 %80, 1272893353
%487 = add i32 %486, %457
%488 = add i32 %487, %485
%489 = mul i32 %488, 2048
%490 = udiv i32 %488, 2097152
%491 = or i32 %490, %489
%492 = add i32 %491, %483
%493 = xor i32 %483, %474
%494 = xor i32 %493, %492
%495 = add i32 %125, -155497632
%496 = add i32 %495, %466
%497 = add i32 %496, %494
%498 = mul i32 %497, 65536
%499 = udiv i32 %497, 65536
%500 = or i32 %499, %498
%501 = add i32 %500, %492
%502 = xor i32 %492, %483
%503 = xor i32 %502, %501
%504 = add i32 %170, -1094730640
%505 = add i32 %504, %474
%506 = add i32 %505, %503
%507 = udiv i32 %506, 512
%508 = mul i32 %506, 8388608
%509 = or i32 %507, %508
%510 = add i32 %509, %501
%511 = xor i32 %501, %492
%512 = xor i32 %511, %510
%513 = add i32 %215, 681279174
%514 = add i32 %513, %483
%515 = add i32 %514, %512
%516 = mul i32 %515, 16
%517 = udiv i32 %515, 268435456
%518 = or i32 %517, %516
%519 = add i32 %518, %510
%520 = xor i32 %510, %501
%521 = xor i32 %520, %519
%522 = add i32 %20, -358537222
%523 = add i32 %522, %492
%524 = add i32 %523, %521
%525 = mul i32 %524, 2048
%526 = udiv i32 %524, 2097152
%527 = or i32 %526, %525
%528 = add i32 %527, %519
%529 = xor i32 %519, %510
%530 = xor i32 %529, %528
%531 = add i32 %65, -722521979
%532 = add i32 %531, %501
%533 = add i32 %532, %530
%534 = mul i32 %533, 65536
%535 = udiv i32 %533, 65536
%536 = or i32 %535, %534
%537 = add i32 %536, %528
%538 = xor i32 %528, %519
%539 = xor i32 %538, %537
%540 = add i32 %110, 76029189
%541 = add i32 %540, %510
%542 = add i32 %541, %539
%543 = udiv i32 %542, 512
%544 = mul i32 %542, 8388608
%545 = or i32 %543, %544
%546 = add i32 %545, %537
%547 = xor i32 %537, %528
%548 = xor i32 %547, %546
%549 = add i32 %155, -640364487
%550 = add i32 %549, %519
%551 = add i32 %550, %548
%552 = mul i32 %551, 16
%553 = udiv i32 %551, 268435456
%554 = or i32 %553, %552
%555 = add i32 %554, %546
%556 = xor i32 %546, %537
%557 = xor i32 %556, %555
%558 = add i32 %200, -421815835
%559 = add i32 %558, %528
%560 = add i32 %559, %557
%561 = mul i32 %560, 2048
%562 = udiv i32 %560, 2097152
%563 = or i32 %562, %561
%564 = add i32 %563, %555
%565 = xor i32 %555, %546
%566 = xor i32 %565, %564
%567 = add i32 %245, 530742520
%568 = add i32 %567, %537
%569 = add i32 %568, %566
%570 = mul i32 %569, 65536
%571 = udiv i32 %569, 65536
%572 = or i32 %571, %570
%573 = add i32 %572, %564
%574 = xor i32 %564, %555
%575 = xor i32 %574, %573
%576 = add i32 %50, -995338651
%577 = add i32 %576, %546
%578 = add i32 %577, %575
%579 = udiv i32 %578, 512
%580 = mul i32 %578, 8388608
%581 = or i32 %579, %580
%582 = add i32 %581, %573
%583 = sub i32 0, %564
%584 = sub i32 %583, 1
%585 = or i32 %582, %584
%586 = xor i32 %585, %573
%587 = add i32 %20, -198630844
%588 = add i32 %587, %555
%589 = add i32 %588, %586
%590 = mul i32 %589, 64
%591 = udiv i32 %589, 67108864
%592 = or i32 %591, %590
%593 = add i32 %592, %582
%594 = sub i32 0, %573
%595 = sub i32 %594, 1
%596 = or i32 %593, %595
%597 = xor i32 %596, %582
%598 = add i32 %125, 1126891415
%599 = add i32 %598, %564
%600 = add i32 %599, %597
%601 = mul i32 %600, 1024
%602 = udiv i32 %600, 4194304
%603 = or i32 %602, %601
%604 = add i32 %603, %593
%605 = sub i32 0, %582
%606 = sub i32 %605, 1
%607 = or i32 %604, %606
%608 = xor i32 %607, %593
%609 = add i32 %230, -1416354905
%610 = add i32 %609, %573
%611 = add i32 %610, %608
%612 = mul i32 %611, 32768
%613 = udiv i32 %611, 131072
%614 = or i32 %613, %612
%615 = add i32 %614, %604
%616 = sub i32 0, %593
%617 = sub i32 %616, 1
%618 = or i32 %615, %617
%619 = xor i32 %618, %604
%620 = add i32 %95, -57434055
%621 = add i32 %620, %582
%622 = add i32 %621, %619
%623 = udiv i32 %622, 2048
%624 = mul i32 %622, 2097152
%625 = or i32 %623, %624
%626 = add i32 %625, %615
%627 = sub i32 0, %604
%628 = sub i32 %627, 1
%629 = or i32 %626, %628
%630 = xor i32 %629, %615
%631 = add i32 %200, 1700485571
%632 = add i32 %631, %593
%633 = add i32 %632, %630
%634 = mul i32 %633, 64
%635 = udiv i32 %633, 67108864
%636 = or i32 %635, %634
%637 = add i32 %636, %626
%638 = sub i32 0, %615
%639 = sub i32 %638, 1
%640 = or i32 %637, %639
%641 = xor i32 %640, %626
%642 = add i32 %65, -1894986606
%643 = add i32 %642, %604
%644 = add i32 %643, %641
%645 = mul i32 %644, 1024
%646 = udiv i32 %644, 4194304
%647 = or i32 %646, %645
%648 = add i32 %647, %637
%649 = sub i32 0, %626
%650 = sub i32 %649, 1
%651 = or i32 %648, %650
%652 = xor i32 %651, %637
%653 = add i32 %170, -1051523
%654 = add i32 %653, %615
%655 = add i32 %654, %652
%656 = mul i32 %655, 32768
%657 = udiv i32 %655, 131072
%658 = or i32 %657, %656
%659 = add i32 %658, %648
%660 = sub i32 0, %637
%661 = sub i32 %660, 1
%662 = or i32 %659, %661
%663 = xor i32 %662, %648
%664 = add i32 %35, -2054922799
%665 = add i32 %664, %626
%666 = add i32 %665, %663
%667 = udiv i32 %666, 2048
%668 = mul i32 %666, 2097152
%669 = or i32 %667, %668
%670 = add i32 %669, %659
%671 = sub i32 0, %648
%672 = sub i32 %671, 1
%673 = or i32 %670, %672
%674 = xor i32 %673, %659
%675 = add i32 %140, 1873313359
%676 = add i32 %675, %637
%677 = add i32 %676, %674
%678 = mul i32 %677, 64
%679 = udiv i32 %677, 67108864
%680 = or i32 %679, %678
%681 = add i32 %680, %670
%682 = sub i32 0, %659
%683 = sub i32 %682, 1
%684 = or i32 %681, %683
%685 = xor i32 %684, %670
%686 = add i32 %245, -30611744
%687 = add i32 %686, %648
%688 = add i32 %687, %685
%689 = mul i32 %688, 1024
%690 = udiv i32 %688, 4194304
%691 = or i32 %690, %689
%692 = add i32 %691, %681
%693 = sub i32 0, %670
%694 = sub i32 %693, 1
%695 = or i32 %692, %694
%696 = xor i32 %695, %681
%697 = add i32 %110, -1560198380
%698 = add i32 %697, %659
%699 = add i32 %698, %696
%700 = mul i32 %699, 32768
%701 = udiv i32 %699, 131072
%702 = or i32 %701, %700
%703 = add i32 %702, %692
%704 = sub i32 0, %681
%705 = sub i32 %704, 1
%706 = or i32 %703, %705
%707 = xor i32 %706, %692
%708 = add i32 %215, 1309151649
%709 = add i32 %708, %670
%710 = add i32 %709, %707
%711 = udiv i32 %710, 2048
%712 = mul i32 %710, 2097152
%713 = or i32 %711, %712
%714 = add i32 %713, %703
%715 = sub i32 0, %692
%716 = sub i32 %715, 1
%717 = or i32 %714, %716
%718 = xor i32 %717, %703
%719 = add i32 %80, -145523070
%720 = add i32 %719, %681
%721 = add i32 %720, %718
%722 = mul i32 %721, 64
%723 = udiv i32 %721, 67108864
%724 = or i32 %723, %722
%725 = add i32 %724, %714
%726 = sub i32 0, %703
%727 = sub i32 %726, 1
%728 = or i32 %725, %727
%729 = xor i32 %728, %714
%730 = add i32 %185, -1120210379
%731 = add i32 %730, %692
%732 = add i32 %731, %729
%733 = mul i32 %732, 1024
%734 = udiv i32 %732, 4194304
%735 = or i32 %734, %733
%736 = add i32 %735, %725
%737 = sub i32 0, %714
%738 = sub i32 %737, 1
%739 = or i32 %736, %738
%740 = xor i32 %739, %725
%741 = add i32 %50, 718787259
%742 = add i32 %741, %703
%743 = add i32 %742, %740
%744 = mul i32 %743, 32768
%745 = udiv i32 %743, 131072
%746 = or i32 %745, %744
%747 = add i32 %746, %736
%748 = sub i32 0, %725
%749 = sub i32 %748, 1
%750 = or i32 %747, %749
%751 = xor i32 %750, %736
%752 = add i32 %155, -343485551
%753 = add i32 %752, %714
%754 = add i32 %753, %751
%755 = udiv i32 %754, 2048
%756 = mul i32 %754, 2097152
%757 = or i32 %755, %756
%758 = add i32 %725, %5
store i32 %758, i32* %arg1, align 4
%759 = load i32, i32* %7, align 4
%760 = add i32 %747, %759
%761 = add i32 %760, %757
store i32 %761, i32* %7, align 4
%762 = load i32, i32* %10, align 4
%763 = add i32 %747, %762
store i32 %763, i32* %10, align 4
%764 = load i32, i32* %13, align 4
%765 = add i32 %736, %764
store i32 %765, i32* %13, align 4
ret i64 %12
uselistorder i32 %743, { 1, 0 }
uselistorder i32 %732, { 1, 0 }
uselistorder i32 %725, { 1, 0, 2, 3, 4 }
uselistorder i32 %721, { 1, 0 }
uselistorder i32 %714, { 4, 0, 1, 2, 3 }
uselistorder i32 %703, { 4, 0, 1, 2, 3 }
uselistorder i32 %699, { 1, 0 }
uselistorder i32 %692, { 4, 0, 1, 2, 3 }
uselistorder i32 %688, { 1, 0 }
uselistorder i32 %681, { 4, 0, 1, 2, 3 }
uselistorder i32 %677, { 1, 0 }
uselistorder i32 %670, { 4, 0, 1, 2, 3 }
uselistorder i32 %659, { 4, 0, 1, 2, 3 }
uselistorder i32 %655, { 1, 0 }
uselistorder i32 %648, { 4, 0, 1, 2, 3 }
uselistorder i32 %644, { 1, 0 }
uselistorder i32 %637, { 4, 0, 1, 2, 3 }
uselistorder i32 %633, { 1, 0 }
uselistorder i32 %626, { 4, 0, 1, 2, 3 }
uselistorder i32 %615, { 4, 0, 1, 2, 3 }
uselistorder i32 %611, { 1, 0 }
uselistorder i32 %604, { 4, 0, 1, 2, 3 }
uselistorder i32 %600, { 1, 0 }
uselistorder i32 %593, { 4, 0, 1, 2, 3 }
uselistorder i32 %589, { 1, 0 }
uselistorder i32 %582, { 4, 0, 1, 2, 3 }
uselistorder i32 %573, { 3, 0, 1, 2, 4 }
uselistorder i32 %569, { 1, 0 }
uselistorder i32 %564, { 3, 0, 1, 2, 4 }
uselistorder i32 %560, { 1, 0 }
uselistorder i32 %555, { 3, 0, 1, 2, 4 }
uselistorder i32 %551, { 1, 0 }
uselistorder i32 %546, { 3, 0, 1, 2, 4 }
uselistorder i32 %537, { 3, 0, 1, 2, 4 }
uselistorder i32 %533, { 1, 0 }
uselistorder i32 %528, { 3, 0, 1, 2, 4 }
uselistorder i32 %524, { 1, 0 }
uselistorder i32 %519, { 3, 0, 1, 2, 4 }
uselistorder i32 %515, { 1, 0 }
uselistorder i32 %510, { 3, 0, 1, 2, 4 }
uselistorder i32 %501, { 3, 0, 1, 2, 4 }
uselistorder i32 %497, { 1, 0 }
uselistorder i32 %492, { 3, 0, 1, 2, 4 }
uselistorder i32 %488, { 1, 0 }
uselistorder i32 %483, { 3, 0, 1, 2, 4 }
uselistorder i32 %479, { 1, 0 }
uselistorder i32 %474, { 3, 0, 1, 2, 4 }
uselistorder i32 %466, { 3, 0, 1, 2, 4 }
uselistorder i32 %462, { 1, 0 }
uselistorder i32 %457, { 2, 0, 3, 1 }
uselistorder i32 %453, { 1, 0 }
uselistorder i32 %449, { 3, 0, 1, 2 }
uselistorder i32 %445, { 1, 0 }
uselistorder i32 %440, { 3, 0, 1, 2 }
uselistorder i32 %428, { 3, 0, 1, 2 }
uselistorder i32 %424, { 1, 0 }
uselistorder i32 %416, { 4, 0, 1, 2, 3 }
uselistorder i32 %412, { 1, 0 }
uselistorder i32 %404, { 5, 0, 1, 2, 3, 4 }
uselistorder i32 %400, { 1, 0 }
uselistorder i32 %392, { 5, 0, 1, 2, 3, 4 }
uselistorder i32 %380, { 5, 0, 1, 2, 3, 4 }
uselistorder i32 %376, { 1, 0 }
uselistorder i32 %368, { 5, 0, 1, 2, 3, 4 }
uselistorder i32 %364, { 1, 0 }
uselistorder i32 %356, { 5, 0, 1, 2, 3, 4 }
uselistorder i32 %352, { 1, 0 }
uselistorder i32 %344, { 5, 0, 1, 2, 3, 4 }
uselistorder i32 %332, { 5, 0, 1, 2, 3, 4 }
uselistorder i32 %328, { 1, 0 }
uselistorder i32 %320, { 5, 0, 1, 2, 3, 4 }
uselistorder i32 %316, { 1, 0 }
uselistorder i32 %308, { 5, 0, 1, 2, 3, 4 }
uselistorder i32 %304, { 1, 0 }
uselistorder i32 %296, { 5, 0, 1, 2, 3, 4 }
uselistorder i32 %284, { 5, 0, 1, 2, 3, 4 }
uselistorder i32 %280, { 1, 0 }
uselistorder i32 %272, { 5, 0, 1, 2, 3, 4 }
uselistorder i32 %268, { 1, 0 }
uselistorder i32 %262, { 5, 0, 1, 2, 3, 4 }
uselistorder i32 %258, { 1, 0 }
uselistorder i32 %252, { 5, 0, 1, 2, 3, 4 }
uselistorder i32 %237, { 5, 1, 2, 3, 0, 4 }
uselistorder i32 %222, { 5, 1, 2, 3, 0, 4 }
uselistorder i32 %218, { 1, 0 }
uselistorder i32 %207, { 5, 1, 2, 3, 0, 4 }
uselistorder i32 %203, { 1, 0 }
uselistorder i32 %192, { 5, 1, 2, 3, 0, 4 }
uselistorder i32 %177, { 5, 1, 2, 3, 0, 4 }
uselistorder i32 %162, { 5, 1, 2, 3, 0, 4 }
uselistorder i32 %158, { 1, 0 }
uselistorder i32 %147, { 5, 1, 2, 3, 0, 4 }
uselistorder i32 %143, { 1, 0 }
uselistorder i32 %132, { 5, 1, 2, 3, 0, 4 }
uselistorder i32 %117, { 5, 1, 2, 3, 0, 4 }
uselistorder i32 %102, { 5, 1, 2, 3, 0, 4 }
uselistorder i32 %98, { 1, 0 }
uselistorder i32 %87, { 5, 1, 2, 3, 0, 4 }
uselistorder i32 %83, { 1, 0 }
uselistorder i32 %72, { 5, 1, 2, 3, 0, 4 }
uselistorder i32 %65, { 1, 2, 3, 0 }
uselistorder i32 %57, { 5, 1, 2, 3, 0, 4 }
uselistorder i32 %50, { 1, 2, 3, 0 }
uselistorder i32 %42, { 5, 1, 2, 3, 0, 4 }
uselistorder i32 %38, { 1, 0 }
uselistorder i32 %35, { 1, 2, 3, 0 }
uselistorder i32 %27, { 5, 1, 2, 3, 0, 4 }
uselistorder i32 %23, { 1, 0 }
uselistorder i32 %20, { 2, 1, 0, 3 }
uselistorder i32 %14, { 1, 0 }
uselistorder i32 %11, { 2, 0, 1 }
uselistorder i32 %8, { 5, 1, 2, 3, 0, 4 }
uselistorder i64* %0, { 1, 0 }
uselistorder i32 65536, { 4, 0, 5, 1, 6, 2, 7, 3 }
uselistorder i32 2048, { 4, 5, 6, 7, 0, 1, 2, 3 }
uselistorder i32 512, { 4, 5, 6, 7, 0, 1, 2, 3 }
uselistorder i32 4194304, { 4, 5, 6, 7, 0, 1, 2, 3 }
uselistorder i32 131072, { 4, 5, 6, 7, 0, 1, 2, 3 }
uselistorder i32 4096, { 4, 5, 6, 7, 0, 1, 2, 3 }
} | 1 |
BinRealVul | pdf_new_5883 | pdf_new | define i64 @FUNC(i8* %arg1) local_unnamed_addr {
LBL_0:
%.reg2mem = alloca i8*
%sv_0 = alloca i8*, align 8
%0 = call i64 @FUNC(i64 8)
%1 = icmp eq i8* %arg1, null
br i1 %1, label LBL_5, label LBL_1
LBL_1:
%2 = call i8* @strrchr(i8* nonnull %arg1, i32 47)
store i8* %2, i8** %sv_0, align 8
%3 = icmp eq i8* %2, null
br i1 %3, label LBL_3, label LBL_2
LBL_2:
%4 = ptrtoint i8* %2 to i64
%5 = add i64 %4, 1
%6 = inttoptr i64 %5 to i8*
store i8* %6, i8** %sv_0, align 8
store i8* %6, i8** %.reg2mem
br label LBL_4
LBL_3:
%7 = ptrtoint i8* %arg1 to i64
%8 = bitcast i8** %sv_0 to i64*
store i64 %7, i64* %8, align 8
store i8* %arg1, i8** %.reg2mem
br label LBL_4
LBL_4:
%.reload = load i8*, i8** %.reg2mem
%9 = call i32 @strlen(i8* %.reload)
%10 = sext i32 %9 to i64
%11 = add nsw i64 %10, 1
%12 = call i64 @FUNC(i64 %11)
%13 = inttoptr i64 %0 to i64*
store i64 %12, i64* %13, align 8
%14 = load i8*, i8** %sv_0, align 8
%15 = inttoptr i64 %12 to i8*
%16 = call i8* @strcpy(i8* %15, i8* %14)
br label LBL_6
LBL_5:
%17 = call i64 @FUNC(i64 8)
%18 = inttoptr i64 %0 to i64*
store i64 %17, i64* %18, align 8
%19 = inttoptr i64 %17 to i64*
store i64 31093567915781717, i64* %19, align 8
br label LBL_6
LBL_6:
ret i64 %0
uselistorder i64 %0, { 1, 2, 0 }
uselistorder i8** %sv_0, { 3, 0, 2, 1 }
uselistorder i8** %.reg2mem, { 0, 2, 1 }
uselistorder i64 (i64)* @safe_calloc, { 2, 1, 0 }
uselistorder i32 1, { 4, 0, 1, 2, 3 }
} | 0 |
BinRealVul | newDynamic_10589 | newDynamic | define i64 @FUNC(i64 %arg1, i64 %arg2, i64 %arg3) local_unnamed_addr {
LBL_0:
%rax.0.reg2mem = alloca i64
%0 = call i64 @FUNC(i64 8)
%1 = icmp eq i64 %0, 0
%2 = icmp eq i1 %1, false
store i64 0, i64* %rax.0.reg2mem
br i1 %2, label LBL_1, label LBL_4
LBL_1:
%3 = and i64 %arg1, 4294967295
%4 = call i64 @FUNC(i64 %0, i64 %3, i64 %arg2)
%5 = trunc i64 %4 to i32
%6 = icmp eq i32 %5, 0
%7 = icmp eq i1 %6, false
br i1 %7, label LBL_3, label LBL_2
LBL_2:
%8 = call i64 @FUNC(i64 %0)
store i64 0, i64* %rax.0.reg2mem
br label LBL_4
LBL_3:
%9 = inttoptr i64 %0 to i32*
store i32 0, i32* %9, align 4
%10 = trunc i64 %arg3 to i32
%11 = add i64 %0, 4
%12 = inttoptr i64 %11 to i32*
store i32 %10, i32* %12, align 4
store i64 %0, i64* %rax.0.reg2mem
br label LBL_4
LBL_4:
%rax.0.reload = load i64, i64* %rax.0.reg2mem
ret i64 %rax.0.reload
uselistorder i64 %0, { 0, 1, 4, 2, 3, 5 }
uselistorder i64* %rax.0.reg2mem, { 0, 3, 2, 1 }
uselistorder label LBL_4, { 1, 2, 0 }
} | 0 |
BinRealVul | qemu_system_powerdown_14053 | qemu_system_powerdown | define i64 @FUNC() local_unnamed_addr {
LBL_0:
%rax.0.reg2mem = alloca i64
%0 = load i32*, i32** @gv_0, align 8
%1 = load i32, i32* %0, align 4
%2 = urem i32 %1, 2
%3 = icmp eq i32 %2, 0
store i64 0, i64* %rax.0.reg2mem
br i1 %3, label LBL_2, label LBL_1
LBL_1:
%4 = ptrtoint i32* %0 to i64
%5 = add i64 %4, 4
%6 = inttoptr i64 %5 to i32*
%7 = load i32, i32* %6, align 4
%8 = or i32 %7, 1
store i32 %8, i32* %6, align 4
%9 = load i32*, i32** @gv_0, align 8
%10 = ptrtoint i32* %9 to i64
%11 = call i64 @FUNC(i64 %10)
store i64 %11, i64* %rax.0.reg2mem
br label LBL_2
LBL_2:
%rax.0.reload = load i64, i64* %rax.0.reg2mem
ret i64 %rax.0.reload
} | 1 |
BinRealVul | uv__rwlock_fallback_destroy_13200 | uv__rwlock_fallback_destroy | define i64 @FUNC(i64 %arg1) local_unnamed_addr {
LBL_0:
%0 = call i64 @FUNC(i64 %arg1)
%1 = add i64 %arg1, 40
%2 = call i64 @FUNC(i64 %1)
ret i64 %2
uselistorder i64 (i64)* @uv_mutex_destroy, { 1, 0 }
} | 1 |
BinRealVul | vqf_read_packet_14028 | vqf_read_packet | define i64 @FUNC(i64* %arg1, i64* %arg2) local_unnamed_addr {
LBL_0:
%0 = alloca i64
%rax.0.reg2mem = alloca i64
%rdi = alloca i64, align 8
%1 = load i64, i64* %0
%2 = ptrtoint i64* %arg2 to i64
%3 = ptrtoint i64* %arg1 to i64
%4 = trunc i64 %1 to i32
%5 = add i64 %3, 4
%6 = inttoptr i64 %5 to i32*
%7 = load i32, i32* %6, align 4
%8 = sub i32 %4, %7
%9 = add i32 %8, 7
%10 = ashr i32 %9, 3
%11 = add nsw i32 %10, 2
%12 = zext i32 %11 to i64
%13 = call i64 @FUNC(i64 %2, i64 %12)
%14 = trunc i64 %13 to i32
%15 = icmp slt i32 %14, 0
%16 = icmp eq i1 %15, false
store i64 4294967291, i64* %rax.0.reg2mem
br i1 %16, label LBL_1, label LBL_4
LBL_1:
%17 = add i64 %3, 8
%18 = inttoptr i64 %17 to i64*
%19 = load i64, i64* %18, align 8
%20 = call i64 @FUNC(i64 %19)
%21 = trunc i64 %20 to i32
%22 = bitcast i64* %arg2 to i32*
store i32 %21, i32* %22, align 4
%23 = add i64 %2, 4
%24 = inttoptr i64 %23 to i32*
store i32 0, i32* %24, align 4
%25 = add i64 %2, 8
%26 = inttoptr i64 %25 to i32*
store i32 1, i32* %26, align 4
%27 = load i32, i32* %6, align 4
%28 = add i64 %2, 16
%29 = inttoptr i64 %28 to i64*
%30 = load i64, i64* %29, align 8
%31 = trunc i32 %27 to i8
%32 = sub i8 8, %31
%33 = inttoptr i64 %30 to i8*
store i8 %32, i8* %33, align 1
%34 = inttoptr i64 %17 to i32*
%35 = load i32, i32* %34, align 4
%36 = load i64, i64* %29, align 8
%37 = add i64 %36, 1
%38 = trunc i32 %35 to i8
%39 = inttoptr i64 %37 to i8*
store i8 %38, i8* %39, align 1
%40 = load i64, i64* %29, align 8
%41 = add i64 %40, 2
%42 = load i64, i64* %18, align 8
%43 = call i64 @FUNC(i64 %42, i64 %41, i32 %10)
%44 = trunc i64 %43 to i32
%45 = icmp eq i32 %44, 0
%46 = icmp slt i32 %44, 0
%47 = icmp eq i1 %46, false
%48 = icmp eq i1 %45, false
%49 = icmp eq i1 %47, %48
br i1 %49, label LBL_3, label LBL_2
LBL_2:
%50 = call i64 @FUNC(i64 %2)
store i64 4294967291, i64* %rax.0.reg2mem
br label LBL_4
LBL_3:
%51 = bitcast i64* %rdi to i32*
%52 = load i64, i64* %29, align 8
%narrow = add nsw i32 %10, 1
%53 = sext i32 %narrow to i64
%54 = add i64 %52, %53
%55 = inttoptr i64 %54 to i8*
%56 = load i8, i8* %55, align 1
%57 = zext i8 %56 to i32
store i32 %57, i32* %34, align 4
%58 = and i32 %9, -8
%59 = load i32, i32* %51, align 8
%60 = sub i32 %58, %59
%61 = load i32, i32* %6, align 4
%62 = add i32 %60, %61
store i32 %62, i32* %6, align 4
store i64 %12, i64* %rax.0.reg2mem
br label LBL_4
LBL_4:
%rax.0.reload = load i64, i64* %rax.0.reg2mem
ret i64 %rax.0.reload
uselistorder i32 %44, { 1, 0 }
uselistorder i32* %6, { 1, 0, 2, 3 }
uselistorder i64* %rax.0.reg2mem, { 0, 3, 2, 1 }
uselistorder i64 4294967291, { 1, 0 }
uselistorder i1 false, { 1, 0, 2 }
uselistorder label LBL_4, { 1, 2, 0 }
} | 1 |
BinRealVul | sctp_v6_addr_to_user_8403 | sctp_v6_addr_to_user | define i64 @FUNC(i32* %arg1, i64* %arg2) local_unnamed_addr {
LBL_0:
%0 = alloca i64
%1 = load i64, i64* %0
%2 = load i64, i64* %0
%3 = ptrtoint i64* %arg2 to i64
%4 = trunc i64 %1 to i32
%5 = icmp eq i32 %4, 0
%6 = trunc i64 %2 to i16
br i1 %5, label LBL_3, label LBL_1
LBL_1:
%7 = icmp eq i16 %6, 2
%8 = icmp eq i1 %7, false
br i1 %8, label LBL_6, label LBL_2
LBL_2:
%9 = call i64 @FUNC(i64 %3)
br label LBL_6
LBL_3:
%10 = icmp eq i16 %6, 10
%11 = icmp eq i1 %10, false
br i1 %11, label LBL_6, label LBL_4
LBL_4:
%12 = add i64 %3, 8
%13 = call i64 @FUNC(i64 %12)
%14 = trunc i64 %13 to i32
%15 = icmp eq i32 %14, 0
br i1 %15, label LBL_6, label LBL_5
LBL_5:
%16 = call i64 @FUNC(i64 %3)
br label LBL_6
LBL_6:
%17 = icmp eq i16 %6, 2
%18 = icmp eq i1 %17, false
%. = select i1 %18, i64 28, i64 16
ret i64 %.
uselistorder i64 %3, { 0, 2, 1 }
uselistorder i64* %0, { 1, 0 }
} | 0 |
BinRealVul | pgx_validate_5418 | pgx_validate | define i64 @FUNC(i64* %arg1) local_unnamed_addr {
LBL_0:
%0 = alloca i32
%rax.0.reg2mem = alloca i64
%storemerge.in.reg2mem = alloca i32
%1 = ptrtoint i64* %arg1 to i64
%2 = load i32, i32* %0
%sv_0 = alloca i32, align 4
%sv_1 = alloca i64, align 8
%3 = bitcast i32* %sv_0 to i64*
%4 = call i64 @FUNC(i64 %1, i64* nonnull %3, i64 2)
%5 = trunc i64 %4 to i32
%6 = icmp slt i32 %5, 0
%7 = icmp eq i1 %6, false
store i64 4294967295, i64* %rax.0.reg2mem
br i1 %7, label LBL_1, label LBL_6
LBL_1:
%8 = ptrtoint i64* %sv_1 to i64
%9 = add i64 %8, -18
store i32 %5, i32* %storemerge.in.reg2mem
br label LBL_3
LBL_2:
%10 = sext i32 %storemerge to i64
%11 = add i64 %9, %10
%12 = inttoptr i64 %11 to i8*
%13 = load i8, i8* %12, align 1
%14 = zext i8 %13 to i64
%15 = call i64 @FUNC(i64 %1, i64 %14)
%16 = trunc i64 %15 to i32
%17 = icmp eq i32 %16, -1
%18 = icmp eq i1 %17, false
store i32 %storemerge, i32* %storemerge.in.reg2mem
store i64 4294967295, i64* %rax.0.reg2mem
br i1 %18, label LBL_3, label LBL_6
LBL_3:
%storemerge.in.reload = load i32, i32* %storemerge.in.reg2mem
%storemerge = add i32 %storemerge.in.reload, -1
%19 = icmp slt i32 %storemerge, 0
%20 = icmp eq i1 %19, false
br i1 %20, label LBL_2, label LBL_4
LBL_4:
%21 = icmp sgt i32 %5, 1
store i64 4294967295, i64* %rax.0.reg2mem
br i1 %21, label LBL_5, label LBL_6
LBL_5:
%22 = load i32, i32* %sv_0, align 4
%23 = mul i32 %22, 256
%24 = and i32 %23, 65280
%25 = urem i32 %2, 256
%26 = or i32 %24, %25
%27 = icmp eq i32 %26, 20647
%. = select i1 %27, i64 0, i64 4294967295
store i64 %., i64* %rax.0.reg2mem
br label LBL_6
LBL_6:
%rax.0.reload = load i64, i64* %rax.0.reg2mem
ret i64 %rax.0.reload
uselistorder i32 %storemerge, { 2, 1, 0 }
uselistorder i32 %5, { 1, 0, 2 }
uselistorder i32* %storemerge.in.reg2mem, { 0, 2, 1 }
uselistorder i64* %rax.0.reg2mem, { 0, 2, 3, 1, 4 }
uselistorder i32 256, { 1, 0, 2 }
uselistorder i64 4294967295, { 3, 1, 0, 2 }
uselistorder label LBL_6, { 1, 2, 0, 3 }
uselistorder label LBL_3, { 1, 0 }
} | 0 |
BinRealVul | qeth_hw_trap_10375 | qeth_hw_trap | define i64 @FUNC(i64* %arg1, i64 %arg2) local_unnamed_addr {
LBL_0:
%0 = ptrtoint i64* %arg1 to i64
%1 = trunc i64 %arg2 to i32
%2 = call i64 @FUNC(i64 0, i64 2, i8* getelementptr inbounds ([9 x i8], [9 x i8]* @gv_0, i64 0, i64 0))
%3 = call i64 @FUNC(i64 %0, i64 1, i64 0)
%4 = inttoptr i64 %3 to i64*
%5 = load i64, i64* %4, align 8
%6 = add i64 %5, 8
%7 = inttoptr i64 %6 to i32*
store i32 80, i32* %7, align 4
%8 = add i64 %5, 12
%9 = inttoptr i64 %8 to i32*
store i32 2, i32* %9, align 4
%10 = add i64 %5, 16
%11 = inttoptr i64 %10 to i32*
store i32 1, i32* %11, align 4
%12 = add i64 %5, 20
%13 = inttoptr i64 %12 to i32*
store i32 %1, i32* %13, align 4
%14 = icmp ult i32 %1, 2
br i1 %14, label LBL_1, label LBL_4
LBL_1:
switch i32 %1, label LBL_4 [
i32 0, label LBL_2
i32 1, label LBL_3
]
LBL_2:
%15 = add i64 %5, 24
%16 = inttoptr i64 %15 to i32*
store i32 3, i32* %16, align 4
%17 = add i64 %5, 28
%18 = inttoptr i64 %17 to i32*
store i32 65536, i32* %18, align 4
%19 = add i64 %5, 32
%20 = call i64 @FUNC(i64 %0, i64 %19)
br label LBL_4
LBL_3:
%21 = add i64 %5, 24
%22 = inttoptr i64 %21 to i32*
store i32 1, i32* %22, align 4
br label LBL_4
LBL_4:
%23 = call i64 @FUNC(i64 %0, i64 %3, i64 4198811, i64 0)
ret i64 %23
uselistorder i64 %5, { 3, 0, 1, 2, 4, 5, 6, 7 }
uselistorder i32 %1, { 1, 0, 2 }
uselistorder i64 %0, { 1, 0, 2 }
uselistorder i64 24, { 1, 0 }
uselistorder label LBL_4, { 2, 3, 1, 0 }
} | 0 |
BinRealVul | add_oid_18496 | add_oid | define i64 @FUNC(i8* %arg1, i64 %arg2, i64 %arg3, i64 %arg4, i64 %arg5, i32* %arg6) local_unnamed_addr {
LBL_0:
%rax.0.reg2mem = alloca i64
%rcx.1.reg2mem = alloca i64
%sv_0.0.reg2mem = alloca i64
%rcx.0.reg2mem = alloca i64
%sv_1.0.reg2mem = alloca i64
%sv_2.0.reg2mem = alloca i32
%storemerge.reg2mem = alloca i32
%sv_3 = alloca i32, align 4
%0 = load i64, i64* @gv_0, align 8
%1 = icmp eq i64 %0, 0
%2 = icmp eq i1 %1, false
br i1 %2, label LBL_4, label LBL_1
LBL_1:
%3 = call i8* @getenv(i8* getelementptr inbounds ([21 x i8], [21 x i8]* @gv_1, i64 0, i64 0))
%4 = icmp eq i8* %3, null
store i32 0, i32* %storemerge.reg2mem
br i1 %4, label LBL_3, label LBL_2
LBL_2:
%5 = call i32 @strtoul(i8* nonnull %3, i8** null, i32 10)
store i32 %5, i32* %storemerge.reg2mem
br label LBL_3
LBL_3:
%storemerge.reload = load i32, i32* %storemerge.reg2mem
store i32 %storemerge.reload, i32* bitcast (i64* @gv_2 to i32*), align 8
%6 = call i64 @FUNC(i64 1, i8* getelementptr inbounds ([9 x i8], [9 x i8]* @gv_3, i64 0, i64 0))
store i64 %6, i64* @gv_0, align 8
store i32 0, i32* %sv_3, align 4
%7 = call i64 @FUNC(i8* getelementptr inbounds ([6 x i8], [6 x i8]* @gv_4, i64 0, i64 0), i64 1, i32* nonnull %sv_3)
store i32 1, i32* %sv_3, align 4
%8 = call i64 @FUNC(i8* getelementptr inbounds ([4 x i8], [4 x i8]* @gv_5, i64 0, i64 0), i64 1, i32* nonnull %sv_3)
store i32 2, i32* %sv_3, align 4
%9 = call i64 @FUNC(i8* getelementptr inbounds ([16 x i8], [16 x i8]* @gv_6, i64 0, i64 0), i64 1, i32* nonnull %sv_3)
br label LBL_4
LBL_4:
%10 = ptrtoint i32* %arg6 to i64
%sext6 = mul i64 %arg5, 4294967296
%sext7 = add i64 %sext6, -4294967296
%11 = udiv i64 %sext7, 4294967296
%12 = trunc i64 %11 to i32
%13 = trunc i64 %arg2 to i32
store i32 0, i32* %sv_2.0.reg2mem
store i64 ptrtoint (i64* @gv_7 to i64), i64* %sv_1.0.reg2mem
store i64 %arg4, i64* %rcx.0.reg2mem
br label LBL_5
LBL_5:
%sv_1.0.reload = load i64, i64* %sv_1.0.reg2mem
%sv_2.0.reload = load i32, i32* %sv_2.0.reg2mem
%14 = zext i32 %sv_2.0.reload to i64
%15 = mul i64 %14, 4
%16 = add i64 %15, %10
%17 = inttoptr i64 %16 to i32*
%18 = load i32, i32* %17, align 4
%19 = add i64 %sv_1.0.reload, 40
%20 = inttoptr i64 %19 to i64*
%21 = load i64, i64* %20, align 8
%22 = zext i32 %18 to i64
%23 = call i64 @FUNC(i64 %21, i64 %22)
%24 = icmp eq i64 %23, 0
br i1 %24, label LBL_12, label LBL_6
LBL_6:
%rcx.0.reload = load i64, i64* %rcx.0.reg2mem
%25 = icmp eq i32 %sv_2.0.reload, %12
%26 = icmp eq i1 %25, false
store i64 %23, i64* %sv_0.0.reg2mem
store i64 %rcx.0.reload, i64* %rcx.1.reg2mem
br i1 %26, label LBL_15, label LBL_7
LBL_7:
%27 = inttoptr i64 %23 to i64*
%28 = load i64, i64* %27, align 8
%29 = icmp eq i64 %28, 0
%.pre = ptrtoint i8* %arg1 to i64
br i1 %29, label LBL_10, label LBL_8
LBL_8:
%30 = call i64 @FUNC(i64 %28, i64 %.pre)
%31 = trunc i64 %30 to i32
%32 = icmp eq i32 %31, 0
%33 = icmp eq i1 %32, false
br i1 %33, label LBL_10, label LBL_9
LBL_9:
%34 = call i64 @FUNC(i64 2, i64 %.pre, i64 %.pre, i64 %rcx.0.reload, i64 %arg5, i64 %10)
br label LBL_10
LBL_10:
%35 = call i64 @FUNC(i64 %.pre)
store i64 %35, i64* %27, align 8
%36 = add i64 %23, 16
%37 = inttoptr i64 %36 to i64*
%38 = load i64, i64* %37, align 8
%39 = icmp eq i64 %38, 0
%40 = icmp eq i1 %39, false
store i64 %23, i64* %rax.0.reg2mem
br i1 %40, label LBL_17, label LBL_11
LBL_11:
store i64 %arg3, i64* %37, align 8
store i64 %23, i64* %rax.0.reg2mem
br label LBL_17
LBL_12:
%41 = call i64 @FUNC(i64 64)
%42 = load i32, i32* %17, align 4
%43 = add i64 %41, 52
%44 = inttoptr i64 %43 to i32*
store i32 %42, i32* %44, align 4
%45 = add i64 %41, 8
%46 = inttoptr i64 %45 to i32*
store i32 %13, i32* %46, align 4
%47 = call i64 @FUNC(i64 1, i8* getelementptr inbounds ([13 x i8], [13 x i8]* @gv_8, i64 0, i64 0))
%48 = add i64 %41, 40
%49 = inttoptr i64 %48 to i64*
store i64 %47, i64* %49, align 8
%50 = add i64 %41, 48
%51 = inttoptr i64 %50 to i32*
store i32 -2, i32* %51, align 4
%52 = add i64 %41, 24
%53 = inttoptr i64 %52 to i64*
store i64 %arg4, i64* %53, align 8
%54 = add i64 %41, 32
%55 = inttoptr i64 %54 to i64*
store i64 %sv_1.0.reload, i64* %55, align 8
%56 = add i64 %41, 56
%57 = inttoptr i64 %56 to i64*
store i64 0, i64* %57, align 8
%58 = load i32, i32* %44, align 4
%59 = zext i32 %58 to i64
%60 = load i64, i64* %20, align 8
%61 = call i64 @FUNC(i64 %60, i64 %59, i64 %41)
%62 = icmp eq i32 %sv_2.0.reload, %12
%63 = icmp eq i1 %62, false
br i1 %63, label LBL_14, label LBL_13
LBL_13:
%64 = ptrtoint i8* %arg1 to i64
%65 = call i64 @FUNC(i64 %64)
%66 = inttoptr i64 %41 to i64*
store i64 %65, i64* %66, align 8
%67 = add i64 %41, 16
%68 = inttoptr i64 %67 to i64*
store i64 %arg3, i64* %68, align 8
store i32 %13, i32* %46, align 4
store i64 %41, i64* %rax.0.reg2mem
br label LBL_17
LBL_14:
%69 = inttoptr i64 %41 to i64*
store i64 0, i64* %69, align 8
%70 = add i64 %41, 16
%71 = inttoptr i64 %70 to i64*
store i64 0, i64* %71, align 8
store i32 0, i32* %46, align 4
store i64 %41, i64* %sv_0.0.reg2mem
store i64 %59, i64* %rcx.1.reg2mem
br label LBL_15
LBL_15:
%rcx.1.reload = load i64, i64* %rcx.1.reg2mem
%sv_0.0.reload = load i64, i64* %sv_0.0.reg2mem
%72 = add i32 %sv_2.0.reload, 1
%73 = icmp eq i32 %72, 0
%74 = icmp eq i1 %73, false
store i32 %72, i32* %sv_2.0.reg2mem
store i64 %sv_0.0.reload, i64* %sv_1.0.reg2mem
store i64 %rcx.1.reload, i64* %rcx.0.reg2mem
br i1 %74, label LBL_5, label LBL_16
LBL_16:
%75 = call i64 @FUNC()
store i64 0, i64* %rax.0.reg2mem
br label LBL_17
LBL_17:
%rax.0.reload = load i64, i64* %rax.0.reg2mem
ret i64 %rax.0.reload
uselistorder i32* %46, { 1, 0, 2 }
uselistorder i64 %41, { 1, 4, 5, 0, 2, 3, 6, 7, 8, 9, 10, 11, 12, 13 }
uselistorder i64 %.pre, { 0, 2, 3, 1 }
uselistorder i64 %rcx.0.reload, { 1, 0 }
uselistorder i64 %23, { 1, 0, 3, 4, 2, 5 }
uselistorder i32 %sv_2.0.reload, { 2, 1, 3, 0 }
uselistorder i64 %sv_1.0.reload, { 1, 0 }
uselistorder i64 %10, { 1, 0 }
uselistorder i32* %sv_3, { 0, 3, 1, 4, 2, 5 }
uselistorder i32* %storemerge.reg2mem, { 0, 2, 1 }
uselistorder i32* %sv_2.0.reg2mem, { 1, 0, 2 }
uselistorder i64* %sv_1.0.reg2mem, { 1, 0, 2 }
uselistorder i64* %rcx.0.reg2mem, { 1, 0, 2 }
uselistorder i64* %sv_0.0.reg2mem, { 0, 2, 1 }
uselistorder i64* %rcx.1.reg2mem, { 0, 2, 1 }
uselistorder i64* %rax.0.reg2mem, { 0, 4, 3, 2, 1 }
uselistorder i64 (i64)* @g_strdup, { 1, 0 }
uselistorder i64 4294967296, { 1, 0 }
uselistorder i64 (i8*, i64, i32*)* @oid_add, { 2, 1, 0 }
uselistorder i64 (i64, i8*)* @pe_tree_create, { 1, 0 }
uselistorder i32 0, { 4, 5, 6, 0, 3, 1, 7, 2 }
uselistorder i64 %arg5, { 1, 0 }
uselistorder i64 %arg4, { 1, 0 }
uselistorder i64 %arg3, { 1, 0 }
uselistorder i8* %arg1, { 1, 0 }
uselistorder label LBL_17, { 2, 3, 1, 0 }
uselistorder label LBL_10, { 1, 2, 0 }
uselistorder label LBL_3, { 1, 0 }
} | 1 |
BinRealVul | usage_14185 | usage | define i64 @FUNC(i64 %arg1) local_unnamed_addr {
LBL_0:
%0 = load %_IO_FILE*, %_IO_FILE** @gv_0, align 8
%1 = call i32 @fwrite(i64* bitcast ([68 x i8]* @gv_1 to i64*), i32 1, i32 67, %_IO_FILE* %0)
%2 = load %_IO_FILE*, %_IO_FILE** @gv_0, align 8
%3 = call i32 @fwrite(i64* bitcast ([115 x i8]* @gv_2 to i64*), i32 1, i32 114, %_IO_FILE* %2)
%4 = load %_IO_FILE*, %_IO_FILE** @gv_0, align 8
%5 = call i32 @fwrite(i64* bitcast ([26 x i8]* @gv_3 to i64*), i32 1, i32 25, %_IO_FILE* %4)
%6 = and i64 %arg1, 4294967295
ret i64 %6
uselistorder i32 (i64*, i32, i32, %_IO_FILE*)* @fwrite, { 2, 1, 0 }
uselistorder %_IO_FILE** @gv_0, { 2, 1, 0 }
} | 1 |
BinRealVul | inode_owner_or_capable_12186 | inode_owner_or_capable | define i64 @FUNC(i32* %arg1) local_unnamed_addr {
LBL_0:
%0 = alloca i64
%rax.0.reg2mem = alloca i64
%1 = load i64, i64* %0
%2 = call i64 @FUNC()
%3 = and i64 %1, 4294967295
%4 = and i64 %2, 4294967295
%5 = call i64 @FUNC(i64 %4, i64 %3)
%6 = trunc i64 %5 to i8
%7 = icmp eq i8 %6, 0
store i64 1, i64* %rax.0.reg2mem
br i1 %7, label LBL_1, label LBL_2
LBL_1:
%8 = ptrtoint i32* %arg1 to i64
%9 = call i64 @FUNC(i64 %8, i64 1)
%10 = trunc i64 %9 to i8
%11 = icmp ne i8 %10, 0
%. = zext i1 %11 to i64
store i64 %., i64* %rax.0.reg2mem
br label LBL_2
LBL_2:
%rax.0.reload = load i64, i64* %rax.0.reg2mem
ret i64 %rax.0.reload
uselistorder i64 1, { 1, 0 }
uselistorder i64 4294967295, { 1, 0 }
} | 1 |
BinRealVul | caf_write_trailer_1262 | caf_write_trailer | define i64 @FUNC(i64* %arg1) local_unnamed_addr {
LBL_0:
%0 = ptrtoint i64* %arg1 to i64
%1 = add i64 %0, 8
%2 = inttoptr i64 %1 to i64*
%3 = load i64, i64* %2, align 8
%4 = add i64 %0, 40
%5 = inttoptr i64 %4 to i32*
%6 = load i32, i32* %5, align 4
%7 = icmp eq i32 %6, 0
br i1 %7, label LBL_4, label LBL_1
LBL_1:
%8 = add i64 %0, 16
%9 = inttoptr i64 %8 to i64*
%10 = load i64, i64* %9, align 8
%11 = inttoptr i64 %10 to i64*
%12 = load i64, i64* %11, align 8
%13 = inttoptr i64 %12 to i64*
%14 = load i64, i64* %13, align 8
%15 = inttoptr i64 %14 to i32*
%16 = call i64 @FUNC(i64 %0)
%sext = mul i64 %16, 4294967296
%17 = ashr exact i64 %sext, 32
%18 = inttoptr i64 %3 to i64*
%19 = load i64, i64* %18, align 8
%20 = call i64 @FUNC(i64 %0, i64 %19, i64 0)
%21 = load i64, i64* %18, align 8
%22 = add nsw i64 %17, -8
%23 = sub i64 %22, %21
%24 = call i64 @FUNC(i64 %0, i64 %23)
%25 = call i64 @FUNC(i64 %0, i64 %17, i64 0)
%26 = load i32, i32* %15, align 4
%27 = icmp eq i32 %26, 0
%28 = icmp eq i1 %27, false
br i1 %28, label LBL_3, label LBL_2
LBL_2:
%29 = call i64 @FUNC(i64 %0, i8* getelementptr inbounds ([5 x i8], [5 x i8]* @gv_0, i64 0, i64 0))
%30 = add i64 %3, 8
%31 = inttoptr i64 %30 to i64*
%32 = load i64, i64* %31, align 8
%33 = add i64 %32, 24
%34 = call i64 @FUNC(i64 %0, i64 %33)
%35 = add i64 %3, 16
%36 = inttoptr i64 %35 to i64*
%37 = load i64, i64* %36, align 8
%38 = call i64 @FUNC(i64 %0, i64 %37)
%39 = load i64, i64* %36, align 8
%40 = add i64 %14, 8
%41 = inttoptr i64 %40 to i32*
%42 = load i32, i32* %41, align 4
%43 = add i64 %14, 4
%44 = inttoptr i64 %43 to i32*
%45 = load i32, i32* %44, align 4
%46 = zext i32 %42 to i64
%47 = zext i32 %45 to i64
%48 = call i64 @FUNC(i64 %47, i64 %46)
%sext2 = mul i64 %48, 4294967296
%49 = ashr exact i64 %sext2, 32
%50 = mul i64 %49, %39
%51 = call i64 @FUNC(i64 %0, i64 %50)
%52 = call i64 @FUNC(i64 %0, i64 0)
%53 = call i64 @FUNC(i64 %0, i64 0)
%54 = load i64, i64* %31, align 8
%55 = and i64 %54, 4294967295
%56 = add i64 %3, 24
%57 = inttoptr i64 %56 to i64*
%58 = load i64, i64* %57, align 8
%59 = call i64 @FUNC(i64 %0, i64 %58, i64 %55)
%60 = add i64 %3, 32
%61 = inttoptr i64 %60 to i32*
store i32 0, i32* %61, align 4
br label LBL_3
LBL_3:
%62 = call i64 @FUNC(i64 %0)
br label LBL_4
LBL_4:
%63 = add i64 %3, 24
%64 = call i64 @FUNC(i64 %63)
ret i64 0
uselistorder i64 %17, { 1, 0 }
uselistorder i64 %3, { 5, 0, 1, 2, 3, 4 }
uselistorder i64 %0, { 7, 0, 3, 2, 1, 5, 4, 6, 8, 10, 9, 11, 13, 12, 14 }
uselistorder i64 (i64, i64)* @avio_wb32, { 1, 0 }
uselistorder i64 (i64, i64)* @avio_wb64, { 3, 2, 1, 0 }
uselistorder i64 (i64, i64, i64)* @avio_seek, { 1, 0 }
uselistorder i64 32, { 2, 0, 1 }
} | 0 |
BinRealVul | filter_frame_12142 | filter_frame | define i64 @FUNC(i64* %arg1, i64* %arg2) local_unnamed_addr {
LBL_0:
%storemerge4.reg2mem = alloca i64
%rcx.0.lcssa.reg2mem = alloca i64
%indvars.iv.reg2mem = alloca i64
%sv_0.114.reg2mem = alloca i32
%storemerge515.reg2mem = alloca i32
%sv_0.0.lcssa.reg2mem = alloca i32
%sv_0.011.reg2mem = alloca i32
%sv_1.012.reg2mem = alloca i64
%storemerge613.reg2mem = alloca i32
%storemerge7.reg2mem = alloca i64
%rdi = alloca i64, align 8
%rsi = alloca i64, align 8
%0 = ptrtoint i64* %arg2 to i64
%1 = ptrtoint i64* %arg1 to i64
%sv_2 = alloca i64, align 8
%2 = ptrtoint i64* %sv_2 to i64
%3 = add i64 %1, 8
%4 = inttoptr i64 %3 to i64*
%5 = load i64, i64* %4, align 8
%6 = add i64 %1, 20
%7 = inttoptr i64 %6 to i32*
%8 = load i32, i32* %7, align 4
%9 = zext i32 %8 to i64
%10 = call i64 @FUNC(i64 %9)
%11 = add i64 %10, 8
%12 = inttoptr i64 %11 to i32*
%13 = load i32, i32* %12, align 4
%14 = add i64 %0, 48
%15 = add i64 %0, 4
%16 = inttoptr i64 %15 to i32*
%17 = bitcast i64* %rsi to i32*
%18 = bitcast i64* %rdi to i32*
%19 = urem i32 %13, 32
%20 = shl i32 1, %19
%storemerge3 = zext i32 %20 to i64
%21 = add nuw nsw i64 %storemerge3, 4294967295
%22 = icmp eq i32 %19, 0
%23 = add i64 %2, -128
%24 = add i64 %0, 80
store i32 0, i32* %storemerge515.reg2mem
store i32 0, i32* %sv_0.114.reg2mem
br label LBL_9
LBL_1:
%sv_0.114.reload = load i32, i32* %sv_0.114.reg2mem
%25 = load i32, i32* %16, align 4
%26 = load i32, i32* %17, align 8
%27 = zext i32 %25 to i64
%28 = zext i32 %26 to i64
%29 = call i64 @FUNC(i64 %28, i64 %27, i32 %storemerge515.reload)
%30 = load i64, i64* %69, align 8
%31 = icmp ne i32 %storemerge515.reload, 1
%32 = icmp eq i32 %storemerge515.reload, 2
%33 = icmp eq i1 %32, false
%or.cond = icmp eq i1 %31, %33
%34 = load i32, i32* %18, align 8
%35 = zext i32 %34 to i64
store i64 %35, i64* %storemerge7.reg2mem
br i1 %or.cond, label LBL_3, label LBL_2
LBL_2:
store i64 %storemerge3, i64* %rsi, align 8
%36 = add nuw nsw i64 %21, %35
%37 = and i64 %36, 4294967295
%38 = trunc i64 %36 to i32
%39 = ashr i32 %38, %19
%40 = zext i32 %39 to i64
%rdx.0 = select i1 %22, i64 %37, i64 %40
store i64 %rdx.0, i64* %storemerge7.reg2mem
br label LBL_3
LBL_3:
%41 = trunc i64 %29 to i32
%42 = icmp slt i32 %41, 0
%43 = icmp eq i1 %42, false
br i1 %43, label LBL_4, label LBL_6
LBL_4:
%storemerge7.reload = load i64, i64* %storemerge7.reg2mem
%44 = trunc i64 %storemerge7.reload to i32
%45 = icmp sgt i32 %44, 0
store i32 %sv_0.114.reload, i32* %sv_0.0.lcssa.reg2mem
br i1 %45, label LBL_5, label LBL_8
LBL_5:
%46 = and i64 %29, 4294967295
%47 = mul i64 %66, 4
%48 = add i64 %47, %23
%49 = inttoptr i64 %48 to i32*
%50 = add i64 %24, %47
%51 = inttoptr i64 %50 to i32*
store i32 0, i32* %storemerge613.reg2mem
store i64 %30, i64* %sv_1.012.reg2mem
store i32 %sv_0.114.reload, i32* %sv_0.011.reg2mem
br label LBL_7
LBL_6:
%sext = mul i64 %29, 4294967296
%52 = ashr exact i64 %sext, 32
store i64 %52, i64* %storemerge4.reg2mem
br label LBL_14
LBL_7:
%sv_0.011.reload = load i32, i32* %sv_0.011.reg2mem
%sv_1.012.reload = load i64, i64* %sv_1.012.reg2mem
%storemerge613.reload = load i32, i32* %storemerge613.reg2mem
%53 = load i32, i32* %49, align 4
%54 = zext i32 %53 to i64
%55 = call i64 @FUNC(i64 %54, i64 %sv_1.012.reload, i64 %46)
%56 = trunc i64 %55 to i32
store i32 %56, i32* %49, align 4
%57 = zext i32 %sv_0.011.reload to i64
%58 = call i64 @FUNC(i64 %57, i64 %sv_1.012.reload, i64 %46)
%59 = trunc i64 %58 to i32
%60 = load i32, i32* %51, align 4
%61 = sext i32 %60 to i64
%62 = add i64 %sv_1.012.reload, %61
%63 = add nuw nsw i32 %storemerge613.reload, 1
%exitcond = icmp eq i32 %63, %44
store i32 %63, i32* %storemerge613.reg2mem
store i64 %62, i64* %sv_1.012.reg2mem
store i32 %59, i32* %sv_0.011.reg2mem
store i32 %59, i32* %sv_0.0.lcssa.reg2mem
br i1 %exitcond, label LBL_8, label LBL_7
LBL_8:
%sv_0.0.lcssa.reload = load i32, i32* %sv_0.0.lcssa.reg2mem
%64 = add nuw i32 %storemerge515.reload, 1
%65 = icmp ugt i32 %storemerge515.reload, 2
store i32 %64, i32* %storemerge515.reg2mem
store i32 %sv_0.0.lcssa.reload, i32* %sv_0.114.reg2mem
br i1 %65, label LBL_10, label LBL_9
LBL_9:
%storemerge515.reload = load i32, i32* %storemerge515.reg2mem
%66 = sext i32 %storemerge515.reload to i64
%67 = mul i64 %66, 8
%68 = add i64 %67, %14
%69 = inttoptr i64 %68 to i64*
%70 = load i64, i64* %69, align 8
%71 = icmp eq i64 %70, 0
%72 = icmp eq i1 %71, false
br i1 %72, label LBL_1, label LBL_10
LBL_10:
%73 = add i64 %0, 40
%74 = inttoptr i64 %73 to i32*
%75 = load i32, i32* %74, align 4
%76 = zext i32 %75 to i64
%77 = call i64 @FUNC(i64 %76)
%78 = call i64 @FUNC(i64 %0)
%79 = add i64 %1, 16
%80 = add i64 %0, 16
%81 = inttoptr i64 %80 to i64*
%82 = load i64, i64* %81, align 8
%83 = call i64 @FUNC(i64 %82, i64 %79)
%84 = load i64, i64* %81, align 8
%85 = call i64 @FUNC(i64 %84)
%86 = add i64 %1, 4
%87 = inttoptr i64 %86 to i32*
%88 = load i32, i32* %87, align 4
%89 = zext i32 %88 to i64
%90 = call i64 @FUNC(i64 %5, i64 32, i8* getelementptr inbounds ([115 x i8], [115 x i8]* @gv_0, i64 0, i64 0), i64 %89, i64 %85, i64 %83)
%91 = add i64 %0, 56
%92 = inttoptr i64 %91 to i64*
%93 = load i64, i64* %92, align 8
%94 = icmp eq i64 %93, 0
%95 = icmp eq i1 %94, false
store i64 1, i64* %indvars.iv.reg2mem
store i64 %89, i64* %rcx.0.lcssa.reg2mem
br i1 %95, label LBL_11, label LBL_13
LBL_11:
%indvars.iv.reload = load i64, i64* %indvars.iv.reg2mem
%96 = mul i64 %indvars.iv.reload, 4
%97 = add i64 %96, %23
%98 = inttoptr i64 %97 to i32*
%99 = load i32, i32* %98, align 4
%100 = zext i32 %99 to i64
%101 = call i64 @FUNC(i64 %5, i64 32, i8* getelementptr inbounds ([6 x i8], [6 x i8]* @gv_1, i64 0, i64 0), i64 %100, i64 %85, i64 %83)
%102 = icmp ugt i64 %indvars.iv.reload, 2
store i64 %100, i64* %rcx.0.lcssa.reg2mem
br i1 %102, label LBL_13, label LBL_12
LBL_12:
%indvars.iv.next = add nuw nsw i64 %indvars.iv.reload, 1
%103 = mul i64 %indvars.iv.next, 8
%104 = add i64 %103, %14
%105 = inttoptr i64 %104 to i64*
%106 = load i64, i64* %105, align 8
%107 = icmp eq i64 %106, 0
%108 = icmp eq i1 %107, false
store i64 %indvars.iv.next, i64* %indvars.iv.reg2mem
store i64 %100, i64* %rcx.0.lcssa.reg2mem
br i1 %108, label LBL_11, label LBL_13
LBL_13:
%rcx.0.lcssa.reload = load i64, i64* %rcx.0.lcssa.reg2mem
%109 = call i64 @FUNC(i64 %5, i64 32, i8* getelementptr inbounds ([3 x i8], [3 x i8]* @gv_2, i64 0, i64 0), i64 %rcx.0.lcssa.reload, i64 %85, i64 %83)
%110 = load i64, i64* %4, align 8
%111 = inttoptr i64 %110 to i32*
%112 = load i32, i32* %111, align 4
%113 = zext i32 %112 to i64
%114 = call i64 @FUNC(i64 %113, i64 %0)
store i64 %114, i64* %storemerge4.reg2mem
br label LBL_14
LBL_14:
%storemerge4.reload = load i64, i64* %storemerge4.reg2mem
ret i64 %storemerge4.reload
uselistorder i64 %100, { 1, 0, 2 }
uselistorder i64 %85, { 1, 0, 2 }
uselistorder i64 %83, { 1, 0, 2 }
uselistorder i64* %69, { 1, 0 }
uselistorder i32 %storemerge515.reload, { 4, 3, 2, 0, 1, 5 }
uselistorder i64 %sv_1.012.reload, { 2, 0, 1 }
uselistorder i64 %35, { 1, 0 }
uselistorder i64 %storemerge3, { 1, 0 }
uselistorder i32 %19, { 1, 2, 0 }
uselistorder i64 %5, { 1, 0, 2 }
uselistorder i64 %0, { 4, 0, 6, 5, 7, 1, 3, 2 }
uselistorder i64* %storemerge7.reg2mem, { 0, 2, 1 }
uselistorder i32* %storemerge613.reg2mem, { 1, 0, 2 }
uselistorder i64* %sv_1.012.reg2mem, { 1, 0, 2 }
uselistorder i32* %sv_0.011.reg2mem, { 1, 0, 2 }
uselistorder i32* %sv_0.114.reg2mem, { 1, 0, 2 }
uselistorder i64* %indvars.iv.reg2mem, { 2, 0, 1 }
uselistorder i64* %rcx.0.lcssa.reg2mem, { 0, 2, 1, 3 }
uselistorder i64 1, { 1, 0 }
uselistorder i64 (i64, i64, i8*, i64, i64, i64)* @av_log, { 1, 2, 0 }
uselistorder i64 (i64, i64, i64)* @av_adler32_update, { 1, 0 }
uselistorder i64 32, { 1, 2, 3, 0 }
uselistorder i1 false, { 2, 0, 4, 3, 1 }
uselistorder i32 0, { 2, 3, 4, 0, 1, 5 }
uselistorder i64 4294967295, { 1, 2, 0, 3, 4 }
uselistorder i64 4, { 0, 2, 1, 3 }
uselistorder label LBL_13, { 1, 0, 2 }
uselistorder label LBL_11, { 1, 0 }
uselistorder label LBL_9, { 1, 0 }
uselistorder label LBL_3, { 1, 0 }
} | 1 |
BinRealVul | solo_set_motion_block_17404 | solo_set_motion_block | define i64 @FUNC(i64* %arg1, i64 %arg2, i64* %arg3) local_unnamed_addr {
LBL_0:
%sv_0.03.reg2mem = alloca i32
%indvars.iv5.reg2mem = alloca i64
%indvars.iv.reg2mem = alloca i64
%0 = ptrtoint i64* %arg3 to i64
%1 = ptrtoint i64* %arg1 to i64
%sv_1 = alloca i64, align 8
%2 = ptrtoint i64* %sv_1 to i64
%3 = call i64 @FUNC(i64 128, i64 0)
%4 = add i64 %2, -16
%5 = inttoptr i64 %4 to i64*
store i64 0, i64* %indvars.iv5.reg2mem
store i32 0, i32* %sv_0.03.reg2mem
br label LBL_3
LBL_1:
%indvars.iv.reload = load i64, i64* %indvars.iv.reg2mem
%6 = add nuw nsw i64 %indvars.iv.reload, %21
%7 = mul i64 %6, 2
%8 = add i64 %7, %0
%9 = inttoptr i64 %8 to i16*
%10 = load i16, i16* %9, align 2
%11 = mul i64 %indvars.iv.reload, 2
%12 = add i64 %11, %3
%13 = zext i16 %10 to i64
%14 = call i64 @FUNC(i64 %13)
%15 = trunc i64 %14 to i16
%16 = inttoptr i64 %12 to i16*
store i16 %15, i16* %16, align 2
%indvars.iv.next = add nuw nsw i64 %indvars.iv.reload, 1
%exitcond = icmp eq i64 %indvars.iv.next, 8
store i64 %indvars.iv.next, i64* %indvars.iv.reg2mem
br i1 %exitcond, label LBL_2, label LBL_1
LBL_2:
%17 = mul i64 %indvars.iv5.reload, 128
store i64 0, i64* %5, align 8
%18 = call i64 @FUNC(i64 %1, i64 1, i64 %3, i64 %17, i64 128, i64 0)
%19 = trunc i64 %18 to i32
%20 = or i32 %sv_0.03.reload, %19
%indvars.iv.next6 = add nuw nsw i64 %indvars.iv5.reload, 1
%exitcond7 = icmp eq i64 %indvars.iv.next6, 8
store i64 %indvars.iv.next6, i64* %indvars.iv5.reg2mem
store i32 %20, i32* %sv_0.03.reg2mem
br i1 %exitcond7, label LBL_4, label LBL_3
LBL_3:
%sv_0.03.reload = load i32, i32* %sv_0.03.reg2mem
%indvars.iv5.reload = load i64, i64* %indvars.iv5.reg2mem
%21 = mul i64 %indvars.iv5.reload, 8
store i64 0, i64* %indvars.iv.reg2mem
br label LBL_1
LBL_4:
%22 = call i64 @FUNC(i64 %3)
%23 = zext i32 %20 to i64
ret i64 %23
uselistorder i64 %indvars.iv5.reload, { 2, 1, 0 }
uselistorder i32 %20, { 1, 0 }
uselistorder i64 %indvars.iv.reload, { 0, 2, 1 }
uselistorder i64 %3, { 1, 2, 0 }
uselistorder i64* %indvars.iv.reg2mem, { 2, 1, 0 }
uselistorder i64 1, { 0, 2, 1 }
uselistorder i64 128, { 1, 0, 2 }
uselistorder label LBL_1, { 1, 0 }
} | 1 |
BinRealVul | ReadMNGImage_9464 | ReadMNGImage | define i64 @FUNC(i64* %arg1, i32* %arg2) local_unnamed_addr {
LBL_0:
%0 = alloca i64
%rax.0.reg2mem = alloca i64
%rcx.1.reg2mem = alloca i64
%rcx.0.reg2mem = alloca i64
%rdi.1.reg2mem = alloca i64
%rdi.0.reg2mem = alloca i64
%1 = load i64, i64* %0
%2 = load i64, i64* %0
%3 = load i64, i64* %0
%4 = ptrtoint i64* %arg1 to i64
%5 = icmp eq i64* %arg1, null
%6 = icmp eq i1 %5, false
store i64 %4, i64* %rdi.0.reg2mem
br i1 %6, label LBL_2, label LBL_1
LBL_1:
call void @__assert_fail(i8* getelementptr inbounds ([39 x i8], [39 x i8]* @gv_0, i64 0, i64 0), i8* getelementptr inbounds ([46 x i8], [46 x i8]* @gv_1, i64 0, i64 0), i32 93, i8* getelementptr inbounds ([13 x i8], [13 x i8]* @gv_2, i64 0, i64 0))
store i64 ptrtoint ([39 x i8]* @gv_0 to i64), i64* %rdi.0.reg2mem
br label LBL_2
LBL_2:
%rdi.0.reload = load i64, i64* %rdi.0.reg2mem
%7 = add i64 %4, 8
%8 = inttoptr i64 %7 to i32*
%9 = load i32, i32* %8, align 4
%10 = icmp eq i32 %9, 305419896
store i64 %rdi.0.reload, i64* %rdi.1.reg2mem
br i1 %10, label LBL_4, label LBL_3
LBL_3:
call void @__assert_fail(i8* getelementptr inbounds ([45 x i8], [45 x i8]* @gv_3, i64 0, i64 0), i8* getelementptr inbounds ([46 x i8], [46 x i8]* @gv_1, i64 0, i64 0), i32 94, i8* getelementptr inbounds ([13 x i8], [13 x i8]* @gv_2, i64 0, i64 0))
store i64 ptrtoint ([45 x i8]* @gv_3 to i64), i64* %rdi.1.reg2mem
br label LBL_4
LBL_4:
%rdi.1.reload = load i64, i64* %rdi.1.reg2mem
%11 = call i64 @FUNC()
%12 = call i64 @FUNC(i64 1, i64 %11, i8* getelementptr inbounds ([3 x i8], [3 x i8]* @gv_4, i64 0, i64 0), i64 %rdi.1.reload, i64 %2, i64 %1)
%13 = icmp eq i32* %arg2, null
%14 = icmp eq i1 %13, false
store i64 %rdi.1.reload, i64* %rcx.0.reg2mem
br i1 %14, label LBL_6, label LBL_5
LBL_5:
call void @__assert_fail(i8* getelementptr inbounds ([36 x i8], [36 x i8]* @gv_5, i64 0, i64 0), i8* getelementptr inbounds ([46 x i8], [46 x i8]* @gv_1, i64 0, i64 0), i32 96, i8* getelementptr inbounds ([13 x i8], [13 x i8]* @gv_2, i64 0, i64 0))
store i64 ptrtoint ([13 x i8]* @gv_2 to i64), i64* %rcx.0.reg2mem
br label LBL_6
LBL_6:
%15 = trunc i64 %3 to i32
%rcx.0.reload = load i64, i64* %rcx.0.reg2mem
%16 = icmp eq i32 %15, 305419896
store i64 %rcx.0.reload, i64* %rcx.1.reg2mem
br i1 %16, label LBL_8, label LBL_7
LBL_7:
call void @__assert_fail(i8* getelementptr inbounds ([44 x i8], [44 x i8]* @gv_6, i64 0, i64 0), i8* getelementptr inbounds ([46 x i8], [46 x i8]* @gv_1, i64 0, i64 0), i32 97, i8* getelementptr inbounds ([13 x i8], [13 x i8]* @gv_2, i64 0, i64 0))
store i64 ptrtoint ([13 x i8]* @gv_2 to i64), i64* %rcx.1.reg2mem
br label LBL_8
LBL_8:
%rcx.1.reload = load i64, i64* %rcx.1.reg2mem
%17 = call i64 @FUNC()
%18 = call i64 @FUNC(i64 2, i64 %17, i8* getelementptr inbounds ([21 x i8], [21 x i8]* @gv_7, i64 0, i64 0), i64 %rcx.1.reload, i64 %2, i64 %1)
%19 = call i64 @FUNC(i64 %4)
%20 = ptrtoint i32* %arg2 to i64
%21 = call i64 @FUNC(i64 %4, i64 %19, i64 4, i64 %20)
%22 = trunc i64 %21 to i32
%23 = icmp eq i32 %22, 0
%24 = icmp eq i1 %23, false
store i64 0, i64* %rax.0.reg2mem
br i1 %24, label LBL_9, label LBL_17
LBL_9:
%25 = call i64 @FUNC(i64 8)
%26 = icmp eq i64 %25, 0
%27 = icmp eq i1 %26, false
br i1 %27, label LBL_11, label LBL_10
LBL_10:
%28 = call i64 @FUNC(i64 3, i8* getelementptr inbounds ([23 x i8], [23 x i8]* @gv_8, i64 0, i64 0))
unreachable
LBL_11:
%29 = trunc i64 %18 to i32
%30 = inttoptr i64 %25 to i64*
%31 = call i64* @memset(i64* %30, i32 0, i32 8)
store i64 %19, i64* %30, align 8
%32 = call i64 @FUNC(i64 %25, i64 %4, i64 %20)
%33 = call i64 @FUNC(i64 %25)
%34 = icmp eq i64 %32, 0
%35 = icmp eq i1 %34, false
br i1 %35, label LBL_14, label LBL_12
LBL_12:
%36 = icmp eq i32 %29, 0
store i64 0, i64* %rax.0.reg2mem
br i1 %36, label LBL_17, label LBL_13
LBL_13:
%37 = call i64 @FUNC()
%38 = call i64 @FUNC(i64 2, i64 %37, i8* getelementptr inbounds ([31 x i8], [31 x i8]* @gv_9, i64 0, i64 0), i64 %4, i64 %2, i64 %1)
store i64 0, i64* %rax.0.reg2mem
br label LBL_17
LBL_14:
%39 = call i64 @FUNC(i64 %32)
%40 = icmp eq i32 %29, 0
br i1 %40, label LBL_16, label LBL_15
LBL_15:
%41 = call i64 @FUNC()
%42 = call i64 @FUNC(i64 2, i64 %41, i8* getelementptr inbounds ([20 x i8], [20 x i8]* @gv_10, i64 0, i64 0), i64 %4, i64 %2, i64 %1)
br label LBL_16
LBL_16:
%43 = call i64 @FUNC(i64 %32)
store i64 %43, i64* %rax.0.reg2mem
br label LBL_17
LBL_17:
%rax.0.reload = load i64, i64* %rax.0.reg2mem
ret i64 %rax.0.reload
uselistorder i32 %29, { 1, 0 }
uselistorder i64 %25, { 1, 0, 2, 3 }
uselistorder i64 %4, { 2, 1, 3, 5, 4, 6, 0 }
uselistorder i64 %2, { 3, 2, 1, 0 }
uselistorder i64 %1, { 3, 2, 1, 0 }
uselistorder i64* %rax.0.reg2mem, { 0, 4, 2, 1, 3 }
uselistorder i64* %0, { 2, 1, 0 }
uselistorder i32 0, { 2, 3, 0, 4, 1 }
uselistorder i64 (i64)* @AcquireImage, { 1, 0 }
uselistorder i64 (i64, i64, i8*, i64, i64, i64)* @LogMagickEvent, { 3, 2, 1, 0 }
uselistorder i64 1, { 2, 0, 1 }
uselistorder i64 ()* @GetMagickModule, { 3, 2, 1, 0 }
uselistorder [45 x i8]* @gv_3, { 1, 0 }
uselistorder void (i8*, i8*, i32, i8*)* @__assert_fail, { 3, 2, 1, 0 }
uselistorder [13 x i8]* @gv_2, { 1, 0 }
uselistorder [39 x i8]* @gv_0, { 1, 0 }
uselistorder label LBL_17, { 3, 1, 0, 2 }
} | 0 |
BinRealVul | ofpact_get_mf_dst_9369 | ofpact_get_mf_dst | define i64 @FUNC(i32* %arg1) local_unnamed_addr {
LBL_0:
%0 = alloca i64
%rax.0.reg2mem = alloca i64
%1 = load i64, i64* %0
%2 = trunc i64 %1 to i32
%3 = icmp eq i32 %2, 1
%4 = icmp eq i1 %3, false
br i1 %4, label LBL_2, label LBL_1
LBL_1:
%5 = ptrtoint i32* %arg1 to i64
%6 = add i64 %5, 8
%7 = inttoptr i64 %6 to i64*
%8 = load i64, i64* %7, align 8
store i64 %8, i64* %rax.0.reg2mem
br label LBL_4
LBL_2:
%9 = icmp eq i32 %2, 2
%10 = icmp eq i1 %9, false
store i64 0, i64* %rax.0.reg2mem
br i1 %10, label LBL_4, label LBL_3
LBL_3:
%11 = ptrtoint i32* %arg1 to i64
%12 = add i64 %11, 8
%13 = inttoptr i64 %12 to i64*
%14 = load i64, i64* %13, align 8
store i64 %14, i64* %rax.0.reg2mem
br label LBL_4
LBL_4:
%rax.0.reload = load i64, i64* %rax.0.reg2mem
ret i64 %rax.0.reload
uselistorder i32 %2, { 1, 0 }
uselistorder i64* %rax.0.reg2mem, { 0, 3, 1, 2 }
uselistorder i32* %arg1, { 1, 0 }
uselistorder label LBL_4, { 1, 0, 2 }
} | 0 |
BinRealVul | mlock_vma_page_6117 | mlock_vma_page | define i64 @FUNC(i32* %arg1) local_unnamed_addr {
LBL_0:
%0 = alloca i64
%1 = load i64, i64* %0
%2 = trunc i64 %1 to i32
%3 = icmp eq i32 %2, 0
%4 = icmp eq i1 %3, false
br i1 %4, label LBL_2, label LBL_1
LBL_1:
%5 = load %_IO_FILE*, %_IO_FILE** @gv_0, align 8
%6 = call i32 @fwrite(i64* bitcast ([18 x i8]* @gv_1 to i64*), i32 1, i32 17, %_IO_FILE* %5)
call void @exit(i32 1)
unreachable
LBL_2:
%7 = ptrtoint i32* %arg1 to i64
%8 = add i64 %7, 4
%9 = inttoptr i64 %8 to i32*
store i32 1, i32* %9, align 4
ret i64 %7
} | 0 |
BinRealVul | cmd_to_string_9231 | cmd_to_string | define i64 @FUNC(i64 %arg1) local_unnamed_addr {
LBL_0:
%rax.0.reg2mem = alloca i64
%sext = mul i64 %arg1, 4294967296
%0 = ashr exact i64 %sext, 32
%1 = and i64 %0, 4294967295
store i64 %1, i64* @0, align 8
%trunc = trunc i64 %0 to i32
store i64 ptrtoint ([16 x i8]* @gv_0 to i64), i64* %rax.0.reg2mem
switch i32 %trunc, label LBL_27 [
i32 1, label LBL_28
i32 2, label LBL_1
i32 3, label LBL_2
i32 4, label LBL_3
i32 5, label LBL_4
i32 6, label LBL_5
i32 7, label LBL_6
i32 8, label LBL_7
i32 9, label LBL_8
i32 10, label LBL_9
i32 11, label LBL_10
i32 12, label LBL_11
i32 13, label LBL_12
i32 14, label LBL_13
i32 15, label LBL_14
i32 16, label LBL_15
i32 17, label LBL_16
i32 18, label LBL_17
i32 19, label LBL_18
i32 20, label LBL_19
i32 21, label LBL_20
i32 22, label LBL_21
i32 23, label LBL_22
i32 24, label LBL_23
i32 25, label LBL_24
i32 26, label LBL_25
i32 27, label LBL_26
]
LBL_1:
store i64 ptrtoint ([18 x i8]* @gv_1 to i64), i64* %rax.0.reg2mem
br label LBL_28
LBL_2:
store i64 ptrtoint ([9 x i8]* @gv_2 to i64), i64* %rax.0.reg2mem
br label LBL_28
LBL_3:
store i64 ptrtoint ([11 x i8]* @gv_3 to i64), i64* %rax.0.reg2mem
br label LBL_28
LBL_4:
store i64 ptrtoint ([14 x i8]* @gv_4 to i64), i64* %rax.0.reg2mem
br label LBL_28
LBL_5:
store i64 ptrtoint ([10 x i8]* @gv_5 to i64), i64* %rax.0.reg2mem
br label LBL_28
LBL_6:
store i64 ptrtoint ([10 x i8]* @gv_6 to i64), i64* %rax.0.reg2mem
br label LBL_28
LBL_7:
store i64 ptrtoint ([12 x i8]* @gv_7 to i64), i64* %rax.0.reg2mem
br label LBL_28
LBL_8:
store i64 ptrtoint ([12 x i8]* @gv_8 to i64), i64* %rax.0.reg2mem
br label LBL_28
LBL_9:
store i64 ptrtoint ([19 x i8]* @gv_9 to i64), i64* %rax.0.reg2mem
br label LBL_28
LBL_10:
store i64 ptrtoint ([23 x i8]* @gv_10 to i64), i64* %rax.0.reg2mem
br label LBL_28
LBL_11:
store i64 ptrtoint ([22 x i8]* @gv_11 to i64), i64* %rax.0.reg2mem
br label LBL_28
LBL_12:
store i64 ptrtoint ([24 x i8]* @gv_12 to i64), i64* %rax.0.reg2mem
br label LBL_28
LBL_13:
store i64 ptrtoint ([20 x i8]* @gv_13 to i64), i64* %rax.0.reg2mem
br label LBL_28
LBL_14:
store i64 ptrtoint ([23 x i8]* @gv_14 to i64), i64* %rax.0.reg2mem
br label LBL_28
LBL_15:
store i64 ptrtoint ([13 x i8]* @gv_15 to i64), i64* %rax.0.reg2mem
br label LBL_28
LBL_16:
store i64 ptrtoint ([18 x i8]* @gv_16 to i64), i64* %rax.0.reg2mem
br label LBL_28
LBL_17:
store i64 ptrtoint ([8 x i8]* @gv_17 to i64), i64* %rax.0.reg2mem
br label LBL_28
LBL_18:
store i64 ptrtoint ([8 x i8]* @gv_18 to i64), i64* %rax.0.reg2mem
br label LBL_28
LBL_19:
store i64 ptrtoint ([22 x i8]* @gv_19 to i64), i64* %rax.0.reg2mem
br label LBL_28
LBL_20:
store i64 ptrtoint ([19 x i8]* @gv_20 to i64), i64* %rax.0.reg2mem
br label LBL_28
LBL_21:
store i64 ptrtoint ([17 x i8]* @gv_21 to i64), i64* %rax.0.reg2mem
br label LBL_28
LBL_22:
store i64 ptrtoint ([14 x i8]* @gv_22 to i64), i64* %rax.0.reg2mem
br label LBL_28
LBL_23:
store i64 ptrtoint ([10 x i8]* @gv_23 to i64), i64* %rax.0.reg2mem
br label LBL_28
LBL_24:
store i64 ptrtoint ([14 x i8]* @gv_24 to i64), i64* %rax.0.reg2mem
br label LBL_28
LBL_25:
store i64 ptrtoint ([9 x i8]* @gv_25 to i64), i64* %rax.0.reg2mem
br label LBL_28
LBL_26:
store i64 ptrtoint ([18 x i8]* @gv_26 to i64), i64* %rax.0.reg2mem
br label LBL_28
LBL_27:
store i64 ptrtoint (i64* @gv_27 to i64), i64* %rax.0.reg2mem
br label LBL_28
LBL_28:
%rax.0.reload = load i64, i64* %rax.0.reg2mem
ret i64 %rax.0.reload
uselistorder i64 %0, { 1, 0 }
uselistorder i64* %rax.0.reg2mem, { 0, 28, 27, 26, 25, 24, 23, 22, 21, 20, 19, 18, 17, 16, 15, 14, 13, 12, 11, 10, 9, 8, 7, 6, 5, 4, 3, 2, 1 }
uselistorder i32 1, { 1, 0 }
uselistorder label LBL_28, { 27, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15, 16, 17, 18, 19, 20, 21, 22, 23, 24, 25, 26, 0 }
} | 0 |
BinRealVul | mon_get_cpu_16083 | mon_get_cpu | define i64 @FUNC() local_unnamed_addr {
LBL_0:
%.reg2mem = alloca i64
%0 = load i64, i64* @gv_0, align 8
%1 = inttoptr i64 %0 to i64*
%2 = load i64, i64* %1, align 8
%3 = icmp eq i64 %2, 0
%4 = icmp eq i1 %3, false
store i64 %2, i64* %.reg2mem
br i1 %4, label LBL_2, label LBL_1
LBL_1:
%5 = call i64 @FUNC(i64 0)
%.pre = load i64, i64* @gv_0, align 8
%.phi.trans.insert = inttoptr i64 %.pre to i64*
%.pre1 = load i64, i64* %.phi.trans.insert, align 8
store i64 %.pre1, i64* %.reg2mem
br label LBL_2
LBL_2:
%.reload = load i64, i64* %.reg2mem
%6 = call i64 @FUNC(i64 %.reload)
%7 = load i64, i64* @gv_0, align 8
%8 = inttoptr i64 %7 to i64*
%9 = load i64, i64* %8, align 8
ret i64 %9
uselistorder i64* %.reg2mem, { 0, 2, 1 }
uselistorder i32 1, { 1, 0 }
} | 1 |
BinRealVul | collect_cpu_info_early_8651 | collect_cpu_info_early | define i64 @FUNC(i64* %arg1) local_unnamed_addr {
LBL_0:
%0 = alloca i32
%1 = load i32, i32* %0
%2 = load i32, i32* %0
%sv_0 = alloca i64, align 8
%sv_1 = alloca i64, align 8
%sv_2 = alloca i32, align 4
%sv_3 = alloca i32, align 4
%3 = call i64* @memset(i64* %arg1, i32 0, i32 16)
store i32 1, i32* %sv_3, align 4
store i32 0, i32* %sv_2, align 4
%4 = call i64 @FUNC(i32* nonnull %sv_3, i64* nonnull %sv_0, i32* nonnull %sv_2, i64* nonnull %sv_1)
%5 = load i32, i32* %sv_3, align 4
%6 = zext i32 %5 to i64
%7 = call i64 @FUNC(i64 %6)
%8 = trunc i64 %7 to i8
%9 = call i64 @FUNC(i64 %6)
%10 = trunc i64 %9 to i8
%11 = icmp ult i8 %10, 5
%12 = icmp ult i8 %8, 7
%or.cond = icmp eq i1 %12, %11
%.pre = zext i32 %2 to i64
%.pre2 = zext i32 %1 to i64
br i1 %or.cond, label LBL_2, label LBL_1
LBL_1:
%13 = call i64 @FUNC(i64 23, i64 %.pre2, i64 %.pre)
br label LBL_2
LBL_2:
%14 = ptrtoint i64* %arg1 to i64
%15 = call i64 @FUNC(i64 139, i64 0, i64 0)
%16 = call i64 @FUNC()
%17 = call i64 @FUNC(i64 139, i64 %.pre2, i64 %.pre)
%18 = sext i32 %5 to i64
store i64 %18, i64* %arg1, align 8
%19 = add i64 %14, 8
%20 = inttoptr i64 %19 to i32*
%21 = add i64 %14, 12
%22 = inttoptr i64 %21 to i32*
store i32 1, i32* %22, align 4
ret i64 0
uselistorder i32* %sv_3, { 1, 0, 2 }
uselistorder i32* %0, { 1, 0 }
uselistorder i64 (i64, i64, i64)* @native_rdmsr, { 1, 0 }
uselistorder i32 0, { 1, 0, 2, 3, 4, 5, 6 }
uselistorder i64* %arg1, { 0, 2, 1 }
uselistorder label LBL_2, { 1, 0 }
} | 0 |
BinRealVul | apply_mid_side_stereo_3541 | apply_mid_side_stereo | define i64 @FUNC(i64* %arg1) local_unnamed_addr {
LBL_0:
%rax.0.reg2mem = alloca i64
%storemerge14.reg2mem = alloca i32
%.reg2mem65 = alloca i64
%.reg2mem63 = alloca i64
%.reg2mem61 = alloca i64
%.reg2mem59 = alloca i32
%.lcssa5.reg2mem = alloca i32
%.reg2mem57 = alloca i64
%.reg2mem55 = alloca i64
%.reg2mem53 = alloca i32
%.reg2mem51 = alloca i32
%.reg2mem49 = alloca i32
%.reg2mem47 = alloca i64
%.pre2125.reg2mem = alloca i32
%.pn.reg2mem = alloca i32
%.reg2mem45 = alloca i32
%.pre2127.reg2mem = alloca i32
%storemerge47.reg2mem = alloca i32
%sv_0.08.reg2mem = alloca i32
%storemerge211.reg2mem = alloca i32
%.reg2mem43 = alloca i64
%.reg2mem41 = alloca i32
%.pre2126.reg2mem = alloca i32
%storemerge112.reg2mem = alloca i32
%.reg2mem39 = alloca i32
%.reg2mem37 = alloca i32
%.reg2mem = alloca i64
%.pre2124.reg2mem = alloca i32
%0 = ptrtoint i64* %arg1 to i64
%1 = add i64 %0, 96
%2 = inttoptr i64 %1 to i32*
%3 = load i32, i32* %2, align 4
%4 = icmp eq i32 %3, 0
store i64 0, i64* %rax.0.reg2mem
br i1 %4, label LBL_18, label LBL_1
LBL_1:
%5 = add i64 %0, 32
%6 = inttoptr i64 %5 to i32*
%7 = load i32, i32* %6, align 4
%8 = icmp eq i32 %7, 0
store i64 0, i64* %rax.0.reg2mem
br i1 %8, label LBL_18, label LBL_2
LBL_2:
%9 = add i64 %0, 8
%10 = add i64 %0, 24
%11 = inttoptr i64 %10 to i64*
%12 = add i64 %0, 16
%13 = inttoptr i64 %12 to i32*
%14 = add i64 %0, 80
%15 = inttoptr i64 %14 to i64*
%16 = add i64 %0, 88
%17 = inttoptr i64 %16 to i64*
%18 = inttoptr i64 %9 to i64*
%19 = add i64 %0, 40
%20 = inttoptr i64 %19 to i64*
%.pre = load i64, i64* %11, align 8
store i32 %7, i32* %.reg2mem59
store i64 %.pre, i64* %.reg2mem61
store i64 %.pre, i64* %.reg2mem63
store i64 0, i64* %.reg2mem65
store i32 0, i32* %storemerge14.reg2mem
br label LBL_16
LBL_3:
%storemerge112.reload = load i32, i32* %storemerge112.reg2mem
%.reload40 = load i32, i32* %.reg2mem39
%.reload38 = load i32, i32* %.reg2mem37
%.reload = load i64, i64* %.reg2mem
%.pre2124.reload = load i32, i32* %.pre2124.reg2mem
%21 = icmp eq i32 %.reload40, 0
store i32 %.pre2124.reload, i32* %.pre2125.reg2mem
store i64 %.reload, i64* %.reg2mem47
store i32 %.reload38, i32* %.reg2mem49
store i32 0, i32* %.reg2mem51
br i1 %21, label LBL_13, label LBL_4
LBL_4:
%22 = add i32 %storemerge112.reload, %storemerge14.reload
%23 = mul i32 %22, 128
store i32 %.pre2124.reload, i32* %.pre2126.reg2mem
store i32 %.reload38, i32* %.reg2mem41
store i64 0, i64* %.reg2mem43
store i32 0, i32* %storemerge211.reg2mem
store i32 %23, i32* %sv_0.08.reg2mem
br label LBL_5
LBL_5:
%sv_0.08.reload = load i32, i32* %sv_0.08.reg2mem
%storemerge211.reload = load i32, i32* %storemerge211.reg2mem
%.reload44 = load i64, i64* %.reg2mem43
%.pre2126.reload = load i32, i32* %.pre2126.reg2mem
%24 = load i64, i64* %15, align 8
%25 = add i32 %storemerge211.reload, %114
%26 = sext i32 %25 to i64
%27 = mul i64 %26, 4
%28 = add i64 %27, %24
%29 = inttoptr i64 %28 to i32*
%30 = load i32, i32* %29, align 4
%31 = icmp eq i32 %30, 0
%32 = icmp eq i1 %31, false
br i1 %32, label LBL_8, label LBL_6
LBL_6:
%33 = load i64, i64* %17, align 8
%34 = add i64 %33, %27
%35 = inttoptr i64 %34 to i32*
%36 = load i32, i32* %35, align 4
%37 = icmp eq i32 %36, 0
%38 = icmp eq i1 %37, false
br i1 %38, label LBL_8, label LBL_7
LBL_7:
%.reload42 = load i32, i32* %.reg2mem41
%39 = load i64, i64* %18, align 8
%40 = mul i64 %.reload44, 4
%41 = add i64 %39, %40
%42 = inttoptr i64 %41 to i32*
%43 = load i32, i32* %42, align 4
store i32 %.pre2126.reload, i32* %.pre2127.reg2mem
store i32 %.reload42, i32* %.reg2mem45
store i32 %43, i32* %.pn.reg2mem
br label LBL_11
LBL_8:
%44 = load i64, i64* %18, align 8
%45 = mul i64 %.reload44, 4
%46 = add i64 %44, %45
%47 = inttoptr i64 %46 to i32*
%48 = load i32, i32* %47, align 4
%49 = icmp eq i32 %48, 0
store i32 0, i32* %storemerge47.reg2mem
store i32 %.pre2126.reload, i32* %.pre2127.reg2mem
store i32 %.pre2126.reload, i32* %.reg2mem45
store i32 0, i32* %.pn.reg2mem
br i1 %49, label LBL_11, label LBL_9
LBL_9:
%storemerge47.reload = load i32, i32* %storemerge47.reg2mem
%50 = add i32 %storemerge47.reload, %sv_0.08.reload
%51 = sext i32 %50 to i64
%52 = mul i64 %51, 4
%53 = add i64 %52, %0
%54 = inttoptr i64 %53 to i32*
%55 = load i32, i32* %54, align 4
%56 = call i128 @FUNC(i32 %55)
%57 = load i64, i64* %20, align 8
%58 = add i64 %57, %52
%59 = inttoptr i64 %58 to i32*
%60 = load i32, i32* %59, align 4
%61 = call i128 @FUNC(i32 %60)
%62 = call i128 @FUNC(i128 %56, i128 %61)
%63 = load i32, i32* inttoptr (i64 4202512 to i32*), align 16
%64 = call i128 @FUNC(i32 %63)
%65 = call i128 @FUNC(i128 %64, i128 %62)
%66 = call i64 @__asm_movss.1(i128 %65)
%67 = trunc i64 %66 to i32
%68 = load i64, i64* %20, align 8
%69 = add i64 %68, %52
%70 = inttoptr i64 %69 to i32*
%71 = load i32, i32* %70, align 4
%72 = call i128 @FUNC(i32 %71)
%73 = call i128 @FUNC(i32 %67)
%74 = call i128 @FUNC(i128 %73, i128 %72)
%75 = call i64 @__asm_movss.1(i128 %74)
%76 = trunc i64 %75 to i32
%77 = call i128 @FUNC(i32 %67)
%78 = call i64 @__asm_movss.1(i128 %77)
%79 = trunc i64 %78 to i32
store i32 %79, i32* %54, align 4
%80 = load i64, i64* %20, align 8
%81 = add i64 %80, %52
%82 = call i128 @FUNC(i32 %76)
%83 = call i64 @__asm_movss.1(i128 %82)
%84 = trunc i64 %83 to i32
%85 = inttoptr i64 %81 to i32*
store i32 %84, i32* %85, align 4
%86 = add i32 %storemerge47.reload, 1
%87 = load i64, i64* %18, align 8
%88 = add i64 %87, %45
%89 = inttoptr i64 %88 to i32*
%90 = load i32, i32* %89, align 4
%91 = zext i32 %90 to i64
%92 = sext i32 %86 to i64
%93 = icmp slt i64 %92, %91
store i32 %86, i32* %storemerge47.reg2mem
br i1 %93, label LBL_9, label LBL_10
LBL_10:
%.pre21.pre = load i32, i32* %13, align 4
store i32 %.pre21.pre, i32* %.pre2127.reg2mem
store i32 %.pre21.pre, i32* %.reg2mem45
store i32 %90, i32* %.pn.reg2mem
br label LBL_11
LBL_11:
%.pn.reload = load i32, i32* %.pn.reg2mem
%.reload46 = load i32, i32* %.reg2mem45
%.pre2127.reload = load i32, i32* %.pre2127.reg2mem
%storemerge3 = add i32 %.pn.reload, %sv_0.08.reload
%94 = add i32 %storemerge211.reload, 1
%95 = zext i32 %.reload46 to i64
%96 = sext i32 %94 to i64
%97 = icmp slt i64 %96, %95
store i32 %.pre2127.reload, i32* %.pre2126.reg2mem
store i32 %.reload46, i32* %.reg2mem41
store i64 %96, i64* %.reg2mem43
store i32 %94, i32* %storemerge211.reg2mem
store i32 %storemerge3, i32* %sv_0.08.reg2mem
br i1 %97, label LBL_5, label LBL_12
LBL_12:
%.pre22 = load i64, i64* %11, align 8
store i32 %.pre2127.reload, i32* %.pre2125.reg2mem
store i64 %.pre22, i64* %.reg2mem47
store i32 %.reload46, i32* %.reg2mem49
store i32 %.reload46, i32* %.reg2mem51
br label LBL_13
LBL_13:
%.reload52 = load i32, i32* %.reg2mem51
%.reload50 = load i32, i32* %.reg2mem49
%.reload48 = load i64, i64* %.reg2mem47
%.pre2125.reload = load i32, i32* %.pre2125.reg2mem
%98 = add i32 %storemerge112.reload, 1
%99 = add i64 %.reload48, %109
%100 = inttoptr i64 %99 to i32*
%101 = load i32, i32* %100, align 4
%102 = zext i32 %101 to i64
%103 = sext i32 %98 to i64
%104 = icmp slt i64 %103, %102
store i32 %.pre2125.reload, i32* %.pre2124.reg2mem
store i64 %.reload48, i64* %.reg2mem
store i32 %.reload50, i32* %.reg2mem37
store i32 %.reload52, i32* %.reg2mem39
store i32 %98, i32* %storemerge112.reg2mem
br i1 %104, label LBL_3, label LBL_14
LBL_14:
%.pre23 = load i32, i32* %6, align 4
store i32 %.pre23, i32* %.reg2mem53
store i64 %.reload48, i64* %.reg2mem55
store i64 %.reload48, i64* %.reg2mem57
store i32 %101, i32* %.lcssa5.reg2mem
br label LBL_15
LBL_15:
%.lcssa5.reload = load i32, i32* %.lcssa5.reg2mem
%.reload58 = load i64, i64* %.reg2mem57
%.reload56 = load i64, i64* %.reg2mem55
%.reload54 = load i32, i32* %.reg2mem53
%105 = add i32 %.lcssa5.reload, %storemerge14.reload
%106 = zext i32 %.reload54 to i64
%107 = sext i32 %105 to i64
%108 = icmp slt i64 %107, %106
store i32 %.reload54, i32* %.reg2mem59
store i64 %.reload56, i64* %.reg2mem61
store i64 %.reload58, i64* %.reg2mem63
store i64 %107, i64* %.reg2mem65
store i32 %105, i32* %storemerge14.reg2mem
store i64 %106, i64* %rax.0.reg2mem
br i1 %108, label LBL_16, label LBL_18
LBL_16:
%storemerge14.reload = load i32, i32* %storemerge14.reg2mem
%.reload66 = load i64, i64* %.reg2mem65
%.reload64 = load i64, i64* %.reg2mem63
%.reload62 = load i64, i64* %.reg2mem61
%.reload60 = load i32, i32* %.reg2mem59
%109 = mul i64 %.reload66, 4
%110 = add i64 %109, %.reload64
%111 = inttoptr i64 %110 to i32*
%112 = load i32, i32* %111, align 4
%113 = icmp eq i32 %112, 0
store i32 %.reload60, i32* %.reg2mem53
store i64 %.reload62, i64* %.reg2mem55
store i64 %.reload64, i64* %.reg2mem57
store i32 0, i32* %.lcssa5.reg2mem
br i1 %113, label LBL_15, label LBL_3.lr.ph
LBL_17:
%114 = mul i32 %storemerge14.reload, 16
%.pre20 = load i32, i32* %13, align 4
store i32 %.pre20, i32* %.pre2124.reg2mem
store i64 %.reload62, i64* %.reg2mem
store i32 %.pre20, i32* %.reg2mem37
store i32 %.pre20, i32* %.reg2mem39
store i32 0, i32* %storemerge112.reg2mem
br label LBL_3
LBL_18:
%rax.0.reload = load i64, i64* %rax.0.reg2mem
ret i64 %rax.0.reload
uselistorder i64 %.reload64, { 1, 0 }
uselistorder i32 %storemerge14.reload, { 2, 0, 1 }
uselistorder i64 %.reload48, { 0, 1, 3, 2 }
uselistorder i32 %.reload46, { 0, 1, 3, 2 }
uselistorder i32 %67, { 1, 0 }
uselistorder i64 %52, { 3, 2, 0, 1 }
uselistorder i64 %45, { 1, 0 }
uselistorder i64 %27, { 1, 0 }
uselistorder i64 %.reload44, { 1, 0 }
uselistorder i32 %sv_0.08.reload, { 1, 0 }
uselistorder i32 %.pre2124.reload, { 1, 0 }
uselistorder i32 %.reload38, { 1, 0 }
uselistorder i32* %13, { 1, 0 }
uselistorder i64 %0, { 0, 4, 6, 5, 1, 2, 8, 3, 7 }
uselistorder i32* %.pre2124.reg2mem, { 2, 1, 0 }
uselistorder i64* %.reg2mem, { 2, 1, 0 }
uselistorder i32* %.reg2mem37, { 2, 1, 0 }
uselistorder i32* %.reg2mem39, { 2, 1, 0 }
uselistorder i32* %storemerge112.reg2mem, { 2, 1, 0 }
uselistorder i32* %.pre2126.reg2mem, { 1, 0, 2 }
uselistorder i32* %.reg2mem41, { 1, 0, 2 }
uselistorder i64* %.reg2mem43, { 1, 0, 2 }
uselistorder i32* %storemerge211.reg2mem, { 1, 0, 2 }
uselistorder i32* %sv_0.08.reg2mem, { 1, 0, 2 }
uselistorder i32* %storemerge47.reg2mem, { 2, 0, 1 }
uselistorder i32* %.pre2127.reg2mem, { 0, 2, 1, 3 }
uselistorder i32* %.reg2mem45, { 0, 2, 1, 3 }
uselistorder i32* %.pn.reg2mem, { 0, 2, 1, 3 }
uselistorder i32* %.reg2mem53, { 1, 0, 2 }
uselistorder i64* %.reg2mem55, { 1, 0, 2 }
uselistorder i64* %.reg2mem57, { 1, 0, 2 }
uselistorder i32* %.lcssa5.reg2mem, { 1, 0, 2 }
uselistorder i32 0, { 6, 1, 9, 3, 4, 7, 11, 12, 5, 2, 8, 0, 10, 13 }
uselistorder label LBL_16, { 1, 0 }
uselistorder label LBL_13, { 1, 0 }
uselistorder label LBL_9, { 1, 0 }
uselistorder label LBL_5, { 1, 0 }
} | 0 |
BinRealVul | piix4_ide_class_init_17046 | piix4_ide_class_init | define i64 @FUNC(i32* %arg1, i64 %arg2) local_unnamed_addr {
LBL_0:
%0 = ptrtoint i32* %arg1 to i64
store i32 1, i32* %arg1, align 4
%1 = add i64 %0, 8
%2 = inttoptr i64 %1 to i64*
store i64 4198662, i64* %2, align 8
%3 = add i64 %0, 16
%4 = inttoptr i64 %3 to i64*
store i64 4198669, i64* %4, align 8
%5 = add i64 %0, 24
%6 = inttoptr i64 %5 to i16*
store i16 -32634, i16* %6, align 2
%7 = add i64 %0, 26
%8 = inttoptr i64 %7 to i16*
store i16 28945, i16* %8, align 2
%9 = add i64 %0, 28
%10 = inttoptr i64 %9 to i16*
store i16 257, i16* %10, align 2
%11 = add i64 %0, 4
%12 = call i64 @FUNC(i64 0, i64 %11)
store i32 1, i32* %arg1, align 4
ret i64 %0
} | 1 |
BinRealVul | ff_vp9dsp_init_15847 | ff_vp9dsp_init | define i64 @FUNC(i64* %arg1, i64 %arg2, i64 %arg3) local_unnamed_addr {
LBL_0:
%0 = ptrtoint i64* %arg1 to i64
%1 = trunc i64 %arg2 to i32
%sext = mul i64 %arg2, 4294967296
%2 = ashr exact i64 %sext, 32
%3 = icmp eq i32 %1, 8
%4 = icmp eq i1 %3, false
br i1 %4, label LBL_2, label LBL_1
LBL_1:
%5 = call i64 @FUNC(i64 %0)
br label LBL_7
LBL_2:
%6 = trunc i64 %2 to i32
%7 = icmp eq i32 %6, 10
%8 = icmp eq i1 %7, false
br i1 %8, label LBL_4, label LBL_3
LBL_3:
%9 = call i64 @FUNC(i64 %0)
br label LBL_7
LBL_4:
%10 = icmp eq i32 %6, 12
br i1 %10, label LBL_6, label LBL_5
LBL_5:
call void @__assert_fail(i8* getelementptr inbounds ([10 x i8], [10 x i8]* @gv_0, i64 0, i64 0), i8* getelementptr inbounds ([48 x i8], [48 x i8]* @gv_1, i64 0, i64 0), i32 41, i8* getelementptr inbounds ([15 x i8], [15 x i8]* @gv_2, i64 0, i64 0))
br label LBL_6
LBL_6:
%11 = call i64 @FUNC(i64 %0)
br label LBL_7
LBL_7:
%12 = and i64 %arg3, 4294967295
%13 = and i64 %2, 4294967295
%14 = call i64 @FUNC(i64 %0, i64 %13, i64 %12)
ret i64 %14
uselistorder i64 %0, { 2, 3, 1, 0 }
uselistorder i64 4294967295, { 1, 0 }
} | 1 |
BinRealVul | dwt_decode97_int_3613 | dwt_decode97_int | define i64 @FUNC(i32* %arg1, i64* %arg2) local_unnamed_addr {
LBL_0:
%0 = alloca i64
%storemerge.reg2mem = alloca i32
%storemerge323.reg2mem = alloca i32
%indvars.iv30.reg2mem = alloca i64
%sv_0.120.reg2mem = alloca i32
%sv_1.121.reg2mem = alloca i32
%sv_0.0.lcssa.reg2mem = alloca i32
%sv_0.017.reg2mem = alloca i32
%sv_1.018.reg2mem = alloca i32
%storemerge513.reg2mem = alloca i32
%indvars.iv.reg2mem = alloca i64
%sv_2.110.reg2mem = alloca i32
%sv_3.111.reg2mem = alloca i32
%sv_2.0.lcssa.reg2mem = alloca i32
%sv_2.08.reg2mem = alloca i32
%sv_3.09.reg2mem = alloca i32
%storemerge227.reg2mem = alloca i32
%.reg2mem = alloca i64
%storemerge7.reg2mem = alloca i32
%rdi = alloca i64, align 8
%1 = load i64, i64* %0
%2 = ptrtoint i32* %arg1 to i64
%3 = bitcast i64* %rdi to i32*
%4 = mul i64 %1, 4294967296
%sext = add i64 %4, -4294967296
%5 = ashr exact i64 %sext, 29
%6 = add i64 %2, 4
%7 = add i64 %5, %6
%8 = inttoptr i64 %7 to i32*
%9 = load i32, i32* %8, align 4
%10 = add i64 %2, 8
%11 = add i64 %5, %10
%12 = inttoptr i64 %11 to i32*
%13 = load i32, i32* %12, align 4
%14 = add i64 %2, 168
%15 = inttoptr i64 %14 to i64*
%16 = load i64, i64* %15, align 8
%17 = mul i32 %13, %9
%18 = zext i32 %17 to i64
store i32 0, i32* %storemerge7.reg2mem
br label LBL_1
LBL_1:
%storemerge7.reload = load i32, i32* %storemerge7.reg2mem
%19 = sext i32 %storemerge7.reload to i64
%20 = icmp slt i64 %19, %18
%21 = add i32 %storemerge7.reload, 1
store i32 %21, i32* %storemerge7.reg2mem
br i1 %20, label LBL_1, label LBL_2
LBL_2:
%22 = trunc i64 %1 to i32
%23 = ptrtoint i64* %arg2 to i64
%24 = add i64 %16, 20
%25 = icmp eq i32 %22, 0
store i64 0, i64* %.reg2mem
store i32 0, i32* %storemerge227.reg2mem
br i1 %25, label LBL_25, label LBL_3
LBL_3:
%storemerge227.reload = load i32, i32* %storemerge227.reg2mem
%.reload = load i64, i64* %.reg2mem
%26 = mul i64 %.reload, 8
%27 = add i64 %26, %6
%28 = inttoptr i64 %27 to i32*
%29 = load i32, i32* %28, align 4
%30 = add i64 %26, %10
%31 = inttoptr i64 %30 to i32*
%32 = load i32, i32* %31, align 4
%33 = add i64 %26, %2
%34 = add i64 %33, 88
%35 = inttoptr i64 %34 to i32*
%36 = load i32, i32* %35, align 4
%37 = icmp sgt i32 %32, 0
br i1 %37, label LBL_4, label LBL_15
LBL_4:
%38 = add i64 %33, 84
%39 = inttoptr i64 %38 to i32*
%40 = load i32, i32* %39, align 4
%41 = sext i32 %40 to i64
%42 = mul i64 %41, 4
%43 = add i64 %42, %24
%44 = icmp slt i32 %40, %29
%45 = sub i32 1, %40
%46 = icmp slt i32 %45, %29
%47 = add i32 %40, %29
%48 = zext i32 %40 to i64
%49 = icmp sgt i32 %29, 0
%wide.trip.count = zext i32 %29 to i64
store i32 0, i32* %storemerge513.reg2mem
br label LBL_13
LBL_5:
%sv_2.08.reload = load i32, i32* %sv_2.08.reg2mem
%sv_3.09.reload = load i32, i32* %sv_3.09.reg2mem
%50 = add i32 %sv_2.08.reload, %92
%51 = sext i32 %50 to i64
%52 = mul i64 %51, 4
%53 = add i64 %52, %23
%54 = inttoptr i64 %53 to i32*
%55 = load i32, i32* %54, align 4
%56 = add i32 %55, 32768
%57 = sext i32 %sv_3.09.reload to i64
%58 = mul i64 %57, 4
%59 = add i64 %58, %43
%60 = ashr i32 %56, 16
%61 = inttoptr i64 %59 to i32*
store i32 %60, i32* %61, align 4
%62 = add i32 %sv_3.09.reload, 2
%63 = add i32 %sv_2.08.reload, 1
%64 = icmp slt i32 %62, %29
store i32 %62, i32* %sv_3.09.reg2mem
store i32 %63, i32* %sv_2.08.reg2mem
store i32 %63, i32* %sv_2.0.lcssa.reg2mem
br i1 %64, label LBL_5, label LBL_6
LBL_6:
br i1 %46, label LBL_7, label LBL_9
LBL_7:
%sv_2.0.lcssa.reload = load i32, i32* %sv_2.0.lcssa.reg2mem
%65 = mul i32 %storemerge513.reload, %9
store i32 %45, i32* %sv_3.111.reg2mem
store i32 %sv_2.0.lcssa.reload, i32* %sv_2.110.reg2mem
br label LBL_8
LBL_8:
%sv_2.110.reload = load i32, i32* %sv_2.110.reg2mem
%sv_3.111.reload = load i32, i32* %sv_3.111.reg2mem
%66 = add i32 %sv_2.110.reload, %65
%67 = sext i32 %66 to i64
%68 = mul i64 %67, 4
%69 = add i64 %68, %23
%70 = sext i32 %sv_3.111.reload to i64
%71 = mul i64 %70, 4
%72 = add i64 %71, %43
%73 = inttoptr i64 %69 to i32*
%74 = load i32, i32* %73, align 4
%75 = inttoptr i64 %72 to i32*
store i32 %74, i32* %75, align 4
%76 = add i32 %sv_3.111.reload, 2
%77 = add i32 %sv_2.110.reload, 1
%78 = icmp slt i32 %76, %29
store i32 %76, i32* %sv_3.111.reg2mem
store i32 %77, i32* %sv_2.110.reg2mem
br i1 %78, label LBL_8, label LBL_9
LBL_9:
%79 = call i64 @FUNC(i64 %24, i64 %48, i32 %47)
br i1 %49, label LBL_10, label LBL_12
LBL_10:
%80 = mul i32 %storemerge513.reload, %9
store i64 0, i64* %indvars.iv.reg2mem
br label LBL_11
LBL_11:
%indvars.iv.reload = load i64, i64* %indvars.iv.reg2mem
%81 = mul i64 %indvars.iv.reload, 4
%82 = add i64 %81, %43
%83 = trunc i64 %indvars.iv.reload to i32
%84 = add i32 %80, %83
%85 = sext i32 %84 to i64
%86 = mul i64 %85, 4
%87 = add i64 %86, %23
%88 = inttoptr i64 %82 to i32*
%89 = load i32, i32* %88, align 4
%90 = inttoptr i64 %87 to i32*
store i32 %89, i32* %90, align 4
%indvars.iv.next = add nuw nsw i64 %indvars.iv.reload, 1
%exitcond = icmp eq i64 %indvars.iv.next, %wide.trip.count
store i64 %indvars.iv.next, i64* %indvars.iv.reg2mem
br i1 %exitcond, label LBL_12, label LBL_11
LBL_12:
%91 = add nuw nsw i32 %storemerge513.reload, 1
%exitcond29 = icmp eq i32 %91, %32
store i32 %91, i32* %storemerge513.reg2mem
br i1 %exitcond29, label LBL_15, label LBL_13
LBL_13:
%storemerge513.reload = load i32, i32* %storemerge513.reg2mem
store i32 0, i32* %sv_2.0.lcssa.reg2mem
br i1 %44, label LBL_5.lr.ph, label LBL_6
LBL_14:
%92 = mul i32 %storemerge513.reload, %9
store i32 %40, i32* %sv_3.09.reg2mem
store i32 0, i32* %sv_2.08.reg2mem
br label LBL_5
LBL_15:
%93 = icmp sgt i32 %29, 0
br i1 %93, label LBL_16, label LBL_24
LBL_16:
%94 = sext i32 %36 to i64
%95 = mul i64 %94, 4
%96 = add i64 %95, %24
%97 = icmp slt i32 %36, %32
%98 = sub i32 1, %36
%99 = icmp slt i32 %98, %32
%100 = add i32 %36, %32
%101 = zext i32 %36 to i64
%wide.trip.count32 = zext i32 %32 to i64
store i32 0, i32* %storemerge323.reg2mem
br label LBL_23
LBL_17:
%sv_0.017.reload = load i32, i32* %sv_0.017.reg2mem
%sv_1.018.reload = load i32, i32* %sv_1.018.reg2mem
%102 = mul i32 %sv_0.017.reload, %9
%103 = add i32 %102, %storemerge323.reload
%104 = sext i32 %103 to i64
%105 = mul i64 %104, 4
%106 = add i64 %105, %23
%107 = inttoptr i64 %106 to i32*
%108 = load i32, i32* %107, align 4
%109 = add i32 %108, 32768
%110 = sext i32 %sv_1.018.reload to i64
%111 = mul i64 %110, 4
%112 = add i64 %111, %96
%113 = ashr i32 %109, 16
%114 = inttoptr i64 %112 to i32*
store i32 %113, i32* %114, align 4
%115 = add i32 %sv_1.018.reload, 2
%116 = add i32 %sv_0.017.reload, 1
%117 = icmp slt i32 %115, %32
store i32 %115, i32* %sv_1.018.reg2mem
store i32 %116, i32* %sv_0.017.reg2mem
store i32 %116, i32* %sv_0.0.lcssa.reg2mem
br i1 %117, label LBL_17, label LBL_18
LBL_18:
%sv_0.0.lcssa.reload = load i32, i32* %sv_0.0.lcssa.reg2mem
store i32 %98, i32* %sv_1.121.reg2mem
store i32 %sv_0.0.lcssa.reload, i32* %sv_0.120.reg2mem
br i1 %99, label LBL_19, label LBL_20
LBL_19:
%sv_0.120.reload = load i32, i32* %sv_0.120.reg2mem
%sv_1.121.reload = load i32, i32* %sv_1.121.reg2mem
%118 = mul i32 %sv_0.120.reload, %9
%119 = add i32 %118, %storemerge323.reload
%120 = sext i32 %119 to i64
%121 = mul i64 %120, 4
%122 = add i64 %121, %23
%123 = sext i32 %sv_1.121.reload to i64
%124 = mul i64 %123, 4
%125 = add i64 %124, %96
%126 = inttoptr i64 %122 to i32*
%127 = load i32, i32* %126, align 4
%128 = inttoptr i64 %125 to i32*
store i32 %127, i32* %128, align 4
%129 = add i32 %sv_1.121.reload, 2
%130 = add i32 %sv_0.120.reload, 1
%131 = icmp slt i32 %129, %32
store i32 %129, i32* %sv_1.121.reg2mem
store i32 %130, i32* %sv_0.120.reg2mem
br i1 %131, label LBL_19, label LBL_20
LBL_20:
%132 = call i64 @FUNC(i64 %24, i64 %101, i32 %100)
store i64 0, i64* %indvars.iv30.reg2mem
br i1 %37, label LBL_21, label LBL_22
LBL_21:
%indvars.iv30.reload = load i64, i64* %indvars.iv30.reg2mem
%133 = mul i64 %indvars.iv30.reload, 4
%134 = add i64 %133, %96
%135 = trunc i64 %indvars.iv30.reload to i32
%136 = mul i32 %9, %135
%137 = add i32 %136, %storemerge323.reload
%138 = sext i32 %137 to i64
%139 = mul i64 %138, 4
%140 = add i64 %139, %23
%141 = inttoptr i64 %134 to i32*
%142 = load i32, i32* %141, align 4
%143 = inttoptr i64 %140 to i32*
store i32 %142, i32* %143, align 4
%indvars.iv.next31 = add nuw nsw i64 %indvars.iv30.reload, 1
%exitcond33 = icmp eq i64 %indvars.iv.next31, %wide.trip.count32
store i64 %indvars.iv.next31, i64* %indvars.iv30.reg2mem
br i1 %exitcond33, label LBL_22, label LBL_21
LBL_22:
%144 = add nuw nsw i32 %storemerge323.reload, 1
%exitcond34 = icmp eq i32 %144, %29
store i32 %144, i32* %storemerge323.reg2mem
br i1 %exitcond34, label LBL_24, label LBL_23
LBL_23:
%storemerge323.reload = load i32, i32* %storemerge323.reg2mem
store i32 %36, i32* %sv_1.018.reg2mem
store i32 0, i32* %sv_0.017.reg2mem
store i32 0, i32* %sv_0.0.lcssa.reg2mem
br i1 %97, label LBL_17, label LBL_18
LBL_24:
%145 = add i32 %storemerge227.reload, 1
%146 = load i32, i32* %3, align 8
%147 = zext i32 %146 to i64
%148 = sext i32 %145 to i64
%149 = icmp slt i64 %148, %147
store i64 %148, i64* %.reg2mem
store i32 %145, i32* %storemerge227.reg2mem
br i1 %149, label LBL_3, label LBL_25
LBL_25:
store i32 0, i32* %storemerge.reg2mem
br label LBL_26
LBL_26:
%storemerge.reload = load i32, i32* %storemerge.reg2mem
%150 = sext i32 %storemerge.reload to i64
%151 = icmp slt i64 %150, %18
%152 = add i32 %storemerge.reload, 1
store i32 %152, i32* %storemerge.reg2mem
br i1 %151, label LBL_26, label LBL_27
LBL_27:
ret i64 %18
uselistorder i32 %storemerge.reload, { 1, 0 }
uselistorder i32 %storemerge323.reload, { 1, 2, 3, 0 }
uselistorder i32 %storemerge513.reload, { 1, 2, 3, 0 }
uselistorder i32 %40, { 0, 3, 1, 4, 2, 5 }
uselistorder i32 %36, { 0, 3, 1, 4, 2, 5 }
uselistorder i64 %33, { 1, 0 }
uselistorder i32 %32, { 6, 7, 1, 0, 4, 5, 2, 3 }
uselistorder i32 %29, { 1, 4, 7, 8, 2, 3, 0, 5, 6 }
uselistorder i64 %26, { 2, 1, 0 }
uselistorder i64 %24, { 2, 0, 3, 1 }
uselistorder i32 %storemerge7.reload, { 1, 0 }
uselistorder i64 %18, { 1, 0, 2 }
uselistorder i32 %9, { 0, 1, 2, 5, 3, 4, 6 }
uselistorder i32* %storemerge7.reg2mem, { 2, 0, 1 }
uselistorder i64* %.reg2mem, { 2, 0, 1 }
uselistorder i32* %storemerge227.reg2mem, { 2, 0, 1 }
uselistorder i32* %sv_3.09.reg2mem, { 2, 1, 0 }
uselistorder i32* %sv_2.08.reg2mem, { 2, 1, 0 }
uselistorder i32* %sv_2.0.lcssa.reg2mem, { 2, 0, 1 }
uselistorder i32* %sv_3.111.reg2mem, { 1, 0, 2 }
uselistorder i32* %sv_2.110.reg2mem, { 1, 0, 2 }
uselistorder i64* %indvars.iv.reg2mem, { 1, 0, 2 }
uselistorder i32* %sv_1.018.reg2mem, { 1, 2, 0 }
uselistorder i32* %sv_0.017.reg2mem, { 1, 2, 0 }
uselistorder i32* %sv_0.0.lcssa.reg2mem, { 2, 0, 1 }
uselistorder i32* %sv_1.121.reg2mem, { 2, 0, 1 }
uselistorder i32* %sv_0.120.reg2mem, { 2, 0, 1 }
uselistorder i64* %indvars.iv30.reg2mem, { 2, 0, 1 }
uselistorder i32* %storemerge.reg2mem, { 2, 0, 1 }
uselistorder i64 (i64, i64, i32)* @sr_1d97_int, { 1, 0 }
uselistorder i32 32768, { 1, 0 }
uselistorder i32 0, { 0, 2, 3, 1, 10, 6, 5, 4, 9, 11, 7, 12, 8 }
uselistorder label LBL_21, { 1, 0 }
uselistorder label LBL_19, { 1, 0 }
uselistorder label LBL_18, { 1, 0 }
uselistorder label LBL_8, { 1, 0 }
uselistorder label LBL_6, { 1, 0 }
uselistorder label LBL_3, { 1, 0 }
} | 0 |
BinRealVul | ext4_link_17554 | ext4_link | define i64 @FUNC(i64* %arg1, i64* %arg2, i64* %arg3) local_unnamed_addr {
LBL_0:
%0 = alloca i64
%rax.0.reg2mem = alloca i64
%1 = load i64, i64* %0
%sv_0 = alloca i32, align 4
store i32 0, i32* %sv_0, align 4
%2 = trunc i64 %1 to i32
%3 = icmp slt i32 %2, 65000
store i64 4294967265, i64* %rax.0.reg2mem
br i1 %3, label LBL_1, label LBL_6
LBL_1:
%4 = ptrtoint i64* %arg3 to i64
%5 = ptrtoint i64* %arg2 to i64
%6 = ptrtoint i64* %arg1 to i64
%7 = add i64 %6, 12
%8 = inttoptr i64 %7 to i32*
%9 = add i64 %6, 4
%10 = add i64 %5, 8
%11 = inttoptr i64 %10 to i32*
br label LBL_2
LBL_2:
%12 = call i64 @FUNC(i64 %5, i64 2)
%13 = icmp ult i64 %12, -1000
store i64 %12, i64* %rax.0.reg2mem
br i1 %13, label LBL_3, label LBL_6
LBL_3:
store i32 0, i32* %8, align 4
%14 = call i64 @FUNC(i64 %12, i64 %6)
%15 = call i64 @FUNC(i64 %9)
%16 = call i64 @FUNC(i64 %12, i64 %4, i64 %6)
%17 = trunc i64 %16 to i32
%18 = call i64 @FUNC(i64 %12)
%19 = icmp eq i32 %17, -28
%20 = icmp eq i1 %19, false
br i1 %20, label LBL_5, label LBL_4
LBL_4:
%21 = load i32, i32* %11, align 4
%22 = zext i32 %21 to i64
%23 = call i64 @FUNC(i64 %22, i32* nonnull %sv_0)
%24 = trunc i64 %23 to i32
%25 = icmp eq i32 %24, 0
br i1 %25, label LBL_5, label LBL_2
LBL_5:
%26 = and i64 %16, 4294967295
store i64 %26, i64* %rax.0.reg2mem
br label LBL_6
LBL_6:
%rax.0.reload = load i64, i64* %rax.0.reg2mem
ret i64 %rax.0.reload
uselistorder i64 %12, { 1, 3, 2, 0, 4 }
uselistorder i64 %6, { 2, 0, 1, 3 }
uselistorder i64 %5, { 1, 0 }
uselistorder i64* %rax.0.reg2mem, { 0, 3, 1, 2 }
uselistorder label LBL_6, { 2, 0, 1 }
uselistorder label LBL_2, { 1, 0 }
} | 1 |
BinRealVul | rpcrdma_max_call_header_size_5940 | rpcrdma_max_call_header_size | define i64 @FUNC(i64 %arg1) local_unnamed_addr {
LBL_0:
%0 = mul i64 %arg1, 512
%1 = or i64 %0, 32
%2 = add i64 %1, 1032
%3 = and i64 %2, 4294966824
ret i64 %3
} | 0 |
BinRealVul | test_enabled_1243 | test_enabled | define i64 @FUNC() local_unnamed_addr {
LBL_0:
%indvars.iv.reg2mem = alloca i64
%indvars.iv4.reg2mem = alloca i64
%0 = call i64 @FUNC(i64 4210761)
%1 = call i64 @FUNC(i64* nonnull @gv_0)
%2 = urem i64 %1, 256
%3 = icmp eq i64 %2, 0
%4 = zext i1 %3 to i64
%5 = call i64 @FUNC(i64 %4)
store i64 0, i64* %indvars.iv4.reg2mem
br label LBL_1
LBL_1:
%indvars.iv4.reload = load i64, i64* %indvars.iv4.reg2mem
%6 = call i64 @FUNC(i64 ptrtoint (i64* @gv_0 to i64))
%7 = call i64 @FUNC(i64 0, i64 %indvars.iv4.reload, i64 150)
%8 = call i64 @FUNC(i64* nonnull @gv_0, i64 0)
%9 = urem i64 %8, 256
%10 = call i64 @FUNC(i64 %9)
%11 = call i64 @FUNC(i64* nonnull @gv_0)
%12 = urem i64 %11, 256
%13 = call i64 @FUNC(i64 %12)
%indvars.iv.next5 = add nuw nsw i64 %indvars.iv4.reload, 1
%exitcond6 = icmp eq i64 %indvars.iv.next5, 10
store i64 %indvars.iv.next5, i64* %indvars.iv4.reg2mem
store i64 0, i64* %indvars.iv.reg2mem
br i1 %exitcond6, label LBL_2, label LBL_1
LBL_2:
%indvars.iv.reload = load i64, i64* %indvars.iv.reg2mem
%14 = call i64 @FUNC(i64 ptrtoint (i64* @gv_0 to i64))
%15 = call i64 @FUNC(i64 0, i64 %indvars.iv.reload, i64 4294967146)
%16 = call i64 @FUNC(i64* nonnull @gv_0, i64 0)
%17 = urem i64 %16, 256
%18 = icmp eq i64 %17, 0
%19 = zext i1 %18 to i64
%20 = call i64 @FUNC(i64 %19)
%indvars.iv.next = add nuw nsw i64 %indvars.iv.reload, 1
%exitcond = icmp eq i64 %indvars.iv.next, 10
store i64 %indvars.iv.next, i64* %indvars.iv.reg2mem
br i1 %exitcond, label LBL_3, label LBL_2
LBL_3:
ret i64 %20
uselistorder i64* %indvars.iv4.reg2mem, { 1, 0, 2 }
uselistorder i64* %indvars.iv.reg2mem, { 2, 0, 1 }
uselistorder i64 10, { 1, 0 }
uselistorder i64 1, { 3, 2, 4, 0, 1 }
uselistorder i64 (i64*, i64)* @throttle_is_valid, { 1, 0 }
uselistorder i64 (i64, i64, i64)* @set_cfg_value, { 1, 0 }
uselistorder i64 (i64)* @g_assert, { 3, 2, 1, 0 }
uselistorder i64 (i64*)* @throttle_enabled, { 1, 0 }
uselistorder i64* @gv_0, { 2, 0, 1, 4, 3 }
uselistorder i64 (i64)* @throttle_config_init, { 2, 1, 0 }
uselistorder i32 1, { 2, 1, 3, 4, 0 }
uselistorder label LBL_2, { 1, 0 }
} | 0 |
BinRealVul | ssl3_read_n_18946 | ssl3_read_n | define i64 @FUNC(i64* %arg1, i64 %arg2, i64 %arg3, i64 %arg4) local_unnamed_addr {
LBL_0:
%rax.0.reg2mem = alloca i64
%storemerge.reg2mem = alloca i32
%sv_0.122.reg2mem = alloca i64
%sv_1.023.reg2mem = alloca i32
%.reg2mem59 = alloca i32
%.pre-phi.reg2mem = alloca i32
%.reg2mem57 = alloca i32
%.pre-phi40.reg2mem = alloca i32*
%.reg2mem55 = alloca i32
%.pre-phi36.reg2mem = alloca i32*
%.reg2mem = alloca i64
%0 = trunc i64 %arg2 to i32
%sext = mul i64 %arg2, 4294967296
%1 = ashr exact i64 %sext, 32
%2 = icmp eq i32 %0, 0
%3 = icmp slt i32 %0, 0
%4 = icmp eq i1 %3, false
%5 = icmp eq i1 %2, false
%6 = icmp eq i1 %4, %5
br i1 %6, label LBL_2, label LBL_1
LBL_1:
%7 = and i64 %1, 4294967295
store i64 %7, i64* %rax.0.reg2mem
br label LBL_31
LBL_2:
%8 = ptrtoint i64* %arg1 to i64
%9 = icmp eq i64* %arg1, null
%10 = icmp eq i1 %9, false
br i1 %10, label LBL_4, label LBL_3
LBL_3:
%11 = call i64 @FUNC(i64 %8)
%12 = trunc i64 %11 to i32
%13 = icmp eq i32 %12, 0
%14 = icmp eq i1 %13, false
store i64 4294967295, i64* %rax.0.reg2mem
br i1 %14, label LBL_4, label LBL_31
LBL_4:
%15 = add i64 %8, 8
%16 = inttoptr i64 %15 to i32*
%17 = load i32, i32* %16, align 4
%18 = trunc i64 %arg4 to i32
%19 = icmp eq i32 %18, 0
%20 = icmp eq i1 %19, false
br i1 %20, label LBL_4.LBL_10_crit_edge, label LBL_6
LBL_5:
%.pre33 = add i64 %8, 16
%.pre35 = inttoptr i64 %.pre33 to i32*
store i32* %.pre35, i32** %.pre-phi36.reg2mem
br label LBL_10
LBL_6:
%21 = icmp eq i32 %17, 0
%22 = icmp eq i1 %21, false
%.pre41 = add i64 %8, 12
%.pre43 = inttoptr i64 %.pre41 to i32*
br i1 %22, label LBL_6.LBL_9_crit_edge, label LBL_8
LBL_7:
%.pre51 = load i32, i32* %.pre43, align 4
%phitmp54 = sext i32 %.pre51 to i64
store i64 %phitmp54, i64* %.reg2mem
br label LBL_9
LBL_8:
store i32 0, i32* %.pre43, align 4
store i64 0, i64* %.reg2mem
br label LBL_9
LBL_9:
%.reload = load i64, i64* %.reg2mem
%23 = add i64 %.reload, %8
%24 = inttoptr i64 %15 to i64*
store i64 %23, i64* %24, align 8
%25 = add i64 %8, 16
%26 = inttoptr i64 %25 to i32*
store i32 0, i32* %26, align 4
store i32* %26, i32** %.pre-phi36.reg2mem
br label LBL_10
LBL_10:
%.pre-phi36.reload = load i32*, i32** %.pre-phi36.reg2mem
%27 = call i64 @FUNC(i64 %8)
%28 = trunc i64 %27 to i32
%29 = icmp ne i32 %28, 0
%30 = icmp sgt i32 %17, 0
%or.cond13.not = icmp eq i1 %30, %29
%31 = trunc i64 %1 to i32
%32 = icmp slt i32 %17, %31
%or.cond = icmp eq i1 %32, %or.cond13.not
%33 = sext i32 %17 to i64
%sv_0.0 = select i1 %or.cond, i64 %33, i64 %1
%34 = trunc i64 %sv_0.0 to i32
%35 = icmp slt i32 %17, %34
%36 = load i32, i32* %.pre-phi36.reload, align 4
br i1 %35, label LBL_12, label LBL_11
LBL_11:
%37 = add i32 %36, %34
store i32 %37, i32* %.pre-phi36.reload, align 4
%38 = sub i32 %17, %34
store i32 %38, i32* %16, align 4
%39 = add i64 %8, 12
%40 = inttoptr i64 %39 to i32*
%41 = load i32, i32* %40, align 4
%42 = add i32 %41, %34
store i32 %42, i32* %40, align 4
%43 = and i64 %sv_0.0, 4294967295
store i64 %43, i64* %rax.0.reg2mem
br label LBL_31
LBL_12:
%44 = inttoptr i64 %15 to i64*
%45 = load i64, i64* %44, align 8
%46 = icmp eq i64 %45, %8
br i1 %46, label LBL_12.LBL_15_crit_edge, label LBL_14
LBL_13:
%.pre37 = add i64 %8, 12
%.pre39 = inttoptr i64 %.pre37 to i32*
%.pre52 = load i32, i32* %.pre39, align 4
store i32 %.pre52, i32* %.reg2mem55
store i32* %.pre39, i32** %.pre-phi40.reg2mem
store i32 %36, i32* %.reg2mem57
br label LBL_15
LBL_14:
%47 = add i32 %36, %17
%48 = inttoptr i64 %45 to i64*
%49 = call i64* @memmove(i64* %arg1, i64* %48, i32 %47)
store i64 %8, i64* %44, align 8
%50 = add i64 %8, 12
%51 = inttoptr i64 %50 to i32*
store i32 %36, i32* %51, align 4
%.pre = load i32, i32* %.pre-phi36.reload, align 4
store i32 %36, i32* %.reg2mem55
store i32* %51, i32** %.pre-phi40.reg2mem
store i32 %.pre, i32* %.reg2mem57
br label LBL_15
LBL_15:
%.reload58 = load i32, i32* %.reg2mem57
%.reload56 = load i32, i32* %.reg2mem55
%52 = sub i32 %.reload58, %.reload56
%53 = zext i32 %52 to i64
%54 = icmp sgt i64 %sv_0.0, %53
br i1 %54, label LBL_16, label LBL_17
LBL_16:
%55 = call i64 @FUNC(i64 1, i64 0)
store i64 4294967295, i64* %rax.0.reg2mem
br label LBL_31
LBL_17:
%.pre-phi40.reload = load i32*, i32** %.pre-phi40.reg2mem
%56 = add i64 %8, 36
%57 = inttoptr i64 %56 to i32*
%58 = load i32, i32* %57, align 4
%59 = icmp eq i32 %58, 0
%60 = icmp eq i1 %59, false
store i32 %34, i32* %.pre-phi.reg2mem
br i1 %60, label LBL_18, label LBL_19
LBL_18:
%sext5 = mul i64 %arg3, 4294967296
%61 = ashr exact i64 %sext5, 32
%62 = trunc i64 %61 to i32
%63 = icmp slt i32 %62, %34
%spec.select = select i1 %63, i64 %sv_0.0, i64 %61
%64 = icmp sgt i64 %spec.select, %53
%65 = zext i32 %52 to i64
%spec.select17 = select i1 %64, i64 %65, i64 %spec.select
%.pre53 = trunc i64 %spec.select17 to i32
store i32 %.pre53, i32* %.pre-phi.reg2mem
br label LBL_19
LBL_19:
%.pre-phi.reload = load i32, i32* %.pre-phi.reg2mem
%66 = add i64 %8, 24
%67 = inttoptr i64 %66 to i64*
%68 = add i64 %8, 20
%69 = inttoptr i64 %68 to i32*
%70 = sext i32 %36 to i64
%71 = add i64 %70, %8
store i32 %34, i32* %.reg2mem59
store i32 %17, i32* %sv_1.023.reg2mem
store i64 %sv_0.0, i64* %sv_0.122.reg2mem
br label LBL_20
LBL_20:
%sv_0.122.reload = load i64, i64* %sv_0.122.reg2mem
%sv_1.023.reload = load i32, i32* %sv_1.023.reg2mem
%.reload60 = load i32, i32* %.reg2mem59
%72 = call i64 @FUNC()
%73 = load i64, i64* %67, align 8
%74 = icmp eq i64 %73, 0
br i1 %74, label LBL_22, label LBL_21
LBL_21:
store i32 1, i32* %69, align 4
%75 = sub i32 %.pre-phi.reload, %sv_1.023.reload
%76 = zext i32 %75 to i64
%77 = sext i32 %sv_1.023.reload to i64
%78 = add i64 %71, %77
%79 = load i64, i64* %67, align 8
%80 = call i64 @FUNC(i64 %79, i64 %78, i64 %76)
%81 = trunc i64 %80 to i32
store i32 %81, i32* %storemerge.reg2mem
br label LBL_23
LBL_22:
%82 = call i64 @FUNC(i64 1, i64 2)
store i32 -1, i32* %storemerge.reg2mem
br label LBL_23
LBL_23:
%storemerge.reload = load i32, i32* %storemerge.reg2mem
%83 = icmp eq i32 %storemerge.reload, 0
%84 = icmp slt i32 %storemerge.reload, 0
%85 = icmp eq i1 %84, false
%86 = icmp eq i1 %83, false
%87 = icmp eq i1 %85, %86
br i1 %87, label LBL_29, label LBL_24
LBL_24:
store i32 %sv_1.023.reload, i32* %16, align 4
%88 = add i64 %8, 32
%89 = inttoptr i64 %88 to i32*
%90 = load i32, i32* %89, align 4
%91 = and i32 %90, 4
%92 = icmp eq i32 %91, 0
br i1 %92, label LBL_28, label LBL_25
LBL_25:
%93 = call i64 @FUNC(i64 %8)
%94 = trunc i64 %93 to i32
%95 = icmp eq i32 %94, 0
%96 = icmp eq i1 %95, false
br i1 %96, label LBL_28, label LBL_26
LBL_26:
%97 = sub i32 0, %36
%98 = icmp eq i32 %sv_1.023.reload, %97
%99 = icmp eq i1 %98, false
br i1 %99, label LBL_28, label LBL_27
LBL_27:
%100 = call i64 @FUNC(i64 %8)
br label LBL_28
LBL_28:
%101 = zext i32 %storemerge.reload to i64
store i64 %101, i64* %rax.0.reg2mem
br label LBL_31
LBL_29:
%102 = add i32 %storemerge.reload, %sv_1.023.reload
%103 = call i64 @FUNC(i64 %8)
%104 = trunc i64 %103 to i32
%105 = icmp ne i32 %104, 0
%106 = icmp slt i32 %102, %.reload60
%or.cond16 = icmp eq i1 %106, %105
%107 = sext i32 %102 to i64
%spec.select18 = select i1 %or.cond16, i64 %107, i64 %sv_0.122.reload
%108 = trunc i64 %spec.select18 to i32
%109 = icmp slt i32 %102, %108
store i32 %108, i32* %.reg2mem59
store i32 %102, i32* %sv_1.023.reg2mem
store i64 %spec.select18, i64* %sv_0.122.reg2mem
br i1 %109, label LBL_20, label LBL_30
LBL_30:
%.pre29 = load i32, i32* %.pre-phi40.reload, align 4
%phitmp = and i64 %spec.select18, 4294967295
%110 = add i32 %.pre29, %108
store i32 %110, i32* %.pre-phi40.reload, align 4
%111 = sub i32 %102, %108
store i32 %111, i32* %16, align 4
%112 = load i32, i32* %.pre-phi36.reload, align 4
%113 = add i32 %112, %108
store i32 %113, i32* %.pre-phi36.reload, align 4
store i32 0, i32* %69, align 4
store i64 %phitmp, i64* %rax.0.reg2mem
br label LBL_31
LBL_31:
%rax.0.reload = load i64, i64* %rax.0.reg2mem
ret i64 %rax.0.reload
uselistorder i32 %108, { 3, 1, 2, 0, 4 }
uselistorder i64 %spec.select18, { 1, 0, 2 }
uselistorder i32 %102, { 1, 0, 2, 4, 3 }
uselistorder i32 %storemerge.reload, { 2, 3, 0, 1 }
uselistorder i32 %sv_1.023.reload, { 2, 4, 3, 1, 0 }
uselistorder i32* %.pre-phi40.reload, { 1, 0 }
uselistorder i64 %45, { 1, 0 }
uselistorder i32 %36, { 6, 5, 1, 4, 3, 0, 2 }
uselistorder i32 %34, { 0, 5, 1, 3, 4, 2, 6 }
uselistorder i64 %sv_0.0, { 0, 1, 4, 3, 2 }
uselistorder i32* %.pre-phi36.reload, { 2, 1, 0, 3, 4 }
uselistorder i32* %.pre43, { 1, 0 }
uselistorder i32 %17, { 0, 1, 4, 5, 6, 3, 2, 7 }
uselistorder i32* %16, { 1, 2, 0, 3 }
uselistorder i64 %15, { 1, 0, 2 }
uselistorder i64 %8, { 14, 11, 13, 12, 0, 16, 15, 17, 10, 6, 3, 5, 9, 18, 8, 1, 2, 4, 19, 7 }
uselistorder i32 %0, { 1, 0 }
uselistorder i32* %.pre-phi.reg2mem, { 0, 2, 1 }
uselistorder i32* %.reg2mem59, { 1, 0, 2 }
uselistorder i32* %sv_1.023.reg2mem, { 1, 0, 2 }
uselistorder i64* %sv_0.122.reg2mem, { 1, 0, 2 }
uselistorder i32* %storemerge.reg2mem, { 0, 2, 1 }
uselistorder i64* %rax.0.reg2mem, { 0, 4, 5, 6, 3, 1, 2 }
uselistorder i64 (i64, i64)* @SSLerr, { 1, 0 }
uselistorder i64 1, { 1, 2, 0 }
uselistorder i64 (i64)* @SSL_IS_DTLS, { 2, 1, 0 }
uselistorder i64 12, { 2, 1, 3, 0 }
uselistorder i64 16, { 1, 0 }
uselistorder i1 false, { 2, 3, 4, 0, 5, 6, 7, 8, 9, 10, 1 }
uselistorder i32 0, { 8, 3, 2, 4, 5, 6, 7, 9, 0, 10, 11, 1, 12, 13, 14, 15, 16, 17, 18 }
uselistorder i64 32, { 2, 0, 1 }
uselistorder label LBL_31, { 2, 1, 3, 4, 0, 5 }
uselistorder label LBL_20, { 1, 0 }
uselistorder label LBL_15, { 1, 0 }
uselistorder label LBL_10, { 1, 0 }
uselistorder label LBL_9, { 1, 0 }
} | 1 |
BinRealVul | text_console_init_14310 | text_console_init | define i64 @FUNC(i64* %arg1, i64* %arg2) local_unnamed_addr {
LBL_0:
%storemerge.reg2mem = alloca i64
%storemerge2.in.reg2mem = alloca i64
%sv_0.0.reg2mem = alloca i32
%sv_1.0.reg2mem = alloca i32
%0 = call i64 @FUNC(i64 16)
%1 = load i32, i32* @gv_0, align 4
%2 = icmp eq i32 %1, 128
%3 = icmp eq i1 %2, false
br i1 %3, label LBL_2, label LBL_1
LBL_1:
%4 = load %_IO_FILE*, %_IO_FILE** @gv_1, align 8
%5 = call i32 @fwrite(i64* bitcast ([24 x i8]* @gv_2 to i64*), i32 1, i32 23, %_IO_FILE* %4)
call void @exit(i32 1)
unreachable
LBL_2:
%6 = ptrtoint i64* %arg1 to i64
%7 = sext i32 %1 to i64
%8 = mul i64 %7, 8
%9 = add i64 %8, ptrtoint (i64* @gv_3 to i64)
%10 = inttoptr i64 %9 to i64*
store i64 %0, i64* %10, align 8
store i32 ptrtoint (i32* @gv_4 to i32), i32* @gv_0, align 4
%11 = call i64 @FUNC(i64 %6, i8* getelementptr inbounds ([6 x i8], [6 x i8]* @gv_5, i64 0, i64 0), i64 0)
%12 = trunc i64 %11 to i32
%13 = icmp eq i32 %12, 0
%14 = icmp eq i1 %13, false
store i32 %12, i32* %sv_1.0.reg2mem
br i1 %14, label LBL_4, label LBL_3
LBL_3:
%15 = call i64 @FUNC(i64 %6, i8* getelementptr inbounds ([5 x i8], [5 x i8]* @gv_6, i64 0, i64 0), i64 0)
%16 = trunc i64 %15 to i32
%17 = mul i32 %16, 8
store i32 %17, i32* %sv_1.0.reg2mem
br label LBL_4
LBL_4:
%sv_1.0.reload = load i32, i32* %sv_1.0.reg2mem
%18 = call i64 @FUNC(i64 %6, i8* getelementptr inbounds ([7 x i8], [7 x i8]* @gv_7, i64 0, i64 0), i64 0)
%19 = trunc i64 %18 to i32
%20 = icmp eq i32 %19, 0
%21 = icmp eq i1 %20, false
store i32 %19, i32* %sv_0.0.reg2mem
br i1 %21, label LBL_6, label LBL_5
LBL_5:
%22 = call i64 @FUNC(i64 %6, i8* getelementptr inbounds ([5 x i8], [5 x i8]* @gv_8, i64 0, i64 0), i64 0)
%23 = trunc i64 %22 to i32
%24 = mul i32 %23, 16
store i32 %24, i32* %sv_0.0.reg2mem
br label LBL_6
LBL_6:
%sv_0.0.reload = load i32, i32* %sv_0.0.reg2mem
%25 = icmp ne i32 %sv_1.0.reload, 0
%26 = icmp eq i32 %sv_0.0.reload, 0
%27 = icmp eq i1 %26, false
%or.cond = icmp eq i1 %25, %27
br i1 %or.cond, label LBL_8, label LBL_7
LBL_7:
%28 = call i64 @FUNC(i64 0, i64 0)
store i64 %28, i64* %storemerge2.in.reg2mem
br label LBL_9
LBL_8:
%29 = call i64 @FUNC(i64 0, i64 1)
store i64 %29, i64* %storemerge2.in.reg2mem
br label LBL_9
LBL_9:
%storemerge2.in.reload = load i64, i64* %storemerge2.in.reg2mem
%30 = icmp eq i64 %storemerge2.in.reload, 0
%31 = icmp eq i1 %30, false
br i1 %31, label LBL_11, label LBL_10
LBL_10:
%32 = call i64 @FUNC(i64 %0)
store i64 4294967280, i64* %storemerge.reg2mem
br label LBL_12
LBL_11:
%storemerge2 = inttoptr i64 %storemerge2.in.reload to i32*
%33 = add i64 %storemerge2.in.reload, 8
%34 = inttoptr i64 %33 to i64*
store i64 %0, i64* %34, align 8
store i32 %sv_1.0.reload, i32* %storemerge2, align 4
%35 = add i64 %storemerge2.in.reload, 4
%36 = inttoptr i64 %35 to i32*
store i32 %sv_0.0.reload, i32* %36, align 4
%37 = inttoptr i64 %0 to i64*
store i64 %storemerge2.in.reload, i64* %37, align 8
%38 = add i64 %0, 8
%39 = inttoptr i64 %38 to i64*
store i64 4198863, i64* %39, align 8
store i64 %0, i64* %arg2, align 8
store i64 0, i64* %storemerge.reg2mem
br label LBL_12
LBL_12:
%storemerge.reload = load i64, i64* %storemerge.reg2mem
ret i64 %storemerge.reload
uselistorder i64 %storemerge2.in.reload, { 4, 3, 2, 0, 1 }
uselistorder i32 %sv_1.0.reload, { 1, 0 }
uselistorder i64 %6, { 1, 2, 0, 3 }
uselistorder i64 %0, { 1, 2, 3, 4, 0, 5 }
uselistorder i64* %storemerge2.in.reg2mem, { 0, 2, 1 }
uselistorder i64* %storemerge.reg2mem, { 0, 2, 1 }
uselistorder i64 (i64, i64)* @new_console, { 1, 0 }
uselistorder i64 (i64, i8*, i64)* @qemu_opt_get_number, { 3, 2, 1, 0 }
uselistorder i64 0, { 0, 1, 10, 12, 11, 13, 2, 3, 14, 4, 5, 15, 6, 7, 16, 8, 9, 17, 18 }
uselistorder i64 8, { 1, 2, 0 }
uselistorder i1 false, { 1, 0, 2, 3, 4 }
uselistorder i32 0, { 0, 3, 4, 5, 1, 2 }
uselistorder i32* @gv_0, { 1, 0 }
} | 1 |
BinRealVul | hpet_time_after_1385 | hpet_time_after | define i64 @FUNC(i64 %arg1, i64 %arg2) local_unnamed_addr {
LBL_0:
%0 = sub i64 %arg2, %arg1
%1 = icmp slt i64 %0, 0
%2 = zext i1 %1 to i64
ret i64 %2
} | 0 |
BinRealVul | qemu_eventfd_3428 | qemu_eventfd | define i64 @FUNC(i64* %arg1) local_unnamed_addr {
LBL_0:
%0 = ptrtoint i64* %arg1 to i64
%1 = trunc i64 %0 to i32
%2 = insertvalue [2 x i32] undef, i32 %1, 0
%3 = call i32 @pipe([2 x i32] %2)
%4 = sext i32 %3 to i64
ret i64 %4
} | 0 |
BinRealVul | qemu_bh_schedule_1617 | qemu_bh_schedule | define i64 @FUNC(i64* %arg1) local_unnamed_addr {
LBL_0:
%rax.0.reg2mem = alloca i64
%0 = ptrtoint i64* %arg1 to i64
%1 = add i64 %0, 8
%2 = inttoptr i64 %1 to i64*
%3 = load i64, i64* %2, align 8
%4 = add i64 %0, 4
%5 = inttoptr i64 %4 to i32*
store i32 0, i32* %5, align 4
%6 = call i64 @FUNC(i64 %0, i64 1)
%7 = trunc i64 %6 to i32
%8 = icmp eq i32 %7, 0
%9 = icmp eq i1 %8, false
store i64 %6, i64* %rax.0.reg2mem
br i1 %9, label LBL_2, label LBL_1
LBL_1:
%10 = call i64 @FUNC(i64 %3)
store i64 %10, i64* %rax.0.reg2mem
br label LBL_2
LBL_2:
%rax.0.reload = load i64, i64* %rax.0.reg2mem
ret i64 %rax.0.reload
} | 0 |
BinRealVul | address_space_update_topology_1190 | address_space_update_topology | define i64 @FUNC(i64* %arg1) local_unnamed_addr {
LBL_0:
%0 = ptrtoint i64* %arg1 to i64
%sv_0 = alloca i64, align 8
%1 = add i64 %0, 8
%2 = inttoptr i64 %1 to i64*
%3 = load i64, i64* %2, align 8
%4 = call i64 @FUNC(i64 %3)
%5 = call i64 @FUNC(i64 %0, i64 0)
%6 = call i64 @FUNC(i64 %0, i64 1)
%7 = call i64 @FUNC(i64* nonnull %sv_0)
%8 = call i64 @FUNC(i64 %0)
ret i64 %8
uselistorder i64 (i64, i64)* @address_space_update_topology_pass, { 1, 0 }
} | 0 |
BinRealVul | alloc_extent_buffer_7681 | alloc_extent_buffer | define i64 @FUNC(i64* %arg1, i64 %arg2, i64 %arg3, i64 %arg4, i64 %arg5) local_unnamed_addr {
LBL_0:
%rax.0.reg2mem = alloca i64
%storemerge4.reg2mem = alloca i64
%sv_0.0.reg2mem = alloca i64
%sv_1.02.reg2mem = alloca i64
%sv_1.0.lcssa.reg2mem = alloca i64
%sv_2.1.lcssa.reg2mem = alloca i32
%sv_3.05.reg2mem = alloca i64
%sv_2.16.reg2mem = alloca i32
%sv_1.07.reg2mem = alloca i64
%sv_1.0.ph.reg2mem = alloca i64
%sv_2.1.ph.reg2mem = alloca i32
%sv_3.0.ph.reg2mem = alloca i64
%0 = ptrtoint i64* %arg1 to i64
%1 = call i64 @FUNC(i64 %arg2, i64 %arg3)
%2 = add i64 %0, 8
%3 = call i64 @FUNC(i64 %2)
%4 = call i64 @FUNC(i64 %0, i64 %arg2)
%5 = icmp eq i64 %4, 0
br i1 %5, label LBL_2, label LBL_1
LBL_1:
%6 = add i64 %4, 8
%7 = call i64 @FUNC(i64 %6)
%8 = call i64 @FUNC(i64 %2)
%9 = inttoptr i64 %4 to i64*
%10 = load i64, i64* %9, align 8
%11 = call i64 @FUNC(i64 %10)
store i64 %4, i64* %rax.0.reg2mem
br label LBL_22
LBL_2:
%12 = call i64 @FUNC(i64 %2)
%13 = call i64 @FUNC(i64 %0, i64 %arg2, i64 %arg3, i64 %arg5)
%14 = icmp eq i64 %13, 0
%15 = icmp eq i1 %14, false
store i64 0, i64* %rax.0.reg2mem
br i1 %15, label LBL_3, label LBL_22
LBL_3:
%16 = udiv i64 %arg2, 4096
%17 = icmp eq i64 %arg4, 0
store i64 %16, i64* %sv_3.0.ph.reg2mem
store i32 1, i32* %sv_2.1.ph.reg2mem
store i64 0, i64* %sv_1.0.ph.reg2mem
br i1 %17, label LBL_5, label LBL_4
LBL_4:
%18 = inttoptr i64 %13 to i64*
store i64 %arg4, i64* %18, align 8
%19 = add nuw nsw i64 %16, 1
%20 = call i64 @FUNC(i64 %arg4)
%21 = call i64 @FUNC(i64 %arg4)
%22 = call i64 @FUNC(i64 %arg4)
%23 = call i64 @FUNC(i64 %arg4, i64 %arg3)
%24 = call i64 @FUNC(i64 %arg4)
%25 = trunc i64 %24 to i32
%26 = urem i32 %25, 256
store i64 %19, i64* %sv_3.0.ph.reg2mem
store i32 %26, i32* %sv_2.1.ph.reg2mem
store i64 1, i64* %sv_1.0.ph.reg2mem
br label LBL_5
LBL_5:
%sv_1.0.ph.reload = load i64, i64* %sv_1.0.ph.reg2mem
%sv_2.1.ph.reload = load i32, i32* %sv_2.1.ph.reg2mem
%27 = icmp ult i64 %sv_1.0.ph.reload, %1
store i32 %sv_2.1.ph.reload, i32* %sv_2.1.lcssa.reg2mem
store i64 %sv_1.0.ph.reload, i64* %sv_1.0.lcssa.reg2mem
br i1 %27, label LBL_6, label LBL_13
LBL_6:
%sv_3.0.ph.reload = load i64, i64* %sv_3.0.ph.reg2mem
%28 = or i64 %arg5, 536870912
%29 = inttoptr i64 %13 to i64*
store i64 %sv_1.0.ph.reload, i64* %sv_1.07.reg2mem
store i32 %sv_2.1.ph.reload, i32* %sv_2.16.reg2mem
store i64 %sv_3.0.ph.reload, i64* %sv_3.05.reg2mem
br label LBL_7
LBL_7:
%sv_3.05.reload = load i64, i64* %sv_3.05.reg2mem
%sv_1.07.reload = load i64, i64* %sv_1.07.reg2mem
%30 = call i64 @FUNC(i64 %arg2, i64 %sv_3.05.reload, i64 %28)
%31 = icmp eq i64 %30, 0
%32 = icmp eq i1 %31, false
br i1 %32, label LBL_9, label LBL_8
LBL_8:
%33 = call i64 @FUNC(i64 1)
store i64 %sv_1.07.reload, i64* %sv_1.02.reg2mem
store i64 0, i64* %sv_0.0.reg2mem
br label LBL_18
LBL_9:
%sv_2.16.reload = load i32, i32* %sv_2.16.reg2mem
%34 = call i64 @FUNC(i64 %30)
%35 = call i64 @FUNC(i64 %30)
%36 = icmp eq i64 %sv_1.07.reload, 0
%37 = icmp eq i1 %36, false
br i1 %37, label LBL_11, label LBL_10
LBL_10:
store i64 %30, i64* %29, align 8
%38 = call i64 @FUNC(i64 %30, i64 %arg3)
br label LBL_12
LBL_11:
%39 = call i64 @FUNC(i64 %30, i64 1)
br label LBL_12
LBL_12:
%40 = call i64 @FUNC(i64 %30)
%41 = trunc i64 %40 to i8
%42 = icmp eq i8 %41, 1
%spec.select = select i1 %42, i32 %sv_2.16.reload, i32 0
%43 = call i64 @FUNC(i64 %30)
%44 = add nuw i64 %sv_1.07.reload, 1
%45 = add i64 %sv_3.05.reload, 1
%46 = icmp ult i64 %44, %1
store i64 %44, i64* %sv_1.07.reg2mem
store i32 %spec.select, i32* %sv_2.16.reg2mem
store i64 %45, i64* %sv_3.05.reg2mem
store i32 %spec.select, i32* %sv_2.1.lcssa.reg2mem
store i64 %44, i64* %sv_1.0.lcssa.reg2mem
br i1 %46, label LBL_7, label LBL_13
LBL_13:
%sv_1.0.lcssa.reload = load i64, i64* %sv_1.0.lcssa.reg2mem
%sv_2.1.lcssa.reload = load i32, i32* %sv_2.1.lcssa.reg2mem
%47 = icmp eq i32 %sv_2.1.lcssa.reload, 0
br i1 %47, label LBL_15, label LBL_14
LBL_14:
%48 = add i64 %13, 16
%49 = call i64 @FUNC(i64 0, i64 %48)
br label LBL_15
LBL_15:
%50 = call i64 @FUNC(i64 %2)
%51 = add i64 %13, 24
%52 = call i64 @FUNC(i64 %0, i64 %arg2, i64 %51)
%53 = icmp eq i64 %52, 0
br i1 %53, label LBL_17, label LBL_16
LBL_16:
%54 = add i64 %52, 8
%55 = call i64 @FUNC(i64 %54)
%56 = call i64 @FUNC(i64 %2)
store i64 %sv_1.0.lcssa.reload, i64* %sv_1.02.reg2mem
store i64 %52, i64* %sv_0.0.reg2mem
br label LBL_18
LBL_17:
%57 = call i64 @FUNC(i64 %2)
%58 = add i64 %13, 8
%59 = call i64 @FUNC(i64 %58)
store i64 %13, i64* %rax.0.reg2mem
br label LBL_22
LBL_18:
%sv_0.0.reload = load i64, i64* %sv_0.0.reg2mem
%60 = add i64 %13, 8
%61 = call i64 @FUNC(i64 %60)
%62 = trunc i64 %61 to i32
%63 = icmp eq i32 %62, 0
%64 = icmp eq i1 %63, false
store i64 %sv_0.0.reload, i64* %rax.0.reg2mem
br i1 %64, label LBL_19, label LBL_22
LBL_19:
%sv_1.02.reload = load i64, i64* %sv_1.02.reg2mem
%65 = icmp ugt i64 %sv_1.02.reload, 1
store i64 1, i64* %storemerge4.reg2mem
br i1 %65, label LBL_20, label LBL_21
LBL_20:
%storemerge4.reload = load i64, i64* %storemerge4.reg2mem
%66 = call i64 @FUNC(i64 %13, i64 %storemerge4.reload)
%67 = call i64 @FUNC(i64 %66)
%68 = add nuw i64 %storemerge4.reload, 1
%exitcond = icmp eq i64 %68, %sv_1.02.reload
store i64 %68, i64* %storemerge4.reg2mem
br i1 %exitcond, label LBL_21, label LBL_20
LBL_21:
%69 = call i64 @FUNC(i64 %13, i64 0)
%70 = call i64 @FUNC(i64 %69)
%71 = call i64 @FUNC(i64 %13)
store i64 %sv_0.0.reload, i64* %rax.0.reg2mem
br label LBL_22
LBL_22:
%rax.0.reload = load i64, i64* %rax.0.reg2mem
ret i64 %rax.0.reload
uselistorder i64 %storemerge4.reload, { 1, 0 }
uselistorder i64 %sv_1.02.reload, { 1, 0 }
uselistorder i64 %sv_0.0.reload, { 1, 0 }
uselistorder i64 %30, { 2, 3, 4, 0, 1, 6, 5, 7 }
uselistorder i64 %sv_1.07.reload, { 1, 2, 0 }
uselistorder i32 %sv_2.1.ph.reload, { 1, 0 }
uselistorder i64 %sv_1.0.ph.reload, { 1, 0, 2 }
uselistorder i64 %16, { 1, 0 }
uselistorder i64 %13, { 5, 4, 6, 7, 0, 2, 3, 1, 8, 9, 10 }
uselistorder i64 %4, { 0, 2, 1, 3 }
uselistorder i64 %2, { 2, 1, 3, 4, 0, 5 }
uselistorder i64 %1, { 1, 0 }
uselistorder i64* %sv_1.07.reg2mem, { 1, 0, 2 }
uselistorder i32* %sv_2.16.reg2mem, { 1, 0, 2 }
uselistorder i64* %sv_3.05.reg2mem, { 1, 0, 2 }
uselistorder i64* %storemerge4.reg2mem, { 2, 0, 1 }
uselistorder i64* %rax.0.reg2mem, { 0, 5, 1, 4, 2, 3 }
uselistorder i32 0, { 2, 3, 0, 4, 5, 1 }
uselistorder i64 (i64)* @PageUptodate, { 1, 0 }
uselistorder i64 (i64, i64)* @set_page_extent_head, { 1, 0 }
uselistorder i64 (i64)* @set_page_extent_mapped, { 1, 0 }
uselistorder i64 1, { 7, 0, 3, 8, 9, 4, 5, 1, 10, 6, 2 }
uselistorder i64 (i64)* @mark_page_accessed, { 2, 1, 0 }
uselistorder i64 (i64)* @spin_unlock, { 3, 2, 1, 0 }
uselistorder i64 (i64)* @atomic_inc, { 2, 1, 0 }
uselistorder i64 (i64)* @spin_lock, { 1, 0 }
uselistorder i64 %arg4, { 4, 3, 2, 1, 0, 6, 5 }
uselistorder i64 %arg3, { 1, 0, 2, 3 }
uselistorder i64 %arg2, { 1, 2, 0, 3, 4, 5 }
uselistorder label LBL_22, { 2, 0, 3, 1, 4 }
uselistorder label LBL_20, { 1, 0 }
uselistorder label LBL_7, { 1, 0 }
} | 1 |
BinRealVul | qemu_shutdown_requested_2161 | qemu_shutdown_requested | define i64 @FUNC() local_unnamed_addr {
LBL_0:
%0 = call i64 @FUNC(i64* nonnull @gv_0, i64 0)
ret i64 %0
} | 0 |
BinRealVul | vp8_peek_si_internal_13370 | vp8_peek_si_internal | define i64 @FUNC(i64* %arg1, i32 %arg2, i64* %arg3, i64 %arg4, i64 %arg5) local_unnamed_addr {
LBL_0:
%storemerge.reg2mem = alloca i64
%sv_0 = alloca i64, align 8
%0 = icmp eq i32 %arg2, 0
%1 = icmp eq i1 %0, false
store i64 1, i64* %storemerge.reg2mem
br i1 %1, label LBL_1, label LBL_9
LBL_1:
%2 = bitcast i64* %arg3 to i32*
store i32 0, i32* %2, align 4
%3 = icmp ult i32 %arg2, 10
store i64 2, i64* %storemerge.reg2mem
br i1 %3, label LBL_9, label LBL_2
LBL_2:
%4 = icmp eq i64 %arg4, 0
%spec.select = select i1 %4, i64* %arg1, i64* %sv_0
%5 = bitcast i64* %spec.select to i8*
%6 = load i8, i8* %5, align 1
%7 = urem i8 %6, 2
%8 = icmp eq i8 %7, 0
%9 = icmp eq i1 %8, false
store i64 2, i64* %storemerge.reg2mem
br i1 %9, label LBL_9, label LBL_3
LBL_3:
%sv_1.0 = ptrtoint i64* %spec.select to i64
store i32 1, i32* %2, align 4
%10 = add i64 %sv_1.0, 3
%11 = inttoptr i64 %10 to i8*
%12 = load i8, i8* %11, align 1
%13 = icmp eq i8 %12, -99
%14 = icmp eq i1 %13, false
store i64 2, i64* %storemerge.reg2mem
br i1 %14, label LBL_9, label LBL_4
LBL_4:
%15 = add i64 %sv_1.0, 4
%16 = inttoptr i64 %15 to i8*
%17 = load i8, i8* %16, align 1
%18 = icmp eq i8 %17, 1
%19 = icmp eq i1 %18, false
store i64 2, i64* %storemerge.reg2mem
br i1 %19, label LBL_9, label LBL_5
LBL_5:
%20 = add i64 %sv_1.0, 5
%21 = inttoptr i64 %20 to i8*
%22 = load i8, i8* %21, align 1
%23 = icmp eq i8 %22, 42
store i64 2, i64* %storemerge.reg2mem
br i1 %23, label LBL_6, label LBL_9
LBL_6:
%24 = ptrtoint i64* %arg3 to i64
%25 = add i64 %sv_1.0, 6
%26 = inttoptr i64 %25 to i8*
%27 = load i8, i8* %26, align 1
%28 = add i64 %sv_1.0, 7
%29 = inttoptr i64 %28 to i8*
%30 = load i8, i8* %29, align 1
%31 = zext i8 %30 to i32
%32 = mul i32 %31, 256
%33 = zext i8 %27 to i32
%.masked = and i32 %32, 16128
%34 = or i32 %.masked, %33
%35 = add i64 %24, 4
%36 = inttoptr i64 %35 to i32*
store i32 %34, i32* %36, align 4
%37 = add i64 %sv_1.0, 8
%38 = inttoptr i64 %37 to i8*
%39 = load i8, i8* %38, align 1
%40 = add i64 %sv_1.0, 9
%41 = inttoptr i64 %40 to i8*
%42 = load i8, i8* %41, align 1
%43 = zext i8 %42 to i32
%44 = mul i32 %43, 256
%45 = zext i8 %39 to i32
%.masked1 = and i32 %44, 16128
%46 = or i32 %.masked1, %45
%47 = add i64 %24, 8
%48 = inttoptr i64 %47 to i32*
store i32 %46, i32* %48, align 4
%49 = icmp eq i32 %46, 0
br i1 %49, label LBL_8, label LBL_7
LBL_7:
%50 = load i32, i32* %36, align 4
%51 = icmp eq i32 %50, 0
%52 = icmp eq i1 %51, false
store i64 0, i64* %storemerge.reg2mem
br i1 %52, label LBL_9, label LBL_8
LBL_8:
store i64 3, i64* %storemerge.reg2mem
br label LBL_9
LBL_9:
%storemerge.reload = load i64, i64* %storemerge.reg2mem
ret i64 %storemerge.reload
uselistorder i64 %sv_1.0, { 5, 6, 1, 0, 2, 3, 4 }
uselistorder i64* %storemerge.reg2mem, { 0, 5, 4, 8, 7, 6, 2, 1, 3 }
uselistorder i64 2, { 4, 3, 2, 1, 0 }
uselistorder i64* %arg3, { 1, 0 }
uselistorder label LBL_9, { 0, 1, 7, 6, 5, 3, 4, 2 }
} | 0 |
BinRealVul | arm_sysctl_init_16347 | arm_sysctl_init | define i64 @FUNC(i64 %arg1, i64 %arg2) local_unnamed_addr {
LBL_0:
%rax.0.reg2mem = alloca i64
%0 = call i64 @FUNC(i64 8)
%1 = icmp eq i64 %0, 0
store i64 0, i64* %rax.0.reg2mem
br i1 %1, label LBL_2, label LBL_1
LBL_1:
%sext = mul i64 %arg1, 4294967296
%2 = ashr exact i64 %sext, 32
%3 = inttoptr i64 %0 to i32*
%4 = trunc i64 %2 to i32
store i32 %4, i32* %3, align 4
%5 = trunc i64 %arg2 to i32
%6 = add i64 %0, 4
%7 = inttoptr i64 %6 to i32*
store i32 %5, i32* %7, align 4
%8 = load i64, i64* @gv_0, align 8
%9 = load i64, i64* @gv_1, align 8
%10 = call i64 @FUNC(i64 0, i64 %9, i64 %8, i64 %0)
%11 = trunc i64 %10 to i32
%12 = and i64 %2, 4294967295
%13 = call i64 @FUNC(i64 %12, i64 4095, i32 %11)
store i64 %13, i64* %rax.0.reg2mem
br label LBL_2
LBL_2:
%rax.0.reload = load i64, i64* %rax.0.reg2mem
ret i64 %rax.0.reload
uselistorder i32 1, { 1, 0 }
uselistorder label LBL_2, { 1, 0 }
} | 1 |
BinRealVul | pts_test_send_authentication_complete_failure_10615 | pts_test_send_authentication_complete_failure | define i64 @FUNC(i8* %arg1) local_unnamed_addr {
LBL_0:
%0 = alloca i64
%storemerge.reg2mem = alloca i64
%1 = load i64, i64* %0
%sv_0 = alloca i8, align 1
%2 = trunc i64 %1 to i8
%3 = add i8 %2, -1
%4 = icmp ugt i8 %3, 3
%5 = icmp eq i8 %2, 5
%6 = icmp eq i1 %5, false
%or.cond = icmp eq i1 %4, %6
store i64 0, i64* %storemerge.reg2mem
br i1 %or.cond, label LBL_2, label LBL_1
LBL_1:
store i8 %2, i8* %sv_0, align 1
%7 = ptrtoint i8* %arg1 to i64
%8 = call i64 @FUNC(i64 %7, i64 6, i8* nonnull %sv_0)
store i64 1, i64* %storemerge.reg2mem
br label LBL_2
LBL_2:
%storemerge.reload = load i64, i64* %storemerge.reg2mem
ret i64 %storemerge.reload
uselistorder i8 %2, { 0, 2, 1 }
uselistorder i64* %storemerge.reg2mem, { 0, 2, 1 }
uselistorder label LBL_2, { 1, 0 }
} | 0 |
BinRealVul | vu_message_read_14522 | vu_message_read | define i64 @FUNC(i32* %arg1, i64 %arg2, i64* %arg3) local_unnamed_addr {
LBL_0:
%0 = alloca i64
%.lcssa.reg2mem = alloca i1
%.lcssa5.reg2mem = alloca i32
%.reg2mem49 = alloca i32
%storemerge19.reg2mem = alloca %cmsghdr*
%.lcssa9.reg2mem = alloca i1
%.lcssa10.reg2mem = alloca i32
%.reg2mem = alloca i32
%1 = load i64, i64* %0
%2 = load i64, i64* %0
%sv_0 = alloca i64, align 8
%sv_1 = alloca i64, align 8
store i64 0, i64* %sv_1, align 8
store i64 0, i64* %sv_0, align 8
%3 = trunc i64 %arg2 to i32
%4 = bitcast i64* %sv_0 to %msghdr*
%5 = call i32 @recvmsg(i32 %3, %msghdr* nonnull %4, i32 0)
%6 = icmp slt i32 %5, 0
%7 = icmp eq i1 %6, false
store i32 %5, i32* %.reg2mem
store i32 %5, i32* %.lcssa10.reg2mem
store i1 true, i1* %.lcssa9.reg2mem
br i1 %7, label LBL_4, label LBL_1
LBL_1:
%8 = call i32* @__errno_location()
%9 = load i32, i32* %8, align 4
%10 = icmp eq i32 %9, 4
br i1 %10, label LBL_2, label LBL_3
LBL_2:
%11 = call i32 @recvmsg(i32 %3, %msghdr* nonnull %4, i32 0)
%12 = icmp slt i32 %11, 0
%13 = icmp eq i1 %12, false
store i32 %11, i32* %.reg2mem
store i32 %11, i32* %.lcssa10.reg2mem
store i1 true, i1* %.lcssa9.reg2mem
br i1 %13, label LBL_4, label LBL_1
LBL_3:
%.reload = load i32, i32* %.reg2mem
%14 = call i32* @__errno_location()
%15 = load i32, i32* %14, align 4
%16 = icmp eq i32 %15, 11
store i32 %.reload, i32* %.lcssa10.reg2mem
store i1 false, i1* %.lcssa9.reg2mem
br i1 %16, label LBL_2, label LBL_4
LBL_4:
%.lcssa9.reload = load i1, i1* %.lcssa9.reg2mem
%.lcssa10.reload = load i32, i32* %.lcssa10.reg2mem
%17 = icmp eq i32 %.lcssa10.reload, 0
%18 = icmp eq i1 %17, false
%19 = icmp eq i1 %.lcssa9.reload, %18
br i1 %19, label LBL_6, label LBL_5
LBL_5:
%20 = ptrtoint i64* %sv_0 to i64
%21 = call i32* @__errno_location()
%22 = load i32, i32* %21, align 4
%23 = call i8* @strerror(i32 %22)
%24 = ptrtoint i8* %23 to i64
%25 = ptrtoint i32* %arg1 to i64
%26 = call i64 @FUNC(i64 %25, i8* getelementptr inbounds ([24 x i8], [24 x i8]* @gv_0, i64 0, i64 0), i64 %24, i64 %20, i64 %2, i64 %1)
unreachable
LBL_6:
%27 = ptrtoint i64* %arg3 to i64
%28 = bitcast i64* %arg3 to i32*
store i32 0, i32* %28, align 4
%29 = bitcast i64* %sv_1 to %cmsghdr*
store %cmsghdr* %29, %cmsghdr** %storemerge19.reg2mem
br label LBL_7
LBL_7:
%storemerge19.reload = load %cmsghdr*, %cmsghdr** %storemerge19.reg2mem
%30 = ptrtoint %cmsghdr* %storemerge19.reload to i64
%31 = add i64 %30, 8
%32 = inttoptr i64 %31 to i32*
%33 = load i32, i32* %32, align 4
%34 = icmp eq i32 %33, 1
%35 = icmp eq i1 %34, false
br i1 %35, label LBL_10, label LBL_8
LBL_8:
%36 = add i64 %30, 12
%37 = inttoptr i64 %36 to i32*
%38 = load i32, i32* %37, align 4
%39 = icmp eq i32 %38, 1
%40 = icmp eq i1 %39, false
br i1 %40, label LBL_10, label LBL_9
LBL_9:
%41 = bitcast %cmsghdr* %storemerge19.reload to i64*
%42 = load i64, i64* %41, align 8
%43 = add i64 %42, -16
%44 = udiv i64 %43, 4
%45 = trunc i64 %44 to i32
store i32 %45, i32* %28, align 4
%46 = add i64 %30, 16
%47 = add i64 %27, 4
%48 = inttoptr i64 %47 to i64*
%49 = inttoptr i64 %46 to i64*
%50 = trunc i64 %43 to i32
%51 = call i64* @memcpy(i64* %48, i64* %49, i32 %50)
br label LBL_11
LBL_10:
%52 = call %cmsghdr* @__cmsg_nxthdr(%msghdr* nonnull %4, %cmsghdr* %storemerge19.reload)
%53 = icmp eq %cmsghdr* %52, null
%54 = icmp eq i1 %53, false
store %cmsghdr* %52, %cmsghdr** %storemerge19.reg2mem
br i1 %54, label LBL_7, label LBL_11
LBL_11:
%55 = add i64 %27, 72
%56 = inttoptr i64 %55 to i64*
%57 = load i64, i64* %56, align 8
%58 = icmp ult i64 %57, 257
br i1 %58, label LBL_13, label LBL_12
LBL_12:
%59 = add i64 %27, 336
%60 = inttoptr i64 %59 to i32*
%61 = load i32, i32* %60, align 4
%62 = zext i32 %61 to i64
%63 = ptrtoint i32* %arg1 to i64
%64 = call i64 @FUNC(i64 %63, i8* getelementptr inbounds ([93 x i8], [93 x i8]* @gv_1, i64 0, i64 0), i64 %62, i64 %57, i64 256, i64 %1)
unreachable
LBL_13:
%65 = icmp eq i64 %57, 0
br i1 %65, label LBL_22, label LBL_14
LBL_14:
%66 = add i64 %27, 80
%67 = inttoptr i64 %66 to i64*
%68 = trunc i64 %57 to i32
%69 = call i32 @read(i32 %3, i64* %67, i32 %68)
%70 = icmp slt i32 %69, 0
%71 = icmp eq i1 %70, false
store i32 %69, i32* %.reg2mem49
store i32 %69, i32* %.lcssa5.reg2mem
store i1 true, i1* %.lcssa.reg2mem
br i1 %71, label LBL_18, label LBL_15
LBL_15:
%72 = call i32* @__errno_location()
%73 = load i32, i32* %72, align 4
%74 = icmp eq i32 %73, 4
br i1 %74, label LBL_16, label LBL_17
LBL_16:
%75 = load i64, i64* %56, align 8
%76 = trunc i64 %75 to i32
%77 = call i32 @read(i32 %3, i64* %67, i32 %76)
%78 = icmp slt i32 %77, 0
%79 = icmp eq i1 %78, false
store i32 %77, i32* %.reg2mem49
store i32 %77, i32* %.lcssa5.reg2mem
store i1 true, i1* %.lcssa.reg2mem
br i1 %79, label LBL_18, label LBL_15
LBL_17:
%.reload50 = load i32, i32* %.reg2mem49
%80 = call i32* @__errno_location()
%81 = load i32, i32* %80, align 4
%82 = icmp eq i32 %81, 11
store i32 %.reload50, i32* %.lcssa5.reg2mem
store i1 false, i1* %.lcssa.reg2mem
br i1 %82, label LBL_16, label LBL_18
LBL_18:
%.lcssa.reload = load i1, i1* %.lcssa.reg2mem
%.lcssa5.reload = load i32, i32* %.lcssa5.reg2mem
%83 = icmp eq i32 %.lcssa5.reload, 0
%84 = icmp eq i1 %83, false
%85 = icmp eq i1 %.lcssa.reload, %84
br i1 %85, label LBL_20, label LBL_19
LBL_19:
%86 = call i32* @__errno_location()
%87 = load i32, i32* %86, align 4
%88 = call i8* @strerror(i32 %87)
%89 = ptrtoint i8* %88 to i64
%90 = ptrtoint i32* %arg1 to i64
%91 = call i64 @FUNC(i64 %90, i8* getelementptr inbounds ([24 x i8], [24 x i8]* @gv_2, i64 0, i64 0), i64 %89, i64 %66, i64 %2, i64 %1)
unreachable
LBL_20:
%92 = sext i32 %.lcssa5.reload to i64
%93 = load i64, i64* %56, align 8
%94 = icmp eq i64 %93, %92
br i1 %94, label LBL_22, label LBL_21
LBL_21:
call void @__assert_fail(i8* getelementptr inbounds ([17 x i8], [17 x i8]* @gv_3, i64 0, i64 0), i8* getelementptr inbounds ([49 x i8], [49 x i8]* @gv_4, i64 0, i64 0), i32 84, i8* getelementptr inbounds ([16 x i8], [16 x i8]* @gv_5, i64 0, i64 0))
br label LBL_22
LBL_22:
ret i64 1
uselistorder i32 %.lcssa5.reload, { 1, 0 }
uselistorder i64* %67, { 1, 0 }
uselistorder i64 %43, { 1, 0 }
uselistorder %cmsghdr* %storemerge19.reload, { 1, 2, 0 }
uselistorder i64 %27, { 0, 2, 1, 3 }
uselistorder %msghdr* %4, { 0, 2, 1 }
uselistorder i32 %3, { 0, 1, 3, 2 }
uselistorder i64* %sv_0, { 1, 0, 2 }
uselistorder i64 %2, { 1, 0 }
uselistorder i64 %1, { 2, 1, 0 }
uselistorder i32* %.reg2mem, { 0, 2, 1 }
uselistorder %cmsghdr** %storemerge19.reg2mem, { 1, 0, 2 }
uselistorder i32* %.reg2mem49, { 0, 2, 1 }
uselistorder i64* %0, { 1, 0 }
uselistorder i32 (i32, i64*, i32)* @read, { 1, 0 }
uselistorder i64 4, { 2, 1, 0, 3 }
uselistorder i64 (i64, i8*, i64, i64, i64, i64)* @vu_panic, { 2, 1, 0 }
uselistorder i8* (i32)* @strerror, { 1, 0 }
uselistorder i32* ()* @__errno_location, { 3, 4, 5, 0, 1, 2 }
uselistorder i32 (i32, %msghdr*, i32)* @recvmsg, { 1, 0 }
uselistorder i32* %arg1, { 2, 1, 0 }
uselistorder label LBL_18, { 1, 0, 2 }
uselistorder label LBL_16, { 1, 0 }
uselistorder label LBL_15, { 1, 0 }
uselistorder label LBL_7, { 1, 0 }
uselistorder label LBL_4, { 1, 0, 2 }
uselistorder label LBL_2, { 1, 0 }
uselistorder label LBL_1, { 1, 0 }
} | 1 |
BinRealVul | _XcursorThemeInherits_11645 | _XcursorThemeInherits | define i64 @FUNC(i64 %arg1) local_unnamed_addr {
LBL_0:
%storemerge.reg2mem = alloca i64
%sv_0.0.reg2mem = alloca i64
%sv_1.1.lcssa.reg2mem = alloca i8*
%sv_2.27.reg2mem = alloca i8*
%sv_1.18.reg2mem = alloca i8*
%.reg2mem16 = alloca i8
%sv_1.0.reg2mem = alloca i8*
%sv_2.1.reg2mem = alloca i8*
%.reg2mem14 = alloca i8
%sv_1.0.ph.in.in.in.reg2mem = alloca i8*
%sv_2.1.ph.reg2mem = alloca i8*
%sv_2.0.reg2mem = alloca i8*
%.reg2mem = alloca i8
%storemerge4.in.in.in.reg2mem = alloca i8*
%storemerge5.reg2mem = alloca i8*
%sv_3 = alloca i64, align 8
%sv_4 = alloca i64, align 8
%0 = icmp eq i64 %arg1, 0
%1 = icmp eq i1 %0, false
store i64 0, i64* %storemerge.reg2mem
br i1 %1, label LBL_1, label LBL_26
LBL_1:
%2 = inttoptr i64 %arg1 to i8*
%3 = call %_IO_FILE* @fopen(i8* %2, i8* getelementptr inbounds ([2 x i8], [2 x i8]* @gv_0, i64 0, i64 0))
%4 = icmp eq %_IO_FILE* %3, null
store i64 0, i64* %storemerge.reg2mem
br i1 %4, label LBL_26, label LBL_2
LBL_2:
%5 = bitcast i64* %sv_4 to i8*
%6 = call i8* @fgets(i8* nonnull %5, i32 8192, %_IO_FILE* nonnull %3)
%7 = icmp eq i8* %6, null
%8 = icmp eq i1 %7, false
store i64 0, i64* %sv_0.0.reg2mem
br i1 %8, label LBL_3, label LBL_25
LBL_3:
%9 = bitcast i64* %sv_3 to i8*
br label LBL_4
LBL_4:
%10 = call i32 @strncmp(i8* nonnull %5, i8* getelementptr inbounds ([9 x i8], [9 x i8]* @gv_1, i64 0, i64 0), i32 8)
%11 = icmp eq i32 %10, 0
%12 = icmp eq i1 %11, false
store i8* %9, i8** %storemerge5.reg2mem
br i1 %12, label LBL_5, label LBL_7
LBL_5:
%13 = call i8* @fgets(i8* nonnull %5, i32 8192, %_IO_FILE* nonnull %3)
%14 = icmp eq i8* %13, null
%15 = icmp eq i1 %14, false
store i64 0, i64* %sv_0.0.reg2mem
br i1 %15, label LBL_4, label LBL_25
LBL_6:
%16 = ptrtoint i8* %storemerge5.reload to i64
%17 = add i64 %16, 1
%18 = inttoptr i64 %17 to i8*
store i8* %18, i8** %storemerge5.reg2mem
br label LBL_7
LBL_7:
%storemerge5.reload = load i8*, i8** %storemerge5.reg2mem
%19 = load i8, i8* %storemerge5.reload, align 1
store i8* %storemerge5.reload, i8** %storemerge4.in.in.in.reg2mem
switch i8 %19, label LBL_5 [
i8 32, label LBL_6
i8 61, label LBL_8
]
LBL_8:
%storemerge4.in.in.in.reload = load i8*, i8** %storemerge4.in.in.in.reg2mem
%storemerge4.in.in = ptrtoint i8* %storemerge4.in.in.in.reload to i64
%storemerge4.in = add i64 %storemerge4.in.in, 1
%storemerge4 = inttoptr i64 %storemerge4.in to i8*
%20 = load i8, i8* %storemerge4, align 1
%21 = icmp eq i8 %20, 32
store i8* %storemerge4, i8** %storemerge4.in.in.in.reg2mem
br i1 %21, label LBL_8, label LBL_9
LBL_9:
%22 = call i32 @strlen(i8* %storemerge4)
%23 = call i64* @malloc(i32 %22)
%24 = ptrtoint i64* %23 to i64
%25 = icmp eq i64* %23, null
store i64 %24, i64* %sv_0.0.reg2mem
br i1 %25, label LBL_25, label LBL_10
LBL_10:
%26 = bitcast i64* %23 to i8*
%27 = load i8, i8* %storemerge4, align 1
%28 = icmp eq i8 %27, 0
%29 = icmp eq i1 %28, false
store i8 %27, i8* %.reg2mem16
store i8* %26, i8** %sv_1.18.reg2mem
store i8* %storemerge4, i8** %sv_2.27.reg2mem
store i8* %26, i8** %sv_1.1.lcssa.reg2mem
br i1 %29, label LBL_12.preheader, label LBL_24
LBL_11:
%30 = ptrtoint i8* %sv_2.0.reload to i64
%31 = add i64 %30, 1
%32 = inttoptr i64 %31 to i8*
%.pre = load i8, i8* %32, align 1
store i8 %.pre, i8* %.reg2mem
store i8* %32, i8** %sv_2.0.reg2mem
br label LBL_12
LBL_12:
%sv_2.0.reload = load i8*, i8** %sv_2.0.reg2mem
%.reload = load i8, i8* %.reg2mem
%33 = sext i8 %.reload to i64
%34 = and i64 %33, 4294967295
%35 = call i64 @FUNC(i64 %34)
%36 = trunc i64 %35 to i32
%37 = icmp eq i32 %36, 0
%38 = icmp eq i1 %37, false
br i1 %38, label LBL_11, label LBL_13
LBL_13:
%39 = load i8, i8* %sv_2.0.reload, align 1
%40 = sext i8 %39 to i64
%41 = and i64 %40, 4294967295
%42 = call i64 @FUNC(i64 %41)
%43 = trunc i64 %42 to i32
%44 = icmp eq i32 %43, 0
%45 = icmp eq i1 %44, false
br i1 %45, label LBL_11, label LBL_14
LBL_14:
%46 = load i8, i8* %sv_2.0.reload, align 1
%47 = icmp eq i8 %46, 0
store i8* %sv_1.18.reload, i8** %sv_1.1.lcssa.reg2mem
br i1 %47, label LBL_24, label LBL_15
LBL_15:
%48 = bitcast i8* %sv_1.18.reload to i64*
%49 = icmp eq i64* %23, %48
store i8 %46, i8* %.reg2mem14
store i8* %sv_2.0.reload, i8** %sv_2.1.reg2mem
store i8* %sv_1.18.reload, i8** %sv_1.0.reg2mem
br i1 %49, label LBL_19, label LBL_16
LBL_16:
store i8 58, i8* %sv_1.18.reload, align 1
store i8* %sv_2.0.reload, i8** %sv_2.1.ph.reg2mem
store i8* %sv_1.18.reload, i8** %sv_1.0.ph.in.in.in.reg2mem
br label LBL_18
LBL_17:
%50 = ptrtoint i8* %sv_2.1.reload to i64
%51 = add i64 %50, 1
%52 = inttoptr i64 %51 to i8*
%53 = load i8, i8* %sv_2.1.reload, align 1
store i8 %53, i8* %sv_1.0.reload, align 1
store i8* %52, i8** %sv_2.1.ph.reg2mem
store i8* %sv_1.0.reload, i8** %sv_1.0.ph.in.in.in.reg2mem
br label LBL_18
LBL_18:
%sv_1.0.ph.in.in.in.reload = load i8*, i8** %sv_1.0.ph.in.in.in.reg2mem
%sv_2.1.ph.reload = load i8*, i8** %sv_2.1.ph.reg2mem
%sv_1.0.ph.in.in = ptrtoint i8* %sv_1.0.ph.in.in.in.reload to i64
%sv_1.0.ph.in = add i64 %sv_1.0.ph.in.in, 1
%sv_1.0.ph = inttoptr i64 %sv_1.0.ph.in to i8*
%.pr = load i8, i8* %sv_2.1.ph.reload, align 1
store i8 %.pr, i8* %.reg2mem14
store i8* %sv_2.1.ph.reload, i8** %sv_2.1.reg2mem
store i8* %sv_1.0.ph, i8** %sv_1.0.reg2mem
br label LBL_19
LBL_19:
%sv_1.0.reload = load i8*, i8** %sv_1.0.reg2mem
%sv_2.1.reload = load i8*, i8** %sv_2.1.reg2mem
%.reload15 = load i8, i8* %.reg2mem14
%54 = icmp eq i8 %.reload15, 0
br i1 %54, label LBL_20, label LBL_21
LBL_20:
%55 = load i8, i8* %sv_2.1.reload, align 1
%56 = icmp eq i8 %55, 0
%57 = icmp eq i1 %56, false
store i8 %55, i8* %.reg2mem16
store i8* %sv_1.0.reload, i8** %sv_1.18.reg2mem
store i8* %sv_2.1.reload, i8** %sv_2.27.reg2mem
store i8* %sv_1.0.reload, i8** %sv_1.1.lcssa.reg2mem
br i1 %57, label LBL_12.preheader, label LBL_24
LBL_21:
%58 = sext i8 %.reload15 to i64
%59 = and i64 %58, 4294967295
%60 = call i64 @FUNC(i64 %59)
%61 = trunc i64 %60 to i32
%62 = icmp eq i32 %61, 0
%63 = icmp eq i1 %62, false
br i1 %63, label LBL_20, label LBL_22
LBL_22:
%64 = load i8, i8* %sv_2.1.reload, align 1
%65 = sext i8 %64 to i64
%66 = and i64 %65, 4294967295
%67 = call i64 @FUNC(i64 %66)
%68 = trunc i64 %67 to i32
%69 = icmp eq i32 %68, 0
br i1 %69, label LBL_17, label LBL_20
LBL_23:
%sv_2.27.reload = load i8*, i8** %sv_2.27.reg2mem
%sv_1.18.reload = load i8*, i8** %sv_1.18.reg2mem
%.reload17 = load i8, i8* %.reg2mem16
store i8 %.reload17, i8* %.reg2mem
store i8* %sv_2.27.reload, i8** %sv_2.0.reg2mem
br label LBL_12
LBL_24:
%sv_1.1.lcssa.reload = load i8*, i8** %sv_1.1.lcssa.reg2mem
store i8 0, i8* %sv_1.1.lcssa.reload, align 1
store i64 %24, i64* %sv_0.0.reg2mem
br label LBL_25
LBL_25:
%sv_0.0.reload = load i64, i64* %sv_0.0.reg2mem
%70 = call i32 @fclose(%_IO_FILE* nonnull %3)
store i64 %sv_0.0.reload, i64* %storemerge.reg2mem
br label LBL_26
LBL_26:
%storemerge.reload = load i64, i64* %storemerge.reg2mem
ret i64 %storemerge.reload
uselistorder i8* %sv_1.18.reload, { 0, 1, 4, 2, 3 }
uselistorder i8* %sv_2.1.reload, { 1, 0, 4, 3, 2 }
uselistorder i8* %sv_2.0.reload, { 1, 0, 4, 3, 2 }
uselistorder i8* %storemerge4, { 0, 3, 2, 1, 4 }
uselistorder i8* %5, { 2, 1, 0 }
uselistorder %_IO_FILE* %3, { 1, 2, 0, 3 }
uselistorder i8** %storemerge5.reg2mem, { 0, 2, 1 }
uselistorder i8** %storemerge4.in.in.in.reg2mem, { 2, 0, 1 }
uselistorder i8* %.reg2mem, { 1, 0, 2 }
uselistorder i8** %sv_2.0.reg2mem, { 1, 0, 2 }
uselistorder i8* %.reg2mem14, { 0, 2, 1 }
uselistorder i8** %sv_2.1.reg2mem, { 0, 2, 1 }
uselistorder i8** %sv_1.0.reg2mem, { 0, 2, 1 }
uselistorder i8* %.reg2mem16, { 0, 2, 1 }
uselistorder i8** %sv_1.18.reg2mem, { 0, 2, 1 }
uselistorder i8** %sv_2.27.reg2mem, { 0, 2, 1 }
uselistorder i8** %sv_1.1.lcssa.reg2mem, { 0, 2, 1, 3 }
uselistorder i64* %sv_0.0.reg2mem, { 0, 3, 4, 1, 2 }
uselistorder i8 58, { 1, 0 }
uselistorder i64 (i64)* @XcursorWhite, { 1, 0 }
uselistorder i64 (i64)* @XcursorSep, { 1, 0 }
uselistorder i8 0, { 2, 5, 3, 4, 0, 1 }
uselistorder i8 32, { 2, 1, 0 }
uselistorder i8* null, { 1, 0 }
uselistorder i8* (i8*, i32, %_IO_FILE*)* @fgets, { 1, 0 }
uselistorder i32 8192, { 1, 0 }
uselistorder i1 false, { 2, 5, 3, 4, 1, 7, 6, 0, 8 }
uselistorder label LBL_26, { 1, 0, 2 }
uselistorder label LBL_25, { 3, 2, 0, 1 }
uselistorder label LBL_12.preheader, { 1, 0 }
uselistorder label LBL_20, { 2, 1, 0 }
uselistorder label LBL_18, { 1, 0 }
uselistorder label LBL_8, { 1, 0 }
uselistorder label LBL_7, { 1, 0 }
uselistorder label LBL_4, { 1, 0 }
} | 1 |
BinRealVul | _process_request_metaflags_12846 | _process_request_metaflags | define i64 @FUNC(i64* %arg1, i64 %arg2) local_unnamed_addr {
LBL_0:
%0 = alloca i64
%rax.0.reg2mem = alloca i64
%rdi.0.ph8.reg2mem = alloca i64
%rcx.0.ph7.reg2mem = alloca i64
%sv_0.1.ph6.reg2mem = alloca i32
%rdi.0.ph.reg2mem = alloca i64
%rcx.0.ph.reg2mem = alloca i64
%sv_0.1.ph.reg2mem = alloca i32
%sv_1.1.ph.reg2mem = alloca i8*
%sv_0.1.ph.be.reg2mem = alloca i32
%sv_1.1.ph.be.reg2mem = alloca i8*
%1 = load i64, i64* %0
%2 = load i64, i64* %0
%3 = ptrtoint i64* %arg1 to i64
%sext = mul i64 %arg2, 4294967296
%4 = ashr exact i64 %sext, 32
%5 = add i64 %3, 24
%6 = inttoptr i64 %5 to i32*
%7 = load i32, i32* %6, align 4
%8 = zext i32 %7 to i64
%9 = icmp slt i64 %4, %8
br i1 %9, label LBL_2, label LBL_1
LBL_1:
store i64 0, i64* %arg1, align 8
store i64 0, i64* %rax.0.reg2mem
br label LBL_15
LBL_2:
%10 = add i64 %3, 8
%11 = inttoptr i64 %10 to i64*
%12 = load i64, i64* %11, align 8
%13 = add i64 %3, 16
%14 = inttoptr i64 %13 to i64*
%15 = load i64, i64* %14, align 8
%16 = ashr exact i64 %sext, 30
%17 = add i64 %15, %16
%18 = inttoptr i64 %17 to i32*
%19 = load i32, i32* %18, align 4
%20 = sext i32 %19 to i64
%21 = add i64 %12, %20
%22 = inttoptr i64 %21 to i8*
%23 = add i64 %3, 28
%24 = inttoptr i64 %23 to i32*
%25 = load i32, i32* %24, align 4
%26 = sext i32 %25 to i64
%27 = add i64 %12, -2
%28 = add i64 %27, %26
store i8* %22, i8** %sv_1.1.ph.reg2mem
store i32 0, i32* %sv_0.1.ph.reg2mem
store i64 %15, i64* %rcx.0.ph.reg2mem
store i64 %3, i64* %rdi.0.ph.reg2mem
br label LBL_10
LBL_3:
switch i32 %sv_0.1.ph6.reload, label LBL_12 [
i32 0, label LBL_4
i32 1, label LBL_9
]
LBL_4:
%29 = load i8, i8* %sv_1.1.ph.reload, align 1
%30 = icmp eq i8 %29, 32
%31 = icmp eq i1 %30, false
br i1 %31, label LBL_7, label LBL_5
LBL_5:
%32 = add i64 %50, 1
%33 = inttoptr i64 %32 to i8*
store i8* %33, i8** %sv_1.1.ph.be.reg2mem
store i32 0, i32* %sv_0.1.ph.be.reg2mem
br label LBL_6
LBL_6:
%sv_0.1.ph.be.reload = load i32, i32* %sv_0.1.ph.be.reg2mem
%sv_1.1.ph.be.reload = load i8*, i8** %sv_1.1.ph.be.reg2mem
store i8* %sv_1.1.ph.be.reload, i8** %sv_1.1.ph.reg2mem
store i32 %sv_0.1.ph.be.reload, i32* %sv_0.1.ph.reg2mem
store i64 %rcx.0.ph7.reload, i64* %rcx.0.ph.reg2mem
store i64 %rdi.0.ph8.reload, i64* %rdi.0.ph.reg2mem
br label LBL_10
LBL_7:
%.off = add i8 %29, -65
%34 = icmp ult i8 %.off, 58
store i64 4294967295, i64* %rax.0.reg2mem
br i1 %34, label LBL_8, label LBL_15
LBL_8:
%35 = sext i8 %29 to i64
%36 = add nsw i64 %35, 4294967231
%37 = and i64 %36, 4294967295
%38 = call i64 @FUNC(i8* getelementptr inbounds ([27 x i8], [27 x i8]* @gv_0, i64 0, i64 0), i8* getelementptr inbounds ([27 x i8], [27 x i8]* @gv_1, i64 0, i64 0), i64 %37, i64 %rcx.0.ph7.reload, i64 %2, i64 %1)
%39 = load i8, i8* %sv_1.1.ph.reload, align 1
%40 = sext i8 %39 to i64
%41 = add nsw i64 %40, 4294967231
%42 = and i64 %41, 4294967295
%43 = urem i64 %41, 64
%44 = shl i64 1, %43
%45 = or i64 %44, ptrtoint ([27 x i8]* @gv_0 to i64)
store i64 %45, i64* %arg1, align 8
store i32 1, i32* %sv_0.1.ph6.reg2mem
store i64 %42, i64* %rcx.0.ph7.reg2mem
store i64 ptrtoint ([27 x i8]* @gv_0 to i64), i64* %rdi.0.ph8.reg2mem
br label LBL_105
LBL_9:
%46 = load i8, i8* %sv_1.1.ph.reload, align 1
%47 = icmp eq i8 %46, 32
%48 = add i64 %50, 1
%49 = inttoptr i64 %48 to i8*
%sv_1.0 = select i1 %47, i8* %sv_1.1.ph.reload, i8* %49
%not. = icmp ne i1 %47, true
%sv_0.0 = zext i1 %not. to i32
store i8* %sv_1.0, i8** %sv_1.1.ph.be.reg2mem
store i32 %sv_0.0, i32* %sv_0.1.ph.be.reg2mem
br label LBL_6
LBL_10:
%rdi.0.ph.reload = load i64, i64* %rdi.0.ph.reg2mem
%rcx.0.ph.reload = load i64, i64* %rcx.0.ph.reg2mem
%sv_0.1.ph.reload = load i32, i32* %sv_0.1.ph.reg2mem
%sv_1.1.ph.reload = load i8*, i8** %sv_1.1.ph.reg2mem
%50 = ptrtoint i8* %sv_1.1.ph.reload to i64
%51 = icmp eq i64 %28, %50
%52 = icmp eq i1 %51, false
store i32 %sv_0.1.ph.reload, i32* %sv_0.1.ph6.reg2mem
store i64 %rcx.0.ph.reload, i64* %rcx.0.ph7.reg2mem
store i64 %rdi.0.ph.reload, i64* %rdi.0.ph8.reg2mem
br label LBL_105
LBL_11:
%rdi.0.ph8.reload = load i64, i64* %rdi.0.ph8.reg2mem
%rcx.0.ph7.reload = load i64, i64* %rcx.0.ph7.reg2mem
%sv_0.1.ph6.reload = load i32, i32* %sv_0.1.ph6.reg2mem
br label LBL_12
LBL_12:
br i1 %52, label LBL_3, label LBL_13
LBL_13:
%53 = urem i64 %rdi.0.ph8.reload, 281474976710657
%54 = icmp eq i64 %53, 0
store i64 0, i64* %rax.0.reg2mem
br i1 %54, label LBL_15, label LBL_14
LBL_14:
%55 = add i64 %3, 32
%56 = inttoptr i64 %55 to i8*
store i8 1, i8* %56, align 1
store i64 0, i64* %rax.0.reg2mem
br label LBL_15
LBL_15:
%rax.0.reload = load i64, i64* %rax.0.reg2mem
ret i64 %rax.0.reload
uselistorder i64 %rcx.0.ph7.reload, { 1, 0 }
uselistorder i64 %50, { 2, 0, 1 }
uselistorder i8* %sv_1.1.ph.reload, { 2, 3, 1, 4, 0 }
uselistorder i8 %29, { 1, 0, 2 }
uselistorder i64 %12, { 1, 0 }
uselistorder i64 %sext, { 1, 0 }
uselistorder i64 %3, { 1, 0, 2, 4, 3, 5 }
uselistorder i8** %sv_1.1.ph.be.reg2mem, { 2, 0, 1 }
uselistorder i32* %sv_0.1.ph.be.reg2mem, { 2, 0, 1 }
uselistorder i32* %sv_0.1.ph6.reg2mem, { 0, 2, 1 }
uselistorder i64* %rcx.0.ph7.reg2mem, { 0, 2, 1 }
uselistorder i64* %rdi.0.ph8.reg2mem, { 0, 2, 1 }
uselistorder i64* %rax.0.reg2mem, { 0, 3, 2, 1, 4 }
uselistorder i64* %0, { 1, 0 }
uselistorder [27 x i8]* @gv_0, { 1, 0 }
uselistorder i64 4294967295, { 1, 2, 0 }
uselistorder i64 1, { 1, 0, 2 }
uselistorder i1 false, { 1, 0 }
uselistorder i8 32, { 1, 0 }
uselistorder i32 0, { 1, 2, 0 }
uselistorder i64 32, { 1, 0 }
uselistorder label LBL_15, { 2, 1, 0, 3 }
uselistorder label LBL_6, { 1, 0 }
} | 1 |
BinRealVul | TrimImage_8910 | TrimImage | define i64 @FUNC(i64* %arg1, i64* %arg2) local_unnamed_addr {
LBL_0:
%0 = alloca i64
%1 = alloca i32
%rax.0.reg2mem = alloca i64
%2 = load i64, i64* %0
%3 = load i32, i32* %1
%sv_0 = alloca i32, align 4
%4 = icmp eq i64* %arg1, null
%5 = icmp eq i1 %4, false
br i1 %5, label LBL_2, label LBL_1
LBL_1:
call void @__assert_fail(i8* getelementptr inbounds ([30 x i8], [30 x i8]* @gv_0, i64 0, i64 0), i8* getelementptr inbounds ([43 x i8], [43 x i8]* @gv_1, i64 0, i64 0), i32 86, i8* getelementptr inbounds ([10 x i8], [10 x i8]* @gv_2, i64 0, i64 0))
br label LBL_2
LBL_2:
%6 = trunc i64 %2 to i32
%7 = icmp eq i32 %6, 305419896
br i1 %7, label LBL_4, label LBL_3
LBL_3:
call void @__assert_fail(i8* getelementptr inbounds ([40 x i8], [40 x i8]* @gv_3, i64 0, i64 0), i8* getelementptr inbounds ([43 x i8], [43 x i8]* @gv_1, i64 0, i64 0), i32 87, i8* getelementptr inbounds ([10 x i8], [10 x i8]* @gv_2, i64 0, i64 0))
br label LBL_4
LBL_4:
%8 = ptrtoint i64* %arg1 to i64
%9 = add i64 %8, 4
%10 = inttoptr i64 %9 to i32*
%11 = load i32, i32* %10, align 4
%12 = icmp eq i32 %11, 0
br i1 %12, label LBL_6, label LBL_5
LBL_5:
%13 = add i64 %8, 8
%14 = inttoptr i64 %13 to i64*
%15 = load i64, i64* %14, align 8
%16 = call i64 @FUNC()
%17 = call i64 @FUNC(i64 0, i64 %16, i8* getelementptr inbounds ([3 x i8], [3 x i8]* @gv_4, i64 0, i64 0), i64 %15)
br label LBL_6
LBL_6:
%18 = ptrtoint i64* %arg2 to i64
%19 = call i64 @FUNC(i64 %8, i64 %18)
%20 = trunc i64 %19 to i32
store i32 %20, i32* %sv_0, align 4
%21 = icmp ne i32 %20, 0
%22 = icmp eq i32 %3, 0
%23 = icmp eq i1 %22, false
%or.cond = icmp eq i1 %23, %21
br i1 %or.cond, label LBL_9, label LBL_7
LBL_7:
%24 = call i64 @FUNC(i64 %8, i64 1, i64 1, i64 1, i64 %18)
%25 = icmp eq i64 %24, 0
%26 = icmp eq i1 %25, false
store i64 0, i64* %rax.0.reg2mem
br i1 %26, label LBL_8, label LBL_10
LBL_8:
%27 = add i64 %24, 36
%28 = inttoptr i64 %27 to i32*
store i32 0, i32* %28, align 4
%29 = add i64 %24, 32
%30 = inttoptr i64 %29 to i32*
store i32 1, i32* %30, align 4
%31 = call i64 @FUNC(i64 %24, i64 %18)
%32 = add i64 %8, 24
%33 = inttoptr i64 %32 to i64*
%34 = load i64, i64* %33, align 8
%35 = add i64 %8, 16
%36 = inttoptr i64 %35 to i64*
%37 = load i64, i64* %36, align 8
%38 = add i64 %24, 16
%39 = inttoptr i64 %38 to i64*
store i64 %37, i64* %39, align 8
%40 = add i64 %24, 24
%41 = inttoptr i64 %40 to i64*
store i64 %34, i64* %41, align 8
%42 = inttoptr i64 %40 to i32*
store i32 -1, i32* %42, align 4
%43 = add i64 %24, 28
%44 = inttoptr i64 %43 to i32*
store i32 -1, i32* %44, align 4
store i64 %24, i64* %rax.0.reg2mem
br label LBL_10
LBL_9:
%45 = bitcast i32* %sv_0 to i64*
%46 = call i64 @FUNC(i64 %8, i64* nonnull %45, i64 %18)
store i64 %46, i64* %rax.0.reg2mem
br label LBL_10
LBL_10:
%rax.0.reload = load i64, i64* %rax.0.reg2mem
ret i64 %rax.0.reload
uselistorder i64 %24, { 0, 1, 4, 3, 2, 5, 6, 7 }
uselistorder i64 %8, { 0, 1, 2, 3, 4, 6, 5 }
uselistorder i32* %sv_0, { 1, 0 }
uselistorder i64* %rax.0.reg2mem, { 0, 2, 3, 1 }
uselistorder i64 1, { 2, 1, 0 }
uselistorder i32 0, { 1, 0, 2, 3, 4, 5, 6, 7 }
uselistorder void (i8*, i8*, i32, i8*)* @__assert_fail, { 1, 0 }
uselistorder i1 false, { 1, 0, 2 }
uselistorder i64* %arg1, { 1, 0 }
uselistorder label LBL_10, { 1, 2, 0 }
} | 0 |
BinRealVul | free_picture_2744 | free_picture | define i64 @FUNC(i64* %arg1, i64* %arg2) local_unnamed_addr {
LBL_0:
%rax.0.reg2mem = alloca i64
%indvars.iv.reg2mem = alloca i64
%indvars.iv4.reg2mem = alloca i64
%0 = ptrtoint i64* %arg2 to i64
%1 = icmp eq i64* %arg2, null
br i1 %1, label LBL_3, label LBL_1
LBL_1:
%2 = add i64 %0, 32
%3 = inttoptr i64 %2 to i32*
%4 = load i32, i32* %3, align 4
%5 = icmp eq i32 %4, 1
br i1 %5, label LBL_3, label LBL_2
LBL_2:
%6 = ptrtoint i64* %arg1 to i64
%7 = call i64 @FUNC(i64 %6, i64 %0)
br label LBL_3
LBL_3:
%8 = add i64 %0, 40
%9 = call i64 @FUNC(i64 %8)
%10 = add i64 %0, 48
%11 = call i64 @FUNC(i64 %10)
%12 = add i64 %0, 56
%13 = call i64 @FUNC(i64 %12)
%14 = add i64 %0, 64
%15 = call i64 @FUNC(i64 %14)
%16 = add i64 %0, 72
%17 = call i64 @FUNC(i64 %16)
%18 = add i64 %0, 80
%19 = call i64 @FUNC(i64 %18)
%20 = add i64 %0, 88
%21 = call i64 @FUNC(i64 %20)
%22 = add i64 %0, 96
%23 = call i64 @FUNC(i64 %22)
%24 = add i64 %0, 104
%25 = inttoptr i64 %24 to i64*
store i64 0, i64* %25, align 8
store i64 0, i64* %indvars.iv4.reg2mem
br label LBL_4
LBL_4:
%indvars.iv4.reload = load i64, i64* %indvars.iv4.reg2mem
%26 = mul i64 %indvars.iv4.reload, 8
%27 = add i64 %26, %0
%28 = add i64 %27, 112
%29 = call i64 @FUNC(i64 %28)
%30 = add i64 %27, 128
%31 = call i64 @FUNC(i64 %30)
%indvars.iv.next5 = add nuw nsw i64 %indvars.iv4.reload, 1
%exitcond6 = icmp eq i64 %indvars.iv.next5, 2
store i64 %indvars.iv.next5, i64* %indvars.iv4.reg2mem
br i1 %exitcond6, label LBL_5, label LBL_4
LBL_5:
%32 = add i64 %0, 32
%33 = inttoptr i64 %32 to i32*
%34 = load i32, i32* %33, align 4
%35 = zext i32 %34 to i64
%36 = icmp eq i32 %34, 1
%37 = icmp eq i1 %36, false
store i64 0, i64* %indvars.iv.reg2mem
store i64 %35, i64* %rax.0.reg2mem
br i1 %37, label LBL_8, label LBL_6
LBL_6:
%indvars.iv.reload = load i64, i64* %indvars.iv.reg2mem
%38 = mul i64 %indvars.iv.reload, 8
%39 = add i64 %38, %0
%40 = inttoptr i64 %39 to i64*
store i64 0, i64* %40, align 8
%41 = add i64 %39, 144
%42 = inttoptr i64 %41 to i64*
store i64 0, i64* %42, align 8
%indvars.iv.next = add nuw nsw i64 %indvars.iv.reload, 1
%exitcond = icmp eq i64 %indvars.iv.next, 4
store i64 %indvars.iv.next, i64* %indvars.iv.reg2mem
br i1 %exitcond, label LBL_7, label LBL_6
LBL_7:
store i32 0, i32* %33, align 4
store i64 %0, i64* %rax.0.reg2mem
br label LBL_8
LBL_8:
%rax.0.reload = load i64, i64* %rax.0.reg2mem
ret i64 %rax.0.reload
uselistorder i64 %0, { 0, 1, 3, 2, 6, 5, 4, 9, 8, 7, 12, 11, 10, 13, 14 }
uselistorder i64* %indvars.iv4.reg2mem, { 1, 0, 2 }
uselistorder i64* %indvars.iv.reg2mem, { 2, 0, 1 }
uselistorder i64 1, { 1, 0 }
uselistorder i64 (i64)* @av_freep, { 9, 8, 7, 6, 5, 4, 3, 2, 1, 0 }
uselistorder label LBL_6, { 1, 0 }
} | 0 |
BinRealVul | compat_read_15745 | compat_read | define i64 @FUNC(i64* %arg1, i64* %arg2, i64 %arg3) local_unnamed_addr {
LBL_0:
%rax.0.reg2mem = alloca i64
%sv_0.0.reg2mem = alloca i64
%storemerge.reg2mem = alloca i64
%storemerge3.in.reg2mem = alloca i64
%0 = ptrtoint i64* %arg1 to i64
%sv_1 = alloca i32*, align 8
%1 = icmp eq i64* %arg2, null
%2 = icmp eq i1 %1, false
br i1 %2, label LBL_2, label LBL_1
LBL_1:
%3 = call i64 @FUNC(i64 %0)
store i64 %3, i64* %rax.0.reg2mem
br label LBL_13
LBL_2:
%4 = call i64 @FUNC()
%5 = inttoptr i64 %4 to i32*
store i32* %5, i32** %sv_1, align 8
%6 = icmp eq i64 %4, 0
%7 = icmp eq i1 %6, false
store i64 4294967284, i64* %rax.0.reg2mem
br i1 %7, label LBL_3, label LBL_13
LBL_3:
%8 = trunc i64 %arg3 to i32
%9 = icmp eq i32 %8, 0
%10 = icmp eq i1 %9, false
br i1 %10, label LBL_5, label LBL_4
LBL_4:
%11 = call i64 @FUNC(i64 %0, i64 %4)
store i64 %11, i64* %storemerge3.in.reg2mem
br label LBL_6
LBL_5:
%12 = call i64 @FUNC(i64 %0, i64 %4, i32 %8)
store i64 %12, i64* %storemerge3.in.reg2mem
br label LBL_6
LBL_6:
%storemerge3.in.reload = load i64, i64* %storemerge3.in.reg2mem
%storemerge3 = trunc i64 %storemerge3.in.reload to i32
%13 = icmp slt i32 %storemerge3, 0
store i64 %storemerge3.in.reload, i64* %sv_0.0.reg2mem
br i1 %13, label LBL_12, label LBL_7
LBL_7:
%14 = trunc i64 %0 to i32
%15 = icmp eq i32 %14, 0
%16 = icmp eq i1 %15, false
%17 = load i32*, i32** %sv_1, align 8
%18 = ptrtoint i32* %17 to i64
br i1 %16, label LBL_9, label LBL_8
LBL_8:
%19 = add i64 %18, 8
%20 = inttoptr i64 %19 to i32*
%21 = load i32, i32* %20, align 4
%22 = add i64 %18, 4
%23 = inttoptr i64 %22 to i32*
%24 = load i32, i32* %23, align 4
%25 = load i32, i32* %17, align 4
%26 = add i64 %18, 24
%27 = inttoptr i64 %26 to i64*
%28 = load i64, i64* %27, align 8
%29 = add i64 %18, 16
%30 = inttoptr i64 %29 to i64*
%31 = load i64, i64* %30, align 8
%32 = zext i32 %21 to i64
%33 = zext i32 %24 to i64
%34 = zext i32 %25 to i64
%sext4 = mul i64 %storemerge3.in.reload, 4294967296
%35 = ashr exact i64 %sext4, 32
%36 = call i64 @FUNC(i64 %31, i64 %28, i64 1, i64 %34, i64 %33, i64 %32, i64 %35)
store i64 %36, i64* %storemerge.reg2mem
br label LBL_10
LBL_9:
%37 = add i64 %18, 40
%38 = inttoptr i64 %37 to i32*
%39 = load i32, i32* %38, align 4
%40 = add i64 %18, 8
%41 = inttoptr i64 %40 to i32*
%42 = load i32, i32* %41, align 4
%43 = add i64 %18, 12
%44 = inttoptr i64 %43 to i32*
%45 = load i32, i32* %44, align 4
%46 = add i64 %18, 24
%47 = inttoptr i64 %46 to i64*
%48 = load i64, i64* %47, align 8
%49 = inttoptr i64 %48 to i32*
%50 = load i32, i32* %49, align 4
%51 = add i64 %18, 32
%52 = inttoptr i64 %51 to i64*
%53 = load i64, i64* %52, align 8
%54 = zext i32 %39 to i64
%55 = zext i32 %42 to i64
%56 = zext i32 %45 to i64
%sext5 = mul i64 %storemerge3.in.reload, 4294967296
%57 = ashr exact i64 %sext5, 32
%58 = call i64 @FUNC(i64 %53, i32 %50, i64 1, i64 %56, i64 %55, i64 %54, i64 %57)
store i64 %58, i64* %storemerge.reg2mem
br label LBL_10
LBL_10:
%storemerge.reload = load i64, i64* %storemerge.reg2mem
%59 = icmp eq i64 %storemerge.reload, 0
%60 = icmp eq i1 %59, false
store i64 4294967284, i64* %sv_0.0.reg2mem
br i1 %60, label LBL_11, label LBL_12
LBL_11:
%61 = load i32*, i32** %sv_1, align 8
%62 = ptrtoint i32* %61 to i64
%63 = call i64 @FUNC(i64 %storemerge.reload, i64 %62)
%64 = inttoptr i64 %storemerge.reload to i64*
%65 = load i64, i64* %64, align 8
%66 = load i32*, i32** %sv_1, align 8
%67 = ptrtoint i32* %66 to i64
%68 = inttoptr i64 %65 to i64*
store i64 %67, i64* %68, align 8
%69 = load i64, i64* %64, align 8
%70 = add i64 %69, 8
%71 = inttoptr i64 %70 to i64*
store i64 4198937, i64* %71, align 8
store i64 %storemerge.reload, i64* %arg2, align 8
store i64 0, i64* %rax.0.reg2mem
br label LBL_13
LBL_12:
%sv_0.0.reload = load i64, i64* %sv_0.0.reg2mem
%72 = bitcast i32** %sv_1 to i64*
%73 = call i64 @FUNC(i64* nonnull %72)
%74 = and i64 %sv_0.0.reload, 4294967295
store i64 %74, i64* %rax.0.reg2mem
br label LBL_13
LBL_13:
%rax.0.reload = load i64, i64* %rax.0.reg2mem
ret i64 %rax.0.reload
uselistorder i64 %storemerge.reload, { 3, 1, 2, 0 }
uselistorder i64 %18, { 3, 4, 5, 6, 8, 0, 1, 2, 7 }
uselistorder i64 %storemerge3.in.reload, { 3, 2, 0, 1 }
uselistorder i32** %sv_1, { 4, 3, 2, 1, 0 }
uselistorder i64 %0, { 0, 3, 2, 1 }
uselistorder i64* %storemerge3.in.reg2mem, { 0, 2, 1 }
uselistorder i64* %storemerge.reg2mem, { 0, 2, 1 }
uselistorder i64* %rax.0.reg2mem, { 0, 4, 3, 1, 2 }
uselistorder i64 32, { 0, 2, 1 }
uselistorder i64 4294967284, { 1, 0 }
uselistorder label LBL_13, { 1, 2, 0, 3 }
} | 1 |
BinRealVul | igmpv3_clear_zeros_10481 | igmpv3_clear_zeros | define i64 @FUNC(i64* %arg1) local_unnamed_addr {
LBL_0:
%storemerge1.lcssa.reg2mem = alloca i64
%sv_0.0.reg2mem = alloca i64
%sv_0.12.reg2mem = alloca i64
%storemerge13.reg2mem = alloca i64
%0 = ptrtoint i64* %arg1 to i64
%1 = icmp eq i64* %arg1, null
%2 = icmp eq i1 %1, false
store i64 %0, i64* %storemerge13.reg2mem
store i64 0, i64* %sv_0.12.reg2mem
store i64 %0, i64* %storemerge1.lcssa.reg2mem
br i1 %2, label LBL_1, label LBL_7
LBL_1:
%storemerge13.reload = load i64, i64* %storemerge13.reg2mem
%3 = inttoptr i64 %storemerge13.reload to i64*
%4 = load i64, i64* %3, align 8
%5 = add i64 %storemerge13.reload, 8
%6 = inttoptr i64 %5 to i32*
%7 = load i32, i32* %6, align 4
%8 = icmp eq i32 %7, 0
%9 = icmp eq i1 %8, false
store i64 %storemerge13.reload, i64* %sv_0.0.reg2mem
br i1 %9, label LBL_6, label LBL_2
LBL_2:
%sv_0.12.reload = load i64, i64* %sv_0.12.reg2mem
%10 = icmp eq i64 %sv_0.12.reload, 0
br i1 %10, label LBL_4, label LBL_3
LBL_3:
%11 = inttoptr i64 %sv_0.12.reload to i64*
store i64 %4, i64* %11, align 8
br label LBL_5
LBL_4:
store i64 %4, i64* %arg1, align 8
br label LBL_5
LBL_5:
%12 = call i64 @FUNC(i64 %storemerge13.reload)
store i64 %sv_0.12.reload, i64* %sv_0.0.reg2mem
br label LBL_6
LBL_6:
%sv_0.0.reload = load i64, i64* %sv_0.0.reg2mem
%13 = icmp eq i64 %4, 0
%14 = icmp eq i1 %13, false
store i64 %4, i64* %storemerge13.reg2mem
store i64 %sv_0.0.reload, i64* %sv_0.12.reg2mem
store i64 %4, i64* %storemerge1.lcssa.reg2mem
br i1 %14, label LBL_1, label LBL_7
LBL_7:
%storemerge1.lcssa.reload = load i64, i64* %storemerge1.lcssa.reg2mem
ret i64 %storemerge1.lcssa.reload
uselistorder i64 %sv_0.12.reload, { 0, 2, 1 }
uselistorder i64 %storemerge13.reload, { 1, 0, 3, 2 }
uselistorder i64* %storemerge13.reg2mem, { 2, 0, 1 }
uselistorder i64* %sv_0.12.reg2mem, { 2, 0, 1 }
uselistorder i64* %sv_0.0.reg2mem, { 0, 2, 1 }
uselistorder i1 false, { 2, 1, 0 }
uselistorder i64* %arg1, { 1, 0, 2 }
uselistorder label LBL_6, { 1, 0 }
uselistorder label LBL_1, { 1, 0 }
} | 0 |
BinRealVul | qpci_io_writew_15885 | qpci_io_writew | define i64 @FUNC(i64* %arg1, i64 %arg2, i16 %arg3) local_unnamed_addr {
LBL_0:
%storemerge.reg2mem = alloca i64
%0 = icmp ult i64 %arg2, 65535
br i1 %0, label LBL_1, label LBL_2
LBL_1:
%1 = ptrtoint i64* %arg1 to i64
store i64 %1, i64* %storemerge.reg2mem
br label LBL_3
LBL_2:
%2 = zext i16 %arg3 to i64
%3 = call i64 @FUNC(i64 %2)
store i64 %2, i64* %storemerge.reg2mem
br label LBL_3
LBL_3:
%storemerge.reload = load i64, i64* %storemerge.reg2mem
ret i64 %storemerge.reload
uselistorder i64* %storemerge.reg2mem, { 0, 2, 1 }
} | 1 |
BinRealVul | cx24116_writereg_8137 | cx24116_writereg | define i64 @FUNC(i64* %arg1, i64 %arg2, i64 %arg3) local_unnamed_addr {
LBL_0:
%storemerge.reg2mem = alloca i64
%rdi.0.reg2mem = alloca i64
%0 = ptrtoint i64* %arg1 to i64
%sv_0 = alloca i32, align 4
%sext = mul i64 %arg2, 4294967296
%1 = ashr exact i64 %sext, 32
%sext3 = mul i64 %arg3, 4294967296
%2 = ashr exact i64 %sext3, 32
%3 = add i64 %0, 8
%4 = inttoptr i64 %3 to i64*
%5 = load i64, i64* %4, align 8
%6 = inttoptr i64 %5 to i32*
%7 = load i32, i32* %6, align 4
store i32 %7, i32* %sv_0, align 4
%8 = load i32, i32* inttoptr (i64 4210724 to i32*), align 4
%9 = icmp slt i32 %8, 2
store i64 %0, i64* %rdi.0.reg2mem
br i1 %9, label LBL_2, label LBL_1
LBL_1:
%10 = trunc i64 %2 to i32
%11 = trunc i64 %1 to i32
%12 = call i32 (i8*, ...) @printf(i8* getelementptr inbounds ([45 x i8], [45 x i8]* @gv_0, i64 0, i64 0), i8* getelementptr inbounds ([17 x i8], [17 x i8]* @gv_1, i64 0, i64 0), i32 %11, i32 %10)
store i64 ptrtoint ([45 x i8]* @gv_0 to i64), i64* %rdi.0.reg2mem
br label LBL_2
LBL_2:
%rdi.0.reload = load i64, i64* %rdi.0.reg2mem
%13 = call i64 @FUNC(i64 %rdi.0.reload, i32* nonnull %sv_0, i64 1)
%14 = trunc i64 %13 to i32
%15 = icmp eq i32 %14, 1
store i64 0, i64* %storemerge.reg2mem
br i1 %15, label LBL_4, label LBL_3
LBL_3:
%16 = trunc i64 %2 to i32
%17 = trunc i64 %1 to i32
%18 = and i64 %13, 4294967295
%19 = call i32 (i8*, ...) @printf(i8* getelementptr inbounds ([70 x i8], [70 x i8]* @gv_2, i64 0, i64 0), i8* getelementptr inbounds ([17 x i8], [17 x i8]* @gv_1, i64 0, i64 0), i64 %18, i32 %17, i32 %16)
store i64 4294967175, i64* %storemerge.reg2mem
br label LBL_4
LBL_4:
%storemerge.reload = load i64, i64* %storemerge.reg2mem
ret i64 %storemerge.reload
uselistorder i64 %2, { 1, 0 }
uselistorder i64 %1, { 1, 0 }
uselistorder i64* %storemerge.reg2mem, { 0, 2, 1 }
uselistorder i32 (i8*, ...)* @printf, { 1, 0 }
uselistorder [45 x i8]* @gv_0, { 1, 0 }
uselistorder label LBL_4, { 1, 0 }
} | 0 |
BinRealVul | maxOffsetIncludingCollapsedSpaces_8280 | maxOffsetIncludingCollapsedSpaces | define i64 @FUNC(i64* %arg1) local_unnamed_addr {
LBL_0:
%0 = ptrtoint i64* %arg1 to i64
%1 = call i64 @FUNC(i64 %0)
%2 = and i64 %1, 4294967295
ret i64 %2
} | 0 |
BinRealVul | openpic_tmr_read_3186 | openpic_tmr_read | define i64 @FUNC(i64* %arg1, i64 %arg2, i32 %arg3) local_unnamed_addr {
LBL_0:
%0 = alloca i64
%sv_0.0.reg2mem = alloca i32
%1 = load i64, i64* %0
%2 = call i32 (i8*, ...) @printf(i8* getelementptr inbounds ([16 x i8], [16 x i8]* @gv_0, i64 0, i64 0), i8* getelementptr inbounds ([17 x i8], [17 x i8]* @gv_1, i64 0, i64 0), i64 %arg2)
%3 = urem i64 %arg2, 16
%4 = icmp eq i64 %3, 0
%5 = icmp eq i1 %4, false
store i32 -1, i32* %sv_0.0.reg2mem
br i1 %5, label LBL_9, label LBL_1
LBL_1:
%6 = trunc i64 %1 to i32
%7 = icmp eq i64 %arg2, 0
%8 = icmp eq i1 %7, false
store i32 %6, i32* %sv_0.0.reg2mem
br i1 %8, label LBL_2, label LBL_9
LBL_2:
%9 = ptrtoint i64* %arg1 to i64
%10 = udiv i64 %arg2, 64
%11 = trunc i64 %10 to i32
%12 = urem i32 %11, 4
%13 = and i64 %arg2, 48
switch i64 %13, label LBL_3 [
i64 48, label LBL_8
i64 32, label LBL_7
]
LBL_3:
%14 = icmp ult i64 %13, 33
store i32 -1, i32* %sv_0.0.reg2mem
br i1 %14, label LBL_4, label LBL_9
LBL_4:
store i32 -1, i32* %sv_0.0.reg2mem
switch i64 %13, label LBL_9 [
i64 0, label LBL_5
i64 16, label LBL_6
]
LBL_5:
%15 = mul i32 %12, 8
%16 = zext i32 %15 to i64
%17 = add i64 %9, 4
%18 = add i64 %17, %16
%19 = inttoptr i64 %18 to i32*
%20 = load i32, i32* %19, align 4
store i32 %20, i32* %sv_0.0.reg2mem
br label LBL_9
LBL_6:
%21 = mul i32 %12, 8
%22 = zext i32 %21 to i64
%23 = add i64 %9, 8
%24 = add i64 %23, %22
%25 = inttoptr i64 %24 to i32*
%26 = load i32, i32* %25, align 4
store i32 %26, i32* %sv_0.0.reg2mem
br label LBL_9
LBL_7:
%27 = add i64 %9, 36
%28 = inttoptr i64 %27 to i32*
%29 = load i32, i32* %28, align 4
%30 = add i32 %29, %12
%31 = zext i32 %30 to i64
%32 = call i64 @FUNC(i64 %9, i64 %31)
%33 = trunc i64 %32 to i32
store i32 %33, i32* %sv_0.0.reg2mem
br label LBL_9
LBL_8:
%34 = add i64 %9, 36
%35 = inttoptr i64 %34 to i32*
%36 = load i32, i32* %35, align 4
%37 = add i32 %36, %12
%38 = zext i32 %37 to i64
%39 = call i64 @FUNC(i64 %9, i64 %38)
%40 = trunc i64 %39 to i32
store i32 %40, i32* %sv_0.0.reg2mem
br label LBL_9
LBL_9:
%sv_0.0.reload = load i32, i32* %sv_0.0.reg2mem
%41 = call i32 (i8*, ...) @printf(i8* getelementptr inbounds ([15 x i8], [15 x i8]* @gv_2, i64 0, i64 0), i8* getelementptr inbounds ([17 x i8], [17 x i8]* @gv_1, i64 0, i64 0), i32 %sv_0.0.reload)
%42 = zext i32 %sv_0.0.reload to i64
ret i64 %42
uselistorder i64 %13, { 0, 2, 1 }
uselistorder i32 %12, { 3, 2, 0, 1 }
uselistorder i64 %9, { 5, 4, 3, 2, 0, 1 }
uselistorder i32* %sv_0.0.reg2mem, { 0, 7, 6, 4, 5, 2, 3, 1, 8 }
uselistorder i64 16, { 1, 0 }
uselistorder i64 %arg2, { 2, 0, 3, 1, 4 }
uselistorder label LBL_9, { 4, 5, 6, 7, 1, 3, 0, 2 }
} | 0 |
BinRealVul | out_close_pcm_devices_8470 | out_close_pcm_devices | define i64 @FUNC(i64* %arg1) local_unnamed_addr {
LBL_0:
%storemerge2.reg2mem = alloca i64
%0 = ptrtoint i64* %arg1 to i64
%1 = add i64 %0, 8
%2 = icmp eq i64 %1, 0
%3 = icmp eq i1 %2, false
store i64 %1, i64* %storemerge2.reg2mem
br i1 %3, label LBL_1, label LBL_12
LBL_1:
%storemerge2.reload = load i64, i64* %storemerge2.reg2mem
%4 = add i64 %storemerge2.reload, -40
%5 = inttoptr i64 %4 to i32*
%6 = load i32, i32* %5, align 4
%7 = icmp slt i32 %6, 1
br i1 %7, label LBL_3, label LBL_2
LBL_2:
store i32 0, i32* %5, align 4
br label LBL_3
LBL_3:
%8 = add i64 %storemerge2.reload, -32
%9 = inttoptr i64 %8 to i64*
%10 = load i64, i64* %9, align 8
%11 = icmp eq i64 %10, 0
br i1 %11, label LBL_5, label LBL_4
LBL_4:
%12 = call i64 @FUNC(i64 %10)
store i64 0, i64* %9, align 8
br label LBL_5
LBL_5:
%13 = add i64 %storemerge2.reload, -24
%14 = inttoptr i64 %13 to i64*
%15 = load i64, i64* %14, align 8
%16 = icmp eq i64 %15, 0
br i1 %16, label LBL_7, label LBL_6
LBL_6:
%17 = call i64 @FUNC(i64 %15)
store i64 0, i64* %14, align 8
br label LBL_7
LBL_7:
%18 = add i64 %storemerge2.reload, -16
%19 = inttoptr i64 %18 to i64*
%20 = load i64, i64* %19, align 8
%21 = icmp eq i64 %20, 0
br i1 %21, label LBL_9, label LBL_8
LBL_8:
%22 = inttoptr i64 %20 to i64*
call void @free(i64* %22)
store i64 0, i64* %19, align 8
br label LBL_9
LBL_9:
%23 = add i64 %storemerge2.reload, -8
%24 = inttoptr i64 %23 to i64*
%25 = load i64, i64* %24, align 8
%26 = icmp eq i64 %25, 0
br i1 %26, label LBL_11, label LBL_10
LBL_10:
%27 = call i64 @FUNC(i64 %25)
store i64 0, i64* %24, align 8
br label LBL_11
LBL_11:
%28 = inttoptr i64 %storemerge2.reload to i64*
%29 = load i64, i64* %28, align 8
%30 = icmp eq i64 %29, 0
%31 = icmp eq i1 %30, false
store i64 %29, i64* %storemerge2.reg2mem
br i1 %31, label LBL_1, label LBL_12
LBL_12:
ret i64 0
uselistorder i64 %storemerge2.reload, { 4, 0, 1, 2, 3, 5 }
uselistorder i64* %storemerge2.reg2mem, { 2, 0, 1 }
uselistorder i1 false, { 1, 0 }
uselistorder label LBL_1, { 1, 0 }
} | 0 |
BinRealVul | ml_ff_destroy_6910 | ml_ff_destroy | define i64 @FUNC(i64* %arg1) local_unnamed_addr {
LBL_0:
%0 = ptrtoint i64* %arg1 to i64
%1 = add i64 %0, 8
%2 = call i64 @FUNC(i64 %1)
%3 = call i64 @FUNC(i64 %1)
ret i64 %3
} | 0 |
reposvul_c_test | mnt_want_write_file_214 | mnt_want_write_file | define i64 @FUNC(i64* %arg1) local_unnamed_addr {
LBL_0:
%0 = ptrtoint i64* %arg1 to i64
%1 = call i64 @FUNC(i64 %0)
%2 = call i64 @FUNC(i64 %0)
%3 = trunc i64 %2 to i32
%4 = icmp eq i32 %3, 0
br i1 %4, label LBL_2, label LBL_1
LBL_1:
%5 = call i64 @FUNC(i64 %0)
br label LBL_2
LBL_2:
%6 = and i64 %2, 4294967295
ret i64 %6
} | 0 |
BinRealVul | t1_check_unusual_charstring_11807 | t1_check_unusual_charstring | define i64 @FUNC() local_unnamed_addr {
LBL_0:
%rax.0.reg2mem = alloca i64
%sv_0 = alloca i64, align 8
%0 = load [15 x i8]*, [15 x i8]** @gv_0, align 8
%1 = getelementptr inbounds [15 x i8], [15 x i8]* %0, i64 0, i64 0
%2 = call i8* @strstr(i8* bitcast (i8** @gv_1 to i8*), i8* %1)
%3 = ptrtoint i8* %2 to i64
%4 = load [15 x i8]*, [15 x i8]** @gv_0, align 8
%5 = getelementptr inbounds [15 x i8], [15 x i8]* %4, i64 0, i64 0
%6 = call i32 @strlen(i8* %5)
%7 = sext i32 %6 to i64
%8 = add i64 %7, %3
%9 = inttoptr i64 %8 to i8*
%10 = call i32 (i8*, i8*, ...) @sscanf(i8* %9, i8* getelementptr inbounds ([3 x i8], [3 x i8]* @gv_2, i64 0, i64 0), i64* nonnull %sv_0)
%11 = icmp eq i32 %10, 1
store i64 1, i64* %rax.0.reg2mem
br i1 %11, label LBL_2, label LBL_1
LBL_1:
%12 = call i8* @strcpy(i8* bitcast (i8** @gv_3 to i8*), i8* bitcast (i8** @gv_1 to i8*))
%13 = call i64 @FUNC()
%14 = call i8* @strcat(i8* bitcast (i8** @gv_3 to i8*), i8* bitcast (i8** @gv_1 to i8*))
%15 = call i8* @strcpy(i8* bitcast (i8** @gv_1 to i8*), i8* bitcast (i8** @gv_3 to i8*))
%16 = call i64 @FUNC(i64* bitcast (i8** @gv_1 to i64*))
store i64 %16, i64* @gv_4, align 8
store i64 %16, i64* %rax.0.reg2mem
br label LBL_2
LBL_2:
%rax.0.reload = load i64, i64* %rax.0.reg2mem
ret i64 %rax.0.reload
uselistorder i8* (i8*, i8*)* @strcpy, { 1, 0 }
uselistorder i32 (i8*)* @strlen, { 1, 0 }
uselistorder i32 1, { 1, 2, 0 }
} | 1 |
BinRealVul | fork_start_571 | fork_start | define i64 @FUNC() local_unnamed_addr {
LBL_0:
%0 = call i64 @FUNC()
%1 = call i64 @FUNC()
%2 = call i64 @FUNC(i64* nonnull @gv_0)
%3 = call i64 @FUNC()
ret i64 %3
} | 0 |
BinRealVul | amd_gpio_irq_unmask_10134 | amd_gpio_irq_unmask | define i64 @FUNC(i32* %arg1) local_unnamed_addr {
LBL_0:
%0 = alloca i64
%1 = load i64, i64* %0
%2 = load i64, i64* %0
%3 = ptrtoint i32* %arg1 to i64
%4 = call i64 @FUNC(i64 %3)
%5 = call i64 @FUNC(i64 %4)
%6 = add i64 %5, 8
%7 = call i64 @FUNC(i64 %6, i64 %2)
%8 = inttoptr i64 %5 to i64*
%9 = load i64, i64* %8, align 8
%10 = trunc i64 %1 to i32
%11 = mul i32 %10, 4
%12 = sext i32 %11 to i64
%13 = add i64 %9, %12
%14 = call i64 @FUNC(i64 %13)
%15 = load i64, i64* %8, align 8
%16 = add i64 %15, %12
%17 = and i64 %14, 4294967294
%18 = or i64 %17, 1
%19 = call i64 @FUNC(i64 %18, i64 %16)
%20 = call i64 @FUNC(i64 %6, i64 %2)
ret i64 %20
uselistorder i64* %0, { 1, 0 }
} | 0 |
BinRealVul | is_netmask_v4_18160 | is_netmask_v4 | define i64 @FUNC(i64* %arg1) local_unnamed_addr {
LBL_0:
%rax.0.reg2mem = alloca i64
%0 = bitcast i64* %arg1 to i8*
%1 = call i8* @strchr(i8* %0, i32 47)
%2 = icmp eq i8* %1, null
store i64 32, i64* %rax.0.reg2mem
br i1 %2, label LBL_4, label LBL_1
LBL_1:
%3 = ptrtoint i8* %1 to i64
%4 = add i64 %3, 1
%5 = inttoptr i64 %4 to i8*
store i8 0, i8* %1, align 1
%6 = call i8* @strchr(i8* %5, i32 46)
%7 = icmp eq i8* %6, null
store i64 0, i64* %rax.0.reg2mem
br i1 %7, label LBL_2, label LBL_4
LBL_2:
%8 = call i32 @atoi(i8* %5)
%9 = icmp ult i32 %8, 33
store i64 0, i64* %rax.0.reg2mem
br i1 %9, label LBL_3, label LBL_4
LBL_3:
%10 = urem i32 %8, 256
%phitmp = zext i32 %10 to i64
store i64 %phitmp, i64* %rax.0.reg2mem
br label LBL_4
LBL_4:
%rax.0.reload = load i64, i64* %rax.0.reg2mem
ret i64 %rax.0.reload
uselistorder i8* %1, { 1, 0, 2 }
uselistorder i64* %rax.0.reg2mem, { 0, 1, 3, 4, 2 }
uselistorder label LBL_4, { 1, 2, 3, 0 }
} | 1 |
BinRealVul | anetUnixServer_12842 | anetUnixServer | define i64 @FUNC(i64* %arg1, i64 %arg2, i32 %arg3, i32 %arg4) local_unnamed_addr {
LBL_0:
%rax.0.reg2mem = alloca i64
%0 = ptrtoint i64* %arg1 to i64
%sv_0 = alloca i64, align 8
%sv_1 = alloca i64, align 8
%1 = inttoptr i64 %arg2 to i8*
%2 = call i32 @strlen(i8* %1)
%3 = icmp ult i32 %2, 108
br i1 %3, label LBL_2, label LBL_1
LBL_1:
%4 = call i32 @strlen(i8* %1)
%5 = sext i32 %4 to i64
%6 = call i64 @FUNC(i64 %0, i8* getelementptr inbounds ([51 x i8], [51 x i8]* @gv_0, i64 0, i64 0), i64 %5, i64 108)
store i64 4294967295, i64* %rax.0.reg2mem
br label LBL_7
LBL_2:
%7 = call i64 @FUNC(i64 %0, i64 1)
%8 = trunc i64 %7 to i32
%9 = icmp eq i32 %8, -1
%10 = icmp eq i1 %9, false
store i64 4294967295, i64* %rax.0.reg2mem
br i1 %10, label LBL_3, label LBL_7
LBL_3:
%11 = call i64* @memset(i64* nonnull %sv_1, i32 0, i32 110)
store i64 1, i64* %sv_1, align 8
%12 = call i64 @FUNC(i64* nonnull %sv_0, i64 %arg2, i64 108)
%13 = zext i32 %arg4 to i64
%14 = call i64 @FUNC(i64 %0, i32 %8, i64* nonnull %sv_1, i64 110, i64 %13)
%15 = trunc i64 %14 to i32
%16 = icmp eq i32 %15, -1
%17 = icmp eq i1 %16, false
store i64 4294967295, i64* %rax.0.reg2mem
br i1 %17, label LBL_4, label LBL_7
LBL_4:
%18 = icmp eq i32 %arg3, 0
br i1 %18, label LBL_6, label LBL_5
LBL_5:
%19 = bitcast i64* %sv_0 to i8*
%20 = call i32 @chmod(i8* nonnull %19, i32 %arg3)
br label LBL_6
LBL_6:
%21 = and i64 %7, 4294967295
store i64 %21, i64* %rax.0.reg2mem
br label LBL_7
LBL_7:
%rax.0.reload = load i64, i64* %rax.0.reg2mem
ret i64 %rax.0.reload
uselistorder i64* %sv_1, { 0, 2, 1 }
uselistorder i64 %0, { 1, 2, 0 }
uselistorder i64* %rax.0.reg2mem, { 0, 4, 1, 2, 3 }
uselistorder i32 0, { 2, 0, 3, 4, 5, 1 }
uselistorder i64 (i64, i8*, i64, i64)* @anetSetError, { 3, 2, 1, 0 }
uselistorder i32 (i8*)* @strlen, { 1, 0 }
uselistorder i32 %arg3, { 1, 0 }
uselistorder label LBL_7, { 2, 0, 1, 3 }
} | 1 |
BinRealVul | helper_cvttq_c_3161 | helper_cvttq_c | define i64 @FUNC(i64* %arg1, i64 %arg2) local_unnamed_addr {
LBL_0:
%0 = ptrtoint i64* %arg1 to i64
%1 = call i64 @FUNC(i64 %0, i64 %arg2, i64 0)
ret i64 %1
} | 0 |
BinRealVul | hmp_info_memdev_16404 | hmp_info_memdev | define i64 @FUNC(i64* %arg1, i64* %arg2) local_unnamed_addr {
LBL_0:
%0 = alloca i64
%rcx.0.lcssa.reg2mem = alloca i64
%.pre-phi.pre-phi.reg2mem = alloca i32
%sv_0.05.reg2mem = alloca i64
%storemerge6.reg2mem = alloca i32
%1 = load i64, i64* %0
%2 = load i64, i64* %0
%3 = load i64, i64* %0
%4 = ptrtoint i64* %arg1 to i64
%sv_1 = alloca i64, align 8
store i64 0, i64* %sv_1, align 8
%5 = call i64 @FUNC(i64* nonnull %sv_1)
%6 = icmp eq i64 %5, 0
%7 = icmp eq i1 %6, false
store i32 0, i32* %storemerge6.reg2mem
store i64 %5, i64* %sv_0.05.reg2mem
br i1 %7, label LBL_2, label LBL_0.LBL_3_crit_edge
LBL_1:
%.pre = trunc i64 %3 to i32
store i32 %.pre, i32* %.pre-phi.pre-phi.reg2mem
br label LBL_3
LBL_2:
%sv_0.05.reload = load i64, i64* %sv_0.05.reg2mem
%storemerge6.reload = load i32, i32* %storemerge6.reg2mem
%8 = call i64 @FUNC(i64 0)
%9 = inttoptr i64 %sv_0.05.reload to i64*
%10 = load i64, i64* %9, align 8
%11 = add i64 %10, 24
%12 = call i64 @FUNC(i64 %8)
%13 = call i64 @FUNC(i64 %12, i64 %11, i64 0, i64 0)
%14 = call i64 @FUNC(i64 %4, i8* getelementptr inbounds ([20 x i8], [20 x i8]* @gv_0, i64 0, i64 0), i32 %storemerge6.reload, i64 0, i64 %2, i64 %1)
%15 = load i64, i64* %9, align 8
%16 = inttoptr i64 %15 to i64*
%17 = load i64, i64* %16, align 8
%18 = trunc i64 %17 to i32
%19 = call i64 @FUNC(i64 %4, i8* getelementptr inbounds ([14 x i8], [14 x i8]* @gv_1, i64 0, i64 0), i32 %18, i64 0, i64 %2, i64 %1)
%20 = load i64, i64* %9, align 8
%21 = add i64 %20, 8
%22 = inttoptr i64 %21 to i32*
%23 = load i32, i32* %22, align 4
%24 = icmp eq i32 %23, 0
%25 = select i1 %24, i32 ptrtoint ([6 x i8]* @gv_2 to i32), i32 ptrtoint ([5 x i8]* @gv_3 to i32)
%26 = call i64 @FUNC(i64 %4, i8* getelementptr inbounds ([13 x i8], [13 x i8]* @gv_4, i64 0, i64 0), i32 %25, i64 0, i64 %2, i64 %1)
%27 = load i64, i64* %9, align 8
%28 = add i64 %27, 12
%29 = inttoptr i64 %28 to i32*
%30 = load i32, i32* %29, align 4
%31 = icmp eq i32 %30, 0
%32 = select i1 %31, i32 ptrtoint ([6 x i8]* @gv_2 to i32), i32 ptrtoint ([5 x i8]* @gv_3 to i32)
%33 = call i64 @FUNC(i64 %4, i8* getelementptr inbounds ([12 x i8], [12 x i8]* @gv_5, i64 0, i64 0), i32 %32, i64 0, i64 %2, i64 %1)
%34 = load i64, i64* %9, align 8
%35 = add i64 %34, 16
%36 = inttoptr i64 %35 to i32*
%37 = load i32, i32* %36, align 4
%38 = icmp eq i32 %37, 0
%39 = select i1 %38, i32 ptrtoint ([6 x i8]* @gv_2 to i32), i32 ptrtoint ([5 x i8]* @gv_3 to i32)
%40 = call i64 @FUNC(i64 %4, i8* getelementptr inbounds ([16 x i8], [16 x i8]* @gv_6, i64 0, i64 0), i32 %39, i64 0, i64 %2, i64 %1)
%41 = load i64, i64* %9, align 8
%42 = add i64 %41, 20
%43 = inttoptr i64 %42 to i32*
%44 = load i32, i32* %43, align 4
%45 = sext i32 %44 to i64
%46 = mul i64 %45, 8
%47 = add i64 %46, ptrtoint ([3 x i8*]* @gv_7 to i64)
%48 = inttoptr i64 %47 to i64*
%49 = load i64, i64* %48, align 8
%50 = trunc i64 %49 to i32
%51 = call i64 @FUNC(i64 %4, i8* getelementptr inbounds ([14 x i8], [14 x i8]* @gv_8, i64 0, i64 0), i32 %50, i64 0, i64 %2, i64 %1)
%52 = call i64 @FUNC(i64 %8)
%53 = trunc i64 %52 to i32
%54 = call i64 @FUNC(i64 %4, i8* getelementptr inbounds ([18 x i8], [18 x i8]* @gv_9, i64 0, i64 0), i32 %53, i64 0, i64 %2, i64 %1)
%55 = call i64 @FUNC(i64 %52)
%56 = call i64 @FUNC(i64 %8)
%57 = add i64 %sv_0.05.reload, 8
%58 = inttoptr i64 %57 to i64*
%59 = load i64, i64* %58, align 8
%60 = add i32 %storemerge6.reload, 1
%61 = icmp eq i64 %59, 0
%62 = icmp eq i1 %61, false
store i32 %60, i32* %storemerge6.reg2mem
store i64 %59, i64* %sv_0.05.reg2mem
store i32 %53, i32* %.pre-phi.pre-phi.reg2mem
store i64 0, i64* %rcx.0.lcssa.reg2mem
br i1 %62, label LBL_2, label LBL_3
LBL_3:
%rcx.0.lcssa.reload = load i64, i64* %rcx.0.lcssa.reg2mem
%.pre-phi.pre-phi.reload = load i32, i32* %.pre-phi.pre-phi.reg2mem
%63 = call i64 @FUNC(i64 %4, i8* inttoptr (i64 4202654 to i8*), i32 %.pre-phi.pre-phi.reload, i64 %rcx.0.lcssa.reload, i64 %2, i64 %1)
ret i64 %63
uselistorder i64 %2, { 7, 6, 5, 4, 3, 2, 1, 0 }
uselistorder i64 %1, { 7, 6, 5, 4, 3, 2, 1, 0 }
uselistorder i32* %storemerge6.reg2mem, { 2, 0, 1 }
uselistorder i64* %sv_0.05.reg2mem, { 2, 0, 1 }
uselistorder i64* %0, { 2, 1, 0 }
uselistorder i64 8, { 1, 0, 2 }
uselistorder i64 (i64, i8*, i32, i64, i64, i64)* @monitor_printf, { 0, 7, 6, 5, 4, 3, 2, 1 }
uselistorder i32 0, { 7, 8, 9, 0, 1, 2, 3, 4, 5, 6 }
uselistorder i1 false, { 1, 0 }
uselistorder label LBL_2, { 1, 0 }
} | 1 |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.