dataset
stringclasses
3 values
file
stringlengths
7
83
fun_name
stringlengths
2
83
llvm_ir_function
stringlengths
61
121k
label
stringclasses
2 values
BinRealVul
store_tabletXtilt_8551
store_tabletXtilt
define i64 @FUNC(i64* %arg1, i64* %arg2, i64 %arg3, i64 %arg4) local_unnamed_addr { LBL_0: %rax.0.reg2mem = alloca i64 %storemerge4.reg2mem = alloca i32 %0 = ptrtoint i64* %arg1 to i64 %sv_0 = alloca i32, align 4 %1 = call i64 @FUNC(i64 %0) %2 = bitcast i32* %sv_0 to i64* %3 = call i64 @FUNC(i64 %arg3, i64 10, i64* nonnull %2) %4 = trunc i64 %3 to i32 %5 = icmp eq i32 %4, 0 br i1 %5, label LBL_2, label LBL_1 LBL_1: %6 = add i64 %arg4, -1 %7 = add i64 %6, %arg3 %8 = inttoptr i64 %7 to i8* %9 = load i8, i8* %8, align 1 %10 = icmp eq i8 %9, 10 %11 = icmp eq i1 %10, false %storemerge = select i1 %11, i64 %arg4, i64 %6 %12 = inttoptr i64 %arg3 to i8* %13 = trunc i64 %storemerge to i32 %14 = call i32 @strncmp(i8* %12, i8* getelementptr inbounds ([8 x i8], [8 x i8]* @gv_0, i64 0, i64 0), i32 %13) %15 = icmp eq i32 %14, 0 store i32 -1, i32* %storemerge4.reg2mem store i64 4294967274, i64* %rax.0.reg2mem br i1 %15, label LBL_3, label LBL_4 LBL_2: %16 = load i32, i32* %sv_0, align 4 %.off = add i32 %16, 90 %17 = icmp ult i32 %.off, 181 store i32 %16, i32* %storemerge4.reg2mem store i64 4294967274, i64* %rax.0.reg2mem br i1 %17, label LBL_3, label LBL_4 LBL_3: %18 = inttoptr i64 %1 to i32* %storemerge4.reload = load i32, i32* %storemerge4.reg2mem store i32 %storemerge4.reload, i32* %18, align 4 store i64 %arg4, i64* %rax.0.reg2mem br label LBL_4 LBL_4: %rax.0.reload = load i64, i64* %rax.0.reg2mem ret i64 %rax.0.reload uselistorder i64 %6, { 1, 0 } uselistorder i64* %rax.0.reg2mem, { 0, 3, 1, 2 } uselistorder i8 10, { 1, 0 } uselistorder i64 %arg4, { 0, 2, 1 } uselistorder i64 %arg3, { 1, 0, 2 } uselistorder label LBL_4, { 2, 0, 1 } }
0
BinRealVul
ReplaceThumbnail_11981
ReplaceThumbnail
define i64 @FUNC(i8* %arg1) local_unnamed_addr { LBL_0: %rax.0.reg2mem = alloca i64 %sv_0.0.reg2mem = alloca i32 %sv_1.0.reg2mem = alloca %_IO_FILE* %0 = load i32, i32* @gv_0, align 4 %1 = icmp eq i32 %0, 0 br i1 %1, label LBL_2, label LBL_1 LBL_1: %2 = load i32, i32* @gv_1, align 4 %3 = icmp eq i32 %2, 0 %4 = icmp eq i1 %3, false br i1 %4, label LBL_4, label LBL_2 LBL_2: %5 = icmp eq i8* %arg1, null %6 = icmp eq i1 %5, false store i64 0, i64* %rax.0.reg2mem br i1 %6, label LBL_3, label LBL_14 LBL_3: %7 = load %_IO_FILE*, %_IO_FILE** @gv_2, align 8 %8 = call i32 @fwrite(i64* bitcast ([62 x i8]* @gv_3 to i64*), i32 1, i32 61, %_IO_FILE* %7) store i64 0, i64* %rax.0.reg2mem br label LBL_14 LBL_4: %9 = icmp eq i8* %arg1, null br i1 %9, label LBL_9, label LBL_5 LBL_5: %10 = call %_IO_FILE* @fopen(i8* nonnull %arg1, i8* getelementptr inbounds ([3 x i8], [3 x i8]* @gv_4, i64 0, i64 0)) %11 = icmp eq %_IO_FILE* %10, null %12 = icmp eq i1 %11, false br i1 %12, label LBL_7, label LBL_6 LBL_6: %13 = call i64 @FUNC(i8* getelementptr inbounds ([30 x i8], [30 x i8]* @gv_5, i64 0, i64 0)) unreachable LBL_7: %14 = call i32 @fseek(%_IO_FILE* %10, i32 0, i32 2) %15 = call i32 @ftell(%_IO_FILE* %10) %16 = call i32 @fseek(%_IO_FILE* %10, i32 0, i32 0) %17 = load i32, i32* @gv_0, align 4 %18 = add i32 %17, %15 %19 = icmp slt i32 %18, 65517 store %_IO_FILE* %10, %_IO_FILE** %sv_1.0.reg2mem store i32 %15, i32* %sv_0.0.reg2mem br i1 %19, label LBL_10, label LBL_8 LBL_8: %20 = call i64 @FUNC(i8* getelementptr inbounds ([50 x i8], [50 x i8]* @gv_6, i64 0, i64 0)) unreachable LBL_9: %21 = load i32, i32* bitcast (i64* @gv_7 to i32*), align 8 %22 = icmp eq i32 %21, 0 %23 = icmp eq i1 %22, false store %_IO_FILE* null, %_IO_FILE** %sv_1.0.reg2mem store i32 0, i32* %sv_0.0.reg2mem store i64 0, i64* %rax.0.reg2mem br i1 %23, label LBL_10, label LBL_14 LBL_10: %sv_0.0.reload = load i32, i32* %sv_0.0.reg2mem %sv_1.0.reload = load %_IO_FILE*, %_IO_FILE** %sv_1.0.reg2mem %24 = call i64 @FUNC(i64 0) %25 = add i32 %sv_0.0.reload, ptrtoint (i64* @gv_7 to i32) %26 = inttoptr i64 %24 to i64* %27 = load i64, i64* %26, align 8 %28 = inttoptr i64 %27 to i64* %29 = call i64* @realloc(i64* %28, i32 %25) %30 = ptrtoint i64* %29 to i64 store i64 %30, i64* %26, align 8 %31 = icmp eq %_IO_FILE* %sv_1.0.reload, null br i1 %31, label LBL_13, label LBL_11 LBL_11: %32 = add i64 %30, ptrtoint (i64* @gv_7 to i64) %33 = inttoptr i64 %32 to i64* %34 = call i32 @fread(i64* %33, i32 1, i32 %sv_0.0.reload, %_IO_FILE* nonnull %sv_1.0.reload) %35 = icmp eq i32 %34, %sv_0.0.reload %36 = icmp eq i1 %35, false br i1 %36, label LBL_6, label LBL_12 LBL_12: %37 = call i32 @fclose(%_IO_FILE* nonnull %sv_1.0.reload) br label LBL_13 LBL_13: store i32 %sv_0.0.reload, i32* bitcast (i64* @gv_7 to i32*), align 8 %38 = load i64, i64* %26, align 8 %39 = load i32, i32* inttoptr (i64 4210844 to i32*), align 4 %40 = sext i32 %39 to i64 %41 = add i64 %38, 8 %42 = add i64 %41, %40 %43 = zext i32 %sv_0.0.reload to i64 %44 = call i64 @FUNC(i64 %42, i64 %43) %45 = udiv i32 %25, 256 %46 = load i64, i64* %26, align 8 %47 = trunc i32 %45 to i8 %48 = inttoptr i64 %46 to i8* store i8 %47, i8* %48, align 1 %49 = load i64, i64* %26, align 8 %50 = add i64 %49, 1 %51 = trunc i32 %25 to i8 %52 = inttoptr i64 %50 to i8* store i8 %51, i8* %52, align 1 %53 = add i64 %24, 8 %54 = inttoptr i64 %53 to i32* store i32 %25, i32* %54, align 4 store i64 1, i64* %rax.0.reg2mem br label LBL_14 LBL_14: %rax.0.reload = load i64, i64* %rax.0.reg2mem ret i64 %rax.0.reload uselistorder i32 %25, { 1, 2, 0, 3 } uselistorder %_IO_FILE* %sv_1.0.reload, { 2, 0, 1 } uselistorder i32 %sv_0.0.reload, { 2, 1, 3, 4, 0 } uselistorder %_IO_FILE* %10, { 0, 3, 2, 1, 4 } uselistorder i64* %rax.0.reg2mem, { 0, 3, 1, 4, 2 } uselistorder i32 (%_IO_FILE*, i32, i32)* @fseek, { 1, 0 } uselistorder i64 (i8*)* @ErrFatal, { 1, 0 } uselistorder i8* %arg1, { 1, 2, 0 } uselistorder label LBL_14, { 2, 0, 3, 1 } }
1
BinRealVul
ksmbd_conn_handler_loop_7842
ksmbd_conn_handler_loop
define i64 @FUNC(i64* %arg1) local_unnamed_addr { LBL_0: %0 = alloca i64 %storemerge.reg2mem = alloca i32 %1 = load i64, i64* %0 %2 = ptrtoint i64* %arg1 to i64 %sv_0 = alloca i32, align 4 store i32 0, i32* %sv_0, align 4 %3 = add i64 %2, 28 %4 = call i64 @FUNC(i64 %3) %5 = call i64 @FUNC(i64 0) %6 = load i32, i32* @gv_0, align 4 %7 = add i64 %2, 16 %8 = inttoptr i64 %7 to i32* store i32 %6, i32* %8, align 4 %9 = call i64 @FUNC(i64 %2) %10 = trunc i64 %9 to i32 %11 = icmp eq i32 %10, 0 %12 = icmp eq i1 %11, false br i1 %12, label LBL_1, label LBL_20 LBL_1: %13 = add i64 %2, 8 %14 = inttoptr i64 %13 to i64* %15 = trunc i64 %2 to i32 %16 = icmp eq i32 %15, 4 %17 = icmp eq i1 %16, false %18 = add i64 %2, 32 %19 = inttoptr i64 %18 to i64* %20 = and i64 %2, 4294967295 %21 = icmp slt i32 %15, 0 %22 = icmp eq i1 %21, false %23 = icmp eq i32 %15, 0 br label LBL_2 LBL_2: %24 = call i64 @FUNC() %25 = trunc i64 %24 to i32 %26 = icmp eq i32 %25, 0 br i1 %26, label LBL_3, label LBL_15 LBL_3: %27 = load i64, i64* %14, align 8 %28 = call i64 @FUNC(i64 %27) store i64 0, i64* %14, align 8 br i1 %17, label LBL_20, label LBL_4 LBL_4: %29 = add i64 %27, 8 %30 = inttoptr i64 %29 to i64* %31 = load i64, i64* %30, align 8 %32 = call i64 @FUNC(i32* nonnull %sv_0) %33 = and i64 %32, 4294967295 %34 = call i64 @FUNC(i64 0, i8* getelementptr inbounds ([25 x i8], [25 x i8]* @gv_1, i64 0, i64 0), i64 %33) %35 = call i64 @FUNC(i64 %2) %36 = trunc i64 %35 to i32 %37 = icmp eq i32 %36, 0 store i32 1048576, i32* %storemerge.reg2mem br i1 %37, label LBL_6, label LBL_5 LBL_5: %38 = load i64, i64* %19, align 8 %39 = inttoptr i64 %38 to i32* %40 = load i32, i32* %39, align 4 %41 = add i32 %40, 1048576 store i32 %41, i32* %storemerge.reg2mem br label LBL_6 LBL_6: %42 = trunc i64 %32 to i32 %storemerge.reload = load i32, i32* %storemerge.reg2mem %43 = icmp ult i32 %storemerge.reload, %42 br i1 %43, label LBL_7, label LBL_8 LBL_7: %44 = add i64 %2, 20 %45 = inttoptr i64 %44 to i32* %46 = load i32, i32* %45, align 4 %47 = zext i32 %46 to i64 %48 = call i64 @FUNC(i64 %47) %49 = and i64 %48, 4294967295 %50 = call i64 @FUNC(i8* getelementptr inbounds ([72 x i8], [72 x i8]* @gv_2, i64 0, i64 0), i64 %33, i32 %storemerge.reload, i64 %49, i64 %31, i64 %1) br label LBL_20 LBL_8: %51 = icmp ult i32 %42, 65537 br i1 %51, label LBL_9, label LBL_20 LBL_9: %52 = mul i64 %32, 4294967296 %sext = add i64 %52, 17179869184 %53 = ashr exact i64 %sext, 32 %54 = call i64 @FUNC(i64 %53, i64 0) store i64 %54, i64* %14, align 8 %55 = icmp eq i64 %54, 0 br i1 %55, label LBL_20, label LBL_10 LBL_10: %56 = load i32, i32* %sv_0, align 4 %57 = inttoptr i64 %54 to i32* store i32 %56, i32* %57, align 4 %58 = call i64 @FUNC(i64 %2) %59 = trunc i64 %58 to i32 %60 = icmp eq i32 %59, 0 br i1 %60, label LBL_20, label LBL_11 LBL_11: %61 = load i64, i64* %14, align 8 br i1 %22, label LBL_13, label LBL_12 LBL_12: %62 = call i64 @FUNC(i8* getelementptr inbounds ([22 x i8], [22 x i8]* @gv_3, i64 0, i64 0), i64 %20, i32 %42, i64 2, i64 %61, i64 %1) br label LBL_20 LBL_13: %63 = icmp eq i32 %42, %15 br i1 %63, label LBL_16, label LBL_14 LBL_14: %64 = call i64 @FUNC(i8* getelementptr inbounds ([35 x i8], [35 x i8]* @gv_4, i64 0, i64 0), i64 %20, i32 %42, i64 2, i64 %61, i64 %1) br label LBL_15 LBL_15: %65 = call i64 @FUNC(i64 %2) %66 = trunc i64 %65 to i32 %67 = icmp eq i32 %66, 0 %68 = icmp eq i1 %67, false br i1 %68, label LBL_2, label LBL_20 LBL_16: %69 = load i32, i32* @gv_5, align 4 %70 = icmp eq i32 %69, 0 %71 = icmp eq i1 %70, false br i1 %71, label LBL_18, label LBL_17 LBL_17: %72 = add i64 %61, 4 %73 = call i64 @FUNC(i8* getelementptr inbounds ([32 x i8], [32 x i8]* @gv_6, i64 0, i64 0), i64 %72, i32 %15, i64 2, i64 %61, i64 %1) br label LBL_20 LBL_18: br i1 %23, label LBL_15, label LBL_19 LBL_19: %74 = add i64 %61, 4 %75 = call i64 @FUNC(i8* getelementptr inbounds ([23 x i8], [23 x i8]* @gv_7, i64 0, i64 0), i64 %74, i32 %69, i64 2, i64 %61, i64 %1) br label LBL_20 LBL_20: %76 = call i64 @FUNC(i64 %2) %77 = add i64 %2, 24 %78 = call i64 @FUNC(i64 %77) %79 = trunc i64 %78 to i32 %80 = icmp eq i32 %79, 0 %81 = add i64 %2, 56 %82 = inttoptr i64 %81 to i32* %83 = load i32, i32* %82, align 4 %84 = zext i1 %80 to i64 %85 = zext i32 %83 to i64 %86 = call i64 @FUNC(i64 %85, i64 %84) %87 = call i64 @FUNC(i64 1) %88 = trunc i64 %87 to i32 %89 = icmp eq i32 %88, 0 br i1 %89, label LBL_22, label LBL_21 LBL_21: %90 = add i64 %2, 40 %91 = inttoptr i64 %90 to i64* %92 = load i64, i64* %91, align 8 %93 = call i64 @FUNC(i64 %92) br label LBL_22 LBL_22: %94 = add i64 %2, 48 %95 = inttoptr i64 %94 to i64* %96 = load i64, i64* %95, align 8 %97 = call i64 @FUNC(i64 %96) %98 = call i64 @FUNC(i64 0) ret i64 0 uselistorder i64 %61, { 0, 1, 2, 3, 5, 4 } uselistorder i64 %54, { 1, 0, 2 } uselistorder i32 %storemerge.reload, { 1, 0 } uselistorder i32 %42, { 3, 2, 0, 4, 1 } uselistorder i64 %32, { 0, 2, 1 } uselistorder i64 %20, { 1, 0 } uselistorder i32 %15, { 0, 2, 1, 3, 4 } uselistorder i32* %sv_0, { 1, 0, 2 } uselistorder i64 %2, { 7, 6, 8, 9, 10, 13, 3, 4, 5, 2, 1, 11, 12, 0, 14, 15 } uselistorder i64 %1, { 4, 3, 2, 1, 0 } uselistorder i32* %storemerge.reg2mem, { 0, 2, 1 } uselistorder i64 1, { 3, 0, 1, 2 } uselistorder i64 4, { 1, 0 } uselistorder i64 (i8*, i64, i32, i64, i64, i64)* @pr_err, { 3, 2, 1, 0 } uselistorder i64 2, { 3, 2, 1, 0 } uselistorder i32 1048576, { 1, 0 } uselistorder i64 4294967295, { 2, 3, 1, 4, 5, 0 } uselistorder i1 false, { 1, 4, 2, 3, 0 } uselistorder i64 (i64)* @ksmbd_conn_alive, { 1, 0 } uselistorder i32 0, { 5, 6, 1, 12, 9, 10, 11, 7, 8, 0, 4, 2, 3 } uselistorder label LBL_20, { 6, 7, 0, 8, 4, 3, 2, 9, 1, 5 } uselistorder label LBL_15, { 1, 0, 2 } uselistorder label LBL_6, { 1, 0 } uselistorder label LBL_2, { 1, 0 } }
1
BinRealVul
cpu_generic_init_14007
cpu_generic_init
define i64 @FUNC(i8* %arg1, i8* %arg2) local_unnamed_addr { LBL_0: %storemerge.reg2mem = alloca i64 %0 = ptrtoint i8* %arg1 to i64 %1 = ptrtoint i8* %arg2 to i64 %2 = call i64 @FUNC(i64 %0, i64 %1) %3 = icmp eq i64 %2, 0 store i64 0, i64* %storemerge.reg2mem br i1 %3, label LBL_2, label LBL_1 LBL_1: %4 = call i64 @FUNC(i64 %2) store i64 %4, i64* %storemerge.reg2mem br label LBL_2 LBL_2: %storemerge.reload = load i64, i64* %storemerge.reg2mem ret i64 %storemerge.reload uselistorder i64* %storemerge.reg2mem, { 0, 2, 1 } uselistorder label LBL_2, { 1, 0 } }
1
BinRealVul
ocfs2_prepare_page_for_write_11409
ocfs2_prepare_page_for_write
define i64 @FUNC(i64* %arg1, i64* %arg2, i64* %arg3, i64* %arg4, i64 %arg5, i64 %arg6, i64 %arg7, i64 %arg8) local_unnamed_addr { LBL_0: %.pre-phi8.reg2mem = alloca i64 %sv_0.0.reg2mem = alloca i64 %sv_1.0.reg2mem = alloca i64 %sv_2.0.reg2mem = alloca i32 %.pre-phi.reg2mem = alloca i32 %storemerge.in.reg2mem = alloca i64 %0 = ptrtoint i64* %arg4 to i64 %1 = ptrtoint i64* %arg2 to i64 %2 = ptrtoint i64* %arg1 to i64 %sext = mul i64 %arg8, 4294967296 %3 = ashr exact i64 %sext, 32 %sv_3 = alloca i32, align 4 %sv_4 = alloca i32, align 4 %4 = trunc i64 %arg5 to i32 %5 = bitcast i32* %sv_3 to i64* %6 = bitcast i32* %sv_4 to i64* %7 = call i64 @FUNC(i64 %2, i32 %4, i64* nonnull %5, i64* nonnull %6) %8 = icmp eq i64* %5, %arg4 %9 = icmp eq i1 %8, false br i1 %9, label LBL_7, label LBL_1 LBL_1: %10 = trunc i64 %arg6 to i32 %11 = urem i32 %10, 4096 %12 = trunc i64 %arg7 to i32 %13 = add i32 %11, %12 %14 = trunc i64 %3 to i32 %15 = icmp eq i32 %14, 0 br i1 %15, label LBL_3, label LBL_2 LBL_2: %16 = load i32, i32* %sv_4, align 4 %17 = load i32, i32* %sv_3, align 4 %18 = zext i32 %17 to i64 %19 = and i64 %3, 4294967295 %20 = zext i32 %16 to i64 %21 = call i64 @FUNC(i64 %0, i64 %1, i64 %2, i64 %18, i64 %20, i64 %19) store i64 %21, i64* %storemerge.in.reg2mem br label LBL_4 LBL_3: %22 = zext i32 %11 to i64 %23 = and i64 %3, 4294967295 %24 = zext i32 %13 to i64 %25 = call i64 @FUNC(i64 %0, i64 %1, i64 %2, i64 %22, i64 %24, i64 %23) store i64 %25, i64* %storemerge.in.reg2mem br label LBL_4 LBL_4: %storemerge.in.reload = load i64, i64* %storemerge.in.reg2mem %storemerge = trunc i64 %storemerge.in.reload to i32 %26 = icmp eq i32 %storemerge, 0 br i1 %26, label LBL_6, label LBL_5 LBL_5: %27 = and i64 %storemerge.in.reload, 4294967295 %28 = call i64 @FUNC(i64 %27) store i64 %27, i64* %.pre-phi8.reg2mem br label LBL_15 LBL_6: %phitmp = zext i32 %13 to i64 store i32 %14, i32* %.pre-phi.reg2mem store i32 %11, i32* %sv_2.0.reg2mem store i64 %phitmp, i64* %sv_1.0.reg2mem store i64 %storemerge.in.reload, i64* %sv_0.0.reg2mem br label LBL_11 LBL_7: %29 = trunc i64 %3 to i32 %30 = icmp eq i32 %29, 0 %31 = icmp eq i1 %30, false br i1 %31, label LBL_9, label LBL_8 LBL_8: %32 = load %_IO_FILE*, %_IO_FILE** @gv_0, align 8 %33 = call i32 @fwrite(i64* bitcast ([23 x i8]* @gv_1 to i64*), i32 1, i32 22, %_IO_FILE* %32) call void @exit(i32 1) unreachable LBL_9: %34 = load i32, i32* %sv_4, align 4 %35 = load i32, i32* %sv_3, align 4 %36 = zext i32 %35 to i64 %37 = and i64 %3, 4294967295 %38 = zext i32 %34 to i64 %39 = call i64 @FUNC(i64 %0, i64 %1, i64 %2, i64 %36, i64 %38, i64 %37) %40 = trunc i64 %39 to i32 %41 = icmp eq i32 %40, 0 store i32 %29, i32* %.pre-phi.reg2mem store i32 0, i32* %sv_2.0.reg2mem store i64 0, i64* %sv_1.0.reg2mem store i64 %39, i64* %sv_0.0.reg2mem br i1 %41, label LBL_11, label LBL_10 LBL_10: %42 = and i64 %39, 4294967295 %43 = call i64 @FUNC(i64 %42) store i64 %42, i64* %.pre-phi8.reg2mem br label LBL_15 LBL_11: %sv_0.0.reload = load i64, i64* %sv_0.0.reg2mem %.pre-phi.reload = load i32, i32* %.pre-phi.reg2mem %44 = icmp eq i32 %.pre-phi.reload, 0 br i1 %44, label LBL_14, label LBL_12 LBL_12: %45 = call i64 @FUNC(i64 %0) %46 = trunc i64 %45 to i32 %47 = icmp eq i32 %46, 0 %48 = icmp eq i1 %47, false br i1 %48, label LBL_14, label LBL_13 LBL_13: %sv_1.0.reload = load i64, i64* %sv_1.0.reg2mem %sv_2.0.reload = load i32, i32* %sv_2.0.reg2mem %49 = call i64 @FUNC(i64 %0, i64 %0, i32 %4, i32 %sv_2.0.reload, i64 %sv_1.0.reload) br label LBL_14 LBL_14: %50 = call i64 @FUNC(i64 %0) %.pre = and i64 %sv_0.0.reload, 4294967295 store i64 %.pre, i64* %.pre-phi8.reg2mem br label LBL_15 LBL_15: %.pre-phi8.reload = load i64, i64* %.pre-phi8.reg2mem ret i64 %.pre-phi8.reload uselistorder i64 %39, { 1, 0, 2 } uselistorder i64 %storemerge.in.reload, { 0, 2, 1 } uselistorder i32 %11, { 0, 2, 1 } uselistorder i32* %sv_4, { 1, 0, 2 } uselistorder i32* %sv_3, { 1, 0, 2 } uselistorder i64 %3, { 4, 3, 1, 2, 0 } uselistorder i64 %2, { 2, 1, 0, 3 } uselistorder i64 %1, { 2, 1, 0 } uselistorder i64 %0, { 5, 3, 2, 4, 6, 1, 0 } uselistorder i64* %storemerge.in.reg2mem, { 0, 2, 1 } uselistorder i64* %.pre-phi8.reg2mem, { 0, 3, 2, 1 } uselistorder %_IO_FILE** @gv_0, { 1, 0 } uselistorder i64 (i64)* @mlog_errno, { 1, 0 } uselistorder i64 (i64, i64, i64, i64, i64, i64)* @ocfs2_map_page_blocks, { 2, 1, 0 } uselistorder i32 0, { 1, 2, 0, 3, 4, 5, 6 } uselistorder label LBL_11, { 1, 0 } }
1
BinRealVul
dlt_config_file_set_section_12905
dlt_config_file_set_section
define i64 @FUNC(i64* %arg1, i8* %arg2) local_unnamed_addr { LBL_0: %rax.0.reg2mem = alloca i64 %0 = ptrtoint i64* %arg1 to i64 %1 = add i64 %0, 160 %2 = inttoptr i64 %1 to i32* %3 = load i32, i32* %2, align 4 %4 = icmp slt i32 %3, 10 br i1 %4, label LBL_2, label LBL_1 LBL_1: %5 = call i64 @FUNC(i64 1, i8* getelementptr inbounds ([28 x i8], [28 x i8]* @gv_0, i64 0, i64 0)) store i64 4294967295, i64* %rax.0.reg2mem br label LBL_9 LBL_2: %6 = ptrtoint i8* %arg2 to i64 %7 = call i64 @FUNC(i64 %0, i64 %6) %8 = trunc i64 %7 to i32 %9 = icmp eq i32 %8, 0 br i1 %9, label LBL_4, label LBL_3 LBL_3: %10 = call i64 @FUNC(i64 1, i8* getelementptr inbounds ([33 x i8], [33 x i8]* @gv_1, i64 0, i64 0)) store i64 4294967295, i64* %rax.0.reg2mem br label LBL_9 LBL_4: %11 = sext i32 %3 to i64 %12 = mul i64 %11, 16 %13 = add i64 %12, %0 %14 = call i64* @calloc(i32 1, i32 256) %15 = ptrtoint i64* %14 to i64 %16 = inttoptr i64 %13 to i64* store i64 %15, i64* %16, align 8 %17 = icmp eq i64* %14, null %18 = icmp eq i1 %17, false br i1 %18, label LBL_6, label LBL_5 LBL_5: %19 = call i64 @FUNC(i64 2, i8* getelementptr inbounds ([52 x i8], [52 x i8]* @gv_2, i64 0, i64 0)) store i64 4294967295, i64* %rax.0.reg2mem br label LBL_9 LBL_6: %20 = call i64* @calloc(i32 1, i32 2551) %21 = ptrtoint i64* %20 to i64 %22 = add i64 %13, 8 %23 = inttoptr i64 %22 to i64* store i64 %21, i64* %23, align 8 %24 = icmp eq i64* %20, null %25 = icmp eq i1 %24, false %26 = load i64, i64* %16, align 8 br i1 %25, label LBL_8, label LBL_7 LBL_7: %27 = inttoptr i64 %26 to i64* call void @free(i64* %27) %28 = call i64 @FUNC(i64 2, i8* getelementptr inbounds ([52 x i8], [52 x i8]* @gv_2, i64 0, i64 0)) store i64 4294967295, i64* %rax.0.reg2mem br label LBL_9 LBL_8: %29 = inttoptr i64 %26 to i8* %30 = call i8* @strncpy(i8* %29, i8* %arg2, i32 255) %31 = load i32, i32* %2, align 4 %32 = add i32 %31, 1 store i32 %32, i32* %2, align 4 store i64 0, i64* %rax.0.reg2mem br label LBL_9 LBL_9: %rax.0.reload = load i64, i64* %rax.0.reg2mem ret i64 %rax.0.reload uselistorder i64 %26, { 1, 0 } uselistorder i32* %2, { 1, 0, 2 } uselistorder i64* %rax.0.reg2mem, { 0, 5, 4, 3, 2, 1 } uselistorder i64* (i32, i32)* @calloc, { 1, 0 } uselistorder i32 0, { 2, 3, 0, 1 } uselistorder i64 4294967295, { 3, 2, 1, 0, 4, 5 } uselistorder i64 (i64, i8*)* @dlt_log, { 3, 2, 1, 0 } }
1
BinRealVul
zynqmp_dma_chan_remove_4134
zynqmp_dma_chan_remove
define i64 @FUNC(i64* %arg1) local_unnamed_addr { LBL_0: %0 = alloca i64 %rax.0.reg2mem = alloca i64 %1 = load i64, i64* %0 %2 = icmp eq i64* %arg1, null br i1 %2, label LBL_4, label LBL_1 LBL_1: %3 = ptrtoint i64* %arg1 to i64 %4 = trunc i64 %1 to i32 %5 = icmp eq i32 %4, 0 br i1 %5, label LBL_3, label LBL_2 LBL_2: %6 = add i64 %3, 8 %7 = inttoptr i64 %6 to i64* %8 = load i64, i64* %7, align 8 %9 = inttoptr i64 %8 to i64* %10 = load i64, i64* %9, align 8 %11 = and i64 %1, 4294967295 %12 = call i64 @FUNC(i64 %10, i64 %11, i64 %3) br label LBL_3 LBL_3: %13 = add i64 %3, 16 %14 = call i64 @FUNC(i64 %13) %15 = add i64 %3, 20 %16 = call i64 @FUNC(i64 %15) store i64 %16, i64* %rax.0.reg2mem br label LBL_4 LBL_4: %rax.0.reload = load i64, i64* %rax.0.reg2mem ret i64 %rax.0.reload uselistorder i64 %3, { 1, 0, 3, 2 } uselistorder i64 %1, { 1, 0 } uselistorder i64* %arg1, { 1, 0 } uselistorder label LBL_4, { 1, 0 } }
0
BinRealVul
kvm_emulate_hypercall_13085
kvm_emulate_hypercall
define i64 @FUNC(i64* %arg1) local_unnamed_addr { LBL_0: %sv_0.0.reg2mem = alloca i64 %.reg2mem = alloca i64 %sv_1.0.reg2mem = alloca i64 %sv_2.0.reg2mem = alloca i64 %sv_3.0.reg2mem = alloca i64 %sv_4.0.reg2mem = alloca i64 %0 = ptrtoint i64* %arg1 to i64 %sv_5 = alloca i64, align 8 %1 = call i64 @FUNC(i64 %0, i64 0) %2 = call i64 @FUNC(i64 %0, i64 1) %3 = call i64 @FUNC(i64 %0, i64 2) %4 = call i64 @FUNC(i64 %0, i64 3) %5 = call i64 @FUNC(i64 %0, i64 4) %6 = call i64 @FUNC(i64 %1, i64 %2, i64 %3, i64 %4, i64 %5) %7 = call i64 @FUNC(i64 %0) %8 = trunc i64 %7 to i32 %9 = icmp eq i32 %8, 0 %10 = icmp eq i1 %9, false store i64 %1, i64* %sv_4.0.reg2mem store i64 %2, i64* %sv_3.0.reg2mem store i64 %3, i64* %sv_2.0.reg2mem store i64 %4, i64* %sv_1.0.reg2mem br i1 %10, label LBL_2, label LBL_1 LBL_1: %11 = and i64 %1, 4294967295 %12 = and i64 %2, 4294967295 %13 = and i64 %3, 4294967295 %14 = and i64 %4, 4294967295 store i64 %11, i64* %sv_4.0.reg2mem store i64 %12, i64* %sv_3.0.reg2mem store i64 %13, i64* %sv_2.0.reg2mem store i64 %14, i64* %sv_1.0.reg2mem br label LBL_2 LBL_2: %sv_4.0.reload = load i64, i64* %sv_4.0.reg2mem switch i64 %sv_4.0.reload, label LBL_5 [ i64 1, label LBL_3 i64 2, label LBL_4 ] LBL_3: store i64 0, i64* %sv_5, align 8 store i64 0, i64* %.reg2mem store i64 1, i64* %sv_0.0.reg2mem br label LBL_6 LBL_4: %sv_1.0.reload = load i64, i64* %sv_1.0.reg2mem %sv_2.0.reload = load i64, i64* %sv_2.0.reg2mem %sv_3.0.reload = load i64, i64* %sv_3.0.reg2mem %15 = call i64 @FUNC(i64 %0, i64 %sv_2.0.reload, i64 %sv_1.0.reload) %16 = call i64 @FUNC(i64 %0, i64 %sv_3.0.reload, i64 %15, i64* nonnull %sv_5) %phitmp = and i64 %16, 4294967295 %.pre = load i64, i64* %sv_5, align 8 store i64 %.pre, i64* %.reg2mem store i64 %phitmp, i64* %sv_0.0.reg2mem br label LBL_6 LBL_5: store i64 -1, i64* %sv_5, align 8 store i64 -1, i64* %.reg2mem store i64 1, i64* %sv_0.0.reg2mem br label LBL_6 LBL_6: %sv_0.0.reload = load i64, i64* %sv_0.0.reg2mem %.reload = load i64, i64* %.reg2mem %17 = call i64 @FUNC(i64 %0, i64 0, i64 %.reload) %18 = add i64 %0, 1 store i64 %18, i64* %arg1, align 8 ret i64 %sv_0.0.reload uselistorder i64 %4, { 1, 0, 2 } uselistorder i64 %3, { 1, 0, 2 } uselistorder i64 %2, { 1, 0, 2 } uselistorder i64 %1, { 1, 0, 2 } uselistorder i64* %sv_5, { 2, 0, 1, 3 } uselistorder i64 %0, { 3, 2, 1, 0, 6, 5, 4, 7, 8, 9 } uselistorder i64 4294967295, { 0, 4, 3, 2, 1 } uselistorder i64 1, { 5, 0, 1, 3, 4, 2 } uselistorder i64 (i64, i64)* @kvm_register_read, { 4, 3, 2, 1, 0 } }
1
BinRealVul
consume_encoded_name_new_19161
consume_encoded_name_new
define i64 @FUNC(i64* %arg1, i64 %arg2, i64* %arg3, i64* %arg4) local_unnamed_addr { LBL_0: %rax.0.reg2mem = alloca i64 %sv_0.1.lcssa.reg2mem = alloca i64 %.pn.reg2mem = alloca i64 %sv_0.15.reg2mem = alloca i64 %storemerge6.reg2mem = alloca i64 %0 = ptrtoint i64* %arg1 to i64 %sv_1 = alloca i32, align 4 %sv_2 = alloca i64, align 8 store i64 0, i64* %sv_2, align 8 %1 = bitcast i32* %sv_1 to i64* %2 = call i64 @FUNC(i64 %0, i64 %arg2, i64* nonnull %1, i64* nonnull %sv_2) %3 = trunc i64 %2 to i8 %4 = icmp eq i8 %3, 1 store i64 0, i64* %rax.0.reg2mem br i1 %4, label LBL_1, label LBL_12 LBL_1: %5 = load i32, i32* %sv_1, align 4 %6 = mul i32 %5, 4 %7 = or i32 %6, 2 %8 = call i64* @malloc(i32 %7) %9 = icmp eq i64* %8, null %10 = icmp eq i1 %9, false br i1 %10, label LBL_2, label LBL_3 LBL_2: %11 = zext i32 %7 to i64 %12 = ptrtoint i64* %8 to i64 %13 = load i32, i32* %sv_1, align 4 %14 = icmp ne i32 %13, 0 %15 = icmp ugt i32 %7, 4 %or.cond34 = icmp eq i1 %15, %14 store i64 0, i64* %storemerge6.reg2mem store i64 0, i64* %sv_0.15.reg2mem store i64 0, i64* %sv_0.1.lcssa.reg2mem br i1 %or.cond34, label LBL_4, label LBL_8 LBL_3: %16 = load i64, i64* %sv_2, align 8 %17 = inttoptr i64 %16 to i64* call void @free(i64* %17) store i64 0, i64* %rax.0.reg2mem br label LBL_12 LBL_4: %sv_0.15.reload = load i64, i64* %sv_0.15.reg2mem %storemerge6.reload = load i64, i64* %storemerge6.reg2mem %18 = load i64, i64* %sv_2, align 8 %19 = add i64 %18, %storemerge6.reload %20 = inttoptr i64 %19 to i8* %21 = load i8, i8* %20, align 1 %22 = icmp slt i8 %21, 32 %23 = icmp eq i8 %21, 127 %or.cond = or i1 %22, %23 %24 = add i64 %sv_0.15.reload, %12 br i1 %or.cond, label LBL_6, label LBL_5 LBL_5: %25 = inttoptr i64 %24 to i8* store i8 %21, i8* %25, align 1 store i64 1, i64* %.pn.reg2mem br label LBL_7 LBL_6: %26 = sext i8 %21 to i32 %27 = inttoptr i64 %24 to i8* %28 = trunc i64 %sv_0.15.reload to i32 %29 = sub i32 %7, %28 %30 = call i32 (i8*, i32, i8*, ...) @snprintf(i8* %27, i32 %29, i8* getelementptr inbounds ([7 x i8], [7 x i8]* @gv_0, i64 0, i64 0), i32 %26) %31 = sext i32 %30 to i64 store i64 %31, i64* %.pn.reg2mem br label LBL_7 LBL_7: %.pn.reload = load i64, i64* %.pn.reg2mem %sv_0.0 = add i64 %.pn.reload, %sv_0.15.reload %32 = add nuw nsw i64 %storemerge6.reload, 1 %33 = load i32, i32* %sv_1, align 4 %34 = zext i32 %33 to i64 %35 = icmp ult i64 %32, %34 %36 = add i64 %sv_0.0, 4 %37 = icmp ult i64 %36, %11 %or.cond3 = icmp eq i1 %37, %35 store i64 %32, i64* %storemerge6.reg2mem store i64 %sv_0.0, i64* %sv_0.15.reg2mem store i64 %sv_0.0, i64* %sv_0.1.lcssa.reg2mem br i1 %or.cond3, label LBL_4, label LBL_8 LBL_8: %sv_0.1.lcssa.reload = load i64, i64* %sv_0.1.lcssa.reg2mem %38 = add i64 %sv_0.1.lcssa.reload, %12 %39 = inttoptr i64 %38 to i8* store i8 0, i8* %39, align 1 %40 = load i64, i64* %sv_2, align 8 %41 = inttoptr i64 %40 to i64* call void @free(i64* %41) %42 = trunc i64 %sv_0.1.lcssa.reload to i32 %43 = add i32 %42, 1 %44 = call i64* @realloc(i64* %8, i32 %43) %45 = icmp eq i64* %44, null %46 = icmp eq i1 %45, false br i1 %46, label LBL_10, label LBL_9 LBL_9: call void @free(i64* %8) call void @free(i64* %44) store i64 0, i64* %rax.0.reg2mem br label LBL_12 LBL_10: %47 = ptrtoint i64* %44 to i64 store i64 %47, i64* %arg4, align 8 %48 = icmp eq i64* %arg3, null store i64 1, i64* %rax.0.reg2mem br i1 %48, label LBL_12, label LBL_11 LBL_11: %49 = load i32, i32* %sv_1, align 4 %50 = bitcast i64* %arg3 to i32* store i32 %49, i32* %50, align 4 store i64 1, i64* %rax.0.reg2mem br label LBL_12 LBL_12: %rax.0.reload = load i64, i64* %rax.0.reg2mem ret i64 %rax.0.reload uselistorder i64* %44, { 2, 0, 1 } uselistorder i64 %24, { 1, 0 } uselistorder i8 %21, { 1, 0, 2, 3 } uselistorder i64 %sv_0.15.reload, { 2, 0, 1 } uselistorder i64* %8, { 0, 1, 3, 2 } uselistorder i32 %7, { 1, 0, 3, 2 } uselistorder i64* %sv_2, { 1, 2, 3, 0, 4 } uselistorder i32* %sv_1, { 3, 2, 0, 1, 4 } uselistorder i64* %storemerge6.reg2mem, { 2, 0, 1 } uselistorder i64* %sv_0.15.reg2mem, { 2, 0, 1 } uselistorder i64* %.pn.reg2mem, { 0, 2, 1 } uselistorder i64* %rax.0.reg2mem, { 0, 2, 1, 5, 4, 3 } uselistorder i64 1, { 1, 0, 3, 2, 4 } uselistorder i32 4, { 1, 0 } uselistorder label LBL_12, { 1, 0, 3, 4, 2 } uselistorder label LBL_4, { 1, 0 } }
1
BinRealVul
hv_post_message_5282
hv_post_message
define i64 @FUNC(i64 %arg1, i32 %arg2, i64* %arg3, i64 %arg4) local_unnamed_addr { LBL_0: %storemerge.reg2mem = alloca i64 %0 = icmp ult i64 %arg4, 1025 store i64 4294967206, i64* %storemerge.reg2mem br i1 %0, label LBL_1, label LBL_2 LBL_1: %1 = load i64, i64* @gv_0, align 8 %2 = call i64 @FUNC(i64 %1) %3 = inttoptr i64 %2 to i64* %4 = load i64, i64* %3, align 8 %5 = trunc i64 %arg1 to i32 %6 = inttoptr i64 %4 to i32* store i32 %5, i32* %6, align 4 %7 = add i64 %4, 4 %8 = inttoptr i64 %7 to i32* store i32 0, i32* %8, align 4 %9 = add i64 %4, 8 %10 = inttoptr i64 %9 to i32* store i32 %arg2, i32* %10, align 4 %11 = add i64 %4, 16 %12 = inttoptr i64 %11 to i64* store i64 %arg4, i64* %12, align 8 %13 = add i64 %4, 24 %14 = inttoptr i64 %13 to i64* %15 = trunc i64 %arg4 to i32 %16 = call i64* @memcpy(i64* %14, i64* %arg3, i32 %15) %17 = call i64 @FUNC(i64 1, i64 %4, i64 0) %18 = call i64 @FUNC(i64 %2) %19 = urem i64 %17, 65536 store i64 %19, i64* %storemerge.reg2mem br label LBL_2 LBL_2: %storemerge.reload = load i64, i64* %storemerge.reg2mem ret i64 %storemerge.reload uselistorder i64* %storemerge.reg2mem, { 0, 2, 1 } uselistorder label LBL_2, { 1, 0 } }
0
BinRealVul
check_allocations_11279
check_allocations
define i64 @FUNC(i64* %arg1, i64 %arg2) local_unnamed_addr { LBL_0: %storemerge.reg2mem = alloca i64 %0 = ptrtoint i64* %arg1 to i64 %1 = icmp ult i64 %0, %arg2 br i1 %1, label LBL_1, label LBL_5 LBL_1: %2 = add i64 %0, 8 %3 = inttoptr i64 %2 to i64* %4 = load i64, i64* %3, align 8 %5 = inttoptr i64 %4 to i64* %6 = trunc i64 %arg2 to i32 %7 = call i64* @realloc(i64* %5, i32 %6) %8 = icmp eq i64* %7, null store i64 0, i64* %storemerge.reg2mem br i1 %8, label LBL_6, label LBL_2 LBL_2: %9 = add i64 %0, 16 %10 = inttoptr i64 %9 to i64* %11 = load i64, i64* %10, align 8 %12 = inttoptr i64 %11 to i64* %13 = call i64* @realloc(i64* %12, i32 %6) %14 = icmp eq i64* %13, null store i64 0, i64* %storemerge.reg2mem br i1 %14, label LBL_6, label LBL_3 LBL_3: %15 = add i64 %0, 24 %16 = inttoptr i64 %15 to i64* %17 = load i64, i64* %16, align 8 %18 = inttoptr i64 %17 to i64* %19 = call i64* @realloc(i64* %18, i32 %6) %20 = icmp eq i64* %19, null store i64 0, i64* %storemerge.reg2mem br i1 %20, label LBL_6, label LBL_4 LBL_4: %21 = add i64 %0, 32 %22 = inttoptr i64 %21 to i64* %23 = load i64, i64* %22, align 8 %24 = inttoptr i64 %23 to i64* %25 = call i64* @realloc(i64* %24, i32 %6) %26 = icmp eq i64* %25, null %27 = icmp eq i1 %26, false store i64 0, i64* %storemerge.reg2mem br i1 %27, label LBL_5, label LBL_6 LBL_5: store i64 1, i64* %storemerge.reg2mem br label LBL_6 LBL_6: %storemerge.reload = load i64, i64* %storemerge.reg2mem ret i64 %storemerge.reload uselistorder i64* %storemerge.reg2mem, { 0, 5, 4, 3, 2, 1 } uselistorder i64* (i64*, i32)* @realloc, { 3, 2, 1, 0 } uselistorder label LBL_6, { 4, 3, 2, 1, 0 } uselistorder label LBL_5, { 1, 0 } }
1
BinRealVul
dump_fd_info_11650
dump_fd_info
define i64 @FUNC(i64 %arg1, i64* %arg2, i32 %arg3, i32 %arg4, i64 %arg5) local_unnamed_addr { LBL_0: %rax.0.reg2mem = alloca i64 %sv_0.05.reg2mem = alloca i32 %sv_1 = alloca i64, align 8 %0 = inttoptr i64 %arg1 to i8* %1 = call %_IO_FILE* @fopen(i8* %0, i8* getelementptr inbounds ([2 x i8], [2 x i8]* @gv_0, i64 0, i64 0)) %2 = icmp eq %_IO_FILE* %1, null %3 = icmp eq i1 %2, false store i64 0, i64* %rax.0.reg2mem br i1 %3, label LBL_1, label LBL_11 LBL_1: %4 = ptrtoint i64* %arg2 to i64 %5 = sext i32 %arg3 to i64 %6 = add i64 %5, %4 %7 = inttoptr i64 %6 to i8* %8 = bitcast i64* %arg2 to i8* %9 = bitcast i64* %sv_1 to i8* store i32 0, i32* %sv_0.05.reg2mem br label LBL_2 LBL_2: %sv_0.05.reload = load i32, i32* %sv_0.05.reg2mem %10 = call i32 (i8*, i8*, ...) @sprintf(i8* %7, i8* getelementptr inbounds ([6 x i8], [6 x i8]* @gv_1, i64 0, i64 0), i32 %sv_0.05.reload) %11 = call i64 @FUNC(i64 %4) %12 = icmp eq i64 %11, 0 br i1 %12, label LBL_8, label LBL_3 LBL_3: %13 = inttoptr i64 %11 to i8* %14 = call i32 (%_IO_FILE*, i8*, ...) @fprintf(%_IO_FILE* %1, i8* getelementptr inbounds ([7 x i8], [7 x i8]* @gv_2, i64 0, i64 0), i32 %sv_0.05.reload, i8* %13) %15 = inttoptr i64 %11 to i64* call void @free(i64* %15) %16 = call i32 (i8*, i8*, ...) @sprintf(i8* %7, i8* getelementptr inbounds ([10 x i8], [10 x i8]* @gv_3, i64 0, i64 0), i32 %sv_0.05.reload) %17 = call %_IO_FILE* @fopen(i8* %8, i8* getelementptr inbounds ([2 x i8], [2 x i8]* @gv_4, i64 0, i64 0)) %18 = icmp eq %_IO_FILE* %17, null %19 = icmp eq i1 %18, false br i1 %19, label LBL_4, label LBL_7 LBL_4: %20 = call i8* @fgets(i8* nonnull %9, i32 127, %_IO_FILE* %17) %21 = icmp eq i8* %20, null %22 = icmp eq i1 %21, false br i1 %22, label LBL_5, label LBL_6 LBL_5: %23 = call i64 @FUNC(i64* nonnull %sv_1, i64 10) %24 = inttoptr i64 %23 to i8* store i8 10, i8* %24, align 1 %25 = add i64 %23, 1 %26 = inttoptr i64 %25 to i8* store i8 0, i8* %26, align 1 %27 = call i32 @fputs(i8* nonnull %9, %_IO_FILE* %1) %28 = call i8* @fgets(i8* nonnull %9, i32 127, %_IO_FILE* %17) %29 = icmp eq i8* %28, null %30 = icmp eq i1 %29, false br i1 %30, label LBL_5, label LBL_6 LBL_6: %31 = call i32 @fclose(%_IO_FILE* %17) br label LBL_7 LBL_7: %32 = add nuw nsw i32 %sv_0.05.reload, 1 %33 = icmp ult i32 %32, 100000 store i32 %32, i32* %sv_0.05.reg2mem br i1 %33, label LBL_2, label LBL_8 LBL_8: %34 = call i32 @fileno(%_IO_FILE* %1) %35 = trunc i64 %arg5 to i32 %36 = call i32 @fchown(i32 %34, i32 %arg4, i32 %35) %37 = icmp slt i32 %36, 0 %38 = icmp eq i1 %37, false br i1 %38, label LBL_10, label LBL_9 LBL_9: %39 = call i64 @FUNC(i8* getelementptr inbounds ([39 x i8], [39 x i8]* @gv_5, i64 0, i64 0), i64 %arg1, i32 %arg4, i32 %35) %40 = call i32 @fclose(%_IO_FILE* %1) %41 = call i32 @unlink(i8* %0) store i64 0, i64* %rax.0.reg2mem br label LBL_11 LBL_10: %42 = call i32 @fclose(%_IO_FILE* %1) store i64 1, i64* %rax.0.reg2mem br label LBL_11 LBL_11: %rax.0.reload = load i64, i64* %rax.0.reg2mem ret i64 %rax.0.reload uselistorder %_IO_FILE* %17, { 1, 2, 0, 3 } uselistorder i32 %sv_0.05.reload, { 1, 0, 2, 3 } uselistorder i8* %9, { 2, 1, 0 } uselistorder i64 %4, { 1, 0 } uselistorder %_IO_FILE* %1, { 3, 2, 4, 0, 1, 5 } uselistorder i64* %sv_1, { 1, 0 } uselistorder i32* %sv_0.05.reg2mem, { 1, 0, 2 } uselistorder i64* %rax.0.reg2mem, { 0, 3, 2, 1 } uselistorder i32 (%_IO_FILE*)* @fclose, { 2, 1, 0 } uselistorder i8* null, { 1, 0 } uselistorder i8* (i8*, i32, %_IO_FILE*)* @fgets, { 1, 0 } uselistorder i32 127, { 1, 0 } uselistorder void (i64*)* @free, { 1, 0 } uselistorder i32 (%_IO_FILE*, i8*, ...)* @fprintf, { 1, 0 } uselistorder i32 (i8*, i8*, ...)* @sprintf, { 1, 0 } uselistorder i1 false, { 2, 3, 0, 4, 5, 1 } uselistorder %_IO_FILE* (i8*, i8*)* @fopen, { 1, 0 } uselistorder label LBL_11, { 1, 2, 0 } uselistorder label LBL_8, { 1, 0 } uselistorder label LBL_5, { 1, 0 } uselistorder label LBL_2, { 1, 0 } }
1
BinRealVul
cdxl_decode_rgb_17500
cdxl_decode_rgb
define i64 @FUNC(i64* %arg1) local_unnamed_addr { LBL_0: %0 = ptrtoint i64* %arg1 to i64 %1 = add i64 %0, 8 %2 = inttoptr i64 %1 to i64* %3 = load i64, i64* %2, align 8 %4 = call i64 @FUNC(i64 %0, i64 %3) %5 = add i64 %0, 16 %6 = inttoptr i64 %5 to i32* %7 = load i32, i32* %6, align 4 %8 = zext i32 %7 to i64 %9 = call i64 @FUNC(i64 %0, i64 %8, i64 %0) ret i64 %9 uselistorder i64 %0, { 3, 0, 1, 2, 4 } }
1
BinRealVul
qpci_pc_config_readw_987
qpci_pc_config_readw
define i64 @FUNC(i64* %arg1, i64 %arg2, i8 %arg3) local_unnamed_addr { LBL_0: %0 = mul i64 %arg2, 256 %1 = zext i8 %arg3 to i64 %.masked = and i64 %0, 2147483392 %2 = or i64 %.masked, %1 %3 = or i64 %2, 2147483648 %4 = call i64 @FUNC(i64 3320, i64 %3) %5 = call i64 @FUNC(i64 3324) ret i64 %5 }
0
BinRealVul
flush_tlb_page_11114
flush_tlb_page
define i64 @FUNC(i64* %arg1, i64 %arg2) local_unnamed_addr { LBL_0: %0 = ptrtoint i64* %arg1 to i64 %1 = call i64 @FUNC() %2 = load i64, i64* @gv_0, align 8 %3 = inttoptr i64 %2 to i64* %4 = load i64, i64* %3, align 8 %5 = icmp eq i64 %4, %0 %6 = icmp eq i1 %5, false br i1 %6, label LBL_4, label LBL_1 LBL_1: %7 = add i64 %2, 8 %8 = inttoptr i64 %7 to i64* %9 = load i64, i64* %8, align 8 %10 = icmp eq i64 %9, 0 br i1 %10, label LBL_3, label LBL_2 LBL_2: %11 = call i64 @FUNC(i64 %arg2) br label LBL_4 LBL_3: %12 = call i64 @FUNC() %13 = and i64 %12, 4294967295 %14 = call i64 @FUNC(i64 %13) br label LBL_4 LBL_4: %15 = call i64 @FUNC() %16 = call i64 @FUNC(i64 %0) %17 = and i64 %15, 4294967295 %18 = call i64 @FUNC(i64 %16, i64 %17) %19 = load i32, i32* inttoptr (i64 4210732 to i32*), align 4 %20 = zext i32 %19 to i64 %21 = icmp slt i64 %18, %20 br i1 %21, label LBL_5, label LBL_6 LBL_5: %22 = call i64 @FUNC(i64 %0) %23 = call i64 @FUNC(i64 %22, i64 %0, i64 %arg2, i64 0) br label LBL_6 LBL_6: %24 = call i64 @FUNC() ret i64 %24 uselistorder i64 %0, { 1, 0, 2, 3 } uselistorder i64 (i64)* @mm_cpumask, { 1, 0 } uselistorder i64 4294967295, { 1, 0 } uselistorder i64 ()* @smp_processor_id, { 1, 0 } uselistorder i64 %arg2, { 1, 0 } uselistorder label LBL_6, { 1, 0 } }
1
BinRealVul
orangefs_prepare_debugfs_help_string_17742
orangefs_prepare_debugfs_help_string
define i64 @FUNC(i64 %arg1) local_unnamed_addr { LBL_0: %0 = alloca i64 %sv_0.0.reg2mem = alloca i64 %sv_1.0.lcssa.reg2mem = alloca i64 %storemerge5.reg2mem = alloca i64 %storemerge46.reg2mem = alloca i64 %1 = load i64, i64* %0 %2 = load i64, i64* %0 %3 = load i64, i64* %0 %4 = call i64 @FUNC(i64 0, i8* getelementptr inbounds ([11 x i8], [11 x i8]* @gv_0, i64 0, i64 0), i8* getelementptr inbounds ([37 x i8], [37 x i8]* @gv_1, i64 0, i64 0), i64 %3, i64 %2, i64 %1) %5 = call i64 @FUNC(i64 1024, i64 0) %6 = icmp eq i64 %5, 0 %7 = icmp eq i1 %6, false store i64 4294967284, i64* %sv_0.0.reg2mem br i1 %7, label LBL_1, label LBL_11 LBL_1: %8 = trunc i64 %arg1 to i32 %9 = icmp eq i32 %8, 0 %10 = select i1 %9, i64 ptrtoint ([24 x i8]* @gv_2 to i64), i64 ptrtoint ([26 x i8]* @gv_3 to i64) %11 = call i64 @FUNC(i64 %5, i64 %10, i64 1024) %12 = icmp eq i1 %9, false br i1 %12, label LBL_4, label LBL_2 LBL_2: %13 = load i64, i64* @gv_4, align 8 %14 = call i64 @FUNC(i64 %13) %15 = trunc i64 %14 to i32 store i32 %15, i32* @gv_5, align 4 %16 = icmp slt i32 %15, 1 store i64 0, i64* %storemerge46.reg2mem store i64 4294967274, i64* %sv_0.0.reg2mem br i1 %16, label LBL_11, label LBL_3 LBL_3: %storemerge46.reload = load i64, i64* %storemerge46.reg2mem %17 = call i64 @FUNC(i64 %5, i64 ptrtoint (i64* @gv_6 to i64), i64 1024) %18 = mul i64 %storemerge46.reload, 8 %19 = add i64 %18, ptrtoint (i64* @gv_7 to i64) %20 = inttoptr i64 %19 to i64* %21 = load i64, i64* %20, align 8 %22 = call i64 @FUNC(i64 %5, i64 %21, i64 1024) %23 = call i64 @FUNC(i64 %5, i64 ptrtoint (i64* @gv_8 to i64), i64 1024) %24 = add nuw i64 %storemerge46.reload, 1 %25 = load i32, i32* @gv_5, align 4 %26 = sext i32 %25 to i64 %27 = icmp ult i64 %24, %26 store i64 %24, i64* %storemerge46.reg2mem br i1 %27, label LBL_3, label LBL_4 LBL_4: %28 = call i64 @FUNC(i64 %5, i64 ptrtoint (i64* @gv_8 to i64), i64 1024) %29 = call i64 @FUNC(i64 %5, i64 ptrtoint ([24 x i8]* @gv_9 to i64), i64 1024) %30 = load i32, i32* @gv_10, align 4 %31 = icmp eq i32 %30, 0 store i64 0, i64* %storemerge5.reg2mem br i1 %31, label LBL_6, label LBL_5 LBL_5: %storemerge5.reload = load i64, i64* %storemerge5.reg2mem %32 = call i64 @FUNC(i64 %5, i64 ptrtoint (i64* @gv_6 to i64), i64 1024) %33 = mul i64 %storemerge5.reload, 8 %34 = add i64 %33, ptrtoint (i64* @gv_11 to i64) %35 = inttoptr i64 %34 to i64* %36 = load i64, i64* %35, align 8 %37 = call i64 @FUNC(i64 %5, i64 %36, i64 1024) %38 = call i64 @FUNC(i64 %5, i64 ptrtoint (i64* @gv_8 to i64), i64 1024) %39 = add nuw i64 %storemerge5.reload, 1 %40 = load i32, i32* @gv_10, align 4 %41 = sext i32 %40 to i64 %42 = icmp ult i64 %39, %41 store i64 %39, i64* %storemerge5.reg2mem store i64 %38, i64* %sv_1.0.lcssa.reg2mem br i1 %42, label LBL_5, label LBL_6 LBL_6: %sv_1.0.lcssa.reload = load i64, i64* %sv_1.0.lcssa.reg2mem %43 = icmp ult i64 %sv_1.0.lcssa.reload, 1024 br i1 %43, label LBL_8, label LBL_7 LBL_7: %44 = call i64 @FUNC(i64 %5) store i64 4294967274, i64* %sv_0.0.reg2mem br label LBL_11 LBL_8: br i1 %9, label LBL_10, label LBL_9 LBL_9: store i64 %5, i64* @gv_12, align 8 store i64 0, i64* %sv_0.0.reg2mem br label LBL_11 LBL_10: %45 = call i64 @FUNC(i64* nonnull @gv_13) %46 = load i64, i64* @gv_12, align 8 %47 = inttoptr i64 %46 to i64* %48 = call i64* @memset(i64* %47, i32 0, i32 1024) %49 = load i64, i64* @gv_12, align 8 %50 = call i64 @FUNC(i64 %49, i64 %5, i64 1024) %51 = call i64 @FUNC(i64* nonnull @gv_13) store i64 0, i64* %sv_0.0.reg2mem br label LBL_11 LBL_11: %sv_0.0.reload = load i64, i64* %sv_0.0.reg2mem ret i64 %sv_0.0.reload uselistorder i1 %9, { 1, 0, 2 } uselistorder i64 %5, { 5, 4, 3, 7, 6, 8, 10, 9, 1, 0, 2, 11, 12 } uselistorder i64* %storemerge46.reg2mem, { 2, 0, 1 } uselistorder i64* %storemerge5.reg2mem, { 2, 0, 1 } uselistorder i64* %sv_0.0.reg2mem, { 0, 2, 1, 5, 4, 3 } uselistorder i64* %0, { 2, 1, 0 } uselistorder i32* @gv_10, { 1, 0 } uselistorder i64 1, { 1, 2, 0, 3 } uselistorder i64 4294967274, { 1, 0 } uselistorder i32* @gv_5, { 1, 0 } uselistorder i64 (i64, i64, i64)* @strlcat, { 9, 8, 7, 6, 2, 1, 5, 4, 3, 0 } uselistorder i32 0, { 1, 0, 4, 2, 3 } uselistorder i64 1024, { 3, 4, 6, 5, 7, 9, 8, 1, 0, 2, 10, 11 } uselistorder i32 1, { 9, 8, 7, 6, 5, 4, 3, 2, 1, 0 } uselistorder label LBL_11, { 1, 0, 4, 3, 2 } uselistorder label LBL_5, { 1, 0 } uselistorder label LBL_3, { 1, 0 } }
1
BinRealVul
ptrace_link_11106
ptrace_link
define i64 @FUNC(i64* %arg1, i64* %arg2) local_unnamed_addr { LBL_0: %0 = ptrtoint i64* %arg2 to i64 %1 = ptrtoint i64* %arg1 to i64 %2 = call i64 @FUNC() %3 = call i64 @FUNC(i64 %0) %4 = call i64 @FUNC(i64 %1, i64 %0, i64 %3) %5 = call i64 @FUNC() ret i64 %5 }
1
BinRealVul
RegenerateThumbnail_5998
RegenerateThumbnail
define i64 @FUNC(i64 %arg1) local_unnamed_addr { LBL_0: %rax.0.reg2mem = alloca i64 %sv_0 = alloca i64, align 8 %0 = load i32, i32* @gv_0, align 4 %1 = icmp eq i32 %0, 0 store i64 0, i64* %rax.0.reg2mem br i1 %1, label LBL_7, label LBL_1 LBL_1: %2 = load i32, i32* @gv_1, align 4 %3 = icmp eq i32 %2, 0 %4 = icmp eq i1 %3, false store i64 0, i64* %rax.0.reg2mem br i1 %4, label LBL_2, label LBL_7 LBL_2: %5 = inttoptr i64 %arg1 to i8* %6 = call i8* @strpbrk(i8* %5, i8* getelementptr inbounds ([7 x i8], [7 x i8]* @gv_2, i64 0, i64 0)) %7 = icmp eq i8* %6, null br i1 %7, label LBL_4, label LBL_3 LBL_3: %8 = call i64 @FUNC(i8* getelementptr inbounds ([33 x i8], [33 x i8]* @gv_3, i64 0, i64 0), i64 0, i64 0) store i64 0, i64* %rax.0.reg2mem br label LBL_7 LBL_4: %9 = load i32, i32* inttoptr (i64 4210776 to i32*), align 8 %10 = load i32, i32* @gv_4, align 4 %11 = zext i32 %9 to i64 %12 = zext i32 %10 to i64 %13 = bitcast i64* %sv_0 to i8* %14 = call i32 (i8*, i32, i8*, ...) @snprintf(i8* nonnull %13, i32 8242, i8* getelementptr inbounds ([42 x i8], [42 x i8]* @gv_5, i64 0, i64 0), i64 %12, i64 %11, i8* %5) %15 = call i32 @system(i8* nonnull %13) %16 = icmp eq i32 %15, 0 %17 = icmp eq i1 %16, false br i1 %17, label LBL_6, label LBL_5 LBL_5: %18 = call i64 @FUNC(i64 %arg1) store i64 %18, i64* %rax.0.reg2mem br label LBL_7 LBL_6: %19 = call i64 @FUNC(i8* getelementptr inbounds ([32 x i8], [32 x i8]* @gv_6, i64 0, i64 0)) unreachable LBL_7: %rax.0.reload = load i64, i64* %rax.0.reg2mem ret i64 %rax.0.reload uselistorder i64* %rax.0.reg2mem, { 0, 4, 3, 2, 1 } uselistorder label LBL_7, { 2, 3, 1, 0 } }
0
BinRealVul
mk_utils_gmt2utime_18185
mk_utils_gmt2utime
define i64 @FUNC(i64* %arg1) local_unnamed_addr { LBL_0: %storemerge.reg2mem = alloca i64 %sv_0 = alloca i64, align 8 %0 = bitcast i64* %arg1 to i8* %1 = bitcast i64* %sv_0 to %tm* %2 = call i8* @strptime(i8* %0, i8* getelementptr inbounds ([26 x i8], [26 x i8]* @gv_0, i64 0, i64 0), %tm* nonnull %1) %3 = ptrtoint i8* %2 to i64 %4 = trunc i64 %3 to i32 %5 = icmp eq i32 %4, 0 %6 = icmp eq i1 %5, false store i64 -1, i64* %storemerge.reg2mem br i1 %6, label LBL_1, label LBL_2 LBL_1: %7 = call i32 @mktime(%tm* nonnull %1) %8 = sext i32 %7 to i64 store i64 %8, i64* %storemerge.reg2mem br label LBL_2 LBL_2: %storemerge.reload = load i64, i64* %storemerge.reg2mem ret i64 %storemerge.reload uselistorder i64* %storemerge.reg2mem, { 0, 2, 1 } uselistorder label LBL_2, { 1, 0 } }
1
BinRealVul
inotify_free_group_priv_11577
inotify_free_group_priv
define i64 @FUNC(i32* %arg1) local_unnamed_addr { LBL_0: %0 = ptrtoint i32* %arg1 to i64 %1 = call i64 @FUNC(i64 %0, i64 4198713, i64 %0) %2 = call i64 @FUNC(i64 %0) %3 = call i64 @FUNC(i64 %0) %4 = add i64 %0, 4 %5 = inttoptr i64 %4 to i32* %6 = load i32, i32* %5, align 4 %7 = zext i32 %6 to i64 %8 = call i64 @FUNC(i64 %7) ret i64 %8 }
1
BinRealVul
i915_handle_error_17773
i915_handle_error
define i64 @FUNC(i64* %arg1, i64 %arg2) local_unnamed_addr { LBL_0: %0 = alloca i64 %1 = load i64, i64* %0 %2 = ptrtoint i64* %arg1 to i64 %3 = trunc i64 %arg2 to i8 %4 = call i64 @FUNC(i64 %2) %5 = call i64 @FUNC(i64 %2) %6 = icmp eq i8 %3, 0 br i1 %6, label LBL_3, label LBL_1 LBL_1: %7 = and i64 %1, 4294967295 %8 = call i64 @FUNC(i64 %7) %9 = add i64 %2, 4 %10 = call i64 @FUNC(i64 %9, i64 1) %11 = add i64 %2, 8 %12 = call i64 @FUNC(i64 %11) %13 = call i64 @FUNC(i64 %2) %14 = trunc i64 %13 to i32 %15 = icmp eq i32 %14, 0 br i1 %15, label LBL_3, label LBL_2 LBL_2: %16 = add i64 %2, 12 %17 = call i64 @FUNC(i64 %16) br label LBL_3 LBL_3: %18 = add i64 %2, 20 %19 = add i64 %2, 16 %20 = inttoptr i64 %19 to i32* %21 = load i32, i32* %20, align 4 %22 = zext i32 %21 to i64 %23 = call i64 @FUNC(i64 %22, i64 %18) ret i64 %23 uselistorder i64 %2, { 5, 4, 0, 1, 3, 2, 6, 7 } uselistorder i64 (i64)* @wake_up_all, { 1, 0 } }
1
BinRealVul
avc_mp4_find_startcode_2156
avc_mp4_find_startcode
define i64 @FUNC(i64 %arg1, i64 %arg2, i32 %arg3) local_unnamed_addr { LBL_0: %sv_0.0.lcssa.reg2mem = alloca i64 %sv_1.0.lcssa.reg2mem = alloca i64 %.pre-phi.reg2mem = alloca i64 %sv_1.01.reg2mem = alloca i64 %sv_2.02.reg2mem = alloca i32 %sv_0.03.reg2mem = alloca i32 %0 = sub i64 %arg2, %arg1 %1 = sext i32 %arg3 to i64 %2 = icmp slt i64 %0, %1 br i1 %2, label LBL_5, label LBL_1 LBL_1: %3 = icmp eq i32 %arg3, 0 %4 = icmp eq i1 %3, false store i32 0, i32* %sv_0.03.reg2mem store i32 %arg3, i32* %sv_2.02.reg2mem store i64 %arg1, i64* %sv_1.01.reg2mem store i64 %0, i64* %.pre-phi.reg2mem store i64 %arg1, i64* %sv_1.0.lcssa.reg2mem store i64 0, i64* %sv_0.0.lcssa.reg2mem br i1 %4, label LBL_2, label LBL_4 LBL_2: %sv_1.01.reload = load i64, i64* %sv_1.01.reg2mem %sv_2.02.reload = load i32, i32* %sv_2.02.reg2mem %sv_0.03.reload = load i32, i32* %sv_0.03.reg2mem %5 = add i32 %sv_2.02.reload, -1 %6 = mul i32 %sv_0.03.reload, 256 %7 = add i64 %sv_1.01.reload, 1 %8 = inttoptr i64 %sv_1.01.reload to i8* %9 = load i8, i8* %8, align 1 %10 = zext i8 %9 to i32 %11 = or i32 %6, %10 %12 = icmp eq i32 %5, 0 %13 = icmp eq i1 %12, false store i32 %11, i32* %sv_0.03.reg2mem store i32 %5, i32* %sv_2.02.reg2mem store i64 %7, i64* %sv_1.01.reg2mem br i1 %13, label LBL_2, label LBL_3 LBL_3: %phitmp = zext i32 %11 to i64 %.pre = sub i64 %arg2, %7 store i64 %.pre, i64* %.pre-phi.reg2mem store i64 %7, i64* %sv_1.0.lcssa.reg2mem store i64 %phitmp, i64* %sv_0.0.lcssa.reg2mem br label LBL_4 LBL_4: %sv_0.0.lcssa.reload = load i64, i64* %sv_0.0.lcssa.reg2mem %sv_1.0.lcssa.reload = load i64, i64* %sv_1.0.lcssa.reg2mem %.pre-phi.reload = load i64, i64* %.pre-phi.reg2mem %14 = icmp slt i64 %.pre-phi.reload, %sv_0.0.lcssa.reload %15 = add i64 %sv_0.0.lcssa.reload, %sv_1.0.lcssa.reload %spec.select = select i1 %14, i64 0, i64 %15 ret i64 %spec.select LBL_5: ret i64 0 uselistorder i64 %sv_0.0.lcssa.reload, { 1, 0 } uselistorder i32 %11, { 1, 0 } uselistorder i64 %7, { 0, 2, 1 } uselistorder i32* %sv_0.03.reg2mem, { 2, 0, 1 } uselistorder i32* %sv_2.02.reg2mem, { 2, 0, 1 } uselistorder i64* %sv_1.01.reg2mem, { 2, 0, 1 } uselistorder i64* %.pre-phi.reg2mem, { 0, 2, 1 } uselistorder i64* %sv_1.0.lcssa.reg2mem, { 0, 2, 1 } uselistorder i64* %sv_0.0.lcssa.reg2mem, { 0, 2, 1 } uselistorder i1 false, { 1, 0 } uselistorder i32 0, { 2, 0, 1 } uselistorder label LBL_2, { 1, 0 } }
0
BinRealVul
pci_emul_add_msicap_11028
pci_emul_add_msicap
define i64 @FUNC(i64* %arg1, i64 %arg2) local_unnamed_addr { LBL_0: %0 = ptrtoint i64* %arg1 to i64 %sv_0 = alloca i64, align 8 %1 = and i64 %arg2, 4294967295 %2 = call i64 @FUNC(i64* nonnull %sv_0, i64 %1, i64 0) %3 = call i64 @FUNC(i64 %0, i64* nonnull %sv_0, i64 0) ret i64 %3 }
1
BinRealVul
shift_12429
shift
define i64 @FUNC(i64 %arg1) local_unnamed_addr { LBL_0: %sv_0.0.be.reg2mem = alloca i64 %sv_0.0.reg2mem = alloca i64 %0 = call i64 @FUNC(i64 %arg1) store i64 %0, i64* %sv_0.0.reg2mem br label LBL_1 LBL_1: %sv_0.0.reload = load i64, i64* %sv_0.0.reg2mem %1 = call i64 @FUNC(i64 %arg1, i64 1) %2 = trunc i64 %1 to i32 %3 = icmp eq i32 %2, 0 br i1 %3, label LBL_4, label LBL_2 LBL_2: %4 = call i64 @FUNC(i64 %arg1) %5 = call i64 @FUNC(i64 4, i64 %sv_0.0.reload, i64 %4) store i64 %5, i64* %sv_0.0.be.reg2mem br label LBL_1.backedge LBL_3: %sv_0.0.be.reload = load i64, i64* %sv_0.0.be.reg2mem store i64 %sv_0.0.be.reload, i64* %sv_0.0.reg2mem br label LBL_1 LBL_4: %6 = call i64 @FUNC(i64 %arg1, i64 2) %7 = trunc i64 %6 to i32 %8 = icmp eq i32 %7, 0 br i1 %8, label LBL_6, label LBL_5 LBL_5: %9 = call i64 @FUNC(i64 %arg1) %10 = call i64 @FUNC(i64 5, i64 %sv_0.0.reload, i64 %9) store i64 %10, i64* %sv_0.0.be.reg2mem br label LBL_1.backedge LBL_6: %11 = call i64 @FUNC(i64 %arg1, i64 3) %12 = trunc i64 %11 to i32 %13 = icmp eq i32 %12, 0 br i1 %13, label LBL_8, label LBL_7 LBL_7: %14 = call i64 @FUNC(i64 %arg1) %15 = call i64 @FUNC(i64 6, i64 %sv_0.0.reload, i64 %14) store i64 %15, i64* %sv_0.0.be.reg2mem br label LBL_1.backedge LBL_8: ret i64 %sv_0.0.reload uselistorder i64 %sv_0.0.reload, { 3, 0, 1, 2 } uselistorder i64* %sv_0.0.reg2mem, { 1, 0, 2 } uselistorder i64* %sv_0.0.be.reg2mem, { 3, 2, 0, 1 } uselistorder i64 (i64, i64, i64)* @EXP2, { 2, 1, 0 } uselistorder i64 (i64, i64)* @jsP_accept, { 2, 1, 0 } uselistorder i64 (i64)* @additive, { 3, 2, 1, 0 } uselistorder i32 1, { 1, 0 } uselistorder label LBL_1.backedge, { 2, 1, 0 } }
1
BinRealVul
__munlock_isolate_lru_page_8917
__munlock_isolate_lru_page
define i64 @FUNC(i32* %arg1, i64 %arg2) local_unnamed_addr { LBL_0: %storemerge.reg2mem = alloca i64 %0 = ptrtoint i32* %arg1 to i64 %1 = call i64 @FUNC(i64 %0) %2 = trunc i64 %1 to i8 %3 = icmp eq i8 %2, 0 store i64 0, i64* %storemerge.reg2mem br i1 %3, label LBL_4, label LBL_1 LBL_1: %4 = call i64 @FUNC(i64 %0) %5 = call i64 @FUNC(i64 %0, i64 %4) %6 = trunc i64 %arg2 to i8 %7 = icmp eq i8 %6, 0 br i1 %7, label LBL_3, label LBL_2 LBL_2: %8 = call i64 @FUNC(i64 %0) br label LBL_3 LBL_3: %9 = call i64 @FUNC(i64 %0) %10 = call i64 @FUNC(i64 %0) %11 = and i64 %10, 4294967295 %12 = call i64 @FUNC(i64 %0, i64 %5, i64 %11) store i64 1, i64* %storemerge.reg2mem br label LBL_4 LBL_4: %storemerge.reload = load i64, i64* %storemerge.reg2mem ret i64 %storemerge.reload uselistorder i64 %0, { 1, 3, 2, 0, 5, 4, 6 } uselistorder i64* %storemerge.reg2mem, { 0, 2, 1 } uselistorder label LBL_4, { 1, 0 } }
0
BinRealVul
read_sm_data_159
read_sm_data
define i64 @FUNC(i64* %arg1, i64* %arg2, i64* %arg3, i32 %arg4, i64 %arg5) local_unnamed_addr { LBL_0: %0 = alloca i64 %rax.0.reg2mem = alloca i64 %sv_0.1.lcssa.reg2mem = alloca i32 %sv_1.1.lcssa.reg2mem = alloca i32 %sv_2.1.lcssa.reg2mem = alloca i32 %sv_3.1.lcssa.reg2mem = alloca i64 %sv_4.1.lcssa.reg2mem = alloca i32 %sv_5.1.lcssa.reg2mem = alloca i32 %sv_6.1.lcssa.reg2mem = alloca i32 %r8.0.reg2mem = alloca i64 %sv_0.0.reg2mem = alloca i32 %sv_1.0.reg2mem = alloca i32 %sv_2.0.reg2mem = alloca i32 %sv_3.0.reg2mem = alloca i64 %sv_4.0.reg2mem = alloca i32 %sv_5.0.reg2mem = alloca i32 %sv_6.0.reg2mem = alloca i32 %sv_7.0.reg2mem = alloca i64 %sv_6.135.reg2mem = alloca i32 %sv_5.136.reg2mem = alloca i32 %sv_4.137.reg2mem = alloca i32 %sv_3.138.reg2mem = alloca i64 %sv_2.139.reg2mem = alloca i32 %sv_1.140.reg2mem = alloca i32 %sv_0.141.reg2mem = alloca i32 %r8.142.reg2mem = alloca i64 %storemerge443.reg2mem = alloca i32 %1 = load i64, i64* %0 %2 = ptrtoint i64* %arg3 to i64 %3 = ptrtoint i64* %arg2 to i64 %sv_8 = alloca i64, align 8 %sv_9 = alloca i64, align 8 %sv_10 = alloca i64, align 8 %sv_11 = alloca i64, align 8 %4 = call i64 @FUNC(i64 %3) %5 = trunc i64 %4 to i32 %6 = icmp sgt i32 %5, 0 store i32 0, i32* %sv_6.1.lcssa.reg2mem store i32 0, i32* %sv_5.1.lcssa.reg2mem store i32 0, i32* %sv_4.1.lcssa.reg2mem store i64 0, i64* %sv_3.1.lcssa.reg2mem store i32 0, i32* %sv_2.1.lcssa.reg2mem store i32 0, i32* %sv_1.1.lcssa.reg2mem store i32 0, i32* %sv_0.1.lcssa.reg2mem br i1 %6, label LBL_1, label LBL_35 LBL_1: %7 = ptrtoint i64* %arg1 to i64 %8 = ptrtoint i64* %sv_11 to i64 %9 = ptrtoint i64* %sv_10 to i64 %10 = bitcast i64* %sv_11 to i8* store i32 0, i32* %storemerge443.reg2mem store i64 %arg5, i64* %r8.142.reg2mem store i32 0, i32* %sv_0.141.reg2mem store i32 0, i32* %sv_1.140.reg2mem store i32 0, i32* %sv_2.139.reg2mem store i64 0, i64* %sv_3.138.reg2mem store i32 0, i32* %sv_4.137.reg2mem store i32 0, i32* %sv_5.136.reg2mem store i32 0, i32* %sv_6.135.reg2mem br label LBL_2 LBL_2: %11 = call i64 @FUNC(i64 %3) %12 = icmp slt i64 %11, %arg5 store i64 4294967295, i64* %rax.0.reg2mem br i1 %12, label LBL_3, label LBL_48 LBL_3: %r8.142.reload = load i64, i64* %r8.142.reg2mem %13 = call i64 @FUNC(i64 %3, i64* nonnull %sv_11, i64 256) %14 = trunc i64 %13 to i32 %15 = icmp slt i32 %14, 0 %16 = icmp eq i1 %15, false br i1 %16, label LBL_5, label LBL_4 LBL_4: %17 = call i64 @FUNC(i64 %7, i64 0, i8* getelementptr inbounds ([38 x i8], [38 x i8]* @gv_0, i64 0, i64 0), i64 %8, i64 %r8.142.reload, i64 %1) %18 = and i64 %13, 4294967295 store i64 %18, i64* %rax.0.reg2mem br label LBL_48 LBL_5: %sv_6.135.reload = load i32, i32* %sv_6.135.reg2mem %sv_5.136.reload = load i32, i32* %sv_5.136.reg2mem %sv_4.137.reload = load i32, i32* %sv_4.137.reg2mem %sv_3.138.reload = load i64, i64* %sv_3.138.reg2mem %sv_2.139.reload = load i32, i32* %sv_2.139.reg2mem %sv_1.140.reload = load i32, i32* %sv_1.140.reg2mem %sv_0.141.reload = load i32, i32* %sv_0.141.reg2mem %storemerge443.reload = load i32, i32* %storemerge443.reg2mem %19 = call i64 @FUNC(i64 %3) %20 = trunc i64 %19 to i32 %21 = icmp eq i32 %20, -1 %22 = icmp eq i1 %21, false br i1 %22, label LBL_7, label LBL_6 LBL_6: %23 = call i64 @FUNC(i64 %3, i64* nonnull %sv_10, i64 256) %24 = call i64 @FUNC(i64 %7, i64 1, i8* getelementptr inbounds ([24 x i8], [24 x i8]* @gv_1, i64 0, i64 0), i64 %8, i64 %9, i64 %1) store i32 %sv_6.135.reload, i32* %sv_6.0.reg2mem store i32 %sv_5.136.reload, i32* %sv_5.0.reg2mem store i32 %sv_4.137.reload, i32* %sv_4.0.reg2mem store i64 %sv_3.138.reload, i64* %sv_3.0.reg2mem store i32 %sv_2.139.reload, i32* %sv_2.0.reg2mem store i32 %sv_1.140.reload, i32* %sv_1.0.reg2mem store i32 %sv_0.141.reload, i32* %sv_0.0.reg2mem store i64 %9, i64* %r8.0.reg2mem br label LBL_34 LBL_7: %25 = icmp eq i32 %20, -2 %26 = icmp eq i1 %25, false br i1 %26, label LBL_21, label LBL_8 LBL_8: %27 = call i64 @FUNC(i64 %3, i64* nonnull %sv_10, i64 256) %28 = call i64 @FUNC(i64 %3) %sext = mul i64 %28, 4294967296 %29 = ashr exact i64 %sext, 32 %30 = call i64 @FUNC(i64 %3) %31 = add i64 %29, %30 %32 = icmp slt i64 %31, %arg5 store i64 4294967295, i64* %rax.0.reg2mem br i1 %32, label LBL_9, label LBL_48 LBL_9: %33 = call i32 @strcmp(i8* nonnull %10, i8* getelementptr inbounds ([8 x i8], [8 x i8]* @gv_2, i64 0, i64 0)) %34 = icmp eq i32 %33, 0 %35 = icmp eq i1 %34, false br i1 %35, label LBL_11, label LBL_10 LBL_10: %36 = and i64 %29, 4294967295 %37 = call i64 @FUNC(i64 %2, i64 1, i64 %36) store i64 %37, i64* %sv_7.0.reg2mem br label LBL_19 LBL_11: %38 = call i32 @strcmp(i8* nonnull %10, i8* getelementptr inbounds ([10 x i8], [10 x i8]* @gv_3, i64 0, i64 0)) %39 = icmp eq i32 %38, 0 %40 = icmp eq i1 %39, false br i1 %40, label LBL_13, label LBL_12 LBL_12: %41 = and i64 %29, 4294967295 %42 = call i64 @FUNC(i64 %2, i64 2, i64 %41) store i64 %42, i64* %sv_7.0.reg2mem br label LBL_19 LBL_13: %43 = call i32 (i8*, i8*, ...) @sscanf(i8* nonnull %10, i8* getelementptr inbounds ([21 x i8], [21 x i8]* @gv_4, i64 0, i64 0), i64* nonnull %sv_9) %44 = icmp eq i32 %43, 1 %45 = icmp eq i1 %44, false br i1 %45, label LBL_16, label LBL_14 LBL_14: %46 = add nsw i64 %29, 8 %47 = and i64 %46, 4294967295 %48 = call i64 @FUNC(i64 %2, i64 3, i64 %47) %49 = icmp eq i64 %48, 0 %50 = icmp eq i1 %49, false store i64 4294967284, i64* %rax.0.reg2mem br i1 %50, label LBL_15, label LBL_48 LBL_15: %51 = load i64, i64* %sv_9, align 8 %52 = call i64 @FUNC(i64 %48, i64 %51) %53 = add i64 %48, 8 store i64 %53, i64* %sv_7.0.reg2mem br label LBL_19 LBL_16: %54 = trunc i64 %29 to i32 %55 = call i32 @strcmp(i8* nonnull %10, i8* getelementptr inbounds ([14 x i8], [14 x i8]* @gv_5, i64 0, i64 0)) %56 = icmp eq i32 %55, 0 %57 = icmp eq i32 %54, 8 %58 = icmp eq i1 %57, %56 br i1 %58, label LBL_17, label LBL_18 LBL_17: %59 = call i64 @FUNC(i64 %3) store i32 %sv_6.135.reload, i32* %sv_6.0.reg2mem store i32 %sv_5.136.reload, i32* %sv_5.0.reg2mem store i32 %sv_4.137.reload, i32* %sv_4.0.reg2mem store i64 %59, i64* %sv_3.0.reg2mem store i32 %sv_2.139.reload, i32* %sv_2.0.reg2mem store i32 %sv_1.140.reload, i32* %sv_1.0.reg2mem store i32 %sv_0.141.reload, i32* %sv_0.0.reg2mem store i64 %r8.142.reload, i64* %r8.0.reg2mem br label LBL_34 LBL_18: %60 = call i64 @FUNC(i64 %7, i64 1, i8* getelementptr inbounds ([22 x i8], [22 x i8]* @gv_6, i64 0, i64 0), i64 %8, i64 %9, i64 %1) %61 = call i64 @FUNC(i64 %3, i64 %29) store i32 %sv_6.135.reload, i32* %sv_6.0.reg2mem store i32 %sv_5.136.reload, i32* %sv_5.0.reg2mem store i32 %sv_4.137.reload, i32* %sv_4.0.reg2mem store i64 %sv_3.138.reload, i64* %sv_3.0.reg2mem store i32 %sv_2.139.reload, i32* %sv_2.0.reg2mem store i32 %sv_1.140.reload, i32* %sv_1.0.reg2mem store i32 %sv_0.141.reload, i32* %sv_0.0.reg2mem store i64 %9, i64* %r8.0.reg2mem br label LBL_34 LBL_19: %sv_7.0.reload = load i64, i64* %sv_7.0.reg2mem %62 = icmp eq i64 %sv_7.0.reload, 0 %63 = icmp eq i1 %62, false store i64 4294967284, i64* %rax.0.reg2mem br i1 %63, label LBL_20, label LBL_48 LBL_20: %64 = and i64 %29, 4294967295 %65 = call i64 @FUNC(i64 %3, i64 %sv_7.0.reload, i64 %64) store i32 %sv_6.135.reload, i32* %sv_6.0.reg2mem store i32 %sv_5.136.reload, i32* %sv_5.0.reg2mem store i32 %sv_4.137.reload, i32* %sv_4.0.reg2mem store i64 %sv_3.138.reload, i64* %sv_3.0.reg2mem store i32 %sv_2.139.reload, i32* %sv_2.0.reg2mem store i32 %sv_1.140.reload, i32* %sv_1.0.reg2mem store i32 %sv_0.141.reload, i32* %sv_0.0.reg2mem store i64 %r8.142.reload, i64* %r8.0.reg2mem br label LBL_34 LBL_21: %66 = icmp eq i32 %20, -3 %67 = icmp eq i1 %66, false br i1 %67, label LBL_23, label LBL_22 LBL_22: %68 = call i64 @FUNC(i64 %3) store i32 %sv_6.135.reload, i32* %sv_6.0.reg2mem store i32 %sv_5.136.reload, i32* %sv_5.0.reg2mem store i32 %sv_4.137.reload, i32* %sv_4.0.reg2mem store i64 %sv_3.138.reload, i64* %sv_3.0.reg2mem store i32 %sv_2.139.reload, i32* %sv_2.0.reg2mem store i32 %sv_1.140.reload, i32* %sv_1.0.reg2mem store i32 %sv_0.141.reload, i32* %sv_0.0.reg2mem store i64 %r8.142.reload, i64* %r8.0.reg2mem br label LBL_34 LBL_23: %69 = icmp eq i32 %20, -4 %70 = icmp eq i1 %69, false br i1 %70, label LBL_25, label LBL_24 LBL_24: %71 = call i64 @FUNC(i64 %3) store i32 %sv_6.135.reload, i32* %sv_6.0.reg2mem store i32 %sv_5.136.reload, i32* %sv_5.0.reg2mem store i32 %sv_4.137.reload, i32* %sv_4.0.reg2mem store i64 %sv_3.138.reload, i64* %sv_3.0.reg2mem store i32 %sv_2.139.reload, i32* %sv_2.0.reg2mem store i32 %sv_1.140.reload, i32* %sv_1.0.reg2mem store i32 %sv_0.141.reload, i32* %sv_0.0.reg2mem store i64 %r8.142.reload, i64* %r8.0.reg2mem br label LBL_34 LBL_25: %72 = icmp sgt i32 %20, -5 br i1 %72, label LBL_27, label LBL_26 LBL_26: %73 = call i64 @FUNC(i64 %3) store i32 %sv_6.135.reload, i32* %sv_6.0.reg2mem store i32 %sv_5.136.reload, i32* %sv_5.0.reg2mem store i32 %sv_4.137.reload, i32* %sv_4.0.reg2mem store i64 %sv_3.138.reload, i64* %sv_3.0.reg2mem store i32 %sv_2.139.reload, i32* %sv_2.0.reg2mem store i32 %sv_1.140.reload, i32* %sv_1.0.reg2mem store i32 %sv_0.141.reload, i32* %sv_0.0.reg2mem store i64 %r8.142.reload, i64* %r8.0.reg2mem br label LBL_34 LBL_27: %74 = call i32 @strcmp(i8* nonnull %10, i8* getelementptr inbounds ([10 x i8], [10 x i8]* @gv_7, i64 0, i64 0)) %75 = icmp eq i32 %74, 0 %76 = icmp eq i1 %75, false store i32 %20, i32* %sv_6.0.reg2mem store i32 %sv_5.136.reload, i32* %sv_5.0.reg2mem store i32 %sv_4.137.reload, i32* %sv_4.0.reg2mem store i64 %sv_3.138.reload, i64* %sv_3.0.reg2mem store i32 %sv_2.139.reload, i32* %sv_2.0.reg2mem store i32 %sv_1.140.reload, i32* %sv_1.0.reg2mem store i32 %sv_0.141.reload, i32* %sv_0.0.reg2mem store i64 %r8.142.reload, i64* %r8.0.reg2mem br i1 %76, label LBL_28, label LBL_34 LBL_28: %77 = call i32 @strcmp(i8* nonnull %10, i8* getelementptr inbounds ([8 x i8], [8 x i8]* @gv_8, i64 0, i64 0)) %78 = icmp eq i32 %77, 0 %79 = icmp eq i1 %78, false store i32 %sv_6.135.reload, i32* %sv_6.0.reg2mem store i32 %20, i32* %sv_5.0.reg2mem store i32 %sv_4.137.reload, i32* %sv_4.0.reg2mem store i64 %sv_3.138.reload, i64* %sv_3.0.reg2mem store i32 %sv_2.139.reload, i32* %sv_2.0.reg2mem store i32 %sv_1.140.reload, i32* %sv_1.0.reg2mem store i32 %sv_0.141.reload, i32* %sv_0.0.reg2mem store i64 %r8.142.reload, i64* %r8.0.reg2mem br i1 %79, label LBL_29, label LBL_34 LBL_29: %80 = call i32 @strcmp(i8* nonnull %10, i8* getelementptr inbounds ([9 x i8], [9 x i8]* @gv_9, i64 0, i64 0)) %81 = icmp eq i32 %80, 0 %82 = icmp eq i1 %81, false store i32 %sv_6.135.reload, i32* %sv_6.0.reg2mem store i32 %sv_5.136.reload, i32* %sv_5.0.reg2mem store i32 %20, i32* %sv_4.0.reg2mem store i64 %sv_3.138.reload, i64* %sv_3.0.reg2mem store i32 %sv_2.139.reload, i32* %sv_2.0.reg2mem store i32 %sv_1.140.reload, i32* %sv_1.0.reg2mem store i32 %sv_0.141.reload, i32* %sv_0.0.reg2mem store i64 %r8.142.reload, i64* %r8.0.reg2mem br i1 %82, label LBL_30, label LBL_34 LBL_30: %83 = call i32 @strcmp(i8* nonnull %10, i8* getelementptr inbounds ([11 x i8], [11 x i8]* @gv_10, i64 0, i64 0)) %84 = icmp eq i32 %83, 0 %85 = icmp eq i1 %84, false store i32 %sv_6.135.reload, i32* %sv_6.0.reg2mem store i32 %sv_5.136.reload, i32* %sv_5.0.reg2mem store i32 %sv_4.137.reload, i32* %sv_4.0.reg2mem store i64 %sv_3.138.reload, i64* %sv_3.0.reg2mem store i32 %20, i32* %sv_2.0.reg2mem store i32 %sv_1.140.reload, i32* %sv_1.0.reg2mem store i32 %sv_0.141.reload, i32* %sv_0.0.reg2mem store i64 %r8.142.reload, i64* %r8.0.reg2mem br i1 %85, label LBL_31, label LBL_34 LBL_31: %86 = call i32 @strcmp(i8* nonnull %10, i8* getelementptr inbounds ([6 x i8], [6 x i8]* @gv_11, i64 0, i64 0)) %87 = icmp eq i32 %86, 0 %88 = icmp eq i1 %87, false store i32 %sv_6.135.reload, i32* %sv_6.0.reg2mem store i32 %sv_5.136.reload, i32* %sv_5.0.reg2mem store i32 %sv_4.137.reload, i32* %sv_4.0.reg2mem store i64 %sv_3.138.reload, i64* %sv_3.0.reg2mem store i32 %sv_2.139.reload, i32* %sv_2.0.reg2mem store i32 %20, i32* %sv_1.0.reg2mem store i32 %sv_0.141.reload, i32* %sv_0.0.reg2mem store i64 %r8.142.reload, i64* %r8.0.reg2mem br i1 %88, label LBL_32, label LBL_34 LBL_32: %89 = call i32 @strcmp(i8* nonnull %10, i8* getelementptr inbounds ([7 x i8], [7 x i8]* @gv_12, i64 0, i64 0)) %90 = icmp eq i32 %89, 0 %91 = icmp eq i1 %90, false store i32 %sv_6.135.reload, i32* %sv_6.0.reg2mem store i32 %sv_5.136.reload, i32* %sv_5.0.reg2mem store i32 %sv_4.137.reload, i32* %sv_4.0.reg2mem store i64 %sv_3.138.reload, i64* %sv_3.0.reg2mem store i32 %sv_2.139.reload, i32* %sv_2.0.reg2mem store i32 %sv_1.140.reload, i32* %sv_1.0.reg2mem store i32 %20, i32* %sv_0.0.reg2mem store i64 %r8.142.reload, i64* %r8.0.reg2mem br i1 %91, label LBL_33, label LBL_34 LBL_33: %92 = call i64 @FUNC(i64 %7, i64 1, i8* getelementptr inbounds ([20 x i8], [20 x i8]* @gv_13, i64 0, i64 0), i64 %8, i64 %r8.142.reload, i64 %1) store i32 %sv_6.135.reload, i32* %sv_6.0.reg2mem store i32 %sv_5.136.reload, i32* %sv_5.0.reg2mem store i32 %sv_4.137.reload, i32* %sv_4.0.reg2mem store i64 %sv_3.138.reload, i64* %sv_3.0.reg2mem store i32 %sv_2.139.reload, i32* %sv_2.0.reg2mem store i32 %sv_1.140.reload, i32* %sv_1.0.reg2mem store i32 %sv_0.141.reload, i32* %sv_0.0.reg2mem store i64 %r8.142.reload, i64* %r8.0.reg2mem br label LBL_34 LBL_34: %r8.0.reload = load i64, i64* %r8.0.reg2mem %sv_0.0.reload = load i32, i32* %sv_0.0.reg2mem %sv_1.0.reload = load i32, i32* %sv_1.0.reg2mem %sv_2.0.reload = load i32, i32* %sv_2.0.reg2mem %sv_3.0.reload = load i64, i64* %sv_3.0.reg2mem %sv_4.0.reload = load i32, i32* %sv_4.0.reg2mem %sv_5.0.reload = load i32, i32* %sv_5.0.reg2mem %sv_6.0.reload = load i32, i32* %sv_6.0.reg2mem %93 = add nuw nsw i32 %storemerge443.reload, 1 %94 = icmp slt i32 %93, %5 store i32 %93, i32* %storemerge443.reg2mem store i64 %r8.0.reload, i64* %r8.142.reg2mem store i32 %sv_0.0.reload, i32* %sv_0.141.reg2mem store i32 %sv_1.0.reload, i32* %sv_1.140.reg2mem store i32 %sv_2.0.reload, i32* %sv_2.139.reg2mem store i64 %sv_3.0.reload, i64* %sv_3.138.reg2mem store i32 %sv_4.0.reload, i32* %sv_4.137.reg2mem store i32 %sv_5.0.reload, i32* %sv_5.136.reg2mem store i32 %sv_6.0.reload, i32* %sv_6.135.reg2mem store i32 %sv_6.0.reload, i32* %sv_6.1.lcssa.reg2mem store i32 %sv_5.0.reload, i32* %sv_5.1.lcssa.reg2mem store i32 %sv_4.0.reload, i32* %sv_4.1.lcssa.reg2mem store i64 %sv_3.0.reload, i64* %sv_3.1.lcssa.reg2mem store i32 %sv_2.0.reload, i32* %sv_2.1.lcssa.reg2mem store i32 %sv_1.0.reload, i32* %sv_1.1.lcssa.reg2mem store i32 %sv_0.0.reload, i32* %sv_0.1.lcssa.reg2mem br i1 %94, label LBL_2, label LBL_35 LBL_35: %sv_0.1.lcssa.reload = load i32, i32* %sv_0.1.lcssa.reg2mem %sv_1.1.lcssa.reload = load i32, i32* %sv_1.1.lcssa.reg2mem %sv_2.1.lcssa.reload = load i32, i32* %sv_2.1.lcssa.reg2mem %sv_3.1.lcssa.reload = load i64, i64* %sv_3.1.lcssa.reg2mem %sv_4.1.lcssa.reload = load i32, i32* %sv_4.1.lcssa.reg2mem %sv_5.1.lcssa.reload = load i32, i32* %sv_5.1.lcssa.reg2mem %sv_6.1.lcssa.reload = load i32, i32* %sv_6.1.lcssa.reg2mem %95 = icmp eq i64 %sv_3.1.lcssa.reload, 0 %96 = or i32 %sv_2.1.lcssa.reload, %sv_4.1.lcssa.reload %97 = or i32 %sv_0.1.lcssa.reload, %sv_1.1.lcssa.reload %98 = or i32 %96, %97 %99 = icmp eq i32 %98, 0 %100 = icmp eq i1 %95, %99 br i1 %100, label LBL_45, label LBL_36 LBL_36: %101 = call i64 @FUNC(i64 %2, i64 4, i64 28) store i64 %101, i64* %sv_8, align 8 %102 = icmp eq i64 %101, 0 %103 = icmp eq i1 %102, false store i64 4294967284, i64* %rax.0.reg2mem br i1 %103, label LBL_37, label LBL_48 LBL_37: %104 = icmp eq i32 %sv_4.1.lcssa.reload, 0 %105 = icmp eq i1 %104, false %106 = icmp eq i32 %sv_2.1.lcssa.reload, 0 %107 = icmp eq i32 %97, 0 %108 = zext i1 %105 to i64 %. = select i1 %95, i64 0, i64 2 %109 = or i64 %., %108 %storemerge2 = select i1 %106, i64 0, i64 3 %110 = add nuw nsw i64 %storemerge2, %109 %.6 = select i1 %107, i64 0, i64 4 %111 = add nuw nsw i64 %110, %.6 %112 = call i64 @FUNC(i64* nonnull %sv_8, i64 %111) br i1 %104, label LBL_39, label LBL_38 LBL_38: %113 = zext i32 %sv_4.1.lcssa.reload to i64 %114 = call i64 @FUNC(i64* nonnull %sv_8, i64 %113) br label LBL_39 LBL_39: br i1 %95, label LBL_41, label LBL_40 LBL_40: %115 = call i64 @FUNC(i64* nonnull %sv_8, i64 %sv_3.1.lcssa.reload) br label LBL_41 LBL_41: br i1 %106, label LBL_43, label LBL_42 LBL_42: %116 = zext i32 %sv_2.1.lcssa.reload to i64 %117 = call i64 @FUNC(i64* nonnull %sv_8, i64 %116) br label LBL_43 LBL_43: br i1 %107, label LBL_45, label LBL_44 LBL_44: %118 = zext i32 %sv_1.1.lcssa.reload to i64 %119 = call i64 @FUNC(i64* nonnull %sv_8, i64 %118) %120 = zext i32 %sv_0.1.lcssa.reload to i64 %121 = call i64 @FUNC(i64* nonnull %sv_8, i64 %120) br label LBL_45 LBL_45: %122 = or i32 %sv_5.1.lcssa.reload, %sv_6.1.lcssa.reload %123 = icmp eq i32 %122, 0 store i64 0, i64* %rax.0.reg2mem br i1 %123, label LBL_48, label LBL_46 LBL_46: %124 = call i64 @FUNC(i64 %2, i64 5, i64 10) %125 = icmp eq i64 %124, 0 %126 = icmp eq i1 %125, false store i64 4294967284, i64* %rax.0.reg2mem br i1 %126, label LBL_47, label LBL_48 LBL_47: %127 = zext i32 %sv_6.1.lcssa.reload to i64 %128 = call i64 @FUNC(i64 %124, i64 %127) %129 = add i64 %124, 4 %130 = zext i32 %sv_5.1.lcssa.reload to i64 %131 = call i64 @FUNC(i64 %129, i64 %130) store i64 0, i64* %rax.0.reg2mem br label LBL_48 LBL_48: %rax.0.reload = load i64, i64* %rax.0.reg2mem ret i64 %rax.0.reload uselistorder i64 %124, { 1, 0, 2 } uselistorder i32 %97, { 1, 0 } uselistorder i1 %95, { 1, 2, 0 } uselistorder i64 %sv_3.1.lcssa.reload, { 1, 0 } uselistorder i32 %sv_2.1.lcssa.reload, { 1, 0, 2 } uselistorder i64 %48, { 1, 0, 2 } uselistorder i64 %29, { 4, 1, 6, 2, 3, 5, 0 } uselistorder i32 %sv_0.141.reload, { 12, 0, 1, 2, 3, 4, 11, 10, 9, 6, 8, 7, 5 } uselistorder i32 %sv_1.140.reload, { 12, 0, 1, 2, 3, 4, 11, 10, 9, 6, 8, 7, 5 } uselistorder i32 %sv_2.139.reload, { 12, 0, 1, 2, 3, 4, 11, 10, 9, 6, 8, 7, 5 } uselistorder i64 %sv_3.138.reload, { 12, 0, 1, 2, 3, 4, 5, 11, 10, 9, 7, 8, 6 } uselistorder i32 %sv_4.137.reload, { 12, 0, 1, 2, 3, 4, 11, 10, 9, 6, 8, 7, 5 } uselistorder i32 %sv_5.136.reload, { 12, 0, 1, 2, 3, 4, 11, 10, 9, 6, 8, 7, 5 } uselistorder i32 %sv_6.135.reload, { 12, 0, 1, 2, 3, 4, 11, 10, 9, 6, 8, 7, 5 } uselistorder i64 %r8.142.reload, { 11, 12, 0, 1, 2, 3, 4, 5, 10, 9, 8, 6, 7, 13 } uselistorder i8* %10, { 5, 4, 3, 2, 1, 0, 6, 7, 8, 9 } uselistorder i64 %9, { 1, 2, 0, 3 } uselistorder i64 %8, { 3, 2, 1, 0 } uselistorder i64 %7, { 3, 2, 1, 0 } uselistorder i32 %5, { 1, 0 } uselistorder i64* %sv_11, { 1, 0, 2 } uselistorder i64* %sv_9, { 1, 0 } uselistorder i64 %3, { 9, 8, 7, 1, 3, 2, 4, 6, 5, 0, 10, 11, 12, 13 } uselistorder i64 %2, { 0, 1, 4, 3, 2 } uselistorder i64 %1, { 3, 2, 1, 0 } uselistorder i32* %storemerge443.reg2mem, { 1, 0, 2 } uselistorder i64* %r8.142.reg2mem, { 1, 0, 2 } uselistorder i32* %sv_0.141.reg2mem, { 1, 0, 2 } uselistorder i32* %sv_1.140.reg2mem, { 1, 0, 2 } uselistorder i32* %sv_2.139.reg2mem, { 1, 0, 2 } uselistorder i64* %sv_3.138.reg2mem, { 1, 0, 2 } uselistorder i32* %sv_4.137.reg2mem, { 1, 0, 2 } uselistorder i32* %sv_5.136.reg2mem, { 1, 0, 2 } uselistorder i32* %sv_6.135.reg2mem, { 1, 0, 2 } uselistorder i64* %sv_7.0.reg2mem, { 0, 3, 2, 1 } uselistorder i32* %sv_6.0.reg2mem, { 0, 14, 1, 2, 3, 4, 5, 6, 13, 12, 11, 8, 10, 9, 7 } uselistorder i32* %sv_5.0.reg2mem, { 0, 14, 1, 2, 3, 4, 5, 6, 13, 12, 11, 8, 10, 9, 7 } uselistorder i32* %sv_4.0.reg2mem, { 0, 14, 1, 2, 3, 4, 5, 6, 13, 12, 11, 8, 10, 9, 7 } uselistorder i64* %sv_3.0.reg2mem, { 0, 14, 1, 2, 3, 4, 5, 6, 13, 12, 11, 8, 10, 9, 7 } uselistorder i32* %sv_2.0.reg2mem, { 0, 14, 1, 2, 3, 4, 5, 6, 13, 12, 11, 8, 10, 9, 7 } uselistorder i32* %sv_1.0.reg2mem, { 0, 14, 1, 2, 3, 4, 5, 6, 13, 12, 11, 8, 10, 9, 7 } uselistorder i32* %sv_0.0.reg2mem, { 0, 14, 1, 2, 3, 4, 5, 6, 13, 12, 11, 8, 10, 9, 7 } uselistorder i64* %r8.0.reg2mem, { 0, 14, 1, 2, 3, 4, 5, 6, 13, 12, 11, 8, 10, 9, 7 } uselistorder i64* %rax.0.reg2mem, { 0, 5, 7, 6, 8, 2, 1, 3, 9, 4 } uselistorder i64 (i64, i64)* @AV_WL32, { 1, 0 } uselistorder i64 (i64*, i64)* @bytestream_put_le32, { 4, 3, 2, 1, 0 } uselistorder i64 4, { 2, 0, 1 } uselistorder i64 4294967284, { 2, 3, 1, 0 } uselistorder i64 8, { 1, 0 } uselistorder i64 (i64, i64, i64)* @av_packet_new_side_data, { 4, 0, 3, 2, 1 } uselistorder i32 (i8*, i8*)* @strcmp, { 8, 3, 2, 5, 4, 1, 0, 7, 6 } uselistorder i64 (i64)* @get_s, { 2, 1, 0 } uselistorder i64 (i64, i64, i8*, i64, i64, i64)* @av_log, { 3, 2, 1, 0 } uselistorder i1 false, { 0, 18, 17, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15, 16 } uselistorder i64 (i64, i64*, i64)* @get_str, { 2, 1, 0 } uselistorder i64 (i64)* @avio_tell, { 1, 0 } uselistorder i64 (i64)* @ffio_read_varlen, { 2, 1, 0 } uselistorder i64 %arg5, { 1, 2, 0 } uselistorder label LBL_48, { 4, 6, 5, 7, 1, 0, 2, 8, 3 } uselistorder label LBL_45, { 2, 1, 0 } uselistorder label LBL_34, { 6, 0, 1, 2, 3, 4, 5, 7, 8, 9, 10, 11, 12, 13 } uselistorder label LBL_2, { 1, 0 } }
1
BinRealVul
kvm_mmu_free_page_8855
kvm_mmu_free_page
define i64 @FUNC(i64 %arg1) local_unnamed_addr { LBL_0: %0 = call i64 @FUNC(i64 %arg1) %1 = and i64 %0, 4294967295 %2 = call i64 @FUNC(i64 %1) %3 = add i64 %arg1, 24 %4 = call i64 @FUNC(i64 %3) %5 = add i64 %arg1, 32 %6 = call i64 @FUNC(i64 %5) %7 = call i64 @FUNC(i64 %5) %8 = add i64 %arg1, 16 %9 = inttoptr i64 %8 to i32* %10 = load i32, i32* %9, align 4 %11 = icmp eq i32 %10, 0 %12 = icmp eq i1 %11, false br i1 %12, label LBL_2, label LBL_1 LBL_1: %13 = add i64 %arg1, 8 %14 = inttoptr i64 %13 to i64* %15 = load i64, i64* %14, align 8 %16 = call i64 @FUNC(i64 %15) br label LBL_2 LBL_2: %17 = load i64, i64* @gv_0, align 8 %18 = call i64 @FUNC(i64 %17, i64 %arg1) ret i64 %18 uselistorder i64 (i64)* @free_page, { 1, 0 } uselistorder i64 %arg1, { 1, 0, 2, 3, 4, 5 } }
0
BinRealVul
__remove_section_9456
__remove_section
define i64 @FUNC(i64* %arg1, i64* %arg2) local_unnamed_addr { LBL_0: %rax.0.reg2mem = alloca i64 %0 = ptrtoint i64* %arg2 to i64 %sv_0 = alloca i64, align 8 %1 = call i64 @FUNC(i64 %0) %2 = trunc i64 %1 to i32 %3 = icmp eq i32 %2, 0 %4 = icmp eq i1 %3, false store i64 4294967274, i64* %rax.0.reg2mem br i1 %4, label LBL_1, label LBL_4 LBL_1: %5 = call i64 @FUNC(i64 %0) %6 = trunc i64 %5 to i32 %7 = icmp eq i32 %6, 0 br i1 %7, label LBL_3, label LBL_2 LBL_2: %8 = and i64 %5, 4294967295 store i64 %8, i64* %rax.0.reg2mem br label LBL_4 LBL_3: %9 = ptrtoint i64* %arg1 to i64 %10 = call i64 @FUNC(i64 %9, i64* nonnull %sv_0) %11 = call i64 @FUNC(i64 %9, i64 %0) %12 = call i64 @FUNC(i64 %9, i64* nonnull %sv_0) store i64 0, i64* %rax.0.reg2mem br label LBL_4 LBL_4: %rax.0.reload = load i64, i64* %rax.0.reg2mem ret i64 %rax.0.reload uselistorder i64 %9, { 2, 0, 1 } uselistorder i64* %rax.0.reg2mem, { 0, 3, 2, 1 } uselistorder label LBL_4, { 1, 2, 0 } }
0
BinRealVul
dbFree_7255
dbFree
define i64 @FUNC(i64* %arg1, i64 %arg2, i64 %arg3) local_unnamed_addr { LBL_0: %rax.0.reg2mem = alloca i64 %0 = icmp eq i64 %arg2, 0 %1 = icmp eq i1 %0, false %2 = icmp eq i1 %1, false br i1 %2, label LBL_2, label LBL_1 LBL_1: %3 = ptrtoint i64* %arg1 to i64 %4 = add i64 %3, 8 %5 = inttoptr i64 %4 to i64* %6 = load i64, i64* %5, align 8 %7 = inttoptr i64 %6 to i32* %8 = add i64 %arg3, %arg2 %9 = load i32, i32* %7, align 4 %10 = sext i32 %9 to i64 %11 = sub i64 %8, %10 %12 = xor i64 %8, %10 %13 = xor i64 %11, %8 %14 = and i64 %13, %12 %15 = icmp slt i64 %14, 0 %16 = icmp eq i64 %11, 0 %17 = icmp slt i64 %11, 0 %18 = icmp eq i1 %17, %15 %19 = icmp eq i1 %16, false %20 = icmp eq i1 %18, %19 %21 = icmp eq i1 %20, false br i1 %21, label LBL_3, label LBL_2 LBL_2: %22 = call i32 (i8*, ...) @printf(i8* getelementptr inbounds ([35 x i8], [35 x i8]* @gv_0, i64 0, i64 0), i64 %arg2, i64 %arg3) %23 = load %_IO_FILE*, %_IO_FILE** @gv_1, align 8 %24 = call i32 (%_IO_FILE*, i8*, ...) @fprintf(%_IO_FILE* %23, i8* getelementptr inbounds ([4 x i8], [4 x i8]* @gv_2, i64 0, i64 0), i8* getelementptr inbounds ([38 x i8], [38 x i8]* @gv_3, i64 0, i64 0)) store i64 4294967291, i64* %rax.0.reg2mem br label LBL_4 LBL_3: %25 = icmp eq i64 %arg3, 0 %26 = icmp slt i64 %arg3, 0 %27 = icmp eq i1 %26, false %28 = icmp eq i1 %25, false %29 = icmp eq i1 %27, %28 %. = select i1 %29, i64 4294967291, i64 0 store i64 %., i64* %rax.0.reg2mem br label LBL_4 LBL_4: %rax.0.reload = load i64, i64* %rax.0.reg2mem ret i64 %rax.0.reload uselistorder i64 %11, { 1, 2, 0 } uselistorder i64 %8, { 1, 0, 2 } uselistorder i64 4294967291, { 1, 0 } uselistorder i1 false, { 3, 0, 1, 4, 5, 2 } uselistorder i64 %arg3, { 1, 2, 3, 0 } uselistorder i64 %arg2, { 1, 0, 2 } }
0
BinRealVul
url_connect_14600
url_connect
define i64 @FUNC(i64* %arg1, i64* %arg2, i64* %arg3) local_unnamed_addr { LBL_0: %0 = ptrtoint i64* %arg3 to i64 %1 = ptrtoint i64* %arg2 to i64 %sv_0 = alloca i64, align 8 store i64 0, i64* %sv_0, align 8 %2 = call i64 @FUNC(i64* nonnull %sv_0, i64 %1, i64 0) %3 = ptrtoint i64* %sv_0 to i64 %4 = call i64 @FUNC(i64* nonnull %sv_0, i64 %0, i64 0) %5 = call i64 @FUNC(i64 %3, i64* nonnull %sv_0) %6 = call i64 @FUNC(i64 %3, i64 0) %7 = trunc i64 %6 to i32 %8 = icmp slt i32 %7, 0 %9 = icmp eq i1 %8, false br i1 %9, label LBL_2, label LBL_1 LBL_1: %10 = call i64 @FUNC(i64 %3) store i64 0, i64* %arg1, align 8 br label LBL_2 LBL_2: %11 = call i64 @FUNC(i64* nonnull %sv_0) %12 = and i64 %6, 4294967295 ret i64 %12 uselistorder i64* %sv_0, { 0, 1, 2, 4, 3, 5 } uselistorder i64 (i64*, i64, i64)* @av_dict_copy, { 1, 0 } uselistorder i64 0, { 6, 1, 2, 3, 5, 0, 4 } }
1
BinRealVul
handle_sigp_1439
handle_sigp
define i64 @FUNC(i64* %arg1, i64* %arg2, i8 %arg3) local_unnamed_addr { LBL_0: %storemerge.reg2mem = alloca i64 %storemerge4.reg2mem = alloca i64 %sv_0.07.reg2mem = alloca i32 %0 = ptrtoint i64* %arg2 to i64 %1 = ptrtoint i64* %arg1 to i64 %2 = udiv i8 %arg3, 16 %3 = call i64 @FUNC(i64 %1) %4 = call i64 @FUNC(i64 %1, i64 %0, i64 0) %5 = trunc i64 %4 to i32 %6 = urem i32 %5, 16 %7 = mul i8 %2, 8 %8 = and i8 %arg3, 16 %9 = icmp eq i8 %8, 0 %narrow = add nuw i8 %7, 8 %.pn.in = select i1 %9, i8 %narrow, i8 %7 %.pn = zext i8 %.pn.in to i64 %storemerge6.in.in = add i64 %.pn, %1 %storemerge6.in = inttoptr i64 %storemerge6.in.in to i64* %storemerge6 = load i64, i64* %storemerge6.in, align 8 %10 = call i64 @FUNC(i64* nonnull @gv_0) %11 = trunc i64 %10 to i32 %12 = icmp eq i32 %11, 0 store i32 -1, i32* %sv_0.07.reg2mem store i64 4294967295, i64* %storemerge4.reg2mem br i1 %12, label LBL_1, label LBL_5 LBL_1: %13 = zext i8 %7 to i64 %14 = add i64 %13, %1 %15 = icmp eq i32 %6, 0 %16 = icmp eq i1 %15, false br i1 %16, label LBL_3, label LBL_2 LBL_2: %17 = call i64 @FUNC(i64 %1, i64 %storemerge6, i64 %14) %storemerge59 = trunc i64 %17 to i32 %18 = call i64 @FUNC(i64* nonnull @gv_0) store i32 %storemerge59, i32* %sv_0.07.reg2mem store i64 4294967295, i64* %storemerge4.reg2mem br label LBL_5 LBL_3: %19 = mul i8 %arg3, 8 %20 = and i8 %19, 120 %21 = zext i8 %20 to i64 %22 = add i64 %21, %1 %23 = inttoptr i64 %22 to i64* %24 = load i64, i64* %23, align 8 %25 = call i64 @FUNC(i64 %24) %26 = trunc i32 %6 to i8 %27 = call i64 @FUNC(i64 %25, i8 %26, i64 %storemerge6, i64 %14) %storemerge5 = trunc i64 %27 to i32 %28 = call i64 @FUNC(i64* nonnull @gv_0) %29 = icmp eq i64 %25, 0 store i32 %storemerge5, i32* %sv_0.07.reg2mem store i64 4294967295, i64* %storemerge4.reg2mem br i1 %29, label LBL_5, label LBL_4 LBL_4: %30 = add i64 %25, 128 %31 = inttoptr i64 %30 to i32* %32 = load i32, i32* %31, align 4 %33 = zext i32 %32 to i64 store i32 %storemerge5, i32* %sv_0.07.reg2mem store i64 %33, i64* %storemerge4.reg2mem br label LBL_5 LBL_5: %storemerge4.reload = load i64, i64* %storemerge4.reg2mem %sv_0.07.reload = load i32, i32* %sv_0.07.reg2mem %34 = add i64 %1, 128 %35 = inttoptr i64 %34 to i32* %36 = load i32, i32* %35, align 4 %37 = trunc i32 %6 to i8 %38 = zext i32 %sv_0.07.reload to i64 %39 = call i64 @FUNC(i8 %37, i32 %36, i64 %storemerge4.reload, i64 %38) %40 = icmp slt i32 %sv_0.07.reload, 0 store i64 %38, i64* %storemerge.reg2mem br i1 %40, label LBL_7, label LBL_6 LBL_6: %41 = call i64 @FUNC(i64 %1, i64 %38) store i64 0, i64* %storemerge.reg2mem br label LBL_7 LBL_7: %storemerge.reload = load i64, i64* %storemerge.reg2mem ret i64 %storemerge.reload uselistorder i64 %38, { 1, 0, 2 } uselistorder i32 %storemerge5, { 1, 0 } uselistorder i64 %25, { 1, 0, 2 } uselistorder i64 %14, { 1, 0 } uselistorder i64 %storemerge6, { 1, 0 } uselistorder i32 %6, { 1, 0, 2 } uselistorder i64 %1, { 4, 5, 0, 3, 2, 1, 6, 7 } uselistorder i32* %sv_0.07.reg2mem, { 0, 4, 3, 2, 1 } uselistorder i64* %storemerge4.reg2mem, { 0, 4, 3, 2, 1 } uselistorder i64* %storemerge.reg2mem, { 0, 2, 1 } uselistorder i64 (i64*)* @qemu_mutex_unlock, { 1, 0 } uselistorder i64* @gv_0, { 1, 0, 2 } uselistorder i8 8, { 0, 2, 1 } uselistorder i8 16, { 1, 0 } uselistorder i8 %arg3, { 0, 2, 1 } uselistorder label LBL_7, { 1, 0 } uselistorder label LBL_5, { 3, 2, 1, 0 } }
0
BinRealVul
qdev_init_nofail_15855
qdev_init_nofail
define i64 @FUNC(i32* %arg1) local_unnamed_addr { LBL_0: %0 = alloca i64 %1 = load i64, i64* %0 %sv_0 = alloca i64, align 8 store i64 0, i64* %sv_0, align 8 %2 = trunc i64 %1 to i32 %3 = icmp eq i32 %2, 0 br i1 %3, label LBL_2, label LBL_1 LBL_1: call void @__assert_fail(i8* getelementptr inbounds ([15 x i8], [15 x i8]* @gv_0, i64 0, i64 0), i8* getelementptr inbounds ([50 x i8], [50 x i8]* @gv_1, i64 0, i64 0), i32 33, i8* getelementptr inbounds ([17 x i8], [17 x i8]* @gv_2, i64 0, i64 0)) br label LBL_2 LBL_2: %4 = ptrtoint i32* %arg1 to i64 %5 = call i64 @FUNC(i64 %4, i64 1, i8* getelementptr inbounds ([9 x i8], [9 x i8]* @gv_3, i64 0, i64 0), i64* nonnull %sv_0) %6 = load i64, i64* %sv_0, align 8 %7 = icmp eq i64 %6, 0 br i1 %7, label LBL_4, label LBL_3 LBL_3: %8 = call i64 @FUNC(i64 %4) %9 = load i64, i64* %sv_0, align 8 %10 = call i64 @FUNC(i64 %9, i8* getelementptr inbounds ([37 x i8], [37 x i8]* @gv_4, i64 0, i64 0), i64 %8) call void @exit(i32 1) unreachable LBL_4: ret i64 0 uselistorder i64* %sv_0, { 1, 2, 0, 3 } }
1
BinRealVul
dec_sexth_2639
dec_sexth
define i64 @FUNC(i64* %arg1) local_unnamed_addr { LBL_0: %0 = alloca i64 %storemerge.reg2mem = alloca i64 %1 = load i64, i64* %0 %2 = ptrtoint i64* %arg1 to i64 %3 = and i64 %1, 4294967295 %4 = add i64 %2, 4 %5 = inttoptr i64 %4 to i32* %6 = load i32, i32* %5, align 4 %7 = zext i32 %6 to i64 %8 = call i32 (i8*, ...) @printf(i8* getelementptr inbounds ([16 x i8], [16 x i8]* @gv_0, i64 0, i64 0), i64 %7, i64 %3) %9 = add i64 %2, 8 %10 = inttoptr i64 %9 to i64* %11 = load i64, i64* %10, align 8 %12 = inttoptr i64 %11 to i32* %13 = load i32, i32* %12, align 4 %14 = urem i32 %13, 2 %15 = icmp eq i32 %14, 0 %16 = icmp eq i1 %15, false br i1 %16, label LBL_2, label LBL_1 LBL_1: %17 = call i64 @FUNC(i64 2, i8* getelementptr inbounds ([41 x i8], [41 x i8]* @gv_1, i64 0, i64 0)) store i64 %17, i64* %storemerge.reg2mem br label LBL_3 LBL_2: %sext = mul i64 %1, 4294967296 %18 = ashr exact i64 %sext, 30 %19 = add i64 %18, ptrtoint (i32** @gv_2 to i64) %20 = inttoptr i64 %19 to i32* %21 = load i32, i32* %20, align 4 %22 = load i32, i32* %5, align 4 %23 = sext i32 %22 to i64 %24 = mul i64 %23, 4 %25 = add i64 %24, ptrtoint (i32** @gv_2 to i64) %26 = inttoptr i64 %25 to i32* %27 = load i32, i32* %26, align 4 %28 = zext i32 %21 to i64 %29 = zext i32 %27 to i64 %30 = call i64 @FUNC(i64 %29, i64 %28) store i64 %30, i64* %storemerge.reg2mem br label LBL_3 LBL_3: %storemerge.reload = load i64, i64* %storemerge.reg2mem ret i64 %storemerge.reload uselistorder i64 %1, { 1, 0 } uselistorder i64* %storemerge.reg2mem, { 0, 2, 1 } }
0
BinRealVul
spapr_populate_pa_features_14269
spapr_populate_pa_features
define i64 @FUNC(i32* %arg1, i64 %arg2, i32 %arg3) local_unnamed_addr { LBL_0: %0 = alloca i64 %rax.0.reg2mem = alloca i64 %sv_0.0.reg2mem = alloca i64 %sv_1.0.in.reg2mem = alloca i64* %1 = load i64, i64* %0 %sv_2 = alloca i64, align 8 %sv_3 = alloca i64, align 8 %sv_4 = alloca i64, align 8 store i64 -4575656366173716474, i64* %sv_4, align 8 store i64 -1116680746120642536, i64* %sv_3, align 8 store i64 -1116680746120642494, i64* %sv_2, align 8 %2 = trunc i64 %1 to i32 %3 = icmp eq i32 %2, 300 store i64* %sv_2, i64** %sv_1.0.in.reg2mem store i64 68, i64* %sv_0.0.reg2mem br i1 %3, label LBL_4, label LBL_1 LBL_1: %4 = and i64 %1, 4294967295 %5 = icmp sgt i32 %2, 300 store i64 %4, i64* %rax.0.reg2mem br i1 %5, label LBL_9, label LBL_2 LBL_2: store i64* %sv_4, i64** %sv_1.0.in.reg2mem store i64 8, i64* %sv_0.0.reg2mem store i64 %4, i64* %rax.0.reg2mem switch i32 %2, label LBL_9 [ i32 206, label LBL_4 i32 207, label LBL_3 ] LBL_3: store i64* %sv_3, i64** %sv_1.0.in.reg2mem store i64 26, i64* %sv_0.0.reg2mem br label LBL_4 LBL_4: %sv_0.0.reload = load i64, i64* %sv_0.0.reg2mem %sv_1.0.in.reload = load i64*, i64** %sv_1.0.in.reg2mem %sv_1.0 = ptrtoint i64* %sv_1.0.in.reload to i64 %6 = ptrtoint i32* %arg1 to i64 %7 = add i64 %6, 4 %8 = inttoptr i64 %7 to i32* %9 = load i32, i32* %8, align 4 %10 = icmp eq i32 %9, 0 br i1 %10, label LBL_6, label LBL_5 LBL_5: %11 = or i64 %sv_1.0, 3 %12 = inttoptr i64 %11 to i8* %13 = load i8, i8* %12, align 1 %14 = or i8 %13, 32 store i8 %14, i8* %12, align 1 br label LBL_6 LBL_6: %15 = call i64 @FUNC() %16 = trunc i64 %15 to i32 %17 = icmp eq i32 %16, 0 %18 = icmp ult i64 %sv_0.0.reload, 25 %or.cond = or i1 %18, %17 br i1 %or.cond, label LBL_8, label LBL_7 LBL_7: %19 = add i64 %sv_1.0, 24 %20 = inttoptr i64 %19 to i8* %21 = load i8, i8* %20, align 8 %22 = or i8 %21, -128 store i8 %22, i8* %20, align 8 br label LBL_8 LBL_8: %23 = call i64 @FUNC(i64 %arg2, i32 %arg3, i8* getelementptr inbounds ([16 x i8], [16 x i8]* @gv_0, i64 0, i64 0), i64 %sv_1.0, i64 %sv_0.0.reload) store i64 %23, i64* %rax.0.reg2mem br label LBL_9 LBL_9: %rax.0.reload = load i64, i64* %rax.0.reg2mem ret i64 %rax.0.reload uselistorder i64 %sv_1.0, { 1, 2, 0 } uselistorder i64 %sv_0.0.reload, { 1, 0 } uselistorder i32 %2, { 2, 1, 0 } uselistorder i64 %1, { 1, 0 } uselistorder i64** %sv_1.0.in.reg2mem, { 0, 3, 2, 1 } uselistorder i64* %sv_0.0.reg2mem, { 0, 3, 2, 1 } uselistorder i64* %rax.0.reg2mem, { 0, 3, 1, 2 } uselistorder i32 300, { 1, 0 } uselistorder label LBL_9, { 2, 0, 1 } uselistorder label LBL_4, { 2, 1, 0 } }
1
BinRealVul
pt_save_timer_13236
pt_save_timer
define i64 @FUNC(i64* %arg1) local_unnamed_addr { LBL_0: %0 = alloca i64 %rax.0.reg2mem = alloca i64 %storemerge.in4.reg2mem = alloca i64 %1 = load i64, i64* %0 %2 = trunc i64 %1 to i32 %3 = urem i32 %2, 2 %4 = zext i32 %3 to i64 %5 = icmp eq i32 %3, 0 %6 = icmp eq i1 %5, false store i64 %4, i64* %rax.0.reg2mem br i1 %6, label LBL_6, label LBL_1 LBL_1: %7 = ptrtoint i64* %arg1 to i64 %8 = add i64 %7, 8 %9 = add i64 %7, 24 %10 = call i64 @FUNC(i64 %9) %storemerge.in.in2 = inttoptr i64 %8 to i64* %storemerge.in3 = load i64, i64* %storemerge.in.in2, align 8 %11 = icmp eq i64 %8, %storemerge.in3 %12 = icmp eq i1 %11, false store i64 %storemerge.in3, i64* %storemerge.in4.reg2mem br i1 %12, label LBL_2, label LBL_5 LBL_2: %storemerge.in4.reload = load i64, i64* %storemerge.in4.reg2mem %storemerge = inttoptr i64 %storemerge.in4.reload to i32* %13 = load i32, i32* %storemerge, align 4 %14 = icmp eq i32 %13, 0 %15 = icmp eq i1 %14, false br i1 %15, label LBL_4, label LBL_3 LBL_3: %16 = add i64 %storemerge.in4.reload, 4 %17 = call i64 @FUNC(i64 %16) br label LBL_4 LBL_4: %18 = add i64 %storemerge.in4.reload, 8 %storemerge.in.in = inttoptr i64 %18 to i64* %storemerge.in = load i64, i64* %storemerge.in.in, align 8 %19 = icmp eq i64 %8, %storemerge.in %20 = icmp eq i1 %19, false store i64 %storemerge.in, i64* %storemerge.in4.reg2mem br i1 %20, label LBL_2, label LBL_5 LBL_5: %21 = call i64 @FUNC(i64 %7) %22 = call i64 @FUNC(i64 %9) store i64 %22, i64* %rax.0.reg2mem br label LBL_6 LBL_6: %rax.0.reload = load i64, i64* %rax.0.reg2mem ret i64 %rax.0.reload uselistorder i64 %8, { 2, 0, 1 } uselistorder i32 %3, { 1, 0 } uselistorder i64* %storemerge.in4.reg2mem, { 2, 0, 1 } uselistorder i1 false, { 2, 1, 0, 3 } uselistorder label LBL_6, { 1, 0 } uselistorder label LBL_2, { 1, 0 } }
1
BinRealVul
con_install_13360
con_install
define i64 @FUNC(i64* %arg1, i64* %arg2) local_unnamed_addr { LBL_0: %0 = alloca i64 %sv_0.0.reg2mem = alloca i64 %1 = load i64, i64* %0 %2 = call i64 @FUNC() %3 = and i64 %1, 4294967295 %4 = call i64 @FUNC(i64 %3) %5 = trunc i64 %4 to i32 %6 = icmp eq i32 %5, 0 %7 = icmp eq i1 %6, false store i64 %4, i64* %sv_0.0.reg2mem br i1 %7, label LBL_9, label LBL_1 LBL_1: %8 = mul i64 %3, 8 %9 = add i64 %8, ptrtoint (i64* @gv_0 to i64) %10 = inttoptr i64 %9 to i64* %11 = load i64, i64* %10, align 8 %12 = inttoptr i64 %11 to i64* %13 = load i64, i64* %12, align 8 %14 = icmp eq i64 %13, 0 store i64 4294966784, i64* %sv_0.0.reg2mem br i1 %14, label LBL_2, label LBL_9 LBL_2: %15 = ptrtoint i64* %arg2 to i64 %16 = ptrtoint i64* %arg1 to i64 %17 = call i64 @FUNC(i64 %11, i64 %16, i64 %15) %18 = trunc i64 %17 to i32 %19 = icmp eq i32 %18, 0 %20 = icmp eq i1 %19, false store i64 %17, i64* %sv_0.0.reg2mem br i1 %20, label LBL_9, label LBL_3 LBL_3: %21 = add i64 %15, 16 %22 = inttoptr i64 %21 to i64* store i64 %11, i64* %22, align 8 store i64 %15, i64* %12, align 8 %23 = add i64 %15, 4 %24 = inttoptr i64 %23 to i32* %25 = load i32, i32* %24, align 4 %26 = icmp eq i32 %25, 0 %27 = icmp eq i1 %26, false br i1 %27, label LBL_6, label LBL_4 LBL_4: %28 = add i64 %15, 8 %29 = inttoptr i64 %28 to i32* %30 = load i32, i32* %29, align 4 %31 = icmp eq i32 %30, 0 %32 = icmp eq i1 %31, false br i1 %32, label LBL_6, label LBL_5 LBL_5: %33 = load i64, i64* %10, align 8 %34 = add i64 %33, 8 %35 = inttoptr i64 %34 to i32* %36 = load i32, i32* %35, align 4 store i32 %36, i32* %24, align 4 %37 = load i64, i64* %10, align 8 %38 = add i64 %37, 12 %39 = inttoptr i64 %38 to i32* %40 = load i32, i32* %39, align 4 store i32 %40, i32* %29, align 4 br label LBL_6 LBL_6: %41 = add i64 %11, 16 %42 = inttoptr i64 %41 to i32* %43 = load i32, i32* %42, align 4 %44 = icmp eq i32 %43, 0 %45 = add i64 %15, 12 %46 = inttoptr i64 %45 to i32* %47 = load i32, i32* %46, align 4 br i1 %44, label LBL_8, label LBL_7 LBL_7: %48 = or i32 %47, 2048 store i32 %48, i32* %46, align 4 store i64 %17, i64* %sv_0.0.reg2mem br label LBL_9 LBL_8: %49 = and i32 %47, -2049 store i32 %49, i32* %46, align 4 store i64 %17, i64* %sv_0.0.reg2mem br label LBL_9 LBL_9: %sv_0.0.reload = load i64, i64* %sv_0.0.reg2mem %50 = call i64 @FUNC() %51 = and i64 %sv_0.0.reload, 4294967295 ret i64 %51 uselistorder i32 %47, { 1, 0 } uselistorder i32* %46, { 1, 0, 2 } uselistorder i64 %17, { 1, 0, 2, 3 } uselistorder i64 %15, { 0, 2, 1, 3, 4, 5 } uselistorder i64* %sv_0.0.reg2mem, { 0, 3, 2, 4, 1, 5 } uselistorder i64 8, { 1, 2, 0 } uselistorder label LBL_9, { 3, 4, 1, 0, 2 } }
1
BinRealVul
gen_mulldo_568
gen_mulldo
define i64 @FUNC(i32* %arg1) local_unnamed_addr { LBL_0: %0 = alloca i64 %rax.0.reg2mem = alloca i64 %1 = load i64, i64* %0 %2 = call i64 @FUNC() %3 = call i64 @FUNC() %4 = udiv i64 %1, 4 %5 = and i64 %4, 248 %6 = add i64 %5, ptrtoint (i64* @gv_0 to i64) %7 = inttoptr i64 %6 to i64* %8 = load i64, i64* %7, align 8 %9 = mul i64 %1, 8 %10 = and i64 %9, 248 %11 = add i64 %10, ptrtoint (i64* @gv_0 to i64) %12 = inttoptr i64 %11 to i64* %13 = load i64, i64* %12, align 8 %14 = call i64 @FUNC(i64 %2, i64 %3, i64 %13, i64 %8) %15 = udiv i64 %1, 128 %16 = and i64 %15, 248 %17 = add i64 %16, ptrtoint (i64* @gv_0 to i64) %18 = inttoptr i64 %17 to i64* %19 = load i64, i64* %18, align 8 %20 = call i64 @FUNC(i64 %19, i64 %2) %21 = call i64 @FUNC(i64 %2, i64 %2, i64 63) %22 = load i64, i64* @gv_1, align 8 %23 = call i64 @FUNC(i64 1, i64 %22, i64 %2, i64 %3) %24 = ptrtoint i32* %arg1 to i64 %25 = call i64 @FUNC(i64 %24) %26 = trunc i64 %25 to i32 %27 = icmp eq i32 %26, 0 br i1 %27, label LBL_2, label LBL_1 LBL_1: %28 = load i64, i64* @gv_1, align 8 %29 = load i64, i64* @gv_2, align 8 %30 = call i64 @FUNC(i64 %29, i64 %28) br label LBL_2 LBL_2: %31 = load i64, i64* @gv_1, align 8 %32 = load i64, i64* @gv_3, align 8 %33 = call i64 @FUNC(i64 %32, i64 %32, i64 %31) %34 = call i64 @FUNC(i64 %2) %35 = call i64 @FUNC(i64 %3) %36 = trunc i64 %1 to i16 %37 = icmp sgt i16 %36, -1 %38 = icmp eq i1 %37, false %39 = icmp eq i1 %38, false store i64 0, i64* %rax.0.reg2mem br i1 %39, label LBL_4, label LBL_3 LBL_3: %40 = load i64, i64* %18, align 8 %41 = call i64 @FUNC(i64 %24, i64 %40) store i64 %41, i64* %rax.0.reg2mem br label LBL_4 LBL_4: %rax.0.reload = load i64, i64* %rax.0.reg2mem ret i64 %rax.0.reload uselistorder i64 %32, { 1, 0 } uselistorder i64 %2, { 0, 1, 3, 2, 4, 5 } uselistorder i64 %1, { 0, 2, 3, 1 } uselistorder i64 (i64)* @tcg_temp_free_i64, { 1, 0 } uselistorder i64 ()* @tcg_temp_new_i64, { 1, 0 } }
0
BinRealVul
ftp_getresp_8788
ftp_getresp
define i64 @FUNC(i64* %arg1, i64 %arg2, i64 %arg3, i64 %arg4) local_unnamed_addr { LBL_0: %rax.0.reg2mem = alloca i64 %rdi = alloca i64, align 8 %0 = icmp eq i64* %arg1, null %1 = icmp eq i1 %0, false store i64 0, i64* %rax.0.reg2mem br i1 %1, label LBL_1, label LBL_13 LBL_1: %2 = ptrtoint i64* %arg1 to i64 %3 = add i64 %2, 1024 %4 = inttoptr i64 %3 to i32* store i32 0, i32* %4, align 4 %5 = call i64 @FUNC(i64 %2) %6 = trunc i64 %5 to i32 %7 = icmp eq i32 %6, 0 %8 = icmp eq i1 %7, false store i64 0, i64* %rax.0.reg2mem br i1 %8, label LBL_2, label LBL_13 LBL_2: %9 = bitcast i64* %rdi to i8* %10 = add i64 %2, 1 %11 = inttoptr i64 %10 to i8* %12 = add i64 %2, 2 %13 = inttoptr i64 %12 to i8* %14 = add i64 %2, 3 %15 = inttoptr i64 %14 to i8* %.pre = load i8, i8* %9, align 8 %16 = sext i8 %.pre to i64 %17 = mul i64 %16, 2 br label LBL_3 LBL_3: %18 = call i16** @__ctype_b_loc() %19 = load i16*, i16** %18, align 8 %20 = ptrtoint i16* %19 to i64 %21 = add i64 %17, %20 %22 = inttoptr i64 %21 to i16* %23 = load i16, i16* %22, align 2 %24 = and i16 %23, 2048 %25 = icmp eq i16 %24, 0 br i1 %25, label LBL_4, label LBL_5 LBL_4: %26 = call i64 @FUNC(i64 %2) %27 = trunc i64 %26 to i32 %28 = icmp eq i32 %27, 0 %29 = icmp eq i1 %28, false store i64 0, i64* %rax.0.reg2mem br i1 %29, label LBL_3, label LBL_13 LBL_5: %30 = call i16** @__ctype_b_loc() %31 = load i16*, i16** %30, align 8 %32 = ptrtoint i16* %31 to i64 %33 = load i8, i8* %11, align 1 %34 = sext i8 %33 to i64 %35 = mul i64 %34, 2 %36 = add i64 %35, %32 %37 = inttoptr i64 %36 to i16* %38 = load i16, i16* %37, align 2 %39 = and i16 %38, 2048 %40 = icmp eq i16 %39, 0 br i1 %40, label LBL_4, label LBL_6 LBL_6: %41 = call i16** @__ctype_b_loc() %42 = load i16*, i16** %41, align 8 %43 = ptrtoint i16* %42 to i64 %44 = load i8, i8* %13, align 1 %45 = sext i8 %44 to i64 %46 = mul i64 %45, 2 %47 = add i64 %46, %43 %48 = inttoptr i64 %47 to i16* %49 = load i16, i16* %48, align 2 %50 = and i16 %49, 2048 %51 = icmp eq i16 %50, 0 br i1 %51, label LBL_4, label LBL_7 LBL_7: %52 = load i8, i8* %15, align 1 %53 = icmp eq i8 %52, 32 br i1 %53, label LBL_8, label LBL_4 LBL_8: %54 = call i16** @__ctype_b_loc() %55 = load i16*, i16** %54, align 8 %56 = ptrtoint i16* %55 to i64 %57 = add i64 %17, %56 %58 = inttoptr i64 %57 to i16* %59 = load i16, i16* %58, align 2 %60 = and i16 %59, 2048 %61 = icmp eq i16 %60, 0 store i64 0, i64* %rax.0.reg2mem br i1 %61, label LBL_13, label LBL_9 LBL_9: %62 = call i16** @__ctype_b_loc() %63 = load i16*, i16** %62, align 8 %64 = ptrtoint i16* %63 to i64 %65 = load i8, i8* %11, align 1 %66 = sext i8 %65 to i64 %67 = mul i64 %66, 2 %68 = add i64 %67, %64 %69 = inttoptr i64 %68 to i16* %70 = load i16, i16* %69, align 2 %71 = and i16 %70, 2048 %72 = icmp eq i16 %71, 0 store i64 0, i64* %rax.0.reg2mem br i1 %72, label LBL_13, label LBL_10 LBL_10: %73 = call i16** @__ctype_b_loc() %74 = load i16*, i16** %73, align 8 %75 = ptrtoint i16* %74 to i64 %76 = load i8, i8* %13, align 1 %77 = sext i8 %76 to i64 %78 = mul i64 %77, 2 %79 = add i64 %78, %75 %80 = inttoptr i64 %79 to i16* %81 = load i16, i16* %80, align 2 %82 = and i16 %81, 2048 %83 = icmp eq i16 %82, 0 %84 = icmp eq i1 %83, false store i64 0, i64* %rax.0.reg2mem br i1 %84, label LBL_11, label LBL_13 LBL_11: %85 = sext i8 %.pre to i32 %86 = mul nsw i32 %85, 100 %87 = load i8, i8* %11, align 1 %88 = sext i8 %87 to i32 %89 = mul nsw i32 %88, 10 %90 = sext i8 %76 to i32 %91 = add nsw i32 %86, -5328 %92 = add nsw i32 %91, %90 %93 = add nsw i32 %92, %89 store i32 %93, i32* %4, align 4 %94 = add i64 %2, 4 %95 = inttoptr i64 %94 to i64* %96 = call i64* @memmove(i64* %arg1, i64* %95, i32 1020) %97 = add i64 %2, 1028 %98 = inttoptr i64 %97 to i32* %99 = load i32, i32* %98, align 4 %100 = icmp eq i32 %99, 0 store i64 1, i64* %rax.0.reg2mem br i1 %100, label LBL_13, label LBL_12 LBL_12: %101 = add i32 %99, -4 store i32 %101, i32* %98, align 4 store i64 1, i64* %rax.0.reg2mem br label LBL_13 LBL_13: %rax.0.reload = load i64, i64* %rax.0.reg2mem ret i64 %rax.0.reload uselistorder i64 %17, { 1, 0 } uselistorder i8* %11, { 1, 0, 2 } uselistorder i64 %2, { 2, 1, 6, 4, 3, 5, 0, 7 } uselistorder i64* %rax.0.reg2mem, { 0, 4, 3, 7, 6, 5, 1, 2, 8 } uselistorder i16** ()* @__ctype_b_loc, { 5, 2, 3, 4, 0, 1 } uselistorder i64 1, { 1, 0, 3, 2 } uselistorder i64 (i64)* @ftp_readline, { 1, 0 } uselistorder i1 false, { 1, 2, 0, 3 } uselistorder i64* %arg1, { 0, 2, 1 } uselistorder label LBL_13, { 3, 2, 6, 5, 4, 0, 1, 7 } uselistorder label LBL_4, { 3, 2, 1, 0 } uselistorder label LBL_3, { 1, 0 } }
0
BinRealVul
php_network_get_sock_name_18833
php_network_get_sock_name
define i64 @FUNC(i64 %arg1, i64* %arg2, i64* %arg3, i64* %arg4, i64* %arg5) local_unnamed_addr { LBL_0: %storemerge.reg2mem = alloca i64 %sv_0 = alloca i64, align 8 %sv_1 = alloca i32, align 4 %0 = trunc i64 %arg1 to i32 store i32 128, i32* %sv_1, align 4 %1 = bitcast i64* %sv_0 to %sockaddr* %2 = call i32 @getsockname(i32 %0, %sockaddr* nonnull %1, i32* nonnull %sv_1) %3 = icmp eq i32 %2, 0 %4 = icmp eq i1 %3, false store i64 4294967295, i64* %storemerge.reg2mem br i1 %4, label LBL_2, label LBL_1 LBL_1: %5 = ptrtoint i64* %arg2 to i64 %6 = ptrtoint i64* %arg3 to i64 %7 = ptrtoint i64* %arg4 to i64 %8 = ptrtoint i64* %arg5 to i64 %9 = load i32, i32* %sv_1, align 4 %10 = call i64 @FUNC(i64* nonnull %sv_0, i32 %9, i64 %5, i64 %6, i64 %7, i64 %8) store i64 0, i64* %storemerge.reg2mem br label LBL_2 LBL_2: %storemerge.reload = load i64, i64* %storemerge.reg2mem ret i64 %storemerge.reload uselistorder i32* %sv_1, { 1, 0, 2 } uselistorder i64* %storemerge.reg2mem, { 0, 2, 1 } uselistorder label LBL_2, { 1, 0 } }
1
BinRealVul
ati_remote2_complete_key_8130
ati_remote2_complete_key
define i64 @FUNC(i32* %arg1) local_unnamed_addr { LBL_0: %0 = alloca i64 %rax.0.reg2mem = alloca i64 %1 = load i64, i64* %0 %2 = load i64, i64* %0 %3 = load i64, i64* %0 %4 = ptrtoint i32* %arg1 to i64 %5 = add i64 %4, 8 %6 = inttoptr i64 %5 to i64* %7 = load i64, i64* %6, align 8 %8 = trunc i64 %3 to i32 %9 = icmp slt i32 %8, 0 %10 = icmp eq i1 %9, false br i1 %10, label LBL_2, label LBL_1 LBL_1: %11 = icmp sgt i32 %8, -5 br i1 %11, label LBL_4, label LBL_5 LBL_2: %12 = icmp eq i32 %8, 0 %13 = icmp eq i1 %12, false br i1 %13, label LBL_5, label LBL_3 LBL_3: %14 = inttoptr i64 %7 to i64* %15 = load i64, i64* %14, align 8 %16 = call i64 @FUNC(i64 %15) %17 = call i64 @FUNC(i64 %7) br label LBL_6 LBL_4: %18 = add i64 %7, 16 %19 = inttoptr i64 %18 to i64* %20 = load i64, i64* %19, align 8 %21 = and i64 %3, 4294967295 %22 = call i64 @FUNC(i64 %20, i8* getelementptr inbounds ([23 x i8], [23 x i8]* @gv_0, i64 0, i64 0), i8* getelementptr inbounds ([25 x i8], [25 x i8]* @gv_1, i64 0, i64 0), i64 %21, i64 %2, i64 %1) store i64 %22, i64* %rax.0.reg2mem br label LBL_8 LBL_5: %23 = inttoptr i64 %7 to i64* %24 = load i64, i64* %23, align 8 %25 = call i64 @FUNC(i64 %24) %26 = add i64 %7, 16 %27 = inttoptr i64 %26 to i64* %28 = load i64, i64* %27, align 8 %29 = and i64 %3, 4294967295 %30 = call i64 @FUNC(i64 %28, i8* getelementptr inbounds ([23 x i8], [23 x i8]* @gv_0, i64 0, i64 0), i8* getelementptr inbounds ([25 x i8], [25 x i8]* @gv_1, i64 0, i64 0), i64 %29, i64 %2, i64 %1) br label LBL_6 LBL_6: %31 = call i64 @FUNC(i64 %4, i64 0) %32 = trunc i64 %31 to i32 %33 = icmp eq i32 %32, 0 store i64 %31, i64* %rax.0.reg2mem br i1 %33, label LBL_8, label LBL_7 LBL_7: %34 = add i64 %7, 16 %35 = inttoptr i64 %34 to i64* %36 = load i64, i64* %35, align 8 %37 = and i64 %31, 4294967295 %38 = call i64 @FUNC(i64 %36, i8* getelementptr inbounds ([29 x i8], [29 x i8]* @gv_2, i64 0, i64 0), i8* getelementptr inbounds ([25 x i8], [25 x i8]* @gv_1, i64 0, i64 0), i64 %37, i64 %2, i64 %1) store i64 %38, i64* %rax.0.reg2mem br label LBL_8 LBL_8: %rax.0.reload = load i64, i64* %rax.0.reg2mem ret i64 %rax.0.reload uselistorder i64 %31, { 1, 0, 2 } uselistorder i32 %8, { 2, 1, 0 } uselistorder i64 %7, { 3, 5, 4, 0, 2, 1 } uselistorder i64 %3, { 1, 2, 0 } uselistorder i64 %2, { 1, 0, 2 } uselistorder i64 %1, { 1, 0, 2 } uselistorder i64* %rax.0.reg2mem, { 0, 2, 3, 1 } uselistorder i64* %0, { 2, 1, 0 } uselistorder i64 (i64, i8*, i8*, i64, i64, i64)* @dev_err, { 1, 0 } uselistorder i8* getelementptr inbounds ([25 x i8], [25 x i8]* @gv_1, i64 0, i64 0), { 1, 2, 0 } uselistorder i8* getelementptr inbounds ([23 x i8], [23 x i8]* @gv_0, i64 0, i64 0), { 1, 0 } uselistorder i64 4294967295, { 2, 1, 0 } uselistorder i64 (i64)* @usb_mark_last_busy, { 1, 0 } uselistorder label LBL_5, { 1, 0 } }
0
BinRealVul
md5_transform_7782
md5_transform
define i64 @FUNC(i32* %arg1, i64* %arg2) local_unnamed_addr { LBL_0: %0 = alloca i64 %1 = load i64, i64* %0 %2 = load i64, i64* %0 %3 = ptrtoint i64* %arg2 to i64 %4 = ptrtoint i32* %arg1 to i64 %5 = trunc i64 %1 to i32 %6 = add i64 %4, 4 %7 = inttoptr i64 %6 to i32* %8 = load i32, i32* %7, align 4 %9 = add i64 %4, 8 %10 = inttoptr i64 %9 to i32* %11 = load i32, i32* %10, align 4 %12 = add i64 %4, 12 %13 = inttoptr i64 %12 to i32* %14 = load i32, i32* %13, align 4 %15 = and i32 %11, %8 %16 = sub i32 0, %8 %17 = sub i32 %16, 1 %18 = and i32 %14, %17 %19 = or i32 %18, %15 %20 = trunc i64 %2 to i32 %21 = add i32 %5, -680876936 %22 = add i32 %21, %20 %23 = add i32 %22, %19 %24 = mul i32 %23, 128 %25 = udiv i32 %23, 33554432 %26 = or i32 %25, %24 %27 = add i32 %26, %8 %28 = and i32 %27, %8 %29 = sub i32 0, %27 %30 = sub i32 %29, 1 %31 = and i32 %11, %30 %32 = or i32 %28, %31 %33 = add i64 %3, 4 %34 = inttoptr i64 %33 to i32* %35 = load i32, i32* %34, align 4 %36 = add i32 %14, -389564586 %37 = add i32 %36, %35 %38 = add i32 %37, %32 %39 = mul i32 %38, 4096 %40 = udiv i32 %38, 1048576 %41 = or i32 %40, %39 %42 = add i32 %41, %27 %43 = and i32 %42, %27 %44 = sub i32 0, %42 %45 = sub i32 %44, 1 %46 = and i32 %8, %45 %47 = or i32 %43, %46 %48 = add i64 %3, 8 %49 = inttoptr i64 %48 to i32* %50 = load i32, i32* %49, align 4 %51 = add i32 %11, 606105819 %52 = add i32 %51, %50 %53 = add i32 %52, %47 %54 = udiv i32 %53, 32768 %55 = mul i32 %53, 131072 %56 = or i32 %54, %55 %57 = add i32 %56, %42 %58 = and i32 %57, %42 %59 = sub i32 0, %57 %60 = sub i32 %59, 1 %61 = and i32 %27, %60 %62 = or i32 %58, %61 %63 = add i64 %3, 12 %64 = inttoptr i64 %63 to i32* %65 = load i32, i32* %64, align 4 %66 = add i32 %8, -1044525330 %67 = add i32 %66, %65 %68 = add i32 %67, %62 %69 = udiv i32 %68, 1024 %70 = mul i32 %68, 4194304 %71 = or i32 %69, %70 %72 = add i32 %71, %57 %73 = and i32 %72, %57 %74 = sub i32 0, %72 %75 = sub i32 %74, 1 %76 = and i32 %42, %75 %77 = or i32 %73, %76 %78 = add i64 %3, 16 %79 = inttoptr i64 %78 to i32* %80 = load i32, i32* %79, align 4 %81 = add i32 %80, -176418897 %82 = add i32 %81, %27 %83 = add i32 %82, %77 %84 = mul i32 %83, 128 %85 = udiv i32 %83, 33554432 %86 = or i32 %85, %84 %87 = add i32 %86, %72 %88 = and i32 %87, %72 %89 = sub i32 0, %87 %90 = sub i32 %89, 1 %91 = and i32 %57, %90 %92 = or i32 %88, %91 %93 = add i64 %3, 20 %94 = inttoptr i64 %93 to i32* %95 = load i32, i32* %94, align 4 %96 = add i32 %95, 1200080426 %97 = add i32 %96, %42 %98 = add i32 %97, %92 %99 = mul i32 %98, 4096 %100 = udiv i32 %98, 1048576 %101 = or i32 %100, %99 %102 = add i32 %101, %87 %103 = and i32 %102, %87 %104 = sub i32 0, %102 %105 = sub i32 %104, 1 %106 = and i32 %72, %105 %107 = or i32 %103, %106 %108 = add i64 %3, 24 %109 = inttoptr i64 %108 to i32* %110 = load i32, i32* %109, align 4 %111 = add i32 %110, -1473231341 %112 = add i32 %111, %57 %113 = add i32 %112, %107 %114 = udiv i32 %113, 32768 %115 = mul i32 %113, 131072 %116 = or i32 %114, %115 %117 = add i32 %116, %102 %118 = and i32 %117, %102 %119 = sub i32 0, %117 %120 = sub i32 %119, 1 %121 = and i32 %87, %120 %122 = or i32 %118, %121 %123 = add i64 %3, 28 %124 = inttoptr i64 %123 to i32* %125 = load i32, i32* %124, align 4 %126 = add i32 %125, -45705983 %127 = add i32 %126, %72 %128 = add i32 %127, %122 %129 = udiv i32 %128, 1024 %130 = mul i32 %128, 4194304 %131 = or i32 %129, %130 %132 = add i32 %131, %117 %133 = and i32 %132, %117 %134 = sub i32 0, %132 %135 = sub i32 %134, 1 %136 = and i32 %102, %135 %137 = or i32 %133, %136 %138 = add i64 %3, 32 %139 = inttoptr i64 %138 to i32* %140 = load i32, i32* %139, align 4 %141 = add i32 %140, 1770035416 %142 = add i32 %141, %87 %143 = add i32 %142, %137 %144 = mul i32 %143, 128 %145 = udiv i32 %143, 33554432 %146 = or i32 %145, %144 %147 = add i32 %146, %132 %148 = and i32 %147, %132 %149 = sub i32 0, %147 %150 = sub i32 %149, 1 %151 = and i32 %117, %150 %152 = or i32 %148, %151 %153 = add i64 %3, 36 %154 = inttoptr i64 %153 to i32* %155 = load i32, i32* %154, align 4 %156 = add i32 %155, -1958414417 %157 = add i32 %156, %102 %158 = add i32 %157, %152 %159 = mul i32 %158, 4096 %160 = udiv i32 %158, 1048576 %161 = or i32 %160, %159 %162 = add i32 %161, %147 %163 = and i32 %162, %147 %164 = sub i32 0, %162 %165 = sub i32 %164, 1 %166 = and i32 %132, %165 %167 = or i32 %163, %166 %168 = add i64 %3, 40 %169 = inttoptr i64 %168 to i32* %170 = load i32, i32* %169, align 4 %171 = add i32 %170, -42063 %172 = add i32 %171, %117 %173 = add i32 %172, %167 %174 = udiv i32 %173, 32768 %175 = mul i32 %173, 131072 %176 = or i32 %174, %175 %177 = add i32 %176, %162 %178 = and i32 %177, %162 %179 = sub i32 0, %177 %180 = sub i32 %179, 1 %181 = and i32 %147, %180 %182 = or i32 %178, %181 %183 = add i64 %3, 44 %184 = inttoptr i64 %183 to i32* %185 = load i32, i32* %184, align 4 %186 = add i32 %185, -1990404162 %187 = add i32 %186, %132 %188 = add i32 %187, %182 %189 = udiv i32 %188, 1024 %190 = mul i32 %188, 4194304 %191 = or i32 %189, %190 %192 = add i32 %191, %177 %193 = and i32 %192, %177 %194 = sub i32 0, %192 %195 = sub i32 %194, 1 %196 = and i32 %162, %195 %197 = or i32 %193, %196 %198 = add i64 %3, 48 %199 = inttoptr i64 %198 to i32* %200 = load i32, i32* %199, align 4 %201 = add i32 %200, 1804603682 %202 = add i32 %201, %147 %203 = add i32 %202, %197 %204 = mul i32 %203, 128 %205 = udiv i32 %203, 33554432 %206 = or i32 %205, %204 %207 = add i32 %206, %192 %208 = and i32 %207, %192 %209 = sub i32 0, %207 %210 = sub i32 %209, 1 %211 = and i32 %177, %210 %212 = or i32 %208, %211 %213 = add i64 %3, 52 %214 = inttoptr i64 %213 to i32* %215 = load i32, i32* %214, align 4 %216 = add i32 %215, -40341101 %217 = add i32 %216, %162 %218 = add i32 %217, %212 %219 = mul i32 %218, 4096 %220 = udiv i32 %218, 1048576 %221 = or i32 %220, %219 %222 = add i32 %221, %207 %223 = and i32 %222, %207 %224 = sub i32 0, %222 %225 = sub i32 %224, 1 %226 = and i32 %192, %225 %227 = or i32 %223, %226 %228 = add i64 %3, 56 %229 = inttoptr i64 %228 to i32* %230 = load i32, i32* %229, align 4 %231 = add i32 %230, -1502002290 %232 = add i32 %231, %177 %233 = add i32 %232, %227 %234 = udiv i32 %233, 32768 %235 = mul i32 %233, 131072 %236 = or i32 %234, %235 %237 = add i32 %236, %222 %238 = and i32 %237, %222 %239 = sub i32 0, %237 %240 = sub i32 %239, 1 %241 = and i32 %207, %240 %242 = or i32 %238, %241 %243 = add i64 %3, 60 %244 = inttoptr i64 %243 to i32* %245 = load i32, i32* %244, align 4 %246 = add i32 %245, 1236535329 %247 = add i32 %246, %192 %248 = add i32 %247, %242 %249 = udiv i32 %248, 1024 %250 = mul i32 %248, 4194304 %251 = or i32 %249, %250 %252 = add i32 %251, %237 %253 = and i32 %252, %222 %254 = and i32 %237, %225 %255 = or i32 %253, %254 %256 = add i32 %35, -165796510 %257 = add i32 %256, %207 %258 = add i32 %257, %255 %259 = mul i32 %258, 32 %260 = udiv i32 %258, 134217728 %261 = or i32 %260, %259 %262 = add i32 %261, %252 %263 = and i32 %262, %237 %264 = and i32 %252, %240 %265 = or i32 %263, %264 %266 = add i32 %110, -1069501632 %267 = add i32 %266, %222 %268 = add i32 %267, %265 %269 = mul i32 %268, 512 %270 = udiv i32 %268, 8388608 %271 = or i32 %270, %269 %272 = add i32 %271, %262 %273 = and i32 %272, %252 %274 = sub i32 0, %252 %275 = sub i32 %274, 1 %276 = and i32 %262, %275 %277 = or i32 %273, %276 %278 = add i32 %185, 643717713 %279 = add i32 %278, %237 %280 = add i32 %279, %277 %281 = mul i32 %280, 16384 %282 = udiv i32 %280, 262144 %283 = or i32 %282, %281 %284 = add i32 %283, %272 %285 = and i32 %284, %262 %286 = sub i32 0, %262 %287 = sub i32 %286, 1 %288 = and i32 %272, %287 %289 = or i32 %285, %288 %290 = add i32 %20, -373897302 %291 = add i32 %290, %252 %292 = add i32 %291, %289 %293 = udiv i32 %292, 4096 %294 = mul i32 %292, 1048576 %295 = or i32 %293, %294 %296 = add i32 %295, %284 %297 = and i32 %296, %272 %298 = sub i32 0, %272 %299 = sub i32 %298, 1 %300 = and i32 %284, %299 %301 = or i32 %297, %300 %302 = add i32 %95, -701558691 %303 = add i32 %302, %262 %304 = add i32 %303, %301 %305 = mul i32 %304, 32 %306 = udiv i32 %304, 134217728 %307 = or i32 %306, %305 %308 = add i32 %307, %296 %309 = and i32 %308, %284 %310 = sub i32 0, %284 %311 = sub i32 %310, 1 %312 = and i32 %296, %311 %313 = or i32 %309, %312 %314 = add i32 %170, 38016083 %315 = add i32 %314, %272 %316 = add i32 %315, %313 %317 = mul i32 %316, 512 %318 = udiv i32 %316, 8388608 %319 = or i32 %318, %317 %320 = add i32 %319, %308 %321 = and i32 %320, %296 %322 = sub i32 0, %296 %323 = sub i32 %322, 1 %324 = and i32 %308, %323 %325 = or i32 %321, %324 %326 = add i32 %245, -660478335 %327 = add i32 %326, %284 %328 = add i32 %327, %325 %329 = mul i32 %328, 16384 %330 = udiv i32 %328, 262144 %331 = or i32 %330, %329 %332 = add i32 %331, %320 %333 = and i32 %332, %308 %334 = sub i32 0, %308 %335 = sub i32 %334, 1 %336 = and i32 %320, %335 %337 = or i32 %333, %336 %338 = add i32 %80, -405537848 %339 = add i32 %338, %296 %340 = add i32 %339, %337 %341 = udiv i32 %340, 4096 %342 = mul i32 %340, 1048576 %343 = or i32 %341, %342 %344 = add i32 %343, %332 %345 = and i32 %344, %320 %346 = sub i32 0, %320 %347 = sub i32 %346, 1 %348 = and i32 %332, %347 %349 = or i32 %345, %348 %350 = add i32 %155, 568446438 %351 = add i32 %350, %308 %352 = add i32 %351, %349 %353 = mul i32 %352, 32 %354 = udiv i32 %352, 134217728 %355 = or i32 %354, %353 %356 = add i32 %355, %344 %357 = and i32 %356, %332 %358 = sub i32 0, %332 %359 = sub i32 %358, 1 %360 = and i32 %344, %359 %361 = or i32 %357, %360 %362 = add i32 %230, -1019803690 %363 = add i32 %362, %320 %364 = add i32 %363, %361 %365 = mul i32 %364, 512 %366 = udiv i32 %364, 8388608 %367 = or i32 %366, %365 %368 = add i32 %367, %356 %369 = and i32 %368, %344 %370 = sub i32 0, %344 %371 = sub i32 %370, 1 %372 = and i32 %356, %371 %373 = or i32 %369, %372 %374 = add i32 %65, -187363961 %375 = add i32 %374, %332 %376 = add i32 %375, %373 %377 = mul i32 %376, 16384 %378 = udiv i32 %376, 262144 %379 = or i32 %378, %377 %380 = add i32 %379, %368 %381 = and i32 %380, %356 %382 = sub i32 0, %356 %383 = sub i32 %382, 1 %384 = and i32 %368, %383 %385 = or i32 %381, %384 %386 = add i32 %140, 1163531501 %387 = add i32 %386, %344 %388 = add i32 %387, %385 %389 = udiv i32 %388, 4096 %390 = mul i32 %388, 1048576 %391 = or i32 %389, %390 %392 = add i32 %391, %380 %393 = and i32 %392, %368 %394 = sub i32 0, %368 %395 = sub i32 %394, 1 %396 = and i32 %380, %395 %397 = or i32 %393, %396 %398 = add i32 %215, -1444681467 %399 = add i32 %398, %356 %400 = add i32 %399, %397 %401 = mul i32 %400, 32 %402 = udiv i32 %400, 134217728 %403 = or i32 %402, %401 %404 = add i32 %403, %392 %405 = and i32 %404, %380 %406 = sub i32 0, %380 %407 = sub i32 %406, 1 %408 = and i32 %392, %407 %409 = or i32 %405, %408 %410 = add i32 %50, -51403784 %411 = add i32 %410, %368 %412 = add i32 %411, %409 %413 = mul i32 %412, 512 %414 = udiv i32 %412, 8388608 %415 = or i32 %414, %413 %416 = add i32 %415, %404 %417 = and i32 %416, %392 %418 = sub i32 0, %392 %419 = sub i32 %418, 1 %420 = and i32 %404, %419 %421 = or i32 %417, %420 %422 = add i32 %125, 1735328473 %423 = add i32 %422, %380 %424 = add i32 %423, %421 %425 = mul i32 %424, 16384 %426 = udiv i32 %424, 262144 %427 = or i32 %426, %425 %428 = add i32 %427, %416 %429 = and i32 %428, %404 %430 = sub i32 0, %404 %431 = sub i32 %430, 1 %432 = and i32 %416, %431 %433 = or i32 %429, %432 %434 = add i32 %200, -1926607734 %435 = add i32 %434, %392 %436 = add i32 %435, %433 %437 = udiv i32 %436, 4096 %438 = mul i32 %436, 1048576 %439 = or i32 %437, %438 %440 = add i32 %439, %428 %441 = xor i32 %440, %428 %442 = xor i32 %441, %416 %443 = add i32 %95, -378558 %444 = add i32 %443, %404 %445 = add i32 %444, %442 %446 = mul i32 %445, 16 %447 = udiv i32 %445, 268435456 %448 = or i32 %447, %446 %449 = add i32 %448, %440 %450 = xor i32 %449, %441 %451 = add i32 %140, -2022574463 %452 = add i32 %451, %416 %453 = add i32 %452, %450 %454 = mul i32 %453, 2048 %455 = udiv i32 %453, 2097152 %456 = or i32 %455, %454 %457 = add i32 %456, %449 %458 = xor i32 %457, %449 %459 = xor i32 %458, %440 %460 = add i32 %185, 1839030562 %461 = add i32 %460, %428 %462 = add i32 %461, %459 %463 = mul i32 %462, 65536 %464 = udiv i32 %462, 65536 %465 = or i32 %464, %463 %466 = add i32 %465, %457 %467 = xor i32 %458, %466 %468 = add i32 %230, -35309556 %469 = add i32 %468, %440 %470 = add i32 %469, %467 %471 = udiv i32 %470, 512 %472 = mul i32 %470, 8388608 %473 = or i32 %471, %472 %474 = add i32 %473, %466 %475 = xor i32 %466, %457 %476 = xor i32 %475, %474 %477 = add i32 %35, -1530992060 %478 = add i32 %477, %449 %479 = add i32 %478, %476 %480 = mul i32 %479, 16 %481 = udiv i32 %479, 268435456 %482 = or i32 %481, %480 %483 = add i32 %482, %474 %484 = xor i32 %474, %466 %485 = xor i32 %484, %483 %486 = add i32 %80, 1272893353 %487 = add i32 %486, %457 %488 = add i32 %487, %485 %489 = mul i32 %488, 2048 %490 = udiv i32 %488, 2097152 %491 = or i32 %490, %489 %492 = add i32 %491, %483 %493 = xor i32 %483, %474 %494 = xor i32 %493, %492 %495 = add i32 %125, -155497632 %496 = add i32 %495, %466 %497 = add i32 %496, %494 %498 = mul i32 %497, 65536 %499 = udiv i32 %497, 65536 %500 = or i32 %499, %498 %501 = add i32 %500, %492 %502 = xor i32 %492, %483 %503 = xor i32 %502, %501 %504 = add i32 %170, -1094730640 %505 = add i32 %504, %474 %506 = add i32 %505, %503 %507 = udiv i32 %506, 512 %508 = mul i32 %506, 8388608 %509 = or i32 %507, %508 %510 = add i32 %509, %501 %511 = xor i32 %501, %492 %512 = xor i32 %511, %510 %513 = add i32 %215, 681279174 %514 = add i32 %513, %483 %515 = add i32 %514, %512 %516 = mul i32 %515, 16 %517 = udiv i32 %515, 268435456 %518 = or i32 %517, %516 %519 = add i32 %518, %510 %520 = xor i32 %510, %501 %521 = xor i32 %520, %519 %522 = add i32 %20, -358537222 %523 = add i32 %522, %492 %524 = add i32 %523, %521 %525 = mul i32 %524, 2048 %526 = udiv i32 %524, 2097152 %527 = or i32 %526, %525 %528 = add i32 %527, %519 %529 = xor i32 %519, %510 %530 = xor i32 %529, %528 %531 = add i32 %65, -722521979 %532 = add i32 %531, %501 %533 = add i32 %532, %530 %534 = mul i32 %533, 65536 %535 = udiv i32 %533, 65536 %536 = or i32 %535, %534 %537 = add i32 %536, %528 %538 = xor i32 %528, %519 %539 = xor i32 %538, %537 %540 = add i32 %110, 76029189 %541 = add i32 %540, %510 %542 = add i32 %541, %539 %543 = udiv i32 %542, 512 %544 = mul i32 %542, 8388608 %545 = or i32 %543, %544 %546 = add i32 %545, %537 %547 = xor i32 %537, %528 %548 = xor i32 %547, %546 %549 = add i32 %155, -640364487 %550 = add i32 %549, %519 %551 = add i32 %550, %548 %552 = mul i32 %551, 16 %553 = udiv i32 %551, 268435456 %554 = or i32 %553, %552 %555 = add i32 %554, %546 %556 = xor i32 %546, %537 %557 = xor i32 %556, %555 %558 = add i32 %200, -421815835 %559 = add i32 %558, %528 %560 = add i32 %559, %557 %561 = mul i32 %560, 2048 %562 = udiv i32 %560, 2097152 %563 = or i32 %562, %561 %564 = add i32 %563, %555 %565 = xor i32 %555, %546 %566 = xor i32 %565, %564 %567 = add i32 %245, 530742520 %568 = add i32 %567, %537 %569 = add i32 %568, %566 %570 = mul i32 %569, 65536 %571 = udiv i32 %569, 65536 %572 = or i32 %571, %570 %573 = add i32 %572, %564 %574 = xor i32 %564, %555 %575 = xor i32 %574, %573 %576 = add i32 %50, -995338651 %577 = add i32 %576, %546 %578 = add i32 %577, %575 %579 = udiv i32 %578, 512 %580 = mul i32 %578, 8388608 %581 = or i32 %579, %580 %582 = add i32 %581, %573 %583 = sub i32 0, %564 %584 = sub i32 %583, 1 %585 = or i32 %582, %584 %586 = xor i32 %585, %573 %587 = add i32 %20, -198630844 %588 = add i32 %587, %555 %589 = add i32 %588, %586 %590 = mul i32 %589, 64 %591 = udiv i32 %589, 67108864 %592 = or i32 %591, %590 %593 = add i32 %592, %582 %594 = sub i32 0, %573 %595 = sub i32 %594, 1 %596 = or i32 %593, %595 %597 = xor i32 %596, %582 %598 = add i32 %125, 1126891415 %599 = add i32 %598, %564 %600 = add i32 %599, %597 %601 = mul i32 %600, 1024 %602 = udiv i32 %600, 4194304 %603 = or i32 %602, %601 %604 = add i32 %603, %593 %605 = sub i32 0, %582 %606 = sub i32 %605, 1 %607 = or i32 %604, %606 %608 = xor i32 %607, %593 %609 = add i32 %230, -1416354905 %610 = add i32 %609, %573 %611 = add i32 %610, %608 %612 = mul i32 %611, 32768 %613 = udiv i32 %611, 131072 %614 = or i32 %613, %612 %615 = add i32 %614, %604 %616 = sub i32 0, %593 %617 = sub i32 %616, 1 %618 = or i32 %615, %617 %619 = xor i32 %618, %604 %620 = add i32 %95, -57434055 %621 = add i32 %620, %582 %622 = add i32 %621, %619 %623 = udiv i32 %622, 2048 %624 = mul i32 %622, 2097152 %625 = or i32 %623, %624 %626 = add i32 %625, %615 %627 = sub i32 0, %604 %628 = sub i32 %627, 1 %629 = or i32 %626, %628 %630 = xor i32 %629, %615 %631 = add i32 %200, 1700485571 %632 = add i32 %631, %593 %633 = add i32 %632, %630 %634 = mul i32 %633, 64 %635 = udiv i32 %633, 67108864 %636 = or i32 %635, %634 %637 = add i32 %636, %626 %638 = sub i32 0, %615 %639 = sub i32 %638, 1 %640 = or i32 %637, %639 %641 = xor i32 %640, %626 %642 = add i32 %65, -1894986606 %643 = add i32 %642, %604 %644 = add i32 %643, %641 %645 = mul i32 %644, 1024 %646 = udiv i32 %644, 4194304 %647 = or i32 %646, %645 %648 = add i32 %647, %637 %649 = sub i32 0, %626 %650 = sub i32 %649, 1 %651 = or i32 %648, %650 %652 = xor i32 %651, %637 %653 = add i32 %170, -1051523 %654 = add i32 %653, %615 %655 = add i32 %654, %652 %656 = mul i32 %655, 32768 %657 = udiv i32 %655, 131072 %658 = or i32 %657, %656 %659 = add i32 %658, %648 %660 = sub i32 0, %637 %661 = sub i32 %660, 1 %662 = or i32 %659, %661 %663 = xor i32 %662, %648 %664 = add i32 %35, -2054922799 %665 = add i32 %664, %626 %666 = add i32 %665, %663 %667 = udiv i32 %666, 2048 %668 = mul i32 %666, 2097152 %669 = or i32 %667, %668 %670 = add i32 %669, %659 %671 = sub i32 0, %648 %672 = sub i32 %671, 1 %673 = or i32 %670, %672 %674 = xor i32 %673, %659 %675 = add i32 %140, 1873313359 %676 = add i32 %675, %637 %677 = add i32 %676, %674 %678 = mul i32 %677, 64 %679 = udiv i32 %677, 67108864 %680 = or i32 %679, %678 %681 = add i32 %680, %670 %682 = sub i32 0, %659 %683 = sub i32 %682, 1 %684 = or i32 %681, %683 %685 = xor i32 %684, %670 %686 = add i32 %245, -30611744 %687 = add i32 %686, %648 %688 = add i32 %687, %685 %689 = mul i32 %688, 1024 %690 = udiv i32 %688, 4194304 %691 = or i32 %690, %689 %692 = add i32 %691, %681 %693 = sub i32 0, %670 %694 = sub i32 %693, 1 %695 = or i32 %692, %694 %696 = xor i32 %695, %681 %697 = add i32 %110, -1560198380 %698 = add i32 %697, %659 %699 = add i32 %698, %696 %700 = mul i32 %699, 32768 %701 = udiv i32 %699, 131072 %702 = or i32 %701, %700 %703 = add i32 %702, %692 %704 = sub i32 0, %681 %705 = sub i32 %704, 1 %706 = or i32 %703, %705 %707 = xor i32 %706, %692 %708 = add i32 %215, 1309151649 %709 = add i32 %708, %670 %710 = add i32 %709, %707 %711 = udiv i32 %710, 2048 %712 = mul i32 %710, 2097152 %713 = or i32 %711, %712 %714 = add i32 %713, %703 %715 = sub i32 0, %692 %716 = sub i32 %715, 1 %717 = or i32 %714, %716 %718 = xor i32 %717, %703 %719 = add i32 %80, -145523070 %720 = add i32 %719, %681 %721 = add i32 %720, %718 %722 = mul i32 %721, 64 %723 = udiv i32 %721, 67108864 %724 = or i32 %723, %722 %725 = add i32 %724, %714 %726 = sub i32 0, %703 %727 = sub i32 %726, 1 %728 = or i32 %725, %727 %729 = xor i32 %728, %714 %730 = add i32 %185, -1120210379 %731 = add i32 %730, %692 %732 = add i32 %731, %729 %733 = mul i32 %732, 1024 %734 = udiv i32 %732, 4194304 %735 = or i32 %734, %733 %736 = add i32 %735, %725 %737 = sub i32 0, %714 %738 = sub i32 %737, 1 %739 = or i32 %736, %738 %740 = xor i32 %739, %725 %741 = add i32 %50, 718787259 %742 = add i32 %741, %703 %743 = add i32 %742, %740 %744 = mul i32 %743, 32768 %745 = udiv i32 %743, 131072 %746 = or i32 %745, %744 %747 = add i32 %746, %736 %748 = sub i32 0, %725 %749 = sub i32 %748, 1 %750 = or i32 %747, %749 %751 = xor i32 %750, %736 %752 = add i32 %155, -343485551 %753 = add i32 %752, %714 %754 = add i32 %753, %751 %755 = udiv i32 %754, 2048 %756 = mul i32 %754, 2097152 %757 = or i32 %755, %756 %758 = add i32 %725, %5 store i32 %758, i32* %arg1, align 4 %759 = load i32, i32* %7, align 4 %760 = add i32 %747, %759 %761 = add i32 %760, %757 store i32 %761, i32* %7, align 4 %762 = load i32, i32* %10, align 4 %763 = add i32 %747, %762 store i32 %763, i32* %10, align 4 %764 = load i32, i32* %13, align 4 %765 = add i32 %736, %764 store i32 %765, i32* %13, align 4 ret i64 %12 uselistorder i32 %743, { 1, 0 } uselistorder i32 %732, { 1, 0 } uselistorder i32 %725, { 1, 0, 2, 3, 4 } uselistorder i32 %721, { 1, 0 } uselistorder i32 %714, { 4, 0, 1, 2, 3 } uselistorder i32 %703, { 4, 0, 1, 2, 3 } uselistorder i32 %699, { 1, 0 } uselistorder i32 %692, { 4, 0, 1, 2, 3 } uselistorder i32 %688, { 1, 0 } uselistorder i32 %681, { 4, 0, 1, 2, 3 } uselistorder i32 %677, { 1, 0 } uselistorder i32 %670, { 4, 0, 1, 2, 3 } uselistorder i32 %659, { 4, 0, 1, 2, 3 } uselistorder i32 %655, { 1, 0 } uselistorder i32 %648, { 4, 0, 1, 2, 3 } uselistorder i32 %644, { 1, 0 } uselistorder i32 %637, { 4, 0, 1, 2, 3 } uselistorder i32 %633, { 1, 0 } uselistorder i32 %626, { 4, 0, 1, 2, 3 } uselistorder i32 %615, { 4, 0, 1, 2, 3 } uselistorder i32 %611, { 1, 0 } uselistorder i32 %604, { 4, 0, 1, 2, 3 } uselistorder i32 %600, { 1, 0 } uselistorder i32 %593, { 4, 0, 1, 2, 3 } uselistorder i32 %589, { 1, 0 } uselistorder i32 %582, { 4, 0, 1, 2, 3 } uselistorder i32 %573, { 3, 0, 1, 2, 4 } uselistorder i32 %569, { 1, 0 } uselistorder i32 %564, { 3, 0, 1, 2, 4 } uselistorder i32 %560, { 1, 0 } uselistorder i32 %555, { 3, 0, 1, 2, 4 } uselistorder i32 %551, { 1, 0 } uselistorder i32 %546, { 3, 0, 1, 2, 4 } uselistorder i32 %537, { 3, 0, 1, 2, 4 } uselistorder i32 %533, { 1, 0 } uselistorder i32 %528, { 3, 0, 1, 2, 4 } uselistorder i32 %524, { 1, 0 } uselistorder i32 %519, { 3, 0, 1, 2, 4 } uselistorder i32 %515, { 1, 0 } uselistorder i32 %510, { 3, 0, 1, 2, 4 } uselistorder i32 %501, { 3, 0, 1, 2, 4 } uselistorder i32 %497, { 1, 0 } uselistorder i32 %492, { 3, 0, 1, 2, 4 } uselistorder i32 %488, { 1, 0 } uselistorder i32 %483, { 3, 0, 1, 2, 4 } uselistorder i32 %479, { 1, 0 } uselistorder i32 %474, { 3, 0, 1, 2, 4 } uselistorder i32 %466, { 3, 0, 1, 2, 4 } uselistorder i32 %462, { 1, 0 } uselistorder i32 %457, { 2, 0, 3, 1 } uselistorder i32 %453, { 1, 0 } uselistorder i32 %449, { 3, 0, 1, 2 } uselistorder i32 %445, { 1, 0 } uselistorder i32 %440, { 3, 0, 1, 2 } uselistorder i32 %428, { 3, 0, 1, 2 } uselistorder i32 %424, { 1, 0 } uselistorder i32 %416, { 4, 0, 1, 2, 3 } uselistorder i32 %412, { 1, 0 } uselistorder i32 %404, { 5, 0, 1, 2, 3, 4 } uselistorder i32 %400, { 1, 0 } uselistorder i32 %392, { 5, 0, 1, 2, 3, 4 } uselistorder i32 %380, { 5, 0, 1, 2, 3, 4 } uselistorder i32 %376, { 1, 0 } uselistorder i32 %368, { 5, 0, 1, 2, 3, 4 } uselistorder i32 %364, { 1, 0 } uselistorder i32 %356, { 5, 0, 1, 2, 3, 4 } uselistorder i32 %352, { 1, 0 } uselistorder i32 %344, { 5, 0, 1, 2, 3, 4 } uselistorder i32 %332, { 5, 0, 1, 2, 3, 4 } uselistorder i32 %328, { 1, 0 } uselistorder i32 %320, { 5, 0, 1, 2, 3, 4 } uselistorder i32 %316, { 1, 0 } uselistorder i32 %308, { 5, 0, 1, 2, 3, 4 } uselistorder i32 %304, { 1, 0 } uselistorder i32 %296, { 5, 0, 1, 2, 3, 4 } uselistorder i32 %284, { 5, 0, 1, 2, 3, 4 } uselistorder i32 %280, { 1, 0 } uselistorder i32 %272, { 5, 0, 1, 2, 3, 4 } uselistorder i32 %268, { 1, 0 } uselistorder i32 %262, { 5, 0, 1, 2, 3, 4 } uselistorder i32 %258, { 1, 0 } uselistorder i32 %252, { 5, 0, 1, 2, 3, 4 } uselistorder i32 %237, { 5, 1, 2, 3, 0, 4 } uselistorder i32 %222, { 5, 1, 2, 3, 0, 4 } uselistorder i32 %218, { 1, 0 } uselistorder i32 %207, { 5, 1, 2, 3, 0, 4 } uselistorder i32 %203, { 1, 0 } uselistorder i32 %192, { 5, 1, 2, 3, 0, 4 } uselistorder i32 %177, { 5, 1, 2, 3, 0, 4 } uselistorder i32 %162, { 5, 1, 2, 3, 0, 4 } uselistorder i32 %158, { 1, 0 } uselistorder i32 %147, { 5, 1, 2, 3, 0, 4 } uselistorder i32 %143, { 1, 0 } uselistorder i32 %132, { 5, 1, 2, 3, 0, 4 } uselistorder i32 %117, { 5, 1, 2, 3, 0, 4 } uselistorder i32 %102, { 5, 1, 2, 3, 0, 4 } uselistorder i32 %98, { 1, 0 } uselistorder i32 %87, { 5, 1, 2, 3, 0, 4 } uselistorder i32 %83, { 1, 0 } uselistorder i32 %72, { 5, 1, 2, 3, 0, 4 } uselistorder i32 %65, { 1, 2, 3, 0 } uselistorder i32 %57, { 5, 1, 2, 3, 0, 4 } uselistorder i32 %50, { 1, 2, 3, 0 } uselistorder i32 %42, { 5, 1, 2, 3, 0, 4 } uselistorder i32 %38, { 1, 0 } uselistorder i32 %35, { 1, 2, 3, 0 } uselistorder i32 %27, { 5, 1, 2, 3, 0, 4 } uselistorder i32 %23, { 1, 0 } uselistorder i32 %20, { 2, 1, 0, 3 } uselistorder i32 %14, { 1, 0 } uselistorder i32 %11, { 2, 0, 1 } uselistorder i32 %8, { 5, 1, 2, 3, 0, 4 } uselistorder i64* %0, { 1, 0 } uselistorder i32 65536, { 4, 0, 5, 1, 6, 2, 7, 3 } uselistorder i32 2048, { 4, 5, 6, 7, 0, 1, 2, 3 } uselistorder i32 512, { 4, 5, 6, 7, 0, 1, 2, 3 } uselistorder i32 4194304, { 4, 5, 6, 7, 0, 1, 2, 3 } uselistorder i32 131072, { 4, 5, 6, 7, 0, 1, 2, 3 } uselistorder i32 4096, { 4, 5, 6, 7, 0, 1, 2, 3 } }
1
BinRealVul
pdf_new_5883
pdf_new
define i64 @FUNC(i8* %arg1) local_unnamed_addr { LBL_0: %.reg2mem = alloca i8* %sv_0 = alloca i8*, align 8 %0 = call i64 @FUNC(i64 8) %1 = icmp eq i8* %arg1, null br i1 %1, label LBL_5, label LBL_1 LBL_1: %2 = call i8* @strrchr(i8* nonnull %arg1, i32 47) store i8* %2, i8** %sv_0, align 8 %3 = icmp eq i8* %2, null br i1 %3, label LBL_3, label LBL_2 LBL_2: %4 = ptrtoint i8* %2 to i64 %5 = add i64 %4, 1 %6 = inttoptr i64 %5 to i8* store i8* %6, i8** %sv_0, align 8 store i8* %6, i8** %.reg2mem br label LBL_4 LBL_3: %7 = ptrtoint i8* %arg1 to i64 %8 = bitcast i8** %sv_0 to i64* store i64 %7, i64* %8, align 8 store i8* %arg1, i8** %.reg2mem br label LBL_4 LBL_4: %.reload = load i8*, i8** %.reg2mem %9 = call i32 @strlen(i8* %.reload) %10 = sext i32 %9 to i64 %11 = add nsw i64 %10, 1 %12 = call i64 @FUNC(i64 %11) %13 = inttoptr i64 %0 to i64* store i64 %12, i64* %13, align 8 %14 = load i8*, i8** %sv_0, align 8 %15 = inttoptr i64 %12 to i8* %16 = call i8* @strcpy(i8* %15, i8* %14) br label LBL_6 LBL_5: %17 = call i64 @FUNC(i64 8) %18 = inttoptr i64 %0 to i64* store i64 %17, i64* %18, align 8 %19 = inttoptr i64 %17 to i64* store i64 31093567915781717, i64* %19, align 8 br label LBL_6 LBL_6: ret i64 %0 uselistorder i64 %0, { 1, 2, 0 } uselistorder i8** %sv_0, { 3, 0, 2, 1 } uselistorder i8** %.reg2mem, { 0, 2, 1 } uselistorder i64 (i64)* @safe_calloc, { 2, 1, 0 } uselistorder i32 1, { 4, 0, 1, 2, 3 } }
0
BinRealVul
newDynamic_10589
newDynamic
define i64 @FUNC(i64 %arg1, i64 %arg2, i64 %arg3) local_unnamed_addr { LBL_0: %rax.0.reg2mem = alloca i64 %0 = call i64 @FUNC(i64 8) %1 = icmp eq i64 %0, 0 %2 = icmp eq i1 %1, false store i64 0, i64* %rax.0.reg2mem br i1 %2, label LBL_1, label LBL_4 LBL_1: %3 = and i64 %arg1, 4294967295 %4 = call i64 @FUNC(i64 %0, i64 %3, i64 %arg2) %5 = trunc i64 %4 to i32 %6 = icmp eq i32 %5, 0 %7 = icmp eq i1 %6, false br i1 %7, label LBL_3, label LBL_2 LBL_2: %8 = call i64 @FUNC(i64 %0) store i64 0, i64* %rax.0.reg2mem br label LBL_4 LBL_3: %9 = inttoptr i64 %0 to i32* store i32 0, i32* %9, align 4 %10 = trunc i64 %arg3 to i32 %11 = add i64 %0, 4 %12 = inttoptr i64 %11 to i32* store i32 %10, i32* %12, align 4 store i64 %0, i64* %rax.0.reg2mem br label LBL_4 LBL_4: %rax.0.reload = load i64, i64* %rax.0.reg2mem ret i64 %rax.0.reload uselistorder i64 %0, { 0, 1, 4, 2, 3, 5 } uselistorder i64* %rax.0.reg2mem, { 0, 3, 2, 1 } uselistorder label LBL_4, { 1, 2, 0 } }
0
BinRealVul
qemu_system_powerdown_14053
qemu_system_powerdown
define i64 @FUNC() local_unnamed_addr { LBL_0: %rax.0.reg2mem = alloca i64 %0 = load i32*, i32** @gv_0, align 8 %1 = load i32, i32* %0, align 4 %2 = urem i32 %1, 2 %3 = icmp eq i32 %2, 0 store i64 0, i64* %rax.0.reg2mem br i1 %3, label LBL_2, label LBL_1 LBL_1: %4 = ptrtoint i32* %0 to i64 %5 = add i64 %4, 4 %6 = inttoptr i64 %5 to i32* %7 = load i32, i32* %6, align 4 %8 = or i32 %7, 1 store i32 %8, i32* %6, align 4 %9 = load i32*, i32** @gv_0, align 8 %10 = ptrtoint i32* %9 to i64 %11 = call i64 @FUNC(i64 %10) store i64 %11, i64* %rax.0.reg2mem br label LBL_2 LBL_2: %rax.0.reload = load i64, i64* %rax.0.reg2mem ret i64 %rax.0.reload }
1
BinRealVul
uv__rwlock_fallback_destroy_13200
uv__rwlock_fallback_destroy
define i64 @FUNC(i64 %arg1) local_unnamed_addr { LBL_0: %0 = call i64 @FUNC(i64 %arg1) %1 = add i64 %arg1, 40 %2 = call i64 @FUNC(i64 %1) ret i64 %2 uselistorder i64 (i64)* @uv_mutex_destroy, { 1, 0 } }
1
BinRealVul
vqf_read_packet_14028
vqf_read_packet
define i64 @FUNC(i64* %arg1, i64* %arg2) local_unnamed_addr { LBL_0: %0 = alloca i64 %rax.0.reg2mem = alloca i64 %rdi = alloca i64, align 8 %1 = load i64, i64* %0 %2 = ptrtoint i64* %arg2 to i64 %3 = ptrtoint i64* %arg1 to i64 %4 = trunc i64 %1 to i32 %5 = add i64 %3, 4 %6 = inttoptr i64 %5 to i32* %7 = load i32, i32* %6, align 4 %8 = sub i32 %4, %7 %9 = add i32 %8, 7 %10 = ashr i32 %9, 3 %11 = add nsw i32 %10, 2 %12 = zext i32 %11 to i64 %13 = call i64 @FUNC(i64 %2, i64 %12) %14 = trunc i64 %13 to i32 %15 = icmp slt i32 %14, 0 %16 = icmp eq i1 %15, false store i64 4294967291, i64* %rax.0.reg2mem br i1 %16, label LBL_1, label LBL_4 LBL_1: %17 = add i64 %3, 8 %18 = inttoptr i64 %17 to i64* %19 = load i64, i64* %18, align 8 %20 = call i64 @FUNC(i64 %19) %21 = trunc i64 %20 to i32 %22 = bitcast i64* %arg2 to i32* store i32 %21, i32* %22, align 4 %23 = add i64 %2, 4 %24 = inttoptr i64 %23 to i32* store i32 0, i32* %24, align 4 %25 = add i64 %2, 8 %26 = inttoptr i64 %25 to i32* store i32 1, i32* %26, align 4 %27 = load i32, i32* %6, align 4 %28 = add i64 %2, 16 %29 = inttoptr i64 %28 to i64* %30 = load i64, i64* %29, align 8 %31 = trunc i32 %27 to i8 %32 = sub i8 8, %31 %33 = inttoptr i64 %30 to i8* store i8 %32, i8* %33, align 1 %34 = inttoptr i64 %17 to i32* %35 = load i32, i32* %34, align 4 %36 = load i64, i64* %29, align 8 %37 = add i64 %36, 1 %38 = trunc i32 %35 to i8 %39 = inttoptr i64 %37 to i8* store i8 %38, i8* %39, align 1 %40 = load i64, i64* %29, align 8 %41 = add i64 %40, 2 %42 = load i64, i64* %18, align 8 %43 = call i64 @FUNC(i64 %42, i64 %41, i32 %10) %44 = trunc i64 %43 to i32 %45 = icmp eq i32 %44, 0 %46 = icmp slt i32 %44, 0 %47 = icmp eq i1 %46, false %48 = icmp eq i1 %45, false %49 = icmp eq i1 %47, %48 br i1 %49, label LBL_3, label LBL_2 LBL_2: %50 = call i64 @FUNC(i64 %2) store i64 4294967291, i64* %rax.0.reg2mem br label LBL_4 LBL_3: %51 = bitcast i64* %rdi to i32* %52 = load i64, i64* %29, align 8 %narrow = add nsw i32 %10, 1 %53 = sext i32 %narrow to i64 %54 = add i64 %52, %53 %55 = inttoptr i64 %54 to i8* %56 = load i8, i8* %55, align 1 %57 = zext i8 %56 to i32 store i32 %57, i32* %34, align 4 %58 = and i32 %9, -8 %59 = load i32, i32* %51, align 8 %60 = sub i32 %58, %59 %61 = load i32, i32* %6, align 4 %62 = add i32 %60, %61 store i32 %62, i32* %6, align 4 store i64 %12, i64* %rax.0.reg2mem br label LBL_4 LBL_4: %rax.0.reload = load i64, i64* %rax.0.reg2mem ret i64 %rax.0.reload uselistorder i32 %44, { 1, 0 } uselistorder i32* %6, { 1, 0, 2, 3 } uselistorder i64* %rax.0.reg2mem, { 0, 3, 2, 1 } uselistorder i64 4294967291, { 1, 0 } uselistorder i1 false, { 1, 0, 2 } uselistorder label LBL_4, { 1, 2, 0 } }
1
BinRealVul
sctp_v6_addr_to_user_8403
sctp_v6_addr_to_user
define i64 @FUNC(i32* %arg1, i64* %arg2) local_unnamed_addr { LBL_0: %0 = alloca i64 %1 = load i64, i64* %0 %2 = load i64, i64* %0 %3 = ptrtoint i64* %arg2 to i64 %4 = trunc i64 %1 to i32 %5 = icmp eq i32 %4, 0 %6 = trunc i64 %2 to i16 br i1 %5, label LBL_3, label LBL_1 LBL_1: %7 = icmp eq i16 %6, 2 %8 = icmp eq i1 %7, false br i1 %8, label LBL_6, label LBL_2 LBL_2: %9 = call i64 @FUNC(i64 %3) br label LBL_6 LBL_3: %10 = icmp eq i16 %6, 10 %11 = icmp eq i1 %10, false br i1 %11, label LBL_6, label LBL_4 LBL_4: %12 = add i64 %3, 8 %13 = call i64 @FUNC(i64 %12) %14 = trunc i64 %13 to i32 %15 = icmp eq i32 %14, 0 br i1 %15, label LBL_6, label LBL_5 LBL_5: %16 = call i64 @FUNC(i64 %3) br label LBL_6 LBL_6: %17 = icmp eq i16 %6, 2 %18 = icmp eq i1 %17, false %. = select i1 %18, i64 28, i64 16 ret i64 %. uselistorder i64 %3, { 0, 2, 1 } uselistorder i64* %0, { 1, 0 } }
0
BinRealVul
pgx_validate_5418
pgx_validate
define i64 @FUNC(i64* %arg1) local_unnamed_addr { LBL_0: %0 = alloca i32 %rax.0.reg2mem = alloca i64 %storemerge.in.reg2mem = alloca i32 %1 = ptrtoint i64* %arg1 to i64 %2 = load i32, i32* %0 %sv_0 = alloca i32, align 4 %sv_1 = alloca i64, align 8 %3 = bitcast i32* %sv_0 to i64* %4 = call i64 @FUNC(i64 %1, i64* nonnull %3, i64 2) %5 = trunc i64 %4 to i32 %6 = icmp slt i32 %5, 0 %7 = icmp eq i1 %6, false store i64 4294967295, i64* %rax.0.reg2mem br i1 %7, label LBL_1, label LBL_6 LBL_1: %8 = ptrtoint i64* %sv_1 to i64 %9 = add i64 %8, -18 store i32 %5, i32* %storemerge.in.reg2mem br label LBL_3 LBL_2: %10 = sext i32 %storemerge to i64 %11 = add i64 %9, %10 %12 = inttoptr i64 %11 to i8* %13 = load i8, i8* %12, align 1 %14 = zext i8 %13 to i64 %15 = call i64 @FUNC(i64 %1, i64 %14) %16 = trunc i64 %15 to i32 %17 = icmp eq i32 %16, -1 %18 = icmp eq i1 %17, false store i32 %storemerge, i32* %storemerge.in.reg2mem store i64 4294967295, i64* %rax.0.reg2mem br i1 %18, label LBL_3, label LBL_6 LBL_3: %storemerge.in.reload = load i32, i32* %storemerge.in.reg2mem %storemerge = add i32 %storemerge.in.reload, -1 %19 = icmp slt i32 %storemerge, 0 %20 = icmp eq i1 %19, false br i1 %20, label LBL_2, label LBL_4 LBL_4: %21 = icmp sgt i32 %5, 1 store i64 4294967295, i64* %rax.0.reg2mem br i1 %21, label LBL_5, label LBL_6 LBL_5: %22 = load i32, i32* %sv_0, align 4 %23 = mul i32 %22, 256 %24 = and i32 %23, 65280 %25 = urem i32 %2, 256 %26 = or i32 %24, %25 %27 = icmp eq i32 %26, 20647 %. = select i1 %27, i64 0, i64 4294967295 store i64 %., i64* %rax.0.reg2mem br label LBL_6 LBL_6: %rax.0.reload = load i64, i64* %rax.0.reg2mem ret i64 %rax.0.reload uselistorder i32 %storemerge, { 2, 1, 0 } uselistorder i32 %5, { 1, 0, 2 } uselistorder i32* %storemerge.in.reg2mem, { 0, 2, 1 } uselistorder i64* %rax.0.reg2mem, { 0, 2, 3, 1, 4 } uselistorder i32 256, { 1, 0, 2 } uselistorder i64 4294967295, { 3, 1, 0, 2 } uselistorder label LBL_6, { 1, 2, 0, 3 } uselistorder label LBL_3, { 1, 0 } }
0
BinRealVul
qeth_hw_trap_10375
qeth_hw_trap
define i64 @FUNC(i64* %arg1, i64 %arg2) local_unnamed_addr { LBL_0: %0 = ptrtoint i64* %arg1 to i64 %1 = trunc i64 %arg2 to i32 %2 = call i64 @FUNC(i64 0, i64 2, i8* getelementptr inbounds ([9 x i8], [9 x i8]* @gv_0, i64 0, i64 0)) %3 = call i64 @FUNC(i64 %0, i64 1, i64 0) %4 = inttoptr i64 %3 to i64* %5 = load i64, i64* %4, align 8 %6 = add i64 %5, 8 %7 = inttoptr i64 %6 to i32* store i32 80, i32* %7, align 4 %8 = add i64 %5, 12 %9 = inttoptr i64 %8 to i32* store i32 2, i32* %9, align 4 %10 = add i64 %5, 16 %11 = inttoptr i64 %10 to i32* store i32 1, i32* %11, align 4 %12 = add i64 %5, 20 %13 = inttoptr i64 %12 to i32* store i32 %1, i32* %13, align 4 %14 = icmp ult i32 %1, 2 br i1 %14, label LBL_1, label LBL_4 LBL_1: switch i32 %1, label LBL_4 [ i32 0, label LBL_2 i32 1, label LBL_3 ] LBL_2: %15 = add i64 %5, 24 %16 = inttoptr i64 %15 to i32* store i32 3, i32* %16, align 4 %17 = add i64 %5, 28 %18 = inttoptr i64 %17 to i32* store i32 65536, i32* %18, align 4 %19 = add i64 %5, 32 %20 = call i64 @FUNC(i64 %0, i64 %19) br label LBL_4 LBL_3: %21 = add i64 %5, 24 %22 = inttoptr i64 %21 to i32* store i32 1, i32* %22, align 4 br label LBL_4 LBL_4: %23 = call i64 @FUNC(i64 %0, i64 %3, i64 4198811, i64 0) ret i64 %23 uselistorder i64 %5, { 3, 0, 1, 2, 4, 5, 6, 7 } uselistorder i32 %1, { 1, 0, 2 } uselistorder i64 %0, { 1, 0, 2 } uselistorder i64 24, { 1, 0 } uselistorder label LBL_4, { 2, 3, 1, 0 } }
0
BinRealVul
add_oid_18496
add_oid
define i64 @FUNC(i8* %arg1, i64 %arg2, i64 %arg3, i64 %arg4, i64 %arg5, i32* %arg6) local_unnamed_addr { LBL_0: %rax.0.reg2mem = alloca i64 %rcx.1.reg2mem = alloca i64 %sv_0.0.reg2mem = alloca i64 %rcx.0.reg2mem = alloca i64 %sv_1.0.reg2mem = alloca i64 %sv_2.0.reg2mem = alloca i32 %storemerge.reg2mem = alloca i32 %sv_3 = alloca i32, align 4 %0 = load i64, i64* @gv_0, align 8 %1 = icmp eq i64 %0, 0 %2 = icmp eq i1 %1, false br i1 %2, label LBL_4, label LBL_1 LBL_1: %3 = call i8* @getenv(i8* getelementptr inbounds ([21 x i8], [21 x i8]* @gv_1, i64 0, i64 0)) %4 = icmp eq i8* %3, null store i32 0, i32* %storemerge.reg2mem br i1 %4, label LBL_3, label LBL_2 LBL_2: %5 = call i32 @strtoul(i8* nonnull %3, i8** null, i32 10) store i32 %5, i32* %storemerge.reg2mem br label LBL_3 LBL_3: %storemerge.reload = load i32, i32* %storemerge.reg2mem store i32 %storemerge.reload, i32* bitcast (i64* @gv_2 to i32*), align 8 %6 = call i64 @FUNC(i64 1, i8* getelementptr inbounds ([9 x i8], [9 x i8]* @gv_3, i64 0, i64 0)) store i64 %6, i64* @gv_0, align 8 store i32 0, i32* %sv_3, align 4 %7 = call i64 @FUNC(i8* getelementptr inbounds ([6 x i8], [6 x i8]* @gv_4, i64 0, i64 0), i64 1, i32* nonnull %sv_3) store i32 1, i32* %sv_3, align 4 %8 = call i64 @FUNC(i8* getelementptr inbounds ([4 x i8], [4 x i8]* @gv_5, i64 0, i64 0), i64 1, i32* nonnull %sv_3) store i32 2, i32* %sv_3, align 4 %9 = call i64 @FUNC(i8* getelementptr inbounds ([16 x i8], [16 x i8]* @gv_6, i64 0, i64 0), i64 1, i32* nonnull %sv_3) br label LBL_4 LBL_4: %10 = ptrtoint i32* %arg6 to i64 %sext6 = mul i64 %arg5, 4294967296 %sext7 = add i64 %sext6, -4294967296 %11 = udiv i64 %sext7, 4294967296 %12 = trunc i64 %11 to i32 %13 = trunc i64 %arg2 to i32 store i32 0, i32* %sv_2.0.reg2mem store i64 ptrtoint (i64* @gv_7 to i64), i64* %sv_1.0.reg2mem store i64 %arg4, i64* %rcx.0.reg2mem br label LBL_5 LBL_5: %sv_1.0.reload = load i64, i64* %sv_1.0.reg2mem %sv_2.0.reload = load i32, i32* %sv_2.0.reg2mem %14 = zext i32 %sv_2.0.reload to i64 %15 = mul i64 %14, 4 %16 = add i64 %15, %10 %17 = inttoptr i64 %16 to i32* %18 = load i32, i32* %17, align 4 %19 = add i64 %sv_1.0.reload, 40 %20 = inttoptr i64 %19 to i64* %21 = load i64, i64* %20, align 8 %22 = zext i32 %18 to i64 %23 = call i64 @FUNC(i64 %21, i64 %22) %24 = icmp eq i64 %23, 0 br i1 %24, label LBL_12, label LBL_6 LBL_6: %rcx.0.reload = load i64, i64* %rcx.0.reg2mem %25 = icmp eq i32 %sv_2.0.reload, %12 %26 = icmp eq i1 %25, false store i64 %23, i64* %sv_0.0.reg2mem store i64 %rcx.0.reload, i64* %rcx.1.reg2mem br i1 %26, label LBL_15, label LBL_7 LBL_7: %27 = inttoptr i64 %23 to i64* %28 = load i64, i64* %27, align 8 %29 = icmp eq i64 %28, 0 %.pre = ptrtoint i8* %arg1 to i64 br i1 %29, label LBL_10, label LBL_8 LBL_8: %30 = call i64 @FUNC(i64 %28, i64 %.pre) %31 = trunc i64 %30 to i32 %32 = icmp eq i32 %31, 0 %33 = icmp eq i1 %32, false br i1 %33, label LBL_10, label LBL_9 LBL_9: %34 = call i64 @FUNC(i64 2, i64 %.pre, i64 %.pre, i64 %rcx.0.reload, i64 %arg5, i64 %10) br label LBL_10 LBL_10: %35 = call i64 @FUNC(i64 %.pre) store i64 %35, i64* %27, align 8 %36 = add i64 %23, 16 %37 = inttoptr i64 %36 to i64* %38 = load i64, i64* %37, align 8 %39 = icmp eq i64 %38, 0 %40 = icmp eq i1 %39, false store i64 %23, i64* %rax.0.reg2mem br i1 %40, label LBL_17, label LBL_11 LBL_11: store i64 %arg3, i64* %37, align 8 store i64 %23, i64* %rax.0.reg2mem br label LBL_17 LBL_12: %41 = call i64 @FUNC(i64 64) %42 = load i32, i32* %17, align 4 %43 = add i64 %41, 52 %44 = inttoptr i64 %43 to i32* store i32 %42, i32* %44, align 4 %45 = add i64 %41, 8 %46 = inttoptr i64 %45 to i32* store i32 %13, i32* %46, align 4 %47 = call i64 @FUNC(i64 1, i8* getelementptr inbounds ([13 x i8], [13 x i8]* @gv_8, i64 0, i64 0)) %48 = add i64 %41, 40 %49 = inttoptr i64 %48 to i64* store i64 %47, i64* %49, align 8 %50 = add i64 %41, 48 %51 = inttoptr i64 %50 to i32* store i32 -2, i32* %51, align 4 %52 = add i64 %41, 24 %53 = inttoptr i64 %52 to i64* store i64 %arg4, i64* %53, align 8 %54 = add i64 %41, 32 %55 = inttoptr i64 %54 to i64* store i64 %sv_1.0.reload, i64* %55, align 8 %56 = add i64 %41, 56 %57 = inttoptr i64 %56 to i64* store i64 0, i64* %57, align 8 %58 = load i32, i32* %44, align 4 %59 = zext i32 %58 to i64 %60 = load i64, i64* %20, align 8 %61 = call i64 @FUNC(i64 %60, i64 %59, i64 %41) %62 = icmp eq i32 %sv_2.0.reload, %12 %63 = icmp eq i1 %62, false br i1 %63, label LBL_14, label LBL_13 LBL_13: %64 = ptrtoint i8* %arg1 to i64 %65 = call i64 @FUNC(i64 %64) %66 = inttoptr i64 %41 to i64* store i64 %65, i64* %66, align 8 %67 = add i64 %41, 16 %68 = inttoptr i64 %67 to i64* store i64 %arg3, i64* %68, align 8 store i32 %13, i32* %46, align 4 store i64 %41, i64* %rax.0.reg2mem br label LBL_17 LBL_14: %69 = inttoptr i64 %41 to i64* store i64 0, i64* %69, align 8 %70 = add i64 %41, 16 %71 = inttoptr i64 %70 to i64* store i64 0, i64* %71, align 8 store i32 0, i32* %46, align 4 store i64 %41, i64* %sv_0.0.reg2mem store i64 %59, i64* %rcx.1.reg2mem br label LBL_15 LBL_15: %rcx.1.reload = load i64, i64* %rcx.1.reg2mem %sv_0.0.reload = load i64, i64* %sv_0.0.reg2mem %72 = add i32 %sv_2.0.reload, 1 %73 = icmp eq i32 %72, 0 %74 = icmp eq i1 %73, false store i32 %72, i32* %sv_2.0.reg2mem store i64 %sv_0.0.reload, i64* %sv_1.0.reg2mem store i64 %rcx.1.reload, i64* %rcx.0.reg2mem br i1 %74, label LBL_5, label LBL_16 LBL_16: %75 = call i64 @FUNC() store i64 0, i64* %rax.0.reg2mem br label LBL_17 LBL_17: %rax.0.reload = load i64, i64* %rax.0.reg2mem ret i64 %rax.0.reload uselistorder i32* %46, { 1, 0, 2 } uselistorder i64 %41, { 1, 4, 5, 0, 2, 3, 6, 7, 8, 9, 10, 11, 12, 13 } uselistorder i64 %.pre, { 0, 2, 3, 1 } uselistorder i64 %rcx.0.reload, { 1, 0 } uselistorder i64 %23, { 1, 0, 3, 4, 2, 5 } uselistorder i32 %sv_2.0.reload, { 2, 1, 3, 0 } uselistorder i64 %sv_1.0.reload, { 1, 0 } uselistorder i64 %10, { 1, 0 } uselistorder i32* %sv_3, { 0, 3, 1, 4, 2, 5 } uselistorder i32* %storemerge.reg2mem, { 0, 2, 1 } uselistorder i32* %sv_2.0.reg2mem, { 1, 0, 2 } uselistorder i64* %sv_1.0.reg2mem, { 1, 0, 2 } uselistorder i64* %rcx.0.reg2mem, { 1, 0, 2 } uselistorder i64* %sv_0.0.reg2mem, { 0, 2, 1 } uselistorder i64* %rcx.1.reg2mem, { 0, 2, 1 } uselistorder i64* %rax.0.reg2mem, { 0, 4, 3, 2, 1 } uselistorder i64 (i64)* @g_strdup, { 1, 0 } uselistorder i64 4294967296, { 1, 0 } uselistorder i64 (i8*, i64, i32*)* @oid_add, { 2, 1, 0 } uselistorder i64 (i64, i8*)* @pe_tree_create, { 1, 0 } uselistorder i32 0, { 4, 5, 6, 0, 3, 1, 7, 2 } uselistorder i64 %arg5, { 1, 0 } uselistorder i64 %arg4, { 1, 0 } uselistorder i64 %arg3, { 1, 0 } uselistorder i8* %arg1, { 1, 0 } uselistorder label LBL_17, { 2, 3, 1, 0 } uselistorder label LBL_10, { 1, 2, 0 } uselistorder label LBL_3, { 1, 0 } }
1
BinRealVul
usage_14185
usage
define i64 @FUNC(i64 %arg1) local_unnamed_addr { LBL_0: %0 = load %_IO_FILE*, %_IO_FILE** @gv_0, align 8 %1 = call i32 @fwrite(i64* bitcast ([68 x i8]* @gv_1 to i64*), i32 1, i32 67, %_IO_FILE* %0) %2 = load %_IO_FILE*, %_IO_FILE** @gv_0, align 8 %3 = call i32 @fwrite(i64* bitcast ([115 x i8]* @gv_2 to i64*), i32 1, i32 114, %_IO_FILE* %2) %4 = load %_IO_FILE*, %_IO_FILE** @gv_0, align 8 %5 = call i32 @fwrite(i64* bitcast ([26 x i8]* @gv_3 to i64*), i32 1, i32 25, %_IO_FILE* %4) %6 = and i64 %arg1, 4294967295 ret i64 %6 uselistorder i32 (i64*, i32, i32, %_IO_FILE*)* @fwrite, { 2, 1, 0 } uselistorder %_IO_FILE** @gv_0, { 2, 1, 0 } }
1
BinRealVul
inode_owner_or_capable_12186
inode_owner_or_capable
define i64 @FUNC(i32* %arg1) local_unnamed_addr { LBL_0: %0 = alloca i64 %rax.0.reg2mem = alloca i64 %1 = load i64, i64* %0 %2 = call i64 @FUNC() %3 = and i64 %1, 4294967295 %4 = and i64 %2, 4294967295 %5 = call i64 @FUNC(i64 %4, i64 %3) %6 = trunc i64 %5 to i8 %7 = icmp eq i8 %6, 0 store i64 1, i64* %rax.0.reg2mem br i1 %7, label LBL_1, label LBL_2 LBL_1: %8 = ptrtoint i32* %arg1 to i64 %9 = call i64 @FUNC(i64 %8, i64 1) %10 = trunc i64 %9 to i8 %11 = icmp ne i8 %10, 0 %. = zext i1 %11 to i64 store i64 %., i64* %rax.0.reg2mem br label LBL_2 LBL_2: %rax.0.reload = load i64, i64* %rax.0.reg2mem ret i64 %rax.0.reload uselistorder i64 1, { 1, 0 } uselistorder i64 4294967295, { 1, 0 } }
1
BinRealVul
caf_write_trailer_1262
caf_write_trailer
define i64 @FUNC(i64* %arg1) local_unnamed_addr { LBL_0: %0 = ptrtoint i64* %arg1 to i64 %1 = add i64 %0, 8 %2 = inttoptr i64 %1 to i64* %3 = load i64, i64* %2, align 8 %4 = add i64 %0, 40 %5 = inttoptr i64 %4 to i32* %6 = load i32, i32* %5, align 4 %7 = icmp eq i32 %6, 0 br i1 %7, label LBL_4, label LBL_1 LBL_1: %8 = add i64 %0, 16 %9 = inttoptr i64 %8 to i64* %10 = load i64, i64* %9, align 8 %11 = inttoptr i64 %10 to i64* %12 = load i64, i64* %11, align 8 %13 = inttoptr i64 %12 to i64* %14 = load i64, i64* %13, align 8 %15 = inttoptr i64 %14 to i32* %16 = call i64 @FUNC(i64 %0) %sext = mul i64 %16, 4294967296 %17 = ashr exact i64 %sext, 32 %18 = inttoptr i64 %3 to i64* %19 = load i64, i64* %18, align 8 %20 = call i64 @FUNC(i64 %0, i64 %19, i64 0) %21 = load i64, i64* %18, align 8 %22 = add nsw i64 %17, -8 %23 = sub i64 %22, %21 %24 = call i64 @FUNC(i64 %0, i64 %23) %25 = call i64 @FUNC(i64 %0, i64 %17, i64 0) %26 = load i32, i32* %15, align 4 %27 = icmp eq i32 %26, 0 %28 = icmp eq i1 %27, false br i1 %28, label LBL_3, label LBL_2 LBL_2: %29 = call i64 @FUNC(i64 %0, i8* getelementptr inbounds ([5 x i8], [5 x i8]* @gv_0, i64 0, i64 0)) %30 = add i64 %3, 8 %31 = inttoptr i64 %30 to i64* %32 = load i64, i64* %31, align 8 %33 = add i64 %32, 24 %34 = call i64 @FUNC(i64 %0, i64 %33) %35 = add i64 %3, 16 %36 = inttoptr i64 %35 to i64* %37 = load i64, i64* %36, align 8 %38 = call i64 @FUNC(i64 %0, i64 %37) %39 = load i64, i64* %36, align 8 %40 = add i64 %14, 8 %41 = inttoptr i64 %40 to i32* %42 = load i32, i32* %41, align 4 %43 = add i64 %14, 4 %44 = inttoptr i64 %43 to i32* %45 = load i32, i32* %44, align 4 %46 = zext i32 %42 to i64 %47 = zext i32 %45 to i64 %48 = call i64 @FUNC(i64 %47, i64 %46) %sext2 = mul i64 %48, 4294967296 %49 = ashr exact i64 %sext2, 32 %50 = mul i64 %49, %39 %51 = call i64 @FUNC(i64 %0, i64 %50) %52 = call i64 @FUNC(i64 %0, i64 0) %53 = call i64 @FUNC(i64 %0, i64 0) %54 = load i64, i64* %31, align 8 %55 = and i64 %54, 4294967295 %56 = add i64 %3, 24 %57 = inttoptr i64 %56 to i64* %58 = load i64, i64* %57, align 8 %59 = call i64 @FUNC(i64 %0, i64 %58, i64 %55) %60 = add i64 %3, 32 %61 = inttoptr i64 %60 to i32* store i32 0, i32* %61, align 4 br label LBL_3 LBL_3: %62 = call i64 @FUNC(i64 %0) br label LBL_4 LBL_4: %63 = add i64 %3, 24 %64 = call i64 @FUNC(i64 %63) ret i64 0 uselistorder i64 %17, { 1, 0 } uselistorder i64 %3, { 5, 0, 1, 2, 3, 4 } uselistorder i64 %0, { 7, 0, 3, 2, 1, 5, 4, 6, 8, 10, 9, 11, 13, 12, 14 } uselistorder i64 (i64, i64)* @avio_wb32, { 1, 0 } uselistorder i64 (i64, i64)* @avio_wb64, { 3, 2, 1, 0 } uselistorder i64 (i64, i64, i64)* @avio_seek, { 1, 0 } uselistorder i64 32, { 2, 0, 1 } }
0
BinRealVul
filter_frame_12142
filter_frame
define i64 @FUNC(i64* %arg1, i64* %arg2) local_unnamed_addr { LBL_0: %storemerge4.reg2mem = alloca i64 %rcx.0.lcssa.reg2mem = alloca i64 %indvars.iv.reg2mem = alloca i64 %sv_0.114.reg2mem = alloca i32 %storemerge515.reg2mem = alloca i32 %sv_0.0.lcssa.reg2mem = alloca i32 %sv_0.011.reg2mem = alloca i32 %sv_1.012.reg2mem = alloca i64 %storemerge613.reg2mem = alloca i32 %storemerge7.reg2mem = alloca i64 %rdi = alloca i64, align 8 %rsi = alloca i64, align 8 %0 = ptrtoint i64* %arg2 to i64 %1 = ptrtoint i64* %arg1 to i64 %sv_2 = alloca i64, align 8 %2 = ptrtoint i64* %sv_2 to i64 %3 = add i64 %1, 8 %4 = inttoptr i64 %3 to i64* %5 = load i64, i64* %4, align 8 %6 = add i64 %1, 20 %7 = inttoptr i64 %6 to i32* %8 = load i32, i32* %7, align 4 %9 = zext i32 %8 to i64 %10 = call i64 @FUNC(i64 %9) %11 = add i64 %10, 8 %12 = inttoptr i64 %11 to i32* %13 = load i32, i32* %12, align 4 %14 = add i64 %0, 48 %15 = add i64 %0, 4 %16 = inttoptr i64 %15 to i32* %17 = bitcast i64* %rsi to i32* %18 = bitcast i64* %rdi to i32* %19 = urem i32 %13, 32 %20 = shl i32 1, %19 %storemerge3 = zext i32 %20 to i64 %21 = add nuw nsw i64 %storemerge3, 4294967295 %22 = icmp eq i32 %19, 0 %23 = add i64 %2, -128 %24 = add i64 %0, 80 store i32 0, i32* %storemerge515.reg2mem store i32 0, i32* %sv_0.114.reg2mem br label LBL_9 LBL_1: %sv_0.114.reload = load i32, i32* %sv_0.114.reg2mem %25 = load i32, i32* %16, align 4 %26 = load i32, i32* %17, align 8 %27 = zext i32 %25 to i64 %28 = zext i32 %26 to i64 %29 = call i64 @FUNC(i64 %28, i64 %27, i32 %storemerge515.reload) %30 = load i64, i64* %69, align 8 %31 = icmp ne i32 %storemerge515.reload, 1 %32 = icmp eq i32 %storemerge515.reload, 2 %33 = icmp eq i1 %32, false %or.cond = icmp eq i1 %31, %33 %34 = load i32, i32* %18, align 8 %35 = zext i32 %34 to i64 store i64 %35, i64* %storemerge7.reg2mem br i1 %or.cond, label LBL_3, label LBL_2 LBL_2: store i64 %storemerge3, i64* %rsi, align 8 %36 = add nuw nsw i64 %21, %35 %37 = and i64 %36, 4294967295 %38 = trunc i64 %36 to i32 %39 = ashr i32 %38, %19 %40 = zext i32 %39 to i64 %rdx.0 = select i1 %22, i64 %37, i64 %40 store i64 %rdx.0, i64* %storemerge7.reg2mem br label LBL_3 LBL_3: %41 = trunc i64 %29 to i32 %42 = icmp slt i32 %41, 0 %43 = icmp eq i1 %42, false br i1 %43, label LBL_4, label LBL_6 LBL_4: %storemerge7.reload = load i64, i64* %storemerge7.reg2mem %44 = trunc i64 %storemerge7.reload to i32 %45 = icmp sgt i32 %44, 0 store i32 %sv_0.114.reload, i32* %sv_0.0.lcssa.reg2mem br i1 %45, label LBL_5, label LBL_8 LBL_5: %46 = and i64 %29, 4294967295 %47 = mul i64 %66, 4 %48 = add i64 %47, %23 %49 = inttoptr i64 %48 to i32* %50 = add i64 %24, %47 %51 = inttoptr i64 %50 to i32* store i32 0, i32* %storemerge613.reg2mem store i64 %30, i64* %sv_1.012.reg2mem store i32 %sv_0.114.reload, i32* %sv_0.011.reg2mem br label LBL_7 LBL_6: %sext = mul i64 %29, 4294967296 %52 = ashr exact i64 %sext, 32 store i64 %52, i64* %storemerge4.reg2mem br label LBL_14 LBL_7: %sv_0.011.reload = load i32, i32* %sv_0.011.reg2mem %sv_1.012.reload = load i64, i64* %sv_1.012.reg2mem %storemerge613.reload = load i32, i32* %storemerge613.reg2mem %53 = load i32, i32* %49, align 4 %54 = zext i32 %53 to i64 %55 = call i64 @FUNC(i64 %54, i64 %sv_1.012.reload, i64 %46) %56 = trunc i64 %55 to i32 store i32 %56, i32* %49, align 4 %57 = zext i32 %sv_0.011.reload to i64 %58 = call i64 @FUNC(i64 %57, i64 %sv_1.012.reload, i64 %46) %59 = trunc i64 %58 to i32 %60 = load i32, i32* %51, align 4 %61 = sext i32 %60 to i64 %62 = add i64 %sv_1.012.reload, %61 %63 = add nuw nsw i32 %storemerge613.reload, 1 %exitcond = icmp eq i32 %63, %44 store i32 %63, i32* %storemerge613.reg2mem store i64 %62, i64* %sv_1.012.reg2mem store i32 %59, i32* %sv_0.011.reg2mem store i32 %59, i32* %sv_0.0.lcssa.reg2mem br i1 %exitcond, label LBL_8, label LBL_7 LBL_8: %sv_0.0.lcssa.reload = load i32, i32* %sv_0.0.lcssa.reg2mem %64 = add nuw i32 %storemerge515.reload, 1 %65 = icmp ugt i32 %storemerge515.reload, 2 store i32 %64, i32* %storemerge515.reg2mem store i32 %sv_0.0.lcssa.reload, i32* %sv_0.114.reg2mem br i1 %65, label LBL_10, label LBL_9 LBL_9: %storemerge515.reload = load i32, i32* %storemerge515.reg2mem %66 = sext i32 %storemerge515.reload to i64 %67 = mul i64 %66, 8 %68 = add i64 %67, %14 %69 = inttoptr i64 %68 to i64* %70 = load i64, i64* %69, align 8 %71 = icmp eq i64 %70, 0 %72 = icmp eq i1 %71, false br i1 %72, label LBL_1, label LBL_10 LBL_10: %73 = add i64 %0, 40 %74 = inttoptr i64 %73 to i32* %75 = load i32, i32* %74, align 4 %76 = zext i32 %75 to i64 %77 = call i64 @FUNC(i64 %76) %78 = call i64 @FUNC(i64 %0) %79 = add i64 %1, 16 %80 = add i64 %0, 16 %81 = inttoptr i64 %80 to i64* %82 = load i64, i64* %81, align 8 %83 = call i64 @FUNC(i64 %82, i64 %79) %84 = load i64, i64* %81, align 8 %85 = call i64 @FUNC(i64 %84) %86 = add i64 %1, 4 %87 = inttoptr i64 %86 to i32* %88 = load i32, i32* %87, align 4 %89 = zext i32 %88 to i64 %90 = call i64 @FUNC(i64 %5, i64 32, i8* getelementptr inbounds ([115 x i8], [115 x i8]* @gv_0, i64 0, i64 0), i64 %89, i64 %85, i64 %83) %91 = add i64 %0, 56 %92 = inttoptr i64 %91 to i64* %93 = load i64, i64* %92, align 8 %94 = icmp eq i64 %93, 0 %95 = icmp eq i1 %94, false store i64 1, i64* %indvars.iv.reg2mem store i64 %89, i64* %rcx.0.lcssa.reg2mem br i1 %95, label LBL_11, label LBL_13 LBL_11: %indvars.iv.reload = load i64, i64* %indvars.iv.reg2mem %96 = mul i64 %indvars.iv.reload, 4 %97 = add i64 %96, %23 %98 = inttoptr i64 %97 to i32* %99 = load i32, i32* %98, align 4 %100 = zext i32 %99 to i64 %101 = call i64 @FUNC(i64 %5, i64 32, i8* getelementptr inbounds ([6 x i8], [6 x i8]* @gv_1, i64 0, i64 0), i64 %100, i64 %85, i64 %83) %102 = icmp ugt i64 %indvars.iv.reload, 2 store i64 %100, i64* %rcx.0.lcssa.reg2mem br i1 %102, label LBL_13, label LBL_12 LBL_12: %indvars.iv.next = add nuw nsw i64 %indvars.iv.reload, 1 %103 = mul i64 %indvars.iv.next, 8 %104 = add i64 %103, %14 %105 = inttoptr i64 %104 to i64* %106 = load i64, i64* %105, align 8 %107 = icmp eq i64 %106, 0 %108 = icmp eq i1 %107, false store i64 %indvars.iv.next, i64* %indvars.iv.reg2mem store i64 %100, i64* %rcx.0.lcssa.reg2mem br i1 %108, label LBL_11, label LBL_13 LBL_13: %rcx.0.lcssa.reload = load i64, i64* %rcx.0.lcssa.reg2mem %109 = call i64 @FUNC(i64 %5, i64 32, i8* getelementptr inbounds ([3 x i8], [3 x i8]* @gv_2, i64 0, i64 0), i64 %rcx.0.lcssa.reload, i64 %85, i64 %83) %110 = load i64, i64* %4, align 8 %111 = inttoptr i64 %110 to i32* %112 = load i32, i32* %111, align 4 %113 = zext i32 %112 to i64 %114 = call i64 @FUNC(i64 %113, i64 %0) store i64 %114, i64* %storemerge4.reg2mem br label LBL_14 LBL_14: %storemerge4.reload = load i64, i64* %storemerge4.reg2mem ret i64 %storemerge4.reload uselistorder i64 %100, { 1, 0, 2 } uselistorder i64 %85, { 1, 0, 2 } uselistorder i64 %83, { 1, 0, 2 } uselistorder i64* %69, { 1, 0 } uselistorder i32 %storemerge515.reload, { 4, 3, 2, 0, 1, 5 } uselistorder i64 %sv_1.012.reload, { 2, 0, 1 } uselistorder i64 %35, { 1, 0 } uselistorder i64 %storemerge3, { 1, 0 } uselistorder i32 %19, { 1, 2, 0 } uselistorder i64 %5, { 1, 0, 2 } uselistorder i64 %0, { 4, 0, 6, 5, 7, 1, 3, 2 } uselistorder i64* %storemerge7.reg2mem, { 0, 2, 1 } uselistorder i32* %storemerge613.reg2mem, { 1, 0, 2 } uselistorder i64* %sv_1.012.reg2mem, { 1, 0, 2 } uselistorder i32* %sv_0.011.reg2mem, { 1, 0, 2 } uselistorder i32* %sv_0.114.reg2mem, { 1, 0, 2 } uselistorder i64* %indvars.iv.reg2mem, { 2, 0, 1 } uselistorder i64* %rcx.0.lcssa.reg2mem, { 0, 2, 1, 3 } uselistorder i64 1, { 1, 0 } uselistorder i64 (i64, i64, i8*, i64, i64, i64)* @av_log, { 1, 2, 0 } uselistorder i64 (i64, i64, i64)* @av_adler32_update, { 1, 0 } uselistorder i64 32, { 1, 2, 3, 0 } uselistorder i1 false, { 2, 0, 4, 3, 1 } uselistorder i32 0, { 2, 3, 4, 0, 1, 5 } uselistorder i64 4294967295, { 1, 2, 0, 3, 4 } uselistorder i64 4, { 0, 2, 1, 3 } uselistorder label LBL_13, { 1, 0, 2 } uselistorder label LBL_11, { 1, 0 } uselistorder label LBL_9, { 1, 0 } uselistorder label LBL_3, { 1, 0 } }
1
BinRealVul
solo_set_motion_block_17404
solo_set_motion_block
define i64 @FUNC(i64* %arg1, i64 %arg2, i64* %arg3) local_unnamed_addr { LBL_0: %sv_0.03.reg2mem = alloca i32 %indvars.iv5.reg2mem = alloca i64 %indvars.iv.reg2mem = alloca i64 %0 = ptrtoint i64* %arg3 to i64 %1 = ptrtoint i64* %arg1 to i64 %sv_1 = alloca i64, align 8 %2 = ptrtoint i64* %sv_1 to i64 %3 = call i64 @FUNC(i64 128, i64 0) %4 = add i64 %2, -16 %5 = inttoptr i64 %4 to i64* store i64 0, i64* %indvars.iv5.reg2mem store i32 0, i32* %sv_0.03.reg2mem br label LBL_3 LBL_1: %indvars.iv.reload = load i64, i64* %indvars.iv.reg2mem %6 = add nuw nsw i64 %indvars.iv.reload, %21 %7 = mul i64 %6, 2 %8 = add i64 %7, %0 %9 = inttoptr i64 %8 to i16* %10 = load i16, i16* %9, align 2 %11 = mul i64 %indvars.iv.reload, 2 %12 = add i64 %11, %3 %13 = zext i16 %10 to i64 %14 = call i64 @FUNC(i64 %13) %15 = trunc i64 %14 to i16 %16 = inttoptr i64 %12 to i16* store i16 %15, i16* %16, align 2 %indvars.iv.next = add nuw nsw i64 %indvars.iv.reload, 1 %exitcond = icmp eq i64 %indvars.iv.next, 8 store i64 %indvars.iv.next, i64* %indvars.iv.reg2mem br i1 %exitcond, label LBL_2, label LBL_1 LBL_2: %17 = mul i64 %indvars.iv5.reload, 128 store i64 0, i64* %5, align 8 %18 = call i64 @FUNC(i64 %1, i64 1, i64 %3, i64 %17, i64 128, i64 0) %19 = trunc i64 %18 to i32 %20 = or i32 %sv_0.03.reload, %19 %indvars.iv.next6 = add nuw nsw i64 %indvars.iv5.reload, 1 %exitcond7 = icmp eq i64 %indvars.iv.next6, 8 store i64 %indvars.iv.next6, i64* %indvars.iv5.reg2mem store i32 %20, i32* %sv_0.03.reg2mem br i1 %exitcond7, label LBL_4, label LBL_3 LBL_3: %sv_0.03.reload = load i32, i32* %sv_0.03.reg2mem %indvars.iv5.reload = load i64, i64* %indvars.iv5.reg2mem %21 = mul i64 %indvars.iv5.reload, 8 store i64 0, i64* %indvars.iv.reg2mem br label LBL_1 LBL_4: %22 = call i64 @FUNC(i64 %3) %23 = zext i32 %20 to i64 ret i64 %23 uselistorder i64 %indvars.iv5.reload, { 2, 1, 0 } uselistorder i32 %20, { 1, 0 } uselistorder i64 %indvars.iv.reload, { 0, 2, 1 } uselistorder i64 %3, { 1, 2, 0 } uselistorder i64* %indvars.iv.reg2mem, { 2, 1, 0 } uselistorder i64 1, { 0, 2, 1 } uselistorder i64 128, { 1, 0, 2 } uselistorder label LBL_1, { 1, 0 } }
1
BinRealVul
ReadMNGImage_9464
ReadMNGImage
define i64 @FUNC(i64* %arg1, i32* %arg2) local_unnamed_addr { LBL_0: %0 = alloca i64 %rax.0.reg2mem = alloca i64 %rcx.1.reg2mem = alloca i64 %rcx.0.reg2mem = alloca i64 %rdi.1.reg2mem = alloca i64 %rdi.0.reg2mem = alloca i64 %1 = load i64, i64* %0 %2 = load i64, i64* %0 %3 = load i64, i64* %0 %4 = ptrtoint i64* %arg1 to i64 %5 = icmp eq i64* %arg1, null %6 = icmp eq i1 %5, false store i64 %4, i64* %rdi.0.reg2mem br i1 %6, label LBL_2, label LBL_1 LBL_1: call void @__assert_fail(i8* getelementptr inbounds ([39 x i8], [39 x i8]* @gv_0, i64 0, i64 0), i8* getelementptr inbounds ([46 x i8], [46 x i8]* @gv_1, i64 0, i64 0), i32 93, i8* getelementptr inbounds ([13 x i8], [13 x i8]* @gv_2, i64 0, i64 0)) store i64 ptrtoint ([39 x i8]* @gv_0 to i64), i64* %rdi.0.reg2mem br label LBL_2 LBL_2: %rdi.0.reload = load i64, i64* %rdi.0.reg2mem %7 = add i64 %4, 8 %8 = inttoptr i64 %7 to i32* %9 = load i32, i32* %8, align 4 %10 = icmp eq i32 %9, 305419896 store i64 %rdi.0.reload, i64* %rdi.1.reg2mem br i1 %10, label LBL_4, label LBL_3 LBL_3: call void @__assert_fail(i8* getelementptr inbounds ([45 x i8], [45 x i8]* @gv_3, i64 0, i64 0), i8* getelementptr inbounds ([46 x i8], [46 x i8]* @gv_1, i64 0, i64 0), i32 94, i8* getelementptr inbounds ([13 x i8], [13 x i8]* @gv_2, i64 0, i64 0)) store i64 ptrtoint ([45 x i8]* @gv_3 to i64), i64* %rdi.1.reg2mem br label LBL_4 LBL_4: %rdi.1.reload = load i64, i64* %rdi.1.reg2mem %11 = call i64 @FUNC() %12 = call i64 @FUNC(i64 1, i64 %11, i8* getelementptr inbounds ([3 x i8], [3 x i8]* @gv_4, i64 0, i64 0), i64 %rdi.1.reload, i64 %2, i64 %1) %13 = icmp eq i32* %arg2, null %14 = icmp eq i1 %13, false store i64 %rdi.1.reload, i64* %rcx.0.reg2mem br i1 %14, label LBL_6, label LBL_5 LBL_5: call void @__assert_fail(i8* getelementptr inbounds ([36 x i8], [36 x i8]* @gv_5, i64 0, i64 0), i8* getelementptr inbounds ([46 x i8], [46 x i8]* @gv_1, i64 0, i64 0), i32 96, i8* getelementptr inbounds ([13 x i8], [13 x i8]* @gv_2, i64 0, i64 0)) store i64 ptrtoint ([13 x i8]* @gv_2 to i64), i64* %rcx.0.reg2mem br label LBL_6 LBL_6: %15 = trunc i64 %3 to i32 %rcx.0.reload = load i64, i64* %rcx.0.reg2mem %16 = icmp eq i32 %15, 305419896 store i64 %rcx.0.reload, i64* %rcx.1.reg2mem br i1 %16, label LBL_8, label LBL_7 LBL_7: call void @__assert_fail(i8* getelementptr inbounds ([44 x i8], [44 x i8]* @gv_6, i64 0, i64 0), i8* getelementptr inbounds ([46 x i8], [46 x i8]* @gv_1, i64 0, i64 0), i32 97, i8* getelementptr inbounds ([13 x i8], [13 x i8]* @gv_2, i64 0, i64 0)) store i64 ptrtoint ([13 x i8]* @gv_2 to i64), i64* %rcx.1.reg2mem br label LBL_8 LBL_8: %rcx.1.reload = load i64, i64* %rcx.1.reg2mem %17 = call i64 @FUNC() %18 = call i64 @FUNC(i64 2, i64 %17, i8* getelementptr inbounds ([21 x i8], [21 x i8]* @gv_7, i64 0, i64 0), i64 %rcx.1.reload, i64 %2, i64 %1) %19 = call i64 @FUNC(i64 %4) %20 = ptrtoint i32* %arg2 to i64 %21 = call i64 @FUNC(i64 %4, i64 %19, i64 4, i64 %20) %22 = trunc i64 %21 to i32 %23 = icmp eq i32 %22, 0 %24 = icmp eq i1 %23, false store i64 0, i64* %rax.0.reg2mem br i1 %24, label LBL_9, label LBL_17 LBL_9: %25 = call i64 @FUNC(i64 8) %26 = icmp eq i64 %25, 0 %27 = icmp eq i1 %26, false br i1 %27, label LBL_11, label LBL_10 LBL_10: %28 = call i64 @FUNC(i64 3, i8* getelementptr inbounds ([23 x i8], [23 x i8]* @gv_8, i64 0, i64 0)) unreachable LBL_11: %29 = trunc i64 %18 to i32 %30 = inttoptr i64 %25 to i64* %31 = call i64* @memset(i64* %30, i32 0, i32 8) store i64 %19, i64* %30, align 8 %32 = call i64 @FUNC(i64 %25, i64 %4, i64 %20) %33 = call i64 @FUNC(i64 %25) %34 = icmp eq i64 %32, 0 %35 = icmp eq i1 %34, false br i1 %35, label LBL_14, label LBL_12 LBL_12: %36 = icmp eq i32 %29, 0 store i64 0, i64* %rax.0.reg2mem br i1 %36, label LBL_17, label LBL_13 LBL_13: %37 = call i64 @FUNC() %38 = call i64 @FUNC(i64 2, i64 %37, i8* getelementptr inbounds ([31 x i8], [31 x i8]* @gv_9, i64 0, i64 0), i64 %4, i64 %2, i64 %1) store i64 0, i64* %rax.0.reg2mem br label LBL_17 LBL_14: %39 = call i64 @FUNC(i64 %32) %40 = icmp eq i32 %29, 0 br i1 %40, label LBL_16, label LBL_15 LBL_15: %41 = call i64 @FUNC() %42 = call i64 @FUNC(i64 2, i64 %41, i8* getelementptr inbounds ([20 x i8], [20 x i8]* @gv_10, i64 0, i64 0), i64 %4, i64 %2, i64 %1) br label LBL_16 LBL_16: %43 = call i64 @FUNC(i64 %32) store i64 %43, i64* %rax.0.reg2mem br label LBL_17 LBL_17: %rax.0.reload = load i64, i64* %rax.0.reg2mem ret i64 %rax.0.reload uselistorder i32 %29, { 1, 0 } uselistorder i64 %25, { 1, 0, 2, 3 } uselistorder i64 %4, { 2, 1, 3, 5, 4, 6, 0 } uselistorder i64 %2, { 3, 2, 1, 0 } uselistorder i64 %1, { 3, 2, 1, 0 } uselistorder i64* %rax.0.reg2mem, { 0, 4, 2, 1, 3 } uselistorder i64* %0, { 2, 1, 0 } uselistorder i32 0, { 2, 3, 0, 4, 1 } uselistorder i64 (i64)* @AcquireImage, { 1, 0 } uselistorder i64 (i64, i64, i8*, i64, i64, i64)* @LogMagickEvent, { 3, 2, 1, 0 } uselistorder i64 1, { 2, 0, 1 } uselistorder i64 ()* @GetMagickModule, { 3, 2, 1, 0 } uselistorder [45 x i8]* @gv_3, { 1, 0 } uselistorder void (i8*, i8*, i32, i8*)* @__assert_fail, { 3, 2, 1, 0 } uselistorder [13 x i8]* @gv_2, { 1, 0 } uselistorder [39 x i8]* @gv_0, { 1, 0 } uselistorder label LBL_17, { 3, 1, 0, 2 } }
0
BinRealVul
ofpact_get_mf_dst_9369
ofpact_get_mf_dst
define i64 @FUNC(i32* %arg1) local_unnamed_addr { LBL_0: %0 = alloca i64 %rax.0.reg2mem = alloca i64 %1 = load i64, i64* %0 %2 = trunc i64 %1 to i32 %3 = icmp eq i32 %2, 1 %4 = icmp eq i1 %3, false br i1 %4, label LBL_2, label LBL_1 LBL_1: %5 = ptrtoint i32* %arg1 to i64 %6 = add i64 %5, 8 %7 = inttoptr i64 %6 to i64* %8 = load i64, i64* %7, align 8 store i64 %8, i64* %rax.0.reg2mem br label LBL_4 LBL_2: %9 = icmp eq i32 %2, 2 %10 = icmp eq i1 %9, false store i64 0, i64* %rax.0.reg2mem br i1 %10, label LBL_4, label LBL_3 LBL_3: %11 = ptrtoint i32* %arg1 to i64 %12 = add i64 %11, 8 %13 = inttoptr i64 %12 to i64* %14 = load i64, i64* %13, align 8 store i64 %14, i64* %rax.0.reg2mem br label LBL_4 LBL_4: %rax.0.reload = load i64, i64* %rax.0.reg2mem ret i64 %rax.0.reload uselistorder i32 %2, { 1, 0 } uselistorder i64* %rax.0.reg2mem, { 0, 3, 1, 2 } uselistorder i32* %arg1, { 1, 0 } uselistorder label LBL_4, { 1, 0, 2 } }
0
BinRealVul
mlock_vma_page_6117
mlock_vma_page
define i64 @FUNC(i32* %arg1) local_unnamed_addr { LBL_0: %0 = alloca i64 %1 = load i64, i64* %0 %2 = trunc i64 %1 to i32 %3 = icmp eq i32 %2, 0 %4 = icmp eq i1 %3, false br i1 %4, label LBL_2, label LBL_1 LBL_1: %5 = load %_IO_FILE*, %_IO_FILE** @gv_0, align 8 %6 = call i32 @fwrite(i64* bitcast ([18 x i8]* @gv_1 to i64*), i32 1, i32 17, %_IO_FILE* %5) call void @exit(i32 1) unreachable LBL_2: %7 = ptrtoint i32* %arg1 to i64 %8 = add i64 %7, 4 %9 = inttoptr i64 %8 to i32* store i32 1, i32* %9, align 4 ret i64 %7 }
0
BinRealVul
cmd_to_string_9231
cmd_to_string
define i64 @FUNC(i64 %arg1) local_unnamed_addr { LBL_0: %rax.0.reg2mem = alloca i64 %sext = mul i64 %arg1, 4294967296 %0 = ashr exact i64 %sext, 32 %1 = and i64 %0, 4294967295 store i64 %1, i64* @0, align 8 %trunc = trunc i64 %0 to i32 store i64 ptrtoint ([16 x i8]* @gv_0 to i64), i64* %rax.0.reg2mem switch i32 %trunc, label LBL_27 [ i32 1, label LBL_28 i32 2, label LBL_1 i32 3, label LBL_2 i32 4, label LBL_3 i32 5, label LBL_4 i32 6, label LBL_5 i32 7, label LBL_6 i32 8, label LBL_7 i32 9, label LBL_8 i32 10, label LBL_9 i32 11, label LBL_10 i32 12, label LBL_11 i32 13, label LBL_12 i32 14, label LBL_13 i32 15, label LBL_14 i32 16, label LBL_15 i32 17, label LBL_16 i32 18, label LBL_17 i32 19, label LBL_18 i32 20, label LBL_19 i32 21, label LBL_20 i32 22, label LBL_21 i32 23, label LBL_22 i32 24, label LBL_23 i32 25, label LBL_24 i32 26, label LBL_25 i32 27, label LBL_26 ] LBL_1: store i64 ptrtoint ([18 x i8]* @gv_1 to i64), i64* %rax.0.reg2mem br label LBL_28 LBL_2: store i64 ptrtoint ([9 x i8]* @gv_2 to i64), i64* %rax.0.reg2mem br label LBL_28 LBL_3: store i64 ptrtoint ([11 x i8]* @gv_3 to i64), i64* %rax.0.reg2mem br label LBL_28 LBL_4: store i64 ptrtoint ([14 x i8]* @gv_4 to i64), i64* %rax.0.reg2mem br label LBL_28 LBL_5: store i64 ptrtoint ([10 x i8]* @gv_5 to i64), i64* %rax.0.reg2mem br label LBL_28 LBL_6: store i64 ptrtoint ([10 x i8]* @gv_6 to i64), i64* %rax.0.reg2mem br label LBL_28 LBL_7: store i64 ptrtoint ([12 x i8]* @gv_7 to i64), i64* %rax.0.reg2mem br label LBL_28 LBL_8: store i64 ptrtoint ([12 x i8]* @gv_8 to i64), i64* %rax.0.reg2mem br label LBL_28 LBL_9: store i64 ptrtoint ([19 x i8]* @gv_9 to i64), i64* %rax.0.reg2mem br label LBL_28 LBL_10: store i64 ptrtoint ([23 x i8]* @gv_10 to i64), i64* %rax.0.reg2mem br label LBL_28 LBL_11: store i64 ptrtoint ([22 x i8]* @gv_11 to i64), i64* %rax.0.reg2mem br label LBL_28 LBL_12: store i64 ptrtoint ([24 x i8]* @gv_12 to i64), i64* %rax.0.reg2mem br label LBL_28 LBL_13: store i64 ptrtoint ([20 x i8]* @gv_13 to i64), i64* %rax.0.reg2mem br label LBL_28 LBL_14: store i64 ptrtoint ([23 x i8]* @gv_14 to i64), i64* %rax.0.reg2mem br label LBL_28 LBL_15: store i64 ptrtoint ([13 x i8]* @gv_15 to i64), i64* %rax.0.reg2mem br label LBL_28 LBL_16: store i64 ptrtoint ([18 x i8]* @gv_16 to i64), i64* %rax.0.reg2mem br label LBL_28 LBL_17: store i64 ptrtoint ([8 x i8]* @gv_17 to i64), i64* %rax.0.reg2mem br label LBL_28 LBL_18: store i64 ptrtoint ([8 x i8]* @gv_18 to i64), i64* %rax.0.reg2mem br label LBL_28 LBL_19: store i64 ptrtoint ([22 x i8]* @gv_19 to i64), i64* %rax.0.reg2mem br label LBL_28 LBL_20: store i64 ptrtoint ([19 x i8]* @gv_20 to i64), i64* %rax.0.reg2mem br label LBL_28 LBL_21: store i64 ptrtoint ([17 x i8]* @gv_21 to i64), i64* %rax.0.reg2mem br label LBL_28 LBL_22: store i64 ptrtoint ([14 x i8]* @gv_22 to i64), i64* %rax.0.reg2mem br label LBL_28 LBL_23: store i64 ptrtoint ([10 x i8]* @gv_23 to i64), i64* %rax.0.reg2mem br label LBL_28 LBL_24: store i64 ptrtoint ([14 x i8]* @gv_24 to i64), i64* %rax.0.reg2mem br label LBL_28 LBL_25: store i64 ptrtoint ([9 x i8]* @gv_25 to i64), i64* %rax.0.reg2mem br label LBL_28 LBL_26: store i64 ptrtoint ([18 x i8]* @gv_26 to i64), i64* %rax.0.reg2mem br label LBL_28 LBL_27: store i64 ptrtoint (i64* @gv_27 to i64), i64* %rax.0.reg2mem br label LBL_28 LBL_28: %rax.0.reload = load i64, i64* %rax.0.reg2mem ret i64 %rax.0.reload uselistorder i64 %0, { 1, 0 } uselistorder i64* %rax.0.reg2mem, { 0, 28, 27, 26, 25, 24, 23, 22, 21, 20, 19, 18, 17, 16, 15, 14, 13, 12, 11, 10, 9, 8, 7, 6, 5, 4, 3, 2, 1 } uselistorder i32 1, { 1, 0 } uselistorder label LBL_28, { 27, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15, 16, 17, 18, 19, 20, 21, 22, 23, 24, 25, 26, 0 } }
0
BinRealVul
mon_get_cpu_16083
mon_get_cpu
define i64 @FUNC() local_unnamed_addr { LBL_0: %.reg2mem = alloca i64 %0 = load i64, i64* @gv_0, align 8 %1 = inttoptr i64 %0 to i64* %2 = load i64, i64* %1, align 8 %3 = icmp eq i64 %2, 0 %4 = icmp eq i1 %3, false store i64 %2, i64* %.reg2mem br i1 %4, label LBL_2, label LBL_1 LBL_1: %5 = call i64 @FUNC(i64 0) %.pre = load i64, i64* @gv_0, align 8 %.phi.trans.insert = inttoptr i64 %.pre to i64* %.pre1 = load i64, i64* %.phi.trans.insert, align 8 store i64 %.pre1, i64* %.reg2mem br label LBL_2 LBL_2: %.reload = load i64, i64* %.reg2mem %6 = call i64 @FUNC(i64 %.reload) %7 = load i64, i64* @gv_0, align 8 %8 = inttoptr i64 %7 to i64* %9 = load i64, i64* %8, align 8 ret i64 %9 uselistorder i64* %.reg2mem, { 0, 2, 1 } uselistorder i32 1, { 1, 0 } }
1
BinRealVul
collect_cpu_info_early_8651
collect_cpu_info_early
define i64 @FUNC(i64* %arg1) local_unnamed_addr { LBL_0: %0 = alloca i32 %1 = load i32, i32* %0 %2 = load i32, i32* %0 %sv_0 = alloca i64, align 8 %sv_1 = alloca i64, align 8 %sv_2 = alloca i32, align 4 %sv_3 = alloca i32, align 4 %3 = call i64* @memset(i64* %arg1, i32 0, i32 16) store i32 1, i32* %sv_3, align 4 store i32 0, i32* %sv_2, align 4 %4 = call i64 @FUNC(i32* nonnull %sv_3, i64* nonnull %sv_0, i32* nonnull %sv_2, i64* nonnull %sv_1) %5 = load i32, i32* %sv_3, align 4 %6 = zext i32 %5 to i64 %7 = call i64 @FUNC(i64 %6) %8 = trunc i64 %7 to i8 %9 = call i64 @FUNC(i64 %6) %10 = trunc i64 %9 to i8 %11 = icmp ult i8 %10, 5 %12 = icmp ult i8 %8, 7 %or.cond = icmp eq i1 %12, %11 %.pre = zext i32 %2 to i64 %.pre2 = zext i32 %1 to i64 br i1 %or.cond, label LBL_2, label LBL_1 LBL_1: %13 = call i64 @FUNC(i64 23, i64 %.pre2, i64 %.pre) br label LBL_2 LBL_2: %14 = ptrtoint i64* %arg1 to i64 %15 = call i64 @FUNC(i64 139, i64 0, i64 0) %16 = call i64 @FUNC() %17 = call i64 @FUNC(i64 139, i64 %.pre2, i64 %.pre) %18 = sext i32 %5 to i64 store i64 %18, i64* %arg1, align 8 %19 = add i64 %14, 8 %20 = inttoptr i64 %19 to i32* %21 = add i64 %14, 12 %22 = inttoptr i64 %21 to i32* store i32 1, i32* %22, align 4 ret i64 0 uselistorder i32* %sv_3, { 1, 0, 2 } uselistorder i32* %0, { 1, 0 } uselistorder i64 (i64, i64, i64)* @native_rdmsr, { 1, 0 } uselistorder i32 0, { 1, 0, 2, 3, 4, 5, 6 } uselistorder i64* %arg1, { 0, 2, 1 } uselistorder label LBL_2, { 1, 0 } }
0
BinRealVul
apply_mid_side_stereo_3541
apply_mid_side_stereo
define i64 @FUNC(i64* %arg1) local_unnamed_addr { LBL_0: %rax.0.reg2mem = alloca i64 %storemerge14.reg2mem = alloca i32 %.reg2mem65 = alloca i64 %.reg2mem63 = alloca i64 %.reg2mem61 = alloca i64 %.reg2mem59 = alloca i32 %.lcssa5.reg2mem = alloca i32 %.reg2mem57 = alloca i64 %.reg2mem55 = alloca i64 %.reg2mem53 = alloca i32 %.reg2mem51 = alloca i32 %.reg2mem49 = alloca i32 %.reg2mem47 = alloca i64 %.pre2125.reg2mem = alloca i32 %.pn.reg2mem = alloca i32 %.reg2mem45 = alloca i32 %.pre2127.reg2mem = alloca i32 %storemerge47.reg2mem = alloca i32 %sv_0.08.reg2mem = alloca i32 %storemerge211.reg2mem = alloca i32 %.reg2mem43 = alloca i64 %.reg2mem41 = alloca i32 %.pre2126.reg2mem = alloca i32 %storemerge112.reg2mem = alloca i32 %.reg2mem39 = alloca i32 %.reg2mem37 = alloca i32 %.reg2mem = alloca i64 %.pre2124.reg2mem = alloca i32 %0 = ptrtoint i64* %arg1 to i64 %1 = add i64 %0, 96 %2 = inttoptr i64 %1 to i32* %3 = load i32, i32* %2, align 4 %4 = icmp eq i32 %3, 0 store i64 0, i64* %rax.0.reg2mem br i1 %4, label LBL_18, label LBL_1 LBL_1: %5 = add i64 %0, 32 %6 = inttoptr i64 %5 to i32* %7 = load i32, i32* %6, align 4 %8 = icmp eq i32 %7, 0 store i64 0, i64* %rax.0.reg2mem br i1 %8, label LBL_18, label LBL_2 LBL_2: %9 = add i64 %0, 8 %10 = add i64 %0, 24 %11 = inttoptr i64 %10 to i64* %12 = add i64 %0, 16 %13 = inttoptr i64 %12 to i32* %14 = add i64 %0, 80 %15 = inttoptr i64 %14 to i64* %16 = add i64 %0, 88 %17 = inttoptr i64 %16 to i64* %18 = inttoptr i64 %9 to i64* %19 = add i64 %0, 40 %20 = inttoptr i64 %19 to i64* %.pre = load i64, i64* %11, align 8 store i32 %7, i32* %.reg2mem59 store i64 %.pre, i64* %.reg2mem61 store i64 %.pre, i64* %.reg2mem63 store i64 0, i64* %.reg2mem65 store i32 0, i32* %storemerge14.reg2mem br label LBL_16 LBL_3: %storemerge112.reload = load i32, i32* %storemerge112.reg2mem %.reload40 = load i32, i32* %.reg2mem39 %.reload38 = load i32, i32* %.reg2mem37 %.reload = load i64, i64* %.reg2mem %.pre2124.reload = load i32, i32* %.pre2124.reg2mem %21 = icmp eq i32 %.reload40, 0 store i32 %.pre2124.reload, i32* %.pre2125.reg2mem store i64 %.reload, i64* %.reg2mem47 store i32 %.reload38, i32* %.reg2mem49 store i32 0, i32* %.reg2mem51 br i1 %21, label LBL_13, label LBL_4 LBL_4: %22 = add i32 %storemerge112.reload, %storemerge14.reload %23 = mul i32 %22, 128 store i32 %.pre2124.reload, i32* %.pre2126.reg2mem store i32 %.reload38, i32* %.reg2mem41 store i64 0, i64* %.reg2mem43 store i32 0, i32* %storemerge211.reg2mem store i32 %23, i32* %sv_0.08.reg2mem br label LBL_5 LBL_5: %sv_0.08.reload = load i32, i32* %sv_0.08.reg2mem %storemerge211.reload = load i32, i32* %storemerge211.reg2mem %.reload44 = load i64, i64* %.reg2mem43 %.pre2126.reload = load i32, i32* %.pre2126.reg2mem %24 = load i64, i64* %15, align 8 %25 = add i32 %storemerge211.reload, %114 %26 = sext i32 %25 to i64 %27 = mul i64 %26, 4 %28 = add i64 %27, %24 %29 = inttoptr i64 %28 to i32* %30 = load i32, i32* %29, align 4 %31 = icmp eq i32 %30, 0 %32 = icmp eq i1 %31, false br i1 %32, label LBL_8, label LBL_6 LBL_6: %33 = load i64, i64* %17, align 8 %34 = add i64 %33, %27 %35 = inttoptr i64 %34 to i32* %36 = load i32, i32* %35, align 4 %37 = icmp eq i32 %36, 0 %38 = icmp eq i1 %37, false br i1 %38, label LBL_8, label LBL_7 LBL_7: %.reload42 = load i32, i32* %.reg2mem41 %39 = load i64, i64* %18, align 8 %40 = mul i64 %.reload44, 4 %41 = add i64 %39, %40 %42 = inttoptr i64 %41 to i32* %43 = load i32, i32* %42, align 4 store i32 %.pre2126.reload, i32* %.pre2127.reg2mem store i32 %.reload42, i32* %.reg2mem45 store i32 %43, i32* %.pn.reg2mem br label LBL_11 LBL_8: %44 = load i64, i64* %18, align 8 %45 = mul i64 %.reload44, 4 %46 = add i64 %44, %45 %47 = inttoptr i64 %46 to i32* %48 = load i32, i32* %47, align 4 %49 = icmp eq i32 %48, 0 store i32 0, i32* %storemerge47.reg2mem store i32 %.pre2126.reload, i32* %.pre2127.reg2mem store i32 %.pre2126.reload, i32* %.reg2mem45 store i32 0, i32* %.pn.reg2mem br i1 %49, label LBL_11, label LBL_9 LBL_9: %storemerge47.reload = load i32, i32* %storemerge47.reg2mem %50 = add i32 %storemerge47.reload, %sv_0.08.reload %51 = sext i32 %50 to i64 %52 = mul i64 %51, 4 %53 = add i64 %52, %0 %54 = inttoptr i64 %53 to i32* %55 = load i32, i32* %54, align 4 %56 = call i128 @FUNC(i32 %55) %57 = load i64, i64* %20, align 8 %58 = add i64 %57, %52 %59 = inttoptr i64 %58 to i32* %60 = load i32, i32* %59, align 4 %61 = call i128 @FUNC(i32 %60) %62 = call i128 @FUNC(i128 %56, i128 %61) %63 = load i32, i32* inttoptr (i64 4202512 to i32*), align 16 %64 = call i128 @FUNC(i32 %63) %65 = call i128 @FUNC(i128 %64, i128 %62) %66 = call i64 @__asm_movss.1(i128 %65) %67 = trunc i64 %66 to i32 %68 = load i64, i64* %20, align 8 %69 = add i64 %68, %52 %70 = inttoptr i64 %69 to i32* %71 = load i32, i32* %70, align 4 %72 = call i128 @FUNC(i32 %71) %73 = call i128 @FUNC(i32 %67) %74 = call i128 @FUNC(i128 %73, i128 %72) %75 = call i64 @__asm_movss.1(i128 %74) %76 = trunc i64 %75 to i32 %77 = call i128 @FUNC(i32 %67) %78 = call i64 @__asm_movss.1(i128 %77) %79 = trunc i64 %78 to i32 store i32 %79, i32* %54, align 4 %80 = load i64, i64* %20, align 8 %81 = add i64 %80, %52 %82 = call i128 @FUNC(i32 %76) %83 = call i64 @__asm_movss.1(i128 %82) %84 = trunc i64 %83 to i32 %85 = inttoptr i64 %81 to i32* store i32 %84, i32* %85, align 4 %86 = add i32 %storemerge47.reload, 1 %87 = load i64, i64* %18, align 8 %88 = add i64 %87, %45 %89 = inttoptr i64 %88 to i32* %90 = load i32, i32* %89, align 4 %91 = zext i32 %90 to i64 %92 = sext i32 %86 to i64 %93 = icmp slt i64 %92, %91 store i32 %86, i32* %storemerge47.reg2mem br i1 %93, label LBL_9, label LBL_10 LBL_10: %.pre21.pre = load i32, i32* %13, align 4 store i32 %.pre21.pre, i32* %.pre2127.reg2mem store i32 %.pre21.pre, i32* %.reg2mem45 store i32 %90, i32* %.pn.reg2mem br label LBL_11 LBL_11: %.pn.reload = load i32, i32* %.pn.reg2mem %.reload46 = load i32, i32* %.reg2mem45 %.pre2127.reload = load i32, i32* %.pre2127.reg2mem %storemerge3 = add i32 %.pn.reload, %sv_0.08.reload %94 = add i32 %storemerge211.reload, 1 %95 = zext i32 %.reload46 to i64 %96 = sext i32 %94 to i64 %97 = icmp slt i64 %96, %95 store i32 %.pre2127.reload, i32* %.pre2126.reg2mem store i32 %.reload46, i32* %.reg2mem41 store i64 %96, i64* %.reg2mem43 store i32 %94, i32* %storemerge211.reg2mem store i32 %storemerge3, i32* %sv_0.08.reg2mem br i1 %97, label LBL_5, label LBL_12 LBL_12: %.pre22 = load i64, i64* %11, align 8 store i32 %.pre2127.reload, i32* %.pre2125.reg2mem store i64 %.pre22, i64* %.reg2mem47 store i32 %.reload46, i32* %.reg2mem49 store i32 %.reload46, i32* %.reg2mem51 br label LBL_13 LBL_13: %.reload52 = load i32, i32* %.reg2mem51 %.reload50 = load i32, i32* %.reg2mem49 %.reload48 = load i64, i64* %.reg2mem47 %.pre2125.reload = load i32, i32* %.pre2125.reg2mem %98 = add i32 %storemerge112.reload, 1 %99 = add i64 %.reload48, %109 %100 = inttoptr i64 %99 to i32* %101 = load i32, i32* %100, align 4 %102 = zext i32 %101 to i64 %103 = sext i32 %98 to i64 %104 = icmp slt i64 %103, %102 store i32 %.pre2125.reload, i32* %.pre2124.reg2mem store i64 %.reload48, i64* %.reg2mem store i32 %.reload50, i32* %.reg2mem37 store i32 %.reload52, i32* %.reg2mem39 store i32 %98, i32* %storemerge112.reg2mem br i1 %104, label LBL_3, label LBL_14 LBL_14: %.pre23 = load i32, i32* %6, align 4 store i32 %.pre23, i32* %.reg2mem53 store i64 %.reload48, i64* %.reg2mem55 store i64 %.reload48, i64* %.reg2mem57 store i32 %101, i32* %.lcssa5.reg2mem br label LBL_15 LBL_15: %.lcssa5.reload = load i32, i32* %.lcssa5.reg2mem %.reload58 = load i64, i64* %.reg2mem57 %.reload56 = load i64, i64* %.reg2mem55 %.reload54 = load i32, i32* %.reg2mem53 %105 = add i32 %.lcssa5.reload, %storemerge14.reload %106 = zext i32 %.reload54 to i64 %107 = sext i32 %105 to i64 %108 = icmp slt i64 %107, %106 store i32 %.reload54, i32* %.reg2mem59 store i64 %.reload56, i64* %.reg2mem61 store i64 %.reload58, i64* %.reg2mem63 store i64 %107, i64* %.reg2mem65 store i32 %105, i32* %storemerge14.reg2mem store i64 %106, i64* %rax.0.reg2mem br i1 %108, label LBL_16, label LBL_18 LBL_16: %storemerge14.reload = load i32, i32* %storemerge14.reg2mem %.reload66 = load i64, i64* %.reg2mem65 %.reload64 = load i64, i64* %.reg2mem63 %.reload62 = load i64, i64* %.reg2mem61 %.reload60 = load i32, i32* %.reg2mem59 %109 = mul i64 %.reload66, 4 %110 = add i64 %109, %.reload64 %111 = inttoptr i64 %110 to i32* %112 = load i32, i32* %111, align 4 %113 = icmp eq i32 %112, 0 store i32 %.reload60, i32* %.reg2mem53 store i64 %.reload62, i64* %.reg2mem55 store i64 %.reload64, i64* %.reg2mem57 store i32 0, i32* %.lcssa5.reg2mem br i1 %113, label LBL_15, label LBL_3.lr.ph LBL_17: %114 = mul i32 %storemerge14.reload, 16 %.pre20 = load i32, i32* %13, align 4 store i32 %.pre20, i32* %.pre2124.reg2mem store i64 %.reload62, i64* %.reg2mem store i32 %.pre20, i32* %.reg2mem37 store i32 %.pre20, i32* %.reg2mem39 store i32 0, i32* %storemerge112.reg2mem br label LBL_3 LBL_18: %rax.0.reload = load i64, i64* %rax.0.reg2mem ret i64 %rax.0.reload uselistorder i64 %.reload64, { 1, 0 } uselistorder i32 %storemerge14.reload, { 2, 0, 1 } uselistorder i64 %.reload48, { 0, 1, 3, 2 } uselistorder i32 %.reload46, { 0, 1, 3, 2 } uselistorder i32 %67, { 1, 0 } uselistorder i64 %52, { 3, 2, 0, 1 } uselistorder i64 %45, { 1, 0 } uselistorder i64 %27, { 1, 0 } uselistorder i64 %.reload44, { 1, 0 } uselistorder i32 %sv_0.08.reload, { 1, 0 } uselistorder i32 %.pre2124.reload, { 1, 0 } uselistorder i32 %.reload38, { 1, 0 } uselistorder i32* %13, { 1, 0 } uselistorder i64 %0, { 0, 4, 6, 5, 1, 2, 8, 3, 7 } uselistorder i32* %.pre2124.reg2mem, { 2, 1, 0 } uselistorder i64* %.reg2mem, { 2, 1, 0 } uselistorder i32* %.reg2mem37, { 2, 1, 0 } uselistorder i32* %.reg2mem39, { 2, 1, 0 } uselistorder i32* %storemerge112.reg2mem, { 2, 1, 0 } uselistorder i32* %.pre2126.reg2mem, { 1, 0, 2 } uselistorder i32* %.reg2mem41, { 1, 0, 2 } uselistorder i64* %.reg2mem43, { 1, 0, 2 } uselistorder i32* %storemerge211.reg2mem, { 1, 0, 2 } uselistorder i32* %sv_0.08.reg2mem, { 1, 0, 2 } uselistorder i32* %storemerge47.reg2mem, { 2, 0, 1 } uselistorder i32* %.pre2127.reg2mem, { 0, 2, 1, 3 } uselistorder i32* %.reg2mem45, { 0, 2, 1, 3 } uselistorder i32* %.pn.reg2mem, { 0, 2, 1, 3 } uselistorder i32* %.reg2mem53, { 1, 0, 2 } uselistorder i64* %.reg2mem55, { 1, 0, 2 } uselistorder i64* %.reg2mem57, { 1, 0, 2 } uselistorder i32* %.lcssa5.reg2mem, { 1, 0, 2 } uselistorder i32 0, { 6, 1, 9, 3, 4, 7, 11, 12, 5, 2, 8, 0, 10, 13 } uselistorder label LBL_16, { 1, 0 } uselistorder label LBL_13, { 1, 0 } uselistorder label LBL_9, { 1, 0 } uselistorder label LBL_5, { 1, 0 } }
0
BinRealVul
piix4_ide_class_init_17046
piix4_ide_class_init
define i64 @FUNC(i32* %arg1, i64 %arg2) local_unnamed_addr { LBL_0: %0 = ptrtoint i32* %arg1 to i64 store i32 1, i32* %arg1, align 4 %1 = add i64 %0, 8 %2 = inttoptr i64 %1 to i64* store i64 4198662, i64* %2, align 8 %3 = add i64 %0, 16 %4 = inttoptr i64 %3 to i64* store i64 4198669, i64* %4, align 8 %5 = add i64 %0, 24 %6 = inttoptr i64 %5 to i16* store i16 -32634, i16* %6, align 2 %7 = add i64 %0, 26 %8 = inttoptr i64 %7 to i16* store i16 28945, i16* %8, align 2 %9 = add i64 %0, 28 %10 = inttoptr i64 %9 to i16* store i16 257, i16* %10, align 2 %11 = add i64 %0, 4 %12 = call i64 @FUNC(i64 0, i64 %11) store i32 1, i32* %arg1, align 4 ret i64 %0 }
1
BinRealVul
ff_vp9dsp_init_15847
ff_vp9dsp_init
define i64 @FUNC(i64* %arg1, i64 %arg2, i64 %arg3) local_unnamed_addr { LBL_0: %0 = ptrtoint i64* %arg1 to i64 %1 = trunc i64 %arg2 to i32 %sext = mul i64 %arg2, 4294967296 %2 = ashr exact i64 %sext, 32 %3 = icmp eq i32 %1, 8 %4 = icmp eq i1 %3, false br i1 %4, label LBL_2, label LBL_1 LBL_1: %5 = call i64 @FUNC(i64 %0) br label LBL_7 LBL_2: %6 = trunc i64 %2 to i32 %7 = icmp eq i32 %6, 10 %8 = icmp eq i1 %7, false br i1 %8, label LBL_4, label LBL_3 LBL_3: %9 = call i64 @FUNC(i64 %0) br label LBL_7 LBL_4: %10 = icmp eq i32 %6, 12 br i1 %10, label LBL_6, label LBL_5 LBL_5: call void @__assert_fail(i8* getelementptr inbounds ([10 x i8], [10 x i8]* @gv_0, i64 0, i64 0), i8* getelementptr inbounds ([48 x i8], [48 x i8]* @gv_1, i64 0, i64 0), i32 41, i8* getelementptr inbounds ([15 x i8], [15 x i8]* @gv_2, i64 0, i64 0)) br label LBL_6 LBL_6: %11 = call i64 @FUNC(i64 %0) br label LBL_7 LBL_7: %12 = and i64 %arg3, 4294967295 %13 = and i64 %2, 4294967295 %14 = call i64 @FUNC(i64 %0, i64 %13, i64 %12) ret i64 %14 uselistorder i64 %0, { 2, 3, 1, 0 } uselistorder i64 4294967295, { 1, 0 } }
1
BinRealVul
dwt_decode97_int_3613
dwt_decode97_int
define i64 @FUNC(i32* %arg1, i64* %arg2) local_unnamed_addr { LBL_0: %0 = alloca i64 %storemerge.reg2mem = alloca i32 %storemerge323.reg2mem = alloca i32 %indvars.iv30.reg2mem = alloca i64 %sv_0.120.reg2mem = alloca i32 %sv_1.121.reg2mem = alloca i32 %sv_0.0.lcssa.reg2mem = alloca i32 %sv_0.017.reg2mem = alloca i32 %sv_1.018.reg2mem = alloca i32 %storemerge513.reg2mem = alloca i32 %indvars.iv.reg2mem = alloca i64 %sv_2.110.reg2mem = alloca i32 %sv_3.111.reg2mem = alloca i32 %sv_2.0.lcssa.reg2mem = alloca i32 %sv_2.08.reg2mem = alloca i32 %sv_3.09.reg2mem = alloca i32 %storemerge227.reg2mem = alloca i32 %.reg2mem = alloca i64 %storemerge7.reg2mem = alloca i32 %rdi = alloca i64, align 8 %1 = load i64, i64* %0 %2 = ptrtoint i32* %arg1 to i64 %3 = bitcast i64* %rdi to i32* %4 = mul i64 %1, 4294967296 %sext = add i64 %4, -4294967296 %5 = ashr exact i64 %sext, 29 %6 = add i64 %2, 4 %7 = add i64 %5, %6 %8 = inttoptr i64 %7 to i32* %9 = load i32, i32* %8, align 4 %10 = add i64 %2, 8 %11 = add i64 %5, %10 %12 = inttoptr i64 %11 to i32* %13 = load i32, i32* %12, align 4 %14 = add i64 %2, 168 %15 = inttoptr i64 %14 to i64* %16 = load i64, i64* %15, align 8 %17 = mul i32 %13, %9 %18 = zext i32 %17 to i64 store i32 0, i32* %storemerge7.reg2mem br label LBL_1 LBL_1: %storemerge7.reload = load i32, i32* %storemerge7.reg2mem %19 = sext i32 %storemerge7.reload to i64 %20 = icmp slt i64 %19, %18 %21 = add i32 %storemerge7.reload, 1 store i32 %21, i32* %storemerge7.reg2mem br i1 %20, label LBL_1, label LBL_2 LBL_2: %22 = trunc i64 %1 to i32 %23 = ptrtoint i64* %arg2 to i64 %24 = add i64 %16, 20 %25 = icmp eq i32 %22, 0 store i64 0, i64* %.reg2mem store i32 0, i32* %storemerge227.reg2mem br i1 %25, label LBL_25, label LBL_3 LBL_3: %storemerge227.reload = load i32, i32* %storemerge227.reg2mem %.reload = load i64, i64* %.reg2mem %26 = mul i64 %.reload, 8 %27 = add i64 %26, %6 %28 = inttoptr i64 %27 to i32* %29 = load i32, i32* %28, align 4 %30 = add i64 %26, %10 %31 = inttoptr i64 %30 to i32* %32 = load i32, i32* %31, align 4 %33 = add i64 %26, %2 %34 = add i64 %33, 88 %35 = inttoptr i64 %34 to i32* %36 = load i32, i32* %35, align 4 %37 = icmp sgt i32 %32, 0 br i1 %37, label LBL_4, label LBL_15 LBL_4: %38 = add i64 %33, 84 %39 = inttoptr i64 %38 to i32* %40 = load i32, i32* %39, align 4 %41 = sext i32 %40 to i64 %42 = mul i64 %41, 4 %43 = add i64 %42, %24 %44 = icmp slt i32 %40, %29 %45 = sub i32 1, %40 %46 = icmp slt i32 %45, %29 %47 = add i32 %40, %29 %48 = zext i32 %40 to i64 %49 = icmp sgt i32 %29, 0 %wide.trip.count = zext i32 %29 to i64 store i32 0, i32* %storemerge513.reg2mem br label LBL_13 LBL_5: %sv_2.08.reload = load i32, i32* %sv_2.08.reg2mem %sv_3.09.reload = load i32, i32* %sv_3.09.reg2mem %50 = add i32 %sv_2.08.reload, %92 %51 = sext i32 %50 to i64 %52 = mul i64 %51, 4 %53 = add i64 %52, %23 %54 = inttoptr i64 %53 to i32* %55 = load i32, i32* %54, align 4 %56 = add i32 %55, 32768 %57 = sext i32 %sv_3.09.reload to i64 %58 = mul i64 %57, 4 %59 = add i64 %58, %43 %60 = ashr i32 %56, 16 %61 = inttoptr i64 %59 to i32* store i32 %60, i32* %61, align 4 %62 = add i32 %sv_3.09.reload, 2 %63 = add i32 %sv_2.08.reload, 1 %64 = icmp slt i32 %62, %29 store i32 %62, i32* %sv_3.09.reg2mem store i32 %63, i32* %sv_2.08.reg2mem store i32 %63, i32* %sv_2.0.lcssa.reg2mem br i1 %64, label LBL_5, label LBL_6 LBL_6: br i1 %46, label LBL_7, label LBL_9 LBL_7: %sv_2.0.lcssa.reload = load i32, i32* %sv_2.0.lcssa.reg2mem %65 = mul i32 %storemerge513.reload, %9 store i32 %45, i32* %sv_3.111.reg2mem store i32 %sv_2.0.lcssa.reload, i32* %sv_2.110.reg2mem br label LBL_8 LBL_8: %sv_2.110.reload = load i32, i32* %sv_2.110.reg2mem %sv_3.111.reload = load i32, i32* %sv_3.111.reg2mem %66 = add i32 %sv_2.110.reload, %65 %67 = sext i32 %66 to i64 %68 = mul i64 %67, 4 %69 = add i64 %68, %23 %70 = sext i32 %sv_3.111.reload to i64 %71 = mul i64 %70, 4 %72 = add i64 %71, %43 %73 = inttoptr i64 %69 to i32* %74 = load i32, i32* %73, align 4 %75 = inttoptr i64 %72 to i32* store i32 %74, i32* %75, align 4 %76 = add i32 %sv_3.111.reload, 2 %77 = add i32 %sv_2.110.reload, 1 %78 = icmp slt i32 %76, %29 store i32 %76, i32* %sv_3.111.reg2mem store i32 %77, i32* %sv_2.110.reg2mem br i1 %78, label LBL_8, label LBL_9 LBL_9: %79 = call i64 @FUNC(i64 %24, i64 %48, i32 %47) br i1 %49, label LBL_10, label LBL_12 LBL_10: %80 = mul i32 %storemerge513.reload, %9 store i64 0, i64* %indvars.iv.reg2mem br label LBL_11 LBL_11: %indvars.iv.reload = load i64, i64* %indvars.iv.reg2mem %81 = mul i64 %indvars.iv.reload, 4 %82 = add i64 %81, %43 %83 = trunc i64 %indvars.iv.reload to i32 %84 = add i32 %80, %83 %85 = sext i32 %84 to i64 %86 = mul i64 %85, 4 %87 = add i64 %86, %23 %88 = inttoptr i64 %82 to i32* %89 = load i32, i32* %88, align 4 %90 = inttoptr i64 %87 to i32* store i32 %89, i32* %90, align 4 %indvars.iv.next = add nuw nsw i64 %indvars.iv.reload, 1 %exitcond = icmp eq i64 %indvars.iv.next, %wide.trip.count store i64 %indvars.iv.next, i64* %indvars.iv.reg2mem br i1 %exitcond, label LBL_12, label LBL_11 LBL_12: %91 = add nuw nsw i32 %storemerge513.reload, 1 %exitcond29 = icmp eq i32 %91, %32 store i32 %91, i32* %storemerge513.reg2mem br i1 %exitcond29, label LBL_15, label LBL_13 LBL_13: %storemerge513.reload = load i32, i32* %storemerge513.reg2mem store i32 0, i32* %sv_2.0.lcssa.reg2mem br i1 %44, label LBL_5.lr.ph, label LBL_6 LBL_14: %92 = mul i32 %storemerge513.reload, %9 store i32 %40, i32* %sv_3.09.reg2mem store i32 0, i32* %sv_2.08.reg2mem br label LBL_5 LBL_15: %93 = icmp sgt i32 %29, 0 br i1 %93, label LBL_16, label LBL_24 LBL_16: %94 = sext i32 %36 to i64 %95 = mul i64 %94, 4 %96 = add i64 %95, %24 %97 = icmp slt i32 %36, %32 %98 = sub i32 1, %36 %99 = icmp slt i32 %98, %32 %100 = add i32 %36, %32 %101 = zext i32 %36 to i64 %wide.trip.count32 = zext i32 %32 to i64 store i32 0, i32* %storemerge323.reg2mem br label LBL_23 LBL_17: %sv_0.017.reload = load i32, i32* %sv_0.017.reg2mem %sv_1.018.reload = load i32, i32* %sv_1.018.reg2mem %102 = mul i32 %sv_0.017.reload, %9 %103 = add i32 %102, %storemerge323.reload %104 = sext i32 %103 to i64 %105 = mul i64 %104, 4 %106 = add i64 %105, %23 %107 = inttoptr i64 %106 to i32* %108 = load i32, i32* %107, align 4 %109 = add i32 %108, 32768 %110 = sext i32 %sv_1.018.reload to i64 %111 = mul i64 %110, 4 %112 = add i64 %111, %96 %113 = ashr i32 %109, 16 %114 = inttoptr i64 %112 to i32* store i32 %113, i32* %114, align 4 %115 = add i32 %sv_1.018.reload, 2 %116 = add i32 %sv_0.017.reload, 1 %117 = icmp slt i32 %115, %32 store i32 %115, i32* %sv_1.018.reg2mem store i32 %116, i32* %sv_0.017.reg2mem store i32 %116, i32* %sv_0.0.lcssa.reg2mem br i1 %117, label LBL_17, label LBL_18 LBL_18: %sv_0.0.lcssa.reload = load i32, i32* %sv_0.0.lcssa.reg2mem store i32 %98, i32* %sv_1.121.reg2mem store i32 %sv_0.0.lcssa.reload, i32* %sv_0.120.reg2mem br i1 %99, label LBL_19, label LBL_20 LBL_19: %sv_0.120.reload = load i32, i32* %sv_0.120.reg2mem %sv_1.121.reload = load i32, i32* %sv_1.121.reg2mem %118 = mul i32 %sv_0.120.reload, %9 %119 = add i32 %118, %storemerge323.reload %120 = sext i32 %119 to i64 %121 = mul i64 %120, 4 %122 = add i64 %121, %23 %123 = sext i32 %sv_1.121.reload to i64 %124 = mul i64 %123, 4 %125 = add i64 %124, %96 %126 = inttoptr i64 %122 to i32* %127 = load i32, i32* %126, align 4 %128 = inttoptr i64 %125 to i32* store i32 %127, i32* %128, align 4 %129 = add i32 %sv_1.121.reload, 2 %130 = add i32 %sv_0.120.reload, 1 %131 = icmp slt i32 %129, %32 store i32 %129, i32* %sv_1.121.reg2mem store i32 %130, i32* %sv_0.120.reg2mem br i1 %131, label LBL_19, label LBL_20 LBL_20: %132 = call i64 @FUNC(i64 %24, i64 %101, i32 %100) store i64 0, i64* %indvars.iv30.reg2mem br i1 %37, label LBL_21, label LBL_22 LBL_21: %indvars.iv30.reload = load i64, i64* %indvars.iv30.reg2mem %133 = mul i64 %indvars.iv30.reload, 4 %134 = add i64 %133, %96 %135 = trunc i64 %indvars.iv30.reload to i32 %136 = mul i32 %9, %135 %137 = add i32 %136, %storemerge323.reload %138 = sext i32 %137 to i64 %139 = mul i64 %138, 4 %140 = add i64 %139, %23 %141 = inttoptr i64 %134 to i32* %142 = load i32, i32* %141, align 4 %143 = inttoptr i64 %140 to i32* store i32 %142, i32* %143, align 4 %indvars.iv.next31 = add nuw nsw i64 %indvars.iv30.reload, 1 %exitcond33 = icmp eq i64 %indvars.iv.next31, %wide.trip.count32 store i64 %indvars.iv.next31, i64* %indvars.iv30.reg2mem br i1 %exitcond33, label LBL_22, label LBL_21 LBL_22: %144 = add nuw nsw i32 %storemerge323.reload, 1 %exitcond34 = icmp eq i32 %144, %29 store i32 %144, i32* %storemerge323.reg2mem br i1 %exitcond34, label LBL_24, label LBL_23 LBL_23: %storemerge323.reload = load i32, i32* %storemerge323.reg2mem store i32 %36, i32* %sv_1.018.reg2mem store i32 0, i32* %sv_0.017.reg2mem store i32 0, i32* %sv_0.0.lcssa.reg2mem br i1 %97, label LBL_17, label LBL_18 LBL_24: %145 = add i32 %storemerge227.reload, 1 %146 = load i32, i32* %3, align 8 %147 = zext i32 %146 to i64 %148 = sext i32 %145 to i64 %149 = icmp slt i64 %148, %147 store i64 %148, i64* %.reg2mem store i32 %145, i32* %storemerge227.reg2mem br i1 %149, label LBL_3, label LBL_25 LBL_25: store i32 0, i32* %storemerge.reg2mem br label LBL_26 LBL_26: %storemerge.reload = load i32, i32* %storemerge.reg2mem %150 = sext i32 %storemerge.reload to i64 %151 = icmp slt i64 %150, %18 %152 = add i32 %storemerge.reload, 1 store i32 %152, i32* %storemerge.reg2mem br i1 %151, label LBL_26, label LBL_27 LBL_27: ret i64 %18 uselistorder i32 %storemerge.reload, { 1, 0 } uselistorder i32 %storemerge323.reload, { 1, 2, 3, 0 } uselistorder i32 %storemerge513.reload, { 1, 2, 3, 0 } uselistorder i32 %40, { 0, 3, 1, 4, 2, 5 } uselistorder i32 %36, { 0, 3, 1, 4, 2, 5 } uselistorder i64 %33, { 1, 0 } uselistorder i32 %32, { 6, 7, 1, 0, 4, 5, 2, 3 } uselistorder i32 %29, { 1, 4, 7, 8, 2, 3, 0, 5, 6 } uselistorder i64 %26, { 2, 1, 0 } uselistorder i64 %24, { 2, 0, 3, 1 } uselistorder i32 %storemerge7.reload, { 1, 0 } uselistorder i64 %18, { 1, 0, 2 } uselistorder i32 %9, { 0, 1, 2, 5, 3, 4, 6 } uselistorder i32* %storemerge7.reg2mem, { 2, 0, 1 } uselistorder i64* %.reg2mem, { 2, 0, 1 } uselistorder i32* %storemerge227.reg2mem, { 2, 0, 1 } uselistorder i32* %sv_3.09.reg2mem, { 2, 1, 0 } uselistorder i32* %sv_2.08.reg2mem, { 2, 1, 0 } uselistorder i32* %sv_2.0.lcssa.reg2mem, { 2, 0, 1 } uselistorder i32* %sv_3.111.reg2mem, { 1, 0, 2 } uselistorder i32* %sv_2.110.reg2mem, { 1, 0, 2 } uselistorder i64* %indvars.iv.reg2mem, { 1, 0, 2 } uselistorder i32* %sv_1.018.reg2mem, { 1, 2, 0 } uselistorder i32* %sv_0.017.reg2mem, { 1, 2, 0 } uselistorder i32* %sv_0.0.lcssa.reg2mem, { 2, 0, 1 } uselistorder i32* %sv_1.121.reg2mem, { 2, 0, 1 } uselistorder i32* %sv_0.120.reg2mem, { 2, 0, 1 } uselistorder i64* %indvars.iv30.reg2mem, { 2, 0, 1 } uselistorder i32* %storemerge.reg2mem, { 2, 0, 1 } uselistorder i64 (i64, i64, i32)* @sr_1d97_int, { 1, 0 } uselistorder i32 32768, { 1, 0 } uselistorder i32 0, { 0, 2, 3, 1, 10, 6, 5, 4, 9, 11, 7, 12, 8 } uselistorder label LBL_21, { 1, 0 } uselistorder label LBL_19, { 1, 0 } uselistorder label LBL_18, { 1, 0 } uselistorder label LBL_8, { 1, 0 } uselistorder label LBL_6, { 1, 0 } uselistorder label LBL_3, { 1, 0 } }
0
BinRealVul
ext4_link_17554
ext4_link
define i64 @FUNC(i64* %arg1, i64* %arg2, i64* %arg3) local_unnamed_addr { LBL_0: %0 = alloca i64 %rax.0.reg2mem = alloca i64 %1 = load i64, i64* %0 %sv_0 = alloca i32, align 4 store i32 0, i32* %sv_0, align 4 %2 = trunc i64 %1 to i32 %3 = icmp slt i32 %2, 65000 store i64 4294967265, i64* %rax.0.reg2mem br i1 %3, label LBL_1, label LBL_6 LBL_1: %4 = ptrtoint i64* %arg3 to i64 %5 = ptrtoint i64* %arg2 to i64 %6 = ptrtoint i64* %arg1 to i64 %7 = add i64 %6, 12 %8 = inttoptr i64 %7 to i32* %9 = add i64 %6, 4 %10 = add i64 %5, 8 %11 = inttoptr i64 %10 to i32* br label LBL_2 LBL_2: %12 = call i64 @FUNC(i64 %5, i64 2) %13 = icmp ult i64 %12, -1000 store i64 %12, i64* %rax.0.reg2mem br i1 %13, label LBL_3, label LBL_6 LBL_3: store i32 0, i32* %8, align 4 %14 = call i64 @FUNC(i64 %12, i64 %6) %15 = call i64 @FUNC(i64 %9) %16 = call i64 @FUNC(i64 %12, i64 %4, i64 %6) %17 = trunc i64 %16 to i32 %18 = call i64 @FUNC(i64 %12) %19 = icmp eq i32 %17, -28 %20 = icmp eq i1 %19, false br i1 %20, label LBL_5, label LBL_4 LBL_4: %21 = load i32, i32* %11, align 4 %22 = zext i32 %21 to i64 %23 = call i64 @FUNC(i64 %22, i32* nonnull %sv_0) %24 = trunc i64 %23 to i32 %25 = icmp eq i32 %24, 0 br i1 %25, label LBL_5, label LBL_2 LBL_5: %26 = and i64 %16, 4294967295 store i64 %26, i64* %rax.0.reg2mem br label LBL_6 LBL_6: %rax.0.reload = load i64, i64* %rax.0.reg2mem ret i64 %rax.0.reload uselistorder i64 %12, { 1, 3, 2, 0, 4 } uselistorder i64 %6, { 2, 0, 1, 3 } uselistorder i64 %5, { 1, 0 } uselistorder i64* %rax.0.reg2mem, { 0, 3, 1, 2 } uselistorder label LBL_6, { 2, 0, 1 } uselistorder label LBL_2, { 1, 0 } }
1
BinRealVul
rpcrdma_max_call_header_size_5940
rpcrdma_max_call_header_size
define i64 @FUNC(i64 %arg1) local_unnamed_addr { LBL_0: %0 = mul i64 %arg1, 512 %1 = or i64 %0, 32 %2 = add i64 %1, 1032 %3 = and i64 %2, 4294966824 ret i64 %3 }
0
BinRealVul
test_enabled_1243
test_enabled
define i64 @FUNC() local_unnamed_addr { LBL_0: %indvars.iv.reg2mem = alloca i64 %indvars.iv4.reg2mem = alloca i64 %0 = call i64 @FUNC(i64 4210761) %1 = call i64 @FUNC(i64* nonnull @gv_0) %2 = urem i64 %1, 256 %3 = icmp eq i64 %2, 0 %4 = zext i1 %3 to i64 %5 = call i64 @FUNC(i64 %4) store i64 0, i64* %indvars.iv4.reg2mem br label LBL_1 LBL_1: %indvars.iv4.reload = load i64, i64* %indvars.iv4.reg2mem %6 = call i64 @FUNC(i64 ptrtoint (i64* @gv_0 to i64)) %7 = call i64 @FUNC(i64 0, i64 %indvars.iv4.reload, i64 150) %8 = call i64 @FUNC(i64* nonnull @gv_0, i64 0) %9 = urem i64 %8, 256 %10 = call i64 @FUNC(i64 %9) %11 = call i64 @FUNC(i64* nonnull @gv_0) %12 = urem i64 %11, 256 %13 = call i64 @FUNC(i64 %12) %indvars.iv.next5 = add nuw nsw i64 %indvars.iv4.reload, 1 %exitcond6 = icmp eq i64 %indvars.iv.next5, 10 store i64 %indvars.iv.next5, i64* %indvars.iv4.reg2mem store i64 0, i64* %indvars.iv.reg2mem br i1 %exitcond6, label LBL_2, label LBL_1 LBL_2: %indvars.iv.reload = load i64, i64* %indvars.iv.reg2mem %14 = call i64 @FUNC(i64 ptrtoint (i64* @gv_0 to i64)) %15 = call i64 @FUNC(i64 0, i64 %indvars.iv.reload, i64 4294967146) %16 = call i64 @FUNC(i64* nonnull @gv_0, i64 0) %17 = urem i64 %16, 256 %18 = icmp eq i64 %17, 0 %19 = zext i1 %18 to i64 %20 = call i64 @FUNC(i64 %19) %indvars.iv.next = add nuw nsw i64 %indvars.iv.reload, 1 %exitcond = icmp eq i64 %indvars.iv.next, 10 store i64 %indvars.iv.next, i64* %indvars.iv.reg2mem br i1 %exitcond, label LBL_3, label LBL_2 LBL_3: ret i64 %20 uselistorder i64* %indvars.iv4.reg2mem, { 1, 0, 2 } uselistorder i64* %indvars.iv.reg2mem, { 2, 0, 1 } uselistorder i64 10, { 1, 0 } uselistorder i64 1, { 3, 2, 4, 0, 1 } uselistorder i64 (i64*, i64)* @throttle_is_valid, { 1, 0 } uselistorder i64 (i64, i64, i64)* @set_cfg_value, { 1, 0 } uselistorder i64 (i64)* @g_assert, { 3, 2, 1, 0 } uselistorder i64 (i64*)* @throttle_enabled, { 1, 0 } uselistorder i64* @gv_0, { 2, 0, 1, 4, 3 } uselistorder i64 (i64)* @throttle_config_init, { 2, 1, 0 } uselistorder i32 1, { 2, 1, 3, 4, 0 } uselistorder label LBL_2, { 1, 0 } }
0
BinRealVul
ssl3_read_n_18946
ssl3_read_n
define i64 @FUNC(i64* %arg1, i64 %arg2, i64 %arg3, i64 %arg4) local_unnamed_addr { LBL_0: %rax.0.reg2mem = alloca i64 %storemerge.reg2mem = alloca i32 %sv_0.122.reg2mem = alloca i64 %sv_1.023.reg2mem = alloca i32 %.reg2mem59 = alloca i32 %.pre-phi.reg2mem = alloca i32 %.reg2mem57 = alloca i32 %.pre-phi40.reg2mem = alloca i32* %.reg2mem55 = alloca i32 %.pre-phi36.reg2mem = alloca i32* %.reg2mem = alloca i64 %0 = trunc i64 %arg2 to i32 %sext = mul i64 %arg2, 4294967296 %1 = ashr exact i64 %sext, 32 %2 = icmp eq i32 %0, 0 %3 = icmp slt i32 %0, 0 %4 = icmp eq i1 %3, false %5 = icmp eq i1 %2, false %6 = icmp eq i1 %4, %5 br i1 %6, label LBL_2, label LBL_1 LBL_1: %7 = and i64 %1, 4294967295 store i64 %7, i64* %rax.0.reg2mem br label LBL_31 LBL_2: %8 = ptrtoint i64* %arg1 to i64 %9 = icmp eq i64* %arg1, null %10 = icmp eq i1 %9, false br i1 %10, label LBL_4, label LBL_3 LBL_3: %11 = call i64 @FUNC(i64 %8) %12 = trunc i64 %11 to i32 %13 = icmp eq i32 %12, 0 %14 = icmp eq i1 %13, false store i64 4294967295, i64* %rax.0.reg2mem br i1 %14, label LBL_4, label LBL_31 LBL_4: %15 = add i64 %8, 8 %16 = inttoptr i64 %15 to i32* %17 = load i32, i32* %16, align 4 %18 = trunc i64 %arg4 to i32 %19 = icmp eq i32 %18, 0 %20 = icmp eq i1 %19, false br i1 %20, label LBL_4.LBL_10_crit_edge, label LBL_6 LBL_5: %.pre33 = add i64 %8, 16 %.pre35 = inttoptr i64 %.pre33 to i32* store i32* %.pre35, i32** %.pre-phi36.reg2mem br label LBL_10 LBL_6: %21 = icmp eq i32 %17, 0 %22 = icmp eq i1 %21, false %.pre41 = add i64 %8, 12 %.pre43 = inttoptr i64 %.pre41 to i32* br i1 %22, label LBL_6.LBL_9_crit_edge, label LBL_8 LBL_7: %.pre51 = load i32, i32* %.pre43, align 4 %phitmp54 = sext i32 %.pre51 to i64 store i64 %phitmp54, i64* %.reg2mem br label LBL_9 LBL_8: store i32 0, i32* %.pre43, align 4 store i64 0, i64* %.reg2mem br label LBL_9 LBL_9: %.reload = load i64, i64* %.reg2mem %23 = add i64 %.reload, %8 %24 = inttoptr i64 %15 to i64* store i64 %23, i64* %24, align 8 %25 = add i64 %8, 16 %26 = inttoptr i64 %25 to i32* store i32 0, i32* %26, align 4 store i32* %26, i32** %.pre-phi36.reg2mem br label LBL_10 LBL_10: %.pre-phi36.reload = load i32*, i32** %.pre-phi36.reg2mem %27 = call i64 @FUNC(i64 %8) %28 = trunc i64 %27 to i32 %29 = icmp ne i32 %28, 0 %30 = icmp sgt i32 %17, 0 %or.cond13.not = icmp eq i1 %30, %29 %31 = trunc i64 %1 to i32 %32 = icmp slt i32 %17, %31 %or.cond = icmp eq i1 %32, %or.cond13.not %33 = sext i32 %17 to i64 %sv_0.0 = select i1 %or.cond, i64 %33, i64 %1 %34 = trunc i64 %sv_0.0 to i32 %35 = icmp slt i32 %17, %34 %36 = load i32, i32* %.pre-phi36.reload, align 4 br i1 %35, label LBL_12, label LBL_11 LBL_11: %37 = add i32 %36, %34 store i32 %37, i32* %.pre-phi36.reload, align 4 %38 = sub i32 %17, %34 store i32 %38, i32* %16, align 4 %39 = add i64 %8, 12 %40 = inttoptr i64 %39 to i32* %41 = load i32, i32* %40, align 4 %42 = add i32 %41, %34 store i32 %42, i32* %40, align 4 %43 = and i64 %sv_0.0, 4294967295 store i64 %43, i64* %rax.0.reg2mem br label LBL_31 LBL_12: %44 = inttoptr i64 %15 to i64* %45 = load i64, i64* %44, align 8 %46 = icmp eq i64 %45, %8 br i1 %46, label LBL_12.LBL_15_crit_edge, label LBL_14 LBL_13: %.pre37 = add i64 %8, 12 %.pre39 = inttoptr i64 %.pre37 to i32* %.pre52 = load i32, i32* %.pre39, align 4 store i32 %.pre52, i32* %.reg2mem55 store i32* %.pre39, i32** %.pre-phi40.reg2mem store i32 %36, i32* %.reg2mem57 br label LBL_15 LBL_14: %47 = add i32 %36, %17 %48 = inttoptr i64 %45 to i64* %49 = call i64* @memmove(i64* %arg1, i64* %48, i32 %47) store i64 %8, i64* %44, align 8 %50 = add i64 %8, 12 %51 = inttoptr i64 %50 to i32* store i32 %36, i32* %51, align 4 %.pre = load i32, i32* %.pre-phi36.reload, align 4 store i32 %36, i32* %.reg2mem55 store i32* %51, i32** %.pre-phi40.reg2mem store i32 %.pre, i32* %.reg2mem57 br label LBL_15 LBL_15: %.reload58 = load i32, i32* %.reg2mem57 %.reload56 = load i32, i32* %.reg2mem55 %52 = sub i32 %.reload58, %.reload56 %53 = zext i32 %52 to i64 %54 = icmp sgt i64 %sv_0.0, %53 br i1 %54, label LBL_16, label LBL_17 LBL_16: %55 = call i64 @FUNC(i64 1, i64 0) store i64 4294967295, i64* %rax.0.reg2mem br label LBL_31 LBL_17: %.pre-phi40.reload = load i32*, i32** %.pre-phi40.reg2mem %56 = add i64 %8, 36 %57 = inttoptr i64 %56 to i32* %58 = load i32, i32* %57, align 4 %59 = icmp eq i32 %58, 0 %60 = icmp eq i1 %59, false store i32 %34, i32* %.pre-phi.reg2mem br i1 %60, label LBL_18, label LBL_19 LBL_18: %sext5 = mul i64 %arg3, 4294967296 %61 = ashr exact i64 %sext5, 32 %62 = trunc i64 %61 to i32 %63 = icmp slt i32 %62, %34 %spec.select = select i1 %63, i64 %sv_0.0, i64 %61 %64 = icmp sgt i64 %spec.select, %53 %65 = zext i32 %52 to i64 %spec.select17 = select i1 %64, i64 %65, i64 %spec.select %.pre53 = trunc i64 %spec.select17 to i32 store i32 %.pre53, i32* %.pre-phi.reg2mem br label LBL_19 LBL_19: %.pre-phi.reload = load i32, i32* %.pre-phi.reg2mem %66 = add i64 %8, 24 %67 = inttoptr i64 %66 to i64* %68 = add i64 %8, 20 %69 = inttoptr i64 %68 to i32* %70 = sext i32 %36 to i64 %71 = add i64 %70, %8 store i32 %34, i32* %.reg2mem59 store i32 %17, i32* %sv_1.023.reg2mem store i64 %sv_0.0, i64* %sv_0.122.reg2mem br label LBL_20 LBL_20: %sv_0.122.reload = load i64, i64* %sv_0.122.reg2mem %sv_1.023.reload = load i32, i32* %sv_1.023.reg2mem %.reload60 = load i32, i32* %.reg2mem59 %72 = call i64 @FUNC() %73 = load i64, i64* %67, align 8 %74 = icmp eq i64 %73, 0 br i1 %74, label LBL_22, label LBL_21 LBL_21: store i32 1, i32* %69, align 4 %75 = sub i32 %.pre-phi.reload, %sv_1.023.reload %76 = zext i32 %75 to i64 %77 = sext i32 %sv_1.023.reload to i64 %78 = add i64 %71, %77 %79 = load i64, i64* %67, align 8 %80 = call i64 @FUNC(i64 %79, i64 %78, i64 %76) %81 = trunc i64 %80 to i32 store i32 %81, i32* %storemerge.reg2mem br label LBL_23 LBL_22: %82 = call i64 @FUNC(i64 1, i64 2) store i32 -1, i32* %storemerge.reg2mem br label LBL_23 LBL_23: %storemerge.reload = load i32, i32* %storemerge.reg2mem %83 = icmp eq i32 %storemerge.reload, 0 %84 = icmp slt i32 %storemerge.reload, 0 %85 = icmp eq i1 %84, false %86 = icmp eq i1 %83, false %87 = icmp eq i1 %85, %86 br i1 %87, label LBL_29, label LBL_24 LBL_24: store i32 %sv_1.023.reload, i32* %16, align 4 %88 = add i64 %8, 32 %89 = inttoptr i64 %88 to i32* %90 = load i32, i32* %89, align 4 %91 = and i32 %90, 4 %92 = icmp eq i32 %91, 0 br i1 %92, label LBL_28, label LBL_25 LBL_25: %93 = call i64 @FUNC(i64 %8) %94 = trunc i64 %93 to i32 %95 = icmp eq i32 %94, 0 %96 = icmp eq i1 %95, false br i1 %96, label LBL_28, label LBL_26 LBL_26: %97 = sub i32 0, %36 %98 = icmp eq i32 %sv_1.023.reload, %97 %99 = icmp eq i1 %98, false br i1 %99, label LBL_28, label LBL_27 LBL_27: %100 = call i64 @FUNC(i64 %8) br label LBL_28 LBL_28: %101 = zext i32 %storemerge.reload to i64 store i64 %101, i64* %rax.0.reg2mem br label LBL_31 LBL_29: %102 = add i32 %storemerge.reload, %sv_1.023.reload %103 = call i64 @FUNC(i64 %8) %104 = trunc i64 %103 to i32 %105 = icmp ne i32 %104, 0 %106 = icmp slt i32 %102, %.reload60 %or.cond16 = icmp eq i1 %106, %105 %107 = sext i32 %102 to i64 %spec.select18 = select i1 %or.cond16, i64 %107, i64 %sv_0.122.reload %108 = trunc i64 %spec.select18 to i32 %109 = icmp slt i32 %102, %108 store i32 %108, i32* %.reg2mem59 store i32 %102, i32* %sv_1.023.reg2mem store i64 %spec.select18, i64* %sv_0.122.reg2mem br i1 %109, label LBL_20, label LBL_30 LBL_30: %.pre29 = load i32, i32* %.pre-phi40.reload, align 4 %phitmp = and i64 %spec.select18, 4294967295 %110 = add i32 %.pre29, %108 store i32 %110, i32* %.pre-phi40.reload, align 4 %111 = sub i32 %102, %108 store i32 %111, i32* %16, align 4 %112 = load i32, i32* %.pre-phi36.reload, align 4 %113 = add i32 %112, %108 store i32 %113, i32* %.pre-phi36.reload, align 4 store i32 0, i32* %69, align 4 store i64 %phitmp, i64* %rax.0.reg2mem br label LBL_31 LBL_31: %rax.0.reload = load i64, i64* %rax.0.reg2mem ret i64 %rax.0.reload uselistorder i32 %108, { 3, 1, 2, 0, 4 } uselistorder i64 %spec.select18, { 1, 0, 2 } uselistorder i32 %102, { 1, 0, 2, 4, 3 } uselistorder i32 %storemerge.reload, { 2, 3, 0, 1 } uselistorder i32 %sv_1.023.reload, { 2, 4, 3, 1, 0 } uselistorder i32* %.pre-phi40.reload, { 1, 0 } uselistorder i64 %45, { 1, 0 } uselistorder i32 %36, { 6, 5, 1, 4, 3, 0, 2 } uselistorder i32 %34, { 0, 5, 1, 3, 4, 2, 6 } uselistorder i64 %sv_0.0, { 0, 1, 4, 3, 2 } uselistorder i32* %.pre-phi36.reload, { 2, 1, 0, 3, 4 } uselistorder i32* %.pre43, { 1, 0 } uselistorder i32 %17, { 0, 1, 4, 5, 6, 3, 2, 7 } uselistorder i32* %16, { 1, 2, 0, 3 } uselistorder i64 %15, { 1, 0, 2 } uselistorder i64 %8, { 14, 11, 13, 12, 0, 16, 15, 17, 10, 6, 3, 5, 9, 18, 8, 1, 2, 4, 19, 7 } uselistorder i32 %0, { 1, 0 } uselistorder i32* %.pre-phi.reg2mem, { 0, 2, 1 } uselistorder i32* %.reg2mem59, { 1, 0, 2 } uselistorder i32* %sv_1.023.reg2mem, { 1, 0, 2 } uselistorder i64* %sv_0.122.reg2mem, { 1, 0, 2 } uselistorder i32* %storemerge.reg2mem, { 0, 2, 1 } uselistorder i64* %rax.0.reg2mem, { 0, 4, 5, 6, 3, 1, 2 } uselistorder i64 (i64, i64)* @SSLerr, { 1, 0 } uselistorder i64 1, { 1, 2, 0 } uselistorder i64 (i64)* @SSL_IS_DTLS, { 2, 1, 0 } uselistorder i64 12, { 2, 1, 3, 0 } uselistorder i64 16, { 1, 0 } uselistorder i1 false, { 2, 3, 4, 0, 5, 6, 7, 8, 9, 10, 1 } uselistorder i32 0, { 8, 3, 2, 4, 5, 6, 7, 9, 0, 10, 11, 1, 12, 13, 14, 15, 16, 17, 18 } uselistorder i64 32, { 2, 0, 1 } uselistorder label LBL_31, { 2, 1, 3, 4, 0, 5 } uselistorder label LBL_20, { 1, 0 } uselistorder label LBL_15, { 1, 0 } uselistorder label LBL_10, { 1, 0 } uselistorder label LBL_9, { 1, 0 } }
1
BinRealVul
text_console_init_14310
text_console_init
define i64 @FUNC(i64* %arg1, i64* %arg2) local_unnamed_addr { LBL_0: %storemerge.reg2mem = alloca i64 %storemerge2.in.reg2mem = alloca i64 %sv_0.0.reg2mem = alloca i32 %sv_1.0.reg2mem = alloca i32 %0 = call i64 @FUNC(i64 16) %1 = load i32, i32* @gv_0, align 4 %2 = icmp eq i32 %1, 128 %3 = icmp eq i1 %2, false br i1 %3, label LBL_2, label LBL_1 LBL_1: %4 = load %_IO_FILE*, %_IO_FILE** @gv_1, align 8 %5 = call i32 @fwrite(i64* bitcast ([24 x i8]* @gv_2 to i64*), i32 1, i32 23, %_IO_FILE* %4) call void @exit(i32 1) unreachable LBL_2: %6 = ptrtoint i64* %arg1 to i64 %7 = sext i32 %1 to i64 %8 = mul i64 %7, 8 %9 = add i64 %8, ptrtoint (i64* @gv_3 to i64) %10 = inttoptr i64 %9 to i64* store i64 %0, i64* %10, align 8 store i32 ptrtoint (i32* @gv_4 to i32), i32* @gv_0, align 4 %11 = call i64 @FUNC(i64 %6, i8* getelementptr inbounds ([6 x i8], [6 x i8]* @gv_5, i64 0, i64 0), i64 0) %12 = trunc i64 %11 to i32 %13 = icmp eq i32 %12, 0 %14 = icmp eq i1 %13, false store i32 %12, i32* %sv_1.0.reg2mem br i1 %14, label LBL_4, label LBL_3 LBL_3: %15 = call i64 @FUNC(i64 %6, i8* getelementptr inbounds ([5 x i8], [5 x i8]* @gv_6, i64 0, i64 0), i64 0) %16 = trunc i64 %15 to i32 %17 = mul i32 %16, 8 store i32 %17, i32* %sv_1.0.reg2mem br label LBL_4 LBL_4: %sv_1.0.reload = load i32, i32* %sv_1.0.reg2mem %18 = call i64 @FUNC(i64 %6, i8* getelementptr inbounds ([7 x i8], [7 x i8]* @gv_7, i64 0, i64 0), i64 0) %19 = trunc i64 %18 to i32 %20 = icmp eq i32 %19, 0 %21 = icmp eq i1 %20, false store i32 %19, i32* %sv_0.0.reg2mem br i1 %21, label LBL_6, label LBL_5 LBL_5: %22 = call i64 @FUNC(i64 %6, i8* getelementptr inbounds ([5 x i8], [5 x i8]* @gv_8, i64 0, i64 0), i64 0) %23 = trunc i64 %22 to i32 %24 = mul i32 %23, 16 store i32 %24, i32* %sv_0.0.reg2mem br label LBL_6 LBL_6: %sv_0.0.reload = load i32, i32* %sv_0.0.reg2mem %25 = icmp ne i32 %sv_1.0.reload, 0 %26 = icmp eq i32 %sv_0.0.reload, 0 %27 = icmp eq i1 %26, false %or.cond = icmp eq i1 %25, %27 br i1 %or.cond, label LBL_8, label LBL_7 LBL_7: %28 = call i64 @FUNC(i64 0, i64 0) store i64 %28, i64* %storemerge2.in.reg2mem br label LBL_9 LBL_8: %29 = call i64 @FUNC(i64 0, i64 1) store i64 %29, i64* %storemerge2.in.reg2mem br label LBL_9 LBL_9: %storemerge2.in.reload = load i64, i64* %storemerge2.in.reg2mem %30 = icmp eq i64 %storemerge2.in.reload, 0 %31 = icmp eq i1 %30, false br i1 %31, label LBL_11, label LBL_10 LBL_10: %32 = call i64 @FUNC(i64 %0) store i64 4294967280, i64* %storemerge.reg2mem br label LBL_12 LBL_11: %storemerge2 = inttoptr i64 %storemerge2.in.reload to i32* %33 = add i64 %storemerge2.in.reload, 8 %34 = inttoptr i64 %33 to i64* store i64 %0, i64* %34, align 8 store i32 %sv_1.0.reload, i32* %storemerge2, align 4 %35 = add i64 %storemerge2.in.reload, 4 %36 = inttoptr i64 %35 to i32* store i32 %sv_0.0.reload, i32* %36, align 4 %37 = inttoptr i64 %0 to i64* store i64 %storemerge2.in.reload, i64* %37, align 8 %38 = add i64 %0, 8 %39 = inttoptr i64 %38 to i64* store i64 4198863, i64* %39, align 8 store i64 %0, i64* %arg2, align 8 store i64 0, i64* %storemerge.reg2mem br label LBL_12 LBL_12: %storemerge.reload = load i64, i64* %storemerge.reg2mem ret i64 %storemerge.reload uselistorder i64 %storemerge2.in.reload, { 4, 3, 2, 0, 1 } uselistorder i32 %sv_1.0.reload, { 1, 0 } uselistorder i64 %6, { 1, 2, 0, 3 } uselistorder i64 %0, { 1, 2, 3, 4, 0, 5 } uselistorder i64* %storemerge2.in.reg2mem, { 0, 2, 1 } uselistorder i64* %storemerge.reg2mem, { 0, 2, 1 } uselistorder i64 (i64, i64)* @new_console, { 1, 0 } uselistorder i64 (i64, i8*, i64)* @qemu_opt_get_number, { 3, 2, 1, 0 } uselistorder i64 0, { 0, 1, 10, 12, 11, 13, 2, 3, 14, 4, 5, 15, 6, 7, 16, 8, 9, 17, 18 } uselistorder i64 8, { 1, 2, 0 } uselistorder i1 false, { 1, 0, 2, 3, 4 } uselistorder i32 0, { 0, 3, 4, 5, 1, 2 } uselistorder i32* @gv_0, { 1, 0 } }
1
BinRealVul
hpet_time_after_1385
hpet_time_after
define i64 @FUNC(i64 %arg1, i64 %arg2) local_unnamed_addr { LBL_0: %0 = sub i64 %arg2, %arg1 %1 = icmp slt i64 %0, 0 %2 = zext i1 %1 to i64 ret i64 %2 }
0
BinRealVul
qemu_eventfd_3428
qemu_eventfd
define i64 @FUNC(i64* %arg1) local_unnamed_addr { LBL_0: %0 = ptrtoint i64* %arg1 to i64 %1 = trunc i64 %0 to i32 %2 = insertvalue [2 x i32] undef, i32 %1, 0 %3 = call i32 @pipe([2 x i32] %2) %4 = sext i32 %3 to i64 ret i64 %4 }
0
BinRealVul
qemu_bh_schedule_1617
qemu_bh_schedule
define i64 @FUNC(i64* %arg1) local_unnamed_addr { LBL_0: %rax.0.reg2mem = alloca i64 %0 = ptrtoint i64* %arg1 to i64 %1 = add i64 %0, 8 %2 = inttoptr i64 %1 to i64* %3 = load i64, i64* %2, align 8 %4 = add i64 %0, 4 %5 = inttoptr i64 %4 to i32* store i32 0, i32* %5, align 4 %6 = call i64 @FUNC(i64 %0, i64 1) %7 = trunc i64 %6 to i32 %8 = icmp eq i32 %7, 0 %9 = icmp eq i1 %8, false store i64 %6, i64* %rax.0.reg2mem br i1 %9, label LBL_2, label LBL_1 LBL_1: %10 = call i64 @FUNC(i64 %3) store i64 %10, i64* %rax.0.reg2mem br label LBL_2 LBL_2: %rax.0.reload = load i64, i64* %rax.0.reg2mem ret i64 %rax.0.reload }
0
BinRealVul
address_space_update_topology_1190
address_space_update_topology
define i64 @FUNC(i64* %arg1) local_unnamed_addr { LBL_0: %0 = ptrtoint i64* %arg1 to i64 %sv_0 = alloca i64, align 8 %1 = add i64 %0, 8 %2 = inttoptr i64 %1 to i64* %3 = load i64, i64* %2, align 8 %4 = call i64 @FUNC(i64 %3) %5 = call i64 @FUNC(i64 %0, i64 0) %6 = call i64 @FUNC(i64 %0, i64 1) %7 = call i64 @FUNC(i64* nonnull %sv_0) %8 = call i64 @FUNC(i64 %0) ret i64 %8 uselistorder i64 (i64, i64)* @address_space_update_topology_pass, { 1, 0 } }
0
BinRealVul
alloc_extent_buffer_7681
alloc_extent_buffer
define i64 @FUNC(i64* %arg1, i64 %arg2, i64 %arg3, i64 %arg4, i64 %arg5) local_unnamed_addr { LBL_0: %rax.0.reg2mem = alloca i64 %storemerge4.reg2mem = alloca i64 %sv_0.0.reg2mem = alloca i64 %sv_1.02.reg2mem = alloca i64 %sv_1.0.lcssa.reg2mem = alloca i64 %sv_2.1.lcssa.reg2mem = alloca i32 %sv_3.05.reg2mem = alloca i64 %sv_2.16.reg2mem = alloca i32 %sv_1.07.reg2mem = alloca i64 %sv_1.0.ph.reg2mem = alloca i64 %sv_2.1.ph.reg2mem = alloca i32 %sv_3.0.ph.reg2mem = alloca i64 %0 = ptrtoint i64* %arg1 to i64 %1 = call i64 @FUNC(i64 %arg2, i64 %arg3) %2 = add i64 %0, 8 %3 = call i64 @FUNC(i64 %2) %4 = call i64 @FUNC(i64 %0, i64 %arg2) %5 = icmp eq i64 %4, 0 br i1 %5, label LBL_2, label LBL_1 LBL_1: %6 = add i64 %4, 8 %7 = call i64 @FUNC(i64 %6) %8 = call i64 @FUNC(i64 %2) %9 = inttoptr i64 %4 to i64* %10 = load i64, i64* %9, align 8 %11 = call i64 @FUNC(i64 %10) store i64 %4, i64* %rax.0.reg2mem br label LBL_22 LBL_2: %12 = call i64 @FUNC(i64 %2) %13 = call i64 @FUNC(i64 %0, i64 %arg2, i64 %arg3, i64 %arg5) %14 = icmp eq i64 %13, 0 %15 = icmp eq i1 %14, false store i64 0, i64* %rax.0.reg2mem br i1 %15, label LBL_3, label LBL_22 LBL_3: %16 = udiv i64 %arg2, 4096 %17 = icmp eq i64 %arg4, 0 store i64 %16, i64* %sv_3.0.ph.reg2mem store i32 1, i32* %sv_2.1.ph.reg2mem store i64 0, i64* %sv_1.0.ph.reg2mem br i1 %17, label LBL_5, label LBL_4 LBL_4: %18 = inttoptr i64 %13 to i64* store i64 %arg4, i64* %18, align 8 %19 = add nuw nsw i64 %16, 1 %20 = call i64 @FUNC(i64 %arg4) %21 = call i64 @FUNC(i64 %arg4) %22 = call i64 @FUNC(i64 %arg4) %23 = call i64 @FUNC(i64 %arg4, i64 %arg3) %24 = call i64 @FUNC(i64 %arg4) %25 = trunc i64 %24 to i32 %26 = urem i32 %25, 256 store i64 %19, i64* %sv_3.0.ph.reg2mem store i32 %26, i32* %sv_2.1.ph.reg2mem store i64 1, i64* %sv_1.0.ph.reg2mem br label LBL_5 LBL_5: %sv_1.0.ph.reload = load i64, i64* %sv_1.0.ph.reg2mem %sv_2.1.ph.reload = load i32, i32* %sv_2.1.ph.reg2mem %27 = icmp ult i64 %sv_1.0.ph.reload, %1 store i32 %sv_2.1.ph.reload, i32* %sv_2.1.lcssa.reg2mem store i64 %sv_1.0.ph.reload, i64* %sv_1.0.lcssa.reg2mem br i1 %27, label LBL_6, label LBL_13 LBL_6: %sv_3.0.ph.reload = load i64, i64* %sv_3.0.ph.reg2mem %28 = or i64 %arg5, 536870912 %29 = inttoptr i64 %13 to i64* store i64 %sv_1.0.ph.reload, i64* %sv_1.07.reg2mem store i32 %sv_2.1.ph.reload, i32* %sv_2.16.reg2mem store i64 %sv_3.0.ph.reload, i64* %sv_3.05.reg2mem br label LBL_7 LBL_7: %sv_3.05.reload = load i64, i64* %sv_3.05.reg2mem %sv_1.07.reload = load i64, i64* %sv_1.07.reg2mem %30 = call i64 @FUNC(i64 %arg2, i64 %sv_3.05.reload, i64 %28) %31 = icmp eq i64 %30, 0 %32 = icmp eq i1 %31, false br i1 %32, label LBL_9, label LBL_8 LBL_8: %33 = call i64 @FUNC(i64 1) store i64 %sv_1.07.reload, i64* %sv_1.02.reg2mem store i64 0, i64* %sv_0.0.reg2mem br label LBL_18 LBL_9: %sv_2.16.reload = load i32, i32* %sv_2.16.reg2mem %34 = call i64 @FUNC(i64 %30) %35 = call i64 @FUNC(i64 %30) %36 = icmp eq i64 %sv_1.07.reload, 0 %37 = icmp eq i1 %36, false br i1 %37, label LBL_11, label LBL_10 LBL_10: store i64 %30, i64* %29, align 8 %38 = call i64 @FUNC(i64 %30, i64 %arg3) br label LBL_12 LBL_11: %39 = call i64 @FUNC(i64 %30, i64 1) br label LBL_12 LBL_12: %40 = call i64 @FUNC(i64 %30) %41 = trunc i64 %40 to i8 %42 = icmp eq i8 %41, 1 %spec.select = select i1 %42, i32 %sv_2.16.reload, i32 0 %43 = call i64 @FUNC(i64 %30) %44 = add nuw i64 %sv_1.07.reload, 1 %45 = add i64 %sv_3.05.reload, 1 %46 = icmp ult i64 %44, %1 store i64 %44, i64* %sv_1.07.reg2mem store i32 %spec.select, i32* %sv_2.16.reg2mem store i64 %45, i64* %sv_3.05.reg2mem store i32 %spec.select, i32* %sv_2.1.lcssa.reg2mem store i64 %44, i64* %sv_1.0.lcssa.reg2mem br i1 %46, label LBL_7, label LBL_13 LBL_13: %sv_1.0.lcssa.reload = load i64, i64* %sv_1.0.lcssa.reg2mem %sv_2.1.lcssa.reload = load i32, i32* %sv_2.1.lcssa.reg2mem %47 = icmp eq i32 %sv_2.1.lcssa.reload, 0 br i1 %47, label LBL_15, label LBL_14 LBL_14: %48 = add i64 %13, 16 %49 = call i64 @FUNC(i64 0, i64 %48) br label LBL_15 LBL_15: %50 = call i64 @FUNC(i64 %2) %51 = add i64 %13, 24 %52 = call i64 @FUNC(i64 %0, i64 %arg2, i64 %51) %53 = icmp eq i64 %52, 0 br i1 %53, label LBL_17, label LBL_16 LBL_16: %54 = add i64 %52, 8 %55 = call i64 @FUNC(i64 %54) %56 = call i64 @FUNC(i64 %2) store i64 %sv_1.0.lcssa.reload, i64* %sv_1.02.reg2mem store i64 %52, i64* %sv_0.0.reg2mem br label LBL_18 LBL_17: %57 = call i64 @FUNC(i64 %2) %58 = add i64 %13, 8 %59 = call i64 @FUNC(i64 %58) store i64 %13, i64* %rax.0.reg2mem br label LBL_22 LBL_18: %sv_0.0.reload = load i64, i64* %sv_0.0.reg2mem %60 = add i64 %13, 8 %61 = call i64 @FUNC(i64 %60) %62 = trunc i64 %61 to i32 %63 = icmp eq i32 %62, 0 %64 = icmp eq i1 %63, false store i64 %sv_0.0.reload, i64* %rax.0.reg2mem br i1 %64, label LBL_19, label LBL_22 LBL_19: %sv_1.02.reload = load i64, i64* %sv_1.02.reg2mem %65 = icmp ugt i64 %sv_1.02.reload, 1 store i64 1, i64* %storemerge4.reg2mem br i1 %65, label LBL_20, label LBL_21 LBL_20: %storemerge4.reload = load i64, i64* %storemerge4.reg2mem %66 = call i64 @FUNC(i64 %13, i64 %storemerge4.reload) %67 = call i64 @FUNC(i64 %66) %68 = add nuw i64 %storemerge4.reload, 1 %exitcond = icmp eq i64 %68, %sv_1.02.reload store i64 %68, i64* %storemerge4.reg2mem br i1 %exitcond, label LBL_21, label LBL_20 LBL_21: %69 = call i64 @FUNC(i64 %13, i64 0) %70 = call i64 @FUNC(i64 %69) %71 = call i64 @FUNC(i64 %13) store i64 %sv_0.0.reload, i64* %rax.0.reg2mem br label LBL_22 LBL_22: %rax.0.reload = load i64, i64* %rax.0.reg2mem ret i64 %rax.0.reload uselistorder i64 %storemerge4.reload, { 1, 0 } uselistorder i64 %sv_1.02.reload, { 1, 0 } uselistorder i64 %sv_0.0.reload, { 1, 0 } uselistorder i64 %30, { 2, 3, 4, 0, 1, 6, 5, 7 } uselistorder i64 %sv_1.07.reload, { 1, 2, 0 } uselistorder i32 %sv_2.1.ph.reload, { 1, 0 } uselistorder i64 %sv_1.0.ph.reload, { 1, 0, 2 } uselistorder i64 %16, { 1, 0 } uselistorder i64 %13, { 5, 4, 6, 7, 0, 2, 3, 1, 8, 9, 10 } uselistorder i64 %4, { 0, 2, 1, 3 } uselistorder i64 %2, { 2, 1, 3, 4, 0, 5 } uselistorder i64 %1, { 1, 0 } uselistorder i64* %sv_1.07.reg2mem, { 1, 0, 2 } uselistorder i32* %sv_2.16.reg2mem, { 1, 0, 2 } uselistorder i64* %sv_3.05.reg2mem, { 1, 0, 2 } uselistorder i64* %storemerge4.reg2mem, { 2, 0, 1 } uselistorder i64* %rax.0.reg2mem, { 0, 5, 1, 4, 2, 3 } uselistorder i32 0, { 2, 3, 0, 4, 5, 1 } uselistorder i64 (i64)* @PageUptodate, { 1, 0 } uselistorder i64 (i64, i64)* @set_page_extent_head, { 1, 0 } uselistorder i64 (i64)* @set_page_extent_mapped, { 1, 0 } uselistorder i64 1, { 7, 0, 3, 8, 9, 4, 5, 1, 10, 6, 2 } uselistorder i64 (i64)* @mark_page_accessed, { 2, 1, 0 } uselistorder i64 (i64)* @spin_unlock, { 3, 2, 1, 0 } uselistorder i64 (i64)* @atomic_inc, { 2, 1, 0 } uselistorder i64 (i64)* @spin_lock, { 1, 0 } uselistorder i64 %arg4, { 4, 3, 2, 1, 0, 6, 5 } uselistorder i64 %arg3, { 1, 0, 2, 3 } uselistorder i64 %arg2, { 1, 2, 0, 3, 4, 5 } uselistorder label LBL_22, { 2, 0, 3, 1, 4 } uselistorder label LBL_20, { 1, 0 } uselistorder label LBL_7, { 1, 0 } }
1
BinRealVul
qemu_shutdown_requested_2161
qemu_shutdown_requested
define i64 @FUNC() local_unnamed_addr { LBL_0: %0 = call i64 @FUNC(i64* nonnull @gv_0, i64 0) ret i64 %0 }
0
BinRealVul
vp8_peek_si_internal_13370
vp8_peek_si_internal
define i64 @FUNC(i64* %arg1, i32 %arg2, i64* %arg3, i64 %arg4, i64 %arg5) local_unnamed_addr { LBL_0: %storemerge.reg2mem = alloca i64 %sv_0 = alloca i64, align 8 %0 = icmp eq i32 %arg2, 0 %1 = icmp eq i1 %0, false store i64 1, i64* %storemerge.reg2mem br i1 %1, label LBL_1, label LBL_9 LBL_1: %2 = bitcast i64* %arg3 to i32* store i32 0, i32* %2, align 4 %3 = icmp ult i32 %arg2, 10 store i64 2, i64* %storemerge.reg2mem br i1 %3, label LBL_9, label LBL_2 LBL_2: %4 = icmp eq i64 %arg4, 0 %spec.select = select i1 %4, i64* %arg1, i64* %sv_0 %5 = bitcast i64* %spec.select to i8* %6 = load i8, i8* %5, align 1 %7 = urem i8 %6, 2 %8 = icmp eq i8 %7, 0 %9 = icmp eq i1 %8, false store i64 2, i64* %storemerge.reg2mem br i1 %9, label LBL_9, label LBL_3 LBL_3: %sv_1.0 = ptrtoint i64* %spec.select to i64 store i32 1, i32* %2, align 4 %10 = add i64 %sv_1.0, 3 %11 = inttoptr i64 %10 to i8* %12 = load i8, i8* %11, align 1 %13 = icmp eq i8 %12, -99 %14 = icmp eq i1 %13, false store i64 2, i64* %storemerge.reg2mem br i1 %14, label LBL_9, label LBL_4 LBL_4: %15 = add i64 %sv_1.0, 4 %16 = inttoptr i64 %15 to i8* %17 = load i8, i8* %16, align 1 %18 = icmp eq i8 %17, 1 %19 = icmp eq i1 %18, false store i64 2, i64* %storemerge.reg2mem br i1 %19, label LBL_9, label LBL_5 LBL_5: %20 = add i64 %sv_1.0, 5 %21 = inttoptr i64 %20 to i8* %22 = load i8, i8* %21, align 1 %23 = icmp eq i8 %22, 42 store i64 2, i64* %storemerge.reg2mem br i1 %23, label LBL_6, label LBL_9 LBL_6: %24 = ptrtoint i64* %arg3 to i64 %25 = add i64 %sv_1.0, 6 %26 = inttoptr i64 %25 to i8* %27 = load i8, i8* %26, align 1 %28 = add i64 %sv_1.0, 7 %29 = inttoptr i64 %28 to i8* %30 = load i8, i8* %29, align 1 %31 = zext i8 %30 to i32 %32 = mul i32 %31, 256 %33 = zext i8 %27 to i32 %.masked = and i32 %32, 16128 %34 = or i32 %.masked, %33 %35 = add i64 %24, 4 %36 = inttoptr i64 %35 to i32* store i32 %34, i32* %36, align 4 %37 = add i64 %sv_1.0, 8 %38 = inttoptr i64 %37 to i8* %39 = load i8, i8* %38, align 1 %40 = add i64 %sv_1.0, 9 %41 = inttoptr i64 %40 to i8* %42 = load i8, i8* %41, align 1 %43 = zext i8 %42 to i32 %44 = mul i32 %43, 256 %45 = zext i8 %39 to i32 %.masked1 = and i32 %44, 16128 %46 = or i32 %.masked1, %45 %47 = add i64 %24, 8 %48 = inttoptr i64 %47 to i32* store i32 %46, i32* %48, align 4 %49 = icmp eq i32 %46, 0 br i1 %49, label LBL_8, label LBL_7 LBL_7: %50 = load i32, i32* %36, align 4 %51 = icmp eq i32 %50, 0 %52 = icmp eq i1 %51, false store i64 0, i64* %storemerge.reg2mem br i1 %52, label LBL_9, label LBL_8 LBL_8: store i64 3, i64* %storemerge.reg2mem br label LBL_9 LBL_9: %storemerge.reload = load i64, i64* %storemerge.reg2mem ret i64 %storemerge.reload uselistorder i64 %sv_1.0, { 5, 6, 1, 0, 2, 3, 4 } uselistorder i64* %storemerge.reg2mem, { 0, 5, 4, 8, 7, 6, 2, 1, 3 } uselistorder i64 2, { 4, 3, 2, 1, 0 } uselistorder i64* %arg3, { 1, 0 } uselistorder label LBL_9, { 0, 1, 7, 6, 5, 3, 4, 2 } }
0
BinRealVul
arm_sysctl_init_16347
arm_sysctl_init
define i64 @FUNC(i64 %arg1, i64 %arg2) local_unnamed_addr { LBL_0: %rax.0.reg2mem = alloca i64 %0 = call i64 @FUNC(i64 8) %1 = icmp eq i64 %0, 0 store i64 0, i64* %rax.0.reg2mem br i1 %1, label LBL_2, label LBL_1 LBL_1: %sext = mul i64 %arg1, 4294967296 %2 = ashr exact i64 %sext, 32 %3 = inttoptr i64 %0 to i32* %4 = trunc i64 %2 to i32 store i32 %4, i32* %3, align 4 %5 = trunc i64 %arg2 to i32 %6 = add i64 %0, 4 %7 = inttoptr i64 %6 to i32* store i32 %5, i32* %7, align 4 %8 = load i64, i64* @gv_0, align 8 %9 = load i64, i64* @gv_1, align 8 %10 = call i64 @FUNC(i64 0, i64 %9, i64 %8, i64 %0) %11 = trunc i64 %10 to i32 %12 = and i64 %2, 4294967295 %13 = call i64 @FUNC(i64 %12, i64 4095, i32 %11) store i64 %13, i64* %rax.0.reg2mem br label LBL_2 LBL_2: %rax.0.reload = load i64, i64* %rax.0.reg2mem ret i64 %rax.0.reload uselistorder i32 1, { 1, 0 } uselistorder label LBL_2, { 1, 0 } }
1
BinRealVul
pts_test_send_authentication_complete_failure_10615
pts_test_send_authentication_complete_failure
define i64 @FUNC(i8* %arg1) local_unnamed_addr { LBL_0: %0 = alloca i64 %storemerge.reg2mem = alloca i64 %1 = load i64, i64* %0 %sv_0 = alloca i8, align 1 %2 = trunc i64 %1 to i8 %3 = add i8 %2, -1 %4 = icmp ugt i8 %3, 3 %5 = icmp eq i8 %2, 5 %6 = icmp eq i1 %5, false %or.cond = icmp eq i1 %4, %6 store i64 0, i64* %storemerge.reg2mem br i1 %or.cond, label LBL_2, label LBL_1 LBL_1: store i8 %2, i8* %sv_0, align 1 %7 = ptrtoint i8* %arg1 to i64 %8 = call i64 @FUNC(i64 %7, i64 6, i8* nonnull %sv_0) store i64 1, i64* %storemerge.reg2mem br label LBL_2 LBL_2: %storemerge.reload = load i64, i64* %storemerge.reg2mem ret i64 %storemerge.reload uselistorder i8 %2, { 0, 2, 1 } uselistorder i64* %storemerge.reg2mem, { 0, 2, 1 } uselistorder label LBL_2, { 1, 0 } }
0
BinRealVul
vu_message_read_14522
vu_message_read
define i64 @FUNC(i32* %arg1, i64 %arg2, i64* %arg3) local_unnamed_addr { LBL_0: %0 = alloca i64 %.lcssa.reg2mem = alloca i1 %.lcssa5.reg2mem = alloca i32 %.reg2mem49 = alloca i32 %storemerge19.reg2mem = alloca %cmsghdr* %.lcssa9.reg2mem = alloca i1 %.lcssa10.reg2mem = alloca i32 %.reg2mem = alloca i32 %1 = load i64, i64* %0 %2 = load i64, i64* %0 %sv_0 = alloca i64, align 8 %sv_1 = alloca i64, align 8 store i64 0, i64* %sv_1, align 8 store i64 0, i64* %sv_0, align 8 %3 = trunc i64 %arg2 to i32 %4 = bitcast i64* %sv_0 to %msghdr* %5 = call i32 @recvmsg(i32 %3, %msghdr* nonnull %4, i32 0) %6 = icmp slt i32 %5, 0 %7 = icmp eq i1 %6, false store i32 %5, i32* %.reg2mem store i32 %5, i32* %.lcssa10.reg2mem store i1 true, i1* %.lcssa9.reg2mem br i1 %7, label LBL_4, label LBL_1 LBL_1: %8 = call i32* @__errno_location() %9 = load i32, i32* %8, align 4 %10 = icmp eq i32 %9, 4 br i1 %10, label LBL_2, label LBL_3 LBL_2: %11 = call i32 @recvmsg(i32 %3, %msghdr* nonnull %4, i32 0) %12 = icmp slt i32 %11, 0 %13 = icmp eq i1 %12, false store i32 %11, i32* %.reg2mem store i32 %11, i32* %.lcssa10.reg2mem store i1 true, i1* %.lcssa9.reg2mem br i1 %13, label LBL_4, label LBL_1 LBL_3: %.reload = load i32, i32* %.reg2mem %14 = call i32* @__errno_location() %15 = load i32, i32* %14, align 4 %16 = icmp eq i32 %15, 11 store i32 %.reload, i32* %.lcssa10.reg2mem store i1 false, i1* %.lcssa9.reg2mem br i1 %16, label LBL_2, label LBL_4 LBL_4: %.lcssa9.reload = load i1, i1* %.lcssa9.reg2mem %.lcssa10.reload = load i32, i32* %.lcssa10.reg2mem %17 = icmp eq i32 %.lcssa10.reload, 0 %18 = icmp eq i1 %17, false %19 = icmp eq i1 %.lcssa9.reload, %18 br i1 %19, label LBL_6, label LBL_5 LBL_5: %20 = ptrtoint i64* %sv_0 to i64 %21 = call i32* @__errno_location() %22 = load i32, i32* %21, align 4 %23 = call i8* @strerror(i32 %22) %24 = ptrtoint i8* %23 to i64 %25 = ptrtoint i32* %arg1 to i64 %26 = call i64 @FUNC(i64 %25, i8* getelementptr inbounds ([24 x i8], [24 x i8]* @gv_0, i64 0, i64 0), i64 %24, i64 %20, i64 %2, i64 %1) unreachable LBL_6: %27 = ptrtoint i64* %arg3 to i64 %28 = bitcast i64* %arg3 to i32* store i32 0, i32* %28, align 4 %29 = bitcast i64* %sv_1 to %cmsghdr* store %cmsghdr* %29, %cmsghdr** %storemerge19.reg2mem br label LBL_7 LBL_7: %storemerge19.reload = load %cmsghdr*, %cmsghdr** %storemerge19.reg2mem %30 = ptrtoint %cmsghdr* %storemerge19.reload to i64 %31 = add i64 %30, 8 %32 = inttoptr i64 %31 to i32* %33 = load i32, i32* %32, align 4 %34 = icmp eq i32 %33, 1 %35 = icmp eq i1 %34, false br i1 %35, label LBL_10, label LBL_8 LBL_8: %36 = add i64 %30, 12 %37 = inttoptr i64 %36 to i32* %38 = load i32, i32* %37, align 4 %39 = icmp eq i32 %38, 1 %40 = icmp eq i1 %39, false br i1 %40, label LBL_10, label LBL_9 LBL_9: %41 = bitcast %cmsghdr* %storemerge19.reload to i64* %42 = load i64, i64* %41, align 8 %43 = add i64 %42, -16 %44 = udiv i64 %43, 4 %45 = trunc i64 %44 to i32 store i32 %45, i32* %28, align 4 %46 = add i64 %30, 16 %47 = add i64 %27, 4 %48 = inttoptr i64 %47 to i64* %49 = inttoptr i64 %46 to i64* %50 = trunc i64 %43 to i32 %51 = call i64* @memcpy(i64* %48, i64* %49, i32 %50) br label LBL_11 LBL_10: %52 = call %cmsghdr* @__cmsg_nxthdr(%msghdr* nonnull %4, %cmsghdr* %storemerge19.reload) %53 = icmp eq %cmsghdr* %52, null %54 = icmp eq i1 %53, false store %cmsghdr* %52, %cmsghdr** %storemerge19.reg2mem br i1 %54, label LBL_7, label LBL_11 LBL_11: %55 = add i64 %27, 72 %56 = inttoptr i64 %55 to i64* %57 = load i64, i64* %56, align 8 %58 = icmp ult i64 %57, 257 br i1 %58, label LBL_13, label LBL_12 LBL_12: %59 = add i64 %27, 336 %60 = inttoptr i64 %59 to i32* %61 = load i32, i32* %60, align 4 %62 = zext i32 %61 to i64 %63 = ptrtoint i32* %arg1 to i64 %64 = call i64 @FUNC(i64 %63, i8* getelementptr inbounds ([93 x i8], [93 x i8]* @gv_1, i64 0, i64 0), i64 %62, i64 %57, i64 256, i64 %1) unreachable LBL_13: %65 = icmp eq i64 %57, 0 br i1 %65, label LBL_22, label LBL_14 LBL_14: %66 = add i64 %27, 80 %67 = inttoptr i64 %66 to i64* %68 = trunc i64 %57 to i32 %69 = call i32 @read(i32 %3, i64* %67, i32 %68) %70 = icmp slt i32 %69, 0 %71 = icmp eq i1 %70, false store i32 %69, i32* %.reg2mem49 store i32 %69, i32* %.lcssa5.reg2mem store i1 true, i1* %.lcssa.reg2mem br i1 %71, label LBL_18, label LBL_15 LBL_15: %72 = call i32* @__errno_location() %73 = load i32, i32* %72, align 4 %74 = icmp eq i32 %73, 4 br i1 %74, label LBL_16, label LBL_17 LBL_16: %75 = load i64, i64* %56, align 8 %76 = trunc i64 %75 to i32 %77 = call i32 @read(i32 %3, i64* %67, i32 %76) %78 = icmp slt i32 %77, 0 %79 = icmp eq i1 %78, false store i32 %77, i32* %.reg2mem49 store i32 %77, i32* %.lcssa5.reg2mem store i1 true, i1* %.lcssa.reg2mem br i1 %79, label LBL_18, label LBL_15 LBL_17: %.reload50 = load i32, i32* %.reg2mem49 %80 = call i32* @__errno_location() %81 = load i32, i32* %80, align 4 %82 = icmp eq i32 %81, 11 store i32 %.reload50, i32* %.lcssa5.reg2mem store i1 false, i1* %.lcssa.reg2mem br i1 %82, label LBL_16, label LBL_18 LBL_18: %.lcssa.reload = load i1, i1* %.lcssa.reg2mem %.lcssa5.reload = load i32, i32* %.lcssa5.reg2mem %83 = icmp eq i32 %.lcssa5.reload, 0 %84 = icmp eq i1 %83, false %85 = icmp eq i1 %.lcssa.reload, %84 br i1 %85, label LBL_20, label LBL_19 LBL_19: %86 = call i32* @__errno_location() %87 = load i32, i32* %86, align 4 %88 = call i8* @strerror(i32 %87) %89 = ptrtoint i8* %88 to i64 %90 = ptrtoint i32* %arg1 to i64 %91 = call i64 @FUNC(i64 %90, i8* getelementptr inbounds ([24 x i8], [24 x i8]* @gv_2, i64 0, i64 0), i64 %89, i64 %66, i64 %2, i64 %1) unreachable LBL_20: %92 = sext i32 %.lcssa5.reload to i64 %93 = load i64, i64* %56, align 8 %94 = icmp eq i64 %93, %92 br i1 %94, label LBL_22, label LBL_21 LBL_21: call void @__assert_fail(i8* getelementptr inbounds ([17 x i8], [17 x i8]* @gv_3, i64 0, i64 0), i8* getelementptr inbounds ([49 x i8], [49 x i8]* @gv_4, i64 0, i64 0), i32 84, i8* getelementptr inbounds ([16 x i8], [16 x i8]* @gv_5, i64 0, i64 0)) br label LBL_22 LBL_22: ret i64 1 uselistorder i32 %.lcssa5.reload, { 1, 0 } uselistorder i64* %67, { 1, 0 } uselistorder i64 %43, { 1, 0 } uselistorder %cmsghdr* %storemerge19.reload, { 1, 2, 0 } uselistorder i64 %27, { 0, 2, 1, 3 } uselistorder %msghdr* %4, { 0, 2, 1 } uselistorder i32 %3, { 0, 1, 3, 2 } uselistorder i64* %sv_0, { 1, 0, 2 } uselistorder i64 %2, { 1, 0 } uselistorder i64 %1, { 2, 1, 0 } uselistorder i32* %.reg2mem, { 0, 2, 1 } uselistorder %cmsghdr** %storemerge19.reg2mem, { 1, 0, 2 } uselistorder i32* %.reg2mem49, { 0, 2, 1 } uselistorder i64* %0, { 1, 0 } uselistorder i32 (i32, i64*, i32)* @read, { 1, 0 } uselistorder i64 4, { 2, 1, 0, 3 } uselistorder i64 (i64, i8*, i64, i64, i64, i64)* @vu_panic, { 2, 1, 0 } uselistorder i8* (i32)* @strerror, { 1, 0 } uselistorder i32* ()* @__errno_location, { 3, 4, 5, 0, 1, 2 } uselistorder i32 (i32, %msghdr*, i32)* @recvmsg, { 1, 0 } uselistorder i32* %arg1, { 2, 1, 0 } uselistorder label LBL_18, { 1, 0, 2 } uselistorder label LBL_16, { 1, 0 } uselistorder label LBL_15, { 1, 0 } uselistorder label LBL_7, { 1, 0 } uselistorder label LBL_4, { 1, 0, 2 } uselistorder label LBL_2, { 1, 0 } uselistorder label LBL_1, { 1, 0 } }
1
BinRealVul
_XcursorThemeInherits_11645
_XcursorThemeInherits
define i64 @FUNC(i64 %arg1) local_unnamed_addr { LBL_0: %storemerge.reg2mem = alloca i64 %sv_0.0.reg2mem = alloca i64 %sv_1.1.lcssa.reg2mem = alloca i8* %sv_2.27.reg2mem = alloca i8* %sv_1.18.reg2mem = alloca i8* %.reg2mem16 = alloca i8 %sv_1.0.reg2mem = alloca i8* %sv_2.1.reg2mem = alloca i8* %.reg2mem14 = alloca i8 %sv_1.0.ph.in.in.in.reg2mem = alloca i8* %sv_2.1.ph.reg2mem = alloca i8* %sv_2.0.reg2mem = alloca i8* %.reg2mem = alloca i8 %storemerge4.in.in.in.reg2mem = alloca i8* %storemerge5.reg2mem = alloca i8* %sv_3 = alloca i64, align 8 %sv_4 = alloca i64, align 8 %0 = icmp eq i64 %arg1, 0 %1 = icmp eq i1 %0, false store i64 0, i64* %storemerge.reg2mem br i1 %1, label LBL_1, label LBL_26 LBL_1: %2 = inttoptr i64 %arg1 to i8* %3 = call %_IO_FILE* @fopen(i8* %2, i8* getelementptr inbounds ([2 x i8], [2 x i8]* @gv_0, i64 0, i64 0)) %4 = icmp eq %_IO_FILE* %3, null store i64 0, i64* %storemerge.reg2mem br i1 %4, label LBL_26, label LBL_2 LBL_2: %5 = bitcast i64* %sv_4 to i8* %6 = call i8* @fgets(i8* nonnull %5, i32 8192, %_IO_FILE* nonnull %3) %7 = icmp eq i8* %6, null %8 = icmp eq i1 %7, false store i64 0, i64* %sv_0.0.reg2mem br i1 %8, label LBL_3, label LBL_25 LBL_3: %9 = bitcast i64* %sv_3 to i8* br label LBL_4 LBL_4: %10 = call i32 @strncmp(i8* nonnull %5, i8* getelementptr inbounds ([9 x i8], [9 x i8]* @gv_1, i64 0, i64 0), i32 8) %11 = icmp eq i32 %10, 0 %12 = icmp eq i1 %11, false store i8* %9, i8** %storemerge5.reg2mem br i1 %12, label LBL_5, label LBL_7 LBL_5: %13 = call i8* @fgets(i8* nonnull %5, i32 8192, %_IO_FILE* nonnull %3) %14 = icmp eq i8* %13, null %15 = icmp eq i1 %14, false store i64 0, i64* %sv_0.0.reg2mem br i1 %15, label LBL_4, label LBL_25 LBL_6: %16 = ptrtoint i8* %storemerge5.reload to i64 %17 = add i64 %16, 1 %18 = inttoptr i64 %17 to i8* store i8* %18, i8** %storemerge5.reg2mem br label LBL_7 LBL_7: %storemerge5.reload = load i8*, i8** %storemerge5.reg2mem %19 = load i8, i8* %storemerge5.reload, align 1 store i8* %storemerge5.reload, i8** %storemerge4.in.in.in.reg2mem switch i8 %19, label LBL_5 [ i8 32, label LBL_6 i8 61, label LBL_8 ] LBL_8: %storemerge4.in.in.in.reload = load i8*, i8** %storemerge4.in.in.in.reg2mem %storemerge4.in.in = ptrtoint i8* %storemerge4.in.in.in.reload to i64 %storemerge4.in = add i64 %storemerge4.in.in, 1 %storemerge4 = inttoptr i64 %storemerge4.in to i8* %20 = load i8, i8* %storemerge4, align 1 %21 = icmp eq i8 %20, 32 store i8* %storemerge4, i8** %storemerge4.in.in.in.reg2mem br i1 %21, label LBL_8, label LBL_9 LBL_9: %22 = call i32 @strlen(i8* %storemerge4) %23 = call i64* @malloc(i32 %22) %24 = ptrtoint i64* %23 to i64 %25 = icmp eq i64* %23, null store i64 %24, i64* %sv_0.0.reg2mem br i1 %25, label LBL_25, label LBL_10 LBL_10: %26 = bitcast i64* %23 to i8* %27 = load i8, i8* %storemerge4, align 1 %28 = icmp eq i8 %27, 0 %29 = icmp eq i1 %28, false store i8 %27, i8* %.reg2mem16 store i8* %26, i8** %sv_1.18.reg2mem store i8* %storemerge4, i8** %sv_2.27.reg2mem store i8* %26, i8** %sv_1.1.lcssa.reg2mem br i1 %29, label LBL_12.preheader, label LBL_24 LBL_11: %30 = ptrtoint i8* %sv_2.0.reload to i64 %31 = add i64 %30, 1 %32 = inttoptr i64 %31 to i8* %.pre = load i8, i8* %32, align 1 store i8 %.pre, i8* %.reg2mem store i8* %32, i8** %sv_2.0.reg2mem br label LBL_12 LBL_12: %sv_2.0.reload = load i8*, i8** %sv_2.0.reg2mem %.reload = load i8, i8* %.reg2mem %33 = sext i8 %.reload to i64 %34 = and i64 %33, 4294967295 %35 = call i64 @FUNC(i64 %34) %36 = trunc i64 %35 to i32 %37 = icmp eq i32 %36, 0 %38 = icmp eq i1 %37, false br i1 %38, label LBL_11, label LBL_13 LBL_13: %39 = load i8, i8* %sv_2.0.reload, align 1 %40 = sext i8 %39 to i64 %41 = and i64 %40, 4294967295 %42 = call i64 @FUNC(i64 %41) %43 = trunc i64 %42 to i32 %44 = icmp eq i32 %43, 0 %45 = icmp eq i1 %44, false br i1 %45, label LBL_11, label LBL_14 LBL_14: %46 = load i8, i8* %sv_2.0.reload, align 1 %47 = icmp eq i8 %46, 0 store i8* %sv_1.18.reload, i8** %sv_1.1.lcssa.reg2mem br i1 %47, label LBL_24, label LBL_15 LBL_15: %48 = bitcast i8* %sv_1.18.reload to i64* %49 = icmp eq i64* %23, %48 store i8 %46, i8* %.reg2mem14 store i8* %sv_2.0.reload, i8** %sv_2.1.reg2mem store i8* %sv_1.18.reload, i8** %sv_1.0.reg2mem br i1 %49, label LBL_19, label LBL_16 LBL_16: store i8 58, i8* %sv_1.18.reload, align 1 store i8* %sv_2.0.reload, i8** %sv_2.1.ph.reg2mem store i8* %sv_1.18.reload, i8** %sv_1.0.ph.in.in.in.reg2mem br label LBL_18 LBL_17: %50 = ptrtoint i8* %sv_2.1.reload to i64 %51 = add i64 %50, 1 %52 = inttoptr i64 %51 to i8* %53 = load i8, i8* %sv_2.1.reload, align 1 store i8 %53, i8* %sv_1.0.reload, align 1 store i8* %52, i8** %sv_2.1.ph.reg2mem store i8* %sv_1.0.reload, i8** %sv_1.0.ph.in.in.in.reg2mem br label LBL_18 LBL_18: %sv_1.0.ph.in.in.in.reload = load i8*, i8** %sv_1.0.ph.in.in.in.reg2mem %sv_2.1.ph.reload = load i8*, i8** %sv_2.1.ph.reg2mem %sv_1.0.ph.in.in = ptrtoint i8* %sv_1.0.ph.in.in.in.reload to i64 %sv_1.0.ph.in = add i64 %sv_1.0.ph.in.in, 1 %sv_1.0.ph = inttoptr i64 %sv_1.0.ph.in to i8* %.pr = load i8, i8* %sv_2.1.ph.reload, align 1 store i8 %.pr, i8* %.reg2mem14 store i8* %sv_2.1.ph.reload, i8** %sv_2.1.reg2mem store i8* %sv_1.0.ph, i8** %sv_1.0.reg2mem br label LBL_19 LBL_19: %sv_1.0.reload = load i8*, i8** %sv_1.0.reg2mem %sv_2.1.reload = load i8*, i8** %sv_2.1.reg2mem %.reload15 = load i8, i8* %.reg2mem14 %54 = icmp eq i8 %.reload15, 0 br i1 %54, label LBL_20, label LBL_21 LBL_20: %55 = load i8, i8* %sv_2.1.reload, align 1 %56 = icmp eq i8 %55, 0 %57 = icmp eq i1 %56, false store i8 %55, i8* %.reg2mem16 store i8* %sv_1.0.reload, i8** %sv_1.18.reg2mem store i8* %sv_2.1.reload, i8** %sv_2.27.reg2mem store i8* %sv_1.0.reload, i8** %sv_1.1.lcssa.reg2mem br i1 %57, label LBL_12.preheader, label LBL_24 LBL_21: %58 = sext i8 %.reload15 to i64 %59 = and i64 %58, 4294967295 %60 = call i64 @FUNC(i64 %59) %61 = trunc i64 %60 to i32 %62 = icmp eq i32 %61, 0 %63 = icmp eq i1 %62, false br i1 %63, label LBL_20, label LBL_22 LBL_22: %64 = load i8, i8* %sv_2.1.reload, align 1 %65 = sext i8 %64 to i64 %66 = and i64 %65, 4294967295 %67 = call i64 @FUNC(i64 %66) %68 = trunc i64 %67 to i32 %69 = icmp eq i32 %68, 0 br i1 %69, label LBL_17, label LBL_20 LBL_23: %sv_2.27.reload = load i8*, i8** %sv_2.27.reg2mem %sv_1.18.reload = load i8*, i8** %sv_1.18.reg2mem %.reload17 = load i8, i8* %.reg2mem16 store i8 %.reload17, i8* %.reg2mem store i8* %sv_2.27.reload, i8** %sv_2.0.reg2mem br label LBL_12 LBL_24: %sv_1.1.lcssa.reload = load i8*, i8** %sv_1.1.lcssa.reg2mem store i8 0, i8* %sv_1.1.lcssa.reload, align 1 store i64 %24, i64* %sv_0.0.reg2mem br label LBL_25 LBL_25: %sv_0.0.reload = load i64, i64* %sv_0.0.reg2mem %70 = call i32 @fclose(%_IO_FILE* nonnull %3) store i64 %sv_0.0.reload, i64* %storemerge.reg2mem br label LBL_26 LBL_26: %storemerge.reload = load i64, i64* %storemerge.reg2mem ret i64 %storemerge.reload uselistorder i8* %sv_1.18.reload, { 0, 1, 4, 2, 3 } uselistorder i8* %sv_2.1.reload, { 1, 0, 4, 3, 2 } uselistorder i8* %sv_2.0.reload, { 1, 0, 4, 3, 2 } uselistorder i8* %storemerge4, { 0, 3, 2, 1, 4 } uselistorder i8* %5, { 2, 1, 0 } uselistorder %_IO_FILE* %3, { 1, 2, 0, 3 } uselistorder i8** %storemerge5.reg2mem, { 0, 2, 1 } uselistorder i8** %storemerge4.in.in.in.reg2mem, { 2, 0, 1 } uselistorder i8* %.reg2mem, { 1, 0, 2 } uselistorder i8** %sv_2.0.reg2mem, { 1, 0, 2 } uselistorder i8* %.reg2mem14, { 0, 2, 1 } uselistorder i8** %sv_2.1.reg2mem, { 0, 2, 1 } uselistorder i8** %sv_1.0.reg2mem, { 0, 2, 1 } uselistorder i8* %.reg2mem16, { 0, 2, 1 } uselistorder i8** %sv_1.18.reg2mem, { 0, 2, 1 } uselistorder i8** %sv_2.27.reg2mem, { 0, 2, 1 } uselistorder i8** %sv_1.1.lcssa.reg2mem, { 0, 2, 1, 3 } uselistorder i64* %sv_0.0.reg2mem, { 0, 3, 4, 1, 2 } uselistorder i8 58, { 1, 0 } uselistorder i64 (i64)* @XcursorWhite, { 1, 0 } uselistorder i64 (i64)* @XcursorSep, { 1, 0 } uselistorder i8 0, { 2, 5, 3, 4, 0, 1 } uselistorder i8 32, { 2, 1, 0 } uselistorder i8* null, { 1, 0 } uselistorder i8* (i8*, i32, %_IO_FILE*)* @fgets, { 1, 0 } uselistorder i32 8192, { 1, 0 } uselistorder i1 false, { 2, 5, 3, 4, 1, 7, 6, 0, 8 } uselistorder label LBL_26, { 1, 0, 2 } uselistorder label LBL_25, { 3, 2, 0, 1 } uselistorder label LBL_12.preheader, { 1, 0 } uselistorder label LBL_20, { 2, 1, 0 } uselistorder label LBL_18, { 1, 0 } uselistorder label LBL_8, { 1, 0 } uselistorder label LBL_7, { 1, 0 } uselistorder label LBL_4, { 1, 0 } }
1
BinRealVul
_process_request_metaflags_12846
_process_request_metaflags
define i64 @FUNC(i64* %arg1, i64 %arg2) local_unnamed_addr { LBL_0: %0 = alloca i64 %rax.0.reg2mem = alloca i64 %rdi.0.ph8.reg2mem = alloca i64 %rcx.0.ph7.reg2mem = alloca i64 %sv_0.1.ph6.reg2mem = alloca i32 %rdi.0.ph.reg2mem = alloca i64 %rcx.0.ph.reg2mem = alloca i64 %sv_0.1.ph.reg2mem = alloca i32 %sv_1.1.ph.reg2mem = alloca i8* %sv_0.1.ph.be.reg2mem = alloca i32 %sv_1.1.ph.be.reg2mem = alloca i8* %1 = load i64, i64* %0 %2 = load i64, i64* %0 %3 = ptrtoint i64* %arg1 to i64 %sext = mul i64 %arg2, 4294967296 %4 = ashr exact i64 %sext, 32 %5 = add i64 %3, 24 %6 = inttoptr i64 %5 to i32* %7 = load i32, i32* %6, align 4 %8 = zext i32 %7 to i64 %9 = icmp slt i64 %4, %8 br i1 %9, label LBL_2, label LBL_1 LBL_1: store i64 0, i64* %arg1, align 8 store i64 0, i64* %rax.0.reg2mem br label LBL_15 LBL_2: %10 = add i64 %3, 8 %11 = inttoptr i64 %10 to i64* %12 = load i64, i64* %11, align 8 %13 = add i64 %3, 16 %14 = inttoptr i64 %13 to i64* %15 = load i64, i64* %14, align 8 %16 = ashr exact i64 %sext, 30 %17 = add i64 %15, %16 %18 = inttoptr i64 %17 to i32* %19 = load i32, i32* %18, align 4 %20 = sext i32 %19 to i64 %21 = add i64 %12, %20 %22 = inttoptr i64 %21 to i8* %23 = add i64 %3, 28 %24 = inttoptr i64 %23 to i32* %25 = load i32, i32* %24, align 4 %26 = sext i32 %25 to i64 %27 = add i64 %12, -2 %28 = add i64 %27, %26 store i8* %22, i8** %sv_1.1.ph.reg2mem store i32 0, i32* %sv_0.1.ph.reg2mem store i64 %15, i64* %rcx.0.ph.reg2mem store i64 %3, i64* %rdi.0.ph.reg2mem br label LBL_10 LBL_3: switch i32 %sv_0.1.ph6.reload, label LBL_12 [ i32 0, label LBL_4 i32 1, label LBL_9 ] LBL_4: %29 = load i8, i8* %sv_1.1.ph.reload, align 1 %30 = icmp eq i8 %29, 32 %31 = icmp eq i1 %30, false br i1 %31, label LBL_7, label LBL_5 LBL_5: %32 = add i64 %50, 1 %33 = inttoptr i64 %32 to i8* store i8* %33, i8** %sv_1.1.ph.be.reg2mem store i32 0, i32* %sv_0.1.ph.be.reg2mem br label LBL_6 LBL_6: %sv_0.1.ph.be.reload = load i32, i32* %sv_0.1.ph.be.reg2mem %sv_1.1.ph.be.reload = load i8*, i8** %sv_1.1.ph.be.reg2mem store i8* %sv_1.1.ph.be.reload, i8** %sv_1.1.ph.reg2mem store i32 %sv_0.1.ph.be.reload, i32* %sv_0.1.ph.reg2mem store i64 %rcx.0.ph7.reload, i64* %rcx.0.ph.reg2mem store i64 %rdi.0.ph8.reload, i64* %rdi.0.ph.reg2mem br label LBL_10 LBL_7: %.off = add i8 %29, -65 %34 = icmp ult i8 %.off, 58 store i64 4294967295, i64* %rax.0.reg2mem br i1 %34, label LBL_8, label LBL_15 LBL_8: %35 = sext i8 %29 to i64 %36 = add nsw i64 %35, 4294967231 %37 = and i64 %36, 4294967295 %38 = call i64 @FUNC(i8* getelementptr inbounds ([27 x i8], [27 x i8]* @gv_0, i64 0, i64 0), i8* getelementptr inbounds ([27 x i8], [27 x i8]* @gv_1, i64 0, i64 0), i64 %37, i64 %rcx.0.ph7.reload, i64 %2, i64 %1) %39 = load i8, i8* %sv_1.1.ph.reload, align 1 %40 = sext i8 %39 to i64 %41 = add nsw i64 %40, 4294967231 %42 = and i64 %41, 4294967295 %43 = urem i64 %41, 64 %44 = shl i64 1, %43 %45 = or i64 %44, ptrtoint ([27 x i8]* @gv_0 to i64) store i64 %45, i64* %arg1, align 8 store i32 1, i32* %sv_0.1.ph6.reg2mem store i64 %42, i64* %rcx.0.ph7.reg2mem store i64 ptrtoint ([27 x i8]* @gv_0 to i64), i64* %rdi.0.ph8.reg2mem br label LBL_105 LBL_9: %46 = load i8, i8* %sv_1.1.ph.reload, align 1 %47 = icmp eq i8 %46, 32 %48 = add i64 %50, 1 %49 = inttoptr i64 %48 to i8* %sv_1.0 = select i1 %47, i8* %sv_1.1.ph.reload, i8* %49 %not. = icmp ne i1 %47, true %sv_0.0 = zext i1 %not. to i32 store i8* %sv_1.0, i8** %sv_1.1.ph.be.reg2mem store i32 %sv_0.0, i32* %sv_0.1.ph.be.reg2mem br label LBL_6 LBL_10: %rdi.0.ph.reload = load i64, i64* %rdi.0.ph.reg2mem %rcx.0.ph.reload = load i64, i64* %rcx.0.ph.reg2mem %sv_0.1.ph.reload = load i32, i32* %sv_0.1.ph.reg2mem %sv_1.1.ph.reload = load i8*, i8** %sv_1.1.ph.reg2mem %50 = ptrtoint i8* %sv_1.1.ph.reload to i64 %51 = icmp eq i64 %28, %50 %52 = icmp eq i1 %51, false store i32 %sv_0.1.ph.reload, i32* %sv_0.1.ph6.reg2mem store i64 %rcx.0.ph.reload, i64* %rcx.0.ph7.reg2mem store i64 %rdi.0.ph.reload, i64* %rdi.0.ph8.reg2mem br label LBL_105 LBL_11: %rdi.0.ph8.reload = load i64, i64* %rdi.0.ph8.reg2mem %rcx.0.ph7.reload = load i64, i64* %rcx.0.ph7.reg2mem %sv_0.1.ph6.reload = load i32, i32* %sv_0.1.ph6.reg2mem br label LBL_12 LBL_12: br i1 %52, label LBL_3, label LBL_13 LBL_13: %53 = urem i64 %rdi.0.ph8.reload, 281474976710657 %54 = icmp eq i64 %53, 0 store i64 0, i64* %rax.0.reg2mem br i1 %54, label LBL_15, label LBL_14 LBL_14: %55 = add i64 %3, 32 %56 = inttoptr i64 %55 to i8* store i8 1, i8* %56, align 1 store i64 0, i64* %rax.0.reg2mem br label LBL_15 LBL_15: %rax.0.reload = load i64, i64* %rax.0.reg2mem ret i64 %rax.0.reload uselistorder i64 %rcx.0.ph7.reload, { 1, 0 } uselistorder i64 %50, { 2, 0, 1 } uselistorder i8* %sv_1.1.ph.reload, { 2, 3, 1, 4, 0 } uselistorder i8 %29, { 1, 0, 2 } uselistorder i64 %12, { 1, 0 } uselistorder i64 %sext, { 1, 0 } uselistorder i64 %3, { 1, 0, 2, 4, 3, 5 } uselistorder i8** %sv_1.1.ph.be.reg2mem, { 2, 0, 1 } uselistorder i32* %sv_0.1.ph.be.reg2mem, { 2, 0, 1 } uselistorder i32* %sv_0.1.ph6.reg2mem, { 0, 2, 1 } uselistorder i64* %rcx.0.ph7.reg2mem, { 0, 2, 1 } uselistorder i64* %rdi.0.ph8.reg2mem, { 0, 2, 1 } uselistorder i64* %rax.0.reg2mem, { 0, 3, 2, 1, 4 } uselistorder i64* %0, { 1, 0 } uselistorder [27 x i8]* @gv_0, { 1, 0 } uselistorder i64 4294967295, { 1, 2, 0 } uselistorder i64 1, { 1, 0, 2 } uselistorder i1 false, { 1, 0 } uselistorder i8 32, { 1, 0 } uselistorder i32 0, { 1, 2, 0 } uselistorder i64 32, { 1, 0 } uselistorder label LBL_15, { 2, 1, 0, 3 } uselistorder label LBL_6, { 1, 0 } }
1
BinRealVul
TrimImage_8910
TrimImage
define i64 @FUNC(i64* %arg1, i64* %arg2) local_unnamed_addr { LBL_0: %0 = alloca i64 %1 = alloca i32 %rax.0.reg2mem = alloca i64 %2 = load i64, i64* %0 %3 = load i32, i32* %1 %sv_0 = alloca i32, align 4 %4 = icmp eq i64* %arg1, null %5 = icmp eq i1 %4, false br i1 %5, label LBL_2, label LBL_1 LBL_1: call void @__assert_fail(i8* getelementptr inbounds ([30 x i8], [30 x i8]* @gv_0, i64 0, i64 0), i8* getelementptr inbounds ([43 x i8], [43 x i8]* @gv_1, i64 0, i64 0), i32 86, i8* getelementptr inbounds ([10 x i8], [10 x i8]* @gv_2, i64 0, i64 0)) br label LBL_2 LBL_2: %6 = trunc i64 %2 to i32 %7 = icmp eq i32 %6, 305419896 br i1 %7, label LBL_4, label LBL_3 LBL_3: call void @__assert_fail(i8* getelementptr inbounds ([40 x i8], [40 x i8]* @gv_3, i64 0, i64 0), i8* getelementptr inbounds ([43 x i8], [43 x i8]* @gv_1, i64 0, i64 0), i32 87, i8* getelementptr inbounds ([10 x i8], [10 x i8]* @gv_2, i64 0, i64 0)) br label LBL_4 LBL_4: %8 = ptrtoint i64* %arg1 to i64 %9 = add i64 %8, 4 %10 = inttoptr i64 %9 to i32* %11 = load i32, i32* %10, align 4 %12 = icmp eq i32 %11, 0 br i1 %12, label LBL_6, label LBL_5 LBL_5: %13 = add i64 %8, 8 %14 = inttoptr i64 %13 to i64* %15 = load i64, i64* %14, align 8 %16 = call i64 @FUNC() %17 = call i64 @FUNC(i64 0, i64 %16, i8* getelementptr inbounds ([3 x i8], [3 x i8]* @gv_4, i64 0, i64 0), i64 %15) br label LBL_6 LBL_6: %18 = ptrtoint i64* %arg2 to i64 %19 = call i64 @FUNC(i64 %8, i64 %18) %20 = trunc i64 %19 to i32 store i32 %20, i32* %sv_0, align 4 %21 = icmp ne i32 %20, 0 %22 = icmp eq i32 %3, 0 %23 = icmp eq i1 %22, false %or.cond = icmp eq i1 %23, %21 br i1 %or.cond, label LBL_9, label LBL_7 LBL_7: %24 = call i64 @FUNC(i64 %8, i64 1, i64 1, i64 1, i64 %18) %25 = icmp eq i64 %24, 0 %26 = icmp eq i1 %25, false store i64 0, i64* %rax.0.reg2mem br i1 %26, label LBL_8, label LBL_10 LBL_8: %27 = add i64 %24, 36 %28 = inttoptr i64 %27 to i32* store i32 0, i32* %28, align 4 %29 = add i64 %24, 32 %30 = inttoptr i64 %29 to i32* store i32 1, i32* %30, align 4 %31 = call i64 @FUNC(i64 %24, i64 %18) %32 = add i64 %8, 24 %33 = inttoptr i64 %32 to i64* %34 = load i64, i64* %33, align 8 %35 = add i64 %8, 16 %36 = inttoptr i64 %35 to i64* %37 = load i64, i64* %36, align 8 %38 = add i64 %24, 16 %39 = inttoptr i64 %38 to i64* store i64 %37, i64* %39, align 8 %40 = add i64 %24, 24 %41 = inttoptr i64 %40 to i64* store i64 %34, i64* %41, align 8 %42 = inttoptr i64 %40 to i32* store i32 -1, i32* %42, align 4 %43 = add i64 %24, 28 %44 = inttoptr i64 %43 to i32* store i32 -1, i32* %44, align 4 store i64 %24, i64* %rax.0.reg2mem br label LBL_10 LBL_9: %45 = bitcast i32* %sv_0 to i64* %46 = call i64 @FUNC(i64 %8, i64* nonnull %45, i64 %18) store i64 %46, i64* %rax.0.reg2mem br label LBL_10 LBL_10: %rax.0.reload = load i64, i64* %rax.0.reg2mem ret i64 %rax.0.reload uselistorder i64 %24, { 0, 1, 4, 3, 2, 5, 6, 7 } uselistorder i64 %8, { 0, 1, 2, 3, 4, 6, 5 } uselistorder i32* %sv_0, { 1, 0 } uselistorder i64* %rax.0.reg2mem, { 0, 2, 3, 1 } uselistorder i64 1, { 2, 1, 0 } uselistorder i32 0, { 1, 0, 2, 3, 4, 5, 6, 7 } uselistorder void (i8*, i8*, i32, i8*)* @__assert_fail, { 1, 0 } uselistorder i1 false, { 1, 0, 2 } uselistorder i64* %arg1, { 1, 0 } uselistorder label LBL_10, { 1, 2, 0 } }
0
BinRealVul
free_picture_2744
free_picture
define i64 @FUNC(i64* %arg1, i64* %arg2) local_unnamed_addr { LBL_0: %rax.0.reg2mem = alloca i64 %indvars.iv.reg2mem = alloca i64 %indvars.iv4.reg2mem = alloca i64 %0 = ptrtoint i64* %arg2 to i64 %1 = icmp eq i64* %arg2, null br i1 %1, label LBL_3, label LBL_1 LBL_1: %2 = add i64 %0, 32 %3 = inttoptr i64 %2 to i32* %4 = load i32, i32* %3, align 4 %5 = icmp eq i32 %4, 1 br i1 %5, label LBL_3, label LBL_2 LBL_2: %6 = ptrtoint i64* %arg1 to i64 %7 = call i64 @FUNC(i64 %6, i64 %0) br label LBL_3 LBL_3: %8 = add i64 %0, 40 %9 = call i64 @FUNC(i64 %8) %10 = add i64 %0, 48 %11 = call i64 @FUNC(i64 %10) %12 = add i64 %0, 56 %13 = call i64 @FUNC(i64 %12) %14 = add i64 %0, 64 %15 = call i64 @FUNC(i64 %14) %16 = add i64 %0, 72 %17 = call i64 @FUNC(i64 %16) %18 = add i64 %0, 80 %19 = call i64 @FUNC(i64 %18) %20 = add i64 %0, 88 %21 = call i64 @FUNC(i64 %20) %22 = add i64 %0, 96 %23 = call i64 @FUNC(i64 %22) %24 = add i64 %0, 104 %25 = inttoptr i64 %24 to i64* store i64 0, i64* %25, align 8 store i64 0, i64* %indvars.iv4.reg2mem br label LBL_4 LBL_4: %indvars.iv4.reload = load i64, i64* %indvars.iv4.reg2mem %26 = mul i64 %indvars.iv4.reload, 8 %27 = add i64 %26, %0 %28 = add i64 %27, 112 %29 = call i64 @FUNC(i64 %28) %30 = add i64 %27, 128 %31 = call i64 @FUNC(i64 %30) %indvars.iv.next5 = add nuw nsw i64 %indvars.iv4.reload, 1 %exitcond6 = icmp eq i64 %indvars.iv.next5, 2 store i64 %indvars.iv.next5, i64* %indvars.iv4.reg2mem br i1 %exitcond6, label LBL_5, label LBL_4 LBL_5: %32 = add i64 %0, 32 %33 = inttoptr i64 %32 to i32* %34 = load i32, i32* %33, align 4 %35 = zext i32 %34 to i64 %36 = icmp eq i32 %34, 1 %37 = icmp eq i1 %36, false store i64 0, i64* %indvars.iv.reg2mem store i64 %35, i64* %rax.0.reg2mem br i1 %37, label LBL_8, label LBL_6 LBL_6: %indvars.iv.reload = load i64, i64* %indvars.iv.reg2mem %38 = mul i64 %indvars.iv.reload, 8 %39 = add i64 %38, %0 %40 = inttoptr i64 %39 to i64* store i64 0, i64* %40, align 8 %41 = add i64 %39, 144 %42 = inttoptr i64 %41 to i64* store i64 0, i64* %42, align 8 %indvars.iv.next = add nuw nsw i64 %indvars.iv.reload, 1 %exitcond = icmp eq i64 %indvars.iv.next, 4 store i64 %indvars.iv.next, i64* %indvars.iv.reg2mem br i1 %exitcond, label LBL_7, label LBL_6 LBL_7: store i32 0, i32* %33, align 4 store i64 %0, i64* %rax.0.reg2mem br label LBL_8 LBL_8: %rax.0.reload = load i64, i64* %rax.0.reg2mem ret i64 %rax.0.reload uselistorder i64 %0, { 0, 1, 3, 2, 6, 5, 4, 9, 8, 7, 12, 11, 10, 13, 14 } uselistorder i64* %indvars.iv4.reg2mem, { 1, 0, 2 } uselistorder i64* %indvars.iv.reg2mem, { 2, 0, 1 } uselistorder i64 1, { 1, 0 } uselistorder i64 (i64)* @av_freep, { 9, 8, 7, 6, 5, 4, 3, 2, 1, 0 } uselistorder label LBL_6, { 1, 0 } }
0
BinRealVul
compat_read_15745
compat_read
define i64 @FUNC(i64* %arg1, i64* %arg2, i64 %arg3) local_unnamed_addr { LBL_0: %rax.0.reg2mem = alloca i64 %sv_0.0.reg2mem = alloca i64 %storemerge.reg2mem = alloca i64 %storemerge3.in.reg2mem = alloca i64 %0 = ptrtoint i64* %arg1 to i64 %sv_1 = alloca i32*, align 8 %1 = icmp eq i64* %arg2, null %2 = icmp eq i1 %1, false br i1 %2, label LBL_2, label LBL_1 LBL_1: %3 = call i64 @FUNC(i64 %0) store i64 %3, i64* %rax.0.reg2mem br label LBL_13 LBL_2: %4 = call i64 @FUNC() %5 = inttoptr i64 %4 to i32* store i32* %5, i32** %sv_1, align 8 %6 = icmp eq i64 %4, 0 %7 = icmp eq i1 %6, false store i64 4294967284, i64* %rax.0.reg2mem br i1 %7, label LBL_3, label LBL_13 LBL_3: %8 = trunc i64 %arg3 to i32 %9 = icmp eq i32 %8, 0 %10 = icmp eq i1 %9, false br i1 %10, label LBL_5, label LBL_4 LBL_4: %11 = call i64 @FUNC(i64 %0, i64 %4) store i64 %11, i64* %storemerge3.in.reg2mem br label LBL_6 LBL_5: %12 = call i64 @FUNC(i64 %0, i64 %4, i32 %8) store i64 %12, i64* %storemerge3.in.reg2mem br label LBL_6 LBL_6: %storemerge3.in.reload = load i64, i64* %storemerge3.in.reg2mem %storemerge3 = trunc i64 %storemerge3.in.reload to i32 %13 = icmp slt i32 %storemerge3, 0 store i64 %storemerge3.in.reload, i64* %sv_0.0.reg2mem br i1 %13, label LBL_12, label LBL_7 LBL_7: %14 = trunc i64 %0 to i32 %15 = icmp eq i32 %14, 0 %16 = icmp eq i1 %15, false %17 = load i32*, i32** %sv_1, align 8 %18 = ptrtoint i32* %17 to i64 br i1 %16, label LBL_9, label LBL_8 LBL_8: %19 = add i64 %18, 8 %20 = inttoptr i64 %19 to i32* %21 = load i32, i32* %20, align 4 %22 = add i64 %18, 4 %23 = inttoptr i64 %22 to i32* %24 = load i32, i32* %23, align 4 %25 = load i32, i32* %17, align 4 %26 = add i64 %18, 24 %27 = inttoptr i64 %26 to i64* %28 = load i64, i64* %27, align 8 %29 = add i64 %18, 16 %30 = inttoptr i64 %29 to i64* %31 = load i64, i64* %30, align 8 %32 = zext i32 %21 to i64 %33 = zext i32 %24 to i64 %34 = zext i32 %25 to i64 %sext4 = mul i64 %storemerge3.in.reload, 4294967296 %35 = ashr exact i64 %sext4, 32 %36 = call i64 @FUNC(i64 %31, i64 %28, i64 1, i64 %34, i64 %33, i64 %32, i64 %35) store i64 %36, i64* %storemerge.reg2mem br label LBL_10 LBL_9: %37 = add i64 %18, 40 %38 = inttoptr i64 %37 to i32* %39 = load i32, i32* %38, align 4 %40 = add i64 %18, 8 %41 = inttoptr i64 %40 to i32* %42 = load i32, i32* %41, align 4 %43 = add i64 %18, 12 %44 = inttoptr i64 %43 to i32* %45 = load i32, i32* %44, align 4 %46 = add i64 %18, 24 %47 = inttoptr i64 %46 to i64* %48 = load i64, i64* %47, align 8 %49 = inttoptr i64 %48 to i32* %50 = load i32, i32* %49, align 4 %51 = add i64 %18, 32 %52 = inttoptr i64 %51 to i64* %53 = load i64, i64* %52, align 8 %54 = zext i32 %39 to i64 %55 = zext i32 %42 to i64 %56 = zext i32 %45 to i64 %sext5 = mul i64 %storemerge3.in.reload, 4294967296 %57 = ashr exact i64 %sext5, 32 %58 = call i64 @FUNC(i64 %53, i32 %50, i64 1, i64 %56, i64 %55, i64 %54, i64 %57) store i64 %58, i64* %storemerge.reg2mem br label LBL_10 LBL_10: %storemerge.reload = load i64, i64* %storemerge.reg2mem %59 = icmp eq i64 %storemerge.reload, 0 %60 = icmp eq i1 %59, false store i64 4294967284, i64* %sv_0.0.reg2mem br i1 %60, label LBL_11, label LBL_12 LBL_11: %61 = load i32*, i32** %sv_1, align 8 %62 = ptrtoint i32* %61 to i64 %63 = call i64 @FUNC(i64 %storemerge.reload, i64 %62) %64 = inttoptr i64 %storemerge.reload to i64* %65 = load i64, i64* %64, align 8 %66 = load i32*, i32** %sv_1, align 8 %67 = ptrtoint i32* %66 to i64 %68 = inttoptr i64 %65 to i64* store i64 %67, i64* %68, align 8 %69 = load i64, i64* %64, align 8 %70 = add i64 %69, 8 %71 = inttoptr i64 %70 to i64* store i64 4198937, i64* %71, align 8 store i64 %storemerge.reload, i64* %arg2, align 8 store i64 0, i64* %rax.0.reg2mem br label LBL_13 LBL_12: %sv_0.0.reload = load i64, i64* %sv_0.0.reg2mem %72 = bitcast i32** %sv_1 to i64* %73 = call i64 @FUNC(i64* nonnull %72) %74 = and i64 %sv_0.0.reload, 4294967295 store i64 %74, i64* %rax.0.reg2mem br label LBL_13 LBL_13: %rax.0.reload = load i64, i64* %rax.0.reg2mem ret i64 %rax.0.reload uselistorder i64 %storemerge.reload, { 3, 1, 2, 0 } uselistorder i64 %18, { 3, 4, 5, 6, 8, 0, 1, 2, 7 } uselistorder i64 %storemerge3.in.reload, { 3, 2, 0, 1 } uselistorder i32** %sv_1, { 4, 3, 2, 1, 0 } uselistorder i64 %0, { 0, 3, 2, 1 } uselistorder i64* %storemerge3.in.reg2mem, { 0, 2, 1 } uselistorder i64* %storemerge.reg2mem, { 0, 2, 1 } uselistorder i64* %rax.0.reg2mem, { 0, 4, 3, 1, 2 } uselistorder i64 32, { 0, 2, 1 } uselistorder i64 4294967284, { 1, 0 } uselistorder label LBL_13, { 1, 2, 0, 3 } }
1
BinRealVul
igmpv3_clear_zeros_10481
igmpv3_clear_zeros
define i64 @FUNC(i64* %arg1) local_unnamed_addr { LBL_0: %storemerge1.lcssa.reg2mem = alloca i64 %sv_0.0.reg2mem = alloca i64 %sv_0.12.reg2mem = alloca i64 %storemerge13.reg2mem = alloca i64 %0 = ptrtoint i64* %arg1 to i64 %1 = icmp eq i64* %arg1, null %2 = icmp eq i1 %1, false store i64 %0, i64* %storemerge13.reg2mem store i64 0, i64* %sv_0.12.reg2mem store i64 %0, i64* %storemerge1.lcssa.reg2mem br i1 %2, label LBL_1, label LBL_7 LBL_1: %storemerge13.reload = load i64, i64* %storemerge13.reg2mem %3 = inttoptr i64 %storemerge13.reload to i64* %4 = load i64, i64* %3, align 8 %5 = add i64 %storemerge13.reload, 8 %6 = inttoptr i64 %5 to i32* %7 = load i32, i32* %6, align 4 %8 = icmp eq i32 %7, 0 %9 = icmp eq i1 %8, false store i64 %storemerge13.reload, i64* %sv_0.0.reg2mem br i1 %9, label LBL_6, label LBL_2 LBL_2: %sv_0.12.reload = load i64, i64* %sv_0.12.reg2mem %10 = icmp eq i64 %sv_0.12.reload, 0 br i1 %10, label LBL_4, label LBL_3 LBL_3: %11 = inttoptr i64 %sv_0.12.reload to i64* store i64 %4, i64* %11, align 8 br label LBL_5 LBL_4: store i64 %4, i64* %arg1, align 8 br label LBL_5 LBL_5: %12 = call i64 @FUNC(i64 %storemerge13.reload) store i64 %sv_0.12.reload, i64* %sv_0.0.reg2mem br label LBL_6 LBL_6: %sv_0.0.reload = load i64, i64* %sv_0.0.reg2mem %13 = icmp eq i64 %4, 0 %14 = icmp eq i1 %13, false store i64 %4, i64* %storemerge13.reg2mem store i64 %sv_0.0.reload, i64* %sv_0.12.reg2mem store i64 %4, i64* %storemerge1.lcssa.reg2mem br i1 %14, label LBL_1, label LBL_7 LBL_7: %storemerge1.lcssa.reload = load i64, i64* %storemerge1.lcssa.reg2mem ret i64 %storemerge1.lcssa.reload uselistorder i64 %sv_0.12.reload, { 0, 2, 1 } uselistorder i64 %storemerge13.reload, { 1, 0, 3, 2 } uselistorder i64* %storemerge13.reg2mem, { 2, 0, 1 } uselistorder i64* %sv_0.12.reg2mem, { 2, 0, 1 } uselistorder i64* %sv_0.0.reg2mem, { 0, 2, 1 } uselistorder i1 false, { 2, 1, 0 } uselistorder i64* %arg1, { 1, 0, 2 } uselistorder label LBL_6, { 1, 0 } uselistorder label LBL_1, { 1, 0 } }
0
BinRealVul
qpci_io_writew_15885
qpci_io_writew
define i64 @FUNC(i64* %arg1, i64 %arg2, i16 %arg3) local_unnamed_addr { LBL_0: %storemerge.reg2mem = alloca i64 %0 = icmp ult i64 %arg2, 65535 br i1 %0, label LBL_1, label LBL_2 LBL_1: %1 = ptrtoint i64* %arg1 to i64 store i64 %1, i64* %storemerge.reg2mem br label LBL_3 LBL_2: %2 = zext i16 %arg3 to i64 %3 = call i64 @FUNC(i64 %2) store i64 %2, i64* %storemerge.reg2mem br label LBL_3 LBL_3: %storemerge.reload = load i64, i64* %storemerge.reg2mem ret i64 %storemerge.reload uselistorder i64* %storemerge.reg2mem, { 0, 2, 1 } }
1
BinRealVul
cx24116_writereg_8137
cx24116_writereg
define i64 @FUNC(i64* %arg1, i64 %arg2, i64 %arg3) local_unnamed_addr { LBL_0: %storemerge.reg2mem = alloca i64 %rdi.0.reg2mem = alloca i64 %0 = ptrtoint i64* %arg1 to i64 %sv_0 = alloca i32, align 4 %sext = mul i64 %arg2, 4294967296 %1 = ashr exact i64 %sext, 32 %sext3 = mul i64 %arg3, 4294967296 %2 = ashr exact i64 %sext3, 32 %3 = add i64 %0, 8 %4 = inttoptr i64 %3 to i64* %5 = load i64, i64* %4, align 8 %6 = inttoptr i64 %5 to i32* %7 = load i32, i32* %6, align 4 store i32 %7, i32* %sv_0, align 4 %8 = load i32, i32* inttoptr (i64 4210724 to i32*), align 4 %9 = icmp slt i32 %8, 2 store i64 %0, i64* %rdi.0.reg2mem br i1 %9, label LBL_2, label LBL_1 LBL_1: %10 = trunc i64 %2 to i32 %11 = trunc i64 %1 to i32 %12 = call i32 (i8*, ...) @printf(i8* getelementptr inbounds ([45 x i8], [45 x i8]* @gv_0, i64 0, i64 0), i8* getelementptr inbounds ([17 x i8], [17 x i8]* @gv_1, i64 0, i64 0), i32 %11, i32 %10) store i64 ptrtoint ([45 x i8]* @gv_0 to i64), i64* %rdi.0.reg2mem br label LBL_2 LBL_2: %rdi.0.reload = load i64, i64* %rdi.0.reg2mem %13 = call i64 @FUNC(i64 %rdi.0.reload, i32* nonnull %sv_0, i64 1) %14 = trunc i64 %13 to i32 %15 = icmp eq i32 %14, 1 store i64 0, i64* %storemerge.reg2mem br i1 %15, label LBL_4, label LBL_3 LBL_3: %16 = trunc i64 %2 to i32 %17 = trunc i64 %1 to i32 %18 = and i64 %13, 4294967295 %19 = call i32 (i8*, ...) @printf(i8* getelementptr inbounds ([70 x i8], [70 x i8]* @gv_2, i64 0, i64 0), i8* getelementptr inbounds ([17 x i8], [17 x i8]* @gv_1, i64 0, i64 0), i64 %18, i32 %17, i32 %16) store i64 4294967175, i64* %storemerge.reg2mem br label LBL_4 LBL_4: %storemerge.reload = load i64, i64* %storemerge.reg2mem ret i64 %storemerge.reload uselistorder i64 %2, { 1, 0 } uselistorder i64 %1, { 1, 0 } uselistorder i64* %storemerge.reg2mem, { 0, 2, 1 } uselistorder i32 (i8*, ...)* @printf, { 1, 0 } uselistorder [45 x i8]* @gv_0, { 1, 0 } uselistorder label LBL_4, { 1, 0 } }
0
BinRealVul
maxOffsetIncludingCollapsedSpaces_8280
maxOffsetIncludingCollapsedSpaces
define i64 @FUNC(i64* %arg1) local_unnamed_addr { LBL_0: %0 = ptrtoint i64* %arg1 to i64 %1 = call i64 @FUNC(i64 %0) %2 = and i64 %1, 4294967295 ret i64 %2 }
0
BinRealVul
openpic_tmr_read_3186
openpic_tmr_read
define i64 @FUNC(i64* %arg1, i64 %arg2, i32 %arg3) local_unnamed_addr { LBL_0: %0 = alloca i64 %sv_0.0.reg2mem = alloca i32 %1 = load i64, i64* %0 %2 = call i32 (i8*, ...) @printf(i8* getelementptr inbounds ([16 x i8], [16 x i8]* @gv_0, i64 0, i64 0), i8* getelementptr inbounds ([17 x i8], [17 x i8]* @gv_1, i64 0, i64 0), i64 %arg2) %3 = urem i64 %arg2, 16 %4 = icmp eq i64 %3, 0 %5 = icmp eq i1 %4, false store i32 -1, i32* %sv_0.0.reg2mem br i1 %5, label LBL_9, label LBL_1 LBL_1: %6 = trunc i64 %1 to i32 %7 = icmp eq i64 %arg2, 0 %8 = icmp eq i1 %7, false store i32 %6, i32* %sv_0.0.reg2mem br i1 %8, label LBL_2, label LBL_9 LBL_2: %9 = ptrtoint i64* %arg1 to i64 %10 = udiv i64 %arg2, 64 %11 = trunc i64 %10 to i32 %12 = urem i32 %11, 4 %13 = and i64 %arg2, 48 switch i64 %13, label LBL_3 [ i64 48, label LBL_8 i64 32, label LBL_7 ] LBL_3: %14 = icmp ult i64 %13, 33 store i32 -1, i32* %sv_0.0.reg2mem br i1 %14, label LBL_4, label LBL_9 LBL_4: store i32 -1, i32* %sv_0.0.reg2mem switch i64 %13, label LBL_9 [ i64 0, label LBL_5 i64 16, label LBL_6 ] LBL_5: %15 = mul i32 %12, 8 %16 = zext i32 %15 to i64 %17 = add i64 %9, 4 %18 = add i64 %17, %16 %19 = inttoptr i64 %18 to i32* %20 = load i32, i32* %19, align 4 store i32 %20, i32* %sv_0.0.reg2mem br label LBL_9 LBL_6: %21 = mul i32 %12, 8 %22 = zext i32 %21 to i64 %23 = add i64 %9, 8 %24 = add i64 %23, %22 %25 = inttoptr i64 %24 to i32* %26 = load i32, i32* %25, align 4 store i32 %26, i32* %sv_0.0.reg2mem br label LBL_9 LBL_7: %27 = add i64 %9, 36 %28 = inttoptr i64 %27 to i32* %29 = load i32, i32* %28, align 4 %30 = add i32 %29, %12 %31 = zext i32 %30 to i64 %32 = call i64 @FUNC(i64 %9, i64 %31) %33 = trunc i64 %32 to i32 store i32 %33, i32* %sv_0.0.reg2mem br label LBL_9 LBL_8: %34 = add i64 %9, 36 %35 = inttoptr i64 %34 to i32* %36 = load i32, i32* %35, align 4 %37 = add i32 %36, %12 %38 = zext i32 %37 to i64 %39 = call i64 @FUNC(i64 %9, i64 %38) %40 = trunc i64 %39 to i32 store i32 %40, i32* %sv_0.0.reg2mem br label LBL_9 LBL_9: %sv_0.0.reload = load i32, i32* %sv_0.0.reg2mem %41 = call i32 (i8*, ...) @printf(i8* getelementptr inbounds ([15 x i8], [15 x i8]* @gv_2, i64 0, i64 0), i8* getelementptr inbounds ([17 x i8], [17 x i8]* @gv_1, i64 0, i64 0), i32 %sv_0.0.reload) %42 = zext i32 %sv_0.0.reload to i64 ret i64 %42 uselistorder i64 %13, { 0, 2, 1 } uselistorder i32 %12, { 3, 2, 0, 1 } uselistorder i64 %9, { 5, 4, 3, 2, 0, 1 } uselistorder i32* %sv_0.0.reg2mem, { 0, 7, 6, 4, 5, 2, 3, 1, 8 } uselistorder i64 16, { 1, 0 } uselistorder i64 %arg2, { 2, 0, 3, 1, 4 } uselistorder label LBL_9, { 4, 5, 6, 7, 1, 3, 0, 2 } }
0
BinRealVul
out_close_pcm_devices_8470
out_close_pcm_devices
define i64 @FUNC(i64* %arg1) local_unnamed_addr { LBL_0: %storemerge2.reg2mem = alloca i64 %0 = ptrtoint i64* %arg1 to i64 %1 = add i64 %0, 8 %2 = icmp eq i64 %1, 0 %3 = icmp eq i1 %2, false store i64 %1, i64* %storemerge2.reg2mem br i1 %3, label LBL_1, label LBL_12 LBL_1: %storemerge2.reload = load i64, i64* %storemerge2.reg2mem %4 = add i64 %storemerge2.reload, -40 %5 = inttoptr i64 %4 to i32* %6 = load i32, i32* %5, align 4 %7 = icmp slt i32 %6, 1 br i1 %7, label LBL_3, label LBL_2 LBL_2: store i32 0, i32* %5, align 4 br label LBL_3 LBL_3: %8 = add i64 %storemerge2.reload, -32 %9 = inttoptr i64 %8 to i64* %10 = load i64, i64* %9, align 8 %11 = icmp eq i64 %10, 0 br i1 %11, label LBL_5, label LBL_4 LBL_4: %12 = call i64 @FUNC(i64 %10) store i64 0, i64* %9, align 8 br label LBL_5 LBL_5: %13 = add i64 %storemerge2.reload, -24 %14 = inttoptr i64 %13 to i64* %15 = load i64, i64* %14, align 8 %16 = icmp eq i64 %15, 0 br i1 %16, label LBL_7, label LBL_6 LBL_6: %17 = call i64 @FUNC(i64 %15) store i64 0, i64* %14, align 8 br label LBL_7 LBL_7: %18 = add i64 %storemerge2.reload, -16 %19 = inttoptr i64 %18 to i64* %20 = load i64, i64* %19, align 8 %21 = icmp eq i64 %20, 0 br i1 %21, label LBL_9, label LBL_8 LBL_8: %22 = inttoptr i64 %20 to i64* call void @free(i64* %22) store i64 0, i64* %19, align 8 br label LBL_9 LBL_9: %23 = add i64 %storemerge2.reload, -8 %24 = inttoptr i64 %23 to i64* %25 = load i64, i64* %24, align 8 %26 = icmp eq i64 %25, 0 br i1 %26, label LBL_11, label LBL_10 LBL_10: %27 = call i64 @FUNC(i64 %25) store i64 0, i64* %24, align 8 br label LBL_11 LBL_11: %28 = inttoptr i64 %storemerge2.reload to i64* %29 = load i64, i64* %28, align 8 %30 = icmp eq i64 %29, 0 %31 = icmp eq i1 %30, false store i64 %29, i64* %storemerge2.reg2mem br i1 %31, label LBL_1, label LBL_12 LBL_12: ret i64 0 uselistorder i64 %storemerge2.reload, { 4, 0, 1, 2, 3, 5 } uselistorder i64* %storemerge2.reg2mem, { 2, 0, 1 } uselistorder i1 false, { 1, 0 } uselistorder label LBL_1, { 1, 0 } }
0
BinRealVul
ml_ff_destroy_6910
ml_ff_destroy
define i64 @FUNC(i64* %arg1) local_unnamed_addr { LBL_0: %0 = ptrtoint i64* %arg1 to i64 %1 = add i64 %0, 8 %2 = call i64 @FUNC(i64 %1) %3 = call i64 @FUNC(i64 %1) ret i64 %3 }
0
reposvul_c_test
mnt_want_write_file_214
mnt_want_write_file
define i64 @FUNC(i64* %arg1) local_unnamed_addr { LBL_0: %0 = ptrtoint i64* %arg1 to i64 %1 = call i64 @FUNC(i64 %0) %2 = call i64 @FUNC(i64 %0) %3 = trunc i64 %2 to i32 %4 = icmp eq i32 %3, 0 br i1 %4, label LBL_2, label LBL_1 LBL_1: %5 = call i64 @FUNC(i64 %0) br label LBL_2 LBL_2: %6 = and i64 %2, 4294967295 ret i64 %6 }
0
BinRealVul
t1_check_unusual_charstring_11807
t1_check_unusual_charstring
define i64 @FUNC() local_unnamed_addr { LBL_0: %rax.0.reg2mem = alloca i64 %sv_0 = alloca i64, align 8 %0 = load [15 x i8]*, [15 x i8]** @gv_0, align 8 %1 = getelementptr inbounds [15 x i8], [15 x i8]* %0, i64 0, i64 0 %2 = call i8* @strstr(i8* bitcast (i8** @gv_1 to i8*), i8* %1) %3 = ptrtoint i8* %2 to i64 %4 = load [15 x i8]*, [15 x i8]** @gv_0, align 8 %5 = getelementptr inbounds [15 x i8], [15 x i8]* %4, i64 0, i64 0 %6 = call i32 @strlen(i8* %5) %7 = sext i32 %6 to i64 %8 = add i64 %7, %3 %9 = inttoptr i64 %8 to i8* %10 = call i32 (i8*, i8*, ...) @sscanf(i8* %9, i8* getelementptr inbounds ([3 x i8], [3 x i8]* @gv_2, i64 0, i64 0), i64* nonnull %sv_0) %11 = icmp eq i32 %10, 1 store i64 1, i64* %rax.0.reg2mem br i1 %11, label LBL_2, label LBL_1 LBL_1: %12 = call i8* @strcpy(i8* bitcast (i8** @gv_3 to i8*), i8* bitcast (i8** @gv_1 to i8*)) %13 = call i64 @FUNC() %14 = call i8* @strcat(i8* bitcast (i8** @gv_3 to i8*), i8* bitcast (i8** @gv_1 to i8*)) %15 = call i8* @strcpy(i8* bitcast (i8** @gv_1 to i8*), i8* bitcast (i8** @gv_3 to i8*)) %16 = call i64 @FUNC(i64* bitcast (i8** @gv_1 to i64*)) store i64 %16, i64* @gv_4, align 8 store i64 %16, i64* %rax.0.reg2mem br label LBL_2 LBL_2: %rax.0.reload = load i64, i64* %rax.0.reg2mem ret i64 %rax.0.reload uselistorder i8* (i8*, i8*)* @strcpy, { 1, 0 } uselistorder i32 (i8*)* @strlen, { 1, 0 } uselistorder i32 1, { 1, 2, 0 } }
1
BinRealVul
fork_start_571
fork_start
define i64 @FUNC() local_unnamed_addr { LBL_0: %0 = call i64 @FUNC() %1 = call i64 @FUNC() %2 = call i64 @FUNC(i64* nonnull @gv_0) %3 = call i64 @FUNC() ret i64 %3 }
0
BinRealVul
amd_gpio_irq_unmask_10134
amd_gpio_irq_unmask
define i64 @FUNC(i32* %arg1) local_unnamed_addr { LBL_0: %0 = alloca i64 %1 = load i64, i64* %0 %2 = load i64, i64* %0 %3 = ptrtoint i32* %arg1 to i64 %4 = call i64 @FUNC(i64 %3) %5 = call i64 @FUNC(i64 %4) %6 = add i64 %5, 8 %7 = call i64 @FUNC(i64 %6, i64 %2) %8 = inttoptr i64 %5 to i64* %9 = load i64, i64* %8, align 8 %10 = trunc i64 %1 to i32 %11 = mul i32 %10, 4 %12 = sext i32 %11 to i64 %13 = add i64 %9, %12 %14 = call i64 @FUNC(i64 %13) %15 = load i64, i64* %8, align 8 %16 = add i64 %15, %12 %17 = and i64 %14, 4294967294 %18 = or i64 %17, 1 %19 = call i64 @FUNC(i64 %18, i64 %16) %20 = call i64 @FUNC(i64 %6, i64 %2) ret i64 %20 uselistorder i64* %0, { 1, 0 } }
0
BinRealVul
is_netmask_v4_18160
is_netmask_v4
define i64 @FUNC(i64* %arg1) local_unnamed_addr { LBL_0: %rax.0.reg2mem = alloca i64 %0 = bitcast i64* %arg1 to i8* %1 = call i8* @strchr(i8* %0, i32 47) %2 = icmp eq i8* %1, null store i64 32, i64* %rax.0.reg2mem br i1 %2, label LBL_4, label LBL_1 LBL_1: %3 = ptrtoint i8* %1 to i64 %4 = add i64 %3, 1 %5 = inttoptr i64 %4 to i8* store i8 0, i8* %1, align 1 %6 = call i8* @strchr(i8* %5, i32 46) %7 = icmp eq i8* %6, null store i64 0, i64* %rax.0.reg2mem br i1 %7, label LBL_2, label LBL_4 LBL_2: %8 = call i32 @atoi(i8* %5) %9 = icmp ult i32 %8, 33 store i64 0, i64* %rax.0.reg2mem br i1 %9, label LBL_3, label LBL_4 LBL_3: %10 = urem i32 %8, 256 %phitmp = zext i32 %10 to i64 store i64 %phitmp, i64* %rax.0.reg2mem br label LBL_4 LBL_4: %rax.0.reload = load i64, i64* %rax.0.reg2mem ret i64 %rax.0.reload uselistorder i8* %1, { 1, 0, 2 } uselistorder i64* %rax.0.reg2mem, { 0, 1, 3, 4, 2 } uselistorder label LBL_4, { 1, 2, 3, 0 } }
1
BinRealVul
anetUnixServer_12842
anetUnixServer
define i64 @FUNC(i64* %arg1, i64 %arg2, i32 %arg3, i32 %arg4) local_unnamed_addr { LBL_0: %rax.0.reg2mem = alloca i64 %0 = ptrtoint i64* %arg1 to i64 %sv_0 = alloca i64, align 8 %sv_1 = alloca i64, align 8 %1 = inttoptr i64 %arg2 to i8* %2 = call i32 @strlen(i8* %1) %3 = icmp ult i32 %2, 108 br i1 %3, label LBL_2, label LBL_1 LBL_1: %4 = call i32 @strlen(i8* %1) %5 = sext i32 %4 to i64 %6 = call i64 @FUNC(i64 %0, i8* getelementptr inbounds ([51 x i8], [51 x i8]* @gv_0, i64 0, i64 0), i64 %5, i64 108) store i64 4294967295, i64* %rax.0.reg2mem br label LBL_7 LBL_2: %7 = call i64 @FUNC(i64 %0, i64 1) %8 = trunc i64 %7 to i32 %9 = icmp eq i32 %8, -1 %10 = icmp eq i1 %9, false store i64 4294967295, i64* %rax.0.reg2mem br i1 %10, label LBL_3, label LBL_7 LBL_3: %11 = call i64* @memset(i64* nonnull %sv_1, i32 0, i32 110) store i64 1, i64* %sv_1, align 8 %12 = call i64 @FUNC(i64* nonnull %sv_0, i64 %arg2, i64 108) %13 = zext i32 %arg4 to i64 %14 = call i64 @FUNC(i64 %0, i32 %8, i64* nonnull %sv_1, i64 110, i64 %13) %15 = trunc i64 %14 to i32 %16 = icmp eq i32 %15, -1 %17 = icmp eq i1 %16, false store i64 4294967295, i64* %rax.0.reg2mem br i1 %17, label LBL_4, label LBL_7 LBL_4: %18 = icmp eq i32 %arg3, 0 br i1 %18, label LBL_6, label LBL_5 LBL_5: %19 = bitcast i64* %sv_0 to i8* %20 = call i32 @chmod(i8* nonnull %19, i32 %arg3) br label LBL_6 LBL_6: %21 = and i64 %7, 4294967295 store i64 %21, i64* %rax.0.reg2mem br label LBL_7 LBL_7: %rax.0.reload = load i64, i64* %rax.0.reg2mem ret i64 %rax.0.reload uselistorder i64* %sv_1, { 0, 2, 1 } uselistorder i64 %0, { 1, 2, 0 } uselistorder i64* %rax.0.reg2mem, { 0, 4, 1, 2, 3 } uselistorder i32 0, { 2, 0, 3, 4, 5, 1 } uselistorder i64 (i64, i8*, i64, i64)* @anetSetError, { 3, 2, 1, 0 } uselistorder i32 (i8*)* @strlen, { 1, 0 } uselistorder i32 %arg3, { 1, 0 } uselistorder label LBL_7, { 2, 0, 1, 3 } }
1
BinRealVul
helper_cvttq_c_3161
helper_cvttq_c
define i64 @FUNC(i64* %arg1, i64 %arg2) local_unnamed_addr { LBL_0: %0 = ptrtoint i64* %arg1 to i64 %1 = call i64 @FUNC(i64 %0, i64 %arg2, i64 0) ret i64 %1 }
0
BinRealVul
hmp_info_memdev_16404
hmp_info_memdev
define i64 @FUNC(i64* %arg1, i64* %arg2) local_unnamed_addr { LBL_0: %0 = alloca i64 %rcx.0.lcssa.reg2mem = alloca i64 %.pre-phi.pre-phi.reg2mem = alloca i32 %sv_0.05.reg2mem = alloca i64 %storemerge6.reg2mem = alloca i32 %1 = load i64, i64* %0 %2 = load i64, i64* %0 %3 = load i64, i64* %0 %4 = ptrtoint i64* %arg1 to i64 %sv_1 = alloca i64, align 8 store i64 0, i64* %sv_1, align 8 %5 = call i64 @FUNC(i64* nonnull %sv_1) %6 = icmp eq i64 %5, 0 %7 = icmp eq i1 %6, false store i32 0, i32* %storemerge6.reg2mem store i64 %5, i64* %sv_0.05.reg2mem br i1 %7, label LBL_2, label LBL_0.LBL_3_crit_edge LBL_1: %.pre = trunc i64 %3 to i32 store i32 %.pre, i32* %.pre-phi.pre-phi.reg2mem br label LBL_3 LBL_2: %sv_0.05.reload = load i64, i64* %sv_0.05.reg2mem %storemerge6.reload = load i32, i32* %storemerge6.reg2mem %8 = call i64 @FUNC(i64 0) %9 = inttoptr i64 %sv_0.05.reload to i64* %10 = load i64, i64* %9, align 8 %11 = add i64 %10, 24 %12 = call i64 @FUNC(i64 %8) %13 = call i64 @FUNC(i64 %12, i64 %11, i64 0, i64 0) %14 = call i64 @FUNC(i64 %4, i8* getelementptr inbounds ([20 x i8], [20 x i8]* @gv_0, i64 0, i64 0), i32 %storemerge6.reload, i64 0, i64 %2, i64 %1) %15 = load i64, i64* %9, align 8 %16 = inttoptr i64 %15 to i64* %17 = load i64, i64* %16, align 8 %18 = trunc i64 %17 to i32 %19 = call i64 @FUNC(i64 %4, i8* getelementptr inbounds ([14 x i8], [14 x i8]* @gv_1, i64 0, i64 0), i32 %18, i64 0, i64 %2, i64 %1) %20 = load i64, i64* %9, align 8 %21 = add i64 %20, 8 %22 = inttoptr i64 %21 to i32* %23 = load i32, i32* %22, align 4 %24 = icmp eq i32 %23, 0 %25 = select i1 %24, i32 ptrtoint ([6 x i8]* @gv_2 to i32), i32 ptrtoint ([5 x i8]* @gv_3 to i32) %26 = call i64 @FUNC(i64 %4, i8* getelementptr inbounds ([13 x i8], [13 x i8]* @gv_4, i64 0, i64 0), i32 %25, i64 0, i64 %2, i64 %1) %27 = load i64, i64* %9, align 8 %28 = add i64 %27, 12 %29 = inttoptr i64 %28 to i32* %30 = load i32, i32* %29, align 4 %31 = icmp eq i32 %30, 0 %32 = select i1 %31, i32 ptrtoint ([6 x i8]* @gv_2 to i32), i32 ptrtoint ([5 x i8]* @gv_3 to i32) %33 = call i64 @FUNC(i64 %4, i8* getelementptr inbounds ([12 x i8], [12 x i8]* @gv_5, i64 0, i64 0), i32 %32, i64 0, i64 %2, i64 %1) %34 = load i64, i64* %9, align 8 %35 = add i64 %34, 16 %36 = inttoptr i64 %35 to i32* %37 = load i32, i32* %36, align 4 %38 = icmp eq i32 %37, 0 %39 = select i1 %38, i32 ptrtoint ([6 x i8]* @gv_2 to i32), i32 ptrtoint ([5 x i8]* @gv_3 to i32) %40 = call i64 @FUNC(i64 %4, i8* getelementptr inbounds ([16 x i8], [16 x i8]* @gv_6, i64 0, i64 0), i32 %39, i64 0, i64 %2, i64 %1) %41 = load i64, i64* %9, align 8 %42 = add i64 %41, 20 %43 = inttoptr i64 %42 to i32* %44 = load i32, i32* %43, align 4 %45 = sext i32 %44 to i64 %46 = mul i64 %45, 8 %47 = add i64 %46, ptrtoint ([3 x i8*]* @gv_7 to i64) %48 = inttoptr i64 %47 to i64* %49 = load i64, i64* %48, align 8 %50 = trunc i64 %49 to i32 %51 = call i64 @FUNC(i64 %4, i8* getelementptr inbounds ([14 x i8], [14 x i8]* @gv_8, i64 0, i64 0), i32 %50, i64 0, i64 %2, i64 %1) %52 = call i64 @FUNC(i64 %8) %53 = trunc i64 %52 to i32 %54 = call i64 @FUNC(i64 %4, i8* getelementptr inbounds ([18 x i8], [18 x i8]* @gv_9, i64 0, i64 0), i32 %53, i64 0, i64 %2, i64 %1) %55 = call i64 @FUNC(i64 %52) %56 = call i64 @FUNC(i64 %8) %57 = add i64 %sv_0.05.reload, 8 %58 = inttoptr i64 %57 to i64* %59 = load i64, i64* %58, align 8 %60 = add i32 %storemerge6.reload, 1 %61 = icmp eq i64 %59, 0 %62 = icmp eq i1 %61, false store i32 %60, i32* %storemerge6.reg2mem store i64 %59, i64* %sv_0.05.reg2mem store i32 %53, i32* %.pre-phi.pre-phi.reg2mem store i64 0, i64* %rcx.0.lcssa.reg2mem br i1 %62, label LBL_2, label LBL_3 LBL_3: %rcx.0.lcssa.reload = load i64, i64* %rcx.0.lcssa.reg2mem %.pre-phi.pre-phi.reload = load i32, i32* %.pre-phi.pre-phi.reg2mem %63 = call i64 @FUNC(i64 %4, i8* inttoptr (i64 4202654 to i8*), i32 %.pre-phi.pre-phi.reload, i64 %rcx.0.lcssa.reload, i64 %2, i64 %1) ret i64 %63 uselistorder i64 %2, { 7, 6, 5, 4, 3, 2, 1, 0 } uselistorder i64 %1, { 7, 6, 5, 4, 3, 2, 1, 0 } uselistorder i32* %storemerge6.reg2mem, { 2, 0, 1 } uselistorder i64* %sv_0.05.reg2mem, { 2, 0, 1 } uselistorder i64* %0, { 2, 1, 0 } uselistorder i64 8, { 1, 0, 2 } uselistorder i64 (i64, i8*, i32, i64, i64, i64)* @monitor_printf, { 0, 7, 6, 5, 4, 3, 2, 1 } uselistorder i32 0, { 7, 8, 9, 0, 1, 2, 3, 4, 5, 6 } uselistorder i1 false, { 1, 0 } uselistorder label LBL_2, { 1, 0 } }
1