GPU / LLM 전력 실험 결과 대시보드

AI 데이터센터 전력 프로파일 분석 — SEND Lab 전송 패키지

GPU(비전) 실험: 11그룹 / 30개 run
LLM 실험: 12그룹 / 37개 run
하드웨어: NVIDIA RTX A6000 / PRO 6000
샘플링: 10 ms (NVML)
생성일: 2026-02-19 16:15

📖 용어 설명

Idle 평균 (W)
실험 시작 전 대기 상태(GPU 로딩 완료, 연산 없음)의 평균 전력입니다.
학습 평균/피크 (W)
모델 학습(순전파+역전파) 중 평균 및 최대 전력입니다.
추론 평균/피크 (W)
추론 요청 처리 중(LLM: Decode 단계) 평균 및 최대 전력입니다.
Decode Token/s (↑)
LLM이 1초당 생성한 토큰 수입니다. 높을수록 좋습니다.
J/Token (↓)
출력 토큰 1개당 소비한 에너지(줄)입니다. 낮을수록 효율적입니다.
(+X.XX) / (-X.XX)
기준 조건(baseline) 대비 변화량입니다. 기준 행은 하이라이트 표시됩니다.

🖥️ GPU (비전 모델) 실험 결과

#00 기준 실험 (Baseline)

전력 제어 없이 표준 조건으로 실행한 기준 실험입니다.

실험 변수: 없음 (대조군)
조건Idle 평균 (W)학습 평균 (W)학습 피크 (W)추론 Idle 평균 (W)추론 피크 (W)총 에너지 (J)
resnet50_cifar10_gpu0_bs64_ep1_req10000_nocap_fixed52.7 134.3 178.0 78.1 79.4 29670
▶ 개별 전력 그래프 펼치기
#01 배치 크기 변화 실험

배치 크기(16/64/128)에 따른 GPU 전력 소비 변화를 관찰합니다.

실험 변수: 배치 크기 (16 / 64 / 128)
조건Idle 평균 (W)학습 평균 (W)학습 피크 (W)추론 Idle 평균 (W)추론 피크 (W)총 에너지 (J)
resnet50_cifar10_gpu0_bs128_ep1_req10000_nocap_fixed51.8 (-0.659)138.1 (+4.684)211.8 (+38.582)78.2 (-0.166)79.5 (-0.095)29205 (-526.306)
resnet50_cifar10_gpu0_bs16_ep1_req10000_nocap_fixed53.3 (+0.836)139.9 (+6.482)152.2 (-20.997)77.9 (-0.461)79.3 (-0.337)32440 (+2708.031)
resnet50_cifar10_gpu0_bs64_ep1_req10000_nocap_fixed52.5 133.4 173.2 78.3 79.6 29732
▶ 개별 전력 그래프 펼치기
#02 운영자 제어 시뮬레이션

비균일 추론 요청 패턴에서의 전력 프로파일을 관찰합니다.

실험 변수: 가변 추론 간격
조건Idle 평균 (W)학습 평균 (W)학습 피크 (W)추론 Idle 평균 (W)추론 피크 (W)총 에너지 (J)
resnet18_cifar10_gpu0_bs64_ep5_req60_nocap_variable53.7 128.5 152.2 78.2 79.3 34124
▶ 개별 전력 그래프 펼치기
#03 전력 상한 (Power Cap) 실험

nvidia-smi 전력 제한(345W/460W/575W)이 성능과 전력에 미치는 영향을 테스트합니다.

실험 변수: 전력 상한 (345W / 460W / 575W)
조건Idle 평균 (W)학습 평균 (W)학습 피크 (W)추론 Idle 평균 (W)추론 피크 (W)총 에너지 (J)
resnet18_cifar10_gpu0_bs64_ep1_req10000_cap345W_fixed9.9 (-42.174)111.6 (+9.599)148.0 (-1.972)77.9 (+0.084)78.8 (-0.122)27225 (-1655.702)
resnet18_cifar10_gpu0_bs64_ep1_req10000_cap460W_fixed9.4 (-42.712)118.1 (+16.059)147.3 (-2.643)78.1 (+0.189)79.3 (+0.345)27206 (-1675.326)
resnet18_cifar10_gpu0_bs64_ep1_req10000_cap575W_fixed52.1 102.0 150.0 77.9 79.0 28881
▶ 개별 전력 그래프 펼치기
#04 단계적 전력 램프 실험

전력 제한을 단계적으로 변화시켜 GPU 적응 동작을 관찰합니다.

실험 변수: 램프 활성화
조건Idle 평균 (W)학습 평균 (W)학습 피크 (W)추론 Idle 평균 (W)추론 피크 (W)총 에너지 (J)
resnet18_cifar10_gpu0_bs64_ep1_req10000_nocap_ramp_fixed54.1 105.8 148.3 77.9 78.9 29572
▶ 개별 전력 그래프 펼치기
#05 추론 패턴 비교 실험

고정/가변/버스트 세 가지 추론 스케줄링 패턴의 전력 영향을 비교합니다.

실험 변수: 추론 패턴 (fixed / variable / burst)
조건Idle 평균 (W)학습 평균 (W)학습 피크 (W)추론 Idle 평균 (W)추론 피크 (W)총 에너지 (J)
resnet18_cifar10_gpu0_bs64_ep1_req10000_nocap_burst51.9 102.0 151.7 78.4 79.7 28671
resnet18_cifar10_gpu0_bs64_ep1_req10000_nocap_fixed53.4 (+1.513)100.1 (-1.915)149.9 (-1.777)78.3 (-0.171)79.4 (-0.301)28981 (+310.083)
resnet18_cifar10_gpu0_bs64_ep1_req10000_nocap_variable52.3 (+0.360)103.6 (+1.544)150.7 (-1.053)78.0 (-0.441)79.2 (-0.444)28852 (+180.841)
▶ 개별 전력 그래프 펼치기
#06 모델 아키텍처별 전력 비교

10개 비전 모델 아키텍처가 생성하는 서로 다른 전력 시그니처를 비교합니다.

실험 변수: 모델 아키텍처 (10종)
조건Idle 평균 (W)학습 평균 (W)학습 피크 (W)추론 Idle 평균 (W)추론 피크 (W)총 에너지 (J)
convnext_tiny_cifar10_gpu0_bs64_ep1_req10000_nocap_fixed53.6 (-0.100)325.6 (+190.942)514.4 (+340.990)79.1 (+1.131)83.4 (+3.834)42655 (+12997.676)
densenet121_cifar10_gpu0_bs64_ep1_req10000_nocap_fixed53.7 (-0.091)378.6 (+243.882)436.7 (+263.225)79.2 (+1.171)83.3 (+3.767)43719 (+14061.848)
efficientnet_b0_cifar10_gpu0_bs64_ep1_req10000_nocap_fixed53.2 (-0.546)310.7 (+176.043)401.6 (+228.123)78.9 (+0.901)81.4 (+1.868)38061 (+8403.014)
mobilenetv2_cifar10_gpu0_bs64_ep1_req10000_nocap_fixed54.0 (+0.246)103.0 (-31.713)138.9 (-34.541)78.0 (-0.018)79.4 (-0.195)29468 (-189.919)
resnet18_cifar10_gpu0_bs64_ep1_req10000_nocap_fixed52.9 (-0.883)101.9 (-32.813)147.4 (-26.020)77.9 (-0.095)79.1 (-0.493)28871 (-786.728)
resnet50_cifar10_gpu0_bs64_ep1_req10000_nocap_fixed53.7 134.7 173.4 78.0 79.6 29658
resnext50_32x4d_cifar10_gpu0_bs64_ep1_req10000_nocap_fixed53.4 (-0.363)381.1 (+246.442)514.3 (+340.840)79.5 (+1.498)84.1 (+4.491)45881 (+16223.426)
swin_t_cifar10_gpu0_bs64_ep1_req10000_nocap_fixed51.8 (-1.992)481.1 (+346.406)512.4 (+338.946)80.2 (+2.211)85.8 (+6.269)45197 (+15539.700)
vgg16_cifar10_gpu0_bs64_ep1_req10000_nocap_fixed52.1 (-1.688)218.4 (+83.705)287.3 (+113.858)78.0 (-0.021)79.3 (-0.265)31082 (+1424.408)
vit_b_16_cifar10_gpu0_bs64_ep1_req10000_nocap_fixed51.7 (-2.015)562.2 (+427.473)585.8 (+412.344)80.2 (+2.190)87.0 (+7.404)48888 (+19230.407)
▶ 개별 전력 그래프 펼치기
#07 데이터셋별 전력 비교

데이터셋(이미지 해상도, 클래스 수)이 전력 프로파일에 미치는 영향을 테스트합니다.

실험 변수: 데이터셋 (CIFAR-10 / CIFAR-100 / ImageNet)
조건Idle 평균 (W)학습 평균 (W)학습 피크 (W)추론 Idle 평균 (W)추론 피크 (W)총 에너지 (J)
resnet50_cifar100_gpu0_bs64_ep1_req10000_nocap_fixed52.4 131.6 170.0 78.2 79.3 29700
resnet50_cifar10_gpu0_bs64_ep1_req10000_nocap_fixed53.7 (+1.284)135.0 (+3.411)172.6 (+2.617)78.3 (+0.122)79.5 (+0.127)29821 (+121.380)
resnet50_imagenet_gpu0_bs64_ep1_req10000_nocap_fixed52.0 (-0.356)479.7 (+348.097)490.5 (+320.526)79.0 (+0.804)83.4 (+4.041)338171 (+308470.969)
▶ 개별 전력 그래프 펼치기
#08 학습 모드 비교

고정 SGD 학습 vs Optuna 기반 자동 하이퍼파라미터 탐색의 전력 비교입니다.

실험 변수: 학습 모드 (fixed / automl)
조건Idle 평균 (W)학습 평균 (W)학습 피크 (W)추론 Idle 평균 (W)추론 피크 (W)총 에너지 (J)
resnet18_cifar10_gpu0_bs64_ep1_req10000_nocap_fixed54.2 102.5 147.7 77.9 79.2 28945
▶ 개별 전력 그래프 펼치기
#10 체크포인트 I/O 관찰

주기적 모델 저장이 만드는 전력 스파이크(GPU 연산 중단 → 디스크 I/O)를 관찰합니다.

실험 변수: 체크포인트 주기
조건Idle 평균 (W)학습 평균 (W)학습 피크 (W)추론 Idle 평균 (W)추론 피크 (W)총 에너지 (J)
resnet18_cifar10_gpu0_bs64_ep1_req10000_nocap_fixed53.5 77.9 79.0 29034
▶ 개별 전력 그래프 펼치기
#11 클럭 주파수 고정 실험

GPU SM 클럭을 특정 주파수(1005/1500/2100MHz)로 고정했을 때의 전력 변화를 테스트합니다.

실험 변수: 클럭 고정 (1005 / 1500 / 2100 MHz)
조건Idle 평균 (W)학습 평균 (W)학습 피크 (W)추론 Idle 평균 (W)추론 피크 (W)총 에너지 (J)
resnet18_cifar10_gpu0_bs64_ep1_req10000_nocap_clk1005MHz_fixed52.9 (-8.270)64.4 (-11.827)79.1 (-18.937)53.5 (-8.253)54.7 (-7.955)21503 (-3294.508)
resnet18_cifar10_gpu0_bs64_ep1_req10000_nocap_clk1500MHz_fixed57.9 (-3.234)70.9 (-5.391)88.1 (-9.952)57.9 (-3.928)58.3 (-4.400)23260 (-1537.386)
resnet18_cifar10_gpu0_bs64_ep1_req10000_nocap_clk2100MHz_fixed61.2 76.3 98.1 61.8 62.7 24797
▶ 개별 전력 그래프 펼치기

🤖 LLM 실험 결과

#01 LLM 모델 스케일링 (초기)

GPT-2, Qwen3-4B, Mistral-7B, Llama3.1-8B 네 종류의 LLM 전력 프로파일을 비교합니다.

실험 변수: LLM 모델 종류
조건Idle 평균 (W)학습 평균 (W)학습 피크 (W)추론 평균 (W)추론 피크 (W)Decode Token/s (↑)J/Token (↓)
gpt2_gpu0_ds_alpaca_maxtok128_nocap53.6 77.3 92.2 377.485 0.204
llama3.1-8b_gpu0_ds_alpaca_maxtok128_nocap53.4 226.5 435.6 76.366 2.968
mistral-7b_gpu0_ds_alpaca_maxtok128_nocap54.1 221.7 428.0 79.432 2.792
qwen3-4b_gpu0_ds_alpaca_maxtok128_nocap54.7 173.3 298.2 72.853 2.379
▶ 개별 전력 그래프 펼치기
#02 디코드 길이 비교 (32 vs 128)

최대 토큰 생성 길이(32/128)에 따른 전력 변화를 관찰합니다.

실험 변수: 최대 생성 토큰 수 (32 / 128)
조건Idle 평균 (W)학습 평균 (W)학습 피크 (W)추론 평균 (W)추론 피크 (W)Decode Token/s (↑)J/Token (↓)
qwen3-4b_gpu0_ds_alpaca_maxtok128_nocap53.5 175.0 307.1 75.556 2.315
qwen3-4b_gpu0_ds_alpaca_maxtok32_nocap52.5 (-1.022)85.2 (-89.816)142.6 (-164.580)76.548 (+0.992)1.116 (-1.199)
▶ 개별 전력 그래프 펼치기
#03 LLM 데이터셋 비교

Alpaca, MMLU-Pro, LongBench 데이터셋별 전력 프로파일을 비교합니다.

실험 변수: 데이터셋 (alpaca / mmlu-pro / longbench)
조건Idle 평균 (W)학습 평균 (W)학습 피크 (W)추론 평균 (W)추론 피크 (W)Decode Token/s (↑)J/Token (↓)
qwen3-4b_gpu0_ds_alpaca_maxtok128_nocap55.1 173.8 306.1 75.681 2.296
qwen3-4b_gpu0_ds_longbench_maxtok128_nocap52.6 (-2.582)226.6 (+52.854)357.8 (+51.734)70.731 (-4.950)3.205 (+0.909)
qwen3-4b_gpu0_ds_mmlu-pro_maxtok128_nocap53.0 (-2.111)183.5 (+9.768)294.9 (-11.166)71.134 (-4.547)2.581 (+0.285)
▶ 개별 전력 그래프 펼치기
#04 디코드 길이 확장 비교 (32/256/512)

더 넓은 범위의 최대 생성 토큰 수(32/256/512)별 전력 변화를 관찰합니다.

실험 변수: 최대 생성 토큰 수 (32 / 256 / 512)
조건Idle 평균 (W)학습 평균 (W)학습 피크 (W)추론 평균 (W)추론 피크 (W)Decode Token/s (↑)J/Token (↓)
qwen3-4b_gpu0_ds_alpaca_maxtok256_nocap53.4 (+0.562)232.1 (+148.068)296.9 (+132.907)70.766 (-2.000)3.280 (+2.128)
qwen3-4b_gpu0_ds_alpaca_maxtok32_nocap52.8 84.0 164.0 72.766 1.152
qwen3-4b_gpu0_ds_alpaca_maxtok512_nocap52.5 (-0.364)266.1 (+182.151)309.2 (+145.249)75.804 (+3.038)3.511 (+2.359)
▶ 개별 전력 그래프 펼치기
#05 LLM 추론 패턴 비교

고정/가변/버스트/동시 버스트 네 가지 추론 패턴이 전력과 처리량에 미치는 영향을 비교합니다.

실험 변수: 추론 패턴 (fixed / variable / burst / concurrent_burst)
조건Idle 평균 (W)학습 평균 (W)학습 피크 (W)추론 평균 (W)추론 피크 (W)Decode Token/s (↑)J/Token (↓)
qwen3-4b_gpu0_ds_alpaca_burst_maxtok128_nocap52.1 (+0.794)214.3 (+40.486)306.6 (-0.193)75.905 (-0.029)3.948 (+1.659)
qwen3-4b_gpu0_ds_alpaca_concurrent_burst_maxtok128_nocap51.7 (+0.393)284.0 (+110.274)302.3 (-4.493)74.369 (-1.565)3.819 (+1.530)
qwen3-4b_gpu0_ds_alpaca_maxtok128_nocap51.3 173.8 306.8 75.934 2.289
qwen3-4b_gpu0_ds_alpaca_variable_maxtok128_nocap51.0 (-0.314)175.9 (+2.176)299.1 (-7.750)73.076 (-2.858)2.408 (+0.119)
▶ 개별 전력 그래프 펼치기
#06 LLM 전력 상한 (Cap) 실험

전력 제한(200~575W)이 LLM 추론 성능(tokens/s)과 효율(J/token)에 미치는 영향을 테스트합니다.

실험 변수: 전력 상한 (200W ~ 575W)
조건Idle 평균 (W)학습 평균 (W)학습 피크 (W)추론 평균 (W)추론 피크 (W)Decode Token/s (↑)J/Token (↓)
qwen3-4b_gpu0_ds_alpaca_maxtok128_cap200W52.6 142.6 215.5 71.056 2.007
qwen3-4b_gpu0_ds_alpaca_maxtok128_cap240W51.2 158.2 255.3 74.859 2.114
qwen3-4b_gpu0_ds_alpaca_maxtok128_cap280W53.3 169.8 291.9 76.121 2.231
qwen3-4b_gpu0_ds_alpaca_maxtok128_cap320W52.3 177.3 303.0 74.011 2.396
qwen3-4b_gpu0_ds_alpaca_maxtok128_cap360W52.7 172.0 305.1 75.777 2.269
▶ 개별 전력 그래프 펼치기
#07 LLM 클럭 고정 실험

GPU 클럭 고정(1005/1500/2100MHz)이 LLM 추론 성능에 미치는 영향을 테스트합니다.

실험 변수: 클럭 고정 (1005 / 1500 / 2100 MHz)
조건Idle 평균 (W)학습 평균 (W)학습 피크 (W)추론 평균 (W)추론 피크 (W)Decode Token/s (↑)J/Token (↓)
qwen3-4b_gpu0_ds_alpaca_maxtok128_nocap_clk1005MHz52.6 (-8.685)107.9 (-20.127)146.1 (-53.238)55.456 (-16.889)1.949 (+0.179)
qwen3-4b_gpu0_ds_alpaca_maxtok128_nocap_clk1500MHz57.4 (-3.855)119.2 (-8.922)176.6 (-22.724)68.873 (-3.472)1.730 (-0.040)
qwen3-4b_gpu0_ds_alpaca_maxtok128_nocap_clk2100MHz61.3 128.1 199.3 72.345 1.770
▶ 개별 전력 그래프 펼치기
#08 LLM 전력 램프 실험

단계적 전력 변화가 LLM 추론 중 전력 소비에 미치는 영향을 관찰합니다.

실험 변수: 램프 활성화
조건Idle 평균 (W)학습 평균 (W)학습 피크 (W)추론 평균 (W)추론 피크 (W)Decode Token/s (↑)J/Token (↓)
qwen3-4b_gpu0_ds_alpaca_maxtok128_nocap_ramp53.0 172.2 303.0 75.680 2.276
▶ 개별 전력 그래프 펼치기
#09 복합 제어 실험 (Cap + Clock + Ramp)

전력 상한, 클럭 고정, 램프를 조합한 복합 제어의 효과를 테스트합니다.

실험 변수: 제어 조합
조건Idle 평균 (W)학습 평균 (W)학습 피크 (W)추론 평균 (W)추론 피크 (W)Decode Token/s (↑)J/Token (↓)
qwen3-4b_gpu0_ds_alpaca_maxtok128_cap345W_clk1500MHz57.8 114.6 176.2 68.174 1.682
qwen3-4b_gpu0_ds_alpaca_maxtok128_cap345W_ramp52.6 176.7 296.4 71.618 2.466
▶ 개별 전력 그래프 펼치기
#10 정밀도별 전력 비교 (BF16/FP16/4bit)

연산 정밀도(BF16/FP16/4bit 양자화)에 따른 전력 및 성능 변화를 비교합니다.

실험 변수: 정밀도 (bf16 / fp16 / 4bit)
조건Idle 평균 (W)학습 평균 (W)학습 피크 (W)추론 평균 (W)추론 피크 (W)Decode Token/s (↑)J/Token (↓)
qwen3-4b_gpu0_ds_alpaca_maxtok128_nocap50.8 182.0 302.7 73.794 2.467
qwen3-4b_gpu0_ds_alpaca_maxtok128_nocap_4bit52.6 (+1.808)139.8 (-42.113)168.8 (-133.883)40.356 (-33.438)3.464 (+0.997)
qwen3-4b_gpu0_ds_alpaca_maxtok128_nocap_fp1652.4 (+1.675)180.0 (-1.960)295.7 (-7.002)71.605 (-2.189)2.514 (+0.047)
▶ 개별 전력 그래프 펼치기
#11 학습/추론 분리 실험

학습만, 추론만, 전체 사이클의 전력 프로파일 차이를 비교합니다.

실험 변수: 실행 구간 (train_only / infer_only / full_cycle)
조건Idle 평균 (W)학습 평균 (W)학습 피크 (W)추론 평균 (W)추론 피크 (W)Decode Token/s (↑)J/Token (↓)
mistral-7b_gpu0_ds_longbench_maxtok256_nocap53.9 308.6 409.1 49.623 6.217
qwen3-4b_gpu0_ds_alpaca_maxtok128_nocap51.9 178.0 304.0 71.128 2.502
qwen3-4b_gpu0_ds_alpaca_maxtok128_nocap55.5
▶ 개별 전력 그래프 펼치기
#12 LLM 모델별 토큰-전력 벤치마크

GPT-2, Qwen3-4B, Mistral-7B, Llama3.1-8B의 tokens/s 및 J/token을 벤치마크합니다.

실험 변수: LLM 모델 종류
조건Idle 평균 (W)학습 평균 (W)학습 피크 (W)추론 평균 (W)추론 피크 (W)Decode Token/s (↑)J/Token (↓)
gpt2_gpu0_ds_alpaca_maxtok128_nocap54.6 77.5 97.3 386.545 0.201
llama3.1-8b_gpu0_ds_alpaca_maxtok128_nocap54.0 245.7 435.0 76.413 3.214
mistral-7b_gpu0_ds_alpaca_maxtok128_nocap51.3 222.3 426.9 79.479 2.797
qwen3-4b_gpu0_ds_alpaca_maxtok128_nocap52.2 173.7 302.9 73.947 2.349
▶ 개별 전력 그래프 펼치기