AI 데이터센터 전력 프로파일 분석 — SEND Lab 전송 패키지
전력 제어 없이 표준 조건으로 실행한 기준 실험입니다.
실험 변수: 없음 (대조군)| 조건 | Idle 평균 (W) | 학습 평균 (W) | 학습 피크 (W) | 추론 Idle 평균 (W) | 추론 피크 (W) | 총 에너지 (J) |
|---|---|---|---|---|---|---|
| resnet50_cifar10_gpu0_bs64_ep1_req10000_nocap_fixed | 52.7 | 134.3 | 178.0 | 78.1 | 79.4 | 29670 |
배치 크기(16/64/128)에 따른 GPU 전력 소비 변화를 관찰합니다.
실험 변수: 배치 크기 (16 / 64 / 128)| 조건 | Idle 평균 (W) | 학습 평균 (W) | 학습 피크 (W) | 추론 Idle 평균 (W) | 추론 피크 (W) | 총 에너지 (J) |
|---|---|---|---|---|---|---|
| resnet50_cifar10_gpu0_bs128_ep1_req10000_nocap_fixed | 51.8 (-0.659) | 138.1 (+4.684) | 211.8 (+38.582) | 78.2 (-0.166) | 79.5 (-0.095) | 29205 (-526.306) |
| resnet50_cifar10_gpu0_bs16_ep1_req10000_nocap_fixed | 53.3 (+0.836) | 139.9 (+6.482) | 152.2 (-20.997) | 77.9 (-0.461) | 79.3 (-0.337) | 32440 (+2708.031) |
| resnet50_cifar10_gpu0_bs64_ep1_req10000_nocap_fixed | 52.5 | 133.4 | 173.2 | 78.3 | 79.6 | 29732 |
비균일 추론 요청 패턴에서의 전력 프로파일을 관찰합니다.
실험 변수: 가변 추론 간격| 조건 | Idle 평균 (W) | 학습 평균 (W) | 학습 피크 (W) | 추론 Idle 평균 (W) | 추론 피크 (W) | 총 에너지 (J) |
|---|---|---|---|---|---|---|
| resnet18_cifar10_gpu0_bs64_ep5_req60_nocap_variable | 53.7 | 128.5 | 152.2 | 78.2 | 79.3 | 34124 |
nvidia-smi 전력 제한(345W/460W/575W)이 성능과 전력에 미치는 영향을 테스트합니다.
실험 변수: 전력 상한 (345W / 460W / 575W)| 조건 | Idle 평균 (W) | 학습 평균 (W) | 학습 피크 (W) | 추론 Idle 평균 (W) | 추론 피크 (W) | 총 에너지 (J) |
|---|---|---|---|---|---|---|
| resnet18_cifar10_gpu0_bs64_ep1_req10000_cap345W_fixed | 9.9 (-42.174) | 111.6 (+9.599) | 148.0 (-1.972) | 77.9 (+0.084) | 78.8 (-0.122) | 27225 (-1655.702) |
| resnet18_cifar10_gpu0_bs64_ep1_req10000_cap460W_fixed | 9.4 (-42.712) | 118.1 (+16.059) | 147.3 (-2.643) | 78.1 (+0.189) | 79.3 (+0.345) | 27206 (-1675.326) |
| resnet18_cifar10_gpu0_bs64_ep1_req10000_cap575W_fixed | 52.1 | 102.0 | 150.0 | 77.9 | 79.0 | 28881 |
전력 제한을 단계적으로 변화시켜 GPU 적응 동작을 관찰합니다.
실험 변수: 램프 활성화| 조건 | Idle 평균 (W) | 학습 평균 (W) | 학습 피크 (W) | 추론 Idle 평균 (W) | 추론 피크 (W) | 총 에너지 (J) |
|---|---|---|---|---|---|---|
| resnet18_cifar10_gpu0_bs64_ep1_req10000_nocap_ramp_fixed | 54.1 | 105.8 | 148.3 | 77.9 | 78.9 | 29572 |
고정/가변/버스트 세 가지 추론 스케줄링 패턴의 전력 영향을 비교합니다.
실험 변수: 추론 패턴 (fixed / variable / burst)| 조건 | Idle 평균 (W) | 학습 평균 (W) | 학습 피크 (W) | 추론 Idle 평균 (W) | 추론 피크 (W) | 총 에너지 (J) |
|---|---|---|---|---|---|---|
| resnet18_cifar10_gpu0_bs64_ep1_req10000_nocap_burst | 51.9 | 102.0 | 151.7 | 78.4 | 79.7 | 28671 |
| resnet18_cifar10_gpu0_bs64_ep1_req10000_nocap_fixed | 53.4 (+1.513) | 100.1 (-1.915) | 149.9 (-1.777) | 78.3 (-0.171) | 79.4 (-0.301) | 28981 (+310.083) |
| resnet18_cifar10_gpu0_bs64_ep1_req10000_nocap_variable | 52.3 (+0.360) | 103.6 (+1.544) | 150.7 (-1.053) | 78.0 (-0.441) | 79.2 (-0.444) | 28852 (+180.841) |
10개 비전 모델 아키텍처가 생성하는 서로 다른 전력 시그니처를 비교합니다.
실험 변수: 모델 아키텍처 (10종)| 조건 | Idle 평균 (W) | 학습 평균 (W) | 학습 피크 (W) | 추론 Idle 평균 (W) | 추론 피크 (W) | 총 에너지 (J) |
|---|---|---|---|---|---|---|
| convnext_tiny_cifar10_gpu0_bs64_ep1_req10000_nocap_fixed | 53.6 (-0.100) | 325.6 (+190.942) | 514.4 (+340.990) | 79.1 (+1.131) | 83.4 (+3.834) | 42655 (+12997.676) |
| densenet121_cifar10_gpu0_bs64_ep1_req10000_nocap_fixed | 53.7 (-0.091) | 378.6 (+243.882) | 436.7 (+263.225) | 79.2 (+1.171) | 83.3 (+3.767) | 43719 (+14061.848) |
| efficientnet_b0_cifar10_gpu0_bs64_ep1_req10000_nocap_fixed | 53.2 (-0.546) | 310.7 (+176.043) | 401.6 (+228.123) | 78.9 (+0.901) | 81.4 (+1.868) | 38061 (+8403.014) |
| mobilenetv2_cifar10_gpu0_bs64_ep1_req10000_nocap_fixed | 54.0 (+0.246) | 103.0 (-31.713) | 138.9 (-34.541) | 78.0 (-0.018) | 79.4 (-0.195) | 29468 (-189.919) |
| resnet18_cifar10_gpu0_bs64_ep1_req10000_nocap_fixed | 52.9 (-0.883) | 101.9 (-32.813) | 147.4 (-26.020) | 77.9 (-0.095) | 79.1 (-0.493) | 28871 (-786.728) |
| resnet50_cifar10_gpu0_bs64_ep1_req10000_nocap_fixed | 53.7 | 134.7 | 173.4 | 78.0 | 79.6 | 29658 |
| resnext50_32x4d_cifar10_gpu0_bs64_ep1_req10000_nocap_fixed | 53.4 (-0.363) | 381.1 (+246.442) | 514.3 (+340.840) | 79.5 (+1.498) | 84.1 (+4.491) | 45881 (+16223.426) |
| swin_t_cifar10_gpu0_bs64_ep1_req10000_nocap_fixed | 51.8 (-1.992) | 481.1 (+346.406) | 512.4 (+338.946) | 80.2 (+2.211) | 85.8 (+6.269) | 45197 (+15539.700) |
| vgg16_cifar10_gpu0_bs64_ep1_req10000_nocap_fixed | 52.1 (-1.688) | 218.4 (+83.705) | 287.3 (+113.858) | 78.0 (-0.021) | 79.3 (-0.265) | 31082 (+1424.408) |
| vit_b_16_cifar10_gpu0_bs64_ep1_req10000_nocap_fixed | 51.7 (-2.015) | 562.2 (+427.473) | 585.8 (+412.344) | 80.2 (+2.190) | 87.0 (+7.404) | 48888 (+19230.407) |
데이터셋(이미지 해상도, 클래스 수)이 전력 프로파일에 미치는 영향을 테스트합니다.
실험 변수: 데이터셋 (CIFAR-10 / CIFAR-100 / ImageNet)| 조건 | Idle 평균 (W) | 학습 평균 (W) | 학습 피크 (W) | 추론 Idle 평균 (W) | 추론 피크 (W) | 총 에너지 (J) |
|---|---|---|---|---|---|---|
| resnet50_cifar100_gpu0_bs64_ep1_req10000_nocap_fixed | 52.4 | 131.6 | 170.0 | 78.2 | 79.3 | 29700 |
| resnet50_cifar10_gpu0_bs64_ep1_req10000_nocap_fixed | 53.7 (+1.284) | 135.0 (+3.411) | 172.6 (+2.617) | 78.3 (+0.122) | 79.5 (+0.127) | 29821 (+121.380) |
| resnet50_imagenet_gpu0_bs64_ep1_req10000_nocap_fixed | 52.0 (-0.356) | 479.7 (+348.097) | 490.5 (+320.526) | 79.0 (+0.804) | 83.4 (+4.041) | 338171 (+308470.969) |
고정 SGD 학습 vs Optuna 기반 자동 하이퍼파라미터 탐색의 전력 비교입니다.
실험 변수: 학습 모드 (fixed / automl)| 조건 | Idle 평균 (W) | 학습 평균 (W) | 학습 피크 (W) | 추론 Idle 평균 (W) | 추론 피크 (W) | 총 에너지 (J) |
|---|---|---|---|---|---|---|
| resnet18_cifar10_gpu0_bs64_ep1_req10000_nocap_fixed | 54.2 | 102.5 | 147.7 | 77.9 | 79.2 | 28945 |
주기적 모델 저장이 만드는 전력 스파이크(GPU 연산 중단 → 디스크 I/O)를 관찰합니다.
실험 변수: 체크포인트 주기| 조건 | Idle 평균 (W) | 학습 평균 (W) | 학습 피크 (W) | 추론 Idle 평균 (W) | 추론 피크 (W) | 총 에너지 (J) |
|---|---|---|---|---|---|---|
| resnet18_cifar10_gpu0_bs64_ep1_req10000_nocap_fixed | 53.5 | — | — | 77.9 | 79.0 | 29034 |
GPU SM 클럭을 특정 주파수(1005/1500/2100MHz)로 고정했을 때의 전력 변화를 테스트합니다.
실험 변수: 클럭 고정 (1005 / 1500 / 2100 MHz)| 조건 | Idle 평균 (W) | 학습 평균 (W) | 학습 피크 (W) | 추론 Idle 평균 (W) | 추론 피크 (W) | 총 에너지 (J) |
|---|---|---|---|---|---|---|
| resnet18_cifar10_gpu0_bs64_ep1_req10000_nocap_clk1005MHz_fixed | 52.9 (-8.270) | 64.4 (-11.827) | 79.1 (-18.937) | 53.5 (-8.253) | 54.7 (-7.955) | 21503 (-3294.508) |
| resnet18_cifar10_gpu0_bs64_ep1_req10000_nocap_clk1500MHz_fixed | 57.9 (-3.234) | 70.9 (-5.391) | 88.1 (-9.952) | 57.9 (-3.928) | 58.3 (-4.400) | 23260 (-1537.386) |
| resnet18_cifar10_gpu0_bs64_ep1_req10000_nocap_clk2100MHz_fixed | 61.2 | 76.3 | 98.1 | 61.8 | 62.7 | 24797 |
GPT-2, Qwen3-4B, Mistral-7B, Llama3.1-8B 네 종류의 LLM 전력 프로파일을 비교합니다.
실험 변수: LLM 모델 종류| 조건 | Idle 평균 (W) | 학습 평균 (W) | 학습 피크 (W) | 추론 평균 (W) | 추론 피크 (W) | Decode Token/s (↑) | J/Token (↓) |
|---|---|---|---|---|---|---|---|
| gpt2_gpu0_ds_alpaca_maxtok128_nocap | 53.6 | — | — | 77.3 | 92.2 | 377.485 | 0.204 |
| llama3.1-8b_gpu0_ds_alpaca_maxtok128_nocap | 53.4 | — | — | 226.5 | 435.6 | 76.366 | 2.968 |
| mistral-7b_gpu0_ds_alpaca_maxtok128_nocap | 54.1 | — | — | 221.7 | 428.0 | 79.432 | 2.792 |
| qwen3-4b_gpu0_ds_alpaca_maxtok128_nocap | 54.7 | — | — | 173.3 | 298.2 | 72.853 | 2.379 |
최대 토큰 생성 길이(32/128)에 따른 전력 변화를 관찰합니다.
실험 변수: 최대 생성 토큰 수 (32 / 128)| 조건 | Idle 평균 (W) | 학습 평균 (W) | 학습 피크 (W) | 추론 평균 (W) | 추론 피크 (W) | Decode Token/s (↑) | J/Token (↓) |
|---|---|---|---|---|---|---|---|
| qwen3-4b_gpu0_ds_alpaca_maxtok128_nocap | 53.5 | — | — | 175.0 | 307.1 | 75.556 | 2.315 |
| qwen3-4b_gpu0_ds_alpaca_maxtok32_nocap | 52.5 (-1.022) | — | — | 85.2 (-89.816) | 142.6 (-164.580) | 76.548 (+0.992) | 1.116 (-1.199) |
Alpaca, MMLU-Pro, LongBench 데이터셋별 전력 프로파일을 비교합니다.
실험 변수: 데이터셋 (alpaca / mmlu-pro / longbench)| 조건 | Idle 평균 (W) | 학습 평균 (W) | 학습 피크 (W) | 추론 평균 (W) | 추론 피크 (W) | Decode Token/s (↑) | J/Token (↓) |
|---|---|---|---|---|---|---|---|
| qwen3-4b_gpu0_ds_alpaca_maxtok128_nocap | 55.1 | — | — | 173.8 | 306.1 | 75.681 | 2.296 |
| qwen3-4b_gpu0_ds_longbench_maxtok128_nocap | 52.6 (-2.582) | — | — | 226.6 (+52.854) | 357.8 (+51.734) | 70.731 (-4.950) | 3.205 (+0.909) |
| qwen3-4b_gpu0_ds_mmlu-pro_maxtok128_nocap | 53.0 (-2.111) | — | — | 183.5 (+9.768) | 294.9 (-11.166) | 71.134 (-4.547) | 2.581 (+0.285) |
더 넓은 범위의 최대 생성 토큰 수(32/256/512)별 전력 변화를 관찰합니다.
실험 변수: 최대 생성 토큰 수 (32 / 256 / 512)| 조건 | Idle 평균 (W) | 학습 평균 (W) | 학습 피크 (W) | 추론 평균 (W) | 추론 피크 (W) | Decode Token/s (↑) | J/Token (↓) |
|---|---|---|---|---|---|---|---|
| qwen3-4b_gpu0_ds_alpaca_maxtok256_nocap | 53.4 (+0.562) | — | — | 232.1 (+148.068) | 296.9 (+132.907) | 70.766 (-2.000) | 3.280 (+2.128) |
| qwen3-4b_gpu0_ds_alpaca_maxtok32_nocap | 52.8 | — | — | 84.0 | 164.0 | 72.766 | 1.152 |
| qwen3-4b_gpu0_ds_alpaca_maxtok512_nocap | 52.5 (-0.364) | — | — | 266.1 (+182.151) | 309.2 (+145.249) | 75.804 (+3.038) | 3.511 (+2.359) |
고정/가변/버스트/동시 버스트 네 가지 추론 패턴이 전력과 처리량에 미치는 영향을 비교합니다.
실험 변수: 추론 패턴 (fixed / variable / burst / concurrent_burst)| 조건 | Idle 평균 (W) | 학습 평균 (W) | 학습 피크 (W) | 추론 평균 (W) | 추론 피크 (W) | Decode Token/s (↑) | J/Token (↓) |
|---|---|---|---|---|---|---|---|
| qwen3-4b_gpu0_ds_alpaca_burst_maxtok128_nocap | 52.1 (+0.794) | — | — | 214.3 (+40.486) | 306.6 (-0.193) | 75.905 (-0.029) | 3.948 (+1.659) |
| qwen3-4b_gpu0_ds_alpaca_concurrent_burst_maxtok128_nocap | 51.7 (+0.393) | — | — | 284.0 (+110.274) | 302.3 (-4.493) | 74.369 (-1.565) | 3.819 (+1.530) |
| qwen3-4b_gpu0_ds_alpaca_maxtok128_nocap | 51.3 | — | — | 173.8 | 306.8 | 75.934 | 2.289 |
| qwen3-4b_gpu0_ds_alpaca_variable_maxtok128_nocap | 51.0 (-0.314) | — | — | 175.9 (+2.176) | 299.1 (-7.750) | 73.076 (-2.858) | 2.408 (+0.119) |
전력 제한(200~575W)이 LLM 추론 성능(tokens/s)과 효율(J/token)에 미치는 영향을 테스트합니다.
실험 변수: 전력 상한 (200W ~ 575W)| 조건 | Idle 평균 (W) | 학습 평균 (W) | 학습 피크 (W) | 추론 평균 (W) | 추론 피크 (W) | Decode Token/s (↑) | J/Token (↓) |
|---|---|---|---|---|---|---|---|
| qwen3-4b_gpu0_ds_alpaca_maxtok128_cap200W | 52.6 | — | — | 142.6 | 215.5 | 71.056 | 2.007 |
| qwen3-4b_gpu0_ds_alpaca_maxtok128_cap240W | 51.2 | — | — | 158.2 | 255.3 | 74.859 | 2.114 |
| qwen3-4b_gpu0_ds_alpaca_maxtok128_cap280W | 53.3 | — | — | 169.8 | 291.9 | 76.121 | 2.231 |
| qwen3-4b_gpu0_ds_alpaca_maxtok128_cap320W | 52.3 | — | — | 177.3 | 303.0 | 74.011 | 2.396 |
| qwen3-4b_gpu0_ds_alpaca_maxtok128_cap360W | 52.7 | — | — | 172.0 | 305.1 | 75.777 | 2.269 |
GPU 클럭 고정(1005/1500/2100MHz)이 LLM 추론 성능에 미치는 영향을 테스트합니다.
실험 변수: 클럭 고정 (1005 / 1500 / 2100 MHz)| 조건 | Idle 평균 (W) | 학습 평균 (W) | 학습 피크 (W) | 추론 평균 (W) | 추론 피크 (W) | Decode Token/s (↑) | J/Token (↓) |
|---|---|---|---|---|---|---|---|
| qwen3-4b_gpu0_ds_alpaca_maxtok128_nocap_clk1005MHz | 52.6 (-8.685) | — | — | 107.9 (-20.127) | 146.1 (-53.238) | 55.456 (-16.889) | 1.949 (+0.179) |
| qwen3-4b_gpu0_ds_alpaca_maxtok128_nocap_clk1500MHz | 57.4 (-3.855) | — | — | 119.2 (-8.922) | 176.6 (-22.724) | 68.873 (-3.472) | 1.730 (-0.040) |
| qwen3-4b_gpu0_ds_alpaca_maxtok128_nocap_clk2100MHz | 61.3 | — | — | 128.1 | 199.3 | 72.345 | 1.770 |
단계적 전력 변화가 LLM 추론 중 전력 소비에 미치는 영향을 관찰합니다.
실험 변수: 램프 활성화| 조건 | Idle 평균 (W) | 학습 평균 (W) | 학습 피크 (W) | 추론 평균 (W) | 추론 피크 (W) | Decode Token/s (↑) | J/Token (↓) |
|---|---|---|---|---|---|---|---|
| qwen3-4b_gpu0_ds_alpaca_maxtok128_nocap_ramp | 53.0 | — | — | 172.2 | 303.0 | 75.680 | 2.276 |
전력 상한, 클럭 고정, 램프를 조합한 복합 제어의 효과를 테스트합니다.
실험 변수: 제어 조합| 조건 | Idle 평균 (W) | 학습 평균 (W) | 학습 피크 (W) | 추론 평균 (W) | 추론 피크 (W) | Decode Token/s (↑) | J/Token (↓) |
|---|---|---|---|---|---|---|---|
| qwen3-4b_gpu0_ds_alpaca_maxtok128_cap345W_clk1500MHz | 57.8 | — | — | 114.6 | 176.2 | 68.174 | 1.682 |
| qwen3-4b_gpu0_ds_alpaca_maxtok128_cap345W_ramp | 52.6 | — | — | 176.7 | 296.4 | 71.618 | 2.466 |
연산 정밀도(BF16/FP16/4bit 양자화)에 따른 전력 및 성능 변화를 비교합니다.
실험 변수: 정밀도 (bf16 / fp16 / 4bit)| 조건 | Idle 평균 (W) | 학습 평균 (W) | 학습 피크 (W) | 추론 평균 (W) | 추론 피크 (W) | Decode Token/s (↑) | J/Token (↓) |
|---|---|---|---|---|---|---|---|
| qwen3-4b_gpu0_ds_alpaca_maxtok128_nocap | 50.8 | — | — | 182.0 | 302.7 | 73.794 | 2.467 |
| qwen3-4b_gpu0_ds_alpaca_maxtok128_nocap_4bit | 52.6 (+1.808) | — | — | 139.8 (-42.113) | 168.8 (-133.883) | 40.356 (-33.438) | 3.464 (+0.997) |
| qwen3-4b_gpu0_ds_alpaca_maxtok128_nocap_fp16 | 52.4 (+1.675) | — | — | 180.0 (-1.960) | 295.7 (-7.002) | 71.605 (-2.189) | 2.514 (+0.047) |
학습만, 추론만, 전체 사이클의 전력 프로파일 차이를 비교합니다.
실험 변수: 실행 구간 (train_only / infer_only / full_cycle)| 조건 | Idle 평균 (W) | 학습 평균 (W) | 학습 피크 (W) | 추론 평균 (W) | 추론 피크 (W) | Decode Token/s (↑) | J/Token (↓) |
|---|---|---|---|---|---|---|---|
| mistral-7b_gpu0_ds_longbench_maxtok256_nocap | 53.9 | — | — | 308.6 | 409.1 | 49.623 | 6.217 |
| qwen3-4b_gpu0_ds_alpaca_maxtok128_nocap | 51.9 | — | — | 178.0 | 304.0 | 71.128 | 2.502 |
| qwen3-4b_gpu0_ds_alpaca_maxtok128_nocap | 55.5 | — | — | — | — | — | — |
GPT-2, Qwen3-4B, Mistral-7B, Llama3.1-8B의 tokens/s 및 J/token을 벤치마크합니다.
실험 변수: LLM 모델 종류| 조건 | Idle 평균 (W) | 학습 평균 (W) | 학습 피크 (W) | 추론 평균 (W) | 추론 피크 (W) | Decode Token/s (↑) | J/Token (↓) |
|---|---|---|---|---|---|---|---|
| gpt2_gpu0_ds_alpaca_maxtok128_nocap | 54.6 | — | — | 77.5 | 97.3 | 386.545 | 0.201 |
| llama3.1-8b_gpu0_ds_alpaca_maxtok128_nocap | 54.0 | — | — | 245.7 | 435.0 | 76.413 | 3.214 |
| mistral-7b_gpu0_ds_alpaca_maxtok128_nocap | 51.3 | — | — | 222.3 | 426.9 | 79.479 | 2.797 |
| qwen3-4b_gpu0_ds_alpaca_maxtok128_nocap | 52.2 | — | — | 173.7 | 302.9 | 73.947 | 2.349 |