|
|
""" |
|
|
분리된 임베딩 데이터 로드 및 사용 예제 |
|
|
|
|
|
제목과 본문이 따로 임베딩되어 있음: |
|
|
- title_embeddings: (N, 768) |
|
|
- content_embeddings: (N, 768) |
|
|
""" |
|
|
|
|
|
import numpy as np |
|
|
import torch |
|
|
import torch.nn as nn |
|
|
from pathlib import Path |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
def load_embeddings(file_path): |
|
|
""" |
|
|
.npz 파일에서 분리된 임베딩 데이터 로드 |
|
|
|
|
|
Returns: |
|
|
title_embeddings: (N, 768) numpy array - 제목 임베딩 |
|
|
content_embeddings: (N, 768) numpy array - 본문 임베딩 |
|
|
labels: (N,) numpy array - 0 (비낚시성) 또는 1 (낚시성) |
|
|
article_ids: (N,) numpy array - 기사 ID (참고용) |
|
|
""" |
|
|
data = np.load(file_path) |
|
|
|
|
|
title_embeddings = data['title_embeddings'] |
|
|
content_embeddings = data['content_embeddings'] |
|
|
labels = data['labels'] |
|
|
article_ids = data['article_ids'] |
|
|
|
|
|
return title_embeddings, content_embeddings, labels, article_ids |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
print("="*60) |
|
|
print("분리된 임베딩 데이터 로드 예제") |
|
|
print("="*60) |
|
|
|
|
|
|
|
|
embeddings_dir = Path(r"C:\Users\Asus\Desktop\data_projext\embeddings") |
|
|
|
|
|
train_path = embeddings_dir / "train_embeddings.npz" |
|
|
val_path = embeddings_dir / "val_embeddings.npz" |
|
|
test_path = embeddings_dir / "test_embeddings.npz" |
|
|
|
|
|
|
|
|
print("\n[Train 데이터]") |
|
|
X_train_title, X_train_content, y_train, train_ids = load_embeddings(train_path) |
|
|
print(f" 제목 임베딩: {X_train_title.shape} # (샘플 수, 768차원)") |
|
|
print(f" 본문 임베딩: {X_train_content.shape} # (샘플 수, 768차원)") |
|
|
print(f" 레이블: {y_train.shape} # (샘플 수,)") |
|
|
|
|
|
|
|
|
print("\n[Validation 데이터]") |
|
|
X_val_title, X_val_content, y_val, val_ids = load_embeddings(val_path) |
|
|
print(f" 제목 임베딩: {X_val_title.shape}") |
|
|
print(f" 본문 임베딩: {X_val_content.shape}") |
|
|
print(f" 레이블: {y_val.shape}") |
|
|
|
|
|
|
|
|
print("\n[Test 데이터]") |
|
|
X_test_title, X_test_content, y_test, test_ids = load_embeddings(test_path) |
|
|
print(f" 제목 임베딩: {X_test_title.shape}") |
|
|
print(f" 본문 임베딩: {X_test_content.shape}") |
|
|
print(f" 레이블: {y_test.shape}") |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
print("\n" + "="*60) |
|
|
print("제목과 본문 합치는 방법") |
|
|
print("="*60) |
|
|
|
|
|
|
|
|
print("\n[방법 1] 단순 Concatenate") |
|
|
X_train_concat = np.concatenate([X_train_title, X_train_content], axis=1) |
|
|
print(f"결과: {X_train_concat.shape} # (N, 1536)") |
|
|
print("→ 이제 일반 MLP로 학습 가능") |
|
|
|
|
|
|
|
|
print("\n[방법 2] 각각 처리 후 결합 (PyTorch)") |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
print("\n" + "="*60) |
|
|
print("PyTorch 모델 예제") |
|
|
print("="*60) |
|
|
|
|
|
|
|
|
class ClickbaitClassifier(nn.Module): |
|
|
""" |
|
|
제목과 본문을 각각 처리한 후 결합하는 분류기 |
|
|
""" |
|
|
def __init__(self): |
|
|
super().__init__() |
|
|
|
|
|
|
|
|
self.title_network = nn.Sequential( |
|
|
nn.Linear(768, 384), |
|
|
nn.ReLU(), |
|
|
nn.Dropout(0.3) |
|
|
) |
|
|
|
|
|
|
|
|
self.content_network = nn.Sequential( |
|
|
nn.Linear(768, 384), |
|
|
nn.ReLU(), |
|
|
nn.Dropout(0.3) |
|
|
) |
|
|
|
|
|
|
|
|
self.classifier = nn.Sequential( |
|
|
nn.Linear(768, 256), |
|
|
nn.ReLU(), |
|
|
nn.Dropout(0.3), |
|
|
nn.Linear(256, 2) |
|
|
) |
|
|
|
|
|
def forward(self, title_emb, content_emb): |
|
|
""" |
|
|
Args: |
|
|
title_emb: (batch_size, 768) |
|
|
content_emb: (batch_size, 768) |
|
|
|
|
|
Returns: |
|
|
output: (batch_size, 2) |
|
|
""" |
|
|
|
|
|
title_features = self.title_network(title_emb) |
|
|
content_features = self.content_network(content_emb) |
|
|
|
|
|
|
|
|
combined = torch.cat([title_features, content_features], dim=1) |
|
|
|
|
|
|
|
|
output = self.classifier(combined) |
|
|
|
|
|
return output |
|
|
|
|
|
|
|
|
|
|
|
model = ClickbaitClassifier() |
|
|
print(f"\n모델 생성 완료!") |
|
|
print(f"총 파라미터 수: {sum(p.numel() for p in model.parameters()):,}") |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
print("\n" + "="*60) |
|
|
print("학습 코드 예제") |
|
|
print("="*60) |
|
|
|
|
|
print(""" |
|
|
from torch.utils.data import Dataset, DataLoader |
|
|
|
|
|
# 1. Dataset 클래스 정의 |
|
|
class ClickbaitDataset(Dataset): |
|
|
def __init__(self, title_emb, content_emb, labels): |
|
|
self.title_emb = torch.FloatTensor(title_emb) |
|
|
self.content_emb = torch.FloatTensor(content_emb) |
|
|
self.labels = torch.LongTensor(labels) |
|
|
|
|
|
def __len__(self): |
|
|
return len(self.labels) |
|
|
|
|
|
def __getitem__(self, idx): |
|
|
return self.title_emb[idx], self.content_emb[idx], self.labels[idx] |
|
|
|
|
|
|
|
|
# 2. DataLoader 생성 |
|
|
train_dataset = ClickbaitDataset(X_train_title, X_train_content, y_train) |
|
|
train_loader = DataLoader(train_dataset, batch_size=64, shuffle=True) |
|
|
|
|
|
val_dataset = ClickbaitDataset(X_val_title, X_val_content, y_val) |
|
|
val_loader = DataLoader(val_dataset, batch_size=64, shuffle=False) |
|
|
|
|
|
|
|
|
# 3. 모델, Loss, Optimizer |
|
|
model = ClickbaitClassifier() |
|
|
criterion = nn.CrossEntropyLoss() |
|
|
optimizer = torch.optim.Adam(model.parameters(), lr=0.001) |
|
|
|
|
|
|
|
|
# 4. 학습 루프 |
|
|
for epoch in range(10): |
|
|
model.train() |
|
|
for title_batch, content_batch, label_batch in train_loader: |
|
|
optimizer.zero_grad() |
|
|
|
|
|
# Forward |
|
|
outputs = model(title_batch, content_batch) |
|
|
loss = criterion(outputs, label_batch) |
|
|
|
|
|
# Backward |
|
|
loss.backward() |
|
|
optimizer.step() |
|
|
|
|
|
# Validation |
|
|
model.eval() |
|
|
correct = 0 |
|
|
total = 0 |
|
|
with torch.no_grad(): |
|
|
for title_batch, content_batch, label_batch in val_loader: |
|
|
outputs = model(title_batch, content_batch) |
|
|
_, predicted = torch.max(outputs, 1) |
|
|
total += label_batch.size(0) |
|
|
correct += (predicted == label_batch).sum().item() |
|
|
|
|
|
accuracy = correct / total |
|
|
print(f'Epoch {epoch+1}, Accuracy: {accuracy:.4f}') |
|
|
""") |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
print("\n" + "="*60) |
|
|
print("간단한 MLP 버전 (Concatenate)") |
|
|
print("="*60) |
|
|
|
|
|
print(""" |
|
|
# 제목+본문 단순 결합 |
|
|
X_train = np.concatenate([X_train_title, X_train_content], axis=1) # (N, 1536) |
|
|
X_val = np.concatenate([X_val_title, X_val_content], axis=1) |
|
|
|
|
|
# 간단한 MLP |
|
|
class SimpleMLP(nn.Module): |
|
|
def __init__(self): |
|
|
super().__init__() |
|
|
self.network = nn.Sequential( |
|
|
nn.Linear(1536, 768), |
|
|
nn.ReLU(), |
|
|
nn.Dropout(0.3), |
|
|
nn.Linear(768, 384), |
|
|
nn.ReLU(), |
|
|
nn.Dropout(0.3), |
|
|
nn.Linear(384, 2) |
|
|
) |
|
|
|
|
|
def forward(self, x): |
|
|
return self.network(x) |
|
|
|
|
|
model = SimpleMLP() |
|
|
|
|
|
# 학습 |
|
|
X_train_tensor = torch.FloatTensor(X_train) |
|
|
y_train_tensor = torch.LongTensor(y_train) |
|
|
# ... (일반적인 학습 코드) |
|
|
""") |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
print("\n" + "="*60) |
|
|
print("Scikit-learn 사용 (가장 간단)") |
|
|
print("="*60) |
|
|
|
|
|
print(""" |
|
|
from sklearn.linear_model import LogisticRegression |
|
|
from sklearn.ensemble import RandomForestClassifier |
|
|
from sklearn.metrics import accuracy_score, classification_report |
|
|
|
|
|
# 제목+본문 결합 |
|
|
X_train = np.concatenate([X_train_title, X_train_content], axis=1) |
|
|
X_val = np.concatenate([X_val_title, X_val_content], axis=1) |
|
|
|
|
|
# Logistic Regression |
|
|
model = LogisticRegression(max_iter=1000) |
|
|
model.fit(X_train, y_train) |
|
|
y_pred = model.predict(X_val) |
|
|
print(f'Accuracy: {accuracy_score(y_val, y_pred):.4f}') |
|
|
|
|
|
# Random Forest |
|
|
rf_model = RandomForestClassifier(n_estimators=100) |
|
|
rf_model.fit(X_train, y_train) |
|
|
rf_pred = rf_model.predict(X_val) |
|
|
print(f'RF Accuracy: {accuracy_score(y_val, rf_pred):.4f}') |
|
|
""") |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
print("\n" + "="*60) |
|
|
print("중요 정보") |
|
|
print("="*60) |
|
|
|
|
|
print(""" |
|
|
[데이터 형태] |
|
|
- title_embeddings: (N, 768) - 제목만 SBERT 임베딩 |
|
|
- content_embeddings: (N, 768) - 본문만 SBERT 임베딩 |
|
|
- labels: (N,) - 0 (비낚시성) 또는 1 (낚시성) |
|
|
- article_ids: (N,) - 기사 ID (학습에 사용 안 함!) |
|
|
|
|
|
[합치는 방법] |
|
|
1. 단순 concatenate: [title(768) + content(768)] = 1536차원 |
|
|
→ 간단하지만 제목/본문 구분 없음 |
|
|
|
|
|
2. 각각 처리 후 결합: 제목→384, 본문→384, 결합→768 |
|
|
→ 제목/본문에 다른 가중치 부여 가능 (추천!) |
|
|
|
|
|
3. Attention 메커니즘: 제목과 본문의 상호작용 학습 |
|
|
→ 고급 방법, 성능 향상 가능 |
|
|
|
|
|
[주의사항] |
|
|
- article_ids는 학습에 사용하지 말 것! |
|
|
- Train/Val/Test 간 article_id 중복 없음 (검증 완료) |
|
|
- 출력층은 2개 (Class 0, Class 1) |
|
|
- Loss: CrossEntropyLoss 사용 |
|
|
|
|
|
[추천 순서] |
|
|
1. 먼저 Scikit-learn으로 베이스라인 확인 |
|
|
2. 간단한 MLP (concatenate) 시도 |
|
|
3. 각각 처리 후 결합 모델 시도 |
|
|
4. 하이퍼파라미터 튜닝 |
|
|
""") |
|
|
|
|
|
print("\n임베딩을 사용한 학습을 시작하세요!") |
|
|
|