|
|
import pandas as pd |
|
|
import os |
|
|
import json |
|
|
from tqdm import tqdm |
|
|
from gensim.models import Word2Vec |
|
|
import multiprocessing |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
input_file_path = '/chosun_pos_tagged_parallel.jsonl' |
|
|
|
|
|
|
|
|
output_dir = '/koselleck_analysis_results' |
|
|
model_dir = os.path.join(output_dir, 'word2vec_models_decade') |
|
|
os.makedirs(model_dir, exist_ok=True) |
|
|
|
|
|
|
|
|
VECTOR_SIZE = 100 |
|
|
WINDOW = 5 |
|
|
MIN_COUNT = 5 |
|
|
WORKERS = max(1, multiprocessing.cpu_count() - 1) |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
print("--- 10년 단위 Word2Vec 모델 학습 시작 ---") |
|
|
print("\n1. 전처리된 데이터를 로드하여 10년 단위로 그룹화합니다.") |
|
|
try: |
|
|
df = pd.read_json(input_file_path, lines=True) |
|
|
df = df[df['type'] == 'article'].copy() |
|
|
df['decade'] = (df['year'] // 10) * 10 |
|
|
print("파일 로드 및 그룹화 완료.") |
|
|
except FileNotFoundError: |
|
|
print(f"오류: '{input_file_path}'를 찾을 수 없습니다.") |
|
|
exit() |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
print(f"\n2. 10년 단위 Word2Vec 모델을 순차적으로 학습합니다.") |
|
|
for decade, group in tqdm(df.groupby('decade'), desc="10년 단위 모델 학습"): |
|
|
model_path = os.path.join(model_dir, f'word2vec_{decade}.model') |
|
|
if os.path.exists(model_path): |
|
|
print(f"{decade}년대 모델이 이미 존재하여 건너뜁니다.") |
|
|
continue |
|
|
|
|
|
try: |
|
|
sentences = [[word for word, pos in doc if pos == 'Noun'] for doc in group['pos_tagged_body']] |
|
|
model = Word2Vec(sentences, vector_size=VECTOR_SIZE, window=WINDOW, min_count=MIN_COUNT, workers=WORKERS) |
|
|
model.save(model_path) |
|
|
print(f"{decade}년대 모델 학습 및 저장 완료.") |
|
|
except Exception as e: |
|
|
print(f"{decade}년대 모델 학습 중 오류 발생: {e}") |
|
|
|
|
|
print(f"\n> 모든 10년 단위 모델 학습이 완료되었습니다. 결과 저장 경로: {model_dir}") |
|
|
|