chosunilbo-analysis / scripts /01_preprocess_Okt_parallel.py
ddokbaro's picture
Create 01_preprocess_Okt_parallel.py
e022aed verified
import pandas as pd
from konlpy.tag import Okt
import os
import json
from tqdm import tqdm
import datetime
import multiprocessing
import numpy as np
import time
# ----------------------------------------
# 1. 설정
# ----------------------------------------
# 입력 파일 경로
input_file_path = '/chosun_preprocessed.csv'
# 출력 디렉토리 및 파일 경로 (고정된 파일명으로 이어하기 지원)
output_dir = '/koselleck_analysis_results'
output_file_path = os.path.join(output_dir, 'chosun_pos_tagged_parallel.jsonl')
error_log_path = os.path.join(output_dir, 'pos_tagging_errors_parallel.log')
# 사용할 CPU 프로세스 수 (시스템 코어 수 - 1을 권장)
NUM_PROCESSES = max(1, multiprocessing.cpu_count() - 1)
# 원본 CSV를 읽을 때 한 번에 메모리에 올릴 행의 수
CHUNK_SIZE = 200000
# ----------------------------------------
# 2. 병렬 처리를 위한 작업 함수 및 초기화 함수 정의
# ----------------------------------------
# 각 Worker 프로세스에서 사용할 전역 변수
okt_worker = None
progress_counter = None
lock = None
def init_worker(counter, lk):
"""
각 Worker 프로세스가 시작될 때 한 번만 실행되는 초기화 함수.
Okt 객체, 공유 카운터, 공유 잠금 장치를 전역 변수에 할당합니다.
"""
global okt_worker, progress_counter, lock
okt_worker = Okt()
progress_counter = counter
lock = lk
def process_chunk(chunk_df):
"""
데이터프레임 덩어리(chunk)를 받아 형태소 분석을 수행하는 함수 (각 프로세스에서 실행됨)
"""
global okt_worker, progress_counter, lock
results = []
errors = []
for index, row in chunk_df.iterrows():
source_text = None
year = row['year']
if year < 1954:
if pd.notna(row['body_korean']):
source_text = str(row['body_korean'])
else:
if pd.notna(row['body_archaic']):
source_text = str(row['body_archaic'])
if not source_text:
with lock:
progress_counter.value += 1
continue
try:
pos_tagged_body = okt_worker.pos(source_text, norm=True, stem=True)
result = {
'id': row['id'],
'date': str(row['publication_date']),
'year': year,
'type': row['type'],
'pos_tagged_body': pos_tagged_body
}
results.append(json.dumps(result, ensure_ascii=False) + '\n')
except Exception as e:
error_time = datetime.datetime.now().strftime("%Y-%m-%d %H:%M:%S")
error_message = f"[{error_time}] - ID: {row['id']}, Year: {year}, Error: {e}\n"
errors.append(error_message)
with lock:
progress_counter.value += 1
return results, errors
# ----------------------------------------
# 3. 메인 실행 로직
# ----------------------------------------
if __name__ == "__main__":
print("--- 조선일보 데이터 병렬 전처리 시작 (최종 안정화 버전) ---")
os.makedirs(output_dir, exist_ok=True)
# --- 3.1. 기존 처리된 ID 로드 ---
processed_ids = set()
if os.path.exists(output_file_path):
print(f"\n1. 기존 처리 파일 '{output_file_path}'을(를) 발견했습니다. 처리된 ID를 로드합니다.")
with open(output_file_path, 'r', encoding='utf-8') as f:
for line in tqdm(f, desc="기존 결과 로딩"):
try:
processed_ids.add(json.loads(line)['id'])
except json.JSONDecodeError:
continue
print(f"총 {len(processed_ids)}개의 기사가 이미 처리되었습니다.")
# --- 3.2. 처리할 데이터 규모 계산 ---
print("\n2. 처리할 데이터의 전체 규모를 계산합니다.")
unprocessed_count = 0
chunk_iterator_for_count = pd.read_csv(input_file_path, usecols=['id'], chunksize=CHUNK_SIZE, low_memory=False)
for chunk_df in tqdm(chunk_iterator_for_count, desc="전체 규모 계산"):
chunk_df.dropna(subset=['id'], inplace=True)
unprocessed_count += chunk_df[~chunk_df['id'].isin(processed_ids)].shape[0]
if unprocessed_count == 0:
print("\n모든 데이터가 이미 처리되었습니다. 작업을 종료합니다.")
exit()
print(f"총 {unprocessed_count}개의 미처리 기사를 대상으로 작업을 시작합니다.")
# --- 3.3. 병렬 처리 실행 ---
print(f"\n3. {NUM_PROCESSES}개의 프로세스로 병렬 처리를 시작합니다.")
manager = multiprocessing.Manager()
progress_counter = manager.Value('i', 0)
lock = manager.Lock()
try:
with multiprocessing.Pool(processes=NUM_PROCESSES, initializer=init_worker, initargs=(progress_counter, lock)) as pool, \
open(output_file_path, 'a', encoding='utf-8') as f_out, \
open(error_log_path, 'a', encoding='utf-8') as f_err, \
tqdm(total=unprocessed_count, desc="전체 진행률") as pbar:
chunk_iterator = pd.read_csv(
input_file_path,
usecols=['id', 'publication_date', 'type', 'body_korean', 'body_archaic'],
chunksize=CHUNK_SIZE,
low_memory=False
)
async_results = []
for chunk_df in chunk_iterator:
chunk_df.dropna(subset=['id', 'publication_date'], inplace=True)
unprocessed_chunk = chunk_df[~chunk_df['id'].isin(processed_ids)].copy()
if unprocessed_chunk.empty:
continue
unprocessed_chunk['year'] = pd.to_datetime(unprocessed_chunk['publication_date'], errors='coerce').dt.year
unprocessed_chunk.dropna(subset=['year'], inplace=True)
unprocessed_chunk['year'] = unprocessed_chunk['year'].astype(int)
res = pool.apply_async(process_chunk, (unprocessed_chunk,))
async_results.append(res)
last_value = 0
for res in async_results:
while not res.ready():
current_value = progress_counter.value
pbar.update(current_value - last_value)
last_value = current_value
time.sleep(1)
results, errors = res.get()
if results:
f_out.writelines(results)
if errors:
f_err.writelines(errors)
current_value = progress_counter.value
pbar.update(current_value - last_value)
except Exception as e:
print(f"\n처리 중 심각한 오류 발생: {e}")
print(f"\n> 형태소 분석 및 전처리가 완료되었습니다.")
print(f"> 전체 결과는 다음 경로에 저장/추가되었습니다: {output_file_path}")