showeed's picture
Upload 124 files
9a65320 verified
"""
遅延ロード対応の共有モデル管理モジュール。
各モデルは初回呼び出し時にのみロードされる(遅延初期化パターン)。
スレッドセーフのために各モデルに専用ロックを用意している。
モデルパスやデバイス設定は config.py で一元管理する。
"""
import sys
import threading
from pathlib import Path
# config.py のある ROOT を sys.path に追加してインポートを保証
_ROOT = Path(__file__).parent.parent.parent
if str(_ROOT) not in sys.path:
sys.path.insert(0, str(_ROOT))
from config import (
GLM_OCR_PATH,
LFM_MODEL_PATH,
QWEN_MODEL_PATH,
WHISPER_SMALL_ID,
WHISPER_LARGE_ID,
DEVICE,
WHISPER_COMPUTE_TYPE,
)
# ── GLM-OCR モデル(ocr ブループリント用) ─────────────────────────────────
_glm_processor = None
_glm_model = None
_glm_lock = threading.Lock()
def is_glm_loaded() -> bool:
"""GLM-OCR モデルがロード済みかどうかを返す(ロックなし)。"""
return _glm_model is not None
def get_glm_model():
"""
GLM-OCR モデルをローカルから遅延ロードして返す。
Returns:
tuple[AutoProcessor, AutoModelForImageTextToText]: (processor, model)
Raises:
Exception: モデルのロードに失敗した場合
"""
global _glm_processor, _glm_model
with _glm_lock:
if _glm_model is None:
from transformers import AutoProcessor, AutoModelForImageTextToText
model_path = str(GLM_OCR_PATH)
print(f"[OCR] GLM モデルをロード中: {model_path}")
_glm_processor = AutoProcessor.from_pretrained(model_path)
_glm_model = AutoModelForImageTextToText.from_pretrained(
pretrained_model_name_or_path=model_path,
torch_dtype="auto",
device_map=DEVICE,
)
print("[OCR] GLM モデルのロード完了")
return _glm_processor, _glm_model
# ── LFM 2.5 翻訳モデル(translation / ocr / whisper ブループリント共用) ──
_lfm = None
_lfm_init_lock = threading.Lock() # 初期化専用ロック(二重初期化防止)
_lfm_infer_lock = threading.Lock() # 推論専用ロック(全ブループリント共有)
def is_lfm_loaded() -> bool:
"""LFM 翻訳モデルがロード済みかどうかを返す(ロックなし)。"""
return _lfm is not None
def get_lfm():
"""
LFM 2.5 (ONNX) 翻訳モデルを遅延ロードして返す。
Returns:
LFMInference: LFM 推論インスタンス
Raises:
Exception: モデルのロードに失敗した場合
"""
global _lfm
with _lfm_init_lock:
if _lfm is None:
from lfm25_run import LFMInference
model_path = str(LFM_MODEL_PATH)
print(f"[Translation] LFM モデルをロード中: {model_path}")
_lfm = LFMInference(model_path)
print("[Translation] LFM モデルのロード完了")
return _lfm
def get_lfm_lock() -> threading.Lock:
"""
LFM 推論用の共有排他ロックを返す。
全ブループリントでこのロックを取得してから推論を実行すること。
Returns:
threading.Lock: 推論用ロック
"""
return _lfm_infer_lock
# ── Qwen3-VL モデル(ledger ブループリント用) ─────────────────────────────
_qwen_processor = None
_qwen_model = None
_qwen_lock = threading.Lock()
def get_qwen_model():
"""
Qwen3-VL-2B モデルをローカルから遅延ロードして返す。
Returns:
tuple[AutoProcessor, AutoModelForImageTextToText]: (processor, model)
Raises:
Exception: モデルのロードに失敗した場合
"""
global _qwen_processor, _qwen_model
with _qwen_lock:
if _qwen_model is None:
from transformers import AutoProcessor, AutoModelForImageTextToText
model_path = str(QWEN_MODEL_PATH)
print(f"[Ledger] Qwen モデルをロード中: {model_path}")
_qwen_processor = AutoProcessor.from_pretrained(
model_path,
min_pixels=256 * 28 * 28,
max_pixels=768 * 28 * 28,
)
_qwen_model = AutoModelForImageTextToText.from_pretrained(
model_path,
torch_dtype="auto",
device_map=DEVICE,
low_cpu_mem_usage=True,
)
_qwen_model.eval()
print("[Ledger] Qwen モデルのロード完了")
return _qwen_processor, _qwen_model
# ── Whisper 音声認識モデル(whisper ブループリント用) ────────────────────────
_whisper_small = None
_whisper_small_lock = threading.Lock()
_whisper_large = None
_whisper_large_lock = threading.Lock()
def is_whisper_small_loaded() -> bool:
"""Whisper Small モデルがロード済みかどうかを返す(ロックなし)。"""
return _whisper_small is not None
def is_whisper_large_loaded() -> bool:
"""Whisper Large モデルがロード済みかどうかを返す(ロックなし)。"""
return _whisper_large is not None
def get_whisper_small():
"""
Whisper Small モデルを遅延ロードして返す。
Returns:
WhisperModel: faster-whisper Small モデルインスタンス
"""
global _whisper_small
with _whisper_small_lock:
if _whisper_small is None:
from faster_whisper import WhisperModel
print(f"[Whisper] Small モデルをロード中: {WHISPER_SMALL_ID}")
_whisper_small = WhisperModel(
WHISPER_SMALL_ID,
device=DEVICE,
compute_type=WHISPER_COMPUTE_TYPE,
)
print("[Whisper] Small モデルのロード完了")
return _whisper_small
def get_whisper_large():
"""
Whisper Large-v3-turbo モデルを遅延ロードして返す。
Returns:
WhisperModel: faster-whisper Large-v3-turbo モデルインスタンス
"""
global _whisper_large
with _whisper_large_lock:
if _whisper_large is None:
from faster_whisper import WhisperModel
print(f"[Whisper] Large モデルをロード中: {WHISPER_LARGE_ID}")
_whisper_large = WhisperModel(
WHISPER_LARGE_ID,
device=DEVICE,
compute_type=WHISPER_COMPUTE_TYPE,
)
print("[Whisper] Large モデルのロード完了")
return _whisper_large