""" OCR 前処理モジュール 汚れた画像・スキャン文書の OCR 精度を高めるための前処理パイプラインと、 PDF を PIL Image リストに変換する機能を提供する。 使い方(インポート例): from preprocess import load_input_images, apply_preprocess pages = load_input_images(Path("scan.pdf")) # PDF → 1ページ1枚のリスト pages = load_input_images(Path("photo.webp")) # 画像 → [1枚] cleaned = apply_preprocess(pages[0], config={"deskew": True, "denoise": True}) 前処理ステップ(YAML の preprocess セクションで各 ON/OFF 可能): deskew : 傾き補正(Hough 変換) denoise : ノイズ除去(バイラテラルフィルタ) enhance_contrast : コントラスト強調(CLAHE / LAB 色空間) sharpen : シャープ化(Unsharp Masking) """ from __future__ import annotations from pathlib import Path import cv2 import fitz # PyMuPDF import numpy as np from PIL import Image # ───────────────────────────────────────────── # PDF・画像の読み込み # ───────────────────────────────────────────── #: PDF ラスタライズ時の解像度。200 dpi 以上が OCR に推奨される。 PDF_DPI = 200 #: 対応する画像拡張子 IMAGE_EXTENSIONS = {".jpg", ".jpeg", ".png", ".webp", ".bmp", ".tiff", ".tif"} def load_pdf_pages(pdf_path: Path, dpi: int = PDF_DPI) -> list[Image.Image]: """PDF の全ページを PIL Image のリストに変換する。 Args: pdf_path: PDF ファイルのパス dpi: ラスタライズ解像度(高いほど高精度だがメモリを消費) Returns: list[Image.Image]: 1 要素 = 1 ページの RGB 画像リスト """ doc = fitz.open(str(pdf_path)) mat = fitz.Matrix(dpi / 72, dpi / 72) pages: list[Image.Image] = [] for page in doc: pix = page.get_pixmap(matrix=mat, colorspace=fitz.csRGB) img = Image.frombytes("RGB", [pix.width, pix.height], pix.samples) pages.append(img) doc.close() return pages def load_input_images(path: Path) -> list[Image.Image]: """画像または PDF を読み込み、PIL Image のリストを返す。 PDF の場合はページごとに 1 要素、画像の場合は [1 要素] を返す。 Args: path: 入力ファイルのパス(PDF または画像) Returns: list[Image.Image]: ページ(または画像)ごとの RGB 画像リスト Raises: ValueError: 対応していない拡張子が指定された場合 """ suffix = path.suffix.lower() if suffix == ".pdf": return load_pdf_pages(path) if suffix in IMAGE_EXTENSIONS: return [Image.open(path).convert("RGB")] raise ValueError(f"対応していないファイル形式です: {suffix}") # ───────────────────────────────────────────── # 内部ユーティリティ # ───────────────────────────────────────────── def _to_bgr(pil_image: Image.Image) -> np.ndarray: """PIL Image (RGB) → OpenCV BGR ndarray に変換する。""" return cv2.cvtColor(np.array(pil_image), cv2.COLOR_RGB2BGR) def _to_pil(bgr: np.ndarray) -> Image.Image: """OpenCV BGR ndarray → PIL Image (RGB) に変換する。""" return Image.fromarray(cv2.cvtColor(bgr, cv2.COLOR_BGR2RGB)) # ───────────────────────────────────────────── # 前処理ステップ(各関数は BGR ndarray を受け取り BGR ndarray を返す) # ───────────────────────────────────────────── def _deskew(bgr: np.ndarray) -> np.ndarray: """Hough 変換で文書の傾きを検出して回転補正する。 スキャナや手持ち撮影で傾いた文書を自動でまっすぐにする。 傾き角が 0.3 度未満の場合は補正をスキップする。 Args: bgr: 入力画像 (BGR ndarray) Returns: np.ndarray: 傾き補正後の画像 """ gray = cv2.cvtColor(bgr, cv2.COLOR_BGR2GRAY) blur = cv2.GaussianBlur(gray, (9, 9), 0) edges = cv2.Canny(blur, 50, 150, apertureSize=3) lines = cv2.HoughLines(edges, 1, np.pi / 180, threshold=150) if lines is None: return bgr angles: list[float] = [] for line in lines: theta = float(line[0][1]) angle = (theta * 180.0 / np.pi) - 90.0 if abs(angle) < 45.0: angles.append(angle) if not angles: return bgr median_angle = float(np.median(angles)) if abs(median_angle) < 0.3: return bgr h, w = bgr.shape[:2] M = cv2.getRotationMatrix2D((w / 2.0, h / 2.0), median_angle, 1.0) return cv2.warpAffine( bgr, M, (w, h), flags=cv2.INTER_CUBIC, borderMode=cv2.BORDER_REPLICATE, ) def _denoise(bgr: np.ndarray) -> np.ndarray: """バイラテラルフィルタでノイズを除去しながらエッジ(文字輪郭)を保護する。 ガウシアンブラーと違い、エッジを保ちながらノイズだけを平滑化する。 Args: bgr: 入力画像 (BGR ndarray) Returns: np.ndarray: ノイズ除去後の画像 """ return cv2.bilateralFilter(bgr, d=9, sigmaColor=75, sigmaSpace=75) def _enhance_contrast(bgr: np.ndarray) -> np.ndarray: """CLAHE(制限付き適応ヒストグラム平坦化)で局所コントラストを強調する。 照明ムラがある画像でも文字が均一に明瞭になる。 LAB 色空間の明度チャンネル (L) のみに適用し、色相は変化させない。 Args: bgr: 入力画像 (BGR ndarray) Returns: np.ndarray: コントラスト強調後の画像 """ lab = cv2.cvtColor(bgr, cv2.COLOR_BGR2LAB) l_ch, a_ch, b_ch = cv2.split(lab) clahe = cv2.createCLAHE(clipLimit=2.0, tileGridSize=(8, 8)) l_enhanced = clahe.apply(l_ch) return cv2.cvtColor(cv2.merge([l_enhanced, a_ch, b_ch]), cv2.COLOR_LAB2BGR) def _sharpen(bgr: np.ndarray) -> np.ndarray: """Unsharp Masking で文字のエッジを強調してシャープにする。 ぼやけた画像やスキャン後のソフトネスを補正する。 Args: bgr: 入力画像 (BGR ndarray) Returns: np.ndarray: シャープ化後の画像 """ blurred = cv2.GaussianBlur(bgr, (0, 0), sigmaX=3) return cv2.addWeighted(bgr, 1.5, blurred, -0.5, 0) # ───────────────────────────────────────────── # 前処理パイプライン(公開関数) # ───────────────────────────────────────────── def apply_preprocess( pil_image: Image.Image, config: dict | None = None, ) -> Image.Image: """OCR 前処理パイプラインを実行して PIL Image を返す。 各ステップは config の True/False で個別に ON/OFF できる。 config を省略した場合はすべての前処理が有効になる。 Args: pil_image: 前処理対象の PIL Image (RGB) config: 前処理設定辞書。キーと既定値は以下の通り。 - deskew (bool, default True): 傾き補正 - denoise (bool, default True): ノイズ除去 - enhance_contrast (bool, default True): コントラスト強調 - sharpen (bool, default True): シャープ化 Returns: Image.Image: 前処理済みの PIL Image (RGB) Example: >>> cleaned = apply_preprocess(img, {"deskew": True, "denoise": False}) """ cfg = config or {} bgr = _to_bgr(pil_image) if cfg.get("deskew", True): bgr = _deskew(bgr) if cfg.get("denoise", True): bgr = _denoise(bgr) if cfg.get("enhance_contrast", True): bgr = _enhance_contrast(bgr) if cfg.get("sharpen", True): bgr = _sharpen(bgr) return _to_pil(bgr)