File size: 2,804 Bytes
f94169f
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
"""
OLMo モデル実装

Allen AIによる完全オープンソースモデル
学習データ(Dolma)とアーキテクチャが完全公開
SwiGLU/RoPEなど最新アーキテクチャを採用
"""
from typing import List, Tuple

import torch
from transformers import AutoModelForCausalLM, AutoTokenizer

from .base import BaseLanguageModel, ModelConfig


# OLMo 1B設定
OLMO_1B_CONFIG = ModelConfig(
    name="OLMo 1B",
    model_id="allenai/OLMo-1B-hf",
    embedding_dim=2048,
    vocab_size=50304,
)

# OLMo 7B設定
OLMO_7B_CONFIG = ModelConfig(
    name="OLMo 7B",
    model_id="allenai/OLMo-7B-hf",
    embedding_dim=4096,
    vocab_size=50304,
)


class OLMoModel(BaseLanguageModel):
    """
    OLMoモデルの実装

    Allen AIが公開した完全オープンソースモデル。
    学習データ(Dolma)も公開。SwiGLU/RoPE採用。
    """

    # 出力ノイズの倍率(学習バイアス破壊用)
    LOGITS_NOISE_SCALE = 10.0

    def load(self) -> None:
        """モデルとトークナイザーをロード"""
        if self._is_loaded:
            return

        try:
            self._model = AutoModelForCausalLM.from_pretrained(
                self._config.model_id,
                trust_remote_code=True,
            )
            self._tokenizer = AutoTokenizer.from_pretrained(
                self._config.model_id,
                trust_remote_code=True,
            )
            self._model.eval()
            self._is_loaded = True
        except Exception as e:
            raise RuntimeError(f"Failed to load model {self._config.model_id}: {e}")

    def forward_with_noise(
        self, noise: torch.Tensor
    ) -> Tuple[torch.Tensor, torch.Tensor]:
        """
        ノイズを入力として順伝播を実行し、出力にもノイズを加算

        Args:
            noise: 入力ノイズテンソル [batch, seq_len, embedding_dim]

        Returns:
            Tuple[logits, corrupted_logits]
        """
        if not self._is_loaded:
            raise RuntimeError("Model not loaded. Call load() first.")

        with torch.no_grad():
            outputs = self._model(inputs_embeds=noise)
            logits = outputs.logits

            # 出力logitsにノイズを加算して学習バイアスを破壊
            logits_noise = (
                torch.randn_like(logits) * logits.std() * self.LOGITS_NOISE_SCALE
            )
            corrupted_logits = logits + logits_noise

        return logits, corrupted_logits

    def decode_indices(self, indices: List[int]) -> List[str]:
        """トークンインデックスをデコード"""
        if not self._is_loaded:
            raise RuntimeError("Model not loaded. Call load() first.")

        return [self._tokenizer.decode([i]) for i in indices]