will / README.md
matt1847's picture
変更: Streamlit UIに戻す
c8db51a
---
title: will
colorFrom: gray
colorTo: gray
sdk: streamlit
sdk_version: 1.41.1
app_file: app.py
pinned: false
---
# WILL
言語モデルの構造が、人間の入力なしに出力するものを観測する実験的アプリケーション。
## デモ
https://huggingface.co/spaces/matt1847/will
## 使い方
1. **MODEL** ドロップダウンでモデルを選択
2. **LISTEN** ボタンをクリック
3. ランダムノイズがモデルに入力され、生成結果が表示される
4. 上部の波形画像は入力ノイズと出力Logitsの可視化
5. 下部のテキストは生成されたトークン列
## 対応モデル
| モデル | パラメータ | 特徴 |
|--------|-----------|------|
| GPT-2 | 124M-355M | OpenAI |
| GPT-Neo | 125M | EleutherAI |
| OPT | 125M | Meta |
| Pythia | 410M-1B | EleutherAI, 完全オープン |
| OLMo | 1B-7B | Allen AI, 完全オープン |
| BLOOM | 560M | BigScience, 多言語 |
| Llama 3.2 | 1B-3B | Meta |
| Qwen2.5 | 0.5B-1.5B | Alibaba |
| Mistral | 7B | Mistral AI |
| GPT-OSS | 20B | OpenAI, MoE |
## 仕組み
1. **入力ノイズ生成**: ランダムノイズをEmbedding層に直接注入
2. **出力ノイズ加算**: Logitsにノイズを加算し、学習済みの統計的偏りを破壊
3. **生デコード**: Softmax/Temperatureなしでargmaxでトークンを抽出
## ローカル実行
```bash
pip install -r requirements.txt
# Gradio版
python app.py
# Streamlit版(バックアップ)
streamlit run app_streamlit.py
```