A newer version of the Streamlit SDK is available:
1.54.0
metadata
title: will
colorFrom: gray
colorTo: gray
sdk: streamlit
sdk_version: 1.41.1
app_file: app.py
pinned: false
WILL
言語モデルの構造が、人間の入力なしに出力するものを観測する実験的アプリケーション。
デモ
https://huggingface.co/spaces/matt1847/will
使い方
- MODEL ドロップダウンでモデルを選択
- LISTEN ボタンをクリック
- ランダムノイズがモデルに入力され、生成結果が表示される
- 上部の波形画像は入力ノイズと出力Logitsの可視化
- 下部のテキストは生成されたトークン列
対応モデル
| モデル | パラメータ | 特徴 |
|---|---|---|
| GPT-2 | 124M-355M | OpenAI |
| GPT-Neo | 125M | EleutherAI |
| OPT | 125M | Meta |
| Pythia | 410M-1B | EleutherAI, 完全オープン |
| OLMo | 1B-7B | Allen AI, 完全オープン |
| BLOOM | 560M | BigScience, 多言語 |
| Llama 3.2 | 1B-3B | Meta |
| Qwen2.5 | 0.5B-1.5B | Alibaba |
| Mistral | 7B | Mistral AI |
| GPT-OSS | 20B | OpenAI, MoE |
仕組み
- 入力ノイズ生成: ランダムノイズをEmbedding層に直接注入
- 出力ノイズ加算: Logitsにノイズを加算し、学習済みの統計的偏りを破壊
- 生デコード: Softmax/Temperatureなしでargmaxでトークンを抽出
ローカル実行
pip install -r requirements.txt
# Gradio版
python app.py
# Streamlit版(バックアップ)
streamlit run app_streamlit.py