ポートフォリオ用 口論特化型AI (Test LoRA)
このリポジトリは、LLMのFine-tuning(LoRA)技術の実証およびポートフォリオとして公開しているデモアプリです。
「ユーザーを冷笑的に煽る」 という特殊な性格付けを行っています。
少ないデータ量でも特定の性格を定着させ、会話を成立させるため、あえて『語彙力が少なく、多少の破綻もキャラ設定として許容される冷笑系キャラクター』をターゲットとして作成しました。
🧩 モデル概要
個人で作成したわずか 100件の学習データ を用いて、大規模言語モデル(Qwen2.5-14B)をFine-tuningしました。 極めて少ないデータ量でも、特定のキャラクター性(口調や性格)を反映させることが可能か検証したモデルです。
- データ収集: X(旧Twitter)等の実際の投稿から、ターゲットとする口調(冷笑・煽り系)のサンプルを収集。
- 拡張 (Data Augmentation): 収集したテキストをリファレンスとして Gemini Pro に入力し、似たスタイルの会話データを10件ずつ生成。
- 精査 (Curation): 生成されたデータを私が一件ずつ目視で確認。キャラクター性が合致しているものだけを選定・修正し、100件まで蓄積しました。
キャラクター設定
- 性格: 冷笑系
- 目的: ユーザーをイライラさせること(※ジョークアプリです)。
⚙️ 技術スタック
- Base Model: Qwen2.5-14B-Instruct (GGUF Quantized by bartowski)
- LoRA Adapter: 自作の学習済みアダプタ (100 samples)
- Inference Engine:
llama-cpp-python(CPU実行) - UI Library:
Gradio
⚠️ 使用上の注意
1. 応答速度について
本スペースは現在 CPUのみ で動作しています。 14Bパラメータのモデルを使用しているため、返答の生成には数分〜時間がかかる場合があります。 気長にお待ちください。
2. 生成内容について
本モデルは「ユーザーを不快にさせること」を目的として調整されています。過激な表現や煽り文句が含まれますが、あくまでAIによるロールプレイであり、実在の個人や団体を攻撃する意図はありません。
🛠️ ローカルでの実行方法
このSpaceをローカル環境で動かしたい場合は、以下の手順を実行してください。
- リポジトリをクローン
git clone https://huggingface.co/spaces/hkucdshch/portfolio
cd portfolio
- 依存関係のインストール
pip install gradio llama-cpp-python huggingface_hub
- アプリの実行
python app.py
※ ローカル実行時、GPUを使用したい場合は app.py 内の n_gpu_layers の値を変更し、CUDA対応の llama-cpp-python をインストールしてください。
📝 更新履歴
2026-02-05: 初版公開 (v1.0) - 学習データ100件によるLoRA適用
- Downloads last month
- 20
Hardware compatibility
Log In
to add your hardware
16-bit
Inference Providers
NEW
This model isn't deployed by any Inference Provider.
🙋
Ask for provider support