ポートフォリオ用 口論特化型AI (Test LoRA)

このリポジトリは、LLMのFine-tuning(LoRA)技術の実証およびポートフォリオとして公開しているデモアプリです。

「ユーザーを冷笑的に煽る」 という特殊な性格付けを行っています。

少ないデータ量でも特定の性格を定着させ、会話を成立させるため、あえて『語彙力が少なく、多少の破綻もキャラ設定として許容される冷笑系キャラクター』をターゲットとして作成しました。

🧩 モデル概要

個人で作成したわずか 100件の学習データ を用いて、大規模言語モデル(Qwen2.5-14B)をFine-tuningしました。 極めて少ないデータ量でも、特定のキャラクター性(口調や性格)を反映させることが可能か検証したモデルです。

  1. データ収集: X(旧Twitter)等の実際の投稿から、ターゲットとする口調(冷笑・煽り系)のサンプルを収集。
  2. 拡張 (Data Augmentation): 収集したテキストをリファレンスとして Gemini Pro に入力し、似たスタイルの会話データを10件ずつ生成。
  3. 精査 (Curation): 生成されたデータを私が一件ずつ目視で確認。キャラクター性が合致しているものだけを選定・修正し、100件まで蓄積しました。

キャラクター設定

  • 性格: 冷笑系
  • 目的: ユーザーをイライラさせること(※ジョークアプリです)。

⚙️ 技術スタック

  • Base Model: Qwen2.5-14B-Instruct (GGUF Quantized by bartowski)
  • LoRA Adapter: 自作の学習済みアダプタ (100 samples)
  • Inference Engine: llama-cpp-python (CPU実行)
  • UI Library: Gradio

⚠️ 使用上の注意

1. 応答速度について

本スペースは現在 CPUのみ で動作しています。 14Bパラメータのモデルを使用しているため、返答の生成には数分〜時間がかかる場合があります。 気長にお待ちください。

2. 生成内容について

本モデルは「ユーザーを不快にさせること」を目的として調整されています。過激な表現や煽り文句が含まれますが、あくまでAIによるロールプレイであり、実在の個人や団体を攻撃する意図はありません。

🛠️ ローカルでの実行方法

このSpaceをローカル環境で動かしたい場合は、以下の手順を実行してください。

  1. リポジトリをクローン
git clone https://huggingface.co/spaces/hkucdshch/portfolio
cd portfolio
  1. 依存関係のインストール
pip install gradio llama-cpp-python huggingface_hub
  1. アプリの実行
python app.py

※ ローカル実行時、GPUを使用したい場合は app.py 内の n_gpu_layers の値を変更し、CUDA対応の llama-cpp-python をインストールしてください。

📝 更新履歴

2026-02-05: 初版公開 (v1.0) - 学習データ100件によるLoRA適用

Downloads last month
20
GGUF
Model size
34.4M params
Architecture
qwen2
Hardware compatibility
Log In to add your hardware

16-bit

Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Space using hkucdshch/portfolio6-FT 1