PaJpRAG_system / README.md
tugaa's picture
Update README.md
5a4243c verified
---
license: apache-2.0
datasets:
- izumi-lab/oscar2301-ja-filter-ja-normal
- wikimedia/wikipedia
language:
- ja
tags:
- text-generation-inference
- RAG
- japanese
- faiss
- gradio
- sentence-transformers
---
# RAG (Retrieval Augmented Generation) デモ
このプロジェクトは、Retrieval Augmented Generation (RAG) システムのデモンストレーションです。
# RAG (Retrieval Augmented Generation) デモ
このプロジェクトは、Retrieval Augmented Generation (RAG) システムのデモンストレーションです。大規模言語モデル (LLM) の「幻覚」問題や情報鮮度の課題を解決するため、外部の知識ベースから関連情報を検索し、それを基に回答を生成します。
## 特徴
* **RAGシステムの実装:** SentenceTransformer を用いたセマンティック検索と、FAISS を用いた高速なベクトル検索を統合しています。
* **日本語LLMの利用:** `rinna/japanese-gpt-neox-3.6b-instruction-sft` モデルを推論に使用しています。
* **カスタム知識ベース:** ユーザーが独自のJSONファイルをアップロードし、RAGシステムの知識ベースを動的に更新できます。
* **Gradio UI:** 直感的で使いやすいWebインターフェースを提供し、RAGシステムの動作を視覚的に確認できます。
* **永続化機能:** アップロードされた文書と構築されたインデックスは、アプリケーションが再起動しても維持されます。
## システム構成
* **`app.py`**: Gradio UI の定義と、RAGSystem および LLM パイプラインの統合を管理するメインアプリケーションファイルです。
* **`ragsys03.py`**: RAGシステムのコアロジック(文書のエンベディング、FAISSインデックスの構築と検索、文書管理、永続化)をカプセル化したモジュールです。
* **`rag_data/`**: RAGシステムが生成するFAISSインデックスファイル、ロードされた文書データ、およびメタデータが保存されるディレクトリです。
```
.
├── app.py
├── ragsys03.py
├── requirements.txt
└── rag_data/ (RAGシステムが生成するインデックスや文書の保存先)
└── (日付_UUID)/
├── faiss_index.bin
├── documents.json
└── metadata.json
```
## 必要なライブラリ
以下のライブラリが必要です。`requirements.txt` ファイルに記載されています。
```
torch
transformers
sentence-transformers
faiss-cpu
gradio
numpy
sentencepiece
accelerate
```
インストールするには、以下のコマンドを実行します。
```bash
pip install -r requirements.txt
```
**注:** GPU環境で高速化したい場合は、`faiss-cpu` の代わりに `faiss-gpu` をインストールしてください。
## 実行方法
1. GitHubリポジトリをクローンするか、Hugging Face Space のファイルをダウンロードします。
2. `app.py``ragsys03.py` を同じディレクトリに配置します。
3. 上記の「必要なライブラリ」をインストールします。
4. ターミナルで以下のコマンドを実行し、アプリケーションを起動します。
```bash
python app.py
```
5. 表示されたURL(通常は `http://127.0.0.1:7860` または Hugging Face Spaces のURL)をブラウザで開きます。
## 使用方法 (Gradio UI)
1. **「文書管理」タブに移動します。**
2. **「文書JSONファイルをアップロード」:**
* `documents` というキーに文字列のリストを持つJSONファイルを選択してアップロードします。
* 例:
```json
{
"documents": [
"RAG(Retrieval Augmented Generation)は、大規模言語モデルの課題、特に幻覚や情報鮮度の問題を解決するために考案された強力なAIフレームワークです。",
"LLMの幻覚(Hallucination)は、大規模言語モデルが事実と異なる情報を生成してしまう問題です。"
]
}
```
* アップロードが完了すると、ステータスが表示されます。
3. **「インデックスを構築」ボタンをクリックします。**
* アップロードされた文書から検索インデックスが構築されます。この処理には時間がかかる場合があります。
* 構築が完了すると、インデックスの統計情報が表示されます。
4. **「RAG質問」タブに移動します。**
5. **「質問を入力してください」:** 質問を入力します。
6. **「取得文書数 (top_k)」と「類似度閾値」:** 必要に応じてスライダーを調整します。
7. **「質問を送信」ボタンをクリックします。**
* RAGシステムが関連文書を検索し、LLMがそれに基づいて回答を生成します。
* 「LLMの回答」と「検索された関連文書」が表示されます。
## 注意事項
* このデモはCPU環境でも動作しますが、`rinna/japanese-gpt-neox-3.6b-instruction-sft` モデルは比較的大規模であるため、応答に時間がかかる場合があります。
* より高速な応答が必要な場合は、GPU環境での実行を推奨します。
* アップロードする文書の内容は、公開に適したものであることを確認してください。プライバシーや機密情報を含む文書はアップロードしないでください。
* LLMの回答は、提供された文書とモデルの知識に基づいています。常に正確であるとは限らず、「幻覚」を完全に排除するものではありません。
## 貢献
このプロジェクトはデモンストレーションを目的としていますが、改善提案やバグ報告は歓迎します。
```