Update README.md
Browse files
README.md
CHANGED
|
@@ -1,3 +1,58 @@
|
|
| 1 |
-
---
|
| 2 |
-
license: apache-2.0
|
| 3 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
---
|
| 2 |
+
license: apache-2.0
|
| 3 |
+
datasets:
|
| 4 |
+
- DataPilot/in-foxhound-ja
|
| 5 |
+
language:
|
| 6 |
+
- ja
|
| 7 |
+
- en
|
| 8 |
+
base_model:
|
| 9 |
+
- unsloth/Qwen2.5-7B-Instruct-bnb-4bit
|
| 10 |
+
pipeline_tag: text-generation
|
| 11 |
+
tags:
|
| 12 |
+
- finance
|
| 13 |
+
---
|
| 14 |
+
|
| 15 |
+
## 概要
|
| 16 |
+
このモデルは[in-foxhound-ja](https://huggingface.co/datasets/DataPilot/in-foxhound-ja)を用いて、長期的な視点で、安全域のある優良企業を探し出し、詳細な分析に基づいた投資判断と根拠を示すことを目的に製作されました。(あくまで実験であり、実際にはAIが出力した指示に従わないで下さい。)
|
| 17 |
+
|
| 18 |
+
## how to use
|
| 19 |
+
|
| 20 |
+
```python
|
| 21 |
+
import torch
|
| 22 |
+
from transformers import AutoTokenizer, AutoModelForCausalLM
|
| 23 |
+
|
| 24 |
+
# モデルとトークナイザーをロード
|
| 25 |
+
model_name = "DataPilot/Qwen2.5-Intelligent-Investor-5b" # 好きなモデル名に変更可能
|
| 26 |
+
tokenizer = AutoTokenizer.from_pretrained(model_name)
|
| 27 |
+
model = AutoModelForCausalLM.from_pretrained(model_name, device_map="auto", torch_dtype=torch.float16) # デバイスを自動的に選択
|
| 28 |
+
|
| 29 |
+
# プロンプトテンプレート
|
| 30 |
+
prompt_template = """<|im_start|>system
|
| 31 |
+
{}<|im_end|>
|
| 32 |
+
<|im_start|>user
|
| 33 |
+
{}<|im_end|>
|
| 34 |
+
<|im_start|>assistant
|
| 35 |
+
{}"""
|
| 36 |
+
|
| 37 |
+
# 推論を実行
|
| 38 |
+
inputs = tokenizer(
|
| 39 |
+
[
|
| 40 |
+
prompt_template.format(
|
| 41 |
+
"あなたは世界最高レベルにある価値投資の達人です。長期的な視点で、安全域のある優良企業を探し出し、詳細な分析に基づいた投資判断と根拠を示すことが得意です。", # 命令
|
| 42 |
+
"長期投資において優良な企業の条件と長期投資において大切なマインドを教えて下さい。", # 入力
|
| 43 |
+
"", # 出力 - 生成の場合は空白にします
|
| 44 |
+
)
|
| 45 |
+
],
|
| 46 |
+
return_tensors="pt",
|
| 47 |
+
).to("cuda")
|
| 48 |
+
|
| 49 |
+
outputs = model.generate(**inputs, max_new_tokens=1024, use_cache=True)
|
| 50 |
+
print(tokenizer.batch_decode(outputs, skip_special_tokens=True))
|
| 51 |
+
|
| 52 |
+
```
|
| 53 |
+
|
| 54 |
+
## プロンプトフォーマット
|
| 55 |
+
プロンプトフォーマットにはQwen形式のプロンプトテンプレートを使用しています。
|
| 56 |
+
|
| 57 |
+
## 謝辞
|
| 58 |
+
もとデータセットの作成者である[glaive-ai](https://glaive.ai/)と計算資源を貸してくれた[MDL](https://www.metadatalab.net/)に感謝します。
|