File size: 2,226 Bytes
230df25 d161ef2 230df25 d161ef2 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 |
---
license: apache-2.0
tags:
- finance
- japanese
- stock-prediction
- sentence-transformers
- gradient-boosting
datasets:
- kabu-disclosures-v1
metrics:
- mean_absolute_error
- r2
model-index:
- name: jfinance-title2return-v1
results:
- task:
type: regression
name: Stock Return Regression
dataset:
name: JP_Disclosure_Titles_2024Q3-2025Q2
type: custom
metrics:
- type: mean_absolute_error
value: 2.94
- type: r2
value: -0.064
---
# jfinance-title2return-v1
日本株 **TDnet/EDINET 開示タイトル** から
**翌営業日リターン (`ret_next`, %)** を推定する Gradient Boosting Regressor モデルです。
タイトル文は [`sentence-transformers/paraphrase-multilingual-MiniLM-L12-v2`](https://huggingface.co/sentence-transformers/paraphrase-multilingual-MiniLM-L12-v2)
(384 次元)にエンコードし、±25 % Winsorize 済みリターンを回帰ターゲットに学習しました。
---
## Intended Uses & Limitations
| ✔ 推奨用途 | ✘ 非推奨用途 |
|-----------|-------------|
| IR イベントドリブンの速報スクリーニング | 裁量なしの完全自動売買 |
| 金融 NLP 研究・ベンチマーク | ETF/REIT での厳密な値動き予測 |
| 個人投資家の材料整理 | 終値 < 1 円の超低位株 |
> **注意**: 実際の投資判断に用いる際は必ず追加検証を行ってください。
---
## Quick inference (one-liner)
```python
from joblib import load
from sentence_transformers import SentenceTransformer
from huggingface_hub import hf_hub_download
# download & load model
reg = load(hf_hub_download("c299m/jfinance-title2return-v1", "model.joblib"))
embed = SentenceTransformer("sentence-transformers/paraphrase-multilingual-MiniLM-L12-v2")
title = "AIマッチングサービスβ版リリースのお知らせ"
pred = reg.predict(embed.encode([title]))[0]
print(f"Predicted next-day return: {pred:.2f} %")
### Run with the helper script
```bashcd
python predict_ret_next.py "NVIDIAと提携"
#▶ loading models …
#予測翌営業日リターン: 15.04 %
|