|
|
---
|
|
|
title: "日本のAI政策課題モデル"
|
|
|
emoji: "🤖"
|
|
|
colorFrom: "blue"
|
|
|
colorTo: "green"
|
|
|
sdk: "gradio"
|
|
|
app_file: "app.py"
|
|
|
pinned: false
|
|
|
---
|
|
|
|
|
|
### このリポジトリについて
|
|
|
|
|
|
このリポジトリは、日本のAI政策に関する課題を理解し、出力を生成するモデルに関する情報を提供します。
|
|
|
|
|
|
### 特徴
|
|
|
|
|
|
- モデルの名称: **ELYZA-japanese-llama-2-7b-fast-instruct**
|
|
|
- 言語: **日本語**
|
|
|
- 目的: 日本のAI政策に関する課題を説明する
|
|
|
|
|
|
### 使用方法
|
|
|
|
|
|
1. モデルを Hugging Face Hub からダウンロードします。
|
|
|
2. 以下のコードを利用して推論を行います。
|
|
|
|
|
|
```python
|
|
|
from transformers import AutoTokenizer, AutoModelForCausalLM
|
|
|
|
|
|
model_name = "elyza/ELYZA-japanese-llama-2-7b-fast-instruct"
|
|
|
tokenizer = AutoTokenizer.from_pretrained(model_name)
|
|
|
model = AutoModelForCausalLM.from_pretrained(model_name)
|
|
|
|
|
|
prompt = "日本のAI政策の課題について教えてください。"
|
|
|
inputs = tokenizer(prompt, return_tensors="pt")
|
|
|
outputs = model.generate(inputs["input_ids"], max_new_tokens=256)
|
|
|
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
|
|
|
|
|
|
|