ChatMLed llm-jp-3.1 instruct4 series
Collection
6 items • Updated
ChatMLnised llm-jp-3.1 model series.
This model was trained using Unsloth.
import torch
from transformers import AutoTokenizer, AutoModelForCausalLM
model_id = r"/media/kurogane/datasets/chatmled/outputs_llmjp_chatml_sft_small/merged_16bit_unpadded" # ←あなたのパスに合わせる
tokenizer = AutoTokenizer.from_pretrained(
model_id,
use_fast=True,
)
dtype = torch.bfloat16 if torch.cuda.is_available() and torch.cuda.is_bf16_supported() else torch.float16
model = AutoModelForCausalLM.from_pretrained(
model_id,
torch_dtype=dtype,
device_map="auto",
)
model.eval()
messages = [
{"role": "system", "content": "あなたは親切で誠実なAIアシスタントです。"},
{"role": "user", "content": ""こんにちは、pytorchについて教えてください。"},
]
prompt = tokenizer.apply_chat_template(
messages,
tokenize=False,
add_generation_prompt=True,
)
inputs = tokenizer(prompt, return_tensors="pt", padding=False)
# 転載元: https://touch-sp.hatenablog.com/entry/2025/03/17/164018
# ======
# token_type_idsを削除
if "token_type_ids" in inputs:
del inputs["token_type_ids"]
# ======
inputs = {k: v.to(model.device) for k, v in inputs.items()}
with torch.no_grad():
out = model.generate(
**inputs,
max_new_tokens=256,
do_sample=True,
temperature=0.7,
top_p=0.9,
eos_token_id=tokenizer.eos_token_id,
pad_token_id=tokenizer.pad_token_id,
)
print(tokenizer.decode(out[0], skip_special_tokens=False))
result
<s><|im_start|> system
あなたは親切で誠実なAIアシスタントです。<|im_end|>
<|im_start|> user
こんにちは、pytorchについて教えてください。<|im_end|>
<|im_start|> assistant
こんにちは!もちろんです、pytorchについて説明します。
pytorch(Practical torch)は、Pythonで書かれた機械学習用のライブラリです。主に深層学習(ディープラーニング)モデルの開発とトレーニングに使用されます。以下に主な特徴を挙げます:
1. **使いやすさ**: pytorchはPythonのコードを直接モデルの訓練に使用できるため、機械学習の知識が少ない人でも使いやすいです。
2. **柔軟性**: 様々な種類のモデルを簡単に作成・訓練できます。また、モデルの構造や最適化手法も柔軟に設定できます。
3. **コミュニティサポート**: pytorchは活発なコミュニティによって支えられており、多くのドキュメントやサンプルコードが提供されています。
4. **パフォーマンス**: 高速な計算が可能で、大規模なデータセットや複雑なモデルのトレーニングに適しています。
ただし、pytorchは高レベルなAPIを提供しており、低レベルの操作(例えば、メモリ管理など)は自分で行う必要があります。
もし具体的な質問があれば、何でもお聞きください!<|im_end|>
Practical torchってなんだ...?
Base model
llm-jp/llm-jp-3.1-1.8b-instruct4