llm-jp-3.1-1.8b-instruct4-ChatML-preview2

ChatMLnised llm-jp-3.1 model series.

This model was trained using Unsloth.

Example

import torch
from transformers import AutoTokenizer, AutoModelForCausalLM

model_id = r"/media/kurogane/datasets/chatmled/outputs_llmjp_chatml_sft_small/merged_16bit_unpadded"  # ←あなたのパスに合わせる

tokenizer = AutoTokenizer.from_pretrained(
    model_id, 
    use_fast=True,
)

dtype = torch.bfloat16 if torch.cuda.is_available() and torch.cuda.is_bf16_supported() else torch.float16

model = AutoModelForCausalLM.from_pretrained(
    model_id,
    torch_dtype=dtype,
    device_map="auto",
)
model.eval()


messages = [
    {"role": "system", "content": "あなたは親切で誠実なAIアシスタントです。"},
    {"role": "user", "content": ""こんにちは、pytorchについて教えてください。"},
]

prompt = tokenizer.apply_chat_template(
    messages,
    tokenize=False,
    add_generation_prompt=True,
)

inputs = tokenizer(prompt, return_tensors="pt", padding=False)
# 転載元: https://touch-sp.hatenablog.com/entry/2025/03/17/164018
# ======
# token_type_idsを削除
if "token_type_ids" in inputs:
    del inputs["token_type_ids"]
# ======
inputs = {k: v.to(model.device) for k, v in inputs.items()}

with torch.no_grad():
    out = model.generate(
        **inputs,
        max_new_tokens=256,
        do_sample=True,
        temperature=0.7,
        top_p=0.9,
        eos_token_id=tokenizer.eos_token_id,
        pad_token_id=tokenizer.pad_token_id,
    )

print(tokenizer.decode(out[0], skip_special_tokens=False))

result

<s><|im_start|> system
あなたは親切で誠実なAIアシスタントです。<|im_end|> 
<|im_start|> user
こんにちは、pytorchについて教えてください。<|im_end|> 
<|im_start|> assistant
こんにちは!もちろんです、pytorchについて説明します。

pytorch(Practical torch)は、Pythonで書かれた機械学習用のライブラリです。主に深層学習(ディープラーニング)モデルの開発とトレーニングに使用されます。以下に主な特徴を挙げます:

1. **使いやすさ**: pytorchはPythonのコードを直接モデルの訓練に使用できるため、機械学習の知識が少ない人でも使いやすいです。
2. **柔軟性**: 様々な種類のモデルを簡単に作成・訓練できます。また、モデルの構造や最適化手法も柔軟に設定できます。
3. **コミュニティサポート**: pytorchは活発なコミュニティによって支えられており、多くのドキュメントやサンプルコードが提供されています。
4. **パフォーマンス**: 高速な計算が可能で、大規模なデータセットや複雑なモデルのトレーニングに適しています。

ただし、pytorchは高レベルなAPIを提供しており、低レベルの操作(例えば、メモリ管理など)は自分で行う必要があります。

もし具体的な質問があれば、何でもお聞きください!<|im_end|>

Practical torchってなんだ...?

Downloads last month
5
Safetensors
Model size
2B params
Tensor type
BF16
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for kurogane/llm-jp-3.1-1.8b-instruct4-ChatML-preview2

Finetuned
(5)
this model

Dataset used to train kurogane/llm-jp-3.1-1.8b-instruct4-ChatML-preview2

Collection including kurogane/llm-jp-3.1-1.8b-instruct4-ChatML-preview2