How to use from
vLLM
Install from pip and serve model
# Install vLLM from pip:
pip install vllm
# Start the vLLM server:
vllm serve "zero9tech/Qwen2.5-Coder-3B-Data-Science-Insight-TR-7.6K"
# Call the server using curl (OpenAI-compatible API):
curl -X POST "http://localhost:8000/v1/chat/completions" \
	-H "Content-Type: application/json" \
	--data '{
		"model": "zero9tech/Qwen2.5-Coder-3B-Data-Science-Insight-TR-7.6K",
		"messages": [
			{
				"role": "user",
				"content": "What is the capital of France?"
			}
		]
	}'
Use Docker
docker model run hf.co/zero9tech/Qwen2.5-Coder-3B-Data-Science-Insight-TR-7.6K
Quick Links

Qwen2.5-Coder-3B-Data-Science-Insight-TR-7.6K

Bu model, veri madenciliği ve applied data science karar desteği için geliştirilmiştir.

EÄŸitim Kurgusu

  1. Türkçe düşünme adaptasyonu (Continued PreTraining, CPT): wikimedia/wikipedia ile yaklaşık %10 ön eğitim/adaptasyon (48,148 kayıt).
  2. Alan uzmanlığı SFT: murataksit34/veri-bilimci-diyalog-8k-tr.

Veri Seti Test Özeti (murataksit34/veri-bilimci-diyalog-8k-tr)

  • Toplam kayıt: 7,656
  • Split: train: 6,124 · test: 1,532
  • assistant_first_unique_ratio: 0.7034
  • assistant_final_unique_ratio: 0.8723

Kullanım Notu

Model karar odaklı yanıt üretimi için optimize edilmiştir (yöntem seçimi, alternatif kıyas, risk sinyali, doğrulama adımı).

Copyright

Copyright (c) Zero9 Tech

License

Apache-2.0

Downloads last month
33
Safetensors
Model size
3B params
Tensor type
BF16
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Datasets used to train zero9tech/Qwen2.5-Coder-3B-Data-Science-Insight-TR-7.6K