Shaltiel commited on
Commit
5add44d
·
verified ·
1 Parent(s): 43bb1d4

Create README.md

Browse files
Files changed (1) hide show
  1. README.md +92 -0
README.md ADDED
@@ -0,0 +1,92 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ license: apache-2.0
3
+ pipeline_tag: text-generation
4
+ language:
5
+ - en
6
+ - he
7
+ tags:
8
+ - pretrained
9
+ inference:
10
+ parameters:
11
+ temperature: 0.6
12
+ ---
13
+
14
+ [<img src="https://i.ibb.co/5Lbwyr1/dicta-logo.jpg" width="300px"/>](https://dicta.org.il)
15
+
16
+ # Dicta-LM 3.0: Advancing The Frontier of Hebrew Sovereign LLMs
17
+
18
+ Dicta-LM 3.0 is a powerful open-weight collection of LLMs, trained on extensive corpora of Hebrew and English texts. The models are available for download and for unlimited use. The models set a new SOTA for their weight-class for Hebrew, both as base models and chat models.
19
+
20
+ This is the 1.7-billion-parameter instruct model, with full precision (BF16), originally initialized from [Qwen3-1.7B-Base](https://huggingface.co/Qwen/Qwen3-1.7B-Base).
21
+
22
+ For full details of this model please read our [release blog post](https://dicta.org.il/dicta-lm-3) or the [technical report](https://www.dicta.org.il/publications/DictaLM_3_0___Techincal_Report.pdf).
23
+
24
+ You can view and access the full collection of base/instruct unquantized/quantized versions of `DictaLM 3.0` [here](https://huggingface.co/collections/dicta-il/dictalm-30-collection).
25
+
26
+ ## Instruction format
27
+
28
+ In order to leverage instruction fine-tuning, your prompt should be rendered using the chat template specified for this model. Most libraries deal with this automatically, so you can just let them do it.
29
+
30
+ ## Usage
31
+
32
+ We recommend using vLLM, but you can use Transformers as well:
33
+
34
+ ### Transformers
35
+
36
+ ```python
37
+
38
+ from transformers import pipeline
39
+
40
+ generator = pipeline('text-generation', model="dicta-il/DictaLM-3.0-1.7B-Instruct")
41
+
42
+ messages = [
43
+ {"role": "user", "content": "איזה רוטב אהוב עליך?"},
44
+ {"role": "assistant", "content": "טוב, אני די מחבב כמה טיפות מיץ לימון סחוט טרי. זה מוסיף בדיוק את הכמות הנכונה של טעם חמצמץ לכל מה שאני מבשל במטבח!"},
45
+ {"role": "user", "content": "האם יש לך מתכונים למיונז?"}
46
+ ]
47
+
48
+ print(generator(messages)[0]['generated_text'][-1]) # just print the last message
49
+ # {'role': 'assistant', 'content': 'בהחלט! הנה מתכון פשוט למיונז בסיסי:\n\nמרכיבים:\n- 1 ביצה\n- 1 כף חומץ לבן (חומץ תפוחים או חומץ בן יין לבן עובד היטב)\n- 1/4 כוס שמנת כבדה או חלב מרוכז\n- 1/4 כפית מלח\n- 1/4 כפית פלפל שחור גרוס\n- 1 כף שום גבישי, קצוץ דק\n\nהוראות:\n1. בקערה קטנה, טורפים יחד את הביצה, חומץ, שמנת, מלח ופלפל.\n2. מניחים את הבלילה על מגש, מקפלים אותה ליצירת גלילים דקים.\n3. מכסים את המגש בניילון נצמד ומתפיחים במקרר למשך שעה לפחות.\n4. מקמחים קלות את הגלילים, ואז מגלגלים אותם בין שני קצוות של נייר אפייה עד שהצד החלק כלפי מטה.\n5. מחממים את התנור ל-175°C (350'}
50
+ ```
51
+
52
+ ### vLLM
53
+
54
+ ```bash
55
+ vllm serve dicta-il/DictaLM-3.0-1.7B-Instruct --enable-auto-tool-choice --tool-call-parser hermes
56
+ ```
57
+
58
+ And then you can access it via the openai library:
59
+
60
+ ```python
61
+ from openai import OpenAI
62
+
63
+ client = OpenAI(
64
+ base_url="http://localhost:8000/v1",
65
+ api_key="sk-no-key-required"
66
+ )
67
+
68
+ response = client.chat.completions.create(
69
+ model="dicta-il/DictaLM-3.0-1.7B-Instruct",
70
+ messages=[
71
+ {"role": "user", "content": "Hello, how are you?"}
72
+ ],
73
+ )
74
+
75
+ print(response.choices[0].message.content)
76
+ ```
77
+
78
+ The model supports tool-calling, enabling integration with external tools and APIs. For example how to use the tool calling, see the [vLLM documentation](https://docs.vllm.ai/en/stable/features/tool_calling/#tool-calling).
79
+
80
+ ## Citation
81
+
82
+ If you use this model, please cite:
83
+
84
+ ```bibtex
85
+ @article{Shmidman2025DictaLM3,
86
+ title={{Dicta-LM 3.0: Advancing The Frontier of Hebrew Sovereign LLMs}},
87
+ author={Shaltiel Shmidman and Avi Shmidman and Amir DN Cohen and Moshe Koppel},
88
+ year={2025},
89
+ publisher={{DICTA / Jerusalem, Israel}},
90
+ note={https://www.dicta.org.il/publications/DictaLM_3_0___Techincal_Report.pdf}
91
+ }
92
+ ```