Update README.md
Browse files
README.md
CHANGED
|
@@ -23,13 +23,13 @@ tags:
|
|
| 23 |
|
| 24 |
<hr>
|
| 25 |
|
| 26 |
-
# Boana-7B
|
| 27 |
|
| 28 |
<p align="center">
|
| 29 |
<img width="250" alt="Boana Logo" src="https://cdn-uploads.huggingface.co/production/uploads/658c21f4c1229bf113295773/_Dc6z1IAL-zUiy0LMSSqf.png">
|
| 30 |
</p>
|
| 31 |
|
| 32 |
-
Boana-7B é um LLM treinado em dados da língua portuguesa. O modelo é baseado no [LLaMA2-7B](https://huggingface.co/meta-llama/Llama-2-7b-chat-hf), uma versão de 7B de parâmetros do LLaMA-2. O projeto Boana tem como objetivo oferecer opções de LLM em língua portuguesa, ao mesmo tempo que disponibiliza um modelo menos complexo para que, dessa forma, usuários com menos poder computacional possam usufruir das LLMs.
|
| 33 |
|
| 34 |
Em apoio aos países de língua portuguesa.
|
| 35 |
|
|
@@ -69,8 +69,8 @@ def GeneratePrompt(input, instruction):
|
|
| 69 |
model_config = GenerationConfig.from_model_config(model.generation_config)
|
| 70 |
model.generation_config.temperature = 0.9 # Você pode variar esse valor entre 0 e 1.
|
| 71 |
|
| 72 |
-
model = AutoModelForCausalLM.from_pretrained('lrds-code/boana-7b')
|
| 73 |
-
tokenizer = AutoTokenizer.from_pretrained('lrds-code/boana-7b')
|
| 74 |
|
| 75 |
instruction = 'Como desenvolver habilidades de programação em python?'
|
| 76 |
text = GeneratePrompt(input='', instruction=instruction)
|
|
@@ -108,15 +108,15 @@ print(tokenizer.decode(outputs[0], skip_special_tokens=True))
|
|
| 108 |
<hr>
|
| 109 |
|
| 110 |
|
| 111 |
-
# Boana-7B
|
| 112 |
|
| 113 |
<p align="center">
|
| 114 |
<img width="250" alt="Boana Logo" src="https://cdn-uploads.huggingface.co/production/uploads/658c21f4c1229bf113295773/_Dc6z1IAL-zUiy0LMSSqf.png">
|
| 115 |
</p>
|
| 116 |
|
| 117 |
-
Boana-7B is an LLM trained on portuguese language data. The model is based on [LLaMA2-7B](https://huggingface.co/meta-llama/Llama-2-7b-chat-hf), a 7B parameter version of LLaMA-2. The LLM Boana project aims to provide more LLM options in portuguese, while also providing less complex models so that users with less computational power can take advantage of the LLMs.
|
| 118 |
|
| 119 |
-
In support of portuguese-speaking countries
|
| 120 |
|
| 121 |
<p align="center">
|
| 122 |
<img width="250" alt="Countries Logo" src="https://cdn-uploads.huggingface.co/production/uploads/658c21f4c1229bf113295773/d3twZrXng5eDjg_LbH4pF.png">
|
|
@@ -154,8 +154,8 @@ def GeneratePrompt(input, instruction):
|
|
| 154 |
model_config = GenerationConfig.from_model_config(model.generation_config)
|
| 155 |
model.generation_config.temperature = 0.9 # You can vary this value between 0 and 1.
|
| 156 |
|
| 157 |
-
model = AutoModelForCausalLM.from_pretrained('lrds-code/boana-7b')
|
| 158 |
-
tokenizer = AutoTokenizer.from_pretrained('lrds-code/boana-7b')
|
| 159 |
|
| 160 |
instruction = 'Como desenvolver habilidades de programação em python?'
|
| 161 |
text = GeneratePrompt(input='', instruction=instruction)
|
|
|
|
| 23 |
|
| 24 |
<hr>
|
| 25 |
|
| 26 |
+
# Boana-7B-Instruct
|
| 27 |
|
| 28 |
<p align="center">
|
| 29 |
<img width="250" alt="Boana Logo" src="https://cdn-uploads.huggingface.co/production/uploads/658c21f4c1229bf113295773/_Dc6z1IAL-zUiy0LMSSqf.png">
|
| 30 |
</p>
|
| 31 |
|
| 32 |
+
Boana-7B-Instruct é um LLM treinado em dados da língua portuguesa. O modelo é baseado no [LLaMA2-7B](https://huggingface.co/meta-llama/Llama-2-7b-chat-hf), uma versão de 7B de parâmetros do LLaMA-2. O projeto Boana tem como objetivo oferecer opções de LLM em língua portuguesa, ao mesmo tempo que disponibiliza um modelo menos complexo para que, dessa forma, usuários com menos poder computacional possam usufruir das LLMs.
|
| 33 |
|
| 34 |
Em apoio aos países de língua portuguesa.
|
| 35 |
|
|
|
|
| 69 |
model_config = GenerationConfig.from_model_config(model.generation_config)
|
| 70 |
model.generation_config.temperature = 0.9 # Você pode variar esse valor entre 0 e 1.
|
| 71 |
|
| 72 |
+
model = AutoModelForCausalLM.from_pretrained('lrds-code/boana-7b-instruct')
|
| 73 |
+
tokenizer = AutoTokenizer.from_pretrained('lrds-code/boana-7b-instruct')
|
| 74 |
|
| 75 |
instruction = 'Como desenvolver habilidades de programação em python?'
|
| 76 |
text = GeneratePrompt(input='', instruction=instruction)
|
|
|
|
| 108 |
<hr>
|
| 109 |
|
| 110 |
|
| 111 |
+
# Boana-7B-Instruct
|
| 112 |
|
| 113 |
<p align="center">
|
| 114 |
<img width="250" alt="Boana Logo" src="https://cdn-uploads.huggingface.co/production/uploads/658c21f4c1229bf113295773/_Dc6z1IAL-zUiy0LMSSqf.png">
|
| 115 |
</p>
|
| 116 |
|
| 117 |
+
Boana-7B-Instruct is an LLM trained on portuguese language data. The model is based on [LLaMA2-7B](https://huggingface.co/meta-llama/Llama-2-7b-chat-hf), a 7B parameter version of LLaMA-2. The LLM Boana project aims to provide more LLM options in portuguese, while also providing less complex models so that users with less computational power can take advantage of the LLMs.
|
| 118 |
|
| 119 |
+
In support of portuguese-speaking countries.
|
| 120 |
|
| 121 |
<p align="center">
|
| 122 |
<img width="250" alt="Countries Logo" src="https://cdn-uploads.huggingface.co/production/uploads/658c21f4c1229bf113295773/d3twZrXng5eDjg_LbH4pF.png">
|
|
|
|
| 154 |
model_config = GenerationConfig.from_model_config(model.generation_config)
|
| 155 |
model.generation_config.temperature = 0.9 # You can vary this value between 0 and 1.
|
| 156 |
|
| 157 |
+
model = AutoModelForCausalLM.from_pretrained('lrds-code/boana-7b-instruct')
|
| 158 |
+
tokenizer = AutoTokenizer.from_pretrained('lrds-code/boana-7b-instruct')
|
| 159 |
|
| 160 |
instruction = 'Como desenvolver habilidades de programação em python?'
|
| 161 |
text = GeneratePrompt(input='', instruction=instruction)
|