README
Boana-7B-Instruct
Boana-7B-Instruct Γ© um LLM treinado em dados da lΓngua portuguesa. O modelo Γ© baseado no LLaMA2-7B, uma versΓ£o de 7B de parΓ’metros do LLaMA-2. O projeto Boana tem como objetivo oferecer opΓ§Γ΅es de LLM em lΓngua portuguesa, ao mesmo tempo que disponibiliza um modelo menos complexo para que, dessa forma, usuΓ‘rios com menos poder computacional possam usufruir das LLMs.
Em apoio aos paΓses de lΓngua portuguesa.
DescriΓ§Γ£o do Modelo
- Desenvolvido por: Leonardo Souza
- Tipo do modelo: LLaMA-Based
- LicenΓ§a: Academic Free License v3.0
- Fine-tunado do modelo: LLaMA2-7B
Como Usar
import torch
from transformers import pipeline
boana = pipeline('text-generation', model='lrds-code/boana-7b-instruct', torch_dtype=torch.bfloat16, device_map='auto')
messages = [{'role':'system',
'content':''},
{'role':'user',
'content':'Quantos planetas existem no sistema solar?'}]
prompt = boana.tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)
outputs = boana(prompt, max_new_tokens=256, do_sample=False, temperature=0, top_k=50, top_p=0.95)
print(outputs[0]['generated_text'])
# <s>[INST] <<SYS>>
# <</SYS>>
# Quantos planetas existem no sistema solar? [/INST] O sistema solar consiste em 8 planetas:
# 1. Mercurio
# 2. VΓͺnus
# 3. Terra
# 4. Marte
# 5. JΓΊpiter
# 6. Saturno
# 8. Netuno
# AlΓ©m desses planetas, o sistema solar tambΓ©m inclui outros corpos celestes, como asteroides, cometas e anΓ΅es, bem como vΓ‘rias luas e satΓ©lites naturais
ParΓ’metros Importantes
- repetition_penalty: Γ© utilizado para evitar a repetiΓ§Γ£o de palavras ou frases. Quando esse valor Γ© ajustado para ser maior que 1, o modelo tenta diminuir a probabilidade de gerar palavras que jΓ‘ apareceram anteriormente. Basicamente, quanto maior o valor, mais o modelo tenta evitar repetiΓ§Γ΅es.
- do_sample: determina se o modelo deve ou nΓ£o amostrar aleatoriamente a prΓ³xima palavra com base nas probabilidades calculadas. Portanto, do_sample=True introduz variaΓ§Γ£o e imprevisibilidade no texto gerado, enquanto que se do_sample=False o modelo escolherΓ‘ sempre a palavra mais provΓ‘vel como prΓ³xima palavra, o que pode levar a saΓdas mais determinΓsticas e, possivelmente, mais repetitivas.
- temperature: afeta a aleatoriedade na escolha da prΓ³xima palavra. Um valor baixo (prΓ³ximo de 0) faz com que o modelo seja mais "confiante" nas suas escolhas, favorecendo palavras com alta probabilidade e levando a saΓdas mais previsΓveis. Por outro lado, um valor alto aumenta a aleatoriedade, permitindo que o modelo escolha palavras menos provΓ‘veis, o que pode tornar o texto gerado mais variado e criativo.
- Downloads last month
- 30
Model tree for lrds-code/boana-7b-instruct
Spaces using lrds-code/boana-7b-instruct 16
Evaluation results
- Accuracy on XWinograd (pt)test set self-reported50.570