README


Boana-7B-Instruct

Boana Logo

Boana-7B-Instruct Γ© um LLM treinado em dados da lΓ­ngua portuguesa. O modelo Γ© baseado no LLaMA2-7B, uma versΓ£o de 7B de parΓ’metros do LLaMA-2. O projeto Boana tem como objetivo oferecer opΓ§Γ΅es de LLM em lΓ­ngua portuguesa, ao mesmo tempo que disponibiliza um modelo menos complexo para que, dessa forma, usuΓ‘rios com menos poder computacional possam usufruir das LLMs.

Em apoio aos paΓ­ses de lΓ­ngua portuguesa.

Countries Logo

DescriΓ§Γ£o do Modelo

  • Desenvolvido por: Leonardo Souza
  • Tipo do modelo: LLaMA-Based
  • LicenΓ§a: Academic Free License v3.0
  • Fine-tunado do modelo: LLaMA2-7B

Como Usar

import torch
from transformers import pipeline

boana = pipeline('text-generation', model='lrds-code/boana-7b-instruct', torch_dtype=torch.bfloat16, device_map='auto')

messages = [{'role':'system',
             'content':''},
            {'role':'user',
             'content':'Quantos planetas existem no sistema solar?'}]

prompt = boana.tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)
outputs = boana(prompt, max_new_tokens=256, do_sample=False, temperature=0, top_k=50, top_p=0.95)
print(outputs[0]['generated_text'])

# <s>[INST] <<SYS>>

# <</SYS>>

# Quantos planetas existem no sistema solar? [/INST]  O sistema solar consiste em 8 planetas:

# 1. Mercurio
# 2. VΓͺnus
# 3. Terra
# 4. Marte
# 5. JΓΊpiter
# 6. Saturno
# 8. Netuno

# AlΓ©m desses planetas, o sistema solar tambΓ©m inclui outros corpos celestes, como asteroides, cometas e anΓ΅es, bem como vΓ‘rias luas e satΓ©lites naturais

ParΓ’metros Importantes

  • repetition_penalty: Γ© utilizado para evitar a repetiΓ§Γ£o de palavras ou frases. Quando esse valor Γ© ajustado para ser maior que 1, o modelo tenta diminuir a probabilidade de gerar palavras que jΓ‘ apareceram anteriormente. Basicamente, quanto maior o valor, mais o modelo tenta evitar repetiΓ§Γ΅es.
  • do_sample: determina se o modelo deve ou nΓ£o amostrar aleatoriamente a prΓ³xima palavra com base nas probabilidades calculadas. Portanto, do_sample=True introduz variaΓ§Γ£o e imprevisibilidade no texto gerado, enquanto que se do_sample=False o modelo escolherΓ‘ sempre a palavra mais provΓ‘vel como prΓ³xima palavra, o que pode levar a saΓ­das mais determinΓ­sticas e, possivelmente, mais repetitivas.
  • temperature: afeta a aleatoriedade na escolha da prΓ³xima palavra. Um valor baixo (prΓ³ximo de 0) faz com que o modelo seja mais "confiante" nas suas escolhas, favorecendo palavras com alta probabilidade e levando a saΓ­das mais previsΓ­veis. Por outro lado, um valor alto aumenta a aleatoriedade, permitindo que o modelo escolha palavras menos provΓ‘veis, o que pode tornar o texto gerado mais variado e criativo.
Downloads last month
30
Safetensors
Model size
7B params
Tensor type
BF16
Β·
Inference Providers NEW
This model isn't deployed by any Inference Provider. πŸ™‹ Ask for provider support

Model tree for lrds-code/boana-7b-instruct

Quantizations
2 models

Spaces using lrds-code/boana-7b-instruct 16

Evaluation results