Create README.md
Browse files---
license: mit
language:
- es
tags:
- gemma
- spanish
- instruct
- text-generation
- fine-tuned
base_model: google/gemma-3-27b-it
library_name: transformers
---
# Modelo ajustado basado en Gemma 3B (Instruct)
Este modelo es una versi贸n afinada del modelo `google/gemma-3-27b-it`, optimizado para generar texto en espa帽ol.
## Objetivo
El objetivo de este modelo es generar respuestas coherentes, naturales y contextuales en espa帽ol, ideal para aplicaciones como asistentes virtuales, generaci贸n de textos educativos o escritura creativa.
## Dataset utilizado
Este modelo fue afinado con un conjunto de datos propios/enriquecidos con textos en espa帽ol. *(Aqu铆 puedes incluir el nombre del dataset o una breve descripci贸n)*.
## Uso
```python
from transformers import AutoTokenizer, AutoModelForCausalLM, pipeline
tokenizer = AutoTokenizer.from_pretrained("tu-usuario/nombre-del-modelo")
model = AutoModelForCausalLM.from_pretrained("tu-usuario/nombre-del-modelo")
pipe = pipeline("text-generation", model=model, tokenizer=tokenizer)
result = pipe("驴Cu谩l es la capital de Colombia?", max_new_tokens=50)
print(result[0]['generated_text'])
|
@@ -1,3 +1,15 @@
|
|
| 1 |
---
|
| 2 |
license: mit
|
| 3 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
---
|
| 2 |
license: mit
|
| 3 |
+
datasets:
|
| 4 |
+
- FreedomIntelligence/medical-o1-reasoning-SFT
|
| 5 |
+
language:
|
| 6 |
+
- es
|
| 7 |
+
base_model:
|
| 8 |
+
- google/gemma-3-27b-it
|
| 9 |
+
pipeline_tag: text2text-generation
|
| 10 |
+
library_name: adapter-transformers
|
| 11 |
+
tags:
|
| 12 |
+
- gemma socha
|
| 13 |
+
- spanish,
|
| 14 |
+
- finetuned,
|
| 15 |
+
---
|