Subida del modelo ajustado con 1 capas, hidden_size=2 y vocab_size=50259 y README.md
7ea513d
verified
| language: en | |
| license: apache-2.0 | |
| tags: | |
| - text-generation | |
| - gpt2 | |
| library_name: transformers | |
| pipeline_tag: text-generation | |
| # Modelo Ajustado para Generación de Texto | |
| Este modelo ha sido ajustado a partir de `gpt2` con la siguiente configuración: | |
| - Número de capas ocultas: 1 | |
| - Tamaño de la capa oculta: 2 | |
| - Tamaño del vocabulario: 50259 | |
| **Importante:** Este modelo utiliza la arquitectura base de `gpt2` y **ha reducido su tamaño**. El modelo original tenía 12 capas, **y ahora tiene solo 1 capa oculta**. Además, la dimensión de los embeddings y las capas internas se ha ajustado a 2. Se han añadido nuevos tokens al vocabulario y sus embeddings han sido inicializados. | |
| Se puede utilizar para tareas de generación de texto. | |
| ## Uso | |
| Para usar este modelo, primero debes tener instalada la librería `transformers`. Puedes instalarla usando pip: | |
| ```bash | |
| pip install transformers | |
| ``` | |
| Una vez instalada, puedes cargar y usar el modelo de la siguiente manera: | |
| ```python | |
| from transformers import AutoModelForCausalLM, AutoTokenizer | |
| repo_name = "lilmeaty/text-gen-example-one-layer" | |
| model = AutoModelForCausalLM.from_pretrained(repo_name) | |
| tokenizer = AutoTokenizer.from_pretrained(repo_name) | |
| prompt = "Escribe una breve historia sobre un robot que aprende a amar." | |
| input_ids = tokenizer.encode(prompt, return_tensors="pt") | |
| output = model.generate( | |
| input_ids, | |
| max_length=100, | |
| num_return_sequences=1, | |
| no_repeat_ngram_size=2, | |
| top_k=50, | |
| top_p=0.95, | |
| temperature=0.7, | |
| do_sample=True | |
| ) | |
| generated_text = tokenizer.decode(output[0], skip_special_tokens=True) | |
| print(generated_text) | |
| ``` | |