Spaces:
Sleeping
Sleeping
| import torch | |
| import pandas as pd | |
| import streamlit as st | |
| from transformers import AutoModelForCausalLM, AutoTokenizer | |
| from langchain.llms import HuggingFacePipeline | |
| from huggingface_hub import login | |
| from pydantic import BaseModel, model_validator | |
| from transformers import AutoConfig # Importar para configurar el modelo | |
| # Token secreto de Hugging Face | |
| huggingface_token = st.secrets["HUGGINGFACEHUB_API_TOKEN"] | |
| login(huggingface_token) | |
| # NOTA: No se necesita rope_scaling para Mistral, por lo que esa configuración se omite | |
| # Puedes investigar si el modelo Mistral usa algún tipo de escalado, pero en general no debería ser necesario en este caso. | |
| # Nombre del modelo Mistral | |
| model_name = "mistralai/Mistral-7B-Instruct" # Cambia a un modelo Mistral específico si es necesario | |
| # Cargar el modelo y el tokenizer de Mistral | |
| config = AutoConfig.from_pretrained(model_name) | |
| model = AutoModelForCausalLM.from_pretrained(model_name, config=config) | |
| tokenizer = AutoToken | |