Update app.py
Browse files
app.py
CHANGED
|
@@ -50,11 +50,15 @@ Analysez le texte suivant et créez une présentation claire et professionnelle
|
|
| 50 |
|
| 51 |
|
| 52 |
# Téléchargement du modèle
|
|
|
|
|
|
|
|
|
|
|
|
|
| 53 |
model_id = "mistralai/Mistral-Nemo-Instruct-2407"
|
| 54 |
|
| 55 |
# Initialisation du modèle avec des paramètres de contexte plus grands
|
| 56 |
tokenizer = AutoTokenizer.from_pretrained(model_id)
|
| 57 |
-
model = AutoModelForCausalLM.from_pretrained(model_id, torch_dtype=torch.bfloat16, device_map="auto")
|
| 58 |
|
| 59 |
def parse_presentation_content(content):
|
| 60 |
"""Parse le contenu généré en sections pour les diapositives"""
|
|
|
|
| 50 |
|
| 51 |
|
| 52 |
# Téléchargement du modèle
|
| 53 |
+
# Authentification Necessaire
|
| 54 |
+
#https://huggingface.co/docs/hub/spaces-overview#managing-secrets
|
| 55 |
+
#https://huggingface.co/docs/hub/security-tokens
|
| 56 |
+
token = os.getenv('Authentification_HF')
|
| 57 |
model_id = "mistralai/Mistral-Nemo-Instruct-2407"
|
| 58 |
|
| 59 |
# Initialisation du modèle avec des paramètres de contexte plus grands
|
| 60 |
tokenizer = AutoTokenizer.from_pretrained(model_id)
|
| 61 |
+
model = AutoModelForCausalLM.from_pretrained(model_id, torch_dtype=torch.bfloat16, device_map="auto", token=token)
|
| 62 |
|
| 63 |
def parse_presentation_content(content):
|
| 64 |
"""Parse le contenu généré en sections pour les diapositives"""
|