| # Mistral-7B Fine-tuné sur les moteurs spatiaux Vulcain | |
| Un modèle de langage spécialisé pour répondre aux questions techniques sur les moteurs Vulcain et Vulcain 2 utilisés par Ariane. | |
| ## Description du modèle | |
| Ce modèle est basé sur Mistral-7B-v0.1 et a été fine-tuné sur un dataset de questions-réponses spécifiques aux moteurs spatiaux Vulcain. Il peut fournir des informations détaillées sur: | |
| - Les spécifications techniques (poussée, impulsion spécifique, etc.) | |
| - La conception et les matériaux | |
| - Le système de propulsion | |
| - L'historique des moteurs | |
| - Les performances en vol | |
| ## Utilisation | |
| Pour obtenir les meilleures réponses, posez des questions claires sur les moteurs Vulcain: | |
| ```python | |
| from transformers import AutoModelForCausalLM, AutoTokenizer | |
| model = AutoModelForCausalLM.from_pretrained("YourHFUsername/Mistral-7B-Vulcain-Expert") | |
| tokenizer = AutoTokenizer.from_pretrained("YourHFUsername/Mistral-7B-Vulcain-Expert") | |
| # Format simple pour les questions | |
| question = "Quelle est la poussée du moteur Vulcain 2 dans le vide?" | |
| input_text = f"Question: {question}\nRéponse:" | |
| inputs = tokenizer(input_text, return_tensors="pt").to(model.device) | |
| outputs = model.generate(inputs["input_ids"], max_new_tokens=200) | |
| response = tokenizer.decode(outputs[0], skip_special_tokens=True) | |
| print(response) | |
| ``` | |
| ## Limitations | |
| Ce modèle est spécialisé dans le domaine des moteurs spatiaux Vulcain et pourrait ne pas être aussi performant sur d'autres sujets. | |