File size: 1,490 Bytes
52af9e1
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
# Mistral-7B Fine-tuné sur les moteurs spatiaux Vulcain

Un modèle de langage spécialisé pour répondre aux questions techniques sur les moteurs Vulcain et Vulcain 2 utilisés par Ariane.

## Description du modèle

Ce modèle est basé sur Mistral-7B-v0.1 et a été fine-tuné sur un dataset de questions-réponses spécifiques aux moteurs spatiaux Vulcain. Il peut fournir des informations détaillées sur:

- Les spécifications techniques (poussée, impulsion spécifique, etc.)
- La conception et les matériaux
- Le système de propulsion
- L'historique des moteurs
- Les performances en vol

## Utilisation

Pour obtenir les meilleures réponses, posez des questions claires sur les moteurs Vulcain:

```python
from transformers import AutoModelForCausalLM, AutoTokenizer

model = AutoModelForCausalLM.from_pretrained("YourHFUsername/Mistral-7B-Vulcain-Expert")
tokenizer = AutoTokenizer.from_pretrained("YourHFUsername/Mistral-7B-Vulcain-Expert")

# Format simple pour les questions
question = "Quelle est la poussée du moteur Vulcain 2 dans le vide?"
input_text = f"Question: {question}\nRéponse:"

inputs = tokenizer(input_text, return_tensors="pt").to(model.device)
outputs = model.generate(inputs["input_ids"], max_new_tokens=200)
response = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(response)
```

## Limitations

Ce modèle est spécialisé dans le domaine des moteurs spatiaux Vulcain et pourrait ne pas être aussi performant sur d'autres sujets.