File size: 4,254 Bytes
f4e5cbd
41210bb
 
f4e5cbd
41210bb
b762300
41210bb
 
 
 
 
 
 
 
f4e5cbd
f1f31aa
41210bb
b762300
41210bb
f4e5cbd
 
41210bb
b762300
41210bb
f4e5cbd
41210bb
 
f4e5cbd
b762300
f4e5cbd
41210bb
 
 
 
 
 
 
f4e5cbd
41210bb
 
 
f4e5cbd
 
 
 
 
 
 
 
 
41210bb
f4e5cbd
41210bb
f4e5cbd
 
 
 
 
 
 
 
 
41210bb
f4e5cbd
41210bb
 
 
 
 
 
f4e5cbd
41210bb
b762300
f4e5cbd
41210bb
238bc6b
41210bb
238bc6b
 
41210bb
238bc6b
41210bb
b762300
41210bb
 
238bc6b
41210bb
 
 
 
238bc6b
41210bb
 
 
 
 
 
 
 
 
406bf4c
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
---
language:
- fr
license: mit
datasets:
- UMA-IA/VELA-Components-v2
base_model: mistralai/Mistral-7B-v0.1
tags:
- aerospace
- aeronautics
- engineering
- technical-QA
- components
pipeline_tag: text-generation
---

## Model Details
**Model Name:** UMA-IA/CENTAURUS-Components-v2
**Authors:**  
- **Youri LALAIN**, Engineering student at French Engineering School ECE  
- **Lilian RAGE**, Engineering student at French Engineering School ECE  
**Base Model:** [Mistral-7B-v0.1](https://huggingface.co/mistralai/Mistral-7B-v0.1)  
**Fine-tuned Dataset:** [UMA-IA/VELA-Components-v2](https://huggingface.co/datasets/UMA-IA/UMA_Dataset_Components_LLM)  
**License:** Apache 2.0  

## Model Description
# Mistral-7B Fine-tuné sur les composants aérospatiaux

UMA-IA/CENTAURUS-Components-v2 est une version spécialisée du modèle Mistral-7B, fine-tunée pour fournir des réponses précises et concises aux questions techniques concernant les composants aérospatiaux et aéronautiques. Le modèle s'appuie sur le dataset UMA-IA/VELA-Components-v2 pour améliorer sa compréhension des composants de propulsion, leurs caractéristiques techniques, et leur maintenance.

## Capacités
- Réponses techniques concernant les composants aérospatiaux
- Informations sur les fournisseurs de composants spécifiques
- Détails sur la durée de vie et la maintenance des composants
- Explications du rôle fonctionnel des composants
- Analyse des modes de défaillance et leurs conséquences
- Délimitation claire des domaines d'expertise (reconnaissance des questions hors domaine)

## Composants couverts

### Composants de moteurs-fusées
- Tuyère (Nozzle)
- Chambre de combustion (Combustion chamber)
- Turbopompe (Turbopump)
- Injecteur (Injector)
- Système d'allumage (Ignition system)
- Échangeur thermique (Heat exchanger)
- Vanne de régulation (Control valve)
- Conduits de carburant (Fuel lines)
- Système de refroidissement (Cooling system)
- Et plus encore...

### Composants de turboréacteurs
- Soufflante (Fan)
- Compresseur (Compressor)
- Chambre annulaire (Annular chamber)
- Turbine (Turbine)
- Postcombustion (Afterburner)
- Carter d'admission (Intake housing)
- Stator (Stator)
- Redresseur de flux (Flow straightener)
- Aubes (Blades)
- Et plus encore...

## Cas d'utilisation
- Support technique en ingénierie aérospatiale
- Formation et éducation sur les systèmes de propulsion
- Assistance à la conception et à la maintenance de systèmes aérospatiaux
- Documentation technique et développement de bases de connaissances
- Applications pédagogiques en ingénierie aérospatiale

## Détails d'entraînement
Ce modèle a été fine-tuné sur le dataset UMA-IA/VELA-Components-v2, qui contient environ 800 paires question-réponse concernant divers composants aérospatiaux. Le processus de fine-tuning a utilisé la technique LoRA (Low-Rank Adaptation) pour adapter efficacement le modèle Mistral-7B à ce domaine spécifique.

## Comment utiliser

Vous pouvez charger le modèle en utilisant la bibliothèque `transformers` de Hugging Face:

```python
from transformers import AutoModelForCausalLM, AutoTokenizer

# Charger le modèle et le tokenizer
model_name = "UMA-IA/CENTAURUS-Components-v2"
model = AutoModelForCausalLM.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)

# Format d'entrée recommandé
question = "Quelle est la durée de vie moyenne d'une tuyère?"
context = "Type: COMPOSANT, Composant: Tuyère, Catégorie: DURÉE_DE_VIE, Thème: question_simple"
input_text = f"Question: {question}\nContexte: {context}\nRéponse:"

# Générer une réponse
inputs = tokenizer(input_text, return_tensors="pt").to(model.device)
outputs = model.generate(
    inputs["input_ids"], 
    max_new_tokens=50, 
    temperature=0.7,
    top_p=0.9
)
response = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(response)
```
## Exemples

Question: Quelle est la durée de vie moyenne d'une tuyère?
Contexte: Type: COMPOSANT, Composant: Tuyère, Catégorie: DURÉE_DE_VIE, Thème: question_simple
Réponse:
La durée de vie moyenne d'une tuyère est de 1500 à 2000 cycles d'utilisation. Les températures extrêmes et l'érosion thermique sont les principaux facteurs limitants.