Youlln commited on
Commit
128023b
·
verified ·
1 Parent(s): 4dd7774

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +5 -5
README.md CHANGED
@@ -17,20 +17,20 @@ pipeline_tag: image-to-text
17
 
18
  ## Model Details
19
 
20
- **Model Name:** UMA-IA/VLM_Engine_Finetuned_Aero
21
  **Authors:**
22
  - **Youri LALAIN**, Engineering student at French Engineering School ECE
23
  - **Lilian RAGE**, Engineering student at French Engineering School ECE
24
 
25
  **Base Model:** [Qwen/Qwen2.5-VL-7B-Instruct](https://huggingface.co/Qwen/Qwen2.5-VL-7B-Instruct)
26
- **Fine-tuned Dataset:** [UMA-IA/UMA_Dataset_Engine_Aero_VLM](https://huggingface.co/datasets/UMA-IA/UMA_Dataset_Engine_Aero_VLM)
27
  **License:** Apache 2.0
28
 
29
  ## Model Description
30
 
31
  # Qwen2.5-VL Fine-tuned pour la détection de composants de moteurs aérospatiaux
32
 
33
- VLM_Engine_Finetuned_Aero est une version spécialisée du modèle Qwen2.5-VL-7B-Instruct, fine-tunée pour détecter, identifier et analyser les composants de moteurs aéronautiques et aérospatiaux à partir d'images. Le modèle exploite le dataset UMA-IA/UMA_Dataset_Engine_Aero_VLM pour améliorer sa capacité à reconnaître les pièces spécifiques, les défauts potentiels et les caractéristiques techniques des systèmes de propulsion.
34
 
35
  ## Capacités
36
  - Détection et identification précise des composants de moteurs aéronautiques
@@ -45,7 +45,7 @@ VLM_Engine_Finetuned_Aero est une version spécialisée du modèle Qwen2.5-VL-7B
45
  - Aide visuelle
46
 
47
  ## Détails de l'entraînement
48
- Ce modèle a été fine-tuné sur UMA-IA/UMA_Dataset_Engine_Aero_VLM, un dataset spécialement créé pour l'identification visuelle de composants de moteurs aérospatiaux. L'entraînement a été réalisé en utilisant des techniques de fine-tuning supervisé pour adapter le modèle Qwen2.5-VL à la reconnaissance de composants techniques spécifiques.
49
 
50
  ## Comment utiliser le modèle
51
  Vous pouvez charger le modèle en utilisant la bibliothèque `transformers` de Hugging Face :
@@ -57,7 +57,7 @@ import requests
57
  from io import BytesIO
58
 
59
  # Charger le modèle et le tokenizer
60
- model_name = "UMA-IA/VLM_Engine_Finetuned_Aero"
61
  model = AutoModelForCausalLM.from_pretrained(model_name, trust_remote_code=True)
62
  tokenizer = AutoTokenizer.from_pretrained(model_name, trust_remote_code=True)
63
 
 
17
 
18
  ## Model Details
19
 
20
+ **Model Name:** UMA-IA/AQUILA-Engine-v1
21
  **Authors:**
22
  - **Youri LALAIN**, Engineering student at French Engineering School ECE
23
  - **Lilian RAGE**, Engineering student at French Engineering School ECE
24
 
25
  **Base Model:** [Qwen/Qwen2.5-VL-7B-Instruct](https://huggingface.co/Qwen/Qwen2.5-VL-7B-Instruct)
26
+ **Fine-tuned Dataset:** [UMA-IA/PYXIS-Engine-v1](https://huggingface.co/datasets/UMA-IA/UMA_Dataset_Engine_Aero_VLM)
27
  **License:** Apache 2.0
28
 
29
  ## Model Description
30
 
31
  # Qwen2.5-VL Fine-tuned pour la détection de composants de moteurs aérospatiaux
32
 
33
+ UMA-IA/AQUILA-Engine-v1 est une version spécialisée du modèle Qwen2.5-VL-7B-Instruct, fine-tunée pour détecter, identifier et analyser les composants de moteurs aéronautiques et aérospatiaux à partir d'images. Le modèle exploite le dataset UMA-IA/PYXIS-Engine-v1 pour améliorer sa capacité à reconnaître les pièces spécifiques, les défauts potentiels et les caractéristiques techniques des systèmes de propulsion.
34
 
35
  ## Capacités
36
  - Détection et identification précise des composants de moteurs aéronautiques
 
45
  - Aide visuelle
46
 
47
  ## Détails de l'entraînement
48
+ Ce modèle a été fine-tuné sur UMA-IA/PYXIS-Engine-v1, un dataset spécialement créé pour l'identification visuelle de composants de moteurs aérospatiaux. L'entraînement a été réalisé en utilisant des techniques de fine-tuning supervisé pour adapter le modèle Qwen2.5-VL à la reconnaissance de composants techniques spécifiques.
49
 
50
  ## Comment utiliser le modèle
51
  Vous pouvez charger le modèle en utilisant la bibliothèque `transformers` de Hugging Face :
 
57
  from io import BytesIO
58
 
59
  # Charger le modèle et le tokenizer
60
+ model_name = "UMA-IA/AQUILA-Engine-v1"
61
  model = AutoModelForCausalLM.from_pretrained(model_name, trust_remote_code=True)
62
  tokenizer = AutoTokenizer.from_pretrained(model_name, trust_remote_code=True)
63