|
|
--- |
|
|
tags: |
|
|
- transformers |
|
|
- image-classification |
|
|
widget: |
|
|
- src: https://huggingface.co/datasets/mishig/sample_images/resolve/main/tiger.jpg |
|
|
example_title: Tiger |
|
|
- src: https://huggingface.co/datasets/mishig/sample_images/resolve/main/teapot.jpg |
|
|
example_title: Teapot |
|
|
- src: https://huggingface.co/datasets/mishig/sample_images/resolve/main/palace.jpg |
|
|
example_title: Palace |
|
|
datasets: |
|
|
- Clemylia/Orange-ou-tomate |
|
|
--- |
|
|
|
|
|
# 🤖 Fiche Modèle : `Two-fruita-classify` |
|
|
|
|
|
 |
|
|
|
|
|
## 🏷️ Informations Générales |
|
|
|
|
|
| Catégorie | Valeur | |
|
|
| :--- | :--- | |
|
|
| **Auteure** | Clemylia (Hugging Face : `Clemylia`) | |
|
|
| **Version** | v1.0 | |
|
|
| **Type de Modèle** | Classification d'Images (Vision par Ordinateur) | |
|
|
| **Tâche** | Classification Binaire | |
|
|
| **Classification** | 🍅 Tomate / 🍊 Orange | |
|
|
| **Publié le** | \[*18 octobre 2025*] | |
|
|
| **mes Modèles Similaires** | \[*Detia-mya (chiens et chats) - Agna-old (enfants de moins de 8 ans et de plus de 8 ans *] | |
|
|
| **Framework** | \[*Pytorch*] | |
|
|
|
|
|
## ✨ Aperçu |
|
|
|
|
|
Le modèle **Two-fruita-classify** est un classificateur d'images conçu spécifiquement pour la **classification binaire** de fruits : **Tomates** 🍅 ou **Oranges** 🍊. |
|
|
|
|
|
Idéal pour les applications de tri automatisé, d'inventaire de produits frais, ou simplement pour un projet ludique de reconnaissance d'images. |
|
|
|
|
|
### 🎯 Cas d'Usage Principal |
|
|
|
|
|
* Différenciation rapide et précise entre une tomate et une orange à partir d'une image. |
|
|
|
|
|
## 🚀 Utilisation du Modèle (Inférence) |
|
|
|
|
|
Vous pouvez utiliser ce modèle directement via la bibliothèque `transformers` de Hugging Face. |
|
|
|
|
|
### 💻 1. Utilisation avec le `Pipeline` (Recommandé) |
|
|
|
|
|
C'est la méthode la plus simple pour commencer l'inférence. |
|
|
|
|
|
```python |
|
|
from transformers import pipeline |
|
|
|
|
|
# Initialisation du pipeline de classification d'images |
|
|
classifier = pipeline("image-classification", model="Clemylia/Two-fruita-classify") |
|
|
|
|
|
# Exemple avec un chemin local ou une URL d'image |
|
|
image_path = "chemin/vers/votre/image_de_fruit.jpg" |
|
|
|
|
|
# Exécution de l'inférence |
|
|
result = classifier(image_path) |
|
|
|
|
|
# Affichage du résultat |
|
|
# Le résultat sera une liste de dictionnaires avec le label et le score |
|
|
print(result) |
|
|
``` |
|
|
|
|
|
**Exemple de Sortie:** |
|
|
|
|
|
```json |
|
|
[ |
|
|
{ |
|
|
"label": "Tomate 🍅", |
|
|
"score": 0.9987 |
|
|
} |
|
|
] |
|
|
``` |
|
|
|
|
|
*OU* |
|
|
|
|
|
```json |
|
|
[ |
|
|
{ |
|
|
"label": "Orange 🍊", |
|
|
"score": 0.9992 |
|
|
} |
|
|
] |
|
|
``` |
|
|
|
|
|
### 🧠 2. Utilisation Manuelle (Pour un Contrôle Total) |
|
|
|
|
|
Pour les utilisateurs expérimentés nécessitant une intégration plus poussée : |
|
|
|
|
|
```python |
|
|
from transformers import AutoImageProcessor, AutoModelForImageClassification |
|
|
from PIL import Image |
|
|
|
|
|
# 1. Charger le processeur d'image et le modèle |
|
|
model_name = "Clemylia/Two-fruita-classify" |
|
|
image_processor = AutoImageProcessor.from_pretrained(model_name) |
|
|
model = AutoModelForImageClassification.from_pretrained(model_name) |
|
|
|
|
|
# 2. Charger et préparer l'image (exemple avec PIL) |
|
|
image = Image.open("chemin/vers/votre/image_de_fruit.jpg") |
|
|
|
|
|
# 3. Prétraitement de l'image |
|
|
inputs = image_processor(image, return_tensors="pt") |
|
|
|
|
|
# 4. Inférence |
|
|
outputs = model(**inputs) |
|
|
logits = outputs.logits |
|
|
predicted_class_idx = logits.argmax(-1).item() |
|
|
|
|
|
# 5. Interprétation du résultat |
|
|
predicted_label = model.config.id2label[predicted_class_idx] |
|
|
|
|
|
print(f"Prédiction: {predicted_label}") |
|
|
``` |
|
|
|
|
|
## 📊 Métriques et Évaluation |
|
|
|
|
|
| Métrique | Valeur | Commentaires | |
|
|
| :--- | :--- | :--- | |
|
|
| **Précision (Tomate 🍅)** | \[*90*]% | Pourcentage de vraies tomates correctement identifiées. | |
|
|
| **Précision (Orange 🍊)** | \[*90*]% | Pourcentage de vraies oranges correctement identifiées. | |
|
|
|
|
|
le modèle a été entraîné sur la dataset (Clemylia/Orange-ou-tomate), |
|
|
contenant des images de tomates et d'oranges. |
|
|
|
|
|
## 🛠️ Détails d'Entraînement |
|
|
|
|
|
### 🖼️ Jeu de Données (Dataset) |
|
|
|
|
|
* **Nom :** \[*Clemylia/Orange-ou-tomate*] |
|
|
* **Source :** \[*Google*] |
|
|
* **Taille :** \[*22 images*] |
|
|
* **Répartition :** \[* 10 tomates/12 oranges*] |
|
|
|
|
|
## 👩💻 Qui suis-je ? |
|
|
|
|
|
Bonjour ! Je suis Clemylia 👋, une développeuse d'IA passionnée de 18 ans. Je me distingue par une approche créative et originale : la majorité de mes 34 modèles sont développés from scratch. Seuls mes modèles de classification d'images (comme celui-ci) sont issus d'un fine-tuning. Mon objectif est de créer des solutions d'IA à la fois performantes et accessibles. N'hésitez pas à me suivre et à contribuer à mes projets ! |
|
|
----- |
|
|
|
|
|
**Un grand merci de votre intérêt pour Two-fruita-classify \!** 🙏 |
|
|
N'oubliez pas de laisser une étoile ⭐️ si ce modèle vous est utile. |