| --- |
| license: mit |
| language: |
| - fr |
| pipeline_tag: image-to-image |
| datasets: |
| - Clemylia/Mandalas |
| --- |
| # 🎨 Dranina - Votre Coloriage Automatique de Mandalas \! |
|
|
|  |
|
|
| ## 🌟 Aperçu du Modèle |
|
|
| Bienvenue dans l'univers de **Dranina**, un modèle de *machine learning* conçu pour transformer instantanément vos dessins de mandalas en noir et blanc en œuvres entièrement colorées \! 🚀 |
|
|
| Dranina est un réseau neuronal de type **U-Net**, entraîné sur une collection de paires d'images (mandala non colorié ➡️ mandala colorié) pour apprendre l'art de la colorisation. |
|
|
| | Détail | Description | |
| | :--- | :--- | |
| | **Tâche Principale** | Colorisation Image-to-Image (Noir et Blanc ➡️ Couleur) | |
| | **Architecture** | U-Net (PyTorch) | |
| | **Entraîné sur** | Dataset privée (Mandalas variés) | |
| | **Idéal pour** | Les artistes numériques et les développeurs souhaitant intégrer la colorisation automatique. | |
|
|
| ----- |
|
|
| ## 💻 Comment Utiliser Dranina (Inférence) |
|
|
| Vous pouvez intégrer le modèle Dranina dans vos propres applications ou l'utiliser directement dans un environnement Python (comme Google Colab). |
|
|
| ### 1\. Prérequis |
|
|
| Assurez-vous d'avoir les bibliothèques essentielles pour le chargement du modèle PyTorch et l'accès au Hub Hugging Face : |
|
|
| ```bash |
| pip install torch torchvision pillow huggingface_hub |
| ``` |
|
|
| ### 2\. Chargement du Modèle |
|
|
| Le modèle est stocké sur le Hub sous forme d'un fichier de poids binaire. Vous devez définir la structure U-Net puis charger les poids. |
|
|
| ```python |
| import torch |
| from torchvision import transforms |
| from PIL import Image |
| from huggingface_hub import hf_hub_download |
| # (Nécessite la définition des classes double_conv, Up, et DraninaUnet) |
| |
| # --- Paramètres --- |
| MODEL_ID = "Clemylia/Dranina-Mandala-Colorizer" |
| MODEL_FILENAME = "pytorch_model.bin" |
| |
| def charger_et_predire(input_image_path): |
| # 1. Téléchargement des poids |
| model_path = hf_hub_download(repo_id=MODEL_ID, filename=MODEL_FILENAME) |
| |
| # 2. Instanciation de l'architecture et chargement des poids |
| # NOTE: Assurez-vous d'avoir défini les classes DraninaUnet, Up, etc. |
| model = DraninaUnet(n_channels=3, n_classes=3) |
| state_dict = torch.load(model_path, map_location=torch.device("cpu")) |
| model.load_state_dict(state_dict) |
| model.eval() # Mode évaluation |
| |
| # 3. Prédiction (Utilisez vos propres fonctions de prédiction ici) |
| # ... (Code de prédiction qui transforme l'image et utilise model(input_tensor)) |
| |
| # Retourne l'image coloriée |
| return image_coloree |
| ``` |
|
|
| 👉 Pour une démonstration interactive, visitez notre [Hugging Face Space](https://www.google.com/search?q=https://huggingface.co/spaces/Clemylia/Dranina-Mandala-App) \! |
|
|
| ----- |
|
|
| ## 🚧 Limitations et Points Importants |
|
|
| Afin d'obtenir les meilleurs résultats, veuillez tenir compte de ces points : |
|
|
| ### 1\. Palette de Couleurs Moyenne 🌈 |
|
|
| Dranina a été entraîné en utilisant la **L1 Loss** (Erreur Absolue Moyenne). Ce type de fonction de perte a tendance à favoriser des choix de couleurs **"sûres"** ou **moyennes** pour minimiser les erreurs. |
|
|
| * **Observation :** Si les mandalas produits vous semblent manquer de saturation ou si la palette de couleurs est répétitive, cela est dû à la nature de la fonction de perte. Le modèle évite les couleurs trop vives ou trop sombres si elles ne sont pas dominantes dans la *dataset* d'entraînement. |
|
|
| ### 2\. Résolution d'Entrée |
|
|
| Le modèle est optimisé pour des images carrées et redimensionne l'entrée à **$256 \\times 256$ pixels** avant l'inférence. Pour une qualité optimale, essayez de fournir des images d'entrée claires, sans bruit, et proches de ce format. |
|
|
| ----- |
|
|
| ## 🤝 Contribution et Retour |
|
|
| Votre avis est précieux \! Si vous utilisez Dranina, n'hésitez pas à : |
|
|
| 1. **Signaler les problèmes (Issues)** si vous rencontrez des erreurs techniques. |
| 2. **Partager vos résultats** et vos retours sur la qualité de la colorisation. |
| 3. **Contribuer** en proposant des améliorations ou en partageant une version améliorée du modèle (par exemple, avec une Perte Perceptuelle) \! |
|
|
| Bonne colorisation \! ✨ |