| # 🤖 GIT-Base Captioning en Wolof (ZigZeug) | |
| Ce modèle est basé sur [`microsoft/git-base`](https://huggingface.co/microsoft/git-base) et a été adapté pour générer automatiquement des **légendes d’images en wolof**. | |
| Il intègre : | |
| - 🧠 Un modèle `AutoModelForCausalLM` dérivé de GIT-Base | |
| - 🧾 Un tokenizer Byte-Level BPE entraîné sur un corpus wolof | |
| - 🖼️ Le préprocesseur image original de GIT | |
| - 🔄 Un processor combiné pour traiter image + texte (format Hugging Face) | |
| --- | |
| ## 📦 Contenu du repo | |
| - `config.json` : config du modèle adapté | |
| - `pytorch_model.bin` : poids du modèle GIT avec vocabulaire wolof | |
| - `tokenizer_config.json`, `vocab.json`, `merges.txt` : tokenizer Wolof | |
| - `preprocessor_config.json` : paramètres image/text du processor | |
| - `README.md` : documentation complète | |
| --- | |
| ## 🌍 Langue ciblée | |
| **Wolof** | |
| Code ISO 639-3 : `wol_Latn` | |
| Corpus de légendes COCO traduites à la main ou via un pipeline semi-automatisé. | |
| --- | |
| ## 💡 Exemple d'utilisation | |
| ```python | |
| from transformers import AutoProcessor, AutoModelForCausalLM | |
| from PIL import Image | |
| import torch | |
| # Chargement | |
| processor = AutoProcessor.from_pretrained("ZigZeug/git-wolof-captioning") | |
| model = AutoModelForCausalLM.from_pretrained("ZigZeug/git-wolof-captioning") | |
| # Image d'entrée | |
| image = Image.open("chemin/vers/image.jpg").convert("RGB") | |
| # Inference | |
| inputs = processor(images=image, return_tensors="pt").to("cuda" if torch.cuda.is_available() else "cpu") | |
| generated_ids = model.generate(pixel_values=inputs["pixel_values"], max_length=50) | |
| caption = processor.tokenizer.decode(generated_ids[0], skip_special_tokens=True) | |
| print("📝 Caption en Wolof :", caption) | |