# 🤖 GIT-Base Captioning en Wolof (ZigZeug) Ce modèle est basé sur [`microsoft/git-base`](https://huggingface.co/microsoft/git-base) et a été adapté pour générer automatiquement des **légendes d’images en wolof**. Il intègre : - 🧠 Un modèle `AutoModelForCausalLM` dérivé de GIT-Base - 🧾 Un tokenizer Byte-Level BPE entraîné sur un corpus wolof - 🖼️ Le préprocesseur image original de GIT - 🔄 Un processor combiné pour traiter image + texte (format Hugging Face) --- ## 📦 Contenu du repo - `config.json` : config du modèle adapté - `pytorch_model.bin` : poids du modèle GIT avec vocabulaire wolof - `tokenizer_config.json`, `vocab.json`, `merges.txt` : tokenizer Wolof - `preprocessor_config.json` : paramètres image/text du processor - `README.md` : documentation complète --- ## 🌍 Langue ciblée **Wolof** Code ISO 639-3 : `wol_Latn` Corpus de légendes COCO traduites à la main ou via un pipeline semi-automatisé. --- ## 💡 Exemple d'utilisation ```python from transformers import AutoProcessor, AutoModelForCausalLM from PIL import Image import torch # Chargement processor = AutoProcessor.from_pretrained("ZigZeug/git-wolof-captioning") model = AutoModelForCausalLM.from_pretrained("ZigZeug/git-wolof-captioning") # Image d'entrée image = Image.open("chemin/vers/image.jpg").convert("RGB") # Inference inputs = processor(images=image, return_tensors="pt").to("cuda" if torch.cuda.is_available() else "cpu") generated_ids = model.generate(pixel_values=inputs["pixel_values"], max_length=50) caption = processor.tokenizer.decode(generated_ids[0], skip_special_tokens=True) print("📝 Caption en Wolof :", caption)