ZigZeug's picture
Update README.md
4dd3bb1 verified
# 🤖 GIT-Base Captioning en Wolof (ZigZeug)
Ce modèle est basé sur [`microsoft/git-base`](https://huggingface.co/microsoft/git-base) et a été adapté pour générer automatiquement des **légendes d’images en wolof**.
Il intègre :
- 🧠 Un modèle `AutoModelForCausalLM` dérivé de GIT-Base
- 🧾 Un tokenizer Byte-Level BPE entraîné sur un corpus wolof
- 🖼️ Le préprocesseur image original de GIT
- 🔄 Un processor combiné pour traiter image + texte (format Hugging Face)
---
## 📦 Contenu du repo
- `config.json` : config du modèle adapté
- `pytorch_model.bin` : poids du modèle GIT avec vocabulaire wolof
- `tokenizer_config.json`, `vocab.json`, `merges.txt` : tokenizer Wolof
- `preprocessor_config.json` : paramètres image/text du processor
- `README.md` : documentation complète
---
## 🌍 Langue ciblée
**Wolof**
Code ISO 639-3 : `wol_Latn`
Corpus de légendes COCO traduites à la main ou via un pipeline semi-automatisé.
---
## 💡 Exemple d'utilisation
```python
from transformers import AutoProcessor, AutoModelForCausalLM
from PIL import Image
import torch
# Chargement
processor = AutoProcessor.from_pretrained("ZigZeug/git-wolof-captioning")
model = AutoModelForCausalLM.from_pretrained("ZigZeug/git-wolof-captioning")
# Image d'entrée
image = Image.open("chemin/vers/image.jpg").convert("RGB")
# Inference
inputs = processor(images=image, return_tensors="pt").to("cuda" if torch.cuda.is_available() else "cpu")
generated_ids = model.generate(pixel_values=inputs["pixel_values"], max_length=50)
caption = processor.tokenizer.decode(generated_ids[0], skip_special_tokens=True)
print("📝 Caption en Wolof :", caption)