--- title: MeetingNotes AI emoji: 📝 colorFrom: blue colorTo: indigo sdk: gradio app_file: app.py pinned: false --- # MeetingNotes AI **But** : Uploader un **audio** (ou coller un **transcript**) et obtenir : - ✅ Un **résumé clair** - 🧱 des **points d'action** (Action items) - 🧩 les **décisions prises** - 🗂️ un fichier **minutes.md** à partager **Tech** - Transcription : `faster-whisper` (implémentation rapide de Whisper, CPU/GPU) - Résumé : `facebook/bart-large-cnn` - Extraction actions/décisions : `google/flan-t5-large` - Interface : **Gradio** ## Installation (local) ```bash python -m venv .venv source .venv/bin/activate # Windows: .venv\Scripts\activate pip install -r requirements.txt # (Optionnel) installez ffmpeg si besoin d'audio : # macOS: brew install ffmpeg # Ubuntu/Debian: sudo apt-get install -y ffmpeg python app.py ``` ## Déploiement Hugging Face Spaces (recommandé) 1. Créez un Space (SDK: **Gradio**, visibilité: Public). 2. Uploadez **tous les fichiers** de ce dossier. 3. Attendez la fin du build (il lit `requirements.txt`). 4. Testez: chargez un `.mp3/.wav` ou collez un transcript. ## Structure ``` MeetingNotes_AI/ ├─ app.py # UI Gradio ├─ nlp_utils.py # Transcription + résumé + extraction actions/décisions ├─ requirements.txt ├─ PROMPTS.md # Prompts et log d'utilisation d'outils ├─ CITATIONS.md # Paquets et modèles utilisés ├─ USER_GUIDE_FR.md # Guide utilisateur détaillé (FR) ├─ DEMO_SCRIPT_FR.md # Script vidéo ≤ 5 min (FR) ├─ data/ │ └─ sample_transcript.txt └─ outputs/ # minutes.md généré ``` ## Licence MIT — 2025