AI / README.md
liloumln's picture
Update README.md
91fbd5d verified
---
title: MeetingNotes AI
emoji: 📝
colorFrom: blue
colorTo: indigo
sdk: gradio
app_file: app.py
pinned: false
---
# MeetingNotes AI
**But** : Uploader un **audio** (ou coller un **transcript**) et obtenir :
- ✅ Un **résumé clair**
- 🧱 des **points d'action** (Action items)
- 🧩 les **décisions prises**
- 🗂️ un fichier **minutes.md** à partager
**Tech**
- Transcription : `faster-whisper` (implémentation rapide de Whisper, CPU/GPU)
- Résumé : `facebook/bart-large-cnn`
- Extraction actions/décisions : `google/flan-t5-large`
- Interface : **Gradio**
## Installation (local)
```bash
python -m venv .venv
source .venv/bin/activate # Windows: .venv\Scripts\activate
pip install -r requirements.txt
# (Optionnel) installez ffmpeg si besoin d'audio :
# macOS: brew install ffmpeg
# Ubuntu/Debian: sudo apt-get install -y ffmpeg
python app.py
```
## Déploiement Hugging Face Spaces (recommandé)
1. Créez un Space (SDK: **Gradio**, visibilité: Public).
2. Uploadez **tous les fichiers** de ce dossier.
3. Attendez la fin du build (il lit `requirements.txt`).
4. Testez: chargez un `.mp3/.wav` ou collez un transcript.
## Structure
```
MeetingNotes_AI/
├─ app.py # UI Gradio
├─ nlp_utils.py # Transcription + résumé + extraction actions/décisions
├─ requirements.txt
├─ PROMPTS.md # Prompts et log d'utilisation d'outils
├─ CITATIONS.md # Paquets et modèles utilisés
├─ USER_GUIDE_FR.md # Guide utilisateur détaillé (FR)
├─ DEMO_SCRIPT_FR.md # Script vidéo ≤ 5 min (FR)
├─ data/
│ └─ sample_transcript.txt
└─ outputs/ # minutes.md généré
```
## Licence
MIT — 2025