mbaye commited on
Commit
e4658d9
·
1 Parent(s): e5b34ca

test gemma

Browse files
Files changed (3) hide show
  1. Dockerfile +2 -1
  2. README.md +15 -5
  3. start.sh +1 -1
Dockerfile CHANGED
@@ -23,7 +23,8 @@ ENV PATH="/opt/venv/bin:$PATH"
23
  RUN pip3 install --no-cache-dir -r requirements.txt
24
 
25
  # Configuration Ollama
26
- ENV model="mistral:7b-instruct-q4_K_M"
 
27
  RUN mkdir -p /.ollama && chmod 777 /.ollama
28
 
29
  # Exposition des ports (FastAPI et Ollama)
 
23
  RUN pip3 install --no-cache-dir -r requirements.txt
24
 
25
  # Configuration Ollama
26
+ #ENV model="mistral:7b-instruct-q4_K_M"
27
+ ENV model="gemma:2b"
28
  RUN mkdir -p /.ollama && chmod 777 /.ollama
29
 
30
  # Exposition des ports (FastAPI et Ollama)
README.md CHANGED
@@ -1,10 +1,20 @@
1
  ---
2
- title: Chat Modele
3
- emoji: 🔥
4
- colorFrom: red
5
- colorTo: gray
6
  sdk: docker
 
7
  pinned: false
8
  ---
9
 
10
- Check out the configuration reference at https://huggingface.co/docs/hub/spaces-config-reference
 
 
 
 
 
 
 
 
 
 
1
  ---
2
+ title: Chat Modele API
3
+ emoji: 🤖
4
+ colorFrom: blue
5
+ colorTo: red
6
  sdk: docker
7
+ app_port: 7860
8
  pinned: false
9
  ---
10
 
11
+ # Chat Modele API
12
+
13
+ API FastAPI pour interagir avec le modèle Mistral via Ollama.
14
+
15
+ ## Endpoints
16
+
17
+ - GET `/` : Message de bienvenue
18
+ - POST `/generate` : Générer du texte
19
+ - GET `/docs` : Documentation Swagger
20
+ - GET `/redoc` : Documentation ReDoc
start.sh CHANGED
@@ -7,7 +7,7 @@ ollama serve &
7
  sleep 5
8
 
9
  # Télécharger le modèle
10
- ollama pull mistral:7b-instruct-q4_K_M
11
 
12
  # Activer l'environnement virtuel et démarrer l'API
13
  source /opt/venv/bin/activate
 
7
  sleep 5
8
 
9
  # Télécharger le modèle
10
+ ollama pull gemma:2b
11
 
12
  # Activer l'environnement virtuel et démarrer l'API
13
  source /opt/venv/bin/activate