ElizaOS / Dockerfile
Tsitsi19's picture
Update Dockerfile
6e37c83 verified
FROM python:3.9-slim
# Installation des dépendances minimales
RUN apt-get update && apt-get install -y git && rm -rf /var/lib/apt/lists/*
# Créer un dossier de travail
WORKDIR /app
# Installer une bibliothèque qui permet de faire tourner l'IA sur CPU gratuitement
RUN pip install --no-cache-dir flask transformers torch sentencepiece
# Créer un script d'IA simple (Le cerveau local)
COPY <<EOF /app/app.py
from flask import Flask, request, jsonify
from transformers import pipeline
import os
app = Flask(__name__)
# On utilise un modèle "Tiny" pour être sûr que Hugging Face l'accepte gratuitement
print("Chargement de l'IA locale...")
pipe = pipeline("text-generation", model="TinyLlama/TinyLlama-1.1B-Chat-v1.0")
@app.route('/chat', methods=['POST'])
def chat():
data = request.json
prompt = data.get("prompt", "")
response = pipe(prompt, max_new_tokens=100, do_sample=True, temperature=0.7)
return jsonify({"response": response[0]['generated_text']})
if __name__ == '__main__':
app.run(host='0.0.0.0', port=7860)
EOF
# Exposer le port de Hugging Face
EXPOSE 7860
# Lancer l'IA
CMD ["python", "app.py"]