salmapm commited on
Commit
a4b419c
·
verified ·
1 Parent(s): 6073cba

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +28 -20
app.py CHANGED
@@ -1,25 +1,33 @@
1
- import streamlit as st
2
- import requests
3
 
4
- # Fonction pour interagir avec le modèle Hugging Face
 
 
 
 
 
 
 
5
  def generate_text(prompt):
6
- API_URL = "https://api-inference.huggingface.co/models/salmapm/llama2_salma"
7
- payload = {"inputs": prompt}
8
- try:
9
- response = requests.post(API_URL, json=payload)
10
- response.raise_for_status() # Cela déclenchera une exception pour les codes d'état HTTP 4xx/5xx
11
- data = response.json()
12
- return data[0]['generated_text']
13
- except requests.exceptions.HTTPError as http_err:
14
- return f"Erreur HTTP : {http_err}"
15
- except requests.exceptions.RequestException as e:
16
- return f"Erreur de requête : {e}"
17
 
18
- st.title("chatfinance")
19
- prompt = st.text_input("Entrez un texte:")
20
- if st.button("Générer"):
 
 
 
 
 
21
  if prompt:
22
- result = generate_text(prompt)
23
- st.write(result)
24
  else:
25
- st.write("Veuillez entrer un texte pour générer la suite.")
 
 
 
 
1
+ from flask import Flask, request, jsonify, render_template
2
+ from transformers import AutoModelForCausalLM, AutoTokenizer
3
 
4
+ app = Flask(__name__)
5
+
6
+ # Charger le modèle et le tokenizer depuis Hugging Face
7
+ model_name = "salmapm/llama2_salma"
8
+ model = AutoModelForCausalLM.from_pretrained(model_name)
9
+ tokenizer = AutoTokenizer.from_pretrained(model_name)
10
+
11
+ # Définir une fonction de génération de texte
12
  def generate_text(prompt):
13
+ inputs = tokenizer(prompt, return_tensors="pt")
14
+ outputs = model.generate(**inputs, max_length=50, num_return_sequences=1, temperature=0.7)
15
+ generated_text = tokenizer.decode(outputs[0], skip_special_tokens=True)
16
+ return generated_text
 
 
 
 
 
 
 
17
 
18
+ @app.route('/')
19
+ def home():
20
+ return render_template('index.html')
21
+
22
+ @app.route('/generate', methods=['POST'])
23
+ def generate():
24
+ data = request.json
25
+ prompt = data.get('prompt', '')
26
  if prompt:
27
+ generated_text = generate_text(prompt)
28
+ return jsonify({"generated_text": generated_text})
29
  else:
30
+ return jsonify({"error": "Veuillez entrer du texte."}), 400
31
+
32
+ if __name__ == '__main__':
33
+ app.run(debug=True)