Spaces:
Sleeping
Sleeping
| import sys | |
| import io | |
| import pandas as pd | |
| from langchain_experimental.agents.agent_toolkits import create_csv_agent | |
| from langchain_anthropic import ChatAnthropic | |
| import gradio as gr | |
| import os | |
| from dotenv import load_dotenv | |
| load_dotenv() | |
| print(os.getenv("ANTHROPIC_API_KEY")) | |
| # Configuration du modèle Anthropic | |
| llm = ChatAnthropic( | |
| model="claude-3-7-sonnet-20250219",#claude-3-5-sonnet-20241022", | |
| temperature=0.1, | |
| api_key=os.getenv("ANTHROPIC_API_KEY") | |
| ) | |
| # Liste des fichiers CSV disponibles | |
| items = [ | |
| "Contacts Prescripteurs-Ensemble des données.csv", | |
| "Lieux-Ensemble des données.csv", | |
| "Thèmes de séjour-Ensemble des données.csv", | |
| "Participants-Ensemble des données.csv", | |
| "Séjours-Séjours 2025 - Réunion équipe.csv" | |
| ] | |
| # Fonction pour interroger les données CSV | |
| def query_data(query, csv_file_path): | |
| # Rediriger la sortie standard vers un buffer | |
| old_stdout = sys.stdout | |
| new_stdout = io.StringIO() | |
| sys.stdout = new_stdout | |
| # Créer l'agent et invoquer la requête | |
| agent = create_csv_agent( | |
| llm, | |
| csv_file_path, | |
| verbose=True, | |
| return_intermediate_steps=True, | |
| max_iterations=8, | |
| allow_dangerous_code=True, | |
| handle_parsing_errors=True, | |
| include_df_in_prompt=False, | |
| # number_of_head_rows=1 | |
| ) | |
| try: | |
| response = agent.invoke(f"df.columns : \n{pd.read_csv(csv_file_path).columns}\n\n"+query) | |
| # Récupérer la sortie de la console | |
| console_output = new_stdout.getvalue() | |
| # Restaurer la sortie standard | |
| sys.stdout = old_stdout | |
| print(response) | |
| # Retourner la réponse et la sortie de la console | |
| return { | |
| "output": response["output"], | |
| "console_output":"" | |
| # "console_output": response['intermediate_steps'] | |
| } | |
| except Exception as e: | |
| console_output = new_stdout.getvalue() | |
| # Restaurer la sortie standard | |
| sys.stdout = old_stdout | |
| # Retourner la réponse et la sortie de la console | |
| return { | |
| "output": f"**Error :** {e}", | |
| "console_output": console_output+"\n" | |
| } | |
| # Fonction de chat | |
| def chat(question, csv_file_path, chat_history): | |
| csv_file_path +=".csv" | |
| # Appeler la fonction query_data | |
| result = query_data(question, csv_file_path) | |
| # Ajouter la question, la réponse finale et la sortie de la console à l'historique du chat | |
| chat_history.append((question, f"{result['console_output']}{result['output']}")) | |
| # Retourner l'historique mis à jour | |
| return chat_history | |
| # Création de l'interface Gradio | |
| with gr.Blocks() as demo: | |
| gr.Markdown("""# Your airtable assistant | |
| Les conversations ne sont pas encore disponibles.""") | |
| with gr.Row(): | |
| chatbot = gr.Chatbot(label="Chat") # Composant Chatbot pour afficher les messages | |
| with gr.Row(): # Une ligne pour organiser les composants côte à côte | |
| with gr.Column(): # Colonne pour la question | |
| question = gr.Textbox(label="Posez votre question") | |
| submit_btn = gr.Button("Envoyer") | |
| with gr.Column(): # Colonne pour le dropdown | |
| dropdown = gr.Dropdown(choices=[elt[:-4] for elt in items], label="Sélectionnez une table") | |
| # Initialiser l'historique du chat | |
| chat_history = gr.State([]) # Utilisé pour stocker l'historique des messages | |
| # Lier les composants à la fonction de chat | |
| submit_btn.click( | |
| chat, # Fonction à appeler | |
| inputs=[question, dropdown, chat_history], # Entrées | |
| outputs=chatbot # Sortie | |
| ) | |
| # Lancer l'interface | |
| demo.launch(inbrowser=True) |