Promotingai's picture
Update app.py
9373cdb verified
raw
history blame
2.97 kB
from openai import OpenAI
import streamlit as st
import os # Import the os module
# Fetch the API key from an environment variable
openai_api_key = os.getenv("OPENAI_API_KEY")
st.title("💬 PromptingAI.io")
st.caption("### Descriptions des Modèles OpenAI - **GPT-4-Turbo**: Version améliorée de GPT-4, optimisée pour des réponses plus rapides et efficaces, adaptée à des applications exigeant une latence réduite. - **GPT-3.5-Turbo**: Une version intermédiaire entre GPT-3 et GPT-4, offrant un compromis entre performance et coût, idéale pour les applications générales de traitement du langage. - **GPT-3.5-Turbo-0125 / GPT-3.5-Turbo-1106 / GPT-3.5-Turbo-0613**: Variantes de GPT-3.5-Turbo, chacune configurée pour des cas d'utilisation spécifiques, optimisant performances et coût énergétique.- **GPT-3.5-Turbo-16k-0613 / GPT-3.5-Turbo-16k**: Éditions étendues de GPT-3.5-Turbo avec une capacité mémoire accrue, convenant aux tâches nécessitant une grande quantité de contexte ou de mémoire.- **GPT-4-Turbo-2024-04-09**: Une mise à jour spécifique de GPT-4-Turbo, introduite le 9 avril 2024, incluant des améliorations basées sur les derniers retours et recherches.- **GPT-4-Turbo-Preview / GPT-4-0125-Preview / GPT-4-1106-Preview / GPT-4-0613-Preview**: Préversions de GPT-4, offrant un aperçu des capacités et des améliorations futures de la technologie avant leur déploiement officiel.")
# Select model using a dropdown
model_choice = st.selectbox('Choose a model:', ['gpt-4-turbo','gpt-3.5-turbo', 'gpt-3.5-turbo-0125','gpt-3.5-turbo-1106','gpt-3.5-turbo-0613','gpt-3.5-turbo-16k-0613','gpt-3.5-turbo-16k','gpt-4-turbo-2024-04-09','gpt-4-turbo-preview', 'gpt-4-0125-preview','gpt-4-1106-preview','gpt-4-0613'])
# Initialize session state for storing messages if it doesn't already exist
if "messages" not in st.session_state:
st.session_state["messages"] = [{"role": "assistant", "content": "How can I help you?"}]
# Display all previous messages
for msg in st.session_state.messages:
st.chat_message(msg["role"]).write(msg["content"])
# Input for new prompts
prompt = st.chat_input("Enter your question:")
if prompt:
if not openai_api_key:
st.error("No OpenAI API key found. Please set the OPENAI_API_KEY environment variable.")
st.stop()
# Append the new user message to session state
st.session_state.messages.append({"role": "user", "content": prompt})
st.chat_message("user").write(prompt)
# Use a spinner to indicate that the model is generating a response
with st.spinner('Thinking...'):
client = OpenAI(api_key=openai_api_key)
response = client.chat.completions.create(model=model_choice, messages=st.session_state.messages)
msg = response.choices[0].message.content
# Append and display the assistant's response
st.session_state.messages.append({"role": "assistant", "content": msg})
st.chat_message("assistant").write(msg)