Commit ·
89f5715
1
Parent(s): 86d6991
Update playground.py
Browse files- tabs/playground.py +11 -7
tabs/playground.py
CHANGED
|
@@ -32,23 +32,25 @@ def display_proba_next_token(prompt,temperature,max_token):
|
|
| 32 |
probabilities = {key: np.exp(value) for key, value in logprobs_dict.items()}
|
| 33 |
|
| 34 |
# Afficher le texte de la réponse
|
| 35 |
-
st.write("Token suivant : ->"+list(probabilities.keys())[0]+"<-") # Afficher le texte de la réponse
|
| 36 |
# st.write("Texte de la réponse : ->"+response['choices'][0]['text'][0]+"<-") # Afficher le texte de la réponse
|
| 37 |
st.write("")
|
| 38 |
|
| 39 |
# Afficher les probabilités pour le prochain token
|
| 40 |
-
|
| 41 |
-
|
|
|
|
| 42 |
|
| 43 |
# Afficher le texte de la réponse complete
|
| 44 |
st.write("")
|
| 45 |
try:
|
| 46 |
text = response['choices'][0]['text']
|
| 47 |
-
st.write("Texte de la réponse complète
|
|
|
|
| 48 |
except KeyError:
|
| 49 |
-
st.error("La réponse ne contient pas de texte supplémentaire.")
|
| 50 |
else:
|
| 51 |
-
st.error("La réponse ne contient pas de texte supplémentaire.")
|
| 52 |
# st.write("Texte de la réponse complete: ->"+str(response['choices'][0]['text'])+"<-") # Afficher le texte de la réponse
|
| 53 |
# st.write("")
|
| 54 |
# st.write(response)
|
|
@@ -64,12 +66,14 @@ def run():
|
|
| 64 |
st.markdown('''
|
| 65 |
---
|
| 66 |
''')
|
|
|
|
| 67 |
st.header("**"+tr("Prédiction du token suivant")+"**")
|
| 68 |
st.markdown(tr(
|
| 69 |
"""
|
| 70 |
-
Cet espace a pour objectif d'observer la génération de token par ChatGPT
|
| 71 |
""")
|
| 72 |
, unsafe_allow_html=True)
|
|
|
|
| 73 |
if 'OPENAI_API_KEY' in st.session_state:
|
| 74 |
try:
|
| 75 |
openai.api_key = st.session_state['OPENAI_API_KEY']
|
|
|
|
| 32 |
probabilities = {key: np.exp(value) for key, value in logprobs_dict.items()}
|
| 33 |
|
| 34 |
# Afficher le texte de la réponse
|
| 35 |
+
st.write("**Token suivant :** ->**:red["+list(probabilities.keys())[0]+"]**<-") # Afficher le texte de la réponse
|
| 36 |
# st.write("Texte de la réponse : ->"+response['choices'][0]['text'][0]+"<-") # Afficher le texte de la réponse
|
| 37 |
st.write("")
|
| 38 |
|
| 39 |
# Afficher les probabilités pour le prochain token
|
| 40 |
+
st.write("**"+tr("Probabilité d'apparition des token:")+"**")
|
| 41 |
+
for i,(token, proba) in enumerate(probabilities.items()):
|
| 42 |
+
st.write(f" {i+1} - Token: ->**:red[{token}]**<- ; proba: {proba:.0%}")
|
| 43 |
|
| 44 |
# Afficher le texte de la réponse complete
|
| 45 |
st.write("")
|
| 46 |
try:
|
| 47 |
text = response['choices'][0]['text']
|
| 48 |
+
st.write("**"+tr("Texte de la réponse complète")+":**")
|
| 49 |
+
st.write("->**:red[" + str(text) + "]**<-")
|
| 50 |
except KeyError:
|
| 51 |
+
st.error(tr("La réponse ne contient pas de texte supplémentaire."))
|
| 52 |
else:
|
| 53 |
+
st.error(tr("La réponse ne contient pas de texte supplémentaire."))
|
| 54 |
# st.write("Texte de la réponse complete: ->"+str(response['choices'][0]['text'])+"<-") # Afficher le texte de la réponse
|
| 55 |
# st.write("")
|
| 56 |
# st.write(response)
|
|
|
|
| 66 |
st.markdown('''
|
| 67 |
---
|
| 68 |
''')
|
| 69 |
+
|
| 70 |
st.header("**"+tr("Prédiction du token suivant")+"**")
|
| 71 |
st.markdown(tr(
|
| 72 |
"""
|
| 73 |
+
Cet espace a pour objectif d'observer la génération de token par ChatGPT
|
| 74 |
""")
|
| 75 |
, unsafe_allow_html=True)
|
| 76 |
+
st.write("")
|
| 77 |
if 'OPENAI_API_KEY' in st.session_state:
|
| 78 |
try:
|
| 79 |
openai.api_key = st.session_state['OPENAI_API_KEY']
|