Spaces:
Runtime error
Runtime error
Update app.py
Browse files
app.py
CHANGED
|
@@ -1,9 +1,15 @@
|
|
| 1 |
import streamlit as st
|
| 2 |
import json
|
| 3 |
-
from
|
| 4 |
-
from typing import List, Tuple
|
| 5 |
-
from langchain import LLMChain, PromptTemplate
|
| 6 |
from langchain.output_parsers import PydanticOutputParser
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 7 |
|
| 8 |
# Modèles Pydantic pour la détection de fautes de style
|
| 9 |
class StyleErrorDetection(BaseModel):
|
|
@@ -57,8 +63,10 @@ def get_llm_chain():
|
|
| 57 |
output_parser = PydanticOutputParser(pydantic_object=StyleErrorResult)
|
| 58 |
prompt = PromptTemplate(input_variables=["text"], template=prompt_template)
|
| 59 |
# Remplacez `llm` par votre modèle de langage préféré, tel que OpenAI GPT ou autre
|
| 60 |
-
llm = None # Remplacez ceci par votre modèle LLM
|
| 61 |
-
llm_chain = LLMChain(llm=llm, prompt=prompt, output_parser=output_parser)
|
|
|
|
|
|
|
| 62 |
return llm_chain
|
| 63 |
|
| 64 |
# Fonction pour analyser les fautes de style
|
|
|
|
| 1 |
import streamlit as st
|
| 2 |
import json
|
| 3 |
+
from typing import List
|
|
|
|
|
|
|
| 4 |
from langchain.output_parsers import PydanticOutputParser
|
| 5 |
+
from pydantic.v1 import BaseModel, Field, validator
|
| 6 |
+
from langchain.prompts import PromptTemplate
|
| 7 |
+
from typing import List
|
| 8 |
+
from pydantic import BaseModel, Field, validator, ValidationError
|
| 9 |
+
from typing import List, Tuple
|
| 10 |
+
from langchain.prompts import PromptTemplate
|
| 11 |
+
from langchain_openai import OpenAI,ChatOpenAI
|
| 12 |
+
|
| 13 |
|
| 14 |
# Modèles Pydantic pour la détection de fautes de style
|
| 15 |
class StyleErrorDetection(BaseModel):
|
|
|
|
| 63 |
output_parser = PydanticOutputParser(pydantic_object=StyleErrorResult)
|
| 64 |
prompt = PromptTemplate(input_variables=["text"], template=prompt_template)
|
| 65 |
# Remplacez `llm` par votre modèle de langage préféré, tel que OpenAI GPT ou autre
|
| 66 |
+
# llm = None # Remplacez ceci par votre modèle LLM
|
| 67 |
+
# llm_chain = LLMChain(llm=llm, prompt=prompt, output_parser=output_parser)
|
| 68 |
+
llm_chain = ChatOpenAI(model='gpt-4o',temperature=0.5, api_key="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", verbose = True)
|
| 69 |
+
|
| 70 |
return llm_chain
|
| 71 |
|
| 72 |
# Fonction pour analyser les fautes de style
|