Spaces:
Running
Running
Upload 2 files
Browse files- get_markdown.py +1 -1
- gpt_analyze.py +2 -2
get_markdown.py
CHANGED
|
@@ -28,7 +28,7 @@ def get_markdown(text, api_key=None):
|
|
| 28 |
|
| 29 |
# 我们定义一个模板字符串,用于提示 GPT-3.5 总结原始文本并生成汉语总结。
|
| 30 |
template_str = """我希望你是一名专业的视频内容编辑,。
|
| 31 |
-
请根据内容生成兼容脑图的Markdown格式,包含一级内容,不要超过
|
| 32 |
(字幕中可能有错别字,如果你发现了错别字请改正),
|
| 33 |
记得不要重复句子,确保所有的句子都足够精简,清晰完整,祝你好运!
|
| 34 |
下面是内容:
|
|
|
|
| 28 |
|
| 29 |
# 我们定义一个模板字符串,用于提示 GPT-3.5 总结原始文本并生成汉语总结。
|
| 30 |
template_str = """我希望你是一名专业的视频内容编辑,。
|
| 31 |
+
请根据内容生成兼容脑图的Markdown格式,包含一级内容,不要超过6条
|
| 32 |
(字幕中可能有错别字,如果你发现了错别字请改正),
|
| 33 |
记得不要重复句子,确保所有的句子都足够精简,清晰完整,祝你好运!
|
| 34 |
下面是内容:
|
gpt_analyze.py
CHANGED
|
@@ -29,7 +29,7 @@ def summary_text(text, api_key=None):
|
|
| 29 |
try:
|
| 30 |
|
| 31 |
# 初始化文本分割器,指定每个块的大小为2000。
|
| 32 |
-
text_splitter = RecursiveCharacterTextSplitter(chunk_size=
|
| 33 |
# 切分文本
|
| 34 |
texts = text_splitter.split_text(text)
|
| 35 |
# 使用 Document 类创建文档对象
|
|
@@ -57,7 +57,7 @@ def summary_text(text, api_key=None):
|
|
| 57 |
openai_api_key = api_key
|
| 58 |
else:
|
| 59 |
openai_api_key = os.getenv('OPENAI_API_KEY')
|
| 60 |
-
llm = OpenAI(temperature=0, model_name="gpt-3.5-turbo", openai_api_key=openai_api_key)
|
| 61 |
|
| 62 |
# 加载总结和完善模型链,并向其提供刚才定义的两个模板字符串作为问题和细化问题的提示。
|
| 63 |
chain = load_summarize_chain(llm, chain_type="refine", return_intermediate_steps=True,
|
|
|
|
| 29 |
try:
|
| 30 |
|
| 31 |
# 初始化文本分割器,指定每个块的大小为2000。
|
| 32 |
+
text_splitter = RecursiveCharacterTextSplitter(chunk_size=8000, chunk_overlap=0)
|
| 33 |
# 切分文本
|
| 34 |
texts = text_splitter.split_text(text)
|
| 35 |
# 使用 Document 类创建文档对象
|
|
|
|
| 57 |
openai_api_key = api_key
|
| 58 |
else:
|
| 59 |
openai_api_key = os.getenv('OPENAI_API_KEY')
|
| 60 |
+
llm = OpenAI(temperature=0, model_name="gpt-3.5-turbo-16k", openai_api_key=openai_api_key)
|
| 61 |
|
| 62 |
# 加载总结和完善模型链,并向其提供刚才定义的两个模板字符串作为问题和细化问题的提示。
|
| 63 |
chain = load_summarize_chain(llm, chain_type="refine", return_intermediate_steps=True,
|