Spaces:
Running
Running
Update app.py
Browse files
app.py
CHANGED
|
@@ -197,17 +197,13 @@ def Gemma3_AI_analysis(query_txt, content_txt):
|
|
| 197 |
|
| 198 |
try:
|
| 199 |
response = client.chat.completions.create(
|
| 200 |
-
model="meta-llama/Llama-
|
| 201 |
messages=[
|
| 202 |
{
|
| 203 |
"role": "user",
|
| 204 |
"content": prompt,
|
| 205 |
}
|
| 206 |
],
|
| 207 |
-
# 기존 payload의 나머지 설정들을 추가합니다.
|
| 208 |
-
max_tokens=1024,
|
| 209 |
-
temperature=0.7,
|
| 210 |
-
# Together SDK는 기본적으로 요청 실패 시 예외를 발생시킵니다.
|
| 211 |
)
|
| 212 |
|
| 213 |
# 응답에서 결과 텍스트를 추출
|
|
@@ -228,17 +224,13 @@ def Gemma3_AI_Translate(query_txt):
|
|
| 228 |
|
| 229 |
try:
|
| 230 |
response = client.chat.completions.create(
|
| 231 |
-
model="meta-llama/Llama-
|
| 232 |
messages=[
|
| 233 |
{
|
| 234 |
"role": "user",
|
| 235 |
"content": prompt,
|
| 236 |
}
|
| 237 |
],
|
| 238 |
-
# 기존 payload의 나머지 설정들을 추가합니다.
|
| 239 |
-
max_tokens=1024,
|
| 240 |
-
temperature=0.7,
|
| 241 |
-
# Together SDK는 기본적으로 요청 실패 시 예외를 발생시킵니다.
|
| 242 |
)
|
| 243 |
|
| 244 |
# 응답에서 결과 텍스트를 추출
|
|
|
|
| 197 |
|
| 198 |
try:
|
| 199 |
response = client.chat.completions.create(
|
| 200 |
+
model="meta-llama/Llama-4-Maverick-17B-128E-Instruct-FP8",
|
| 201 |
messages=[
|
| 202 |
{
|
| 203 |
"role": "user",
|
| 204 |
"content": prompt,
|
| 205 |
}
|
| 206 |
],
|
|
|
|
|
|
|
|
|
|
|
|
|
| 207 |
)
|
| 208 |
|
| 209 |
# 응답에서 결과 텍스트를 추출
|
|
|
|
| 224 |
|
| 225 |
try:
|
| 226 |
response = client.chat.completions.create(
|
| 227 |
+
model="meta-llama/Llama-4-Maverick-17B-128E-Instruct-FP8",
|
| 228 |
messages=[
|
| 229 |
{
|
| 230 |
"role": "user",
|
| 231 |
"content": prompt,
|
| 232 |
}
|
| 233 |
],
|
|
|
|
|
|
|
|
|
|
|
|
|
| 234 |
)
|
| 235 |
|
| 236 |
# 응답에서 결과 텍스트를 추출
|