scipious commited on
Commit
bb73519
·
verified ·
1 Parent(s): e7234f0

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +2 -10
app.py CHANGED
@@ -197,17 +197,13 @@ def Gemma3_AI_analysis(query_txt, content_txt):
197
 
198
  try:
199
  response = client.chat.completions.create(
200
- model="meta-llama/Llama-3.3-70B-Instruct-Turbo",
201
  messages=[
202
  {
203
  "role": "user",
204
  "content": prompt,
205
  }
206
  ],
207
- # 기존 payload의 나머지 설정들을 추가합니다.
208
- max_tokens=1024,
209
- temperature=0.7,
210
- # Together SDK는 기본적으로 요청 실패 시 예외를 발생시킵니다.
211
  )
212
 
213
  # 응답에서 결과 텍스트를 추출
@@ -228,17 +224,13 @@ def Gemma3_AI_Translate(query_txt):
228
 
229
  try:
230
  response = client.chat.completions.create(
231
- model="meta-llama/Llama-3.3-70B-Instruct-Turbo",
232
  messages=[
233
  {
234
  "role": "user",
235
  "content": prompt,
236
  }
237
  ],
238
- # 기존 payload의 나머지 설정들을 추가합니다.
239
- max_tokens=1024,
240
- temperature=0.7,
241
- # Together SDK는 기본적으로 요청 실패 시 예외를 발생시킵니다.
242
  )
243
 
244
  # 응답에서 결과 텍스트를 추출
 
197
 
198
  try:
199
  response = client.chat.completions.create(
200
+ model="meta-llama/Llama-4-Maverick-17B-128E-Instruct-FP8",
201
  messages=[
202
  {
203
  "role": "user",
204
  "content": prompt,
205
  }
206
  ],
 
 
 
 
207
  )
208
 
209
  # 응답에서 결과 텍스트를 추출
 
224
 
225
  try:
226
  response = client.chat.completions.create(
227
+ model="meta-llama/Llama-4-Maverick-17B-128E-Instruct-FP8",
228
  messages=[
229
  {
230
  "role": "user",
231
  "content": prompt,
232
  }
233
  ],
 
 
 
 
234
  )
235
 
236
  # 응답에서 결과 텍스트를 추출