Spaces:
Paused
Paused
Update app.py
Browse files
app.py
CHANGED
|
@@ -1,76 +1,73 @@
|
|
| 1 |
-
import gradio as gr
|
| 2 |
-
import google.generativeai as genai
|
| 3 |
import os
|
| 4 |
import time
|
| 5 |
|
| 6 |
-
|
|
|
|
|
|
|
|
|
|
| 7 |
genai.configure(api_key=os.environ["GEMINI_API_KEY"])
|
| 8 |
|
| 9 |
-
# 모델 설정
|
| 10 |
generation_config = {
|
| 11 |
"temperature": 1,
|
| 12 |
-
"top_p": 0.
|
| 13 |
"top_k": 64,
|
| 14 |
-
"max_output_tokens":
|
| 15 |
"response_mime_type": "text/plain",
|
| 16 |
}
|
| 17 |
|
| 18 |
model = genai.GenerativeModel(
|
| 19 |
-
model_name="gemini-1.5-pro
|
| 20 |
generation_config=generation_config,
|
| 21 |
)
|
| 22 |
|
| 23 |
-
#
|
| 24 |
-
|
| 25 |
-
|
| 26 |
-
|
| 27 |
-
|
| 28 |
-
|
| 29 |
-
|
| 30 |
-
|
| 31 |
-
|
| 32 |
-
|
| 33 |
-
|
| 34 |
-
|
| 35 |
-
|
| 36 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
| 37 |
"""
|
| 38 |
|
|
|
|
|
|
|
|
|
|
| 39 |
|
| 40 |
-
|
| 41 |
-
|
| 42 |
-
|
| 43 |
-
"""
|
| 44 |
-
sensor_list = ", ".join(selected_sensors)
|
| 45 |
-
|
| 46 |
-
prompt = [
|
| 47 |
-
SYSTEM_PROMPT,
|
| 48 |
-
f"**선택된 센서:** {sensor_list}",
|
| 49 |
-
]
|
| 50 |
-
|
| 51 |
-
response = model.generate_content(prompt, stream=True)
|
| 52 |
-
collected_text = ""
|
| 53 |
-
for token in response:
|
| 54 |
-
chunk = token.text
|
| 55 |
-
collected_text += chunk
|
| 56 |
-
yield collected_text
|
| 57 |
-
time.sleep(0.03)
|
| 58 |
-
|
| 59 |
|
| 60 |
-
|
| 61 |
-
|
| 62 |
-
|
| 63 |
-
|
| 64 |
-
|
| 65 |
-
|
|
|
|
|
|
|
|
|
|
| 66 |
|
| 67 |
-
# Gradio 인터페이스
|
| 68 |
iface = gr.Interface(
|
| 69 |
-
|
| 70 |
-
|
| 71 |
-
|
| 72 |
-
|
| 73 |
-
|
|
|
|
|
|
|
|
|
|
| 74 |
)
|
| 75 |
|
| 76 |
# 인터페이스 실행
|
|
|
|
|
|
|
|
|
|
| 1 |
import os
|
| 2 |
import time
|
| 3 |
|
| 4 |
+
import google.generativeai as genai
|
| 5 |
+
import gradio as gr
|
| 6 |
+
|
| 7 |
+
# Google Gemini API 설정
|
| 8 |
genai.configure(api_key=os.environ["GEMINI_API_KEY"])
|
| 9 |
|
|
|
|
| 10 |
generation_config = {
|
| 11 |
"temperature": 1,
|
| 12 |
+
"top_p": 0.95,
|
| 13 |
"top_k": 64,
|
| 14 |
+
"max_output_tokens": 8192,
|
| 15 |
"response_mime_type": "text/plain",
|
| 16 |
}
|
| 17 |
|
| 18 |
model = genai.GenerativeModel(
|
| 19 |
+
model_name="gemini-1.5-pro",
|
| 20 |
generation_config=generation_config,
|
| 21 |
)
|
| 22 |
|
| 23 |
+
# 프롬프트 생성 함수
|
| 24 |
+
def generate_prompt(food, atmosphere):
|
| 25 |
+
return f"""주류 전문가, 주류 페어링 전문가가 되어 다음 질문에 답변해줘.
|
| 26 |
+
## 안주 정보와 분위기에 맞는 술을 5가지 이상 추천해줘. 최대 8개까지만 추천하고, 표 형식을 활용해서 보기 좋게 정리해줘.
|
| 27 |
+
### 입력:
|
| 28 |
+
* 안주 정보: {food}
|
| 29 |
+
* 분위기 및 상황: {atmosphere}
|
| 30 |
+
### 출력:
|
| 31 |
+
0. 안주 정보와 분위기 분석
|
| 32 |
+
* 안주의 맛, 향, 식감 등 특징
|
| 33 |
+
* 분위기 분석 (어떤 분위기에 어울리는지)
|
| 34 |
+
1. 추천 주류 목록 (안주 특성, 분위기 및 상황과 주류 특징을 연결지어줘)
|
| 35 |
+
| 주류 카테고리 | 추천 주류 | 페어링 이유 |
|
| 36 |
+
|---|---|---|
|
| 37 |
+
| 예시 | 예시 | 예시 |
|
| 38 |
+
2. 주류 정보 (목록 중 추천하는 주류 1~2개만 골라서 소개)
|
| 39 |
+
* 기본 정보 (종류, 도수, 원산지 등)
|
| 40 |
+
* 간단한 맛이나 향 설명
|
| 41 |
"""
|
| 42 |
|
| 43 |
+
# 술 추천 함수 (실시간 텍스트 출력)
|
| 44 |
+
def recommend_drinks(food, atmosphere):
|
| 45 |
+
prompt = generate_prompt(food, atmosphere)
|
| 46 |
|
| 47 |
+
# 초기 빈 텍스트 설정
|
| 48 |
+
full_text = ""
|
| 49 |
+
yield full_text
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 50 |
|
| 51 |
+
try:
|
| 52 |
+
# 스트림 모드 활성화
|
| 53 |
+
response = model.generate_content([prompt], stream=True)
|
| 54 |
+
for chunk in response.response:
|
| 55 |
+
full_text += chunk.text
|
| 56 |
+
yield full_text
|
| 57 |
+
time.sleep(0.05) # 약간의 지연 추가
|
| 58 |
+
except Exception as e:
|
| 59 |
+
yield f"에러 발생: {str(e)}"
|
| 60 |
|
| 61 |
+
# Gradio 인터페이스 정의
|
| 62 |
iface = gr.Interface(
|
| 63 |
+
fn=recommend_drinks,
|
| 64 |
+
inputs=[
|
| 65 |
+
gr.Textbox(label="안주 정보"),
|
| 66 |
+
gr.Textbox(label="분위기 및 상황"),
|
| 67 |
+
],
|
| 68 |
+
outputs=gr.Textbox(label="추천 결과", lines=20), # 출력 텍스트 박스 크기 조정
|
| 69 |
+
title="AI 술 추천",
|
| 70 |
+
description="안주 정보와 분위기 및 상황을 입력하면 어울리는 술을 추천해줍니다.",
|
| 71 |
)
|
| 72 |
|
| 73 |
# 인터페이스 실행
|