import gradio as gr from huggingface_hub import InferenceClient client = InferenceClient("mistralai/Mistral-7B-Instruct-v0.3") def get_relevance(industry: str, article_topic: str) -> str: if not industry.strip(): return "Bitte gib einen Bereich ein." prompt = f"""[INST] Du bist ein hilfreicher Assistent. Erkläre in genau 2-3 kurzen, prägnanten Sätzen auf Deutsch, warum das Thema "{article_topic}" für jemanden aus dem Bereich "{industry}" praktisch relevant ist. Sei konkret und nenne einen konkreten Anwendungsfall. [/INST]""" response = client.text_generation( prompt, max_new_tokens=200, temperature=0.7 ) return response.strip() demo = gr.Interface( fn=get_relevance, inputs=[ gr.Textbox(label="Dein Bereich", placeholder="z.B. Logistik, Maschinenbau, Lehre..."), gr.Textbox(label="Artikel-Thema", value="Large Language Models in der Praxis", visible=False) ], outputs=gr.Textbox(label="Relevanz für dich"), title="", allow_flagging="never", api_name="predict" # Wichtig für API-Zugriff! ) demo.launch()