# 1. Importiere alle benötigten Bibliotheken (müssen in requirements.txt stehen!) import gradio as gr import numpy as np import tensorflow as tf # Beispiel für ein ML-Framework # 2. Definiere die Hauptfunktion des Modells # Diese Funktion nimmt Eingaben (z.B. Text oder Bild) entgegen und liefert die Ausgabe. def verarbeite_eingabe(text_input, zahl_input): """ Dies ist die Logik, die dein Modell ausführt. """ if len(text_input) < 5: # Hier könnte dein ML-Modell aufgerufen werden ergebnis = f"Text ist zu kurz: {text_input}" else: ergebnis = f"Erfolgreiche Verarbeitung! Ergebnis: {text_input.upper()} (mit Faktor {zahl_input})" return ergebnis # 3. Definiere die Benutzeroberfläche (Interface) # Hier wird festgelegt, wie die Ein- und Ausgaben in der Weboberfläche aussehen sollen. iface = gr.Interface( # Die Funktion, die ausgeführt werden soll: fn=verarbeite_eingabe, # Die Eingabekomponenten (was der Nutzer eingibt): inputs=[ gr.Textbox(label="Dein Text-Input"), # Eine Textbox gr.Slider(minimum=1, maximum=10, step=1, label="Ein Faktor (1-10)") # Ein Schieberegler ], # Die Ausgabekomponenten (was der Nutzer sieht): outputs="text", # Eine einfache Textausgabe # Optional: Titel und Beschreibung für den Space: title="Mein MCP Hackathon Artefakt", description="Ein Demo-Space zur Verarbeitung von Textdaten." ) # 4. Starte die Anwendung # Dies ist der Befehl, den Hugging Face ausführt, um den Server zu starten. iface.launch()