File size: 1,576 Bytes
a975f3e
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
# 1. Importiere alle benötigten Bibliotheken (müssen in requirements.txt stehen!)
import gradio as gr
import numpy as np
import tensorflow as tf # Beispiel für ein ML-Framework

# 2. Definiere die Hauptfunktion des Modells
# Diese Funktion nimmt Eingaben (z.B. Text oder Bild) entgegen und liefert die Ausgabe.
def verarbeite_eingabe(text_input, zahl_input):
    """
    Dies ist die Logik, die dein Modell ausführt.
    """
    if len(text_input) < 5:
        # Hier könnte dein ML-Modell aufgerufen werden
        ergebnis = f"Text ist zu kurz: {text_input}"
    else:
        ergebnis = f"Erfolgreiche Verarbeitung! Ergebnis: {text_input.upper()} (mit Faktor {zahl_input})"
    
    return ergebnis

# 3. Definiere die Benutzeroberfläche (Interface)
# Hier wird festgelegt, wie die Ein- und Ausgaben in der Weboberfläche aussehen sollen.
iface = gr.Interface(
    # Die Funktion, die ausgeführt werden soll:
    fn=verarbeite_eingabe, 
    
    # Die Eingabekomponenten (was der Nutzer eingibt):
    inputs=[
        gr.Textbox(label="Dein Text-Input"), # Eine Textbox
        gr.Slider(minimum=1, maximum=10, step=1, label="Ein Faktor (1-10)") # Ein Schieberegler
    ],
    
    # Die Ausgabekomponenten (was der Nutzer sieht):
    outputs="text", # Eine einfache Textausgabe
    
    # Optional: Titel und Beschreibung für den Space:
    title="Mein MCP Hackathon Artefakt",
    description="Ein Demo-Space zur Verarbeitung von Textdaten."
)

# 4. Starte die Anwendung
# Dies ist der Befehl, den Hugging Face ausführt, um den Server zu starten.
iface.launch()