CoCoGames commited on
Commit
223ef86
·
verified ·
1 Parent(s): cbefda0

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +31 -19
app.py CHANGED
@@ -1,40 +1,52 @@
1
  import gradio as gr
2
  from transformers import pipeline
 
3
 
4
- # 1. Lade dein Modell
5
- # Wir nutzen die 'pipeline' Funktion, das ist der einfachste Weg.
6
- # model= Dein Modell-Pfad auf Hugging Face
 
 
 
 
7
  try:
8
- generator = pipeline("text-generation", model="CocoEntertainment/CocoAi-1PT")
 
 
 
 
 
9
  except Exception as e:
10
- # Falls das Modell privat ist oder nicht existiert, fangen wir den Fehler ab
11
  generator = None
12
  print(f"Fehler beim Laden des Modells: {e}")
13
 
14
- # 2. Definiere die Funktion, die aufgerufen wird
15
  def generate_text(prompt):
16
  if generator is None:
17
- return "Fehler: Das Modell konnte nicht geladen werden. Bitte prüfe den Modellnamen."
18
 
19
- # Hier generiert die KI den Text
20
- # max_length: Wie lang der Text maximal sein darf
21
- # do_sample=True: Sorgt für kreativere, weniger repetitive Antworten
22
  try:
23
- results = generator(prompt, max_length=150, do_sample=True, temperature=0.7)
 
 
 
 
 
 
 
24
  return results[0]['generated_text']
25
  except Exception as e:
26
  return f"Ein Fehler ist aufgetreten: {str(e)}"
27
 
28
- # 3. Erstelle die Benutzeroberfläche mit Gradio
29
  interface = gr.Interface(
30
- fn=generate_text, # Die Funktion von oben
31
- inputs=gr.Textbox(lines=2, placeholder="Gib hier deinen Text ein..."), # Eingabefeld
32
- outputs="text", # Ausgabefeld
33
- title="CocoAi-1PT Demo", # Titel der Seite
34
- description="Dies ist eine Demo der KI CocoAi-1PT von CocoEntertainment.", # Beschreibung
35
- theme="default" # Design (optional)
36
  )
37
 
38
- # 4. Starte die App
39
  if __name__ == "__main__":
40
  interface.launch()
 
1
  import gradio as gr
2
  from transformers import pipeline
3
+ import torch
4
 
5
+ # Titel und Beschreibung
6
+ title = "CocoAi-1PT Demo"
7
+ description = "Dies ist eine Demo der KI CocoAi-1PT von CocoEntertainment."
8
+
9
+ # 1. Lade das Modell
10
+ # WICHTIG: Wir nutzen torch_dtype=torch.float16, um den RAM-Verbrauch zu halbieren!
11
+ # Sonst stürzt der Space bei großen Modellen auf der Free-Tier ab.
12
  try:
13
+ generator = pipeline(
14
+ "text-generation",
15
+ model="CocoEntertainment/CocoAi-1PT",
16
+ torch_dtype=torch.float16,
17
+ device_map="auto" # Versucht, CPU/RAM optimal zu nutzen
18
+ )
19
  except Exception as e:
 
20
  generator = None
21
  print(f"Fehler beim Laden des Modells: {e}")
22
 
23
+ # 2. Definiere die Funktion
24
  def generate_text(prompt):
25
  if generator is None:
26
+ return "Fehler: Das Modell konnte nicht geladen werden (evtl. zu groß für Free Tier)."
27
 
 
 
 
28
  try:
29
+ # Generierungsparameter
30
+ results = generator(
31
+ prompt,
32
+ max_new_tokens=100, # Begrenzt die Antwortlänge (spart Zeit)
33
+ do_sample=True,
34
+ temperature=0.7,
35
+ truncation=True
36
+ )
37
  return results[0]['generated_text']
38
  except Exception as e:
39
  return f"Ein Fehler ist aufgetreten: {str(e)}"
40
 
41
+ # 3. Erstelle die UI (OHNE 'theme' Argument, das den Fehler verursacht hat)
42
  interface = gr.Interface(
43
+ fn=generate_text,
44
+ inputs=gr.Textbox(lines=2, placeholder="Gib hier deinen Text ein...", label="Eingabe"),
45
+ outputs=gr.Textbox(label="Antwort"),
46
+ title=title,
47
+ description=description
 
48
  )
49
 
50
+ # 4. Starten
51
  if __name__ == "__main__":
52
  interface.launch()