AxionLab-official commited on
Commit
ca723d0
·
verified ·
1 Parent(s): d11d4a2

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +6 -21
app.py CHANGED
@@ -2,14 +2,11 @@ import os
2
  import torch
3
  import gradio as gr
4
  from transformers import AutoTokenizer, AutoModelForCausalLM
5
- from peft import PeftModel
6
 
7
  # =========================
8
  # CONFIG
9
  # =========================
10
- BASE_MODEL = "google/gemma-3-270m-it"
11
- LORA_MODEL = "AxionLab-official/DogeAI-v1.0-instruct"
12
-
13
  HF_TOKEN = os.environ.get("HF_TOKEN")
14
 
15
  # =========================
@@ -17,31 +14,21 @@ HF_TOKEN = os.environ.get("HF_TOKEN")
17
  # =========================
18
  print("🔄 Loading tokenizer...")
19
  tokenizer = AutoTokenizer.from_pretrained(
20
- BASE_MODEL,
21
  token=HF_TOKEN,
22
  use_fast=False
23
  )
24
 
25
  # =========================
26
- # LOAD BASE MODEL (CPU SAFE)
27
  # =========================
28
- print("🔄 Loading base model...")
29
  model = AutoModelForCausalLM.from_pretrained(
30
- BASE_MODEL,
31
  token=HF_TOKEN,
32
  torch_dtype=torch.float32,
33
  device_map="auto"
34
  )
35
-
36
- # =========================
37
- # APPLY LORA
38
- # =========================
39
- print("🔄 Applying LoRA...")
40
- model = PeftModel.from_pretrained(
41
- model,
42
- LORA_MODEL,
43
- device_map="auto"
44
- )
45
  model.eval()
46
 
47
  # =========================
@@ -62,7 +49,7 @@ def chat(user_input, system_prompt, temperature, top_p, max_tokens):
62
  inputs = tokenizer(
63
  prompt,
64
  return_tensors="pt"
65
- )
66
 
67
  with torch.no_grad():
68
  output = model.generate(
@@ -81,7 +68,6 @@ def chat(user_input, system_prompt, temperature, top_p, max_tokens):
81
  skip_special_tokens=True
82
  )
83
 
84
- # Remove prompt da resposta
85
  return decoded[len(prompt):].strip()
86
 
87
  # =========================
@@ -92,7 +78,6 @@ with gr.Blocks(theme=gr.themes.Soft()) as demo:
92
  """
93
  # 🐕 DogeAI v1.0
94
  Modelo **experimental**, pequeno e focado em respostas claras.
95
-
96
  ⚠️ Pode errar ou alucinar
97
  ❌ Não use como fonte confiável
98
  ✅ Use para estudo e experimentação
 
2
  import torch
3
  import gradio as gr
4
  from transformers import AutoTokenizer, AutoModelForCausalLM
 
5
 
6
  # =========================
7
  # CONFIG
8
  # =========================
9
+ MODEL_ID = "google/gemma-2-2b-it"
 
 
10
  HF_TOKEN = os.environ.get("HF_TOKEN")
11
 
12
  # =========================
 
14
  # =========================
15
  print("🔄 Loading tokenizer...")
16
  tokenizer = AutoTokenizer.from_pretrained(
17
+ MODEL_ID,
18
  token=HF_TOKEN,
19
  use_fast=False
20
  )
21
 
22
  # =========================
23
+ # LOAD MODEL
24
  # =========================
25
+ print("🔄 Loading model...")
26
  model = AutoModelForCausalLM.from_pretrained(
27
+ MODEL_ID,
28
  token=HF_TOKEN,
29
  torch_dtype=torch.float32,
30
  device_map="auto"
31
  )
 
 
 
 
 
 
 
 
 
 
32
  model.eval()
33
 
34
  # =========================
 
49
  inputs = tokenizer(
50
  prompt,
51
  return_tensors="pt"
52
+ ).to(model.device)
53
 
54
  with torch.no_grad():
55
  output = model.generate(
 
68
  skip_special_tokens=True
69
  )
70
 
 
71
  return decoded[len(prompt):].strip()
72
 
73
  # =========================
 
78
  """
79
  # 🐕 DogeAI v1.0
80
  Modelo **experimental**, pequeno e focado em respostas claras.
 
81
  ⚠️ Pode errar ou alucinar
82
  ❌ Não use como fonte confiável
83
  ✅ Use para estudo e experimentação