Tonit23 commited on
Commit
aa6a322
·
1 Parent(s): df74b25

Actualizo descripción completa del modelo SN20

Browse files
Files changed (1) hide show
  1. README.md +60 -7
README.md CHANGED
@@ -5,17 +5,70 @@ language:
5
  - es
6
  - en
7
  tags:
8
- - tool-calling
 
 
 
9
  - lora
10
  - bfcl
 
11
  base_model: microsoft/phi-2
 
 
 
 
 
 
 
 
 
 
 
 
 
12
  ---
13
 
14
- # Antonio Phi-2 BitAgent Merged
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
15
 
16
- Este modelo es una versión **fusionada (merged)** del fine-tune LoRA
17
- [`Tonit23/antonio-phi2-bitagent-lora`](https://huggingface.co/Tonit23/antonio-phi2-bitagent-lora)
18
- con el modelo base [`microsoft/phi-2`](https://huggingface.co/microsoft/phi-2).
19
 
20
- Optimizado para la **Subnet 20 de Bittensor (BitAgent)**
21
- y preparado para tareas de *tool-calling* e interacción en español e inglés.
 
5
  - es
6
  - en
7
  tags:
8
+ - bittensor
9
+ - subnet-20
10
+ - bitagent
11
+ - phi2
12
  - lora
13
  - bfcl
14
+ - tool-calling
15
  base_model: microsoft/phi-2
16
+ library_name: transformers
17
+ model_type: causal-lm
18
+ inference: true
19
+ ---
20
+
21
+ # 🚀 Antonio Phi-2 BitAgent Merged (Subnet-20)
22
+
23
+ **Autor:** [@Tonit23](https://huggingface.co/Tonit23)
24
+ **Base:** `microsoft/phi-2`
25
+ **Fine-tune:** [`antonio-phi2-bitagent-lora`](https://huggingface.co/Tonit23/antonio-phi2-bitagent-lora)
26
+ **Subnet:** 🧠 [Bittensor Subnet-20 — BitAgent](https://rizzo.network/subnet-20/)
27
+ **Publicación:** octubre 2025
28
+
29
  ---
30
 
31
+ ## 🧩 Descripción general
32
+
33
+ `antonio-phi2-bitagent-merged` es una versión **LoRA-fusionada** del modelo `microsoft/phi-2`, adaptada específicamente para el entorno **BitAgent (SN20)** dentro del ecosistema **Bittensor Finney**.
34
+
35
+ Este modelo está optimizado para tareas de **razonamiento en español e inglés**, **inferencia compacta** y **tool-calling semántico** (uso de funciones o herramientas internas), usando un esquema compatible con los validadores SN20.
36
+
37
+ ---
38
+
39
+ ## ⚙️ Detalles técnicos
40
+
41
+ | Propiedad | Valor |
42
+ |-------------------------|-------|
43
+ | Modelo base | `microsoft/phi-2` |
44
+ | Fine-tune | `LoRA` sobre dataset de prompts técnicos BFCL |
45
+ | Parámetros totales | ~7.24 B |
46
+ | Parámetros entrenables | 3.4 M (0.047 %) |
47
+ | Framework | PyTorch + Transformers + PEFT |
48
+ | Licencia | MIT |
49
+ | Hardware objetivo | CPU / GPU (float16) |
50
+
51
+ ### Entrenamiento
52
+ El modelo fue fine-tuneado con **LoRA (Low-Rank Adaptation)** en un conjunto de datos mixto de tareas técnicas:
53
+ - prompts de razonamiento lógico, instrucciones BFCL y tool-calling
54
+ - pares entrada/salida basados en análisis ABAP y Python
55
+ - mezclas en español e inglés
56
+
57
+ ---
58
+
59
+ ## 🧠 Uso
60
+
61
+ ### Inferencia local (Transformers)
62
+
63
+ ```python
64
+ from transformers import AutoModelForCausalLM, AutoTokenizer
65
+ import torch
66
+
67
+ model = AutoModelForCausalLM.from_pretrained("Tonit23/antonio-phi2-bitagent-merged", torch_dtype=torch.float16)
68
+ tokenizer = AutoTokenizer.from_pretrained("Tonit23/antonio-phi2-bitagent-merged")
69
 
70
+ prompt = "Explica el proceso de staking en la red Bittensor Finney:"
71
+ inputs = tokenizer(prompt, return_tensors="pt")
 
72
 
73
+ outputs = model.generate(**inputs, max_new_tokens=200)
74
+ print(tokenizer.decode(outputs[0], skip_special_tokens=True))