File size: 1,229 Bytes
b5feec9
83daad2
 
 
 
 
 
 
 
 
 
 
b5feec9
 
83daad2
b5feec9
83daad2
 
 
b5feec9
83daad2
b5feec9
83daad2
 
 
 
b5feec9
83daad2
b5feec9
83daad2
 
 
b5feec9
83daad2
 
 
 
 
 
b5feec9
83daad2
 
b5feec9
83daad2
 
b5feec9
83daad2
 
 
 
b5feec9
83daad2
b5feec9
83daad2
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
---
language:
- es
- en
license: apache-2.0
tags:
- code
- quantum
- qwen2
- python
- distillation
base_model: Qwen/Qwen2.5-Coder-0.5B
---

# QuantumCoder-0.5B

Modelo de generación de código entrenado mediante **destilación cuántica**,
usando IBM Quantum para optimizar hiperparámetros y Qwen3-Coder-480B
como modelo profesor.

## Proceso

- **Profesor**: Qwen3-Coder-480B (via OpenRouter)
- **Optimización**: IBM Quantum (hiperparámetros óptimos)
- **Base**: Qwen2.5-Coder-0.5B
- **Técnica**: LoRA fine-tuning + Quantum hyperparameter optimization

## Uso

```python
from transformers import AutoModelForCausalLM, AutoTokenizer
import torch

tokenizer = AutoTokenizer.from_pretrained("rod123/QuantumCoder-0.5B")
model = AutoModelForCausalLM.from_pretrained(
    "rod123/QuantumCoder-0.5B",
    torch_dtype=torch.float16,
    device_map="auto"
)

prompt = """### Instrucción:
Escribe una función Python que calcule fibonacci

### Respuesta:
"""

inputs = tokenizer(prompt, return_tensors="pt").to("cuda")
outputs = model.generate(**inputs, max_new_tokens=200)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
```

## Roadmap

- [ ] QuantumCoder-7B
- [ ] QuantumCoder-32B → 6B
- [ ] Benchmarks HumanEval