File size: 2,258 Bytes
71ca5e6
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
2ca22d6
eb4f59a
db9c5d5
 
 
eb4f59a
9f363f5
 
eb4f59a
9f363f5
eb4f59a
9f363f5
eb4f59a
 
9f363f5
 
 
eb4f59a
 
9f363f5
eb4f59a
9f363f5
eb4f59a
 
9f363f5
eb4f59a
9f363f5
 
eb4f59a
9f363f5
 
 
 
eb4f59a
9f363f5
 
 
 
 
 
 
 
 
 
 
 
 
 
 
eb4f59a
9f363f5
eb4f59a
9f363f5
 
 
 
eb4f59a
9f363f5
eb4f59a
9f363f5
 
eb4f59a
9f363f5
 
 
 
 
db9c5d5
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
---
license: mit
datasets:
- DSULT-Core/ShareGPT-X
language:
- ab
metrics:
- bertscore
base_model:
- zai-org/GLM-4.6
- trl-internal-testing/tiny-GPTNeoXForCausalLM
new_version: trl-internal-testing/tiny-GPTNeoXForCausalLM
pipeline_tag: token-classification
library_name: transformers
tags:
- code
---
![image](https://cdn-uploads.huggingface.co/production/uploads/6900dcfc98a1389fbb75858e/BF-HoP-WVZTX_9bkVqJS5.png)

# Agent-AI/gopu

## le seul ia le plus leger tous en utilisant plus de 71m param

Agent-AI est un modèle de génération de texte basé sur **GPT-NeoX**, conçu pour être léger, modulaire et compatible avec **Xenova** et **Hugging Face Transformers**.
Il peut être utilisé pour créer des assistants conversationnels, des agents intelligents et tout type d’application de génération de texte.

## Installation

Clone le dépôt et installe les dépendances Python :

```bash
git clone https://github.com/Mauricio-100/agent-ai.git
cd agent-ai
pip install -r requirements.txt
```

> ⚠️ Compatible Python 3.10+

## Chargement du modèle

```python
from transformers import pipeline

# Charger le modèle depuis le dossier local ou HF hub
bot = pipeline("text-generation", model="./agent_model")

# Générer du texte
response = bot("Bonjour, comment vas-tu ?", max_length=100)
print(response[0]['generated_text'])
```

## Structure des fichiers

```markdown
agent-ai/

├─ agent_model/           # Modèle pré-entraîné
│   ├─ pytorch_model.bin
│   └─ config.json

├─ agent_tokenizer/       # Tokenizer pour convertir texte ↔ tokens
│   ├─ tokenizer.json
│   └─ vocab.json         # avenir ->

└─ README.md              # Ce fichier
```

## Paramètres recommandés

* Hidden size : 2048
* Nombre de couches : 24
* Attention heads : 16
* Max sequence length : 2048

## Compatibilité

* Hugging Face Transformers
* Xenova (Web/Node.js)

## Contribuer
1. Fork le dépôt
2. Crée une branche feature : `git checkout -b feature/my-feature`
3. Commit tes modifications : `git commit -am 'Add new feature'`
4. Push vers la branche : `git push origin feature/my-feature`
5. Crée une Pull Request

## ou rejoin notre association openSource

[gopu-oss](https://huggingface.co/Gopu-poss)