File size: 2,258 Bytes
71ca5e6 2ca22d6 eb4f59a db9c5d5 eb4f59a 9f363f5 eb4f59a 9f363f5 eb4f59a 9f363f5 eb4f59a 9f363f5 eb4f59a 9f363f5 eb4f59a 9f363f5 eb4f59a 9f363f5 eb4f59a 9f363f5 eb4f59a 9f363f5 eb4f59a 9f363f5 eb4f59a 9f363f5 eb4f59a 9f363f5 eb4f59a 9f363f5 eb4f59a 9f363f5 eb4f59a 9f363f5 db9c5d5 | 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 | ---
license: mit
datasets:
- DSULT-Core/ShareGPT-X
language:
- ab
metrics:
- bertscore
base_model:
- zai-org/GLM-4.6
- trl-internal-testing/tiny-GPTNeoXForCausalLM
new_version: trl-internal-testing/tiny-GPTNeoXForCausalLM
pipeline_tag: token-classification
library_name: transformers
tags:
- code
---

# Agent-AI/gopu
## le seul ia le plus leger tous en utilisant plus de 71m param
Agent-AI est un modèle de génération de texte basé sur **GPT-NeoX**, conçu pour être léger, modulaire et compatible avec **Xenova** et **Hugging Face Transformers**.
Il peut être utilisé pour créer des assistants conversationnels, des agents intelligents et tout type d’application de génération de texte.
## Installation
Clone le dépôt et installe les dépendances Python :
```bash
git clone https://github.com/Mauricio-100/agent-ai.git
cd agent-ai
pip install -r requirements.txt
```
> ⚠️ Compatible Python 3.10+
## Chargement du modèle
```python
from transformers import pipeline
# Charger le modèle depuis le dossier local ou HF hub
bot = pipeline("text-generation", model="./agent_model")
# Générer du texte
response = bot("Bonjour, comment vas-tu ?", max_length=100)
print(response[0]['generated_text'])
```
## Structure des fichiers
```markdown
agent-ai/
│
├─ agent_model/ # Modèle pré-entraîné
│ ├─ pytorch_model.bin
│ └─ config.json
│
├─ agent_tokenizer/ # Tokenizer pour convertir texte ↔ tokens
│ ├─ tokenizer.json
│ └─ vocab.json # avenir ->
│
└─ README.md # Ce fichier
```
## Paramètres recommandés
* Hidden size : 2048
* Nombre de couches : 24
* Attention heads : 16
* Max sequence length : 2048
## Compatibilité
* Hugging Face Transformers
* Xenova (Web/Node.js)
## Contribuer
1. Fork le dépôt
2. Crée une branche feature : `git checkout -b feature/my-feature`
3. Commit tes modifications : `git commit -am 'Add new feature'`
4. Push vers la branche : `git push origin feature/my-feature`
5. Crée une Pull Request
## ou rejoin notre association openSource
[gopu-oss](https://huggingface.co/Gopu-poss)
|