agent-ai / README.md
Mauricio-100's picture
Update README.md
db9c5d5 verified
---
license: mit
datasets:
- DSULT-Core/ShareGPT-X
language:
- ab
metrics:
- bertscore
base_model:
- zai-org/GLM-4.6
- trl-internal-testing/tiny-GPTNeoXForCausalLM
new_version: trl-internal-testing/tiny-GPTNeoXForCausalLM
pipeline_tag: token-classification
library_name: transformers
tags:
- code
---
![image](https://cdn-uploads.huggingface.co/production/uploads/6900dcfc98a1389fbb75858e/BF-HoP-WVZTX_9bkVqJS5.png)
# Agent-AI/gopu
## le seul ia le plus leger tous en utilisant plus de 71m param
Agent-AI est un modèle de génération de texte basé sur **GPT-NeoX**, conçu pour être léger, modulaire et compatible avec **Xenova** et **Hugging Face Transformers**.
Il peut être utilisé pour créer des assistants conversationnels, des agents intelligents et tout type d’application de génération de texte.
## Installation
Clone le dépôt et installe les dépendances Python :
```bash
git clone https://github.com/Mauricio-100/agent-ai.git
cd agent-ai
pip install -r requirements.txt
```
> ⚠️ Compatible Python 3.10+
## Chargement du modèle
```python
from transformers import pipeline
# Charger le modèle depuis le dossier local ou HF hub
bot = pipeline("text-generation", model="./agent_model")
# Générer du texte
response = bot("Bonjour, comment vas-tu ?", max_length=100)
print(response[0]['generated_text'])
```
## Structure des fichiers
```markdown
agent-ai/
├─ agent_model/ # Modèle pré-entraîné
│ ├─ pytorch_model.bin
│ └─ config.json
├─ agent_tokenizer/ # Tokenizer pour convertir texte ↔ tokens
│ ├─ tokenizer.json
│ └─ vocab.json # avenir ->
└─ README.md # Ce fichier
```
## Paramètres recommandés
* Hidden size : 2048
* Nombre de couches : 24
* Attention heads : 16
* Max sequence length : 2048
## Compatibilité
* Hugging Face Transformers
* Xenova (Web/Node.js)
## Contribuer
1. Fork le dépôt
2. Crée une branche feature : `git checkout -b feature/my-feature`
3. Commit tes modifications : `git commit -am 'Add new feature'`
4. Push vers la branche : `git push origin feature/my-feature`
5. Crée une Pull Request
## ou rejoin notre association openSource
[gopu-oss](https://huggingface.co/Gopu-poss)