Spaces:
Sleeping
Sleeping
Update README.md
Browse files
README.md
CHANGED
|
@@ -8,7 +8,7 @@ pinned: false
|
|
| 8 |
license: apache-2.0
|
| 9 |
---
|
| 10 |
|
| 11 |
-
#
|
| 12 |
|
| 13 |
[](https://huggingface.co/spaces)
|
| 14 |
[](https://cygnis-ai.vercel.app)
|
|
@@ -17,13 +17,13 @@ license: apache-2.0
|
|
| 17 |
|
| 18 |
---
|
| 19 |
|
| 20 |
-
##
|
| 21 |
Contrairement aux modèles classiques, Cygnis Nano utilise une architecture à double détente :
|
| 22 |
|
| 23 |
1. **Le Cerveau (Gemma via OpenRouter) :** Pour la compréhension profonde et la connaissance générale.
|
| 24 |
2. **Le Filtre d'Identité (Cygnis Nano) :** Un modèle local entraîné en PyTorch qui ré-interprète la réponse pour y injecter l'identité de CygnisAI, ses outils, et les données spécifiques fournies par Simon Chusseau.
|
| 25 |
|
| 26 |
-
##
|
| 27 |
* **Architecture** : Nano-GPT (Decoder-only Transformer)
|
| 28 |
* **Couches** : 6 couches de blocs Transformer
|
| 29 |
* **Attention** : Multi-head attention (6 têtes)
|
|
@@ -32,7 +32,7 @@ Contrairement aux modèles classiques, Cygnis Nano utilise une architecture à d
|
|
| 32 |
|
| 33 |
|
| 34 |
|
| 35 |
-
##
|
| 36 |
Le modèle est exposé via une API **FastAPI** contenue dans un Docker.
|
| 37 |
|
| 38 |
### Endpoint principal
|
|
|
|
| 8 |
license: apache-2.0
|
| 9 |
---
|
| 10 |
|
| 11 |
+
# Cygnis Nano
|
| 12 |
|
| 13 |
[](https://huggingface.co/spaces)
|
| 14 |
[](https://cygnis-ai.vercel.app)
|
|
|
|
| 17 |
|
| 18 |
---
|
| 19 |
|
| 20 |
+
## Concept unique : L'IA Hybride
|
| 21 |
Contrairement aux modèles classiques, Cygnis Nano utilise une architecture à double détente :
|
| 22 |
|
| 23 |
1. **Le Cerveau (Gemma via OpenRouter) :** Pour la compréhension profonde et la connaissance générale.
|
| 24 |
2. **Le Filtre d'Identité (Cygnis Nano) :** Un modèle local entraîné en PyTorch qui ré-interprète la réponse pour y injecter l'identité de CygnisAI, ses outils, et les données spécifiques fournies par Simon Chusseau.
|
| 25 |
|
| 26 |
+
## Caractéristiques Techniques
|
| 27 |
* **Architecture** : Nano-GPT (Decoder-only Transformer)
|
| 28 |
* **Couches** : 6 couches de blocs Transformer
|
| 29 |
* **Attention** : Multi-head attention (6 têtes)
|
|
|
|
| 32 |
|
| 33 |
|
| 34 |
|
| 35 |
+
## Installation & Utilisation
|
| 36 |
Le modèle est exposé via une API **FastAPI** contenue dans un Docker.
|
| 37 |
|
| 38 |
### Endpoint principal
|