cognitive-core / README.md
amewebstudio's picture
Upload 3 files
b62e54b verified
# COGNITIVE-CORE Framework
> 🧠 Standard universel pour les architectures cognitives d'Ame Web Studio
## 🏗️ Structure
```
cognitive-core/
├── __init__.py # Exports du package
├── cognitive_base.py # Classes de base (Config, Modules, PreTrainedModel)
├── cognitive_checkpoint.py # Chargement/sauvegarde avec remappage auto
├── cognitive_modules.py # 🆕 TOUS les modules cognitifs réutilisables
├── cognitive_training.py # Utilitaires d'entraînement
├── cognitive_utils.py # Utilitaires (device, mémoire, tokens)
└── README.md # Cette documentation
```
## 🚀 Installation
### Option 1: Via Pip (Recommandé)
```bash
# Installation standard
pip install cognitive-core
# Avec support Vision
pip install "cognitive-core[vision]"
# Avec support Audio
pip install "cognitive-core[audio]"
# Avec support Entraînement (WandB/Tensorboard)
pip install "cognitive-core[training]"
# Installation Complète
pip install "cognitive-core[all]"
```
### Option 2: Via Git (Dernière version)
```bash
pip install git+https://github.com/Volgat/nexus-standardisation.git
```
### Option 3: Via HuggingFace
```bash
pip install git+https://huggingface.co/amewebstudio/cognitive-core
```
### Option 4: Mode Développement (Local)
```bash
git clone https://github.com/Volgat/nexus-standardisation.git
cd nexus-standardisation
pip install -e .
```
Si vous n'utilisez pas pip, vous pouvez simplement ajouter le chemin :
```python
import sys
sys.path.append("/path/to/standardisation")
from cognitive_core import *
```
## 📦 Modules Disponibles
### Normalisation
| Module | Description |
|--------|-------------|
| `RMSNorm` | Root Mean Square Normalization (plus efficace que LayerNorm) |
### Encodage Positionnel
| Module | Description |
|--------|-------------|
| `RotaryEmbedding` | RoPE avec scaling pour contextes longs |
| `SinusoidalPositionalEncoding` | Encodage sinusoïdal classique |
### Attention
| Module | Description |
|--------|-------------|
| `GroupedQueryAttention` | GQA avec RoPE et KV-Cache |
| `CrossAttention` | Attention croisée pour fusion multimodale |
### Réseaux Feed-Forward
| Module | Description |
|--------|-------------|
| `SwiGLU` | Activation SwiGLU (meilleure que GELU) |
| `MLP` | MLP standard avec GELU |
### Mixture of Experts
| Module | Description |
|--------|-------------|
| `Expert` | Expert unique avec SwiGLU |
| `SparseMoE` | MoE sparse avec routing Top-K |
### Systèmes de Mémoire
| Module | Description |
|--------|-------------|
| `ContrastiveLPOL` | Mémoire LPOL avec 9 domaines de connaissances |
| `MultiScaleMemory` | Mémoire court/long terme avec consolidation |
| `EpisodicMemory` | Mémoire épisodique pour expériences |
### World Model
| Module | Description |
|--------|-------------|
| `WorldBuffer` | Buffer de monde unique avec prédiction |
| `MultiWorldBuffer` | Buffers multi-domaines (physical, social, abstract, temporal) |
### État Interne
| Module | Description |
|--------|-------------|
| `NonVerbalTension` | Tracker de tension basé sur erreur de prédiction |
| `InternalState` | État cognitif interne complet |
### Rêve & Identité
| Module | Description |
|--------|-------------|
| `DreamPhase` | Phase de rêve pour consolidation mémoire |
| `SelfTrace` | Tracking d'identité à travers le temps |
### Neurogenèse
| Module | Description |
|--------|-------------|
| `NeurogenesisLayer` | Couche avec naissance/mort dynamique de neurones |
### EARCP
| Module | Description |
|--------|-------------|
| `EARCPModule` | Ensemble Auto-Regulated Coherence Protocol |
### VAE (Vision/World Model)
| Module | Description |
|--------|-------------|
| `VAEEncoder` | Encodeur VAE convolutionnel |
| `VAEDecoder` | Décodeur VAE convolutionnel |
### Espace Latent Universel
| Module | Description |
|--------|-------------|
| `UniversalLatentSpace` | ULS pour alignement cross-modal (text, vision, audio) |
## 🎯 Exemples d'Utilisation
### Modèle de Langage Cognitif
```python
from cognitive_core import (
CognitiveConfig, CognitivePreTrainedModel,
GroupedQueryAttention, SparseMoE, ContrastiveLPOL,
MultiScaleMemory, RMSNorm
)
class MyLLMConfig(CognitiveConfig):
model_type = "cognitive_llm"
vocab_size = 50000
class MyCognitiveLayer(nn.Module):
def __init__(self, config):
super().__init__()
self.attn = GroupedQueryAttention(config.d_model, config.n_heads)
self.moe = SparseMoE(config.d_model, config.d_ff, num_experts=8)
self.norm1 = RMSNorm(config.d_model)
self.norm2 = RMSNorm(config.d_model)
def forward(self, x):
x = x + self.attn(self.norm1(x))[0]
moe_out, aux = self.moe(self.norm2(x))
return x + moe_out, aux
```
### World Model Cognitif
```python
from cognitive_core import (
CognitiveConfig, VAEEncoder, VAEDecoder,
MultiWorldBuffer, EpisodicMemory, NeurogenesisLayer
)
class WorldModelConfig(CognitiveConfig):
model_type = "cognitive_world"
world_state_dim = 256
class CognitiveWorldModel(nn.Module):
def __init__(self, config):
super().__init__()
self.encoder = VAEEncoder(in_channels=3, latent_dim=256)
self.decoder = VAEDecoder(latent_dim=256, out_channels=3)
self.world = MultiWorldBuffer(config.d_model, config)
self.memory = EpisodicMemory(config.d_model, config)
self.neurogenesis = NeurogenesisLayer(256, 64, config)
```
### Vision-Language Multimodal
```python
from cognitive_core import (
CognitiveConfig, UniversalLatentSpace, CrossAttention,
ContrastiveLPOL, DreamPhase, SelfTrace
)
class MultimodalConfig(CognitiveConfig):
model_type = "cognitive_multimodal"
class CognitiveMultimodal(nn.Module):
def __init__(self, config):
super().__init__()
self.uls = UniversalLatentSpace(config.d_model, config)
self.cross_attn = CrossAttention(config.d_model)
self.memory = ContrastiveLPOL(config.d_model, config)
self.dream = DreamPhase(config.d_model, config)
self.self_trace = SelfTrace(config.d_model, config)
def forward(self, text_features, vision_features):
# Fusion dans l'espace latent universel
uls_out = self.uls({"text": text_features, "vision": vision_features})
# Attention croisée
fused = self.cross_attn(text_features, vision_features)
# Mémoire
mem_out = self.memory(fused)
return mem_out["output"]
```
## 📊 Garanties du Standard
-**Agnostique** - Fonctionne pour LLM, Vision, Audio, World Model, Multimodal
-**Composable** - Tous les modules sont indépendants et combinables
-**HuggingFace-Compatible** - Hérite de PreTrainedModel
-**Remappage Auto** - Gère les différences de format de checkpoint
-**Portabilité** - Kaggle, Colab, Local sans modification
## 📄 Licence
**PROPRIETARY - ALL RIGHTS RESERVED**
Copyright © 2026 Mike Amega (Logo) - Ame Web Studio