How to use from
SGLang
Install from pip and serve model
# Install SGLang from pip:
pip install sglang
# Start the SGLang server:
python3 -m sglang.launch_server \
    --model-path "Finisha-F-scratch/Lamina-basic" \
    --host 0.0.0.0 \
    --port 30000
# Call the server using curl (OpenAI-compatible API):
curl -X POST "http://localhost:30000/v1/completions" \
	-H "Content-Type: application/json" \
	--data '{
		"model": "Finisha-F-scratch/Lamina-basic",
		"prompt": "Once upon a time,",
		"max_tokens": 512,
		"temperature": 0.5
	}'
Use Docker images
docker run --gpus all \
    --shm-size 32g \
    -p 30000:30000 \
    -v ~/.cache/huggingface:/root/.cache/huggingface \
    --env "HF_TOKEN=<secret>" \
    --ipc=host \
    lmsysorg/sglang:latest \
    python3 -m sglang.launch_server \
        --model-path "Finisha-F-scratch/Lamina-basic" \
        --host 0.0.0.0 \
        --port 30000
# Call the server using curl (OpenAI-compatible API):
curl -X POST "http://localhost:30000/v1/completions" \
	-H "Content-Type: application/json" \
	--data '{
		"model": "Finisha-F-scratch/Lamina-basic",
		"prompt": "Once upon a time,",
		"max_tokens": 512,
		"temperature": 0.5
	}'
Quick Links

মডেল Carte de Modèle : Lamina-basic

Lamina-basic

Bienvenue sur la page de Lamina-basic ! ✨ Ce modèle est un projet expérimental et éducatif créé dans le but d'apprendre les fondamentaux de la création et de l'entraînement d'un modèle de langage (LLM) en partant de zéro.

Il a été conçu, entraîné et publié par Clemylia.


<hr>

## 📝 Description du Modèle

Lamina-basic est un petit modèle de langage de type GPT-2, avec une architecture simple de 3 millions de paramètres. Son unique but est d'être la base de fondation du modèle de language Lamina.

  • 🤖 Type de modèle : Modèle de langage causal (Causal Language Model)
  • 🌐 Langue : Français
  • 📚 Données d'entraînement : Un dataset personnalisé contenant des règles de grammaire de base et quelques paragraphes de connaissances générales (biologie des insectes, faits de base).
  • 💻 Entraînement : Entraîné depuis zéro ("from scratch") sur Google Colab.

<hr>

## 🚀 Comment l'utiliser

Pour tester Lamina-basic, vous pouvez utiliser le pipeline de la bibliothèque transformers.

# 1. Installez les bibliothèques nécessaires
!pip install transformers torch

from transformers import AutoTokenizer, pipeline

# 2. Définissez le nom du modèle sur le Hub
repo_id = "NaaClem/Lamina-basic"

# 3. Créez le pipeline de génération de texte
generator = pipeline('text-generation', model=repo_id, tokenizer=repo_id)

# 4. Donnez un début de phrase au modèle
prompt = "La biologie des insectes est"

# 5. Générez la suite !
result = generator(
    prompt,
    max_new_tokens=30, # Génère au maximum 30 nouveaux mots
    truncation=True
)

print(result[0]['generated_text'])

<hr>

### ✅ Usages Prévus

  • Démonstration Pédagogique : Montrer le résultat d'un cycle complet de création d'un LLM.
  • Apprentissage : Servir de base pour comprendre comment fonctionnent les modèles de langage.
  • Expérimentation : Être un point de départ pour une V2 avec plus de données et une plus grande architecture.

<hr>

## Un mot de la créatrice

"Lamina-basic est mon premier pas dans la création d'IA de A à Z. Ce projet représente une aventure d'apprentissage incroyable, des premières lignes de code à la résolution de bugs complexes. Même s'il est simple, j'espère qu'il pourra inspirer d'autres personnes à se lancer et à construire leurs propres modèles."

— Clemylia


Créé avec passion par Clemylia. ❤️ Lamina-basic peut être considérée comme un Ultra-SLM ou un SLM casual.

Badge d'ancien : Ce SLM a été mon tout premier a mes debuts.

Downloads last month
10
Safetensors
Model size
3.8M params
Tensor type
F32
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for Finisha-F-scratch/Lamina-basic

Finetunes
2 models

Collections including Finisha-F-scratch/Lamina-basic