KIBALI Final Merged - Modèle Géophysique Intégré

🤖 Description

KIBALI est un modèle de langage spécialisé en géophysique et sciences de la Terre, créé par fusion de 18 adaptateurs LoRA experts avec le modèle de base Mistral-7B-Instruct-v0.2.

Ce modèle consolidé intègre toutes les connaissances spécialisées en :

  • 🧲 ERT (Tomographie de Résistivité Électrique)
  • 📡 Géoradar (GPR)
  • 🧭 Magnétométrie
  • 🌊 Sismique réfraction
  • 🏗️ Géotechnique
  • 💧 Hydrogéologie
  • 🏛️ Archéologie
  • ⚠️ Risques naturels
  • 📊 Traitement du signal
  • 🔍 Analyse intégrée
  • 🗺️ Interprétation de terrain
  • 💻 Modélisation numérique
  • ⚙️ Calibration d'instruments
  • 📈 Géoscan

🚀 Utilisation

from transformers import AutoModelForCausalLM, AutoTokenizer

# Charger le modèle
model = AutoModelForCausalLM.from_pretrained(
    "BelikanM/kibali-final-merged",
    torch_dtype="auto",
    device_map="auto"
)
tokenizer = AutoTokenizer.from_pretrained("BelikanM/kibali-final-merged")

# Exemple d'utilisation
prompt = "[INST] Explique-moi le principe de la tomographie électrique [/INST]"
inputs = tokenizer(prompt, return_tensors="pt").to(model.device)
outputs = model.generate(**inputs, max_new_tokens=200)
response = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(response)

📋 Caractéristiques Techniques

  • Architecture: Mistral-7B-Instruct-v0.2 fusionné
  • Spécialisation: Géophysique intégrée
  • Langue: Français (réponses naturelles)
  • Taille: ~13GB (modèle complet)
  • Format: Safetensors
  • Quantization: FP16

🎯 Applications

  • Prospection géophysique
  • Études environnementales
  • Archéologie non destructive
  • Évaluation des risques naturels
  • Hydrogéologie
  • Géotechnique
  • Recherche scientifique

📚 Exemples d'utilisation

ERT

[INST] Comment interpréter une tomographie de résistivité électrique ? [/INST]

Géoradar

[INST] Quelles sont les limites du GPR en milieu urbain ? [/INST]

Magnétométrie

[INST] Applications de la magnétométrie en archéologie [/INST]

🔧 Architecture

Le modèle a été créé par fusion séquentielle de 18 LoRA spécialisés :

  1. LoRA de base (connaissances générales)
  2. 17 LoRA experts (domaines spécialisés)

Cette approche préserve toutes les compétences spécialisées tout en permettant un déploiement unifié.

📄 Licence

Apache 2.0 - Compatible avec Mistral-7B-Instruct-v0.2

👥 Contact

Pour questions ou collaborations :

🙏 Remerciements

Modèle développé dans le cadre du projet SETRAF pour l'avancement des sciences géophysiques.

Downloads last month
56
Safetensors
Model size
7B params
Tensor type
F16
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for BelikanM/kibali-final-merged

Finetuned
(1056)
this model

Space using BelikanM/kibali-final-merged 1