Instructions to use ia-espirita/riv-ai with libraries, inference providers, notebooks, and local apps. Follow these links to get started.
- Libraries
- llama-cpp-python
How to use ia-espirita/riv-ai with llama-cpp-python:
# !pip install llama-cpp-python from llama_cpp import Llama llm = Llama.from_pretrained( repo_id="ia-espirita/riv-ai", filename="meta-llama-3.1-8b-instruct.Q4_K_M.gguf", )
llm.create_chat_completion( messages = [ { "role": "user", "content": "What is the capital of France?" } ] ) - Notebooks
- Google Colab
- Kaggle
- Local Apps
- llama.cpp
How to use ia-espirita/riv-ai with llama.cpp:
Install from brew
brew install llama.cpp # Start a local OpenAI-compatible server with a web UI: llama-server -hf ia-espirita/riv-ai:Q4_K_M # Run inference directly in the terminal: llama-cli -hf ia-espirita/riv-ai:Q4_K_M
Install from WinGet (Windows)
winget install llama.cpp # Start a local OpenAI-compatible server with a web UI: llama-server -hf ia-espirita/riv-ai:Q4_K_M # Run inference directly in the terminal: llama-cli -hf ia-espirita/riv-ai:Q4_K_M
Use pre-built binary
# Download pre-built binary from: # https://github.com/ggerganov/llama.cpp/releases # Start a local OpenAI-compatible server with a web UI: ./llama-server -hf ia-espirita/riv-ai:Q4_K_M # Run inference directly in the terminal: ./llama-cli -hf ia-espirita/riv-ai:Q4_K_M
Build from source code
git clone https://github.com/ggerganov/llama.cpp.git cd llama.cpp cmake -B build cmake --build build -j --target llama-server llama-cli # Start a local OpenAI-compatible server with a web UI: ./build/bin/llama-server -hf ia-espirita/riv-ai:Q4_K_M # Run inference directly in the terminal: ./build/bin/llama-cli -hf ia-espirita/riv-ai:Q4_K_M
Use Docker
docker model run hf.co/ia-espirita/riv-ai:Q4_K_M
- LM Studio
- Jan
- vLLM
How to use ia-espirita/riv-ai with vLLM:
Install from pip and serve model
# Install vLLM from pip: pip install vllm # Start the vLLM server: vllm serve "ia-espirita/riv-ai" # Call the server using curl (OpenAI-compatible API): curl -X POST "http://localhost:8000/v1/chat/completions" \ -H "Content-Type: application/json" \ --data '{ "model": "ia-espirita/riv-ai", "messages": [ { "role": "user", "content": "What is the capital of France?" } ] }'Use Docker
docker model run hf.co/ia-espirita/riv-ai:Q4_K_M
- Ollama
How to use ia-espirita/riv-ai with Ollama:
ollama run hf.co/ia-espirita/riv-ai:Q4_K_M
- Unsloth Studio new
How to use ia-espirita/riv-ai with Unsloth Studio:
Install Unsloth Studio (macOS, Linux, WSL)
curl -fsSL https://unsloth.ai/install.sh | sh # Run unsloth studio unsloth studio -H 0.0.0.0 -p 8888 # Then open http://localhost:8888 in your browser # Search for ia-espirita/riv-ai to start chatting
Install Unsloth Studio (Windows)
irm https://unsloth.ai/install.ps1 | iex # Run unsloth studio unsloth studio -H 0.0.0.0 -p 8888 # Then open http://localhost:8888 in your browser # Search for ia-espirita/riv-ai to start chatting
Using HuggingFace Spaces for Unsloth
# No setup required # Open https://huggingface.co/spaces/unsloth/studio in your browser # Search for ia-espirita/riv-ai to start chatting
- Pi new
How to use ia-espirita/riv-ai with Pi:
Start the llama.cpp server
# Install llama.cpp: brew install llama.cpp # Start a local OpenAI-compatible server: llama-server -hf ia-espirita/riv-ai:Q4_K_M
Configure the model in Pi
# Install Pi: npm install -g @mariozechner/pi-coding-agent # Add to ~/.pi/agent/models.json: { "providers": { "llama-cpp": { "baseUrl": "http://localhost:8080/v1", "api": "openai-completions", "apiKey": "none", "models": [ { "id": "ia-espirita/riv-ai:Q4_K_M" } ] } } }Run Pi
# Start Pi in your project directory: pi
- Hermes Agent new
How to use ia-espirita/riv-ai with Hermes Agent:
Start the llama.cpp server
# Install llama.cpp: brew install llama.cpp # Start a local OpenAI-compatible server: llama-server -hf ia-espirita/riv-ai:Q4_K_M
Configure Hermes
# Install Hermes: curl -fsSL https://hermes-agent.nousresearch.com/install.sh | bash hermes setup # Point Hermes at the local server: hermes config set model.provider custom hermes config set model.base_url http://127.0.0.1:8080/v1 hermes config set model.default ia-espirita/riv-ai:Q4_K_M
Run Hermes
hermes
- Docker Model Runner
How to use ia-espirita/riv-ai with Docker Model Runner:
docker model run hf.co/ia-espirita/riv-ai:Q4_K_M
- Lemonade
How to use ia-espirita/riv-ai with Lemonade:
Pull the model
# Download Lemonade from https://lemonade-server.ai/ lemonade pull ia-espirita/riv-ai:Q4_K_M
Run and chat with the model
lemonade run user.riv-ai-Q4_K_M
List all available models
lemonade list
llm.create_chat_completion(
messages = [
{
"role": "user",
"content": "What is the capital of France?"
}
]
)🔮 RIV AI — Modelo de IA Espírita Open Source
RIV AI (homenagem a Hippolyte Léon Denizard Rivail — Allan Kardec) é um modelo de linguagem open-source treinado na Doutrina Espírita, conforme codificada por Allan Kardec.
O modelo foi fine-tunado via QLoRA sobre o Llama 3 8B Instruct com um dataset de pares de pergunta/resposta extraídos das 5 obras da Codificação Espírita. O objetivo é oferecer um assistente que responda sobre a Doutrina com fidelidade doutrinária e citação de fontes, servindo como ferramenta de estudo e divulgação.
"O Espiritismo é uma ciência que trata da natureza, origem e destino dos Espíritos, bem como de suas relações com o mundo corporal." — Allan Kardec, O Livro dos Espíritos, Introdução.
📦 Arquivos disponíveis
| Arquivo | Formato | Tamanho | Uso |
|---|---|---|---|
meta-llama-3.1-8b-instruct.Q4_K_M.gguf |
GGUF 4-bit | ~4.9 GB | Ollama, LM Studio, llama.cpp |
adapter_model.safetensors |
Safetensors | — | Transformers + PEFT (Python) |
🎯 Para que serve?
Este modelo foi criado para responder perguntas sobre a Doutrina Espírita com:
- Precisão doutrinária — fundamentado exclusivamente nas obras de Allan Kardec
- Citação de fontes — toda resposta referencia livro, questão e/ou capítulo
- Tom acolhedor e didático — como um amigo estudioso explicando Kardec
- Analogias modernas — traduz conceitos espíritas para linguagem contemporânea quando apropriado
- Português brasileiro — treinado nativamente em PT-BR
Exemplos de perguntas que o modelo responde:
| Pergunta | Fonte da resposta |
|---|---|
| O que é Deus? | O Livro dos Espíritos, questão 1 |
| Eu escolhi minha família antes de nascer? | O Livro dos Espíritos, questões 392-399 |
| Animais têm alma? | O Livro dos Espíritos, questões 597-602 |
| O que acontece quando morremos? | O Livro dos Espíritos, questões 149-165 |
| O que é mediunidade? | O Livro dos Médiuns, cap. 14, itens 159-160 |
| O que é o perispírito? | O Livro dos Espíritos, questões 93-95 |
| Inteligência Artificial tem espírito? | O Livro dos Espíritos, questões 23, 71-75 |
| Existe céu e inferno? | O Céu e o Inferno, Parte Primeira |
| Como fazer o Evangelho no Lar? | O Evangelho Segundo o Espiritismo, cap. 28 |
| Ciência e Espiritismo se contradizem? | A Gênese, cap. 1 |
💻 Como usar
Com Ollama
ollama run iaespirita/riv-ai
Modelo disponível em: ollama.com/iaespirita/riv-ai
Com LM Studio
- Baixe o arquivo
meta-llama-3.1-8b-instruct.Q4_K_M.gguf - Abra o LM Studio e importe o arquivo
- Configure o system prompt: "Você é RIV AI, um assistente espírita fundamentado nas obras de Allan Kardec."
- Comece a conversar
Com llama.cpp
llama-cli -hf ia-espirita/riv-ai --jinja
Com Transformers (Python)
from transformers import AutoTokenizer, AutoModelForCausalLM
model_name = "ia-espirita/riv-ai"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)
messages = [
{"role": "system", "content": "Você é RIV AI, um assistente espírita fundamentado nas obras de Allan Kardec."},
{"role": "user", "content": "O que acontece quando morremos?"}
]
input_ids = tokenizer.apply_chat_template(messages, return_tensors="pt")
output = model.generate(input_ids, max_new_tokens=512, temperature=0.7)
print(tokenizer.decode(output[0], skip_special_tokens=True))
Com vLLM (API)
python -m vllm.entrypoints.openai.api_server \
--model ia-espirita/riv-ai \
--port 8000
📚 Fontes do treinamento
O dataset foi construído exclusivamente a partir da Codificação Espírita — as 5 obras fundamentais organizadas por Allan Kardec:
| Obra | Ano | Estrutura | Tema central |
|---|---|---|---|
| O Livro dos Espíritos | 1857 | 1.019 questões em 4 partes | Deus, espíritos, leis morais, vida futura |
| O Livro dos Médiuns | 1861 | 32 capítulos, 370 itens | Mediunidade, manifestações e comunicação espírita |
| O Evangelho Segundo o Espiritismo | 1864 | 28 capítulos | Moral de Jesus à luz do Espiritismo |
| O Céu e o Inferno | 1865 | 2 partes (doutrina + relatos) | Justiça divina, penas e recompensas futuras |
| A Gênese | 1868 | 18 capítulos | Ciência e Espiritismo: criação, milagres, profecias |
Todas as obras são de domínio público (publicadas entre 1857-1868).
🔧 Detalhes técnicos
| Parâmetro | Valor |
|---|---|
| Modelo base | meta-llama/Meta-Llama-3.1-8B-Instruct |
| Método de fine-tuning | QLoRA (4-bit quantization) |
| Framework | Unsloth (2x faster) |
| Dataset | ~1.200 pares Q&A no formato ShareGPT |
| Fontes | 5 obras da Codificação Espírita (Allan Kardec) |
| Idioma | Português Brasileiro |
| Épocas | 3 |
| Learning rate | 2e-4 |
| LoRA rank | 16 |
| LoRA alpha | 32 |
| Max seq length | 2048 |
| Training loss | 0.64 (final step) |
| GGUF quantization | Q4_K_M (~4.9 GB) |
📊 Dataset
O dataset está publicado em ia-espirita/riv-ai-dataset.
Distribuição por obra
| Fonte | Pares |
|---|---|
| O Livro dos Espíritos | ~500 |
| O Livro dos Médiuns | ~250 |
| O Evangelho Segundo o Espiritismo | ~200 |
| O Céu e o Inferno | ~100 |
| A Gênese | ~100 |
| Temas gerais / modernos / existenciais | ~150 |
Formato
{
"conversations": [
{"from": "human", "value": "Animais têm alma segundo a Doutrina Espírita?"},
{"from": "gpt", "value": "Sim, os animais possuem um princípio inteligente que sobrevive à morte do corpo físico. Esse princípio evolui progressivamente através dos reinos da natureza...\n\n📖 Fonte: O Livro dos Espíritos, questões 597-602."}
]
}
🔮 Por que "RIV"?
RIV é uma homenagem a Rivail — o verdadeiro nome de Allan Kardec.
Hippolyte Léon Denizard Rivail (1804-1869) foi o pedagogo francês que codificou a Doutrina Espírita. Ele adotou o pseudônimo "Allan Kardec" para separar seu trabalho acadêmico da obra espírita. O nome RIV AI conecta a tradição kardecista com a era da inteligência artificial — o passado e o futuro do conhecimento espírita.
⚠️ Limitações e uso responsável
- Este modelo é uma ferramenta de estudo, não substitui a leitura das obras originais de Allan Kardec
- Não é um médium e não recebe mensagens de espíritos
- Não faz previsões do futuro nem prescreve tratamentos médicos
- Para questões de mediunidade prática, sempre procure um centro espírita presencialmente
- O modelo pode ocasionalmente gerar informações imprecisas — sempre verifique nas fontes originais
- Para temas sensíveis como suicídio, o modelo inclui orientação para o CVV (188)
- O dataset deste modelo cobre exclusivamente a Codificação de Allan Kardec. Para conteúdo da série André Luiz (psicografia de Chico Xavier), use o modelo companheiro
ia-espirita/andre-luiz-ai. Obras de Emmanuel, Divaldo Franco e outros autores mediúnicos poderão ser incluídas em versões futuras
🗺️ Roadmap
- v1.0 — Codificação Espírita (5 obras de Allan Kardec)
- v2.0 — Codificação Espírita (5 obras de Allan Kardec + Revistas Espíritas + O que é o espiritismo)
- v3.0 — Obras de Emmanuel, Divaldo Franco, ESDE
- v4.0 — Versão em Espanhol (es)
- v5.0 — Versão em Inglês (en)
🌐 Projeto IA.Espirita
O RIV AI é a versão open-source aberta do projeto IA.Espirita — Doutrina Espírita na Era da Inteligência Artificial. O RIV IA (iaespirita.com/riv) usa uma arquitetura mais robusta (modelo base maior com reasoning + RAG estrito sobre o mesmo corpus), enquanto este modelo é publicado como artefato de pesquisa, replicação e deploy offline.
| Plataforma | Link |
|---|---|
| 🌐 Site | iaespirita.com |
| 🤖 RIV IA | Converse agora |
| ▶️ YouTube | @ia.espirita |
| 🎵 TikTok | @ia.espirita |
| 🎧 Spotify | IA Espirita |
| 🐦 X/Twitter | @IAEspiritaBR |
| contato@iaespirita.com.br |
📜 Licença
O modelo é distribuído sob licença Apache 2.0.
As obras de Allan Kardec são de domínio público (publicadas entre 1857-1868).
🙏 Citação
@misc{iaespirita2026rivai,
title={RIV AI: Modelo de IA Espírita Open Source},
author={IA.Espirita},
year={2026},
url={https://huggingface.co/ia-espirita/riv-ai},
note={Fine-tuned on Llama 3 8B Instruct with QLoRA using Allan Kardec's complete codification}
}
🤝 Contribuições
Contribuições são bem-vindas! Se você é estudioso da Doutrina Espírita e/ou desenvolvedor:
- 📝 Revise e expanda o dataset com novas perguntas e respostas
- 🧪 Teste o modelo e reporte erros doutrinários
- 🌍 Ajude a traduzir o dataset para espanhol e inglês
- 📚 Contribua com dados de obras mediúnicas para as próximas versões
Abra uma issue ou pull request neste repositório.
"Nascer, morrer, renascer ainda e progredir sem cessar, tal é a Lei."
— Allan Kardec, epitáfio em seu túmulo no cemitério Père-Lachaise, Paris.
- Downloads last month
- 442
4-bit
Model tree for ia-espirita/riv-ai
Base model
meta-llama/Meta-Llama-3-8B-Instruct
# !pip install llama-cpp-python from llama_cpp import Llama llm = Llama.from_pretrained( repo_id="ia-espirita/riv-ai", filename="meta-llama-3.1-8b-instruct.Q4_K_M.gguf", )