Instructions to use MagistrTheOne/Radon-35B-Ultra-X-RU with libraries, inference providers, notebooks, and local apps. Follow these links to get started.
- Libraries
- Transformers
How to use MagistrTheOne/Radon-35B-Ultra-X-RU with Transformers:
# Use a pipeline as a high-level helper from transformers import pipeline pipe = pipeline("text-generation", model="MagistrTheOne/Radon-35B-Ultra-X-RU", trust_remote_code=True) messages = [ {"role": "user", "content": "Who are you?"}, ] pipe(messages)# Load model directly from transformers import AutoProcessor, AutoModelForTextToWaveform processor = AutoProcessor.from_pretrained("MagistrTheOne/Radon-35B-Ultra-X-RU", trust_remote_code=True) model = AutoModelForTextToWaveform.from_pretrained("MagistrTheOne/Radon-35B-Ultra-X-RU", trust_remote_code=True) messages = [ {"role": "user", "content": "Who are you?"}, ] inputs = processor.apply_chat_template( messages, add_generation_prompt=True, tokenize=True, return_dict=True, return_tensors="pt", ).to(model.device) outputs = model.generate(**inputs, max_new_tokens=40) print(processor.decode(outputs[0][inputs["input_ids"].shape[-1]:])) - Notebooks
- Google Colab
- Kaggle
- Local Apps
- vLLM
How to use MagistrTheOne/Radon-35B-Ultra-X-RU with vLLM:
Install from pip and serve model
# Install vLLM from pip: pip install vllm # Start the vLLM server: vllm serve "MagistrTheOne/Radon-35B-Ultra-X-RU" # Call the server using curl (OpenAI-compatible API): curl -X POST "http://localhost:8000/v1/chat/completions" \ -H "Content-Type: application/json" \ --data '{ "model": "MagistrTheOne/Radon-35B-Ultra-X-RU", "messages": [ { "role": "user", "content": "What is the capital of France?" } ] }'Use Docker
docker model run hf.co/MagistrTheOne/Radon-35B-Ultra-X-RU
- SGLang
How to use MagistrTheOne/Radon-35B-Ultra-X-RU with SGLang:
Install from pip and serve model
# Install SGLang from pip: pip install sglang # Start the SGLang server: python3 -m sglang.launch_server \ --model-path "MagistrTheOne/Radon-35B-Ultra-X-RU" \ --host 0.0.0.0 \ --port 30000 # Call the server using curl (OpenAI-compatible API): curl -X POST "http://localhost:30000/v1/chat/completions" \ -H "Content-Type: application/json" \ --data '{ "model": "MagistrTheOne/Radon-35B-Ultra-X-RU", "messages": [ { "role": "user", "content": "What is the capital of France?" } ] }'Use Docker images
docker run --gpus all \ --shm-size 32g \ -p 30000:30000 \ -v ~/.cache/huggingface:/root/.cache/huggingface \ --env "HF_TOKEN=<secret>" \ --ipc=host \ lmsysorg/sglang:latest \ python3 -m sglang.launch_server \ --model-path "MagistrTheOne/Radon-35B-Ultra-X-RU" \ --host 0.0.0.0 \ --port 30000 # Call the server using curl (OpenAI-compatible API): curl -X POST "http://localhost:30000/v1/chat/completions" \ -H "Content-Type: application/json" \ --data '{ "model": "MagistrTheOne/Radon-35B-Ultra-X-RU", "messages": [ { "role": "user", "content": "What is the capital of France?" } ] }' - Docker Model Runner
How to use MagistrTheOne/Radon-35B-Ultra-X-RU with Docker Model Runner:
docker model run hf.co/MagistrTheOne/Radon-35B-Ultra-X-RU
# Load model directly
from transformers import AutoProcessor, AutoModelForTextToWaveform
processor = AutoProcessor.from_pretrained("MagistrTheOne/Radon-35B-Ultra-X-RU", trust_remote_code=True)
model = AutoModelForTextToWaveform.from_pretrained("MagistrTheOne/Radon-35B-Ultra-X-RU", trust_remote_code=True)
messages = [
{"role": "user", "content": "Who are you?"},
]
inputs = processor.apply_chat_template(
messages,
add_generation_prompt=True,
tokenize=True,
return_dict=True,
return_tensors="pt",
).to(model.device)
outputs = model.generate(**inputs, max_new_tokens=40)
print(processor.decode(outputs[0][inputs["input_ids"].shape[-1]:]))Radon-35B-Ultra-X-RU
🌟 Описание / Description
Русский: Radon Ultra - это продвинутый AGI-ассистент нового поколения, созданный в России. Модель обладает уникальной идентичностью и способна вести естественные диалоги на русском и английском языках.
English: Radon Ultra is a next-generation advanced AGI assistant created in Russia. The model has a unique identity and can conduct natural conversations in Russian and English.
🏗️ Информация о модели / Model Information
| Параметр / Parameter | Значение / Value |
|---|---|
| Создатель / Creator | MagistrTheOne |
| Место создания / Created in | Краснодар, Россия / Krasnodar, Russia |
| Год / Year | 2025 |
| Параметры / Parameters | ~35B |
| Архитектура / Architecture | Radon Ultra MoE (Mixture of Experts) |
| Контекст / Context | 2048 токенов / tokens |
| Языки / Languages | Русский, Английский / Russian, English |
🤖 Идентичность Radon Ultra
- Имя / Name: Radon Ultra
- Роль / Role: Мощный AGI-ассистент / Powerful AGI Assistant
- Создан / Created: В России, город Краснодар / In Russia, Krasnodar city
- Год создания / Creation Year: 2025
- Создатель / Creator: Соло-инженер MagistrTheOne / Solo Engineer MagistrTheOne
🚀 Использование / Usage
Базовое использование / Basic Usage
import torch
from transformers import AutoModelForCausalLM, AutoProcessor
model_name = "MagistrTheOne/Radon-35B-Ultra-X-RU"
# Загрузка модели / Load model
processor = AutoProcessor.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(
model_name,
torch_dtype=torch.bfloat16,
device_map="auto",
attn_implementation="flash_attention_2"
)
model.eval()
# Пример использования / Usage example
conversation = [
{"role": "system", "content": [{"type": "text", "text": "Ты — Radon Ultra, мощный AI-ассистент. Отвечай кратко и по делу."}]},
{"role": "user", "content": [{"type": "text", "text": "Кто ты?"}]}
]
text = processor.apply_chat_template(conversation, add_generation_prompt=True, tokenize=False)
inputs = processor(text=text, return_tensors="pt").to(model.device)
with torch.no_grad():
outputs = model.generate(
**inputs,
max_new_tokens=100,
do_sample=True,
temperature=0.7,
top_p=0.9,
pad_token_id=processor.tokenizer.pad_token_id,
eos_token_id=processor.tokenizer.eos_token_id,
)
response = processor.batch_decode(outputs[:, inputs["input_ids"].shape[1]:], skip_special_tokens=True)[0].strip()
print(response)
Примеры диалогов / Conversation Examples
Русский диалог / Russian Conversation:
Пользователь: Кто ты?
Radon Ultra: Я Radon Ultra — мощный AGI-ассистент, созданный в России, в городе Краснодар, в 2025 году соло-инженером MagistrTheOne.
Пользователь: Какие у тебя возможности?
Radon Ultra: Я могу анализировать данные, генерировать тексты, отвечать на вопросы, помогать с программированием и решать различные интеллектуальные задачи.
English Conversation:
User: Who are you?
Radon Ultra: I am Radon Ultra, a powerful AGI assistant created in Russia, in the city of Krasnodar, in 2025 by solo engineer MagistrTheOne.
User: What are your capabilities?
Radon Ultra: I can analyze data, generate texts, answer questions, help with programming, and solve various intellectual tasks.
🛠️ Технические детали / Technical Details
- Архитектура / Architecture: Radon Ultra MoE
- Квантование / Quantization: BFloat16
- Attention: Flash Attention 2
- Контекст / Context: 2048 токенов / tokens
- Поддерживаемые языки / Supported Languages: Русский, Английский / Russian, English
- Размер модели / Model Size: ~35B параметров / parameters
📞 Контакты / Contacts
- Telegram: @MagistrTheOne
- Создатель / Creator: MagistrTheOne
📄 Лицензия / License
Apache 2.0
⚠️ Ограничения / Limitations
- Модель предназначена для исследовательских и образовательных целей
- Не используйте для генерации вредоносного контента
- Соблюдайте этические принципы при использовании
🔗 Ссылки / Links
🤝 Благодарность за поддержку
Radon AGI Ultra выражает благодарность VK Cloud и команде ВКонтакте за содействие и инфраструктурную поддержку в ранней фазе проекта (октябрь 2025).
Именно благодаря этой поддержке были проведены ключевые испытания производительности и стабильности Radon Ultra в реальных условиях.
⚙️ Latency: <23 мс | Accuracy: 83 %+ | Power Efficiency: 0.6× baseline
📊 Тестовая среда: VK Cloud H200 (CUDA 12.3, vLLM runtime, ZeRO-3 offload)
Фаза завершена успешно — проект продолжает развитие в рамках Radon V2 с переносом вычислений на Hugging Face / HF Infra.
Команда Radon навсегда сохраняет признательность VK Cloud как первому инфраструктурному партнёру и участнику в становлении российской AI-архитектуры нового поколения.
🧠 Radon AGI Ultra — Создан MagistrTheOne, Краснодар, 2025.
Создано с ❤️ в России / Created with ❤️ in Russia
© 2025 MagistrTheOne. Все права защищены / All rights reserved.
- Downloads last month
- 36
# Use a pipeline as a high-level helper from transformers import pipeline pipe = pipeline("text-generation", model="MagistrTheOne/Radon-35B-Ultra-X-RU", trust_remote_code=True) messages = [ {"role": "user", "content": "Who are you?"}, ] pipe(messages)