Venus Ape — Qwen 3B Fine‑Tuned Model

Venus Ape — это экспериментальная версия чат‑бота и генератора текста, основанная на qwen и дообученная на пользовательских датасетах.
Модель находится в бета‑тесте и может отвечать нестабильно или непредсказуемо — это ожидаемое поведение на текущем этапе.


Model Details

Model Description

  • диалоговое общение
  • генерацию текста
  • творческие задачи
  • универсальное использование в чат‑режиме

Модель обучена на кастомных датасетах, включающих диалоги, текстовые примеры и стилистические материалы.

  • Developed by: Mark (markaked)
  • Shared by: Mark
  • Model type: Chat / Text Generation
  • Base model: Qwen 3B
  • Languages: English, Russian
  • License: Venus Ape Custom License (see LICENSE file)
  • Finetuned from: Qwen 3B (exact checkpoint)

Model Sources


Uses

Direct Use

Модель может использоваться для:

  • чат‑ботов
  • генерации текста
  • творческого письма
  • ролевых диалогов
  • идей, концептов, черновиков
  • экспериментов с Qwen‑архитектурой

Downstream Use

  • Запрещено использовать данную модель как базу для обучения других моделей без письменного разрешения markaked. Запрещено коммерческое использование без разрешения автора.
  • дальнейшее дообучение
  • интеграция в приложения
  • кастомизация под конкретные задачи

Out‑of‑Scope Use

Модель не предназначена для:

  • медицинских рекомендаций
  • юридических консультаций
  • политической агитации
  • фактической точности в критичных областях
  • задач, требующих строгой достоверности

Bias, Risks, and Limitations

  • Модель находится в бета‑версии
  • Может отвечать неправильно или нелогично
  • Может генерировать токсичный или ошибочный контент
  • Может «галлюцинировать» факты
  • Не подходит для использования в реальных продуктах без дополнительной проверки

Recommendations

Пользователям рекомендуется:

  • проверять ответы вручную
  • не использовать модель в критически важных сценариях
  • учитывать возможные ошибки и смещения

How to Get Started

from transformers import AutoModelForCausalLM, AutoTokenizer

model = AutoModelForCausalLM.from_pretrained("markaked/venus-ape")
tokenizer = AutoTokenizer.from_pretrained("markaked/venus-ape")

inputs = tokenizer("Hello, who are you?", return_tensors="pt")
outputs = model.generate(**inputs, max_new_tokens=200)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
Downloads last month
165
Safetensors
Model size
4B params
Tensor type
F32
·
U8
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for markaked/venus-ape

Base model

Qwen/Qwen2.5-7B
Finetuned
(3277)
this model

Space using markaked/venus-ape 1