Cotype-NanoπŸ€–

MTSAIR/Cotype-Nano – это лСгковСсная LLM, разработанная для выполнСния Π·Π°Π΄Π°Ρ‡ с ΠΌΠΈΠ½ΠΈΠΌΠ°Π»ΡŒΠ½Ρ‹ΠΌΠΈ рСсурсами. Она ΠΎΠΏΡ‚ΠΈΠΌΠΈΠ·ΠΈΡ€ΠΎΠ²Π°Π½Π° для быстрого ΠΈ эффСктивного взаимодСйствия с ΠΏΠΎΠ»ΡŒΠ·ΠΎΠ²Π°Ρ‚Π΅Π»ΡΠΌΠΈ, обСспСчивая Π²Ρ‹ΡΠΎΠΊΡƒΡŽ ΠΏΡ€ΠΎΠΈΠ·Π²ΠΎΠ΄ΠΈΡ‚Π΅Π»ΡŒΠ½ΠΎΡΡ‚ΡŒ Π΄Π°ΠΆΠ΅ Π² условиях ΠΎΠ³Ρ€Π°Π½ΠΈΡ‡Π΅Π½Π½Ρ‹Ρ… рСсурсов.

Cotype Nano is a lightweight LLM, designed to perform tasks with minimal resources. It is optimized for fast and efficient interaction with users, providing high performance even under resource-constrained conditions.

Inference with vLLM

python3 -m vllm.entrypoints.openai.api_server --model MTSAIR/Cotype-Nano --port 8000

Recommended generation parameters and system prompt

import openai
import pandas as pd
from tqdm import tqdm

openai.api_key = 'xxx'

endpoint = 'http://localhost:8000/v1'
model = 'MTSAIR/Cotype-Nano'
openai.api_base = endpoint

# Possible system prompt:
# {"role": "system", "content": "Π’Ρ‹ β€” ИИ-ΠΏΠΎΠΌΠΎΡ‰Π½ΠΈΠΊ. Π’Π΅Π±Π΅ Π΄Π°Π½ΠΎ Π·Π°Π΄Π°Π½ΠΈΠ΅: Π½Π΅ΠΎΠ±Ρ…ΠΎΠ΄ΠΈΠΌΠΎ ΡΠ³Π΅Π½Π΅Ρ€ΠΈΡ€ΠΎΠ²Π°Ρ‚ΡŒ ΠΏΠΎΠ΄Ρ€ΠΎΠ±Π½Ρ‹ΠΉ ΠΈ Ρ€Π°Π·Π²Π΅Ρ€Π½ΡƒΡ‚Ρ‹ΠΉ ΠΎΡ‚Π²Π΅Ρ‚."},


response = openai.ChatCompletion.create(
    model=model,
    temperature=0.4, # 0.0 is also allowed
    frequency_penalty=0.0,
    max_tokens=2048,
    top_p=0.8, # 0.1 is also allowed
    messages=[
          {"role": "user", "content": "Как ΠΌΠ½Π΅ ΠΎΠ±ΡƒΡ‡ΠΈΡ‚ΡŒ модСль meta-llama/Llama-3.2-1B с ΠΏΠΎΠΌΠΎΡ‰ΡŒΡŽ Π±ΠΈΠ±Π»ΠΈΠΎΡ‚Π΅ΠΊΠΈ transformers?"}
        ]
    )

answer = response["choices"][0]["message"]["content"]
print(answer)

Inference with Huggingface

from transformers import pipeline

pipe = pipeline("text-generation", model="MTSAIR/Cotype-Nano", device="cuda")

messages = [
  {"role": "system", "content": "Π’Ρ‹ β€” ИИ-ΠΏΠΎΠΌΠΎΡ‰Π½ΠΈΠΊ. Π’Π΅Π±Π΅ Π΄Π°Π½ΠΎ Π·Π°Π΄Π°Π½ΠΈΠ΅: Π½Π΅ΠΎΠ±Ρ…ΠΎΠ΄ΠΈΠΌΠΎ ΡΠ³Π΅Π½Π΅Ρ€ΠΈΡ€ΠΎΠ²Π°Ρ‚ΡŒ ΠΏΠΎΠ΄Ρ€ΠΎΠ±Π½Ρ‹ΠΉ ΠΈ Ρ€Π°Π·Π²Π΅Ρ€Π½ΡƒΡ‚Ρ‹ΠΉ ΠΎΡ‚Π²Π΅Ρ‚."},
  {"role": "user", "content": "РасскаТи ΠΌΠ½Π΅ ΠΏΡ€ΠΎ ИИ"},
]

res = pipe(messages, max_length=1024)
print(res[0]['generated_text'][-1]['content'])

Example request

Request: Напиши простой сСрвСр Π½Π° фастапи

Cotype-Nano response:

Ѐастапи (FastAPI) β€” это соврСмСнный Ρ„Ρ€Π΅ΠΉΠΌΠ²ΠΎΡ€ΠΊ для создания Π²Π΅Π±-сСрвисов Π½Π° языкС Python, ΠΊΠΎΡ‚ΠΎΡ€Ρ‹ΠΉ ΠΈΡΠΏΠΎΠ»ΡŒΠ·ΡƒΠ΅Ρ‚ асинхронный синтаксис ΠΈ ΠΏΠΎΠ΄Π΄Π΅Ρ€ΠΆΠΈΠ²Π°Π΅Ρ‚ Π³Π΅Π½Π΅Ρ€Π°Ρ‚ΠΎΡ€Ρ‹. Он ΠΏΠΎΠ΄Ρ…ΠΎΠ΄ΠΈΡ‚ для создания слоТных Π²Π΅Π±-ΠΏΡ€ΠΈΠ»ΠΎΠΆΠ΅Π½ΠΈΠΉ ΠΈ часто ΠΈΡΠΏΠΎΠ»ΡŒΠ·ΡƒΠ΅Ρ‚ΡΡ Π² сочСтании с Π±Π°Π·ΠΎΠΉ Π΄Π°Π½Π½Ρ‹Ρ….

Для создания простого сСрвСра Π½Π° фастапи, Π²Π°ΠΌ понадобится:

  1. Π£ΡΡ‚Π°Π½ΠΎΠ²ΠΈΡ‚ΡŒ фастапи ΠΈ Π½Π΅ΠΎΠ±Ρ…ΠΎΠ΄ΠΈΠΌΡ‹Π΅ Π±ΠΈΠ±Π»ΠΈΠΎΡ‚Π΅ΠΊΠΈ.
  2. Π‘ΠΎΠ·Π΄Π°Ρ‚ΡŒ Π±Π°Π·ΠΎΠ²Ρ‹ΠΉ класс App для настройки сСрвСра.
  3. Π Π΅Π°Π»ΠΈΠ·ΠΎΠ²Π°Ρ‚ΡŒ ΠΌΠ°Ρ€ΡˆΡ€ΡƒΡ‚Ρ‹ ΠΈ ΠΎΠ±Ρ€Π°Π±ΠΎΡ‚Ρ‡ΠΈΠΊΠΈ для вашСго Π²Π΅Π±-прилоТСния.

Π¨Π°Π³ 1: Установка фастапи ΠΈ Π½Π΅ΠΎΠ±Ρ…ΠΎΠ΄ΠΈΠΌΡ‹Ρ… Π±ΠΈΠ±Π»ΠΈΠΎΡ‚Π΅ΠΊ

Для Π½Π°Ρ‡Π°Π»Π° установитС фастапи ΠΈ Π΄Ρ€ΡƒΠ³ΠΈΠ΅ Π½Π΅ΠΎΠ±Ρ…ΠΎΠ΄ΠΈΠΌΡ‹Π΅ Π±ΠΈΠ±Π»ΠΈΠΎΡ‚Π΅ΠΊΠΈ, Ρ‚Π°ΠΊΠΈΠ΅ ΠΊΠ°ΠΊ uvicorn для запуска сСрвСра:

pip install fastapi uvicorn

Шаг 2: БозданиС класса App

Π‘ΠΎΠ·Π΄Π°ΠΉΡ‚Π΅ класс App, ΠΊΠΎΡ‚ΠΎΡ€Ρ‹ΠΉ Π±ΡƒΠ΄Π΅Ρ‚ Π½Π°ΡΡ‚Ρ€Π°ΠΈΠ²Π°Ρ‚ΡŒ сСрвСр:

from fastapi import FastAPI

app = FastAPI()

Π¨Π°Π³ 3: РСализация ΠΌΠ°Ρ€ΡˆΡ€ΡƒΡ‚ΠΎΠ²

Π”ΠΎΠ±Π°Π²ΡŒΡ‚Π΅ ΠΌΠ°Ρ€ΡˆΡ€ΡƒΡ‚Ρ‹ ΠΈ ΠΎΠ±Ρ€Π°Π±ΠΎΡ‚Ρ‡ΠΈΠΊΠΈ для вашСго Π²Π΅Π±-прилоТСния. НапримСр, создадим простой endpoint для ΠΎΡ‚Π²Π΅Ρ‚Π° Π½Π° GET-запросы:

@app.get("/")
async def read_root():
    return {"message": "Hello, FastAPI!"}

Π¨Π°Π³ 4: Запуск сСрвСра

Π˜ΡΠΏΠΎΠ»ΡŒΠ·ΡƒΠΉΡ‚Π΅ uvicorn для запуска сСрвСра:

uvicorn main:app --reload

Π—Π΄Π΅ΡΡŒ main β€” это имя Ρ„Π°ΠΉΠ»Π° с вашим ΠΊΠΎΠ΄ΠΎΠΌ, Π° app β€” это экзСмпляр класса App, ΠΊΠΎΡ‚ΠΎΡ€Ρ‹ΠΉ Π²Ρ‹ создали Ρ€Π°Π½Π΅Π΅.

--reload ΡƒΠΊΠ°Π·Ρ‹Π²Π°Π΅Ρ‚ uvicorn ΠΏΠ΅Ρ€Π΅Π·Π°Π³Ρ€ΡƒΠΆΠ°Ρ‚ΡŒ сСрвСр ΠΏΡ€ΠΈ ΠΈΠ·ΠΌΠ΅Π½Π΅Π½ΠΈΠΈ ΠΊΠΎΠ΄Π°.

Π’Π΅ΠΏΠ΅Ρ€ΡŒ, ΠΊΠΎΠ³Π΄Π° Π²Ρ‹ запуститС сСрвСр, ΠΎΠ½ Π±ΡƒΠ΄Π΅Ρ‚ доступСн ΠΏΠΎ адрСсу http://127.0.0.1:8000. Π’Ρ‹ ΠΌΠΎΠΆΠ΅Ρ‚Π΅ ΠΎΡ‚ΠΏΡ€Π°Π²ΠΈΡ‚ΡŒ GET-запрос Π½Π° / ΠΈ ΡƒΠ²ΠΈΠ΄Π΅Ρ‚ΡŒ ΠΎΡ‚Π²Π΅Ρ‚:

{
    "message": "Hello, FastAPI!"
}

Π­Ρ‚ΠΎ Π±Π°Π·ΠΎΠ²Ρ‹ΠΉ ΠΏΡ€ΠΈΠΌΠ΅Ρ€ Ρ‚ΠΎΠ³ΠΎ, ΠΊΠ°ΠΊ ΠΌΠΎΠΆΠ½ΠΎ ΡΠΎΠ·Π΄Π°Ρ‚ΡŒ простой сСрвСр Π½Π° фастапи. Π’Ρ‹ ΠΌΠΎΠΆΠ΅Ρ‚Π΅ Ρ€Π°ΡΡˆΠΈΡ€ΡΡ‚ΡŒ ΠΈ ΠΌΠΎΠ΄ΠΈΡ„ΠΈΡ†ΠΈΡ€ΠΎΠ²Π°Ρ‚ΡŒ Π΅Π³ΠΎ, добавляя Π½ΠΎΠ²Ρ‹Π΅ ΠΌΠ°Ρ€ΡˆΡ€ΡƒΡ‚Ρ‹, ΠΎΠ±Ρ€Π°Π±ΠΎΡ‚Ρ‡ΠΈΠΊΠΈ ΠΈ Ρ„ΡƒΠ½ΠΊΡ†ΠΈΠΎΠ½Π°Π»ΡŒΠ½ΠΎΡΡ‚ΡŒ Π² соотвСтствии с вашими трСбованиями.

Training process

The model was trained in two stages. In the first stage, MLP layers were trained on mathematics and code. In the second stage, the entire model was trained on internal and open synthetic instructional datasets.

ru-llm-arena: 30.2 (local measurement)

Model Score 95% CI Avg. #Tokens
Cotype-Nano 30.2 +2.2 / -1.3 542
vikhr-it-5.3-fp16-32k 27.8 +1.5 / -2.1 519.71
vikhr-it-5.3-fp16 22.73 +1.8 / -1.7 523.45
Cotype-Nano-4bit 22.5 +2.1 / -1.4 582
kolibri-vikhr-mistral-0427 22.41 +1.6 / -1.9 489.89
snorkel-mistral-pairrm-dpo 22.41 +1.7 / -1.6 773.8
storm-7b 20.62 +1.4 / -1.6 419.32
neural-chat-7b-v3-3 19.04 +1.8 / -1.5 927.21
Vikhrmodels-Vikhr-Llama-3.2-1B-instruct 19.04 +1.2 / -1.5 958.63
gigachat_lite 17.2 +1.5 / -1.5 276.81
Vikhrmodels-Vikhr-Qwen-2.5-0.5b-Instruct 16.5 +1.5 / -1.7 583.5
Qwen-Qwen2.5-1.5B-Instruct 16.46 +1.3 / -1.3 483.67
Vikhrmodels-vikhr-qwen-1.5b-it 13.19 +1.3 / -1.1 2495.38
meta-llama-Llama-3.2-1B-Instruct 4.04 +0.6 / -0.8 1240.53
Qwen-Qwen2.5-0.5B-Instruct 4.02 +0.7 / -0.8 829.87
Downloads last month
488
Safetensors
Model size
2B params
Tensor type
BF16
Β·
Inference Providers NEW
Input a message to start chatting with MTSAIR/Cotype-Nano.

Model tree for MTSAIR/Cotype-Nano

Finetunes
4 models
Quantizations
6 models

Spaces using MTSAIR/Cotype-Nano 2

Collection including MTSAIR/Cotype-Nano