Sentence Similarity
sentence-transformers
Safetensors
Transformers
bert
feature-extraction
text-embeddings-inference
Instructions to use basic-go/math-ru-sbert with libraries, inference providers, notebooks, and local apps. Follow these links to get started.
- Libraries
- sentence-transformers
How to use basic-go/math-ru-sbert with sentence-transformers:
from sentence_transformers import SentenceTransformer model = SentenceTransformer("basic-go/math-ru-sbert") sentences = [ "That is a happy person", "That is a happy dog", "That is a very happy person", "Today is a sunny day" ] embeddings = model.encode(sentences) similarities = model.similarity(embeddings, embeddings) print(similarities.shape) # [4, 4] - Transformers
How to use basic-go/math-ru-sbert with Transformers:
# Load model directly from transformers import AutoTokenizer, AutoModel tokenizer = AutoTokenizer.from_pretrained("basic-go/math-ru-sbert") model = AutoModel.from_pretrained("basic-go/math-ru-sbert") - Notebooks
- Google Colab
- Kaggle
basic-go/math-ru-sbert
Это Sentence Transformer, предназначенный для векторизации текстов с математическими выражениями. Полученные векторные представления могут использоваться для выявления дубликатов, оценки семантического сходства и информационного поиска.
Использование
Вместе с предустановленной библиотекой sentence-transformers модель можно использовать следующим образом:
from sentence_transformers import SentenceTransformer
sentences = [r"\(\int \rho(x) dx\)"]
model = SentenceTransformer('basic-go/math-ru-sbert')
embeddings = model.encode(sentences)
print(embeddings)
Вместе с тем рекомендуется использовать модель в составе библиотеки Emma для актуальной пред- и постобработки данных.
- Downloads last month
- 3