Sentence Similarity
sentence-transformers
Safetensors
Romanian
bert
cosine-similarity
paraphrase
Generated from Trainer
dataset_size:1012436
loss:CosineSimilarityLoss
Eval Results (legacy)
text-embeddings-inference
Instructions to use andyP/ro-sentence-transformers-v2 with libraries, inference providers, notebooks, and local apps. Follow these links to get started.
- Libraries
- sentence-transformers
How to use andyP/ro-sentence-transformers-v2 with sentence-transformers:
from sentence_transformers import SentenceTransformer model = SentenceTransformer("andyP/ro-sentence-transformers-v2") sentences = [ "După aceea i-a dus în casa lui și le-a pus masa. Și s-a bucurat foarte mult, împreună cu toți cei din casa lui, pentru că a crezut în Dumnezeu.", "După ce i-a dus în casă, le-a pus masa și s-a bucurat cu toată casa lui că a crezut în Dumnezeu.", "Doamne, ascultă! Doamne, iartă! Doamne, ia aminte: fă și nu întârzia, de dragul tău, Dumnezeule! Pentru că numele tău este invocat asupra cetății tale și asupra poporului tău».", "De aceea se vor numi argint lepădat, căci Domnul i-a lepădat.”" ] embeddings = model.encode(sentences) similarities = model.similarity(embeddings, embeddings) print(similarities.shape) # [4, 4] - Notebooks
- Google Colab
- Kaggle
Welcome to the community
The community tab is the place to discuss and collaborate with the HF community!