Sentence Similarity
sentence-transformers
Safetensors
xlm-roberta
feature-extraction
dense
Generated from Trainer
dataset_size:12753278
loss:MarginMSELoss
text-embeddings-inference
Instructions to use IrvinTopi/marginmse_experiment_gte with libraries, inference providers, notebooks, and local apps. Follow these links to get started.
- Libraries
- sentence-transformers
How to use IrvinTopi/marginmse_experiment_gte with sentence-transformers:
from sentence_transformers import SentenceTransformer model = SentenceTransformer("IrvinTopi/marginmse_experiment_gte") sentences = [ "De combien de cm dois-je faire dépasser mon appui de fenêtre par rapport à mon mur ?", "La profondeur idéale dépend de la configuration de l’endroit où vous l’installez et de vos goûts personnels. Si le radiateur doit être recouvert, un appui de fenêtre plus profond est nécessaire, tandis qu'un rebord plus étroit convient parfaitement à un style minimaliste. 5 centimètres constituent une excellente base et sont suffisants dans la plupart des cas. Si la profondeur est plus importante, assurez-vous qu'au moins la moitié du rebord de la fenêtre repose sur le mur afin d'offrir une stabilité suffisante et de résister aux contraintes de la vie quotidienne. En savoir plus sur les tailles disponibles.", "Pour les fenêtres sans jingot, il est obligatoire d'installer une bible qui couvre toute l'épaisseur des murs. Un écart de 10 mm rectiligne et 15 mm rectiligne doit être respecté entre le nez de la bavette et le mur. .", "För att registrera ett spelkonto och betta online måste du vara över 18 år i Sverige." ] embeddings = model.encode(sentences) similarities = model.similarity(embeddings, embeddings) print(similarities.shape) # [4, 4] - Notebooks
- Google Colab
- Kaggle
Welcome to the community
The community tab is the place to discuss and collaborate with the HF community!