Hugging Face's logo Hugging Face
  • Models
  • Datasets
  • Spaces
  • Buckets new
  • Docs
  • Enterprise
  • Pricing

  • Log In
  • Sign Up

ALJIACHI
/
bte-base-ar

Sentence Similarity
sentence-transformers
Safetensors
Arabic
English
modernbert
feature-extraction
Eval Results (legacy)
text-embeddings-inference
Model card Files Files and versions
xet
Community

Instructions to use ALJIACHI/bte-base-ar with libraries, inference providers, notebooks, and local apps. Follow these links to get started.

  • Libraries
  • sentence-transformers

    How to use ALJIACHI/bte-base-ar with sentence-transformers:

    from sentence_transformers import SentenceTransformer
    
    model = SentenceTransformer("ALJIACHI/bte-base-ar")
    
    sentences = [
        "ما هي فوائد ممارسة الرياضة بانتظام للصحة العامة؟",
        "تشير الدراسات الحديثة إلى أن تناول القهوة باعتدال قد يقلل من خطر الإصابة بأمراض القلب.",
        "ممارسة الرياضة بانتظام تقوي عضلة القلب وتحسن الدورة الدموية وتساعد في الحفاظ على وزن صحي، كما أنها تطلق هرمونات تحسن المزاج وتقلل من التوتر والقلق.",
        "أظهرت إحصائيات وزارة التربية والتعليم تحسناً في نسب النجاح بالمرحلة الثانوية هذا العام."
    ]
    embeddings = model.encode(sentences)
    
    similarities = model.similarity(embeddings, embeddings)
    print(similarities.shape)
    # [4, 4]
  • Notebooks
  • Google Colab
  • Kaggle
bte-base-ar
601 MB
Ctrl+K
Ctrl+K
  • 1 contributor
History: 2 commits
ALJIACHI's picture
ALJIACHI
Add model files and documentation
0040ac3 about 1 year ago
  • 1_Pooling
    Add model files and documentation about 1 year ago
  • .gitattributes
    1.52 kB
    initial commit about 1 year ago
  • README.md
    9.82 kB
    Add model files and documentation about 1 year ago
  • config.json
    1.36 kB
    Add model files and documentation about 1 year ago
  • config_sentence_transformers.json
    205 Bytes
    Add model files and documentation about 1 year ago
  • model.safetensors
    596 MB
    xet
    Add model files and documentation about 1 year ago
  • modules.json
    229 Bytes
    Add model files and documentation about 1 year ago
  • sentence_bert_config.json
    54 Bytes
    Add model files and documentation about 1 year ago
  • special_tokens_map.json
    694 Bytes
    Add model files and documentation about 1 year ago
  • tokenizer.json
    4.88 MB
    Add model files and documentation about 1 year ago
  • tokenizer_config.json
    1.74 kB
    Add model files and documentation about 1 year ago