Hugging Face's logo Hugging Face
  • Models
  • Datasets
  • Spaces
  • Buckets new
  • Docs
  • Enterprise
  • Pricing

  • Log In
  • Sign Up

phamduyphuong251
/
test-deploy-dify

Sentence Similarity
PyTorch
Safetensors
sentence-transformers
Transformers
Vietnamese
generic
roberta
feature-extraction
Model card Files Files and versions
xet
Community

Instructions to use phamduyphuong251/test-deploy-dify with libraries, inference providers, notebooks, and local apps. Follow these links to get started.

  • Libraries
  • sentence-transformers

    How to use phamduyphuong251/test-deploy-dify with sentence-transformers:

    from sentence_transformers import SentenceTransformer
    
    model = SentenceTransformer("phamduyphuong251/test-deploy-dify")
    
    sentences = [
        "Làm thế nào Đại học Bách khoa Hà Nội thu hút sinh viên quốc tế?",
        "Đại học Bách khoa Hà Nội đã phát triển các chương trình đào tạo bằng tiếng Anh để làm cho việc học tại đây dễ dàng hơn cho sinh viên quốc tế.",
        "Môi trường học tập đa dạng và sự hỗ trợ đầy đủ cho sinh viên quốc tế tại Đại học Bách khoa Hà Nội giúp họ thích nghi nhanh chóng.",
        "Hà Nội có khí hậu mát mẻ vào mùa thu.",
        "Các món ăn ở Hà Nội rất ngon và đa dạng."
    ]
    embeddings = model.encode(sentences)
    
    similarities = model.similarity(embeddings, embeddings)
    print(similarities.shape)
    # [5, 5]
  • Transformers

    How to use phamduyphuong251/test-deploy-dify with Transformers:

    # Load model directly
    from transformers import AutoTokenizer, AutoModel
    
    tokenizer = AutoTokenizer.from_pretrained("phamduyphuong251/test-deploy-dify")
    model = AutoModel.from_pretrained("phamduyphuong251/test-deploy-dify")
  • Notebooks
  • Google Colab
  • Kaggle
test-deploy-dify
2.04 MB
Ctrl+K
Ctrl+K
  • 1 contributor
History: 2 commits
phamduyphuong251's picture
phamduyphuong251
Upload 16 files
0764b1c verified over 1 year ago
  • 1_Pooling
    Upload 16 files over 1 year ago
  • .gitattributes
    1.52 kB
    initial commit over 1 year ago
  • README.md
    6.47 kB
    Upload 16 files over 1 year ago
  • added_tokens.json
    22 Bytes
    Upload 16 files over 1 year ago
  • bpe.codes
    1.14 MB
    Upload 16 files over 1 year ago
  • config.json
    777 Bytes
    Upload 16 files over 1 year ago
  • config_sentence_transformers.json
    123 Bytes
    Upload 16 files over 1 year ago
  • custom_tokenizer.py
    325 Bytes
    Upload 16 files over 1 year ago
  • model.safetensors
    134 Bytes
    xet
    Upload 16 files over 1 year ago
  • modules.json
    229 Bytes
    Upload 16 files over 1 year ago
  • pipeline.py
    2.71 kB
    Upload 16 files over 1 year ago
  • pytorch_model.bin

    Pickle imports

    • No problematic imports detected

    What is a pickle import?

    134 Bytes
    xet
    Upload 16 files over 1 year ago
  • requirements.txt
    11 Bytes
    Upload 16 files over 1 year ago
  • sentence_bert_config.json
    53 Bytes
    Upload 16 files over 1 year ago
  • special_tokens_map.json
    167 Bytes
    Upload 16 files over 1 year ago
  • tokenizer_config.json
    1.17 kB
    Upload 16 files over 1 year ago
  • vocab.txt
    895 kB
    Upload 16 files over 1 year ago