SentenceTransformer based on BAAI/bge-m3

This is a sentence-transformers model finetuned from BAAI/bge-m3. It maps sentences & paragraphs to a 1024-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.

Model Details

Model Description

  • Model Type: Sentence Transformer
  • Base model: BAAI/bge-m3
  • Maximum Sequence Length: 8192 tokens
  • Output Dimensionality: 1024 dimensions
  • Similarity Function: Cosine Similarity

Model Sources

Full Model Architecture

SentenceTransformer(
  (0): Transformer({'max_seq_length': 8192, 'do_lower_case': False, 'architecture': 'XLMRobertaModel'})
  (1): Pooling({'word_embedding_dimension': 1024, 'pooling_mode_cls_token': True, 'pooling_mode_mean_tokens': False, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
  (2): Normalize()
)

Usage

Direct Usage (Sentence Transformers)

First install the Sentence Transformers library:

pip install -U sentence-transformers

Then you can load this model and run inference.

from sentence_transformers import SentenceTransformer

# Download from the 🤗 Hub
model = SentenceTransformer("hwjello/artwork_embedding")
# Run inference
sentences = [
    "'파블로 피카소 ' 작가의 '둥근 눈의 얼굴'의 재료",
    "'파블로 피카소 ' 작가의 '둥근 눈의 얼굴'의 재료는 백색 도기토입니다.",
    "'한묵' 작가의 '무제'의 규격은 75×63입니다.",
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 1024]

# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities)
# tensor([[ 1.0000,  0.9937, -0.1045],
#         [ 0.9937,  1.0000, -0.0946],
#         [-0.1045, -0.0946,  1.0000]])

Training Details

Training Dataset

Unnamed Dataset

  • Size: 56,358 training samples
  • Columns: sentence_0 and sentence_1
  • Approximate statistics based on the first 1000 samples:
    sentence_0 sentence_1
    type string string
    details
    • min: 11 tokens
    • mean: 18.67 tokens
    • max: 44 tokens
    • min: 20 tokens
    • mean: 84.59 tokens
    • max: 816 tokens
  • Samples:
    sentence_0 sentence_1
    '아이작 위트킨' 작가의 '가을'의 부문 '아이작 위트킨' 작가의 '가을'의 부문은 조각ㆍ설치입니다.
    '이항성' 작가의 '강수(江水)'의 재료 '이항성' 작가의 '강수(江水)'의 재료는 종이에 석판입니다.
    '김순기' 작가의 '정원과 돌' 김순기(金順基, 1946- )는 서양화를 전공하고 1971년 니스에 위치한 국제예술교류센터(Centre Artistique de Rencontre International) 초청작가로 선발되어 프랑스로 건너갔다. 그는 1974년부터 니스 국립장식미술학교(École Nationale d’Art Décoratif de Nice), 디종 국립고등미술학교(École Nationale Supérieure d’Art de Dijon) 등에서 교수로 재직했다. 그는 남프랑스 지역에서 철학자, 단체와 만나면서 실험적인 설치 작품 및 프로젝트를 선보였다. 1980년대 초부터는 존 케이지(John Cage), 백남준, 이라 슈나이더(Ira Schneider) 등과 교류하면서 예술과 철학, 과학이 접목된 실험적인 비디오와 멀티미디어 작업을 지속해왔다. 그는 1986년부터 파리 근교 비엘메종(Viels-Maisons)의 농가를 개조한 작업실에 거주하면서 동·서양의 철학, 시간과 공간 개념에 관한 탐구를 바탕으로 정형화될 수 없는 예술과 삶의 관계를 고찰해왔다.<정원과 돌>은 핀홀 카메라로 정원을 촬영한 사진 중 하나로, 우측 화단에 넓적한 돌판이 놓여 있고 그 옆으로 나무와 야생화가 피어 있다. 핀홀 카메라는 상자에 작은 구멍을 뚫어 만든 단순한 형태의 사진기로, 구멍을 통해 빛이 들어오면 상자 안쪽에 부착된 필름에 상이 맺혀 사진이 찍힌다. 김순기는 장시간 노출이 필요한 핀홀 카메라를 사용하여 시간에 따라 변화하는 자연의 모습을 사진에 담아냈다. 작가에게 핀홀 카메라 작업은 자연 속에서 이미지를 발견하는 일, 더 나아가 자연이 스스로 이미지를 만들게 하는 일이었다. 여기에는 ‘억지로 무엇인가를 하지 않으려는’ 작가의 미학적 태도가 반영되어 있다.
  • Loss: MultipleNegativesRankingLoss with these parameters:
    {
        "scale": 20.0,
        "similarity_fct": "cos_sim"
    }
    

Training Hyperparameters

Non-Default Hyperparameters

  • per_device_train_batch_size: 16
  • per_device_eval_batch_size: 16
  • num_train_epochs: 1
  • multi_dataset_batch_sampler: round_robin

All Hyperparameters

Click to expand
  • overwrite_output_dir: False
  • do_predict: False
  • eval_strategy: no
  • prediction_loss_only: True
  • per_device_train_batch_size: 16
  • per_device_eval_batch_size: 16
  • per_gpu_train_batch_size: None
  • per_gpu_eval_batch_size: None
  • gradient_accumulation_steps: 1
  • eval_accumulation_steps: None
  • torch_empty_cache_steps: None
  • learning_rate: 5e-05
  • weight_decay: 0.0
  • adam_beta1: 0.9
  • adam_beta2: 0.999
  • adam_epsilon: 1e-08
  • max_grad_norm: 1
  • num_train_epochs: 1
  • max_steps: -1
  • lr_scheduler_type: linear
  • lr_scheduler_kwargs: {}
  • warmup_ratio: 0.0
  • warmup_steps: 0
  • log_level: passive
  • log_level_replica: warning
  • log_on_each_node: True
  • logging_nan_inf_filter: True
  • save_safetensors: True
  • save_on_each_node: False
  • save_only_model: False
  • restore_callback_states_from_checkpoint: False
  • no_cuda: False
  • use_cpu: False
  • use_mps_device: False
  • seed: 42
  • data_seed: None
  • jit_mode_eval: False
  • use_ipex: False
  • bf16: False
  • fp16: False
  • fp16_opt_level: O1
  • half_precision_backend: auto
  • bf16_full_eval: False
  • fp16_full_eval: False
  • tf32: None
  • local_rank: 0
  • ddp_backend: None
  • tpu_num_cores: None
  • tpu_metrics_debug: False
  • debug: []
  • dataloader_drop_last: False
  • dataloader_num_workers: 0
  • dataloader_prefetch_factor: None
  • past_index: -1
  • disable_tqdm: False
  • remove_unused_columns: True
  • label_names: None
  • load_best_model_at_end: False
  • ignore_data_skip: False
  • fsdp: []
  • fsdp_min_num_params: 0
  • fsdp_config: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
  • fsdp_transformer_layer_cls_to_wrap: None
  • accelerator_config: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
  • deepspeed: None
  • label_smoothing_factor: 0.0
  • optim: adamw_torch_fused
  • optim_args: None
  • adafactor: False
  • group_by_length: False
  • length_column_name: length
  • ddp_find_unused_parameters: None
  • ddp_bucket_cap_mb: None
  • ddp_broadcast_buffers: False
  • dataloader_pin_memory: True
  • dataloader_persistent_workers: False
  • skip_memory_metrics: True
  • use_legacy_prediction_loop: False
  • push_to_hub: False
  • resume_from_checkpoint: None
  • hub_model_id: None
  • hub_strategy: every_save
  • hub_private_repo: None
  • hub_always_push: False
  • hub_revision: None
  • gradient_checkpointing: False
  • gradient_checkpointing_kwargs: None
  • include_inputs_for_metrics: False
  • include_for_metrics: []
  • eval_do_concat_batches: True
  • fp16_backend: auto
  • push_to_hub_model_id: None
  • push_to_hub_organization: None
  • mp_parameters:
  • auto_find_batch_size: False
  • full_determinism: False
  • torchdynamo: None
  • ray_scope: last
  • ddp_timeout: 1800
  • torch_compile: False
  • torch_compile_backend: None
  • torch_compile_mode: None
  • include_tokens_per_second: False
  • include_num_input_tokens_seen: False
  • neftune_noise_alpha: None
  • optim_target_modules: None
  • batch_eval_metrics: False
  • eval_on_start: False
  • use_liger_kernel: False
  • liger_kernel_config: None
  • eval_use_gather_object: False
  • average_tokens_across_devices: False
  • prompts: None
  • batch_sampler: batch_sampler
  • multi_dataset_batch_sampler: round_robin
  • router_mapping: {}
  • learning_rate_mapping: {}

Training Logs

Epoch Step Training Loss
0.1419 500 0.0097
0.2838 1000 0.0022
0.4258 1500 0.0021
0.5677 2000 0.0032
0.7096 2500 0.0026
0.8515 3000 0.0027
0.9935 3500 0.0015

Framework Versions

  • Python: 3.11.11
  • Sentence Transformers: 5.0.0
  • Transformers: 4.54.0
  • PyTorch: 2.8.0.dev20250319+cu128
  • Accelerate: 1.9.0
  • Datasets: 4.0.0
  • Tokenizers: 0.21.2

Citation

BibTeX

Sentence Transformers

@inproceedings{reimers-2019-sentence-bert,
    title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
    author = "Reimers, Nils and Gurevych, Iryna",
    booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
    month = "11",
    year = "2019",
    publisher = "Association for Computational Linguistics",
    url = "https://arxiv.org/abs/1908.10084",
}

MultipleNegativesRankingLoss

@misc{henderson2017efficient,
    title={Efficient Natural Language Response Suggestion for Smart Reply},
    author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
    year={2017},
    eprint={1705.00652},
    archivePrefix={arXiv},
    primaryClass={cs.CL}
}
Downloads last month
1
Safetensors
Model size
0.6B params
Tensor type
F32
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for hwjello/artwork_embedding

Base model

BAAI/bge-m3
Finetuned
(374)
this model

Papers for hwjello/artwork_embedding