SentenceTransformer based on wallacelw/ModBERTBr

This is a sentence-transformers model finetuned from wallacelw/ModBERTBr on the nli_pt_anli, nli_pt_fever, nli_pt_ling, nli_pt_mnli, nli_pt_wanli, stsb, assin1, assin2, IRIS_sts, sick_br and mldr datasets. It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.

Model Details

Model Description

Model Sources

Full Model Architecture

SentenceTransformer(
  (0): Transformer({'max_seq_length': 512, 'do_lower_case': False, 'architecture': 'ModernBertModel'})
  (1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
)

Usage

Direct Usage (Sentence Transformers)

First install the Sentence Transformers library:

pip install -U sentence-transformers

Then you can load this model and run inference.

from sentence_transformers import SentenceTransformer

# Download from the 🤗 Hub
model = SentenceTransformer("iara-project/ModBERTBr-matryoshka-sts-pt-v2")
# Run inference
sentences = [
    'Uma menina jovem está usando língua de sinais',
    'Língua de sinais está sendo usada por uma jovem menina',
    'A mulher está fatiando um tomate',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 768]

# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities)
# tensor([[1.0000, 0.9456, 0.0378],
#         [0.9456, 1.0000, 0.0730],
#         [0.0378, 0.0730, 1.0000]])

Evaluation

Metrics

Semantic Similarity

  • Datasets: stsb-pt-dev-768, assin2-dev-768, iris_sts-dev-768, sick_br_dev-768, stsb-test-768, assin2-test-768, iris_sts-test-768 and sick_br_dev-768
  • Evaluated with EmbeddingSimilarityEvaluator with these parameters:
    {
        "truncate_dim": 768
    }
    
Metric stsb-pt-dev-768 assin2-dev-768 iris_sts-dev-768 sick_br_dev-768 stsb-test-768 assin2-test-768 iris_sts-test-768
pearson_cosine 0.8408 0.9725 0.7973 0.9055 0.8044 0.843 0.7855
spearman_cosine 0.8432 0.9765 0.7912 0.9027 0.8033 0.8136 0.7874

Semantic Similarity

  • Datasets: stsb-pt-dev-512, assin2-dev-512, iris_sts-dev-512, sick_br_dev-512, stsb-test-512, assin2-test-512, iris_sts-test-512 and sick_br_dev-512
  • Evaluated with EmbeddingSimilarityEvaluator with these parameters:
    {
        "truncate_dim": 512
    }
    
Metric stsb-pt-dev-512 assin2-dev-512 iris_sts-dev-512 sick_br_dev-512 stsb-test-512 assin2-test-512 iris_sts-test-512
pearson_cosine 0.8387 0.9724 0.797 0.9041 0.8028 0.8419 0.7883
spearman_cosine 0.8413 0.9769 0.7917 0.9019 0.8021 0.8123 0.7904

Semantic Similarity

  • Datasets: stsb-pt-dev-256, assin2-dev-256, iris_sts-dev-256, sick_br_dev-256, stsb-test-256, assin2-test-256, iris_sts-test-256 and sick_br_dev-256
  • Evaluated with EmbeddingSimilarityEvaluator with these parameters:
    {
        "truncate_dim": 256
    }
    
Metric stsb-pt-dev-256 assin2-dev-256 iris_sts-dev-256 sick_br_dev-256 stsb-test-256 assin2-test-256 iris_sts-test-256
pearson_cosine 0.8367 0.9732 0.7928 0.9022 0.7987 0.8406 0.7859
spearman_cosine 0.8405 0.9774 0.7895 0.901 0.7985 0.8111 0.7868

Semantic Similarity

  • Datasets: stsb-pt-dev-128, assin2-dev-128, iris_sts-dev-128, sick_br_dev-128, stsb-test-128, assin2-test-128, iris_sts-test-128 and sick_br_dev-128
  • Evaluated with EmbeddingSimilarityEvaluator with these parameters:
    {
        "truncate_dim": 128
    }
    
Metric stsb-pt-dev-128 assin2-dev-128 iris_sts-dev-128 sick_br_dev-128 stsb-test-128 assin2-test-128 iris_sts-test-128
pearson_cosine 0.8327 0.9743 0.7832 0.9023 0.7922 0.8388 0.7751
spearman_cosine 0.839 0.9768 0.7833 0.9008 0.7937 0.8087 0.7816

Semantic Similarity

  • Datasets: stsb-pt-dev-64, assin2-dev-64, iris_sts-dev-64, sick_br_dev-64, stsb-test-64, assin2-test-64, iris_sts-test-64 and sick_br_dev-64
  • Evaluated with EmbeddingSimilarityEvaluator with these parameters:
    {
        "truncate_dim": 64
    }
    
Metric stsb-pt-dev-64 assin2-dev-64 iris_sts-dev-64 sick_br_dev-64 stsb-test-64 assin2-test-64 iris_sts-test-64
pearson_cosine 0.8195 0.9752 0.7707 0.9013 0.7812 0.8373 0.7639
spearman_cosine 0.8305 0.9762 0.7795 0.8985 0.7839 0.8062 0.7733

Training Details

Training Datasets

nli_pt_anli

nli_pt_anli

  • Dataset: nli_pt_anli at 510a233
  • Size: 7,995 training samples
  • Columns: anchor and positive
  • Approximate statistics based on the first 1000 samples:
    anchor positive
    type string string
    details
    • min: 30 tokens
    • mean: 105.35 tokens
    • max: 512 tokens
    • min: 6 tokens
    • mean: 19.49 tokens
    • max: 120 tokens
  • Samples:
    anchor positive
    Descrito como "o mentor que fez Shirley Temple a estrela infantil mais famosa da história, Betty Grable um GI Joe pinup menina e Marilyn Monroe uma deusa do sexo", Brand foi o chefe de publicidade na 20th Century Fox de 1935 até 1962. Harry Brand viveu na América.
    O acidente de jet skibr>Wendy era apenas um motorista de jet ski amador que gostava da velocidade. Ela era jovem e descuidada e muitas vezes andava muito rápido. Um dia ela não escutava seus amigos e continuava a acelerar. Ela tentou fazer um salto perto de uma rocha e caiu horrivelmente. Seus amigos tentaram salvá-la, mas era tarde demais, ela estava morta. wendy dirigiu muito rápido enquanto em um jet ski
    Como jogar bejeweled 2 deluxebr>Mude gemas clicando sobre elas e, em seguida, clicando em uma gema adjacente (esquerda, direita, para cima ou para baixo) para trocar seus lugares para formar uma cadeia de três ou mais gemas. Quanto mais gemas você cadeia, mais pontos você ganha. [subeta] 5 gemas em uma linha produz um hiper cubo. Quanto mais gemas você acorrentar dois ou mais, mais pontos você ganha.
  • Loss: MatryoshkaLoss with these parameters:
    {
        "loss": "MultipleNegativesRankingLoss",
        "matryoshka_dims": [
            768,
            512,
            256,
            128,
            64
        ],
        "matryoshka_weights": [
            1,
            1,
            1,
            1,
            1
        ],
        "n_dims_per_step": -1
    }
    
nli_pt_fever

nli_pt_fever

  • Dataset: nli_pt_fever at 510a233
  • Size: 14,684 training samples
  • Columns: anchor and positive
  • Approximate statistics based on the first 1000 samples:
    anchor positive
    type string string
    details
    • min: 19 tokens
    • mean: 89.55 tokens
    • max: 168 tokens
    • min: 7 tokens
    • mean: 17.13 tokens
    • max: 46 tokens
  • Samples:
    anchor positive
    O morcego de nariz de porco de Kitti ( Craseonycteris thonglongyai ), também conhecido como morcego de abelha, é uma espécie vulnerável de morcego e o único membro existente da família Craseonycteridae. O morcego com nariz de porco de Kitti é uma espécie de morcego que é categorizada como vulnerável.
    Gangster é um filme de crime romântico indiano de 2006 que estreou em 28 de abril. Kangana Ranaut. Após o treinamento sob o diretor de teatro Arvind Gaur, Ranaut fez sua estréia no cinema no thriller de 2006 Gangster, pelo qual ela foi premiada com o Filmfare Award de Melhor Estreia Feminina. A estreia do longa-metragem de Kangana Ranaut foi em um filme de crime romântico indiano.
    No Japão, eles se tornaram o primeiro girl group não-japonês a ter três álbuns número um na Japanese Oricon Albums Chart, e suas três turnês de concertos japoneses atraiu um recorde de 550.000 espectadores, mais do que qualquer outro grupo feminino coreano. Kwon Yu-ri (nascido em 5 de dezembro de 1989 ), mais conhecido pelo monônimo Yuri, é um cantor e atriz sul-coreana. A geração das meninas tem meninas.
  • Loss: MatryoshkaLoss with these parameters:
    {
        "loss": "MultipleNegativesRankingLoss",
        "matryoshka_dims": [
            768,
            512,
            256,
            128,
            64
        ],
        "matryoshka_weights": [
            1,
            1,
            1,
            1,
            1
        ],
        "n_dims_per_step": -1
    }
    
nli_pt_ling

nli_pt_ling

  • Dataset: nli_pt_ling at 510a233
  • Size: 1,678 training samples
  • Columns: anchor and positive
  • Approximate statistics based on the first 1000 samples:
    anchor positive
    type string string
    details
    • min: 7 tokens
    • mean: 37.81 tokens
    • max: 154 tokens
    • min: 4 tokens
    • mean: 18.77 tokens
    • max: 78 tokens
  • Samples:
    anchor positive
    Ah, é sempre o grande, mas. Nunca é pequeno, mas
    A Suprema Corte de Vermont concedeu aos gays maiores direitos de parceria. Em Vermont, os gays agora têm mais direitos de parceria.
    Mas um verdadeiro predador que conheço está usando, vendendo e quase certamente cometendo outros crimes. Um predador que eu conheço está cometendo crimes.
  • Loss: MatryoshkaLoss with these parameters:
    {
        "loss": "MultipleNegativesRankingLoss",
        "matryoshka_dims": [
            768,
            512,
            256,
            128,
            64
        ],
        "matryoshka_weights": [
            1,
            1,
            1,
            1,
            1
        ],
        "n_dims_per_step": -1
    }
    
nli_pt_mnli

nli_pt_mnli

  • Dataset: nli_pt_mnli at 510a233
  • Size: 8,301 training samples
  • Columns: anchor and positive
  • Approximate statistics based on the first 1000 samples:
    anchor positive
    type string string
    details
    • min: 4 tokens
    • mean: 34.87 tokens
    • max: 155 tokens
    • min: 5 tokens
    • mean: 18.66 tokens
    • max: 50 tokens
  • Samples:
    anchor positive
    Mesmo o funcionário mais caloroso pode parecer indiferente em relação aos clientes que estão mal vestidos. Clientes mal vestidos ainda parecerão ser julgados até mesmo pelos funcionários mais legais.
    Lesões em acidentes de trânsito duplicaram entre 1996 e 1997. Entre 1996 e 1997, os acidentes de trânsito duplicaram.
    As principais mudanças não foram para tarefas e rotinas diárias, mas para a base de poder político, que mudou regularmente e não necessariamente pacificamente ao longo dos tempos. A base do poder político mudou muito.
  • Loss: MatryoshkaLoss with these parameters:
    {
        "loss": "MultipleNegativesRankingLoss",
        "matryoshka_dims": [
            768,
            512,
            256,
            128,
            64
        ],
        "matryoshka_weights": [
            1,
            1,
            1,
            1,
            1
        ],
        "n_dims_per_step": -1
    }
    
nli_pt_wanli

nli_pt_wanli

  • Dataset: nli_pt_wanli at 510a233
  • Size: 9,329 training samples
  • Columns: anchor and positive
  • Approximate statistics based on the first 1000 samples:
    anchor positive
    type string string
    details
    • min: 7 tokens
    • mean: 29.31 tokens
    • max: 123 tokens
    • min: 4 tokens
    • mean: 17.02 tokens
    • max: 88 tokens
  • Samples:
    anchor positive
    Uma preocupação mais prática é que as regras de etiqueta são tão complicadas que, mesmo que você as conheça, talvez não seja possível aplicá-las corretamente. É difícil seguir as regras da etiqueta.
    Como eu já disse antes, estamos todos sobre a criação de novas oportunidades para aqueles que querem tirar proveito deles. Somos todos sobre a criação de novas oportunidades para aqueles que querem tirar proveito deles.
    E se não o fizermos, então teremos que aceitar a conclusão de que nossa inteligência é inadequada. Nossa inteligência é inadequada.
  • Loss: MatryoshkaLoss with these parameters:
    {
        "loss": "MultipleNegativesRankingLoss",
        "matryoshka_dims": [
            768,
            512,
            256,
            128,
            64
        ],
        "matryoshka_weights": [
            1,
            1,
            1,
            1,
            1
        ],
        "n_dims_per_step": -1
    }
    
stsb

stsb

  • Dataset: stsb at 3acaa3d
  • Size: 5,749 training samples
  • Columns: sentence1, sentence2, and label
  • Approximate statistics based on the first 1000 samples:
    sentence1 sentence2 label
    type string string float
    details
    • min: 8 tokens
    • mean: 14.08 tokens
    • max: 36 tokens
    • min: 8 tokens
    • mean: 14.01 tokens
    • max: 29 tokens
    • min: 0.0
    • mean: 0.45
    • max: 1.0
  • Samples:
    sentence1 sentence2 label
    Um avião está a descolar. Um avião aéreo está a descolar. 1.0
    Um homem está a tocar uma grande flauta. Um homem está a tocar uma flauta. 0.7599999904632568
    Um homem está a espalhar queijo desfiado numa pizza. Um homem está a espalhar queijo desfiado sobre uma pizza não cozida. 0.7599999904632568
  • Loss: MatryoshkaLoss with these parameters:
    {
        "loss": "CoSENTLoss",
        "matryoshka_dims": [
            768,
            512,
            256,
            128,
            64
        ],
        "matryoshka_weights": [
            1,
            1,
            1,
            1,
            1
        ],
        "n_dims_per_step": -1
    }
    
assin1

assin1

  • Dataset: assin1 at 6535e48
  • Size: 5,000 training samples
  • Columns: sentence1, sentence2, and label
  • Approximate statistics based on the first 1000 samples:
    sentence1 sentence2 label
    type string string float
    details
    • min: 11 tokens
    • mean: 26.07 tokens
    • max: 56 tokens
    • min: 10 tokens
    • mean: 22.51 tokens
    • max: 47 tokens
    • min: 0.2
    • mean: 0.61
    • max: 1.0
  • Samples:
    sentence1 sentence2 label
    A gente faz o aporte financeiro, é como se a empresa fosse parceira do Monte Cristo. Fernando Moraes afirma que não tem vínculo com o Monte Cristo além da parceira. 0.4
    Em 2013, a história de como Walt Disney convenceu P.L. P.L.Travers era completamente contra a adaptação de Walt Disney. 0.45
    David Silva bateu escanteio, Kompany escalou as costas de Chiellini e o zagueiro marcou contra. David Silva cobrou escanteio, o zagueiro se apoiou em Chiellini e cabeceou. 0.75
  • Loss: MatryoshkaLoss with these parameters:
    {
        "loss": "CoSENTLoss",
        "matryoshka_dims": [
            768,
            512,
            256,
            128,
            64
        ],
        "matryoshka_weights": [
            1,
            1,
            1,
            1,
            1
        ],
        "n_dims_per_step": -1
    }
    
assin2

assin2

  • Dataset: assin2 at 0ff9c86
  • Size: 6,500 training samples
  • Columns: sentence1, sentence2, and label
  • Approximate statistics based on the first 1000 samples:
    sentence1 sentence2 label
    type string string float
    details
    • min: 5 tokens
    • mean: 14.66 tokens
    • max: 41 tokens
    • min: 5 tokens
    • mean: 13.82 tokens
    • max: 41 tokens
    • min: 0.3
    • mean: 0.93
    • max: 1.0
  • Samples:
    sentence1 sentence2 label
    Uma criança risonha está segurando uma pistola de água e sendo espirrada com água Uma criança está segurando uma pistola de água 0.9
    Os homens estão cuidadosamente colocando as malas no porta-malas de um carro Os homens estão colocando bagagens dentro do porta-malas de um carro 0.9
    Uma pessoa tem cabelo loiro e esvoaçante e está tocando violão Um guitarrista tem cabelo loiro e esvoaçante 0.9399999618530274
  • Loss: MatryoshkaLoss with these parameters:
    {
        "loss": "CoSENTLoss",
        "matryoshka_dims": [
            768,
            512,
            256,
            128,
            64
        ],
        "matryoshka_weights": [
            1,
            1,
            1,
            1,
            1
        ],
        "n_dims_per_step": -1
    }
    
IRIS_sts

IRIS_sts

  • Dataset: IRIS_sts at 8adf343
  • Size: 1,667 training samples
  • Columns: sentence1, sentence2, and label
  • Approximate statistics based on the first 1000 samples:
    sentence1 sentence2 label
    type string string float
    details
    • min: 15 tokens
    • mean: 38.84 tokens
    • max: 84 tokens
    • min: 14 tokens
    • mean: 37.63 tokens
    • max: 79 tokens
    • min: 0.0
    • mean: 0.52
    • max: 1.0
  • Samples:
    sentence1 sentence2 label
    A questão da existência de uma presunção constitui antecedente lógico da elisão dessa presunção. Constitui requisito de existência da presunção de aceitação do despedimento por extinção do posto de trabalho, a que se refere o art. 0.483483258943473
    Com efeito, nesse caso do que se tratará será de uma errada aplicação do direito aos factos, designadamente aos considerados provados. Isto é: não se extraíram as consequências jurídicas adequadas do que provado se considerou. 0.4286842926170479
    II - É nula a sentença de regulação das responsabilidades parentais cuja motivação se apoia em relatórios do ISS de cujo teor as partes não foram notificadas. II - A decisão sobre as responsabilidades parentais é inválida se ela foi baseada em relatórios do ISS que as partes não foram informadas. 0.816343029699518
  • Loss: MatryoshkaLoss with these parameters:
    {
        "loss": "CoSENTLoss",
        "matryoshka_dims": [
            768,
            512,
            256,
            128,
            64
        ],
        "matryoshka_weights": [
            1,
            1,
            1,
            1,
            1
        ],
        "n_dims_per_step": -1
    }
    
sick_br

sick_br

  • Dataset: sick_br at 0cdfb1d
  • Size: 4,439 training samples
  • Columns: sentence1, sentence2, and label
  • Approximate statistics based on the first 1000 samples:
    sentence1 sentence2 label
    type string string float
    details
    • min: 6 tokens
    • mean: 14.86 tokens
    • max: 34 tokens
    • min: 6 tokens
    • mean: 14.52 tokens
    • max: 35 tokens
    • min: 0.2
    • mean: 0.68
    • max: 1.0
  • Samples:
    sentence1 sentence2 label
    Um grupo de crianças está brincando em um quintal e um homem velho está parado ao fundo Um grupo de meninos em um quintal está brincando e um homem está de pé ao fundo 0.9
    Um grupo de crianças está brincando na casa e não tem nenhum homem parado ao fundo Um grupo de crianças está brincando em um quintal e um homem velho está parado ao fundo 0.64
    Os meninos jovens estão brincando ao ar livre e o homem está sorrindo por perto As crianças estão brincando ao ar livre perto de um homem com um sorriso 0.9400000000000001
  • Loss: MatryoshkaLoss with these parameters:
    {
        "loss": "CoSENTLoss",
        "matryoshka_dims": [
            768,
            512,
            256,
            128,
            64
        ],
        "matryoshka_weights": [
            1,
            1,
            1,
            1,
            1
        ],
        "n_dims_per_step": -1
    }
    
mldr

mldr

  • Dataset: mldr at 40ad767
  • Size: 1,845 training samples
  • Columns: anchor, positive, and negative
  • Approximate statistics based on the first 1000 samples:
    anchor positive negative
    type string string string
    details
    • min: 8 tokens
    • mean: 20.85 tokens
    • max: 114 tokens
    • min: 512 tokens
    • mean: 512.0 tokens
    • max: 512 tokens
    • min: 512 tokens
    • mean: 512.0 tokens
    • max: 512 tokens
  • Samples:
    anchor positive negative
    Quais são os principais mecanismos usados pela fagocitose para remover patógenos e restos celulares? Fagocitose

    Fagocitose ( do grego antigo, "φαγεῖν" (phagein), "devorar" , "κύτος" (kytos), "células") é o processo pelo qual uma célula usa sua membrana plasmática para englobar partículas grandes (≥ 0,5 μm), dando origem a um compartimento interno chamado fagossoma.
    Nos sistemas imunológicos de organismos multicelulares, a fagocitose é um dos principais mecanismos usados para remover patógenos e restos celulares. O material ingerido é então digerido no fagossoma. Bactérias, células de tecidos mortos e pequenas partículas minerais são exemplos de objetos que podem ser fagocitados. Alguns protozoários usam a fagocitose como meio de obter nutrientes.
    História.
    A fagocitose foi observada pela primeira vez pelo médico canadense William Osler (1876), e mais tarde estudada e nomeada por Élie Metchnikoff (1880, 1883).
    No sistema imunológico.
    A fagocitose é um dos principais mecanismos da resposta imune inata. É um dos primeiros mecanismos de resposta à infecção e um dos ramos iniciais de uma ...
    Vespa

    Vespa, marimbondo ou cabatão é o nome comum aplicado a diversas espécies de insetos pertencentes à subordem Apocrita da ordem Hymenoptera. Na definição mais abrangente, este nome é utilizado para se referir a qualquer himenóptero que não é abelha nem formiga. Em geral, faz-se a distinção das vespas-serra, himenópteros sem pecíolo que são considerados como uma subordem distinta, Symphyta. As vespas não constituem um clado, ou seja, o termo não representa um grupo natural de organismos que inclui todos os descendentes de um grupo ancestral.
    As vespas mais popularmente conhecidas pertencem à família Vespidae e são eusociais, vivendo juntas em um ninho com uma rainha que põe ovos e operárias que não se reproduzem. No entanto, a maioria das espécies de vespas são solitárias, com cada fêmea adulta vivendo e se reproduzindo independentemente. As vespas desempenham muitos papéis ecológicos, incluindo espécies tanto fitófagas quanto entomófagas. Muitas, como as vespas-cuco, são cleptopar...
    Quais são as características principais do cálcio? Cálcio

    O cálcio é um elemento químico, símbolo Ca, de número atómico 20 (20 prótons e 20 elétrons) e massa atómica 40u. É um metal da família dos alcalino-terrosos, pertencente ao grupo 2 da classificação periódica dos elementos químicos.
    Foi isolado pela primeira vez em 1808, em uma forma impura, pelo químico britânico Humphry Davy mediante a eletrólise de uma amálgama de mercúrio (HgO) e cal (CaO).
    Características principais.
    O cálcio é um metal alcalino-terroso, mole, maleável e dúctil que arde com chama vermelha formando óxido de cálcio e nitreto.
    As superfícies são de coloração branca prateada que rapidamente se tornam levemente amareladas quando
    expostas ao ar, finalmente com coloração cinza ou branca devido à formação de hidróxido ao reagir com a umidade ambiental. Reage violentamente com a água para formar o hidróxido de cálcio, Ca(OH)2, com desprendimento de hidrogênio.
    Papel biológico.
    O cálcio (Ca2+) é um elemento regulador universal que acopla intimamente os sinais biótico...
    Humidade

    A é a quantidade de vapor de água na atmosfera. Fisicamente, a humidade relativa é definida como a razão da quantidade de vapor de água presente numa porção da atmosfera (pressão parcial de vapor) com a quantidade máxima de vapor de água que a atmosfera pode suportar a uma determinada temperatura (pressão de vapor). A humidade relativa é uma importante variável (medida) usada na previsão do tempo, e indica a possibilidade de precipitação (chuva, neve, granizo, entre outros), orvalho ou nevoeiro.
    A alta humidade durante dias quentes faz a sensação térmica aumentar, ou seja, a pessoa tem a impressão de que está mais calor, devido à redução da eficácia da transpiração da pele, e assim reduzindo o resfriamento corporal. Por outro lado, a baixa humidade dos desertos causa uma grande diferença de temperatura entre o dia e a noite. Este efeito é calculado pela tabela de índice de calor.
    Tipos de humidade.
    Humidade absoluta (base volumétrica).
    A humidade absoluta em uma base volumétr...
    Quais são os ésteres mais comuns encontrados na natureza? Éster

    Na química, a função éster é caracterizada pela estrutura R-COOR'. Os ésteres carboxílicos apresentam uma alcoxila ligada à uma carbonila e são usualmente resultantes de uma reação entre álcoois (em alguns casos, fenóis) e ácidos carboxílico, e o resultado é a substituição de um átomo de hidrogênio presente na carboxila (-COOH) dos ácidos carboxílicos por um grupo alquila (R) ou arila (Ar). Já os ésteres inorgânicos resultam de reações entre álcoois e oxiácidos inorgânicos, de modo que o ácido perde um próton (H+) e se liga à cadeia que outrora pertencia a um álcool, após a perda da hidroxila (OH-) por esta molécula. Assim, reações de esterificação - como são denominadas as reações entre álcoois/fenóis e ácidos -também produzem água (HOH ou H2O).
    Os ésteres mais comuns que se encontram na natureza são os triglicerídeos - triésteres de glicerina - constituintes de óleos e gorduras indispensáveis à alimentação humana. Além disso, também ocorrem no aroma das flores e no sabor dos f...
    Literatura

    A Literatura é a arte que usa a linguagem escrita como meio de expressão, seja em prosa ou em verso, de acordo com princípios teóricos e práticos; sendo o conjunto de obras escritas ou orais às quais reconhecemos um valor estético. A Literatura abrange qualquer coleção de obras escritas, incluindo escrita impressa e digital.
    Etimologia.
    A palavra Literatura vem do latim "litteris" que significa "Letras", e possivelmente uma tradução do grego "grammatikee". Em latim, literatura significa uma instrução ou um conjunto de saberes ou habilidades de escrever e ler bem, e se relaciona com as técnicas da gramática, da retórica e da poética. Por extensão, se refere especificamente ao ofício de escrever. O termo Literatura também é usado como referência a um conjunto escolhido de textos, por exemplo a literatura portuguesa, a literatura espanhola, a literatura inglesa, a literatura brasileira, a literatura japonesa, etc.
    Definição.
    Mais produtivo do que tentar definir Literatura talv...
  • Loss: MatryoshkaLoss with these parameters:
    {
        "loss": "MultipleNegativesRankingLoss",
        "matryoshka_dims": [
            768,
            512,
            256,
            128,
            64
        ],
        "matryoshka_weights": [
            1,
            1,
            1,
            1,
            1
        ],
        "n_dims_per_step": -1
    }
    

Evaluation Datasets

stsb

stsb

  • Dataset: stsb at 3acaa3d
  • Size: 1,500 evaluation samples
  • Columns: sentence1, sentence2, and label
  • Approximate statistics based on the first 1000 samples:
    sentence1 sentence2 label
    type string string float
    details
    • min: 6 tokens
    • mean: 20.87 tokens
    • max: 76 tokens
    • min: 8 tokens
    • mean: 20.87 tokens
    • max: 73 tokens
    • min: 0.0
    • mean: 0.42
    • max: 1.0
  • Samples:
    sentence1 sentence2 label
    Um homem de chapéu duro está a dançar. Um homem com um capacete está a dançar. 1.0
    Uma criança pequena está a montar a cavalo. Uma criança está a montar a cavalo. 0.95
    Um homem está a alimentar um rato a uma cobra. O homem está a alimentar a cobra com um rato. 1.0
  • Loss: MatryoshkaLoss with these parameters:
    {
        "loss": "CoSENTLoss",
        "matryoshka_dims": [
            768,
            512,
            256,
            128,
            64
        ],
        "matryoshka_weights": [
            1,
            1,
            1,
            1,
            1
        ],
        "n_dims_per_step": -1
    }
    
assin2

assin2

  • Dataset: assin2 at 0ff9c86
  • Size: 500 evaluation samples
  • Columns: sentence1, sentence2, and label
  • Approximate statistics based on the first 500 samples:
    sentence1 sentence2 label
    type string string float
    details
    • min: 6 tokens
    • mean: 13.73 tokens
    • max: 32 tokens
    • min: 6 tokens
    • mean: 13.69 tokens
    • max: 38 tokens
    • min: 0.2
    • mean: 0.79
    • max: 1.0
  • Samples:
    sentence1 sentence2 label
    Uma pequena menina está sorrindo e usando um nariz falso e óculos A menina pequena está sorrindo e usando um nariz falso e óculos 0.9800000190734863
    Um grupo de pessoas jogando futebol está correndo no campo Um grupo de jogadores de futebol está correndo no campo 0.9600000381469727
    O homem está empinando uma motocicleta num chão que é praticamente árido O homem está desmontando de uma moto para um chão que é praticamente árido 0.7199999809265136
  • Loss: MatryoshkaLoss with these parameters:
    {
        "loss": "CoSENTLoss",
        "matryoshka_dims": [
            768,
            512,
            256,
            128,
            64
        ],
        "matryoshka_weights": [
            1,
            1,
            1,
            1,
            1
        ],
        "n_dims_per_step": -1
    }
    
IRIS_sts

IRIS_sts

  • Dataset: IRIS_sts at 8adf343
  • Size: 556 evaluation samples
  • Columns: sentence1, sentence2, and label
  • Approximate statistics based on the first 556 samples:
    sentence1 sentence2 label
    type string string float
    details
    • min: 19 tokens
    • mean: 38.3 tokens
    • max: 83 tokens
    • min: 16 tokens
    • mean: 37.79 tokens
    • max: 131 tokens
    • min: 0.0
    • mean: 0.5
    • max: 1.0
  • Samples:
    sentence1 sentence2 label
    Nos termos do disposto no artigo 1083. do CPC, constituindo, como é o caso, dependência de outro processo judicial, a competência para o inventário é exclusiva dos tribunais cfr. Essa norma existe relativamente à provisão para despesas, pois que o n 10 do art. 0.09996932915109477
    II - Da insolvência de um dos ex-cônjuges não decorre necessariamente a insolvência do património comum do ex-casal, não obstante, como é sabido, o art. II - A apensação de processos de expropriação de parcelas contíguas e do mesmo dono resulta do art. 0.15428183762417896
    44, n. 1, do suscitar antecipadamente nove questões de inconstitucionalidade, nos termos e para os efeitos dos art.os 7, n. 1, al. 41, do CPP, oportunidade que o mesmo aproveitou reiterando a arguição das inconstitucionalidades. 0.2198436643850504
  • Loss: MatryoshkaLoss with these parameters:
    {
        "loss": "CoSENTLoss",
        "matryoshka_dims": [
            768,
            512,
            256,
            128,
            64
        ],
        "matryoshka_weights": [
            1,
            1,
            1,
            1,
            1
        ],
        "n_dims_per_step": -1
    }
    
sick_br

sick_br

  • Dataset: sick_br at 0cdfb1d
  • Size: 495 evaluation samples
  • Columns: sentence1, sentence2, and label
  • Approximate statistics based on the first 495 samples:
    sentence1 sentence2 label
    type string string float
    details
    • min: 6 tokens
    • mean: 14.93 tokens
    • max: 41 tokens
    • min: 6 tokens
    • mean: 14.36 tokens
    • max: 39 tokens
    • min: 0.2
    • mean: 0.72
    • max: 1.0
  • Samples:
    sentence1 sentence2 label
    Os meninos jovens estão brincando ao ar livre e o homem está sorrindo por perto Não tem nenhum menino brincando ao ar livre e não tem nenhum homem sorrindo 0.72
    Uma pessoa de blusa preta está fazendo truques em uma moto Uma pessoa habilidosa está andando de bicicleta sobre uma roda 0.6799999999999999
    Quatro crianças estão fazendo ponte na academia Quatro garotas estão fazendo ponte e brincando ao ar livre 0.76
  • Loss: MatryoshkaLoss with these parameters:
    {
        "loss": "CoSENTLoss",
        "matryoshka_dims": [
            768,
            512,
            256,
            128,
            64
        ],
        "matryoshka_weights": [
            1,
            1,
            1,
            1,
            1
        ],
        "n_dims_per_step": -1
    }
    

Training Hyperparameters

Non-Default Hyperparameters

  • per_device_train_batch_size: 128
  • num_train_epochs: 30
  • warmup_steps: 0.1
  • weight_decay: 0.2
  • gradient_accumulation_steps: 4
  • fp16: True
  • gradient_checkpointing: True
  • gradient_checkpointing_kwargs: {'use_reentrant': False}
  • eval_strategy: steps

All Hyperparameters

Click to expand
  • per_device_train_batch_size: 128
  • num_train_epochs: 30
  • max_steps: -1
  • learning_rate: 5e-05
  • lr_scheduler_type: linear
  • lr_scheduler_kwargs: None
  • warmup_steps: 0.1
  • optim: adamw_torch_fused
  • optim_args: None
  • weight_decay: 0.2
  • adam_beta1: 0.9
  • adam_beta2: 0.999
  • adam_epsilon: 1e-08
  • optim_target_modules: None
  • gradient_accumulation_steps: 4
  • average_tokens_across_devices: True
  • max_grad_norm: 1.0
  • label_smoothing_factor: 0.0
  • bf16: False
  • fp16: True
  • bf16_full_eval: False
  • fp16_full_eval: False
  • tf32: None
  • gradient_checkpointing: True
  • gradient_checkpointing_kwargs: {'use_reentrant': False}
  • torch_compile: False
  • torch_compile_backend: None
  • torch_compile_mode: None
  • use_liger_kernel: False
  • liger_kernel_config: None
  • use_cache: False
  • neftune_noise_alpha: None
  • torch_empty_cache_steps: None
  • auto_find_batch_size: False
  • log_on_each_node: True
  • logging_nan_inf_filter: True
  • include_num_input_tokens_seen: no
  • log_level: passive
  • log_level_replica: warning
  • disable_tqdm: False
  • project: huggingface
  • trackio_space_id: trackio
  • eval_strategy: steps
  • per_device_eval_batch_size: 8
  • prediction_loss_only: True
  • eval_on_start: False
  • eval_do_concat_batches: True
  • eval_use_gather_object: False
  • eval_accumulation_steps: None
  • include_for_metrics: []
  • batch_eval_metrics: False
  • save_only_model: False
  • save_on_each_node: False
  • enable_jit_checkpoint: False
  • push_to_hub: False
  • hub_private_repo: None
  • hub_model_id: None
  • hub_strategy: every_save
  • hub_always_push: False
  • hub_revision: None
  • load_best_model_at_end: False
  • ignore_data_skip: False
  • restore_callback_states_from_checkpoint: False
  • full_determinism: False
  • seed: 42
  • data_seed: None
  • use_cpu: False
  • accelerator_config: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
  • parallelism_config: None
  • dataloader_drop_last: False
  • dataloader_num_workers: 0
  • dataloader_pin_memory: True
  • dataloader_persistent_workers: False
  • dataloader_prefetch_factor: None
  • remove_unused_columns: True
  • label_names: None
  • train_sampling_strategy: random
  • length_column_name: length
  • ddp_find_unused_parameters: None
  • ddp_bucket_cap_mb: None
  • ddp_broadcast_buffers: False
  • ddp_backend: None
  • ddp_timeout: 1800
  • fsdp: []
  • fsdp_config: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
  • deepspeed: None
  • debug: []
  • skip_memory_metrics: True
  • do_predict: False
  • resume_from_checkpoint: None
  • warmup_ratio: None
  • local_rank: -1
  • prompts: None
  • batch_sampler: batch_sampler
  • multi_dataset_batch_sampler: proportional
  • router_mapping: {}
  • learning_rate_mapping: {}

Training Logs

Epoch Step Training Loss stsb loss assin2 loss IRIS sts loss sick br loss stsb-pt-dev-768_spearman_cosine assin2-dev-768_spearman_cosine iris_sts-dev-768_spearman_cosine sick_br_dev-768_spearman_cosine stsb-pt-dev-512_spearman_cosine assin2-dev-512_spearman_cosine iris_sts-dev-512_spearman_cosine sick_br_dev-512_spearman_cosine stsb-pt-dev-256_spearman_cosine assin2-dev-256_spearman_cosine iris_sts-dev-256_spearman_cosine sick_br_dev-256_spearman_cosine stsb-pt-dev-128_spearman_cosine assin2-dev-128_spearman_cosine iris_sts-dev-128_spearman_cosine sick_br_dev-128_spearman_cosine stsb-pt-dev-64_spearman_cosine assin2-dev-64_spearman_cosine iris_sts-dev-64_spearman_cosine sick_br_dev-64_spearman_cosine stsb-test-768_spearman_cosine assin2-test-768_spearman_cosine iris_sts-test-768_spearman_cosine stsb-test-512_spearman_cosine assin2-test-512_spearman_cosine iris_sts-test-512_spearman_cosine stsb-test-256_spearman_cosine assin2-test-256_spearman_cosine iris_sts-test-256_spearman_cosine stsb-test-128_spearman_cosine assin2-test-128_spearman_cosine iris_sts-test-128_spearman_cosine stsb-test-64_spearman_cosine assin2-test-64_spearman_cosine iris_sts-test-64_spearman_cosine
0.7547 100 23.3853 - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
1.5057 200 19.1570 - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
1.8830 250 - 20.6511 14.0714 16.9976 14.5690 0.7519 0.8423 0.6980 0.7932 0.7437 0.8470 0.6984 0.7935 0.7453 0.8489 0.6908 0.7913 0.7390 0.8528 0.6822 0.7877 0.7332 0.8506 0.6796 0.7923 - - - - - - - - - - - - - - -
2.2566 300 16.9728 - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
3.0075 400 15.9449 - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
3.7623 500 15.0570 24.3972 13.0415 17.6158 14.2936 0.7653 0.8977 0.7209 0.8156 0.7580 0.8998 0.7195 0.8139 0.7584 0.9014 0.7090 0.8115 0.7496 0.9003 0.6951 0.8065 0.7413 0.8941 0.6907 0.8020 - - - - - - - - - - - - - - -
4.5132 600 15.0516 - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
5.2642 700 14.7866 - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
5.6415 750 - 25.6510 12.7629 18.3379 14.1812 0.7811 0.9102 0.7358 0.8300 0.7759 0.9114 0.7343 0.8294 0.7733 0.9137 0.7233 0.8255 0.7652 0.9105 0.7084 0.8208 0.7559 0.9087 0.6895 0.8121 - - - - - - - - - - - - - - -
6.0151 800 15.7474 - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
6.7698 900 14.5083 - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
7.5208 1000 14.7007 27.4414 11.6185 19.2968 15.2112 0.7717 0.9345 0.7197 0.8286 0.7673 0.9367 0.7183 0.8273 0.7649 0.9380 0.7103 0.8249 0.7565 0.9385 0.6900 0.8231 0.7453 0.9359 0.6880 0.8137 - - - - - - - - - - - - - - -
8.2717 1100 13.8747 - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
9.0226 1200 15.0935 - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
9.4 1250 - 21.6419 11.4962 17.0134 14.9901 0.8058 0.9393 0.7316 0.8275 0.8024 0.9405 0.7305 0.8264 0.8019 0.9411 0.7227 0.8246 0.7958 0.9420 0.7048 0.8251 0.7866 0.9404 0.7000 0.8175 - - - - - - - - - - - - - - -
9.7774 1300 15.0197 - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
10.5283 1400 13.2957 - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
11.2792 1500 14.0546 22.8311 11.2740 17.8541 15.6839 0.8149 0.9470 0.7335 0.8405 0.8117 0.9478 0.7332 0.8397 0.8103 0.9481 0.7245 0.8403 0.8053 0.9474 0.7018 0.8377 0.7961 0.9452 0.6923 0.8309 - - - - - - - - - - - - - - -
12.0302 1600 14.1797 - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
12.7849 1700 14.2496 - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
13.1585 1750 - 24.6434 10.9457 19.5776 16.8540 0.8139 0.9499 0.7646 0.8399 0.8109 0.9513 0.7637 0.8374 0.8110 0.9514 0.7562 0.8348 0.8068 0.9505 0.7410 0.8339 0.7991 0.9490 0.7390 0.8282 - - - - - - - - - - - - - - -
13.5358 1800 11.9919 - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
14.2868 1900 14.6529 - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
15.0377 2000 13.0391 25.0762 10.8739 19.7243 16.6748 0.8145 0.9589 0.7669 0.8408 0.8120 0.9599 0.7680 0.8380 0.8115 0.9604 0.7629 0.8386 0.8074 0.9608 0.7474 0.8360 0.7969 0.9586 0.7432 0.8318 - - - - - - - - - - - - - - -
15.7925 2100 13.3809 - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
16.5434 2200 13.4746 - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
16.9208 2250 - 24.8137 10.1393 19.8636 18.1878 0.8205 0.9607 0.7793 0.8433 0.8179 0.9617 0.7793 0.8408 0.8171 0.9618 0.7755 0.8387 0.8130 0.9622 0.7607 0.8367 0.8035 0.9604 0.7539 0.8337 - - - - - - - - - - - - - - -
17.2943 2300 13.5989 - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
18.0453 2400 12.7414 - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
18.8 2500 13.7124 26.1516 10.5627 23.5422 19.2965 0.8245 0.9644 0.7816 0.8463 0.8220 0.9649 0.7833 0.8439 0.8213 0.9646 0.7794 0.8435 0.8169 0.9648 0.7676 0.8418 0.8081 0.9624 0.7628 0.8397 - - - - - - - - - - - - - - -
19.5509 2600 11.9718 - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
20.3019 2700 12.6571 - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
20.6792 2750 - 24.9126 9.5464 23.1393 20.5120 0.8369 0.9695 0.7922 0.8396 0.8353 0.9696 0.7938 0.8379 0.8345 0.9701 0.7908 0.8377 0.8313 0.9703 0.7812 0.8350 0.8230 0.9686 0.7781 0.8330 - - - - - - - - - - - - - - -
21.0528 2800 12.5976 - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
21.8075 2900 12.7995 - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
22.5585 3000 11.8502 25.9417 9.3069 24.8867 22.2719 0.8381 0.9708 0.7891 0.8382 0.8362 0.9712 0.7897 0.8358 0.8352 0.9718 0.7868 0.8352 0.8326 0.9718 0.7763 0.8338 0.8230 0.9707 0.7715 0.8305 - - - - - - - - - - - - - - -
23.3094 3100 11.8285 - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
24.0604 3200 12.1236 - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
24.4377 3250 - 26.4623 9.1304 25.6271 23.7356 0.8407 0.9733 0.7910 0.8432 0.8389 0.9736 0.7919 0.8410 0.8379 0.9741 0.7897 0.8404 0.8351 0.9737 0.7799 0.8392 0.8269 0.9727 0.7751 0.8367 - - - - - - - - - - - - - - -
24.8151 3300 12.1883 - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
25.5660 3400 11.5296 - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
26.3170 3500 11.0316 26.5311 8.7224 28.0848 24.9825 0.8427 0.9757 0.7899 0.8378 0.8412 0.9760 0.7902 0.8356 0.8404 0.9765 0.7882 0.8356 0.8385 0.9758 0.7803 0.8354 0.8301 0.9749 0.7783 0.8329 - - - - - - - - - - - - - - -
27.0679 3600 11.9298 - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
27.8226 3700 11.1397 - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
28.1962 3750 - 26.9423 8.7205 29.0488 26.1499 0.8432 0.9765 0.7912 0.8360 0.8413 0.9769 0.7917 0.8334 0.8405 0.9774 0.7895 0.8333 0.8390 0.9768 0.7833 0.8330 0.8305 0.9762 0.7795 0.8296 - - - - - - - - - - - - - - -
28.5736 3800 11.0812 - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
29.3245 3900 11.4136 - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
-1 -1 - - - - - - - - 0.9027 - - - 0.9019 - - - 0.9010 - - - 0.9008 - - - 0.8985 0.8033 0.8136 0.7874 0.8021 0.8123 0.7904 0.7985 0.8111 0.7868 0.7937 0.8087 0.7816 0.7839 0.8062 0.7733

Framework Versions

  • Python: 3.11.12
  • Sentence Transformers: 5.3.0
  • Transformers: 5.3.0
  • PyTorch: 2.10.0+cu128
  • Accelerate: 1.13.0
  • Datasets: 4.8.3
  • Tokenizers: 0.22.2

Citation

BibTeX

Sentence Transformers

@inproceedings{reimers-2019-sentence-bert,
    title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
    author = "Reimers, Nils and Gurevych, Iryna",
    booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
    month = "11",
    year = "2019",
    publisher = "Association for Computational Linguistics",
    url = "https://arxiv.org/abs/1908.10084",
}

MatryoshkaLoss

@misc{kusupati2024matryoshka,
    title={Matryoshka Representation Learning},
    author={Aditya Kusupati and Gantavya Bhatt and Aniket Rege and Matthew Wallingford and Aditya Sinha and Vivek Ramanujan and William Howard-Snyder and Kaifeng Chen and Sham Kakade and Prateek Jain and Ali Farhadi},
    year={2024},
    eprint={2205.13147},
    archivePrefix={arXiv},
    primaryClass={cs.LG}
}

MultipleNegativesRankingLoss

@misc{oord2019representationlearningcontrastivepredictive,
      title={Representation Learning with Contrastive Predictive Coding},
      author={Aaron van den Oord and Yazhe Li and Oriol Vinyals},
      year={2019},
      eprint={1807.03748},
      archivePrefix={arXiv},
      primaryClass={cs.LG},
      url={https://arxiv.org/abs/1807.03748},
}

CoSENTLoss

@article{10531646,
    author={Huang, Xiang and Peng, Hao and Zou, Dongcheng and Liu, Zhiwei and Li, Jianxin and Liu, Kay and Wu, Jia and Su, Jianlin and Yu, Philip S.},
    journal={IEEE/ACM Transactions on Audio, Speech, and Language Processing},
    title={CoSENT: Consistent Sentence Embedding via Similarity Ranking},
    year={2024},
    doi={10.1109/TASLP.2024.3402087}
}
Downloads last month
18
Safetensors
Model size
0.1B params
Tensor type
F32
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for iara-project/ModBERTBr-matryoshka-sts-pt-v2

Finetuned
(3)
this model

Datasets used to train iara-project/ModBERTBr-matryoshka-sts-pt-v2

Papers for iara-project/ModBERTBr-matryoshka-sts-pt-v2

Evaluation results