multifuly commited on
Commit
f98329f
·
verified ·
1 Parent(s): 3b65169

Upload fine-tuned reranker model from Colab

Browse files
Files changed (5) hide show
  1. README.md +304 -2
  2. config.json +40 -0
  3. model.safetensors +3 -0
  4. tokenizer.json +3 -0
  5. tokenizer_config.json +24 -0
README.md CHANGED
@@ -1,3 +1,305 @@
1
  ---
2
- license: mit
3
- ---
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
  ---
2
+ tags:
3
+ - sentence-transformers
4
+ - cross-encoder
5
+ - reranker
6
+ - generated_from_trainer
7
+ - dataset_size:7598
8
+ - loss:BinaryCrossEntropyLoss
9
+ base_model: Dongjin-kr/ko-reranker
10
+ pipeline_tag: text-ranking
11
+ library_name: sentence-transformers
12
+ ---
13
+
14
+ # CrossEncoder based on Dongjin-kr/ko-reranker
15
+
16
+ This is a [Cross Encoder](https://www.sbert.net/docs/cross_encoder/usage/usage.html) model finetuned from [Dongjin-kr/ko-reranker](https://huggingface.co/Dongjin-kr/ko-reranker) using the [sentence-transformers](https://www.SBERT.net) library. It computes scores for pairs of texts, which can be used for text reranking and semantic search.
17
+
18
+ ## Model Details
19
+
20
+ ### Model Description
21
+ - **Model Type:** Cross Encoder
22
+ - **Base model:** [Dongjin-kr/ko-reranker](https://huggingface.co/Dongjin-kr/ko-reranker) <!-- at revision 8c2ab1a833734491fd3158164dd2b7d8b28e071c -->
23
+ - **Maximum Sequence Length:** 256 tokens
24
+ - **Number of Output Labels:** 1 label
25
+ <!-- - **Training Dataset:** Unknown -->
26
+ <!-- - **Language:** Unknown -->
27
+ <!-- - **License:** Unknown -->
28
+
29
+ ### Model Sources
30
+
31
+ - **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
32
+ - **Documentation:** [Cross Encoder Documentation](https://www.sbert.net/docs/cross_encoder/usage/usage.html)
33
+ - **Repository:** [Sentence Transformers on GitHub](https://github.com/huggingface/sentence-transformers)
34
+ - **Hugging Face:** [Cross Encoders on Hugging Face](https://huggingface.co/models?library=sentence-transformers&other=cross-encoder)
35
+
36
+ ## Usage
37
+
38
+ ### Direct Usage (Sentence Transformers)
39
+
40
+ First install the Sentence Transformers library:
41
+
42
+ ```bash
43
+ pip install -U sentence-transformers
44
+ ```
45
+
46
+ Then you can load this model and run inference.
47
+ ```python
48
+ from sentence_transformers import CrossEncoder
49
+
50
+ # Download from the 🤗 Hub
51
+ model = CrossEncoder("cross_encoder_model_id")
52
+ # Get scores for pairs of texts
53
+ pairs = [
54
+ ['외식경영과 전공 추천 자격증', '[자격증명: 소방시설관리사] 자격증명: 소방시설관리사 | 유형: 국가전문자격 | 분야: 소방방재 | NCS분류: 법률.경찰.소방.교도.국방 | 등급: 34 | 관련전공: AI산업안전시스템, 산업소방안전과, 산업안전과, 산업안전관리과, 산업안전보건과, 산업안전보건융합학과, 산업안전융합학과, 산업안전전공, 산업안전학부, 산업안전환경계열, 스마트안전융합과, 안전및산업경영공학과, 안전및산업경영공학과(2년제), 안전및산업경영과, 안전소방학과, 안전특성화계열, 융합안전공학과, 재난건설안전과, 재난시설안전과, 소방안전관리과, 소방ᆞ산업안전관리학과, 소방구조구급과, 소방방재과, 소방방재안전과, 소방안전과, 소방안전관리과(P-TECH), 소방안전관리전공, 소방안전관리학과(3년제), 소방안전융합과, 소방재난안전과, 소방재난안전학과, 소방행정・안전관리과, 소방환경방재과, 소방환경안전과, 재난소방・건설안전과, 재난안전시스템과, 건설안전공학과, 산업안전학과, 안전보건학과, 건설스마트안전공학과, 건설시스템안전공학과, 방재안전공학'],
55
+ ['일본어과 전공 추천 자격증', '[자격증명: 건강운동관리사] 자격증명: 건강운동관리사 | 유형: 국가전문자격 | 분야: 스포츠 | NCS분류: 이용.숙박.여행.오락.스포츠 | 관련전공: AI보건정보관리학과, 공공복지정보관리학과, 공공서비스학부(헬스케어서비스전공), 공중보건학과, 공중보건학전공, 바이오헬스융합대학, 바이오헬스컨디셔닝학과, 보건건강관리학과(보건건강관리전공), 보건과학대학, 보건과학부, 보건관리전공, 보건관리학과, 보건관리학과(자연과학), 보건산업유통학전공, 보건안전전공, 보건의료경영전공, 보건의료경영학과, 보건의료관리학과, 보건의료복지학과, 보건의료복지학과(인문사회계열), 보건의료정보관리학전공, 보건의료학부, 보건의료행정전공, 보건학부, 보건환경학부, 뷰티건강디자인학과, 산업보건학과, 산업보건학전공, 산업안전보건전공, 실버보건학과, 융합보건학과, 헬스케어융합학부(자연과학), 레저해양스포츠학과, 해양레저관광학과, 해양레저학과, 해양스포츠ᆞ레저융합학과, 해양스포츠과학과, 해양스포츠전공, 해양스포츠학과, 해양체육학과, 해양치유레'],
56
+ ['세무경영과 학과인데 뭐 따면 좋을까', '[자격증명: 무대예술전문인(무대기계) 2급] 자격증명: 무대예술전문인(무대기계) 2급 | 유형: 국가전문자격 | 분야: 방송기술 | NCS분류: 정보통신 | 관련전공: 공연미디어콘텐츠계열, 공연미디어콘텐츠과, 공연예술과, 공연예술과(3년제), 공연창작학부, 아트앤플레이군, 한국문화예술과, AI서비스마케팅학과, 공항홍보전공, 광고.PR.브랜딩전공, 광고PR전공, 광고PR학과, 광고미디어학과, 광고영상창작학과, 광고홍보문화콘텐츠전공, 광고홍보언론학과, 광고홍보언론학부, 광고홍보영상미디어학부, 광고홍보영상학과, 광고홍보이벤트학과, 광고홍보전공, 광고홍보전공 트랙, 광고홍보콘텐츠학과, 광고홍보학과, 광고홍보학부, 광고홍보학전공, 디지털마케팅학과, 디지털영상마케팅학과, 미디어광고학과, 미디어영상광고홍보학, 미디어영상광고홍보학부, 빅데이터광고마케팅학과, 산업・광고심리학과, 스마트콘텐츠마케팅학과, 홍보광고학과, 홍보디자인학전공, 방송극작과, 공연예술계열 뮤지컬, 뮤지컬연기과, 뮤지컬연기전공, 뮤지컬연기학과, 방송연예'],
57
+ ['농업기술자 취업용 자격증', '[자격증명: 시설원예기사] 자격증명: 시설원예기사 | 유형: 국가기술자격 | 분야: 농업 | NCS분류: 농림어업 | 시행기관: 한국산업인력공단 | 등급: 기사 | 관련전공: 원예산림학부, 산림생태보호학과, 산림융복합학전공, 산림조경원예학과, 스마트그린케어학과, 스마트원예과학과, 스마트팜과학과, 원예·농업자원경제학부, 원예・생약융합학부, 원예과학과, 원예과학부, 원예과학전공, 원예산림학과, 원예산업학과, 원예산업학부, 원예생명공학과, 원예생명공학전공, 원예생명과학과, 원예생명조경학과, 원예육종학과, 원예치료전공, 원예학과, 원예환경전공, 환경디자인원예학과, 환경원예조경학부, 환경원예학과, 생명자원학부, 생명자원융합학과, 생명자원환경과학부, 생물자원과학부, 식량생명공학과, 식량자원과학과, 식의약자원개발학과, 자원공학과'],
58
+ ['철골공 취업용 자격증', '[자격증명: 기계조립산업기사] 자격증명: 기계조립산업기사 | 유형: 국가기술자격 | 분야: 기계가공 | NCS분류: 기계 | 시행기관: 한국산업인력공단 | 등급: 산업기사 | 관련전공: 기계공학전공, 기계시스템공학과, 기계자동차공학과, 기계자동차공학부, 드론기계학과, 생산기계공학과, 스마트기계공학과, 융합기계공학과, 정밀기계공학과, AI융합기계계열, AI융합기계공학과, AI융합기계과, AI융합기계학과, K-산업기술학부, 공조기계과, 글로벌산업기술과, 글로벌산업기술과(보건산업), 글로벌산업기술과(전공심화), 글로벌산업인재과, 글로벌산업학과, 기계계열, 기계공학계열, 기계공학과(2년제), 기계과, 기계과(2년제), 기계보전과, 기계시스템과, 기계시스템과(ICT기계가공), 기계시스템과(기계융합시스템), 기계시스템디자인과, 기계자동차과, 기계품질관리과, 냉동공조설비공학과, 냉동공조설비과, 디지털기계시스템과, 디지털기계시스템과(기계융합시스템), 디지털기계학부, 디지털융합기계과, 미래모빌리티설계과, 미래모빌리티제조'],
59
+ ]
60
+ scores = model.predict(pairs)
61
+ print(scores.shape)
62
+ # (5,)
63
+
64
+ # Or rank different texts based on similarity to a single text
65
+ ranks = model.rank(
66
+ '외식경영과 전공 추천 자격증',
67
+ [
68
+ '[자격증명: 소방시설관리사] 자격증명: 소방시설관리사 | 유형: 국가전문자격 | 분야: 소방방재 | NCS분류: 법률.경찰.소방.교도.국방 | 등급: 34 | 관련전공: AI산업안전시스템, 산업소방안전과, 산업안전과, 산업안전관리과, 산업안전보건과, 산업안전보건융합학과, 산업안전융합학과, 산업안전전공, 산업안전학부, 산업안전환경계열, 스마트안전융합과, 안전및산업경영공학과, 안전및산업경영공학과(2년제), 안전및산업경영과, 안전소방학과, 안전특성화계열, 융합안전공학과, 재난건설안전과, 재난시설안전과, 소방안전관리과, 소방ᆞ산업안전관리학과, 소방구조구급과, 소방방재과, 소방방재안전과, 소방안전과, 소방안전관리과(P-TECH), 소방안전관리전공, 소방안전관리학과(3년제), 소방안전융합과, 소방재난안전과, 소방재난안전학과, 소방행정・안전관리과, 소방환경방재과, 소방환경안전과, 재난소방・건설안전과, 재난안전시스템과, 건설안전공학과, 산업안전학과, 안전보건학과, 건설스마트안전공학과, 건설시스템안전공학과, 방재안전공학',
69
+ '[자격증명: 건강운동관리사] 자격증명: 건강운동관리사 | 유형: 국가전문자격 | 분야: 스포츠 | NCS분류: 이용.숙박.여행.오락.스포츠 | 관련전공: AI보건정보관리학과, 공공복지정보관리학과, 공공서비스학부(헬스케어서비스전공), 공중보건학과, 공중보건학전공, 바이오헬스융합대학, 바이오헬스컨디셔닝학과, 보건건강관리학과(보건건강관리전���), 보건과학대학, 보건과학부, 보건관리전공, 보건관리학과, 보건관리학과(자연과학), 보건산업유통학전공, 보건안전전공, 보건의료경영전공, 보건의료경영학과, 보건의료관리학과, 보건의료복지학과, 보건의료복지학과(인문사회계열), 보건의료정보관리학전공, 보건의료학부, 보건의료행정전공, 보건학부, 보건환경학부, 뷰티건강디자인학과, 산업보건학과, 산업보건학전공, 산업안전보건전공, 실버보건학과, 융합보건학과, 헬스케어융합학부(자연과학), 레저해양스포츠학과, 해양레저관광학과, 해양레저학과, 해양스포츠ᆞ레저융합학과, 해양스포츠과학과, 해양스포츠전공, 해양스포츠학과, 해양체육학과, 해양치유레',
70
+ '[자격증명: 무대예술전문인(무대기계) 2급] 자격증명: 무대예술전문인(무대기계) 2급 | 유형: 국가전문자격 | 분야: 방송기술 | NCS분류: 정보통신 | 관련전공: 공연미디어콘텐츠계열, 공연미디어콘텐츠과, 공연예술과, 공연예술과(3년제), 공연창작학부, 아트앤플레이군, 한국문화예술과, AI서비스마케팅학과, 공항홍보전공, 광고.PR.브랜딩전공, 광고PR전공, 광고PR학과, 광고미디어학과, 광고영상창작학과, 광고홍보문화콘텐츠전공, 광고홍보언론학과, 광고홍보언론학부, 광고홍보영상미디어학부, 광고홍보영상학과, 광고홍보이벤트학과, 광고홍보전공, 광고홍보전공 트랙, 광고홍보콘텐츠학과, 광고홍보학과, 광고홍보학부, 광고홍보학전공, 디지털마케팅학과, 디지털영상마케팅학과, 미디어광고학과, 미디어영상광고홍보학, 미디어영상광고홍보학부, 빅데이터광고마케팅학과, 산업・광고심리학과, 스마트콘텐츠마케팅학과, 홍보광고학과, 홍보디자인학전공, 방송극작과, 공연예술계열 뮤지컬, 뮤지컬연기과, 뮤지컬연기전공, 뮤지컬연기학과, 방송연예',
71
+ '[자격증명: 시설원예기사] 자격증명: 시설원예기사 | 유형: 국가기술자격 | 분야: 농업 | NCS분류: 농림어업 | 시행기관: 한국산업인력공단 | 등급: 기사 | 관련전공: 원예산림학부, 산림생태보호학과, 산림융복합학전공, 산림조경원예학과, 스마트그린케어학과, 스마트원예과학과, 스마트팜과학과, 원예·농업자원경제학부, 원예・생약융합학부, 원예과학과, 원예과학부, 원예과학전공, 원예산림학과, 원예산업학과, 원예산업학부, 원예생명공학과, 원예생명공학전공, 원예생명과학과, 원예생명조경학과, 원예육종학과, 원예치료전공, 원예학과, 원예환경전공, 환경디자인원예학과, 환경원예조경학부, 환경원예학과, 생명자원학부, 생명자원융합학과, 생명자원환경과학부, 생물자원과학부, 식량생명공학과, 식량자원과학과, 식의약자원개발학과, 자원공학과',
72
+ '[자격증명: 기계조립산업기사] 자격증명: 기계조립산업기사 | 유형: 국가기술자격 | 분야: 기계가공 | NCS분류: 기계 | 시행기관: 한국산업인력공단 | 등급: 산업기사 | 관련전공: 기계공학전공, 기계시스템공학과, 기계자동차공학과, 기계자동차공학부, 드론기계학과, 생산기계공학과, 스마트기계공학과, 융합기계공학과, 정밀기계공학과, AI융합기계계열, AI융합기계공학과, AI융합기계과, AI융합기계학과, K-산업기술학부, 공조기계과, 글로벌산업기술과, 글로벌산업기술과(보건산업), 글로벌산업기술과(전공심화), 글로벌산업인재과, 글로벌산업학과, 기계계열, 기계공학계열, 기계공학과(2년제), 기계과, 기계과(2년제), 기계보전과, 기계시스템과, 기계시스템과(ICT기계가공), 기계시스템과(기계융합시스템), 기계시스템디자인과, 기계자동차과, 기계품질관리과, 냉동공조설비공학과, 냉동공조설비과, 디지털기계시스템과, 디지털기계시스템과(기계융합시스템), 디지털기계학부, 디지털융합기계과, 미래모빌리티설계과, 미래모빌리티제조',
73
+ ]
74
+ )
75
+ # [{'corpus_id': ..., 'score': ...}, {'corpus_id': ..., 'score': ...}, ...]
76
+ ```
77
+
78
+ <!--
79
+ ### Direct Usage (Transformers)
80
+
81
+ <details><summary>Click to see the direct usage in Transformers</summary>
82
+
83
+ </details>
84
+ -->
85
+
86
+ <!--
87
+ ### Downstream Usage (Sentence Transformers)
88
+
89
+ You can finetune this model on your own dataset.
90
+
91
+ <details><summary>Click to expand</summary>
92
+
93
+ </details>
94
+ -->
95
+
96
+ <!--
97
+ ### Out-of-Scope Use
98
+
99
+ *List how the model may foreseeably be misused and address what users ought not to do with the model.*
100
+ -->
101
+
102
+ <!--
103
+ ## Bias, Risks and Limitations
104
+
105
+ *What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
106
+ -->
107
+
108
+ <!--
109
+ ### Recommendations
110
+
111
+ *What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
112
+ -->
113
+
114
+ ## Training Details
115
+
116
+ ### Training Dataset
117
+
118
+ #### Unnamed Dataset
119
+
120
+ * Size: 7,598 training samples
121
+ * Columns: <code>sentence_0</code>, <code>sentence_1</code>, and <code>label</code>
122
+ * Approximate statistics based on the first 1000 samples:
123
+ | | sentence_0 | sentence_1 | label |
124
+ |:--------|:----------------------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------------------|:---------------------------------------------------------------|
125
+ | type | string | string | float |
126
+ | details | <ul><li>min: 7 characters</li><li>mean: 15.82 characters</li><li>max: 27 characters</li></ul> | <ul><li>min: 59 characters</li><li>mean: 346.54 characters</li><li>max: 512 characters</li></ul> | <ul><li>min: 0.0</li><li>mean: 0.17</li><li>max: 1.0</li></ul> |
127
+ * Samples:
128
+ | sentence_0 | sentence_1 | label |
129
+ |:---------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:-----------------|
130
+ | <code>외식경영과 전공 추천 자격증</code> | <code>[자격증명: 소방시설관리사] 자격증명: 소방시설관리사 \| 유형: 국가전문자격 \| 분야: 소방방재 \| NCS분류: 법률.경찰.소방.교도.국방 \| 등급: 34 \| 관련전공: AI산업안전시스템, 산업소방안전과, 산업안전과, 산업안전관리과, 산업안전보건과, 산업안전보건융합학과, 산업안전융합학과, 산업안전전공, 산업안전학부, 산업안전환경계열, 스마트안전융합과, 안전및산업경영공학과, 안전및산업경영공학과(2년제), 안전및산업경영과, 안전소방학과, 안전특성화계열, 융합안전공학과, 재난건설안전과, 재난시설안전과, 소방안전관리과, 소방ᆞ산업안전관리학과, 소방구조구급과, 소방방재과, 소방방재안전과, 소방안전과, 소방안전관리과(P-TECH), 소방안전관리전공, 소방안전관리학과(3년제), 소방안전융합과, 소방재난안전과, 소방재난안전학과, 소방행정・안전관리과, 소방환경방재과, 소방환경안전과, 재난소방・건설안전과, 재난안전시스템과, 건설안전공학과, 산업안전학과, 안전보건학과, 건설스마트안전공학과, 건설시스템안전공학과, 방재안전공학</code> | <code>0.0</code> |
131
+ | <code>일본어과 전공 추천 자격증</code> | <code>[자격증명: 건강운동관리사] 자격증명: 건강운동관리사 \| 유형: 국가전문자격 \| 분야: 스포츠 \| NCS분류: 이용.숙박.여행.오락.스포츠 \| 관련전공: AI보건정보관리학과, 공공복지정보관리학과, 공공서비스학부(헬스케어서비스전공), 공중보건학과, 공중보건학전공, 바이오헬스융합대학, 바이오헬스컨디셔닝학과, 보건건강관리학과(보건건강관리전공), 보건과학대학, 보건과학부, 보건관리전공, 보건관리학과, 보건관리학과(자연과학), 보건산업유통학전공, 보건안전전공, 보건의료경영전공, 보건의료경영학과, 보건의료관리학과, 보건의료복지학과, 보건의료복지학과(인문사회계열), 보건의료정보관리학전공, 보건의료학부, 보건의료행정전공, 보건학부, 보건환경학부, 뷰티건강디자인학과, 산업보건학과, 산업보건학전공, 산업안전보건전공, 실버보건학과, 융합보건학과, 헬스케어융합학부(자연과학), 레저해양스포츠학과, 해양레저관광학과, 해양레저학과, 해양스포츠ᆞ레저융합학과, 해양스포츠과학과, 해양스포츠전공, 해양스포츠학과, 해양체육학과, 해양치유레</code> | <code>0.0</code> |
132
+ | <code>세무경영과 학과인데 뭐 따면 좋을까</code> | <code>[자격증명: 무대예술전문인(무대기계) 2급] 자격증명: 무대예술전문인(무대기계) 2급 \| 유형: 국가전문자격 \| 분야: 방송기술 \| NCS분류: 정보통신 \| 관련전공: 공연미디어콘텐츠계열, 공연미디어콘텐츠과, 공연예술과, 공연예술과(3년제), 공연창작학부, 아트앤플레이군, 한국문화예술과, AI서비스마케팅학과, 공항홍보전공, 광고.PR.브랜딩전공, 광고PR전공, 광고PR학과, 광고미디어학과, 광고영상창작학과, 광고홍보문화콘텐츠전공, 광고홍보언론학과, 광고홍보언론학부, 광고홍보영상미디어학부, 광고홍보영상학과, 광고홍보이벤트학과, 광고홍보전공, 광고홍보전공 트랙, 광고홍보콘텐츠학과, 광고홍보학과, 광고홍보학부, 광고홍보학전공, 디지털마케팅학과, 디지털영상마케팅학과, 미디어광고학과, 미디어영상광고홍보학, 미디어영상광고홍보학부, 빅데이터광고마케팅학과, 산업・광고심리학과, 스마트콘텐츠마케팅학과, 홍보광고학과, 홍보디자인학전공, 방송극작과, 공연예술계열 뮤지컬, 뮤지컬연기과, 뮤지컬연기전공, 뮤지컬연기학과, 방송연예</code> | <code>0.0</code> |
133
+ * Loss: [<code>BinaryCrossEntropyLoss</code>](https://sbert.net/docs/package_reference/cross_encoder/losses.html#binarycrossentropyloss) with these parameters:
134
+ ```json
135
+ {
136
+ "activation_fn": "torch.nn.modules.linear.Identity",
137
+ "pos_weight": null
138
+ }
139
+ ```
140
+
141
+ ### Training Hyperparameters
142
+ #### Non-Default Hyperparameters
143
+
144
+ - `per_device_train_batch_size`: 4
145
+ - `num_train_epochs`: 1
146
+ - `fp16`: True
147
+ - `per_device_eval_batch_size`: 4
148
+
149
+ #### All Hyperparameters
150
+ <details><summary>Click to expand</summary>
151
+
152
+ - `per_device_train_batch_size`: 4
153
+ - `num_train_epochs`: 1
154
+ - `max_steps`: -1
155
+ - `learning_rate`: 5e-05
156
+ - `lr_scheduler_type`: linear
157
+ - `lr_scheduler_kwargs`: None
158
+ - `warmup_steps`: 0
159
+ - `optim`: adamw_torch_fused
160
+ - `optim_args`: None
161
+ - `weight_decay`: 0.0
162
+ - `adam_beta1`: 0.9
163
+ - `adam_beta2`: 0.999
164
+ - `adam_epsilon`: 1e-08
165
+ - `optim_target_modules`: None
166
+ - `gradient_accumulation_steps`: 1
167
+ - `average_tokens_across_devices`: True
168
+ - `max_grad_norm`: 1
169
+ - `label_smoothing_factor`: 0.0
170
+ - `bf16`: False
171
+ - `fp16`: True
172
+ - `bf16_full_eval`: False
173
+ - `fp16_full_eval`: False
174
+ - `tf32`: None
175
+ - `gradient_checkpointing`: False
176
+ - `gradient_checkpointing_kwargs`: None
177
+ - `torch_compile`: False
178
+ - `torch_compile_backend`: None
179
+ - `torch_compile_mode`: None
180
+ - `use_liger_kernel`: False
181
+ - `liger_kernel_config`: None
182
+ - `use_cache`: False
183
+ - `neftune_noise_alpha`: None
184
+ - `torch_empty_cache_steps`: None
185
+ - `auto_find_batch_size`: False
186
+ - `log_on_each_node`: True
187
+ - `logging_nan_inf_filter`: True
188
+ - `include_num_input_tokens_seen`: no
189
+ - `log_level`: passive
190
+ - `log_level_replica`: warning
191
+ - `disable_tqdm`: False
192
+ - `project`: huggingface
193
+ - `trackio_space_id`: trackio
194
+ - `eval_strategy`: no
195
+ - `per_device_eval_batch_size`: 4
196
+ - `prediction_loss_only`: True
197
+ - `eval_on_start`: False
198
+ - `eval_do_concat_batches`: True
199
+ - `eval_use_gather_object`: False
200
+ - `eval_accumulation_steps`: None
201
+ - `include_for_metrics`: []
202
+ - `batch_eval_metrics`: False
203
+ - `save_only_model`: False
204
+ - `save_on_each_node`: False
205
+ - `enable_jit_checkpoint`: False
206
+ - `push_to_hub`: False
207
+ - `hub_private_repo`: None
208
+ - `hub_model_id`: None
209
+ - `hub_strategy`: every_save
210
+ - `hub_always_push`: False
211
+ - `hub_revision`: None
212
+ - `load_best_model_at_end`: False
213
+ - `ignore_data_skip`: False
214
+ - `restore_callback_states_from_checkpoint`: False
215
+ - `full_determinism`: False
216
+ - `seed`: 42
217
+ - `data_seed`: None
218
+ - `use_cpu`: False
219
+ - `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
220
+ - `parallelism_config`: None
221
+ - `dataloader_drop_last`: False
222
+ - `dataloader_num_workers`: 0
223
+ - `dataloader_pin_memory`: True
224
+ - `dataloader_persistent_workers`: False
225
+ - `dataloader_prefetch_factor`: None
226
+ - `remove_unused_columns`: True
227
+ - `label_names`: None
228
+ - `train_sampling_strategy`: random
229
+ - `length_column_name`: length
230
+ - `ddp_find_unused_parameters`: None
231
+ - `ddp_bucket_cap_mb`: None
232
+ - `ddp_broadcast_buffers`: False
233
+ - `ddp_backend`: None
234
+ - `ddp_timeout`: 1800
235
+ - `fsdp`: []
236
+ - `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
237
+ - `deepspeed`: None
238
+ - `debug`: []
239
+ - `skip_memory_metrics`: True
240
+ - `do_predict`: False
241
+ - `resume_from_checkpoint`: None
242
+ - `warmup_ratio`: None
243
+ - `local_rank`: -1
244
+ - `prompts`: None
245
+ - `batch_sampler`: batch_sampler
246
+ - `multi_dataset_batch_sampler`: proportional
247
+ - `router_mapping`: {}
248
+ - `learning_rate_mapping`: {}
249
+
250
+ </details>
251
+
252
+ ### Training Logs
253
+ | Epoch | Step | Training Loss |
254
+ |:------:|:----:|:-------------:|
255
+ | 0.2632 | 500 | 0.5150 |
256
+ | 0.5263 | 1000 | 0.4918 |
257
+ | 0.7895 | 1500 | 0.4794 |
258
+ | 0.2632 | 500 | 0.4184 |
259
+ | 0.5263 | 1000 | 0.4746 |
260
+ | 0.7895 | 1500 | 0.4503 |
261
+
262
+
263
+ ### Framework Versions
264
+ - Python: 3.12.12
265
+ - Sentence Transformers: 5.2.3
266
+ - Transformers: 5.3.0
267
+ - PyTorch: 2.10.0+cu128
268
+ - Accelerate: 1.12.0
269
+ - Datasets: 4.0.0
270
+ - Tokenizers: 0.22.2
271
+
272
+ ## Citation
273
+
274
+ ### BibTeX
275
+
276
+ #### Sentence Transformers
277
+ ```bibtex
278
+ @inproceedings{reimers-2019-sentence-bert,
279
+ title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
280
+ author = "Reimers, Nils and Gurevych, Iryna",
281
+ booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
282
+ month = "11",
283
+ year = "2019",
284
+ publisher = "Association for Computational Linguistics",
285
+ url = "https://arxiv.org/abs/1908.10084",
286
+ }
287
+ ```
288
+
289
+ <!--
290
+ ## Glossary
291
+
292
+ *Clearly define terms in order to be accessible across audiences.*
293
+ -->
294
+
295
+ <!--
296
+ ## Model Card Authors
297
+
298
+ *Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
299
+ -->
300
+
301
+ <!--
302
+ ## Model Card Contact
303
+
304
+ *Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
305
+ -->
config.json ADDED
@@ -0,0 +1,40 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "add_cross_attention": false,
3
+ "architectures": [
4
+ "XLMRobertaForSequenceClassification"
5
+ ],
6
+ "attention_probs_dropout_prob": 0.1,
7
+ "bos_token_id": 0,
8
+ "classifier_dropout": null,
9
+ "dtype": "float32",
10
+ "eos_token_id": 2,
11
+ "hidden_act": "gelu",
12
+ "hidden_dropout_prob": 0.1,
13
+ "hidden_size": 1024,
14
+ "id2label": {
15
+ "0": "LABEL_0"
16
+ },
17
+ "initializer_range": 0.02,
18
+ "intermediate_size": 4096,
19
+ "is_decoder": false,
20
+ "label2id": {
21
+ "LABEL_0": 0
22
+ },
23
+ "layer_norm_eps": 1e-05,
24
+ "max_position_embeddings": 514,
25
+ "model_type": "xlm-roberta",
26
+ "num_attention_heads": 16,
27
+ "num_hidden_layers": 24,
28
+ "output_past": true,
29
+ "pad_token_id": 1,
30
+ "position_embedding_type": "absolute",
31
+ "sentence_transformers": {
32
+ "activation_fn": "torch.nn.modules.activation.Sigmoid",
33
+ "version": "5.2.3"
34
+ },
35
+ "tie_word_embeddings": true,
36
+ "transformers_version": "5.3.0",
37
+ "type_vocab_size": 1,
38
+ "use_cache": false,
39
+ "vocab_size": 250002
40
+ }
model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:cd72189f2e5e58cddcafd29ee300b1e89080f4a2de79c5846ff087478925f4ed
3
+ size 2239614524
tokenizer.json ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:954f73ffaa9daed8f5d328317b8fe89335da29b0f580d9fa658de4d5bd87af21
3
+ size 17098337
tokenizer_config.json ADDED
@@ -0,0 +1,24 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "add_prefix_space": true,
3
+ "backend": "tokenizers",
4
+ "bos_token": "<s>",
5
+ "clean_up_tokenization_spaces": true,
6
+ "cls_token": "<s>",
7
+ "eos_token": "</s>",
8
+ "extra_special_tokens": [],
9
+ "is_local": false,
10
+ "mask_token": "<mask>",
11
+ "max_length": 512,
12
+ "model_max_length": 256,
13
+ "pad_to_multiple_of": null,
14
+ "pad_token": "<pad>",
15
+ "pad_token_type_id": 0,
16
+ "padding_side": "right",
17
+ "sep_token": "</s>",
18
+ "sp_model_kwargs": {},
19
+ "stride": 0,
20
+ "tokenizer_class": "XLMRobertaTokenizer",
21
+ "truncation_side": "right",
22
+ "truncation_strategy": "longest_first",
23
+ "unk_token": "<unk>"
24
+ }