micky1625 commited on
Commit
f9e7c0c
·
verified ·
1 Parent(s): cefbc0c

Add new SentenceTransformer model

Browse files
.gitattributes CHANGED
@@ -33,3 +33,4 @@ saved_model/**/* filter=lfs diff=lfs merge=lfs -text
33
  *.zip filter=lfs diff=lfs merge=lfs -text
34
  *.zst filter=lfs diff=lfs merge=lfs -text
35
  *tfevents* filter=lfs diff=lfs merge=lfs -text
 
 
33
  *.zip filter=lfs diff=lfs merge=lfs -text
34
  *.zst filter=lfs diff=lfs merge=lfs -text
35
  *tfevents* filter=lfs diff=lfs merge=lfs -text
36
+ tokenizer.json filter=lfs diff=lfs merge=lfs -text
1_Pooling/config.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "word_embedding_dimension": 384,
3
+ "pooling_mode_cls_token": false,
4
+ "pooling_mode_mean_tokens": true,
5
+ "pooling_mode_max_tokens": false,
6
+ "pooling_mode_mean_sqrt_len_tokens": false,
7
+ "pooling_mode_weightedmean_tokens": false,
8
+ "pooling_mode_lasttoken": false,
9
+ "include_prompt": true
10
+ }
README.md ADDED
@@ -0,0 +1,590 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ tags:
3
+ - sentence-transformers
4
+ - sentence-similarity
5
+ - feature-extraction
6
+ - generated_from_trainer
7
+ - dataset_size:124
8
+ - loss:MultipleNegativesRankingLoss
9
+ base_model: upskyy/e5-small-korean
10
+ widget:
11
+ - source_sentence: 성인은 왜 욕심이 없는 것으로 설명되는가?
12
+ sentences:
13
+ - "정하\n여 자신의 욕심에 미칠 겨를이 없는 사람은 반드시 배우기를 싫어하지 않고 가르치기를 게을리 하\n지 않으니 배우기를 싫어하지 않고\
14
+ \ 가르치기를 게을리 하지 않으므로 성인은 욕심이 없는 것이다. \n자신에게 터럭만큼이라도 욕심이 있은 즉 요순의 마음이 아니오, 잠시라도\
15
+ \ 천하를 걱정하지 않은 \n즉 공맹의 마음이 아니다. \n 태양인은 슬픈 성품이 멀리 흩어지지만 화내는 성품은 지극히 급하니 슬픈 성질이\
16
+ \ 멀리 흩어지면 \n기가 폐로 들어가서 폐가 더욱 성해지고, 화내는 성질이 지극히 급하면 기가 간을 격동시켜 간은 \n더욱 깎이니 태양인의\
17
+ \ 장부가 폐가 크고 간이 작은 것으로 형성되는 까닭이다. 소양인은 화내는 성\n품이 크게 화를 내지만 슬픈 성품이 매우 급하니 화내는 성품이\
18
+ \ 크게 화를 내면 기가 비로 들어가\n서 비가 더욱 성해지고, 슬픈 성품이 매우 급하면 기가 신을 격동시켜서 신은 더욱 깎이니 소양인\n\
19
+ 의 장부가 비가 크고 신이 작은 것으로 형성되는 까닭이다. 음인은 기쁜 성품이 넓고 크지만 즐거\n운 성품이 지극히 급하니 기쁜 성품이 많아지면\
20
+ \ 기가 간으로 가서 간이 더욱 성해지고, 즐기는 성\n품이 지극히 급하면 기가 폐를 격동시켜 폐는 더욱 깎일 것이니 태음인의 장부가 간이\
21
+ \ 크고 폐가 \n작은 것으로 형성되는 까닭이다. 소음인은 즐기는 성품이 매우 확실하고 기쁜 성품이 매우 급하니 \n즐기는 성품이 깊이 확실하면\
22
+ \ 기가 신으로 가서 신이 더욱 성해지"
23
+ - "민을 나실 때 지혜로운 깨달음으로 성(性)을 주니 만인이 태어남에 지혜로운 깨달음이 \n있으면 살고 없으면 죽는다. 지혜로운 깨달음이란 덕이\
24
+ \ 생겨나게 하는 바이다. \n 하늘의 만민을 나실 때 자업으로 명(命)을 주니 만인이 태어남에 자업이 있으면 살고 없으면 죽는\n다. 자업이란\
25
+ \ 도가 생겨나게 하는 바이다. \n 어질고, 의롭고, 예의있고, 지혜있고, 충성스럽고, 효도하고, 우애있고 공경하는 모든 선행은 다 혜\n\
26
+ 각에서 나오고, 선비, 농사, 공업, 상업, 밭갈기, 주택, 국토, 나라의 모든 용은 다 자업에서 나온다. \n 혜각은 남을 겸하고자 해야\
27
+ \ 가르침이 있고, 자업은 내가 청렴하고자 해야 공이 있으니 혜각이 사\n소한 자로 비록 호걸이 있더라도 조조처럼 교활하면 가르칠 수가 없다.\
28
+ \ 자업을 마음대로 휘두른 자\n는 비록 영웅이 있으나 진시황처럼 사나우면 공을 세울 수 없다. \n 남의 선을 좋아하고 나도 선을 아는 것은\
29
+ \ 지극한 성의 덕이오, 남의 악을 싫어하고 나도 반드시 악\n을 행하지 않는 것은 바른 명의 도이다. 지행이 쌓인 즉 도덕이오, 도덕이 이루어진\
30
+ \ 즉 인(仁), 성(\n聖)이니 도덕은 다른 것이 아니라 지행이오, 성명이 다른 것이 아니라 지행이다.\n 어느 사람이 묻기를 “지를 가지고\
31
+ \ 성을 논하는 것은 가능하지만 행을 가지고 명을 논하는 것은 무\n슨 뜻인가?” 라고 하니 이르기를 “명은 명수니 선행을 하면 명수는 저절로\
32
+ \ 아름답고, 악행을"
33
+ - "이미지황탕을 쓸 것이다.\n 부종은 그 증세를 급히 치료하면 살고 급히 치료하지 않으면 위태하다. 약을 빨리 쓰면 쉽게 낫고 \n약을 빨리\
34
+ \ 쓰지 않으면 맹랑하게 죽는다. 이 병은 겉으로 보기에는 아무렇지도 않아서 속히 죽을 \n것 같지 않다. 때문에 사람들은 별로 대수롭지 않게\
35
+ \ 여긴다. 그러나 이 병은 실제로는 급한 증세인 \n것이다. 4,5일 이내에 반드시 다스려야 할 병이요 늦어도 열흘을 넘겨서는 안 된다.\n\
36
+ \ 부종이 처음 생겼을 때에 마땅히 목통대안탕(木通大安湯)이나 혹 형방지황탕(荊防地黃湯)에 목통\n을 가미해서 하루에 두 첩씩 쓰면 6,7일\
37
+ \ 이내에 부종이 반드시 풀릴 것이다. 부종이 풀린 뒤에 백일\n이내는 반드시 형방지황탕에 목통(木通) 2,3돈쭝을 가입해서 날마다 1,2첩씩\
38
+ \ 써야 한다. 이리하여 \n소변을 맑게 하여 재발을 막아야 할 것이니 재발되면 고치기 어렵다.\n 부종이 처음 풀렸을 때에 음식은 더욱 배고픈\
39
+ \ 것을 참고 조금씩 먹어야 한다. 만일 보통 사람과 같\n이 많이 먹으면 반드시 재발하는 ��을 면치 못할 것이다. 이 병은 오줌이 붉은 것이\
40
+ \ 제일 두려운 것\n이다. 오줌이 맑으면 부종이 풀리고 오줌이 붉으민 더 맺혀진다.\n 소양인의 중소증에 배가 부으면 반드시 고창(鼓脹)이\
41
+ \ 된다. 고창은 고치지 못하는 병이다. 소양인\n의 고창병은 소음인의 장결병(臟結病)과 같아서 모두 5,6개월이나 7,8개월 혹은 1년 만이면\
42
+ \ 죽고 만\n다. 대개 "
43
+ - source_sentence: 위 내용에서 설명된 치료법들 중 가장 효과적으로 보인 것은 무엇이었을까요?
44
+ sentences:
45
+ - "지 않\n고 나머지는 하루나 한 달에 이르며, 기뻐서 정성스레 공자를 따른 사람은 단지 72명이었던 것을 \n보면 사람의 사심은 과연 다\
46
+ \ 똑같다. 문왕의 덕으로 백년이 지나자 무너져 천하에 흡족하지 않으니\n무왕과 주공이 그를 계승한 연후에 크게 시행되었는데 관숙,채숙은 친척으로써\
47
+ \ 난을 일으킨 것을 \n보면 사람의 태행이 과연 다 똑같다.\n 귀,눈,코,입은 사람이 모두 가히 요순이 될 수 있고 함,억,제,복은 사람이\
48
+ \ 다 스스로 요순이 되지는 \n못한다. 폐,비,간,신은 사람이 모두 가히 요순이 될 수 있고, 두,견,요,둔은 사람이 다 스스로 요순이 \n\
49
+ 되진 못한다. \n 사람의 귀,눈,코,입이 선을 좋아하는 마음은 보통 사람들로써 귀,눈,코,입을 논해도 요순이 채찍을 \n가하지 않을 것이다.\
50
+ \ 사람의 폐,비,간,신이 악을 싫어하는 마음은 보통 사람들로써 폐,비,간,신을 논\n해도 요순이 채찍을 가하지 않을 것이니 사람들 모두 가히\
51
+ \ 요순이라 할 수 있는 것은 이 때문이다. \n사람의 함,억,제,복 속에 세상을 속여 보려는 마음이 늘 숨겨져 있으니 본 마음을 간직하고\
52
+ \ 본성을 \n기른 연후에 사람이 모두 가히 요순처럼 지혜로울 수 있다. 사람의 두,견,요,둔 밑에 남을 속이려는 \n마음이 종종 숨겨져 있으니\
53
+ \ 몸을 닦고 명을 세운 연후에 사람이 모두 가히 요순처럼 행할 수 있다. \n사람이 모두 스스로 요순이 될 수 없는 것은 이 때문이다.\n\
54
+ \ 귀,눈,코,입의 정(情"
55
+ - "몸을 살펴보니 즉 수족, 방광, 허리, 배가 모두 얼\n음같이 차고 배꼽 밑은 전체적으로 단단한 것이 돌과 같았다. 가슴과 배의 위와 가운데의\
56
+ \ 열기가 \n불길같이 올라서 손이 구워질 것 같이 뜨거웠다. 가히 최고에 이르렀다. 5일 째 맑은 거품을 토했는\n데 맑은 거품 속에는 잡곡\
57
+ \ 한 덩이가 나왔는데 스스로 이 병의 증세가 크게 줄어들었다. 이에 나아\n가 미음 몇 공기를 먹더니 다음날 인하여 죽을 먹었다. 이 병자가\
58
+ \ 궁벽한 시골에 살았기 때문에 위\n를 따뜻하게 하고 조화롭게 하는 약을 쓸 겨를이 없었다, 그 후에 또 소음인 한 사람이 있었는데 설\n\
59
+ 사를 수 차례하고 아내 맑은 물을 설사하니 배 전체에 부종이 생겨 처음에 계부곽진이중탕을 사용\n하고 이에 인삼, 관계 두 돈을 넣고 부자를\
60
+ \ 2돈 혹은 1돈을 넣어 4일 수 차례 복용하고 그 후 하루 \n세 번 복용하고 3,40회 설사를 하니 부종이 많이 작아졌다. 또 소음인\
61
+ \ 어린아이 한 명이 푸른 물을 \n설사를 하고 얼굴빛이 검푸르고 기운이 없어 조는 것과 같아서 독삼탕에 생강 2돈과 진피 1돈 사인\n1돈을\
62
+ \ 넣어 하루에 3,4번 복용한 후 설사를 10여 차례하고 크게 땀을 내고 병이 해결되었다. 대개 \n소음인의 곽란 관격병은 인중에 땀을 얻으면\
63
+ \ 위험을 면하기 시작한 것이다. 식체 하여 크게 설사하\n면 다음 위험을 면한 것이다. 저절로 그러면 능히 토하게 되면 쾌히 위험을 면하게\
64
+ \ 될 것이다. 죽을 \n"
65
+ - "못하였다. 즉시로 태음조위탕에 승마 황금 각각 한 돈씩\n을 가하여 계속 10일 간을 먹으니 얼굴에 땀이 함빡나고 역기가 좀 덜하더니 또\
66
+ \ 2일간을 대변이 불\n통하니 즉시 葛根乘氣湯을 5일 간 썼는데 5일 내로 음식을 많이 먹으면서 역기가 완전히 덜하여 병\n이 차차 회복되기에\
67
+ \ 또 태음주위탕에 승마 황금을 더하여 쓰면서 40일 간을 조리하니 역기가 완치\n되며 본병까지 나았다.\n결해라는 것은 힘써 기침을 하지만\
68
+ \ 가래가 나오지 않기도 하고 혹 나오기도 하는 것을 결해라고 말\n한다. 소음인의 경우 결해를 가슴결해라 하고 태음인의 결해를 함결해 즉\
69
+ \ 턱결해라 이른다.\n대체로 온병에는 먼저 그 사람의 본병여하를 관찰하면 겉과 속, 허함과 실함을 가히 알 수 있는 것\n이다. 본병이 한증인\
70
+ \ 사람은 온병을 하여도 역시 한증이며, 본병이 열증인 사람은 온병을 하여도 역\n시 열증이다. 본병이 가벼운 사람은 온병에 걸리면 중한증상이\
71
+ \ 되며 본병이 무거운 사람이 온병에 \n걸리면 위험한 증상이 된다.\n한 태음인이 있어 목구멍이 건조하고 얼굴빛이 창백하며 피부가 차며 혹\
72
+ \ 설사하는 증상이 있었다. \n대개 목구멍이 건조한 것은 간장에 열을 받은 것이고 얼굴빛이 창백하고 외부가 차며 혹은 설사하\n는 것은 위완이\
73
+ \ 찬 것이다. 이 병은 겉과 속이 다 병든 것이니 본래 병이 너무나 무거운 사람이다. \n이 사람이 유행성 장티푸스에 걸렸는데 그 증상이\
74
+ \ 병이 시작한 날부터 병이 풀리"
75
+ - source_sentence: 태양병으로 인해 열이 오르고 오한이 나며 땀이 없는 경우, 어떤 한약을 복용해야 하는지에 대해 언급된 주요 처방은
76
+ 무엇인가요?
77
+ sentences:
78
+ - "동해서 봐도 안되고 또한 번거로운 것을 싫어해도 안 될 것이다. 그런 연후에야 그 뿌리\n와 나무 그루를 찾고 그 가지와 잎을 찾아야 할\
79
+ \ 것이다. 대체로 맥을 본다는 것은 병의 증세를 판단\n하는 한가지 방법이다. 그 이치는 맥의 뜨고, 가라앉고, 더디고, 빠른 것에 있을\
80
+ \ 뿐이니 반드시 경락\n의 변동을 구하려 할 필요는 없는 것이다. 삼음, 삼양이란 병의 증세가 같고 다름을 구별하는 것이\n고 그 이치가\
81
+ \ 배와 등의 안팎에 있을 뿐이니 반드시 경락의 변동을 구하려 할 필요는 없는 것이다.\n 옛 사람들이 육경음양으로 병을 논했기 때문에 장중경이\
82
+ \ <상한론(傷寒論)>을 지은 데도 역시 육\n경 음양을 가지고 병의 증세를 구별했다. 두통이 있고, 온몸이 아프고, 신열이 있고, 오한이\
83
+ \ 나고, 맥\n이 뜨면 이것을 태양병의 증세라고 했다. 입이 쓰고, 목이 마르며, 현기증이 나고, 귀가 안 들리고, \n가슴이 답답하고,\
84
+ \ 추운 기운이 오락가락하고, 맥이 빠르게 뛰는 것을 소양병의 증세라고 하였다. 오\n한이 없이 도리어 악열이 나고, 땀이 저절로 나고, 대변에\
85
+ \ 변비가 있는 자를 양명병의 증상이라고 \n하였다. 배가 가득하고, 때때로 아프며 입이 건조하지는 않고, 명치가 답답하지도 않으면서 저절로\
86
+ \ \n설사를 하면 이것은 태음병의 증세라고 하였다. 맥이 가느다랗고 다만 잠이 자꾸 오고, 입안이 건조\n하고 가슴이 답답하면서 저절로 설사하는\
87
+ \ 것을 소음병의 증세라고 하였다"
88
+ - "湯을 쓴다. 만약 이미 토하게 하거나 설사시켰는데도 땀이 나고 헛소리를 \n하며 小柴胡湯의 나타나는 증상이 없어진 것은 괴이한 병이 된 것이니\
89
+ \ 괴이한 병을 치료하는 법에 \n의해 치료할 것이다.\n상한에 맥이 활시위처럼 가늘고 두통이 있고 열이 나는 것은 소양에 속하니 땀을 내는\
90
+ \ 것은 안 된\n다. 땀을 내면 헛소리를 한다.\n일찍이 소양인이 상한에 미친 것을 발하여 헛소리를 하는 증상을 치료한 때가 곧 을해년 청명절기\n\
91
+ 의 때였는데 소양인 한 사람이 상한에 차가움이 많고 열이 적은 병에 걸려 4,5일 후 오미시에 숨이 \n차고 호흡이 급했는데 그때에는 아직\
92
+ \ 경험이 풍부치 못하여 다만 소양인에게 써야할 약에 六味湯\n이 가장 좋다는 것만을 알았기 때문에 감히 다른 약을 쓰지 못하고 다만 六味湯\
93
+ \ 한 첩만 썼더니 환\n자의 숨이 차는 증상이 곧 멎었다. 또 수일 후에 환자가 광증이 발해 헛소리를 하고 숨이 차는 증상\n이 발작해서\
94
+ \ 또 六味湯 한 첩을 썼더니 숨차는 증상이 비록 조금 안정되었으나 전날과 같이 완전히\n멎지는 않았다. 환자가 이어서 3일을 미친 증상이\
95
+ \ 나타나고 오후에 또 숨이 차는 증상이 발작하여 \n또 六味湯을 쓰니 숨이 차는 증상이 조금도 안정되지 못하고 잠시 있다가 혀가 말리고 풍이\
96
+ \ 동하여\n입을 악물고 말을 하지 못해서 여기서 비로소 六味湯으로 될 수 없는 것을 알고 급히 白虎湯 한 첩\n을 달여 대나무 관으로 환자의\
97
+ \ 코에 불어넣어 목구멍으로"
98
+ - "는 계지탕을 주로 쓴다. \n 위역림의 <득효방>에는 ‘사시의 온역에는 마땅히 향소산을 써야 한다’라고 했다. \n 공신의 <의감>에는 ‘상한으로서\
99
+ \ 머리가 아프고 몸이 쑤시며 표증인지 이증인지를 분간키 어려운 \n증세에는 마땅히 곽향정기산을 써야 한다’고 했다. \n 내가 생각하기로는\
100
+ \ 장중경이 말하는 태양상풍에 열이 오르고 오한이 난다는 것은 소음인이 콩팥\n에 열을 받아 나타난 열병인 것이다. 이와 같은 증세에 열이\
101
+ \ 오르고 오한이 나도 땀이 없는 것��는 \n마땅히 계지탕, 천궁계지탕, 향소산, 궁귀향소산, 곽향정기산을 써야한다. 열이 오르고 오한이 나며\
102
+ \ \n또 땀이 있으면 이는 망양증의 처음 증세이니 절대로 가볍게 보아서는 안 된다. 먼저 황기계지탕, \n보증익기탕, 승양익기탕을 쓴다.\
103
+ \ 사흘 동안 계속해서 복용시켜도 땀이 그치지 않고 병이 낫지 않을\n때에는 마땅히 계지부자탕, 인삼계지부자탕, 승양익기부자탕을 쓴다.\n\
104
+ \ 장중경이 ‘태양병에 맥이 뜨고 긴하며 열이 오르나 땀이 없고 코피가 나는 것은 저절로 낫는다’라\n고 말했다. \n 태양병이 6, 7일\
105
+ \ 지났는데도 표증이 여전히 있고 맥이 작고 가라앉으며 반면에 명치가 뭉쳐있지 \n않고 미친 것처럼 날뛰는 것은 열이 하초에 있기 때문이다\
106
+ \ 아랫배가 가득 차 있을지라도 소변이 잘\n통하는 것은 하혈시키면 곧 낫는다. 저당탕을 주로 쓴다. \n 태양증에 몸이 노랗게 되고 발광을\
107
+ \ 하며 아랫배가 단단하고 가득차있"
108
+ - source_sentence: 이때 조열이 나타나면 어떤 처방이 이루어져야 할까요?
109
+ sentences:
110
+ - " 하면 \n명수는 스스로 나빠지니 점치고 무당에게 물어 보지 않아도 알 수 있다. 시운 영원한 말이 명과 짝\n이 되지만 스스로 많은 복을\
111
+ \ 구한다.”라고 하니 모두 이 뜻이다. \n 어느 사람이 묻기를 나의 말에 귀는 천시를 듣고, 눈은 세회를 보고, 코는 인륜을 맡고, 입은\
112
+ \ 지방\n을 맛본다고 하였는데 귀가 천시를 듣는 것과 눈이 세회를 보는 것은 가능하지만 코가 어떻게 인륜\n을 냄새 맡으며 입이 어떻게 지방을\
113
+ \ 맛봅니까? 말하기를 인륜에 처하여 사람의 외표를 관찰하고 각\n사람들의 재주와 행실이 현명한가 못났는가를 묵묵히 살피는 것, 이것이 냄새를\
114
+ \ 맡는 것이 아니겠\n는가! 지방에 처하여 각처 사람들의 생활의 땅의 이익을 골고루 맛보는 것, 이것이 맛보는 것이 아\n니겠는가!\n 본심을\
115
+ \ 가진 자는 본심을 꾸짖는다. 심체의 명암이 비록 저절로 그렇게 되는 것 같지만 꾸짖는 자\n는 맑고 꾸짖지 않는 자는 탁하다. 말의 마음을\
116
+ \ 느낌이 소의 그것보다 민첩한 것은 말의 꾸짖는 마\n음이 소의 그것보다 민첩하기 때문이다. 매의 기세가 솔개의 그것보다 사나운 것은 매의\
117
+ \ 꾸짖는 마\n음이 솔개의 그것보다 사납기 때문이다. 심체의 맑고 탁함과 기세의 강약이 소,말,매,솔개에게 있는 \n것은 이치로써 그것을\
118
+ \ 따지면 이와 같거늘 하물며 사람에게 있어서야 혹 서로 곱절이나 다섯 곱절\n이 되기도 하고 혹 서로 천만배가 되기도 하지만 어찌 태어나서\
119
+ \ 문득 얻어지거나 아득히 생"
120
+ - " \n 성무기의 <명리론>에 이르길 조열이란 양명에 속하는 것이니 반드시 해질 무렵에 오르고 고열이 \n바로 조열인 것이다. 양명의 병됨은\
121
+ \ 위 속이 가득차 있는 것이다. 위 속이 차면 헛소리를 하게 되고 \n손과 발에서 끈끈하게 땀이 나는데 이것은 이미 대변이 굳어진 것이다.\
122
+ \ 헛소리를 하고 조열이 있으\n면 승기탕을 써서 속을 훑어 내리도록 하되, 조열이 아닌 자에게 복용시키지 않는다. \n 주진형의 <단계심법>에\
123
+ \ 이르길 상한병 괴증에 정신이 혼미하고 빈사상태에 놓여 있는 것은 모두 \n위급한 증세다. 이런 경우에 좋은 인삼 한 냥쭝을 물에 달여서\
124
+ \ 한 번에 다 먹였더니 콧등에서 땀이\n나기 시작하여 줄줄 흘러내리는 것이 물같았다.\n나는 생각한다. 앞에서 논법들은 모두 장중경의 대승기탕을\
125
+ \ 허수아비로 만들어 놓고 있다. 쓸 수 있\n고 쓸 수 없는 경우를 알기 어려워서 어려움이 많아 의혹되니 장중경의 말을 믿을 수가 없음을\
126
+ \ 비\n로소 알겠다. 장중경의 대승기탕은 원래 사람을 죽이는 약이지, 사람을 살리는 약이 아닌 만큼 대승\n기탕을 굳이 거론할 필요가 없다.\
127
+ \ 위의 계통에 병이 들어 옷을 갈아입으려 들지 않고 발광증이 있\n으면 마땅히 파두 모두를 복용시키거나 독삼팔물군자탕을 복용시켜야 하며 또는\
128
+ \ 먼저 파두를 복용\n시키고 나서 팔물군자탕으로 병을 누르기도 한다. \n 장중경이 말했다. 양명병 외증은 신열이 있고 땀이 저절로 나며\
129
+ \ 오한이 없고 도리어 악열"
130
+ - "하늘을 \n바라기 때문이고 비,박,탐,나의 맑고 탁하고 넓고 좁은 것은 만가지로 다른 중에 한가지 같은 점이 \n있으니 보통 사람이 성인을\
131
+ \ 바라기 때문이다. \n 성인의 장도 사단(四端)이고, 보통 사람의 장도 또한 사단이니 성인의 한��지 사단의 장으로써 보\n통 사람의 만가지\
132
+ \ 사단의 가운데에 처하니 성인은 보통 사람들이 즐기는 바이고 성인의 마음은 욕\n심이 없고 보통 사람의 마음은 욕심이 있으니 성인의 욕심이\
133
+ \ 없는 마음으로써 보통 사람의 만가지 \n욕심있는 마음속에 처하니 보통 사람은 성인이 걱정하는 바가 된다. \n 그런즉 천하의 보통 사람들의\
134
+ \ 장의 이치는 또한 다 성인의 장의 이치이고, 재능도 또한 다 성인의 \n재능이다. 폐,비,간,신으로써 성인이 재능을 스스로 말하길 나는\
135
+ \ 재능이 없다고 말하는 자가 있으면 \n어찌 재능의 죄인가, 마음이 죄이다. \n 호연지기는 폐,비,간,신에서 나오고 호연지기는 마음에서\
136
+ \ 나오니 인의예지의 사장의 기를 넓히고 \n채운 즉 호연지기는 이것에서 나오고, 비,박,탐,나의 한마음의 욕심을 밝히고 변별한 즉 호연지리가\
137
+ \ \n이것에서 나온다. \n 성인의 마음이 욕심이 없다고 말하는 것은 맑고 고요하여 없어지는 듯하여 노자나 부처처럼 욕심\n이 없는 것이\
138
+ \ 아니다. 성인의 마음은 천하가 다스려지지 않음을 심히 걱정하여 단지 욕심이 없는 \n것이 아니라 또한 자신의 욕심에 미칠 겨를이 없는 것이다.\
139
+ \ 천하의 다스려지지 않음을 심히 걱"
140
+ - source_sentence: 왜 수은을 쓰는 사람은 소금이나 간장을 먹지 말라고 하는지 이유는 무엇인가요?
141
+ sentences:
142
+ - "로 한심하다. 귀가 안 들리고 가슴이 가득한 상풍병은 어찌 가히 小柴胡湯으로 고칠 수 \n있겠는가? 슬프도다. 후에 와서 공신이 지은 바\
143
+ \ 荊防敗毒散이 어찌 소양인의 겉이 찬 병에 삼신산 \n불사약이 아니겠는가? 이런 증상에는 속의 열을 맑게 하고 겉의 음기를 내리면 곧 담음이\
144
+ \ 스스로 \n흩어지고 가슴의 맺힌 증상이 미리 방지되어 이루어지지도 않는다. 가래를 맑게 하고 가래를 마르\n게 하면 곧 음을 내려가게 하고\
145
+ \ 가래를 흩어지게 하는데 이익이 없고 늦추어져 미치게 되면 가슴에\n맺힘이 장차 이루어져 혹 따로 기이한 증상이 생길 것이다. 주굉이 가로되\
146
+ \ 무릇 땀을 내야 하는데 \n허리에서 취로는 비록 물이 질퍽하고 새는 데 허리에서 아래로 발에 이르기는 약간 윤기가 있으면 \n곧 병이 결국\
147
+ \ 풀리지 않는다. \n 논하여 가로되 소양인의 병에서는 겉과 속의 병을 막론하고 손바닥과 발바닥에 땀이 있으면 곧 \n병이 풀리고 손바닥과\
148
+ \ 발바닥에 땀이 없으면 곧 비록 전체적으로는 땀이 나도 병이 풀리지 않는다.\n 소양인의 상한병에 다시 통증이 있고 땀이 있으면 치료되는\
149
+ \ 것이 있는데 이병은 재차 삼차에 풍\n한을 느끼고 재통에 땀이 나고 삼통에 땀이 나는 것이 아니다. 소양인의 두통, 뇌강, 한열이 가고\
150
+ \ 오\n는 것, 귀가 안 들리고 가슴이 가득함이 더욱 심한 병은 원래 이와 같으니 겉의 사기가 깊이 맺혀 \n삼통에 맺힌 연후에 치료되어\
151
+ \ 풀리는 것이다. 초통, 재통,"
152
+ - "성이 지극하면 로정이 움직이고, 로성이 지극하면 애정\n이 움직이며, 락성이 지극하면 희정이 움직이고, 희성이 지극하면 락정이 움직인다.\
153
+ \ 태양인이 애성\n이 지극하여 그치지 못하면 분노가 밖으로 나오고, 소양인이 로성이 지극하여 이기지 못하면 비애\n가 가슴속으로 움직이고,\
154
+ \ 소음인이 락성이 지극하여 이루지 못하면 기쁘고 좋아하는 것이 정할 수 \n없고, 태음인이 희성이 지극하여 가라앉지 않으면 치락이 끝이 없을\
155
+ \ 것이다. 이와 같이 움직이는 것\n은 칼날로 장부를 자르는 것과 다름이 없다. 한번 크게 움직이면 10년이 지나도 회복하기 어려우니\n\
156
+ 이는 죽과 사는 것과 수(壽), 요(夭)의 기관이니 몰라서는 안되는 것이다. \n 태소음양의 장부의 짧고 김은 음양의 변화니 천품이 이미 결정된\
157
+ \ 것은 두말할 나위도 없거니와 천\n품이 이미 정해진 것 이외에 또한 짧고 김이 있으니 천품이 완전하지 못한 자는 사람일의 닦음과 \n닦지\
158
+ \ 않음에 운명이 좌우되니 삼가지 않으면 안된다.\n 태양인의 로는 한사람의 로로써 천만인을 노하게 하니 그 로가 천만인을 다룰 방법이 없다면\
159
+ \ 반드\n시 천만인을 감당하기 어려울 것이다. 소음인의 희는 한사람의 희로써 천만인을 희하게 하니 그 희\n가 천만인을 다룰 방법이 없다면\
160
+ \ 반드시 천만인을 감당하기 어려울 것이다. 소양인의 애는 한 사람\n의 애로써 천만인을 애하게 하니 그 애가 천만인을 다룰 방법이 없다면\
161
+ \ 반드시 천만인을 감당하기 \n어려"
162
+ - " 첫날 2대 다음날 1\n대를 피웠다. 그런데 그날 밤에 더운 방에서 찬바람을 쐬고서 갑자기 죽었다. 세속의 말에 의하면 \n수은을 쓰는\
163
+ \ 사람은 소금이나 간장을 먹지 말라고 한다. 그것은 간장 속에는 콩이 들어 있어서 수\n은의 독기를 풀어 버리기 때문이다. 그러나 독한 약은\
164
+ \ 약간의 독을 풀어 주는 것도 무방하기 때문\n에 구태여 소금과 간장을 금할 필요는 없다.\n東醫壽世保元 卷之四\n 太陰人 胃脘受寒表寒病論\n\
165
+ 장중경이 말하기를 태양병 상한에 머리가 아프고 열이 오르며, 온몸과 허리가 아프고 골절이 쑤시\n며 오한이 나고 땀이 없어 숨이 찬 데에는\
166
+ \ 마황탕을 주로 써야 한다. 주에 말하기를 상한에 두통이 \n나고 온몸이 아프며 허리가 아프고 골절이 모두 쑤시기에 이르는 것은 태양병 상한에\
167
+ \ 영혈이 고르\n지 못하기 문이다. \n 내가 말하기를 이는 곧 태음인이 한기에 배추 표병이니 가벼운 증세이다. 이와 같은 증세에 마황\n\
168
+ 탕을 쓸 수 없는 것은 아니나 계지와 감초는 필요치 않은 약이니 마땅히 마황발표탕을 쓸 것이다. \n 장중경이 말하기를 상한이 된지 4,5\
169
+ \ 일에 궐이 되는 자는 반드시 열이 오른다. 궐이 심한 자는 열\n도 심하고 궐이 경미한 자는 열도 또한 경미하다. 상한에 궐이 된 지 4일만에\
170
+ \ 다시 열이 오르고 3일\n만에 다시 궐이 되어 5일에 궐이 많고 열이 적으면 이는 그 병이 진행하고 있는 것이며 상한에 열\n이 있은 지\
171
+ \ 4일에 다시 궐로 돌아오고,"
172
+ pipeline_tag: sentence-similarity
173
+ library_name: sentence-transformers
174
+ metrics:
175
+ - cosine_accuracy@1
176
+ - cosine_accuracy@3
177
+ - cosine_accuracy@5
178
+ - cosine_accuracy@10
179
+ - cosine_precision@1
180
+ - cosine_precision@3
181
+ - cosine_precision@5
182
+ - cosine_precision@10
183
+ - cosine_recall@1
184
+ - cosine_recall@3
185
+ - cosine_recall@5
186
+ - cosine_recall@10
187
+ - cosine_ndcg@10
188
+ - cosine_mrr@10
189
+ - cosine_map@100
190
+ model-index:
191
+ - name: SentenceTransformer based on upskyy/e5-small-korean
192
+ results:
193
+ - task:
194
+ type: information-retrieval
195
+ name: Information Retrieval
196
+ dataset:
197
+ name: Unknown
198
+ type: unknown
199
+ metrics:
200
+ - type: cosine_accuracy@1
201
+ value: 0.5625
202
+ name: Cosine Accuracy@1
203
+ - type: cosine_accuracy@3
204
+ value: 0.78125
205
+ name: Cosine Accuracy@3
206
+ - type: cosine_accuracy@5
207
+ value: 0.84375
208
+ name: Cosine Accuracy@5
209
+ - type: cosine_accuracy@10
210
+ value: 0.90625
211
+ name: Cosine Accuracy@10
212
+ - type: cosine_precision@1
213
+ value: 0.5625
214
+ name: Cosine Precision@1
215
+ - type: cosine_precision@3
216
+ value: 0.26041666666666663
217
+ name: Cosine Precision@3
218
+ - type: cosine_precision@5
219
+ value: 0.16875
220
+ name: Cosine Precision@5
221
+ - type: cosine_precision@10
222
+ value: 0.09062500000000001
223
+ name: Cosine Precision@10
224
+ - type: cosine_recall@1
225
+ value: 0.5625
226
+ name: Cosine Recall@1
227
+ - type: cosine_recall@3
228
+ value: 0.78125
229
+ name: Cosine Recall@3
230
+ - type: cosine_recall@5
231
+ value: 0.84375
232
+ name: Cosine Recall@5
233
+ - type: cosine_recall@10
234
+ value: 0.90625
235
+ name: Cosine Recall@10
236
+ - type: cosine_ndcg@10
237
+ value: 0.7475979188929032
238
+ name: Cosine Ndcg@10
239
+ - type: cosine_mrr@10
240
+ value: 0.6958333333333333
241
+ name: Cosine Mrr@10
242
+ - type: cosine_map@100
243
+ value: 0.7023771367521368
244
+ name: Cosine Map@100
245
+ ---
246
+
247
+ # SentenceTransformer based on upskyy/e5-small-korean
248
+
249
+ This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [upskyy/e5-small-korean](https://huggingface.co/upskyy/e5-small-korean). It maps sentences & paragraphs to a 384-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
250
+
251
+ ## Model Details
252
+
253
+ ### Model Description
254
+ - **Model Type:** Sentence Transformer
255
+ - **Base model:** [upskyy/e5-small-korean](https://huggingface.co/upskyy/e5-small-korean) <!-- at revision 8bf85ada059035055592f3d5ecb0470837491bb1 -->
256
+ - **Maximum Sequence Length:** 512 tokens
257
+ - **Output Dimensionality:** 384 dimensions
258
+ - **Similarity Function:** Cosine Similarity
259
+ <!-- - **Training Dataset:** Unknown -->
260
+ <!-- - **Language:** Unknown -->
261
+ <!-- - **License:** Unknown -->
262
+
263
+ ### Model Sources
264
+
265
+ - **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
266
+ - **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
267
+ - **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
268
+
269
+ ### Full Model Architecture
270
+
271
+ ```
272
+ SentenceTransformer(
273
+ (0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: BertModel
274
+ (1): Pooling({'word_embedding_dimension': 384, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
275
+ )
276
+ ```
277
+
278
+ ## Usage
279
+
280
+ ### Direct Usage (Sentence Transformers)
281
+
282
+ First install the Sentence Transformers library:
283
+
284
+ ```bash
285
+ pip install -U sentence-transformers
286
+ ```
287
+
288
+ Then you can load this model and run inference.
289
+ ```python
290
+ from sentence_transformers import SentenceTransformer
291
+
292
+ # Download from the 🤗 Hub
293
+ model = SentenceTransformer("micky1625/finetuned")
294
+ # Run inference
295
+ sentences = [
296
+ '왜 수은을 쓰는 사람은 소금이나 간장을 먹지 말라고 하는지 이유는 무엇인가요?',
297
+ ' 첫날 2대 다음날 1\n대를 피웠다. 그런데 그날 밤에 더운 방에서 찬바람을 쐬고서 갑자기 죽었다. 세속의 말에 의하면 \n수은을 쓰는 사람은 소금이나 간장을 먹지 말라고 한다. 그것은 간장 속에는 콩이 들어 있어서 수\n은의 독기를 풀어 버리기 때문이다. 그러나 독한 약은 약간의 독을 풀어 주는 것도 무방하기 때문\n에 구태여 소금과 간장을 금할 필요는 없다.\n東醫壽世保元 卷之四\n 太陰人 胃脘受寒表寒病論\n장중경이 말하기를 태양병 상한에 머리가 아프고 열이 오르며, 온몸과 허리가 아프고 골절이 쑤시\n며 오한이 나고 땀이 없어 숨이 찬 데에는 마황탕을 주로 써야 한다. 주에 말하기를 상한에 두통이 \n나고 온몸이 아프며 허리가 아프고 골절이 모두 쑤시기에 이르는 것은 태양병 상한에 영혈이 고르\n지 못하기 문이다. \n 내가 말하기를 이는 곧 태음인이 한기에 배추 표병이니 가벼운 증세이다. 이와 같은 증세에 마황\n탕을 쓸 수 없는 것은 아니나 계지와 감초는 필요치 않은 약이니 마땅히 마황발표탕을 쓸 것이다. \n 장중경이 말하기를 상한이 된지 4,5 일에 궐이 되는 자는 반드시 열이 오른다. 궐이 심한 자는 열\n도 심하고 궐이 경미한 자는 열도 또한 경미하다. 상한에 궐이 된 지 4일만에 다시 열이 오르고 3일\n만에 다시 궐이 되어 5일에 궐이 많고 열이 적으면 이는 그 병이 진행하고 있는 것이며 상한에 열\n이 있은 지 4일에 다시 궐로 돌아오고,',
298
+ '성이 지극하면 로정이 움직이고, 로성이 지극하면 애정\n이 움직이며, 락성이 지극하면 희정이 움직이고, 희성이 지극하면 락정이 움직인다. 태양인이 애성\n이 지극하여 그치지 못하면 분노가 밖으로 나오고, 소양인이 로성이 지극하여 이기지 못하면 비애\n가 가슴속으로 움직이고, 소음인이 락성이 지극하여 이루지 못하면 기쁘고 좋아하는 것이 정할 수 \n없고, 태음인이 희성이 지극하여 가라앉지 않으면 치락이 끝이 없을 것이다. 이와 같이 움직이는 것\n은 칼날로 장부를 자르는 것과 다름이 없다. 한번 크게 움직이면 10년이 지나도 회복하기 어려우니\n이는 죽과 사는 것과 수(壽), 요(夭)의 기관이니 몰라서는 안되는 것이다. \n 태소음양의 장부의 짧고 김은 음양의 변화니 천품이 이미 결정된 것은 두말할 나위도 없거니와 천\n품이 이미 정해진 것 이외에 또한 짧고 김이 있으니 천품이 완전하지 못한 자는 사람일의 닦음과 \n닦지 않음에 운명이 좌우되니 삼가지 않으면 안된다.\n 태양인의 로는 한사람의 로로써 천만인을 노하게 하니 그 로가 천만인을 다룰 방법이 없다면 반드\n시 천만인을 감당하기 어려울 것이다. 소음인의 희는 한사람의 희로써 천만인을 희하게 하니 그 희\n가 천만인을 다룰 방법이 없다면 반드시 천만인을 감당하기 어려울 것이다. 소양인의 애는 한 사람\n의 애로써 천만인을 애하게 하니 그 애가 천만인을 다룰 방법이 없다면 반드시 천만인을 감당하기 \n어려',
299
+ ]
300
+ embeddings = model.encode(sentences)
301
+ print(embeddings.shape)
302
+ # [3, 384]
303
+
304
+ # Get the similarity scores for the embeddings
305
+ similarities = model.similarity(embeddings, embeddings)
306
+ print(similarities.shape)
307
+ # [3, 3]
308
+ ```
309
+
310
+ <!--
311
+ ### Direct Usage (Transformers)
312
+
313
+ <details><summary>Click to see the direct usage in Transformers</summary>
314
+
315
+ </details>
316
+ -->
317
+
318
+ <!--
319
+ ### Downstream Usage (Sentence Transformers)
320
+
321
+ You can finetune this model on your own dataset.
322
+
323
+ <details><summary>Click to expand</summary>
324
+
325
+ </details>
326
+ -->
327
+
328
+ <!--
329
+ ### Out-of-Scope Use
330
+
331
+ *List how the model may foreseeably be misused and address what users ought not to do with the model.*
332
+ -->
333
+
334
+ ## Evaluation
335
+
336
+ ### Metrics
337
+
338
+ #### Information Retrieval
339
+
340
+ * Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator)
341
+
342
+ | Metric | Value |
343
+ |:--------------------|:-----------|
344
+ | cosine_accuracy@1 | 0.5625 |
345
+ | cosine_accuracy@3 | 0.7812 |
346
+ | cosine_accuracy@5 | 0.8438 |
347
+ | cosine_accuracy@10 | 0.9062 |
348
+ | cosine_precision@1 | 0.5625 |
349
+ | cosine_precision@3 | 0.2604 |
350
+ | cosine_precision@5 | 0.1688 |
351
+ | cosine_precision@10 | 0.0906 |
352
+ | cosine_recall@1 | 0.5625 |
353
+ | cosine_recall@3 | 0.7812 |
354
+ | cosine_recall@5 | 0.8438 |
355
+ | cosine_recall@10 | 0.9062 |
356
+ | **cosine_ndcg@10** | **0.7476** |
357
+ | cosine_mrr@10 | 0.6958 |
358
+ | cosine_map@100 | 0.7024 |
359
+
360
+ <!--
361
+ ## Bias, Risks and Limitations
362
+
363
+ *What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
364
+ -->
365
+
366
+ <!--
367
+ ### Recommendations
368
+
369
+ *What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
370
+ -->
371
+
372
+ ## Training Details
373
+
374
+ ### Training Dataset
375
+
376
+ #### Unnamed Dataset
377
+
378
+ * Size: 124 training samples
379
+ * Columns: <code>sentence_0</code> and <code>sentence_1</code>
380
+ * Approximate statistics based on the first 124 samples:
381
+ | | sentence_0 | sentence_1 |
382
+ |:--------|:-----------------------------------------------------------------------------------|:--------------------------------------------------------------------------------------|
383
+ | type | string | string |
384
+ | details | <ul><li>min: 12 tokens</li><li>mean: 29.15 tokens</li><li>max: 75 tokens</li></ul> | <ul><li>min: 372 tokens</li><li>mean: 417.98 tokens</li><li>max: 463 tokens</li></ul> |
385
+ * Samples:
386
+ | sentence_0 | sentence_1 |
387
+ |:-----------------------------------------------------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
388
+ | <code>태음인의 성품과 기질에 대한 내용을 바탕으로, 왜 소양인은 항상 일을 하려고 하지만 그만두려 하지 않는 것일까요?</code> | <code>지만 거처는 애로써 다스릴 수 없<br>다. 만약 애를 거처에게 옮기면 거처에게 도움이 없을 뿐아니라 신을 상하게 된다. 태음인의 가히 <br>거처는 락으로써 다스릴 수 있지만 사무는 다스릴 수 없다. 만약 락을 사무에게 옮기면 사무에게 <br>도움이 없을 뿐아니라 폐를 상하게 된다. <br> 태양인의 성품과 기질은 항상 전진하려고 하지만 후퇴하려 하지 않는다. 소양인의 성품과 기질은 <br>항상 일을 하려고 하지만 그만두려 하지 않는다. 태음인의 성품과 기질은 항상 고요하려 하지만 움<br>직이려 하지 않는다. 소음인의 성품과 기질은 항상 멈추려고 하지만 나가려고 하지 않는다. <br> 태양인의 전진함은 양이 가히 전진할 수 있으나 스스로 재주를 돌이켜서 장엄하지 않으면 전진할 <br>수 없다. 소양인의 일을 하려고 함은 양이 가히 일을 하려 할 수 있으나 스스로 힘을 돌이켜서 견고<br>하지 않으면 일을 하려 할 수 없다. 태음인의 고요함은 양이 가히 고요할 수 있으나 스스로 지혜를 <br>돌이켜 주밀하지 않으면 고요할 수 없다. 소음인의 멈추려��� 함은 양이 가히 머무를 수 있으나 스<br>스로 꾀를 돌이켜 넓지 않으면 머무를 수 없다. <br>그 지혜가 두루 미치지 못하면 고요할 수 없는 것이다. 소음인의 거처해 있는 성질은 그 역량이 거<br>처해 있을 만하지만 스스로 자신의 계획을 돌이켜 보아서 그 계획이 넓지 못하면 거처해 있을 수 <br>없다. <br> 태양인의 정기는 항상 수컷이 되고자 하고 암컷이</code> |
389
+ | <code>환자가 어떤 증상을 보일 때 대체로 효과적인 약물을 사용할 수 있는지에 대한 정보는 무엇인가요?</code> | <code>병이 풀리지 않으며 불통이 5, 6일에서 10여 일에 이르고 오<br>후가 되면 조열이 나고 오한은 없으면서도 귀신을 본 것처럼 헛소리를 하며 심하면 사람을 알아보<br>지도 못하고 옷을 더듬고 잠자리를 더듬으며 두려워하고 불안해하며 가볍게 숨차고 눈이 똑바로 <br>본다. 이런 경우에 맥이 뛰면 살고 맥이 껄끄러우면 죽는다. <br> 나는 생각한다. 진, 한 시대의 의방에 있어서 대변이 비조한 자를 다스리는 방법으로 대황은 있었<br>어도 파두로 다스리는 방법은 없었다. 그러므로 장중경도 역시 대황대승기탕을 써서 소음인의 태양<br>병이 양명병으로 옮겨진 것을 다스렸다. 환자가 미한이 이고 위 석이 건조해서 대변 불통을 5, 6일<br>에서 10여 일에 이르며 해질 무렵에는 열이 심하게 오르고 오한은 없으나 귀신을 본 것처럼 헛소리<br>를 할 경우에 이 약을 쓰면 신효하다. 병세가 심하여 발작하면 사람을 알아보지 못하고 옷을 더듬<br>고 자자리를 더듬으며 두려워하고 불안해하며 가볍게 숨이 차고 눈이 똑바로 본다. 이런 경우에도 <br>이 약을 쓰는데 맥이 뛰면 살고 맥이 껄끄러우면 죽는다. 대체로 이 처방은 소음인의 태양병이 양<br>명병으로 옮겨져서 대변 불통이 5,6일에 이르고 해질 무렵이면 심한 열이 오르는 경우에만 쓸 수 <br>있는 것이며 그 외에는 쓰지 못한다. 중경은 이 처방을 쓸 수 있는 경우와 써서는 안될 경우를 잘 <br>알고 있었으니 또한 소음인의 태양, 양명병 증세를 소상하게</code> |
390
+ | <code>성인과 보통 사람의 마음의 차이에 대해 어떻게 설명되고 있나요?</code> | <code>하늘을 <br>바라기 때문이고 비,박,탐,나의 맑고 탁하고 넓고 좁은 것은 만가지로 다른 중에 한가지 같은 점이 <br>있으니 보통 사람이 성인을 바라기 때문이다. <br> 성인의 장도 사단(四端)이고, 보통 사람의 장도 또한 사단이니 성인의 한가지 사단의 장으로써 보<br>통 사람의 만가지 사단의 가운데에 처하니 성인은 보통 사람들이 즐기는 바이고 성인의 마음은 욕<br>심이 없고 보통 사람의 마음은 욕심이 있으니 성인의 욕심이 없는 마음으로써 보통 사람의 만가지 <br>욕심있는 마음속에 처하니 보통 사람은 성인이 걱정하는 바가 된다. <br> 그런즉 천하의 보통 사람들의 장의 이치는 또한 다 성인의 장의 이치이고, 재능도 또한 다 성인의 <br>재능이다. 폐,비,간,신으로써 성인이 재능을 스스로 말하길 나는 재능이 없다고 말하는 자가 있으면 <br>어찌 재능의 죄인가, 마음이 죄이다. <br> 호연지기는 폐,비,간,신에서 나오고 호연지기는 마음에서 나오니 인의예지의 사장의 기를 넓히고 <br>채운 즉 호연지기는 이것에서 나오고, 비,박,탐,나의 한마음의 욕심을 밝히고 변별한 즉 호연지리가 <br>이것에서 나온다. <br> 성인의 마음이 욕심이 없다고 말하는 것은 맑고 고요하여 없어지는 듯하여 노자나 부처처럼 욕심<br>이 없는 것이 아니다. 성인의 마음은 천하가 다스려지지 않음을 심히 걱정하여 단지 욕심이 없는 <br>것이 아니라 또한 자신의 욕심에 미칠 겨를이 없는 것이다. 천하의 다스려지지 않음을 심히 걱</code> |
391
+ * Loss: [<code>MultipleNegativesRankingLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#multiplenegativesrankingloss) with these parameters:
392
+ ```json
393
+ {
394
+ "scale": 20.0,
395
+ "similarity_fct": "cos_sim"
396
+ }
397
+ ```
398
+
399
+ ### Training Hyperparameters
400
+ #### Non-Default Hyperparameters
401
+
402
+ - `eval_strategy`: steps
403
+ - `per_device_train_batch_size`: 5
404
+ - `per_device_eval_batch_size`: 5
405
+ - `num_train_epochs`: 2
406
+ - `multi_dataset_batch_sampler`: round_robin
407
+
408
+ #### All Hyperparameters
409
+ <details><summary>Click to expand</summary>
410
+
411
+ - `overwrite_output_dir`: False
412
+ - `do_predict`: False
413
+ - `eval_strategy`: steps
414
+ - `prediction_loss_only`: True
415
+ - `per_device_train_batch_size`: 5
416
+ - `per_device_eval_batch_size`: 5
417
+ - `per_gpu_train_batch_size`: None
418
+ - `per_gpu_eval_batch_size`: None
419
+ - `gradient_accumulation_steps`: 1
420
+ - `eval_accumulation_steps`: None
421
+ - `torch_empty_cache_steps`: None
422
+ - `learning_rate`: 5e-05
423
+ - `weight_decay`: 0.0
424
+ - `adam_beta1`: 0.9
425
+ - `adam_beta2`: 0.999
426
+ - `adam_epsilon`: 1e-08
427
+ - `max_grad_norm`: 1
428
+ - `num_train_epochs`: 2
429
+ - `max_steps`: -1
430
+ - `lr_scheduler_type`: linear
431
+ - `lr_scheduler_kwargs`: {}
432
+ - `warmup_ratio`: 0.0
433
+ - `warmup_steps`: 0
434
+ - `log_level`: passive
435
+ - `log_level_replica`: warning
436
+ - `log_on_each_node`: True
437
+ - `logging_nan_inf_filter`: True
438
+ - `save_safetensors`: True
439
+ - `save_on_each_node`: False
440
+ - `save_only_model`: False
441
+ - `restore_callback_states_from_checkpoint`: False
442
+ - `no_cuda`: False
443
+ - `use_cpu`: False
444
+ - `use_mps_device`: False
445
+ - `seed`: 42
446
+ - `data_seed`: None
447
+ - `jit_mode_eval`: False
448
+ - `use_ipex`: False
449
+ - `bf16`: False
450
+ - `fp16`: False
451
+ - `fp16_opt_level`: O1
452
+ - `half_precision_backend`: auto
453
+ - `bf16_full_eval`: False
454
+ - `fp16_full_eval`: False
455
+ - `tf32`: None
456
+ - `local_rank`: 0
457
+ - `ddp_backend`: None
458
+ - `tpu_num_cores`: None
459
+ - `tpu_metrics_debug`: False
460
+ - `debug`: []
461
+ - `dataloader_drop_last`: False
462
+ - `dataloader_num_workers`: 0
463
+ - `dataloader_prefetch_factor`: None
464
+ - `past_index`: -1
465
+ - `disable_tqdm`: False
466
+ - `remove_unused_columns`: True
467
+ - `label_names`: None
468
+ - `load_best_model_at_end`: False
469
+ - `ignore_data_skip`: False
470
+ - `fsdp`: []
471
+ - `fsdp_min_num_params`: 0
472
+ - `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
473
+ - `fsdp_transformer_layer_cls_to_wrap`: None
474
+ - `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
475
+ - `deepspeed`: None
476
+ - `label_smoothing_factor`: 0.0
477
+ - `optim`: adamw_torch
478
+ - `optim_args`: None
479
+ - `adafactor`: False
480
+ - `group_by_length`: False
481
+ - `length_column_name`: length
482
+ - `ddp_find_unused_parameters`: None
483
+ - `ddp_bucket_cap_mb`: None
484
+ - `ddp_broadcast_buffers`: False
485
+ - `dataloader_pin_memory`: True
486
+ - `dataloader_persistent_workers`: False
487
+ - `skip_memory_metrics`: True
488
+ - `use_legacy_prediction_loop`: False
489
+ - `push_to_hub`: False
490
+ - `resume_from_checkpoint`: None
491
+ - `hub_model_id`: None
492
+ - `hub_strategy`: every_save
493
+ - `hub_private_repo`: None
494
+ - `hub_always_push`: False
495
+ - `gradient_checkpointing`: False
496
+ - `gradient_checkpointing_kwargs`: None
497
+ - `include_inputs_for_metrics`: False
498
+ - `include_for_metrics`: []
499
+ - `eval_do_concat_batches`: True
500
+ - `fp16_backend`: auto
501
+ - `push_to_hub_model_id`: None
502
+ - `push_to_hub_organization`: None
503
+ - `mp_parameters`:
504
+ - `auto_find_batch_size`: False
505
+ - `full_determinism`: False
506
+ - `torchdynamo`: None
507
+ - `ray_scope`: last
508
+ - `ddp_timeout`: 1800
509
+ - `torch_compile`: False
510
+ - `torch_compile_backend`: None
511
+ - `torch_compile_mode`: None
512
+ - `dispatch_batches`: None
513
+ - `split_batches`: None
514
+ - `include_tokens_per_second`: False
515
+ - `include_num_input_tokens_seen`: False
516
+ - `neftune_noise_alpha`: None
517
+ - `optim_target_modules`: None
518
+ - `batch_eval_metrics`: False
519
+ - `eval_on_start`: False
520
+ - `use_liger_kernel`: False
521
+ - `eval_use_gather_object`: False
522
+ - `average_tokens_across_devices`: False
523
+ - `prompts`: None
524
+ - `batch_sampler`: batch_sampler
525
+ - `multi_dataset_batch_sampler`: round_robin
526
+
527
+ </details>
528
+
529
+ ### Training Logs
530
+ | Epoch | Step | cosine_ndcg@10 |
531
+ |:-----:|:----:|:--------------:|
532
+ | 1.0 | 25 | 0.7457 |
533
+ | 2.0 | 50 | 0.7476 |
534
+
535
+
536
+ ### Framework Versions
537
+ - Python: 3.11.11
538
+ - Sentence Transformers: 3.4.1
539
+ - Transformers: 4.49.0
540
+ - PyTorch: 2.6.0+cu124
541
+ - Accelerate: 1.5.2
542
+ - Datasets: 3.4.1
543
+ - Tokenizers: 0.21.1
544
+
545
+ ## Citation
546
+
547
+ ### BibTeX
548
+
549
+ #### Sentence Transformers
550
+ ```bibtex
551
+ @inproceedings{reimers-2019-sentence-bert,
552
+ title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
553
+ author = "Reimers, Nils and Gurevych, Iryna",
554
+ booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
555
+ month = "11",
556
+ year = "2019",
557
+ publisher = "Association for Computational Linguistics",
558
+ url = "https://arxiv.org/abs/1908.10084",
559
+ }
560
+ ```
561
+
562
+ #### MultipleNegativesRankingLoss
563
+ ```bibtex
564
+ @misc{henderson2017efficient,
565
+ title={Efficient Natural Language Response Suggestion for Smart Reply},
566
+ author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
567
+ year={2017},
568
+ eprint={1705.00652},
569
+ archivePrefix={arXiv},
570
+ primaryClass={cs.CL}
571
+ }
572
+ ```
573
+
574
+ <!--
575
+ ## Glossary
576
+
577
+ *Clearly define terms in order to be accessible across audiences.*
578
+ -->
579
+
580
+ <!--
581
+ ## Model Card Authors
582
+
583
+ *Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
584
+ -->
585
+
586
+ <!--
587
+ ## Model Card Contact
588
+
589
+ *Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
590
+ -->
config.json ADDED
@@ -0,0 +1,26 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "_name_or_path": "/content/exp_finetune",
3
+ "architectures": [
4
+ "BertModel"
5
+ ],
6
+ "attention_probs_dropout_prob": 0.1,
7
+ "classifier_dropout": null,
8
+ "hidden_act": "gelu",
9
+ "hidden_dropout_prob": 0.1,
10
+ "hidden_size": 384,
11
+ "initializer_range": 0.02,
12
+ "intermediate_size": 1536,
13
+ "layer_norm_eps": 1e-12,
14
+ "max_position_embeddings": 512,
15
+ "model_type": "bert",
16
+ "num_attention_heads": 12,
17
+ "num_hidden_layers": 12,
18
+ "pad_token_id": 0,
19
+ "position_embedding_type": "absolute",
20
+ "tokenizer_class": "XLMRobertaTokenizer",
21
+ "torch_dtype": "float32",
22
+ "transformers_version": "4.49.0",
23
+ "type_vocab_size": 2,
24
+ "use_cache": true,
25
+ "vocab_size": 250037
26
+ }
config_sentence_transformers.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "__version__": {
3
+ "sentence_transformers": "3.4.1",
4
+ "transformers": "4.49.0",
5
+ "pytorch": "2.6.0+cu124"
6
+ },
7
+ "prompts": {},
8
+ "default_prompt_name": null,
9
+ "similarity_fn_name": "cosine"
10
+ }
model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:50314aa127e6fb6982d8ca52a9594f49a756332e2f1ebc7d266c6b265ebbb97a
3
+ size 470637416
modules.json ADDED
@@ -0,0 +1,14 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ [
2
+ {
3
+ "idx": 0,
4
+ "name": "0",
5
+ "path": "",
6
+ "type": "sentence_transformers.models.Transformer"
7
+ },
8
+ {
9
+ "idx": 1,
10
+ "name": "1",
11
+ "path": "1_Pooling",
12
+ "type": "sentence_transformers.models.Pooling"
13
+ }
14
+ ]
sentence_bert_config.json ADDED
@@ -0,0 +1,4 @@
 
 
 
 
 
1
+ {
2
+ "max_seq_length": 512,
3
+ "do_lower_case": false
4
+ }
sentencepiece.bpe.model ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:cfc8146abe2a0488e9e2a0c56de7952f7c11ab059eca145a0a727afce0db2865
3
+ size 5069051
special_tokens_map.json ADDED
@@ -0,0 +1,51 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "bos_token": {
3
+ "content": "<s>",
4
+ "lstrip": false,
5
+ "normalized": false,
6
+ "rstrip": false,
7
+ "single_word": false
8
+ },
9
+ "cls_token": {
10
+ "content": "<s>",
11
+ "lstrip": false,
12
+ "normalized": false,
13
+ "rstrip": false,
14
+ "single_word": false
15
+ },
16
+ "eos_token": {
17
+ "content": "</s>",
18
+ "lstrip": false,
19
+ "normalized": false,
20
+ "rstrip": false,
21
+ "single_word": false
22
+ },
23
+ "mask_token": {
24
+ "content": "<mask>",
25
+ "lstrip": false,
26
+ "normalized": false,
27
+ "rstrip": false,
28
+ "single_word": false
29
+ },
30
+ "pad_token": {
31
+ "content": "<pad>",
32
+ "lstrip": false,
33
+ "normalized": false,
34
+ "rstrip": false,
35
+ "single_word": false
36
+ },
37
+ "sep_token": {
38
+ "content": "</s>",
39
+ "lstrip": false,
40
+ "normalized": false,
41
+ "rstrip": false,
42
+ "single_word": false
43
+ },
44
+ "unk_token": {
45
+ "content": "<unk>",
46
+ "lstrip": false,
47
+ "normalized": false,
48
+ "rstrip": false,
49
+ "single_word": false
50
+ }
51
+ }
tokenizer.json ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:ef04f2b385d1514f500e779207ace0f53e30895ce37563179e29f4022d28ca38
3
+ size 17083053
tokenizer_config.json ADDED
@@ -0,0 +1,63 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "added_tokens_decoder": {
3
+ "0": {
4
+ "content": "<s>",
5
+ "lstrip": false,
6
+ "normalized": false,
7
+ "rstrip": false,
8
+ "single_word": false,
9
+ "special": true
10
+ },
11
+ "1": {
12
+ "content": "<pad>",
13
+ "lstrip": false,
14
+ "normalized": false,
15
+ "rstrip": false,
16
+ "single_word": false,
17
+ "special": true
18
+ },
19
+ "2": {
20
+ "content": "</s>",
21
+ "lstrip": false,
22
+ "normalized": false,
23
+ "rstrip": false,
24
+ "single_word": false,
25
+ "special": true
26
+ },
27
+ "3": {
28
+ "content": "<unk>",
29
+ "lstrip": false,
30
+ "normalized": false,
31
+ "rstrip": false,
32
+ "single_word": false,
33
+ "special": true
34
+ },
35
+ "250001": {
36
+ "content": "<mask>",
37
+ "lstrip": false,
38
+ "normalized": false,
39
+ "rstrip": false,
40
+ "single_word": false,
41
+ "special": true
42
+ }
43
+ },
44
+ "bos_token": "<s>",
45
+ "clean_up_tokenization_spaces": true,
46
+ "cls_token": "<s>",
47
+ "eos_token": "</s>",
48
+ "extra_special_tokens": {},
49
+ "mask_token": "<mask>",
50
+ "max_length": 512,
51
+ "model_max_length": 512,
52
+ "pad_to_multiple_of": null,
53
+ "pad_token": "<pad>",
54
+ "pad_token_type_id": 0,
55
+ "padding_side": "right",
56
+ "sep_token": "</s>",
57
+ "sp_model_kwargs": {},
58
+ "stride": 0,
59
+ "tokenizer_class": "XLMRobertaTokenizer",
60
+ "truncation_side": "right",
61
+ "truncation_strategy": "longest_first",
62
+ "unk_token": "<unk>"
63
+ }