Upload folder using huggingface_hub
Browse files- 1_Pooling/config.json +10 -0
- README.md +593 -0
- config.json +28 -0
- config_sentence_transformers.json +14 -0
- model.safetensors +3 -0
- modules.json +14 -0
- sentence_bert_config.json +4 -0
- special_tokens_map.json +51 -0
- tokenizer.json +0 -0
- tokenizer_config.json +67 -0
- vocab.txt +0 -0
1_Pooling/config.json
ADDED
|
@@ -0,0 +1,10 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
{
|
| 2 |
+
"word_embedding_dimension": 768,
|
| 3 |
+
"pooling_mode_cls_token": false,
|
| 4 |
+
"pooling_mode_mean_tokens": true,
|
| 5 |
+
"pooling_mode_max_tokens": false,
|
| 6 |
+
"pooling_mode_mean_sqrt_len_tokens": false,
|
| 7 |
+
"pooling_mode_weightedmean_tokens": false,
|
| 8 |
+
"pooling_mode_lasttoken": false,
|
| 9 |
+
"include_prompt": true
|
| 10 |
+
}
|
README.md
ADDED
|
@@ -0,0 +1,593 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
---
|
| 2 |
+
tags:
|
| 3 |
+
- sentence-transformers
|
| 4 |
+
- sentence-similarity
|
| 5 |
+
- feature-extraction
|
| 6 |
+
- dense
|
| 7 |
+
- generated_from_trainer
|
| 8 |
+
- dataset_size:17552
|
| 9 |
+
- loss:MultipleNegativesRankingLoss
|
| 10 |
+
base_model: HJUNN/klue_roberta-base-klue-sts
|
| 11 |
+
widget:
|
| 12 |
+
- source_sentence: 새해부터 유로화를 사용하게 될 나라는?
|
| 13 |
+
sentences:
|
| 14 |
+
- '화순 춘산영당에 소장된 면암 최익현의 초상은 1911년 4월에 석지 채용신이 그린 작품으로, 비단에 채색을 하여 제작한 작품으로 정면을 향하여
|
| 15 |
+
앉은 전신상이다. 면암은 무릎을 꿇고 화문석 위에 앉아있는 모습으로 도포자락에 가려진 두 손을 무릎위에 올려놓고 있다. 배접이 된 초상화의
|
| 16 |
+
뒷면 오른쪽 하단에는 그림을 그린 시기와 작가, 그리고 낙관이 되어 있다
|
| 17 |
+
|
| 18 |
+
|
| 19 |
+
채용신은 구한말의 대표적인 초상화가로 그의 작품에 대한 미술사적 가치는 상당히 크다. 특히 전통적인 초상화 기법과 당시 전해져오는 서양의 음영법을
|
| 20 |
+
잘 조화시켜 실제 인물의 모습을 사실적으로 묘사하면서도 초상화의 주인공이 가진 정신세계를 잘 드러내고 있고, 근대적인 작가관을 가지고 있다는
|
| 21 |
+
점에서도 중요한 작가이다. 또한 그는 초상화에서 한일합방에 따른 자신의 반일의식을 자신만의 소재로 표현하고 있다는 점도 현실인식을 보여주는
|
| 22 |
+
좋은 작가라고 할 수 있다. 면암의 초상화는 그의 항일활동과 대쪽같은 선비의 품성을 잘 드러내고 있어서 초상화의 진면목을 보여주는 작품으로
|
| 23 |
+
평가되고 있다
|
| 24 |
+
|
| 25 |
+
|
| 26 |
+
채용신이 근대에 활동한 화가이는 하지만 한국미술사에서 중요한 인물이고 그의 작품들은 당시 상황을 잘 드러내는 인물들을 소재로 그림을 그렸으며,
|
| 27 |
+
그 중 면암 최익현 초상화는 채용신의 작품세계를 가장 잘 보여주는 작품이다'
|
| 28 |
+
- 2014년 세계는 격동의 한 해가 될 것으로 예상된다. 11개국에서 총선과 대선이 치러지고 각국의 정책 향방을 결정하는 중요한 행사도 줄줄이
|
| 29 |
+
잡혀 있다.우선 가장 관심을 끄는 것은 2월 재닛 옐런 신임 미국 중앙은행(Fed) 의장 취임이다. 옐런 의장 체제 아래 Fed가 어떻게 바뀔지는
|
| 30 |
+
3월18일부터 이틀간 열리는 첫 연방공개시장위원회(FOMC)에서 윤곽이 드러날 것으로 보인다. 이후 4월, 6월, 7월, 9월, 10월, 12월
|
| 31 |
+
등 여섯 차례에 걸쳐 개최되는 FOMC에서 양적완화 축소에 대해 어떤 정책을 내놓을지에 따라 세계 시장은 요동칠 것으로 전망된다.미국 외에
|
| 32 |
+
영국도 본격적인 양적완화 축소에 돌입할 전망이다. 파이낸셜타임스는 “연 3%대의 안정적인 성장률과 가파른 실업률 감소 속도를 감안할 때 2014년에는
|
| 33 |
+
영국중앙은행이 금리를 높일 것”이라고 예상했다.4월에는 올해 치러지는 선거 중 최대 5개의 선거가 집중돼 있다. 가장 눈길을 끄는 것은 22일부터
|
| 34 |
+
사흘간 유럽연합(EU) 28개 회원국에서 진행되는 유럽의회 선거다. 경기침체와 높은 실업률에 대한 불만으로 영국 독립당, 프랑스 국민전선 등
|
| 35 |
+
반(反)EU 성향 정당들이 최대 25%의 의석을 확보할 것이라는 관측이 벌써부터 나온다. 1월1일 리투아니아의 유로존 편입으로 유로화 사용
|
| 36 |
+
국가가 18개국으로 확대된 가운데 유럽 통합이 또 하나의 시험대에 오를 전망이다.4월5일 치러지는 아프가니스탄 대선과 30일로 예정된 이라크
|
| 37 |
+
총선도 정국 안정의 향방을 가르는 시험대다. 11월4일에 치러질 미국 의회 선거는 하원 전체와 상원 3분의 1에 대해 진행된다. 버락 오바마
|
| 38 |
+
대통령에 대한 중간 평가 성격을 띠고 있다. 공화당이 고전할 것이라는 분석이 나온다.2월2일 태국에서 실시되는 조기 총선은 극도의 정치 불안이
|
| 39 |
+
해소될지를 가늠하는 장이 될 것으로 예상된다. 잉락 친나왓 총리의 승리가 예상되지만 제1야당의 불참으로 대립이 계속될 가능성도 없지 않다.
|
| 40 |
+
정정 불안이 지속될 경우 군부가 쿠데타에 나설 개연성도 제기된다.가을에는 중국의 18기 4중전회(제18기 중앙위원회 제4차 전체회의)가 열린다.
|
| 41 |
+
주요 정책은 3중전회에서 이미 제시된 만큼 시진핑 국가주석이 역점을 둔 정책 방향을 강조하는 선에서 끝날 가능성이 높다. 작년 11월 열린
|
| 42 |
+
18기 3중전회의 후속 조치도 부정기적으로 발표될 예정이다. 지만수 금융연구원 연구위원은 “도시화와 사회보장정책 등과 관련된 구체적인 내용이
|
| 43 |
+
리커창 총리 주도로 공개될 것”이라고 말했다.
|
| 44 |
+
- "과학적 방법\n \n과학적 방법은 연역과 귀납에 의해 사실을 밝히는 방법론이다. 연역은 사실로 여겨지는 기존의 전제에서 새로운 결론을 논리적으로\
|
| 45 |
+
\ 유도하고 귀납은 관찰되는 현상에서 일반화된 결론을 이끌어낸다. 이 두 방법은 모두 완전하지 않다. 연역은 전제가 사실이 아니었을 때 필연적으로\
|
| 46 |
+
\ 결론 역시 잘못되게 되며, 귀납은 새로운 사실이 관찰되었을 때 결론이 붕괴될 수 있다. \"백조는 모두 희다\"는 주장은 검은 백조의 발견으로\
|
| 47 |
+
\ 붕괴된다. 새로운 사실에 의해 기존의 귀납적 추론이 붕괴되는 것은 흑고니 이론으로 알려져 있으며 과학뿐만아니라 경제, 사회, 철학 등 여러\
|
| 48 |
+
\ 학문 분야에서 쓰이고 있다.\n\n과학의 역사에서 많은 과학자들은 흑고니와 같이 기존의 설명에 반하는 것을 발견하였을 때 이를 무시하는\
|
| 49 |
+
\ 경향을 보였다192–94 기존의 과학적 설명은 확증 편향으로서 작용한다. 새로운 발견이 기존의 설명에 들어맞으면 보다 쉽게 수용되지만 그렇지\
|
| 50 |
+
\ 않은 것은 무시되거나 잘못된 관찰이라는 평가를 받기 쉽다 20세기 초 하버드 대학교의 세실리아 페인은 태양의 스펙트럼을 분석하여 태양을\
|
| 51 |
+
\ 이루는 물질의 대다수가 수소와 헬륨이라는 사실을 관찰하였다. 그러나 당시 보수적이며 남성중심적이었던 천문학계는 페인의 관찰을 받아드리지\
|
| 52 |
+
\ 못했다. 페인은 이와 관련한 논문을 발표하면서 지도교수 헨리 노리스 러셀의 강권에 못이겨 논문 말미에 \"이는 사실이 아닐 것\"이라고\
|
| 53 |
+
\ 써 넣을 수 밖에 없었다. 당시 천문학계는 태양이 대부분 철로 이루어져 있다고 믿고 있었다. 과학자들이 기존의 이론을 고수하려는 확증 편향을\
|
| 54 |
+
\ 보이기 쉽다고 하더라도 새로운 결과를 지지하는 관찰과 실험이 계속되면 결국 기존의 이론은 폐기되고 새로운 이론이 세워지게 된다 그러나 이러한\
|
| 55 |
+
\ 변환은 그리 순탄하지 많은 않다. 토머스 쿤은 《과학혁명의 구조》에서 과학 이론의 변화를 대립, 경쟁하는 패러다임의 변환으로 파악한 바\
|
| 56 |
+
\ 있다. \n\n과학적 발견은 때로 사회가 갖는 확증 편향과 대립하기도 한다. 찰스 다윈의 《종의 기원》은 당시 영국 사회의 일반적 신념인\
|
| 57 |
+
\ 기독교의 창조론에 반한다는 이유로 큰 논란을 일으켰다. 과학은 종교와 전혀 다른 범주이지만 오늘날에도 일부 근본주의 기독교 신자들은 창조론을\
|
| 58 |
+
\ 옹호하기 위해 진화 이론을 거부한다."
|
| 59 |
+
- source_sentence: 3분기 글로벌 IT업계 매출 2위의 매출액은?
|
| 60 |
+
sentences:
|
| 61 |
+
- 올 3분기 글로벌 정보기술(IT) 회사 중 매출 1위는 삼성전자가 차지했다. 가장 많은 영업이익을 올린 기업은 애플이었다. 3분기 글로벌 IT업계
|
| 62 |
+
실적을 비교한 결과 매출 1위는 삼성전자가, 그 뒤는 애플이 차지했다. 3~5위는 IBM 마이크로소프트 구글 순이었다. 삼성전자는 3분기 59조800억원의
|
| 63 |
+
매출을 기록, 40조2200억원(이하 9월 말 환율 적용)인 애플을 18조8600억원 차이로 따돌렸다. 삼성전자와 애플의 매출 차는 1분기
|
| 64 |
+
4조4300억원, 2분기 17조2100억원이었다. 3분기에 그 차이를 더 벌린 것이다. 지난해 4분기만 해도 삼성전자의 매출은 애플보다 3조8900억원
|
| 65 |
+
적었다. 3분기 애플은 아이폰 신제품이 없어 스마트폰 판매가 다소 부진했던 반면 삼성전자는 보급형 스마트폰 등으로 꾸준한 판매실적을 올렸기
|
| 66 |
+
때문으로 보인다. 시장조사기관 SA에 따르면 2분기 삼성전자와 애플의 스마트폰 시장 점유율은 각각 32.9%, 15.6%였지만 3분기엔 35.2%,
|
| 67 |
+
13.4%였다. 3분기 IT 기업의 영업이익은 애플 삼성전자 마이크로소프트 인텔 IBM 순이었다. 삼성전자는 사상 처음으로 10조원대(10조1600억원)의
|
| 68 |
+
분기 영업이익을 올렸으나 애플(10조7600억원)의 실적을 넘진 못했다. 다만 애플과 삼성전자의 영업이익 격차는 점점 줄어들고 있다. 2011년
|
| 69 |
+
4분기 15조4300억원, 2012년 1분기 11조7200억원에 이르렀던 두 회사의 영업이익 격차는 올 1분기 5조1700억원, 2분기 9500억원
|
| 70 |
+
등으로 좁혀졌다.
|
| 71 |
+
- 대기업들의 ‘사옥 이전 바람’이 지역별 부동산시장에 활기를 불어넣고 있다. 대기업이 들어서는 곳은 배후 주택 수요가 늘어나고, 도시기반시설과
|
| 72 |
+
상권이 활성화될 가능성이 높아 주변 부동산에 호재로 작용할 수 있어서다.14일 부동산업계에 따르면 대기업 이전 계획이 있는 △인천 송도지구
|
| 73 |
+
△서울 마곡지구 △경기 수원과 광교신도시 등지에 수요자들의 관심이 커지고 있다. 송도지구 제일공인 관계자는 “개발이 지지부진하던 곳도 대기업이
|
| 74 |
+
들어오면 금세 자족시설이 갖��져 자산가치가 높아진다”며 “대기업 임직원들이 대거 이주할 경우 주택 거래가 늘고 학군도 좋아질 것이란 기대감이
|
| 75 |
+
커진다”고 설명했다. 송도지구에는 포스코 삼성 대한항공 롯데 등의 대기업 이전이 활발하다. 최근에는 코오롱글로벌과 코오롱워터에너지의 본사도
|
| 76 |
+
과천에서 송도 ‘인천테크노파크 IT센터’로 옮겨왔다. IT센터 인근에 있는 ‘송도 캠퍼스타운’ 오피스텔 분양 관계자는 “최근 1000여명의
|
| 77 |
+
코오롱그룹 계열사 직원들이 몰리며 오피스텔과 아파트의 계약·입주율이 높아지고 있다”고 말했다. LG그룹 연구센터와 대우조선해양 본사 등 대기업
|
| 78 |
+
입주가 확정된 서울 마곡지구에도 관심이 쏠리고 있다. LG그룹이 3조2000억원을 투자하고 3만여명의 근무 인력이 모일 것으로 예상돼 부동산시장에도
|
| 79 |
+
파급 효과가 크다는 평가를 받고 있다. 롯데 코오롱 이랜드 등은 2015년부터 이전할 계획을 세우고 있다. 경기 광교신도시에 대한 관심도 높다.
|
| 80 |
+
CJ제일제당은 광교신도시 첨단산업연구단지 3만7530㎡ 규모의 4개 연구소를 통합한 ‘CJ제일제당 온리원(ONLY ONE) 연구개발센터’를
|
| 81 |
+
공사 중이다. 올해 말 완공되면 800여명의 연구인력을 비롯해 약 1000명의 인력이 상주하게 된다. 광교신도시에서 ‘광교 참누리’(356가구)
|
| 82 |
+
아파트를 공급하는 울트라건설 관계자는 “대기업 이전으로 분양시장도 활기를 띨 것”으로 기대했다.
|
| 83 |
+
- 스파크플러스(대표 목진건)가 코로나19 확산 속 입주사들의 안전을 위해 방역 강화에 나선다고 18일 밝혔다. 스파크플러스는 코로나19 대확산으로
|
| 84 |
+
사회적 거리두기 최고 수준인 3단계 격상 논의가 오가는 상황을 고려해, 입주를 문의하는 기업들에 온라인 영상으로 관련 정보를 제공하는 ‘온택트
|
| 85 |
+
프리투어’와 입주사 공용 공간에 주요 위생·방역물품을 비치하는 ‘스플안심스팟’ 서비스를 시행한다. 온택트 프리투어는 사무실 계약이 필요하지만
|
| 86 |
+
코로나19로 대면 방문에 부담을 느끼는 기업들을 위해 마련한 공간 소개 영상 서비스다. 지점 위치와 출퇴근 동선, 주차 환경, 층고 높이,
|
| 87 |
+
공간 구조, 가구 배치, 공용 공간 등을 영상으로 상세하게 담아, 입주에 필요한 실질적인 정보들을 현장에 오지 않아도 비대면으로 편하게 확인할
|
| 88 |
+
수 있다. 입주를 고려 중인 기업은 유튜브 스파크플러스 채널에서 영상 일부를 확인할 수 있으며, 풀버전은 입주 문의 기업에만 제공된다. 성수점·성수2호점·선릉점·선릉3호점
|
| 89 |
+
영상이 공개된 상태로 오는 2월까지 전 지점에 온택트 프리투어가 가능하도록 지원할 계획이다. 기존 입주사들이 안심하고 안전한 환경에서 근무할
|
| 90 |
+
수 있도록 ‘스플안심스팟’도 선보인다. 전 지점 약 70개소 공용 공간에 마스크, 손 소독용 티슈, 알코올 스프레이, 위생장갑, 비접촉식 체온계
|
| 91 |
+
등 주요 방역 물품을 비치해 제공하는 서비스로, 사회적 거리두기 2.5단계 기간 동안 지속 운영할 예정이다. 또한 입주사 안전을 최우선으로
|
| 92 |
+
고려해 이벤트홀 대관을 중단하고 라운지 혼잡도를 높일 수 있는 라운지 이용권 상품은 판매하지 않고 있다. 스파크플러스 목진건 대표는 “기존에도
|
| 93 |
+
주말 오피스 투어와 온라인 계약서 작성 등 간편 입주 서비스, 코로나19 초기부터 운영 중인 선제적 방역 시스템까지 고객 편의를 최우선으로
|
| 94 |
+
고려해 왔다”며 “입주사들이 어떤 우려도 없이 본질과 성공에만 집중할 수 있도록 앞으로도 다양한 서비스를 발빠르게 기획 및 제공하겠다”고 말했다.
|
| 95 |
+
- source_sentence: 세무공무원의 성과평가 방식을 상대평가에서 절대평가로 바꾼 회의가 열린 장소는?
|
| 96 |
+
sentences:
|
| 97 |
+
- 국세청이 세무공무원에 대한 성과평가제도를 전면 개편한다. 평가 방식을 상대평가에서 절대평가로 바꾸고, 과세후 조세불복 소송 등에서 패소율이
|
| 98 |
+
높은 직원에게 인사상 불이익을 주기로 했다. 내부 인사시스템의 문제가 최근 조세불복이 급증하고 조세 소송에서 국세청이 패소하는 비율(인용률)이
|
| 99 |
+
높아지는 이유 중 하나라고 판단한 것으로 보인다. ○상대평가에서 절대평가로국세청은 최근 수원 국세공무원교육원에서 열린 고위공무원단 워크숍에서
|
| 100 |
+
‘성과평가(BSC) 방식의 문제점 및 개선 방안’을 주제로 논의하고 이 같은 방안을 확정했다. 개편 내용은 올해 인사평가 때부터 반영하기로
|
| 101 |
+
했다. 가장 큰 틀의 변화는 상대평가를 절대��가로 바꾸는 것이다. 올해 실적부터 성과지표별로 기준을 정하고 이 기준을 넘는 경우 다른 직원과
|
| 102 |
+
비교하지 않고 성과등급을 주는 절대평가제다. 국세청 고위 관계자는 “조사뿐 아니라 징세, 체납정리, 세원분석 등 사실상 전 분야에서 절대평가제로
|
| 103 |
+
바꾸는 것”이라며 “평가 기준도 양적 기준 외에 질적 기준을 더욱 강화할 방침”이라고 설명했다. 질적 기준은 과세의 적정성을 뜻하는 것으로
|
| 104 |
+
해석된다. 지금까지는 세무공무원의 실적을 평가할 때 세금을 얼마나 많이 거둬들였느냐가 가장 중시됐다. 하지만 앞으로는 세수 쪽 비중을 낮추고
|
| 105 |
+
얼마나 적정하게 과세했느냐에 무게중심을 두겠다는 것이다. 아직 세부안이 확정되진 않았지만 불복신청이나 심사·심판 청구, 소송 등에서 패하는
|
| 106 |
+
비율이 높은 경우 인사상 불이익을 주는 방안이 유력한 것으로 알려졌다.○사후검증 등 줄어들 듯지난해 납부된 세금에 대한 사후검증이 크게 늘어난
|
| 107 |
+
것을 납세자들이 사실상 세무조사로 인식하는 등 민원이 많았던 점이 내부 인사시스템의 직접적인 개편 배경이다. 국세청 관계자는 “사후검증이 급증하고
|
| 108 |
+
세무조사 강도가 세진 것이 실적 경쟁을 부추기는 내부 인사시스템상의 문제라는 지적이 있어 이를 손질하기로 한 것”이라고 설명했다. 상대평가로
|
| 109 |
+
인사고과를 하다 보니 과도하게 추징하는 등 일부 부작용이 있었고, 이는 납세자의 민원과 조세불복 증가 등으로 이어졌다는 설명이다. 지난해 법인세,
|
| 110 |
+
소득세, 부가가치세 등 납부된 세금에 대해 국세청이 소명자료·수정신고를 요구하는 공문을 보내는 등 사후검증을 한 건수는 전년에 비해 3배가량
|
| 111 |
+
늘어난 것으로 잠정 집계됐다. 세무조사 건수는 2012년 1만8002건에서 지난해 1만8070건으로 큰 변화가 없었다. 국세청 관계자는 “사후검증
|
| 112 |
+
건수 등이 감소하면 납세자들이 느끼는 조사 및 추징 스트레스도 줄어들 것으로 기대하고 있다”고 덧붙였다.
|
| 113 |
+
- '특히 변계량은 조선시대 대제학을 20년 지낸 당대 최고의 학문 권위자다. 권력이나 이권하고는 무관한 학문을 다루는 최고 직책 대제학은 명예를
|
| 114 |
+
중요시하는 사대부들의 선망의 대상으로 “정승 10명이 대제학 한 명만 못하다”라는 말을 남겼다. 대제학은 ‘학문을 저울질하여 올바르게 평가한다’고
|
| 115 |
+
했으며 학문과 관련되는 모든 관직을 거친 대과 급제자만 오를 수 있었다. 품계는 정2품으로 판서와 동급이지만 정승이나 판서보다 높게 대우 받았다.
|
| 116 |
+
대제학은 오늘날 관직상으로 교육부 장관에 해당되나, 공적으로 철저히 검증된 대과급제자에 한해서 정치적 경륜을 갖추고 학문적으로는 당대에 최고의
|
| 117 |
+
성리학자로 공인된 인물만이 임명될 수 있다는 점에서 최고의 명예로운 관직이었다. 관직상으로는 일인지하만인지상(一人之下萬人之上)의 영의정, 좌의정,
|
| 118 |
+
우의정을 지낸 인물 가운데에서도 대제학을 지낸 인물이 소수라는 것은 정치적 또는 관료적 성격이 우선이 아니라 성리학의 학문성을 우선했다는 것이다.
|
| 119 |
+
따라서 대제학과 우의정, 좌의정, 영의정을 지낸 인물의 가문은 명문 가문 중에 명문 가문으로 존중했다.
|
| 120 |
+
|
| 121 |
+
|
| 122 |
+
변계량의 학문은 명나라와 사대외교 하는데, 유교사회를 건설하고 조선의 이념을 전파하는데 쓰였다. 세종은 집현전 학사 중에서 “앞으로는 본전(사무실)에
|
| 123 |
+
출근하지 말고 오로지 집에서 글을 읽어라”고 명한다. 한 가지 조건은, 세 사람이 글을 읽는 규범은 변계량의 지도를 받아야 한다는 것이었다.'
|
| 124 |
+
- "1309년 3월 교황청은 지난 4년 간 머물렀던 푸아티에에서 아비뇽과 가까운 브나스크 백작령으로 이전하였다. 당시 브나스크 백작령은 프랑스의\
|
| 125 |
+
\ 영토가 아니라 시칠리아 국왕이 신성 로마 제국 황제로부터 받은 봉토였다.\n\n프랑스 측은 로마가 로마 귀족들의 알력과 그들의 무장 민병대\
|
| 126 |
+
\ 수준이 밑바닥으로 떨어지고, 로마 교구의 주교좌 성당인 산 조반니 인 라테라노 대성전이 화재로 전소되는 등 치안이 불안정하고 위험한 곳이기\
|
| 127 |
+
\ 때문에 안전을 근거로 내세워 브나스크 백작령의 사실상 수도라고 할 수 있는 카르팡트라로의 이전을 정당화하였다.\n\n그러나 교황청의 이전은\
|
| 128 |
+
\ 이탈리아의 시인 페트라르카가 고대 유대인이 바빌론에 강제 이수된 바빌론 유수에 비유해 아비뇽 유수(1309–1377)라고 부른 시기의 전조로서,\
|
| 129 |
+
\ ��왕들의 아버지’에 비유될 정도로 강력했던 교황권이 쇠퇴의 길목에 이르렀음을 알려주는 신호였다 이 아비뇽 유수는 속권이 교권을 장악한 중세\
|
| 130 |
+
\ 시대의 한 현상이라고 볼 수 있다.\n\n클레멘스 5세의 치세는 이탈리아에 있어서도 비참한 시절이었다. 교황령은 세 명의 추기경이 교황\
|
| 131 |
+
\ 대리로 통치권을 위임받았으나 수도 로마는 콜론나 가문과 오르시니 가문이 다툼을 벌이는 전장터로 돌변하여 제대로 통제할 수가 없었다. 1301년\
|
| 132 |
+
\ 독일 왕 하인리히 7세가 이탈리아에 입성해 밀라노에 황제 대리로 비스콘티 가문을 내세웠고, 1312년 클레멘스 5세의 대리에 의해 황제관을\
|
| 133 |
+
\ 수여받아 신성 로마 제국 황제로 등극하였으나 1313년 시에나 인근에서 사망하였다. \n\n페라라가 에스테 가문이 배제된 채 교황령에 흡수\
|
| 134 |
+
\ 통합되면서 교황군이 베네치아 및 에스테 가문과 충돌하였다. 파문과 성무 금지령에도 불구하고 별다른 효과가 없자 클레멘스 5세는 1309년\
|
| 135 |
+
\ 5월 베네치아를 상대로 한 십자군을 역설하면서 전쟁터에서 사로잡은 베네치아인은 비그리스도인들처럼 노예로 사고팔 수 있다고 선언했다."
|
| 136 |
+
- source_sentence: 러시아를 근대화하려는 노력을 통해 근대 열강의 하나로 자리잡게 한 왕은?
|
| 137 |
+
sentences:
|
| 138 |
+
- '엄브렐러 크로니클즈는 자동으로 이동하는 일인칭 건슈팅 게임이다. 따라서 총 악세사리인 Wii 재퍼를 사용하여 플레이할 수도 있다. 플레이어는
|
| 139 |
+
앞에 있는 길을 따라서 적을 총으로 쏘는 방식으로 게임을 진행한다. 액션 버튼을 사용하여 추가 무기와 회복 아이템을 입수할 수 있으며, 지형지물을
|
| 140 |
+
이용하여 적을 공격하거나, 때때로 갈림길 중 하나를 선택하여 진행하는 경우도 있다. 눈차크의 아날로그 스틱을 사용하면 제한적인 범위 안에서
|
| 141 |
+
주변을 둘러볼 수 있는 카메라 조작이 가능하다. 액션 버튼을 누르고 위 리모콘을 흔들 경우 근접 무기를 사용할 수 있으며, 특정 장면에서 함정이나
|
| 142 |
+
적을 피할 때 화면에 등장하는 커맨드를 입력해야 할 때도 있다. 또, 특정 조건에 해당될 경우 위 리모콘을 흔들어서 카운터를 사용할 수도 있다.
|
| 143 |
+
각 스테이지는 개별적인 챕터와 저장 체크 포인트를 포함하고 있으며, 게임 오버가 될 경우 저장된 체크 포인트부터 다시 시작한다. 스테이지가
|
| 144 |
+
끝나면 플레이어의 실적 등급인 랭크에 따라서 별을 얻을 수 있는데, 이것을 사용하여 무기를 개조할 수 있다. 잠긴 챕터나 비밀 챕터를 열기
|
| 145 |
+
위해서는 S 랭크를 얻어야 하는 경우도 있다. 랭크는 파괴한 적과 오브젝트, 획득한 어카이브, 크리티컬 횟수의 영향을 받는다. 난이도는 이지,
|
| 146 |
+
노멀, 하드 3 종류가 있는데 난이도에 따라서 얻을 수 있는 어카이브 아이템도 있다.
|
| 147 |
+
|
| 148 |
+
|
| 149 |
+
2인 동시 플레이를 할 때는 체력 게이지를 두 사람이 공유하여 사용한다. 헝크의 "the 4th survivor" 챕터를 클리어하면 싱글 플레이
|
| 150 |
+
전용 챕터를 2인용 모드로 플레이할 수 있다. 챕터를 선택하면 2인용 모드를 선택할 수 있게 되는데, 동일한 캐릭터로 플레이하는 것이지만 겨냥하는
|
| 151 |
+
포인터는 따로 주어진다. 또한, 헝크의 챕터를 클리어하는 것으로 스페셜 스테이지도 플레이할 수 있다.'
|
| 152 |
+
- 민족 최대 명절인 설 연휴가 시작됐다. 모처럼 일가친척들이 모여 도란도란 얘기를 나누다 보면 빠지지 않는 화제가 바로 ‘부동산’이다. “부동산시장이
|
| 153 |
+
바닥을 쳤다” “더 기다려야 한다” 등 의견도 분분하다. 고향 부동산 등에 투자해 보려는 사람들은 새 정부 출범을 맞아 전국 곳곳에서 추진되고
|
| 154 |
+
있는 각종 개발 프로젝트에 관심을 가져볼 만하다는 게 전문가들의 조언이다.지방에서 가장 주목받고 있는 시장은 충청권이다. 박근혜 대통령 당선인은
|
| 155 |
+
수도권 전철의 충청권 연장, 충북 내륙선 등 교통망 확대, 내포신도시 지원, 청주 국제공항 활성화 등 다양한 공약을 내놨다. 특히 수도권 전철의
|
| 156 |
+
충청권 연장은 서울과 심리적 거리를 가깝게 만들어 부동산시장에 큰 호재로 받아들여지고 있다. 함영진 부동산114 리서치센터장은 “도로 개설과
|
| 157 |
+
전철 연장 등 교통 호재는 반드시 눈여겨볼 필요가 있다”고 강조했다.경상도와 전라도를 하나로 잇는 사업들도 추진된다. 새 정부에서는 전북 새만금과
|
| 158 |
+
경북 김천을 연결하는 동서횡단철도의 조기 착공, 88올림픽 고속도로 확장의 조기 완공 등이 이뤄질 예정이다. 동서횡단철도는 영호남을 잇는 가교
|
| 159 |
+
역할을 하면서 인근 개발을 가속화할 것으로 예상된다.전국 산업단지 개발 계획도 관심을 둘 만하다. 박 당선인은 △방사선 의·과학 산업벨트(부산)
|
| 160 |
+
△첨단의료허브(대구) △자동차 100만대 생산기지(광주) △국제과학비즈니스벨트(대전) △국가식품 클러스터(전북) △동해안 첨단과학 비즈니스
|
| 161 |
+
거점(경북) △말 산업 특화단지(제주) 조성 등을 공약으로 제시했다. 이들 산업단지는 중앙정부 차원의 자금 및 세제 지원 등이 이뤄질 예정이어서
|
| 162 |
+
인근 토지와 주택 시장이 유망하다는 게 전문가들의 설명이다.수도권에서는 3대 핵심 사업인 △수도권 광역급행 철도(GTX) 3개 노선 추진 △화성
|
| 163 |
+
유니버설스튜디오의 차질 없는 추진 △한류월드복합단지 조성 등에 관심이 쏠린다. 총 사업비 11조2700억원이 투입되는 GTX 사업은 1단계로
|
| 164 |
+
일산 킨텍스~수서(46.2㎞), 송도~청량리(48.7㎞), 의정부~금정(45.8㎞) 등 3개 노선 140.7㎞ 구간에서 착공된다. 송도, 동탄,
|
| 165 |
+
금정 등이 수혜 지역으로 꼽힌다.박합수 국민은행 부동산수석팀장은 “올해는 무엇보다 새 정부의 개발 계획과 부동산 거래 활성화 정책에 따른 수혜를
|
| 166 |
+
기대할 수 있는 시점”이라며 “투자가치가 유망한 곳에 꾸준히 관심을 가질 필요가 있다”고 말했다.
|
| 167 |
+
- '17세기 말까지 러시아는 서유럽 여러 나라와 별로 깊은 관계를 갖지 않은 채 여전히 동방적 존재였으며, 농노제를 기초로 하는 특이한 절대주의
|
| 168 |
+
국가였다. 이와 같은 러시아를 근대화하고 서유럽화하는 곤란한 사업에 착수하고 러시아로 하여금 열강의 일각을 점하게 하는 데 성공한 사람은 표트르
|
| 169 |
+
1세였다. 그는 내정을 개혁하고 군비 확장을 실시하여 황제의 독재권을 강화하였으며, 서유럽 문화의 수입에 노력했다. 그러나 그 여러 개혁은
|
| 170 |
+
위로부터의 개혁이어서 사회의 진정한 근대화에는 미치지 못했고 서유럽화도 일반인에게는 관계없었으며, 농노제가 유지 강화되었다. 대외적으로는 투르크로부터
|
| 171 |
+
아조프해 주변을 빼앗고, 다시 서쪽으로는 스웨덴과 북방전쟁을 벌여 발트해에의 출구를 확보하고, 이곳에 페테르부르크를 건설하여 수도로 삼았다.
|
| 172 |
+
|
| 173 |
+
|
| 174 |
+
표트르 1세의 사업, 특히 서유럽화의 정책은 보수파의 반항을 야기시켰고, 황제의 사후 이 항쟁은 궁정을 중심으로 정권쟁탈과 결부, 반복되어
|
| 175 |
+
예카테리나 2세에 이르기까지 약 40년간 계속되어 러시아를 혼란시켰다. 18세기 후반 이 혼란기 후에 즉위한 예카테리나 2세는 표트르 1세의
|
| 176 |
+
사업을 이어받아 계몽적 전제정치를 펴서 여러 가지 개혁을 실시했다. 그러나 농노제는 오히려 강화되어 농민의 대봉기 푸가초프의 난이 일어났다.
|
| 177 |
+
예카테리나 2세는 대외정책에도 주력하여 두 차례에 걸친 터키와의 전쟁으로 드네프르강 하구(河口) 지방과 크림 반도를 병합하고 흑해 진출의 기초를
|
| 178 |
+
구축했다. 또한 오스트리아·프로이센과 함께 3회에 걸쳐서 폴란드를 분할하고 서쪽으로도 영토를 확대시켰다. 동쪽으로는 시베리아 전토가 이미 러시아
|
| 179 |
+
영토가 되어 있었으나, 다시 극동 해상에 진출하고 락크스맨을 일본에 파견하여 통상을 요구했다. 이리하여 러시아는 18세기 말 강국으로서의 지위를
|
| 180 |
+
확립하고 이후의 유럽 국제관계에 커다란 영향력을 갖게 되었다.'
|
| 181 |
+
- source_sentence: 국토부 관계자에 따를면, 마지막 리츠 상장이 있었던 해는?
|
| 182 |
+
sentences:
|
| 183 |
+
- 올해 영업인가를 받는 리츠(부동산투자회사)가 국내에 리츠가 도입된 2001년 이후 연간 최다일 것으로 전망됐다.22일 국토교통부에 따르면 올해
|
| 184 |
+
영업인가를 받은 리츠는 24개, 자산 규모로는 7조여원이다. 이로써 지금까지 설립된 리츠는 총 118개, 자산 규모는 16조4000억원으로
|
| 185 |
+
늘어났다.국토부는 올 들어 이미 인가가 난 24곳에다 ‘기업형 임대주택(뉴 스테이) 리츠’ 등 영업인가를 신청한 4곳(자산 약 1조원)과 신청
|
| 186 |
+
예정인 11~15곳(약 3조원 추정)을 더하면 올해 새로 세워질 리츠는 총 40여개(약 11조원 추정)에 달할 것으로 전망했다. 지금까지는
|
| 187 |
+
2011년 32개 리츠 신설이 가장 많았다.올해 영업인가를 받은 리츠(24개)를 투자 종류별로 보면 주택이 13개, 물류 7개, 업무빌딩 2개,
|
| 188 |
+
상업시설 2개 등이었다. 주택 중에선 공공임대주택과 뉴 스테이에 투자하는 리츠가 4개씩이다. 물류창고 등에 투자하는 물류 리츠가 2013년과
|
| 189 |
+
지난해 각각 1개에 불과했던 것과 비교하면 올해 급증하는 추세다. 국토부 관계자는 “현재 주식시장에 상장된 리츠가 4개에 불과하고 2011년
|
| 190 |
+
이후 신규 상장한 리츠는 전무하다”며 “공모·상장을 통해 대형 리츠를 육성할 계획이라고 말했다”고 말했다.
|
| 191 |
+
- '상자 속 입자(particle in a box) 또는 무한 퍼텐셜 우물(infinite potential well)은 양자역학에서 다루는
|
| 192 |
+
가장 기본적인 문제 중의 하나로, 입자가 무한히 깊은 퍼텐셜 우물에 갇혀 있어 나가지 못하는 시스템을 말한다. 여기에서 입자가 벽과 충돌할
|
| 193 |
+
땐 에너지와 운동량이 모두 보존되는 완전 탄성 충돌이 일어난다고 가정한다. 고전역학적인 관점에서 이 문제를 보면 단순히 입자가 등속 직선 운동을
|
| 194 |
+
하고 벽에 부딪치면 튕겨 나오는 결과를 얻지만, 양자역학적으로 이 문제를 접근하면 수많은 다른 사실들이 나타난다.
|
| 195 |
+
|
| 196 |
+
|
| 197 |
+
이 문제는 다른 양자역학에서 등장하는 문제들에 비해 비교적 매우 쉽게 풀리면서, 동시에 많은 양자역학적 기초 개념들이 어떻게 등장하는지 쉽게
|
| 198 |
+
보여줄 수 있기 때문에, 처음 양자역학을 배울 때 가장 먼저 소개되는 문제이기도 하다.
|
| 199 |
+
|
| 200 |
+
|
| 201 |
+
만약 이 문제를 고전역학적 관점에서 뉴턴의 운동 법칙들을 사용해 풀면 직관적이고 예측 가능한 결과가 나온다. 하지만 양자역학적 관점에서 슈뢰딩거
|
| 202 |
+
방정식을 사용하면 에너지 상태가 양자화되어 있다는 것이나 우물 안의 각 지점에서 입자를 발견할 확률이 서로 다르다는 것 등 전혀 직관적이지
|
| 203 |
+
않은 결과가 나온다. 심지어는 입자가 발견될 확률이 0인 지점도 있다. 우리가 흔히 일상에서 경험하는 상황이나 고전역학의 관점에 전혀 부합하지
|
| 204 |
+
않는 결과가 나오는 것이다. 하지만 이런 결과들이 결국 사실임이 여러 실험을 통해 증명되었다.
|
| 205 |
+
|
| 206 |
+
|
| 207 |
+
우리는 3차원 세계에 살고 있기 때문에 이 문제를 실제 상황에 적용하려면 3차원 상자 속 입자 문제를 푸는 것이 가장 좋다. 그러나 더 기본적인
|
| 208 |
+
관점에서부터 접근하기 위해 먼저 1차원 상자 속 입자 문제를 풀고, 그 다음 이를 다차원으로 일반화한다.'
|
| 209 |
+
- '2003년 8월 29일, 알하킴은 나자프의 이맘 알리 모스크를 나서는 순간에 폭발한 강력한 차량 폭탄으로 암살당했다. 이 폭발로 최소 85명이
|
| 210 |
+
사망했으며, 일부는 최대 125명이 사망했다고 추정하기도 한다.
|
| 211 |
+
|
| 212 |
+
|
| 213 |
+
누가 그를 살해한 이 강력한 폭탄 공격의 배후에 있는지는 명확하지 않으며 런던의 한 SCIRI 대변인은 사담 후세인의 지지자들이 이 공격의
|
| 214 |
+
배후에 있을 것이라고 추정하였다. 다른 이들은 반드시 후세인과 연계되어 있을 필요는 없으며 이라크에서 시아파의 영향력이 확대되는 데 반대하는
|
| 215 |
+
수니파가 저지른 사건이라고 생각하였다. 또 다른 사람들은 다른 시아파 집단이 저질렀을 수도 있다고 본다. 내부 권력 투쟁의 일부 혹은 더 유화적으로
|
| 216 |
+
변해가는 대미노선에 대한 강경파의 반격이라는 것이다.
|
| 217 |
+
|
| 218 |
+
|
| 219 |
+
그의 암살이 나자프에서 시아파 성직자들에 대한 공격이 몇 주일간 계속되어 오던 중에 일어났다는 사실(알하킴은 네 번째로 암살된 사람이었다)
|
| 220 |
+
때문에, 몇몇 사람들은 반 시아파 감정이 이 공격의 동기일 가능성이 매우 높다고 판단했다.
|
| 221 |
+
|
| 222 |
+
반면 시아 파벌들 간의 유혈 항쟁의 역사와 이들 공격이 설명되지 않은 사실들은, 다른 이들로 하여금 경쟁 시아파 지도자 -아마도 강경파인 무크타다
|
| 223 |
+
알사드르- 의 지지자들에 의해 저질러졌을 가능성이 제일 높다고 생각했다.
|
| 224 |
+
|
| 225 |
+
|
| 226 |
+
2003년 8월 30일, 이라크 정부기관은 폭탄 공격과 관련되어 네 명 -바스라로부터 전 바트당 정권 인사 두 명, 그리고 금욕적 와하비파(수니
|
| 227 |
+
이슬람 분파)의 비 이라크 아랍인 두 명- 을 잘못 체포했다. 무슬림 세계의 많은 이들이 내부 항쟁으로부터 시아파를 보호하려는 목적으로 그들에게
|
| 228 |
+
누명을 씌웠다고 생각했다.
|
| 229 |
+
|
| 230 |
+
|
| 231 |
+
미국과 이라크 관리들에 따르면 하킴의 암살은 아부 무사부 알자르카위의 소행이라고 한다. 2005년 1월 체포된 자르카위의 수석 폭탄제조기술자
|
| 232 |
+
아부 오마르 알쿠르디가 이 폭파를 실행했다고 자백했으며, 또한 여러 오디오 테이프를 통해 자르카위가 이 암살을 찬양한 바 있다는 것이다.'
|
| 233 |
+
pipeline_tag: sentence-similarity
|
| 234 |
+
library_name: sentence-transformers
|
| 235 |
+
metrics:
|
| 236 |
+
- pearson_cosine
|
| 237 |
+
- spearman_cosine
|
| 238 |
+
model-index:
|
| 239 |
+
- name: SentenceTransformer based on HJUNN/klue_roberta-base-klue-sts
|
| 240 |
+
results:
|
| 241 |
+
- task:
|
| 242 |
+
type: semantic-similarity
|
| 243 |
+
name: Semantic Similarity
|
| 244 |
+
dataset:
|
| 245 |
+
name: Unknown
|
| 246 |
+
type: unknown
|
| 247 |
+
metrics:
|
| 248 |
+
- type: pearson_cosine
|
| 249 |
+
value: 0.8152575547604499
|
| 250 |
+
name: Pearson Cosine
|
| 251 |
+
- type: spearman_cosine
|
| 252 |
+
value: 0.8238256414442732
|
| 253 |
+
name: Spearman Cosine
|
| 254 |
+
---
|
| 255 |
+
|
| 256 |
+
# SentenceTransformer based on HJUNN/klue_roberta-base-klue-sts
|
| 257 |
+
|
| 258 |
+
This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [HJUNN/klue_roberta-base-klue-sts](https://huggingface.co/HJUNN/klue_roberta-base-klue-sts). It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
|
| 259 |
+
|
| 260 |
+
## Model Details
|
| 261 |
+
|
| 262 |
+
### Model Description
|
| 263 |
+
- **Model Type:** Sentence Transformer
|
| 264 |
+
- **Base model:** [HJUNN/klue_roberta-base-klue-sts](https://huggingface.co/HJUNN/klue_roberta-base-klue-sts) <!-- at revision d40cd09fe8d4a0af2e8c6413ff099787e3480d95 -->
|
| 265 |
+
- **Maximum Sequence Length:** 512 tokens
|
| 266 |
+
- **Output Dimensionality:** 768 dimensions
|
| 267 |
+
- **Similarity Function:** Cosine Similarity
|
| 268 |
+
<!-- - **Training Dataset:** Unknown -->
|
| 269 |
+
<!-- - **Language:** Unknown -->
|
| 270 |
+
<!-- - **License:** Unknown -->
|
| 271 |
+
|
| 272 |
+
### Model Sources
|
| 273 |
+
|
| 274 |
+
- **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
|
| 275 |
+
- **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
|
| 276 |
+
- **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
|
| 277 |
+
|
| 278 |
+
### Full Model Architecture
|
| 279 |
+
|
| 280 |
+
```
|
| 281 |
+
SentenceTransformer(
|
| 282 |
+
(0): Transformer({'max_seq_length': 512, 'do_lower_case': False, 'architecture': 'RobertaModel'})
|
| 283 |
+
(1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
|
| 284 |
+
)
|
| 285 |
+
```
|
| 286 |
+
|
| 287 |
+
## Usage
|
| 288 |
+
|
| 289 |
+
### Direct Usage (Sentence Transformers)
|
| 290 |
+
|
| 291 |
+
First install the Sentence Transformers library:
|
| 292 |
+
|
| 293 |
+
```bash
|
| 294 |
+
pip install -U sentence-transformers
|
| 295 |
+
```
|
| 296 |
+
|
| 297 |
+
Then you can load this model and run inference.
|
| 298 |
+
```python
|
| 299 |
+
from sentence_transformers import SentenceTransformer
|
| 300 |
+
|
| 301 |
+
# Download from the 🤗 Hub
|
| 302 |
+
model = SentenceTransformer("sentence_transformers_model_id")
|
| 303 |
+
# Run inference
|
| 304 |
+
sentences = [
|
| 305 |
+
'국토부 관계자에 따를면, 마지막 리츠 상장이 있었던 해는?',
|
| 306 |
+
'올해 영업인가를 받는 리츠(부동산투자회사)가 국내에 리츠가 도입된 2001년 이후 연간 최다일 것으로 전망됐다.22일 국토교통부에 따르면 올해 영업인가를 받은 리츠는 24개, 자산 규모로는 7조여원이다. 이로써 지금까지 설립된 리츠는 총 118개, 자산 규모는 16조4000억원으로 늘어났다.국토부는 올 들어 이미 인가가 난 24곳에다 ‘기업형 임대주택(뉴 스테이) 리츠’ 등 영업인가를 신청한 4곳(자산 약 1조원)과 신청 예정인 11~15곳(약 3조원 추정)을 더하면 올해 새로 세워질 리츠는 총 40여개(약 11조원 추정)에 달할 것으로 전망했다. 지금까지는 2011년 32개 리츠 신설이 가장 많았다.올해 영업인가를 받은 리츠(24개)를 투자 종류별로 보면 주택이 13개, 물류 7개, 업무빌딩 2개, 상업시설 2개 등이었다. 주택 중에선 공공임대주택과 뉴 스테이에 투자하는 리츠가 4개씩이다. 물류창고 등에 투자하는 물류 리츠가 2013년과 지난해 각각 1개에 불과했던 것과 비교하면 올해 급증하는 추세다. 국토부 관계자는 “현재 주식시장에 상장된 리츠가 4개에 불과하고 2011년 이후 신규 상장한 리츠는 전무하다”며 “공모·상장을 통해 대형 리츠를 육성할 계획이라고 말했다”고 말했다.',
|
| 307 |
+
'상자 속 입자(particle in a box) 또는 무한 퍼텐셜 우물(infinite potential well)은 양자역학에서 다루는 가장 기본적인 문제 중의 하나로, 입자가 무한히 깊은 퍼텐셜 우물에 갇혀 있어 나가지 못하는 시스템을 말한다. 여기에서 입자가 벽과 충돌할 땐 에너지와 운동량이 모두 보존되는 완전 탄성 충돌이 일어난다고 가정한다. 고전역학적인 관점에서 이 문제를 보면 단순히 입자가 등속 직선 운동을 하고 벽에 부딪치면 튕겨 나오는 결과를 얻지만, 양자역학적으로 이 문제를 접근하면 수많은 다른 사실들이 나타난다.\n\n이 문제는 다른 양자역학에서 등장하는 문제들에 비해 비교적 매우 쉽게 풀리면서, 동시에 많은 양자역학적 기초 개념들이 어떻게 등장하는지 쉽게 보여줄 수 있기 때문에, 처음 양자역학을 배울 때 가장 먼저 소개되는 문제이기도 하다.\n\n만약 이 문제를 고전역학적 관점에서 뉴턴의 운동 법칙들을 사용해 풀면 직관적이고 예측 가능한 결과가 나온다. 하지만 양자역학적 관점에서 슈뢰딩거 방정식을 사용하면 에너지 상태가 양자화되어 있다는 것이나 우물 안의 각 지점에서 입자를 발견할 확률이 서로 다르다는 것 등 전혀 직관적이지 않은 결과가 나온다. 심지어는 입자가 발견될 확률이 0인 지점도 있다. 우리가 흔히 일상에서 경험하는 상황이나 고전역학의 관점에 전혀 부합하지 않는 결과가 나오는 것이다. 하지만 이런 결과들이 결국 사실임이 여러 실험을 통해 증명되었다.\n\n우리는 3차원 세계에 살고 있기 때문에 이 문제를 실제 상황에 적용하려면 3차원 상자 속 입자 문제를 푸는 것이 가장 좋다. 그러나 더 기본적인 관점에서부터 접근하기 위해 먼저 1차원 상자 속 입자 문제를 풀고, 그 다음 이를 다차원으로 일반화한다.',
|
| 308 |
+
]
|
| 309 |
+
embeddings = model.encode(sentences)
|
| 310 |
+
print(embeddings.shape)
|
| 311 |
+
# [3, 768]
|
| 312 |
+
|
| 313 |
+
# Get the similarity scores for the embeddings
|
| 314 |
+
similarities = model.similarity(embeddings, embeddings)
|
| 315 |
+
print(similarities)
|
| 316 |
+
# tensor([[ 1.0000, 0.7355, -0.0996],
|
| 317 |
+
# [ 0.7355, 1.0000, -0.0739],
|
| 318 |
+
# [-0.0996, -0.0739, 1.0000]])
|
| 319 |
+
```
|
| 320 |
+
|
| 321 |
+
<!--
|
| 322 |
+
### Direct Usage (Transformers)
|
| 323 |
+
|
| 324 |
+
<details><summary>Click to see the direct usage in Transformers</summary>
|
| 325 |
+
|
| 326 |
+
</details>
|
| 327 |
+
-->
|
| 328 |
+
|
| 329 |
+
<!--
|
| 330 |
+
### Downstream Usage (Sentence Transformers)
|
| 331 |
+
|
| 332 |
+
You can finetune this model on your own dataset.
|
| 333 |
+
|
| 334 |
+
<details><summary>Click to expand</summary>
|
| 335 |
+
|
| 336 |
+
</details>
|
| 337 |
+
-->
|
| 338 |
+
|
| 339 |
+
<!--
|
| 340 |
+
### Out-of-Scope Use
|
| 341 |
+
|
| 342 |
+
*List how the model may foreseeably be misused and address what users ought not to do with the model.*
|
| 343 |
+
-->
|
| 344 |
+
|
| 345 |
+
## Evaluation
|
| 346 |
+
|
| 347 |
+
### Metrics
|
| 348 |
+
|
| 349 |
+
#### Semantic Similarity
|
| 350 |
+
|
| 351 |
+
* Evaluated with [<code>EmbeddingSimilarityEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.EmbeddingSimilarityEvaluator)
|
| 352 |
+
|
| 353 |
+
| Metric | Value |
|
| 354 |
+
|:--------------------|:-----------|
|
| 355 |
+
| pearson_cosine | 0.8153 |
|
| 356 |
+
| **spearman_cosine** | **0.8238** |
|
| 357 |
+
|
| 358 |
+
<!--
|
| 359 |
+
## Bias, Risks and Limitations
|
| 360 |
+
|
| 361 |
+
*What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
|
| 362 |
+
-->
|
| 363 |
+
|
| 364 |
+
<!--
|
| 365 |
+
### Recommendations
|
| 366 |
+
|
| 367 |
+
*What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
|
| 368 |
+
-->
|
| 369 |
+
|
| 370 |
+
## Training Details
|
| 371 |
+
|
| 372 |
+
### Training Dataset
|
| 373 |
+
|
| 374 |
+
#### Unnamed Dataset
|
| 375 |
+
|
| 376 |
+
* Size: 17,552 training samples
|
| 377 |
+
* Columns: <code>sentence_0</code> and <code>sentence_1</code>
|
| 378 |
+
* Approximate statistics based on the first 1000 samples:
|
| 379 |
+
| | sentence_0 | sentence_1 |
|
| 380 |
+
|:--------|:----------------------------------------------------------------------------------|:--------------------------------------------------------------------------------------|
|
| 381 |
+
| type | string | string |
|
| 382 |
+
| details | <ul><li>min: 7 tokens</li><li>mean: 17.64 tokens</li><li>max: 35 tokens</li></ul> | <ul><li>min: 242 tokens</li><li>mean: 441.05 tokens</li><li>max: 512 tokens</li></ul> |
|
| 383 |
+
* Samples:
|
| 384 |
+
| sentence_0 | sentence_1 |
|
| 385 |
+
|:-----------------------------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
|
| 386 |
+
| <code>지주회사를 '일감 몰아주기 규제'에 휘말리게 한 거래방식은?</code> | <code>정부가 한동안 ‘바람직한 기업 지배구조’로 권장하던 지주회사가 ‘규제의 덫’에 걸렸다. 최근 잇달아 만들어진 경제민주화 관련 규제가 지주회사 체제를 갖춘 기업에 더 큰 피해를 주고 있어서다. 지주회사로 전환한 기업 사이에선 “지주사로 전환하라고 할 때는 언제고, 이제 와서 규제하느냐”는 불만이 커지고 있다. 21일 재계에 따르면 공정거래위원회가 내년 2월부터 시행하는 ‘일감 몰아주기 규제’ 대상 122개사 가운데 LG GS 두산 CJ 부영 코오롱 한진중공업 동부 대성 세아그룹 지주회사 12곳이 포함됐다. ‘일감 몰아주기 규제’는 총수 일가 지분이 30% 이상인 대기업 계열사 가운데 내부 거래 규모가 연간 매출의 12% 이상이면서 거래 규모가 200억원 이상인 곳이 대상이다. 총수 일가가 많은 지분을 보유한 특정 계열사에 일감을 몰아주는 관행을 막겠다는 게 규제 도입 취지다. 문제는 이 규제가 총수 일가의 보유 지분, 거래 비중만 따지다 보니 지주회사들까지 모두 규제 대상에 포함된다는 데 있다. 이와 관련, 정부는 순환출자의 문제점을 보완하기 위해 1997년부터 주요 그룹에 지주회사 전환을 권장했다. 지주회사로 전환하면 자회사 지분을 40%(비상장사는 20%) 이상 의무적으로 보유해야 한다. 또 지주회사는 사업을 직접 하는 경우가 아니면 자회사에서 상표권 수익이나 부동산 임대 수익을 받아 이익을 창출한다. 그런데 일감 몰아주기 규제는 이 같은 경우에도 예외 없이 적용된다. 예를 들어 LG그룹 지주회사인 (주)LG는 공정위의 일감 몰아주기 규정에 따르면 내부거래 비중이 56.6%로 규제 대상이다. 그런데 내부거래 가운데 자회사에서 받는 상표권 수익이 64%(2231억원), 부동산 임대 수익이 15.7%(546억원)다. 재계 관계자는 “지주회사 특성상 어쩔 수 없는 내부거래가 있는데, 그것까지 총수 일가의 사익을 추구하기 위한 일감 몰아주기로 보는 건 말이 안 된다”고 꼬집었다. 상법 개정안도 지주회사들이 더 큰 피해를 보는 구조다. 법무부는 지난 7월 자산 2조원...</code> |
|
| 387 |
+
| <code>공개공지에서 판촉행위를 금지하는 근거로 영세상인들을 들은 지방은?</code> | <code>2009년 개정된 건축법 시행령은 일정 규모 이상의 건축물을 지을 때 의무적으로 만들어야 하는 공터인 공개공지에서 연간 최장 60일간 문화행사나 기업의 판촉활동을 허용토록 했다. 그러나 전주시 구미시 김해시 등 전국 66개 지방자치단체에서는 판촉활동이 여전히 ‘불가’하다. 시행령에서 이 내용을 지자체 조례에 담도록 했으나 이를 반영하지 않아서다. 박근혜 대통령이 ‘끝장 토론’까지 열면서 규제 개혁에 강력한 드라이브를 걸고 있지만 지방 규제는 여전한 것으로 나타났다. 23일 안전행정부와 지자체에 따르면 지자체나 지방의회가 법령에서 위임한 내용을 조례로 만들지 않아 규제로 작용하고 있는 대표적인 사례는 공개공지 내 기업 판촉활동 제한 등 16건에 달했다. ▶관련기사 A5면 풀뿌리 민주주의 확산 차원에서 법령 등에서 지방에 위임한 내용이 조례에 담기지 않거나 자의적인 해석으로 법 취지에 어긋나는 조례가 만들어지고 있는 것이다. 공개공지 내 기업 판촉활동 제한과 관련, 전주시는 “공개공지를 갖춘 대규모 건물이 대부분 백화점과 대형마트 등이어서 판촉활동을 허용하면 인근 소규모 영세상인들이 생계를 위협받을 수 있다”고 말하고 있지만 광주시 5개 구청이 모두 조례에 반영한 것에 비춰 설득력이 떨어진다는 지적이다.</code> |
|
| 388 |
+
| <code>드라이버 각각의 선호도를 수용하기 위해 노력했다고 말한 사람의 이름은?</code> | <code>포르쉐AG(Dr. Ing. h.c. F. Porsche AG)는 오는 13일, 새롭게 창단한 포르쉐 E-스포츠 팀이 2017년형 911 RSR 차량 4대와 함께 디지털 르망 24시 내구 레이스를 시작한다고 밝혔다. 코로나19 확산 여파로 르망 24시 대회가 9월로 연기된 올해는 한스 헤르만(Hans Herrmann)과 리차드 앳우드(Richard Attwood)가 포르쉐 917K 차량으로 첫 종합 우승을 차지한 지 50년을 맞는다. 포르쉐는 이번 디지털 르망 24시 내구 레이스를 위해 실제 대회처럼 철저한 준비를 마쳤다. GTE 클래스에서 우승에 도전하는 포르쉐 팩토리 선수단은 포르쉐가 지명한 16명의 레이서를 포함해 총 30여 명으로 구성된다. 포르쉐 모터스포츠 E-스포츠 매니저 마르코 우지하시는 “모든 레이스 차량은 레이싱 엔지니어가 직접 관리하며, 팩토리 드라이버들과 시뮬레이션 레이서들 간의 밸러스를 찾는 것이 중요한 도전이 될 것”이라며, “r팩터2(rFactor2) 레이싱 플랫폼의 디지털 911 RSR을 통해 얻은 경험을 통해 보다 빠르게 적응할 수 있을 것”이라고 말했다. 실제로 많은 면에서 현실 세계와 매우 비슷한 정교한 계산 모델이 적용되기 때문에 ‘디지털 셋업 작업’이 매우 중요하다. 우지하시는 “캠버와 트랙 조정, 브레이크 밸런스, 에어로다이내믹은 퍼포먼스와 핸들링을 위한 비교적 간단한 매개 변수에 속하며, 스프링, 댐퍼 세팅, 안티 롤 바 및 트랙션 컨트롤부터 시뮬레이터 스티어링 휠과 페달 세트까지 광범위한 변수가 있다”고 설명했다. 그는 또한, “드라이버 각각의 선호도를 수용하기 위해 노력했으며, 가상세계에서 적용되는 부분과 그렇지 않은 부분을 특별히 예의주시하고 있다”고 강조했다. 또한, 실제 레이싱에서와 마찬가지로 드라이버가 차량에서 내리면 엔지니어와 함께 제동 및 회전 지점부터 제동 압력 및 가상 스로틀 밸브 위치, 최적의 기어 변속 타이밍 등 다양한 데이터를 분석해야 한다. 시뮬레이션 레이싱 플랫폼 r팩터2에서는 습하거나 건조한 노...</code> |
|
| 389 |
+
* Loss: [<code>MultipleNegativesRankingLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#multiplenegativesrankingloss) with these parameters:
|
| 390 |
+
```json
|
| 391 |
+
{
|
| 392 |
+
"scale": 20.0,
|
| 393 |
+
"similarity_fct": "cos_sim",
|
| 394 |
+
"gather_across_devices": false
|
| 395 |
+
}
|
| 396 |
+
```
|
| 397 |
+
|
| 398 |
+
### Training Hyperparameters
|
| 399 |
+
#### Non-Default Hyperparameters
|
| 400 |
+
|
| 401 |
+
- `per_device_train_batch_size`: 16
|
| 402 |
+
- `per_device_eval_batch_size`: 16
|
| 403 |
+
- `num_train_epochs`: 1
|
| 404 |
+
- `batch_sampler`: no_duplicates
|
| 405 |
+
- `multi_dataset_batch_sampler`: round_robin
|
| 406 |
+
|
| 407 |
+
#### All Hyperparameters
|
| 408 |
+
<details><summary>Click to expand</summary>
|
| 409 |
+
|
| 410 |
+
- `overwrite_output_dir`: False
|
| 411 |
+
- `do_predict`: False
|
| 412 |
+
- `eval_strategy`: no
|
| 413 |
+
- `prediction_loss_only`: True
|
| 414 |
+
- `per_device_train_batch_size`: 16
|
| 415 |
+
- `per_device_eval_batch_size`: 16
|
| 416 |
+
- `per_gpu_train_batch_size`: None
|
| 417 |
+
- `per_gpu_eval_batch_size`: None
|
| 418 |
+
- `gradient_accumulation_steps`: 1
|
| 419 |
+
- `eval_accumulation_steps`: None
|
| 420 |
+
- `torch_empty_cache_steps`: None
|
| 421 |
+
- `learning_rate`: 5e-05
|
| 422 |
+
- `weight_decay`: 0.0
|
| 423 |
+
- `adam_beta1`: 0.9
|
| 424 |
+
- `adam_beta2`: 0.999
|
| 425 |
+
- `adam_epsilon`: 1e-08
|
| 426 |
+
- `max_grad_norm`: 1
|
| 427 |
+
- `num_train_epochs`: 1
|
| 428 |
+
- `max_steps`: -1
|
| 429 |
+
- `lr_scheduler_type`: linear
|
| 430 |
+
- `lr_scheduler_kwargs`: {}
|
| 431 |
+
- `warmup_ratio`: 0.0
|
| 432 |
+
- `warmup_steps`: 0
|
| 433 |
+
- `log_level`: passive
|
| 434 |
+
- `log_level_replica`: warning
|
| 435 |
+
- `log_on_each_node`: True
|
| 436 |
+
- `logging_nan_inf_filter`: True
|
| 437 |
+
- `save_safetensors`: True
|
| 438 |
+
- `save_on_each_node`: False
|
| 439 |
+
- `save_only_model`: False
|
| 440 |
+
- `restore_callback_states_from_checkpoint`: False
|
| 441 |
+
- `no_cuda`: False
|
| 442 |
+
- `use_cpu`: False
|
| 443 |
+
- `use_mps_device`: False
|
| 444 |
+
- `seed`: 42
|
| 445 |
+
- `data_seed`: None
|
| 446 |
+
- `jit_mode_eval`: False
|
| 447 |
+
- `use_ipex`: False
|
| 448 |
+
- `bf16`: False
|
| 449 |
+
- `fp16`: False
|
| 450 |
+
- `fp16_opt_level`: O1
|
| 451 |
+
- `half_precision_backend`: auto
|
| 452 |
+
- `bf16_full_eval`: False
|
| 453 |
+
- `fp16_full_eval`: False
|
| 454 |
+
- `tf32`: None
|
| 455 |
+
- `local_rank`: 0
|
| 456 |
+
- `ddp_backend`: None
|
| 457 |
+
- `tpu_num_cores`: None
|
| 458 |
+
- `tpu_metrics_debug`: False
|
| 459 |
+
- `debug`: []
|
| 460 |
+
- `dataloader_drop_last`: False
|
| 461 |
+
- `dataloader_num_workers`: 0
|
| 462 |
+
- `dataloader_prefetch_factor`: None
|
| 463 |
+
- `past_index`: -1
|
| 464 |
+
- `disable_tqdm`: False
|
| 465 |
+
- `remove_unused_columns`: True
|
| 466 |
+
- `label_names`: None
|
| 467 |
+
- `load_best_model_at_end`: False
|
| 468 |
+
- `ignore_data_skip`: False
|
| 469 |
+
- `fsdp`: []
|
| 470 |
+
- `fsdp_min_num_params`: 0
|
| 471 |
+
- `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
|
| 472 |
+
- `fsdp_transformer_layer_cls_to_wrap`: None
|
| 473 |
+
- `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
|
| 474 |
+
- `parallelism_config`: None
|
| 475 |
+
- `deepspeed`: None
|
| 476 |
+
- `label_smoothing_factor`: 0.0
|
| 477 |
+
- `optim`: adamw_torch_fused
|
| 478 |
+
- `optim_args`: None
|
| 479 |
+
- `adafactor`: False
|
| 480 |
+
- `group_by_length`: False
|
| 481 |
+
- `length_column_name`: length
|
| 482 |
+
- `ddp_find_unused_parameters`: None
|
| 483 |
+
- `ddp_bucket_cap_mb`: None
|
| 484 |
+
- `ddp_broadcast_buffers`: False
|
| 485 |
+
- `dataloader_pin_memory`: True
|
| 486 |
+
- `dataloader_persistent_workers`: False
|
| 487 |
+
- `skip_memory_metrics`: True
|
| 488 |
+
- `use_legacy_prediction_loop`: False
|
| 489 |
+
- `push_to_hub`: False
|
| 490 |
+
- `resume_from_checkpoint`: None
|
| 491 |
+
- `hub_model_id`: None
|
| 492 |
+
- `hub_strategy`: every_save
|
| 493 |
+
- `hub_private_repo`: None
|
| 494 |
+
- `hub_always_push`: False
|
| 495 |
+
- `hub_revision`: None
|
| 496 |
+
- `gradient_checkpointing`: False
|
| 497 |
+
- `gradient_checkpointing_kwargs`: None
|
| 498 |
+
- `include_inputs_for_metrics`: False
|
| 499 |
+
- `include_for_metrics`: []
|
| 500 |
+
- `eval_do_concat_batches`: True
|
| 501 |
+
- `fp16_backend`: auto
|
| 502 |
+
- `push_to_hub_model_id`: None
|
| 503 |
+
- `push_to_hub_organization`: None
|
| 504 |
+
- `mp_parameters`:
|
| 505 |
+
- `auto_find_batch_size`: False
|
| 506 |
+
- `full_determinism`: False
|
| 507 |
+
- `torchdynamo`: None
|
| 508 |
+
- `ray_scope`: last
|
| 509 |
+
- `ddp_timeout`: 1800
|
| 510 |
+
- `torch_compile`: False
|
| 511 |
+
- `torch_compile_backend`: None
|
| 512 |
+
- `torch_compile_mode`: None
|
| 513 |
+
- `include_tokens_per_second`: False
|
| 514 |
+
- `include_num_input_tokens_seen`: False
|
| 515 |
+
- `neftune_noise_alpha`: None
|
| 516 |
+
- `optim_target_modules`: None
|
| 517 |
+
- `batch_eval_metrics`: False
|
| 518 |
+
- `eval_on_start`: False
|
| 519 |
+
- `use_liger_kernel`: False
|
| 520 |
+
- `liger_kernel_config`: None
|
| 521 |
+
- `eval_use_gather_object`: False
|
| 522 |
+
- `average_tokens_across_devices`: False
|
| 523 |
+
- `prompts`: None
|
| 524 |
+
- `batch_sampler`: no_duplicates
|
| 525 |
+
- `multi_dataset_batch_sampler`: round_robin
|
| 526 |
+
- `router_mapping`: {}
|
| 527 |
+
- `learning_rate_mapping`: {}
|
| 528 |
+
|
| 529 |
+
</details>
|
| 530 |
+
|
| 531 |
+
### Training Logs
|
| 532 |
+
| Epoch | Step | Training Loss | spearman_cosine |
|
| 533 |
+
|:------:|:----:|:-------------:|:---------------:|
|
| 534 |
+
| -1 | -1 | - | 0.8238 |
|
| 535 |
+
| 0.4558 | 500 | 0.1505 | - |
|
| 536 |
+
| 0.9116 | 1000 | 0.1151 | - |
|
| 537 |
+
|
| 538 |
+
|
| 539 |
+
### Framework Versions
|
| 540 |
+
- Python: 3.12.11
|
| 541 |
+
- Sentence Transformers: 5.1.1
|
| 542 |
+
- Transformers: 4.56.2
|
| 543 |
+
- PyTorch: 2.8.0+cu126
|
| 544 |
+
- Accelerate: 1.10.1
|
| 545 |
+
- Datasets: 4.0.0
|
| 546 |
+
- Tokenizers: 0.22.1
|
| 547 |
+
|
| 548 |
+
## Citation
|
| 549 |
+
|
| 550 |
+
### BibTeX
|
| 551 |
+
|
| 552 |
+
#### Sentence Transformers
|
| 553 |
+
```bibtex
|
| 554 |
+
@inproceedings{reimers-2019-sentence-bert,
|
| 555 |
+
title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
|
| 556 |
+
author = "Reimers, Nils and Gurevych, Iryna",
|
| 557 |
+
booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
|
| 558 |
+
month = "11",
|
| 559 |
+
year = "2019",
|
| 560 |
+
publisher = "Association for Computational Linguistics",
|
| 561 |
+
url = "https://arxiv.org/abs/1908.10084",
|
| 562 |
+
}
|
| 563 |
+
```
|
| 564 |
+
|
| 565 |
+
#### MultipleNegativesRankingLoss
|
| 566 |
+
```bibtex
|
| 567 |
+
@misc{henderson2017efficient,
|
| 568 |
+
title={Efficient Natural Language Response Suggestion for Smart Reply},
|
| 569 |
+
author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
|
| 570 |
+
year={2017},
|
| 571 |
+
eprint={1705.00652},
|
| 572 |
+
archivePrefix={arXiv},
|
| 573 |
+
primaryClass={cs.CL}
|
| 574 |
+
}
|
| 575 |
+
```
|
| 576 |
+
|
| 577 |
+
<!--
|
| 578 |
+
## Glossary
|
| 579 |
+
|
| 580 |
+
*Clearly define terms in order to be accessible across audiences.*
|
| 581 |
+
-->
|
| 582 |
+
|
| 583 |
+
<!--
|
| 584 |
+
## Model Card Authors
|
| 585 |
+
|
| 586 |
+
*Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
|
| 587 |
+
-->
|
| 588 |
+
|
| 589 |
+
<!--
|
| 590 |
+
## Model Card Contact
|
| 591 |
+
|
| 592 |
+
*Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
|
| 593 |
+
-->
|
config.json
ADDED
|
@@ -0,0 +1,28 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
{
|
| 2 |
+
"architectures": [
|
| 3 |
+
"RobertaModel"
|
| 4 |
+
],
|
| 5 |
+
"attention_probs_dropout_prob": 0.1,
|
| 6 |
+
"bos_token_id": 0,
|
| 7 |
+
"classifier_dropout": null,
|
| 8 |
+
"dtype": "float32",
|
| 9 |
+
"eos_token_id": 2,
|
| 10 |
+
"gradient_checkpointing": false,
|
| 11 |
+
"hidden_act": "gelu",
|
| 12 |
+
"hidden_dropout_prob": 0.1,
|
| 13 |
+
"hidden_size": 768,
|
| 14 |
+
"initializer_range": 0.02,
|
| 15 |
+
"intermediate_size": 3072,
|
| 16 |
+
"layer_norm_eps": 1e-05,
|
| 17 |
+
"max_position_embeddings": 514,
|
| 18 |
+
"model_type": "roberta",
|
| 19 |
+
"num_attention_heads": 12,
|
| 20 |
+
"num_hidden_layers": 12,
|
| 21 |
+
"pad_token_id": 1,
|
| 22 |
+
"position_embedding_type": "absolute",
|
| 23 |
+
"tokenizer_class": "BertTokenizer",
|
| 24 |
+
"transformers_version": "4.56.2",
|
| 25 |
+
"type_vocab_size": 1,
|
| 26 |
+
"use_cache": true,
|
| 27 |
+
"vocab_size": 32000
|
| 28 |
+
}
|
config_sentence_transformers.json
ADDED
|
@@ -0,0 +1,14 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
{
|
| 2 |
+
"model_type": "SentenceTransformer",
|
| 3 |
+
"__version__": {
|
| 4 |
+
"sentence_transformers": "5.1.1",
|
| 5 |
+
"transformers": "4.56.2",
|
| 6 |
+
"pytorch": "2.8.0+cu126"
|
| 7 |
+
},
|
| 8 |
+
"prompts": {
|
| 9 |
+
"query": "",
|
| 10 |
+
"document": ""
|
| 11 |
+
},
|
| 12 |
+
"default_prompt_name": null,
|
| 13 |
+
"similarity_fn_name": "cosine"
|
| 14 |
+
}
|
model.safetensors
ADDED
|
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
version https://git-lfs.github.com/spec/v1
|
| 2 |
+
oid sha256:f947a48125226cdf2529d0ba35f659d5d9d900c9a7708f2687227e565cc1a910
|
| 3 |
+
size 442494816
|
modules.json
ADDED
|
@@ -0,0 +1,14 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
[
|
| 2 |
+
{
|
| 3 |
+
"idx": 0,
|
| 4 |
+
"name": "0",
|
| 5 |
+
"path": "",
|
| 6 |
+
"type": "sentence_transformers.models.Transformer"
|
| 7 |
+
},
|
| 8 |
+
{
|
| 9 |
+
"idx": 1,
|
| 10 |
+
"name": "1",
|
| 11 |
+
"path": "1_Pooling",
|
| 12 |
+
"type": "sentence_transformers.models.Pooling"
|
| 13 |
+
}
|
| 14 |
+
]
|
sentence_bert_config.json
ADDED
|
@@ -0,0 +1,4 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
{
|
| 2 |
+
"max_seq_length": 512,
|
| 3 |
+
"do_lower_case": false
|
| 4 |
+
}
|
special_tokens_map.json
ADDED
|
@@ -0,0 +1,51 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
{
|
| 2 |
+
"bos_token": {
|
| 3 |
+
"content": "[CLS]",
|
| 4 |
+
"lstrip": false,
|
| 5 |
+
"normalized": false,
|
| 6 |
+
"rstrip": false,
|
| 7 |
+
"single_word": false
|
| 8 |
+
},
|
| 9 |
+
"cls_token": {
|
| 10 |
+
"content": "[CLS]",
|
| 11 |
+
"lstrip": false,
|
| 12 |
+
"normalized": false,
|
| 13 |
+
"rstrip": false,
|
| 14 |
+
"single_word": false
|
| 15 |
+
},
|
| 16 |
+
"eos_token": {
|
| 17 |
+
"content": "[SEP]",
|
| 18 |
+
"lstrip": false,
|
| 19 |
+
"normalized": false,
|
| 20 |
+
"rstrip": false,
|
| 21 |
+
"single_word": false
|
| 22 |
+
},
|
| 23 |
+
"mask_token": {
|
| 24 |
+
"content": "[MASK]",
|
| 25 |
+
"lstrip": false,
|
| 26 |
+
"normalized": false,
|
| 27 |
+
"rstrip": false,
|
| 28 |
+
"single_word": false
|
| 29 |
+
},
|
| 30 |
+
"pad_token": {
|
| 31 |
+
"content": "[PAD]",
|
| 32 |
+
"lstrip": false,
|
| 33 |
+
"normalized": false,
|
| 34 |
+
"rstrip": false,
|
| 35 |
+
"single_word": false
|
| 36 |
+
},
|
| 37 |
+
"sep_token": {
|
| 38 |
+
"content": "[SEP]",
|
| 39 |
+
"lstrip": false,
|
| 40 |
+
"normalized": false,
|
| 41 |
+
"rstrip": false,
|
| 42 |
+
"single_word": false
|
| 43 |
+
},
|
| 44 |
+
"unk_token": {
|
| 45 |
+
"content": "[UNK]",
|
| 46 |
+
"lstrip": false,
|
| 47 |
+
"normalized": false,
|
| 48 |
+
"rstrip": false,
|
| 49 |
+
"single_word": false
|
| 50 |
+
}
|
| 51 |
+
}
|
tokenizer.json
ADDED
|
The diff for this file is too large to render.
See raw diff
|
|
|
tokenizer_config.json
ADDED
|
@@ -0,0 +1,67 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
{
|
| 2 |
+
"added_tokens_decoder": {
|
| 3 |
+
"0": {
|
| 4 |
+
"content": "[CLS]",
|
| 5 |
+
"lstrip": false,
|
| 6 |
+
"normalized": false,
|
| 7 |
+
"rstrip": false,
|
| 8 |
+
"single_word": false,
|
| 9 |
+
"special": true
|
| 10 |
+
},
|
| 11 |
+
"1": {
|
| 12 |
+
"content": "[PAD]",
|
| 13 |
+
"lstrip": false,
|
| 14 |
+
"normalized": false,
|
| 15 |
+
"rstrip": false,
|
| 16 |
+
"single_word": false,
|
| 17 |
+
"special": true
|
| 18 |
+
},
|
| 19 |
+
"2": {
|
| 20 |
+
"content": "[SEP]",
|
| 21 |
+
"lstrip": false,
|
| 22 |
+
"normalized": false,
|
| 23 |
+
"rstrip": false,
|
| 24 |
+
"single_word": false,
|
| 25 |
+
"special": true
|
| 26 |
+
},
|
| 27 |
+
"3": {
|
| 28 |
+
"content": "[UNK]",
|
| 29 |
+
"lstrip": false,
|
| 30 |
+
"normalized": false,
|
| 31 |
+
"rstrip": false,
|
| 32 |
+
"single_word": false,
|
| 33 |
+
"special": true
|
| 34 |
+
},
|
| 35 |
+
"4": {
|
| 36 |
+
"content": "[MASK]",
|
| 37 |
+
"lstrip": false,
|
| 38 |
+
"normalized": false,
|
| 39 |
+
"rstrip": false,
|
| 40 |
+
"single_word": false,
|
| 41 |
+
"special": true
|
| 42 |
+
}
|
| 43 |
+
},
|
| 44 |
+
"bos_token": "[CLS]",
|
| 45 |
+
"clean_up_tokenization_spaces": false,
|
| 46 |
+
"cls_token": "[CLS]",
|
| 47 |
+
"do_basic_tokenize": true,
|
| 48 |
+
"do_lower_case": false,
|
| 49 |
+
"eos_token": "[SEP]",
|
| 50 |
+
"extra_special_tokens": {},
|
| 51 |
+
"mask_token": "[MASK]",
|
| 52 |
+
"max_length": 512,
|
| 53 |
+
"model_max_length": 512,
|
| 54 |
+
"never_split": null,
|
| 55 |
+
"pad_to_multiple_of": null,
|
| 56 |
+
"pad_token": "[PAD]",
|
| 57 |
+
"pad_token_type_id": 0,
|
| 58 |
+
"padding_side": "right",
|
| 59 |
+
"sep_token": "[SEP]",
|
| 60 |
+
"stride": 0,
|
| 61 |
+
"strip_accents": null,
|
| 62 |
+
"tokenize_chinese_chars": true,
|
| 63 |
+
"tokenizer_class": "BertTokenizer",
|
| 64 |
+
"truncation_side": "right",
|
| 65 |
+
"truncation_strategy": "longest_first",
|
| 66 |
+
"unk_token": "[UNK]"
|
| 67 |
+
}
|
vocab.txt
ADDED
|
The diff for this file is too large to render.
See raw diff
|
|
|