id stringlengths 9 9 | text stringlengths 304 9.57k | title stringclasses 1 value |
|---|---|---|
V07N01-03 | label{intro}言語処理の研究に名詞句の指示性の推定という問題がある\cite{murata_ref_nlp}.名詞句の指示性とは,名詞句の対象への指示の仕方のことであり,主に以下の三つに分類される.(指示性の詳細な説明は次節で行なう.)\begin{itemize}\item不定名詞句--その名詞句の意味する類の不特定の成員を意味する.(例文)\underline{犬}が三匹います.\item定名詞句--文脈中唯一のものを意味する.(例文)\underline{その犬}は役に立ちます.\item総称名詞句--その名詞句の類すべてを意味する.(例文)\underline{犬}は役に立つ動物です.(この例文の「犬」は犬一般を意味しており,総称名詞句に分類される.)\end{itemize}この指示性というものを,日本語文章中にある各名詞句について推定することは,(i)日英機械翻訳における冠詞の生成の研究や,(ii)名詞句の指示先などを推定する照応解析の研究に役に立つ.\begin{itemize}\item[(i)]冠詞生成の研究冠詞生成の研究では,不定名詞句と推定できれば単数名詞句なら不定冠詞をつけ,複数名詞句なら冠詞はつけないとわかるし,定名詞句と推定できれば定冠詞をつければよいとわかるし,総称名詞句の場合ならばtheをつける場合もaをつける場合も複数形にする場合もあり複雑であるが総称名詞句用の冠詞生成の方法に基づいて生成すればよいとわかる\footnote{名詞句の指示性を冠詞の生成に実際に用いている研究としては,Bondのもの\cite{Bond_94}がある.}.例えば,\begin{equation}\mbox{\underline{本}\.と\.い\.う\.の\.は人間の成長に欠かせません.}\label{eqn:book_hito}\end{equation}の「本」は総称名詞句であるので英語では``abook''にも``books''にも``thebook''にも訳すことができるとわかる.また,\begin{equation}\mbox{\.昨\.日\.僕\.が\.貸\.し\.た\underline{本}は読みましたか.}\label{eqn:book_boku}\end{equation}の「本」は定名詞句であるので,英語では``thebook''と訳すことができるとわかる.\item[(ii)]照応解析の研究名詞句の指示先などを推定する照応解析の研究では,定名詞句でなければ前方の名詞句を指示することができないなどがわかる\cite{murata_noun_nlp}.例えば,\begin{equation}\begin{minipage}[h]{6.5cm}\vspace*{0.2cm}\underline{本}をお土産に買いました.\underline{本}\.と\.い\.う\.の\.は人間の成長に欠かせません.\vspace*{0.2cm}\end{minipage}\label{eqn:book_miyage}\end{equation}の例文では,二文目の「本」は総称名詞句であるので一文目の「本」を指示することはないと解析することができる.\end{itemize}以上のように総称や定・不定などの名詞句の指示性というものは,冠詞の生成や照応解析で利用されるものであり,これを推定することは言語処理研究の一つの重要な問題となっている.名詞句の指示性の推定の先行研究\cite{murata_ref_nlp}では,表層表現を用いた規則を人手で作成して指示性の推定を行なっていた.例えば,前述の例文(\ref{eqn:book_hito})の「本」だと,「というのは」という表現から総称名詞句であると,また例文(\ref{eqn:book_boku})の「本」だと,修飾節「昨日僕が貸した」が限定していることから定名詞句であると解析していた.また,規則は86個作成しており,複数の規則が競合しどの規則を信頼して解けばよいかが曖昧な場合については,規則に得点を与えることで競合を解消していた.本稿では,先行研究で行なった名詞句の指示性の推定における人手の介入が若干でも減少するように,規則の競合の際に人手でふっていた得点の部分において機械学習の手法を用いることで,人手で規則に得点をふるという調整を不要にすることを目的としている.本稿で用いる機械学習手法としては,データスパースネスに強い最大エントロピー法を採用した. | |
V13N03-03 | 自然言語は,多様性・曖昧性,規則性と例外性,広範性・大規模性,語彙・文法の経時変化などの性質を持っている.自然言語解析システムは,これらの性質をアプリケーションが要求するレベルで旨く扱う必要がある.なかでも多様性・曖昧性への対応,すなわち,形態素,構文,意味,文脈などの各種レベルにおける組合せ的な数の曖昧性の中からいかにして正しい解釈を認識するかがシステム構築上,最も重要な課題である.\begin{figure}[b]\begin{center}\epsfile{file=\myfigdir/COM自然言語解析システムのモデル.eps,scale=0.7}\end{center}\myfiglabelskip\caption{自然言語解析システムのモデル}\label{fig:NLAnalysisModel}\end{figure}一般に自然言語解析システム(以下システムと省略する)は,入力文に対して可能な解釈の仮説を生成し({\bf仮説生成知識}の適用),ありえない仮説を棄却したり({\bf制約知識}の適用),仮説に対する順位付けを行ったり({\bf選好知識}の適用)することで,入力文に対する解析結果(文解釈となる構造)を求める.図\ref{fig:NLAnalysisModel}がこのモデルを示している.文の解釈は,仮説記述体系により規定される仮説空間に存在し,それぞれが実世界において,正解解釈(◎:correct),可能解釈(○:plausible),不可能解釈(×:implausible)に分類できる.仮説生成知識が可能な仮説集合を生成する.制約知識は仮説空間内の仮説が可能か不可能かを弁別し,選好知識は仮説空間内の仮説の順位付けを行う\footnote{制約知識は可能性ゼロの選好知識ともいえる.但し,制約知識の適用は解釈の枝仮りであり計算機処理の観点からは大きな差異がある.}.仮説生成・制約知識は,システムが受理可能な文の範囲,すなわち,システムの対象文カバレッジを規定する.仮説生成・制約・選好知識は,形態素,構文,意味といった各レベルにおいて存在し,システムの性能はこれらの総合として決定されると考えられる.例えば,各レベルの選好知識がそれぞれ異なった解釈を支持するという競合が生じるため,精度良く文解釈を行うにはこれらを総合的に判断する必要がある\cite{Hirakawa89a}.このように,システム設計においては,「生成\footnote{簡略のため「仮説生成知識」を単に「生成知識」と表現する.}・制約・選好知識をどのように扱うか」({\bf知識適用の課題}),「多レベルの知識をどのように融合するか」({\bf多レベル知識の課題})という2つの課題が存在する.生成・制約知識は,正文と非文とを弁別(あるいは,正文のみを生成)する,いわゆる,言語学の文法知識に相当する.従来,言語学からの知見を活用しながら計算機処理を前提とした各種の文法フレームワークが研究されてきている.文法フレームワークは,文の構造解釈を記述する解釈構造記述体系を基盤として構築されるが,これらには,句構造,依存構造,意味グラフ,論理式など様々ものが提案されている.一方,選好知識については意味プリファレンスの扱い\cite{Wilks75}を始めとして古くから多くの研究がなされているが,音声認識処理から自然言語処理への導入が始まった統計的手法が,単語系列から文脈自由文法,依存文法などへと適用範囲(解釈記述空間)を拡大・発展させ,広くシステムに利用されるようになってきている.例えば,句構造をベースの枠組みとして,文脈自由文法,LFG\cite{Kaplan89,Riezler02},HPSG\cite{Pollard94,Tsuruoka04},CCG\cite{Steedman00,Clark03}など\footnote{解析結果として依存構造を出力したりする場合もあるが,ここでは解析のベースとなっている解釈記述空間で分類している.},また依存構造をベースとした枠組みとして,確率依存文法\cite{Lee97},係り受け解析\cite{Shudo80,Ozeki94,Hirakawa01,Kudo05_j},制約依存文法(以降CDGと記述する)\cite{Maruyama90,Wang04},LinkGrammar\cite{Sleator91,Lafferty92}など文法フレームワークと統計手法の融合が広範に行われている.このように,文法フレームワークの研究は,生成・制約知識を対象とした研究から統計ベースの選好知識の扱いへと進展し,統計的手法は語系列,句構造,依存構造へと適用範囲を拡大し融合され,生成・制約・選好知識全体の統合のベースが整ってきている.多レベルの知識の融合という観点では,基本的に単一の解釈記述空間に基づくアプローチと複数の解釈記述空間に基づくアプローチがある.単一の文脈自由文法,依存文法などは前者の典型である.DCG\cite{Pereira80}やBUP\cite{Matsumoto83}などは文脈自由文法をベースにしているが,拡張条件が記述可能であり,例えば意味的な制約といった異レベルの知識を句構造という1つの解釈記述空間をベースとしながら融合することができる.CDGでは依存構造をベースにして構文的な制約を含む任意の制約条件を単項制約,2項制約という枠組みで記述できるようにしている\cite{Maruyama90}.LFGは,c-structure(句構造)とf-structure(機能構造)の2種類のレイヤを有し機能スキーマにより機能構造に関する制約条件が記述可能である\cite{Kaplan89}.また,統計ベースのアプローチにおいては,句構造情報だけではなく句のヘッドやその依存関係情報の利用が有効であることが判明し,句構造情報と依存構造情報を統合判断するモデルが利用されている\cite{Carroll92,Eisner96b,Collins99,Charniak00,Bikel04}.PDGは,複数の解釈記述空間に基づくアプローチを取っており,後に述べるように複数の解釈記述空間で対応付けられた圧縮共有データ構造をベースに多レベルの知識の融合を行っている.本稿では,PDGのモデル・概要について述べた後,PDGで採用している句構造と依存構造という2種類の中心的共有データ構造であるヘッド付き統語森(HPF:HeadedParseForest),依存森(DF:DependencyForest)について構築法を示し,それらに完全性と健全性が成立することを示す.また,例文解析実験により,PDGの振る舞いや特徴についても考察を加える. | |
V25N03-01 | \label{section:first}語義曖昧性解消はコンピュータの意味理解において重要であり,古くから様々な手法が研究されている自然言語処理における課題の一つである\cite{Navigli:2009:WSD:1459352.1459355,Navigli2012}.語義曖昧性解消の手法には大きく分けて教師あり学習,教師なし学習,半教師あり学習の3つが存在する.教師なし学習を用いるものにはクラスタリングを用いた手法\cite{UnsupervisedWSDClustering}や分散表現を用いた手法\cite{wawer-mykowiecka:2017:SENSE2017}などが存在するが,どの手法においても精度は高くなく実用的な性能には至っていない.知識ベースを用いた教師なし学習の手法についても,単純な教師なし学習よりは高いものの教師あり学習を用いる手法と比べると精度が劣ることが報告されている\cite{raganato-camachocollados-navigli:2017:EACLlong}.それらに対して,教師あり学習を用いた語義曖昧性解消は比較的高い精度を得られることが知られており,SemEval2007\cite{pradhan-EtAl:2007:SemEval-2007}やSenseval3\cite{MihalceaEtAl2004}の英語語義曖昧性解消タスクにおいても教師あり学習を用いた手法が最も良い精度を記録している.一方,教師あり学習を用いて語義曖昧性解消を行う上で「訓練データが不足する」という問題が存在する.教師あり学習での語義曖昧性解消では訓練データの作成に人手での作業が必要になるため,コストの問題から大きなデータセットを用意することは難しい.語義曖昧性解消において周辺の文脈情報は有効な手掛かりであることが知られており,訓練データを増やし様々なパターンを学習させることが精度を上げる上で必要になる\cite{yarowsky:1995:ACL}.しかしながら,上述のSemEval2007Task17語義曖昧性解消タスクのLexicalSampleTaskにおいて,訓練データの1単語あたりの平均訓練事例数は約222と決して多い数字とは言えない.SemEval2010の日本語語義曖昧性解消タスク\cite{okumura-EtAl:2010:SemEval}に至っては1単語あたりの訓練事例数がおよそ50であり,圧倒的に訓練データが足りていないと言える.また,訓練データの不足に関連してデータスパースネスも語義曖昧性解消において大きな問題となる.先に述べたように周辺の文脈パターンを語義ごとに学習させるためには非常に大量の訓練事例が必要となりコストの問題から現実的でない.これらの問題を解決するため,半教師あり学習によって確度の高いデータを訓練データとして追加し学習を行う方法が研究されており,日本語語義曖昧性解消タスクにおいて高い精度が得られたことが報告されている(藤田,Duh,藤野,平,進藤2011;FujitaandFujino2013;井上,斎藤2011).\nocite{KevinDuh2011}\nocite{Fujita:2013:WSD:2461316.2461319}\nocite{2011inoue}また,これらを解決する別のアプローチとして語の分散表現を教師ありの語義曖昧性解消に用いる研究があり\cite{sugawara:2015:pacling,weko_146217_1,iacobacci-pilehvar-navigli:2016:P16-1},既存の素性と組み合わせることによって高い精度が得られたことを報告している.ところで,日本語の言語処理にはかな漢字換言というタスクがある.これは,入力された文中のひらがなについて漢字に換言できる対象がある場合,その周辺の文脈を考慮して正しい漢字に換言するというものである.例えば「私は犬を\underline{かって}いる」という文があった際,犬という単語から「かって」というひらがなが「買って」ではなく「飼って」を意味することは容易に理解できる.このようなひらがな語について漢字に換言を行うタスクを我々はかな漢字換言と呼んでおり,以前から研究を行ってきた\cite{Kazuhide2016}.ここで行っていることは語義曖昧性解消そのものであり,かな漢字換言の誤り分析を行うことは日本語語義曖昧性解消タスクにおいて誤り分析することとほぼ同義であると考えられる.また,通常の語義曖昧性解消タスクに比べかな漢字換言の訓練データは大量のコーパスから自動で構築することが可能なため,訓練データの増減による精度の変化や誤り分析などが容易に行えるという利点がある.本論文では日本語語義曖昧性解消タスクにおける問題点についてかな漢字換言タスクを通して確認し,既存の手法において何が不足しているのかを明らかにする.本論文の構成は以下の通りである.\ref{section:related-works}章にて本論文に関連する研究および本研究の位置付けについて述べ,\ref{section:kanakanji-conversion}章にて我々が今回行うかな漢字換言タスクについて日本語語義曖昧性解消タスクと比較しながら詳細を述べる.\ref{section:proposed-method}章では提案手法について既存手法との比較を行いながら説明をする.\ref{section:experimentation}章ではそれらの手法を用いてかな漢字換言と通常の語義曖昧性解消タスクにおける提案手法の有効性の検証を行い,語義曖昧性解消タスクにおける問題点を明確にする.\ref{section:conclusion}章にて結論を述べる. | |
V25N04-04 | 作文中における誤りの存在や位置を示すことができる文法誤り検出は,第二言語学習者の自己学習と語学教師の自動採点支援において有用である.一般的に文法誤り検出は典型的な教師あり学習のアプローチによって解決可能な系列ラベリングのタスクとして定式化できる.例えば,BidirectionalLongShort-TermMemory(Bi-LSTM)を用いて英語の文法誤り検出の世界最高精度を達成している研究\cite{rei-yannakoudakis:2016:P16-1}がある.彼らの手法は,言語学習者コーパスがネイティブが書いた生コーパスと比較してスパースである問題に対処するために,事前に単語分散表現を大規模なネイティブコーパスで学習している.しかし,ReiとYannakoudakisの研究を含む多くの文法誤り検出の研究において用いられている分散表現学習のアルゴリズムのほとんどは,ネイティブコーパスにおける単語の文脈をモデル化するだけであり,言語学習者に特有の文法誤りを考慮していない.一方で,単語分散表現に言語学習者に特有の文法誤りを考慮することは,より文法誤り検出に特化した単語分散表現を作成可能であり有用であると考えられる.そこで,我々は文法誤り検出における単語分散表現の学習に正誤情報と文法誤りパターンを考慮する3つの手法を示す.ただし,3つ目の手法は最初に提案する2つの手法を組み合わせたものである.1つ目の手法は,学習者の誤りパターンを用いて単語分散表現を学習する\textbf{Errorspecificwordembedding}(EWE)である.具体的には,単語列中のターゲット単語と学習者がターゲット単語に対して誤りやすい単語を入れ替え負例を作成することで,正しい表現と学習者の誤りやすい表現が区別されるように学習する.2つ目の手法は,正誤情報を考慮した単語分散表現を学習する\textbf{Grammaticalityspecificwordembedding}(GWE)である.単語分散表現の学習の際に,n-gramの正誤ラベルの予測を行うことで,正文に含まれる単語と誤文に含まれる単語を区別するように学習する.この研究において,正誤情報とは周囲の文脈に照らしてターゲット単語が正しいまたは間違っているというラベルとする.3つ目の手法は,EWEとGWEを組み合わせた\textbf{Error\&grammaticalityspecificwordembedding}(E\&GWE)である.E\&GWEは正誤情報と誤りパターンの両方を考慮することが可能である.本研究における実験では,英語学習者作文の文法誤り検出タスクにおいて,E\&GWEで学習した単語分散表現で初期化したBi-LSTMを用いた結果,世界最高精度を達成した.さらに,我々は大規模な英語学習者コーパスであるLang-8\cite{mizumoto-EtAl:2011:IJCNLP-2011}を使った実験も行った.その結果,文法誤り検出においてノイズを含むコーパスからは誤りパターンを抽出して学習することが有効であることが示された.本研究の主要な貢献は以下の通りである.\begin{itemize}\item正誤情報と文法誤りパターンを考慮する提案手法で単語分散表現を初期化したBi-LSTMを使い,FirstCertificateinEnglish(FCE-public)コーパス\cite{yannakoudakis-briscoe-medlock:2011:ACL-HLT2011}において世界最高精度を達成した.\itemFCE-publicとNUCLEデータ\cite{dahlmeier2013building}にLang-8から抽出した誤りパターンを追加し,単語分散表現を学習することで文法誤り検出の精度が大幅に向上することを示した.\item実験で使用したコードと提案手法で学習された単語分散表現を公開した\footnote{https://github.com/kanekomasahiro/grammatical-error-detection}.\end{itemize}本稿ではまず第2章で英語学習者作文における文法誤り検出に関する先行研究を紹介する.第3章では従来の単語分散表現の学習方法について述べる.次に,第4章では提案手法である正誤情報と誤りパターンを考慮した単語分散表現の学習モデルについて説明する.そして第5章ではFCE-publicとNUCLEの評価データであるCoNLLデータセットを使い提案手法を評価する.第6章では文法誤り検出モデルと学習された単語分散表現における分析を行い,最後に第7章でまとめる. | |
V14N03-12 | 近年,機器の高機能化がますます進み,我々の生活は非常に便利になってきている.しかし一方では,それらの機器を使いこなせないユーザが増えてきていることもまた事実である.この原因としては,高機能化に伴い,機器の操作が複雑化していることが考えられる.この問題を解決する一つの手段に,新しいユーザインタフェースの開発を挙げることができる.これまでにも,音声認識や手書き文字認識など,日常生活で慣れ親しんでいる入力を扱うことによる使いやすい機器の開発がなされており,一定の成果を挙げてはいるが,未だ万人に受け入れられるインタフェースとしては完成していない.これは,入力されたデータを規則に沿って処理しているだけであり,ユーザが置かれている状況や立場・気持ちを理解することなく,単純に処理していることにより,便利であるはずのインタフェースが,かえって人に不便さや不快感を与える結果になっていることが原因であると考えられる.そこで,我々は,新しいインタフェースとして,人間のコミュニケーションの仕組み,特に,常識的な判断の実現を目標に研究を行っている.人間はコミュニケーションにおいて,あいまいな情報を受け取った場合にも,適宜に解釈し円滑に会話を進めることができる.これは,人間が長年の経験により,言語における知識を蓄積し,その基本となる概念に関する「常識」を確立しているからである.人間が日常的に用いている常識には様々なものがある.例えば,言葉の論理性に関する常識,大きさや重さなどの量に関する常識,季節や時期などの時間に関する常識,暑い・騒がしい・美味しい・美しいといった感覚に関する常識,嬉しい・悲しいといった感情に関する常識などを挙げることができる.これらの常識を機器に理解させることができれば,ユーザは人とコミュニケーションをとるように機器をごく自然に使いこなすことができると考えられる.これまでにも,前述した常識に関する判断を実現する手法についての研究がなされている\cite{horiguchi:02,watabe:04,kometani:03,tsuchiya:05}.そこで本稿では,これらの常識の中の感情に着目し,ユーザの発話文章からそのユーザの感情を判断する手法を確立し,実システムによりその有効性を検証する.本システムにより例えば,提供しようとしている内容にユーザが不快感を覚える表現や不快な事象を想起させるような内容が含まれている場合に,別の適切な表現に変更することができるなどの効果が期待できる.本稿のように,感情に主眼を置いた研究はこれまでにもなされている.例えば,イソップワールドを研究の対象に置き,「喜び」,「悲しみ」など8種類の感情に応じた特徴を現在の状況から抽出し,それら複数の特徴を組み合わせることによってエージェントの感情を生成させる研究がある\cite{okada:92,okada:96,tokuhisa:98}.この手法では,エージェントの処理を内部から監視することによって,感情生成のための特徴を抽出している.また,\cite{mera:02}では,語彙に対する好感度を利用し,発話文章から話者の快・不快の感情を判断している.これらの先行研究では,あらかじめ知識として獲得している語彙以外は処理を行うことができない.また,判断できる感情の種類が少なく,表現力に乏しいという問題点が挙げられる.一方,本稿で提案する手法では,連想メカニズムを利用することにより,知識を獲得している語彙との意味的な関連性を評価することができ,知識として獲得していない語彙に関しても適切に処理を行うことが可能であると共に,多彩な感情を判断できることに独自性・優位性があると考えられる. | |
V27N02-06 | 言語による指示に加えて,その指示内容を示す動作途中の写真があれば,その写真を参考にして調理を行いやすくなる.したがって,各手順に写真が付与された「写真付きレシピ」により作業内容を示すことは有益である.しかし,写真付きレシピを作成するためには,写真を撮影しながら手順を実施し,実施後に各写真に対応する手順を記述する必要があり,作者にとって負担である.本研究の目的は,写真列を入力としてレシピを自動生成することで,写真付きレシピの作成を容易にすることである.この目的を達成するために,本論文では,写真列を入力として与え,システムは各写真ごとに手順を生成する問題として定式化した課題と,この課題を解決する手法を提案する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{27-2ia5f1.eps}\end{center}\hangcaption{写真列からのレシピの自動生成.入力が写真列であり(左),出力が複文からなる手順である(右).手順は写真列の各写真ごとに生成する.}\label{fig:task_overview}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%図\ref{fig:task_overview}に本論文で対象とする課題の概要を示す.入力の写真列の各写真に対し,複数の文からなる手順が対応している.これらの手順全体を本論文ではレシピと呼ぶ.本論文で取り上げる写真列の各写真は手順実施の上で重要な場面で写真を撮影したものであり,手順途中の情報が十分に含まれている.また,各写真に対して1つの手順が対応するため,生成すべき手順数が既知である.システムはこの写真列を受け取り,写真列の各写真に対応する手順を生成し,それらをまとめて写真付きレシピとして出力する.この課題設定は入出力が共通しているという点で,Visualstorytelling\cite{visualstorytelling}に類似している.Visualstorytellingでは,図\ref{fig:task_overview}と同様に写真列を入力としてシステムが各写真に対応する文章を出力する.この課題では写真から説明文を生成するキャプション生成\cite{you2016cvpr,biten2019cvpr}と違い,出力の文章は写真列の時系列を考慮した一貫性があることが要求される.本論文で取り扱う課題はVisualstorytellingと比較して,出力のレシピは読者が読んで実行できるように,簡潔で具体的な記述であることが求められる.つまり,レシピにおける重要な物体や動作である食材,道具,調理者の動作を表す重要語と,それ含む表現が正しく生成されなければならない.例えば,図\ref{fig:task_overview}の工程1においては,「ちくわ」や「切り」が重要語であるが,写真を説明するためには「1/3の大きさに」といった表現も重要語に添えて生成する必要がある.これらをまとめて本論文では重要語を過不足なく含む表現と呼ぶ.これらの重要語を過不足なく含む表現は,手順を記述する上で必要不可欠である.そのため,これらの表現は,手順に付与している写真の内容を大きく反映しているものと言える.この性質をもとに,料理ドメインでは完成写真に適したレシピを得る課題が検索課題として提案され,その解法として完成写真とレシピの間で共有された潜在的な意味に基づく特徴空間を学習する共有潜在空間モデルが高い性能を発揮してきた\cite{im2recipe,R2GAN,chen2016deep}.しかしながら,完成写真とレシピの組ではなく,レシピの実行途中の写真と手順の組での共有潜在空間モデルは未だ提案されていない.この課題を解く場合,MSCOCO\cite{lin2014mscoco}やFlickr30k\cite{young2014tacl}などの一般的なドメインにおける写真とその説明文を対象とする既存の共有潜在空間モデル\cite{wang2017learning}で写真と手順の組を用いて学習しても高い性能を得ることは難しい.これは次の手順で何を記述するか,またその際に特に言及する必要がある前の手順からの差分は何かといった文脈に大きく影響を受けるためであると考えられる.これらを考慮するために,写真に対応する手順だけでなく,レシピ全体を考慮できるように既存の共有潜在空間モデルの手順側のエンコーダに工夫を加える.この工夫によって,このモデルに写真を入力した時,近傍の手順には重要語を過不足なく含む表現の情報が含まれていると期待できる.これにより,各入力写真に対応する共有潜在空間上のベクトルは重要語を過不足なく含む表現が強調されたものとなることが期待できる.提案手法では,このような共有潜在空間を用いて写真の埋め込みベクトルを獲得した後,その空間中での近傍点を利用しながら文生成を行うことで,これらの表現を正しく生成する.本手法を実装し,日本語のレシピを用いて評価実験を行った.その結果,提案した共有潜在空間モデルは既存のモデルと比較して高い検索性能を得られた.また,レシピ生成の点においても,提案手法はBLEU,ROUGE-L,CIDEr-Dといった生成文の自動評価尺度だけでなく,重要語を正しく生成できているかを測定した重要語生成の評価もVisualstorytellingの標準的なベースラインを上回ることを実験的に確認した.そして,提案手法は写真に適した重要語を正しく生成していることを実例により確認した.考察では,提案手法が入力写真列に適したレシピを生成することに成功したケースと失敗したケースを確認した.また,提案手法の重要な要素である,共有潜在空間についてのパラメータや,訓練データ量を変更した時の性能の変化を確認し,提案手法が性能を発揮する上で適当なパラメータやデータ量について検証した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% | |
V06N05-05 | \label{sec:hajimeni}人間の翻訳作業を支援するシステムは,電子単語辞書から機械翻訳システムまでいろいろ提案されており関連する研究も多い\cite{MT97}.著者らはこの中の用例提示型の翻訳支援システムの研究を行っている.このシステムは一般的に巨大な対訳用例データベースと検索システムから構成される.このシステムに対して利用者は「翻訳がわからない」と思う表現を入力する.するとシステムは入力に一致した表現,あるいは類似した表現をデータベース中で検索してその翻訳例を提示する.利用者は提示された翻訳例を参考に翻訳を作成する.機械翻訳システムと違ってこの場合の翻訳の主体は利用者にあり,システムは利用者に参考となる情報を提示するだけである.このように利用者主体の翻訳作業を支援する考え方はKay\cite{Kay97}によって1980年に提案されている.この文献では電子化辞書を使った支援を提案しているが,対訳用例を使う翻訳支援もこの考えを基本的に踏襲したものである.また実際に対訳用例を使って日英翻訳支援システムを作成した例としては\cite{Naka89,Sumi91}等の先駆的なシステムがある.さらに最近では商用システムもいくつか販売されている.著者らは上記一連の研究と同一の考えに基づいて,日本語ニュースの英訳支援のためのシステムを開発している.このシステムには二つの特徴がある.一つは利用する日英用例の対応付けの粒度である.従来の研究では,表現の対応を集めた日英表現翻訳辞書や文間の対応付けを行ったデータベースなど詳細な単位で対応のとれたデータベースを利用することが多かった.これらに対して著者らのデータベースは記事という大きな単位での対応はとれているが,それより細かな対応はとれていない.これは日本語ニュース記事を英訳する場合に,英語視聴者の背景知識や興味に合わせて大きく意訳することがあるためである.極端な場合は日本語ニュースを参考にして英文ニュースを新たに作成する場合もある.このため入力の検索結果に対応する翻訳部分を提示するには,日英表現の自動的な照合が必要になる.そしてこの場合に表現が照合しないことも前提にしなくてはならない.第二点は「意訳の支援」である.従来,用例提示型のシステムはマニュアル翻訳のような定型的な翻訳に応用する場合が多かった.たしかにニュース翻訳の場合でも「株価」「天気予報」「新車販売台数月例報告」などの項目はほぼ定型的な文から成り立っており,これらを有効に支援できると思われる.しかし著者らは本システムで意訳を積極的に支援したいと考えている.なぜなら意訳こそニュース翻訳の難しい部分であり,また用例によって有効に支援できると考えるからである.例えば日本語の短い言い回し「いかがなものか」は本稿のデータベース中だけでも過去10通り程度に訳されている.同様に同じ単語や似たような文が文脈によってどのように意訳されているかを観察すれば,意訳のための知識を効果的に学ぶことができると考える.意訳であろうと定型的な翻訳を支援する場合であろうと,表現を検索する部分には同じ手法を利用できる.しかし,結果の表示には異なった配慮が必要である.定型的な翻訳であれば入力に対応する翻訳例を一つ示せば十分である.しかし意訳を支援するにはできるだけたくさんの翻訳例を文脈付きで利用者に提示する必要がある.このため著者らのシステムは検索速度を重視している.またどのような長さの入力であっても出力は日本語と英語の記事を提示した上で,対応個所を強調して表示している.本稿は上記のシステム中の検索部分を対象としている.著者らは一文字から一記事までの範囲を入力として類似検索ができるシステムを研究している.これは意訳が単語や短い表現から文や記事までの広い範囲で行われるためである.実際には一文字から一文までを対象にした検索システムと記事を対象にした検索システムの二つを作成した.本稿はこのうちの一文までの表現を対象として類似用例を検索する手法について報告する.著者らはこの検索を頑健で柔軟かつ高速に行うためキーワードのAND検索を基本的な手法として採用した.すなわち,入力を形態素解析してあらかじめ指定している品詞のキーワードを抽出してAND検索を行う手法である.しかし単純なAND検索を行うと不適切な結果を多数表示することが判明した.そこで著者らはAND検索に語順と「変位」と呼ぶ制限を加えることを提案する.これは表層的な情報を利用してAND検索に構文的な情報を反映させようという試みである.この手法は構文解析を利用していないため速度と頑健性に優れている.以下,本稿の構成を示す.まず~\ref{sec:gaiyou}~章で著者らの用例提示型翻訳支援システムの概要を説明して,この中の類似用例検索部分の設計方針を示す.\ref{sec:mondai}~章では類似用例検索にキーワードによるAND検索を利用した場合に起こる問題を示す.続く~\ref{sec:algo}~章ではAND検索に語順と変位を使う手法を提案する.またこの手法を使った検索手順をアルゴリズムの形で示す.そして~\ref{sec:jikken}~章で約160万用例からなるデータベースを使った検索実験を報告する.ここでは検索時間と,検索結果の主観的な満足度などを報告し,提案手法はAND検索にくらべてわずかに検索時間が増加するものの(約1.3倍)利用者の満足度は統計的に有意に優れていたことを示す.次に~\ref{sec:kanren}~章では関連研究を紹介して本研究との比較を行い最後に~\ref{sec:ketsuron}~章で本稿のまとめを行う. | |
V19N03-04 | label{sec:hajimeni}法は章節/条項号という階層を有する,基本的に構造化された文書であり,国(国会)の制定する法律,地方自治体(議会)が制定する条例の二つがある.前者に規則を加え法規,後者に規則を加え例規と総称される.日本国内で法律を制定する主体は国家のみだが,条例を制定する地方自治体は多数存在する.そのため,同一の事柄について規定する多数の例規が地方自治体ごとに存在することになる.例えば,各県の象徴であり,旗に用いられる県章を定めた条例は全都道府県で制定されており,青少年の保護育成を目的とする条例は,長野県を除く46都道府県で制定されている.これら同一事項に関する条例は相互に類似しているものの,地方自治体の置かれた状況が異なるため,随所に相違点が存在している.一例として,青少年の保護育成を目的とした条例では,青少年の深夜外出を制限しているが,その制限される時間が異なっている事が挙げられる.東京都や愛媛県では午後11時から午前4時を深夜と定義している一方,高知県では午後10時から午前4時を深夜としている.また,大阪府では外出を制限する時間帯を年齢によって変えており,16歳未満の場合は午後8時から午前4時まで外出を制限される.このような違いを明確化するため例規比較が行われる.例規比較は,自治体間の違いを明らかにする教育・研究活動以外にも,企業法務や自治体法務においても発生する業務である.自治体法務における例としては,例規を制定・改正する際の参考資料作成,さらには自治体合併時に全例規を擦り合せて一つに纏めるための準備作業が挙げられる.特に自治体合併時には,対象となる全自治体の全例規に対する例規比較を短時日に行う必要がある仕事量の多い法務となっている\cite{加藤幸嗣:2006-05,伊佐美浩一:2005-05,伊佐美浩一:2005-08,藤井真知子:2007-07-31}.現在,この例規比較は専門家が手作業で実施しているため,計算機を利用した作業の省力化が望まれている.そこで本研究では,条文対応表の作成支援を目的とし,与えられた2つの例規の条文対応表を計算機で作成する手法の検討及び,得られた条文の対応関係の尤もらしさについての評価を行う.法を計算機で扱う研究は,法律の専門家を模倣するエキスパートシステムに関する研究として,人工知能研究の派生領域として発達してきた.本分野初期の国際会議として,1987年より隔年開催されているInternationalConferenceonArtificialIntelligenceandLaw\cite{ICAIL}と,1988年より毎年開催されているInternationalConferenceonLegalKnowledgeandInformationSystem\cite{JURIX}がある.日本では平成5年度から9年度の文部省化学研究費重点領域研究「法律エキスパートシステムの開発研究」において促進された\cite{吉野一}.この期間を通してインターネット上における法律の閲覧が可能となり,特に判例を計算機で利用する知的システムに関する多数の研究が実施された.法律や例規以外の法関係の文書に対する情報科学との融合研究としては,特許における公開特許公報中の請求項と発明の詳細な説明文との対応付けを行う研究が行われている\cite{ronbun2-4,ronbun2-2}.また,法律用語のオントロジー構築に対する研究も行われた\cite{山口高平:1998-03-01}.そして,日本においても2007年より人工知能学会全国大会の併設ワークショップとしてInternationalWorkshoponJuris-informatics(JURISIN:JURISINformatics)が毎年開催されている.自治体の情報化を支援する企業も多数存在し,例規のインターネット上での公開支援にとどまらず,例規改正の編集過程に基づき,改正前後の差異を表現した新旧対照表を自動作成する事も可能となっている\cite{kakuda}.現在では,官報を基に法務省行政管理局が整備した法令データ提供システムが日本の法令を提供している\cite{eGov}.また,多くの法律の英対訳も名古屋大学の日本法令外国語訳データベースシステムを通じて提供されている\cite{JaLII}.現在では法律だけでなく,多くの自治体が例規をインターネット上に公開するようになった.しかし例規を対象とした情報科学との融合研究は少なく,これまでに例規を分類する研究\cite{原田隆史2009}が存在するに留まっている.そのため,例規の条文対応表の自動作成に関する研究は本論文が嚆矢である.米国の連邦法と州法とで整合性の取れていない条文の発見を目的とした,法律体系の中から関連する条文を網羅的に抽出する研究がある\cite{ronbun3-1}.この研究は類似する条文を抽出する点で,例規の条文対応を推定する本研究と類似している.しかしながら,彼らの研究は米国における領域知識の利用を前提としている事及び,不整合性検出のために数値や単位に特化した処理を追加している点で日本の例規を対象とした条文対応表への適用は困難である.条文対応表は,条文を一般の文書と見なした場合,類似文書を探す研究と見なしうる.類似文書の探索に関する研究としては,英語で記された複数のコーパス間の類似する文を抜き出す研究や\cite{ronbun1-1}や,コーパス内に存在する類似文のクラスタを抜きだす研究がある\cite{ronbun1-3}.また日本語を対象とした研究も挙げられる\cite{ronbun2-1,ronbun2-3}.これらの論文では同一事象に対して記述された記事の抽出及び,記事の要約をその目的としている.これらはよく整備されたコーパスや類義語辞典を用いたり,豊富に収集された事例に基づく機械学習によりその性能向上を図っている.そのため研究事例のない例規を対象とした本研究に直接利用する事は困難である. | |
V26N01-08 | 近年,ニューラルネットワークに基づく機械翻訳(ニューラル機械翻訳;NMT)は,単純な構造で高い精度の翻訳を実現できることが知られており,注目を集めている.NMTの中でも,特に,エンコーダデコーダモデルと呼ばれる,エンコーダ用とデコーダ用の2種類のリカレントニューラルネットワーク(RNN)を用いる方式が盛んに研究されている\cite{sutskever2014sequence}.エンコーダデコーダモデルは,まず,エンコーダ用のRNNにより原言語の文を固定長のベクトルに変換し,その後,デコーダ用のRNNにより変換されたベクトルから目的言語の文を生成する.通常,RNNには,GatedRecurrentUnits(GRU)\cite{cho-EtAl:2014:EMNLP2014}やLongShort-TermMemoryLSTM)\cite{hochreiter1997long,gers2000learning}が用いられる.このエンコーダデコーダモデルは,アテンション構造を導入することで飛躍的な精度改善を実現した\cite{bahdanau2015,luong-pham-manning:2015:EMNLP}.この拡張したエンコーダデコーダモデルをアテンションに基づくNMT(ANMT)と呼ぶ.ANMTでは,デコーダは,デコード時にエンコーダの隠れ層の各状態を参照し,原言語文の中で注目すべき単語を絞り込みながら目的言語文を生成する.NMTが出現するまで主流であった統計的機械翻訳など,機械翻訳の分野では,原言語の文,目的言語の文,またはその両方の文構造を活用することで性能改善が行われてきた\cite{lin2004path,DingP05-1067,QuirkP05-1034,LiuP06-1077,huang2006statistical}.ANMTにおいても,その他の機械翻訳の枠組み同様,文の構造を利用することで性能改善が実現されている.例えば,Eriguchiら\cite{eriguchi-hashimoto-tsuruoka:2016:P16-1}は,NMTによる英日機械翻訳において原言語側の文構造が有用であることを示している.従来の文構造に基づくNMTのほとんどは,事前に構文解析器により解析された文構造を活用する.そのため,構文解析器により解析誤りが生じた場合,その構造を利用する翻訳に悪影響を及ぼしかねない.また,必ずしも構文解析器で解析される構文情報が翻訳に最適とは限らない.そこで本論文では,予め構文解析を行うことなく原言語の文の構造を活用することでNMTの性能を改善することを目指し,CKYアルゴリズム\cite{Kasami65,Younger67}を模倣したCNNに基づく畳み込みアテンション構造を提案する.CKYアルゴリズムは,構文解析の有名なアルゴリズムの一つであり,文構造をボトムアップに解析する.CKYアルゴリズムでは,CKYテーブルを用いて,動的計画法により効率的に全ての可能な隣接する単語/句の組み合わせを考慮して文構造を表現している.提案手法は,このCKYアルゴリズムを参考にし,CKYテーブルを模倣したCNNをアテンション構造に組み込むことで,原言語文中の全ての可能な隣接する単語/句の組み合わせに対するアテンションスコアを考慮した翻訳を可能とする.具体的には,提案のアテンション構造は,CKYテーブルの計算手順と同様の順序でCNNを構築し,提案のアテンション構造を組み込んだANMTは,デコード時に,CKYテーブルの各セルに対応するCNNの隠れ層の各状態を参照することにより,注目すべき原言語の文の構造(隣接する単語/句の組み合わせ)を絞り込みながら目的言語の文を生成する.したがって,提案のアテンション構造を組み込んだANMTは,事前に構文解析器による構文解析を行うことなく,目的言語の各単語を予測するために有用な原言語の構造を捉えることが可能である.ASPECの英日翻訳タスク\cite{NAKAZAWA16.621}の評価実験において,提案のアテンション構造を用いることで従来のANMTと比較して,1.43ポイントBLEUスコアが上昇することを示す.また,FBISコーパスにおける中英翻訳タスクの評価実験において,提案手法は従来のANMTと同等もしくはそれ以上の精度を達成できることを示す. | |
V07N05-03 | \label{はじめに}近年,カーナビゲーションシステムを初めとする種々の情報機器が自動車に搭載され,様々な情報通信サービスが始まりつつある.提供される情報には,交通情報,タウン情報,電子メール,ニュース記事等がある.自動車環境での情報提供では,文字表示よりも,音声による提示が重要との考えから\footnote{道路交通法第71条5の5で,運転中に画像表示用装置を注視することが禁じられている},文章データを入力して音声波形に変換するテキスト音声合成技術の重要性が増している.テキスト音声合成技術は,近年,コンピュータの性能の大幅な向上や自動車用途でのニーズの増大に牽引され,研究開発が進んでいるものの,品質面で,現在まだ,いろいろな問題が残されている\cite{山崎1995,矢頭1996,塚田1996,広瀬1997}.そのうち,韻律の制御が良くないと,不自然で,棒読みな感じを与え,悪くすると意味を取り違えることにもなる.音声の韻律には,イントネーション,ポーズ,リズム,アクセントなどが含まれる.本論文は,入力文から,ポーズ挿入位置を判定する技術において中心的な役割を果たす係り受け解析法および解析結果に基づくポーズ挿入位置判定法に関するものである.まず,文から係り受け構造を求めるための,係り受け解析では,文全体を係り受け解析する方法\cite{佐藤1999}と,局所係り受け解析する方法\cite{鈴木1995}があるが,韻律制御用途には,後述のごとく局所係り受け解析で十分なことから,計算量の面からも有利な局所解析が得策と考えられる.言語処理分野において,係り受け解析はいろいろな処理のベースとなる基本的解析手法との位置付けから,多くの研究が継続されており,近年では,コーパスからの機械学習に基づく方法が盛んである\cite{藤尾1997,白井1998,春野1998,江原1998,内元1999}.機械学習方式の場合,対象とする文章のジャンルの変更や,係り受け解析の前処理である形態素解析と文節まとめ上げ処理の変更に伴って必要となる解析規則辞書の更新が容易なため,保守と移植のコストが低いという利点を持つ.機械学習の枠組みの中で,文節間の属性の共起頻度による統計的解析手法\cite{藤尾1997}や決定木による係り受け解析手法\cite{春野1998}に比べて,最大エントロピー法(以下,ME法と略記)による係り受け解析手法\cite{江原1998,内元1999}が,最も高精度な手法と考えられている.しかしながら,ME法による係り受け解析では,学習によって得られた統計モデルを蓄えた解析辞書の容量を,設計の現場において削減することによりメモリ量と計算速度を調整するということは容易ではなく,あるいは,素性を削減して統計モデルを再構築するには,学習に膨大な計算時間を必要とする\cite{内元1999}.そのため,車載情報機器や携帯情報端末など,小型化,低価格化に厳しい要求があり,しかも極めて短い開発サイクルで設計する必要のある設計現場に向かないという問題がある.そこで,ME法と同等の精度で,かつ,メモリ容量と実行速度の調整が容易で開発現場に受け入れられやすい,という特徴を持つ係り受け解析手法を開発するため,\begin{itemize}\itemポーズ挿入位置決定の目的にあった,局所係り受け解析\itemメモリ容量と実行速度に関して容易に設定変更ができ,アルゴリズムがシンプルで移植・保守の容易な決定リスト\cite{Yarowsky1994}\end{itemize}を採用することにした.係り受け解析結果に基づくポーズ挿入位置判定では,文の構文的な構造とポーズ,イントネーションとの関係に関する研究がなされ\cite{杉藤1997,杉藤1989a},構文構造に基づいてポーズ挿入位置を決定する研究がなされている\cite{匂坂1993,海木1996,佐藤1999,清水1999}.その結果,近傍文節間の係り受け関係がポーズ挿入位置の決定に重要であることがわかってきている.近傍文節としてどの程度を考えるかに関しては,文節間距離を3文節分扱うもの\cite{鈴木1995}から距離=1,2,3,4以上の範囲を扱うもの\cite{佐藤1999}まである.また,ポーズ位置決定の要因は,係り受け構造の他にも,読点\cite{海木1996},文節の種類\cite{清水1999},生理的な息継ぎの必要性\cite{杉藤1989b}などがあり,ポーズ制御アルゴリズムの中に盛り込まれている.従来研究の中で,ポーズ挿入位置設定規則検討のための実験を最も大規模に行っているのは文献\cite{海木1996}の研究である.この研究では,アナウンサ10名によって発声させたATR音声データベースの503文のポーズ長を分析して,それに基づいてポーズ挿入規則を作成し,それを基にポーズ制御した合成音声100文と自然音声のポーズ長をそのまま使ってポーズ制御した合成音声100文を10名の被験者に提示してポーズ挿入規則の評価を行い,自然音声のポーズと同等なポーズ挿入規則が作成されたと報告されている.他の研究は,扱う文数が少なく,文献\cite{鈴木1995}では6文,文献\cite{河井1994}では5文などである.これらの従来研究では,係り受け関係を主要因としてその他いくつかの要因も加味した韻律規則が提案され,人間の発声する音声のポーズに比べて,8〜9割りの一致率を達成しているとされている.しかしながら,十分な文の数ではないため,言語構造の様々な面がポーズ制御規則に反映されているかどうかという疑問がある.本論文では,これらの研究から明らかになった,係り受け距離と句読点に基づくポーズ挿入規則をベースに作成した合成音声を用いて聴取実験を行い,悪い評価となった文を分析することによって,さらに追加すべき規則がないかどうか検討する.なお,聴取実験における文の数としては,従来研究で良好な制御と評価される文の割合が8〜9割であることを踏まえて,悪い評価となる文の数が分析に十分な数だけ得られるように,500文を用いることにする. | |
V14N03-05 | 日常生活の様々な体験において,その体験の素晴らしさを表現する言葉として,『感動』という言葉がしばしば用いられる.感動とは,『美しいものや素晴らしいことに接して強い印象を受け,心を奪われること』(大辞林\cite{Book_103})とあるように,体験に対する肯定的な評価であると共に,記憶の定着や感情の喚起を伴った心理状態の大きな変化である.そして,感動するような体験には,人のやる気を高めたり,価値観を変えたりするなどの効果があるといわれている\cite{Article_007}.また,このような感動を引き起こす対象としては,マスメディアが提供するドラマや映画,音楽などの割合が高いとされる\cite{Web_401}.本研究の目的は,放送番組の品質評価,とりわけ音の評価に,『感動』という言葉をキーワードとした評価指標を導入することにある.コンサートホールで演奏された音楽を聞くなど,音そのものに直接的に感動することもあれば,ドラマやスポーツ中継などのBGMや歓声,アナウンスなどの音が放送番組を盛り上げることで間接的に感動を喚起することもある.実際,音楽聴取における感情誘導効果や覚醒水準調整効果などの心理的な影響が,多くの実験によって確かめられており\cite{Book_101},音が引き起こす心理的な効果が,番組コンテンツの評価に与える影響は大きいと考えられる.従来の研究では,音の評価を行う際,言葉を使ってその評価を表現することが多い.難波ら\cite{Book_105}は,音の物理特性と人が受ける印象評価との関連を調べるために,形容詞対を用いたSD法による音色や音質の評価や,それに基づく音の分類を行っている.また,音響システムの展覧会などで配布される広告では,システムの目的や想定される購入者によって,音を表現する言葉を使い分けている.たとえば,映画を対象としたサラウンドシステムにおいては,『迫力』や『臨場感』,『低音の響き』,『余韻』といった言葉が多く使われている.これに対して,ピュアオーディオの分野では,『音像』や『サウンドステージ』,『静寂』,『実在感』,『反応のよさ』といった言葉が使われている.これらの言葉は,従来の研究では使われない評価語であるが,音響の特徴を表す表現として日常的に用いられ,映画音楽とクラシック音楽などの各コンテンツがもつ音の良さを表現しているものと思われる.広告が,消費者ニーズを満たすために洗練された表現を使い分けていることを考えると,コンテンツによって要求される音の印象評価の内容が異なることも考えられる.川上ら\cite{Inproc_201}は,感情語と『感動』を用いて音楽の印象評価を行ったが,印象評価としての『感動的な』音楽と,気分評価として実際に『感動した』音楽が異なることを指摘している.音楽の印象評価だけで音によって喚起される感動を一意に評価することは難しく,どういう人がどういう状況においてその音響特徴に良さを見出すのかを検討する必要がある.これは,ある状況において聴取者がその音をどのように聞きたいのかという価値観を調査することに他ならない.すなわち,現実の聴取場面を考えた場合,状況や音源,聴取者の心理状態や動機づけを無視して,物理的な音響特徴だけに焦点をあてて音の良さを論じることはナンセンスである.2005年秋の音響学会研究発表会において開かれた「なぜ音楽が心に響くのか」というスペシャルセッションでは,音楽に音の良さを見出している時の心理状態は,『感動する』の他に,『心に響く』,『心を躍らせる』,『深く内省する』,『揺り動かす』,『至高感』,『一体感』,『理解』,『共感』,『興奮』,『楽しい』,『悲しい』などの様々な言葉を用いて表現されていた\cite{Inproc_202}\cite{Inproc_204}.しかし,これらの言葉の語義や言葉から連想される心理状態は,かなり異なる.音の素晴らしさを表現する際,『感動』という言葉でまとめて記述することは可能であるが,どのように感動するのかを言及しなければ,用いる言葉の曖昧性から,音に対する評価が評定者間で一致しないことも考えられる.実際,感動は単一の感情価ではないが,喜びや悲しみといった感情を伴う\cite{Article_006}ことや,感動は感情の質ではなく,複合情動の総合的強度と相関がある\cite{Inproc_203}と言われており,研究者の中でも感動という心理状態の定義は曖昧である.そこで,我々は,『感動』という言葉で表現しようとしている心理状態を明確にするために,心理状態を言葉で評価するのではなく,言葉から心理状態を連想することで,『感動』という心理状態の分類を試みた.まず,アンケートを実施し,人が日常的にどういう対象に対して感動するのか,また,感動している心理状態をどういう言葉を用いて表現しているのかを調査した.さらに,アンケート結果から抽出した感動を表現する言葉(以下,感動語)を主観評価(一対比較)することによって,各々の感動語から連想される心理状態の類似度を求め,類似度ベクトルの距離に基づいて数学的に感動語を分類した.本稿では,感動を喚起した要因について考察するとともに,感動語間の類似度ベクトルに基づいて得られた感動語の分類結果について述べる. | |
V30N01-05 | 会議や講義,プレゼンテーションなどの音声を自動で書き起こし,アーカイブ構築に用いることは,音声認識の重要な応用の一つである.その際,真に使いやすいアーカイブを構築するためには,単に音声認識誤りを最小化するだけでなく,システム出力の可読性も考慮する必要がある.従来の音声認識システムは,発話中のすべての単語を忠実に再現するように設計されているため,認識結果は必ずしも読みやすいものとはならない.自発的な発話はフィラーや言い誤りを含むだけでなく,流暢に話されたときでも,通常非文法的であり,書き言葉に相応しくない口語特有の表現も多い.また,文の区切りが明確でなく,通常の音声認識では句読点は付与されない.したがって,音声認識結果や忠実な書き起こしを元に可読性の高い文書を作成するためには,人手による相当量の修正が必要となる\cite{JONES:READABILITY}.音声認識結果の可読性を改善するために,話し言葉から書き言葉への自動変換の研究が数多く行われてきた.例えば,非流暢な区間の検出と削除\cite{LIU:ENRICHING,YEH:EDIT},句読点挿入\cite{PAULIK:SENTENCESEGMENTATION,GRAVANO:RESTORINGPUNCTUATION,AKITA:COMMAINSERTION},あるいはより一般的な話し言葉スタイル変換(spokenstyletransformation=SST)\cite{HORI:PARAPHRASING,SHITAOKA:TRANSFORMATION,NEUBIG:SST,SPROAT:TEXTNORMALIZATION}などの研究が挙げられる.これらの既存研究では,雑音のある通信路モデルやCRF(conditionalrandomfield),SVM(supportvectormachine),ディープニューラルネットワークなどの機械学習モデルを用いて,書き起こしから書き言葉へのテキストベースの変換が行われる.したがって,自動整形は音声認識の後処理として行われることが多く,音声認識誤りに起因する性能の低下が避けられない問題があった.また,これらのテキストベースの手法では,モデルの教師つき学習に書き言葉テキストと話し言葉テキストのペアデータを用いるため,音声に忠実な書き起こしを新たに作成する必要がある.通常コスト面の制約から大量の書き起こしは利用できないため,カバーできる音響的・言語的現象に限りがある.これに対して,本研究では,熟練した編集者が音声を聞き取りながら同時に記録文書に適した書き言葉を作成するときのように,フィラーや言い誤りの削除,句読点や脱落した助詞の挿入,また口語的な表現の修正など,適宜必要な編集を行いながら,音声から直接可読性の高い書き言葉スタイルの文を直接出力する新しい音声認識のアプローチを提案する.このアプローチでは,忠実な書き起こしをターゲットとする従来の音声認識モデルとは異なり,Transformer\cite{VASWANI:TRANSFORMER}に基づくsequence-to-sequenceモデルを音声と書き言葉のペアを用いてend-to-end(e2e)に写像を最適化する.また,推論時には音声から書き言葉を直接推論する.したがって,このアプローチは,上記のようなテキストベースの自動整形を用いたカスケード型アプローチの欠点を回避できる強みを持つ.特に,書き言葉予測では,修正の対象となるような非流暢な区間ほど認識誤りが生じやすい問題があるため,音声認識結果を用いないことは,大きな改善をもたらす可能性がある.さらに,提案法は,入力中の音響的な情報に基づいて修正・編集を行うことができる\cite{LIU:ENRICHING,NEUBIG:SST}.また,新たに忠実な書き起こしを作成する必要がないため,教師つき学習におけるデータスパースネスの問題も回避できる.本論文では,特に国会の審議音声から会議録テキストを生成するタスクに焦点を当て,提案手法の詳細な評価と分析を行う.本論文の構成は以下の通りである.2章では,本研究で衆議院審議音声を用いることの意義を明らかにした上で,国会会議録で行われる編集作業の分類・整理を行う.3章では,本研究の基盤となるe2e音声認識のための手法を概説する.4章で音声から書き言葉をe2eで予測するための提案手法について述べた後,5章でその実験的評価とシステム出力の詳細な分析を行う.6章で結論を述べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{30-1ia4f1.pdf}\end{center}\caption{国会審議音声における忠実な書き起こしと会議録テキストのペアの例}\label{fig:example}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% | |
V09N04-03 | \label{sec:intro}近年テキスト情報が膨大になり,真に必要とする情報を的確に選択することが量的にも,質的にも困難になっている.また,携帯端末の普及に伴い情報をよりコンパクトにまとめる技術が必要とされている.これらのことから,文章を自動要約する技術の重要性が高まっている.これまで様々な要約研究が行なわれてきたが\cite{Okumura99},原文から重要と判断される文,段落等を抜き出し,それを要約と見なす手法が主流である.これには,単語出現頻度を元にした重要度によって重要文を抽出する手法\cite{Edmundson69,Luhn58,Zechner96},談話構造を利用して文を抽出する方法\cite{Marcu97},などがあるが,文単位の抽出方法では余分な修飾語など不必要な情報が多く含まれるため,圧縮率に限界がある.また文を羅列した場合には,前後のつながりが悪いなど可読性に問題があった.そこで近年では,文単位だけでなく語句単位で重要箇所を抽出する研究\cite{Hovy97,Oka2000},語句単位の抽出を文法的に行なう研究\cite{Knight2000,Jin2000},可読性を高めるための研究\cite{Mani99,Nanba2000}が行なわれるようになってきた.中には,原文に現れる幾つかの概念を上位概念に置き換えるようなabstractの手法も見られる\cite{Hovy97}.しかし,重要語句を列挙するだけでは文を形成しないため,可読性が低くなるという問題点がある.また,文を形成する場合でも,人に近い言い替えや概念の統合を行なうには膨大な知識が必要となる.本研究では,文単位ではなく語句単位の抽出を行ない,本文から必要最低限の重要語句を抽出し,それらを用いて文生成を行なう要約手法を提案する.提案手法は,必要最低限の語句を抽出することで圧縮率を高めるとともに,抽出した語句から文を形成することで可読性を考慮した.また,重要語句を抽出して文を形成するためには少なくとも主語,述語,目的語が必要であると考え,格要素を特定することで重要語句を抽出した.これによって,端的な要約文を生成するために必要最低限の情報を得ることが可能となった.また,現在利用可能な知識で文を生成するために,この格要素の抽出には,日英機械翻訳システムALT-J/E\cite{Ikehara91}の格フレーム辞書\cite{Goi-Taikei99}を用いた.本論文で提案する要約モデルは以下の2点によって構成される:\vspace{1mm}\begin{quote}\begin{itemize}\item語句抽出\item文生成\end{itemize}\end{quote}\vspace{1mm}このうち,語句抽出には以下の2つの方法があると考える:\vspace{1mm}\begin{quote}\begin{itemize}\item[A)]キーワードに着目する方法\vspace{1mm}\item[B)]文生成に必要な語句に着目する方法\end{itemize}\end{quote}\vspace{1mm}キーワードA)は,内容の特徴を表す単語であり,高頻度語など,従来のキーワード抽出等で抽出されてきた単語列である.しかし,単語列を提示しただけでは文を形成しないため可読性が低く,誤読を起こしかねない.一方,文生成に必要な単語B)とは,A)に加えて,文を構成するために必要な機能語や,高頻度語に含まれない内容語も含まれている.本論文では,要約結果は単語列ではなく文を形成していることを基本方針とするため,B)の語句抽出に着目して要約文を生成する.以上の方針を元に,本研究では,新聞記事を自動要約するシステムALTLINEを試作した.ALTLINEは一文〜複数文の要約を生成することができ,文単位ではなく重要語句を抽出することによって圧縮率を高くすることが可能になった.また,ALTLINEの評価基準を設定し,人間による要約実験の結果と比較することで評価を行なった.本論文では,2章で提案する要約方式,3章で要約システムの実装について述べる.4章では評価の正解基準を作成するための被験者実験について説明し,5章ではALTLINEの評価を行なう.6章で考察を行ない,7章でまとめを行なう. | |
V29N02-06 | 人は言葉を理解するとき,これまでの経験から得た単語の背景知識を利用している.たとえば,動詞「振る舞う」において,「シェフが料理を振る舞う」と言われれば「誰かが誰かに何らかの料理を提供している」状況を想像し,「紳士のように振る舞う」と言われれば「誰かがある特定の様子で行動している」状況を想像する.人はこれらの「振る舞う」の意味の違いをその前後の文脈によって理解し,さらに「``誰かに''提供している」や「``誰かが''行動している」のような状況を理解するのに必要とされる事柄を補完して,これらの言葉を理解している.フレーム知識とは,このような単語の背景知識を,同じ状況を想起させる語と状況の記述に必要な要素を含んだ意味フレームの形式でまとめたものである.その代表的なリソースの1つとして,FrameNet\cite{baker1998,ruppenhofer2016}が存在する.これはFillmoreが提唱するフレーム意味論\cite{fillmore1982}に基づいたフレーム知識リソースである.FrameNetは,テキスト中の単語に対してフレームやフレーム要素のラベル付けを行う意味解析器の構築\cite{das-etal-2014-frame,swayamdipta2017frame}に加え,イベント検出\cite{liu-etal-2016-leveraging}や関係抽出\cite{zhao2020cfsre}のような情報抽出に関するシステム構築などに利用される.しかし,FrameNetは人手で整備されていることから,語彙やフレームのカバレッジに限界がある.このため,大規模なテキストコーパスから自動的に動詞のフレーム知識を構築する取り組みが行われている\cite{kawahara2014,ustalov2018}.しかしながら,これらの手法では,大規模コーパスから動詞とその項を収集し,それらの表層的な情報に基づきクラスタリングをしているため,動詞や項の出現する文脈を十分に考慮できていない.そこで,本研究では,文脈を考慮した単語埋め込みを活用することで,より高品質なフレーム知識の自動構築の実現を目指す.フレーム知識を自動構築するためには,動詞の意味フレーム推定とフレーム要素推定が必要となるが,本論文では,最初の段階である動詞の意味フレーム推定に焦点を当てる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[b]\input{05table01.tex}\caption{FrameNetにおける動詞「get」と「acquire」の用例と各動詞が喚起するフレーム(括弧内).}\label{tab:examples}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%動詞の意味フレーム推定は,テキスト中の動詞を,その動詞が喚起する意味フレームごとにまとめるタスクである.本論文では,FrameNetで定義されている意味フレームごとに,動詞の用例をクラスタリングすることで本タスクを実現する.たとえば,表\ref{tab:examples}の(1)~(4)に示す動詞「get」と「acquire」の用例の場合,\{(1)\},\{(2)\},\{(3),(4)\}の3つのクラスタにまとめることを目標とする.本タスクの大きな特徴の1つとして,同じ動詞の用例であってもその動詞が示す状況が異なる場合,それらは異なるフレームを喚起し,異なる動詞の用例であってもそれらの動詞が類似した状況を示す場合,それらは同じフレームを喚起することが挙げられる.動詞の意味フレーム推定タスクに対して,すでにELMo\cite{peters2018}やBERT\cite{devlin2019}などの文脈化単語埋め込みを用いたクラスタリング手法が提案されている.たとえば,SemEval2019における動詞の意味フレーム推定の共有タスク\cite{qasemizadeh2019}では,ベースラインを超えた3グループ\cite{arefyev2019,anwar2019,ribeiro2019}はいずれも,推定対象動詞の文脈化単語埋め込みを用いて,動詞全体で一度にクラスタリングを行っている.しかしながら,このような手法には大きく2つの欠点がある.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{29-2ia5f1.pdf}\end{center}\hangcaption{動詞「get」と「acquire」の文脈化単語埋め込みの2次元マッピング.左図が動詞の通常の埋め込み,右図がマスクされた動詞の埋め込みによる結果である.2つの図の間にある括弧付きの数字は表\ref{tab:examples}の用例に対応し,$+$と$\bullet$はそれぞれ動詞「get」と「acquire」の埋め込み,各色は{\color[HTML]{ecaa0a}\textbf{Arriving}},{\color[HTML]{0da579}\textbf{Transition\_to\_state}},{\color[HTML]{57c3f5}\textbf{Getting}}フレームを示す.}\label{fig:visualization}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%1つ目の欠点は,フレーム推定対象となる動詞の表層的な情報を過度に考慮してしまうことである.表\ref{tab:examples}の動詞「get」のように,一部の動詞は文脈により異なるフレームを喚起する.しかし,文脈化単語埋め込みはその単語の表層情報も含むことから,同じ動詞の埋め込みは文脈が異なっていたとしても類似する傾向がある.このため,文脈化単語埋め込みに基づくクラスタリングを行うとき,異なる意味の動詞の用例であっても同じ動詞であれば,1つのクラスタにまとめられてしまう事例が多い.たとえば,FrameNetから動詞「get」と「acquire」の用例を抽出し,事前学習済みBERT\cite{devlin2019}を用いて「get」と「acquire」の文脈化単語埋め込みを獲得し,t-SNE\cite{maaten2008}によって2次元にマッピングした結果を図\ref{fig:visualization}左に示す.「get」が喚起するフレームのうちGettingフレームを喚起する「get」の埋め込みは,同じくGettingフレームを喚起する「acquire」の埋め込みに近い位置に分布する傾向はあるものの,動詞ごとにまとまって分布する傾向が強いことが確認できる.本研究ではこの問題を解消するため,フレーム推定対象の動詞をマスクしたときの文脈化単語埋め込みを利用する手法を提案する.具体的には,推定対象の動詞を``[MASK]''に置き換えたときの文脈化単語埋め込みを利用する.図\ref{fig:visualization}左と同様にして,マスクされた動詞の文脈化単語埋め込みを2次元にマッピングした結果を図\ref{fig:visualization}右に示す.マスクを用いた埋め込みの場合,動詞の表層的な情報が限定的となり,同じフレームを喚起する動詞の埋め込みが近い位置に分布することが確認できる.2つ目の欠点は,同じ動詞が喚起するフレームの異なり数は数個程度と限定的であるにも関わらず,その動詞の用例が多くの異なるクラスタに分かれる事例が多いことである.これは,動詞の埋め込みが外れ値となる場合,それぞれ別のクラスタに属するようにクラスタリングされるためである.このような事態を避けるため,本研究ではまず動詞ごとに用例のクラスタリングを行った後,フレーム単位でまとめるために動詞横断的にクラスタリングを行う2段階クラスタリング手法を提案する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% | |
V25N04-02 | \begin{table}[b]\caption{2016年3月27日ソフトバンク対楽天戦10回表のPlay-by-playデータ}\label{tb:pbp}\input{02table01.tex}\end{table}\begin{table}[b]\caption{2016年3月27日ソフトバンク対楽天戦10回表のイニング速報}\label{tb:inning_report}\input{02table02.tex}\end{table}\begin{table}[b]\caption{2016年3月27日ソフトバンク対楽天戦の戦評}\label{tb:game_report}\input{02table03.tex}\end{table}スポーツの分野で特に人気の高い野球やサッカーなどでは,試合の速報がWebなどで配信されている.特に,日本で人気のある野球では,試合中にリアルタイムで更新されるPlay-by-playデータやイニング速報,試合終了直後に更新される戦評など様々な速報がある.Play-by-playデータ,イニング速報,戦評の例をそれぞれ表\ref{tb:pbp},表\ref{tb:inning_report},表\ref{tb:game_report}に示す.Play-by-playデータ(表~\ref{tb:pbp})は打席ごとにアウト数や出塁状況の変化,打撃内容などの情報を表形式でまとめたデータである.イニング速報(表\ref{tb:inning_report})はイニング終了時に更新されるテキストであり,イニングの情報を網羅的に説明したテキストである.戦評(表\ref{tb:game_report})は試合が動いたシーンにのみ着目したテキストであり,試合終了後に更新される.特に,戦評には“0-0のまま迎えた”や“試合の均衡を破る”のような試合の状況をユーザに伝えるフレーズ(本論文ではGame-changingPhrase;GPと呼ぶ)が含まれているのが特徴である.戦評では,“先制”という単語のみでイニングの結果を説明するだけでなく,“試合の均衡を破る”といったフレーズを利用することで,先制となった得点の重要度をユーザは知ることができる.また,“0-0のまま迎えた”というフレーズが利用されていると,ユーザは試合が膠着し,緊迫しているという状況を知ることができる.本研究ではこのような試合の状況をユーザに伝えるフレーズをGPと定義する.これらの速報は,インターネットを介して配信されているため,スマートフォンやタブレット端末など様々な表示領域のデバイスで閲覧されている.また,ユーザはカーナビなどに搭載されている音声対話システムを通じてリアルタイムで速報にアクセスすることも考えられる.このような需要に対して,イニング速報はイニングの情報を網羅的に説明したテキストであり,比較的長い文であるため,表示領域に制限のあるデバイスでは読みづらい.音声対話システムの出力だと考えると,より短く,端的に情報を伝えられる文の方が望ましい.また戦評はGPが含まれており試合の状況を簡単に知ることができるが,試合が動いた数打席にのみ言及したものであり,試合終了後にしか更新されない.このようなそれぞれの速報の特徴を考慮すると,任意の打席に対してGPを含むイニングの要約文を生成することは,試合終了後だけでなく,リアルタイムで試合の状況を知りたい場合などに非常に有益であると考えられる.そこで,任意の打席に対してGPを含むイニングの要約文を自動生成する.本研究ではPlay-by-playデータからイニングの要約文の生成に取り組む.また,要約文を生成する際に,GPを制御することで,GPを含まないシンプルな要約文とGPを含む要約文の2つを生成する.文を生成する手法としては,古くから用いられてきた手法にテンプレート型文生成手法\cite{mckeown1995}がある.また,近年ではEncoder-Decoderモデル\cite{Sutskever2014}を利用した手法\cite{Rush2015}も盛んに研究されている.本研究では,テンプレート型生成手法,Encoder-Decoderモデルを利用した手法の2つを提案する.テンプレート型文生成手法\cite{mckeown1995,mcroy2000}とは,生成する文の雛形となるテンプレートを事前に用意し,テンプレートに必要な情報を補完することで文を生成する手法である.岩永ら\cite{iwanaga2016}は,野球の試合を対象とし,テンプレート型文生成手法により,戦評の自動生成に取り組んでいる.彼らは,事前に人手でテンプレートとそのテンプレートを利用する条件を用意し,戦評を自動生成する手法を提案している.テンプレート型文生成手法では,文法的に正確な文が生成できるといった利点があるが,テンプレートを事前に用意することはコストが大きいといった欠点がある.そこで,本研究ではこの欠点を補うためにテンプレートを自動で生成する文生成手法を提案する.また,近年では深層学習の発展により,機械翻訳\cite{cho2014,Luong2015}やヘッドライン生成\cite{Rush2015}など文生成分野における様々なタスクでEncoder-Decoderモデルを利用した多くの研究成果が報告されている.本研究では,テンプレート型生成手法に加え,Encoder-Decoderモデルを利用した要約文生成手法も提案する.本研究の目的は,読み手が試合の状況を理解しやすい要約文を生成するため,要約文にGPを組み込むことである.そこで,入力データが与えられたときに,GPを含む戦評を出力するように大量の入出力の組を用いてEncoder-Decoderを学習させることが考えられる.しかし,戦評は試合終了後にしか更新されないため,1試合に1つの戦評しか手に入れることができず,大量の学習データを用意することが困難である.この問題を緩和するため,Encoder-Decoderモデルと転移学習を組み合わせたモデルを提案する.本研究では,テンプレート型生成手法(\ref{sec:template_method}章),Encoder-Decoderモデルを利用した手法(以降,ニューラル型生成手法)(\ref{sec:neural_method}章)の2つを提案し,生成された要約文を比較,考察する.本論文の主な貢献は以下の4つである.\begin{itemize}\item野球のイニング要約タスクについて,テンプレート型生成手法とニューラル型生成手法を提案する.\itemテンプレート型手法では,テンプレートを自動獲得する手法を導入する.\itemニューラル型手法では,転移学習を利用し,戦評のデータ数が十分ではないという問題点を緩和する.\itemGPを含まないシンプルな文とGPを含む文の2種類の要約文の生成を提案し,その有効性を検証する.\end{itemize} | |
V18N02-06 | 近年の自然言語処理技術は,新聞記事等のフォーマルな文章だけでなく,ブログ等のインフォーマルな文章をもその射程に入れつつある\cite{ICWSM:2008,ICWSM:2009}.この背景の一つには,世論や消費者のニーズ等をブログを含めたWeb文書から取り出そうとする,自然言語処理技術を援用した情報アクセス・情報分析研究の盛り上がりがある\cite{Sriphaew:Takamura:Okumura:2009,Akamine:Kawahara:Kato:Nakagawa:Inui:Kurohashi:Kidawara:2009,Murakami:Masuda:Matsuyoshi:Nichols:Inui:Matsumoto:2009}.近年の自然言語処理技術は,機械学習等のコーパスベースの手法の発展により高い精度が得られるようになったが,これらの手法の成功の鍵は,処理対象の分野/ジャンルの解析済みコーパスの充実にある\cite{McClosky:Charniak:Johnson:2006}.ブログに自然言語処理技術を高精度に適用するには,同様に,解析済みのブログコーパスの整備/充実が必須である.我々は,ブログを対象とした自然言語処理技術の高精度化に寄与することを目的とし,249記事,4,186文からなる解析済みブログコーパス(以下,KNBコーパス\footnote{\textbf{K}yotoUniversityand\textbf{N}TT\textbf{B}logコーパス})を構築し,配布を開始した.本研究でアノテーションしている言語情報は,多くの自然言語処理タスクで基盤的な役割を果たしている形態素情報,係り受け情報,格・省略・照応情報,固有表現情報と,文境界である.これらのアノテーションの仕様は,コーパスユーザの利便性を重視し,世の中に広く浸透している京都大学テキストコーパス\cite{Kawahara:Kurohashi:Hashida:2002j}\footnote{http://nlp.kuee.kyoto-u.ac.jp/nl-resource/corpus.html}(以下,京大コーパス)と極力互換性のあるものにした.これらのアノテーションに加えて,ブログを対象とした情報アクセス・情報分析研究にとっての要となる評価表現情報もKNBコーパスのアノテーション対象に含めた.ブログ記事は,京都の大学生81名に「京都観光」「携帯電話」「スポーツ」「グルメ」のいずれかのテーマで執筆してもらうことで収集した.執筆者らは記事執筆に際し,記事の著作権譲渡に同意しているため,アノテーションだけでなく本文も併せてKNBコーパスとして無料配布している.KNBコーパス構築の過程で,我々は次の問題に直面した.\setlength{\widelabel}{18pt}\eenumsentence{\item不明瞭な文境界\item構文構造の解析を困難にする文中の括弧表現\item誤字,方言,顔文字等の多様な形態素}これらは,校閲等の過程を経た上で世に公開される新聞記事等のフォーマルな文章とは異なる,ブログ記事,あるいはCGM(ConsumerGeneratedMedia)テキストの特徴と言える.KNBコーパス構築の際には,このようなブログ記事特有の現象を可能な限りそのままの形で残すよう心がけた.一方で,新聞記事を対象にして作られた京大コーパスとの互換性も重視した.本稿では,KNBコーパスの全容とともに,京大コーパスとの互換性の保持と,ブログの言語現象の正確な記述のために我々が採用した方針について詳述する.なお本稿では,京大コーパスの仕様からの拡張部分に焦点を当てる.本稿に記述されていない詳細については,京大コーパスに付属のマニュアル\cite{KUCorpus:syn:2000,KUCorpus:rel:2005}を参照されたい.以下,\ref{sec:related-work}節で関連研究について述べた後,\ref{sec:spec}節でKNBコーパスの全体像を具体例とともに詳述する.\ref{sec:construction}節で記事収集から構築,配布までの過程を説明し,\ref{sec:conclusion}節で結論を述べる. | |
V15N03-06 | label{節:背景}近年,インターネットの普及や企業に対するe-文書法等の施行に伴い,我々の周りには膨大な電子化文書が存在するようになってきた.そこで,ユーザが必要な情報へ効率よくアクセスするための支援技術の研究として自動要約の研究が盛んに行われている.自動要約の既存研究としては,要約する前の文章(原文)とそれを要約したもの(要約文)のパラレルコーパスを使用し,どのような語が要約文へ採用されているのか確率を用いることによってモデル化する手法\cite{Jing:2000,Daume:2002,Vandeghinste:2004}や,大量のコーパスから単語や文に対して重要度を計算し,重要であると判断された語や文を要約文に採用する方法\shortcite{oguro:1991論文,Hori:2003}がある.これらは計算機のスペックや大量の言語資源を手に入れることが出来るようになったことにより近年多く研究されている.しかし言語を全て統計的に処理してしまうことはあまりにも大局的過ぎ,個々の入力に合った出力が難しくなってしまう.また我々人間が要約を行うときには文法などの知識やどのように要約を行ったら良いのか等,様々な経験を用いている.そのため人間が要約に必要だと考える語や文と相関のあるような重要度の設定は難しい.さらに人間が要約を行う際は様々な文の語や文節など織り交ぜて要約を作成するが,既存手法である文圧縮や文抽出ではこのような人間が作成する要約文は作ることができない.そこで本論文では人間が作成するような要約文,つまり複数の文の情報を織り交ぜて作成する要約文の作成を目指す.また上述のように語や文などに人間と同じように重要度を設定することは困難であるため,本論文ではこれらに対して重要度の設定を行わずに用例を模倣利用することによって要約文を獲得する方法を提案する.以下,\ref{章:用例利用型のアプローチ}章にて用例利用型の考え方と既存研究,また用例利用型を要約にどう適用するのか述べる.続いて\ref{章:提案法のシステム概要}章にて提案法のシステム概要を述べ,\ref{章:類似用例文の選択}章から\ref{章:文節の組合せ}章にて提案法の詳細を述べる.そして\ref{章:評価実験及び考察}章にて実験,\ref{章:結果及び考察}章にて結果及び考察を行う. | |
V21N02-04 | 現在,自然言語処理では意味解析の本格的な取り組みが始まりつつある.意味解析には様々なタスクがあるが,その中でも文書中の要素間の関係性を明らかにする述語項構造解析と照応解析は最も基本的かつ重要なタスクである.本稿ではこの両者をまとめて意味関係解析と呼ぶこととする.述語項構造解析では用言とそれが取る項の関係を明らかにすることで,表層の係り受けより深い関係を扱う.照応解析では文章中の表現間の関係を明らかにすることで,係り受け関係にない表現間の関係を扱う.意味関係解析の研究では,意味関係を人手で付与したタグ付きコーパスが評価およびその分析において必要不可欠といえる.意味関係およびそのタグ付けを以下の例\ref{意味・談話関係のタグ付け例}で説明する.\ex.\let\oldalph\let\alph\label{意味・談話関係のタグ付け例}今日はソフマップ京都に行きました。\\\label{意味・談話関係のタグ付け例a}\hspace*{4ex}$\left(\begin{tabular}{@{}l@{}}行きました$\leftarrow$ガ:[著者],ニ:ソフマップ京都\\\end{tabular}\right)$\\時計を買いたかったのですが、この店舗は扱っていませんでした。\\\hspace*{4ex}$\left(\begin{tabular}{@{}l@{}}買いたかった$\leftarrow$ガ:[著者],ヲ:時計\\店舗$\leftarrow$=:ソフマップ京都\\扱っていませんでした$\leftarrow$ガ:店舗,ヲ:時計\label{意味・談話関係のタグ付け例b}\end{tabular}\right)$\\時計を売っているお店をコメントで教えてください。\\\hspace*{4ex}$\left(\begin{tabular}{@{}l@{}}時計$\leftarrow$=:時計\\売っている$\leftarrow$ガ:お店,ヲ:時計\\教えてください$\leftarrow$ガ:[読者],ヲ:お店,ニ:[著者]\label{意味・談話関係のタグ付け例c}\end{tabular}\right)$\global\let\alphここでA$\leftarrow${\textitrel}:BはAに{\textitrel}という関係でBというタグを付与することを表す.{\textitrel}が「ガ」「ヲ」「ニ」などの場合はAが述語項構造の{\textitrel}格の項としてBをとることを表わし,「=」はAがBと照応関係にあることを表す.また以降の例では議論に関係しないタグについては省略する場合がある.照応関係とは談話中のある表現(照応詞)が別の表現(照応先)を指す現象である\footnote{照応に類似した概念として共参照が存在する.共参照とは複数の表現が同じ実体を指す現象であるが,照応として表現できるものがほとんどなので,本論文では特に断りがない限り照応として扱う.}.ここでは,「店舗」に「=:ソフマップ京都」というタグを付与することで,この照応関係を表現している.述語項構造は述語とその項の関係を表したもので,例\ref{意味・談話関係のタグ付け例b}の「扱っていませんでした」に対してガ格の項が「店舗」,ヲ格の項が「時計」という関係である.ここで,ヲ格の「時計」は省略されており,一般に{\bfゼロ照応}と呼ばれる関係にあるが,ゼロ照応も述語項構造の一部として扱う.またゼロ照応では照応先が文章中に出現しない{\bf外界ゼロ照応}と呼ばれる現象がある.例えば,例\ref{意味・談話関係のタグ付け例a}の「行きました」や「買いたかった」のガ格の項はこの文章の著者であるが,この著者を指す表現は文章中には出現しない.外界の照応先として[著者],[読者],[不特定-人]\footnote{以降,外界の照応先は[]で囲う.}などを設定することで,外界ゼロ照応を含めた述語項構造のタグ付けを行う.これまでの日本語の意味関係解析の研究で主に用いられてきたのは意味関係を付与した新聞記事コーパスであった\cite{KTC,NTC}.しかし,テキストには新聞記事以外にも百科事典や日記,小説など多様なジャンルがある.これらの多様なテキストの中には依頼表現,敬語表現など新聞記事ではあまり出現しない言語現象も出現し,意味関係と密接に関係している.例えば例\ref{意味・談話関係のタグ付け例}の「買いたかった」のガ格が[著者]となることは意志表現に,「教えてください」のガ格が[読者],ニ格が[著者]になることは依頼表現に密接に関係している.このような言語現象と意味関係の関係を明らかにするためには,多様なテキストからなるタグ付きコーパスの構築とその分析が必要となる.そこで本研究ではニュース記事,百科事典記事,blog,商用ページなどを含むWebページをタグ付け対象として利用することで,多様なジャンル,文体の文書からなる意味関係タグ付きコーパスの作成を行う.上述のように,本研究のタグ付け対象には新聞記事ではあまり出現しない言語現象が含まれる.その中でも特に大きなものとして文章の著者・読者の存在が挙げられる.著者や読者は,省略されやすい,モダリティや敬語などと密接に関係するなど,他の談話要素とは異なった振る舞いをする.新聞記事では,客観的事実を報じる内容がほとんどのため,社説を除くと記事の著者や読者が談話中に出現することはほとんどない.そのため,従来のタグ付け基準では[著者]や[読者]などを外界の照応先として定義していたが,具体的なタグ付け基準についてはあまり議論されてこなかった.一方,本研究で扱うWebではblog記事や通販ページ,マニュアルなど著者や読者が談話中に出現する文書が多く含まれ,その中には従来のタグ付け基準では想定していなかった言語現象および意味関係が出現する.そのため,著者・読者が出現する文書でのタグ付け上の問題点を分析し,タグ付け基準を設けることが重要となる.著者・読者が出現する文書へのタグ付けでの1つ目の問題は,文章中で著者・読者に対応する表現である.\ex.\underline{僕}は京都に行きたいのですが,\underline{皆さん}のお勧めの場所があったら\underline{教えてください}。\\\label{例:著者・読者表現}\hspace*{4ex}$\left(\begin{tabular}{@{}l@{}}僕$\leftarrow$=:[著者]\\皆さん$\leftarrow$=:[読者]\\教えてください$\leftarrow$ガ:皆さん,ヲ:場所,ニ:僕\end{tabular}\right)$例\ref{例:著者・読者表現}では,「僕」は著者に対応し,「皆さん」は読者に対応した表現となっている.本研究ではこのような著者や読者に対応する表現を{\bf著者表現},{\bf読者表現}と呼ぶこととする.著者表現,読者表現は外界ゼロ照応における[著者]や[読者]と同様に談話中で特別な振る舞いをする.例えば例\ref{例:著者・読者表現}の「教えてください」のように,依頼表現の動作主は読者表現に,依頼表現の受け手は著者表現になりやすい.本研究で扱う文書は多様な著者,読者からなり,著者読者,読者表現も人称代名詞だけでなく,固有表現や役割表現など様々な表現で言及され,語の表層的な情報だけからは簡単に判別できない.そこで本研究では著者表現,読者表現をタグ付けし,著者・読者の談話中での振る舞いについて調査した.2つ目の問題は項を明示していない表現に対する述語項構造のタグ付けである.日本語では一般的な事柄に対して述べる場合には,動作主や受け手などを明示しない表現が用いられることが多い.従来の新聞記事を対象としたタグ付けでは,[不特定-人]を動作主などとすることでタグ付けを行ってきた.一方,著者・読者が談話中に出現する場合には,一般的な事項について述べる場合でも動作主などを著者や読者と解釈できる場合が存在する.\ex.ブログに記事を書き込んで、インターネット上で\underline{公開する}のはとても簡単です。\label{曖昧性}\\\hspace*{4ex}(公開する$\leftarrow$ガ:[著者]?[読者]?[不特定-人],ヲ:記事)例\ref{曖昧性}の「公開する」の動作主であるガ格は,不特定の人が行える一般論であるが,著者自身の経験とも読者が将来する行為とも解釈することができ,作業者の解釈によりタグ付けに一貫性を欠くこととなる.本研究ではこのような曖昧性が生じる表現を分類し,タグ付けの基準を設定した.本研究の目的である多様な文書を含むタグ付きコーパスの構築を行うためには,多数の文書に対してタグ付け作業を行う必要がある.この際,1文書あたりの作業量が問題となる.形態素,構文関係のタグ付けは文単位で独立であり,文書が長くなっても作業量は文数に対して線形にしか増加しない.一方,意味関係のタグ付けでは文をまたぐ関係を扱うため,文書が長くなると作業者が考慮すべき要素が組み合わせ的に増加する.このため1文書あたりの作業時間が長くなり,文書全体にタグ付けを行うと,タグ付けできる文書数が限られてしまう.そこで,先頭の数文に限定してタグ付けを行うことで1文書あたりの作業量を抑える.意味関係解析では既に解析した前方の文の解析結果を利用する場合があり,先頭の解析誤りが後続文の解析に悪影響を与える.先頭数文に限定したコーパスを作ることで,文書の先頭の解析精度を上げることが期待でき,全体での精度向上にも寄与できると考えられる.本論文では,2節でコーパスを構成する文書の収集について述べ,3節で一般的な意味関係のタグ付けについて述べる.4節では著者・読者表現に対するタグ付け,5節では複数の解釈が可能な表現に対するタグ付けについて述べる.6節でタグ付けされたコーパスの性質について議論し,7節で関連研究について述べ,8節でまとめとする. | |
V28N04-04 | \label{sec:introduction}近年,SNS等で一般ユーザーが作成したテキスト(UGC;UserGeneratedContents)が自然言語処理の重要な研究対象となっている.UGCには,書籍などの文章にはあまり見られない表現\cite{brody-diakopoulos-2011-cooooooooooooooollllllllllllll,saito-etal-2017-improving,blodgett-etal-2016-demographic,sasano-etal-2013-simple}が含まれ,誤字などの入力誤りも頻繁に発生している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{28-4ia3f1.pdf}\end{center}\hangcaption{入力誤りによる日英機械翻訳での翻訳失敗例.上の画像は正しい文,下の画像は入力誤りのある文を入力した場合を示す.}\label{fig:misanalysis}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%入力誤りは,人がスムーズにテキストを読むことを妨げるだけではなく,計算機が正しく解析することを妨げる\cite{belinkov2018synthetic}.図\ref{fig:misanalysis}は,日本語から英語への機械翻訳における例である.上の画像に示すように,正しい文を入力すると正しい翻訳結果が得られるのに対し,下の画像に示すように,赤線で示す入力誤りを含む文を入力した場合,翻訳に失敗する.入力誤りを訂正するシステムがあれば,それを事前に適用することで,解析誤りを減らし,種々の解析精度向上が見込める.そのため,入力誤り訂正システムは自然言語処理において重要である.入力誤りは典型的にはキーボードの打ち間違いによるスペルミスだが,編集ミスによって発生する文法誤りも含まれる.そのどちらの訂正においてもニューラルモデルは成功を収めており\cite{sakaguchi2017robsut,yuan-briscoe-2016-grammatical},入力誤り訂正システムの構築に有望であると考えられる.ニューラルモデルは多量の学習データを必要とすることが知られており\cite{koehn-knowles-2017-six},ニューラル入力誤り訂正システムの実現には多量の入力誤りとその訂正ペアを用意することが重要である.これまでフランス語\cite{max2010mining},英語\cite{zesch2012measuring}のスペルミス訂正データセットは,Wikipediaの編集履歴から構築されてきた.Wikipediaは,多くの人々が日々編集を行い,その編集履歴全てを公開しており,大規模なデータセット構築に適しているためである.ただし,Wikipediaの編集履歴には,編集の分類の情報は必ずしも付与されていない.そのため,先行研究では,スペルミス訂正のみを取り出すために,編集があった単語を特定し,スペルチェッカーを適用する等のフィルタリングを行って収集している.このような先行研究の手法は,編集があった単語の特定が容易な,空白文字で単語が区切られているフランス語などの言語を前提としており,単語分割を必要とする日本語には直接適用できない.また,フランス語や英語とは異なり,日本語では一般にインプットメソッドを用いてテキスト入力を行い,漢字の入力には,かな漢字変換\cite{kasahara-etal-2011-error,yamamoto1997}を行う.かな漢字変換では,目的の漢字の読みを入力し,提示されたその読みを持つ漢字のリストから目的の漢字を選択することで入力する.この際に誤った漢字を選択した場合にも,入力誤りは発生する.このような,かな漢字変換時の入力誤り(以後,誤変換と呼ぶ)は,先行研究の手法では対象とされていない.本研究では,日本語の入力誤りとその訂正ペアをWikipediaの編集履歴から収集し,大規模なデータセット(JWTD;JapaneseWikipediaTypoDataset)を構築することに取り組む.本研究では,日本語書き言葉の文として編集前が不自然で編集後が自然となるような局所的な編集を,入力誤り訂正とみなす.より具体的には,スペルミス訂正,文法誤り訂正,誤変換の訂正を入力誤り訂正として収集対象とする.なお,Wikipediaでは,い抜き・ら抜きことば\footnote{\url{https://www.nhk.or.jp/kokokoza/tv/basickokugo/archive/basic_kokugo_20.pdf}}は頻繁に訂正されるが,これらも文法誤り訂正の一種とみなして収集対象とする.Wikipediaの編集履歴には,入力誤り訂正のみでなく,内容の変更などの収集対象外の編集も数多く含むため,入力誤り訂正だけを取り出すことは容易ではない.本研究では,文字単位の編集及び漢字の読みを手がかりとして入力誤り候補を取り出し,それらに対し言語モデルなどを用いてフィルタリングすることで,入力誤りを収集する.この手法を用いて,約70万文規模のJWTDを構築した.また,JWTDの構築手法を評価し,本手法の有効性を確認した.続いて,本研究では,JWTDを用いて,入力誤り訂正システムを構築する.ベースラインとなるシステムを,文法誤り訂正において高い精度を得たと報告されているニューラルモデル\cite{katsumata-komachi-2020-stronger}を用いて構築する.ベースラインの他に,漢字の読みの推定を同時に学習するシステム,疑似データを学習に用いるシステムも構築し,比較を行う.前者は,誤変換の訂正に役立つと考えられるため,後者は文法誤り訂正において有効であると報告されている\cite{kiyono-etal-2019-empirical}ためである.JWTDを用いて学習した本研究の入力誤り訂正システム(ベースライン)と他の校正システムとで入力誤り認識において精度の比較を行い,本研究の訂正システムの精度が高いことを確認した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% | |
V22N04-01 | Googleに代表される現在の検索エンジンはその性能が非常によくなってきており,適切な検索用語(キーワード)さえ与えてやればおおむね期待通りの検索結果が得られる.しかし一方,多くのユーザ,特に子どもや高齢者,外国人などにとって検索対象を表す適切な検索用語(特に専門用語など)を見つけることは往々にしてそう簡単ではない.マイクロソフトの「現在の検索で不満に思う点」に関する調査\footnote{http://www.garbagenews.net/archives/1466626.htmlまたはhttp://news.mynavi.jp/news/2010/07/05/028/}によれば,57.6\%の人が適切なキーワード探しの難しさに不満を感じている.また,「何か欲しい情報を求めて検索エンジンを利用しているのに,それを利用するための適切なキーワードをまた別のところで探さねばならないという,堂々巡りをした経験を持つ人も多いはず」とも指摘されている.これは2010年の調査ではあるが,現在においてもこれらの不満点が大方解消されたとは言い難い.そこで,関連語・周辺語(たとえば「コンピュータ」,「前の状態」,「戻す」)またはそれらの語から構成される文を手掛かりに適切な検索用語(この場合「システム復元」)を予測・提示する検索支援システムがあればより快適な検索ができるのではないかと考えられる.本研究では,ITや医療など様々な分野において,これらの分野の関連語・周辺語またはそれらの語から構成される文を入力とし,機械学習を用いて適切な検索用語を予測・提示する検索支援システムの開発を目標としている.このような研究は,すくなくとも日本語においては我々が調べた限りではこれまでなされていなかった\footnote{類似研究として,「意味的逆引き辞書」に関する研究\cite{Aihara}や「クロスワードを解く」に関する研究\cite{Uchiki}がある.しかしこれらは分野ごとの検索用語の予測・提示に基づく検索支援を第一の目的としておらず,それゆえに,精度(正解率)は本研究で得られたものよりはるかに低かった.また,手法もLSIを利用した情報検索技術やエキスパートなどに基づくアプローチを取っており,本研究が取っている機械学習のアプローチとは異なる.}.本稿ではその第一歩として,分野をコンピュータ関連に限定し,深層学習(DeepLearning)の一種であるDeepBeliefNetwork(DBN)を用いた予測手法を提案する.近年,深層学習は様々な分野で注目され,音声認識~\cite{Li}や画像認識~\cite{Krizhevsky}のみならず,自然言語処理の諸課題への応用にも優れた性能を出している.それらの諸課題は,形態素・構文解析~\cite{Billingsley,Hermann,Luong,Socher:13a},意味処理~\cite{Hashimoto,Srivastava,Tsubaki},言い換え~\cite{Socher:11},機械翻訳~\cite{Auli,Liu,Kalchbrenner,Zou},文書分類~\cite{Glorot},情報検索~\cite{Salakhutdinov},その他~\cite{Seide,Socher:13b}を含む.さらに,統一した枠組みで品詞タグ付け・チャンキング・固有表現認識・意味役割のラベル付けを含む各種の言語処理課題を取り扱えるニューラルネットおよび学習アルゴリズムも提案されている~\cite{Collobert}.しかしながら,われわれの知っている限りでは,前に述べたような情報検索支援に関する課題に深層学習を用いた研究はこれまでなされていない.したがって,本稿で述べる研究は主に二つの目的を持っている.一つは,関連語・周辺語などから適切な検索用語を正確に予測する手法を提案することである.もう一つは,深層学習がこのような言語処理課題において,従来の機械学習手法である多層パーセプトロン(MLP)やサポートベクトルマシン(SVM)より優れているか否かを確かめることである.本研究に用いたデータはインターネットから精度保証がある程度できる手動収集と,ノイズ\footnote{ここのノイズとは,関係のない単語が含まれている,または必要な単語が欠落していることを指す.}は含まれるが規模の大きいデータの収集が可能な自動収集との2通りの方法で収集した.加えて,ある程度規模が大きく精度もよい疑似データも自動生成して用いた.機械学習のパラメータチューニングはグリッドサーチと交差検証を用いて行った.実験の結果,まず,学習データとして手動収集データのみを用いても自動収集データと疑似データを加えてもDBNの予測精度は用例に基づくベースライン手法よりははるかに高くMLPとSVMのいずれよりも高いことが確認できた.また,いずれの機械学習手法も,手動収集データにノイズの多い自動収集データとノイズの少ない疑似データを加えて学習することにより予測精度が向上した.さらに,手動収集データにノイズの多い自動収集データのみを加えて学習した場合,DBNとSVMには予測精度の向上が見られたがMLPにはみられなかった.この結果から,MLPよりもDBNとSVMのほうがノイズに強くノイズの多い学習データも有効利用できる可能性が高いと言えよう. | |
V30N02-17 | 「渋滞」という単語はもともと\mbox{\ctext{1}\ctext{2}}のように「物事が停滞する」の意味で使用されていた.しかし自動車交通網の発展に伴い,1960年代頃から\ctext{3}\ctext{4}のように「交通渋滞」を意味する単語となった.\begin{itemize}\item[\ctext{1}]英國ハ年來斯好慣アリテ内閣ノ更迭セルタメ\underline{國務ノ{\bf澀滯}}ヲ來シタル\UTF{30FF}甚ダ少シト雖モ\item[]\begin{flushright}(1862年,朝比奈知泉『政黨内閣は果して國家永久の長計なるか』,国民之友$\langle$29$\rangle$)\footnote{中納言ID:60M国民1888\_29005(コーパス検索アプリケーション『中納言』(\url{https://chunagon.ninjal.ac.jp/})でこのサンプルIDを指定すると当該の用例を閲覧できる)}\end{flushright}\item[\ctext{2}]課長の一人や局長の半分ぐらゐ缺けてゐたとて\underline{事務に{\bf澁滯}を來たす}やうな憂ひもあるまいが、\item[]\begin{flushright}(1925年,古島一雄『役人となつての感想』,太陽$\langle$1925-9$\rangle$)\footnote{中納言ID:60M太陽1925\_09013}\end{flushright}\item[\ctext{3}]出勤したニューヨーク市民は、ふだんより多いくらいで、\underline{道路は大{\bf渋滞}}、という有様になったのです。\item[]\begin{flushright}(1975年,磯村尚徳『ちょっとキザですが』)\footnote{中納言ID:OB0X\_00030}\end{flushright}\item[\ctext{4}]高速道路入口付近で\underline{{\bf渋滞}}にまき込まれた。\item[]\begin{flushright}(1984年,安部公房『方舟さくら丸』)\footnote{中納言ID:OB2X\_00207}\end{flushright}\end{itemize}単語の意味や用法は時代や社会環境とともに現在も変化し続けている.\textbf{意味変化}と呼ばれるこの現象には,さまざまなパターンがある.前述の「渋滞」は意味する対象が狭くなる変化(物事が停滞する→交通渋滞)だったが,より広い対象を意味するように変わるパターンもある.例えば明治・大正期の用例を見ると「柔軟」は「羊の毛の柔軟」や「柔軟なるゴム」のように物理的な柔軟性を表していた.しかし現代に向かうにつれ「柔軟な姿勢」のように概念的なやわらかさを表す用例が増加する.さらに,良い意味・中立的な意味だった言葉が悪い意味で使われる変化もある.「貴様」は中・近世では敬意で用いられていたが,近世末になると目下の者への罵りの言葉に変化した.\citeA{Bloomfield-1933}によると意味変化の要因には{\bf文化的な要因}と{\bf言語的な要因}の\mbox{2つ}がある.文化的な要因は,新技術の登場や病気の大流行など社会的・文化的な事柄に起因し,急激な変化となることが多い.近年の例では,自然現象,ビールの銘柄や会社の名前だった「コロナ」が数年で「新型肺炎」としての用例を急増させた.一方,言語的な要因は特定の事柄に起因しない規則的な変化で,比較的ゆっくりと起こる.例えば\ctext{5}\ctext{6}に示す「やばい」のように,否定の意味を持っていた単語が反対の肯定的な意味で使われ出すパターンが言語的な要因である.こうした意味変化は特定の言語に限らず,さまざまな言語で起こっている\cite{hamilton-etal-2016-cultural,hou-etal-2020-language,rodina-kutuzov-2020-rusemshift}.\begin{itemize}\item[\ctext{5}]物色時間は,長いと\underline{\bfやばい}ので3分くらいだ。\item[]\begin{flushright}(1977年,警察庁『警察白書』)\footnote{中納言ID:OW1X\_00102}\end{flushright}\item[\ctext{6}]\underline{\bfやばい}ぐらい可愛くて、かっこよくて・・あなたのしぐさ、言葉、表情一つ一つにトキメイてしまう。\item[]\begin{flushright}(2008年,Yahoo!ブログ)\footnote{中納言ID:OY14\_29685}\end{flushright}\end{itemize}上記の\ctext{1}~\ctext{6}は語義が変化した典型的な意味変化である.本研究では,語義の変化と意味変化という単語を使い分ける.語義の変化は文字通り,ある語義から別の語義への変化であるが意味変化は語義の変化に限らない.例えば「尋常」という単語の変化を見ると,語義は「普通」のままだが否定的な文脈で出現する用法の変化が起きている.このように{\bfある単語特有(または少数の単語で特有)の用法の変化}も含めた広い概念として意味変化を扱う.一方で,{\bfある単語特有でない用法の変化}は意味変化としない.例えば,「複合名詞としての出現が増加(減少)」や「近代から現代にかけて動詞の基本形を名詞的に扱う用法\footnote{「支払うをす」(支払いをする,の意味)が例である.}が消失」のような変化は意味変化としない.本研究における意味変化前後の語義や用法の判断基準は\ref{eval}節で述べる.以降,意味変化前の語義や用法を{\bf原義},意味変化後の語義や用法を{\bf転義}とよぶ.意味変化は主に言語学や辞書学で研究されてきた.また,言語を社会的な観点から捉える点で社会学でも扱われる\cite{10.1093/oxfordhb/9780199641604.013.026}.工学分野では自然言語処理が情報工学的知見を活かし,\linebreak意味変化している単語の自動検出({\bf意味変化検出})手法の開発や,意味変化を分析する統計的手法を提案している.これらの手法を使えば,これまで認知されてこなかった過去に意味変化していた語の発見,現在起こりつつある変化の捕捉,未来に起り得る変化の予測が可能になる.意味変化検出の研究では,出現文脈に依存しない単語ベクトルを用いた手法と出現文脈に依存した単語ベクトルを用いた手法が提案されている\footnote{「文脈」という表現は非常に曖昧であるが,本稿ではベクトル化の際にモデルへ入力する対象単語を含む文や文書を「文脈」とよぶ.モデルへの入力が文であればその文全体が文脈であり,文書であればその文書全体が「文脈」である.}$^{,}$\footnote{陽にベクトル化を使わない意味変化検出手法もあるが,単語を数理モデルで扱う都合,一般化すると文脈非依存もしくは文脈依存なベクトル化として定式化できる.}.出現文脈に依存しない単語ベクトル獲得手法の代表例はword2vecである.word2vecは1つの単語を出現文脈によらず1つのベクトル値で表現する.出現文脈に依存しない単語ベクトルを用いた手法を本稿では{\bf文脈非依存}の手法とよぶ.一方,出現文脈に依存した単語ベクトルの獲得手法ではBERTやELMoが代表的である.BERTやELMoは同じ単語でも出現文脈が変われば,文脈に応じた異なるベクトル値で表現する.出現文脈に依存する単語ベクトルを用いた手法を本稿では{\bf文脈依存}の手法とよぶ.意味変化の検出が目的であれば,文脈非依存の手法でも問題ない.しかし文脈非依存の手法は対象単語のあらゆる出現(語義・用法)をまとめて1つのベクトルで表現する.そのため,個々の出現を十分に議論できず,意味変化を語義や用法ごとに観察する{\bf意味変化の分析}($\neq$検出)には適さない.一方,文脈依存の手法では対象単語のすべての出現に1つずつ異なる値のベクトルを作成する.これを何かしらの手法でグルーピングすれば,出現文脈に応じた語義や用法のクラスタが形成されることが期待できる.それらのクラスタの出現比率を時期ごとに算出することで語義レベルで意味変化を観測できる.本稿の目的は意味変化の分析であるため,文脈依存の手法を採用する.意味変化の分析手法として\citeA{hu-etal-2019-diachronic}と\citeA{giulianelli-etal-2020-analysing}は英語ドメインで文脈依存の手法を提案している.いずれの研究でも対象単語の文脈依存ベクトルを集めてグルーピングし,各グループの時期別出現比率を比較することで意味変化の分析を行なっている.両者の違いはグルーピング手法である.\citeA{hu-etal-2019-diachronic}は辞書に書かれた語義と例文を教師データとし,近傍法で語義クラスタの形成を試みた.\citeA{giulianelli-etal-2020-analysing}は教師データを使わず,教師なしクラスタリングのみで用法クラスタの形成を試みた.いずれも英語が対象のため,他言語での有効性は検証されていない.自然言語処理における意味変化の研究には,通時的なコーパスと対応する期間中に意味変化した語のリストおよび実際に意味変化したことを示す論拠が必要であるが,計算機上で利用できる資源の整備が進んでいないのが現状である.意味変化検出の研究は\citeA{schlechtweg-etal-2020-semeval}が公開したデータセットに含まれる英語,ラテン語,ドイツ語,スウェーデン語が主流であるが,日本語では共通に研究利用できる言語資源が限られ,利用範囲にも制限があるため,研究も前述の語族に比べて少ない.日本語で意味変化検出を行なった研究として\citeA{aida-etal-2021-paclic}があり,数単語の分析を行なっているが,単語の各語義や用法を中心とした包括的な分析は行われていない.以上を踏まえ,本研究では日本語を対象とし,以下の実験と分析を行なった.意味変化の分析の観点で,\citeA{hu-etal-2019-diachronic}の辞書を用いた手法と\citeA{giulianelli-etal-2020-analysing}のクラスタリングを用いた手法の日本語ドメインでの有効性を複数条件下で比較・検証した.また,BERTやELMoの文脈依存の手法の意味変化検出では,fine-tuningで検出精度が向上する報告があるため\cite{kutuzov-giulianelli-2020-uio},現代語で事前学習されたBERTをfine-tuningし,その影響を検証した.以上の結果,日本語では辞書を使った手法よりも教師なしクラスタリング,特に$k$-means法を使った手法が意味変化の分析に適していることが分かった.また,現代語BERTをfine-tuningすることで,現代では使わないような古い用法でも意味変化を捉えるようになること,その一方で古い時期では使われていなかった現代の用法がノイズになるケースがあることが分かった.本研究の貢献は以下の3つである.\begin{itemize}\item2つの意味変化分析手法(辞書ベースの教師ありグルーピング手法\cite{hu-etal-2019-diachronic}と教師なしのクラスタリング手法\cite{giulianelli-etal-2020-analysing})の比較と適用方法の検討\item日本語を対象としたBERTによるベクトル化を用いた意味変化の詳細な分析\itemfine-tuningが文脈依存の手法に及ぼす影響の調査\end{itemize}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% | |
V09N04-04 | \label{hajimeni}情報検索の結果から検索意図に適合する文書をふるいわけるのに,文書内容に対する手がかりとして要約が用いられる.このようなindicativeな目的に用いられる要約の目標は,できるだけ短い時間で正確な判断ができることである.多くの自動要約システムでは,単語の頻度や文の出現位置などの情報を用いて文ごとにスコアを付与し,高スコアの文をピックアップする方法(以降では重要文選択と呼ぶ)を採用している.この方法では長く複雑な文が選ばれがちである.このような要約を読むには,頭の中で文の構造を再構築するプロセスが必要になり,読者にとって負荷になる.我々は,この負荷を軽減するため,「読む」のではなく「一目でわかる」要約,すなわち,``At-a-glance''要約を研究の目標として設定した.句表現要約手法は,``At-a-glance''要約のひとつの実現方法として開発した.ここでは,その概念とアルゴリズムを述べる.また,この手法で作られた要約のふるいわけ効果の評価実験について述べる. | |
V17N02-01 | 科学技術や文化の発展に伴い,新しい用語が次々と作られインターネットによって世界中に発信される.外国の技術や文化を取り入れるために,これらの用語を迅速に母国語へ翻訳する必要性が高まっている.外国語を翻訳する方法には「意味訳」と「翻字」がある.意味訳は原言語の意味を翻訳先の言語で表記し,翻字は原言語の発音を翻訳先の言語における音韻体系で表記する.専門用語や固有名詞は翻字されることが多い.日本語や韓国語はカタカナやハングルなどの表音文字を用いて外国語を翻字する.それに対して,中国語は漢字を用いて翻字する.しかし,漢字は表意文字であるため,同じ発音に複数の文字が対応し,文字によって意味や印象が異なる.その結果,同音異義の問題が発生する.すなわち,翻字に使用する漢字によって,翻字された用語に対する意味や印象が変わってしまう.例えば,飲料水の名称である「コカコーラ(Coca-Cola)」に対して様々な漢字列で発音を表記することができる.公式の表記は「\UTFC{53EF}\UTFC{53E3}\UTFC{53EF}\UTFC{4E50}/ke--ko--ke--le/」であり,原言語と発音が近い.さらに,「\UTFC{53EF}\UTFC{53E3}」には「美味しい」,「\UTFC{53EF}\UTFC{4E50}」には「楽しい」という意味があり,飲料水として良い印象を与える.「Coca-Cola」の発音に近い漢字列として「\UTFC{53E3}\UTFC{5361}\UTFC{53E3}\UTFC{62C9}/ko--ka--ko--la/」もある.しかし,「\UTFC{53E3}\UTFC{5361}」には「喉に詰まる」という意味があり,飲料水の名称として不適切である.また,「人名」や「地名」といった翻字対象の種別によっても使用される漢字の傾向が異なる.例えば,「\UTFC{5B9D}」と「\UTFC{5821}」の発音はどちらも/bao/である.「\UTFC{5B9D}」には「貴重」や「宝物」などの意味があり中国語で人名や商品名によく使われるのに対して,「\UTFC{5821}」には「砦」や「小さい城」などの意味があり中国語で地名によく使われる.以上の例より,中国語への翻字においては,発音だけではなく,漢字が持つ意味や印象,さらに翻字対象の種別も考慮して漢字を選択する必要がある.この点は,企業名や商品名を中国に普及させてブランドイメージを高めたい企業にとって特に重要である.翻字に関する既存の手法は,「狭義の翻字」と「逆翻字」に大別することができる.「狭義の翻字」は,外国語を移入して新しい用語を生成する処理である\cite{Article_10,Article_11,Article_16,Article_18}.「逆翻字」は既に翻字された用語に対する元の用語を特定する処理である\cite{Article_01,Article_02,Article_04,Article_05,Article_06,Article_07,Article_08,Article_09,Article_12,Article_14}.逆翻字は主に言語横断検索や機械翻訳に応用されている.どちらの翻字も発音をモデル化して音訳を行う点は共通している.しかし,逆翻字は新しい用語を生成しないため,本研究とは目的が異なる.本研究の目的は狭義の翻字であり,以降,本論文では「翻字」を「狭義の翻字」の意味で使う.中国語を対象とした翻字の研究において,\cite{Article_10,Article_16,Article_18}は人名や地名などの外来語に対して,発音モデルと言語モデルを単独または組み合わせて使用した.それに対して,\cite{Article_11,Article_19,Article_21}は翻字対象語の意味や印象も使用した.\cite{Article_11}は,外国人名を翻字する際に,対象人名の言語(日本語や韓国語など),性別,姓名を考慮した.しかし,この手法は人名のみを対象としているので企業名や商品名などには利用できない.\cite{Article_19}は翻字対象語の発音と印象を考慮し,\cite{Article_21}は翻字対象語の種別も考慮した.\cite{Article_19}と\cite{Article_21}では,翻字対象の印象を表す「印象キーワード」に基づいて,翻字に使用する漢字を選択する.しかし,印象キーワードはユーザが中国語で与える必要がある.本研究は,\cite{Article_19}と\cite{Article_21}の手法に基づいて,さらに印象キーワードを人手で与える代わりにWorldWideWebから自動的に抽出して中国語への翻字に使用する手法を提案する.以下,\ref{sec:method}で本研究で提案する手法について説明し,\ref{sec:exp}で提案手法を評価する. | |
V06N07-02 | 日本語の長文で一文中に従属節が複数個存在する場合,それらの節の間の係り受け関係を一意に認定することは非常に困難である.また,このことは,日本語の長文を構文解析する際の最大のボトルネックの一つとなっている.一方,これまで,日本語の従属節の間の依存関係に関する研究としては,\cite{Minami73aj,Minami93aj}による従属節の三階層の分類がよく知られている.\cite{Minami73aj,Minami93aj}は,スコープの包含関係の狭い順に従属節を三階層に分類し,スコープの広い従属節は,よりスコープの狭い従属節をその中に含むことができるが,逆に,スコープの狭い従属節が,よりスコープの広い従属節をその中に含むことはできないという傾向について述べている.さらに,\cite{FFukumoto92aj,SShirai95bj}は,計算機による係り受け解析において\cite{Minami73aj,Minami93aj}の従属節の分類が有用であるとし,その利用法について提案している.特に,\cite{SShirai95bj}は,計算機による係り受け解析における有効性の観点から,\cite{Minami73aj,Minami93aj}の従属節の三階層の分類を再構成・詳細化し,また,この詳細な従属節の分類を用いた従属節係り受け判定規則を提案している.これらの研究においては,人手で例文を分析することにより従属節の節末表現を抽出し,例文における従属節の係り受け関係の傾向から,従属節の節末表現を階層的に分類している.しかし,人手で分析できる例文の量には限りがあるため,このようにして抽出された従属節節末表現は網羅性に欠けるおそれがある.また,人手で従属節節末表現の階層的分類を行う際にも,分類そのものの網羅性に欠ける,あるいは分類が恣意性の影響を受けるおそれが多分にある\footnote{実際に,EDR日本語コーパス\cite{EDR95aj-nlp}(約21万文)に対して,\cite{SShirai95bj}の従属節係り受け判定規則のうち,表層的形態素情報の部分を用いて従属節の係り受け関係の判定を行った結果,約30\%のカバレージ,約80\%の適合率という結果を得ている\cite{Nishiokayama98aj}.}.そこで,本論文では,大量の構文解析済コーパスから,統計的手法により,従属節節末表現の間の係り受け関係を判定する規則を自動抽出する手法を提案する.まず,大量の構文解析済コーパスを分析し,そこに含まれる従属節節末表現を網羅するように,従属節の素性を設定する.この段階で,人手による例文の分析では洩れがあった従属節節末表現についても,これを網羅的に収集することができる.また,統計的手法として,決定リストの学習の手法~\cite{Yarowsky94a}を用いることにより,係り側・受け側の従属節の形態素上の特徴と,二つの従属節のスコープが包含関係にあるか否かの間の因果関係を分析し,この因果関係を考慮して,従属節節末表現の間の係り受け関係判定規則を学習する.そこでは,従属節のスコープの包含関係の傾向に応じて従属節節末表現を階層的に分類するのではなく,個々の従属節節末表現の間に,スコープの包含関係,言い換えれば,係り受け関係の傾向が強く見られるか否かを統計的に判定している.また,人手によって係り受け関係の傾向を規則化するのではなく,大量の係り受けデータから自動的に学習を行っているので,抽出された係り受け判定規則に恣意性が含まれることはない.本論文では,実際に,EDR日本語コーパス\cite{EDR95aj-nlp}(構文解析済,約21万文)から従属節係り受け判定規則を抽出し,これを用いて従属節の係り受け関係を判定する評価実験を行った結果について示す.また,関連手法との実験的比較として,従来の統計的係り受け解析モデル\cite{Collins96a,Fujio97aj,Ehara98aj,Haruno98cj,Uchimoto98aj}と本論文のモデルとの違いについて説明し,従属節間の係り受け解析においては,従来の統計的係り受け解析モデルに比べて本論文のモデルの方が優れていることを示す.同様に,従属節間の係り受けの判定に有効な属性を選択する方法として,決定木学習\cite{Quinlan93a}により属性選択を行う手法\cite{Haruno98cj}と,本論文で採用した決定リスト学習の手法\cite{Yarowsky94a}を比較し,本論文の手法の優位性を示す.さらに,推定された従属節間の係り受け関係を,\cite{Fujio97aj,Fujio99aj}の統計的文係り受け解析において利用することにより,統計的文係り受け解析の精度が向上することを示す. | |
V15N03-05 | 我々は,人間と自然な会話を行うことができる知的ロボットの実現を目標に研究を行っている.ここで述べている「知的」とは,人間と同じように常識的に物事を理解・判断し,応答・行動できることである.人間は会話をする際に意識的または無意識のうちに,様々な常識的な概念(場所,感覚,知覚,感情など)を会話文章から判断し,適切な応答を実現しコミュニケーションをとっている.本論文では,それらの常識的な判断のうち,未知語の理解に着目し,研究を行っている.知的ロボットとの円滑なコミュニケーションを実現するにあたり,重要となる技術が自然言語処理である.近年,自然言語処理において,単語を意味的に分類したシソーラス\cite{NTT_Thesaurus:97},\cite{G.A.Miller:95}が数多く構築されている.これらのシソーラスは,情報検索や機械翻訳など多くの分野で利用されている.会話処理にシソーラスを用いた場合,会話文中にシソーラスに定義されていない単語(以下,未知語と呼ぶ)が含まれると,その会話文を理解することができない.そのため,未知語が大局的にどのような意味を持つのかを知る必要がある.未知語が所属するべきシソーラスのノードを提示することで,未知語の内容を簡明に表示することができると考える.これを実現するためには,ある単語から概念を想起し,さらに,その概念に関係のある様々な概念を連想できる能力が重要な役割を果たす.これまで,ある概念から様々な概念を連想できるメカニズムを,概念ベース\cite{okumura:07}と関連度計算\cite{watabe:06}により構成し,実現する方法が提案されている.そこで本論文では,連想メカニズムおよびシソーラスの体系的特徴を基に未知語を所属するべき最適なノードへ分類する手法を提案する.これまでにも同種の研究がなされている.\cite{uramoto:96}では,言語データとしてISAMAP\cite{tanaka:87}を利用し,未知語をシソーラスに分類する手法としてコーパス中の出現回数などの統計情報を用いている.また\cite{maeda:00}では,言語データとしてNTTシソーラス\cite{NTT_Thesaurus:97}を利用し,未知語をシソーラスに分類する手法として統計的決定理論の1つであるベイズ基準を用いている.一方で\cite{sakaki:07}では,検索エンジンのヒット件数に対して$\chi^2$値を用いた関連度の指標を用いることで,シソーラスの自動構築を行う手法が提案されている.また\cite{bessho:06}では,コーパスにおける単語同士の共起頻度を用いて単語をベクトル表現で表すことで,概念ベースを作成している.そして,概念ベースに登録していない単語のベクトル表現を,意味空間への射影による手法および分散最小性に基づく手法を用いて推定し,概念ベースを拡張する方法が提案されている.このようにこれまでの研究は,コーパスやシソーラスなどの言語データに存在する単語と未知語の共起頻度を利用することで,両者の関連性を比較し,未知語を既存のシソーラスに分類するものである.そのため,これまでの研究は,用いる言語データに存在しない未知語の場合,共起頻度を獲得することができないため,対応できないという問題を抱えている.本論文では,共起頻度に加えて,ある概念から様々な概念を連想できる連想メカニズムを用いている.その結果,固有名詞を含んだ未知語に対応した柔軟なメカニズムの構築を実現している. | |
V20N02-06 | 情報検索や情報抽出において,テキスト中に示される事象を実時間軸上の時点もしくは時区間に関連づけることが求められている.Web配信されるテキスト情報に関しては,文書作成日時(DocumentCreationTime:DCT)が得られる場合,テキスト情報と文書作成日時とを関連づけることができる.しかしながら,文書作成日時が得られない場合や,文書に記述されている事象発生日時と文書作成日時が乖離する場合には他の方策が必要である.テキスト中に記述されている時間情報解析の精緻化が求められている.時間表現抽出は,固有表現抽出の部分問題である数値表現抽出のタスクとして研究されてきた.英語においては,評価型国際会議MUC-6(thesixthinaseriesofMessageUnderstandingConference)\cite{MUC6}で,アノテーション済み共有データセットが整備され,そのデータを基に各種の系列ラベリングに基づく時間表現の切り出し手法が開発されてきた.TERN(TimeExpressionRecognitionandNormalization)\cite{TERN}では,時間情報の曖昧性解消・正規化がタスクとして追加され,様々な時間表現解析器が開発された.さらに,時間情報表現と事象表現とを関連づけるアノテーション基準TimeML\cite{TimeML}が検討され,TimeMLに基づくタグつきコーパスTimeBank\cite{TimeBank}などが整備された.2007年には,時間情報表現—事象表現間及び2事象表現間の時間的順序関係を推定する評価型ワークショップSemEval-2007のサブタスクTempEval\cite{TempEval}が開かれ,種々の時間的順序関係推定器が開発された.後継のワークショップSemEval-2010のサブタスクTempEval-2\cite{TempEval2}では,英語だけでなく,イタリア語,スペイン語,中国語,韓国語を含めた\modified{5}言語が対象となった.\modified{2013年に開かれるSemEval-2013のサブタスクTempEval-3では,データを大規模化した英語,スペイン語が対象となっている.}一方,日本語においてはIREX(InformationRetrievalandExtractionExercise)ワークショップ\cite{IREX}の固有表現抽出タスクの部分問題として時間情報表現抽出が定義されているのみで,時間情報の曖昧性解消・正規化に関するデータが構築されていなかった.そこで,我々はTimeMLに基づいた日本語に対する時間情報アノテーション基準を定義し,時間情報の曖昧性解消・正規化を目的とした時間情報タグつきコーパスを構築した.\modified{他言語のコーパスが新聞記事のみを対象としているのに対し,本研究では均衡コーパスである『現代日本語書き言葉均衡コーパス』(BalancedCorpusofContemporaryWrittenJapanese;以下``BCCWJ'')を対象としており,新聞記事だけでなく,一般書籍・雑誌・ブログなどに出現する多様な時間情報表現を対象としている.本稿ではアノテーション基準を示すとともに,アノテーションしたコーパスの詳細について示す.}以下,2節では時間情報表現についての背景について概観する.3節では,対象とする時間情報表現について詳しく述べる.4節では策定した日本語時間情報表現に対するアノテーション基準を示す.\modified{5節でアノテーションにおける日本語特有の問題について説明する.}\modified{6節でアノテーション作業環境を示す.}\modified{7}節で実際にアノテーションしたコーパスの分析を行う.最後にまとめと今後の課題を示す. | |
V06N07-01 | \label{sec:introduction}日本語の形態素解析は,日本語の自然言語処理にとって基本的なものであるので,多くの研究・開発が行われている.形態素解析システム\footnote{以下,システムとは,形態素解析システムのことであり,解析結果あるいは形態素解析結果とは,形態素解析システムの解析結果のことである}には,主に,人手で作成された規則に基づくシステム\cite[など]{kurohashi97,matsumoto97,washizaka97,fuchi98}と確率に基づくシステム\cite[など]{nagata94,mori98,yamamoto97}がある.本稿では,人手で作成された規則に基づく形態素解析システムを対象として,形態素解析の結果から半自動的に誤りを検出することを試みる.形態素解析結果から誤りが検出できた場合には,次のような利点がある.\begin{enumerate}\item{}形態素解析の誤りは,形態素解析システムの弱点を示していると考えられるので,誤りを分析することにより,システムの性能を向上できる可能性がある.\item{}形態素解析が誤るような表現を連語として登録することで,そのような誤りが再び起きないようにできる\cite{yamachi96,fuchi98}.\item{}形態素解析の誤りから誤り訂正規則を作成できるので,その規則を利用して形態素解析の精度を向上できる\cite{yokoh97,hisamitsu98}.\item{}形態素解析の誤りに基づいて,形態素解析の規則に割当てるコストを調整したり\cite{komatsu98},品詞分類を変更する\cite{kitauchi98}ことができる.\end{enumerate}これらのことから,形態素解析結果から誤りを検出することは,形態素解析システムの高精度化に役立つことがわかる.しかし,形態素解析の結果から誤りを見付けるのは,形態素解析の精度が97〜99%\cite{fuchi98}に達している現在では,困難になっている.ところが,従来の研究で,形態素解析結果の誤りを利用して形態素解析の精度を向上させようとしている研究では,それらの誤りを人手で発見すること,あるいは,人手で作成されたコーパスと形態素解析結果とを比較することにより発見することが前提になっている.そのため,形態素解析の誤りを発見することはコストが高い作業となっている.一方,本稿では,従来の研究で人手で発見されることが前提となっていた解析誤り(特に過分割)を,生のコーパスを形態素解析した結果から半自動的に抽出することを目指し,そのための統計的尺度を提案する.更に,本稿では,人手により誤りが修正済みのコーパスに対しても提案尺度を適用し,人手で除去しきれていない誤りを検出することも試みる.もし,人手修正されたコーパスから誤りを検出できたら,提案尺度はコーパス作成・整備の際の補助ツールとして役立つことになる.以下,\ref{sec:measure}章では,本稿が検出対象とする誤り(過分割)の定義を述べ,それを検出するための統計的尺度について述べる.\ref{sec:experiments}章では,提案尺度を,公開されている形態素解析システム\cite{kurohashi97,matsumoto97,washizaka97},および,人手で修正されたコーパス\cite{edr95,kurohashi98}に適用した結果について述べると共に,提案尺度を各種統計的尺度と定量的に比較する.\ref{sec:discussion}章では,提案尺度の有効性などを論じる.\ref{sec:conclusion}章は結論である. | |
V25N01-05 | \label{intro}医療現場で生成される多様なデータ(以下,\textbf{医療データ}と呼ぶ)の大部分は自然言語文であり,今後もその状況はただちに変わりそうにない.医療データの利活用としては,診療への応用,もしくは学術研究や政策への応用が挙げられるが,現在,盛んに医療データの利活用の重要性が叫ばれているのは,後者の二次利用である\cite{研究開発の俯瞰報告書2017}.二次利用されることが期待される医療データとしては,\textbf{健診データ}や\textbf{診療報酬データ}がある.健診データは健康診断の際に作成されるデータであり,検査名と検査値から構成される.健診データは受診者が多く,組織で一括して収集されるため,大規模な医療データとしてよく用いられる.一方,診療報酬データは医療費の算定のために用いられるデータであり,医療行為がコード化されたものである.このデータは厚生労働省が収集し管理するため,同じく大規模な医療データとしてよく用いられる.両データは,数値やコードから構成される構造化されたデータのためコンピュータでの扱いは容易であるが,詳細な情報が含まれていないことが解析の限界となっていた.そこで,より詳細な情報が含まれる\textbf{診療録},\textbf{退院サマリ},\textbf{症例報告}といったテキスト化された医療データの活用に注目が集まっている.診療録とは,病院において患者が受診した際や入院時の回診の際に記述されるテキストであり,詳細な患者情報が記述される.また,退院サマリとは,退院時に記述される情報であり,入院中の診療録の要約である.症例報告も退院サマリと同じく入院時の要約であるが,学会に報告されるものである.他にも,病院内にはテキスト化された医療データが存在しており,本稿ではこれらのテキスト化された医療データ全般を指し,\textbf{電子カルテ}と呼ぶ.電子カルテは,自然言語文が中心となる非構造データであるため,扱いは困難であるが,詳細な情報が記述されており,その量は年々増加しつつある.この動きは,1999年に医療データであっても,一定の基準を満たした電子媒体への保存であれば,記録として認められる,という法改正が行われて以降,特に急速に進展した.2008年には,400床以上の大規模病院で14.2\%,一般診療所で14.7\%であった電子化率は,2014年には,400床以上の大規模病院で34.2\%,一般診療所で35.0\%と倍以上に増加している\footnote{厚生労働省医療施設調査より(http://www.mhlw.go.jp/toukei/list/79-1.html)}.このまま増加すれば,ほとんどの病院で電子カルテが用いられるであろう.電子化の第一の目的は,病院の運営の効率化によるコスト削減であるが,副次的な利用法として,これまで膨大な労力をかけて行われてきた調査への応用が期待されている.例えば,医薬品の安全に関わる情報や疫学的情報の収集をより大規模かつ容易に実行可能にしたり,これまで不可能であった医療情報サービスも構築可能にすると期待されている.しかし,このような期待は高まるものの,具体的な成功事例は乏しい.これは,電子カルテに多く含まれる自然言語文の扱いが困難であることが原因で,電子カルテの情報を最大限に活用するには自然言語処理が必須となる.本研究では病名のアノテーション基準を提案し,45,000例もの症例報告を材料としてアノテーションを行う.このアノテーションでは,症例報告の対象患者の疾患や症状についての情報を整理することを目指し,単に病名のみをマークするだけでなく,症状が患者に発生しているかどうかの区別まで行う.海外では,医療分野における同様のコーパスは政府の協力のもと開発,公開がされているが,日本では公開された大規模コーパスは存在せず,コーパスの仕様についても十分な資料がなかった.本稿では,日本で初となる大規模な医療分野のコーパス開発の詳細について述べる.本研究が提案するアノテーションは,症例報告のみならず,さまざまな医療テキストへ利用可能である汎用的なものである.また,これが実行可能なアノテーションであることを示すために,複数のアノテーター間における一致率やその問題点などの指標を示し,フィージビリティの検討を行った.最後に,病名アノテーションを利用して構築した病名抽出器についても紹介する.本コーパスの特徴は,以下の2点である.\begin{enumerate}\item従来,小規模な模擬データが配布されるにとどまっていた利用可能な医療分野のコーパス\cite{mednlp10,mednlp11,mednlp12}と比較し,約45,000テキストという大規模なデータを構築した点.\item単に用語の範囲をアノテーションしただけでなく,用語で示された症状が実際に患者に生じたかどうかという\textbf{事実性}をアノテーションした点.\end{enumerate}特に,症状の事実性を記述することは応用を考えると重要である.例えば,以下のような2つの応用システムを用いたシナリオを想定できる.\begin{description}\item[【医薬品副作用調査シナリオ】]ある医薬品Aと医薬品Bがどれくらい副作用を起こすかを比較したいとする.この場合,医薬品Aと医薬品Bで検索して得られたテキストセットAとテキストセットBをつくり,それぞれに出現する副作用と関連した病名の頻度を比較すればよい.だが,これを実際に行うと,「副作用による軽度の\textless\texttt{P}\textgreater咳嗽\ignorespaces\textless\texttt{/P}\textgreaterは認めたが、\textless\texttt{N}\textgreater間質性肺炎\ignorespaces\textless\texttt{/N}\textgreaterは認めなかった。」\footnote{\textless\texttt{P}\textgreaterで示した病名は事実性のあるもの,\textless\texttt{N}\textgreaterで示した病名は事実性のないものを表す.詳しくは4.2節.}といったように,想定はされるが実際には起こっていない副作用も記述される.よって,事実性を判定する必要が生じる.\item[【診断支援シナリオ】]診断を行う際には,ガイドラインに沿って症状の有無を調べ,合致する診断を下す.これはフローチャートになっており,例えば,意識消失,痙攣あり,嘔吐あり,発熱ありの際に考えられる症状には心筋炎,脳梗塞,脳炎など曖昧性があるが,ここで血液検査を行って炎症所見のない場合は心筋炎が除外される.このような場合,診断がガイドラインに沿っていることを明確にするために,事実性のない症状についても記述される(この例では「炎症所見なし」).よって,診断支援のデータとして用いる場合には,事実性を判定する必要が生じる.\end{description}本研究の貢献は以下の通りである.\begin{enumerate}\item医療テキストへのアノテーションについての詳細な仕様を示した.\item実際にアノテーションした結果について,一致率や問題点などのフィージビリティを議論した.\item本研究で構築したコーパスを用いて病名抽出器を構築し,アノテーションの妥当性を検証した.\end{enumerate}\vspace{1\Cvs} | |
V04N04-04 | 日本語の談話理解を考える際,文脈すなわち「会話の流れ」の認識は重要な要素となる.一般的に日本語では,「会話の流れ」を明示するために順接・逆接・話題転換・因果性,などを表す接続(助)詞が用いられることが多い.このことから,接続(助)詞を含む発話とそれと組になる発話,という関係を認識することが,談話理解の基本となると考えられる.これについては,マニュアルや論説文などのいわゆる書き言葉について,接続詞や指示語などによる連接パターンを用いてテキストの構造解析を行なう手法\cite{福本:文の連接関係解析,田中:文の連接パターン}や,対話中の質問--応答を表す発話対の認識に関する研究\cite{高野:発話対の認識手法について}などがある.これに対して本研究では,「だって」や「から」などの接続表現により因果関係の前件及び後件の関係が談話中で明示されている場合を対象とし,そのような因果関係が談話中でどのような特徴を伴って出現するのか,について検討する.また,この検討結果を,特に課題を設定していない状況での会話(自由会話)によるコーパスを用いて検証する.このような,文の意味内容に関する連接関係については,\cite{Hobbs:StructureOfDiscourse}で因果関係その他いくつかの場合について述べられているが,ここでは,接続表現により前件と後件の連接関係が明示されている場合を主な対象とするものである.なお,本技術資料では,会話データとして\figref{コーパス例}のようなコーパスを用いる.\begin{figure}[htbp]{\small\setlength{\baselineskip}{2.0mm}{\bf会話24}\begin{enumerate}\itemO→Pあのね、これでもいいんじゃん\da\itemP→Oわかった\da\itemO→Pえー、嘘で言ったんだよ\da\itemE→O何\ua\itemO→Eだって、牛乳入れろって言ってたらさー\da\itemG→G何か酒飲みたいなー\da\itemK→Gあっ、ありますよ\da\itemG→Kそれ何\ua\itemE→Gモルツ\da\itemP→Gウイスキー\da\itemE→Gうまいよ\da\end{enumerate}}\caption{コーパスの例}\figlabel{コーパス例}\end{figure}このコーパスは,大学のあるサークルでの飲み会の席上で録音された雑談(課題を特に設定していない自由会話)を,そこに同席した者がテキストに書きおこしたものであり,全部で1980の発話を含む.書きおこす際に,(1):発話の切れ目の認識\footnote{発話の切れ目は原則として話し手の交代時としているが,会話に同席した者が,発話が区切れていると判断した場合には,話し手の交代に関わりなく発話の切れ目としている.この時,発話間には平均して約0.5秒のギャップがある.},(2):会話内容によるセグメント分け,(3):話し手と聞き手のデータ追加,(4):発話の末尾の調子のデータ追加,を行なっており,例えば,「O→Pあのね、これでもいいんじゃん\da」\hspace{-.4em}という発話では,話し手が``O''で聞き手が``P''であり,末尾が下がり調子の発話であったことを示している.また,このコーパスでは,因果関係を表すとされる接続詞「だから/だって」および接続助詞(相当)「ので/から/のだから/のだもの」が用いられており,本論文ではこれらに注目して考察を行なう. | |
V25N05-03 | 本稿では日本語名詞句の情報の状態を推定するために読み時間を用いることを目指して,情報の状態と読み時間の関連性について検討する.名詞句の情報の状態は,情報の新旧に関するだけでなく,定性・特定性など他言語の冠詞選択に与える性質や,有生性・有情性などの意味属性に深く関連する.他言語では冠詞によって情報の性質が明確化されるが,日本語においては情報の性質の形態としての表出が少ないために推定することが難しい.情報の状態は,書き手の立場のみで考える狭義の情報状態(informationstatus)と読み手の立場も考慮する共有性(commonness)の2つに分けられる.前者の情報状態は,先行文脈に出現するか(既出:discourse-old)否か(未出:discourse-new)に分けられる.後者の共有性は,読み手がその情報を既に知っていると書き手が仮定しているか(既知:hearer-old),読み手がその情報を文脈から推定可能であると書き手が仮定しているか(ブリッジング:bridging),読み手がその情報を知らないと書き手が仮定しているか(未知:hearer-new)に分けられる.以後,一般的な情報の新旧を表す場合に「情報の状態」と呼び,書き手の立場のみで考える狭義の情報の新旧を表す場合に「情報状態」(informationstatus)と呼ぶ.これらの情報の状態は,言語によって冠詞によって明示される定性(definiteness)や特定性(specificity)と深く関連する.また,\modified{情報の状態は},有生性(animacy),有情性(sentience),動作主性(agentivity)とも関連する.\modified{日本語のような冠詞がない言語においても,これらの「情報の状態」は名詞句の性質として内在しており,ヒトの文処理や機械による文生成に影響を与える.}機械翻訳を含む言語処理における冠詞選択手法は,これらの名詞句にまつわる様々な特性を区別せずに機械処理を行っているきらいがある.例えば,\cite{乙武-2016}は,本来,定・不定により決定される英語の冠詞推定に情報の新旧の推定をもって解決することを主張している.彼らの主張では,談話上の情報の新旧をもって定・不定が推定できると結論付けている.また,自動要約や情報抽出においても,既出・未出といった情報状態の観点,つまり書き手側の認知状態が主に用いられ,既知・想定可能・未知といった共有性の観点\modified{,つまり読み手側の認知状態}が用いられることは少ない.\modified{これらを適切に区別して,識別することが重要である.特に,読み手の側の情報状態は,自動要約や情報抽出の利用者の側の観点である.さらにその推定には読み手の側の何らかの手がかりをモデルに考慮することが必要になると考える.}言語処理的な解決手法として,大規模テキストから世界知識を獲得して情報状態を推定する方法が考えられる一方,読み手の反応を手がかりとして共有性を直接推定する方法\modified{が}考えられる.\modified{読み手の反応に基づいて,読み手側の解釈に基づく日本語の情報状態の分析は殆どない.}そこで,本稿では,対象とする読み手に対する情報の状態が設定されているであろう新聞記事に対する読み時間データが,名詞句の情報の状態とどのような関係があるのかを検討する.もし読み時間が名詞句の情報の状態と何らかの関係があるのであれば,視線走査装置などで計測される眼球運動などから,情報の状態を推定することも可能であると考える.\modified{特に共有性は読み手の側の情報状態であるにかかわらず,既存の日本語の言語処理では読み手の側の特徴量を用いず推定する手法が大勢であった.}\modified{なお,本研究の主目的は冠詞選択にはなく,日本語の名詞句の情報状態を推定することにある.その傍論として既存の冠詞選択手法が定・不定などの名詞句の特性と本稿で扱う書き手・読み手で異なる情報状態とで差異があり,言語処理の分野において不適切に扱われてきた点について言及する.}\modified{以下,2節では関連研究を紹介する.3節に情報状態の概要について示す.4節に読み時間の収集方法について示す.5節では今回利用する読み時間データおよび情報の状態アノテーションデータと分析手法について示す.6節で実験結果と考察について示す.7節で結論と今後の方向性について示す.} | |
V29N03-06 | 構文解析とは句同士の係り受け関係を明らかにするタスクのことである.従来より研究が盛んな分野であり,日本語構文解析ツールのKNP\footnote{\url{https://nlp.ist.i.kyoto-u.ac.jp/?KNP}}\cite{KNP1}\cite{KNP2}が有名であるが,近年,BERTを利用することで,従来のKNPよりも高い正解率を出すことが示されている\cite{shibata}.BERT\cite{bert}はfine-tuningすることで様々なNLPタスクに対して高い性能を示した事前学習済みモデルである.BERTを利用した構文解析では,BERTからの出力ベクトルを順伝播型ニューラルネットワーク(FFNN)に入力しfine-tuningすることで構文解析を行う.ただし,BERTには多くのパラメータを調整する必要があるため学習や推論に時間がかかるという問題がある.そこで本研究では,構文解析において事前学習済みBERTの一部の層を削除した簡易小型化BERTの利用を提案する.ここでいう層とは,BERTを構成しているtransformerのエンコーダーのことであり,$\rm{BERT_{BASE}}$の場合,12層のtransformerのエンコーダーから成っている.このうちの何層かを削除し,層数が減った新しいBERTモデルを作成するという簡易な処理で小型化したBERTを,以降,簡易小型化BERTと呼ぶ.実験では,京都大学ウェブ文書リードコーパス\cite{Webcorpus}と京都大学テキストコーパス\cite{textcorpus}を混合したデータを用いて,京大版のBERT\footnote{\url{https://github.com/google-research/bert}}$^{,}$\footnote{\url{https://nlp.ist.i.kyoto-u.ac.jp/?ku_bert_japanese}}とそれを簡易小型化したBERTの正解率と処理時間を比較した.提案する簡易小型化BERTでは,3~10層目を削除した合計4層のモデルが,京大版のBERTからの正解率の劣化をウェブコーパスで0.87ポイント,テキストコーパスで0.91ポイントに押さえる結果となり,層を削除した後でも高い正解率を維持していることが分かった.また学習・推論時間は削除する層を増やすほど速くなり,合計4層モデルでは学習時間は83\%,推論時間はウェブコーパスで65\%,テキストコーパスで85\%まで削減することができた.またBERTのどの位置の層が構文情報を捉えているかを,12層のうち1層のみをfine-tuningに使用し,テストを行うことで調査した.その結果,新聞コーパスは上位・下位層が高い正解率を出したが,Webコーパスにおいてはどの層も大きな変化は出なかった.これらの結果からBERTはコーパスの特性や文に含まれるトークン数,未知語の割合などによって,構文解析の正解率に変化が出ると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% | |
V10N04-08 | \thispagestyle{empty}何かを調べたいとき,一番よい方法はよく知っている人(その分野の専門家)に直接聞くことである.多くの場合,自分の調べたいこととその答えの間には,具体性のズレ,表現のズレ,背景の認識の不足などがあるが,専門家は質問者との対話を通してそのようなギャップをうめてくれるのである.現在,WWWなどに大規模な電子化テキスト集合が存在するようになり,潜在的にはどのような質問に対してもどこかに答えがあるという状況が生まれつつある.しかし,今のところWWWを調べても専門家に聞くような便利さはない.その最大の原因は,上記のようなギャップを埋めてくれる対話的な能力が計算機にないためである.例えば,ユーザがWWWのサーチエンジンに漠然とした検索語を入力すると多くのテキストがヒットしてしまい,ユーザは多大な労力を費して適切なテキストを探さなければならない.このような問題は,ドメインを限定し,ユーザが比較的明確な目的を持って検索を行う場合でも同様である.我々は予備調査として,マイクロソフトが提供している自然言語テキスト検索システム「話し言葉検索」\footnote{\tthttp://www.microsoft.com/japan/enable/nlsearch/}の検索ログを分析した.その結果,全体の約3割の質問はその意図が不明確であることがわかった.このような曖昧な質問に対しては多くのテキストがマッチしてしまうので,ユーザが検索結果に満足しているとはいいがたい.この問題を解決するためには,「曖昧な質問への聞き返し」を行うことが必要となる.すでに実現されている情報検索システムには,大きく分けてテキスト検索システムと質問応答システムの2つのタイプがある.前者は質問キーワードに対して適合するテキスト(のリスト)を返し,後者は質問文に対してその答えを直接返す.しかし,曖昧な質問を行ったユーザを具体的なテキストまたは答えに導く必要性は両者に共通する.以下では,「曖昧な質問への聞き返し」に焦点をあてて,過去の研究を俯瞰する(表\ref{tab:情報検索の種々のタイプ}).テキスト検索システムにおいて,質問とテキストの具体性のギャップを埋めるために聞き返しを行う方法としては,以下の手法が提案されてきた.\begin{table}\caption{情報検索の種々のタイプ}\label{tab:情報検索の種々のタイプ}\begin{center}\footnotesize\begin{tabular}{l|cccc}\hline手法/システム&ユーザ質問&出力&聞き返しの媒体&規模\\\hline\hline一般的なテキスト検索システム&キーワードの&テキストの&×&○\\&リスト&リスト\\\hlineテキストによる聞き返し&キーワードの&テキストの&テキスト&○\\(SMART,WWWサーチエンジン)&リスト&リスト\\\hline関連キーワードによる聞き返し&キーワードの&テキストの&キーワード&○\\(RCAUU,DualNAVI,Excite)&リスト&リスト\\\hlineテキストと関連キーワードによる&キーワードの&テキスト&テキストと&△\\聞き返し(THOMAS)&リスト&&キーワード&\\\hlineクラスタリング&キーワードの&テキストの&クラスタ&○\\(Scatter/Gather,WebSOM)&リスト&リスト&(キーワードor\\&&&テキストで表現)&\\\hline\hline人工言語による知識体系の利用&自然言語&自然言語&自然言語&×\\(UC)&&(答え)&&\\\hlineFAQテキストの利用&自然言語&自然言語&×&△\\(FAQFinder)&&(答え)&&\\\hlineドメイン独立テキストの利用&自然言語&自然言語&×&○\\(TRECQA/NTCIRQAC)&&(答え)&&\\\hline京都大学ヘルプシステム&自然言語&自然言語&自然言語&△\\&&(答え)&&\\\hline\hlineダイアログナビ&自然言語&自然言語&自然言語&○\\&&(状況説明文)&&\\\hline\end{tabular}\end{center}\end{table}\begin{itemize}\itemテキストによる聞き返し検索結果から適合テキストをユーザに判定させ,それを検索式の修正に反映させる手法は,SMARTシステムなどで実験が行われている\cite{Rocchio71}\footnote{このようにユーザが適合テキストを選ぶ方法は,「適合性フィードバック」とよばれている.しかし,ユーザに聞き返しを行って何らかの情報をえること全体が,広い意味での適合性フィードバックであるので,ここではその用語は用いていない.}.Google\footnote{\tthttp://www.google.com/}などのWWWサーチエンジンでは,検索結果からテキストを1個選んで,その関連テキストを表示させることができるが,この方法もユーザによる適合テキストの判定とみなすことができる.\item関連キーワードによる聞き返し検索結果から,ユーザが入力したキーワードに関連するキーワードを抽出し,選択肢として提示するシステムとしては,RCAAU\cite{RCAAU},DualNAVI\cite{DualNAVI},Excite\footnote{\tthttp://www.excite.com/}などがある.\itemテキストと関連キーワードを組み合わせた聞き返しTHOMAS\cite{Oddy77}は,ユーザの情報要求を,「イメージ」とよばれるキーワード集合として保持し,テキスト1個と関連キーワードを併せて提示してそれらの適合性をユーザに判定させるプロセスを繰り返すことで,「イメージ」を徐々に具体化させようとするシステムである.ただし,1970年代に提案されたシステムであり,小規模なテキスト集合にしか適用できない.\itemクラスタリング検索されたテキストをクラスタリングし,クラスタを選択肢として提示するシステムとしては,Scatter/Gather\cite{Hearst96},WEBSOM\cite{Lagus00}などがある.これらのシステムでは,各クラスタは,それに属するテキストのリストや,代表的なキーワードのリストとして表現されている.\end{itemize}これらのシステムの聞き返しの媒体は,いずれもキーワードまたはテキストのレベルである.しかし,キーワードは抽象化されすぎており表現力がとぼしく,逆にテキストは具体的すぎるため,聞き返しの媒体としては必ずしも適切ではない.一方,質問応答システムとしては,1980年代にUC\cite{UC}などのシステムが研究された.これらのシステムは,ユーザの意図が曖昧な場合に自然言語による聞き返しを行う能力を備えていたが,そのためには人工言語で記述された,システムに特化した知識ベースが必要であった.しかし,十分な能力をもつ人工言語の設計の困難さ,知識ベース作成のコストなどの問題から,このような方法には明らかにスケーラビリティがない.1990年代になって,電子化された大量の自然言語テキストが利用可能になったことから,自然言語テキストを知識ベースとして用いる質問応答システムの研究が盛んになってきた.インターネットのニュースグループのFAQファイルを利用するシステムとしては,FAQFinder\cite{Hammond95}がある.また最近は,構造化されていないドメイン独立のテキスト(新聞記事やWWWテキスト)を用いた質問応答システムの研究が,TRECQATrack\cite{TREC9}やNTCIRQAC\cite{QAC}において盛んに行われている\cite{Harabagiu01,TREC_LIMSI,QAC_Murata,QAC_Kawahara}.しかし,これらのシステムはユーザの質問が具体的であることを前提にして,1回の質問に対して答えを1回返すだけであり,曖昧な質問に対して聞き返しを行う能力は備えていない.京都大学総合情報メディアセンターのヘルプシステム\cite{Kuro00}は,自然言語で記述された知識ベースとユーザ質問の柔軟なマッチングに基づいて,曖昧な質問に対して自然言語による聞き返しを行うことができるシステムである.しかしそこでは,記述の粒度をそろえ,表現に若干の制限を加えた知識ベースをシステム用に構築しており,「曖昧な質問への聞き返し」のプロトタイプシステムという位置づけが適当である.\begin{figure}\begin{center}\epsfile{file=fig/image.eps,scale=0.4}\caption{ダイアログナビのユーザインタフェース}\label{fig:user_interface}\end{center}\end{figure}これに対して,本論文では,既存の大規模なテキスト知識ベースをもとにして,自然言語による「曖昧な質問への聞き返し」を行い,ユーザを適切なテキストに導くための方法を提案する.具体的には,パーソナルコンピュータのWindows環境の利用者を対象とした自動質問応答システム「ダイアログナビ」を構築した(図\ref{fig:user_interface}).本システムの主な特徴は以下の通りである.\begin{itemize}\item{\bf大規模テキスト知識ベースの利用}マイクロソフトがすでに保有している膨大なテキスト知識ベースをそのままの形で利用する.\item{\bf正確なテキスト検索}ユーザの質問に適合するテキストを正確に検索する.そのために,質問タイプの同定,{\bf同義表現辞書}による表現のずれの吸収,係り受け関係への重みづけなどを行っている.\item{\bfユーザのナビゲート}ユーザが曖昧な質問をしたとき,対話的に聞き返しを行うことによってユーザを具体的な答えにナビゲートする.聞き返しの方法としては,{\bf対話カード}と{\bf状況説明文の抽出}の2つの方法を組み合わせて用いる.どちらの方法が用いられても,システムは具体的なフレーズを聞き返しの選択肢として提示する.\end{itemize}\vspace*{5mm}図\ref{fig:user_interface}の例では,「エラーが発生する」という漠然とした質問に対して2回の聞き返しを行ってユーザの質問を対話的に明確化させた後,知識ベースを検索してその結果を提示している.その際,ユーザの質問をより具体化させるような部分を検索されたテキストから抽出して提示している.本論文では,このような対話的質問応答を可能とするためのシステムを提案する.まず\ref{sec:ダイアログナビの構成}節において,システムの構成を示す.つづいて,\ref{sec:テキストの検索}節では正確なテキストの検索を行うための手法を,\ref{sec:ユーザのナビゲート}節ではユーザのナビゲートを実現するための手法を,具体的に提案する.さらに\ref{sec:評価}節において,提案手法を実装したシステム「ダイアログナビ」を公開運用して得られた対話データベースの分析結果を,提案手法の評価として示す.最後に\ref{sec:おわりに}節で本論文のまとめを述べる.\newpage | |
V13N01-05 | \label{sec:introduction}英日機械翻訳システムなどの対訳辞書を拡張するための手段の一つとして,対訳コーパスなどから語彙知識を自動的に獲得する方法が有望である.適切な語彙知識を獲得するためには,(1)対訳コーパスにおいて英語表現と日本語表現を正しく対応付ける処理と,(2)対応付けられた{\EJP}を辞書に登録するか否かを判定する処理の二つが必要である.後者の処理が必要な理由は,対応付けられた{\EJP}には,辞書に登録することによって翻訳品質が向上することがほぼ確実なものとそうでないものがあるため,これらを選別する必要があるからである.例えば,対訳コーパスから次のような{\EJP}の対応付けが得られたとする.\begin{center}\begin{tabular}{ll}CustomsandTariffBureau&関税局\\MinshutoandNewKomeito&民主党や公明党\\MiyagiandYamagata&宮城,山形両県\\\end{tabular}\end{center}これらのうち第一の{\EJP}は辞書に登録すべきであるが,第二,第三の{\EJP}はそうではない.なぜならば,``MinshutoandNewKomeito''を我々の機械翻訳システムで処理すると「民主党,及び,公明党」という翻訳が得られるが,この翻訳と「民主党や公明党」とでは翻訳品質に大きな差はないと判断できるからである.また,第三の{\EJP}は,``Miyagi''と``Yamagata''が県名を表わしていない文脈では不適切となり,文脈依存性が高いからである.このように,翻訳品質が変化しなかったり,低下することが予想されたりする{\EJP}はふるい落とさなければならない.我々が{\EJP}の対応付けと選別を分けて考えるもう一つの理由は,前者はシステム依存性が低いのに対して,後者は依存性が高いという違いがあるからである.対応付けが正しいか否かは個々の機械翻訳システムにほとんど依存しない.このため,正しい対応付けを得るための判定基準を設定する際には特定のシステムを想定する必要がない.これに対して,対応付けられた{\EJP}(辞書登録候補)を登録するべきか否かは個々の機械翻訳システムに依存するため,選別は,特定の機械翻訳システムを想定した判定基準に基づいて行なわれなければならない.例えば,我々の機械翻訳システムには``theBankfor$ABC$''を「$ABC$銀行」のように訳す(前置詞``for''を訳出しない)規則が存在しない.このため,``theBankforInternationalSettlements''が「国際決済のための銀行」と訳されてしまう.従って,我々のシステムの場合はこの{\ENP}と「国際決済銀行」の対を辞書に登録すると判定するのが妥当である.しかし,もし前置詞``for''を訳出しないという規則を持つシステムが存在すれば,そのシステムにとっては登録する必要がないと判定するのが妥当であろう.従って,対応付けと選別とでは異なる正解判定基準を導入する必要がある.従来の研究では,異なる言語の表現同士を正しく対応付けることに焦点が当てられていることが多く\cite{Smadja96,Melamed99,Le00,Mcewan02,Tufis02,Utsuro02,Sadat03,Sato03,Yamamoto03,Ayan04,Izuha04,Sahlgren04},(正しく)対応付けられた表現対を辞書に登録するか否かを判定する処理について,選別のシステム依存性を認識した上で明確に議論した研究はほとんど見当たらない.専門用語とその対訳を獲得することを目的とした場合\cite{Dagan94,Resnik97,Tiedemann00}は,表現がある程度定式化していることが多いため,選別の必要性は低いかもしれない\footnote{(単言語の)専門用語の収集においても選別が必要であることを指摘した文献もある\cite{Sasaki05}.}.しかし,本稿では``NationalInstituteofInformationandCommunicationsTechnology''(情報通信研究機構)のような前置詞句と等位構造の両方または一方を持つ英語固有名詞句とそれに対応する日本語名詞句を対象とするが,このような英日表現対の場合には,選別処理は重要である.本稿では,対訳辞書に登録する目的で収集された英日表現対のうち,前置詞句と等位構造の両方または一方を持つ英語固有名詞句(以下では単に{\ENP}と呼ぶ)とそれに対応する日本語名詞句を辞書登録候補とし,この辞書登録候補を自動的に選別して適切な語彙知識を獲得する方法を提案する.辞書登録候補を正しく選別するという課題の解決策としては,(1)人間の辞書開発者が候補を選別する作業過程を分析し,その知見に基づいて選別規則を人手で記述する方法と,(2)機械学習手法を利用して,人間の辞書開発者が選別した事例集から選別器を自動的に作成する方法とがある.候補を登録するか否かは様々な要因によって決まるため,複雑に関連し合う要因を人手で整理し,その結果に基づいて規則を記述するより,機械学習手法を利用するほうが実現が容易であると考えられる.このようなことから本稿では機械学習を利用した方法を採る.辞書登録候補は,翻訳品質の観点から,登録すれば翻訳品質が向上するものと,登録しても変化しないものと,登録によって低下するものの三種類に分けられる.このように分けた場合,翻訳品質が向上する候補は登録すべきものであり,翻訳品質に変化がない候補は登録する必要がないものであり,翻訳品質が低下する候補は登録すべきでないものであると言える.しかし,実際には,登録する必要がない場合と登録すべきでない場合はまとめて考えることができるので,行なうべき判定は登録するか否かの二値となる.この二値判定を行なうために{\SVM}を利用する. | |
V25N01-04 | \label{Hajimeni}法務省の統計によれば日本の在留外国人数は第2次世界大戦以後,基本的に増加傾向にあり2016年12月には238万人,総人口の約1.9\%を占めるに至っている.外国人の比率は欧米諸国と比較して必ずしも高いとは言えないが,東京都新宿区では外国人の比率が10\%を超えるなど,日本でも大都市部などで欧米諸国並みの集中が発生している.日本人\footnote{本稿では便宜的に日本語母語話者を日本人と呼ぶ.また日本に一定期間以上居住する日本語非母語話者を外国人と呼ぶ.}と同等に日本語が使える国内在住の外国人は少数であり,彼らへの適切な情報提供は大きな課題となっている.外国人へはそれぞれの母語で情報を提供するのが理想である.実際,母語を使ったサービスはすでに多言語サービスの中で一部実現されており,例えばNHKは現在国内向けに5言語でニュースを放送している\footnote{英語,中国語,韓国語,スペイン語,ポルトガル語}.しかし母語での情報提供は10言語程度にとどまることが多く,国内の外国人の出身国数が190に達する状況に対応するには十分とは言えない.とはいえ外国人の全員をカバーするには膨大な数の翻訳が必要となり,コストや労力の大きさから実現は難しい\cite{kawahara:book:2007}.そこで母語ではなく,外国人に分かりやすい「やさしい日本語」で情報を伝えようという考え方が提唱されている\cite{SatoK:NihongoGaku:2004,IoriEtAL:kyouikuGakkai:2009}.その背景には,やさしい日本語を理解できる外国人が多いこと\cite{iwata:ShakaiGengo:2010},外国人の中からも母語の他にやさしい日本語による情報提供を望む声が上がっていることなどがある\cite{yonekura:housouKenkyuu:2012}.以上の背景の中,NHKは一般のニュースをやさしい日本語で提供できれば,外国人への有用な情報提供になると考えて研究を進め,2012年4月からWebでのサービス「NEWSWEBEASY」\footnote{\label{footnote:NWE}http://www3.nhk.or.jp/news/easy/index.html}を開始した.外国人に日本語でニュースを提供しようとするNEWSWEBEASYと同様のサービスは当時例がなく,著者らはまずやさしい日本語の作り方の原則を決め,Webで提供する内容を決めた.また書き換え作業にはやさしい日本語とニュース編集の知識が必要なことから日本語教師と記者の共同で進めることにした.方針の決定と並行して,日々の作業を円滑に進めるための支援システムを開発することにしたが,先行事例が乏しく明確にその仕様を決めることはできなかった.そこでプロトタイピングの手法\cite{SoftEng:book:2005}を採用し,とりあえず有効と思われる機能をできるだけ早く実装し,作業者の要望に応じて改善を加えることにした.以上の過程で作成したのが,日本語教師と記者の共同のニュースの書き換えを支援する「書き換えエディタ」と,ふりがな,辞書情報などを付与するための「読解補助情報エディタ」である.本稿では2つのエディタを総称してやさしい日本語のニュースの「制作支援システム」と呼ぶ.NHKでは制作支援システムのプロトタイプを2012年4月からの1年の公開実験期間中に利用し,不具合の修正,改良を加えた.そして書き換え作業が安定し,改修すべき項目が明らかになった2013年9月に本運用システムの開発を始め,2014年6月に新システムに移行した.このとき読解補助情報エディタに自動学習機能を加えたことにより,\ref{sec:systemMatome}節で詳述するように,制作支援システム全体は日々のやさしい日本語のニュースの制作の中で自然と利便性が増すようになった.やさしい日本語を使った情報提供は急速な広がりを見せている\footnote{\label{footnote:hirosaki}弘前大学の2015年4月の調査によると47都道府県すべてでやさしい日本語が活用されている.\\http://human.cc.hirosaki-u.ac.jp/kokugo/EJ1a.htm}.ほとんどの事例は佐藤らが公表している書き換え案文\footnote{脚注\ref{footnote:hirosaki}参照.}や庵らの文法\cite{iori:Book:2010,iori:Book:2011}など,いわゆる書物の知見を使ってほぼ人手で行われている.しかし今後やさしい日本語での情報提供を多様な人で効率的に進めるには,技術的な支援が必須になっていくと考えられる.実際,NEWSWEBEASYの制作フローを参考にしたやさしい日本語による自治体の情報提供のためのシステム開発が始まっている\cite{iori:book:2016}.本稿は類似した開発の参考になると考えている.以下,\ref{sec:kanren}章ではやさしい日本語の書き換えの関連研究を概観し,本研究の位置付けを示す.\ref{sec:service}章ではNEWSWEBEASYのサービス画面には,やさしい日本語のニュースのテキストとふりがななどの読解補助情報の2つの構成要素があることを述べる.\ref{NihongoGaiyou}章ではやさしい日本語の書き換え原則を概説し,当初の原則には網羅性の低さの問題があったことを指摘する.続く\ref{sec:taiseiToProcess}章では制作の体制およびプロセスを報告し,特に,やさしい日本語の書き換え原則の網羅性の低さをカバーするため,NEWSWEBEASYの制作を記者と日本語教師の共同作業で実施する体制を採ったことを述べる.さらに\ref{sec:systems}章では開発した「書き換えエディタ」と「読解補助情報エディタ」を説明する.書き換えエディタは,記者と日本語教師の共同作業特有の問題,書き換え原則の不十分さに対処していることを述べる.また読解補助情報エディタは,ふりがななどの読解補助情報を自動で推定し,これを修正した結果を自動学習する機能を持つことを説明する.続く\ref{sec:performance}章では,制作に関わる記者および日本語教師全員に対して実施したアンケートと書き換えエディタのログの分析を通じて2つのエディタの効果を示す. | |
V32N02-09 | 文書を取り扱う際,文中の単語同士の関係だけでなく,文と文の意味的な繋がりも理解しながら処理を進めていく必要がある.このような文と文の意味的な繋がりは談話関係と呼ばれ,時には接続語によって明示的に表現されている.隣接する節,文などのテキストスパンの間にある談話関係を認識するタスクは談話関係認識(DiscourseRelationRecognition,DRR)と呼ばれ数多く研究されている.DRRでは,隣接するテキストスパンはArg1文,Arg2文と定義され,Arg1文とArg2文の間の談話関係を表現するラベルを推定する.DRRで使われるデータセットの一つであるPennDiscourseTreebank\cite{prasad-etal-2008-penn,Webber-pdtb-3}では,談話関係の意味を表現するために,トップレベルでは4種類,セカンドレベルでは20種類ほどの階層化された談話関係ラベルが定義されている.この談話関係ラベルは,接続語に注釈することで接続語の多義性解消ができ,文書を入力とする要約などの下流タスクの精度が改善することがわかっており,接続語と談話関係ラベル両方が文書を取り扱うタスクで重要であることがわかる\cite{li-etal-2014-assessing,meyer-popescu-belis-2012-using}.DRRの中でも,接続語が省略されているテキストスパン間の談話関係ラベルを推測するタスクは暗黙的な談話関係認識(ImplicitDiscourseRelationRecognition,IDRR)\cite{10.5555/1690219.1690241}と呼ばれ,これも多数研究されている.図\ref{intro_png}にIDRRの例を示す.IDRRでは接続語がテキストスパン間に存在しないため,テキスト同士の意味的関係を推測する必要があり,接続語が存在するときよりも推測が難しい.さらに,談話関係ラベルの種類が多くなるほど精度が下がることが知られている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%Fig1\begin{figure}[b]\begin{center}\includegraphics{32-2ia8f01.eps}\end{center}\hangcaption{IDRRでは明示的な接続語が存在しないテキストスパン間(Arg1,Arg2)の談話関係を表現するラベル(Comparison.Concession)を予測する.本研究で提案するタスクISCRでは明示的な接続語が存在しないテキストスパン間(Arg1,Arg2)の談話関係を表現するラベル(Comparison.Concession)と接続語の組み合わせを予測する.}\label{intro_png}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%IDRRにおいて,特に難しいのが接続語の推定である\cite{DBLP:conf/aaai/WuCGLZS22}.接続語の種類は談話関係ラベルよりも多く,意味に曖昧さが含まれることもあることから,その推定精度はかなり低いことがわかっている.たとえ談話関係ラベルを推測できたとしても,談話関係ラベルは粗い談話関係のみを表現しているため,接続語が持つようなさらに細かい表現は不可能である.そして,談話関係ラベルと接続語は多対多の関係となっており,談話関係ラベルから一意に細かい意味を定めることはできない.例えば,表\ref{pdtb-label-list_intro}に示すExpansion.Instantiationという談話関係ラベルがアノテーションされる接続語にforexampleと\red{ontheonehand}がある.談話関係ラベルExpansion.Instantiationは,一方のテキストがある状況の説明をしているとき,他方のテキストがそれらの状況の1つ以上を説明する場合に使用されるため,談話関係ラベルの観点からするとどちらの接続語も同じ意味を持つと捉えられる.しかしながら,forexampleはある状況に即する例を示し,ontheonehandは別の例を示す接続語であり,細かい意味が異なる.このように同じ談話関係ラベルに属する接続語でも,それらの意味はそれぞれ異なっており,談話関係ラベルがこの細かな違いを表現することはできない.このような関係を持つことから,談話関係ラベルから接続語を一意に定めることはできない.実際,PDTB-3データセット\cite{Webber-pdtb-3}において,談話関係ラベルから接続語が一意に定めることができるものは21072サンプル中3サンプルほどしかなく,この談話関係ラベルと接続語の多対多の関係は一般的であることがわかる\footnote{付録にPDTB-3データセットにおける実際の数を記載している.}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%Table1\begin{table}\input{08table01.tex}%\hangcaption{PDTB-3データセットにおけるPDTB談話関係ラベルと接続語の例.複数の談話関係ラベルに対応する接続語は\textbf{太字}にしている.}\label{pdtb-label-list_intro}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%IDRRの先行研究において,接続語は談話関係ラベル推定の手掛かりとして使われることが多く,接続語そのものを推定することは重要視されていない.例えば,\citeA{jiang-etal-2023-global}の研究では,接続語と談話関係ラベルのセットを推定するものの,推定されうる接続語はあらかじめ決められている.\citeA{zhou-etal-2022-prompt-based}は,談話関係ラベルに最も対応する接続語のみを推定し,その接続語から談話関係ラベルを推定する手法を提案した.しかし,談話関係ラベルは,接続語に注釈を付けることで曖昧さを解消し,すべての談話関係を網羅的に表現することではじめて,翻訳などの下流タスクの精度向上に寄与する.したがって,談話関係ラベルだけでなく,より詳細な接続語も共に推定する必要がある.そこで本研究では,談話関係ラベルより詳細な談話関係の解析を目指して,談話関係ラベル付き接続語認識タスク(ImplicitSense-labeledConnectiveRecognition,ISCR)に取り組む.ISCRでは,テキストスパン間に暗黙的に存在する談話関係ラベルのみだけではなく接続語も予測する.このように談話関係ラベルと接続語両方を予測することで,談話関係ラベルと接続語の曖昧性を解消でき,より詳細な談話関係の解析が可能である.\red{また,ISCRはIDRRを拡張したタスクと捉えることができ,}IDRRと同様に分類タスクとして捉えることができる.しかし,クラス数は談話関係と接続語の組合せとなるため非常に多くなり,頻度のばらつきも大きくなる.よって,単純に分類器を適用するだけでは十分な性能が得られない.そこで,我々はISCRを分類タスクではなく,エンコーダモデルを使った生成タスクとして解くアプローチを採用した.\red{IDRRの代表的なデータセットである}PDTB-2,PDTB-3データセットを用いた実験結果から,従来の分類器を使うより,提案手法であるエンコーダ・モデルを使った生成手法がISCRの精度が向上することがわかった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% | |
V17N04-03 | 自然文検索や翻訳,レコメンデーションなどに使用可能な解析システムを実現した.2000年に(南1974;白井1995)を参考にして文節に強さを決めて,同じ強さの文節では,連用修飾格は直後の用言に,連体修飾格は直後の体言に係るという規則を用いて構文解析プログラムを開発した.しかし実際の構文構造は,文節を飛び越して係る場合が見受けられた.文法的な情報だけでは不十分だと考え,意味的な情報の導入を検討した結果,シソーラスを組み込んで用語同士の意味的な距離を測って,その距離によって係り先を決定する手法を開発した.この解析システムを自然文検索に用いる場合,同じ内容のことを言っているのにいくつもの書き方が許されていることからしばしば検索漏れが発生する.この異形式同内容に対応するため,用語の標準化,係り受けの正規化を実現した.さらに,翻訳などで使用することを考えて,文節意図(4.1で述べる)を把握しやすくするために係り受けとそれに続く付属語の並びをまとめた形で管理した.手作業で収集した辞書に手作業でいろいろな情報を付加して機能を実現するという方式で開発した.統計的な手法は用いていない.文末に試用サイトのURLを示したので試用していただきたい. | |
V10N02-07 | 本論文はフリーの特異値分解ツールSVDPACKC\cite{svdpackc}を紹介する.その利用方法を解説し,利用事例として多義語の曖昧性解消問題(以下,語義判別問題と呼ぶ)を扱う.情報検索ではベクトル空間モデルが主流である.そこでは文書とクエリを索引語ベクトルで表し,それらベクトル間の距離をコサイン尺度などで測ることで,クエリと最も近い文書を検索する.ベクトル空間モデルの問題点として,同義語(synonymy)と多義語(polysemy)の問題が指摘されている.同義語の問題とは,例えば,``car''というクエリから``automobile''を含む文書が検索できないこと.多義語の問題とは,例えば,ネットサーフィンについてのクエリ``surfing''に対して,波乗りに関する文書が検索されることである.これらの問題は文書のベクトルに索引語を当てることから生じている.そこでこれら問題の解決のために文書のベクトルを潜在的(latent)な概念に設定することが提案されており,そのような技術を潜在的意味インデキシング(LatentSemanticIndexing,以下LSIと略す)と呼んでいる.LSIの中心課題はどのようにして潜在的な概念に対応するベクトルを抽出するかである.その抽出手法にLSIでは特異値分解を利用する.具体的には索引語文書行列\(A\)に対して特異値分解を行い,その左特異ベクトル(\(AA^{T}\)の固有ベクトル)を固有値の大きい順に適当な数\(k\)だけ取りだし\footnote{ここでは索引語ベクトルを列ベクトルとしている.また\(A^{T}\)は\(A\)の転置行列を表す.},それらを潜在的な概念に対応するベクトルとする\cite{kita-ir}.LSIは魅力的な手法であるが,実際に試してみるには,特異値分解のプログラムが必要になる.低次元の特異値分解のプログラムは比較的簡単に作成できるが,現実の問題においては,高次元かつスパースな行列を扱わなくてはならない.このような場合,特異値分解のプログラムを作成するのはそれほど容易ではない.そこで本論文では,この特異値分解を行うためのツールSVDPACKCを紹介する.このツールによって高次元かつスパースな行列に対する特異値分解が行え,簡単にLSIを試すことができる.またLSIの情報検索以外の応用として,語義判別問題を取り上げSVDPACKCの利用例として紹介する.実験ではSENSEVAL2の日本語辞書タスク\cite{sen2}で出題された単語の中の動詞50単語を対象とした.LSIに交差検定を合わせて用いることで,最近傍法\cite{ishii}の精度を向上させることができた.また最近傍法をベースとした手法は,一部の単語に対して決定リスト\cite{Yarowsky1}やNaiveBayes\cite{ml-text}以上の正解率が得られることも確認できた. | |
V31N03-06 | DataAugmentation(以下,DA)は,機械学習における訓練データの数を増やすための手法であり,モデルを学習する際に,そのモデルの汎化性能を向上させるために利用される.一般的には,既存の訓練データに何らかの変換を施したデータを生成することによって,訓練データを水増しする.DAにおいてデータを変換する際には,モデルの学習に悪影響を与えない自然なデータを生成する必要がある.また,教師あり学習においてDAを用いるときは,ラベル付きデータのラベルは変換せずにデータのみに変換を施すのが一般的である.そのため,変換後のデータは,元のラベル付きデータのラベルと一貫性を保っている必要がある.しかし,自然言語処理で扱われるテキストデータは,画像データと比較して複雑な構造を持つため,データに変換を施すことで不自然なデータが生成されたり,ラベルとの一貫性が損なわれたりする可能性が高い.そのため,自然言語処理の分野において,DAを用いてモデルの汎化性能を向上させることは困難であるとされている.ただし,自然言語処理においても,いくつかの効果的なDAの手法が考案されている.我々はこれまでに,事前学習済みモデルであるBERT(BidirectionalEncoderRepresentationsfromTransformers)\cite{devlin-etal-2019-bert}のMaskedLanguageModelingを用いて,文に含まれる単語を別の単語に置換する手法\cite{takahagi2021da}と,文の係り受け関係が崩れないように文節の順序をシャッフルする手法\cite{takahagi2022da}の二つを提案した.また,いくつかの日本語の自然言語処理タスクを解く際に,これらの手法を用いて訓練データセットを拡張することで,モデルの性能が改善することを示した.本論文では,これらのDAの手法における変換方法や手法の効果を検証した実験の結果についてまとめる.また,これらの研究から得られた結果について改めて議論する.本論文は,本節を含めて9節から構成される.2節では,自然言語処理におけるDAの研究に対する概況について述べた後,代表的な手法や本研究の提案手法に関連する手法について概観する.3節では,本研究で提案する2つの手法の詳細と,各手法におけるデータ変換の手順について示す.4節では,提案手法を評価するために本論文で用いられるデータセット・ベンチマークについての概要を示す.5節では,本論文で利用される事前学習済みの言語モデルについて,その概要を示す.6節では,2つの提案手法を評価するために行われる実験の設定について示す.7節では,6節で示した設定で行った実験の結果について示す.8節では,実験で得られた結果をもとに,いくつかの観点から考察を行う.9節では,本論文で示した研究についての内容とその成果について総括した後に,今後の研究の展望について述べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S2 | |
V16N05-04 | \label{sec:introduction}テキスト中の含意関係や因果関係を理解することが,質問応答,情報抽出,複数文章要約などの自然言語処理の応用に役立つと知られている.これを実現するためには,例えば,動詞「洗う」と動詞句「きれいになる」が,何かを洗うという行為の結果としてその何かがきれいになるという因果関係である,といったような知識が必要である.本論文では,事態と事態の間にある関係を大規模にかつ機械的に獲得するための手法について述べ,この手法を用いた実験結果を示す.因果関係,時間関係,含意関係等の事態間関係を機械的に獲得するための研究が既に存在する~\cite[etc.]{Dekang-Lin,inui:DS03,chklovski,torisawa:NAACL,pekar:2006:HLT-NAACL06-Main,zanzotto:06}.これらの研究に共通する方法論は,特定の事態間関係を表現する語彙統語的なパターンを人手で作成し,このパターンと共起する事態対をテキストから抽出することで,特定の関係を満たす事態対を獲得するという方法である.なお,このように共起関係を利用するパターンを共起パターンと言うことにする.例えば``toVerb-XandthenVerb-Y''という時間的前後関係を表現する共起パターンを用いて,テキスト``tomarryandthendivorce''から動詞``marry''と動詞``divorce''が時間的前後関係にあるという知識を獲得できる~\cite{chklovski}.こうした手法では,大量の共起パターンを人手で作成することが困難であるため,多くの事態対と共起する傾向を持つような一般的な共起パターンを用意することで,少量の一般的な共起パターンを用いて特定の関係を満たす事態対を大量に獲得することが可能となる.しかし,このような一般的な共起パターンを用いて獲得した事態対には誤りが多いという傾向がある.この問題に対処するために,一般的な共起パターンを利用して獲得した事態間関係に別の手法を適用して誤った事態間関係を取り除く手法があり,代表的なものとして発見的な統計情報を用いる手法~\cite{chklovski,torisawa:NAACL,zanzotto:06}と曖昧性の問題を解消するために学習を行う方法~\cite{inui:DS03}がある.一方で,実体間関係を獲得する研究~\cite[etc.]{ravichandran:02,pantel2006}が共起パターンと獲得できる事例の性質を次のように報告している.\begin{itemize}\item多くの事例と共起するパターン(一般的なパターン)を利用して実体間関係知識を獲得すると精度が低い傾向がある.そのため,精度を向上させるためには誤った関係を除く別の手法が必要である.\item逆に少数の事例のみと共起するパターン(特殊なパターン)を利用することで高い精度で実体間関係を獲得することが可能になる.しかし,大量に実体間関係知識を獲得するためには大量の共起パターンを用意する必要がある.\item一般的な共起パターンと特殊な共起パターンを組み合わせて実体間関係を獲得することで高い精度で大量の実体間関係知識を獲得できる可能性がある.\end{itemize}これを受けてPantelとPennacchiotti~\cite{pantel2006}は,実体間関係を表現する共起パターンと実体対をブートストラップ的に獲得する手法を開発した.しかし,これと同様の手法は事態間関係獲得でまだ試みられていないため,この手法を事態間関係獲得に適用した場合に実体間関係獲得のように良い成果を上げるのかという点が明かではない.これらの実体間関係獲得の研究成果を事態間関係獲得に応用するために,PantelとPennacchiotti~\cite{pantel2006}のブートストラップ的実体間関係獲得手法を事態間関係獲得に適用させるように拡張し(\ref{ssec:argument_selection}〜\ref{ssec:pattern}節),拡張した手法が事態間関係獲得においても有効であるかを確認するために,日本語5億文Webコーパスから従来の手法と拡張した手法を用いて行為—結果関係にある事態間関係を獲得し,この結果を評価する(\ref{sec:experiment}節). | |
V18N02-04 | 日本語や中国語のように,明示的な単語境界がない言語においては,自動単語分割は自然言語処理の最初のタスクである.ほとんどの自然言語処理システムは,単語単位に依存しており,自動単語分割器はこれらの言語に対して非常に重要である.このような背景の下,人手による単語分割がなされた文からなるコーパスを構築する努力\cite{京都大学テキストコーパス・プロジェクト,Balanced.Corpus.of.Contemporary.Written.Japanese}とともに,経験的手法による自動単語分割器や同時に品詞を付与する形態素解析器の構築\cite{統計的言語モデルとN-best探索を用いた日本語形態素解析法,形態素クラスタリングによる形態素解析精度の向上,文字クラスモデルによる日本語単語分割,A.Stochastic.Finite-State.Word-Segmentation.Algorithm.for.Chinese,最大エントロピーモデルに基づく形態素解析.--未知語の問題の解決策--,Conditional.Random.Fields.を用いた日本語形態素解析}が試みられてきた.近年,自然言語処理が様々な分野に適用されている.特許開示書の自動翻訳,裁判記録の自動作成のための音声認識用の言語モデル作成,医療文章からの情報抽出などである.これらの応用では品詞は不要なので,本論文では品詞を付与しない単語分割を扱う.単語分割では,コーパス作成の労力を単語境界付与に集中することができるので,品詞付与が必要となる形態素解析を前提とするよりもより実用的であることが多い.現在の自動単語分割器は,一般的な分野のコーパスから構築されており,上述のような様々な分野の文を高い精度で単語分割できない.とりわけ,対象分野特有の単語や表現の周辺での精度の低下が著しい.これらの対象分野に特有の単語や表現は,処理すべき文において重要な情報を保持しているので,この問題は深刻である.このような問題を解決するためには,対象分野での単語分割精度の向上を図る必要がある.理想的方法は,ある程度の量の対象分野の文を,一般分野のコーパス作成と同じ単語分割基準に沿って人手で単語分割し,自動単語分割器を再学習することである.しかしながら,多くの実際の状況では,人による利用を想定した辞書が対象分野の唯一の追加的言語資源である.これらの見出し語は,単語分割基準とは無関係に選定されており,単語分割基準に照らすと単語ではないことが多い.本論文では,これらの見出し語のように,内部の単語分割情報が与えられておらず,かつ両端が単語境界であるという保証がない文字列を複合語と呼ぶ.本論文では,単語分割済みコーパスに加えて,複合語辞書を参照する自動分割器を提案する.ほとんどの複合語は両端が単語境界であり,内部に単語分割基準に従って単語境界情報を付与することで単語列に変換することが可能である.このために必要な人的コストは,適用分野の単語分割済みコーパスの作成に比べて非常に少ない.本論文ではさらに,単語列辞書を参照し精度向上を図る自動単語分割器を提案する.提案手法を用いることにより,一般に販売されている辞書(複合語辞書)を参照することで,付加的な人的コストなしに,ある分野における自動単語分割の精度を向上させることができる.また,単語列辞書を参照する機能により,コーパスを準備するよりもはるかに低い人的コストでさらなる精度向上を実現することが可能になる. | |
V11N05-06 | 言い換えに関する研究\cite{sato_ronbun_iikae,yamamoto_nlp2001ws_true,murata_paraphrase_true,inui_iikae_tutorial}は平易文生成,要約,質問応答\cite{murata2000_1_nl,murata_qa_ieice_kaisetu}と多岐の分野において重要なものであるが,本稿では言い換えの研究の統一的モデルとして,尺度に基づく変形による手法を示し\footnote{本稿は,文献\cite{murata_nlp2001ws_true}に基づいて作成したものである.本研究の主眼になっている尺度に基づく変形については,文献\cite{murata2000_1_nl}の脚注6においても述べている.},このモデルによって種々の言い換えを統一的に扱えることを示す.このモデルでは,多様な言い換えの問題の違いを,尺度で表現することで,言い換えを統一的に扱えるようになっている.このモデルには以下の利点が存在する.\begin{itemize}\itemシステム作成の効率化本稿の言い換えの統一的モデルでは,変形の尺度や変形規則を他のものに取り替えるだけで多様な言い換えを実現することができる.システム作成では,変形の尺度や変形規則以外のモジュールは一度作成してしまえば,多様な言い換えシステムで利用することができる.すなわち,システム作成のコストを軽減できるのである.また,変形規則も複数の言い換えシステムで共用できる場合があり,その場合もシステム作成のコストを軽減できる.\item言い換えの原理の理解容易性本稿の言い換えの統一的モデルでは,後で述べるように変形部と評価部という二つの構成要素からなる単純なモデルだけで,多種多様な言い換えを扱うことができるようになっている.本稿のモデルは単純で理解しやすく,大雑把に言い換えをどのようにすればできるかを考えるには,このモデルを基本におくと考えやすい.\item多様な言い換えの創出本稿の言い換えの統一的モデルでは,変形の尺度を変更することで,多様な言い換えを実現することができる.すなわち,尺度のみを考察し,新たな尺度を考えたときには,その尺度で変形を行なう新たな言い換えシステムを考えたことと等価になる.尺度のみを考察し,新たな尺度を考案することは比較的容易であるので,本稿の統一的モデルは,多様な新たな言い換えを思いつくことにも役に立つのである.\end{itemize}本稿ではまず,上述のような優れた利点を持つ言い換えの統一的モデルについて説明する.その後で,この統一的モデルに基づいて試作した言い換えシステムを紹介する.紹介する言い換えシステムは,文内圧縮システム,推敲システム,文章語口語変換システム,RL発音回避システム,質問応答システムである.これら多様なシステムを本稿の統一的モデルで具体的に作成できることを示すことで,本稿の統一的モデルで実際に多様な言い換えの問題を扱えることを示す. | |
V04N02-02 | 自然言語処理における重要な問題の一つに,形態\hspace{-0.1mm}$\cdot$\hspace{-0.1mm}構文\hspace{-0.1mm}$\cdot$\hspace{-0.1mm}意味といった言語に関する様々な曖昧性の問題がある.一般に,意味的な曖昧性を解消するためには,意味に関するさまざまな情報を規則化し記述しておく必要がある.しかし,意味は文脈に依存して決まるため,あらゆる文脈に対応できるすべての意味を予め規則として網羅的に記述しておくことは難しい.CollinsEnglishDictionary,Rogetのシソーラス,分類語彙表など,機械可読辞書として電子化されたものがあるが,辞書の記述は語の定義が言語学者によりまちまちであるため,現実の文に対処できる有用な意味情報を得ることは難しい.そこで,意味的な曖昧性を解消するためには,解消手法と同時に,文脈に依存した情報をどのように獲得するかが重要となる.こうしたことを背景に,最近コーパスから意味的に近い語群の情報や,共起関係の情報などを抽出する研究が盛んに行なわれている\cite[など]{Church1991,Hindle1990,Tsujii1992,Sekine1992,Smadja1993}.これらのアプローチは知識獲得のためのアルゴリズムを提案することで,コーパスからその分野に依存した知識を自動的に抽出するというものである.本稿では,単一言語コーパスから抽出した動詞の語義情報を利用し,文中に含まれる多義語の曖昧性を解消する手法について述べる.2章では,関連した研究について述べる.3章ではコーパスから多義解消に必要な情報を抽出する手法について述べる.4章では得られた情報を基に,文中に含まれる多義語の曖昧性を解消する手法について述べる.5章では丹羽らの提案した文脈ベクトルを用いた名詞の多義解消手法\cite{Niwa1994}を動詞に適用した結果と比較することで,本手法の有効性を検証する. | |
V30N02-19 | label{sec:intro}対話において,話し手の発話に対して聞き手が質問や確認を行うことで,モノローグにおいては表出しづらい情報を引き出すことが可能である.本研究では,対話のこのような機能に着目し,特定分野の技能者からその技能者が持つコツをインタビューによって引き出すという設定を考え,そうしたインタビュー対話のコーパス構築に取り組む.なお,本稿ではコツを以下のように定義する.\begin{itemize}\item[]\begin{description}\item[コツ]自発的には言語化しづらい,特定ドメインに関する深い知識,感覚\end{description}\end{itemize}管見の限り,インタビュー対話によって技能者からコツを引き出すという目的で構築されたコーパスは存在しない.このようなコーパスの構築は,近年の産業界において課題となっている熟練者の技能伝承を支援する対話システムの開発に貢献する.しかし,産業界の技術者の対話を直接収集し,大規模なデータを作ることは難しい.そこで,比較的多くの人がコツを有する料理に着目する\footnote{近年,スマートスピーカーが普及し,料理のレシピやコツをスマートスピーカーに対話的に質問する場面も増えてきている.そのため,料理ドメインのインタビュー対話を収集することは,そういったアプリケーションの開発にも貢献することが期待される.}.本研究では,オンラインビデオ対話において料理の技能者からインタビュアーが特定の料理の調理方法を聞き出すという設定で,\textbf{料理インタビュー対話コーパス(CIDC:CulinaryInterviewDialogueCorpus)}を構築した.CIDCは,約6.4万発話の音声,その書き起こし,オンラインビデオ通話の画面映像のデータ(図\ref{fig:example})と対話者の情報,技能者から収集した料理に関する情報,インタビュアーが事前に考えた質問内容をまとめたメタデータから構成される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[t]\begin{center}\includegraphics{30-2ia18f1.pdf}\end{center}\caption{料理インタビューコーパスの例.発話者の列の``E''は技能者を,``I''はインタビュアーを表す.}\label{fig:example}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%インタビュー対話の収集にオンラインビデオ通話を利用したのは,視覚的情報が共有できる対面対話に近い環境で,時間的,金銭的コストを抑えた対話の収集が可能となるためである.日本語を対象とした既存の話し言葉対話コーパスのほとんどは,電話会話を使用したものか\cite{den-fry-2000},参加者を実際に集め,その様子を録音・録画したもの\cite{maekawa-2004,fujimura-et-al-2012,den-enomoto-2014,koiso-et-al-2019}である.しかしながら,電話会話の場合は視覚的情報の共有ができないため,指示語の使用が減少する等,対面対話とは性質が大きく異なり,参加者をスタジオ等に集めて対話を収録する場合は時間的・金銭的コストがかかる.現在,COVID-19の世界的感染拡大の中で,以前はオンラインビデオ通話を利用していなかった人々も%Zoom,GoogleMeet,MicrosoftTeamsのような様々なウェブ会議システムを使用するようになった.オンラインビデオ対話であれば,参加者はいつも使っている自身の機器を用いて自宅から対話に参加することが可能である.さらに,ウェブ会議システムを使用することで,参加者はお互いの表情を見つつ,画面共有機能で視覚的文脈を共有することが可能となり,電話会話よりもより通常の対話に近いコミュニケーションを行うことができる.通信の遅延などのずれは生じうるものの,オンラインビデオ対話はこれらの視覚的情報を含めて対話の記録を行うことができる.本稿では,技能者からコツを引き出すインタビュー対話コーパスであるCIDCの構築方法とその詳細について述べる.\ref{sec:related}節で関連研究について述べたのち,\ref{sec:collection}節ではインタビュー対話の収集方法と書き起こしの方法について述べる.\ref{sec:statistics}節ではCIDCの統計と特徴について述べる.そして,\ref{sec:conclusion}節では全体をまとめ,CIDCの具体的な利用可能性について述べる.なお,CIDCは\url{https://nlp.ist.i.kyoto-u.ac.jp/?CIDC}にて公開中である\footnote{タスク実施前に全ての参加者には,タスクの参加による身体的な危険が伴うことはないということを説明し,(i)インタビュー対話の映像データ,(ii)インタビュー対話の音声データ(文字化情報も含む),(iii)参加者の役割・性別・年齢(10歳刻み)・使用するマイクの情報,(iv)インタビュー収録前に実施する事前調査の回答結果,(v)インタビュー収録後に実施するアンケートの回答結果を関連づけたデータベースを作成し,あらゆる研究者・研究機関が研究および研究成果の公表に用いることができるよう,利用目的を学術研究に限定した上で公開することに関して同意を得ている.また,タスク終了後であっても,この同意を撤回する権利を有することに関しても事前に説明している.}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% | |
V06N07-05 | 日本語や中国語等においては,単語間に空白を入れる習慣がないため,これらの言語の計算機処理では,まず文を単語列に分割する処理が必要となる.単語分割は日本語処理における最も基本的かつ重要な技術であり,精度・速度ともに高い水準の性能が要求される.単語分割と品詞付けから成る日本語形態素解析法の多くは,単語辞書の登録語との照合を行い,複数の形態素解析候補がある場合はヒューリスティクス(heuristics)を用いて候補間の順位付けを行うというものである.しかし,実際に,辞書中にすべての単語を網羅するのは不可能であるため,未知語(辞書未登録語)という重大な問題が生ずる.また,ヒューリスティクスでは扱うことのできない例外的な言語現象の存在や,例外現象に対処するための規則の複雑化が問題となる.その結果,一部の規則修正が全体に与える影響を人間が把握することが困難になり,規則の保守・管理に大きな労力を必要とすることとなる.一方,英語の品詞付けでは,タグ付きコーパスを用いた確率的手法が確立されている\cite{Church88,Cutting92,Charniak93}.言語表現の出現頻度に基づく確率的言語モデルを用いる方法には,対象領域のテキストからモデルのパラメータを学習する方法が存在するという大きな利点があり,タグ付きコーパスが整備されている領域では,実験的に最も高い精度が報告されている.英語の正書法は単語間で分かち書きするため,これらの手法は,単語モデル(word-basedmodel)を用いている.英語の品詞付けは,日本語の単語分割と技術的に似ているため,英語の品詞付け手法の多くは日本語の単語分割にも適用可能となる.しかし,単語モデルを日本語に適用するためには,いくつかの問題がある.日本語では,未知語の存在が単語の同定に影響を与える上,分割が曖昧で,異なる長さの多くの分割候補があり,それらの候補を比較する必要がある\cite{Yamamoto97}.このため,単語モデルを用いるためには,分割候補の確率を正規化する必要が生じる.以上の点から,我々は文字モデル(character-basedmodel)に基づく単語分割法を提案した\cite{Oda99a,Oda99b}.文字モデルは,未知語モデルとしても機能するために,学習データに含まれていない単語に対しても対応が可能である.本論文では,より頑健な単語分割モデルを構築するために,日本語文字のクラスタリング(グループ化)を行うことを考える.日本語漢字は表意文字であり,一文字が何らかの意味を担っている.したがって,何らかの基準によりいくつかのグループ(クラス)に分類することが可能である.文献\cite{Yamamoto97}で示されている文字モデルの利点に加え,文字クラスモデルでは,文字モデルよりもさらにモデルのパラメータ数を少なくすることができるという大きな利点がある.したがって,より頑健なモデルである文字クラスモデルを単語分割へ適用した場合,未知語に対する頑健性がさらに向上すると考えられる.文字とクラスの対応関係を得るためのクラスタリング処理には,クロス・バリデーション法(cross-validation)の適用により求められる平均クロス・エントロピーを言語モデルの評価基準としたクラスタリング法\cite{Mori97}を用いる.平均クロス・エントロピーを評価基準として求められた単語bigramクラスモデルは,単語bigramモデルよりも予測力という点において優れていることが実験的に示されている\cite{Mori97,Mori98}.本論文では,この方法を日本語文字のクラスタリングに適用し,文字クラスモデルを構築する.以下,本論文では,文字クラスモデルに基づく新しい単語分割手法を提案する.まず,基本となる文字モデルに基づく単語分割モデルについて簡単に説明する.さらに,類似した文字を自動的にグループ化するクラス分類法について説明し,文字クラスモデルに基づいた単語分割モデルを提案する.ADD(ATRDialogueDatabase)コーパスを用いた評価実験において,文字モデルを用いた場合と,文字クラスモデルを用いた場合の単語分割精度を比較し,提案した手法の評価を行う. | |
V17N01-01 | \label{sec:introduction}機械翻訳システムの研究開発において,システムの翻訳品質の評価は重要なプロセスの一つである.人手による翻訳品質評価では,機械翻訳システムによる翻訳(以下,{\MT})に対して{\ADE}と{\FLU}の二つの側面から評価値が付与される\cite{Sumita05}.{\ADE}は,原文によって読者に伝わる情報のうちどの程度が翻訳文によって伝わるかを測る尺度である.一方,{\FLU}は,翻訳文が目的言語の文としてどの程度流暢(自然)であるかを原文とは独立に測る尺度である.本研究では,対象を英日機械翻訳に絞り,まず,現状の一般的な英日機械翻訳システムの翻訳品質を把握するために,市販されている英日機械翻訳システムで得られた{\MT}を{\ADE}と{\FLU}の側面から評価した.その結果,\ref{sec:experiment:setting}節で述べるように,{\ADE}の評価値に比べて{\FLU}の評価値のほうが低く,{\MT}の{\FLU}を向上させることがより重要な課題であることが判明した.このため,特に{\FLU}の向上に重点を置いたシステム改善を支援することを目的として,{\FLU}の評価の効率化を図るための自動評価手法を提案する.{\FLU}を低下させる要因はいくつか考えられるが,その一つに不自然な逐語訳がある.辞書と規則に基づく方式の機械翻訳システムは,現状では,逐語訳をすべきでない場合でもそのような訳し方をすることがある.このため,{\MT}には不自然な逐語訳が含まれている可能性が高い.従って,{\MT}と人間による翻訳(以下,{\HUM})における逐語訳の違いを捉えることによって{\MT}の{\FLU}(の一部)の自動評価が可能になると期待できる.既存の自動評価手法の中には,機械学習によって識別器を構築する手法\cite{Oliver01,Kulesza04,Gamon05,Tanaka08}がある.この手法では,良い翻訳とは{\HUM}に近いものであり,そうでない翻訳とは{\MT}に近いものであると仮定される.このような仮定の下で,対訳コーパスにおける{\HUM}(正例)と,原文を機械翻訳システムで翻訳して得られる{\MT}(負例)とを訓練事例として識別器が構築される.この識別器を用いて,評価対象の{\MT}から抽出した素性に基づいて,その{\MT}が良い翻訳であるかそうでないかの二値判定が行なわれる.本研究では,このような先行研究に倣い,{\HUM}と{\MT}を訓練事例とした機械学習によって構築した識別器を用いて自動評価を行なう.このような自動評価手法においては,{\HUM}での逐語訳と{\MT}での逐語訳の違いを適切に捉えることができる手がかりを機械学習で用いる素性として選ぶ必要がある.本稿では,このような素性として{\align}結果を利用することを提案する.具体的には,\ref{sec:feats}節で述べるように,英文と{\HUM}の間,および英文と{\MT}の間で{\align}を行ない,その結果を機械学習のための素性とする.従来,{\FLU}の評価には$N$グラムが用いられることが多いが,{\HUM}と{\MT}での逐語訳の違いを捉えるには$N$グラムよりも{\align}結果を利用するほうが適切であると考えられる.検証実験の結果,提案手法によってシステムレベルでの自動評価が可能であることが示唆された.また,{\SVM}\cite{Vapnik98}による機械学習で各素性に付与される重みに基づいて{\MT}に特徴的な素性を特定できるため,このような素性を含む文を観察することによって文レベルでの{\MT}の特徴分析を行なうこともできる. | |
V28N02-12 | 機械学習モデルは,モデルの構造やその最適化手法に加え,実際に学習する事例集合によって性能と挙動が特徴づけられる.それを踏まえ,ある訓練事例が学習後のモデルに与える影響の解析は,これまで広く研究がなされてきた\cite{cook1977detection,koh17understanding,zhang2018trust,hara19dataclean}.事例ごとの影響を正しく把握することで,学習後のモデルの挙動や予測を解釈することに役に立つほか,事例の貢献度を考慮したデータフィルタリングなどの応用にもつながる.特に,自然言語処理などの分野で幅広く使われているディープニューラルネットワークモデルについては,性能の向上が著しい\cite{devlin2019bert}.その一方で,学習後のモデルの挙動や特性を理解することが極めて困難であるブラックボックス性が応用上の課題となっており,データに紐付けて説明を行うアプローチはその解決手段の一つとして有望視されている\cite{koh17understanding,plumb2018example,ouchi2020instance}.この事例ごとの影響値の最も素朴な計算方法は,あるモデルをデータセット全体で訓練し,その後同様の訓練手続きを一事例だけ除いたデータセットの上でも実施することである.このような操作(leave-one-outretraining)で作成した2つのモデルの予測の差を比較することは,除外対象の一事例の影響値を計測することに概ね相当する.しかし,この方法は解析したい事例ごとにモデルを再訓練して保存する必要があり,データセット全体への解析や解釈などを行う際には,非常に長い計算時間とモデルの保存容量を要する.例えば,予測に最も寄与した事例をユーザーに提示することでモデルの解釈性を高めたい場合を考える.このとき,訓練事例数$|D|$に依存した回数の訓練と個数のモデルの保存が予め必要となる.さらに,実際に推論する際にも,事例ごとの$|D|$回分の推論のたびに新たにモデルを読み込む必要があり,BERT\cite{devlin2019bert}のような巨大なモデルの場合,読み込みにも無視できない時間がかかる.この単純なleave-one-outの再訓練を行う他に,影響値を近似的に推定する手法がこれまで提案されてきたが\cite{koh17understanding,hara19dataclean},計算量の課題や適用可能なモデルの制約などが依然として存在するため,実用性を大きく損なっている.ニューラルネットワークを用いた実験も行われているが,典型的にモデルサイズが非常に小さく\cite{koh17understanding,hara19dataclean},また,より大きいモデルに適用を試みた実験でも上述の計算量の課題が報告されている\cite{han2020explaining}.そこで,本論文では,訓練事例の影響の計算を巨大なニューラルネットワークモデルにおいても実用的にするため,新たな推定手法\emph{turn-overdropout}を提案する.turn-overdropoutはその名の通りdropout\cite{srivastava14dropout,hinton12dropout}を活用した手法であり,dropoutを事例ごとに決定的なサブネットワークのみを訓練する手法として新たに定式化したものである.訓練終了後には,各事例について,影響を受けていないサブネットワークと受けているサブネットワークの両方で予測が行えるため,その差分から事例ごとの影響を近似的に推定することができる.この推定では,ニューラルネットワークの前向き計算による予測を2回実行するだけであり,\cite{hara19dataclean}と\cite{koh17understanding}の手法に比べて大幅に高速である.また,訓練に関しても,通常通りに一つのデータセット上で訓練を一度行ったモデルを用意するだけで,そこに含まれる全事例に関して推定を行うことができ,再訓練も複数のモデルの保存も必要がない.本論文では,先行研究に対する計算量における優位性を議論するとともに,文書分類タスクと画像物体認識のタスクにおいて推定の有効性を示す実験を行った.提案手法を文書分類と画像物体認識におけるBERT\cite{devlin2019bert}およびVGGNet\cite{simonyan15vgg}に適用し訓練事例への紐付けを行うことで,解釈性の高い形でモデルの予測を解析できることを示した.また,サブネットワークの学習曲線の解析やデータフィルタリングの実験を通して,提案手法が事例間の関係性を適切に捉えていることを定量的に示した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% | |
V26N02-02 | テキストのリーダビリティ評価は,人間の作文の評価だけでなく,機械による文生成の評価においても重要な問題である.日本語のリーダビリティ研究は表記や語彙の難易度など表層的な情報に基づいて,テキストの難易度の評価モデルとして研究が進められてきた\cite{渡邉-2017,李-2011,柴崎-2010,佐藤-2011}.しかしながら,既存のモデルのほとんどは読み手を陽に仮定していない.リーダビリティは,眼球運動に基づく読み時間により,直接的に評価できる.筆者らは視線走査装置に基づいた読み時間データを整備するだけでなく,統語・意味分類や情報構造との関連について調査してきた.単語や文節の統語・意味分類が読み時間にどのように影響を及ぼすかだけでなく,情報伝達に必要な情報の新旧と読み時間の関連について分析を進めてきた.\modified{情報の伝達においては,複数の述語を含む複文や重文を用いることが考えられる.}複文や重文は節境界を有し,節境界においては読み時間が変化するという先行研究がある.英語においては\cite{Just-1980,Rayner-2000}が,句末や節末において読み時間が長くなるwrap-upeffectと呼ばれる傾向について議論している.しかしながら,主辞が後置される日本語においては,補部が主辞より先に提示されることにより,主辞を予測することができ読み時間が短くなることが考えられる.本稿では,日本語の節境界が読み時間に対してどのような影響を与えるのかについて,探索的データ分析により調査する.具体的には,『現代日本語書き言葉均衡コーパス』(以下BCCWJ)\cite{Maekawa-2014-LRE}の読み時間データBCCWJ-EyeTrack\cite{Asahara-2019d}に対して,節境界アノテーションBCCWJ-ToriClause\cite{matsumoto-2018}を重ね合わせたものを,節境界情報を固定要因としたベイジアン線形混合モデル\cite{Sorensen-2016}を用いて検討を行う.分析においては詳細な節分類について読み時間がどう異なるかについて検討した.例えば,名詞修飾節においては,補足語修飾節(関係節ウチの関係)が,内容節(関係節ソトの関係)よりも節末において読み時間が短くなる傾向が見られた.補足節においては,名詞節の節末が,引用節の節末よりも読み時間が短くなる傾向が見られた.また,副詞節においては,因果関係節と付帯状況節とで読み時間のふるまいの違いが確認できた.これらの分析結果は,従前の言語処理において研究されてきたリーダビリティ評価において,\modified{眼球運動に基づく読み時間の評価の観点から}節レベルの統語構造に対して実証的な根拠を与えるものになる.以下,2節では関連研究について示す.3節では利用したデータの概要について示す.各データの詳細については元論文を参照されたい.4節では統計処理手法について述べ,5節で結果と考察を示す.最後にまとめと今後の研究の方向性について示す. | |
V18N02-02 | 知的で高度な言語処理を実現するには,辞書,シソーラス,コーパスなどの言語資源の整備・構築が欠かせない.一方,実際のテキストに対して,言語資源を活用するときにボトルネックとなるのが,表層表現が実テキストと言語資源では一致しない問題である.例えば,「スパゲティー」には,「スパゲッティ」「スパゲティ」「スパゲッテー」などの異表記があるが,完全一致の文字列マッチングでは,これらの異表記から言語資源に含まれるエントリ(例えば「スパゲティー」)を引き出すことができない.ウェブなどの大規模かつ統制されていないテキストには,大量の異表記や表記誤りが含まれると考えられ,これらの実テキストに対して言語処理を頑健に適用するには,言語資源とテキストを柔軟にマッチングさせる技術が必要である.文字列を標準的な表記に変換してからマッチングさせる手法として,ステミング~\cite{Porter:80},レマタイゼーション~\cite{Okazaki:08,Jongejan:09},スペル訂正~\cite{Brill:00,Ahmad:05,Li:06,Chen:07},人名表記の照合~\cite{Takahashi:95},カタカナ異表記の生成及び統一~\cite{獅々堀:94},等が代表的である.これらの研究に共通するのは,与えられた文字列から標準形に変換するための文字列書き換え規則を,人手,マイニング,もしくは機械学習で獲得していることである.これらの研究では,語幹やカタカナ異表記など,異表記のタイプに特化した文字列書き換え規則を獲得することに,重点が置かれる.本論文では,より一般的なタスク設定として,与えられた文字列に似ている文字列を,データベースの中から見つけ出すタスク({\bf類似文字列検索})を考える.本論文では,「文字列の集合$V$の中で,検索クエリ文字列$x$と類似度が$\alpha$以上の文字列を全て見つけ出す操作」を,類似文字列検索と定義する.この操作は,$V$の部分集合$\mathcal{Y}_{x,\alpha}$を求める問題として記述できる.\begin{equation}\mathcal{Y}_{x,\alpha}=\{y\inV\bigm|{\rmsim}(x,y)\geq\alpha\}\label{equ:approximate-string-retrieval}\end{equation}ただし,${\rmsim}(x,y)$は文字列$x$と$y$の類似度を与える関数({\bf類似度関数})である.この問題の単純な解法は,検索クエリ文字列$x$が与えられる度に,文字列の類似度を総当たりで$|V|$回計算することである.文字列集合の要素数$|V|$が小さいときには,総当たりで解を求めることも可能だが,文字列集合が膨大(例えば数百万オーダー以上の要素数)になると,実用的な時間で解けなくなる.本論文では,自然言語処理でよく用いられる類似度関数であるコサイン係数,ジャッカード係数,ダイス係数,オーバーラップ係数に対して,式\ref{equ:approximate-string-retrieval}の簡潔かつ高速なアルゴリズムを提案する.本論文の貢献は,以下の2点に集約される.\begin{enumerate}\itemまず,類似文字列検索における必要十分条件及び必要条件を導出し,式\ref{equ:approximate-string-retrieval}が転置リストにおける{\bf$\tau$オーバーラップ問題}~\cite{Sarawagi:04}として正確に解けることを示す.次に,$\tau$オーバーラップ問題の効率的な解法として,{\bfCPMerge}アルゴリズムを提案する.このアルゴリズムは,$\tau$オーバーラップ問題の解となり得る文字列の数をできるだけコンパクトに保つ特徴がある.提案手法の実装は非常に容易であり,C++で実装したライブラリ\footnote{SimString:http://www.chokkan.org/software/simstring/}を公開している.\item提案手法の優位性を示すため,英語の人名,日本語の単語,生命医学分野の固有表現を文字列データとして,類似文字列検索の性能を評価する.実験では,類似文字列検索の最近の手法であるLocalitySensitiveHashing(LSH)~\cite{Andoni:08},SkipMerge,DivideSkip~\cite{Li:08}等と提案手法を比較する.実験結果では,提案手法が全てのデータセットにおいて,最も高速かつ正確に文字列を検索できることが示される.\end{enumerate}本論文の構成は以下の通りである.次節では,類似文字列検索の必要十分条件,必要条件を導出し,式\ref{equ:approximate-string-retrieval}が$\tau$オーバーラップ問題として正確に解けることを示す.第\ref{sec:method}節では,本論文が提案するデータ構造,及び$\tau$オーバーラップ問題の効率的なアルゴリズムを説明する.第\ref{sec:evaluation}節で,評価実験とその結果を報告する.第\ref{sec:related-work}節では,類似文字列検索の関連研究をまとめる.第\ref{sec:conclusion}節で,本論文の結論を述べる. | |
V31N02-15 | \label{sec:intro}言語生成における最も一般的な解の探索手法としてビームサーチが挙げられる.ビーム幅を大きくすることでより広範囲の解候補探索が可能となるが,ビーム幅を大きくすると生成品質が低下するという問題が知られている\cite{koehn-knowles-2017-six,yang-etal-2018-breaking,pmlr-v80-ott18a,stahlberg-byrne-2019-nmt}.この問題への対処法として,$N$ベスト出力のリランキングや最小ベイズ復号法\cite{muller-sennrich-2021-understanding,eikema-aziz-2022-sampling}が研究されてきた\cite{fernandes-etal-2022-quality}.リランキング手法はデコード方法のみを変更するため,最小ベイズ復号法のようなモデル学習を伴う方法と比べ学習コストが低く,学習済みモデルに容易に適用できる.リランキング手法は$N$ベスト出力の中により品質の高い仮説が存在することを前提とし,品質が高いと推定された仮説を選択している.そのため,リランキング手法は部分的に高品質であるが文全体としては不完全な仮説を活用することが困難である.提案手法では,このような高品質な断片を識別し,語彙制約付きデコーディング手法により統合することで高品質な出力を生成する.具体的には,まず言語生成モデルにビームサーチを適用することで$N$ベストの出力文を生成した後,$N$ベスト出力に含まれる各トークンが最終出力に含まれるべきか否かの正誤予測を行い,誤りと予測されたトークンを負の制約,正しいと予測されたトークンを正の制約とする.そして,入力文を再度言語生成モデルに入力し,語彙制約を適用したデコードを行うことで,予測された誤りを含まず,正解と期待されるトークンを含んだ出力文を得る.提案手法は言語生成モデルの訓練用コーパスが存在するあらゆる言語生成タスクに適用でき,高い汎用性を持つ.提案手法の有効性を検証するために,言い換え生成タスク\cite{takayama-etal-2021-direct-direct},要約タスク\cite{see-etal-2017-get,hermann-etal-cnndm,narayan-etal-2018-dont},翻訳タスク\cite{kocmi-etal-2022-findings},制約付きテキスト生成タスク\cite{lin-etal-2020-commongen}という$4$つの言語生成タスクにおける評価実験を実施した.その結果,言い換え生成,要約,翻訳において,$N$ベスト出力の中には文全体としては不完全であっても,部分的に品質の高い断片が存在するという我々の仮定が成立することが確認された.さらに,妥当な出力が定まりやすい,言い換え生成,要約において提案手法が強力なリランキング手法を上回ることが確認された\footnote{実験に用いたコードは以下で公開している.\url{https://github.com/mr0223/self-ensemble}}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% | |
V04N02-03 | \newenvironment{indention}[1]{}{}照応現象の一つに,文章中に現れていないがすでに言及されたことに関係する事物を間接的に指示する間接照応という用法がある\cite{yamanashi92}.たとえば,「家がある.屋根は白い.」の場合,「屋根」は前文の「家」の屋根である.間接照応の研究はこれまで自然言語処理においてあまり行なわれていなかったが\footnote{文献\cite{Tanaka1}では化学の世界に限定して名詞「体積」の間接照応の解析をしているが,一般の名詞すべてに対して間接照応の解析を行なっている研究はない.},文章の結束性の把握や意味理解において重要な問題である.そこで,我々は二つの名詞間の関係に関する知識を用いて日本語文章上でこの問題を解決することを試みた.間接照応の照応詞としては名詞句,指示詞,ゼロ代名詞が考えられるが,本論文では,名詞句が照応詞である場合の間接照応だけを対象とする. | |
V06N07-06 | 機械翻訳等の自然言語処理システムでの品質向上におけるボトルネックとして構文解析の問題があり,解析する文が長くなると係り受け処理で解析を誤る場合がある.このため,長文を意識した構文解析の品質向上に向け各種研究が行われているが,依然として未解決のまま残されている課題がある.そのような課題の一つに連体形形容詞に関する係りがある.この課題に対し,我々は,連体形形容詞周りの「が」格,「の」格の係り決定ルールを提案し,技術文でよく利用される形容詞に対して約97%の精度で係りを特定できることを示した(菊池,伊東~1999).しかし,そこで対象とした形容詞は技術文での出現頻度を考慮して選択したので,抽出したルールが形容詞全般に対しても有効かどうか,また,同様な考え方が形容詞全般に対しても成り立つのかどうかについては検証できていなかった.そこで,本論文では,分析対象を広げ,抽出済みルールが形容詞全般に対して妥当なものであるかどうかを検証し,必要に応じてルールの拡張を行う.用語のスパース性のため形容詞全般にルールが適用可能かどうかを調べることは\mbox{困難である.}そのため,分析対象語のカバー範囲を明確にする必要がある.そこで,国立国語研究所で行われた分析体系(西尾~1972)に基づいて,形容詞を分類し,その分類体系を網羅するように各形容詞を選び,その係りの振る舞いを調べることとした.このような分析を通し,若干のルール拡張を行い,最終的に今回拡張した形容詞群に対しても,約95%という高い精度で係りを特定できることを示す.第2章では,我々がこれまでに提案した係りに関するルールを概説し,その問題点を\mbox{整理する.}第3章では,国立国語研究所での研究に基づき形容詞全体を分類整理する尺度を定め,多様なタイプの形容詞を分析対象として抽出可能とする.また,本論文で利用するコーパスについても説明する.第4章では形容詞無依存ルールと形容詞依存ルールに分けて検証し,その精度とルールの拡張について述べる.また,今回までに,7000件を越えるデータが蓄積されたので,直感的に決定していた形容詞無依存ルールのルール間の適用順位についても検証する.第5章では,対象語の拡張に伴い,新たに検出できたルールについて説明を行い,全ルールを適用した後に得られる各形容詞の係りのDefault属性について説明する.第6章では,それらを適用した結果の係り解釈の精度と現行システムとの比較を行う. | |
V31N02-08 | 手順書は調理や家具の組み立て等,幅広いタスクを実行するための手順のリストを提供する.手順は複数文から構成されることもあり,各文には通常一つ以上の動作と物体が含まれる.近年では,手順書の理解に向けた研究が盛んに行われている\cite{mori2014flow,kiddon2015mise,bosselut2018simulating,dalvi2018tracking,tandon2020dataset}.この中でも,文章全体における手順の流れを理解すること\cite{mori2014flow,kiddon2015mise}は,手順間の関係に関する推論\cite{zhang2020reasoning}や手順書を基にした作業の自動化\cite{bollini2013interpreting}を目指す上で重要である.この方向において,先行研究では,調理レシピの理解の表現としてレシピフローグラフ(recipeflowgraph;r-FG)がコーパスと共に提案されている\cite{mori2014flow,yamakata2020english}.\figref{fig:flow-graph-examples}の左図に示すように,r-FGは調理レシピ内の手順に関わる表現をノード,それらの関係をエッジとする有向非巡回グラフとして定義され,文章レベルでの手順の依存関係を捉えることが出来るという特徴を持つ.また,先行研究では,r-FGの自動予測を行うフレームワークとして,ノード予測とエッジ予測の2段階で行うものが提案されている\cite{maeta2015framework}.こうした発展がある一方で,r-FGは調理分野に依存した表現となっているため,その他の分野の手順書には未だ適用されていない.調理分野に依存しない一般化されたフローグラフ表現を開発することは,分野間で手順の知識の共有を可能にする上で意義があるといえる.また,フローグラフに共通する問題として,アノテーションが複雑であり,大規模なアノテーションが現実的ではない点が挙げられる.そのような際に,既存のアノテーションを活用し,新たな分野では少量アノテーションのみを用意して予測モデルを学習できれば,アノテーションコストの削減に繋がり有用である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[t]\begin{center}\includegraphics{31-2ia7f1.pdf}\end{center}\hangcaption{フローグラフアノテーションの例.左はEnglishr-FGコーパスにおけるレシピのアノテーションを,右は\revise{w-FG}コーパスの\textit{HobbiesandCrafts}の手順書のアノテーションを,それぞれ示す.\revise{赤線で囲まれている表現は,フローグラフにおけるルートノードに対応している.}}\label{fig:flow-graph-examples}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%本論文では一般的な手順書の理解の表現として,\revise{wikiHow}フローグラフ(\revise{wikiHow}flowgraph;\revise{w-FG})を提案する.これはr-FGにおける調理依存の表現(食材;Food)を手順書の最終生産物の材料(Ingredient)として汎化して捉えることで得られる.\revise{w-FG}はr-FGと互換性があり,既存の調理分野のデータは\revise{w-FG}に変換可能である.ここでは,英語の手順書を対象とし,調理以外の分野における手順書のフローグラフ予測性能を調査する.この目的のため,新たに\revise{w-FG}コーパスを構築する.これは,様々なタスクの手順を公開しているwikiHowの記事を基に作成されている.\revise{w-FG}コーパスは,wikiHowの上位カテゴリである\textsl{FoodandEntertaining},\textsl{HobbiesandCrafts},\textsl{HomeandGarden},\textsl{Cars\&OtherVehicles}を分野として選択し,各分野で$30$記事のアノテーションを提供する.\revise{w-FG}コーパスはWeb上で公開済みである\footnote{\url{https://github.com/kskshr/w-FG-Corpus}}.実験では,\revise{w-FG}コーパスの各対象分野において,ノード予測とエッジ予測の性能を調査する.ここでは,フローグラフアノテーションのコストを考慮し,対象分野の学習に利用可能なデータが小規模であると想定する.この設定下でフローグラフ予測性能を向上するため,既存の調理分野のデータの利用を考える.具体的には,調理分野のデータであるEnglishr-FGコーパス\cite{yamakata2020english}で事前学習を行い,\revise{w-FG}コーパスの対象分野のデータでファインチューニングを行う分野適応によって,予測モデルを実現する.実験結果では,このような分野適応を行うことで,Englishr-FGコーパスか\revise{w-FG}コーパスのいずれか一方を学習に用いる場合に比べ,大幅な性能向上が実現出来ることを示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% | |
V31N04-03 | \label{instruction}言い換え生成\cite{zhou-bhat-2021-paraphrase}は入力文の意味を保持しながら表現が異なる文を生成するタスクである.言い換え生成は様々なdownstreamtaskに貢献する.特に,生成した言い換えにより疑似的に訓練データを増やすデータ拡張は,主要なアプリケーションの$1$つである\cite{wei2018fast,jolly-etal-2020-data,gao-etal-2020-paraphrase,effendi-etal-2018-multi}.表層が大きく異なる言い換えは,データ拡張において重要である\cite{qian-etal-2019-exploring}一方,表層を大きく変化させることで文の意味的な類似性が損なわれやすいため,その生成は困難である\cite{bandel-etal-2022-quality}.図\ref{similarity}は,疑似言い換え生成手法のひとつである折り返し翻訳\cite{mallinson-etal-2017-paraphrasing,Kajiwara_Miura_Arase_2020}で生成した文対\footnote{\ref{simcse_chapter}節で用いる,英語版Wikipediaを折り返し翻訳し生成した文対に対して測定.}と既存の言い換えコーパスであるParaNMT-50M\cite{wieting-gimpel-2018-paranmt}およびParaCotta\cite{aji-etal-2021-paracotta}に含まれる言い換え文対の意味類似度と表層類似度の分布\footnote{記号を除去したのちに$4$語以上からなる文対を$5$万文対ずつランダムサンプリングした.意味・表層類似度の測定方法の詳細は,\ref{sim_bleu_metric}節で説明.}をヒートマップで可視化したものである.図\ref{similarity}から,折り返し翻訳およびParaCottaでは,意味類似度は高いが,表層も近い文対が多くを占めることが分かる.ParaNMT-50Mでは,表層が大きく異なるが,意味的に乖離しており言い換えとみなせないものも多い.これらの既存手法では,表層が大きく異なる言い換え生成は難しいといえる.さらに,本論文では\ref{simcse_chapter}節および\ref{stilts_chapter}節で,データ拡張に適する意味・表層の類似度はタスクに依存し,様々な類似度の言い換えが混在するとデータ拡張に悪影響を及ぼすことを実験的に示した.これらの実験結果は,言い換え生成における類似度制御が重要であることを示している.しかし,意味的類似度と表層的類似度の直接的な制御が可能である言い換え生成の先行研究は存在しない.そこで本研究では英語を対象とし,(1)表層が大きく異なる言い換えを実現し,かつその生成において(2)ユーザが意味と表層の類似度を直接的に制御できる手法を提案する.具体的には,サンプリングに基づくデコードによる折り返し翻訳を用いて大量に生成した文対から,意味類似度が高く表層類似度が低い文対を抽出することで,言い換え生成モデルの訓練コーパスを構築する.そして言い換え文対の意味・表層類似度を示すタグ\cite{johnson-etal-2017-googles}を用い,事前学習済み系列変換モデルをfine-tuningすることにより類似度制御可能な言い換え生成を実現する.本モデルでは推論時に,言い換えの類似度をタグを用いて容易に指定できる.%%%%図\ref{sim95bleu05}は提案手法が高い意味類似度かつ,図\ref{similarity}(d)は提案手法が高い意味類似度かつ,低い表層類似度の言い換えを生成できることを示している.また,本論文では提案手法の内的評価と外的評価を行った.内的評価では,指定したタグに合致した意味・表層の類似度の言い換えが出力できるかを確認した.また,タグの埋め込み表現に関する分析により,$2$種類のタグが表す意味・表層の類似度の差が大きいほどタグの埋め込み表現間のユークリッド距離も大きくなることを明らかにした.外的評価では,対照学習\cite{gao-etal-2021-simcse,liu-etal-2021-fast},事前学習済み言語モデルのpre-fine-tuning\cite{DBLP:journals/corr/abs-1811-01088,arase-tsujii-2019-transfer}に対するデータ拡張の効果を検証した.結果,提案手法によるデータ拡張がdownstreamtaskの性能を向上させた.さらに,訓練済みモデルおよびモデルによって生成した$8,700$万文対の表層が大きく異なる言い換えコーパスを公開した\footnote{\url{https://github.com/Ogamon958/ConPGS}}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% | |
V08N04-02 | \label{sec:intro}ある程度の長さの文章は,一般的に,複数のトピックからなる.そのような文章を切り分けて,それぞれの切り分けた部分が一つのトピックになるようにすることを,テキスト分割と呼ぶ.テキスト分割は,情報検索や要約などにおいて重要である.まず,情報検索においては,文書全体ではなく,ユーザの検索要求を満す部分(トピック)だけを検索した方が効果的である\cite{hearst93:_subtop_struc_full_lengt_docum_acces,salton96:_autom_text_decom_using_text,mochizuki2000}.また,要約においては,長い文書をトピックに分ければ,それぞれのトピックごとに要約を作成することにより,文書全体の要約を作成できるし,重要なトピックだけを選んで要約を作成することもできる\cite{kan98:_linear_segmen_segmen_signif,nakao00:_algor_one_summar_long_text}.これらの目的のために,多くの手法が研究されている\cite[など]{kozima93:_text_segmen_simil_words,hearst94:_multi_parag_segmen_expos_text,okumura94:_word_sense_disam_text_segmen,salton96:_autom_text_decom_using_text,yaari97:_segmen_expos_texts_hierar_agglom_clust,kan98:_linear_segmen_segmen_signif,choi00:_advan,nakao00:_algor_one_summar_long_text,mochizuki2000}.これらの手法の主な共通点は,これらの手法が,分割対象のテキスト(および辞書やシソーラス)しか分割に利用しないことである.たとえば,\cite{hearst94:_multi_parag_segmen_expos_text}は,テキスト内の単語分布の類似度しか分割に利用しない.言い換えれば,これらの手法は,その手法をテキスト分割に使用するにあたって,訓練データを必要としない.そのため,これらの手法は,訓練データの存在する分野に限られることなく,どんな分野の文章でも分割対象とすることができる.この点は重要である.なぜなら,情報検索や要約が対象とする文書は,分野を限定しない文書であるので,そのような文書に対応するためには,分野を限定しないテキスト分割の手法が必要であるからである.本稿で述べる手法も,これらの従来手法と同様に,訓練データを利用せずに,テキスト内の単語分布のみを利用してテキストを分割する.我々が,訓練データを利用しないテキスト分割手法を採用した理由は,我々が,テキスト分割の結果を利用して,長い文書を要約したり,講演のディクテーション結果を要約することを目的としているからである.そのためには,分野を限定しない(訓練データを利用しない)テキスト分割の方法が必要であるからである.本稿で述べる手法は,テキストの分割確率が最大となるような分割を選択するというものである.このようなアプローチは,分野を限定しないテキスト分割としては,新しいアプローチである.なお,従来の研究で,分野を限定しないテキスト分割の研究では,主に,語彙的な結束性を利用してテキストを分割している.その例としては,意味ネットワーク上での活性伝播に基づく結束性を利用するもの\cite{kozima93:_text_segmen_simil_words}や,単語分布の類似度(コサイン)を結束性としたもの\cite{hearst94:_multi_parag_segmen_expos_text}や,単語の繰り返し状況に基づいて結束性を計るもの\cite{reynar94:_autom_method_findin_topic_bound}や,文間の類似度としてコサインを直接使うのではなくコサインの順位を結束性の指標とするもの\cite{choi00:_advan}などがある.なお,テキスト分割の方法としては,訓練データを利用しない(分野を限定しない)方法の他に,訓練データを利用する方法もある.そのような方法の応用としては,複数ニュースを個々のニュースに分割するものがある\cite{allan98:_topic_detec_track_pilot_study_final_repor}.この場合には,分野が明確であり,また,訓練データも多量にあるので,訓練データを利用したシステムにより,ニュースの境界を推定し分割する手法が主流である\cite[など]{mulbregt98:_hidden_markov_model_approac_text,beeferman99:_statis_model_text_segmen}.しかし,そのような方法は,訓練データが利用できない分野については適用できないので,我々の目的である,テキスト分割の結果を利用して,長い文書を要約したり,講演のディクテーション結果を要約するためのテキスト分割手法としては適さない.以下,\ref{sec:model}章では,テキスト分割のための統計的モデルを述べ,\ref{sec:algorithm}章で,最大確率の分割を選択するアルゴリズムを述べる.\ref{sec:experiments}章では,まず,我々の手法を公開データに基づいて評価することにより,我々の手法が他の手法よりも優れた分割精度を持つことを示し,次に,我々の手法を長い文書に適用した場合の分割精度を述べる.\ref{sec:discussion}章は考察,\ref{sec:conclusion}章は結論である. | |
V22N02-02 | \label{section_intro}自然言語処理において,単語認識(形態素解析や品詞推定など)の次に実用化可能な課題は,用語の抽出であろう.この用語の定義としてよく知られているのは,人名や組織名,あるいは金額などを含む固有表現である.固有表現は,単語列とその種類の組であり,新聞等に記述される内容に対する検索等のために7種類(後に8種類となる)が定義されている\cite{Overview.of.MUC-7/MET-2,IREX:.IR.and.IE.Evaluation.Project.in.Japanese}.固有表現認識はある程度の量のタグ付与コーパスがあるとの条件の下,90\%程度の精度が実現できたとの報告が多数ある\cite{A.Maximum.Entropy.Approach.to.Named.Entity.Recognition,Conditional.Random.Fields:.Probabilistic.Models.for.Segmenting.and.Labeling.Sequence.Data,Introduction.to.the.CoNLL-2003.Shared.Task:.Language-Independent.Named.Entity.Recognition}.しかしながら,自然言語処理によって自動認識したい用語は目的に依存する.実際,IREXにおいて固有表現の定義を確定する際もそのような議論があった\cite{固有表現定義の問題点}.例えば,ある企業がテキストマイニングを実施するときには,単に商品名というだけでなく,自社の商品と他社の商品を区別したいであろう.このように,自動認識したい用語の定義は目的に依存し,新聞からの情報抽出を想定した一般的な固有表現の定義は有用ではない.したがって,ある固有表現の定義に対して,タグ付与コーパスがない状態から90\%程度の精度をいかに手早く実現するかが重要である.昨今の言語処理は,機械学習に基づく手法が主流であり,様々な機械学習の手法が研究されている.他方で,学習データの構築も課題であり,その方法論やツールが研究されている\cite{自然言語処理特集号}.特に,新しい課題を解決する初期は学習データがほとんどなく,学習データの増量による精度向上が,機械学習の手法の改善による精度向上を大きく上回ることが多い.さらに,目的の固有表現の定義が最初から明確になっていることは稀で,タグ付与コーパスの作成を通して実例を観察することにより定義が明確になっていくのが現実的であろう.本論文では,この過程の実例を示し,ある固有表現の定義の下である程度高い精度の自動認識器を手早く構築するための知見について述べる.本論文で述べる固有表現は,以下の条件を満たすとする.\begin{description}\item[条件1]単語の一部だけが固有表現に含まれることはない.\\一般分野の固有表現では,「訪米」などのように,場所が単語内に含まれるとすることも考えられるが,本論文ではこのような例は,辞書の項目にそのことが書かれていると仮定する.\item[条件2]各単語は高々唯一の固有表現に含まれる.\\一般分野の固有表現では,入れ子を許容することも考えられる\cite{Nested.Named.Entity.Recognition,The.GENIA.Corpus:.an.Annotated.Research.Abstract.Corpus.in.Molecular.Biology.Domain}例えば,「アメリカ大統領」という表現は,全体が人物を表し「アメリカ」の箇所は組織名を表すと考えられる.自動認識を考えて広い方を採ることとする.\end{description}以上の条件は,品詞タグ付けに代表される単語を単位としたタグ付けの手法を容易に適用させるためのものである.その一方で,日本語や中国語のように単語分かち書きの必要な言語に対しては,あらかじめ単語分割のプロセスを経る必要があるという問題も生じるが,本論文では単語分割を議論の対象としないものとする.本論文では,題材を料理のレシピとし,さまざまな応用に重要と考えられる単語列を定義し,ある程度実用的な精度の自動認識を実現する方法について述べる.例えば,「フライ返し」という単語列には「フライ」という食材を表す単語が含まれるが,一般的に「フライ返し」は道具であり,「フライ返し」という単語列全体を道具として自動認識する必要がある.本論文ではこれらの単語列をレシピ用語と定義してタグ付与コーパスの構築を行い,上述した固有表現認識の手法に基づく自動認識を目指す.レシピ用語の想定する応用は以下の2つであり,関連研究(2.3節)で詳細を述べる.\begin{description}\item[応用1]フローグラフによる意味表現\\自然言語処理の大きな目標の一つは意味理解であると考えられる.一般の文書に対して意味を定義することは未だ試行すらほとんどない状況である.しかしながら,手続き文書に限れば,80年代にフローチャートで表現することが提案され,ルールベースの手法によるフローチャートへの自動変換が試みられている\cite{Control.Structures.for.Actions.in.Procedural.Texts.and.PT-Chart}.同様の取り組みをレシピに対してより重点的に行った研究もある\cite{料理テキスト教材における調理手順の構造化}.本論文で述べるレシピ用語の自動認識は,手順書のフローグラフ表現におけるノードの自動推定として用いることが可能である.\item[応用2]映像とのアラインメント\\近年,大量の写真や映像が一般のインターネットユーザーによって投稿されるようになり,その内容を自然言語で自動的に表現するという研究が行われている.その基礎研究として,映像と自然言語の自動対応付けの取り組みがある\cite{Translating.Video.Content.to.Natural.Language.Descriptions,Unsupervised.Alignment.of.Natural.Language.Instructions.with.Video.Segments}.これらの研究における自然言語処理部分は,主辞となっている名詞を抽出するなどの素朴なものである.本論文で述べるレシピ用語の自動認識器により,単語列として表現される様々な物体や動作を自動認識することができる.\end{description}これらの応用の先には,レシピの手順書としての構造を考慮し,調理時に適切な箇所を検索して提示を行う,より柔軟なレシピ検索\cite{Feature.Extraction.and.Summarization.of.Recipes.using.Flow.Graph}や,レシピの意味表現と進行中の調理動作の認識結果を用いた調理作業の教示\cite{Smart.Kitchen:.A.User.Centric.Cooking.Support.System}がより高い精度で実現できるであろう.本論文では,まずレシピ用語のアノテーション基準の策定の経緯について述べる.次に,実際のレシピテキストへのアノテーションの作業体制や環境,および作業者間の一致・不一致について述べる.最後に,作成したコーパスを用いて自動認識実験を行った結果を提示し,学習コーパスの大きさによる精度の変化や,一般固有表現認識に対して指摘されるカバレージの重要性を考慮したアノテーション戦略の可能性について議論する.本論文で対象とするレシピテキストはユーザ生成コンテンツ(UserGeneratedContents;UGC)であり,そのようなデータを対象とした実際のタグ定義ならびにアノテーション作業についての知見やレシピ用語の自動認識実験から得られた知見は,ネット上への書き込みに対する分析など様々な今日的な課題の解決の際に参考になると考えられる. | |
V21N06-05 | \label{SEC::INTRO}テキスト中に出現する述語の格構造を認識する処理は述語項構造解析や格解析などと呼ばれ,計算機によるテキスト理解のための重要な1ステップである.しかし,格構造を表現する際に使用される``格''には,述語の出現形\footnote{本論文では,能動形,受身形,使役形など,述語が実際にテキストにおいて出現した形のことを出現形と呼ぶ.}に対する表層格や,能動形に対する表層格,さらには深層格など複数の表現レベルが存在し,どの表現レベルを用いるべきかは使用するコーパス\footnote{京都大学テキストコーパス\cite{TAG}では出現形の表層格情報,NAISTテキストコーパス\cite{Iida2007}では能動形の表層格情報が付与されている.}やタスクにより異なっている.格構造を表層格で扱う利点としては,表層格はテキスト中に格助詞として明示的に出現することから``格''を定義する必要がないこと,述語ごとに取りうる格をコーパスから自動獲得することが可能なことなどが挙げられる.さらに,出現形に対する表層格で扱う利点としては,能動形では現れない使役文におけるガ格や一部の受身文のガ格を自然に扱えること,先行する述語のガ格の項が後続する述語でもガ格の項となりやすい\cite{Kameyama1986s,Nariyama2002s}などといった談話的な情報が自然に利用できることなどが挙げられる.特に後者はゼロ照応解析において重要な手掛りになることが知られており\cite{Iida2007T,Sasano2011},ゼロ照応の解決も含む述語項構造解析の高精度化のためには,格構造を出現形の表層格で扱うのが望ましいと考えられる.一方,テキストの意味を考える上では,出現形に対する表層格解析では不十分な場合がある.\begin{exe}\ex\label{EX::FRIEND}私が知り合いに誘われた.\ex\label{EX::PARTY}私がパーティーに誘われた.\end{exe}たとえば,(\ref{EX::FRIEND}),(\ref{EX::PARTY})のような文を考えると,出現形の表層格としては(\ref{EX::FRIEND})の「知り合い」と(\ref{EX::PARTY})の「パーティー」は同じニ格となっているが,前者は能動主体を表しており能動形ではガ格となるのに対し,後者は誘致先を表しており能動形においてもニ格となる.このような違いを認識することは情報検索や機械翻訳などといった多くの自然言語処理のアプリケーションにおいて重要となる\cite{Iida2007}.実際に,Google翻訳\footnote{http://translate.google.co.jp/,2014年5月10日実施.}を用いてこれらの文を英訳すると,(\ref{EX::FRIEND}$'$),(\ref{EX::PARTY}$'$)に示すようにいずれの文もニ格が誘致先を表すものとして翻訳される.このうち,(\ref{EX::FRIEND}$'$)に示した翻訳は誤訳であるが,これは(\ref{EX::FRIEND})の文と(\ref{EX::PARTY})の文におけるニ格の表す意味内容の違いを認識できていないため誤って翻訳されたと考えられる.\begin{exe}\exp{EX::FRIEND}Iwasinvitedtoanacquaintance.\label{EXE::FRIEND}\exp{EX::PARTY}Iwasinvitedtotheparty.\label{EXE::PARTY}\end{exe}また,文(\ref{EX::BOTH})は(\ref{EX::FRIEND}),(\ref{EX::PARTY})の2文が表す内容を含意していると考えられるが,出現形に対する表層格解析だけではこれらの含意関係を認識することはできない.このため,含意関係認識や情報検索などのタスクでは,能動形に対する表層格構造や深層格構造といった,より深い格構造を扱うことが望ましいと言える.\begin{exe}\ex知り合いが私をパーティーに誘った.\label{EX::BOTH}\end{exe}そこで,まず出現形における表層格の解析を行い,その結果をより深い格構造に変換することを考える.このような手順を用いることで,談話的な情報を自然に取り入れながら,含意関係認識や情報検索などのタスクにも有用な能動形格構造を扱うことができると考えられる.本研究ではこのうち特に受身形・使役形から能動形への格構造変換に焦点を当てる.受身形・使役形から能動形への格構造変換における格交替パターンの数は限定的であり人手で列挙することは容易である.しかし,文(\ref{EX::FRIEND}),(\ref{EX::PARTY})からも分かるように,述語と格が同じであっても同一の格交替パターンとなるとは限らない.同様に,項とその格が同じであっても同一の格交替パターンとなるとは限らない.たとえば,文(\ref{EX::FRIEND})と(\ref{EX::AWARD})のニ格はいずれも「知り合い」であるが,これらの文を能動形に変換した場合,文(\ref{EX::FRIEND})のニ格はガ格となるのに対し,文(\ref{EX::AWARD})のニ格は能動形においてもニ格のままである.\begin{exe}\ex奨励賞が知り合いに贈られた.\label{EX::AWARD}\end{exe}このため,受身形・使役形から能動形への格構造の変換を高精度に行うためには,述語・項・格の組み合わせごとに,どのような格交替パターンとなるかを記述した大規模な語彙知識が必要となると考えられる.そこで,本研究ではこのような語彙知識を大規模コーパスから自動獲得する手法を提案する.具体的には,格交替のパターンの数が限定的であること,および,対応する受身文・使役文と能動文の格の用例や分布が類似していることに着目し,人手で記述した少数の格交替パターンとWebから自動構築した大規模格フレームを用いることで,受身文・使役文と能動文の表層格の対応付けに関する知識の自動獲得を行う.また,自動獲得した知識を受身文・使役文の能動文への変換における格変換タスクに適用することにより,その有用性を示す.本論文の構成は以下の通りである.まず,2節で関連研究について概観した後,3節で受身・使役形と能動形間の格の交替パターンについて,4節でWebから自動構築した大規模格フレームについてそれぞれまとめる.続いて5節で提案する格フレームの対応付け手法について説明し,6節では実験を通してその有効性を示す.最後に7節で本論文のまとめを記す. | |
V17N01-04 | テキスト分類学習は,スパムメールの除去,Webコンテンツのフィルタリング,ニュースの自動分類など様々な応用分野をもつ重要な技術である.一般の分類学習と同様に,テキスト分類学習においても特徴集合の選択は学習性能を決定する重要な要素である.通常,英文であればスペースによって区切られた語,日本語文であれば形態素解析によって分割された語を特徴として用いることが多いが,このような方法では二語が連接していることの情報が欠落するので,分類に役立つ熟語・複合語などの情報を取りこぼす可能性が高い.このため,この情報についてはあきらめるか辞書から得るかしなければならない.さらにこの情報を利用する場合は言語モデルの利用やstringkernelなどの特殊なカーネルを利用することにより学習アルゴリズム側で連接を考慮するといった対応を行う必要が生じる.一方,特徴選択の方法として文を文字列と見なし,全ての部分文字列を考慮することで,連接を特徴選択の際に取り込もうとするアプローチがある.このアプローチでは,熟語・複合語を取り込むための辞書や連接を考慮した学習アルゴリズムを使用する必要がないという利点があるが,部分文字列数のオーダーはテキストデータの全文字数の2乗のオーダーという非常に大きな値となってしまうため,取捨選択してサイズを縮小する必要がある.部分文字列を考慮した特徴選択の代表的なものに,Zhangらが提案した方法がある(Zhangetal.2006).彼らはsuffixtreeを利用して,出現分布が同一または類似している文字列を一つにまとめることによって特徴集合のサイズを縮小する方法を提案した.そして,この選択方法による特徴集合とサポートベクターマシンを利用したテキスト分類実験において,連接や文字列を考慮した他の代表的な方法よりも高い性能を与えることを示した.これに対して,本研究ではすべての部分文字列を考慮する点は同じものの,反復度と呼ばれる統計量を利用して,Zhangらの方法と異なる部分文字列の選択方法を提案する.反復度は文書内で繰り返される文字列は文書内容を特徴づける上で重要な語であるという仮定に基づく統計量であり,これまでキーワード抽出などに利用されている(TakedaandUmemura2002).Zhangらの方法は部分文字列の出現分布が類似したものを一つにまとめるという操作のみを行い,選択した部分文字列の文書内容を特徴づける上での重要性は学習アルゴリズムによって決めるというアプローチであるといえるが,反復度では特徴選択時にも部分文字列の重要性を考慮しており,分類に寄与しない特徴を予め取り除く効果が期待できる.本研究では,この反復度を用いた部分文字列からの特徴選択の効果を,ニュース記事を用いた分類実験,スパムメールのデータセットを用いた分類実験において検証する.そして,ニュース記事の分類実験では,提案手法である反復度を用いた特徴抽出方法がZhangらの特徴抽出方法よりも優れた結果を示し,単語を特徴集合とする方法との間には有意差が認められなかったことを報告する.一方,スパムメールの分類実験において提案手法はZhangらの方法,単語を特徴集合とする方法よりも優れた結果を示し,有意差が確認されたことを報告する.以下,2章ではZhangらの方法について詳しく説明する.また3章では本研究で利用する反復度と交差検定によるパラメータの設定方法について説明する.4章では実験方法と実験結果について述べ,5章でその結果について考察し,6章でまとめを行う. | |
V16N03-04 | インターネットの普及にともない,多種多様な電子情報が至るところに蓄積され,溢れている.我々は,インターネットを介して,時と場所を選ばず,即座にそれらの情報にアクセスすることができるが,その量は非常に膨大である.「情報爆発」というキーワードのもと,わが国でも文部科学省,経済産業省が新しいプロジェクトを立ち上げ,新技術の開発に取り組み始めている.この膨大な量の情報を人手で処理することは,不可能に近い.情報には文書,画像,音声,動画など様々なものがあるが,自然言語で書かれた文書情報は,その中で最も重要な情報の1つである.文書情報を機械的に処理する技術の研究,言い換えると自然言語処理技術の研究が極めて重要になっているのはそのためである.自然言語処理技術は,2つに大別される.コーパス(統計)ベースの手法とルール(文法規則)ベースの手法である.自然言語処理技術の1つである音声認識の精度のブレイクスルーがあったことにより,最近では,コーパスベースの手法が自然言語処理技術の世界を席巻している.これは網羅性のある文法規則を開発することが困難であったことが主な要因としてあげられる.これに対し,コーパスベースの手法は,そこから得られた統計データに文法規則性が反映されており,コーパスの量を増やすことで,文法規則性をより精密に反映させることができるという考えに基いている.ところが統計データからは陽に文法規則が取り出されるわけではなく,文法規則を取り出し,それをどう改良すべきかは分からない.文法規則は機械(コンピュータ)で扱うことができる規則でなければならない.多種多様な分野の日本語の文書処理を行う文法規則の数は,およそ数千の規模になると言われている.ところがこのような日本語の文法規則を言語学者ですら作成したという話をまだ聞かない.これに対し,コーパスベースの手法による日本語文の文節係り受け解析の精度は90\%に達する\cite{kudo:2002,uchimoto:99}.これがルールベースの方法が自然言語処理技術の中心ではなくなってきた大きな理由である.ところが,最近,コーパスベースの自然言語処理法も解析精度に飽和現象が見られる.精度をさらに向上させようとすれば,現存するコーパスの量を1桁以上増やさなくてはならないといわれている.これは,音声認識精度の向上でも問題になりはじめているが,コーパスの量を1桁以上増やすことは容易なことではない.この限界を越える技術として,闇雲にコーパスの量を増やすのではなく,ルールベースの方法を再考すべき時期に来ていると考えている.本論文では,一般化LR(GeneralizedLR;GLR)構文解析\cite{deremer:82,aho:86,tomita:91}に注目する.一般化LR構文解析は,文法(CFG)規則をLR構文解析表(LR表)と呼ばれるオートマトンに変換し,効率的に解析を行う\footnote{一般化LR構文解析は,構文解析結果の順序付けに確率一般化LRモデル\cite{inui:00,briscoe:93,charniak:96,jelinek:98}を用いることができるので,ルールベース手法にコーパスベース手法を融合したハイブリッドな方法であるといえる.}.このLR表には,CFG規則のほかに品詞(終端記号)間の接続制約(adjacentsymbolconnectionconstraints;ASCCs)を反映させることもできる.品詞間の接続制約を反映させることにより,接続制約に違反する解析結果を受理しないLR表を作成できるだけでなく,LR表のサイズ(状態数や動作(アクション)数)を縮小することもでき,その結果,構文解析の使用メモリ量や解析所要時間の削減,統計データを取り入れた場合の解析精度向上の効果の増大が期待できる.品詞間接続制約をCFG規則に直接反映させることも可能であるが,非終端記号の細分化によって規則数が組み合わせ的に増大し,CFG作成者への負担やLR表のサイズの増大を招く.品詞間接続制約のLR表への組み込み手法は,これまでにも提案されているが\cite{tanaka:95,li:95},従来の手法では,LR表中の不要な動作を十分に削除できない問題があった.本論文では新しい組み込み手法を提案し,従来の手法では削除できなかった不要な動作も削除できることを実験により示す.本論文の構成は以下のとおりである.第\ref{sec:mslr}節では,まず,一般化LR構文解析アルゴリズムを採用しているMSLRパーザ\cite{shirai:00}について説明し,従来の品詞間接続制約のLR表への組み込み手法の問題点を述べる.その問題点を踏まえ,第\ref{sec:improvement}節で新しい組み込み手法を提案し,第\ref{sec:evaluation}節で評価実験を行う.第\ref{sec:completeness}節では,提案アルゴリズムの完全性について考察を行う.最後に,第\ref{sec:conclusion}節で結論と今後の課題について説明する. | |
V09N04-05 | 電子化されたテキストが世の中に満ち溢れる現状から,テキスト自動要約研究が急速に活発になり,数年が早くも経過している.研究の活発さは依然変わらず,昨年もNAACLに併設する形で要約に関するワークショップが6月に開催された.また,日本では,国立情報学研究所の主催する評価型ワークショップNTCIR-2のサブタスクの1つとしてテキスト自動要約(TSC:TextSummarizationChallenge)が企画され,日本語テキストの要約に関する初めての評価として,また,TipsterにおけるSUMMACに続く要約の評価として関心を集め,昨年3月にその第1回(TSC1)の成果報告会が開催された(http://research.nii.ac.jp/ntcir/index-ja.html).一方,アメリカでは,SUMMACに続く評価プログラムとして,DUC(DocumentUnderstandingConference)が始まり,第1回の本格的な評価が昨年夏行なわれ,9月に開催されたSIGIRに併設する形でワークショップが開催された(http://www-nlpir.nist.gov/projects/duc/).このような背景の元,本稿では,1999年の解説\cite{okumura:99:a}の後を受け,テキスト自動要約に関する,その後の研究動向を概観する.1999年の解説では,これまでのテキスト自動要約手法として,重要文(段落)抽出を中心に解説するとともに,当時自動要約に関する研究で注目を集めつつあった,いくつかの話題として,「抽象化,言い換えによる要約」,「ユーザに適応した要約」,「複数テキストを対象にした要約」,「文中の重要個所抽出による要約」,「要約の表示方法」について述べている.本稿では,その後の動向として,特に最近注目を集めている,以下の3つの話題を中心に紹介する.\begin{enumerate}\item単一テキストを対象にした要約における,より自然な要約作成に向けての動き,\item複数テキストを対象にした要約研究のさらなる活発化,\item要約研究における,要約対象の幅の広がり\end{enumerate}(1)の動きは,後述するように,1999年の解説における「抽象化,言い換えによる要約」,「文中の重要個所抽出による要約」という話題の延長線上にあると言うことができる.以下,2,3,4節でそれぞれの話題について述べる.なお,TSC1およびDUC2001にはそれぞれ多数の参加があり,興味深い研究も多い.しかし,TSC1の多くの研究は重要文抽出に基づくものであり,本稿に含めるのは適当でないと考えた.また,DUC2001に関しては,ワークショップが開催されたのが9月13,14日であり,本稿に含めるのは時間的余裕がなく断念せざるを得なかった.これらについては,稿を改めて,概観することとしたい. | |
V29N03-05 | 自動要約技術は,要約作成時のアプローチによって抽出型と生成型の2種類の手法に分けられる.抽出型自動要約は,入力文書中の重要と思われる文を識別・抽出し,抽出した文を結合させたものを要約とする方法である.一方,生成型自動要約は,入力文書を中間表現に変換し,その中間表現を基に要約の文章を一から生成する方法である.本研究では,生成型の自動要約モデルの技術に着目する.生成型自動要約モデルでは,入力文書中にない単語も利用することができるため,自然な要約を生成することができ,ニュース記事や論文などの自動要約に役立つ.%2生成型自動要約や機械翻訳などの系列変換タスクでは,入力テキストから「文と単語」・「フレーズと単語」・「単語と文字」などの階層構造を捉えることで要約および翻訳精度の改善を実現している.機械翻訳において,\citeA{Multi-Granu}は,Transformer\cite{Transformer}に基づくニューラル機械翻訳モデルにおいて,単語とフレーズの関係を考慮するMulti-GranularitySelf-Attention(MG-SA)を提案している.MG-SAは,入力テキストを複数の粒度(単語やフレーズ)に分解し,それぞれの粒度をMulti-headSelf-AttentionNetworks(\textsc{San}s)の各ヘッドに割り当てる.このMG-SAにより,単語間だけでなく単語とフレーズ間の相互作用をモデルに組み込むことが可能となる.また,自動要約において,HierarchicalNeuralAutoencoder\cite{Hierarchical_model}やHIBERT\cite{HIBERT}では,エンコーダやデコーダを単語および文レベルに階層化することで,単語と文の階層構造を考慮している.これらのモデルでは,入力テキストに対し単語単位での処理に加え文単位でも処理することで,文と単語間の関係性を考慮している.%3近年,生成型自動要約は,ニューラルネットワークに基づくエンコーダ・デコーダモデルが出現したことで,要約の品質が大きく向上した\cite{AbsSumBase}.その中でも,高い精度を報告しているモデルの多くが事前学習\cite{BERTSUM,T5,BART}を導入している.既存の事前学習モデルの中でも,BARTモデル\cite{BART}は高い精度での自動要約を可能にしている.BARTモデルはTransformerモデル\cite{Transformer}をベースとした事前学習モデルで,5つの事前学習法による実験を行っている.BARTモデルは高性能なモデルだが,要約生成時に文書の階層構造をとらえる構造にはなっておらず,文と単語間の関係性が組み込まれていない.よって,BARTモデルにおいても文レベルの情報を捉えることで,さらなる精度向上が見込める.%4そこで本研究では,MG-SAの概念をBARTモデルに適用し,文と単語の階層的な関係を考慮した要約を可能とする手法として,Hierarchical-BART(Hie-BART)を提案する.具体的には,入力文書を単語レベルと文レベルの情報に分割し,BARTにおけるエンコーダの\textsc{San}s層では,単語レベルの関連を計算するだけではなく,一部のヘッドにおいて文レベルの関連を計算する.そして,単語レベルと文レベルのマルチヘッドの出力を結合させることで,単語レベルと文レベルの双方を考慮した要約生成を行う.ここで,MG-SAはフレーズ単位での処理を行うのに対し,Hie-BARTでは文単位で処理を行う.本研究では,自動要約における単語と文の階層構造を利用した従来研究に基づいて応用するため,フレーズ単位ではなく文単位で処理を行う.%5実験の結果,BARTに比べ提案手法では,ROUGE-L\cite{ROUGE}のF値が,CNN/DailyMailデータセットでは0.1ポイント改善することを確認した.また,分析の結果,マルチヘッドにおいて,文レベルのヘッドを多く含むよりも,単語レベルのヘッドを多く含む方がより精度の高い要約を生成することが確認できた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% | |
V31N02-14 | \label{sec:intro}自然言語理解において,文が表す時間関係の理解は重要である.自然言語には時間表現だけでなく,テンスやアスペクト,時間副詞など様々な時間に関する言語現象がある.以下は時間に関する言語現象の例である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{exe}\ex\label{ex:1}彼は走っ\textbf{た}。(テンス)\ex\label{ex:2}彼は走っ\textbf{ている}。(アスペクト)\ex\label{ex:3}\textbf{昨日}、彼は走った。(時間副詞)\end{exe}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%これらの言語現象は組み合わさって用いられることが多い.例えば(\ref{ex:3})では時間副詞とテンス・アスペクトが組み合わされている.したがって,時間関係を理解するためには個々の言語表現の意味を捉えた上で構成的に文全体の意味を捉える必要がある.そのため,時間関係の理解は挑戦的な課題である.自然言語処理において,時間に関する代表的なタスクとしては時間関係認識がある.これは,文に含まれるイベント間の時間関係を認識するタスクであり,モデルの時間理解を評価する際にしばしば用いられる.このタスクはモデルの時間認識能力を評価するのに適している.一方で,時間関係認識タスクを通じて自然言語理解能力,すなわち,モデルが時間を含む文全体の意味を正しく捉えられているかを分析できるかは自明ではない.自然言語理解能力を評価するタスクの1つに自然言語推論(NaturalLanguageInference:NLI)がある.自然言語推論は単一または複数の文からなる前提を真としたときに,単一の文からなる仮説が真となるか(含意),偽となるか(矛盾),どちらでもないか(中立)を判定する言語理解タスクである.時間推論は時間の理解が要求されるNLIであり,言語モデルの時間認識能力を,自然言語理解能力とともに評価するのに適したタスクである.以下に時間推論問題の例を示す.\begin{exe}\ex\begin{xlist}\exi{Premise(P):}彼は走っていた。\exi{Hypothesis(H):}彼は走った。\exi{GoldLabel(G):}\entailment\end{xlist}\ex\label{ex:6}\begin{xlist}\exi{P:}彼は彼女の前に走った。\exi{H:}彼は彼女の後に走った。\exi{G:}\contradiction\end{xlist}\end{exe}これらの問題では,どちらも前提文(Premise)と仮説文(Hypothesis)の表層形は類似している.そのため,表層形の類似度を推論の手がかりにすると同じラベルが予測される可能性が高い.しかし,実際には2つの問題の正解ラベルは異なっている.このように,類似度だけを手がかりに推論を行うと誤った予測が得られるケースが時間推論には多く存在する.その上,時間推論問題の正解ラベルは前述の言語現象の多様な組み合わせによって変化する.そのため,時間推論タスクは挑戦的であり,事前学習済み言語モデルにとっても課題である.言語モデルの時間推論能力を評価した既存研究には\citet{vashishtha-etal-2020-temporal}や\citet{thukral-etal-2021-probing}がある.しかし,これらの既存の分析や評価用データセットの多くは英語を対象としている上,時間に関する言語現象の一部しか扱っていない.一方で,日本語の多様な時間推論に関する分析や評価用データセットは少ない.そのため,言語モデルがどの程度日本語の時間推論パターンや時間表現を汎化できるかについての分析は十分には行われてこなかった.本研究の目的は,多様な時間推論に対する言語モデルの汎化能力を詳細に分析できる,形式意味論に基づいた日本語NLIベンチマーク\oursを構築することである.NLIベンチマークを構築する主な手法としては,クラウドソーシングを用いて構築する手法や,専門家が人手で構築する手法が挙げられる.しかし,前者の手法ではデータセット中のバイアスの制御が困難であり,後者の手法では言語モデルの分析に必要なデータ量を確保するためのコストが問題となる.また,人手による構築では,語彙や構文の選択がアノテータの事前知識に依存する.そのため,語彙や推論パターンを制御することが困難であり,未知の語彙や推論パターンに対する汎化性能を評価することが難しいという問題がある.本研究では,それらの問題を解決するために,推論テンプレートを用いた半自動構築アプローチを採用する.この手法では,理論言語学の知見に基づいて手動で設計した推論テンプレートに自動で多様な語彙を割り当てる.これにより,推論パターンと語彙の分布を制御したスケーリング可能なデータセットが構築できる.そして,構築したデータセットを推論パターンなどで制御し,その上でモデルを評価することで,\hl{理論言語学}に基づいた詳細なモデルの分析が可能になる.図\ref{fig:punch}は\oursの構築手法の概略図である.提案手法では,まずFraCaS\cite{FraCaS}の日本語版であるJSeM\cite{Ai_Kawazoe_2015}に含まれる時間推論問題を抽出し,その内容語と時間表現をマスクすることで推論テンプレートを作成する.次に,京都大学格フレーム\cite{kawahara-kurohashi-2006-fully}からChatGPT\cite{openai-2023-chatgpt}を用いて自然な格フレームを抽出する.そして,得られた格フレームに言語モデルを用いて自動でアスペクトをアノテーションする.その後,抽出した格フレームとランダムな時間表現を推論テンプレートに割り当てることで,自然な文からなる問題を生成する.問題の正解ラベルは,推論テンプレートだけでなく,問題に割り当てた時間表現や格フレームのアスペクトに応じて定める.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%F1\begin{figure*}[t]%%%%%\includegraphics[width=14cm]{figure/punch.pdf}\begin{center}\includegraphics{31-2ia13f1.pdf}\end{center}%\hangcaption{\oursのデータ生成手法のイメージ図.INTは「2時間」や「3ヶ月間」などの区間を表す語に対するプレースホルダである.$\dashrightarrow$は正解が不定であることを,$\rightarrow$は正解が\entailmentであることを,$\nrightarrow$は正解が\contradictionであることを表す.}\label{fig:punch}\end{figure*}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%本研究では,時間推論パターンや時間表現の形式に基づいて学習データを分割し,分割したデータセットを学習に用いることで,言語モデルの時間推論能力を詳細に分析する.実験では,構築したテストデータ上で3種類の識別系言語モデル(日本語言語モデル2種および多言語言語モデル1種)\cite{devlin-etal-2019-bert,liu-etal-2019-roberta,conneau-etal-2020-unsupervised}と3種類の生成系言語モデル\cite{openai-2023-chatgpt,openai-2023-gpt4}の時間推論能力を評価する.\rhl{構築したデータセットは研究利用可能な形式で公開している}\footnote{\url{https://github.com/ynklab/Jamp_sp}}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%2\setcounter{exx}{0} | |
V18N04-03 | \label{section:はじめに}\vspace{-0.5\baselineskip}形態素解析は,日本語における自然言語処理の基礎であり,非常に重要な処理である.形態素解析の入力は文字列であり,出力は単語と品詞の組(形態素)の列である.形態素解析の出力は,固有表現抽出や構文解析などの後段の言語処理の入力となるばかりでなく,情報検索システムやテキストマイニング等の自然言語処理の応用の入力として直接利用される.そのため,形態素解析の精度は自然言語処理やその応用に大きな影響を与える.昨今,自然言語処理の応用は医療\cite{電子カルテからの副作用関係の自動抽出}や法律\cite{日英特許コーパスからの専門用語対訳辞書の自動獲得}からWeb文書\cite{2ちゃんねる解析用の形態素解析器の作成}まで多岐に渡る.したがって,様々な分野のテキストに対して,高い形態素解析解析精度を短時間かつ低コストで実現する手法が望まれている.現在の形態素解析器の主流は,コーパスに基づく方法である.この方法では,統計的なモデルを仮定し,そのパラメータをコーパスから推定する.代表的な手法は,品詞$n$-gramモデル\cite{統計的言語モデルとN-best探索を用いた日本語形態素解析法},全ての品詞を語彙化した形態素$n$-gramモデル\cite{形態素クラスタリングによる形態素解析精度の向上},条件付き確率場(CRF)\cite{Conditional.Random.Fields.を用いた日本語形態素解析}などを用いている.これらの統計的手法は,パラメータをコーパスから推定することで,際限なきコスト調整という規則に基づく方法の問題を解決し,コーパス作成の作業量に応じて精度が確実に向上するようになった.一方,これらの既存の統計的手法による形態素解析器で,医療や法律などの学習コーパスに含まれない分野のテキストを解析すると実用に耐えない解析精度となる.この問題に対して,分野特有の単語を辞書に追加するという簡便な方法が採られるが,問題を軽減するに過ぎない.論文等で報告されている程度の精度を実現するには,解析対象の分野のフルアノテーションコーパスを準備しなければならない.すなわち,解析対象の分野のテキストを用意し,すべての文字間に単語境界情報を付与し,すべての単語に品詞を付与する必要がある\footnote{CRFのパラメータを部分的アノテーションコーパスから推定する研究\cite{日本語単語分割の分野適応のための部分的アノテーションを用いた条件付き確率場の学習}もあるが,能動学習などの際に生じる非常にスパースかつ大規模な部分的アノテーションコーパスからの学習の場合には,必要となる主記憶が膨大で,現実的ではない.}.この結果,ある分野のテキストに自然言語処理を適用するのに要する時間は長くなり,コストは高くなる.本論文では,上述の形態素解析の現状と要求を背景として,大量の学習コーパスがある分野で既存手法と同程度の解析精度を実現すると同時に,高い分野適応性を実現する形態素解析器の設計を提案する.具体的には,形態素解析を単語分割と品詞推定に分解し,それぞれを点予測を用いて解決することを提案する.点予測とは,推定時の素性として,周囲の単語境界や品詞情報等の推定値を参照せずに,周辺の文字列の情報のみを参照する方法である.提案する設計により,単語境界や品詞が文の一部にのみ付与された部分的アノテーションコーパスや,品詞が付与されていない単語や単語列からなる辞書などの言語資源を利用することが可能となる.この結果,従来手法に比して格段に高い分野適応性を実現できる. | |
V24N01-02 | label{sec:intro}絵本の読み聞かせは幼児の言語発達を促す重要な情報の1つと考えられる\cite{Mol:2008,Reese:1999,Whitehurst:1988}.例えば,読み聞かせを開始する月齢が早いほど,2才や4才の時点での言語理解や発話の能力が高くなること\cite{Debaryshe:1993:joint,Payne:1994:role},そして8ヶ月時点での絵本の読み聞かせが多い方が,12,および,16ヶ月時点での語彙が発達していること\cite{Karrass:2005:effects}などが示されている.また,読み聞かせでは,読み手と聞き手という少なくとも2者が存在し,絵本という共通の対象がある.このような状況において,聞き手である幼児は自分以外の他者と同一の対象に注意を向ける共同注意(jointattention)という行動を頻繁にとることが知られており\cite{Karrass:2003:predicting},それが言語発達に影響する可能性などが指摘されている\cite{Tomasello:1986:joint}.こうしたインタラクションによる効果以外にも,例えば,\citeA{Sulzby:1985:children}は,日常の会話でほとんど出現しない語彙やフレーズが絵本に多数含まれていることが幼児の言語発達を進めることを指摘している.さらに,絵本の読み聞かせは言語発達を促すだけではなく,読み手と子どものコミュニケーションを促したり,登場人物の感情を推定したりするなど,情操教育にも役立つと考えられる\cite{Sato:Horikawa:Uchiyama:2016j,Furumi:Koyamauti:Ooba:2014j}.このように,絵本を読むことは,言語発達と情操教育の両面での効果が期待できる.しかし絵本には,赤ちゃん向けの絵本から,年長児(5才児)以上を対象とする絵本,大人向けの絵本まで存在し,その内容も難しさも様々である.そのため,子どもの興味や発達段階にあった絵本を選ぶのは難しい.親など日常的に接している保護者が子どもに絵本を選ぶ場合,書店や図書館などで手にとって確認すれば,その子に読めそうかどうか,興味を引きそうかどうかは分かるかもしれない\changedB{が,非常に多くの絵本を1冊1冊手に取って確認するのは}容易ではない.また,ある程度大きな子どもであれば,子ども自身でも絵本を選べるかもしれない.しかし,書店や図書館では,多くの本は背表紙が見える向きでずらりと並べて置かれている.そのため,表紙が目立つように置かれてる一部の絵本の中から手に取りやすい傾向がある.多くの書店や図書館では,目立つ場所に置く本を定期的に入れ替えたり,季節やテーマに応じた本の展示コーナーを作ったり,定期的に読み聞かせの会を開いたりするなど,絵本と出会うための様々な工夫がされている.こうした取り組みでは,本に詳しい書店員や司書の方が選んだ本を紹介してくれるため,良い本と出会いやすいという利点がある.しかし,タイミング良くその時にその場所に足を運ばなければ,手に取る機会を逃してしまうという状況は変わらない.また,そうして手にとった本がその子に合った読みやすさではない場合,簡単すぎてつまらなかったり,あるいは難しすぎて途中で投げ出してしまったりということが起こり易い.内容も,多くの子ども達には人気があるとしても,子ども1人1人を考えた時に,ちょうど興味のある内容であるとは限らない.このように,興味のある内容でちょうど良い読みやすさの本と出会えない場合,本をあまり読まなくなってしまったり,同じ本ばかり繰り返して読んだりすることもある.もちろん,繰り返して読むことは決して悪いことではない.お気に入りの本を繰り返して読みたがる時期もあるし,同じ本でも子どもの成長とともに理解が深まったり,最初とは違う読み方ができるようになることもあるだろう.しかし,同じ本ばかり読んだり借りたりする理由が,「他に興味を引く本が見つからないから」だったら問題である.しかも,0〜3才くらいまでの幼い子どもの場合は,そもそも自分で本を選ぶことも難しい.そこで我々は,子どもに内容と読みやすさがぴったりな絵本を見つけるためのシステム「ぴたりえ」を開発している.幼い子どもには入力インタフェースの利用が難しいため,親や保育士,司書などの大人が利用することを想定している. | |
V16N04-03 | 経済のグローバル化に伴い,英語が言わば国際共通語となった現在,日本人の英語によるコミュニケーション能力を向上させることは,国際的なビジネスの場などでの発表や交渉・議論を効果的に行うためには極めて重要な課題である.このような能力を向上させるためには,従来型の学習方法に加え,情報通信技術を応用したeラーニングによる学習の効率化が有効な解決策となりうる.ここで,英語によるコミュニケーションに必要な能力について注目する.英語による円滑なコミュニケーションを行なうには,以下に述べる種々の英語に関連した能力を総合的に向上させる必要がある.\begin{itemize}\item英語表現を正確に聞き取る能力\item英語表現を正確に発音する能力\item語順や単語を適切に選んで英語文を構成する能力(英語表現能力)\end{itemize}これらの個別の能力の内,発音と聴き取りに関しては,既にeラーニングシステムの研究開発が進んでおり,一定の成果を上げている\cite{hirose_2001,yamada_ica_2004}.その反面,英語表現能力を扱ったeラーニングシステムに関する取り組みは少ない.そこで本研究では,英語学習者コーパスの開発と英語表現能力を扱うeラーニングシステムの研究開発について取り組んでいる.英語表現能力をeラーニングにおいて扱う場合,従来の授業型の英語学習で教師により行なわれている「学習者の習熟度に適合した課題の選択」と「翻訳誤りの指摘とその訂正」という機能を自動化する必要がある.これらの2つの機能を自動化する上で,まず,的確に英語表現能力を自動測定する手法の確立が必要である.英語表現能力の測定においては,課題文を提示してその英訳文の適切性を評価する手法が一般的であるが,正解訳は一意に決定できないことから,学習者の作成した英文の評価は人手による主観的な評価によるのが現状である.英訳文の質を客観的に評価する手法については,機械翻訳の分野で,課題文に対する複数の正解訳文(以下参照訳と略称する)を予め用意しておき,編集距離や単語$n$グラムの一致度を用いて評価する手法が検討されている.このような評価手法は,統計的翻訳システムの評価においては,主観評価値と一定の相関を示すことが実証されているが\cite{papineni-EtAl:2002:ACL},その反面,ルールベースなどの機械翻訳の方式によっては,必ずしも適切な指標とはならないことも指摘されている\cite{burch_eacl_2006}.このような手法が英語学習者の翻訳文の評価においても有効であれば,英語表現能力の測定を自動化することが可能となる.この点を検証するためには,様々な英語能力を持つ英語学習者が翻訳した英訳文が必要である.現状の大規模学習者コーパスとしては,NICTJLEコーパス\cite{izumi}や,JEFLLコーパス\cite{JEFLL}があるが,これらは比較的自由度の高い会話やエッセイ方式によりデータ収集が行われているため,同一日本語文に対する複数の被験者による英訳文や,英語母語話者が翻訳した複数種類の英訳文を集積していないなど,英語表現能力の自動評価の検討を行うには,必ずしも十分満足できるものではない.そのため,まず,学習者の英語表現能力を自動評価する手法に対する検討のための基盤となる学習者コーパスを開発した.これは,学習者の英語表現能力の客観的評価手法の研究を行うための基盤として,TOEICスコアで表現される様々なレベルの英語能力を持つ英語学習者が同一の日本語文を翻訳した英訳文のデータを収集したコーパスである.本論文では,まず,この学習者コーパスの収集方法に関する説明を行なう.次に,収集したコーパスの基本的な統計量について示すとともに,被験者による英訳難易度,英訳の平均文長,英訳の平均単語長などの特徴量と,TOEICスコアとの関係に関する分析を行なう.最後に,本コーパスの訳質自動測定への応用について述べる.以下,\ref{sec:corpus}では開発した学習者コーパスの収集方法について述べ,\ref{sec:analysis}では,コーパスの基礎的な分析結果について述べる.\ref{sec:apli}では,本コーパスの訳質自動測定への応用について述べ,最後に,\ref{sec:conc}では全体をまとめる. | |
V21N03-05 | \label{sec:introduction}これまで,主に新聞などのテキストを対象とした解析では,形態素解析器を始めとして高い解析精度が達成されている.しかし近年,解析対象はWebデータなど多様化が進んでおり,これらのテキストに対しては既存の解析モデルで,必ずしも高い解析精度を得られるわけではない\cite{Kudo:Ichikawa:Talbot:Kazawa:2012j,Katsuki:Sasano:Kawahara:Kurohashi:2011j}.本稿では,そうしたテキストの一つである絵本を対象とした形態素解析の取り組みについて述べる.絵本は幼児の言語発達を支える重要なインプットの一つであり\cite{Mother-child:Ehon:2006},高い精度で解析できれば,発達心理学における研究や教育支援,絵本のリコメンデーション\cite{Hattori:Aoyama:2013j}などへの貢献が期待できる.\begin{table}[b]\caption{絵本の文の解析例}\label{tb:morph-ex}\input{1008table01.txt}\par\vspace{4pt}\small解析結果の出現形,原形,品詞を記載.\\ただし,\kyteaの配布モデルでは原形は出力されない.品詞は適宜簡略化して表示.\par\end{table}絵本の多くは子供向けに書かれており,わかりやすい文章になっていると考えられる.それにも関わらず,既存の形態素解析器とその配布モデルでは,必ずしもうまく解析できない.なお本稿では,\pos{モデル}を,既存の形態素解析器に与えるパラメタ群という意味で用いる.表~\ref{tb:morph-ex}に,既存の形態素解析器である\juman\footnote{http://nlp.ist.i.kyoto-u.ac.jp/index.php?JUMAN,ver.7.0を利用.}\cite{juman:7.0j},\chasen\footnote{http://chasen-legacy.sourceforge.jp/,ver.2.4.4を利用.}\cite{chasen:2.4.4j},\mecab\footnote{http://mecab.googlecode.com/svn/trunk/mecab/doc/index.html,ver0.996,辞書はmecab-ipadic-2.7.0-20070801を利用.}\cite{Mecab},\kytea\footnote{http://www.phontron.com/kytea/,ver.0.4.3を利用.}\cite{Mori:Nakata:Graham:Kawahara:2011j}とその配布モデルで絵本の文を解析した場合の例を示す.解析器によって誤り方は異なるが,すべて正しく解析できた解析器はなく,既存のモデルでは絵本の解析が難しいことがわかる.これは,一般的な形態素解析モデルを構築するときに用いられる学習データ(ラベルありデータ)と,解析対象である絵本のテキストでは傾向が大きく異なるためだと考えられる.このように,学習データと解析対象の分野が異なる場合には,形態素解析に限らず機械学習を用いる多くのタスクで精度が低下するため,それに対応するための様々な手法が提案されてきた.\citeA{Kamishima:2010j}は,この問題に対処するための機械学習の方針として,半教師あり学習,能動学習,転移学習の三つを挙げている.まず,半教師あり学習は,少数のラベルありデータを準備し,多数のラベルなしデータを活用して予測精度を向上させる手法であり,日本語では単語分割を行う手法が提案されている\cite{Hagiwara:Sekine:2012j}.能動学習は,より効率的な分類ができるように選んだ事例にラベルを付与する.日本語形態素解析では,確信度の低い解析結果に対して優先的に正解ラベルを付与していくことで,対象分野の解析精度を効率的に改善する方法が提案されている\cite{Mori:2012j,Neubig:Nakata:Mori:2011}.転移学習は,関連しているが異なる部分もあるデータから,目的の問題にも利用できる情報・知識だけを取り込んで,より予測精度の高い規則を得ることを目標とする\cite{Kamishima:2010j}.転移学習は,元の分野と対象分野のラベルありデータの有無によって分類ができる.本稿では,対象分野のラベルありデータが無い場合を教師なし分野適応,ある場合を教師あり分野適応と呼ぶ.\citeA{Kudo:Ichikawa:Talbot:Kazawa:2012j}が提案した,Web上のひらがな交じり文に対する形態素解析精度向上の手法では,大量のWeb上の生コーパスを利用しているが,対象分野のラベルありデータは用いておらず,教師なし分野適応の一種と言える.いずれの先行研究も優れた利点がある.しかし,本稿で対象とする絵本のように,これまで対象とされてきたコーパスと全く異なり,かつ,大量のデータの入手が困難な場合,これらの先行研究をそのまま適用しても高い精度を得ることは難しい.まず,絵本の大量の生コーパスが存在するわけではないため,Webデータを対象とする場合のような,大量の生コーパスを用いた半教師あり学習は適さないと考えられる.能動学習はすぐれた分野適応の方法であるが,本稿のように,ベースとなる初期モデルの学習に利用できる学習データと対象分野との差異が非常に大きい場合,解析誤りが多すぎ,結局ほぼ全文の解析結果を修正しつつラベルを付与する必要に迫られることになる.\citeA{Kudo:Ichikawa:Talbot:Kazawa:2012j}の方法は,ひらがな交じり文を対象としており,絵本の解析にも比較的適していると考えられる.しかし,絵本の場合,ひらがな交じりというより,全文がひらがなで記述されることも多く,高い精度で解析できるとは言えない.そもそも,対象分野のラベルありデータを十分に得ることができれば,通常,教師あり学習により高い精度が得られる.しかし,対象分野のラベルありデータを作成するためにも,何らかの形態素解析器による解析結果を修正する方法が一般的であり,そもそもの形態素解析精度が低いとラベルありデータの作成に,コストと時間が非常にかかることになる.そこで本稿では,既存の辞書やラベルありデータを,対象分野の特徴にあわせて自動的に変換し,それを使って形態素解析モデルを構築する教師なし分野適応手法を提案する.提案手法では,既存の言語資源を活用することで,コストと時間をかけずに,対象分野の解析に適した形態素解析モデルを得ることが出来る.また,こうして得た初期モデルの精度が高ければ,さらに精度を高めるための能動学習や,ラベルありデータの構築にも有利である.本稿では,提案手法で構築したモデルをさらに改良するため,絵本自体へのアノテーションを行って学習に利用した教師あり分野適応についても紹介する.以降,まず\ref{sec:target}章では,解析対象となる絵本データベースの紹介を行い,新聞などの一般向けテキストと絵本のテキストを比較し,違いを調査する.\ref{sec:morph-kytea}章では,本稿で形態素解析モデルの学習に利用する解析器やラベルありデータ,辞書,および,評価用データの紹介を行う.\ref{sec:bunseki}章では,絵本のテキストを漢字に変換した場合などの精度変化を調査することで,絵本の形態素解析の問題分析を行う.\ref{sec:morph}章では,\ref{sec:target}章,\ref{sec:bunseki}章の調査結果に基づき,解析対象である絵本に合わせて,既存の言語資源であるラベルありデータと辞書を変換する方法を提案する.\ref{sec:exp-adult}章では,これらを学習に用いる教師なし分野適応の評価実験を行い,提案手法による言語資源の変換の効果を示す.さらに,\ref{sec:exp-add-ehon}章では,絵本のラベルありデータを学習に利用する教師あり分野適応の評価実験を行う.また同時に,提案手法によって得られるラベルありデータが,どの程度の絵本自体のラベルありデータと同程度の効果になるかも評価する.\ref{sec:kousatsu}章では,前章までに得たモデルをさらに改良するための問題分析と改良案の提示を行い,提案手法の絵本以外のコーパスへの適用可能性についても考察する.最後に\ref{sec:conclusion}章では,本稿をまとめ,今後の課題について述べる. | |
V07N04-08 | \label{sec:introduction}日本語は語順が自由であると言われている.しかし,これまでの言語学的な調査によると実際には,時間を表す副詞の方が主語より前に来やすい,長い修飾句を持つ文節は前に来やすいといった何らかの傾向がある.もしこの傾向をうまく整理することができれば,それは文を解析あるいは生成する際に有効な情報となる.本論文では語順とは,係り相互間の語順,つまり同じ文節に係っていく文節の順序関係を意味するものとする.語順を決定する要因にはさまざまなものがある.それらの要因は語順を支配する基本的条件として文献\cite{Saeki:98}にまとめられており,それを我々の定義する語順について解釈しなおすと次のようになる.\begin{itemize}\item成分的条件\begin{itemize}\item深く係っていく文節は浅く係っていく文節より前に来やすい.深く係っていく文節とは係り文節と受け文節の距離が長い文節のことを言う.例えば,係り文節と受け文節の呼応を見ると,基本的語順は,感動詞などを含む文節,時間を表す副詞を含む文節,主語を含む文節,目的語を含む文節の順になり,このとき,時間を表す副詞を含む文節は主語を含む文節より深く係っていく文節であると言う.このように係り文節と受け文節の距離を表す概念を係りの深さという.\item広く係っていく文節は狭く係っていく文節より前に来やすい.広く係っていく文節とは受け文節を厳しく限定しない文節のことである.例えば,「東京へ」のような文節は「行く」のように何らかの移動を表す動詞が受け文節に来ることが多いが,「私が」のような文節は受け文節をそれほど限定しない.このとき,「私が」は「東京へ」より広く係っていく文節であると言う.このように係り文節がどの程度受け文節を限定するかという概念を係りの広さと言う.\end{itemize}\item構文的条件\begin{itemize}\item長い文節は短い文節より前に来やすい.長い文節とは修飾句の長い文節のことを言う.\item文脈指示語を含む文節は前に来やすい.\item承前反復語を含む文節は前に来やすい.承前反復語とは前文の語を承けて使われている語のことを言う.例えば,「あるところにおじいさんとおばあさんがおりました.おじいさんは山へ柴刈におばあさんは川へ洗濯に行きました.」という文では,2文目の「おじいさん」や「おばあさん」が承前反復語である.\item提題助詞「は」を伴う文節は前に来やすい.\end{itemize}\end{itemize}以上のような要素と語順の関係を整理する試みの一つとして,特に係りの広さに着目し,辞書の情報を用いて語順を推定するモデルが提案された\cite{Tokunaga91b}.しかし,動詞の格要素の語順に限定しており必須格しか扱えない,文脈情報が扱えないなどの問題点が指摘されている\cite{Saeki:98}.語順を推定するモデルとしては他にN-gramモデルを用いたもの\cite{Maruyama:94}があるが,これは一文内の形態素の並びを推定するモデルであり,我々とは問題設定が異なる.また,上に箇条書きとしてあげたような要素は特に考慮していない.英語については,語順を名詞の修飾語の順序関係に限定し統計的に推定するモデルが提案された\cite{Shaw:99}が,語順を決定する要因として多くの要素を同時に考慮することはできないため,日本語の語順に対して適用するのは難しい.本論文では,上に箇条書きとしてあげたような要素と語順の傾向との関係をコーパスから学習する手法を提案する.この手法では,語順の決定にはどの要素がどの程度寄与するかだけでなく,どのような要素の組み合わせのときにどのような傾向の語順になるかということもコーパスから自動学習することができる.個々の要素の寄与の度合は最大エントロピー(ME)モデルを用いて効率良く学習する.学習されたモデルの性能は,そのモデルを用いて語順を決めるテストを行ない,元の文における語順とどの程度一致するかを調べることによって定量的に評価することができる.正しい語順の情報はテキスト上に保存されているため,学習コーパスは必ずしもタグ付きである必要はなく,生コーパスを既存の解析システムで解析した結果を用いてもよい.後節の実験で示すように,既存の解析システムの精度が90\%程度であったとしても学習コーパスとして十分に役割を果たすのである. | |
V13N03-05 | 述語項構造とは述語とその項の間の意味的な関係を表現する構造の一つである.例えば,「彼が扉をひらく」という文中の述語「ひらく」の項構造は[agent,theme]のように表すことができる.agent,themeは項が述語に対してどのような意味的関係となっているかを表す意味役割である.また,所与の文章中の各述語に対して,(1)述語が取り得る項構造のうち最も文の解釈に適った項構造を選択し,(2)その構造の各項に対応する要素を同定することで述語項構造を出力する処理を項構造解析と呼ぶ.例えば,文「彼が扉をひらく」を述語項構造解析する場合には,述語「ひらく」に対して図\ref{fig:arg_dic}\,に示すような項構造辞書から対応する項構造を選択し,入力文の格要素を各項に割り当てて構造[agent:彼,theme:扉]を得る.項構造解析を高精度で実現すれば,「彼が扉をひらく」$\Leftrightarrow$「扉がひらく」のような交替に代表される表現の多様性を吸収でき,言い換えや情報抽出,質問応答などの自然言語処理技術を高度化できる.述語の項構造に関する研究は,\citeA{Fil:68}の格文法など古くから関心を集めている.これらの研究は,項構造辞書の作成,項構造タグ付きコーパスの作成,項構造解析の三つの研究に大別でき,項構造辞書作成の研究では,近年,\citeA{Dorr:97}によって項構造辞書作成の方法論が開発されている.この研究成果から大規模な項構造辞書を作成する基盤ができてきた.また項構造情報を含む詳細な動詞辞書FrameNet\cite{Frame:98}や項構造タグ付きコーパスPropBank\cite{Prop:02}も報告されている.項構造解析の研究は国際会議CoNLLにおけるSharedTask\footnote{http://www.lsi.upc.edu/\~{}srlconll/}として取り上げられるなど関心が集まっており,近年提案されている主な手法は教師なし手法と教師あり手法に大別できる.現状では,PropBankのような項構造タグ付きコーパスが作成されたこともあり,教師あり手法の研究が盛んである.教師なし手法では,\citeA{Lapata:Brew:99}のように項構造辞書の下位範疇化の構造を利用して擬似的に訓練事例を作成する手法などが提案されているが,一般に解析精度が低い.これに対して,\citeA{gildea:02:c},Haciogluら\citeyear{Kadri:03}やThompsonら\citeyear{Cyn:03}の提案する教師あり手法では,項構造タグが付与された学習コーパスから述語と文章中の要素との構文構造における位置関係などを素性として利用しており,教師なし手法よりも精度が高いという利点を持つ.しかし学習に用いるコーパス中の各述語に対し(i)取り得る項構造と項構造辞書中の項構造の対応付け,および(ii)選択した項構造の各項と文章中の要素の対応付け,という人手による項構造タグ付与作業が必要であるため作業コストが高いという問題がある.そこで本研究では,項構造タグ付き事例を効率的に作成する方法について議論する.項構造タグ付き事例の効率的な作成方法にはさまざまな方法が考えられるが,本論文では,学習に用いるコーパス中の各述語に項構造タグを付与する過程で生じる類似用例への冗長なタグ付与作業の問題に着目する.具体的には,大規模平文コーパスから抽出した表層格パターンの用例集合をクラスタリングし,得られたクラスタに項構造タグを付与することでタグ付与コストを削減する手法を提案する.提案手法では,(A)表層格パターン同士の類似性と(B)動詞間の類似性という2種類の類似性を利用してクラスタリングを行う.評価実験では,実際に提案手法を用いて8つの動詞の項構造タグ付き事例を作成し,それを用いた項構造解析の実験を行うことによって,提案手法のクラスタリングの性能や,人手でタグ付き事例を作成するコストと項構造解析精度の関係を調査した.\begin{figure}[t]\begin{center}\includegraphics[width=0.85\hsize]{clip013.eps}\end{center}\caption{動詞項構造辞書の一例(「ひらく」について)}\label{fig:arg_dic}\end{figure} | |
V20N04-03 | 現在の自動要約の多くは文を単位にした処理を行っている\cite{okumura05}.具体的には,まず入力された文書集合を文分割器を用いて文集合に変換する.次に,文集合から,要約長を満たす文の組み合わせを,要約としての善し悪しを与える何らかの基準に基づいて選び出す.最後に,選び出された文に適当な順序を与えることによって要約は生成される.近年では,複数文書の自動要約は最大被覆問題の形で定式化されることが多い\cite{filatova04,yih07,takamura08,gillick09,higashinaka10b,nishikawa13}.これは,入力文書集合に含まれる単語のユニグラムやバイグラムといった単位を,与えられた要約長を満たす文の集合によってできる限り被覆することによって要約を生成するものである.最大被覆問題に基づく要約モデル\footnote{本論文では,自動要約のために設計された,何らかの目的関数と一連の制約によって記述される数理計画問題を特に要約モデルと呼ぶことにする.これは自動要約のための新しい要約モデル(数理計画問題)の開発と,何らかの要約モデルに対する新しい最適化手法の提案を陽に切り離して議論するためである.また,特定の要約モデルとその要約モデルに対する具体的な一つの最適化手法を合わせたものを要約手法と呼ぶことにする.}(以降,最大被覆モデルと呼ぶ)は,複数文書要約において問題となる要約の冗長性をうまく取り扱うことができるため,複数文書要約モデルとして高い能力を持つことが実証されている\cite{takamura08,gillick09}.しかし,その計算複雑性はNP困難である\cite{khuller99}ため,入力文書集合が大規模になった場合,最適解を求める際に多大な時間を要する恐れがある.本論文で後に詳述する実験では,30種類の入力文書集合を要約するために1週間以上の時間を要した.平均すると,1つの入力文書集合を要約するために8時間以上を要しており,これではとても実用的とは言えない.一方,ナップサック問題として自動要約を定式化した場合,動的計画法を用いることで擬多項式時間で最適解を得ることができる\cite{korte08,hirao09b}.ナップサック問題に基づく要約モデル(以降,ナップサックモデルと呼ぶ)では,個別の文に重要度を与え,与えられた要約長内で文の重要度の和を最大化する問題として自動要約は表現される.この問題は個別の文にスコアを与え,文のスコアの和を最大化する形式であるため,要約に含まれる冗長性が考慮されない.そのため,最大被覆モデルとは異なり冗長な要約を生成する恐れがある.最大被覆モデルとナップサックモデルを比較すると,前者は複数文書要約モデルとして高い性能を持つものの求解に時間を要する.一方,後者は複数文書要約モデルとしての性能は芳しくないものの高速に求解できる.本論文では,このトレードオフを解決する要約モデルを提案する.本論文の提案する要約モデルは,動的計画法によって擬多項式時間で最適解を得られるナップサック問題の性質を活かしつつ,要約の冗長性を制限する制約を陽に加えたものである.以降,本論文ではこの複数文書要約モデルを冗長性制約付きナップサックモデルと呼ぶことにする.冗長性を制限する制約をナップサックモデルに加えることで冗長性の少ない要約を得ることができるが,再び最適解の求解は困難となるため,本論文では,ラグランジュヒューリスティック\cite{haddadi97,umetani07}を用いて冗長性制約付きナップサックモデルの近似解を得る方法を提案する.ラグランジュヒューリスティックはラグランジュ緩和によって得られる緩和解から何らかのヒューリスティックを用いて実行可能解を得るもので,集合被覆問題において良好な近似解が得られることが知られている\cite{umetani07}.本論文の貢献は,新しい要約モデル(冗長性制約付きナップサックモデル)の開発,および当該モデルに対する最適化手法の提案(ラグランジュヒューリスティックによるデコーディング)の両者にある.冗長性制約付きナップサックモデルの,最大被覆モデルおよびナップサックモデルに対する優位性を表\ref{tb:comp}に示す.提案する要約モデルを提案する最適化手法でデコードすることで,最大被覆モデルの要約品質を,ナップサックモデルの要約速度に近い速度で得ることができる.\begin{table}[t]\caption{冗長性制約付きナップサックモデルの優位性}\label{tb:comp}\input{03table01.txt}\end{table}以下,2節では関連研究について述べる.3節では提案する要約モデルについて述べる.4節では,デコーディングのためのアルゴリズムについて述べる.5節では提案手法の性能を実験によって検証する.6節では本論文についてまとめる. | |
V13N03-01 | 近年,統計ベース翻訳\cite{Brown1993}や用例ベース翻訳\cite{Nagao1984}など大量のテキストを用いた翻訳手法(コーパスベース翻訳)が注目されている.我々は,用例ベース翻訳に焦点を当て研究を行っている.用例ベース翻訳の基本的なアイデアは,入力文の各部分に対して\textbf{類似}している用例を選択し,それらを組み合わせて翻訳を行うことである.ここでいう\textbf{類似}とは,通常,入力文とできるかぎり大きく一致していればいるほど(一致する単語数または文節数が多いほど)よいと考えられてきた.これは,用例が大きくなればなるほど,より大きなコンテキストを扱うことになり,正確な訳につながるからである.そのため,これまでの用例ベース翻訳は,大きな用例を優先する指標/基準を用いて用例を選択してきた.一方,統計ベース翻訳は,翻訳確率を緻密に計算するため,基本的には,翻訳用例を小さな語/句単位に分解して学習を行う.もちろん,最近の統計ベース翻訳では,より大きな単位を取り扱う試みも行われている.例えば,Och\cite{Och1999}等は,アライメントテンプレートという単位を導入し,語列をまとめて学習した.また,他にも多くの統計翻訳研究が語よりも大きな単位を学習に取り込む試みを行っている\cite{Koehn2003,Watanabe2003}.しかし,入力文とできる限り大きく一致した用例を用いる用例ベース翻訳と比べると,あらかじめ翻訳単位を設定する統計ベース翻訳の扱う単位は依然として小さいと言える.簡単に言うと,統計ベース翻訳と用例ベース翻訳は,以下の2点で異なる.\begin{enumerate}\item用例ベース翻訳は,用例のサイズ(一致する単語数または文節数)を重視している.統計ベース翻訳は用例の頻度を重視している.\item用例ベース翻訳は,経験則による指標/基準にもとづいて動作している.統計ベース翻訳は確率的に定式化されている.\end{enumerate}本研究では,用例ベース翻訳の問題は,(2)経験則による指標/基準を用いている点だと考える.経験則による指標/基準は,調整や修正が困難であり,また,アルゴリズムが不透明になる恐れがある.そこで,本研究では,用例ベース翻訳を定式化するために,用例ベース翻訳のための確率モデルを提案する.提案する翻訳モデルは,統計ベースのそれとは異なり,語や句単位の小さな単位から,文全体まで,あらゆるサイズをカバーした翻訳確率を計算する.この枠組みの上では,大きなサイズの用例は安定した翻訳先を伴うため,高い翻訳確率を持つと考えられる.したがって,翻訳確率が高い用例を選ぶことで,自然と用例のサイズを考慮した用例の選択が可能となる.また,提案する翻訳確率は容易に拡張可能であり,用例と入力文のコンテキストの類似度を確率モデルに取り込むことも可能である.実験の結果,提案手法は,従来の経験則に基づいた翻訳システムよりも僅かに高い精度を得て,用例ベース翻訳の透明性の高いモデル化を実現することに成功したので報告する.提案手法は言語ペアを特定しないが,本稿は日英翻訳方向で説明し,実験を行った.本稿の構成は,以下のとおりである.2章では,提案するモデルの基本的アイデアについて説明する.3章では,アルゴリズムについて述べる.4章では,実験について報告する.5章では,関連研究を紹介し,6章に結論を述べる. | |
V31N01-05 | \label{sec:intro}関係抽出はテキストにおけるエンティティ(実体)の関係を認識するタスクである.従来の関係抽出は,文内に閉じて関係を認識するタスク設定の研究が多く\cite{doddington-etal-2004-automatic,han-etal-2018-fewrel,hendrickx-etal-2010-semeval,zhang-etal-2017-position,alt-etal-2020-tacred},テキスト中で複数の文にまたがって表現される関係は対象外となってしまうため,適用範囲が狭いという課題があった\cite{yao-etal-2019-docred}.これに対して,複数の文で言及される関係にも対応したタスク,すなわち\textbf{文書レベル関係抽出}(\textbf{DocRE}:\textbf{Doc}ument-level\textbf{R}elation\textbf{E}xtraction)が提案された\cite{yao-etal-2019-docred,li-etal-2016-cdr,verga-etal-2018-simultaneously}.DocREでは,複数の文における情報の取捨選択や統合をしながら,エンティティ間の関係を推定する必要がある\cite{huang-etal-2021-three,xie-etal-2022-eider,xu-etal-2022-document}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{31-1ia4f1.pdf}\end{center}\hangcaption{DocREDのアノテーションの例.斜体は関係を予測したいエンティティの言及(メンション)であり,下線はその他のエンティティの言及である.}\label{fig:example}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%DocREにおいて情報の取捨選択に用いられるのが\textbf{根拠}(evidence)である.根拠はDocREで広く用いられるデータセットDocRED\cite{yao-etal-2019-docred}で初めて定義され,関係を推定するために必要最小限な情報を含む文の集合としてラベル付けされた.図~\ref{fig:example}の例では,\textit{PrinceEdmund}と\textit{Blackadder}における関係\textit{presentinwork}を認識するための必要最小限な情報は文1と2であるため,この関係の根拠は文1と2とラベル付けされる.既存研究では,DocREのサブタスクとして\textbf{根拠認識}に取り組み,エンティティ組の関係を推定する際に必要な情報の取捨選択を行うことが多かった\cite{yao-etal-2019-docred,huang-etal-2021-three,xie-etal-2022-eider,xiao-etal-2022-sais}.ただし,これらの研究は,DocREと根拠認識を別々のタスクとしてモデル化しているため\cite{huang-etal-2021-three,xie-etal-2022-eider,xiao-etal-2022-sais},両タスクの関連性を考慮できない.これに対し,本稿ではDocREと根拠認識のモデルを統合した新手法として,\textbf{D}ocument-level\textbf{R}elation\textbf{E}xtractionwith\textbf{E}vidence-guided\textbf{A}ttention\textbf{M}echanism(DREEAM)を提案する.DREEAMでは,根拠を単語(トークン)や文の重要度に関する情報としてテキストのエンコーダに統合する.具体的には,BERT\cite{devlin-etal-2019-bert}などの事前学習済み言語モデルのエンコーダにおける自己注意機構\cite{NIPS2017attention}への教師信号として根拠を導入し,根拠に高い重みを配分するように誘導しながらDocREのモデルを学習する.これにより,根拠認識に特化したモデルが不要となり,パラメータ数の削減や推論時のメモリ使用量の低減も実現できる.なお,文書レベルの関係アノテーションはコストが高いため,学習データが不足しがちな状況にある.表~\ref{tab:dataset}に示すように,現時点で最大規模のデータセットであるDocREDでも,人手でラベルが付与された文書は5,051件しかない.DocREDではデータ不足を緩和するため,遠距離教師あり学習(DistantSupervision,\citeA{mintz-etal-2009-distant})を用いて関係ラベルを自動付与しているが,根拠ラベルの自動付与は行われていない.本研究では,提案手法であるDREEAMを用いて根拠の疑似的な教師信号を自動的に付与し,大量の自動関係ラベル付けデータに根拠の疑似ラベルを追加する.これにより,大量の自動ラベル付けデータを関係抽出及び根拠認識双方の学習に活用できる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[b]\input{04table01.tex}%\caption{DocREDデータセットの統計情報}\label{tab:dataset}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%提案手法の有効性を検証するため,DocREDベンチマークで実験を行った結果,提案手法は関係抽出と根拠認識の双方において,現時点の世界最高性能を達成した.DocREDを改良したベンチマークRe-DocREDで実験を行っても,提案手法は既存手法を上回る性能を示した.また,推論時では,提案手法のメモリ使用量は既存手法の30\%以下であり,根拠の予測におけるメモリ効率を大幅に改善できた.提案手法の実装を\url{https://github.com/YoumiMa/dreeam}で公開している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% | |
V28N04-05 | グローバル人材育成のため,政府は外国人留学生の受け入れを推進している\footnote{\url{https://www8.cao.go.jp/youth/whitepaper/r01honpen/s6_1.html}}.また,京都大学でも教養・共通科目を英語で提供したり,日本語・日本文化の教育を組み込んだプログラムを用意するなどの施策を行っている\footnote{\url{https://www.kyoto-u.ac.jp/ja/international/students1/study1/undergraduate}}.しかし,主に講義で用いられる言語は日本語であるため,日本人と外国人留学生との間には学習機会の差が未だに存在し,日本語を勉強中の学生をより一層サポートする必要がある.この解決策として,専門的な内容を通訳できる通訳者を各講義に配置することは,コスト面から現実的でない.一方で,近年,深層学習などによって音声認識や機械翻訳の技術は劇的に進展しており,このような自動処理を活用していくことが今後の方向性であると考えられる.音声の機械翻訳は,音声から音声の場合\cite{speech2speech}と音声からテキストの場合があるが,本研究では後者を対象とする.音声からテキストへの翻訳では,一つのモデルで音声から翻訳済みのテキストまでEndtoEndで変換する手法\cite{end2end}と,書き起こしと翻訳を別々のモデルで行う手法\cite{lmt2,lmt1}がある.前者はエラーの累積が少なく,処理時間も短くできることが多いが,ある言語の音声と別言語のテキストの対応をとったコーパスは少ない\cite{end2end}.また分野適応のための新規コーパスの構築も難しい.このため,翻訳精度を高くすることが困難である.一方,後者の手法は,音声認識器からのエラーの累積があるものの,講義のような比較的落ち着いた話し言葉の音声認識は近年かなり高精度になってきており,単言語内での音声とその書き起こしのコーパスやテキスト形式の翻訳コーパスは利用可能なものが多く,新たなコーパスの構築も難しくない.さらに,日本語の書き起こしと英訳を字幕として同時に提供することで,講義内容の理解の補助と同時に日本語の習得の手助けもできる.本研究は,以上のメリット・デメリットと,講義音声を他言語字幕に翻訳する既存のシステム\cite{lmt2,lmt1}の構成を踏まえ,日本語音声を音声認識器によって書き起こし,次いで機械翻訳により日英翻訳を行う設定で研究を行う.機械翻訳モデルはTransformer\cite{transformer}の登場以来翻訳精度が大きく向上しているが,このモデルの性能を十分に発揮するためには大量のテキストデータを用意する必要がある.広く利用可能な日本語テキストの多くは書き言葉を用いたものであり,話し言葉のコーパスは少ないため,機械翻訳モデルは日本語書き言葉から英語への翻訳を学習することになる.一方,講義では話し言葉が用いられ,それを書き起こしたテキストが機械翻訳モデルへの入力となる.このような書き言葉と話し言葉という訓練データと実際のデータ間のギャップは翻訳精度に悪影響を及ぼすことが知られている\cite{disfluency1,disfluency2,preedit_for_speech_translation}.本研究では日本語の話し言葉と書き言葉の違いに着目し,翻訳精度の向上と,標準語に近い整った日本語書き起こしを提供することによる日本語学習の促進を目的として,話し言葉から書き言葉への自動変換を行う(図\ref{fig:system}).タスクとしての話し言葉書き言葉変換には,フィラーや文末の「ですね」の除去等,パターンマッチや簡単な言語モデルである程度解決可能な問題だけでなく,言い直しや言い換えといった冗長な表現の削除や省略された格助詞の補完など文脈に依存した難しい問題も含まれる.本研究ではこれらの問題を単一のモデルで解決することに取り組む.本システムの推論時には,文の区切りとして音声認識器の出力に含まれる無音区間が文末かどうかを判定するニューラルネットワークモデルによる出力を用いる(例:「でアレニウス式は温度依存性を表すやつ[SEP]です\red{[SEP]}はい\red{[SEP]}そして最後に[SEP]反応器の[SEP]」の場合は,下線部分の無音区間([SEP])が文末と判定されるような学習を行ったモデルを用いる).%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[t]\begin{center}\includegraphics{28-4ia4f1.pdf}\end{center}\caption{大学講義の日英翻訳システムの概要}\label{fig:system}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%この話し言葉書き言葉変換を行うモデルを訓練するため,また,その変換による日英翻訳への影響を調査するため,新たなコーパスを構築した.このコーパスは大学講義の書き起こしとそれを書き言葉に変換したもの,対応する英文の3つ組からなる.なおコーパス構築の際には,話し言葉特有の現象の分類\cite{swdiff,csj_rep}を参考にし,どのような現象を変換すべきか取り決めた.こうして構築したコーパスを用いて話し言葉書き言葉変換モデルと日英翻訳モデルを学習させ,話し言葉書き言葉変換が日英翻訳の精度を向上させることを実験的に示した.また,話し言葉書き言葉変換の複数手法の定量的評価を行った.加えて,話し言葉に特有の現象の分類に基づき,どのような現象がどの程度翻訳精度に影響するのかを定量化した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% | |
V27N02-07 | 機械翻訳は自然言語処理の初期から盛んに研究され,様々な手法が提案されてきているが,近年では,ニューラルネットワークを用いた機械翻訳(NeuralMachineTranslation;NMT)が高い精度を実現しており,主流となっている.NMTの中でも,特に,同一文内の単語間の関係を捉えるSelfAttentionという構造を用いたTransformer\cite{tf}に基づくNMTがstate-of-the-artの精度を達成し,注目を集めている.TransformerNMTは,従来の畳み込みニューラルネットワーク(ConvolutionalNeuralNetwork;CNN)に基づくNMT\cite{pmlr-v70-gehring17a}や再帰型ニューラルネットワーク(RecurrentNeuralNetwork;RNN)に基づくNMT\cite{NIPS2014_5346,D15-1166}と異なり,原言語文や目的言語文において,同一文中のすべての単語間の関連度をAttention(SelfAttention)で計算する.また,各単語の文中における位置情報はPositionalEncodingを用いて各単語の埋め込み表現に付随させることで,学習時に単語毎の並列処理を可能としている.Shawら\cite{relative}は,単語の位置情報として,2単語間の文中における相対的な位置関係の情報をSelfAttentionにおいて考慮することでTransformerNMTの翻訳精度の改善を実現した.これまで,統計的機械翻訳やNMT等では,原言語文や目的言語文,あるいはその両方の構文情報(句構造や係り受け構造など)を活用することで翻訳精度が改善されており\cite{syntax_smt,dep2seq,seq2dep,dep2dep},近年,TransformerNMTにおいても構文情報が活用されてきている.しかし,Wuら\cite{dep2dep}やZhangら\cite{zhang-etal-2019-syntax}など,多くの従来研究ではTransformerNMTの外側に構文情報を考慮する機構を付加しており,TransformerNMTのモデル自体は改良されていない.本稿では,原言語側の係り受け構造に基づく2単語間の相対的位置情報をTransformerエンコーダのSelfAttentionで考慮する新たなTransformerNMTモデルを提案する.具体的には,Shawら\cite{relative}に倣い,原言語文を係り受け解析した結果得られる係り受け構造に基づく単語間の相対的位置関係を埋め込んだベクトルを単語埋め込みベクトルに付随させる.原言語側の係り受け構造に基づく2単語間の相対的位置情報を考慮することで,単語系列に対する位置情報のみを考慮するよりも正しく単語間の依存関係を捉えた目的言語文を生成できるようになり翻訳性能の改善が期待される.科学技術論文の概要から作成されたASPEC(AsianScientificPaperExcerptCorpus)\cite{aspec}データを用いた英日および日英翻訳実験により,原言語文の係り受け構造を相対的位置表現で考慮する提案モデルは,従来の係り受け構造を考慮しないTransformerNMTモデル\cite{tf,relative}よりも高い翻訳精度を達成できることを示す.特に,日英翻訳においては0.37ポイントBLEUスコアが上回ることを確認した.本稿の構成は以下の通りである.2節で本研究の関連研究について述べ,3節では提案モデルのベースとなる従来のTransformerNMTモデル\cite{tf,relative}について説明する.4節では本研究の提案モデルについて述べる.5節では本研究で行った実験とその結果の考察を行い,6節で本稿のまとめと今後の課題について述べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% | |
V15N05-07 | \label{sec:introduction}近年,国際化の流れの中で,多くの言語を頻繁に切り替えて入力することが多くなってきている.例えば,自然言語処理の分野では,``namedentity''や``chunking''といった英語の表現が,そのままの形で日本語文中に出現することも多い.このように同一{\text}内に複数の言語が混在する{\text}を,本論文では「多言語{\text}」と呼ぶ.言語入力には,ユーザーが入力したキー列を,その言語での文字列に変換するために,{\eminputmethodengine}(IME)と呼ばれるソフトウェアが欠かせない.例えば,日本語のローマ字入力のIMEは,ユーザが``tagengo''というキー列を入力した時,これを``多言語''という文字列に変換する役割を担う.IMEは,日本語や中国語など,漢字への変換に限定されたものとして捉えられることも多いが,本論文では,以後,単純に,キー列から文字列への変換を担うソフトウェアという意味で用いる.従来は,入力する言語を切り替えるたびに,このIMEをユーザが手動で切り替えていた.しかし,これでは,言語を切り替える際のユーザの負担が大きく,特に言語を切り替え忘れた時に打ち直しの問題が生じていた.そこで,本論文では,{\tes}の切り替えを自動化してユーザーの負担を軽減する,{\name}という多言語入力システムを提案する\cite{typeanyijcnlp}.このシステムは,ユーザーのキー入力と{\tes}を仲介し,ユーザーが入力しているキー列から言語を自動的に判別して,{\tes}を切り替える.これによって,{\tes}の切り替えによるユーザーの負担が,大幅に減少すると見込まれる. | |
V27N02-03 | テキスト平易化\cite{Shardlow2014}は,ユーザの文章読解支援を目的として,難解なテキストから平易なテキストへ意味を保持しつつ書き換えるタスクである.各ユーザの語学レベルや読解力,認知力,知識などによって求められるテキストの難易度が異なるため,それぞれのユーザに対応した難易度制御が求められている.特に言語学習に関する教育現場では,教師が多くの時間をかけて各学習者向けに手動で平易なテキストを生成している.インプット仮説\cite{Krashen1985}によると,学習者の能力よりわずかに高い難易度の教材を用いることで高い学習効果が得られる.一方,過度に高い難易度の教材では学習効果が低くなり,学習意欲の低下を招く要因にもなる.そのため,教師の負担軽減のために自動的なテキストの難易度制御が求められている\cite{Petersen2007}.テキスト平易化の処理は,主に「省略」と「言い換え」によって実現される.\tabref{tab:simplification-example}の例では,米国の$12$年生(高校$3$年生)向けのテキストでの\texttt{whileserving$\sim$}が$5$年生(小学$5$年生)向けのテキストでは省略されている.また,$12$年生向けのテキストにおける\texttt{Accordingto}が$7$年生(中学$1$年生)向けのテキストでは\texttt{says}に,\texttt{Pentagon}が$5$年生向けのテキストでは\texttt{military}へ言い換えられている.個々のユーザに対応した難易度制御へ向けた第一歩として,本研究では「学年」を対象とし,目的の学年に適した難易度へ文を自動で変換する課題に取り組む.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[t]\caption{学年に合わせたテキスト平易化の例}\label{tab:simplification-example}\input{02table01.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%テキスト平易化における多くの先行研究\cite{Specia2010,Coster2011,Wubben2012,Xu2016,kajiwara2016,Nisioi2017,Zhang2017,Vu2018,Guo2018,Zhao2018}では,難解な英文と平易な英文からなるパラレルコーパスに基づく同一言語内の機械翻訳によって単純に「難解」から「平易」への難易度変換を行っており,難易度を細かく制御できない.\citeA{Scarton2018}は,$11$段階の難易度付きパラレルコーパス\cite{Xu2015}を用いて細かな難易度制御に初めて取り組んだ.この手法では,出力文の目標難易度を入力文にラベルとして付与することにより,同じ入力文であっても目標難易度に応じて書き換え分けるが,単語の難易度については考慮されていない.本研究では,文全体の大域的な難易度に加えて,個々の単語の局所的な難易度も適切に制御するために,文の難易度とともに単語の難易度も考慮する手法を$3$種類提案する.それぞれ,単語分散表現を拡張する手法,難解な単語の出力を制限するハードな語彙制約手法,平易な単語の出力を促すソフトな語彙制約手法である.いずれの手法も,既存手法では言い換えられなかった難解な単語を積極的に平易化することが期待できる.上述の難易度付きパラレルコーパスを用いて,提案手法の有効性を検証する.テキスト平易化ではBLEU\cite{Papineni2002}およびSARI\cite{Xu2016}が標準的な評価指標として用いられる.BLEUが出力文と正解文の語句の一致率を評価するのに対して,SARIは入力文・出力文・正解文の$3$つを比較することで言い換えるべき語句を正しく言い換えたかを評価する.評価実験の結果,ソフトな語彙制約手法は既存手法と比較してBLEUを$1.04$ポイント,SARIを$0.15$ポイント改善した.さらに詳細な分析の結果,提案手法は文全体の難易度だけでなく単語の難易度も上手く制御でき,積極的な書き換えを促進することが明らかとなった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% | |
V03N04-03 | 自然言語では通常,相手(読み手もしくは聞き手)に容易に判断できる要素は,文章上表現しない場合が多い.この現象は,機械翻訳システムや対話処理システム等の自然言語処理システムにおいて大きな問題となる.例えば,機械翻訳システムにおいては,原言語では陽に示されていない要素が目的言語で必須要素になる場合,陽に示されていない要素の同定が必要となる.特に日英機械翻訳システムにおいては,日本語の格要素が省略される傾向が強いのに対し,英語では訳出上必須要素となるため,この省略された格要素(ゼロ代名詞と呼ばれる)の照応解析技術は重要となる.従来からこのゼロ代名詞の照応解析に関して,様々な手法が提案されている.KameyamaやWalkerらは,Centeringアルゴリズムに基づき助詞の種類や共感動詞の有無により文章中に現われる照応要素を決定する手法を提案した\cite{Kameyama1986,WalkerIidaCote1990}.また,Yoshimotoは,対話文に対して文章中にあらわれる照応要素については主題をベースとして照応要素を同定し,文章中に現われないゼロ代名詞については敬語表現やspeechactに基づき照応要素を同定する手法を提案した\cite{Yoshimoto1988}.堂坂は,日本語対話における対話登場人物間の待遇関係,話者の視点,情報のなわばりに関わる言語外情報の発話環境を用いて,ゼロ代名詞が照応する対話登場人物を同定するモデルを提案した\cite{Dousaka1994}.Nakagawaらは,複文中にあらわれるゼロ代名詞の照応解析に,動機保持者という新たに定義した語用論的役割を導入して,従属節と主節それぞれの意味的役割と語用論的役割の間の関係を制約として用いることで解析するモデルを提案した\cite{NakagawaNishizawa1994}.これらの手法は,翻訳対象分野を限定しない機械翻訳システムに応用することを考えると,解析精度の点や対象とする言語現象が限られる点,また,必要となる知識量が膨大となる点で問題があり,実現は困難である.ところで,照応される側の要素から見ると,機械翻訳システムで解析が必要となるゼロ代名詞は次のような3種類に分類できる.\begin{enumerate}\item[(a)]照応要素が同一文内に存在するゼロ代名詞(文内照応)\item[(b)]照応要素が文章中の他の文に存在するゼロ代名詞(文間照応)\item[(c)]照応要素が文章中に存在しないゼロ代名詞(文章外照応)\end{enumerate}\noindentこれら3種類のゼロ代名詞を精度良く解析するためには,個々のゼロ代名詞の種類に応じた照応解析条件を用いる必要がある.また,これら3種類のゼロ代名詞を解析するための解析ルールは,相互矛盾が起きないように,ルールの適用順序を考慮する必要がある.この3種類のうち,(b)タイプに関しては,既に,知識量の爆発を避けるための手段として,用言のもつ意味を分類して,その語のもつ代表的属性値によって,語と語や文と文の意味的関係を決定し,文章中の他の文内に現われる照応要素を決定する手法をが提案されている\cite{NakaiwaIkehara1993}.また,(c)タイプに関しては,語用論的・意味論的制約を用いることによって,文章中に存在しない照応要素を決定する手法が提案されている\cite{NakaiwaShiraiIkehara1994,NakaiwaShiraiIkeharaKawaoka1995}本稿では,照応要素が同一文内に存在するゼロ代名詞((a)タイプ)に対して,接続語のタイプや用言意味属性や様相表現の語用論的・意味論的制約を用いた照応解析を行なう汎用的な手法を提案する. | |
V26N03-01 | 近年,CPUが1.2~GHz程度で主記憶が1~GB程度だが安価な小型計算機が広く利用されている.その小型計算機では様々なサービスが提供されている.キーボードなどの入力装置を有しない状態で使用される際に,小型計算機に指示を出す手段として,言葉による命令があげられる.ここで,車載器のように屋外環境での使用が想定される場合,インターネットの常時接続が期待できない.また,個人利用においてはスタンドアロンが望ましい.そのため,言語処理を小型計算機上で行うことが要求される.小型計算機での言語処理への要件が幾つかある.一つは,サービスを操作する命令文は規定の文であれば確実に受理されることがユーザに約束できることである.サービスに応じて語義が区別されることが必要である.つまり,あるサービスにおいてはキーとなる用語であっても,別のサービスにおいてはキーにならないことが区別されることである.したがって,語義解析やチャンキングを行う際,サービスに依存することが必要である.また,一つは,少し言い回しの外れた文であっても受理されることである.単純なパターンベースの解析手法では対応がとりにくい.最後の一つは,受理されなかった言い回しは,サービスの利用中に,受理に向けて学習されることである.サービスのためにCPUと主記憶の計算リソースを残しておく必要があるため,言語の解析,および,追加的に行う学習は軽量でなければならない.関連研究として,対話処理において,対話行為を識別する手法が提案された.識別における有力な素性は,単語n-gram,および,直前の発話の対話行為である.対話行為毎に詳細な素性の選択を行うことで,対話行為の識別性能の向上が示された\cite{Fukuoka_2017}.対話行為識別(意図解析)の後段での応答処理のために,発話文からの情報抽出が必要である.その一つがスロットフィリングである.スロットフィリングは,確率有限状態トランスデューサ,識別器に基づく系列ラベリング,条件付き確率場ConditionalRandomFields(CRF)の3つの解法の中でもCRFが良好に動作することが示された\cite{Raymond_2007}.近年では,意図解析,スロットフィリングおよび言語モデリングを同時に行う手法が提案された\cite{Liu_2016}.この手法では,RecurrentNeuralNetwork(RNN)により単語n-gram相当の特徴を含む情報を参照した意図解析が行われた.同時に,単語単位での系列ラベリングに相当する働きにより,単語とスロットとの対応が識別されることで,スロットフィリングが行われた.意図解析とスロットフィリングが同時に尤最もらしいことが評価されるため,全体の識別性能が向上したものと解釈できる.なお,Embeddingからの単語ベクトルと,前時刻(単語単位)からの意図クラスとが合わさることで,意図毎(対話行為毎)の素性選択に相当する語彙識別が働いた可能性がある.Liuらの手法を改良したRNNを用いることについて,日本語文における解析性能が報告された\cite{Nagai_2018}.RNNの双方向性,Attentionモデル,未知語処理が追加された.未知語処理には汎用単語分散表現が用いられた.この分散表現の獲得には日本語Wikipediaテキストからのword2vecでの解析が行われた.意図解析とスロットフィリングなどの言語理解の後段の処理として,対話状態追跡,対話ポリシの適用,自然言語生成がある.対話状態追跡では,スロット値の候補に確率を対応付けて信念状態を表す.対話ポリシの適用は,タスクとして外部知識を検索するなどを行い,応答のための対話行為を決める.自然言語生成は対話行為からテキストを生成する.これらの流れをニューラルネットワークを基礎としてend-to-endでモデル化することが提案された\cite{Liu_2018}.システム状態の設計は複雑になりがちであるが,Liuらの手法は信念状態がニューラルネットワークに組み込まれることなどによりシステムの状態が定義されることで,設計の問題を回避した.さらに,強化学習を用いることで,状態に応じたシステムの応答を学習した.一方,音声認識,意図やスロットの解析には誤りが含まれやすい.言語理解に対する信頼性が低いことを考慮してシステムの応答を行うために部分観測マルコフ決定過程PartiallyObservableMarkovDecisionProcess(POMDP)が対話システムに導入された\cite{Williams_2007}.POMDPでは信念状態に対するシステムの応答を決める.対話事例から強化学習を行うことで対話ポリシをモデル化できる.後段の処理でのこれらの手法は,複数ターンに渡る発話を通じてタスクを達成させるために有益な手法である.ここで,本稿では,小型計算機への命令を受理するための言語理解の段階,すなわち,意図解析およびスロットフィリングについて議論する.言語理解の後段の処理は,命令を受けたサービス処理部が対処するものとする.言語理解の段階においては,単語n-gram素性,文脈情報,意図毎の素性選択,未知語対応,および,意図解析とスロットフィリングの同時性という5点に着目する.しかし,小型計算機において,RNNによる意図解析・スロットフィリングの学習と解析は計算コストが高い.ここで,スロットフィリングとは,文頭から文末にかけて文の単語列をスキャンする間に,参照している単語の代入先を識別することである.スキャン(参照先を次単語に進める)と代入というアクションを,状態に応じて適切に行うことでスロットフィリングが実現できる見込みがある.状態に対するアクションを学習する方法として強化学習があげられる.そこで,本稿では,上記5点を考慮しつつ,サービス依存のパージングおよび強化学習を用いて,発話文の学習と解析を行うことを目的とする.自動車旅行を支援する車載器の上に提案手法を実装し発話文解析の評価を行う.本稿の構成は次のとおりである.まず第2章では,発話事例,意図とスロットに関する諸定義,および,発話文コーパスを示す.第3章では提案手法を示す.第4章で車載器に実装した発話文解析について性能を評価する.第5章で提案手法の特性を考察し,第6章でまとめを述べる. | |
V10N01-04 | 情報検索において,検索対象となるデータはさまざまな人に記述されたものであり,同じ事柄を表す言葉であっても人によって表記が異なるために,ユーザは検索システムから意図した情報を得られないことがある.人間ならば柔軟に表記から意図を読み取り対応できるが,機械はこの柔軟性を備えていない.ここで考える表記の異なりとは,たとえば,「ウイルス」と「ウィルス」,「コンピュータ」と「コンピューター」といった一般的な表記の揺ればかりでなく,その他「機械を使って翻訳する」という事柄を表すために,ある人は「機械翻訳」,別の人は「機械による翻訳」と多少表現が異なるといった表記の違いといったあいまいな表現のことである.本研究では,このようなあいまいな表現を合わせて「表記の揺れ」と呼ぶ.情報検索においてあいまいな表現は性能低下を招く.日本語には表記の揺れが多く存在するために,日本語における情報検索は難しいものである.そこで,表記の揺れに対応できる類似尺度が必要である.これまでに,表記の揺れに対応できる尺度として,編集距離\cite{Korfhage97}が知られている.編集距離は一方の文字列をもう一方の文字列に一致させるために必要な最小限の編集操作の数である.編集操作には挿入,削除,置換があり,編集操作の数を距離として考える.このため,編集距離は二つの文字列の不一致な文字を計数する相違尺度とみることができる.そこで,本論文ではまず,この編集距離を一致する文字を計数する類似尺度に変換し,情報検索テストコレクションNTCIR1\cite{Kando98,Kageura97}を用いて実験を行ったが,その結果は満足できるものではなかった.その原因の一つは,文字をすべて同等に扱い,文章の意味に大きく関わるような文字と表記の揺れとなりうる文字を区別せずに計数したことにあると考えた.たとえば,ひらがなは助詞や助動詞を表現するために用いられることが多く,漢字は名詞や動詞の表記に用いられるため,ひらがなの一致と漢字の一致では直感的にも重要さが異なるにもかかわらず,同じように一致した文字を計数してしまうことである.もう一つの原因は,編集距離の定義に使われている編集操作が一文字に限られていたことにあると考えた.たとえば,連続した三文字が一致した場合と不連続な三文字が一致した場合では直感的にも重要さが異なるにもかかわらず,同じように一致した文字を計数してしまうことである.本論文では,この二つの原因を解消するために,一致した文字に対して重み付けを行い,次に一致した文字列に対応できるように,編集距離を変換した類似尺度の拡張を試みる.そして,編集距離から最終的に本論文で提案する類似尺度に到達する過程で定義する類似尺度を組み込んだシステムを構築し,類似尺度を拡張することによって表記の揺れに寛容な性質を損なうことなく,情報検索性能が向上するかを検証する.さらに,一致した文字列に対する重みをその文字列が持つ$IDF$に基づくスコアとするという条件の下で,類似尺度の違いによる情報検索性能の差を検証する.すなわち,本論文で提案する表記の揺れに寛容な類似尺度を組み込んだ情報検索システムと,形態素解析によって得られた単語を一致する文字列の単位とし,その単語が持つ$tf\cdotIDF$を重みとして累計するシステム,{\itngram}を一致する文字列の単位とし,その{\itngram}が持つ$IDF$を重みとして累計するシステムと比較する.実験結果において,本論文で提案する類似尺度を用いたシステムが,従来法である単語に基づくシステムや{\itngram}に基づくシステムと同等以上の検索性能を実現できたことを示す.この論文の構成は次のとおりである.2節では,編集距離から本論文で提案する類似尺度に到達するまでの過程をその過程で定義される類似尺度とともに示す.3節では,本論文で用いる重みを明示する.4節では,本論文で行った情報検索性能を測るための実験の概要を示す.5節では,2節で定義した類似尺度の検索性能が実際に定義した順に向上しているかと表記の揺れに寛容な性質が損なわれていないかを検証する.6節では,5節の結果を踏まえ,本論文で提案する類似尺度の検索性能を測るために,比較対象としたシステムについて説明した後,検索性能の比較を行う.7節でこれまで示した実験結果から考察を述べ,最後にまとめる. | |
V31N01-06 | 漢文は弥生時代に中国から日本に伝えられたと推測されている\cite{japanese-history}.そして奈良時代以降\cite{kanbun-asia},日本語の文章として読めるよう,漢文の語順構成を維持しながら訓点を付ける漢文訓読と,日本語の文体として書き直した漢文訓読文(または書き下し文)が使われ始めた.漢文は『万葉集』\cite{manyoshu}や『源氏物語』\cite{genji-2,genji-1}など,多くの日本文学作品に影響を与えた.今でも漢文は大学入学共通テストの国語において200点の内50点を占めており,漢文が日本文化に及ぼしている影響の大きさを示している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{31-1ia5f1.pdf}\end{center}\hangcaption{漢文訓読の具体例.``春眠不覚暁''はオリジナルの白文である.これを書き下し文に変換するために,返り点,読み仮名,送り仮名を付ける必要がある.漢字の左下にある二つの``レ''は返り点であり,レ点とも呼ぶ.その前後の一語ずつを逆に読むための記号である.右側の``ず''は読み仮名であり,``不''の読みは``ず''であることを示している.漢字の右下にある``エ''と``ヲ''は送り仮名で,文章を孤立語から膠着語に変換するために存在する.以上のルールに基づき,白文``春眠不覚暁''は書き下し文``春眠暁を覚えず''に変換される.}\label{fig:ex-kanbun}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%中国語と日本語は共通の漢字を多く持つが,日本人にとって漢文を読むことは容易ではない.中国語,そして漢文の語順は,英語と同じSVO(主語-動詞-目的語)である一方,日本語の語順はSOV(主語-目的語-動詞)である.そして,中国語は孤立語であり,時制や格などによって語の形は変化しない.一方,日本語は膠着語であり,接頭辞や接尾辞のような形態素がその語の文法関係を示している.漢文をSVOからSOVに,孤立語から膠着語に変換するために,日本人は句読点,返り点,送り仮名などからなる漢文訓読システム\cite{crawcour1965introduction}を開発した.以下で漢文訓読システムの幾つかの定義や変換ルールを説明する.また,図\ref{fig:ex-kanbun}に漢文訓読の具体例を示す.古典中国語の訓読体系は,朝鮮半島\cite{korean}や契丹など他の地域にも存在するが,本研究では日本の漢文訓読システムに注目する.\vspace{1\Cvs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{白文}句読点,返り点,送り仮名が付いていない漢文のこと.\paragraph{書き下し文}白文を,返り点や送り仮名に従って書き下したもの.\paragraph{返り点}漢文の語順をSVOからSOVに変換するための記号である.接している二つの漢字の読み順を逆にする``レ点'',漢数字に沿って読み順を決める``一,二点'',数字ではないが同じく読み順を決める``上,中,下点'',``甲,乙点''などがある.\paragraph{読み仮名}漢字の読み方を示すためのひらがなである.\paragraph{送り仮名}漢文を孤立語から膠着語に変換するために付けるカタカナのこと.\paragraph{置き字}漢文を訓読する際に,直接読まない字のこと.書き下し文にする時は,その意味に対応する送り仮名を前後の文字に付けて反映する.``而'',``於'',``乎'',``兮''などが置き字になることがある.\paragraph{再読文字}漢文を訓読する際に,二度読む字のこと.一度目は返り点を無視した語順で副詞として読み,二度目は返り点にしたがって助動詞・動詞として読む.``未'',``将'',``且'',``当''などが再読文字になることがある.\paragraph{返読文字}漢文を訓読する際に,下から上へ返って読む字のこと.``非'',``有'',``不'',``与''などが返読文字になることがある.\vspace{1\Cvs}中国には豊富な漢文の言語資源があるが,日本におけるそれらの書き下し文データは極めて少ない.例えば,『全唐詩』には48,900首以上の唐詩が収録されており,その全てにオンラインでアクセス可能である.しかし,我々の知る限りでは,日本では約500首の唐詩の書き下し文データしかインターネット上に存在しない.この大きなギャップは,日本における漢文研究及び漢文教育の阻害要因となっている.『漢文大系』などの書籍の中に書き下し文のデータは多く存在するが,それらにOCRを適用し,データを整形するには膨大なコストがかかる.そのため,高性能な書き下し文生成器を構築することが書き下し文資源の不足を解消する最も効率的な方法と考えられる.また,漢文の仕組みを理解することは,和漢混交文などの古典日本語や,日本の文化・思想の解明にもつながると考えられる.従来の研究\cite{ud-kaeriten,ud-tree,ud-kundoku,ud-kundoku-2,ud-ud}では,UniversalDependencies\cite{de-marneffe-etal-2021-universal}を使った返り点付与と書き下し文生成を含む一連の漢文に関する言語処理の手法が提案された.しかし,ルールベースであり性能が不十分である上,これらの研究ではデータセットを作っておらず,定量的評価を行っていない.本研究では,漢文理解の第一歩として,漢詩文の中で代表性がある唐詩に注目する.最初に,白文,日本語読み順,書き下し文の3つ組からなる漢文訓読データセットを構築する.これを基に,言語モデルを用い,返り点付与器と書き下し文生成器を構築し,両タスクにおいて定量評価を行う.そして,書き下し文の生成結果に対し,人手評価の結果と比較することで,最も適切な自動評価指標について議論する.さらに,返り点付与と書き下し文生成のパイプラインを構築し,白文の事前ソート(返り点付与)が書き下し文生成に貢献するかどうかを検証する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% | |
V09N03-06 | インターネットの急速な普及により,ユーザが閲覧可能なコンテンツは,爆発的に増大している.そのようなコンテンツを検索するために,yahoo!やinfoseekなど,いくつもの検索エンジンが登場してきている.そうした検索エンジンでは,ユーザがキーワードや文字列を論理式で与えることによって,検索を実行するのが一般的である.しかしながら,特に初心者ユーザにとっては,そうした検索エンジンへの条件の与え方がまだ十分に使いやすいものではなく,自然言語による対話を用いて検索を行ないたいという需要がある.情報検索対話に自然言語を用いる利点は,以下が挙げられる.\begin{itemize}\item自然言語は,ユーザにとって最も親しみやすく,自然なコミュニケーション手段である.なお,大語彙連続音声認識技術の向上により,キーボード入力を行なう負荷も軽減してきている.\item自然言語の修飾関係を利用することで,論理式よりも精度の高い検索を行なえる可能性がある.\itemいわゆる「パラフレーズ(表現の言い換え)」を行なうことにより,ユーザが思いついた表現が所望するコンテンツに含まれていない場合にも,その表現を検索結果に利用できる可能性がある.\item対話戦略などに当たるキーワード(例えば,旅行における出張など)に対し,キーワードとは異なる検索条件(出張では,例えば,宿泊料金をXXXX円以下とする)や応答内容(コンテンツのtitle(宿泊施設名)だけでなく,料金や立地条件)に展開することで,効率的に対話を進められる可能性がある.\end{itemize}しかしながら,情報検索というタスクに対して,現状の自然言語処理技術では,自然言語を用いた万能の検索対話を実現することは現状では困難である.また,上記のように有効な対話戦略はいくつか存在するが,そうした対話戦略を導入することにより,ユーザが対話システムに過度の対話能力を期待し,ユーザが期待する対話能力を対話システムが実現できていないことで,ユーザが混乱し,結果的に対話システムを過小評価する場合も少なくない.\bigskip一方,近年の(自然言語)対話システムでは,音声認識・合成技術や画像処理技術の向上により,より人間に近い振舞い(音声,顔の表情,感情など)を導入した「擬人化エージェント」を計算機とユーザとのインタフェースとして用いる研究が盛んになってきている(例えば,\cite{tosburg,nagao,densouken,toyohasi}など).上記の対話システムで擬人化エージェントを導入した主目的は,擬人化エージェントを導入することで,より自然なインタラクションを実現することであると考えられるが,対話の相手である擬人化エージェントは,通常ひとつ(ひとり)である.しかしながら,現実の世界での人間を対象とした情報検索においては,例えば,「○○の技術については,××の部署が担当しているが,その中でも△△氏が詳しいので,△△氏に聞こう」とか,「車を購入するのにどれにしようか迷っている.それぞれのディーラーの担当者に同じ条件を与えて,一番良い回答を出した車種にしよう」などということを知らず知らずのうちに行なっているものである.\bigskipそこで本稿では,ユーザが情報検索システムとの対話を行なう「窓口」を,情報提供者サイドが予め設定した異なる属性により異なる振る舞いを行なう「対話エージェント」として多数用意し,ユーザが対話エージェントを選択・切り替えることで,効率的な情報検索を実現する対話モデルを採用した.すなわち,現状の自然言語処理技術で解決できる(特定の用途に対しては効率的な方策を実現しているが,汎用的には実現できていない)能力を複数の「対話エージェント」(賢い対話エージェントもいるし,馬鹿な対話エージェントもいる)というアナロジーによって,ユーザに違和感なく受け入れさせ,ユーザに対話エージェントを使い分けさせることで,自然言語を用いた効率的な情報検索対話を実現することを目的とする.なお,本稿で述べる「対話エージェント」は,他の対話システムで実現されている擬人化エージェントのように,書き下された文字列以外のモダリティを保持していないが,情報検索に対して,個々の局面で異なる知識を保持した「個々の対話の相手」を示すアイコンとして複数用意し,ユーザが対話エージェントを使い分けることで,より効率的な情報検索の対話を実現することを試みた.ただし,本稿の対話エージェントでは,エージェント間での協調や交渉といった相互作用については,技術的に導入が可能であったが,本稿の主張と現状のマルチエージェントモデルの差異がわかりにくくなると判断し,導入していない.本稿では,まず,\ref{sec:curnld}章において,自然言語を用いた現状の情報検索対話の例を挙げ,現状の問題点について指摘する.次に\ref{sec:multia}章では,本稿で提案する複数の「対話エージェント」を導入した対話モデルについて説明し,\ref{sec:daev}章では,複数の対話エージェントを導入した対話モデルの評価について述べる. | |
V10N02-05 | 言語処理において,宣言的な文法規則に基づく自然言語文解析の研究・開発は不可欠のタスクである.本稿では,LexicalFunctionalGrammar(LFG)に基づいた実用的な日本語文解析システムについて述べる.本システムの第一の特徴は,精緻な日本語文法規則に基づく深い解析を行う点である.第二の特徴は,実文を対象とした評価が可能な高い解析カバー率を達成している点,すなわち,解析対象が口語的・非文法的文であっても解析可能な高い頑健性を持つ点である.本システムの実装により,LFGに基づく日本語解析システムとしては初めて,文法機能(grammaticalfunction)の情報を含めた解析精度の評価実験を行うことが可能となった.さらに第三の特徴として,LFGの解析結果が持つ言語普遍性の特徴を活かすため,他言語のLFG文法と高い整合性・無矛盾性を保っている点を挙げることができる.第一の特徴を実現するために,日本語文法あるいは国文法研究の知見を参考にして,LFGのフォーマリズムに基づく大規模な文法記述を行った.もちろん,言語現象の形式化には様々な選択肢がある.本システムの構築に際しては,上記第二の特徴および第三の特徴を実現するために,(1)一般には非文法的とみなされる文であってもそれを排除する選択肢を採用せず,かつ,(2)他の言語の解析結果との並行性を保持できる選択肢を優先する方針で文法規則の記述を行った.本稿の構成は以下の通りである.2章では,LFGおよび関連研究について述べる.3章では,上記第三の特徴に関係する取り組みとして,我々が属しているParallelGrammarProjectでの活動を概観する.4章で,日本語LFGシステムの構成を説明した後,5章では文法記述について述べる.5.1節および5.2節において,上記(1)(2)の方針で記述した日本語文法規則を説明する.5.3節の冒頭で触れている通り,第一の特徴と第二の特徴を両立することは極めて難しい.5.3節では,OTマークと部分解析の機能を用いて,この両立を実現する手法について述べる.6章では,以上の枠組みで構築した日本語LFGシステムの評価結果を示し,7章に今後の課題を記す. | |
V24N05-04 | 一般に,自然言語処理システムでは単語を何らかの数値ベクトルとして表現する必要がある.単純にベクトル化する方法としてはone-hot表現がある.これは単語の種類数が$N$の場合,$N$次元ベクトルを用意し,単語$w$が$i$番目の種類の単語であれば,$N$次元ベクトルの$i$番目だけを1に,他は0にして$w$をベクトル化する方法である.one-hot表現によるベクトル化は単にベクトル化しただけであり,ベクトル間の関係はその単語間のなんらかの関係を反映しているわけではない.処理の意味を考えれば,単語のベクトルはその単語の意味を表し,ベクトル間の関係は,単語の意味の関係を反映したものになっていることが望ましい.このような背景下で,Mikolovはword2vecを発表し\cite{Mikolov1,Mikolov-2013},単語の意味を低次元密なベクトルとして表現する分散表現が大きな成功を収めた.その後,自然言語処理の様々なタスクにおいて,分散表現が導入され,既存のシステムを改善している.また同時に近年,自然言語処理の分野でも深層学習の利用が活発だが,そこでは単語のベクトル化に分散表現が用いられる\cite{okazaki}.つまり,現在,自然言語処理システムにおける単語のベクトル化には分散表現を用いることが一般的な状況となっている.分散表現は,単語分割されたコーパス\footnote{日本語の場合,'mecab-Owakati'により,容易にテキストコーパスをword2vecの入力形式に変換できる.}があればword2vec\footnote{https://github.com/svn2github/word2vec}やGloVe\footnote{https://nlp.stanford.edu/projects/glove/}などの公開されているツールを用いて簡単に構築できる.また深層学習で利用する場合は,ネットワークの一部として分散表現を学習できる.このため分散表現のデータ自体の品質に関心が持たれることは少ない.ただし分散表現を利用したシステムでは,分散表現の品質がそのシステムの精度に大きな影響を与えている.また深層学習では,学習時間や得られるモデルの品質の観点から,分散表現を学習時に構築するよりも,既存の学習済みの分散表現を用いる方が望ましい.このような観点から容易に利用できる高品質の分散表現データがあれば,様々な自然言語処理システムの構築に有益であることは明らかである.以上の潜在的な需要に応えるために我々は国語研日本語ウェブコーパス(以下,NWJC)\cite{asahara2014archiving}を利用して分散表現を構築し,それをnwjc2vecと名付けて公開している\footnote{http://nwjc-data.ninjal.ac.jp/}.NWJCは約258億語からなるコーパスである.1年分の新聞記事中のプレーンな文のデータが約2,050万語\footnote{2008年度の毎日新聞記事から,文としてなりたつと考えられるものを抽出し,unidicを基に形態素解析したものから算出した.}であることを考えると,NWJCは1,200年分以上の新聞記事に相当し,超大規模コーパスといえる.そのためそのコーパスから構築されたnwjc2vecが高品質であることが期待できる.本稿ではnwjc2vecを紹介するとともに,nwjc2vecの品質を評価するために行った二種類の評価実験の結果を報告する.第一の評価実験では,単語間類似度の評価として,単語類似度データセットを利用して人間の主観評価とのスピアマン順位相関係数を算出する.第二の評価実験では,タスクに基づく評価として,nwjc2vecを用いて語義曖昧性解消及び回帰型ニューラルネットワーク(RecurrentNeuralNetwork,以下RNN)による言語モデルの構築を行う.なおここでの言語モデルとは確率的言語モデルであり単語列に対する確率分布を意味する.構築した言語モデルはパープレキシティにより評価できるので,その評価値により構築の基になった分散表現データを評価する.どちらの評価実験においても,新聞記事7年分の記事データから構築した分散表現を用いた場合の結果と比較することで,nwjc2vecが高品質であることを示す. | |
V07N01-01 | まず,言い間違いの原因について考察してみる.フロイト\cite{freud1917a}は言い間違いの原因として身体的理由と精神的理由を挙げている.フロイトは身体的理由として,\begin{enumerate}\item気分が悪い・疲れ気味である\itemあがっている\item注意が他にそれている\end{enumerate}\noindentを挙げている.1は確かに身体的理由であるが,2と3はむしろその場の精神的理由である.フロイトが言いたいことは,確かに上記のような身体的理由があるにしろ,言い間違いが生じている時は必ず何らかの深層心理的・無意識的理由があるということである.フロイトは深層心理的・無意識的理由のない言い間違いはありえない,つまり偶然生じる言い間違いはあり得ないと断言している.さらにフロイトは言い間違いで探索すべき概念の範囲として,似た言葉(発音・言語類似・言語連想)と反対の意味の言葉を挙げている.しかしながら,あまりよく知らない単語であったり,関心が薄い単語であれば言い間違えることが考えられる.また,ラカンの流れを汲むNasioは,無意識は相互作用であり,コミュニケーションあるいは精神分析の中でしか無意識は存在しないと言っている\cite{nasio1995a}.これは精神分析者が被精神分析者の無意識を被精神分析者に示し,理解させ,相互に了解しながら精神分析が進んでいくということを意味しているものと思われる.その無意識の兆候の一つとして挙げられるのが言い間違いである.つまり言い間違いのすべてが無意識を顕現化しているものではない.このような無意識を第三者が観察することで見い出すことは可能であろうか?もし可能であれば,会議支援につながる.会議参加者が意識的には気づいていないが無意識的に重要だと思っていることを会議へフィードバックすることができるからである.しかるに言い間違いは無意識の兆候を示しているのであるから,言い間違いを調べることによって会議支援ができることが期待できる.しかし,前述のような精神分析的方法は分析者の解釈がどうしても必要であり,かなりの能力が必要となり,誰にでもできるというわけにはいかない.しかも,その解釈にはかなり主観的要素がつきまとう.実際の言い間違いの利用方法には,\begin{enumerate}\item解釈しない(客観的)\item解釈する(主観的)\end{enumerate}\noindentの二種類が考えられる.前者は言い間違えた事実だけを客観的に使う方法であり,後者は言い間違いを解釈して使う方法である.我々は,解釈には分析者にかなりの能力が必要であり,利用の条件が厳しくなり,また,分析者の主観性が強く現れすぎて,結果が恣意的になると考え,前者の方法を採用する.言い間違いに関する用語を定義しておく.言い間違いにはいわゆる言い間違い,言い淀み,言い直しなどが含まれる.本論文では,言い淀みとは不要な語句(感動詞を含む)が挿入された発話を指すことにし,言い直しとは途中で発言が中断され別の語句に発話し直したことを指すことにし,言い間違いとは言い淀み・言い直し以外の言い間違いのことを指すことにする.ソフトウエアの要求獲得会議のコーパスから言い間違いの例を挙げると,\begin{verbatim}言い淀み:「電話で何だけ,留守番電話みたいに」言い直し:「たとえば何らかのシステムが出て,出たとしても」言い間違い:「自分の手帳でやってや書くでしょう」\end{verbatim}\noindentのようになる.なお,言い直しの例で,「出て」を言い直す前の単語,「出た」を言い直した後の単語と呼ぶことにする.言い直し以外の言い間違いを利用するためにはどうしても解釈する必要が出てくる.我々は客観的に分析するという観点から,主として,言い直しに限って分析を進める.さらに言い直しは,客観的に判断できる,形態論的な観点から,\begin{enumerate}\item\label{どの文法単位の言い直しか?}どの文法単位の言い直しか?\begin{enumerate}\item\label{単語レベルの言い直し}単語レベルの言い直し\item\label{文節レベル以上の言い直し}文節レベル以上の言い直し\end{enumerate}\item\label{言い直しの間に他の発話が入っているか?}言い直しの間に他の発話が入っているか?\begin{enumerate}\item\label{直後の言い直し}直後の言い直し\item\label{他の発話が入った言い直し}他の発話が入った言い直し\end{enumerate}\end{enumerate}\noindentに分類される.もちろん,\ref{どの文法単位の言い直しか?}と\ref{言い直しの間に他の発話が入っているか?}の間には重複があり得るので,全体では四通りに分類できる.それぞれ,単独の場合の例を,実際の発話から挙げておく.まず,\ref{単語レベルの言い直し}の例としては,\begin{quote}あ,メ,電話の取り次ぎってことね.\end{quote}\noindentが挙げられる.この例は,文脈から「メモ」を「電話の取り次ぎ」に言い直したことがわかる.次に,\ref{文節レベル以上の言い直し}の例としては,\begin{quote}離席の,リフレッシュルームに電話番号はないわけだから,\end{quote}\noindentが挙げられる.この例は,「離席の」という名詞と格助詞からなる文節を「リフレッシュルームに」に言い直している.このように,\ref{単語レベルの言い直し}と\ref{文節レベル以上の言い直し}との違いは,言い直す前の語句が単語か文節かの違いである.次に,\ref{直後の言い直し}の例としては,先ほどの,\begin{quote}あ,メ,電話の取り次ぎってことね.\end{quote}\noindentが挙げられる.また,\ref{他の発話が入った言い直し}の例としては,\begin{quote}ファッ……だからE−mailからFAXは簡単だよね.\end{quote}\noindentが挙げられる.この例では,「ファックス」が「E−mail」に言い直され,両方の語句の間に「だから」が挿入されている.このように,\ref{直後の言い直し}と\ref{他の発話が入った言い直し}の違いは,言い直された語句の間に他の語句が挿入されたかどうかの違いによる.前述のように,言い直しのすべてが無意識の兆候になっているかどうかは若干の疑念がある.そこで本論文では,第2節で,言い直す前の単語と言い直した後の単語のどちらにより関心があるかを調べる.次に,第3節で,言い直しをソフトウエアの要求獲得に使う考え方について述べる.次に,第4節で,言い直しを利用した,要求獲得方法論について述べる.第5節では,本要求獲得方法論を例題を挙げて説明する.第6節では,全体のまとめと今後の課題について述べる. | |
V05N02-01 | 直接翻訳方式は普通の変換翻訳方式で行なっている構文解析や意味解析の部分を省略あるいは簡素化でき,類似性のある言語間の翻訳によく用いられていた.現在,知られているほとんどの日韓,韓日翻訳システムが直接翻訳方式を採用しているのも両言語の類似性を活かすためである.最近,構文解析分野や意味解析分野など,言語処理技術の全般的な発達とコンピュータのハードウェア性能が向上した時点で直接翻訳方式を用いるのは,翻訳に必要な膨大な情報の損失とつながり,比較的多くの翻訳情報が得られる変換方式や多言語間の翻訳ができる中間言語方式を勧奨しているが(長尾真1996),日韓機械翻訳においては翻訳に必要な情報があまり多くない.(金泰錫1991)によると,実際になんの情報もなく両国語の単語を1:1に対応させた場合にもある程度の理解できる訳語が出来上がったと報告しており,我々はもう少しの追加情報を用いれば,相当な品質の訳語が生成できると期待している.最近,このような類似性を用いた日韓直接翻訳システムが商用化し始めた.最初の商用システムは1983年,FUJITSUと韓国のKAISTが共通に開発したATLAS−J/Kであり,その後,多くの商用システムが続々登場した.日韓機械翻訳システムの代表的な商用システムには日本の高電社が開発した“j−Seoul”および日立情報ネットワークが開発した“HICOM/MT”などが挙げられる.また韓国でもユニ−ソフトが開発した“5徑博士”や創信コンピュータの“ハングルがな”などが市販されている.しかし,(崔杞鮮1996)によると,これらのシステムは訳語の品質が満足できる程度まで至らず,形態素解析,多義性,対訳語選定,品詞判定,未登録単語の処理などの部分でまだ多くの問題点を持っていると報告している.日韓直接翻訳には大きく分けて(1){\bf多義性処理},(2){\bf述部の様相および活用処理}が問題と残っている(金政仁1996).(李義東1989;金政仁1992;EunJaKim1993;朴哲済1997)は(1)問題の先行研究であり,相当の成果を上げたが,より良い結果を目指して現在も多義性解消のための研究が活発に進行されつつある.(2)問題の先行研究として(李義東1990)は,日本語述部の様相情報に文法的な意味を付与して処理する手法を提案した.まず,日本語述部での様相情報の意味から韓国語述部の生成に適する意味に変換する.そのとき,意味省略,意味転移,語順調整を行ない,意味対応テーブルを作る.意味対応テーブルには日本語述部を構成する様相情報たちからすべての組み合わせを取り出し,日韓述部の意味対応ペアとして記述する.だから,この手法は様相情報の組み合わせに依存するので意味対応ペアの数が多くなる短所を持つ.そして,(金泰錫1992;金政仁1996)は韓国語の述部の様相情報および活用形態を前後単語との意味接続関係によってあらかじめテーブル形式に用意して翻訳を行なう翻訳テーブル方式を提案した.しかし,この方式は,両国語間の活用語の対応ルールが作成しにくいことを前提とし,複雑な活用規則を考慮せず,表層語を1:1に対応させる宣言的な処理を選んでいる.そして,表層語が1:nに対応するときは1:1の関係を作るため,前後単語との接続規則や形態が異なるn個の韓国語の表層語を辞書に用意しなければならない.また,様相情報や活用形態を区分せず,一度に処理するので異形態の対訳語の数が相対的に増える問題があった.ここで,本稿では,韓国語述部を構成する広範囲な様相情報を,抽象的で意味記号的な意味資質に表現した後,テーブル化した様相テーブルを用いた両国語の述部処理を提案する.様相テーブルは様相情報の意味を表わす意味記号,韓国語表層語,活性化チェックフィールドで構成する.様相テーブルは日韓述部翻訳のPIVOTのような役割を担当し,述部生成のとき,韓国語表層語は様相テーブルから取り出す.そして,様相テーブルの様相資質から韓国語表層語を対応させた後,表層語の結合処理で音韻調和処理,音韻縮約処理,分かち書きを行ない,自然な述部を生成する.すなわち,様相テーブルは述部情報らの組み合わせに依存しないので,(李義東1990)の意味対応テーブルより簡潔な表記ができる.また,(金泰錫1992;金政仁1996)では一遍に行なった述部の様相情報処理や活用処理を分離して処理する.本システムは(EunJaKim1993,朴哲済1997)の変換過程をそのまま用いており,述部に生じる多義はすでに解消されているものとし,本稿では意味が決まった様相情報から述部の自然な生成を目標とする.そして,本稿でのハングルに対する発音はYaleローマ字表記法に基づいて表記する. | |
V20N02-01 | label{sc:introduction}Web上には出所が不確かな情報や利用者に不利益をもたらす情報などが存在するため,信頼できる情報を利用者が容易に得るための技術に対する要望が高まっている.しかしながら,情報の内容の真偽や正確性を自動的に検証することは困難であるため,我々は,情報の信憑性は利用者が最終的に判断すべきであると考え,そのような利用者の信憑性判断を支援する技術の実現に向けた研究を行っている.現在,ある情報の信憑性をWebのみを情報源として判断しようとした場合,Web検索エンジンにより上位にランキングされた文書集合を読んで判断することが多い.しかしながら,例えば,「ディーゼル車は環境に良いか?」というクエリで検索された文書集合には,「ディーゼル車は環境に良い」と主張する文書と「ディーゼル車は環境に悪い」と主張する文書の両方が含まれている場合があり,その対立関係をどのように読み解くべきかに関する手がかりを検索エンジンは示さない.ここでの対立関係の読み解き方とは,例えば,一方の内容が間違っているのか,それとも,両方の内容が正しく両立できるのか,といった点に関する可能性の示唆であり,もしも両立できるのであれば,何故対立しているようにみえるのかに関する解説を提示することである.互いに対立しているようにみえる関係の中には,一方が本当でもう一方が嘘であるという真に対立している関係も存在するが,互いが前提とする視点や観点が異なるために対立しているようにみえる関係も存在する.例えば,「ディーゼル車は環境に良い」と主張する文書を精読すると「$\mathrm{CO_2}$の排出量が少ないので環境に良い」という文脈で述べられており,「ディーゼル車は環境に悪い」と主張する文書を精読すると「$\mathrm{NO_x}$の排出量が多いので環境に悪い」という文脈で述べられている.この場合,前者は「地球温暖化」という観点から環境の良し悪しを述べているのに対して,後者は「大気汚染」という観点から述べており,互いの主張を否定する関係ではない.つまり,前提となる環境を明確にしない限り「ディーゼル車は環境に良いか?」というクエリが真偽を回答できるような問いではないことを示しており,「あなたが想定している『環境』が地球温暖化を指しているなら環境に良いが,大気汚染を指しているならば環境に悪い」といった回答が,この例では適切であろう.我々は,このような一見対立しているようにみえるが,実際はある条件や状況の下で互いの内容が両立できる関係を{\bf疑似対立}と定義し,疑似対立を読み解くための手掛かりとなる簡潔な文章を提示することで利用者の信憑性判断を支援することを目的としている.ところで,Web上には,こういった疑似対立に対して,「ディーゼル車は二酸化炭素の排出量が少ないので地球温暖化の面では環境に良いが,粒子状物質や窒素酸化物の排出量が多いので大気汚染の面では環境に悪い.環境に良いか悪いかは想定している環境の種類による.」といった第三者視点から解説した文章が少数ながら存在していることがある.このような文章を,Web文書中から抽出,整理して利用者に提示することができれば,上述の回答例と同様に「環境の種類を明確にしない限り単純に真偽を判断できない」ということを気付かせることができ,利用者の信憑性判断を支援することができる.我々は,この疑似対立を読み解くための手掛かりとなる簡潔な文章を{\bf調停要約}と定義し,利用者が信憑性を判断したい言明\footnote{本論文では,主観的な意見や評価だけでなく,疑問の表明や客観的事実の記述を含めたテキスト情報を広く{\bf言明}と呼ぶこととする.}(以降,{\bf着目言明})が入力された場合に,着目言明の疑似対立に関する調停要約を生成するための手法を提案している\cite{Shibuki2011a,Nakano2011,Ishioroshi2011,Shibuki2010,Kaneko2009,Shibuki2011b}.なお,Kanekoetal.\citeyear{Kaneko2009}において,調停要約には,一つのパッセージで両立可能となる状況を明示的に説明する直接調停要約と,状況の一部を説明するパッセージを複数組み合わせて状況の全体を暗に示す間接調停要約の2種類が定義されているが,本論文では直接調停要約を対象としており,以後,直接調停要約を単に調停要約と記す.調停要約の生成は,調停という性質上,対立関係にある2言明の存在を前提として行われる.中野らの手法\cite{Nakano2011}では,着目言明と対立関係にある言明を見つけるために,着目言明中の単語を対義語で置換したり,用言を否定形にしたりすることで,対立言明を自動的に生成している.また,石下らの手法\cite{Ishioroshi2011}では,言論マップ\cite{Murakami2010}を利用することで対立言明を見つけている.しかしながら,検索された文書集合には,「ディーゼル車は環境に良いvs.ディーゼル車は環境に悪い」といった,着目言明を直截的に否定する対立点以外にも,例えば「ディーゼル車は黒煙を出すvs.ディーゼル車は黒煙を出さない」といった,異なる幾つかの対立点が存在することがあり,中野らや石下らによる従来の調停要約生成手法では,どの対立点に関する調停要約であるかを明示せずに調停要約を生成していた.利用者が信憑性を判断したい対立点({\bf焦点})であることを明確にした調停要約でなければ真に利用者の役には立たないと考えられる.それゆえ,この問題を解決するために,我々は,最初に検索された文書集合を利用者に提示し,それを読んだ利用者が焦点とする対立関係にある2文を明示した後に調停要約を生成するという対話的なアプローチを解決策の一つとして採ることとした.以上の背景から,本論文では,利用者が対立の焦点となる2文を対話的に明確化した状況下で調停要約を生成する手法を提案する.また,調停要約生成の精度を向上させるために,逆接,限定,結論などの手掛かり表現が含まれる位置と,調停要約に不要な文の数を考慮した新しいスコアリングの式を導入し,従来の調停要約生成手法と比較した結果について考察する.さらに,以下の理由から,利用者が焦点とする2文を明確化する方法に関しても考察する.利用者が焦点とする2文を明確化する方法として,以下の2つの方法が考えられる.一つは,利用者が自ら焦点とする2文を生成する方法であり,もう一つは,提示された文書集合から,焦点とする2文に相当する記述を抽出する方法である.前者の方法が利用者の焦点をより正確に反映できると考えられるが,明確化に要する利用者の負担を軽減するという観点からは後者の方法が望ましい.従って,焦点とする2文を明確化する方法として,どちらの方法が適しているかに関しても実験を行い考察する.本論文の構成は以下の通りである.まず,\ref{sc:relatedwork}章で関連研究について述べる.\ref{sc:concept}章で調停要約生成における基本的な考え方を説明する.\ref{sc:proposedmethod}章で提案する対話型調停要約生成手法を述べる.\ref{sc:corpus}章で本論文の実験で用いる{\bf調停要約コーパス}に関して説明する.\ref{sc:experiment}章で従来の調停要約生成手法との比較実験を行い,その結果について考察する.また,焦点とする2文を明確化する方法に関しても考察する.最後に\ref{sc:conclusion}章で本論文のまとめを行う. | |
V32N01-04 | 話し言葉のツリーバンク(統語構造が付与されたコーパス)は,話し言語の自然言語処理タスクにおける基本的なアノテーションとして利用されてきた.社会的なコミュニケーションで用いられる話し言葉は,書き言葉と比較して異なる特徴がある\cite{carterSpokenGrammarWhere2017}.実社会における会話・相互行為の研究において,話し言葉のツリーバンクの存在は重要である.そのため,様々な話し言葉ツリーバンクが各国で構築・公開されている.話し言語ツリーバンクの構築において,近年\textbf{UniversalDependencies(以下UDと呼ぶ)}\cite{nivre-etal-2020-universal,de-marneffe-etal-2021-universal}を採用するコーパスが増えている.UDとは,多言語横断的に共通した形態論情報・統語構造をアノテーションする枠組み・ツリーバンクおよびそのプロジェクトである.UDは,\figref{fig:jp_ud1}のように,単語間の依存関係により記述される品詞ラベル・統語構造で構成されている.UDは2025年3月現在で,160以上の言語・300種類近くのツリーバンクが公開されておりガイドラインについてはGitHub上で活発に議論されている\footnote{\url{https://universaldependencies.org/}}.UDは現在,主に多言語依存構造解析や自然言語処理応用研究に広く利用されており,言語研究\cite{guzmannaranjoQuantitativeWordOrder2018,Levshina+2019+533+572}などにおいても類型論における事例調査に利用されている.話し言葉のUDについては\citeA{dobrovoljc_2022}の論文が詳しいが,\citeA{dobrovoljc_2022}以降も方言,危機言語,第二言語学習者などのように幅広い種類の話し言葉UDが公開されており\cite{kyle-etal-2022-dependency,liu2023,pughUniversalDependenciesWestern2022a,sonnenhauserUDGhegPear2022,alencar2023yauti,koshevoyBuildingUniversalDependencies2023},話し言葉のUD開発は活発に進められている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%F1\begin{figure}[t]\begin{center}\includegraphics{32-1ia3f1.eps}\end{center}\hangcaption{UniversalDependencies(UD)の例(英語UD\_English-PUDと日本語UD\_Japanese-PUDLUW\texttt{id=n01018040}より)UDでは,日本語の「文節係り受け」で採用されている「文節」単位(白枠で囲んである単位)ではなく,「自立語(内容語)」と「付属語(機能語)」を分解した「構文的な語」を1単語(ワード)として規定されている(内容語は黒塗りの単語).上記例の場合,英語でも日本語でも太線の「得(makes)」と「取組(scheme)」は\dt{nsubj},「得(makes)」と「収入(money)」は\dt{obj}で同一の依存関係になっている.}\label{fig:jp_ud1}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%日本語版UniversalDependencies(以降\textbf{日本語UD})では,すでにいくつかの種類のツリーバンクを公開している.既存に公開されている大規模な言語資源を活用するため,日本語UDはルールに基づく変換プログラムで自動変換し構築している\cite{asahara2019ud,omura-asahara-2018-ud}.これまでUD\_Japanese-BCCWJ\cite{omura-asahara-2018-ud}やUD\_Japanese-GSD\cite{tanaka_universal_2016}といった日本語UDにおいて,変換に必要な言語資源を整備しつつ,書き言葉のUDを中心に公開していった.一方で,話し言葉の日本語UDについては整備されていなかった.近年,\textbf{日本語日常会話コーパス(CorpusofEverydayJapaneseConversation;CEJC)}\cite{koiso-etal-cejc-2023}という,200時間以上に及ぶ大規模日本語日常会話コーパスが国立国語研究所によって開発された.CEJCは,雑談,相談,会議などさまざまなタイプの日本語母語話者の音声・映像データが収集されており,音声収録の協力者は,性別や年齢が均衡になるように選ばれている.さらに音声の転記テキストと形態論情報が自動解析および人手修正によって付与されている.日常場面の自然な会話について,200時間という規模で,さらに映像とのアライメントまで付与したデータは類をみない.このCEJCにUD依存構造を追加することで,より多くの話し言葉研究や統語解析開発への応用が期待できる.本稿では,CEJCに基づく日本語UDである\textbf{UD\_Japanese-CEJC}の構築について報告する.\udcejc{}の概要を\figref{fig:overview}に示す.CEJCは前述のとおり,音声と映像のデータに基づくコーパスであり,転記テキストと音声・映像データの時間アライメント情報も含まれている(\figref{fig:overview}内の「転記テキスト」「形態論情報」参照).そのためCEJCのUDを構築すれば結果として,映像・音声とUDのアライメントが実現可能であり,マルチモーダルで大規模な日本語話し言葉ツリーバンクが構築できることになる.%%%%%%%%%%%%%%%%%%%%%%%F2\begin{figure*}[t]\begin{center}\includegraphics{32-1ia3f2.eps}\end{center}\hangcaption{UD\_Japanese-CEJCの概要(例はCEJCのT010\_009から引用).本研究の貢献部分は右側の枠部分に相当する.}\label{fig:overview}\end{figure*}%%%%%%%%%%%%%%%%%%%%%%%%%%%我々は,\udcejc{}の構築のためにCEJCの一部(コアデータ,20時間)について国語研長単位の形態論情報・文節係り受けデータを新たにアノテーションした.さらに,形態論情報と文節係り受けに基づくルールベースの自動変換によりUDを構築した.我々の貢献は以下のとおりとなる.%%%%%\begin{itemize}\item日本語日常会話コーパスのUniversalDependenciesのデータ構築.\item\udcejc{}構築のため国語研長単位・文節係り受けアノテーションの構築・公開.\item他の話し言葉UDや書き言葉日本語UDとの比較による\udcejc{}の特性の提示.\end{itemize}%%%%%以降の章では,\udcejc{}の関連研究を示したのち,構築手順や特徴について紹介する.さらに,共通の枠組みで構築された書き言葉UDとUD\_Japanese-CEJCを用いて学習したUD依存構造解析の性能を評価し,\udcejc{}の特徴を示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S2 | |
V24N05-03 | 日本語は比較的語順が自由な言語であるとされるが,多くの研究において日本語にも基本語順が存在していることが示唆されている\cite{Mazuka2002,Tamaoka2005}.しかし,どの語順を基本語順とみなすかについては意見が分かれる場合があり,二重目的語構文についても,二つの目的語の基本語順に関し多くの説が提案されている.具体的な争点としては,二重目的語構文の基本語順は「がにを」である\cite{Hoji1985}か,「がにを」と「がをに」の両方である\cite{Miyagawa1997}かや,後者の立場の類型として基本語順は動詞の種類に関係するという説\cite{Matsuoka2003}や,ニ格の意味役割や有生性が関わっているとする説\cite{Miyagawa2004,Ito2007}などが存在している.また,これらの研究の分析方法に関しても,理論研究\cite{Hoji1985,Miyagawa2004}に加え,心理実験\cite{Koizumi2004,Nakamoto2006,Shigenaga2014}や脳科学\cite{Koso2004,Inubushi2009d}に基づく実証的研究など,多くの側面からの分析が行われている.しかし,これらの分析手法はいずれも分析の対象とした各用例について人手による分析や脳波等の計測が必要となるため,分析対象とした用例については信頼度の高い分析を行うことができるものの,新たな用例に対し分析を行う場合には改めてデータを収集する必要があり,多くの仮説の網羅的な検証には不向きである.一方,各語順が実際にどのような割合で出現するかの傾向は,コーパスから大規模に収集することが可能である.コーパス中の個別の事例から,それが基本語順なのか,かき混ぜ語順なのかを自動的に判定するのは容易でないものの,大規模に収集した用例において多数を占める語順であるならば,その語順が基本語順である可能性が高いと考えられる.たとえば,(\ref{EX::Kanjiru})に示すように\footnote{(\ref{EX::Kanjiru}),(\ref{EX::Sasou})に示した用例数は本研究で収集した各語順の用例数を表している.具体的な収集手順は\ref{SEC::CollectExamples}節で説明する.},動詞が「感じる」,ニ格要素が「言葉」,ヲ格要素が「愛情」の場合,「にを」語順が97.5\%を占めていることから,この動詞と格要素の組み合わせの場合,「にを」語順が基本語順であると考えられる.一方,(\ref{EX::Sasou})に示すように,動詞が「誘う」,ニ格要素が「デート」,ヲ格要素が「女性」である場合は,「をに」語順が99.6\%を占めており,この語順が基本語順であると考えられる.\ex{{\bfにを}:言葉に愛情を感じる。[用例数:118(97.5\%)]\label{EX::Kanjiru}\\&{\bfをに}:愛情を言葉に感じる。[用例数:3(2.5\%)]}\vspace{-2ex}\ex{{\bfにを}:デートに女性を誘う。[用例数:4(0.4\%)]\label{EX::Sasou}\\&{\bfをに}:女性をデートに誘う。[用例数:923(99.6\%)]}そこで本研究では,二重目的語構文の基本語順はコーパス中の語順の出現割合と強く関係するとの仮定に基づき,100億文を超える大規模コーパスから収集した用例を用いた日本語二重目的語構文の基本語順に関する各種の仮説の検証を行う.日本語二重目的語構文の基本語順を解明することができれば,日本語二重目的語構文の統語構造や言語理解プロセスの解明における重要な手掛りとなることが期待できる.本研究で行う大規模コーパスに基づく分析は,コーパス中で多数を占める語順が基本語順と同じであるとは限らないことから,基本語順の解明に直結するとは言えないものの,心理実験や脳科学等などのよりコストの掛かる検証を行う前段階の検証として有用であると考えられる. | |
V30N03-06 | テキスト平易化\cite{shardlow-2014}とは,難解な文の意味を保持しつつ文法や語彙を変更し,平易な文に変換する言い換え生成タスクの一種である.この技術は,構文解析,文書要約,情報抽出,機械翻訳などの他の自然言語処理タスクの性能改善のために使われている\cite{chandrasekar-1996,xu-2009,evans-2011,stajner-2016}.また,子供や言語学習者への言語学習支援\cite{watanabe-2009,allen-2009}や,失読症の人々への文章読解支援\cite{canning-2000}にも役立てられている.本研究では英語母語話者に対する言語教育支援\cite{petersen-2007,watanabe-2009,allen-2009}を目的として,難易度制御可能なテキスト平易化に取り組む.インプット仮説\cite{krashen-1985}では,学習者の言語能力は,僅かに高い水準の教材で学習することで効果的に向上し,学習意欲を削ぐような過度に難易度の高い教材では向上しにくいとされている.そのため言語学習の教材は,学習者の言語能力や読解力に合わせて複雑な語彙や構文が少ないテキストに変換して作成される\cite{crossley-2007}.しかしその作業負荷は高く,教員の負担となっている.そこで適切な難易度の文を自動生成するために,多段階の難易度付きパラレルコーパスであるNewselaコーパス\footnote{\url{https://newsela.com/data/}}\cite{xu-2015}を用いて,目標とする難易度に合致した平易な文を生成する,テキスト平易化の難易度制御\cite{scarton-2018,nishihara-2020,agrawal-2021,yanamoto-2022}が研究されている.テキスト平易化は,文中の単語やフレーズに「削除」や「置換」の編集操作を施すことで実現される.また言語教育への応用を目的とした場合,文構造を複雑にし,文の難易度を上げる要因となる付加的な情報,すなわち文の主意に対する枝葉の情報,については省略することを許容する.本研究では難易度をK$12$に基づき幼稚園の年長から高等学校$3$年生までの$13$年間の学年に対応するものとする.表\ref{tbl:example}に本研究で用いるNewselaから抜粋したテキスト平易化の例を示す.ここではK$12$における$12$年生(高校$3$年生)向けのテキストを$7$年生(中学$1$年生)や$5$年生(小学$5$年生)向けに平易に書き換えている.$7$年生向けのテキストにおける\textbf{areas}や\textbf{emotion}は,$5$年生向けのテキストではそれぞれより平易な\textbf{parts}や\textbf{feelings}に「置換」されている.また$12$年生向けのテキストにおいて,付加的な情報である\textbf{noticeable}や\textbf{accordingto[...]BiobehavioralReviews}は,$7$年生および$5$年生向けのテキストでは省略されている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[t]\input{05table01.tex}%\caption{Newselaにおける学年に応じたテキスト平易化の例}\label{tbl:example}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%深層学習に基づくテキスト平易化の手法には,ニューラル系列変換モデルを用いて文を生成する生成ベースのアプローチ\cite{nisioi-2017,zhang-2017,kriz-2019,martin-2022}がある.生成ベースのアプローチには,文全体を柔軟に言い換える利点がある.しかし入力文と出力文が同一言語というタスクの性質上,機械翻訳とは異なり,入力文を大幅に言い換える学習が難しく,積極的な言い換えを行いづらいという問題がある.一方,もう一つのアプローチとして各単語に対して編集操作を適用して入力文を言い換える編集ベースのアプローチ\cite{alva-2017,dong-2019,kumar-2020}がある.編集ベースのアプローチでは,各単語に対して行う操作が明示的であるため,生成ベースのアプローチの問題点である保守性は改善されるが,文全体を柔軟に言い換えることは難しい.生成ベースおよび編集ベースを組み合わせたハイブリッドなアプローチ\cite{kajiwara-2019,agrawal-2021,dehghan-2022}は,語彙に関する制約を生成ベースのモデルに与えることで,各アプローチの利点を活かす.ハイブリッドなアプローチでは,出力を避ける負の語彙制約として難解な単語を選択し平易な文を生成するが,平易な単語の出力を促す正の語彙制約を適用する試みは行われていない.正の語彙制約も用いることで,負の語彙制約のみを用いる場合よりも,難解な文から平易な文への言い換えを促進すると期待できる.そこで本研究では,テキスト平易化の難易度制御の品質を向上させるために,ハイブリッドなアプローチに対し正・負両方の語彙制約を導入する.具体的には,目標とする難易度と編集操作の予測に基づき,出力文に出現させない単語の制約(負の制約)と出力文に出現させる単語の制約(正の制約)を作成する.またこれらを用いて,正・負両方の語彙制約を事前訓練済み系列変換モデルに導入し,積極的かつ柔軟な文生成を促進させる.Newselaコーパス\cite{xu-2015}とNewsela-Autoコーパス\cite{jiang-2020}を用いた英語のテキスト平易化における評価実験の結果,提案手法が平易性に関する評価指標と制御性に関する評価指標を向上させることを確認できた.また,人手評価を行った結果,比較手法よりも,文法的に正しく,入力文の意味が保たれた文を生成できることを確認した.これは,提案手法の編集操作予測に基づく制約によって,文法的に正しい文構造や意味を保つことに寄与する単語の出力を促せているからだと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% | |
V07N04-11 | 近年の高度情報化の流れにより,種々の情報機器が自動車にも搭載されるようになり,さまざまな情報通信サービスが広がりつつある.このような車載情報機器は,自動車に搭載するためにCPUの速度やRAM,ROMなどのメモリ容量の制約が非常に厳しく,また,開発期間がより短いことや保守管理の労力の低減も同時に求められている.自動車内で提供される情報通信サービスには,交通情報,観光情報,電子メール,一般情報(例えばニュース)などが含まれるが,このような情報はディスプレイ上に文字で表示するよりも,音声により提供する方が望ましいとされている.文字情報を音声に変換する技術の研究開発は進んでいるが,その合成音声の韻律は不自然という問題がある.その原因として大きな割合を占めるものはポーズ位置の誤りであり,これを改善することにより韻律の改善が可能となる.ポーズ位置を制御する手法として,係り受け解析を利用する方法が研究されている\cite{Suzuki1995,Umiki1996,Sato1999,Shimizu1999}.これらの手法の中で,海木ら\cite{Umiki1996}や清水ら\cite{Shimizu1999}の手法は係り受けの距離が2以上の文節の後にポーズを挿入するという方法であり,その有効性がすでに示されている.そしてこの手法を実現するためには,高精度な係り受け解析が必要となる.文節まとめあげは図\ref{fig:文節まとめあげ}のように,形態素解析された日本語文を文節にまとめあげる処理のことをいう.この処理は,日本語文の係り受け解析に重要となるものであるため,文節まとめあげの精度が高いことが望まれる\footnote{形態素解析の精度は,既に十分高い精度を得られている.}.本研究はこのように,係り受け解析にとって重要な位置を占めている文節まとめあげに関する研究報告である.\begin{figure}\begin{center}\begin{tabular}{cl}\fbox{日本語文}&うまく日本語文を解析する.\\$\downarrow$&$\downarrow$\\\fbox{形態素解析}&うまく,日本語,文,を,解析,する,.\\$\downarrow$&$\downarrow$\\\fbox{\bold文節まとめあげ}&うまく|日本語文を|解析する.\\$\downarrow$&$\downarrow$\\\fbox{係り受け解析}&うまく|日本語文を|解析する.\\[-2mm]~&││↑↑\\[-3mm]~&│└────┘│\\[-3mm]~&└──────────┘\\\end{tabular}\caption{文節まとめあげの処理}\label{fig:文節まとめあげ}\end{center}\end{figure}従来の文節まとめあげは,人手によりまとめあげ規則を書き下す方法と,機械学習によって得た統計情報を利用する方法の二通りに大きく分けられる.人手により作成した規則を用いる方法としてはknp\cite{knp2.0b4}があり,高い精度を得られているが,人手により規則を保守管理することは容易ではなく,車載情報機器には不向きであるといえる.機械学習を用いる方法としては村田らによる方法\cite{Murata2000}があるが,まとめあげのための情報を152通りも利用しているなど非常に複雑なアルゴリズムになっている.このため新たに車載情報機器に実装するためには長い開発期間を要し,また規則の学習にも長い時間を要するため保守管理にも時間がかかり,さらにデータ量が膨大になるなどの問題も生じるため,車載情報機器には不向きであるといえる.本研究ではこれらの問題を解決し,従来手法と比べて遜色ない精度を持ち,保守管理が容易でかつ車載情報機器の求める厳しい条件に適した,複数決定リストの順次適用による文節まとめあげという新しい手法を考案した.そしてこの手法を用いて文節まとめあげを行ったところ,最高で99.38\%という非常に高い精度が得られたことを報告する. | |
V29N03-09 | %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{本解説論文の背景}ニューラル機械翻訳(NMT)技術の急速な発展により,機械翻訳の応用が次々に拡がっていることは論を俟たない.近年では新聞記事等の幅広い話題を扱う機械翻訳研究が加速しつつあり,一部の文では人手の翻訳と遜色ない水準の翻訳結果が得られるとも言われている.ここに至るまでの機械翻訳の研究開発や実用化において,特許文書はその対象として重要な役割を担ってきた,そして現在も担っていると言える.特許の審査においては各国の特許文書あるいは様々な技術文書を参照することが不可欠であり,審査官による公正かつ迅速な審査のために機械翻訳の活用について積極的な取り組みが続けられている.こうした取り組みは日本国特許庁(JPO)をはじめ,世界知的所有権機関(WIPO)や,米国特許商標庁(USPTO),欧州特許庁(EPO)等国際的に行われているものであり,中国を筆頭に特許出願数が増加を続ける中での業務改善を目的に,機械翻訳の活用を公的機関で大規模に行っていることは注目に値する.WIPOでは独自の機械翻訳サービスWIPOTranslate\footnote{\url{https://www.wipo.int/wipo-translate/}}を開発,提供しており,EPOではGoogleとの連携による機械翻訳サービス\footnote{\url{https://www.epo.org/searching-for-patents/helpful-resources/patent-translate.html}}を提供している.JPOでも長年にわたり機械翻訳が活用されており,統計的機械翻訳,NMTへの技術トレンドの変化に合わせた調査事業が継続的に実施され\footnote{\url{https://www.jpo.go.jp/system/laws/sesaku/kikaihonyaku/kikai_honyaku.html}},またそうした新しい機械翻訳技術の導入による特許情報プラットフォームの機能改善が進められている.一方の学術研究においては,特許が公開の文書であること,また国際出願のために同一の出願内容が複数言語に翻訳された形で存在することを背景に,コーパスベース機械翻訳の研究用リソースとして広く使われてきた経緯がある.特に日本語では2000年代の統計的機械翻訳(SMT)技術の伸長期に百万文規模の大規模な機械翻訳研究用対訳コーパスが広く利用できなかったこともあり,2008年のNTCIR-7PATMT\cite{NTCIR7PATMT}以降,NTCIR-8\cite{NTCIR8PATMT},NTCIR-9\cite{NTCIR9PatentMT},NTCIR-10\cite{NTCIR10PatentMT}で利用された日英,日中対訳コーパスは多くの機械翻訳研究で活用された.近年では特許庁が提供する,アジア言語翻訳ワークショップ(WorkshoponAsianTranslation)の共通タスクで利用されているJPOPatentCorpus\footnote{\url{http://lotus.kuee.kyoto-u.ac.jp/WAT/patent/}},また,高度言語情報融合(ALAGIN)フォーラムから提供されているJPO・NICT対訳コーパス\footnote{\url{https://alaginrc.nict.go.jp/jpo-outline.html}}が存在する.こうした研究用リソースの存在は特許機械翻訳の研究開発に非常に有益であると言えるが,NTCIR以後の日本の機械翻訳研究でよく用いられた論文抄録の対訳コーパスASPEC\cite{NAKAZAWA16.621},多くの機械翻訳研究においてベンチマークとして用いられるWMTNewsTaskデータ\cite{akhbardeh-etal-2021-findings}と比べて,特許のデータを扱う機械翻訳研究の発表は少なくなってきていることは否定できない.こうした背景から,本解説論文では実用的な特許機械翻訳に向けた諸課題に着目し,それらに関係する現在の技術をNMTを中心に概観する.そして,特許機械翻訳とその他の一般的機械翻訳の現状の課題の類似点と相違点,現状の到達点と実用とのギャップ,また今後の方向性について論じる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{本解説論文で扱う特許機械翻訳の課題}上述の通り,本解説論文では特許機械翻訳において特徴的と考えられる以下の諸課題に着目し,それぞれの課題に関係する研究を示した上で技術の現状と将来について論じる.\begin{description}\item[訳抜け・過剰訳への対策(2節)]NMTにおいて顕著な問題としてよく挙げられるのが,入力文中の情報が訳出されない「訳抜け」,同じ内容を繰り返し出力してしまう「過剰訳」である.それ以前の統計的機械翻訳においてはあまり問題視されていなかった点でもあり,近年様々な対策が試みられている.\item[用語訳の統一(3節)]特許のような技術文書においては,同一の事物や概念を表す用語は翻訳においても統一して同一の用語で訳出しなければならないが,機械翻訳では言葉の多義性とのトレードオフがありしばしば異なる訳語を選択してしまうという深刻な問題が生じることがある.NMTでは厳密な訳語の指定は翻訳処理の柔軟性を損なう懸念もあり,工夫が必要である.\item[長文対策(4節)]特許文書では請求項を代表に長文による記述が多用される.長文の翻訳は,入力文の解析や訳語の選択,訳文の構成について膨大な候補の中からの選択を余儀なくされ,探索誤りが生じやすい.特にNMTにおいては訳抜け・過剰訳の問題が重なることがあり重要な課題であるが,実際に長文に焦点を当てた研究はあまり多くない.\item[低リソース言語対対策(5節)]英語を中心とする代表的な言語については大規模な対訳コーパス・単言語コーパスの蓄積が進みコーパスベース機械翻訳が有効に機能する状況となりつつあるが,今後の成長が予想される東南アジア諸国等における現地語文書については依然としてコーパスが不足しており翻訳が難しい.近年の機械翻訳研究でも非常に重視されている課題でもある.\item[評価(6節)]機械翻訳の精度が向上したことにより,機械翻訳の品質評価の重要性がより増していると言える.従来の表層的な自動評価手法の限界は広く知られるようになり,評価手法の研究が再び盛んになってきている.また,人手評価についても方法が変化しつつある.特許庁が独自に機械翻訳評価のマニュアルを公開している等の背景もあり,特許機械翻訳の評価は注目に値する.\item[翻訳高速化・省メモリ化(7節)]国際出願特許の審査,技術動向の調査等,特許文献に対する言語横断情報アクセスの重要性は飛躍的に増大してきており,日々大量の特許文書・技術文書の翻訳が求められる状況である.そうした中で計算効率は非常に重要な要因であり,大規模化が続くNMTモデルをそのまま実用に供することは容易ではない.モデルや計算の工夫による様々な対策が試みられている.\end{description}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% | |
V10N01-05 | 大量の電子化文書が氾濫する情報の洪水という状況に我々は直面している.こうした状況を背景として,情報の取捨選択を効率的に行うための様々な手法が研究されている.近年,それらの研究の一つとして文書要約技術が注目を集めている.特にある話題に関連する複数の文書をまとめて要約する複数文書要約といわれる技術が関心を集めており,検索技術などと組み合わせることにより効率的に情報を得ることが期待できる.DocumentUnderstandingConference(DUC)\footnote{http://duc.nist.gov}や,TextSummarizationChallenge(TSC)\footnote{http://lr-www.pi.titech.ac.jp/tsc}\cite{article32}といった評価型ワークショップにおいても複数文書要約タスクが設定されており,その注目度は高い.複数文書要約も含め自動要約では,文書中から重要な情報を持つ文を抽出する重要文抽出技術用いて,その出力をそのまま要約とする手法\cite{article25,article38,article39}や,その出力から不要な表現の削除や置換,あるいは,新たな表現の挿入を行い,より自然な要約にする手法がある\cite{article47,article40}.いずれの場合にも,重要文抽出は中心的な役割を担っている.そこで本稿では,複数文書を対象とした重要文抽出に着目する.複数文書からの重要文抽出も,単一文書からの重要文抽出と同様に,ある手がかりに基いて文の重要度を決定し,重要度の高い文から順に,要約率で指定された文数までを重要文として抽出する.この際,複数の手がかりを扱うことが効果的であるが,手がかりの数が多くなると,人手によって適切な重みを見つけることが難しいという問題がある.本稿では,汎化能力が高いとされる機械学習手法の一種であるSupportVectorMachineを用いて,複数の手がかりを効率的に扱い,特定の話題に関連する複数文書から重要文を抽出する手法を提案する.評価用のテストセットとして12話題に関する文書集合を用意し,文書集合の総文数に対して10\,\%,30\,\%,50\,\%の要約率で重要文抽出による要約の正解データを作成した.人間による重要文の選択の揺れを考慮するため,1話題に対し3名が独立に正解データを作成した.このデータセットを用いた評価実験の結果,提案手法は,Lead手法,TF$\cdot$IDF手法よりも性能が高いことがわかった.さらに,文を単位とした冗長性の削減は,情報源が一つである場合の複数文書からの重要文抽出には,必ずしも有効でないことを確認した.以下,2章では本稿における重要文抽出の対象となる複数文書の性質について説明し,3章ではSupportVectorMachineを用いた複数文書からの重要文抽出手法を説明する.4章では評価実験の結果を示し,考察を行う.5章ではMaximumMarginalRelevance(MMR)\cite{article48}を用いて抽出された文集合から冗長性を削減することの効果について議論する. | |
V09N02-01 | \subsection{研究背景}今日ある検索システムは,索引語を用いたキーワード検索が主流となっている.検索漏れを防ぐために,キーワードに指定した語の同意語や関連語も自動的に検索対象にするといった工夫が凝らされているものも幾つか存在する.しかし,一般にキーワードによる絞込みは難しく,検索結果からまさに必要とする情報に絞り込むには,その内容についての説明文などを検索要求と比べる必要があった.例えば,判例検索システムで今担当している事件に似ている状況で起こった過去の事件の判例を調査するとき,当該事件を記述する適切な5つ位のキーワードを指定してand検索をしても,該当して表示される判例数は100件程度になり,この中から当該事件の当事者の関係や諸事実の時間的・因果的関係などが最も類似している事件の判例を人手で探すには大変な労力が必要となる.検索システムが有能な秘書のように,必要な情報の説明を文章で与えるだけで検索対象の要約などの解説文の内容を考慮して最適な情報を掲示してくれると,ユーザの検索労力は大幅に軽減される.この検索を支援する研究のポイントは,2つの文章に記述されている内容の類似性を如何に機械的に計算するかである.本研究の詳細に入る前に,文章の類似性を評価することを要素として含むこれまでの研究についてまず述べることにする.篠原\cite{sinohara}らは,一文ごとの要約を行う目的で,コーパスから類似した文を検索しこれとの対比において省略可能な格要素を認定する手法を提案している.ここでの文章間の類似性の計算方法は,2文間に共通する述語列を求め,これに係っている格要素について,それらが名詞である場合,その意味属性を元に対応関係を,同一関係,同義関係,類似関係に分け,類似度の算出式を設定し,総合的な文間の類似度を求めている.ただし,ここでは,格が表層格であり,文間の関係や述語間(用言間)の格(時間的順序,論理関係,条件関係など)についての類似性は考慮されていない.黒橋ら\cite{kurohashi}は,係り受け構造解析における並列構造の範囲の同定において,キー文節前後の文節列同士の類似性を,自立語の一致,自立語の品詞の一致,自立語の意味的類似度,付属語の一致を元に計算し,類似度最大の文節列の組を求める方法を提案している.宇津呂ら\cite{uturo}は,用例間の類似度を用いて構造化された用例空間中を効率よく探索することにより,全用例探索を行わずに類似用例を高速に検索する手法について提案している.ここでは類似度テンプレートを用いた用例高速化に重きを置いている.この研究においては文章間の類似度を対応する語同士の表層格の対応および格要素の名詞の意味カテゴリの類似度をもとに計算している.兵藤ら\cite{hyoudo}は,表層的情報のみを用いて安定的かつ高精度に構文解析を行う骨格構造解析を用いて辞典の8万用例文について構文付きコーパスを作成し,これを対象として類似用例文検索システムを構築している.ここでの類似用例文検索では,入力された検索対象文を構文解析し,自立語,意味分類コード,機能語を対象とした索引表を作成し,それを用いて検索の絞込みを行い,次に索引表にコード化されている構造コード中の文節番号,係り受け文節番号,文節カテゴリコードを参照して用例文との構造一致があるかを検査している.田中ら\cite{tanaka}は,用例提示型の日英翻訳支援システムにおける検索手法として入力キーワードの語順とその出現位置の感覚を考慮した手法を提案している.検索手法としては,入力文字列を形態素解析して自立語を抽出し,これをキーワードとしAND検索を行っている.この際,AND検索だけでは不必要な文を拾いやすいので語順と変異を考慮した検索を行っている.これにより構文解析した結果と同じような効果を得ることができるとしている.村田ら\cite{murata}は,自然言語でかかれた知識データと質問文を,類似度に基づいて照合することにより,全自動で解を取り出すシステムを開発している.ここでの文間の類似度計算には,自立語同士の類似度については基本的にIDFの値を用い,同義語の場合はEDRの概念辞書などを用い,質問側の文節が疑問詞などを含む文節の場合は意味制約や選考に従った類似性を用いている.日本語文章を検索インタフェースに用いている研究には,京都大学総合情報メディアセンターで公開されているUnixの利用方法に関する藤井ら\cite{kyoudai}のアドバイスシステムがある.このシステムは質問文の構文木と解説文の条件部の構文木を比較し,一致点に対して重みを付けて合計することによって類似度を求め,最も類似する解説文の結果部を表示するというものである.一方,法律文を対象とした自然言語処理の研究としては,平松ら\cite{hiramatu}の要件効果構造に基づいた統語構造の解析や高尾ら\cite{takao}の並列構造の解析の研究がある.前者では,法律文の論理構造を的確に捉えるために,条文中の要件・効果などを表す表層要素を特定し,これを用いた制限言語モデルを単一化文法として記述し,これに基づく法律文の構文解析を行い,解析木と素性構造を出力している.後者では,前者の研究を受けて,係り受け解析時の並列構造の同定において,経験則に基づく制約を用いて間違った構文構造を除去し,次に並列要素の長さ,表層的・深層的類似性などに基づく評価を行い,並列構造の範囲を推定している.なお,ここでの並列構造の類似性判定においては黒橋らの方法を用いている.このように,これまでの研究における文の類似性は,述語を中心として,それに構文的に係っている語についてその表層格と意味素を基に計算しているものである.これらでは,2つの文章中の対応する語間の論理的や時系列的やその他の意味的な関係による結合の類似性については比較の対象外になっており,本研究の目的とする文章に記述されている事実の内容的な類似性を評価するには十分でない.\subsection{研究目的}本研究では,意味解析を用いた情報検索の一手法を提案する.具体的には「判例」を検索対象とし,自然言語で記述された「問い合わせ文」を検索質問とした判例検索システムJCare(JudicialCAseREtrieverbasedonsemanticgraphmatching)を開発する.判例検索は社会的にも有用性が高いので,これを検索対象とした.本システムでは,自然語意味解析により「問い合わせ文」と「判例」の双方を意味グラフに展開し,意味的に同型な部分グラフを求めることで類似度を算出する.これにより両者の内容にまで踏み込んだ検索を実現する.検索対象は「判例」の中でも「交通事故関連の判例」に絞り込む.「交通事故」の判例には,被告,原告,被害者などの``当事者''が存在し,それぞれの``当事者''が相互に「関係」を持つという特徴がある.この特徴により,照合時における比較基準が設定しやすくなる. | |
V10N04-05 | 著者らは,実用に近い日本語--ウイグル語機械翻訳システムの実現を目指して一連の研究をしてきた\cite{NLC93,MSTHESIS,MUHPARAM,PRICAI94,MUH_OGA2001,OGAWA2000,MT_SUMMIT2001,MUH_NLT_2002}.その過程で,一定の語彙数を持つ日本語--ウイグル語電子辞書の開発が不可欠であると考え,その開発に着手した.その時点では,日本語--ウイグル語に関する通常の辞書さえない状況であった.最初は,日本語--ウイグル語機械翻訳実験用の基本的な辞書の開発を考えて,IPAの計算機用日本語基本動詞辞書IPAL\cite{IPAL}をベースに,名詞や形容詞などを含め,約1,200語の日本語--ウイグル語電子辞書を作成した\cite{NLC93,MSTHESIS}.IPAL動詞辞書には,日本語の動詞のうちで語彙体系上ならびに使用頻度上重要であると考えられる基本的な和語動詞861語が含まれている.両言語のなかで特に格助詞を含む名詞接尾辞と動詞接尾辞が動詞と密接な関係にあり,日本語--ウイグル語機械翻訳においても,動詞が重要であるため,IPAL動詞辞書を選んだ.しかし,1,200語前後の辞書では不十分であり,実用に近い機械翻訳システムの実現には,少なくとも日常使われる最低限の語彙を含む日本語--ウイグル語電子辞書の開発が必要であるとの考えに至った.そこで,我々はまずウイグル語--日本語辞書であるウイグル語辞典\cite{UJDIC}を電子化して機械可読にし,その逆辞書を自動的に生成するという方針で本格的な日本語--ウイグル語電子辞書の開発に着手した\cite{UJDICE,JUDICGEN}.辞書開発は,著者らが行なったが,その内の一人は十分な日本語能力を有するウイグル語ネイティブ話者である.日本語--ウイグル語電子辞書の開発作業は次のような段階に分けて行なった.\\\begin{enumerate}\itemウイグル語--日本語電子辞書の作成\begin{itemize}\item[1-1.]ウイグル語辞典\cite{UJDIC}のデータの電子化と項目タグの付与\item[1-2.]各項目の修正および品詞の付与\end{itemize}\item日本語--ウイグル語電子辞書の作成\begin{itemize}\item[2-1.]ウイグル語--日本語辞書から日本語--ウイグル語辞書を自動生成\item[2-2.]各見出し語の検査および修正\item[2-3.]機械翻訳システムで利用できる形式への変換\end{itemize}\end{enumerate}各作業の詳細については,2章以降で順次説明する.こうした一連の作業を行なった結果,語彙数約20,000語の日本語--ウイグル語電子辞書を作成することができた.著者らは,この辞書が日常よく使われる語彙をどの程度見出し語として採録しているかを調べるために,\\\begin{itemize}\item[a.]国立国語研究所の教育用基本語彙\cite{KOKKEN}6,104語中のより基本的とされている2,071語に対する収録率,\item[b.]EDRコーパス\cite{EDRCORPUS}の日本語テキスト文に含まれる単語の上位頻度2,056語に対する収録率\end{itemize}\mbox{}\\の2点に関して調査した.a.は,日本語基本語彙に対する調査で,b.は,新聞記事などからのテキストを対象とした調査であり,それぞれの特徴はあるが,全体として見ると,a.,b.ともに約80\,\%の収録率であった.さらに,a.とb.それぞれについて収録されていない単語一つ一つに関して,収録されなかった,すなわち見出し語として採録されなかった理由について詳細な分析を行ない,その理由を大きくA〜Eの5つに分類し,それぞれをさらに細分類して検討した.この結果は,本論文と同様の手法で辞書作成をする際,収録率を上げるために注意すべき点について,いくつかの知見を与えている.本論文は,次のような構成になっている.\ref{section:denshika}章では,ウイグル語辞典\cite{UJDIC}を機械可読にし,それに対して一連の編集作業を行なってウイグル語--日本語電子辞書を作成した過程について述べる.\ref{section:jidoseisei}章では,ウイグル語--日本語電子辞書からその逆辞書である日本語--ウイグル語辞書の自動生成について述べる.\ref{section:for_majo}章では,自動生成で得られた日本語--ウイグル語辞書の機械翻訳用辞書への変換について述べる.\ref{section:hyoka}章では,以上のようにして著者らが作成した日本語--ウイグル語辞書の収録率,および,収録されていない単語の調査とその結果について述べ,著者らが作成した日本語--ウイグル語辞書の評価とする.\ref{section:owari}章は本論文のまとめである. | |
V10N01-03 | 文書データベースから必要な文書を検索する場合,対象となる文書を正確に表現する検索式を作成する必要がある.しかし正確な検索式を作成するためには,検索対象となる文書の内容について十分な知識が必要であり,必要な文書を入手する前の検索者にとって適切な検索式を作成するのは難しい.レレバンスフィードバックはこの問題を解決する手法であり,システムと検索者が協調して検索式を作成することで,検索者にとって容易かつ高い精度で文書検索を行う手段である.検索者はまず初期の検索条件を与え,この検索条件により検索される文書からシステムが特定のアルゴリズムに従ってサンプル文書を選択する(本稿ではこの選択アルゴリズムをサンプリングと呼ぶ).サンプル文書から検索者が必要文書と不要文書を選択すると,選択された文書からシステムが自動的に検索条件を更新し,検索を行う.この検索結果に対してシステムによるサンプリング,検索者による選択,再検索が繰り返される.この選択による検索条件の更新がレレバンスフィードバックであり,検索結果について必要文書と不要文書を選択することで,利用者は容易に必要文書を収集することができる.また,この選択--検索のプロセスを繰り返すことで,検索条件がより検索者のニーズを反映したものとなるとともに,検索者は検索要求に適合する文書をより多く入手することができる.レレバンスフィードバックの検索精度はサンプリング手法によって異なる.通常のレレバンスフィードバックでは最も検索条件に適合すると考えられる文書をサンプル文書とする(本稿ではこの手法を「レレバンスサンプリング」と呼ぶ).これに対してLewisらはuncertaintyサンプリングを提案している\cite{bib:DLewis}.これは文書のうち必要であるか不要であるかを最も判定しにくいものをサンプルとする手法で,レレバンスサンプリングよりも高い検索精度が得られると報告されている.これらサンプリング手法は検索結果の上位から順に(レレバンスサンプリング),ないし必要文書と不要文書の境界と推定される文書,およびその前後の順位の文書(uncertaintyサンプリング)をサンプル文書として選択する.このため検索条件との適合度により順位付けされた検索結果のうち,適合度がある範囲にある文書からサンプルが選択される.比較的類似した文書は同じ検索条件との適合度が類似した値となる傾向があることから,これらサンプリング手法は複数の類似した文書をサンプルとして選択する可能性が高い.この問題点に対処するため,筆者はunfamiliarサンプリングを提案する.unfamiliarサンプリングはレレバンスサンプリングおよびuncertaintyサンプリングを改良する手法であり,既存のサンプル文書と類似した文書がサンプルとして追加されないように,サンプル選択の際に既存のサンプルと文書間距離が近いサンプルを排除する.この改良により,選択されるサンプル文書はよりバラエティに富んだものとなり,複数の類似した文書がサンプルとして用いられる場合に比べて検索精度の向上が期待できる.レレバンスフィードバックを用いた文書検索を行う場合,検索者が多くの文書について必要ないし不要の判定をすることは考えにくいので,少数のサンプル文書で高い精度を得ることが重要になる.近年,文書検索や文書分類を高い精度で実現する手法としてAdaBoostがよく用いられる\cite{bib:Boost}.AdaBoostは既存の分類アルゴリズム(弱学習アルゴリズム)を組合せることでより精度の高いアルゴリズムを生成する手法であるが,決定株,ベイズ推定法を弱学習アルゴリズムとして用いる場合,サンプル文書が少ない場合にはRocchioフィードバックに劣る精度となることが知られている\cite{bib:Boost_and_Rocchio,bib:Yu}.本稿ではRocchioフィードバックを弱学習アルゴリズムとして用いる例(Rocchio-Boost)を示し,実験により少数のサンプル文書でも高い検索精度を実現することを示す.次章以降の本稿の構成は次の通りである.2章で既存のレレバンスフィードバック技術であるRocchioフィードバックについて述べ,3章ではAdaBoostのRocchioフィードバックへの適用について述べる.4章で既存のサンプリング手法であるレレバンスサンプリング,uncertaintyサンプリングについて述べ,5章で提案手法であるunfamiliarサンプリングについて述べる.6章で実験に用いたNPLテストコレクションおよび実験手法について述べる.7章で実験結果とその考察について述べ,8章で本稿のまとめを述べる. | |
V30N02-12 | \label{sec:intro}ニュース記事や論文などの自然言語で記述された情報は構造化されていないため,記述された情報を認識しなければ情報として利用できない.これを解決するために,文章中の情報を計算機で扱いやすい形式に構造化する情報抽出の研究が盛んに行われている\cite{hendrickx-etal-2010-semeval,uzzaman-etal-2013-semeval-tempeval,yamaguchi-etal-2020-sccomics}.情報抽出の中でも,文章中の用語間の関係性を認識する関係抽出は,網羅的に情報を扱うことができるため,盛んに研究されている\cite{hendrickx-etal-2010-semeval,zhang-etal-2017-position-relation-sentence-tacred}.近年の研究では,深層学習の台頭によって,今まで文内の用語間の関係性しか扱えなかった状況から,文をまたいだ用語同士の関係性を対象とした文書単位関係抽出への拡張が進んでいる\cite{li-etal-2016-cdr,yao-etal-2019-docred}.以前の関係抽出の研究の多くでは,一文中に含まれる用語ペアの間の関係性のみを対象として抽出する文単位関係抽出に焦点が当てられていた\cite{zeng-etal-2014-relation,miwa-bansal-2016-end}.しかし,これらは文をまたいだ用語間の関係である文間の関係が無視されている.そこで,文間の関係も抽出可能とした文書単位関係抽出へ拡張して一般化されている.文書単位関係抽出の研究は広く行われているが,深層学習による関係抽出の研究では後発の研究が独立していて,先行研究のモデルを同時に利用するのが難しい.例えば,\citeA{zhou-2021-atlop-relation-cdr-docred}は事前学習モデル\cite{devlin-etal-2019-bert,liu2019roberta}による関係抽出をしたが,用語の関係性を潜在的なグラフを作成した\citeA{nan-etal-2020-reasoning-lsr}の後発の研究にもかかわらず,用語間の関係性を考慮した構造をモデルに導入していない.このように先行研究の利点が後続の研究で利用しにくい要因の一つは,深層学習モデルの開発において,モデル構造などの変更をする際に方法が明確ではないことである.一般的に,深層学習モデルを変更するためには,既存のモデル構造を活かしてモデルに新たな点を追加し,チューニングをする必要があるため,開発のコストが高い.実装も画一的なルールが整備されておらず,それぞれの研究で異なるため,モデルの再実装が必要となり,容易に先行研究の利点を導入できない.また,既存の関係抽出の研究では,関係間の相互作用を明示的に考慮できていないという問題点がある.文書単位関係抽出では,一つの文書から抽出された複数の関係同士に関連がある場合がある.例えば,材料合成手順の抽出においては,材料に対する操作や条件の関連性が影響し合い,材料に対する条件が操作に対して影響を及ぼしあう\cite{mysore-nipsws-2017,mysore-et-al-2019-olivetti-corpus,makino-2022-extracting-inorganic-access}.また,イベントの時刻歴を時間関係によって表現して抽出する時間関係抽出では,事前の事前のイベントは事前のイベントである,というような時間的な制約が存在する\cite{pustejovsky2003timebank,uzzaman-etal-2013-semeval-tempeval,cassidy-etal-2014-annotation-timebank-dense,Natsuda-2015-jnlp-relation-interaction-doc,ning-etal-2018-matres}.本稿ではこのような関係同士で及ぼしあう影響を関係間の相互作用と呼ぶ.関係間の相互作用を明示的に扱うために,\citeA{fu-etal-2019-graphrel}は文単位の関係抽出において,複数ステップで関係を抽出し,前ステップで抽出した関係を利用するGraphRelを提案した.しかし,GraphRelでは単語を節点としたグラフを構成するため,文書単位に拡張するのは計算コストが大きくなり困難である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{30-2ia11f1.pdf}\end{center}\hangcaption{関係候補編集タスク.文章と用語から既存の関係抽出器で関係候補を作成し,その結果を付加的に利用して関係を編集し,最終的な関係を決定する.図中の青い矩形は用語,その間の矢印は関係,異なる種類の矢印は異なる関係クラスを示す.}\label{fig:overview}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%そこで本研究では,\fref{fig:overview}のように,文書のみでなく,既存の関係抽出器で既に抽出された関係を関係候補として利用し,全ての関係を分類し直して編集するタスクとして,関係候補編集タスクを提案し,このタスクのもとで関係間の相互作用を考慮する.関係候補編集タスクでは,既存研究の知見を利用するために,抽出結果のみを利用して,モデルを統合せずに後発の研究で既存研究の特徴を考慮する.そして,このタスク設定の下で,用語を節点,抽出済みの関係候補を辺とした関係グラフを構築して,グラフ畳み込みネットワーク(GraphConvolutionalNetwork;GCN)\cite{kipf2017gcn}を利用することで関係間の相互作用を考慮する,逐次的な辺編集モデルを提案する.具体的には,既存手法によって抽出した関係によって関係グラフを初期化し,全ての辺に対してヒューリスティクスによって順序をつけ,逐次的に一度ずつ編集する.編集時には文脈表現に加えて関係グラフの表現を導入することで,その編集ステップ時点での関係間の相互作用を考慮する.これらの提案の有効性は,材料合成手順コーパス\cite{mysore-et-al-2019-olivetti-corpus}とMATRESコーパス\cite{ning-etal-2018-matres}に対する抽出性能によって評価する.そして,モデルの挙動を解析して,このタスク設定とモデルで性能を向上させられる条件を明らかにする.本研究の貢献は以下の点である.\begin{itemize}\item文書単位関係抽出において,抽出済みの関係を再利用し,編集するタスクとして,関係候補編集タスクを提案する.\item既存手法で抽出した関係を利用した関係グラフを構築し,そのグラフの全ての辺を逐次的に編集する逐次的な辺編集モデルによって,抽出済みの関係に対して関係間の相互作用を考慮する,逐次的な辺編集を提案する.\item関係候補編集タスクにおいて,編集で性能を向上させるための条件が,編集するモデル単体で抽出できる関係と編集前の関係に差分があることであることを明らかにする.\end{itemize}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% | |
V09N01-02 | label{No1}近年,聴覚障害者の重要なコミュニケーション手段の1つである手話と,健聴者のコミュニケーション手段である日本語とのコミュニケーション・ギャップの解消を目的とする手話通訳システムや手話の学習支援システムなどの研究が各所で盛んに行われている\cite{Adachi1992a}.これら手話を対象とした自然言語処理システムを実現するための重要な要素技術の1つである手話の認識や生成処理技術は,動画像処理の研究分野であるが,対象が限定されているため,動画像構成の単位を明確に規定できる可能性があり,手話の知的画像通信や手話画像辞書への特徴素の記述法が提案されている\cite[など]{Kurokawa1988,Kawai1990,Sagawa1992,Terauchi1992,Nagashima1993,JunXU1993}.また,日本語文の手話単語列文への言語変換処理に関する基礎検討としては,\cite[など]{Kamata1992,Adachi1992b,Adachi1992c,Kamata1994,Terauchi1996}が報告されている.さらに,手話表現の認識結果を基に日本語文を生成する研究としては,\cite[など]{Sagawa1992,Abe1993}がある.なお,これらの処理精度に影響を与える電子化辞書の構成方法に関しては,\cite[など]{Adachi1993,Nagashima1993,Tokuda1998}が提案されている.さて,2言語間の対訳電子化辞書システムを構築する場合の重要な要素技術の1つとして,原言語側と目標言語側との双方向から単語を検索できる機能の実現が挙げられる.ここで,手話単語を対象とした場合の課題の1つは,視覚言語としての特徴から,手指動作表現を検索キーとし,対応する日本語の単語見出し(以後,本論文では,日本語ラベルと略記する.)を調べる手段をどのように実現するかという点である.すなわち,視覚情報としての手指動作特徴をどのように記号化して,検索要求に反映させ,検索辞書をどのように構成するかという問題といえる.この問題に対する従来のアプローチは,手の形,動き,位置などの手指動作特徴の属性を詳細な検索項目として用意し,これらの項目間の組合せとして検索条件を設定し,同様に,これらの検索項目を基に手話単語を分類したデータベースを検索辞書としていた\cite[など]{KatoYuji1993,Naitou1994}.この検索アプローチは,手話言語学における手話単語の表記法(単語の構造記述におけるコード法)に基づいている\cite{Kanda1984,Kanda1985}.しかし,これらの表記法と分類観点は,本来,個々の手話単語の表現を厳密に再現(記述)することを目的としているため\cite{Stokoe1976},項目数が多く,また,項目間の類似性もあり,初心者には難解なコード体系といえる.そのため,このアプローチによる検索システムの問題点が,\cite{Naitou1996}により指摘されている.それによると,手の形,動き,位置などの検索条件を指定する場合,\begin{enumerate}\item検索項目間に類似性が高いものがあり,利用者が区別しにくく,\item検索条件や検索項目が多くなると,利用者は選択操作が煩わしくなり,\end{enumerate}\noindent結果として選択ミスを生じ,満足のゆく結果が得られないとされる.これは,利用者が認知した手話表現の手指動作特徴を再生し,検索条件に設定する場合に,不必要な検索条件までも指定してしまう点に原因があるといえる.一方,認知された外界の情報を,ある表現形式(表象)から別の表現形式に変換することを,一般に,コーディング(符号化)と呼ぶ.また,視覚的な特性を持つ「視覚的コード」と言語的な特性を持つ「言語的コード」を重要視する「二重コード説」によると,写真などの視覚情報を記憶する場合に,視覚的コーディングに加え,「赤い色をした車」のように言語的コーディングも同時に行われているとされる\cite{Ohsima1986}.さらに,単語は文字(あるいは音素)の組み合わせで構成されるが,例えば,(1)「キ」を提示した後で,それは「キ」あるいは「シ」だったのかを質問した場合と,(2)「テンキ」を提示した後で,それは「テンキ(天気)」あるいは「テンシ(天使)」だったのかを質問した場合とでは,(2)の方が成績が良いとされ,文字の弁別が単語という文脈内で規定された方がより正確に記憶するとされる「単語(文脈)優位性効果\cite{Reicher1969}」が知られている.これら認知科学の成果を手話単語の検索問題に当てはめて考えてみると,人間が手指動作表現を認知する場合,「両手を左右に動かす」というように,言語文として言語的コーディングを行い記憶しているとすれば,記憶された言語的コード,すなわち,手指動作特徴を記憶した際の文脈環境を保持する言語文そのものを検索キーとするアプローチが考えられる.本論文では,検索条件を細かく指定する従来の方法とは異なり,手話単語の手指動作特徴を日本語文で記述した手指動作記述文を検索条件とみなし,辞書にある類似の手指動作記述文を類似検索し,検索結果に対応付けられている日本語ラベルを提示する方法を提案する.本手法の特徴は,手話単語の手指動作特徴間の類似性を手指動作記述文間の類似性と捉え,入力された手指動作記述文と辞書に格納された手指動作記述文との類似度を計算する点にある.すなわち,「{\bf手話単語の検索問題を文献検索問題と捉えたアプローチ}」といえる.また,この手指動作記述文は,一般に,市販の手話辞典に記載されており,手話の学習者の多くが,慣れ親しんでいる文形式と捉えることができる.なお,本提案手法に関連する研究として,翻訳支援を目的とした対訳用例の類似検索に関する研究が幾つか報告されている\cite[など]{NakamuraNaoto1989,SumitaEiichiro1991,SatoSatoshi1993,TanakaHideki1999}.これらにおいては,文間の類似度の計算に用いる照合要素として,文字を対象とする方式と単語を対象とする方式に大別することができる.また,これらの要素間の照合戦略としては,出現順序を考慮しながら共有要素を計算する方式(以後,順序保存と略記する.)と,出現順序を考慮しない計算方式(以後,順序無視と略記する.)に大別することができる.ここでは,照合要素が文字列と単語列という違いはあるが,順序無視と順序保存の照合戦略を用いた代表的な2つの手法について概説する.\cite{SatoSatoshi1993}は文字の連続性に着目した文間の類似性を基準に,「最適照合検索」として,順序保存を採用した検索システム(CTM1)\cite{SatoSatoshi1992}と順序無視を採用した(CTM2)の検索効率を比較し,ほぼ同等であるが順序無視の方が若干優位としている.一方,\cite{TanakaHideki1999}は,放送ニュース文の単語列を対象に,AND検索に順序保存の制約条件を加え,長文に対する効果的な用例検索法を提案し,順序保存の方が優位としている.なお,両者とも類似性を計る指標として,語順(あるいは文字の出現順序)を考慮するアプローチの重要性を指摘している.このことは,文構造の類似性を表層情報として得られる文形式(単語の配列順序)の類似性を文間の類似度に加味することの意義を示唆している.以下,2章で,手指動作記述文の特徴について述べ,3章では,手指動作記述文間の類似度と手話単語の検索方法について述べ,4章で,提案手法の妥当性を検証するために行った実験結果を示す.5章では,実験により明らかとなった問題点について議論し,今後の課題について述べる.最後に,6章で,まとめを行う. | |
V31N01-03 | 質問応答は,自然言語処理における重要な研究テーマの一つである.質問応答の研究は,自然言語処理研究の黎明期である1960年代から継続的に取り組まれてきた\cite{green-1961,simmons-1964}.どのような質問に対しても的確に答えられるシステムを実現することは,多くの自然言語処理研究者が目指す究極的なゴールの一つと言える.質問応答研究は,深層学習技術の進展と言語資源の充実により世界的に盛り上がりを見せている.特に,SQuAD\cite{rajpurkar-etal-2016-squad}のような大規模な質問応答データセットや,BERT\cite{devlin-etal-2019-bert}に代表される大規模言語モデルの登場は,ここ数年の質問応答研究の飛躍的な進展を後押ししている.実際に,自然言語処理および人工知能分野の難関国際会議では,毎年質問応答に関する研究成果が多数報告されており,そのほぼ全てで大規模言語モデルや質問応答データセットがシステムの構築や評価に利用されている.ただし,これらの研究の多くは英語で作成されたデータを用いて実施されており,日本語での質問応答の評価はほとんどなされていない.そのため,日本語での質問応答技術がどの程度発展しているのか,その到達点は明らかになっていない.昨今の深層学習技術を質問応答に適用する方法では,言語の違いによる達成度の差異はあまり着目されてこなかったが,扱える言語表現の違い,学習データなどの知識源の質や量の違いなど,言語が異なることによる影響は十分に考慮すべき課題と考えられる.また,近年では汎用大規模言語モデルが登場しており,このようなモデルの中には日本語での質問応答が可能なものも存在する.しかし,これらのモデルのほとんどは,その大部分が英語で書かれた学習データを用いて事前学習が行われている.言語にはその言語を用いる文化圏の内容が色濃く反映されていると考えられるため,学習に用いる言語によってモデルが獲得する知識に含まれる文化的な内容は大きく異なると考えられる.従って,日本語を用いた質問応答タスクに取り組むことは,日本語圏の文化に関する内容に通じている質問応答システムを作ることに繋がると考えられる.実用的な観点からも,日常的に日本語を使用する人にとって,日本語を用いたやりとりが可能かつ,日本に関する内容について精度の高い回答を行うことができる質問応答システムの実現は望ましいことである.このような背景のもと,日本語での質問応答技術が今後発達していくためには,まず日本語を用いた質問応答技術の現状を明らかにした上で,解決するべき課題を明確にすることが必要である.そこで本論文では,日本語による質問応答技術の現在の到達点と課題を明らかにし,その上で日本語質問応答システムの今後の改善の方向性を示すことを目的とする.これまで日本語の質問応答技術を評価するための評価データは整備されてこなかったが,本論文では評価のための日本語の質問応答のデータセットとして,著者らが企画しこれまで運営してきた日本語質問応答のコンペティション「AI王~クイズAI日本一決定戦~」\footnote{\url{https://sites.google.com/view/project-aio/home}}のために作成したデータセットを用いる.このデータセットに含まれるクイズ問題には,人名や場所名を問う基本的な問題の他,数量推論や計算を必要とする問題や日本語版Wikipediaに記述が無いような言葉が正解となる問題などが含まれており,それら問題文の多様性は,日本語を用いた質問応答タスクを検証するために相応しいものと考えられる.なお,「AI王」とは,日本語を用いた質問応答研究を促進させるという目的のもと,日本語のクイズを題材とした質問応答データセットを用いてクイズの正解率の高い質問応答システムを作成するコンペティションである.また,評価対象の質問応答システムとしては,過去に実施されたAI王のコンペティションのうち,第2回および第3回に提出されたシステムと,汎用の質問応答システムとして利用できるChatGPTおよびGPT-4を用いる.これらのシステムが出力した全解答に対して,それぞれのシステムの特徴と,正解した問題文または不正解の問題文の中に共通した傾向があるかといった全数チェックを人手にて行い,現在の質問応答技術でどのような問題が正答できてどのような問題は正答できていないかを検証する.同様に,問題文の特性に基づいて問題を分類し,それぞれのカテゴリに属する問題をどの程度正解しているかで達成度を分析する.また,システムの特徴に応じた正解の傾向なども調査し,そこから一般化できる知見がないか考察する.以上の分析や考察を踏まえた上で,日本語質問応答システムの改善の方向性を示す.これらの人手分析の結果,質問応答システムの構成にはRetriever-Reader方式と呼ばれる形式が多く採用されていることや,正解率の高いシステムにはRerankerという構成要素が使われている傾向があることが分かった.また,問題文の特性については,正答するために数量推論や計算を必要とするような問題にはうまく解答できない場合が多いことが明らかになり,今後の質問応答技術の課題の一つと考えられる.本論文の主な貢献は以下のとおりである.\begin{itemize}\item日本語質問応答システムの構成やその構成要素を分析し,クイズ問題の正解率が高いシステムの理由を明らかにした\item現状の質問応答システムにとって課題となっている,難易度が高い問題の特性を明らかにした\itemそれら難易度が高い問題を正答できるようにするための,質問応答システムの改善の方向性を示した\item汎用の質問応答システムとして利用可能な大規模言語モデルが,どの程度日本語のクイズ問題を解くことができるのかを調査した\end{itemize}本論文の構成は以下の通りである:第2章にて日本語を対象とした質問応答研究や,コンペティションに対する分析についての関連研究を,第3章にてAI王プロジェクトの概要を述べる.第4章では,本論文で用いる評価データの詳細を述べる.その後,第5章にて検証対象となる質問応答システムの詳細,およびシステムとクイズ問題の分析方法を述べ,第6章にて分析結果を述べる.最後に,第7章にて本論文で得られた知見や考察をまとめ,今後の展望について述べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% | |
V09N05-01 | 自然言語処理においてchunk同定問題(chunking)とは,単語列(一般にこれをtoken列とよぶ)をある視点からまとめ上げていき,まとめ上げた固まり(chunk)をそれらが果たす機能ごとに分類する一連の手続きのことを指す.この問題の範疇にある処理として,英語の単名詞句同定(baseNPchunking),任意の句の同定(chunking),日本語の文節まとめ上げ,固有名詞/専門用語抽出などがある.また,各文字をtokenとしてとらえるならば,英語のtokenization,日本語のわかち書き,品詞タグ付けなどもchunk同定問題の一種としてとらえることができる.一般に,chunk同定問題は,文脈から得られる情報を素性としてとらえ,それらの情報から精度良くchunkを同定するルールを導出する手続きとみなすことができる.そのため,各種の統計的機械学習アルゴリズムを適用可能である.実際に機械学習を用いた多くのchunk同定手法が提案されている\cite{Ramshaw95,Tjong_Kim_Sang2000a,Tjong_Kim_Sang2000b,Tjong_Kim_Sang2000d,内元00,Sassano00b}.しかしながら,従来の統計的手法は,いくつかの問題がある.例えば,隠れマルコフモデルや最大エントロピー(ME)モデルは素性どうしの組み合わせ(共起関係)を効率良く学習できず,有効な組み合わせの多くは人手によって設定される.また多く機械学習アルゴリズムは高い精度を得るために慎重な素性選択を要求し,これらの素性選択も人間の発見的な手続きにたよっている場合が多い.一方,統計的機械学習の分野では,Boosting\cite{Freund96},SupportVectorMachines(SVMs)\cite{Vapnik95a,Vapnik98}等の学習サンプルと分類境界の間隔(マージン)を最大化にするような戦略に基づく手法が提案されている.特にSVMは,学習データの次元数(素性集合)に依存しない極めて高い汎化能力を持ち合わせていることが実験的にも理論的にも明らかになっている.さらに,Kernel関数を導入するとこで,非線形のモデル空間を仮定したり,複数の素性の組み合せを考慮した学習が可能である.このような優位性から,SVMは多くのパターン認識の分野に応用されている.自然言語処理の分野においても,文書分類や係り受け解析に応用されており,従来の手法に比べて高い性能を示している\cite{Joachims99,平2000,kudo2000b,kudo2000c,工藤02}本稿ではchunk同定問題として,英語の単名詞句のまとめ上げ(baseNPchunking)および英語の任意の句の同定(chunking)を例にとりながら学習手法としてSVMを用いた手法を述べる.さらに,chunkの表現方法が異なる複数の学習データから独立に学習し,それらの重み付き多数決を行うことでさらなる精度向上を試みる.その際,本稿では,各モデルの重みとしてSVMに固有の新たな2種類の重み付けの手法を提案する.本稿の構成は以下の通りである.2章でSVMの概要を説明し,3章で一般的なchunk同定モデルおよびSVMの具体的な適用方法,重み付け多数決の方法について述べる.さらに4章で実際のタグ付きコーパスを用いた評価実験を提示し,最後に5章で本稿をまとめる. | |
V08N01-07 | 自然言語処理では,機械翻訳システムの研究開発を中心に,過去10年以上にわたって多大な投資が行われ,言語解析アルゴリズムなど,大きく発展してきた(田中穂積1989;長尾真1996;田中穂積1999)が,解析の過程で発生する表現構造と意味に関する解釈の曖昧性の問題は,依然として大きな問題となっている.日本語の構文解析では,特に,述語間の係り受け関係の曖昧さ(白井ほか1995)と並列構造の識別(黒橋,長尾1994)が問題とされているが,名詞句(冨浦ほか1995;菊池,白井2000)や複合語(小林ほか1996)の構造の曖昧さも大きな問題である.英語では,前置詞句の係り先の曖昧さ(隅田ほか1994)などがクローズアップされている.また,機械翻訳では,訳文品質低下の最大の原因は,動詞や名詞の訳語の不適切さにある(麻野間,中岩1999)とも言われており,訳語選択の問題(桐澤ほか1999)は,解決の急がれる問題の一つとなっている.ところで,このような解釈の曖昧性が発生する原因は,解析アルゴリズムにあるのではなく,解析に使用される情報や知識の不足にある(Ikehara1996).曖昧性は,解析の途中で生じた複数の解釈の候補の中から,正しい解釈が選択できないことであるから,選択に必要な情報がある場合は発生しない.これに対して,解析アルゴリズムは,与えられた情報を使用して解釈を決定する手順であるから,優れたアルゴリズムでも,不足している情報を補うことは不可能である.従って,曖昧性の問題を解決するには,不足する情報を見極め,それが,与えられた表現から得られないときは,辞書や知識ベースとして外部から補うことが必要である.ここで,与えられた表現の意味を決定する問題について考えると,要素合成法の原理に従えば,表現の意味は,それを構成する単語から合成されることになる.すなわち,辞書によって各単語の語義が与えられると,それらの組み合わせによって表現の意味が決定できることになる.このような観点からの研究としては,単語に対して詳細な語彙情報を用意し,それを組み合わせて表現の意味解釈を生成する生成意味論の方法(Pustejovsky1995),オントロジーをベースとした知識処理の方法(Nierenburgetal.1992;武田ほか1995),言語処理のための意味表現の研究(内海ほか1993)などがある.しかし,現実の言語表現では,個々の単語の役割と意味は,与えられた表現の中で,その単語が占める位置に依存して決定しなければならない場合も多く,そのため,表現構造に関する知識や情報が必要となる.事例から情報を得て処理を進める方法(長尾1984;佐藤1992;SumitaandIida1992),単語の共起関係の情報を使用する方法(小林ほか1996;麻野間,中岩1999;PivaAlves,et.al.1998),さらには,単語の共起関係をパターン化する方法(池原ほか1993;宇津呂ほか1993;Almuallimet.al.1994b;池原ほか1997)などは,いずれも表現の構造に関する情報を使用している.このように,表現構造に関する情報は,曖昧性解消のための重要な手がかりと言えるが,解析に先立ってこれらの情報を網羅的に収集することは容易でない.通常,自然言語において,語彙に関する情報は,高々,数十万語が対象と見られるのに対して,その組み合わせである表現の場合は,ほぼ無限と言える.また,表現構造には,広い範囲で一般化できるものや,個別的で汎用化の困難なものなどがあり,ばらつきが大きい.そこで,本論文では,コーパスなどの言語データから曖昧性解消に必要な表現構造の知識を収集するための方法の一つとして,言語表現とその解釈の関係を変数とクラスの組からなる構造規則として表現し,学習用標本から半自動的に収集する方法を提案する\footnote{本論文では,従来の還元論的な方法で解決できない曖昧性を解消することを目指しており,曖昧さが問題となる表現をいくつかの部分的な表現の組に分解することはせず,一体として扱う.}.本方式では,対象とする表現を字面による文字列部分と変数部分(他の単語に置き換え可能な部分で,制約条件を単語の属性で記述する)からなるパターンで表わし,そのとき使用された変数の組によって表現構造を定義する.ところで,このような構造規則によって多様な言語表現をカバーするには,大量の標本が必要であり,必要とされる規則数も大きいと予想される.また,多数の規則を相互矛盾なく定義するには,文法属性だけでなく,粒度のきめ細かな(属性数の多い)意味属性の体系が必要になると予想される.ここで,従来の学習技術との関係をみると,種々の帰納的学習の方法が提案されてきたが,学習事例数,意味属性数,生成される規則数が共に大きい問題では計算が難しい.大規模な木構造からなる意味属性を使用する点から見ると,本論文の問題は,従来の格フレーム学習(Almuallim,etal.1994b)と同種の問題であり,(Haussler1988)の方法の適用が期待される.しかし,この方法は,学習事例数の増大に弱く,数千件以上の学習事例では実用的でない.また,事例数に強い方法としては,(Quinlan1993)の決定木学習の方法が知られているが,この方法は,木構造で表現されるような属性間の背景知識を使用する場合には適用できない.この問題を解決する方法として,木構造をフラットな属性列にエンコーディングするなど,いくつかの方法(Quinlan1993;Almuallinetal.1994b;アルモアリムほか1997)が提案されているが,いずれも,事例数,属性数,規則数が共に大きい問題に対する適用は容易でない\footnote{Quinlanの方法では次元数$N$個分の意味属性の木を組み合わせて一つの新しい木を作るのに対して,(Almuallimetal.1994a)の方法は,意味属性の木を次元数×意味属性数のビット列に展開する.これに対して,(アルモアリム1997)の方法は,エンコーディングをせずに,予め,事例を属性木に「流し」,ノード上に事例情報を蓄えておくことにより,直接計算を可能とするものである.本論文のように,事例数,属性数,規則数が共に大きい問題の場合,計算量は,Quinlanの方法の方が小さい.しかし,この方法は,意味属性のレベルに対して粒度がバランスしていないときは,精度が保証されない.}.そこで,本論文では,実用性を重視する観点から新しい方法を提案する.本方式の構造規則は,構造定義に使用された変数の数に着目して,一次元規則,二次元規則などの次元規則に分類されるが,解析精度を落とさず,汎用的な構造規則から順に生成することを考え,一次元規則から順に生成する.また,得られた各次元の構造規則に対し,木構造で表現された文法属性と意味属性の意味的包含関係を利用した自動的な汎化の方法を示す\footnote{本論文の方法では,必ずしも,必要最小限の規則のセットが生成されるとは限らない.最近の計算機の記憶容量を考え,無理なく実装可能なルール数に収斂すればよいと考える.}.本論文では,提案した方法を日本語名詞句に適用してその効果を確認する.具体的には,「$AのBのC$」の形の名詞句の事例から名詞$A$の係り先を決定するための解析規則を生成し,生成した規則を解析に使用してその適用範囲(カバー率)と解析正解率を求める. | |
V09N03-02 | 辞書ベースの自然言語処理ツールは高い精度が期待できる反面,辞書未登録語の問題があるため,統計情報を利用して辞書未登録語の抽出を行なう研究が盛んに行なわれている.辞書未登録語はドメイン固有の語句と考えることができ,対象ドメインの統計情報の利用が有効である.本稿ではドメイン固有の文字列の自動抽出で問題となるノイズを2方向のアプローチで解決する手法を提案する.本手法は辞書ベースのツールに付加的な情報を半自動的に与えて辞書未登録語の抽出を行なうことで処理精度の向上を図るものである.本稿では形態素解析ツールについて実験を行なったが,本手法は処理内容やツールに特化したものではなく,ツールの改変を伴うものではない. | |
V04N01-01 | テキストの解釈を一意に決定することは,依然として,自然言語処理において最も難しい課題である.テキストの対象分野を限定しない場合,解釈の受理/棄却の基準を記述した拘束的条件すなわち制約だけで解釈を一意に絞り込むことは容易ではない\cite{Tsujii86,Nagao92}.このため,解釈の良さの比較基準を記述した優先的条件すなわち選好によって,受理された解釈に優劣を付け,評価点が最も高い解釈から順に選び出そうとするアプローチが取られることが多く,実際,その有効性が報告されている\cite{Fass83,Schubert84,Petitpierre87,Hobbs90}.本稿では,日英機械翻訳システムにおいてテキストの最良解釈を定義するための制約と選好を備えたテキスト文法Text-WideGrammar(TWG)\cite{Jelinek93}について,照応関係に関する制約と選好に焦点をあてて説明し,さらに,TWGに基づいて意味解析と照応解析を効率良く行なう機構について述べる.テキスト解析に必要な知識の中でも,特に,照応関係に関する制約と選好は,最良解釈の選択に大きく影響を及ぼす.照応関係は,日英機械翻訳システムでは,日本語で明示することは希であるが,英語では明示しなければならない言語形式上の必須情報を得るための重要な手がかりとなる.例えば,ゼロ照応詞\footnote{ここでは,日本語で明示する必要はないが英語では明示する必要のある照応詞をゼロ照応詞と呼ぶ.}や名詞句の人称,性,数,意味素性,定/不定性の決定は,それらが関与する照応関係を明らかにし,人称,性,数,意味素性の情報を伝播することによって行なえる.このようなことから,照応関係に関する種々の制約や選好がこれまでに提案されている\cite{Yoshimoto86,Fujisawa93,Murata93,Nakaiwa93}.また,テキスト解析で用いる選好には,照応関係に関する選好の他に,構文構造や意味的親和性に関する選好などがあるが,各選好をどのように組み合わせるかが重要な課題となる.ある選好による最良解釈と他の選好による最良解釈が相容れるとは限らないからである.TWGは,形態素,構文構造,意味的親和性,照応関係に関する制約と選好によって,テキストの可能な解釈を定義し,それらに優劣を付ける.照応関係に関する選好による評価では,テキストを構成する構造体\footnote{構造体とは,テキストであるか,構造体の直接構成要素である\cite{Jelinek65}.}がより多く照応関係に関与する解釈を優先する(\ref{sec:twg:corref}節,\ref{sec:twg:eval}節).ある構造体が他の構造体を指せるかどうかは,主に,陳述縮約に関する規範\cite{Jelinek65,Jelinek66}に基づいて決めることができる.陳述縮約に関する規範は,完全形(fullform)\footnote{書き手が記述しようとしている事柄についての知識を読み手が全く持っていないと書き手が判断したときに用いる構造体.}がゼロ形に縮約される過程を11段階に分類し,指す構造体の陳述縮約度と指される構造体の陳述縮約度の間で成り立つ制約を記述したものである.TWGでは,構文構造,意味的親和性,照応関係に関する選好による各評価点の重み付き総和が最も高い解釈をテキストの最良解釈とする(\ref{sec:twg:balance}節).TWGで定義されている形態素に関する選好の精度は十分高く,この選好による最良解釈からテキストの最良解釈が生成される可能性が高い\footnote{2000文について,形態素に関する選好による最良解釈が人間による解釈と一致するかどうかを調べたところ,94.7\%において一致していた.}ので,この選好と他の選好との相互作用は考慮しない.選好によるテキスト解析手法でのもう一つの課題は,最良解釈を効率良く選び出せる処理機構を実現することである.テキストの可能な解釈の数は,テキストが長くなるにつれ,組み合せ的に増える.解釈数の組み合せ的な増大に対処するためには,解釈を個別に表現するのではなく,まとめて表現しなければならない.また,解釈をいったんすべて求めた後その中から最良解釈を選ぶのではなく,解析の途中過程で競合する解釈の評価点を比較しながら,最終的に最良解釈になりそうな候補だけを優先的に探索し,そうでない候補の探索はできるだけ行なわないようにしなければならない.本稿の処理機構は,テキストの構文構造のすべての曖昧さをまとめて表現した圧縮共有森(packedsharedforest)\cite{Tomita85}上で,遅延評価による意味解析と照応解析を行なう(\ref{sec:lazy}節).圧縮共有森上で処理を行なうことによって,部分的解釈の再利用が可能となり重複処理を避けることができる.遅延評価によって,総合評価点が最も高い解釈を求めるために必要な処理だけの実行,それ以外の処理の保留が可能となり,不必要な処理を避けることができる.統合共有森はAND/ORグラフと等価とみなせるので,本稿では説明の便宜上,圧縮共有森をAND/ORグラフと呼ぶ. |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.