id stringlengths 9 9 | text stringlengths 10.2k 92.7k | title stringclasses 1 value |
|---|---|---|
V19N04-02 | \section{はじめに}
近年,作文技術の習熟度を評定する目的で文章を自動的に評価する技術に対して,需要が高まっている.大学入試や就職試験等の大規模な学力試験において課される小論文試験の採点や,e-learning等の電子的な学習システムにおいて学習者の作文技術についての能力を測るために出題される記述式テストの採点が,例として挙げられる.このような,多数の文章を同一の基準で迅速に評価する必要があるタスクにおいて,対象となる全ての文章を人手で評価することは,多くの場合困難を伴う.第一に,評価に要する時間と労力が問題となる.記述式回答の評価は,選択式回答の評価に比べて,評価者が捉えるべき情報と考慮すべき基準が多く,それらの情報や基準自体も複雑である.第二に,評価基準の安定性が問題となる.文章の良悪を決定する基準は,評価者個々において完全に固定的なものではない.評価する順序による系列的効果や,ある要素についての評価が他要素の特徴に歪められるハロー効果\cite{NisbettWilson1977}の影響も考えられる.また,このような状況において他者による評価基準に自基準を合わせる場合,少なくとも他者との基準の差異についての定量的な情報がない限り,基準の統合は困難といえる.これらの問題の存在は,「個々の評価者が着目する言語的要素」や「評点決定に寄与する各要素の配分(重み)」に相違が生じる要因となり得る.結果的に,それらの相違が評価者間での評点の差異として表れることも考えられる.これらに対し,文章評価の自動化は,評価の公平性を損なう要因となる問題の解消に役立つと考えられる.また,評価者が着目する言語的要素やその配分の定量的な提示を行うことで,正確かつ円滑な評価者間の基準統合が可能になると考えられる.本稿では,単独の評価者により対象文章に与えられる総合的な評点と,国語教育上扱われる言語的要素についての多種の特徴量から,任意の試験設定における個人の評価者の文章評価モデルを推定する手法について述べる.また,個人の評価者の評価モデルにおいて評点決定に寄与する要素毎の配分(重み)について,他の評価者の評価モデルとの間で定量的に比較可能な形で提示する手法について述べる.ただし,複数の評価者の評価モデルによる評価から最終的な評価判断を導き出すことについては扱わない.提案手法は,文章を採点する行為を順序付き多クラス分類として捉え,SupportVectorRegression(SVR)\cite{SmolaSch1998}を用いた回帰手法により,評価者が付けうる評点を予測する.SVRの教師データには,表層や使用語彙,構文,文章構造などの特徴に関する様々な素性を用意する.これらの素性には,日本の国語科教育において扱われる作文の良悪基準に関わる素性が多く含まれる.なおかつ,全ての素性は,評価対象文章で議論されるトピック固有のものは含まない汎用的なものである.本手法は,国語教育\footnote{本稿では便宜上,小学校,中学校,高等学校における作文教育を国語教育と呼ぶこととする.}上扱われる言語的要素をSVRの素性に用いて文章評価をモデル化し,SVRの回帰係数の差として評価者間での評価基準の個人差を明示できるという点に,新規性を持つ.国語教育上扱われる要素に基づいて文章評価モデルを説明することができるため,教育指導を行う立場にある評価者が,普段の指導で参照する要素を介して容易に文章評価モデルを認識,比較することができる.作文技術についてのあらゆる能力評価に対応可能であるよう,素性を網羅的に設定するが,「文章を意味面で適切に記述する能力」の評価に関しては扱わない.ここでいう意味面での適切さとは,文章中の文が示す個々の内容の正しさを指す.例えば,「月は西から昇る」のような文が示す内容が正しいか正しくないかについての判断は,本研究では扱わない.
\section{関連研究}
自動的に文章の評価を行うためのモデルを得る先行研究には様々なアプローチが存在する.一つは,評価者による文章のスコアをラベル,文章上の素性を事例として,教師付き学習により単一のスコア推定モデルを求めるものである\cite{BursteinEtAl1998,BursteinWolska2003,Elliot2003,Ellis1966,Ellis1994,LandauerLahamFoltz2003a,LandauerLahamFoltz2003b,FoltzLahamLandauer1999,AttaliPowers2008,AttaliBurstein2006}.もう一方は,模範と考えられる文章上の素性値を基準として,その基準との距離を用いてスコア推定モデルを求めるものである\cite{IshiokaKameda2006,IshiokaKameda2003,Ishioka2008b}.e-rater\cite{AttaliBurstein2006}は,12の固定的な素性\footnote{変数選択を行うことがなく,常に12の素性を説明変数とする.}を説明変数,評価者によるスコアを従属変数として重回帰分析を行い,得られた回帰式をスコア推定モデルとする.しかし,この手法では,説明変数として用いられる特徴量が何の変量であるかが抽象的であり,評価者の評価基準の違いを十分に表現できないと考えられる.例えば,e-raterでは「総ワード数に対する語の使用法についてのエラーの割合」や「総ワード数に対する文法エラーの割合」といった特徴量が説明変数として扱われるが,「語の使用法」や「文法エラー」が具体的に示す言語現象が不明瞭である.したがって,評価基準の個人差をモデル式の回帰係数の差として示すことはできても,その差が何を意味するかについての具体性が乏しく,評価者にとって明確な差として捉えづらいと考えられる.また,モデルが重回帰分析であることから多重共線性が問題となり,扱う特徴量を詳細化する上では,各特徴量の独立性が厳密に保たれる必要がある.この点で,提案手法は,多重共線性の影響が少ない回帰的手法(SVR)を用いており,素性間の関連性を殆ど考慮することなく,多種の詳細な言語現象についての素性を用いて,評価基準をモデル化することができる.Jess\cite{IshiokaKameda2006}は,あらかじめ三種の観点(修辞,論理構成,内容)に沿って模範となる文章(新聞の社説やコラム)における種々の素性値の分布を獲得し,理想的な分布とする.評価対象文章の各素性値が模範文章における素性値分布の四分位数範囲の1.5倍を超える場合,外れ値とみなしてそれぞれについて評点を減ずる.しかしこの手法では,模範文章の選択の妥当性について,評価が行われる背景(試験の目的等)毎に検証が必要である.その検証自体も,実用的に難しいと考えられる.また,評価基準をある基準に固定することが前提とされているため,評価者の基準の個人差を明示する提案手法とは目的が異なる手法であるといえる.なお,これらの関連研究に関しては石岡によるサーベイ\cite{Ishioka2008a}が詳しい.提案手法は,多種の詳細な言語現象についての変量を教師付き学習の素性として用いることで,「詳細な言語的要素に視座を置いた,評価基準の個人差の明示」を実現するスコア推定手法である.
\section{評価基準の共通性に関する調査}
\begin{figure}[b]\begin{center}\includegraphics{19-4ia2f1.eps}\end{center}\caption{各評価者の評点当たりの事例数($x$軸は評点,$y$軸は小論文の事例数)}\label{fig:1}\end{figure}図\ref{fig:1},表\ref{table:Kappa},表\ref{table:AveAndSD}に同一の文章群に対する複数人の手による評価結果の例を示す.これは宇佐美の小論文評価に関する研究\cite{Usami2011}の中で示された,高校生による584編の小論文データとそれを4人の国語教育専門家が評価した結果のデータから,評点当たりの事例数とその分布や一致具合をまとめたものである.評価は特定の観点に沿ったものではなく総合的なもので,10段階の絶対評価により施される.評点は10点が最高点,1点が最低点である.\begin{table}[t]\caption{評価者間での評点の$\kappa$係数}\label{table:Kappa}\input{02table01.txt}\end{table}\begin{table}[t]\caption{各評価者の評点分布の平均と標準偏差}\label{table:AveAndSD}\input{02table02.txt}\end{table}Krippendorffの考察\cite{Krippendorff1980}によれば,あるデータ間の$\kappa$係数が0.7未満の場合,両データの関連を示すことは困難であることが多いとされる.表\ref{table:Kappa}において評点の$\kappa$係数は全評価者間で0.7を下回っている.また,表\ref{table:AveAndSD}と図\ref{fig:1}より,評点の分布にも異なりが認められる.このことから,本例においては評価者の評価基準が共通のものであるとはいい難い.以上の結果から本研究では,全評価者の評点をまとめた点数ではなく,個々の評価者の評点を再現する評価モデルを推定する方針をとり,前述した10段階で評価する小論文試験の設定に沿って評価行為を模倣する.
\section{評価モデルの学習}
\subsection{自動評価の定式化と学習の手法}文章の自動評価は,入力となる文章についての評点が出力となる.この評点は,順序関係を持った個別のクラスとみなすことができる.そこで本研究では,自動評価を,全順序関係にある多クラスに分類されたスコアを回帰的に推定する問題として定式化し,SupportVectorRegression(SVR)を用いて評点の予測を行う.SVRを用いて全順序関係にある多クラスに分類されたスコアを回帰的に推定する先行研究には,岡野原らの研究\cite{OkanoharaTsujii2007}がある.岡野原らは,評判分類タスクを順序付き多クラス分類問題として定式化した上で,レビューが評価対象に与える評価の度合を二極指標(実数値)で表す手法を提案している.また,SVRの回帰係数の絶対値がモデル上での重要さに相関することを用いて,レビュー記事の評価決定に重要と思われる表現を導出する手法を提案している.この中で岡野原らは,(順序関係を考慮しない)多クラス分類問題を解く分類器であるpairwiseSupportVectorMachine(pSVM)\cite{Kresel1999}とSVRの間で,順序付き多クラス分類問題に対する適合性を比較している.その結果,SVRがより高い精度で分類を行うことが示されている.pSVMは,予測クラスを間違えた際のペナルティに全クラス間で差が無いため,SVRに比べて分類モデルに大きな誤差を含む可能性が高いと思われる.\subsection{システムで採用した素性}評価者は,様々な言語的要素について文章を捉えて評価を行った上で,その判断結果を評点として数値化する.本研究ではこの過程を国語教育で参照される言語的要素を素性にとってモデル化する.学校教育上考えられる様々な試験を想定して,それらで参照される言語的要素をマージし,素性として扱う.評価対象文章から自動的にそれぞれの素性値を算出する.得られる数値は,SVRの素性として評価モデルの訓練に用いられる.以下,提案手法において素性として用いる言語的要素を,説明の分かり易さのためカテゴリ毎に列挙した上で,一部の素性についてその詳細を述べる.本研究において独自に設定した素性については,素性名の末尾に(*)を付す.\subsubsection{カテゴリ「表層」の素性群}文字数や文数,字種などの表層的特徴に関する素性を表\ref{table:FV}\footnote{FV8-13は,当該文字種の文字数を,総文字数で割った値とする.}に列挙し,特にFV2について説明する.この群の素性は,主に,文章の形式面の妥当性についての評価に役立つ.国語教育上扱われる事項に関連する素性として,FV2は「目的や意図に応じて簡単に書いたり詳しく書いたりする」\cite{MonbuKagakuSho2008}という事項に,FV10は「習得した漢字を使用して記述する」という事項にそれぞれ関連する.\begin{table}[b]\caption{カテゴリ「表層」の素性群}\label{table:FV}\input{02table03.txt}\vspace{-1\Cvs}\end{table}\begin{indent1zw}{\textbf{\underline{FV2}}}:文字数制限には,(I)「〜字以上」,(II)「〜字以内」,(III)「〜字程度」の3種類が存在する.制限(指定)文字数を$r$,評価対象文章の文字数を$n$としたとき,下記のように達成度$d$を算出することにする.ただし,(I)(II)については制限が守られなかった場合,達成度を0とする.\begin{align*}\mbox{(I)}:\&d=1\quad\mbox{(II)}:d=n/r\\\mbox{(III)}:\&d=\begin{cases}\frac{n}{r},&n\leqr\\\frac{2r-n}{r},&n>r\end{cases}\mbox{(バートレッド窓関数の変形)}\end{align*}{\textbf{\underline{FV7}}}:文は長くなるほど,内部の係り受け関係に曖昧さを生じやすいとされており\cite{Morioka1963},これを用いる.\end{indent1zw}\subsubsection{カテゴリ「語」の素性群}単語\footnote{本研究では,形態素解析による出力単位を単語として扱う.}(特に自立語)の用法や品詞,記法に関する素性を表\ref{table:FW}\footnote{これらの素性の素性値は,当該語の延べ数を全自立語の数で割った値とする.このとき複合名詞は一つの自立語として数える.}に列挙する.国語教育上扱われる事項に関連する素性として,FW3,FW4,FW5は「表現の効果などについて確かめたり工夫したりすること」\cite{MonbuKagakuSho2008}という事項に,FW10は「文章内で数字の表記法を統一する」という事項にそれぞれ関連する.\begin{indent1zw}{\textbf{\underline{FW2}}}:自立語の異なり数(タイプ数)を延べ数(トークン数)で割った値とする.ただし用言については活用形を計数の考慮に入れず,異なり数,延べ数ともにその用言の原形を数える.{\textbf{\underline{FW4}}}:オノマトペは副詞に分類される.しかし,論説文におけるオノマトペの使用は特に着目されることが多いと考えられるため,副詞とは別途に扱う.\end{indent1zw}\begin{table}[b]\caption{カテゴリ「語」の素性}\label{table:FW}\input{02table04.txt}\end{table}\subsubsection{カテゴリ「文体」の素性群}文末の形式や文内で用いられる文体等に関する素性を表\ref{table:FF}に列挙する.国語教育上扱われる事項に関連する素性として,FF1,FF9は「表現の効果などについて確かめたり工夫したりすること」\cite{MonbuKagakuSho2008}という事項に,FF7は「文章の敬体と常体の違いに注意しながら書くこと」\cite{MonbuKagakuSho2008}という事項に,FF10は「話し言葉と書き言葉との違いに気付くこと」\cite{MonbuKagakuSho2008}という事項にそれぞれ関連する.\begin{indent1zw}{\textbf{\underline{FF4}}}:述語が“名詞句+断定の助動詞(「だ」「である」「です」等)”で構成される文の出現数を,文の総数で割った値とする.{\textbf{\underline{FF7}}}:文中の助動詞に着目し,文体が一貫している場合は0,混用が認められる場合は1を素性値とする.{\textbf{\underline{FF8}}}:式$-\log(n/N)$により算出する.ただし,$n$は文の最終文節の表記異なり数,$N$は文の総数とする.\end{indent1zw}\begin{table}[b]\caption{カテゴリ「文体」の素性}\label{table:FF}\input{02table05.txt}\end{table}\begin{table}[b]\caption{カテゴリ「係り受け」の素性群}\label{table:FD}\input{02table06.txt}\end{table}\subsubsection{カテゴリ「係り受け」の素性群}同一表層格の多用や文節間の修飾関係の複雑さを捉える素性を表\ref{table:FD}に列挙する.これらの素性は,主に係り受けの適切さに関わる素性である.国語教育上扱われる事項に関連する素性として,FD1〜4,FD16は「一文の意味が明確になるように語と語の続き方を考える」\cite{MonbuKagakuSho2008}という事項,FD5〜8は「文の中における主語と述語との関係に注意すること」\cite{MonbuKagakuSho2008}という事項にそれぞれ関連する.\begin{indent1zw}\textbf{\underline{\mbox{FD6,FD7}}}:格助詞「ガ」,係助詞「ハ」を付属語に持つ文節が文中に出現する回数の最大値を素性値とする.文中で同じ助詞を繰り返し使用することで,文の表す内容が不明瞭になる場合がある\cite{Iwabuchi1979}.例:英語の早期教育\underline{が}もたらす効果\underline{が}測れないうちに実行に移すこと\underline{が}問題であることは,言うまでもない.\textbf{\underline{\mbox{FD14,FD15}}}:一文中における名詞文節の出現回数を用言の出現回数で割った値を全文について平均した値,またその分散を素性値とする.\textbf{\underline{FD16}}:一文中で,用言の連用形や接続助詞等によって文が途中で中止される回数の最大値を素性値とする.中止法の多用は,係り受け関係を曖昧にする原因となりうる\cite{Iwabuchi1979}.\end{indent1zw}\subsubsection{カテゴリ「文章のまとまり」の素性群}文章のまとまりに関する性質として,「テキスト一貫性」\cite{TakuboEtc2004}と「テキスト結束性」\cite{HallidayHasan1976}が挙げられる.テキスト一貫性は,概念や事象の間の意味的なつながりの良さを指す.テキスト一貫性は,隣り合う二文間における一貫性を示す「局所的な一貫性」と,文章全体での話題遷移の一貫性を示す「大域的な一貫性」に区別できる.一方テキスト結束性は,意味的なつながりではなく,文法的なつながりの良さを指す.Barzilayら\cite{BarzilayLapata2008}は,局所的な一貫性のモデルとして「entitygridモデル」{\kern-0.5zw}\footnote{文を行,文章中の語句要素を列,文における語句要素の構文役割を成分とする行列を用いて,語句要素の分布パターンを表現するモデル.行列から構文役割の遷移確率と構文役割の出現確率を成分とするベクトルを導出し,局所的一貫性の評価等に用いる.表\ref{table:FC}のFC1〜FC120は,構文役割についての2-gram生起確率に対応する.}を提案している.横野ら\cite{YokonoOkumura2010}は,結束性に寄与する要素\footnote{Hallidayら\cite{HallidayHasan1976}は,参照,接続,語彙的結束性,省略を挙げている.}をentitygridモデルに組み込むことで,結束性と局所的一貫性を同時に捉えるモデルを提案している.\begin{table}[b]\caption{カテゴリ「文章のまとまり」の素性群}\label{table:FC}\input{02table07.txt}\end{table}横野らは,結束性を考慮する目的で既存手法に下記の手法を組み込んでいる.\begin{enumerate}\item[i.]語句要素の文間遷移確率の計算に文間の接続関係の考慮を加え,接続関係の種類別に遷移確率を計算する.\item[ii.]意味的な類似性に基づいて語句要素のクラスタリングを行う.\item[iii.]参照表現が正しく機能している割合を素性として導入する.\end{enumerate}また,Barzilayらのentitygridにおいて扱われる構文役割は4種類(S:主語,O:目的語,X:その他,---:出現せず)であるが,横野らは構文役割の体系を日本語に特化する目的で,2種類の構文役割(H:主題,R:述部要素)を加えている.本研究では,文章のまとまりについての特徴を捉える目的に,横野らのモデルに基づいた素性を用いる(表\ref{table:FC}).ただし,FC122のみ筆者らが独自に設定する素性である.接続関係の分類・同定方法,語句要素が持つ構文役割の同定方法,参照表現が機能している割合の導出方法は,それぞれ横野らの方法に従う.類似性に基づいた語句要素のクラスタリングについては,EDR電子化辞書\cite{NihonDenshikaJishoKenkyujo2010}の日本語単語辞書内で同一の概念識別子を持つ語句要素を同じクラスタとして扱う.クラスタの持つ構文役割は,$\text{H}>\text{S}>\text{O}>\text{R}>\text{X}$という優先順位(cf.,\cite{WalkerIidaCote1994})に基づいて,クラスタ毎に一つの構文役割を決定する.また,考慮する遷移確率は文2-gramのみとする.国語教育上扱われる事項に関連する素性として,FC1〜121は「語と語や文と文との続き方に注意しながら,つながりのある文章を書くこと」\cite{MonbuKagakuSho2008}という事項,FC122は「自分の考えを明確に表現するため,文章全体の構成の効果を考えること」\cite{MonbuKagakuSho2008}という事項にそれぞれ関連する.\begin{indent1zw}{\textbf{\underline{FC122}}}:並列的に展開して述べる接続関係が文章中に存在する場合に1,存在しない場合に0を素性値とする.並列的な接続を明示する特定の表現(人手で設定)の有無により,同定する.\end{indent1zw}\begin{table}[b]\caption{結束性と局所的一貫性を同時に捉えるentitygridの例}\label{table:EntityGrid}\input{02table08.txt}\end{table}\begin{iindent1zw}以下に,FC1〜FC120の素性値の算出方法を示す.表\ref{table:EntityGrid}においてentitygridで表される文章は,文1と文2の間,文3と文4の間がそれぞれ論理的結合関係,文2と文3の間が多角的連続関係と捉えられている.語句要素1は文1で主題,文2で主語,文4でその他の構文役割として,語句要素2は文1と文3で目的語として捉えられている.このとき,FC1〜36の素性値は以下のようにして求める.2文間での構文役割の遷移パターンは,合計36通り(「HH」「HS」「HO」…「R-」「X-」「--」)ある.論理的結合関係で接続する2文間では,合計4カ所の遷移箇所のうち,「HS」「-X」の遷移が1回ずつ,「O-」の遷移が2回出現している.従って,FC1〜FC36の素性のうち,「HS」と「-X」の遷移確率を表す素性の値は0.25,「O-」の遷移確率を表す素性の値は0.5となる.その他の33個の素性の値は全て0となる.FC37〜72の素性値も同様にして求め,「S-」と「-O」の遷移確率を表す素性の値は0.5,その他の34個の素性の値は全て0となる.拡充的合成関係の接続関係は文章中に出現しないので,FC73〜FC108の素性値は全て0となる.FC109〜FC114,FC115〜FC120はそれぞれ,文章始端と文章終端にダミー要素(始端をB,終端をE)を持つとした時の遷移パターン「BH」{\kern-0.5zw}〜{\inhibitglue}「B-」,「HE」{\kern-0.5zw}〜{\inhibitglue}「-E」の出現確率をFC1〜FC108と同様に算出した結果を値とする.\end{iindent1zw}\subsubsection{カテゴリ「モダリティ」の素性群}松吉ら\cite{MatsuyoshiEtAl2010}は,情報発信者の主観的な態度(モダリティ)に真偽判断や価値判断などの情報を統合した「拡張モダリティ」を提案し,体系化している.拡張モダリティは主に「態度表明者」,「相対時」,「仮想」,「態度」,「真偽判断」,「価値判断」の6項目から成る(文献\cite{MatsuyoshiEtAl2011}を参考にした).このうち態度\footnote{言語学における「表現類型のモダリティ」\cite{Masuoka1991}に相当する.}と真偽判断について文の特徴を捉え,素性として扱う(表\ref{table:FM}).国語教育上扱われる事項に関連する素性として,FM1〜8,FM12は「事実と感想,意見などとを区別すること」\cite{MonbuKagakuSho2008}という事項にそれぞれ関連する.\begin{table}[b]\caption{カテゴリ「モダリティ」の素性群}\label{table:FM}\input{02table09.txt}\end{table}松吉らは態度を8種類に,真偽判断を9種類に分類している.この分類に基づいて,機能表現辞書つつじ\cite{MatsuyoshiEtAl2007}に助動詞型機能表現として収録される機能表現と,分類語彙表\cite{KokuritsuKokugoKenkyujo2004}に「精神および行為/心」として収録される用言を手がかりにしたルールベース手法で,文の態度,真偽判断について分類を行う.ただし,真偽判断については,肯否極性とアスペクトに関する区別をせずに判断の程度(強さ)のみを扱うこととし,断定,推量,判断程度不明の3種類を扱う.これら拡張モダリティ体系に準拠する素性(FM1〜FM11)は全て,当該拡張モダリティカテゴリに分類される文が出現する回数を文の総数で割った値とする.\begin{indent1zw}{\textbf{\underline{FM12}}}:最終文節で思考動詞,知覚・感覚動詞が用いられる文の出現回数を文の総数で割った値を素性値とする.思考動詞,知覚・感覚動詞であるか否かの判断は,分類語彙表\cite{KokuritsuKokugoKenkyujo2004}を典拠とする.\end{indent1zw}\subsubsection{カテゴリ「内容」の素性群}文章の内容(筆者により書かれた行動,出来事,状態)について,その正しさを意味面で判断することは,本研究の目的としない.その代わりに,与えられた論題に対して適合した語彙が使用されていることを捉えるための素性を用意する.論題に含まれる名詞と文章中の名詞が,EDR電子化辞書\cite{NihonDenshikaJishoKenkyujo2010}において同一の概念識別子を持つ,もしくは所属概念が直接の上位または下位関係にある場合,論題に適合する語彙として判断する.このように判断される語彙が文章中の全名詞中で占める割合を素性(FS1)とする.\subsection{評価モデルの構築とそのための素性値の正規化}SVRは,線形カーネルを使用して学習する場合,回帰係数$w$の成分値(以下,成分値)を参照することで,各素性がスコア推定モデルに寄与する度合を知ることができる.これにより,教師データにラベル(評点)をつけた評価者が,各素性に対して「どの程度の配分で評価していたか」,また「加点要素としたか減点要素としたか」を定量化することができる.前者は成分値の絶対値,後者は成分値の正負に着目することでそれぞれ明らかになる.この方法により個々の評価者の評価モデルにおいて重要な変量を明らかにする.これらの特徴を素性間で比較する目的で,下記の2通りの方法で素性値を正規化する.\begin{dingautolist}{192}\item$x_{regularized}=(x_{original}-minX)/(maxX-minX)$\item$x_{regularized}=(x_{original}-Q_{1})/(Q_{3}-Q_{1})$\end{dingautolist}$x_{original}$は任意の文章データにおける任意の素性の素性値,$X$は全教師データにおける任意の素性の素性値の集合,$Q_{1}$は集合$X$中の第1四分位値,$Q_{3}$は集合$X$中の第3四分位値である.\ding{"C0}は,全教師データ中の素性値が0から1の間に分布するように正規化する方法である.一方\ding{"C1}は,全教師データの四分位数範囲に位置する素性値が0から1の間に分布するように正規化する方法である.
\section{実験・考察}
\subsection{設定}提案手法の評価のために実験を行う.SVRの学習にはSVMlight\footnote{http://svmlight.joachim.org/}を用いる.\pagebreakまた,素性の抽出には形態素解析器MeCab\footnote{http://mecab.sourceforge.net/},係り受け解析器CaboCha\footnote{http://sourceforge.net/projects/cabocha/}を用いる\footnote{標準のIPA辞書のほか,我々が独自に拡張したユーザ辞書\cite{FujitaFujitaTamura2011}を用いている.}.教師データには第3章で用いた高校生による小論文を電子化したものを用いる.これらの小論文は,論題$\alpha$「小学校の授業における,英語の早期教育は必要であるか否かに対して意見を述べよ」,論題$\beta$「グラフと説明文を読み,日本人の子育ての態度に関してどのような特色が読み取れるかに関して述べよ」という2種類の論題に沿って書かれている.また,400字以内と800字以内の2種類の字数制限が存在する.事例は合計で584事例あり,論題と字数制限毎の内訳は表\ref{table:TrainingDataNum}に示す通りである.\begin{table}[b]\caption{教師データ事例数の内訳}\label{table:TrainingDataNum}\input{02table10.txt}\end{table}これらの584事例に対して4人の評価者が総合的につけた10段階の評点を,各教師データのラベルとする.ラベルとなる評点は,下記に示す線形変換を行うことで,評価者系列毎に評点分布の平均が0,分散が1になるよう正規化する.\[score_{i}'=\frac{score_{i}-\overline{score}}{\sqrt{\frac{1}{n}\sum^{n}_{i=1}{(score_{i}-\overline{score})}^{2}}}\]\subsection{実験}\noindent\textgt{実験1.評点推定の性能}\begin{iindent1zw}教師データを用いてSVRを構築し,各評価者がつけた評点とSVRによる評点推定結果の間の差について検討する.また,本手法とベースラインで評点推定性能を比較することで,素性設計の妥当性についても検証する.SVRによる評点推定の評価指標には平均二乗誤差(MeanSquareError)\footnote{$\frac{1}{n}\sum^{n}_{i=1}{(y_{i}-f_{i})}^2\quady_{i}$を評価者による評点,$f_{i}$をSVRにより推定される評点,$n$を事例数とする.}を用いる.また素性値の正規化に,4章で述べた2通り(\ding{"C0},\ding{"C1})の方法を適用し,それぞれを教師データに用いて構築したSVRのMSEを比較する.評点推定性能のベースラインには,本研究において独自に設定した素性を除いた素性のみでSVRを構築した場合のMSEを設定する.なお,ベースラインにおける正規化手法には\ding{"C1}の手法を用いた.SVR構築に以降全て,線形カーネル,コストパラメータ$C=10$を用いる.それぞれ表\ref{table:MSE}に全教師データを用いた場合(ALL),論題$\alpha$のみ(only$\alpha$),論題$\beta$(only$\beta$)のみの教師データを用いた場合の5分割交差検定の結果を示す.なお以降の実験では素性値の正規化に\ding{"C1}の手法を用いる.\end{iindent1zw}\begin{table}[t]\caption{提案手法の評点推定性能(MSE)}\label{table:MSE}\input{02table11.txt}\end{table}\noindent\textgt{実験2.評価モデルの構築}\begin{iindent1zw}教師データを全て訓練に用いてSVRを構築し,回帰係数の各成分値について検討する.表\ref{table:Omega}に,成分値の絶対値が大きいもの上位5素性を正負別に示す.この実験により,提案手法が国語教育で参照される言語的要素を用いて評価モデルを表現でき,なおかつ個人間での重みの配分の違いを明示できることを確認する.ただし,FC1からFC120までの素性については,素性が示す意味自体をIDとして表記する.これらの素性IDはそれぞれ,1文字目が前文,2文字目が後文の構文役割を,3文字目が2文間の接続関係を表す.構文役割「B」は文章始端,「E」は文章終端のダミー要素に,「N」は前述の「---:出現せず」に対応する.また接続関係は,1が論理的結合関係,2が多角的連続関係,3が拡充的合成関係に対応する.例えば,FC1〜FC36の素性群(論理的結合関係で接続する文間の構文役割遷移確率)のうち,前文での構文役割が「H」,後文での構文役割が「N」である語句要素の2文間での遷移確率についての素性は「HN1」と表記する.\end{iindent1zw}\begin{table}[t]\caption{評価者別の回帰係数$w$の成分値}\label{table:Omega}\input{02table12.txt}\end{table}\noindent\textgt{実験3.教師データ数と評点推定性能の関係}\begin{iindent1zw}教師データの増加に伴う評点推定性能の推移について検討する.図2に584事例の教師データの部分集合(無作為抽出)を用いた5分割交差検定の結果を示す.\end{iindent1zw}\subsection{考察}\noindent\textgt{実験1の考察}\begin{iindent1zw}表\ref{table:MSE}より,素性値の正規化手法には,\ding{"C0}の手法に比べて\ding{"C1}の手法を適用した場合の方が良い結果が得られる傾向がある.全ての結果において,設定したベースラインよりも低いMSEが得られている.従来の文章自動評価で用いられて来た素性のみを用いる場合に比べ,本研究において独自に設定した素性を追加する場合の方が,より高い精度で個人の評価モデルを推定できたことがわかる.このことから,本研究で新たに提案する素性は,評価基準のモデル化に有用な素性であるといえる.教師データのラベル系列(評価者)別にMSEを比較すると,差がみられる.これは,評価者が評価の依拠とした言語的要素の中に,本実験で設定した素性群に含まれないものが存在したことに因るものと考えられる.論題別の評点推定性能に関して,論題$\alpha$に沿って書かれた小論文の評点性能は,相対的に低い傾向にある.論題$\alpha$は,ある事柄に関して是非を問う類の論題であり,回答は賛成もしくは反対いずれかの立場をとる2種類に分類される.そのため,回答の方向性が定められていない論題$\beta$に比べて表現手法や構成に多様性がなく,教師データが偏りやすいと考えられる.\end{iindent1zw}\noindent\textgt{実験2の考察}\begin{iindent1zw}表\ref{table:Omega}より,「文字数制限の達成度(FV2)」「複合名詞の使用率(FW6)」「真偽判断の程度が『断定』の文の出現率(FM9)」は加点要素,「文末思考知覚感覚動詞使用率(FM12)」「オノマトペ使用率(FW4)」「文末の単調さ(FF8)」は減点要素として,それぞれ一部の評価者の間で共通した傾向があることがわかる.「HN-」「NH-」の素性は,「ある文で主題として出現する語が隣接する前後の文で出現しない」という文章のつながりの悪さを示す素性である.これらの素性についても,減点要素とされる傾向にあることがわかる.提案手法で独自に設定した素性のうち,カテゴリ「表層」「語」「文体」「モダリティ」に該当する素性に有効な(一部の評価者の間で共通して有効な傾向があるとは限らない)素性が多い傾向がみられた.特に,「文字数制限の達成度(FV2)」「オノマトペ使用率(FW4)」「文末の単調さ(FF8)」などの,国語教育に関連する素性に有効なものが多い.本手法で用いる素性には,既存手法\cite{AttaliBurstein2006}\cite{IshiokaKameda2006}でも共通して用いられるものも含まれているが,そのうち回帰係数の大きいものは「文字数(FV1)」「自立語の最大長(FW1)」などの一部分に限られた.本手法のように総合面での文章評価を国語教育上扱われる言語的要素を用いてモデル化する手法と,そうでない手法では,有効な素性が異なると考えられる.一方,ほとんど影響を持たない素性も存在する.カテゴリ「文章のまとまり」に関する素性群には「OE3」「HN3」など,成分値の絶対値が大きくかつ評価者間で極性が一致する傾向にある素性もあるが,大半の素性は成分値が0に近い.カテゴリ「内容」に関する素性も,全評価者において成分値の絶対値が小さく,あまり評点に影響を与えていないことがわかる.なお,ここでは絶対値0.01以上の重みをもつ素性を絶対値の大きい素性として扱う.論題別の評価モデルに関して,論題$\alpha$と論題$\beta$では重要な素性が異なる傾向にあることがわかる.論題$\alpha$では,評価者A,Bの評価モデルの推定結果に「真偽判断の程度が『推量』の文の出現率(FM10)」が大きな減点要素として含まれている.一方,論題$\beta$では評価者A,Bともに加点要素にも減点要素にも含まれていない.論題$\beta$はデータを参照した上で推量される事柄を述べる性質の論題であるため,推量表現は一般的に用いられる.他方,論題$\alpha$は賛成か反対かを問う論題であるため,断定的な態度をとった文章に比べて,婉曲的な態度の文章は論旨が不明確になりやすいと考えられる.\begin{figure}[b]\begin{center}\includegraphics{19-4ia2f2.eps}\end{center}\caption{教師データの増加に伴うMSEの推移\protect\footnotemark}\label{fig:B}\vspace{-1\Cvs}\end{figure}小論文試験で出題される論題間の異なりは,「内容の異なり」と「形式の異なり」の二種があると考えられる.本研究では内容面について「論題に示された語と関連する語を使っているかどうか」のみを素性として導入している.したがって,出題内容の異なりが評価モデルに影響を与えることはないと考えられる.しかしながら,実験結果に示されたように出題形式の異なりが評価モデルに影響を与えることがある.評価モデルをより汎用的なものとするために,論題の出題形式を一定の粒度で分類した上で,同類の出題形式の論題に対して同じ評価モデルを適用することが妥当であるかを今後確認する必要がある.\end{iindent1zw}\noindent\textgt{実験3の考察}\begin{iindent1zw}図2より,全体的にデータの増加に対するMSEの変化は収束傾向にあることがわかる.\end{iindent1zw}\footnotetext{教師データを最小数から始めて25編ずつ追加し,それぞれについての5分割交差検定の結果を表示した.}
\section{おわりに}
本稿では,国語教育的評価項目を「表層」「語」「文体」「係り受け」「文章のまとまり」「モダリティ」「内容」というカテゴリに分けられる素性群で表し,機械学習を用いて個人の評価者の評価モデルを学習する手法について述べた.また評価モデルにおいて重要な変量を明らかにする手法について述べた.この手法により,個々の評価者について「総合的評価(採点)処理のシミュレーション」,「国語教育上扱われる言語的要素を用いての評価モデルの説明」,「他者との評価モデルの違いの定量的明示」が可能になった.予め手本となる評価者を設定し,その評価者による採点結果を本手法で分析すれば,他の評価者による評価がどの要素についてどの程度手本から離れているかを照らし合わすことができる.このように,本手法により得られる情報は,多人数での評価作業において公平性を損なう要因となる「評価基準の個人差」についての問題解消に役立つと考えられる.しかし,本稿で言及した素性のうち「文章のまとまり」「内容」といったカテゴリの素性群は,ほかの素性群に比べ影響が小さいことが分かった.今後,特にカテゴリ「文章のまとまり」を評価の観点に加えるには,修辞構造等の文章構造を大域的にとらえたものを素性として加える必要があると考えられる.本稿では総合面での評点を順序関係付きラベルとして個人の評価者の評価モデルの学習を試みているが,今後個々の観点に関して素性の適性の検討を行う上では観点別の評点をラベルとして学習を行う必要がある.我々が研究対象とした高校生の小論文データには,「総合」評価のほかに「語句」「表現」「語彙」「課題」「簡潔」「明確」「構成」「一貫」「説得」「独創」という観点からの評価も存在する.今後,「文章のまとまり」「内容」といったカテゴリの素性群の影響が大きく反映される観点(「課題」,「一貫」等)からの評価モデルの学習を試みた上で,各素性についてさらに検討を行う必要があると考えられる.今後,個人の評価モデルについての情報が評価基準の個人差の解消にもたらす効果について,臨床的な実験(ある評価者が,他者の評価モデルとの差異についての情報に基づいて自身の基準を再考した後に,再評価した結果を考察する実験)による検証を行いたい.また本稿では,複数の評価者の評価モデルによる評価から最終的な評価判断を導き出すことについて扱っていないが,受験者の最終的な評価を決定することは,自動評価手法一般に期待される機能であるといえる.今後これらの機能について検討を行う必要がある.\acknowledgment本研究については,公益財団法人博報児童教育振興会の児童教育実践事業についての研究助成事業,「学習指導要領に立脚した児童作文自動点検システムの実現」(助成番号:11-B-081,研究代表:藤田彬)の援助を受けた.また,高校生の小論文答案をお貸しいただき,研究利用を認めて下さった揚華氏,宇佐美慧氏,東京工業大学大学院社会理工学研究科の前川眞一教授に感謝の意を表す.\begin{thebibliography}{}\bibitem[\protect\BCAY{Attali\BBA\Burstein}{Attali\BBA\Burstein}{2006}]{AttaliBurstein2006}Attali,Y.\BBACOMMA\\BBA\Burstein,J.\BBOP2006\BBCP.\newblock\BBOQAutomatedEssayScoringWithE-raterv.2.0\BBCQ\\newblock{\BemArticleinJournalofTechnology,Learning,andAssessment},{\Bbf4}(3).\bibitem[\protect\BCAY{Attali\BBA\Powers}{Attali\BBA\Powers}{2008}]{AttaliPowers2008}Attali,Y.\BBACOMMA\\BBA\Powers,D.\BBOP2008\BBCP.\newblock\BBOQADevelopmentalWritingScale\BBCQ\\newblock\BTR\ETSResearchReportNo.RR-08-19,EducationalTestingService.\bibitem[\protect\BCAY{Barzilay\BBA\Lapata}{Barzilay\BBA\Lapata}{2008}]{BarzilayLapata2008}Barzilay,R.\BBACOMMA\\BBA\Lapata,M.\BBOP2008\BBCP.\newblock\BBOQModelingLocalCoherence:AnEntity-basedApproach.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf34}(1),\mbox{\BPGS\1--34}.\bibitem[\protect\BCAY{Burstein,Kukich,Wolff,Lu,Chadorow,Braden-Harder,\BBA\Harris}{Bursteinet~al.}{1998}]{BursteinEtAl1998}Burstein,J.,Kukich,K.,Wolff,S.,Lu,C.,Chadorow,M.,Braden-Harder,L.~C.,\BBA\Harris,M.~D.\BBOP1998\BBCP.\newblock\BBOQAutomatedScoringUsingAHybridFeatureIdentificationTechnique.\BBCQ\\newblockIn{\BemACL'98Proceedingsofthe36thAnnualMeetingoftheAssociationforComputationalLinguisticsand17thInternationalConferenceonComputationalLinguistics},\lowercase{\BVOL}~1.\bibitem[\protect\BCAY{Burstein\BBA\Wolska}{Burstein\BBA\Wolska}{2003}]{BursteinWolska2003}Burstein,J.\BBACOMMA\\BBA\Wolska,M.\BBOP2003\BBCP.\newblock\BBOQTowardEvaluationofWritingStyle:FindingOverlyRepetitiveWordUseinStudentEssays.\BBCQ\\newblockIn{\BemEACL'03Proceedingsofthe10thconferenceonEuropeanchapteroftheAssociationforComputationalLinguistics},\lowercase{\BVOL}~1.\bibitem[\protect\BCAY{Elliot}{Elliot}{2003}]{Elliot2003}Elliot,S.\BBOP2003\BBCP.\newblock\BBOQHowDoesIntelliMetricScoreEssayResponses?\BBCQ\\newblock\BTR\RB-929,VantageLearning,Newtown,PA.\bibitem[\protect\BCAY{Ellis}{Ellis}{1966}]{Ellis1966}Ellis,B.~P.\BBOP1966\BBCP.\newblock\BBOQTheImminenceofGradingEssaysbyComputer.\BBCQ\\newblock{\BemThePhiDeltaKappan},{\Bbf47}(5).\bibitem[\protect\BCAY{Ellis}{Ellis}{1994}]{Ellis1994}Ellis,B.~P.\BBOP1994\BBCP.\newblock\BBOQNewComputerGradingofStudentProse,UsingModernConceptsandSoftware.\BBCQ\\newblock{\BemJournalofExperimentalEducation}.\bibitem[\protect\BCAY{Foltz,Laham,\BBA\Landauer}{Foltzet~al.}{1999}]{FoltzLahamLandauer1999}Foltz,P.~W.,Laham,D.,\BBA\Landauer,T.~K.\BBOP1999\BBCP.\newblock\BBOQAutomatedEssayScoring:ApplicationstoEducationalTechnology.\BBCQ\\newblock\Jem{Proc.EdMedia'99}.\bibitem[\protect\BCAY{藤田\JBA藤田\JBA田村}{藤田\Jetal}{2011}]{FujitaFujitaTamura2011}藤田央\JBA藤田彬\JBA田村直良\BBOP2011\BBCP.\newblock\JBOQWikipediaから抽出した語彙関係リソースの小論文自動評価タスクへの適用.\Jem{第10回情報科学技術フォーラム(FIT2011)},E-053,2\JVOL,\mbox{\BPGS\341--344}.\bibitem[\protect\BCAY{Halliday\BBA\Hasan}{Halliday\BBA\Hasan}{1976}]{HallidayHasan1976}Halliday,M.A.~K.\BBACOMMA\\BBA\Hasan,R.\BBOP1976\BBCP.\newblock{\BemCohesioninEnglish}.\newblockLongman,London.\bibitem[\protect\BCAY{Ishioka\BBA\Kameda}{Ishioka\BBA\Kameda}{2006}]{IshiokaKameda2006}Ishioka,T.\BBACOMMA\\BBA\Kameda,M.\BBOP2006\BBCP.\newblock\BBOQAutomatedJapaneseEssayScoringSystembasedonArticlesWrittenbyExperts.\BBCQ\\newblockIn{\BemProc.21stInternationalConferenceonComputationalLinguisticsand44thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\233--240}.\bibitem[\protect\BCAY{石岡}{石岡}{2008a}]{Ishioka2008a}石岡恒憲\BBOP2008a\BBCP.\newblock\JBOQ小論文およびエッセイの自動評価採点における研究動向.\\newblock\Jem{人工知能学会誌},{\Bbf23}(1),\mbox{\BPGS\17--24}.\bibitem[\protect\BCAY{石岡}{石岡}{2008b}]{Ishioka2008b}石岡恒憲\BBOP2008b\BBCP.\newblock\JBOQ日本語小論文の論理構成の把握とその図式表現.\\newblock\Jem{人工知能学会論文誌,特集論文「情報編纂:要素技術と可能性」\inhibitglue},{\Bbf23}(5),\mbox{\BPGS\303--309}.\bibitem[\protect\BCAY{石岡\JBA亀田}{石岡\JBA亀田}{2003}]{IshiokaKameda2003}石岡恒憲\JBA亀田雅之\BBOP2003\BBCP.\newblock\JBOQコンピュータによる小論文の自動採点システムJessの試作.\\newblock\Jem{計算機統計学},{\Bbf16}(1),\mbox{\BPGS\3--18}.\bibitem[\protect\BCAY{岩淵}{岩淵}{1979}]{Iwabuchi1979}岩淵悦太郎\BBOP1979\BBCP.\newblock\Jem{第三版悪文}.\newblock日本評論社.\bibitem[\protect\BCAY{国立国語研究所}{国立国語研究所}{2004}]{KokuritsuKokugoKenkyujo2004}国立国語研究所\BBOP2004\BBCP.\newblock分類語彙表増補改訂版データベース.\bibitem[\protect\BCAY{Kresel}{Kresel}{1999}]{Kresel1999}Kresel,U.\BBOP1999\BBCP.\newblock{\BemPairwiseClassificationandSupportVectorMachinesMethods}.\newblockMITPress.\bibitem[\protect\BCAY{Krippendorff}{Krippendorff}{1980}]{Krippendorff1980}Krippendorff,K.\BBOP1980\BBCP.\newblock{\BemContentAnalysis:Anintroductiontoitsmethodology}.\newblockSagePublications.\bibitem[\protect\BCAY{Landauer,Laham,\BBA\Foltz}{Landaueret~al.}{2003a}]{LandauerLahamFoltz2003b}Landauer,T.~K.,Laham,D.,\BBA\Foltz,P.~W.\BBOP2003a\BBCP.\newblock\BBOQAutomatedScoringandAnnotationofEssayswiththeIntelligentEssayAssessor.\BBCQ\\newblockInSherims,M.\BBACOMMA\\BBA\Burstein,J.\BEDS,{\BemAutomatedEssayScoring:ACrossdisciplinaryPerspective},\mbox{\BPGS\87--112}\Hillsdale,NJ.LawrenceErlbaumAssociates.\bibitem[\protect\BCAY{Landauer,Laham,\BBA\Foltz}{Landaueret~al.}{2003b}]{LandauerLahamFoltz2003a}Landauer,T.~K.,Laham,D.,\BBA\Foltz,P.~W.\BBOP2003b\BBCP.\newblock\BBOQTheIntelligentEssayAssesor,theDebateonAutomatedEssayGrading.\BBCQ\\newblock{\BemIEEEIntelligentSystems},{\Bbf15}(5),\mbox{\BPGS\27--31}.\bibitem[\protect\BCAY{益岡}{益岡}{1991}]{Masuoka1991}益岡隆志\BBOP1991\BBCP.\newblock\Jem{モダリティの文法}.\newblockくろしお出版.\bibitem[\protect\BCAY{松吉\JBA江口\JBA佐尾\JBA村上\JBA乾\JBA松本}{松吉\Jetal}{2010}]{MatsuyoshiEtAl2010}松吉俊\JBA江口萌\JBA佐尾ちとせ\JBA村上浩司\JBA乾健太郎\JBA松本裕治\BBOP2010\BBCP.\newblock\JBOQテキスト情報分析のための判断情報アノテーション.\\newblock\Jem{電子情報通信学会論文誌D},{\BbfJ93-D}(6).\bibitem[\protect\BCAY{松吉\JBA佐尾\JBA乾\JBA松本}{松吉\Jetal}{2011}]{MatsuyoshiEtAl2011}松吉俊\JBA佐尾ちとせ\JBA乾健太郎\JBA松本裕治\BBOP2011\BBCP.\newblock\JBOQ拡張モダリティ付与コーパス作成の基準version0.8$\beta$,\Turl{http://cl.naist.jp/nltools/modality/manual.pdf}.\bibitem[\protect\BCAY{松吉\JBA佐藤\JBA宇津呂}{松吉\Jetal}{2007}]{MatsuyoshiEtAl2007}松吉俊\JBA佐藤理史\JBA宇津呂武仁\BBOP2007\BBCP.\newblock\JBOQ日本語機能表現辞書の編纂.\\newblock\Jem{自然言語処理},{\Bbf14}(5),\mbox{\BPGS\123--146}.\bibitem[\protect\BCAY{文部科学省}{文部科学省}{2008}]{MonbuKagakuSho2008}文部科学省(著作権所有)\BBOP2008\BBCP.\newblock\Jem{小学校学習指導要領解説国語編}.\newblock東洋館出版社.\bibitem[\protect\BCAY{森岡}{森岡}{1963}]{Morioka1963}森岡健二\BBOP1963\BBCP.\newblock\Jem{文章構成法文章の診断と治療}.\newblock至文堂.\bibitem[\protect\BCAY{日本電子化辞書研究所}{日本電子化辞書研究所}{2010}]{NihonDenshikaJishoKenkyujo2010}日本電子化辞書研究所\BBOP2010\BBCP.\newblockEDR電子化辞書V4.0.\newblock独立行政法人情報通信研究機構.\bibitem[\protect\BCAY{Nisbett\BBA\Wilson}{Nisbett\BBA\Wilson}{1977}]{NisbettWilson1977}Nisbett,R.\BBACOMMA\\BBA\Wilson,T.\BBOP1977\BBCP.\newblock\BBOQThehaloeffect:EvidenceforUnconsciousAlternationofJudgements.\BBCQ\\newblock{\BemJournalofPersonalityandSocialPsychology},{\Bbf35}(4),\mbox{\BPGS\250--256}.\bibitem[\protect\BCAY{岡野原\JBA辻井}{岡野原\JBA辻井}{2007}]{OkanoharaTsujii2007}岡野原大輔\JBA辻井潤一\BBOP2007\BBCP.\newblock\JBOQレビューに対する評価指標の自動付与.\\newblock\Jem{自然言語処理},{\Bbf14}(3),\mbox{\BPGS\273--295}.\bibitem[\protect\BCAY{Smola\BBA\Sch}{Smola\BBA\Sch}{1998}]{SmolaSch1998}Smola,A.\BBACOMMA\\BBA\Sch,B.\BBOP1998\BBCP.\newblock\BBOQAtutorialonSupportVectorRegression.\BBCQ\\newblock\BTR\NeuroCOLT2TechnicalReportNC2-TR-1998-030.\bibitem[\protect\BCAY{田窪\JBA西山\JBA三藤\JBA亀山\JBA片桐}{田窪\Jetal}{2004}]{TakuboEtc2004}田窪行則\JBA西山佑司\JBA三藤博\JBA亀山恵\JBA片桐恭弘\BBOP2004\BBCP.\newblock\Jem{談話と文脈,言語の科学7}.\newblock岩波書店.\bibitem[\protect\BCAY{宇佐美}{宇佐美}{2011}]{Usami2011}宇佐美慧\BBOP2011\BBCP.\newblock\JBOQ小論文評価データの統計解析—制限字数を考慮した測定論的課題の検討—.\\newblock\Jem{行動計量学},{\Bbf38}(1),\mbox{\BPGS\33--50}.\bibitem[\protect\BCAY{Walker,Iida,\BBA\Cote}{Walkeret~al.}{1994}]{WalkerIidaCote1994}Walker,M.,Iida,M.,\BBA\Cote,S.\BBOP1994\BBCP.\newblock\BBOQJapaneseDiscourseandtheProcessofCentering.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf17}(1),\mbox{\BPGS\21--48}.\bibitem[\protect\BCAY{横野\JBA奥村}{横野\JBA奥村}{2010}]{YokonoOkumura2010}横野光\JBA奥村学\BBOP2010\BBCP.\newblock\JBOQテキスト結束性を考慮したentitygridに基づく局所的一貫性モデル.\JBCQ\\newblock\Jem{自然言語処理},{\Bbf17}(1),\mbox{\BPGS\161--182}.\end{thebibliography}\begin{biography}\bioauthor{藤田彬}{2008年横浜国大教育人間科学部卒業.2009年同大大学院環境情報学府博士課程前期短縮修了.同年より同大大学院環境情報学府博士課程後期.現在に至る.自然言語処理,特に文章の自動評価,教育分野への応用の研究に興味を持つ.公益財団法人博報児童教育振興会第六回児童教育実践についての研究助成事業優秀賞.言語処理学会,情報処理学会,全国大学国語教育学会各会員.}\bioauthor{藤田央}{2011年電通大電気通信学部情報通信工学科卒業.同年より横浜国大大学院環境情報学府博士課程前期.現在に至る.自然言語処理の研究に従事.情報処理学会員.}\bioauthor{田村直良}{(正会員)1985年東工大大学院理工学研究科情報工学専攻博士課程了.工博.同年東工大助手.1987年横浜国大工学部講師.助教授,1996年同大教育人間科学部教授を経て,2001年同大学院環境情報研究院教授.自然言語処理,特に文章構造の解析,文章理解の研究,音声合成,認識の応用,福祉情報工学の研究に興味を持つ.FIT2006論文賞.2011年電子情報通信学会論文賞.言語処理学会,情報処理学会,人工知能学会,電子情報通信学会各会員.}\end{biography}\biodate\end{document}
| |
V12N04-03 | \section{はじめに}
本論文では,構造化された言語資料の検索・閲覧を指向した全文検索システムである『ひまわり』の設計,および,その実現方法を示す。ここで言う「構造化された言語資料」とは,コーパスや辞書のように,言語に関する調査,研究などに利用することを目的として,一定の構造で記述された資料一般を指す。近年,さまざまな言語資料を計算機で利用できるようになってきた。例えば,新聞,雑誌,文学作品などのテキストデータベース(例:『毎日新聞テキストデータベース』\shortcite{mainichi})やコーパス(例:『京都大学テキストコーパス』\shortcite{kyodai_corpus},『太陽コーパス』\shortcite{tanaka2001}),シソーラスなどの辞書的なデータ(例:『分類語彙表』\shortcite{bunrui})がある。また,音声情報や画像情報などのテキスト以外の情報をも含有するコーパス(例:『日本語話し言葉コーパス』\shortcite{maekawa2004}など)も現れている。言語資料には,書名や著者名などの書誌情報や,形態素情報,構文情報といった言語学的な情報が付与されており,言語に関する調査,研究における有力な基礎資料としての役割が期待されている。このような言語資料に対して検索を行うには,二つの「多様性」に対応する必要があると考える。一つは,構造化形式の多様性である。構造化された言語資料は,一般的に固有の形式を持つことが多い。したがって,検索システムは,検索の高速性を維持しつつ,多様な形式を解釈し,言語資料に付与されている書誌情報や,形態素情報や構文情報などの言語学的情報を抽出したり,検索条件として利用したりできる必要がある。もう一つの多様性は,利用目的の多様性である。ここで言う「利用目的の多様性」とは,検索対象の言語資料の種類や利用目的の違いにより,資料に適した検索条件や閲覧形式,さらには検索時に抽出する情報が異なってくることを指す。例えば,辞書を検索する場合は,見出し語や代表表記に対して検索を行い,単一の語の単位で情報を閲覧するのが一般的である。一方,新聞記事の場合は,記事本文やタイトルに含まれる文字列をキーとして,発行年などを制約条件としつつ検索し,前後文脈や記事全体を閲覧するのが一般的であろう。このように,言語資料を対象とした検索システムは,言語資料の性質と利用目的にあった検索式や閲覧形式を柔軟に定義できる必要がある。以上のような背景のもと,構造化された言語資料に対する全文検索システム『ひまわり』の設計と実現を行う。構造化形式の多様性に対しては,現在,広範に利用されているマークアップ言語であるXMLで記述された言語資料を検索対象と想定し,XML文書に対する全文検索機能を実現する。この際,検索対象とすることのできるXML文書の形式は,XML文書全体の構造で規定するのではなく,検索対象の文字列とそれに対して付与されている情報との文書構造上の関係により規定する。また,検索の高速化を図るため,SuffixArray方式など,いくつかの索引を利用する。次に,利用目的の多様性に関しては,検索式と閲覧方式を柔軟に設定できるよう設計する。まず,検索式を柔軟に設定するために,言語資料の検索にとって必要な要素を,検索対象の文字列とそれに対して付与されている情報との構造上の関係に基づいて選定する。一方,閲覧形式については,KWIC表示機能を備えた表形式での閲覧を基本とする。それに付け加えて,フォントサイズやフォント種,文字色などの表示スタイルの変更や音声,画像の閲覧に対応するために,外部の閲覧システムへデータを受け渡す方法を用いる。本論文の構成は,次のようになっている。まず,2節では,『ひまわり』を設計する上で前提となる条件を述べる。3節では,システムの全体的な構造と各部の説明を行う。4節では,言語資料の構造に対する検討を元にした検索方式について詳説する。5節では,『分類語彙表』と『日本語話し言葉コーパス』に本システムを適用し,言語資料と利用目的の多様性に対応できるか定性的に検証するとともに,検索速度の面から定量的な評価も行う。6節で関連研究と本研究とを比較することにより,本研究の位置づけと有用性を確認し,最後に,7節でまとめを行う。
\section{前提条件}
\label{sec:前提条件}前節で述べたように,言語資料の構造上の多様性と,利用目的の多様性に対応したシステムを構築するという目的があるが,この目的に先立って,次の四つの前提条件を設けた。\paragraph{対象とする利用者}本システムは,構造化された言語資料に関する知識を持たない利用者(エンドユーザ)を想定して設計する。この際問題となるのは,構造化された言語資料を検索,閲覧するには,まず,言語資料に付与されている情報の意味や,構造化の方法を理解しなければならないということである。この問題を解決するために,本システムでは,エンドユーザでも使用できるよう,検索対象の構造化テキストに適した検索式や閲覧形式をあらかじめ設定しておき,簡便な操作で検索できるようにする。実際に設定するのは,本システムを同梱して言語資料を配布する目的を持った利用者(言語資料の作成者)とする。これによりエンドユーザが直接利用できる検索式や閲覧は限定されるが,本システムでは,エンドユーザが容易に言語資料を使用できる,ということを優先して考える。\paragraph{利用形態}本システムは,検索と閲覧を主体とした利用形態を想定する。別の言葉で言えば,言語資料を閲覧して,その場で,試行錯誤を伴う分析を行う利用形態である。言語研究における利用例としては,分析対象の語が,どの年代に多く出現するか,また,用法,出現する文脈はどのようなものかを把握するために,さまざまな条件で検索,閲覧を繰り返し,分析に生かすという利用形態が挙げられる。ただし,統計的な分析など,検索結果に対してさらなる分析を行う場合も考えられる。そのための手段として,検索結果を外部のソフトウェアへ受け渡す仕組みも用意する。\paragraph{任意の文字列に対する高速な全文検索}言語資料を検索するということから,任意の文字列に対する全文検索は必須の条件とする。また,すでに述べたように,本システムでは検索と閲覧を繰り返す利用形態を想定している。そこで,利用者の思考を妨げないために,検索の高速性も重視する。\paragraph{動作環境}本システムの動作環境としては,広範な計算機環境で,かつ,単独の計算機上で動作するものとする。「単独の計算機上」とは,検索用のサーバを用意することなく,利用者が使っている計算機上で検索できることを意味する。このような動作環境を前提とした理由は,作成した言語資料を配布する際に,本システムを同梱することを考えたからである。
\section{システムの概要}
\subsection{構造}『ひまわり』のシステム構造を図\ref{fig:システム構成}に示す。図\ref{fig:システム構成}の上部が言語資料に関連するファイル群で,下部が『ひまわり』本体(ただし,点線の四角は外部システム)である。実線の矢印はデータの流れを,点線の矢印はデータの参照を表す。『ひまわり』はJava言語で記述され\label{page:regex},WindowsXP,Windows2000,Windows98,DebianGNU/Linux3.0上で動作することが確認されている。\begin{figure}[hbt]\begin{center}\epsfxsize=12.5cm\epsfbox{system.eps}\caption{システム構成}\label{fig:システム構成}\end{center}\end{figure}『ひまわり』は,大きくわけて,次の三つの部分からなる。\begin{itemize}\item検索条件入力用インターフェイス\item検索エンジン\item検索結果閲覧部\end{itemize}大まかな処理の流れとしては,まず,「検索条件入力用インターフェイス」により利用者が検索条件を指定し,その条件を元に「検索エンジン」が言語資料ファイルを検索する。そして,検索結果を「検索結果閲覧部」で表示する。『ひまわり』により,『太陽コーパス』\footnote{『太陽コーパス』は,総合雑誌『太陽』(1895〜1925年,博文館刊)を8年きざみで全文を収録したコーパスで,規模は約1500万字,記述形式はXMLである。『ひまわり』は,もともと『太陽コーパス』のXML文書を全文検索する目的で開発された。詳しくは,\shortcite{tanaka2001,yamaguchi2002}を参照されたし。}から文字列「研究」を検索した結果を図\ref{fig:『太陽コーパス』への適用例}に示す。このあとの節では,言語資料について説明した後,システム各部の機能を図\ref{fig:システム構成},\ref{fig:『太陽コーパス』への適用例}と対応づけて説明していくことにする。\begin{figure}[hbt]\begin{center}\vspace{0.5em}\epsfxsize=13.5cm\epsfbox{himawari_taiyo.eps}\caption{『太陽コーパス』への適用例}\label{fig:『太陽コーパス』への適用例}\end{center}\end{figure}\subsection{言語資料}図\ref{fig:システム構成}の上部に示したとおり,『ひまわり』は複数の言語資料ファイルを一つの言語資料集合として扱う。個々の言語資料には,検索を高速化するための索引ファイルが付与されている。言語資料ファイルの文字コードは,UTF-16である\footnote{Java言語では,言語仕様上,文字コードをUnicodeに変換した上で処理する。したがって,どのOSにおいても同一の実行プログラムコード,および,コーパスを利用することができる。}。1回の検索処理で検索対象となるのは,一つの言語資料集合であり,複数の言語資料をまとめて検索することができる。検索対象とする言語資料集合は,検索前に利用者が指定する。それぞれの言語資料集合は,「設定ファイル」を持つ。設定ファイルには,言語資料集合を構成する言語資料ファイルやその索引ファイルに関する記述のほか,(利用者が利用可能な)検索条件,検索結果として抽出する情報,閲覧時の表示スタイルの指定など,『ひまわり』を言語資料に適合させるための設定が定義されている。設定ファイルは,基本的に言語資料の作成者が定義することを想定している。\subsection{検索条件入力用インターフェイス}「検索条件入力用インターフェイス」は,利用者が指定した検索条件を「検索エンジン」に渡す役割を果たす。検索条件は,全文検索の対象とする文字列と検索結果の制約条件からなる。これらは,図\ref{fig:『太陽コーパス』への適用例}(上部)のGUIを使って入力することができる。全文検索対象の文字列については,XML文書中のどの要素の文字列を検索するかをメニュー形式で指定することができる(図\ref{fig:『太陽コーパス』への適用例}では,検索対象の文字列は,「本文」となっている)。制約条件は,図\ref{fig:『太陽コーパス』への適用例}で表示されている,「年」,「号」,「題名」など検索された文字列に付随する情報に対する制約条件であり,検索結果を絞り込むために利用する。このように,検索条件の指定は言語資料自身に対する知識を必要としない方法を用いている。これは,\ref{sec:前提条件}節の「対象とする利用者」に示した前提条件を反映したものである。つまり,エンドユーザには言語資料自身に対する知識を必要としないインターフェイスを提供し,より詳細な検索条件の設定,例えば,XML文書中のどの部分を検索できるようにするのか,どの付随情報を検索結果に含めるのか,どのような制約条件を設定可能とするかは,言語資料作成者が設定ファイルに対して行うことを想定している。検索条件については,\ref{sec:検索方式}節で詳しく説明する。なお,検索文字列を入力する際は,検索もれを防止するために,「字体変換」機能\shortcite{yamaguchi2002}を利用することができる。「字体変換」機能は,入力された検索文字列に対して,旧字,異体字など別字体の候補を提示する機能である。例えば,検索文字列を「国語」として字体変換を行うと,候補として「國語」を提示することができる。この機能は,『太陽コーパス』に収録されている総合雑誌『太陽』など,現代と異なる字体を含んだ言語資料の検索を想定して付加されている。\subsection{検索エンジン}「検索エンジン」は,「検索条件入力用インターフェイス」で入力された検索条件を元に,言語資料ファイルを検索し,「検索結果閲覧部」,もしくは,「外部閲覧システム」に検索結果を渡す役割を果たす。検索エンジンは,全文検索のほか,検索された文字列に付随する情報の抽出を行う。この際,高速化を図るため,索引ファイルを参照する。詳しくは,\ref{sec:検索方式}節を参照のこと。\subsection{検索結果閲覧部と外部閲覧システム}検索結果閲覧部では,検索結果をKWIC付きの表形式で表示する。図\ref{fig:『太陽コーパス』への適用例}では,検索対象となった「研究」が「キー」欄に表示され,その両側に前後文脈が表示される。検索結果には,この他にも,検索された文字列に付随する情報として,「年」,「号」,「題名」,「著者」欄が含まれる。どの付随情報を検索結果として表示するかは,言語資料の作成者が『ひまわり』の設定ファイルにあらかじめ記述しておく。検索結果閲覧部は,検索結果の表示の他に,次の機能を持つ。\begin{itemize}\item検索結果に対する簡易な分析機能(ソート,検索結果の絞込みなど)\item検索結果の外部プログラムへの出力\end{itemize}ここでは,検索結果の外部プログラムへの出力について詳しく説明する。簡易な分析機能については,\shortcite{yamaguchi2002}を参照されたい。外部プログラムへ検索結果を出力する方法は,図\ref{fig:システム構成}に示したとおり,(a)テキストファイルへの出力,(b)クリップボードへの出力,(c)外部閲覧システムへの出力の三つある。まず,このうち,(a),(b)は,検索結果に対してさらなる分析を行うことを目的として,統計処理ソフトウェアや表計算ソフトウェアに検索結果を渡す手段を提供するものである。(a)は,検索結果をタブ区切りのテキスト形式でファイルに出力するもの,(b)は,検索結果閲覧部の表形式の閲覧画面から利用者が選択した範囲のデータをクリップボードに転送するものである。(b)で転送されるデータも,タブ区切りのテキストデータである。一方,(c)は言語資料の利用目的の多様性に対応するために,二つの方法で言語資料を外部閲覧システムに渡す。一つは,XML文書の一部をXSL変換を介して,外部閲覧システムに渡す方法である。主として,HTMLブラウザに出力することを想定する。表示形式は,CSS(CascadingStyleSheet)で指定する。XSL変換用のXSLTスタイルシートとCSSは,言語資料集合に付随する設定ファイルの中で指定する。HTMLブラウザを用いているので,言語資料ファイル外の画像を表示できるほか,縦書きやルビの表示,フォントサイズ,フォントの種類,文字色の変更など,言語資料に合わせてさまざまな表現形式を用いることができる。図\ref{fig:『太陽コーパス』への適用例}中のHTMLブラウザは,この機能の利用例である。この例では,検索結果の文字列を含む(雑誌『太陽』の)「記事」要素全体を表示している。表示する際には,CSSの適用により,タイトルのフォントを大きくしたり,著者名を右寄せで表示するなどしている。言語資料を外部閲覧システムに渡す,もう一つの方法は,検索結果の特定の行,列を引数として,外部プログラムを実行する方法である。この機能を利用することにより,音声,画像ファイルなど言語資料外にあるデータ(図\ref{fig:システム構成}中央下)を参照することが可能である。実際に,『太陽コーパス』への適用においては,検索結果の「著者」欄の値を引数として,著者データベースを検索し,その情報を閲覧することができるようになっている。
\section{検索方式}
\label{sec:検索方式}本節では,図\ref{fig:システム構成}に示した「検索エンジン」で用いる検索方式について詳しく説明する。\subsection{検索処理の流れ}\label{ssec:概要}『ひまわり』は,全文検索システムであり,検索処理の基本は,XMLで構造化された言語資料から指定された文字列を検索することである。これに付け加えて,言語資料に対してマークアップされたさまざまな情報を抽出するとともに,抽出された情報に対して制約を適用し,検索結果を絞り込む。検索処理の大まかな流れは,次のとおりである。\begin{enumerate}\item指定された要素中の文字列(以後,「検索対象文字列」と表記)を全文検索\item検索された文字列(以後,「検索結果文字列」と表記)に付随する情報(以後,「付随情報」と表記)を抽出\item抽出された付随情報に対して,指定された制約条件を適用し,検索結果を制約\end{enumerate}上記の処理の流れを説明するために,次のようなXML文書を検索することを考える。検索対象文字列は「記事」要素中の「普及」,制約条件は「記事」要素の「著者」属性が「山田太郎」であるものとする。\begin{quote}\begin{verbatim}<記事著者="山田太郎">インターネットの普及でさまざまなサービスが...</記事><記事著者="佐藤一朗">新たな規格の普及に向けて,各社が動き始めた。</記事>\end{verbatim}\end{quote}このとき,まず,「記事」要素に対して,全文検索を実行する。検索対象文字列の「普及」が検索されたら,その「記事」要素の「著者」属性値を取得し,制約値である「山田太郎」と一致するかチェックする。上記のXML文書の1行目は,制約値と一致し,検索結果として返される。一方,2行目は,「著者」属性値が「佐藤一朗」なので,検索結果から排除される。なお,検索結果には,検索結果文字列の他に,付随情報である「著者」属性値も含まれる。以上が,検索処理の基本的な流れであるが,『ひまわり』では検索処理を高速化するために,3種類の索引を用いている。そのうちの二つは,要素内容,および,要素属性に対する索引である。これらは,全文検索のための索引として用いられる。索引づけの方法は,SuffixArray方式に基づくものであり,検索手法は二分木検索を利用する。もう一つの索引は,要素に対する索引で,付随情報の参照のために使用される。索引として用いるのは,要素の開始・終了位置である。検索手法としては,検索文字列の位置情報をキーとして二分木検索を行う。索引については,この後の節で詳しく述べる。\subsection{言語資料の検索に必要な付随情報の参照に対する考察}前節で示したように,本システムは,全文検索により検索結果文字列を得るだけでなく,その付随情報を二次的に参照する。付随情報は,検索結果の一部であり,検索結果を制約するためにも用いられる。したがって,付随情報を参照する能力が検索式の記述力を左右するとともに,本システムで扱うことのできる文書構造を規定することを意味する。そこで,本節では,まず,言語資料の検索において,どのような付随情報を参照することが必要なのかを考察する。ここでは,図\ref{fig:付随情報の参照}のように,XML文書を木構造で表現し,その上で議論することにする。木構造の中で,各ノードがXML文書における要素を表し,ノードの文字は要素名を表す。下位ノードは,上位ノードを構成する要素とする。最上位ノード(root)はXML文書全体を表す。検索結果文字列は,strとする。要素Tは,全文検索を行った時に検索対象とした要素である。なお,『ひまわり』では,要素属性を検索対象文字列とすることもありうるが,その場合は,この後の節で示すように,要素属性を当該要素の要素内容全体として処理するので,図\ref{fig:付随情報の参照}のstrと同様に考えて差し支えない。\begin{figure}[hbt]\begin{center}\epsfxsize=10.5cm\epsfbox{tree_reference.eps}\caption{付随情報の参照}\label{fig:付随情報の参照}\end{center}\end{figure}本論文では,この木構造の中で,検索結果文字列strを起点として,上位階層要素,兄弟要素,前後要素の三つに着目する。この後の節では,この三つの要素それぞれについて,言語資料における構造化との関連を示して,その必要性を明確にする。\subsubsection{上位階層要素/属性値}上位階層要素は,検索結果文字列strを要素内容として持つ要素である。図\ref{fig:付随情報の参照}では,長方形で囲われた要素T,C,A,rootがstrに対する上位階層要素に相当する。上位階層要素のタグは,strに対する直接的な付与情報なので,上位階層要素/属性値の参照は必須である。言語資料における具体的な要素例としては,ルビや品詞のように文字や語に付与されるものから,記事,章,節というように文章の論理構造に付与されるものまでさまざまなものが考えられる。これらの例から明らかなとおり,strの親要素だけでなく,任意の階層の上位要素を参照する必要がある。上位階層要素の例を次に示す。これは,文字列「五月雨の季節」を「記事」,「形態素」,ruby(ルビ)要素で記述したものである。\begin{verbatim}<記事著者="山田太郎"タイトル="さみだれ"><形態素品詞="名詞"><rubyvalue="さみだれ">五月雨</ruby></形態素><形態素品詞="助詞">の</形態素><形態素品詞="名詞">季節</形態素></記事>\end{verbatim}例えば,検索結果文字列「五月雨」に対する記事情報を得ようとする場合,上位階層要素である「記事」要素を参照として,「著者」属性と「タイトル」属性を得ることになる。同様に,「五月雨」に対するルビや品詞情報を得る場合は,それぞれruby要素,「形態素」要素を参照する。以上の例を見ればわかるとおり,上位階層要素の参照は,要素自体というよりも,要素属性値を参照することが多い。要素自体を参照するのは,検索結果文字列をより広い範囲で参照する場合である。その例として挙げられるのは,上のXML文書に対して,「季節」を全文検索して,そこから記事全体を外部閲覧システム(図\ref{fig:システム構成}参照)で閲覧する場合である。\subsubsection{兄弟要素/属性値}ここで言う兄弟要素とは,検索文字列strの親要素に対して兄弟関係にある要素のことを指す。図\ref{fig:付随情報の参照}の検索結果文字列strに対しては,G,H要素が兄弟要素に相当する。同一の親を持つ要素の参照は,辞書の項目のように,一つの項目を複数の要素で記述したデータを参照するのに必要となる。次の例は,「辞書項目」要素を「見出し」,「表記」,「品詞」,「語義説明」要素で表現したものである(語義説明は,三省堂『大辞林』第2版の見出し「さみだれ」から引用)。\begin{verbatim}<辞書項目><見出し>さみだれ</見出し><表記>五月雨</表記><品詞>名詞</品詞><語義説明>〔「さ」はさつき,「みだれ」は水垂(みだれ)の意という〕(1)陰暦五月頃に降り続く雨。つゆ。梅雨(ばいう)。長雨(ながめ)。うのはなくたし。[季]夏。《—をあつめて早し最上川/芭蕉》(2)継続しないで,少しずつ繰り返すことのたとえ。「—スト」</語義説明></辞書項目>\end{verbatim}このXML文書の「見出し」要素を検索した時,辞書の検索結果としては,見出しを検索結果として示すだけでなく,その表記や品詞などの付随情報を同時に示すのが一般的だろう。このような付随情報を参照するためには,「見出し」要素に対する兄弟要素である「表記」,「品詞」,「語義説明」要素を参照できなければならない。\subsubsection{前後要素/属性値}前後要素とは,検索文字列の親要素と同一の要素名を持つ要素で,前出,後出する要素のことを指す。図\ref{fig:付随情報の参照}の検索結果文字列strに対しては,要素Eの兄弟要素のT要素と,要素Iの兄弟要素の二つのT要素が前後要素に相当する。兄弟要素と違って,共通する親要素を持つ必要はない。前後要素は,連続した要素の関係を考慮して検索を行う場合に必要になる。その例として,特定の形態素列を検索する状況が挙げられる。次の例は,文字列「今日のテーマは」に対して,「形態素」タグを付与したものである。\begin{verbatim}<形態素品詞="名詞">今日</形態素><形態素品詞="助詞">の</形態素><形態素品詞="名詞">テーマ</形態素><形態素品詞="助詞">は</形態素>\end{verbatim}このような形態素列に対して,「今日」に後続する形態素を参照することを考えると,「形態素」要素である「今日」に後続する「形態素」要素を参照することになる。これ以外にも,名詞,助詞,名詞といった特定の品詞列を検索する場合もあるだろう。この場合,検索対象文字列を「名詞」として,「形態素」要素の品詞属性に対して全文検索を行い,その後続する二つの「形態素」要素の属性値を参照することが必要になる。\subsubsection{参照可能な付随情報}\label{sss:付随情報}以上のことから,本システムにおいて参照することのできる付随情報を次のように定める。これらは,『ひまわり』が検索対象とすることのできるXML文書の構造を規定する。\begin{itemize}\itemstrを包含する任意の要素,および,その属性値。なお,当該要素が入れ子構造になる場合は,直近の要素を優先して参照するものとする。\itemstrの親要素の兄弟要素,および,その属性値。なお,参照する際は,同一の要素が複数存在する場合を考慮して,参照方向(親要素の前後)を指定するものとする。\itemstrの親要素と同一の要素名を持つ前後$n$番目の要素,および,その属性値($n$は任意の整数)\end{itemize}\subsection{検索対象文字列の全文検索}この節では,検索対象文字列の全文検索について説明する。この処理は,\ref{ssec:概要}節で示した検索処理の流れのうち,(1)に相当する。\subsubsection{SuffixArrayに基づく全文検索}検索対象文字列の検索対象としては,要素内容と要素属性があるが,いずれに対する検索も,SuffixArray方式の索引を用いた二分木検索を行う\shortcite{yamasita2000}。SuffixArrayを索引として用いた検索では,検索対象文字列をキーとし,結果として検索結果文字列の先頭の位置を取得することができる。索引づけは,検索対象の$n$個の文字すべてに対して行う。つまり,要素内容の場合は,要素内容中のタグを除くすべての文字データであり,要素属性の場合は,すべての要素属性値である。索引の量は,文字データ数$n$に比例する。検索の時間計算量は,索引を二分木検索するので,$O(\logn)$となる。検索対象文字列は,正規表現\footnote{『ひまわり』における正規表現は,記述言語であるJava言語の標準ライブラリの{\ttjavax.regex.Pattern}クラスに依存する。詳細は,{\tthttp://java.sun.com/j2se/1.4/ja/docs/ja/api/java/util/regex/Pattern.html}を参照のこと。}で記述する。全文検索を実行する際には,検索対象の要素,もしくは,要素属性を特定しておく。ただし,正規表現の指定には制限があり,検索文字列の中に,1文字以上のリテラルを含んでいる必要がある\footnote{例えば,「国」で始まる2文字の文字列を表す「{\tt国.}」は1文字のリテラル「国」を含むので,検索文字列として指定できるが,任意の2文字の文字列を表現する「{\tt..}」は,いずれもリテラルではないので,検索文字列としては指定できない。}。SuffixArray自体については,\shortcite{yamasita2000}を参照のこととし,この後の\ref{sssec:文字列の照合(要素内容の場合)},\ref{sssec:文字列の照合(要素属性の場合)}節では,要素内容,要素属性ごとに,文字列の照合方法を説明することにする。\subsubsection{文字列の照合(要素内容の場合)}\label{sssec:文字列の照合(要素内容の場合)}要素内容に対する全文検索における文字列の照合は,要素内容中のタグを除いた文字データと検索対象文字列とを照合する。照合する方法には,検索対象の要素の範囲を限定しないで照合する方法と,要素の範囲内で照合する方法の二つがあり,適宜使い分けることができる。なお,照合する際には,否定条件での照合も可能である。\paragraph{要素の範囲に限定しない方法}形態素に対するマークアップを行った場合,各要素内容の文字列は,連続的に解釈される。要素の範囲に限定しない照合方法は,こういった連続的に解釈可能な要素を全文検索する時に用いる。次のXML文書\footnote{本論文では,XML文書を見やすくするために,適宜,改行や字下げの空白を挿入している。『ひまわり』は,空白文字も通常の文字と同様に扱うので,実際のXML文書では,空白文字を挿入しないことが多い。}は,「文」,「形態素」の二つの要素で構造化を行ったXML文書である。{\small\begin{verbatim}<文><形態素>東京</形態素><形態素>タワー</形態素><形態素>へ</形態素><形態素>行く</形態素></文><文><形態素>時々</形態素><形態素>雨</形態素><形態素>が</形態素></文>\end{verbatim}}このXML文書の「形態素」要素に対して,「東京タワー」を検索した場合,「文」,「形態素」タグは無視されて,照合は成功する。ただし,場合によっては,過度な照合が行われてしまう場合がある。過度な照合を防ぐための手段として,照合する範囲を限定する要素を設定することができる。例えば,上のXML文書に対して,「行く時」を全文検索すると,照合が成功してしまうが,「文」要素を範囲限定のための要素とすれば,照合するのを防ぐことができる。以上は,リテラルだけからなる有限長の検索対象文字列の照合であるが,正規表現で検索対象文字列を指定した場合,検索対象文字列が無限長の文字列となる可能性がある。『ひまわり』では,照合対象となる文字列の最大文字列長を制限した上で照合を行う。具体的には,正規表現中のリテラル部分(利用者が検索対象文字列入力時に指定する)の前後文字列長を制限している。この最大前後文字列長は,利用者が設定することができる。例えば,最大前後文字列長が5文字のとき,正規表現「\verb+東京.*+」\footnote{「東京」に0文字以上の任意の文字が後続する文字列}に対しては,「東京」の前後5文字が照合の範囲となり,文字列「東京タワーへ行」との照合が成功することになる。\paragraph{要素の範囲を限定する方法}形態素列の照合と異なり,各要素の要素内容に連続性のない言語資料もある。その代表的な例は,辞書である。もう一度,「さみだれ」の辞書項目を元に説明する。{\small\begin{verbatim}<辞書項目><見出し>さみだれ</見出し><表記>五月雨</表記><品詞>名詞</品詞></辞書項目>\end{verbatim}}このXML文書において,「見出し」要素と「表記」要素の要素内容に連続性はない。そこで,要素範囲を限定した照合では,検索対象文字列と指定された要素の要素内容全体とを照合する。「見出し」要素に対して全文検索を行った場合,要素内容である「さみだれ」と検索対象文字列とを照合する。なお,部分文字列と照合させる場合は,「\verb+さみ.*+」などのように,正規表現を用いる。\subsubsection{文字列の照合(要素属性の場合)}\label{sssec:文字列の照合(要素属性の場合)}要素属性に対する全文検索における文字列の照合は,要素内容の照合における「要素の範囲を限定する方法」と同様に,属性値全体で照合を行う。検索対象文字列の指定も,リテラルを1文字以上含むという,制限付きの正規表現である。全文検索の結果としては,要素属性値の他に,当該要素の要素内容も含まれるものとする。付随情報の参照は,この要素内容を起点に行われる。\subsection{付随情報の参照と制約}この節では,付随情報の参照と,検索条件における付随情報の制約について説明する。これらの処理は,\ref{ssec:概要}節で示した検索処理の流れのうち,(2),(3)に相当する。\subsubsection{付随情報の参照}付随情報の参照には,全文検索の場合と同様,索引を用いる。\ref{sss:付随情報}節で示したいずれの付随情報についても,「要素に対する索引」を使用する。要素に対する索引とは,参照対象となる要素の開始位置と終了位置の組を開始位置でソートしたものである。参照する際には,検索結果文字列の位置をキーとし,結果として当該要素の開始位置と終了位置を得る。索引の量は,要素数を$n$とすると,$2n$である。検索処理の時間計算量は,二分木検索を使用するので,$O(\logn)$である。次に,各付随情報ごとに,参照方法を示す。\paragraph{上位階層要素,および,その属性値}索引づけは,全文検索時に検索対象とした要素(以後,「検索対象要素」と表記)を含む上位階層要素のうち,参照が必要になる要素に対して行う。図\ref{fig:付随情報の参照}では,root,A,C,T要素が相当する。当該要素の参照には,検索結果文字列の位置をキーとして,参照する要素の範囲(開始・終了位置)を検索し,その結果から要素を参照する。一方,属性値の参照には,検索された範囲の開始位置から,検索対象の属性を線形検索する。以後,兄弟要素,前後要素ともに,その属性値を得るときは,同様の方法を用いる。\paragraph{兄弟要素,および,その属性値}兄弟要素の参照に必要な索引づけは,検索対象要素に対して行う。図\ref{fig:付随情報の参照}では,T要素が相当する。兄弟要素の参照には,検索結果文字列の位置をキーとして,検索対象要素の範囲を取得する。そして,その前後の要素を線形検索することにより,兄弟要素を参照する。\paragraph{前後要素,および,その属性値}前後要素の参照に必要な索引づけも,検索対象要素に対して行う。前後要素を参照するには,まず,検索結果文字列の位置をキーとして,検索対象要素の索引を検索する。すでに述べたように,索引は要素の開始位置をキーとして,昇順にソートされている。検索対象要素に対して,$n$番目($n$が負値の場合,前の要素を表すこととする)の要素を参照するには,検索された索引に対して,$n$番目の索引を検索すればよい。\subsubsection{付随情報の制約}抽出された付随情報は,検索結果を制約する条件として利用できる。付随情報に対する制約条件は,正規表現で記述する。この際,否定条件を指定することもできる。文字列の照合は,全文検索の場合と同様,タグを排除した後に行う。
\section{評価}
本節では,言語資料の構造化形式と利用目的の多様性に対する『ひまわり』の有効性を検証するために,実際の言語資料である『分類語彙表』と『日本語話し言葉コーパス』に『ひまわり』を適用し,定性的に評価する。さらに,4種類の言語資料に対する検索速度を測定することにより,『ひまわり』を定量的に評価する。\subsection{言語資料への適用}\subsubsection{『分類語彙表』}まず,日本語のシソーラスである『分類語彙表(増補改訂版)』\shortcite{bunrui}に本システムを適用する。図\ref{fig:分類語彙表データ)}の左が『分類語彙表』の元のデータ(分類番号1.5010「体の類/自然/自然/光」の一部とその上位階層の分類項目)で,右がXMLで構造化した結果である。bunrui\_goi\_hyo,c,s,l,e要素は,それぞれ『分類語彙表』全体,分類項目,項目内の段落番号,項目内の小段落番号,表記を表す要素である。e要素には,表記に対する「見出し」属性を,c要素には「分類番号」,「概念パス」属性(当該の分類項目に至るまでの分類項目の並び)を付けている。\begin{figure}[hbt]\begin{minipage}{.45\linewidth}{\small\begin{verbatim}1体の類1.5自然1.50自然1.5010光01光(ひかり)-光(こう)光明光輝光彩02微光白光白色光03燐光蛍光蛍火\end{verbatim}}\end{minipage}\hspace{2.5em}\begin{minipage}{.45\linewidth}{\small\begin{verbatim}<bunrui_goi_hyo><c分類番号="1.5010"概念パス="/体/自然/自然/光"><s段落番号="01"><l小段落番号="01"><e見出し="ひかり">光</e>:<e見出し="こうさい">光彩</e></l></s><s段落番号="02"><l小段落番号="01"><e見出し="びこう">微光</e><e見出し="はっこう">白光</e></l><l小段落番号="02"><e見出し="はくしょくこう">白色光</e></l></s>:</bunrui_goi_hyo>\end{verbatim}}\end{minipage}\caption{『分類語彙表』(左:元データ,右:XMLによる構造化)}\label{fig:分類語彙表データ)}\end{figure}図\ref{fig:分類語彙表データ)}のXML文書を検索対象とするために,『ひまわり』の検索対象文字列,付随情報,および,閲覧形式を次のように設定した。\begin{description}\item[検索対象文字列]e要素の要素内容(つまり,表記),および,「見出し」属性\item[付随情報]c,s,l,e要素の属性(個々の要素に対して索引付け)\item[閲覧形式]分類項目に含まれる語を閲覧するために,c要素をHTMLブラウザに出力\end{description}図\ref{fig:適用例(分類語彙表)}は,「光」を表記に含む語を検索した結果である。「表記」欄が,検索結果文字列で,その左右に同一分類項目の語が列挙される。この三つの欄の他に,検索対象文字列として設定した「見出し」欄,付随情報として設定した「概念パス」や「分類番号」欄などが表示される。\begin{figure}[hbt]\begin{center}\epsfxsize=13.5cm\epsfbox{himawari_bunrui.eps}\caption{『分類語彙表』への適用例}\label{fig:適用例(分類語彙表)}\end{center}\end{figure}『ひまわり』のウィンドウに重ねて表示されているのは,外部閲覧システムのHTMLブラウザであり,検索結果文字列をダブルクリックすると起動される。この例では,検索結果文字列「微光」を含む分類項目全体を表示している。検索結果文字列は,利用者が発見しやすいように,赤色で表示される。HTMLブラウザには,検索対象文字列を含むc要素が渡され,図\ref{fig:システム構成}に示したようにXSL変換とCSSファイルが適用された後にその結果が表示される。このように,『ひまわり』は,(1)『分類語彙表』の見出し,および,表記を対象に全文検索できる,(2)書籍版とほぼ同等の形式で閲覧することができることを示した。これにより,『ひまわり』は『分類語彙表』を検索・閲覧するシステムとして適応していると考えられる。\subsubsection{『日本語話し言葉コーパス』}次に,『日本語話し言葉コーパス』に対して,『ひまわり』を適用する。『日本語話し言葉コーパス』は,学会講演などの独話を主体としたコーパスである。音声データの他に,音声データの転記テキストに形態論情報,分節音などの言語情報が付与されたXML形式のデータが提供される。詳しくは,\shortcite{maekawa2004}を参照されたい。ここでは,コーパス全データのうち,人手で形態論情報を付与された転記テキスト(396講演,約102万短単位)を適用対象とする。図\ref{fig:『日本語話し言葉コーパス』の書き起こしテキスト}(上)が,転記テキストである。転記テキストは,200[ms]以上のポーズ位置で「転記基本単位」に分割される。転記基本単位の始まりは,数字で始まる行で表される。左から,転記基本単位の通し番号,開始時刻,終了時刻,話者ID(LまたはR)を意味する。発話の転記には,漢字仮名混じりで表記された基本形と,発音を可能な限り正確にカタカナで表記した発音形がある。下の転記テキストでは,\verb+&+の左右がそれぞれ基本形,発音形が併記されている。また,各転記基本単位内は,文節単位で改行されている。\begin{figure}[hbt]\noindent{\bf■転記テキスト}{\small\begin{verbatim}000100000.311-00000.698L:テーマ&テーマ000200001.114-00002.989L:無人島に&ムジントーニ持っていくもの&モッテイクモノ三つ&ミッツ\end{verbatim}}\noindent{\bf■XML文書への変換結果}{\small\begin{verbatim}<kdb講演ID="AC00JUL124"><su代表形="テーマ"品詞="名詞"発音形="テーマ">テーマ</su><pp_id="001"/><t転記番号="0001"開始時刻="00000.311"終了時刻="00000.698"/><su代表形="ムジン"品詞="名詞"発音形="ムジン">無人</su><su代表形="トウ"品詞="接尾辞"発音形="トー">島</su><su代表形="ニ"品詞="助詞"その他1="格助詞"発音形="ニ">に</su><pp_id="002"/><su代表形="モツ"品詞="動詞"活用型="タ行五段"活用形="連用形"発音形="モッ">持っ</su><su代表形="テ"品詞="助詞"その他1="接続助詞"発音形="テ">て</su>\end{verbatim}}\caption{『日本語話し言葉コーパス』の転記テキストとXML文書への変換結果}\label{fig:『日本語話し言葉コーパス』の書き起こしテキスト}\end{figure}図\ref{fig:『日本語話し言葉コーパス』の書き起こしテキスト}(上)の転記テキストに形態論情報を付与し,XML形式で表現したのが,図\ref{fig:『日本語話し言葉コーパス』の書き起こしテキスト}(下)の「XML文書への変換結果」である。今回は,全転記テキストを一つの言語資料ファイルにまとめて検索することとした。kdb,su,p,t要素は,それぞれ,一つの転記テキスト全体,形態論情報(短単位\footnote{CSJに付与されている形態論的情報には,長い単位(長単位)と短い単位(短単位)があるが,今回は短単位を用いた。}),文節の区切り,転記基本単位の区切りを表す。図\ref{fig:『日本語話し言葉コーパス』の書き起こしテキスト}のXML文書を検索対象とするために,『ひまわり』の検索対象文字列,付随情報,および,閲覧形式を次のように設定した。\begin{description}\item[検索対象文字列]su要素の要素内容(要素範囲の限定なし),su要素の要素内容(要素範囲の限定あり)\item[付随情報]su,t要素の各種属性,su要素の前後要素\item[閲覧形式]転記テキスト全体を閲覧するために,kdb要素をHTMLブラウザに出力。また,検索結果文字列に対応する音声の参照(外部プログラムの音声再生プログラムを起動)\end{description}\vspace{1zh}図\ref{fig:適用例(日本語話し言葉コーパス)}は,su要素内容中の文字列「について」を検索した結果である。検索結果には,検索結果文字列のほか,付随情報として,検索結果文字列の品詞,後続する2短単位(「基本形1,2」欄)とその品詞(「品詞1,2」欄),講演IDなどが含まれる。\begin{figure}[hbt]\begin{center}\epsfxsize=13.5cm\epsfbox{himawari_csj.eps}\caption{『日本語話し言葉コーパス』への適用例}\label{fig:適用例(日本語話し言葉コーパス)}\end{center}\end{figure}検索結果文字列の「について」は,短単位で「に/つい/て」のように分割されるが,文字列の照合は,「要素範囲の限定なし」で行っているので,「について」全体が検索結果文字列となる。「品詞」欄には,検索結果文字列の先頭の文字列「に」の品詞である「助詞」が入っている。短単位での分割位置がわかっている場合は,文字列の照合をsu要素の範囲に限定して行えば,より厳密な検索ができる。このように,短単位の知識がなくても検索することが可能であると同時に,より詳細な制約を与えて,検索結果を絞り込むこともできる。図\ref{fig:適用例(日本語話し言葉コーパス)}右下のHTMLブラウザの画面は,講演全体を表示したものである。短単位の区切りは,`/'で表記している。また,短単位にカーソルを合わせると,当該短単位の品詞などの情報が図\ref{fig:適用例(日本語話し言葉コーパス)}のように表示されるようになっている。図\ref{fig:適用例(日本語話し言葉コーパス)}右上のウィンドウは,音声再生用の外部プログラムであり,言語資料外のデータを参照する例として示した。再生時には,付随情報である講演ID,開始時刻,終了時刻を外部プログラムに渡し,当該の部分の音声を再生できるようにしている。以上で示したように,『ひまわり』は,『日本語話し言葉コーパス』の言語資料の構造化形式に適応して,形態論情報を検索に有効に利用することが可能である。さらに,音声データの参照,および,転記テキスト単位での形態素列の閲覧など,言語資料に適した閲覧を実現している。\subsection{検索速度の測定}『ひまわり』の検索時間を測定し,定量的に評価する。検索の対象は,表\ref{tbl:平均検索時間}に示した,『太陽コーパス』,『毎日新聞テキストデータベース』(2002年,1年分),『分類語彙表』,CSJ(『日本語話し言葉コーパス』)の四つの言語資料である。検索対象の文字列は,『分類語彙表』が長さ2文字,それ以外の言語資料は長さ4文字の文字列をそれぞれの資料から100個ランダムに抽出し,表\ref{tbl:平均検索時間}の検索対象要素に対して全文検索を行った。検索結果に含まれる付随情報は,『分類語彙表』と『日本語話し言葉コーパス』(CSJ)は,前節で示した付随情報を,『太陽コーパス』と毎日新聞に対しては,書誌情報にあたる情報を付随情報として抽出した。測定に使用した計算機は,CPUPentium42.5GHz,メモリ1GB,OSLinux2.4.26(Debian/GNULinuxver.3.0r2),JRE(JavaRuntimeEnvironment)ver.1.4.2\_04である。測定結果として,表\ref{tbl:平均検索時間}に,平均検索時間,ファイルサイズ,総文字数,平均検索結果数を示す。ファイルサイズとは,言語資料ファイルのサイズ(タグを含む。encodingはUTF-16)であり,総文字数とは,検索対象要素中の文字データの総数(索引づけされた文字データ数でもある)である。この結果を見ればわかるとおり,307.2〜1114[ms]で検索されており,実用的な速度で検索できることが確認できた。このうち,最も検索時間がかかったのがCSJである。CSJの平均検索結果数を見ると,『太陽コーパス』と同程度であり,総文字数は『太陽コーパス』の約1/7であるにもかかわらず,検索時間は約3.6倍である。この原因は,形態論的情報に関連する付与情報が多く,全文検索時の文字列の照合に時間がかかるためだと考えられる。CSJの付与情報が『太陽コーパス』と比べて多いことは,CSJのファイルサイズが『太陽コーパス』の約4倍であることを見ればわかる。\begin{table}[hbt]\begin{center}\caption{『ひまわり』による平均検索時間}\label{tbl:平均検索時間}{\small\begin{tabular}{c|r|r|r|r|c}\hline{\bf言語資料}&{\bf平均検索時間[ms]}&{\bfファイルサイズ}&{\bf総文字数}&{\bf平均検索結果数}&{\bf検索対象要素}\\\hline\hline『太陽』&307.2&99MB&16066889&265.3&記事本文\\毎日新聞&618.9&222MB&56359298&581.8&記事本文\\分類語彙表&126.2&6.7MB&336435&253.3&e要素\\CSJ&1114.0&392MB&2205411&235.2&su要素\\\hline\end{tabular}}\end{center}\end{table}
\section{関連研究との比較}
言語資料の検索を目的としたシステムは,コンコーダンサをはじめとして多くのシステムが提案されている。ここでは,言語資料の構造化形式と利用目的の二つの多様性の面から,『ひまわり』と既存システムとの比較を行う。言語資料の構造化形式の多様性へのアプローチとしては,(1)検索システムの汎用性を高める方法,(2)言語資料の形式を統一する方法,(3)タグを含めてテキストとして扱う方法,(4)多様性には対応せず,特定の言語資料に特化する方法,といったアプローチがある。従来のコンコーダンサは,(3)と(4)のアプローチが多い。例えば,(4)のアプローチの例としては,BritishNationalCorpusに付属するSARA\shortcite{BNC}が挙げられる。(3)の例としては,WordSmith\footnote{http://www.lexically.net/wordsmith/index.html}やTea\footnote{http://www2.nict.go.jp/jt/a132/members/mutiyama/software.html\#tea}などがある。このうち,(3)は非常に広範な資料を検索対象とすることができるが,検索対象文字列ですべての検索条件を記述する必要があるため\footnote{例えば,検索対象文字列にタグを含めた形で記述する。},利用者に言語資料の構造化に関する知識が必要となる。さらに,マークアップされている情報を検索条件として利用することや,それを検索結果として抽出することが困難である。(2)の例としては,電子出版用の共通フォーマットであるEPWING\footnote{http://www.epwing.or.jp/}に対応したソフトウェア群が挙げられる。EPWINGは,辞書検索をはじめとして広く利用されている。この方法は,類似した構造を持った言語資料を統一する場合には有効であるが,構造が大きく違う場合は,一つの形式に統一するのが困難である。(1)の手法を取るシステムとしては,XMLデータベースや関係データベースを利用した方法が提案されている(例:『茶器』\shortcite{matumoto2004})。これらに対して,本システムは,構造化の形式をXML文書と定め,XML文書に対する,索引つきの全文検索を実現している。検索対象のXML文書は,言語資料の検索にとって必要な付随情報と検索結果文字列とのXML文書構造上の関係を規定される。これにより,タグセットを限定したり,言語資料全体の構造を規定することなく,言語資料の多様性に対応することを可能にしている。さらに,構造化形式の多様性に対応しつつ,付随情報の抽出や付随情報による検索結果の制約も可能である。次に,利用目的の多様性への対応方法の面から比較する。まず,検索式の記述能力の面について考える。『ひまわり』は,エンドユーザと言語資料の作成者をユーザとして想定し,検索式の記述能力を維持しながら,言語資料に対する知識を持たないエンドユーザでも検索を行えるようにしている。ただし,検索式の記述能力自体は,XMLデータベースや関係データベースが優れている。例えば,XML文書の一部を参照する規格であるXPathは,\ref{sss:付随情報}節で示した要素をすべて参照することができる。しかし,現在のところ,導入コストの高さや導入・運用のための技術が必要とされることを考慮すると,コーパスに同梱して,エンドユーザに配布するという前提条件にはそぐわない。一方,閲覧形式の点では,KWIC形式で結果を表示する手法が多くのシステムで採用されている。しかし,資料に付随する情報は,閲覧時に十分考慮されていない。それに対して,本システムでは,KWICを含んだ表形式での表示が基本となっており,KWICとともに付随情報を利用してさまざまな分析が可能になる(例:用例を年代順に並べる。同一著者の用例をまとめるなど)。また,テキストとして表示できない音声や画像などのデータを参照する手段も備えている。
\section{おわりに}
本論文では,構造化された言語資料に対する全文検索システム『ひまわり』の設計と実現について述べた。『ひまわり』の特徴は,言語資料の構造化形式と利用目的の多様性に対応するように設計したところにある。構造化形式の多様性については,構造化の形式をXMLとし,その上で,索引つきの全文検索機能を実現した。この際,検索対象とすることのできるXML文書の形式を,XML文書全体の構造で規定するのではなく,検索対象の文字列とそれに対して付与されている情報との文書構造上の関係により規定した。これにより,幅広い構造化形式への適用を可能にした。また,利用目的の多様性に対しては,柔軟な検索条件と閲覧形式を利用者が定義可能とすることにより実現した。この際,エンドユーザと言語資料の作成者を想定し,言語資料の作成者が言語資料に適した検索条件と閲覧形式を定義することにより,言語資料に関する知識を持たないエンドユーザでも検索システムを利用できるようにした。『ひまわり』に対する評価は,二つの方法で行った。まず,『分類語彙表』,『日本語話し言葉コーパス』に『ひまわり』を適用し,言語資料の多様性へ対応できることを示した。さらに,四つの言語資料において,『ひまわり』の平均検索速度を計測し,実用的な速度で検索結果を得られることを確認した。なお,『ひまわり』は,独立行政法人国立国語研究所のWebページ\footnote{http://www.kokken.go.jp/lrc}において,一般に公開している。\bibliographystyle{jnlpbbl}\begin{thebibliography}{}\bibitem[\protect\BCAY{Aston\BBA\Burnard}{Aston\BBA\Burnard}{1998}]{BNC}Aston,G.\BBACOMMA\\BBA\Burnard,L.\BBOP1998\BBCP.\newblock{\BemTheBNCHandBook,ExploringtheBritishNationalCorpuswithSARA}.\newblockEDINBURGHUNIVERSITYPRESS.\bibitem[\protect\BCAY{京都大学}{京都大学}{2000}]{kyodai_corpus}京都大学\BBOP2000\BBCP.\newblock\JBOQ京都大学コーパス\JBCQ\\newblockhttp://www.kc.t.u-tokyo.ac.jp/nl-resource/corpus.html.\bibitem[\protect\BCAY{国立国語研究所}{国立国語研究所}{2004}]{bunrui}国立国語研究所\JED\\BBOP2004\BBCP.\newblock\Jem{分類語彙表増補改訂版}.\newblock大日本図書.\bibitem[\protect\BCAY{山下達夫}{山下達夫}{2000}]{yamasita2000}山下達夫\BBOP2000\BBCP.\newblock\JBOQ用語解説SuffixArray\JBCQ\\newblock\Jem{人工知能学会誌},{\Bbf15}(6),p.1142.\bibitem[\protect\BCAY{山口昌也\JBA田中牧郎}{山口昌也\JBA田中牧郎}{2002}]{yamaguchi2002}山口昌也\JBA田中牧郎\BBOP2002\BBCP.\newblock\JBOQ言語研究のための構造化テキストと検索支援システム---「太陽コーパス」を例として\JBCQ\\newblock\Jem{国語学会2002年度春季大会要旨集},\BPGS\169--176.\bibitem[\protect\BCAY{松本裕治\JBA高岡\JBA浅原\JBA乾\JBA橋本\JBA投野\JBA大谷\JBAEdson\hspace{.5em}{T}\hspace{.5em}Miyamoto\JBA森田}{松本裕治\Jetal}{2004}]{matumoto2004}松本裕治\JBA高岡一馬\JBA浅原正幸\JBA乾健太郎\JBA橋本喜代太\JBA投野由紀夫\JBA大谷朗\JBAEdson\hspace{.5em}{T}\hspace{.5em}Miyamoto\JBA森田敏生\BBOP2004\BBCP.\newblock\JBOQタグ付きコーパスの格納/検索ツール「茶器」\JBCQ\\newblock\Jem{言語処理学会第10回年次大会発表論文集},\BPGS\405--408.\bibitem[\protect\BCAY{前川喜久雄}{前川喜久雄}{2004}]{maekawa2004}前川喜久雄\BBOP2004\BBCP.\newblock\JBOQ「日本語話し言葉コーパス」の概要\JBCQ\\newblock\Jem{日本語科学},{\Bbf15},\BPGS\111--133.\bibitem[\protect\BCAY{田中牧郎}{田中牧郎}{2001}]{tanaka2001}田中牧郎\BBOP2001\BBCP.\newblock\JBOQXMLを利用したコーパスの構築---「太陽コーパス」を中心に---\JBCQ\\newblock\Jem{日本語学},{\Bbf20}(13),\BPGS\80--91.\bibitem[\protect\BCAY{毎日新聞社}{毎日新聞社}{1991〜2003}]{mainichi}毎日新聞社\BBOP1991〜2003\BBCP.\newblock\JBOQ毎日新聞テキストデータベース1991〜2003年版\JBCQ.\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{山口昌也}{1992年東京農工大学工学部数理情報工学科卒業。1994年同大学院博士前期課程修了。1998年同大学院博士後期課程修了。同年,同大学工学部助手。2000年国立国語研究所研究員,現在に至る。自然言語処理の研究に従事。言語処理学会,情報処理学会,日本語学会,社会言語科学会各会員。}\bioauthor{田中牧郎}{1985年東北大学文学部文学科卒業。1987年同大学院博士課程前期修了。1989年同大学院博士課程後期中退。同年昭和女子大学文学部専任講師。1996年国立国語研究所研究員。2001年同研究所主任研究員,現在に至る。日本語学(語彙論・日本語史)の研究に従事。言語処理学会,日本語学会,日本言語学会,社会言語科学会各会員}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V24N05-01 | \section{はじめに}
近年,情報化技術の発展により,インターネット上やデータベース上にはテキストとそのテキストに付随する実世界情報が大量に存在している.実世界情報を用いる自然言語処理の研究として,テキストを用いて画像を検索する研究\cite{NIPS2014_5281}や画像の解説文を生成する研究\cite{Socher_groundedcompositional}などが行われている.また,実世界情報を用いることで言語モデルの性能を向上させる研究\cite{icml2014c2_kiros14}も行われており,実世界情報の活用は自然言語処理の基礎技術の精度向上に有効だと考えられる.そこで本稿では実世界情報とテキスト情報を素性として入力した際の固有表現認識を提案する.本稿では,将棋の解説文に対する固有表現認識を題材として,テキスト情報に加えて実世界情報を参照する固有表現認識器を提案する.固有表現とは,文書の単語列に人名や地名など約8種類の定義\cite{TjongKimSang:2003:ICS:1119176.1119195}を行ったものが一般的であるが,近年では医療の専門用語を定義したバイオ固有表現\cite{Biomedical.Named.Entity.Recognition.Using.Conditional.Random.Fields.and.Rich.Feature.Sets}なども提案されており,本研究では将棋解説コーパス\cite{shogi-corpus}で定義される将棋固有表現を扱う.将棋解説コーパスは,将棋の解説文に対して単語分割と固有表現タグが人手で与えられた注釈つきテキストデータであり,各解説文には解説の対象となる将棋の局面情報が対応付けされている.局面は,盤面上の駒の配置と持ち駒であり,すべての可能な盤面状態がこれによって記述できる.本研究では局面情報を実世界情報として用いる.提案手法では,まず各局面の情報をディープニューラルネットワークの学習方法の1つであるstackedauto-encoder(SAE)を用いて事前学習を行う.次に,事前学習の結果をテキスト情報と組み合わせて固有表現を学習する.提案手法を評価するために,条件付き確率場による方法等との比較実験を行い,実世界情報を用いることにより固有表現認識の精度向上が可能であることを示す.将棋の固有表現認識の精度が向上すると,文書から戦型名や囲い名などを自動的に抽出でき,将棋解説文の自動生成のための基礎技術となる.また,一般の固有表現認識を高い精度で行えるようになると質問応答や文の自動生成などの高度な応用の基礎技術となる.
\section{関連研究}
本章では,まず本研究で扱う固有表現認識について述べる.その後,実世界情報を用いた自然言語処理の研究について述べる.最後に将棋の局面情報を用いた自然言語処理の先行研究について述べる.\subsection{固有表現認識}本稿で行う固有表現認識は自然言語処理の重要な応用の一つである.一般的な固有表現認識は,対象を新聞記事,固有表現として人名,地名,組織名等を扱った研究が広く行われている\cite{TjongKimSang:2003:ICS:1119176.1119195,Ratinov:2009:DCM:1596374.1596399}.固有表現認識は,ある系列(単語列)の各要素(各単語)に適切なラベル列を付与する問題である系列ラベリング問題として解かれることが一般的である.サポートベクターマシンや最大エントロピーモデルなどを用いた様々な手法が提案されており\cite{Borthwick:1999:MEA:930095,TjongKimSang:2003:ICS:1119176.1119195,Finkel:2005:INI:1219840.1219885},条件付き確率場(CRF)による系列ラベリング\cite{Lafferty:2001:CRF:645530.655813}がよく用いられる.また,近年では深層学習を用いて解く手法が提案されており,Bi-directionalLSTMを用いて解く手法がCoNLL2003コーパス\cite{TjongKimSang:2003:ICS:1119176.1119195}において最高精度を記録している\cite{ma-hovy:2016:P16-1}.系列ラベリング問題として固有表現認識を解く際に,BIOタグ体系を用いて各単語のタグを学習することが多い.BIOのB(Begin)はある固有表現の最初の単語,I(Intermediate)は同種の固有表現の継続,O(Other)はいずれの固有表現でもないことを意味する.固有表現が${J}$種類ある場合,固有表現ごとにBタグとIタグが存在し,どの固有表現でもない単語にはOが対応するので,BIOタグ数は${2J+1}$種類存在する.各単語にはいずれか1種類のタグが付与されるが,BIOタグ系列には接続制約がある.例えば,固有表現がIタグから始まってはいけない.また,BIOタグ体系の他にも,同種の固有表現の終端を表すE(End)や1単語からなる固有表現を表すS(Single)のタグを加えたBIESOタグ体系で記述されることもある.\subsection{実世界情報を用いた自然言語処理}実世界情報を用いた自然言語処理の研究はいくつか存在するが,その多くは教師なし学習を用いてマルチモーダルなベクトル表現を獲得する手法である.それらに対し,本研究はテキストに付随した実世界情報を用いて固有表現認識を直接解く.Bruniらは,テキストのベクトルと画像のベクトル表現の一種であるBag-of-Visual-Wordsに特異値分解(SVD)を用いることでマルチモーダルなベクトルを獲得する手法を提案した\cite{bruni2014}.似た手法を用いて音情報を用いたベクトルを獲得する研究がある\cite{lopopolo2015}.これはテキスト側のベクトルは潜在的意味解析(LSA)を用いて獲得し,音情報のベクトルはBag-of-Audio-Wordsを用いた.NgiamらやSrivastavaandSalakhutdinovは教師なし学習のニューラルネットワークであるdeeprestrictedBoltzmannmachinesを用いて,マルチモーダルなベクトルを獲得する手法を提案した\cite{ngiam2011,srivastava2012}.これはテキストとそのテキストに対応した画像,またはテキストとそのテキストに対応した音情報などのペアから学習し,隠れ層から分散表現を獲得する手法である.また,Ngiamらはマルチモーダルなベクトルを獲得した後,獲得したベクトルを入力として用いて,音声認識や画像検索などの教師あり学習を行う手法を提案した\cite{ngiam2011}.SilbererandLapataは深層学習を用いてマルチモーダルなベクトルを獲得する手法を提案した\cite{silberer2014}.単語の分散表現にマルチモーダル情報を用いる研究がある.単語の分散表現とは,自然言語処理においてよく用いられる低次元の実数値ベクトルであり,word2vec\\cite{mikolov2013a,mikolov2013b}がよく用いられる.Lazaridouらはword2vecを拡張し,画像情報と組み合わせる手法を提案した\cite{lazaridou2015}.KielaandClarkも同様にword2vecを音情報と組み合わせる手法を提案した\cite{kiela2015}.\subsection{将棋の局面を用いた自然言語処理}Kamekoらは,将棋の局面に将棋解説文が付与された将棋解説コーパスを用いて,ニューラルネットワークを応用した将棋解説文のための単語分割手法を提案している\cite{kameko-mori-tsuruoka:2015:EMNLP}.この手法は,まず将棋局面情報を入力とするニューラルネットワークを用いることで将棋用語辞書を獲得し,得られた将棋用語辞書を用いて単語分割を行うことで単語分割の精度向上を実現している.具体的には,将棋用語辞書を作成するために,まず確率的単語分割手法により確率的に単語分割されたコーパスを生成する.次に,将棋局面情報を入力とし,確率的コーパスの単語を出力とするフィードフォワード型のニューラルネットワークを学習し,学習されたニューラルネットワークを用いて単語候補をスコア付けし抽出することで,将棋用語辞書が得られる.本研究と彼らの研究との違いは次の通りである.(1)彼らは局面の素性に,コンピュータ将棋プログラムを用いて作成した複雑な素性を用いているが,本研究では単純な駒の位置情報のみを素性として用いていること,(2)彼らは将棋の局面との対応により事前に獲得しておいた語彙を参照し単語分割しているが,本研究では将棋の局面との対応を直接参照して固有表現認識を行うことが挙げられる.
\section{将棋解説コーパス}
\label{sec-corpus}将棋は2人で行うボードゲームで$9\times9$のマスの盤面と成った駒も含めて14種類の駒を用いる.盤面上の駒の配置と持ち駒からゲームの状態に関するすべての情報が得られる完全情報ゲームである.将棋にはプロ制度があり,日々多数のプロ間の対局が行われている.多くの対局には,対局者以外のプロが解説を行い,その解説文がインターネットで配信されている.本稿で用いる将棋解説コーパス\cite{shogi-corpus}は,将棋の解説文に対して単語分割と固有表現タグが人手で与えられた注釈つきテキストデータである.固有表現は,将棋の解説に特化されており,\tabref{tab-NER-tags}のように21種類が定義されている.出現割合はコーパス中に出現する各固有表現の割合を示す.実際のアノテーションは,BIO2形式であり,各単語ごとにBIOタグが1つ付与されており,タグの種類数は43種類($21\times2+1=43$)ある.\begin{table}[t]\caption{将棋の固有表現の種類とその意味}\label{tab-NER-tags}\input{01table01.txt}\end{table}各解説文には,解説の対象となる局面が対応付けされており,ほとんどの解説文は局面に関するコメントをしているが,局面に関係のないコメント(対局者に関する情報など)も少量含まれる.局面の情報は,解説文が言及する実世界情報とみなすことができ,これを参照することによる固有表現認識が本稿の中心となるアイデアである.
\section{提案手法}
将棋解説文の固有表現認識を行うために用いたフィードフォワード型のニューラルネットワークと実世界情報(将棋の局面)の事前学習について説明する.\subsection{ニューラルネットワークの構成}\figref{fig-DNN}は実世界を参照する固有表現認識のニューラルネットワークの全体図である.テキストの素性は,左側の入力層に$(f_1^t,f_2^t,\ldots,f_n^t)$として入力する.図の右下の5つの層は実世界に関するニューラルネットワークであり,\$(f_1^r,f_2^r,\ldots,f_m^r)$に実世界情報の素性を入力する.図の上側のニューラルネットワークでテキスト情報と実世界情報を統合して固有表現認識を行う.実世界に関するニューラルネットワークの中間層の層数については開発データを用いて調整する\footnote{後述する実験では,中間層の層数を0層から5層まで変えて開発データで実験した結果,4層の場合が最も精度が高かったため,テストデータに対する実験で4層を用いて評価した.}.このネットワークは出力層において,注目している単語が属する各タグの確率を出力する.\begin{figure}[t]\begin{center}\includegraphics{24-5ia1f1.eps}\end{center}\caption{実世界を参照する固有表現認識のためのディープニューラルネットワーク}\label{fig-DNN}\end{figure}\subsection{実世界情報の事前学習の入力とテキストの入力}実世界情報は,\figref{fig-DNN}の右下に示されるニューラルネットワークの入力として参照される.本研究では実世界情報として,\figref{fig-features}に示すように盤面上の全てのマス($9\times9$)における先手と後手を区別した駒の種類($2\times14$)の有無に対応する2,268次元($2{,}268=9\times9\times2\times14$)のバイナリ素性と,持ち駒を記述する先手と後手の7種類の駒の個数に対応する14次元($14=7\times2$)の整数素性の合計2,282次元の素性を用いる.\tabref{tab-text-features}に実験で用いたテキスト素性を示す.$w_{i}$は現在着目し,タグを推定している単語であり,単語の素性には1-of-$k$表現を用いた.$type(w)$は$w$の文字の種類,平仮名,片仮名,漢字,数字,記号やそれらの組み合わせを表し,$pos(w)$は$w$の品詞を表す.\begin{figure}[p]\begin{center}\includegraphics{24-5ia1f2.eps}\end{center}\caption{将棋盤面の素性}\label{fig-features}\end{figure}\begin{table}[p]\caption{タグを推定している$w_{i}$のテキスト素性}\label{tab-text-features}\input{01table02.txt}\end{table}\begin{figure}[p]\begin{center}\includegraphics{24-5ia1f3.eps}\end{center}\caption{Stackedauto-encoder}\label{fig-SAE}\end{figure}\subsection{実世界情報の事前学習}\label{sec:learning-and-labeling}本研究では事前学習手法の一つであるSAEを用いて実世界情報の事前学習を行う.\figref{fig-SAE}の左側のように,まず3層のニューラルネットワークの入力層と出力層に同じ実世界情報を与え,入力されたベクトルと同じベクトルを出力として予測するニューラルネットワークを学習する.このとき中間層の次元数を入力層よりも少ない次元数とすることで,中間層において次元圧縮された実世界情報を得ることができる.次に\figref{fig-SAE}の中央のように,出力層を取り除き,新しい中間層を1つ増やしたネットワークを再定義する.その後,先ほど得られた中間層(下から2層目)のベクトルと同じベクトルを出力層で予測するニューラルネットワークを学習する.このとき,新しく定義しなおした部分(上から3層)の重みのみを更新していく.同様に,層を積み重ねることで,より深く一般化された特徴量($a_1,a_2,\ldots,a_l$)を学習することができる.本研究では,実世界情報のみを用いて事前学習を行うこととする.\subsection{テキスト情報と実世界情報の統合}\label{sec:consolidation}事前学習後,テキスト情報側のニューラルネットワークと実世界情報側のニューラルネットワークを統合し,固有表現認識タスク用にファインチューニングを行う.固有表現認識器のネットワークは出力層において,タグの種類数のユニット(本研究では43個)が存在する.学習の際には,テキスト側の素性とそのテキストに対応する実世界情報側の素性を入力とし,各単語の正解のBIOタグの尤度が最大になるように,\figref{fig-DNN}に示されているニューラルネットワーク全体が最適化される.具体的には,中間層の活性化関数には標準シグモイド関数を用い,出力層ではソフトマックス関数を用いて各タグの確率を出力し,損失関数には交差エントロピー誤差を用いる.したがって,固有表現認識のための中間層だけでなく,事前学習された実世界情報側のニューラルネットワークも同時に調整される.\subsection{最適タグ列の探索}\label{sec:viterbi}固有表現認識は各単語に対するBIOタグを推定することで実現されるが,各単語ごとに確率が最も高いBIOタグを出力すると,推定した固有表現がIタグから始まってしまう場合など,BIOタグ制約を満たさない場合がある.本研究ではBIOタグ制約を満たすために,各タグの推定確率を用いて,ビタビアルゴリズムを適用し,制約を満たす遷移のみからなる確率最大のBIOタグ列を探索する.
\section{評価実験}
提案手法の有効性を確認するために,固有表現認識の実験を行った.この章では,まず評価の方法を説明する.その後,実験設定を説明し,それぞれの結果を提示する.\subsection{評価の方法}評価の方法として以下のように定義される再現率と適合率,F値を用いる(式(\ref{math:h-mean})参照).ここで正解数は\figref{fig-eval-sample}のように,将棋解説コーパスに出現する実際の固有表現とシステムが出力した固有表現の始点と終点が完全に一致した数である.これらに加えて各単語のタグ一致率も調べた.\begin{equation}\begin{split}再現率&=\frac{正解数}{コーパスに出現する固有表現の総数}\\[1zh]適合率&=\frac{正解数}{システムが出力した固有表現の総数}\\[1zh]{\rmF}値&=\frac{2\cdot適合率\cdot再現率}{適合率+再現率}\end{split}\label{math:h-mean}\end{equation}\begin{figure}[b]\begin{center}\includegraphics{24-5ia1f4.eps}\end{center}\caption{評価方法}\label{fig-eval-sample}\end{figure}\begin{table}[b]\caption{将棋解説コーパスの諸元}\label{tab-corpus}\input{01table03.txt}\end{table}\begin{table}[b]\caption{将棋盤面埋め込みに用いたニューラルネットワークの各層の次元数}\label{tab-layers}\input{01table04.txt}\end{table}\subsection{実験設定}実験には将棋解説コーパスを用いた(\ref{sec-corpus}章参照).\tabref{tab-corpus}に実験で用いたコーパスの詳細を示す.まず,将棋の局面情報のみを用いて事前学習を行い,学習されたネットワークを用いて固有表現認識器を構築した.\tabref{tab-layers}に局面を事前学習する際に用いた各層の次元数を示す.今回の実験では,中間層の層数$0\sim5$層に設定し,それぞれの中間層での次元数は固定して実験を行った.中間層の次元数は開発セットを用いて,F値が最も高くなるよう調整し,今回は中間層の層数を4層にした.また,既存手法として,条件付き確率場(CRF)\cite{Lafferty:2001:CRF:645530.655813}と実世界情報を用いないディープニューラルネットワーク(テキスト情報のみを用いたディープニューラルネットワーク)を提案手法と比較した.このとき従来手法と提案手法では同じテキスト素性を用いており,ハイパーパラメータは開発セットを用いて調整した.テキスト素性では各単語の品詞情報も用いるが,将棋解説コーパスは単語分割は与えられているが各単語の品詞情報は与えられていない.そのため,KyTea\footnote{http://www.phontron.com/kytea/}を用いて品詞推定を行った.\subsection{実験結果}\tabref{tab-result}に実験の結果を示す.提案手法の有効性を示すために従来手法の「CRF」(条件付き確率場),「DNN」(ディープニューラルネットワーク)を比較対象とした.「局面」は局面の参照(\ref{sec:learning-and-labeling},\ref{sec:consolidation}節参照)を示しており,「DNN+局面」は提案手法である.\tabref{tab-result}より,「CRF」よりも「DNN」が精度が高く,ディープニューラルネットワークが固有表現認識に効果的であることが分かる.また,いずれの従来手法よりも提案手法の精度が高く,実世界情報を用いることで,「CRF」,「DNN」よりも「DNN+局面」の方がそれぞれ1.57ポイント,0.64ポイント高かった.提案手法のBIOタグ推定精度は「CRF」と「DNN」の精度に対して,マクネマー検定において有意水準$1\%$で統計的に有意差があった.これより,テキスト情報と実世界情報を用いた提案手法の有効性が確認できる.\begin{table}[b]\caption{固有表現認識の結果}\label{tab-result}\input{01table05.txt}\end{table}将棋解説コーパスを詳しくみると,各単語に対するOタグ(どの固有表現でもない単語)の割合は約$68\%$であり,固有表現はPi(駒名)やOt(その他重要な表現)などが多く出現する.「DNN」での出力と「DNN+局面」の出力を比較し局面を参照することによる精度向上を分析すると,正解はOtの単語に対し,「DNN」では不正解でOタグを出力しているが,「DNN+局面」では適切にOtを出力する例が多数あり,局面を参照することにより,不正解から正解に変化した固有表現の約$1/3$がOtに関する単語であった.例えば,「応手」や「効果」,「バリケード」などが提案手法では正しくOtと認識されていた.「と金」や「と」は歩が成った駒を指し,提案手法では正しくPiと認識できた例があった.これは実世界情報としてその駒に対する素性が効いていると考えられ,と金の局面素性を発火させずに入力した際にはPiに分類する確率が低下した.また,「DNN」の適合率に比べ,「DNN+局面」の適合率は減少している.これは,出力が一致せず,どちらの出力も不正解の固有表現が12個存在したが,そのほとんどについて「DNN」ではOタグを出力しており,「DNN+局面」では何らかの固有表現タグを出力しているためである.例えば,St(戦型名)の固有表現「橋本流」に対し,「DNN」ではOを出力し,「DNN+局面」ではOtを出力していた.\begin{figure}[t]\begin{center}\includegraphics{24-5ia1f5.eps}\end{center}\caption{事前学習の際,層数を変化させたときの精度(F値)}\label{fig-analysis}\end{figure}局面情報を事前学習した際のSAEの中間層の層数を変化させた場合の精度(F値)の変化を\figref{fig-analysis}に示す.中間層0層のときは事前学習せずに局面情報を入力とした場合の精度である.\figref{fig-analysis}より,中間層$0\sim1$層のときはテキスト情報のみを用いた「DNN」よりも精度が低く,中間層$2\sim5$層のときに「DNN」よりも精度が高くなった.これより,ある程度次元圧縮された局面情報が有効であることがわかる.局面情報は精度を向上させたが,その差はわずかである.それは,固有表現インスタンスの多くはTu(手番)やPi(駒名),Po(位置)であるが,それらはテキストのみの情報でも高精度で認識することができており,局面情報を加えることで精度向上が見込めるSt(戦型)やCa(囲い)のインスタンスは割合が少ないためと考えられる.
\section{おわりに}
本稿では,新たな固有表現認識の解法として,実世界情報の参照を提案した.提案手法では,全体の枠組みとしてディープニューラルネットワークを用いる.まず実世界情報だけを用いてSAEの事前学習を行い,これをテキスト情報のみを参照する通常の固有表現認識器と統合し,統合されたニューラルネットワークの再学習を行う.実験では,将棋解説に駒の配置という実世界情報と固有表現タグが付与された将棋解説コーパスを用いた.将棋解説コーパスに対する固有表現認識の精度評価を行い,既存手法に対する優位性や実世界情報参照の効果を実験的に示した.本稿で提案した実世界情報を参照する固有表現認識の手法は,将棋解説コーパスのように実世界情報と固有表現タグが付与されたコーパスが利用可能であれば,実世界情報の素性とテキスト素性を同時に入力することができるため,他ドメインの固有表現認識にも適用することが可能である.また,入力される実世界情報によってはネットワークの構造を変更する必要がある(画像情報の入力には畳み込みニューラルネットワークを用いる等).例えば,ニュース記事とそれに付随した画像情報を参照することにより,一般の固有表現認識の精度向上が期待できる.\acknowledgment本研究の一部は,The54thAnnualMeetingoftheAssociationforComputationalLinguistics(ACL2016)で発表したものである\cite{tomori-ninomiya-mori:2016:P16-2}.本研究はJSPS科研費26540190及び25280084の助成を受けたものである.ここに謝意を表する.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Borthwick}{Borthwick}{1999}]{Borthwick:1999:MEA:930095}Borthwick,A.~E.\BBOP1999\BBCP.\newblock{\BemAMaximumEntropyApproachtoNamedEntityRecognition}.\newblockPh.D.\thesis,NewYork,NY,USA.\newblockAAI9945252.\bibitem[\protect\BCAY{Bruni,Tran,\BBA\Baroni}{Bruniet~al.}{2014}]{bruni2014}Bruni,E.,Tran,N.~K.,\BBA\Baroni,M.\BBOP2014\BBCP.\newblock\BBOQMultimodalDistributionalSemantics.\BBCQ\\newblock{\BemJournalofArtificialIntelligenceResearch},{\Bbf49},\mbox{\BPGS\1--47}.\bibitem[\protect\BCAY{Finkel,Grenager,\BBA\Manning}{Finkelet~al.}{2005}]{Finkel:2005:INI:1219840.1219885}Finkel,J.~R.,Grenager,T.,\BBA\Manning,C.\BBOP2005\BBCP.\newblock\BBOQIncorporatingNon-localInformationintoInformationExtractionSystemsbyGibbsSampling.\BBCQ\\newblockIn{\BemProceedingsofthe43rdAnnualMeetingonAssociationforComputationalLinguistics},\mbox{\BPGS\363--370}.\bibitem[\protect\BCAY{Kameko,Mori,\BBA\Tsuruoka}{Kamekoet~al.}{2015}]{kameko-mori-tsuruoka:2015:EMNLP}Kameko,H.,Mori,S.,\BBA\Tsuruoka,Y.\BBOP2015\BBCP.\newblock\BBOQCanSymbolGroundingImproveLow-LevelNLP?WordSegmentationasaCaseStudy.\BBCQ\\newblockIn{\BemProceedingsofthe2015ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\2298--2303},Lisbon,Portugal.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Karpathy,Joulin,\BBA\Li}{Karpathyet~al.}{2014}]{NIPS2014_5281}Karpathy,A.,Joulin,A.,\BBA\Li,F.~F.\BBOP2014\BBCP.\newblock\BBOQDeepFragmentEmbeddingsforBidirectionalImageSentenceMapping.\BBCQ\\newblockInGhahramani,Z.,Welling,M.,Cortes,C.,Lawrence,N.,\BBA\Weinberger,K.\BEDS,{\BemAdvancesinNeuralInformationProcessingSystems27},\mbox{\BPGS\1889--1897}.CurranAssociates,Inc.\bibitem[\protect\BCAY{Kiela\BBA\Clark}{Kiela\BBA\Clark}{2015}]{kiela2015}Kiela,D.\BBACOMMA\\BBA\Clark,S.\BBOP2015\BBCP.\newblock\BBOQMulti-andCross-ModalSemanticsBeyondVision:GroundinginAuditoryPerception.\BBCQ\\newblockIn{\BemProceedingsofthe2015ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\2461--2470},Lisbon,Portugal.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Kiros,Salakhutdinov,\BBA\Zemel}{Kiroset~al.}{2014}]{icml2014c2_kiros14}Kiros,R.,Salakhutdinov,R.,\BBA\Zemel,R.\BBOP2014\BBCP.\newblock\BBOQMultimodalNeuralLanguageModels.\BBCQ\\newblockIn{\BemProceedingsofthe31stInternationalConferenceonMachineLearning},\mbox{\BPGS\595--603}.\bibitem[\protect\BCAY{Lafferty,McCallum,\BBA\Pereira}{Laffertyet~al.}{2001}]{Lafferty:2001:CRF:645530.655813}Lafferty,J.~D.,McCallum,A.,\BBA\Pereira,F.C.~N.\BBOP2001\BBCP.\newblock\BBOQConditionalRandomFields:ProbabilisticModelsforSegmentingandLabelingSequenceData.\BBCQ\\newblockIn{\BemProceedingsofthe18thInternationalConferenceonMachineLearning},ICML'01,\mbox{\BPGS\282--289},SanFrancisco,CA,USA.MorganKaufmannPublishersInc.\bibitem[\protect\BCAY{Lazaridou,Pham,\BBA\Baroni}{Lazaridouet~al.}{2015}]{lazaridou2015}Lazaridou,A.,Pham,N.~T.,\BBA\Baroni,M.\BBOP2015\BBCP.\newblock\BBOQCombiningLanguageandVisionwithaMultimodalSkip-gramModel.\BBCQ\\newblockIn{\BemProceedingsofthe2015ConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics:HumanLanguageTechnologies},\mbox{\BPGS\153--163}.\bibitem[\protect\BCAY{Lopopolo\BBA\vanMiltenburg}{Lopopolo\BBA\vanMiltenburg}{2015}]{lopopolo2015}Lopopolo,A.\BBACOMMA\\BBA\vanMiltenburg,E.\BBOP2015\BBCP.\newblock\BBOQSound-baseddistributionalmodels.\BBCQ\\newblockIn{\BemProceedingsofthe11thInternationalConferenceonComputationalSemantics},\mbox{\BPGS\70--75}.\bibitem[\protect\BCAY{Ma\BBA\Hovy}{Ma\BBA\Hovy}{2016}]{ma-hovy:2016:P16-1}Ma,X.\BBACOMMA\\BBA\Hovy,E.\BBOP2016\BBCP.\newblock\BBOQEnd-to-endSequenceLabelingviaBi-directionalLSTM-CNNs-CRF.\BBCQ\\newblockIn{\BemProceedingsofthe54thAnnualMeetingoftheAssociationforComputationalLinguistics(Volume1:LongPapers)},\mbox{\BPGS\1064--1074}.\bibitem[\protect\BCAY{Mikolov,Chen,Corrado,\BBA\Dean}{Mikolovet~al.}{2013a}]{mikolov2013a}Mikolov,T.,Chen,K.,Corrado,G.,\BBA\Dean,J.\BBOP2013a\BBCP.\newblock\BBOQEfficientEstimationofWordRepresentationsinVectorSpace.\BBCQ\\newblockIn{\BemarXivpreprintarXiv:1301.3781}.\bibitem[\protect\BCAY{Mikolov,Sutskever,Chen,Corrado,\BBA\Dean}{Mikolovet~al.}{2013b}]{mikolov2013b}Mikolov,T.,Sutskever,I.,Chen,K.,Corrado,G.~S.,\BBA\Dean,J.\BBOP2013b\BBCP.\newblock\BBOQDistributedRepresentationsofWordsandPhrasesandTheirCompositionality.\BBCQ\\newblock{\BemAdvancesinNeuralInformationProcessingSystems},{\Bbf26},\mbox{\BPGS\3111--3119}.\bibitem[\protect\BCAY{Mori,Richardson,Ushiku,Sasada,Kameko,\BBA\Tsuruoka}{Moriet~al.}{2016}]{shogi-corpus}Mori,S.,Richardson,J.,Ushiku,A.,Sasada,T.,Kameko,H.,\BBA\Tsuruoka,Y.\BBOP2016\BBCP.\newblock\BBOQAJapaneseChessCommentaryCorpus.\BBCQ\\newblockIn{\BemProceedingsofthe10thInternationalConferenceonLanguageResourcesandEvaluation},\mbox{\BPGS\1415--1420}.\bibitem[\protect\BCAY{Ngiam,Khosla,Kim,Nam,Lee,\BBA\Ng}{Ngiamet~al.}{2011}]{ngiam2011}Ngiam,J.,Khosla,A.,Kim,M.,Nam,J.,Lee,H.,\BBA\Ng,A.\BBOP2011\BBCP.\newblock\BBOQMultimodalDeepLearning.\BBCQ\\newblockIn{\BemProceedingsofthe28thInternationalConferenceonMachineLearning},\mbox{\BPGS\689--696}.\bibitem[\protect\BCAY{Ratinov\BBA\Roth}{Ratinov\BBA\Roth}{2009}]{Ratinov:2009:DCM:1596374.1596399}Ratinov,L.\BBACOMMA\\BBA\Roth,D.\BBOP2009\BBCP.\newblock\BBOQDesignChallengesandMisconceptionsinNamedEntityRecognition.\BBCQ\\newblockIn{\BemProceedingsofthe13thConferenceonComputationalNaturalLanguageLearning},CoNLL'09,\mbox{\BPGS\147--155}.\bibitem[\protect\BCAY{Settles}{Settles}{2004}]{Biomedical.Named.Entity.Recognition.Using.Conditional.Random.Fields.and.Rich.Feature.Sets}Settles,B.\BBOP2004\BBCP.\newblock\BBOQBiomedicalNamedEntityRecognitionUsingConditionalRandomFieldsandRichFeatureSets.\BBCQ\\newblockIn{\BemProceedingsoftheInternationalJointWorkshoponNaturalLanguageProcessinginBiomedicineanditsApplications},\mbox{\BPGS\33--38}.\bibitem[\protect\BCAY{Silberer\BBA\Lapata}{Silberer\BBA\Lapata}{2014}]{silberer2014}Silberer,C.\BBACOMMA\\BBA\Lapata,M.\BBOP2014\BBCP.\newblock\BBOQLearningGroundedMeaningRepresentationswithAutoencoders.\BBCQ\\newblockIn{\BemProceedingsofthe52ndAnnualMeetingoftheAssociationforComputationalLinguistics(Volume1:LongPapers)},\mbox{\BPGS\721--732}.\bibitem[\protect\BCAY{Socher,Karpathy,Le,Manning,\BBA\Ng}{Socheret~al.}{2014}]{Socher_groundedcompositional}Socher,R.,Karpathy,A.,Le,Q.~V.,Manning,C.~D.,\BBA\Ng,A.~Y.\BBOP2014\BBCP.\newblock\BBOQGroundedCompositionalSemanticsforFindingandDescribingImageswithSentences.\BBCQ\\newblock{\BemTransactionsoftheAssociationforComputationalLinguistics},{\Bbf2},\mbox{\BPGS\207--218}.\bibitem[\protect\BCAY{Srivastava\BBA\Salakhutdinov}{Srivastava\BBA\Salakhutdinov}{2012}]{srivastava2012}Srivastava,N.\BBACOMMA\\BBA\Salakhutdinov,R.\BBOP2012\BBCP.\newblock\BBOQMultimodalLearningwithDeepBoltzmannMachines.\BBCQ\\newblockIn{\BemAdvancesinNeuralInformationProcessingSystems25},\mbox{\BPGS\2222--2230}.\bibitem[\protect\BCAY{TjongKim~Sang\BBA\De~Meulder}{TjongKim~Sang\BBA\De~Meulder}{2003}]{TjongKimSang:2003:ICS:1119176.1119195}TjongKim~Sang,E.~F.\BBACOMMA\\BBA\De~Meulder,F.\BBOP2003\BBCP.\newblock\BBOQIntroductiontotheCoNLL-2003SharedTask:Language-independentNamedEntityRecognition.\BBCQ\\newblockIn{\BemProceedingsofthe7thConferenceonNaturalLanguageLearningatHLT-NAACL2003---Volume4},CoNLL'03,\mbox{\BPGS\142--147}.\bibitem[\protect\BCAY{Tomori,Ninomiya,\BBA\Mori}{Tomoriet~al.}{2016}]{tomori-ninomiya-mori:2016:P16-2}Tomori,S.,Ninomiya,T.,\BBA\Mori,S.\BBOP2016\BBCP.\newblock\BBOQDomainSpecificNamedEntityRecognitionReferringtotheRealWorldbyDeepNeuralNetworks.\BBCQ\\newblockIn{\BemProceedingsofthe54thAnnualMeetingoftheAssociationforComputationalLinguistics(Volume2:ShortPapers)},\mbox{\BPGS\236--242}.\end{thebibliography}\begin{biography}\end{biography}\bioauthor{友利涼}{2016年愛媛大学工学部卒業.同年より京都大学大学院情報学研究科修士課程在学.}\bioauthor{二宮崇}{2001年東京大学大学院理学系研究科情報科学専攻博士課程修了.同年より科学技術振興事業団研究員.2006年より東京大学情報基盤センター講師.2010年より愛媛大学大学院理工学研究科准教授,2017年同教授.東京大学博士(理学).言語処理学会,情報処理学会,人工知能学会,電子情報通信学会,日本データベース学会,ACL\各会員.}\bioauthor{森信介}{1998年京都大学大学院工学研究科電子通信工学専攻博士後期課程修了.同年,日本アイ・ビー・エム株式会社入社.2007年より京都大学学術情報メディアセンター准教授,2016年同教授.京都大学博士(工学).1997年情報処理学会山下記念研究賞受賞.2010年,2013年情報処理学会論文賞受賞.2010年第58回電気科学技術奨励賞受賞.言語処理学会,情報処理学会,日本データベース学会,ACL各会員.}\biodate\end{document}
| |
V21N01-01 | \section{はじめに}
\label{intro}\emph{述語項構造解析}の目的は,述語とそれらの項を文の意味的な構成単位として,文章から「誰が何をどうした」という意味的な関係を抽出することである.これは,機械翻訳や自動要約などの自然言語処理の応用において重要なタスクの1つである\cite{Surdeanu:2003:ACL,Wu:EAMT:2009}.\emph{述語}は文の主要部で,他の要素とともに文を構成する\cite{ModernJapaneseGrammar1}.日本語では,述語は品詞によって,形容詞述語・動詞述語・名詞述語の3種類に分けられる.述語が意味をなすためには,補語(主語を含む)が必要であり,それらは\emph{項}と呼ばれる.また,述語と項の意味的関係を表すラベルを\emph{格}と呼ぶ.項は前後文脈から推測できるとき省略\footnote{本稿では,省略を項が述語と直接係り受け関係にないことと定義する.}されることがあり,省略された項を\emph{ゼロ代名詞},ゼロ代名詞が指示する要素を\emph{先行詞}と呼ぶ.この言語現象は\emph{ゼロ照応}と呼ばれ,日本語では項の省略がたびたび起きることから,述語項構造解析はゼロ照応解析としても扱われてきた\cite{Kawahara:2004:JNLP,Sasano:IPSJ:2011}.本稿では,項と述語の\textbf{位置関係}の種類を次の4種類に分類する.述語と同一文内にあり係り受け関係にある項\footnote{ここでの関係は向きを持たない.複数の項が同一の述語と関係を持つこともありうる.},(ゼロ代名詞の先行詞として同一文中に存在する)文内ゼロ,(ゼロ代名詞の先行詞として述語とは異なる文中に存在する)文間ゼロ,および(文章中には存在しない)外界項である.本稿では,それぞれ\emph{INTRA\_D,INTRA\_Z},\emph{INTER},\emph{EXO}と呼ぶ.ある述語がある格にて項を持たないときは,その述語の項は\emph{\rm{ARG}$_{\rm{NULL}}$}だとし,その述語と\emph{\rm{ARG}$_{\rm{NULL}}$}は\emph{NULL}という位置関係にあるとして考える.本稿では,EXOとNULLを総称してNO-ARGと呼ぶ.例えば,\exref{exs-atype}において,「受け取った」と「食べた」のヲ格項「コロッケ」はそれぞれINTRA\_D・INTRA\_Z,「飲んだ」のガ格項「彼女」はINTERで,ニ格項は\emph{\rm{ARG}$_{\rm{NULL}}$}である.\enumsentence{コロッケを受け取った彼女は,急いで食べた.\\($\phi$が)ジュースも飲んだ.}{exs-atype}一般に,項は述語に近いところにあるという特性(近距離特性)を持つ.そのため,これまでの述語項構造解析の研究では,この特性の利用を様々な形で試みてきた.\newcite{Kawahara:2004:JNLP}や\fullciteA{Taira:2008:EMNLP}は項候補と述語の係り受け関係の種類ごとに項へのなりやすさの順序を定義し,その順序に従って項の探索を行った.また,\fullciteA{Iida:2007:TALIP}は述語と同一文内の候補を優先的に探索した.これらの先行研究ではあらかじめ定めておいた項の位置関係に基づく順序に従った探索を行い,項らしいものが見つかれば以降の探索はしない.そのため,異なる位置関係にある候補との「どちらがより項らしいか」という相対的な比較は行えず,述語と項候補の情報から「どのくらい項としてふさわしいか」という絶対的な判断を行わなければならないという問題点がある.そこで,本稿では,項の位置関係ごとに独立に最尤候補を選出した後,それらの中から最尤候補を1つ選出するというモデルを提案する.位置関係ごとに解析モデルを分けることで,柔軟に素性やモデルを設計できるようになる.また,位置関係の優先順序だけでなく,その他の情報(素性)も用いて総合的にどちらがより``項らしい''かが判断できるようになる.本稿の実験では,まず,全ての候補を参照してから解析するモデルと,特定の候補を優先して探索するモデルを比較して,決定的な解析の良し悪しを分析する.また,陽に項の位置関係ごとの比較を行わないモデルや,優先順序に則った決定的な解析モデルと提案モデルを比較して,ガ格・ヲ格ではより高い性能を達成できたことも示す.本稿の構成は以下のようになっている.まず2章で述語項構造解析の先行研究での位置関係と項へのなりやすさの優先順序の扱いについて紹介する.3章では提案手法について詳述し,4章では評価実験の設定について述べる.5章・6章では実験結果の分析を行い,7章でまとめを行う.
\section{関連研究}
ここでは,述語項構造解析の先行研究における,位置関係と項へのなりやすさの優先順序の扱いについて紹介する.先行研究と提案手法の概要を\tblref{tbl:rwork}にまとめた.\subsection{決定的な解析を行う方法}\subsubsection{優先順序を統計的に求める方法}\begin{savenotes}\begin{table}[b]\caption{先行研究と提案手法の概要}\label{tbl:rwork}\input{01table01.tex}\end{table}\end{savenotes}\newcite{Kawahara:2004:JNLP}は,解析をゼロ代名詞検出と先行詞同定の2段階に分け,統計的に求めた優先順序を先行詞同定の際に用いた.彼らの手法では,まず,格フレーム辞書に基づく格解析によって,ゼロ代名詞の検出を行う.そして,項が存在すると判断された場合は,あらかじめ求めておいた優先順序に従って候補を探索し,候補と格フレーム用例の類似度が閾値以上かつ分類器でも正例と分類される候補を先行詞として同定する.分類器は項の位置関係に関わらず,共通のものを作成した.素性には,格フレームとの類似度や品詞などを用いた.彼らは,従属節,主節,埋め込み文などといった文・文章中の構造をもとに,項の位置関係(彼らは「位置カテゴリ」と呼んだ)を20種類に分類した.彼らは,位置カテゴリごとに,先行詞の取りやすさを\begin{equation}\frac{先行詞がその位置カテゴリにある回数}{その位置カテゴリにある先行詞候補の数}\label{a}\end{equation}でスコア化した.そして,位置カテゴリごとに,京都大学テキストコーパス\cite{Kawahara:2002:LREC}からスコアを算出し,得られたスコアを降順にソートしてそれぞれの格について優先順序を得た.\subsubsection{文内候補を優先的に探索する方法}\label{iida-bact}\newcite{Iida:2007:TALIP}は,先行詞候補とゼロ代名詞の統語的関係をパターン化するために,木を分類するブースティングアルゴリズムBACT\cite{Kudo:2004:IPSJ}を用いた.BACTは木構造データを入力とし,全ての部分木の中から分類に寄与する部分木に対して大きな重みをつける.彼らは,先行詞候補とゼロ代名詞間の係り受け木や,関係を表す素性を,根ノードに子としてつなげてBACTの入力とした.文間先行詞の同定には係り受け関係を利用できないため,彼らは先行詞の同定モデルを文内と文間に分け,文内候補を優先的に探索する以下の方法をとった.\begin{enumerate}\item最尤先行詞同定モデル$M_{10}$で,文内最尤先行詞$C_1^*$を求める\item照応性判定モデル$M_{11}$で,$C_1^*$の先行詞らしさのスコア$p_1$を求める.あらかじめ定めておいた閾値$\theta_{\rmintra}$に対して,$p_1\geq\theta_{\rmintra}$であれば,$C_1^*$を先行詞として決定する.そうでなければ(\ref{iida-inter})に進む.\item最尤先行詞同定モデル$M_{20}$で,文間最尤先行詞$C_2^*$を求める\label{iida-inter}\item照応性判定モデル$M_{21}$で,$C_2^*$の先行詞らしさのスコア$p_2$を求める.あらかじめ定めておいた閾値$\theta_{\rminter}$に対して,$p_2\geq\theta_{\rminter}$であれば,$C_2^*$を先行詞として決定する.そうでなければ,先行詞なしとする.\end{enumerate}$M_{10}\cdotsM_{21}$はそれぞれBACTを使って学習・分類し,パラメータ$\theta_{\rmintra}$と$\theta_{\rminter}$は,開発データを用いて最適なものを求める.この手法では,文内の最尤先行詞同定や照応性判定には文間の候補の情報は参照せずに,決定的に解析している.\subsubsection{優先順位を経験的に決める方法}\newcite{Taira:2008:EMNLP}は,決定リストを用いて全ての格の解析を同時に行う方法を提案した.決定リストは規則の集合に適用順位を付けたものであり,機械学習の結果を人が分析しやすいという特長がある.彼らは項の位置関係やヴォイス・機能語に加えて,単語の出現形・日本語語彙大系\cite{goitaikei}から得られる意味カテゴリ・品詞のいずれか1つを加えたものを組として扱い,それぞれの組を1つの素性とした.そして,述語ごとにSupportVectorMachineの学習で素性の重みを得て,素性を重みでソートしたものを決定リストとした.すなわち,1つの素性を1つの決定リストのルールとして扱った.彼らは項の単位を単語とし,項の位置関係を係り受け関係に基づいて次の7種類に定義している.なお,fwとbwは追加的な種類で,その他の種類と兼ねることができる.\begin{itemize}\itemIncomingConnectionType(ic):項を含む文節が述語を含む文節に係っている\\日米\underline{交渉}$_{ガ:進展}$が\underline{進展}した\itemOutgoingConnectionType(oc):述語を含む文節が項を含む文節に係っている\\衝動\underline{買い}した新刊\underline{本}$_{ガ:買い}$\itemWithintheSamePhraseType(sc):項が述語と同じ文節内にある\\\underline{日}米\underline{交渉}$_{ガ:日}$が\itemConnectionintoOtherCaseroleTypes(ga\_c,wo\_c,ni\_c):項を含む文節が述語を含む文節に,他の格の項を介して係っている\\\underline{トム}$_{ヲ:説得,ga\_c}$への友人$_{ガ:説得}$による\underline{説得}\itemNon-connectionType(nc):項が述語とは異なる文にある\itemForwardType(fw):文章内にて,項が述語の前方にある\itemBackwardType(bw):文章内にて,項が述語の後方にある\end{itemize}実際の解析は,各述語について次の手順で行った.\begin{enumerate}\itemic,oc,ga\_c,wo\_c,ni\_cについて,決定リストを用いて項を決定する\label{firststep}\item(\ref{firststep})で決まらなかった格について,scの決定リストを用いて項を決定する\item対象の述語が項を持つ確率が50\%以上であれば(\ref{laststep})に進む\itemnc,fw,bwに関する決定リストを用いて項を決定する\label{laststep}\end{enumerate}この手法は経験的に,優先順序を\\\hspace{2zw}ic,oc,ga\_c,wo\_c,ni\_c$>$sc$>>$nc,fw,bw\\のように定めたといえる.ic,oc,ga\_c,wo\_c,ni\_c間での,探索の優先関係はない.この方法は,格と項の位置関係を考慮しつつ,項になりやすいものから決めていくのが特徴である.ただし,着目している候補と述語の情報のみを用いて項らしいかどうかを判断していくため,必ずしも全ての候補を参照してから最終的な出力を決定するわけではなく,候補間でどれが項らしいかの相対的な判断は行われない.\subsubsection{述語と係り受け関係にある候補を優先的に項であるとみなす方法}\newcite{Sasano:IPSJ:2011}は,解析対象述語の格フレーム候補それぞれに対して,次の手順で格フレームと談話要素の対応付け候補を生成した.\begin{itemize}\item解析対象述語と直接係り受け関係にある談話要素を,選ばれた格フレームの格スロットと対応付ける.談話要素が係助詞をともなって出現した場合や,被連体修飾節に出現した場合など,複数の格スロットとの対応付けが考えられる場合は,考えうるすべての対応付けを生成する.\item上記の処理で生成された対応付け候補に対し,対応付けられなかったガ格・ヲ格・ニ格と,解析対象述語と係り受け関係にない談話要素の対応付けを行う.\end{itemize}そして,対数線形モデルにて最も確率的評価が高い対応付けを解析結果として出力した.素性には,意味クラスや固有表現情報の他に,出現格と出現位置に関する85個の2値素性も用いた.この手法では,格ごとに独立に解析を行なっているのではなく,同時に解析を行なう.しかし,述語と係り受け関係にある候補を優先的に項であるとみなすため,係り受け関係にある候補と,係り受け関係にない候補または他の文にある候補との比較は行えない.\subsection{優先順序を素性として表現する方法}位置関係と項へのなりやすさの関係を優先順序として利用し決定的な解析を行うのではなく,素性として利用した研究もある.\subsubsection{最大エントロピー法を用いる方法}\newcite{Imamura:2009:ACL}は,最大エントロピー法に基づく識別的モデルを用いた.彼らは,位置関係ごとにモデルを分けるのではなく,素性として,述語と候補の位置関係,係り受け関係を用いた.そして候補集合に,項を持たないことを示す特別な名詞句NULLを加え,その中から最尤候補を同定するというモデル化を行った.なお,候補数削減のため,文間項候補は述語を含む文の直前の文に出現したものと,これまでの解析ですでに項として同定されたものに限定している.この方法では格ごとにモデルは1つだけ学習すればよい.ただし,この手法では,候補間の関係を素性として用いることはできない.\subsubsection{MarkovLogicを用いる方法}\newcite{Yoshikawa:2013:JNLP}は,MarkovLogicを利用して,文内の複数の述語の項構造解析を同時に行う手法を提案した.MarkovLogicは一階述語論理とMarkovNetworksを組み合わせたもので,一階述語論理式の矛盾をある程度のペナルティの上で認めることができる統計的関係学習の枠組みである.彼らは項同定・項候補削減・格ラベル付与を同時に行うモデルを提案した.彼らは,文間の項候補を加えるのは計算量の問題から困難だとしている.素性(観測述語)は述語と候補の係り受け関係などを用いた.
\section{述語と項の位置関係ごとの候補比較による日本語述語項構造解析}
\label{sec:sca}先行研究では,優先順位の低い位置関係にある候補は参照されずに,解析が行われていた.この方法は,優先順位の高い位置関係にある項の同定の性能は上げることができるが,優先順位の低い位置関係にある候補の再現率は下げてしまうという問題点がある.また,優先順位の低い位置関係にある候補も参照してから最終的な決定を行った方が,全体的な解析性能が向上すると考える.そこで我々は,\emph{探索}と\emph{トーナメント}の2つのフェーズからなる,位置関係ごとに最尤候補を求めてから最終的な出力を決めるモデルを提案する.これは,「探索」・「分類」という2つのフェーズを持つ探索先行分類型モデル\cite{Iida:2005:TALIP}に着想を得て,後半の分類フェーズをトーナメント式に置き換えたものである.なお,このモデルは格ごとに解析器を学習・使用する.\subsection{項構造解析における探索先行トーナメントモデル}\subsubsection{探索}はじめのフェーズでは任意の項同定モデルを用いてINTRA\_D,INTRA\_Z,INTERの最尤候補を選出する.それぞれ異なる素性やモデルを用いてもよい.モデルには,述語と探索対象の候補を入力として与え,探索対象の候補の中の1つを出力させる.\subsubsection{トーナメント}次のフェーズでは探索フェーズで得られた3つの最尤候補を入力とし,そのうちの1つか``NO-ARG''を出力する.これにより,最尤候補のうちどれが正解項であるか,もしくは項を持たないかを判断する.このフェーズは\figref{fig:anap-tournament-model}に示したように(a)から(c)の3つの2値分類モデルで構成される.なお,予備実験にて異なる順序を試したが,文内最尤候補同士を(a)にて直接比較できるこの順序の性能が最も高かった.\begin{itemize}\setlength{\parskip}{0cm}\setlength{\itemsep}{0cm}\item[(a)]INTRA\_DとINTRA\_Zを比較して,よりその述語の項らしい方を選ぶ\item[(b)]INTERと(a)で選出された候補を比較して,よりその述語の項らしい方を選ぶ\item[(c)](b)で選出された候補と``NO-ARG''を比較して,よりその述語の項らしい方を選ぶ\end{itemize}(a)から(c)の分類器の学習事例には,Algorithm\ref{alg:train}で示すように探索フェーズで得られた最尤候補を用いる.\begin{figure}[t]\begin{center}\includegraphics{21-1ia1f1.eps}\end{center}\caption{トーナメントフェーズでの,位置関係が異なる候補からの項の同定}\label{fig:anap-tournament-model}\end{figure}\subsection{提案手法の関連研究}提案手法は2つのモデルを参考にしている.1つ目は名詞句の照応解析における\emph{探索先行分類型モデル(selection-then-classificationmodel)}\cite{Iida:2005:TALIP}である.このモデルは最初に,最尤先行詞を求める(彼らはこれを``探索''と呼んだ).次に,その最尤先行詞を用いて,名詞句が実際に照応詞であるかどうかを判定する(彼らはこれを``分類''と呼んだ).このモデルの利点は,照応性を持たない名詞句も学習事例の生成に使えることである.彼らは実験で,最尤先行詞を用いて照応性判定を行ったほうが,最尤先行詞を用いない場合よりも高い性能が出ること確かめた.提案手法も,位置関係ごとに最尤候補を求めた後,どの候補が実際に項であるのかを判定する.最尤候補の探索を先に行なうことで,位置関係ごとの最尤候補を学習事例の生成に用いることができる.2つ目はゼロ照応解析における\emph{トーナメントモデル}\cite{Iida:2004:IPSJ}である.そのモデルは,全ての先行詞候補(実際には先行する全ての名詞句)のペアに対して,どちらがより先行詞らしいかの2値分類を繰り返す.トーナメントモデルの利点は候補間の関係性の素性を使うことができる点である.提案手法のトーナメントフェーズでも同様に,トーナメントモデルを用いて,位置関係ごとに選出された最尤候補のペアからどちらが正解項らしいかの2値分類を繰り返し,候補間の比較を行うことができる.\begin{algorithm}[p]\caption{分類器(a)classifier\_a,(b)classifier\_b,(c)classifier\_cの学習事例の作成アルゴリズム}\label{alg:train}\begin{algorithmic}\Procedure{train}{predicate,gold\_argument,candidates}\Stategold\_argument\_type$\leftarrow$getArgumentType(predicate,gold\_argument)\\\Comment{正解項の位置関係を取得する}\\\State\Comment{位置関係ごとに最尤候補を取得する}\Statemost\_likely\_candidate\_INTRA\_D$\leftarrow$getMostLikelyCandidate(predicate,candidates,INTRA\_D)\Statemost\_likely\_candidate\_INTRA\_Z$\leftarrow$getMostLikelyCandidate(predicate,candidates,INTRA\_Z)\Statemost\_likely\_candidate\_INTER$\leftarrow$getMostLikelyCandidate(predicate,candidates,INTER)\\\If{gold\_argument\_type=NO\_ARG}\StateMakeExample(classifier\_c,NO\_ARG,predicate,most\_likely\_candidate\_INTRA\_D)\StateMakeExample(classifier\_c,NO\_ARG,predicate,most\_likely\_candidate\_INTRA\_Z)\StateMakeExample(classifier\_c,NO\_ARG,predicate,most\_likely\_candidate\_INTER)\State\textbf{return}\EndIf\\\StateMakeExample(classifier\_c,HAVE\_ARG,predicate,gold\_argument)\If{gold\_argument\_type=INTRA\_D}\StateMakeExample(classifier\_a,INTRA\_D,predicate,gold\_argument,\\\hspace*{88pt}most\_likely\_candidate\_INTRA\_Z)\StateMakeExample(classifier\_b,INTRA,predicate,gold\_argument,most\_likely\_candidate\_INTER)\ElsIf{gold\_argument\_type=INTRA\_Z}\StateMakeExample(classifier\_a,INTRA\_Z,predicate,gold\_argument,\\\hspace*{88pt}most\_likely\_candidate\_INTRA\_D)\StateMakeExample(classifier\_b,INTRA,predicate,gold\_argument,most\_likely\_candidate\_INTER)\ElsIf{gold\_argument\_type=INTER}\StateMakeExample(classifier\_b,INTER,predicate,gold\_argument,most\_likely\_candidate\_INTRA\_D)\StateMakeExample(classifier\_b,INTER,predicate,gold\_argument,most\_likely\_candidate\_INTRA\_Z)\EndIf\State\textbf{return}\EndProcedure\\\Procedure{MakeExample}{classifier,label,predicate,candidate1,candidate2}\\\Comment{candidate2は省略できる}\State項候補candidate1,candidate2が照応関係にあれば事例は作成しない.\State述語predicateと項候補candidate1,candidate2に対して,素性集合$F$を取得する.\State学習器classifierに対して,$F$を用いて,labelをラベルとする学習事例を1つ作成する.\EndProcedure\end{algorithmic}\end{algorithm}
\section{評価実験}
\label{experiment}\subsection{実験データセット}評価実験にはNAISTテキストコーパス1.4$\beta$\cite{Iida:2010:JNLP}を用いた.これは京都大学テキストコーパス3.0\footnote{\url{http://nlp.ist.i.kyoto-u.ac.jp/nl-resource/corpus/KyotoCorpus3.0.tar.gz}}を基にしており,述語項構造,事態性名詞の項構造,共参照に関する情報が約40,000文の新聞記事にわたって付与されている.なお,アノテーションの誤りのため6記事\footnote{除外した文書ID:951230038,951225057,950106156,950106034,951221047,950106211}を除外した.このコーパスの記事を\tblref{tbl:corpus-statics}で示すように学習・開発(パラメータチューニング)・評価のために3分割した.これは,\newcite{Taira:2008:EMNLP}や\newcite{Yoshikawa:2013:JNLP}と同じ分割方法である.\tblref{tbl:corpus-arg-dist}に項の分布の統計情報を示す\footnote{SAME\_BSは項と述語が同一文節であることを示す.}.\begin{table}[b]\caption{NAISTテキストコーパスの統計情報}\label{tbl:corpus-statics}\input{01table02.tex}\end{table}\begin{table}[b]\caption{NAISTテキストコーパスにおける項の分布}\label{tbl:corpus-arg-dist}\input{01table03.tex}\end{table}\subsection{実験設定}実験では,MeCab0.996・IPADIC-2.7.0-20070801で解析して得られた形態素情報,京都大学テキストコーパス3.0で付与されている文節情報,CaboCha0.66で解析して得られた係り受け関係を用いた.項の候補は文節単位で抽出した.解析は文頭から文末の順で行い,述語を含む文以降からは項候補を抽出しない.なお,ある述語の格についての解析結果は同じ述語の他の格についての解析に影響を及ぼさない.本稿では項同定に焦点を絞るため,述語同定タスクには取り組まない.言い換えると,どれが述語であるかはあらかじめシステムに与えておく.述語には軽動詞「する」や複合動詞も含む.最尤候補同定には,トーナメントモデル\cite{Iida:2004:IPSJ}を用いた.その際,最尤候補の探索範囲ごとに異なるモデルを作成し,モデルの学習方法も\cite{Iida:2004:IPSJ}に従った.例えば,提案手法は探索フェーズではINTRA\_D,INTRA\_Z,INTERの最尤候補を同定するが,それぞれ異なる合計3つの解析モデルを最尤候補同定に用いる.\subsection{分類器と素性}\label{sec:feature}探索フェーズ・トーナメントフェーズで用いる分類器には,SupportVectorMachine\cite{Cortes:1995:ML}を線形カーネルで用いた.具体的にはLIBLINEAR1.93\footnote{\url{http://www.csie.ntu.edu.tw/~cjlin/liblinear/}}の実装を用い,開発データを用いたパラメータチューニングを行った.素性には\citeA{Imamura:2009:ACL}で用いられたものとほぼ同一の素性を用いた.\begin{itemize}\item述語・項候補の主辞・機能語・その他の語の出現形・形態素情報\item述語が受け身の助動詞を含むときはその原形\item係り受け木上の述語と項候補の関係\footnote{\citeA{Imamura:2009:ACL}では,どのような素性表現に落とし込んだかは詳述されていない.}\\係り受け木上の項候補ノード$N_a$と述語ノード$N_p$からそれぞれROOT方向に辿っていくときに初めて交叉するノードを$N_c$とし,$N_a$から$N_c$までの道のりに含むノード列を$A_{a\cdotsc}$,$N_p$から$N_c$までの道のりに含むノード列を$A_{p\cdotsc}$とする.また,$N_c$から木のROOTまでの道のりに含むノード列を$A_{c_1,c_2,\cdotsc_r}$とする.本実験では,ノード列の文字列表現として,\begin{itemize}\item主辞の原形\item主辞の品詞\item機能語の原形\item機能語の品詞\item機能語の原形$+$機能語の品詞\end{itemize}の5通りを用いた.$A_{a\cdotsc}$の文字列表現を$S_{a\cdotsc}$,$A_{p\cdotsc}$の文字列表現を$S_{p\cdotsc}$とし,それらの連結を$S_{a\cdotsc}+S_{p\cdotsc}$とする.素性には,$S_{a\cdotsc}+S_{p\cdotsc}$,$S_{a\cdotsc}+S_{p\cdotsc}+S_{c_1}$,$S_{a\cdotsc}+S_{p\cdotsc}+S_{c_1,c_2}$,$\cdots$$S_{a\cdotsc}+S_{p\cdotsc}+S_{c_1,c_2,\cdots,c_r}$の$r+1$個の文字列を用いた.つまり.述語と項候補の関係を$5(r+1)$個の文字列で表現した.\item係り受け木上の2つの項候補の関係\\上と同様の素性表現を行った.\item述語と項候補・2つの項候補間の距離(文節単位・文単位ともに)\item「述語・項候補の主辞・助詞」のコーパス中の共起スコア\footnote{\citeA{Imamura:2009:ACL}では,これに相当するものとして,GoodTuringスムージングを施した共起確率を用いている.計算はNAISTテキストコーパス相当部分を除いた1991〜2002年の毎日新聞を用いた.}\\動詞と項の共起のモデル化は\cite{Fujita:2004:IPSJ}に従った.名詞$n$が格助詞$c$を介して動詞$v$に係っているときの共起確率$P(\langlev,c,n\rangle)$を推定するため,$\langlev,c,n\rangle$を$\langlev,c\rangle$と$n$の共起とみなす.共起尺度には自己相互情報量\cite{Hindle:1990:ACL}を用いた.\[PMI(\langlev,c\rangle,n)=\log\frac{P(\langlev,c,n\rangle)}{P(\langlev,c\rangle)P(n)}\]なお,スムージングは行わなかった.自己相互情報量の算出には次の2つのコーパスを用い,2つの値をそれぞれ二値素性として\footnote{値が$x$以下のときのみ発火する素性.実際には,$x$を$-4$から$4$まで$0.1$刻みで変化させた素性を用いた.}用いた.\\[0.5\Cvs]\textbf{NEWS:}1995年を除く1991年から2003年までの毎日新聞約1,800万文.MeCab0.98\footnote{\url{https://code.google.com/p/mecab/}}で形態素解析を行いCaboCha0.60pre4\footnote{\url{https://code.google.com/p/cabocha/}}で係り受け解析を行った.辞書はNAISTJapaneseDictionary0.6.3\footnote{\url{http://sourceforge.jp/projects/naist-jdic/}}を用いた.約2,700万対の$\langle$動詞,格助詞,名詞$\rangle$の組を抽出した\footnote{動詞が約3万種,名詞が約32万種で,ユニーク数は約700万組.}.\\[0.5\Cvs]\textbf{WEB:}\newcite{Kawahara:2006:LREC}がウェブから収集した日本語約5億文.JUMAN\footnote{\url{http://nlp.ist.i.kyoto-u.ac.jp/index.php?JUMAN}}で形態素解析を行い,KNP\footnote{\url{http://nlp.ist.i.kyoto-u.ac.jp/index.php?KNP}}で係り受け解析を行なっている.KNPの項構造解析結果から約53億対の$\langle$述語,格助詞,項$\rangle$の組を抽出した\footnote{動詞が約8億種,項が約2.8億種で,ユニーク数は約1.6億組.}.\item項候補が以前の項構造解析で項となったか否かを示す2値情報\item項候補の主辞のSalientReferenceList\cite{Nariyama:2002:TMI}における順位\end{itemize}\subsection{比較対象}先行研究では,我々のものと異なる素性や機械学習の手法を使っており実験設定が異なる.そのため,ベースラインモデルとしてIIDA2005,比較対象モデルとしてIIDA2007・IIDA2007$+$・PPR$-$を実装し,位置関係ごとに最尤候補を求めてから最終的な出力を決める提案モデルPPR(PreferencesbasedonPositionalRelations)と比較する.\subsubsection{IIDA2005}位置関係に関わらずに,全ての候補の中から最尤の候補を探索フェーズで1つ選出した後,トーナメントフェーズでそれが項としてふさわしいか否かを判断するモデル.\cite{Iida:2005:TALIP}の探索先行分類型モデルである.全ての候補の中から1つを選ぶという点で\cite{Imamura:2009:ACL}とほぼ同等のモデルである.彼らのモデルと異なる主な点は,最尤候補同定と照応性判定を異なるモデルで行う点と,最尤候補同定時に2候補間の関係性も素性として用いる点である.このベースラインモデルとその他のモデルと比較することで,項の位置関係によって探索の優先順序をつけることの効果や,位置関係ごとに最尤候補同定モデルを作り最尤候補同士の比較を陽に行う効果を調べる.\subsubsection{IIDA2007}文内最尤候補を選出した後,分類器が項としてふさわしいと判断すればそれを項として出力し,そうでなければ同様に文間候補の探索を行うモデル.\secref{iida-bact}で述べた\cite{Iida:2007:TALIP}の文内候補を優先的に探索するモデルである.彼らのモデルと異なる主な点は,最尤候補同定や候補の適格性判定を行う分類器にBACTではなくSVMを用いる点である.IIDA2005と比較することで,文内候補を優先的に探索することの効果を調べる.\subsubsection{IIDA2007$+$}INTRA\_Dの探索後,最尤候補が項としてふさわしいかどうかの判断(適格性判定)を行う.適格であればそれを出力し終了する.非適格であればINTRA\_Zの探索を行い,同様に適格性判定を行う.それも非適格であればINTERの探索を行い,適格であればそれを出力し,非適格であれば項は無いと判断する.IIDA2005とIIDA2007の自然な拡張で,述語から統語的な距離の近いものを優先的に探索する.IIDA2007と比較することで,文内候補を細かくINTRA\_DとINTRA\_Zに分けて優先順序をつけることの効果を調べる.\subsubsection{PPR$-$}このモデルは,提案モデルとほぼ同じモデルであるが,INTRA\_DとINTRA\_Zを区別せずに,位置関係がINTRAとINTERの2グループであると仮定する.\figref{fig:anap-tournament-model}の(b)と(c)で示すようにトーナメントフェーズは2つの2値分類モデルからなる.分類器(c)はINTRAとINTERの候補のどちらが最尤候補であるかを判断する.PPRと比較することで,文内の項の位置関係を細かくINTRA\_DとINTRA\_Zに分けて最尤候補同定モデルを作り,最尤候補同士の比較を行うことの効果を調べる.\subsubsection{比較対象とする先行研究}NAISTテキストコーパスを使い,全ての項の位置関係で実験を行なっている\cite{Taira:2008:EMNLP}と\cite{Imamura:2009:ACL}との比較も行う.ただし,本実験とは微妙に実験設定が異なるため,厳密な比較はできないことに注意してほしい.\citeA{Taira:2008:EMNLP}の実験では19,501個の述語をテストに,49,527個を学習に,11,023個を開発に使っている.また学習では京都大学テキストコーパス4.0で付与されている係り受け情報と形態素情報を用いていているが,テストでは独自の係り受け解析器を用いている.\citeA{Imamura:2009:ACL}の実験では,25,500個の述語をテストに,67,145個を学習に,13,594個を開発に使っている.我々は京都大学テキストコーパス3.0を用いたが,\citeA{Imamura:2009:ACL}は京都大学テキストコーパス4.0で付与されている係り受け情報と形態素情報を学習とテストに用いている.\subsubsection{その他の先行研究}\citeA{Sasano:IPSJ:2011}は,提案システムは表層格の解析を行うことから,受け身・使役形である述語は評価から除外しており,本稿では比較対象としない.\citeA{Yoshikawa:2013:JNLP}は,文間項は解析対象としていないため,本稿では比較対象としない.\cite{Watanabe:JSAI:2010}は述語語義と項の意味役割の依存関係を考慮しながら,双方を同時に学習,解析を行う構造予測モデルを提案している.しかし,本稿とは異なるデータセットを用いていることから,比較対象とはしない.\subsection{評価尺度}Precision,Recall,F値で位置関係ごとに評価を行う.システムが出力した位置関係が$T$であるもののうち,正しく同定できているものの数を$tp_{(T)}$,できていないものの数を$fp_{(T)}$,システムに同定されなかった項のうち位置関係が$T$であるものの数を$fn_{(T)}$とすると,\[Precision=\frac{tp_{(T)}}{tp_{(T)}+fp_{(T)}},\quadRecall=\frac{tp_{(T)}}{tp_{(T)}+fn_{(T)}},\quadF=\frac{2\cdotPrecision\cdotRecall}{Precision+Recall}\label{as}\]と定義できる.また,システム全体(ALL)の$tp,fp,fn$とPrecision,Recall,F値も,同様に定義できる.
\section{議論}
\tblref{tbl:result-ga},\ref{tbl:result-wo},\ref{tbl:result-ni}にガ格・ヲ格・ニ格の実験結果を示す.$P$,$R$,$F$,$A_M$はそれぞれPrecision,Recall,F値,F値のマクロ平均(INTRA\_D,INTRA\_Z,INTERのF値の算術平均)を示す.\begin{table}[tb]\caption{ガ格の述語項構造解析の比較}\label{tbl:result-ga}\input{01table04.tex}\end{table}\begin{table}[tb]\caption{ヲ格の述語項構造解析の比較}\label{tbl:result-wo}\input{01table05.tex}\end{table}\begin{table}[tb]\caption{ニ格の述語項構造解析の比較}\label{tbl:result-ni}\input{01table06.tex}\end{table}ALLのF値に関して,PPR$-$とPPRがIIDA2007と比較して有意差があるかどうかの検定をTakamuraによるスクリプト\footnote{\url{http://www.lr.pi.titech.ac.jp/~takamura/pubs/randtest_fm.pl}}を用いてApproximateRandomizationTest\cite{Chinchor:1993:CL}を行った\footnote{このTestを行うためにはシステムの出力によらずに事例の正解ラベルを定める必要があるため,「項あり」のときにシステムが誤った出力した場合は,$fp$ではなく,$fn$として扱った.}.0.05水準で有意であったものに,記号$^{*}$を付記した.\subsection{決定的に項を同定していくモデルの比較}\label{sec:discussion-determin}IIDA2005,IIDA2007,IIDA2007+のALLのF値を比較することで,システム全体の性能について論じる.\subsubsection{ガ格の性能}ALLの性能を比較すると,ガ格の性能はIIDA2007$>$IIDA2005$>$IIDA2007+である.IIDA2007とIIDA2005の性能を比較すると,PrecisionはIIDA2007の方が高く,RecallはIIDA2005の方が高い.探索範囲を文内に限定することで,Precisionが上がることが分かる.IIDA2007のINTERのRecallは減少しているが,文間項よりも文内項の方が3倍以上多いため,システム全体の性能としては向上することが分かる.IIDA2005とIIDA2007+の性能を比較すると,INTRA\_Dを優先的に探索することで,INTRA\_DのPrecisionが上昇し,F値も上昇することが分かる.INTRA\_ZのPrecisionも上昇するが,Recallは悪化し,INTRA\_Zの分量が相当数あるため,全体としては性能が悪化することが分かる.\subsubsection{ヲ格の性能}ガ格と同様であるが,INTRA\_Zの数は比較的少ないためINTRA\_Dを優先的に探索しても,精度はガ格ほど悪化しない.\subsubsection{ニ格の性能}ニ格の性能はガ格・ヲ格とは異なり,IIDA2007+$\simeq$IIDA2007$>$IIDA2005である.この傾向は項の分布が影響している.ニ格は\tblref{tbl:corpus-arg-dist}によると全ての項のうち,全体の90\%以上がINTRA\_Dである.このため,INTRA\_Dの探索を優先し,INTRA\_DのRecallを上昇させることで,全体としての性能を上昇させることができる.\subsection{提案手法の効果}決定的な解析では優先度の低い位置関係にある候補の再現率とF値が低下するため,優先順序をつけるほどマクロ平均は下がっていく.しかし,提案手法は全ての位置関係について最尤候補を比較するので,マクロ平均を大きく下げずにマイクロ平均(ALLのF値)も向上させることができている.PPRとPPR$-$のいずれも,IIDA2005・IIDA2007・IIDA2007$+$より性能が向上している.そのため,トーナメントフェーズで最尤候補を陽に比較する提案モデルは,決定的に項を同定していくモデルよりも効果があるといえる.また,PPRはPPR$-$と比較して,ガ格・ニ格では性能はほとんど変わないが,ヲ格ではINTRA\_DのPrecisionが向上したため,全体の性能も向上していることが分かる.そのため,文内項もINTRA\_DとINTRA\_Zで,最尤候補の同定モデルを分けて陽に比較することで,さらに性能を向上することがあると分かる.\subsection{先行研究との比較}\label{result:prevwork}ガ格において,提案手法は\citeA{Taira:2008:EMNLP}と\citeA{Imamura:2009:ACL}の性能を上回っている.\citeA{Imamura:2009:ACL}は候補同士の比較をせず,\citeA{Taira:2008:EMNLP}は優先順序を用いた決定的な解析を行なっており,それらが,提案手法と比べて性能が低い原因であると考える.ヲ格では,提案手法は\citeA{Taira:2008:EMNLP}の性能を上回っており,\citeA{Imamura:2009:ACL}とも同程度の性能を達成している.しかしながら,ニ格では,\citeA{Taira:2008:EMNLP}が最も性能が高い.\citeA{Imamura:2009:ACL}も,ガ格・ヲ格では\citeA{Taira:2008:EMNLP}を上回る性能を発揮しているのにも関わらず,ニ格では\citeA{Taira:2008:EMNLP}よりも性能が低い.この理由として,ニ格はINTRA\_Dが最も多く,他の格の解析結果に依存することが挙げられる.一般に,1つの述語に対して異なる格で項を共有することはない.しかし,提案手法も\citeA{Imamura:2009:ACL}も各格で独立に解析を行なっており,他の格の解析結果の利用ができない.一方,\citeA{Taira:2008:EMNLP}は「項を含む文節が述語を含む文節に,他の格の項を介して係っている」という関係をモデル化(ga\_c,wo\_c,ni\_c)し,他の格の解析結果を利用して同時に解析を行なっている.そのため,INTRA\_Dの解析性能が高いと考えられる.
\section{事例分析}
\subsection{成功事例}\subsubsection{特定の位置関係を優先する決定的な解析モデル(IIDA)では解析できず,提案モデル(PPR)で解析できた事例}\begin{table}[b]\caption{IIDA2007(各セル左側)・PPR$-$(同中央)・PPR(同右側)のガ格の誤り事例のConfusionMatrix}\label{tbl:confusion-matrix-ga}\input{01table07.tex}\end{table}位置関係の優先順序を用いる決定的な解析モデルの中で,全体的な性能が最も高いIIDA2007と,優先順位を持たない提案モデル(PPR$-$・PPR)を比較すると,INTERのPrecisionが少し低下しているが,Recallは上昇し,F値も上昇している.ガ格の解析にて,IIDA2007・PPR$-$・PPRが解析に誤った事例の内訳を\tblref{tbl:confusion-matrix-ga}にConfusionMatrixで示した.PPR$-$やPPRでは,誤ってINTERを出力した事例が増えており(3列目を参照),一方で,誤って「項なし」と判断した事例が減っていることが分かる(4列目を参照).IIDA2007は文間の候補を参照せずに,文内最尤候補が項らしいか否かを判定しなければならないが,PPR$-$やPPRは文内最尤候補と文間最尤候補を比較した上で,項として何が適切かを判断できるため,INTERのRecallを上昇させることができたと考える.そして,これが全体の性能に影響している.\subsubsection{2種類の最尤候補を用いるモデル(PPR$-$)では解析できず,3種類の最尤候補を用いる提案モデル(PPR)で解析できた事例}PPR$-$とPPRを比較すると,ガ格はINTRA\_DとINTRA\_ZのPrecisionとF値が上昇しており,ヲ格はINTRA\_DのPrecisionとF値が,上昇している.PPRはINTRA\_Dの最尤候補同定モデルとINTRA\_Zの最尤候補同定モデルの2つの異なるモデルでINTRA\_DとINTRA\_Zの最尤候補を選んでから,陽にINTRA\_DのINTRA\_Zのどちらが項らしいかを比較することで,正解項を同定しやすくなっていると考えられる.これは,特に(候補数が増加する)長い文の中にある文内項の同定に効果があった.\enumsentence{一九五二年以来の不平等が続いている「日米航空協定」の平等化を実現するため、\underline{「政府}$_{ガ}$が米側に、米航空会社の新規路線開設を今後\underline{認め}ない強硬\underline{方針}を通告していたことが、十三日明らかになった。}{ex-ok2}「認める」のガ格に対して,PPR$-$では誤って「方針」を項として出力したが,PPRは正しく「政府」を出力した.\subsection{誤り分析}項構造解析に失敗した事例を分析したところ,誤り理由の上位3つは次のものであった.1つ目は,談話の理解が必要な場合である.以下の文で,「絡みつく」のニ格は「ユリカモメ」である.しかし,システムはニ格は項なしと判断してしまった.\enumsentence{東京・上野の不忍池で、無残な姿の鳥が目立つ。片足が切れたユリカモメ。釣り糸を引っ掛けて取れなくなって、そのうちに足を切断してしまうケースが多い。竹ぐしが右の首に突き刺さった\underline{ユリカモメ}$_{ニ}$も。くしが十センチほど体の外にのぞく。水面に浮かんだ\underline{ゴム}$_{ガ}$が\underline{絡み付き}、もがくうちに首まで入ってしまったらしい。}{error-1}「ユリカモメ」が話題の中心であることが捉えられなかったことが解析に失敗した理由として考えられる.今回の実験で,談話を捉えるために,SalientReferenceListを用いたが,「絡み付く」の解析時に「ユリカモメ」はListには無いため,うまくいかない.これを解析するためには,「ユリカモメは負傷している」「絡み付くは負傷に関する述語である」という知識のもとで,「ユリカモメが絡み付くのニ格である」という推論が必要となる.その知識を本文中から取得するには,「鳥」や2回出てくる「ユリカモメ」が照応関係にあるという知識も必要となることから,固有表現解析や共参照解析などと推論を用いた述語項構造解析を同時に行うことで互いに精度を高めあうことができると考える.2つ目は,格フレームなどの情報を使った格の同時解析が必要な場合である.次の文の「書く」のニ格は「日記」・ヲ格は「矛盾」とアノテートされているが,システムはニ格は「項なし」・ヲ格は「日記」と判断した.\enumsentence{\underline{日記}$_{ニ}$には、小説の読後感や将来への夢、希望などをつづるようになり、高校生になると、大学受験のこと、沖縄における政治の\underline{矛盾}$_{ヲ}$なども\underline{書く}ようになった。}{error-2}一般に,「書く」のニ格に「日記」が来ることは少ない.しかし,京都大学格フレーム\cite{Kawahara:2005:NLP}\footnote{\url{http://www.gsk.or.jp/catalog/GSK2008-B/catalog.html}}のような格フレーム辞書を用いれば,「書く」は「日記」をニ格にとりうることがわかる.\tblref{tbl:kaku-case}に京都大学格フレームにおける「書く」の第1格フレームと第3格フレームを示した.この表は,それぞれの格フレームを構成する格がどのような項をどのくらい取るのかを,WEBコーパス内の頻度付きで表している.\tblref{tbl:kaku-case}より,ヲ格に``補文''(ここでは「沖縄における政治の矛盾」)をとれば,「問い」をニ格にとりうる,とわかる.\begin{table}[b]\caption{京都大学格フレームにおける「書く」の第1・第3格フレーム}\label{tbl:kaku-case}\input{01table08.tex}\end{table}3つ目は,一般の述語とは異なる扱いをすべき述語の場合である.NAISTテキストコーパスでは名詞述語『名詞句$+$コピュラ「だ」』も述語としてアノテーションされている.\enumsentence{\underline{欧州連合}$_{ガ}$が十五カ国に拡大して初の交渉となる。昨年は欧州市場での乗用車の売れ行き回復を受け、規制枠を若干上方修正したが、今年については「昨年の新車登録台数集計を踏まえて対応したい」と\underline{慎重姿勢だ}。}{ex-c}しかしながら,名詞述語の振る舞いは他の述語とは明らかに異なり,同一の素性・モデルで項を同定するのは難しい.そのため,他の述語の解析モデルと分けるべきであると考える.実際に,PPRを,名詞述語とそれ以外の述語で単純に解析モデルを分けて学習・テストしたところ,\tblref{tbl:result-copula-ga}に示したように\footnote{「全ての述語」は「名詞述語」と「その他の述語」からなる.}ガ格のALLのF値が77.59から77.75と0.16ポイント上昇した.大きな上昇がみられなかったのは,項と名詞述語の意味的関係を既存の素性ではうまく捉えられないためだと考える.名詞述語文の働きは様々で,「ラッセルは哲学者だ」のようにある事物がどのような範疇に属するのかを述べたり,「この部屋の温度は19度だ」のように記述を満たす値がどれなのかを述べたりする\cite{Imada:2010:DThesis}.このような関係は\secref{sec:feature}での素性では捉えられない.そのため,京都大学名詞格フレーム\cite{Sasano:2005:JNLP}や日本語語彙大系\cite{goitaikei}などの名詞間の関係を捉える知識を用いる必要があると考える.\begin{table}[t]\caption{名詞述語とそれ以外の述語とでモデルを分けた場合のガ格の性能の比較}\label{tbl:result-copula-ga}\input{01table09.tex}\end{table}また,動詞にも一般動詞とは異なる振る舞いをする動詞「なる」の解析誤りも多かった.\enumsentence{山花氏らにとっては、社会党が離脱を認めるか\underline{どうか}$_{ガ}$が、最初の\underline{関門}$_{ニ}$と\underline{なる}。}{error-naru1}\enumsentence{\underline{長さ}$_{ガ}$\underline{\mbox{40メートル}}$_{ニ}$にも\underline{なる}3両編成の大型トラック、ロードトレインに便乗して大乾燥地帯を行く蛭子。}{error-naru2}\enumsentence{福井市の中心から足羽川を上流へ十キロたどると、\underline{そこ}$_{ガ}$はもうひなびた農村の\underline{たたずまい}$_{ニ}$と\underline{なる}。}{error-naru3}これらの事例の「なる」自体には意味はあまり持たず,ニ格が名詞述語相当の意味を持っているとも言える.そのため,名詞述語同様,解析モデルを分けるべきであると考える.
\section{おわりに}
本稿では,位置関係ごとに最尤候補同定モデルを作成し,実際の解析時には,各位置関係の最尤候補の中から最終的な出力を選ぶモデルを提案した.従来の研究では位置関係ごとに優先順位をつけ,決定的な解析を行ってきたが,それよりも提案手法が精度良く解析できることを確かめた.今後の課題は,複数の格の解析を同時に行う手法と,本手法を統合させることを考えている.これまでに,同時解析を行うモデルは\newcite{Taira:2008:EMNLP}や\newcite{Sasano:IPSJ:2011}によって提案されてきたが\footnote{\newcite{Yoshikawa:2013:JNLP}を文間候補を考慮するように発展させるのは計算量の問題から困難だと考える.},いずれも,特定の位置関係を優先的に決定する手法である.それらの手法を,異なる位置関係の候補を参照するように発展させることを考えている.また,名詞述語などの特殊な述語については,一般の述語とは解析モデルを分けることで,精度向上を目指すことも考えている.これらは名詞間の意味的知識がなければ解析が難しいことが分かったので,日本語語彙大系などのシソーラスを活用することを考えている.\acknowledgmentウェブから収集した日本語文データを使用させてくださった河原大輔氏に感謝いたします.また,\citeA{Taira:2008:EMNLP}の詳細なアルゴリズムを教えてくださった平博順氏にお礼申し上げます.そして,多数の有益なコメントをくださった匿名の3名の査読者に深謝いたします.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Chinchor,Hirschman,\BBA\Lewis}{Chinchoret~al.}{1993}]{Chinchor:1993:CL}Chinchor,N.,Hirschman,L.,\BBA\Lewis,D.~D.\BBOP1993\BBCP.\newblock\BBOQ{EvaluatingMessageUnderstandingSystems:AnAnalysisoftheThirdMessageUnderstandingConference(MUG-3)}.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf19}(3),\mbox{\BPGS\409--449}.\bibitem[\protect\BCAY{Cortes\BBA\Vapnik}{Cortes\BBA\Vapnik}{1995}]{Cortes:1995:ML}Cortes,C.\BBACOMMA\\BBA\Vapnik,V.\BBOP1995\BBCP.\newblock\BBOQ{Support-VectorNetworks}.\BBCQ\\newblock{\BemMachinelearning},{\Bbf20}(3),\mbox{\BPGS\273--297}.\bibitem[\protect\BCAY{藤田\JBA乾\JBA松本}{藤田\Jetal}{2004}]{Fujita:2004:IPSJ}藤田篤\JBA乾健太郎\JBA松本裕治\BBOP2004\BBCP.\newblock自動生成された言い換え文における不適格な動詞格構造の検出.\newblock\Jem{情報処理学会論文誌},{\Bbf45}(4),\mbox{\BPGS\1176--1187}.\bibitem[\protect\BCAY{Hindle}{Hindle}{1990}]{Hindle:1990:ACL}Hindle,D.\BBOP1990\BBCP.\newblock\BBOQ{NounClassificationfromPredicate-ArgumentStructures}.\BBCQ\\newblockIn{\BemProceedingsofthe28thAnnualMeetingonAssociationforComputationalLinguistics},\mbox{\BPGS\268--275}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{飯田\JBA乾\JBA松本}{飯田\Jetal}{2004}]{Iida:2004:IPSJ}飯田龍\JBA乾健太郎\JBA松本裕治\BBOP2004\BBCP.\newblock文脈的手がかりを考慮した機械学習による日本語ゼロ代名詞の先行詞同定.\newblock\Jem{情報処理学会論文誌},{\Bbf45}(3),\mbox{\BPGS\906--918}.\bibitem[\protect\BCAY{飯田\JBA小町\JBA井之上\JBA乾\JBA松本}{飯田\Jetal}{2010}]{Iida:2010:JNLP}飯田龍\JBA小町守\JBA井之上直也\JBA乾健太郎\JBA松本裕治\BBOP2010\BBCP.\newblock{述語項構造と照応関係のアノテーション:NAISTテキストコーパス構築の経験から}.\newblock\Jem{自然言語処理},{\Bbf17}(2),\mbox{\BPGS\25--50}.\bibitem[\protect\BCAY{Iida,Inui,\BBA\Matsumoto}{Iidaet~al.}{2005}]{Iida:2005:TALIP}Iida,R.,Inui,K.,\BBA\Matsumoto,Y.\BBOP2005\BBCP.\newblock\BBOQ{AnaphoraResolutionbyAntecedentIdentificationFollowedbyAnaphoricityDetermination}.\BBCQ\\newblock{\BemACMTransactionsonAsianLanguageInformationProcessing},{\Bbf4}(4),\mbox{\BPGS\417--434}.\bibitem[\protect\BCAY{Iida,Inui,\BBA\Matsumoto}{Iidaet~al.}{2007}]{Iida:2007:TALIP}Iida,R.,Inui,K.,\BBA\Matsumoto,Y.\BBOP2007\BBCP.\newblock\BBOQ{Zero-anaphoraResolutionbyLearningRichSyntacticPatternFeatures}.\BBCQ\\newblock{\BemACMTransactionsonAsianLanguageInformationProcessing},{\Bbf6}(4),\mbox{\BPGS\1:1--1:22}.\bibitem[\protect\BCAY{池原\JBA宮崎\JBA白井\JBA横尾\JBA中岩\JBA小倉\JBA大山\JBA林}{池原\Jetal}{1997}]{goitaikei}池原悟\JBA宮崎正弘\JBA白井諭\JBA横尾昭男\JBA中岩浩巳\JBA小倉健太郎\JBA大山芳史\JBA林良彦\BBOP1997\BBCP.\newblock\Jem{日本語語彙大系}.\newblock岩波書店.\bibitem[\protect\BCAY{今田}{今田}{2010}]{Imada:2010:DThesis}今田水穂\BBOP2010\BBCP.\newblock\Jem{日本語名詞述語文の意味論的・機能論的分析}.\newblock博士(言語学)学位論文,筑波大学.\bibitem[\protect\BCAY{Imamura,Saito,\BBA\Izumi}{Imamuraet~al.}{2009}]{Imamura:2009:ACL}Imamura,K.,Saito,K.,\BBA\Izumi,T.\BBOP2009\BBCP.\newblock\BBOQ{DiscriminativeApproachtoPredicate-ArgumentStructureAnalysiswithZero-AnaphoraResolution}.\BBCQ\\newblockIn{\BemProceedingsoftheJointConferenceofthe47thAnnualMeetingoftheAssociationforComputationalLinguisticsandthe4thInternationalJointConferenceonNaturalLanguageProcessingoftheAsianFederationofNaturalLanguageProcessing},\mbox{\BPGS\85--88}.\bibitem[\protect\BCAY{河原\JBA黒橋}{河原\JBA黒橋}{2004}]{Kawahara:2004:JNLP}河原大輔\JBA黒橋禎夫\BBOP2004\BBCP.\newblock自動構築した格フレーム辞書と先行詞の位置選好順序を用いた省略解析.\newblock\Jem{自然言語処理},{\Bbf11}(3),\mbox{\BPGS\3--19}.\bibitem[\protect\BCAY{河原\JBA黒橋}{河原\JBA黒橋}{2005}]{Kawahara:2005:NLP}河原大輔\JBA黒橋禎夫\BBOP2005\BBCP.\newblock格フレーム辞書の漸次的自動構築.\newblock\Jem{自然言語処理},{\Bbf12}(2),\mbox{\BPGS\109--131}.\bibitem[\protect\BCAY{Kawahara\BBA\Kurohashi}{Kawahara\BBA\Kurohashi}{2006}]{Kawahara:2006:LREC}Kawahara,D.\BBACOMMA\\BBA\Kurohashi,S.\BBOP2006\BBCP.\newblock\BBOQ{CaseFrameCompilationfromtheWebusingHigh-PerformanceComputing}.\BBCQ\\newblockIn{\BemProceedingsofthe5thInternationalConferenceonLanguageResourcesandEvaluation},\mbox{\BPGS\1344--1347}.\bibitem[\protect\BCAY{Kawahara,Kurohashi,\BBA\Hasida}{Kawaharaet~al.}{2002}]{Kawahara:2002:LREC}Kawahara,D.,Kurohashi,S.,\BBA\Hasida,K.\BBOP2002\BBCP.\newblock\BBOQ{ConstructionofaJapaneseRelevance-taggedCorpus}.\BBCQ\\newblockIn{\BemProceedingsofthe3rdInternationalConferenceonLanguageResourcesandEvaluation},\mbox{\BPGS\2008--2013}.\bibitem[\protect\BCAY{工藤\JBA松本}{工藤\JBA松本}{2004}]{Kudo:2004:IPSJ}工藤拓\JBA松本裕治\BBOP2004\BBCP.\newblock半構造化テキストの分類のためのブースティングアルゴリズム.\newblock\Jem{情報処理学会論文誌},{\Bbf45}(9),\mbox{\BPGS\2146--2156}.\bibitem[\protect\BCAY{Nariyama}{Nariyama}{2002}]{Nariyama:2002:TMI}Nariyama,S.\BBOP2002\BBCP.\newblock\BBOQ{GrammarforEllipsisResolutioninJapanese}.\BBCQ\\newblockIn{\BemProceedingsofthe9thInternationalConferenceonTheoreticalandMethodologicalIssuesinMachineTranslation},\mbox{\BPGS\135--145}.\bibitem[\protect\BCAY{日本語記述文法研究会}{日本語記述文法研究会}{2010}]{ModernJapaneseGrammar1}日本語記述文法研究会\BBOP2010\BBCP.\newblock\Jem{現代日本語文法1}.\newblockくろしお出版.\bibitem[\protect\BCAY{笹野\JBA河原\JBA黒橋}{笹野\Jetal}{2005}]{Sasano:2005:JNLP}笹野遼平\JBA河原大輔\JBA黒橋禎夫\BBOP2005\BBCP.\newblock名詞格フレーム辞書の自動構築とそれを用いた名詞句の関係解析.\newblock\Jem{自然言語処理},{\Bbf12}(3),\mbox{\BPGS\129--144}.\bibitem[\protect\BCAY{笹野\JBA黒橋}{笹野\JBA黒橋}{2011}]{Sasano:IPSJ:2011}笹野遼平\JBA黒橋禎夫\BBOP2011\BBCP.\newblock大規模格フレームを用いた識別モデルに基づく日本語ゼロ照応解析.\newblock\Jem{情報処理学会論文誌},{\Bbf52}(12),\mbox{\BPGS\3328--3337}.\bibitem[\protect\BCAY{Surdeanu,Harabagiu,Williams,\BBA\Aarseth}{Surdeanuet~al.}{2003}]{Surdeanu:2003:ACL}Surdeanu,M.,Harabagiu,S.,Williams,J.,\BBA\Aarseth,P.\BBOP2003\BBCP.\newblock\BBOQ{UsingPredicate-ArgumentStructuresforInformationExtraction}.\BBCQ\\newblockIn{\BemProceedingsofthe41stAnnualMeetingonAssociationforComputationalLinguistics},\lowercase{\BVOL}~1,\mbox{\BPGS\8--15}.\bibitem[\protect\BCAY{Taira,Fujita,\BBA\Nagata}{Tairaet~al.}{2008}]{Taira:2008:EMNLP}Taira,H.,Fujita,S.,\BBA\Nagata,M.\BBOP2008\BBCP.\newblock\BBOQ{AJapanesePredicateArgumentStructureAnalysisUsingDecisionLists}.\BBCQ\\newblockIn{\BemProceedingsoftheConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\523--532}.\bibitem[\protect\BCAY{渡邉\JBA浅原\JBA松本}{渡邉\Jetal}{2010}]{Watanabe:JSAI:2010}渡邉陽太郎\JBA浅原正幸\JBA松本裕治\BBOP2010\BBCP.\newblock述語語義と意味役割の結合学習のための構造予測モデル.\newblock\Jem{人工知能学会論文誌},{\Bbf25}(2),\mbox{\BPGS\252--261}.\bibitem[\protect\BCAY{Wu\BBA\Fung}{Wu\BBA\Fung}{2009}]{Wu:EAMT:2009}Wu,D.\BBACOMMA\\BBA\Fung,P.\BBOP2009\BBCP.\newblock\BBOQ{CanSemanticRoleLabelingImproveSMT?}\BBCQ\\newblockIn{\BemProceedingsofthe13thAnnualConferenceoftheEuropeanAssociationforMachineTranslation},\mbox{\BPGS\218--225}.\bibitem[\protect\BCAY{吉川\JBA浅原\JBA松本}{吉川\Jetal}{2013}]{Yoshikawa:2013:JNLP}吉川克正\JBA浅原正幸\JBA松本裕治\BBOP2013\BBCP.\newblockMarkovLogicによる日本語述語項構造解析.\newblock\Jem{自然言語処理},{\Bbf20}(2),\mbox{\BPGS\251--271}.\end{thebibliography}\begin{biography}\bioauthor{林部祐太}{2009年大阪大学基礎工学部情報科学科中途退学.2011年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.現在,同研究科博士後期課程在籍.修士(工学).意味解析とその応用に興味をもつ.}\bioauthor{小町守}{2005年東京大学教養学部基礎科学科科学史・科学哲学分科卒.2010年奈良先端科学技術大学院大学情報科学研究科博士後期課程修了.博士(工学).同研究科助教を経て,2013年より首都大学東京システムデザイン学部准教授,現在に至る.大規模なコーパスを用いた意味解析および統計的自然言語処理に関心がある.人工知能学会,情報処理学会,ACL各会員.}\bioauthor{松本裕治}{1977年京都大学工学部情報工学科卒.1979年同大学大学院工学研究科修士課程情報工学専攻修了.同年電子技術総合研究所入所.1984〜1985年英国インペリアルカレッジ客員研究員.1985〜1987年財団法人新世代コンピュータ技術開発機構に出向.京都大学助教授を経て,1993年より奈良先端科学技術大学院大学教授,現在に至る.工学博士.専門は自然言語処理.言語処理学会,情報処理学会,人工知能学会,認知科学会,AAAI,ACL,ACM各会員.情報処理学会フェロー,ACLFellow.}\end{biography}\biodate\end{document}
|
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.